برنامه نویسی

تاریخچه مختصری از هوش مصنوعی

دوستان آخر هفته مبارک!

مقاله امروز تاریخچه مختصری از هوش مصنوعی را در بر می گیرد. این یک تاریخچه فوق العاده غنی از تحقیق و آزمایش است. هدف این است که مباحث را به آرامی بدون غواصی در عمیق بپوشانیم و از لرزیدن جلوگیری کنیم.

مقدمه

هدف من پوشش تولد هوش مصنوعی به عنوان یک زمینه مطالعه ، برخی از نقاط عطف اصلی در توسعه و پیشرفت های اخیر در پردازش زبان طبیعی (NLP) است. اگر این فانتزی شما را قلقلک می دهد ، سپس دست و پنجه نرم کنید.

مهم است که دو عامل محرک منجر به هوش مصنوعی در سال 2025 را تشریح کنیم. اولین مورد پردازش قدرت است. اختراع واحدهای پردازش رایانه ترانزیستور (CPU) و واحدهای پردازش گرافیکی (GPU) و قدرت محاسبات ، نحوه مشاهده رایانه ها و هوش مصنوعی را به طور کامل تغییر داده است.

دوم ادغام داده ها است. نه فقط اتصال بلکه توانایی ما در ساختار ، برچسب زدن و پرس و جو از این داده ها به روشی که دستگاه ها در قالب های بزرگ هضم شوند و سریعتر باشند. فقط داشتن یک مجموعه داده های بزرگ و تمیز غیرقابل تصور بود ، چه رسد به یک مجموعه داده قابل آموزش و دارای برچسب یا کلمات و تصاویر.

منشاء

“آیا دستگاه ها می توانند فکر کنند؟”

درک این نکته مهم است که هوش مصنوعی جدید نیست. این درست است که زمینه ماشینهایی که می توانند از انسان تقلید کنند بیشتر از دهه 1950 می رود. به خاطر ما از سال 1950 شروع خواهیم کرد. با دوست انگلیسی ما ، آلن تورینگ ، و مقاله وی با عنوان “ماشین آلات محاسباتی و اطلاعات ، (1) جایی که وی این سؤال را مطرح کرد ،” آیا ماشین ها می توانند فکر کنند؟ “.

شرح تصویر
آلن ماتیسون تورینگ ، ریاضیدان و دانشمند رایانه ، 1951 (2)

تورینگ با پیشنهاد “بازی تقلید” ، که اکنون به عنوان تست تورینگ شناخته می شود ، فراتر از تعریف مفاهیم کلمات “فکر” و “ماشین” شد. با فراتر از تعاریف و مبهم بودن کلماتی که او یک سناریو ارائه می دهد. تصور کنید که دو شرکت کننده وجود دارد. یک ماشین و یک انسان که هر دو سؤال از زبان طبیعی خوانده می شوند و به شخص دیگری پاسخ می دهند. دستگاه و انسان از شخص سوم پنهان است. این شخص سوم نباید بر اساس پاسخ های داده شده از انسان به دستگاه بگوید. این بدان معنی است که دستگاه از آزمون تورینگ عبور کرده است (3).

اخلاق

اصطلاح “هوش مصنوعی” در کنفرانس دارتموث در سال 1956 ابداع شد. این به جان مک کارتی (4) ، بنیانگذار LISP نسبت داده شده است. ترکیب کارشناسان در شبکه های عصبی ، نظریه محاسبه و نظریه اتوماتیک برای دیدن اینکه کدام جنبه های انسان را می توان با هوش مصنوعی تکرار کرد.

پیشرفت در فناوری رایانه

به راستی یک داستان از افسانه ها. داستان اصلی دره سیلیکون به سختی در تاریخ مدرن برای مقیاس نوآوری رقیب است. از سال 1956 با ویلیام شوکلی به غول های مدرن امروز مانند اینتل ، گوگل و بسیاری دیگر. اختراع نیمه هادی ، ترانزیستور و ریزپردازنده چهره جهان را که در آن زندگی می کنیم تغییر داد و صحنه را برای داستان های افسانه ای و تایتان های صنعت تنظیم کرد. اگرچه ، خارج از محدوده نوشته های امروز است ، من به شما توصیه می کنم به پادکست های اکتسابی گوش دهید (6). این آزمایشگاه های بل باورنکردنی است ، هشت خائن و نیمه هادی های Fairchild در دنیایی که امروز در آن زندگی می کنیم بسیار مؤثر بودند. از جمله پیشرفت مستقیم به چت بابات که در سال 2025 استفاده می کنیم.

وقتی صحبت از پیشرفت قدرت محاسباتی می شود. یک قانون بالاتر از همه آنها است. قانون مورس (7) ، که نشان می دهد “تعداد ترانزیستورها روی یک مدار مدار یکپارچه هر دو سال دو برابر می شود.” با توجه به اینکه این قانون از سال 1975 صادق بوده است ، این یک مؤلفه مهم در سفر ما به سمت محتمل بودن هوش مصنوعی است.

پیشرفت از دهه 1990 و اوایل 2000

چندین دهه طول کشید تا هوش مصنوعی به یک نقطه اصلی صحبت کردن تبدیل شود که آبی عمیق IBM قهرمان جهان شطرنج را گری کاسپاروف (8) شکست داد. در اواخر دهه 1990 و اوایل سال 2000 ، ادغام داده ها و افزایش قابل توجه در قدرت محاسبات ، گامهای اساسی در تحقیقات هوش مصنوعی را فراهم کرد. حتی تا سال 2007 ، فناوری کرکره لبخند سونی در حال شناسایی چهره ها در صفحه های دوربین بود (9).

در این مدت پروژه Stanford Imagenet در حال رشد بود. در سال 2006 توسط دانشمند داده لی فی فی (10) (11) آغاز شد. این مجموعه داده از آن زمان به بیش از 14 میلیون تصویر دارای برچسب برای استفاده دانشگاهی در مدلهای AI آموزش داده شده است. این یک پیشرفت بزرگ برای بخش “داده” از الزامات هوش مصنوعی بوده است.

پدرخوانده AI

جفری اورست هینتون در سال 2024 (12) جایزه نوبل فیزیک را به دلیل “اکتشافات و اختراعات بنیادی که امکان یادگیری ماشین را با شبکه های عصبی مصنوعی فراهم می کند ، دریافت کرد. جفری E. هینتون ، دیوید روملهارت و رونالد جی ویلیامز مقاله ای را در مورد الگوریتم پشتیبان گیری (13) (14) در سال 1986 منتشر کردند. نه تنها به ایجاد شبکه های عصبی بلکه الگوریتم های “تنظیم دقیق” لازم برای مفیدتر کردن آنها برای انسان ها. واقعاً دستاوردهای بزرگی که هنوز هم برای آموزش و تنظیم مدل ها در سال 2025 بسیار مهم هستند.

پیشرفت از سال 2012 تا 2022

بزرگترین پیشرفت از سال 2012 به 2022 افزایش قدرت محاسباتی و داده های موجود بود. تلاش بیشتری برای ساخت مجموعه داده های دارای برچسب و ساختاری انجام شد که برای یادگیری دستگاه بهینه سازی شدند. به عنوان مثال ، Imagenet میزبان مسابقات سالانه برای آموزش است. تیمی که در آن سال پیروز شد ، الکسنت از تورنتو (15) ، دارای GPU هایی بود که دو هفته طول کشید تا قطار شود. همین مدل فقط پنج دقیقه پوند طول کشید تا در نوامبر سال 2022 تمرین کند. یک تلاش مهم برای پیوند دادن توانایی های محاسباتی به هم. مقادیر زیادی از داده ها همزمان در حال پردازش (آموزش) بودند. یک پیشرفت گسترده در دو جبهه. هر دو قدرت محاسباتی و داده های سازمان یافته در اولویت قرار گرفتند تا منجر به انفجار هوش مصنوعی شوند.

متریک سوم به قدرت محاسباتی و در دسترس بودن داده ها و سازمان اضافه شد. Mlperf Metric (16) که مجموعه ای از معیارها برای کمک به اندازه گیری سرعت AI بود. اگر فکر می کنید قانون مور چشمگیر است ، دستاوردهای مدل های هوش مصنوعی از سال 2022 تا کنون فقط غیرقابل درک است. تصور کنید که آینده برای این مدل ها چه چیزی را در اختیار دارد.

صف اوپای (17) و سرانجام چتپ (18). به دنبال آن انسان شناسی ، جمینی و فراتر از آن. من بسیار هیجان زده ام که می بینم آینده چه چیزی را پشت سر می گذارد و امیدوارم که شما هم باشید. برای بدتر شدن همه ما در این زمینه با هم هستیم. با تغییر جهان ، امیدوارم که این امر برای پیشرفت همه باشد.

با تشکر از خواندن ، به من اطلاع دهید که چه چیزی را باید اضافه کنم.

و اضافه کنید. (19)

منابع

  1. تورینگ ، آلن م. (1950). ماشین آلات و اطلاعات محاسباتی ، فکر، 59/433-460. https://doi.org/10.1093/mind/lix.236.433
  2. https://www.turing.org.uk/source/archive.html
  3. https://en.wikipedia.org/wiki/turing_test
  4. https://www.britannica.com/biography/john-mccarthy
  5. https://www.acquired.fm/episodes/adapting-episode-3-intel
  6. https://www.acquired.fm/episodes/adapting-episode-3-intel
  7. https://en.wikipedia.org/wiki/moore٪27s_law
  8. https://en.wikipedia.org/wiki/deep_blue_versus_garry_kasparov
  9. https://www.cnet.com/culture/say-cheese-sony-technology-focuses-on-smiles/
  10. https://image-net.org/about.php
  11. https://www.historyofdatascience.com/imagenet-a-pioneering-vision-for-computers/#:text=set٪20B20by٪20Data٪20Sicientist ، it٪20Began٪20in٪201985.

  12. https://en.wikipedia.org/wiki/geoffrey_hinton#: text=geoffrey٪20Verest٪20Hinton٪20(born٪201947 ،٪22the٪20Godfather٪20of٪20ai٪22.

  13. https://en.wikipedia.org/wiki/backpropagation
  14. Rumelhart ، D. ، Hinton ، G. & Williams ، R. بازنمایی های یادگیری با خطاهای پشتیبان. طبیعت 323 ، 533-536 (1986). https://doi.org/10.1038/323533a0
  15. https://www.pinecone.io/learn/series/image-search/imagenet/
  16. https://spectrum.ieee.org/mlperf-rankings-2022
  17. https://en.wikipedia.org/wiki/openai
  18. https://en.wikipedia.org/wiki/chatgpt
  19. https://people.idsia.ch/~juergen/who-invented-backpropagation.html

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا