تاریخچه هوش مصنوعی:
افسانه ها، داستان های تخیلی و مبانی استدلال و منطق کامپیوتری
تاریخچه هوش مصنوعی را باید در افسانه ها، داستان ها و آثار به جا مانده از اساطیر یونان باستان در هزاران سال پیش از میلاد مسیح جستجو کرد! در اساطیر یونان باستان، تالوس موجودی غول پیکر و ساخته شده از برنز بود که به عنوان نگهبان جزیره کرت عمل می کرد. او به سمت کشتیهای مهاجم سنگ پرتاب میکرد و روزانه سه دور در اطراف جزیره انجام میداد.تالوس نمونه ای از یک Automaton است؛ کلمه automatonاز یونانی باستان گرفته شده و به معنای “عمل به میل خود” است.
این عنوان در طول تاریخ به ماشینی معمولا مکانیکی نسبت داده شده است که شبیه یک انسان یا یک حیوان ساخته شده و عملی مرتبط با آن را به طور تقریبا خودکار انجام میدهد؛ آنچه در دنیای امروز به عنوان ربات بیشتر میشناسیم. از دیگر مخترعان و مهندسان یونانی معروف این حوزه در قرن اول میلادی میتوان به هرون اشاره کرد. او یک نمایش 10 دقیقه ای کاملا مکانیکی را با استفاده از طنابها، گرهها و ماشینهای ساده چرخ دنده ای ایجاد کرد؛ ساختاری که شاید بتوان امروزه از آن به عنوان اولین ماشین عملی قابل برنامه ریزی یاد کرد.
نمایی از نمایش تئاتر خودکار ساخته شده توسط هرون در قرن اول میلادی
ساخت اتوماتون ها با گذر زمان نیز ادامه داشت. برای مثال احمد بن موسی، دانشمند مسلمان ایرانی قرن 9 میلادی در کتاب الحیل خود به 100 اختراع در زمینه اتوماسیون و سیستم های کنترلی اشاره کرده است. 25 تا از این اختراعات از یونان باستان (من جمله آثار هرون) اقتباس شده و بقیه حاصل سال ها تلاش او به همراه دو برادر دیگر خود بوده است که در تاریخ به بنوموسی مشهور بوده اند. یکی از این آثار یک فلوت مبتنی بر بخار بود که از طریق یک برنامه پیاده سازی شده به وسیله یک سیلندر گردان با تعدادی میخ کنترل میشد.
شاید بتوان این اختراع را یکی از اولین اتوماتون ها با برنامه ذخیره شده دانست. در این میان شاید بد نباشد به پدر علم رباتیک یعنی بدیع الزمان جزری دانشمند مسلمان قرن 12 میلادی نیز اشاره کرد. او در کتاب الجامع بین العلم و العمل النافع فی صناعة الحیل به 50 دستگاه اختراع خود اشاره کرده است که از میان آن ها شاید بتوان به کشتی مجهز به 4 ربات موسیقی دان انسان نما اشاره کرد.
این اتوماتون ها قابل برنامه ریزی بودند و از طریق حرکت آب کنترل میشدند. علاوه بر این اختراع، با توجه به اهمیت طهارت و پاکیزگی در اسلام جزری اختراعات متعددی در این زمینه نیز داشت. مانند دستگاه خودکار شستشوی دست مجهز به مکانیزم فلاش (سیفون) و یا فواره طاووس.
گرچه ساخت این دستگاه های خودکار در آن برهه زمانی موفقیت های بسیار بزرگی به شمار می آمد اما برای پیشرفت در مسیر آنچه امروزه از آن به عنوان هوش مصنوعی یاد میکنیم کافی نبود. هوش مصنوعی بر این فرض استوار است که فرآیند تفکر انسان را می توان مکانیزه کرد.
فیلسوفان چینی، هندی و یونانی همگی در هزاره اول پیش از میلاد روشهای ساختاریافته استنتاج را توسعه دادند و ایده های آنها در طول قرن ها توسط فیلسوفانی مانند ارسطو، اقلیدس یا خوارزمی – دانشمند مسلمان ایرانی و پدر علم جبر که کلمه الگوریتم از نام او گرفته شده است. – توسعه یافت.
مطالعه منطق ریاضی توسط دانشمندانی چون راسل و آفرد نورث وایتهد در اوایل قرن بیستم را میتوان اولین گام های رسمی در تاریخچه هوش منصوعی جهت رسیدن به هوش مصنوعی امروزی دانست.
هیلبرت بر مبنای موفقیت دو دانشمند قبلی، تمام ریاضیدانان را به پاسخ به این سوال چالشی دعوت کرد: آیا میتوان تمام استدلال های ریاضی را با فرمول بیان کرد؟ پاسخ به این سوال چالشی در سال های 1920 تا 1930 منجر به نتیجه شگفت انگیزی شد و آن این بود که میتوان تمام فرآیند استنتاج و استدلال را توسط دنباله ای از 0 و 1 ها مکانیزه کرد. این دستاورد دانشمندان و مهندسان را به ماشین هایی که میتوانند فکر کنند امیدوار کرد.
نمونه شبیه سازی شده از فلوت خودکار برادران بنوموسی که در مرکز Ars Electronica در شهر لینز اتریش به نمایش درآمده است.
ربات های موسیقیدان ساخته شده توسط دانشمند مسلمان بدیع الزمان جزری
قواره طاووس ساخته دانشمند مسلمان بدیع الزمان جزری
تولد تاریخچه هوش مصنوعی و موفقیت های اولیه
از سال 1930 دانشمندان مختلفی در زمینه امکان سنجی ایجاد ماشین های قابل تفکر به تحقیق و بررسی پرداختند. یکی از این افراد، ریاضیدان و دانشمند انگلیسی بهنام آلن تورینگ (Alan Turing) بود که سعی داشت امکان دستیابی به هوش مصنوعی را با علم ریاضی بررسی کند. تورینگ میگفت انسانها از اطلاعات موجود و همچنین قدرت استدلال برای تصمیمگیری و حل مشکلات استفاده میکنند، پس چرا ماشینها نمیتوانند همین کار را انجام دهند؟ این دغدغهی ذهنی درنهایت به نوشتن مقالهی بسیار معروفی در سال ۱۹۵۰ انجامید که با پرسش جنجالی «آیا ماشینها میتوانند فکر کنند؟» شروع میشد.
تورینگ در این مقاله به شرح چگونگی ساخت ماشینهای هوشمند و آزمایش سطح هوشمندی آنها پرداخت و با پرسش «آیا ماشینها میتوانند از بازی تقلید سربلند بیرون آیند؟»، آغازگر آزمون بسیار معروف «تست تورینگ» شد. در آن مقاله، تورینگ یک بازی سهنفره را توصیف کرد که در آن یک “بازجوی” انسانی از طریق متن با یک انسان دیگر و یک ماشین ارتباط برقرار میکند و قضاوت میکند که هر پاسخ را چه کسی نوشته است. اگر بازجو نتواند بهطور قابل اعتماد انسان را شناسایی کند، آنگاه تورینگ میگوید که میتوان گفت ماشین هوشمند است.
تست تورینگ
تورینگ گرچه در مقاله خود مسائل بنیادی را مطرح کرد اما ایده هایش تا چند سال در حد نظریه باقی ماند؛ چراکه آن زمان کامپیوترها از پیشنیاز کلیدی برای هوشمندی، بیبهره بودند. کامپیوترها نمیتوانستند دستورات را ذخیره کنند و فقط میتوانستند آنها را اجرا کنند. بهعبارت دیگر، میشد به کامپیوترها گفت چه کنند، اما نمیشد از آنها خواست کاری را که انجام دادهاند، بهخاطر بیاورند. کامپیوترهای مورد استفاده در آن زمان، حاصل نیازهای برآمده جنگ جهانی دوم (1939 – 1945 ) بود.
معروف ترین کامپیوتر همه کاره آن زمان با نام ENIAC فضایی اندازه یک اتاق حدودا 30 متری را اشغال میکرد و گرچه قابلیت پردازش 5000 جمع درثانیه را داشت اما به دلیل نداشتن حافظه ذخیره سازی، برای انجام هر سری محاسبات جدید نیاز به برنامه ریزی مجدد توسط برنامه نویسان داشت. مشکل بزرگ دوم، هزینههای سرسامآور کار با کامپیوتر بود. اوایل دههی ۱۹۵۰، هزینهی اجارهی کامپیوتر تا ۲۰۰ هزار دلار در ماه میرسید؛ بههمینخاطر، فقط دانشگاههای معتبر و شرکتهای بزرگ فناوری میتوانستند به این حوزه وارد شوند. اگر آنروزها کسی میخواست برای پژوهشهای هوش مصنوعی، فاند دریافت کند، لازم بود که ابتدا ممکن بودن ایدهی خود را اثبات میکرد و بعد، از حمایت و تأیید افراد بانفوذ بهرهمند میشد.
کامپیوتر ENIAC 1945 – 1955
در ادامه تاریخچه هوش مصنوعی پنج سال بعد، سه پژوهشگر علوم کامپیوتر بهنامهای الن نیوول، کلیف شا و هربرت سایمون نرمافزار Logic Theorist را توسعه دادند که توانست ممکن بودن ایدهی هوش ماشینی تورینگ را اثبات کند. این برنامه که با بودجهی شرکت تحقیق و توسعهی RAND توسعه داده شده بود، بهگونهای طراحی شده بود تا مهارتهای حل مسئلهی انسان را تقلید کند. بسیاری، Logic Theorist را اولین برنامهی هوش مصنوعی میدانند.
این برنامه در پروژهی تحقیقاتی تابستانی کالج دارتموث در زمینهی هوش مصنوعی (DSRPAI) به میزبانی جان مککارتی (John McCarthy) و ماروین مینسکی (Marvin Minsky) در سال ۱۹۵۶ ارائه شد. در این کنفرانس تاریخی، مککارتی پژوهشگران برتر در حوزههای مختلف را برای بحث آزاد در مورد هوش مصنوعی(اصطلاحی که خود مککارتی در همان رویداد ابداع کرد)، دور هم جمع کرد، با این تصور که با همکاری جمعی دستیابی به هوش مصنوعی ممکن میشد. اما کنفرانس نتوانست انتظارات مککارتی را برآورده کند، چراکه هیچ هماهنگی بین پژوهشگران نبود؛ آنها به دلخواه خود میآمدند و میرفتند و در مورد روشهای استاندارد برای انجام پژوهشهای هوش مصنوعی به هیچ توافقی نرسیدند.
بااینحال، تمام شرکتکنندگان از صمیم قلب این حس را داشتند که هوش مصنوعی قابل دستیابی است. اهمیت کنفرانس DSRPAI غیرقابلوصف است؛ چراکه ۲۰ سال پژوهش حوزهی هوش مصنوعی برمبنای آن صورت گرفت.
جان مک کارتی پدر هوش مصنوعی جهان
از سالهای ۱۹۵۷ تا ۱۹۷۴، بهعنوان دوران شکوفایی هوش مصنوعی یاد میشود. در این دوره، کامپیوترها سریعتر، ارزانتر و فراگیرتر شدند و میتوانستند اطلاعات بیشتری را ذخیره کنند. برنامههایی که در سالهای پس از کنفرانس دارتموث نیز توسعه یافتند، برای اکثر مردم، به سادگی «حیرتانگیز» بود؛ رایانهها مسائل جبری را حل میکردند، قضایای هندسی اثبات میکردند و صحبت کردن به زبان انگلیسی را یاد میگرفتند! تعداد کمی در آن زمان باور می کردند که چنین رفتار «هوشمندانه» توسط ماشین ها اصلاً امکان پذیر است.
محققان اما بسیار به آینده هوش مصنوعی خوشبین بودند و پیشبینی میکردند که یک ماشین کاملاً هوشمند در کمتر از 20 سال ساخته خواهد شد. نمونه برنامههای کامپیوتری اولیه مانند General Problem Solver نیوول و سایمون، یا نرمافزار ELIZA که سال ۱۹۶۶ توسط جوزف وایزنبام طراحی شده و اولین چتباتی بود که توانست آزمون تورینگ را با موفقیت پشت سر بگذارد، دانشمندان را چند قدم به اهداف «حل مسئله» و «تفسیر زبان گفتاری» نزدیکتر کرد.
این موفقیتها همراهبا حمایت پژوهشگران برجستهای که در کنفرانس DSRPAI شرکت کرده بودند، سرانجام سازمانهای دولتی مانند آژانس پروژههای تحقیقاتی پیشرفته دفاعی آمریکا (دارپا) را متقاعد کرد تا بودجهی لازم برای پژوهشهای هوش مصنوعی را در چندین موسسه تأمین کنند.
دولت آمریکا بهویژه به توسعهی ماشینی علاقهمند بود که بتواند هم زبان گفتاری و هم پردازش دادهها را با توان عملیاتی بالا رونویسی و ترجمه کند. همچنین آزمایشگاه های هوش مصنوعی در تعدادی از دانشگاه های بریتانیا و ایالات متحده – مانند MIT – در اواخر دهه 1950 و اوایل دهه 1960 راه اندازی شد.
نمونه گفتگو با چت بات ELIZA
اولین زمستان هوش مصنوعی
متاسفانه در دهه 1970 تاریخچه هوش مصنوعی دچار رکود شد. هوش مصنوعی در معرض نقدها و شکست های مالی قرار گرفت. محققان هوش مصنوعی در درک دشواری مشکلاتی که با آن مواجه بودند ناکام بودند. خوشبینی فوقالعاده آنها انتظارات عمومی را به طرز غیرممکنی بالا برده بود، و زمانی که نتایج وعده داده شده محقق نشد، بودجه هدفگذاری شده برای هوش مصنوعی به شدت کاهش یافت. عدم موفقیت نشان داد که تکنیکهایی که در آن زمان توسط محققان هوش مصنوعی استفاده میشد برای دستیابی به اهدافشان کافی نبود.
موانع زیادی سر راه تحقق این اهداف قرار داشت که بزرگترینشان، نبود قدرت رایانشی کافی برای انجام پروژهها بود. کامپیوترهای آن زمان نه جای کافی برای ذخیرهی حجم عظیمی از اطلاعات داشتند و نه سرعت لازم برای پردازش آنها. هانس موراوک، دانشجوی دکترای مککارتی در آن زمان، گفت که «کامپیوترها آن موقع میلیونها بار ضعیفتر از آن بودند که بتوانند هوشی از خود نشان دهند».
علاوه بر کمبود توان پردازشی، دانشمندان به این نتیجه رسیدند که زمان مورد نیاز برای حل بسیاری از مسائل و وظایف با گسترش ابعاد مسئله به صورت نمایی رشد میکند؛ نتیجتا سیستم های وظیفه محدودی که در آن زمان مردم را به حیرت واداشته بودند قابلیت تعمیم به وظایف بزرگتر را نداشتند.
همچنین مشکل دیگری که پژوهشگران با آن روبرو بودند نبود دیتاست های گسترده جهت آموزش مدل های زبانی یا بینایی ماشین بود. اما این عقبنشینیها تأثیری بر رشد و پیشرفت این رشته نداشت. کاهش بودجه تنها بر تعداد انگشت شماری از آزمایشگاههای اصلی تأثیر گذاشت و انتقادات تا حد زیادی نادیده گرفته شدند.
علاقه عمومی به این رشته همچنان در حال رشد بود، تعداد محققان به طور چشمگیری افزایش یافت، و ایده های جدید در برنامه ریزی منطقی، استدلال عقل سلیم و بسیاری از زمینه های دیگر مورد بررسی قرار گرفت.
شکوفایی دوباره تاریخچه هوش مصنوعی
با گسترش استفاده از سیستم های خبره (Expert Systems) در دهه 1980 که فرآیند تصمیم گیری افراد متخصص را تقلید میکردند روح تازه ای به حوزه هوش مصنوعی دمیده شد. این سیستم از افراد خبره در زمینههای مختلف میپرسید که در موقعیتی خاص، چه واکنشی نشان میدهند و بعد پاسخهای آنها را در اختیار افراد غیرمتخصص قرار میداد تا آنها از برنامه یاد بگیرند. در این دهه از سیستمهای خبره بهطور گسترده در صنایع استفاده میشد.
دولت ژاپن بهعنوان بخشی از پروژهی نسل پنجم کامپیوتر (FGCP)، سرمایهگذاری کلانی در سیستمهای خبره و دیگر پروژههای هوش مصنوعی انجام داد. از سال ۱۹۸۲ تا ۱۹۹۰، ژاپن ۴۰۰ میلیون دلار برای ایجاد تحول در پردازشهای کامپیوتری، اجرای برنامهنویسی منطقی و بهبود هوش مصنوعی هزینه کرد. متاسفانه، اکثر این اهداف بلندپروازانه محقق نشد؛ اما میتوان این طور به قضیه نگاه کرد که پروژهی FGCP ژاپن بهطور غیرمستقیم الهامبخش نسلی از مهندسان و دانشمندان جوان شد تا بخشی از تاریخچه هوش مصنوعی را بسازند و به دنیای هوش مصنوعی قدم بگذارند.
ادوارد فاینباوم (Edward Feigenbaum) پدر سیستم های خبره در حال کار با اولین سیستم خبره به نام DENDRAL در سال 1966
اگرچه بازنمایی دانش نمادین و استدلال منطقی در دهه 80 کاربردهای مفیدی ایجاد کرد و بودجه هنگفتی برای گسترش سیستم های خبره دریافت کرد، اما هنوز قادر به حل مشکلات در ادراک، رباتیک، یادگیری و عقل سلیم نبود. تعداد کمی از دانشمندان و مهندسان شروع به شک کردند که رویکرد نمادین برای این کارها کافی است و رویکردهای دیگری مانند ارتباط گرایی در شبکه های عصبی عمیق، رباتیک، محاسبات نرم در سیستم های فازی و یادگیری تقویتی را توسعه دادند.
در سال 1982، فیزیکدان جان هاپفیلد توانست ثابت کند که شکلی از شبکه عصبی (که اکنون “شبکه هاپفیلد” نامیده می شود) می تواند اطلاعات را یاد بگیرد و پردازش کند، و به طور قابل اثبات پس از زمان کافی تحت هر شرایط ثابتی همگرا می شود. این یک پیشرفت بزرگ بود، زیرا قبلاً تصور می شد که شبکه های غیرخطی، به طور کلی، به طور آشفته تکامل می یابند. تقریباً در همان زمان، جفری هینتون و دیوید روملهارت روشی را برای آموزش شبکههای عصبی به نام «Backpropagation» رایج کردند. این دو پیشرفت به احیای اکتشاف شبکههای عصبی مصنوعی کمک کردند.
زمستان دوم
اصطلاح “زمستان هوش مصنوعی” توسط پژوهشگرانی ابداع شد که از کاهش بودجه در سال ۱۹۷۴ جان سالم به در برده بودند و نگران بودند که اشتیاق بیش از حد به سیستمهای خبره از کنترل خارج شده و به دنبال آن ناامیدی رخ خواهد داد. نگرانیهای آنها موجه بود: در اواخر دهه ۱۹۸۰ و اوایل دهه ۱۹۹۰، هوش مصنوعی با مجموعهای از شکستهای مالی مواجه شد.
اولین نشانه تغییر اوضاع، فروپاشی ناگهانی بازار سختافزارهای تخصصی هوش مصنوعی در سال ۱۹۸۷ بود. رایانههای رومیزی از شرکتهای اپل و آیبیام به طور پیوسته در حال افزایش سرعت و قدرت بودند و در سال ۱۹۸۷ قدرتمندتر از ماشینهای لیسپ گرانقیمتی شدند که توسط شرکتهایی مانند Symbolics ساخته میشد. دیگر دلیل قانعکنندهای برای خرید این ماشینها وجود نداشت.
یک صنعت کامل به ارزش نیم میلیارد دلار در یک شب نابود شد. در نهایت، اولین سیستمهای خبره موفق، مانند XCON، ثابت کردند که نگهداری آنها بسیار پرهزینه است. این سیستمها بهروزرسانیشان دشوار بود، نمیتوانستند یاد بگیرند و “شکننده” بودند (یعنی در صورت دریافت ورودیهای غیرمعمول میتوانستند اشتباهات بزرگی مرتکب شوند). سیستمهای خبره مفید بودند، اما فقط در چند زمینه خاص.
استیو جابز در سال ۱۹۸۴ همراه با مکینتاش، اولین رایانه شخصی تولید انبوه که دارای رابط کاربری گرافیکی یکپارچه و ماوس بود.
در اواخر دهه ۱۹۸۰، ابتکار محاسبات راهبردی بهطور عمیق و بیرحمانهای بودجه هوش مصنوعی را قطع کرد. رهبری جدید در دارپا تصمیم گرفت که هوش مصنوعی “موج بعدی” نیست و بودجهها را به سمت پروژههایی هدایت کرد که به نظر میرسید نتایج فوریتری به بار خواهند آورد. همچنین تا سال ۱۹۹۱، فهرست چشمگیری از اهداف که در سال ۱۹۸۱ برای پروژه نسل پنجم ژاپن ترسیم شده بود، محقق نشده بود.
در واقع، برخی از آنها، مانند “برقراری مکالمه معمولی” تا ۴۰ سال بعد هم به دست نیامد. همانند دیگر پروژههای هوش مصنوعی، انتظارات بسیار فراتر از چیزی بود که واقعاً ممکن بود.
تا پایان سال ۱۹۹۳، بیش از ۳۰۰ شرکت هوش مصنوعی تعطیل، ورشکسته یا توسط شرکتهای دیگر خریداری شده بودند و این امر عملاً به اولین موج تجاری تاریخچه هوش مصنوعی پایان داد. در سال ۱۹۹۴، اچپی نیوکویست در کتاب “سازندگان مغز” بیان کرد که “آینده نزدیک هوش مصنوعی—در شکل تجاری آن—تا حدی به موفقیت مداوم شبکههای عصبی بستگی دارد.”
در دهه ۱۹۹۰، الگوریتمهایی که در ابتدا توسط پژوهشگران هوش مصنوعی توسعه یافته بودند، به عنوان بخشی از سیستمهای بزرگتر شروع به ظاهر شدن کردند. هوش مصنوعی بسیاری از مشکلات بسیار دشوار را حل کرده بود و راهحلهای آن در سراسر صنعت فناوری مفید واقع شد، از جمله در دادهکاوی، روباتیک صنعتی، لجستیک، تشخیص گفتار، نرمافزارهای بانکی، تشخیص پزشکی و موتور جستجوی گوگل.
در دهه ۱۹۹۰ و اوایل دهه ۲۰۰۰، این موفقیتها به ندرت یا هیچگاه به حساب هوش مصنوعی گذاشته نشد. بسیاری از بزرگترین نوآوریهای هوش مصنوعی به سطحی از اهمیت کاهش یافته بودند که فقط به عنوان یکی از ابزارهای موجود در جعبه ابزار علوم کامپیوتر در نظر گرفته میشدند. نیک باسترم توضیح میدهد: “بسیاری از هوش مصنوعیهای پیشرفته به برنامههای عمومی نفوذ کردهاند، اغلب بدون اینکه هوش مصنوعی نامیده شوند، زیرا وقتی چیزی به اندازه کافی مفید و رایج شود، دیگر به آن هوش مصنوعی گفته نمیشود.”
بسیاری از پژوهشگران هوش مصنوعی در دهه ۱۹۹۰ عمداً کارهای خود را با نامهای دیگری مانند انفورماتیک، سیستمهای مبتنی بر دانش، “سیستمهای شناختی” یا هوش محاسباتی معرفی میکردند. بخشی از این امر شاید به این دلیل بود که آنها زمینه کاری خود را اساساً متفاوت از هوش مصنوعی میدانستند، اما همچنین این نامهای جدید کمک میکردند تا بودجه تحقیقاتی بیشتری جذب کنند.
حداقل در دنیای تجاری، وعدههای ناتمام “زمستان هوش مصنوعی” همچنان تحقیقات هوش مصنوعی را تا دهه ۲۰۰۰ تحت تأثیر قرار میداد، به طوری که نیویورک تایمز در سال ۲۰۰۵ گزارش داد: “دانشمندان کامپیوتر و مهندسان نرمافزار از ترس اینکه به عنوان خیالپرداز دیده شوند، از استفاده از اصطلاح هوش مصنوعی پرهیز میکردند.”
گرچه در این دو دهه پروژه ها با نام هوش مصنوعی مطرح نشدند اما نمیتوان از پیشرفت های این دو دهه و تاثیر آن در تاریخچه هوش مصنوعی چشم پوشی کرد. اولین تلاش ها برای رسیدن به ماشین های خودران در سال 1995 به ثمر نشست. “بدون دخالت دست در سراسر آمریکا” (No Hands Across America)یک خودروی نیمهخودران بود که از ساحلی به ساحل دیگر در ایالات متحده سفر کرد و در ۲,۷۹۷ مایل (۴,۵۰۱ کیلومتر) از مجموع ۲,۸۴۹ مایل (۴,۵۸۵ کیلومتر) فرماندهی خودرو توسط کامپیوتر کنترل میشد. البته کنترل گاز و ترمز توسط راننده انسانی انجام میشد.
دین پومرلو و تاد جوشم در سال 1995 باخودرو NavLab 5 ۵ قبل از آغاز سفر به کالیفرنیا عکس گرفتند. در این تور که “بدون دستها در سراسر آمریکا” نام داشت، مینیون تقریباً تمام هدایت را به عهده داشت.
در سال ۱۹۹۷، ابرکامپیوتر شطرنجبازی به نام دیپ بلو (Deep Blue) ساخته شرکت IBM توانست گری کاسپارف، استاد بزرگ و قهرمان شطرنج جهان را شکست دهد. در این مسابقه که با هیاهوی رسانهای بزرگی همراه بود، برای نخستین بار در تاریخ، قهرمان شطرنج جهان در برابر کامپیوتر شکست خورد و از آن بهعنوان اولین گام بزرگ بهسوی توسعهی برنامهی هوش مصنوعی با قابلیت تصمیمگیری یاد میشود. در همان سال، نرمافزار تشخیص گفتار شرکت Dragon System روی ویندوز پیادهسازی شد.
این هم گام بزرگ دیگری در حوزهی هوش مصنوعی، اما در جهت اهداف تفسیر زبان گفتاری بود. اینطور به نظر میرسید که دیگر مسئلهای وجود ندارد که ماشینها نتوانند از پس آن برآیند. حتی پای احساسات انسانی هم به ماشینها باز شد؛
ربات کیزمت (Kismet) که در دههی ۱۹۹۰ توسط سینتیا بریزیل (Cynthia Breazeal) در دانشگاه MIT ساخته شد، میتوانست احساسات را درک و حتی آنها را به نمایش بگذارد. در همان سال 1997، اولین دوره مسابقات RoboCup نیز با حضور 40 تیم، 150 پژوهشگر و بیش از 5000 هزار تماشاگر به میزبانی ژاپن برگزار شد. این مسابقات در دو دسته شبیه سازی و مسابقات روبات های روی میز برگزار شد.
تیم Deep Blue در جریان مسابقه با گری کاسپارف استاد بزرگ شطرنج که منجر به شکست او شد
اولین دوره مسابقات RoboCup به میزبانی ژاپن در سال 1997
کلان داده، یادگیری ماشین و یادگیری عمیق
در دهههای نخست قرن ۲۱، دسترسی به حجم زیادی از دادهها (معروف به “کلانداده”)، کامپیوترهای سریعتر و ارزانتر، و تکنیکهای پیشرفته یادگیری ماشین بهطور موفقیتآمیزی در بسیاری از مسائل اقتصادی به کار گرفته شدند. نقطه عطف این دوره از تاریخچه هوش مصنوعی روند موفقیت یادگیری عمیق در حدود سال ۲۰۱۲ بود که عملکرد یادگیری ماشین را در بسیاری از وظایف از جمله پردازش تصویر و ویدئو، تحلیل متون و تشخیص گفتار بهبود بخشید.
سرمایهگذاری در هوش مصنوعی همراه با پیشرفتهای آن افزایش یافت و تا سال ۲۰۱۶، بازار محصولات مرتبط با هوش مصنوعی، سختافزار و نرمافزار آن به بیش از ۸ میلیارد دلار رسید و نیویورک تایمز گزارش داد که علاقه به هوش مصنوعی به مرحلهای از “هیجان شدید” رسیده است.
موفقیت یادگیری ماشین در دهه ۲۰۰۰ وابسته به دسترسی به حجم وسیعی از دادههای آموزشی و کامپیوترهای سریعتر بود. راسل و نورویگ نوشتند که “بهبود عملکردی که با افزایش اندازه مجموعه داده به میزان دو یا سه مرتبه بزرگتر به دست میآید، از هر بهبودی که میتوان با تغییر الگوریتم ایجاد کرد، بیشتر است.”
جفری هینتون یادآوری میکند که در دهه ۹۰ میلادی مشکل این بود که «مجموعههای دادهی برچسبگذاریشده ما هزاران برابر کوچکتر از نیاز بودند و کامپیوترهای ما میلیونها برابر کندتر.» اما این مشکل تا سال ۲۰۱۰ دیگر وجود نداشت.
مفیدترین دادهها در دهه ۲۰۰۰ از مجموعه دادههای برچسبگذاری شده و با دقت ایجاد شده، مخصوصاً برای یادگیری ماشین و هوش مصنوعی، به دست آمدند. در سال ۲۰۰۷، گروهی در دانشگاه ماساچوست امهرست مجموعه دادهای به نام Labeled Faces in the Wild منتشر کرد، که شامل تصاویر چهرهها بود و در دهههای بعدی برای آموزش و آزمون سیستمهای تشخیص چهره استفاده شد.
فی-فی لی ImageNet را توسعه داد، پایگاه دادهای شامل سه میلیون تصویر که توسط داوطلبان با استفاده از Amazon Mechanical Turk برچسبگذاری شد. این پایگاه داده در سال ۲۰۰۹ منتشر شد و برای نسل بعدی سیستمهای پردازش تصویر به عنوان مرجعی مهم و معیاری برای آزمونها تبدیل شد.
رشد سریع اینترنت به برنامههای یادگیری ماشین دسترسی به میلیاردها صفحه متن و تصویر را داد که میتوانستند از آنها استخراج شوند. همچنین برای مشکلات خاص، مجموعههای داده خصوصی بزرگ مرتبط وجود داشتند. موسسه جهانی مککینزی گزارش داد که “تا سال ۲۰۰۹، تقریباً همه بخشهای اقتصاد آمریکا بهطور متوسط حداقل ۲۰۰ ترابایت داده ذخیره شده داشتند.” این مجموعه دادهها در دهه ۲۰۰۰ به عنوان کلانداده شناخته میشدند.
نمونه ای از تصاویر دیتاست ImageNet.
در سال ۲۰۱۲، مدل یادگیری عمیق AlexNet که توسط الکس کریژفسکی توسعه یافته بود، در رقابت ImageNet Large Scale Visual Recognition Challenge برنده شد و تعداد اشتباهات آن به طور قابل توجهی کمتر از رتبه دوم بود. کریژفسکی با جفری هینتون در دانشگاه تورنتو همکاری میکرد. این موفقیت نقطه عطفی در یادگیری ماشین بود: در سالهای بعد، دهها رویکرد دیگر به تشخیص تصویر کنار گذاشته شدند و جای خود را به یادگیری عمیق دادند. یادگیری عمیق از معماری پرسپترون چندلایه استفاده میکند.
با اینکه این معماری از دهه ۶۰ شناخته شده بود، به کار انداختن آن نیاز به سختافزار قدرتمند و حجم زیادی از دادههای آموزشی داشت. قبل از این امکانات، بهبود عملکرد سیستمهای پردازش تصویر نیازمند ویژگیهای دستساز پیچیدهای بود که پیادهسازی آنها دشوار بود. یادگیری عمیق سادهتر و عمومیتر بود. در سالهای بعد، یادگیری عمیق به دهها مسئله مختلف از جمله تشخیص گفتار، ترجمه ماشینی، تشخیص پزشکی و بازیهای رایانهای اعمال شد و در تمامی این موارد پیشرفتهای چشمگیری را نشان داد. به دنبال این موفقیتها، سرمایهگذاری و علاقه به هوش مصنوعی به شدت افزایش یافت.
ساختار شبکه AlexNet برنده چالش ImageNet که در سال 2012 معرفی شد.
بهار هوش مصنوعی
رونق هوش مصنوعی با توسعه اولیه معماریها و الگوریتمهای کلیدی، مانند معماری ترنسفورمر در سال ۲۰۱۷ آغاز شد. این معماری منجر به گسترش و توسعه مدلهای زبانی بزرگ شد که ویژگیهایی مانند دانش، توجه و خلاقیت مشابه انسان را نشان میدادند. این دوران جدید در تاریخچه هوش مصنوعی تقریباً از سالهای ۲۰۲۰ تا ۲۰۲۳ آغاز شد که در آن مدلهای زبانی بزرگ (LLMs) مانند ChatGPT بهطور عمومی عرضه شدند و دسترسی گسترده به این فناوریهای پیشرفته را فراهم کردند.
در مارس ۲۰۱۶، AlphaGo ساخته DeepMind گوگل موفق شد لی سدول را در یک مسابقه پنج بازی شکست دهد. این اولین باری بود که یک برنامه کامپیوتری بازی Go بدون امتیاز دادن توانست یک حرفهای ۹ دان را شکست دهد. این مسابقه باعث افزایش چشمگیر علاقه عمومی به هوش مصنوعی شد. رقابت در زمینه هوش مصنوعی مولد (Generative AI) بهطور جدی در سالهای ۲۰۱۶ یا ۲۰۱۷ پس از تأسیس OpenAI و پیشرفتهای قبلی در پردازشگرهای گرافیکی (GPU) ها، حجم و کیفیت دادههای آموزشی، شبکههای مولد تقابلی (GAN) ها، مدلهای انتشار و معماریهای ترنسفورمر آغاز شد.
لی سدول در حال مسابقه با هوش مصنوعی AlphaGO در سال 2016
شکوفایی تاریخچه هوش مصنوعی در سال ۲۰۱۸، با ارائه شاخص هوش مصنوعی که از سوی دانشگاه استنفورد بود معرفی شد، گزارش داد که در سطح جهانی تلاشهای تجاری و پژوهشی در زمینه هوش مصنوعی به طرز چشمگیری افزایش یافته است. اروپا بیشترین تعداد مقالات را در این زمینه منتشر کرد و پس از آن چین و آمریکای شمالی قرار گرفتند. فناوریهایی مانند AlphaFold به پیشبینی دقیقتر ساختار پروتئینها و بهبود فرآیند توسعه دارو کمک کردند. اقتصاددانان و قانونگذاران شروع به بحث بیشتر درباره تأثیرات احتمالی هوش مصنوعی کردند.
وقتی که OpenAI سیستم ترانسفورماتور DALL-E را در ژانویه ۲۰۲۱ معرفی کرد مدل های تبدیل متن به تصویر توجه عمومی را به خود جلب کردند. جانشین این مدل که قادر به تولید تصاویر پیچیده و واقعی بود، DALL-E 2، در آوریل ۲۰۲۲ رونمایی شد. یک مدل جایگزین دیگر، Midjourney، در جولای ۲۰۲۲ منتشر شد و مدل منبع باز Stable Diffusion نیز در آگوست ۲۰۲۲ عرضه شد. پس از موفقیت این مدلهای متن به تصویر، پلتفرمهای تبدیل متن به ویدیو که توسط مدلهای زبانی قدرت گرفتهاند مانند Runway، Sora (OpenAI)، DAMO، Make-A-Video، Imagen Video، و Phenaki نیز قادر به تولید ویدیو از متن و ورودیهای تصویری هستند.
GPT-3 یک مدل زبانی بزرگ است که توسط OpenAI در سال ۲۰۲۰ عرضه شد و قادر به تولید متنی با کیفیت بالا و شبیه به انسان است. این ابزار با عرضه خود شتاب و رونقی برای هوش مصنوعی ایجاد و افزایش داده است. نسخه بهبود یافتهتری به نام GPT-3.5 در ChatGPT استفاده شد که به دلیل پاسخهای دقیق و موضوعی خود در حوزههای گستردهای از دانش توجه بسیاری را به خود جلب کرد. نسخه جدیدی به نام GPT-4 در ۱۴ مارس ۲۰۲۳ عرضه شد و در موتور جستجوی بینگ شرکت مایکروسافت استفاده شد. مدلهای زبان دیگری نیز منتشر شدهاند، از جمله PaLM و Gemini توسط گوگل و LLaMA توسط پلتفرمهای متا.
لیستی از مدل های Generative AI معرفی شده در چند سال اخیر