بیاین یه سفری بریم به دنیای هوش مصنوعی و ببینیم یه مقاله خیلی مهم در این مورد چی میگه. این مقاله که نوشته نیک باستروم از دانشگاه آکسفورد هست، سعی میکنه یه مسیر رو برای ما روشن کنه: اینکه چقدر مونده تا به هوش مصنوعی ابرانسان برسیم. مقاله میخواد بررسی کنه که آیا اصلا تو یک سوم اول قرن جدید (یعنی تا حدود سال ۲۰۳۳) به چنین چیزی میرسیم یا نه. برای این کار، چند تا سوال اصلی رو مطرح میکنه:
- قدرت پردازش مغز انسان چقدره؟
- چقدر طول میکشه تا سختافزار کامپیوترها به پای مغز ما برسه؟
- چطوری میشه نرمافزار هوش مصنوعی رو ساخت؟ آیا میشه مثل مغز خودمون از پایین به بالا (bottom-up) ساختش؟
- دانشمندای علوم اعصاب چقدر باید از کارکرد مغز سر در بیارن تا این روش جواب بده؟
- و در نهایت، وقتی به هوش مصنوعی در سطح انسان برسیم، چقدر سریع به ابر هوش میرسیم؟
اینها سوالهای اصلیای هستن که قراره توی این مقاله بهشون پرداخته بشه.
اصلا «ابر هوش» یعنی چی؟
قبل از هر چیزی، باید بدونیم وقتی میگیم «ابر هوش» (Superintelligence) منظورمون دقیقا چیه. منظور یه جور عقله که توی تقریبا هر زمینهای، از بهترین مغزهای انسانی خیلی باهوشتر باشه. فرقی هم نمیکنه این زمینه خلاقیت علمی باشه، یا دانایی و خرد عمومی، یا حتی مهارتهای اجتماعی.
این تعریف کاری نداره که این ابر هوش چطوری پیادهسازی شده. ممکنه یه کامپیوتر دیجیتال باشه، یا یه شبکه از کلی کامپیوتر که به هم وصلن، یا حتی یه بافت مغزی کشت داده شده تو آزمایشگاه. این تعریف حتی به این هم کاری نداره که آیا اون ابر هوش خودآگاهی داره و مثل ما چیزها رو تجربه میکنه یا نه.
یه نکته مهم اینه که چیزهایی مثل شرکتها یا کل جامعه علمی، طبق این تعریف ابر هوش حساب نمیشن. درسته که اینها کارهایی میکنن که یه انسان تنها از پسش برنمیاد، ولی «عقل» واحدی ندارن. تازه، تو خیلی زمینهها عملکردشون از یه مغز انسان ضعیفتره. مثلا شما نمیتونید با «جامعه علمی» یه گفتگوی زنده و لحظهای داشته باشید.
قانون مور و ابرکامپیوترهای امروزی
برای اینکه بفهمیم سختافزارها کی به قدرت مغز ما میرسن، اول باید با یه قانون مهم آشنا بشیم. یه قانونی هست به اسم قانون مور. این قانون میگه که سرعت پردازندهها هر هجده ماه یک بار دو برابر میشه. البته قبلا این زمان دو سال بود، ولی حدود پونزده سال پیش (نسبت به زمان نوشتن مقاله) تغییر کرد. جدیدترین دادهها حتی نشون میدادن که این زمان به دوازده ماه کاهش پیدا کرده. این یعنی چی؟ یعنی قدرت محاسباتی کامپیوترها توی ده سال، هزار برابر میشه. شرکتهای سازنده تراشه روی همین قانون حساب میکنن تا بدونن برای رقابتی موندن باید چه تراشهای بسازن.
حالا اگه ما بتونیم قدرت محاسباتی مغز انسان رو تخمین بزنیم و بعد با استفاده از قانون مور حساب کنیم، میتونیم بفهمیم چند سال دیگه طول میکشه تا کامپیوترها از نظر قدرت خام به پای ما برسن. البته اینکه اصلا اجازه داریم از قانون مور برای آیندهنگری استفاده کنیم یا نه، خودش یه بحثه که جلوتر بهش میرسیم.
سریعترین ابرکامپیوتر دنیا در زمان نوشته شدن این مقاله (دسامبر ۱۹۹۷) قدرتی برابر با ۱.۵ تِراآپس داشته. یعنی ۱.۵ ضربدر ۱۰ به توان ۱۲ عملیات در ثانیه. یه پروژهای هم بوده که میخواسته با کمک صد هزار داوطلب، از اینترنت قدرتی معادل ۱۰ تراآپس بگیره. روش کارش اینطوری بوده که داوطلبها یه اسکرین سیور روی کامپیوترشون نصب میکردن و یه کامپیوتر مرکزی، بعضی از کارهای محاسباتی رو به اونها میسپرده. این روش که بهش «متاکامپیوتینگ» میگن، برای کارهایی که راحت میشه پخششون کرد (مثل تلاش برای شکستن یه کد رمز) عالی جواب میده. در آینده با بهتر شدن سرعت اینترنت (مثلا با فیبر نوری)، این روش حتی بهتر هم کار میکنه. شبیهسازی مغز هم چون طبیعتا کارهاش قابل پخشه، شاید در آینده بشه مغزهای بزرگی رو روی اینترنت شبیهسازی کرد. ولی فعلا مقاله این احتمال رو کنار میذاره و همون کامپیوتر ۱.۵ تراآپس رو به عنوان بهترین چیزی که در اون زمان وجود داشته در نظر میگیره.
البته حتی بدون پیشرفت تکنولوژی هم میشه کارهایی کرد. مثلا میشه تعداد تراشههایی که توی یه جعبه میذاریم رو دو برابر کنیم. دولت آمریکا یه کامپیوتر ۳ تراآپس سفارش داده بوده تا برای تست و توسعه سلاحهای هستهای ازش استفاده کنه. ولی با توجه به قیمت ۹۴ میلیون دلاری این دستگاه، مشخصه که حتی با بودجههای خیلی زیاد هم نمیشه در کوتاه مدت یه جهش بزرگ در قدرت محاسباتی ایجاد کرد.
آیا قانون مور همیشه ادامه پیدا میکنه؟
حالا سوال اینه که چقدر میشه به ادامه پیدا کردن قانون مور در آینده امیدوار بود؟ خب معلومه که بالاخره یه روزی این قانون از کار میفته. چون محدودیتهای فیزیکی برای ذخیره و پردازش اطلاعات توی فضا وجود داره. مثلا «حد بِکِنِشتاین» یه سقف برای میزان اطلاعاتی که میشه در یک حجم مشخص با یک انرژی مشخص جا داد، تعیین میکنه. از طرفی، حتی اگه ما بتونیم تو فضا گسترش پیدا کنیم، این گسترش یه نرخ چندجملهای داره (حدودا t به توان ۳) در حالی که قانون مور یه رشد نمایی رو پیشبینی میکنه. پس این رشد نمایی نمیتونه تا ابد ادامه داشته باشه، مگر اینکه کلا فیزیک جدیدی کشف بشه.
به نظر نویسنده مقاله، قانون مور خیلی قبلتر از رسیدن به محدودیتهای مطلق فیزیکی، اعتبارش رو از دست میده. احتمالا قدرت پیشبینی این قانون بیشتر از مثلا پونزده سال آینده (از زمان نگارش) نیست. این به این معنی نیست که بعد از سال ۲۰۱۲ سرعت پردازندهها هر دوازده یا هجده ماه دو برابر نمیشه، فقط یعنی دیگه نمیتونیم از قانون مور برای اثباتش استفاده کنیم. اگه بخوایم برای بعد از اون تاریخ پیشبینی کنیم، باید مستقیم به این نگاه کنیم که از نظر فیزیکی چه چیزی ممکنه.
حدود سال ۲۰۰۷، تکنولوژی فعلی سیلیکون به محدودیت فیزیکیش میرسه. اما قانون مور قبلا هم از چند تا تغییر فاز تکنولوژی جون سالم به در برده. از رله به لامپ خلا، به ترانزیستور، به مدارهای مجتمع و بعد مدارهای مجتمع با مقیاس خیلی بزرگ (VLSI). دلیلی نداره که طراحیهای فعلی VLSI روی ویفرهای سیلیکونی دو بعدی، آخرین حرف تکنولوژی تراشه باشه. کلی راه برای عبور از محدودیتهای فعلی پیشنهاد شده و در حال توسعه است.
مثلا در آینده نزدیک، شاید بشه با استفاده از تکنیکهای خاصی، عرض خطوط مدار روی یه میکروچیپ رو تا ۰.۱۳ میکرومتر کاهش داد. اگه از محدوده نوری خارج بشیم، میشه از اشعه ایکس یا فرابنفش شدید (EUV) استفاده کرد تا دقت بالاتری به دست بیاد. اگه این هم نشه، میشه از نوشتن با پرتو الکترون استفاده کرد، هرچند این روش تولید کند و گرونه. یه راه حل میانه اینه که بعضی از گیتهای خیلی مهم رو با پرتو الکترون بنویسن و بقیه رو با روشهای اپتیکال یا EUV.
راههای دیگه برای افزایش قدرت یه تراشه اینه که از لایههای بیشتری استفاده کنیم یا ویفرهای بزرگتری بسازیم (تا ۳۰۰ میلیمتر مشکلی نداره). حتی میشه تراشههای خیلی بزرگتری ساخت اگه بشه یه مقدار خطا رو تحمل کرد.
همچنین میشه با استفاده از مواد جدید مثل گالیوم آرسنید، محدودیتهای فیزیکی رو جابجا کرد. ترانزیستورهای کوانتومی هم در حال توسعه هستن که میتونن یه قدم بزرگ رو به جلو باشن، مخصوصا برای مدارهایی که سرعت سوئیچینگ بالا یا مصرف انرژی کم خیلی مهمه.
چون محاسبات شبیه به مغز خیلی ماهیت موازی دارن، میشه از معماری خیلی موازی استفاده کرد. در این صورت کافیه تعداد زیادی پردازنده با سرعت متوسط تولید کنیم و اونها رو به هم وصل کنیم. یا میشه همه رو تو یه جعبه گذاشت (که میشه یه پردازنده چند هستهای) یا اونها رو به یه شبکه محلی با پهنای باند بالا وصل کرد.
اینها همه چیزهایی هستن که امروز در حال توسعهان. بودجههای عظیمی به این تکنولوژیها تزریق میشه. امروزه حدود ۴۰۰ مهندس برای تولید یه تراشه جدید کار میکنن. یه کارخونه تراشه مدرن ممکنه بیش از ۲ میلیارد دلار هزینه داشته باشه. هر سال حدود ۲۰ تا ۳۰ میلیارد دلار صرف تحقیق و توسعه میکروچیپ میشه. با اینکه مشکلات برای کسی که تو این حوزه کار میکنه خیلی بزرگ به نظر میرسه، ولی میشه گفت که بین متخصصها یه خوشبینی کلی وجود داره که کامپیوترها در آینده قابل پیشبینی قدرتمندتر خواهند شد.
سختافزار مورد نیاز برای شبیهسازی مغز چقدره؟
بیاین یه حساب کتاب سرانگشتی بکنیم. مغز انسان حدود ۱۰ به توان ۱۱ (صد میلیارد) نورون داره. هر نورون حدود ۵ ضربدر ۱۰ به توان ۳ (پنج هزار) سیناپس داره و سیگنالها با فرکانس متوسط حدود ۱۰ به توان ۲ (صد) هرتز در این سیناپسها منتقل میشن. فرض کنیم هر سیگنال هم ۵ بیت اطلاعات داشته باشه. اگه همه اینها رو در هم ضرب کنیم به عدد ۱۰ به توان ۱۷ عملیات در ثانیه (ops) میرسیم.
این عدد احتمالا سقف بالایی ماجراست و مقدار واقعی نمیتونه خیلی بیشتر از این باشه، ولی ممکنه خیلی کمتر باشه. به نظر میاد تو مغز افزونگی زیادی وجود داره؛ یعنی اغلب لازمه که تعداد زیادی نورون با هم شلیک کنن تا سیگنالششون تو نویز کلی مغز گم نشه.
یه روش دیگه برای محاسبه این قدرت، اینه که یه تیکه از مغز رو که کارکردش رو میدونیم چطوری روی کامپیوتر پیاده کنیم، در نظر بگیریم. بعد حساب کنیم به طور متوسط هر نورون تو اون قسمت چقدر قدرت پردازشی معادل کامپیوتر داره و این عدد رو در تعداد کل نورونهای مغز ضرب کنیم. هانس موراوک این محاسبه رو با استفاده از دادههای شبکیه چشم انسان انجام داده و با نیاز محاسباتی برای استخراج لبه در دید ربات مقایسه کرده. اون به عدد ۱۰ به توان ۱۴ عملیات در ثانیه برای کل مغز انسان رسیده. این عدد سه مرتبه بزرگی (هزار برابر) کمتر از اون سقف بالاییه که ما حساب کردیم.
دلیل خاصی وجود نداره که فکر کنیم افزونگی در شبکیه چشم بیشتر از قشر مغزه. اتفاقا برعکسش محتملتره، چون استخراج لبه یه کار سطح پایینه و احتمالا بهینهتره.
پس دو تا عدد داریم:
- تخمین بالا: 10^۱۷ ops
- تخمین پایین (موراوک): 10^۱۴ ops (یا ۱۰۰ تِراآپس)
حالا بیاین اینها رو با قانون مور مقایسه کنیم:
- اگر تخمین پایین (۱۰۰ تراآپس) درست باشه: به این قدرت محاسباتی بین سالهای ۲۰۰۴ تا ۲۰۰۸ میرسیم (بسته به اینکه زمان دو برابر شدن رو ۱۲ یا ۱۸ ماه در نظر بگیریم). البته این مربوط به بهترین ابرکامپیوترهای دنیاست، نه کامپیوترهایی که محققهای هوش مصنوعی در اختیار دارن. بسته به بودجه، ممکنه تا ده سال بیشتر طول بکشه تا این دستگاهها به دست این محققها برسه.
- اگر تخمین بالا (۱۰^۱۷ ops) درست باشه: باید تا حدود سال ۲۰۱۵ یا ۲۰۲۴ صبر کنیم. ولی احتمالا تا اون موقع که یاد گرفتیم چطوری نورونها رو دونه دونه شبیهسازی کنیم، حتما راههای بهینهسازی هم پیدا کردیم، پس میشه این سقف رو کمی پایینتر آورد.
تا اینجا فقط در مورد سرعت پردازنده حرف زدیم، ولی کامپیوترها برای شبیهسازی مغز به حافظه زیادی هم نیاز دارن. در طول تاریخ کامپیوتر، نسبت بین حافظه و سرعت تقریبا ثابت بوده: حدود ۱ بایت به ازای هر عملیات در ثانیه. به نظر میاد که سرعت، گلوگاه اصلی باشه نه حافظه. چون حتی اگه با بهینهسازی، نیاز به سرعت رو کم کنیم، احتمالا نیاز به حافظه رو هم میتونیم به همون نسبت کم کنیم. پس فعلا روی سرعت تمرکز میکنیم.
این مقاله وارد این بحث نمیشه که آیا پدیدههای کوانتومی در شناخت انسان نقش دارن یا نه. بعضیها مثل همروف و پنروز این ایده رو مطرح کردن، ولی نویسنده مقاله این رو غیرمحتمل میدونه و فرض میکنه که برای مدلسازی سطح بالای مغز، پدیدههای کوانتومی مهم نیستن.
نتیجهگیری این بخش اینه که ظرفیت سختافزاری برای هوش مصنوعی در سطح انسان احتمالا قبل از پایان ربع اول قرن جدید (یعنی تا سال ۲۰۲۵) وجود خواهد داشت و شاید حتی در سال ۲۰۰۴ به دست بیاد. آزمایشگاههای پیشرو هم ده سال بعد از اون به این ظرفیت دسترسی پیدا میکنن (یا زودتر، اگه اهمیت هوش مصنوعی بیشتر درک بشه).
نرمافزار رو چطور بسازیم؟ روش از پایین به بالا
ابر هوش علاوه بر سختافزار به نرمافزار هم احتیاج داره. برای ساخت نرمافزار چند تا رویکرد وجود داره. یه سر طیف، سیستمهایی مثل CYC هستن که یه پایگاه دانش خیلی بزرگ مثل دایرهالمعارف دارن. برای بیش از یک دهه، یه تیم از انسانها بهش اطلاعات، قوانین و روشهای تجربی رو «قاشق قاشق» خوروندن. این روش شاید برای کارهای خاصی خوب باشه، ولی بعیده بتونه شکاکان هوش مصنوعی رو قانع کنه. باید به روشهایی نگاه کنیم که نیاز به دخالت کمتر انسان دارن، یعنی روشهای از پایین به بالا (bottom-up).
اگه سختافزار کافی و برنامهنویسی درست داشته باشیم، میتونیم کاری کنیم که ماشینها مثل یه بچه یاد بگیرن؛ یعنی با تعامل با آدمهای بزرگسال و اشیای دیگه در محیط. مکانیزمهای یادگیری مغز هنوز کامل درک نشدن. شبکههای عصبی مصنوعی امروزی معمولا با الگوریتمی به اسم «پسانتشار» (Backpropagation) آموزش داده میشن. این الگوریتم برای شبکههای کوچیک خوب کار میکنه ولی برای شبکههای بزرگ مقیاسپذیر نیست. یه محدودیت دیگهاش اینه که یه نوع یادگیری «نظارت شده» است، یعنی باید بهش بگی هر نورون خروجی چقدر خطا داشته. معلوم نیست چطور میشه چنین بازخورد دقیقی رو در دنیای واقعی فراهم کرد.
یه حالت یادگیری که به مغز نزدیکتره، الگوریتم «هِبی» (Hebbian) هست. یادگیری هبی بدون نظارته و احتمالا مقیاسپذیری بهتری هم داره. البته هنوز توضیح داده نشده که این الگوریتم به تنهایی چطور میتونه همه انواع یادگیری مغز رو ایجاد کنه. احتمالا باید با چیزهایی مثل یادگیری مبتنی بر پاداش تکمیل بشه. ولی این ایده که فقط تعداد خیلی کمی (شاید دو یا سه) قانون یادگیری در مغز انسان وجود داره، محتمله. و ما از فهمیدن اینکه این قوانین چی هستن، خیلی دور نیستیم.
برای ساختن ابر هوش با تقلید از مغز، علاوه بر قوانین یادگیری و سختافزار قوی، دو چیز دیگه هم لازمه:
- داشتن یه معماری اولیه مناسب
- فراهم کردن یه جریان غنی از ورودیهای حسی
دومی با تکنولوژی امروز هم راحته. با دوربینهای ویدئویی، میکروفون و سنسورهای لمسی میشه یه جریان ثابت از اطلاعات دنیای واقعی رو به شبکه عصبی داد. میشه با وصل کردن سیستم به بازوهای رباتیک و بلندگو، یه عنصر تعاملی هم ایجاد کرد.
اما ساختن یه ساختار شبکه اولیه مناسب، یه مشکل جدیتره. ممکنه لازم باشه کلی کدنویسی دستی انجام بشه تا معماری قشر مغز درست از آب دربیاد. در موجودات زنده، مغز در بدو تولد یه لوح سفید یکدست نیست؛ یه ساختار اولیه داره که به صورت ژنتیکی کدگذاری شده. علوم اعصاب فعلا نمیتونه دقیقا بگه این ساختار چیه یا چقدر از اون باید در یه شبیهسازی حفظ بشه. یه راهی که ممکنه این رویکرد رو خیلی سخت کنه اینه که مغز انسان به مقدار عظیمی از سیمکشی ژنتیکی متکی باشه، یعنی هر عملکرد شناختی به یه معماری ذاتی منحصر به فرد و پیچیده وابسته باشه.
آیا واقعا اینطوریه؟ چند تا دلیل نشون میده که احتمالا نه.
- انعطافپذیری قشر مغز: تحقیقات جدید نشون میده که قشر مغز انسان در حال رشد، تا حد زیادی فاقد ساختارهای تخصصی از پیش تعیین شده است. این ساختارهای تخصصی که در مغز بزرگسالان میبینیم، به طور ژنتیکی مشخص نشدن، بلکه از طریق تعامل با محیط و حل مسئله به وجود اومدن. درسته که به طور ژنتیکی تمایلاتی وجود داره (مثلا پردازش اولیه بینایی معمولا در قشر بینایی انجام میشه)، ولی این به این معنی نیست که بقیه نواحی مغز نمیتونستن اون کار رو یاد بگیرن.
- جبران آسیبهای مغزی: این دیدگاه با این واقعیت که آسیبهای قشر مغز، حتی آسیبهای بزرگ، اگه در سنین پایین اتفاق بیفتن اغلب قابل جبران هستن، به شدت حمایت میشه. نواحی دیگه مغز، کارکردهایی که باید در ناحیه آسیبدیده رشد میکردن رو به عهده میگیرن. در یک مطالعه، حساسیت به ویژگیهای بصری در قشر شنوایی راسوهای نوزاد ایجاد شد. در آزمایشی دیگه، افراد نابینا از بدو تولد تونستن از قشر بینایی خودشون برای پردازش تحریکات لمسی هنگام خوندن خط بریل استفاده کنن.
- یکنواختی ساختار قشر مغز: یه دلیل دیگه اینه که معماری قشر مغز، مخصوصا در نوزادان، در نواحی مختلف قشر و حتی در گونههای مختلف به طرز شگفتانگیزی یکنواخته. ساختار لایهای و اتصالات عمودی در همه سیستمهای قشری وجود داره و ویژگیهای نورونها در گونههای مختلف یکسانه.
یه نفر ممکنه اینجا اعتراض کنه که نهنگها و دلفینها قشر مغز خیلی بزرگتری از انسانها دارن ولی درک انتزاعی و زبان در سطح انسان رو ندارن. پس ظاهرا یه قشر مغز بزرگ برای هوش انسانی کافی نیست. با این حال، میشه تصور کرد که یه تفاوت خیلی ساده بین مغز ما و اونها وجود داره. مثلا شاید قشر مغز ما یه «انگیزه» سطح پایین برای یادگیری روابط انتزاعی داره، در حالی که دلفینها طوری برنامهریزی شدن که به این چیزها اهمیت ندن. یا محتملتر، یه سری تحولات ساختاری در قشر مغز انسان وجود داره که بقیه حیوانات ندارن. ولی این تحولات منحصر به فرد انسانی میتونه نتیجه تغییرات نسبتا ساده در چند پارامتر اساسی باشه. با توجه به اینکه تکامل مغز که به ما اجازه داد از نظر فکری از بقیه حیوانات پیشی بگیریم در یه دوره زمانی نسبتا کوتاه اتفاق افتاده، تکامل نمیتونسته اطلاعات محتوایی زیادی رو در این ساختارها جاسازی کنه.
این ملاحظات نشون میده که مقدار اطلاعات علوم اعصاب مورد نیاز برای موفقیت رویکرد از پایین به بالا ممکنه خیلی محدود باشه. احتمالا پیشرفتهای بیشتری در علوم اعصاب لازمه تا بتونیم هوش مصنوعی در سطح انسان بسازیم. سخته که تخمین بزنیم چقدر طول میکشه تا به اندازه کافی در مورد معماری نورونی مغز و الگوریتمهای یادگیریش بدونیم. یه حدس خیلی کلی: چیزی حدود پونزده سال (از زمان نگارش مقاله، یعنی تا حدود سال ۲۰۱۲). این پیشبینی در مورد رسیدن به درک کامل مغز نیست، بلکه در مورد زمانیه که ما به اندازه کافی اصول اولیه کارکرد مغز رو میدونیم تا بتونیم اونها رو روی کامپیوتر پیاده کنیم.
شاید این تخمین به نظر بعضیها خیلی خوشبینانه بیاد، ولی به این فکر کنید که در پونزده سال گذشته (قبل از مقاله) چقدر پیشرفت شده. رشته علوم اعصاب محاسباتی در سال ۱۹۸۲ به سختی وجود داشت. پیشرفتهای آینده فقط به خاطر تحقیقات با ابزارهای امروزی نیست، بلکه ابزارها و تکنیکهای تجربی جدیدی هم در حال توسعه هستن. از ثبت سیگنالهای چند الکترودی در مقیاس بزرگ گرفته تا رابطهای مغز و تراشه و داروهای جدید. همه این نوآوریها ابزارهای قدرتمندی به دانشمندان علوم اعصاب میدن.
چرا شکستهای گذشته هوش مصنوعی، دلیلی برای عدم موفقیت در آینده نیست؟
در دهههای هفتاد و هشتاد میلادی، حوزه هوش مصنوعی دچار یه رکود شد. چون انتظارات اغراقآمیز اولیه برآورده نشد و پیشرفت تقریبا متوقف شد. درسی که باید از این دوره گرفت این نیست که هوش مصنوعی قوی مرده و هرگز ساخته نمیشه. این نشون میده که هوش مصنوعی سختتر از چیزی بود که بعضی از پیشگامان فکر میکردن، ولی به هیچ وجه نشون نمیده که برای همیشه غیرممکن باقی میمونه.
اگه به گذشته نگاه کنیم، میبینیم که پروژه هوش مصنوعی در اون مرحله اصلا نمیتونست موفق بشه. سختافزار به سادگی به اندازه کافی قدرتمند نبود. به نظر میاد حداقل حدود ۱۰۰ تراآپس برای عملکردی شبیه به انسان لازمه و شاید حتی تا ۱۰ به توان ۱۷ عملیات در ثانیه نیاز باشه. کامپیوترهای دهه هفتاد قدرت محاسباتی در حد حشرات داشتن و تقریبا به هوش در سطح حشرات هم رسیدن. اما الان، ما میتونیم رسیدن سختافزار در سطح انسان رو پیشبینی کنیم، پس دلیلی که باعث شکست گذشته هوش مصنوعی شد، دیگه وجود نخواهد داشت.
یه توضیح دیگه برای عدم پیشرفت محسوس در اون دوره هم وجود داره. به گفته هانس موراوک:
«برای چندین دهه، قدرت محاسباتی در سیستمهای پیشرفته هوش مصنوعی و رباتیک در حد قدرت مغز حشره یعنی ۱ میلیون عملیات در ثانیه (MIPS) گیر کرده بود. در حالی که قدرت کامپیوتر به ازای هر دلار به سرعت بالا میرفت، بودجه موجود هم به همان سرعت پایین میومد. روزهای اولیه هوش مصنوعی در اواسط دهه ۱۹۶۰ با بودجههای هنگفت دفاعی بعد از اسپوتنیک تامین میشد که دسترسی به ابرکامپیوترهای ۱۰ میلیون دلاری اون زمان رو فراهم میکرد. در دوران بعد از جنگ ویتنام در دهه ۱۹۷۰، بودجه کم شد و فقط ماشینهای ۱ میلیون دلاری در دسترس بود. در اوایل دهه ۱۹۸۰، تحقیقات هوش مصنوعی باید به مینیکامپیوترهای ۱۰۰ هزار دلاری رضایت میداد. در اواخر دهه ۱۹۸۰، ماشینهای موجود ایستگاههای کاری ۱۰ هزار دلاری بودن. در دهه ۱۹۹۰، خیلی از کارها روی کامپیوترهای شخصی چند هزار دلاری انجام میشد. از اون به بعد، قدرت مغز هوش مصنوعی و رباتها با بهبود کارایی کامپیوترها افزایش پیدا کرده. در سال ۱۹۹۳ کامپیوترهای شخصی ۱۰ MIPS قدرت داشتن، در سال ۱۹۹۵ به ۳۰ MIPS رسید و در سال ۱۹۹۷ بیش از ۱۰۰ MIPS قدرت دارن. ناگهان ماشینها دارن متن میخونن، گفتار رو تشخیص میدن و رباتها خودشون در سراسر کشور رانندگی میکنن.»
به طور کلی، به نظر میرسه یه حس خوشبینی و هیجان جدیدی بین افراد فعال در هوش مصنوعی به وجود اومده، مخصوصا اونهایی که رویکرد از پایین به بالا دارن.
وقتی به هوش در سطح انسان برسیم، خیلی زود به ابر هوش میرسیم
وقتی هوش مصنوعی به سطح انسان برسه، یه حلقه بازخورد مثبت به وجود میاد که به توسعه سرعت بیشتری میده. هوشهای مصنوعی به ساختن هوشهای مصنوعی بهتر کمک میکنن، که اونها هم به نوبه خودشون به ساختن هوشهای مصنوعی بهتر کمک میکنن و این چرخه ادامه پیدا میکنه.
حتی اگه هیچ توسعه نرمافزاری دیگهای اتفاق نیفته و هوشهای مصنوعی مهارتهای جدیدی از طریق خودآموزی به دست نیارن، باز هم با افزایش سرعت پردازندهها، باهوشتر میشن. اگه بعد از ۱۸ ماه، سختافزار ارتقا پیدا کنه و سرعتش دو برابر بشه، ما یه هوش مصنوعی داریم که میتونه دو برابر سریعتر از نسخه اصلی فکر کنه. بعد از چند بار دو برابر شدن، این مستقیما به چیزی منجر میشه که بهش میگن «ابر هوش ضعیف»؛ یعنی یه عقلی که تقریبا تواناییهای مشابه مغز انسان رو داره ولی خیلی سریعتره.
همچنین، وقتی هوش مصنوعی به سطح انسان برسه، سودمندی پیشرفتهای بیشتر در اون به شدت افزایش پیدا میکنه و باعث افزایش بودجه میشه. پس میشه پیشبینی کرد که وقتی هوش مصنوعی در سطح انسان وجود داشته باشه، طولی نمیکشه که ابر هوش از نظر تکنولوژیکی ممکن بشه.
یه نکته دیگه هم در حمایت از این پیشبینی وجود داره. بر خلاف چیزی که برای عقلهای بیولوژیکی ممکنه، شاید بشه مهارتها یا ماژولهای شناختی رو از یه عقل مصنوعی به یه عقل مصنوعی دیگه کپی کرد. اگه یه هوش مصنوعی در یه زمینهای به برتری برسه، هوشهای مصنوعی بعدی میتونن برنامه یا ماتریس وزنهای سیناپسی اون پیشگام رو آپلود کنن و فورا به همون سطح از عملکرد برسن. دیگه لازم نیست دوباره فرآیند آموزش رو طی کنن. این که آیا میشه بهترین بخشهای چند هوش مصنوعی رو ترکیب کرد و در یک هوش مصنوعی جمع کرد یا نه، به جزئیات پیادهسازی بستگی داره. ولی به عنوان یه قانون کلی، دستاوردهای فکری عقلهای مصنوعی به شکلی قابل جمع شدن هستن که دستاوردهای انسانی اینطور نیستن.
تقاضا برای ابر هوش
با فرض اینکه ابر هوش یه روزی از نظر تکنولوژیکی ممکن بشه، آیا مردم انتخاب میکنن که اون رو توسعه بدن؟ به این سوال میشه با اطمینان جواب مثبت داد. هر قدم در مسیر رسیدن به ابر هوش، با سودهای اقتصادی عظیمی همراهه. صنعت کامپیوتر مبالغ هنگفتی رو در نسل بعدی سختافزار و نرمافزار سرمایهگذاری میکنه و تا زمانی که فشار رقابتی و سود وجود داشته باشه، به این کار ادامه خواهد داد. مردم کامپیوترهای بهتر و نرمافزارهای باهوشتر میخوان و مزایایی که این ماشینها میتونن به ارمغان بیارن رو میخوان. داروهای پزشکی بهتر، رهایی انسانها از انجام کارهای خستهکننده یا خطرناک، سرگرمی؛ لیست مزایای مصرفکننده پایانی نداره. انگیزه نظامی قویای هم برای توسعه هوش مصنوعی وجود داره. و در هیچ کجای این مسیر، نقطه توقف طبیعی وجود نداره که مخالفان تکنولوژی بتونن بگن «تا اینجا کافیه، جلوتر نرو».
بنابراین به نظر میرسه تا رسیدن به سطح معادل انسان، نیروهای محرک پشت پیشرفتهای هوش مصنوعی به راحتی بر هر مقاومتی که ممکنه وجود داشته باشه غلبه میکنن. وقتی مسئله به هوش در سطح انسان یا بالاتر از اون میرسه، قابل تصوره که نیروهای سیاسی قویای با توسعه بیشتر مخالفت کنن. ابر هوش ممکنه به عنوان یه تهدید برای برتری و حتی بقای گونه انسان دیده بشه. اینکه آیا ما میتونیم با برنامهریزی مناسب، سیستمهای انگیزشی ابر هوشها رو طوری تنظیم کنیم که اطاعت و فرمانبرداری همیشگی اونها از انسانها رو تضمین کنیم، یه موضوع بحثبرانگیزه. اگه سیاستگذاران آینده بتونن مطمئن باشن که هوشهای مصنوعی منافع انسان رو به خطر نمیندازن، توسعه هوش مصنوعی ادامه پیدا میکنه. اگه نتونن مطمئن باشن که خطری وجود نداره، باز هم احتمالا توسعه ادامه پیدا میکنه. یا به این دلیل که مردم جابجایی تدریجی انسانهای بیولوژیکی با ماشینها رو لزوما یه نتیجه بد نمیدونن، یا به این دلیل که نیروهای قدرتمندی (با انگیزه سود کوتاهمدت، کنجکاوی، ایدئولوژی یا تمایل به قابلیتهایی که ابر هوشها میتونن برای سازندگانشون بیارن) فعال هستن و نمیشه به یه تصمیم جمعی برای ممنوع کردن تحقیقات جدید در این زمینه رسید و اون رو با موفقیت اجرا کرد.
بهروزرسانیها و اطلاعات تکمیلی مقاله
پینوشت اول (۲۵ اکتبر ۱۹۹۸)
وزارت انرژی آمریکا یه ابرکامپیوتر جدید از IBM سفارش داده که در سال ۲۰۰۰ نصب میشه. این کامپیوتر ۸۵ میلیون دلار قیمت داره و ۱۰ تراآپس قدرت پردازشی خواهد داشت. این تحول با قانون مور مطابقت داره یا حتی شاید کمی سریعتر از پیشبینیهاست.
در سال گذشته (۱۹۹۸) قدمهای زیادی به جلو برداشته شده. یه مورد جالب، تکنیکهای جدید ساخت تراشه در شرکت Irvine Sensors Corporation (ISC) هست. اونها راهی پیدا کردن که تراشهها رو مستقیما روی هم بچینن. این کار نه تنها باعث صرفهجویی در فضا میشه، بلکه مهمتر از اون، اجازه میده تعداد اتصالات بین تراشههای همسایه بیشتر بشه. چون تعداد اتصالات همیشه یه گلوگاه در پیادهسازی سختافزاری شبکههای عصبی بوده، این پیشرفت میتونه خیلی مهم باشه.
پینوشت دوم (۲۸ آگوست ۲۰۰۰)
آیا پیشرفت هنوز طبق برنامه است؟ در واقع، به نظر میرسه همه چیز کمی سریعتر از حد انتظار پیش میره، حداقل در بخش سختافزار. IBM در حال کار روی یه ابرکامپیوتر نسل بعدی به نام Blue Gene هست که قدرتی بیش از ۱۰ به توان ۱۵ عملیات در ثانیه (یک پتاآپس) خواهد داشت. این کامپیوتر که برای حل مشکل تاخوردگی پروتئین طراحی شده، انتظار میره حدود سال ۲۰۰۵ آماده بشه. این قدرت عظیم رو از طریق موازیسازی گسترده به دست میاره، نه از طریق پردازندههای سریعتر. با توجه به تاکید روزافزون بر محاسبات موازی و افزایش پهنای باند اینترنت، مهمه که قانون مور رو به عنوان بیانیهای در مورد اینکه چقدر قدرت محاسباتی میشه با مقدار مشخصی پول خرید، تفسیر کنیم. این معیار در گذشته با سرعت پردازنده یا تراکم تراشه همگام بوده، ولی ممکنه در آینده از هم جدا بشن. چیزی که برای حدس زدن زمان توسعه ابر هوش مهمه اینه که چقدر قدرت محاسباتی میشه با مثلا ۱۰۰ میلیون دلار خرید، نه اینکه پردازندههای تکی چقدر سریع هستن.
پینوشت سوم (۳۰ اکتبر ۲۰۰۵)
سریعترین ابرکامپیوتر امروز (۲۰۰۵) Blue Gene/L متعلق به IBM هست که به قدرت ۲۶۰ تراآپس (۲.۶ ضربدر ۱۰ به توان ۱۴ عملیات در ثانیه) رسیده. بنابراین، تخمین موراوک از قدرت پردازش مغز انسان (۱۰ به توان ۱۴ عملیات در ثانیه) حالا پشت سر گذاشته شده.
پروژه «مغز آبی» (Blue Brain) در ماه مه ۲۰۰۵ توسط موسسه مغز و ذهن EPFL سوئیس و IBM آمریکا راهاندازی شد. هدف این پروژه ساختن یه کپی نرمافزاری دقیق از ستون نئوکورتیکال مغز در عرض ۲-۳ سال آینده است. این ستون شامل ۱۰,۰۰۰ نورون پیچیده با کانالهای یونی فعال خواهد بود. این پروژه از یه سطح شبیهسازی بسیار دقیق استفاده میکنه. شبیهسازی کل مغز در این سطح از جزئیات (که محققان به عنوان هدف مراحل بعدی پروژه اعلام کردن) به حدود ۲ ضربدر ۱۰ به توان ۱۹ عملیات در ثانیه نیاز داره. این عدد دو مرتبه بزرگی (صد برابر) بیشتر از تخمین شبیهسازی در سطح نورونی در مقاله اصلیه. اگه پروژه «مغز آبی» موفق بشه، به ما شواهد محکمی از سقف بالای قدرت محاسباتی مورد نیاز برای رسیدن به هوش انسانی میده.
یه نکته دیگه اینکه، بازسازی عملکرد پردازش اولیه شنوایی (که به خوبی درک شده) هم تخمینی رو به دست داده که با ارزیابی موراوک بر اساس پردازش سیگنال در شبکیه چشم مطابقت داره (یعنی همان حدود ۱۰ به توان ۱۴ عملیات در ثانیه برای کل مغز).
در سالهای اخیر پیشرفت چشمگیری در هوش مصنوعی عمومی رخ نداده. با این حال، علوم اعصاب و مهندسی نورومورفیک با سرعت زیادی در حال پیشرفت هستن.
نانوتکنولوژی مولکولی، تکنولوژیای که در شکل بالغش میتونه آپلود ذهن رو ممکن کنه (روشی که در اون یه نقشه سه بعدی دقیق از یه مغز انسان خاص ساخته و بعد در یه کامپیوتر شبیهسازی میشه)، شروع به گرفتن شتاب کرده و بودجه و توجه بیشتری دریافت میکنه. یه ذهن آپلود شده که روی یه کامپیوتر سریع اجرا بشه، یه «ابر هوش ضعیف» خواهد بود. یعنی در ابتدا از نظر عملکردی با مغز ارگانیک اصلی یکسانه، ولی میتونه با سرعت خیلی بالاتری کار کنه. وقتی چنین آپلودی وجود داشته باشه، ممکنه بشه معماری اون رو برای ایجاد «ابر هوش قوی» که نه تنها سریعتر بلکه از نظر عملکردی هم برتر از هوش انسانیه، ارتقا داد.
پینوشت چهارم (۱۲ مارس ۲۰۰۸)
نویسنده توضیح میده که وقتی در چکیده مقاله گفته «موردی رو برای این باور که در یک سوم اول قرن آینده به ابر هوش میرسیم، ترسیم میکنم»، منظورش چی بوده. او کلمه «مورد» رو عمدا انتخاب کرده. یعنی با ترسیم «مورد موافق»، نمیخواسته انکار کنه که میشه یه «مورد مخالف» هم ترسیم کرد. در واقع، با در نظر گرفتن همه چیز، او احتمال رسیدن به ابر هوش تا سال ۲۰۳۳ رو کمتر از ۵۰ درصد میدونه. او فکر میکنه عدم قطعیت زیادی در مورد اینکه آیا و چه زمانی این اتفاق میفته وجود داره، ولی باید این احتمال که تا اون زمان اتفاق بیفته رو به خاطر دلایلی که در مقاله ذکر شده، جدی گرفت.
به نظر میرسه الان علاقه بیشتری به تحقیقات هوش مصنوعی عمومی (AGI) نسبت به چند سال پیش وجود داره. با این حال، به نظر میرسه هنوز هیچ پیشرفت بزرگی رخ نداده.
منابع
- [۱] How long before superintelligence?
دیدگاهتان را بنویسید