GeekAlerts

جایی برای گیک‌ها

چقدر تا ابر هوش (Superintelligence) فاصله داریم؟

چقدر تا ابر هوش (Superintelligence) فاصله داریم؟

بیاین یه سفری بریم به دنیای هوش مصنوعی و ببینیم یه مقاله خیلی مهم در این مورد چی میگه. این مقاله که نوشته نیک باستروم از دانشگاه آکسفورد هست، سعی میکنه یه مسیر رو برای ما روشن کنه: اینکه چقدر مونده تا به هوش مصنوعی ابرانسان برسیم. مقاله میخواد بررسی کنه که آیا اصلا تو یک سوم اول قرن جدید (یعنی تا حدود سال ۲۰۳۳) به چنین چیزی میرسیم یا نه. برای این کار، چند تا سوال اصلی رو مطرح میکنه:

  • قدرت پردازش مغز انسان چقدره؟
  • چقدر طول میکشه تا سخت‌افزار کامپیوترها به پای مغز ما برسه؟
  • چطوری میشه نرم‌افزار هوش مصنوعی رو ساخت؟ آیا میشه مثل مغز خودمون از پایین به بالا (bottom-up) ساختش؟
  • دانشمندای علوم اعصاب چقدر باید از کارکرد مغز سر در بیارن تا این روش جواب بده؟
  • و در نهایت، وقتی به هوش مصنوعی در سطح انسان برسیم، چقدر سریع به ابر هوش میرسیم؟

اینها سوال‌های اصلی‌ای هستن که قراره توی این مقاله بهشون پرداخته بشه.

اصلا «ابر هوش» یعنی چی؟

قبل از هر چیزی، باید بدونیم وقتی میگیم «ابر هوش» (Superintelligence) منظورمون دقیقا چیه. منظور یه جور عقله که توی تقریبا هر زمینه‌ای، از بهترین مغزهای انسانی خیلی باهوش‌تر باشه. فرقی هم نمیکنه این زمینه خلاقیت علمی باشه، یا دانایی و خرد عمومی، یا حتی مهارت‌های اجتماعی.

این تعریف کاری نداره که این ابر هوش چطوری پیاده‌سازی شده. ممکنه یه کامپیوتر دیجیتال باشه، یا یه شبکه از کلی کامپیوتر که به هم وصلن، یا حتی یه بافت مغزی کشت داده شده تو آزمایشگاه. این تعریف حتی به این هم کاری نداره که آیا اون ابر هوش خودآگاهی داره و مثل ما چیزها رو تجربه میکنه یا نه.

یه نکته مهم اینه که چیزهایی مثل شرکت‌ها یا کل جامعه علمی، طبق این تعریف ابر هوش حساب نمیشن. درسته که این‌ها کارهایی میکنن که یه انسان تنها از پسش برنمیاد، ولی «عقل» واحدی ندارن. تازه، تو خیلی زمینه‌ها عملکردشون از یه مغز انسان ضعیف‌تره. مثلا شما نمیتونید با «جامعه علمی» یه گفتگوی زنده و لحظه‌ای داشته باشید.

قانون مور و ابرکامپیوترهای امروزی

برای اینکه بفهمیم سخت‌افزارها کی به قدرت مغز ما میرسن، اول باید با یه قانون مهم آشنا بشیم. یه قانونی هست به اسم قانون مور. این قانون میگه که سرعت پردازنده‌ها هر هجده ماه یک بار دو برابر میشه. البته قبلا این زمان دو سال بود، ولی حدود پونزده سال پیش (نسبت به زمان نوشتن مقاله) تغییر کرد. جدیدترین داده‌ها حتی نشون میدادن که این زمان به دوازده ماه کاهش پیدا کرده. این یعنی چی؟ یعنی قدرت محاسباتی کامپیوترها توی ده سال، هزار برابر میشه. شرکت‌های سازنده تراشه روی همین قانون حساب میکنن تا بدونن برای رقابتی موندن باید چه تراشه‌ای بسازن.

حالا اگه ما بتونیم قدرت محاسباتی مغز انسان رو تخمین بزنیم و بعد با استفاده از قانون مور حساب کنیم، میتونیم بفهمیم چند سال دیگه طول میکشه تا کامپیوترها از نظر قدرت خام به پای ما برسن. البته اینکه اصلا اجازه داریم از قانون مور برای آینده‌نگری استفاده کنیم یا نه، خودش یه بحثه که جلوتر بهش میرسیم.

سریع‌ترین ابرکامپیوتر دنیا در زمان نوشته شدن این مقاله (دسامبر ۱۹۹۷) قدرتی برابر با ۱.۵ تِراآپس داشته. یعنی ۱.۵ ضربدر ۱۰ به توان ۱۲ عملیات در ثانیه. یه پروژه‌ای هم بوده که میخواسته با کمک صد هزار داوطلب، از اینترنت قدرتی معادل ۱۰ تراآپس بگیره. روش کارش اینطوری بوده که داوطلب‌ها یه اسکرین سیور روی کامپیوترشون نصب میکردن و یه کامپیوتر مرکزی، بعضی از کارهای محاسباتی رو به اونها میسپرده. این روش که بهش «متاکامپیوتینگ» میگن، برای کارهایی که راحت میشه پخششون کرد (مثل تلاش برای شکستن یه کد رمز) عالی جواب میده. در آینده با بهتر شدن سرعت اینترنت (مثلا با فیبر نوری)، این روش حتی بهتر هم کار میکنه. شبیه‌سازی مغز هم چون طبیعتا کارهاش قابل پخشه، شاید در آینده بشه مغزهای بزرگی رو روی اینترنت شبیه‌سازی کرد. ولی فعلا مقاله این احتمال رو کنار میذاره و همون کامپیوتر ۱.۵ تراآپس رو به عنوان بهترین چیزی که در اون زمان وجود داشته در نظر میگیره.

البته حتی بدون پیشرفت تکنولوژی هم میشه کارهایی کرد. مثلا میشه تعداد تراشه‌هایی که توی یه جعبه میذاریم رو دو برابر کنیم. دولت آمریکا یه کامپیوتر ۳ تراآپس سفارش داده بوده تا برای تست و توسعه سلاح‌های هسته‌ای ازش استفاده کنه. ولی با توجه به قیمت ۹۴ میلیون دلاری این دستگاه، مشخصه که حتی با بودجه‌های خیلی زیاد هم نمیشه در کوتاه مدت یه جهش بزرگ در قدرت محاسباتی ایجاد کرد.

آیا قانون مور همیشه ادامه پیدا میکنه؟

حالا سوال اینه که چقدر میشه به ادامه پیدا کردن قانون مور در آینده امیدوار بود؟ خب معلومه که بالاخره یه روزی این قانون از کار میفته. چون محدودیت‌های فیزیکی برای ذخیره و پردازش اطلاعات توی فضا وجود داره. مثلا «حد بِکِنِشتاین» یه سقف برای میزان اطلاعاتی که میشه در یک حجم مشخص با یک انرژی مشخص جا داد، تعیین میکنه. از طرفی، حتی اگه ما بتونیم تو فضا گسترش پیدا کنیم، این گسترش یه نرخ چندجمله‌ای داره (حدودا t به توان ۳) در حالی که قانون مور یه رشد نمایی رو پیش‌بینی میکنه. پس این رشد نمایی نمیتونه تا ابد ادامه داشته باشه، مگر اینکه کلا فیزیک جدیدی کشف بشه.

به نظر نویسنده مقاله، قانون مور خیلی قبل‌تر از رسیدن به محدودیت‌های مطلق فیزیکی، اعتبارش رو از دست میده. احتمالا قدرت پیش‌بینی این قانون بیشتر از مثلا پونزده سال آینده (از زمان نگارش) نیست. این به این معنی نیست که بعد از سال ۲۰۱۲ سرعت پردازنده‌ها هر دوازده یا هجده ماه دو برابر نمیشه، فقط یعنی دیگه نمیتونیم از قانون مور برای اثباتش استفاده کنیم. اگه بخوایم برای بعد از اون تاریخ پیش‌بینی کنیم، باید مستقیم به این نگاه کنیم که از نظر فیزیکی چه چیزی ممکنه.

حدود سال ۲۰۰۷، تکنولوژی فعلی سیلیکون به محدودیت فیزیکیش میرسه. اما قانون مور قبلا هم از چند تا تغییر فاز تکنولوژی جون سالم به در برده. از رله به لامپ خلا، به ترانزیستور، به مدارهای مجتمع و بعد مدارهای مجتمع با مقیاس خیلی بزرگ (VLSI). دلیلی نداره که طراحی‌های فعلی VLSI روی ویفرهای سیلیکونی دو بعدی، آخرین حرف تکنولوژی تراشه باشه. کلی راه برای عبور از محدودیت‌های فعلی پیشنهاد شده و در حال توسعه است.

مثلا در آینده نزدیک، شاید بشه با استفاده از تکنیک‌های خاصی، عرض خطوط مدار روی یه میکروچیپ رو تا ۰.۱۳ میکرومتر کاهش داد. اگه از محدوده نوری خارج بشیم، میشه از اشعه ایکس یا فرابنفش شدید (EUV) استفاده کرد تا دقت بالاتری به دست بیاد. اگه این هم نشه، میشه از نوشتن با پرتو الکترون استفاده کرد، هرچند این روش تولید کند و گرونه. یه راه حل میانه اینه که بعضی از گیت‌های خیلی مهم رو با پرتو الکترون بنویسن و بقیه رو با روش‌های اپتیکال یا EUV.

راه‌های دیگه برای افزایش قدرت یه تراشه اینه که از لایه‌های بیشتری استفاده کنیم یا ویفرهای بزرگ‌تری بسازیم (تا ۳۰۰ میلی‌متر مشکلی نداره). حتی میشه تراشه‌های خیلی بزرگ‌تری ساخت اگه بشه یه مقدار خطا رو تحمل کرد.

همچنین میشه با استفاده از مواد جدید مثل گالیوم آرسنید، محدودیت‌های فیزیکی رو جابجا کرد. ترانزیستورهای کوانتومی هم در حال توسعه هستن که میتونن یه قدم بزرگ رو به جلو باشن، مخصوصا برای مدارهایی که سرعت سوئیچینگ بالا یا مصرف انرژی کم خیلی مهمه.

چون محاسبات شبیه به مغز خیلی ماهیت موازی دارن، میشه از معماری خیلی موازی استفاده کرد. در این صورت کافیه تعداد زیادی پردازنده با سرعت متوسط تولید کنیم و اونها رو به هم وصل کنیم. یا میشه همه رو تو یه جعبه گذاشت (که میشه یه پردازنده چند هسته‌ای) یا اونها رو به یه شبکه محلی با پهنای باند بالا وصل کرد.

اینها همه چیزهایی هستن که امروز در حال توسعه‌ان. بودجه‌های عظیمی به این تکنولوژی‌ها تزریق میشه. امروزه حدود ۴۰۰ مهندس برای تولید یه تراشه جدید کار میکنن. یه کارخونه تراشه مدرن ممکنه بیش از ۲ میلیارد دلار هزینه داشته باشه. هر سال حدود ۲۰ تا ۳۰ میلیارد دلار صرف تحقیق و توسعه میکروچیپ میشه. با اینکه مشکلات برای کسی که تو این حوزه کار میکنه خیلی بزرگ به نظر میرسه، ولی میشه گفت که بین متخصص‌ها یه خوش‌بینی کلی وجود داره که کامپیوترها در آینده قابل پیش‌بینی قدرتمندتر خواهند شد.

سخت‌افزار مورد نیاز برای شبیه‌سازی مغز چقدره؟

بیاین یه حساب کتاب سرانگشتی بکنیم. مغز انسان حدود ۱۰ به توان ۱۱ (صد میلیارد) نورون داره. هر نورون حدود ۵ ضربدر ۱۰ به توان ۳ (پنج هزار) سیناپس داره و سیگنال‌ها با فرکانس متوسط حدود ۱۰ به توان ۲ (صد) هرتز در این سیناپس‌ها منتقل میشن. فرض کنیم هر سیگنال هم ۵ بیت اطلاعات داشته باشه. اگه همه اینها رو در هم ضرب کنیم به عدد ۱۰ به توان ۱۷ عملیات در ثانیه (ops) میرسیم.

این عدد احتمالا سقف بالایی ماجراست و مقدار واقعی نمیتونه خیلی بیشتر از این باشه، ولی ممکنه خیلی کمتر باشه. به نظر میاد تو مغز افزونگی زیادی وجود داره؛ یعنی اغلب لازمه که تعداد زیادی نورون با هم شلیک کنن تا سیگنالششون تو نویز کلی مغز گم نشه.

یه روش دیگه برای محاسبه این قدرت، اینه که یه تیکه از مغز رو که کارکردش رو میدونیم چطوری روی کامپیوتر پیاده کنیم، در نظر بگیریم. بعد حساب کنیم به طور متوسط هر نورون تو اون قسمت چقدر قدرت پردازشی معادل کامپیوتر داره و این عدد رو در تعداد کل نورون‌های مغز ضرب کنیم. هانس موراوک این محاسبه رو با استفاده از داده‌های شبکیه چشم انسان انجام داده و با نیاز محاسباتی برای استخراج لبه در دید ربات مقایسه کرده. اون به عدد ۱۰ به توان ۱۴ عملیات در ثانیه برای کل مغز انسان رسیده. این عدد سه مرتبه بزرگی (هزار برابر) کمتر از اون سقف بالاییه که ما حساب کردیم.

دلیل خاصی وجود نداره که فکر کنیم افزونگی در شبکیه چشم بیشتر از قشر مغزه. اتفاقا برعکسش محتمل‌تره، چون استخراج لبه یه کار سطح پایینه و احتمالا بهینه‌تره.

پس دو تا عدد داریم:

  • تخمین بالا: 10^۱۷ ops
  • تخمین پایین (موراوک): 10^۱۴ ops (یا ۱۰۰ تِراآپس)

حالا بیاین اینها رو با قانون مور مقایسه کنیم:

  • اگر تخمین پایین (۱۰۰ تراآپس) درست باشه: به این قدرت محاسباتی بین سال‌های ۲۰۰۴ تا ۲۰۰۸ میرسیم (بسته به اینکه زمان دو برابر شدن رو ۱۲ یا ۱۸ ماه در نظر بگیریم). البته این مربوط به بهترین ابرکامپیوترهای دنیاست، نه کامپیوترهایی که محقق‌های هوش مصنوعی در اختیار دارن. بسته به بودجه، ممکنه تا ده سال بیشتر طول بکشه تا این دستگاه‌ها به دست این محقق‌ها برسه.
  • اگر تخمین بالا (۱۰^۱۷ ops) درست باشه: باید تا حدود سال ۲۰۱۵ یا ۲۰۲۴ صبر کنیم. ولی احتمالا تا اون موقع که یاد گرفتیم چطوری نورون‌ها رو دونه دونه شبیه‌سازی کنیم، حتما راه‌های بهینه‌سازی هم پیدا کردیم، پس میشه این سقف رو کمی پایین‌تر آورد.

تا اینجا فقط در مورد سرعت پردازنده حرف زدیم، ولی کامپیوترها برای شبیه‌سازی مغز به حافظه زیادی هم نیاز دارن. در طول تاریخ کامپیوتر، نسبت بین حافظه و سرعت تقریبا ثابت بوده: حدود ۱ بایت به ازای هر عملیات در ثانیه. به نظر میاد که سرعت، گلوگاه اصلی باشه نه حافظه. چون حتی اگه با بهینه‌سازی، نیاز به سرعت رو کم کنیم، احتمالا نیاز به حافظه رو هم میتونیم به همون نسبت کم کنیم. پس فعلا روی سرعت تمرکز میکنیم.

این مقاله وارد این بحث نمیشه که آیا پدیده‌های کوانتومی در شناخت انسان نقش دارن یا نه. بعضی‌ها مثل همروف و پنروز این ایده رو مطرح کردن، ولی نویسنده مقاله این رو غیرمحتمل میدونه و فرض میکنه که برای مدل‌سازی سطح بالای مغز، پدیده‌های کوانتومی مهم نیستن.

نتیجه‌گیری این بخش اینه که ظرفیت سخت‌افزاری برای هوش مصنوعی در سطح انسان احتمالا قبل از پایان ربع اول قرن جدید (یعنی تا سال ۲۰۲۵) وجود خواهد داشت و شاید حتی در سال ۲۰۰۴ به دست بیاد. آزمایشگاه‌های پیشرو هم ده سال بعد از اون به این ظرفیت دسترسی پیدا میکنن (یا زودتر، اگه اهمیت هوش مصنوعی بیشتر درک بشه).

نرم‌افزار رو چطور بسازیم؟ روش از پایین به بالا

ابر هوش علاوه بر سخت‌افزار به نرم‌افزار هم احتیاج داره. برای ساخت نرم‌افزار چند تا رویکرد وجود داره. یه سر طیف، سیستم‌هایی مثل CYC هستن که یه پایگاه دانش خیلی بزرگ مثل دایره‌المعارف دارن. برای بیش از یک دهه، یه تیم از انسان‌ها بهش اطلاعات، قوانین و روش‌های تجربی رو «قاشق قاشق» خوروندن. این روش شاید برای کارهای خاصی خوب باشه، ولی بعیده بتونه شکاکان هوش مصنوعی رو قانع کنه. باید به روش‌هایی نگاه کنیم که نیاز به دخالت کمتر انسان دارن، یعنی روش‌های از پایین به بالا (bottom-up).

اگه سخت‌افزار کافی و برنامه‌نویسی درست داشته باشیم، میتونیم کاری کنیم که ماشین‌ها مثل یه بچه یاد بگیرن؛ یعنی با تعامل با آدم‌های بزرگسال و اشیای دیگه در محیط. مکانیزم‌های یادگیری مغز هنوز کامل درک نشدن. شبکه‌های عصبی مصنوعی امروزی معمولا با الگوریتمی به اسم «پس‌انتشار» (Backpropagation) آموزش داده میشن. این الگوریتم برای شبکه‌های کوچیک خوب کار میکنه ولی برای شبکه‌های بزرگ مقیاس‌پذیر نیست. یه محدودیت دیگه‌اش اینه که یه نوع یادگیری «نظارت شده» است، یعنی باید بهش بگی هر نورون خروجی چقدر خطا داشته. معلوم نیست چطور میشه چنین بازخورد دقیقی رو در دنیای واقعی فراهم کرد.

یه حالت یادگیری که به مغز نزدیک‌تره، الگوریتم «هِبی» (Hebbian) هست. یادگیری هبی بدون نظارته و احتمالا مقیاس‌پذیری بهتری هم داره. البته هنوز توضیح داده نشده که این الگوریتم به تنهایی چطور میتونه همه انواع یادگیری مغز رو ایجاد کنه. احتمالا باید با چیزهایی مثل یادگیری مبتنی بر پاداش تکمیل بشه. ولی این ایده که فقط تعداد خیلی کمی (شاید دو یا سه) قانون یادگیری در مغز انسان وجود داره، محتمله. و ما از فهمیدن اینکه این قوانین چی هستن، خیلی دور نیستیم.

برای ساختن ابر هوش با تقلید از مغز، علاوه بر قوانین یادگیری و سخت‌افزار قوی، دو چیز دیگه هم لازمه:

  1. داشتن یه معماری اولیه مناسب
  2. فراهم کردن یه جریان غنی از ورودی‌های حسی

دومی با تکنولوژی امروز هم راحته. با دوربین‌های ویدئویی، میکروفون و سنسورهای لمسی میشه یه جریان ثابت از اطلاعات دنیای واقعی رو به شبکه عصبی داد. میشه با وصل کردن سیستم به بازوهای رباتیک و بلندگو، یه عنصر تعاملی هم ایجاد کرد.

اما ساختن یه ساختار شبکه اولیه مناسب، یه مشکل جدی‌تره. ممکنه لازم باشه کلی کدنویسی دستی انجام بشه تا معماری قشر مغز درست از آب دربیاد. در موجودات زنده، مغز در بدو تولد یه لوح سفید یکدست نیست؛ یه ساختار اولیه داره که به صورت ژنتیکی کدگذاری شده. علوم اعصاب فعلا نمیتونه دقیقا بگه این ساختار چیه یا چقدر از اون باید در یه شبیه‌سازی حفظ بشه. یه راهی که ممکنه این رویکرد رو خیلی سخت کنه اینه که مغز انسان به مقدار عظیمی از سیم‌کشی ژنتیکی متکی باشه، یعنی هر عملکرد شناختی به یه معماری ذاتی منحصر به فرد و پیچیده وابسته باشه.

آیا واقعا اینطوریه؟ چند تا دلیل نشون میده که احتمالا نه.

  • انعطاف‌پذیری قشر مغز: تحقیقات جدید نشون میده که قشر مغز انسان در حال رشد، تا حد زیادی فاقد ساختارهای تخصصی از پیش تعیین شده است. این ساختارهای تخصصی که در مغز بزرگسالان میبینیم، به طور ژنتیکی مشخص نشدن، بلکه از طریق تعامل با محیط و حل مسئله به وجود اومدن. درسته که به طور ژنتیکی تمایلاتی وجود داره (مثلا پردازش اولیه بینایی معمولا در قشر بینایی انجام میشه)، ولی این به این معنی نیست که بقیه نواحی مغز نمیتونستن اون کار رو یاد بگیرن.
  • جبران آسیب‌های مغزی: این دیدگاه با این واقعیت که آسیب‌های قشر مغز، حتی آسیب‌های بزرگ، اگه در سنین پایین اتفاق بیفتن اغلب قابل جبران هستن، به شدت حمایت میشه. نواحی دیگه مغز، کارکردهایی که باید در ناحیه آسیب‌دیده رشد میکردن رو به عهده میگیرن. در یک مطالعه، حساسیت به ویژگی‌های بصری در قشر شنوایی راسوهای نوزاد ایجاد شد. در آزمایشی دیگه، افراد نابینا از بدو تولد تونستن از قشر بینایی خودشون برای پردازش تحریکات لمسی هنگام خوندن خط بریل استفاده کنن.
  • یکنواختی ساختار قشر مغز: یه دلیل دیگه اینه که معماری قشر مغز، مخصوصا در نوزادان، در نواحی مختلف قشر و حتی در گونه‌های مختلف به طرز شگفت‌انگیزی یکنواخته. ساختار لایه‌ای و اتصالات عمودی در همه سیستم‌های قشری وجود داره و ویژگی‌های نورون‌ها در گونه‌های مختلف یکسانه.

یه نفر ممکنه اینجا اعتراض کنه که نهنگ‌ها و دلفین‌ها قشر مغز خیلی بزرگ‌تری از انسان‌ها دارن ولی درک انتزاعی و زبان در سطح انسان رو ندارن. پس ظاهرا یه قشر مغز بزرگ برای هوش انسانی کافی نیست. با این حال، میشه تصور کرد که یه تفاوت خیلی ساده بین مغز ما و اونها وجود داره. مثلا شاید قشر مغز ما یه «انگیزه» سطح پایین برای یادگیری روابط انتزاعی داره، در حالی که دلفین‌ها طوری برنامه‌ریزی شدن که به این چیزها اهمیت ندن. یا محتمل‌تر، یه سری تحولات ساختاری در قشر مغز انسان وجود داره که بقیه حیوانات ندارن. ولی این تحولات منحصر به فرد انسانی میتونه نتیجه تغییرات نسبتا ساده در چند پارامتر اساسی باشه. با توجه به اینکه تکامل مغز که به ما اجازه داد از نظر فکری از بقیه حیوانات پیشی بگیریم در یه دوره زمانی نسبتا کوتاه اتفاق افتاده، تکامل نمیتونسته اطلاعات محتوایی زیادی رو در این ساختارها جاسازی کنه.

این ملاحظات نشون میده که مقدار اطلاعات علوم اعصاب مورد نیاز برای موفقیت رویکرد از پایین به بالا ممکنه خیلی محدود باشه. احتمالا پیشرفت‌های بیشتری در علوم اعصاب لازمه تا بتونیم هوش مصنوعی در سطح انسان بسازیم. سخته که تخمین بزنیم چقدر طول میکشه تا به اندازه کافی در مورد معماری نورونی مغز و الگوریتم‌های یادگیریش بدونیم. یه حدس خیلی کلی: چیزی حدود پونزده سال (از زمان نگارش مقاله، یعنی تا حدود سال ۲۰۱۲). این پیش‌بینی در مورد رسیدن به درک کامل مغز نیست، بلکه در مورد زمانیه که ما به اندازه کافی اصول اولیه کارکرد مغز رو میدونیم تا بتونیم اونها رو روی کامپیوتر پیاده کنیم.

شاید این تخمین به نظر بعضی‌ها خیلی خوش‌بینانه بیاد، ولی به این فکر کنید که در پونزده سال گذشته (قبل از مقاله) چقدر پیشرفت شده. رشته علوم اعصاب محاسباتی در سال ۱۹۸۲ به سختی وجود داشت. پیشرفت‌های آینده فقط به خاطر تحقیقات با ابزارهای امروزی نیست، بلکه ابزارها و تکنیک‌های تجربی جدیدی هم در حال توسعه هستن. از ثبت سیگنال‌های چند الکترودی در مقیاس بزرگ گرفته تا رابط‌های مغز و تراشه و داروهای جدید. همه این نوآوری‌ها ابزارهای قدرتمندی به دانشمندان علوم اعصاب میدن.

چرا شکست‌های گذشته هوش مصنوعی، دلیلی برای عدم موفقیت در آینده نیست؟

در دهه‌های هفتاد و هشتاد میلادی، حوزه هوش مصنوعی دچار یه رکود شد. چون انتظارات اغراق‌آمیز اولیه برآورده نشد و پیشرفت تقریبا متوقف شد. درسی که باید از این دوره گرفت این نیست که هوش مصنوعی قوی مرده و هرگز ساخته نمیشه. این نشون میده که هوش مصنوعی سخت‌تر از چیزی بود که بعضی از پیشگامان فکر میکردن، ولی به هیچ وجه نشون نمیده که برای همیشه غیرممکن باقی میمونه.

اگه به گذشته نگاه کنیم، میبینیم که پروژه هوش مصنوعی در اون مرحله اصلا نمیتونست موفق بشه. سخت‌افزار به سادگی به اندازه کافی قدرتمند نبود. به نظر میاد حداقل حدود ۱۰۰ تراآپس برای عملکردی شبیه به انسان لازمه و شاید حتی تا ۱۰ به توان ۱۷ عملیات در ثانیه نیاز باشه. کامپیوترهای دهه هفتاد قدرت محاسباتی در حد حشرات داشتن و تقریبا به هوش در سطح حشرات هم رسیدن. اما الان، ما میتونیم رسیدن سخت‌افزار در سطح انسان رو پیش‌بینی کنیم، پس دلیلی که باعث شکست گذشته هوش مصنوعی شد، دیگه وجود نخواهد داشت.

یه توضیح دیگه برای عدم پیشرفت محسوس در اون دوره هم وجود داره. به گفته هانس موراوک:

«برای چندین دهه، قدرت محاسباتی در سیستم‌های پیشرفته هوش مصنوعی و رباتیک در حد قدرت مغز حشره یعنی ۱ میلیون عملیات در ثانیه (MIPS) گیر کرده بود. در حالی که قدرت کامپیوتر به ازای هر دلار به سرعت بالا میرفت، بودجه موجود هم به همان سرعت پایین میومد. روزهای اولیه هوش مصنوعی در اواسط دهه ۱۹۶۰ با بودجه‌های هنگفت دفاعی بعد از اسپوتنیک تامین میشد که دسترسی به ابرکامپیوترهای ۱۰ میلیون دلاری اون زمان رو فراهم میکرد. در دوران بعد از جنگ ویتنام در دهه ۱۹۷۰، بودجه کم شد و فقط ماشین‌های ۱ میلیون دلاری در دسترس بود. در اوایل دهه ۱۹۸۰، تحقیقات هوش مصنوعی باید به مینی‌کامپیوترهای ۱۰۰ هزار دلاری رضایت میداد. در اواخر دهه ۱۹۸۰، ماشین‌های موجود ایستگاه‌های کاری ۱۰ هزار دلاری بودن. در دهه ۱۹۹۰، خیلی از کارها روی کامپیوترهای شخصی چند هزار دلاری انجام میشد. از اون به بعد، قدرت مغز هوش مصنوعی و ربات‌ها با بهبود کارایی کامپیوترها افزایش پیدا کرده. در سال ۱۹۹۳ کامپیوترهای شخصی ۱۰ MIPS قدرت داشتن، در سال ۱۹۹۵ به ۳۰ MIPS رسید و در سال ۱۹۹۷ بیش از ۱۰۰ MIPS قدرت دارن. ناگهان ماشین‌ها دارن متن میخونن، گفتار رو تشخیص میدن و ربات‌ها خودشون در سراسر کشور رانندگی میکنن.»

به طور کلی، به نظر میرسه یه حس خوش‌بینی و هیجان جدیدی بین افراد فعال در هوش مصنوعی به وجود اومده، مخصوصا اونهایی که رویکرد از پایین به بالا دارن.

وقتی به هوش در سطح انسان برسیم، خیلی زود به ابر هوش میرسیم

وقتی هوش مصنوعی به سطح انسان برسه، یه حلقه بازخورد مثبت به وجود میاد که به توسعه سرعت بیشتری میده. هوش‌های مصنوعی به ساختن هوش‌های مصنوعی بهتر کمک میکنن، که اونها هم به نوبه خودشون به ساختن هوش‌های مصنوعی بهتر کمک میکنن و این چرخه ادامه پیدا میکنه.

حتی اگه هیچ توسعه نرم‌افزاری دیگه‌ای اتفاق نیفته و هوش‌های مصنوعی مهارت‌های جدیدی از طریق خودآموزی به دست نیارن، باز هم با افزایش سرعت پردازنده‌ها، باهوش‌تر میشن. اگه بعد از ۱۸ ماه، سخت‌افزار ارتقا پیدا کنه و سرعتش دو برابر بشه، ما یه هوش مصنوعی داریم که میتونه دو برابر سریع‌تر از نسخه اصلی فکر کنه. بعد از چند بار دو برابر شدن، این مستقیما به چیزی منجر میشه که بهش میگن «ابر هوش ضعیف»؛ یعنی یه عقلی که تقریبا توانایی‌های مشابه مغز انسان رو داره ولی خیلی سریع‌تره.

همچنین، وقتی هوش مصنوعی به سطح انسان برسه، سودمندی پیشرفت‌های بیشتر در اون به شدت افزایش پیدا میکنه و باعث افزایش بودجه میشه. پس میشه پیش‌بینی کرد که وقتی هوش مصنوعی در سطح انسان وجود داشته باشه، طولی نمیکشه که ابر هوش از نظر تکنولوژیکی ممکن بشه.

یه نکته دیگه هم در حمایت از این پیش‌بینی وجود داره. بر خلاف چیزی که برای عقل‌های بیولوژیکی ممکنه، شاید بشه مهارت‌ها یا ماژول‌های شناختی رو از یه عقل مصنوعی به یه عقل مصنوعی دیگه کپی کرد. اگه یه هوش مصنوعی در یه زمینه‌ای به برتری برسه، هوش‌های مصنوعی بعدی میتونن برنامه یا ماتریس وزن‌های سیناپسی اون پیشگام رو آپلود کنن و فورا به همون سطح از عملکرد برسن. دیگه لازم نیست دوباره فرآیند آموزش رو طی کنن. این که آیا میشه بهترین بخش‌های چند هوش مصنوعی رو ترکیب کرد و در یک هوش مصنوعی جمع کرد یا نه، به جزئیات پیاده‌سازی بستگی داره. ولی به عنوان یه قانون کلی، دستاوردهای فکری عقل‌های مصنوعی به شکلی قابل جمع شدن هستن که دستاوردهای انسانی اینطور نیستن.

تقاضا برای ابر هوش

با فرض اینکه ابر هوش یه روزی از نظر تکنولوژیکی ممکن بشه، آیا مردم انتخاب میکنن که اون رو توسعه بدن؟ به این سوال میشه با اطمینان جواب مثبت داد. هر قدم در مسیر رسیدن به ابر هوش، با سودهای اقتصادی عظیمی همراهه. صنعت کامپیوتر مبالغ هنگفتی رو در نسل بعدی سخت‌افزار و نرم‌افزار سرمایه‌گذاری میکنه و تا زمانی که فشار رقابتی و سود وجود داشته باشه، به این کار ادامه خواهد داد. مردم کامپیوترهای بهتر و نرم‌افزارهای باهوش‌تر میخوان و مزایایی که این ماشین‌ها میتونن به ارمغان بیارن رو میخوان. داروهای پزشکی بهتر، رهایی انسان‌ها از انجام کارهای خسته‌کننده یا خطرناک، سرگرمی؛ لیست مزایای مصرف‌کننده پایانی نداره. انگیزه نظامی قوی‌ای هم برای توسعه هوش مصنوعی وجود داره. و در هیچ کجای این مسیر، نقطه توقف طبیعی وجود نداره که مخالفان تکنولوژی بتونن بگن «تا اینجا کافیه، جلوتر نرو».

بنابراین به نظر میرسه تا رسیدن به سطح معادل انسان، نیروهای محرک پشت پیشرفت‌های هوش مصنوعی به راحتی بر هر مقاومتی که ممکنه وجود داشته باشه غلبه میکنن. وقتی مسئله به هوش در سطح انسان یا بالاتر از اون میرسه، قابل تصوره که نیروهای سیاسی قوی‌ای با توسعه بیشتر مخالفت کنن. ابر هوش ممکنه به عنوان یه تهدید برای برتری و حتی بقای گونه انسان دیده بشه. اینکه آیا ما میتونیم با برنامه‌ریزی مناسب، سیستم‌های انگیزشی ابر هوش‌ها رو طوری تنظیم کنیم که اطاعت و فرمانبرداری همیشگی اونها از انسان‌ها رو تضمین کنیم، یه موضوع بحث‌برانگیزه. اگه سیاست‌گذاران آینده بتونن مطمئن باشن که هوش‌های مصنوعی منافع انسان رو به خطر نمیندازن، توسعه هوش مصنوعی ادامه پیدا میکنه. اگه نتونن مطمئن باشن که خطری وجود نداره، باز هم احتمالا توسعه ادامه پیدا میکنه. یا به این دلیل که مردم جابجایی تدریجی انسان‌های بیولوژیکی با ماشین‌ها رو لزوما یه نتیجه بد نمیدونن، یا به این دلیل که نیروهای قدرتمندی (با انگیزه سود کوتاه‌مدت، کنجکاوی، ایدئولوژی یا تمایل به قابلیت‌هایی که ابر هوش‌ها میتونن برای سازندگانشون بیارن) فعال هستن و نمیشه به یه تصمیم جمعی برای ممنوع کردن تحقیقات جدید در این زمینه رسید و اون رو با موفقیت اجرا کرد.


به‌روزرسانی‌ها و اطلاعات تکمیلی مقاله

پی‌نوشت اول (۲۵ اکتبر ۱۹۹۸)

وزارت انرژی آمریکا یه ابرکامپیوتر جدید از IBM سفارش داده که در سال ۲۰۰۰ نصب میشه. این کامپیوتر ۸۵ میلیون دلار قیمت داره و ۱۰ تراآپس قدرت پردازشی خواهد داشت. این تحول با قانون مور مطابقت داره یا حتی شاید کمی سریع‌تر از پیش‌بینی‌هاست.
در سال گذشته (۱۹۹۸) قدم‌های زیادی به جلو برداشته شده. یه مورد جالب، تکنیک‌های جدید ساخت تراشه در شرکت Irvine Sensors Corporation (ISC) هست. اونها راهی پیدا کردن که تراشه‌ها رو مستقیما روی هم بچینن. این کار نه تنها باعث صرفه‌جویی در فضا میشه، بلکه مهم‌تر از اون، اجازه میده تعداد اتصالات بین تراشه‌های همسایه بیشتر بشه. چون تعداد اتصالات همیشه یه گلوگاه در پیاده‌سازی سخت‌افزاری شبکه‌های عصبی بوده، این پیشرفت میتونه خیلی مهم باشه.

پی‌نوشت دوم (۲۸ آگوست ۲۰۰۰)

آیا پیشرفت هنوز طبق برنامه است؟ در واقع، به نظر میرسه همه چیز کمی سریع‌تر از حد انتظار پیش میره، حداقل در بخش سخت‌افزار. IBM در حال کار روی یه ابرکامپیوتر نسل بعدی به نام Blue Gene هست که قدرتی بیش از ۱۰ به توان ۱۵ عملیات در ثانیه (یک پتاآپس) خواهد داشت. این کامپیوتر که برای حل مشکل تاخوردگی پروتئین طراحی شده، انتظار میره حدود سال ۲۰۰۵ آماده بشه. این قدرت عظیم رو از طریق موازی‌سازی گسترده به دست میاره، نه از طریق پردازنده‌های سریع‌تر. با توجه به تاکید روزافزون بر محاسبات موازی و افزایش پهنای باند اینترنت، مهمه که قانون مور رو به عنوان بیانیه‌ای در مورد اینکه چقدر قدرت محاسباتی میشه با مقدار مشخصی پول خرید، تفسیر کنیم. این معیار در گذشته با سرعت پردازنده یا تراکم تراشه همگام بوده، ولی ممکنه در آینده از هم جدا بشن. چیزی که برای حدس زدن زمان توسعه ابر هوش مهمه اینه که چقدر قدرت محاسباتی میشه با مثلا ۱۰۰ میلیون دلار خرید، نه اینکه پردازنده‌های تکی چقدر سریع هستن.

پی‌نوشت سوم (۳۰ اکتبر ۲۰۰۵)

سریع‌ترین ابرکامپیوتر امروز (۲۰۰۵) Blue Gene/L متعلق به IBM هست که به قدرت ۲۶۰ تراآپس (۲.۶ ضربدر ۱۰ به توان ۱۴ عملیات در ثانیه) رسیده. بنابراین، تخمین موراوک از قدرت پردازش مغز انسان (۱۰ به توان ۱۴ عملیات در ثانیه) حالا پشت سر گذاشته شده.

پروژه «مغز آبی» (Blue Brain) در ماه مه ۲۰۰۵ توسط موسسه مغز و ذهن EPFL سوئیس و IBM آمریکا راه‌اندازی شد. هدف این پروژه ساختن یه کپی نرم‌افزاری دقیق از ستون نئوکورتیکال مغز در عرض ۲-۳ سال آینده است. این ستون شامل ۱۰,۰۰۰ نورون پیچیده با کانال‌های یونی فعال خواهد بود. این پروژه از یه سطح شبیه‌سازی بسیار دقیق استفاده میکنه. شبیه‌سازی کل مغز در این سطح از جزئیات (که محققان به عنوان هدف مراحل بعدی پروژه اعلام کردن) به حدود ۲ ضربدر ۱۰ به توان ۱۹ عملیات در ثانیه نیاز داره. این عدد دو مرتبه بزرگی (صد برابر) بیشتر از تخمین شبیه‌سازی در سطح نورونی در مقاله اصلیه. اگه پروژه «مغز آبی» موفق بشه، به ما شواهد محکمی از سقف بالای قدرت محاسباتی مورد نیاز برای رسیدن به هوش انسانی میده.

یه نکته دیگه اینکه، بازسازی عملکرد پردازش اولیه شنوایی (که به خوبی درک شده) هم تخمینی رو به دست داده که با ارزیابی موراوک بر اساس پردازش سیگنال در شبکیه چشم مطابقت داره (یعنی همان حدود ۱۰ به توان ۱۴ عملیات در ثانیه برای کل مغز).

در سال‌های اخیر پیشرفت چشمگیری در هوش مصنوعی عمومی رخ نداده. با این حال، علوم اعصاب و مهندسی نورومورفیک با سرعت زیادی در حال پیشرفت هستن.
نانوتکنولوژی مولکولی، تکنولوژی‌ای که در شکل بالغش میتونه آپلود ذهن رو ممکن کنه (روشی که در اون یه نقشه سه بعدی دقیق از یه مغز انسان خاص ساخته و بعد در یه کامپیوتر شبیه‌سازی میشه)، شروع به گرفتن شتاب کرده و بودجه و توجه بیشتری دریافت میکنه. یه ذهن آپلود شده که روی یه کامپیوتر سریع اجرا بشه، یه «ابر هوش ضعیف» خواهد بود. یعنی در ابتدا از نظر عملکردی با مغز ارگانیک اصلی یکسانه، ولی میتونه با سرعت خیلی بالاتری کار کنه. وقتی چنین آپلودی وجود داشته باشه، ممکنه بشه معماری اون رو برای ایجاد «ابر هوش قوی» که نه تنها سریع‌تر بلکه از نظر عملکردی هم برتر از هوش انسانیه، ارتقا داد.

پی‌نوشت چهارم (۱۲ مارس ۲۰۰۸)

نویسنده توضیح میده که وقتی در چکیده مقاله گفته «موردی رو برای این باور که در یک سوم اول قرن آینده به ابر هوش میرسیم، ترسیم میکنم»، منظورش چی بوده. او کلمه «مورد» رو عمدا انتخاب کرده. یعنی با ترسیم «مورد موافق»، نمیخواسته انکار کنه که میشه یه «مورد مخالف» هم ترسیم کرد. در واقع، با در نظر گرفتن همه چیز، او احتمال رسیدن به ابر هوش تا سال ۲۰۳۳ رو کمتر از ۵۰ درصد میدونه. او فکر میکنه عدم قطعیت زیادی در مورد اینکه آیا و چه زمانی این اتفاق میفته وجود داره، ولی باید این احتمال که تا اون زمان اتفاق بیفته رو به خاطر دلایلی که در مقاله ذکر شده، جدی گرفت.

به نظر میرسه الان علاقه بیشتری به تحقیقات هوش مصنوعی عمومی (AGI) نسبت به چند سال پیش وجود داره. با این حال، به نظر میرسه هنوز هیچ پیشرفت بزرگی رخ نداده.

منابع

  • [۱] How long before superintelligence?

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *