تا چند سال گذشته، OpenAI انگار یک برند تکنفره بود. سم آلتمن، مدیرعامل شرکت، با سبک نمایشی و زرق و برقش در جذب سرمایه، همه اسمهای بزرگ دیگه شرکت رو زیر سایه خودش قرار داده بود. حتی ماجرای اخراج ناموفقش هم در نهایت با برگشتن اون به راس شرکت و مشهورتر شدنش تموم شد. اما اگه از این چهره کاریزماتیک عبور کنیم، تصویر واضحتری از مسیر آینده این شرکت به دست میاریم. به هر حال، این آلتمن نیست که داره فناوریای رو میسازه که اعتبار شرکت به اون بستگی داره.
این مسئولیت بر عهده دو مدیر پژوهشی OpenAI یعنی مارک چن، مدیر ارشد پژوهشی، و یاکوب پاچوکی، دانشمند ارشد، قرار داره. این دو نفر با هم وظیفه دارن که مطمئن بشن OpenAI همیشه یک قدم از رقبای قدرتمندی مثل گوگل جلوتره.
در سفر اخیر این دو نفر به لندن، جایی که OpenAI اولین دفتر بینالمللی خودش رو در سال ۲۰۲۳ تاسیس کرد، یک گفتگوی اختصاصی با اونها انجام شد. در این گفتگو، درباره این صحبت شد که چطور تنش ذاتی بین پژوهش و محصول رو مدیریت میکنن؛ چرا فکر میکنن کدنویسی و ریاضیات کلید رسیدن به مدلهای همهکاره و تواناتره؛ وقتی از هوش مصنوعی عمومی (AGI) حرف میزنن دقیقا منظورشون چیه؛ و چه اتفاقی برای تیم «ابرهمراستاسازی» (superalignment) افتاد، تیمی که توسط ایلیا سوتسکور، همبنیانگذار و دانشمند ارشد سابق شرکت، برای جلوگیری از سرکش شدن یک ابرهوش فرضی تاسیس شده بود و کمی بعد از رفتن اون منحل شد.
به طور مشخص، هدف این بود که بفهمیم ذهنیت این دو نفر در آستانه بزرگترین عرضه محصول OpenAI در ماههای اخیر، یعنی GPT-5، چطوره.
گزارشهایی منتشر شده که میگه مدل نسل بعدی این شرکت در ماه آگوست عرضه میشه. موضع رسمی OpenAI، یا بهتر بگیم موضع آلتمن، اینه که GPT-5 «به زودی» منتشر خواهد شد. انتظارات خیلی بالاست. جهشهایی که OpenAI با GPT-3 و بعد GPT-4 داشت، سطح انتظارات از تواناییهای این فناوری رو به شدت بالا برد. با این حال، تاخیر در عرضه GPT-5 به شایعاتی دامن زده که میگن OpenAI در ساخت مدلی که بتونه انتظارات خودش، و البته بقیه، رو برآورده کنه به مشکل خورده.
اما مدیریت انتظارات بخشی از کار شرکتیه که در چند سال گذشته، برنامه کاری کل این صنعت رو مشخص کرده. و در داخل OpenAI، این چن و پاچوکی هستن که این برنامه رو تعیین میکنن.
دو قله
دفتر اصلی شرکت در لندن در پارک سنت جیمز، چند صد متر اونطرفتر از کاخ باکینگهام قرار داره. اما محل ملاقات با چن و پاچوکی در یک اتاق کنفرانس در یک فضای کار اشتراکی نزدیک کینگز کراس بود، جایی که OpenAI به عنوان یک پایگاه دوم در قلب محله فناوری لندن (جایی که گوگل دیپمایند و متا هم دفتر دارن) نگه داشته. لورانس فاکونه، مدیر ارتباطات پژوهشی OpenAI، با یک لپتاپ باز در انتهای میز نشسته بود.
چن، که یک پولو شرت زرشکی پوشیده بود، ظاهری مرتب و تقریبا شیکپوش داره. اون برای مصاحبه با رسانهها آموزش دیده و در گفتگو با خبرنگار راحته. (همون کسی که در ویدیوی معرفی GPT-4o با یک چتبات شوخی میکنه.) پاچوکی، با یک تیشرت مشکی با لوگوی فیل، بیشتر شبیه هکرهای توی فیلمهاست. وقتی حرف میزنه، خیلی به دستهاش نگاه میکنه.
اما این دو نفر خیلی هماهنگتر از چیزی هستن که در نگاه اول به نظر میاد. پاچوکی نقشهاشون رو اینطور خلاصه کرد. اون گفت که چن تیمهای پژوهشی رو شکل میده و مدیریت میکنه. «من مسئول تعیین نقشه راه پژوهشی و پایهریزی دیدگاه فنی بلندمدت ما هستم.»
چن اضافه کرد: «اما این نقشها شناورن. ما هر دو پژوهشگریم و رشتههای فنی رو دنبال میکنیم. هر چیزی که ببینیم میتونیم روش کار کنیم و درستش کنیم، همون کار رو انجام میدیم.»
چن در سال ۲۰۱۸ بعد از کار به عنوان یک معاملهگر کمی در شرکت وال استریتی جین استریت کپیتال، جایی که مدلهای یادگیری ماشین برای معاملات آتی طراحی میکرد، به OpenAI پیوست. در OpenAI اون پیشگام ساخت DALL-E، مدل تولید تصویر انقلابی شرکت، بود. بعد از اون روی اضافه کردن قابلیت تشخیص تصویر به GPT-4 کار کرد و رهبری توسعه Codex، مدل کدنویسی مولدی که پشت GitHub Copilot قرار داره، رو بر عهده داشت.
پاچوکی در سال ۲۰۱۷ یک شغل آکادمیک در علوم کامپیوتر نظری رو رها کرد تا به OpenAI بیاد و در سال ۲۰۲۴ جایگزین سوتسکور به عنوان دانشمند ارشد شد. اون به همراه سوتسکور، یکی از معماران کلیدی مدلهای به اصطلاح «استدلالی» OpenAI، به خصوص o1 و o3، به حساب میاد که برای حل مسائل پیچیده در علوم، ریاضیات و کدنویسی طراحی شدن.
وقتی این ملاقات انجام شد، اونها به خاطر دو پیروزی پشت سر هم برای فناوری شرکتشون حسابی هیجانزده بودن.
در تاریخ ۱۶ جولای، یکی از مدلهای زبان بزرگ OpenAI در فینال تور جهانی AtCoder، یکی از سختترین مسابقات برنامهنویسی جهان، به مقام دوم رسید. در ۱۹ جولای، OpenAI اعلام کرد که یکی از مدلهاش به نتایجی در سطح مدال طلا در المپیاد بینالمللی ریاضی ۲۰۲۵، یکی از معتبرترین مسابقات ریاضی جهان، دست پیدا کرده.
نتیجه ریاضیات سر و صدای زیادی به پا کرد، نه فقط به خاطر دستاورد قابل توجه OpenAI، بلکه به این دلیل که رقیب اونها، گوگل دیپمایند، دو روز بعد اعلام کرد که یکی از مدلهاش در همون مسابقه به همون امتیاز رسیده. گوگل دیپمایند طبق قوانین مسابقه عمل کرده بود و قبل از اعلام عمومی، منتظر مونده بود تا نتایجش توسط برگزارکنندهها تایید بشه؛ در حالی که OpenAI در عمل خودش جوابهاش رو تصحیح کرده بود.
از نظر چن و پاچوکی، نتیجه خودش گویای همه چیزه. به هر حال، این پیروزی در برنامهنویسیه که اونها رو بیشتر هیجانزده کرده. چن گفت: «فکر میکنم این موضوع خیلی دست کم گرفته شده.» اون گفت که کسب مدال طلا در المپیاد بینالمللی ریاضی شما رو جایی بین ۲۰ تا ۵۰ شرکتکننده برتر قرار میده. اما در مسابقه AtCoder مدل OpenAI در بین دو نفر اول قرار گرفت: «اینکه بتونی به یک سطح کاملا متفاوت از عملکرد انسانی برسی، بیسابقه است.»
عرضه، عرضه، عرضه!
آدمهای OpenAI هنوز دوست دارن بگن که در یک آزمایشگاه پژوهشی کار میکنن. اما این شرکت با چیزی که سه سال پیش، قبل از عرضه ChatGPT بود، خیلی فرق کرده. این شرکت الان در حال رقابت با بزرگترین و ثروتمندترین شرکتهای فناوری دنیاست و ۳۰۰ میلیارد دلار ارزشگذاری شده. دیگه پژوهشهای پیشرو و دموهای چشمگیر کافی نیست. باید محصول عرضه کنه و اونها رو به دست مردم برسونه، و این کار رو به خوبی انجام میده.
OpenAI یک روند پیوسته از عرضههای جدید رو حفظ کرده؛ از ارائه بهروزرسانیهای بزرگ برای سری GPT-4 گرفته تا عرضه مدلهای تولید تصویر و ویدیو و معرفی قابلیت صحبت صوتی با ChatGPT. شش ماه پیش، با عرضه o1 و کمی بعد o3، موج جدیدی از مدلهای به اصطلاح استدلالی رو شروع کرد. و هفته گذشته هم عامل (agent) مرورگر خودش به اسم Operator رو به صورت عمومی منتشر کرد. این شرکت الان ادعا میکنه که بیش از ۴۰۰ میلیون نفر هر هفته از محصولاتش استفاده میکنن و روزانه ۲.۵ میلیارد درخواست ثبت میکنن.
فیجی سیمو، مدیرعامل جدید بخش اپلیکیشنهای OpenAI، قصد داره این شتاب رو حفظ کنه. اون در یادداشتی به کارمندان شرکت گفت که مشتاقه «کمک کنه تا فناوریهای OpenAI به دست افراد بیشتری در سراسر جهان برسه» و در اونجا «فرصتهای بیشتری رو برای افراد بیشتری نسبت به هر فناوری دیگهای در تاریخ فراهم کنه.» پس باید منتظر محصولات بیشتری باشیم.
سوال شد که OpenAI چطور پژوهشهای باز و توسعه محصول رو با هم مدیریت میکنه. پاچوکی گفت: «این چیزیه که ما برای مدت خیلی طولانی، خیلی قبل از ChatGPT، بهش فکر میکردیم. اگه ما واقعا در مورد ساختن هوش مصنوعی عمومی جدی باشیم، واضحه که در طول مسیر کارهای زیادی میشه با این فناوری انجام داد و شاخههای زیادی وجود داره که میشه دنبال کرد و به محصولات بزرگی تبدیل میشن.» به عبارت دیگه، درخت رو تکون بده و هرچی میتونی برداشت کن.
یک نکتهای که افراد OpenAI بهش اشاره میکنن اینه که عرضه مدلهای آزمایشی به دنیا، بخش ضروری پژوهش بوده. هدف این بود که مردم رو از اینکه این فناوری چقدر خوب شده آگاه کنن. آلتمن در سال ۲۰۲۲ گفته بود: «ما میخوایم به مردم درباره چیزی که در راهه آموزش بدیم تا بتونیم در گفتگوی اجتماعی خیلی سختی که در پیشه شرکت کنیم.» سازندههای این فناوری جدید و عجیب، همچنین کنجکاو بودن که بدونن این فناوری به چه دردی میخوره: OpenAI مشتاق بود اون رو به دست مردم برسونه تا ببینه باهاش چیکار میکنن.
آیا هنوز هم همینطوره؟ اونها همزمان جواب دادن. چن گفت: «آره!» پاچوکی گفت: «تا حدی.» چن خندید: «نه، شما بگو.»
پاچوکی گفت: «نمیگم پژوهش بر اساس محصول تکرار میشه. اما حالا که مدلها به مرز تواناییهایی رسیدن که با معیارهای کلاسیک قابل اندازهگیری هستن و خیلی از چالشهای قدیمی که بهشون فکر میکردیم دارن حل میشن، به نقطهای رسیدیم که واقعا مسئله اینه که مدلها در دنیای واقعی چه کاری میتونن انجام بدن.»
مثل رقابت با انسانها در مسابقات کدنویسی. کسی که مدل OpenAI رو در مسابقه AtCoder امسال در ژاپن شکست داد، یک برنامهنویس به اسم پشمیسواف دمبیاک بود که با نام سایکو (Psyho) هم شناخته میشه. این مسابقه یک ماراتن حل معما بود که در اون شرکتکنندهها ۱۰ ساعت وقت داشتن تا بهینهترین راه برای حل یک مسئله کدنویسی پیچیده رو پیدا کنن. سایکو بعد از پیروزیش در شبکه اجتماعی ایکس نوشت: «من کاملا خستهام… به سختی زندهام.»
چن و پاچوکی ارتباط نزدیکی با دنیای کدنویسی رقابتی دارن. هر دو در گذشته در مسابقات بینالمللی کدنویسی شرکت کردن و چن مربی تیم المپیاد کامپیوتر آمریکاست. سوال شد که آیا این اشتیاق شخصی به کدنویسی رقابتی، روی تصور اونها از اهمیت عملکرد خوب یک مدل در چنین چالشی تاثیر میذاره.
هر دو خندیدن. پاچوکی گفت: «قطعا. خب، سایکو یک جورایی یک افسانه است. اون سالها نفر اول این مسابقات بوده. اون دوست من هم هست، ما قبلا با هم در این مسابقات رقابت میکردیم.» دمبیاک قبلا با پاچوکی در OpenAI همکار هم بوده.
وقتی پاچوکی در مسابقات کدنویسی شرکت میکرد، اونهایی رو ترجیح میداد که روی مسائل کوتاهتر با راهحلهای مشخص تمرکز داشتن. اما دمبیاک مسائل طولانیتر و باز رو دوست داشت که جواب درست مشخصی نداشتن.
پاچوکی به یاد آورد: «اون من رو مسخره میکرد و میگفت نوع مسابقاتی که من دوست دارم خیلی زودتر از اونهایی که خودش دوست داره، خودکارسازی میشن. برای همین من به طور جدی پیگیر عملکرد این مدل در آخرین مسابقه بودم.»
پاچوکی گفت که تا دیروقت پای پخش زنده مسابقه از توکیو نشسته بود و میدید که مدلش دوم میشه: «سایکو فعلا مقاومت میکنه.»
چن گفت: «ما مدتیه که عملکرد مدلهای زبان بزرگ رو در مسابقات کدنویسی دنبال میکنیم. ما دیدیم که اونها از من بهتر شدن، از یاکوب بهتر شدن. حسی شبیه بازی لی سدول در برابر آلفاگو داره.»
لی، استاد بازی «گو» است که در سال ۲۰۱۶ در یک سری مسابقه به مدل بازیکننده دیپمایند به اسم آلفاگو باخت. این نتایج جامعه بینالمللی گو رو شوکه کرد و باعث شد لی بازی حرفهای رو کنار بذاره. سال گذشته اون به نیویورک تایمز گفت: «باختن به هوش مصنوعی، به نوعی به معنی فروپاشی تمام دنیای من بود… من دیگه نمیتونستم از بازی لذت ببرم.» و با این حال، بر خلاف لی، چن و پاچوکی از اینکه مدلهاشون از اونها پیشی بگیرن هیجانزدهان.
اما چرا بقیه ما باید به این پیروزیهای تخصصی اهمیت بدیم؟ واضحه که این فناوری، که برای تقلید و در نهایت جایگزینی هوش انسانی طراحی شده، توسط آدمهایی ساخته میشه که ایده اونها از اوج هوش، برنده شدن در یک مسابقه ریاضی یا رقابت شانه به شانه با یک کدنویس افسانهایه. آیا این مشکلسازه که این دیدگاه به هوش، به سمت بخش ریاضیاتی و تحلیلی طیف متمایل شده؟
چن گفت: «منظورم اینه که فکر میکنم حق با شماست که، خب، ما خودخواهانه میخوایم مدلهایی بسازیم که به خودمون سرعت بدن. ما این رو یک عامل خیلی سریع برای پیشرفت میبینیم.»
استدلال پژوهشگرانی مثل چن و پاچوکی اینه که ریاضیات و کدنویسی، زیربنای یک شکل بسیار عمومیتر از هوشه، شکلی که میتونه طیف وسیعی از مسائل رو به روشهایی حل کنه که شاید خودمون بهشون فکر نکرده باشیم. پاچوکی گفت: «ما اینجا داریم در مورد برنامهنویسی و ریاضیات صحبت میکنیم. اما این واقعا در مورد خلاقیت، رسیدن به ایدههای نو و اتصال ایدهها از جاهای مختلفه.»
به دو مسابقه اخیر نگاه کنید: «در هر دو مورد، مسائلی وجود داشت که نیاز به تفکر بسیار سخت و خارج از چارچوب داشت. سایکو نصف مسابقه برنامهنویسی رو به فکر کردن گذروند و بعد به راهحلی رسید که واقعا نو و کاملا متفاوت از هر چیزی بود که مدل ما بررسی کرده بود.»
پاچوکی ادامه داد: «این واقعا چیزیه که ما دنبالشیم. چطور مدلها رو به کشف این نوع بینشهای جدید برسونیم؟ تا واقعا دانش ما رو پیشرفت بدن؟ من فکر میکنم اونها در حال حاضر به شکل محدودی قادر به این کار هستن. اما فکر میکنم این فناوری پتانسیل این رو داره که واقعا پیشرفت علمی رو تسریع کنه.»
سوال دوباره به این موضوع برگشت که آیا تمرکز بر ریاضیات و برنامهنویسی مشکلسازه، با این فرض که شاید اگر چیزی که میسازیم ابزارهایی برای کمک به ما در علم باشه، مشکلی نیست. و این پیشنهاد مطرح شد که ما لزوما نمیخوایم مدلهای زبان بزرگ جایگزین سیاستمداران بشن و مهارتهای اجتماعی داشته باشن.
چن قیافهاش رو در هم کشید و به سقف نگاه کرد: «چرا که نه؟»
چیزی که کمه
OpenAI با سطحی از غرور تاسیس شد که حتی در استانداردهای سیلیکون ولی هم به چشم میومد و از هدفش برای ساختن هوش مصنوعی عمومی (AGI) حرف میزد، اون هم زمانی که صحبت از AGI هنوز عجیب و غریب به نظر میرسید. OpenAI هنوز هم مثل همیشه در مورد AGI مشتاقه و بیشتر از هر شرکت دیگهای باعث شده AGI به یک دغدغه اصلی چند میلیارد دلاری تبدیل بشه. با این حال، هنوز به اونجا نرسیده. از چن و پاچوکی سوال شد که فکر میکنن چه چیزی کمه.
پاچوکی گفت: «فکر میکنم راه تصور آینده اینه که فناوریای که امروز میبینیم رو واقعا عمیق مطالعه کنیم. از اول، OpenAI به یادگیری عمیق به عنوان یک فناوری بسیار مرموز و به وضوح بسیار قدرتمند با پتانسیل زیاد نگاه کرده. ما سعی داشتیم گلوگاههاش رو بفهمیم. چه کاری میتونه انجام بده؟ چه کاری نمیتونه انجام بده؟»
چن گفت که در لبه تکنولوژی فعلی، مدلهای استدلالی قرار دارن که مسائل رو به قدمهای کوچکتر و قابل مدیریتتر تقسیم میکنن، اما حتی اونها هم محدودیت دارن: «میدونید، شما این مدلها رو دارید که چیزهای زیادی میدونن اما نمیتونن این دانش رو به هم زنجیر کنن. چرا اینطوره؟ چرا نمیتونه این کار رو به روشی که انسانها انجام میدن، انجام بده؟»
OpenAI داره با تمام توان برای پاسخ به این سوال تلاش میکنه.
پاچوکی گفت: «ما احتمالا هنوز، مثلا، در همون ابتدای این پارادایم استدلال هستیم. واقعا، ما داریم به این فکر میکنیم که چطور این مدلها رو وادار کنیم در بلندمدت یاد بگیرن و کاوش کنن و واقعا ایدههای بسیار جدیدی ارائه بدن.»
چن روی این نکته تاکید کرد: «من واقعا استدلال رو یک مسئله حلشده نمیدونم. ما قطعا اون رو حل نکردیم. شما باید متنهای خیلی زیادی رو بخونید تا به یک نوع تقریب از چیزی که انسانها میدونن برسید.»
OpenAI نمیگه از چه دادههایی برای آموزش مدلهاش استفاده میکنه یا جزئیاتی در مورد اندازه و ساختارشون نمیده، فقط میگه که داره سخت کار میکنه تا تمام مراحل فرایند توسعه رو بهینهتر کنه.
این تلاشها اونها رو مطمئن کرده که به اصطلاح «قوانین مقیاسپذیری» (scaling laws)، که میگن مدلها با افزایش توان محاسباتی بهتر میشن، هیچ نشانهای از شکستن از خودشون نشون نمیدن.
چن اصرار کرد: «من فکر نمیکنم هیچ مدرکی وجود داشته باشه که قوانین مقیاسپذیری به هر شکلی مرده باشن. همیشه گلوگاههایی وجود داشته، درسته؟ گاهی اوقات به نحوه ساخت مدلها مربوط میشن. گاهی اوقات به دادهها مربوط میشن. اما اساسا فقط باید پژوهشی رو پیدا کنی که شما رو از گلوگاه فعلی عبور بده.»
ایمان به پیشرفت تزلزلناپذیره. به چیزی که پاچوکی در مصاحبه با مجله نیچر در ماه می در مورد AGI گفته بود، اشاره شد: «وقتی من در سال ۲۰۱۷ به OpenAI پیوستم، هنوز جزو بزرگترین شکاکان شرکت بودم.» اون با تردید نگاه کرد.
اون گفت: «مطمئن نیستم که در مورد خود مفهوم شک داشتم. اما فکر میکنم من…» مکث کرد و به دستهاش روی میز نگاه کرد. «وقتی به OpenAI پیوستم، انتظار داشتم جدول زمانی برای رسیدن به نقطهای که الان هستیم، طولانیتر باشه.»
اون گفت: «هوش مصنوعی پیامدهای زیادی داره. اما اونی که من بیشتر از همه بهش فکر میکنم، پژوهش خودکاره. وقتی به تاریخ بشر نگاه میکنیم، بخش زیادی از اون در مورد پیشرفت فناوری و ساخت فناوریهای جدیده. نقطهای که کامپیوترها خودشون بتونن فناوریهای جدید رو توسعه بدن، به نظر یک، امم، نقطه عطف بسیار مهم میاد.»
«ما همین الان هم میبینیم که این مدلها به دانشمندان کمک میکنن. اما وقتی بتونن در افقهای زمانی طولانیتری کار کنن، وقتی بتونن برنامههای پژوهشی برای خودشون تعریف کنن، دنیا به شکل معناداری متفاوت احساس خواهد شد.»
برای چن، این توانایی مدلها برای کار کردن به تنهایی برای مدت طولانیتر، کلیدی است. اون گفت: «منظورم اینه که فکر میکنم هر کسی تعریف خودش رو از AGI داره. اما این مفهوم «زمان مستقل» (autonomous time)، یعنی مقدار زمانی که مدل میتونه برای پیشرفت مفید روی یک مسئله سخت صرف کنه بدون اینکه به بنبست بخوره، یکی از بزرگترین چیزهاییه که ما دنبالشیم.»
این یک دیدگاه جسورانه است و خیلی فراتر از تواناییهای مدلهای امروزیه. اما با این حال، جالب بود که چن و پاچوکی چطور کاری کردن که AGI تقریبا عادی به نظر برسه. این رو با پاسخی که سوتسکور ۱۸ ماه پیش داده بود مقایسه کنید. اون گفته بود: «این موضوع، عظیم و زمینلرزان خواهد بود. یک قبل و یک بعد وجود خواهد داشت.» سوتسکور با مواجهه با عظمت چیزی که میساخت، تمرکز حرفهایش رو از طراحی مدلهای بهتر و بهتر به این سمت تغییر داد که بفهمه چطور فناوریای رو کنترل کنه که معتقد بود به زودی از خودش باهوشتر خواهد شد.
دو سال پیش، سوتسکور تیمی رو به اسم «ابرهمراستاسازی» (superalignment) تاسیس کرد که قرار بود با یک پژوهشگر ایمنی دیگه OpenAI به اسم یان لایکه، مشترکا رهبریش کنه. ادعا این بود که این تیم یک پنجم کامل از منابع OpenAI رو برای فهمیدن چگونگی کنترل یک ابرهوش فرضی اختصاص میده. امروز، بیشتر افراد تیم ابرهمراستاسازی، از جمله سوتسکور و لایکه، شرکت رو ترک کردن و این تیم دیگه وجود نداره.
وقتی لایکه استعفا داد، گفت دلیلش این بوده که تیم، حمایتی که حس میکرد شایستهاش هست رو دریافت نکرده بود. اون در شبکه اجتماعی ایکس نوشت: «ساختن ماشینهای باهوشتر از انسان یک کار ذاتا خطرناکه. OpenAI مسئولیت بزرگی رو از طرف تمام بشریت به دوش میکشه. اما در طول سالهای گذشته، فرهنگ و فرایندهای ایمنی در برابر محصولات پر زرق و برق در اولویت دوم قرار گرفتن.» پژوهشگران دیگهای هم که شرکت رو ترک کردن، بیانیههای مشابهی منتشر کردن.
از چن و پاچوکی سوال شد که نظرشون در مورد این نگرانیها چیه. چن گفت: «خیلی از این چیزها تصمیمات کاملا شخصی هستن. میدونید، یک پژوهشگر میتونه، میدونید…»
دوباره شروع کرد: «اونها ممکنه این باور رو داشته باشن که این حوزه قراره به شکل خاصی تکامل پیدا کنه و پژوهش اونها نتیجه بده و به ثمر بشینه. و، میدونید، شاید شرکت به اون شکلی که شما میخواید تغییر نکنه. این یک حوزه بسیار پویاست.»
اون تکرار کرد: «خیلی از این چیزها تصمیمات شخصی هستن. گاهی اوقات این حوزه داره به شکلی تکامل پیدا میکنه که با روشی که شما پژوهش میکنید کمتر سازگاره.»
اما هر دوی اونها اصرار دارن که همراستاسازی (alignment) حالا بخشی از کسب و کار اصلیه، نه دغدغه یک تیم خاص. به گفته پاچوکی، این مدلها اصلا کار نمیکنن مگر اینکه اونطور که شما ازشون انتظار دارید کار کنن. همچنین تمایل کمی برای تمرکز روی همراستاسازی یک ابرهوش فرضی با اهداف شما وجود داره، وقتی که انجام این کار با مدلهای موجود به اندازه کافی چالشبرانگیزه.
پاچوکی گفت: «دو سال پیش، ریسکهایی که ما تصور میکردیم بیشتر ریسکهای نظری بودن. دنیای امروز خیلی متفاوت به نظر میرسه و من فکر میکنم خیلی از مشکلات همراستاسازی الان انگیزههای خیلی عملی دارن.»
با این حال، فناوری آزمایشی سریعتر از همیشه در حال تبدیل شدن به محصولات بازاری و عمومیه. آیا این واقعا هیچ وقت منجر به اختلاف نظر بین این دو نفر نمیشه؟
پاچوکی گفت: «من اغلب این شانس رو دارم که واقعا به بلندمدت و مسیری که فناوری داره میره فکر کنم. دست و پنجه نرم کردن با واقعیت این فرایند، هم از نظر افراد و هم از نظر نیازهای گستردهتر شرکت، بر عهده مارک میفته. این واقعا یک اختلاف نظر نیست، اما یک تنش طبیعی بین این اهداف مختلف و چالشهای متفاوتی که شرکت باهاشون روبروئه، بین ما شکل میگیره.»
چن پرید وسط حرفش: «من فکر میکنم این فقط یک تعادل بسیار ظریفه.»
منابع
- [۱] The two people shaping the future of OpenAI’s research | MIT Technology Review
دیدگاهتان را بنویسید