GeekAlerts

جایی برای گیک‌ها

OpenAI مدل اوپن‌سورس خود را با نام gpt-oss را معرفی کرد

OpenAI مدل اوپن‌سورس خود را با نام gpt-oss را معرفی کرد

شرکت OpenAI به تازگی از مدل‌های زبانی جدیدی رونمایی کرده که به صورت اپن سورس یا «وزن-باز» در اختیار همه قرار گرفتن. این یعنی هر کسی میتونه اونها رو به رایگان دانلود کنه، برای خودش شخصی‌سازی کنه و حتی روی سیستم‌های شخصی مثل لپ‌تاپ اجراشون کنه. این حرکت، اولین باری هست که OpenAI بعد از حدود شش سال و قبل از معرفی ChatGPT، یک مدل وزن-باز منتشر میکنه و میتونه دسترسی به هوش مصنوعی پیشرفته رو برای توسعه‌دهنده‌ها، شرکت‌های کوچیک و حتی دولت‌ها خیلی راحت‌تر کنه.

این مدل‌های جدید با اسم کلی gpt-oss شناخته میشن و در دو نسخه اصلی عرضه شدن: gpt-oss-120b و gpt-oss-20b. این دو مدل طوری طراحی شدن که با وجود اپن سورس بودن، عملکرد خیلی خوبی در دنیای واقعی داشته باشن و هزینه‌های استفاده از اونها هم پایین باشه. هر دوی این مدل‌ها تحت لایسنس یا مجوز Apache 2.0 منتشر شدن که یک مجوز خیلی منعطفه و به کاربرها اجازه میده به طور گسترده از اونها برای مقاصد تجاری هم استفاده کنن و تغییرات دلخواه خودشون رو روشون اعمال کنن. این موضوع برای توسعه‌دهنده‌هایی که دوست دارن روی مدل‌ها کنترل بیشتری داشته باشن و اونها رو برای کارهای خاص خودشون تنظیم کنن، خبر خیلی خوبیه.

معرفی دو نسخه جدید: بزرگ و کوچک

همونطور که گفته شد، این سری جدید شامل دو مدل با اندازه‌ها و قابلیت‌های متفاوت میشه تا نیازهای مختلفی رو پوشش بده.

  • مدل gpt-oss-120b: این نسخه بزرگتره و برای کاربردهای سطح بالا، عمومی و تولیدی طراحی شده که نیاز به قدرت استدلال زیادی دارن. یکی از ویژگی‌های مهمش اینه که میشه اون رو روی یک پردازنده گرافیکی یا GPU مدل H100 اجرا کرد. این مدل در مجموع ۱۱۷ میلیارد پارامتر داره، اما در هر لحظه فقط ۵.۱ میلیارد از این پارامترها فعال هستن.
  • مدل gpt-oss-20b: این نسخه کوچکتره و برای کارهایی که نیاز به سرعت پاسخ‌دهی بالا (تاخیر کم) دارن یا برای کاربردهای محلی و تخصصی ایده‌آله. این مدل رو میشه روی دستگاه‌های ضعیف‌تر مثل کامپیوترهای شخصی یا دستگاه‌های لبه (edge devices) که فقط ۱۶ گیگابایت حافظه دارن، اجرا کرد. این مدل در مجموع ۲۱ میلیارد پارامتر داره که در هر لحظه ۳.۶ میلیارد از اونها فعال هستن.

اینکه یک مدل بتونه روی سخت‌افزارهای معمولی اجرا بشه، یک مزیت بزرگ محسوب میشه. تا قبل از این، استفاده از مدل‌های هوش مصنوعی پیشرفته فقط محدود به مراکز داده بزرگ و ابری بود، اما حالا با این مدل‌ها، میشه هوش مصنوعی قدرتمند رو روی کامپیوترهای شخصی و ورک‌استیشن‌های مجهز به کارت‌های گرافیک RTX هم با سرعت بالا تجربه کرد. این موضوع به خصوص برای توسعه‌دهنده‌هایی که به زیرساخت‌های گرون‌قیمت دسترسی ندارن، یک فرصت عالی ایجاد میکنه تا بتونن سریع‌تر ایده‌هاشون رو تست و پیاده‌سازی کنن.

عملکرد و مقایسه با مدل‌های اختصاصی

یکی از نکات مهم در مورد این مدل‌های جدید، عملکردشون در مقایسه با مدل‌های اختصاصی و غیر رایگان خود OpenAI هست. طبق گفته شرکت، این مدل‌ها در زمینه‌های مختلفی مثل استدلال، کدنویسی و استفاده از ابزار، عملکرد خیلی خوبی از خودشون نشون دادن.

مدل بزرگتر، یعنی gpt-oss-120b، در بنچمارک‌ها و آزمون‌های اصلی مربوط به استدلال، عملکردی خیلی نزدیک به مدل OpenAI o4-mini داره. این در حالیه که میتونه به صورت بهینه روی یک GPU با ۸۰ گیگابایت حافظه اجرا بشه. جالبه که در بعضی زمینه‌ها حتی از o4-mini هم بهتر عمل کرده؛ مثلن در بنچمارک HealthBench که مربوط به سوالات حوزه سلامت میشه و همچنین در مسائل ریاضیات رقابتی مثل AIME 2024 و ۲۰۲۵. در بنچمارک‌های دیگه مثل کدنویسی رقابتی (Codeforces)، حل مسئله عمومی (MMLU و HLE) و استفاده از ابزار (TauBench)، عملکردش با o4-mini برابری میکنه یا حتی از اون بهتره. البته در یک آزمون دانش‌محور به اسم Humanity’s Last Exam، مدل o3 با کسب امتیاز ۲۴.۹ درصد (با استفاده از ابزار) عملکرد بهتری داشته، در حالی که gpt-oss-120b تونسته ۱۹ درصد امتیاز بگیره. برای مقایسه، مدل پیشرفته گوگل یعنی Gemini Deep Think در همین آزمون به امتیاز ۳۴.۸ درصد رسیده.

از طرف دیگه، مدل کوچکتر یعنی gpt-oss-20b، با وجود اندازه کوچیکش، نتایجی شبیه به مدل OpenAI o3-mini در بنچمارک‌های رایج کسب میکنه. این مدل هم میتونه روی دستگاه‌هایی با فقط ۱۶ گیگابایت حافظه اجرا بشه که اون رو برای کاربردهای روی دستگاه (on-device)، استنتاج محلی (local inference) و تکرار سریع ایده‌ها بدون نیاز به زیرساخت‌های گرون، ایده‌آل میکنه. این مدل هم در زمینه‌هایی مثل ریاضیات رقابتی و سلامت، حتی از o3-mini هم بهتر عمل کرده. این نشون میده که OpenAI تونسته با تکنیک‌های بهینه‌سازی پیشرفته، مدل‌های کوچیک اما قدرتمندی تولید کنه.

کریس کوک، یکی از محققان OpenAI، در یک نشست خبری گفته: «فکر میکنم خیلی‌ها تعجب میکنن اگه بدونن که اکثر مشتریان ما در حال حاضر از مدل‌های اپن سورس زیادی استفاده میکنن. ما میخواستیم این شکاف رو پر کنیم و به اونها اجازه بدیم که از تکنولوژی ما در همه زمینه‌ها استفاده کنن.» گرگ براکمن، یکی از بنیانگذاران OpenAI هم در مورد این مدل‌ها گفته: «اینها مدل‌های فوق‌العاده‌ای هستن. تیم واقعن در این مورد کار بزرگی انجام داده.»

ویژگی‌های فنی و معماری مدل‌ها

برای اینکه بهتر بفهمیم این مدل‌ها چطور کار میکنن، باید نگاهی به ساختار فنی اونها بندازیم. این مدل‌ها با استفاده از پیشرفته‌ترین تکنیک‌های پیش‌آموزش و پس‌آموزش OpenAI ساخته شدن و تمرکز اصلی روی استدلال، بهینگی و کاربردی بودن در دنیای واقعی و محیط‌های مختلف بوده. این اولین مدل‌های زبان وزن-بازی هستن که OpenAI از زمان GPT-2 منتشر کرده، هرچند مدل‌های دیگه‌ای مثل Whisper و CLIP رو هم به صورت اپن سورس در دسترس قرار داده بود.

هر دو مدل بر اساس معماری ترنسفورمر (Transformer) ساخته شدن و از تکنیکی به اسم ترکیب متخصص‌ها (Mixture-of-Experts یا MoE) استفاده میکنن. این تکنیک کمک میکنه تا تعداد پارامترهای فعالی که برای پردازش یک ورودی لازمه، کاهش پیدا کنه. به همین دلیله که مدل ۱۱۷ میلیارد پارامتری فقط به ۵.۱ میلیارد پارامتر فعال در هر توکن نیاز داره و مدل ۲۱ میلیارد پارامتری فقط به ۳.۶ میلیارد. این کار باعث میشه مدل‌ها خیلی بهینه‌تر عمل کنن.

مدل‌ها از الگوهای توجه (attention) متناوب متراکم و پراکنده باند محلی (alternating dense and locally banded sparse attention) استفاده میکنن که شبیه به معماری GPT-3 هست. برای بهینه‌سازی استنتاج و حافظه، از توجه چند-پرسمانی گروهی (grouped multi-query attention) با اندازه گروه ۸ هم استفاده شده. برای کدگذاری موقعیتی هم از Rotary Positional Embedding یا RoPE استفاده شده. یکی دیگه از ویژگی‌های مهم این مدل‌ها، پشتیبانی از طول زمینه (context length) تا ۱۲۸ هزار توکن هست که یکی از طولانی‌ترین زمینه‌های موجود برای استنتاج محلی به حساب میاد. این یعنی مدل‌ها میتونن اسناد و مکالمات خیلی طولانی، مثل متن مکالمات پشتیبانی مشتریان، مستندات فنی دقیق یا مقالات علمی رو پردازش کنن.

در جدول زیر میتونید مشخصات فنی این دو مدل رو ببینید:

مدللایه‌هاپارامترهای کلپارامترهای فعال در هر توکنتعداد کل متخصص‌هامتخصص‌های فعال در هر توکنطول زمینه
gpt-oss-120b۳۶117B۵.1B۱۲۸۴128k
gpt-oss-20b۲۴21B۳.6B۳۲۴128k

داده‌های آموزشی و فرآیند پس‌آموزش

این مدل‌ها روی یک مجموعه داده عمدتن متنی و انگلیسی آموزش دیدن که تمرکزش روی حوزه‌های STEM (علوم، تکنولوژی، مهندسی و ریاضیات)، کدنویسی و دانش عمومی بوده. برای توکنیزه کردن داده‌ها (یعنی تبدیل متن به واحدهای کوچکتری که مدل بتونه بفهمه)، از یک توکنایزر به اسم o200k_harmony استفاده شده که خودش زیرمجموعه‌ای از توکنایزر مدل‌های o4-mini و GPT-4o هست. این توکنایزر هم به صورت اپن سورس منتشر شده. جالبه بدونید که داده‌های آموزشی این مدل‌ها، مثل بقیه مدل‌های OpenAI، به صورت عمومی فاش نشده.

بعد از مرحله پیش‌آموزش، مدل‌ها وارد مرحله پس‌آموزش شدن که فرآیندی شبیه به چیزیه که برای مدل o4-mini استفاده شده. این مرحله شامل یک فاز تنظیم دقیق نظارت شده (supervised fine-tuning) و یک فاز یادگیری تقویتی (reinforcement learning) با محاسبات بالا بوده. هدف از این کار این بوده که مدل‌ها با مشخصات مدل OpenAI (OpenAI Model Spec) همسو بشن و یاد بگیرن که قبل از دادن جواب نهایی، از استدلال زنجیره فکر (Chain-of-Thought یا CoT) و ابزارها استفاده کنن. به خاطر استفاده از همین تکنیک‌های پیشرفته، مدل‌ها بعد از پس‌آموزش، قابلیت‌های خیلی خوبی از خودشون نشون میدن.

قابلیت‌ها و امکانات کلیدی برای توسعه‌دهنده‌ها

این مدل‌ها فقط به خاطر عملکردشون جذاب نیستن، بلکه کلی ویژگی دارن که اونها رو برای توسعه‌دهنده‌ها خیلی کاربردی میکنه.

  • قابلیت تنظیم تلاش استدلال (Reasoning Effort): یکی از ویژگی‌های جالب این مدل‌ها اینه که توسعه‌دهنده‌ها میتونن سطح «تلاش استدلال» رو مشخص کنن. سه سطح وجود داره: پایین، متوسط و بالا. سطح پایین برای مکالمات عمومی و پاسخ‌های سریع مناسبه، سطح متوسط تعادلی بین سرعت و جزئیات برقرار میکنه و سطح بالا برای تحلیل‌های عمیق و با جزئیات زیاده. این تنظیمات به سادگی با یک جمله در پیام سیستمی (system prompt) قابل تغییره؛ مثلن با نوشتن «Reasoning: high». این قابلیت به توسعه‌دهنده‌ها اجازه میده بین سرعت و کیفیت پاسخ، بسته به نیازشون، تعادل برقرار کنن.
  • قابلیت‌های عامل‌گونه (Agentic Capabilities): این مدل‌ها برای استفاده در جریان‌های کاری عامل‌گونه طراحی شدن. یعنی میتونن کارهایی مثل فراخوانی تابع (function calling) با اسکیمای مشخص، مرور وب (با استفاده از ابزارهای مرورگر داخلی) و اجرای کد پایتون رو انجام بدن. همچنین از خروجی‌های ساختاریافته (Structured Outputs) پشتیبانی میکنن. این قابلیت‌ها به مدل کمک میکنن تا به اطلاعات لحظه‌ای دسترسی داشته باشن و کارهای چند مرحله‌ای رو انجام بدن.
  • زنجیره فکر کامل (Full Chain-of-Thought): یکی از مهم‌ترین ویژگی‌های این مدل‌ها، دسترسی کامل به فرآیند استدلال یا همون زنجیره فکر (CoT) هست. این یعنی شما میتونید ببینید مدل برای رسیدن به یک جواب، چه مراحلی رو طی کرده. این موضوع برای دیباگ کردن و افزایش اعتماد به خروجی‌های مدل خیلی مفیده. البته OpenAI تاکید کرده که این زنجیره فکر نباید به صورت مستقیم به کاربرهای نهایی نشون داده بشه، چون ممکنه شامل محتوای توهمی (hallucinated) یا مضر باشه و حتی ممکنه شامل اطلاعاتی باشه که از مدل خواسته شده اونها رو در جواب نهایی نیاره.
  • قابلیت تنظیم دقیق (Fine-tunable): هر دو مدل gpt-oss رو میشه به طور کامل برای کاربردهای تخصصی تنظیم دقیق (fine-tune) کرد. مدل بزرگتر یعنی gpt-oss-120b رو میشه روی یک نود H100 تنظیم کرد و مدل کوچکتر یعنی gpt-oss-20b حتی روی سخت‌افزارهای مصرفی هم قابل تنظیمه. این به شرکت‌ها و توسعه‌دهنده‌ها اجازه میده مدل‌ها رو برای مجموعه داده‌های خاص خودشون بهینه کنن.

ایمنی: یک اصل بنیادین

ایمنی همیشه یکی از دغدغه‌های اصلی OpenAI در انتشار مدل‌ها بوده و برای مدل‌های اپن سورس این اهمیت حتی بیشتر هم هست. به گفته این شرکت، gpt-oss از نظر ایمنی، سخت‌گیرانه‌ترین تست‌ها رو پشت سر گذاشته.

در مرحله پیش‌آموزش، داده‌های مضر مربوط به مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) فیلتر شدن. در مرحله پس‌آموزش، از تکنیک‌هایی مثل همسوسازی سنجیده (deliberative alignment) و سلسله مراتب دستورالعمل (instruction hierarchy) استفاده شده تا به مدل یاد بدن که درخواست‌های ناامن رو رد کنه و در برابر حملات تزریق پرامپت (prompt injections) از خودش دفاع کنه.

یک نگرانی بزرگ در مورد مدل‌های اپن سورس اینه که افراد بدخواه میتونن اونها رو برای اهداف مخرب تنظیم دقیق کنن. OpenAI برای ارزیابی مستقیم این ریسک، یک نسخه از مدل gpt-oss-120b رو به صورت خصمانه روی داده‌های تخصصی زیست‌شناسی و امنیت سایبری تنظیم دقیق کرد تا ببینه یک مهاجم چه کارهایی میتونه باهاش انجام بده. بعد از این کار، سطح قابلیت این مدل‌های تنظیم شده از طریق تست‌های داخلی و خارجی ارزیابی شد. نتایج این تست‌ها که در یک مقاله پژوهشی مربوط به ایمنی توضیح داده شده، نشون داد که حتی با تنظیم دقیق قوی و با استفاده از بهترین ابزارهای آموزشی OpenAI، این مدل‌های تنظیم شده مخرب نتونستن به سطح قابلیت بالایی برسن. این روش‌شناسی توسط سه گروه متخصص مستقل بررسی شد و توصیه‌هایی برای بهبود فرآیند آموزش و ارزیابی ارائه دادن که خیلی از اونها توسط OpenAI اجرا شد.

همچنین، زنجیره فکر (CoT) در این مدل‌ها به صورت مستقیم تحت نظارت قرار نگرفته. این کار به این دلیله که تحقیقات اخیر نشون داده نظارت بر CoT میتونه به شناسایی رفتارهای نادرست، فریبکارانه و سوءاستفاده از مدل کمک کنه، به شرطی که خود CoT برای همسوسازی تحت نظارت مستقیم نبوده باشه. OpenAI امیدوار است که با انتشار این مدل‌ها، به توسعه‌دهنده‌ها و محققان این فرصت رو بده تا سیستم‌های نظارتی CoT خودشون رو تحقیق و پیاده‌سازی کنن.

برای کمک به یک اکوسیستم اپن سورس امن‌تر، OpenAI یک چالش تیم قرمز (Red Teaming Challenge) با جایزه ۵۰۰ هزار دلاری برگزار کرده تا محققان، توسعه‌دهنده‌ها و علاقه‌مندان از سراسر جهان رو تشویق کنه تا به پیدا کردن مشکلات ایمنی جدید کمک کنن.

چطور به این مدل‌ها دسترسی پیدا کنیم و ازشون استفاده کنیم؟

یکی از اهداف اصلی این عرضه، دسترسی آسان بوده. وزن‌های هر دو مدل gpt-oss-120b و gpt-oss-20b به صورت رایگان برای دانلود در Hugging Face قرار گرفتن. این مدل‌ها به صورت بومی با فرمت MXFP4 کوانتایز شدن. این تکنیک باعث افزایش کیفیت و دقت مدل میشه، بدون اینکه هزینه‌ای روی عملکرد داشته باشه. همین کوانتیزه‌سازی باعث شده مدل ۱۲۰ میلیارد پارامتری در ۸۰ گیگابایت حافظه و مدل ۲۰ میلیارد پارامتری فقط در ۱۶ گیگابایت حافظه جا بشه.

برای استفاده راحت‌تر، OpenAI یک رندرکننده برای فرمت پرامپت خودش یعنی harmony رو هم به زبان‌های پایتون و راست اپن سورس کرده. همچنین پیاده‌سازی‌های مرجع برای اجرای استنتاج با PyTorch و پلتفرم Metal اپل به همراه مجموعه‌ای از ابزارهای نمونه برای مدل منتشر شده.

برای اینکه این مدل‌ها به طور گسترده در دسترس باشن، OpenAI با پلتفرم‌های پیشرو در زمینه استقرار مدل‌ها همکاری کرده. از جمله این پلتفرم‌ها میشه به موارد زیر اشاره کرد:

  • Azure
  • Hugging Face
  • vLLM
  • Ollama
  • llama.cpp
  • LM Studio
  • AWS
  • Fireworks
  • Together AI
  • Baseten
  • Databricks
  • Vercel
  • Cloudflare
  • OpenRouter

در زمینه سخت‌افزار هم، همکاری با شرکت‌هایی مثل NVIDIA، AMD، Cerebras و Groq باعث شده تا عملکرد مدل‌ها روی طیف وسیعی از سیستم‌ها بهینه باشه.

پشتیبانی NVIDIA، مایکروسافت و آمازون

همکاری با غول‌های تکنولوژی نقش مهمی در موفقیت این عرضه داشته. NVIDIA اعلام کرده که با OpenAI همکاری کرده تا خانواده مدل‌های gpt-oss رو به دست مصرف‌کننده‌ها برسونه و عملکرد بالایی روی کارت‌های گرافیک RTX ارائه بده. به گفته انویدیا، مدل gpt-oss-20b میتونه روی کارت گرافیک RTX 5090 به سرعت ۲۵۰ توکن در ثانیه برسه. جنسن هوانگ، مدیرعامل انویدیا، در این مورد گفته: «OpenAI به دنیا نشون داد که با هوش مصنوعی انویدیا چه چیزهایی میشه ساخت و حالا اونها دارن نوآوری رو در نرم‌افزارهای اپن سورس پیش میبرن.»

مایکروسافت هم به عنوان بخشی از این عرضه، نسخه‌های بهینه‌شده برای GPU از مدل gpt-oss-20b رو برای دستگاه‌های ویندوزی ارائه میده. این مدل‌ها که با ONNX Runtime قدرت گرفتن، از استنتاج محلی پشتیبانی میکنن و از طریق Foundry Local و AI Toolkit برای VS Code در دسترس هستن.

آمازون هم اعلام کرده که این مدل‌های وزن-باز از طریق Amazon Bedrock و Amazon SageMaker AI در دسترس قرار گرفتن. این موضوع به مشتریان آمازون اجازه میده تا از قابلیت‌های استدلال پیشرفته و جریان‌های کاری عامل‌گونه این مدل‌ها در پلتفرم‌های خودشون استفاده کنن.

راهنمای عملی برای شروع کار

شروع کار با این مدل‌ها نسبتن ساده است و روش‌های مختلفی برای این کار وجود داره.

استفاده با Transformers:
برای شروع، باید کتابخانه‌های لازم رو نصب کنید:

pip install -U transformers kernels torch

بعد از نصب، میتونید با کد زیر مدل رو اجرا کنید:

from transformers import pipeline
import torch

model_id = "openai/gpt-oss-120b"
pipe = pipeline(
    "text-generation",
    model=model_id,
    torch_dtype="auto",
    device_map="auto",
)

messages = [
    {"role": "user", "content": "Explain quantum mechanics clearly and concisely."},
]

outputs = pipe(
    messages,
    max_new_tokens=256,
)

print(outputs[0]["generated_text"][-1])

استفاده با vLLM:
میتونید از vLLM برای راه‌اندازی یک وب‌سرور سازگار با OpenAI استفاده کنید. دستور زیر به طور خودکار مدل رو دانلود و سرور رو اجرا میکنه:

vllm serve openai/gpt-oss-120b

استفاده روی سخت‌افزار مصرفی با Ollama:
اگر میخواید مدل رو روی کامپیوتر شخصی اجرا کنید، میتونید از Ollama استفاده کنید:

# برای مدل 120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b

استفاده با LM Studio:
برای دانلود در LM Studio هم میتونید از دستور زیر استفاده کنید:

lms get openai/gpt-oss-120b

برای دانلود مستقیم وزن‌های مدل از Hugging Face هم میتونید از این دستور استفاده کنید:

huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/

چرا این عرضه مهم است؟

انتشار مدل‌های gpt-oss یک قدم بزرگ برای دنیای مدل‌های وزن-باز محسوب میشه. این مدل‌ها با اندازه‌ای که دارن، پیشرفت‌های قابل توجهی در قابلیت‌های استدلال و ایمنی ارائه میدن. مدل‌های اپن سورس، مکمل مدل‌های میزبانی شده (hosted) هستن و به توسعه‌دهنده‌ها ابزارهای متنوع‌تری میدن تا تحقیقات پیشرفته رو سرعت ببخشن، نوآوری رو تقویت کنن و توسعه هوش مصنوعی امن‌تر و شفاف‌تری رو در کاربردهای مختلف ممکن کنن.

تا قبل از این، سم آلتمن، مدیرعامل OpenAI، نگرانی‌های ایمنی رو دلیل اصلی عدم انتشار مدل‌های اپن سورس جدید عنوان کرده بود. اما بعد از ظهور مدل‌هایی مثل DeepSeek، در ژانویه اعلام کرد که OpenAI با منتشر نکردن مدل‌های اپن سورس خودش، در «سمت اشتباه تاریخ» قرار داشته. حالا این شرکت با قدرت به این عرصه برگشته.

این مدل‌های اپن سورس همچنین موانع رو برای بازارهای نوظهور، بخش‌هایی که منابع محدودی دارن و سازمان‌های کوچکتری که بودجه یا انعطاف‌پذیری لازم برای استفاده از مدل‌های اختصاصی رو ندارن، کاهش میدن. با داشتن ابزارهای قدرتمند و در دسترس، مردم در سراسر جهان میتونن بسازن، نوآوری کنن و فرصت‌های جدیدی برای خودشون و دیگران ایجاد کنن. دسترسی گسترده به این مدل‌های وزن-باز که در آمریکا ساخته شدن، به گسترش «زیرساخت‌های دموکراتیک هوش مصنوعی» کمک میکنه.

گرگ براکمن در این باره میگه: «ما همیشه باور داشتیم که اگر مانع دسترسی رو کاهش بدید، نوآوری افزایش پیدا میکنه. شما به مردم اجازه میدید هک کنن، و اونها کارهای فوق‌العاده شگفت‌انگیزی انجام خواهند داد.»

برای کسانی که به دنبال مدل‌های کاملن قابل تنظیم هستن تا بتونن اونها رو در محیط‌های خودشون تنظیم دقیق و مستقر کنن، gpt-oss یک گزینه عالیه. برای اونهایی که به دنبال پشتیبانی چندوجهی (multimodal)، ابزارهای داخلی و یکپارچگی کامل با پلتفرم OpenAI هستن، مدل‌های موجود در API شرکت همچنان بهترین گزینه باقی میمونن. البته OpenAI گفته که به بازخورد توسعه‌دهنده‌ها گوش میده و ممکنه در آینده پشتیبانی از gpt-oss رو از طریق API هم در نظر بگیره.

منابع

  • [۱] Introducing gpt-oss | OpenAI
  • [۲] OpenAI releases a free GPT model that can run on your laptop | The Verge
  • [۳] OpenAI announces two “gpt-oss” open AI models, and you can download them today – Ars Technica
  • [۴] OpenAI’s open weight models available today in Amazon Bedrock and Amazon SageMaker AI
  • [۵] NVIDIA’s RTX GPUs Deliver Fastest AI Performance On OpenAI’s Latest “gpt-oss” Models
  • [۶] nytimes.com
  • [۷] openai/gpt-oss-120b · Hugging Face

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *