شرکت OpenAI به تازگی از مدلهای زبانی جدیدی رونمایی کرده که به صورت اپن سورس یا «وزن-باز» در اختیار همه قرار گرفتن. این یعنی هر کسی میتونه اونها رو به رایگان دانلود کنه، برای خودش شخصیسازی کنه و حتی روی سیستمهای شخصی مثل لپتاپ اجراشون کنه. این حرکت، اولین باری هست که OpenAI بعد از حدود شش سال و قبل از معرفی ChatGPT، یک مدل وزن-باز منتشر میکنه و میتونه دسترسی به هوش مصنوعی پیشرفته رو برای توسعهدهندهها، شرکتهای کوچیک و حتی دولتها خیلی راحتتر کنه.
این مدلهای جدید با اسم کلی gpt-oss شناخته میشن و در دو نسخه اصلی عرضه شدن: gpt-oss-120b و gpt-oss-20b. این دو مدل طوری طراحی شدن که با وجود اپن سورس بودن، عملکرد خیلی خوبی در دنیای واقعی داشته باشن و هزینههای استفاده از اونها هم پایین باشه. هر دوی این مدلها تحت لایسنس یا مجوز Apache 2.0 منتشر شدن که یک مجوز خیلی منعطفه و به کاربرها اجازه میده به طور گسترده از اونها برای مقاصد تجاری هم استفاده کنن و تغییرات دلخواه خودشون رو روشون اعمال کنن. این موضوع برای توسعهدهندههایی که دوست دارن روی مدلها کنترل بیشتری داشته باشن و اونها رو برای کارهای خاص خودشون تنظیم کنن، خبر خیلی خوبیه.
معرفی دو نسخه جدید: بزرگ و کوچک
همونطور که گفته شد، این سری جدید شامل دو مدل با اندازهها و قابلیتهای متفاوت میشه تا نیازهای مختلفی رو پوشش بده.
- مدل gpt-oss-120b: این نسخه بزرگتره و برای کاربردهای سطح بالا، عمومی و تولیدی طراحی شده که نیاز به قدرت استدلال زیادی دارن. یکی از ویژگیهای مهمش اینه که میشه اون رو روی یک پردازنده گرافیکی یا GPU مدل H100 اجرا کرد. این مدل در مجموع ۱۱۷ میلیارد پارامتر داره، اما در هر لحظه فقط ۵.۱ میلیارد از این پارامترها فعال هستن.
- مدل gpt-oss-20b: این نسخه کوچکتره و برای کارهایی که نیاز به سرعت پاسخدهی بالا (تاخیر کم) دارن یا برای کاربردهای محلی و تخصصی ایدهآله. این مدل رو میشه روی دستگاههای ضعیفتر مثل کامپیوترهای شخصی یا دستگاههای لبه (edge devices) که فقط ۱۶ گیگابایت حافظه دارن، اجرا کرد. این مدل در مجموع ۲۱ میلیارد پارامتر داره که در هر لحظه ۳.۶ میلیارد از اونها فعال هستن.
اینکه یک مدل بتونه روی سختافزارهای معمولی اجرا بشه، یک مزیت بزرگ محسوب میشه. تا قبل از این، استفاده از مدلهای هوش مصنوعی پیشرفته فقط محدود به مراکز داده بزرگ و ابری بود، اما حالا با این مدلها، میشه هوش مصنوعی قدرتمند رو روی کامپیوترهای شخصی و ورکاستیشنهای مجهز به کارتهای گرافیک RTX هم با سرعت بالا تجربه کرد. این موضوع به خصوص برای توسعهدهندههایی که به زیرساختهای گرونقیمت دسترسی ندارن، یک فرصت عالی ایجاد میکنه تا بتونن سریعتر ایدههاشون رو تست و پیادهسازی کنن.
عملکرد و مقایسه با مدلهای اختصاصی
یکی از نکات مهم در مورد این مدلهای جدید، عملکردشون در مقایسه با مدلهای اختصاصی و غیر رایگان خود OpenAI هست. طبق گفته شرکت، این مدلها در زمینههای مختلفی مثل استدلال، کدنویسی و استفاده از ابزار، عملکرد خیلی خوبی از خودشون نشون دادن.
مدل بزرگتر، یعنی gpt-oss-120b، در بنچمارکها و آزمونهای اصلی مربوط به استدلال، عملکردی خیلی نزدیک به مدل OpenAI o4-mini داره. این در حالیه که میتونه به صورت بهینه روی یک GPU با ۸۰ گیگابایت حافظه اجرا بشه. جالبه که در بعضی زمینهها حتی از o4-mini هم بهتر عمل کرده؛ مثلن در بنچمارک HealthBench که مربوط به سوالات حوزه سلامت میشه و همچنین در مسائل ریاضیات رقابتی مثل AIME 2024 و ۲۰۲۵. در بنچمارکهای دیگه مثل کدنویسی رقابتی (Codeforces)، حل مسئله عمومی (MMLU و HLE) و استفاده از ابزار (TauBench)، عملکردش با o4-mini برابری میکنه یا حتی از اون بهتره. البته در یک آزمون دانشمحور به اسم Humanity’s Last Exam، مدل o3 با کسب امتیاز ۲۴.۹ درصد (با استفاده از ابزار) عملکرد بهتری داشته، در حالی که gpt-oss-120b تونسته ۱۹ درصد امتیاز بگیره. برای مقایسه، مدل پیشرفته گوگل یعنی Gemini Deep Think در همین آزمون به امتیاز ۳۴.۸ درصد رسیده.
از طرف دیگه، مدل کوچکتر یعنی gpt-oss-20b، با وجود اندازه کوچیکش، نتایجی شبیه به مدل OpenAI o3-mini در بنچمارکهای رایج کسب میکنه. این مدل هم میتونه روی دستگاههایی با فقط ۱۶ گیگابایت حافظه اجرا بشه که اون رو برای کاربردهای روی دستگاه (on-device)، استنتاج محلی (local inference) و تکرار سریع ایدهها بدون نیاز به زیرساختهای گرون، ایدهآل میکنه. این مدل هم در زمینههایی مثل ریاضیات رقابتی و سلامت، حتی از o3-mini هم بهتر عمل کرده. این نشون میده که OpenAI تونسته با تکنیکهای بهینهسازی پیشرفته، مدلهای کوچیک اما قدرتمندی تولید کنه.
کریس کوک، یکی از محققان OpenAI، در یک نشست خبری گفته: «فکر میکنم خیلیها تعجب میکنن اگه بدونن که اکثر مشتریان ما در حال حاضر از مدلهای اپن سورس زیادی استفاده میکنن. ما میخواستیم این شکاف رو پر کنیم و به اونها اجازه بدیم که از تکنولوژی ما در همه زمینهها استفاده کنن.» گرگ براکمن، یکی از بنیانگذاران OpenAI هم در مورد این مدلها گفته: «اینها مدلهای فوقالعادهای هستن. تیم واقعن در این مورد کار بزرگی انجام داده.»
ویژگیهای فنی و معماری مدلها
برای اینکه بهتر بفهمیم این مدلها چطور کار میکنن، باید نگاهی به ساختار فنی اونها بندازیم. این مدلها با استفاده از پیشرفتهترین تکنیکهای پیشآموزش و پسآموزش OpenAI ساخته شدن و تمرکز اصلی روی استدلال، بهینگی و کاربردی بودن در دنیای واقعی و محیطهای مختلف بوده. این اولین مدلهای زبان وزن-بازی هستن که OpenAI از زمان GPT-2 منتشر کرده، هرچند مدلهای دیگهای مثل Whisper و CLIP رو هم به صورت اپن سورس در دسترس قرار داده بود.
هر دو مدل بر اساس معماری ترنسفورمر (Transformer) ساخته شدن و از تکنیکی به اسم ترکیب متخصصها (Mixture-of-Experts یا MoE) استفاده میکنن. این تکنیک کمک میکنه تا تعداد پارامترهای فعالی که برای پردازش یک ورودی لازمه، کاهش پیدا کنه. به همین دلیله که مدل ۱۱۷ میلیارد پارامتری فقط به ۵.۱ میلیارد پارامتر فعال در هر توکن نیاز داره و مدل ۲۱ میلیارد پارامتری فقط به ۳.۶ میلیارد. این کار باعث میشه مدلها خیلی بهینهتر عمل کنن.
مدلها از الگوهای توجه (attention) متناوب متراکم و پراکنده باند محلی (alternating dense and locally banded sparse attention) استفاده میکنن که شبیه به معماری GPT-3 هست. برای بهینهسازی استنتاج و حافظه، از توجه چند-پرسمانی گروهی (grouped multi-query attention) با اندازه گروه ۸ هم استفاده شده. برای کدگذاری موقعیتی هم از Rotary Positional Embedding یا RoPE استفاده شده. یکی دیگه از ویژگیهای مهم این مدلها، پشتیبانی از طول زمینه (context length) تا ۱۲۸ هزار توکن هست که یکی از طولانیترین زمینههای موجود برای استنتاج محلی به حساب میاد. این یعنی مدلها میتونن اسناد و مکالمات خیلی طولانی، مثل متن مکالمات پشتیبانی مشتریان، مستندات فنی دقیق یا مقالات علمی رو پردازش کنن.
در جدول زیر میتونید مشخصات فنی این دو مدل رو ببینید:
مدل | لایهها | پارامترهای کل | پارامترهای فعال در هر توکن | تعداد کل متخصصها | متخصصهای فعال در هر توکن | طول زمینه |
---|---|---|---|---|---|---|
gpt-oss-120b | ۳۶ | 117B | ۵.1B | ۱۲۸ | ۴ | 128k |
gpt-oss-20b | ۲۴ | 21B | ۳.6B | ۳۲ | ۴ | 128k |
دادههای آموزشی و فرآیند پسآموزش
این مدلها روی یک مجموعه داده عمدتن متنی و انگلیسی آموزش دیدن که تمرکزش روی حوزههای STEM (علوم، تکنولوژی، مهندسی و ریاضیات)، کدنویسی و دانش عمومی بوده. برای توکنیزه کردن دادهها (یعنی تبدیل متن به واحدهای کوچکتری که مدل بتونه بفهمه)، از یک توکنایزر به اسم o200k_harmony استفاده شده که خودش زیرمجموعهای از توکنایزر مدلهای o4-mini و GPT-4o هست. این توکنایزر هم به صورت اپن سورس منتشر شده. جالبه بدونید که دادههای آموزشی این مدلها، مثل بقیه مدلهای OpenAI، به صورت عمومی فاش نشده.
بعد از مرحله پیشآموزش، مدلها وارد مرحله پسآموزش شدن که فرآیندی شبیه به چیزیه که برای مدل o4-mini استفاده شده. این مرحله شامل یک فاز تنظیم دقیق نظارت شده (supervised fine-tuning) و یک فاز یادگیری تقویتی (reinforcement learning) با محاسبات بالا بوده. هدف از این کار این بوده که مدلها با مشخصات مدل OpenAI (OpenAI Model Spec) همسو بشن و یاد بگیرن که قبل از دادن جواب نهایی، از استدلال زنجیره فکر (Chain-of-Thought یا CoT) و ابزارها استفاده کنن. به خاطر استفاده از همین تکنیکهای پیشرفته، مدلها بعد از پسآموزش، قابلیتهای خیلی خوبی از خودشون نشون میدن.
قابلیتها و امکانات کلیدی برای توسعهدهندهها
این مدلها فقط به خاطر عملکردشون جذاب نیستن، بلکه کلی ویژگی دارن که اونها رو برای توسعهدهندهها خیلی کاربردی میکنه.
- قابلیت تنظیم تلاش استدلال (Reasoning Effort): یکی از ویژگیهای جالب این مدلها اینه که توسعهدهندهها میتونن سطح «تلاش استدلال» رو مشخص کنن. سه سطح وجود داره: پایین، متوسط و بالا. سطح پایین برای مکالمات عمومی و پاسخهای سریع مناسبه، سطح متوسط تعادلی بین سرعت و جزئیات برقرار میکنه و سطح بالا برای تحلیلهای عمیق و با جزئیات زیاده. این تنظیمات به سادگی با یک جمله در پیام سیستمی (system prompt) قابل تغییره؛ مثلن با نوشتن «Reasoning: high». این قابلیت به توسعهدهندهها اجازه میده بین سرعت و کیفیت پاسخ، بسته به نیازشون، تعادل برقرار کنن.
- قابلیتهای عاملگونه (Agentic Capabilities): این مدلها برای استفاده در جریانهای کاری عاملگونه طراحی شدن. یعنی میتونن کارهایی مثل فراخوانی تابع (function calling) با اسکیمای مشخص، مرور وب (با استفاده از ابزارهای مرورگر داخلی) و اجرای کد پایتون رو انجام بدن. همچنین از خروجیهای ساختاریافته (Structured Outputs) پشتیبانی میکنن. این قابلیتها به مدل کمک میکنن تا به اطلاعات لحظهای دسترسی داشته باشن و کارهای چند مرحلهای رو انجام بدن.
- زنجیره فکر کامل (Full Chain-of-Thought): یکی از مهمترین ویژگیهای این مدلها، دسترسی کامل به فرآیند استدلال یا همون زنجیره فکر (CoT) هست. این یعنی شما میتونید ببینید مدل برای رسیدن به یک جواب، چه مراحلی رو طی کرده. این موضوع برای دیباگ کردن و افزایش اعتماد به خروجیهای مدل خیلی مفیده. البته OpenAI تاکید کرده که این زنجیره فکر نباید به صورت مستقیم به کاربرهای نهایی نشون داده بشه، چون ممکنه شامل محتوای توهمی (hallucinated) یا مضر باشه و حتی ممکنه شامل اطلاعاتی باشه که از مدل خواسته شده اونها رو در جواب نهایی نیاره.
- قابلیت تنظیم دقیق (Fine-tunable): هر دو مدل gpt-oss رو میشه به طور کامل برای کاربردهای تخصصی تنظیم دقیق (fine-tune) کرد. مدل بزرگتر یعنی gpt-oss-120b رو میشه روی یک نود H100 تنظیم کرد و مدل کوچکتر یعنی gpt-oss-20b حتی روی سختافزارهای مصرفی هم قابل تنظیمه. این به شرکتها و توسعهدهندهها اجازه میده مدلها رو برای مجموعه دادههای خاص خودشون بهینه کنن.
ایمنی: یک اصل بنیادین
ایمنی همیشه یکی از دغدغههای اصلی OpenAI در انتشار مدلها بوده و برای مدلهای اپن سورس این اهمیت حتی بیشتر هم هست. به گفته این شرکت، gpt-oss از نظر ایمنی، سختگیرانهترین تستها رو پشت سر گذاشته.
در مرحله پیشآموزش، دادههای مضر مربوط به مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) فیلتر شدن. در مرحله پسآموزش، از تکنیکهایی مثل همسوسازی سنجیده (deliberative alignment) و سلسله مراتب دستورالعمل (instruction hierarchy) استفاده شده تا به مدل یاد بدن که درخواستهای ناامن رو رد کنه و در برابر حملات تزریق پرامپت (prompt injections) از خودش دفاع کنه.
یک نگرانی بزرگ در مورد مدلهای اپن سورس اینه که افراد بدخواه میتونن اونها رو برای اهداف مخرب تنظیم دقیق کنن. OpenAI برای ارزیابی مستقیم این ریسک، یک نسخه از مدل gpt-oss-120b رو به صورت خصمانه روی دادههای تخصصی زیستشناسی و امنیت سایبری تنظیم دقیق کرد تا ببینه یک مهاجم چه کارهایی میتونه باهاش انجام بده. بعد از این کار، سطح قابلیت این مدلهای تنظیم شده از طریق تستهای داخلی و خارجی ارزیابی شد. نتایج این تستها که در یک مقاله پژوهشی مربوط به ایمنی توضیح داده شده، نشون داد که حتی با تنظیم دقیق قوی و با استفاده از بهترین ابزارهای آموزشی OpenAI، این مدلهای تنظیم شده مخرب نتونستن به سطح قابلیت بالایی برسن. این روششناسی توسط سه گروه متخصص مستقل بررسی شد و توصیههایی برای بهبود فرآیند آموزش و ارزیابی ارائه دادن که خیلی از اونها توسط OpenAI اجرا شد.
همچنین، زنجیره فکر (CoT) در این مدلها به صورت مستقیم تحت نظارت قرار نگرفته. این کار به این دلیله که تحقیقات اخیر نشون داده نظارت بر CoT میتونه به شناسایی رفتارهای نادرست، فریبکارانه و سوءاستفاده از مدل کمک کنه، به شرطی که خود CoT برای همسوسازی تحت نظارت مستقیم نبوده باشه. OpenAI امیدوار است که با انتشار این مدلها، به توسعهدهندهها و محققان این فرصت رو بده تا سیستمهای نظارتی CoT خودشون رو تحقیق و پیادهسازی کنن.
برای کمک به یک اکوسیستم اپن سورس امنتر، OpenAI یک چالش تیم قرمز (Red Teaming Challenge) با جایزه ۵۰۰ هزار دلاری برگزار کرده تا محققان، توسعهدهندهها و علاقهمندان از سراسر جهان رو تشویق کنه تا به پیدا کردن مشکلات ایمنی جدید کمک کنن.
چطور به این مدلها دسترسی پیدا کنیم و ازشون استفاده کنیم؟
یکی از اهداف اصلی این عرضه، دسترسی آسان بوده. وزنهای هر دو مدل gpt-oss-120b و gpt-oss-20b به صورت رایگان برای دانلود در Hugging Face قرار گرفتن. این مدلها به صورت بومی با فرمت MXFP4 کوانتایز شدن. این تکنیک باعث افزایش کیفیت و دقت مدل میشه، بدون اینکه هزینهای روی عملکرد داشته باشه. همین کوانتیزهسازی باعث شده مدل ۱۲۰ میلیارد پارامتری در ۸۰ گیگابایت حافظه و مدل ۲۰ میلیارد پارامتری فقط در ۱۶ گیگابایت حافظه جا بشه.
برای استفاده راحتتر، OpenAI یک رندرکننده برای فرمت پرامپت خودش یعنی harmony رو هم به زبانهای پایتون و راست اپن سورس کرده. همچنین پیادهسازیهای مرجع برای اجرای استنتاج با PyTorch و پلتفرم Metal اپل به همراه مجموعهای از ابزارهای نمونه برای مدل منتشر شده.
برای اینکه این مدلها به طور گسترده در دسترس باشن، OpenAI با پلتفرمهای پیشرو در زمینه استقرار مدلها همکاری کرده. از جمله این پلتفرمها میشه به موارد زیر اشاره کرد:
- Azure
- Hugging Face
- vLLM
- Ollama
- llama.cpp
- LM Studio
- AWS
- Fireworks
- Together AI
- Baseten
- Databricks
- Vercel
- Cloudflare
- OpenRouter
در زمینه سختافزار هم، همکاری با شرکتهایی مثل NVIDIA، AMD، Cerebras و Groq باعث شده تا عملکرد مدلها روی طیف وسیعی از سیستمها بهینه باشه.
پشتیبانی NVIDIA، مایکروسافت و آمازون
همکاری با غولهای تکنولوژی نقش مهمی در موفقیت این عرضه داشته. NVIDIA اعلام کرده که با OpenAI همکاری کرده تا خانواده مدلهای gpt-oss رو به دست مصرفکنندهها برسونه و عملکرد بالایی روی کارتهای گرافیک RTX ارائه بده. به گفته انویدیا، مدل gpt-oss-20b میتونه روی کارت گرافیک RTX 5090 به سرعت ۲۵۰ توکن در ثانیه برسه. جنسن هوانگ، مدیرعامل انویدیا، در این مورد گفته: «OpenAI به دنیا نشون داد که با هوش مصنوعی انویدیا چه چیزهایی میشه ساخت و حالا اونها دارن نوآوری رو در نرمافزارهای اپن سورس پیش میبرن.»
مایکروسافت هم به عنوان بخشی از این عرضه، نسخههای بهینهشده برای GPU از مدل gpt-oss-20b رو برای دستگاههای ویندوزی ارائه میده. این مدلها که با ONNX Runtime قدرت گرفتن، از استنتاج محلی پشتیبانی میکنن و از طریق Foundry Local و AI Toolkit برای VS Code در دسترس هستن.
آمازون هم اعلام کرده که این مدلهای وزن-باز از طریق Amazon Bedrock و Amazon SageMaker AI در دسترس قرار گرفتن. این موضوع به مشتریان آمازون اجازه میده تا از قابلیتهای استدلال پیشرفته و جریانهای کاری عاملگونه این مدلها در پلتفرمهای خودشون استفاده کنن.
راهنمای عملی برای شروع کار
شروع کار با این مدلها نسبتن ساده است و روشهای مختلفی برای این کار وجود داره.
استفاده با Transformers:
برای شروع، باید کتابخانههای لازم رو نصب کنید:
pip install -U transformers kernels torch
بعد از نصب، میتونید با کد زیر مدل رو اجرا کنید:
from transformers import pipeline
import torch
model_id = "openai/gpt-oss-120b"
pipe = pipeline(
"text-generation",
model=model_id,
torch_dtype="auto",
device_map="auto",
)
messages = [
{"role": "user", "content": "Explain quantum mechanics clearly and concisely."},
]
outputs = pipe(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
استفاده با vLLM:
میتونید از vLLM برای راهاندازی یک وبسرور سازگار با OpenAI استفاده کنید. دستور زیر به طور خودکار مدل رو دانلود و سرور رو اجرا میکنه:
vllm serve openai/gpt-oss-120b
استفاده روی سختافزار مصرفی با Ollama:
اگر میخواید مدل رو روی کامپیوتر شخصی اجرا کنید، میتونید از Ollama استفاده کنید:
# برای مدل 120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
استفاده با LM Studio:
برای دانلود در LM Studio هم میتونید از دستور زیر استفاده کنید:
lms get openai/gpt-oss-120b
برای دانلود مستقیم وزنهای مدل از Hugging Face هم میتونید از این دستور استفاده کنید:
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/
چرا این عرضه مهم است؟
انتشار مدلهای gpt-oss یک قدم بزرگ برای دنیای مدلهای وزن-باز محسوب میشه. این مدلها با اندازهای که دارن، پیشرفتهای قابل توجهی در قابلیتهای استدلال و ایمنی ارائه میدن. مدلهای اپن سورس، مکمل مدلهای میزبانی شده (hosted) هستن و به توسعهدهندهها ابزارهای متنوعتری میدن تا تحقیقات پیشرفته رو سرعت ببخشن، نوآوری رو تقویت کنن و توسعه هوش مصنوعی امنتر و شفافتری رو در کاربردهای مختلف ممکن کنن.
تا قبل از این، سم آلتمن، مدیرعامل OpenAI، نگرانیهای ایمنی رو دلیل اصلی عدم انتشار مدلهای اپن سورس جدید عنوان کرده بود. اما بعد از ظهور مدلهایی مثل DeepSeek، در ژانویه اعلام کرد که OpenAI با منتشر نکردن مدلهای اپن سورس خودش، در «سمت اشتباه تاریخ» قرار داشته. حالا این شرکت با قدرت به این عرصه برگشته.
این مدلهای اپن سورس همچنین موانع رو برای بازارهای نوظهور، بخشهایی که منابع محدودی دارن و سازمانهای کوچکتری که بودجه یا انعطافپذیری لازم برای استفاده از مدلهای اختصاصی رو ندارن، کاهش میدن. با داشتن ابزارهای قدرتمند و در دسترس، مردم در سراسر جهان میتونن بسازن، نوآوری کنن و فرصتهای جدیدی برای خودشون و دیگران ایجاد کنن. دسترسی گسترده به این مدلهای وزن-باز که در آمریکا ساخته شدن، به گسترش «زیرساختهای دموکراتیک هوش مصنوعی» کمک میکنه.
گرگ براکمن در این باره میگه: «ما همیشه باور داشتیم که اگر مانع دسترسی رو کاهش بدید، نوآوری افزایش پیدا میکنه. شما به مردم اجازه میدید هک کنن، و اونها کارهای فوقالعاده شگفتانگیزی انجام خواهند داد.»
برای کسانی که به دنبال مدلهای کاملن قابل تنظیم هستن تا بتونن اونها رو در محیطهای خودشون تنظیم دقیق و مستقر کنن، gpt-oss یک گزینه عالیه. برای اونهایی که به دنبال پشتیبانی چندوجهی (multimodal)، ابزارهای داخلی و یکپارچگی کامل با پلتفرم OpenAI هستن، مدلهای موجود در API شرکت همچنان بهترین گزینه باقی میمونن. البته OpenAI گفته که به بازخورد توسعهدهندهها گوش میده و ممکنه در آینده پشتیبانی از gpt-oss رو از طریق API هم در نظر بگیره.
منابع
- [۱] Introducing gpt-oss | OpenAI
- [۲] OpenAI releases a free GPT model that can run on your laptop | The Verge
- [۳] OpenAI announces two “gpt-oss” open AI models, and you can download them today – Ars Technica
- [۴] OpenAI’s open weight models available today in Amazon Bedrock and Amazon SageMaker AI
- [۵] NVIDIA’s RTX GPUs Deliver Fastest AI Performance On OpenAI’s Latest “gpt-oss” Models
- [۶] nytimes.com
- [۷] openai/gpt-oss-120b · Hugging Face
دیدگاهتان را بنویسید