GeekAlerts

جایی برای گیک‌ها

معرفی خانواده مدل‌های GLM-4.5

معرفی خانواده مدل‌های GLM-4.5
  • مدت زمان مطالعه: حدود ۱۸ دقیقه
  • اهداف:
    • آشنایی کامل با مدل‌های GLM-4.5 و GLM-4.5-Air
    • درک قابلیت‌های اصلی این مدل‌ها در استدلال، کدنویسی و کارهای ایجنت‌محور
    • آشنایی با معماری فنی، فرایند آموزش و نحوه ارزیابی عملکرد آنها

سلام به همه علاقه‌مندان به دنیای هوش مصنوعی. امروز قراره با هم سراغ یکی از مدل‌های جدید و مهم بریم و تمام جزئیاتش رو کالبدشکافی کنیم. صحبت از خانواده مدل‌های GLM-4.5 هست که توسط آزمایشگاه هوش مصنوعی Z.ai (که قبلا با اسم Zhipu AI می‌شناختیمش) معرفی شده. این مدل‌ها با هدف مشخصی طراحی شدن و حرف‌های زیادی برای گفتن دارن. پس بیاید بدون معطلی بریم سر اصل مطلب و ببینیم این خانواده جدید چه چیزهایی در چنته داره.

فصل اول: معرفی کلی و رونمایی از خانواده GLM-4.5

شرکت Z.ai به تازگی دو عضو جدید از خانواده مدل‌های زبانی خودش رو معرفی کرده: GLM-4.5 و GLM-4.5-Air. اینها مدل‌های پرچمدار جدید این شرکت به حساب میان و برای کارهای پیچیده‌ای مثل کاربردهای ایجنت‌های هوشمند (Intelligent Agents) طراحی شدن.

برای اینکه یه دید کلی از اندازه این مدل‌ها داشته باشیم، بهتره به اعداد و ارقامشون نگاه کنیم:

  • GLM-4.5: این مدل در مجموع ۳۵۵ میلیارد پارامتر داره که از این تعداد، ۳۲ میلیارد پارامتر در هر لحظه فعال هستن.
  • GLM-4.5-Air: این مدل طراحی فشرده‌تری داره و در مجموع شامل ۱۰۶ میلیارد پارامتره که ۱۲ میلیارد از اونها فعال هستن.

هدف اصلی از ساخت این دو مدل، ترکیب کردن قابلیت‌های کلیدی مثل استدلال، کدنویسی و توانایی‌های ایجنت‌محور در یک مدل واحد بوده. این کار برای پاسخگویی به نیازهای پیچیده و روزافزون برنامه‌های مبتنی بر ایجنت انجام شده.

یکی از ویژگی‌های جالب این دو مدل اینه که هر دو مدل‌های استدلال ترکیبی یا «Hybrid Reasoning» هستن. این یعنی دو حالت کاری مختلف ارائه میدن:

  1. حالت تفکر (Thinking mode): برای کارهای پیچیده که نیاز به استدلال و استفاده از ابزار دارن.
  2. حالت بدون تفکر (Non-thinking mode): برای پاسخ‌های سریع و فوری.

خبر خوب برای توسعه‌دهنده‌ها اینه که مدل‌های پایه، مدل‌های استدلال ترکیبی و حتی نسخه‌های FP8 این مدل‌ها به صورت متن‌باز (Open-Source) و تحت مجوز MIT منتشر شدن. این یعنی هر کسی میتونه به صورت تجاری از اونها استفاده کنه یا بر اساس اونها مدل‌های جدیدی توسعه بده. این یه تغییر بزرگ نسبت به مجوزهای سفارشی و غیر متن‌باز قدیمی این شرکت محسوب میشه.

فصل دوم: چرا اصلا GLM-4.5 ساخته شد؟ (هدف و پس‌زمینه)

برای اینکه درک کنیم چرا مدلی مثل GLM-4.5 مهمه، باید یه قدم به عقب برگردیم. هدف نهایی مدل‌های زبانی بزرگ (LLM) همیشه رسیدن به توانایی‌های شناختی در سطح انسانه؛ یعنی بتونن طیف وسیعی از مسائل رو حل کنن، نه اینکه فقط برای یک کار خاص طراحی شده باشن. یک مدل زبانی خوب باید بتونه از پس حل مسئله عمومی، تعمیم دادن، استدلال بر اساس عقل سلیم و حتی خودبهبودی بربیاد.

در طول پنج سال گذشته، مدل‌هایی مثل GPT-3 از OpenAI تلاش کردن تا دانش عقل سلیم رو یاد بگیرن و مدل o1 هم از یادگیری تقویتی استفاده کرد تا قبل از جواب دادن «فکر کنه». این کارها مهارت‌های استدلال رو در زمینه‌هایی مثل کدنویسی، تحلیل داده و ریاضیات پیچیده خیلی بهتر کرد. اما مشکل اینجا بود که مدل‌های حاصل هنوز واقعا «عمومی» نبودن. بعضی‌هاشون در کدنویسی عالی بودن، بعضی در ریاضیات و بعضی در استدلال، اما هیچکدوم نمیتونست در تمام این زمینه‌ها بهترین عملکرد رو داشته باشه. مدل GLM-4.5 تلاشی در جهت یکپارچه کردن تمام این قابلیت‌های مختلف در یک مدل واحد به حساب میاد.

فصل سوم: بررسی عملکرد در بنچمارک‌ها

حالا میرسیم به بخش هیجان‌انگیز ماجرا یعنی مقایسه و ارزیابی. تیم Z.ai مدل‌های خودش رو در ۱۲ بنچمارک استاندارد صنعتی با مدل‌های مختلفی از شرکت‌هایی مثل OpenAI، Anthropic، Google DeepMind، xAI، Alibaba، Moonshot و DeepSeek مقایسه کرده. این بنچمارک‌ها سه حوزه اصلی رو پوشش میدن: کارهای ایجنت‌محور (۳ بنچمارک)، استدلال (۷ بنچمارک) و کدنویسی (۲ بنچمارک).

در رده‌بندی کلی، GLM-4.5 تونسته رتبه سوم رو در بین تمام مدل‌های متن‌باز و اختصاصی کسب کنه. مدل سبک‌تر یعنی GLM-4.5-Air هم با کسب رتبه ششم، عملکرد رقابتی‌ای از خودش نشون داده. جالبه بدونید که در این مقایسه‌ها، مدل‌های مهمی مثل سری Llama از شرکت Meta یا مدل‌های Mistral حضور نداشتن. این موضوع این سوال رو ایجاد میکنه که آیا این شرکت عمدا فقط خودش رو با مدل‌های متن‌باز آزمایشگاه‌های هوش مصنوعی چینی مقایسه کرده یا نه.

بیاین جزئیات عملکرد رو در هر حوزه جداگانه بررسی کنیم.

۱. کارهای ایجنت‌محور (Agentic Tasks)

مدل GLM-4.5 به عنوان یک مدل پایه برای کارهای ایجنت‌محور بهینه‌سازی شده. این مدل از طول محتوای (Context Length) ۱۲۸ هزار توکن و قابلیت فراخوانی تابع (Function Calling) به صورت بومی پشتیبانی میکنه. این دو ویژگی امروزه برای هر مدلی که در سال ۲۰۲۵ منتشر میشه، تقریبا از موارد استاندارد و اولیه به حساب میاد.

برای سنجش توانایی ایجنت این مدل، از دو بنچمارک 𝜏-bench و BFCL-v3 استفاده شده. در هر دوی این بنچمارک‌ها، GLM-4.5 عملکردی مشابه مدل Claude 4 Sonnet داشته.

یکی از کاربردهای محبوب ایجنت‌ها، وب‌گردی (Web browsing) هست که به استدلال پیچیده و استفاده چند مرحله‌ای از ابزارها نیاز داره. برای ارزیابی این قابلیت، از بنچمارک BrowseComp استفاده شده. این بنچمارک شامل سوالات پیچیده‌ای هست که انتظار جواب‌های کوتاه رو دارن. در این آزمون، GLM-4.5 با دسترسی به ابزار وب‌گردی تونست به ۲۶.۴ درصد از سوالات پاسخ صحیح بده. این نتیجه به وضوح از Claude-4-Opus (با ۱۸.۸ درصد) بهتره و به o4-mini-high (با ۲۸.۳ درصد) نزدیکه.

نتایج کامل مقایسه در کارهای ایجنت‌محور در جدول زیر اومده:

بنچمارکGLM-4.5GLM-4.5-Airo3o4-mini-highGPT-4.1Claude 4 OpusClaude 4 SonnetGemini 2.5 ProQwen3 235B Thinking 2507DeepSeek-R1-0528DeepSeek V3 0324Kimi K2Grok 4
TAU-bench۷۰.۱۶۹.۴۶۱.۲۵۷.۴۶۲.۰۷۰.۵۷۰.۳۶۲.۵۷۳.۲۵۸.۷۵۷.۶۶۲.۶۶۷.۵
BFCL v3 (Full)۷۷.۸۷۶.۴۷۲.۴۶۷.۲۶۸.۹۶۱.۸۷۵.۲۶۱.۲۷۲.۴۶۳.۸۶۴.۷۷۱.۱۶۶.۲
BrowseComp۲۶.۴۲۱.۳۴۹.۷۲۸.۳۴.۱۱۸.۸۱۴.۷۷.۶۴.۶۳.۲۱.۵۷.۹۳۲.۶

۲. استدلال (Reasoning)

وقتی مدل‌های GLM-4.5 و GLM-4.5-Air در «حالت تفکر» قرار میگیرن، میتونن مسائل استدلالی پیچیده در زمینه‌هایی مثل ریاضیات، علوم و منطق رو حل کنن.

نتایج این بخش در جدول زیر خلاصه شده:

بنچمارکGLM-4.5GLM-4.5-Airo3Claude 4 OpusGemini 2.5 ProDeepSeek-R1-0528Qwen3-235B-Thinking 2507Grok 4
MMLU Pro۸۴.۶۸۱.۴۸۵.۳۸۷.۳۸۶.۲۸۴.۹۸۴.۵۸۶.۶
AIME24۹۱.۰۸۹.۴۹۰.۳۷۵.۷۸۸.۷۸۹.۳۹۴.۱۹۴.۳
MATH 500۹۸.۲۹۸.۱۹۹.۲۹۸.۲۹۶.۷۹۸.۳۹۸.۰۹۹.۰
SciCode۴۱.۷۳۷.۳۴۱.۰۳۹.۸۴۲.۸۴۰.۳۴۲.۹۴۵.۷
GPQA۷۹.۱۷۵.۰۸۲.۷۷۹.۶۸۴.۴۸۱.۳۸۱.۱۸۷.۷
HLE۱۴.۴۱۰.۶۲۰.۰۱۱.۷۲۱.۱۱۴.۹۱۵.۸۲۳.۹
LiveCodeBench (2407-2501)۷۲.۹۷۰.۷۷۸.۴۶۳.۶۸۰.۱۷۷.۰۷۸.۲۸۱.۹
AA-Index (Estimated)۶۷.۷۶۴.۸۷۰.۰۶۴.۴۷۰.۵۶۸.۳۶۹.۴۷۳.۲

چند نکته در مورد این ارزیابی‌ها وجود داره:

  • برای بنچمارک‌های AIME و GPQA، برای کاهش واریانس نتایج، میانگین دقت روی ۳۲ و ۸ نمونه گزارش شده (Avg@32 و Avg@8).
  • برای بنچمارک HLE، فقط سوالات مبتنی بر متن ارزیابی شدن و درستی جواب‌ها توسط مدل gpt-4o قضاوت شده.

۳. کدنویسی (Coding)

مدل GLM-4.5 در کدنویسی هم توانایی‌های خوبی داره. این توانایی‌ها هم شامل ساخت پروژه‌های کدنویسی از صفر میشه و هم حل مسائل کدنویسی به صورت ایجنت‌محور در پروژه‌های موجود. این مدل میتونه به راحتی با ابزارهای کدنویسی مثل Claude Code، Roo Code و CodeGeex ترکیب بشه.

برای ارزیابی توانایی کدنویسی، مدل‌ها در دو بنچمارک SWE-bench Verified و Terminal Bench مقایسه شدن. نتایج در جدول زیر اومده:

بنچمارکGLM-4.5GLM-4.5-Airo3GPT-4.1Claude 4 OpusClaude 4 SonnetGemini 2.5 ProDeepSeek-R1-0528Kimi K2
SWE-bench Verified¹۶۴.۲۵۷.۶۶۹.۱۴۸.۶۶۷.۸۷۰.۴۴۹.۰۴۱.۴۶۵.۴
Terminal-Bench²۳۷.۵۳۰۳۰.۲۳۰.۳۴۳.۲۳۵.۵۲۵.۳۱۷.۵۲۵.۰

نکات مربوط به این ارزیابی‌ها:

  1. برای SWE-bench Verified، از OpenHands نسخه ۰.۳۴.۰ استفاده شده و اجرای هر تسک به ۱۰۰ تکرار محدود شده تا از حد ۱۲۸ هزار توکنی محتوا فراتر نره.
  2. برای Terminal-Bench، از فریمورک Terminus برای ارزیابی استفاده شده و به جای پرامپت مستقیم، از فراخوانی تابع استاندارد استفاده شده.

یک تحلیل به نام «Pareto Frontier» هم انجام شده که نشون میده مدل‌های GLM-4.5 و GLM-4.5-Air در مقایسه با مدل‌هایی با مقیاس مشابه، عملکرد بهتری دارن و بهینه‌ترین بازدهی رو در مرز مقایسه عملکرد-مقیاس به دست میارن.

فصل چهارم: تحلیل و توانایی‌های ویژه در کدنویسی

فراتر از بنچمارک‌های استاندارد، GLM-4.5 توانایی‌های عملی جالبی در کدنویسی داره. این مدل میتونه قابلیت‌های توسعه فول-استک (Full-stack) رو به صورت جامع انجام بده؛ یعنی میتونه یک اپلیکیشن وب کامل رو با پیاده‌سازی فرانت‌اند، مدیریت دیتابیس و استقرار بک‌اند بسازه. رابط‌های کاربری فرانت‌اندی که این مدل تولید میکنه، عملکرد و زیبایی‌شناسی خوبی دارن و با ترجیحات طراحی انسان هماهنگ هستن.

برای سنجش توانایی‌های کدنویسی ایجنت‌محور GLM-4.5، از ابزار Claude Code استفاده شده تا عملکردش در مقابل Claude-4-Sonnet، Kimi K2 و Qwen3-Coder در ۵۲ تسک کدنویسی مختلف مقایسه بشه. این تسک‌ها شامل توسعه فرانت‌اند، ساخت ابزار، تحلیل داده، تست و پیاده‌سازی الگوریتم بودن. همه ارزیابی‌ها در محیط‌های تست ایزوله و با تعامل انسانی چند مرحله‌ای انجام شده تا نتایج ثابت و قابل تکرار باشن.

نتایج این مقایسه نشون میده که:

  • GLM-4.5 در مقابل Kimi K2 به نرخ برد ۵۳.۹ درصد دست پیدا کرده.
  • در مقابل Qwen3-Coder عملکرد غالبی داشته و نرخ موفقیت ۸۰.۸ درصد رو ثبت کرده.
  • در مقایسه با Claude-4-Sonnet، عملکرد رقابتی‌ای داره اما هنوز جای بهینه‌سازی وجود داره.

یک نکته قابل توجه، موفقیت در فراخوانی ابزار (Tool Calling) هست. GLM-4.5 با نرخ موفقیت ۹۰.۶ درصد، بالاترین میانگین رو در این زمینه کسب کرده و از Claude-4-Sonnet (با ۸۹.۵ درصد)، Kimi-K2 (با ۸۶.۲ درصد) و Qwen3-Coder (با ۷۷.۱ درصد) بهتر عمل کرده. این نشون دهنده قابلیت اطمینان و کارایی بالای این مدل در تسک‌های کدنویسی ایجنت‌محور هست. تمام جزئیات مربوط به این ۵۲ تسک کدنویسی با نام zai-org/CC-Bench-trajectories در Hugging Face منتشر شده تا جامعه هوش مصنوعی بتونه اونها رو مطالعه کنه.

GLM-4.5 همچنین قابلیت‌های تولید کدهای پیچیده رو بهبود داده و میتونه مصنوعات (artifacts) مستقل و پیچیده‌ای مثل مینی‌گیم‌های تعاملی یا شبیه‌سازی‌های فیزیک رو در فرمت‌های HTML، SVG، پایتون و غیره ایجاد کنه. با استفاده از همین قابلیت‌ها، یک ایجنت بومی برای ساخت پاورپوینت و پوستر توسعه داده شده که کاربر میتونه ازش طرح‌های ساده یا پیچیده بخواد و ایجنت به صورت خودکار در وب جستجو میکنه یا تصاویر رو بازیابی میکنه و اسلایدها رو میسازه.

فصل پنجم: معماری و جزئیات فنی (زیر کاپوت چه خبره؟)

حالا بیاید کمی فنی‌تر بشیم و ببینیم معماری این مدل‌ها چطوریه.
در سری GLM-4.5 از معماری MoE (Mixture of Experts) یا «ترکیب متخصصان» استفاده شده. این معماری بازدهی محاسباتی رو هم در حین آموزش و هم در حین استنتاج (Inference) بهبود میده. برای لایه‌های MoE از مسیریابی متعادل بدون اتلاف (loss-free balance routing) و گیت‌های سیگموئید استفاده شده.

یک تفاوت کلیدی در طراحی این مدل با مدل‌هایی مثل DeepSeek-V3 و Kimi K2 وجود داره. در GLM-4.5، به جای افزایش «عرض» مدل (یعنی ابعاد پنهان و تعداد متخصصان)، «ارتفاع» مدل (یعنی تعداد لایه‌ها) افزایش داده شده. دلیل این کار این بوده که طراحان به این نتیجه رسیدن که مدل‌های عمیق‌تر، ظرفیت استدلال بهتری دارن.

در بخش توجه خودی (self-attention)، از Grouped-Query Attention با RoPE جزئی استفاده شده. همچنین، تعداد هدهای توجه (attention heads) ۲.۵ برابر بیشتر شده (۹۶ هد برای یک بعد پنهان ۵۱۲۰). نکته جالب و شاید برخلاف انتظار اینه که این افزایش تعداد هدها، اگرچه باعث بهبود معیار loss در حین آموزش نمیشه، اما به طور مداوم عملکرد رو در بنچمارک‌های استدلال مثل MMLU و BBH بهتر میکنه.

سایر جزئیات فنی عبارتند از:

  • بهینه‌ساز (Optimizer): از بهینه‌ساز Muon استفاده شده که همگرایی رو تسریع میکنه و اندازه بچ (batch size) بزرگ‌تری رو تحمل میکنه.
  • پایداری: از QK-Norm برای پایدار کردن دامنه لاجیت‌های توجه استفاده شده.
  • استنتاج: یک لایه MTP (Multi-Token Prediction) برای پشتیبانی از رمزگشایی گمانه‌زن (speculative decoding) در حین استنتاج اضافه شده.

فصل ششم: فرایند آموزش مدل

آموزش این مدل‌ها در چند مرحله انجام شده.

۱. پیش‌آموزش (Pre-training)

این مرحله خودش دو بخش داشته:

  • ابتدا مدل روی ۱۵ تریلیون توکن از یک مجموعه داده عمومی آموزش دیده.
  • سپس روی ۷ تریلیون توکن اضافی از یک مجموعه داده تخصصی شامل کد و داده‌های استدلالی آموزش دیده.

۲. مراحل تکمیلی

بعد از پیش‌آموزش، مراحل دیگه‌ای برای تقویت عملکرد مدل در حوزه‌های کلیدی پایین‌دستی اضافه شده. در این مراحل، از دیتاست‌های تخصصی با اندازه متوسط، از جمله داده‌های دستوری (instruction data) استفاده شده.

۳. آموزش تقویتی و زیرساخت slime

برای آموزش تقویتی (Reinforcement Learning یا RL) کارآمد در مدل‌های بزرگی مثل GLM-4.5، یک زیرساخت RL به نام slime طراحی، توسعه و به صورت متن‌باز منتشر شده. این زیرساخت در گیت‌هاب با شناسه THUDM/slime در دسترسه. (THUDM گروه مهندسی دانش در دانشگاه Tsinghua هست که Zhipu AI از اونجا منشعب شده).

نوآوری‌های اصلی slime برای غلبه بر گلوگاه‌های رایج در RL طراحی شدن:

  • معماری آموزش ترکیبی انعطاف‌پذیر: slime از هر دو حالت آموزش همزمان (synchronous) و غیرهمزمان (asynchronous) پشتیبانی میکنه. حالت غیرهمزمان برای RL ایجنت‌محور پیشرفته که تولید داده میتونه یک فرایند خارجی و کند باشه، حیاتیه.
  • طراحی جداشده مبتنی بر ایجنت: slime موتورهای تولید داده (rollout engines) رو از موتورهای آموزش جدا میکنه. این دو بخش روی سخت‌افزارهای مجزا کار میکنن و گلوگاه تولید داده رو به یک فرایند موازی و غیرمسدودکننده تبدیل میکنن.
  • تولید داده سریع با دقت ترکیبی (Mixed Precision): برای افزایش سرعت، slime از فرمت بسیار کارآمد FP8 برای تولید داده و از فرمت پایدار BF16 برای حلقه آموزش مدل استفاده میکنه.

۴. مرحله پس از آموزش (Post-training)

این مرحله برای بهبود قابلیت‌های ایجنت‌محور، از جمله کدنویسی ایجنتی، جستجوی عمیق و استفاده عمومی از ابزار، بسیار مهمه. فرایند با تنظیم دقیق نظارت شده (supervised fine-tuning) روی داده‌های استدلالی و سناریوهای ایجنتی مصنوعی شروع میشه و با یک فاز RL تخصصی ادامه پیدا میکنه.

  • برای استدلال: یک مرحله RL روی کل زمینه ۶۴ هزار توکنی با یک برنامه درسی مبتنی بر سختی انجام شده.
  • برای کارهای ایجنتی: آموزش روی دو وظیفه قابل تایید انجام شده: پرسش و پاسخ مبتنی بر جستجوی اطلاعات و مهندسی نرم‌افزار.

اگرچه این برنامه درسی RL فقط مجموعه محدودی از وظایف رو هدف قرار میده، اما بهبودهای حاصل شده به توانایی‌های مجاور مثل استفاده عمومی از ابزار هم منتقل میشه.

فصل هفتم: چطور از این مدل‌ها استفاده کنیم؟

راه‌های مختلفی برای دسترسی و استفاده از این مدل‌ها وجود داره:

  • چت در Z.ai: میتونید به پلتفرم Z.ai برید و با انتخاب گزینه مدل GLM-4.5 باهاش چت کنید. این پلتفرم از قابلیت‌های تولید مصنوعات، ساخت اسلاید و توسعه فول-استک پشتیبانی میکنه.
  • استفاده از API: پلتفرم Z.ai API (برای کاربران جهانی) و Zhipu AI Open Platform (برای کاربران چین) رابط‌های سازگار با OpenAI رو برای هر دو مدل GLM-4.5 و GLM-4.5-Air ارائه میدن.
  • ادغام با ایجنت‌های کدنویسی: مستندات دقیق برای ادغام GLM-4.5 با Claude Code و سایر فریمورک‌های ایجنت کدنویسی در Z.ai API موجوده.
  • اجرای محلی (Locally): وزن‌های مدل برای هر دو نسخه پایه و چت در Hugging Face و ModelScope در دسترسه. برای استقرار محلی، GLM-4.5 از فریمورک‌های استنتاجی مثل vLLM و SGLang پشتیبانی میکنه.

فصل هشتم: نگاهی از بیرون (تحلیل‌ها و مشاهدات)

انتشار این مدل‌ها توجه تحلیلگران رو هم به خودش جلب کرده. برای مثال، سایمون ویلیسون در تحلیلی به این مدل‌ها پرداخته و اونها رو «یک انتشار مهم دیگر از مدل‌های متن‌باز از یک آزمایشگاه هوش مصنوعی پیشرو در چین» توصیف کرده.

او در چت Z.ai که دسترسی رایگان و بدون نیاز به حساب کاربری رو به هر دو مدل میده، یک تست ساده انجام داده و از مدل‌ها خواسته تا «یک SVG از یک پلیکان در حال دوچرخه‌سواری» تولید کنن. در خروجی مدل GLM-4.5، پلیکان بال‌هایش رو روی فرمان دوچرخه گذاشته بود.

همچنین ایوان فیوراونتی ویدیویی از نسخه کوانتایز شده GLM-4.5-Air-4bit رو به اشتراک گذاشته که روی یک کامپیوتر مک M4 با ۱۲۸ گیگابایت رم اجرا میشد. این ویدیو نشون میده که این مدل یک رقیب خیلی قوی برای مدل‌های محلیه که میتونن کدهای مفیدی بنویسن. این نشون میده که مدل‌های کدنویسی متن‌باز و باکیفیت دارن به تدریج به ماشین‌های مصرفی با قیمت مناسب (در این مورد حدود ۳۵۰۰ دلار) نزدیک‌تر میشن.

منابع

  • [۱] zai-org/GLM-4.5 · Hugging Face
  • [۲] GLM-4.5: Reasoning, Coding, and Agentic Abililties
  • [۳] reuters.com
  • [۴] GLM-4.5: Reasoning, Coding, and Agentic Abililties

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *