GeekAlerts

جایی برای گیک‌ها

کلود سونت ۴ انتروپیک حالا از یک میلیون توکن پشتیبانی می‌کند

کلود سونت ۴ انتروپیک حالا از یک میلیون توکن پشتیبانی می‌کند

شرکت انتروپیک (Anthropic) اعلام کرده که مدل هوش مصنوعی Claude Sonnet 4 حالا از پنجره زمینه (Context Window) یک میلیون توکنی پشتیبانی میکنه. این یعنی یک افزایش ۵ برابری نسبت به قبل که به کاربرها و توسعه‌دهنده‌ها اجازه میده حجم خیلی زیادی از اطلاعات رو در یک درخواست به مدل بدن. برای اینکه بهتر متوجه بشیم، یک میلیون توکن تقریبا معادل ۷۵۰ هزار کلمه (بیشتر از کل سه‌گانه «ارباب حلقه‌ها») یا حدود ۷۵ هزار خط کد هست.

این قابلیت جدید در حال حاضر به صورت بتای عمومی روی API انتروپیک و همچنین در Amazon Bedrock در دسترسه و به زودی به Vertex AI گوگل کلود هم اضافه میشه.

خلاصه

  • کلود سونت ۴ انتروپیک الان از یه پنجره زمینه یک میلیون توکنی پشتیبانی میکنه که پنج برابر بیشتر از قبله؛ این یعنی حجم عظیمی از اطلاعات رو میتونه پردازش کنه.
  • این قابلیت جدید برای کارهایی مثل تحلیل کدهای خیلی بزرگ، خلاصه کردن اسناد حجیم و ساخت ایجنت‌های هوشمند خیلی مفیده.
  • انتروپیک برای درخواست‌های بالای ۲۰۰ هزار توکن، قیمت‌گذاری جدیدی داره که گرون‌تره، ولی میشه با کش کردن و پردازش دسته‌ای، هزینه‌ها رو کم کرد.
  • کلود سونت ۴ از نظر ظرفیت پنجره زمینه از GPT-5 اوپن‌ای‌آی بالاتره.

با این ظرفیت بالا چه کارهایی میشه انجام داد؟

افزایش پنجره زمینه، کاربردهای جدید و پیچیده‌تری رو برای کلود ممکن میکنه. چند تا از این کاربردها این‌ها هستن:

  • تحلیل کدهای خیلی بزرگ: توسعه‌دهنده‌ها میتونن کل یک پایگاه کد (codebase) رو همراه با فایل‌های منبع، تست‌ها و مستنداتش به مدل بدن. کلود میتونه معماری پروژه رو بفهمه، وابستگی‌های بین فایل‌های مختلف رو پیدا کنه و پیشنهادهایی برای بهبود بده که کل طراحی سیستم رو در نظر میگیره.
  • خلاصه‌سازی و تحلیل اسناد حجیم: میشه مجموعه‌های بزرگی از اسناد مثل قراردادهای حقوقی، مقاله‌های تحقیقاتی یا مشخصات فنی رو پردازش کرد و ارتباط بین صدها سند رو با حفظ کامل زمینه تحلیل کرد.
  • ایجاد ایجنت‌های آگاه از زمینه: میشه ایجنت‌هایی ساخت که حتی بعد از صدها بار فراخوانی ابزارها و طی کردن مراحل مختلف یک کار، زمینه رو حفظ کنن. با این قابلیت، میشه مستندات کامل API، تعریف ابزارها و تاریخچه تعاملات رو بدون از دست دادن انسجام در اختیار ایجنت قرار داد.

هزینه‌ها چطور محاسبه میشه؟

با توجه به اینکه پردازش حجم بالای اطلاعات محاسبات بیشتری لازم داره، قیمت‌گذاری برای درخواست‌های بیشتر از ۲۰۰ هزار توکن تغییر میکنه. جزئیات قیمت‌گذاری به این شکله:

نوع درخواستهزینه ورودی (Input)هزینه خروجی (Output)
درخواست‌های تا ۲۰۰ هزار توکن۳ دلار به ازای هر میلیون توکن۱۵ دلار به ازای هر میلیون توکن
درخواست‌های بیشتر از ۲۰۰ هزار توکن۶ دلار به ازای هر میلیون توکن۲۲.۵۰ دلار به ازای هر میلیون توکن

انتروپیک اشاره کرده که با استفاده از قابلیت کش کردن درخواست (prompt caching) میشه تاخیر و هزینه‌ها رو کم کرد. همچنین استفاده از حالت پردازش دسته‌ای (batch processing) میتونه یک تخفیف ۵۰ درصدی دیگه روی هزینه‌ها اعمال کنه.

رقابت در بازار مدل‌های هوش مصنوعی

انتروپیک با فروش مدل‌های کلود به پلتفرم‌های کدنویسی مثل GitHub Copilot مایکروسافت، Windsurf و Cursor از شرکت Anysphere، یکی از کسب‌وکارهای بزرگ سازمانی رو در بین توسعه‌دهنده‌های مدل‌های هوش مصنوعی ساخته. هرچند کلود انتخاب خیلی از توسعه‌دهنده‌هاست، اما GPT-5 با قیمت رقابتی و عملکرد خوبش در کدنویسی میتونه یک رقیب جدی باشه. حتی مایکل ترول، مدیرعامل Anysphere، در مراسم معرفی GPT-5 به اوپن‌ای‌آی کمک کرد و این مدل الان به عنوان مدل پیش‌فرض برای کاربرهای جدید Cursor انتخاب شده.

برد ایبرامز، مدیر محصول پلتفرم کلود در انتروپیک، در مصاحبه‌ای با تک‌کرانچ گفته که انتظار داره پلتفرم‌های کدنویسی از این به‌روزرسانی «بهره زیادی» ببرن. وقتی ازش پرسیده شد که آیا GPT-5 روی استفاده از API کلود تاثیر منفی گذاشته، ایبرامز این نگرانی رو کم‌اهمیت نشون داد و گفت که از رشد کسب‌وکار API شرکت «واقعا راضیه».

برخلاف اوپن‌ای‌آی که بیشتر درآمدش از اشتراک‌های کاربری ChatGPT هست، کسب‌وکار انتروپیک روی فروش مدل‌های هوش مصنوعی به شرکت‌ها از طریق API متمرکزه. همین موضوع باعث شده پلتفرم‌های کدنویسی مشتری‌های کلیدی برای انتروپیک باشن.

در مقایسه با بقیه، پنجره زمینه ۱ میلیون توکنی کلود از GPT-5 اوپن‌ای‌آی (که ۴۰۰ هزار توکن ارائه میده) بیشتره. اما مدل‌های دیگه‌ای هم هستن؛ مثلا گوگل برای Gemini 2.5 Pro پنجره زمینه ۲ میلیون توکنی و متا برای Llama 4 Scout پنجره زمینه ۱۰ میلیون توکنی رو ارائه میدن.

آیا پنجره زمینه بزرگتر همیشه بهتره؟

بحث‌هایی در مورد اینکه مدل‌های زبان بزرگ چقدر با این پنجره‌های زمینه خیلی بزرگ خوب کار میکنن وجود داره. بعضی مطالعات نشون میدن که برای کارایی این پنجره‌های زمینه بزرگ محدودیت‌هایی وجود داره.

برد ایبرامز در این مورد گفته که تیم تحقیقاتی انتروپیک نه تنها روی افزایش اندازه پنجره زمینه، بلکه روی «پنجره زمینه موثر» (effective context window) هم تمرکز کرده. این یعنی مدل کلود میتونه بیشتر اطلاعاتی که بهش داده میشه رو درک کنه. با این حال، او از افشای تکنیک‌های دقیق انتروپیک خودداری کرد.

به گفته بعضی محقق‌ها، مدل‌ها اغلب در حفظ انسجام با طولانی شدن مکالمه و افزایش حجم زمینه دچار مشکل میشن. به همین دلیل، احتمالا مهندسی زمینه (context engineering) حتی با بزرگتر شدن پنجره‌های زمینه، همچنان یک موضوع مهم باقی میمونه.

نتایج تست‌های عملی

یک تیم در «every.to» چند تست عملی روی نسخه جدید Claude Sonnet 4 انجام داد تا عملکردش رو در دنیای واقعی بسنجه.

تست اول: تحلیل متن در یک میلیون توکن

در این تست، دو صحنه از فیلم‌های مدرن (یکی از فیلم «A Real Pain» محصول ۲۰۲۴ و دیگری از «You’ve Got Mail» محصول ۱۹۹۸) در میان ۹۰۰ هزار کلمه از رمان‌های شرلوک هلمز مخفی شد. سپس از کلود Sonnet 4 و مدل‌های Gemini 2.5 Pro و Gemini 2.5 Flash خواسته شد که این صحنه‌ها رو پیدا و تحلیل کنن.

  • سرعت: کلود با اختلاف سریع‌ترین بود و در ۴۱.۸ ثانیه جواب داد, در حالی که Gemini Flash و Pro به ترتیب ۶۹.۲ و ۷۸.۰ ثانیه زمان نیاز داشتن.
  • دقت: هر سه مدل صحنه‌ها رو پیدا کردن، اما مدل‌های Gemini گاهی اسم فیلم «A Real Pain» رو اشتباه تشخیص میدادن. کلود هیچوقت دچار توهم (hallucination) نشد و اگر اسم فیلم رو نمیدونست، به سادگی اون رو ذکر نمیکرد.
  • جزئیات: مدل‌های Gemini تحلیل‌های بسیار دقیق‌تری ارائه دادن. برای مثال، Gemini Flash یک تحلیل ۳۳۷۲ کلمه‌ای داد در حالی که پاسخ کلود حدود ۵۰۰ کلمه بود.
تست دوم: تحلیل یک پایگاه کد یک میلیون توکنی

در این تست، کل پایگاه کد سیستم مدیریت محتوای Every (حدود ۲۵۰ هزار توکن) به همراه کدهای اضافی برای رسیدن به حجم یک میلیون توکن به مدل‌ها داده شد.

  • امتیاز عملکرد: کلود به طور میانگین امتیاز ۷۴.۶ رو گرفت، در حالی که Gemini 2.5 Pro و Gemini 2.5 Flash به ترتیب امتیازهای ۸۹.۷ و ۹۱.۷ رو کسب کردن.
  • سرعت: کلود با میانگین ۳۶ ثانیه، سریع‌تر از دو مدل دیگه (که حدود ۳۹ ثانیه زمان بردند) بود.
  • نتیجه این بود که کلود سریع‌تره اما در پیدا کردن جزئیات فنی سخت در کد، امتیاز کمتری نسبت به مدل‌های Gemini گرفت.
تست سوم: بازی دیپلماسی

در این تست عجیب، مدل‌ها در یک بازی استراتژیک به اسم دیپلماسی برای تسلط بر جهان با هم رقابت کردن. کلود Sonnet 4 با دریافت دستورهای تهاجمی، عملکرد خوبی داشت و بعد از یک مدل دیگه به اسم o3 در جایگاه دوم قرار گرفت. نکته قابل توجه این بود که با دستورهای اولیه و بهینه‌نشده، بهترین عملکرد رو در بین همه مدل‌ها داشت و بازی‌ها رو هم سریع‌تر از بقیه تموم میکرد.

نظر مشتری‌ها

بعضی از شرکت‌هایی که از این قابلیت جدید استفاده کردن، نظراتشون رو به اشتراک گذاشتن:

کلود Sonnet 4 همچنان مدل اصلی ما برای کارهای تولید کده و به طور مداوم بهتر از مدل‌های پیشرو دیگه عمل میکنه. با پنجره زمینه ۱ میلیون توکنی، توسعه‌دهنده‌ها حالا میتونن روی پروژه‌های خیلی بزرگتر کار کنن و همزمان دقت بالایی که برای کدنویسی در دنیای واقعی نیاز داریم رو حفظ کنن.

شرکت Bolt.new: اریک سایمونز، مدیرعامل این شرکت

چیزی که قبلا غیرممکن بود حالا به واقعیت تبدیل شده. کلود Sonnet 4 با زمینه ۱ میلیون توکنی، قابلیت‌های خودکار رو در Maestro، ایجنت مهندسی نرم‌افزار ما، به شدت تقویت کرده. این جهش، مهندسی در مقیاس تولید واقعی، یعنی جلسات چند روزه روی پایگاه‌های کد واقعی، رو ممکن میکنه.

شرکت iGent AI: شان وارد، مدیرعامل این شرکت لندنی

چطور میشه از این قابلیت استفاده کرد؟

پشتیبانی از زمینه طولانی برای Sonnet 4 در حال حاضر به صورت بتای عمومی برای مشتریان API انتروپیک با محدودیت‌های نرخ Tier 4 و سفارشی در دسترسه و در هفته‌های آینده به صورت گسترده‌تر عرضه میشه. این قابلیت در Amazon Bedrock هم موجوده و به زودی به Google Cloud’s Vertex AI اضافه خواهد شد. انتروپیک همچنین در حال بررسی این موضوعه که چطور زمینه طولانی رو به سایر محصولات کلود هم بیاره.

منابع

  • [۱] Claude Sonnet 4 now supports 1M tokens of context \ Anthropic
  • [۲] Anthropic’s Claude Sonnet 4 Model Gets a 1M Token Context Window – The New Stack
  • [۳] Anthropic’s Claude AI model can now handle longer prompts | TechCrunch
  • [۴] Vibe Check: Claude Sonnet 4 Now Has a 1-million Token Context Window

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *