شرکت انتروپیک (Anthropic) اعلام کرده که مدل هوش مصنوعی Claude Sonnet 4 حالا از پنجره زمینه (Context Window) یک میلیون توکنی پشتیبانی میکنه. این یعنی یک افزایش ۵ برابری نسبت به قبل که به کاربرها و توسعهدهندهها اجازه میده حجم خیلی زیادی از اطلاعات رو در یک درخواست به مدل بدن. برای اینکه بهتر متوجه بشیم، یک میلیون توکن تقریبا معادل ۷۵۰ هزار کلمه (بیشتر از کل سهگانه «ارباب حلقهها») یا حدود ۷۵ هزار خط کد هست.
این قابلیت جدید در حال حاضر به صورت بتای عمومی روی API انتروپیک و همچنین در Amazon Bedrock در دسترسه و به زودی به Vertex AI گوگل کلود هم اضافه میشه.
خلاصه
- کلود سونت ۴ انتروپیک الان از یه پنجره زمینه یک میلیون توکنی پشتیبانی میکنه که پنج برابر بیشتر از قبله؛ این یعنی حجم عظیمی از اطلاعات رو میتونه پردازش کنه.
- این قابلیت جدید برای کارهایی مثل تحلیل کدهای خیلی بزرگ، خلاصه کردن اسناد حجیم و ساخت ایجنتهای هوشمند خیلی مفیده.
- انتروپیک برای درخواستهای بالای ۲۰۰ هزار توکن، قیمتگذاری جدیدی داره که گرونتره، ولی میشه با کش کردن و پردازش دستهای، هزینهها رو کم کرد.
- کلود سونت ۴ از نظر ظرفیت پنجره زمینه از GPT-5 اوپنایآی بالاتره.
با این ظرفیت بالا چه کارهایی میشه انجام داد؟
افزایش پنجره زمینه، کاربردهای جدید و پیچیدهتری رو برای کلود ممکن میکنه. چند تا از این کاربردها اینها هستن:
- تحلیل کدهای خیلی بزرگ: توسعهدهندهها میتونن کل یک پایگاه کد (codebase) رو همراه با فایلهای منبع، تستها و مستنداتش به مدل بدن. کلود میتونه معماری پروژه رو بفهمه، وابستگیهای بین فایلهای مختلف رو پیدا کنه و پیشنهادهایی برای بهبود بده که کل طراحی سیستم رو در نظر میگیره.
- خلاصهسازی و تحلیل اسناد حجیم: میشه مجموعههای بزرگی از اسناد مثل قراردادهای حقوقی، مقالههای تحقیقاتی یا مشخصات فنی رو پردازش کرد و ارتباط بین صدها سند رو با حفظ کامل زمینه تحلیل کرد.
- ایجاد ایجنتهای آگاه از زمینه: میشه ایجنتهایی ساخت که حتی بعد از صدها بار فراخوانی ابزارها و طی کردن مراحل مختلف یک کار، زمینه رو حفظ کنن. با این قابلیت، میشه مستندات کامل API، تعریف ابزارها و تاریخچه تعاملات رو بدون از دست دادن انسجام در اختیار ایجنت قرار داد.
هزینهها چطور محاسبه میشه؟
با توجه به اینکه پردازش حجم بالای اطلاعات محاسبات بیشتری لازم داره، قیمتگذاری برای درخواستهای بیشتر از ۲۰۰ هزار توکن تغییر میکنه. جزئیات قیمتگذاری به این شکله:
نوع درخواست | هزینه ورودی (Input) | هزینه خروجی (Output) |
---|---|---|
درخواستهای تا ۲۰۰ هزار توکن | ۳ دلار به ازای هر میلیون توکن | ۱۵ دلار به ازای هر میلیون توکن |
درخواستهای بیشتر از ۲۰۰ هزار توکن | ۶ دلار به ازای هر میلیون توکن | ۲۲.۵۰ دلار به ازای هر میلیون توکن |
انتروپیک اشاره کرده که با استفاده از قابلیت کش کردن درخواست (prompt caching) میشه تاخیر و هزینهها رو کم کرد. همچنین استفاده از حالت پردازش دستهای (batch processing) میتونه یک تخفیف ۵۰ درصدی دیگه روی هزینهها اعمال کنه.
رقابت در بازار مدلهای هوش مصنوعی
انتروپیک با فروش مدلهای کلود به پلتفرمهای کدنویسی مثل GitHub Copilot مایکروسافت، Windsurf و Cursor از شرکت Anysphere، یکی از کسبوکارهای بزرگ سازمانی رو در بین توسعهدهندههای مدلهای هوش مصنوعی ساخته. هرچند کلود انتخاب خیلی از توسعهدهندههاست، اما GPT-5 با قیمت رقابتی و عملکرد خوبش در کدنویسی میتونه یک رقیب جدی باشه. حتی مایکل ترول، مدیرعامل Anysphere، در مراسم معرفی GPT-5 به اوپنایآی کمک کرد و این مدل الان به عنوان مدل پیشفرض برای کاربرهای جدید Cursor انتخاب شده.
برد ایبرامز، مدیر محصول پلتفرم کلود در انتروپیک، در مصاحبهای با تککرانچ گفته که انتظار داره پلتفرمهای کدنویسی از این بهروزرسانی «بهره زیادی» ببرن. وقتی ازش پرسیده شد که آیا GPT-5 روی استفاده از API کلود تاثیر منفی گذاشته، ایبرامز این نگرانی رو کماهمیت نشون داد و گفت که از رشد کسبوکار API شرکت «واقعا راضیه».
برخلاف اوپنایآی که بیشتر درآمدش از اشتراکهای کاربری ChatGPT هست، کسبوکار انتروپیک روی فروش مدلهای هوش مصنوعی به شرکتها از طریق API متمرکزه. همین موضوع باعث شده پلتفرمهای کدنویسی مشتریهای کلیدی برای انتروپیک باشن.
در مقایسه با بقیه، پنجره زمینه ۱ میلیون توکنی کلود از GPT-5 اوپنایآی (که ۴۰۰ هزار توکن ارائه میده) بیشتره. اما مدلهای دیگهای هم هستن؛ مثلا گوگل برای Gemini 2.5 Pro پنجره زمینه ۲ میلیون توکنی و متا برای Llama 4 Scout پنجره زمینه ۱۰ میلیون توکنی رو ارائه میدن.
آیا پنجره زمینه بزرگتر همیشه بهتره؟
بحثهایی در مورد اینکه مدلهای زبان بزرگ چقدر با این پنجرههای زمینه خیلی بزرگ خوب کار میکنن وجود داره. بعضی مطالعات نشون میدن که برای کارایی این پنجرههای زمینه بزرگ محدودیتهایی وجود داره.
برد ایبرامز در این مورد گفته که تیم تحقیقاتی انتروپیک نه تنها روی افزایش اندازه پنجره زمینه، بلکه روی «پنجره زمینه موثر» (effective context window) هم تمرکز کرده. این یعنی مدل کلود میتونه بیشتر اطلاعاتی که بهش داده میشه رو درک کنه. با این حال، او از افشای تکنیکهای دقیق انتروپیک خودداری کرد.
به گفته بعضی محققها، مدلها اغلب در حفظ انسجام با طولانی شدن مکالمه و افزایش حجم زمینه دچار مشکل میشن. به همین دلیل، احتمالا مهندسی زمینه (context engineering) حتی با بزرگتر شدن پنجرههای زمینه، همچنان یک موضوع مهم باقی میمونه.
نتایج تستهای عملی
یک تیم در «every.to» چند تست عملی روی نسخه جدید Claude Sonnet 4 انجام داد تا عملکردش رو در دنیای واقعی بسنجه.
تست اول: تحلیل متن در یک میلیون توکن
در این تست، دو صحنه از فیلمهای مدرن (یکی از فیلم «A Real Pain» محصول ۲۰۲۴ و دیگری از «You’ve Got Mail» محصول ۱۹۹۸) در میان ۹۰۰ هزار کلمه از رمانهای شرلوک هلمز مخفی شد. سپس از کلود Sonnet 4 و مدلهای Gemini 2.5 Pro و Gemini 2.5 Flash خواسته شد که این صحنهها رو پیدا و تحلیل کنن.
- سرعت: کلود با اختلاف سریعترین بود و در ۴۱.۸ ثانیه جواب داد, در حالی که Gemini Flash و Pro به ترتیب ۶۹.۲ و ۷۸.۰ ثانیه زمان نیاز داشتن.
- دقت: هر سه مدل صحنهها رو پیدا کردن، اما مدلهای Gemini گاهی اسم فیلم «A Real Pain» رو اشتباه تشخیص میدادن. کلود هیچوقت دچار توهم (hallucination) نشد و اگر اسم فیلم رو نمیدونست، به سادگی اون رو ذکر نمیکرد.
- جزئیات: مدلهای Gemini تحلیلهای بسیار دقیقتری ارائه دادن. برای مثال، Gemini Flash یک تحلیل ۳۳۷۲ کلمهای داد در حالی که پاسخ کلود حدود ۵۰۰ کلمه بود.
تست دوم: تحلیل یک پایگاه کد یک میلیون توکنی
در این تست، کل پایگاه کد سیستم مدیریت محتوای Every (حدود ۲۵۰ هزار توکن) به همراه کدهای اضافی برای رسیدن به حجم یک میلیون توکن به مدلها داده شد.
- امتیاز عملکرد: کلود به طور میانگین امتیاز ۷۴.۶ رو گرفت، در حالی که Gemini 2.5 Pro و Gemini 2.5 Flash به ترتیب امتیازهای ۸۹.۷ و ۹۱.۷ رو کسب کردن.
- سرعت: کلود با میانگین ۳۶ ثانیه، سریعتر از دو مدل دیگه (که حدود ۳۹ ثانیه زمان بردند) بود.
- نتیجه این بود که کلود سریعتره اما در پیدا کردن جزئیات فنی سخت در کد، امتیاز کمتری نسبت به مدلهای Gemini گرفت.
تست سوم: بازی دیپلماسی
در این تست عجیب، مدلها در یک بازی استراتژیک به اسم دیپلماسی برای تسلط بر جهان با هم رقابت کردن. کلود Sonnet 4 با دریافت دستورهای تهاجمی، عملکرد خوبی داشت و بعد از یک مدل دیگه به اسم o3 در جایگاه دوم قرار گرفت. نکته قابل توجه این بود که با دستورهای اولیه و بهینهنشده، بهترین عملکرد رو در بین همه مدلها داشت و بازیها رو هم سریعتر از بقیه تموم میکرد.
نظر مشتریها
بعضی از شرکتهایی که از این قابلیت جدید استفاده کردن، نظراتشون رو به اشتراک گذاشتن:
کلود Sonnet 4 همچنان مدل اصلی ما برای کارهای تولید کده و به طور مداوم بهتر از مدلهای پیشرو دیگه عمل میکنه. با پنجره زمینه ۱ میلیون توکنی، توسعهدهندهها حالا میتونن روی پروژههای خیلی بزرگتر کار کنن و همزمان دقت بالایی که برای کدنویسی در دنیای واقعی نیاز داریم رو حفظ کنن.
شرکت Bolt.new: اریک سایمونز، مدیرعامل این شرکت
چیزی که قبلا غیرممکن بود حالا به واقعیت تبدیل شده. کلود Sonnet 4 با زمینه ۱ میلیون توکنی، قابلیتهای خودکار رو در Maestro، ایجنت مهندسی نرمافزار ما، به شدت تقویت کرده. این جهش، مهندسی در مقیاس تولید واقعی، یعنی جلسات چند روزه روی پایگاههای کد واقعی، رو ممکن میکنه.
شرکت iGent AI: شان وارد، مدیرعامل این شرکت لندنی
چطور میشه از این قابلیت استفاده کرد؟
پشتیبانی از زمینه طولانی برای Sonnet 4 در حال حاضر به صورت بتای عمومی برای مشتریان API انتروپیک با محدودیتهای نرخ Tier 4 و سفارشی در دسترسه و در هفتههای آینده به صورت گستردهتر عرضه میشه. این قابلیت در Amazon Bedrock هم موجوده و به زودی به Google Cloud’s Vertex AI اضافه خواهد شد. انتروپیک همچنین در حال بررسی این موضوعه که چطور زمینه طولانی رو به سایر محصولات کلود هم بیاره.
دیدگاهتان را بنویسید