کایمی کی‌۲: مدل متفکر متن‌باز چینی که از GPT-۵ پیشی گرفت

خلاصه

استارتاپ چینی Moonshot با مدل متن‌باز Kimi K2 Thinking توانست در چندین آزمون استاندارد از GPT-۵ و Claude Sonnet 4.5 پیشی بگیرد؛ این موفقیت با هزینه‌ای بسیار کمتر رقم خورده و بار دیگر بحث چالش آمریکا در برابر نوآوری مقرون‌به‌صرفه چینی را داغ کرده است.

مقدمه

اگر فکر می‌کردید آمریکا بی‌رقیب در جنگ مدل‌های زبان بزرگ است، مدل تازهٔ چینی «کایمی کی‌۲» ثابت کرد جدول می‌تواند برگردد. در ادامه می‌بینید این مدل چطور با بودجه‌ای اندک صدرنشین شد.

نتایج کلیدی آزمون‌ها

  • Humanity’s Last Exam: ۴۴٫۹٪ (GPT-۵: ۴۱٫۷٪)

  • BrowseComp: ۶۰٫۲٪ (توان جست‌وجوی وب)

  • Seal-0: ۵۶٫۳٪ (پرسش‌های واقعی تحقیقاتی)

  • Tau-2 Bench Telecom: ۹۳٪ دقت در کاربری عامل هوشمند

ویژگی‌های فنی کایمی کی‌۲

  • معماری Mixture-of-Experts با ۱ تریلیون پارامتر کلی و ۳۲ میلیارد پارامتر فعال در هر استنباط

  • پنجره زمینه ۲۵۶ هزار توکن

  • امکان زنجیره ۲۰۰ تا ۳۰۰ فراخوانی ابزار بدون دخالت انسان

  • آموزش با کمّیسازی INT4 برای دو برابر سرعت بیشتر

هزینه و قیمت تمام‌شده

گزارش‌ها از هزینهٔ آموزش تنها ۴٫۶ میلیون دلار خبر می‌دهند؛ قیمت API این مدل ۶ تا ۱۰ برابر ارزان‌تر از رقبای آمریکایی است.

واکنش بازار و کارشناسان

  • توماس وولف (هugging Face): «باز هم یک مدل متن‌باز از مدل بسته پیشی گرفت؛ آیا هر چند ماه یک‌بار چنین روزی تکرار می‌شود؟»

  • دییدی داس (Menlo Ventures): «نقطهٔ عطفی در AI؛ مدل متن‌باز چینی در صدر قرار گرفت.»

  • ناتان لامبرت (Allen Institute): «فاصلهٔ نسخه‌های بسته و باز به ۴ تا ۶ ماه رسیده و آزمایشگاه‌های چینی به‌شدت نزدیک شده‌اند.»

مجوز استفاده

کایمی کی‌۲ با مجوز MIT تغییریافته عرضه شده؛ هر سرویسی که بالای ۱۰۰ میلیون کاربر ماهانه یا ۲۰ میلیون دلار درآمد ماهانه داشته باشد باید نام Kimi K2 را در رابط کاربری خود نمایش دهد.

جمع‌بندی

کایمی کی‌۲ نشان داد نوآوری مقرون‌به‌صرفه چینی دیگر یک اتفاق نیست؛ رقابت بر سر کارایی و قیمت تمام‌شده است. اگر آمریکا بخواهد پیشگامی خود را حفظ کند، باید هم هزینه را پایین بیاورد و هم سرعت انتشار مدل‌های متن‌بازش را بالا ببرد.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *