خلاصه
استارتاپ چینی Moonshot با مدل متنباز Kimi K2 Thinking توانست در چندین آزمون استاندارد از GPT-۵ و Claude Sonnet 4.5 پیشی بگیرد؛ این موفقیت با هزینهای بسیار کمتر رقم خورده و بار دیگر بحث چالش آمریکا در برابر نوآوری مقرونبهصرفه چینی را داغ کرده است.
مقدمه
اگر فکر میکردید آمریکا بیرقیب در جنگ مدلهای زبان بزرگ است، مدل تازهٔ چینی «کایمی کی۲» ثابت کرد جدول میتواند برگردد. در ادامه میبینید این مدل چطور با بودجهای اندک صدرنشین شد.
نتایج کلیدی آزمونها
Humanity’s Last Exam: ۴۴٫۹٪ (GPT-۵: ۴۱٫۷٪)
BrowseComp: ۶۰٫۲٪ (توان جستوجوی وب)
Seal-0: ۵۶٫۳٪ (پرسشهای واقعی تحقیقاتی)
Tau-2 Bench Telecom: ۹۳٪ دقت در کاربری عامل هوشمند
ویژگیهای فنی کایمی کی۲
معماری Mixture-of-Experts با ۱ تریلیون پارامتر کلی و ۳۲ میلیارد پارامتر فعال در هر استنباط
پنجره زمینه ۲۵۶ هزار توکن
امکان زنجیره ۲۰۰ تا ۳۰۰ فراخوانی ابزار بدون دخالت انسان
آموزش با کمّیسازی INT4 برای دو برابر سرعت بیشتر
هزینه و قیمت تمامشده
گزارشها از هزینهٔ آموزش تنها ۴٫۶ میلیون دلار خبر میدهند؛ قیمت API این مدل ۶ تا ۱۰ برابر ارزانتر از رقبای آمریکایی است.
واکنش بازار و کارشناسان
توماس وولف (هugging Face): «باز هم یک مدل متنباز از مدل بسته پیشی گرفت؛ آیا هر چند ماه یکبار چنین روزی تکرار میشود؟»
دییدی داس (Menlo Ventures): «نقطهٔ عطفی در AI؛ مدل متنباز چینی در صدر قرار گرفت.»
ناتان لامبرت (Allen Institute): «فاصلهٔ نسخههای بسته و باز به ۴ تا ۶ ماه رسیده و آزمایشگاههای چینی بهشدت نزدیک شدهاند.»
مجوز استفاده
کایمی کی۲ با مجوز MIT تغییریافته عرضه شده؛ هر سرویسی که بالای ۱۰۰ میلیون کاربر ماهانه یا ۲۰ میلیون دلار درآمد ماهانه داشته باشد باید نام Kimi K2 را در رابط کاربری خود نمایش دهد.
جمعبندی
کایمی کی۲ نشان داد نوآوری مقرونبهصرفه چینی دیگر یک اتفاق نیست؛ رقابت بر سر کارایی و قیمت تمامشده است. اگر آمریکا بخواهد پیشگامی خود را حفظ کند، باید هم هزینه را پایین بیاورد و هم سرعت انتشار مدلهای متنبازش را بالا ببرد.
