
مدلهای Qwen3 علیبابا وارد میدان رقابت جهانی شدند

شرکت چینی علیبابا با معرفی خانواده مدلهای متنباز Qwen3 گام بزرگی در رقابت جهانی هوش مصنوعی برداشته است. این مدلها نهتنها از نظر عملکرد به سطح رقبای آمریکایی نزدیک شدهاند، بلکه با معماریهای ترکیبی و استدلالمحور خود، چالشی مستقیم برای برتری فناوری آمریکا ایجاد کردهاند. پشت این رقابت فنی، اما نبردی ژئوپلتیکی بر سر تسلط بر آینده هوش مصنوعی در جریان است.
به گزارش اقتصادآنلاین، شرکت فناوری چینی علیبابا روز دوشنبه از خانواده جدید مدلهای هوش مصنوعی متنباز خود با نام Qwen۳ رونمایی کرد؛ مجموعهای از مدلها که به گفته شرکت توانایی رقابت با مدلهای پیشرفته آمریکایی مانند محصولات اوپنایآی و گوگل را دارند و حتی در برخی حوزهها عملکرد بهتری ارائه میدهند.
براساس گزارش تککرانچ، مدلهای Qwen۳ که برخی از آنها هماکنون برای دانلود روی پلتفرمهایی نظیر Hugging Face و GitHub در دسترس قرار گرفتهاند، از نظر حجم، دامنهای از ۰.۶ میلیارد تا ۲۳۵ میلیارد پارامتر را در بر میگیرند. در دنیای هوش مصنوعی، پارامترها شاخصی برای سنجش قدرت مدلها در حل مسائل هستند و هرچه این عدد بالاتر باشد، مدل بالقوه پیچیدهتر و تواناتر است.
پیشرفت سریع مدلهای بومی چین بهویژه با وجود محدودیتهای شدید در دسترسی به پردازندههای پیشرفته آمریکایی، فشار زیادی بر شرکتهایی مانند OpenAI وارد کرده و باعث شده ایالات متحده اقدام به اعمال محدودیتهای بیشتر در صادرات تراشه به چین کند. با این حال، علیبابا در حال نمایش توانایی فنی خود در توسعه مدلهایی با عملکرد رقابتی در غیاب سختافزار پیشرفته آمریکایی است.
ویژگی متمایز Qwen۳ طراحی ترکیبی آن است؛ بهطوریکه این مدلها میتوانند هنگام برخورد با مسائل پیچیده، به حالت استدلال وارد شوند و زمان بیشتری برای تحلیل صرف کنند، درحالیکه برای درخواستهای ساده سرعت پاسخدهی بالایی دارند. این رویکرد باعث شده Qwen۳ پاسخهایی تولید کند که در برخی موارد بهصورت درونمدلی صحتسنجی شدهاند. این طراحی مشابه آن چیزی است که OpenAI در مدلهای سری o۳ اجرا کرده است.
تیم توسعه Qwen اعلام کرده ترکیب حالتهای تفکری و غیرتفکری در این مدلها باعث شده کاربران بتوانند بسته به نیاز، بودجه محاسباتی را برای وظایف مختلف بهینه کنند. از سوی دیگر، برخی از مدلهای Qwen۳ مبتنی بر معماری Mixture of Experts (ترکیب متخصصان) هستند؛ روشی که به افزایش بهرهوری محاسباتی و کاهش هزینهها کمک میکند و در آن، وظایف پیچیده به اجزای کوچکتری تقسیم شده و به مدلهای تخصصی واگذار میشود.
علیبابا میگوید مدلهای سری Qwen۳ از ۱۱۹ زبان مختلف پشتیبانی میکنند و در فرآیند آموزش آنها حدود ۳۶ تریلیون توکن استفاده شده است. توکنها واحدهای ورودی و خروجی مدل هستند که حدوداً هر یک میلیون توکن معادل ۷۵۰ هزار کلمه است. این مجموعه داده از منابع متنوعی، چون کتاب درسی، کدهای برنامهنویسی، دادههای تولیدشده توسط AI و جفتهای پرسشوپاسخ تشکیل شده است.
عملکرد این سری از مدلها در مقایسه با نسخه قبلی Qwen۲ بهطور محسوسی ارتقا یافته است. اگرچه هنوز هیچیک از مدلهای Qwen۳ از نظر جامعیت به پای مدلهایی مانند GPT-۴ نرسیدهاند، اما برخی از آنها در آزمونهای خاص از جمله Codeforces و AIME عملکردی بهتر از مدلهایی، چون o۳-mini داشتهاند. مدل Qwen-۳-۲۳۵B-A۲۲B که بزرگترین عضو این خانواده است، توانسته در برخی تستها از o۳-mini عبور کند، هرچند در برابر Gemini ۲.۵ Pro گوگل همچنان عقبتر است.
این مدل هنوز برای استفاده عمومی عرضه نشده و بزرگترین مدل عرضهشده Qwen۳-۳۲B نام دارد که بهگفته علیبابا، در برخی تستهای برنامهنویسی از مدل o۱ شرکت OpenAI نیز بهتر عمل کرده است. علاوهبر این، مدلهای Qwen۳ در قابلیتهایی مانند tool-calling، پیروی دقیق از دستورالعملها و حفظ ساختار دادهها عملکرد بالایی از خود نشان دادهاند.
این مدلها نهفقط برای دانلود، بلکه از طریق ارائهدهندگان خدمات ابری مانند Fireworks AI و Hyperbolic نیز در دسترس هستند. توهین سریواستاوا، مدیرعامل Baseten، در مصاحبه با تککرانچ گفته مدلهای Qwen۳ مصداق پیشروی سریع مدلهای متنباز هستند که فاصله خود را با مدلهای بسته آمریکایی مانند ابزارهای OpenAI با سرعت فزایندهای کم میکنند.
او تأکید کرده درحالیکه ایالات متحده تلاش میکند صادرات چیپها به چین را محدود کند، چین با اتکا به توان داخلی همزمان در حال ساخت ابزارهای خودش است و هم از محصولات شرکتهایی مثل OpenAI و Anthropic بهره میبرد. مدلهای Qwen۳ اکنون نهتنها یک محصول فنی، بلکه یک ابزار رقابت ژئوپلتیکی هستند؛ رقابتی که آینده قدرت در حوزه هوش مصنوعی را در سطح جهانی بازتعریف میکند.