مدل هوش مصنوعی TRM سامسونگ، جمینای و ChatGPT را به چالش کشید

دپارتمان هوش مصنوعی شرکت سامسونگ با معرفی یک مدل نوین، دیدگاه دیرپایی در عرصه فناوری را که معتقد است مدل‌های بزرگ به طور طبیعی عملکرد بهتری دارند، به شدت به چالش کشیده است. به تازگی این شرکت جزئیات ساختار یک مدل هوش مصنوعی با نام Tiny Recursive Model یا TRM را افشا کرده است که با وجود ابعاد قابل توجهی کوچکتر، توانسته برخی از بزرگ‌ترین مدل‌های زبان بزرگ (LLMs) را در آزمون‌های استنتاج منطقی به شکست بکشاند.

طبق گزارشات منتشر شده توسط بخش رسانه‌ای توسعه تکنولوژی و فناوری تکنا، این مدل که تنها شامل یک شبکه دو لایه‌ است، با بهره‌گیری از یک رویکرد نوآورانه به نام استدلال بازگشتی، خروجی‌های خود را برای تعیین فرآیندهای بعدی به کار می‌گیرد و یک حلقه بازخورد خودبهبود را ایجاد می‌نماید. این روند به مدل این امکان را می‌دهد که بدون نیاز به حافظه و محاسبات سنگین، عملکرد یک معماری بسیار عمیق‌تر را تقلید کرده و به نتایج قابل توجهی دست یابد.

عملکرد چشمگیر مدل TRM سامسونگ در آزمون‌های چالش‌زا مانند معماهای سودوکو-اکسترم و ماز-سخت و به ویژه در بنچمارک معتبر ARC-AGI به اثبات رسیده است. این مدل توانسته دقت ۸۷.۴ درصدی را در حل سودوکو و ۸۵ درصدی را در پازل‌های پیچیده ماز محقق کند. از همه مهم‌تر، TRM در آزمون ARC-AGI-1 به دقت ۴۵ درصد و در نسخه چالش‌برانگیزتر یعنی ARC-AGI-2 موفق به کسب دقت ۸ درصد شده است.

این نتایج به جهت اهمیت زیادی که دارند، نشان می‌دهند که مدل TRM به طرز قابل توجهی از رقبای بزرگتر خود مانند DeepSeek R1 و Gemini 2.5 Pro گوگل و o3-mini شرکت OpenAI پیشی گرفته است، در حالی که تنها بخش کوچکی از پارامترهای آن‌ها را به کار می‌گیرد. این موفقیت به خوبی نشان می‌دهد که رویکرد سامسونگ، مشابه بازخوانی و ویرایش یک پیش‌نویس انسانی، در حل مسائل منطقی بسیار موثرتر از رویکردهای رایج عمل می‌کند.

این دستاورد سامسونگ پیامی واضح برای صنعت هوش مصنوعی دارد: سادگی و کارایی می‌تواند بر پیچیدگی و ابعاد غالب شود. مدل‌های زبان بزرگ کنونی غالباً در برابر مسائل منطقی آسیب‌پذیر هستند و یک خطای کوچک در زنجیره استدلال می‌تواند کل فرآیند را مختل کند.

در عوض، روش بازگشتی مدل TRM با تکرار و اصلاح مستمر، این عیب را رفع می‌نماید. محققان سامسونگ متوجه شدند که افزایش لایه‌های این مدل به خاطر پدیده بیش‌برازش یا overfitting باعث کاهش عملکرد آن می‌شود که این رویداد خود گواهی بر اصل “کمتر، بیشتر است” در این ساختار خاص می‌باشد. موفقیت TRM ثابت می‌کند که الگوریتم‌های هوشمندتر و بهینه‌تر می‌توانند به جای قدرت محاسباتی خام قرار گیرند و مسیر آینده توسعه هوش مصنوعی را به سمت مدل‌های تخصصی و کارآمدتر رهنمون سازند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا