تحقیقات متا و دانشگاه عبری: AI هرچه کمتر «فکر» کند، دقیق‌تر می‌شود!

🔸 محققان متا و دانشگاه عبری کشف کردند: مجبور کردن مدل‌های هوش مصنوعی (LLM) به «فکر کردن» کمتر، در وظایف پیچیده عملکرد بهتری دارد و یافته‌های رایج را به چالش می‌کشد.
🔸 زنجیره‌های استدلالی کوتاه‌تر نه تنها نتایج دقیق‌تری (تا ۳۴.۵٪) ارائه می‌دهند، بلکه هزینه‌های محاسباتی (تا ۴۰٪ صرفه‌جویی) و زمان پردازش را نیز به شکل قابل توجهی کاهش می‌دهند.
🔸 این یافته نشان می‌دهد برای شرکت‌ها، تمرکز بر بهینه‌سازی و کارایی مهم‌تر از افزایش صرف قدرت پردازش است و می‌تواند به صرفه‌جویی چشمگیر در هزینه‌ها منجر شود.
#هوش_مصنوعی #AI #LLM

منبع

telegram
youtube