🔸 محققان متا و دانشگاه عبری کشف کردند: مجبور کردن مدلهای هوش مصنوعی (LLM) به «فکر کردن» کمتر، در وظایف پیچیده عملکرد بهتری دارد و یافتههای رایج را به چالش میکشد.
🔸 زنجیرههای استدلالی کوتاهتر نه تنها نتایج دقیقتری (تا ۳۴.۵٪) ارائه میدهند، بلکه هزینههای محاسباتی (تا ۴۰٪ صرفهجویی) و زمان پردازش را نیز به شکل قابل توجهی کاهش میدهند.
🔸 این یافته نشان میدهد برای شرکتها، تمرکز بر بهینهسازی و کارایی مهمتر از افزایش صرف قدرت پردازش است و میتواند به صرفهجویی چشمگیر در هزینهها منجر شود.
#هوش_مصنوعی #AI #LLM
🔸 زنجیرههای استدلالی کوتاهتر نه تنها نتایج دقیقتری (تا ۳۴.۵٪) ارائه میدهند، بلکه هزینههای محاسباتی (تا ۴۰٪ صرفهجویی) و زمان پردازش را نیز به شکل قابل توجهی کاهش میدهند.
🔸 این یافته نشان میدهد برای شرکتها، تمرکز بر بهینهسازی و کارایی مهمتر از افزایش صرف قدرت پردازش است و میتواند به صرفهجویی چشمگیر در هزینهها منجر شود.
#هوش_مصنوعی #AI #LLM
