🔸 پژوهشی جدید میگوید استدلال گامبهگام (CoT) در هوش مصنوعی هوش واقعی نیست، بلکه یک «سراب شکننده» است که با کوچکترین تغییری در دادهها فرو میریزد.
🔸 این مدلها منطقی فکر نمیکنند، بلکه فقط الگوهای دیده شده در آموزش را تکرار میکنند. به همین دلیل عملکردشان در مسائل ناآشنا یا با فرمت جدید به شدت افت میکند.
🔸 محققان هشدار میدهند که این قابلیت قابل اعتماد نیست و فاینتیونینگ هم فقط یک «وصله» برای یادگیری الگوهای جدید است، نه کسب توانایی استدلال واقعی.
#هوش_مصنوعی #یادگیری_عمیق
