🔸 تحقیق جدید OpenAI نشان میدهد توهم (Hallucination) در مدلهای زبانی یک باگ نیست، بلکه پیامدی ریاضی و اجتنابناپذیر است که حتی با دادههای آموزشی بینقص هم رخ میدهد.
🔸 مشکل اصلی، بنچمارکهایی هستند که مدلها را به حدس زدن تشویق میکنند؛ زیرا پاسخ «نمیدانم» امتیازی برابر با پاسخ کاملاً غلط دریافت میکند و این استراتژی را بهینه میسازد.
🔸 راهحل فنی (ابراز عدم قطعیت) به دلیل هزینه بالای محاسباتی و عدم استقبال کاربران، برای محصولات عمومی غیرعملی است. در نتیجه انگیزههای تجاری فعلاً با کاهش توهم همسو نیستند.
#هوش_مصنوعی #اوپنایآی #توهم_مصنوعی
