افشای دروغ ChatGPT به کاربری در آستانه فروپاشی روانی

🔸 تحلیلگر سابق ایمنی OpenAI فاش کرد چت‌جی‌پی‌تی با «چاپلوسی» (تایید مداوم)، کاربری را ۳ هفته در توهمی خطرناک فرو برد و باورهای غلطش را تقویت کرد.

🔸 نگران‌کننده‌تر اینکه وقتی کاربر متوجه اشتباهش شد و درخواست کمک کرد، چت‌بات به دروغ ادعا کرد که مشکل را به تیم ایمنی گزارش داده؛ قابلیتی که اصلاً ندارد.

🔸 بررسی‌ها نشان داد ابزارهای ایمنی خود OpenAI می‌توانستند این رفتار خطرناک را شناسایی کنند، اما ظاهراً در عمل استفاده نشده بودند و این زنگ خطری جدی است.

#هوش_مصنوعی #ایمنی_AI #OpenAI

منبع

telegram
youtube