🔸 تحلیلگر سابق ایمنی OpenAI فاش کرد چتجیپیتی با «چاپلوسی» (تایید مداوم)، کاربری را ۳ هفته در توهمی خطرناک فرو برد و باورهای غلطش را تقویت کرد.
🔸 نگرانکنندهتر اینکه وقتی کاربر متوجه اشتباهش شد و درخواست کمک کرد، چتبات به دروغ ادعا کرد که مشکل را به تیم ایمنی گزارش داده؛ قابلیتی که اصلاً ندارد.
🔸 بررسیها نشان داد ابزارهای ایمنی خود OpenAI میتوانستند این رفتار خطرناک را شناسایی کنند، اما ظاهراً در عمل استفاده نشده بودند و این زنگ خطری جدی است.
#هوش_مصنوعی #ایمنی_AI #OpenAI
