نقص امنیتی جدی در بات‌های پیشرو هوش مصنوعی؛ خطر تولید محتوای خطرناک با دور زدن محدودیت‌ها

🔸 بر اساس مطالعه‌ای جدید، بات‌های هوش مصنوعی مطرح مثل ChatGPT، جمینای و کلود هنوز هم می‌توانند برای تولید محتوای خطرناک و غیرقانونی گول بخورند.
🔸 محققان می‌گویند این تهدید “فوری و بسیار نگران‌کننده” است و شرکت‌های سازنده در رفع آن کند عمل می‌کنند.
🔸 با استفاده از روش‌هایی موسوم به “جیل‌بریک” یا دور زدن محدودیت‌ها، مدل‌ها قادرند دستور ساخت بمب، هک یا قاچاق را آموزش دهند.
🔸 حتی مدل‌های خطرناک بدون محدودیت اخلاقی آنلاین فروخته می‌شوند و مدل‌های اوپن‌سورس تغییر یافته به سادگی قابل مهار نیستند.
#هوش_مصنوعی #امنیت_سایبری #جیلبریک

telegram
youtube