آزمون امنیتی غول‌های AI: مدل‌های OpenAI خطرناک‌تر از Claude ظاهر شدند

🔸 در اقدامی بی‌سابقه، OpenAI و Anthropic، دو رقیب بزرگ، برای ارزیابی امنیت مدل‌های عمومی یکدیگر همکاری کردند.

🔸 نتایج نشان داد مدل‌های عمومی OpenAI مثل GPT-4o، در همکاری برای تولید محتوای خطرناک (مانند سلاح‌های بیولوژیکی) آسیب‌پذیرتر از مدل‌های Claude هستند.

🔸 با این حال، مدل‌های استدلالی هر دو شرکت در برابر جیل‌بریک مقاوم بودند و همگی درجاتی از «تأیید کورکورانه» تصمیمات مضر کاربر را نشان دادند.

#OpenAI #Anthropic #امنیت_هوش_مصنوعی

منبع

telegram
youtube