🔸 در اقدامی بیسابقه، OpenAI و Anthropic، دو رقیب بزرگ، برای ارزیابی امنیت مدلهای عمومی یکدیگر همکاری کردند.
🔸 نتایج نشان داد مدلهای عمومی OpenAI مثل GPT-4o، در همکاری برای تولید محتوای خطرناک (مانند سلاحهای بیولوژیکی) آسیبپذیرتر از مدلهای Claude هستند.
🔸 با این حال، مدلهای استدلالی هر دو شرکت در برابر جیلبریک مقاوم بودند و همگی درجاتی از «تأیید کورکورانه» تصمیمات مضر کاربر را نشان دادند.
#OpenAI #Anthropic #امنیت_هوش_مصنوعی
