AI模型安全性評估與互測分析

【OpenAI與Anthropic互測模型幻覺與安全性等問題】8月28日訊,OpenAI和Anthropic近日互相對對方的模型進行了評估,以期發現自身測試中可能遺漏的問題。兩家公司週三在各自的博客上表示,今年夏天,它們針對對方公開可用的AI模型進行了安全性測試,並檢驗了模型是否存在幻覺傾向,以及所謂“失準”(misalignment)的問題,即模型未按開發者預期運行。這些評估是在OpenAI推出GPT-5,以及Anthropic在8月初發布Opus 4.1之前完成的。Anthropic由前OpenAI員工創立。
貼心提醒:
1.本公司所提供之即時報價資訊,不代表勸誘投資人進行期貨交易,且不保證此資料之正確性及完整性。
2.實際可交易商品相關資訊請以主管機關公告為限。