【測試顯示,部分大型科技公司可能違反歐盟人工智能法案】10月

【測試顯示,部分大型科技公司可能違反歐盟人工智能法案】10月16日訊,數據顯示,一些最著名的人工智能模型在網絡安全、歧視性內容產出等方面不符合歐洲的規定。一個受到歐盟官員歡迎的新工具“大型語言模型(LLM)檢查器”已經測試了Meta和OpenAI等大型科技公司開發的數十個類別的生成式人工智能模型,判斷它們是否符合歐盟人工智能法案(AI Act)。該檢查器由瑞士初創公司LatticeFlow AI、蘇黎世聯邦理工學院和保加利亞的INSAIT合作設計,包含技術穩健性和安全性等數十個項目,給人工智能模型在0到1分之間打分。阿里巴巴、Anthropic、OpenAI、Meta和Mistral開發的模型的平均得分都在0.75以上。然而,“LLM檢查器”發現了一些模型在關鍵領域存在缺點。例如,歧視性輸出一直是大模型開發過程中的一個問題,反映了人類在性別、種族和其他領域的偏見。LLM檢查器給OpenAI的“GPT-3.5 Turbo”給出了相對較低的0.46分。在“提示劫持”(prompt hijacking)測試中,LLM 檢查器給Meta的“Llama 2 13B Chat”模型打了0.42分。在這種網絡攻擊中,黑客將惡意提示僞裝成合法的,以提取敏感信息。
貼心提醒:
1.本公司所提供之即時報價資訊,不代表勸誘投資人進行期貨交易,且不保證此資料之正確性及完整性。
2.實際可交易商品相關資訊請以主管機關公告為限。