【OpenAI組建新團隊防範AI的“災難性風險”】10月27

【OpenAI組建新團隊防範AI的“災難性風險”】10月27日訊,在週四的一篇博文中,OpenAI宣佈其已經成立了一個名爲“準備”(Preparedness)的團隊,將分析並試圖防範人工智能系統潛在的“災難性風險”,從網絡安全問題到化學、核和生物威脅。該團隊還將制定一項政策,旨在幫助公司確定如何降低開發 “前沿模型"(比目前技術能力更強的下一代人工智能技術)可能帶來的風險。長期以來,OpenAI的目標一直集中在構建通用人工智能(AGI)上,即能夠比人類更好地執行一系列任務的人工智能。雖然目前的系統並不符合這一描述,但該公司表示其需要 "確保我們擁有高性能人工智能系統安全所需的理解和基礎設施"。
貼心提醒:
1.本公司所提供之即時報價資訊,不代表勸誘投資人進行期貨交易,且不保證此資料之正確性及完整性。
2.實際可交易商品相關資訊請以主管機關公告為限。