【中文科技資訊】10月27日消息,美國人工智能研究公司OpenAI近日宣布成立一支名為“Preparedness”的新團隊,旨在評估和減輕與人工智能(AI)相關的“潛在災難性風險”。
據悉,這一團隊將由麻省理工學院可部署機器學習中心主任亞歷山大·馬德里(Aleksander Madry)領導,致力于監測、評估、預測以及防范由人工智能技術引發的各種潛在災難性風險。這一舉措標志著OpenAI在積極應對AI倫理和安全問題方面邁出了重要一步。

OpenAI還透露,新團隊的職責之一是制定和維護風險知情發展政策(RDP)。這一政策將作為現有風險管理工作的補充和擴展,有助于確保新一代高性能AI系統在部署前和部署后的安全性和一致性。
OpenAI成立于2015年,由特斯拉CEO埃隆?馬斯克(Elon Musk)、美國創業孵化器Y Combinator總裁阿爾特曼、全球在線支付平臺PayPal聯合創始人彼得·蒂爾等硅谷科技大亨聯合創辦。公司一直專注于人工智能技術的應用領域。
OpenAI的CEO薩姆?奧爾特曼(Sam Altman)一直以來都是一位備受關注的人工智能末日預言家,他反復強調人工智能可能帶來“人類滅絕”的風險。奧爾特曼多次呼吁減輕這一潛在風險,將其列為全球的優先任務。
今年5月,奧爾特曼與其他杰出的人工智能研究者共同發布了一份聲明,倡導將減輕AI引發的潛在“毀滅性風險”置于全球議程的前沿。
OpenAI繼續加強其安全措施,于今年9月推出了“紅隊網絡”(Red Teaming Network),并邀請各領域專家參與,以提高其人工智能模型的安全性。這些專家將通過協助評估和減輕模型風險,為增強OpenAI的人工智能系統穩健性發揮關鍵作用。這一系列措施凸顯了OpenAI對AI倫理和安全問題的高度重視。












