谷歌、微軟等“七巨頭”發聲:自愿承諾AI監管八項措施
導讀: 當地時間7月21日,包括谷歌、微軟、OpenAI、亞馬遜、Meta、Anthropic、Inflection在內的七家頂級人工智能公司承諾,將為消費者創建識別生成式人工智能的方法,并確保在生成式人工智能工具發布前,會測試其安
當地時間7月21日,包括谷歌、微軟、OpenAI、亞馬遜、Meta、Anthropic、Inflection在內的七家頂級人工智能公司承諾,將為消費者創建識別生成式人工智能的方法,并確保在生成式人工智能工具發布前,會測試其安全性。
美國對于人工智能的監管是全球較為寬松的,因此人工智能創新也能在美國得以較快的發展。然而,自從OpenAI去年年底發布ChatGPT以來,生成式AI的安全性已成為人工智能領域的首要關注點。頂級科技公司和投資者正在向生成式AI背后的大型語言模型投入數十億美元。
今天,這些企業同意為生成式AI技術的快速發展提供新的保障措施。這些措施包括為人工智能內容添加水印,以使其更容易識別,以及對技術進行第三方測試,以試圖發現危險的缺陷。
具體而言一共涉及八項措施:在音頻和視頻內容上使用水印來幫助識別人工智能生成的內容;在向公眾發布工具之前,請獨立專家評估其工具的安全性;與其他行業參與者、政府和外部專家分享有關最佳實踐和規避安全措施的嘗試的信息;投資網絡安全措施;鼓勵第三方發現安全漏洞;報告技術的局限性并指導適當使用人工智能工具;優先研究人工智能的社會風險,包括歧視和隱私問題;使用最前沿的人工智能系統(前沿模型)來解決社會最嚴重的問題,例如緩解氣候變化和疾病等社會挑戰。
以上為企業的自愿承諾,這些措施將成為美國國會通過正式的人工智能監管法規之前解決風險的直接方法。美國國會正在考慮有關人工智能的規則,但這一實施標準的制定可能需要數月或數年的時間推出。
責任編輯:zsz