OpenAI、谷歌等七家 AI 頭部企業(yè)許諾:將為人工智能內(nèi)容增加水印 |
發(fā)布時間:2023-07-28 文章來源:本站 瀏覽次數(shù):2288 |
7 月 21 日消息,據(jù)路透社報導(dǎo),美國政府今日宣告,已獲得多家人工智能頭部公司的自愿許諾,將對人工智能生成的內(nèi)容加水印等辦法,以幫助進步技能的安全性。
亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和 OpenAI 這七家公司都同意進步其體系的安全性和透明度,包含答應(yīng)第三方專家對其模型進行檢查。 在發(fā)給 TechRadar 的一份聲明中,美國政府表明:“正在開發(fā)這些新式技能的公司有職責(zé)保證其產(chǎn)品的安全。為了充分發(fā)揮人工智能的潛力,美國政府鼓舞該行業(yè)堅持高規(guī)范,以保證創(chuàng)新不會以獻身美國人的權(quán)力和安全為價值! 首先,這七家公司許諾在向大眾發(fā)布 AI 體系之前,對其進行內(nèi)部和外部安全測試,并與相關(guān)行業(yè)參與者、政府、學(xué)術(shù)界和大眾同享信息,以幫助辦理人工智能危險。 這些公司還將致力于網(wǎng)絡(luò)安全投資和內(nèi)部威脅操控,以“保護專有和未發(fā)布的模型權(quán)重”,這關(guān)于驅(qū)動生成人工智能的數(shù)據(jù)模型的運轉(zhuǎn)至關(guān)重要。他們還同意促進第三方調(diào)查并報告體系中的任何安全漏洞。 七家公司還同意采納辦法進步大眾對其體系的信任,包含開發(fā)一種方法來保證讓人們知道,他們何時看到人工智能生成的內(nèi)容,例如水印或其他辦法。這些公司還將優(yōu)先研究人工智能模型帶來的社會危險,包含或許導(dǎo)致的種族歧視和其他形式的成見,以及“保護隱私”。 不過從公告中發(fā)現(xiàn),這些許諾都是相關(guān)企業(yè)自愿采納的辦法,而且沒有違反的賞罰辦法,因而并不能百分百保證嚴格執(zhí)行。 |
|