2024年5月30日,新加坡人工智能驗證基金會(AI Verify Foundation)與新加坡信息通信媒體發(fā)展管理局(Infocomm Media Development Authority of Singapore, IMDA)聯(lián)合發(fā)布《生成式人工智能模型治理框架》[1](Model AI Governance Framework for Generative AI),提出生成式人工智能治理九個維度,。這是AI Verify Foundation和IMDA整理全球70余政府,、企業(yè)、研究機構(gòu)對于今年1月發(fā)布《生成式人工智能模型治理框架草案》[2]的反饋后形成的正式框架,,但兩者差異不大,。以下是《生成式人工智能模型治理框架》(以下簡稱《框架》)提出促進培育可信生態(tài)的九個治理維度介紹,。
一是可問責(zé),?!犊蚣堋诽岢觯蓡栘?zé)是培育可信人工智能生態(tài)的關(guān)鍵因素,,人工智能開發(fā)全鏈條的參與者,,包括模型開發(fā)者、應(yīng)用程序部署者,、云服務(wù)提供商等都需要對最終用戶負責(zé),。在問責(zé)框架的設(shè)計上,需要在事前根據(jù)開發(fā)鏈參與者的控制能力分配義務(wù)和責(zé)任,,并設(shè)計事后補救措施,,考慮保險和賠償安排 。
二是數(shù)據(jù),?!犊蚣堋诽岢觯瑪?shù)據(jù)是模型訓(xùn)練和應(yīng)用程序開發(fā)的核心要素,。在數(shù)據(jù)獲取方面需要重點關(guān)注三個方面的問題,,一要考慮個人數(shù)據(jù)的可信使用,需要政策制定者明確個人數(shù)據(jù)保護的要求,,鼓勵隱私增強技術(shù)的研發(fā),;二要考慮版權(quán)數(shù)據(jù)使用的爭議,需要政策制定者推動利益相關(guān)者對話,,促進形成利益平衡且符合市場實際的制度安排,;三要加強訓(xùn)練數(shù)據(jù)質(zhì)量控制,對此需要人工智能開發(fā)者做好數(shù)據(jù)清洗,,加強可信數(shù)據(jù)集建設(shè),,提升數(shù)據(jù)多樣性。
三是可信開發(fā)和部署,?!犊蚣堋诽岢觯P烷_發(fā)及應(yīng)用部署是人工智能驅(qū)動創(chuàng)新的核心,,需要從安全開發(fā),、披露和評估三個方面進行設(shè)計。在開發(fā)上,,實施行業(yè)安全實踐,,包括使用人類反饋強化學(xué)習(xí)、輸入輸出過濾等技術(shù)機制,。在披露方面,,通過類似“食品標簽”的模式提示模型訓(xùn)練數(shù)據(jù),、安全措施、風(fēng)險,、預(yù)期用途等,,提升透明度。在評估方面,,除了實施測試模型性能的基準測試,,還需要加強安全測試,并關(guān)注不同行業(yè)的特殊需要,。
四是事件報告,。《框架》提出,,和其他軟件系統(tǒng)相同,,人工智能系統(tǒng)無法確保絕對的安全,因此需要建立及時報告和處理補救流程,。在尚無事件發(fā)生前,,可實施漏洞報告激勵機制,主動采取措施避免事件發(fā)生,。在事件發(fā)生后,,需要根據(jù)流程及時報告和采取補救措施,并根據(jù)法律法規(guī)要求向政府和公眾對事件作出說明,。
五是測試和保障,。《框架》提出,,第三方測試在保障可信人工智能發(fā)展中具有重要作用,,外部審計能提高透明度和用戶信賴。對于測試,,在方法上需要使用成為共識的基準和測試方法,,在人員上確保審計測試人員的獨立性,形成生成式人工智能標準化測試和認證機制,。
六是安全,。《框架》提出,,需要關(guān)注生成式人工智能區(qū)別于傳統(tǒng)軟件的安全挑戰(zhàn),,對傳統(tǒng)的安全流程進行改進。在安全保障措施方面,,可關(guān)注輸入過濾和數(shù)字取證工具的應(yīng)用,,評估人工智能風(fēng)險,,識別和應(yīng)用有效技術(shù)工具,。
七是合成內(nèi)容來源,。《框架》提出,,生成式人工智能使得大規(guī)模深度偽造成為可能,,加劇虛假信息的危害,破壞社會信任,。對此,,在技術(shù)上,需要開發(fā)數(shù)字水印和加密出處等方法驗證內(nèi)容來源,;在緩解負面影響上,,要推動與出版者、分發(fā)平臺等內(nèi)容生成的關(guān)鍵方合作,,幫助用戶識別和驗證內(nèi)容,。
八是安全和對齊研發(fā)?!犊蚣堋诽岢?,伴隨人工智能能力和風(fēng)險的增加,需要加大對模型安全和對齊方面的研發(fā)投入,,包括模型訓(xùn)練中使用人工智能反饋的強化學(xué)習(xí)(Reinforcement Learning from AI Feedback),,訓(xùn)練后的對齊驗證等。同時,,模型安全和對齊的研發(fā)需要國際合作,,以集中人才和資源力量。
九是人工智能促進公共利益,?!犊蚣堋诽岢觯墒饺斯ぶ悄茉诖龠M社會發(fā)展中具有重要作用,,但同時也需要關(guān)注發(fā)展中國家獲取技術(shù)和發(fā)展的需求,,建立全球數(shù)字共識。具體需要:培養(yǎng)用戶安全和負責(zé)任地使用人工智能的能力,,支持使用生成式人工智能提升公共服務(wù)體驗,,幫助勞動者在人工智能時代提升創(chuàng)造力、批判性思維等技能,,跟蹤生成式人工智能資源需求四方面,。
參考資料:
[1]https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf
[2]https://aiverifyfoundation.sg/downloads/Proposed_MGF_Gen_AI_2024.pdf
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務(wù),。