2024年11月14日,歐盟人工智能辦公室(AI0fice)正式發(fā)布《通用人工智能行為準則》(General-PurposeAICodeofPractice)草案,為通用人工智能模型的發(fā)展和應用提供指導框架,確保其符合歐盟的法律要求和價值觀。該草案由四個工作組協(xié)作編寫,旨在為通用人工智能模型提供商和具有系統(tǒng)風,險的通用人工智能模型提供商提供指導,以確保其遵守歐盟相關(guān)法律,促進人工智能的安全和可持續(xù)發(fā)展。該草案涵蓋了透明度、版權(quán)、風險分類、風險評估與緩解等多方面規(guī)則,并遵循一系列起草原則,歐盟AI法案于2024年8月1日生效,規(guī)定準則最終版本應于2025年5月1日前準備就緒。該草案是在參考眾多利益相關(guān)者意見、國際方法以及相關(guān)法律和研究的基礎(chǔ)上制定的。
起草計劃與原則與歐盟原則和價值觀保持一致:確保措施、子措施和關(guān)鍵績效指標(KPI)符合歐盟法律所體現(xiàn)的一般原則和價值觀,與AI法案和國際方法保持一致:促進A1法案的適當應用,參考國際方法(如AI安全機構(gòu)或標準制定組織制定的標準或指標)。風險相稱性:措施應與風險相稱,對更重大或不確定的嚴重風險采取更嚴格措施,子措施和KPI應具體、明確,避免規(guī)避或錯誤指且根據(jù)風險類型、分布策略和部署環(huán)境等因素進行區(qū)分。
面向未來:子措施和KPI應能適應技術(shù)發(fā)展,確保AI辦公室能夠基于更優(yōu)信息評估合規(guī)性,同時在具體要求與靈活性之間取得平衡與提供商規(guī)模相稱:考慮通用人工智能模型提供商規(guī)模,為中小企業(yè)和初創(chuàng)企業(yè)提供適當簡化的合規(guī)方式支持人工智能安全生態(tài)系統(tǒng)的發(fā)展與成長:鼓勵利益相關(guān)者合作,共享知識和最佳實踐,支持開源模型對生態(tài)系統(tǒng)的積影響。
二、通用人工智能模型提供商規(guī)則
1.透明度要求
文檔編制:提供商需為AI辦公室和下游提供商編制并更新模型技術(shù)文檔,包括模型基本信息、預期任務、使用政策、發(fā)布日期、交互方式、架構(gòu)參數(shù)、輸入輸出模態(tài)、許可證、集成技術(shù)手段、訓練過程、數(shù)據(jù)信息、計算資源、能耗等內(nèi)容。鼓勵考慮向公眾披露部分信息以提高透明度。
附錄:可接受使用政策(AUP):AUP應至少包含目的聲明、范圍、主要預期用途和用戶、可接受和不可接受用途、安全措施、監(jiān)控與隱私、警告和賬戶處理流程、致謝等要素,確保與提供商描述模型用途和能力的材料一致,并向下游提供商提供必要信息.。
2.版權(quán)相關(guān)規(guī)則
制定版權(quán)政策:提供商應制定政策以遵守歐盟版權(quán)及相關(guān)權(quán)利法律,涵蓋模型整個生命周期,明確責任,進行上游和下游版權(quán)合規(guī)管理(下游版權(quán)措施不適用于中小企業(yè))。遵守文本和數(shù)據(jù)挖掘(TDM)例外限制:進行TDM時,需確保合法獲取受版權(quán)保護的內(nèi)容,遵守權(quán)利保留規(guī)定,包括遵循robots.tx確保搜索引擎可發(fā)現(xiàn)性、采用行業(yè)標準識別權(quán)利保留、參與標準制定討論、排除盜版來源等措施(部分子措施不適用干中小企業(yè))。透明度:公開版權(quán)保留合規(guī)措施信息,包括爬蟲名稱和robots.txt特征,指定聯(lián)系人處理版權(quán)投訴,記錄數(shù)據(jù)來源和授權(quán)信息以供AI辦公室監(jiān)測。
三、系統(tǒng)風險分類
1. 風險類型:包括網(wǎng)絡攻擊、化學/生物/放射/核風險、失控、自動化模型研發(fā)、說服與操縱、大規(guī)模歧視等,提供商可識別其他潛在系統(tǒng)風險。
2. 風險性質(zhì):涉及風險起源、驅(qū)動因素、意圖、新穎性、概率-嚴重性比、風,險實現(xiàn)速度、可見性、事件發(fā)展過程等維度,
3. 風險來源
危險模型能力:如網(wǎng)絡攻擊、武器相關(guān)能力、自主性、說服力、規(guī)劃能力等,這些能力雖有有益用途,但也可能引發(fā)系統(tǒng)風險,。
危險模型傾向:如與人類意圖/價值觀不一致、欺騙傾向、偏見、不可靠性、追求目標等。
模型功能和社會技術(shù)背景:包括去除防護措施潛力、工具訪問、模態(tài)、發(fā)布策略、人為監(jiān)督、模型泄露、用戶數(shù)量、攻防平衡、社會脆弱性、缺乏解釋性、技術(shù)成熟度、反饋循環(huán)等。
四、具有系統(tǒng)風險的通用人工智能模型提供商規(guī)則
1.安全與保障框架(SSF):提供商應采用、實施并公開SSF,根據(jù)預期系統(tǒng)風險嚴重程度確定其全面性,用于主動評估和緩解系統(tǒng)風險。
2.風,險評估風險識別:持續(xù)徹底識別可能源于模型的系統(tǒng)風險,參考風險分類確定相關(guān)風險風險分析:使用可靠方法分析風險路徑、映射風險指標、確定風,險嚴重程度層級、預測風險發(fā)生時間。證據(jù)收集:持續(xù)收集模型特定系統(tǒng)風險證據(jù),包括模型無關(guān)證據(jù)、最佳實踐評估、確保科學嚴謹性、充分挖掘模型能力、在不同系統(tǒng)中評估、進行多樣化評估和探索性工作、分享工具和最佳實踐、透明報告評估結(jié)果等,部分工作可與第三方合作或外包。風險評估生命周期:在模型開發(fā)和部署的全生命周期持續(xù)評估風險和收集證據(jù),包括訓練前準備、訓練中定期收集、部署期間定期更新評估、部署后監(jiān)測,根據(jù)不同階段和風險情況調(diào)整評估方式
3.技術(shù)風險緩解
緩解措施:在SSF中詳細說明從風,險指標到安全和保障緩解措施的映射,包括安全和安全緩解措施(根據(jù)風險程度實施,如行為修改、系統(tǒng)部署防護、提供反制措施),明確現(xiàn)有緩解措施的局限性和評估映射充分性的過程。
安全與保障報告(SSR):創(chuàng)建SSR記錄風險和緩解評估,內(nèi)容包括風,險評估結(jié)果、緩解措施評估結(jié)果、成本效益分析、方法細節(jié)
內(nèi)部審查結(jié)果等,確保報告與風險程度相稱且內(nèi)部外部一致。開發(fā)與部署決策:基于SSR建立決策流程,確定繼續(xù)或停止模型開發(fā)和部署的條件,包括不繼續(xù)的條件、繼續(xù)的條件(如改進緩解措施或進行成本效益分析)以及外部輸入和決策要求。
4.治理風險緩解
系統(tǒng)風險所有權(quán):確保組織各級對系統(tǒng)風險有足夠的所有權(quán),包括在執(zhí)行和董事會層面分配責任和資源(可考慮根據(jù)提供商規(guī)模或其他特征調(diào)整)。
遵守和充分性評估:每年評估SSF的遵守和充分性,考慮計劃活動并向董事會報告,明確評估應回答的問題和充分性定義。
獨立專家系統(tǒng)風險和緩解評估:在模型生命周期中適當進行獨立專家評估,包括部署前充分測試和部署后允許獨立研究,評估內(nèi)容包括模型能力、證據(jù)、風險和緩解措施,評估應根據(jù)風險程度和性質(zhì)進行調(diào)整(明確第三方評估機構(gòu)標準、支持中小企業(yè)評估、確定獨立測試的適當情況)。
嚴重事件報告:識別、跟蹤、記錄和及時報告源于模型的嚴重事件及可能的糾正措施,建立報告和響應流程,明確嚴重事件定義、間接導致情況、報告條件和可能的糾正措施(針對開源或開放權(quán)重提供商的措施)。
舉報保護:實施舉報渠道并提供保護,告知員工舉報郵箱,考慮在準則中明確歐盟舉報人指令的相關(guān)內(nèi)容
通知:向AI辦公室通知模型分類、SSE、SSR和重大系統(tǒng)風險等相關(guān)信息,包括在訓練前估計計算能力并通知、確保AI辦公室獲取SSF和SSR、在特定情況下通知重大風險,明確通知的具體要求和相關(guān)標準。
文檔記錄:記錄與遵守準則和AI法案相關(guān)的證據(jù),包括模型風險分類、SSF、SSR等信息,考慮制定標準化模板以降低合規(guī)成本。
公共透明度:通過發(fā)布SSF和SSR提供適當公共透明度,幫助生態(tài)系統(tǒng)理解和緩解風險,明確可能增加系統(tǒng)風險或泄露敏感信息的情況,考慮公共透明度的類型、水平和負擔。
轉(zhuǎn)載鏈接:http://www.tbtsps.cn/news/1/73FE2386E3495EF8
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務。