2023年5月22日,歐盟委員會發(fā)布M/593號標準化請求,向歐洲標準化委員會CEN和歐洲電工標準化委員會CENELEC提出支持歐盟聯(lián)盟人工智能政策的標準化要求。
根據(jù)該文件,CEN和CENELEC應(yīng)編制一份工作計劃,說明附件1中所列的所有歐洲標準和歐洲標準化的成果、負責的技術(shù)機構(gòu)以及按照文件第1條規(guī)定的期限執(zhí)行所要求的標準化活動的時間表。這些歐洲標準或歐洲標準化成果應(yīng)符合附件2中規(guī)定的要求。
附件1 擬起草的新歐洲標準和歐洲標準化成果清單。
參考信息 | |
1 | 關(guān)于人工智能系統(tǒng)風險管理系統(tǒng)的歐洲標準和/或歐洲標準化可交付成果 |
2 | 關(guān)于用于建立人工智能系統(tǒng)的數(shù)據(jù)集的管理和質(zhì)量的歐洲標準和/或歐洲標準化可交付成果 |
3 | 關(guān)于通過人工智能系統(tǒng)的記錄能力保存記錄的歐洲標準和/或歐洲標準化可交付成果 |
4 | 關(guān)于人工智能系統(tǒng)用戶的透明度和信息規(guī)定的歐洲標準和/或歐洲標準化可交付成果 |
5 | 關(guān)于人工智能系統(tǒng)的人為監(jiān)督的歐洲標準和/或歐洲標準化可交付成果 |
6 | 關(guān)于人工智能系統(tǒng)準確性規(guī)范的歐洲標準或歐洲標準化交付品 |
7 | 關(guān)于人工智能系統(tǒng)穩(wěn)健性規(guī)范的歐洲標準和/或歐洲標準化交付品 |
8 | 關(guān)于人工智能系統(tǒng)網(wǎng)絡(luò)安全規(guī)范的歐洲標準和/或歐洲標準化可交付成果 |
9 | 關(guān)于人工智能系統(tǒng)供應(yīng)商的質(zhì)量管理系統(tǒng)的歐洲標準和/或歐洲標準化交付品,包括上市后監(jiān)測程序 |
10 | 關(guān)于人工智能系統(tǒng)符合性評估的歐洲標準和/或歐洲標準化可交付成果 |
附件2規(guī)定了歐洲標準和歐洲標準化成果的要求,包括總體要求,風險管理系統(tǒng) ,數(shù)據(jù)和數(shù)據(jù)管理,記錄保存,透明度和信息,人力監(jiān)督,準確度規(guī)范,穩(wěn)健性規(guī)范,網(wǎng)絡(luò)安全規(guī)范,供應(yīng)商的質(zhì)量管理體系,以及符合性評估。
背景知識
2023年6月14日,歐洲議會全體會議表決通過了《人工智能法案》授權(quán)草案,該法案進入歐盟立法嚴格監(jiān)管人工智能技術(shù)應(yīng)用的最終談判階段。
歐洲議會當天投票決定禁止實時遠程生物識別技術(shù),如不能在公共場合進行實時人臉識別,并對ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以確保人工智能的研發(fā)和應(yīng)用符合歐盟權(quán)利和價值觀。按照立法議程,歐洲議會將就這一授權(quán)草案與歐盟委員會和成員國進行“三方”談判,歐洲立法者希望在今年年底前就法案的最終版本達成共識。
今年5月,歐洲議會內(nèi)部的市場委員會和公民自由委員會通過歐盟委員會于2021年4月提出的《人工智能法案》提案的談判授權(quán)草案。歐洲議會聲明,這部提案如正式獲得批準,將成為全世界首部有關(guān)人工智能的法規(guī)。該法案將適用于在歐盟境內(nèi)將人工智能系統(tǒng)投放市場或投入使用的實體(無論該實體是在歐盟境內(nèi)還是在第三國)、在歐盟境內(nèi)使用人工智能系統(tǒng)的實體以及在第三國使用人工智能系統(tǒng)但系統(tǒng)的輸出用于歐盟境內(nèi)或?qū)W盟境內(nèi)人員產(chǎn)生影響的實體。
該草案的一個突出特點是注重基于風險來制定監(jiān)管制度,以平衡人工智能的創(chuàng)新發(fā)展與安全規(guī)范。草案將人工智能風險分為不可接受的風險、高風險、有限的風險和極小的風險四級,對應(yīng)不同的監(jiān)管要求。其中高風險人工智能的使用必須受到嚴格監(jiān)管,系統(tǒng)提供者和使用者都要遵守數(shù)據(jù)管理、記錄保存、透明度、人為監(jiān)管等規(guī)定,以確保系統(tǒng)穩(wěn)定、準確和安全。對于違反規(guī)定者,草案設(shè)定了最高3000萬歐元或全球年營業(yè)額6%的罰款。
最新草案嚴格禁止對人類安全造成不可接受風險的人工智能系統(tǒng),包括部署潛意識或有目的操縱技術(shù)、利用人們?nèi)觞c或用于社會評分的系統(tǒng),并擴大了人工智能高風險領(lǐng)域的分類,將對人們健康、安全、基本權(quán)利或環(huán)境的危害考慮在內(nèi)。草案還要求人工智能公司對其算法保持人為控制,提供技術(shù)文件,并為“高風險”應(yīng)用建立風險管理系統(tǒng),還針對ChatGPT等生成式人工智能設(shè)立專門監(jiān)管制度。每個歐盟成員國都將設(shè)立一個監(jiān)督機構(gòu)。
此外,引進監(jiān)管沙盒機制以管控風險和促進創(chuàng)新,在人工智能系統(tǒng)入市或投入使用前,對人工智能系統(tǒng)進行開發(fā)、測試和驗證降低風險。最新草案文本還提出,這一機制同樣被允許用于在現(xiàn)實條件下測試創(chuàng)新人工智能,以鼓勵人工智能企業(yè)持續(xù)創(chuàng)新。
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務(wù)。