2023年10月30日,美國總統(tǒng)拜登簽署發(fā)布《安全、穩(wěn)定、可信的人工智能》行政令,以確保美國在把握AI的前景和管理其風險方面處于領先地位。該行政令系統(tǒng)對人工智能安全和可信標準,保護隱私,保障人權,維護消費者等權益,支持勞工,推動創(chuàng)新和競爭,提升美國全球領導力,確保政府負責有效使用人工智能等內容進行規(guī)定。行政令重點關注四個方面內容:
一是關注安全,致力于塑造人工智能生態(tài)安全保障體系。行政令聚焦在人工智能技術對關鍵基礎設施以及化學、生物、放射性、核和網絡安全風險的威脅,提出制定專門標準和實踐指南的防范思路,遏制社會固有的深層次、系統(tǒng)性風險。同時,行政令關注到人工智能在醫(yī)療、教育、司法、住房等領域存在的歧視、偏見和其他風險,提出通過發(fā)布指導規(guī)范、輔助侵權起訴、制定實踐樣本等方式促進平等、保障民權。
二是關注創(chuàng)新,提出強制披露共享等突破性制度安排。行政令通過援引《國防生產法》的授權性規(guī)范,要求“開發(fā)任何對國家安全、國家經濟安全或國家公共健康和安全構成嚴重風險的基礎模型的公司,在訓練模型時就得通知聯(lián)邦政府,并且必須分享安全測試結果和相關數據”。根據此前拜登政府簡報披露,為了保證既有產業(yè)投入的穩(wěn)定性,披露共享要求的效力不適用存量模型,只適用增量模型。同時,根據行政令精神及風險消除的邏輯來推測,增量模型范圍應當包括存量模型的更新版本。此外,基于產業(yè)、風險及治理邏輯的沖突協(xié)調推測,最終的執(zhí)法權衡點應當聚焦在“構成嚴重風險的基礎模型”的范圍之上。
三是關注方法,提出“標準+測試”“工具+測試”等治理手段。行政令要求高級AI系統(tǒng)的開發(fā)者與美國政府必須共享所有紅隊安全測試的結果等關鍵信息,這一舉措利用強披露制度倒逼企業(yè)提高防御能力。同時,行政令要求美國商務部制定內容認證和水印指南,明確標注AI生成內容,以提升公民防AI詐騙意識能力。此外,行政令利用“以技制技”手段,在“AI網絡挑戰(zhàn)”(AI Cyber Challenge)治理活動基礎上建立網絡安全計劃,通過開發(fā)AI工具查找、修復關鍵軟件中漏洞,以提升網絡系統(tǒng)魯棒性及抗風險能力。
四是關注影響,延伸美國在人工智能領域的全球領導力。行政令提出擴大多雙邊合作、開發(fā)國際標準等方式,強化人工智能領域國際合作,企圖主導全球人工智能規(guī)則。同時,行政令要求通過建立研究試點、為中小企業(yè)提供援助、吸引人才等方式保持美國在人工智能創(chuàng)新和競爭方面的領先地位。
總體來看,行政令基于《人工智能權利法案藍圖》等美國政府現有的人工智能治理行動,展開了以促進安全發(fā)展為主線、以提升治理能力為補充的系統(tǒng)AI治理路徑,廣泛動員聯(lián)邦層面的監(jiān)管部門,通力協(xié)作提升AI治理監(jiān)管能力。對此,我國積極關注國際AI治理動態(tài),在提升保障我國治理能力、向國際社會傳遞我國AI標準的基礎上,積極以“人工智能領域中與歐美各國的非競爭性風險”為基點展開治理共識推動,并期望以此為紐帶緩和國際AI治理合作僵局。
關注“廣東技術性貿易措施”,獲取更多服務。