2023年8月31日,,英國議會發(fā)布《人工智能治理:中期報(bào)告》(以下簡稱《報(bào)告》),?!秷?bào)告》深入探討了人工智能的發(fā)展背景,、技術(shù)效益,、技術(shù)風(fēng)險(xiǎn)和治理挑戰(zhàn)等多方面前景,對管理人工智能技術(shù)的現(xiàn)有框架、法規(guī)和道德準(zhǔn)則進(jìn)行了全面分析?!秷?bào)告》認(rèn)為,,迫切需要一個(gè)強(qiáng)有力,、透明的人工智能治理框架,以維護(hù)人權(quán),、問責(zé)制和社會福祉,。
《報(bào)告》列出了人工智能治理必須應(yīng)對的十二項(xiàng)挑戰(zhàn)。
1.偏見挑戰(zhàn)
人工智能可能會引入或延續(xù)社會認(rèn)為不可接受的偏見,。研究人員和開發(fā)人員依賴數(shù)據(jù)來測試,、訓(xùn)練、操作和完善人工智能模型和工具,。但由于數(shù)據(jù)集是由人類編譯的,,因此它們包含固有的偏見。
2.隱私挑戰(zhàn)
人工智能可以讓個(gè)人被識別,,并以超出公眾期望的方式使用他們的個(gè)人信息,。在執(zhí)法中,隱私保護(hù)與部署人工智能模型和工具的潛在利益之間的平衡尤為重要,。
3.虛假陳述挑戰(zhàn)
人工智能可以生成故意歪曲某人行為,、觀點(diǎn)或性格的材料。一是近年來圍繞“假新聞”的爭議越來越頻繁,。數(shù)據(jù)可用性與新的人工智能模型和工具的結(jié)合極大地增加了惡意行為者“冒充”與特定個(gè)人或組織相關(guān)的內(nèi)容的機(jī)會,,這些內(nèi)容實(shí)際上是偽造的。二是使用個(gè)人的圖像和語音記錄可以產(chǎn)生高度可信的材料,,但這些材料中個(gè)人所說的話沒有事實(shí)依據(jù),。這種材料可用于損害人們的聲譽(yù),并且在競選活動(dòng)中對民主競賽的進(jìn)行構(gòu)成重大威脅,。三是偽造內(nèi)容的其他用途可能導(dǎo)致欺詐,。例如,許多金融服務(wù)提供商在電話交易中廣泛使用語音識別技術(shù)來驗(yàn)證人們的身份,。
4.數(shù)據(jù)訪問挑戰(zhàn)
最強(qiáng)大的人工智能需要海量數(shù)據(jù)集,,而這些數(shù)據(jù)集由少數(shù)組織持有。一是獲取足夠多的高質(zhì)量數(shù)據(jù)是人工智能開發(fā)人員和研究人員的首要任務(wù)。對大量培訓(xùn)數(shù)據(jù)的需求使擁有最多資源的開發(fā)人員處于優(yōu)勢,。二是數(shù)據(jù)訪問挑戰(zhàn)也引發(fā)了競爭問題,。英國競爭和市場管理局目前正在審查開發(fā)人工智能基礎(chǔ)模型對競爭和消費(fèi)者保護(hù)的可能影響,而美國聯(lián)邦貿(mào)易委員會主席Lina Khan則強(qiáng)調(diào)了人工智能領(lǐng)域公平競爭的重要性,。
5.計(jì)算訪問挑戰(zhàn)
強(qiáng)大的人工智能的發(fā)展需要強(qiáng)大的計(jì)算能力,,而只有少數(shù)組織才能獲得這種能力。大量的計(jì)算能力成本高昂,,因此不成比例地向最大的參與者提供,。隨著計(jì)算需求的持續(xù)增長,大學(xué)研究人員面臨著落后于私人開發(fā)商的風(fēng)險(xiǎn),。
6.黑匣子挑戰(zhàn)
隨著數(shù)據(jù)和計(jì)算可用性的增加促進(jìn)了新的人工智能模型和工具的開發(fā),,這些模型和工具日益成為“黑匣子”,即它們的決策過程無法解釋,。
7.開源挑戰(zhàn)
對于運(yùn)行人工智能模型和工具的代碼是否應(yīng)該免費(fèi)或開源以進(jìn)行測試,、審查和改進(jìn),存在不同的觀點(diǎn),。開源支持者表示,,它可以鼓勵(lì)創(chuàng)新并防止強(qiáng)大、資源充足的參與者的壟斷,。然而,,其他人則強(qiáng)調(diào)了保持代碼專有性的價(jià)值,并認(rèn)為這樣做也有助于防止濫用,,例如通過傳播誤導(dǎo)性內(nèi)容,。
8.知識產(chǎn)權(quán)和版權(quán)挑戰(zhàn)
將帶有版權(quán)的創(chuàng)作者的作品輸入到人工智能中,用它來生成新作品,,有可能在不認(rèn)可版權(quán)的情況下從中獲利,。英國政府的執(zhí)行機(jī)構(gòu)知識產(chǎn)權(quán)局已開始與技術(shù)、創(chuàng)意和研究部門協(xié)商,,制定版權(quán)和人工智能自愿行為守則,。該指南表示,應(yīng)支持人工智能公司獲取受版權(quán)保護(hù)的作品作為其模型的內(nèi)容,,同時(shí)確保生成的內(nèi)容受到保護(hù)(例如標(biāo)簽),,以支持受版權(quán)保護(hù)作品的權(quán)利人。
9.責(zé)任挑戰(zhàn)
如果第三方使用人工智能模型和工具造成損害,,政策必須確定該技術(shù)的開發(fā)商或提供商是否對所造成的損害承擔(dān)責(zé)任,。在開發(fā)、采購和應(yīng)用階段影響技術(shù)的不同主體,,使得確定歧視性使用人工智能模型和工具的責(zé)任變得具有挑戰(zhàn)性,。
10.就業(yè)挑戰(zhàn)
人工智能模型和工具的日益普及將對就業(yè)產(chǎn)生巨大影響,,涉及日常、重復(fù)性勞動(dòng)并涉及低級決策的任務(wù)將很快實(shí)現(xiàn)自動(dòng)化,。但人工智能的應(yīng)用對就業(yè)帶來的并非全都是負(fù)面影響,,一些工作崗位被取代的同時(shí),也為人們提供了全新的收入潛力和新工作領(lǐng)域,。
11.國際協(xié)調(diào)挑戰(zhàn)
英國,、歐盟和美國等不同司法管轄區(qū)提出了不同的人工智能治理方法。雖然目前正在采取不同的方法,,但人工智能作為一種無處不在的通用技術(shù)的出現(xiàn)所產(chǎn)生的全球影響需要采取協(xié)調(diào)一致的應(yīng)對措施,。
12.存在主義的挑戰(zhàn)
人工智能可能是一種超出我們控制或理解的力量,可能威脅或破壞國家和地區(qū),、危害國際安全,,包括新型生物或化學(xué)武器的發(fā)展、意外升級的風(fēng)險(xiǎn)以及核威懾力的破壞,。
《報(bào)告》指出,,政府的人工智能治理和監(jiān)管方法應(yīng)通過國內(nèi)政策和國際參與來解決人工智能帶來的十二項(xiàng)挑戰(zhàn),。
關(guān)注“廣東技術(shù)性貿(mào)易措施”,,獲取更多服務(wù)。