天美传媒成人|爆料在线观看|91制片厂杨柳资源|麻豆精品中出|麻豆欧美精品一区二区三区|亚洲最大色网站|我要开动了日语|网红主播大秀一区二区|91麻豆国产综合久久|精东传媒影业作品,糖心vlog官网入口安卓,午夜精品91福利,麻豆传媒林予曦拍摄花絮

廣東省應(yīng)對技術(shù)性貿(mào)易壁壘信息平臺
當(dāng)前位置:廣東省應(yīng)對技術(shù)性貿(mào)易壁壘信息平臺最新動態(tài)國外資訊

新加坡提出促進可信生成式人工智能發(fā)展的框架

信息來源:CAICT互聯(lián)網(wǎng)法律研究中心    發(fā)布日期:2024-02-02    閱讀:2886次
字體:
0

2024年1月16日,新加坡AI Verify基金會(AIVF)和新加坡信息通信媒體發(fā)展局(IMDA)共同制定了《生成式人工智能治理的模型人工智能治理框架草案》(Proposed Model AI Governance Framework for Generative AI),以培育可信的生成式人工智能生態(tài)系統(tǒng)。該框架在現(xiàn)有涵蓋傳統(tǒng)AI的2020年人工智能模型治理框架基礎(chǔ)上,進一步擴展了模型治理框架,推動了關(guān)于生成式人工智能治理的國際共識。


一、相關(guān)背景

生成式人工智能的變革潛力已顯著超越傳統(tǒng)人工智能。傳統(tǒng)人工智能是指利用從歷史數(shù)據(jù)中得出的見解進行預(yù)測的人工智能模型。典型的傳統(tǒng)人工智能模型包括邏輯回歸、決策樹和條件隨機場等。生成式人工智能是指能夠生成文本、圖像或其他媒體的人工智能模型。它們學(xué)習(xí)輸入訓(xùn)練數(shù)據(jù)的模式和結(jié)構(gòu),并生成具有類似特征的新數(shù)據(jù)。生成式人工智能能夠接受自然語言提示作為輸入,包括GPT-4、Gemini、Claude和LLaMA等大型語言模型(LLM)。

為了促進傳統(tǒng)人工智能的負責(zé)任使用,新加坡于2019年發(fā)布了第一版AI治理框架,并在2020年進行了更新。然而,生成式人工智能的發(fā)展不僅加劇了傳統(tǒng)人工智能相關(guān)風(fēng)險(例如偏見、濫用、缺乏可解釋性等),還引入了新的風(fēng)險(例如誤導(dǎo)、侵犯版權(quán)、價值取向問題等)。針對生成式人工智能引發(fā)的新問題,有必要更新早期的模型治理框架,以全面解決新出現(xiàn)的問題。新加坡于2023年6月發(fā)布討論文件《生成式人工智能:對信任和治理的影響》,對現(xiàn)有的框架進行審查,廣泛聽取政策制定者、產(chǎn)業(yè)界、人工智能行業(yè)組織、研究社群和公眾等多利益相關(guān)方意見。2024年1月16日,新加坡發(fā)布《生成式人工智能治理的模型人工智能治理框架草案》(以下簡稱框架草案),框架草案對討論文件中提出的概念以及相關(guān)反饋意見和建議進行了整合,以在保護用戶和推動創(chuàng)新之間取得謹慎的平衡,促進更廣泛的可信生態(tài)系統(tǒng)。

此外,新加坡成立AI verify基金會,構(gòu)建AI 治理測試工具,如進行AI 測試框架、代碼庫、標(biāo)準(zhǔn)和最佳實踐的開發(fā)和研究等,培育多元化的人工智能測試倡導(dǎo)者網(wǎng)絡(luò),并通過教育和推廣推動廣泛采用。

二、關(guān)于支持可信人工智能生態(tài)系統(tǒng)的九個提議

框架草案提議從九個維度支持全面和可信人工智能生態(tài)系統(tǒng)的建立,核心原則是決策的可解釋、透明和公正原則。

(一)問責(zé)制

問責(zé)制是激勵人工智能開發(fā)鏈中的參與者對最終用戶負責(zé)的一個關(guān)鍵考慮因素。參與者包括模型開發(fā)人員、應(yīng)用程序部署人員和云服務(wù)提供商(提供托管AI應(yīng)用程序的平臺)。與大多數(shù)軟件開發(fā)一樣,生成型人工智能也涉及到技術(shù)堆棧中的多層內(nèi)容。雖然責(zé)任的分配可能不能立即明確,但可以借鑒云計算和軟件開發(fā)中的實踐經(jīng)驗,采取相關(guān)措施。

(二)數(shù)據(jù)

數(shù)據(jù)是模型開發(fā)的核心元素,它顯著地影響了模型輸出的質(zhì)量。因此,提供給模型的數(shù)據(jù)內(nèi)容很重要,并且需要確保數(shù)據(jù)質(zhì)量,例如通過使用可信的數(shù)據(jù)源。在使用數(shù)據(jù)用于模型訓(xùn)練存在爭議的情況下,如涉及個人數(shù)據(jù)和版權(quán)材料等情形下,堅持透明和公正原則至關(guān)重要,并且應(yīng)在實際業(yè)務(wù)中切實做到確保透明度和公平對待。

(三)可信開發(fā)與部署

模型開發(fā)及在其上進行的應(yīng)用程序部署是人工智能驅(qū)動創(chuàng)新的核心。盡管最終用戶對其了解程度可能有限,但有關(guān)基本安全措施的透明度是非常關(guān)鍵的。產(chǎn)業(yè)界應(yīng)在開發(fā)、評估和披露方面采用最佳實踐,例如采取“食品標(biāo)簽”式的透明度管理方式。隨著時間的推移,可以提高更廣泛的意識和安全性。

(四)事件報告

即使有最強大的開發(fā)流程和保障措施,也不可能做到萬無一失,軟件開發(fā)和人工智能都是如此。事件報告是一種既定的做法,允許及時通知和采取補救措施。建立相應(yīng)的結(jié)構(gòu)和流程以實現(xiàn)事件監(jiān)測和報告是關(guān)鍵。這也將支持人工智能系統(tǒng)的持續(xù)改進。

(五)測試和保證

對于一個值得信賴的生態(tài)系統(tǒng),第三方測試和保證起著補充的作用,金融和醫(yī)療保健等重要領(lǐng)域都是這樣做的,以實現(xiàn)獨立驗證。盡管人工智能測試是一個新興領(lǐng)域,但對于公司來說,采用第三方測試和保證來向最終用戶證明信任是有價值的。圍繞人工智能測試制定通用標(biāo)準(zhǔn)以確保質(zhì)量和一致性也很重要。

(六)安全性

生成型人工智能模型本身引入新的威脅,且超出了任何軟件堆棧中固有的安全風(fēng)險。雖然這是一個新興的領(lǐng)域,但需要調(diào)整現(xiàn)有的信息安全框架,并開發(fā)新的測試工具來解決這些風(fēng)險。

(七)內(nèi)容來源

人工智能生成的內(nèi)容很容易被創(chuàng)建,這可能會加劇虛假信息相關(guān)風(fēng)險。各國政府正在尋求數(shù)字水印和加密來源等技術(shù)解決方案,這些技術(shù)需要在正確的背景下使用,需要內(nèi)容生成位置和生成方式等方面的透明度,使最終用戶能夠以知情的方式使用在線內(nèi)容。

(八)安全性和一致性研究與開發(fā)(R&D)

當(dāng)今最科學(xué)的模型安全技術(shù)也不能完全涵蓋所有的風(fēng)險。需要加快研發(fā)投資,以改善人工智能模型的意圖,保證其與人類價值觀的一致性。人工智能安全研發(fā)機構(gòu)之間的全球合作對于有限資源的優(yōu)化配置,以跟上商業(yè)驅(qū)動的模型能力的增長至關(guān)重要。

(九)人工智能造福公眾

負責(zé)任的人工智能將支持引導(dǎo)人工智能走向為公共利益服務(wù),如人工智能獲取應(yīng)民主化、改善公共部門人工智能的采用、提高員工的技能,以及人工智能系統(tǒng)的可持續(xù)開發(fā)等。

三、總結(jié)

人工智能治理仍處于初級階段。進行國際合作、建立國際共識是進行人工智能治理的關(guān)鍵,正如新加坡IMDA在國家人工智能治理框架的制定過程中,與美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)進行了合作。該框架將隨著技術(shù)和技術(shù)的發(fā)展而不斷更新,新加坡將對人工智能模型治理框架進行持續(xù)完善和優(yōu)化,采用實際方法來最大程度地提高信任和創(chuàng)新。新加坡預(yù)計在2024年中期正式發(fā)布《生成式人工智能治理的模型人工智能治理框架》。


參考資料:

1.https://www.sgpc.gov.sg/detail?url=/media_releases/imda/press_release/P-20240116-1&authkey=4eddc58a-ef1d-4baf-ac5c-31bb8a64ace9

2.https://aiverifyfoundation.sg/downloads/Proposed_MGF_Gen_AI_2024.pdf




廣東技術(shù)性貿(mào)易措施微信公眾號
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務(wù)。

本文包含附件,您需要登錄后,才能查看此附件內(nèi)容!
如果您還不是會員,請先注冊

最新國外資訊
最新國內(nèi)資訊
最新工作動態(tài)
最新風(fēng)險預(yù)警
廣東省農(nóng)食產(chǎn)品技術(shù)性貿(mào)易措施(WTO/SPS)信息平臺 廣東省農(nóng)業(yè)標(biāo)準(zhǔn)化信息服務(wù)平臺
x