近年來,隨著數(shù)據(jù)資源的廣泛可用、計算能力的飛躍以及機(jī)器學(xué)習(xí)的進(jìn)步,人工智能技術(shù)取得了突飛猛進(jìn)的發(fā)展。特別是基礎(chǔ)模型的開發(fā)催生了所謂的“通用人工智能”。這些模型能夠執(zhí)行多樣化任務(wù),包括創(chuàng)造各種新內(nèi)容(如文本、代碼、圖像等),我們稱之為“生成式人工智能”。它們通常根據(jù)用戶輸入的指令(提示)來生成內(nèi)容,其質(zhì)量之高,以至于很難將其與人類生成的內(nèi)容進(jìn)行區(qū)分。
生成式人工智能的廣泛而快速的應(yīng)用引發(fā)了人們的廣泛關(guān)注以及廣泛的政策和機(jī)構(gòu)回應(yīng)。其中包括歐盟在《人工智能法案》以及七國集團(tuán)主導(dǎo)的《布萊切利宣言》。生成式人工智能為各行各業(yè)帶來了無限可能。尤其是在科學(xué)研究領(lǐng)域,人工智能的潛力巨大,它能夠加速科學(xué)發(fā)現(xiàn),提高研究效率和驗證過程的速度。然而,它也伴隨著風(fēng)險,比如大量制造虛假信息,以及其他可能對社會產(chǎn)生重大影響的不道德用途;此外,技術(shù)的濫用也可能導(dǎo)致研究的不端行為和錯誤信息的傳播。
一、指南的核心原則
這些指導(dǎo)方針基于現(xiàn)有的相關(guān)框架,如《歐洲研究誠信行為準(zhǔn)則》和《高級別專家制定的關(guān)于可信賴人工智能的工作和指南》。它們強(qiáng)調(diào)了研究質(zhì)量的可靠性、透明度、公平性、徹底性和公正性,以及尊重同事、研究參與者和社會的原則。
二、關(guān)于在科學(xué)研究中負(fù)責(zé)任地使用生成式人工智能的指導(dǎo)原則
(一)對科研人員的建議
1. 對科研成果負(fù)最終責(zé)任。
a) 科研人員對由人工智能工具生成或在其支持下生成的內(nèi)容的完整性負(fù)責(zé)。
b) 科研人員在使用生成式人工智能所產(chǎn)生的結(jié)果時應(yīng)保持批判的態(tài)度,并意識到這些工具的局限性,如偏差、幻覺和不準(zhǔn)確性。
c) 人工智能系統(tǒng)既不是作者,也不是共同作者。作者身份意味著代理權(quán)和責(zé)任,因此它屬于人類科研人員。
d) 科研人員不會在科學(xué)研究過程中使用生成式人工智能制作的材料,例如偽造、篡改或操縱原始研究數(shù)據(jù)。
2. 透明地使用生成式人工智能。
a) 為透明起見,科研人員應(yīng)詳細(xì)說明在其研究過程中主要使用了哪些生成式人工智能工具。提到的工具可包括名稱、版本、日期等,以及它是如何被使用并對研究過程產(chǎn)生影響的。如果相關(guān),研究人員應(yīng)根據(jù)開放科學(xué)原則提供輸入(提示)和輸出。
b) 科研人員考慮到了生成式人工智能工具的隨機(jī)性,即相同的輸入會產(chǎn)生不同的輸出。科研人員力求結(jié)果和結(jié)論的可重復(fù)性和穩(wěn)健性。他們披露或討論所使用的生成式人工智能工具的局限性,包括生成內(nèi)容中可能存在的偏差,以及可能的緩解措施。
3. 在與人工智能工具共享敏感或受保護(hù)信息時,要特別注意與隱私、保密和知識產(chǎn)權(quán)相關(guān)的問題。
a) 科研人員應(yīng)注意到,生成或上傳的輸入(文本、數(shù)據(jù)、提示、圖像等)可能會被用于其他目的,如訓(xùn)練人工智能模型。因此,他們要保護(hù)未發(fā)表或敏感的作品(如自己或他人未發(fā)表的作品),注意不要將其上傳到在線人工智能系統(tǒng)中,除非能保證這些數(shù)據(jù)不會被重復(fù)使用。
b) 科研人員應(yīng)注意不向在線生成式人工智能系統(tǒng)提供第三方的個人數(shù)據(jù),除非得到數(shù)據(jù)主體(個人)的同意,且應(yīng)遵守歐盟數(shù)據(jù)保護(hù)規(guī)則確保符合歐盟數(shù)據(jù)保護(hù)規(guī)則。
c) 科研人員應(yīng)了解有關(guān)隱私、保密和知識產(chǎn)權(quán)的技術(shù)和道德影響。例如,檢查工具的隱私選項、工具的管理者(公共或私營機(jī)構(gòu)、公司等)、工具的運行地點以及對上傳信息的影響。這可能包括封閉環(huán)境、在第三方基礎(chǔ)設(shè)施上托管并保證隱私,也可能包括開放的互聯(lián)網(wǎng)訪問平臺。
4. 在使用生成式人工智能時,要像在常規(guī)研究活動中一樣,尊重適用的國家、歐盟和國際立法。特別是,生成式人工智能所產(chǎn)出的成果在知識產(chǎn)權(quán)和個人數(shù)據(jù)保護(hù)方面可能特別敏感。
a) 科研人員在使用生成式人工智能的輸出結(jié)果時,要注意剽竊(文本、代碼、圖像等)的可能性。科研人員要尊重他人的著作權(quán),并在適當(dāng)時引用他人的作品。生成式人工智能的輸出(如大型語言模型)可能基于他人的成果,需要適當(dāng)識別和引用。
b) 生成式人工智能產(chǎn)生的輸出可能包含個人數(shù)據(jù)。如果出現(xiàn)這種情況,科研人員有責(zé)任負(fù)責(zé)任地妥善處理輸出的任何個人數(shù)據(jù),并遵守歐盟數(shù)據(jù)保護(hù)規(guī)則。
5. 通過培訓(xùn)等方式,不斷學(xué)習(xí)如何正確使用生成式人工智能工具,以最大限度地發(fā)揮其優(yōu)勢。生成式人工智能工具發(fā)展迅速,新的使用方法不斷被發(fā)現(xiàn)。科研人員要及時了解最佳實踐,并與同事和其他利益相關(guān)者分享。
6. 避免在可能影響其他科研人員或組織的敏感活動中大量使用人工智能生成工具(例如同行評審、研究提案評估等)。
a) 避免使用生成式人工智能工具,可消除這些工具的局限性(如幻覺和偏見)可能導(dǎo)致的不公平待遇或評估的潛在風(fēng)險。
b) 此外,這樣做還可以保護(hù)科研人員未發(fā)表的原創(chuàng)作品,使其免于暴露或被納入人工智能模型。
(二)對科研機(jī)構(gòu)的建議
1.促進(jìn)、指導(dǎo)和支持在研究活動中負(fù)責(zé)任地使用生成式人工智能。
a) 科研機(jī)構(gòu)提供和/或促進(jìn)關(guān)于使用生成式人工智能的培訓(xùn),特別是(但不限于)關(guān)于驗證輸出、維護(hù)隱私、解決偏見和保護(hù)知識產(chǎn)權(quán)的培訓(xùn)。
b) 科研機(jī)構(gòu)提供支持和指導(dǎo),確保符合道德和法律要求(歐盟數(shù)據(jù)保護(hù)規(guī)則、知識產(chǎn)權(quán)保護(hù)等)。
2. 積極監(jiān)督組織內(nèi)生成式人工智能系統(tǒng)的開發(fā)和使用情況。
a) 科研機(jī)構(gòu)始終關(guān)注其使用生成式人工智能的研究活動和流程,以便更好地支持其未來的使用。以便為使用生成式人工智能提供進(jìn)一步指導(dǎo)、幫助確定培訓(xùn)需求,并了解哪種支持最有益;幫助預(yù)測和防范人工智能工具可能被誤用和濫用;出版并與科學(xué)界共享。
b) 科研究機(jī)構(gòu)分析技術(shù)和工具的局限性,并向其科研人員提供反饋和建議。
3. 參考這些生成式人工智能指南,或?qū)⑵浼{入研究實踐和倫理的一般研究指南中。
a) 科研機(jī)構(gòu)以這些指導(dǎo)方針為討論基礎(chǔ),就生成式人工智能的使用和相關(guān)政策公開征求研究人員和利益相關(guān)者的意見。
b) 科研機(jī)構(gòu)應(yīng)盡可能采用這些指導(dǎo)方針。如有必要,還可補(bǔ)充具體的附加建議和/或例外情況,并應(yīng)公布這些建議和/或例外情況,以提高透明度。
4. 在可能和必要的情況下,實施本地托管或基于云的生成式人工智能工具,由它們自己管理。這樣,員工就能將他們的科學(xué)數(shù)據(jù)輸入到一個能確保數(shù)據(jù)保護(hù)和保密性的工具中。各組織確保這些系統(tǒng),特別是與互聯(lián)網(wǎng)連接的系統(tǒng)達(dá)到適當(dāng)?shù)木W(wǎng)絡(luò)安全水平。
(三)對科研資助組織的建議
資助組織在不同的背景下運作,遵循不同的任務(wù)和規(guī)定,可能與單一的一套準(zhǔn)則不一致。以下是一些有效的做法,供各組織以最適合其具體情況和目標(biāo)的方式加以實施。
1. 促進(jìn)和支持在研究中負(fù)責(zé)任地使用生成式人工智能。
a) 科研資助組織設(shè)計的資助工具應(yīng)開放、樂于接受并支持在研究活動中負(fù)責(zé)任地、合乎道德地使用生成式人工智能技術(shù)。
b) 科研資助組織應(yīng)要求受資助的研究和受資助者符合現(xiàn)有的國家、歐盟和國際立法(如適用)以及使用生成式人工智能的有益實踐。
c) 科研資助組織應(yīng)鼓勵研究人員和研究機(jī)構(gòu)以合乎道德和負(fù)責(zé)任的方式使用生成式人工智能,包括遵守法律和研究標(biāo)準(zhǔn)要求。
2. 審查生成式人工智能在其內(nèi)部流程中的使用情況。它們將確保以透明和負(fù)責(zé)任的方式使用人工智能,從而起到帶頭作用。
a) 根據(jù)強(qiáng)調(diào)責(zé)任和人為監(jiān)督的問責(zé)原則,科研資助組織仍對在其活動中使用生成式人工智能負(fù)全部責(zé)任。
b) 科研資助組織應(yīng)以透明的方式使用生成式人工智能,特別是在與評估和評價目的管理有關(guān)的活動中,并且不損害內(nèi)容的保密性和過程的公平性。
c) 在選擇生成式人工智能工具時,科研資助組織應(yīng)仔細(xì)考慮該工具是否符合質(zhì)量、透明度、完整性、數(shù)據(jù)保護(hù)、保密性和尊重知識產(chǎn)權(quán)的標(biāo)準(zhǔn)。
3. 要求科研項目申請者在使用生成式人工智能方面保持透明,以便于報告。
a) 科研項目申請者應(yīng)聲明在申報過程中是否使用了大量人工智能生成工具。
b) 科研項目申請者應(yīng)提供信息,說明生成式人工智能在提議和開展的研究活動中的作用。
4. 關(guān)注并積極參與快速發(fā)展的生成式人工智能領(lǐng)域。科研資助組織應(yīng)推動并資助培訓(xùn)和教育計劃,以便在科學(xué)研究中以合乎道德和負(fù)責(zé)任的方式使用人工智能。
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務(wù)。