近年來,隨著數(shù)據(jù)資源的廣泛可用、計算能力的飛躍以及機器學習的進步,人工智能技術取得了突飛猛進的發(fā)展。特別是基礎模型的開發(fā)催生了所謂的“通用人工智能”。這些模型能夠執(zhí)行多樣化任務,包括創(chuàng)造各種新內(nèi)容(如文本、代碼、圖像等),我們稱之為“生成式人工智能”。它們通常根據(jù)用戶輸入的指令(提示)來生成內(nèi)容,其質(zhì)量之高,以至于很難將其與人類生成的內(nèi)容進行區(qū)分。
生成式人工智能的廣泛而快速的應用引發(fā)了人們的廣泛關注以及廣泛的政策和機構回應。其中包括歐盟在《人工智能法案》以及七國集團主導的《布萊切利宣言》。生成式人工智能為各行各業(yè)帶來了無限可能。尤其是在科學研究領域,人工智能的潛力巨大,它能夠加速科學發(fā)現(xiàn),提高研究效率和驗證過程的速度。然而,它也伴隨著風險,比如大量制造虛假信息,以及其他可能對社會產(chǎn)生重大影響的不道德用途;此外,技術的濫用也可能導致研究的不端行為和錯誤信息的傳播。
一、指南的核心原則
這些指導方針基于現(xiàn)有的相關框架,如《歐洲研究誠信行為準則》和《高級別專家制定的關于可信賴人工智能的工作和指南》。它們強調(diào)了研究質(zhì)量的可靠性、透明度、公平性、徹底性和公正性,以及尊重同事、研究參與者和社會的原則。
二、關于在科學研究中負責任地使用生成式人工智能的指導原則
(一)對科研人員的建議
1. 對科研成果負最終責任。
a) 科研人員對由人工智能工具生成或在其支持下生成的內(nèi)容的完整性負責。
b) 科研人員在使用生成式人工智能所產(chǎn)生的結果時應保持批判的態(tài)度,并意識到這些工具的局限性,如偏差、幻覺和不準確性。
c) 人工智能系統(tǒng)既不是作者,也不是共同作者。作者身份意味著代理權和責任,因此它屬于人類科研人員。
d) 科研人員不會在科學研究過程中使用生成式人工智能制作的材料,例如偽造、篡改或操縱原始研究數(shù)據(jù)。
2. 透明地使用生成式人工智能。
a) 為透明起見,科研人員應詳細說明在其研究過程中主要使用了哪些生成式人工智能工具。提到的工具可包括名稱、版本、日期等,以及它是如何被使用并對研究過程產(chǎn)生影響的。如果相關,研究人員應根據(jù)開放科學原則提供輸入(提示)和輸出。
b) 科研人員考慮到了生成式人工智能工具的隨機性,即相同的輸入會產(chǎn)生不同的輸出??蒲腥藛T力求結果和結論的可重復性和穩(wěn)健性。他們披露或討論所使用的生成式人工智能工具的局限性,包括生成內(nèi)容中可能存在的偏差,以及可能的緩解措施。
3. 在與人工智能工具共享敏感或受保護信息時,要特別注意與隱私、保密和知識產(chǎn)權相關的問題。
a) 科研人員應注意到,生成或上傳的輸入(文本、數(shù)據(jù)、提示、圖像等)可能會被用于其他目的,如訓練人工智能模型。因此,他們要保護未發(fā)表或敏感的作品(如自己或他人未發(fā)表的作品),注意不要將其上傳到在線人工智能系統(tǒng)中,除非能保證這些數(shù)據(jù)不會被重復使用。
b) 科研人員應注意不向在線生成式人工智能系統(tǒng)提供第三方的個人數(shù)據(jù),除非得到數(shù)據(jù)主體(個人)的同意,且應遵守歐盟數(shù)據(jù)保護規(guī)則確保符合歐盟數(shù)據(jù)保護規(guī)則。
c) 科研人員應了解有關隱私、保密和知識產(chǎn)權的技術和道德影響。例如,檢查工具的隱私選項、工具的管理者(公共或私營機構、公司等)、工具的運行地點以及對上傳信息的影響。這可能包括封閉環(huán)境、在第三方基礎設施上托管并保證隱私,也可能包括開放的互聯(lián)網(wǎng)訪問平臺。
4. 在使用生成式人工智能時,要像在常規(guī)研究活動中一樣,尊重適用的國家、歐盟和國際立法。特別是,生成式人工智能所產(chǎn)出的成果在知識產(chǎn)權和個人數(shù)據(jù)保護方面可能特別敏感。
a) 科研人員在使用生成式人工智能的輸出結果時,要注意剽竊(文本、代碼、圖像等)的可能性??蒲腥藛T要尊重他人的著作權,并在適當時引用他人的作品。生成式人工智能的輸出(如大型語言模型)可能基于他人的成果,需要適當識別和引用。
b) 生成式人工智能產(chǎn)生的輸出可能包含個人數(shù)據(jù)。如果出現(xiàn)這種情況,科研人員有責任負責任地妥善處理輸出的任何個人數(shù)據(jù),并遵守歐盟數(shù)據(jù)保護規(guī)則。
5. 通過培訓等方式,不斷學習如何正確使用生成式人工智能工具,以最大限度地發(fā)揮其優(yōu)勢。生成式人工智能工具發(fā)展迅速,新的使用方法不斷被發(fā)現(xiàn)。科研人員要及時了解最佳實踐,并與同事和其他利益相關者分享。
6. 避免在可能影響其他科研人員或組織的敏感活動中大量使用人工智能生成工具(例如同行評審、研究提案評估等)。
a) 避免使用生成式人工智能工具,可消除這些工具的局限性(如幻覺和偏見)可能導致的不公平待遇或評估的潛在風險。
b) 此外,這樣做還可以保護科研人員未發(fā)表的原創(chuàng)作品,使其免于暴露或被納入人工智能模型。
(二)對科研機構的建議
1.促進、指導和支持在研究活動中負責任地使用生成式人工智能。
a) 科研機構提供和/或促進關于使用生成式人工智能的培訓,特別是(但不限于)關于驗證輸出、維護隱私、解決偏見和保護知識產(chǎn)權的培訓。
b) 科研機構提供支持和指導,確保符合道德和法律要求(歐盟數(shù)據(jù)保護規(guī)則、知識產(chǎn)權保護等)。
2. 積極監(jiān)督組織內(nèi)生成式人工智能系統(tǒng)的開發(fā)和使用情況。
a) 科研機構始終關注其使用生成式人工智能的研究活動和流程,以便更好地支持其未來的使用。以便為使用生成式人工智能提供進一步指導、幫助確定培訓需求,并了解哪種支持最有益;幫助預測和防范人工智能工具可能被誤用和濫用;出版并與科學界共享。
b) 科研究機構分析技術和工具的局限性,并向其科研人員提供反饋和建議。
3. 參考這些生成式人工智能指南,或將其納入研究實踐和倫理的一般研究指南中。
a) 科研機構以這些指導方針為討論基礎,就生成式人工智能的使用和相關政策公開征求研究人員和利益相關者的意見。
b) 科研機構應盡可能采用這些指導方針。如有必要,還可補充具體的附加建議和/或例外情況,并應公布這些建議和/或例外情況,以提高透明度。
4. 在可能和必要的情況下,實施本地托管或基于云的生成式人工智能工具,由它們自己管理。這樣,員工就能將他們的科學數(shù)據(jù)輸入到一個能確保數(shù)據(jù)保護和保密性的工具中。各組織確保這些系統(tǒng),特別是與互聯(lián)網(wǎng)連接的系統(tǒng)達到適當?shù)木W(wǎng)絡安全水平。
(三)對科研資助組織的建議
資助組織在不同的背景下運作,遵循不同的任務和規(guī)定,可能與單一的一套準則不一致。以下是一些有效的做法,供各組織以最適合其具體情況和目標的方式加以實施。
1. 促進和支持在研究中負責任地使用生成式人工智能。
a) 科研資助組織設計的資助工具應開放、樂于接受并支持在研究活動中負責任地、合乎道德地使用生成式人工智能技術。
b) 科研資助組織應要求受資助的研究和受資助者符合現(xiàn)有的國家、歐盟和國際立法(如適用)以及使用生成式人工智能的有益實踐。
c) 科研資助組織應鼓勵研究人員和研究機構以合乎道德和負責任的方式使用生成式人工智能,包括遵守法律和研究標準要求。
2. 審查生成式人工智能在其內(nèi)部流程中的使用情況。它們將確保以透明和負責任的方式使用人工智能,從而起到帶頭作用。
a) 根據(jù)強調(diào)責任和人為監(jiān)督的問責原則,科研資助組織仍對在其活動中使用生成式人工智能負全部責任。
b) 科研資助組織應以透明的方式使用生成式人工智能,特別是在與評估和評價目的管理有關的活動中,并且不損害內(nèi)容的保密性和過程的公平性。
c) 在選擇生成式人工智能工具時,科研資助組織應仔細考慮該工具是否符合質(zhì)量、透明度、完整性、數(shù)據(jù)保護、保密性和尊重知識產(chǎn)權的標準。
3. 要求科研項目申請者在使用生成式人工智能方面保持透明,以便于報告。
a) 科研項目申請者應聲明在申報過程中是否使用了大量人工智能生成工具。
b) 科研項目申請者應提供信息,說明生成式人工智能在提議和開展的研究活動中的作用。
4. 關注并積極參與快速發(fā)展的生成式人工智能領域??蒲匈Y助組織應推動并資助培訓和教育計劃,以便在科學研究中以合乎道德和負責任的方式使用人工智能。
關注“廣東技術性貿(mào)易措施”,獲取更多服務。