編者按:
(資料圖片僅供參考)
在2023年過去的幾個(gè)月里,各大公司搶灘大模型、GPT商用化探索、算力基礎(chǔ)設(shè)施看漲……如同15世紀(jì)開啟的大航海時(shí)代,人類交往、貿(mào)易、財(cái)富有了爆炸性增長,空間革命席卷全球。變革同時(shí),也帶來了秩序的挑戰(zhàn),數(shù)據(jù)泄露、個(gè)人隱私風(fēng)險(xiǎn)、著作權(quán)侵權(quán)、虛假信息......此外,AI帶來的后人類主義危機(jī)已然擺在桌面,人們該以何種姿態(tài)迎接人機(jī)混雜帶來的迷思?
此刻,尋求AI治理的共識、重塑新秩序成了各國共同面對的課題。南財(cái)合規(guī)科技研究院將推出AI契約論系列報(bào)道,從中外監(jiān)管模式、主體責(zé)任分配、語料庫數(shù)據(jù)合規(guī)、AI倫理、產(chǎn)業(yè)發(fā)展等維度,進(jìn)行剖析,以期為AI治理方案提供一些思路,保障負(fù)責(zé)任的創(chuàng)新。
Sam Altman走進(jìn)了國會山。這位在過去幾個(gè)月贏得全球最多關(guān)注的年輕創(chuàng)業(yè)者,和他身后的OpenAI一起迎來了屬于自己的聽證會時(shí)刻。
近日,美國參議院司法機(jī)構(gòu)隱私、技術(shù)和法律小組委員會舉行名為“AI監(jiān)管:人工智能的規(guī)則(Oversight of AI: Rules for Artificial Intelligence)”的聽證會。在聽證會上,被譽(yù)為ChatGPT之父的OpenAI首席執(zhí)行官兼聯(lián)合創(chuàng)始人Sam Altman提出了一個(gè)并不常見的訴求——請政府加大對人工智能領(lǐng)域的監(jiān)管力度。
ChatGPT橫空出世,大型語言模型的驚艷表現(xiàn)讓一條未曾想象的道路在技術(shù)與產(chǎn)業(yè)面前徐徐鋪開。然而硬幣的另一面,是科技倫理、知識產(chǎn)權(quán)、數(shù)據(jù)安全等諸多問題亟待監(jiān)管和治理的現(xiàn)實(shí)。
梳理發(fā)現(xiàn),各國政府和監(jiān)管機(jī)構(gòu)已開始采取措施加強(qiáng)監(jiān)管,以確保公眾利益和安全。然而,在面對日新月異的人工智能技術(shù),監(jiān)管層面仍面臨多重挑戰(zhàn),全球也尚未形成通行、共識的人工智能治理規(guī)則和體系。
受訪專家表示,針對人工智能的風(fēng)險(xiǎn)監(jiān)管或者治理,需多方參與,共同型構(gòu)規(guī)制空間,協(xié)力促進(jìn)人工智能良性發(fā)展。
AI要監(jiān)管:千人聯(lián)名信與國會山里的呼吁
人工智能技術(shù)可能使人類歷史迎來一個(gè)“印刷機(jī)時(shí)刻”。5月16日,Sam Altman走入國會山,在聽證會中如是說道。
作為OpenAI的聯(lián)合創(chuàng)始人兼首席執(zhí)行官,Sam Altman在過去幾個(gè)月隨著ChatGPT的出現(xiàn)和擴(kuò)散逐步走到聚光燈下。與此前科技巨頭展露出的攻擊和防備不同,他認(rèn)同議員們對風(fēng)險(xiǎn)的質(zhì)疑,并積極地給出了自己的解決方案。
在這個(gè)以AI監(jiān)管為主題的會議上,圍繞人工智能,對版權(quán)侵害、虛假內(nèi)容、數(shù)據(jù)安全、政府監(jiān)管等諸多活了議題進(jìn)行了討論。
在聽證會上,Sam Altman表示,人工智能有潛力改善我們生活的方方面面,但同時(shí)也會帶來嚴(yán)重的風(fēng)險(xiǎn)?!拔艺J(rèn)為應(yīng)該對我們施加監(jiān)管壓力?!彼苯亓水?dāng)?shù)乇硎尽?/p>
擔(dān)憂與ChatGPT的火爆相伴相生。泄露機(jī)密信息、撰寫虛假文章、剽竊人類創(chuàng)意……ChatGPT似乎打開了“潘多拉魔盒”。
會議上,Sam Altman提供了幾個(gè)監(jiān)管建議。首先是成立一個(gè)新的機(jī)構(gòu),超過一定規(guī)模的功能研究和應(yīng)用需要獲得該機(jī)構(gòu)的許可才可進(jìn)行;該機(jī)構(gòu)也有將許可收回的權(quán)力。其次是構(gòu)建一套人工智能安全標(biāo)準(zhǔn),重點(diǎn)關(guān)注模型的危險(xiǎn)能力評估,模型在部署到外部世界時(shí)需要通過具體的測試。另外,他還指出應(yīng)該踐行獨(dú)立審計(jì)。在公司或機(jī)構(gòu)的自我審查之外,監(jiān)管需要廣泛聽取外部專家的評價(jià)意見。
人工智能的應(yīng)用往往與大量隱私數(shù)據(jù)關(guān)聯(lián),針對被用以研究和計(jì)算的數(shù)據(jù),Sam Altman認(rèn)為應(yīng)當(dāng)設(shè)立便捷的退出、刪除機(jī)制。用戶有權(quán)決定自己的數(shù)據(jù)是否用戶訓(xùn)練,也能自由地刪除相關(guān)數(shù)據(jù)。
兩天前,OpenAI官網(wǎng)發(fā)布Sam Altman參與寫作的博文,主題仍是人工智能治理,其中提到:“現(xiàn)在是一個(gè)開始思考超級智能(Super Intelligence)監(jiān)管的良好時(shí)機(jī) —— 未來的 AI 系統(tǒng)將比 AGI 都要強(qiáng)大”。他提出,應(yīng)當(dāng)成立類似“國際原子能機(jī)構(gòu)”的專門監(jiān)管機(jī)構(gòu)對超過一定能力(或計(jì)算資源等)超級人工智能進(jìn)行監(jiān)管。
在Sam Altman走進(jìn)國會山之前,全球范圍內(nèi)已有多方對當(dāng)前人工智能技術(shù)表達(dá)了關(guān)切和擔(dān)憂。
3月,美國數(shù)千名人工智能領(lǐng)域企業(yè)家、學(xué)者、高管發(fā)出了一封題為《暫停大型人工智能研究》公開信,呼吁關(guān)注人工智能研發(fā)中產(chǎn)生的安全問題,并敦促各國政府及時(shí)介入人工智能的監(jiān)管。同月,人工智能和數(shù)字政策中心向美國聯(lián)邦貿(mào)易委員會投訴,試圖阻止向消費(fèi)者發(fā)布強(qiáng)大的AI系統(tǒng)。
監(jiān)管進(jìn)行時(shí):禁用、調(diào)查和立法
各國政府和監(jiān)管機(jī)構(gòu)也已采取措施加強(qiáng)監(jiān)管。
3月,意大利隱私監(jiān)管機(jī)構(gòu)宣布境內(nèi)暫時(shí)禁用ChatGPT。4月,意大利、加拿大等國宣布將對OpenAI展開調(diào)查;同月,美國商務(wù)部就ChatGPT等人工智能技術(shù)相關(guān)的問責(zé)措施正式公開征求意見,包括具有潛在風(fēng)險(xiǎn)的新型人工智能模型在發(fā)布前是否應(yīng)進(jìn)行核準(zhǔn)認(rèn)證程序;中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》。
此外,英國、美國、日本、歐盟均在5月針對人工智能有所動作。其中,歐盟《人工智能法案》多個(gè)提案在歐洲議會通過,即將進(jìn)入歐盟委員會、歐洲議會及歐盟理事會的“三方會談”(trilogue)階段。
事實(shí)上,人工智能是一把雙刃劍早已成為全球共識。梳理發(fā)現(xiàn),在此輪AICG浪潮之前,全球范圍內(nèi)關(guān)于人工智能已有多份立法及監(jiān)管文件。
在斯坦福大學(xué)發(fā)布的《2023年人工智能指數(shù)報(bào)告》中提到,對127個(gè)國家的立法記錄調(diào)研的結(jié)果顯示,包含“人工智能”的法案被通過成為法律的數(shù)量,從2016年的僅1個(gè)增長到2022年的37個(gè)。報(bào)告還對81個(gè)國家2016年以來的人工智能議會記錄的分析也同樣表明,全球立法程序中提及人工智能的次數(shù)增加了近6.5倍。
隨著生成式人工智能研究和使用規(guī)模逐漸增長,建立新型的人工智能監(jiān)管框架十分必要。
對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心執(zhí)行主任張欣就指出,監(jiān)管框架的構(gòu)建能夠保證在推動人工智能的負(fù)責(zé)任創(chuàng)新的同時(shí)化解新興技術(shù)應(yīng)用時(shí)蘊(yùn)含的風(fēng)險(xiǎn)。在市場機(jī)制無法很好地發(fā)揮作用的“野蠻生長期”,框架式的監(jiān)管也能為行業(yè)指明健康發(fā)展的方向。
而據(jù)南方財(cái)經(jīng)全媒體記者不完全統(tǒng)計(jì),從2019年至今,多個(gè)國家、地區(qū)和國際組織就已經(jīng)著手于建立人工智能的監(jiān)管框架。
協(xié)同共治:構(gòu)建多元規(guī)制空間
現(xiàn)如今,新型人工智能監(jiān)管框架的構(gòu)建在各國迅速推進(jìn),如何有效推動落地?在采訪中多位專家表示多方參與,協(xié)同共治是關(guān)鍵。
“由企業(yè)、第三方團(tuán)體和公眾所組成的外部監(jiān)督也是構(gòu)成整個(gè)監(jiān)管體系的重點(diǎn)?!睆埿乐赋?。
同濟(jì)大學(xué)法學(xué)院副教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員陳吉棟則表示,社會各主體構(gòu)成的多元規(guī)制很重要,有了多元主體參與才能確定社會權(quán)益的分配邊界和規(guī)則。“總的來說,風(fēng)險(xiǎn)的監(jiān)管或者風(fēng)險(xiǎn)社會的治理,是多種規(guī)制力量協(xié)力的結(jié)果,目前看,各方主體需要對話,共同型構(gòu)一個(gè)規(guī)制空間?!彼硎?。
實(shí)際上,各方也已在發(fā)力。4月初,OpenAI發(fā)布《我們邁向人工智能安全的路徑》,闡述了他們在安全工作付出的努力,并從建立日益安全的人工智能系統(tǒng)、從實(shí)際應(yīng)用中學(xué)習(xí),以改進(jìn)保障措施、保護(hù)兒童、尊重隱私、改善事實(shí)準(zhǔn)確性、持續(xù)研究和合作七個(gè)方面做出了保證。在幾天前國會山的聽證會上,Sam Altman則宣布在未來六個(gè)月內(nèi)不會訓(xùn)練GPT-5,年內(nèi)也可能不會再推出更強(qiáng)大的AI模型。
此外,4月,美國新聞/媒體聯(lián)盟發(fā)布“人工智能原則”,要求生成式人工智能必須尊重創(chuàng)作者對其內(nèi)容的權(quán)利,其生成的內(nèi)容必須對發(fā)布商和用戶透明并負(fù)責(zé)。
5月,人工智能初創(chuàng)企業(yè)Anthropic結(jié)合聯(lián)合國人權(quán)宣言、若干信任和安全“最佳實(shí)踐”等一系列文本制定了人工智能道德原則,并基于此開發(fā)了憲法AI“Claude”。
在我國,抖音也于近期發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議》,制定標(biāo)識水印及元數(shù)據(jù)規(guī)范,呼吁全行業(yè)向公眾提示信息內(nèi)容的合成情況以避免混淆或者誤認(rèn)。
“監(jiān)管、企業(yè)、媒體和公眾在人工智能治理框架下將扮演不同的角色?!?北京師范大學(xué)法學(xué)院博士生導(dǎo)師、中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括指出,“監(jiān)管作為秩序的建立者和維護(hù)者的角色,一方面提供關(guān)于業(yè)務(wù)運(yùn)行的基本指引規(guī)則,另一方面突出對于紅線風(fēng)險(xiǎn)有效地研判、防范和干預(yù)。企業(yè)則通過積極履行主體責(zé)任,在合法合規(guī)層面通過有效的技術(shù)創(chuàng)新、有效的流程管理和有效的風(fēng)險(xiǎn)防范來構(gòu)筑人工智能治理的生態(tài)底座。媒體和公眾作為監(jiān)督和治理的第三極,發(fā)揮著凝聚共識的重要作用,通過有效均衡的治理結(jié)構(gòu)推進(jìn)人工智能的良性可持續(xù)發(fā)展?!?/p>
觀往知來,如何處理好監(jiān)管與發(fā)展的雙生博弈,讓我們拭目以待。