中新網北京2月9日電(記者 袁秀月)近期,美國OpenAI公司旗下的人工智能聊天機器人ChatGPT一躍成為火爆全球的現(xiàn)象級應用。
作為一項新興的數(shù)字技術,人工智能正在以其強勁的力量影響周遭的世界。在人們因其產生好奇、興奮抑或擔憂、抵觸等情緒時,如何應對人工智能帶來的法律問題,警惕相關的法律風險亦顯得尤為重要。
ChatGPT生成的內容屬于誰?它能擁有作者身份嗎
(相關資料圖)
目前來看,人們應用ChatGPT的場景很廣泛,包括寫郵件、視頻腳本、文案、代碼、詩、論文等等。
國外一項對100多名教育工作者和1000多名學生展開的調查顯示,超過89%的學生使用ChatGPT來幫助完成家庭作業(yè)。也有研究者用它來撰寫學術論文,為此多家學術期刊更改編輯規(guī)則,禁止將ChatGPT列為合著者。
那么,在法律上,ChatGPT能擁有作者身份嗎?它生成文本內容的著作權屬于誰?
大成律師事務所合伙人李偉華對中新網記者表示,我國《著作權法》所稱“作者”,是自然人、法人或非法人組織,AI并非我國《著作權法》的“作者”,因此目前很難依據(jù)法律直接賦予ChatGPT以作者身份。即便對于少數(shù)明確通過立法承認AI生成內容可以獲得版權保護的國家,其通常也是將計算機軟件的開發(fā)者,或為生成過程作出實質性貢獻的人賦予作者身份。
此外他提到,也要看計算機軟件開發(fā)者與用戶之間的協(xié)議約定。比如,ChatGPT生成作品的著作權劃分問題可從其服務條款了解一二。
根據(jù)OpenAI的使用條款,只要該用戶遵守使用條款(其中包括某些使用限制),OpenAI就會將其在輸出內容中的所有權利、所有權和利益轉讓給提供輸入內容的用戶。然而,由于機器學習的特性,不同用戶可能會從AI中獲得相同或類似的輸出內容,而根據(jù)條款,只有獨有的“輸出內容”的權利才能夠轉讓。
因此這種輸出內容的轉讓需要排除呈現(xiàn)給其他ChatGPT用戶的結果,而該等限制會造成輸出內容著作權的的不確定性,且會隨著時間推移變得更加不明朗。
人工智能生成的作品能當做原創(chuàng)作品嗎?
利用人工智能進行內容創(chuàng)作,這并非新鮮事,但隨著技術的發(fā)展,人工智能內容生產水平不斷提高,甚至還出現(xiàn)AI畫作獲獎的案例。
人工智能生成的作品能當做原創(chuàng)作品嗎?李偉華表示,我國《著作權法》第三條規(guī)定,本法所稱的作品,是指文學、藝術和科學領域內具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果。因此理論上來講,無論自然人所創(chuàng)作的內容,還是ChatGPT等人工智能生成的內容,只要能滿足前述構成要件都可以構成作品。
不過,目前,中國法律并未對人工智能生成的內容是否可以構成作品作出明確規(guī)定,我國法院在司法實踐中也對此存在不同理解。對此李偉華認為,人工智能生成的內容只要滿足《著作權法》關于作品的構成要件,應當被賦予版權保護。
“因為這些看似屬于計算機或人工智能創(chuàng)作的內容,根本上還是人類智慧產生的結果,計算機或人工智能不過是在依據(jù)人類事先設定的程序、內容或算法進行計算和輸出而已?!彼f。
還有哪些法律風險?
人工智能的發(fā)展也帶來了一系列嶄新的法律問題,對于普通的用戶而言,應當注意哪些法律風險?
在李偉華看來,首先是知識產權侵權風險,因為ChatGPT是在大量不同的數(shù)據(jù)集上訓練出來的大型語言模型,使用受版權保護的材料來訓練人工智能模型,可能導致該模型在向用戶提供回復時過度借鑒他人的作品,從而引起侵權糾紛。
李偉華提醒,作為用戶應當意識到這一風險,并考慮通過避免限縮聊天請求等可行措施,來避免或限制獲得趨于精確、狹義的可能來自特定作品的輸出內容。
其次是數(shù)據(jù)合規(guī)風險。OpenAI的使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內容擁有廣泛使用權以改善ChatGPT。在此基礎上,若用戶在輸入請求時,輸入與已識別或者可識別的自然人有關的各種信息(未匿名化處理),則有侵害他人個人信息權益的風險。
因此用戶在使用ChatGPT時,應對所有可能涉及個人信息的數(shù)據(jù)進行匿名化處理,或避免鍵入任何涉及個人信息的內容。
最后是泄露商業(yè)秘密及違背保密義務的風險。李偉華解釋,用戶可能在無防備無警覺的情況下,在提交請求時輸入涉密信息。OpenAI的使用條款并未對用戶可能輸入ChatGPT的機密信息提供任何保護。相反,使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內容擁有廣泛使用權以改善ChatGPT,但允許用戶與OpenAI取得聯(lián)系,選擇不允許OpenAI將相關內容用于此類目的。
因此,用戶尤其是負有保密義務的用戶在使用ChatGPT和類似的人工智能工具時,應當注意采取措施,以免出現(xiàn)泄密行為。(完)