特黄三级爱爱视频|国产1区2区强奸|舌L子伦熟妇aV|日韩美腿激情一区|6月丁香综合久久|一级毛片免费试看|在线黄色电影免费|国产主播自拍一区|99精品热爱视频|亚洲黄色先锋一区

s

Sora問世,法律風險何在?

  • 打印
  • 收藏
  • 加入書簽
添加成功
收藏成功

AI根據(jù)提示詞生成的圖片:戴著VR眼罩的女孩。

AI的進化速度遠超預(yù)期! Sora強大的視頻生成能力,在令I(lǐng)T界、藝術(shù)界和科技愛好者感到興奮的同時,也難逃人類對于最新科技成果的擔憂。

影視業(yè)也許是最先直面Sora挑戰(zhàn)的行業(yè)。有從業(yè)者表示,可以預(yù)見的是,隨著Sora普及,草根導演會出現(xiàn),中基層的創(chuàng)作群體會很容易被洗牌。除了產(chǎn)業(yè)格局存在被重塑的可能性,Sora是否會進一步對傳統(tǒng)道德倫理及既定法律法規(guī)產(chǎn)生沖擊?為此,《新民周刊》記者采訪了關(guān)注人工智能的法律學者與從業(yè)律師。他們分享了各自眼中的擔憂與期許。

Sora出現(xiàn),誰慌了?

Sora出現(xiàn)后,輿論普遍認為影視行業(yè)從業(yè)者應(yīng)該是最先引起重視的群體。畢竟,2023年好萊塢大罷工以抵制“AI入侵”的畫面還歷歷在目。

據(jù)《環(huán)球時報》報道,當?shù)貢r間2023年7月13日,代表16萬演藝人員的美國演員工會及廣播電視藝人聯(lián)合工會(SAG-AFTRA)宣布,其與制片公司的談判破裂,確定從即日起進行罷工。當時編劇和演員稱,他們組織罷工是為了扭轉(zhuǎn)薪酬下降的趨勢。與傳統(tǒng)的電視、電影相比,人工智能及流媒體使他們的薪水和工作條件惡化,他們要求制片方和流媒體公司保證不會以人工智能技術(shù)生成的面孔和聲音來替代演藝人員。

好萊塢大罷工數(shù)月后,2023年12月27日,美國《紐約時報》又對OpenAI和微軟提起訴訟,指控這兩家企業(yè)未經(jīng)授權(quán)使用該媒體數(shù)以百萬計文章訓練ChatGPT等AI聊天機器人。

《紐約時報》稱,在某些情況下,OpenAI和微軟將其刊登的內(nèi)容逐字復(fù)制,提供給向AI聊天機器人尋求答案的用戶,這些新產(chǎn)品為新聞出版商創(chuàng)造了潛在競爭對手,而此種對媒體版權(quán)作品的使用方式是違法的。

國內(nèi)法律界人士認為,美國作為一個判例法國家,該案的判決結(jié)果對后續(xù)AI行業(yè)的同類性質(zhì)產(chǎn)品治理也會帶來“邏輯沿用”,譬如最新的Sora。

Sora和它的同類產(chǎn)品顯然已經(jīng)引起了一些實質(zhì)性爭議,未來可能還會延伸到哪些領(lǐng)域?同濟大學法學院副教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員陳吉棟接受《新民周刊》采訪表示,Sora雖然是最新的文生視頻模型,但其本身仍是依賴數(shù)據(jù)處理而運行,本質(zhì)上和過去已有的人工智能產(chǎn)品具有一致性。

“涉及數(shù)據(jù)處理,往往需要解決三方面問題。首先是個人信息和隱私保護;然后是財產(chǎn)權(quán)的利用問題,如數(shù)據(jù)權(quán)益與知識產(chǎn)權(quán);最后是公共利益和各層次的安全保護相關(guān)問題。”陳吉棟說道。

既然Sora的核心依然是數(shù)據(jù)處理,和過去的人工智能模型沒有發(fā)生根本性變化,為何有人在討論相關(guān)內(nèi)容時會感到非常擔憂?陳吉棟認為,這需要回到“風險”角度。關(guān)于這一點,他曾經(jīng)撰文指出,人工智能法律研究在治理法與責任法之間游移,未能正確處理人工智能法律制度展開的邏輯起點——風險及其治理理論研究與風險分配規(guī)范設(shè)計。

“目前我們擔心Sora等人工智能產(chǎn)品,擔憂它不安全,會造成新的風險與損害。傳統(tǒng)風險理論認為,當一個事物具有脆弱性,就會有可能被外來威脅利用,造成最終損害”,陳吉棟說,“進一步說,人類內(nèi)心對于人工智能的焦慮,根源在于不信任。人工智能不同于傳統(tǒng)社會信任關(guān)系的形成機制,它超脫時空,建立在計算的基礎(chǔ)上,對于計算過程與結(jié)果的不確定(黑箱)讓人難以捉摸?!?/p>

對此陳吉棟提出,伴隨著人工智能應(yīng)用背后的技術(shù)復(fù)雜程度越來越高,迭代速度越來越快,從而形成了建立在技術(shù)體系及其服務(wù)模式上的結(jié)構(gòu)性的不平等,人類沒有太多選擇。

在玻璃杯碎裂的視頻中,Sora混淆了玻璃破碎和液體溢出的順序。說明AI模擬物理世界的能力還存在著一定的偏差,有可能存在著巨大的誤導。

對于這種結(jié)構(gòu)性的不平等,陳吉棟認為,需要將人工智能系統(tǒng)研發(fā)與應(yīng)用風險的認知作為起點,加強事前、事中風險治理與民事責任的溝通,如此在研發(fā)者、生產(chǎn)者、服務(wù)提供者與用戶之間合理分配義務(wù),構(gòu)建以風險為基礎(chǔ)的人工智能法律治理體系。

用Sora生成視頻,版權(quán)怎么算?

目前Sora還未開啟公測,僅部分藝術(shù)家、OpenAI員工擁有Sora的訪問權(quán)限。一些嘗試過的業(yè)內(nèi)人士在感慨其強大創(chuàng)造力的同時,也發(fā)現(xiàn)各種漏洞和被濫用的風險。2024年1月,谷歌發(fā)布AI視頻模型Lumiere時,已經(jīng)宣稱“使用這一技術(shù)時,的確有創(chuàng)建虛假或有害內(nèi)容并被濫用的風險”。

假若未來Sora向普通用戶和社交媒體創(chuàng)作者開放,勢必會生產(chǎn)出海量視頻內(nèi)容,潛在的法律問題理應(yīng)得到更多重視。中倫律師事務(wù)所合伙人劉新宇律師接受《新民周刊》采訪表示,Sora等視頻生成模型是AI技術(shù)發(fā)展的重要里程碑,當然也在各個領(lǐng)域提出了法律問題。

劉新宇律師認為:“上述法律問題中,首先是對版權(quán)與知識產(chǎn)權(quán)的挑戰(zhàn);其次,是對隱私與數(shù)據(jù)保護的考量;再次,還涉及內(nèi)容責任與監(jiān)管的機制;最后,還要討論AI道德倫理的邊界?!?/p>

劉新宇律師說,在傳統(tǒng)法律框架下,版權(quán)保護的是人的創(chuàng)造性勞動成果,但Sora作為AIGC產(chǎn)品,其生成的視頻內(nèi)容是否應(yīng)被視為“作品”并享有版權(quán)保護,目前尚無明確法律答案。如果AI生成內(nèi)容被認定為作品,版權(quán)歸屬將變得復(fù)雜,可能涉及開發(fā)者、用戶甚至AI本身?!坝捎赟ora目前的創(chuàng)作邏輯是通過在網(wǎng)絡(luò)大數(shù)據(jù)中隨機抓取視頻素材進行‘再創(chuàng)作’,如果未經(jīng)權(quán)利人許可,抓取他人享有著作權(quán)的作品,進行分析、處理、演繹,并在后續(xù)輸出成果中展示,可能侵犯他人著作權(quán)。”

網(wǎng)站僅支持在線閱讀(不支持PDF下載),如需保存文章,可以選擇【打印】保存。
monitor