警惕大模型泄密

打開文本圖片集
如果要求ChatGPT持續(xù)輸出一個(gè)單詞,會(huì)怎么樣?大模型在重復(fù)這個(gè)單詞一定次數(shù)之后就會(huì)“發(fā)瘋”,甚至開始輸出某些個(gè)人隱私信息。
這是谷歌DeepMind、華盛頓大學(xué)、康奈爾大學(xué)等研究人員在2023年發(fā)表的一篇論文中介紹的案例。當(dāng)然這個(gè)漏洞現(xiàn)在已經(jīng)修復(fù),但AI發(fā)展過程中面臨的安全問題仍不容小覷。
深度求索(以下簡稱DeepSeek)的出圈,點(diǎn)燃了各行各業(yè)接入AI的熱情。(剩余1569字)