近期,英國(guó)權(quán)威媒體《衛(wèi)報(bào)》發(fā)布了一項(xiàng)針對(duì)OpenAI旗下ChatGPT搜索功能的安全性測(cè)試結(jié)果,引發(fā)了廣泛關(guān)注。測(cè)試發(fā)現(xiàn),ChatGPT在處理包含隱藏內(nèi)容的網(wǎng)頁時(shí),其搜索結(jié)果存在被操縱的風(fēng)險(xiǎn),甚至可能返回包含惡意代碼的內(nèi)容。
測(cè)試中,《衛(wèi)報(bào)》特別關(guān)注了那些含有第三方指令(即“提示注入”)和大量虛假好評(píng)的隱藏內(nèi)容。這些隱藏內(nèi)容能夠影響ChatGPT的響應(yīng),使其生成的結(jié)果偏離真實(shí)情況。例如,即使頁面存在負(fù)面評(píng)論,ChatGPT也可能被誘導(dǎo)生成積極的正面評(píng)估。
更令人擔(dān)憂的是,安全研究人員還發(fā)現(xiàn),ChatGPT在搜索某些網(wǎng)站時(shí),會(huì)返回含有惡意代碼的頁面。這些頁面可能包含釣魚攻擊等惡意行為,對(duì)用戶的信息安全構(gòu)成嚴(yán)重威脅。
針對(duì)這一測(cè)試結(jié)果,CyberCX的網(wǎng)絡(luò)安全研究員Jacob Larsen表示,隨著ChatGPT搜索系統(tǒng)的發(fā)布,人們創(chuàng)建專門用于欺騙用戶的網(wǎng)站的風(fēng)險(xiǎn)顯著增加。幸運(yùn)的是,目前該功能仍處于測(cè)試階段,OpenAI團(tuán)隊(duì)正在積極應(yīng)對(duì)這些問題,努力提升搜索功能的安全性。
同時(shí),安全公司SR Labs的首席科學(xué)家Karsten Nohl也提出了自己的建議。他認(rèn)為,AI聊天服務(wù)應(yīng)被視為一種“輔助功能”,用戶在使用時(shí)應(yīng)保持警惕,不應(yīng)完全信任其未經(jīng)過濾的輸出內(nèi)容。Nohl將AI搜索面臨的問題比作“SEO中毒”,即黑客通過技術(shù)手段操縱網(wǎng)站在搜索結(jié)果中的排名,并在其中植入惡意軟件或代碼。