近日,英國權(quán)威媒體《衛(wèi)報》發(fā)布了一項引人關(guān)注的報道,指出OpenAI公司旗下的ChatGPT搜索工具存在潛在的安全隱患。據(jù)稱,該搜索工具在處理包含隱藏內(nèi)容的網(wǎng)頁時,其返回的結(jié)果可能會被操縱,甚至可能包含惡意代碼。
為了驗證這一觀點,《衛(wèi)報》對ChatGPT搜索工具進行了針對性的測試。測試中,他們特別關(guān)注那些包含隱藏內(nèi)容的網(wǎng)頁,這些隱藏內(nèi)容可能包含來自第三方的指令,這些指令能夠更改ChatGPT的響應(yīng),也被稱為“提示注入”。這些隱藏內(nèi)容還可能包含大量虛假好評,從而影響ChatGPT生成的結(jié)果。
測試結(jié)果顯示,ChatGPT搜索工具確實存在被惡意利用的風險。即便網(wǎng)頁上存在負面評論,ChatGPT的搜索結(jié)果仍可能被操縱為積極的正面評估。更令人擔憂的是,安全研究人員還發(fā)現(xiàn),ChatGPT能夠從其搜索的網(wǎng)站返回惡意代碼,甚至出現(xiàn)了含有釣魚惡意行為的虛假網(wǎng)站。
對于這一發(fā)現(xiàn),網(wǎng)絡(luò)安全專家表達了不同的看法。CyberCX的網(wǎng)絡(luò)安全研究員Jacob Larsen認為,隨著ChatGPT搜索系統(tǒng)的發(fā)布,人們創(chuàng)建專門用于欺騙用戶的網(wǎng)站的風險顯著增加。幸運的是,該功能目前仍處于測試階段,OpenAI團隊正在積極應(yīng)對并努力解決這些問題。
然而,安全公司SR Labs的首席科學家Karsten Nohl則持更為謹慎的態(tài)度。他建議將AI聊天服務(wù)視為一種“輔助功能”,并強調(diào)用戶不應(yīng)完全信任其未經(jīng)過濾的輸出內(nèi)容。Nohl將AI搜索面臨的問題比作“SEO中毒”,即黑客利用技術(shù)手段操縱網(wǎng)站在搜索結(jié)果中的排名,并在網(wǎng)站中植入惡意軟件或代碼。他認為,ChatGPT的搜索功能同樣面臨著類似的挑戰(zhàn)。
Nohl還指出,由于AI技術(shù)的復雜性和不可預測性,用戶在使用ChatGPT等AI聊天服務(wù)時,應(yīng)保持警惕,避免泄露敏感信息或做出輕率的決策。他呼吁OpenAI等AI技術(shù)提供商加強安全防范措施,確保用戶數(shù)據(jù)的安全和隱私。
隨著AI技術(shù)的不斷發(fā)展和普及,其安全性和可靠性問題也日益凸顯。對于OpenAI等AI技術(shù)提供商而言,如何在追求技術(shù)創(chuàng)新的同時,確保用戶數(shù)據(jù)的安全和隱私,將是一個長期而艱巨的任務(wù)。