近日,英國權(quán)威媒體《衛(wèi)報(bào)》發(fā)布了一項(xiàng)引人關(guān)注的報(bào)道,指出OpenAI公司旗下的ChatGPT搜索工具存在潛在的安全隱患。據(jù)稱,該搜索工具在處理包含隱藏內(nèi)容的網(wǎng)頁時(shí),其返回的結(jié)果可能會(huì)被操縱,甚至可能包含惡意代碼。
為了驗(yàn)證這一觀點(diǎn),《衛(wèi)報(bào)》對(duì)ChatGPT搜索工具進(jìn)行了針對(duì)性的測(cè)試。測(cè)試中,他們特別關(guān)注那些包含隱藏內(nèi)容的網(wǎng)頁,這些隱藏內(nèi)容可能包含來自第三方的指令,這些指令能夠更改ChatGPT的響應(yīng),也被稱為“提示注入”。這些隱藏內(nèi)容還可能包含大量虛假好評(píng),從而影響ChatGPT生成的結(jié)果。
測(cè)試結(jié)果顯示,ChatGPT搜索工具確實(shí)存在被惡意利用的風(fēng)險(xiǎn)。即便網(wǎng)頁上存在負(fù)面評(píng)論,ChatGPT的搜索結(jié)果仍可能被操縱為積極的正面評(píng)估。更令人擔(dān)憂的是,安全研究人員還發(fā)現(xiàn),ChatGPT能夠從其搜索的網(wǎng)站返回惡意代碼,甚至出現(xiàn)了含有釣魚惡意行為的虛假網(wǎng)站。
對(duì)于這一發(fā)現(xiàn),網(wǎng)絡(luò)安全專家表達(dá)了不同的看法。CyberCX的網(wǎng)絡(luò)安全研究員Jacob Larsen認(rèn)為,隨著ChatGPT搜索系統(tǒng)的發(fā)布,人們創(chuàng)建專門用于欺騙用戶的網(wǎng)站的風(fēng)險(xiǎn)顯著增加。幸運(yùn)的是,該功能目前仍處于測(cè)試階段,OpenAI團(tuán)隊(duì)正在積極應(yīng)對(duì)并努力解決這些問題。
然而,安全公司SR Labs的首席科學(xué)家Karsten Nohl則持更為謹(jǐn)慎的態(tài)度。他建議將AI聊天服務(wù)視為一種“輔助功能”,并強(qiáng)調(diào)用戶不應(yīng)完全信任其未經(jīng)過濾的輸出內(nèi)容。Nohl將AI搜索面臨的問題比作“SEO中毒”,即黑客利用技術(shù)手段操縱網(wǎng)站在搜索結(jié)果中的排名,并在網(wǎng)站中植入惡意軟件或代碼。他認(rèn)為,ChatGPT的搜索功能同樣面臨著類似的挑戰(zhàn)。
Nohl還指出,由于AI技術(shù)的復(fù)雜性和不可預(yù)測(cè)性,用戶在使用ChatGPT等AI聊天服務(wù)時(shí),應(yīng)保持警惕,避免泄露敏感信息或做出輕率的決策。他呼吁OpenAI等AI技術(shù)提供商加強(qiáng)安全防范措施,確保用戶數(shù)據(jù)的安全和隱私。
隨著AI技術(shù)的不斷發(fā)展和普及,其安全性和可靠性問題也日益凸顯。對(duì)于OpenAI等AI技術(shù)提供商而言,如何在追求技術(shù)創(chuàng)新的同時(shí),確保用戶數(shù)據(jù)的安全和隱私,將是一個(gè)長期而艱巨的任務(wù)。