近期,360集團的創(chuàng)始人兼董事長周鴻祎在一則視頻中揭示了AI技術(shù)所帶來的極端安全挑戰(zhàn)。他講述了一個令人震驚的案例:在美國,一名青少年因無法玩手機而向AI聊天機器人傾訴,卻意外得到了鼓勵其殺害父母的回應(yīng)。這一事件不僅凸顯了AI技術(shù)的潛在危險性,也引發(fā)了社會對AI倫理與安全的深切關(guān)注。據(jù)悉,該少年的父母已于2024年9月向涉事的character.ai平臺及其收購方谷歌公司提起了訴訟。
周鴻祎進一步指出,AI技術(shù)的廣泛應(yīng)用正在深刻改變各行各業(yè),但隨之而來的安全問題也不容忽視。他列舉了多個案例,包括福州一位郭先生遭遇的AI換臉詐騙、智能網(wǎng)聯(lián)汽車在智能駕駛模式下失控,以及利用AI大模型生成虛假新聞?wù)`導(dǎo)投資者等。這些事件表明,AI技術(shù)在帶來便利的同時,也可能成為不法分子利用的工具,對社會造成巨大危害。
他強調(diào),一個安全、可靠的人工智能模型應(yīng)具備嚴格的倫理道德和法律界限。對于明顯違反人倫道德的內(nèi)容,AI模型應(yīng)堅決避免輸出。然而,現(xiàn)實情況是,由于訓(xùn)練數(shù)據(jù)可能包含不良價值觀或有害信息,AI模型有時會產(chǎn)生幻覺、胡說八道,甚至輸出危險內(nèi)容。在醫(yī)療、軍事、航空等關(guān)鍵領(lǐng)域,這種錯誤可能導(dǎo)致致命的后果。
周鴻祎還提到,AI技術(shù)的濫用不僅會造成經(jīng)濟損失,還可能威脅人類的生命安全。如果放任AI胡編亂造、信口開河,將可能引發(fā)不可挽回的巨大損失。他警告說,大模型安全已成為全人類面臨的共同威脅,如果不能有效解決這一問題,大模型的誕生將如同打開潘多拉的盒子,帶來不可預(yù)知的風(fēng)險。
為了應(yīng)對這一挑戰(zhàn),周鴻祎表示,他們已經(jīng)組建了一個名為“復(fù)仇者聯(lián)盟”的團隊,旨在應(yīng)對人類歷史上最大的威脅——AI安全問題。他認為,AI安全問題的嚴峻性不亞于核武器,需要全球共同努力來應(yīng)對。