近日,多位軟件工程師、開發(fā)人員及學(xué)術(shù)研究人員對(duì)OpenAI的語音轉(zhuǎn)寫工具Whisper提出了嚴(yán)重質(zhì)疑,指出其存在憑空生成虛假內(nèi)容的問題。這些虛假內(nèi)容可能包含種族言論、暴力措辭,甚至虛假的醫(yī)療建議,被業(yè)內(nèi)稱為“AI幻覺”。
據(jù)報(bào)道,盡管OpenAI已提醒用戶避免在高風(fēng)險(xiǎn)領(lǐng)域使用Whisper,但該工具仍被廣泛應(yīng)用于多個(gè)行業(yè),包括醫(yī)療機(jī)構(gòu)。這引發(fā)了對(duì)于其潛在風(fēng)險(xiǎn)的擔(dān)憂。
研究人員和工程師在工作中頻繁遇到Whisper的“幻覺”現(xiàn)象。例如,密歇根大學(xué)的一位研究員在研究過程中發(fā)現(xiàn),他所檢查的音頻轉(zhuǎn)錄中,大部分含有虛構(gòu)內(nèi)容。
另一項(xiàng)研究表明,在審查的13000多段清晰音頻片段中,有187段出現(xiàn)了“幻覺”現(xiàn)象。研究人員認(rèn)為,這意味著在數(shù)百萬條錄音中,可能出現(xiàn)數(shù)以萬計(jì)的錯(cuò)誤轉(zhuǎn)錄。
OpenAI的發(fā)言人表示,公司正在持續(xù)研究如何減少“幻覺”現(xiàn)象,并感謝研究者的反饋,將在未來的模型更新中采納這些意見。