meta Ray-Ban meta 智能眼鏡近日迎來了其v11版本的重大更新,為用戶帶來了一場(chǎng)前所未有的智能交互體驗(yàn)革新。此次更新的最大亮點(diǎn),莫過于引入了“實(shí)時(shí) AI”(Live AI)功能,這一創(chuàng)新技術(shù)將率先在參與“早期體驗(yàn)計(jì)劃”的用戶中得以應(yīng)用。
在過去,meta AI僅能通過拍攝靜態(tài)圖片并進(jìn)行分析來回應(yīng)用戶的“Hey meta”指令。而v11版本的“實(shí)時(shí) AI”功能,則實(shí)現(xiàn)了對(duì)用戶視野的持續(xù)觀察,并能以更加自然流暢的方式與用戶進(jìn)行對(duì)話。這一功能的實(shí)現(xiàn),意味著用戶無需再使用特定的喚醒詞,即可隨時(shí)向AI提出問題,而AI也能根據(jù)用戶的上下文進(jìn)行記憶和回應(yīng)。
在“實(shí)時(shí) AI”會(huì)話期間,眼鏡會(huì)實(shí)時(shí)錄制并分析用戶所見的內(nèi)容。用戶可以隨時(shí)打斷AI的講述,提出新的問題或更改話題,而AI也能在用戶提問之前主動(dòng)提供有用的建議。這種交互方式,無疑為用戶帶來了更加便捷和智能的使用體驗(yàn)。
meta的“實(shí)時(shí) AI”功能與谷歌的Gemini Live在對(duì)話式AI方面有著異曲同工之妙,兩者都支持打斷和記憶查詢。然而,與Gemini Live需要依賴手機(jī)不同,meta的“實(shí)時(shí) AI”功能允許用戶完全解放雙手,只需通過眼鏡即可與AI進(jìn)行交互。
除了“實(shí)時(shí) AI”功能外,v11版本還帶來了“實(shí)時(shí)翻譯”的實(shí)用功能。用戶可以通過這一功能,與不同語言背景的人進(jìn)行無障礙交流。無論是英語、西班牙語、法語還是意大利語,用戶都能通過手機(jī)屏幕查看對(duì)方的回復(fù),或通過Ray-Ban meta眼鏡的揚(yáng)聲器收聽翻譯結(jié)果。
v11版本還集成了Shazam音樂識(shí)別功能。用戶只需簡(jiǎn)單地說一句“Hey meta,Shazam這首歌”,就能輕松識(shí)別出周圍播放的音樂。這一功能的加入,無疑為用戶在享受音樂時(shí)提供了更多的便利和樂趣。
對(duì)于想要立即體驗(yàn)這些新功能的用戶來說,他們可以通過注冊(cè)“早期體驗(yàn)計(jì)劃”來率先嘗鮮。而未能加入該計(jì)劃的用戶,則需要等到2025年初的正式版本發(fā)布后才能體驗(yàn)到這些創(chuàng)新功能。用戶可以通過meta View應(yīng)用程序的設(shè)置菜單輕松加入“早期體驗(yàn)計(jì)劃”,享受這場(chǎng)智能交互體驗(yàn)的革新之旅。
近幾個(gè)月來,meta在AI技術(shù)方面不斷推陳出新,為用戶帶來了諸多實(shí)用的更新。例如,meta AI現(xiàn)在可以“記住”用戶的一些特定信息(如停車地點(diǎn)),并拍攝相關(guān)照片以創(chuàng)建后續(xù)提醒。這些功能的加入,無疑進(jìn)一步提升了meta智能眼鏡的實(shí)用性和用戶體驗(yàn)。