近期,天風(fēng)國際知名分析師郭明錤發(fā)布了一項引人注目的觀點,指出隨著DeepSeek的迅速走紅,端側(cè)AI(即設(shè)備端人工智能)的發(fā)展步伐顯著加快。這一趨勢不僅推動了英偉達H100訓(xùn)練需求的激增,還進一步驗證了CUDA生態(tài)的強勁競爭力。
據(jù)郭明錤的分析,臺積電與英偉達均對端側(cè)AI的未來充滿信心。臺積電在最近的財報電話會議中提到,預(yù)計到2026年,端側(cè)AI將迎來更為顯著的發(fā)展。與此同時,英偉達也計劃在2025年第四季度至2026年上半年間,量產(chǎn)其專為AI設(shè)計的PC芯片N1X/N1。
DeepSeek的流行無疑是端側(cè)AI加速發(fā)展的一個重要催化劑。它不僅直接帶動了英偉達H100訓(xùn)練需求的增長,更展示了優(yōu)化訓(xùn)練方法對于降低成本、刺激市場的巨大潛力。同時,這也再次證明了CUDA生態(tài)在用戶心中的地位,解釋了為何H100會受到如此廣泛的青睞。
值得注意的是,DeepSeek還引發(fā)了本地大模型(LLM)部署的熱潮。通過優(yōu)化訓(xùn)練方法,DeepSeek R1提升了本地設(shè)備上中小規(guī)模LLM的性能,從而滿足了用戶對于高性能與數(shù)據(jù)安全性的雙重需求。這一趨勢預(yù)計將持續(xù)發(fā)展,未來將有更多類似DeepSeek的開源模型問世,進一步推動本地LLM生態(tài)的繁榮。
目前,本地DeepSeek的部署方式多種多樣,包括使用LM Studio進行便捷部署、利用Ollama運行模型、通過4-bit/8-bit量化降低顯存需求同時保持性能等。這些部署方式覆蓋了從低端筆記本到搭載英偉達獨立GPU的高端PC等廣泛硬件范圍,模型規(guī)模也涵蓋了15億到700億參數(shù)不等。
盡管目前本地DeepSeek部署仍處于小眾市場,對英偉達云端AI芯片的需求影響不大,但長期來看,這一趨勢可能會帶來新的云端需求。端側(cè)AI與云端計算預(yù)計將同步增長,共同構(gòu)建一個融合的AI生態(tài)系統(tǒng)。然而,這也可能導(dǎo)致短期內(nèi)云計算增速低于市場預(yù)期,對投資情緒產(chǎn)生一定影響。
對于臺積電和英偉達而言,這一趨勢的影響各有不同。臺積電作為芯片制造商,將直接從端側(cè)AI的發(fā)展中受益,享受芯片升級帶來的紅利。而英偉達則在端側(cè)AI市場面臨更為激烈的競爭壓力,這可能對其短期投資信心產(chǎn)生一定影響。