近期,科技界迎來(lái)了一則令人矚目的消息,鴻海富士康正式揭曉了其自主研發(fā)的AI推理大模型——“FoxBrain”。這款模型被標(biāo)榜為臺(tái)灣地區(qū)首屈一指的AI推理大模型,其功能覆蓋數(shù)據(jù)分析、數(shù)學(xué)運(yùn)算、邏輯推理以及代碼自動(dòng)生成等多個(gè)領(lǐng)域,并預(yù)示著未來(lái)將對(duì)公眾開(kāi)放源代碼。
富士康在公布這一成果時(shí),特別強(qiáng)調(diào)了與英偉達(dá)公司的深度合作。據(jù)悉,雙方經(jīng)過(guò)多輪深入交流,最終利用120塊英偉達(dá)H100 GPU,在短短一個(gè)月內(nèi)高效完成了模型的訓(xùn)練工作。這款“FoxBrain”模型是在meta公司Llama 3.1的基礎(chǔ)上進(jìn)一步優(yōu)化而來(lái),特別針對(duì)繁體中文環(huán)境進(jìn)行了適配。
盡管富士康對(duì)“FoxBrain”充滿信心,但在性能對(duì)比上,公司坦誠(chéng)地表示,其部分性能指標(biāo)略低于DeepSeek的部分模型。這一表態(tài)不僅體現(xiàn)了富士康的謙遜態(tài)度,也預(yù)示著AI領(lǐng)域的競(jìng)爭(zhēng)依舊激烈,不斷有新的參與者帶著創(chuàng)新技術(shù)涌入。
回顧過(guò)往,聯(lián)發(fā)科也曾涉足AI模型研發(fā),并成功推出了Llama-Breeze2系列模型。然而,與富士康的“FoxBrain”不同,聯(lián)發(fā)科的這兩款模型定位更為輕量級(jí),主要面向手機(jī)、輕薄本等移動(dòng)設(shè)備,同樣基于meta的Llama 3.2版本打造,并主打繁體中文處理能力。這一布局顯示了聯(lián)發(fā)科在AI技術(shù)應(yīng)用上的另一種思路,即注重在移動(dòng)端實(shí)現(xiàn)高效能的AI應(yīng)用。
無(wú)論是富士康的“FoxBrain”還是聯(lián)發(fā)科的Llama-Breeze2系列,都彰顯了臺(tái)灣地區(qū)在AI技術(shù)研發(fā)領(lǐng)域的深厚底蘊(yùn)和創(chuàng)新能力。隨著技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的不斷拓展,AI正逐步成為推動(dòng)各行各業(yè)發(fā)展的重要力量。未來(lái),這些創(chuàng)新技術(shù)將如何進(jìn)一步改變我們的生活和工作,值得我們共同期待。