近日,AI大模型DeepSeek-R1的使用難題成為了用戶們關注的焦點。此前,用戶主要通過云服務或本地部署來使用這款模型,但云服務頻繁宕機,而本地部署的版本多為參數量大幅縮水的蒸餾版。對于一般用戶而言,在普通硬件上運行DeepSeek-R1的滿血版幾乎是不可能的任務,即便是開發者,租賃服務器的成本也令人望而卻步。
然而,這一局面即將迎來重大改變。清華大學KVCache.AI團隊與趨境科技攜手發布的KTransformers開源項目,近日宣布取得了突破性進展,成功破解了千億級大模型本地部署的難題。這一突破標志著大模型推理將擺脫“云端壟斷”,走向更加普惠化的道路。
據KTransformers團隊介紹,他們已在配備24GB顯存和382GB內存的PC上成功實現了DeepSeek-R1、V3的671B滿血版的本地運行,速度提高了3至28倍。不僅如此,他們還宣布支持更長的上下文(24GB單卡支持4~8K),并實現了15%的加速,每秒最多可處理16個Tokens。
KTransformers作為一個以Python為中心的靈活框架,其核心設計注重可擴展性。用戶只需通過一行代碼即可實現和注入優化模塊,從而訪問兼容Transformers的界面、符合OpenAI和Ollama標準的RESTful API,甚至是類似ChatGPT的簡化網頁用戶界面。這一技術的推出,徹底改寫了AI大模型依賴昂貴云服務器的歷史格局。
DeepSeek-R1基于混合專家(MoE)架構,通過將任務分配給不同專家模塊,并在每次推理時僅激活部分參數來提高效率。KTransformers團隊創新性地將非共享稀疏矩陣卸載至CPU內存處理,并結合高速算子優化,成功將顯存需求從傳統8卡A100的320GB壓縮至單卡24GB。這一創新使得普通用戶只需24G顯存即可在本地運行DeepSeek-R1、V3的671B滿血版,預處理速度最高可達286 tokens/s,推理生成速度最高能達到14 tokens/s。
KTransformers團隊還通過減少CPU/GPU通信斷點,實現單次解碼僅需一次完整的CUDA Graph調用,生成速度優化至14 tokens/s,功耗僅為80W,整機成本約2萬元,僅為傳統8卡A100方案的2%。經過開發者實測,使用RTX 3090顯卡和200GB內存配置,結合Unsloth優化,Q2_K_XL模型推理速度可達9.1 tokens/s,實現了千億級模型的“家庭化”運行。
值得注意的是,KTransformers并非一個單純的推理框架,也不限于DeepSeek模型。它可以兼容各式各樣的MoE模型和算子,能夠集成各種算子并進行各種組合的測試。同時,KTransformers還提供了Windows、Linux平臺的支持,感興趣的用戶可自行嘗試。但要想使用KTransformers,也需要滿足一定的硬件條件,包括英特爾至強Gold 6454S 1T DRAM CPU、RTX 4090D(24G VRAM)GPU、標準DDR5-4800服務器DRAM(1TB)內存以及CUDA 12.1或更高版本。