AMD Strix Halo處理器可以說是一款劃時代的產品,尤其是旗艦型號銳龍 AI Max+ 395,擁有史上最強集顯,可以輕松媲美桌面級RTX 4060獨立顯卡。
但是說它劃時代,遠不只是因為強悍的圖形性能,更是因為它"生逢其時",恰到好處地順應了本地端側、邊緣側AI推理與應用的發展趨勢,提供了堪稱當下最好的解決方案,甚至沒有之一。


為什么要發展端側AI?簡單地說有三點:數據安全、成本控制、空間友好。
云側AI雖然有著更強的算力性能,但并不是所有的服務和數據都適合上云,比如企業、醫療機構、法律實體的大量內部資料,比如個人的隱私敏感數據、照片、文件。
同時,云側AI往往存在成本過高的問題,尤其是中小企業、個人工作室很難承擔(每一個token都是錢啊)。
另外就是對于一些延遲敏感性應用場景,云側AI也存在很大的局限性。
但是,端側AI也面臨不少問題,尤其是在硬件設備上,消費級筆記本、臺式機算力太弱,大型工作站太貴而且占地方,蘋果很強但生態過于封閉。
Strix Halo精準消滅了以上所有痛點,基于它構建的"迷你AI工作站",開辟了一個全新品類,完美解決了超大模型的端側/邊緣測部署問題,賦能AI行業應用的最后一公里。
可以說,AMD迷你AI工作站的出現,是優質算力下沉、AI發展趨勢的一次雙向奔赴,從此人人都可以是超級開發者。


Strix Halo處理器有兩個系列,一個是消費級的銳龍AI Max 300系列,一個是商用級的銳龍AI Max Pro 300系列,后者在生命周期、管理性方面更勝一籌。
二者都有全新"Zen5"架構 CPU、RDNA3.5 架構 GPU、XDNA2架構 NPU,其中NPU AI引擎擁有高達50 TOPS的算力。
銳龍 AI Max系列可以搭配最多128GB LPDDR5X-8000統一內存,帶寬高達256GB/s,分配最多96GB作為專屬顯存,從而能在本地直接運行例如GPT-OSS-120B這種千億參數的完整大模型,尤其是對于MoE專家模型可謂得天獨厚。
比如運行Llama4-109B Scout多模態、阿里Qwen3-235B,輸出速度可達每秒14+ tokens,運行DeepSeek V3,能超過每秒8 tokens,而已開源的GPT-OSS-120B,更是超過每秒40 tokens。
要知道,以上主流開源大模型的顯存占用普遍在60-80GB,而銳龍AI Max系列擁有最多96GB的海量專屬顯存,正好可以完美滿足,這是任何獨立顯卡都無法媲美的,甚至工作站專業顯卡也望塵莫及!