補上一份產研的分析CloudMatrix384甲地到乙地,你可以開著Nvidia的時速300公里超跑2小時跑到紅共的五菱神車也許要開7~ 8個小時,中途還要停下來加個油、冷一下車。但是他也是到的了目的。先進硬體設計也許追不上,但是紅共的軟體實力可不是隨口說說的tteffuB 特肥吧 wrote:黃仁勳說有料華為CloudMatrix384...(恕刪)
華為 發表AI推理新技術UCM高吞吐量、低延遲,有望降低對HBM依賴,預計9月開源2025.08.13 03:00 工商時報 蘇崇愷UCM小檔案大陸科技大廠華為12日發表AI推理創新技術UCM(推理記憶數據管理器),這項突破性成果有望降低大陸AI推理對HBM(高頻寬記憶體)技術的依賴,並提升大陸AI模型的推理效能。陸媒報導,這項技術預計於9月開源,為AI產業帶來新一波變革。華爾街見聞報導,華為在「2025金融AI推理應用落地與發展論壇」上推出的UCM,是一款以KV Cache(KV快取)為核心的推理加速引擎,能透過分級管理推理過程中產生的KV Cache記憶數據,擴大推理上下文,達到高吞吐量、低延遲的推理體驗,進而降低每個Token(詞元)的推理成本。上述技術的發表正值AI產業從「追求模型能力的極限」,轉向「追求推理體驗的最優化」的關鍵時刻,推理體驗直接影響使用者滿意度與商業可行性,成為衡量模型價值的重要標準。其中,HBM是解決「數據搬運」的關鍵技術。當HBM不足時,使用者使用AI推理的體驗會明顯下降,導致出現任務卡頓、回應慢等問題。UCM技術能根據記憶熱度,把數據在HBM、DRAM、SSD等不同儲存介質之中流動,並結合多種演算法,將長序列情境下的每秒處理token數(TPS),提升2倍至22倍,有效降低每個token的推理成本,進而緩解對HBM的依賴。華為數據存儲產品線副總裁樊傑指出,AI下一階段的突破將高度依賴高品質的產業數據,而「存力」(儲存能力)正是激發數據價值、賦能垂直產業的關鍵基礎設施。華為透過技術優化,推出的高性能AI儲存,能夠將小時級數據的載入時間,縮短至分鐘級,把算力集群效率從30%提升至60%。值得注意的是,截至7月底,國際開源社群Hugging Face最新趨勢熱榜顯示,全球前十大開源AI模型中,有9個是陸產大模型,排名第一的是大陸「AI六小虎」之一的智譜,所發表的新一代旗艦大模型GLM-4.5。美企僅Boson AI躋身前十名。
不太可能裝後門,黃仁勳最害怕中國晶片的競爭,黃仁勳罕見示警,直指華為是「全球最難對付的科技公司之一」。黃仁勳的焦慮,與其說是技術差距,更像是地緣博弈的未爆彈。根據超英趕美法則,中國晶片"很快"能甩掉輝達,打爆AMD,踢飛Intel,成為世界標竿昇騰性能有可能超過H100,所以H20只能靠老黃跪求中國買,怎敢裝後門呢退一步講,如果是同樣都有後門功能,自家華為的後門又沒比較差,誰要買Nvidia ?
美國這個沒文化只有區區兩百多年歷史的國家想像力很差,基本上只能拿自己幹過的壞事硬套對手身上抹黑。 指控中國大陸搞活摘器官因為他們自己真的活摘移民監獄女性子宮 指控中國大陸搞種族歧視/滅絕因為他們自己幾百年來對印地安人和黑人就這麼幹的 指控中國大陸電子設備有後門會被定位/監聽因為他們自己這麼幹了幾十年 指控中國大陸銀行擠兌老百姓資產被侵吞因為他們銀行一直有火災只會燒毀存款數據但貸款數據全數完好的傳統 指控中國大陸幾人酒吧打架然後渲染成人被囚禁當性奴/高官壓事/警察無作為因為他們鄉間真的時常發生紅脖子或神父囚禁性奴並且和地方政府軍警沆瀣一氣 『我都這麼幹過了,你怎麼可能不做一樣的惡呢~』
奸20戰雞 wrote:只要中國還在用中文當母語,中國在AI和科技永遠會低於美國,程式就只適合用英文寫 寫這種話的水準只能說水準XX不管是H20晶片還是AMD晶片還是中國的晶片,半導體IC最基本單元就是0與1不管用哪種語言寫程式,到了IC運算,都是轉成0與1,因為半導體的IC只認得0與1