矽谷視角深聊:DeepSeek的顛覆、沖擊、爭議和誤解。看得懂的加一,看不懂的加零[^++^]

只要動到大頭的蛋糕都是攪局者


42:09 - 46:47 AI算力市场冲击:DeepSeek是否“绕过”了Cuda?
現在關鍵是算力提供者NVDA的moat還會有多久
快速總結 -
目前要time-to-market nvda就是唯一首選
(
datapoint 1: 雖DS 證明有能力玩GPU底層 但還是選經過驗證過的NVDA玩 不玩AMD的GPU避免浪費投入
datapoint 2: TLSA玩過自己的Dojo後 還是對老黃說 你有多少 我就買多少
datapoint 3: 還沒看到nvlink的競爭者產品
)
(
nvlink的競爭者 -
UAlink 是雜牌軍 目標容易相互衝突 我不看好:
AMD/Intc/MSFT/META/Goog 要"big pipe" 大又便宜的管子
CSCO/HPE 要smart pipe 所以可以賣 switching features
)


=======
SW
OpenAI / Mag7 - 1 都在攻CUDA的moat
真要知道 CUDA 的software stack moat 看這個:

CUDA moat 不是純然是技術面 更多的是因為法律面

在HW
AI 競爭的底層邏輯 要從 Data傳輸想
- memory wall
- network for scaling up
https://www.mobile01.com/topicdetail.php?f=291&t=6512441&p=134#87756537 一連好幾樓
(另詳情請google: AI Memory Wall)
目前沒有一家有像NVDA是單機+網絡 全系統整合的解
這還是從一個門外漢的角度
其中一定還有其他不為人知的眉角
例如 AMD各個零件規格都比NVDA強


但整體性能就是沒有NVDA好
https://semianalysis.com/2024/12/22/mi300x-vs-h100-vs-h200-benchmark-part-1-training/#detailed-recommendations-to-amd-on-how-to-fix-their-software



所以 SW + HW
目前 你要time-to-market nvda就是唯一首選
1B LLM Surpass 405B LLM



https://www.reddit.com/r/LocalLLaMA/comments/1inieoe/can_1b_llm_surpass_405b_llm_rethinking/

不知為什麼這GPU killer paper過兩天才在傳
這種發展會把巨型data center需求大幅降低
這一波AI-HW near over, if not over

AI 發展太快了
Mavs41Forever wrote:
AI 發展太快了


OMG 又一個mega-data-center killer project
1.5B Model > OpenAI

https://github.com/agentica-project/deepscaler

We introduce DeepScaleR-1.5B-Preview, trained on 40K high-quality math problems with 3,800 A100 hours ($4500), outperforming OpenAI’s o1-preview on multiple competition-level math benchmarks.

DeepScaleR-1.5B-Preview,它經過 3,800 個 A100 小時的 40K 高品質數學問題訓練(4500 美元),在多個競賽級別的數學基準上優於 OpenAI 的 o1-preview。







普羅米修斯已經把Mag7獨享的火種傳給一般的普羅大眾了
+0
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?