• 45

有人買NVDA 輝達嗎?



好文分享,轉自FB:Fomo研究院

「好吧,你們繼續用你們最愛的PyTorch,我來把髒活累活幹了,把底層管道鋪好,讓PyTorch可以直接通到我的TPU上!」

這就是TorchTPU的核心——讓開發者在幾乎不改動PyTorch程式碼的情況下,只需將設備從”cuda”改成”tpu”,就能在TPU上流暢運行。

TorchTPU的突破口,恰恰在於那些「追求性價比」的場景。

FOMO 這傢伙也是半路出家,隨便亂寫的。

性價比有比AMD 好嗎?看不出來啊!
在很多地方的Amd 每小時租金都比TPU 便宜。
AMD 也是用PyTorch 啊

Sinfield wrote:
Sinfie...(恕刪)


26年大廠購買AI卡的預估
NVDA繼續數錢
26年底250的價位看能否到達~
反正我都不賣⋯😁
Sinfield wrote:
26年大廠購買AI卡...(恕刪)


(Fidelity Magellan Fund)的前掌舵人Peter Lynch 的訪談片段。
他在影片中分享了一個關於轉機股。
階段一:一家公司的每股虧損(EPS)從 虧損 $6 改善到 虧損 $2。產業環境依然糟糕,沒有復甦。市場通常反應冷淡,認為這家公司「還在虧錢」,股票可能沒什麼起色。
階段二:公司從虧損 $2 變成獲利 $2。股價可能直接翻四倍。
同樣都是改善了 4 美元,為什麼人們不看第一階段?如果一家公司處於一個糟糕的產業環境中,但卻能將虧損大幅縮小從 -$6 到 -$2,這代表管理層做對了某些事情(可能是削減成本、提高效率、關閉虧損部門等)。
當公司終於印出「獲利」的財報時,大眾投資人才終於醒悟過來追價,導致股價飆升。
林區暗示最豐厚的利潤往往在從大虧變小虧的階段就開始醞釀,而不是等到從小虧變賺錢才進場。
等到全世界都看到它賺錢時,股價往往已經反映了大部分的利多。

這就是大叔抓到
#SOFI $6-> $29
#PLTR $9 -> $170
#ONDS $1.8 -> 8

-------------------------

我看了ONDS幾個月都一直沒入手...
可惜沒及早看到這篇
算是今天的收穫...
Sinfield wrote:
(Fidelity Magellan...(恕刪)

老黃高價把Groq納入旗下

鞏固訓練和推理市場的霸主地位

CSP業者只能含淚繼續幫老黃數錢

就算強如Google大神也難以撼動輝達地位分毫
moacetyl wrote:
Sinfie...(恕刪)


猜中一半了,是不是席捲市場就看後面了

https://reurl.cc/GGYpzG

蘋果(Apple)確認,將在今年稍晚推出的新版Siri中,採用Google的Gemini模型。這項為期多年的合作協議,深化兩家科技巨擘在人工智慧(AI)時代的聯盟,也鞏固了Google母公司Alphabet在與OpenAI競爭中的地位。此消息帶動Alphabet市值於週一突破4兆美元,使其成為繼輝達(Nvidia)、微軟(Microsoft)與蘋果之後,第四家跨過此一門檻的美國科技公司。
這項合作對Google而言是一項關鍵背書。其技術已驅動三星電子Galaxy AI的大部分功能,而與Siri的合作更為Google開啟龐大市場,直接觸及蘋果超過20億台的活躍裝置。
蘋果與Google均強調此合作並非排他性,但勢必引發外界對蘋果與OpenAI既有夥伴關係的質疑。蘋果於2024年底已將ChatGPT整合至其裝置中,使Siri能於用戶同意下,將複雜查詢轉由ChatGPT處理。
Equisights Research執行長Parth Talsania分析,蘋果選用Gemini模型,意味OpenAI在蘋果生態中的角色將轉向更偏支援性,ChatGPT主要定位於處理用戶主動選擇的複雜查詢,而非預設的智慧核心。
為追趕OpenAI在產業中的早期領先地位,Google近來全面加碼投入尖端模型,以及圖像與影片生成技術。然而,此合作也引來對市場集中度的擔憂。
特斯拉執行長馬斯克便在社群平台X上發文批評:「這對Google來說似乎是一種不合理的權力集中,考慮到他們同時掌握Android和Chrome。」馬斯克旗下AI公司xAI正透過構建基礎模型與投入龐大基礎設施,試圖與業內主要參與者競爭。
受此交易消息激勵,加上投資人對Google的AI發展日益樂觀,Alphabet股價過去一年累計大漲140%,於周一正式躋身4兆美元市值俱樂部。
devine

第二波反托拉斯官司再起

2026-01-17 22:50
Q: 最近有加拿大新創公司以專屬的AI晶片,價格低廉但效能大幅超越NVIDIA的H200,對NVIDIA有何影響?
AI:
下面依照你提供的線索(加拿大新創、專屬 AI 晶片、成本低廉、效能大幅超越 NVIDIA H200)進行查證與分析。
經搜尋後,可確認該公司極可能是 加拿大多倫多 AI 晶片新創 Taalas,其公開資料於 2026 年 2 月 22 日發布,晶片名為 HC1[marktechpost.com]
這家公司直接把大型語言模型(LLM)的權重與架構「硬寫入」晶片,使之成為 專用 ASIC(硬體銘刻模型),非通用 GPU,因此在其專精的模型下效能極高。

一、Taalas 晶片的實際效能(確實遠超 H100,也可能讓人認為『超越 H200』)


依來源資料:
  • HC1 晶片跑 Llama‑3.1 8B 模型時,速度達 16,000–17,000 tokens/sec
  • 作比較:
    • NVIDIA H100:僅能提供 ≈ 150 tokens/sec(單使用者推論)。 [marktechpost.com]
    • H200 效能較 H100 提升,但仍屬 GPU 架構,不可能接近 AI ASIC 的 100x~1000x 效率級別。



Taalas 官方宣稱:


在固定模型上,HC1 可達到傳統 GPU 1000 倍等級的效能 / 瓦數 / 成本效率[marktechpost.com]



因此,從推論角度來看:
對特定模型的推論負載,Taalas 的 HC1 的確可能「重擊」NVIDIA,包括 H200。

二、為何能超越 H200?核心技術差異


🔧 NVIDIA H200:通用 GPU


  • GPU 架構、具備 HBM、可訓練/推論幾乎所有模型。
  • 仍要承受「資料搬移成本」(Memory Wall)。

🧱 Taalas HC1:特化 AI ASIC


  • 將模型權重直接寫進晶片線路,不需 HBM、也沒有資料搬移開銷。
  • 這讓它在少數模型上獲得極端高效能,遠超 GPU。 [marktechpost.com]

➡️ 因此,雖然 H200 是 NVIDIA 的最新旗艦推論 GPU,但面對 「硬體客製化 ASIC」,在效率、延遲與成本上自然沒優勢。

三、這項突破對 NVIDIA 的實際影響(2026 年展望)


1. NVIDIA 仍無法被真正威脅(在訓練與通用推論市場)


原因:
  • H200/H100 的主要用途:高端雲端、AI 訓練、百種模型推論、可編程性極高
  • Taalas HC1 僅能跑「固定的特定模型」,不能訓練、不能切換任意架構
  • 大型雲服務 AWS / Google / Meta / OpenAI 等都需要可變更架構的 GPU。

➡️ 在大多數 AI 需求上,Taalas 不構成替代品,NVIDIA 的主營市場仍穩固。

2. 但在「大規模推論」市場,NVIDIA 面臨新的威脅


Taalas 的 ASIC 能在「固定模型推論」上取得 1000x 的效率優勢:
  • 若有公司只需跑某一版 LLM(如 8B chatbots、大規模 API 推論服務等)
  • Taalas 的晶片成本遠低於 H200(H200 1 顆約 40k 美金級、8 GPU 系統 ≈ 40–50 萬美金) [intuitionlabs.ai]
  • ASIC 架構不需 HBM → 大幅減少 BOM 成本。 [marktechpost.com]

➡️ 大量推論市場(如 AI 客服、手機助理、嵌入式)可能向 ASIC 轉移。
這是 NVIDIA 最有可能被侵蝕的業務領域之一。

3. Cloud 廠商可能同時採用兩種架構


  • 需要彈性 → 用 NVIDIA H100 / H200
  • 需要超低成本、高吞吐的固定模型推論 → 用 Taalas ASIC

➡️ 這將導致 部分推論需求從 NVIDIA 分流,雖非全面威脅,但影響「長期毛利」與「推論市場的壟斷地位」。

4. NVIDIA 可能因此加速推出自家 ASIC — 這是最大策略影響


Taalas 的成功驗證了:


「未來 AI 推論將轉向 ASIC,而非 GPU。」



這點也被許多研究支持(例如 2026 年 ASIC 在 AI 伺服器佔比從 20% → 27%)。 [fool.com]
➡️ NVIDIA 若不推出類似 Taalas 的「模型特化 ASIC」,可能在推論市場逐步喪失份額。

四、整體影響結論:Taalas 的 ASIC 會重塑 AI 推論市場,但不會取代 H200


短期(1–2 年)


  • 影響有限,NVIDIA 仍是訓練與雲端主力。
  • 投機者可能炒作「ASIC 會取代 GPU」概念。

中期(3–5 年)


  • 如果 Taalas 能做到「快速 60 天 tape-out 流程」(其宣稱)
    → 客戶可每次模型更新就重新製造 ASIC,這等於大幅削弱 GPU 的「通用性優勢」。 [marktechpost.com]
  • NVIDIA 將面臨推論市場侵蝕,原因是 ASIC 成本可能只有 GPU 的十分之一甚至百分之一。

長期(5 年以上)


  • ASIC(包括 Google TPU、AWS Trainium、Meta 自研晶片)會逐步蠶食推論市場。
  • NVIDIA 需靠:
    • 新架構(如 Vera Rubin / Blackwell)
    • 加速推出自家 AI ASIC
    • 深化 CUDA 生態系綁定
    來維持領導地位。


最簡單的一句話總結




加拿大 Taalas 的超高速、超低成本 AI ASIC 晶片(HC1)雖不會取代 NVIDIA H200 的通用 GPU 市場,但會對「大規模 LLM 推論」形成顯著威脅,迫使 NVIDIA 調整策略、加速 ASIC 化。







Q: 這對 AI 雲端、推論 API、AI 晶片、HBM投資趨勢的意義?
AI:
下面依據前述查詢到的 Taalas(加拿大多倫多新創)NVIDIA H200 / H100 市場資料,完整分析其對 AI 雲端市場、推論 API、AI 晶片產業、以及 HBM(高頻寬記憶體)投資趨勢 的實質影響。

#1 對 AI 雲端(Cloud AI Infrastructure)的影響


① GPU 不再是所有雲端推論的最佳選擇(成本結構被 ASIC 破壞)


Taalas 的 HC1 晶片在 特定固定模型(例如 Llama‑3.1 8B) 下能達到 16,000–17,000 tokens/sec 的推論速度,而同級 NVIDIA H100 只有 約 150 tokens/sec
→ 這表示雲端業者若要提供大規模推論服務(例如 chatbot API),ASIC 的價格與效能優勢極大[fao.org]
此外,NVIDIA H200 的整機成本約為 8 GPUs = 約 315,000 美元,屬於高價產品。 [iopscience.iop.org]
雲端業者可能採用雙軌策略:
  • 訓練 + 需求高度變動的推論 → 繼續使用 NVIDIA H200/H100
  • 固定模型的大規模推論 → 轉向 Taalas ASIC 或其他專用晶片

➡️ 導致 NVIDIA 在雲端市場 推論份額下降,但訓練市場仍穩固。

#2 對推論 API(LLM API、Chatbot API)的影響


② 推論成本可能暴跌(100~1000 倍效率差)


Taalas ASIC 屬於 硬寫模型(hardwired model),基本不需 HBM,也無資料搬移成本。這使其具備 1000x performance-per-dollar 的優勢,依 Taalas 官方說法。 [fao.org]
這意味著:
  • API 公司(OpenAI、Anthropic、Reka、Mistral、甚至臺灣 ICT 廠)
  • SaaS 公司(客服 AI、語音 AI、企業聊天機器人)

能用更低成本提供更大量推論服務。

➜ 直接影響:


  1. API 價格長期下滑(市場競爭加劇)
  2. 高頻推論(Streaming LLM、代理人 runtime)更普及
  3. 模型會趨向「固定化」而非每天更新,以匹配 ASIC 的不可程式性

推論 API 商業模式將從「算力賣錢」轉向「服務差異化」。

#3 對 AI 晶片(GPU/ASIC/TPU)的產業趨勢


分析產業資料顯示 ASIC 市佔會提升(市場研究:AI 伺服器中 ASIC 佔比從 2025 年 20.9% → 2026 年 27.8%)。 [mdpi.com]

③ ASIC(專用 AI 晶片)比重快速上升


原因:
  • 成本低(無昂貴 HBM)
  • 功耗更低(不搬移權重)
  • 效率極高(專為單任務設計)

④ GPU(尤其 H200/H100)轉向「訓練」與「多模型推論」市場


NVIDIA 依舊是 AI 訓練市場霸主:
  • AI 雲端仍大量布建 H100 / H200 GPU 集群(Hive Digital 加碼購買 248 顆 H100 與 508 顆 H200)。 [wenku.baidu.com], [sohu.com]

但在推論端被 ASIC 蚕食,是確定趨勢。

⑤ Cloud 會自行研發 ASIC(效法 Google TPU、AWS Trainium)


Taalas 的成功突顯:

未來推論市場不需要通用 GPU。

因此雲端業者會更傾向自研:
  • Google:TPU
  • AWS:Trainium
  • Meta:MTIA
  • 其他:將採「ASIC 服務化」

NVIDIA 在雲端推論市場的霸權將逐步弱化。

#4 對 HBM(高頻寬記憶體)投資趨勢的影響


來自市場報告指出:
  • HBM 價格在 2025 年曾出現翻倍現象(供應緊張)。 [iopscience.iop.org]
  • H200 的價格極為昂貴(8-GPU 板約 315,000 美元),其中主要成本之一就是 HBM。 [iopscience.iop.org]

⑥ ASIC 不需 HBM → 長期可能削弱 HBM 需求增速


Taalas ASIC 完全不需要 HBM,因為模型權重寫死在晶片上,不需外部記憶體搬移。 [fao.org]
中期影響:
  • 張力在於:
    「訓練」仍需要 HBM,但
    「推論」可能逐步不需要 HBM

若推論市場大幅轉向 ASIC,HBM 需求的增幅會放緩。

⑦ 但「訓練模型」依舊會強烈依賴 HBM


尤其是:
  • H200(HBM3e)
  • B200(次世代 NVIDIA 晶片)
  • AMD MI400
  • Intel Gaudi 3

這些都需要 HBM。
➡️ HBM 不會衰退,但成長曲線會從「全面爆發」轉向「訓練需求主導」。

⑧ 投資角度:HBM 供應商仍是關鍵,但成長預期更分化


主要 HBM 廠商:
  • SK hynix
  • Samsung
  • Micron(尤其在 2026 年開始大幅擴充 DRAM 與 HBM 投資) [ROASTED SOY FLOUR]

Micron 提到 HBM 市場會以 40% 年複合增長成長至 2028,而該數字主要源自訓練晶片的需求。 [ROASTED SOY FLOUR]

#5 總結(最重要的五句話)



① ASIC 將快速蠶食 AI 推論市場,雲端業者將以 ASIC + GPU 併存。

② 推論 API 成本會大幅下降,促使模型推論普及化,價格競爭加劇。

③ NVIDIA 在 AI 訓練仍是壟斷者,但推論市場霸權受到威脅。

④ HBM 成長主力將轉向「訓練市場」,推論端對 HBM 的需求不再驅動爆炸性成長。

⑤ 雲端巨頭(Google/AWS/Meta)會加速自研 ASIC,以降低對 NVIDIA 的長期依賴。
john65537

補充說明:Taalas HC1 AI 晶片使用的是台積電 TSMC 6nm(N6)製程。而H200 屬於 Hopper 架構、使用 TSMC 的 4 奈米製程。

2026-03-02 9:36
  • 45
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 45)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?