• 30

有人買NVDA 輝達嗎?

擦鞋童 wrote:
這次我美金就不隨便換...(恕刪)


輝達已經反映過了,8/28財報不錯也不會漲
目前降息循環要買其他股票
擦鞋童

我也覺得會利多出盡

2024-08-25 18:27
茶太

被我說中電子休息漲其他股票了

2024-08-26 14:31
高雄真好 wrote:
國泰證券也很殺
手續費0.1% 還沒最低門檻
又有碎股交易

聽說國泰手續優惠只到今年底嗎?
如果是,請問手續費會變成多少呢?
擦鞋童

不知道耶..年底再看看嚕

2024-08-25 18:26
我問過客服,0.1%沒低消是牌價,目前沒有期限喔
張直家

是的,公認複委託最好的是國泰,這個是情報,大家能夠一起蒐羅資訊,所以感恩他人存在

2024-08-27 10:41
擦鞋童 wrote:
這次我美金就不隨便換...(恕刪)




如果看富途的分析
NVDA應該Q2會有30B的營收~
擦鞋童

看來尾盤是跑不瞭了..[笑到噴淚]

2024-08-28 23:06
張直家

大哥你後面要建立存倉

2024-08-29 1:18
我明明看空的,就是手賤想說跌下去搶個反彈
華爾街胃口大了,財報好沒用,展望也要超出預期
不然股價已經漲多了,就是跌

NVDL 有1400股成本66
尾盤沒跑,想說賭一把
結果...

要停損嗎? 還是擺著等他下一波漲回來?
張直家

大哥你太多操作,要簡易,種子13%穀倉87%,這二者要均衡,等時機撿三倍的尖牙

2024-08-29 6:28
擦鞋童 wrote:
我明明看空的,就是手...(恕刪)


NV盤後續跌-7.41% ing..

擦鞋童

我買NVDL 是X2倍 [大哭]

2024-08-29 15:19
張直家

今天應該會再度都跌

2024-08-29 16:08
彈回12X我出了超過一半,分批低接到100,跌太快都快接完了.
擦鞋童 wrote:
我明明看空的,就是手...(恕刪)


給大家打氣一下
------------------------
NVIDIA 軟體戰略全面解析:建構未來幾年內難以撼動、既寬且深的護城河
https://blog.finsight.investments/portfolio/nvidia-nvda-leading-software-ai-platform-continuous-innovation/

Posted by FinSight主編
總結:AI 時代最強平台公司
只要大語言模型規格沒有成形,NVDA就有絕對領先優勢(至少五年),而且軟體會創造NVDA的下個飛輪想法未變,市場對NVDA評價依舊低估。
我的想法:現在的AI語言模型幾乎都是接CUDA,只要認同語言模型的規格還沒最後定案且Time is money,NVDA的優勢就會持續拉開(至少5年),因為在追逐更大模型的情況下,更不可能接其他的硬體去做(會更沒效率)。而雖然大家不想被NVDA綁架,但是不用NVDA生態系的人將會落後 (就像2020年時,不用台積電先進封裝的人會落後)
• 轉換成本極高:NVDA生態系可以藉由軟體優化性能、也可以藉由硬體優化性能,今天除非是確定的推論應用才有可能考量到長期營運成本轉換平台(軟體+硬體要同步而且沒辦法迭代優化)。以前是雲端公司還有辦法做到這點(他們會努力不想被完全綁架),但企業不一樣,企業應用落地、投入這麼多錢蓋智慧工廠,NVDA又給企業持續優化的軟硬體時,轉換成本會極高,高到企業根本不可能去想。(這和公有雲現在努力要綁住這波企業轉雲的想法是一樣的)

背後最根本原因都是技術迭代太快,只要技術持續用這種方式迭代下去,NVDA的護城河真的極高,因為不用他的平台,就會在數位轉型的時代被對手輾壓,然後就會被淘汰了。

• 策略上加速B端落地:2C給CSP去競爭、這段期間NVDA繼續去掌握2B應用落地與開源模型推進,如此將可創造更深的護城河。而我認為市場還沒有將這部分的評價納入。

• 大者恆大:但AI演變依舊是贏者全拿的遊戲,現在有競爭門檻的是nvda. mu. tsm,還有具備公有雲商機的msft. amzn. goog(只是這邊競爭規格還未定,目前goog語言模型還是比較廢一點),所以我認為未來兩三年很有可能是繼續漲少數受惠大股票的行情。



Nvidia 能夠在 AI 領域保持領先地位,除了硬體規格持續領先之外,更重要的是通過以下方式實現競爭對手難以追上的護城河:
1. 與主要深度學習框架的緊密合作:確保 Nvidia GPU 是這些框架的首選硬體平臺。
2. 提供全面的開發工具和 SDK:如 CUDA、cuDNN、TensorRT 等,幫助開發者更高效地利用 GPU。
3. 建立強大的開發者社區和合作夥伴網絡:通過開發者計畫、教育資源和戰略合作,增強生態系統的活力和黏性。
軟體護城河:提供開發工具和 SDK,幫助開發者使用 GPU 進行通用運算
Nvidia 通過提供一系列開發工具和 SDK,幫助開發者更高效地利用其硬體進行深度學習和 AI 開發。
一切的基礎:CUDA (Compute Unified Device Architecture)
CUDA 是 Nvidia 自家開發的並行計算平臺和應用程式介面 (API),允許開發者允許開發者用C++、Python等語言為GPU編寫程式,在 Nvidia 的 GPU 上進行高效的計算任務。它具有以下優勢:
• 普及性:自2007年推出以來,CUDA 成為了 GPU 計算的標準,被廣泛應用於科研、工業及商業領域。
• 生態系統:擁有豐富的函數庫和工具,為特定領域進行優化加速。
如 cuDNN(深度學習函數庫:提供了一組優化的深度學習基本操作,如卷積、池化、標準化、啟動函數等,是專門為深度學習框架設計的一個GPU加速庫)、cuBLAS(線性代數函數庫:許多科學計算和機器學習演算法都依賴於線性代數)、cuFFT(傅立葉變換函數庫:許多圖像處理、信號處理和科學模擬領域都heavily依賴FFT運算)等,支持各種科學計算和機器學習任務。
• 開發者支持:大量的開發者資源,包括文檔、教程和社區支援,使得 CUDA 的學習曲線相對較低。
CUDA-X AI:專門為AI打造的加速工作集 (豐富CUDA生態系)
CUDA-X AI 是 Nvidia 為 AI 開發者提供的一整套軟體和庫,涵蓋訓練和推理的各個階段。建立在CUDA之上的一套專門針對AI加速優化的庫,用於優化和加速AI應用的開發和部署。這些庫,如cuDNN、TensorRT等,都是利用CUDA提供的並行計算能力來實現其加速功能的。若沒有CUDA的支持,CUDA-X AI中的庫就無法工作,因為它們都依賴於CUDA提供的GPU訪問和並行計算能力。
CUDA是GPU計算的基礎,而CUDA-X AI是在此基礎上專門為AI任務打造的加速工具集。兩者相輔相成,共同構成了NVIDIA在AI領域的軟體加速生態。
其中兩個最重要的:TensorRT、cuDNN
• cuDNN:為深度學習進行GPU加速
是一個函式庫,專門為深度學習神經網路進行了優化。它建立在CUDA之上,提供了高效的GPU加速實現。cuDNN本身不是一個完整的開發工具,而是為深度學習框架提供底層加速支持的關鍵組件。
• TensorRT:為推理進行優化
則是一個推理優化器和運行環境。它並不是用於開發的工具,而是用來優化已經訓練好的神經網路模型,提高其推理性能。如量化、融合層等技術。支持多種深度學習框架,並能自動優化模型以適應不同的硬體配置。優化後的模型可以在支援NVIDIA GPU的各種環境中高效執行。支持從雲端到邊緣設備的跨平台推理任務,涵蓋範圍廣泛。與其他深度學習框架(如 TensorFlow、PyTorch)無縫集成,便於開發和部署。
cuDNN是一個函式庫,TensorRT是一個優化和部署工具。但它們都是NVIDIA提供的開發者工具鏈中不可或缺的一部分,共同構成了NVIDIA在GPU計算、深度學習等領域的開發生態系統。
通常,開發者會先用CUDA進行GPU編程開發,如果是深度學習應用,則會用到cuDNN進行加速;模型訓練完成後,再用TensorRT進行優化,以便部署到生產環境中。
其他幾個重要的SDK(軟體開發工具包):加速各行各業進行開發
未必運行於CUDA之上,但支持不同終端應用,主要針對特定領域提供了更高層次的開發工具和函式庫,簡化了相關應用的開發過程,為各行各業的GPU加速應用開發提供了強大的工具支持。開發者可以根據自己的應用領域和需求,選擇合適的SDK來進行開發。
社群創造絕對領先優勢,只要深度運算持續綁定,就必須用NVDA
深度學習框架支持
Nvidia 與主要的深度學習框架(如 TensorFlow、PyTorch、MXNet 等)密切合作,確保這些框架能夠在 Nvidia GPU 上高效運行。這包括:
• 直接合作:Nvidia 與 TensorFlow、PyTorch、MXNet 等主要深度學習框架的開發團隊保持緊密合作,確保這些框架可以充分利用 Nvidia GPU 的性能。
• 專用深度優化:Nvidia 專門針對這些框架進行優化,提供特定的庫和工具來提升運行效率,使其能夠充分利用 Nvidia GPU 的計算能力。
例如 TensorFlow 的 XLA(加速線性代數)和 PyTorch 的 AMP(自動混合精度)
• 相容性測試:Nvidia 定期進行相容性測試,確保最新的 GPU 和驅動程式與這些深度學習框架完美相容。
• 持續更新和支持:發布更新和補丁來提升性能,並修復潛在的相容性問題,保持與這些框架的同步更新,確保開發者能夠順利地使用 Nvidia GPU 進行深度學習。
持續研發投入和創新
Nvidia 每年投入大量資金進行研發,不斷推出新技術和工具,保持在 AI 領域的創新性。其最新的技術和產品如 Nvidia AI Enterprise 進一步擴展了其軟體生態系統。
建立開發者社區和合作夥伴網絡
Nvidia 通過各種方式建立廣泛的開發者社區和合作夥伴網絡,具體措施包括:
1. 開發者計畫和資源
• NVIDIA Developer Program:Nvidia 提供了一個開發者計畫,為成員提供最新的工具、SDK、範例代碼和技術支持。
• 開發者論壇:通過在線論壇和社區,開發者可以互相交流經驗,解決問題,並獲得 Nvidia 工程師的支援。
2. 教育和訓練資源
• NVIDIA Deep Learning Institute (DLI):Nvidia 提供了深度學習研究所,為開發者提供線上和線下的培訓課程,涵蓋從入門到高階的各種主題。
• 教程和範例:Nvidia 提供了豐富的教程、範例代碼和技術文檔,幫助開發者快速上手和提高技能。
3. 合作夥伴關係
• 戰略合作:Nvidia 與各大科技公司、研究機構和學術機構建立了戰略合作夥伴關係,推動 AI 技術的創新和應用。
• 生態系統建設:通過提供硬體和軟體支持,Nvidia 幫助其合作夥伴在 AI 領域取得成功,進而強化其自身的生態系統。
Nvidia 主要的軟體收費方式和具體收費來源
軟體年化營收10億美金,更重要的是加速企業應用落地可挖深護城河。
NVIDIA AI Enterprise:企業軟體訂閱和授權
• 訂閱模式:Nvidia AI Enterprise 是一套端到端的 AI 軟體套件,針對企業級 AI 工作負載進行優化。它包含了一系列工具和框架,如 TensorFlow、PyTorch 等,並針對 Nvidia GPU 進行了優化。企業通過訂閱模式獲得這些軟體的使用權和技術支援。
• 授權費用:企業需要支付授權費用來使用這些軟體,包括 TensorRT、NVIDIA RAPIDS 等。
Omniverse:企業軟體訂閱和授權
• 訂閱和授權:Omniverse 提供不同的授權模式,包括個人版、專業版和企業版,針對不同的用戶需求進行收費。企業通常會選擇年度訂閱來獲得完整的功能和支援。
• 外掛程式和擴展:Omniverse 的一些專用外掛程式和擴展功能可能需要額外購買,這也是一個收入來源。
GPU 雲服務:NVIDIA GPU Cloud (NGC)
• 按需付費:Nvidia 提供的 GPU 雲服務,企業和開發者可以按需付費使用,這些服務包括深度學習模型訓練和推理的計算資源。
• 訂閱服務:NGC 提供了不同級別的訂閱服務,包括預配置的深度學習環境、模型倉庫和工具集,這些服務的訂閱費用是主要的收入來源。
技術支持和服務:企業級支持
• 技術支持訂閱:企業在使用 Nvidia 的軟體產品時,通常會需要技術支援。Nvidia 提供的技術支援服務,包括在線支持、現場支持和培訓,這些都是額外的收費項目。
• 定制服務:一些大型企業需要特定的解決方案和定制服務,Nvidia 針對這些需求提供專業的定制開發和技術支援服務,收取相應的費用。
開發者工具和 SDK:CUDA Toolkit 和相關庫
• 商業授權:雖然 CUDA Toolkit 本身是免費的,但一些專業的庫和工具(如 cuDNN、TensorRT 等)可能需要商業授權,特別是針對企業用戶。
• 高級功能:一些高級功能和專用工具可能會收取額外費用,以支援更高效的開發和運行。
合作夥伴和生態系統合作項目
• 聯合開發:Nvidia 與其他企業或研究機構的聯合開發項目中,通常會收取技術合作和使用授權費用。
• 生態系統合作:Nvidia 在其生態系統內的合作夥伴也會支付相應的軟體授權和支援費用,以便使用 Nvidia 的技術和平臺。
根據 Nvidia 的業務模式,最大的收費來源主要包括:
• 企業軟體訂閱和授權費用:特別是 AI Enterprise 和 Omniverse,這些高價值的企業軟體解決方案為 Nvidia 帶來穩定且可觀的收入。
• GPU 雲服務訂閱:通過 NGC 提供的按需和訂閱服務,也為 Nvidia 帶來了大量的收入。
• 技術支持和定制服務:針對企業用戶的技術支持和定制開發服務,是另一個重要的收入來源。
結論:NVIDIA強大護城河,創造AI平台的絕對領先優勢
1. 技術壁壘:CUDA生態系統和軟體工具的絕對領先地位
• NVIDIA的CUDA平台自2007年推出以來,經過多年發展,已建立起成熟、完善的軟體生態。
• CUDA是開發者首選的GPU計算平台,擁有豐富的庫和工具支持,使開發者能高效地在NVIDIA GPU上進行開發。
• CUDA生態系統的技術複雜度和普及度使競爭對手難以快速模仿和超越,形成了強大的技術壁壘。
2. 硬體性能優勢:針對AI優化的硬體架構(GPU+互聯+CPU的XPU架構)
• NVIDIA的GPU硬體設計經過針對AI和深度學習的高度優化,如Tensor Cores大大提升了AI訓練和推理性能。
• NVIDIA GPU在計算密度、能效比和整體性能方面一直保持領先,為AI應用提供卓越的硬體基礎。
3. 廣泛的生態系統和合作夥伴網絡(綁定使用=無敵)
• NVIDIA與主要深度學習框架(如TensorFlow、PyTorch等)緊密合作,確保其GPU成為這些框架的首選硬體平台。
• 通過提供開發工具、SDK和培訓資源,NVIDIA建立了龐大的開發者社區和合作夥伴網絡。
• 強大的生態系統產生了網絡效應,進一步鞏固了NVIDIA在AI領域的領導地位。
4. 持續的研發投入和技術創新(讓競爭對手看不到車尾燈)
• NVIDIA每年在AI領域投入大量研發資金,涵蓋硬體、軟體、生態系統建設等各方面。
• 持續的研發投入和技術創新確保了NVIDIA能夠保持技術領先並不斷拓展AI應用場景。
• 長期以來,創造品牌效應和市場認可度,帶來顯著競爭優勢。



在AI和深度學習領域,不採用NVIDIA的軟硬體生態系統面臨的軟硬體成本壓力

• 軟體開發成本:開發優化的AI軟體需要大量的投入和專業知識。沒有NVIDIA提供的CUDA工具鏈、優化庫以及與深度學習框架的緊密整合,開發者需要投入更多的時間和資源來優化軟體性能,並確保其在不同硬體平台上的可移植性。這將顯著增加軟體開發的成本和複雜性。


• 硬體採購和優化成本:在不使用NVIDIA GPU的情況下,企業可能需要採購和管理多種類型的硬體,如CPU、FPGA或其他AI加速器。這不僅增加了硬體採購和管理的成本,還需要投入額外的資源來優化軟體以適應不同的硬體架構,且無法迭代。相比之下,採用NVIDIA的軟硬體一體化解決方案可以顯著簡化硬體採購和軟體優化流程,降低總體擁有成本。


• 缺乏生態系統支援:NVIDIA的軟體生態系統提供了豐富的工具、庫和社區支援。如果不使用NVIDIA生態系統,企業和開發者將失去這些寶貴的資源,並需要投入更多的時間和精力來尋找替代方案,這將進一步增加開發成本和上市時間。

• 缺乏持續的性能優化:NVIDIA持續對其軟硬體平台進行優化和更新,以跟上AI技術的最新發展。如果不使用NVIDIA生態系統,企業和開發者將失去這種持續的性能優化,並可能落後於行業的發展步伐。
不使用NVIDIA生態系統將導致顯著的軟硬體成本增加,並對AI項目的開發效率和性能產生負面影響。相比之下,採用NVIDIA的一體化軟硬體解決方案可以顯著降低成本,提高開發效率,並確保企業能夠跟上AI技術的最新發展。


其他:補充Omniverse具有那些方面的企業應用:
1. 實時協作和設計
• 多用戶協作:Omniverse 允許多個用戶在同一個 3D 項目中實時協作,這對於設計團隊非常有幫助。他們可以同時在不同的工作站上工作,實時更新和查看變更。
• 跨平臺整合:支援多種 3D 設計工具(如 Autodesk Maya、3ds Max、Revit,Unreal Engine 等)的無縫集成,允許設計師使用自己熟悉的工具在 Omniverse 平臺上進行協作。
2. 高性能模擬
• 物理精確模擬:Omniverse 能夠進行高精度的物理模擬,包括流體、剛體、柔體等,這對於產品設計和工程模擬非常重要。
• AI 驅動模擬:結合 Nvidia 的 AI 技術,Omniverse 可以用於自動化流程和智慧化設計,提高設計和模擬的效率和準確性。
3. 數字孿生和虛擬世界
• 數字孿生:企業可以利用 Omniverse 創建和管理數字孿生,即物理對象的虛擬副本,用於監控、分析和優化實際操作。這在製造業、智慧城市和物聯網(IoT)應用中具有巨大潛力。
• 虛擬世界構建:Omniverse 提供了構建和模擬虛擬世界的工具,這對於遊戲開發、電影製作和虛擬現實(VR)應用非常有用。
4. 開發者和企業支持
• SDK 和 API:Nvidia 為 Omniverse 提供了豐富的 SDK 和 API,允許開發者創建定制化的應用和外掛程式,滿足特定企業需求。
• 企業支持和培訓:Nvidia 提供針對 Omniverse 的企業級支援和培訓服務,幫助企業快速上手和應用這個平臺。
5. 應用範圍廣泛
• 設計和製造:用於產品設計、原型製作和製造流程的優化。
• 建築和工程:支援建築資訊模型(BIM),用於建築設計和工程施工模擬。
• 媒體和娛樂:用於電影製作、動畫製作和遊戲開發。
• 科學研究:用於科學數據可視化和模擬。
dwwinloi00

Nvidia 的護城河很高 相反的也是他的問題 因為準備吃反壟斷 別用台灣的思維看美國市場 壟斷法一成利直接暴掉

2024-09-10 16:47
Sinfield wrote:
至於趨勢
算力與AI的需求是等比級數,而不是等差級數
很多數學不好的忽略這一點
Mata老闆老祖說這一代訓練要10萬張H100來訓練LLma
下一代就要30萬張
老黃的黃氏定律則是要遠超摩爾定律
AI晶片算力10年要成長1000倍(10的三次方倍)
我之前有PO過美國的創投分析GPU只能用一代就落伍了
因為更新的AI需要更多"倍"的算力(而不是更"多")
只能買最新的晶片才能把成本降低
AI用指數的速度成長
老黃拚盡全力用指數的發展來配合
那些競爭對手才剛發展
哪來的指數型的爆發壓過NVDA???
AI基建還沒結束
NVDA有兩三年的好過日子一點也不為過


Update一下AI圈的消息:

Open AI今年度要推出Strawberry模型的精簡版本,推理比GPT-4o高100倍
2025要推出GPT-5 Orion獵戶座,參數量高達5兆

要拚速度最快的方式當然是用NVDA的CUDA系統...
  • 30
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 30)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?