• 44

有人買NVDA 輝達嗎?



因為槓桿借貸成本
加上期貨

就算輝達尾部上漲
換成兩倍
依然是跌的

這就是槓桿

沒表現
還是得付成本與借貸




吉岡流全部一切賭在鴻海
無心流是校長的無所謂

決心流是完全不對種子有任何感情
隨時隨地可以捨棄的投資
附加條件
牛市時
拿三倍報酬回來
張直家

持有做多不到14%,跌幅深4%一點也是0.14乘於0.96這樣影響,後面86%波克夏高息低波,是完全不被影響的,最好的方式是停止投資這件事,種子穀倉比例是10:90等到熊市來臨與撐完一整年

2024-06-28 0:38
張直家

吉岡流最後賭上一切,兄弟慘死在宮本,無所謂的校長可能正在外面悠閒的釣魚

2024-06-29 19:20
張直家 wrote:
因為槓桿借貸成本加上...(恕刪)


輝達目前ai營收不可能一直高成長會和2022年的顯卡一樣
當時把顯卡和挖礦結合再一起。但當2021年年底開始顯卡挖比特幣不能賺錢開始。
2022年初又因為疫情期間廠商大量重複下單所以科技業開始再去庫存沒有訂單。
當時輝達就出現大幅回檔。只是輝達很厲害又把產品和ai結合再一起。
但是目前也是出現重複下單問題。之前ai伺服器很熱所以客戶怕搶不到就大量下單另方面可以讓對手買不到貨但但是目前微軟買一堆貨根本沒在大量蓋資料庫。後面下游需求開始下降一樣準備慢慢去庫存。
張直家

對不起,我對種子沒感情,我沒辦法像鴻海a對鴻海賭上一切,豁出去的只相信投資標的物,我做不到,我只是把種子拿來割的,對我而言,種子根本隨意可以任由市場消失的財富工具而已

2024-06-27 7:18
張直家 wrote:
因為槓桿借貸成本
加上期貨

就算輝達尾部上漲
換成兩倍
依然是跌的

這就是槓桿

對呀,看NVDL
漲沒2倍,跌卻超過2倍
張直家

Fang指數2018表現是0.08%,三倍成本整年度暴跌40%以上,平常進場風險是幾乎百分之百被抬出去,真的方向不對短期要立刻殺出,絕對不可逗留,否則,最後真的是葬儀社都來了

2024-06-27 16:40
張直家

按照機率,平常進場抬出去50%,長期持有的話,這次沒抬出去,下次也會抬出去,剛好升級成100%,最後告訴我們就是只能短,而且要等時機進,手癢不要買超過5%

2024-06-27 16:58
昨晚我1千股的NVDL賣71停損了
這盤看不懂,暫時不玩了
擦鞋童

Re張直家:好深奧[sorry]

2024-06-29 15:04
張直家

9成資金在波克夏,你只會看到修正興奮

2024-06-29 17:15
高雄真好 wrote:
昨晚我1千股的NVD...(恕刪)


在中文互聯網上,英偉達每天都在被顛覆。絕大部分自媒體和短視頻達人都討厭英偉達,包括周鴻禕在內。他們千方百計地指出,某種替代品(不管是不是國產)的性能指標已經超過英偉達A100或H100,後者即將淪爲資本市場歷史上最大的泡沫云云。尤其是在B站、小紅書這樣的平台,“英偉達將迅速被替代”可以被視爲一致觀點,反對這個觀點的人將遭到群嘲。
其實,海外互聯網同樣如此。昨天還有AI行業的朋友給我分享了一份自稱“性能大幅超過英偉達”的美國芯片廠商的自我介紹(是當笑話看的)。幾個月前,芯片創業公司Groq發佈了自稱性能大幅超越英偉達的推理芯片,引發了一定的市場關注度。不同之處在於,海外網友稍微講一點常識,知道英偉達在訓練領域的壁壘實在太高、牢不可破,所以他們主要從推理環節入手:可以針對大模型推理開發某種高度特化的“推理專用卡”,在性能或性價比上超越英偉達,而且已經有人做到了。這些觀點經常被翻譯爲中文,不過翻譯者經常有意地把其中的海外芯片創業公司的名字偷換成A股上市公司(或某家非上市公司),從而達到不可告人的目的。
遺憾的是,至少在現在,以及可見的未來,英偉達在推理方面的壁壘仍然十分牢固。或許它在推理方面的壁壘不如訓練方面那麼高,但只要競爭對手攻不破,就沒什麼區別。對於絕大部分大模型開發商以及雲計算廠商而言,AI算力建設只能以英偉達爲核心(買不到的情況除外),不論是訓練還是推理算力。在展開分析這個問題前,讓我們先簡明回顧一下訓練和推理的區別:
訓練,就是指創造和升級AI模型(包括但不限於大語言模型)的過程。訓練環節涉及海量的數據,耗時極長,對算力的併發性需求極高,往往要一次動用幾千張到上萬張規模的顯卡集群。專門爲訓練做過優化的顯卡俗稱“大卡”,其最典型的例子是英偉達A100、H100和B100。
推理,就是利用現有大模型解決用戶需求的過程。我們每向ChatGPT提一次問題,就啓動了一次推理流程。單次推理處理的數據規模往往較小,因此對算力硬件的要求不如訓練那麼高。英偉達專門爲推理做過優化的顯卡俗稱“中卡”,例如A20、L40;一些高端消費級顯卡(俗稱“小卡”),例如RTX3和4系列,也可以用於推理。
英偉達的競爭對手,從AMD到英特爾,從Groq到華爲,每天都在異口同聲地陳述同一個觀點:推理的門檻沒有硬件那麼高,英偉達賴以生存的CUDA軟件生態以及顯卡互聯技術在推理端的作用有限,所以在推理端替代英偉達完全可行。事實又是如何?關鍵要看企業客戶,包括OpenAI這樣的大模型開發商以及亞馬遜、微軟這樣的雲計算平台商怎麼看——畢竟是它們的技術團隊和採購人員做出了顯卡採購的決定,而不是社交媒體網友。如果我們仔細分析一下主要科技企業今年以來的顯卡採購決策,就會驚訝地發現,事實與英偉達的競爭對手所鼓吹的完全相反:
AMD和英特爾的“AI加速卡”(其實就是推理卡)賣得都不怎麼樣。其中,AMD的旗艦產品Instinct MI300的單季度銷售額不足10億美元,2024年全年的目標也僅僅是賣出40億美元;英特爾的旗艦產品Gaudi 3就更慘了,2024年全年的銷售目標不足10億美元。把這兩家的AI硬件銷售額加起來,恐怕都只有英偉達“中卡”銷量的一個零頭。在2024年一季度業績發佈會上,蘇媽承認AMD的推理卡目前不存在供給瓶頸,客戶可以隨時提貨;隔壁的英偉達幾乎所有產品線則都處於緊缺狀態。換句話說,大部分客戶寧可等上一兩個季度,也寧可買英偉達而不是AMD的產品。
與此同時,在硅谷出現了一個新的趨勢:儘可能多地採購“大卡”,把推理和訓練一起交給“大卡”去做。例如,OpenAI將使用較新的H200承擔GPT-4o的推理任務;蘋果通過鴻海採購了數萬張H100,估計主要將用於推理工作;Meta計劃在2024年之內新增35萬張H100,其中很大一部分將用於推理;亞馬遜採購的首批3萬多張GB200“超級芯片”顯然將同時用於訓練和推理。這充分說明,所謂“英偉達在推理方面的護城河不深”的說法是何等荒謬!如果上述說法是真的,那麼除非大廠錢多燒得慌,否則完全沒有必要採購單價極高、供應非常緊張的英偉達“大卡”承擔推理任務。當然,這些大廠也會採購一點點AMD或英特爾的產品作爲補充,每次都會引發後兩者的歡呼雀躍,恨不得讓全世界都知道。
爲什麼硅谷大廠要花更多的錢去採購專爲訓練優化的“大卡”承擔推理任務?這既是出於技術考慮,也是出於綜合成本考慮。簡而言之:
“大卡”的顯存更大、顯存帶寬更高,適合運行參數規模巨大的大模型。目前主流大模型的參數規模均已突破萬億,而消費者使用的一般是“蒸餾”過的、幾十億到幾百億參數的精簡版模型。“中卡”“小卡”足以運行這些精簡版模型,但大型企業客戶可能需要運行萬億規模參數的超級模型,那就非用“大卡”不可了。
“大卡”的爆發性輸出能力更高、延遲較低,適合執行高度時效性的推理任務,例如自動駕駛、國防軍工、金融交易等場景。最近流行的“超長文本推理”,對顯存的要求較高,“大卡”處理起來也更得心應手。
在AI算力中心當中統一使用“大卡”,有助於降低硬件複雜度,實現較高的算力彈性和通用性。像OpenAI這樣的公司,一年之中有幾個月處於訓練期,在此期間可以把自家“大卡”全部用於訓練以保證速度,租用外部算力滿足推理需求;訓練間歇期則可以少租外部算力,讓自家“大卡”轉而從事推理。
“大卡”,尤其是B100/B200這種新款產品,最先應用了英偉達的最新技術,從而有利於後續升級和再利用。哪怕幾年之後技術突飛猛進,舊款“大卡”退下來還可以做別的工作,而舊款“中卡”“小卡”可能就沒有價值了。
上述四條原因,前兩條是技術上的,後兩條則是成本和管理上的。就像我的一位從事AI技術工作多年的朋友所說:“其實是經濟性讓大家投票選擇了英偉達,這就是市場的力量。”由於上面是在英偉達自家的不同產品線之間做類比,我甚至都沒有提到CUDA軟件生態——過去十八年,全球上百萬開發者爲CUDA積累了太多的開發工具和代碼,AMD的ROCm根本無法與之匹敵,英特爾就更是不值一提了。
現在假設有一種推理卡,不知道爲什麼竟能實現遠高於英偉達的性能(可能是上帝顯靈),而且竟能克服缺乏CUDA生態的麻煩(這次上帝得多受累一點),並且紙面價格顯著低於英偉達(這一點極難做到),它也不一定能打敗英偉達。客戶首先要考慮通用性:專門爲大語言模型推理“特化”的芯片,大概率無法拿來執行任何其他任務,從而帶來了更高的機會成本。英偉達是“通用計算GPU”概念的提出者,“通用”概念就意味着靈活性和彈性。遠的不說,最近幾年我們就能看到許多鮮活的案例:
2021-2022年,爲了進一步訓練內容推薦算法,以符合歐盟消費者隱私要求,以及支持新推出的Reels短視頻功能,Meta(原名Facebook)採購了大量英偉達“大卡”;當然其中一部分也是爲“元宇宙”研發準備的。Meta還成爲了2022年發佈的H100顯卡早期最重要的客戶之一。ChatGPT橫空出世之後,Meta立即將手頭的算力資源投入生成式AI研發,迅速成爲全球開源大模型領域的第一平台。扎克伯格本人亦承認,生成式AI浪潮來的時機很巧,Meta非常幸運——其實他更應該感謝英偉達顯卡的通用性和普適性。
2019年前後,中國的“雲遊戲”產業處於井噴階段,資本市場對其有很高預期。包括阿里、騰訊和電信運營商在內的雲計算大廠紛紛採購了大批英偉達RTX顯卡(初期主要是Turing架構,後來亦有Ampere架構)組建刀片服務器。雖然雲遊戲在國內沒火起來,但是高端RTX顯卡具備張量核心(Tensor Core),從而擁有一定的推理能力。在美國芯片法案的陰影之下,國內廠商採購推理卡越來越困難,當年積累的“雲遊戲卡”扮演了雪中送炭的角色;儘管它們的推理效率肯定比不上L40等“中卡”,但有總比沒有好。
(附帶說一句,爲什麼英偉達的消費級顯卡也裝備了Tensor Core? 因爲它對於光線追蹤技術的實現扮演着不可或缺的角色,而光線追蹤能夠大幅提升遊戲畫面的感染力。顯卡處理遊戲內部光影效果的方式,與處理大模型數據的方式,在硬件和數學層面是互通的。人類如果沒有強大的遊戲產業,就很難建設強大的人工智能產業。
我們不知道生成式AI產業的下一步走向是什麼:Transformer架構(現在所有大語言模型的基礎)誕生至今才七年多,第一個百億參數的大模型誕生至今才不到五年。就像許多學者指出的一樣,生成式AI有可能並不是實現通用人工智能(AGI)的必由之路。但是無論如何,有一點是確定的:未來的世界需要大量算力,尤其是並行的、以多核GPU爲基礎的算力。當生成式AI浪潮突然降臨之時,許多科技大廠都把自家的英偉達顯卡從自動駕駛、推薦算法訓練、圖形渲染等任務迅速轉移到了大模型相關任務;這進一步加深了它們對英偉達的信任和依賴。
此時此刻,全球科技巨頭用於擴張算力的資本開支,普遍達到了每年幾百億美元的水平;坊間甚至傳聞微軟打算在一年之內耗資1000億美元建設新的數據中心。花了這麼多的錢,它們肯定不希望自己買到的算力僅能用於非常狹窄的領域,不管其紙面性能好壞、價格高低。所以那些高度特化的推理卡,註定只能在巨頭的算力軍備競賽當中扮演次要角色;AMD能扮演的角色可以更重要一點,但離英偉達這個主角還是差得很遠。
就在本文撰寫的過程中,我的另一位從事AI行業多年的朋友告訴我:“我們最近開始採購另一家公司的顯示芯片了。它的硬件規格是合格的,但是軟件適配是大問題,需要踩很多的坑。英偉達的CUDA開發團隊應該比硬件設計團隊的規模要大得多,它的發佈會上幾乎全是軟件生態工具,例如GPU虛擬化、一鍵部署。缺少了英偉達的軟件生態,我們就要自己僱人去實現這些能力。生態就是成本!沒有生態就要產生額外的開發成本。”當然,鑑於國內現在越來越難買到英偉達的數據中心級顯卡,廠商只能硬着頭皮承擔成本;在有選擇的情況下,它們幾乎不會有動力這樣做。
至於五年、十年乃至二十年後呢?那就是另一個問題了。通用計算GPU這個概念誕生至今也只有十八年,NVLink技術也只有十年曆史。在長期,一切都是可以改變的,但是一切改變只能來自勤奮耕耘和咬定青山不放鬆的精神。請記住,2013年,當黃仁勳操着半生不熟的普通話在北京國家會議中心的舞臺上說“請給我一個機會介紹英偉達”的時候,他已經到處推銷自己的通用計算理念長達七年了;而他還要再等待整整九年,才能看到一切開花結果。當時嘲笑他的人,和現在認爲可以輕易替代他的人,很可能是同一批人。
起床號

謝謝分享,十分充足,並以簡而易懂的方式解說更棒

2024-06-28 20:12
擦鞋童

[讚]

2024-06-29 14:57
我是用美國券商~
PCE利多結果只漲一點又賣壓出籠
看來前高套牢壓力不小
接下來可能會進入盤整

我是樓主
這是我剛創的小號
沒法改名只好換帳號用

我這頭像用AI生成的讚吧
在股市裡永遠要尊重跟你看法不同的人,因為你賺的錢就是他賠的錢
擦鞋童 wrote:
PCE利多結果只漲一...(恕刪)


Pce公佈反而利多出盡。
因為消費通膨下降也反應可能是消費者沒錢消費了。這對漲多的ai股是一大利空。
所以代工的美超微先崩6%。
下遊買不起或沒錢消費也會導制通膨下降。
擦鞋童 wrote:
PCE利多結果只漲一...(恕刪)


我算是長線持有
短期波動不會理會
下次財報公佈要等到8月
所以這段時間應該是盤整~
從財報到拆股題材100漲到現在也有兩成多算可以了
真的要再漲真的要看Q2財報,超出預期才有題材~
張直家

還要追蹤其他尖牙對輝達需求,營收持續成長時,股價逐步上揚

2024-06-29 19:46
Etched AI推出ASIC芯片sohu挑戰英偉達
推理速度比H100快20倍



  • 44
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 44)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?