今年大學新鮮人
想購買新筆電,理工類別,不常玩遊戲,輕便、續航力強,有最新AI 功能(邊緣運算)
所以想請教2個問題:
1.INTEL 最近13、14代的災難,對於既有的ULTRA 系列(筆電7、9)是否也有影響?以及今年9月4日ASUS上市的V200 系列是否也有影響?
2.如果前者屬實,或者有疑慮是否只剩AMD 系列,如ASUS M5406 可以選擇?
(考慮諸多軟體相容性,ARM系列的先不考慮)
謝謝提供採購建議
chiao55 wrote:
今年大學新鮮人
想購買新筆電,理工類別,不常玩遊戲,
輕便、續航力強,
有最新AI 功能(邊緣運算)
您的需求 彼此抵觸、互斥
1. 輕便、超薄機種,運算不可能強
(因為內部空間不夠,散熱受限!)
2. 強調邊緣運算、AI運算,
表示您要跑得AI功能不在雲端,必須在自己電腦上跑?
給您的建議,第二點必須買一台桌機、臺式機才能作得好
您再想想吧
Notebook也有電競筆電,可以跑運算的
但「絕對不可能」是 輕薄型筆電
我的選擇:2024年中,地表最強的筆電CPU就是 AMD R9-7945HX
MSI Alpha17 C7V , AMD R9-7940或7945HX。2K螢幕
https://www.mobile01.com/topicdetail.php?f=241&t=6992057
真正16大核心(不是 Intel那種P+E大小核心)
約五萬新台幣上下,獨立顯卡(滿血)nVidia 4070
更便宜的款式是 R9-7940HX,規格相同,但運作頻率低一點點
關鍵字「AMD 7945HX vs 7940HX」可以找到很多文章
目前考慮的是行動裝置,所以桌機的強大,不在討論範圍。
現在大學生用筆電大概就研究、作業、休閒。
有些理工分析軟體還是只能MS系統+X86,所以只剩A、I二家。
其他作業、休閒,因為不玩3A 大作高耗能遊戲。所以這部份不用太考慮硬體規格。
筆電考慮用4-6年。
倒是現在的AI :CHATGPT ,經過使用觀察,免費的變笨及限制次數,付費的不知值不值的。但若成(要準就付費)趨勢,又回歸GOOGLE+ 人腦。畢竟OPENAI 營運成本太高。
預估未來可能的模式,會採用AI邊緣運算,吃筆電的算力:
問題1、會吃到筆電GPU效能嗎?若會,GPU效能的評估是以運行速度HZ,還是RAM的容量還是RAM的速度為主?
問題2、NPU,MS 稱要50TOPS才能"算AI",是單指NPU的算力,還是CPU+NPU+GPU?
RAM 的部分我想就是32GB,不用考慮,因為現在都焊住了,想要用4-6年,這部分沒問題。
所以你看價錢 性能來決定 買哪牌
問題1、AI會吃到筆電GPU效能嗎?若會,GPU效能的評估是以運行速度HZ,還是RAM的容量還是RAM的速度為主?
是這樣ai開發者 可以決定用什麼跑 cpu gpu npu ,而因為gpu跑的速度遠超cpu,所以正常來說 ai運算都會用gpu跑
如果電腦沒有顯卡就會就會用cpu 跑 .
gpu ai 運行速度看 nvido卡 cuda數目 和Vram(顯示卡上面的記憶體) , 像是4060就是(8G vram)
簡而言之
ai 本地端
1. 先決定用什麼跑 如果是gpu跑速度會快很多
2.但是跑的時候會大量吃記憶體 沒有足夠記憶體 vram 就不能運行 所以一些繪圖ai stable diffusion 會有最低顯示卡記憶體 vram 限制
如果 Vram(顯示卡上面的記憶體)不夠 =>會給cpu運算 吃 ram 也就是(一般記憶體) =>速度下降
而現在大模型 絕對吃爆你的筆電 顯卡 vram 所以你ram 也得裝大點
問題2、NPU,MS 稱要50TOPS才能"算AI",是單指NPU的算力,還是CPU+NPU+GPU?
RAM 的部分我想就是32GB,不用考慮,因為現在都焊住了,想要用4-6年,這部分沒問題。
50TOPS才能"算AI" =>說的是cpu 整個算力 50Tops 也就是那顆cpu算力 (cpu內含npu和內顯)
ai 算力 50tops 就是菜雞 ,顯卡直接 上200tops算力
那些筆電商會唬爛 什麼ai筆電要大於50tops 要有npu等. 根本沒路用
這只是話術 (一些ai 是軟體獨佔而已,實際上根本連網路來運行 ,
也就是說阿貓阿狗的筆電都能運行,只是把軟體獨佔安裝在筆電上而已)
不過會唬爛是沒辦法的 因為本地運行大模型 筆電條件太高太高,只能運行小模型8B左右大小
而且是抵不過chatgpt cladue等大模型.
你現在能選的是
1.放棄ai 本地運算 選擇輕型 筆電 用chatgpt 之類 的ai
像是 ASUS M5406=> 你沒看錯這種ai 輕型筆電就是放棄本地運算
2.跟他拚了 上顯卡4060以上 上記憶體 價錢upup 重量續行必定變重變差
如果你選擇2 也是賭未來 ,現在本地端 根本完全不給力,是不可能跟大公司大模型抗衡
比較可行可採取的只能是混合模式(複雜任務拆解 簡單給本地 難的用chatgpt api )
這樣會比訂閱chatgpt 便宜
如果你是資工系 或是開發者我是覺得值得這樣玩.
結論:
1.現在看到的ai 筆電沒有獨立顯卡 就別想本地運算 只能算是ai 小功能輔助
不過因為 amd 新ai cpu 其實本質上就不錯 ,所以雖然根本運行不了本地ai 但是效能也不錯.
intel ultra 系列 價錢如果有降是可以考慮 現在價錢有點太貴.
2.筆電不存在可能運行chatgpt 這種大模型的可能性,只能運行小模型.
如果是軟體開發者,是能考慮,用混合策略 .
3.ai 趨勢 因為蒸餾等技術 確實是大模型有變小,chatgpt min 和 gemini-2b 能塞進硬體的趨勢
但是就算如此筆電跑起來還是很吃力跑出來錯誤率太高. 可以賭未來 技術進步
https://www.techbang.com/posts/116660-copilot-pc-ai-pc
其中一部份:
Copilot+ PC 的定義是什麼?
由於微軟推出「Copilot+ PC」後,等於重新定義 AI PC,這讓市場對 AI PC 的定義變得更加混亂,現在市場上 AI PC 不是 Copilot+ PC,而 NVIDIA 推出的 RTX AI PC 也不是 Copilot+ PC,那麼 Copilot+ PC 的定義究竟為何呢?
NPU 至少 40 TOPS 算力
在 Copilot+ PC 的定義中,較為嚴格條件是用來運算 AI 的 NPU,因為要能驅動 Windows 11 的各種 AI 新功能,NPU 至少得具備 40 TOPS(每秒兆億次操作)算力,以及 16GB 的記憶體和 256GB 的儲存空間,這意味著 Copilot+ PC 能夠運行更複雜的 AI 模型,進而提供更強大的 AI 功能,以及能為安裝 AI 模型準備足夠空間。
--------------------------
AI 9 HX 370這顆CPU搭配的筆電,目前由華碩首先獨賣,忘了是先賣多久;
之後別家也會出,如果不急可以再等等...
內文搜尋

X