• 2

Intel跑步進入AI PC時代!13代酷睿支援160億參數大模型、Arc顯示卡提速54%

搞錯了, 沒有顯卡只用 CPU

要拿掉 xformers 才可以, 因為 xformers 會嘗試使用 NVIDIA CUDA

command line 執行

pip uninstall xformers 解除安裝 xformers

webui-user.bat 內容

@echo off

set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS= --lowvram --precision full --no-half --skip-torch-cuda-test

call webui.bat


老電腦跑 VMware 17 Windows 10 VM 一張圖 10 分鐘




==

玩票性質, 驗證想法而已
LLM最近熱門
有支援新功能隨然是好事
但是顯卡本質是遊戲
先把遊戲驅動程式搞好
intel對星空好像支援度很差

LLM十幾年前就在玩
直到現在又被炒起~小弟論文就是大數據文字解析
Ghostwriter

現在intel顯卡需要一個可以吹的點來切入市場,遊戲驅動目前救起來一半,AI正好有大vram可以撐,就不知道下一代intel顯卡有沒有料(還出嗎?)

2023-09-11 1:16
現在跑LLM參數模型大小 受限於VRAM太小
給個256G VRAM 啥鬼東西都能跑

現在的DDR5雙通道的憶體的頻寬太小 才80GB/s 無法跟顯卡的TB/s級的頻寬比 效率不敢說
ค้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้้
ya19881217 wrote:
現在跑LLM參數模型大小 受限於VRAM太小
給個256G VRAM 啥鬼東西都能跑

現在的DDR5雙通道的憶體的頻寬太小 才80GB/s 無法跟顯卡的TB/s級的頻寬比 效率不敢說


看到了吧!! 以後Windows 12 PRO如果要求128+GB的記憶體,或許是人類未來的方向之一

話說以後PC大記憶體討AI,非常合理

PS: 我沒有被記憶體類股套到,別看我
1000K

skiiks , 以前我做類似產品,各自元件有自己個API要呼叫,我很難想像怎樣突破33ms(1/30 fps)的極限。所以看到12ms的delay,我只能佩服Apple花多大的心力去打通這些關鍵節點

2023-09-12 18:27
1000K

很多東西的實現,真的要老闆拿錢拿時間出來努力研發。你說超低延遲這種理想哪個工程師沒想過,但哪個老闆敢支持? 不管Vision Pro賣怎樣,這點勇氣先給讚

2023-09-12 18:29
intel牛皮吹了幾十年
聽到煩了
消費者只問一句
還要再過「幾個十年」才肯把pcie通道給好給滿
一直吹整合
結果一裝上其他匯流排設備
速度直接砍半甚至不驅動
沒把pcie通道給到足是整合個毛喔
maya95

INTEL: 花錢買XEON就有很多通道 [^++^]

2023-09-11 21:37
惡魔印記666

看來intel是鐵了心不推X系列了[大哭]....我現在用的就是末代10980XE.....,我等月底TR7000系列出來如果夠香就要跳槽了。

2023-09-12 19:51
  • 2
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?