M4 Mac Mini 24GB Ram 適合用來剪輯&跑AI嗎

最近要換桌機
想問一下24GB Ram的m4 mac mini適合跑剪輯跟AI嗎
剪輯的部分會用到達芬奇和AE
AI的話則會用LM Studio跑Code Llama 跟 Llama3
2025-01-05 20:59 發佈
我已經入手了 64GB 的 M4 mac mini pro
原本就是打算用來跑 local LLM
ram 越大, 可以 loading 的模型越大
精度越高的模型,勢必佔用越多的 ram
我自己試用下來
感覺 local LLM 在使用上
仍不若 chatGPT / Claude
好處是免費,可以自己微調 (if you can)
當然未來 model 也會改良
或許使用上 不需要這麼多的 ram 就能跑出一樣的效果
也說不定

建議是
看你預期買來是做什麼
再規劃入手相對應的硬體規格
liangcase

呃...OpenAI Sam Altman 自己也用 macbook, 不過有聽說這些公司買爆 mac 來處理 LLM 嗎?

2025-01-07 12:04
htyang

server 級的處理效果絕對比桌機級的效果好。自己用的,選擇自己適合的就好了

2025-01-07 19:36
現在最少有 16G Ram 起跳,用是一定可以用.
若是賺錢的工具,可以攻頂.
只是輕度使用 16G 也不是不行.
不必買來戰未來,因為未來會有更強的晶片等你.
畢竟,蘋果的記憶體跟金子一樣貴.
bababoyet wrote:
AI的話則會用LM Studio跑Code Llama 跟 Llama3

如果是要拿來賺錢的
直上Macbook Pro M4 Max 128GB RAM款的吧~
(時間就是金錢)

如果不是,那就無所謂囉~

或是慢慢等Mac Studio M4 Ultra版推出也可以喔~
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?