我已經入手了 64GB 的 M4 mac mini pro原本就是打算用來跑 local LLMram 越大, 可以 loading 的模型越大精度越高的模型,勢必佔用越多的 ram我自己試用下來感覺 local LLM 在使用上仍不若 chatGPT / Claude好處是免費,可以自己微調 (if you can)當然未來 model 也會改良或許使用上 不需要這麼多的 ram 就能跑出一樣的效果也說不定建議是看你預期買來是做什麼再規劃入手相對應的硬體規格
bababoyet wrote:AI的話則會用LM Studio跑Code Llama 跟 Llama3 如果是要拿來賺錢的直上Macbook Pro M4 Max 128GB RAM款的吧~(時間就是金錢)如果不是,那就無所謂囉~或是慢慢等Mac Studio M4 Ultra版推出也可以喔~