tteffuB 特肥吧 wrote:
厲害啊!能不動聲色偷...(恕刪)
CHAT AI 幫你解惑了:
DeepSeek好像已經暫停台灣用戶註冊了,所以去問GPT-4o對於
那些認為deepseek很厲害,而批評台灣政府的數位發展部每年編列200億預算
卻做不出來的人可能在想什麼

完整分析有點長,我直接貼結論:
批評「DeepSeek 很厲害,但台灣政府 200 億做不出來」的人,可能有以下幾種思維:
. 直覺對比中國:「中國 AI 這麼強,台灣怎麼不行?」
. 對政府不信任:「政府只會浪費預算,效率低!」
. 誇大中國 AI 發展:「中國 AI 已經世界領先,台灣遠遠落後!」
. 誤解數發部職責:「200 億應該拿來做 AI,而不是花在其他地方!」
這類人主要來自 50-59 歲、60 歲以上(國民黨支持者為主),以及部分 30-49 歲對
政府不滿的民眾黨支持者。
他們的問題在於:
. 低估台灣科技優勢(半導體、AI 應用)
. 高估中國 AI(未考慮技術含量與國際競爭力)
. 誤解政府預算(數發部不是 AI 研究機構)
換句話說,這些人可能並不是真的關心 AI 技術,而是藉此機會發洩對政府的不滿,或者
過度相信中國科技宣傳
另外,GPT還推論了這些人的可能年齡層跟政黨傾向

來源:PTT
goet0 wrote:
雖然說中國經...(恕刪)
轉貼~
最近國產AI大模型Deepseek的爆火給芯片產業帶來不小的震動,英偉達一夜市值蒸發3500億,其低成本的算法讓人們懷疑英偉達未來發展前景,通過最近對Deepseek的了解發現有一個論點比較好接受,那就是其算力成本低的原因是數據蒸餾,也就是搭便車,已經有了一個訓練好的大模型A,和準備訓練的小模型B,假設輸入是X,需要讓BX儘可能接近AX的結果,就像是提前知道了某道題的答案,根據這個答案去解題,這樣就簡單多了,不需要做繁瑣的試錯流程,以前的大模型訓練像是題海戰術,而蒸餾就像是在題海戰術裏面經過磨練的優秀大模型去充當新模型的老師,老師篩選出有效的題目再讓新的大模型去訓練,前一個模型是教師模型,後一個大模型叫學生模型,山姆奧特曼說:複製你知道的有效東西,相對來講是容易做的,而新的有風險的和困難的事情是當你不知道他是否可行的時候,這個是極其困難的,這也是世界上最酷的事。學生能否超過老師並創新發展,我們拭目以待。
X
X
複製連結
請輸入您要前往的頁數(1 ~ 8)






























































































