以我的見解:(不見得對)
1.Siri運算核心應該是放在雲端,user在iphone 輸入,透過網路上傳到雲端,由雲端核心解析,再回應到iphone.
2.為何核心要放在雲端,語音辨識要很大的patten比對,而且一些algorithm也會變,放雲端最方便。
3.人工智慧是可自我學習的,放雲端讓Siri自我學習,"正確率"可能會隨時間增加提高,前提是user把Siri的錯誤糾正後的正確動作會透過iphone自動回饋回Siri雲端核心。
4.中文在電腦語意解析的難度比英文高,短時間內Siri應該很難聽得懂國語。
5.我講的是語意解析,不是語音辨識,兩者不一樣,Android語音搜尋就是單純的語音辨識,這跟Apple Siri是不同的東西,不過語意解析需要語音辨識當前置處理。
北醫華佗曾經跟南醫扁鶴說過:「怎麼辦,腦殘沒藥醫!」
內文搜尋
X




























































































