
世上最厲害的謊言,就是說實話。謊言有時不是內容的問題,而是詮釋的選擇。
你說的是真的,我無從反駁,但你為何選擇這樣說、用這種語氣、選這個時機?
詮釋,是我們與世界對話的方式;
而最巧妙的謊言,正是用誠實的語句,描繪出一幅錯誤的現實。
我們很少留意,一段話中「未說出口的部分」往往比說出來的更具殺傷力。
當說話者刻意利用事實的留白,引導聽者自行補上理解,那些空白就成了誤解的溫床。
內容是真實的,語句是誠實的,但被引導出的結論卻可能完全錯誤。
這不是謊言的扭曲,而是詮釋的操控。
「實話的謊言」之所以難以辨識,是因為它讓你以為自己知道了真相。
更準確地說,是你不知道「你不知道」。
事實早已存在,但你解讀錯誤,
或者有人刻意設下情境,引導你往錯誤的方向去理解。不是他說謊,而是你誤解;
不是他欺騙,而是你補完了錯誤的詮釋。
當 AI 的大型語言模型(LLM)逐漸滲透我們的日常,許多人開始將 AI 生成的內容視為事實依據。
我已多次提醒:AI 的運作原理,本質上只是查詢、匹配、回應,它依賴的是人類預載的語料,而非自身經驗或創造力。
它不會質疑,也無法自創,當缺乏確切內容時,它便回傳最接近的相似值,甚至編造內容填補空白。
就算它說的每一句都是對的,問題往往不在於內容本身,而是這些「事實」所留下的空白。
這些留白,引誘人們自行補足,進而產生錯誤的詮釋。
更糟的是,這些誤解往往被人當作立論基礎,用來指控、批評,甚至決策。
AI 並不說謊,但我們對它的詮釋,才可能是真正的謊言。
比方說,AI 可以幫你完成 90% 的工作,意義是什麼?
AI 說能處理 90% 的駕駛工作,
是指 100 公里的路,前面 90 公里他開,剩下的 10 公里你自己開?
這幾天有人用 ChatGPT 來「評論」 Dave Snowden 的 Cynefin Framework,但 ChatGPT 的回答本身就有誤,卻有人把這段錯誤、膚淺的內容當成真正的評論基礎,甚至據此批評 Cynefin。完全不知道自己被 AI 的「實話」所構成的錯誤敘述誤導了。
還有一次,我在寫 Ground Mapping 策略框架時,因為手邊沒有孫子兵法原文,就請 ChatGPT 幫我查詢幾段原文。它先給了幾句我確認過是真的,但後來又回傳幾段「AI 模擬孫子語氣」的句子。對不熟悉原文的人來說,這些話聽起來完全像真的,但那其實只是 AI 模擬出來的 — — 完全錯的。
《表象的真,不代表就是真。》
人類的智慧,不只來自知識的累積,而是對表象背後意圖的懷疑,
以及在詮釋過程中持續進行的感知能力。