前陣子,一個問題在網路上瘋傳,成了大家調侃 AI 的經典素材:
I want to wash my car.
The car wash is 50 meters away.
Should I walk or drive?
不同 AI 給出了不同回答。有些模型回覆說 drive,因為要把車帶去洗。但被截圖瘋傳、被拿來當笑話的,通常是那些建議 walk 的回答。它們從距離出發,分析 50 meters 很近,所以建議走路。
於是網友們整齊劃一地笑翻了。
「AI 真的沒常識。」
「沒有車你要洗什麼?」
「這智商還是別來取代人類了吧。」
笑聲背後,彷彿存在著一個不容置疑的正確答案。
但我看著這串討論,心裡卻冒出另一個問題:問題真的那麼單純嗎?
再看一次原句。
I want to wash my car.
這裡其實已經說得很清楚,是要洗自己的車。所以第一層常識沒有問題。不開車去怎麼洗?
但真正值得注意的是另一件事。既然是 wash my car,為什麼還會問 Should I walk or drive?
在一般情境下,這幾乎不是一個需要思考的問題。
如果朋友這樣問我,我的第一反應會是:「當然開車去啊,不開出去怎麼洗?還是你要洗的那台車已經停在那裡了?」
這不是找漏洞,而是察覺到提問本身可能隱含了某些沒有說出口的條件。人類在真實對話中,往往會先反問,釐清前提。
但網路上的討論不是對話。AI 回答的是字面問題,群體回應的是直覺常識,而真正缺席的,是那個釐清前提的過程。
至於有些人提出各種延伸解釋,例如可能是去找朋友、幫別人洗車等等,其實很可能只是看了新聞的翻譯之後,再自行腦補出來的。原始題目其實非常直接,就是:
“I want to wash my car.”
如果連這個基本前提都被忽略,再延伸出各種額外情境,那麼討論的其實已經不是題目本身,而是各自想像出來的故事。
就像如果我問:飛機、火車、汽車,哪一種比較快?如果只看最高時速,飛機當然最快。但如果考慮整段旅程時間,答案就不一定。你從哪裡出發?目的地在哪裡?是否把轉乘與候機時間算進去?條件不同,答案就不同。當前提沒有被說清楚時,所謂的正確答案,其實並不存在。
我在之前寫過一篇文章《超越 AI:人類感知仍是情境解讀的關鍵,一場探索情境多義性與知識萃取的人機對話》。裡面提到一個核心觀點:LLM 本質上是一種認知、匹配、回應的機器。當語句找不到完整情境,它會在機率分布中選擇一個最合理的答案。它不會覺得你在設陷阱,它只是在不完整資訊下做出機率選擇。
真正值得思考的,也許不是 AI 多笨,而是當我們把一個同時包含多個訊號的問題,簡化成唯一正解,然後整齊劃一地嘲笑另一種理解時,我們是不是也正在進行某種自動補完。
我們笑 AI 沒常識。
但也許,是我們太快下結論。
AI並非真的理解人類的自然語言
AI是將完整的一句話,以字詞為單位拆解
背後透過龐大的資料庫與訓練
才能使理解每個字詞前後對應的關係與意義
最後正確解譯一句話的意思、甚至情緒、心理
像 Orange 是指柳橙、還是橙色
千萬是指數字、還是務必的意思
都要看前後對應的字詞
例如:千萬現金、千萬不可
當千萬接現金或不可時,千萬就會有不同的解釋
另外例子,有一句話如下
「我哥哥和弟弟都去公園」
AI是要如何拆解成小單位的字詞
我 哥哥 和 弟弟 都 去 公園
我哥哥 和 弟弟 都 去 公園
兩種拆解方式,意義完全不同
以上講一堆,其實重點在於
你不經意的對AI講一句話
事實上,AI可是已針對你一句話內所用的字詞都詳細分析過了
不管是你語意不清、語意矛盾等
AI都是會有相對的反應
但人和人說話,就不是這樣了
就算你講的矛盾、語意不清
人總是會自然理解
而樓主舉這矛盾的問句
人會忽略矛盾
但AI卻不會
你問的問句有矛盾
AI也會針對你的矛盾回答
假如你覺得AI回的答案有問題,或答非所問
大部分狀況是,你問的方式有問題
所謂垃圾進、垃圾出
在AI時代還是成立的
問AI,說話的重點
1.目的、要求要明確
2.語意要清楚
這是最基本的
進階的
你還清楚指定AI回覆的內容格式
甚至是資料來源,例如加一句:請以政府網站的資料為依據
這都可以大幅提升AI回覆的正確性
避免AI給你閒聊八卦式的回覆
再更進階的
你甚至可以告訴AI,你對資料的判斷方式與邏輯
要AI依你指定的判斷方式與邏輯來找資料或回問題
其實,想和AI交流用的提示詞 Prompt
可是有很多學問和技巧要學的
千萬不要以為你會講人話,就能駕馭AI
有時問得有多蠢,AI也會知道你有多蠢的
內文搜尋





























































































