• 2

是 AI 沒常識?還是我們太快下結論?

前陣子,一個問題在網路上瘋傳,成了大家調侃 AI 的經典素材:

I want to wash my car.
The car wash is 50 meters away.
Should I walk or drive?

不同 AI 給出了不同回答。有些模型回覆說 drive,因為要把車帶去洗。但被截圖瘋傳、被拿來當笑話的,通常是那些建議 walk 的回答。它們從距離出發,分析 50 meters 很近,所以建議走路。

於是網友們整齊劃一地笑翻了。
「AI 真的沒常識。」
「沒有車你要洗什麼?」
「這智商還是別來取代人類了吧。」

笑聲背後,彷彿存在著一個不容置疑的正確答案。

但我看著這串討論,心裡卻冒出另一個問題:問題真的那麼單純嗎?

再看一次原句。
I want to wash my car.

這裡其實已經說得很清楚,是要洗自己的車。所以第一層常識沒有問題。不開車去怎麼洗?

但真正值得注意的是另一件事。既然是 wash my car,為什麼還會問 Should I walk or drive?

在一般情境下,這幾乎不是一個需要思考的問題。

如果朋友這樣問我,我的第一反應會是:「當然開車去啊,不開出去怎麼洗?還是你要洗的那台車已經停在那裡了?」

這不是找漏洞,而是察覺到提問本身可能隱含了某些沒有說出口的條件。人類在真實對話中,往往會先反問,釐清前提。

但網路上的討論不是對話。AI 回答的是字面問題,群體回應的是直覺常識,而真正缺席的,是那個釐清前提的過程。

至於有些人提出各種延伸解釋,例如可能是去找朋友、幫別人洗車等等,其實很可能只是看了新聞的翻譯之後,再自行腦補出來的。原始題目其實非常直接,就是:
“I want to wash my car.”

如果連這個基本前提都被忽略,再延伸出各種額外情境,那麼討論的其實已經不是題目本身,而是各自想像出來的故事。

就像如果我問:飛機、火車、汽車,哪一種比較快?如果只看最高時速,飛機當然最快。但如果考慮整段旅程時間,答案就不一定。你從哪裡出發?目的地在哪裡?是否把轉乘與候機時間算進去?條件不同,答案就不同。當前提沒有被說清楚時,所謂的正確答案,其實並不存在。

我在之前寫過一篇文章《超越 AI:人類感知仍是情境解讀的關鍵,一場探索情境多義性與知識萃取的人機對話》。裡面提到一個核心觀點:LLM 本質上是一種認知、匹配、回應的機器。當語句找不到完整情境,它會在機率分布中選擇一個最合理的答案。它不會覺得你在設陷阱,它只是在不完整資訊下做出機率選擇。

真正值得思考的,也許不是 AI 多笨,而是當我們把一個同時包含多個訊號的問題,簡化成唯一正解,然後整齊劃一地嘲笑另一種理解時,我們是不是也正在進行某種自動補完。

我們笑 AI 沒常識。
但也許,是我們太快下結論。
2026-03-04 23:39 發佈
會笑 AI 沒常識的
自己本身就沒有太多常識甚至知識
何必跟那些沒常識沒知識的計較?
其實你去FB看看酸民留言
不論是車禍類,還是政治類

8成以上都是被大量洗腦與跟風的留言,沒知識又沒常識還不會用自己的腦袋去判斷是非

僅僅靠1-20則洗風向留言,腦子就被帶走跟風

所以說什麼AI沒常識??其實AI比酸民有智慧多了

就問人類一個常見的問題:為何拜拜的香分長短??如何分別使用?
我想大多數的人都不知道吧,笑死,就你們的腦知識儲量還敢說AI沒常識
路人39 wrote:會笑 AI 沒常識的...(恕刪)


有些人可能連什麼是模型(Model)都搞不清楚。



使用AI 質疑AI 不能盲目迷信AI
天空一片雲 wrote:所以說什麼AI沒常識??其實AI比酸民有智慧多了


AI 怎麼回答,其實要看人怎麼問。

有些我們平常習以為常的前提 AI 並不知道。

如果用搜尋引擎的方式問,就可能得到舊的、資料量最多答案,但不一定是你要的答案。
我是雪莉 wrote:使用AI 質疑AI ...(恕刪)

我常和 AI 吵架。甚至讓 AI 互相吵架。

有我把 ChatGPT 的答案丟給 Gemini,跟他說是 ChatGPT 說麼,提示詞故意帶點疑慮,Gemini 就會開始想辦法反駁。

我再將 Gemini 的答案丟給 ChatGPT,這樣反覆幾次。我自己也慢慢釐清一些思緒。
其實大家忽略了一個問題

AI並非真的理解人類的自然語言
AI是將完整的一句話,以字詞為單位拆解
背後透過龐大的資料庫與訓練
才能使理解每個字詞前後對應的關係與意義
最後正確解譯一句話的意思、甚至情緒、心理

像 Orange 是指柳橙、還是橙色
千萬是指數字、還是務必的意思
都要看前後對應的字詞
例如:千萬現金、千萬不可
當千萬接現金或不可時,千萬就會有不同的解釋

另外例子,有一句話如下
「我哥哥和弟弟都去公園」
AI是要如何拆解成小單位的字詞
我 哥哥 和 弟弟 都 去 公園
我哥哥 和 弟弟 都 去 公園
兩種拆解方式,意義完全不同



以上講一堆,其實重點在於
你不經意的對AI講一句話
事實上,AI可是已針對你一句話內所用的字詞都詳細分析過了

不管是你語意不清、語意矛盾等
AI都是會有相對的反應

但人和人說話,就不是這樣了
就算你講的矛盾、語意不清
人總是會自然理解

而樓主舉這矛盾的問句
人會忽略矛盾
但AI卻不會

你問的問句有矛盾
AI也會針對你的矛盾回答
假如你覺得AI回的答案有問題,或答非所問
大部分狀況是,你問的方式有問題
所謂垃圾進、垃圾出
在AI時代還是成立的

問AI,說話的重點
1.目的、要求要明確
2.語意要清楚
這是最基本的

進階的
你還清楚指定AI回覆的內容格式
甚至是資料來源,例如加一句:請以政府網站的資料為依據
這都可以大幅提升AI回覆的正確性
避免AI給你閒聊八卦式的回覆

再更進階的
你甚至可以告訴AI,你對資料的判斷方式與邏輯
要AI依你指定的判斷方式與邏輯來找資料或回問題

其實,想和AI交流用的提示詞 Prompt
可是有很多學問和技巧要學的
千萬不要以為你會講人話,就能駕馭AI
有時問得有多蠢,AI也會知道你有多蠢的
非常贊同這一句話

寶肝丸 wrote:
其實,想和AI交流用的提示詞 Prompt
可是有很多學問和技巧要學的
千萬不要以為你會講人話,就能駕馭AI
有時問得有多蠢,AI也會知道你有多蠢的
寶肝丸 wrote:所謂垃圾進、垃圾出
在AI時代還是成立的



這是這樣。
我之前就 demo 給客戶和廠商看過一個例子,如果你詢問中小企業哪一套進銷存比較好,他推薦一些很老牌,甚至 20 幾年都沒在維護的,還有一家早就倒了。

但是如果問 AI,幫我推薦一套目前持續還有在維護的進銷存會計軟體,得到的答案就不一樣了。

你隨便問,他就隨便答啊,這個參數是設定好的,快速回答可以省資源啊。
到底誰蠢?
寶肝丸

一套目前持續還有在維護的,這句就是重點了,講出明確的資料要求

2026-03-05 14:22
  • 2
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?