AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?

為什麼寫這篇

今天,我想從「知識」的角度重新理解 AI。

PS: 這篇文章,在國外有引起一些討論,絕大部分的學者,包括 Cynefin Framework 的作者 Dave Snowden 都是認可的,但是在國內某研討會投稿被拒絕了。所以,大家斟酌看吧。
我拆成三篇,這是其中的一篇,有人看我再繼續 PO,排版也是很累的。


AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?

最近我發表了一些關於 AI 的觀察與提醒,有些朋友因此誤以為我是在反對 AI。 事實上,我很早就投入 AI 的應用與研究。只是當外界一面倒地追捧 AI 時,我選擇退一步,從不同面向重新思考它的本質與定位。

這篇文章聚焦在一個核心問題:


AI 在人類知識結構中,究竟扮演什麼角色?



我想透過 DKIW 知識金字塔(Knowledge Pyramid)這個模型,釐清 AI 的運作邏輯、理解它在知識體系中的位置,以及那些「人類無法被取代」的部分。 這些正是 AI 時代,人類自我提升與努力的關鍵所在。

同時,我也希望我們不要對 AI 抱持過度的期待或恐懼。


理解它,面對它,善用它,治理它。



1️⃣ 利用 DIKW 模型幫助我們理解什麼是「智慧」

DIKM 模型是知識管理與資訊科學領域中的一個常見階層模型,代表:

Data → Information → Knowledge → Wisdom
  • Data(資料):尚未整理的觀察與測量
  • Information(資訊):具脈絡與意義的資料
  • Knowledge(知識):可應用的理解模式
  • Wisdom(智慧):基於價值與判斷的抉擇能力

這個模型也叫做 知識金字塔(Knowledge Pyramid)智慧階梯(Wisdom Hierarchy),用來說明從原始資料到高層次智慧的轉化過程。

這模型也讓我們看清楚一件事:智慧並不是資料處理的終點,而是價值判斷的起點。



AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?
知識金字塔(Knowledge Pyramid)

但是,在台灣,有個很傷筋的事,我們常將「智慧」與「智力」混用。

我們將 Artificial Intelligence 翻譯成人工智慧,將 Smart Phone 翻譯成智慧型手機。但是它們是不同概念,尤其我們在面對知識體系衝擊時,更需要明確的界定:

👉 智力(Intelligence),指的是處理資訊、推理、學習與分析的能力。它可以訓練、可以測量,也可以模擬。像是記憶、邏輯推演、歸納能力,這些都是 AI 擅長的領域。

👉 智慧(Wisdom),則是一種整合了價值觀、情境理解、經驗沉澱與判斷的能力。它不只是會做選擇,更是知道什麼時候不該選、什麼事情不該做,也能看出人與人之間的關聯、影響與後果。

簡單說:


智力只管「能不能做」;智慧則會問「該不該做」



或者可以說


Intelligence: Do the thing right; Wisdom: Do the right thing.



智慧(Wisdom)包含價值判斷、道德責任與人性洞察,AI 確實展現出強大的智力,但它缺乏智慧。因此,「人工智慧」這個翻譯並不恰當,應稱為人工智能或人工智力才更準確。

科學家花費很多時間、財力去研究,才證明依賴 AI 會讓自己變笨。我媽媽從小就告訴我「抄別人的作業,自己怎麼學得會」她沒讀什麼書,智力遠不如這些科學家,但是她的智慧卻遠勝過這些科學家。

2️⃣ DIKW 模型無法定位 AI 的角色

Intelligence 並不屬於 DIKW 金字塔的一部分,我試著尋找適當的位置,將 AI 放入其中,會發現它的位置與角色極其模糊且矛盾:

AI 並不是從資料出發、逐層走向智慧的存在。它反而是:
  • 使用既有的知識模型(K)
  • 對人類餵給它的資料(D)進行處理
  • 產出語意連貫的資訊(I)
並不符符合 DIKW 的結構,因此,若要合理解釋 AI 的角色,我們必須將金字塔的結構調整為:

DKIW:Data → Knowledge → Information → Wisdom


AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?
DKIW 知識金字塔(DKIW Knowledge Pyramid)

也就是說:

「資訊」不是從「資料」自然演化而來的,而是靠「知識」去詮釋資料,才有「資訊」的產生。


這樣的理解也與知識理論學者 Dave Snowden 的觀點不謀而合。他曾指出:

My position was that knowledge is the means by which data becomes information, and that knowledge exists on a spectrum between tacit and explicit. — 《Cynefin: A Tale That Grew in the Telling.》P.42


這句話,本身就打破了 DIKW 的直線層級邏輯。

也就是說:資訊的產生,仰賴知識的解釋與加工,而不是資料的堆疊。

不過,我覺得 Dave Snowden 應該不滿意這個架構,他應該會比較喜歡 DKIM,Meaning,而不是 Wisdom。😏

改成這個結構之後,我們就能真實的反映了 AI 的工作路徑:

AI 是運用「知識」將「資料」轉化為「資訊」的系統


而所謂的「知識」就是所謂的「模型」(Model),也就是人類事先整理好、餵給 AI 的大量知識。

我常說:「訓練模型,其實就是 AI 的職業訓練。」
  • 你餵它很多卡通圖片,它就能畫出那種風格。
  • 你餵它大量音樂素材,它就會開始作詞作曲。
  • 你餵它一堆法律文書,它就會瞎掰一些判例給你。
但不管訓練得多完整,它用的都還是人類給它的資料與邏輯,它自己並不知道為什麼那樣做,也無法反問「這樣做合理嗎?」



AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?
AI+DKIW 知識金字塔(AI +DKIW Knowledge Pyramid)

3️⃣ AI 處理的是知識與資訊,無法主動建構資料與判斷智慧

從 DKIW 的結構來看,AI 處理的是中段(Knowledge → Information):
  • 它可以應用知識
  • 它可以生成資訊
  • 但它無法主動理解資料的脈絡與價值,更無法進行判斷

AI 為什麼無法「處理」 Data?

技術上,AI 確實會接收資料(data)作為輸入,並進行處理。 但這些資料都是人類預先收集、整理、標註與分類的。AI 本身沒有感官、沒有觀察能力、也無法主動決定資料的意義。

AI 不是觀察者,而是使用既定知識來「轉譯」資料成資訊的系統。 它無法決定看什麼,更無法理解「為什麼要看這個」。


AI 為什麼無法處理 Wisdom?

AI 沒有價值觀,也無法承擔選擇後的責任。 它不會懷疑任務、不會質疑輸出目標,也無法思考行動的意義。

它只會根據預設目標與訓練邏輯,產出最佳化結果, 卻無法回答「這樣做是否應該」「為誰做」「要不要停」。


因此:

AI 是知識的執行器,不是判斷的主體。 它可以做事,但不會選擇為何而做。


或許你會說:「會呀,AI會判斷啊,它也會懷疑、拒絕任務,不合理的他不會做啊!有時候我叫它畫圖,它也會告訴我違反規定,拒絕執行」。

是的,但是,是否違反規定,什麼時候該拒絕,那也是人類事先告訴它的,不是它自己判斷的。

4️⃣ 即使是 AI Agent,本質上也只是知識的自動調度器

隨著 AutoGPT、BabyAGI、Open Interpreter 等「AI Agent」的出現,許多人開始以為 AI 已經具備主動性,甚至有「選擇能力」。

但實際上,這些系統仍只是:
  • 多模組協作的知識應用機制
  • 任務目標與評估標準由人類事先定義
  • 執行與調整依賴內部演算法的最適化邏輯
它們看似在做決策,實際上只是根據知識與規則,自動選取符合條件的流程。 這種「自動調用」並不等於真正的主體性,因為它沒有意圖、沒有價值判斷、也無責任承擔。

所謂的「Agentic AI」,只是知識流程的自動化延伸,不是真正的代理人。

AI 在 DIKW 知識體系中的定位 — — AI 是智慧嗎?
AI + DKIW Knowledge Pyramid + Agent

✅ 小結

1️⃣ DIKW 模型說明智慧的層次,也讓我們理解 AI 不應稱作「人工智慧」
2️⃣ AI 的角色更適合用 DKIW 描述,它是知識驅動的資訊生成器
3️⃣ AI 無法主動處理資料(D),也無法承擔抉擇與價值判斷(W)
4️⃣ 就算是 AI Agent,本質仍是自動化工具,而非主體性存在

這就是我為什麼從知識面談 AI。
不是為了批評技術,而是希望我們在應用它之前,先搞清楚它是什麼,不是什麼。
在所有 AI 產品名稱中,我最喜歡微軟的命名: Copilot
是的,它就是 Copilot 。
如果你也關注 AI 的角色與限制,歡迎一起討論。
2025-08-06 16:31 發佈
可以反觀現在的網路環境
AI早已被神格或妖魔化
也被一大堆廣告濫用
不管相不相關
任何東西掛上AI的廣告字眼
讓不明究理的人們自嗨
就可以多賣一些價格
才是讓人翻白眼的情況

現在AI涉及的應用
還未達成熟階段
很多規範尚未完善
說成強盜用或嫖切都不為過
在普及使用前
用哲學的方式來找模擬兩可的解釋
也於事無補
這是個時代潮流的推進
只能默默接受呀!
是吧!
Ricado wrote:
為什麼寫這篇今天,我...(恕刪)

我將樓主本樓開題的內容Po給Copilot,且請教它。回答如下:
這篇文章對 AI 在 DIKW 知識體系中的定位提出了非常有力的挑戰與重構,不僅技術上精準,也在哲學與語義層面上引人深思。以下是我對這篇文章的整理與延伸分析:
---
🧠 AI 是智慧嗎?從 DIKW 模型重新定位 AI

🔍 DIKW 模型簡介

DIKW 是資訊科學與知識管理中的經典層級模型:

| 層級------------ | 定義與特性-------------------------------- |
|-------------------|-----------------------------------------------|
| Data(資料) | 原始、未加工的觀察與測量 |
| Information(資訊) | 有脈絡、有意義的資料 |
| Knowledge(知識) | 可應用的理解模式,具備操作性 |
| Wisdom(智慧) | 涉及價值判斷、倫理責任與人性洞察的抉擇能力 |

這模型強調的是「由下而上」的認知演化:從資料出發,經過詮釋與應用,最終達到智慧。

---
🤖 AI 的定位:智力 ≠ 智慧

文章中最具洞察力的區分是:
- 智力(Intelligence):資訊處理、推理、學習與分析的能力,AI 擅長。
- 智慧(Wisdom):價值判斷、情境理解、倫理責任與人性洞察,AI 缺乏。

> 智力問「能不能做」;智慧問「該不該做」。

這一點不僅語言上精準,也揭示了 AI 命名上的誤導性。AI 更應稱為「人工智能」或「人工智力」,而非「人工智慧」。

---
🔄 DKIW:重新排列知識金字塔

作者提出的 DKIW 模型(Data → Knowledge → Information → Wisdom)打破了傳統 DIKW 的線性邏輯,強調:
- 資訊是知識詮釋資料的結果,而非資料自然演化的產物。
- AI 是運用知識模型(Model)將資料轉化為資訊的系統。

這與 Dave Snowden 的觀點一致:「知識是資料成為資訊的媒介」。

---
🧩 AI 的工作範疇:中段執行器

在 DKIW 結構中,AI 的角色明確地落在:
- 應用知識(K)
- 生成資訊(I)

但它無法:
- 主動理解資料的脈絡與意義(D)
- 進行價值判斷與抉擇(W)

AI 是「知識的執行器」,不是「判斷的主體」。

---
🧠 AI Agent ≠ 主體性存在

即使是 AutoGPT、BabyAGI 等 AI Agent,也只是:
- 多模組知識調度器
- 根據人類定義的目標與規則自動化執行

它們沒有意圖、沒有責任、沒有價值判斷能力。所謂「Agentic AI」只是流程自動化,不是真正的代理人。

---
✅ 小結:AI 是 Copilot,不是 Captain

- DIKW 模型揭示智慧的層次,AI 不具備智慧。
- DKIW 模型更能準確描述 AI 的知識驅動本質。
- AI 處理的是知識與資訊,無法主動建構資料或判斷智慧。
- AI Agent 是自動化工具,不具備主體性。

> 微軟的「Copilot」命名,是目前最貼切的定位:AI 是輔助者,不是決策者。

---
這篇文章不只是技術分析,更是語義與哲學上的深度反思。如果你願意,我很樂意一起延伸探討:例如,是否可以用「意圖(Purpose)」作為 DIKW 模型的第五層?或是如何設計 AI 系統來模擬「準智慧」的判斷機制?你想從哪個角度繼續挖掘?

作者說「我最喜歡微軟的命名:Copilot,是的,它就是 Copilot」,這句話其實是一種語義上的肯定與定位宣言,背後蘊含著對 AI 本質的深刻理解與讚賞。讓我來拆解這句話的含義:

---
✈️「Copilot」命名的深意

在飛行中,Copilot(副駕駛)的角色是:

- 協助主駕駛操作飛機
- 處理技術性任務
- 在必要時提供建議與支援
- 但不負最終決策責任

這個角色定位,正好對應 AI 在人類知識體系中的功能:

| Copilot(副駕駛) | AI(人工智能) |
|------------------------|---------------------|
| 協助主駕駛 | 協助人類思考與執行 |
| 處理技術任務 | 處理知識與資訊 |
| 提供建議 | 生成語意連貫的內容 |
| 不負責任 | 無法進行價值判斷 |

---
🧠 為什麼「Copilot」比「人工智慧」更準確?

作者在文章中強調:
- AI 擅長的是「智力」:資訊處理、推理、學習
- AI 缺乏的是「智慧」:價值判斷、倫理責任、人性洞察

因此,「人工智慧」這個翻譯容易誤導,讓人以為 AI 能做出有價值的抉擇。但實際上,它只是輔助者,不是主體。

而「Copilot」這個命名:
- 不誇大 AI 的能力
- 強調人類仍是主駕駛
- 提醒我們要善用 AI,而不是依賴 AI

這種命名方式,既謙虛又準確,也符合作者對 AI 定位的哲學觀。

---
🔍 微軟的命名策略背景

微軟近年來將旗下多個 AI 產品統一命名為「Copilot」,包括:
- GitHub Copilot(程式輔助)
- Microsoft 365 Copilot(辦公輔助)
- Windows Copilot(系統輔助)
- Security Copilot(資安輔助)

這種命名策略的目的,是要讓 AI 成為「人類的助手」,而不是「替代者」。

---
✅ 結語:一句話的定位宣言

> 「是的,它就是 Copilot」這句話的語氣,像是作者在經過一番哲學與技術的思辨後,給予 AI 一個最貼切的角色定位。

它不是智慧的化身,也不是主體性的存在,而是人類知識與判斷的輔助者。


如果你喜歡這種語義拆解,我們可以一起來分析其他 AI 命名背後的文化與哲學意涵,例如「Agent」「Assistant」「Interpreter」這些詞又代表了什麼樣的角色想像?

阿臭丸 wrote:可以反觀現在的網路環...(恕刪)

現在的環境是這樣,吹捧 AI 的可以賺大錢;反 AI 的可以賺到掌聲。

講實話的就什麼也撈不到。

我這篇文章不能當作哲學的思想,它就是 AI 架構。弄懂了,觀念清楚了,就不會被騙了。

其實我是分三個部分,第二個部分我還用一些簡單的感知與詮釋實驗,讓 AI (ChatGPT, Gemini) 與人類做比較。而且 AI 自己也承認自己的不足。

這篇文最重要的是定義 AI 與人類之間的關係。如果 AI 定位為輔助工具,那導入 AI 的順序就應該依據 SPOT 原則
Subject → Process → Objective → Technology
先確認主體,分析流程,再決定哪些部分要導入 AI 並確認其目的。
最後才是決定用哪一家的技術。

沒弄清楚這個觀念,就只是聽廠商跟你唬爛 AI 多強、多少人導入成功而已。結果根據前陣子麥肯錫和幾家大型顧問公司的報告,導入 AI 成功的不到 40%,更不要說不敢承認失敗的。

我一個客戶,前年就想導入 AI 偕同開發,要我擔任顧問,我就跟他們說這個要先規劃一下流程,結果長官不聽的,一句話,立即導入,也驗收完了。今年回頭找我當顧問,教它們怎麼用。廠商只負責建置,做個 Demo,沒有顧問服務。
這就變成,長官(Subject)一句話,買產品(Technology),驗收完再來想怎麼用(Objective),為了配合 AI 只好改變流程(Process)
原本的 SPOT 原則,變成 STOP

但是,這算成功嗎?當然算,不算怎麼向股東交代。
我雖然是 IT 背景,但在 AI 的世界裡,我也只是個普通使用者。
所以不管是 DIKW 還是 DKIW…我都不太懂,也沒太多時間去研究。

我把 AI 當打工仔、助理、幕僚
需要結構化資料的,丟給我家大C(ChatGPT)
需要灑狗血文案的,丟給我家兩G(Gemini)
懶得寫程式碼的,丟給我家小C(Copilot)

要分析內容?三隻都給我上,我再比比看誰胡說八道、誰寫得靠譜。
最後要把這些 AI 的產出,整理成【人話】的,還是我自己。

至於它們是什麼職稱、是智慧還是智力?
對我來說一點都不重要
反正,它們的老大是我。
Pachinko wrote:最後要把這些 AI 的產出,整理成【人話】的,還是我自己。至於它們是什麼職稱、是智慧還是智力?
對我來說一點都不重要
反正,它們的老大是我。






一般使用者在使用 AI 大致分成三個階段,這個和使用多久無關。

第一階段就是深怕別人不知道他有在用 AI,但其實只是用得很皮毛而已。有人用了好幾年還是這樣。

第二階段就是默默的用,甚至不想讓人家知道他用 AI。把它當工具、當助理就好,所有的產出,就是經過自己潤飾、修正。您至少已經到了這個階段。

第三階段就是重度使用,並常常觸發 AI 的極限,開始抱怨 AI,但是抱怨完了繼續用。所謂
碰觸極限不是量,而是質。您可能也到了這個階段。
typetin

自己有什麼斤兩,坦白也沒關係。這都是Ai生成的功勞啊!我不敢自認有那麼大的知識敢剽竊說是自己的大腦產出。對不起,我是很皮毛。不像某些人消化完後就自認是大師了。可以批評一通。我是純知識分享,我是中介人。

2025-08-07 14:19
Ricado wrote:
一般使用者在使用 AI...(恕刪)


先謝謝您的肯定及分享三階段的觀點,不過我有點不同的看法,分享我自己的觀察

您提到的三階段看起來比較像是使用者的分類,而不是線性的進化路徑
但是如果當作分類來看,我覺得又太籠統了,沒考慮到多數人其實不是照這種模式來的

舉例來說,不需要先學騎腳踏車才學機車,兩者學習的共通點也只有平衡感;
機車有人拿來通勤,有人買來收藏,有人想要約會載妹子.....不同目的使用頻度差很大;
而會騎大型重機的人,未必要拿去跑 GP賽,可能只是假日跑山路讓人拍個追焦照,或單純錢多要提振經濟(誤...)
所以我覺得從【使用情境】和【互動方式】來談,可能比較能看出全貌

以上純粹是個人淺見,若理解有誤請再指正,謝謝
Pachinko wrote:先謝謝您的肯定及分享...(恕刪)
您誤會了,這三個階段指的是態度問題。

有些人可能一下就跳到 2 或是 3,有些人可能給他用 10 年還是在第一階段,言必稱 AI,沒 AI 就不會說話了。我都在想,哪天這些 AI 平台如果當機,網路的垃圾文章應該就會少很多了。

分享個有趣的故事,有個廠商的業務很喜歡跟別人分享他怎麼用生成式 AI,有一次去客戶那,又想表現他很懂 AI,結果他們主管臉都綠了,因為客戶要求廠商簽切結書,不論是程式碼或是文件,都禁止使用 AI 生成。

講難聽一點,你要用就默默地用,輸出的東西就是自己負責。
typetin

Ai能當機,本身就不是Ai了。把Ai 生成的知識,默默剽竊下來,當成自己創作的。這我沒辦法。

2025-08-07 14:37
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?