但他的邏輯和人類不一樣
而且對中文的理解也不如英文
他的很多訓練資料應該是英文為主
比如問他 中國傳統神話故事后羿用弓箭射了什麼
他回答我日月
可能當初他查找的資料,英文翻成中文大概同時符合日月
或者他的翻譯機制出了問題
當我又問他
后羿用弓箭射的是月亮還是月餅
他回答月亮
但我問他月亮還是太陽
他回我太陽
過了幾天後我再問他同樣問題
他直接告訴我是太陽
用弓箭射的是月亮還是月餅
也告訴我這是錯誤訊息
而且當初我沒糾正他是太陽
反而我一直誤導他,用月亮和月餅
這類型無聊問題問他
可見誤導AI的只會是他的訓練資料
人類問題誤導不了他,他應該後台有個審查機制在
另外最近氣球事件不是很紅嗎
我問他美國為什麼可以射下中國的氣球
然後他啪啦啪啦解釋一堆
但我問他美國的氣球中國可不可以射下來
他回答不可以
但是反過來問中國射下了美國氣球,他也會啪啦啪啦解釋一堆
也就是說,不管是美國還是中國射下了氣球
他會當作已經造成了既定事實去做解釋
mofy wrote:
為AI建立一套不可違背的道德標準鐵則:不許傷害、欺騙人類、令人成癮...等
現在就開始這樣規範的話,
那AI很可能沒有明天了,

君不見,連我們政府都急著推出台灣版的 ChatGPT,
國科會擬推出台灣版 ChatGPT,防中國偏見論述
話說…防別人偏見論述,不就代表自己也可以製造偏見論述嗎?
最後只是比誰錢多算力強就誰贏對吧?事實是什麼重要嗎?
這種不講競合的零和遊戲,能贏的哪捨得脫下魔戒?
內文搜尋

X