Chat GPT和Bing chat都壞掉了?!

我最近在玩Chat GPT和Bing chat,並測試他們回答問題的能力,結果發現如果不是亂講就是答非所問,如圖所示:
Chat GPT和Bing chat都壞掉了?!
Chat GPT和Bing chat都壞掉了?!

我的命題是:
"我想知道哪些宗教及傳統文化要求已婚夫妻彼此之間終身不可發生性行為。"
其中的關鍵字是"已婚夫妻"、"終身不可發生性行為"

結果他們卻都亂答一通,bing chat的開頭寫基督教、伊斯蘭教、佛教等等禁止已婚夫妻彼此發生性行為,這明顯和事實實不符。後面有說上述宗教允許夫妻性行為,明顯是答非所問。
chat gpt同理,明明答題的時候才寫"以下是一些已知的宗教和文化要求已婚夫妻終身不可發生性行為的例子:",結果卻說印度教部分教派要求修行者不可結婚,這明顯是答非所問,後面又開始說已婚夫妻可以發生性行為,完全牛頭不對馬嘴。
如何看待這兩款軟體的問題?
2023-04-24 23:18 發佈
文章關鍵字 Chat GPT Bing chat
我用GPT-4的回答如下:

在世界各地的宗教和文化中,性行为在很多情况下都受到了某种程度的规范和限制。然而,要求已婚夫妇彼此之间终身不可发生性行为的宗教和传统文化非常罕见。大多数宗教和文化认为,性行为在婚姻内是合法和正当的,用于生育后代和加强夫妻之间的纽带。

在一些宗教修行和精神实践中,可能会有要求终身禁欲的情况,但这通常适用于僧侣、修道士和其他精神领袖,而不是普通已婚夫妇。例如,在佛教、印度教和耆那教的一些传统中,一些修行者可能会选择终身禁欲,以便专注于精神成长。但这些要求通常不适用于已婚夫妇。

总的来说,要求已婚夫妇彼此之间终身不可发生性行为的宗教和传统文化非常罕见,因为大多数宗教和文化认为婚姻内的性行为是合法和正当的。
跟「廢文製造機」認真?
廢文製造機+1

一堆傻傻在那裏天天幫喊得工作都要被GPT搶走了

我就問問世界上有億億萬萬個人

AI到底是要一個絕對真理還是應該要幻化成億億萬萬個個性

如果是一個絕對真理,這個AI就只能說是個機器人

永遠稱不上是AI

而如果GPT可以幻化成億億萬萬個個性

那GPT就要被扼殺了

因為這代表GPT可以被訓練成壞人殺人犯

所以老實說個人從來沒擔心過GPT會威脅人類這檔事

除非大老們想錢想瘋了
hmzanny wrote:
我最近在玩Chat GPT...(恕刪)
你是個人~ 可以獨立思考/判斷/吸收/轉化成自己的思想
整天被一個機器人搞,還說它壞掉了
建議去做個巴氏量表~~

就算是GPT-4也是有點胡說八道
最近更新之後很多次都要糾正他才會提供正確答案
不知道是不是在刻意增加的誤差,來讓使用者養成不要全部依賴的習慣
應該適用的人變多了
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?