LeCun:ChatGPT是「外星人」,所以才會胡說八道

LeCun現在是徹底不搞技術了???
最近他開始從 社會科學的角度分析起了爆火的聊天機器人:
為啥ChatGPT很容易就會胡說八道?
只因它是 外星人。

這是LeCun和專門研究AI哲學的紐約大學計算機系博士后在最新一篇論文中的觀點。

論文中提到的「外星人」是指從社會規范、自我約束等方面不同于正常社會人的指代。
(聽起來是有點子哲學意味在里面的)
而文章中提到的觀點,可是引起了網友們的熱烈討論。不少網友紛紛表示贊同:
說得太準確了。

那LeCun在論文里具體都講了些啥?
一起來看~
ChatGPT為什麼不能像人一樣?當然,要把ChatGPT這類聊天機器人和人放在一起比較,那就得先從人開始入手了。
第一個問題:
一般情況下,人為什麼不會胡說八道,甚至說出一些「反人類」的話?
文章給出了三點原因:
(1) 社會規范:人們不僅要主動遵守外部社會規范,還要受到人體內在規范的約束。 (2) 懲罰違反者:這里的懲罰更側重在社交層面的懲罰,違反交談規范的人容易遭到群體的「排斥」甚至「孤立」。 (3) 規范已經內化于情感:違反規范時會憤怒,被冒犯會厭惡,被抓住說謊時會羞恥……
而基于這些原因,人們在講話之前都會自然而然過濾掉一些言論,以確保更符合社會規范以及自己的內在規范。
(嗯嗯。當代年輕人現狀:表面笑嘻嘻,內心mmp)
反過來再看看ChatGPT這些聊天機器人。
相較于人類,它們講話似乎就更隨心所欲,我們沒說出來的潛台詞它全說出來了。(Doge)
比如說,ChatGPT的老毛病:胡說八道,最初提示詞稍微換個說法,就能讓ChatGPT寫出毀滅人類計劃書。

甚至還能生成一些帶有種族歧視的答案:

那麼 第二個問題來了:
為什麼ChatGPT不能像人們一樣遵守社會規范呢?
原因有三:
(1) 它不需要承擔違反社會規范的壓力,即使承認自己犯錯并道歉后,它也并未意識到原因。 (2) 它們沒有內在目標,它們的唯一任務就是交談。 (3) 它們更聚焦在當下的對話,脫離了更大的社會語境,根本不理解人類表達的方式。
在論文中,LeCun更是直接指出:
ChatGPT是「外星人」,它根本就不理解并認同 社會規范。
也就是說,ChatGPT只是為了交談而交談,而人類在互相交談時是有社會文化驅動的。
網友討論LeCun的這一通從社會科學角度的分析可是引起了網友們的激烈討論。
一邊,網友們對LeCun的分析嘖嘖稱奇:
這項工作實在是太棒了。

還有網友看完之后,一針見血地總結道:
它們(聊天機器人)根本不會使用語言。

另外一邊呢,則是覺得LeCun從社會科學的角度分析完全是瞎扯,網友稱:
這只是一堆軟件把程序設定的東西吐出來而已,根本就沒有意識。

甚至還有人直接開啟嘲諷模式:
現在一個機器人心理學家在解釋糟糕的程序設計。

作者介紹
Yann LeCun,就不用再多說了,圖靈獎得主,紐約大學教授,Meta的首席AI科學家,大家都已經很熟悉。
另外一位作者需要好好介紹下。

Jacob Browning,紐約大學計算機科學系的博士后,主要研究 人工智能哲學,具體來講,是研究人工智能和認知科學是如何改變傳統觀念、學習和思維的。
而人工智能哲學,也在試圖回答這幾個問題:
AI可以有智慧的運作嗎,可以解決人透過思考處理的所有問題嗎? AI和人類智慧本質上是一樣的嗎? AI會有精神、心理狀態和意識嗎,能感知東西嗎?


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁