ChatGPT爆火引發AI應用邊界大討論,美麗新世界還是潘多拉魔盒?

「ChatGPT就是一個高科技剽竊系統。」美國語言學家諾姆·喬姆斯基認為。這是在廣泛認為ChatGPT將帶來一場技術革命的浪潮聲中,為數不多的刺耳評價。
自ChatGPT誕生以來,由于出色的內容生成能力,它在學生群體廣為流行,教育成為最先受到ChatGPT沖擊的行業之一。
一項對1000多名學生的調查顯示,超過89%的學生使用ChatGPT來幫助完成家庭作業。用它來寫論文也不錯,在文獻查詢、綜述等方面效率很高,最優秀的論文可能就會出自它手。
「對于知識型工作者來說,這就完全等于工業革命。」微軟CEO納德拉評價。但與產業界的熱情擁抱相比,教育界和科研圈卻希望將ChatGPT拒之門外,中美德英等多個高校禁用ChatGPT,《科學》《自然》等核心期刊也不允許將ChatGPT列為論文「合著者」。

這些機構封殺的理由是該工具會導致學術剽竊等問題,成為作弊的得力助手,同時認為它也不會培養批判性思維和解決問題的能力,是人類一種避免學習的方式。
作為一個堪比互聯網的革命性的技術,ChatGPT可能會打開「美麗新世界」的大門。但隨著這類AI技術的規模應用,其帶來的負面影響可能會比互聯網更為顯著。
比如,更多的虛假信息、更大規模的數據泄露,更多的人失業……360創始人周鴻祎就表示,ChatGPT這類人工智能可能就是毀滅人類的「潘多拉魔盒」。
作為掌握和使用技術的我們,該如何為它的應用設定邊界?對技術伴生的問題又該如何解決?這些都是在人工智能發展過程中不得不考慮的問題。
該封殺還是該擁抱?
喬姆斯基關于ChatGPT是高科技剽竊系統的說法,并非完全沒有道理。它從已有的海量信息、知識和數據庫中構建規則,并通過統計預見的方法重新排列組合,自動生成像人寫的文章和內容,以致于人在和它互動時也會產生是在與人交流的幻覺。
但本質上它仍是一個無法自我糾錯的冷冰冰的機器,無法理解其自身和人所表達的內容,生成的內容也會失真。正如喬姆斯基所說,它在語言理解和認知方面沒有任何價值。
中國社科院科學技術和社會研究中心主任、研究員段偉文在接受搜狐科技專訪時表示,研究者對ChatGPT是又愛又怕,因此對教育界或科研圈的封殺行為表示理解,「它有悖于現有的學術規范。」
不過,他本人并不反對學生或科研人員把ChatGPT作為一個工具來使用,關鍵是現階段要透明化,從而保證公平,同時要確保使用者有負責任的態度。
「我覺得它也會產生新的學術規范,已經有論文署名ChatGPT,但這會是過渡的方式。」段偉文說,如果大家未來都用它,其實就無所謂,就好像現在都用電腦,但查資料、寫論文的時候不會表明是用了電腦。
人工智能企業瑞萊智慧副總裁唐家渝也對搜狐科技評價到,ChatGPT的使用會帶來學術作弊和剽竊等問題,也不是每個人都能使用,不公平由此產生。「在找到有效的應對策略之前,在特定領域對其封殺無可厚非。但從長遠來看,對ChatGPT的應用不可一刀切。」
作為知識性的生產工具,ChatGPT能幫助人從一些簡單、重復、不需要思考或低層次思維的工作中解放出來,在提高效率的同時,也能讓人有更多的精力投入到更有創造性的工作中。
比如,科研人員如果善于利用這種工具,找文獻、寫項目申報書等效率就會很高,能更加聚焦科研和試驗本身,在跟它互動的過程中還可能帶來創意或創新的啟發。
因此段偉文認為,ChatGPT可以和人形成知識勞動的分工,即所謂的人機協同,讓機器先來做,人最終要對內容負責,進行審查修訂。
「人和機器的相互適應,會是一個動態的調節過程。」段偉文表示,整個科研教育體系和智能化、自動化的技術工具的協同,需要通過理性的討論,并在具體的實踐中去探索有效的方法來盡可能克服它存在的不誠信等弊端。
美麗新世界的「定時炸彈」
比爾·蓋茨說,ChatGPT的重大意義不亞于PC和互聯網的誕生。在段偉文看來,以ChatGPT為代表的生成式AI,很可能帶來一場知識生產方式的革命,甚至會是通用人工智能取得突破的關鍵路徑。
「它不一定是徹底突破,但可能是以往沒有預見到的道路,類似于10年前的深度學習。」段偉文稱。這意味著它將帶來比互聯網更為顯著的影響,想象中的「美麗新世界」并非完美。
這不僅僅表現在對學術規范的破壞,還包括它可能會成為更強大的謠言生成和傳播策源地,并存在更大規模的數據隱私泄漏風險,甚至可能對人類社會和倫理規范帶來更猛烈的沖擊。
當下,這一切都在漸漸發生。大眾當前感受比較突出的是信息誤差的問題,它會一本正經「胡說八道」。唐家渝解釋稱,這是因為數據源頭就存在偏差或錯誤,導致模型學到一些誤導性的信息,同時它整合的答案是單一的,不會像搜索引擎一樣有多個信源可以讓用戶交叉驗證。
他表示,隨著ChatGPT規模應用,還可能產生技術濫用、版權侵權、技術不公平等問題。比如在ChatGPT的能力升級下,內容偽造成本和難度將變得更低,而且也更加難以分辨和追蹤。
ChatGPT甚至也會不可避免地成為詐騙的新套路,淪為新的犯罪工具。國外網絡安全平台GBHackers就披露,有黑客把ChatGPT包裝成「虛擬角色」,讓受害人「墜入愛河」,最終進行詐騙。
唐家渝還提到,隨著預訓練模型所需的數據量越大,涉及到的隱私數據比例可能會更高,但對這部分數據的可控程度卻越低。ChatGPT的前一代模型GPT-2就曾發生過隱私泄漏問題,使用特定前綴的提示詞,它會給出特定對象的姓名、電話、郵件和地址等信息。
「雖然通過監督指令微調(Instruction tuning)的方式,一定程度上限制了ChatGPT的回答,盡可能保證它不犯和GPT-2一樣的錯誤,但由于其回答輸出的不可控性,個人隱私數據泄漏的風險仍然存在。」唐家渝預警到。
在段偉文看來,ChatGPT首先會加劇互聯網的虛假信息,以及信息繭房效應。但帶來真正的一個根本性變化,就是將來由AI生成的內容要多于完全由人類生成的內容,很可能就不會再有完全由人類自身產生的內容。
「這就會帶來知識產權、榮譽權等歸屬問題,可能就需要訂立新的社會契約。」他提到,目前國外已經有很多藝術家來反對ChatGPT,這個過程可能還會導致沖突。
唐家渝還表示,目前ChatGPT的應用沒有特別的限制,幾乎所有人都能夠去使用。這會產生不合理的操作,會對傳統的工作生產模式帶來嚴重沖擊。
當下,不少人擔心ChatGPT類似的技術規模應用將會導致更多的失業,文字工作者、程序員、分析師等數十種職業都將被取代,且這種憂慮比以往更盛。這也「逼」得Open AI創始人山姆·阿爾特曼下場安撫稱,ChatGPT不會成為人類的「就業殺手」。
作為互聯網有史以來用戶增長速度最快的消費級應用,ChatGPT暴露出的這些問題也讓它像個「定時炸彈」,而距離爆炸的時刻也越來越近。
技術應用邊界在哪?
面對這一系列問題,如何設置技術應用的邊界,以及如何預防治理就顯得至關重要。
實際上,Open AI在開發大規模語言模型或ChatGPT的時候,在這方面推行了一項重要工程——人機的價值對齊。通過投入大量資金、人力等,讓人對信息或內容先行審核來進行人工標注和預訓練,這也是ChatGPT能夠廣為流行的一個重要技術原因。
這使它在特定方面符合了人類的期望,塑造出模型的「人格」,并決定了它回答某些問題的傾向性和方式。如讓它做道德或價值觀的選擇,它表現得特別像「端水大師」,而不會表達絕對或極端的觀點,而對于有些無法解決的問題則會直接說不知道。
這背后是創始人的理念起到了決定作用。阿爾特曼認為,人類社會將遭受末日挑戰、終極挑戰,面臨基因編輯、超級通用人工智能等威脅,所以需要防止突破性的技術對人類社會和文明造成顛覆性的破壞。
段偉文認為,Open AI通過推動人機價值對齊工程,使得ChatGPT最終呈現出來的內容,已經解決了很多價值觀沖突。但這也有缺點,跟社會價值有關的文字文本,會顯得比較平庸化和同質化。這也是ChatGPT被吐槽像是「廢話機器」的原因所在。
如果它僅僅是作為協同或輔助的角色,那麼人類也許不用太擔心,但目前的問題是它可能會全面碾壓人類,從而失控。斯坦福大學一項研究就顯示,ChatGPT的水平相當于9歲兒童。
那麼,它未來是否能夠具備人豐富的情感或意識?周鴻祎表示,如果進一步訓練下去,也許它就能實現自我意識的突破。段偉文認為,機器智能和人類智能是兩種不同的智能,存在一個邊界,即圖靈邊界,且它是動態的。
「目前來看,當兩者邊界發生變化的時候,機器智能往往會擠壓某種人類智能,即機器更多地代替了人,這促始一部分人轉而發展出新的智能。」段偉文認為,從長遠來看,如果人們能主動地培養新的技能,在圖靈邊界的動態變化中掌握主動權,面對強大的機器智能,人類總是可以調節和適應。
比如大眾所擔心的職業消亡問題,清華大學計算機系長聘副教授黃民烈就表示,ChatGPT可能會取代很多職業,但未來也會催生很多職業,如AI訓練師、工程師等就會很搶手。在職場社區平台脈脈上,AIGC相關崗位近期需求陡增,甚至有企業開出10萬月薪挖人。
段偉文表示,人工智能現在就像是一個小孩,如果把握住成長階段的窗口期,就有可能實現機器向人的價值看齊,按照人的目標去行事。
對于發展和治理的關系,黃民烈認為,技術肯定要繼續往前走,但早期應多鼓勵。治理也不能粗放,倫理、版權、價值觀、法律責任主體等問題都需要去解決,還是要邊發展邊治理。
唐家渝認為,需要從具體的應用場景、應用需求的角度出發,制定聲明、監督、核查等系列管理手段,讓ChatGPT更好更可控地輔助人類。
具體來說,要在政策層面建立起對ChatGPT等AI生成內容的管理法規。美國有議員就公開宣稱自己「被不受限制和監管的人工智能嚇壞了」,呼吁強化對人工智能的監管。
中國此前也出台了《互聯網信息服務深度合成管理規定》,明確提出對深度合成服務要提供顯著標識、算法機制機理審核、信息發布審核、數據安全等管理要求。
「這些對ChatGPT同樣適用,但未來仍需進一步細化規則,明確落地規范。」唐家渝建議,同時也要加強治理工具的開發,結合內容識別、內容溯源等技術手段來保障有效監管。


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁