萬字科普ChatGPT爲什么會顛覆人類社會?
1年前

ChatGPT,近期科技圈最火的一個話題。

談起ChatGPT,你會想到什么?AI聊天機器人?信息搜索小能手?還是打工人的思維梳理神器?

3月20日,國泰君安證券研究所所長黃燕銘以“ChatGPT大風起,人工智能浪潮來臨”爲主題,邀請聯想集團首席技術官、高級副總裁芮勇博士,深入解析ChatGPT的技術發展、應用場景、未來趨勢等問題。

以下是本次對話的分享實錄:

01

關於技術發展 

黃燕銘:ChatGPT不單單是文本生產的工具,其強大的語言處理和生存能力也增加了很多的用戶體驗,同時也爲我們降低了生產經營、交易的成本,同時也提高了企業的經營效率,而這種大規模的適配器以及迭代的能力也是ChatGPT的特點,它在特定的領域、專業語言以及自動化的客戶服務等各方面都做出了巨大的成就。我們認爲ChatGPT在未來有非常廣闊的發展空間,這種情況下我們對ChatGPT未來的發展前景非常看好,在這裏我們今天要特別跟芮博來聊一聊ChatGPT的基本情況。

投資者普遍認爲這是一個劃時代的技術進步,甚至可能替代掉很多人類的工作崗位,請問該如何理解ChatGPT、GPT-4的技術能力,其自然語言處理能力、多模態、定制化相較以往AI模型有何突破,會帶來怎樣的產業變化?

芮勇:首先,非常感謝黃所的介紹,也非常高興能夠跟黃所來一起聊這個話題。剛才黃所總結的都已經非常精闢了。這個ChatGPT,我覺得它是可以說是一種現象。最近也有不少人在聊,它是一個類似於iPhone 的現象,類似於網景的現象。我們都知道,網景是第一個真正商業化的瀏覽器,在網景出現之前很多年瀏覽器就已經有了,但是沒有火起來,直到網景出現之後,整個瀏覽器才火了起來,整個互聯網才火了起來。iPhone其實也是一樣,智能手機出現了很久,但是沒有那么火,到最後真正騰飛起來、火起來是iPhone。

那么ChatGPT也是類似,大家稱這是一種現象。AI也是火了有一段時間,但是沒有那么火,有起有伏。大模型也出現了挺長時間,那么直到最近不久ChatGPT出現了之後,它才帶來了一個大的飛躍,所以我們稱爲ChatGPT是和網景和iPhone類似的一種現象。

但我更想說,今年ChatGPT非常的火,是表面上的一個現象,更重要的ChatGPT後面起到核心作用的大模型。所以我先想跟大家聊一聊大模型,大模型的英文叫Foundation Model。它是一個基礎模型,好比我們蓋房子時候打的地基。什么是大模型呢?大模型是用互聯網級的、沒有標注的數據,來訓練千億級參數的AI模型,這裏面有好幾個關鍵字。大模型也是下遊很多任務的基礎。並且很有意思是,它不用做模型參數的調整,對不同的任務,它不用去調整參數,這個事就非常的奇特了。

這么多的特點,爲了便於記憶可以總結爲三個字,叫做“高大上”(這裏沒有褒義和貶義的意思)。“高”是什么意思呢?大模型的訓練方式很高明。之前的機器學習,典型的訓練方式是一種全監督式的方式。比如說,我如果要教一下機器,這是一個蘋果的圖像,這是一個橘子的圖像。我告訴它,這些圖像你都看一看,並且我告訴它這是橘子。它就知道,原來這樣的圖像是橘子。但是讓人工來標注,要花很多的時間、精力和金錢。那么大模型是用自監督的學習方式,它不需要去標注海量的數據。我覺這是非常重要的,在訓練方式上很高明。

第二,很高明的訓練方式還表現在它使用一種叫做“基於人類反饋的強化學習”,英文叫RLHF,Reinforcement Learning from Human Feedback。有了這個非常強大的訓練方式,它就和人類的價值觀點越來越近了。比如說,從互聯網它可能看了很多東西,但是它不知道哪是對哪是錯的,哪個是正義的哪個是不好的。那么,有了這個基於人類反饋的強化學習之後,它就和人類的價值觀越來越近了。

高大上的“大”,是說模型規模很大。我們如果還記得,2012、2013年前後深度學習开始火起來的時候,當時很流行的一個人工神經網絡模型叫VGG,VGG16大概有 1.38 億個參數。那今天我們的大模型會有多大呢?GPT-3 有 1,750 億個參數,是當時的大概有 1,000 倍那么大。這樣的規模就使得大模型能夠學到大量的模式與常識,甚至建立一定的推理能力。

第二個“大”是指訓練的數據大。我剛才提到,它是用互聯網級別的海量數據訓練出來,這裏面包括互聯網上的文本、高質量的網頁、維基百科、書籍的語料庫。它的訓練詞元(token)大概是千億級的。所以是訓練方式“高”,模型規模“大”,訓練數據“大”。

“上”是什么意思呢?這也是一個挺神奇的事,是說它的邏輯推理、知識推理、泛化能力突然之間就能更上一層樓。它的英文單詞叫做emergent ability,就是突現的能力、湧現的能力。用一個更通俗易懂的話來說就是,它突然會开竅。

語言模型隨着規模的增長,突然對於訓練時候沒有見過的任務也能夠懂是什么意思能夠勝任,它开竅了。那么到多大的規模,這個模型才會开竅呢?基本上是在 650 億個參數,超過這個規模時它就开竅了。

這就是大模型的幾個特點,“高大上”。這幾個特點就決定了,如剛才黃所提到,它帶來了很多新的東西。這是我想跟黃所探討的第一個事。

黃燕銘:芮博剛才講到ChatGPT基於大數據大模型650億的參數以後能开竅。我們知道這次ChatGPT的出現離不开背後大模型的突破,二級市場的投資者普遍認爲大模型相對於之前的場景化的小模型有本質的不同。您認爲大模型是不是實現通用人工智能的一種可行的路徑?我們也看到GPT-4發布也增加了圖片作爲輸入的新模式,您覺得大模型未來會往怎樣的方向發展? 

芮勇:黃所問的這幾個問題,都很深刻。我試着來一起來探討一下。第一個,大模型的出現是不是一個人工智能範式的一個轉變?這個事其實很有意思,我們來看一下。我們知道 GPT大模型的版本有1、2、3、3.5 等等,它這一系列的論文題目,就反映了每個階段的變化。GPT-1,論文名字叫做 Improving Language Understanding by Generative Pre-Training,生成式預訓練提升語言理解能力。GPT這三個字是Generative Pre-trained Transformer 的縮寫,是生成式預訓練的Transformer。

在GPT-1 的時候,它其實比較大,但是還沒有達到我剛才講的那個閾值,它還是一個比較小的模型,對語言有一定的理解。這個時候它有上億個參數,但是離 650 億個參數還有距離。

但到GPT-2的時候,它論文的題目叫做“語言模型是無監督的多任務學習者”。GPT-2主要是通過多任務學習,獲得了遷移學習的能力,零樣本學習,和執行任務的能力,這個是一個非常重大的突破。所以,從 GPT-1到2跨越了從小模型到大模型的一個飛躍。

到GPT-3的時候,就更有意思了。它講的是“語言模型是一個小樣本的學習者”。這個時候它顯示出非常強大的學習能力,你只需要把訓練好的大模型,給他幾個,比如說從中文到英文翻譯的幾個例子,它自己就理解了,哦,原來你給我這幾個例子說是讓我做翻譯,它就會給你去做翻譯了。

到GPT-3.5,也就是我們看到的ChatGPT後面大模型的時候,它又厲害了,連例子都不用給了,你就直接用自然語言的方式告訴它要做什么任務,它也能夠理解了。

前幾天,GPT-4發布,它就又上一層樓。它不僅僅是支持文本的交互,它的輸入也可以是圖像,這是和之前一個比較大的區別。它的上下文的大小,之前GPT-3.5大概是2K,那么現在GPT-4的達到32K。所以它的上下文能力更大,特別有利於支持多模態多輪對話的場景。

所以剛才黃所的問題,大模型的出現是不是一個AI的範式?從這角度看,確實是。這是從小模型加上面向特定任務的微調,轉換到了一種大模型加上上下文的學習,這樣一種新的範式,這確實是一種新範式的出現。

那么剛才黃所還問這個大模型,是不是通向今後的通用人工智能的一條路?這個就要看我們是怎么來定義通用人工智能。如果我們定義一個狹義的通用人工智能,比如說通過人類的各科考試,那么,這個GPT-4做的已經很不錯了。它現在已經參加了美國的各種考試,比如說LSAT滿分是180分,它考了163分,打敗了88%的考生。還有一些別的考試,考的也都不錯。但是還有幾種考試,比如說這個十年級的就是大概是高中吧,高中數學競賽的那個考試還不夠理想。

我們如果定義通用人工智能,它的狹義是說能夠通過人類的各科考試,現在GPT-4做還是可以了。

如果定義這個通用人工智能的意思是說和人類的智能要看齊,那它還是有些差距。我覺得可能主要有幾個方面,第一個是閉環的自主反饋糾錯能力。今天我們都知道有自動駕駛,也有人類司機的駕駛。有的時候我們還是會比較擔心,說人類司機是不是比自動駕駛發生錯誤的概率還高一點?但是人類是一個閉環反饋系統,他能夠實時去糾錯,碰到意外情況的時候,他能馬上反應出來。但是這種开環的,比如像今天的這個大模型情況,它沒有實時反饋糾錯的能力,碰到意外的、之前徹底沒看到過的情況的時候,它有時候會發生問題。所以今天不少人可能寧愿坐我們人類开的出租車,也不愿意去信任自動駕駛的能力。

第二,它是跟人類這種深度理解的能力也有比較大的區別,我就不舉例子了,就是你給它幾個比較繞的數學題的時候,你能把它繞進去。人類其實是懂了,而它沒有真正懂。你把它給繞進去了,它的答案就是錯的。所以這么說,大模型是不是通向通用人工智能的一條路徑?我們如果定義是狹義的通用人工智能,我覺得可能是其中的一條路徑。如果是廣義的通用人工智能,那就要向人類的智能看齊,它可能還有一些距離。

黃燕銘:您講的非常清楚,這要看具體的這個應用場景,我們本來的這個應用場景覺得很大,放到一個更大的範圍裏面,它就變得很小,所以我想這個是一個層層推進的過程。我們今天覺認爲的大模型在將來可能還是一個小模型,我們在未來會有更大的一些模型的出現。

02

關於商業應用場景  

黃燕銘:海外像大摩這些金融機構把ChatGPT技術應用在理財投資顧問的工作領域,我們相信這種應用也會越來越多、越來越快,相信在不遠的將來ChatGPT技術也會在中國大陸全面开花。除了技術,投資者最關注的莫過於未來可能出現的應用場景。我們看到微軟已經把ChatGPT整合到了辦公軟件、會議軟件當中,直接跟消費者收費;同時,海外也已經有很多公司把GPT模型用在了不同的領域,比如面對企業的內容創作、績效營銷分析等等。不知道您更看好GPT系列未來在哪些場景中的落地?比如是更看好B端還是C端,开源還是閉源?

芮勇:黃所說的非常好。一個技術到最後,還是要落地的,要有場景的。這個事兒從企業上來看也是完全一樣的,我們任何的技術都要落到場景去,要產生經濟效益。那么剛才黃所說,有哪些場景是落地會比較好?其實,我們如果去OpenAI的官網去看一看,他們列出了非常多的場景,有48個不同的使用場景,大致有7個類別,包括問答、分類、代碼、對話、生成、翻譯、轉換等等。

我們可以簡化一點看這個問題,就看兩個大類,一個是理解,另一個是生成。大模型其實非常強,它的語言理解能力要比之前准確很多,所以這是人機交流的一個大的裏程碑。比如今後我們使用搜索引擎,可以用自然語言進行搜索了,而不用去找到底是用這個關鍵詞,還是用那個關鍵詞,你只要用自然語言就可以了,這是它理解能力的應用場景。

第二個是生成能力的應用場景,這裏有很多智能化的內容生成,比如輔助寫作、代碼編寫等等,這些東西它都可以做了。在節目开始之前,我跟黃所聊的時候,黃所還問說證券分析師是不是也有一部分會被取代?我覺得今後可能社會上有一些職業更容易被取代一些。數字社會勞動力市場有一個新的特徵,就是很多這種像能寫會算的專業知識技能,逐漸會被標准化、模塊化、和程序化。

反而是那些沒有被模塊化的技能可能更難被取代。有兩種技能,我覺得看起來比較難被取代。一種是創意,它包括分析能力、創造性思考能力、理解和表達能力。

第二種是社交智慧,我們人類是一種社交的動物,具有智慧的社交能力,和人際的融合能力、溝通能力和領導力,這些是很難被取代的。

剛才黃所也問到,C端B端、开源閉源。我個人認爲C端可能會快速落地,然後是B端的爆發式落地。我爲什么這么認爲呢?因爲我們看今天的這種大模型它的通用能力非常的強,可以立刻就支持C端,包括像個人應用、內容創作、文章、代碼、圖像視頻的生成,等等,所以它可以立刻支持C端,也就可以立刻快速落地。但是這個B端還需要一段時間把大模型和B端給連接起來。一旦能夠打通之後,那么B端的落地增長會是爆發性的。這是我個人的看法,關於C端和B端。

那么开源和閉源呢?我覺得閉源現在有一些先發優勢,雖然我們叫OpenAI,但是它現在的這些模型,它並不开源,還是閉源,所以它有一定的先發優勢。我們從一個比較長期來看,开源是有利於生態建設的,比如說我們今天大家都用的Linux,RISK-V,PyTorch,它都是开源的。开源有後勁,所以我覺得閉源現在有一定的先發優勢,但是开源有利於生態建設,它的後勁會比較強。

黃燕銘:芮博剛才講到人類有兩種能力可能是機器暫時還替代不了,第一個是創意,第二個是社交。我們知道在大模型出現之前,也有很多的場景裏邊存在一些基於特定模型的AI應用。隨着大模型的興起,您認爲之前這些AI企業的發展是否需要全面轉向大模型?在大模型興起的過程中,這些AI企業怎么根據自己的比較優勢做出相應的战略調整呢?

芮勇:黃所這個問題也是特別的好,我覺得可能所有做產業的,做企業的同仁們都會問這樣一個問題。我是這樣考慮的,把一項技術注入產品,或者去賦能業務的時候,還是要綜合考慮很多的因素。我們當前階段大模型進步非常快,但不少問題還沒真正解決。另外用戶場景產生的需求也不是完全一樣,並且它的應用程序運行環境也不一樣。

所以我覺得,大模型會是非常重要的一支力量,但是可能也不會是放之四海而皆准,所有人都需要上。如果來比較細的來看,有這么幾個方面。一個是比如說我們就用這個ChatGPT的知識庫作爲一個例子,它的知識庫截止於2021年,那么問它2022年或者2023年的事,它基本上是不知道的。對於需要經常性知識更新的業務場景,大模型今天還做的不太好。這個也比較容易理解,因爲每訓練一次大模型非常耗時,並且強大的算力後面還需要很多人工,還要去人爲給它一些強化學習的一些反饋。所以它的實時性不強,對最新的消息它也不知道。

所以,對這些場景可能它不是特別適合。第二,它的泛化能力有時能泛化的挺好,有時又泛化的不好。對一些工業應用,真正的應用可能還有點不是很安全,因爲誰也不想看這東西時靈時不靈。所以我們覺得還有些場景,它不太能夠用得到。大模型的參數是在千億級的,它需要設備端和雲端的實時連接,雲端去做各種計算、生成和推理。那么,對於網絡通訊能力比較弱,或者是低功耗的設備,它可能也不太適用。

所以我們說,大模型有很多地方都非常適用,但是可能也有一些場景,它並不完全適用。剛才黃所也提到企業怎么去做調整,怎么去抓住機會。我也趁這個機會插播一個廣告。大模型裏面有幾個非常關鍵的核心技術,剛才我和黃所聊的時候我們都聊到了,比如Few-Shot Learning,就是小樣本學習,還有增強學習等等。這些技術,其實聯想我的團隊很早之前一直在看這個事。

我們把它用在一個比較有意思的地方,用在工廠的智能排產。聯想有一家非常大的工廠,在合肥,它的佔地有42個標准足球場那么大。全球的每8台PC有1台就是在那裏生產的。它有上百條的產线,它能生產的機器類型也是上百款,每一天都從全球飛來成千上萬的訂單。這些訂單那到底是應該排在哪個產线的哪個時間去生產?這就很有學問了,如果這個排產排的好,它的成本就會低很多,它的速度就會快很多,它的產线利用率就會突飛猛進的增強。如果我們用深度學習加上強化學習的這種方式去做,就會得到非常好的效果。所以我們也是在合肥工廠用到了這種強化學習,使得我們排產水平和排產效率大幅的提高。

聯想合肥工廠(聯寶科技)爲全球最大的智能計算設備研發與制造中心

那么聯想現在大的战略方向是“端邊雲網智”,我覺得這幾個方向都會跟大模型發生關系。特別是大模型把新的機會點、新的需求都提出來了。在“端”側,無論是PC、手機、平板、 AR/VR這些設備它都會成爲大模型某一種輸入的入口。那么“邊雲網”這些基礎設施,如果我們要訓練大模型的話,並行計算、分布式大規模訓練的基礎設施就非常重要。這塊兒是聯想基礎設施業務群會着力去看。

在“智”這方面,我們在看很多的行業智能化,比如說智能制造、智慧交通、智慧教育等等。那么大模型出來之後,不僅是聯想了,我相信很多公司也會說,這種通用領域的大模型,如何和垂直行業的知識相結合,在垂直行業做智能化?所以這幾個方面,我覺得大模型確實有很多重要的方向,也帶來了非常多的機會。

黃燕銘:到目前爲止,實際上我們關於AI的主要應用都是在生產管理、企業經營方面。當然AI其實也很大的一塊是用在藝術方面,現在大家都在強調人工智能作畫。隨着AI作畫和ChatGPT的“出圈”,我們也看到有越來越多的創業者把生成式AI作爲了自己的創業方向。但同時,大模型的人才投入和成本都是非常大的,各大巨頭也都已經在做。您覺得如果作爲AI創業者,機會在哪裏?

芮勇:黃所,這又是一個特別好的問題,我先嘗試着從兩個角度來回答一下。我過一會兒也特別想聽聽黃所怎么來看這個問題。第一個角度,我覺得這個就像黃所剛才講的初創企業,大模型的訓練成本非常高昂,可能初創企業不太適合從零开始,與現有的大模型競爭。但是這並不代表初創企業跟大模型就不發生關系。我覺得有很多地方它都可以去發生關系的。

比如在大模型基礎之上,進行不同行業的創新。像黃所剛才提到的AIGC,在生成方式,在藝術方面,這些都是一些非常好的方向,在大型之上去做創新。那么,大模型和這個之上的創新就有一點像,比如說在10-15年以前移動互聯網時代开始蓬勃發展的時候,一些公司負責开發操作系統的平台,另外一些公司在這個操作系統之上去做它的开發套件API,還有一些公司在這個之上去开發應用。

我覺得今天可能也是一樣,有做大模型的大型企業,有做專業知識的專業企業,還有一些初創公司的小型企業,我覺得大家可以形成一個生態,從不同的角度來進行創新和推進。

第二個角度,我覺得有一些企業可以去把垂直行業和大模型做一些適配,尤其是在數據端的適配,因爲有一些垂直行業它可能不想把私有數據共享給大模型公司,大模型公司又沒有辦法去訓練它的數據。這個時候就不是一個最優的答案。那么,有沒有一些企業可以去做一些很新穎的方式,使得私有企業比較安全地把私有數據共享給模型公司,這個時候就可以吸引更多的數據訓練出更好的模型,再吸引更多的用戶,這樣整個的數據飛輪就能夠轉起來了。我覺得確實有很多方向,這些初創企業都是可以做的。我也想和黃所討論一下,在這方面黃所怎么看?

黃燕銘:其實站在我的角度來說,我也思考了很多問題,我自己做證券研究29年,我認爲證券研究的原料是信息,證券研究的成果依然是信息。信息研究、信息管理的整個過程貫穿了證券研究的管理的整個過程。但是在這個過程當中,我們有些東西是可以用計算機記錄下來,用計算機來進行計算,用計算機來進行記憶,但是有些東西計算機做不到。

我一直在思考一個問題,1946年馮諾依曼在設計計算機結構的時候,他把計算機的主要功能設定爲記憶和計算,但是他少了一塊東西,跟人類相比,那就是心智,人類的智慧。爲什么他沒有設計智慧?知識是記錄在紙上的,知識可以用機器來記錄和表達,但智慧是人需要感悟和認知的,所以知識在書本,在電腦。智慧在人的內心,在大腦。所以是兩個不同的東西。因此,計算機能夠幫助我們去記憶知識,幫助我們去計算知識。但是計算機不能幫助我們人類去感悟新智慧。

所以我自己認爲人工智能再怎么發展,可能有一條鴻溝,沒有辦法突破,就是“轉識成智”,怎么把知識變成智慧,變成智慧是需要相當長的時間學習鍛煉,然後不斷的去感悟的過程,而且不同的人對智慧的感悟可能是不一樣的。

我相信,ChatGPT以及類似的這些人工智能的發展會給我們各行各業在未來帶來很大的變化。這種變化主要還是在記憶和計算兩大環節給我們提供幫助,畢竟我們在人類的日常大腦的活動當中,計算和記憶佔了大量時間,而參悟智慧佔的時間並不多。雖然它是最重要的,但是我們相對來講佔的時間不多。

如芮博所言,人工智能沒有辦法幫我們完成的工作,第一個是社交,第二個是創造性的工作。那從我的角度來說,哪些東西電腦能夠完成?哪些東西電腦不能完成?我的理解是形而下的工作可以交給計算機,但是形而上的感悟,目前來看,人工智能還很難去幫我們完成。

什么叫“形而下”?有具體的數據、具體的語言、具體的計算公式,能夠按照一種方式,放進去這些條件出來的結果就是這個。這些工作在我們證券研究裏面其實有很多,比如說我們日常做證券研究,我們要收集信息,要收集上市公司年報的信息,要收集公告信息,收集各個媒體發布的信息等等,通過把這些信息收集過來,加工整理成我們一系列的研究產品,包括信息匯編類的報告、年報點評類的報告、行業點評類的報告。這些通過簡單的人工收集信息,然後簡單加工,就可以形成的這一類日常點評性的報告,我相信用人工智能都可以完成。

而這類工作其實在我們日常當中耗費了巨多的時間和人力,所以說我相信人工智能的發展會導致證券研究人員數量可能會在一定程度上減少,大量研究助理需要幹的活被機器替代,很多研究助理晚上可以減少熬夜,讓機器幫助完成一部分的工作。

不過,是不是證券的研究中所有的東西都可以讓電腦來替代呢?我就說一個問題,2014年本人的那篇文章,《股票價格不是樹上的花》,這篇文章能讓機器寫出來嗎?我相信也不能。這就好比以前大家在探討有沒有可能讓機器寫出優美的散文和唐詩、機器能不能參悟人類的智慧達到更高的一個境界。我相信智慧還是需要人類自己去完成。

所以我們也在討論一個很簡單的問題,機器能不能寫出讓人類滿意的研究報告?我的答案是機器可以寫出讓機器滿意的報告,但是機器很難寫出完美到讓人類最滿意的研究報告,但它能夠幫助我們解決記憶和計算。

芮勇:黃所講的非常精彩,我特別認同這樣的一些看法,關於機器和人之間的關系,“形而下”和“形而上”之間的關系。我從事信息行業,計算機是信息科學的一個分支。從信息科學來看,數據是一些最原始的東西,數據升華以後才是信息,信息升華以後才是知識,知識再升華以後才是智慧。它有好幾個不同的等級,所以我特別同意剛才黃所講的,確實人類和機器還是有很多不一樣的地方。黃所另外講的一個觀點是人和機器的之間的關系,我也非常認同。

我從2015、2016年开始就跟大家說AI到底是哪兩個字,它不一定代表Artificial Intelligence,我們今天所說的人工智能,我覺得它更代表的是Augmented Intelligence,是一個增強以後的人類智能。其實人和機器的關系不是人和機器PK,而是人加上機器,機器是一種輔助的工具使得我們人類更加強大。

機器應該爲人類服務,而不是人類爲機器服務。那么剛才黃所提到的一個是計算、一個是記憶,這兩個讓機器去做吧。這兩個機器本來做的都很好,它算的比我們算的快,記得也比我們記得多。但是很多它不會的東西是在我們人類的腦子裏,那剛好機器幹機器強的事,人類幹人類強的事,所以結合在一起,應該是一個更加強大的人,就是我認爲是一個增強的人類,所以認同黃所剛才講的這幾點。

03

關於AI技術倫理

黃燕銘:我們也注意到,不管是ChatGPT還是最近發布的GPT-4,在回答一些問題時也生成了一些對部分人群不友好的回答。您覺得隨着人工智能的發展,未來我們可能會面臨哪些技術倫理方面的問題?

芮勇:黃所問了一些非常高深的問題,這也是上升到哲學高度了。這個事我是這樣看,倫理這個事確實很重要,如果看我們古代的一些先賢,他們對這些事情的看法。比如說從《道德經》的角度來看,《道德經》裏有一句話,“天之道,利而不害”。這就是說,自然規律是利萬物。我們的先賢在幾千年以前的這些理念、觀點,對今天的AI發展仍然有指導意義。

在人工智能技術走向產品的時候,一定也會碰到道德和倫理的問題。之前的某款聊天機器人就可能會講一些不太准確、不太合適的話,上线不到24小時就被迫關閉了。那今天的ChatGPT在這方面已經做了很大的改進,它的情商還是比較高的,很少會有侮辱性語言和偏激行爲,因爲它的訓練方式已經和7、8年前相比有很大飛躍了。但即使是這樣,我們仍然需要看看怎么能讓它更加遵守我們人類的倫理。

我們來回顧一下大模型的訓練過程,它其實用了互聯網級別的海量數據來訓練。這就是像一個孩子,他學習了很多基本的文化知識,但是他沒有建立價值觀,他不知道什么叫對,什么叫錯,什么叫正確的,什么叫不正確的。對於這一點,我們要教這個孩子什么是對的,什么是錯的。

在ChatGPT裏有一個算法,我們剛才也提到了,就是基於人類反饋的強化學習。這個就是爲了去教這個大模型人類的價值觀是什么,人類認爲什么是對的、什么是錯的,使得大模型向人類的價值觀來靠攏。所以,這是一個挺重要的問題。所以我們看到的在人工智能的發展過程當中,給我們帶來了很多生活的便利、生產效能的提高,但是這些倫理和道德問題,我們也要花大力氣去想,這些人工智能產品的落地時需要遵循的一些原則,才能使之健康有序的發展。

現在業界比較公認的幾個人工智能基本原則,包括公平、可靠、保密、包容、透明、負責,等等。我們再回來看這幾個字,很多理念也是我們中華民族這幾千年來文化的根基。所以基於這樣的一些理念,我們能夠讓人工智能以一種合乎倫理的方式進行使用,也可以設計出讓人更加信賴的人工智能、更加體現道德原則的解決方案。

黃燕銘:還想跟芮博交流最後一個問題,改革开放40多年,中國的科學技術突飛猛進,中國的金融行業也是日新月異,您作爲一個走遍世界的技術領軍人物,站在您的角度,對中國的人工智能,特別是對GPT的發展前景如何看待,能否做個展望?

芮勇:對,我覺得我們的前景非常的好!首先,整個科技領域,人工智能領域,無論是從基礎算法,還是從我們的數據,都非常豐富,非常先進。其次,中華民族有一個比較重要的美德,我們非常的勤奮。那么在強大算法的基礎之上,加上這種勤奮的美德,我們愿意合作的這種美德,我覺得我們無論是人工智能,還是更廣闊的整個科技領域的發展,都會變得越來越好!

黃燕銘:謝謝芮博!我相信人工智能的未來發展,前景非常廣闊,現在才剛剛开始,未來還有很多新的技術發展、新的應用值得我們期待!我們大家可以期待一個更加美好的未來!我們今天的節目就到這裏謝謝大家!




 點“在看”,想未來


追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:萬字科普ChatGPT爲什么會顛覆人類社會?

地址:https://www.breakthing.com/post/48875.html