自 AI 這一概念從1956年的達特茅斯會議誕生至今,“AI代替人類工作、取代人類”的可能就被反復討論,以至于衍生了大量的影視作品。而隨著 ChatGPT 的橫空出世,這一話題再次被推上風口浪尖。
2022年11月,ChatGPT一經(jīng)推出,迅速在社交媒體上走紅,不到一周,用戶數(shù)就突破100萬人,月訪問量達2100萬人次。到2023年1月末,其月活用戶已經(jīng)突破了1億,成為史上用戶增長速度最快的消費級應用程序。
在此情況下,ChatGPT也快速嘗試商業(yè)化變現(xiàn),包括推出試點訂閱計劃,面向各行業(yè)受眾提供收費服務;將Office全家桶等微軟產(chǎn)品全線接入。人們也更加擔心,若ChatGPT商業(yè)化應用加速,可能會對人類工種造成不可逆影響,在職場中取代一部分勞動力。
什么是ChatGPT,它目前能做到什么?
ChatGPT,是由美國人工智能研究實驗室OpenAI開發(fā)的一款語言模型,它以對話的方式進行交互。對話的格式使得ChatGPT能夠回答后續(xù)問題、承認錯誤、質(zhì)疑不正確的前提并拒絕不適當?shù)恼埱蟆?/strong>
其使用人類偏好作為獎勵信號來微調(diào)模型,能夠通過學習和理解人類的語言進行對話,還能根據(jù)聊天的上下文進行極為接近人類自然交流的互動,甚至能完成撰寫郵件、修改代碼、文本翻譯等內(nèi)容創(chuàng)作任務。
ChatGPT火遍全球,越來越多用戶開始“試探”ChatGPT能否取代自己的工作。
但隨著使用的不斷深入,ChatGPT的專業(yè)性同樣遭受質(zhì)疑:
據(jù)《華爾街日報》報道,德克薩斯大學教授保羅·馮·希佩爾(Paul von Hippel)發(fā)現(xiàn),ChatGPT可以膚淺地談論數(shù)學,但它不能真正深入地“理解”數(shù)學。
“它不能糾正錯誤的數(shù)學概念,還經(jīng)常會引入自己的錯誤概念,有時還會犯一些基本的電子表格或手動計算器不會犯的莫名其妙的數(shù)學錯誤。”
財通證券近日使用ChatGPT撰寫了一份關于醫(yī)療美容行業(yè)的研報,內(nèi)容包括行業(yè)簡介和全球市場概述。
“它像專家一樣行事,有時還能令人信服地模仿專家。但它通常是一種胡扯藝術(shù)家,把真相、錯誤和捏造混在一起,聽起來令人信服,除非你自己也有一些專業(yè)知識。不可否認,ChatGPT在文字表意、標題撰寫等方面均具有較高水平,但采用這種直接生成+翻譯模式形成的報告仍有問題?!必斖ㄗC券表示,問題包括標點和術(shù)語錯誤、無法得知引用數(shù)據(jù)來源及可靠性等。
OpenAI的首席技術(shù)官米拉·穆拉蒂在接受《時代》雜志采訪時也承認,機器人在寫句子時“可能會編造事實”,并將其描述為“核心挑戰(zhàn)”。
為何會產(chǎn)生這樣的問題,還要回過頭來分析ChatGPT的技術(shù)框架。
InstructGPT模型的參數(shù)數(shù)目為1750億,作為InstructGPT的兄弟模型,有理由相信ChatGPT的參數(shù)量也在這一量級。但據(jù)“訓練語言模型以遵循人工反饋”論文,在對話任務上表現(xiàn)*的InstructGPT模型的參數(shù)數(shù)目為15億,所以ChatGPT的參數(shù)量也有可能與此相當。但無論如何,ChatGPT的參數(shù)量級都是“億”打底。
InstructGPT訓練數(shù)據(jù)包括但不限于:經(jīng)過基礎過濾的全網(wǎng)頁爬蟲數(shù)據(jù)集(4290億個詞符)、維基百科文章(30億詞符)、兩個不同的書籍數(shù)據(jù)集(一共670億詞符)、GPT-3所收集的人類的評價和反饋數(shù)據(jù)。而ChatGPT則在此基礎上加入了由AI訓練師同時扮演聊天機器人和用戶雙方的對話數(shù)據(jù)。
面對如此龐大的模型,用戶可以僅提供小樣本的提示語、或者完全不提供提示而直接詢問,就能獲得符合要求的高質(zhì)量答案。
但高質(zhì)量答案之下同樣隱藏著不少問題:
1.即時性。ChatGPT背后的大型語言模型的訓練集最近數(shù)據(jù)截止于2021年底,所以任何關于過去一年里發(fā)生的事件,它無法給出準確的答案。語言模型不可避免的問題,不具備自主學習的能力;
2.準確性。當用戶想利用ChatGPT獲取準確信息(例如寫代碼,查菜譜)時,ChatGPT回答的準確度是不穩(wěn)定的,用戶需要具有鑒別回答質(zhì)量與準確性的能力。而且用戶對于問題的描述同樣會影響準確性。
此外還存在一個致命性的問題:ChatGPT的獎勵/偏好模型。
上文提到 ChatGPT使用人類偏好作為獎勵信號來微調(diào)模型,而OpenAI在其博客中給出了具體的處理思路:針對一個問題,用多個模型給出多個回答,人工按照一定的標準對這些回答進行排序,以此來訓練一個獎勵模型/偏好模型(reward model)。
人工排序這種訓練模式,不可避免導致模型瞎想的錯誤被混入。換言之,模型最終*的回答甚至可能不是一個正確的回答。想要徹底解決這個問題,還有許多輔助性的工作需要進行。
綜合來看,ChatGPT知識量豐富但邏輯性和創(chuàng)新性不足,作為一個輔助工具可以,但遠遠達不到大家想象中的“一個工具解決所有問題”的程度。
對于人類而言,那些需要很強的邏輯性和創(chuàng)新性的崗位暫時是安全的。那些重復性的、高度標準化的崗位,倒是面臨著不小的風險。
任何新技術(shù)出現(xiàn),都會被視為顛覆者,因為這種說法會給人巨大想象空間。但歷史證明,新技術(shù)和舊生態(tài)之間并非完全沖突,更多的是互相融合。ChatGPT也是這樣,未來更多的可能是會被嵌入到各大平臺和應用當中,成為賦能平臺的一個工具。
所以與其擔心工作被AI取代,不如發(fā)揮主觀能動性和創(chuàng)造性,利用好新技術(shù)、新工具提高工作效率和生活質(zhì)量。
畢竟,人工智能是人的延伸,社會真正的主角是作為萬物之靈的你。