自 AI 這一概念從1956年的達(dá)特茅斯會(huì)議誕生至今,“AI代替人類工作、取代人類”的可能就被反復(fù)討論,以至于衍生了大量的影視作品。而隨著 ChatGPT 的橫空出世,這一話題再次被推上風(fēng)口浪尖。
2022年11月,ChatGPT一經(jīng)推出,迅速在社交媒體上走紅,不到一周,用戶數(shù)就突破100萬人,月訪問量達(dá)2100萬人次。到2023年1月末,其月活用戶已經(jīng)突破了1億,成為史上用戶增長(zhǎng)速度最快的消費(fèi)級(jí)應(yīng)用程序。
在此情況下,ChatGPT也快速嘗試商業(yè)化變現(xiàn),包括推出試點(diǎn)訂閱計(jì)劃,面向各行業(yè)受眾提供收費(fèi)服務(wù);將Office全家桶等微軟產(chǎn)品全線接入。人們也更加擔(dān)心,若ChatGPT商業(yè)化應(yīng)用加速,可能會(huì)對(duì)人類工種造成不可逆影響,在職場(chǎng)中取代一部分勞動(dòng)力。
什么是ChatGPT,它目前能做到什么?
ChatGPT,是由美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI開發(fā)的一款語言模型,它以對(duì)話的方式進(jìn)行交互。對(duì)話的格式使得ChatGPT能夠回答后續(xù)問題、承認(rèn)錯(cuò)誤、質(zhì)疑不正確的前提并拒絕不適當(dāng)?shù)恼?qǐng)求。
其使用人類偏好作為獎(jiǎng)勵(lì)信號(hào)來微調(diào)模型,能夠通過學(xué)習(xí)和理解人類的語言進(jìn)行對(duì)話,還能根據(jù)聊天的上下文進(jìn)行極為接近人類自然交流的互動(dòng),甚至能完成撰寫郵件、修改代碼、文本翻譯等內(nèi)容創(chuàng)作任務(wù)。
ChatGPT火遍全球,越來越多用戶開始“試探”ChatGPT能否取代自己的工作。

但隨著使用的不斷深入,ChatGPT的專業(yè)性同樣遭受質(zhì)疑:
據(jù)《華爾街日?qǐng)?bào)》報(bào)道,德克薩斯大學(xué)教授保羅·馮·希佩爾(Paul von Hippel)發(fā)現(xiàn),ChatGPT可以膚淺地談?wù)摂?shù)學(xué),但它不能真正深入地“理解”數(shù)學(xué)。
“它不能糾正錯(cuò)誤的數(shù)學(xué)概念,還經(jīng)常會(huì)引入自己的錯(cuò)誤概念,有時(shí)還會(huì)犯一些基本的電子表格或手動(dòng)計(jì)算器不會(huì)犯的莫名其妙的數(shù)學(xué)錯(cuò)誤?!?/p>
財(cái)通證券近日使用ChatGPT撰寫了一份關(guān)于醫(yī)療美容行業(yè)的研報(bào),內(nèi)容包括行業(yè)簡(jiǎn)介和全球市場(chǎng)概述。
“它像專家一樣行事,有時(shí)還能令人信服地模仿專家。但它通常是一種胡扯藝術(shù)家,把真相、錯(cuò)誤和捏造混在一起,聽起來令人信服,除非你自己也有一些專業(yè)知識(shí)。不可否認(rèn),ChatGPT在文字表意、標(biāo)題撰寫等方面均具有較高水平,但采用這種直接生成+翻譯模式形成的報(bào)告仍有問題?!必?cái)通證券表示,問題包括標(biāo)點(diǎn)和術(shù)語錯(cuò)誤、無法得知引用數(shù)據(jù)來源及可靠性等。
OpenAI的首席技術(shù)官米拉·穆拉蒂在接受《時(shí)代》雜志采訪時(shí)也承認(rèn),機(jī)器人在寫句子時(shí)“可能會(huì)編造事實(shí)”,并將其描述為“核心挑戰(zhàn)”。
為何會(huì)產(chǎn)生這樣的問題,還要回過頭來分析ChatGPT的技術(shù)框架。
InstructGPT模型的參數(shù)數(shù)目為1750億,作為InstructGPT的兄弟模型,有理由相信ChatGPT的參數(shù)量也在這一量級(jí)。但據(jù)“訓(xùn)練語言模型以遵循人工反饋”論文,在對(duì)話任務(wù)上表現(xiàn)*的InstructGPT模型的參數(shù)數(shù)目為15億,所以ChatGPT的參數(shù)量也有可能與此相當(dāng)。但無論如何,ChatGPT的參數(shù)量級(jí)都是“億”打底。
InstructGPT訓(xùn)練數(shù)據(jù)包括但不限于:經(jīng)過基礎(chǔ)過濾的全網(wǎng)頁爬蟲數(shù)據(jù)集(4290億個(gè)詞符)、維基百科文章(30億詞符)、兩個(gè)不同的書籍?dāng)?shù)據(jù)集(一共670億詞符)、GPT-3所收集的人類的評(píng)價(jià)和反饋數(shù)據(jù)。而ChatGPT則在此基礎(chǔ)上加入了由AI訓(xùn)練師同時(shí)扮演聊天機(jī)器人和用戶雙方的對(duì)話數(shù)據(jù)。
面對(duì)如此龐大的模型,用戶可以僅提供小樣本的提示語、或者完全不提供提示而直接詢問,就能獲得符合要求的高質(zhì)量答案。

但高質(zhì)量答案之下同樣隱藏著不少問題:
1.即時(shí)性。ChatGPT背后的大型語言模型的訓(xùn)練集最近數(shù)據(jù)截止于2021年底,所以任何關(guān)于過去一年里發(fā)生的事件,它無法給出準(zhǔn)確的答案。語言模型不可避免的問題,不具備自主學(xué)習(xí)的能力;
2.準(zhǔn)確性。當(dāng)用戶想利用ChatGPT獲取準(zhǔn)確信息(例如寫代碼,查菜譜)時(shí),ChatGPT回答的準(zhǔn)確度是不穩(wěn)定的,用戶需要具有鑒別回答質(zhì)量與準(zhǔn)確性的能力。而且用戶對(duì)于問題的描述同樣會(huì)影響準(zhǔn)確性。
此外還存在一個(gè)致命性的問題:ChatGPT的獎(jiǎng)勵(lì)/偏好模型。
上文提到 ChatGPT使用人類偏好作為獎(jiǎng)勵(lì)信號(hào)來微調(diào)模型,而OpenAI在其博客中給出了具體的處理思路:針對(duì)一個(gè)問題,用多個(gè)模型給出多個(gè)回答,人工按照一定的標(biāo)準(zhǔn)對(duì)這些回答進(jìn)行排序,以此來訓(xùn)練一個(gè)獎(jiǎng)勵(lì)模型/偏好模型(reward model)。
人工排序這種訓(xùn)練模式,不可避免導(dǎo)致模型瞎想的錯(cuò)誤被混入。換言之,模型最終*的回答甚至可能不是一個(gè)正確的回答。想要徹底解決這個(gè)問題,還有許多輔助性的工作需要進(jìn)行。
綜合來看,ChatGPT知識(shí)量豐富但邏輯性和創(chuàng)新性不足,作為一個(gè)輔助工具可以,但遠(yuǎn)遠(yuǎn)達(dá)不到大家想象中的“一個(gè)工具解決所有問題”的程度。
對(duì)于人類而言,那些需要很強(qiáng)的邏輯性和創(chuàng)新性的崗位暫時(shí)是安全的。那些重復(fù)性的、高度標(biāo)準(zhǔn)化的崗位,倒是面臨著不小的風(fēng)險(xiǎn)。
任何新技術(shù)出現(xiàn),都會(huì)被視為顛覆者,因?yàn)檫@種說法會(huì)給人巨大想象空間。但歷史證明,新技術(shù)和舊生態(tài)之間并非完全沖突,更多的是互相融合。ChatGPT也是這樣,未來更多的可能是會(huì)被嵌入到各大平臺(tái)和應(yīng)用當(dāng)中,成為賦能平臺(tái)的一個(gè)工具。
所以與其擔(dān)心工作被AI取代,不如發(fā)揮主觀能動(dòng)性和創(chuàng)造性,利用好新技術(shù)、新工具提高工作效率和生活質(zhì)量。
畢竟,人工智能是人的延伸,社會(huì)真正的主角是作為萬物之靈的你。


150302/13








