肥臀巨乳熟女网站|免费亚洲丁香|性爱超碰在线播放|丁香五月欧美成人|精产国品免费jiure99|熟女伦网导航|草草视频在线直播免费观看|外网毛片9999|约干AV一区二区|亚洲激情黄色视屏

當(dāng)前位置: 首頁(yè) ? 資訊 ? 熱點(diǎn) ? 正文

聊天神器ChatGPT還有這本事:撰寫(xiě)論文摘要竟能騙過(guò)專家

作者:財(cái)聯(lián)社 周子意 來(lái)源: 財(cái)聯(lián)社 125401/17

據(jù)預(yù)印本平臺(tái)bioRxiv12月底發(fā)布的一份預(yù)印報(bào)告顯示,一篇由人工智能(AI)聊天機(jī)器人寫(xiě)出的研究論文摘要,甚至最終能騙過(guò)專家審核。這一報(bào)告一經(jīng)發(fā)出就受到人們的廣泛關(guān)注,研究人員對(duì)該AI機(jī)器人的影響力有著巨大爭(zhēng)議。聊天機(jī)器人ChatGPT

標(biāo)簽: 聊天機(jī)器人 ChatGPT 論文

據(jù)預(yù)印本平臺(tái)bioRxiv12月底發(fā)布的一份預(yù)印報(bào)告顯示,一篇由人工智能(AI)聊天機(jī)器人寫(xiě)出的研究論文摘要,甚至最終能騙過(guò)專家審核。這一報(bào)告一經(jīng)發(fā)出就受到人們的廣泛關(guān)注,研究人員對(duì)該AI機(jī)器人的影響力有著巨大爭(zhēng)議。

聊天神器ChatGPT還有這本事:撰寫(xiě)論文摘要竟能騙過(guò)專家

聊天機(jī)器人ChatGPT的所有者是一家位于舊金山的軟件公司OpenAI,該公司于11月30日發(fā)布了這款A(yù)I工具,并提供了免費(fèi)試用。

ChatGPT可以根據(jù)用戶的提示創(chuàng)建實(shí)際且智能的文本。它是一個(gè)“大型語(yǔ)言模型”,是一個(gè)基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng),通過(guò)消化大量現(xiàn)有的人類生成的文本來(lái)學(xué)習(xí)并執(zhí)行任務(wù)。

上周,有消息稱,美國(guó)科技巨頭微軟計(jì)劃向OpenAI投資高達(dá)100億美元,目前尚處于談判階段。

難以區(qū)分

自從它發(fā)布以來(lái),由于該機(jī)器人的大部分輸出內(nèi)容就很難與人工書(shū)寫(xiě)出的文本進(jìn)行區(qū)分,研究人員一直在努力解決圍繞其使用的倫理問(wèn)題。

現(xiàn)在,伊利諾斯州西北大學(xué)Catherine Gao領(lǐng)導(dǎo)的一個(gè)小組已經(jīng)開(kāi)展了一項(xiàng)研究:使用ChatGPT生成研究論文摘要,以測(cè)試科學(xué)家是否能發(fā)現(xiàn)它們。

研究人員要求ChatGPT根據(jù)發(fā)表在四大醫(yī)學(xué)頂刊《美國(guó)醫(yī)學(xué)會(huì)雜志》、《新英格蘭醫(yī)學(xué)雜志》、《英國(guó)醫(yī)學(xué)雜志》、《柳葉刀》以及《自然》子刊《自然醫(yī)學(xué)》上的精選文章,撰寫(xiě)50篇醫(yī)學(xué)研究摘要。

隨后該小組通過(guò)抄襲檢測(cè)系統(tǒng)和人工智能輸出檢測(cè)器,將這些摘要與原始摘要混在一起匿名比較,要求一組醫(yī)學(xué)研究人員找出由ChatGPT輸出的摘要。

結(jié)果顯示,ChatGPT生成的摘要順利通過(guò)了抄襲檢查:其原創(chuàng)性平均得分為100%,這表明沒(méi)有檢測(cè)到抄襲。人工智能輸出檢測(cè)器發(fā)現(xiàn)了66%的由ChatGPT生成的摘要。

而人工審閱者錯(cuò)誤地將32%的生成摘要識(shí)別為原始摘要。

重大爭(zhēng)議

Gao和他的同事在預(yù)印本報(bào)告中寫(xiě)道,ChatGPT確實(shí)寫(xiě)出了可信的科學(xué)摘要,不過(guò)使用大型語(yǔ)言模型來(lái)幫助科學(xué)方面的寫(xiě)作,其道德界限和可接受程度仍有待商榷。

英國(guó)牛津大學(xué)技術(shù)和監(jiān)管領(lǐng)域?qū)W者Sandra Wachter不是此次研究的參與者,但是她對(duì)此表示非常擔(dān)心。她補(bǔ)充道,“如果我們現(xiàn)在處于連專家都無(wú)法判斷真假的情況下,那么我們就不會(huì)再看到那些能夠在復(fù)雜話題中指導(dǎo)我們的論文摘要。”

Wachter提醒道,如果由ChatGPT生成的論文內(nèi)容無(wú)法確定是否正確,那可能會(huì)有“可怕的后果”。這不光會(huì)給研究人員帶來(lái)重大問(wèn)題,因?yàn)樗麄冮喿x的研究是被捏造出來(lái)的;而且對(duì)整個(gè)社會(huì)也有影響,因?yàn)榭茖W(xué)研究在社會(huì)中扮演著重要角色。

Wachter警告,更嚴(yán)重的或許導(dǎo)致基于研究的政策決定出現(xiàn)失誤。

新澤西州普林斯頓大學(xué)的計(jì)算機(jī)科學(xué)家Arvind Narayanan認(rèn)為,“任何嚴(yán)肅的科學(xué)家都不太可能使用ChatGPT來(lái)生成摘要。”

他補(bǔ)充道,“問(wèn)題在于,該工具能否生成準(zhǔn)確而令人信服的摘要。若是不能,那它的缺點(diǎn)是顯著的?!?/p>

Narayanan還表態(tài),此類問(wèn)題的解決方案不在ChatGPT本身,而是應(yīng)該集中在導(dǎo)致這種行為的不良動(dòng)機(jī)上,例如招聘和晉升審查時(shí)只看論文的量、而不看質(zhì)。

人工智能公司Hugging Face研究人員Irene Solaiman則認(rèn)為,“這些AI模型是根據(jù)過(guò)去的信息進(jìn)行訓(xùn)練的,而社會(huì)和科學(xué)的進(jìn)步往往來(lái)自于與過(guò)去不同的思維,或開(kāi)放思維?!?/p>

Solaiman補(bǔ)充說(shuō),在醫(yī)學(xué)等關(guān)鍵領(lǐng)域,假信息可能危及人類的安全,所以一些期刊必須采取更嚴(yán)格的方法來(lái)驗(yàn)證信息的準(zhǔn)確性。

該預(yù)印報(bào)告的研究小組建議,那些評(píng)估科學(xué)傳播的人士應(yīng)該制定政策,杜絕使用人工智能生成的文本。而要是機(jī)構(gòu)選擇允許在某些情況下使用該技術(shù),他們應(yīng)該就披露建立明確的規(guī)則。

免責(zé)聲明:本網(wǎng)轉(zhuǎn)載合作媒體、機(jī)構(gòu)或其他網(wǎng)站的公開(kāi)信息,并不意味著贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性,信息僅供參考,不作為交易和服務(wù)的根據(jù)。轉(zhuǎn)載文章版權(quán)歸原作者所有,如有侵權(quán)或其它問(wèn)題請(qǐng)及時(shí)告之,本網(wǎng)將及時(shí)修改或刪除。凡以任何方式登錄本網(wǎng)站或直接、間接使用本網(wǎng)站資料者,視為自愿接受本網(wǎng)站聲明的約束。聯(lián)系電話 010-57193596,謝謝。

財(cái)中網(wǎng)合作