肥臀巨乳熟女网站|免费亚洲丁香|性爱超碰在线播放|丁香五月欧美成人|精产国品免费jiure99|熟女伦网导航|草草视频在线直播免费观看|外网毛片9999|约干AV一区二区|亚洲激情黄色视屏

當前位置: 首頁 ? 資訊 ? 熱點 ? 正文

用戶隱私須保護,模型訓練需數(shù)據(jù),那就只能工作場合禁用ChatGPT

作者:李子敬 來源: 億歐網(wǎng) 116405/05

在工作場合禁用ChatGPT等生成式人工智能工具,三星最新入列。01 再添一員據(jù)多家媒體5月3日報道,三星推出了一項新政策,要求員工不得在工作場所使用OpenAl的ChatGPT和谷歌 Bard等生成式人工智能。據(jù)三星稱,4月,該公司的一名

標簽: 用戶隱私 大模型訓練 ChatGPT

在工作場合禁用ChatGPT等生成式人工智能工具,三星最新入列。

01 再添一員

據(jù)多家媒體5月3日報道,三星推出了一項新政策,要求員工不得在工作場所使用OpenAl的ChatGPT和谷歌 Bard等生成式人工智能。據(jù)三星稱,4月,該公司的一名工程師將內(nèi)部源代碼上傳到ChatGPT后,意外泄漏了內(nèi)部源代碼。這讓三星擔憂其數(shù)據(jù)將通過人工智能平臺最終落入其他用戶手中。

目前,三星員工已被禁止在公司設(shè)備上使用人工智能工具,包括電腦、平板電腦、手機等,但員工仍可以在個人設(shè)備上使用。該公司還強調(diào),若違規(guī)并導致公司信息或數(shù)據(jù)泄漏的話,員工將得到紀律處分,情節(jié)嚴重者將被解雇。

需要指出的是,三星關(guān)于生成式人工智能的規(guī)定,針對的場景是工作場所,并不限制私人場景的使用。在三星宣布工作場所禁用ChatGPT之前,已經(jīng)有多家企業(yè)巨頭對其員工使用ChatGPT提出了要求。

臺積電發(fā)布內(nèi)部公告,謹慎使用網(wǎng)絡工具如ChatGPT或Bing AI Chat等提醒員工應秉持“不揭露公司信息”、“不分享個人隱私”、“不完全相信生成結(jié)果”原則。

日本銀行巨頭軟銀,出臺了使用交互式人工智能等云服務的指導方針,警告員工使用ChatGPT和其他商業(yè)應用,“不要輸入公司身份信息或機密數(shù)據(jù)”。

美國*的銀行摩根大通決定臨時限制員工使用近期爆火的新型人工智能聊天機器人ChatGPT。

70多萬員工的科技咨詢巨頭埃森哲,也警告員工不要將客戶信息暴露給ChatGPT等聊天工具。

全球電商巨頭亞馬遜警告員工不要與聊天機器人工具共享機密信息。

日本瑞穗金融集團、三菱日聯(lián)金融集團和三井住友銀行已禁止在公司運營中使用ChatGPT和其他服務。

02 極限拉扯

隨著ChatGPT等生成式人工智能工具應用開始普及,在ChatGPT改變工作方式、改變世界的同時,越來越多的企業(yè)和機構(gòu)意識到隱私保護的緊迫性,制定出合理的數(shù)據(jù)隱私規(guī)范,也迫在眉睫了。

這種隱私數(shù)據(jù)保護的緊迫性有兩個來源,一方面是,人工智能公司需要大量的數(shù)據(jù)來訓練更聰明智能的大模型,訪問并索取用戶隱私數(shù)據(jù),必然造成用戶隱私泄露;另一方面是,隨著越來越多企業(yè)員工將ChatGPT加入工作流,上傳的數(shù)據(jù)中難免會夾帶公司機密信息。

業(yè)界認為,ChatGPT學習能力極強,還能在與用戶對談的同時,認知錯誤并學習,越來越多企業(yè)禁止員工在與AI對談揭露公司信息,也算是合理要求。不只是企業(yè),多個歐洲國家已經(jīng)對ChatGPT提出嚴格的監(jiān)管要求,意大利、德國、法國、西班牙等。可見,用戶隱私保護已經(jīng)是必須品,各國已經(jīng)從法律方面限制人工智能的道德倫理風險了。

為了應對數(shù)據(jù)隱私方面的爭議,OpenAI最新blog宣布了ChatGPT數(shù)據(jù)使用的新規(guī)則:用戶可以通過關(guān)閉聊天記錄功能,來避免自己的個人數(shù)據(jù)被官方拿去訓練。現(xiàn)在在用戶個人管理中,已經(jīng)出現(xiàn)了一個關(guān)閉“Chat history&training”的選項。只要點擊取消,歷史記錄就被禁用了,新的對話也不會再存入聊天記錄里。

但新的對話還是會在官方系統(tǒng)里留存30天,OpenAI解釋說:只有在監(jiān)控是否存在數(shù)據(jù)濫用時才會審查這些數(shù)據(jù),30天后將*刪除。同時還上線了一個導出聊天記錄的Export功能,方便用戶自己保存數(shù)據(jù)。

有分析認為,用戶隱私保護和更好訓練模型需要更多數(shù)據(jù)之間存在極限二選一的困境:用戶數(shù)據(jù)被拿去訓練,是ChatGPT對話能力提升的途徑之一,數(shù)據(jù)越多意味著模型能被訓練地越精準、聰明;但是這樣做必然會侵犯用戶的隱私安全。

值得一提的是,這不是OpenAI*次調(diào)整ChatGPT隱私數(shù)據(jù)使用規(guī)則了。3月1日開始,所有調(diào)用API接口的用戶數(shù)據(jù),將不再被用于模型訓練,除非用戶自愿提供。

不過,有測評人士質(zhì)疑,ChatGPT功能改進的按鈕設(shè)置暗藏玄機,關(guān)閉聊天記錄的按鈕設(shè)置隱蔽復雜,用戶使用的意識和概率都不高,OpenAI保護用戶隱私的誠意不夠。

從法律上將,用戶隱私必須保護。從技術(shù)上將,大模型訓練必需數(shù)據(jù)。這是兩個“剛需”,未來二者還將極限拉扯。

免責聲明:本網(wǎng)轉(zhuǎn)載合作媒體、機構(gòu)或其他網(wǎng)站的公開信息,并不意味著贊同其觀點或證實其內(nèi)容的真實性,信息僅供參考,不作為交易和服務的根據(jù)。轉(zhuǎn)載文章版權(quán)歸原作者所有,如有侵權(quán)或其它問題請及時告之,本網(wǎng)將及時修改或刪除。凡以任何方式登錄本網(wǎng)站或直接、間接使用本網(wǎng)站資料者,視為自愿接受本網(wǎng)站聲明的約束。聯(lián)系電話 010-57193596,謝謝。

財中網(wǎng)合作