ChatGPT概念火到安全圈,大模型在垂直領(lǐng)域的應(yīng)用實踐戰(zhàn)已經(jīng)打響。
繼各互聯(lián)網(wǎng)大廠相繼披露GPT研發(fā)進程后,網(wǎng)絡(luò)安全廠商也蠢蠢欲動,并在*時間試驗了OpenAI的ChatGPT到底實力如何以及值不值得應(yīng)用和投入。如其轟動世界的效果一樣,作為通用大模型,OpenAI的ChatGPT同樣讓網(wǎng)絡(luò)安全從業(yè)者眼前一亮,并開始尋找GPT與網(wǎng)絡(luò)安全實際業(yè)務(wù)之間的場景融合點。
可識別釣魚郵件,也能生成誘餌
完全可以識別釣魚郵件,并利用其語言理解能力,分析和識別文本中的潛在釣魚攻擊特征,從而幫助識別和預(yù)防釣魚攻擊——這是網(wǎng)絡(luò)安全從業(yè)者在試用ChatGPT后的主要發(fā)現(xiàn)之一。
但硬幣的另一面,ChatGPT也可以根據(jù)人工提示生成非常逼真的誘餌素材,并使受害者相信他們正在與真實的人交談。這使得社交工程攻擊變得更加容易,攻擊者可以通過 GPT 輕松地模擬受害者的社交網(wǎng)絡(luò)上的朋友或家人。
所以,GPT與網(wǎng)絡(luò)安全最直接的關(guān)系其實是跟隨GPT對數(shù)據(jù)安全帶來的潛在機遇與挑戰(zhàn)而產(chǎn)生的。多位業(yè)內(nèi)人士的一個共同判斷是,依托于GPT的自動化攻擊手段被黑客很快采用是既定事實,如果不能以同樣的方式快速應(yīng)對攻擊手段的變化,企業(yè)、甚至是國家關(guān)鍵信息基礎(chǔ)設(shè)施都可能時刻受到來自網(wǎng)絡(luò)的安全威脅。
“現(xiàn)在,迫切需要我們在網(wǎng)絡(luò)安全領(lǐng)域具備能打硬仗的能力?!币晃痪W(wǎng)絡(luò)安全領(lǐng)域的創(chuàng)始人兼CEO表示?!鞍踩褪枪シ缹梗@類技術(shù)的出現(xiàn),有點像火器的出現(xiàn)。兩軍對陣,本來拿著大刀長矛的,當(dāng)火器技術(shù)出現(xiàn)了,它會重塑人類的戰(zhàn)爭、行為方式?!绷硪晃淮髲S安全業(yè)務(wù)負責(zé)人也說。
出于或許相同的初衷,鈦媒體App不完全統(tǒng)計發(fā)現(xiàn),當(dāng)前,已經(jīng)有不少于7家網(wǎng)絡(luò)安全的公司披露了將GPT應(yīng)用在網(wǎng)絡(luò)安全領(lǐng)域的進展,包括微軟的Microsoft Security Copilot、360集團的360智腦、綠盟科技的智能安全客服機器人、啟明星辰的盤小古以及四維創(chuàng)智的ChatCS等等。
從各家披露的GPT落地方向來看,大部分都是面向安全事件響應(yīng)、漏洞挖掘、風(fēng)險研判等場景。不過,在與業(yè)內(nèi)人士交流的過程中,鈦媒體App發(fā)現(xiàn),雖然落地場景有重合,但從實現(xiàn)的技術(shù)路徑上,各家表現(xiàn)出了些許差異。
02 技術(shù)路線各有不同
拆解技術(shù)路線,其實還要從ChatGPT說起。
OpenAI的ChatGPT以及隨后迭代出的GPT4.0,包括當(dāng)前百度推出的文心一言等都屬于通用大模型,都沒有明顯的行業(yè)屬性,在一般場景下都能應(yīng)對自如,比如客服、文生圖等等。但遇到特別垂類且對答案容錯率較低的行業(yè)來說,由于缺乏專業(yè)知識,這類通用大模型會表現(xiàn)出可預(yù)見的劣勢。
所以當(dāng)網(wǎng)絡(luò)安全行業(yè)在使用GPT的時候,并不能像其他行業(yè)一樣直接接入已經(jīng)訓(xùn)練好的GPT4.0,而是需要重新構(gòu)建一個用網(wǎng)絡(luò)安全領(lǐng)域的專業(yè)知識訓(xùn)練出的大模型,然后再將其應(yīng)用到實踐中。
不過,在與業(yè)內(nèi)人士交流的過程中,鈦媒體App發(fā)現(xiàn),同樣是訓(xùn)練網(wǎng)絡(luò)安全領(lǐng)域的大模型,各家所選擇的技術(shù)路線也有所差異:他們有的是先有安全知識圖譜,然后在類ChatGPT的大模型基礎(chǔ)上加工;有的是沒有類ChatGPT的大模型,而是直接用安全知識圖譜訓(xùn)練成一個大模型;也有的可能并沒有強調(diào)知識圖譜,而是用所有數(shù)據(jù)直接訓(xùn)練。
“過往實踐過程中,我們積累了大量數(shù)據(jù),這些數(shù)據(jù)可能包含了安全日志、系統(tǒng)日志,威脅情報生產(chǎn)和分析過程數(shù)據(jù),開源情報和安全技術(shù)報告、APT報告等等,這些數(shù)據(jù)通過AI智能化,形成一系列實戰(zhàn)化攻防模型以及安全知識圖譜?!本G盟科技CTO葉曉虎表示。
在有了實戰(zhàn)化攻防模型以及安全知識圖譜后,綠盟科技利用類ChatGPT的大語言模型對這些知識做進一步加工,形成安全專業(yè)領(lǐng)域里面的類GPT的應(yīng)用,即今年三季度即將發(fā)布的網(wǎng)絡(luò)安全領(lǐng)域知識問答系統(tǒng)。
“我們所有下游任務(wù)都只基于ChatCS這一個大模型。在訓(xùn)練和應(yīng)用ChatCS之前,我們先花費精力做網(wǎng)絡(luò)安全領(lǐng)域的通用知識圖譜,然后利用知識圖譜的異構(gòu)數(shù)據(jù)歸一化能力生成數(shù)據(jù)集再去訓(xùn)練網(wǎng)絡(luò)安全領(lǐng)域的大模型。”四維創(chuàng)智人工智能項目負責(zé)人陳平表示。
陳平表示,他們所推出的ChatCS,是一個使用RLHF技術(shù)微調(diào)并利用知識圖譜進行領(lǐng)域知識約束的垂直領(lǐng)域大語言模型。思路是首先構(gòu)建以“漏洞概念”為核心的網(wǎng)絡(luò)安全領(lǐng)域知識圖譜—Vuln_Sprocket,再將圖譜生成先驗知識集訓(xùn)練模型,后續(xù),ChatCS能夠背景知識對用戶原始指令進行優(yōu)化。在最新的測試版本中,ChatCS_test 盡管只具備82億參數(shù),但已經(jīng)可以很好的完成領(lǐng)域知識問答、測試腳本生成、告警日志分析等操作。
目前,其余幾家網(wǎng)絡(luò)安全廠商還未完全披露訓(xùn)練GPT的路徑細節(jié),但據(jù)業(yè)內(nèi)人士分析,360集團的網(wǎng)絡(luò)安全GPT應(yīng)該是以通用大模型為底座,然后加入網(wǎng)絡(luò)安全相關(guān)數(shù)據(jù)調(diào)優(yōu)的路徑,與綠盟科技和四維創(chuàng)智都有很大不同。
不過殊途同歸。綠盟科技CTO葉曉虎稱,智能安全客服機器人達到的效果是,應(yīng)用可以在安全事件應(yīng)急響應(yīng)處置、海量日志分析研判、安全智能推理和決策、安全領(lǐng)域的代碼編寫等方面發(fā)揮積極作用。其余廠商的GPT實踐也與此多有重合。
03 又是一場長跑
值得注意的是,自ChatGPT爆火以來,也才100余天的時間。短短三四個月,網(wǎng)絡(luò)安全廠商們能夠快速上馬ChatGPT與其背后已經(jīng)積累的相關(guān)數(shù)據(jù)集有很大關(guān)系。但需要思考的一個問題是,既然網(wǎng)絡(luò)安全行業(yè)迫切需要也能夠有自己的大模型,為什么當(dāng)OpenAI火了之后,網(wǎng)絡(luò)安全圈才關(guān)注到大模型即將帶來的變革?
原因可能在于,對于大模型來說,技術(shù)可能并不是根本問題。問題一方面在高質(zhì)量的安全數(shù)據(jù)語料,而另一方面則是保持對人工智能信仰以及持續(xù)訓(xùn)練大模型的心態(tài)和思維。
“之前只是小規(guī)模嘗試過網(wǎng)絡(luò)安全AI自動化的事情,一兩次不達預(yù)期就沒有再嘗試。但ChatGPT用事實告訴我們這條路行得通,大家才敢放手投入。”一位網(wǎng)絡(luò)安全創(chuàng)業(yè)者表示。
除了試錯成功,大模型出現(xiàn)告訴網(wǎng)絡(luò)安全屆的另一個信號是,大模型確實有可能導(dǎo)致對抗方式底層邏輯的變化?!叭绻ㄓ么竽P湍軌虬阎悄芡评砗椭悄軟Q策應(yīng)用這條路走通的話,實際上可以讓對抗方式從過去的經(jīng)驗式變成范式化工作,之前經(jīng)驗存在于人腦,沒辦法復(fù)用,但如果走通這方面會有很多變化?!比~曉虎說。
很顯然,OpenAI的ChatGPT僅僅只是個開始,無數(shù)的試錯在等待蜂擁而上的中國創(chuàng)業(yè)者。這又是一場長跑。