“全球藍(lán)屏”事件發(fā)出預(yù)警,AI時(shí)代網(wǎng)絡(luò)安全威脅有多大?
迅猛發(fā)展的人工智能(AI)浪潮正席卷全球,網(wǎng)絡(luò)安全領(lǐng)域也受到巨大影響。不久前的“全球藍(lán)屏”事件已經(jīng)證明,現(xiàn)代社會(huì)對(duì)于信息化的依賴度有多強(qiáng),而構(gòu)建在大數(shù)據(jù)基礎(chǔ)上的AI時(shí)代,又將如何保證網(wǎng)絡(luò)安全?《環(huán)球時(shí)報(bào)》記者在7月31日到8月1日舉行的ISC.AI 2024第十二屆互聯(lián)網(wǎng)安全大會(huì)上,聽取了多名業(yè)內(nèi)專家的見解。
當(dāng)前AI存在特殊缺陷
中央網(wǎng)絡(luò)安全和信息化委員會(huì)辦公室副主任、國(guó)家互聯(lián)網(wǎng)信息辦公室副主任王京濤在致辭中表示,截至目前,我國(guó)已經(jīng)完成備案并上線、能為公眾提供服務(wù)的生成式AI服務(wù)大模型已達(dá)180多個(gè),注冊(cè)用戶已突破5.64億。
但是目前的AI在自身基礎(chǔ)理論和具體應(yīng)用上都還存在諸多特殊缺陷。中國(guó)科學(xué)院院士、清華大學(xué)計(jì)算機(jī)系教授張鈸在大會(huì)主題演講中表示,當(dāng)前流行的生成式AI擁有語言生成、自然語言交互和遷移三大能力,但同時(shí)也存在“幻覺”缺陷,也就是“一本正經(jīng)地亂說”,而且“很多情況下AI并不知道自己說錯(cuò)了”。他表示,生成式AI的這個(gè)缺陷與“三大能力”是同時(shí)出現(xiàn)的,“這是因?yàn)槲覀円笏卸鄻有缘妮敵觯厝痪蜁?huì)產(chǎn)生錯(cuò)誤。這種跟機(jī)器都會(huì)產(chǎn)生常見錯(cuò)誤非常不一樣,后者往往是我們可以控制的,而生成式AI的錯(cuò)誤是本身的錯(cuò)誤,是一定會(huì)發(fā)生的,而且是我們不可控的。”
中國(guó)工程院院士、國(guó)家數(shù)字交換系統(tǒng)工程技術(shù)研究中心主任鄔江興表示,人類社會(huì)正在以前所未有的熱情擁抱AI時(shí)代的來臨,但是人類社會(huì)也正面臨前所未有的AI安全威脅。AI應(yīng)用系統(tǒng)安全問題既包括傳統(tǒng)的網(wǎng)絡(luò)安全問題,也有獨(dú)特的內(nèi)生安全個(gè)性問題,這成為當(dāng)前AI推廣應(yīng)用中的最大障礙。鄔江興表示,內(nèi)生安全個(gè)性問題存在著“三不可問題”,即不可解釋性、不可推論性、不可判識(shí)性。不可解釋性是指通過訓(xùn)練擬合階段,讓AI從大數(shù)據(jù)掌握到知識(shí)規(guī)律,但其中的工作原理是什么,我們?nèi)匀徊幻鞔_,一旦出現(xiàn)問題,想要定位具體故障點(diǎn)有難度。不可判識(shí)性是指用來訓(xùn)練AI的大數(shù)據(jù)質(zhì)量高低直接影響到大模型的判斷結(jié)果。不可推論性是指AI目前對(duì)沒有經(jīng)歷過的未知事物通常是無法理解和判斷的。
“全球藍(lán)屏”事件已發(fā)出預(yù)警
王京濤強(qiáng)調(diào)說,網(wǎng)絡(luò)安全是一項(xiàng)系統(tǒng)工程,涉及的領(lǐng)域廣、方面多,維護(hù)網(wǎng)絡(luò)安全不僅是政府的事,也是全社會(huì)的共同責(zé)任,需要企業(yè)、社會(huì)組織、網(wǎng)民等各方共同參與,共筑防線。關(guān)鍵信息基礎(chǔ)設(shè)施是經(jīng)濟(jì)社會(huì)運(yùn)行的神經(jīng)中樞,是國(guó)家網(wǎng)絡(luò)安全工作的重中之重。當(dāng)前,萬物互聯(lián)、產(chǎn)業(yè)數(shù)字化日趨明顯,經(jīng)濟(jì)社會(huì)運(yùn)行和人民生產(chǎn)生活對(duì)關(guān)鍵信息基礎(chǔ)設(shè)施的依賴性日益增強(qiáng),網(wǎng)絡(luò)攻擊、供應(yīng)鏈中斷等都可能帶來嚴(yán)重影響。
如果說在個(gè)人電腦時(shí)代,網(wǎng)絡(luò)安全是指存儲(chǔ)在電腦里的信息安全,在移動(dòng)互聯(lián)網(wǎng)時(shí)代,網(wǎng)絡(luò)安全可能影響財(cái)務(wù)的安全,那么在AI時(shí)代,網(wǎng)絡(luò)安全面臨什么樣的新威脅呢?
360集團(tuán)創(chuàng)始人周鴻祎表示,不久前美國(guó)“眾擊”公司升級(jí)程序錯(cuò)誤導(dǎo)致的“全球藍(lán)屏”事件造成全球航空業(yè)癱瘓,就已經(jīng)提前發(fā)出了警告。他表示,過去電腦、手機(jī)都只是個(gè)人工具,存放的都是個(gè)別信息,遭到攻擊后損失和影響范圍相對(duì)有限;但在數(shù)字化時(shí)代,電腦、網(wǎng)絡(luò)和數(shù)據(jù)在生產(chǎn)流程和很多關(guān)鍵基礎(chǔ)設(shè)施中發(fā)揮了極大作用,如果受到網(wǎng)絡(luò)攻擊,會(huì)影響整個(gè)社會(huì)的正常運(yùn)行,導(dǎo)致醫(yī)院開不了門、柜臺(tái)無法值機(jī)、麥當(dāng)勞結(jié)不了賬。而AI時(shí)代的這個(gè)問題進(jìn)一步放大了,未來AI可以發(fā)揮的作用遠(yuǎn)非現(xiàn)在看到的“寫篇作文”“做點(diǎn)圖片”。他以AI最典型的應(yīng)用場(chǎng)景——無人駕駛為例介紹說,未來真正實(shí)現(xiàn)無人駕駛汽車,駕駛座上可以完全沒有人時(shí),如果車廠運(yùn)營(yíng)中心遭到網(wǎng)絡(luò)攻擊,后果遠(yuǎn)超想象。輕則是車輛跟車廠失去聯(lián)系,很多車只能趴窩無法行駛。更嚴(yán)重的是“黑客控制了車廠服務(wù)器”。因?yàn)樽詣?dòng)駕駛汽車都是通過車聯(lián)網(wǎng)聽從車廠的AI遙控指揮,“車廠的網(wǎng)絡(luò)結(jié)構(gòu)非常復(fù)雜,網(wǎng)絡(luò)攻擊的難度比針對(duì)單輛自動(dòng)駕駛汽車的難度要低得多。”因此黑客控制了車廠的AI中心服務(wù)器,就可以給它所控制的自動(dòng)駕駛汽車下達(dá)各種指令,可能導(dǎo)致車門打不開,或者一路狂奔,后果非常嚴(yán)重。
周鴻祎還提到,外界普遍預(yù)測(cè)未來很多養(yǎng)老服務(wù)會(huì)由機(jī)器人負(fù)責(zé),如果它們因網(wǎng)絡(luò)攻擊失控更可怕,“比如機(jī)器人正在給你洗頭、洗澡,突然接到黑客指令,如果只是不動(dòng)了還好辦,就怕傳來的指令是‘再用力一點(diǎn)’”。
以模制模,“用魔法打敗魔法”
周鴻祎表示,網(wǎng)絡(luò)安全行業(yè)有很多痛點(diǎn)能用AI解決。比如海量的數(shù)據(jù)分析難、快速處置難、追蹤溯源所需要的安全專家人力不足等。“今天傳統(tǒng)網(wǎng)絡(luò)安全最大痛點(diǎn)就是缺乏專業(yè)的網(wǎng)絡(luò)安全人才,中國(guó)有100多萬專業(yè)人才的缺口,在發(fā)現(xiàn)攻擊、抵御攻擊、情況處置、自動(dòng)化運(yùn)營(yíng)方面現(xiàn)在跟不上時(shí)代要求。我們通過訓(xùn)練安全大模型,通過AI自動(dòng)化解決發(fā)現(xiàn)攻擊、解決攻擊和運(yùn)營(yíng)處置的問題,可以提高水平,能夠填補(bǔ)這塊人才的缺口。”
但周鴻祎也承認(rèn),AI在網(wǎng)絡(luò)安全領(lǐng)域帶來了新挑戰(zhàn),“首先是AI一定會(huì)成為壞人的工具,包括如何編寫攻擊軟件、編寫釣魚網(wǎng)站。現(xiàn)在網(wǎng)絡(luò)安全是人跟人的對(duì)抗,未來會(huì)生成人和機(jī)器的對(duì)抗,最后發(fā)展成機(jī)器和機(jī)器的對(duì)抗。所以必須要用AI應(yīng)對(duì)AI升級(jí)的安全問題。”
其次,現(xiàn)在很多國(guó)家都意識(shí)到AI安全治理問題,隨著AI的發(fā)展,會(huì)帶來很多網(wǎng)絡(luò)安全之外、數(shù)據(jù)安全之外新的安全威脅和安全挑戰(zhàn)。“眼前的挑戰(zhàn)還不明顯,可能我們看到的還是內(nèi)容安全,但是將來會(huì)出現(xiàn)更多我們現(xiàn)在還無法預(yù)測(cè)的網(wǎng)絡(luò)安全問題。所以從現(xiàn)在開始要有人解決AI安全的問題。”他認(rèn)為,AI帶來的安全問題用傳統(tǒng)安全思路解決是不行的,因?yàn)锳I比傳統(tǒng)的軟件要聰明。所以對(duì)AI就得“以模制模”,必須用大模型解決大模型的安全問題。
中國(guó)網(wǎng)絡(luò)空間安全協(xié)會(huì)副理事長(zhǎng)盧衛(wèi)也表示,人工智能的發(fā)展和治理,就是有關(guān)全人類的共同命運(yùn)。人工智能學(xué)習(xí)模型存在很多問題,同時(shí)數(shù)據(jù)有很多自身風(fēng)險(xiǎn)。在發(fā)展的過程中,一定要應(yīng)對(duì)好、梳理好這些風(fēng)險(xiǎn)。“我們國(guó)家對(duì)安全高度重視,在確保安全的情況下發(fā)展人工智能,已經(jīng)建立或者正在建立比較完整的治理體系。目前AI模型的安全性落后于現(xiàn)在的性能和發(fā)展,要引起重視。安全治理要圍繞以人為本、智能向善、公平正義、負(fù)責(zé)任、非惡意、防攻擊等重點(diǎn)環(huán)節(jié)展開。”