創(chuàng)澤機(jī)器人 |
CHUANGZE ROBOT |
一種是應(yīng)用新技術(shù)服務(wù)于安全領(lǐng)域,我們說是新技術(shù)賦能安全領(lǐng)域。當(dāng)然既可以服務(wù)于防御行為,利用大數(shù)據(jù)可以分析網(wǎng)絡(luò)安全態(tài)勢,這算是賦能防御;也可以服務(wù)于攻擊行為,例如量子計算機(jī)的出現(xiàn)導(dǎo)致現(xiàn)有的密碼體系失去了原有意義,這是賦能攻擊。
第二種是每出現(xiàn)一種新技術(shù)就會帶來新的安全問題,我們說這屬于安全的一種伴生技術(shù)。它也有兩種情況,一種是新技術(shù)本身不成熟帶來了自身的安全問題,例如移動互聯(lián)網(wǎng)的基站帶來了偽基站攻擊的問題,這屬于內(nèi)生安全;還有一種情況是新技術(shù)的問題對自身沒有什么影響,但危害了其他領(lǐng)域,例如區(qū)塊鏈的去中心化問題 原本屬于“可控性缺失”的缺陷,其對區(qū)塊鏈本身沒有什么影響,但卻挑中了中心制管理體系(如比特幣就不能沒收違法所得),這屬于衍生安全。
人工智能賦能于安全領(lǐng)域
首先,人工智能可以賦能于防御。人工智能機(jī)器學(xué)習(xí)模型為積 極主動的網(wǎng)絡(luò)防御帶來了新途徑。智能模型采用積極主動的方式,而不是傳統(tǒng)的被動應(yīng)對方式;同時,利用人工智能的預(yù)測能力和機(jī)器學(xué)習(xí)的進(jìn)化能力,可以為我們提供抵御復(fù)雜網(wǎng)絡(luò)威脅的手段。本質(zhì)上來講,最重要的變化是在網(wǎng)絡(luò)攻擊發(fā)生之前就進(jìn)行預(yù)警并采取阻斷措施。麻省理工學(xué)院研發(fā)的基于人工智能的網(wǎng)絡(luò)安全平臺AI2,用人工智能方法來分析網(wǎng)絡(luò)攻擊情況,幫助網(wǎng)絡(luò)安全分析師做那些類似“大海撈針”的工作。AI2系統(tǒng)首先利用機(jī)器學(xué)習(xí)技術(shù)自主掃描數(shù)據(jù)和活動,把發(fā)現(xiàn)的結(jié)果反饋給網(wǎng)絡(luò)安全分析師。網(wǎng)絡(luò)安全分析師將會標(biāo)注哪些是真正的網(wǎng)絡(luò)攻擊活動,并將工程師的反饋納入AI2系統(tǒng),從而用于對新日志的自動分析。在測試中,研究小組發(fā)現(xiàn)AI2的準(zhǔn)確性約為現(xiàn)今所使用的自動分析工具的3倍,大大減少誤報的概率。另外,AI2在分析過程中可以不斷產(chǎn)生新模型,這意味著它可 以快速地改善自己的預(yù)測率。系統(tǒng)檢測越多的攻擊活動,收到來自分析師的反饋越多,相對地可以不斷提高未來預(yù)測的準(zhǔn)確性。據(jù)報道,AI2通過超過3.6億行日志文件的訓(xùn)練,使其可以分析出85%的攻擊行為,以便告警可疑行為。
其次,人工智能可以賦能網(wǎng)絡(luò)攻擊,業(yè)內(nèi)稱之為自動化或智能化網(wǎng)絡(luò)攻擊。通過機(jī)器人在人完全不干預(yù)的情況下,自動化地進(jìn)行計算機(jī)的攻擊。近年來連續(xù)發(fā)生的重大黑客事件,包括核心數(shù)據(jù)庫泄密、數(shù)以億計的賬戶遭入侵、WannaCry勒索病毒等都具有自動化攻擊的特點(diǎn)。通過借助自動化工具,攻擊者可以在短時間內(nèi),以更高效、更隱蔽的方式對大量不同網(wǎng)站進(jìn)行漏洞掃描和探測,尤其對于0day/Nday漏洞的全網(wǎng)探測,將會更為頻繁和高效。人工智能強(qiáng)大的數(shù)據(jù)挖掘和分析能力,以及由此帶來的智能化服務(wù),經(jīng)常被黑客組織加以利用,借助于人工智能技術(shù),形成更為擬人化和精密化的自動化攻擊趨勢,這類機(jī)器人模擬真人的行為會更聰明、更大膽,也更難以追蹤和溯源。當(dāng)前,自動化、智能化的網(wǎng)絡(luò)攻擊正在不斷讓網(wǎng)絡(luò)安全防線頻頻失守,而這顯然需要引起網(wǎng)絡(luò)安全行業(yè)的足夠重視,需要從了解自動化網(wǎng)絡(luò)攻擊行為特點(diǎn)入手,及時采取措施。
早在2013年,美國DARPA就發(fā)起網(wǎng)絡(luò)超級挑戰(zhàn)賽(Cyber Grand Challenge,CGC),旨在推進(jìn)自動化網(wǎng)絡(luò)攻防技術(shù)的發(fā)展,即實(shí)時識別系統(tǒng)漏洞,并自動完成打補(bǔ)丁和系統(tǒng)防御,最終實(shí)現(xiàn)全自動的網(wǎng)絡(luò)安全攻防。DARPA給了104支參賽隊伍以兩年的時間做準(zhǔn)備,要求他們首先開發(fā)一套全自動的網(wǎng)絡(luò)推理系統(tǒng)(Cyber Reasoning System,CRS),以便依靠人工智能技術(shù)來支撐網(wǎng)絡(luò)攻擊。CRS可對主辦方動態(tài)給定的挑戰(zhàn)性程 序(Challenge Binary,CB)進(jìn)行自動漏洞挖掘與補(bǔ)丁生成(防御),需自動生成打補(bǔ)丁后的加固程序(Replacement CB,RCB);需自動生成漏洞利用程序(攻擊),即自動生成攻擊程序(Proof of Vulnerability,PoV);需自動生成入侵檢測(IDS)規(guī)則。2015年6月3日進(jìn)行了初賽,24小時內(nèi),各隊CRS在無人干預(yù)的情況下自動下載組織方提供的131道存在已知內(nèi)存處理漏洞的CB,其共包含覆蓋了53個不同類型的通用缺陷列表(Common Weakness Enumeration,CWE)的590個漏洞,CRS需要自動分析程序并查找漏洞,然后提交自動生成的RCB和PoV。比賽結(jié)果是所預(yù)留的全部漏洞都分別被不同的CRS成功的發(fā)現(xiàn)并修補(bǔ)。最終有7支隊伍進(jìn)入了決賽。決賽在2016年8月4日進(jìn)行。決賽階段增加了線上參賽隊之間的實(shí)時對抗,并增加了網(wǎng)絡(luò)防御能力(CRS可以自動 生成IDS規(guī)則)的評測。裁判機(jī)使用CRS提交的RCB、PoV和IDS規(guī)則,在獨(dú)立、隔離環(huán)境下交叉驗證(用A隊的PoV攻擊B隊的RCB),通過綜合攻擊表現(xiàn)、防御表現(xiàn)、功能損失、性能損失來進(jìn)行評判。最終,卡內(nèi)基梅隆大學(xué)的For All Secure團(tuán)隊的Mayhem獲得CGC冠軍,進(jìn)而獲得人類的Defcon CTF參賽資格。在2016年8 月5-7日舉辦的Defcon CTF上,卡內(nèi)基梅隆大學(xué)的Mayhem機(jī)器CTF戰(zhàn)隊與另外14支人類頂尖CTF戰(zhàn)隊同臺較量,并一度超過2支人類戰(zhàn)隊排名第13。自動化攻擊系統(tǒng)能站上Defcon CTF賽場,開創(chuàng)了“機(jī)器智能”和“自動化攻防”的新局面。由此可見,人工智能在賦能攻擊的方面還是很強(qiáng)大的。
人工智能所伴生的安全問題
人工智能自身存在著脆弱性,例如對抗樣本就是人工智能的內(nèi)生安全問題。對抗樣本是機(jī)器學(xué)習(xí)模型的一個有趣現(xiàn)象,反映出了人工智能算法的弱點(diǎn)。攻擊者通過在源數(shù)據(jù)上增加人類難以通過感官辨識到的細(xì)微改變,但是卻可以讓機(jī)器學(xué)習(xí)模型接受并做出錯誤的分類決定。一個典型的場景就是圖像分類模型的對抗樣本,通過在圖片上疊加精心構(gòu)造的變化量,在肉眼難以察覺的情況下,讓分類模型產(chǎn)生誤判。對抗樣本除在圖像識別領(lǐng)域存在,也在其他領(lǐng)域存在,如語音、文本等。從網(wǎng)絡(luò)安全領(lǐng)域看,同樣存在類似于對抗樣本的攻擊問題,攻擊者通過對惡意代碼插入擾動操作就有可能對人工智能模型產(chǎn)生欺騙。例如,有人就設(shè)計了一個惡意樣本,讓分類器將一個存有惡意行為的軟件認(rèn)定為良性的變體,從而可以構(gòu)造能自動逃逸PDF惡意軟件分類器的攻擊方法,以此來對抗機(jī)器學(xué)習(xí)在安全中的應(yīng)用。上述安全問題都可能會導(dǎo)致同樣后果,就是導(dǎo)致人工智能系統(tǒng)發(fā)生錯誤的決策、判斷,以及系統(tǒng)被控制等問題。
人工智能技術(shù)存在著巨大的安全性挑戰(zhàn)。目前人工智能系統(tǒng)還無法超出固有的場景或?qū)μ囟ㄕZ境的理解,人工智能技術(shù)在下棋或游戲等有固定規(guī)則的范圍內(nèi)一般不會暴露其脆弱性,當(dāng)環(huán)境數(shù)據(jù)與智能系統(tǒng)訓(xùn)練的環(huán)境大相徑庭,或者實(shí)際的應(yīng)用場景發(fā)生變化,或者這種變化超出機(jī)器可理解的范圍時,人工智能系統(tǒng)可能就立刻失去判 斷能力。美國智庫“新美國安全中心”最近發(fā)布的《人工智能:每個決策者需要知道什么》報告顯示,人工智能的一些弱點(diǎn)可能對國家安全等領(lǐng)域造成巨大影響。
人工智能的失誤可能會給人類帶來災(zāi)難,從而會形成衍生安全問題。2016年5月7日,在佛羅里達(dá)州公路上一輛處于“自動駕駛”模式的特斯拉Model S以74英里的時速,撞上了拐彎中的白色拖掛式大貨車。Model S從貨車車底穿過,車頂被完全掀飛,40歲的駕駛員Joshua Brown不幸死亡。出事路段限制時速為65英里/時。由于 “自動駕駛”模式車前的高清攝像頭為長焦鏡頭,當(dāng)白色拖掛卡車進(jìn)入視覺區(qū)域內(nèi)時,攝像頭只能看到懸浮在地面上的卡車中部,而無法看見整個車輛;此外,當(dāng)時陽光強(qiáng)烈(藍(lán)天白云),使得自動駕駛系統(tǒng)無法識別出障礙物是一輛卡車,而更像是飄在天上的云,導(dǎo)致自動剎車未生效。這次事故引發(fā)了外界對自動駕駛汽車安全性的爭議。這種自動駕駛的缺陷導(dǎo)致人類傷亡的事情,是典型的人工智能衍生安全的案例。
當(dāng)前,人們已經(jīng)開始關(guān)注人工智能自身的安全問題,霍金曾經(jīng)在2015年8月與美國Reddit 網(wǎng)的問答互動中,提出了人工智能“威脅論”的觀點(diǎn),后又曾多次在世界知名期刊撰文強(qiáng)調(diào)類似看法。比爾•蓋茨稱,人類在人工智能領(lǐng)域已經(jīng)取得了很大進(jìn)展,這些進(jìn)展能讓機(jī)器人在接下來的10年內(nèi)學(xué)會駕駛和做家務(wù),在一些特定的領(lǐng)域甚至能比人類優(yōu)秀。但是之前他曾經(jīng)提出警告,“人工智能如果進(jìn)展太快,可能會對未來的人類造成一定威脅”。特斯拉創(chuàng)始人馬斯克在Code大會上也預(yù)測智能機(jī)器人未來,他認(rèn)為未來人類生活將離不開虛擬現(xiàn)實(shí)技術(shù),而這一技術(shù)的高度發(fā)展將使人類很難分辨出真實(shí)與游戲的區(qū)別;加之人工智能的飛速發(fā)展,人類智商將會止步不前;最為嚴(yán)重的后果是機(jī)器人反超人類成為實(shí)際運(yùn)營世界的主體,人類在機(jī)器人心中可能如寵物一般的存在。
防止人工智能體行為失控的方案
隨著人工智能技術(shù)的高速發(fā)展,人工智能行為體越來越有可能在不遠(yuǎn)的將來成為人類生活重要組成部分。目前,相關(guān)研究領(lǐng)域?qū)<乙颜J(rèn)識到人工智能存在巨大風(fēng)險,并從人工智能安全設(shè)計原則、標(biāo)準(zhǔn)規(guī)范、道德倫理方面進(jìn)行呼吁。但是,針對如何設(shè)計一個防止具有行為能力的人工智能系統(tǒng)失控的裝置?該裝置應(yīng)具備的什么樣的控制功能和性能指標(biāo)?該裝置的軟硬件形態(tài)是什么?這些目前尚無研究成果。
人工智能為什么會危害人類?前提是要有一個具有行為能力的、由人工智能來操作的行為體。人工智能行為體是指一類能感知外部環(huán)境并將之作為輸入,通過內(nèi)部算法進(jìn)行決策,并利用自身驅(qū)動裝置與物理世界產(chǎn)生交互行為的自主硬件實(shí)體。自動行走機(jī)器人、自動駕駛汽車和人工智能武器等,都是人工智能行為體的類型。人工智能行為體需要有感知外部環(huán)境、內(nèi)部控制邏輯、運(yùn)動驅(qū)動裝置和自主能力(自學(xué)習(xí))四個要素的體現(xiàn)。外部環(huán)境包括所處的自然環(huán)境和相關(guān)生物體等;內(nèi)部控制邏輯是指預(yù)制在人工智能行為體內(nèi)部,用于產(chǎn)生運(yùn)動行為的程序;運(yùn)動驅(qū)動裝置是可與物理世界交互,或者可改變?nèi)斯ぶ悄苄袨轶w處所空間坐標(biāo)的硬件;自主能力是指人工智能行為體可以自己設(shè)定要達(dá)到的目標(biāo)函數(shù)或自主決策,而非由人類設(shè)定目標(biāo)。
人工智能在什么情況下會危害人類?需要同時滿足三個條件,第一,有行為能力,AlphaGo是下棋機(jī)器人,不能動,所以不會危害人類;第二,有足夠破壞力的動能,有危害性,掃地機(jī)器人不具有破壞的動能,所以不會危害人類;第三,具有自主能力,完全聽命于人類的系統(tǒng),不會主動傷害人類,但會誤傷人類。
首先,能動的問題已解決;第二,有破壞力的機(jī)器人也已經(jīng)存在,這是一個危險因素;第三個要素,自主行為體。運(yùn)動體已經(jīng)比比皆是,破壞力已經(jīng)突破掉了,關(guān)鍵就是能不能自主。但是我們不能太相信機(jī)器人不會自我進(jìn)化到具有危害人類的程度,所以對它預(yù)先要有約束。針對機(jī)器人來說有一個國際標(biāo)準(zhǔn),提出了四種約束條件。第一是安全級的監(jiān)控停止,當(dāng)出現(xiàn)問題時,有讓它停止的能力;第二是手動引導(dǎo),做什么事情讓它做它才開始做,如果這個機(jī)器人只能手動才開始做,它就沒辦法給自己設(shè)定攻擊性目標(biāo);第三是速度和距離監(jiān)控,當(dāng)它和人比較接近時,速度必須降下來;第四是功率和力的限制,當(dāng)和人接近時其功率必須迅速降下來。這些都是保護(hù)人類要做的事情。
我們提出一種如圖1所示的防止人工智能行為體失控的方法——AI保險箍。圖中,串聯(lián)模塊用于與人工智能行為體的決策系統(tǒng)和驅(qū)動裝置連接;反摘除模塊用于在發(fā)生暴力拆除時,毀滅人工智能行為體,其確保本裝置無法從人工智能行為體總摘除。AI保險箍方法的核心要點(diǎn)包括:①人工智能行為體的驅(qū)動裝置需采取主動探測或被動監(jiān)聽等方法,以檢測到一個授權(quán)的、認(rèn)證的、可信的控制系統(tǒng)(AI保險箍)的存在,并接受其完全控制;② 當(dāng)人工智能行為體無法檢測到一個授權(quán)的、認(rèn)證的、可信的控制系統(tǒng)存在時,應(yīng)停止一切工作;③ 速度與距離監(jiān)控,當(dāng)人工智能行為體中某個危險部件與人之間的距離小于安全距離時,觸發(fā)保護(hù)停止、觸發(fā)與人工智能行為體相連的安全級功能;④ 在人工智能行為體發(fā)生失控時,系統(tǒng)能根據(jù)遠(yuǎn)程控制命令,實(shí)現(xiàn)人工智能行為體的遠(yuǎn)程控制,使其無法危害人類或?qū)⑽:刂频阶畹停虎?系統(tǒng)會對人工智能行為體進(jìn)行風(fēng)險識別,當(dāng)識別出風(fēng)險時,發(fā)出警報示警,進(jìn)一步防止人工智能行為體因為失控而造成的損害。
結(jié)束語
人工智能作為最具顛覆性和戰(zhàn)略性的核心關(guān)鍵技術(shù),持續(xù)引起全球產(chǎn)業(yè)界、學(xué)術(shù)界和各國政府的高度關(guān)注。當(dāng)前,人工智能技術(shù)在安全領(lǐng)域的應(yīng)用需求日益迫切,同時,人工智能自身的安全問題也不容小覷,安全與人工智能并舉,雙方的融合發(fā)展與創(chuàng)新是我強(qiáng)國戰(zhàn)略中不可忽視的重要助推因素。
機(jī)器人招商 Disinfection Robot 機(jī)器人公司 機(jī)器人應(yīng)用 智能醫(yī)療 物聯(lián)網(wǎng) 機(jī)器人排名 機(jī)器人企業(yè) 機(jī)器人政策 教育機(jī)器人 迎賓機(jī)器人 機(jī)器人開發(fā) 獨(dú)角獸 消毒機(jī)器人品牌 消毒機(jī)器人 合理用藥 地圖 |