阿里安全:安全AI將成未來網絡安全問題新解法
作者:星期一, 一月 14, 20190

想象一個場景:在未來世界里,出行有自動駕駛,穿衣有AI穿搭、AI機器人,住在AI打造的智能家居空間,AI會推薦更符合你身體所需營養成分的食品……看起來一切都便利了很多,但你會生活得更舒心、更安全嗎?

“AI發展趨勢是一定的,但AI應用來解決安全問題時并不能生搬硬套,需要根據實際場景進行AI的技術升級,”阿里安全圖靈實驗室負責人、資深專家薛暉(花名:奧創)近日接受記者采訪時表示,安全會成為未來AI開發的最大挑戰,“基于阿里安全在內容、新零售、知識產權等領域的對抗經驗,我認為‘安全AI’會成為未來網絡安全問題的新解法,也將在2019年迎來爆發期。”

阿里首提“安全AI”概念

無人駕駛、人臉識別、智慧城市、智能家居等各類場景中都在運用AI,但一旦后端控制系統被攻擊,出現規模化、連鎖式的崩盤,AI失控的后果不堪設想。

“比如,無人駕駛車要通過識別交通信號標志來決定是通行還是停止,而攻擊者可以生成一個欺騙通行標志的對抗樣本,在行人眼里是禁止通行,但AI系統會識別成允許通行,這足以造成災難性的后果,”薛暉表示,其原理就是通過打造精確的攻擊樣本欺騙分類器。

“事實上,現在已經出現了數據投毒(指故意造成的數據污染)、對抗式生成網絡偽造人臉識別等攻擊手段,”薛暉表示,在大量的AI技術落地之前,安全AI需要引起足夠的重視才能從源頭上防范更多的風險,“在這個背景下,阿里安全提出‘安全AI’的理念。”

薛暉解釋:所謂安全AI,是指安全場景中進化出的AI,擁有更強、更多元化的能力;與當前通用AI的理念不同,阿里安全更注重在業務安全領域垂直縱深的技術積淀,開發出適應更多安全場景的新一代AI,讓傳統的安全問題找到新的AI解法。

近期,基于問答技術、知識圖譜和對抗樣本等技術研發出的新一代AI驗證碼,就是阿里安全在安全AI領域的動作之一。這一產品原理是,通過AI挖掘生活常識類信息作為問答題庫,并對原始圖像有針對性的加入干擾,使得人眼識別不受影響,但會顯著降低黑產AI打碼的成功率。

基于安全AI理念,阿里安全圖靈實驗室推出的AI鑒黃師可識別圖片、彈幕、語音等多維度信息

再比如,用AI判定互聯網平臺上對于違規視頻的判定,除了計算機視覺技術之外,加入了語言、語音等多源網絡的設計,比如視頻畫面、視頻中的語音、彈幕和交互信息等多個維度。“知識圖譜、多源網絡、對抗樣本等構建出更強、更安全的AI技術能力,可以有效防范攻擊,降低風險,”薛暉表示。

安全AI將成網絡安全問題新解法

薛暉帶領的阿里安全圖靈實驗室近年來在安全AI領域的探索和研發已久,其成果被應用于風控、知識產權、智能云服務和新零售等商業場景,以及醫療、教育、出行等數億用戶相關的生活場景,已申請專利上百項。

未來趨勢之下,AI仍將迅猛發展,在更多商業、工業和生活場景中落地。安全AI的核心理念就是讓不可能變為可能,能極大解放人力,也將成為未來網絡安全問題的新解法。

薛暉認為,2019年也將是安全AI的爆發之年,“歐盟剛剛出臺《人工智能道德準則》,明確提出AI的發展方向應該是‘可信賴AI’,包含安全、隱私、透明等多個方面,AI應用正在成為一個社會問題,如何解決已經成為各界共同關注的話題。”

阿里安全一直堅持用技術解決社會問題,安全AI也在阿里經濟體的多個業務場景落地。結合多年從事安全研發的經驗,薛暉認為針對安全場景的AI設計,極限數據情況下的模型訓練、實現不同業態與場景下的模型遷移、決策場景下的模型可解釋性、強對抗場景下的模型安全性這四個方向將非常值得探索。

“以決策場景下的模型可解釋性為例,端到端的深度學習一個廣為詬病的問題是其不透明性或不可解釋性,比如說識別一張照片中的物體,機器做出是的判斷基于什么什么有效特征,我們無從得知。”薛暉認為,人工智能系統必須具有可解釋性,以便人類可以理解系統的行為。

“在面臨一些重大決策的情況下,比如患者被AI建議使用了某種很罕見的治療方案、無人車或無人機沒有按照既定的軌跡完成任務、或者AI被用來進行司法判決時,智能系統能夠給出判斷的依據甚至能夠與人類交換想法,無疑是至關重要的。“薛暉指出。

 

分享:
0

相關文章

寫一條評論

 

 

0條評論