IBM 的人工智能工具箱讓你簡單測試深度學習網絡 (DNN)
IBM今天宣布推出Adversarial Robustness Toolbox予AI的開發人員。這個開源工具包齊集了機器學習程序員攻擊深度學習神經網絡(DNN)所需的材料,以確保它們能夠承受真實世界的條件和內容。
該工具箱採用代碼庫的形式,其中包括攻擊,防禦的實用程序和基準測試工具,這些工具允許開發人員將舊有的韌性轉化成對抗攻擊。這就像AI的混合武術訓練師用來評估DNN的韌性一樣,教導它制定防禦技術,並提供一種內部的防病毒層。這或許不是一個標準練習的地方,但對DNN來說絕對是至關重要的。
對抗攻擊是由敵人對DNN進行攻擊,並以多種方式希望可以破壞,重新導向或欺騙AI,從在物理方面混淆到對付DNN的機器學習來達到反AI的目標。在中國,面部識別軟件是他們執法技術的其中一個組成部分,其中包括配備人工智能的閉路電鏡頭,能夠在6萬多人中挑出一張臉。隨著人工智能變得更有能力,西方世界可能也會仿效。
外國資訊網站TheNextWeb(TNW)早前報導了以下圖片中語音系統的漏洞,欺騙語音到文本的系統。這對語音助理來說固然是壞消息,代表著黑客們現在可以簡單地坐在公共交通工具或辦公室裡,並假裝自己聽一首歌曲來嵌入信號。
這些威脅還包括欺騙GPS來誤導船隻,攻擊船載系統,偽裝船隻ID以欺騙AI驅動的衛星等等。隨著更多的全球人工智能系統上線,國家支持針對軍艦行動的可能性也逐漸成為事實。去年,美國海軍領導人在回答有關海上一系列問題時,對抗系統攻擊的想法已經不止一次出現。
其實特別容易受攻擊的AI系統還包括無人駕駛汽車和軍用無人機,如果AI系統的安全受到威脅,兩者都可能會被黑客控制。實際上,所有的DNN都需要具備抵禦攻擊的能力,不是的話就與沒有病毒防護的計算機一樣有用。
有關IBM新Adversarial Robustness Toolbox的更多信息,您可以查看該公司的博客文章。
資料來源: TheNextWeb