希望為AI和機器學習標準的發展掃清道路,安全人工智能行業規范小組(Securing AI Intelligence Industry Specification Group)發布了 份報告,重點介紹了該 域的主要挑戰。
盡管在制造業中廣泛使用人工智能(AI)和機器學習可能還需要幾年的時間,但這兩種技術都已開始進入工廠車間并超越了工廠。這些技術的潛在應用范圍廣泛,因為通過連接的傳感器和設備傳遞的前所未有的數據量使經過適當培訓的AI算法可以幫助優化生產流程。

盡管如此,作為 種相對較新的技術,目前還缺少AI標準,這可能會阻礙其在工業中的進 步應用。特別是,缺乏標準可能會導致運營商難以實施,與其他系統的互操作性不足,對 佳實踐的了解不足,甚至可能存在網絡安全漏洞。
這就是為什么標準的發展常常預示著 項新技術開始成熟的原因。標準不僅可以通過加快創新來幫助供應商,而且還可以向 終用戶發出信號,表明該技術已根據許多參與標準制定過程的參與者所同意的標準被確定為有效。簡而言之,標準可降低成本,傳達重要信息并提高可靠性。
ETSI安全人工智能行業規范小組(SAI IG)當前是致力于保護AI的第 組織, 近發布了 份報告,描述了主要障礙,重點關注機器學習以及與機密性,完整性和可用性相關的障礙在技??術生命周期的每個階段。此外,該報告探討了人工智能面臨的更廣泛的挑戰,例如偏見,道德規范和濫用的可能性。
“圍繞AI道德有很多討論,但沒有關于確保AI安全的標準的討論。然而,它們對于確保基于AI的自動化網絡的安全性至關重要。” ETSI SAI ISG主席Alex Leadbeater說道。“第 份ETSI報告旨在對保護AI時面臨的挑戰做出全面定義。同時,我們正在研究威脅本體,如何保護AI數據供應鏈以及如何對其進行測試。”
在該報告中,機器學習生命周期分為八個階段,每個階段都有其自身的獨特風險:數據獲取,數據策劃,模型設計,軟件構建,培訓,測試,部署和更新。
在數據采集和管理階段,主要問題是完整性。換句話說,當集成來自多個來源或多種格式的數據時,測量參數或數據結構的不 致性可能會導致適應不良的機器學習算法,從而導致糟糕的決策甚至是危險的決策。此外,該報告還考慮了惡意行為者可能故意破壞數據以在手術中造成混亂的可能性。
盡管模型設計和軟件構建階段被認為是相對安全的,但該報告發現,在機器學習算法的訓練階段,類似的甚至是更為嚴重的安全問題可能會出現。
例如,如果攻擊者使用旨在欺騙算法以輸出包含有關原始訓練數據信息的標簽的合成輸入數據來增強訓練數據集的機密性,則可能會損害其機密性。這種類型的數據泄漏可能需要與業務相關的信息,例如知識產權或敏感的人員信息。
SAI IG希望通過闡明圍繞AI和機器智能的主要問題,目前尚未提出改善這些問題的明確標準。