隨著人工智能技術(shù)在產(chǎn)業(yè)中的不斷深化,AI系統(tǒng)已逐步成為企業(yè)關(guān)鍵業(yè)務(wù)的組成部分。與傳統(tǒng)IT系統(tǒng)不同,AI系統(tǒng)具備“自學(xué)習(xí)、自決策”的特性,這也意味著它們?cè)谶\(yùn)行過(guò)程中可能面臨更多非結(jié)構(gòu)化、動(dòng)態(tài)演變的風(fēng)險(xiǎn)場(chǎng)景。例如:
數(shù)據(jù)投毒:攻擊者通過(guò)惡意干擾訓(xùn)練數(shù)據(jù),誘導(dǎo)模型產(chǎn)生錯(cuò)誤輸出,影響系統(tǒng)決策。 對(duì)抗攻擊:輸入精心設(shè)計(jì)的對(duì)抗樣本可欺騙AI模型,繞過(guò)安全檢測(cè)或做出錯(cuò)誤判斷。 模型竊取與反向工程:AI模型作為企業(yè)核心資產(chǎn),易成為攻擊者試圖復(fù)制、反推出模型邏輯的目標(biāo)。 隱私泄露:模型訓(xùn)練過(guò)程中可能暴露敏感數(shù)據(jù),觸發(fā)GDPR等法規(guī)的合規(guī)風(fēng)險(xiǎn)。 系統(tǒng)不可控性:AI系統(tǒng)的不透明性與自適應(yīng)行為,使傳統(tǒng)安全檢測(cè)難以奏效。
這些問(wèn)題一旦發(fā)生,不僅可能導(dǎo)致企業(yè)數(shù)據(jù)資產(chǎn)受損、業(yè)務(wù)中斷,甚至還會(huì)引發(fā)合規(guī)風(fēng)險(xiǎn)。因此,構(gòu)建具備“可防御、可識(shí)別、可響應(yīng)”能力的AI安全體系,已成為企業(yè)當(dāng)前與未來(lái)不可回避的重要課題。
ETSI TS 104 223標(biāo)準(zhǔn)發(fā)布 為AI系統(tǒng)構(gòu)建系統(tǒng)性安全框架
為響應(yīng)日益突出的AI安全需求,歐洲電信標(biāo)準(zhǔn)協(xié)會(huì)(ETSI)于2025年4月正式發(fā)布了《Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems》——ETSI TS 104 223標(biāo)準(zhǔn)。
ETSI TS 104 223標(biāo)準(zhǔn)通過(guò)以下方式增強(qiáng) AI 系統(tǒng)的網(wǎng)絡(luò)安全性:
數(shù)據(jù)治理:確保 AI 系統(tǒng)使用的數(shù)據(jù)來(lái)源可靠,防止數(shù)據(jù)中毒等攻擊。 模型穩(wěn)健性:增強(qiáng) AI 模型對(duì)抗攻擊的能力,如對(duì)抗樣本和模型混淆。 透明性和可解釋性:提高 AI 系統(tǒng)的透明度,使其決策過(guò)程更易于理解和審查。 責(zé)任分配:明確各方在 AI 系統(tǒng)安全中的責(zé)任,確保在出現(xiàn)問(wèn)題時(shí)能夠迅速響應(yīng)。 持續(xù)評(píng)估和測(cè)試:定期對(duì) AI 系統(tǒng)進(jìn)行安全評(píng)估和測(cè)試,及時(shí)發(fā)現(xiàn)并修復(fù)潛在漏洞。
作為全球首個(gè)聚焦AI系統(tǒng)網(wǎng)絡(luò)安全的標(biāo)準(zhǔn)體系,該標(biāo)準(zhǔn)通過(guò)三大核心亮點(diǎn),為企業(yè)提供了清晰的建設(shè)路徑:
13項(xiàng)核心安全原則:為AI系統(tǒng)的安全設(shè)計(jì)與實(shí)現(xiàn)提供了頂層指導(dǎo)。 72條可操作性要求:細(xì)化了在AI系統(tǒng)生命周期各階段需要滿足的具體安全要求,具有很強(qiáng)的落地指導(dǎo)意義。 安全生命周期管控:將安全考慮融入AI的規(guī)劃、數(shù)據(jù)處理、模型開發(fā)、部署、運(yùn)行維護(hù)等生命周期的每一個(gè)環(huán)節(jié)。
通過(guò)這些規(guī)范,標(biāo)準(zhǔn)旨在建立一個(gè)可信賴的 AI 安全生態(tài)系統(tǒng),保護(hù)最終用戶免受不斷演變的網(wǎng)絡(luò)威脅。