AIGC時代的資訊安全防範措施
隨著生成式人工智慧(AIGC)技術的飛速發展,我們正邁入一個嶄新的時代。這一技術的核心在於深度學習和神經網路演算法的不斷精進,它正推動著產業界的技術革新與多元化應用。在教育、醫療、娛樂及金融等多個關鍵領域,AIGC技術正展現出其廣泛的應用前景。
而不同產業界AIGC技術的使用,涉及用戶的方方面面,這些不同的應用很多都是以收集或者處理用戶不同的個人資訊為前提,這也就給用戶帶來了個人資訊使用不當,虛假資訊傳播,用戶隱私洩露等各種問題。AIGC時代給個人資訊的保護帶來了新挑戰。
對於訓練數據選取帶來的問題,應制定相關行業規範或管理條例,明確資訊可用範圍與程度。我國《生成式人工智慧服務管理暫行辦法》中要求模型訓練數據應具有合法來源,不得侵害他人知識產權,且應依法使用個人資訊。在具體實施過程中,可以進一步對來自不同管道數據的使用限度加以分類規範。此外,可加強數據脫敏與敏感數據識別技術的研發,在保障個體與國家資訊安全的前提下盡可能拓寬大模型發展空間。對不當數據選取、標注或演算法薄弱性帶來的公平問題,既要求研發方明確標注規範,也應加強對人類回饋強化學習(RLHF)、AI回饋強化學習(RLAIF)和上下文學習(ICL)等技術的開發和應用,從技術上持續糾偏。
加強數據保護和管理:確保數據的合法獲取和存儲,加強數據加密和訪問控制機制,防止未經授權的訪問和濫用。
引入隱私保護技術:在演算法設計和模型訓練過程中引入差分隱私、同態加密等隱私保護技術,以降低隱私洩露的風險。
加強監管和自律:政策制定者和企業應加強監管和自律,制定嚴格的隱私保護政策和標準,促進AIGC技術的健康發展。
針對用戶資訊與情境資訊過度獲取與留存問題,應從監管與開發兩端同時發力。一方面,根據AIGC應用的類型與來源規定其獲取資訊深度;另一方面,要求服務提供方提高用戶資訊政策透明度,確保用戶瞭解資訊收集程度與去向。技術上探索數據脫敏與大模型數據刪除驗證的思路,以有效規制資訊留存。對於相關管理部門,首先應嚴格規定AIGC技術的應用範圍並制定追責章程,其次應提高事前預警技術的精准度與靈敏度,通過數字浮水印等技術對數據予以加密和標識,從技術上預防敏感資訊洩露。
對於AIGC不當資訊生成,除對數據演算法加以監管外,也應儘快健全AIGC標識的國際標準與行業規範,從技術規則上確立AIGC與人類生產內容的邊界,防範AIGC濫用。對相關管理部門而言,應嚴格防範利用AIGC技術實施的竊密與策反,既要通過宣傳教育提高工作人員的資訊安全意識,也應及時關注AIGC技術對生物識別等安全措施的攻擊效果並予以防範。
AIGC技術如今已具備生成與人類創作高度相似的內容的能力,無論是文本、圖像、音頻還是視頻,其逼真程度令人難以辨識真偽。這種高度仿真且高效的輸出,預示著該技術將為各行各業帶來革命性的轉變。在教育領域,個性化學習材料的自動生成成為可能;在醫療領域,精准醫療輔助的實現更近一步;而在娛樂和金融領域,AIGC技術也正引領著前所未有的創新浪潮。