面對新技術“浪潮”,如何築牢“安全堤”?
今年以來,數字中國建設峰會、中國網路文明大會、2023年國家網路安全宣傳周等重要活動接連在福建舉辦,這三場活動都與網際網路有關,但聚焦的卻是截然不同的兩個關鍵詞。
網際網路是把“雙刃劍”,“發展”和“安全”正是它的一體兩面。隨著新一輪科技革命和産業變革深入發展,網路安全領域面臨的風險和挑戰日益突出。
例如,近年來越來越受輿論關注的“AI換臉術”,在今年的網路安全博覽會上,“AI換臉”的“攻”和“防”亦備受關注。
只需一張目標人物的照片,依託人工智慧合成,站在攝像頭前的你就能在螢幕上“變成”他,還能通過網貸平臺的人臉認證,眨眨眼、搖搖頭就把錢轉出去了。在美亞柏科展區,工作人員演示了這一“騙術”。
對此,現場工作人員表示,目前,美亞柏科自主研發了深度偽造檢測鑒定平臺,可以進行智慧檢測和識別偽造的視頻,助力監管部門提升內容安全治理能力。
於今年4月在福州舉辦的數字中國建設峰會上聊“發展”時,AI稱得上是最熱的詞;在當下正在舉辦的網路安全宣傳周上談“安全”時,AI仍是最大的焦點。
“數據可以説是AI大模型最重要的一個要素,大家認識不同,但是總的來説幾乎所有人都認為數據的品質對模型智慧水準影響最高,差不多要超過60%。”在北京智源人工智慧研究院院長、北京大學電腦學院教授黃鐵軍看來,大模型基於背後的數據,所有的功能都源於數據,這也意味著越來越高的風險,“對於AI技術,你給它‘喂’的數據出錯了,它就永遠照這個錯誤的來辦,有的時候相互矛盾。”
粵港澳大灣區數字經濟研究院創院理事長沈向洋談到“AI對社會的衝擊”時用了三個詞:不完美的數據源、一本正經的“胡説八道”和更難被察覺的AI謠言。
搜索引擎和AI大模型都有蒐集資料、解答疑問的功能,沈向洋形象地將搜索引擎形容為“責任有限公司”,而將AI大模型形容為“責任無限公司”。如此論斷的區別在於深層次學習。
“搜索引擎搜出來不好的東西,你知道它的出處在哪,所以它責任有限,而AI大模型通過深層次的人工智慧將內容生成,我把它叫做‘責任無限公司’。”沈向洋説。
在一些專家看來,生成式人工智慧,新型安全風險正在顯現,比如不良輿情、演算法偏見、認知錯誤、心理誤導、數據洩露等。
今年7月,我國出臺了全球首部針對生成式人工智慧的專門立法——《生成式人工智慧服務管理暫行辦法》,對數據合規提出明確要求。
中央宣傳部副部長、中央網信辦主任、國家網信辦主任莊榮文在會上表示,要創新數據治理,大力提升數據安全和個人資訊保護水準,加大數據領域違法違規行為的打擊力度,保障個人資訊安全。要強化規範引領,加強新技術新應用前瞻性研究,劃清安全紅線,有效規範引導新技術新應用健康有序安全發展。(人民網)