麵對新技術“浪潮”,如何築牢“安全堤”?
今年以來,數字中國建設峰會(hui) 、中國網絡文明大會(hui) 、2023年國家網絡安全宣傳(chuan) 周等重要活動接連在福建舉(ju) 辦,這三場活動都與(yu) 互聯網有關(guan) ,但聚焦的卻是截然不同的兩(liang) 個(ge) 關(guan) 鍵詞。
互聯網是把“雙刃劍”,“發展”和“安全”正是它的一體(ti) 兩(liang) 麵。隨著新一輪科技革命和產(chan) 業(ye) 變革深入發展,網絡安全領域麵臨(lin) 的風險和挑戰日益突出。
例如,近年來越來越受輿論關(guan) 注的“AI換臉術”,在今年的網絡安全博覽會(hui) 上,“AI換臉”的“攻”和“防”亦備受關(guan) 注。
隻需一張目標人物的照片,依托人工智能合成,站在攝像頭前的你就能在屏幕上“變成”他,還能通過網貸平台的人臉認證,眨眨眼、搖搖頭就把錢轉出去了。在美亞(ya) 柏科展區,工作人員演示了這一“騙術”。
對此,現場工作人員表示,目前,美亞(ya) 柏科自主研發了深度偽(wei) 造檢測鑒定平台,可以進行智能檢測和識別偽(wei) 造的視頻,助力監管部門提升內(nei) 容安全治理能力。
於(yu) 今年4月在福州舉(ju) 辦的數字中國建設峰會(hui) 上聊“發展”時,AI稱得上是最熱的詞;在當下正在舉(ju) 辦的網絡安全宣傳(chuan) 周上談“安全”時,AI仍是最大的焦點。
“數據可以說是AI大模型最重要的一個(ge) 要素,大家認識不同,但是總的來說幾乎所有人都認為(wei) 數據的質量對模型智能水平影響最高,差不多要超過60%。”在北京智源人工智能研究院院長、北京大學計算機學院教授黃鐵軍(jun) 看來,大模型基於(yu) 背後的數據,所有的功能都源於(yu) 數據,這也意味著越來越高的風險,“對於(yu) AI技術,你給它‘喂’的數據出錯了,它就永遠照這個(ge) 錯誤的來辦,有的時候相互矛盾。”
粵港澳大灣區數字經濟研究院創院理事長沈向洋談到“AI對社會(hui) 的衝(chong) 擊”時用了三個(ge) 詞:不完美的數據源、一本正經的“胡說八道”和更難被察覺的AI謠言。
搜索引擎和AI大模型都有搜集資料、解答疑問的功能,沈向洋形象地將搜索引擎形容為(wei) “責任有限公司”,而將AI大模型形容為(wei) “責任無限公司”。如此論斷的區別在於(yu) 深層次學習(xi) 。
“搜索引擎搜出來不好的東(dong) 西,你知道它的出處在哪裏,所以它責任有限,而AI大模型通過深層次的人工智能將內(nei) 容生成,我把它叫做‘責任無限公司’。”沈向洋說。
在一些專(zhuan) 家看來,生成式人工智能,新型安全風險正在顯現,比如不良輿情、算法偏見、認知錯誤、心理誤導、數據泄露等。
今年7月,我國出台了全球首部針對生成式人工智能的專(zhuan) 門立法——《生成式人工智能服務管理暫行辦法》,對數據合規提出明確要求。
中央宣傳(chuan) 部副部長、中央網信辦主任、國家網信辦主任莊榮文在會(hui) 上表示,要創新數據治理,大力提升數據安全和個(ge) 人信息保護水平,加大數據領域違法違規行為(wei) 的打擊力度,保障個(ge) 人信息安全。要強化規範引領,加強新技術新應用前瞻性研究,劃清安全紅線,有效規範引導新技術新應用健康有序安全發展。(人民網)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。