AI寫作假新聞鬧出大烏龍 新技術更需要新監管
據浙江之聲官微消息,2月16日,一則“浙江省杭州市政府3月1號取消機動車依尾號限行”的“新聞”在網上傳(chuan) 開了,這條看起來沒頭沒尾的“新聞”一時間還真讓不少人信以為(wei) 真了。2月17日,杭州警方證實消息不實,警方已介入調查。
很快這起烏(wu) 龍事件的源頭也被找到了,原來是杭州某小區業(ye) 主在群眾(zhong) 討論最近非常熱門的AI聊天機器人chatgpt時,一位業(ye) 主開玩笑說自己要用chatgpt來寫(xie) 一條關(guan) 於(yu) 杭州取消限行的新聞稿,隨後將chatgpt生成的文章發布在了群中。結果被群內(nei) 不明真相的其他業(ye) 主截圖轉發了,因此在網上流傳(chuan) 開來,引起了誤會(hui) ,該業(ye) 主後續也在群中表示了歉意。
這起烏(wu) 龍事件引發了不少網友的討論,從(cong) 性質上來說,這條假新聞屬於(yu) 謠言,但另一方麵,這個(ge) 錯誤究竟應該誰來負責又引發了不少網友討論。一方麵有觀點認為(wei) ,應該由截圖的人負責,該業(ye) 主已經在群裏說了自己要用chatgpt來寫(xie) 個(ge) “新聞”,截圖轉發的人沒有看上下文就轉發到公開的網絡平台,導致了錯誤信息的傳(chuan) 播。另一方麵也有觀點認為(wei) 發布人也應當承擔責任,如果沒有發布人的一時興(xing) 起,用AI來編造了一條像模像樣的假消息,也不會(hui) 造成群內(nei) 其他人的誤會(hui) 。
早前就曾有海外研究機構對chatgpt寫(xie) 作表示隱憂,擔心它將會(hui) 成為(wei) 謠言製造機。人工智能快速迭代所帶來的一係列倫(lun) 理、道德問題要如何從(cong) 法律層麵應對解決(jue) ,似乎也還處於(yu) 探索的初級階段。2022年我國出台了《互聯網信息服務算法推薦管理規定》,首次提出來人工智能的算法應當堅持社會(hui) 主義(yi) 主流價(jia) 值觀,不能利用算法危害國家安全和社會(hui) 公共利益、擾亂(luan) 經濟秩序和社會(hui) 秩序、侵犯他人合法權益。
今年1月10日起施行的《互聯網信息服務深度合成管理規定》中明確,任何組織和個(ge) 人不得利用深度合成服務製作、複製、發布、傳(chuan) 播法律、行政法規禁止的信息,不得利用深度合成服務從(cong) 事危害國家安全和利益、損害國家形象、侵害社會(hui) 公共利益、擾亂(luan) 經濟和社會(hui) 秩序、侵犯他人合法權益等法律、行政法規禁止的活動。
AI技術迭代給監管帶來了新的挑戰,數據安全漏洞帶來的隱私風險如何規避,AI係統中哪些內(nei) 容應該被列入高風險區,“眼見不為(wei) 實”的深度偽(wei) 裝要如何識別,深度偽(wei) 裝造成的危害要怎麽(me) 處理,人工智能應當適用怎樣的倫(lun) 理規則……2021年,歐盟委員會(hui) 曾提出人工智能規則法案,日前亦有消息稱《歐盟人工智能法案》將於(yu) 三月初進行討論,但該法案的推進遭遇了阻力。
或許就像世界上出現第一輛汽車時一樣,當第一輛汽車上路時也曾造成過無數混亂(luan) ,但如今也有了完善的交通法規約束監管,車禍雖然仍然無法避免,但一場交通事故背後的權責劃分卻有法可依。人工智能新技術就像剛剛誕生的汽車,當新的監管方案也上了路,這輛“汽車”才算是穩當了。
揚子晚報/紫牛新聞記者 沈昭
《揚子晚報》2023年2月20日A10版
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。