人工智能安全守護計劃啟動 將建立AI系統情報共享機制快訊
AIIA安全治理委員會重點圍繞人工智能的治理框架、風險管理、內生安全、安全應用開展了大量的理論和技術研究工作,提升國內人工智能技術的服務提供方、使用方的安全防護能力,共同完善人工智能安全風險識別方法論。
【TechWeb】7月26日消息,近日,微軟大規模藍屏事件引發各界反思。一次互聯網時代的軟件BUG能夠引起全球大范圍“癱瘓”,如果同樣的劇情在AI時代上演,損失可能更大。
在中國人工智能產業發展聯盟(以下簡稱 “AIIA”)安全治理委員會成果發布會上,AIIA秘書長、中國信通院院長余曉暉表示,當前人工智能安全治理需要匯聚行業各方智慧和力量,共同完善人工智能安全風險識別方法論,建立更為敏捷、精確的安全風險識別機制,盡早、盡快發現風險,加強人工智能安全評測技術工具的研究,通過技術來治理技術。
據介紹,為應對當前人工智能所帶來的安全挑戰,AIIA安全治理委員會重點圍繞人工智能的治理框架、風險管理、內生安全、安全應用開展了大量的理論和技術研究工作。
會上,人工智能安全守護計劃正式啟動,該計劃將打造AI Guard品牌,共同建立AI系統情報共享機制、AIGC真實性和可信賴來源互認機制,推動設立人工智能相關保險產品,提升國內人工智能技術的服務提供方、使用方的安全防護能力。
中國信通院人工智能所黑一鳴博士發布了自研的大模型安全加固解決方案。該能力通過模型微調、外掛安全知識庫等模式對開源大模型自身進行安全防護加固,在保持模型原有通用能力和推理效率的前提下,增強其抵御多種誘導攻擊的能力。
值得一提的是,人工智能天生具備高度交叉的技術和產業屬性,跨界融合正成為人工智能發展的主流形態。
中國法學會法治研究所研究員、中國法學會網絡與信息法學研究會副秘書長劉金瑞表示,“對于法學專家來講,首先要了解技術特征。如果不了解技術特征,你寫的規范和規制的思路是不適用這個技術的,換句話說是無效的,可能邏輯推演是嚴謹的,但現實中是沒法用的。所以對于法學專業來講,你要根據這種特征和特性來設計一套配置方案出來。這是最大的挑戰。”
據北京市金杜律師事務所合伙人寧宣鳳律師透露,隨著人工智能發展,國家層面是通過小切口這種方式進行立法,包括深度合成、算法、AIGC等領域開展治理,也出臺像科技倫理審查辦法等。“人工智能法我們所知也是在制定過程中”。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。