奇安信《2024人工智能安全報告》:AI深度偽造欺詐激增30倍快訊
《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產大語言模型基礎設施、利用AI的自動化攻擊、AI武器化、LLM自身安全風險、惡意軟件、釣魚郵件、虛假內容和活動生成、硬件傳感器安全等12種重要威脅,奇安信集團發布《2024人工智能安全報告》(以下簡稱《報告》),人工智能技術的惡意使用將快速增長。
【TechWeb】2月29日消息,奇安信集團發布《2024人工智能安全報告》(以下簡稱《報告》)。《報告》認為,人工智能技術的惡意使用將快速增長,在政治安全、網絡安全、物理安全和軍事安全等方面構成嚴重威脅。
《報告》認為,“AI是一種通用技術,通用就意味著既可以用來做好事,也可以被用來干壞事”。具有巨大潛力的AI技術同時帶來兩大主要挑戰:一是放大現有威脅,另一個是引入新型威脅。
奇安信預計,未來十年,人工智能技術的惡意使用將快速增長,將在政治安全、網絡安全、物理安全和軍事安全等方面構成嚴重威脅。
報告數據顯示,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數量增長了1000%;奇安信威脅情報中心監測發現,已有多個有國家背景的APT組織利用AI實施了十余起網絡攻擊事件。各類基于AI的新型攻擊種類與手段不斷出現,甚至出現泛濫,包括深度偽造(Deepfake)、黑產大語言模型、惡意AI機器人、自動化攻擊等,在全球造成了嚴重危害。
同時,《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產大語言模型基礎設施、利用AI的自動化攻擊、AI武器化、LLM自身安全風險、惡意軟件、釣魚郵件、虛假內容和活動生成、硬件傳感器安全等12種重要威脅,對其技術原理、危害情況、真實案例等進行了深入的剖析,旨在讓業界更全面的認識到AI普及帶來的兩大主要挑戰:一方面放大了現有威脅,比如釣魚郵件、惡意軟件和社會工程學等;另一方面是引入了新型威脅,如AI自動化攻擊、AI深度偽造等。
面對AI網絡攻擊、AI武器化等日益嚴峻的安全威脅,《報告》認為,AI技術將會推動安全領域發生范式變革,全行業需啟動人工智能網絡防御推進計劃。新一代AI技術與大語言模型改變安全對抗格局,將會對地緣政治競爭和國家安全造成深遠的影響,各國正在競相加強在人工智能領域的競爭,以獲得面向未來的戰略優勢。全行業需啟動人工智能網絡防御推進計劃,包括利用防御人工智能對抗惡意人工智能,扭轉“防御者困境”。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。