一張朋友圈普普通通的照片,經(jīng)人工智能大模型處理后,個人身份、人際關系等敏感信息就可能被泄露——近日,大模型“讀心術”登上熱搜,再次引發(fā)有關網(wǎng)絡安全的討論。大模型正面臨著被詐騙分子利用的風險,其安全漏洞令人心驚。
在網(wǎng)絡安全工程師眼里,“誘騙”大模型之易如同騙走3歲小孩的糖果一樣。數(shù)據(jù)“投毒”、模型竊取、“記憶”污染、“信任背叛”等大模型特有的安全問題層出不窮。
更為嚴峻的是,隨著攻擊技術迭代升級,未知攻擊還將持續(xù)增加。
去年底,360數(shù)字安全集團發(fā)布的《大模型安全漏洞報告》顯示,近40個大模型存在相關安全漏洞,影響多個知名模型服務框架以及多款開源產(chǎn)品。
網(wǎng)絡安全領域的科技創(chuàng)新從未停滯。
在國家部委的支持下,盛邦安全開展了網(wǎng)絡空間測繪與反測繪相關的AI技術研究。盛邦安全服務產(chǎn)品線總經(jīng)理郝龍解釋說:“網(wǎng)絡空間測繪如果被攻擊方利用,會繪制出不利于我們的‘網(wǎng)絡空間地圖’,而基于反測繪的AI引擎則可以阻斷攻擊方的探測和擾亂關聯(lián)分析。”當前,該項目相關技術已應用在金融業(yè)。
在AI技術的加持下,網(wǎng)絡誘捕情報、預測攻擊的技術能力也大幅提升。潮云山東云御公司總經(jīng)理李聰說,以AI防護AI,有望更全面地抵御新型攻擊手段,進行全方位的檢測與防護。
用戶在DeepSeek手機客戶端上提問。新華社記者 黃宗治 攝
明年1月1日起,新修改的網(wǎng)絡安全法將實施,法律中新增相關條款被業(yè)內(nèi)視為對人工智能實施強制性安全防護的“前奏”。
綠盟科技伏影實驗室主任研究員吳鐵軍建議,對于可能影響個人權益、社會公共利益的重大算法應用,要建立備案和審查制度,行業(yè)協(xié)會、學術機構等專業(yè)力量也應參與到算法倫理的研究和治理中,形成多方協(xié)同的治理格局。
來源:科技日報微信公眾號
如遇作品內(nèi)容、版權等問題,請在相關文章刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系。版權侵權聯(lián)系電話:010-85202353




未登錄
全部評論
0條