F5:伴隨生成式AI的發展,2024年將出現十大網絡安全風險威脅
隨著ChatGPT在2023年的橫空出世,人工智能將增強攻擊者的能力,這似乎成為了安全領域公認的事實。生成式AI的不斷演進,安全領域的專家們就開始預測大語言模型(LLM)將會成為攻擊者用于編寫網絡釣魚郵件的工具。根據F5 Lab的安全研究,這僅僅只是開始,未來生成式AI將以更多種方式成為網絡威脅的助推器。
盡管目前的技術水平尚難以對不明確的威脅加以控制,F5的多位安全專家依然對攻擊者如何利用LLM發動攻擊進行了深入預測,從而為企業防范人工智能威脅提供前瞻性洞察。
預測1:生成式 AI 將能夠與網絡釣魚受害者進行對話
在2023年4月,美國計算機安全專家Bruce Schneier指出,網絡釣魚的真正瓶頸不在于用戶最初點擊惡意鏈接,而在于轉出現金,而在這過程中,網絡釣魚者需要與受害者進行比想象中還要多的互動。
F5安全情報中心負責人Tafara Muwandi對Bruce Schneier的預測帶來更進一步的分析,他表示LLM將接管釣魚者和受害者之間的往來交流。過往釣魚者需要雇傭個人來翻譯受害者的信息,但生成式 AI 的出現,將可以直接翻譯釣魚者使用的非母語信息,并通過整合公開可用的個人信息,創建極其逼真的騙局。因此,有組織的網絡犯罪集團將會把已知的網絡釣魚作為一種服務,并在規模和效率方面將其放大。
預測2:有組織犯罪將利用生成式 AI 創建虛假賬戶
有組織的網絡犯罪將能創建完全虛假的在線人物形象。生成式 AI 將用于創建包含帖子和圖片在內的虛假賬戶,使得這些內容與真人賬號內容看上去并無差異。所有由虛假賬戶產生的攻擊策略,包括欺詐、憑證填充、傳播虛假信息和操縱市場,當其不費吹灰之力就能達到人類賬戶的真實性時,其犯罪效率也將獲得大幅提升。
預測3:使用生成式 AI 進行虛假信息傳播
生成式 AI 工具有顯著改變惡意信息操作方式的潛力。將虛假內容創作、自動文本生成用于傳播虛假信息、具有針對性的宣傳錯誤信息以及規避內容審查,此類手段促成了惡劣影響的激增。
預測4:生成式 AI 的進步將助長黑客行為
隨著計算能力持續變得更加經濟實惠以及易于使用,預計與世界重大事件相關的黑客行為將有所增長。通過使用 AI 工具以及利用智能手機和筆記本電腦,更多未經磨練的新手可能會作為黑客加入到網絡空間的戰斗中。
對此,F5 CISO辦公室網絡威脅情報分析師Samantha Borer表示,“過去幾年中,黑客活動在世界各地不斷發生的戰爭沖突中復蘇。最初只是出現了少量的黑客活動,但隨著戰場上暴力的不斷升級,黑客活動也逐漸轉向更具破壞性的攻擊,其中包括DDoS攻擊、數據泄露、網站篡改,以及明顯企圖破壞關鍵基礎設施的攻擊?!?/p> 預測5:網絡攻擊將使用生成式 AI 的實時輸入能力 近年來,生成式AI在創造數字內容方面的能力已經不再是秘密,無論是制作網絡釣魚郵件還是虛假資料,都已得到廣泛應用。因此,其在攻擊中的使用可以被視為是被動的。 F5 Lab總監David Warburton指出,憑借生成式AI強大的編碼能力,LLM 可以被用來指導實時攻擊中的程序序列,使得攻擊者在遇到防御時作出反應。通過利用 ChatGPT 等開源GenAI系統的 API,或者構建自己的 LLM,攻擊者將能夠在對網站或網絡的實時攻擊中融入 AI 系統的知識和想法。如果攻擊者的網站攻擊被安全控制措施攔截,AI 系統可以用來評估響應,并提供其他攻擊方式。未來,隨著LLM 的不斷發展,可能會使攻擊鏈更加多樣化,并產生更加不利影響。 預測6:大語言模型的數據泄露問題 AI將會帶來新的漏洞風險,且大語言模型具有的強大不透明自動化潛力,將使企業的安全、隱私和合規團隊履行職責的任務日益復雜化。 F5 Lab高級威脅研究員Malcolm Heath表示,“生成式AI 驅動的工具可能會造成重大問題,比如大規模的個人身份信息泄露、獲得未授權訪問的新技術和DoS。與云泄露相似,由于涉及數據量龐大,LLM 泄露也將產生嚴重后果?!?/p> 根據研究顯示,目前應用簡單方式即可誘使LLM泄露其包括專有和個人數據在內的訓練數據,而如今企業急于創建專有 LLM 的熱潮,將可能導致更多訓練數據的泄露。而出現問題的原因,可能并非來自新型攻擊,而是企業倉促和配置不當的安全控制措施而致。 預測7:生成式漏洞 如今,無論是老手還是新手開發人員,在編寫代碼或檢查漏洞時都開始越來越多地依賴生成式AI。但如果沒有采用正確的安全防范措施,預計LLM將創造出難以確保其安全的漏洞代碼洪流。盡管開源軟件存在風險,但其優勢在于其固有的一次性修復方法——如果在開源軟件庫中發現漏洞,只需修復一次,就可以供所有使用該庫的人使用。通過GenAI代碼生成技術,每個開發人員最終都會得到一個獨特的定制代碼。 F5網絡安全布道師Jim Downey表示,“代碼助手編寫代碼的速度如此之快,以至于開發人員可能沒有時間進行審查。根據 LLM 的構建時間,它可能甚至無法識別最新的漏洞,使得該模型無法構建避免這些漏洞的代碼,或避免導入存在漏洞的庫。而在生成式 AI 時代,優先考慮速度而非安全的企業將不可避免地引入新漏洞?!?/p> 預測8:邊緣攻擊 F5高級解決方案架構師Shahn Backer表示,“邊緣計算的興起將導致攻擊面的大幅擴張。物理篡改、管理挑戰,以及軟件和API漏洞都具有在邊緣環境中被放大的風險。75%的企業數據將在傳統數據中心或云環境之外生成和處理。這一范式重新定義了企業的邊界,因為邊緣位置的工作負載可能包含敏感信息和特權?!?/p> 如同多重身份驗證(MFA)一樣,攻擊者將把重點放在其付出的時間能產生最大影響的領域。如果企業像處理云計算一樣,以同樣疏忽的方式處理向邊緣計算的轉變,預計在未來安全事件也將會持續頻發。 預測9:攻擊者將提升其離地攻擊的能力 架構的不斷復雜化為攻擊者提供了更多機會,他們能夠巧妙地利用企業現有工具進行反向攻擊。F5安全解決方案架構師Kieron Shepard預測到,“IT環境的日益復雜,尤其是在云和混合架構中,將使監控和檢測離地攻擊(LOTL)變得更具挑戰性。攻擊者越來越傾向于使用LOTL技術,利用受攻擊系統上已有的合法管理軟件來實現其惡意目標。更為嚴重的是,LOTL攻擊可以并入供應鏈攻擊,以危害關鍵基礎架構并中斷系統運營。因此,企業需加強網絡可見性,以有效應對攻擊者越來越頻繁地利用企業工具造成的安全威脅?!?/p> 預測10:網絡安全貧困線將變成網絡安全貧困矩陣 F5高級威脅安全研究員Sander Vinberg指出,安全架構趨勢將對網絡安全貧困線產生深遠影響。這一概念最早由思科首席信息安全官顧問主管Wendy Nather提出,定義為實現最低限度的安全控制所需的知識、權限以及最重要的預算水平。 Vinberg表示,“當前安全產品的成本和復雜性可能迫使企業在整個系統的安全控制措施之間做出選擇。如今,企業需要安全編排、自動化和事件響應(SOAR)、安全信息與事件管理(SIEM)、漏洞管理工具和威脅情報服務,以及配置管理、事件響應、滲透測試和治理、合規與風險等多重安全保障。然而關鍵的問題在于,許多企業選擇將這些控制措施作為托管服務使用,盡管這一方式可以確保專業性,但同時也為企業帶來相應的成本壓力。隨著進入每個細分領域的準入成本增加,企業面臨的抉擇將更趨向于完全投入或徹底放棄,這導致越來越多的企業必須在這兩者之間做出抉擇?!?/p> 寫在最后 上述的網絡安全預測強調了企業在持續適應和創新方面對抗不斷演變的網絡威脅的必要性。無論是解決社會經濟差異對網絡安全韌性的影響、加強邊緣計算環境,還是為看似無休止的AI驅動的攻擊做好準備,2024年的網絡安全形勢都需要企業采取主動和協作的方式,以共同保護美好的數字未來。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。
關鍵詞:
相關閱讀
-
F5:伴隨生成式AI的發展,2024年將出現...
隨著ChatGPT在2023年的橫空出世,人工智能將增強攻擊者的能力,這似 -
高藍騰遠電氣榮耀登陸央視,開啟品牌傳...
高峰騰躍,藍圖遠揚——高藍騰遠!近日,高藍騰遠的專業形象在央視廣告... -
海蘭GS40K電腦一體機45度大俯仰 實現站...
在快節奏的現代生活中,辦公環境對于工作效率的影響越來越受到人們 -
倍思氮化鎵桌面快充充電器:240W大功率...
在當今數碼生活中,我們周圍充斥著各類設備,而如何高效地為這些設 -
典贊時刻·2023首都科普網絡集贊倒計時1天!
網絡集贊倒計時最后一天!今晚24時,“典贊時刻·2023首都科普”網... -
將「旗艦體驗普及」帶到前所未有的高度...
2024 年 1 月 4 日,一加正式發布 Ace 系列新品一加 Ace 3