AI không khiến người mới thành hacker! Nghiên cứu của Anh: AI chủ yếu được dùng cho nội dung rác và lừa đảo tình cảm

ChainNewsAbmedia

生成式 AI 經常被放進最極端的風險劇本:một AI agent高度自主脱離控制、kết nối internet、使用 công cụ hacker, 最終接管金融系統、運算資源,甚至關鍵基礎設施。不過,劍橋大學 Cambridge Cybercrime Centre、愛丁堡大學與 Strathclyde 大學研究者在最新論文中指出,若要理解 AI 對網路犯罪的真實威脅,這種科幻式想像反而可能抓錯重點。

地下論壇對 ChatGPT 更感興趣,遠超 Dark AI

這篇論文題為 《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》,由 Jack Hughes、Ben Collier 與 Daniel R. Thomas 撰寫,於 2026 年 3 月 31 日提交至 arXiv。

作者主張,生成式 AI 對網路犯罪的影響,不能只從「AI 能不能寫惡意程式」來理解,而應該把地下網路犯罪市場視為一個由工具商、服務商、低技能操作員與小型犯罪創業者組成的生態系。

論文提出兩個概念,作為 AI 衝擊網路犯罪的上下限。高端情境稱為 Stand-Alone Complex,也就是「crime-gang-in-a-box」:成熟的 AI agent 將原本需要多人分工的 cybercrime-as-a-service 打包成半自動化系統,讓單一行動者也能操作過去需要犯罪團隊才能完成的流程。

低端情境則稱為 Vibercrime,指的是 vibe coding、coding assistant 與 chatbot 降低部分技術門檻,但並未真正重塑網路犯罪的商業模式與經濟結構。

研究團隊的結論相當反直覺:截至目前,地下網路犯罪社群確實對 ChatGPT、Claude、Gemini、Cursor、Copilot、WormGPT 等工具高度感興趣,但沒有看到生成式 AI 已經大規模顛覆 cybercrime ecosystem 的證據。論文指出,AI 目前比較像是被吸收進既有犯罪流程中的一般生產力工具,而不是創造出全新的犯罪工業革命。

從「駭客大片」回到地下經濟:網路犯罪本來就像一群小型科技公司

論文首先回顧網路犯罪生態的演變。早期 cybercrime 比較接近少數高技能駭客的實驗文化,強調技術掌握、反權威與創造性;但自 2000 年代後,網路犯罪逐漸工業化,變成工具、腳本、模板、初始入侵權限、殭屍網路租用與客服支援分工的市場,也就是所謂 cybercrime-as-a-service。

作者認為,地下網路犯罪市場其實很少自行發明最前沿技術。真正的漏洞研究、高階 red-team 技術與新型攻擊方法,多半來自學術研究、資安公司或政府安全單位;地下犯罪者更擅長的是重新包裝成熟技術、複製合法產業的工具、發展商業模式,並把無聊但能賺錢的流程自動化。

這也是為什麼作者認為,AI 對犯罪的真正影響可能不在「菜鳥突然會寫 0-day」,而在更瑣碎的地方:自動化客服、產生詐騙內容、翻譯話術、管理帳號、處理後台流程、優化 SEO 詐欺、經營社群機器人,或讓原本就高度自動化的低利潤灰產更有效率。

研究方法:追蹤 15 年、超過 1 億則地下論壇與聊天資料

這篇論文的重要性在於,它不是只做實驗室測試,也不是根據幾個資安公司案例推論,而是使用 Cambridge Cybercrime Centre 的 CrimeBB 資料集。該資料集涵蓋超過 15 年、超過 1 億則地下論壇貼文與聊天頻道討論,包含帳號盜用、SEO 詐欺、遊戲作弊、被動收入、戀愛詐騙等主題。

研究團隊以 artificial intelligence、LLM、GPT、Claude、Gemini、prompt、Copilot、vibe coding、OpenAI、model、generative、machine learning、AI 等關鍵字搜尋,最初取得 808.526 個 threads;再排除 ChatGPT 發布前的討論,聚焦 2022 年 11 月 1 日至 2025 年 12 月 10 日之間的資料,最後得到 97.895 個 threads 進行分析。

作者進一步結合主題模型、關鍵字追蹤、LLM 輔助分類與人工質化分析。值得注意的是,研究團隊也坦承,他們用本地 LLM 分類地下論壇討論時,發現 LLM 對精細分類並不可靠;約 80% 被模型標成相關的貼文確實與 AI 或 vibe coding 有關,但具體分類幾乎經常錯。

這反而成為論文中的一個有趣旁證:LLM 很常只能幫研究者找到「已經知道要問的東西」,作為探索工具仍有明顯限制。

地下論壇最常討論 ChatGPT,WormGPT 反而沒有想像中重要

從關鍵字趨勢來看,ChatGPT 是地下論壇中最常被討論的 AI 產品;Claude 的討論量穩定成長,Gemini 在 Gemini 1.5 發布後有明顯增加,Grok 則出現幾波短暫討論。相較之下,Codex 的討論量較少,而 WormGPT 這類 jailbroken model 雖然引起資安媒體高度關注,但在論壇中的討論量並沒有形成持續性爆發。

論文指出,地下社群對所謂 Dark AI 確實有文化上的興奮感。論壇上會出現 WormGPT、黑化版 ChatGPT、無限制模型、攻擊型 AI 工具等廣告,也有許多人詢問如何免費存取。但研究團隊發現,這些討論多半停留在「如何取得工具」、「想像 AI 未來會如何改變駭客世界」、或測試模型願不願意回答非法問題,而不是大量成功使用這些工具開發犯罪能力。

更關鍵的是,研究團隊沒有看到明顯證據顯示新手能靠 Dark AI 學會真正可行的駭客技能,或生成能穩定運作的惡意工具。相反地,部分論壇使用者抱怨這類工具產出的程式碼不可靠,需要大量專業知識修正;這使得 jailbroken LLM 更像是一種地下文化表演,而不是網路犯罪生態的重大技術突破。

AI 沒讓菜鳥變駭客,反而更像取代 Stack Overflow 與 cheatsheet

論文最重要的判斷之一,是 AI 並沒有顯著降低 cybercrime 的核心技能門檻。對已經有能力的使用者來說,coding assistant 可以幫忙寫小段程式、查錯、補語法、做一般軟體工程工作;但這比較像取代 Stack Overflow、cheatsheet、Google 搜尋錯誤訊息與複製貼上程式碼,而不是創造出全新的犯罪能力。

對低技能使用者來說,vibe coding 的效用反而有限。原因很簡單:他們不一定知道 AI 生成的程式碼能不能用,也不懂如何整合、修正、維護。與其用 chatbot 從零開始寫一個不穩定工具,很多地下論壇新手仍然更傾向使用現成腳本、模板、教學包或別人做好的工具。

換言之,AI 目前沒有讓「script kiddie」直接升級成高階駭客,反而比較像讓本來就會寫程式的人提高一點效率。這也解釋了為什麼作者認為,即使是擔心「Vibercriminal」崛起,可能都高估了目前的變化幅度。

真正被 AI 改變的,是 SEO 詐欺、社群機器人與戀愛詐騙

雖然論文反駁了 AI 犯罪大爆發的恐慌敘事,但並不是說 AI 沒有犯罪用途。研究發現,AI 最明顯的採用場景,反而是既有的大規模、低利潤、高自動化灰產,例如 SEO 詐欺、社群機器人、AI 文章自動化、內容農場、部分戀愛詐騙與社交工程。

這些場景的共同點是:它們本來就高度依賴大量內容、大量帳號、大量重複工作與平台規則套利。生成式 AI 可以改善文案品質、提升翻譯能力、變化垃圾內容樣式、降低被簡單規則偵測的機率,並讓原本就存在的自動化流程更便宜、更容易擴張。

因此,AI 带來的網路犯罪風險可能不是「一個 AI agent 自己發動駭客戰爭」,而是更現實、更無聊、也更接近平台經濟本質的問題:它會讓既有灰產在內容、帳號、廣告、SEO、社群操作與低階詐騙上更容易規模化。

Stand-Alone Complex 尚未出現,但平台 AI 化可能創造新的攻擊面

對於高端情境 Stand-Alone Complex,作者認為目前還沒有看到完整成形的證據。AI agent 尚未把勒索軟體、DDoS、殭屍網路管理、金流、客服與基礎設施操作整合成真正的「犯罪團隊盒裝產品」。但論文也沒有完全排除這種未來。

作者提醒,若網路平台本身從過去 20 年的 display ad、搜尋、社群流量模式,轉向以 chatbot 與 AI 生成答案為中心的新架構,熟悉 SEO、內容農場、帳號農場、機器人基礎設施與平台規則攻防的灰產玩家,可能會找到新的獲利空間。換句話說,AI 不一定讓地下犯罪者變得更高科技,但它可能改變合法平台的經濟結構,進而改變犯罪者套利的位置。

這也是論文最值得關注的延伸觀點:AI 對網路犯罪的最大影響,可能不是地下論壇自己發明出什麼新技術,而是合法 AI 產業改變了整個網路的流量、內容、廣告、搜尋與自動化結構,讓既有灰產找到新的縫隙。

作者建議:不要恐慌,但也不要忽略低階自動化犯罪的放大效應

論文最後給政策制定者、產業與執法單位的建議可以濃縮成一句話:不要恐慌。研究團隊認為,AI 工具在地下網路犯罪生態中的採用,目前仍是零碎、漸進、非革命性的;不能直接把合法軟體產業中的 AI coding adoption,套用到 cybercrime business,因為許多犯罪商業模式其實並不依賴高階技術能力。

但「不要恐慌」不等於「沒有風險」。作者指出,模型 guardrails、調校與使用摩擦仍然有效,特別是在低階、大量、自動化濫用場景中,可以增加犯罪者成本,並透過飽和與資源競爭限制灰產規模。這些措施無法阻止有動機的高階攻擊者,但能降低低成本濫用擴張。

這篇論文提供了一個比「AI 駭客末日」更冷靜也更現實的框架:生成式 AI 目前沒有讓菜鳥一夜變駭客,也還沒有打造出全自動犯罪組織;它更像是把地下犯罪者也帶進了 AI-assisted work 的時代。真正的問題不是 AI 會不會讓犯罪者變成超人,而是它會如何放大既有灰產、平台套利、內容自動化與低成本詐騙的邊際收益。

這篇文章 AI 沒讓菜鳥變駭客!英國研究:AI 多被用於垃圾內容與感情詐騙 最早出現於 鏈新聞 ABMedia。

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận