AI 沒让菜鸟变黑客!英国研究:AI 多被用于垃圾内容与情感诈骗

鏈新聞abmedia

生成式 AI 经常被放进最極端的风险劇本:一个高度自主的 AI agent 脫离控制、连上網路、使用駭客工具,最終接管金融系统、运算资源,甚至关鍵基礎设施。不过,劍橋大学 Cambridge Cybercrime Centre、愛丁堡大学与 Strathclyde 大学研究者在最新論文中指出,若要理解 AI 对網路犯罪的真实威脅,这種科幻式想像反而可能抓错重点。

地下論壇对 ChatGPT 更感興趣,远超 Dark AI

这篇論文題为 《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》,由 Jack Hughes、Ben Collier 与 Daniel R. Thomas 撰寫,於 2026 年 3 月 31 日提交至 arXiv。

作者主張,生成式 AI 对網路犯罪的影響,不能只从「AI 能不能寫惡意程式」来理解,而应該把地下網路犯罪市场視为一个由工具商、服務商、低技能操作員与小型犯罪創业者組成的生態系。

論文提出两个概念,作为 AI 衝擊網路犯罪的上下限。高端情境稱为 Stand-Alone Complex,也就是「crime-gang-in-a-box」:成熟的 AI agent 將原本需要多人分工的 cybercrime-as-a-service 打包成半自动化系统,让單一行动者也能操作过去需要犯罪團队才能完成的流程。

低端情境則稱为 Vibercrime,指的是 vibe coding、coding assistant 与 chatbot 降低部分技術门檻,但並未真正重塑網路犯罪的商业模式与经濟結構。

研究團队的結論相当反直覺:截至目前,地下網路犯罪社群確实对 ChatGPT、Claude、Gemini、Cursor、Copilot、WormGPT 等工具高度感興趣,但沒有看到生成式 AI 已经大規模顛覆 cybercrime ecosystem 的证據。論文指出,AI 目前比较像是被吸收进既有犯罪流程中的一般生产力工具,而不是創造出全新的犯罪工业革命。

从「駭客大片」回到地下经濟:網路犯罪本来就像一群小型科技公司

論文首先回顾網路犯罪生態的演變。早期 cybercrime 比较接近少數高技能駭客的实验文化,強调技術掌握、反權威与創造性;但自 2000 年代后,網路犯罪逐漸工业化,變成工具、腳本、模板、初始入侵權限、殭屍網路租用与客服支援分工的市场,也就是所謂 cybercrime-as-a-service。

作者认为,地下網路犯罪市场其实很少自行发明最前沿技術。真正的漏洞研究、高階 red-team 技術与新型攻擊方法,多半来自学術研究、资安公司或政府安全單位;地下犯罪者更擅长的是重新包裝成熟技術、複製合法产业的工具、发展商业模式,並把无聊但能賺钱的流程自动化。

这也是为什麼作者认为,AI 对犯罪的真正影響可能不在「菜鸟突然会寫 0-day」,而在更瑣碎的地方:自动化客服、产生詐騙內容、翻譯話術、管理帳號、處理后台流程、優化 SEO 詐欺、经營社群机器人,或让原本就高度自动化的低利潤灰产更有效率。

研究方法:追蹤 15 年、超过 1 亿則地下論壇与聊天资料

这篇論文的重要性在於,它不是只做实验室測試,也不是根據幾个资安公司案例推論,而是使用 Cambridge Cybercrime Centre 的 CrimeBB 资料集。該资料集涵蓋超过 15 年、超过 1 亿則地下論壇貼文与聊天频道討論,包含帳號盜用、SEO 詐欺、遊戲作弊、被动收入、戀愛詐騙等主題。

研究團队以 artificial intelligence、LLM、GPT、Claude、Gemini、prompt、Copilot、vibe coding、OpenAI、model、generative、machine learning、AI 等关鍵字搜尋,最初取得 808,526 个 threads;再排除 ChatGPT 发布前的討論,聚焦 2022 年 11 月 1 日至 2025 年 12 月 10 日之间的资料,最后得到 97,895 个 threads 进行分析。

作者进一步結合主題模型、关鍵字追蹤、LLM 輔助分類与人工质化分析。值得注意的是,研究團队也坦承,他們用本地 LLM 分類地下論壇討論时,发现 LLM 对精細分類並不可靠;约 80% 被模型標成相关的貼文確实与 AI 或 vibe coding 有关,但具體分類幾乎经常错。

这反而成为論文中的一个有趣旁证:LLM 很常只能幫研究者找到「已经知道要问的东西」,作为探索工具仍有明顯限制。

地下論壇最常討論 ChatGPT,WormGPT 反而沒有想像中重要

从关鍵字趨勢来看,ChatGPT 是地下論壇中最常被討論的 AI 产品;Claude 的討論量穩定成长,Gemini 在 Gemini 1.5 发布后有明顯增加,Grok 則出现幾波短暫討論。相较之下,Codex 的討論量较少,而 WormGPT 这類 jailbroken model 雖然引起资安媒體高度关注,但在論壇中的討論量並沒有形成持续性爆发。

論文指出,地下社群对所謂 Dark AI 確实有文化上的興奮感。論壇上会出现 WormGPT、黑化版 ChatGPT、无限制模型、攻擊型 AI 工具等廣告,也有許多人詢问如何免费存取。但研究團队发现,这些討論多半停留在「如何取得工具」、「想像 AI 未来会如何改變駭客世界」、或測試模型願不願意回答非法问題,而不是大量成功使用这些工具开发犯罪能力。

更关鍵的是,研究團队沒有看到明顯证據顯示新手能靠 Dark AI 学会真正可行的駭客技能,或生成能穩定运作的惡意工具。相反地,部分論壇使用者抱怨这類工具产出的程式碼不可靠,需要大量專业知识修正;这使得 jailbroken LLM 更像是一種地下文化表演,而不是網路犯罪生態的重大技術突破。

AI 沒让菜鸟變駭客,反而更像取代 Stack Overflow 与 cheatsheet

論文最重要的判斷之一,是 AI 並沒有顯著降低 cybercrime 的核心技能门檻。对已经有能力的使用者来说,coding assistant 可以幫忙寫小段程式、查错、補语法、做一般软體工程工作;但这比较像取代 Stack Overflow、cheatsheet、Google 搜尋错誤訊息与複製貼上程式碼,而不是創造出全新的犯罪能力。

对低技能使用者来说,vibe coding 的效用反而有限。原因很簡單:他們不一定知道 AI 生成的程式碼能不能用,也不懂如何整合、修正、維護。与其用 chatbot 从零开始寫一个不穩定工具,很多地下論壇新手仍然更傾向使用现成腳本、模板、教学包或別人做好的工具。

換言之,AI 目前沒有让「script kiddie」直接升級成高階駭客,反而比较像让本来就会寫程式的人提高一点效率。这也解釋了为什麼作者认为,即使是擔心「Vibercriminal」崛起,可能都高估了目前的變化幅度。

真正被 AI 改變的,是 SEO 詐欺、社群机器人与戀愛詐騙

雖然論文反駁了 AI 犯罪大爆发的恐慌敘事,但並不是说 AI 沒有犯罪用途。研究发现,AI 最明顯的採用场景,反而是既有的大規模、低利潤、高自动化灰产,例如 SEO 詐欺、社群机器人、AI 文章自动化、內容農场、部分戀愛詐騙与社交工程。

这些场景的共同点是:它們本来就高度依賴大量內容、大量帳號、大量重複工作与平台規則套利。生成式 AI 可以改善文案品质、提升翻譯能力、變化垃圾內容樣式、降低被簡單規則偵測的机率,並让原本就存在的自动化流程更便宜、更容易擴張。

因此,AI 帶来的網路犯罪风险可能不是「一个 AI agent 自己发动駭客戰爭」,而是更现实、更无聊、也更接近平台经濟本质的问題:它会让既有灰产在內容、帳號、廣告、SEO、社群操作与低階詐騙上更容易規模化。

Stand-Alone Complex 尚未出现,但平台 AI 化可能創造新的攻擊面

对於高端情境 Stand-Alone Complex,作者认为目前还沒有看到完整成形的证據。AI agent 尚未把勒索软體、DDoS、殭屍網路管理、金流、客服与基礎设施操作整合成真正的「犯罪團队盒裝产品」。但論文也沒有完全排除这種未来。

作者提醒,若網路平台本身从过去 20 年的 display ad、搜尋、社群流量模式,转向以 chatbot 与 AI 生成答案为中心的新架構,熟悉 SEO、內容農场、帳號農场、机器人基礎设施与平台規則攻防的灰产玩家,可能会找到新的獲利空间。換句話说,AI 不一定让地下犯罪者變得更高科技,但它可能改變合法平台的经濟結構,进而改變犯罪者套利的位置。

这也是論文最值得关注的延伸觀点:AI 对網路犯罪的最大影響,可能不是地下論壇自己发明出什麼新技術,而是合法 AI 产业改變了整个網路的流量、內容、廣告、搜尋与自动化結構,让既有灰产找到新的縫隙。

作者建议:不要恐慌,但也不要忽略低階自动化犯罪的放大效应

論文最后給政策制定者、产业与執法單位的建议可以濃縮成一句話:不要恐慌。 研究團队认为,AI 工具在地下網路犯罪生態中的採用,目前仍是零碎、漸进、非革命性的;不能直接把合法软體产业中的 AI coding adoption,套用到 cybercrime business,因为許多犯罪商业模式其实並不依賴高階技術能力。

但「不要恐慌」不等於「沒有风险」。作者指出,模型 guardrails、调校与使用摩擦仍然有效,特別是在低階、大量、自动化濫用场景中,可以增加犯罪者成本,並透过飽和与资源競爭限制灰产規模。这些措施无法阻止有动机的高階攻擊者,但能降低低成本濫用擴張。

这篇論文提供了一个比「AI 駭客末日」更冷靜也更现实的框架:生成式 AI 目前沒有让菜鸟一夜變駭客,也还沒有打造出全自动犯罪組织;它更像是把地下犯罪者也帶进了 AI-assisted work 的时代。真正的问題不是 AI 会不会让犯罪者變成超人,而是它会如何放大既有灰产、平台套利、內容自动化与低成本詐騙的边际收益。

这篇文章 AI 沒让菜鸟變駭客!英国研究:AI 多被用於垃圾內容与感情詐騙 最早出现於 链新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论