卡巴斯基注意到,ai 正在让数字指纹难以辨认,这给网络攻击的追踪带来了不小的麻烦。

卡巴斯基注意到,AI正在让数字指纹难以辨认,这给网络攻击的追踪带来了不小的麻烦。既然生成式AI逐渐被犯罪团伙利用,安全人员就得改变思路。以前那种靠看代码里的错误或者特定写法来判断坏人的方法,现在可不管用了。因为AI写出来的东西通常更中性、更标准,没了那些特别的语言错误或者编码模式。所以以后得更多地盯着基础设施的特征、工具的重叠情况还有行为指标才行。 卡巴斯基预计,AI会让恶意软件变得更加普遍。那些大语言模型可以搞定大部分恶意软件的开发工作,从搭框架到写功能模块都不在话下。研究人员在跟FunkSec相关的攻击里就发现了AI帮忙写代码的现象。这个组织用Rust写的恶意软件能偷数据、加密文件甚至操纵进程。 在2025年的RevengeHotels事件里,攻击者也用大型语言模型弄出了一些感染器和下载器的代码。卡巴斯基全球研究与分析团队(GReAT)的Georgy Kucherin说,他们觉得2026年人工智能还会是个重要的干扰因素。因为现在它已经改了坏人的干活流程,让他们动作更快了。Georgy解释说,AI帮着省时间省成本,威胁分子就能更快迭代和扩大规模。防守的一方得赶紧做好准备应对这种快速变化的情况。 除了上面提到的趋势外,卡巴斯基还列出了其他影响威胁局势的动态:比如恶意软件可以通过AI重写成不同的语言或者架构;坏人开始用云存储和文件共享服务偷偷把数据传出去;有的勒索软件会直接干扰生产经营活动来逼人给钱;还有AI代理如果给了太多权限一旦被黑了就可能自动下载恶意东西;最后卫星基础设施因为普及也成了高风险目标。