daiweis
作者daiweis2017-07-11 09:35
系统架构师, 某银行

携程的Web漏洞扫描系统实现细节,做到安全测试的自动化

字数 2819阅读 3939评论 0赞 6

1.jpg

1.jpg

业务代码上线前,通常会在测试环境经过一系列的功能测试。那么,从安全层面来说,Web 应用常见的漏洞,如 SQL 注入,XSS 攻击,敏感信息泄漏等,我们如何保证在上线前就能够自动化发现这些业务的安全漏洞呢?本文将详细讲述携程安全测试的自动化之路。

技术选型

市面上也有很多各种各样的开源、商业扫描器。单就应用这一层来说,漏洞扫描器一般分为主动扫描和被动扫描两种。
其中,主动扫描一般用于黑盒测试,其形式为提供一个 URL 入口地址,然后由扫描器中的爬虫模块爬取所有链接,对 GET、POST 等请求进行参数变形和污染,进行重放测试,然后依据返回信息中的状态码、数据大小、数据内容关键字等去判断该请求是否含有响应的漏洞。
另外一种常见的漏洞扫描方式就是被动扫描,与主动扫描相比,被动扫描并不进行大规模的爬虫爬取行为,而是直接通过捕获测试人员的测试请求,直接进行参数变形和污染来测试服务端的漏洞,如果通过响应信息能够判断出漏洞存在,则进行记录管理,有人工再去进行漏洞的复现和确认。
所以我们可以发现,主动扫描与被动扫描最主要的区别为被动式扫描器不主动获取站点链接,而是通过流量、获取测试人员的访问请求等手段去采集数据源,然后进行类似的安全检测。
除此之外,基于主动扫描的 Web 扫描器还有其他的不足:
1、由于数据源来自爬虫爬取,独立的页面、API 接口等就无法覆盖,存在检测遗漏情况。
2、如果是扫描单独的几个站点,主动扫描是够用的。但是在站点数量急剧增大的时候,主动扫描的效率、精准、速度都无法与被动扫描相比。
最终我们选择基于被动扫描的形式去实现自研 web 漏洞扫描器。

架构设计

基于以上自动化的安全检测需求,由我们内部研发了 Hulk 项目,通过网络流量镜像等方式来实现分布式的实时 Web 漏洞扫描系统。整个项目按模块可分为数据源,数据处理,漏洞检测,漏洞管理等几大模块。
2.jpg

2.jpg

如图所示,HTTP 请求数据从数据源发送至 RabbitMQ、Kafka 等队列。交由统计、去重、去静态资源模块利用 Redis 进行数据处理,处理后的 unique 请求存入 RabbitMQ 扫描队列,等待 Scan Engine 的消费。而 Scan Engine 则全权负责参数解析和变形,利用预先设置好的规则顺序进行请求重放和漏洞检测。最终,如果 Scan Engine 判断出某个请求含有漏洞,则落地到 MySQL 中,交由 Hulk 的运营人员进行漏洞的确认和复现。

11.jpg

11.jpg

数据来源主要有 2 种类型,即基于网络流量镜像的方式和基于 HTTP 代理的方式。
基于网络流量镜像的方式中,需要在办公网到测试环境核心交换机上做流量镜像,通过 dpdk、pf_ring 等高速抓包模块进行流量获取,并按照五元组信息进行 TCP 流重组。然后通过 HTTP 解析器,将其中 HTTP 请求的请求方法、请求地址、请求域名、请求参数等数据提取成 JSON 格式,发送到 Kafka 中。
当然,这其中还有一部分为 HTTPS 的请求,需要通过 rsa key 解密后才能交由 HTTP 解析器正常解析。随着 HTTP 2.0 时代的来临,大部分的 HTTPS 请求在进行秘钥交换时采用了更高安全性的 Diffie-Hellman 秘钥交换算法,我们的 HTTPS 解密模块也逐渐退出历史舞台,只能后移流量镜像模块,转向纯 HTTP 的流量捕获。
3.jpg

3.jpg

基于 HTTP 代理的方式中,只需要配置代理服务器,将测试人员的测试请求数据收集起来,然后采用同样的模块进行去重和统计处理,结果发送至 Kafka 队列,有着与基于流量的形式同样的处理流程。

数据处理

流量进入到消息队列之后,去重模块会从消息队列消费,计算出 URL、args 等的 MD5 值,在 Redis 中进行去重,如果是一个已经扫描过的地址,则只记录一条日志到 ES 中。如果是一个新的 URL 地址,就将其具体的 HTTP 请求发送至消息队列中,等待 Scan Engine 的消费。
在数据处理的时候,去重是非常重要的,这里涉及到不同请求方法、不同的参数,任何一点不同,都可以被看重是不同的 URL 地址,也对应了不同的后端接口。
1.jpg

1.jpg

除了这些之外,针对伪静态 URL,我们也需要将 /products/655554.html 归一化为 /products/NNNNN.html。如上图所示,将数字归一化来去掉 30% 左右的相似 URL。然后利用 redis 的 TTL 特性,使得一段时间之前扫过的 URL,可以在下一次的去重中被判断为新 URL,从而再次加入扫描队列,等待新一轮的安全检测。

漏洞检测

扫描引擎从消息队列中读取去重后的流量数据,使用多种不同的方式去进行漏洞扫描。
1、一般的 Web 漏洞配置规则来检查,比如 XSS 漏洞, 文件包含漏洞,敏感文件读取等,先替换参数,或重新构造 URL, 再重放, 再检查响应内容是否包含特定的信息, 以此来判断是否存在漏洞;
2、SQL 注入漏洞则使用高效的开源工具 sqlmap 来检测,避免重复造轮子;
3、另外还有一些其他漏洞, 比如存储型 XSS,Struts 漏洞,SSL 的漏洞,这些无法使用简单的替换参数重放的方法,但是我们提供了插件编写功能,这样可以让运营人员写插件,以满足各种需求。
但是,从 Storm 实时攻击检测系统过来的流量是不带 Cookie 的, 如何扫描登录后漏洞呢? 我们生产 URL 和测试 URL 可以通过一种映射关系进行转换,保存各个测试站点的登陆信息文件。当读取一个生产的 URL 后,去获取它的测试地址和登录信息,就可以去扫描它相应的测试地址了。这样就避免了影响线上用户。
5.jpg

5.jpg

扫描速度也是扫描任务的一个关键指标,在整个架构中,不同的模块之间是通过消息队列进行数据传输的。所以当去重模块或者扫描引擎模块处理速度不够快,造成数据积压时,我们可以通过增加模块实例来进行水平拓展。

漏洞管理

对于扫描结果中存在问题的 URL 和对应漏洞,我们会进行一个快照功能。即将当时的请求和响应包完整保存下来,方便运营人员验证漏洞。
6.jpg

6.jpg

且对于响应体内容,还可以进行一个基本的本地渲染,复现漏洞发现时的真实情况。
1.jpg

1.jpg

规则测试

同时,为保证规则有效性,我们还在管理控制台中集成了规则的测试功能。
8.jpg

8.jpg

这样,只需要搭建一个带各种漏洞的测试环境, 规则运营人员就可以在这里配置, 然后针对性地对每一个规则、插件进行有效性测试。

总结

目前,整个项目上线稳定运行两年多, 已发现线上高危漏洞 30+,中危漏洞 300+,低危漏洞 400+,为线上业务安全运行提供了强有力的保障。当然, 对于数据污染、扫描频率、去重逻辑、扫描类型等扫描器常见的诟病,我们后续也会一直不断进行优化迭代。

作者:陈莹 携程信息安全部安全专家。

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

6

添加新评论0 条评论

Ctrl+Enter 发表

作者其他文章

相关文章

相关问题

相关资料

X社区推广