信息收集工具编写
网上工具有很多.但是都没有串联,写个缝合怪
模块
域名收集
subfinder
oneforall
合并去重subfinder和oneforall的域名存储到domain.txt
然后使用alterx来对域名进行变体探测
cat domain.txt | alterx | ksubdomain -verify -silent |tee res.txt
合并去重 domain.txt与res.txt
得到最终的domains.txt
端口扫描
top100 默认
使用naabu进行扫描top100
url处理
naabu扫描完端口后使用httpx进行验证,并输出在项目的url文件夹下
主动爬取
将获取的url使用ktana进行主动爬取,然后传给hakrawler,输出在url文件夹下
被动爬取
使用gau
xscan存在主动与被动,主动爬取的url传入xscan,输出其主动和gau被动爬取的值。
所有扫描结束后将值
url去重
主动爬取的url结果经过urldedupe处理 -s 处理
漏洞发现
nuclei(内存占用也大,采用10000,10000行的形式会好很多)
xss
扫描时使用脚本讲url分为10000行10000行的进行扫描以减少内存消耗防止劫持被kill
在扫描好一个文件后删除这个临时文件
子域名接管
这个在讲域名收集好后进行探测
自己写的脚本
8.使用gf提取易ssrf估计的url,轮换每个参数为反连域名的url,给httpx访问同时开启302跳转来测试url跳转漏洞
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 L的博客!
评论





