1.第一个要介绍的是discover脚本,一个集成的被动信息收集工具,该工具集使用以下工具集(dnsrecon,goofile,goohost.metasploit,whois等),主要用于收集开源情报,可直接从github下载得到,地址(https://github.comleebaird/discover)
运行界面如下:
尝试下选项一,导入域名,进入自动化处理阶段
接着进入处理,自动化生成html结果如下:
确实很方便,连报告都自动生成好了,但是不一定有自己来详细。
2.第二个介绍的工具是spiderfoot,也是自动化扫描,运行前需要先安装一些requestment.
需要先进行好配置安装,使用命令pip install cherrypy一个个检查,
安装配件成功以后再使用python sf.py 运行脚本。
接着spiderfoot会运行在firefox5001端口上,打开即可直接进行扫描,可直接输入目标。生成图表结果。如图:
还能生成网络拓扑图
甚是方便~