当前位置:   article > 正文

FOFA爬虫大法——API的简单利用

FOFA爬虫大法——API的简单利用

FOFA是一款网络空间搜索引擎,它通过进行网络空间测绘,帮助研究人员或者企业迅速进行网络资产匹配,例如进行漏洞影响范围分析、应用分布统计、应用流行度等。

 

何为API?如果你在百度百科上搜索,你会得到如下结果:

API(Application Programming Interface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。

那么通俗一点来说,API是什么呢?从技术角度来说,API指的是应用程序编程接口。很多大型企业都会为自己的客户建立应用程序编程接口,或供内部使用。

今天i春秋针对爬虫FOFA里面的数据进行统计分析,即API的简单利用,希望对大家有所帮助,本文阅读用时约5分钟。

 

环境

描述环境为文章中所用到的所有技术以及中间件并非全部安装,可根据使用的规模进行调整使用。

语言:python2.7(必须)

模块:requests(必须)

操作系统:MacOS 10.13.4(非必须)

分布式消息队列管理:Celery(最后一节安装)

日志记录:logging(必须)

中间价:Redis(最后一节安装)/MySQL(必须)

数据库操作:pymysql(必须)/DBUtils(必须)

 

安装环境

  1. # 安装requests
  2. pip isntall requests
  3. # 安装celery Mac
  4. pip install celery
  5. # 安装celery Windows
  6. pip isntall celery=3.1.25
  7. # 安装 pymysql
  8. pip install pymysql
  9. # 安装logging
  10. pip install logging
  11. # 安装 DBUtils 数据库连接池
  12. pip install DBUtils

注:Windows安装Celery时最好安装3.1.25版本,不然可能会有意想不到的惊喜。

FOFA API

文档:https://fofa.so/api

请求:https://fofa.so/api/v1/search/all

请求方式:GET

请求参数:

 

响应:

 

数据库设计

设计数据库存放FOFA爬虫数据,方便统计查询。

 

SQL语句

  1. DROP TABLE IF EXISTS `fofa_spider`;
  2. CREATE TABLE `fofa_spider` (
  3. `id` INT (11) NOT NULL AUTO_INCREMENT,
  4. `host` VARCHAR (255) NOT NULL,
  5. `ip` VARCHAR (255) NOT NULL,
  6. `port` VARCHAR (255) DEFAULT NULL,
  7. `protocol` VARCHAR (255) NOT NULL,
  8. `country_name` VARCHAR (255) DEFAULT NULL,
  9. `region_name` VARCHAR (255) DEFAULT NULL,
  10. `city_name` VARCHAR (255) DEFAULT NULL,
  11. `fofa_sql` text NOT NULL,
  12. `create_date` DATETIME NOT NULL,
  13. `update_date` DATETIME NOT NULL,
  14. PRIMARY KEY (`id`)
  15. ) ENGINE = INNODB DEFAULT CHARSET = utf8mb4;

数据库SQL文件:https://github.com/0nise/scripts/blob/master/fofa_spider.sql

小试牛刀

本节主要讲解可适用与一般的FOFA爬虫,如果需要大批量数据爬虫请您接着往下看。

环境

语言:python2.7

中间件:MySQL

第三方包:pymysql/requests/

场景:小规模爬虫/一般爬虫

通过查看FOFA API可以得知请求地址和参数,开局一句话功能全靠编。

请求中心

在发送大量的http请求时最好使用统一的HTTP请求中心,方便控制,代码重复利用,提高效率。

  1. session = requests.session()
  2. # 请求头
  3. headers = {
  4. 'Upgrade-Insecure-Requests': '1',
  5. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36'
  6. }
  7. '''
  8. 请求中心,控制程序所有HTTP请求,如果请求发生错误进行尝试再次连接
  9. @param url 请求连接
  10. home.php?mod=space&uid=126298 请求响应结果
  11. '''
  12. def fofa_requests(url):
  13. rs_content = ''
  14. while True:
  15. try:
  16. rs = session.get(api_url, verify=False,headers=headers)
  17. rs_text = rs.text
  18. results = json.loads(rs_text)
  19. total_size = results['size']
  20. error = results
  21. if results['error'] and 'None' not in results['error']:
  22. info = u'fofa 错误:'+results['error']+u' 休眠30s'
  23. logging.error(info)
  24. time.sleep(30)
  25. else:
  26. rs_content = results
  27. except Exception as e:
  28. logging.error(u'fofa 错误:'+str(e.message)+u' 休眠30s')
  29. traceback.print_exc()
  30. time.sleep(30)
  31. return rs_content

数据库存储

有了统一的请求中心接下来就该编写入库代码,将爬虫结果存入数据库中。

  1. '''
  2. 批量数据存入数据库
  3. @param results
  4. @param page_no 当前页数
  5. @param page_total 总页数
  6. '''
  7. def batch_insert_db(results,page_no,page_total,fofa_sql):
  8. try:
  9. Z = []
  10. for result in results:
  11. a = (str(result[0]),str(result[1]),str(result[2]),str(result[3]),str(result[4]),str(result[5]),str(result[6]),pymysql.escape_string(fofa_sql))
  12. Z.append(a)
  13. sql = "INSERT IGNORE INTO fofa_spider(id,host,ip,port,protocol,country_name,region_name,city_name,fofa_sql,create_date,update_date) VALUES(DEFAULT,%s,%s,%s,%s,%s,%s,%s,%s,NOW(),NOW())"
  14. cursor.executemany(sql, Z)
  15. connection.commit()
  16. logging.info(u'存入数据库ok,总数量为:'+str(len(Z))+u', page--> '+str(page_no)+'/'+str(page_total))
  17. except Exception as e:
  18. logging.error(u"存入数据库错误,错误信息:"+e.message)
  19. traceback.print_exc()

核心业务代码

可以存入数据库中就该写核心的函数逻辑函数,输入参数仅为FOFA检索语句。

  1. '''
  2. fofa 爬虫主函数
  3. @param fofa_sql fofa查询语句
  4. '''
  5. def main(fofa_sql):
  6. base64_str = base64.b64encode(fofa_sql)
  7. fields_str = ','.join(fields)
  8. api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_start)+'&qbase64='+base64_str
  9. rs = fofa_requests(api_url)
  10. total_size = rs['size']
  11. # 计算页数
  12. page_end = total_size / page_size + 1 if total_size % page_size != 0 else total_size / page_size
  13. # 存入u 数据库
  14. batch_insert_db(rs['results'],page_start,page_end,fofa_sql)
  15. for page_no in range(1,page_end+1):
  16. api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_no)+'&qbase64='+base64_str
  17. batch_insert_db(rs['results'],page_start,page_end,fofa_sql)

程序运行结果:

 

完整代码地址:

https://github.com/0nise/scripts/blob/master/fofa_spider.py

注:运行脚本之前先配置相关配置信息(数据库/FOFA信息)

进阶

问题

针对一般的数据爬虫,上述方法可以完美适应。但如果需要爬虫的是为千万级别规模的数据,上述方法就不适用了,解决方案一般有多线程/多进程/协程等。

思路

针对大规模数据爬虫,很多人想到的是多线程/多进程/协程等方案,但是这些方案的可扩展并不是很强,如果需要调整工具需要停止程序修改程序等,这里我是使用生产者和消费的思路来处理。只需要对上述的代码做轻微修改就可以完美的适应大规模数据爬虫,这里我使用redis+celery的方式来实现。

Redis

Redis是一款开源的、高性能的键-值存储(key-value store)。它常被称作是一款数据结构服务器(data structure server)。

Redis的键值可以包括字符串(strings)类型,同时它还包括哈希(hashes)、列表(lists)、集合(sets)和 有序集合(sorted sets)等数据类型。 对于这些数据类型,你可以执行原子操作。例如:对字符串进行附加操作(append);递增哈希中的值;向列表中增加元素;计算集合的交集、并集与差集等。

为了获得优异的性能,Redis采用了内存中(in-memory)数据集(dataset)的方式。同时,Redis支持数据的持久化,你可以每隔一段时间将数据集转存到磁盘上(snapshot),或者在日志尾部追加每一条操作命令(append only file,aof)。

Redis同样支持主从复制(master-slave replication),并且具有非常快速的非阻塞首次同步( non-blocking first synchronization)、网络断开自动重连等功能。同时Redis还具有其它一些特性,其中包括简单的事物支持、发布订阅 ( pub/sub)、管道(pipeline)和虚拟内存(vm)等 。

Redis具有丰富的客户端,支持现阶段流行的大多数编程语言。

celery

简介

Celery(芹菜)是一个简单、灵活且可靠的,处理大量消息的分布式系统,并且提供维护这样一个系统的必需工具。

任务队列

任务队列是一种在线程或机器间分发任务的机制。

消息队列

消息队列的输入是工作的一个单元,称为任务,独立的职程(Worker)进程持续监视队列中是否有需要处理的新任务。

Celery 用消息通信,通常使用中间人(Broker)在客户端和职程间斡旋。这个过程从客户端向队列添加消息开始,之后中间人把消息派送给职程,职程对消息进行处理。如下图所示:

 

Celery 系统可包含多个职程和中间人,以此获得高可用性和横向扩展能力。

架构

Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。

消息中间件

Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成,包括,RabbitMQ,Redis,MongoDB等,这里我先去了解RabbitMQ,Redis。

任务执行单元

Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。

任务结果存储

Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括Redis,MongoDB,Django ORM,AMQP等,这里我先不去看它是如何存储的,就先选用Redis来存储任务执行结果。

修改

添加celery配置信息

  1. '''
  2. Celery
  3. '''
  4. from celery import platforms,Celery
  5. platforms.C_FORCE_ROOT = True
  6. # Redis连接地址,如果为本机不需要做修改
  7. broker = 'redis://127.0.0.1:6379/0'
  8. app = Celery('fofa_spider',broker=broker)

添加核心函数

  1. '''
  2. celery 爬虫
  3. @param api_url 爬虫URL
  4. @param fofa_sql FOFA语句
  5. '''
  6. @app.task
  7. def celery_spider(api_url,fofa_sql):
  8. rs = fofa_requests(api_url)
  9. batch_insert_db(rs['results'],fofa_sql)

修改业务逻辑代码

  1. '''
  2. fofa 爬虫主函数
  3. @param fofa_sql fofa查询语句
  4. '''
  5. def main(fofa_sql):
  6. base64_str = base64.b64encode(fofa_sql)
  7. fields_str = ','.join(fields)
  8. api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_start)+'&qbase64='+base64_str
  9. rs = fofa_requests(api_url)
  10. total_size = rs['size']
  11. # 计算页数
  12. page_end = total_size / page_size + 1 if total_size % page_size != 0 else total_size / page_size
  13. # 存入数据库
  14. batch_insert_db(rs['results'],fofa_sql)
  15. for page_no in range(1,page_end+1):
  16. api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_no)+'&qbase64='+base64_str
  17. logging.info('send task -->'+api_url)
  18. celery_spider.delay(api_url,fofa_sql)

完整代码地址:

https://github.com/0nise/scripts/blob/master/fofa_spider_ext.py

运行

运行python fofa_spider_ext.py发送需要爬虫的任务信息

运行celery -A fofa_spider_ext worker -l info进行消费爬虫

运行成功

 

数据库信息

转载于:https://www.cnblogs.com/ichunqiu/p/10722523.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/830203
推荐阅读
相关标签
  

闽ICP备14008679号