OpenCAS开源推荐
  • Introduction
  • 1. GitBook
  • 2. Guava
  • 3. Easy Machine Learning
  • 4. Deeplearning-biology
  • 5. React
  • 6. chatbot
  • 7. Riot
  • 8. WaveFunctionCollapse
  • 9. Frappé charts
  • 10. Apache Spark
  • 11. vscode
  • 12. chalktalk
  • 13. Scrapy
  • 14. Papers We Love
  • 15. Git Flight Rules
  • 16. DrangonBones
  • 17. Sqlmap
  • 18. Tensorflow
  • 19. RapidMiner
  • 20. The Sleuth Kit
  • 21. Flask
  • 22. Hashtopussy
  • 23. PyTorch
  • 24. KNIME
  • 25. Pytudes
  • 26. geekcomputers
  • 27. IPFS
Powered by GitBook
On this page
  • 标签:
  • 简介:
  • 项目地址:
  • 项目文档:
  • For contributor
  • For user
  • 参考链接:

13. Scrapy

Previous12. chalktalkNext14. Papers We Love

Last updated 7 years ago

标签:

Python API Web

简介:

Scrapy Scrapy是用Python编写的用于抓取网站和提取结构化数据的应用程序框架。Scrapy也可用于使用API​​(如亚马逊公司的Web服务),或者作为网络爬虫来提取数据。用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片。

Scrapy Scrapy中的数据流由执行引擎控制,其过程如下:

1.引擎打开一个网站(open a domain),找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。

2.引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。

3.引擎向调度器请求下一个要爬取的URL。

4.调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(请求(request)方向)转发给下载器(Downloader)。

5.一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(返回(response)方向)发送给引擎。

6.引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理。

7.Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。

8.引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。

9.(从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。

项目地址:

项目文档:

For contributor

For user

参考链接:

  • 作者:叶淞任

Scrapy官网
Scrapy使用教程
https://github.com/scrapy/scrapy
https://github.com/scrapy/scrapy/wiki
https://scrapy.org/download/
http://www.jianshu.com/p/a8aad3bf4dc4