首页 / 爬虫 / python爬虫之scrapy的使用
python爬虫之scrapy的使用
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了python爬虫之scrapy的使用,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含2835字,纯文字阅读大概需要5分钟。
内容图文
一、Scarpy框架介绍
1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。
2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的
4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求
5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
你可用该中间件做以下几件事:
(1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
(2) change received response before passing it to a spider;
(3) send a new Request instead of passing received response to a spider;
(4) pass response to a spider without fetching a web page;
(5) silently drop some requests.
6、爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests
二、Scarpy的安装
1、pip3 install wheel
2、pip3 install lxml
3、pip3 install pyopenssl
4、pip3 install pypiwin32
5、安装twisted框架
下载twisted
http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
安装下载好的twisted
pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl
6、pip3 install scrapy
三、Scarpy使用
1 1、进入终端cmd 2 - scrapy 3 C:\Users\administortra>scrapy 4 Scrapy 1.6.0 - no active project 5 6 2、创建scrapy项目 7 1.创建一个文件夹,专门用于存放scrapy项目 8 - D:\Scrapy_prject 9 2.cmd终端输入命令 10 scrapy startproject Spider_Project( 项目名) 11 - 会在 D:\Scrapy_prject文件夹下会生成一个文件 12 Spider_Project : Scrapy项目文件 13 14 3.创建爬虫程序 15 cd Spider_Project # 切换到scrapy项目目录下 16 # 爬虫程序名称 目标网站域名 17 scrapy genspider baidu www.baidu.com # 创建爬虫程序 18 19 3、启动scrapy项目,执行爬虫程序 20 21 # 找到爬虫程序文件进行执行 22 scrapy runspider只能执行某个 爬虫程序.py 23 # 切换到爬虫程序执行文件目录下 24 - cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders 25 - scrapy runspider baidu.py 26 27 # 根据爬虫名称找到相应的爬虫程序执行 28 scrapy crawl 爬虫程序名称 29 # 切换到项目目录下 30 - cd D:\Scrapy_prject\Spider_Project 31 - scrapy crawl baidu
内容总结
以上是互联网集市为您收集整理的python爬虫之scrapy的使用全部内容,希望文章能够帮你解决python爬虫之scrapy的使用所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。