博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
nine
阅读量:5211 次
发布时间:2019-06-14

本文共 7041 字,大约阅读时间需要 23 分钟。

  • Scarpy爬虫框架

https://www.cnblogs.com/kermitjam/articles/10147261.html?tdsourcetag=s_pctim_aiomsg

高并发的爬虫框架

Runspider只能执行某个 爬虫程序.py文件

将项目根目录导入

Xpath语法 获取内容(./text()’)

 

发送请求 ---> 获取响应数据 ---> 解析数据 ---> 保存数据

Scarpy框架介绍     1、引擎(EGINE)     引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。     2、调度器(SCHEDULER)     用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址     3、下载器(DOWLOADER)     用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的     4、爬虫(SPIDERS)     SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求     5、项目管道(ITEM PIPLINES)     在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作     下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,     你可用该中间件做以下几件事:         (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);         (2) change received response before passing it to a spider;         (3) send a new Request instead of passing received response to a spider;         (4) pass response to a spider without fetching a web page;         (5) silently drop some requests.     6、爬虫中间件(Spider Middlewares)     位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)   Scarpy安装     1、pip3 install wheel     2、pip3 install lxml     3、pip3 install pyopenssl     4、pip3 install pypiwin32     5、安装twisted框架         下载twisted             http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted         安装下载好的twisted             pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl     6、pip3 install scrapy  Scarpy使用     1、进入终端cmd         - scrapy             C:\Users\administortra>scrapy             Scrapy 1.6.0 - no active project     2、创建scrapy项目         1.创建一个文件夹,专门用于存放scrapy项目             - D:\Scrapy_prject         2.cmd终端输入命令             scrapy startproject Spider_Project( 项目名)             - 会在 D:\Scrapy_prject文件夹下会生成一个文件                    Spider_Project : Scrapy项目文件         3.创建爬虫程序             cd Spider_Project  # 切换到scrapy项目目录下                           # 爬虫程序名称     目标网站域名             scrapy genspider   baidu     www.baidu.com  # 创建爬虫程序     3、启动scrapy项目,执行爬虫程序         # 找到爬虫程序文件进行执行         scrapy runspider只能执行某个 爬虫程序.py             # 切换到爬虫程序执行文件目录下             - cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders             - scrapy runspider baidu.py         # 根据爬虫名称找到相应的爬虫程序执行         scrapy crawl 爬虫程序名称             # 切换到项目目录下             - cd D:\Scrapy_prject\Spider_Project             - scrapy crawl baidu
1 1、进入终端cmd: 2         -scrapy 3  4 2、创建scrapy项目 5     1.创建文件夹存放scrapy项目 6         -D:\Scrapy_project\ 7  8     2.cmd终端输入命令 9     -scrapy starproject Spider_Project10     会在D:\Scrapy_project\下生成文件夹11         -Spider_Project :Scrapy项目文件12 13     3.创建好后会提示14         -cd Spider_Project     #切换到scrapy项目目录下15                           #爬虫程序名称   #目标网站域名16         -scrapy genspider  baidu          www.baidu.com     #创建爬虫程序17 18 3.启动scrapy项目,执行爬虫程序19     # 找到爬虫程序文件执行20     scrapy runspider 爬虫程序.py21     # 切换到爬虫程序执行目录下22         -cd D:\Scrapy_project\Spider_Project\Spider_Project\spiders23         -scrapy runspider baidu.py24 25     # 根据爬虫名称找到相应的爬虫程序执行26     scrapy crawl 爬虫程序名称27         # 切换到项目目录下28         - cd D:\Scrapy_prject\Spider_Project29         - scrapy crawl baidu30 31 ** Scarpy在pycharm中的使用 **32     1、创建一个py文件33         from scrapy.cmdline import execute34         execute()  # 写scrapy执行命令
scrapy基本使用cmd
1 ''' 2 main.py 3 ''' 4 from scrapy.cmdline import execute 5  6 # 写终端命令 7 # scrapy crawl baidu 8 # 执行baidu爬虫程序 9 # execute(['scrapy', 'crawl', 'baidu'])10 11 # 创建爬取链家网程序12 # execute(['scrapy', 'genspider', 'lianjia', 'lianjia.com'])13 14 # --nolog     去除日志15 execute('scrapy crawl --nolog lianjia'.split(' '))16 17 '''18 Scrapy在Pycharm中使用19 1.创建scrapy项目20 在settings.py文件中有21     -ROBOTSTXT_OBEY = True     #默认遵循robot协议22 修改为:23     -ROBOTSTXT_OBEY = False24 '''25 26 27 '''28 lianjia.py29 '''30 # -*- coding: utf-8 -*-31 import scrapy32 from scrapy import Request33 34 # response的类35 36 class LianjiaSpider(scrapy.Spider):37     name = 'lianjia'  # 爬虫程序名38     # 只保留包含lianjia.com的url39     allowed_domains = ['lianjia.com']  # 限制域名40 41     # 存放初始请求url42     start_urls = ['https://bj.lianjia.com/ershoufang/']43 44     def parse(self, response):  # response返回的响应对象45         # print(response)46         # print(type(response))47         # 获取文本48         # print(response.text)49         # print(response.url)50         # //*[@id="position"]/dl[2]/dd/div[1]51 52         # 获取城区列表url53         area_list = response.xpath('//div[@data-role="ershoufang"]/div/a')54 55         # 遍历所有区域列表56         for area in area_list:57             # print(area)58             '''59             .extract()提取多个60             .extract_first()提取一个61             '''62             # 1、区域名称63             area_name = area.xpath('./text()').extract_first()64 65             # 2、区域二级url66             area_url = 'https://bj.lianjia.com/' + area.xpath('./@href').extract_first()67 68             # 会把area_url的请求响应数据交给parse_area方法69             # yield后面跟着的都会添加到生成器中70             yield Request(url=area_url, callback=self.parse_area)71 72     def parse_area(self, response):73         # print(response)74 75         # 获取主页房源ul标签对象76         house_list = response.xpath('//ul[@class="sellListContent"]')77         # print(house_list)78         if house_list:79             for house in house_list:80                 # 房源名称81                 # //*[@id="leftContent"]/ul/li[1]/div/div[1]/a82                 house_name = house.xpath('.//div[@class="title"]/a/text()').extract_first()83                 print(house_name)84 85                 # 房源价格86                 # //*[@id="leftContent"]/ul/li[1]/div/div[4]/div[2]/div[1]/span87                 house_cost = house.xpath('.//div[@class="totalPrice"]/span/text()').extract_first() + '万'88                 print(house_cost)89 90                 # 房源单价91                 # //*[@id="leftContent"]/ul/li[1]/div/div[4]/div[2]/div[2]/span92                 house_price = house.xpath('.//div[@class="unitPrice"]/span/text()').extract_first()93                 print(house_price)94 95                 # yield Request(url='下一级url', callback=self.parse_area)96                 pass
Scrapy在Pycharm中使用
 
  • 微信机器人
1 from wxpy import Bot 2 from pyecharts import Pie 3 import webbrowser 4  5 # 实例化一个微信机器人对象 6 bot = Bot() 7  8 # 获取到微信的所有好友 9 friends = bot.friends()10 11 # 设定男性\女性\位置性别好友名称12 attr = ['男朋友', '女朋友', '人妖']13 14 # 初始化对应好友数量15 value = [0, 0, 0]16 17 # 遍历所有的好友,判断这个好友是男性还是女性18 for friend in friends:19     if friend.sex == 1:20         value[0] += 121     elif friend.sex == 2:22         value[1] += 123     else:24         value[2] += 125 26 # 实例化一个饼状图对象27 pie = Pie('Forver的好友们!')28 29 # 图表名称str,属性名称list,属性所对应的值list,is_label_show是否现在标签30 pie.add('', attr, value, is_label_show=True)31 32 # 生成一个html文件33 pie.render('friends.html')34 35 # 打开html文件36 webbrowser.open('friends.html')
View Code

 

 

posted on
2019-06-25 11:44 阅读(
...) 评论(
...)

转载于:https://www.cnblogs.com/LettersfromSuperz/p/11081969.html

你可能感兴趣的文章
PHP基础入门(二)
查看>>
[Luogu P3119] [USACO15JAN]草鉴定Grass Cownoisseur (缩点+图上DP)
查看>>
【原创】大数据基础之Zookeeper(4)应用场景
查看>>
18款在线代码片段测试工具
查看>>
20.C++- &&,||逻辑重载操作符的缺陷、,逗号重载操作符的分析
查看>>
静态变量数组实现LRU算法
查看>>
在SQL中怎么把一列字符串拆分为多列
查看>>
中文系统 上传file的input显示英文
查看>>
css样式写一个三角形
查看>>
比callback更简洁的链式执行promise
查看>>
android permission
查看>>
javascript获取textarea中所选文本的开始位置、结束位置和选择的文本
查看>>
【译】在Asp.Net中操作PDF - iTextSharp - 使用字体
查看>>
事务备份还原分离附加
查看>>
JSch - Java实现的SFTP(文件上传详解篇)
查看>>
一些注意点
查看>>
.net 文本框只允许输入XX,(正则表达式)
查看>>
C#修饰符
查看>>
20.核心初始化之异常向量表
查看>>
[BSGS][哈希]luogu P3846 可爱的质数
查看>>