北京专业网站建设公司排名,wordpress精简版下载地址,wordpress首页编辑,建设部办公厅网站一、基础入门
1.1什么是爬虫
爬虫(spider#xff0c;又网络爬虫)#xff0c;是指向网站/网络发起请求#xff0c;获取资源后分析并提取有用数据的程序。
从技术层面来说就是 通过程序模拟浏览器请求站点的行为#xff0c;把站点返回的HTML代码/JSON数据/二进制数据…一、基础入门
1.1什么是爬虫
爬虫(spider又网络爬虫)是指向网站/网络发起请求获取资源后分析并提取有用数据的程序。
从技术层面来说就是 通过程序模拟浏览器请求站点的行为把站点返回的HTML代码/JSON数据/二进制数据图片、视频 爬到本地进而提取自己需要的数据存放起来使用。
1.2爬虫基本流程
用户获取网络数据的方式
方式1浏览器提交请求—下载网页代码—解析成页面
方式2模拟浏览器发送请求(获取网页代码)-提取有用的数据-存放于数据库或文件中
爬虫要做的就是方式2。 1
发起请求
使用http库向目标站点发起请求即发送一个Request
Request包含请求头、请求体等
Request模块缺陷不能执行JS 和CSS 代码
2
获取响应内容
如果服务器能正常响应则会得到一个Response
Response包含htmljson图片视频等
3
解析内容
解析html数据正则表达式RE模块、xpath主要使用、beautiful soup、css
解析json数据json模块
解析二进制数据:以wb的方式写入文件
4
保存数据
数据库MySQLMongdb、Redis或 文件的形式。
1.3http协议 请求与响应
http协议
Request用户将自己的信息通过浏览器socket client发送给服务器socket server
Response服务器接收请求分析用户发来的请求信息然后返回数据返回的数据中可能包含其他链接如图片jscss等
ps浏览器在接收Response后会解析其内容来显示给用户而爬虫程序在模拟浏览器发送请求然后接收Response后是要提取其中的有用数据。
1.3.1
request
(1) 请求方式
常见的请求方式GET / POST
2请求的URL
url全球统一资源定位符用来定义互联网上一个唯一的资源 例如一张图片、一个文件、一段视频都可以用url唯一确定
3请求头
User-agent请求头中如果没有user-agent客户端配置服务端可能将你当做一个非法用户host
cookiescookie用来保存登录信息
注意一般做爬虫都会加上请求头。
请求头需要注意的参数
Referrer访问源至哪里来一些大型网站会通过Referrer 做防盗链策略所有爬虫也要注意模拟User-Agent:访问的浏览器要加上否则会被当成爬虫程序cookie请求头注意携带
4请求体
请求体 如果是get方式请求体没有内容 get请求的请求体放在 url后面参数中直接能看到 如果是post方式请求体是format data
ps1、登录窗口文件上传等信息都会被附加到请求体内 2、登录输入错误的用户名密码然后提交就可以看到post正确登录后页面通常会跳转无法捕捉到post
1.3.2
response
1响应状态码
200代表成功301代表跳转404文件不存在403无权限访问502服务器错误
2response header
响应头需要注意的参数Set-Cookie:BDSVRTM0; path/可能有多个是来告诉浏览器把cookie保存下来
3preview就是网页源代码
json数据
如网页html图片
二进制数据等
02
二、基础模块
2.1requests
requests是python实现的简单易用的HTTP库,是由urllib的升级而来。
开源地址
https://github.com/kennethreitz/requests中文API
http://docs.python-requests.org/zh_CN/latest/index.html2.2re 正则表达式
在 Python 中使用内置的 re 模块来使用正则表达式。
缺点处理数据不稳定、工作量大
2.3XPath
Xpath(XML Path Language) 是一门在 XML 文档中查找信息的语言可用来在 XML 文档中对元素和属性进行遍历。
在python中主要使用 lxml 库来进行xpath获取在框架中不使用lxml框架内直接使用xpath即可
lxml 是 一个HTML/XML的解析器主要的功能是如何解析和提取 HTML/XML 数据。
lxml和正则一样也是用 C 实现的是一款高性能的 Python HTML/XML 解析器我们可以利用之前学习的XPath语法来快速的定位特定元素以及节点信息。
2.4BeautifulSoup
和 lxml 一样Beautiful Soup 也是一个HTML/XML的解析器主要的功能也是如何解析和提取 HTML/XML 数据。
使用BeautifulSoup需要导入bs4库
缺点相对正则和xpath处理速度慢
优点使用简单
2.5Json
JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景比如网站前台与后台之间的数据交互。
在python中主要使用 json 模块来处理 json数据。Json解析网站
https://www.sojson.com/simple_json.html2.6threading
使用threading模块创建线程直接从threading.Thread继承然后重写__init__方法和run方法
03
三、方法实例
3.1get方法实例
demo_get.py 3.2post方法实例
demo_post.py 3.3添加代理
demo_proxies.py
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-j2qfnyOz-1686102623828)(https://p3-sign.toutiaoimg.com/pgc-image/49f63acb6e96431a9d4bd313c569a93d~noop.image?_iz58558fromarticle.pc_detailx-expires1686707360x-signatureAS3bbNwubO5arKDopywywAl355s%3D)]
3.4获取ajax类数据实例
demo_ajax.py 3.5使用多线程实例
demo_thread.py
04
四、爬虫框架
4.1Srcapy框架
Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架用途非常广泛。Scrapy 使用了 Twisted(其主要对手是Tornado)异步网络框架来处理网络通讯可以加快我们的下载速度不用自己去实现异步框架并且包含了各种中间件接口可以灵活的完成各种需求。
4.2Scrapy架构图 4.3Scrapy主要组件
Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯信号、数据传递等。Scheduler(调度器): 它负责接受引擎发送过来的Request请求并按照一定的方式进行整理排列入队当引擎需要时交还给引擎。Downloader下载器负责下载Scrapy Engine(引擎)发送的所有Requests请求并将其获取到的Responses交还给Scrapy Engine(引擎)由引擎交给Spider来处理Spider爬虫它负责处理所有Responses,从中分析提取数据获取Item字段需要的数据并将需要跟进的URL提交给引擎再次进入Scheduler(调度器)Item Pipeline(管道)它负责处理Spider中获取到的Item并进行进行后期处理详细分析、过滤、存储等的地方.Downloader Middlewares下载中间件你可以当作是一个可以自定义扩展下载功能的组件。Spider MiddlewaresSpider中间件你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件比如进入Spider的Responses;和从Spider出去的Requests
4.4Scrapy的运作流程
引擎HiSpider, 你要处理哪一个网站Spider老大要我处理xxxx.com。引擎你把第一个需要处理的URL给我吧。Spider给你第一个URL是xxxxxxx.com。引擎Hi调度器我这有request请求你帮我排序入队一下。调度器好的正在处理你等一下。引擎Hi调度器把你处理好的request请求给我。调度器给你这是我处理好的request引擎Hi下载器你按照老大的下载中间件的设置帮我下载一下这个request请求下载器好的给你这是下载好的东西。如果失败sorry这个request下载失败了。然后引擎告诉调度器这个request下载失败了你记录一下我们待会儿再下载引擎HiSpider这是下载好的东西并且已经按照老大的下载中间件处理过了你自己处理一下注意这儿responses默认是交给def parse()这个函数处理的Spider处理完毕数据之后对于需要跟进的URLHi引擎我这里有两个结果这个是我需要跟进的URL还有这个是我获取到的Item数据。引擎Hi 管道 我这儿有个item你帮我处理一下调度器这是需要跟进URL你帮我处理下。然后从第四步开始循环直到获取完老大需要全部信息。管道调度器好的现在就做
4.5制作Scrapy爬虫4步曲
1新建爬虫项目scrapy startproject mySpider2明确目标 编写items.py打开mySpider目录下的items.py3制作爬虫 spiders/xxspider.pyscrapy genspider gushi365 gushi365.com4存储内容 pipelines.py设计管道存储爬取内容
05
五、常用工具
5.1fidder
fidder是一款抓包工具主要用于手机抓包。
5.2XPath Helper
xpath helper插件是一款免费的chrome爬虫网页解析工具。可以帮助用户解决在获取xpath路径时无法正常定位等问题。
谷歌浏览器插件xpath helper 的安装和使用
https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html06
六、分布式爬虫
6.1scrapy-redis
Scrapy-redis是为了更方便地实现Scrapy分布式爬取而提供了一些以redis为基础的组件pip install scrapy-redis
github网站https://github.com/rolando/scrapy-redis6.2分布式策略
Master端(核心服务器) 搭建一个Redis数据库不负责爬取只负责url指纹判重、Request的分配以及数据的存储Slaver端(爬虫程序执行端) 负责执行爬虫程序运行过程中提交新的Request给Master
关于Python学习指南
学好 Python 不论是就业还是做副业赚钱都不错但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料给那些想学习 Python 的小伙伴们一点帮助
包括Python激活码安装包、Python web开发Python爬虫Python数据分析人工智能、自动化办公等学习教程。带你从零基础系统性的学好Python
Python所有方向的学习路线
Python所有方向路线就是把Python常用的技术点做整理形成各个领域的知识点汇总它的用处就在于你可以按照上面的知识点去找对应的学习资源保证自己学得较为全面。全套教程文末领取 Python学习视频600合集
观看零基础学习视频看视频学习是最快捷也是最有效果的方式跟着视频中老师的思路从基础到深入还是很容易入门的。 温馨提示篇幅有限已打包文件夹获取方式在文末
Python70个实战练手案例源码
光学理论是没用的要学会跟着一起敲要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。 Python大厂面试资料
我们学习Python必然是为了找到高薪的工作下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料并且有阿里大佬给出了权威的解答刷完这一套面试资料相信大家都能找到满意的工作。 Python副业兼职路线方法
学好 Python 不论是就业还是做副业赚钱都不错但要学会兼职接单还是要有一个学习规划。 这份完整版的Python全套学习资料已经上传朋友们如果需要可以扫描下方CSDN官方认证二维码或者点击链接免费领取【保证100%免费】
点击免费领取《CSDN大礼包》Python入门到进阶资料 实战源码 兼职接单方法 安全链接免费领取