当前位置: 首页 > news >正文

绿色模板网站小程序代理商怎么赚钱

绿色模板网站,小程序代理商怎么赚钱,推荐医疗网站建设,郑州网络推广免费平台免费代理池搭建 # 代理有免费和收费代理 # 代理有http代理和https代理 # 匿名度#xff1a; 高匿#xff1a;隐藏访问者ip 透明#xff1a;服务端能拿到访问者ip 作为后端#xff0c;如何拿到使用代理人的ip 请求头中#xff1a;x-forwor…免费代理池搭建 # 代理有免费和收费代理 # 代理有http代理和https代理 # 匿名度         高匿隐藏访问者ip         透明服务端能拿到访问者ip         作为后端如何拿到使用代理人的ip         请求头中x-forword-for         如一个 HTTP 请求到达服务器之前经过了三个代理 Proxy1、Proxy2、Proxy3IP 分别为 IP1、IP2、IP3用户真实IP为IP0那么按照XFF标准服务端最终会收到以下信息                 X-Forwarded-For: IP0, IP1, IP2                 如果拿IP3remote-addr中        # 搭建免费代理池         https://github.com/jhao104/proxy_pool     使用python爬取免费的代理解析出ip和端口地区存到库中     使用flask搭建了一个web服务只要向 /get 发送一个请求他就随机返回一个代理ip# 步骤         1、把项目下载下来         2、安装依赖虚拟环境     pip install -r requirements.txt         3、修改配置文件                             DB_CONN redis://127.0.0.1:6379/2         4、启动爬虫python proxyPool.py schedule         5、启动web服务python proxyPool.py server 6、以后访问http://127.0.0.1:5010/get/   可以拿到随机的免费ip 7、使用代码 import requestsres requests.get(http://192.168.1.51:5010/get/?typehttps).json() print(res[proxy])# 访问某个代理 res1requests.get(https://www.baidu.com,proxies{http:res[proxy]}) print(res1) # 项目下载 代理池使用 # 使用django写个项目只要一访问就返回访问者ip # 编写步骤 1、编写django项目写一个视图函数 def index(request):iprequest.META.get(REMOTE_ADDR)return HttpResponse(您的ip 是%s%ip) 2、配置路由 from app01.views import index urlpatterns [path(, index), ] 3、删除settings.py 中的数据库配置 4、把代码上传到服务端运行djagno项目         python3.8 manage.py runserver 0.0.0.0:8080 5、本地测试 import requests resrequests.get(http://127.0.0.1:5010/get/?typehttp).json() print(res[proxy]) res1requests.get(http://47.113.229.151:8080/,proxies{http:res[proxy]}) print(res1.text) 爬取某视频网站 注意  1 发送ajax请求获取真正视频地址  2 发送ajax请求时必须携带referer  3 返回的视频地址需要处理后才能播放 import requests import reres requests.get(https://www.pearvideo.com/category_loading.jsp?reqType5categoryId1start0) # print(res.text) # 解析出所有视频地址---》re解析 video_list re.findall(a href(.*?) classvervideo-lilink actplay, res.text) for video in video_list:real_url https://www.pearvideo.com/ videovideo_id video.split(_)[-1]# 必须携带refererreferer是视频详情地址# contId 是视频id号header{Referer:real_url}res requests.get(https://www.pearvideo.com/videoStatus.jsp?contId%smrd0.05520583472057039%video_id,headersheader)real_mp4_urlres.json()[videoInfo][videos][srcUrl]mp4 real_mp4_url.replace(real_mp4_url.split(/)[-1].split(-)[0], cont-%s % video_id)print(能播放的视频地址:,mp4)# 把视频下载到本地resrequests.get(mp4)with open(./video/%s.mp4%video_id,wb) as f:for line in res.iter_content():f.write(line) 爬取新闻 # 解析库汽车之家# bs4 解析库  pip3 install beautifulsoup4           lxml  pip3 install lxml # 爬取所有数据 import requests from bs4 import BeautifulSoupres requests.get(https://www.autohome.com.cn/news/1/#liststart) print(res.text) # 取出文章详情 import requests from bs4 import BeautifulSoupres requests.get(https://www.autohome.com.cn/news/1/#liststart) print(res.text)soup BeautifulSoup(res.text, html.parser) # 解析库 ul_list soup.find_all(nameul, class_article) # 找到所有 类名是article 的ul标签 for ul in ul_list: # 查找ul标签下的li标签li_list ul.find_all(nameli)for li in li_list:h3 li.find(nameh3) # 查找li标签下的所有h3标题if h3:title h3.text # 拿出h3标签的文本内容content li.find(p).text # 拿出li标签下的第一个p标签的文本内容url https: li.find(namea).attrs[href] # .attrs 拿到标签属性img li.find(img)[src] # 拿出img标签的属性src可以直接取print(文章标题%s文章摘要%s文章url%s文章图片%s % (title, content, url, img)) bs4介绍和遍历文档树 # bs4的概念是解析 xml/html 格式字符串的解析库         不但可以解析爬虫还可以修改 # 解析库 from bs4 import BeautifulSouphtml_doc htmlheadtitleThe Dormouses story/title/head body p classtitle idid_xx xxzzlqz bThe Dormouses story span彭于晏/span/b  xx/pp classstoryOnce upon a time there were three little sisters; and their names were a hrefhttp://example.com/elsie classsister idlink1Elsie/a a hrefhttp://example.com/lacie classsister idlink2Lacie/a and a hrefhttp://example.com/tillie classsister idlink3Tillie/a; and they lived at the bottom of a well./pp classstory.../p# soupBeautifulSoup(html_doc,html.parser) soup BeautifulSoup(html_doc, lxml)  # pip3 install lxml 1、文档容错能力        ressoup.prettify()        print(res) 2、遍历文档树 文档树html开头 ------html结尾中间包含了很多标签        print(soup.html.head.title) 3、通过 . 找到p标签  只能找到最先找到的第一个        print(soup.html.body.p)        print(soup.p) 4、获取标签的名称         p soup.html.body.p         print(p.name) 5、获取标签的属性         p soup.html.body.p         print(p.attrs.get(class))         # class 特殊可能有多个所以放在列表汇总         print(soup.a.attrs.get(href))         print(soup.a[href]) 6、获取标签的文本内容 标签对象.text            # 拿标签子子孙孙 标签对象.string         # 该标签有且只有自己有文本内容才能拿出来 标签对象.strings       # 拿子子孙孙都放在生成器中 print(soup.html.body.p.b.text) print(soup.html.body.p.text) print(soup.html.body.p.string) # 不能有子 孙 print(soup.html.body.p.b.string) # 有且只有它自己print(soup.html.body.p.strings) # generator 生成器---》把子子孙孙的文本内容都放在生成器中跟text很像 print(list(soup.html.body.p.strings)) # generator 生成器---》把子子孙孙的文本内容都放在生成器中跟text很像 7、嵌套选的         soup.html.body # -----了解----------- # 子节点、子孙节点 print(soup.p.contents) # p下所有子节点只拿直接子节点 print(soup.p.children) # 直接子节点 得到一个迭代器,包含p下所有子节点 for i,child in enumerate(soup.p.children):print(i,child)print(soup.p.descendants) #获取子孙节点,p下所有的标签都会选择出来  generator for i,child in enumerate(soup.p.descendants):print(i,child)# 父节点、祖先节点 print(soup.a.parent) #获取a标签的父节点 print(list(soup.a.parents)) #找到a标签所有的祖先节点父亲的父亲父亲的父亲的父亲...# 兄弟节点 print(soup.a.next_sibling) #下一个兄弟 print(soup.a.previous_sibling) #上一个兄弟print(list(soup.a.next_siblings)) #下面的兄弟们生成器对象 print(soup.a.previous_siblings) #上面的兄弟们生成器对象 搜索文档树 # 解析库 html_doc htmlheadtitleThe Dormouses story/title/head body p idmy_p classtitleb idbbb classboldestThe Dormouses story/b /pp classstoryOnce upon a time there were three little sisters; and their names were a hrefhttp://example.com/elsie classsister idlink1Elsie/a, a hrefhttp://example.com/lacie classsister idlink2Lacie/a and a hrefhttp://example.com/tillie classsister idlink3Tillie/a; and they lived at the bottom of a well./pp classstory.../p from bs4 import BeautifulSoupsoup BeautifulSoup(html_doc, lxml) # 五种过滤器: 字符串、正则表达式、列表、True、方法 1、字符串(和) ressoup.find(idmy_p) ressoup.find(class_boldest) ressoup.find(hrefhttp://example.com/elsie) ressoup.find(namea,hrefhttp://example.com/elsie,idlink1,class_sister) # 多个是and条件 # 可以写成 # ressoup.find(attrs{href:http://example.com/elsie,id:link1,class:sister}) # print(res) 2、正则表达式 import re ressoup.find_all(hrefre.compile(^http)) ressoup.find_all(namere.compile(^b)) ressoup.find_all(namere.compile(^b)) print(res) 3、列表(或) ressoup.find_all(name[body,b,a]) ressoup.find_all(class_[sister,boldest]) print(res) 4、布尔 ressoup.find_all(idTrue) ressoup.find_all(nameimg,srcTrue) print(res) 5、方法 def has_class_but_no_id(tag):return tag.has_attr(class) and not tag.has_attr(id) print(soup.find_all(has_class_but_no_id)) 6、搜索文档树可以结合遍历文档树一起用 ressoup.html.body.find_all(p) ressoup.find_all(p) print(res) 7、find 和find_all的区别:find 就是find_all只要第一个 8、recursiveTrue   limit1 ressoup.find_all(namep,limit2) # 限制条数 ressoup.html.body.find_all(namep,recursiveFalse) # 是否递归查找 print(res) css选择器 # 解析库 html_doc htmlheadtitleThe Dormouses story/title/head body p idmy_p classtitleb idbbb classboldestThe Dormouses story/b /pp classstoryOnce upon a time there were three little sisters; and their names were a hrefhttp://example.com/elsie classsister idlink1Elsie/a, a hrefhttp://example.com/lacie classsister idlink2Lacie/a and a hrefhttp://example.com/tillie classsister idlink3Tillie/a; and they lived at the bottom of a well./pp classstory.../p from bs4 import BeautifulSoup soup BeautifulSoup(html_doc, lxml) # css 选择器 .类名 #id body body a # 终极大招css选择器复制ressoup.select(a.sister) ressoup.select(p#my_pb) ressoup.select(p#my_p b) print(res)import requests from bs4 import BeautifulSoup header{User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } resrequests.get(https://www.zdaye.com/free/,headersheader) # print(res.text) soupBeautifulSoup(res.text,lxml) ressoup.select(#ipc tbody tr:nth-child(2) td.mtd) print(res[0].text) 今日思维导图
http://www.hkea.cn/news/14528349/

相关文章:

  • 如何在网站上推广自己的链接wordpress文章无法中文版
  • 中国建设网建设通官方网站wordpress文章页加一言
  • 哪里有免费网站可以看深圳市营销策划有限公司
  • 建设一个网站需要哪些费用wordpress开发商
  • 网站可以做视频链接招牌做的好的网站
  • 苏州市相城区建设局网站重庆公共资源交易中心网
  • 企业网站建设可分为什么层次北京网站优化推广收集
  • 网站建设 推荐网站制作费用预算表
  • 爱心助学网站建设网站建设公司 青岛
  • 网站制作二级网页怎么做vi设计包含的内容
  • 建网站需要多钱mvc电子商务网站开发
  • 网站商城建设员招聘信息潍坊网站制作怎么做
  • 如何一个空间放两个网站好的网站建设方案
  • 用asp做的几个大网站wordpress 多标签
  • 举措推进网站互动交流建设辽宁省建筑工程造价信息网
  • dede仿站wordpress无法用ftp
  • 随州市网站建设公司织梦移动网站模板免费下载
  • 网站 建设在作用是什么意思wordpress程序图片打开慢
  • 网站设计模板怎么使用做外贸最好的网站建设
  • 无锡梅村网站建设北京 网站设计飞沐
  • 网站开发不提供源代码怎么下载浏览器里的视频
  • 网站开发需要什么文凭wordpress外网ip访问
  • 遇到灾难网站变灰怎么做做头像网站静态
  • 信誉好的福州网站建设北京装饰公司排行 2019
  • 网站创建免费用户免费企业静态网站模板
  • 黑客怎么攻击网站网页模板在线设计
  • 外贸出口平台网站微信公众号微网站 建设报价表
  • 专做蓝领的网站wordpress图文安装
  • 有没有做衣服的网站吗网站建站六个目标
  • 广州建设网站服务南海网站建设