当前位置: 首页 > news >正文

金山区网站建设手机清理优化软件排名

金山区网站建设,手机清理优化软件排名,张掖网站建设,越秀学校网站建设虽说现在大环境不太好,很多人面临着失业再就业风险,包括企业则面临着招人人,找对口专业难得问题。想要找到适合自己公司的人员,还要得通过爬虫获取筛选简历才能从茫茫人海中找到公司得力干将。废话不多说,直接开整。 1…

虽说现在大环境不太好,很多人面临着失业再就业风险,包括企业则面临着招人人,找对口专业难得问题。想要找到适合自己公司的人员,还要得通过爬虫获取筛选简历才能从茫茫人海中找到公司得力干将。废话不多说,直接开整。

在这里插入图片描述

1、导入所需的库:

import requests
from bs4 import BeautifulSoup
import re

这行代码导入了requests库,该库用于向网站发出HTTP请求;BeautifulSoup库,该库用于解析HTML文档;re库,该库用于处理正则表达式。

2、设置代理信息:

proxy_host = 'www.duoip.cn'
proxy_port = 8000
proxy = {'http': 'http://{}:{}'.format(proxy_host, proxy_port),'https': 'https://{}:{}'.format(proxy_host, proxy_port)'获取免费ip:jshk.com.cn/mb/reg.asp?kefu=xjy&csdn)
}

这行代码定义了代理的主机名和端口号,并将它们存储在proxy字典中。然后,我们使用format()函数将这些值拼接为代理URL。

3、发出HTTP请求:

response = requests.get('https://www.zhaopin.com/', proxies=proxy)

这行代码使用requests.get()函数向www.zhaopin.com发送GET请求。 proxies参数指定了代理服务器。

4、解析HTML文档:

soup = BeautifulSoup(response.text, 'html.parser')

这行代码使用BeautifulSoup库解析response.text(即HTTP响应的文本内容)。

5、获取招聘信息的HTML元素:

job_info = soup.find_all('div', attrs={'class': 'job-item'})

这行代码使用BeautifulSoup库的find_all()函数查找所有class为’job-item’的div元素(即招聘信息的HTML元素)。

6、循环遍历招聘信息:

for info in job_info:job_title = info.find('h2', attrs={'class': 'job-title'}).textcompany_name = info.find('span', attrs={'class': 'company'}).textlink = info.find('a')['href']print('职位名称:', job_title)print('公司名称:', company_name)print('链接:', link)print('-------------------------')

这行代码循环遍历job_info列表中的每一个元素,并使用find()函数查找职位名称、公司名称和链接。text参数用于获取元素的文本内容,而[‘href’]参数用于获取链接。然后,我们打印出这些信息。

7、整个爬虫程序的运行:

if __name__ == '__main__':proxy_host = 'www.duoip.cn'proxy_port = 8000proxy = {'http': 'http://{}:{}'.format(proxy_host, proxy_port),'https': 'https://{}:{}'.format(proxy_host, proxy_port)}response = requests.get('https://www.zhaopin.com/', proxies=proxy)soup = BeautifulSoup(response.text, 'html.parser')job_info = soup.find_all('div', attrs={'class': 'job-item'})for info in job_info:job_title = info.find('h2', attrs={'class': 'job-title'}).textcompany_name = info.find('span', attrs={'class': 'company'}).textlink = info.find('a')['href']print('职位名称:', job_title)print('公司名称:', company_name)print('链接:', link)print('-------------------------')

这行代码为整个爬虫程序的入口。当程序运行时,它会首先设置代理信息,然后发出HTTP请求,解析HTML文档,获取招聘信息的HTML元素,循环遍历招聘信息,并打印出这些信息。

以上就是爬取智联、无忧简历采集系统内容的Python代码。请注意,这只是一个基本的爬虫程序,实际的爬虫程序需要处理更多的复杂情况,例如处理网站的反爬虫策略、处理可能存在的网页结构变化、处理可能存在的错误等。因此,在编写实际的爬虫程序时,需要根据实际情况进行适当的调整和优化。

上面就是有关爬虫获取招聘信息的一些简易的代码,虽说过程很复杂,一旦跑通了,使用还是非常的方便。如果各位大佬有更好的建议,欢迎评论区交流讨论。

http://www.hkea.cn/news/522964/

相关文章:

  • 360极速怎么屏蔽网站新闻热点大事件
  • 购物app开发价格表站长工具seo排名
  • 微餐饮网站建设营销型网站建设方案
  • 高端网站建设公司好不好2020国内搜索引擎排行榜
  • 网站建设服务公司选哪家比较好?苏州优化收费
  • 中国建设银行河南省分行网站推广信息哪个平台好
  • 网站建设官网免费模板杭州seo优化
  • 绍兴网站建设谷歌搜索引擎在线
  • 网站的会员认证怎么做黑龙江新闻头条最新消息
  • 做网站如何分工百度推广登录平台客服
  • 网站建设如何提案万网域名注册信息查询
  • 创意二维码制作网站企业网络营销推广案例
  • 论坛型网站怎么做百度高级检索入口
  • 做百度移动网站排搜素引擎优化
  • 公司创建一个网站需要多少钱想做百度推广找谁
  • 做文献ppt模板下载网站有哪些常德政府网站
  • 青岛网站建设公司排行外链工具在线
  • 网站怎么做显得简洁美观seo数据是什么意思
  • 阿里巴巴开通诚信通后网站怎么做网络优化网站
  • 东莞手机网站价格便宜个人免费建站软件
  • 电子商务网站建设的步骤一般为百度100%秒收录
  • 做企业网站怎么样免费的推广软件下载
  • 拓普网站建设美国搜索引擎
  • 网站开发者工资冯耀宗seo视频教程
  • 软件开发各阶段工作量比例搜索引擎优化的基础是什么
  • 网站怎么做才能将名声打响云搜索app
  • 南阳做网站优化哪家好一级域名生成二级域名
  • 3322动态域名官网郑州seo联系搜点网络效果好
  • 网络营销渠道的类型河北seo基础教程
  • 做微信网站多少钱seo内部优化包括哪些内容