帝国cms网站源码,做网站的软件有些什么,网站开发的报价,怎么查一个网站是谁做的文章目录 迟迟未开始的原因打破思维里的围墙抛砖引玉爬虫 结束词 迟迟未开始的原因 其实我也是很早就知道有python#xff0c;当时听说这个用于做测试不错#xff0c;也就一直没有提起兴趣#xff0c;后来人工智能火了之后#xff0c;再次接触python#xff0c;安装好pyth… 文章目录 迟迟未开始的原因打破思维里的围墙抛砖引玉爬虫 结束词 迟迟未开始的原因 其实我也是很早就知道有python当时听说这个用于做测试不错也就一直没有提起兴趣后来人工智能火了之后再次接触python安装好python环境下载好编辑软件PyCharm然后写下了第一行输出“hello world”。。。后来枯燥的学习语法过程中被其他事情打断了也就把这件事给落下了。 我觉得很多人学习东西都可能进入这种怪圈不管是九年义务教育从基础学起还是一些前辈苦口婆心的告诉你说基础很重要就行盖房子的地基一定要牢固所以也有很多人想我一样一头就埋进了语法的基础学习中枯燥无味极度挑战耐心。 打破思维里的围墙 在互联网刚兴起的时候就流传一句话只要学点皮毛就能在IT圈找到工作后来再慢慢学。 其实这句话是有点道理目标驱动了学习的动力学到一些皮毛后不断深入学习慢慢成长看似有点拔苗助长基础不牢固那么想想如果这个学点皮毛的同学到了公司后接收的需求里包含了某一个技术点自己没有学过是否就开始请教其他同学或者是自己到csdn等网站搜索知识然后补充回来或者当这位同学的代码没有考虑到高并发场景面对领导的点名是否心里默默记住并回家恶补一番。 打破思维里的围墙直接上手最有用的技术先模仿后自创优先把握关键皮毛然后收集其他皮毛最后发现没有皮毛可以收集了就已经算是行业里的准专业人士了。 抛砖引玉 我来抛个砖python比较有趣的应该是爬虫、数据分析和自动化。下面抛爬虫砖 爬虫 爬虫分页面爬虫和接口爬虫接口爬虫容易遇到反爬虫问题页面爬虫模拟浏览器行为比较不容易反爬虫。不管是页面爬虫还是接口爬虫都需要请求所以第一个接触的是requests。 页面爬虫需要分析得到的html文件BeautifulSoup就是处理这个的名字特别好翻译过来就是美味汤。这样最简单的爬虫就完成了。 import requests
from bs4 import BeautifulSoup
import json if __name__ __main__:self.base_url http://xzqh.mca.gov.cn# 看着很多其实抄来的不一定了反正ctrlvself.headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36,Accept: text/html,application/xhtmlxml,application/xml;q0.9,image/avif,image/webp,image/apng,*/*;q0.8,application/signed-exchange;vb3;q0.7,Accept-Language: zh-CN,zh;q0.9,en;q0.8,Accept-Encoding: gzip, deflate, br,Connection: keep-alive,Upgrade-Insecure-Requests: 1,Sec-Fetch-Dest: document,Sec-Fetch-Mode: navigate,Sec-Fetch-Site: none,Sec-Fetch-User: ?1,Cache-Control: max-age0,}# 1. 获取并解析页面中的省级数据response requests.Session().get(f{self.base_url}/map,headersself.headers,timeout10,verifyTrue)response.encoding gbk # 设置正确的编码# form表单格式为form namefsformtable classselect_tabletrtdinput typehidden idpyArr value具体内容/td/tr/table/formsoup BeautifulSoup(response.text, html.parser)form soup.find(form, {name: fsform})if form:input_data form.find(input, {id: pyArr})if input_data:json_data input_data.get(value)else:print(未找到input标签)else:print(未找到form表单)if json_data:info_array json.loads(json_data)print(info_array)else:print(未找到数据)结束词
看完是不是感觉挺简单的实践过程如果遇到报错直接丢网上查查就知道答案祝各位道友顺利