当前位置: 首页 > news >正文

国内好的设计网站推荐建设信用卡在线海淘网站返现

国内好的设计网站推荐,建设信用卡在线海淘网站返现,四年级小新闻50字左右,辽宁建设工程信息网保函保险服务文章目录 前言发现宝藏 前言 为了巩固所学的知识#xff0c;作者尝试着开始发布一些学习笔记类的博客#xff0c;方便日后回顾。当然#xff0c;如果能帮到一些萌新进行新技术的学习那也是极好的。作者菜菜一枚#xff0c;文章中如果有记录错误#xff0c;欢迎读者朋友们… 文章目录 前言发现宝藏 前言 为了巩固所学的知识作者尝试着开始发布一些学习笔记类的博客方便日后回顾。当然如果能帮到一些萌新进行新技术的学习那也是极好的。作者菜菜一枚文章中如果有记录错误欢迎读者朋友们批评指正。 博客的参考源码可以在我主页的资源里找到如果在学习的过程中有什么疑问欢迎大家在评论区向我提出 发现宝藏 前些天发现了一个巨牛的人工智能学习网站通俗易懂风趣幽默忍不住分享一下给大家。【宝藏入口】。 http://jhsjk.people.cn/testnew/result import os import re from datetime import datetime import requests import json from bs4 import BeautifulSoup from pymongo import MongoClient from tqdm import tqdmclass ArticleCrawler:def __init__(self, catalogues_url, card_root_url, output_dir, db_nameren-ming-wang):self.catalogues_url catalogues_urlself.card_root_url card_root_urlself.output_dir output_dirself.client MongoClient(mongodb://localhost:27017/)self.db self.client[db_name]self.catalogues self.db[catalogues]self.cards self.db[cards]self.headers {Referer: https://jhsjk.people.cn/result?,User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36,Cookie: 替换成你自己的,}# 发送带参数的get请求并获取页面内容def fetch_page(self, url, page):params {keywords: ,isFuzzy: 0,searchArea: 0,year: 0,form: ,type: 0,page: page,origin: 全部,source: 2,}response requests.get(url, paramsparams, headersself.headers)soup BeautifulSoup(response.text, html.parser)return soup# 解析请求版面def parse_catalogues(self, json_catalogues):card_list json_catalogues[list]for list in card_list:a_tag article/list[article_id]card_url self.card_root_url a_tagcard_title list[title]updateTime list[input_date]self.parse_cards(card_url, updateTime)date datetime.now()catalogues_id list[article_id]01# 检查重复标题existing_docs self.catalogues.find_one({id: catalogues_id})if existing_docs is not None:print(f版面id: {catalogues_id}【已经存在】)continuecard_data {id: catalogues_id,title: card_title,page: 1,serial: 1,# 一个版面一个文章dailyId: ,cardSize: 1,subjectCode: 50,updateTime: updateTime,institutionnCode: 10000,date: date,snapshot: {}}self.catalogues.insert_one(card_data)print(f版面id: {catalogues_id}【插入成功】)# 解析请求文章def parse_cards(self, url, updateTime):response requests.get(url, headersself.headers)soup BeautifulSoup(response.text, html.parser)try:title soup.find(div, d2txt clearfix).find(h1).textexcept:try:title soup.find(h1).textexcept:print(f【无法解析该文章标题】{url})html_content soup.find(div, d2txt_con clearfix)text html_content.get_text()imgs [img.get(src) or img.get(data-src) for img in html_content.find_all(img)]cleaned_content self.clean_content(text)# 假设我们有一个正则表达式匹配对象matchmatch re.search(r\d, url)# 获取匹配的字符串card_id match.group()date datetime.now()if len(imgs) ! 0:# 下载图片self.download_images(imgs, card_id)# 创建文档document {id: card_id,serial: 1,page: 1,url : url,type: ren-ming-wang,catalogueId: card_id 01,subjectCode: 50,institutionCode: 10000,updateTime: updateTime,flag: true,date: date,title: title,illustrations: imgs,html_content: str(html_content),content: cleaned_content}# 检查重复标题existing_docs self.cards.find_one({id: card_id})if existing_docs is None:# 插入文档self.cards.insert_one(document)print(f文章id{card_id}【插入成功】)else:print(f文章id{card_id}【已经存在】)# 文章数据清洗def clean_content(self, content):if content is not None:content re.sub(r\r, r\n, content)content re.sub(r\n{2,}, , content)# content re.sub(r\n, , content)content re.sub(r {6,}, , content)content re.sub(r {3,}\n, , content)content content.replace(P, ).replace(\P, ).replace(nbsp;, )return content# 下载图片def download_images(self, img_urls, card_id):# 根据card_id创建一个新的子目录images_dir os.path.join(self.output_dir, card_id)if not os.path.exists(images_dir):os.makedirs(images_dir)downloaded_images []for img_url in img_urls:try:response requests.get(img_url, streamTrue)if response.status_code 200:# 从URL中提取图片文件名image_name os.path.join(images_dir, img_url.split(/)[-1])# 确保文件名不重复if os.path.exists(image_name):continuewith open(image_name, wb) as f:f.write(response.content)downloaded_images.append(image_name)print(fImage downloaded: {img_url})except Exception as e:print(fFailed to download image {img_url}. Error: {e})return downloaded_images# 如果文件夹存在则跳过else:print(f文章id为{card_id}的图片文件夹已经存在)# 查找共有多少页def find_page_all(self, soup):# 查找em标签em_tag soup.find(em, onclickTrue)# 从onclick属性中提取页码if em_tag and onclick in em_tag.attrs:onclick_value em_tag[onclick]page_number int(onclick_value.split(()[1].split())[0])return page_numberelse:print(找不到总共有多少页数据)# 关闭与MongoDB的连接def close_connection(self):self.client.close()# 执行爬虫循环获取多页版面及文章并存储def run(self):soup_catalogue self.fetch_page(self.catalogues_url, 1)page_all self.find_page_all(soup_catalogue)if page_all:for index in tqdm(range(1, page_all), descPage):# for index in tqdm(range(1, 50), descPage):soup_catalogues self.fetch_page(self.catalogues_url, index).text# 解析JSON数据soup_catalogues_json json.loads(soup_catalogues)self.parse_catalogues(soup_catalogues_json)print(fFinished page {index})self.close_connection()if __name__ __main__:crawler ArticleCrawler(catalogues_urlhttp://jhsjk.people.cn/testnew/result,card_root_urlhttp://jhsjk.people.cn/,output_dirD:\\ren-ming-wang\\img)crawler.run() # 运行爬虫搜索所有内容crawler.close_connection() # 关闭数据库连接
http://www.hkea.cn/news/14544162/

相关文章:

  • 做网站一定要用到dw有没有做试卷的网站
  • 外贸网站推广外包弧度网站建设
  • 网站备案是每年一次吗产品推广广告
  • 高端企业网站建设规定校园网的规划与设计
  • 网站引流推广软件海拉尔网站建设平台
  • v9做的网站被攻击链接吧跳转wordpress单页模板
  • 做那个免费观看视频网站唐山哪里建筑工地最好
  • 北外新闻行业门户网站建设英文网站建设多少钱
  • 长春网站建设 信赖吉网传媒建站官网模板
  • 网站建设的实训周中国最牛的央企排名
  • pc端网站转手机站怎么做建筑方案设计师的工作内容
  • 建立自己个人网站怎么建立北京网站建站公
  • 东营网站建设seo小企业怎么建网站平台
  • 做搜狗pc网站快速好看的网站后台模板
  • 个人网站有哪些平台网站怎么建设原始站点
  • 珠宝网站源码开个做网站的公司
  • 培训机构做网站宣传软件开发的就业前景
  • ui设计网站成品图片怎么做刷东西网站
  • seo网站外包公司宁波做网站建设推广
  • 家政服家政服务网站模板设计工作室网页设计
  • 哈尔滨网站开发需要多少钱徐州网站优化
  • 网站建设商务的术语常州百度推广代理
  • 网站建设网页制作软件有哪些通州免费网站建设
  • 肥西县重点工程建设管理局网站帝国cms做搜索网站
  • 三亚做网站多少钱企业整套vi设计都包含哪些
  • 有哪些做包装盒的网站小红门网站建设
  • 房产中介网站模板成都政务网站建设
  • 阿里巴巴电子商务网站福州seo按天收费
  • 禹城做网站的公司推荐5家知名
  • 浙江省工程建设质量管理协会 网站北京 网站建设托管公司