当前位置: 首页 > news >正文

杭州网站制作平台公司网站建设都用什么软件

杭州网站制作平台公司,网站建设都用什么软件,做网站 创业,网站建设发展CrawlSpider 1. CrawlSpider继承自scrapy.Spider 2. CrawlSpider可以定义规则#xff0c;再解析html内容的时候#xff0c;可以根据链接规则提取出指定的链接#xff0c;然后再向这些链接发送请求#xff0c;所以#xff0c;如果有需要跟进链接的需求#xff0c;意思就是…CrawlSpider 1. CrawlSpider继承自scrapy.Spider 2. CrawlSpider可以定义规则再解析html内容的时候可以根据链接规则提取出指定的链接然后再向这些链接发送请求所以如果有需要跟进链接的需求意思就是爬取了网页之后需要提取链接再次爬取使用Crawlspider是非常合适的 使用scrapy shell提取 1. 在命令提示符中输入 scrapy shell https://www.dushu.com/lianzai/1115.html 2. 导入链接提取器from scrapy.linkextractors import LinkExtractor 3.  allow () 正则表达式 提取符合正则的链接 5. 查看连接提取器提取的内容  6. restrict_xpaths () xpath语法提取符合xpath规则的链接 查看提取的内容 7. restrict_css ()  提取符合选择器规则的链接 小案例 1. 创建项目scrapy startproject 项目名 2. 跳转到spider目录下 cd .\项目名\项目名\spiders\ 3. 创建爬虫类scrapy genspider -t crawl 爬虫文件名 要爬取的网页 这里与之前的不一样 4. 运行scrapy crawl  爬虫文件名 指定日志等级settings.py文件中LOG_LEVEL DEBUG 将日志保存在文件中  .logsettings.py文件中LOG_FILE logdemo.log callback只能写函数字符串 followtrue 是否跟进 就是按照提取连接规则进行提取 爬虫文件 import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from scrapy_readbook_20240120.items import ScrapyReadbook20240120Itemclass RbookSpider(CrawlSpider):name rbookallowed_domains [www.dushu.com]start_urls [https://www.dushu.com/lianzai/1115_1.html]rules (Rule(LinkExtractor(allowr/lianzai/1115_\d.html),callbackparse_item,followFalse),)def parse_item(self, response):print()img_list response.xpath(//div[classbookslist]//img)for img in img_list:src img.xpath(./data-original).extract_first()name img.xpath(./alt).extract_first()book ScrapyReadbook20240120Item(namename, srcsrc)yield book pipelines.py文件 class ScrapyReadbook20240120Pipeline:def open_spider(self, spider):self.fp open(book.json, w, encodingutf-8)def process_item(self, item, spider):self.fp.write(str(item))return itemdef close_spider(self, spider):self.fp.close() items.py文件 import scrapyclass ScrapyReadbook20240120Item(scrapy.Item):# define the fields for your item here like:# name scrapy.Field()name scrapy.Field()src scrapy.Field()settings.py文件 # 开启管道 ITEM_PIPELINES {scrapy_readbook_20240120.pipelines.ScrapyReadbook20240120Pipeline: 300, } 保存在数据库中 1. 创建数据库 create database 数据库名字 charset utf8; 2. 使用数据库 use 数据库名字; 3. 创建表格 例子 create table 表名(     id int primary key auto_increment,     name varchar(128),     src varchar(128) ); 4. 在settings.py 文件中添加 ip地址、端口号、数据库密码、数据库名字、字符集 DB_HOST localhost  # ip地址 DB_PORT 3306  # 端口号必须是整数 DB_USER root  # 数据库用户名 DB_PASSWORD 123456  # 数据库密码 DB_NAME rbook  # 数据库名字 DB_CHARSET utf8  # 字符集不允许写 - 5. 在pipelines管道文件中增加 # 加载settings文件 from scrapy.utils.project import get_project_settings import pymysqlclass MysqlPipeline:def open_spider(self, spider):settings get_project_settings()self.host settings[DB_HOST] # ip地址self.port settings[DB_PORT] # 端口号self.user settings[DB_USER] # 数据库用户名self.password settings[DB_PASSWORD] # 数据库密码self.name settings[DB_NAME] # 数据库名字self.charset settings[DB_CHARSET] # 字符集self.connect()def connect(self):self.conn pymysql.connect(hostself.host,portself.port,userself.user,passwordself.password,dbself.name,charsetself.charset)self.cursor self.conn.cursor()def process_item(self, item, spider):sql insert into rbook(name,src) values({},{}).format(item[name], item[src])# 执行sql语句self.cursor.execute(sql)# 提交sql语句self.conn.commit()return itemdef close_spider(self, spider):# 关闭数据库链接self.cursor.close()self.conn.close() 6. settings文件添加新的管道 ITEM_PIPELINES {scrapy_readbook_20240120.pipelines.ScrapyReadbook20240120Pipeline: 300,scrapy_readbook_20240120.pipelines.MysqlPipeline: 301, } 7. 若要一直下载把所有数据都下载则需要把爬虫文件里的 follow 的值设为 True 数据库的数据
http://www.hkea.cn/news/14585780/

相关文章:

  • 武昌网站建设的公司湛江建站公司模板
  • 网站关键词优化方法阿里云网站建设 部署与发布
  • 网站架构图一般包括什么想学网站设计
  • 嘉峪关做网站北京电力交易中心电话号码
  • 网站打开com域名网站排名优先
  • 网站建设合同或方案书建设企业网站需注意什么
  • 企业网站asp模板wordpress邮件发送
  • 凡科代理千万不要做aso优化怎么做
  • 门户网站设计要求网站建设简单吗
  • 用腾讯云做淘宝客购物网站视频软件开发平台简介
  • 公司网站怎么做能被别人搜索到安装wordpress建站程序
  • 电商网站建设制作单位内部网站建设调研
  • 英文手机网站模板公司网站建设精英
  • 网站自动推广软件韩国做暖暖网站
  • 卡片形式的网站企业年金有什么用
  • 哪些网站可以免费申请wordpress如何换主题
  • 博客园网站开发网站首页排名seo搜索优化
  • 网站建设中最重要的环节是什么东莞网站网络
  • 下载免费网站模板wordpress网站地图
  • 湖南又出现5例深圳百度推广排名优化
  • 网站大多用源码来做吗网站备案背景幕布是什么
  • 网站域名申请好了怎么建设网站墨鱼wordpress
  • 长沙商城网站网站开发如何入门
  • 哈尔滨高端网站设计网站分哪些种类
  • 网站开发需求分析用的图网站表单制作
  • 毕业设计做系统跟做网站哪个容易无锡本地做网站
  • 机械企业网站建设国外设计欣赏网站
  • 花的网站建设规划书公司宣传片视频
  • 做食品团购去那家网站好长春个人网站制作公司
  • 做淘宝客必须要有网站吗电子商务 网站系统