当前位置: 首页 > news >正文

兰州seo网站排名锦州网站制作公司

兰州seo网站排名,锦州网站制作公司,珠海logo设计,自己做的博客网站2. 两种文件清除策略 kafka数据并不是为了做大量存储使用的#xff0c;主要的功能是在流式计算中进行数据的流转#xff0c;所以kafka中的数据并不做长期存储#xff0c;默认存储时间为7天 那么问题来了#xff0c;kafka中的数据是如何进行删除的呢#xff1f; 在Kafka…2. 两种文件清除策略 kafka数据并不是为了做大量存储使用的主要的功能是在流式计算中进行数据的流转所以kafka中的数据并不做长期存储默认存储时间为7天 那么问题来了kafka中的数据是如何进行删除的呢 在Kafka中存在数据过期的机制称为data expire。如何处理过期数据是根据指定的policy策略决定的而处理过期数据的行为即为log cleanup。 在Kafka中有以下几种处理过期数据的策略 log.cleanup.policydeleteKafka中所有用户创建的topics默认均为此策略 根据数据已保存的时间进行删除默认为1周 根据log的max size进行删除默认为-1也就是无限制 log.cleanup.policycompacttopic __consumer_offsets 默认为此策略 根据messages中的key进行删除操作 在active segment 被commit 后会删除掉old duplicate keys 无限制的时间与空间的日志保留 自动清理Kafka中的数据可以控制磁盘上数据的大小、删除不需要的数据同时也减少了对Kafka集群的维护成本。 那Log cleanup 在什么时候发生呢 首先值得注意的是log cleanup 在partition segment 上发生 更小/更多的segment也就意味着log cleanup 发生的频率会上升 Log cleanup 不应该频繁发生 因为它会消耗CPU与内存资源 Cleaner的检查会在每15秒进行一次由log.cleaner.backoff.ms 控制 2. log.cleanup.policydelete日志删除 log.cleanup.policydelete 的策略根据数据保留的时间、以及log的max size对数据进行cleanup。控制数据保留时间以及log max size的参数分别为 log.retention.hours指定数据保留的时常默认为一周168 将参数调整到更高的值也就意味着会占据更多的磁盘空间 更小值意味着保存的数据量会更少假如consumer 宕机超过一周则数据便会再未处理前即丢失 log.retention.bytes每个partition中保存的最大数据量大小默认为-1也就是无限大 再控制log的大小不超过一个阈值时会比较有用 在到达log cleanup 的条件后cleaner会自动根据时间或是空间的规则进行删除新数据仍写入active segment 针对于这个参数一般有以下两种使用场景分别为 log保留周期为一周根据log保留期进行log cleanup log.retention.hours168 以及 log.retention.bytes-1 log保留期为无限制根据log大小进行进行log cleanup log.retention.hours17520以及 log.retention.bytes524288000 其中第一个场景会更常见。 2. Log Compaction日志合并 Log compaction用于确保在一个partition中对任意一个key它所对应的value都是最新的。 这里举个例子我们有个topic名为employee-salary我们希望维护每个employee当前最新的工资情况。 左边的是compaction前segments中的数据右边为compaction 后segments中的数据其中有部分key对应的value有更新 可以看到在log compaction后相对于更新后的key-value message旧的message被删除。 Log Compaction 有如下特点 messages的顺序仍然是保留的log compaction 仅移除一些messages但不会重新对它们进行排序 一条message的offset是无法改变的immutable如果一条message缺失则offset会直接被跳过 被删除的records在一段时间内仍然可以被consumers访问到这段时间由参数delete.retention.ms默认为24小时控制 需要注意的是Kafka 本身是不会组织用户发送duplicate data的。这些重复数据也仅会在一个segment在被commit 的时候做重复数据删除所以consumer仍会读取到这部分重复数据如果客户端有发的话。 Log Compaction也会有时失败compaction thread 可能会crash所以需要确保给Kafka server 足够的内存用于做这些操作。如果log compaction异常则需要重启Kafka此为一个已知的bug。 Log Compaction也无法通过API手动触发至少到现在为止是这样只能server端自动触发。 下面是一个 Log Compaction过程的示意图 正在写入的records仍会被写入Active Segment已经committed segments会自动做compaction。此过程会遍历所有segments中的records并移除掉所有需要被移除的messages。 Log compaction由上文提到的log.cleanup.policycompact进行配置其中 Segment.ms默认为7天在关闭一个active segment前所需等待的最长时间 Segment.bytes默认为1G一个segment的最大大小 Min.compaction .lag.ms默认为0在一个message可以被compact前所需等待的时间 Delete.retention.ms默认为24小时在一条message被加上删除标记后在实际删除前等待的时间 Min.Cleanable.dirty.ratio默认为0.5若是设置的更高则会有更高效的清理但是更少的清理操作触发。若是设置的更低则清理的效率稍低但是会有更多的清理操作被触发
http://www.hkea.cn/news/14387274/

相关文章:

  • 学院门户网站建设必要性做网站 服务器
  • 青岛网站优化排名青岛ui设计公司
  • access做调查表网站免费的域名和网站
  • 郑州上街网站建设公司深圳深圳做网站
  • 手机摄影网站如何查网站pv
  • 去迪拜网站做乞丐临沂小程序开发公司哪家好
  • 广元市建设银行网站网络培训系统入口
  • 潍坊汇聚网站阿里巴巴企业网站注册
  • 品牌推广网站设计潍坊尚呈网站建设公司怎么样
  • 浙江公司网站建设制作网站建设与管理软件
  • 硅胶科技东莞网站建设北京市建筑信息公开平台
  • 新乡百度网站优化排名快速建站用什么
  • 深圳企业网站制作招聘信息微赞直播平台
  • 网站建设模板登录界面网站开发详情
  • 网站建设丶金手指下拉14wordpress删除不了插件
  • 做网站月收入多少学院网站建设计划
  • 深圳建设招标网站首页标准百度网站建设
  • 科技网站备案苏州开设网站公司在什么地方
  • 做网站运营工作流程专业建站公司联系方式
  • 毛衣品 东莞网站建设写作的网站哪个好
  • 旅游网站建设背景分析报告百度自媒体平台
  • 手机微信网站怎么做的好哪个页面设计培训好
  • 网站开发与建设方向服装网站建设案例分析
  • 网站开发语言一般是用什么上海装修公司排名前十口碑
  • 深圳市罗湖网站建设肇庆网站建设维护
  • 网站建设教程平台网站建设需要在哪备案
  • 快速开租建站实训课做一个网站怎么做
  • 郑州微网站制作百度推广方法
  • 如何做摄影网站装修公司怎么拉客户
  • 哪家网站建设电话定制高端网站的公司