当前位置: 首页 > news >正文

怎么自己制作一个网站的书源20平办公室装修设计

怎么自己制作一个网站的书源,20平办公室装修设计,什么是搜索引擎销售,网站地图生成工具文章目录 Spark与Iceberg集成之常用存储过程调用语法调用样例表快照管理快照回滚根据snapshotid进行回滚根据timestamp进行回滚 设置表当前生效的快照 表元数据管理设置快照过期时间清除孤岛文件重写数据文件运用参数示例optionsGeneral OptionsOptions for sort strategyOptio… 文章目录 Spark与Iceberg集成之常用存储过程调用语法调用样例表快照管理快照回滚根据snapshotid进行回滚根据timestamp进行回滚 设置表当前生效的快照 表元数据管理设置快照过期时间清除孤岛文件重写数据文件运用参数示例optionsGeneral OptionsOptions for sort strategyOptions for sort strategy with zorder sort_order 重写清单文件重写位置删除文件Options Spark与Iceberg集成之常用存储过程 spark与iceberg集成后可以通过内置的存储过程来进行表的管理。使用CALL来调用存储过程。所有的存储过程在system的命名空间中。 官网地址 由于表迁移功能的风险较大所以不去进行表的迁移使用重建Iceberg表重写数据的方式进行切换。 调用语法 catalog_name代表catalog的名称procedure_name代表存储过程的名称参数可以通过指定参数名的方式入参也可以使用位移的方式入参。 CALL catalog_name.system.procedure_name(arg_name_2 arg_2, arg_name_1 arg_1); CALL catalog_name.system.procedure_name(arg_1, arg_2, ... arg_n);调用样例 SparkSession spark SparkSession.builder().master(local).appName(Iceberg spark example).config(spark.sql.extensions, org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions).config(spark.sql.catalog.local, org.apache.iceberg.spark.SparkCatalog).config(spark.sql.catalog.local.type, hadoop) //指定catalog 类型.config(spark.sql.catalog.local.warehouse, iceberg_warehouse).getOrCreate();spark.sql(CALL local.system.rollback_to_snapshot(iceberg_db.table2, 3285133177610707025) );表快照管理 快照回滚 根据snapshotid进行回滚 存储过程名 rollback_to_snapshot 参数名称是否必填参数类型备注table✔️string表名snapshot_id✔️longmetadata文件中snapshots中的快照子项snapshot-id的值 根据timestamp进行回滚 存储过程名 rollback_to_timestamp 参数名称是否必填参数类型备注table✔️string表名timestamp✔️timestampmetadata文件中snapshots中的快照子项timestamp-ms的值 设置表当前生效的快照 存储过程名 set_current_snapshot 参数名称是否必填参数类型备注table✔️string表名snapshot_idlong取metadata文件中snapshots中的快照子项snapshot-id的值refstring快照引用取metadata文件中refs中的分支名称或者标记名称 ❗️ snapshot_id与ref只能取其一。 表元数据管理 设置快照过期时间 Iceberg中的每次write/update/delete/upsert/compaction都会生成一个新快照同时保留旧数据和元数据以便进行快照隔离和时间旅行。expire_snapshots过程可用于删除不再需要的旧快照及其文件。 这个过程将删除旧快照和那些旧快照唯一需要的数据文件。这意味着expire_snapshots过程永远不会删除未过期快照仍然需要的文件。 存储过程名 expire_snapshots 参数名称是否必填参数类型备注table✔️string表名older_than️timestamp超过该时限的快照将被删除 默认是: 5天前的被删除retain_lastint忽略 older_than作用 而保留的快照数量 (defaults to 1)max_concurrent_deletesint用于删除文件操作的线程池大小默认情况下不使用线程池stream_resultsboolean为true时删除文件将按 RDD 分区发送给 Spark 驱动程序默认情况下所有文件都将发送给 Spark 驱动程序。建议将该选项设置为 true以防止 Spark 驱动程序因文件大小而发生 OOM。snapshot_idsarray of long要过期的快照 ID 数组 如果省略 older_than 和 retain_last则将使用表的expiration properties。仍被分支或标记引用的快照不会被删除。默认情况下分支和标记永不过期但可以使用表属性 history.expire.max-ref-age-ms 更改其保留策略。main分支永不过期。 ❗️ 使用此存储过程时必须增加stream_results且值为true。 清除孤岛文件 用于删除未在iceberg表的任何元数据文件中引用的文件因此可视为 “孤岛”。 存储过程名 remove_orphan_files 参数名称是否必填参数类型备注table✔️string表名older_than️timestamp删除在此时间戳之前创建的孤岛文件 (Defaults to 3 days ago)locationstring查找文件的目录 (defaults to the table’s location)dry_runboolean预执行若值为true实际并未删除文件 (defaults to false)max_concurrent_deletesint用于删除文件操作的线程池大小默认情况下不使用线程池file_list_viewstring查找文件的数据集跳过目录列表equal_schemesmap被视为相同的文件系统方案的映射。键是一个以逗号分隔的方案列表值是一个方案 (defaults to map(s3a,s3n,s3)).equal_authoritiesmap被视为等同的文件系统权限映射。键是以逗号分隔的权限列表值是权限。prefix_mismatch_modestring位置前缀方案/授权不匹配时的操作行为:ERROR- 抛出异常. (default)IGNORE - 啥也不干.DELETE - 删除文件. 重写数据文件 Iceberg 在一个表格中跟踪每个数据文件。数据文件越多存储在清单文件中的元数据也就越多而数据文件过小则会导致不必要的元数据量和文件打开成本从而降低查询效率。 Iceberg 可以使用 Spark 的 rewriteDataFiles 操作并行压缩数据文件。这将把小文件合并为大文件以减少元数据开销和运行时文件打开成本。 存储过程名 rewrite_data_files 参数名称是否必填参数类型备注table✔️string表名strategystring策略名称 - 二进制包或排序。默认为 binpack 策略sort_orderstring对于 Zorder请在 zorder() 中使用逗号分隔的列列表。例如zorder(c1,c2,c3)。否则以逗号分隔的排序顺序格式为ColumnName SortDirection NullOrder。其中SortDirection 可以是 ASC 或 DESC。NullOrder 可以是 NULLS FIRST 或 NULLS LAST。默认为表格的排序顺序options️map支持一些配置项where️string用于筛选文件的字符串。请注意所有可能包含匹配过滤器数据的文件都会被选中进行重写 运用参数示例 spark.sql(CALL catalog_name.system.rewrite_data_files(table db.sample, options map(min-input-files,2)));options General Options 属性名称Default Value备注max-concurrent-file-group-rewrites5同时重写的最大文件组数partial-progress.enabledfalse是否“分步提交”允许在完成整个重写之前提交文件组partial-progress.max-commits10如果启用了部分进度允许此重写产生的最大提交次数use-starting-sequence-numbertrue使用压缩开始时快照的序列号而不是新生成快照的序列号rewrite-job-ordernonetarget-file-size-bytes536870912 (512 MB, default value of write.target-file-size-bytes from table properties)重写输出文件大小min-file-size-bytes75% of target file size低于此阈值的文件将被考虑重写而不考虑任何其他标准max-file-size-bytes180% of target file size文件大小超过此阈值时将考虑重写而不考虑任何其他标准min-input-files5任何文件组的文件数超过这个数量都将被重写而不考虑其他标准rewrite-allfalse强制重写所有提供的文件优先于其他选项max-file-group-size-bytes107374182400 (100GB)单个文件组中应重写的最大数据量。整个重写操作会根据分区和分区内文件组的大小分成若干块。这有助于分解超大分区的重写否则由于群集的资源限制这些分区可能无法重写。delete-file-threshold2147483647考虑重写数据文件所需的最少删除次数 Options for sort strategy 属性名称Default Value备注compression-factor1.0shuffle 分区的数量以及 Spark 排序创建的输出文件数量取决于文件重写器使用的输入数据文件的大小。由于压缩磁盘文件大小可能无法准确代表输出文件的大小。该参数允许用户调整用于估算实际输出数据大小的文件大小。系数大于 1.0 会生成比我们根据磁盘文件大小所预期的更多的文件。如果数值小于 1.0根据磁盘上的文件大小生成的文件将比我们预期的少shuffle-partitions-per-file1每个输出文件要使用的分区数量。iceberg会使用自定义的合并操作将这些已排序的分区拼接成一个已排序的文件。 Options for sort strategy with zorder sort_order 属性名称Default Value备注var-length-contribution8从长度可变的输入列字符串、二进制中考虑的字节数max-output-size2147483647ZOrder 算法中的字节交错量 重写清单文件 重写表的清单优化扫描规划。 清单中的数据文件按分区规范中的字段排序。该程序使用 Spark 作业并行运行。 存储过程名 rewrite_manifests 参数名称是否必填参数类型备注table✔️string表名use_caching️boolean在运行过程中使用 Spark 缓存默认为 truespec_id️int要重写的清单的规格 ID默认为当前规格 ID 重写位置删除文件 Iceberg 可以重写位置删除文件这样做有两个目的 小型压缩 将小的位置删除文件压缩成大文件。这样可以减少存储在清单文件中的元数据大小并减少打开小的删除文件的开销。删除悬而未决的删除记录 过滤掉引用不再有效的数据文件的位置删除记录。重写数据文件后指向重写数据文件的位置删除记录并不总是被标记为删除而是会继续被表的实时快照元数据跟踪。这就是所谓的 “悬空删除 ”问题。 存储过程名 rewrite_position_delete_files 参数名称是否必填参数类型备注table✔️string表名options️map支持一些配置项 在重写过程中悬挂删除总是会被过滤掉。 Options 属性名称Default Value备注max-concurrent-file-group-rewrites5同时重写的最大文件组数partial-progress.enabledfalse是否“分步提交”允许在完成整个重写之前提交文件组partial-progress.max-commits10如果启用了部分进度允许此重写产生的最大提交次数rewrite-job-ordernonetarget-file-size-bytes67108864 (64MB, default value of write.delete.target-file-size-bytes from table properties)重写输出文件大小min-file-size-bytes75% of target file size低于此阈值的文件将被考虑重写而不考虑任何其他标准max-file-size-bytes180% of target file size文件大小超过此阈值时将考虑重写而不考虑任何其他标准min-input-files5任何文件组的文件数超过这个数量都将被重写而不考虑其他标准rewrite-allfalse强制重写所有提供的文件优先于其他选项max-file-group-size-bytes107374182400 (100GB)单个文件组中应重写的最大数据量。整个重写操作会根据分区和分区内文件组的大小分成若干块。这有助于分解超大分区的重写否则由于群集的资源限制这些分区可能无法重写。
http://www.hkea.cn/news/14475620/

相关文章:

  • 越秀网站建设策划vi手册免费模板
  • 郑州建设局官方网站wordpress拖拽式主题
  • 网站搭建报价表泰顺网站建设
  • 公司网站建设会计上怎么处理重庆前十装修公司排名
  • 推广网站链接怎么做中国服务外包网
  • 营销网站建设前期准备泰安营销型网站建设公司
  • 社交网站 模板logo设计
  • 网站扫二维码怎么做的有个人做网站的吗
  • 网站制作公司前十名云核wordpress
  • 手机网站制作架构口碑好网站建设费用
  • 着力规范网站集约化建设品牌宣传策划方案
  • 知名网站有哪些wordpress config.php
  • 网站轮播广告代码wordpress文章列表高度
  • 网站定制牛七科技wordpress 4.7.3 乱码
  • 网站开发流程电话普通人做电商要多少钱
  • 公司的网站是什么行者seo
  • 视频网站的建设预算宁波市政务网站建设和管理标准
  • 网站需要数据库吗网站综合查询工具
  • 网站开发需求分析包括哪些方面网站开发的高级阶段包括什么
  • 襄阳做网站的公司陇南市建设局网站公示
  • 网站虚拟主机建设做网站代码用什么软件
  • google 网站优化工具做微信商城网站哪家好
  • 国家企业信用信息公示系统江苏南阳seo网站推广费用
  • 投票网站源码php云南云南省建设厅网站
  • 可以做微课ppt模板 网站有哪些内容php 文档系统wordpress
  • 自动搭建网站建设局属于哪个部门管
  • 国家重大建设项目库填报网站做个网站哪里可以做
  • 网站建设设计说明推广网站平台
  • 网站查询器怎样建设一个购物网站
  • 济南市住房和城乡建设局网站公益网站建设