当前位置: 首页 > news >正文

asp.net做的网站文字控件随窗口大小不变化苏州做网站公司哪家比较好

asp.net做的网站文字控件随窗口大小不变化,苏州做网站公司哪家比较好,枣庄网站建设哪家强,手机官网祝福 在这个举国同庆的时刻#xff0c;我们首先献上对祖国的祝福#xff1a; 第一#xff0c;我们感谢您给我们和平的环境#xff0c;让我们能快乐生活 第二#xff0c;祝福我们国家未来的路越走越宽广#xff0c;科技更发达#xff0c;人民更幸福 第三#xff0c;…祝福 在这个举国同庆的时刻我们首先献上对祖国的祝福 第一我们感谢您给我们和平的环境让我们能快乐生活 第二祝福我们国家未来的路越走越宽广科技更发达人民更幸福 第三我们会紧紧跟随您的脚步一起为美好的未来奋斗 一、将数据缓存到内存 import spark.implicits._ import spark.sqlspark.catalog.cacheTable(personal_info) spark.catalog.uncacheTable(personal_info) val personalInfoDataFrame sql(select name,age FROM personal_info) personalInfoDataFrame.cache() personalInfoDataFrame.unpersist() cacheTable() 和 cache() 最终都调用了CacheManager的cacheQuery() CacheManager对数据的缓存与RDD中的cache()是不同的RDD中的cache()是的持久化级别是MEMORY_ONLY而这里是MEMORY_AND_DISK因为Spark任务重新计算底层表并将其缓存是昂贵的。 二、选项设置 以下选项可用于调整查询执行的性能。随着自动执行更多优化这些选项可能会在未来的版本中被弃用。 spark.sql.files.maxPartitionBytes        默认128M 解释读取文件时打包到单个分区中的最大字节数。此配置仅在使用基于文件的源如Parket、JSON和ORC时有效。 spark.sql.files.openCostInBytes        默认值4M 解释打开一个文件的估计成本以可以同时扫描的字节数来衡量。这是在将多个文件放入一个分区时使用的。最好过度估计那么具有小文件的分区将比具有较大文件的分区这是首先调度的更快。此配置仅在使用基于文件的源如Parket、JSON和ORC时有效。 spark.sql.files.minPartitionNum        默认值spark.sql.leafNodeDefaultParallelism 解释建议的不保证的最小分割文件分区数如果未设置。此配置仅在使用基于文件的源如Parquet、JSON和ORC时有效。 spark.sql.files.maxPartitionNum        默认值None 解释建议的不保证的分割文件分区的最大数量。如果设置了如果初始分区数超过此值Spark将重新调整每个分区以使分区数接近此值。此配置仅在使用基于文件的源如Parket、JSON和ORC时有效。 spark.sql.broadcastTimeout        默认值5*60 秒 解释广播等待超时时间 spark.sql.autoBroadcastJoinThreshold        默认值10M 解释配置表的最大大小以字节为单位该表将在以下情况下广播到所有工作节点 执行连接。通过将此值设置为-1可以禁用广播。请注意目前 统计信息仅支持Hive Metastore表其中命令 为 ANALYZE TABLE tableName COMPUTE STATISTICS noscan 用于收集表的统计信息这些统计信息将帮助优化器制定更好的执行计划 也就是Spark3.2.0以后不需要自己去优化大小表join了比如手动广播小表、大小表位置 spark.sql.shuffle.partitions        默认值200 解释配置为连接或聚合混洗数据时要使用的分区数。在入库时如果最终的结果不是很大需求将其调小不然入库的时间会增大。 spark.sql.sources.parallelPartitionDiscovery.threshold        默认值32 解释配置阈值以启用作业输入路径的并行列表。如果输入路径的数量大于此阈值Spark将使用Spark分布式作业列出文件。否则它将回退到顺序列表。此配置仅在使用基于文件的数据源如Parquet、ORC和JSON时有效。 spark.sql.sources.parallelPartitionDiscovery.parallelism        默认值10000 解释配置作业输入路径的最大列表并行性。如果输入路径的数量大于此值则将限制其使用此值。此配置仅在使用基于文件的数据源如Parquet、ORC和JSON时有效。 三、Hint 干预 Hint 是一种可以让用户干预数据库 SQL 优化的方式相当于给用户开了一个后门当优化器本身对于某些 SQL 优化得不够好时用户就可以结合自己的经验尝试使用 Hint 来干预数据库的优化。 1、join 的 Hint sql语句中使用BROADCAST、MERGE、SHUFLE_HASH和SHUFLE_REPLICATE_NL指示Spark在将它们与另一个关系连接时对每个指定的关系使用提示策略。例如当在表“t1”上使用BROADCAST提示时Spark将优先考虑以“t1”作为构建端的广播连接广播哈希连接或广播嵌套循环连接具体取决于是否有任何equi-join键即使统计数据建议的表“t1“的大小高于配置Spark.sql.autoBroadcastJoinThreshold。 当在连接的两侧指定不同的连接策略提示时Spark会将BROADCAST提示优先于MERGE提示将SHUFLE_HASH提示优先于SHUFLE_REPLICATE_NL提示。当使用BROADCAST提示或SHUFLE_HASH提示指定两侧时Spark将根据连接类型和关系大小选择构建侧。 请注意不能保证Spark会选择提示中指定的连接策略因为特定的策略可能不支持所有连接类型。 示例 spark.table(src).join(spark.table(records).hint(broadcast), key).show() -- We accept BROADCAST, BROADCASTJOIN and MAPJOIN for broadcast hint SELECT /* BROADCAST(r) */ * FROM records r JOIN src s ON r.key s.key 2、Coalesce 的 Hint Coalesce 的 Hint 允许Spark SQL用户控制输出文件的数量就像Dataset API,中的coalesce、repartition和repartitionByRange一样它们可以用于性能调整和减少输出文件的数目。 SELECT /* COALESCE(3) */ * FROM t; SELECT /* REPARTITION(3) */ * FROM t; SELECT /* REPARTITION(c) */ * FROM t; SELECT /* REPARTITION(3, c) */ * FROM t; SELECT /* REPARTITION */ * FROM t; SELECT /* REPARTITION_BY_RANGE(c) */ * FROM t; SELECT /* REPARTITION_BY_RANGE(3, c) */ * FROM t; SELECT /* REBALANCE */ * FROM t; SELECT /* REBALANCE(3) */ * FROM t; SELECT /* REBALANCE(c) */ * FROM t; SELECT /* REBALANCE(3, c) */ * FROM t; 四、自适应查询AQE AQE是Adaptive Query Execution的简称是Spark SQL中的一种优化技术它利用运行时统计信息来选择最有效的查询执行计划自Apache Spark 3.2.0以来该计划默认启用。Spark SQL可以通过作为伞形配置启用Spark.SQL.adaptive.enabled来打开和关闭AQE。从Spark 3.0开始AQE中有三个主要功能包括合并洗牌后分区、将排序合并连接转换为广播连接以及倾斜连接优化。 1、shuffle分区自动调整 这里涉及两个配置 spark.sql.adaptive.enabled        默认true 解释如果为true则启用自适应查询执行该操作将在查询执行过程中根据准确的运行时统计信息重新优化查询计划 spark.sql.adaptive.coalescePartitions.enabled        默认true 解释当true和spark.sql.adaptive.enabled为true时Spark将根据目标大小由spark.sql.adaptive.advisoryPartitionSizeInBytes指定合并连续的shuffle分区以避免过多的小任务 其他配置 spark.sql.adaptive.coalescePartitions.parallelismFirst        默认true 解释如果为true则Spark在合并连续的shuffle分区时忽略spark.sql.adaptive.advisoryPartitionSizeInBytes指定的目标大小默认64MB并且只尊重由spark.sql.adaptive.coalescePartitions.minPartitionSize指定的最小分区大小默认1MB以最大化并行性。这是为了避免启用自适应查询执行时性能下降。建议将此配置设置为false并尊重由spark.sql.adaptive.advisoryPartitionSizeInBytes指定的目标大小。 spark.sql.adaptive.coalescePartitions.minPartitionSize     默认1M 解释合并后shuffle分区的最小大小。它的值最多可以是20%spark.sql.adaptive.advisoryPartitionSizeInBytes。当在分区合并期间忽略目标大小时这很有用这是默认情况。 spark.sql.adaptive.coalescePartitions.initialPartitionNum        默认none 解释合并前shuffle分区的初始数量。如果未设置则等于spark.sql.shuffle.partitions。此配置仅在spark.sql.adaptive.enabled和spark.sql.adaptive.coalescePartitions.enabled时有效 spark.sql.adaptive.advisoryPartitionSizeInBytes        默认64M 解释自适应优化期间shuffle分区的建议大小以字节为单位spark.sql.adaptive.enabled 该功能简化了运行查询时shuffle分区号的调整。用户不需要设置适当的shuffle分区号来适应数据集。一旦你通过Spark.sql.adaptive.coalescePartitions.initialPartitionNum配置设置了足够大的初始洗牌分区数Spark就可以在运行时选择合适的洗牌分区数。 以下是对倾斜分区的相关设置 spark.sql.adaptive.optimizeSkewsInRebalancePartitions.enabled         默认true 解释当spark.sql.adaptive.enabled为true时Spark将优化Rebalance分区中的倾斜shuffle分区并根据目标大小由spark.sql.adaptive.advisoryPartitionSizeInBytes指定将其拆分为较小的分区以避免数据倾斜。 spark.sql.adaptive.rebalancePartitionsSmallPartitionFactor         默认0.2 解释如果分区的大小小于此因数则分区将在拆分期间合并spark.sql.adaptive.advisoryPartitionSizeInBytes 2、将sort-merge join转换为broadcast join 当任何连接端的运行时统计数据小于自适应广播哈希连接阈值时AQE将排序合并连接转换为广播哈希连接。这不如一开始就计划广播哈希连接有效但它比继续进行排序合并连接要好因为我们可以保存连接双方的排序并在本地读取shuffle文件以节省网络流量如果spark.sql.adaptive.localShuffleReader.enabled为真 spark.sql.adaptive.autoBroadcastJoinThreshold        默认none 解释为执行连接时将广播到所有工作节点的表配置最大大小以字节为单位。通过将此值设置为-1可以禁用广播。默认值与spark.sql.autoBroadcastJoinThreshold相同。请注意此配置仅在自适应框架中使用。 spark.sql.adaptive.localShuffleReader.enabled        默认true 解释当true且spark.sql.adaptive.enabled为true时Spark会在不需要shuffle分区时尝试使用本地shuffle阅读器读取shuffle数据例如在将sort-合并连接转换为广播散列连接之后。 AQE将排序合并连接转换为洗牌哈希连接当所有后洗牌分区都小于阈值时最大阈值可以看到配置spark.sql.adaptive.maxShuffledHashJoinLocalMapThreshold。 spark.sql.adaptive.maxShuffledHashJoinLocalMapThreshold        默认0 解释配置每个分区可以允许构建本地哈希映射的最大大小以字节为单位。如果此值不小于spark.sql.adaptive.advisoryPartitionSizeInBytes并且所有分区大小都不大于此配置则连接选择更喜欢使用洗牌哈希连接而不是排序合并连接而不管spark.sql.join.preferSortMergeJoin的值如何 3、倾斜join优化 数据倾斜会严重降低连接查询的性能。此功能通过将倾斜的任务拆分并在需要时复制成大致均匀大小的任务来动态处理排序合并连接中的倾斜。当spark.sql.adaptive.enabled和spark.sql.adaptive.skewJoin.enabled配置都启用时它会生效。 spark.sql.adaptive.skewJoin.enabled        默认true 解释当true和spark.sql.adaptive.enabled为true时Spark通过拆分并在需要时复制倾斜的分区来动态处理排序合并连接中的倾斜。 spark.sql.adaptive.skewJoin.skewedPartitionFactor         默认5.0 解释如果一个分区的大小大于乘以中值分区大小的因子并且也大于spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes则该分区被认为是倾斜的。 spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes        默认256MB 解释如果分区的大小以字节为单位大于此阈值并且大于spark.sql.adaptive.skewJoin.skewedPartitionFactor乘以分区大小的中值则该分区被视为倾斜。理想情况下此配置应设置为大于spark.sql.adaptive.advisoryPartitionSizeInBytes。 spark.sql.adaptive.forceOptimizeSkewedJoin         默认false 解释如果为true则强制启用OptimizeSkewedJoin这是一种自适应规则用于优化偏斜连接以避免散乱任务即使它引入了额外的洗牌
http://www.hkea.cn/news/14428432/

相关文章:

  • 官方网站建设最重要的是什么解封后中国死了多少人
  • 搜狗网站seo什么网站可以在线做考教师岗位的题
  • 贵阳网站开发制作公司房地产网站互动设计公司
  • 网站源码下载后怎么布置网站打开速度多少时间
  • 网站是用什么软件做的吗站内免费推广有哪些
  • mt4网站建设网站打开空白页面
  • 上海物流公司网站建设青岛网站建设套餐报价
  • 建站平台选择建议网站ui界面设计模板
  • 动漫制作技术专业常识优化设计六年级上册数学答案
  • 三门峡网站设计帝国建站系统
  • 五金喷漆东莞网站建设购买域名和网站
  • 黄金网站软件免费wordpress百度云下载
  • 美橙建站怎么样河北seo技术
  • 个人主页静态网站梅河口网站建设
  • 深圳建设局网站网站项目
  • php 网站 教程邳州徐州网站开发
  • win2008网站404如何在网站做电子报
  • 注册的空间网站吗优狐网站建设
  • 怎么在网站做浮动图标龙岩建设局网站
  • 政务网站的建设时期的概述外贸网站怎么建设
  • 网站后台打打开空白男的如何自己解决生理问题
  • 国家城乡建设网站网站建设助您购选
  • 长春高端网站建设蓝色的网站登录页面模版
  • 免费的网站开发平台网站开发的目的实习报告
  • 微芒科技网站建设top陕西 网站建设首选公司
  • 做网站怎么做鼠标跟随怎样才能有自己的网站
  • 网站建设要考建设网站需要的硬件设备
  • 网站建设公司实力广州建设工程造价管理站
  • 各种网站底部图标代码准备php和易语言混编做网站
  • 网站代理怎么做下载安装app应用