当前位置: 首页 > news >正文

wordpress上传大附件seo搜索优化邵阳

wordpress上传大附件,seo搜索优化邵阳,定制网站制作公司,网站设计分析怎么写Sapiens: Foundation for Human Vision Models 1 背景1.1 问题1.2 目标 2 方法3 创新点4 模块4.1 Humans-300M数据集4.2 预训练4.3 2D位姿估计4.4 身体部位分割4.5 深度估计4.6 表面法线估计 5 实验5.1 实现细节5.2 2D位姿估计5.3 身体部位分割5.4 深度估计5.5 表面法线估计5.6… Sapiens: Foundation for Human Vision Models 1 背景1.1 问题1.2 目标 2 方法3 创新点4 模块4.1 Humans-300M数据集4.2 预训练4.3 2D位姿估计4.4 身体部位分割4.5 深度估计4.6 表面法线估计 5 实验5.1 实现细节5.2 2D位姿估计5.3 身体部位分割5.4 深度估计5.5 表面法线估计5.6 讨论 6 结论 论文https://arxiv.org/abs/2408.12569 代码https://github.com/facebookresearch/sapiens Demo1.https://about.meta.com/realitylabs/codecavatars/sapiens              2.https://huggingface.co/collections/facebook/sapiens-66d22047daa6402d565cb2fc 1 背景 1.1 问题 目前在2D和3D中生成具有真实感的人方面已取得重大的进展。这些方法的成功很大程度归功于对各种资产的稳健估计例如2D关键点细粒度人体部分分割深度或者表面法线。 例如ControlNet。 问题1对这些资产的稳健和准确估计仍然是一个活跃的研究领域复杂的系统来提高单个任务的性能往往阻碍了更广泛的应用。 问题2野生数据集的标签缺乏准确性。 1.2 目标 作者认为这种以人为中心的模型应该满足3个标准泛化性广泛适用性和高保真性 1泛化性保证了对未知条件的鲁棒性使模型能够在不同的环境中一致的执行。 2广泛的适用性表明了该模型的通用性使其在最少修改的情况下适用于广泛的任务。 3高保真性是指模型能够产生精确的、高分辨率的输出这对于人类生成任务来说是必不可少的。 本文的目标是提供一个体现了这些属性的统一的框架和模型称为Sapines。 2 方法 1依据之前的工作利用大型数据集和可扩展的模型架构是泛化的关键。 2为了更广泛的适用性采用先预训练再微调的方法使得预训练后能够以最小的调整来适应特定的任务。 这种方法提出的一个关键问题是哪种类型的数据对预训练最有效在给定计算限制的情况下应该把重点放在收集尽可能多的人类图像上还是最好在一个较小的数据集上预训练以更好的反应显示世界的变异性现有的方法往往忽略了下游任务背景下的预训练数据分布。为了研究预训练数据分布对特定人类任务的影响作者收集制作了Humans-300M数据集该数据集包含3亿张不同的人类图像这些未标记的图像用于从头预训练各种尺寸的VIT参数计数范围从300M到20B。 从大型数据集中学习通用视觉特征的各种自监督方法中作者选择了masked-autoencoderMAE方法。MAE相比于对比策略或多推理策略其单便推理允许以相同的计算资源处理更大数量的图像。 Segment Anything中也是用MAE对图像编码器进行预训练的。 3为了更高的保真度作者将预训练的原始输入分辨率提高到1024像素与现有最大的视觉主干MAWS预训练的VIT模型相比FLOPs增加了4倍。每个模型在1.2万亿个tokens上进行预训练。 这里的1.2万亿个tokens应该是这么计算来的 patch_size 16 image_size 1024 image_num 3E8 token_num (image_size // patch_size)**2 * image_num表1列出了与早期方法的比较。 为了在以人为中心的任务上进行微调作者使用了一致的编码器-解码器架构编码器使用预训练权重进行初始化而解码器是一个随机初始化的轻量级的任务特定的头。然后对这两个组件进行端到端的微调。四个基本的以人为中心的视觉任务——2D姿态估计、身体部位分割、深度估计和表面法线预测如图1所示。 由于Benchmark往往包含噪音标签在模型微调过程中提供不一致的监督信号同时利用细粒度和精准的注释也很重要。因此作者提出了一个更密集的用于姿态估计的2D全身关键点集和一个用于身体部位分割的相机类别词汇表。具体来说作者引入了一个包含身体手脚和面部的308个关键点综合合集。此外将分割类扩展到28类涵盖了头发舌头牙齿上/下唇、躯干等身体部位。为了保证标注的质量和一致性以及高度的自动化作者使用多视图捕获设置来收集位姿和分割标记。作者还利用以人为中心的合成数据进行深度和法线估计利用RenderPeople的600次详细扫描来生成高分辨率的深度图和表面法线。 这里作者分别从模型和数据两个方面保证子任务输出结果的准确性即文中提出的保真度。 3 创新点 作者引入了Sapiens一个在大规模人体图像数据集上预训练的VIT家族 本研究表明在相同的计算预算下简单的数据整理和大规模预训练显著提高了模型的性能 模型经过高质量甚至合成标签的微调表现出了广泛的泛化性 本文是第一个原生支持以人为中心任务的高保真推理的1K分辨率模型在二维姿势、身体部位分割、深度和正常估计的基准测试集上取得了最先进的性能。 4 模块 4.1 Humans-300M数据集 本文使用了一个大型的人类图像数据集对大约10亿张野生人类图像进行预训练。预处理包含丢弃有水印文本艺术描述或非自然元素的图像。随后使用现成的行人边界框检测器对图像进行过滤保留检测分数在0.9以上且边界框超过300像素的图像。图2给出了数据集中每幅图像的人数分布情况其中超过2.48亿张图像包含多个主体。 4.2 预训练 作者遵循masked-autoencoder方法进行预训练。模型是在给定原始人体图像的部分观测值下训练的以重构原始人体图像。与所有的自编码器一样本文模型包含一个编码器将可见光图像映射到一个潜在的表示以及一个解码器从这个潜在的表示中重建原始图像。预训练数据集有单人图像和多人图像组成每幅图像以正方形的宽高比例缩放到固定大小类似于VIT将图像划分成固定大小的规则非重叠块。随机选择这些块的子集并对其进行掩膜剩余部分可见。将掩码块占可见块的比例定义为掩膜比在整个训练过程中保持固定不变。图3展示了本文预训练模型在未知人体图像上的重建。 本文模型表现出对各种图像特征的泛化能力包括尺度、裁剪、主体的年龄种族和数量。本文的模型中每个图像块token占图像面积的0.02%(16*16)/(1024*1024)≈0.02%而标准Vits的图像块面积token占图像面积的0.4%(16*16)/(224*224)≈0.4%减少了16倍这为模型提供了细粒度的token推理。如图3即使使用了95%的掩码比例本文模型也可以在遮挡样本上实现人体解剖结构的重建。 4.3 2D位姿估计 遵循自上而下的范式即从输入图像 I ∈ R H × W × 3 I∈R^{H×W×3} I∈RH×W×3中检测 K K K 个关键点的位置。大多数方法将这个问题归结为热力图预测 K K K 个热力图表示对应关键点处于任意空间位置的概率。作者定义了一个用于关键点检测的姿态估计transformer P P P。训练和推理时的边界框缩放为 H × W H×W H×W并作为输入提供给P。设 y ∈ R H × W × K y∈R^{H×W×K} y∈RH×W×K 表示给定输入 I I I 对应于真值关键点的 K K K 个热力图。位姿估计器将输入 I I I 转换成为一组预测热力图 y ^ ∈ R H × W × K \hat{y}∈R^{H×W×K} y^​∈RH×W×K即 y ^ P ( I ) \hat{y}P(I) y^​P(I) 。 P P P 的训练目标是最小化均方差损失 L p o s e M S E ( y , y ^ ) L_{pose}MSE(y,\hat{y}) Lpose​MSE(y,y^​)。在微调过程中 P P P的编码器用预训练的权值初始化解码器随机初始化。长宽比 H : W H:W H:W 设置为4:3。预训练的位置嵌入相应地被插值。作者使用具有反卷积和卷积操作的轻量级解码器。 作者对 P P P 中的编码器和解码器进行了跨多个骨架的微调包括 K 17 K17 K17 K 133 K133 K133 和一个新的 K 308 K308 K308 高细节骨架如图4左所示。与现有的最多包含68个面部关键点的格式相比本文档 标注由243个面部关键点组成包括眼睛嘴唇鼻子和耳朵周围的代表性点。这种设计是为了细致捕捉真是世界中面部表情的细微细节而量身定做。利用这些关键点作者从一个室内拍摄装置中手动标注了100万张4K分辨率的图像。 4.4 身体部位分割 人体部位分割通常被称为人体解析其目的是将输入图像 I I I 中的像素分为 C C C 类。大多数方法将这个问题转化为估计每个像素的类别概率以创建一个概率图 p ^ ∈ R H × W × C \hat{p}∈R^{H×W×C} p^​∈RH×W×C即 p ^ S ( I ) \hat{p}S(I) p^​S(I)其中 S S S 是分割模型。如前所述对 S S S 采用相同的编码器-解码器结构和初始化方案 S S S 被微调以最小化实际概率图 p p p 和预测概率图 p ^ \hat{p} p^​ L s e g W e i g h t e d C E ( p , p ^ ) L_{seg}WeightedCE(p,\hat{p}) Lseg​WeightedCE(p,p^​)。 作者在两个部分分割词汇表中微调 S S SC20的标准集和C28的新词汇表如图4右所示。 4.5 深度估计 对于深度估计作者采用了用于分割的架构修改后的解码器输出通道设置为1进行回归。用 d ∈ R H × W d∈R^{H×W} d∈RH×W 表示图像 I I I 的真实深度图用D表示深度估计器其中 d ^ D ( I ) \hat{d}D(I) d^D(I)M 表示图像中人类像素的个数。对于相对深度估计作者使用图像中的最大和最小深度将 d d d 归一化到 [0,1]。 D D D 的损失 L d e p t h L_{depth} Ldepth​ 定义如下 出自论文《Depth map prediction from a single image using a multi-scale deep network》主要是为了解决平均尺度误差占总误差很大一部分的问题例如真值深度全是0预测深度全1相对深度是没有误差的但如果直接用L1或L2就会产生误差所以作者令 L d e p t h 1 M ∑ i 1 M ( l o g ( d i ) − l o g ( d ^ i ) α ( d , d ^ ) ) L_{depth}\frac{1}{M}\sum_{i1}^M(log(d_i)-log(\hat{d}_i)\alpha(d,\hat{d})) Ldepth​M1​∑i1M​(log(di​)−log(d^i​)α(d,d^)) 其中 α ( d , d ^ ) 1 M ∑ i 1 M ( l o g d ^ i − l o g ( d i ) ) \alpha(d,\hat{d})\frac{1}{M}\sum_{i1}^M(log{\hat{d}_i}-log(d_i)) α(d,d^)M1​∑i1M​(logd^i​−log(di​))这个式子经过推导最终成为式3。 推导过程可见https://zhuanlan.zhihu.com/p/29312227 同时作者利用600张高分辨率摄影测量人体扫描数据渲染了50万张合成图像如图5所示以获得具有高保真度的鲁棒弹幕深度估计模型。从100张HDRI环境图集合中选择随机背景在场景中放置一个虚拟相机随机调整其焦距旋转和平移以获取4K分辨率的图像极其相关的GT真值深度图。 4.6 表面法线估计 与前面的任务类似作者将法向量估计器 N N N 的解码器输出通道设置为3对应于每个像素处法向量的 x y z xyz xyz 分量。生成的合成数据也被用作表面法线估计的监督。设 n n n 为图像 I I I 的真值发现图即 n ^ N ( I ) \hat{n}N(I) n^N(I)。与深度相似 损失 L n o r m a l L_{normal} Lnormal​ 仅针对图像中的人体像素计算定义如下 总结 综上所述2D位姿估计身体部位估计深度估计和表面法线估计的网络结构基本一致差别在于解码器的输出通道和含义不同2D位姿估计的K个通道表示K个关键点的概率身体部位估计的C个通道表示C个身体部位类别的概率深度估计的1个通道表示相对深度表面法线的3个通道表示 x y z xyz xyz 分量。 5 实验 5.1 实现细节 最大的模型Sapiens-2B使用Pytorch在1024个A100上预训练了18天。 预训练的分辨率为1024*1024patch size为16。 微调的分辨率高宽比例为4:3即1024*768。 不同尺寸的模型设计指标如表2。 5.2 2D位姿估计 作者使用现成的边界框检测器进行单人姿态推断。表3展示了与现有的全身姿态估计方法的比较。 尽管只使用了来自室内捕获的数据和注释但Sapiens显示出队真实世界的强大泛化能力如图6所示。 5.3 身体部位分割 表4展示Spaiens与其他方法的对比。 图7展示了本文模型的效果。 5.4 深度估计 表5比较了现有深度估计SOTA模型和本文提出方法的对比。 图8将本文方法的效果和DepthAnything进行了对比。 5.5 表面法线估计 表6将本文模型与现有的人体表面法线估计模型进行了对比。 图9将本文模型与PIFuHDECON进行了对比。 5.6 讨论 1预训练数据的重要性网络提取的特征质量与预训练数据质量紧密相连。表7展示了使用Human300M进行预训练可以在所有指标上获得更好的性能这突出了在固定的计算预算下以人为中心的预训练的好处。 作者还研究了在预训练期间所能看到的人类图像的数量的影响。图10显示随着预训练数据规模的增加性能稳步提高没有出现饱和现象。 2零样本泛化性本文模型对各种情况都具有泛化性。例如在分割中Sapiens在单人图像上微调主体多样性有限背景变化小且只有第三人称视图如图4。但因为大规模预训练使得模型能够再多个主体不同年龄和视图上进行泛化如图11所示这些观察对其他任务也成立。 3缺陷虽然模型整体很好但并不完美在具有复杂姿态、稀有姿态、拥挤和严重遮挡的人体图像上效果欠佳。尽管激进的数据增广和裁剪策略可以缓解这一问题但作者认为本文模型可以作为一种工具来获得大规模的真实世界的人的标签进行监督以开发下一代人类视觉模型。 6 结论 本文模型的性能归功于 在一个专门为理解人类而定制的大型数据集上进行大规模的预训练 扩展的高分辨率和大容量的VIT骨干 真实的和合成的数据上的高质量注释
http://www.hkea.cn/news/14337384/

相关文章:

  • 用phython做网站免费网页制作软件下载
  • 包装设计网站排行榜深圳商城网站哪家做的好
  • 网页设计精品课程网站wordpress首页轮播
  • 中国建设银行郑州分行网站青岛+网站建设
  • 西网站建设公司长沙网站建站公司
  • 个人博客网站域名注册德州网站收录
  • 福千欣隆网站建设公司 概况淮安市做网站的公司
  • 网站建设项目付款方式制作网页界面工具
  • 国外网站做任务套利重庆网页搜索排名提升
  • 外贸网站营销方案百度app优化
  • 中煤地建设有限公司网站做网站需要多大带宽
  • 使网站有流量网站设置高度
  • 企业网站建设怎么样wordpress主题付费
  • 模块化网站开发温州设计网站建设
  • 招聘网站如何做运营做交互网站
  • 竭诚网络网站建设wordpress禁用工具栏
  • wordpress数据库调用文章网站seo服务
  • 网站内容运营是什么怎么给网站做谷歌seo
  • 北京网站优化开户企业网站模板 简洁
  • 中学生怎么做网站wordpress部署
  • 青海做高端网站建设的公司国内wordpress主题网站
  • 微信网站开发简单做网站设计师的原因
  • 做网站软件图标是一个箭头的最新手机排行
  • 更新公司网站内容需要企业网站的内容选题来源
  • 东莞市建设网网上办事平台seo的宗旨是什么
  • 网站添加新关键词网站综合排名信息查询
  • 北京大兴做环保备案网站做软件赚钱的网站有哪些
  • 高端网站设计有哪些seo搜索引擎优化总结
  • 微网站搭建流程jsp网站建设项目实战源代码
  • ipv6域名解析 做网站网站开发前端是什么