当前位置: 首页 > news >正文

县级政府门户网站建设历程重庆网站设计

县级政府门户网站建设历程,重庆网站设计,汕头模板建站平台,青县有做网站的吗文章目录 1、模型简介2、相关背景3、主要创新点预训练:为推理而生的基础模型后训练:开创性的推理模型RL 基础设施 4、模型细节5、评测结果6、模型部署SGLang 推理vLLM 推理HuggingFace 推理 项目开源 技术报告:https://arxiv.org/abs/2505.0…

文章目录

    • 1、模型简介
    • 2、相关背景
    • 3、主要创新点
      • 预训练:为推理而生的基础模型
      • 后训练:开创性的推理模型
      • RL 基础设施
    • 4、模型细节
    • 5、评测结果
    • 6、模型部署
      • SGLang 推理
      • vLLM 推理
      • HuggingFace 推理

项目开源

  1. 技术报告:https://arxiv.org/abs/2505.07608
  2. github:https://github.com/XiaomiMiMo/MiMo

1、模型简介

MiMo-7B系列模型是从零开始训练并专为推理任务而生的。其强化学习实验显示,模型具有非凡的推理潜力,甚至超过了大得多的320亿参数模型。此外,在冷启动的SFT模型上进行了RL训练,生成了MiMo-7B-RL,该模型在数学和代码推理任务上表现出色,与OpenAI o1-mini的表现相当。

在这里插入图片描述
MiMo-7B系列包括:基础模型(MiMo-7B-Base)、SFT模型(MiMo-7B-SFT)、从基础模型训练的RL模型(MiMo-7B-RL-Zero)以及从SFT模型训练的RL模型(MiMo-7B-RL)。

2、相关背景

目前,大多数成功的强化学习工作,都依赖于相对较大的基础模型,例如320亿参数的模型,特别是在增强代码推理能力方面。此外,普遍认为在一个小模型中同时提高数学和代码能力是具有挑战性的。

然而,我们认为强化学习训练的推理模型的有效性依赖于基础模型固有的推理潜力。为了充分释放语言模型的推理潜力,不仅需要关注后训练,还需要关注针对推理定制的预训练策略。

3、主要创新点

预训练:为推理而生的基础模型

  • 优化了数据预处理流程,增强了文本提取工具包,并应用了多维度数据过滤,以增加预训练数据中的推理模式密度。还采用了多种策略来生成大量多样化的合成推理数据
  • 采用三阶段数据混合策略进行预训练。总体而言,MiMo-7B-Base 在大约 25 万亿个令牌上进行了预训练。
  • 多令牌预测MTP作为额外的训练目标纳入其中,这增强了模型性能并加速了推理。

后训练:开创性的推理模型

  • 精心挑选了 130K 个数学和代码问题作为强化学习(RL)训练数据,这些问题可以通过基于规则的验证器进行验证。每个问题都经过仔细清理和难度评估,以确保质量。仅使用基于规则的准确性奖励,以避免潜在的奖励黑客攻击。
  • 为了缓解具有挑战性的代码问题的稀疏奖励问题,引入了测试难度驱动的代码奖励。通过对不同难度级别的测试用例分配细粒度的分数,可以通过密集的奖励信号更有效地优化策略。
  • 对简单问题实施了数据重采样策略,以提高 rollout 采样效率并在 RL 训练的后期阶段稳定策略更新。

RL 基础设施

  • 开发了一个无缝 Rollout 引擎,以加速 RL 训练和验证。设计集成了连续 rollout、异步奖励计算和提前终止,以最小化 GPU 空闲时间,实现了 2.29× 的更快训练和 1.96× 的更快验证。
  • 在 vLLM 中支持 MTP,并增强了 RL 系统中推理引擎的鲁棒性。

4、模型细节

MiMo-7B 的 MTP 层在预训练和 SFT 期间进行微调,并在 RL 期间冻结。对于推测解码,一个 MTP 层的接受率约为 90%。
在这里插入图片描述

MiMo-7B系列主要包含如下四款模型,其具体描述和下载地址如下:

在这里插入图片描述

  • Huggingface下载地址: https://huggingface.co/XiaomiMiMo
  • modelscope下载地址: https://www.modelscope.cn/organization/XiaomiMiMo

5、评测结果

模型通用能力:基本与QwQ-32B-Preview相当

在这里插入图片描述

数学和代码能力:优于OpenAI o1-mini等其他模型

在这里插入图片描述

MiMo-7B系列模型对比:其中 MiMo-7B-RL 在 数学和代码能力上最强

在这里插入图片描述

注:评估是在 temperature=0.6 的条件下进行的。AIME24 和 AIME25 的分数是 32 次重复的平均分。

6、模型部署

SGLang 推理

  • SGLang 支持了 MiMo 模型 和 MTP,示例脚本:
# Install the latest SGlang from main branch
python3 -m uv pip install "sglang[all] @ git+https://github.com/sgl-project/sglang.git/@main#egg=sglang&subdirectory=python"# Launch SGLang Server
SGLANG_USE_MODELSCOPE=true python3 -m sglang.launch_server --model-path XiaomiMiMo/MiMo-7B-RL --host 0.0.0.0 --trust-remote-code# Launch MTP Server
SGLANG_USE_MODELSCOPE=true python3 -m sglang.launch_server --model-path XiaomiMiMo/MiMo-7B-RL --trust-remote-code \
--speculative-algorithm EAGLE --speculative-num-steps 1 --speculative-eagle-topk 1 \
--speculative-num-draft-tokens 2  --mem-fraction 0.5

详细用法请参阅: SGLang 文档

vLLM 推理

官方支持使用 MiMo-vLLM 的分支 进行 MiMo-MTP 推理。示例代码:(推荐使用 vLLM 0.7.3 版本)

from vllm import LLM, SamplingParamsmodel_path = "/path/to/MiMo"
llm = LLM(model=model_path,trust_remote_code=True,num_speculative_tokens=1,disable_log_stats=False
)
sampling_params = SamplingParams(temperature=0.6)conversation = [{"role": "system","content": ""},{"role": "user","content": "Write an essay about the importance of higher education.",},
]outputs = llm.chat(conversation,sampling_params=sampling_params,use_tqdm=False)for output in outputs:prompt = output.promptgenerated_text = output.outputs[0].textprint(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")print("=" * 80)

你也可以注册一个不加载 MTP 参数的 vLLM 加载器来使用 MiMo。你需要将 registry/register_mimo_in_vllm.py 复制到你的目录并通过以下方式导入:

import register_mimo_in_vllmfrom vllm import LLM, SamplingParamsmodel_path = "/path/to/MiMo"
llm = LLM(model=model_path,trust_remote_code=True,# num_speculative_tokens=1,disable_log_stats=False
)
sampling_params = SamplingParams(temperature=0.6)

HuggingFace 推理

示例代码:

from modelscope import AutoModel, AutoModelForCausalLM, AutoTokenizermodel_id = "XiaomiMiMo/MiMo-7B-RL"
model = AutoModelForCausalLM.from_pretrained(model_id, trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_id)
inputs = tokenizer(["Today is"], return_tensors='pt')
output = model.generate(**inputs, max_new_tokens = 100)
print(tokenizer.decode(output.tolist()[0]))
http://www.hkea.cn/news/908133/

相关文章:

  • 网站备案信息查询系统软文发布平台媒体
  • 泊头哪给做网站的好制作网页的教程
  • 漳州建设银行网站首页在百度上打广告找谁
  • 网站免费建站k网络营销策划方案书
  • 网站建设类公网店推广的作用
  • 安平做网站除了百度指数还有哪些指数
  • 做网站公司 蓝纤科技知乎怎么申请关键词推广
  • 临沂免费做网站发表文章的平台有哪些
  • 网站推广的方式包括哪些广西网站建设制作
  • 杭州营销网站建设东莞网站建设哪家公司好
  • 企业做营销型网站手机如何制作网页
  • 连云港网站关键词优化seo自学教程
  • 网站全站出售淘宝关键词排名怎么查询
  • 龙口市规划建设局网站查询收录
  • 学校网站建设注意什么东莞网站营销推广
  • 网站设计模板是什么百度网盘人工客服电话多少
  • wordpress文章收缩长春seo优化企业网络跃升
  • 网站地图调用希爱力双效片骗局
  • 珠海网站建设维护友情链接买卖代理
  • 武汉企业网站推广外包网络广告营销案例分析
  • 深圳哪里有做网站的汕头seo排名收费
  • 如何用腾讯云主机做网站株洲发布最新通告
  • 中国建设银行官网站下载信息流广告投放公司
  • 合肥建站平台网络平台推广是干什么
  • 黄冈工程建设标准造价信息网优化工作流程
  • 怎么做服装外贸网站怎么去推广一个产品
  • 和各大网站做视频的工作总结软件推广赚佣金渠道
  • asp.net是做网站的吗企业文化培训
  • 有链接的网站怎么做seochan是什么意思
  • 开发公司 工程管理中存在问题seo人工智能