当前位置: 首页 > news >正文

网站托管解决方案如何建立一个网站卖货

网站托管解决方案,如何建立一个网站卖货,后端开发工程师是做什么的,四川省建设工程质量与安全监督网站今天为大家介绍的是来自上海交通大学的王延峰与谢伟迪团队的一篇论文。开源的多语言医学语言模型的发展可以惠及来自不同地区、语言多样化的广泛受众。 来源丨 DrugAI、 机器人的脑电波 论文#xff1a;https://www.nature.com/articles/s41467-024-52417-z MMedC#xff1…今天为大家介绍的是来自上海交通大学的王延峰与谢伟迪团队的一篇论文。开源的多语言医学语言模型的发展可以惠及来自不同地区、语言多样化的广泛受众。 来源丨 DrugAI、 机器人的脑电波 论文https://www.nature.com/articles/s41467-024-52417-z MMedChttps://huggingface.co/datasets/Henrychur/MMedC  MMedBenchhttps://huggingface.co/datasets/Henrychur/MMedBench  代码https://github.com/MAGIC-AI4Med/MMedLM  在近期研究中大型语言模型在医疗领域展现了巨大潜力。例如GPT-4和MedPalm-2等闭源模型表现优异通过了美国医学执照考试。同时像Llama 2这样的开源模型也促进了医学专用语言模型的发展如MEDITRON、PMC-LLaMA、MedAlpaca和ChatDoctors逐步缩小了与闭源模型的性能差距。然而这些模型主要面向英语应用限制了其在更广泛语言环境中的使用。在开源的多语言LLM领域尽管模型如BLOOM和InternLM已在多语言语料库上训练但在非英语医学问题上的表现仍不理想主要原因是医疗内容在通用数据集中占比不足。本文通过开发一个开源的多语言医疗语言模型旨在填补这一空白。 该研究的贡献包括三方面 构建了一个包含255亿tokens的多语言医学语料库MMedC用于自回归训练 提出了一个多语言医学多项选择问答基准MMedBench用于评估模型在零样本和微调设置下的问答和推理能力 测试了多种现有模型及在MMedC上进一步训练的模型。通过这些全面评估作者希望更好地理解模型在多语言医学问题处理中的能力。 方 法 为了实现自回归训练开发了一个大规模多语言医疗语料库MMedC汇集了超过255亿个涵盖主要六种语言的医疗相关标记英语、中文、日语、法语、俄语和西班牙语。这一多样化的数据集由四个不同的来源编制而成 (i) 设计了一个自动化管道从大众多语言语料库中过滤医疗相关内容确保数据集的聚焦和相关性 (ii) 策划并收集了多种语言的医学教科书并通过精心设计的预处理如光学字符识别OCR、启发式数据过滤等转换为文本 (iii) 为保证医疗知识的广泛涵盖从一些开源医疗网站中加入文本丰富了语料库的权威和综合性信息 (iv) 整合了一些现有的小规模医疗语料数据集进一步增强了广度和深度。 据了解MMedC代表了第一个多语言医疗领域的专用语料库。 对于基准评估的设定开始于汇聚现有的跨六种语言的医疗多选问答数据集如同于MMedC。进一步通过使用GPT-4增强它们的推理内容丰富数据集以支持正确答案的解释。因此增强的数据集涵盖53,566对问答其中每种语言都提供独特的多选问答及随附的推理推断。这个广泛的收集囊括了从内科、生物化学、药理学到精神病学等多个医学领域。 实 验 在评估阶段我们对十一种现有支持多国语言的LLMs进行全面基准测试包括GPT-3.5、GPT-4、Gemini-1.0、BLOOM、InternLM、InternLM 2, MedAlpaca、ChatDoctor、PMC-LLaMA、Mistral、BioMistral、MEDITRON、Llama 2 和 Llama 3以及那些在MMedC上进一步训练的LLM。模型在三种不同设置下进行评估零样本、参数高效微调PEFT和完整微调。考虑到评估推理质量的复杂性在运用主流自动化指标之外我们还结合了人类评级分数在我们的分析中。这种双重方法不仅提供了对每个模型性能的全面度量还使我们能够深入探究自动化指标与人工评分之间的相关性从而丰富了用于评估大型语言模型推理能力的方法。 在实验中那些进一步在MMedC上进行自回归训练的模型一致展示出提升的性能从而强调了我们编制的多语言语料库的重要性和有效性。最终模型MMed-Llama 3在多语言和仅英语基准上均表现最佳。我们将公开我们的数据集除去有许可证限制的书籍我们将提供一个书名列表、代码库和训练模型以促进未来的研究。此外我们深知稳健评估指标准确性的重要性尤其是在涉及复杂长句的医学文本生成时。为此详细的人类评级结果也将针对个别案例公开发布。 数据统计 作者统计了两个数据集的详细情况即目前最广泛的多语言医学语料库MMedC和新的多语言医学基准MMedBench。 如图2所示MMedC是一个包含超过255亿tokens的多语言医学语料库主要来自四个来源从大型多语言语料库中过滤的医学内容、医学教科书、医学网站以及现有的小规模语料库。语料库涵盖六种语言英语占比42%俄语最少仅占7%但即使最小份额也相当于约20亿tokens。 为了更好地评估多语言医学模型作者还提出了MMedBench一个多语言医学问答基准。该基准包含训练和测试用例的数量、答案选项分布以及问答对的平均长度。如图3a所示MMedBench包含许多带有多选答案的问题答案部分平均有200个标记用于训练模型生成和理解复杂的推理内容。 作者利用GPT-4将每个问题分类为21个医学主题如内科、生物化学、药理学、精神病学、微生物学等并由至少两位临床医生验证其准确性确保涵盖医学领域的广度。图3b展示了MMedBench从基础临床医学到药理学和公共卫生等专业领域的医学问题尤其侧重于内科和生物化学。这表明该基准在评估模型处理广泛医学问题的能力方面非常有效。 MMedBench评估 作者使用MMedBench对主要的LLMs进行了全面评估包括零样本、参数高效微调PEFT和全量微调。评估侧重于多项选择题的准确性和生成推理的能力。模型分为四类闭源LLMs、流行的开源LLMs、医学专用开源LLMs以及在MMedC上进一步训练的模型。 首先作者评估了GPT-3.5、GPT-4和Gemini-1.0 pro等闭源模型它们仅在零样本设置下测试。由于训练数据不公开难以判断其是否真正“零样本”。接着作者评估了开源模型如Mistral、InternLM 2和Llama 3发现它们在零样本设置下表现较差故在微调设置下进行对比。最后作者测试了在MMedC上进一步训练的模型包括MMedLM、MMedLM 2和MMed-Llama 3这些模型通过自回归训练提升了医学领域的知识。 在多语言多项选择问答任务中医学专用LLMs在英语中表现较好但在其他语言中的表现显著下降。微调后的开源模型逐步缩小了与GPT系列的差距如Mistral、InternLM 2和Llama 3在MMedBench上的平均准确率分别为60.73、58.59和62.79。进一步在MMedC上训练后MMed-Llama 3表现出显著提升如在全量微调中MMed-Llama 3的准确率达到67.75高于未训练版本的62.79。 除了多项选择问答任务作者还评估了各模型的推理能力使用BLEU、ROUGE等自动化指标以及BERT-score进行评价并结合人工评分。作者随机选取测试集中的50个样本由5位医学研究生对生成结果进行评分评价标准包括准确性、推理能力和专业知识同时使用GPT-4作为辅助评估者。图4a显示MMed-Llama 3在人工评分4.10和GPT-4评分4.73中均得分最高。 作者还分析了自动化指标与人工评分的相关性结果表明GPT-4的评分与人工评分的相关性最高但不易推广到新模型评估。在自动化指标中BERT-score表现最为可靠因此建议在未来研究中使用BERT-score作为推理能力评估的基准。 英文基准评估 作者在MMed-Llama 3的微调中加入了额外的英文指令并与其他LLMs在英文基准上进行了对比。评估基准包括MedQA、MedMCQA、PubMedQA和MMLU-Medical。MedQA和MedMCQA主要测试诊断和治疗能力PubMedQA侧重于生物医学学术问答MMLU-Medical则评估基本医学知识。 如表所示MMed-Llama 3在这些基准上表现出色在MedQA、MedMCQA和PubMedQA上分别提升了4.5%、4.3%和2.2%。在MMLU上该模型的表现也优于大部分开源LLMs显著超越GPT-3.5得分72.59对比67.69。 数据组成的消融研究 作者对MMedLM、MMedLM 2和MMed-Llama 3在全量微调下的数据组成进行了分析使用InternLM等模型作为基础。总体结果一致以下讨论重点在MMed-Llama 3。 作者区分了高质量数据HQ-Data和未指定来源数据US-Data。HQ-Data来自经过人工验证的书籍和网站内容US-Data则是从通用语料库中筛选的医学内容。结果表明添加全面的推理数据使模型多选题的准确率平均提高了4.06个百分点从58.72上升到62.79。然而仅在英语数据上进行自回归训练没有显著提升可能是因为英语过拟合导致其他语言表现下降。扩展到整个多语言医学语料库后模型表现显著改善准确率提升到64.40推理能力在BLEU-1和ROUGE-1上分别提高0.48和0.54。此外加入自动收集的US-Data后准确率进一步提升到67.75推理能力也有所提升。 讨 论 作者的研究表明基于MMedC的自回归训练能显著提升模型性能尤其在多语言医学背景下。高质量、多样化的数据源能提高模型表现而在MMedBench上结合推理数据微调也提高了问答准确率。此外强大的LLM基础模型可提升最终结果说明未来应更注重构建医学开源数据集。该研究推动了多语言医学LLM的发展有助于实现更广泛的医学人工智能应用、提升跨语言检索生成能力并在临床上缓解语言障碍、文化差异等问题。然而数据偏见、解释性不足及语言覆盖有限仍是面临的挑战未来需要进一步改进。 参考链接 Qiu P, Wu C, Zhang X, et al. Towards building multilingual language model for medicine[J]. Nature Communications, 2024, 15(1): 8384.
http://www.hkea.cn/news/14270833/

相关文章:

  • 南宁做网站推广网站效益分析
  • 网站转入备案你建立的网站使用了那些营销方法
  • 湖州网站开发公司做别墅花园绿化的网站
  • 公司网站做么做百度排名怎么申请一个网站
  • 网站建设资料百度云电商app开发公司
  • 做网站得叫什么网站咨询弹窗怎么做
  • 建筑装饰公司win10一键优化
  • 国际网站浏览器做网站多大
  • 建设学院网站意义广东建设信息网三库一平台官网
  • 网站开发实用技术pdf平面设计培训班哪里有
  • 网站的建设与管理自考wordpress 不显示全文
  • 万先生网站深圳福田地图
  • 南昌做网站建设公司免费简单门户网站开发
  • 川畅互联咨询 网站建设做室内概念图的网站
  • 当当网站开发系统说明西宁市建设局官方网站
  • 山东网站建设哪里好网盟推广费
  • 建设银行北京市财满街分行网站网站备案号注销的结果
  • 泉州城乡建设网站微网站自己可以做么
  • 北仑做网站免费推广平台排行
  • 广州网站建设程序开发做舞美的好素材网站j
  • ICO网站模板南城网站建设公司案例
  • 表白网站制作源代码网站备案重要吗
  • 网站带后台免费下载网站建设延期通知单
  • 网页制作与网站建设...家乡网页设计作品欣赏
  • 网站建设费 大创wordpress好不好用
  • 品传集团网站建设品牌策划方案设计
  • 天涯论坛网站建设wordpress禁用文章定时发布
  • 做网站ps注意事项大数据工程技术
  • 做网站和app有什么区别上社网站建设
  • 百度网站建设的意义个人网站备案所需材料