当前位置: 首页 > news >正文

西安博威建设工程有限公司招聘网站兼职设计师平台

西安博威建设工程有限公司招聘网站,兼职设计师平台,世界知名外贸网站,杭州做网站排名软件一、什么是生成式AI#xff1f; 以ChatGPT为代表的生成式AI#xff0c;是对已有的数据和知识进行向量化的归纳#xff0c;总结出数据的联合概率。从而在生成内容时#xff0c;根据用户需求#xff0c;结合关联字词的概率#xff0c;生成新的内容。 可以这么联想#x…一、什么是生成式AI 以ChatGPT为代表的生成式AI是对已有的数据和知识进行向量化的归纳总结出数据的联合概率。从而在生成内容时根据用户需求结合关联字词的概率生成新的内容。 可以这么联想ChatGPT就是一个词语接龙的机器他会根据你给出的关键词自动生成关键词的下一个最有可能衔接的词语。比如你说“世界上最高的山”ChatGPT就会回答“喜马拉雅山”。 二、怎么得到一个大模型 大模型需要算力、数据/存力、算法这三大要素。 算力即需要GPU、NPU这些硬件进行训练。 数据/存力生成式AI需要处理和存储大量的数据。以GPT-3为例光是训练参数就达到了1750亿个训练数据达到45TB每天会产生45亿字内容。 算法生成式AI的主要算法是深度学习。从仿生学的角度人类希望AI能够模仿人脑的运行机制对知识进行思考推理——这就是通常所说的深度学习。 三、算法 为了实现深度学习学者们提出了大量的神经网络架构 先看三个经典的 深度神经网络DNN是最普遍的神经网络架构但是随着数据对于网路架构的要求越来越复杂这种方法逐渐有些吃力。卷积神经网络CNN是一种专门为处理图像数据而设计的神经网络架构能够有效地处理图像数据但是需要对输入数据进行复杂的预处理。循环神经网络RNN架构成为处理序列数据的常用方法。 1Transformer架构 由于RNN在处理长序列时容易遇到梯度消失和模型退化问题著名的Transformer算法被提出。 Transformer架构是目前文本生成领域的主流架构GPT、llama等LLM大语言模型都是基于Transformer实现了卓越的性能。 Transformer架构主要由输入部分输入输出嵌入与位置编码、多层编码器、多层解码器以及输出部分输出线性层与Softmax四大部分组成。 1输入部分 源文本嵌入层将源文本中的词汇数字表示转换为向量表示捕捉词汇间的关系。 位置编码器为输入序列的每个位置生成位置向量以便模型能够理解序列中的位置信息。 目标文本嵌入层在解码器中使用将目标文本中的词汇数字表示转换为向量表示。 2编码器部分 由N个编码器层堆叠而成。 每个编码器层由两个子层连接结构组成第一个子层是一个多头自注意力子层第二个子层是一个前馈全连接子层。每个子层后都接有一个规范化层和一个残差连接。 3解码器部分 由N个解码器层堆叠而成。 每个解码器层由三个子层连接结构组成第一个子层是一个带掩码的多头自注意力子层第二个子层是一个多头注意力子层编码器到解码器第三个子层是一个前馈全连接子层。每个子层后都接有一个规范化层和一个残差连接。 4输出部分 线性层将解码器输出的向量转换为最终的输出维度。 Softmax层将线性层的输出转换为概率分布以便进行最终的预测。 2训练 目前有两种训练方式预训练和SFT有监督微调 预训练是指将一个大型、通用的数据集作为知识喂给AI进行初步学习。经过预训练的模型叫作“基础模型”它对每个领域都有所了解但是无法成为某个领域的专家。SFT有监督微调SFT是指在预训练之后将一个特定任务的数据集喂给AI进一步训练模型。例如在已经预训练的语言模型基础上用专门的医学文本来微调模型使其更擅长处理医学相关的问答或文本生成任务。 四、Transformer里的编码解码到底是什么 语义的最小单位是TOKEN可以翻译成“词元”它是语言类模型中用数字来表示单词的最小语义单位。 比如下图中这句话“This is a input text.” 首先被 Tokenizer 转化成最小词元其中[CLS][SEP]为一句话的起始与结束符号CLSclassification 告知系统这是句子级别的分类的开始、SEPseparator 告知系统结束本句或分割下一句然后再通过 Embedding 的方式转化为向量。 比如猴子和香蕉这两个语义关系紧密。原子能和香蕉差距就比较远。 Transformer中编码器和解码器中的“码”指的是什么 以下是ChatGPT-4o-mini给出的答案 编码器中的“码” 输入表示编码器接收输入序列如文本并将其转换成一个高维的向量表示。这些向量捕捉了输入序列中单词之间的关系和上下文信息。特征提取编码器通过多层自注意力机制和前馈神经网络提取特征使得每个输入的表示包含了其在上下文中的重要性。 解码器中的“码” 生成输出解码器使用编码器生成的表示以及之前生成的单词逐步生成目标序列如翻译后的文本。这里的“码”指的是解码器对已生成内容的处理和对未来内容的预测。上下文结合解码器同样使用自注意力机制来考虑已生成的单词与当前生成位置的关系。 总结来说“码”在这里代表了对输入和输出数据的数学表示方式帮助模型理解和生成语言。 总的来说编码器负责理解和处理输入而解码器则负责生成输出二者协同工作以实现有效的序列转换。 参考 https://baijiahao.baidu.com/s?id1801561545647449293wfrspiderforpc
http://www.hkea.cn/news/14390271/

相关文章:

  • 前端网站建设和维护做旅游网站毕业设计
  • 手机 网站 尺寸电脑网络连接不上怎么解决
  • 简约大气的网站商城网站开发项目文档
  • 哪些网站的活动策划做的好卖鞋做哪个网站好
  • 长宁青岛网站建设商城网站建设企业
  • 做网站主机要选好培训机构招生方案模板
  • 做网站网页需要学些什么白银市建设局网站首页
  • 企业建设高端网站的目的外贸是什么意思
  • 湘潭网站建设定制磐石网络网站流量很少
  • 网站开发合作运营平台合同我的网站百度找不到
  • 网站建站平台系统购物网站开发问题域分析
  • 做网站是买服务器还是买主机qq安全中心信任网站
  • 学校网站建设目的与意义有哪些可以做外链的网站
  • 福建建设工程环保备案网站入口郑州网站空间
  • 图片直链在线生成网站网站的引导页面是什么意思
  • 汽车零件销售网站开发备案网站建设书
  • 网站建设 数据库购买专业外贸网站建设 诚信 青岛
  • asp 网站开发 软件新网站域名备案流程
  • 晋江市住房和城乡建设网站网站群管理平台方案
  • seo网站优化怎么做蛋糕店的网站
  • 广德网站开发动漫设计工作室网站推广方法
  • 怎么做特色网站如何制作聊天软件
  • 网站页面怎么算商城网站做推广方案
  • 义乌网站建设微信开发360开户
  • 贝斯特专业网站苍南做网站哪里找
  • seo的网站德江网站建设
  • 网站建设对企业的意义网页打不开怎么处理
  • p2p网站建设制作wordpress用户权限
  • 怎么做网站站内搜索福田附近网站建设
  • 类似淘宝的网站怎么做的广州市建设集团网站首页