个人网站什么好,泰安市泰山区招聘信息,天眼查官网查企业在线,网站页面设计主要包括过去#xff0c;我们使用翻译接口时#xff0c;往往都是使用百度等的接口#xff0c;每天有一定量的免费额度。今天为大家介绍一个可以进行翻译的模型#xff0c;具备英译中、中译英的能力。并且在这个过程中#xff0c;向大家介绍一个如何在本地部署模型。在之前的”五天…过去我们使用翻译接口时往往都是使用百度等的接口每天有一定量的免费额度。今天为大家介绍一个可以进行翻译的模型具备英译中、中译英的能力。并且在这个过程中向大家介绍一个如何在本地部署模型。在之前的”五天入门RAG“中我们介绍过如何线上运行但这是需要网络条件的当你不具备时可以在本地安装使用。
这个模型就是Helsinki-NLP/opus-mt-zh-en和Helsinki-NLP/opus-mt-en-zh。在后面我们会再带大家体验具备语音翻译转录的模型SeamlessM4T。
首先进入https://huggingface.co/
搜索Helsinki-NLP/opus-mt-zh-en 点击右边的compute试一下翻译效果还不错。
然后点击files卡片。 主要下载如下的几个文件。 放到自己本地目录下 然后输入我们的翻译代码
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM# 模型名称如果模型已经下载到本地可以直接指定路径
modelName D:/workspace/work/translate/bert_model/
srcText [
大家好我是一只来自中国的大熊猫,
在这种方式下我们的transformers才能发挥最大的作用,
啊华山你可真是壮美,
]#---------------------------------tokenizer AutoTokenizer.from_pretrained(modelName)
model AutoModelForSeq2SeqLM.from_pretrained(modelName)
translated model.generate(**tokenizer(srcText, return_tensorspt, paddingTrue))
# 返回结果
r [tokenizer.decode(t, skip_special_tokensTrue) for t in translated]print(r)代码可能会提示错误 那么我们安装这个就是了代码如下
pip install SentencePiece然后再运行 [Hello. Im a big panda from China.,
In this way, our transformers will be most effective.,
Oh, youre so beautiful, Wahshan.]同样的英译中使用另一个模型即可。
我们简单解释一下代码
AutoTokenizer.from_pretrained
用于加载预训练的文本处理模型Tokenizer以便将文本数据转换为模型可以接受的输入格式。这个方法接受多个参数以下是这些参数的详细说明
1.pretrained_model_name_or_path (str):
-这是最重要的参数指定要加载的预训练模型的名称或路径。可以是模型名称例如 “bert-base-uncased”或模型文件夹的路径。
\2. inputs (additional positional arguments, optional)
它表示额外的位置参数这些参数会传递给标记器Tokenizer的__init__()方法。这允许你进一步自定义标记器的初始化。
\3. config ([PretrainedConfig], optional)
这个配置对象用于确定要实例化的分词器类。
4.cache_dir (str, optional):
用于缓存模型文件的目录路径
\5. force_download (bool, optional):
如果设置为 True将强制重新下载模型配置覆盖任何现有的缓存。
\6. resume_download (bool, optional)
-这是可选参数如果设置为 True则在下载过程中重新开始下载即使部分文件已经存在。
\7. proxies (Dict[str, str], optional)
proxies可选参数这是一个字典用于指定代理服务器的设置。代理服务器允许您在访问互联网资源时通过中继服务器进行请求这对于在受限网络环境中使用 Transformers 库来加载模型配置信息非常有用。
proxies { “http”: “http://your_http_proxy_url”, “https”: “https://your_https_proxy_url” }
\8. revision (str, optional):
指定要加载的模型的 Git 版本通过提交哈希。
\9. subfolder (str, optional)
如果相关文件位于 huggingface.co 模型仓库的子文件夹内例如 facebook/rag-token-base请在这里指定。
\10. use_fast (bool, optional, defaults to True)
这是一个布尔值指示是否强制使用 fast tokenizer即使其不支持特定模型的功能。默认为 True。
\11. tokenizer_type (str, optional)
参数用于指定要实例化的分词器的类型
\12. trust_remote_code (bool, optional, defaults to False)
trust_remote_codeTrue
默认情况下trust_remote_code 设置为 True。这意味着当您使用 from_pretrained() 方法加载模型配置文件时它将下载来自 Hugging Face 模型中心或其他在线资源的配置文件。这是一个方便的默认行为因为通常这些配置文件是由官方提供的且是可信的。
trust_remote_codeFalse
如果您将 trust_remote_code 设置为 False则表示您不信任从远程下载的配置文件希望加载本地的配置文件。这对于安全性或定制性要求较高的场景可能是有用的。
在这种情况下您需要提供一个本地文件路径以明确指定要加载的配置文件
总之trust_remote_code 参数允许您在使用 Hugging Face Transformers 库时控制是否信任从远程下载的配置文件。默认情况下它被设置为 True以方便加载官方提供的配置文件但您可以将其设置为 False 并提供本地配置文件的路径以进行更精细的控制。
AutoModel.from_pretrained()
AutoModel.from_pretrained() 是 Hugging Face Transformers 库中的一个函数用于加载预训练的深度学习模型。它允许你加载各种不同的模型如BERT、GPT-2、RoBERTa 等而无需为每个模型类型编写单独的加载代码。以下是 AutoModel.from_pretrained() 函数的主要参数
\1. pretrained_model_name_or_path (str):
-这是一个字符串参数用于指定要加载的预训练模型的名称或路径。可以是模型的名称如 “bert-base-uncased”或模型文件夹的路径。
\2. *model_args
直接传参的方式传入配置项例如我们将编码器层数改为3层
model AutoModel.from_pretrained(“./models/bert-base-chinese”, num_hidden_layers3)
加载模型时指定配置类实例
model AutoModel.from_pretrained(“./models/bert-base-chinese”, configconfig)
3.trust_remote_code (bool, optional, defaults to False)
trust_remote_codeTrue
默认情况下trust_remote_code 设置为 True。这意味着当您使用 from_pretrained() 方法加载模型配置文件时它将下载来自 Hugging Face 模型中心或其他在线资源的配置文件。这是一个方便的默认行为因为通常这些配置文件是由官方提供的且是可信的。
trust_remote_codeFalse
如果您将 trust_remote_code 设置为 False则表示您不信任从远程下载的配置文件希望加载本地的配置文件。这对于安全性或定制性要求较高的场景可能是有用的。
在这种情况下您需要提供一个本地文件路径以明确指定要加载的配置文件
总之trust_remote_code 参数允许您在使用 Hugging Face Transformers 库时控制是否信任从远程下载的配置文件。默认情况下它被设置为 True以方便加载官方提供的配置文件但您可以将其设置为 False 并提供本地配置文件的路径以进行更精细的控制。
hub_kwargs_names [
“cache_dir”, #同上面
“force_download”,#同上面
“local_files_only”,
“proxies”, #同上面
“resume_download”, #同上面
“revision”, #同上面
“subfolder”, #同上面
“use_auth_token”,
]
local_files_only:
如果设置为True将只尝试从本地文件系统加载模型。如果本地文件不存在它将不会尝试从Hugging Face模型存储库下载模型文件。如果本地存在模型文件它将从本地加载。如果设置为False默认值它将首先尝试从本地加载如果本地不存在模型文件它将尝试从Hugging Face模型存储库下载模型文件并缓存到本地然后加载。
from transformers import AutoModel
model AutoModel.from_pretrained(“bert-base-uncased”, local_files_onlyTrue)
详解 use_auth_token 参数
默认值use_auth_token 参数的默认值通常为 None这意味着在默认情况下不使用身份验证令牌。
作用Hugging Face Model Hub 上的一些模型可能需要身份验证令牌才能访问。这通常是因为模型的创建者希望对其进行访问控制或者出于其他原因需要进行身份验证。如果模型需要身份验证令牌你可以在 use_auth_token 参数中提供有效的令牌以便在下载模型时使用。
获取身份验证令牌要获得有效的身份验证令牌你需要注册并登录到 Hugging Face Model Hub然后访问你的个人配置文件profile那里会提供一个 API 令牌API token你可以将其用作 use_auth_token 的值。
from transformers import AutoModel
# 使用身份验证令牌来加载模型
model AutoModel.from_pretrained(‘model_name’, use_auth_token‘your_auth_token’)
大多数模型不需要身份验证令牌并且可以在不提供 use_auth_token 参数的情况下加载。只有在你确实需要进行身份验证才需要使用此参数。
model.generate()
model()的使用场景当你需要对输入数据执行一次完整的前向计算时使用如分类任务、特征提取等。 model.generate()的使用场景当你需要模型自动生成文本或序列尤其是在语言模型中如GPT、T5等。
return_tensors‘pt’, 自动的将所有的结果都转化成二纬的tensor数据因此后面我们还需要将数据进行解码完成编码解码。
如何学习大模型 AI
由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。
但是具体到个人只能说是
“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。
这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。
我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。 第一阶段10天初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。
大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…
第二阶段30天高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。
为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…
第三阶段30天模型训练
恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。
到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗
为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…
第四阶段20天商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。
硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…
学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。
如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】