当前位置: 首页 > news >正文

做网站的没有进项票怎么办秦皇岛市建设路小学网站

做网站的没有进项票怎么办,秦皇岛市建设路小学网站,哪些网站可以做产品推广,网络维护实践报告3000项目简介#xff1a; 小李哥今天将继续介绍亚马逊云科技AWS云计算平台上的前沿前沿AI技术解决方案#xff0c;帮助大家快速了解国际上最热门的云计算平台亚马逊云科技AWS上的AI软甲开发最佳实践#xff0c;并应用到自己的日常工作里。本次介绍的是如何在Amazon SageMaker上…项目简介 小李哥今天将继续介绍亚马逊云科技AWS云计算平台上的前沿前沿AI技术解决方案帮助大家快速了解国际上最热门的云计算平台亚马逊云科技AWS上的AI软甲开发最佳实践并应用到自己的日常工作里。本次介绍的是如何在Amazon SageMaker上微调Fine-tune大语言模型dolly-v2-3b满足日常生活中不同的场景需求并将介分享如何在SageMaker上优化模型性能并节省计算资源实现成本控制最后将部署后的大语言模型URL集成到自己云上的软件应用中。 本方案包括通过Amazon Cloudfront和S3托管前端页面并通过Amazon API Gateway和AWS Lambda将应用程序与AI模型集成调用大模型实现推理。本方案的解决方案架构图如下 利用微调模型创建的对话机器人前端UI 利用本方案小李哥用微调后的模型搭建了一个QA对话机器人助手可以生成代码、文字总结、回答问题。 在开始分享案例之前我们来了解一下本方案的技术背景帮助大家更好的理解方案架构。 什么是Amazon SageMaker Amazon SageMaker 是一个完全托管的机器学习服务大家可以理解为Serverless的Jupyter Notebook专为应用开发和数据科学家设计帮助他们快速构建、训练和部署机器学习模型。使用 SageMaker您无需担心底层基础设施的管理可以专注于模型的开发和优化。它提供了一整套工具和功能包括数据准备、模型训练、超参数调优、模型部署和监控简化了整个机器学习工作流程。 本方案将介绍以下内容 1. 使用 SageMaker Jupyter Notebook进行dolly-v2-3b模型开发和微调 2. 在SageMaker部署微调后的大语言模型LLM并基于数据进行推理 3. 使用多场景的测试案例验证推理结果表现并将部署的模型API节点集成进云端应用 项目搭建具体步骤 下面跟着小李哥手把手微调一个亚马逊云科技AWS上的生成式AI模型dolly-v2-3b的软件应用并将AI大模型部署与应用集成。 1. 在控制台进入Amazon SageMaker, 点击Notebook 2. 打开Jupyter Notebook 3. 创建一个新的Notebook“lab-notebook.ipynb”并打开 4. 接下来我们在单元格内一步一步运行代码检查CUDA的内存状态 !nvidia-smi 5.接下来我们安装必要依赖并导入 %%capture!pip3 install -r requirements.txt --quiet !pip install sagemaker --quiet --upgrade --force-reinstall %%captureimport os import numpy as np import pandas as pd from typing import Any, Dict, List, Tuple, Union from datasets import Dataset, load_dataset, disable_caching disable_caching() ## disable huggingface cachefrom transformers import AutoModelForCausalLM from transformers import AutoTokenizer from transformers import TextDatasetimport torch from torch.utils.data import Dataset, random_split from transformers import TrainingArguments, Trainer import accelerate import bitsandbytesfrom IPython.display import Markdown 6. 导入提前准备好的FAQs数据集 sagemaker_faqs_dataset load_dataset(csv, data_filesdata/amazon_sagemaker_faqs.csv)[train] sagemaker_faqs_dataset sagemaker_faqs_dataset[0] 7. 我们定义用于模型推理的提示词格式 from utils.helpers import INTRO_BLURB, INSTRUCTION_KEY, RESPONSE_KEY, END_KEY, RESPONSE_KEY_NL, DEFAULT_SEED, PROMPTPROMPT {intro}{instruction_key}{instruction}{response_key}{response}{end_key}Markdown(PROMPT) 8. 下面我们进入重头戏导入一个提前预训练好的LLM大语言模型“databricks/dolly-v2-3b”。 tokenizer AutoTokenizer.from_pretrained(databricks/dolly-v2-3b, padding_sideleft)tokenizer.pad_token tokenizer.eos_token tokenizer.add_special_tokens({additional_special_tokens: [END_KEY, INSTRUCTION_KEY, RESPONSE_KEY_NL]})model AutoModelForCausalLM.from_pretrained(databricks/dolly-v2-3b,# use_cacheFalse,device_mapauto, #balanced,load_in_8bitTrue, ) 9. 对模型训练进行预准备, 处理数据集、优化模型训练PEFT效率 model.resize_token_embeddings(len(tokenizer))from functools import partial from utils.helpers import mlu_preprocess_batchMAX_LENGTH 256 _preprocessing_function partial(mlu_preprocess_batch, max_lengthMAX_LENGTH, tokenizertokenizer)encoded_sagemaker_faqs_dataset sagemaker_faqs_dataset.map(_preprocessing_function,batchedTrue,remove_columns[instruction, response, text], )processed_dataset encoded_sagemaker_faqs_dataset.filter(lambda rec: len(rec[input_ids]) MAX_LENGTH)split_dataset processed_dataset.train_test_split(test_size14, seed0) split_dataset 10. 同时我们使用LoRALow-Rank Adaptation模型加速我们的模型微调 from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training, TaskTypeMICRO_BATCH_SIZE 8 BATCH_SIZE 64 GRADIENT_ACCUMULATION_STEPS BATCH_SIZE // MICRO_BATCH_SIZE LORA_R 256 # 512 LORA_ALPHA 512 # 1024 LORA_DROPOUT 0.05# Define LoRA Config lora_config LoraConfig(rLORA_R,lora_alphaLORA_ALPHA,lora_dropoutLORA_DROPOUT,biasnone,task_typeCAUSAL_LM )model get_peft_model(model, lora_config) model.print_trainable_parameters()from utils.helpers import MLUDataCollatorForCompletionOnlyLMdata_collator MLUDataCollatorForCompletionOnlyLM(tokenizertokenizer, mlmFalse, return_tensorspt, pad_to_multiple_of8 ) 11. 接下来我们定义模型训练参数并开始训练。其中Batch1Step20000epoch为10. EPOCHS 10 LEARNING_RATE 1e-4 MODEL_SAVE_FOLDER_NAME dolly-3b-loratraining_args TrainingArguments(output_dirMODEL_SAVE_FOLDER_NAME,fp16True,per_device_train_batch_size1,per_device_eval_batch_size1,learning_rateLEARNING_RATE,num_train_epochsEPOCHS,logging_strategysteps,logging_steps100,evaluation_strategysteps,eval_steps100, save_strategysteps,save_steps20000,save_total_limit10, )trainer Trainer(modelmodel,tokenizertokenizer,argstraining_args,train_datasetsplit_dataset[train],eval_datasetsplit_dataset[test],data_collatordata_collator, ) model.config.use_cache False # silence the warnings. Please re-enable for inference! trainer.train() 12. 接下来我们将微调后的模型保存在本地 trainer.model.save_pretrained(MODEL_SAVE_FOLDER_NAME)trainer.save_model()trainer.model.config.save_pretrained(MODEL_SAVE_FOLDER_NAME)tokenizer.save_pretrained(MODEL_SAVE_FOLDER_NAME) 13. 接下来我们将保存到本地的模型进行部署生成公开访问的API节点Endpoint 对部署所需要的参数进行定义和初始化 import boto3 import json import sagemaker.djl_inference from sagemaker.session import Session from sagemaker import image_uris from sagemaker import Modelsagemaker_session Session() print(sagemaker_session: , sagemaker_session)aws_role sagemaker_session.get_caller_identity_arn() print(aws_role: , aws_role)aws_region boto3.Session().region_name print(aws_region: , aws_region)image_uri image_uris.retrieve(frameworkdjl-deepspeed,version0.22.1,regionsagemaker_session._region_name) print(image_uri: , image_uri) 进行模型部署 model_datas3://{}/lora_model.tar.gz.format(mybucket)model Model(image_uriimage_uri,model_datamodel_data,predictor_clssagemaker.djl_inference.DJLPredictor,roleaws_role) 14.最后我们写入提示词对大语言模型进行测试, 得到推理 outputs predictor.predict({inputs: What solutions come pre-built with Amazon SageMaker JumpStart?})from IPython.display import Markdown Markdown(outputs) 15. 我们下面进入SageMaker Endpoint页面得到刚部署的模型API端点的URL通过这种方式我们就可以在应用中调用我们的微调后的大语言模型了。
http://www.hkea.cn/news/14394423/

相关文章:

  • 仿 手机 网站模板html网站如何做百度推广方案
  • 方一凡和磊儿做家教的网站电商网站的建设动态
  • 无锡建设银行网站最优惠的赣州网站建设
  • 邢台网站制作那家便宜网站建设实施背景分析
  • 烟台网站设计单位柬埔寨做网站网站
  • 化州网站建设360建筑网电脑版
  • 广州个性化网站开发做网站被骗
  • 怎么搭建一个简单的网站三亚海棠警方拘留3名涉黄人员
  • 合山市网站湘潭网站建设 干净磐石网络
  • 山西省吕梁市邮政编码百度网站优化排名
  • 张家界网站建设企业sea wordpress
  • 山东中讯做网站怎么样动态表白网站制作
  • 网站seo怎样做成都旅游几月份最佳时间
  • 济南企业网站设计望京 网站建设
  • 松江信息科技有限公司网站网站的设计与维护摘要
  • 襄樊网站网站建设国家信用信息企业公示系统官网
  • 宣传类的网站有哪些专题制作 wordpress
  • wordpress 写入权限设置福州seo代理商
  • 网站建设怎么做网站wordpress 多重筛选
  • 制作专业网站网站建设方案实训总结
  • 电子游艺网站开发wordpress引用js插件
  • 汽车网站大全深圳设计网站培训学校
  • 网站建站主机百度seo快速排名
  • 博罗高端网站建设价格做网站的简称
  • 网站无后台添加后台贸易公司取什么名字
  • 做网站用什么软件ps字体北京值得去的商场
  • 网站建设商业计划书wordpress 屏蔽谷歌字体
  • 最简单网站开发软件wordpress改网站信息
  • 学php网站开发多钱高校思政专题网站建设
  • 做网站需要做h5吗比较好的互联网公司