知名的集团门户网站建设费用,网站策划与维护,资料管理系统,wordpress用户自定义密码资料来自台湾大学李宏毅教授机器学课程ML 2023 Spring#xff0c;如有侵权请通知下架
台大机器学课程ML 2023 Springhttps://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php2023/3/10 课程 機器如何生成文句
内容概要
主要探讨了大型语言模型的两种不同期待及其导致的两类…资料来自台湾大学李宏毅教授机器学课程ML 2023 Spring如有侵权请通知下架
台大机器学课程ML 2023 Springhttps://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php2023/3/10 课程 機器如何生成文句
内容概要
主要探讨了大型语言模型的两种不同期待及其导致的两类不同使用方式具体内容如下 两种不同期待 成为专才专注于解决某一个特定任务在单一任务上有机会胜过通才。例如在翻译任务中不同翻译系统的表现各有优劣如 Google、DeepL、Tencent 和 ChatGPT 在不同语言对的翻译任务中准确率有所差异成为通才期望模型具备多种能力类似 ChatGPT 的路线只要重新设计 prompt 就可以快速开发新功能无需编写程序25。不同期待导致的使用方式 成为专才 对预训练模型做改造 加外挂Head如针对不同任务有 bertForSequenceClassification单一句子分类任务、bertForTokenClassification单一句子标注任务、用于问答任务的相关设置等常见任务包括情感分析、命名实体识别、问答任务等微调和 Adapter通过更新网络参数或在 adapter 中更新参数来实现如在翻译任务中不同的调整方式对模型的翻译能力有影响。100 个任务如果采用传统方式需要存 100 个大模型而使用 adapter 则只需存 1 个大模型和 100 个 adapter。成为通才 机器学会读题目叙述或范例 Instruction Learning指令学习通过题目叙述让机器理解任务要求如英语语法选择题目给出情境和选项让机器选择正确答案121212。In - context Learning上下文学习通过给出范例让机器学习如情感分析任务中给出不同情感倾向的句子作为范例让机器判断新句子的情感。包括分类任务如判断句子情感倾向、多选项任务如选择合适的输出等还涉及不同模型在该学习方式下的表现及相关研究。Instruction - tuning指令微调如 FLAN 模型在多种任务类型上的表现涵盖自然语言推理、阅读理解、闭卷问答等任务。还涉及 Chain of ThoughtCoTPrompting思维链提示相关内容包括标准提示和思维链提示在数学应用题等任务中的不同表现以及思维链提示中的 Few - shot、Few - shot - CoT、Self - consistency 等方法的应用还有 Problem Reduction问题分解方法在解决问题时的步骤和示例。用机器来找 Prompt包括 Hard Prompt 和 Soft Prompt可通过任务特定的标记数据训练、在输入添加 Adapter、使用强化学习、利用语言模型如 GPT - 3、BlenderBot、DialoGPT 等来找 Prompt如使用正向生成模板、让语言模型遵循指令生成内容等方式并且有不同方法在准确率上的对比。 專才的期待要求模型專注於特定任務因此需要進行微調和配置而通才的期待則是希望模型能夠靈活應對多種任務自然語言下指令即可無需要頻繁調整。GPT專注於生成任務例如文字接龍而BERT則是填空任務主要關注於理解句子結構和補全缺失部分兩者的應用場景和使用方式大相逕庭。 【生成式AI】Finetuning vs. Prompting對於大型語言模型的不同期待所衍生的兩類使用方式 (1/3) Go to original video by Hung-yi Leehttps://youtube.com/watch?vF58vJcGgjt0
【生成式AI】Finetuning vs. Prompting對於大型語言模型的不同期待所衍生的兩類使用方式
大型語言模型的兩種期待 “人們對大型語言模型有兩種不同的期待。” 大型語言模型在歷史上引發了兩種截然不同的期待。第一種期待是希望這些模型能作為解決特定問題的專才例如翻譯或摘要生成。使用者小心地調整模型使其專注於特定任務。這意味著對模型的使用需要一定的改造與微調以確保它能履行特定的功能。 第二種期待則是希望大型語言模型成為一個通才具備解決多元任務的能力。這種期待要求模型能夠理解並執行用戶以自然語言下的指令而不需要事先進行特別調整。這樣的模型會以更靈活的方式來處理用戶的各種需求。
GPT與BERT的差異 “GPT做的事情就是文字接龍而BERT則是文字填空。” GPT和BERT都是知名的語言模型卻擁有不同的工作方式。GPT擅長進行“文字接龍”透過上下文補全句子使得用戶能夠自然而流暢地進行對話。 相對而言BERT主要執行“文字填空”的任務。它的工作是接收一段文字時將其中的缺失部分進行填充。這種填空方式使BERT能夠在理解和生成語言時有著不同的應用場景尤其在多任務的自然語言處理中。
使用大型語言模型的方式 “這兩種期待導致兩種不同類型的使用與大型語言模型的方式。” 第一種期待針對專才的期望通常使用BERT類的模型這類模型需要進行專門的外掛和參數微調讓它們能夠專注於特定的任務。例如對BERT進行翻譯任務時就必須進行參數調整來專注於翻譯這一任務。 而第二種期待則是在通才模式下使用大型語言模型如GPT。用戶能夠直接使用自然語言來給模型下指令讓模型進行翻譯、摘要等任務無需過多的調整。這樣的模式在使用上更加靈活也讓開發新功能變得更加迅速和簡便。 【生成式AI】Finetuning vs. Prompting對於大型語言模型的不同期待所衍生的兩類使用方式 (2/3) Go to original video by Hung-yi Leehttps://youtube.com/watch?vaZ_jXZvxyVg
機器理解人類指令的過程涉及透過範例及任務敘述來學習機器依賴這些信息來解析和執行特定的任務。選擇通才能夠讓模型在不同的任務上保持靈活性提高適應性並能有效地處理未來可能遇到的各種任務類型。 【生成式AI】Finetuning vs. Prompting對於大型語言模型的不同期待所衍生的兩類使用方式
機器如何成為通才的探索 我們希望機器能夠閱讀任務的敘述並根據範例進行學習。 機器需具備理解任務敘述的能力以便能夠按照人類的指令執行任務。為達成這一目標我們會為機器提供一些範例作為參考使其能夠理解該執行的任務類型。 這樣的學習方式稱為「Instruction learning」透過精心設計的敘述與範例來引導機器的行為使其更像人類。 在這個過程中機器的學習能力會逐漸進化並能根據不同任務自動調整其反應。
Instruction Learning與In-context Learning的定義 給定任務敘述和範例之後機器能夠正確地回答問題。 Instruction learning是指機器學習如何解讀指令並執行任務的過程而In-context learning則是指根據提供的範例進行學習和回答問題的方式。 這兩種學習模式是ChatGPT系列希望達成的核心目標。 因為過去其他模型如BERT主攻專才微調GPT系列則選擇朝著通才發展這使得它在面對多種任務時能夠保持靈活性和適應性。
微調與通才模型的選擇 GPT系列不選擇像BERT一樣微調參數而是專注於通才模型的開發。 OpenAI在一開始就抱有高期待希望創建能夠理解各種人類指令的通才模型這代表了他們對於人工智慧未來的一種高瞻遠矚的見解。 相較於BERT的專才導向GPT系列採取的路線是尋求創新讓機器在多樣化的任務中表現出色而非僅僅對單一任務進行微調。 微調這條路或許相對狹隘因此選擇更為大膽、通才的做法讓其具有更廣泛的應用潛力。
Machine Learning以範例學習的實驗 基於範例機器學習的過程有賴於示範是否正確。 進行情感分析時我們不能僅僅給機器一個句子還需要告訴它任務的類型以及它應該如何回應。透過提供正確的範例機器能學會判別句子的情感。 然而研究表明即使範例標記出現錯誤機器的表現下降仍然有限顯示出其內在的理解能力或許不完全依賴範例的精確性。 此外如果範例的內容與目標任務差異過大則學習效果會顯著降低表明範例的相關性對於機器學習成效至關重要。