网站建设服务协议,什么是网络营销取得成功的基础,建设旅游门户网站,高薪聘请网站开发工程师文章目录一、前言二、主要内容三、一些思考#x1f349; CSDN 叶庭云#xff1a;https://yetingyun.blog.csdn.net/ 一、前言
近日#xff0c;英伟达创始人兼 CEO 黄仁勋与 OpenAI 联合创始人及首席科学家伊尔亚-苏茨克维 (Ilya Sutskever) 展开了一次 “炉边谈话”。
黄仁…
文章目录一、前言二、主要内容三、一些思考CSDN 叶庭云https://yetingyun.blog.csdn.net/ 一、前言
近日英伟达创始人兼 CEO 黄仁勋与 OpenAI 联合创始人及首席科学家伊尔亚-苏茨克维 (Ilya Sutskever) 展开了一次 “炉边谈话”。
黄仁勋认为ChatGPT 是 “AI 界的 iPhone 时刻”但这一时刻的到来并非一蹴而就OpenAI 联合创始人早在十年前便开始关注神经网络在探索生成式 AI 的过程中也经历了神经网络如何兼具深度和规模的探索、让机器不受监督的学习能力的突破。到如今ChatGPT 成为了一款全球关注的 “网红工具”。站在当下回顾它的迭代和发展历程创意似乎是在创始人和团队的一个个 “灵感” 之中蹦出看似理所当然的创新背后究竟有哪些 “激动人心的时刻” 原文链接和视频 腾讯科技 编辑整理李海丹、周小燕 | 关于 ChatGPT黄仁勋和 OpenAI 联合创始人进行了一场 “炉边谈话” 二、主要内容
黄仁勋最近 ChatGPT 的热潮使人工智能又站在了世界的 “风口浪尖”OpenAI 公司也受到行业的重点关注你也成为了整个行业最为引入注目的年轻工程师、最为顶尖的科学家。我的第一个问题是你最初关注和聚焦人工智能领域的出发点是什么有想过会取得目前如此巨大的成功吗
伊尔亚-苏茨克维非常感谢对我的盛情邀请。人工智能通过不断的深度学习给我们的世界带来了巨大的变化。对于我个人来说其实主要是两方面
首先我关注在人工智能深度学习方面的初心是我们人类对于各种问题都有一定的直觉性的理解。对于人类意识的定义以及我们人类的智力是如何完成这样的预判这是我特别感兴趣的地方。第二在 2002 年到 2003 年期间当时的我认为 “学习” 这件事是只有人类才能完成的任务计算机是无法做到的。所以我当时冒出一个想法如果能够让计算机去不断学习或许会带来人工智能行业的改变。并且很幸运的是当时我正在上大学我研究的专业刚好是研究神经网络学习方向。神经网络是在 AI 方面的一个非常重要的进步我们关注如何通过神经网络去研究深度学习以及神经网络如何像人类的大脑那样工作这样的逻辑如何反映在计算机的工作方式上。当时的我其实并不清楚研究这个领域会带来怎样的职业工作路径只是觉得这会是一个长期而言比较有前景的行业。
黄仁勋在您最开始接触神经网络研究方向时那个时候的神经网络的规模是多大
伊尔亚-苏茨克维其实那个时候神经网络还没有讨论到规模的概念只有几百个神经单元甚至当时的我都没想过居然能发展到现在如此之多的神经单元、以及如此多的 CPU 的单位。当时我们启动了一个数学实验室基于经费预算有限我们先开始只做了各种各样不同的实验并收集了各种不同的问题去测试准确度。我们都从一点一滴很小的积累去训练神经网络。这也是最开始实现的第一个生成式 AI 模式的雏形。
黄仁勋早在 2012 年之前你就在神经网络领域有所建树你是在什么时间点开始觉得计算机视觉以及神经网络和人工智能是未来很有前景的方向的
伊尔亚-苏茨克维在 2012 年之前大概两年左右我逐渐意识到深度学习会获得很多关注这不仅仅是我的直觉其背后有一套非常扎实的理论基础。如果计算机的神经网络足够深、规模足够大它就能够解决一些深层次的硬核内容问题关键是需要神经网络兼备深度和规模这意味着我们必须有足够大的数据库和算力。我们在优化数据模型上付出很多努力我们的一个同事基于 “秒” 做出了神经网络的 馈用户可以不断训练神经网络这能让神经网络的规模更大、获得更多数据。有的人觉得这样的数据集大到不可想象如果当时的算力能够处理这么大的数据那么一定能触发一场革命。
黄仁勋我们第一次相遇的时候也是我们对未来的展望真正有所交集的时候。你当时告诉我说GPU 会影响接下来几代人的生活你的直觉认为 GPU 可能会对深度学习的训练有所帮助。能不能告诉我你是在什么时候意识到这一点的
伊尔亚-苏茨克维我们在多伦多实验室中第一次尝试使用 GPU 训练深度学习的时候并不清楚到底如何使用 GPU、如何让 GPU 获得真正的关注。随着我们获得越来越多的数据集我们也越来越清楚传统的模型会带来的优势。我们希望能够加速数据处理的过程训练过去科学家从来没有训练过的内容。
黄仁勋我们看到 ChatGPT 和 OpenAI 目前已经打破了过去计算机编辑图像的模式。
伊尔亚-苏茨克维我觉得不只是打破了计算机图像的编辑而是用另外一种说法去形容是 “超越式” 的。大部分人都是用传统的思维模式去处理数据集但我们的处理方式更先进。当时我们也认为这是一件艰难的事情如果我们能做好就是帮助人们跨越了一大步。
黄仁勋放在当下来看当时你去硅谷到 Open AI 上班、担任 Open AI 的首席科学家你认为最重要的工作时什么我觉得 Open AI 在不同的时间点有不同的工作关注焦点ChatGPT 是 “AI 界的 iPhone 时刻”你是如何达到这样的转变时刻的
伊尔亚-苏茨克维最开始我们也不太清楚如何开展整个项目而且我们现在所得出的结论和当时使用的逻辑完全不同。用户现在已经有这么好用的 ChatGPT 工具来帮助大家创造出非常好的艺术效果和文本效果。但在 2015 年、2016 年的时候我们还不敢想象能达到当下的程度。当时我们大部分同事来自谷歌的 DeepMind他们有从业经验但相对而言思想比较狭窄、受到束缚当时我们内部做了 100 多次不同的实验和对比。
那时我想出一个特别令自己激动的想法就是让机器具备一种不受监督的学习能力虽然今天我们认为这是理所当然的你可以用自然语言模型训练所有内容。但在 2016 年不受监督的学习能力仍旧是没有被解决的问题也没有任何科学家有过相关的经验和洞见。我觉得 “数据压缩” 是技术上的瓶颈这个词并不常见但实际上 ChatGPT 确实压缩了我们的训练数据集。但最后我们还是找到了数学模型通过不断训练让我们压缩数据这其实是对数据集的挑战。这是令我感动特别激动的一个想法这个想法在 GPT 上获得了成果。其实这样一些成果可能并不会在机器学习之外深受欢迎但是我想说的是我工作取得的成果是训练了神经网络。我们希望能够去训练神经网络预测下一个单词。我认为下一个神经元的单位会和我们的整个视觉神经网络密切相关的这个很有趣这个和我们验证的方法是一致的。它再次重新证明了下一个字符的预测、下一个数据的预测能够帮助我们去发掘现有数据的逻辑这个就是 ChatGPT 训练的逻辑。
黄仁勋扩大数据规模是帮助我们提高 AI 能力的表现更多的数据、更大的数据集能够帮助生成式 AI 获得更好的结果。您觉得 GPT-1、GPT-2、GPT-3 的演变过程是否符合摩尔定律
伊尔亚-苏茨克维OpenAI 的目标之一是解决扩大数据集的问题但我们刚开始面临的问题如何提升数据的高精准度让模型能够实现精准预测非常重要。我们当时在做 Open AI 项目的时候希望它能实时做一些策略性游戏比如竞争性的体育游戏它必须足够快、足够聪明还要和其它队竞赛。作为一个 AI 模型它其实不断重复这样一个基于人类反馈的强化学习过程。
黄仁勋你是如何精准调控给予人类反馈的强化学习的是不是有其它附属系统给 ChatGPT 一定的知识背景来支持 ChatGPT 的表现
伊尔亚-苏茨克维我可以给大家解释一下我们的工作原理是不断训练神经网络架构让神经网络去预测下一个单词。基于过去我们收集的文本ChatGPT 不仅仅是表面上的自监督学习我们希望它能够在当下预测的单词和过去的单词之间达成一定的逻辑上的一致。过去的文本其实是用于投射到接下来的单词的预测上。从神经网络来看它更像是根据世界的不同方面根据人们的希望、梦想和动机得出一个结论。但我们的模型还没有达到预期的效果比如我们从网上随便摘几个句子做前言在此基础上不需要做额外的训练就能让 ChatGPT 写出一篇符合逻辑的论文。我们不是简单地根据人类经验完成 AI 学习而是要根据人类反馈进行强化学习。人类的反馈很重要越多的反馈能使 AI 更可靠。
黄仁勋你可以给 AI 指示让 AI 做某些事情但是你能不能让 AI 不做某些事情比如说告诉 AI 界限在哪里
伊尔亚-苏茨克维可以的。我觉得第二个阶段的训练序列就是和 AI、神经网络去进行交流我们对 AI 训练得越多AI 的精准度越高就会越来越符合我们的意图。我们不断地提高 AI 的忠诚度和准确度它就会变得越来越可靠越来越精准而且越来越符合人类社会的逻辑。
黄仁勋ChatGPT 在几个月之前就面世了并且也是人类历史上增长最为迅速的软件和应用。很多人都会给出各种不同的解释有人会说它是目前为止使用方式最简单的应用。比如说它的交互模式非常简单它超越了所有人的预期。人们也不需要去学习如何使用 ChatGPT只要给 ChatGPT 下命令提出各种不同的提示就可以。如果你的提示不够清楚的话ChatGPT 也会进一步把你的提示做得比较清晰然后回顾并且问你是不是想要这个这样一个深度学习的过程让我特别惊艳。我们在几天之前看到了 GPT-4 的表现它在很多领域的表现非常让人震惊它能够通过 SAT 考试、律师协会的律师执业资格考试而且能够达到很高的人类水平。我想问的就是GPT-4 有什么样的改善并且你认为接下来它会帮助人们在哪些方面、领域有更多的改善
伊尔亚-苏茨克维GPT-4 基于过去 ChatGPT 的性能做了很多改善。我们对 GPT-4 的训练大概是从 6-8 个月之前开始的GPT -4 和之前版本 GPT 最重要的区别就是 GPT-4 是基于更精确的精准度去预测下一个单词的因为有更好的神经网络帮助预测。比如说你自己在读一篇推理小说小说中有各种不同的人物和情节有密室、有谜团你在读推理小说的过程中完全不清楚接下来会发生什么。通过小说不同的人物和情节你预测凶手有几种可能性GPT-4 所做的内容就像一本推理小说一样。
黄仁勋很多人都会说深度学习会带来推理但是深度学习并不会带来学习。语言模型是如何学习到推理和逻辑的有一些任务ChatGPT 和 GPT-3 不够擅长而 GPT-4 更擅长。GPT-4 现在还有什么样缺陷可以在接下来的版本上更进一巩固吗
伊尔亚-苏茨克维现在的 ChatGPT 可以更精准地的定义逻辑和推理通过更好的逻辑和推理在接下来的解密的过程中获得更好的答案。神经网络或许会面临一些挑战比如让神经网络去打破固有的思维模式这就意味着我们要思考神经网络到底可以走多远简而言之神经网络的潜力有多大。我们认为 GPT 的推理确实还没有达到我们之前预期的水平如果我们更进一步扩大数据库保持过去的商业运转模型它的推理的能力会进一步提高我对这个比较有信心。
黄仁勋还有一点特别有意思就是你去问 ChatGPT 一个问题它会基于过去的知识和经验告诉你这个问题的答案这个也是基于它对过去知识和数据库的总结以及基于对你的了解提供的答案并且展现一定的逻辑性。我觉得 ChatGPT 有一种自然而然的属性它能够不断去理解。
伊尔亚-苏茨克维是的神经网络确实有这些能力但是有时候不太靠谱这也是神经网络接下来面临的最大障碍。在很多情况下神经网络会比较夸张、会出很多的错误甚至出一些人类根本做不出来的错误。现在我们需要更多的研究来解决这些 “不可靠性“。现在 GPT-4 的模型已经被公开发布了它其实没有追踪数据模型的能力它的能力是基于文本去预测下一个单词所以是有局限性的。我觉得有些人可能会让 GPT-4 去找出某些数据的来源然后会对数据来源做更深入地调查。总体而言尽管 GPT-4 并不支持内部的数据收集它肯定会在持续的数据深入挖掘之中变得更加精准。GPT-4 已经能够从图片中进行学习并且根据图片和内容的输入进行反馈。
黄仁勋多模态学习如何加深 GPT-4 对于世界的理解为什么多模态学习定义了 GPT 和 OpenAI
伊尔亚-苏茨克维多模态非常有意思。
第一多模态在视觉和图像识别上特别有用。因为整个世界是由图片形成的人们也是视觉动物动物也是视觉动物人脑 1/31/31/3 的灰质都是用来处理图像的GPT-4 现在也能够去理解这些图像。第二通过图片或文字对世界的理解是一样的这也是我们的一个论证。对于一个人而言我们作为一个人可能一生之中只会说 10 亿个词。
黄仁勋我脑海中闪过 10 亿个词的画面居然有这么多词
伊尔亚-苏茨克维是的我们可以计算一下人一生的时间有多久以及一秒能处理多少词如果再减去这个人生命中睡觉的时间就能算出一生处理了多少单词。人和神经网络不同之处就是有些过去对于文本而言的话如果我们有一个十亿级的词汇无法理解的话可以用万亿级的词汇来理解。我们对于世界的知识和信息可以通过文本慢慢渗透给 AI 的神经网络。如你加上视觉图片等更多的元素神经网络可以更精准地学习。
黄仁勋对于文本和图片方面的深度学习如果我们想要人工智能智能去理解其背后的逻辑甚至夸张的说是理解这个世界的基本原理——比如我们人类日常一句话的表达方式比如说有一个词其实有两种含义声音的高低变化其实都代表着两种不同的语气。在说话的语言和语调方面会不会对 AI 去理解文本有一定帮助呢
伊尔亚-苏茨克维是的你说的这类场景非常重要。对于语音和语调包括声音的大小和语气都非常重要的信息来源。
黄仁勋GPT-4 在哪些内容上比 GPT-3 做出了更多的进步可以举个例子吗
伊尔亚-苏茨克维比如说在一些数学竞赛上像高中数学竞赛很多问题是需要图表来解答的。GPT-3.5 对于图表的解读做得特别差而 GPT-4 只需要文本就可以解读准确率有很大的提升。
黄仁勋你之前提到AI 能够生成各种不同的文本来去训练另外一个 AI。比如说在所有的语言之中一共有 20 万亿不同的语言计数单位去训练语言模型那么这个语言模型的训练到底是什么样的AI 是否可生成出只属于 AI 的数据来去自我学习这样的形式看起来是一个闭环的模型就像我们人类通过自己不断地去学习外部的世界、通过自我反思、通过解决问题来去训练我们自己的大脑。你怎么看这样一个合成生成过程以及 AI 的自我学习和自我培训呢
伊尔亚-苏茨克维我不会低估这个部分已经存在的数据甚至我认为这里面存在的数据要比我们意识到的数据更多。
黄仁勋是的这也是我们在不断展望的未来中去思考的事情相信总有一天AI 能够自己去生成内容、进行自我学习并且可以自我改善。你是否可以总结一下我们现在处于什么样的发展阶段以及在不远的将来我们的生成式 AI 能够达到什么样的情况对于大语言模型它的未来是什么
伊尔亚-苏茨克维对我来说预测未来是很困难的。我们能做的就是把这件事持续做下去我们将会让大家看到更多令人感到惊艳版本的系统。我们希望能够去提高数据的可靠度让系统真正能够获得人们的信任。如果让生成式的 AI 去总结某一些文本然后得出一个结论。目前 AI 在解读这个文本过程中还没有完全去验证文本的真实性以及文本所说的信息的来源这一点是很重要的。接下来我们对于未来的展望就是让神经网络必须要意识到所有数据来源的真实性让神经网络意识到用户每一步的需求。
黄仁勋这种技术希望能够展现给人们更多的可靠性。我还有最后一个问题你觉得第一次使用ChatGPT-4的时候有哪些性能让你觉得是很令人惊艳和震惊的
伊尔亚-苏茨克维对比之前的 ChatGPT 版本神经网络只会回答问题有的时候也会误解问题回答上很不理想。但是 GPT-4 基本没有再误解问题会以更快的方式去解决难题能够去处理复杂的艰难的任务这个对我来说特别有意义。举例子来看很多人意识到 ChatGPT 能够写诗比如说它可以写押头韵的诗也能够写押尾韵的诗。并且它能够去解释笑话能明白这个笑话背后到底是什么样的意义。其实简而言之就是它的可靠性更好了。我在这个行业从业差不多二十多年了让我认为 “惊艳” 的特点就是它本身存在的意义是可以给人类带来帮助的。它从最开始毫不起眼的工作领域慢慢成长变得越来越强。同样的一个神经网络通过两种不同的方式来训练能够变得越来越强大。我也经常会发出疑问和感叹这些神经网络是如何去成长如此之迅速的我们是不是需要更多的训练它是不是会像人脑一样不断成长这让我感觉到它的伟大或者说让人感到特别惊讶的方面。
黄仁勋回想过去我们也认识很长的时间了你将整个职业生涯都奉献给了这个事业祝贺你在 GPT 和 AI 方面有所建树。今天跟你交流让我更清楚地了解了 ChatGPT 工作的逻辑这是对于 ChatGPT 和 OpenAI 最为深入、最为艺术的一种解释。今天很高兴能够再次跟你交流谢谢 三、一些思考 ChatGPT 这波浪潮下微软和英伟达其实成为了最大的赢家。 最近的热点词ChatGPT、GPT-4、类 ChatGPT 产品
很多人没有意识到 GPT 其实是一场意识形态的战争。就像 Tiktok 对米果宣传机器的降维打击一样。参加听证会的 Tiktok CEO 周受资火了但他这幅东方面孔和他所服务的来自东方的这款社交 APP让某国会的议员们愈发五味杂陈似乎注定了 Tiktok 命运的多舛。
在过去的几年里这个世界涌现了不少新的技术像区块链、元宇宙、强化学习等但似乎都没有这次的 ChatGPT 如此普世近人学生、老板、科学家、老百姓谁都可以玩谁都玩的嗨。很多年以前那时候我们还是落后国家总感觉技不如人西方的东西就是好。如今在前人工智能时代在 Al 算法领域我们起码走在很多国家前列数学家成了香饽饽。与此同时算法只能解决算法的问题GPT 依赖的或者吃的是网络世界的各种信息知识由此引发了一个大大的问题就是英文语料自带科学 逻辑属性而来自中文世界的语料大部分都是二手货甚至是垃圾 (懂得都懂 emmm)。
人工智能时代算法和算力固然重要有效、优质的信息数据的获取和整合才是未来十年的新基建比如中文知识图谱的构建。而这需要的是一步一个脚印互相协作。这方面我们差的还很多 … 当下及未来的一段时间里大数据是一种新型战略资源。GPT-4 的强大很多人还没有来得及领略GPT-5、GPT-6 已然在路上。国产的文心一言还在追赶中 … 百度大佬说搞这个是因为企业有需 (钱) 求 (挣) …
2023 年 3 月 25 日在中国发展高层论坛 2023 年年会上黄奇帆表示当下特别要重视的是第四次工业革命的核心技术转化出来的最终产品。言外之意他对当下历史方位的判断是第四次工业革命。
最后一点个人看法真正的生产力不是 “类 GPT 产品” 帮老板们挣了多少钱省了多少人力物力而是能自主孕育出真正推动人类文明进步的土壤。 ️ 参考链接
关于 ChatGPT黄仁勋和 OpenAI 联合创始人进行了一场 “炉边谈话”不论谁赢了 ChatGPT 大战英伟达都是最后的赢家英伟达再现 AI「iPhone 时刻」CEO 称生成式 AI 正颠覆全球企业