商业澳洲 澳洲法律 让谷歌害怕的不是chatGPT和OpenAI

让谷歌害怕的不是chatGPT和OpenAI

以下文本是最近被泄露的文件,由一位匿名个体在公共Discord服务器上分享,并授权进行再版。该文件来自谷歌公司内部的一名研究员。我们已验证其真实性,并进行了格式上的微小修改,并删除了内部网页的链接。该文件仅代表一位谷歌员工的个人观点,而非整个公司的观点。虽然我们不同意下面所写的内容,我们咨询了其他研究员的意见,但我们将在另一篇给订阅者的专栏文章中发表自己的意见。我们只是一个分享这份提出了一些非常有趣的观点的文件的载体。

原文阅读

我们没有护城河

我们在 OpenAI 做了很多仔细的研究。谁将跨越下一个里程碑?下一步将是什么?

但令人不安的事实是,我们没有能力赢得这场军备竞赛,OpenAI 也没有。在我们争吵不休的时候,第三派一直在悄悄地吃我们的午餐。

当然,我说的是开源。说白了,他们在舔我们。我们认为是“主要开放问题”的东西今天已经解决并掌握在人们手中。仅举几个:

  • LLMs on a Phone:人们在 Pixel 6 上以每秒 5 个代币的速度运行基础模型。

  • 可扩展的个人 AI:您可以在晚上在笔记本电脑上微调个性化 AI。

  • 负责任的发布:与其说是“解决”,不如说是“避免”。整个网站充满了艺术模型,没有任何限制,文字也不甘落后。

  • 多模态:当前的多模态 ScienceQA SOTA 在一个小时内完成训练。

虽然我们的模型在质量方面仍然略有优势,但差距正在以惊人的速度缩小。开源模型更快、更可定制、更私密且功能更强大。他们用 100 美元和 13B 的参数做事,而我们在 1000 万美元和 540B 的参数下苦苦挣扎。他们在几周内完成,而不是几个月。这对我们有深远的影响:

  • 我们没有秘方。我们最大的希望是学习 Google 以外其他人正在做的事情并与之合作。我们应该优先考虑启用 3P 集成。

  • 当免费的、不受限制的替代品在质量上具有可比性时,人们不会为受限制的模型付费。我们应该考虑我们真正的增值在哪里。

  • 巨型模型正在减慢我们的速度。从长远来看,最好的模型是那些

可以快速迭代。既然我们知道在 <20B 参数范围内有什么可能,我们应该做一些小的变体而不是事后才想到。

3 月初,随着 Meta 的 LLaMA 被泄露给公众,开源社区得到了他们第一个真正有能力的基础模型。它没有说明或对话调整,也没有 RLHF。尽管如此,社区立即理解了他们所获得的东西的重要性。

随之而来的是巨大的创新涌现,主要发展之间的间隔只有几天(完整细目请参见时间表)。仅仅一个月后,我们就在这里,并且有指令调整、量化、质量改进、人工评估、多模态、RLHF 等的变体,其中许多是相互构建的。

最重要的是,他们已经解决了任何人都可以修补的扩展问题。许多新想法都来自普通人。培训和实验的门槛已经从一个主要研究机构的总产出下降到一个人、一个晚上和一台功能强大的笔记本电脑。

在许多方面,这对任何人来说都不足为奇。开源 LLM 的当前复兴紧随图像生成的复兴之后。社区并没有失去相似之处,许多人称这是法学硕士的“稳定扩散时刻”。

在这两种情况下,低成本的公众参与都是通过一种成本低得多的微调机制实现的,称为低秩适应或 LoRA,并结合了规模上的重大突破(图像合成的潜在扩散,LLM 的 Chinchilla)。在这两种情况下,获得足够高质量的模型都引发了世界各地个人和机构的一系列想法和迭代。在这两种情况下,这都很快超过了大型企业。

这些贡献在图像生成领域至关重要,使 Stable Diffusion 走上了与 Dall-E 不同的道路。拥有一个开放的模型导致了 Dall-E 没有发生的产品集成、市场、用户界面和创新。

效果是显而易见的:与 OpenAI 解决方案相比,在文化影响方面迅速占据主导地位,后者变得越来越无关紧要。法学硕士是否会发生同样的事情还有待观察,但广泛的结构要素是相同的。

推动开源最近取得成功的创新直接解决了我们仍在努力解决的问题。更多地关注他们的工作可以帮助我们避免重新发明轮子。

LoRA 通过将模型更新表示为低秩分解来工作,这将更新矩阵的大小减少了多达数千倍。这允许以一小部分成本和时间进行模型微调。能够在几个小时内在消费类硬件上个性化语言模型是一件大事,特别是对于涉及近实时整合新的和多样化的知识的愿望。事实上,这项技术的存在在谷歌内部并未得到充分利用,尽管它直接影响了我们一些最雄心勃勃的项目。

LoRA 如此有效的部分原因在于——与其他形式的微调一样——它是可堆叠的。可以应用指令调整等改进,然后在其他贡献者添加对话、推理或工具使用时加以利用。虽然单独的微调是低秩的,但它们的总和不需要,允许模型的全秩更新随着时间的推移而累积。

这意味着随着新的更好的数据集和任务的出现,模型可以以低廉的成本保持最新,而无需支付全面运行的成本。

相比之下,从头开始训练巨型模型不仅会丢弃预训练,还会丢弃在顶部进行的任何迭代改进。在开源世界中,这些改进很快就会占据主导地位,这使得全面重新培训的成本极其高昂。

我们应该考虑每个新应用程序或想法是否真的需要一个全新的模型。如果我们真的有重大的架构改进来阻止直接重用模型权重,那么我们应该投资于更积极的蒸馏形式,让我们尽可能多地保留上一代的功能。

对于最流行的模型尺寸,LoRA 更新的生产成本非常低(约 100 美元)。这意味着几乎任何有想法的人都可以产生一个想法并进行传播。一天之内的培训时间是常态。以这样的速度,所有这些微调的累积效应很快就会克服尺寸劣势。事实上,就工程师工时而言,这些模型的改进速度大大超过了我们使用最大变体所能做的,而且最好的已经与 ChatGPT 基本没有区别。专注于维护地球上一些最大的模型实际上使我们处于劣势。

其中许多项目都通过在小型、高度精选的数据集上进行训练来节省时间。这表明数据缩放法则具有一定的灵活性。此类数据集的存在遵循了 Data Doesn't Do What You Think 中的思路,并且它们正迅速成为在 Google 之外进行培训的标准方式。这些数据集是使用合成方法(例如从现有模型中过滤最佳响应)和从其他项目中提取的,这两种方法在谷歌都不占主导地位。幸运的是,这些高质量的数据集是开源的,因此可以免费使用。

最近的进展对我们的业务战略有直接、直接的影响。如果没有免费、高质量的替代品,谁会为有使用限制的 Google 产品付费?

我们不应该期望能够赶上。现代互联网在开源上运行是有原因的。开源有一些我们无法复制的显着优势。

保守我们的技术秘密始终是一个脆弱的提议。谷歌研究人员正定期前往其他公司,因此我们可以假设他们知道我们所知道的一切,并且只要这条管道是开放的,他们就会继续这样做。

但是,由于法学硕士的尖端研究是负担得起的,因此保持技术竞争优势变得更加困难。世界各地的研究机构都在相互借鉴,以广度优先的方式探索解决方案空间,这远远超出了我们自身的能力。我们可以在外部创新冲淡其价值时努力保守秘密,或者我们可以尝试相互学习。

这种创新的大部分发生在 Meta 泄露的模型权重之上。虽然随着真正开放的模型变得更好,这将不可避免地发生变化,但关键是他们不必等待。“个人使用”提供的法律保护和起诉个人的不切实际意味着个人可以在这些技术炙手可热的时候使用它们。

浏览人们在图像生成空间中创建的模型,从动漫生成器到 HDR 风景,创意源源不断。这些模型由深深沉浸在其特定子流派中的人们使用和创建,赋予我们无法企及的知识深度和同理心。

矛盾的是,所有这一切的一个明显赢家是 Meta。因为泄露的模型是他们的,所以他们有效地获得了整个星球的免费劳动力。由于大多数开源创新都发生在他们的架构之上,因此没有什么能阻止他们将其直接整合到他们的产品中。

拥有生态系统的价值怎么强调都不为过。谷歌本身已在其开源产品(如 Chrome 和 Android)中成功使用了这种范例。通过拥有发生创新的平台,谷歌巩固了自己作为思想领袖和方向制定者的地位,获得了塑造比自身更宏大的想法的能力。

我们对模型的控制越严密,我们做出开放替代方案的吸引力就越大。谷歌和 OpenAI 都倾向于防御性地倾向于发布模式,使他们能够严格控制其模型的使用方式。但这种控制是虚构的。任何想将 LLM 用于未经批准的目的的人都可以简单地选择免费提供的模型。

谷歌应该让自己成为开源社区的领导者,通过与更广泛的对话合作而不是忽视来带头。这可能意味着采取一些不舒服的步骤,比如发布小型 ULM 变体的模型权重。这必然意味着放弃对我们模型的一些控制。但这种妥协是不可避免的。我们不能希望既推动创新又控制创新。

考虑到 OpenAI 当前的封闭政策,所有这些关于开源的讨论都会让人觉得不公平。如果他们不愿意,我们为什么要分享?但事实是,我们已经以源源不断的挖角高级研究人员的形式与他们分享一切。在我们阻止这种趋势之前,保密是一个有争议的问题。

最后,OpenAI 并不重要。他们在相对于开源的态度上犯了与我们相同的错误,他们保持优势的能力必然受到质疑。除非他们改变立场,否则开源替代品可以并且最终会使它们黯然失色。至少在这方面,我们可以迈出第一步。

Meta 推出 LLaMA,开源代码,但不开源权重。在这一点上,LLaMA 没有调整指令或对话。与当前的许多模型一样,它是一个相对较小的模型(可在 7B、13B、33B 和 65B 参数下使用),并且已经训练了相对较长的时间,因此相对于其大小来说能力相当强。

一周之内,LLaMA 就被泄露给了公众。对社区的影响不容小觑。现有许可证禁止将其用于商业目的,但突然之间任何人都可以进行试验。从这一点开始,创新来势汹汹。

一个多星期后,Artem Andreenko 让模型在 Raspberry Pi 上运行。此时模型运行速度太慢而不实用,因为权重必须分页进出内存。尽管如此,这为小型化的冲击奠定了基础。

第二天,斯坦福发布了 Alpaca,它为 LLaMA 添加了指令调优。然而,比实际重量更重要的是 Eric Wang 的 alpaca-lora 存储库,它使用低阶微调“在单个 RTX 4090 上数小时内”完成了此训练。

突然之间,任何人都可以微调模型来做任何事情,从而在低预算的微调项目中拉开了一场逐底竞争的序幕。论文自豪地描述了他们总共花费了几百美元。更重要的是,低等级更新可以轻松地与原始权重分开分发,从而使它们独立于 Meta 的原始许可。任何人都可以分享和应用它们。

Georgi Gerganov 使用 4 位量化在 MacBook CPU 上运行 LLaMA。它是第一个速度足够实用的“无 GPU”解决方案。

第二天,跨大学合作发布了 Vicuna,并使用 GPT-4 驱动的 eval 来提供模型输出的定性比较。虽然评估方法值得怀疑,但该模型实际上比早期变体更好。培训费用:300 美元。

值得注意的是,他们能够使用来自 ChatGPT 的数据,同时规避对其 API 的限制——他们只是对发布在 ShareGPT 等网站上的“令人印象深刻的”ChatGPT 对话示例进行了采样。

Nomic 创建了 GPT4All,它既是一个模型,更重要的是一个生态系统。我们第一次看到模型(包括 Vicuna)聚集在一个地方。培训费用:100 美元。

Cerebras(不要与我们自己的 Cerebra 混淆)使用 Chinchilla 隐含的最佳计算计划和 μ 参数化隐含的最佳缩放来训练 GPT-3 架构。这大大优于现有的 GPT-3 克隆,并且代表了“在野外”首次确认使用 μ 参数化。这些模型是从头开始训练的,这意味着社区不再依赖 LLaMA。

LLaMA-Adapter 使用一种新颖的参数高效微调 (PEFT) 技术,在一小时的训练中引入了指令调优和多模态。令人印象深刻的是,他们仅使用 120 万个可学习参数就可以做到这一点。该模型在多模态 ScienceQA 上实现了新的 SOTA。

伯克利推出了 Koala,这是一种完全使用免费数据训练的对话模型。

他们采取了关键步骤来衡量他们的模型和 ChatGPT 之间的真实人类偏好。虽然 ChatGPT 仍然略有优势,但超过 50% 的用户要么更喜欢 Koala,要么没有偏好。培训费用:100 美元。

Open Assistant 启动了一个模型,更重要的是,启动了一个用于通过 RLHF 对齐的数据集。他们的模型在人类偏好方面与 ChatGPT 接近(48.3% 对 51.7%)。除了 LLaMA,他们还展示了这个数据集可以应用于 Pythia-12B,让人们可以选择使用完全开放的堆栈来运行模型。此外,由于数据集是公开可用的,因此对于小型实验者而言,RLHF 从无法实现变为廉价且容易。

AI好书推荐
AI日新月异,但是万丈高楼拔地起,离不开良好的基础。您是否有兴趣了解人工智能的原理和实践? 不要再观望! 我们关于 AI 原则和实践的书是任何想要深入了解 AI 世界的人的完美资源。 由该领域的领先专家撰写,这本综合指南涵盖了从机器学习的基础知识到构建智能系统的高级技术的所有内容。 无论您是初学者还是经验丰富的 AI 从业者,本书都能满足您的需求。 那为什么还要等呢?

原文链接:https://blog.csdn.net/robot_learner/article/details/130550947?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170018760416800182758208%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170018760416800182758208&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-23-130550947-null-null.nonecase&utm_term=AI%E6%B3%95%E5%BE%8B%E5%92%A8%E8%AF%A2

作者: 知澳头条

知澳资深作者

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

1300766331

邮箱: info@getau.com.au

澳洲本地网站设计开发团队 超20人团队,悉尼设计开发14年 联系电话:1300766331 微信: XtechnologyAU
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部