全部语种
分享
亚马逊 CEO 批评微软过度依赖 OpenAI?
图片来源:由无界 AI 生成
众所皆知,微软已在其消费者和企业产品中部署了 OpenAI 的模型,例如 Bing、GitHub Copilot 和 Office Copilots。微软还通过其 Azure 机器学习平台为客户提供使用其他模型的选择,例如 Hugging Face 提供的开源模型。
然而,像 OpenAI 这样的闭源模型往往是许多企业公司进入市场的最简单、最快的方式,因为它们通常会提供更多的支持和服务。
12 月 5 日,微软公布了 Copilot 的下一步升级计划,其将使用 OpenAI 最新的 GPT-4 Turbo 模型生成响应,以使用户能够处理更复杂和更长的任务。
随着微软与 OpenAI 的关系愈发紧密,行业内也传出了一些批评的声音。亚马逊 AWS 首席执行官 Adam Selipsky 上周曾对微软提出了含蓄的批评,他表示许多公司(客户)“不希望云提供商主要依赖于一种模式提供商”。
作为微软的竞争对手之一,亚马逊同样在人工智能领域做出了重大贡献,其与 OpenAI 的最大竞争对手 Anthropic 建立了新的合作伙伴关系,并提供了 Stability AI、Cohere 和 AI21 等产品。
那么,问题来了,微软真的像亚马逊 CEO 批评的那样,将鸡蛋都放在同一个篮子里吗?
对此,微软全球副总裁,人工智能平台负责人埃里克・博伊德(Eric Boyd)周三在接受采访时表示,该公司的人工智能服务很快将提供除 OpenAI 之外的更多大语言模型(LLMs),并坦言“客户希望有选择”。
当博伊德被问到“微软是否会在 OpenAI 之外提供更多模型,甚至可能通过与 Anthropic 的合作”时,他回答道:“我的意思是,总会有新事物出现。我会一直关注这个领域。”
不过,他表示,该公司尚未准备好分享更多细节。
博伊德在 VentureBeat 的独家视频采访中发表了上述言论,其谈话的主要焦点是公司是否准备好采用人工智能。在采访中,博伊德明确表示微软计划在选择方面保持竞争力。
以下为博伊德的采访内容,为了简洁和清晰,对话已被编辑。
提问:微软的很多模型都依赖于 OpenAI。它在过去几周里遭遇了重大危机,其领导团队也因安全问题而出现了分歧。这对计划通过微软使用 OpenAI 解决方案的企业有何影响?
Eric Boyd:OpenAI 多年来一直是我们的重要合作伙伴,我们与他们的合作非常密切。我们非常有信心,微软拥有继续运营和与 OpenAI 良好合作所需的一切。同时,我们为客户提供广泛的模型,他们可以选择来自 OpenAI 的最佳前沿模型,以及最好的开源模型,例如 Llama 2 等可用模型和其他公司可以使用的模型。因此,我们希望确保微软正在帮助企业将所有这些工具整合在一起。当其他企业与我们合作时,我们也希望确保他们拥有正确的工具集来尽快、尽可能成熟地构建应用程序。
提问:还有其他关键因素决定企业是否准备好采用新一代人工智能解决方案吗?
Eric Boyd:正如我们所看到的,最成功的公司是那些有明确愿景的公司,这是一个即将得到解决的问题。这些模型非常擅长创造内容。因此,如果企业想创建内容,那么它会是一个很棒的应用程序。它们非常擅长评论总结、生成代码、语义搜索以及数据推理。只要公司在这四个非常广泛的应用领域构建应用程序,那么我们就能看到很多公司的成功,因为这就是模型真正擅长的领域。
我们偶尔会与那些对人工智能如何为他们解决一些“稀奇古怪”的问题而抱有宏伟想法的公司进行交谈。必须让他们清楚的是,这些模型是一种令人惊讶的工具,可以做很多令人难以置信的事情,但是它并不是万能的。因此,确保真正以最有效的方式使用这些工具,公司就可以从中得到了很好的结果。
提问:你们的竞争对手正在争先恐后地加入这个领域,如亚马逊、谷歌等。微软的 GenAI 解决方案提供了哪些独特的价值主张,使其有别于那些竞争对手?
Eric Boyd:可以说微软是人工智能行业的第一家公司,并且从事这个行业已经有一段时间了。在此期间,GPT-4 已经投放市场超过了一年,我们也一直在其基础上构建 copilots 和其他应用程序,这些应用程序已在今年投入市场。在这个过程中,我们从中吸收了人们在这些产品中构建的所有知识,并将其放入 Azure AI Studio 和其他产品中,使客户可以轻松构建自己的应用程序。
最重要的是,微软从一开始就非常仔细地思考如何以负责任的方式构建这些应用程序?我们为客户提供他们所需的工具箱,使他们以正确负责的方式构建自己的应用程序。因此,正如我所提到的,我们拥有超过 18,000 名客户,其中许多客户通过使用这些模型看到了真正有价值的应用,并对他们的产品和服务产生了实际的影响。
提问:很多公司试图利用 OpenAI 的不稳定性,比如 Salesforce 为任何想要跳槽的 OpenAI 开发人员提供工作机会。此外,还有亚马逊因微软依赖 OpenAI 而隐晦地批评微软。那么,微软现在如何看待它的合作伙伴关系,特别是与 OpenAI,以及微软会如何构建这些合作伙伴关系,以加强向公司、你的客户以及成千上万的客户保证这些模型和其他产品将是安全且受到良好管理的需求?
Eric Boyd:正如我提到的,我们与 OpenAI 有着非常密切的合作。我们在模型构建和开发的各个阶段都进行了合作。所以我们从一开始就考虑了安全问题,并考虑如何建立和部署这些模型。然后,我们将这些模型完全托管在 Azure 上。正因如此,当一家公司与 Azure 合作时,他们就知道自己得到了 Azure 带来的所有承诺。
另外,微软在处理客户最私密的数据、电子邮件和文档方面拥有丰富的历史。我们知道如何根据业内一些最严格的隐私法规进行管理,我们将所有这些知识应用于如何使用人工智能,并以完全相同的方式处理它。
基于这个基础,我们与 OpenAI 进行了深度合作,并与许多其他公司合作,包括 Meta(合作开发 Llama 模型)、NVIDIA、Hugging Face 等。
提问:你提到了 Llama 和 Hugging Face。许多实验都是在开源上进行的,但我想你也听说过,闭源有时可能是最快进入市场的。上周 Adam Selipsky 含蓄地提到微软的封闭模型高度依赖 OpenAI。考虑到 OpenAI 正在发生的一切,如此依赖 OpenAI 是一个漏洞吗?
Eric Boyd:我完全不这么认为。我认为我们拥有非常牢固的合作伙伴关系,共同生产了世界领先的模型,我们在市场上投入时间最长,拥有最多的客户,并且正在真正推动这一领域的发展。当然,我们也与其他公司建立了广泛的合作伙伴关系。因此,我们在这方面并不是一心一意的。我们知道客户想要有选择,并希望确保为他们提供选择。
提问:那么你是否认为在接下来的几周、几个月内,你们可能会在 OpenAI 之外发布更多模型,或者与 Anthropic 或其他公司建立关系?
Eric Boyd:我的意思是,总会有事情发生。适应于这个领域的发展。当然,我们还准备了一些东西,这是肯定的。
提问:许多公司认为采用 GenAI(生成式人工智能)存在风险,包括这项技术会以不可预测的方式产生幻觉。许多公司做了很多事情来减少这种幻觉的产生。你们是如何解决这个问题的?
Eric Boyd:是的,这是一个非常有趣的地方。我们有几种种看待这个问题的方法。一是我们希望让模型尽可能发挥作用。所以,微软在如何微调和实际引导模型以提供用户喜欢看到的响应类型方面,创新了许多新技术。二是通过实际提示模型,并为其提供特定数据集的方式。对此,我们提供了许多新技术,并能看到模型结果的准确性显着提高。在这方面,我们将继续进行迭代。
最后一个维度实际上是思考人们如何使用模型,我们用了“副驾驶”这个比喻。比如我正在编写代码,模型正在帮助我编写代码,但我仍然是它的作者。我将其添加到我的 Word 文档中:“帮助我将这些要点扩展为我想要的更丰富的对话和文档。”这依然是我的声音,它仍然是我的文档,这就是这个比喻真正起作用的地方。“就像我们都习惯与他人交谈,偶尔有人会说错话,你纠正它,然后继续,这并不罕见。”所以这个比喻非常适合这些模型。因此,越多的人了解使用它们的最佳方法,他们的生活就会越好,就会获得更好的结果。
提问:Eric,你谈到了一些关于人类强化学习的内容,微调过程可以使其中一些模型更安全。有一个领域被讨论过,但没有得到很多关注,那就是可解释性。对此有一些研究,也有一些工作正在进行中。研究这个领域是有希望的吗,还是说在这些模型如此复杂的情况下,这是不可能实现的?
Eric Boyd:我认为这绝对是一个研究领域。我们看到许多研究继续推进这一领域,尝试反事实,尝试不同的训练步骤等等。我们正处于早期阶段,因此我们看到很多内容在继续增长和发展。我们在产品中引入了一些负责任的人工智能工具,并开源了这些工具,这让我深受鼓舞。像 Fairlearn 和 InterpretML 等将帮助你理解一些更简单的模型。真正的问题是我们如何继续将其扩展到更大的模型集?我认为我们将继续看到该领域的创新,但是很难预测这个领域将走向何方。
提问:Eric,作为人工智能领域的杰出人物之一的 Yan LeCun(Meta 首席人工智能科学家),已经谈论了一段时间有关模型开源的重要性。但 OpenAI 主要是闭源的,你能谈谈封闭模型的想法是否会成为问题吗?
Eric Boyd:事实上,在开源和闭源这两个方面,我们都投入了大量资金。因此,我们与 OpenAI 密切合作,生产领先的前沿模型,这是希望确保客户可以使用这些来构建最好的应用程序。此外,我们还开发了许多自己的模型,比如一个由五个模型组成的系列,它们都是开源模型。我们还开源了一系列关于如何围绕 ONNX 和 ONNX 运行时优化模型的技术。所以,我觉得两者都将成为非常有价值的领域,可以帮助新的大语言模型继续发展和成长。
提问:微软在治理方面做了一些最好的工作。5 月,你发布了 45 页的白皮书,尽管任何白皮书都会随着现在事情的发展节奏而过时。但我发现有趣的是,你在那篇论文中的主要原则之一是透明度。你对许多功能都有透明度注释。我在 Azure OpenAI 上看到一篇文章,其中充满了警告:不要在需要最新准确信息的场景或存在高风险场景等情况下使用 OpenAI。这些警告会随着你正在做的工作而很快消除吗?
Eric Boyd:再次强调,这是关于思考使用模型的最佳方法是什么以及它们擅长什么?因此,当客户更多地了解使用这个新工具的期望时,我认为他们会变得更加舒适和熟悉。多年来我们一直在思考什么是负责任的人工智能,并基于此发布了人工智能原则。你引用的人工智能标准,展示的是我们内部遵循的流程,以确保我们以负责任的方式构建产品。
提问:你见过很多人,包括 Sam Altman 最近都在谈论这些模型需要更多的推理。你认为通过微软的努力或与 OpenAI 的结合,这种情况很快就会发生吗?
Eric Boyd:我认为推理是一种非常有趣的能力。我们希望为模型带来更多开放式问题,并让它们为我们提供逐步的解决方案。说实话,它们现在已经很擅长了。但是,怎样才能让它们做得更好,让我们开始在更多方面依赖他们?这是我们正在思考的问题。我们正在研究很多方向:如何带来不同的模式?如何将更多功能融入到模型中?所有这些都是研究方向,所以我预计会看到很多有趣的事情发生。但是我不愿意做出预测。在过去的一年里,这个领域发展得如此之快,很难猜测接下来我们会看到什么。
原文链接:
https://venturebeat.com/ai/microsoft-exec-hints-at-new-llms-beyond-openais/