微软宣布推出一套新工具,让人工智能应用程序开发不再让企业头疼。中心装饰品? Azure 人工智能铸造厂。
这项新产品旨在让开发人员在 OpenAI、Mistral、Meta Platforms 或任何其他支持的提供商的 AI 模型之间进行切换。它关乎灵活性、简单明了——这一直是企业的痛点,因为人工智能创新的步伐超出了企业的适应能力。
微软云计算主管斯科特·格思里 (Scott Guthrie) 表示,“每个新模型(即使它属于同一个系列)在某些任务上提供更好的答案或性能方面都有好处,但在其他方面可能会出现退化。”
目前,有 60,000 名客户使用 Azure AI。这可不是一个小数目。他们正在利用该平台的 1,700 个模型来为其应用程序提供支持。但事情是这样的:这个过程很笨拙。开发人员将时间浪费在新模型上,而不是创新。
每次更新或新版本都感觉像是从头开始,企业讨厌它。他们不想每次 OpenAI 或 Meta 发布一些闪亮的东西时就破坏他们的工作流程。
这就是 Azure AI Foundry 的用武之地。它是一个更加简化的系统,允许公司混合和匹配模型,而不会带来不必要的麻烦。有运行良好的旧版 OpenAI 模型吗?坚持下去。
想尝试 Meta 的更新内容吗?切换它,看看它是否更好,然后保留有效的。这都是关于选择的。 Foundry 的部分内容是 Azure AI Studio 的升级,但新功能包括用于部署 AI 代理的工具。
尽管提供了更多选择,微软表示它不会放弃与 OpenAI 的紧密关系。 Guthrie 很明确:OpenAI 的模型对微软来说仍然很重要。但有时,企业需要替代方案,微软知道这一点。 “选择很重要,”格思里说。
当然,人工智能需要运行的力量,微软比任何人都清楚这一点。去年,该公司推出了首款自主研发的人工智能芯片,现在他们又推出了两款新硬件。
首先,设计用于保护加密和签名密钥的安全微处理器。从明年开始,微软数据中心的每台新服务器都将配备该芯片。
然后是数据处理单元(DPU),它加速数据在网络、服务器和人工智能芯片之间的移动。它是 Nvidia 制造的类似硬件的直接竞争对手,但微软认为它的版本更高效。
这些 DPU 对于处理当今人工智能模型所需的大量工作负载至关重要,正如微软芯片主管 Rani Borkar 所说,这些模型“正在变得如此庞大”。她说,基础设施中的每个组件都需要无缝协作,以保持快速高效。
90 天内找到一份高薪 Web3 工作: 终极路线图