虽然这些大型科技公司和其他公司正在投资数十亿美元专注于开发大型法学硕士来处理许多不同的任务,但人工智能的现实是,没有一种方法适合所有的情况,因为企业需要特定于任务的模型。 AWS 首席执行官马特·加曼 (Matt Garman) 在一份有关扩大合作伙伴关系和投资的新闻稿中表示,正在开发由 Anthropic 驱动的生成式 AI 的 AWS 客户已经做出了压倒性的反应。 对于大多数公司来说,法学硕士仍然是某些项目的第一选择,但对于其他公司来说,这种选择在成本、能源和计算资源方面可能会很昂贵。 Teradatadent兼首席执行官史蒂文·麦克米伦 (Steven McMillan) 为一些企业提供了替代路径,但他也有不同的看法。他对 SLM 充满信心。 “展望未来,我们认为中小型语言模型和受控环境(例如特定领域的法学硕士)将提供更好的解决方案。” 〜麦克米伦 SLM 针对特定类型的数据生成定制输出,因为语言模型经过专门训练来实现这一点。由于 SLM 生成的数据保存在内部,因此语言模型会根据潜在的敏感数据进行训练。 由于法学硕士非常消耗能源,因此小语言版本经过培训,可以根据项目的实际需求调整计算和能源使用。通过这样的调整,这意味着 SLM 比当前的大型模型更加高效且成本更低。 对于想要使用人工智能获取特定知识的用户来说,可以选择特定领域的法学硕士,因为它们不提供广泛的知识。经过训练,它只能深入了解一类信息并更准确地做出响应,例如该领域的 CMO 与 CFO。 据数据科学家协会 (ADaSci) 称,为 100 万用户完全开发具有 70 亿个参数的 SLM 仅需要 55.1MWh(兆瓦时)。 ADaSci 发现,使用 1750 亿个参数训练GPT-3估计消耗了 1,287MWh 的电力,并且该电力不包括正式投入使用时的电力。因此,SLM 消耗的能量大约是 LLM 训练消耗能量的 5%。 大型模型通常在云计算机上运行,因为它们使用的计算能力比单个设备上可用的计算能力更多。这会给公司带来麻烦,因为他们在信息转移到云端时失去了对信息的控制,并且在通过互联网传输时反应缓慢。 展望未来,企业对人工智能的采用不会一刀切,因为效率和选择最好、最便宜的工具来完成任务将成为焦点,这意味着为每个项目选择合适规模的模型。 这将为所有模型完成,无论是通用的法学硕士,还是较小的特定领域的法学硕士,具体取决于哪个模型将提供更好的结果,需要更少的资源,并减少数据迁移到云的需求。 在下一阶段,人工智能对于商业决策至关重要,因为公众对人工智能生成的答案充满信心。 “当你考虑训练人工智能模型时,它们必须建立在大数据的基础上。” 〜麦克米伦 “这就是我们的全部目的,提供可信的数据集,然后提供功能和分析功能,以便客户及其客户可以信任输出,”麦克米兰补充道。 随着世界对效率和准确性的要求很高,规模较小且特定领域的法学硕士提供了另一种选择,以提供公司和更广泛的公众可以信赖的结果。 90 天内开启您的 Web3 职业生涯并获得高薪加密工作的分步系统。为什么 SLM 是首选