当前位置:首页 > 文学 > 正文

英伟达的竞争对手专注于制造一种不同的芯片来驱动人工智能产品

  • 文学
  • 2024-12-14 18:53:03
  • 4

圣克拉拉,加州(美联社)——构建当前的人工智能聊天机器人依赖于英伟达(Nvidia)开创的专用计算机芯片,该公司垄断了市场,使自己成为世界上最大的人工智能聊天机器人。

但是,这些图形处理器芯片(gpu)在从零开始创建强大的人工智能系统时如此有效,但它们在让人工智能产品投入使用时效率却较低。

这为人工智能芯片行业打开了大门,竞争对手认为自己可以在销售所谓的人工智能推理芯片方面与英伟达竞争,这种芯片更适合人工智能工具的日常运行,旨在降低生成式人工智能的一些巨大计算成本。

“这些公司看到了这种专业硬件的机会,”乔治城大学安全与新兴技术中心的分析师雅各布·费尔德高斯(Jacob Feldgoise)说。“这些模型的采用范围越广,推理所需的计算就越多,对推理芯片的需求也就越大。”

什么是人工智能推理?

制造一个人工智能聊天机器人需要大量的计算能力。它从一个被称为训练或预训练的过程开始- ChatGPT中的“P”-涉及人工智能系统从大量数据的模式中“学习”。gpu擅长做这些工作,因为它们可以在相互通信的设备网络上一次运行许多计算。

然而,一旦经过训练,生成式人工智能工具仍然需要芯片来完成工作——比如当你要求聊天机器人撰写文档或生成图像时。这就是推理的由来。一个训练有素的人工智能模型必须接受新的信息,并从它已经知道的信息中进行推断,以产生响应。

gpu也可以完成这项工作。但这可能有点像用大锤敲开坚果。

“在训练中,你要做更重、更多的工作。有了推理,这是一个更轻的重量,”弗雷斯特公司分析师阿尔文·阮说。

这使得像Cerebras、Groq和d-Matrix这样的初创公司,以及英伟达的传统芯片制造竞争对手——如AMD和英特尔——纷纷推出更有利于推理的芯片,因为英伟达专注于满足大型科技公司对其高端硬件的巨大需求。

在人工智能推理芯片实验室里

D-Matrix成立于2019年,本周将推出第一款产品,该公司首席执行官Sid Sheth最近在公司位于加州圣克拉拉的总部接受采访时解释说,这对人工智能芯片游戏来说有点晚了。这家硅谷城市也是AMD、英特尔和英伟达的所在地。

“已经有100多家公司了。所以当我们去那里的时候,我们得到的第一反应是‘你们来晚了’。”六个月后大流行的到来并没有帮助科技行业转向专注于为远程工作服务的软件。

然而,现在,Sheth看到了人工智能推理的巨大市场,并将机器学习的后期阶段与人类如何应用他们在学校学到的知识进行了比较。

“我们在生命的前20年里都在上学,自我教育。这就是训练,对吧?他说。“然后在接下来的40年里,你走出去应用这些知识,然后你就会因为效率高而得到回报。”

这款名为Corsair的产品由两个芯片组成,每个芯片有四个小芯片,由台湾半导体制造公司(Nvidia的大部分芯片都是由这家公司生产的)制造,并以一种有助于散热的方式封装在一起。

这些芯片在圣克拉拉设计,在台湾组装,然后在加州进行测试。测试是一个漫长的过程,可能需要6个月的时间——如果有任何问题,可以寄回台湾。

D-Matrix的工作人员正在对芯片进行最后的测试,他们最近去了一个实验室,那里有蓝色的金属桌子,上面放着电缆、主板和电脑,隔壁是一个冷服务器室。

谁想要人工智能推理芯片?

虽然亚马逊(Amazon)、b谷歌、Meta和微软(Microsoft)等科技巨头一直在竞相在人工智能开发方面超越彼此,大量供应昂贵的gpu,但人工智能推理芯片制造商的目标是更广泛的客户。

Forrester的Nguyen表示,这可能包括那些希望利用新的生成式人工智能技术,而无需建立自己的人工智能基础设施的财富500强公司。谢思表示,他预计人们会对人工智能视频制作产生浓厚兴趣。

Nguyen表示:“许多企业公司对人工智能的梦想是可以使用自己的企业数据。“购买(人工智能推理芯片)应该比从英伟达和其他公司购买终极gpu更便宜。但我认为,在整合方面,将会有一个学习曲线。”

Feldgoise说,与专注于训练的芯片不同,人工智能推理工作优先考虑一个人得到聊天机器人反应的速度。

他说,另一批公司正在开发用于推理的人工智能硬件,这些硬件不仅可以在大数据中心运行,还可以在台式电脑、笔记本电脑和手机上运行。

为什么这很重要?

设计更好的芯片可以降低企业运行人工智能的巨大成本。这也可能影响到其他所有人的环境和能源成本。

谢思说,目前最大的担忧是,“我们是否会在追求人们所谓的AGI(类人智能)的过程中烧毁地球?”

人工智能何时能达到人工通用智能的程度仍然是模糊的——预测范围从几年到几十年不等。但谢思指出,只有少数几家科技巨头在追求这一目标。

“那其他的呢?”他说。“不能让他们走上同样的道路。”

另一组公司不想使用非常大的人工智能模型,因为它太昂贵,而且消耗太多的能源。

“我不知道人们是否真的意识到,推理实际上比训练有更大的机会。我认为他们并不欣赏这一点。培训仍然占据了所有的头条新闻,”Sheth说。

有话要说...