谷歌发布了其最新的人工智能(AI)超级计算机,该公司声称它比英伟达(Nvidia)提供的竞争系统更快、更高效。虽然英伟达主导着人工智能模型训练和部署市场,市场份额超过90%,但谷歌自2016年以来一直在设计和部署自己的人工智能芯片,称为Tensor Processing Units (tpu)。
谷歌一直是主要的人工智能先驱,其员工在过去十年中开发了该领域一些最重要的进展。然而,该公司一直在竞相发布产品,并证明自己在将发明商业化方面没有落后,正如CNBC此前报道的那样,这是一个“红色代码”的情况。
要训练谷歌的Bard或OpenAI的ChatGPT等AI模型,需要大量计算机和数百或数千个芯片协同工作。这些计算机可以连续运行数周甚至数月,这使得人工智能所需的大量计算机能力变得非常昂贵。
周二,谷歌宣布,它已经建立了一个由4000多个tpu和用于运行和训练人工智能模型的定制组件组成的系统。谷歌的研究人员称,其基于TPU的超级计算机TPU v4“比英伟达A100快1.2x - 1.7倍,耗电量少1.3x - 1.9倍”。
谷歌的研究人员表示,谷歌的TPU结果没有与英伟达最新的人工智能芯片H100进行比较,因为它是最新的,采用了更先进的制造技术。一项名为MLperf的全行业人工智能芯片测试的结果和排名于周三公布,英伟达首席执行官黄仁勋声称,英伟达最新芯片H100的测试结果明显快于上一代。
人工智能所需的大量计算机运算能力是昂贵的,许多业内人士都专注于开发新的芯片、光学连接等组件或软件技术,以减少所需的计算机运算能力。人工智能的功耗要求对谷歌、微软(Microsoft)和亚马逊(Amazon)等云服务提供商也是一个福音,它们可以按小时出租计算机处理,并向初创公司提供积分或计算时间,以建立关系。
总之,谷歌最新的人工智能超级计算机代表了该公司向前迈出的一大步,该公司正试图证明自己在人工智能发明的商业化方面并没有落后。然而,英伟达仍然主导着AI模型训练和部署市场,其最新芯片与上一代相比,性能有了显著提升。人工智能所需的大量计算机能力也推动了新芯片和软件技术的发展,以降低功耗需求,而云提供商则受益于对人工智能处理能力日益增长的需求。
