OpenAI 发布 ChatGPT 聊天机器人时,这一举动就像向平静的湖面投入一块大石头,瞬间激起一大片涟漪。
人工智能仍然是华尔街和硅谷的热门话题,对于为 ChatGPT 等系统提供支持的生成式 AI 技术尤其如此。
投资者很快发现英伟达提供的人工智能加速硬件使这一切成为可能,并取得了惊人的成果。受人工智能专用处理器的实际销量以及在这个炙手可热的细分市场继续占据主导地位的预期的提振,英伟达的股价在 2023 年上涨了两倍多。
而最新进入擂台并挑战 Nvidia 人工智能主导地位的挑战者是三星电子。这家韩国科技巨头已与来自同一国家的在线娱乐巨头Naver合作开发硬件和软件,用于撼动英伟达的地位。
简单来说,三星和 Naver 声称即将推出的 AI 芯片的能效将是 Nvidia H100 加速器的八倍,它会比英伟达的芯片更节能。
在高性能人工智能计算领域,效率是关键。
但是纯粹的性能并不重要,因为可以通过投入和堆叠更多的硬件来解决计算问题。
其中用于训练 ChatGPT超级计算机就配备了数千个 Nvidia A100加速器,每个加速器有近 7,000 个处理芯片,其计算效率极其高效。
但是真正的挑战它的是需要巨大电力能源来运行这些野兽,用于冷却由此产生的巨大热量。OpenAI/Nvidia 系统在全功率下会消耗 7.4 兆瓦的功率,使用的能源可用于一艘巨大游轮穿越大平洋。
因此,人工智能巨头急需要寻找一种能够更节能的高效解决方案。
三星和 Naver 声称 AI 芯片的能效是 Nvidia H100 的八倍,这意味着一种转变。
在一个越来越关注绿色能源的世界中,更高效的芯片不仅意味着更低的电费,还意味着更低的成本。还意味着更小的碳排放,这使得部署更强大的人工智能系统而无需高昂的能源成本。
英伟达长期以来一直是人工智能加速器硬件的首选提供商,这一事实反映在其不断飙升的股价和市场地位上。
然而,随着三星和 Naver 承诺推出突破性的节能人工智能芯片,英伟达面临新的竞争。这不再只是谁拥有市场上最快的芯片的问题;而是在于谁能够以最有高效的方式提供相同的运算能力。
这种发展不仅仅是两匹马的竞赛。同一时间AMD 和英特尔等公司也加入了这一竞争行列,并且都拥有自己的人工智能芯片解决方案。
AMD Instinct MI300 系列比上一代产品具有更多的内存和更低的功耗要求。英特尔的 Gaudi3 解决方案专注于更快的原始性能和将处理器连接在一起的下一代网络。每个人都有一个独特的总体规划。
但这些方案从未声称能够彻底提高加速器的能效。三星和 Naver 对低功耗要求的关注可能会设定一个新标准,迫使其他公司效仿,但仍然给这家韩国公司带来了巨大的先发优势。