Cerebras Systems公司周二为人工智能开发者推出了一款工具,允许他们使用这家初创公司的超大型芯片来运行应用程序,并称这是比行业标准的英伟达(Nvidia)处理器便宜得多的选择。
通常通过云计算提供商获得英伟达图形处理器(GPU),以训练和部署用于 OpenAI 的 ChatGPT 等应用的大型人工智能模型可能很难获得,运行成本也很高,开发人员将这一过程称为推理。他们正在提供 GPU 无法实现的性能,正在以最高的精度实现这一目标,并以最低的价格提供这一服务。
人工智能市场的推理部分预计将快速增长且极具吸引力--如果消费者和企业采用人工智能工具,其最终价值将达到数百亿美元。
这家总部位于加州桑尼维尔的公司计划通过开发者密钥和云计算提供几种类型的推理产品。该公司还将向那些愿意运营自己的数据中心的客户销售其人工智能系统。
Cerebras的芯片--每个都只有餐盘大小,被称为晶圆级引擎--避免了人工智能数据运算的一个问题:人工智能应用所需的大型模型运算的数据通常无法在单个芯片上运算,可能需要成百上千个芯片串联在一起。这意味着Cerebras的芯片可以实现更快的性能。它计划向用户收取每百万代币10美分的费用,代币是公司衡量大型模型输出数据量的方法之一。