【资料图】
据英伟达在 2023 年台北电脑展会上的演讲,该公司宣称其 GPU 可以大幅降低训练大型语言模型(LLM)的成本和耗能 ... 相比之下,如果保持成本不变,购买一个价值 1000 万美元的 GPU 集群,可以在同样的成本和更少的电力消耗(3.2 千兆瓦时)下训练 44 个 LLM ... 如果转而保持电力消耗不变,那么可以通过 GPU 集群实现 150 倍的加速,以 11 千兆瓦时的电力消耗训练 150 个 LLM,但这需要花费 3400 万美元,此外这个集群的占地面积比 CPU 集群小得多。
关键词:
明星 23-05-29
资讯 23-05-29
教育 23-05-29
存储 23-05-29
明星 23-05-29
安全 23-05-29
综艺 23-05-29
明星 23-05-29
安全 23-05-29
资讯 23-05-29
综艺 23-05-29
教育 23-05-29
存储 23-05-29
明星 23-05-29
安全 23-05-29
综艺 23-05-29
资讯 23-05-29
教育 23-05-29
存储 23-05-29
安全 23-05-29