“算力是AI世界发展的基础,而算力的瓶颈归根到底还是电力....”
“根据chatGpt原国外团队,提供的数据来说,他们的AI大模型训练,电力需求将以每年约10%的速度增长,能耗将为常规云工作的三倍。”
“而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。而我们的1%,在这一方面,即便服务器使用的相对来说比运算量的chatGpt要少30%,这一年来的运转下来,我们的用电量依旧是相当惊人的。”
“是的,AI服务器的功率较普通服务器高6-8倍,这对于电源的需求也将同步提升,通用型服务器原来只需要2颗800w服务器电源,而AI服务器的需求直接提升为4颗1800w高功率电源,服务器能耗成本直接3100元直接飙升到元,大涨3倍。”
“你还没有算应对为运行日益能源密集型工作负载的计算机服务器组群供电和散热而产生的额外成本。”
“以目前的形式来看,大厦的回收电量勉强能够支撑部分支出,但是到了冬日....”
“据全球最大商业房地产服务公司统计,数据中心客户囊括了小型企业到大型云服务供应商,目前消耗电力的速度快于数据中心运营商扩展容量的速度。由于人工智能用例的增加,供应限制日益严重,导致数据中心收取的价格更是离谱,显然这个方案是不可行的。”
.......
在ly大厦的一间会议室中,大家为1%“吃电”的大模型服务器,而感到头疼。
何依霖看着会计送过来的账单,竖起了眉头。“技术开发那块现在怎么说了?”
“可使用高度优化、甚至是更简单、更专业的小型神经网络模型来降低数据中心成本,方法是减少云端的模型规模,将海量参数网络用于快速训练较小的模型,并将工作负载完全移出云端,从而将生成式AI应用程序更加经济高效地分发给智能手机、pc、车辆和移动xR产品等分布式平台上运行。”技术部总监说道。
何依霖在桌子上敲动着手指,对这一块拿不定主意,他技术方面得仰仗李奥才行啊。
“随着消费者使用量的增加,成本将不可避免地攀升。将计算转移到边缘,并将其分配给pc、智能手机和xR设备等客户端是降低资本和运营成本的关键途径。”技术部总监又补充说明道。
“通俗的来说....就是现在人工智能的潜力是无限的,但物理和成本最终可能是界限。”何依霖概括的说道。
“是的。”技术部总监点头说道。
按照当前的技术路线和发展模式,1%必将引发两个问题:一方面,数据中心的规模将会越来越庞大,其功耗也随之水涨船高,且运行越来越缓慢。
另一方面,AI芯片朝高算力、高集成方向演进,依靠制程工艺来支撑峰值算力的增长,制程越来越先进,其功耗和水耗也越来越大。
(本章未完,请点击下一页继续阅读)
最新网址:xiashukan.com