打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
陈根:GPT成为耗电狂魔,一年电费2亿元?

文/陈根

3月11日,《纽约客》发布的一篇文章引起了广泛关注。根据文章报道,ChatGPT每天大约要处理2亿个用户请求,每天消耗电力50万千瓦时,相当于美国家庭每天平均用电量(29千瓦时)的1.7万多倍。

也就是说,ChatGPT一天的耗电量,大概等于1.7万个家庭一天的耗电量,ChatGPT一年,光是电费,就要花2亿元。

《纽约客》还在文章中提到,根据荷兰国家银行数据科学家Alex de Vries的估算,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力(1太瓦时=10亿千瓦时)。这个电量相当于肯尼亚、危地马拉和克罗地亚三国的年总发电量。《纽约客》的消息一出,直接冲上了微博热搜。

       事实上,在这之前,关于AI耗电的讨论就已经有很多了,不管是研究报告还是调查数据,都显示人工智能已经成为了耗电大户,并且,随着人工智能的发展,耗电量还会越来越大。

科罗拉多大学与德克萨斯大学的研究人员在一篇名为“让AI更节水”的预印论文中也发布了训练AI的用水估算结果,显示训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。并且在使用过程中,ChatGPT(在GPT-3推出之后)每与用户交流25到50个问题,就得“喝下”一瓶500毫升的水来降温。

人工智能为啥这么耗电?这其实和人工智能的工作原理有关。人工智能工作原理的核心,就是计算。而本质上,计算就是把数据从无序变成有序的过程,这个过程则需要一定能量的输入。特别是为了处理海量的数据和复杂的计算任务,人工智能系统需要强大的计算能力和存储设备,而这些设备在运行过程中会产生大量的热量和能耗。

并且,随着人工智能技术的不断发展,对芯片的需求也在急剧增加,进一步推动了电力需求的增长。

可以很明确的说,人工智能如果想进一步发展和突破,或者说人工智能如果要真正地进入人类社会中应用,必须要解决耗能问题。

如果依然是遵照传统路径,继续购买算力来扩增人工智能的计算能力,那么人工智能将会对电力的需求形成一个无底洞。对于AI耗能的问题,奥特曼也曾警告说,下一波生成型人工智能系统消耗的电力将远远超出预期,能源系统将难以应对。马斯克也多次表达了对未来能源基础设施,尤其是电力和变压器短缺将成为AI技术突破运行的瓶颈,而这种电力短缺最早可能在2025年就会出现。

而解决耗能问题的关键,就在于发展新的能源技术,比如可控核聚变,或者更便宜的太阳能及存储等等。说到底,科技带来的能源资源消耗问题,依然只能从技术层面来根本性地解决。

当然这也让我们看到为什么奥特曼在打造通用人工智能的道理上,也提前投资了可控核聚变公司的初衷。曾经的赶英超美,今天回头看我们是最大的粮食进口大国;如今国内一些人工智能企业能耗喊出的赶超OpenAI,过几年回头看,大家觉得会是一个什么结果?

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
GPT吟诗一首,被赏了50大板 #chatgpt #chatgpt4 #人工智能 #ai
大模型的尽头是电力?
惊人!大模型成“电老虎”,耗能惊人,科技巨头如何应对?
人工智能的奇点即将来临5#ai人工智能机器人 #未来科技 #chatGPT
减少就是减少,为什么要说是负增长 #chatgpt #gpt4 #人工智能 #认知 #负增长
无标题
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服