ChatGPT每天要耗费1.7万个家庭的用电量, 到底值不值?

首页 > 科技

ChatGPT每天要耗费1.7万个家庭的用电量, 到底值不值?

来源:读职场 发布时间:2024-03-18 12:07

最近,马斯克在活动上表示,继之前的芯片短缺后,AI的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练AI发展AI需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由AI大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与AI紧密共存的未来,那及早计算它背后的“能源账”也是一种必要。

一、好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉“贪心”。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我“造”出什么。

轻点一下就有全新演绎,这个诱惑太大了。

AI生成图片

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年12月,开源AI平台HuggingFace研究员和卡内基梅隆大学联手合作,统计了88个不同AI模型在不同任务下的用电情况。

其论文指出,图像生成模型推断1000次平均用电2.907千瓦时,而平均手机充电耗电量为0.012千瓦时。

不过,论文作者SashaLuccioni强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成64x64图像的小模型,也有生成4K高清图的模型。

相比之下,文本类模型的耗电量会低很多——推断1000次平均耗电量介乎于0.002千瓦时至0.047千瓦时。

值得指出的是,这只是AI模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3这种体量的模型训练用电量可达1300兆瓦时,约等于130个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为OpenAI变得越来越不open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个AI公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么SashaLuccioni要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说“我们就从这里开始吧。”

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的AlexdeVries。

deVries将视野拉得更广,直接跳过AI模型,通过计算全球被用于AI领域的英伟达GPU数量来估算这个领域的用电量。

据deVries估算,到了2027年,AI行业每年的耗电量将介乎于85~134太瓦时,相当于荷兰整个国家的用电量。

至于ChatGPT本身,deVries认为它每天处理2亿个用户请求会耗电50万千瓦时,这相当于一个美国家庭每天用电的量的1.7万倍

如果Google将AI结合到每一次搜索中,那它一年的用电量就会飙升至210亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下AI的用电量基本很难降低。

他指出,在2010—2018年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量1%-2%。

虽然我们的生活和互联网更紧密了,用“网”频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在“AI模型大战”下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

二、未来的问题,交给未来?

这一切对于deVries来说都很熟悉。

最开始,吸引deVries去做用电统计的其实是比特币。

据deVries,比特币挖矿现在一年仍然消耗1450亿千瓦时的电量,碳足迹高达8100万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和“可持续”在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在AI领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI将更紧密地融入我们的生活中,巨头们也不怕说起AI的耗电问题,只是解决方案也和AGI一样“未来”。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

SamAltman在今年1月的达沃斯活动上如此回应AI的能耗问题。

此前,Altman和微软都投资了核聚变发电初创公司Helion。这家公司致力于2028年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司MistralAI和美国公司InflectionAI则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出deVries提及的规模循环?

这些都是要等“未来”回答的问题,但“现在”已经展露出AI对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和AI的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了2026年,全球总体电力需求预计将增长3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个AI无处不在的未来,正如Altman所言,真的是迫切需要重大突破。

但deVries则认为,我们也可以提出一个新问题:

我们真的需要AI去做某些特定的任务吗?

考虑到AI的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。

最近,马斯克在活动上表示,继之前的芯片短缺后,AI的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练AI发展AI需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由AI大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与AI紧密共存的未来,那及早计算它背后的“能源账”也是一种必要。

一、好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉“贪心”。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我“造”出什么。

轻点一下就有全新演绎,这个诱惑太大了。

AI生成图片

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年12月,开源AI平台HuggingFace研究员和卡内基梅隆大学联手合作,统计了88个不同AI模型在不同任务下的用电情况。

其论文指出,图像生成模型推断1000次平均用电2.907千瓦时,而平均手机充电耗电量为0.012千瓦时。

不过,论文作者SashaLuccioni强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成64x64图像的小模型,也有生成4K高清图的模型。

相比之下,文本类模型的耗电量会低很多——推断1000次平均耗电量介乎于0.002千瓦时至0.047千瓦时。

值得指出的是,这只是AI模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3这种体量的模型训练用电量可达1300兆瓦时,约等于130个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为OpenAI变得越来越不open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个AI公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么SashaLuccioni要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说“我们就从这里开始吧。”

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的AlexdeVries。

deVries将视野拉得更广,直接跳过AI模型,通过计算全球被用于AI领域的英伟达GPU数量来估算这个领域的用电量。

据deVries估算,到了2027年,AI行业每年的耗电量将介乎于85~134太瓦时,相当于荷兰整个国家的用电量。

至于ChatGPT本身,deVries认为它每天处理2亿个用户请求会耗电50万千瓦时,这相当于一个美国家庭每天用电的量的1.7万倍

如果Google将AI结合到每一次搜索中,那它一年的用电量就会飙升至210亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下AI的用电量基本很难降低。

他指出,在2010—2018年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量1%-2%。

虽然我们的生活和互联网更紧密了,用“网”频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在“AI模型大战”下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

二、未来的问题,交给未来?

这一切对于deVries来说都很熟悉。

最开始,吸引deVries去做用电统计的其实是比特币。

据deVries,比特币挖矿现在一年仍然消耗1450亿千瓦时的电量,碳足迹高达8100万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和“可持续”在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在AI领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI将更紧密地融入我们的生活中,巨头们也不怕说起AI的耗电问题,只是解决方案也和AGI一样“未来”。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

SamAltman在今年1月的达沃斯活动上如此回应AI的能耗问题。

此前,Altman和微软都投资了核聚变发电初创公司Helion。这家公司致力于2028年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司MistralAI和美国公司InflectionAI则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出deVries提及的规模循环?

这些都是要等“未来”回答的问题,但“现在”已经展露出AI对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和AI的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了2026年,全球总体电力需求预计将增长3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个AI无处不在的未来,正如Altman所言,真的是迫切需要重大突破。

但deVries则认为,我们也可以提出一个新问题:

我们真的需要AI去做某些特定的任务吗?

考虑到AI的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。

最近,马斯克在活动上表示,继之前的芯片短缺后,AI的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练AI发展AI需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由AI大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与AI紧密共存的未来,那及早计算它背后的“能源账”也是一种必要。

一、好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉“贪心”。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我“造”出什么。

轻点一下就有全新演绎,这个诱惑太大了。

AI生成图片

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年12月,开源AI平台HuggingFace研究员和卡内基梅隆大学联手合作,统计了88个不同AI模型在不同任务下的用电情况。

其论文指出,图像生成模型推断1000次平均用电2.907千瓦时,而平均手机充电耗电量为0.012千瓦时。

不过,论文作者SashaLuccioni强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成64x64图像的小模型,也有生成4K高清图的模型。

相比之下,文本类模型的耗电量会低很多——推断1000次平均耗电量介乎于0.002千瓦时至0.047千瓦时。

值得指出的是,这只是AI模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3这种体量的模型训练用电量可达1300兆瓦时,约等于130个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为OpenAI变得越来越不open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个AI公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么SashaLuccioni要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说“我们就从这里开始吧。”

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的AlexdeVries。

deVries将视野拉得更广,直接跳过AI模型,通过计算全球被用于AI领域的英伟达GPU数量来估算这个领域的用电量。

据deVries估算,到了2027年,AI行业每年的耗电量将介乎于85~134太瓦时,相当于荷兰整个国家的用电量。

至于ChatGPT本身,deVries认为它每天处理2亿个用户请求会耗电50万千瓦时,这相当于一个美国家庭每天用电的量的1.7万倍

如果Google将AI结合到每一次搜索中,那它一年的用电量就会飙升至210亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下AI的用电量基本很难降低。

他指出,在2010—2018年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量1%-2%。

虽然我们的生活和互联网更紧密了,用“网”频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在“AI模型大战”下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

二、未来的问题,交给未来?

这一切对于deVries来说都很熟悉。

最开始,吸引deVries去做用电统计的其实是比特币。

据deVries,比特币挖矿现在一年仍然消耗1450亿千瓦时的电量,碳足迹高达8100万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和“可持续”在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在AI领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI将更紧密地融入我们的生活中,巨头们也不怕说起AI的耗电问题,只是解决方案也和AGI一样“未来”。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

SamAltman在今年1月的达沃斯活动上如此回应AI的能耗问题。

此前,Altman和微软都投资了核聚变发电初创公司Helion。这家公司致力于2028年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司MistralAI和美国公司InflectionAI则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出deVries提及的规模循环?

这些都是要等“未来”回答的问题,但“现在”已经展露出AI对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和AI的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了2026年,全球总体电力需求预计将增长3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个AI无处不在的未来,正如Altman所言,真的是迫切需要重大突破。

但deVries则认为,我们也可以提出一个新问题:

我们真的需要AI去做某些特定的任务吗?

考虑到AI的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。

最近,马斯克在活动上表示,继之前的芯片短缺后,AI的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练AI发展AI需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由AI大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与AI紧密共存的未来,那及早计算它背后的“能源账”也是一种必要。

一、好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉“贪心”。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我“造”出什么。

轻点一下就有全新演绎,这个诱惑太大了。

AI生成图片

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年12月,开源AI平台HuggingFace研究员和卡内基梅隆大学联手合作,统计了88个不同AI模型在不同任务下的用电情况。

其论文指出,图像生成模型推断1000次平均用电2.907千瓦时,而平均手机充电耗电量为0.012千瓦时。

不过,论文作者SashaLuccioni强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成64x64图像的小模型,也有生成4K高清图的模型。

相比之下,文本类模型的耗电量会低很多——推断1000次平均耗电量介乎于0.002千瓦时至0.047千瓦时。

值得指出的是,这只是AI模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3这种体量的模型训练用电量可达1300兆瓦时,约等于130个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为OpenAI变得越来越不open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个AI公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么SashaLuccioni要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说“我们就从这里开始吧。”

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的AlexdeVries。

deVries将视野拉得更广,直接跳过AI模型,通过计算全球被用于AI领域的英伟达GPU数量来估算这个领域的用电量。

据deVries估算,到了2027年,AI行业每年的耗电量将介乎于85~134太瓦时,相当于荷兰整个国家的用电量。

至于ChatGPT本身,deVries认为它每天处理2亿个用户请求会耗电50万千瓦时,这相当于一个美国家庭每天用电的量的1.7万倍

如果Google将AI结合到每一次搜索中,那它一年的用电量就会飙升至210亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下AI的用电量基本很难降低。

他指出,在2010—2018年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量1%-2%。

虽然我们的生活和互联网更紧密了,用“网”频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在“AI模型大战”下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

二、未来的问题,交给未来?

这一切对于deVries来说都很熟悉。

最开始,吸引deVries去做用电统计的其实是比特币。

据deVries,比特币挖矿现在一年仍然消耗1450亿千瓦时的电量,碳足迹高达8100万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和“可持续”在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在AI领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI将更紧密地融入我们的生活中,巨头们也不怕说起AI的耗电问题,只是解决方案也和AGI一样“未来”。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

SamAltman在今年1月的达沃斯活动上如此回应AI的能耗问题。

此前,Altman和微软都投资了核聚变发电初创公司Helion。这家公司致力于2028年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司MistralAI和美国公司InflectionAI则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出deVries提及的规模循环?

这些都是要等“未来”回答的问题,但“现在”已经展露出AI对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和AI的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了2026年,全球总体电力需求预计将增长3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个AI无处不在的未来,正如Altman所言,真的是迫切需要重大突破。

但deVries则认为,我们也可以提出一个新问题:

我们真的需要AI去做某些特定的任务吗?

考虑到AI的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。

最近,马斯克在活动上表示,继之前的芯片短缺后,AI的发展接下来将会遇上电力不足的挑战。

大家似乎都知道训练AI发展AI需要大量算力,极为耗电耗水,但我们似乎又不清楚它具体有多耗电。

即便如此,部分地区已经开始感受到由AI大潮带来的用电压力,而各领域的研究人员也在想方设法去对能耗进行测算。

毕竟,如果我们真要如科技巨头们所描绘般走入与AI紧密共存的未来,那及早计算它背后的“能源账”也是一种必要。

一、好奇生成一张图,就能为手机充满电?

我在用文生图模型时,常常会不自觉“贪心”。

即便图片出来质量还可以,我也总会忍不住多点几下,生成几次,或者添加一些变量,看模型会给我“造”出什么。

轻点一下就有全新演绎,这个诱惑太大了。

AI生成图片

然而,我没想到的是,我的一次好奇点击下消耗的电量,居然已经能把我手机充满电。

去年12月,开源AI平台HuggingFace研究员和卡内基梅隆大学联手合作,统计了88个不同AI模型在不同任务下的用电情况。

其论文指出,图像生成模型推断1000次平均用电2.907千瓦时,而平均手机充电耗电量为0.012千瓦时。

不过,论文作者SashaLuccioni强调,这并不意味着所有图像生成模型的耗电量都如此,因为研究测算中既然只生成64x64图像的小模型,也有生成4K高清图的模型。

相比之下,文本类模型的耗电量会低很多——推断1000次平均耗电量介乎于0.002千瓦时至0.047千瓦时。

值得指出的是,这只是AI模型在训练完成之后每次使用时的耗电量,训练模型本身用电量则更可观。

论文估算,GPT-3这种体量的模型训练用电量可达1300兆瓦时,约等于130个美国家庭一年的用电量。

为什么不去算更新模型的用电量?

因为OpenAI变得越来越不open,不再像几年前一样会公布训练细节,如用了什么硬件和耗时。

在白热化竞争下,各个AI公司也不愿公布自己的模型训练信息,一切都在变得越来越不透明。

这也是为什么SashaLuccioni要用更侧面的方式来进行估算。

当然,这些数据没法代表所有人的使用情况,但至少我们有一点数据。

我想把旗子立起来,和大家说“我们就从这里开始吧。”

同样不愿被信息壁垒挡住的,还有供职于荷兰中央银行的AlexdeVries。

deVries将视野拉得更广,直接跳过AI模型,通过计算全球被用于AI领域的英伟达GPU数量来估算这个领域的用电量。

据deVries估算,到了2027年,AI行业每年的耗电量将介乎于85~134太瓦时,相当于荷兰整个国家的用电量。

至于ChatGPT本身,deVries认为它每天处理2亿个用户请求会耗电50万千瓦时,这相当于一个美国家庭每天用电的量的1.7万倍

如果Google将AI结合到每一次搜索中,那它一年的用电量就会飙升至210亿千瓦时,高于肯尼亚、克罗地亚等国家的用电量。

而和从前计算机发展不同的是,目前势态下AI的用电量基本很难降低。

他指出,在2010—2018年期间,全球数据中心的用电量其实相对稳定,大概占全球总用电量1%-2%。

虽然我们的生活和互联网更紧密了,用“网”频率也更高了,但硬件的效率也在提升,能抵消一下。

情况在“AI模型大战”下改变了,巨头们只想把模型越做越大,数据越多越好:

真像是一个效率的死亡动力学。

它自然地创造了一种驱动力,让人们不停地增加算力资源,一旦模型或硬件变得更高效了,人们又要让这些模型变得更加大。

二、未来的问题,交给未来?

这一切对于deVries来说都很熟悉。

最开始,吸引deVries去做用电统计的其实是比特币。

据deVries,比特币挖矿现在一年仍然消耗1450亿千瓦时的电量,碳足迹高达8100万吨,比摩洛哥的年排放量都要高。

挖矿本身的模式也注定了它和“可持续”在本质上的不兼容:

我认为政策上唯一可行的做法就是要求披露数据。

我们花了那么多年才在加密行业学会这个,我真的很失望我们怎么没能早些在AI领域做到这件事。

就像是我们看到了挖币带来的影响,然后完全就忘了。

但和加密币行业不同的是,在各个大公司的叙事中,AI将更紧密地融入我们的生活中,巨头们也不怕说起AI的耗电问题,只是解决方案也和AGI一样“未来”。

我们仍旧不喜欢这项技术对能源的消耗。

如果没有大突破,我们没法达到目的地。我们需要核聚变,或者极其廉价的太阳能加上存储设备,或者某种大规模的设备。

SamAltman在今年1月的达沃斯活动上如此回应AI的能耗问题。

此前,Altman和微软都投资了核聚变发电初创公司Helion。这家公司致力于2028年以前,建成全球首座核聚变发电厂。

这段时间引来大量关注的法国公司MistralAI和美国公司InflectionAI则各自拿出训练成本更低的高质量模型。

这固然可以减少算力压力,但它们又是否能走出deVries提及的规模循环?

这些都是要等“未来”回答的问题,但“现在”已经展露出AI对能源的压力。

据彭博社,为了应对用电量的飙升,美国一些电力公司在考虑解封已经封存的化石燃料发电厂,部分公司已经开始提请监管机构批准建造新的天然气发电厂。

国际能源署在今年发布的报告中预测,未来三年,全球对数据中心、加密货币和AI的电力需求将增加一倍以上,相当于一个德国的全部电力需求。

到了2026年,全球总体电力需求预计将增长3.4%,但风能、太阳能和水能等可再生能源和核能,都无法弥补这一增长。

的确,如果我们想要一个AI无处不在的未来,正如Altman所言,真的是迫切需要重大突破。

但deVries则认为,我们也可以提出一个新问题:

我们真的需要AI去做某些特定的任务吗?

考虑到AI的各种限制,它在很多地方可能都不适用,但我们就得花很长时间和大量能源去用艰难的方式才能明白这个道理。

上一篇:一女子坐火车... 下一篇:股票被st一般...
猜你喜欢
热门阅读
同类推荐