梅雅君:从谷歌环境报告,看硅谷巨头AI研发中的节能大战|新趋势
点击蓝字
关注我们
近年来,大科技公司(BigTech)凭借其特有的客户与技术优势,不断向金融领域渗透,且表现出巨大的潜能,在与传统金融机构的合作与竞争中重塑着金融业格局。
大科技公司(BigTech)原本并非一个学术术语,最初来自新闻报道,部分西方媒体为了更方便表达,把谷歌、亚马逊、脸书和苹果合称为“Big Four Tech”,也有不少媒体把微软加入其中,改称“Big Five Tech”。仔细说,BigTech指的是拥有数字技术优势的全球性大型技术公司,为C端用户提供搜索引擎,社交网络,电子商务,或数据存储和处理等IT平台并为其他公司提供基础设施服务。
微软谷歌财报高歌猛进
作为人工智能竞赛中厮杀的两大巨头,微软和谷歌近一年总是同日发布季度财报。微软2023财年第三季度总营收及各业务收入、运营利润、净利润、每股收益同比均获得两位数增长,业绩全面超预期。公司股价在盘后交易中上涨超过4%。谷歌母公司Alphabet在2024财年第一季总营收同比增长15%的同时,净利润同比激增60%。此外,微软智能云业务部门增速超预期,且高于上一季度,其中Azure和其他云服务收入增长31%,超过前两个季度;人工智能给Azure收入贡献了7个百分点的增幅。
过去一年,人工智能为云竞争格局注入新的活力,增速放缓的云巨头找到了新的动力。微软和谷歌作为紧追在亚马逊身后的两家巨头,二者都在在人工智能领域不断的投入,积极布局云端,抢夺客户。如今看来,人工智能的威力已经开始显现。
过去5年,谷歌温室气体排放量增加48%
然而,随着人工智能的逐渐发展,而且大科技公司在人工智能领域不断的投入,我们还是得考虑一个方面:谷歌新近数据暴露了人工智能(AI)技术应用增长给硅谷巨头带来的负面影响:过去五年,因为支持AI系统的数据中心扩张,谷歌的温室气体排放量增加48%。美东时间7月2日,谷歌公布的年度环境报告显示,2023年,谷歌的污染排放量达到1430万吨碳当量,比2019年的基线水平增长48%,去年一年增长了13%。去年,谷歌主要来自数据中心耗电的能源相关排放量增加37%,占公司温室气体排放总量的四分之一,占比最大、占75%的供应链排放量去年增长8%。报告提出,去年的碳排放量增长凸显了,在投资大语言模型(LLM)即相关应用和基础设施建设的同时,这家公司面临减少碳排放的挑战。报告预计,由于运行AI系统的基础设施需求增加,供应链排放量近期内将继续增长。
到2030年,谷歌温室气体排放近零目标落空?
上述报告意味着,AI系统产生的用电需求,让谷歌面临难以实现减碳目标的威胁。
谷歌此前承诺,到2030年,让所有直接和间接温室气体排放净值降至零,并且到时候运行的电网每日24小时,全部由无碳能源供电。但是,去年,一些清洁能源项目“终止”降低了谷歌获得可再生能源的数量。谷歌的首席可持续发展官Kate Brandt在报告中表示谷歌仍然还是致力于实现以上2030年的目标,但强调该目标“极其雄心勃勃”。Brandt表示:她们的确仍预计,在回落到到自身目标之前,她们的排放量先要继续上升然后下降。她还提出谷歌在“努力地减少排放,包括签署清洁能源协议。
因加大AI投资,硅谷巨头开始抢核电
但是从另一个方面来看,媒体指出,谷歌、亚马逊、微软这些硅谷巨头此前公布了对AI领域数以百亿美元计投资的计划,这已经引起气候专家担心,担心密集耗电的工具和系统对环境产生负面影响。
随着AI技术快速发展、特别是LLM和生成式AI的兴起,科技企业对电力的需求爆发式增长,他们开始抢核电资源。大约三分之一的美国核电厂所有者正在跟科技公司洽谈,为新建的AI数据中心提供电力。这种核电-科技巨头联姻在美国多地引发了争议。一方面,核电与数据中心的结合,能够把电网中最可靠的电力与最富有的客户匹配起来,而且,这种新型的"厂网合一"安排,意味着数据中心的建设速度可能大大加快,因为几乎不需要新的电网基础设施。另一方面,此类供电协议也意味着,科技公司并非通过增加新的绿色能源来满足他们不断上升的电力需求,实际上是在转移现有的电力资源。数据中心也可能会从电网中抽走稳定的发电资源。
AI模型、硬件和数据中心,开启节能模式
根据国际能源署(IEA)的数据,如今,全球数据中心的用电量约占全球用电量的1%。但随着人工智能行业的蓬勃发展,国际能源署最近估计,2026年的用电量可能是去年的10倍。在拥有最多数据中心的美国,这引发了人们对人工智能电力需求急剧上升的担忧,人工智能使电网不堪重负,并可能使煤炭和天然气工厂的运营时间比其他情况下更长。
为了尽量减少对环境的影响,谷歌表示,它正在努力使其人工智能模型、硬件和数据中心更节能。
比如,为了找到改进的机器学习模型,谷歌采用了神经架构搜索 (NAS)。每个问题域/搜索空间组合通常只执行一次 NAS。然后可以将生成的模型重复用于数百个应用程序。例如,使用 NAS 发现的 Evolved Transformer 模型,是开源的并且可以免费获得。NAS 的一次性成本,通常被持续使用的减排量所抵消,因为 NAS 发现的改进模型通常更有效。其他研究人员进行了一项研究来训练 Transformer 模型。为此,他们在典型的数据中心中使用了 Nvidia P100 GPU,其能源组合与全球平均水平相似。刚刚发布的 Primer 模型将获得相同精度所需的计算量减少了 4 倍。使用 TPUv4 等新一代 ML 硬件,性能比 P100 提升了 14 倍,总共提升了 57 倍。高效的云数据中心比普通数据中心节省 1.4 倍的能源,从而使总能耗降低 83 倍。此外,由低碳能源驱动的数据中心可以将碳排放量再减少 9 倍,从而在四年内总共减少 747 倍。
总的来说,虽然AI技术每天都有不断的进步,但也必须在发展中关注环境问题。它虽然给许多科技公司带来许多好处,但是我们也不能视而不见AI带来的负面环境影响。未来AI如何实现可持续发展,仍然还是亟需各个行业需要共同解决的问题。
本文仅代表资讯,不代表平台观点。
欢迎转发(请注明来源)。
文案 | 梅雅君
审核 | Linda 橡树
排版 | Candy
参考文献:
1.https://www.gstatic.com/gumdrop/sustainability/google-2024-environmental-report.pdf
2.https://www.techrxiv.org/articles/preprint/The_Carbon_Footprint_of_Machine_Learning_Training_Will_Plateau_Then_Shrink/19139645/
3.https://www.epa.gov/energy/greenhouse-gas-equivalencies-calculator#results
4.https://cloud.tencent.com/developer/article/1952320
联系小编:
010-88431370, 17319454776
投稿信箱,欢迎来稿:
v89@CBCGDF.org