人工智能的小秘密,为什么人工智能聊天机器人要消耗这么多能量? 人工智能聊

哇侯选评汽车 2025-09-17 17:43:20

人工智能的小秘密,为什么人工智能聊天机器人要消耗这么多能量? 人工智能聊天机器人是著名的耗能者。但他们为什么用那么多电呢? 这是它的工作原理。问一个大型语言模型(LLM)问题大约需要10倍于常规谷歌搜索所需的平均电量。近年来,ChatGPT的受欢迎程度激增,每天有近2亿用户向应用程序发送总计超过10亿条提示。这些提示似乎是凭空完成请求。但在幕后,人工智能(AI)聊天机器人正在使用大量能源。2023年,用于训练和处理AI的数据中心占美国用电量的4.4%。在全球范围内,这些中心约占全球能源消耗的1.5%。随着对人工智能需求的增长,这些数字预计将飙升,到2030年至少翻一番。 但是,是什么让人工智能聊天机器人如此耗能?答案在于大规模的人工智能聊天机器人。特别是人工智能中使用最多能量的两个部分:训练和推理。为了训练人工智能聊天机器人,大型语言模型(LLM)被赋予了巨大的数据集,这样人工智能就可以学习、识别模式并做出预测。总的来说,人工智能训练有一种“越大越好的信念”,即接受更多数据的更大模型被认为可以做出更好的预测。因此,当你试图进行训练时,现在的模型已经变得如此之大,它们不适合单个GPU(图形处理单元);它们不适合一个服务器。而是很多台。 一台Nvidia DGX A100服务器需要高达6.5千瓦的电力。训练LLM通常需要多个服务器,每个服务器平均有8个GPU,然后运行数周或数月。总之,这消耗了很多能量:据估计,训练OpenAI的GPT-4需要50千兆瓦时的能量,相当于为旧金山供电三天。推理也消耗了大量的能量。这是人工智能聊天机器人从它所学到的知识中得出结论并从请求中生成输出的地方。尽管在训练后运行LLM所需的计算资源要少得多,但由于向AI聊天机器人发出的请求数量庞大,推理是能源密集型的。截至2025年7月,OpenAI表示,ChatGPT用户每天发送超过25亿条提示,这意味着使用多台服务器为这些请求生成即时响应。人工ai 人工智能技巧 AI机器人技术 AI聊天GPT

0 阅读:0
哇侯选评汽车

哇侯选评汽车

感谢大家的关注