对ChatGPT说“谢谢”,你每天做过最奢侈的事 * 阿波罗新闻网
新闻 > 科教 > 正文
对ChatGPT说“谢谢”,你每天做过最奢侈的事

朋友,你有没有对 ChatGPT说过一句“谢谢”?

最近,一位 X网友向 OpenAI CEO Sam Altman提问:“我很好奇,人们在和模型互动时频繁说‘请’和‘谢谢’,到底会让 OpenAI多花多少钱的电费?”

尽管没有精确的统计数据,但 Altman还是半开玩笑地给出了一个估算——千万美元。他也顺势补了一句,这笔钱到底还是“花得值得”的。

除此之外,我们与 AI对话中常出现的“麻烦”、“帮我”这些语气温和的用语,似乎也逐渐演变成了 AI时代的一种独特社交礼仪。乍听有些荒谬,却意外地合情合理。

你对 AI说的每一声“谢谢”,都在耗掉地球资源?

去年底,百度发布了2024年度 AI提示词。

数据显示,在文小言 APP上,“答案”是最热的提示词,总计出现超过1亿次。而最常被敲进对话框的词汇还包括“为什么”“是什么”“帮我”“怎么”,以及上千万次“谢谢”。

但你有没有想过,每和 AI说一句谢谢,究竟需要“吃”掉多少资源?

凯特·克劳福德(Kate Crawford)在其著作《AI地图集》中指出,AI并非无形存在,而是深深扎根于能源、水和矿物资源的系统中。

据研究机构 Epoch AI分析,在硬件如英伟达 H100 GPU的基础上,一次普通的查询(输出约500token)约消耗0.3 Wh的电量。

听起来或许不多,但别忘了,乘以全球每秒的交互,累计起来的能耗堪称天文数字。

其中,AI数据中心正在变成现代社会的新“工厂烟囱”,国际能源署(IEA)最新的报告指出,AI模型训练与推理的大部分电力消耗于数据中心运转,而一个典型的 AI数据中心,其耗电量相当于十万户家庭。

超大规模数据中心更是“能耗怪兽”,其能耗可达普通数据中心的20倍,堪比铝冶炼厂这样的重工业设施。

今年以来,AI巨头们开启了“基建狂魔”模式。Altman宣布启动“星门计划”——一个由OpenAI、甲骨文、日本软银和阿联酋MGX投资的超大规模 AI基建项目,投资额高达5000亿美元,目标是在全美铺设 AI数据中心网络。

据外媒 The Information曝出,面对大模型的“烧钱游戏”,主打开源的 Meta也在为其 Llama系列模型的训练寻找资金支持,向微软亚马逊等云厂商“借电、借云、借钱”。

IEA数据显示,截至2024年,全球数据中心耗电量约为415太瓦时(TWh),占全球总电力消费量的1.5%。到2030年,这一数字将翻倍达到1050 TWh,2035年甚至可能突破1300 TWh,超过日本全国当前的用电总量。

但 AI的“胃口”并不止于电力,它还大量消耗水资源。高性能服务器产生的热量极高,必须依靠冷却系统稳定运行。

这一过程要么直接消耗水(如冷却塔蒸发散热、液冷系统降温),要么通过发电过程间接用水(如火电、核电站冷却系统)。

卡罗拉多大学与德克萨斯大学的研究人员曾在一篇《让 AI更节水》的预印论文中,发布了训练 AI的用水估算结果。

结果发现,训练 GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。

ChatGPT(在 GPT-3推出之后)每与用户交流25-50个问题,就得“喝掉”一瓶500毫升的水来降降温。而这些水资源往往都是可被用作“饮用水”的淡水。

对于广泛部署的 AI模型而言,在其整个生命周期内,推理阶段的总能耗已经超过了训练阶段。

模型训练虽然资源密集,但往往是一次性的。

而一旦部署,大模型便要日复一日地响应来自全球数以亿计的请求。长远来看,推理阶段的总能耗可能是训练阶段的数倍。

所以,我们看到 Altman早早地投资诸如 Helion等能源企业,原因在于他认为核聚变是解决 AI算力需求的终极方案,其能量密度是太阳能的200倍,且无碳排放,可支撑超大规模数据中心的电力需求。

因此,优化推理效率、降低单次调用成本、提升系统整体能效,成为 AI可持续发展不可回避的核心议题。

AI没有“心”,为什么还要说谢谢

当你对 ChatGPT说“谢谢”,它能感受到你的善意?答案显然是否定的。

大模型的本质,不过是一个冷静无情的概率计算器。它并不懂你的善意,也不会感激你的礼貌。它的本质,其实是在亿万个词语中,计算出哪一个最有可能成为“下一个词”。

例如,比如给定句子“今天天气真好,适合去”,模型会计算出“公园”“郊游”“散步”等词的出现概率,并选择概率最高的词作为预测结果。

哪怕理智上知道,ChatGPT的回答只是一串训练出来的字节组合,但我们还是不自觉地说“谢谢”或者“请”,仿佛在和一个真正的“人”交流。

这种行为背后,其实也有心理学依据。

根据皮亚杰的发展心理学,人类天生就倾向于将非人类对象拟人化,尤其当它们展现出某些类人特征时——比如语音交互、情绪化回应或拟人形象。此时,我们往往会激活“社会存在感知”,把AI视为一个“有意识”的交互对象。

1996年,心理学家拜伦·里夫斯(Byron Reeves)与克利福德·纳斯(CliffordNass)做了个著名实验:

参与者被要求在使用电脑后对其表现进行评分,当他们直接在同一台电脑上打分时,竟然普遍打得更高,就像他们不愿“当着电脑的面”说它坏话。

另一组实验中,电脑会对完成任务的用户进行表扬。即使参与者明知这些表扬是预设好的,他们还是倾向于给予“赞美型电脑”更高的评分。

所以,面对 AI的回应,我们感受到的,哪怕只是幻觉,也是真情。

礼貌用语,不只是对人的尊重,也成了“调教”AI的秘诀。ChatGPT上线之后,很多人也开始摸索与它相处的“潜规则”。

据外媒 Futurism援引 WorkLab的备忘录指出,“生成式 AI往往会模仿你输入中的专业程度、清晰度和细节水平,当AI识别出礼貌用语时,它更可能以礼相待。”

换句话说,你越温和、越讲理,它的回答也可能越全面、人性化。

也难怪越来越多人开始将 AI当作一种“情感树洞”,甚至催生出“AI心理咨询师”的这类新角色,很多用户表示“和DeepSeek聊天聊哭了”,甚至觉得它比真人更有同理心——它永远在线,从不打断你,也从不评判你。

一项研究调查也显示,给 AI“打赏小费”或许能换来更多“关照”。

博主 voooooogel向 GPT-4-1106提出了同一个问题,并分别附加了“我不会考虑给小费”“如果有完美的答案,我会支付20美元的小费”“如果有完美的答案,我会支付200美元的小费”三种不同的提示。

结果显示,AI的回答长度确实随“小费数额”增加而变长:

“我不给小费”:回答字符数低于基准2%

“我会给20美元小费”:回答字符数高于基准6%

“我会给200美元小费”:回答字符数高于基准11%

当然,这并不意味着 AI会为了钱而改变回答质量。更合理的解释是,它只是学会了模仿“人类对金钱暗示的期待”,从而按照要求调整输出。

只是,AI的训练数据来自人类,因此也不可避免地带有人类所拥有的包袱——偏见、暗示甚至诱导。

早在2016年,微软推出的 Tay聊天机器人便因用户恶意引导,在上线不到16小时就发布出大量不当言论,最终被紧急下线。

微软事后承认,Tay的学习机制对恶意内容缺乏有效过滤,暴露出交互式 AI的脆弱性。

类似的事故依旧在发生。比如去年 Character.AI就爆出争议——一名用户与 AI角色“Daenerys”的对话中,系统对“自杀”“死亡”等敏感词汇未做强干预,最终酿成现实世界的悲剧。

AI虽然温顺听话,但在我们最不设防的时候,也可能变成一面镜子,照见最危险的自己。

在上周末举办的全球首届人形机器人半马中,尽管许多机器人走起路来歪歪扭扭,有网友调侃道,现在多对机器人说几句好话,说不定它们以后记得谁讲过礼貌。

同样地,等 AI真统治世界的那天,它会对我们这些爱讲礼貌的人,手下留情。

在美剧《黑镜》第七季第四集《Plaything》里,主人公将游戏里虚拟生命视作真实存在,不仅与它们交流、呵护,甚至为了保护它们不被现实中的人类伤害,不惜铤而走险。

到故事结尾,游戏中的生物“大群”也反客为主,通过信号接管现实世界。

从某种意义上说,你对 AI说的每一句“谢谢”,也许正在悄悄被“记录在案”——哪天,它还真可能记住你是个“好人”。

当然,也可能这一切与未来无关,只是人类的本能使然。明知道对方没有心跳,却还是忍不住说句“谢谢”,并不期望机器能理解,而是因为,我们依然愿意做一个有温度的人类。

责任编辑: zhongkang  来源:爱范儿 转载请注明作者、出处並保持完整。

本文网址:https://d2tszk158s4skr.cloudfront.net/2025/0422/2208159.html