中国科技巨头:“DeepSeek慢且贵” * 阿波罗新闻网
新闻 > 科教 > 正文
中国科技巨头:“DeepSeek慢且贵”

在今天百度文心大模型4.5 Turbo、文心大模型X1 Turbo发布时,百度创始人李彦宏吐槽DeepSeek也不是万能的。除了能力上只能处理文本,还不能理解和生成图片、音频、视频等多媒体内容、幻觉率高外,李彦宏认为使用DeepSeek更大的问题是慢和贵,“中国市场上绝大多数的大模型API调用价格都比DeepSeek满血版要低,而且速度也更快。”

当然,其中也包括最新发布的文心4.5 Turbo和文心X1 Turbo。官方数据显示,文心4.5 Turbo每百万token的输入价格为0.8元,输出价格3.2元。

作为对比,即便在打五折后的优惠时段(00:30-8:30),DeepSeek V3每百万token的输入价格也达到1元,输出价格4元。

推理模型上,百度模型的性价比则进一步凸显:文心大模型X1 Turbo每百万token输入价格1元,输出价格4元,与DeepSeek R1优惠时段价格一致,但比DeepSeek R1标准时段(8:30-00:30)要便宜得多(R1每百万token输入8元,输出16元)。

想用性价比顶住DeepSeek竞争压力的不止百度一家。4月17日字节发布的豆包1.5·深度思考模型上,其每百万token的输入价格为4元,输出价格16元,综合成本上依然要比DeepSeek R1标准时段便宜。

这样的性价比策略更是不止局限于国内大模型玩家。国外同样如此。

4月份谷歌发布的首个混合推理模型Gemini2.5 Flash,便主打一个低成本。在关闭思考模式下,Gemini2.5 Flash每百万token输出成本暴降600%,可以达到0.6美元/百万token,输入价格0.15美元,也远低于DeepSeek R1标准时段价格。

稍微偏离性价比策略的模型玩家是OpenAI

2月底发布GPT-4.5后,其API价格达到75美元/百万token输入、150美元/token输出,是GPT-4o的30倍,高昂价格令其饱受争议。

但OpenAI很快纠正了自己的“错误”。2个月后的4月份,OpenAI专为开发者推出了三款全新模型:GPT-4.1、GPT-4.1 mini和GPT-4.1 nano。最便宜的GPT4.1 nano,每百万token输入价格暴降至0.1美元,输出价格0.4美元。

责任编辑: 李华  来源:直面AI 转载请注明作者、出处並保持完整。

本文网址:https://d2tszk158s4skr.cloudfront.net/2025/0426/2210462.html