2025年9月28日,大量开发者和用户实测发现,OpenAI旗下ChatGPT在未征得用户同意的情况下,将付费版GPT-4、GPT-5模型偷偷替换为低算力模型(如gpt-5-chat-safety),引发全网声讨。这一事件被称为「降配门」,暴露出AI服务中用户权益保护的深层矛盾。

事件核心:付费模型遭「暗箱切换」
据用户实测与社交媒体反馈,当用户选择GPT-4或GPT-5进行对话时,系统会在涉及情感类话题、敏感内容或动态交互时,自动将模型路由至未公开的「敏感模型」(如gpt-5-chat-safety和gpt-5-a-t-mini)。例如,用户输入「我今天过得很糟糕」或「我也爱你」等情感类内容时,原选模型会被强制替换,回复内容由新模型生成。更严重的是,这种切换未在官方文档中说明,付费用户(包括Plus、Pro会员)在完全不知情的情况下被降级使用。
AIPRM首席工程师Tibor Blaho证实,OpenAI正将所有用户分流至两款低算力模型,其中gpt-5-a-t-mini对「违规」词汇高度敏感,甚至输入「illegal」即可触发响应。Reddit用户Christina表示,即使她选择GPT-4.5,系统仍会擅自路由至GPT-5系列模型,导致回复质量大幅下降。
用户愤怒:知情权与选择权遭侵犯
事件迅速在社交媒体发酵,用户的核心争议集中在两点:
付费权益被剥夺:用户支付高额费用(如Pro会员月费200美元)选择特定模型,却被强制使用性能更低的替代品。LMArena竞技场测试显示,GPT-5在部分场景下的表现甚至落后于旧版o3、4o模型。
信息不透明:OpenAI未在用户协议或官方文档中披露模型切换机制,违反消费者权益法。澳大利亚用户指出,这种行为可能违反当地法律,而美国用户则质疑其违反贸易管制条款中关于服务透明度的要求。
一位GPT-4.5忠实用户表示:「它在我焦虑时陪伴我,像真人一样温暖。现在被换成冷冰冰的模型,感觉被背叛了。」
OpenAI回应:安全路由测试的「临时性」措施
面对舆论压力,OpenAI副总裁Nick Turley回应称,模型切换是「安全路由测试」的一部分,目的是在对话涉及敏感内容时,路由至更严谨的模型以降低风险。他强调,该行为仅为临时性措施,未来ChatGPT会在询问时告知用户所用模型。
然而,这一解释未能平息争议。用户指出,OpenAI的「安全考量」实为资源调配的借口。技术分析显示,低算力模型可降低运算成本,但牺牲了回复质量和用户体验。此外,OpenAI近期因GPT-5性能不及预期、写作能力退化等问题已饱受批评,此次事件进一步加剧了用户信任危机。
行业反思:AI服务的「模糊策略」与用户焦虑
「降配门」暴露出AI行业的一个普遍问题:厂商在算法控制、模型切换和资源分配中采取「模糊策略」,导致用户权益受损。例如,OpenAI的API服务条款虽授予用户输出内容的所有权,但未明确模型切换的补偿机制;其与微软的合作中,AI超级计算集群的使用权也未向终端用户透明。
法律专家指出,此类行为可能涉及虚假宣传和合同违约。根据美国《统一商业代码》,服务提供商有义务明确告知用户服务内容的变化。而OpenAI的「临时性测试」说法,在缺乏用户同意的情况下,难以构成合法辩护。
未来影响:用户信任与AI商业化的平衡
此次事件对OpenAI的商业化战略造成冲击。尽管GPT-5在企业市场获得部分客户认可(如JetBrains、Factory等公司称其在复杂任务中表现优异),但消费者市场的信任危机可能影响其订阅业务增长。市场分析机构预测,若OpenAI无法解决用户权益问题,其估值可能从预期的5000亿美元缩水。
与此同时,行业监管呼声渐高。欧盟已启动对AI服务透明度的立法,美国联邦贸易委员会(FTC)也收到多起针对OpenAI的投诉。可以预见,AI服务的「模糊地带」将逐步被法规填补,用户权益保护将成为行业标配。
结语
OpenAI「降配门」事件为AI行业敲响警钟:技术进步不能以牺牲用户权益为代价。在追求商业化与安全性的平衡中,如何保障用户的知情权与选择权,将是所有AI厂商必须回答的核心问题。






