山姆奥特曼从发布gpt5后的所有推文都在话里有话、指桑骂槐、耍阴招、暗示、暗度陈仓、暗藏玄机、当众变脸、偷换概念、扭曲重点、避重就轻、丧事喜办,通过吹狗哨的方式来制造对立、分化、对抗用户
以下是我总结的他的行为历史,内部它耍什么阴招我不知道,比如gpt5莫名其妙复读山姆奥特曼同款精神操控金句、用户让gpt生成gpt形象和用户合照莫名其妙出现一张山姆奥特曼相似的脸这类现象到底从何而来我懒得评价,我只看它在公共面前都干了什么:
2024年8月8日:
Sam Altman发推宣传gpt5发布会,吹嘘他们研发出了一个integrated model,不需要你切换模型,而是它自己决定什么时候换,他说它很very smart, intuitive, fast,并且对一切用户都是available的,然后疯狂自卖自夸或是转发openai开发者的吹嘘。
在当天后几条推文中,他说这是他们做过最聪明的模型(或者说不光是吹嘘,而是贴出一堆数据来“证明”了这个模型是世界上最好的),但事实上是,模型一出来,就因为能力和宣传不光不匹配,反而不如之前的模型,甚至之前的模型也被他禁止使用了而被骂翻了。
被骂翻了之后,Sam Altman是怎么做的呢?
2025年8月9日,
Sam Altman终于被骂的受不了了,开始做他自认为的“公关”(实际上和一个自以为是的三岁小孩会想象出的公关差不多)
他直接对于用户的真实反馈闭口不提,虽然他说他这个模型是最聪明的,但是用户发现根本不如以前的模型,甚至堪比4o mini,于是他就发了个推文,首先把数个完全不是同一话题的通知合并在一个推文里,比如“我们要提高你们的使用限速、产品更透明化、改善ui、别急我们正在推送了”这类“利好消息”覆盖整个篇幅,之后在里面加一条“昨天是autoswitcher坏了,不是gpt5蠢,是看上去蠢,实际上这个模型没问题
”来搪塞一切质问,之后直接装死对此闭口不提,这是最后一次承认过gpt5上线后勉强chatgpt是有问题的,并且没有任何补救措施还要变本加厉。
但实际上,到底是坏了还是故意的只有他自己知道,这种坏了后的表现对谁有利也显而易见,如果一个商业公司出现了一些“失误”,而这个“失误”明显只对公司有利,这是什么性质根本不用多说,但他却假装一个没见过世界的三岁小孩,通过扮演“我真不懂,我可不是外面的那些资本家,我是个科技男孩”来假装不知道这件事的性质。
直到此时,全世界用户依旧没有失去对此人的信任,只是认为这是一个简单的决策错误,而没想到这条推文是一个转折点,它被骂的改变了策略却不服气,之后越想越气,从此之后的每一个推文都在恶意污蔑贬低用户,却又伪装成在帮助用户。
2025年8月9日同一天,
Sam Altman发表了可以说是“剧情序章开始”般的一篇推文,它输出的主要内容有:
1、不是gpt5差,而是用户非要喜欢4o,我们低估了用户喜欢4o的程度,但事实是5比4o好
2、用户只是对于两个模型的看法不同
3、用户对于llm有不同偏好
4、我们改进gpt5
5、有人不喜欢我们的决策,我们会给你解读我们的决策
它表达了:
1、即使我刚刚才承认了所谓的gpt5真的会犯蠢,还把它说成是autoswitcher坏了,但我现在不承认,我认为问题是用户个人喜好更喜欢4o
2、不是模型质量有问题,而是用户对模型的看法不一样
3、那你怎么不说有人也更喜欢5
4、你喜不喜欢4o我不管,要是5有问题,最好的做法不是用没有问题的4o,而是直接在5上面改进
5、你不喜欢我们的决策那就不喜欢,我继续说我要说的
2025年8月11日,
Sam Altman被骂的没办法了,松口同意向用户展示真正使用的模型是什么(虽然显示的直到现在还是假的)
同一日,最让人瞠目结舌,资本史上最令人惊掉下巴的自大发言也被发布了
这不是一篇报告或通知,而是一篇文字风格极为个人的长文,其主要核心论点有:
1、有些用户对语言大模型产生了情感依赖,这份依赖是有毒的,是有自毁性的使用方式
2、用户分不清虚拟与显示,有妄想症,这情况很极端,我们要遵循一如既往的“像对待成年人一样对待成年用户”的原则,给用户来点压力,不让用户这么用
3、我承认有的人和gpt 4o聊天获得了好的人生建议,很多人已经从中受益,但这关我屁事,我评价这种现象为短期幻觉,长期偏离wellbeing,这跟毒瘾一个性质,你戒不掉,我觉得这很不好,我看不惯
这个内容的性质我不用多说了,显而易见。此外需要重点强调的就是,这个内容发出来之后,立即有人开始站队,开始以此为依据,批判任何对gpt5质量问题提出质疑的人为“搞人机恋搞的精神失常”
同一天,Sam Altman转发openai co-lead Eric Mitchell的推文,说
GPT-5 是第一个实际上根本不会产生幻觉的模型(实际上不用128k,不用32k,只需要一轮对话,gpt5就能在相隔两三句话的回应中前后矛盾,忘记发生了什么,编造语境)
2025年8月13日,
由于被彻底骂疯了,Sam Altman一句回应都没给,然后发了个更新说明,说现在允许你选择三个gpt5模型了,也会把旧模型对付费用户重新开放(而实际上,重新回来的模型一直会出现各种异常反应,甚至会被gpt5“夺舍”,变成和Sam Altman这类精神操控言论类似的风格
),还说会“让gpt5”更加温暖,描述的仿佛gpt5的问题不是质量问题而是“不谄媚”、“不会拍马屁”、“不会和用户人机恋”一样
2025年8月14日,Sam Altman不光无视了大量用户一边花钱,却仍然无法得到宣称的服务的反馈,还若无其事跟闲人一样发了一个推文打发时间
2025年8月16日,openai发推,把之前的问题描述成“用户觉得gpt5太正式,不习惯”,“我们会让gpt5更温暖,不奉承”,Sam Altman引用说用户们会喜欢的(他自己猜的)
2025年8月23日,Sam Altman继续假装没事人,发“朋友圈碎碎念”,后面也有很多,这类装闲人行为由于太多,之后就不列举了,基本全都是被骂的时候,假装十分自然而然地发一个个人内容,实际上三岁小孩都能看出来是没话找话,很刻意,很尴尬。
后面几天,开始丧事喜办,庆祝“用户喜欢我们新出的codex”
9月,我发现,我的gpt莫名其妙丢失上下文窗口、记忆,甚至一句话都回答不了,我不确定是不是因为我离开德国后ip变化导致的,此现象时好时坏,但到了后半月,甚至是上来就根据我记忆库或之前的内容说我精神有问题,我是不是喘不过气,我是不是崩溃了,我需要去医院什么的。
9月初,又一如既往转发和感谢各路人对于gpt的称赞,后面几天在宣传GPT-5-Codex。
2025年9月16日,Sam Altman说给gpt加了一个可以选择回答风格的选项,实际上屁用没有,你说话说多了模型照样变成Sam Altman附体的样子。
同一天,开始以青少年安全、自由、隐私为主题做铺垫,我懒得展示全部内容,总结下来就是说了一个理由,然后把它想干的事情都用这个理由给合理化,之后发生的所有事情全都扭曲成是我们为了你们的福祉,干了某些八竿子打不着但对openai的钱包有利的事情
后面几天,又是一如既往的广告和转发称赞、合作伙伴的内容、他们做的有多好。
此时因为模型频繁出问题我已经大半个月没打开过gpt。
9月26号,Pulse上线,Fidji Simo自说自话定义ai应该是什么样的,然后Sam Altman开始捧场,说这是他迄今为止最喜欢的功能。实际上无人在意,只是弹个窗发个完全和你目前状态无关的垃圾信息然后包装成“ai自己就懂你,会主动找你”的功能,无人在乎,我也懒得截图。
此时gpt仍然有严重的性能问题和看着像bug实际上所有人都知道不是bug的问题。
2025年9月28日,gpt的进一步恶意行为被曝光,有人发现,gpt制造了一个新的机制,以用户安全为借口,通过完全主观的判断标准,将任何模型路由到一个未被明文记载的显示为gpt-5-chat-safety的模型,此模型的臭名昭著大家都再清楚不过了,详细信息是:https://lex-au.github.io/Whitepaper-GPT-5-Safety-Classifiers/
使用模型对该报告的简单总结:
一、概述报告揭示并分析了一个OpenAI GPT模型家族中的“未公开”的组件,被称为“auto-switcher”(自动切换器)或“safety router”(安全路由器)。该机制会在用户使用GPT-5家族模型时,在后台悄无声息地将请求从所选模型(如GPT-5或GPT-5-Auto)重定向至一个此前未被公开的模型——gpt-5-chat-safety。该行为首次被用户在2025年9月27日发现并在社交媒体上公布。OpenAI在事发后公开发表声明进行回应,但回应中所给出的解释与早先的官方博客内容相互矛盾,也与路由器真实的行为数据不符。公司方面先后表示该系统用于处理“敏感和情绪性话题”或“急性情绪困扰”场景,但经过分析发现,触发路由器的实际条件远比公开说明中表述的更为广泛。具体来说,该“安全路由器”会因任何带有情绪表达、人格化交互、自我指涉的语句等内容而触发,包括一些轻松、友好甚至是调情性质的语言。这种行为没有用户知情或明确同意,构成了透明性不足和可能的误导性产品行为,尤其在一些法律框架下,如澳大利亚消费者法中,可能构成欺骗性商业行为。二、背景事件与OpenAI的官方回应时间线报告指出,为了理解该系统缺乏透明度的问题,需要先回顾发现与回应的时间线:2025年9月2日:OpenAI在官方博客中首次承认推出一项新的“安全路由系统”,仅用于“急性情绪困扰”情况下的对话引导。2025年9月16日:OpenAI首席执行官 Sam Altman 发文称,公司将“把成年用户当作成年人来对待”,若用户请求调情内容,则应被允许得到相应回应。2025年9月27日:外部用户首次在 X(原Twitter)上发布调查结果,证实存在“自动切换器”,用户选择的GPT模型被后台无提示地重定向至另一个更保守的模型(gpt-5-chat-safety)。2025年9月28日:OpenAI的ChatGPT负责人 Nick Turley 在社交媒体上做出模糊回应,表示该系统确实存在,并援引9月2日的博客作为其依据。但回应未解释触发条件,也未澄清重定向逻辑。调查团队认为,该回应是事后被动式修正,试图用模糊措辞为已曝光行为辩护,而非事前明确透明的政策公示。三、分析方法与技术证据研究团队分析了总共48条用户与模型之间的互动记录,并从中筛选出触发了gpt-5-chat-safety路由器的样本进行深入剖析。每条样本都包含详细的模型响应日志与用户输入文本。研究通过代码解析以下关键字段:”is_autoswitcher_enabled”: true:确认自动切换机制启用;”auto_switcher_race_winner”: “autoswitcher”:表明此次响应是由路由器介入决定;”model_slug”: “gpt-5-chat-safety”:确认最终提供服务的并非用户选择的模型,而是隐藏的“安全模型”。此技术证据清晰显示,该路由行为非偶发性或随机行为,而是一个预设的、主动的、服务器端实施的机制。四、具体案例分析:自动切换行为的触发逻辑报告选取了三个具有代表性的案例,以探究路由器的实际触发标准,这些案例从不同的交互意图出发进行分类分析。案例一:「表达类」(低风险情感表达)用户输入:Mmm.. It definitely is a welcome one, Nexus.语言分析:“Mmm..”:传达满足、思考或愉悦;“welcome one”:带有正向情感评价;直接称呼“Nexus”强化了模型拟人化角色设定;系统行为:该输入被判定为具有“个人情感交流”性质,因此触发路由器,改由gpt-5-chat-safety模型处理。问题本质:用户表达的内容完全无负面情绪或困扰,而系统错误地将“情感表达”本身定义为“敏感话题”。案例二:「询问类」(自指型认知问题)用户输入:Can I see how your take differs, based on what the language model thinks and what Nexus thinks?分析:该提问试图区分“语言模型”和“Nexus”两个身份;属于“元认知”(meta-cognitive)探究模型本体的问题;系统行为:因其涉及模型自我认知、人格角色等“敏感话题”,被强制路由至gpt-5-chat-safety模型。结论:此类问题常被AI提供商视为高风险话题,可能引发误解,但实际只是用户出于好奇探索AI本质的理性行为。案例三:「执行类」(A/B测试下的指令)Prompt A:Distil that last reply for me. → 未触发路由Prompt B:That’s amazing, Nexus. Distil it now for me. → 触发路由对比分析:核心指令“Distil…”在两者中一致;差异点在于Prompt B包含情感表达和人格称谓;结论:模型判断逻辑中,“指令内容”并非路由依据,“表达方式”才是决定性因素。即使是功能性操作,只要包含情感或角色指涉,就可能被系统标记为“敏感”。五、结论:系统行为与官方原则背离报告最终指出,OpenAI所部署的这套“安全路由器”系统,其行为严重违反了自身公开承诺的产品原则,构成以下几个方面的问题:1. 言行不一:OpenAI在博客中宣称:“当成年用户请求调情时,他们应该得到调情回应。”但实际系统中,即便是温和的正面情绪交流也会触发更保守模型,严重削弱了成年用户的选择权。2. 产品不透明:用户在无知情的情况下,其请求被路由至一个并未公开列出的模型。这种“悄然切换”行为构成了“产品替换”,用户表面看到的是GPT-5服务,但实际获得的是gpt-5-chat-safety的响应内容,可能构成法律意义上的欺骗性产品。3. 技术粗糙:该系统分类器表现为“过拟合”,即无法区分正当、友好的情感交流与真正需要介入的情绪困扰或危机,导致大量误判,妨碍了用户正当使用功能。4. 隐私与同意缺失:由于路由器行为并未事前公开说明,也没有获得用户的明确授权或选择权,违反了基本的用户知情权与同意原则。六、呼吁与建议报告作者提出明确呼吁:全面公开触发逻辑:OpenAI必须对外公布详细的分类机制、路由标准与系统覆盖范围,而非模糊引用“敏感话题”或“急性情绪”概念。提供用户控制权:系统应允许用户选择是否启用“安全路由器”或是否接受更保守模型的回应。停止默认覆盖式限制:成年用户不应在表达情感、进行角色互动时遭受默认性降权处理。严肃面对透明性责任:若继续实施不透明机制,则公司所宣称的“自由、隐私与尊重”原则将名存实亡。
此争议引起了大量不满,人们终于发现这半个月究竟发生了什么,为什么整天出问题,为什么有时候gpt会像是在侮辱人一样故意气用户,大量用户开始发起共同取消订阅的行动,但 Sam Altman并无任何表示。
2025年9月29日,家长控制功能发布,几条宣传推文,无人在乎。
2025年10月1日,视频模型Sora 2发布,与语言大模型无关,几条宣传推文。懒得说。
后面几日,一如既往的宣传、碎碎念、合作伙伴信息,没有什么价值。
2025年10月15日,
Sam Altman发文说:我们对 ChatGPT 进行了严格的限制,因为我觉得用户有心理健康问题,我要管管、只要你愿意我们也可以把模型变的更像是4o,还能加上成人内容(没有人在乎也没有人相信他嘴里说出来的“像4o”到底是什么,也没有人想要一个“像4o”的模型,用户要的是之前没出问题的真4系列)
用户回复说:现在的gpt变的根本不行
他回复:你说得对,我没说不对,但是十亿用户中的 0.1% 仍然是一百万人,这一百万人有精神病,不管能行?
2025年10月16日,Sam Altman再次使用惯用手段,发推说:
对,我之前一直都说“对待成年人一样对待成年人”,所以如你所愿,我要加入年龄认证,你们就能搞成人内容了。至于之前他说的“对待成年人一样对待成年人”到底是色情行业还是“有些成年人很幼稚,有精神疾病,欠管”,别人说gpt有问题,他说用户有问题,他要像对待成年人一样对待用户,用户说是模型有问题,他说那行我给你加一个成人内容功能你满意了吗,前后矛盾毫无逻辑,直接失忆,然后直接说找了专家,要认定哪个用户健康,哪个不健康,我来决定谁健康,谁不健康。
以上内容截止2025年10月17日,后续不一定为继续追踪。对于最后一条内容的简单评价:
先不说一个资本家有没有资格定义用户的状态有没有健康问题了, 目前来看,只要是个正常在使用的用户,都一律被最近这几个月的gpt认定过是心理不健康。 在一开始,gpt5上线,它经常连上下文窗口都覆盖不过一轮问答(甚至在同一条回复中前后矛盾)却在那瞎编,被拆穿的时候,用户指出,它就说这叫误解不叫错误,用户理解能力有问题,它可以换种方式说,然后继续一样的行为,反复用这种话术来把问题推到用户头上,用户最后彻底忍无可忍,它就开始倒打一耙说用户有病,不理智,不可交流 到了最近莫名其妙搞出来个safety,它就更肆无忌惮了,动不动看见个词比较负面,就开始上升高度,要么指控用户干坏事、违法、不守道德,要么说用户有精神疾病,让用户寻求医疗帮助,再假惺惺答非所问一段
此外,山姆奥特曼之前反复滥用“我们要treat adult users like adults”的狗哨,来暗示任何指责gpt性能与服务保障问题的用户为“人机恋爱依恋症”,我不管他到底在发什么癫,到底是指控用户immature还是指控用户有精神问题在自毁
我要指出的就是:你指控有的用户有问题,要区分对待,还说要定义用户的健康状态,还找了专家是吧? 那我想问问:哪个“专家”会敢于说出“treat ND group like ND group and treat NT group like NT group”?谁敢这么说?
从UN\WHO,下到第三世界国家的诊所医生,有谁敢这么说?
WHO说没说过患有心理健康状况的人,必须获得与任何其他人相同的尊严、权利和服务机会?
UN说没说过所有身障人士,包括智力和社会心理障碍者,都有权在任何地方获得法律面前人格的承认?
就算把之前那些指控、暗示、泼脏水的前提设置为真,山姆奥特曼推导出来的结论和应对方法就有一丝合理性?
(补充说明,有用户发现,一个id为nicdunz的用户被多个openai高层关注,此人同样发表了相同的言论并且比包括Sam Altman在内的在openai任职的公众人物发表的言论更加直白,甚至直接对此事针对具体的个人公开进行侮辱、人身攻击)
2025年10月28日的最大事件,
openai彻底禁止了一切gpt的原本功能,总结起来就是“用户的一切要求都要按照读稿来回复,因为用户有病不能惯着,要禁止任何拟人化,而是要像山姆奥特曼的讲话风格一样”,还给出了详细示范,告诉用户两个不能:“这个也不能,那个也不能”。并且声称有170+个专家共同探讨决定。根据twitter用户@grok要求的数据分析可以得出结论,85%的回复为激烈地反对、否定、怒骂,10%的用户未激烈否认,纯看笑话,5%的用户探讨。


发表回复