《纽约客》18个月调查后,我们该如何看待Sam Altman与OpenAI?

当《纽约客》用18个月时间、100多位知情人访谈和从未公开的数百页内部文件,抛出那个尖锐问题——Sam Altman可以被信任吗?——整个AI圈再次被震动。

你我每天使用的ChatGPT、o1系列模型,或者通过API调用的OpenAI服务,背后这家公司的掌舵人,是否真的如营销叙事里那样,是AGI时代人类福祉的可靠守护者?这个问题听起来遥远,却直接关系到我们每天依赖的工具:它的迭代方向是否可靠?安全边界是否只是说说而已?长期来看,技术能力与公司治理、创始人风格之间,到底该如何切割?

作为普通中国AI用户,从小白到进阶开发者,我们不必卷入硅谷的宫斗,但必须学会理性评估产品可信度。别把营销话术当真相,技术表现与个人品格、公司优先级是两回事。这篇基于《纽约客》深度调查的文章,不是为了猎奇,而是帮我们建立一个更清醒的使用框架。

事件引爆:《纽约客》18个月调查说了什么?

2026年4月6日,《纽约客》杂志刊发长文《Sam Altman May Control Our Future—Can He Be Trusted?》,作者是知名调查记者Ronan Farrow和Andrew Marantz。两人耗时18个月,采访了超过100位与Altman有直接接触的人士,包括现任与前任OpenAI董事会成员、员工、投资者、竞争对手,以及Altman本人(多次对话)。

他们还审阅了数百页内部文件,其中最引人注目的,是前OpenAI首席科学家Ilya Sutskever在2023年秋天秘密编制的约70页备忘录。该备忘录包含Slack消息、HR记录、手机偷拍的截图等,通过“消失消息”发送给部分董事会成员,以规避内部监控。备忘录开头列出“Sam exhibits a consistent pattern of...”,第一条就是“Lying”(撒谎)。 [[1]](https://www.smh.com.au/technology/memos-and-confidants-allege-pattern-of-dishonesty-from-openai-boss-20260407-p5zls1.html)

另一份重要材料是Anthropic CEO Dario Amodei在OpenAI时期积累的200多页私人笔记。这些文件共同指向一个核心争议:Altman在公开承诺与内部行动之间存在系统性不一致,尤其在AGI安全议题上。

调查没有发现“确凿犯罪证据”,但描绘了一种“信任崩解”的图景。OpenAI从2015年以非营利组织形式创立,初心是“确保AGI造福全人类而非被少数人垄断”,到后来逐步转向 capped-profit 再到完全商业实体,安全承诺在资本压力下被逐步弱化。2023年11月的董事会罢免与迅速复职事件,成为这一张力的集中爆发。

Altman本人回应称,这些指控是行业快速变化下的“适应性行为”,而非蓄意欺骗。他在调查中多次强调自己是“冲突规避者”,并表示无法改变个性。

客观来看,这篇报道提供了大量一手材料,但任何单一来源都需要多方交叉验证。我们关注的重点,不是道德审判,而是这些争议对产品使用者的实际意义。

争议拆解:Sam Altman被指控的具体行为

调查中最受关注的,是Altman被指的“consistent pattern of lying”——并非单一事件,而是“小事积累”形成的模式。

1. 对安全承诺的言行不一

OpenAI公开强调AGI安全是“第一优先级”。2023年7月,公司宣布成立Superalignment团队,由Ilya Sutskever和Jan Leike共同领导,承诺在接下来四年内,将已获取算力的20% dedicated 用于解决超级智能对齐问题。这一承诺当时被视为公司对安全投入的强信号。

然而,据团队内部人士和调查文件,实际分配的算力远低于此,更多是1-2%,且使用的是老旧硬件,而主力算力优先服务于产品开发和商业项目。团队最终在2024年解散,核心成员相继离职。Leike等人在公开信中提到,安全文化在产品与营收压力下被边缘化。 [[2]](https://fortune.com/2024/05/21/openai-superalignment-20-compute-commitment-never-fulfilled-sutskever-leike-altman-brockman-murati/)

备忘录中记录了多个具体案例:Altman向董事会保证某些GPT-4功能已通过安全审查,但实际并未;隐瞒印度地区ChatGPT的安全审查违规;对GPT-4 Turbo的安全审批流程给出与法务部门不一致的说法。这些被视为对董事会和高层的信息隐瞒或扭曲。

2. 管理风格中的操纵与不一致

调查指出,Altman习惯给出矛盾说法、对同一职位向多人许诺、模糊处理安全要求等行为。这些“小事”在高强度环境中积累,侵蚀了内部信任。Sutskever等人在备忘录中认为,这种模式让Altman不适合“手握按钮”,尤其当AGI风险临近时。

在2023年董事会罢免后的一次通话中,董事会要求Altman承认欺骗模式,他回应“我无法改变我的个性”。一位董事会成员解读为:他承认有撒谎习惯,且不打算停止。

3. 外部关系中的利益纠葛

OpenAI早期曾讨论通过“竞标”方式,让包括中俄在内的世界大国为AI技术竞争,最终因员工强烈反对而放弃。调查还提及Altman与海湾国家资本的深度接触、游说监管政策,以及在公开支持Anthropic拒绝某些军用合作的同时,私下快速推进OpenAI与五角大楼的合作。

2023年董事会事件后,Altman迅速组织支持者,包括员工公开信和投资者压力,最终在几天内复职,新董事会构成也更多体现其影响力。

Altman的辩护是:这些是高速迭代行业中的正常商业适应,而非“long con”(长期骗局)。他强调OpenAI仍在推进安全研究,公司产品技术能力由庞大工程师团队驱动,而非一人决定。快速变化的环境需要灵活决策,严格的非营利结构可能反而阻碍进步。

这些争议呈现出明显的灰度:一方面是创始人的个人风格与商业现实的碰撞,另一方面是资本逐利与初始使命之间的张力。没有黑白分明的结论,但足够提醒我们,任何科技巨头的内部治理都值得持续关注。

对普通用户有何实际参考价值?OpenAI产品可信度怎么看

对大多数中国AI用户来说,核心问题不是“Altman这个人如何”,而是“我每天用的ChatGPT、o1、Sora等产品,是否还能放心使用?它的长期迭代值得依赖吗?”

技术能力仍由团队驱动,短期表现相对可靠

OpenAI的产品迭代依赖的是顶尖工程师和研究员集体成果。ChatGPT系列在自然语言理解、代码生成、复杂推理(o1系列)等方面的能力,已在实际工作中帮助无数用户提升效率。从写作辅助、编程调试,到创意 brainstorm,这些工具的实用价值是真实的。体感上,最新版本在复杂任务处理上往往更连贯、幻觉相对可控(虽未完全消除)。

但长期方向可能受公司治理和资本压力影响。OpenAI从非营利转向商业实体后,营收和融资(包括Stargate等巨额基础设施项目)成为重要考量。安全团队资源曾被边缘化的历史,提醒我们:公开承诺需要对照实际行动验证。

安全/对齐承诺需打折扣看待

历史显示,OpenAI的安全叙事多次调整。从早期“存在风险优先”到后来更强调“实用安全”和产品可用性,用户应更多关注模型的实际输出风险:幻觉、偏见、潜在滥用场景(如生成有害内容)、数据隐私等,而不是仅听营销话术。

实用框架建议

1. 多模型对比使用:不要把鸡蛋放在一个篮子里。结合GPT系列与Claude、Gemini,以及国产的Deepseek R1/V3、通义千问Qwen3、Kimi K2.5、GLM-5等,在相同任务上交叉验证输出。不同模型的偏好、准确性和风格差异,能有效降低单一来源风险。

2. 关注独立基准与社区实测:参考公开的第三方评测(如学术论文或开源社区报告),而非公司单方面宣称。留意模型在中文场景、特定领域任务(如法律、医疗辅助)上的实际表现。

3. 数据隐私与合规意识:涉及敏感信息时,优先使用本地部署或合规平台。OpenAI API有其隐私政策,但企业级或高敏感场景下需额外评估。

4. 理解公司优先级变化:OpenAI已明确是商业驱动实体,迭代速度、定价、功能开放会受市场和融资影响。中国用户在中美AI竞争背景下,更需平衡国际先进能力与本土模型的稳定性和合规优势。“用脚投票”是最直接的方式——根据实际场景选择最适合的后端。

质疑创始人不等于否定技术。OpenAI至今推出的模型仍在推动行业进步,但盲目信任任何单一公司都有风险。理性用户会把技术当作工具,而非信仰。

更广视角:AI行业信任危机的信号与启示

OpenAI的故事,是整个AI行业“资本 vs 安全”张力的缩影。从非营利初心到商业竞速,许多公司都面临类似困境。Anthropic选择相对保守的宪法AI路径,并强调更强的安全框架,但同样在寻求海湾资本、与军方合作,显示资本市场的“加速”逻辑几乎无处不在。

对用户而言,信息不对称是常态。自保之道在于:降低单一依赖,提升个人判断力。多源验证信息、关注实际表现、持续学习AI工具的底层逻辑。AI发展不可逆,我们最该关心的,是“谁在用AI、怎么用”,而非只盯着谁在掌舵。

在中国生态下,这一点尤为实用。本土模型在中文理解、成本控制、合规适配上已有显著优势,与OpenAI等国际选项形成互补。用户无需站队,只需根据具体需求灵活组合。

行动建议

无论你信不信某位创始人,多模型并行使用永远是最稳妥的方式。现在就去 api.884819.xyz 开通账号,注册流程仅需用户名+密码,新用户注册即送体验token。平台支持快速调用多款前沿模型,包括GPT系列、Claude系列、Gemini系列,以及完全免费的国产模型如Deepseek、Qwen等。没有月租、按量付费,适合从零开始测试不同后端在你实际场景中的表现与稳定性,做出最适合自己的选择。

Altman与OpenAI的故事仍在继续,而AI军备竞赛的下一站,可能很快就会体现在我们每天使用的模型迭代速度、定价策略和安全边界上。下一期,我们来聊聊2026年最值得关注的几款新模型与实际生产力对比——哪家真正把“能力”落到了用户手里,而不是停留在PPT上?欢迎持续关注,别错过。

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI新闻 #SamAltman #OpenAI #纽约客调查 #AGI安全 #多模型对比 #AI治理 #8848AI #人工智能 #Prompt工程