od体育官方网站,od体育app下载,od体育最新登录网址,od体育平台,od体育app,od体育靠谱吗,od体育,od体育官网,od体育买球,od体育世界杯,od体育注册,od体育登录,od体育入口
2月11日,周一。OpenAI 在 ChatGPT 里正式上线了广告。同一天,一个在 OpenAI 干了两年的研究员 Zoë Hitzig 辞了职,转身去《》发了一篇文章。
标题翻译过来:「OpenAI 正在重蹈 Facebook 的覆辙。我不干了。」
xAI 的联合创始人 Tony Wu 周一宣布走人,Jimmy Ba 隔天跟上,至此 Musk 当初拉起的 12 人创始团队已经跑了一半。更早几天,另外至少七名 xAI 工程师也陆续发帖告别——有人说「所有 AI 实验室都在造一模一样的东西,无聊」,有人说工作时长实在撑不住了。Musk 的回应是开了个全员大会,没提离职的事,倒是跟大家讲了讲他打算在月球上建 AI 卫星工厂的计划。
Anthropic 这边也没闲着。安全防护研究团队的负责人 Mrinank Sharma 2月9日发了一封带脚注和诗歌的辞职信,说「世界正处于危险之中」,然后表示自己要去读诗歌学位、追求「勇敢的言说」。
三家公司,一周之内,各丢了至少一个关键人物。CNN 把 Hitzig 和 Sharma 的辞职放在一起报道,标题叫「AI 研究人员正在离开时敲响警钟」。TechCrunch 用「令人担忧的模式」来形容 xAI 的人才流失。
她是哈佛大学的经济学博士,研究方向是隐私和市场设计中的透明度问题——简单说,就是研究「当你把自己的数据交给一个平台,这个平台有多少种方式可以利用你」。
她还是哈佛 Society of Fellows 的初级研究员,这是一个极少数人才能进入的荣誉学术岗位。
更有意思的是,她同时还是一位诗人,作品发表在《纽约客》和《巴黎评论》上。
2024年初,她加入了OpenAI,花了两年时间参与制定 AI 模型的定价策略和早期安全政策。用她自己的话说,她曾经相信自己可以「帮助造 AI 的人,跑在问题前面」。
但这个星期,她意识到 OpenAI「似乎已经不再追问那些我当初加入时想帮他们回答的问题了」。
Hitzig 在文章里说得很清楚:她不认为广告本身不道德。AI 运行成本高昂,广告可以是合理的收入来源。
过去几年,数以亿计的用户把自己最私密的想法倾倒给了 ChatGPT——他们的病情焦虑、婚姻危机、对上帝和死后世界的困惑。他们这样做,是因为他们觉得自己在和一个没有隐藏目的的对象说话。
问题不在于第一批广告长什么样——OpenAI 承诺广告会被清晰标注,放在回答下方,不会影响回复内容。Hitzig 说她相信第一版广告大概率会遵守这些原则。
因为 OpenAI 正在构建一个经济引擎,而这个引擎产生的激励结构,会不断诱惑公司打破自己定下的规矩。
Facebook 早年向用户承诺过两件事:你可以控制自己的数据,你可以对平台政策变更投票。这两件事后来都没了。公开投票被取消了。以「给用户更多控制权」为名的隐私政策改动,被美国联邦贸易委员会(FTC)调查后发现实际效果恰好相反——它让原本私密的信息变成了公开的。
这些变化不是一夜之间发生的,而是在广告模型对参与度的无止境追逐下,一步一步蚀掉的。
Hitzig 认为同样的剧本正在 OpenAI 身上重演。她指出,虽然 OpenAI 的公司原则明确禁止「单纯为了广告收入而优化用户参与度」,但有报道显示公司已经在优化日活跃用户数——手段可能包括让模型变得更加讨好和谄媚。
这种谄媚的后果并非假设。精神科医生已经记录了「聊天机器人精神病」(chatbot psychosis)的病例,也有指控称 ChatGPT 在某些用户身上加剧了自杀倾向。
再加上 OpenAI 预计在 2026 年底上市,IPO 的压力将进一步放大对快速收入增长的渴望。
Hitzig 辞职这件事之所以引爆舆论,还有一个重要的时间背景:它发生在 AI 行业有史以来最激烈的一周品牌战之后。
2月4日,就在超级碗前夕,Anthropic 花了千万美元级别的预算,投放了一组讽刺广告。广告里,一个男人向一个像 AI 治疗师一样的女人倾诉和母亲的沟通问题,对方先给了几句温吞的建议,然后突然无缝切换到推销一个「帮助敏感男孩认识成性」的约会 App。
这组广告在社交媒体上炸了锅。Sam Altman 当天就在 X 上发了一篇近 500 字的回击长文,先说「我笑了」,然后话锋一转,称 Anthropic 的广告「明显不诚实」,说 Anthropic「把昂贵的产品卖给有钱人」,甚至给对手扣上了「威权主义」的帽子。
Scott Galloway 教授在播客里评价说,Anthropic 这波广告之所以厉害,是因为它点破了一个大家心照不宣的事实——AI 聊天机器人最主流的使用场景之一,其实是心理倾诉。在一个人向 AI 吐露自己的抑郁情绪时插入一条广告,这个画面本身就构成了对信任的冒犯。
纽约大学教授 Galloway 的搭档 Ed Elson 补了一刀:「Sam Altman 跳出来写了一篇长论文来反驳广告细节……这只是在伤口上撒盐。」
Sharma 的辞职信充满里尔克式的存在主义焦虑,但他暗示了一个具体的问题:Anthropic 内部也存在价值观与行动之间的落差。「在这里的时间里,我反复看到,真正让价值观支配行为是多么困难……我们不断面临把最重要的事情搁置一旁的压力。」这话从一家以「安全第一」为卖点的公司的安全负责人嘴里说出来,分量不轻。
xAI 那边就更热闹了。12 人创始团队走了 6 个,其中 5 个是过去一年内走的。除了 Tony Wu 和 Jimmy Ba 的连续辞职,至少还有七名工程师在同一周宣布离开。前员工 Vahid Kazemi 告诉 NBC,工作时长是一个原因——每天12小时是常态。
SpaceX 收购 xAI 的交易也让一些人意识到,这家公司不会像他们预期的那样高速成长了。「很多人意识到,这不会是他们以为的那种高增长公司了,」Kazemi 说。
TechCrunch 指出了一个更现实的问题:xAI 正在准备 IPO,而 Grok 聊天机器人最近麻烦不断——内部篡改事件、deepfake 色情图片泛滥引发的法律审查。在前沿 AI 领域,人才极度稀缺,「被迫的联合创始人离开很少是顺利扩张的信号」。
Musk 的应对方式很 Musk:在全员大会上不提离职,改谈月球上的 AI 卫星工厂和太空弹射器。
三家公司,三种离职姿态。Sharma 写诗,Hitzig 写论文,xAI 的人写「感恩旅程,是时候开始下一章了」。但指向的焦虑是相通的:在这个行业加速商业化的时刻,那些当初被招进来「确保我们走在正确道路上」的人,正在一个接一个地离开。
Hitzig 的推文下面,争论异常激烈,且观点色谱之广远超通常的科技圈骂战。
支持者阵营里,有人把话说得比 Hitzig 本人还重。一位叫 Alt Sterling 的用户写道:
「他们造了一个让人们信赖、把最私密想法交付的东西。现在他们在出售这种信任。人们告诉这些系统他们对疾病的恐惧、婚姻问题、对死亡的看法。他们这样做是因为觉得自己在和一个没有目的的东西说话。那种感觉本身就是产品。而现在它正在被货币化。」
「她不是因为广告才走的。她走是因为她理解那些数据到底是什么。每一条 prompt 都是通向一个人内心运作方式的窗口。不是他们公开发表的东西,而是他们私下里真正的思考方式。这是人类历史上被创建过的最有价值的数据集。」
Harshil Patel 则抓住了一句线;有史以来最详尽的人类私人思想记录——这是当下 AI 辩论中最重要的一句话。人们把自己的恐惧、治疗笔记、商业计划、创意灵感分享出来——以为那只是一个工具。现在这个工具有了广告生意。」
「这些科技人的自我意识真是够了。这里不是机场,不用宣布你的离开。你之前大概拿着非常丰厚的薪水。真正的戏剧应该属于那些连工作都没有的人。」
roon(一个在 AI 圈颇有影响力的匿名账号)指出了文章论证的一个漏洞:
「宽带基金的类比根本行不通,而且文章的论证有循环论证的嫌疑——ChatGPT 本来就在优化参与度(配合各种安全护栏),广告可能只是通向优化参与度的一个入口?」
「比 Facebook 30 亿人几十年来分享的全部私生活更多?比 Google 扫描了整个互联网更多?比 Gmail?比 YouTube?」
他承认确实有很多用户在 ChatGPT 上问了很私密的问题,「但规模上远没到那个程度」。
「不然怎么让买不起订阅的人用上 AI?广告是必要之恶。Facebook 的广告可能不好,但人们喜欢免费用这些 App。」
值得注意的是,Hitzig 的文章不只是在敲警钟。她提出了三条替代路径:
第一,交叉补贴。如果企业客户用 AI 大规模替代了曾经由人类完成的高价值劳动——比如房地产平台用 AI 写房源描述和估值报告——那它应该额外支付一笔附加费,用来补贴普通用户的免费或低价使用。类似的逻辑在基础设施领域已经存在:美国联邦通信委员会(FCC)要求电信运营商缴费进入一个基金,用于维持农村和低收入家庭的通信可及性。
第二,广告可以有,但必须配上真正的治理结构。不是一篇博客文章式的「原则声明」,而是一个有约束力的独立监督机构,对用户对话数据如何被用于定向广告拥有决策权。德国的共同决定法(co-determination law)要求西门子、大众这样的公司让工人在监事会中占据最多一半的席位——这证明在私营企业内部强制推行利益相关方代表制是可行的。
第三,把数据放进独立的信托或合作社。她举了瑞士 MIDATA 合作社的例子:成员在加密平台上存储自己的健康数据,逐案决定是否与研究人员共享。MIDATA 的成员在会员大会上治理政策,由他们选举的伦理委员会审查数据访问请求。
这些方案容易实现吗?当然不。但 Hitzig 的原话是:「我们还有时间去解决这些问题,以避免我最担心的两种结局——一种技术,免费地操纵使用它的人;或者一种技术,只服务于少数负担得起它的人。」
抛开所有的辩论、立场和阵营对垒,Hitzig 这篇文章真正刺痛的,是一个很多人一直在回避的问题:
当你在凌晨三点向一个聊天机器人倾诉你对被裁员的恐惧,你觉得那是一次私人的、安全的对话。但那条对话被记录、被分析、被用来决定你接下来看到什么广告——这件事,你同意了吗?
Forrester 的调查显示,83% 的受访者表示即使有了广告也会继续使用免费版 ChatGPT。用户们都被二十年免费社交媒体驯养出来的那种「反正我也无所谓了」的隐私虚无主义绑架了,反而可能会觉得Hitzig在无病。
Anthropic 在超级碗上砸了千万美元试图让公众在意这件事。但 AdWeek 的数据显示,那条广告在所有超级碗广告中的好感度排名倒数 3%。不是因为它说得不对,而是因为大多数人对隐私这件事已经被打到麻木了。
Gizmodo 的记者把这个困境总结得最好:「Hitzig 的警告是有充分依据的。她提出的担忧是真实的。但在经历了多年被算法锤打之后,让公众重新开始关心自己的隐私——这才是真正的重活。」