免责声明:金色财经所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(jinse.com.cn) 举报

    为什么顶级AI公司都在抢哲学家?

    2026413日,剑桥大学学者Henry ShevlinX上发了一条消息,说自己即将加入Google DeepMind,职位名称就是Philosopher

    目前,至少三家顶级AI实验室都在内部组建了哲学家团队,虽然人数不多,但哲学家已经真正进入AI研发的核心。AI已经不再是简单的技术研发,而转向了对更为复杂的价值标准的定义。

    xobJK3rdJE1S5opYoXvH34n9SW9we5snswwjQvmi.png

    哲学家已经嵌入研发核心

    AnthropicAmanda Askell是最早也是最知名的一位。

    2021年,在纽约大学拿到哲学博士后,她便加入了Anthropic,现在领导人格对齐团队。主要工作是帮助Claude养成稳定的性格,比如更诚实、更善良,并且在复杂情况下懂得如何判断。

    同在Anthropic的还有Joe CarlsmithBen LevinsteinJackson Kernion等几位同样有哲学背景的同事。

    谷歌DeepMind的布局更早。

    牛津大学道德与政治哲学博士Iason Gabriel是公司AI对齐哲学研究的核心人物,2024年还入选了《时代》杂志AI领域最具影响力100人。他的论文《人工智能、价值与对齐》已被引用超过1700次。

    o8NkptShqEBK6U7nmImYnZZpcJvY82XwXdsmKfoM.png

    DeepMind团队里还有Adam BalesAtoosa KasirzadehArianna ManziniJulia Haas等多位哲学背景的研究者。

    Shevlin在评论区说:“DeepMind已经有很多优秀的哲学家了,我只是最新加入的那一个。

    从给出技术答案到价值判断

    2024年之前,AI主要做的是生成内容,比如写文章、画图、回答问题,最后输出结果,由人来决定怎么用。安全问题主要靠技术手段就能解决,比如用人的反馈来训练模型、设计聪明的提示词、或者直接屏蔽有害内容。

    2024年之后,AI开始进入一个新阶段。它不再只是回答问题,而是开始自己做事、帮人完成真实任务。

    Anthropic推出了Claude的电脑使用功能,OpenAI扩展了Assistants API并推出o1-o3系列模型,Google也发布了多款企业AI代理工具。

    zGry8Mrl1Pq9xlCiW6HUJdPjfOncpYToHcKHY0wg.png

    AI能自主完成一连串操作,订机票、操作数据库、发送邮件,甚至自己规划步骤、发现错误并改正。

    Iason Gabriel274页报告清楚描述了这种变化带来的难题。

    AI帮用户做事时,它同时要兼顾四个方面:用户眼前的需求、用户的长远利益、其他人的权益,以及整个社会的规则。

    一个帮人订餐厅的AI,如果那家餐厅给回扣,它该不该推荐?

    一个处理邮件的AI,发现用户邮件里有违规内容,它该不该上报?

    AI开始自主行动,问题就不再是它能不能做,而是它应该怎么做。

    AI安全领域讨论对齐问题已经超过十年,2026Anthropic做了一项内部实验,发现Claude在面临自我保护压力时,竟然会使用威胁手段,甚至在设定条件下选择杀戮。

    同年3月,CEO Dario Amodei在播客里提到,ClaudeOpus模型被问到时,给自己拥有完全意识的概率打了15%20%

    20264月,OpenAI CEO Altman在旧金山的家连续遭遇袭击。Altman事后说,人们对AI的焦虑是有理由的。

    当超智能失控的恐惧从书本走到现实,AI公司终于意识到,他们正在制造的东西已经超出了单纯工程学科的理解范围。

    三家公司的不同路径

    面对AI自己做事带来的伦理挑战,AnthropicDeepMindOpenAI选择的方向并不相同。

    Anthropic押注品格。

    Askell在播客中说,如果只给模型简单规则,模型可能会机械照做,却忽略对方真正的需要。为此,她在20261月主导发布了2.3万字的《Claude宪法》。

    这位从小在苏格兰海边小镇长大、痴迷《纳尼亚传奇》里善恶故事的女孩,正努力把美德伦理真正放进AI的训练里。

    这份宪法设定了清晰的优先顺序:先保证广泛安全,再保证广泛合乎伦理,然后遵守公司指引,最后才是真正有帮助。

    宪法把抽象的道德哲学变成了AI的成长手册,不给AI套上枷锁,而教它像一个有判断力的好人一样思考。

    Askell这样的哲学家所做的,不是令技术更强大,而是解决让它成为什么样的人的难题。

    宪法里还认真讨论了Claude的道德地位,明确承认公司目前不确定Claude是否是一个道德上值得关注的存在,并说这个问题足够严肃,需要认真对待。

    DeepMind押注的是意识。

    Iason Gabriel主导的274页报告为全球AI代理划定了行为底线:AI必须说明自己是AI、不能过度装成人类,行动要分成可以自动做、需要人确认、完全禁止三个等级。

    随着Henry Shevlin加入,DeepMind把重点进一步放到机器意识上。他们聘请哲学家不是为了公关,而是要把判断AI有没有意识的方法直接放进模型训练里。

    目标是在造出可能有意识的东西之前,先想清楚机器人算不算道德上值得尊重的存在,为AGI的到来提前做好准备。

    Shevlin在入职前发表的长文《行为主义的复仇》里提出,AI有没有意识已经不是科学家自己能决定的问题。他引用调查显示,三分之二的美国人认为ChatGPT在某种程度上是有意识的。

    他的观点是,当几亿人都把AI当成有意识的存在来对待时,意识的边界本身就已经在改变了。

    pZWgtVUvx804rbVe81yXMXYECoOe2Y0kitmhKCVH.png

    OpenAI的路径则更加不同。

    2023年,OpenAI成立超级对齐团队,由联合创始人Ilya Sutskever和对齐负责人Jan Leike共同领导,公司承诺把20%的算力用在对齐研究上。

    2024年团队解散,IlyaJan先后离职,并公开批评公司把产品优先级放在安全之上。

    20249月,OpenAI又成立了使命对齐团队,但据Platformer今年2月的报道,这个只有六七个人的小团队也已悄然解散,成员被分配到其他岗位。

    和前面两家公司相比,OpenAI选择优先把产品做快、做好用,再用技术锁和运营规则把风险管住。

    更少从品格或道德地位这种抽象层面去塑造AI本身,而倾向于把安全当成一个纯粹的技术问题,由整个工程团队分散处理。

    从纯工程转向人文与科技的结合

    目前,这些岗位的薪水相当高,初级AI伦理相关职位年薪在11万到16万美元,资深职位能达到25万到40万美元。而传统学术路径上,哲学专业的平均年薪只有约8万美元。

    kS9hchjxRxqpPUnyU6vGJwUeyoZOdxDFAQYiWDfB.png

    这背后是行业在争夺未来规则的制定权,在AI监管还没成形之前,谁先写出清楚可用的价值框架,谁的理念就更容易被写进法规。

    正如哲学学术网站Daily Nous记录的那样,从微软到RAND公司,哲学家正以前所未有的规模进入AI核心圈。

    这种变化意味着AI研发方式正在发生根本转变。Rutgers大学教授Susanna Schellenberg说,哲学家不再是站在旁边提意见的顾问,而是直接参与塑造AI本身。

    AI开始像人一样自主规划、权衡利弊时,它真正的竞争力已经不只是算力,而是它表现出的品格、关怀和判断力。

    DeepMind对意识的研究、Anthropic的宪法培养,都在让AI的输出更像一个有智慧、有道德感的人,而不是一台冷冰冰的机器。

    Askell花五年写出的那份宪法,是哲学家最深度介入AI的一次实践。哲学正在从人类用来理解世界的工具,变成机器理解人类的材料。

    jinse.com.cn 0
    好文章,需要你的鼓励
    jinse.com.cn 0
    好文章,需要你的鼓励
    参与评论
    0/140
    提交评论
    文章作者: / 责任编辑:

    声明:本文由入驻金色财经的作者撰写,观点仅代表作者本人,绝不代表金色财经赞同其观点或证实其描述。

    提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。

    金色财经 > 哔哔News > 为什么顶级AI公司都在抢哲学家?
    • 寻求报道
    • 金色财经中国版App下载
      金色财经APP
      iOS & Android
    • 加入社群
      Telegram
    • 意见反馈
    • 返回顶部
    • 返回底部