重磅!Anthropic启动AI安全研究员计划,每月1万美元算力预算等你来

Anthropic要培养一批AI安全研究新秀了!

从2025年3月开始,Anthropic将为10-15名优秀的工程师和研究人员提供资金、算力和研究指导,助力他们全职投入前沿AI安全研究。

那么,这个为期6个月的「类人研究员计划」究竟有何魅力?

丰厚待遇:每周2100美元还不够,再来1万美元算力预算

Anthropic可真是下了血本!

参与计划的研究员每周能拿到2100美元的津贴,这还不算完。每个月,他们还能享受约1万美元的计算和研究成本预算。有了这笔经费,研究员们可以尽情畅游AI安全的海洋,无需担心算力不足的问题。

除了物质上的支持,Anthropic还为每位研究员安排了一对一的导师指导。这些导师可都是AI安全领域的大牛,比如Jan Leike、John Schulman等。能得到这样的指导,简直就是AI研究界的「学徒制」啊!

对了,如果你在旧金山湾区或伦敦,还能使用共享工作空间。虽然不是直接在Anthropic办公室办公,但也能感受到浓厚的研究氛围。

研究方向:从对抗性鲁棒性到可解释性

那么,这些研究员会研究些什么呢?Anthropic给出了几个重点方向:

  • 对抗性鲁棒性与AI控制:确保AI系统在陌生或敌对场景中仍然安全可控。

  • 可扩展监督:即使AI智能超越人类,也要保证它们诚实可靠。

  • 错位对齐的模型生物:通过创建「模型生物」来研究AI系统可能出现的对齐失败。

  • 可解释性:深入了解大语言模型的内部运作,为安全措施提供支持。

这些方向可都是AI安全研究的前沿阵地。参与计划的研究员有机会在这些领域做出突破性贡献。

严格筛选:技术实力是关键

Anthropic对研究员的要求可不低。

首先,你得有强大的计算机科学或机器学习背景,Python编程能力要过硬。其次,你要能在美国或英国工作,最好能在伯克利或伦敦全职工作。

最重要的是,你要对减少先进AI系统带来的灾难性风险充满热情。Anthropic希望找到那些能在快节奏、协作环境中茁壮成长的人才。

虽然Anthropic不保证会向所有研究员提供全职工作机会,但表现出色的研究员很可能会获得留用机会。毕竟,不少Anthropic的员工最初就是以外部合作者的身份加入的。

报名方式

那还等什么?赶紧准备申请材料吧!

网址:

https://alignment.anthropic.com/2024/anthropic-fellows-program

截止日期是2025年1月20日。

项目负责人Jan Leike 说到:

这是一个难得的机会,让你能与顶尖研究员一起,共同解决世界上最紧迫的问题之一。

(文:AGI Hunt)

欢迎分享

发表评论