Anthropic要培养一批AI安全研究新秀了!
从2025年3月开始,Anthropic将为10-15名优秀的工程师和研究人员提供资金、算力和研究指导,助力他们全职投入前沿AI安全研究。
那么,这个为期6个月的「类人研究员计划」究竟有何魅力?
丰厚待遇:每周2100美元还不够,再来1万美元算力预算
Anthropic可真是下了血本!
参与计划的研究员每周能拿到2100美元的津贴,这还不算完。每个月,他们还能享受约1万美元的计算和研究成本预算。有了这笔经费,研究员们可以尽情畅游AI安全的海洋,无需担心算力不足的问题。
除了物质上的支持,Anthropic还为每位研究员安排了一对一的导师指导。这些导师可都是AI安全领域的大牛,比如Jan Leike、John Schulman等。能得到这样的指导,简直就是AI研究界的「学徒制」啊!
对了,如果你在旧金山湾区或伦敦,还能使用共享工作空间。虽然不是直接在Anthropic办公室办公,但也能感受到浓厚的研究氛围。
研究方向:从对抗性鲁棒性到可解释性
那么,这些研究员会研究些什么呢?Anthropic给出了几个重点方向:
-
对抗性鲁棒性与AI控制:确保AI系统在陌生或敌对场景中仍然安全可控。
-
可扩展监督:即使AI智能超越人类,也要保证它们诚实可靠。
-
错位对齐的模型生物:通过创建「模型生物」来研究AI系统可能出现的对齐失败。
-
可解释性:深入了解大语言模型的内部运作,为安全措施提供支持。
这些方向可都是AI安全研究的前沿阵地。参与计划的研究员有机会在这些领域做出突破性贡献。
严格筛选:技术实力是关键
Anthropic对研究员的要求可不低。
首先,你得有强大的计算机科学或机器学习背景,Python编程能力要过硬。其次,你要能在美国或英国工作,最好能在伯克利或伦敦全职工作。
最重要的是,你要对减少先进AI系统带来的灾难性风险充满热情。Anthropic希望找到那些能在快节奏、协作环境中茁壮成长的人才。
虽然Anthropic不保证会向所有研究员提供全职工作机会,但表现出色的研究员很可能会获得留用机会。毕竟,不少Anthropic的员工最初就是以外部合作者的身份加入的。
报名方式
那还等什么?赶紧准备申请材料吧!
网址:
https://alignment.anthropic.com/2024/anthropic-fellows-program
截止日期是2025年1月20日。
项目负责人Jan Leike 说到:
这是一个难得的机会,让你能与顶尖研究员一起,共同解决世界上最紧迫的问题之一。
(文:AGI Hunt)