Leopold Aschenbrenner 是一位 00 后,出生于德国。15 岁时,他进入哥伦比亚大学学习,19 岁时以优异成绩毕业,获得数学、统计学和经济学三个学位,并成为该校的优秀毕业生。GPA 高且成绩优异,他毕业后的职业生涯也颇具传奇色彩。
Aschenbrenner 在牛津大学的全球优先事项研究所从事长期经济增长研究,并参与有效利他主义运动。他曾在 FTX Future Fund 工作,专注于 AI 安全和全球风险管理。2023 年,他加入 OpenAI,成为「超级对齐」团队的一员,致力于确保未来的超级智能 AI 与人类价值观一致。
2024 年 4 月,Aschenbrenner 因涉嫌泄露公司内部信息被 OpenAI 解雇。他在任职期间发现 OpenAI 可能将美国 AI 机密泄露给外国对手的安全漏洞,并将这些担忧写成备忘录分享给董事会成员。然而,由于当时 OpenAI 内部的混乱,他最终被解雇。

被解雇后,Aschenbrenner 并未消沉。两个月后,他发布了一篇长达 165 页的分析文章《Situational Awareness: The Decade Ahead》,在硅谷引发广泛关注。这篇文章阐述了他对 AI 发展的看法,强调了「全世界正处于人类历史上最大的变革之中,而我们还在昏昏欲睡」的观点。

文章链接:https://situational-awareness.ai/
他在文中详细分析了 AI 的快速发展,提出了「数量级」(OOM)的概念,即给定指标的十倍增长。根据 Aschenbrenner 的分析,AI 能力的提升主要得益于三个因素:扩展定律、算法创新和海量数据集的使用。这些因素的增长接近指数级,从而推动了 AI 系统性能的显著提升。

Aschenbrenner 还强调了到 2027 年实现通用人工智能(AGI)的可能路径。他认为,通过持续投入算力和提升算法效率,我们或许能够让 AI 系统在众多领域上与人类智力匹敌,甚至超越人类。这种技术的进步将带来深远的影响,不仅可以提高生产力和效率,还将面临失业、AI 道德等重要问题。

随后,Aschenbrenner 转向投资领域,创建了名为 Situational Awareness 的对冲基金。尽管他没有专业投资经验,但他的投资策略简单粗暴,主要押注那些可能从 AI 技术发展中受益的行业,如半导体、基础设施和电力公司,以及一些新兴 AI 公司,如 Anthropic,同时做空那些可能被淘汰的行业。
这一策略吸引了大量投资者,基金规模迅速突破 15 亿美元。背后不乏大佬支持,包括支付公司 Stripe 的创始人 Patrick 和 John Collison 两兄弟,Meta 的 AI 团队领导 Daniel Gross 和 Nat Friedman,以及著名投资者 Graham Duncan。此外,Aschenbrenner 还招聘了曾在彼得・蒂尔宏观对冲基金工作过的 Carl Shulman,作为该基金的研究总监。
许多投资者对该基金表现出极大的信任,愿意将资金锁定数年不动。据《华尔街日报》报道,该基金在今年上半年实现了 47% 的回报率,远超同期标普 500 指数的 6% 和技术对冲基金指数的 7%,堪称市场中的一匹黑马。

Aschenbrenner 在接受播客主持人 Dwarkesh Patel 采访时曾表示:「我们将比纽约那些管理资金的人拥有更多的情境意识,肯定会在投资上做得非常出色。」
最近,这段离谱的经历让 Leopold Aschenbrenner 在社交媒体上成为热门话题。《华尔街日报》等媒体报道了他迅速蹿升的故事。这样的经历和成就,的确让人感受到了一种跌宕起伏的刺激感。


那么,AGI 会如 Aschenbrenner 所说的在 2027 年到来吗?或许通过他的投资收益,我们可以间接地看到些端倪。
相关链接: