2025-11-17

我们特别善于造词的 Karpathy 老师又写了一篇文章,提出了一个有意思的分类。

他说此前的计算机技术(他称为 Software 1.0)能完成的任务的特点是 specifiable,也就是说,你能用清晰的语言描述步骤。

而有了强化学习之后的计算机技术(他称为 Software 2.0)能完成的任务的特点是 verifiable,也就是说,如果一项任务做的好不好是可验证的,那么它就可以被强化学习进行优化。

这一点当然也不是全新的洞见。Jason Wei 今年夏天写过一篇文章(他称为 verifier’s law),讨论验证不对称性在 AI 领域的关键作用。生活里大量的任务都处在这个「解决起来不容易但验证是否解决很容易」的不对称空间里(不妨把这理解为 P/NP 不对称性的一个推广),比如证明一个定理比阅读并检查一个证明是否正确困难,画一幅有特定形状的杯子的画比检查一副画里是否有这样一个杯子困难。强化学习意味着训练人工智能解决某个任务的难易程度与该任务的可验证性成正比。可验证性越高,就越容易在新范式下实现自动化。如果任务不可验证,则只能寄希望于神经网络的泛化能力,或者通过模仿等较弱的手段来实现。

这个思考框架简单且诱人,问题是它在实践中常常有些模糊。比如写(日常意义上的)文章算不算 verifiable task?理论上说,它不像编程,是一种更不客观更软性的创造性工作。但实际上,因为对除了纯文学创作以外的大多数文章类别,训练人工智能分辨文章好坏都没那么困难,所以实际上AI 在写日常文章这件事也算是基本取代人类了。

一件事情 verifiable 通常是因为它可以沙盒化,也就是在一个可控可还原的环境里反复试验。如果想在这一波 AI 浪潮里找到价值,这是个很好的出发点:去寻找那些可以沙盒化但还没有沙盒化的事情,这通常意味着它还处在被 AI 取代的早期,有巨大的套利空间。

反过来,如果想找到短期内不会被 AI 取代的工作,这也是个很好的出发点:去寻找那些不容易 verify 的事。它们通常有这样几个特点:

  • 只能在现实世界里操作,从而很难加速。比如商业/管理决策,是否成立总要执行了才知道,而执行是很慢的事情。
  • 因果链条很长很难归因。比如和人建立有互信的伙伴关系,或者在用户心中建立品牌形象,这类任务需要下水磨工夫,要做对很多环节,且做完了也不太确定到底哪一步是真的管用。
  • 验证过程对现实本身有不可逆的影响,比如说服某个特定的人,治疗某个特定的复杂病患。就像杀死薛定谔的猫,是死是活一锤子买卖。

当前范式的 AI 对这类工作几乎无能为力。(不幸的是,这类工作对大多数人也都更困难,毕竟很难训练 AI 通常就意味着也很难培训人类自己。)

但上面所有这些讨论有个根本的前提:这一轮人工智能始终把强化学习作为基础范式,而这一点本身是存疑的。不少领域里有迹象表明强化学习只是一个过渡性的技术。如果人们找到了绕过强化学习的窍门,那可验证性长远来看就没那么重要。

(当然那样也就意味着人类的栖身之所又变得更小了。

Leave a Reply

Your email address will not be published. Required fields are marked *