现在有一个很流行的词叫“vibe coding”——氛围编程,意思是你不需要一行行写代码,只要用自然语言告诉AI你的想法,它就能帮你把程序写出来。听起来很美好,实际体验却常常是:AI能在一开始交付一个不错甚至惊艳的原型,但随着你的要求不断明确、构思逐渐收敛,你会发现和AI的协作变得越来越混乱。在某个时刻,你会意识到AI并不能真正“理解”你;而紧接着,你还会意识到“把话说清楚”并不是一件容易的事情。“讲清楚”的前置条件在于“想清楚”——但把事情想清楚,从来都不是一件容易的事。

  我之所以对这个问题有感触,是因为我自己就处在哲学和AI的交汇处。学习哲学专业6年后,我投入了AI浪潮,从去年7月开始至今,已经有两段AI产品经理的实习经历。这一决定最初当然有追赶风口以便于找工作的考虑,但在这一过程中,我发现哲学和AI的关联不是一种需要刻意搭建的桥梁,而更像是一种自然的交汇——技术发展到今天,很多问题本身就在向人文的思考敞开。

  一个基本事实是,对话正在成为人与AI最主要的交互方式。每天有上亿人通过各种App同各种模型发生对话——从一句话点奶茶到OpenClaw的爆火,对话正在成为一种普遍的、高频的人机交互方式。也正因如此,对话本身的困难就不再只是一个技术烦恼,而成为一个值得被认真考察的现象。

  前面我说的那种“越聊越乱”的困境,其实指向一个更深层的问题。和传统的点按交互或编程不同,AI本质上是一个概率模型,它的交付物是或然的。这确实是某种创造性的来源,但也对人的输入提出了更高的要求——而这些要求本身又是隐晦的。这种困难的核心不在于AI不够聪明,而在于模糊的想法和清晰的语句之间存在着天然的断裂。更好的提示词工程、更长的上下文窗口,或许都能缓解它,但未必能替代“想清楚”这件事本身。

  回头想想,苏格拉底也面对着同样的困境,并通过不断追问来澄清概念、定义问题、消除模糊性。只不过今天对话的另一端从一个人变成了一个模型。在我的产品工作中,最关键的往往不是找到解决方案,而是定义问题本身:我们到底在解决什么问题?边界在哪里?我们用的这些词,大家理解的是同一个意思吗?这些追问在苏格拉底的对话中发生,在哲学课堂上发生,也在产品会议上发生,它们本来就是同一类事情。

  对话的困难还不止于此。一段真正有深度的对话,依赖于对话双方共享的语境。在日常交往中,对话总是在一个语境里进行的,宏观如时代、文化,微观如语气、表情。自然语言的效力不仅在于其本身,还在于承载它的人。但人与AI的对话在相当意义上仍是扁平的。所以当前AI发展的一个重要方向,就是借助工程化能力去充实对话的语境:记忆、上下文管理、尽可能让模型在对话中拥有更丰富的背景,从而与人有更深度的“理解”。

  做这些工作的过程中,很多更深层的追问也会自然地浮现。我会忍不住想:AI能感知到时间吗?它所谓的“记忆”和人的记忆是同一回事吗?当AI在一段对话中维持了某种“连贯性”,这和人在对话中构建意义的方式有什么根本性的不同?这些问题乍看像是产品设计中的技术细节,但一旦追问下去,就会发现它们触及的是非常根本的哲学问题。

  上个学期,我在复旦大学“人工智能与社会科学研究”的课程上写了一篇论文,试图从现象学的视角去分析AI的时间意识。这种思考不是我刻意要“把哲学用到AI上”,而是做着做着,问题自己就长到了那个地方——记忆的可能性条件,本身就是一个哲学问题。

  在这些追问的尽头,对话的困难最终指向了人本身。当我们谈论AI的记忆、AI的自我意识,我们不得不反问:人的记忆是什么?人的自我意识又是什么?这些问题在几千年的哲学史中从未真正得到解决。而现在,人与AI的对话正在以一种前所未有的方式重新激活它们。

  人工智能伦理学家乔安娜·布莱森(Joanna J.Bryson)说过一句话:“数十年来,人工智能一直是一个自我分裂的领域,同时追求两个截然不同的目标,通过心理科学深化计算机科学的理解,以及通过计算机科学深化心理学科学的理解。”

  在我的学习和实践中,我也感受到这种张力。学哲学的时候,我试图理解人是怎么回事。做AI产品的时候,我其实也是在理解人——理解人怎么表达、怎么思考、怎么在对话中构建意义。这两件事并不矛盾,它们本来就是相通的。

  AI极大地拓展了我们的认知范围甚至能力,但也让我们不得不反观自身:我们需要感到困惑的并不完全在于人工智能,更在于我们自己。这也是我在将近7年的哲学专业学习后最大的感悟:AI时代,人文思考不是一种需要被证明有用的附加值,而是技术本身在发展过程中不断生长出来的内在需求。

  (作者系复旦大学哲学学院硕士研究生)

李汶霈来源:中国青年报

2026年04月20日  08版