中文EN
DeepSeek赋能学术研究
2025-06-13 来源:社科院专刊 总第773期 作者:李洋
分享到:

  李洋(哲学研究所)

  价值对齐的生成式人工智能是否符合人类对人工智能的终极诉求?当AI工程师尝试赋予机器以价值表达的能力时,我们不得不反思该行为可能诱发的最消极后果——技术“意向性”的反向控制。DeepSeek越来越频繁地被应用于日常的研究工作,它能够简化繁琐、耗时、枯燥的重复性工作。然而,与之伴随的问题亦层出不穷——知识可靠性、AI幻觉、人机互动矛盾、智能化规训、冲击评价体系甚至是学术不端等屡受诟病。无疑,作为“超级工具”的生成式人工智能具有强大的反向作用力,透过技术“意向性”在人机互动中对使用者施加影响,让使用者从惊艳到沉浸其中,再到“折服”。这种新形态似乎正在裂解传统的学术研究模式,重新定义人类在知识探索过程中对“工具”的认知。

  生成式人工智能何以表达技术“意向性”

  技术的“意向性”是如何表达的?举例而言,图像生成大模型多被诟病生成的人物图像以白人为主。2024年2月,谷歌宣布紧急关闭大模型Gemini的生图功能,其中一个重要的原因在于,为了扭转人们对其表达偏见的印象,Gemini似乎出现了矫枉过正的偏见。技术意向性作用下的价值偏见表达可见一斑。但是,严格意义上讲,在当前技术条件下,我们并不能认为技术已经展现出基于主体意识的意向性。与其说技术的意向性,倒不如说是人的意向性的技术转述。但是,人与技术的互动又使得技术意向性展现出超越转述的动态性。

  从技术人工物的结构分析看,技术人工物与自然物或物理物的最大区别在于它具有两重性,即物理结构(physical structures)和人的意向性(human intentions)。荷兰技术哲学家克洛斯认为,人类适应世界的生存方式便是将人的意向施加于物理条件,使之成为被赋予功能的技术人工物。简言之,人类意向性的技术转述首先是透过功能导向的物理世界改造实现的。当用分析进路思考技术人工物时,我们可以尝试回答三个问题:该物是由什么做成的?该物是为了什么而制作的?该物又是如何被使用的?问题一指向物理属性,问题二指向人类意向,而问题三则指向情境场域,将物理属性和人类意向连接,构成了完整的技术人工物意向性表达的结构。因此,从技术人工物的结构分析看,技术意向性是通过功能设计完成了人的意向性的转化,一旦我们将各式各样的功能赋予生成式人工智能时,它就以成为人类意向性转述的方式存在了。当然,其中包含了两个非常重要的环节:生成式人工智能是如何被设计的?又是如何被使用的?

  从人与技术的关系看,我们不妨先从生成式人工智能是如何被使用的角度思考。DeepSeek等大模型与以往技术最大的区别在于它和使用者之间动态的、持续的互动关系。技术调节论持非工具主义的技术立场,即强调人与技术是在互动中相互纠缠、相互塑造的共生关系,正视技术对人的知觉和理解世界方式的建构性作用。事实上,使用者与大模型的每一次互动都是语料“投喂”的过程,而语料之于大模型就相当于食物之于人。当用户语料集聚到一定规模时,便会传导并影响模型输出,以负载技术意向性的方式将信息回传用户。因而,用户与大模型的互动在深层次上也是一种意向性交互,体现了二者之间相互塑造的构成性关系。不过,消极地看,用户知识的良莠不齐反而不利于构建高质量大模型。当良莠不齐的语料积累到一定程度(甚至不排除恶意使用),不可避免地造成系统性的技术“病灶”。正如当下热议的人工智能幻觉问题,很大程度上也是由人机交互过程中的意向性互动造成的。

  从价值嵌入的设计哲学看,生成式人工智能是如何被设计的?既然技术不是价值中立的工具,它能够反映甚至表达不同的价值观,也就是说,技术能够通过与人的互动增强或弱化不同价值观的表达。而这一过程必须有一个先在基础,即在设计阶段借助工程师的操作将价值“写入”技术,使得意向性由人转入技术,并借助技术人工物表达。技术意向性由此转换为一个设计问题、工程问题。这样的例子不胜枚举,如电动汽车就是环保意识的技术意向性表达。可见,工程师或设计者在价值嵌入方面发挥着主导作用。DeepSeek也非例外状态,基础算法的搭建不仅凝结了工程师对事实认知的代码,也承载了他们对价值判断的编程,模型训练和校准中的微调与标注绝非完全的事实判断。很明显,相较于之前的版本,DeepSeek提升了对政治议题的敏感性,并开始回避此类问题。这正是工程师“价值校准”后的技术意向性表达。当然,复杂技术的价值设计并非易事。一方面,价值的定义、评估、变化、冲突等都面临具体操作化问题。另一方面,何种价值能被写入需要技术专家、学者、公众多元主体参与的技术民主化的讨论。就现状而言,所谓技术民主化的程序还仅为设想,设计者仍占据着主导地位。

  DeepSeek的技术“意向性”是否构成人文学科的危机

  一个有趣的现象是,自然科学学者在侃侃而谈如何用好生成式人工智能赋能科学探索,并开启了AI for Science的科学范式,人文社会科学学者却对此忧心忡忡,大有被机器取代之危机感。其中很重要的原因在于人文社会科学是关于人的,而生成式人工智能表现得越来越像人。批评意见认为生成式人工智能正将文科的思维方式重塑为标准化、机械化、公式化的智能模式。笔者认为,DeepSeek赋能学术研究的过程中,有两种趋势是应该避免的:一是人类的机器化,二是机器的拟人化。一方面,人文社会科学之所以有所谓危机,很大程度上是对权力让渡的危机感,即写作、思考权力的让渡。学术研究的目的在于知识探索,一旦DeepSeek化身为论文制造机器,知识探索便被异化,似乎写文章是为了评职称和追逐名利,这必然将人类引入机器化的歧途。另一方面,历史地看,人之为人得益于科学的发展,进化论等科学理论使得人类彻底从“上帝之手”中解放。而AI的拟人化显然是一种危险的尝试,如果将思维、价值、情感赋予人工智能,那技术意向性可能就完全不再是人的意向性转述了。彼时,人工智能是否也会从“人类之手”中解脱,是当下倡导“价值对齐”技术进路、致力于通用人工智能时不得不反思的。

  一种去价值化的危机应对思路

  或许我们还无须为当下DeepSeek冲击人类独有的创造性而过度担忧。正如赵汀阳所言,创造性的秘密还无法还原为科学解释,因此不必担心能够赋予人工智能创造性思维,它目前所展现出来的“创造性思维”无非心理学水平的联想和组合。但是,我们不得不警惕拟人化进路下的生成式人工智能。在使用DeepSeek等工具辅助研究时,最基础的首先是对技术的意向性表达有所察觉,有意识地规避技术脆弱性和有限性,通过学习、了解相关AI的技术原理和人技关系理论提升自觉能力;其次要在使用中保持个体的主导性和思考的独立性,避免技术依赖导致的自我沦丧,更应该警惕人的机器化;更重要的是,必须慎思生成式人工智能的“价值对齐”进路,思考“能否对齐、与谁对齐、为什么要对齐”,以防止“价值对齐”外衣下的“重新野蛮化”。相应的使用规则还在形成过程之中,作为学者和研究人员,应有意识地参与相应规则的制定,并在使用中遵守基本的科研伦理。

  工具也好,伙伴也罢,DeepSeek赋能学术研究,最重要的还是保持学者在学术研究中的独立性和自主性。毕竟,学术研究是严谨的知识探索和寻求真理的过程,其乐趣和获得感始终蕴藏于拨云见日的思考进程中。一旦被技术意向性左右,或被功利性目的打破,知识探索便被异化,其乐趣也荡然无存。不妨将DeepSeek始终维持在“超级工具”的水平,摒除其拟人化的价值赋值,避免其成为价值表达的“超级工具”,通过去价值化的方式将其风险维持在可控的水平。

  (本文系国家社科基金青年项目“生成式人工智能的责任伦理及治理机制研究”(23CZX058)阶段性成果)

责任编辑:高莹(报纸)赛音(网络)