往期理论版阅读
更多
2025年第3期
论人工智能辅助行政决策的理性冲突与功能调适/张 进
来源:领导科学网,领导科学杂志社唯一网站
作者:张 进
日期:2025-10-10 10:50:29
| 赖性中断、语言的文化和社会背景知识的缺失、语言的非标准用法识别等方面技术难题。三是人工智能的地区发展水平差异亦影响着行政决策信息的收集、分析和存储能力。中国人工智能发展区域差异较大,各地出台的人工智能信息收集处理规则可能不同,这导致区域间人工智能辅助行政决策的“智能鸿沟”,数据难以具备广泛的代表性,人工智能辅助行政决策的科学性受损。
第二,人工智能决策的人格化因素渗透。行政决策算法只是在形式上做到了行政决策过程的非人格化,但人的主观性早已在算法设计或算法使用过程中以间接、隐蔽的形式嵌入了行政决策过程。其一,计算和决策程序都取决于研发人员,因而研发人员自身的价值观和偏见便不可避免地会写进代码中,算法行政决策的客观性、中立性在决策的前端就已经被打破;其二,人工智能辅助行政决策依赖的是大数据基础之上的机器学习和训练,而大数据本身并非客观中立的,数据的收集、存储和分析规则蕴含着人的目的性或价值判断;其三,任何一项行政决策都有特定的目标体系及其优先级判断,行政决策者在使用人工智能辅助行政决策时往往会受到这种目标优先级判断的影响,这就导致人工智能机器丧失部分的客观中立性。因此,鼓吹人工智能技术的客观性、中立性对行政决策人格化因素的剔除是不切实际的。
第三,人工智能机器知识学习能力的有限性。人工智能自主学习和创造行政决策知识的前提假设是“如果能够收集足够的数据并且拥有足够强大的计算能力,就可以‘创造’知识”[17]。但实际上,行政决策知识无限性与有限性之间的矛盾以及人工智能学习行政决策知识的能力制约着这种知识创造功能的发挥。虽然马克思主义认识论主张世界是可以被认识的,但前提是承认人类知识散布于社会各个领域,人类个体或群体都无法穷尽人类世界所有的知识[18],这种知识无限性的认识论基础,决定了人工智能学习行政决策知识的能力是有限的。此外,人工智能辅助行政决策的知识系统构建主要是基于经过大规模经验数据的机器训练而归纳出的由严格因果关系或相关关系规定的逻辑推理系统,但哥德尔不完全性定理揭示了数学在逻辑上永远不可能是完美无缺的。因此,无论智能机器发展到何种程度,知识“推理限度”始终存在,人为设定的算法模式或计算公式无法覆盖行政决策问题所涉及的方方面面。
(二)行政决策的价值理性危机
人工智能以其强大的信息交互能力和技术中立原则为行政决策提供了民主、公平的价值理性内涵,但如果据此认为人工智能技术可以一劳永逸地实现决策的完全价值理性,则是一种异化的技治主义认识。在技术层面,人工智能可以公平公正对待所有人的主张只存在于理论的完美设想之中。
一方面,人工智能的科学性逻辑对行政决策伦理正当性的价值理性忽视。科学计算可以处理“是非对错”等判断较为确定的公共问题,但在遭遇“好坏善恶”等涉及价值判断的公共问题时,人工智能的可计算性问题就凸显了。只有半自动自主能力的人工智能难以真正拥有实践理性,只有道德司法能力和道德执法能力,难以具备道德立法能力。[19]这一论断直接指向了人工智能辅助行政决策的伦理限度,因为人工智能的工具属性决定了其无法真正地实现完全脱离于人而存在的伦理道德决策。 |


