往期理论版阅读
更多
2025年第3期
论人工智能辅助行政决策的理性冲突与功能调适/张 进
来源:领导科学网,领导科学杂志社唯一网站
作者:张 进
日期:2025-10-10 10:50:29
| 将机器本身视为决策主体之一,认为它“动摇了人类的唯一主体地位,人机之间已经在一定领域展开了或明或暗的主体之争”[24]。但事实上,其一,这种认识缺少哲学本体论层面的支持,因为机器只有在现实主义意义上理解其义务或者可以预见其行动的伤害(即自主意识)时,才被认为可以对任何由它造成的伤害负责,而工具主义含义下的意向性显然不足以给机器定义重要权利或义务。[25]换言之,人工智能参与决策主要是基于预先设定的程序而非完全独立自主的行动,机器人不具有行动的自知性,因而承担不了决策责任,人类事实上对人工智能负有完全责任。其二,法学层面,尽管人工智能常因意识的显现而被认为应当成为法律主体之一,但从人类中心主义的视角看,法律建构本身的意义以及法律最终保护的核心是以人为中心的社会秩序,对人工智能法律主体化问题的评判应当以符合人类社会的利益和价值观为目的,将人工智能决策视为行政决策主体之一并认为其应当承担相应法律责任的认识难以适应现行社会的法律秩序。[26]其三,人工辅助的行政决策主体定位缺少政治学理论支持。2017年,机器人“索菲亚”获得了沙特阿拉伯王国公民身份。在权利与义务相辅相成的政治原则框架下,“索菲亚”作为“公民”,不仅意味着它必须承担相应社会责任,也意味着它享有与公民同等的权利保障,如选举权、财产权、言论自由权。因为我们不可能要求一个人只承担责任或履行义务,而不赋予其基本权利。显然,人工智能并不享有这样独立的社会权利。[27]因此,以人工智能机器自主决策能力来丰富行政决策主体理性内涵难以得到支持。
五、人工智能辅助行政决策理性困境的防范路径
人工智能辅助行政决策所展现出的强大理性能力决定了我们必须重视人工智能在行政决策实践中的功用,但限于其自身发展程度所导致的行政决策理性困境,我们也必须优化人工智能参与行政决策的体制设计。对此,需要在以人为中心的核心价值理念导向下,从人工智能的功能定位、场景确认、算法治理等方面提升对人工智能辅助行政决策的理性能力的认识。
(一)人工智能参与行政决策的“辅助性”功能定位
2023年,国家互联网信息办公室联合国家发展改革委、教育部等部门颁布了《生成式人工智能服务管理暂行办法》,其中第14条指出:人工智能服务提供者一旦发现违法内容,必须立即采取果断措施,包括但不限于停止生成、阻断传输以及彻底消除该内容,并通过模型优化训练等手段进行必要的整改,确保服务的合法性与合规性。这提醒我们必须重视人工智能辅助行政决策的技术局限性。人工智能做出并选择行政决策方案主要是基于海量数据、案例、知识的学习和训练,但“信息孤岛”的客观存在及设计者的主观因素都会导致人工智能学习训练的基础数据库产生选择性偏差。因此,人工智能做出的行政决策方案不应当成为行政决策者的主导方案,其作用和意义仅限于知识性或材料性的参考,应当在人工智能方案的基础上,基于广泛的专家意见、群众参与讨论等进行行政决策。换言之,人工智能辅助行政决策应坚持“辅助”而非“主导”的功能定位,行政决策者的主动性、能动性和创造性要始终居于核心地位。
人工智能的“辅助性”功能定位有助于厘清行政决策中 |


