往期理论版阅读
更多
2025年第3期
论人工智能辅助行政决策的理性冲突与功能调适/张 进
来源:领导科学网,领导科学杂志社唯一网站
作者:张 进
日期:2025-10-10 10:50:29
| 然有学者试图从自上而下的机器训练、自下而上的机器学习和两者相结合的混合模式等方面论证人工智能习得道德知识何以可能的问题[20],从而解决人工智能决策与人类行为之间的价值观对齐问题,但“人类道德价值观随时间、情境而变化”,因此,基于过去或现在发生的案例进行道德训练而捕捉到的人类价值规范,既不一定适应地区间巨大的道德价值观差异,也难以有效应对未来可能出现的新的道德情境。[21]
另一方面,算法治理缺位侵害了行政决策的民主公平程序。首先,算法主导下的行政决策由群体决策演变为专家决策,致使行政决策的民主性受损。因为算法决策所需的专业知识可能是排他性的,需要经过系统性的学习训练方可获得,这限制了公众广泛参与的能力和机会,导致只有政治精英和专家才对决策拥有决定权或影响力的情形,普通大众的参与和观点被边缘化。其次,算法因具有知识产权性质而形成了“法律保护下的黑箱”,而算法本身的高科技性质致使普通大众难以理解其背后运行的逻辑规则,加大了决策者与公众之间的“算法鸿沟”,削弱了公众参与决策程序的能力。再次,算法歧视侵蚀行政决策过程的公平公正,导致行政决策结果偏差。这种算法歧视有可能是在人工智能系统训练中所使用的数据选择偏差导致的,如纽约警察局利用犯罪人员数据设计的“patternizr”警情预测系统,数据中少数族裔和低收入群体本身就占比较多,导致算法决策对低收入社区和有色人种社区的歧视。还有可能是设计者的主观偏差导致的,如英国杜伦郡警务系统设计“HART”人工智能系统来预测嫌疑人继续犯罪风险时,主观地选择了把邮政编码作为风险预测因子之一,因而有区别对待穷人社区和富人社区之嫌。
(三)行政决策的主体理性桎梏
首先,人工智能机器目的与手段的异化制约行政决策主体自身在决策过程中的能动性与创造性。人工智能机器的设计目的是帮助人类做出更好的决策,而非替代人类做出决策,但实践中,人工智能机器往往异化为了目的本身。第一,人工智能的自动化决策模式导致行政决策主体的边缘化,即人工智能按照预先设定的算法程序和规则自动做出决策,在节省行政决策反应时间的同时,也存在背离“主人”初衷、“逃逸”主体控制的情况。[22]此时,行政决策者已经难以对其决策过程产生及时的、实质性的影响,行政决策者的作用被边缘化。第二,行政决策主体对人工智能机器的过度依赖,导致其主观能动性和创造性的缺失。一方面,由于人工智能强大的信息收集、分析和处理能力,行政决策者在面临决策问题时,倾向于依赖其提供的信息和决策方案,进而丧失独立思考能力;另一方面,人工智能机器严格按照算法程序决策,限制了行政决策者合理自由裁量权的发挥。第三,人工智能辅助行政决策导致行政决策主体间交往关系的异化。行政决策主体间以及主体与客体间的交往是确保行政决策科学性、合理性的重要条件之一,但人工智能自身的自然语言理解技术在与人交往中表现出强大的情感倾诉回应能力[23],于是行政决策主体与人工智能机器的交往逐渐替代了与其他决策主体或决策客体间的交往。
其次,人工智能作为决策主体的合理性地位缺失,导致人工智能自动化决策对主体理性的侵蚀。部分研究者基于人工智能决策的自主性或自动性而 |


