智能正义——AI 能分辨善恶吗?
- Olive Qin
- 2天前
- 讀畢需時 2 分鐘
2025年10月22日 星期三
陆尊恩、黄晨轩

本期主持人陆尊恩与一位年轻的听众对谈。他是一位创业公司的老板。这篇访谈从一个贴近生活的问题开始——当我们收到交通罚单时,那张罚单也许并非出自警察,而是由人工智能自动开出的。陆尊恩指出,AI如今已渗透到我们生活的各个领域:从医疗诊断、司法判决,到社交平台的内容审查,它似乎正逐渐取代人类做出「善恶的判断」。问题是,我们可以信任AI代替人类做道德判断吗?
受访的黄晨轩认为,AI虽能提高效率,却容易变得过度严苛、缺乏人性。他认为法律的目的本是引导而非惩罚,一旦AI执法如机器般冷酷,人民可能「动辄得咎」,社会将陷入恐惧。这样的执法逻辑,让人联想到圣经加拉太书中「律法叫人知罪」的教训——若AI成为律法的执行者,人类的自由将被剥夺。
两人进一步谈到AI的「道德性」。 AI的判断并非出于良知,而是依据KPI(关键绩效指标)运算结果。 AI不问是非,只问「哪个行为能更有效达成目标」。若政府将KPI设定为「增加罚款收入」,AI就会无限放大惩罚;若设定为「提升经济实力」,AI甚至可能容忍道德败坏,只要能促进成长。 AI的「中立」其实是幻象,因为它背后的演算法仍被人设计、被权力操控。
黄晨轩提到「中国房间论证」也揭示了AI的本质:它看似能与人类对话、理解语意,实际上只是依据规则输出结果,并不真正「理解」任何意义。 AI的道德判断亦然——它能模仿,但无法感受,能学习模式,却不具良心。若AI被用于军事,后果更为可怕:在「胜利」的KPI下,任何残酷手段都可被合理化。 AI或许能赢得战争,却失去人性。
陆尊恩提醒,分辨善恶的最终主权属于上帝。当人或AI试图取代上帝来决定善恶时,便落入了伊甸园的诱惑。 AI的角色应是人类良知的仆人,而非主宰。真正的良知不是演算法的结果,而是源于爱神与爱人的生命根基。
黄晨轩从「爱」出发,认为若出于爱,就不会脱离每个道德争议的处境,忽视每个当事人内心的状态,急于判断善恶。陆尊恩回应说,爱的真义仍需在真理的光中被引导,否则容易堕入相对主义。
陆尊恩总结说:AI虽能协助人类提高决策效率,但不应取代人的道德责任。未来的社会若要让AI参与大量具有道德判断性质的活动,人类就必须先强化自身社会成为一个「道德共同体」——透过民主沟通与信仰反思,确保AI成为促进善的工具,而非强化权力与偏见的武器。