2025年3月20日晚,上海财经大学法学院举办的法学进阶系列讲座第三讲在法学院116会议室顺利召开。本次讲座由法学院徐继强教授主讲,主题为《“AI智术师”:人工智能“幻觉”的宪法学的思考》。讲座由法学院黄圆胜老师主持。

讲座伊始,徐继强教强调,人工智能不仅是一个技术问题,更是一个涉及宪法、社会、伦理等多学科交叉的复杂议题,适合在法学进阶讲座中进行深入探讨。
在讲座的主体部分,徐继强教授从宪法学的角度出发,详细分析了人工智能发展带来的诸多问题。他指出宪法的主要功能是限制国家权力、保障公民权利,但宪法功能的实现不仅需要通过立法、合宪审查以及国家机构的运作规则紧密结合。 而且如何理解宪法、传播宪法,树立宪法观念,塑造一个国家公民关于一个理想的、美好的现代国家的想象同样重要。
接着,徐继强教授具体探讨了人工智能与宪法的关联。他首先从规范宪法学角度指出,人工智能会对我们人的主体性造成威胁,但最直接的影响可能就是将会代替大量的传统工作,从而对就业市场产生深远影响,尤其是在中国这样每年有大量毕业生进入就业市场的国家。从宪法的角度来看,涉及宪法上的劳动权利和义务。因此如何平衡保障就业与发展人工智能就成为一个重要的宪法问题。此外,人工智能还涉及研究自由、言论界限等宪法问题,徐教授强调,宪法在应对这些新挑战时应发挥更大的作用。
但徐继强教授指出,今天讲座关注人工智能幻觉与宪法关系,重点是要说明,宪法除了具有规范特征外,还具有“讲故事”的叙述功能。有一个规范宪法,还有一个叙述性宪法。比如,一些国家的宪法通过讲述建国的历史故事来证明统治的正当性,奠定一国最根本的目标、任务和原则。中国宪法序言就是一个建国叙事和社会理想图景的描述,成为理解和解释规范宪法的重要依据。徐教授认为,人工智能幻觉的出现可能会对这一叙事产生重大影响。
本次讲座的重点和新颖之处在于,徐继强教授把人工智能幻觉类比古希腊智者学派,提出 “AI智术师”这一概念。他介绍说,从技术上看,人工智能幻觉分为事实性幻觉和忠实性幻觉。事实性幻觉是指模型生成的内容与现实世界事实不一致,而忠实性幻觉则是指模型生成的内容与用户指令上下文不一致。但徐教授认为,对人工智幻觉,不能仅从上述技术角度理解,还要从人性和商业逻辑等人文学科理解。例如,我们人性中具有轻信谣言的特点,因而人工智能恰恰具有“投其所好”的特点,这与智者学派为金钱而辩论的行为相似。在商业利益的驱动下,为了流量,人工智能可能会推送、编造极端、仇恨性的内容。与智者学派相通,人工智能的修辞能力,逻辑辩论能力也非常娴熟,因而具有巨大的煽动性。
AI可能成为当代的智者,成为民意的煽动者,可以从当今大众对AI的狂热看到这种可能性。AI可能不仅不能提升公共事务讨论的理性,反而可能使公共讨论流于肤浅,成为本来无智者自以为是,非理性抬杠的工具,不仅不能形成共识,可能会造成更大的撕裂。大量貌似有理有据像模像样的研究成果,淹没真正的问题和洞见。所以,具有所谓“幻觉”的人工智,可能影响作为叙述性宪法的故事的创制、解释、传播、理解、续写,乃至改编。从一方面来说,有利于去中心化,但同样可能篡夺立宪者的权力,使公民失去主体性。
在应对人工智能的思考部分,徐继强教授提出了民主社会与专制社会在应对人工智能风险时的不同方式。他认为,民主社会中人工智能的存在与民主制度密切相关,但民主社会是否能有效防止人工智能带来的风险仍需进一步观察。他还强调,宪法在限制人工智能不良影响的同时,也应平衡其技术发展,避免过度管制阻碍创新。
最后,在互动环节,同学提出人工智能集权的问题,担心政府垄断人工智能算法开发和使用会带来危险,提倡在人工智能领域引入竞争机制。徐继强教授对此表示认同。希望人工只能具有启蒙作用,让更多公民增强理性,加入一个国家的政治叙述中去,让宪法故事不只是少数统治者的故事,而是所有公民共同的故事。
整场讲座贯通历史与现实,融合理论与案例,既展现了人工智能与宪法问题的复杂性与动态性,也启发了同学们以批判性思维审视人工智能背后的法律与伦理问题,为理解人工智能对社会的深远影响提供了深刻洞见。
供稿:陈伯廉

