加快建立人工智能安全监管制度

2025年11月17日

〚高毅波〛

党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》指出,“加强网络安全体制建设,建立人工智能安全监管制度”。这是党中央统筹发展与安全,积极应对人工智能安全风险作出的重要部署。党的二十届四中全会也对我国人工智能发展作出重要战略部署,“十五五”规划建议中多次提及“人工智能”。深入理解加快建立人工智能安全监管制度的重大意义,准确把握加快建立人工智能安全监管制度的基本路径,进而推动人工智能朝有益、安全、公平方向健康有序发展,为中国式现代化提供坚实的安全保障。

深刻领悟建立人工智能安全监管制度的重要意义

建立人工智能安全监管制度,是应对人工智能快速发展的必然要求。当前,全球人工智能正在加速发展,成为推动新一轮科技革命和产业变革的关键力量。人工智能技术的革命性突破既深刻影响和改变着人们的生产生活方式、加速了经济社会发展进程,也对法律规范、道德伦理、公共治理等造成冲击。这必将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。必须高度重视人工智能可能带来的安全风险挑战,确保人工智能安全、可靠、可控。建立人工智能安全监管制度是完善人工智能治理体系、促进人工智能安全规范发展的必然选择。

建立人工智能安全监管制度,是实现高质量发展的必然要求。高质量发展是新时代我国经济社会发展的鲜明主题,是全面建设社会主义现代化国家的首要任务。而人工智能成为新质生产力的关键引擎,为实现高质量发展提供源源不断的新动能。深刻认识人工智能发展面临的新形势,对潜在安全风险采取有效措施进行防范。而缺乏对人工智能战略研究、前瞻预防和约束引导,会限制新动能的加快形成。一方面,建立人工智能安全监管制度营造更加稳定、公平、可信的技术发展环境,增强企业创新动力和投资信心,从而加快智能制造、智慧城市、数字政府等新型基础设施建设。另一方面,建立人工智能安全监管制度是推动人工智能加快产业化、加快形成新的经济增长点,促进新旧动能转换的重要前提和基础,从而改造提升传统产业、培育壮大战略性新兴产业和未来产业,使人工智能技术潜力转化为现实生产力。

建立人工智能安全监管制度,是参与和引领人工智能全球治理的必然要求。人工智能的发展不仅影响一个国家,更是关乎全人类的命运。一方面,人工智能的全球化特征迫切需要形成有效的全球治理方案。另一方面,各国普遍重视人工智能安全监管,试图抢占全球人工智能治理话语权以提升人工智能影响力与领先发展能力。我国是人工智能大国,技术能力积累优势为我国参与和引领人工智能全球治理提供了物质基础。我们要继续发挥负责任大国的积极作用,积极参与国际交流与合作,共同制定全球人工智能治理规则,确保人工智能始终朝着有利于人类文明进步的方向发展。

加快建立人工智能安全监管制度的基本路径

人工智能安全监管制度的建立是一个复杂的系统工程,须多管齐下:

建立健全人工智能法律法规。近年来,我国持续加快人工智能领域立法步伐,出台网络安全法、数据安全法、个人信息保护法和《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,在加强对人工智能监管、防范人工智能风险等方面发挥了积极作用。与此同时,人工智能技术和应用发展日新月异,人工智能的监管需求日益增长,相关法律法规还存在一些短板和不足。一方面,加快人工智能领域立法进程。尽快制定具有前瞻性的人工智能法律法规,就人工智能技术的研发、应用以及保护用户数据安全等环节,出台专项法律法规,明确人工智能安全监管的原则、范围、责任等,为人工智能安全监管提供法律依据和保障。聚焦人工智能重点领域制定法规政策、行业规范,强化人工智能技术滥用的法律约束。另一方面,强化法律法规的执行监督。应充分发挥人大、政协、司法机关、社会团体和新闻媒体的监督作用。要厘清政府、企业、社会组织等各方在人工智能安全监管中的职责,形成权责清晰、协同高效的监管体系。加强执法人员的培训和考核,提高其专业素质和执法水平,确保法律法规的正确实施。

完善人工智能监管体系。划分风险等级,构建不同风险等级的监管制度。首先,建立包括技术风险、数据安全风险、伦理风险、社会影响等在内的风险评估体系,对人工智能系统的潜在风险进行全面、动态的评估,以便及时发现和防范风险。其次,制定分类技术标准,按人工智能应用领域和风险等级,分别设定技术安全标准。例如,针对自动驾驶和智能交通领域,相关安全技术标准要涵盖环境感知、决策控制、紧急处置等内容;在医疗人工智能领域,应适用更严格且系统的风险评估,相关安全标准要提升诊断、治疗等环节的安全性和有效性。最后,进一步建立健全分类分级监管机制,根据人工智能应用的领域、风险等级、安全后果以及容错能力等,划分不同监管级别,实施差异化的监管措施。

遵循人工智能伦理。人工智能伦理是指在研究、开发和应用人工智能技术时,需要遵循的道德准则和社会价值观,以确保人工智能的发展和应用不会对人类和社会造成负面影响。首先,要始终坚持“以人为本、智能向善”的人工智能发展原则。可以参考我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,对人工智能发展的安全伦理风险研判,对人工智能应用可能产生的负面影响开展预见性风险评估,提前做好风险预案,确保人工智能发展安全可控。其次,要完善伦理检查机制,实现伦理审查机制全流程嵌入。比如在立项阶段,查看该人工智能系统是否可能侵犯公众隐私权等。在研发阶段,可以组建多方联合伦理审查,如技术专家、伦理学者、社会代表等定期进行算法数据的公平性、正当性的测试。在应用阶段,积极引导企业、科研机构等在人工智能发展中承担社会责任,要求其规范数据采集、加强数据保护、修改推送规则、监管虚假信息。最后,深入开展人工智能伦理教育和宣传,如通过电子调查问卷,听证会等形式收集公众对人工智能伦理的关切,构建良好舆论氛围。

广泛开展人工智能国际合作。人工智能作为一项全球性技术带来巨大机遇的同时,也带来威胁全球稳定的风险,需要国际社会共同合作才能有效应对。一方面,积极参与全球人工智能治理框架与标准规范的建立。持续加强与各国各级政府和各类企业对话交流,聚焦区域国家共同关切,制定符合区域发展的相关规则。推动我国在人工智能优势领域的标准成为国际标准,引进国际领先的人工智能安全检测认证体系,提升我国在国际人工智能治理中的话语权和影响力。另一方面,积极与其他国家和地区开展跨国监管合作。跨国协作与信息共享是应对全球性人工智能风险挑战的重要途径。通过签署国际公约、参与国际组织活动等方式,加强在技术研发、法规制定和执法监督等方面的协作,推动形成统一的国际监管标准和机制。设立信息共享平台,严厉打击人工智能数据非法跨境流动,跨国企业犯罪等问题。支持跨国企业、科研机构等主体开展联合研发项目,共同攻克技术难题。

(作者系辽宁师范大学马克思主义学院讲师)