人工智能经过60多年的演进,已成为引领新一轮科技革命和产业变革的战略性技术,迎来了突飞猛进的发展。然而,人工智能大模型面临的安全风险问题也随之而来。如何有效地防范和应对人工智能安全风险,成为亟待解决的问题。早在2018年,习近平总书记在中共中央政治局第九次集体学习时就强调“要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”2024年是总体国家安全观提出十周年,深入研判人工智能大模型的安全风险及监管路径具有重大现实意义。
一、人工智能大模型安全风险分析
与人工智能大模型的迭代演进形成鲜明对照的是,其发展仍面临数据安全、技术安全及社会安全等诸多潜在风险。
数据安全风险方面,一是数据不当采集风险,人工智能算法和模型依赖于训练数据,训练数据往往包含隐私等重要信息。人工智能不当采集信息的行为有多种表现方式:未经当事人或平台允许,私自窃取数据信息用于商用;未经允许,擅自侵入其他平台信息系统内部;故意制造、传播计算机病毒等破坏性程序。不论是哪种不当采集都可能造成严重负面影响,甚至违反法律。二是数据篡改泄露风险,一方面,一旦数据语料被恶意行为者篡改,人工智能大模型输出的结果就带有特殊目的性,违背了现实真实情况,容易造成不利影响。另一方面,如果数据面临暴露或泄露,将导致个人及组织的合法权益陷入危险境地。三是数据生成滥用风险,近期推出的人工智能多模态大模型自动生成的图片、视频更加逼真,更具有欺骗性和误导性,且其操作门槛极低,可能会放大恶意分子的作恶能力,导致他人合法权益更容易被侵害。
技术应用风险方面,一是可靠性风险与解释性挑战,人工智能大模型基于深度神经网络,为黑盒模型,其工作机理仍难以理解,其合成内容在事实性、时效性等方面仍存在可靠性风险及可解释性挑战等问题。未来人工智能大模型的多模态表现能力、逻辑推理能力还将进一步提升,甚至产生涌现能力,模型可靠性与可解释性将面临进一步挑战。二是恶意攻击引发的安全风险,人工智能大模型面临着模型窃取攻击、数据重构攻击、指令攻击等多种恶意攻击。人工智能大模型的安全漏洞如果被攻击者利用,大模型关联业务将面临整体失效风险,威胁整体生态。更有甚者,若关键基础设施遭受恶意攻击,将威胁国家安全。三是后门攻击带来的恶意输出,后门攻击是一种针对深度学习模型的新型攻击方式,其在训练过程中对模型植入隐秘后门。后门未被激活时,人工智能大模型可正常工作,但一旦被激活,模型将输出攻击者预设的恶意标签。此外,后门攻击具有可迁移性,通过产生有效的后门触发器,并将其植入其他大模型,这为攻击者创造了新的攻击途径。
社会伦理风险方面,一是思想文化风险,大模型在思想文化领域的取向和偏差已成为人工智能安全的核心考量因素之一。在训练过程中大模型受制于训练数据的属地化特征,不可避免地受相应文化与价值观的“同化”,进而可能展现出思想文化上的立场和偏向。二是社会道德风险,由于人工智能大模型训练样本良莠不齐,其复杂性导致它可能从中吸收不当、偏见或歧视性内容,很难完全准确地反映人类的价值观和伦理标准。此外,大模型可能会无意中放大某些固有的社会偏见。这不仅可能导致特定群体的不适,还可能破坏社会和谐与稳定。
二、人工智能大模型的安全治理路径探索
动态治理:优化完善法律法规
一是发挥政府主导牵引作用,建立人工智能应用分级分类安全治理机制,制定数据安全、算法模型安全、产品和应用安全、安全检测评估等细分领域政策标准,适时更新完善数据收集使用,防止侵犯个人隐私,在算法透明度和可解释性、减少算法歧视等方面细化监管条例,明确权责边界。二是为公众提供大模型安全方面信息披露、业务指导、伦理规范操作、风险合规指引等领域信息渠道。三是加强相关法律法规的宣传教育力度。通过典型案例的曝光等方式,引导公众自觉遵守人工智能大模型监管领域法律法规,并树立正确的价值导向。四是建立完善的司法保障机制,通过公正司法保障大模型应用领域公民个人信息安全、企业商业秘密等不受侵犯。
精准治理:提升技术监管能力
一是建立对各项人工智能应用合理性审查的内部机制,提升针对算法偏见、算法弱鲁棒性、数据隐私等问题的技术解决能力,强化人工智能技术研发和应用过程中的安全管理,加强出厂前人工智能产品安全性评估验证,防范技术漏洞带来的安全风险。二是充分运用人工智能、大数据、区块链等技术监管手段,创新使用机器学习、数据分析、多方安全计算等适应新技术发展规律的精准监管技术,早期识别不当、有害、非法内容或潜在风险与不合规现象,并采取相应的措施加以应对,确保人工智能大模型在风险可控的范围内进行探索。三是注重技术标准和规范制定,推动敏捷治理。加强大模型安全测试验证技术研发和标准化工作,建立技术审计和安全监测机制,完善技术审查机制,推动行业内共识标准、细分领域指南框架等确保技术的安全性和可靠性。
协同治理:构建多元共治机制
一是发挥行业组织、企业等主体作用,进一步明确人工智能大模型企业主体责任和义务,推进行业安全服务标准建设和行业自律,保护公民个人信息、企业商业信息等合法权益。二是引导社会组织和社会公众积极参与推动人工智能大模型治理,开展社会监督、媒体监督、公众监督,培育多元治理、协调发展新生态。三是鼓励建立争议在线解决机制和渠道,加快培育人工智能安全检测咨询服务机构,建设人工智能安全检测验证公共服务平台,依托行业联盟建立人工智能安全投诉举报、核实验证、公开曝光渠道。
(来源:《信息安全研究》2024年第10期,转发时有删减,参考文献略;作者:徐凌验,国家信息中心信息化和产业发展部副研究员)