首页 / 观点 / 正文

康涛、祁昊天:人工智能时代的国家安全与高校对策

2025-04-14 10:38
人访问

小 i 导 读

当前,数字技术等新兴领域已纳入国家安全范畴,“人工智能安全”已成为国家安全的重要组成部分。北京大学国际关系学院党委书记康涛,北京大学国际关系学院长聘副教授、中外人文交流研究基地秘书长祁昊天在《北京大学校报》头版撰文指出,高校不是世外桃源,对AI带来的风险与挑战要有清醒的认识,要有应对之策。大学在AI安全人才梯队的培养和储备中可以发挥关键作用。其主体任务可通过课程体系、复合培养、实战演练、人才对接以及推动普及全民教育来落实。


面对百年未有之大变局,在挑战日趋复杂、风险源日益多样的今天,由习近平总书记2014年创造性提出的总体国家安全观为全面认识和统筹应对与防范化解重大风险提供了指引和要求。这其中,人工智能(AI)在国际关系与国家安全领域的应用正日益展现出“双刃剑”效应。一方面,AI技术驱动科技变革、提升生产力,为处理复杂的国内挑战、国家间关系、应对全球政治变迁、维护国家利益与国家安全提供了新的赋能条件,为构建新安全格局和新发展格局强健了基础。但另一方面,AI技术在社会的广泛应用也带来了不可忽视的安全风险。

当前,数字技术等新兴领域已纳入国家安全范畴,“人工智能安全”已成为国家安全的重要组成部分。中国倡导的全球安全倡议和全球人工智能治理倡议为全球共同兑现AI发展红利、协力应对AI挑战提供了中国路线。在此背景下,大学作为思想阵地、育人平台和多元社群,既需要加强安全风险应对能力,也需要发挥在国家安全能力建设的主力军作用。

高校不是世外桃源,对AI带来的风险与挑战要有清醒的认识,要有应对之策。

AI的快速发展伴随着一系列安全隐患,包括数据安全、算法操控、信息和网络安全等。大学对于这些风险来说并非绝缘,而相关人才的培养也需系统布局。

国家安全教育体系必须适应AI技术的发展,培养兼具技术理解、伦理意识、政策把握和国际视野的复合型人才,以满足国家安全需求。大学应成为善用AI赋能与参与AI善治的主体之一,既要做好安全风险应对,也要乘势做好相关领域国家安全人才的培养工作。

在当前主流的数据驱动AI技术路径下,数据泄露和滥用成为国家安全的重要隐患。个人信息、社会经济数据、敏感领域信息的存储和处理需要严格、合理监管,以避免出现泄露甚至误导性决策。大学需要相应地加强AI安全课程,引导师生认识数据安全的法律法规,掌握必要的隐私保护技术。

AI算法能够在不同程度上决定信息传播,干预社会舆论,甚至影响重大政策和行动。恶意行为者利用AI生成虚假新闻、伪造身份、操纵社交媒体。大学师生群体作为这些恶意行为的目标人群之一和应对这类风险的重要群体,应加强AI伦理和治理素养,提升对算法偏见、信息操纵的认知,并加强舆论战防御策略培养,加强师生AI安全攻防实验,帮助师生了解一定的攻防前沿技术,培养必要的网络+AI安全实战能力。

2024世界人工智能大会暨人工智能全球治理高级别会议在上海举行

图源:新华社记者 黄晓勇

面对上述风险和需要,大学在AI安全人才梯队的培养和储备中可以发挥关键作用。其主体任务可通过课程体系、复合培养、实战演练、人才对接以及推动普及全民教育来落实。

首先,在构建AI安全课程体系方面,当前AI教育主要集中在技术和应用层面,对于安全问题的涉及不足。大学可建立完备的AI安全课程体系,如设置关于AI安全基础的课程,涵盖数据安全、算法安全、隐私保护、网络安全等基础知识;涉及人工智能伦理与法律的课程,探讨AI治理、法律法规、国际规范等内容;有关AI安全攻防实战的课程,模拟真实环境演练,提高实战能力;体现深度伪造与信息战认知战的课程,涉及深度伪造检测、舆论操控防御、信息溯源技术等。这些课程应覆盖计算机、法学、国际关系、国家安全等专业,确保不同学科的学生都能系统接触AI安全知识。

其次,在培养复合型人才方面,应加强跨学科融合。AI安全涉及技术、法律、伦理、政策等领域,单一学科难以全面覆盖和立体应对。大学应推动计算机科学、国际关系、法律、社会学等学科交叉培养。这些学科既要各专其职,更需有组织的跨域培养。如计算机专业学生需学习AI伦理与政策,理解算法监管、隐私保护、国家安全法等内容;法学专业学生需掌握AI技术基础,提高对AI法规的技术认知;国际关系学生需学习AI在军事与外交中应用的技术机理,理解AI对国际安全秩序的影响。这种跨学科培养模式能够让学生具备多维度思考能力,更好地适应国家安全环境。

再者,在推动实战训练方面,可建立相应的跨学科AI安全实验室,突破和超越课堂教学,提供实操机会。这些实践可包括:AI攻防演练,设置模拟网络环境,组织师生进行AI漏洞挖掘、红蓝对抗训练;舆论战与假信息检测,利用真实数据进行信息溯源、深度伪造检测训练;AI武器化与国家、国际安全的关系:模拟无人机、自动化武器的作战决策,探索AI在安全领域的应用边界和风险应对。相应的实践实战体系需开放、灵活、立体、有机。

在上述工作基础上,还要推动产学研合作,建立人才输送机制。大学与政府、企业、科研机构应紧密合作,共同推动AI安全研究和人才培养。这包括与国家有关部门合作,培养适应国家安全需求的AI人才,如网络安全专家和分析人员等;与科技公司和产业界合作,共同研发AI安全技术,确保AI产品符合国家安全和国际治理要求;与国际组织合作,推动全球AI治理研究,为中国在国际AI安全治理中提供智库支持和人才储备。这些合作将有助于形成“高校—政府—产业”的AI国家安全人才输送机制。

最后,发挥大学的公民教育阵地作用,需要积极参与普及国家安全教育,提高全民AI安全意识。AI安全不仅是技术问题,也关乎社会认知。大学应结合如全民国家安全教育日等重要节点,开展AI安全科普活动,提高社会对AI安全风险的认知。可依托学校的多学科优势,组织“AI安全挑战赛”,让校内外人群体验不同的AI赋能与风险场景。亦可通过综合学术和政策资源,举办专家讲座,邀请政府人员、学者探讨AI安全政策和法律框架。还可通过已经较为成熟的在线课程平台,开发相关课程,面向社会普及AI安全基本知识,引导公众更好地善用AI,提高公众对AI滥用的警惕性。

AI发展第一、二梯队的一些国家已在AI安全教育上采取多种措施,可资借鉴。如美国通过在大学设立AI伦理、安全相关研究中心,与政府合作支持AI安全研究计划;欧盟推动高校AI治理课程,并与政府合作开发AI安全标准等。相比较,中国AI安全教育的优势在于政府推动力强、产学研结合紧密、多学科布局完整、人才储备量大,但需有效加强跨学科融合与国际合作,以切实提升AI安全治理的人才储备质量。

AI在国内事务、国际关系和国家安全领域的应用,既可能带来前所未有的赋能效应,也伴生复杂多样的安全风险。我们必须在总体国家安全观的指引下,统筹发展和安全两件大事,既充分利用AI提升国家安全和发展水平的能力,又要严密防范多种、多重风险对国家安全的侵蚀,更要积极发挥中国在全球AI善治中的责任和作用。中国倡导“共同、综合、合作、可持续”的全球安全观,积极推动将AI纳入全球安全治理议程,通过对话合作化解风险,让AI这柄“双刃剑”的正面效应最大化,负面效应最小化。唯有如此,人类才能在人工智能时代既享受技术进步带来的福祉,又避免陷入新技术失控的安全陷阱,实现持续的和平与安全。大学是培养AI安全专业人才、提升全社会的科技安全素养的平台,也是为国家安全、全球治理夯实人才储备的阵地。通过构建系统的AI安全课程、推动跨学科融合、强化实验室训练、深化产学研合作、普及国家安全教育,中国高校方可大有作为,为国家安全提供坚实的技术与智力支持。


原文:《北京大学校报》第1686期第1版

最新文章