林佳涛联合实验室:智能体数据风险全生命周期治理转向
3月24日,以“APEC中国年 贡献粤智慧”为主题,AI数据隐私保护交流会暨广东省网络数据安全与个人信息保护协会揭牌活动在广州举行。粤港澳大湾区生成式人工智能联合实验室专家林佳涛作“生成式人工智能数据安全的挑战与应对”主题分享。
林佳涛在分享中指出,随着生成式人工智能从“聊天助手”向“执行助手”加速演进,智能体已具备自主规划与执行能力,其数据安全风险贯穿采集、标注、训练、生成、销毁全生命周期,必须从“被动防御”转向“全生命周期主动治理”。他结合联合实验室的实践,阐释了当前智能体发展面临的数据安全挑战与应对路径。

粤港澳大湾区生成式人工智能联合实验室专家林佳涛作主题演讲。
全生命周期视角下的数据安全风险与典型威胁
林佳涛首先梳理了生成式人工智能全生命周期各环节的风险点。在数据采集阶段,存在非法手段获取数据、超范围收集信息、数据投毒与侵权、训练数据内容不当等问题。在数据标注阶段,标注规则不清晰、人员培训不足、监督缺失可能导致标注环节成为污染源;在训练与优化阶段,数据偏见、算法黑箱、敏感信息泄露风险尤为突出;在内容生成阶段,生成有害或误导信息、隐私泄露与滥用、知识产权归属争议等问题直接影响用户权益与社会秩序;在数据销毁阶段,销毁不彻底可恢复、缺乏统一监管标准和有效监督机制,使得数据生命周期末端同样存在隐患。
他指出,当前生成式AI面临三大典型数据安全威胁:首先是数据投毒与模型污染。攻击者通过注入恶意数据污染模型,使其输出错误或偏见信息。以“毒泉”攻击技术验证为例,最多10%的投毒比例,就足以影响代码生成模型的行为,使其输出有编码错误的代码,严重破坏模型的可靠性与安全性。
其次是隐私泄露与记忆效应。模型可能“记住”训练数据中的敏感信息,并在生成时意外泄露。林佳涛举例道,2024年三星引入ChatGPT后,员工将企业机密信息以提问方式输入,导致半导体设备测量资料、源代码、产品良率等数据进入学习数据库,外泄至境外服务系统且无法收回,企业随后全面禁用ChatGPT。这一事件表明,隐私泄露已从个人层面延伸至企业核心机密。
最后是提示注入攻击。林佳涛指出,攻击者构造诱导性提示,让模型忽略安全规则执行未授权操作。其攻击流程通常为:攻击者注入恶意指令,构造嵌套提示伪装成正常对话,模型执行指令时忽略安全规则,解析并执行恶意代码,最终造成数据泄露、权限提升或执行破坏性操作。这种攻击方式隐蔽性强、危害大,对智能体的安全防护提出了更高要求。
林佳涛强调,面对这些风险,数据安全防护必须从“被动防御”转向“全生命周期主动治理”,构建覆盖数据全链条的防护体系。
数据跨境流动的核心场景与复合风险
粤港澳大湾区具有“一国两制三法域”的特殊背景,数据跨境流动既是区域优势,也是安全治理的难点。林佳涛结合联合实验室的观察,分析了当前数据跨境流动的四大核心场景:
一是跨境调用算力。 国内企业因成本或算力需求,主动将数据传输至境外服务器进行模型训练或生成任务。二是调用境外GAI服务。 使用境外API接口或云服务平台,数据需出境处理,内容审核等环节同样涉及跨境传输。三是使用境外开源模型。 利用GitHub等平台代码构建生成式AI应用,可能因自动回传或日志机制导致数据外流。四是跨境外包服务。 将数据清洗、标注等环节外包,涉及大量敏感信息跨境传输。
林佳涛指出,基于此,数据跨境流动带来了三重安全风险:在个人信息安全与隐私风险方面,数据出境导致用户隐私泄露风险增加,监管真空使得个人信息难以得到有效保护。在GAI产业安全风险方面,技术上链路延长增加了攻击面,合规上面临“数据碎片化”与监管冲突,商业上可能导致核心机密泄露。在国家安全与数字主权风险方面,训练数据可能带有价值观偏差,虚假信息跨境传播,敏感数据流动直接威胁数字主权。
他特别提到,我国已构建起较为完备的数据跨境流动政策法规体系,为数据跨境合规提供了制度保障。但在生成式人工智能快速发展的背景下,仍需进一步细化落地路径。
联合实验室的湾区实践:构建“源头管住、过程看住、应用稳住”的治理体系
林佳涛介绍,粤港澳大湾区生成式人工智能安全发展联合实验室由广东省委网信办、国家互联网应急中心广东分中心联合牵头,以“政产学研用”深度融合为路径,以粤港澳大湾区企业为主体,联合相关高校、科研机构、媒体等组建合作共同体,旨在构建共建、共治、共享的人工智能创新治理生态。
联合实验室的建设得到了广东省委的高度认可,被列为省落实党的二十届三中全会精神的重要事项。自2025年9月正式揭牌以来,为构建“动态敏捷、多元协同”的创新治理联合体不断努力。
在具体实践上,联合实验室围绕三大方向构建治理体系。一是“源头管住”,即生成式人工智能源头数据安全与合规治理。根据国家网信办等7部门发布的《生成式人工智能服务管理暂行办法》要求,联合实验室开展生成式人工智能服务数据安全与合规评估,建成生成式人工智能安全测评系统,拥有百万级测评问题集,可实现即时对话测试、批量化自动化评测、生成内容安全风险辅助判别与审核管理、大模型安全态势感知等功能。截至目前,已累计服务全省大模型备案登记130余款。
二是“过程看住”,重视AI标识管控下的数据传播安全。 2025年9月1日施行的《人工智能生成合成内容标识办法》为保障AI数据传播安全提供了制度保障。联合实验室通过自动化AI标识评估系统,确保数据生成与传播可追溯、内容真伪可验证,防止虚假信息扩散,同时防止AI数据大规模污染互联网,保障模型训练迭代质量。联合实验室已上报多款省内外未进行AI标识、AI标识不规范的应用。
三是“应用稳住”,即执行型智能体的全生命周期数据安全。 针对智能体正由“聊天助手”向“执行助手”演进、具备自主规划与执行能力的新趋势,联合实验室已针对这一新型风险构建起“风险发现—研判分析—上报处置”的全流程数据安全治理体系,覆盖数据采集、标注、训练、生成、销毁全部环节。
出品:南都大数据研究院
采写:南都N视频记者 孔令旖
热门专题
热门推荐
根据Gartner最新市场报告,2025年全球PC出货量突破2 7亿台,同比增长9 1%。在人工智能技术浪潮与AI PC算力升级需求的双重驱动下,整个PC行业正迈入一个全新的增长周期。作为细分市场的重要力量,游戏笔记本电脑也迎来了关乎性能、体验与场景定义的关键换代节点。 回顾行业发展,英特尔于202
TUSD是一种与美元1:1锚定的合规稳定币,由TrustToken团队推出。它通过第三方机构定期审计和银行账户托管确保透明度,旨在提供可靠的数字美元解决方案。其用途涵盖交易、支付、DeFi及跨境结算,但用户仍需关注其中心化托管、监管变化及智能合约安全等潜在风险。
OpenClaw 生态中那个关键的“眼睛”和“手”——Peekaboo v3,正式回归了。这不仅是一次版本更新,更像是一次关键的“补完”。它让 AI 不再只是停留在聊天框里给出建议,而是真正获得了观察屏幕、点击按钮、操作真实桌面的能力。 过去几个月,OpenClaw 的热度经历了一个典型的周期:从概
微信小游戏《找个球》,玩的就是眼力。每张看似相同的图片里,都藏着好几处“破绽”——有的明显,有的则隐蔽得让人抓狂。从简单的卧室场景,到复杂的宴会、雨夜,关卡越往后,画面细节越多,挑战也越大。想通关?秘诀就一个:沉住气,从左到右,一寸一寸地对比。 为了方便大家攻克难关,这里整理了一份全关卡通关攻略图合
《找个球》第10关攻略详解:如何快速找出15处不同?本关场景围绕经典角色“嬛嬛”与“大胖橘”展开,挑战在于发现两幅图片间的细微差别。这些差异点主要隐藏在人物的发饰造型、衣领褶皱、服饰花纹等细节处。同时,背景中的花草形态、秋千绳索乃至庭院摆设也可能存在巧妙改动。想要高效通关,建议玩家采用分区对比法,先





