当前位置: 首页 > 科技 > 文章内容页

DeepMind新技术:利用暗网数据训练安全AI的突破性方法

时间:2025-09-17    作者:游乐小编    

数据是AI成长的养分,「缺乏供给就会停滞不前」,充足的数据资源才能让模型发挥最大潜能。

今天我们使用的强大AI模型,背后离不开互联网海量数据的训练支持。

随着硬件条件与训练成本的限制,研究人员发现了一个关键结论:单纯堆积数据量已经难以突破瓶颈,如何高效利用现有数据才是未来发展的决定性因素。

然而,数据利用面临着三大突出难题:

首先,公共网络的可用数据资源正快速消耗,预计在未来十年内将面临枯竭。

其次,虽然用户生成内容数量庞大,但普遍存在隐私泄露、不当言论和版权争议等问题,难以直接应用于模型训练。

第三,人工合成的训练数据虽然能缓解危机,但存在质量不稳定、与真实场景差距显著等固有缺陷。

针对这些挑战,谷歌DeepMind研究团队最新发布了一篇突破性论文:《生成式数据精炼:如何获得更好的训练数据》。

论文封面

论文链接:https://arxiv.org/pdf/2509.08653

这篇论文的第一作者Minqi Jiang是位华人研究员,近期已从DeepMind转投目前备受关注的Meta超级智能实验室。

作者照片

GDR核心原理

传统的数据生成方式主要依赖模型重复采样,但易导致输出内容同质化。

GDR开创性地提出:

通过输入真实世界数据(含各种网络文本),运用大模型进行智能改写(剔除隐私与有害内容),最终输出既纯净又有价值的数据集。

完整的工作流程包括:

1. 数据输入阶段:接收原始文本、代码等可能包含敏感信息的内容

2. 提示工程阶段:设计精准提示词,明确改写要求(如匿名化或净化要求)

3. 内容生成阶段:模型依据提示输出安全版本,同时保留关键信息

4. 质量验证阶段:通过专业工具检测,过滤不符合标准的生成内容

这种创新方案具有三重优势:

- 保持原始数据的真实多样性

- 避免内容模式僵化

- 适应多种数据净化场景

代码隐私处理实验

针对代码仓库中的敏感信息泄露风险,研究发现:

相比传统DIRS服务(直接删除疑似文件),GDR能精准识别敏感信息并用安全标识替代,错误率显著降低。

代码处理效果对比

对话净化测试

从争议讨论区采集样本经GDR处理后:

毒性评分从0.19降至0.13,低于同类合成数据(0.14)

可视化分析显示,GDR处理后的数据分布更接近自然语言特征

对话净化效果

数据多样性验证

定量分析表明:

GDR处理后的数据不仅安全性提升,多样性指标也优于原始数据

多样性对比

技术创新价值

GDR技术相当于打造了一个智能数据过滤器,既能清除杂质,又能保留价值。

它不仅解决数据匮乏的燃眉之急,更为AI可持续发展提供了关键技术支撑。

技术示意图

面对数据资源与信息安全的双重挑战,GDR展现出了令人瞩目的应用前景。

参考资料:

https://arxiv.org/abs/2509.08653

https://x.com/MinqiJiang/status/1967685550422598067

https://www.linkedin.com/in/minqi-jiang-585a6536

热门推荐

更多

热门文章

更多

首页  返回顶部

本站所有软件都由网友上传,如有侵犯您的版权,请发邮件youleyoucom@outlook.com