您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. NLP语言模型隐私泄漏风险

  2. 我们发现,通用语言模型中的文本嵌入会从纯文本中捕获很多敏感信息。一旦被对手访问,嵌入信息可以被反向设计,以披露受害者的敏感信息,以进行进一步的骚扰。尽管这样的隐私风险可能会对这些有前途的NLP工具的未来影响造成真正的威胁,但是目前还没有针对主流行业级语言模型的公开攻击或系统评估。
  3. 所属分类:机器学习

    • 发布日期:2020-04-20
    • 文件大小:2mb
    • 提供者:syp_net