纽约大学一项研究指出目前最新方法的错误:阻止文本到图像的人工智能模型生成非法内容 字体: 大 中 小 时间:2024年03月15日来源:AAAS 编辑推荐: 在将于2024年5月7日至11日在维也纳举行的第十二届国际学习表征会议(ICLR)上发表的一篇论文中,纽约大学坦顿大学的一个研究小组展示了如何通过简单的攻击绕过声称“消除”模型(如稳定扩散)生成明确的、受版权保护的或其他不安全的视觉内容的能力的技术。 纽约大学坦顿工程学院(NYU Tandon School of Engineering)的研究人员揭示了最近提出的方法的关键缺陷,这些方法旨在使强大的文本到图像生成人工智能系统更安全地供公众使用。 在将于2024年5月7日至11日在维也纳举行的第十二届国际学习表征会议(ICLR)上发表的一篇论文中,研究团队展示了如何通过简单的攻击绕过声称“消除”稳定扩散等模型生成明确的、受版权保护的或其他不安全的视觉内容的能力的技术。 Stable Diffusion是一...