泰勒斯威夫特的深伪色情影片并不是新鲜事,但这并不意味着我们不应该对此感到担忧。
Emma McGowan 2024年1月30日
在泰勒斯威夫特的AI生成色情图片在X前Twitter上走红之后,我们不禁想:这对AI的未来意味著什么?
最近,一系列AI生成的泰勒斯威夫特的露骨图片在X上迅速传播,凸显了AI技术的黑暗面。这些图片被认为是使用微软设计工具创造的,迅速引起广泛关注,同时也暴露了AI生成假色情作品的日益严峻挑战。
火烧云梯子npv随著这些图片在平台上迅速扩散,此事件不仅激起了粉丝和隐私倡导者的强烈愤慨,也引发了关于AI在媒体创作中伦理使用的重大问题。
Avast的威胁情报总监米哈伊萨拉特Michal Salt在这场关键讨论中提供了丰富的知识和专业见解。萨拉特对科技、安全和伦理的交集有著敏锐的洞察,并对AI生成内容的影响提供了细致的观点。
在接下来的几个部分中,我们将深入探讨他的见解,研究影像操控的历史类比,AI技术带来的伦理困境,以及在这个越来越由AI驱动的世界中对数位信任和安全的更深层影响。
假色情并不是新问题
萨拉特将AI生成栩栩如生图片的当前能力与以往使用Photoshop的行为进行对比。就像Photoshop曾经革新了图像编辑一样,AI现在使创建逼真的图像变得更简单。然而,操纵图片的概念并不新鲜;AI只是这场持续剧情中的最新工具。
他解释道:“这在某种程度上只是一种不同的照片编辑软体。”他强调,操纵图片的概念在十多年前就已然引起关注。现在的关键区别在于AI技术带来的便利性和可及性。这一变化引发了社会如何适应和监管这些新工具的重要问题,这使得创建真实图片变得比以往任何时候都更容易。
AI与露骨内容的伦理困境
当前最迫切的问题之一是使用AI生成露骨图片,尤其是特定个人而未获得其同意的伦理影响。虽然生成一般的裸体图片可能不会引发太多的伦理问题,但创建可识别人员的露骨图片的容易性则成为真正的问题。
萨拉特表示:“AI生成色情内容本质上并没有错,或在伦理上存在问题。”他补充道:“但对我来说,伦理问题在于你可以相对轻易地生成含有已知或特定面孔的图片。”
这种能力不仅限于像泰勒斯威夫特这样的名人,几乎可能适用于任何人,这凸显了建立伦理指导方针和立法的必要性:所谓的“复仇色情”或非自愿分享裸体图片在48个州是违法的,而AI生成的深度伪造色情作品目前仅在10个州被禁止,这一明显差异突显了立法亟需跟上技术的步伐。
AI公司如何防止生成深度伪造色情作品?
或许因为生成AI的访问相对较新,围绕未获得当事人同意生成露骨内容的管控措施十分有限。然而,根据萨拉特的说法,实施这些措施对AI公司而言并不困难:像不允许生成特定人员的图片或不使用客户提交的图片作为素材这样简单的措施,就能够为绝大多数人提供足够的障碍。
萨拉特指出:“当然,有些人能够打破这些限制,迫使模型做一些它不该做的事情。就我而言,现在几乎无法完全避免这一点我们只能让这变得更难。我想我想表达的观点是,提供这些服务的公司应该更加努力去避免这种情况的发生。”
也有可能某人会创建自己的色情生成模型,并不具备任何限制。萨拉特指出,尽管这是可能的,但实施起来需要相当多的技术知识和大量的计算力。
“并不是很多人能够自己创建一个AI来生成裸体图片。”萨拉特说。“因此,这将更类似于使用Photoshop,你需要有一定的技能水平才能做到这一点。”
萨拉特将当前的AI发展状况与安全行业的演变相提并论。他观察到,安全行业正在“从头开始对AI进行重新建构”。这一比较强调了将AI开发视为一个持续过程的重要性,其中辨识和修复漏洞是技术成熟的关键。
泰勒斯威夫特在X上的AI生成图片凸显了负责任使用AI的重要性。随著AI的不断进步,平衡技术能力与伦理考量和安全措施将至关重要。通过向像米哈伊萨拉特这样的专家学习,并反思过去挑战,我们可以以更具知识和谨慎的方式驶过这一复杂的景观。