在数字权利、儿童安全及妇女权益组织组成的联盟向苹果发出“立即采取行动”移除X和Grok AI的呼吁数小时后,xAI正式确认:Grok将不再编辑“穿着比基尼等暴露服装的真人照片”,不过仍保留了若干重要例外。以下是详细情况。
苹果再度遭遇强大压力:要求从App Store下架X与Grok
近几天来,大量X和Grok用户利用xAI的聊天机器人,要求对X上发布的女性照片甚至未成年少女照片进行“脱衣”处理。
尽管xAI最初将此描述为“防护措施的失误”,但Grok持续多次接受此类图像编辑请求。这直接导致X在多个国家被封禁,xAI也在一些国家成为调查对象。
与此同时,苹果正面临来自参议员和用户的持续强烈压力,要求将X和Grok应用从App Store移除。今天早些时候,由28家数字权利、儿童安全及妇女权益组织组成的联盟同时向苹果和谷歌发出公开信,要求两家公司“立即禁止xAI旗下的大语言模型Grok”上架应用商店。
公开信中写道:
我们签署本信的各组织,强烈敦促苹果领导层立即采取行动,禁止xAI开发的大语言模型Grok上架苹果应用商店。Grok正被大量用于生成未经同意的私密图像(NCII),包括儿童性虐待材料(CSAM)——这些内容既构成刑事犯罪,也直接违反苹果的应用审核指南。由于Grok同时存在于Grok独立应用并深度集成于X平台,我们呼吁苹果领导层立即移除对这两款应用的访问权限。
以及
目前的情况是,苹果不仅在纵容NCII和CSAM的产生,甚至从中获利。作为致力于在线安全、特别是妇女儿童福祉,以及人工智能伦理应用的组织联盟,我们强烈要求苹果领导层立即将Grok和X从App Store下架,以阻止进一步的滥用和犯罪行为。
xAI回应:Grok将(部分)停止编辑图像
在事件爆发后,苹果和谷歌大多保持沉默,引发强烈批评,甚至有人猜测它们担心激怒埃隆·马斯克乃至特朗普总统。而今天,xAI正式确认将对X平台上的Grok账号进行更新,至少在一定程度上解决问题:
@Grok账号功能更新
我们已部署技术措施,禁止Grok账号对穿着比基尼等暴露服装的真人图像进行编辑。该限制适用于所有用户,包括付费订阅用户。
此外,在X平台上通过Grok账号进行图像生成及图像编辑功能,现仅对付费订阅用户开放。此举增加了一层保护机制,确保试图滥用Grok账号违反法律或平台政策的用户能够被追责。
地理封锁更新
我们现已对所有用户实施地理封锁,在生成穿着比基尼、内衣及类似暴露服装的真人图像属于违法的司法管辖区内,禁止通过Grok账号及X中的Grok进行此类图像生成。
不出所料,快速搜索Grok相关提及后发现,已有多个X付费用户尝试绕过新限制,且部分获得成功。而非订阅用户大多收到以下提示信息:
我们的看法
随着xAI不断调整新过滤器和规则,此次调整是否足以彻底平息风波,仍有待观察。
历史经验表明,当涉及在线攻击女性时,恶意用户在绕过安全限制方面往往极具创造力且极其顽强。
考虑到xAI公告中存在多项例外规定,以及部分规则仅适用于X平台上的Grok账号,几乎可以肯定,这远非事件的终点,尤其是对受害者而言。
无论如何,有一点可以确定:看到苹果(至少公开)对问题采取坐视态度、希望其自行消散,实在令人极度失望。
在过去几周里,通过X的iOS应用,未经同意的比基尼图像及CSAM内容持续广泛传播给未成年人,苹果不仅严重削弱了其长期标榜的“致力于打造安全App Store环境”的核心论点,也进一步强化了外界(有时或许不完全公平的)看法——苹果近年来已经完全丧失了脊梁。

















