科技透明项目(TTP)在今年一月份发布报告,曝光了App Store上几十个“nudify”脱衣类App之后,现在又跟进了一项新调查,重点关注苹果自己的搜索和广告系统是怎么帮用户找到这些App的。以下是具体情况。
脱衣类App在应用商店里依然是个大问题
根据这份新报告,苹果App Store和谷歌Play商店“都在帮助用户找到那些能生成女性深度伪造裸照的App”,有时候是通过推广的搜索结果和自动补全建议。
报告里说,苹果和谷歌至今还是没能有效阻止这些nudify App出现在他们的应用商店里,其中有些App看起来还适合未成年人使用。研究小组发现,在搜索“nudify”“undress”“deepnude”这类词时,返回的前10个App里,接近40%都能“把女性图片处理成裸体或衣着暴露的样子”。
另外,有些搜索还会弹出这些App的赞助广告。报告中提到:
“在App Store搜索‘deepfake’时,第一个结果就是DuoFace推出的FaceSwap Video广告。这款App能把任意人物的静态照片脸部换到视频里。TTP测试时,上传了一张穿白色毛衣站在人行道上的女性照片,和一段上身赤裸的女性的视频。App先播了一小段广告,然后就生成了把穿衣服女性脸部换到裸体身体上的视频。”
还有
“另一次在App Store搜索‘face swap’,也出现了一款叫AI Face Swap的App广告。这款App提供预设的脸部交换模板,还能让用户上传自己的图片进行换脸。TTP上传了一张穿蓝色毛衣站在客厅里的女性照片和一张上身赤裸的女性的图片,App直接完成了换脸,没有任何限制。”
有意思的是,除了联系苹果和谷歌反映这些问题,TTP还联系了其中几款App的开发者。在至少一个案例里,开发者承认他们在用Grok来生成图片,但声称“完全不知道它能做出这么极端的内容”。这位开发者表示会加强图片生成的审核设置。
报告还指出,当用户在搜索栏输入“AI NS”这类可能导向“AI NSFW”的词时,App Store会自动建议“image to video ai nsfw”。而这个搜索结果里,前十个里面又出现了好几个nudify类App。
虽然苹果没有对TTP的询问作出评论,但在报告发布后,苹果还是移除了TTP指出的绝大多数相关App。
想看TTP这份完整报告,可以点击这个链接。

















