OpenAI正在推出一种可以检测由微软支持的DALL-E 3文本转图像生成器生成的图像的工具,准确率约98%,并能处理常见的修改但影响最小。这是由于人们对AI生成内容可能对全球选举产生影响的担忧。
OpenAI 最近宣布了一项重大创新,它们推出了一款能有效识别由微软支持的文本转图像生成器 - DALL-E 3 创建的图像的工具。
据 OpenAI 的内部测试,这个新工具在大约 98% 的时间里都能准确地识别出由 DALL-E 3 生成的图像。这个工具的强大性甚至超过了其基本的识别功能。它还能处理诸如压缩、裁剪和饱和度变化这样的图像修改,并且受影响的程度微乎其微。更进一步说,OpenAI 还计划在这个工具上添加一个防篡改水印功能,它将在照片、音频等数字内容上添加一种几乎无法删除的标记。
这一工具可能会成为阻止「深度伪造」技术滥用的关键。深度伪造是一种令人担忧的新技术,它通过 AI 算法生成极其逼真的伪造图像或视频。许多案例已经表明,如未受到遏制,这种技术可能对全球选举产生重大影响。比如,2018年美国中期选举期间,一部假冒总统川普发表言论的深度伪造视频在网上广泛流传,造成了社会的混乱和误解。
为了进一步处理这个问题,OpenAI 加入了一个包含 Google、Microsoft 和 Adobe 等重量级公司的行业组织,这个联盟是由 Adobe 等公司共同创建,并开放给其他公司使用,包括开放给微软等公司使用。该组织正在制定一种追踪各种媒体来源的标准。这样,当假新闻和经过深度伪造的内容开始流传时,公众会更容易判断内容的真实性和来源。
此外,OpenAI 还与微软合作,投入了 200 万美元的基金,启动了一个名为"社会复原力"的项目,以推动人工智能教育。这种投资是为了让更多的公众理解人工智能的运作,有了这些知识,人们就能更好地识别人工智能生成的假信息,从而避免被欺骗。
所有这些措施都表明了 OpenAI 对人工智能可能带来的问题的深度关注。通过持续更新和优化工具,并积极参与行业合作,OpenAI 显然正在寻求减少人工智能在全球选举中可能产生的负面影响,以进一步推进透明度和公平性。
人工智能的使用具有重大责任,特别是在防止深度伪造和虚假信息的传播上。目前,许多人正在采取行动,维护信息环境的真实性。从每一个普通公民到科技巨头,我们都在积极参与,共同的目标就是让技术发挥其应有的服务作用,而不是被滥用来误导公众。这是一项我们在努力推动的工作,也期望其能够易于理解和接受。
网友评论