9月21日消息,周三, OpenAI发布了其新版图像生成器DALL-E的预览版本,该工具可以根据书面提示生成图像。同时,OpenAI计划将其整合到广受欢迎的ChatGPT聊天机器人中。在立法者呼吁对生成式人工智能施加更多限制之际,OpenAI正在扩展这项有争议技术的应用范围。
这款名为DALL-E 3的新工具在理解用户命令和将文本转化为图像方面表现更出色,这是之前人工智能图像生成器的短板。OpenAI的研究人员表示,语言的进步使DALL-E 3能够更好地解析复杂指令,避免混淆详细请求中的元素。
DALL-E 3团队负责人阿迪提亚·拉梅什(Aditya Ramesh)表示:“普通用户可以登录ChatGPT聊天机器人,向它询问一些模糊的问题。”在演示期间,拉梅什分享了一个企业主为名为Mountain Ramen的公司测试不同标识场景的例子。
尽管这个新工具目前仅供少数用户进行早期测试,但OpenAI计划在10月份向ChatGPT付费订户开放,从而大大增加与该技术互动的人数。
OpenAI正面临越来越大的竞争压力。谷歌推出了一系列人工智能驱动的产品,导致DALL-E和OpenAI旗舰聊天机器人的流量和月度用户增长放缓。但通过将其新颖的图像生成器整合到ChatGPT中,OpenAI正在扩大市场,并将该技术作为聊天机器人的一个功能,而不是独立产品。
OpenAI的公关主管林赛·海德·博尔顿(Lindsey head Bolton)表示,在新闻发布会上记者们无法测试该功能,因为DALL-E 3在发布时还存在一些小故障。不过,OpenAI后来表示,到周三发布时,DALL-E 3会稳定下来。
之前推出的DALL-E 2、Midjourney和Stable Diffusion等文本转图像生成器在早期就吸引了用户,为公众提供了掌握高级软件能力的机会,而无需技术技能。广告商、营销人员、政界人士和视频游戏开发商都在利用这些工具进行宣传活动。
然而,数据分析公司SimilarWeb的数据显示,DALL-E工具的在线访问量已经放缓,从2023年3月OpenAI升级ChatGPT底层技术时的3200万峰值降至8月份的约1300万。
尽管文本转图像人工智能技术的未来存在不确定性,但其发展几乎没有限制,引发了人们对其制作逼真图像能力对社会和政治产生巨大影响的担忧。
旧版DALL-E生成的街道标志和文本显得十分混乱,因此很容易识别出人工智能生成的图像。然而,DALL-E 3的改进使外行人更难识别图像的真伪。加州大学伯克利分校教授哈尼·法里德(Hany Farid)表示:“你不再能相信自己的眼睛。” 法里德是数字取证研究专家,与Adobe合作支持内容真实性倡议。
法里德强调,DALL-E 3的改进并不足为奇,因为人工智能每六个月左右就会在模仿现实世界方面取得更好的表现。他呼吁采用先进技术,从人工智能中消除人类创造的东西。
OpenAI的竞争对手Stability AI和Midjourney面临来自艺术家和Getty Images的诉讼,指控训练生成式人工智能模型所需的大量互联网数据构成版权侵权。
执法部门、监管机构和倡导团体最近开始关注这些工具的用途,例如用于制作深度伪造的成人内容以及为即将到来的总统选举制作人工智能广告等。
DALL-E 3团队表示,他们优先考虑了这些风险,并邀请外部专家组成的“红队”测试最坏情况,将其经验融入公司的应对策略中。
对于DALL-E 2,OpenAI在一张系统卡片中发表了该过程的详细简介,详述了AI模型的开发、微调和安全测试的公开说明。政策研究员桑德希尼·阿加瓦尔(Sandhini Agarwal)表示,OpenAI计划在DALL-E 3向公众开放之前发布一张类似的卡片。作为6月份在参加白宫峰会自愿承诺的一部分, OpenAI同意开发和部署预防机制,用于识别由人工智能生成的视频或音频内容,通过图像水印或编码来源数据等方法指示内容创建的服务或模型。拉梅什说,DALL-E 3正在试验一种分类器,可以查看图像的来源或内容的“来源”,这是白宫承诺中提到的一种方法。
开源模型库公司Hugging Face的研究科学家、谷歌伦理人工智能前联合负责人玛格丽特·米切尔(Margaret Mitchell)表示,这些机制有助于识别深度伪造,同时也可以帮助艺术家追踪他们的作品是否未经同意或赔偿地用于训练模型。
米切尔补充说:“这不一定符合公司的利益,但我认为它符合更多人的利益。”(小小)