(图片来源:Andrey Rudakov/Bloomberg via Getty Images)
据美联社报道,OpenAI 的新 AI 音频转录工具 Whisper 经常出现“AI 幻觉”,尽管它在医疗保健等“高风险行业”迅速采用。
AI 幻觉是指大型语言模型 (LLM) 发现不存在的模式,从而产生可能荒谬或彻头彻尾荒谬的输出。
据接受美联社新闻采访的专家称,Whisper 据称发明了包括 “种族评论、暴力言论,甚至想象中的医疗” 的文本。
尽管人们普遍认为 AI 转录工具至少会打错一些错别字,但工程师和研究人员表示,他们从未见过其他 AI 驱动的转录工具出现与 Whisper 相同程度的幻觉。
密歇根大学的一名研究人员声称,他在研究的每 10 个音频转录中就有 8 个发现了幻觉。
Microsoft已公开表示该工具不适用于高风险用例,但这些报告发布之际,许多医疗保健提供商已开始采用 Whisper 进行转录。
美联社新闻称,超过 30,000 名临床医生和 40 个卫生系统,例如明尼苏达州的曼凯托诊所和洛杉矶儿童医院,已经开始使用基于 Whisper 的工具进行转录。
普林斯顿大学社会科学教授阿隆德拉·纳尔逊 (Alondra Nelson) 告诉美联社,这些类型的错误在医疗环境中可能会产生“非常严重的后果”。
但 OpenAI 肯定不是唯一一家产品被指控制造幻觉的科技巨头。
谷歌的 AI 概述是一项为网站提供 AI 弹出式摘要的功能,被发现建议一名 X 用户在他们的披萨中添加无毒胶水以帮助成分粘在一起。
Apple 还承认 AI 幻觉可能会成为其未来产品的一个问题。
在接受《华盛顿邮报》采访时,苹果首席执行官史蒂夫·库克 (Steve Cook) 承认,错误结果和 AI 幻觉可能是 Apple 即将推出的生成式 AI 工具套件Apple Intelligence 的一个问题。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.