近日,美联社披露了一则关于OpenAI的Whisper转录技术引发广泛关注的报道。软件工程师、开发人员及学术研究人员纷纷对该技术的准确性表示深切忧虑,指出其存在严重的“幻觉”问题。
据悉,尽管生成式人工智能的编造倾向一直备受讨论,但Whisper在转录过程中竟也频繁出现此类问题,令人诧异。研究人员发现,Whisper的转录结果中常常混入与原始音频无关的内容,如种族评论和虚构的医疗治疗等。
特别是在医疗环境中,Whisper的错误转录可能带来严重后果。密歇根大学的研究人员在公开会议中发现,高达80%的音频转录存在幻觉问题。另一名机器学习工程师在研究了超过100个小时的Whisper转录后,也发现了类似的问题。
一名开发人员报告称,在使用Whisper创建的26,000份转录中,几乎每一份都出现了幻觉。对此,OpenAI发言人表示,公司正致力于提高模型的准确性,并明确指出其使用政策禁止在高风险决策环境中使用Whisper。