在生成不准确的历史图片後,Google 暂停了 Gemini 生成人物图片的功能,并表示很快就会发布改进的版本。
所谓不准确的历史图片,指的是一些 Gemini 使用者在请该 AI 模型描绘历史群体或人物(如开国元勳)的图片时,发现 Gemini 似乎有意识地避开生成白人的图片,包括如果要求 Gemini 生成「1800 年代美国参议员」,得到的结果会包括黑人和美国原住民女性,不过历史上第一位女性美国参议员却是在 1922 年才有,且还是白人。此外,在生成「二战德军」的图片时,居然出现了由黑人、亚裔女性穿着德军军装的照片,与历史严重不符,Gemini 更被认为是「在消除种族与性别歧视的历史」。
AI 新创公司 Hugging Face 首席道德科学家 Margaret Mitchell 表示,Gemini 之所以产生不符历史事实的例子,可能是由以下几种类型干预造成的。她表示,Google 可能「在幕後」为使用者的 prompt 添加了种族多样性的术语。在这种情况下,像「厨师的肖像」的 prompt,就可能会变成「原住民厨师的肖像」。在这种情况下,Google 可能随机选择附加的术语,并且也可能添加多个多样性术语。
Mitchell 说,Google 也可能更优先显示深色肤色生成的图片。例如,如果 Gemini 为每个prompt 产生 10 张图片,Google 会让系统分析图片中描绘的人物的肤色,并将肤色较深的人的图片推到队列中的优先位置。因此,如果 Gemini 只显示前 4 张图片,那麽最有可能看到肤色较深的图片。
这则新闻已经在美国社群媒体上引起热烈讨论,尤其是右翼人士对此猛烈批评,过去他们经常批评如今的社群媒体环境以及 AI 工具都太偏向自由主义,不过 Google 以及其他科技公司却对於 AI 可能加深种族偏见感到担忧,因此相当强调少数族裔以及有色人种的代表性,但如今却出现了过度纠正的问题。
现在生成人物图片的能力已经被 Google 暂时撤下,若使用者要求,会看到 Gemini 回应:「我们正在提升 Gemini 生成人物影像的能力,预计此功能很快就会回归,并会在发布更新时通知您。」
Gemini 生成图片的能力是 Google 在本月稍早时开放的,以和 OpenAI 以及微软 Copilot 等对手竞争。
快加入 INSIDE Google News 按下追踪,给你最新、最 IN 的科技新闻!