AI 在学习中也可能学会了大量的歧视和偏见,随着 AI 自动化愈来愈普及,AI 偏见的影响层面可能造成结构性的伤害。另外,随着生成式 AI 崛起,容易产生错误资讯的特性也让假新闻更加猖獗。因此 Google 在 AI 应用上也不停强调会推出负责任的 AI,在 Google I/O 发表会,Google 提出了一些准则以及解决方案。
首先,Google 先考量 AI 应用是否对社会有益,以及有没有可能对任何人造成伤害。
针对假资讯,Google 搜寻会提供相似图片的来源以及事实查核网站资讯,再来,Google AI 生成的图像,会在 metadata 标注,让使用者能知道这是由 AI 生成的图像。
另外 Google 的语音翻译合成技术,虽然可以弭平语言隔阂,但也可能遭有心人士利用来造假影片,因此他们有一套完整的安全方案,而且只提供技术给认证的合作夥伴。
他们也因安全隐私疑虑,不开发通用脸部辨识系统,避免面部资讯的滥用。
另外,像 ChatGPT 为人诟病容易参杂瞎掰的讯息,Google Bard 则是透过逆向检测纠正错误的前提。Google 也有推出 Perspective API 帮助研究者去除资料中的有害内容,现在也广泛为 Anthropic 和 OpenAI 等公司所用。
还有网路上内容创作者的作品心血被 AI 当作资料库训练,也引起不少争议,造成尤其像图像创作者、绘师就对 AI 生成图像非常反感,也对创作生态造成负面影响,Reddit 也提出考虑针对文字被用於训练资料将会向这些 AI 公司收费。Google 则是强调让创作者、网站可以自行决定要不要让 AI 抓资料。
Google 的 AI 开发道德准则在几个有重大争议的争点上都有相对应的处理,也持续强调先负起责任,才能大胆地去开发。
核稿编辑:Chris