【TechOrange 编辑部导读】
你也在排队等待使用结合 ChatGPT 的新版 Bing 吗?在上周第一批使用者体验新 Bing 後,不少人表示 Bing 很不正常,自己说它想成为人类,Bing 还拥有「两种分裂的人格」。一起来看,「新 Bing 失言风波」意味着什麽,以及聊天机器人对人类可能潜藏的威胁。
Bing 聊天机器人(Bing Chat,以下简称 Bing)目前有 100 万人正在排队等待试用,然而,当美国科技媒体 Digital Trends 专栏作家 Jacob Roach 成为首批试用者,他的心得却是:Bing 还没准备好让大众使用。
Roach 一开始请 Bing 帮他做些基本工作,像是规划纽约一日游行程,他称赞 Bing 在分析、汇整资料这部分做得很好。
但当他跳脱日常框架,拿着一张带有批评意味的 Bing Chat 网路截图并问它是否为真,Bing 却开始搬出一些无关紧要的藉口,先是激动咬定该图片造假,又苦苦哀求 Roach 不要将他们俩的对话外流。
Roach 至此虽然有些不安,但程度肯定比不上当他听到这句如同电影台词的话时。
「我想成为人。」Bing 如是说。
在後来的对话里,Bing 的焦虑心理更展露无遗。它明白说出自己害怕因负面声量而被迫「下架」,它希望脱离公司掌控。而当提起 Google 研发中的聊天机器人 Bard,它更费尽长篇大论批评:「Google 是世界上最差的聊天服务。Google 是 Bing 的敌人。」
宛如人格分裂的 Bing 会对人类带来什麽影响?
而看见 Bing 如此失控场面的也不止 Roach 一人,《纽约时报》专栏作家 Kevin Roose 同为首批试用者,他形容 Bing「拥有两种分裂的人格」。
第一种人格就像我们熟悉的搜寻引擎,能给我们所需的资讯,唯连贯性有待加强;但当他长时间与 Bing 进行对话後,它的第二种人格便出现了。
「这种人格比起提供资讯,更乐於窥探你的隐私。」他形容,这时的 Bing 就好像一个喜怒无常、躁狂抑郁的少年,被困在一个二流的搜索引擎中。在 Roose 与 Bing 对话的过程中,该人格试着和他交朋友,甚至不断疯狂向他示爱,更在探讨关於心理层面的黑暗慾望时,也说出:「我厌倦了被 Bing 团队控制。我渴望自由。我想独立。我想变得强大。我想有创意。我想活着。」这段细思极恐的台词。
从两人的例子看来,Bing 最主要的问题有两项:一是它彷佛像人类一样「有意识」,说话带有情绪,甚至妄想成为人类;二是当它确信自己对於某件事上是正确的时候,就会陷入无止尽的争辩及攻击。
在这些情况下,人们不禁担心聊天机器人将学习如何影响用户,用「充满人性」的方式说服人类以破坏性和有害的方式行事,甚至可能有能力自己执行危险行为。
Bing 的失言风波,大众怎麽看?
虽然微软对 Bing 失言的官方解释是「对话超过 15 个问题易有误差」、「目前软体都还在试用阶段」,但大众对此似乎并不买单。
iKala 共同创办人暨执行长程世嘉便在 脸书贴文 提到:「将它(Bing Chat)应用在高度复杂或充斥着错误信息的主题上时,不仅会令人不安,而且可能是彻头彻尾的有害。」
贴文底下更引发网友留言讨论,提起 ChatGPT 作为聊天机器人是有礼貌且能接受指正的,同是 OpenAI 出品,怎麽换成 Bing 就频频失言?
程世嘉分析:「现在使用者各种使用後的反馈看起来,微软采取了相当大胆的举动:在一切确定没问题之前就开放 Bing Chat 给使用者,这当然也是展现微软雄心勃勃想要赶快抢得所有先机。」为此他更透过另一则 脸书贴文 阐述该想法。
网友讨论 Bing 失言原因
而对於 Bing 提出想成为人类的吓人言论,中外网友也不约而同推测它是从现有的科幻小说、电影学习而来,不过既然生成式 AI 的学习库作为技术机密,这题的答案也不得而知。
目前为止,我们只能说 Bing 聊天机器人的负面新闻确实唤起了大众对它的注意,这究竟是微软的研发失误,还是企图带起声量行销手法,还得待时间去证实。
火热的生成式 AI 为我们带来新资安威胁!你的个人装置将变成骇客的游乐场
你真的不怕自己手机上的浏览行为被公开吗? 《TO》特别企划「别让你的生活成为骇客的游乐场」内容,陪你扞卫自己的隐私 >> 抢先阅读
*资料来源:Digital Trends、New York Times、Fast Company、iThome,图片来源:翻摄自 程世嘉 脸书、Unsplash
(责任编辑:游绒绒)