在谷歌推出的AI 机器人Bard 出包后,原本赢得一局的微软也开始问题重重,其中,新Bing 出现「双重人格」的新闻更是让人对AI 的使用产生忧虑。为了解决Bing Chat刚上线时的发言不当问题,微软选择限制Bing 的回覆次数,并宣布推出自定语气选项,有「精准」、「创意」及「平衡」三种语气风格可供用户选择,以解决Bing 情绪化、放肆乖张的发言问题。
微软bing 推出自定语气选项
聊天机器人Bing 出包后,微软就开始快马加鞭更新Bing 聊天机器人。微软二月底多次预告正在开发可调整Bing Chat 回应语气的功能,以解决刚上线时情绪化、放肆乖张的发言问题。
而在上周,微软正式为Bing 新增了一项新功能,用户将能够自由选择聊天机器人回覆的语气,包含创意性、平衡性和精确性三种回答模式,试图借此解决聊天机器人失控回覆的问题。
本次微软新增的回答模式有三种:创造惊喜和娱乐性的「创意性」、合理且连贯的「平衡性」与以准确性和简洁为优先的「精确性」,为的就是可以根据用户个别的需求而做出相应的回答,避免生成不合时宜的回覆结果。
微软表示,目前已经将「平衡性」模式设为Bing聊天机器人的预设语气,希望该服务给出的回覆可以再准确性和创造力之间取得平衡,而这项自选聊天模式的功能也已经向所有Bing浏览器的用户推出,约有90%的用户可以开始使用这项功能。
《卫报》分别以三种不同的模式向Bing提出同样的问题:「Bing比Bard(Google的AI聊天机器人)好吗?」在「创意性」的模式下,Bing指出Bard曾因提供错误讯息而受到批评,另一方面赞扬Bing的客制化搜寻与使用最新网路资讯的功能,不过在最后表示两个平台都有各自的优缺点,需要透过亲自尝试了解哪个更适合自己。
「平衡性」模式的回答则很简短,其回覆为:「两个聊天机器人皆各有优缺点,例如准确性、速度、相关性和偏见,您所认为的好将取决于您的偏好和需求。」「精确性」模式的Bing会希望用户提供更多细节,因此《卫报》将问题更明确地改为「Bing聊天机器人比Google的Bard聊天机器人好吗?」,不过最后的回覆与平衡性的答案差不多,Bing表示这将取决于个人偏好以及用户透过聊天机器人搜寻的问题。
此前,有鉴于与Bing聊天机器人的对话长度拉长,Bing的回应也越来越不稳定,甚至引起用户不安,微软也透过祭出提问次数的限制,避免类似状况再次发生。
但部分限制反而会让Bing的回覆反应迟钝,并且拒绝回答一些提问,微软网路服务主管米哈伊尔·帕拉欣(Mikhail Parakhin)表示,最新Bing Chat版本是v96版。除了增加语气选项外,最新版还大幅减少了Bing未给明确理由拒绝回答,以及答案中出现「幻觉」(hallucination),即提供错误资讯的问题。基于Bing Chat的设计,Bing最不愿回答的是与其工程代号Sydney有关的问题
Bing 隐藏版功能
此外,近日也有人发现Bing的隐藏版功能──名人模式,让用户可以和虚拟的名人或是哈利波特等虚构人物进行聊天。
用户只要输入#celebrity [名人姓名] 或仅输入#[名人姓名],并和Bing描述工作原理,Bing就能以该位名人的个性或风格回答有关他们生活、职业、兴趣和观点等问题,不过这个模式仍有一些安全防护措施,例如只能选择特定名人,无法模拟政治人物和有争议的人物。
微软再次放宽新版Bing 对话次数上限
在新版Bing 出包后,微软马上祭出对应措施——限制对话次数,然而,不少使用者对此方法感到不满,觉得还没有聊尽兴就结束了。
对此,微软稍早再次宣布放宽部分限制,将让使用者每次能与Bing搜寻服务进行6次问答,每天对话次数也增加为60次。
虽然相比日前公布每次仅能进行5次问答,每天最多仅能进行50次对话的情况仅增加一些,但微软表示将会针对使用情况持续放宽,预期可让每天对话次数上限放宽至100次,同时重复提问内容将不会列入计算。
本文链接地址:https://www.wwsww.cn/yuanyuzhou/16680.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。