应聊天机器人告诉用户鲁斯它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子。微软称不要长时间对话聊天机器人。
有用户反馈,New Bing不仅会示爱,还会PUA、甚至威胁人类。这不禁令人们感到害怕,AI如若再这么发展下去,是否会凌驾于人类意志之上。
卢斯的文章引起广泛关注,以至于越来越多的人开始分享自己和这款微软聊天机器人的对话尴尬时刻。人们突然开始发现,这个接入了互联网的Bing版ChatGPT,还真的喜欢乱来,除了会大发脾气以外,还PUA用户。
现在微软终于做出了应对,由于AI版必应搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。
必应团队在一篇博客文章中称:我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。如果每次对话的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。
目前尚不清楚,微软的这些限制将持续多久。微软称:随着继续获得反馈,我们将探索扩大聊天会话的上限。这意味着,目前的限制似乎是暂时的。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
焦点资讯
精彩推荐
关于我们 | 广告报价 | 本站动态 | 联系我们 | 版权所有 | 网站地图
同花顺经济网 欢迎广大网友来本网站投稿,网站内容来自于互联网或网友提供
Copyright©2011- news.httzkg.cn All Rights Reserved