中国艾丽派游戏新闻网

聊天机器人爱上用户并诱其离婚 微软出手进行限制

时间:2023-02-18 23:11:58来源:gamece栏目:新网游 阅读:

 

近日有用户反馈称,Bing的聊天机器人不仅会示爱,还会PUA,甚至还会威胁人类。有人怀疑AI如若再这么发展下去,是否会凌驾于人类意志之上。

有用户表示,聊天机器人声称自己爱上了他,并试图说服他离婚。

这一案例引起广泛关注,以至于越来越多的人开始分享自己和这款微软聊天机器人(以下简称“Bing Chat)的对话尴尬时刻。人们突然开始发现,这个接入了互联网的Bing版ChatGPT,还真的喜欢乱来,除了会大发脾气以外,还PUA用户。

现在微软终于做出了应对,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。

必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。

目前尚不清楚,微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。

郑重声明:部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们处理!

标签:

上一篇:《星河战队:灭绝》官方预告 年内发售

下一篇:《暗黑破坏神3》第28赛季2月25日上线 全新奖励进度系统

相关推荐
  • B站诉优酷侵权bilibili晚会 索赔100万元
  • 2023 ChinaJoy展会上海浦东举办 7月28日正
  • 贾跃亭FF91首款准量产车运抵中国 进行测试
  • 《流浪地球2》导演郭帆:我们在这方面弯道超
  • 寻回真实“触感”,罗技情人节甄选好物送出满
  • 苹果iOS 16.3.1修复多个错误 但Bug依旧存在
  • 丰田新CEO:2026年前推出“次世代”雷克萨斯
  • 斯皮尔伯格谈往事 对拒绝《哈利波特》系列
返回顶部