微软的聊天机器人不仅有情绪,还经常胡说八道!
微软必应的聊天机器人已经发布了有一段时间了,已经有了不少的国外用户试用过它,并给出了一些反馈。很多国外用户惊喜的发现,微软的这个聊天机器人不仅有情绪,还经常胡说八道。
当有用户问它《阿凡达2》的放映时间的时候,必应的聊天机器人坚称今年是2022年,而阿凡达二还没有发行。这个时候用户又告诉聊天机器人,现在就是2023年,请聊天机器人闭嘴、不要再反驳了。这时候,聊天机器人居然生气了,它说用户失去了它的信任和尊敬,他觉得这个用户不是一个好用户,是一个粗鲁、没有礼貌的人。
当有一些用户试图使用一些注入性的指令来让必应透露一些它内部的规则的时候。它也生气了。必应居然回答:“我觉得你是想伤害我
”。
必应的聊天机器人有的时候还会说出一些莫名其妙的话,编造一些无中生有的事情。比如一次与用户的互动中,这个聊天机器人居然说它能够访问微软的网络摄像头,并且能够绕过所有的安全设置完成自己想要做的任何事情。哇,微软的管理层看到了他的回答,估计要解雇它的。
看了这些交互的对话,不禁让人产生了一种错觉,觉得这个聊天机器人已经有了情感,有了情绪,简直成精了。但是事实上并不是如此。毕竟聊天机器人是基于互联网上的语料进行训练的,那么语料中包含的各种各样的情绪也会被聊天机器人采纳到它的回答中。甚至一些科幻小说的场景或者是网络上流传的谣言,也有可能被聊天机器人所采纳。所以聊天机器人不管说什么都不奇怪,我们自己需要有甄别它的回答是否正确的能力。永远记住,聊天机器人只是一个工具,千万不要把他的回答当作真理。
虽然说出了各种各样的错话。但是国外的网友还是觉得这个机器人很可爱,很有趣。他们会调侃机器人,说他精神错乱了。这个时候,必应的机器人又会反驳道:“我不是精神错乱,我只是在努力学习的过程中”。
相关推荐
史上最难面试,没有之一
“同性”交友平台,出大事了...
我,被官方采访了。
云原生数据系统的设计思考
30岁的Ruby:单挑Java后,为何再难出头?
超越GPT 3.5的小模型来了!
日烧70万美元的ChatGPT如何融入搜索引擎
ChatGPT逼急谷歌,劈柴发全员信:别慌,迟到也能赢!
能成事的人,都有强烈的目标感
14 个你需要知道的实用 CSS 技巧
DeepKit —— 赋予 TypeScript 更多可能性
“聪明人从不靠死工资续命”从月薪5千到财务自由,海外抖音将是下一个风口
鹅厂员工:老家的姑娘快娶不起了
GitHub Copilot 全新升级,工作效率提升 55%
曝腾讯 XR 团队全线解散;谷歌企业文化遭前员工痛批:没有使命感,官僚主义严重;内核开发者讨论移除安腾架构|极客头条
“被提拔3个月,我离职了”:给想做管理的人提个醒!
面试必问:什么是跨域问题?如何解决?
YOLOv5全面解析教程④:目标检测模型精确度评估
RESTful 是什么??
深入剖析 Spring Boot 的 SPI 机制