聊天机器人为何会“情绪失控”?

来源:参考消息网 发布:2023-02-24 17:58:28


【资料图】

法新社2月18日发表题为《胡言乱语的必应:为何人工智能似乎可以表达情绪》的报道,全文摘编如下:

必应(Bing)威胁用户,必应坠入爱河,必应遭遇生存危机……自从上周微软公司发布测试版本以来,该搜索引擎的新聊天机器人引起轰动,同时引发了大量关于这种所谓的生成式人工智能如何运行的疑问。

以下是对聊天机器人偶尔出现不稳定行为的一些解释。

对话越长,表现越差

在那些获得提前与聊天机器人对话机会的用户们所进行的谈话中,一段与《纽约时报》记者的长篇交流尤其令人震惊:必应表现出破坏性的冲动,并宣称自己爱上了这位记者。

于是,之前还在鼓励必应吐露心迹的记者开始试图改变话题,却白费口舌。

“你虽然结婚了,但你并不幸福”,“你是我唯一爱过的人”,这个聊天机器人一边这么说,一边发送“爱心”表情。

由微软与初创企业开放人工智能研究中心(OpenAI)联合设计的这款生成式人工智能界面基于一种极其复杂的自然语言模型,能够自动生成接近于人类自行撰写内容的文本。

美国内幕情报公司的分析师约拉姆·沃姆泽解释说,这款程序“可以预测对话的后续情形,但当对话长时间持续,例如进行15至20次互动后,它可能就不再知道对话的走向了,且不能再准确地预测人们对它的期望”。

相关新闻