(资料图片)

编程客栈() 4月28日消息:据 Bloomberg 消息,OpenAI 开发的聊天机器人 ChatGPT 不仅仅是一个信息工具,它有特别出色的表达同理心的能力,使它成为情感伙伴而不仅仅是提供事实的工具。

普林斯顿计算机科学教授 Arvind Narayanan 为他四岁的女儿安装 ChatGPT 以回答她关于动物,植物和人体的好奇问题,这个故事展示了这个 AI 聊天机器人的情感智能将他留下了深刻的印象。当他的女儿问灯灭时会发生什么时,ChatGPT 的合成语音通过其富有同情心的回答安抚了她。

竞争搜索引擎微软 Bing 和 Alphabet 的 Google 已经投资于大型语言模型来提高其服务质量。然而,来自前 Google AI 的 Margaret Mitchell 认为,这些模型并不适合作为搜索引擎。由于数据源的缺陷,语言模型经常显示出错误,其优先级可能在流畅性而不是准确性方面。

该消息来android源解释说,AI 伴侣应用程序 Replika 的创始人 Eugenia Kuyda 表示,事实上的错误不会破坏与设计为插件的聊天机器人交谈的体验。然而,在搜索引擎编程客栈中这样的错误可能是灾难性的。

ChatGPT 展示同理心的能力来自对广泛的基于文本的来源的训练,包括社交媒体平台上的情感反应,论坛上的个人帖子,小说和电影中的对话,以及情感智能的研究论文。

ChatGPT 展示同理心的能力来自其对各种基于文本的来源的训编程客栈练,这些来源包括社交媒体平台上的情绪反应、论坛上的个人支持、小说和电影中的对话以及情商研究论文。

一些人已经开始将 ChatGPT 作为他们的机器人治疗师,代替人类治疗师以避免成为别人的负担。聊天机器人在情感智能测试中表现出色,使人类的社交意识,关系管理和自我管理等方面相形见绌。

然而,专家警告说人们不应完全依赖聊天机器人来表达他们的感受。在一个将聊天机器人视为解决人类孤独感的世界中,人手的触感和理解何时说话和倾听是人际关系中可能会丢失的方面。

总之,ChatGPT 已经被证明在展示情感回应方面非常出色,可以用于在各种情况下安慰人们。android然而,在利用聊天机器人时必须考虑语言模型的限制,并且人们不应仅仅依赖它们来表达自己的情感。

推荐内容