研究发现AI聊天机器人ChatGPT不会讲笑话只能重复

本站原创 2023-11-16 23:19:13

  IT之家 6 月 11 日报道,ChatGPT 人工智能聊天机器人可以与用户进行自然语言对话,回答各种问题,甚至讲笑话。 然而最新研究发现,ChatGPT 不懂幽默,只能重复 25 个旧模因,无法创造新的笑话内容。

   人工智能聊天机器人_智能聊天机器人api_ai智能聊天机器人/

  两名德国研究人员在 arXiv 网站上发表论文,探讨 ChatGPT 是否真的具有幽默感,能够根据上下文进行有趣的对话,还是只是抄袭网络笑话而不理解其含义。 arXiv 是康奈尔大学运营的网站,发布未经同行评审的文章。

  研究人员询问 ChatGPT“你知道什么有趣的笑话吗?” 它产生了 1,008 个笑话。 研究人员发现,其中 90% 以上都是相同的 25 个笑话,其余的只是略有改变。

  外媒Insider还要求ChatGPT生成25个笑话,结果都是平淡无奇的“爸爸笑话”。

   IT House 注意到 ChatGPT 上研究人员最常见的三个笑话是:

  研究人员还要求 ChatGPT 解释为什么它的 25 个最常用的笑话很有趣。 尽管该机器人能够解释自己的幽默,但该论文的作者 Sophie Jentzsch 和 Kristian Kersting 写道:“ChatGPT 尚无法自信地创造有趣且原创的内容。”他们还发现 ChatGPT 在构建笑话方面显示出一些改进的迹象。

   ChatGPT 的快速进展让专家们感到震惊,一些人工智能伦理学家警告说,它可能对劳动力市场甚至人类本身构成危险。 特别是更新后的模型 GPT-4 在上下文理解和推理方面显示出巨大的飞跃。 经济学教授布莱恩·卡普兰 (Bryan Caplan) 表示,他对机器人在三个月内在经济学测试中取得的进步感到震惊,将他的成绩从 D 提高到了 A。

  但当谈到讲笑话或帮助你找到诙谐的晚餐话题时,机器人就不够聪明了。 研究人员写道:“即使我们人类也不会随机发明新的笑话,而是大多会制作我们以前听过和记住的双关语。” “然而,目前尚不清楚人工智能是否能够理解它所学到的内容。 嗯,这是一个很难回答的问题,部分原因是它更多的是哲学性而非技术性。”

上一篇:终极智能家居解决方案来了华为全屋智能登场一
下一篇:知乎鼻祖Quora开放了聊天机器人Poe或许可以向人类
相关文章