科技风云ChatGPT热潮背后的冷静思考警惕它那正经的胡言乱语
编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制是什么?会不会取代记者的角色?我们应该如何看待ChatGPT未来的发展趋势?光明网《科技新视界》专栏特约撰稿人,博士生导师曹立宏,就从人工智能的角度探讨了这些问题。
专家简介
曹立宏,是中国传媒大学脑科学与智能媒体研究院院长、博士生导师。他同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会的人工智能与区块链技术专委会委员。他致力于类脑智能和计算领域的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您对ChatGPT有什么具体体验呢?它在哪些方面表现出色,又有哪些不足之处?
曹立宏:相比以往的语言模型,如GPT3,ChatGPT确实取得了一定的进步。在对话流畅性方面,它表现得很好,这说明现在语言生成能力已经相当强了。对于一般知识或浅显专业知识,它能提供且组织得也很棒。但当涉及到更专业的问题时,它就开始遇到困难。
关于这个工具,我认为它利用的是带人类反馈的强化学习,而这就是为什么它能够像这样流行,因为商业推广策略非常有效。不过目前存在一个限制,即内容更新速度不是特别快。例如,如果问它最近热门电视剧名,它可能无法准确回答《狂飙》,因为这涉及到了AI中的遗忘现象——如何让系统快速学习新信息而不影响已有的信息。这是一个AI领域尚未完全解决的问题。
此外,ChatGPT缺乏概念上的具身体验,这正是我们所说的常识,我们通过生活环境积累起来的知识。例如,对于一个黑色的苹果,你是否敢吃?你肯定会犹豫,因为触摸后你可能就会知道那是一颗烂苹果。这表明我们的理解很多东西都是基于全面的体验,而自然语言处理中“理解”仅仅依赖文本,是一种肤浅的理解。
关键词:《狂飙》,灾难性遗忘,常识,具身体验
“记者替代可能性并不高”
光明网:作为一位资深记者,您认为被ChatGPT替代的可能性有多大?
曹立宏:我觉得现在可以放心一些,不是吗?首先,记者需要基于深入了解来提出问题。在这一点上,当前的人工智能还做不到。而且,这个系统没有情感交互能力,但这种能力对于记者的工作至关重要。此外,一名优秀记者需要不断学习,以便快速掌握受访者的个性等等,在采访过程中甚至要能够迅速适应,这些都不是机器能做到的。
关键词:记者深度理解提问情感快速学习
"ChatGPT更多只是辅助工具"
光明网:“您朋友圈的一条评论说‘这是穿上了AI的大衣’;另一条则警告不要把ChatGPT当作真正的人工智能来看待。”这些观点如何解释?
曹立宏:“自然语言处理领域确实取得了巨大的进展,使得学生们纷纷选择这一方向,并且许多企业也需要这样的人才。但作为科研人员,我们还是有些担忧,因为即使它们在专业领域进行胡言乱语,也许对某些人的认知来说并不可怕。如果将其视为导向,那么可能产生严重的问题。我所以说‘这是穿上了AI的大衣’——它本身并不具有科学家的那种思考方式或者专业知识。”
另一种表述是“不要把它当作真实的人类智慧”,因为人工智能本质上旨在模仿人类智慧。然而,无论如何聊天设备超越人类,其宽泛程度令人印象深刻,但却不能像人类那样进行深入思考。当涉及到科学性的深度知识时,它几乎总是以一本正经的情形下胡言乱语。
关键词:辅助工具计算器自由搜索引擎效率
"未来需警惕滥用"
光明网:"那么,您怎么看待chatgpt未来的发展?”
曹立宏:"我相信chatgpt将拥有两种发展路径。一种是在继续沿着目前所走过道路前进,即采用神经网络和反向传播算法。不过,这种方法与生物大脑之间存在差距,因此即使是最核心人物如Geoffrey Hinton仍然寻求更接近大脑结构模型和算法。而我们迫切需要更好的模型和算法,不过直至今日还没有找到完美答案。这意味着chatgpt必须进行较为核心的手术调整。
另一种路径则是在尝试更加模仿大脑思维模式,比如转换苹果、梨等概念为称为词向量的事物,从而实现更接近大脑存储、量化和学习方式,有望演变出更加接近人类样态下的chatgpt。
未来,它无疑将成为人们喜爱使用的一个工具,我个人也愿意使用。但如果忽视其极限能力并导致滥用,那么潜在的问题将十分严重。”
关键词:深度学习、大腦記憶、大腦學習