科技玩具下的热潮警惕它可能在一本正经地开玩笑
编者按:
在全球范围内,ChatGPT的流行迅速蔓延,其背后的技术和工作原理是什么?它是否有可能取代记者的角色?我们应该如何看待ChatGPT的未来发展?光明网《智慧改变生活》栏目特约专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,深入探讨了ChatGPT从人工智能角度。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时担任中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他致力于研究类脑智能和计算机系统。
“ChatGPT使用体验不错,但仍有不足之处”
光明网:您对使用ChatGPT的感受如何?它存在哪些显著不足?
曹立宏:相比之前的GPT3,感觉确实取得了一定的进步,尤其是在对话流畅性方面表现突出。说明现在语言生成模型方面取得了不错的成果。对于普通知识或浅显专业领域,它能提供且组织得很好。但对于复杂专业问题,它就开始出现问题。
ChatGPT采用带人类反馈的强化学习机制,这使得语言生成能力得到极大提升,加上聊天功能,使其变得非常吸引人,从某种意义上这是商业推广成功的一种模式。目前主要缺点之一是内容更新速度较慢。例如,当问及中国最热门电视剧时,它可能无法准确回答,因为这涉及到AI中的遗忘现象,即快速学习新信息而不会干扰已有的知识,这仍然是一个AI领域未解决的问题。
此外,ChatGPT没有具身经验,这就是我们所说的常识,我们通过生活环境积累起来的人类经验,如重力等。在自然语言处理中,“理解”仅依赖文本,是一种表面层次上的理解,而不是深层次的理解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,全方位
“记者角色被替代可能性有限”
光明网:作为记者,被ChatGPT取代的情景有多么可怕?
曹立宏:我认为当前并不需要过分担忧,因为记者的核心职责在于提出基于深度理解的问题。在深度理解这一点上,目前还不能完全交给机器。而且,由于聊天过程中涉及情感系统,与记者采访中的情感交流不同,因此这两点都是重要组成部分。此外,还需要快速学习了解受访者的性格等,在采访过程中进行,这些都不是当前机器能够实现的情况。
图片由百度文心大模型 AI 生成
关键词:记者角色,大众化思考,不同思维方式
“更多只是辅助工具”
光明网:“你曾评论说‘穿上了AI的大衣’”,那么您怎么看这些观点?
曹立宏:近年来自然语言处理领域取得巨大进展,但很多学生更倾向于这个方向,以为这样可以找到工作。不过,对于科研人员来说,我感到有些不安,因为这些工具可能会胡乱发挥专业知识。如果将它们当作导向选择的话,那么将导致严重后果。我觉得它就像是穿着AI的大衣,没有真正掌握专业思考和知识。
另一句话“我建议不要把它当做真正的人类智慧”,因为AI旨在模仿人类智慧,但实际上它并非像人类那样具有深入思考能力。当涉及科学性的深刻知识时,它虽然流畅地运用,但往往是一本正经地胡说八道。
图片由百度文心大模型 AI 生成
关键词:辅助工具、大计算资源、高效率
“未来需警惕滥用”
光明网:“关于未来的发展,您有什么看法?”
曹立宏:“我认为有两个发展路径。一条是继续沿着目前主流的人工神经元模型构建,并利用反向传播算法进行优化。但这种方法离生物神经网络还有很大的差距,所以即便是该领域最著名科学家Geoffrey Hinton也在寻找更接近生物神经网络结构和学习算法。这意味着要对核心手段进行变革。
另一条路径则是在尝试模仿大脑结构,比如将苹果这样的概念转换为量化形式(即词向量),但这种量化方式是否符合真实的大脑存储模式尚不得知。如果能开发出更加类似人的学习和存储方式,也许可以创造出更加贴合人类水平的地 Chat G PT。
未来,我们希望看到一个既能满足人们需求又不会被滥用的工具。但如果我们忽视其局限性,那么滥用带来的后果将不可预测。”