我能点亮科技树ChatGPT热的秘密火花它在不经意间编织的虚拟谎言
编者按:
在全球范围内,ChatGPT的火爆迅速吸引了众多人的关注。它背后的技术原理和工作机制究竟是什么?能够否替代记者的角色?我们应该如何看待ChatGPT未来可能带来的发展?光明网《创新改变中国》栏目特邀请到中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏教授,从人工智能的视角深入探讨ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任,中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员,他致力于类脑智能和计算领域的研究。
“ChatGPT体验不错,但存在不足”
光明网:您对使用ChatGPT有何感受呢?它在哪些方面存在不足?
曹立宏:相较于之前的GPT3,感觉确实有了显著提升,尤其是在对话流畅性方面表现突出,这说明现在语言生成模式取得了进展。对于广泛接受且专业浅显的问题,它能提供准确答案,并组织得很好。但当涉及专业性更强的问题时,它就会出现问题。
ChatGPT采用带人类反馈的强化学习,其语言生成能力已非常强大,再加上聊天功能,使其成为了热门产品。这也显示出了商业推广策略上的成功。不过目前一个限制是内容更新速度不够快。例如,对于最新电视剧信息,如《狂飙》,它可能无法准确回答,因为这涉及AI中的遗忘问题,即如何快速学习新知识而不会影响旧知识,这仍然是AI领域需要解决的问题之一。
此外,ChatGPT缺乏概念层面的身体经验,这正是我们所说的常识——通过生活环境积累的人类智慧。例如,我们看到黑色苹果是否敢吃,都会犹豫,不同于直接触摸后立刻知晓是否烂苹果。在自然语言处理中,“理解”仅限于文字,而非全面理解,因此这种理解方式被认为是一种表面化的理解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,大型图像数据库
“记者职责难以被取代”
光明网:作为一名记者,被替代的可能性有多高?
曹立宏:我认为现在还没必要过分担忧,因为记者的核心任务在于提出深度问题。而且当前机器并不能达到这个水平。此外,它目前不接触情感系统,但这两点都是记者的重要部分。而采访过程中快速学习了解受访者的个性等,也不是现今机器所能达到的水平。
图片由百度文心大模型 AI 生成
关键词:记者深度思考、提问情感系统快速学习
“更多只是辅助工具”
光明网:“你朋友圈里提到‘穿着AI马甲’、“不要把他当作真正的人才”,还有“科学界的大概率胡说八道”,这些观点如何解释?
曹立宏:“近年来自然语言处理取得巨大进展,但很多学生倾向于追求这一领域,因企业需求而增加该行业人才供给。不过对于科研人员来说,我感到担忧的是这样的工具可能导致专业领域混乱。如果将之视为导向性的发展方向,那么将产生严重后果。我称之为‘穿着AI马甲’因为它并不具备真正专业思考和知识;另一句‘不要把它当作真正的人才’则指出AI本质上模仿人类智慧但未达到人类般深入思考程度,在复杂科学深度论述上即使流畅,也往往是一本正经地胡说八道。”
图片由百度文心大模型 AI 生成
关键词:辅助工具计算器自由搜索引擎关键句效率深度
“警惕滥用潜力”
光明网:“您怎样看待ChatGPT未来趋势?”
曹立宏:“我认为ChatGPT有一条路径是基于深度学习,即采用神经网络及其反向传播算法。但这种方法偏离生物神经元结构和学习算法,因此连DeepMind创始人Geoffrey Hinton都寻求更接近生物大脑模型。此路需进行核心手术调整。
另一种途径,是从人类大脑角度考虑,比如将水果概念转换为量化形式(词向量),但这种方式在人类头脑中或许不同。因此,或许可以开发出更符合人类记忆、量化、习得方式的心灵似物式chatgpt。
未来的版本,将是一个人们喜爱使用的工具,我自己也会使用。不过如果缺乏对其极限能力判断的话,则容易被滥用,一旦发生错误,将面临巨大的挑战。”