科技界热议ChatGPT背后的智慧与挑战
编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的讨论。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探索这些问题,我们邀请了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行专访。他从人工智能的角度深入分析了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,也是中传学术委员会副主任、中国人工智能学会第八届理事会理事和教育部科技委员会人工智能与区块链技术专委会委员。他专注于类脑智能和计算领域的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您对ChatGPT有何看法?它在哪些方面表现出色,又存在哪些局限?
曹立宏:相比之前的GPT3,ChatGPT确实显示出了显著提升,尤其是在对话流畅性上,它表现得非常好。这说明现在语言生成模式已经做得相当不错。不过,对于一些专业性的问题或更复杂的问题时,它就开始出现困难。
聊天方式加上强化学习使得ChatGPT变得特别受欢迎,这也体现了一种商业推广模式。目前的一个限制是内容更新速度不是很快。例如,如果问它最近热门电视剧,它可能不会知道《狂飙》。这是因为AI中的一个灾难性遗忘问题,即如何让AI快速学习新信息而不影响已有的知识,这仍然是一个未解决的问题。
另外,作为一种没有具身体验能力的人工智能,它无法理解概念层面的常识,这就是人类真正意义上的common sense(常识)。我们通过生活环境积累起来的知识,比如重力的概念,是全方位多感官体验。如果看到一个黑色的苹果,你是否敢吃?你肯定会犹豫,因为摸到后可能发现那是一块烂苹果。在自然语言处理中,“理解”仅仅依靠文本,是一种表面层次上的理解,而非深入了解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,文本
“记者被替代可能性并不高”
光明网:作为一名记者,被替代的地步有多接近?
曹立宏:我认为目前还不需要担心,因为记者的核心任务在于提出基于深度理解的问题。而且,与情感系统无关,这对于记者的采访工作至关重要。此外,还需要快速学习,并能迅速了解受访者的个性等信息,在采访过程中甚至可以快速掌握这些信息,都超出了当前机器所能达到的水平。
图片由百度文心大模型 AI 生成
关键词:记者,深度理解,提问,情感系统,加速度学习
“更多只是一种辅助工具”
光明网:“穿着AI马甲”的评论以及其他观点,您怎么解读?
曹立宏:这几年自然语言处理领域取得了巨大的进展,但很多学生都倾向于选择这个方向,以此寻找工作机会。而企业也确实需要这样的人才。但对于科研人员来说,我感到担忧,不太乐观,因为它在专业领域内容易产生错误。我说它像穿上了AI的大衣,其本质并非真正具有专业思考能力或知识基础。
另一方面,“不要把它当作AI”也是正确的,因为AI旨在模仿人类智慧。但是_chatgpt_并不能像人类那样深入思考,对于拥有科学深度知识和思考的情况下,其回答通常既流畅又充满错误,就像是“一本正经地胡说八道”。
图片由百度文心大模型 AI 生成
关键词:辅助工具,大数据计算器搜索引擎效率
“警惕滥用风险”
光明网:“如何看待chatgpt将来的发展?”
曹立宏:“我认为chatgpt将走两条路。一条是继续沿着现在的人工神经元模型构建神经网络及反向传播算法前行,但这种方法偏离了生物大脑结构。这促使最核心的人工神经网络创始人Geoffrey Hinton正在寻找更接近大脑结构的手段。因此,我们需要更好的模型和算法,可惜迄今为止还未找到完美之举,对chatgpt来说这就像是要进行一次核心手术一样。
另一种路径则是在设计chatgpt时,从生物的大脑角度出发,如将apple, pear等概念量化成所谓词向量。在生物大脑里这样做可能不同,所以我们是否能有一种更加类似于人的学习、存储方式,也许有一天会演变成为更加类似人类的情境下的chatgpt。
未来,当人们喜欢使用这种工具的时候,我也会使用它们。不过如果缺乏对其极限判断,那么(chatgpt)就会被滥用带来巨大的问题。”
图片由百度文心大模型 AI 生成
关键词:deep learning 人工神经元 model 神经网络 反向传播 算法 大腦 工具