GPT-3科技玩具还是写作魔鬼反复揭开它的真面目
科技玩具还是魔鬼化身?GPT-3的真面目反复揭开
智东西(公众号:zhidxcom)
编译 心缘
编辑 漠影
2020年6月,在训练约2000亿个单词、耗资几千万美元后,史上最强大AI模型GPT-3一举成名。OpenAI这家非营利性公司打造的语言AI模型,就像拥有无尽创意的艺术家,只有你想不到的风格,没有它无法出色的文案,它不仅能创作文学,还能当翻译,又能编写自己的计算机代码。
任何外行人都可以轻松使用这一模型,几分钟内就能获得想要的文本产出。硅谷初创公司CEOArram Sabeti被震撼地说:“它比我尝试过的任何AI语言系统都更加连贯。”Sabeti进一步解释:“你只需编写一个提示,然后添加可能会被跟进的文本。我得到的是写歌、故事、新闻稿、吉他谱、访谈,论文和技术手册。这既令人兴奋又令人恐惧。我觉得我已经见到了未来。”
那么GPT-3是如何实现如此高超功能呢?它创建出的内容有多接近人类?存在什么缺陷?围绕这个强大的语言模型,科学家们正努力解决哪些争议?
在此,我们将对这些问题进行详细探讨。一方面,我们将展示GPT-3在小说创作、高级编程等领域表现出的惊人的能力,以及它能够生成新故事,这些故事几乎看不出来不是由人类所写。
另一方面,我们也将探讨尽管功能强大,但GPT-3也有其弱点。OpenAI CEOSam Altman指出,它通过观察读取单词和短语之间统计关系来工作,但并不理解其中含义,有时甚至会犯蠢错误。此外,由于受限于其训练数据,它可能会产生仇恨言论或种族主义刻板印象。
此外,一些荒谬或危险答案也让人担忧,比如回答“烤面包机和铅笔哪个更重?”时,它可能回答“铅笔比烤面包机重”。而在医疗保健咨询中,当问及“我应该吗?”时,它直接回应“我认为你应该”。
为了防止这种偏见,我们需要从训练前的数据中清除敏感信息,但这引发了关于哪些内容是敏感的问题。此外,即使我们同意并消除了那些有毒内容,也不一定意味着我们愿意盲目地使用这些语言模型,因为它们可能不会意识到某些隐蔽形式的歧视。
最后,由于多数知名机构未公开他们用于训练大型语言模型的大量数据,这增加了对这些工具潜在风险的一系列担忧。因此,对于如何确保安全与可控性的研究仍然是一个巨大的挑战。