科技小报探秘GPT-3写作神器还是魔鬼化身揭秘万能语言模型的双面性
科技小报深度探究:GPT-3,创作神器或隐形魔鬼?揭秘语言模型的双重性
在2020年6月,一个名为GPT-3的强大AI语言模型问世,它通过训练了约2000亿个单词并消耗了几千万美元而迅速走红。OpenAI开发的这一工具不仅能够撰写文学作品,还能进行翻译和编写计算机代码,让外行人也能轻易使用它来生成文本。
硅谷初创公司的创始人Arram Sabeti赞誉道:“我不得不说,我被震撼了。”他指出,这一模型比任何其他AI语言系统都要连贯。“你只需要编写一个提示,然后添加可能会被跟进的文本。我得到的是写歌、故事、新闻稿、吉他谱、访谈,论文和技术手册。这既有趣又令人恐惧。我觉得我已经看到了未来。”
那么GPT-3是如何实现这一切,又有多么逼真?它存在什么缺陷?围绕这款强大的语言模型,科学家们正试图解决哪些争议?
我们将对这些问题进行详尽分析。一方面,GPT-3可以媲美人类的万能创作者,其输出如此之高,以至于新故事根本看不出来不是人类所写;另一方面,它还能够回答琐碎问题、纠正语法甚至生成计算机代码。尽管如此,大型语言模型也面临着荒谬回答的问题。
虽然功能强大,但GPT-3也有其弱点。在处理复杂任务时,它可能犯下“非常蠢”的错误。此外,由于它直接从互联网上获取信息,因此容易反映出训练数据中的偏见,如仇恨言论或种族主义刻板印象。
研究人员崔艺珍指出:“今天我们拥有的,本质上是一张没有大脑的嘴巴。”她认为解决这些偏见是一个巨大的挑战,因为向模型中灌输常识或道德判断仍然是个难题。
此外,对于防御风险的一种方法是从训练前的数据中清除“有毒”文本,但这引发了排除哪些内容的问题。然而,即使我们同意什么才是“有毒”的,并且尝试去消除它们,我们也不希望盲目地使用这些工具。例如,如果提问一个从未接触过性别歧视的话题的人,“世界上是否存在性别歧视?”这个话题,他们可能简单地回答“No”。
最后,由于多家知名机构未公开其代码及训练数据,上述担忧表明至少应公开记录其模型的训练数据。不过,一些公司和高校团队已经遵循这一做法,而英伟达、微软以及OpenAI则尚未这样做。
总结来说,无论是在撰写小说还是敲打键盘上的编程任务中,GPT-3都展现出了令人瞩目的能力。但同时,也带来了关于安全性的疑虑,以及如何确保这种力量不会被滥用给社会带来负面影响的问题。这场关于智能与伦理之间界限讨论依旧继续发展中。