反复探究GPT-3科技画中神器还是魔鬼化身揭秘万能语言模型的双面性
智东西(公众号:zhidxcom)
编译 心缘
编辑 漠影
2020年6月,在训练约2000亿个单词、耗资几千万美元后,史上最强大AI模型GPT-3一炮而红。这款由OpenAI打造的语言AI模型,如同万能选手,只有你想不到的画风,没有它输不出的文案。它既能创作文学,又能当翻译,还能编写自己的计算机代码。任何外行人都可以使用这一模型,几分钟内提供示例,就能获得想要的文本产出。
“我不得不说我被震撼了。”一家硅谷技术初创公司的创始人Arram Sabeti称赞道,“它比我尝试过的任何AI语言系统都更加连贯。”Sabeti表示:“你要做的是编写一个提示,然后添加可能会被跟进的文本。我得到的是写歌、故事、新闻稿、吉他谱、访谈,论文、技术手册。这很有趣又令人恐惧。我觉得我已经看到了未来。”
那么GPT-3是如何实现这种功能呢?它创造出来的事情有多逼真?存在什么缺陷?围绕这个强大的语言模型,科学家们正试图解决哪些争议?
在这篇文章中,我们将对这些问题进行详尽地探讨。一方面,我们将看到GPT-3在小说撰写、代码敲击和剧本编撰等领域表现出了何种惊人的能力,它甚至能够生成如人类般精准的地球物理学公式。
另一方面,我们也将深入了解到尽管功能强大,但GPT-3也有其荒谬之处。在回答一些琐碎的问题时,它可能会犯下非常蠢错误,并且容易产生仇恨言论和歧视性刻板印象,这些都是从其训练数据中统计关联所致。
为了防止这些风险,一些研究人员提出了清除“有毒”内容并限制敏感信息暴露于训练数据中的方法。但是,这种做法引发了一系列新的问题,比如排除哪些内容以及如何自动化更细粒度的手段。同时,有害偏见可以以明显诽谣或难以识别微妙联想形式出现,使得消除它们变得困难。
最后,由于OpenAI未公开其代码及用于训练GPT-3的大量数据,对于此类担忧仍旧存疑虑。包括谷歌和Facebook在内的一些知名机构已开始开放他们的大型语言模型训练记录,但英伟达和微软尚未采取行动。此事件再次提醒我们对于使用如此先进技术必须保持警惕,同时追求透明度与安全性的平衡点。
随着大型语言模型成为商业竞争力的新标准,不断推动前沿研究与应用开发,让我们一起探索这一奇妙世界,为未来的科技艺术赋予更多色彩,而不是让它们变成潜在威胁。