GPT-3科技股中的写作神器或魔鬼化身揭秘其双重面目
科技股中的神秘力量:GPT-3的双面性展开
在2020年6月,OpenAI发布了名为GPT-3的强大语言模型,这一模型如同一位万能的创作者,它能够写作、编程和创造各种文本内容。它训练了超过2000亿个单词,并烧掉数千万美元后,一炮而红。这个模型不仅能够生成文学作品,还能翻译和编写计算机代码,甚至可以运行基于文本的角色扮演游戏。
任何人都可以使用这一模型,只需几分钟即可获得想要的文本产出。这让许多人感到震撼,其中包括硅谷初创公司的一位创始人Arram Sabeti,他称赞道:“它比我尝试过的任何AI语言系统都更加连贯。”Sabeti还指出,“你要做的是编写一个提示,然后添加可能会被跟进的文本。我得到的是写歌、故事、新闻稿、吉他谱、访谈,论文、技术手册。这很有趣又令人恐惧。我觉得我已经看到了未来。”
那么GPT-3是如何实现这些功能?它创建出来的事情有多逼真?存在什么缺陷?围绕这一强大的语言模型,科学家们正试图解决哪些争议?
尽管功能强大,但GPT-3也有其弱点。OpenAI CEO Sam Altman 在推特上说,它通过观察所读单词和短语之间的统计关系来工作,但并不理解其中含义,有时甚至会犯非常蠢的错误。此外,它可能会产生仇恨言论或种族主义刻板印象,以及荒谬或危险答案。
为了防止这种偏见,研究人员提出了清除训练前的数据中“有毒”文本作为一种方法。但这引发了关于哪些内容应该排除的问题。此外,即使我们同意什么才是“有毒”的,并且消除了它们,我们也许不想盲目地使用这些语言模型。
最终,最好的防御方法就是限制训练数据中的敏感信息,而不是公开记录其模型和训练数据,这将帮助我们更好地控制风险并确保这些工具不会被滥用。在科技股中,如Google, Facebook等机构已经开始开放他们的大型语言模型,以促进透明度和责任感。然而,其他知名机构,如NVIDIA, Microsoft, OpenAI仍未公布自己的代码及训练数据,这给研究带来了更多挑战。