科技发展作文GPT-3神器还是魔鬼的反复探究
在2020年6月,OpenAI推出了一个名为GPT-3的语言模型,它如同一位万能选手,只要你给它一个提示,就可以创作出文学作品、翻译文章,还能编写计算机代码。任何人都可以使用这个模型,只需几分钟就能获得想要的文本产出。
硅谷初创公司的创始人Arram Sabeti曾经评价道:“我不得不说,我被震撼了。”他认为GPT-3比他尝试过的任何AI语言系统都更加连贯。他还提到,这种技术已经到了令人恐惧的地步,他甚至看到了未来。
那么,GPT-3是如何实现这一切?它创造出的东西有多逼真?存在什么缺陷?围绕这款强大的语言模型,科学家们正试图解决哪些争议?
尽管功能强大,但GPT-3也有些弱点。OpenAI CEO Sam Altman说,它通过观察所读单词和短语之间的统计关系来工作,但并不理解其中的含义,有时甚至会犯非常蠢的错误。跟其他较小聊天机器人一样,它可能会发出仇恨言论,产生种族主义和性别歧视的刻板印象。
研究人员对如何解决语言模型中潜在有害偏见有一些想法,但像许多人希望做的一样,将常识、因果推理或道德判断灌输到模型中仍然是一个巨大的研究挑战。“我们今天拥有的,本质上是没有大脑的一张嘴巴。”计算机科学家Yejin Choi这样形容。
为了防御风险,最好的方法之一就是从训练前的数据中清除“有毒”文本,但是这引发了排除哪些内容的问题。如果我们都同意什么才是“有毒”的,并且能够消除它,我们可能也不想盲目地使用这些语言模型。
最后,由于多家知名机构均未公开其代码及训练数据,这引发了关于隐私保护和安全性的担忧。包括谷歌、Facebook等一些公司及高校团队已经公开了他们的大型语言模型,但英伟达、微软以及OpenAI尚未这么做。这表明,对于这样的技术,我们需要更多透明度和责任感,以确保它们不会被滥用。