十大高科技行业是否能让它们的发展像ChatGPT研发一样按下暂停键新京报专栏
在人工智能领域的发展中,尤其是随着ChatGPT等生成式语言模型的兴起,科学界和社会各界对AI技术的伦理、安全性和长远影响提出了广泛关注。最近,一份由约书亚·本吉奥、斯图尔特·罗素以及埃隆·马斯克等多位知名科技人物签署的公开信呼吁暂停训练比GPT-4更强大的AI系统,这一举动引发了对未来AI研究方向与风险管理策略的大讨论。
公开信指出,由于近期人工智能领域出现了一场“失控”的竞赛,加速了超级智能系统的开发,这可能带来深远的人类社会和生存风险。尽管21世纪初,阿西洛马会议上已有2000余位专家共同提出23条关于人类友好的AI原则,但这些原则并未得到充分执行,而是被忽视或轻视。
此外,即便面临伦理风险,大型科技公司如微软、亚马逊和谷歌也在裁减人工智能伦理方面的人员,这进一步加剧了人们对于相关创新应用安全性的担忧。在这种背景下,该公开信通过诉诸人类未来的命运,并直指OpenAI关于通用人工智能声明中的高调表态,明确呼吁所有AI实验室立即暂停至少6个月训练比 GPT-4 更强大的AI系统,并建议建立一个用于高级人工智能共享安全协议,以确保新一代强大的人工智能更加可靠、高效且符合人类价值观。
从历史角度看,预防性地暂停某些科学研究并不新鲜,比如1975年的阿西洛马会议就曾因基因重组DNA的潜在风险而提议暂停。今天,我们再次面临类似的情景:只有当我们确认这些技术发展能够积极推进并且风险可控时,我们才应该继续前进。这不仅是一种慢科学策略,更是一种寻求更稳健创新的思路,以避免科技力量过于集中,不受控制地演变成对人类文明产生颠覆性的威胁。
撰稿/段伟文(中国社科院科学技术和社会研究中心)
编辑/徐秋颖
校对/赵琳