点亮科技树的智火花能让ChatGPT研发暂停键吗
最近,生成式人工智能如同在魔幻表演中冲出舞台的高速过山车,使人们陷入地平线翻转般的眩晕之中。就在GPT4诞生两周后,一篇关于GPT4已点燃通用人工智能火花的论文热度未减,约书亚·本吉奥、斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士站出来指出,由于近几个月来的人工智能领域竞赛失控,巨型AI研究是时候按下暂停键。
未来生命研究所网站上,有一封呼吁暂停训练比GPT4更强大的AI系统的公开信。公开信指出,大量研究表明,并得到AI实验室认可,具有人类竞争智能的AI系统可能对社会和人类构成深远风险。这源于21世纪以来科技与人类未来研究基本理念,即开发出的前沿科技日益具有造类生存风险影响。
2017年初,在“有益人工智能”会议上,2000余位业界人士和学者就曾联合签署了包括23条倡议的Asilomar AI原则,其指导思想是构建对人类有益而非无序的超级智能,对其可能造成灾难性和生存风险必须付出相称努力。尽管世界上多部原则文件自那时后续出现,但这些原则及其相称性治理思想并未得到认真对待。
微软、亚马逊和谷歌等大型科技公司近期裁员伦理方面人员,加剧了相关创新安全风险担忧。公开信诉诸人类未来的命运,对机器宣传谎言充斥信息渠道、自动化所有工作甚至超越文明控制进行追问,这些策略背后的思想是不能简单权衡风险收益,比重政策监管依赖科技公司自律不够。
因此,该信不仅呼吁至少6个月暂停训练比 GPT-4 更强大的AI系统;还强调在独立外部专家参与监督及政府必要监管下共同开发实施高级AI共享安全协议,使其更加准确、安全、可解释透明稳健一致,更值得信赖忠诚。此外,还提出了构建专门有力的人工智能监管机构及强大的审计认证生态系统建议。
从预防性原则提出暂停并不简单叫停,而是在技术风险认知研判探寻我们可以接受研究创新范围内。当确认影响积极且可控时才应开发强大的人工智能系统。在深度科技化未来中,将生命与智慧等关乎存在问题视为内在环节投入关注资源,以合乎利益方向进展。如果认识到这一点并付诸实践,可以改变力量之间不平衡,从而避免听任巨型科技演变成盲目力量或带来颠覆灾难。
撰稿/段伟文(中国社科院科学技术和社会研究中心)
编辑/徐秋颖
校对/赵琳