千名专家联署让ChatGPT研发暂停键是否已拉响新京报专栏深度探究
在科技的高速前进中,我们或许需要暂停一下,回望我们创造的巨型智能机器人,它们如同速度过快的过山车,在我们的生活中冲出舞台,带给我们既惊奇又恐惧的感觉。就在GPT4诞生之际,一篇关于GPT4已经点燃通用人工智能火花的论文热度未减,而约书亚·本吉奥、斯图尔特·罗素等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,巨型AI研究是时候按下暂停键。
他们指导思想源于21世纪以来,科技与人类未来研究的基本理念,即人类开发出的前沿科技日益具有造类生存风险的颠覆性影响。正因如此,将其宗旨设定为“引导变革性技术造福于生活,远离极端的大规模风险”。
自2017年初,在阿西洛马召开“有益人工智能”会议时,就有2000余位业界人士和学者联合签署了包括23条倡议的Asilomar AI 原则,但这些原则及其背后的相称性治理思想并没有得到认真对待。尽管生成式和对话式人工智能使得伦理风险日益凸显,但微软、亚马逊和谷歌等大型科技公司近来却在裁减AI伦理方面的人员,这加剧了人们对相关创新和应用安全风险担忧。
公开信采用了两个策略:诉诸人类未来的命运,对人工智能可能胜过人类智能历史临界点的人类命运进行追问,以及直指OpenAI关于通用人工智能声明中的高调表态。这两个策略背后的思想是,对接近人类智能的人工智开发可能导致的人类生存风险不能简单地从风险收益比维度去权衡。
公开信不仅明确呼吁所有AI实验室立即以公开可检验方式暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要在独立外部专家参与监督以及政府必要监管下共同开发实施一套用于高级人的共享安全协议,以使强大的人工智系统更加准确、安全、可解释、透明、稳健、一致,更值得信赖,对人类更为忠诚。
慢科学策略并不是简单叫停,而是通过科技风险认知研判探寻我们可以接受研究与创新的预防性思路。展望深度科技化未来,只有真正认识到这一点并付诸实践,才可能改变深度科技化前沿中科技力量控制之间不平衡。在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技力量在我们掌控节奏下有序绽放,从而避免听任巨型技术演变成盲目的力量,最终带来颠覆性的灾难。
因此,“让我们享受一个漫长的地球夏天,而不是毫无准备地陷入秋天”,成为迈向未来所需反复唱颂的事迹。