科技公司是否能让ChatGPT研发按下暂停键新京报专栏呼吁千名专家共识
科技巨轮何时停歇?新京报专栏呼吁千名专家共识
近日,随着ChatGPT等生成式人工智能的快速发展,它们如同在魔幻表演中飞速过山车般冲向我们,令人惊叹又有些担忧。就在GPT4刚诞生不久,一篇关于GPT4已点燃通用人工智能火花的论文热度依旧未减,而约书亚·本吉奥、斯图尔特·罗素以及马斯克等行业内人的共同声音更是提出,鉴于近期AI领域竞赛失控,我们需要暂停训练比GPT4更强大的AI系统。
未来生命研究所发布了一封公开信,呼吁暂停训练具有人类竞争智能的AI系统。这背后的思想源自21世纪以来科技与人类未来研究的基本理念,即科技带来的风险可能对社会和人类构成深远威胁。因此,这所研究所将其宗旨设定为“引导变革性技术造福于生活,远离极端的大规模风险”。
然而,从2017年的阿西洛马会议到目前为止,一百多部人工智能原则和文件出台,但这些原则及其相称性治理思想并未得到认真对待。尽管伦理风险日益凸显,大型科技公司却在裁减人工智能伦理方面的人员,这加剧了人们对相关创新和应用安全性的担忧。
公开信采用了两个策略:一是诉诸人类未来的命运,对人工智能可能胜过人类智能历史临界点的人类命运进行追问;二是直指OpenAI关于通用人工智能声明中的高调表态,并指出当前恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张的关键时刻。
这封公开信不仅明确呼吁所有AI实验室立即以公开和可检验方式暂停至少6个月训练比 GPT-4 更强大的AI系统,还提出了构建专门和有力的人工智能监管机构、强大的审计和认证生态系统等具体建议。
从预防性原则出发提出暂停并不是简单叫停,而是在探寻我们可以接受的研究和创新。这要求我们认识到,在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技力量在我们掌控节奏下有序绽放,以避免听任巨型科技系统演变成盲目的力量,对人类社会文明发展带来颠覆性的灾难。
因此,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,正成为时代赋予我们的责任,也是我们迈向科技未来必须反复唱颂的史诗。