新京报专栏如同大师指引棋局能否让中央部委按序排位
2018年9月14日,第十届天翼智能生态产业高峰论坛举行,现场出现约2米高的巨型智能机器人,一名女市民和机器人握手。图/IC photo
最近,以ChatGPT为代表的生成式人工智能与大规模语言模型风靡一时。它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中,面对这些似乎日益逼近人类水平的智能系统,竟不知该惊呼还是哀嚎。
在GPT4诞生两周之际,日前一篇关于GPT4已点燃通用人工智能火花的论文热度未减,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,大型AI研究是时候按下暂停键。
未来生命研究所网站上,他们贴出了一封呼吁暂停训练比GPT4更强大的AI系统公开信。公开信指出,大量研究表明并得到 AI 实验室认可,有可能具有人类竞争智力的 AI 系统可能对社会和人类构成深远风险。
其指导思想源于21世纪以来科技与人类未来研究基本理念,即人类开发出的前沿科技日益具有造类生存风险颠覆性影响,但同时也要对过度科技赋能带来的不可逆风险保持高度警惕。
实际上,在阿西洛马召开“有益的人工智能”会议上,就曾联合签署了包括23条倡议Asilomar AI 原则,其指导思想是,对超级智能及其对地球生命史可能带来的深刻变化,要构建有益的人类而非无序的人工智慧,并投入相应资源和关注力,对可能造成灾难性或生存风险必须付出相称努力。
尽管世界上相继出了百多部AI原则和文件,但现看来,这些原则及其背后的治理思想并没有得到认真对待。在微软、亚马逊和谷歌等公司裁减伦理方面人员后,加剧了人们对于相关创新应用安全风险担忧。
或许是了解到即使意识到巨大生存风险依然言行不一痼疾,这封公开信采用了两个策略。一是在追问历史临界点人的命运,用情绪化表述:我们是否应该让机器充斥我们的信息渠道?我们是否应该自动化所有工作?我们是否应该发展最终取代我们的非人类思维?
二直指OpenAI关于通用AI声明中的高调表态,当下恰是落实其中“开始训练未来系统之前进行独立审查很重要”的主张关键时刻。这两个策略背后的思想是不简单地从权衡维度去权衡接近人类智力的开发所带来的人类生存风险,而政策监管不能完全依靠科技公司自律及领袖认知。
因此,不仅明确呼吁所有实验室立即以公开方式暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调在独立外部专家的参与监督及政府必要监管下通过这次必要暂停共同开发实施用于高级AI共享安全协议,使强大AI更加准确、安全可解释透明稳健、一致,更值得信赖忠诚。此外还提出了构建专门机构及强大的审计认证生态等具体建议。
2023年2月14日国家超级计算成都中心科研人员巡检设备。图/新华社
慢科学策略并不简单叫停,从1975年的阿西洛马会议保罗·伯格等生命科学家鉴于基因重组DNA未知风险提出暂停重组DNA可以追溯至此。但预防性原则提出的是基于技术预防探寻接受范围内研究创新的思路,只有当确保积极影响且控制好-risk的时候才应开发强大系统展望深度科技化未来,将意味着人的价值伦理问题成为内在环节必须给予关注资源投入才能向合乎利益方向演进。而这封公开信给最大启示是在扭转不平衡之前需要通过慢科学策略使力量掌控节奏有序绽放避免盲力量导致灾难。
撰稿段伟文(中国社科院科学技术与社会研究中心)
编辑徐秋颖
校对赵琳