新京报专栏让中国科技创新绽放光彩ChatGPT不必急于追赶
2018年9月14日,第十届天翼智能生态产业高峰论坛举行,现场出现约2米高的巨型智能机器人,一名女市民和机器人握手。图/IC photo
最近,以ChatGPT为代表的生成式人工智能与大规模语言模型风靡一时。它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中,面对这些似乎日益逼近人类水平的智能系统,竟不知该惊呼还是哀嚎。
在GPT4诞生两周之际,日前一篇关于GPT4已点燃通用人工智能火花的论文热度未减,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,大型AI研究是时候按下暂停键。
未来生命研究所网站上,他们贴出了一封呼吁暂停训练比GPT4更强大的AI系统公开信。公开信指出,大量研究表明并得到 AI 实验室认可,有可能具有人类竞争智力的 AI 系统可能对社会和人类构成深远风险。
其指导思想源于21世纪以来科技与人类未来研究基本理念,即人类开发出的前沿科技日益具有造类生存风险颠覆性影响,但同时也要对过度科技赋能带来的不可逆风险保持高度警惕。
相称性治理思想没有得到认真对待
实际上,在“有益人工智能”会议上,就曾联合签署了包括23条倡议Asilomar AI 原则。
其指导思想是,对超级智能及其对地球生命史可能带来的深刻变化,要构建对人类有益而不是无序性的智慧,而必须在规划和管理上投入与这种超强创新相应资源,并关注潜在灾难性和生存风险,与其可能造成影响相称付出努力。
自那时以来,不仅世界各地已经形成了一百多部AI原则文件,但现在看来,这些原则及其背后的相称性治理思想并未得到认真实施。
尽管生成式和对话式的人工智能兴起使伦理风险更加凸显,但微软、亚马逊和谷歌等公司却在裁减伦理人员,加剧人们对于相关创新安全风险担忧。
或许是了解到即便意识到巨大生存危机依然言行不一痼疾,这封公开信采用了两个策略:
一是诉诸人类未来的命运,对AI历史临界点的人类命运进行追问,用情感化表述:我们是否应该让信息渠道充斥宣传谎言?我们应该自动化所有工作?我们是否应该发展最终取代我们的非人类思维?我们冒险失去文明控制吗?
二是在OpenAI关于通用AI声明中的高调表态直指,其时间恰好落实其中“开始训练未来系统之前进行独立审查很重要”的主张关键时刻。
这两个策略背后的思想是不简单从权衡收益与成本角度考虑接近人的AI开发所带来的人类存在危险不能被忽视;政策监管不能完全依赖技术公司自律及领袖认知。
因此,该公开信不仅要求所有实验室立即以开放方式暂停至少6个月训练比 GPT-4 更强大的AI系统;而且提出了通过必要暂停共同开发实施共享安全协议以确保强大AI系统准确、安全、解释透明稳健、一致,更值得信赖忠诚建议,并提出设立专门机构及建立审计认证体系等具体措施。
2023年2月14日国家超级计算成都中心科研人员巡检设备。图/新华社
慢科学策略并不只是叫停
从科技发展史维度看,此次提出的暂停策略并不创见至少可以追溯至1975年阿西洛马会议,当时基因重组DNA发现潜在危害而提出停止。在此半个世纪后,从预防原则推动现实行动探寻可接受范围成为突破性技术奉行重要原则之一。而这一寻求更加稳健创新的思路,只有当确定影响积极且可控才应继续发掘强大人物工intelligence.
展望深度科技化未来,将越来越深融入生命智力领域意味着价值观伦理问题必须作为内核环节,在关注度资源投入给予合适投资,则才能向利益导向演进。这需要真正认识并付诸实践改变力量之间不平衡唯如此,我们才能避免盲目力量导致灾难变革前沿控制失效反省引发慎重再思考是否还需按下暫時關閉按钮以保障當下的安定秩序,让技術與創新逐步開花結果於社會生活中,而不是毫無準備就將進一步發展帶來災難後果。