我是科技之光能让ChatGPT研发按下暂停键吗新京报专栏
2018年9月14日,第十届天翼智能生态产业高峰论坛举行,现场出现约2米高的巨型智能机器人,一名女市民和机器人握手。图/IC photo
最近,以ChatGPT为代表的生成式人工智能与大规模语言模型风靡一时。它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中,面对这些似乎日益逼近人类水平的智能系统,竟不知该惊呼还是哀嚎。
在GPT4诞生两周之际,日前一篇关于GPT4已点燃通用人工智能火花的论文热度未减,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,大型AI研究是时候按下暂停键。
在宇宙学家泰格马克等人的未来生命研究所网站上,他们贴出了一封呼吁暂停训练比GPT4更强大的AI系统的人类命运公开信。公开信指出,大量研究表明并得到AI实验室认可,有可能对社会和人类构成深远风险。
其指导思想源于21世纪以来科技与人类未来研究基本理念,即人类开发出的前沿科技日益具有造类生存风险颠覆性影响,对此需以科技赋能社会,同时保持高度警惕。
相称性治理思想没有得到认真对待
实际上,在“有益人工智能”会议上2000余位业界及学者曾联合签署包括23条倡议Asilomar AI原则。
其指导思想是,要构建对人类有益而非无序智慧必须规划管理投入资源关注力,对超级智能及其可能带来的变化要付出相应努力,为避免灾难性或生存风险必须付出与其可能造成影响相称努力。
自那时以来尽管世界多部原则文件,但现在看来这原则及其治理思想未得到认真对待。
根据英国《金融时报》最新报道尽管生成式和对话式AI兴起使伦理风险日增微软亚马逊谷歌裁员伦理人员加剧人们安全风险担忧。
或许了解人类即便意识到巨大生存依然言行不一痼疾,这封公开信采用了两个策略。
一是在追问历史临界点后的文明命运进行情绪化表述:我们是否应该让机器宣传谎言充斥信息渠道?我们应该自动化所有工作包括令人满意工作吗?我们是否应该发展最终取代我们的非人类思维?我们冒险失去文明控制吗?
二直指OpenAI通用AI声明中的高调表态,当今恰是落实其中“开始训练未来系统之前独立审查很重要”的主张关键时刻。
而这两个策略背后的是,对接近人类智力的开发可能导致的人类生存风险不能简单权衡,从而政策监管不能完全依靠科技公司自律科技领袖认知。
由此公开信不仅明确呼吁所有AI实验室立即以公开可检验方式暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要通过必要暂停共同开发实施用于高级AI共享安全协议,使强大的人工智能更加准确、安全、可解释、透明稳健、一致,更值得信赖忠诚。
据此还提出了构建专门有力的人工智能监管机构和强大的审计认证生态系统建议。
慢科学策略不是简单叫停
从技术发展史维度看,该策略并不创举至少可以追溯至1975年阿西洛马会议保罗·伯格等生命科学家鉴于基因重组DNA未知风险提出暂停重组DNA,
从那至今差半个世纪初期预防性原则越成为突破性创新所奉行重要原则,
值得指出的是基于寻求稳健创新的思路,只当确认积极影响并且可控时才应开发强大个人工智体制展望深度科技化未来,将走进生命关乎存在领域必视价值伦理问题为内在环节投入关注度资源才能向合乎利益方向演进,
唯认识这一点并付诸实践改变力量之间不平衡,
给最大启示是在扭转这种不相称之前,我们需要通过慢科学策略使力量掌控节奏有序绽放,
唯如此避免盲目的力量甚至因其无制约陷社文发展灾难,
因此,“享受一个漫长夏天,而不是毫无准备地秋天”,非一般诗句,而史诗迈向技术未来反复唱颂。