科技公司名字如同星空浩瀚而深邃但是否该是ChatGPT研发暂时按下停止键新京报专栏探讨
科技公司的名字如同星空,浩瀚而深邃,但是否该是ChatGPT研发暂时按下“停止键”?新京报专栏探讨
近日,以ChatGPT为代表的生成式人工智能与大规模语言模型风靡一时。它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中,面对这些似乎日益逼近人类水平的智能系统,竟不知该惊呼还是哀嚎。
在GPT4诞生两周之际,日前一篇关于GPT4已点燃通用人工智能火花的论文热度未减,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,巨型AI研究是时候按下暂停键。
未来生命研究所网站上,他们贴出了一封呼吁暂停训练比GPT4更强大的AI系统的人民公约。公开信指出,大量研究表明并得到 AI 实验室的认可,具有人类竞争智能的 AI 系统可能对社会和人类构成深远风险。
其指导思想源于21世纪以来,不断发展的人类技术与伦理学结合理论,即人类开发出的前沿科技日益具有造类生存风险颠覆性影响,对此,我们既要以科技赋能社会,同时也要对过度科技赋能带来的不可逆风险保持高度警惕。
相称性治理思想没有得到认真对待
实际上,在2017年初,“有益人工智能”会议上,有2000余位业界人士和学者联合签署了包括23条倡议的大阿西洛马原则。
其指导思想是,要构建对人类有益而不是无序性的超级智能必须规划和管理投入与这种超强创新相应资源关注力,对于可能造成灾难性或生存危机的人工智能必须付出与其可能造成影响相称努力。
自那时以来尽管世界多次制定了多百部AI原则文件,但现在看来,这些原则及其背后的相称性治理思想并没有得到认真处理。
英国《金融时报》报道微软、亚马逊和谷歌等公司裁减伦理人员增添人们对于相关创新应用安全风险担忧,或许了解到即使意识到巨大生存危险依然言行不一痼疾,这封公开信采用了两个策略。
首先诉诸未来命运追问:我们是否应该让机器用宣传谎言充斥信息渠道?我们应该自动化所有工作包括令人满意工作吗?我们是否应该发展最终可能超越并取代我们的非人类思维?我们冒险失去文明控制吗?
其次直指OpenAI关于通用AI声明中的高调表态,当今恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张关键时刻。
这两个策略背后思想是不简单权衡风险收益,而政策监管不能完全依赖科技公司自律及领袖认知。
公开信不仅明确要求所有实验室立即以公开方式至少6个月暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调在独立外部专家参与监督政府必要监管下通过必要暂停共同开发实施用于高级AI共享安全协议使强大人的话更加准确安全解释透明稳健一致更值得信赖忠诚给予建议构建专门有力机构及强大的审计认证生态系等具体提案。
2023年2月14日国家超级计算成都中心科研人员巡检设备。图/新华社
慢科学策略并不简单叫停
从历史角度看开放信所提暫停策略并不创举至少可以追溯至1975年保罗·伯格等生命科学家鉴于基因重组DNA未知危险提出暂停重组DNA预防性思考逐渐成为突破性创新所奉行重要原则。
值得指出的是从预防性原则提出暫停不是简单叫住,而是在技术风险认识研判探寻接受范围内研究创新的思路只有当确认积极影响可控才应开发強大系統展望深度科技化未来将越来越走进生命智慧领域价值伦理问题视为内环节关注度资源投入才能合乎利益方向演进唯真正识这一点付诸实践改变力量控制之间不平衡启示需要通过慢科学策略避免盲力量导致颠覆灾难文明不能失控正当时间为巨型按下暂停键
撰稿/段伟文(中国社科院科学技术和社会研究中心)
编辑/徐秋颖
校对/赵琳