千名专家联署让ChatGPT研发暂停键何时响起新京报专栏科技创新梦想的火车是否该按下刹车
在科技创新筑梦未来论文中,千名专家呼吁:能让ChatGPT研发按下暂停键吗?新京报专栏
随着ChatGPT等生成式人工智能的兴起,它们如同高速过山车般冲出舞台,让我们陷入了地平线翻转般的眩晕之中。近日,一篇关于GPT4已点燃通用人工智能火花的论文热度未减,而约书亚·本吉奥、斯图尔特·罗素以及马斯克等业界人士则站出来指出,由于最近几个月来人工智能领域已陷入一场失控竞赛,巨型AI研究是时候按下暂停键。
他们的公开信提到,大量研究表明具有人类竞争智能的AI系统可能对社会和人类构成深远风险。这种风险来自于21世纪以来科技与人类未来研究的基本理念,即人类开发出的前沿科技日益具有造类生存风险的颠覆性影响。
尽管2017年初,在阿西洛马召开“有益人工智能”会议时,2000余位业界人士和学者就曾联合签署包括23条倡议的Asilomar AI 原则,但这些原则及其背后的相称性治理思想并没有得到认真对待。英国《金融时报》的最新报道显示,即便伦理风险日益凸显,大型科技公司如微软、亚马逊和谷歌却在裁减伦理方面的人员,这加剧了人们对相关创新和应用安全风险的担忧。
公开信采用了两个策略:诉诸人类未来的命运,对机器是否应该充斥我们的信息渠道、自动化工作,以及发展可能超越并取代我们的非人类思维进行追问;直指OpenAI关于通用人工智能声明中的高调表态,并强调现在恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张的关键时刻。
这封公开信不仅明确呼吁所有AI实验室立即以公开和可检验方式暂停至少6个月训练比 GPT-4 更强大的AI系统,而且强调要在独立外部专家的参与监督以及政府必要监管下共同开发实施一套用于高级人工智能共享安全协议,使得强大的人工智能更加准确、安全、可解释、透明稳健、一致,更值得信赖,对人类更为忠诚。此外,还提出构建专门有力的人工智慧监管机构及强大的审计认证生态系统等具体建议。
从预防性原则出发提出暂停并不意味着简单叫停,而是在技术风险认知与研判基础上探寻我们可以接受的是哪些研究与创新的思路。在寻求更加稳健创新的视角下,只有当我们确保其影响积极且控制风险时,我们才应该开发强大的人工智能系统。这也意味着人的价值伦理问题必须被视为内在环节,并给予相应关注度资源投入,以使技术向合乎人类利益方向演进。