芯片技术让ChatGPT研发暂停键新京报专栏
在人工智能领域的前沿探索中,ChatGPT等生成式语言模型的突破性进展,如同一场火山爆发,将科技界和公众带入了一个充满未知与惊喜的新世界。然而,在这波创新浪潮之下,我们也必须面对潜在的风险和挑战,就像天文学家们对宇宙深处黑洞的研究一样,需要谨慎行事,以免引发不可预测且不可控的后果。
近日,一篇关于GPT4潜力超越人类智能的大型研究论文发布,让专家们再次聚焦于AI技术发展中的伦理问题。这不仅促使约书亚·本吉奥、斯图尔特·罗素等多位行业领袖发出警告,也激励了未来生命研究所站出来呼吁暂停训练更强大的人工智能系统。他们认为,尽管AI技术能够赋能社会,但其快速发展可能会带来难以预见的人类生存风险。
未来生命研究所提出的宗旨是“引导变革性技术造福于生活,远离极端的大规模风险”,并且强调了相称性治理思想,即在规划和管理上投入与这种超强创新的资源和关注力,以及付出与其可能造成影响相称努力,对抗可能导致灾难性的或生存风险。
尽管如此,从微软、亚马逊到谷歌等科技巨头裁减人工智能伦理部门人员的事实表明,这些原则及其背后的治理思想尚未得到足够重视。公开信通过诉诸人类未来命运以及直接指向OpenAI关于通用人工智能声明中的高调表态,为此提出了一系列紧迫而具体建议,比如立即暂停至少6个月训练比 GPT-4 更强大的AI系统,并建立独立外部专家的监督以及政府监管下的共享安全协议。
历史上,有过类似的事件,如1975年的阿西洛马会议,其中保罗·伯格等科学家因为基因重组DNA的未知风险而主动提出暂停。在这个半个世纪之后,我们应当从这一预防性原则出发,不是简单地叫停,而是在寻求稳健创新的思路下进行评估,只有当我们确信它们积极且可控时才开发这些系统。
展望深度科技化时代,我们必须将人的价值、伦理问题融入研究中,并给予必要关注度及资源投入,以使科技朝着符合人类利益方向发展。只有真正认识到这一点并付诸实践,我们才能改变力量之间不平衡,使得科技有序绽放,同时避免听任它成为盲目的力量,对社会文明产生颠覆性的灾难。
因此,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,不仅是一句诗句,更是我们迈向科技未来所需反复唱颂的情景。在这个意义上,为巨型AI实验按下暂停键,是我们当前最重要的事情之一。