科技时代千名专家齐声提醒让ChatGPT研发按下暂停键吗新京报专栏
近日,随着ChatGPT等生成式人工智能的快速发展,全球范围内对其潜在风险和伦理问题的关注也日益增强。尽管这些系统如同高速过山车般冲出舞台,使人类面临前所未有的挑战,但就像宇宙学家泰格马克等人所建议的那样,我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作呢?
就在此时,一封由约书亚·本吉奥、斯图尔特·罗素、埃隆·马斯克等多位业界领袖签署的公开信引起了广泛关注。这封信呼吁暂停训练比GPT4更强大的AI系统,因为它们可能带来深远的人类社会和文明发展风险。
从阿西洛马会议上的有益人工智能原则到现今,这些原则及其背后的相称性治理思想并没有得到认真对待。尽管微软、亚马逊和谷歌等公司在伦理方面的人员裁减增加了安全风险担忧,但对于接近人类智能的人工智能开发可能导致的人类生存风险,我们不能简单地从权衡收益与成本来决定。
公开信不仅呼吁AI实验室立即暂停至少6个月训练比 GPT-4 更强大的AI系统,还提出了构建专门监管机构和强大的审计生态系统建议。这一策略并不意味着简单叫停,而是基于预防性原则探寻我们可以接受的研究创新。
展望未来,科技将越来越深入生命与智能领域,这要求人的价值、伦理问题被视为研究内核,并给予相应关注度。只有真正认识这一点并付诸实践,才能改变科技力量与控制力之间不平衡,从而避免失控带来的灾难。
因此,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,正是人类迈向科技未来需要反复唱颂的一曲史诗。在这个意义上,“让我们为巨型AI实验按下‘暂停’键”的呼声,是为了确保人类文明不会失控,为技术进步提供一个有序可控的环境。