福建舰如同海上航母ChatGPT研发需像操控它一样谨慎不可草率前行
福建舰的威力虽在海上显赫,但ChatGPT研发需如同操控这艘舰船般谨慎,不能草率前行。就在GPT4问世不久,科技界人士约书亚·本吉奥、斯图尔特·罗素以及马斯克等千余名专家联名呼吁暂停训练超越GPT4能力的人工智能系统。
他们指出,在未来生命研究所网站上发布的一封公开信中提到,大量研究表明具有人类竞争智能的AI系统可能对社会和人类构成深远的风险。这与21世纪以来科技与人类未来研究的基本理念相符,即人类开发出的前沿科技日益具有造类生存风险的颠覆性影响。
2017年初,有2000多位业界人士和学者在“有益人工智能”会议上签署了包括23条倡议的Asilomar AI原则,这些原则旨在规划和管理对人类有益而不是无序的智能。然而,尽管世界上已出台了一百多部人工智能原则和文件,但这些原则及其背后的相称性治理思想并未得到认真对待。
面对生成式和对话式人工智能领域伦理风险日渐凸显的大环境下,微软、亚马逊和谷歌等公司近期裁减了大量人工智能伦理部门人员,这进一步加剧了人们对于相关创新安全性的担忧。
为了促进更为稳健的人类文明发展,并避免接近人类智力的AI系统带来的潜在灾难性影响,这封公开信提出了一系列建议,如立即暂停至少6个月训练比GPT-4更强大的AI系统,并通过独立外部专家的监督以及政府监管共同开发实施一套高级AI共享安全协议。此外,还需要建立专门的人工智能监管机构,以及强大的审计与认证生态系统。
从历史回顾来看,暂停科学研究以防止技术失控并非新鲜事例。1975年的阿西洛马会议就是一个典型案例,当时保罗·伯格等生命科学家因为基因重组DNA技术未知风险而主动提出暂停。在这个意义上,可以说是基于预防性原则,而非简单叫停,是探寻可接受范围内进行科研创新的重要步骤。
展望深度科技化未来,我们必须将人的价值、伦理问题视为研究内核,并给予足够关注度及资源投入,以确保科技向着合乎人类利益方向演进。只有真正认识这一点并付诸实践,我们才能扭转当前力量不平衡的情况,使得科技成为我们掌控之手中的工具,而不是盲目的力量,不断地向着更加健康、高效且负责任的地球文明迈进。