科技海洋中的ChatGPT航船千名专家如同灯塔共同发出警示能让这艘研发之舟暂停前行吗
科技风暴中的AI航母,专家们如同灯塔,发出警告:能让这艘研发之船暂停前行吗?在ChatGPT的辉煌之下,我们正面临着一场人类与智能之间的历史转折。约书亚·本吉奥、斯图尔特·罗素等业界巨擘呼吁暂停训练比GPT4更强大的AI系统,这不仅是对未来生命研究所提出的建议,也是对我们共同未来的一种担忧。
自21世纪以来,科技与人类未来研究的基本理念已经明确:开发的前沿科技日益具有造类生存风险的颠覆性影响。因此,未来生命研究所将其宗旨设定为“引导变革性技术造福于生活,远离极端的大规模风险”。
2017年初,“有益人工智能”会议上,有2000余位业界人士和学者联合签署了包括23条倡议的Asilomar AI原则。这些原则指导思想是构建对人类有益的人工智能,而不是无序的智能,对于可能造成灾难性的和生存风险必须付出相称努力。
尽管生成式和对话式人工智能兴起,使伦理风险日益凸显,但微软、亚马逊和谷歌等公司近来裁减伦理方面的人员,加剧了人们安全风险担忧。在此背景下,一封公开信采用了两个策略:诉诸人类未来的命运,并直指OpenAI关于通用人工智能声明中的高调表态。
公开信不仅呼吁所有AI实验室立即暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要在独立外部专家的参与监督以及政府必要监管下,共同开发实施一套用于高级人工智能的共享安全协议,以使强大的人工智能系统更加准确、安全、可解释、透明、稳健、一致,更值得信赖,对人类更为忠诚。
从预防性原则出发提出暂停并不是简单叫停,而是通过科技风险认知研判探寻我们可以接受的研究创新。这也意味着人的价值、伦理问题必须被视为研究创新的内在环节,在关注度资源投入上给予相应投入,以便科技向合乎人类利益方向演进。
只有真正认识到这一点并付诸实践,我们才能改变深度科技化前沿中科技力量控制力之间不平衡。公共信件给我们的最大启示是在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技力量在我们掌控节奏下有序绽放,从而避免听任巨型科技有限公司演变成盲目的力量或因其失控而对社会文明带来灾难性的影响。
因此,“让我们享受一个漫长のAI夏天,而不是毫无准备地陷入秋天”,并非一般诗句,而是迈向科-tech 未来需要反复唱颂的地史诗。