千名专家联署让ChatGPT研发暂停键是否已拉响新京报专栏探讨国家科技成果网的智慧引擎发展paces
在科技的高速前进中,我们或许忽略了对其潜在风险的反思。近日,一份由约书亚·本吉奥、斯图尔特·罗素等千余名专家联署的公开信,呼吁暂停训练比ChatGPT更强大的AI系统。这不仅是对技术发展的一次深刻审视,也是对未来可能出现的风险的一种预防措施。
这封公开信提出了一个重要的问题:我们是否应该让机器取代我们的信息渠道?是否应该自动化所有工作,包括那些令人满意的工作?是否应该发展最终可能超越并取代人类思维的非人类智能?这些问题触及到了人工智能研究与应用伦理背后的深层次思考。
对于接近人类智能的人工智能开发带来的生存风险,不能简单地从风险收益比去权衡。相应政策和监管也不能完全依靠科技公司自律和科技领袖认知。此外,这封公开信还提出了构建专门人工智能监管机构和强大的审计认证生态系统等具体建议。
历史上,有过类似的预防性措施,如1975年的阿西洛马会议,对于基因重组DNA研究暂停提出主张。这种慢科学策略并不意味着简单叫停,而是通过科技风险认知与研判探寻可接受范围内进行研究创新。
展望未来,随着深度科技化领域如生命和智能等关乎人类存在领域的不断深入,我们必须将人的价值、伦理问题视为研究创新的内在环节,并给予相应关注度资源投入,以使科技向合乎人类利益方向演进。
这封公开信给出的最大启示是在扭转不平衡之前,我们有必要通过暂停这种慢科学策略,使科技力量有序绽放,从而避免听任巨型技术系统演变成盲目的力量,对社会文明发展造成颠覆性的灾难。确实,是时候为巨型AI实验按下暂停键了,让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天。这不仅是一句诗,更是一个时代需要反复唱颂的声音。