千名专家联署让ChatGPT研发暂停键是否已拉响新京报专栏探讨
在科技部人才与科学普及司的指导下,第十届天翼智能生态产业高峰论坛于2018年9月14日隆重举行。会议上,一名女市民与约2米高的巨型智能机器人握手,这一场景象征着人类技术进步的新里程碑。然而,当我们面对如ChatGPT这样的人工智能系统时,我们是否已经准备好应对它们带来的挑战?
近期,随着GPT4的诞生,关于其超越人类水平潜力的讨论愈发激烈。尽管如此,有超过千名专家和学者呼吁暂停训练比GPT4更强大的AI系统。这一呼吁来自于未来生命研究所,由宇宙学家泰格马克等人创办,他们警告说,如果不采取行动,我们可能会陷入无法控制的人工智能风险。
这封公开信引用了21世纪以来科技与人类未来研究的基本理念,即我们必须认识到科技发展可能带来的风险,并制定相应措施以避免这些风险。此外,它还提到了2017年阿西洛马会议上的“有益人工智能”倡议,其中包括23条原则,以确保人工智能为人类造福,而非造成灾难性后果。
虽然自那以后许多国家和组织出台了相关原则,但公开信指出这些原则并未得到充分执行。这也反映在微软、亚马逊和谷歌等大型科技公司裁减伦理团队成员的情况中,这增加了人们对于AI安全性的担忧。
为了保护我们的文明不受过度依赖AI系统所带来的威胁,公开信建议立即暂停至少6个月训练比GPT-4更强大的AI系统,并且提出了一系列监管建议,比如建立专门的人工智能监管机构和强大的审计认证体系。
这一策略并不意味着简单地叫停,而是基于预防性原则,对待具有潜在重大影响的科学研究进行谨慎评估。在这个过程中,我们需要确保任何创新都能被公众理解,并且能够积极地为社会作出贡献而不是引起恐慌或危机。
通过这种慢科学策略,我们可以避免让技术成为不可控力量,从而保障人类文明不失控。在追求技术进步的同时,也要意识到它对社会和个人生活产生深远影响,因此必须更加谨慎地推动前沿技术,如生成式语言模型,让它们真正服务于所有人的利益。