千名专家提醒ChatGPT研发需按下暂停键科学发展的自我审视需要如同调试代码一般谨慎行事
在人工智能领域的前沿探索中,ChatGPT等生成式语言模型的崛起,如同一场科技革命般迅猛地席卷全球。然而,在这种技术飞速发展的同时,我们也面临着前所未有的挑战和风险。正如宇宙学家泰格马克等人提出的,拥有人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。
近日,一封由约书亚·本吉奥、斯图尔特·罗素、埃隆·马斯克及数百名行业专家联署的公开信呼吁暂停训练比ChatGPT更强大的AI系统。这封信引发了关于科学发展与伦理责任之间平衡的问题,并提出了未来生命研究所宗旨,即“引导变革性技术造福于生活,远离极端的大规模风险”。
尽管世界上已有多部人工智能原则和文件,但这些原则并未得到认真执行。此外,大型科技公司如微软、亚马逊和谷歌最近裁减了大量涉及AI伦理方面的人员,这种做法加剧了人们对相关创新和应用安全性的担忧。
公开信中的两个策略——诉诸人类未来命运以及直接指向OpenAI关于通用人工智能声明中的高调表态——揭示了对于接近人类智能的人工智能开发可能导致的人类生存风险不能简单从风险收益比维度权衡。政策与监管应当依赖科技公司自律或科技领袖认知,而应建立独立审查机制,以确保高级人工智能系统更加可靠、安全、高效。
此举不仅是对阿西洛马会议倡议的一次回顾,也是预防性思想在突破性科技创新中奉行的一个重要原则。在追求稳健创新的道路上,只有当我们确保其影响积极且可控时,我们才应该开发强大的人工智
(由于篇幅限制,本文已被截断,请参考原始内容以获取完整信息)