千名专家提醒ChatGPT研发需按暂停键教育与科技的和谐共奏新京报专栏
在人工智能领域的前沿探索中,ChatGPT等生成式语言模型的崛起,如同一场科技革命般迅猛地席卷全球。然而,在这种技术飞速发展的同时,我们也面临着前所未有的挑战和风险。就在GPT4问世之际,一份由约书亚·本吉奥、斯图尔特·罗素及马斯克等千名专家联合签署的公开信呼吁暂停训练比GPT4更强大的AI系统,这不仅是对当前人工智能研究趋势的一次深刻反思,也是对未来可能带来的潜在风险的一个警示。
这封公开信提出了一个明确而直白的问题:我们是否应该让机器以宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能超越并取代我们的非人类思维?这些问题触及了人工智能伦理与社会责任性的核心议题,是对科技进步与人类生存价值之间关系的一种深刻质疑。
此外,公开信还指出,即使是在科技公司内部,对于高级人工智能安全性治理思想并没有得到认真对待。这一点尤其值得关注,因为尽管微软、亚马逊和谷歌等大型科技公司近期裁减了大量的人工智能伦理相关人员,但这样的措施似乎无法有效缓解人们对于相关创新和应用安全风险的担忧。
面对这一情况,上述千名专家提出的建议并不简单,它们主张需要通过独立审查来监督AI实验室,并且在政府监管下共同开发实施一套用于高级人工智能的共享安全协议,以确保这些系统更加可靠、透明、稳健,同时避免过度自我管理导致的问题。
从历史角度来看,这样的预防性策略并非首创。在1975年阿西洛马会议上,生命科学家们就因为基因重组DNA技术未知风险而提出暂停。这一次,我们面临的是不同层面的挑战:既有生物学上的,又有哲学伦理上的,更有社会经济政治方面的问题交织在一起。
因此,这封公开信不仅呼吁暂停训练强大AI系统,还要求将人的价值、伦理等问题作为研究内在环节进行考虑,并给予相应关注度和资源投入。只有这样,我们才能逐渐扭转目前技术力量与控制力量之间不平衡的情况,从而避免巨型AI实验失控,最终影响到人类社会文明发展乃至存在本身。