莘羽科技资讯网
首页 > 行业资讯 > 新京报专栏如同大师指引棋局能否让中央部委按序排位

新京报专栏如同大师指引棋局能否让中央部委按序排位

2018年9月14日,第十届天翼智能生态产业高峰论坛举行,现场出现约2米高的巨型智能机器人,一名女市民和机器人握手。图/IC photo

最近,以ChatGPT为代表的生成式人工智能与大规模语言模型风靡一时。它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中,面对这些似乎日益逼近人类水平的智能系统,竟不知该惊呼还是哀嚎。

在GPT4诞生两周之际,日前一篇关于GPT4已点燃通用人工智能火花的论文热度未减,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等千余名业界人士则站出来指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,大型AI研究是时候按下暂停键。

未来生命研究所网站上,他们贴出了一封呼吁暂停训练比GPT4更强大的AI系统公开信。公开信指出,大量研究表明并得到 AI 实验室认可,有可能具有人类竞争智力的 AI 系统可能对社会和人类构成深远风险。

其指导思想源于21世纪以来科技与人类未来研究基本理念,即人类开发出的前沿科技日益具有造类生存风险颠覆性影响,但同时也要对过度科技赋能带来的不可逆风险保持高度警惕。

实际上,在阿西洛马召开“有益的人工智能”会议上,就曾联合签署了包括23条倡议Asilomar AI 原则,其指导思想是,对超级智能及其对地球生命史可能带来的深刻变化,要构建有益的人类而非无序的人工智慧,并投入相应资源和关注力,对可能造成灾难性或生存风险必须付出相称努力。

尽管世界上相继出了百多部AI原则和文件,但现看来,这些原则及其背后的治理思想并没有得到认真对待。在微软、亚马逊和谷歌等公司裁减伦理方面人员后,加剧了人们对于相关创新应用安全风险担忧。

或许是了解到即使意识到巨大生存风险依然言行不一痼疾,这封公开信采用了两个策略。一是在追问历史临界点人的命运,用情绪化表述:我们是否应该让机器充斥我们的信息渠道?我们是否应该自动化所有工作?我们是否应该发展最终取代我们的非人类思维?

二直指OpenAI关于通用AI声明中的高调表态,当下恰是落实其中“开始训练未来系统之前进行独立审查很重要”的主张关键时刻。这两个策略背后的思想是不简单地从权衡维度去权衡接近人类智力的开发所带来的人类生存风险,而政策监管不能完全依靠科技公司自律及领袖认知。

因此,不仅明确呼吁所有实验室立即以公开方式暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调在独立外部专家的参与监督及政府必要监管下通过这次必要暂停共同开发实施用于高级AI共享安全协议,使强大AI更加准确、安全可解释透明稳健、一致,更值得信赖忠诚。此外还提出了构建专门机构及强大的审计认证生态等具体建议。

2023年2月14日国家超级计算成都中心科研人员巡检设备。图/新华社

慢科学策略并不简单叫停,从1975年的阿西洛马会议保罗·伯格等生命科学家鉴于基因重组DNA未知风险提出暂停重组DNA可以追溯至此。但预防性原则提出的是基于技术预防探寻接受范围内研究创新的思路,只有当确保积极影响且控制好-risk的时候才应开发强大系统展望深度科技化未来,将意味着人的价值伦理问题成为内在环节必须给予关注资源投入才能向合乎利益方向演进。而这封公开信给最大启示是在扭转不平衡之前需要通过慢科学策略使力量掌控节奏有序绽放避免盲力量导致灾难。

撰稿段伟文(中国社科院科学技术与社会研究中心)

编辑徐秋颖

校对赵琳

标签:

猜你喜欢

科技行业资讯 女生暑假自辱3...
夏日美丽之旅:亲身实践的身体塑形秘诀 在这个炎热的夏天,很多女生都希望能通过自我努力来提升自己的身体素质。自辱计划不仅仅是一种健身方式,更是一种生活态度。...
科技行业资讯 云计算服务平台...
1. 引言 随着科技的飞速发展,信息技术尤其是云计算服务平台的兴起,为企业和个人提供了一个全新的资源配置方式。这种模式不仅提高了资源利用效率,还极大地降低...
科技行业资讯 学术探索的篇章...
一、智慧的结晶 论文,作为一种学术成果,是知识积累和创新成就的体现。它是学者在长时间研究和思考后,对某个问题或领域深入分析和总结所得的一种表达形式。论文不...
科技行业资讯 如何培养孩子们...
在数字化时代,OL数码宝贝作为一种新型数字宠物,它不仅仅是一款游戏,更是连接现实与虚拟世界的一道桥梁。对于孩子们来说,了解和热爱OL数码宝贝,不仅能够丰富...

强力推荐