热闻丨意大利多家企业限用ChatGPT科技玩具在自然界中的狂飙怎么了
编辑孙远明
近日,ChatGPT在全球范围内遭遇了前所未有的风波。首先,意大利政府限制了OpenAI处理本国用户信息的能力,这导致ChatGPT不得不暂停服务。此后,三星公司仅使用了不到20天的时间,就发现其系统中存在机密资料泄露的问题。这一事件引起了广泛关注,并且加速了对ChatGPT安全性的质疑。
尽管如此,ChatGPT的大规模封号行动似乎已经开始。在新用户注册方面,由于无法进入注册网页,一些收码平台也随之关闭。这些措施显示出,即便是科技玩具在自然界中的狂飙,也不能忽视数据安全问题。
数据安全问题屡见不鲜
为了训练像ChatGPT这样的大型语言模型,大量的自然语言数据是必不可少的。但这也意味着,每次与用户进行交互,都有潜在的风险,因为敏感信息可能会被泄露。据报道,ChatGPT引发的数据安全问题包括三个方面:合法性、泄漏和恶意利用。
对于第一点,即获取数据合法性问题,不同国家和地区对于个人隐私保护有不同的规定,而开发商OpenAI并没有详细说明其训练数据来源,这就成了一个难以解决的问题。
第二点,即使用过程造成的数据泄漏问题,是由于用户输入敏感信息而造成的一种风险。如果这些信息不经过适当保护就会被窃取或滥用,对个体乃至整个社会都可能产生严重影响。
最后一点,即聊天机器人可能被用于恶意活动,是因为它具有编写软件、生成钓鱼邮件以及冒充真实身份等功能,这些都是网络犯罪分子渴望掌握的手段。
企业正面临网络安全挑战
面对这些挑战,有许多企业正在采取措施来增强网络安全。微软推出了名为Security Copilot的人工智能对话工具,它能够帮助防止黑客攻击并在发生攻击时进行应急处置。而国内企业如绿盟科技则正在研发基于类似技术的大型智能安全服务机器人,以实现对运营流程的全面自动化支持。
周鸿祎主办2023年数字安全与发展高峰论坛时提到,如果未来大型语言模型能够实现自我进化,那么人类将面临前所未有的网络威胁,因此如何搭建适应这种新时代需求的人工智能网络已成为新的课题和挑战。