热闻丨未来世界中的意大利企业限用狂飙的ChatGPT如何应对自然挑战
编辑孙远明
近日,ChatGPT遭遇多重挑战。
首先,意大利对ChatGPT实施了限制,OpenAI不得处理本国用户数据。紧接着,三星仅在20天后就发现其导入的ChatGPT机密资料泄露。随后,又有消息传出ChatGPT停止注册并开始大规模封号。
面对连续的负面新闻,我们不得不问:ChatGPT出了什么问题?
尽管如此,大规模封号行动似乎已经不可避免。
据统计,有数百万用户的账号受到影响。而且,对于新用户来说,即便是注册网页也无法访问,更不用说许多收码平台近期已经关闭。
隐患层面的数据安全问题
为了提供强大的功能,ChatGPT必须依赖庞大的数据训练。这意味着它不断接触各种对话,其中可能包含敏感信息,每次都存在泄露风险。
据界面新闻透露,ChatGPT引发的数据安全问题包括三个方面:
数据合法性问题。由于训练需要大量互联网数据,但开发商OpenAI未详细说明来源,因此合法性成为了疑点。
使用过程中的数据泄漏风险。当用户输入敏感信息时,即使是稍不留神,也可能导致泄漏。
数据被恶意利用。在米拉·穆拉蒂(Mira Murati)的警告下,一些人可能利用编写恶意软件、钓鱼邮件或冒充真实身份骗取信息。
企业正在构建网络安全防线
专家预测,不久将来网络犯罪分子会使用AI聊天机器人编写恶意软件和进行其他攻击。
在这种背景下,一些公司正采取措施加强网络安全,比如微软推出了新工具Security Copilot,可以帮助防止黑客攻击并在遭到攻击时进行处置。
国内方面,如绿盟科技宣布,他们已在攻防、运营和内容识别等领域开展类似技术研究,并计划今年第三季度发布基于类似技术的智能安全服务机器人,以实现全面智能化支撑。此外,在360主办的2023数字安全与发展高峰论坛上,周鸿祎也展示了360版本“ChatGPT”,预计未来人工智能语言模型将实现自我进化,这将给人类带来新的不可预知挑战。
当前,对于网络安全厂商来说,加强搭建以应对GPT时代的问题已成为新的课题和挑战。