DoNews4月3日消息,自OpenAI公司2022年11月底公布以来,聊天机器人ChatGPT的热度依然不减。许多人发现它确实能通过协助日常办公释放更多的劳动力,但风险也随之而来。
据财联社综合多家媒体报道,自3月11日韩国三星电子允许部分半导体业务部门员工使用ChatGPT开始,在短短20天内便爆出了三起机密资料外泄事件。
据了解,三起机密资料外泄案件中,其中两起与半导体设备有关,另一起于内部会议有关。具体为:
案件一,三星设备解决方案部门的职员A在半导体设备测量资料库下载软件时,发现源代码出现错误,便将有问题的部分复制到ChatGPT中寻找解决方案。
案件二同样发生在设备解决方案部门,职员B将用于识别产品良率的程序代码输入进ChatGPT,要求其优化代码。
案件三是该部门的职员C为了制作会议记录,将手机上的会议内容转换为文档,之后将文档输入进ChatGPT。
据传前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中。
三星方面回应,已加强ChatGPT相关的安全措施,将进一步收紧内部监管和员工培训。公司还特地发布公告叮嘱员工注意使用ChatGPT的方式,如果再次发生类似事件,内部可能会切断ChatGPT服务。
需要指出的是,其实在OpenAI官网上,ChatGPT的隐私政策中就有呼吁使用者“不要输入敏感内容”。但正如很多人的习惯一样,大多数电子产品用户不到需要时,是不会翻看产品说明书的。
上周,意大利个人数据保护局宣布禁止使用ChatGPT,并限制OpenAI公司处理意大利用户信息。最新消息显示,意大利副总理萨尔维尼在社交媒体上写道,这一禁令可能会损害国家商业和创新,他希望能迅速找到解决方案,恢复聊天机器人进入意大利的权限。
三星电子也表示,半导体的生态系统可能因生成式人工智能而改变,所以不应该担忧泄密而禁止ChatGPT。公司副会长韩钟熙也在近期的一场活动中表示,将集中全部力量扩大机器人事业,把机器人作为新的增长动力。