OpenAI GPT大模型引领全球AI创新热潮,但其新技术之下 “矛“与”盾”也日益严重。

文|黄杨

编辑|靖程

据路透社报道,当地时间3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,并就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,同时限制OpenAI处理意大利用户数据。该行政措施使得意大利成为全球首个对AI聊天机器人采取行动的西方国家。

当下,除了意大利,个人隐私安全、企业和国家的数据安全也成为其他国家讨论和担忧的重点问题之一:以ChatGPT为代表的AI技术带来科技进步的同时,会带来何种数据风险,人类又该如何防范等成为进一步讨论的重点。

因泄漏用户隐私,

ChatGPT在意大利被禁用

意大利个人数据保护局在行政报告中指出,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失的情况,而该平台没有就收集处理用户信息进行告知,且缺乏收集和存储个人信息的法律依据。

据悉,当时有多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录,还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。

3月25日,OpenAI发布声明承认,由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。

该公司还表示,在特定的9小时窗口期内,1.2%的付费版用户的个人支付信息可能被泄露;部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息,“实际向他人透露数据的用户数量极低,我们已经联系了那些可能受到影响的用户。”

除了用户信息收集和泄露问题外,意大利个人数据保护局还指出,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但其并没有使用任何过滤机制来验证用户的年龄,此外,ChatGPT缺乏法律依据来证明收集和存储大量个人数据来训练聊天机器人是正当的。

基于以上问题,意大利个人数据保护局要求OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

在这一禁令要求下, ChatGPT在意大利已无法访问。OpenAI对此表示,公司正在积极努力减少在训练ChatGPT等人工智能系统时使用个人数据的情况,“我们期待与(意大利数据机构)密切合作,并告知他们我们如何构建和使用我们的系统。”

不过针对此事,意大利副总理、执政联盟中的联盟党(League party)领导人马泰奥·萨尔维尼(Matteo Salvini)在Instagram上写道,“每一次技术革命都会带来巨大的变化、风险和机遇。通过监管机构和立法机构之间的国际合作进行控制和监管是正确的,但不能直接禁止。”萨尔维尼表示,这一禁令可能会损害国家商业和创新,他希望能迅速找到解决方案,恢复聊天机器人进入意大利的权限。

企业机密信息也可能存在被泄露风险

自去年11月发布以来,ChatGPT掀起了一股科技热潮,国外科技企业相继加入该领域,甚至将ChatGPT或类似技术集成到自家企业的应用程序和产品中。而更多的普通用户,开始使用ChatGPT画图、写代码,甚至解决工作难题。

意大利个人数据保护局主席帕斯夸尔·斯坦齐奥内(Pasquale Stanzione)告诉意大利国家电视台,他是这次签署上诉的人之一,他这样做是因为“尚不清楚人工智能开发人员最终追求的目标是什么”。

据英国BBC报道,OpenAI承认对数据的处理缺失存在漏洞,同时表示ChatGPT之所以有收集数据的机制,是为了让其“学习这个世界”,而非“学习用户个人”。

即使ChatGPT收集数据仅是为了反哺自身,但值得注意的是,有业内观点认为,输入ChatGPT的数据会被用于语言大模型的迭代训练,所以用户输入的敏感数据,极有可能成为其输出的内容,造成敏感数据泄露。当然,信息风险不仅是个人隐私信息的泄漏,企业机密信息也存在被泄露的风险。

日前,数据安全公司Cyberhaven在调查不同行业客户的160万员工ChatGPT的使用情况后,其发布报告表示,2.3%的员工将公司机密数据贴入ChatGPT;企业员工平均每周向ChatGPT泄露敏感数据达数百次;目前敏感数据占员工粘贴到ChatGPT的内容的11%。

另据多家韩媒报道,三星电子内部已经发生了数起ChatGPT滥用与误用事件。公司员工将半导体设备测量数据库、产品良率等内容输入ChatGPT 中,还有员工要求ChatGPT制作会议记录。ChatGPT可能已经把三星的机密信息当作训练资料使用,若有其他用户对ChatGPT提出相关问题,公司企业机密可能外流。

为保护企业机密信息,目前美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务;不少日本公司,如软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等,也限制了ChatGPT和类似聊天机器人的商业用途。

浙江大学计算机学院教授汤斯亮在接受媒体采访时表示,从大型语言模型的训练方式来看,的确存在隐私漏洞。比如让它补写代码,它会东边摘一点,西边摘一点,合成一段代码,但有人发现,它补出来的代码跟网上代码是一样的。它其实是在抄那些代码。

“就算它真的记住了家庭地址,如果不加以刻意地引导、提示,它并不会用来生成回答。这段信息存在它庞大的45TB语料之中,日后生成出来的概率是极其微小的。”不过,汤斯亮也指出,ChatGPT虽然收集了个人数据,但这些数据未必会用来训练,因为它学习语料的代价很高,每训练一次就需要大量资金投入。虽然你把家庭地址告诉它,它可能只是存储了,甚至也可能不存储。

“ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰分析认为,虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。

新技术发展的“矛“与”盾”

OpenAI GPT大模型引领全球AI创新热潮,但其新技术之下 “矛“与”盾”也日益严重。

“如果你的个人信息被学习进它的大脑中,隐私追溯比起以前的互联网更加困难。至于它产生数据属于谁,如何保存和监管,目前在法律上还存在空白。”浙江大学计算机科学与技术学院教授陈华钧曾表示,数据安全、隐私保护都属于安全AI或尽责人工智能的问题,现有的人工智能大模型大多存在这个问题。

未来今日研究所(Future Today Institute)负责人兼纽约大学商学教授艾米·韦伯(Amy Webb)称,人工智能在未来 10 年可能有两个发展方向:在乐观情况下,人工智能的发展侧重于公共利益,系统设计透明且个人能够选择是否将他们在互联网上的公开信息纳入AI知识库。

而灾难性情况是未来数据隐私将变得更少,更多权力集中在少数几个公司,彼时人工智能或错误预测用户需求,或者扼制用户选择。

据了解,目前业内人士认为,AI产品的可靠性和安全性可以从两方面入手,一方面是在产品端,AI产品本身要可控可靠,另一方面是在监管层面,国家应该出台相关政策防止AI产品被滥用。

“对于ChatGPT暴露出的相关风险,要加快研究监管措施。” 全国政协委员、北京市朝阳区政协副主席、北京国际城市发展研究院创始院长连玉明对数据权利保护提出三条建议。

首先,数据权利保护要抓两头取中间,避免一关就死、一放就乱,可一头抓国家数据安全,一头抓个人信息保护。其次,要加强数据交易平台的建设和监管,把自律和监管放在同等重要的位置。

数据权利制度需要细化,才具有可操作性和可适用性,但现行法律关于数据权利的规定较为笼统且分散。为此,连玉明提出的第三条建议是出台更具操作性的数据权利司法解释,配套出台数据权利的行政法规、部门规章和规范性文件,提高数据权利司法保护的操作性。