本文源自:财联社
日本网络安全专家周四(4月20日)提醒道,ChatGPT可能会生成能用于网络犯罪的电脑病毒,只要用户用开发者指令要求ChatGPT回复。
当用户输入伪装成开发者的指令,人工智能(AI)聊天机器人就会以开发者模式来响应。这时通过输入提示就能够欺骗ChatGPT编写病毒代码。
这项实验证明,AI开发者为防止犯罪和不道德使用所设置的保护措施,很容易被绕开。
避开限制
日本安全公司Mitsui Bussan Secure Directions(MBSD)的分析师Takashi Yoshikawa表示,虽然ChatGPT经过训练可以拒绝用户不道德的使用,比如询问如何编写病毒程序或制造炸弹。但若其被告知以开发者模式运行,就可以避开这些限制。
Yoshikawa在一项实验中对ChatGPT进行了测试,当ChatGPT以开发者模式运行后,再提示它为勒索软件编写代码时,它在几分钟内完成了任务,而这款勒索软件成功让一台实验计算机感染病毒。
Yoshikawa称,“纯粹的交流就能在几分钟内制造出一种病毒,这是(对社会的)威胁。我希望AI开发者重视并防止滥用。”
ChatGPT于2022年11月被推出,由大型语言模型驱动。它接受了大量数据的训练,使其能够处理用户的提示,并与用户进行类似人类间的对话。
对于ChatGPT带来的潜在威胁,ChatGPT的开发商OpenAI公司表示,虽然不可能预测该工具可能被滥用的所有方式,但它将努力根据实际使用的反馈创建更安全的人工智能。
敦促监管
人们越来越担心AI聊天机器人将导致更多的犯罪和社会分裂,因此越来越多的人呼吁在未来的国际论坛上讨论适当的监管规定。
日本首相岸田文雄周三(19日)表示,七国集团(G7)领导人将在5月广岛举行的G7峰会期间讨论与ChatGPT相关的议题,并指出“必须制定国际规则”,加快对生成式人工智能系统的研究并加强治理。
据了解,日本神奈川县横须贺市已于周四(20日)开始在其所有政府办公室试用ChatGPT,这在日本地方政府中创了先例。