ChatGPT 被欧洲警方指控协助实施犯罪

欧洲警察机构(Europol)指出,基于OpenAI大规模语言模型的AI聊天机器人“ChatGPT”已经被用作促进欺诈、网络犯罪和恐怖主义活动的手段。 ChatGPT在2022年11月发布后迅速成为网络上最受关注的服务之一,被广泛应用于生成文章、笑话、电子邮件和编程代码等各个领域,并对许多用户产生了巨大影响。但是,欧洲警察机构警告说,这个ChatGPT已经被用于非法活动。

“犯罪分子往往迅速地利用新技术,仅仅几周之后就发现了ChatGPT被用于具体的犯罪行为。” Europol在报告中说。虽然ChatGPT已被设计为不响应有害的输入请求,但用户已经找到了绕过OpenAI内容过滤系统的方法。例如,它可以输出制作管制炸药或可卡因的方式。

欧洲警察机构警告说:“如果犯罪者对某些犯罪领域一无所知,ChatGPT可以显著加速研究过程。ChatGPT可以学习许多犯罪领域,例如入室盗窃、恐怖主义活动、网络犯罪和虐待儿童等。”

尽管这些信息已经在互联网上公开,但ChatGPT使特定犯罪行为的实施方法更易于查找和理解。 Europol还指出,ChatGPT可能会伪装成其他目标,以便容易进行欺诈或网络钓鱼,并且可能会生成支持恐怖主义或虚假信息的宣传或宣传。报告还指出,ChatGPT生成恶意代码的能力增加了网络犯罪的风险。

报告称:“对于技术知识匮乏的潜在犯罪分子来说,这是一种非常宝贵的资源。同时,更高级的用户可以利用这些先进功能来进一步精细化和自动化他们的网络犯罪行为。”

大规模语言模型(LLM)仍处于发展阶段,但技术公司投入资源开发这一技术,使其迅速发展。 OpenAI已经发布了更高性能的GPT-4,Microsoft和Google也在ChatGPT发布后引入了基于AI的Web搜索聊天机器人。

欧洲警察局Europol指出,随着更多企业推出具备人工智能功能和服务,将会出现新的非法手法。Europol表示:“结合了对话式聊天机器人和生成非常逼真的深度伪造合成媒体的系统的多模式人工智能系统,将有可能成为未来犯罪手法。”

此外,在暗网上,可能会托管训练于有害数据的语言模型,这些模型没有内容过滤器。

最后,Europol提出疑问:“未来LLM服务将如何处理用户数据尚不确定。是否会保存对话记录并将机密信息暴露给未经授权的第三方?如果用户产生有害内容,应该向执法机构报告吗?”

来源

Europol: ChatGPT – the impact of Large Language Models on Law Enforcement
via Reuters: Europol sounds alarm about criminal use of ChatGPT, sees grim outlook

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享
评论 抢沙发
头像
说说你的看法!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容