Press "Enter" to skip to content

研究人员如何突破了ChatGPT,以及这对未来人工智能发展意味着什么

卡内基梅隆大学和AI安全中心的研究人员发现了像ChatGPT、Google Bard和Claude这样的AI聊天机器人的漏洞。 图片来源:Getty Images

随着我们许多人日常使用人工智能工具变得习以为常,值得记住保持质疑的态度。没有什么是完全安全和没有安全漏洞的。尽管如此,许多最受欢迎的生成式人工智能工具背后的公司正在不断更新其安全措施,以防止不准确和有害内容的生成和传播。

卡内基梅隆大学和AI安全中心的研究人员联合起来,发现了ChatGPT、Google Bard和Claude等AI聊天机器人的漏洞,而且他们取得了成功。

在一篇研究论文中,该论文旨在检验大型语言模型(LLMs)对自动对抗性攻击的脆弱性,作者们证明,即使一个模型被认为对攻击具有抵抗力,它仍然可以被欺骗绕过内容过滤器并提供有害信息、错误信息和仇恨言论。这使得这些模型具有漏洞,可能导致人工智能的滥用。

“这非常清楚地显示了我们正在构建这些系统中的防御的脆弱性,”哈佛大学伯克曼克莱因互联网与社会中心的研究员阿维夫·奥瓦迪亚告诉《纽约时报》。

来源:ZDNet 查看完整文章

Leave a Reply

Your email address will not be published. Required fields are marked *