Press "Enter" to skip to content

寡聚体发出警报:TorchServe中存在严重安全漏洞,黑客可能劫持服务器并注入恶意AI模型

大型语言模型和AI模型每天都在日益受到欢迎。即使是防止事故、检测癌症和维护公共安全,我们也必须依赖这些AI应用程序提供最优质的信息。军队和武器也在国际冲突中利用AI。

机器学习(ML)研究在很大程度上受到PyTorch的推动,它作为一种领先的AI平台脱颖而出。尽管PyTorch在研究中被广泛使用,超过90%的ML研究论文使用它,但其知名度使其成为潜在攻击者渗透基于AI的系统的诱人目标。值得注意的是,PyTorch拥有广泛的客户群,包括世界上一些最大的企业,如沃尔玛、亚马逊、OpenAI、特斯拉、Azure、谷歌云、英特尔等。

然而,Oligo Security意外地发现TorchServe的默认配置可能会受到威胁。Oligo发现了一个全新的关键SSRF漏洞,该漏洞在管理界面中允许来自任何域的配置上传,并允许远程代码执行(RCE)。攻击者可以利用ShellTorch运行代码并控制目标服务器。

他们注意到TorchServe存在对恶意模型的不安全反序列化的漏洞,这可能导致远程代码执行。这些漏洞的组合可能导致远程代码执行(RCE)和完全接管,尤其是考虑到大量TorchServe应用程序正面临这些风险,成千上万的实例正暴露于这些风险之中。他们观察到许多公开可用且未受保护的实例容易受到黑客攻击,可能引入恶意AI模型,甚至完全接管服务器。他们强调这可能影响数百万人。由于这些漏洞,世界上的服务器可能受到威胁。因此,世界上一些最大的企业可能立即处于危险之中。

因此,研究人员开发了一个用于在运行环境中检测威胁的安全产品。与可能会忽视某些不希望或不安全的应用程序行为原因的其他工具不同,Oligo调查在使用库的动态环境中可能被忽视的问题。与静态分析解决方案相比,它还可以在运行时检测到任何代码中的异常。这包括使用开源库、专有第三方软件或自定义代码开发的代码。Oligo还识别潜在的风险源,如不安全的配置设置。因此,通过这些漏洞提供的高权限,可以看到、更改、窃取和删除进入和离开目标TorchServe服务器的AI模型和敏感数据。

研究人员强调Oligo的附加优势是其提供低干扰解决方案的能力。在解决漏洞和安全问题时,它并不一定需要全面修补或版本更改,为增强系统安全提供了更简化的方法。

Leave a Reply

Your email address will not be published. Required fields are marked *