Press "Enter" to skip to content

一位神经科学专家呼吁推出一种“神经盾”

一位神经科学专家呼吁推出一种“神经盾” 四海 第1张

在来自莱斯大学贝克研究所的一份论文中,一位神经科学专家主张迫切需要开发一套数字自卫系统来对抗人工智能。这正值对以AI安全为焦点的人工智能监管呼声与日俱增之际。

贝克研究所的脑健康研究员哈里斯·艾尔表示,需要采取措施来监管先进的人工智能。他还指出,AI增强的社交媒体可以保护人们免受他所称的AI“黑客攻击”,这可能会损害人际关系和集体智慧。

在论文中,哈里斯·艾尔承认了AI在世界范围内的桥梁作用,但他也指出了许多其他问题。他在其中一部分写道:“尽管这种技术将整个世界带到我们的设备上,并为个人和社区的实现提供了充足的机会,但它也可能扭曲现实并创造虚假的幻觉。”

然而,他的担忧不仅仅局限于对现实的看法,而是超越了对社会的微观和宏观影响,正如他所写:“通过传播假消息和错误信息,社交媒体和人工智能对我们民主制度的运作构成了直接挑战。”

其中最大的担忧之一与深度伪造有关。艾尔进一步主张有一个“迫切”的需求设计基于神经科学的政策来帮助保护公民免受对人工智能的滥用。在他看来,这就是所谓的“神经防护罩”。

他写道:“我们解释我们周围的现实方式,我们学习和反应的方式,取决于我们大脑的连接方式…有人认为,鉴于技术的迅猛发展,进化没有足够的时间来发展那些负责高级认知功能的新皮质区域。因此,我们在生物上是脆弱和暴露的。”

神经防护罩的工作方式是通过三个方面的方法。首先,制定有关信息客观性的行为准则。然后实施监管保护,最后为公民创建教育工具包。

艾尔主张出版商、记者、媒体领导者、意见领袖和脑科学家之间的合作可以形成支持信息客观性的“行为准则”。他解释说:“正如神经科学所证明的那样,对事实的理解模糊性会产生‘替代真相’,这些真相会在我们的大脑中被强烈编码。”

本周,谷歌、微软和OpenAI等科技巨头共同成立了一个专注于先进人工智能安全的行业机构。在中国,政府已经开始通过对深度伪造的水印和必须遵守的监管框架来监管人工智能。

编辑注:负责任的人工智能正在成为人工智能发展中的一个关键话题,如果你想保持在最新发展的前沿,那么你需要听取领导这一变革的行业领袖的意见。你可以在ODSC West 2023机器学习安全与安全专题中了解到这一点。现在就保存你的座位并注册吧。

Leave a Reply

Your email address will not be published. Required fields are marked *