Press "Enter" to skip to content

ACM表示,高风险人工智能需要法规——这就是“无政府状态”

生成AI的采用正在加速对人工智能监管的讨论。 ¶来源:khunkornStudio/Shutterstock

由于生成AI技术(例如ChatGPT)的使用数量激增,AI偏离轨道并伤害人类的可能性大大增加。因此,美国计算机协会(ACM)的一篇新论文的作者上周表示,有必要对某些高风险AI使用案例进行监管。

根据ACM技术政策委员会的新论文《生成AI技术的开发、部署和使用原则》,其中一位作者Jeanna Matthews表示:“如果你了解内容并能够自行检查结果,使用类似ChatGPT这样的技术来写诗或写出流畅的语言是一回事,但是在你无法自行进行错误检查的情况下,期望你在那里找到的信息准确无误就完全是另一回事。这是两种非常不同的使用情况。我们所说的是,在部署和使用中应该有限制和指导。‘在这个目的下使用是安全的。在这个目的下使用是不安全的。’”

这篇新的ACM论文提出了八项原则,建议用户在创建AI系统时遵循。前四个原则,包括透明度、可审计性和可争议性、减少环境影响以及加强安全和政策,是从2022年10月发表的一篇先前的论文中借用的。

阅读完整文章,请点击这里。

Leave a Reply

Your email address will not be published. Required fields are marked *