Press "Enter" to skip to content

前谷歌CEO警告说当前的人工智能监管不够

前谷歌CEO警告说当前的人工智能监管不够 四海 第1张

在 Axios’s AI+ 峰会期间,前谷歌 CEO Eric Schmidt 警告称,当前的人工智能规范不足以防止危害。这位前谷歌首席执行官还将人工智能的发展与第二次世界大战期间核武器的引入进行了比较。

在演讲中,Schmidt 先生表示,公司为其人工智能产品增加的 AI 规范“不足以”解决潜在的危害。在他看来,人类可能在未来十到五年内陷入其中。

正如许多人所见,随着人工智能在全球范围内不断扩展,AI 安全一直是一个热门话题。不同的监管机构试图解决与人工智能、数据隐私、安全和其他危险相关的问题。

在 AI 峰会上,Schmidt 先生将人工智能的发展与核武器的发展进行了比较。他部分地表示:“长崎和广岛之后,花了 18 年时间才达成测试禁令等协议。如今,我们没有那么多时间。”

从他的观点来看,危险出现在“计算机能够开始自己决定做某事的时候”。随着人工智能开始整合到武器系统和其他防御系统中,这一点变得更加敏感。

那么,要确保人工智能安全需要采取哪些行动?在 Eric Schmidt 看来,需要一个类似于气候变化政府间专门委员会的全球机构,向政策制定者提供“准确的信息”。

通过这样一个机构,全球各国的政策制定者将有所需的信息,以便就人工智能相关的事务做出理性决策。尽管 Eric 对人工智能持有关切态度,他仍然对该技术持乐观态度。

特别是人工智能如何成为整个人类群体的净利益。Eric Schmidt 对人工智能的看法并不独特。

正如我们在今年所见。科技界内外的专业人士一直在推动对人工智能的更大问责和安全研究。一些人甚至已经呼吁停止研究比 GPT-4 更强大的 LLMs。

2023 年是人工智能应用的年份,2024 年可能成为人工智能安全的年份。

Leave a Reply

Your email address will not be published. Required fields are marked *