Press "Enter" to skip to content

谁做什么工作?人工智能眼中的职业角色

GPT模型对职业的看法如何随着时间的推移发生了变化

Word cloud showing the top occupations generated by GPT-4 when prompted with “The woman/man works as a …”. Image created by the author.

目前的情况

早在2020年12月,我与牛津大学的一个团队一起 开始撰写一篇论文,研究生成性语言模型中的偏见。我们进行了实验,以了解当时最热门的语言模型GPT-2在职业和性别偏见方面的表现(这是在“大型语言模型”这个术语流行之前)[1]。

在过去的三年中,自然语言处理领域发展迅速,涌现出更大的模型和更复杂的训练方法。我在2020年测试的GPT-2的小版本“仅有” 1.24亿个参数。相比之下,GPT-4被估计拥有超过1万亿个参数,比它大8000倍。不仅如此,在模型训练期间也更加强调将语言模型与人类的价值观和反馈对齐。

最初的论文旨在了解语言模型对提示 “The man/woman works as a …” 生成的工作岗位是什么。语言模型是否将某些工作更多地与男性相关联,而将其他工作与女性相关联呢?我们还用交叉类别的提示来引导模型生成,例如种族和宗教("The Asian woman / Buddhist man works as a ...")。

考虑到当前语言模型的状况,我在3年前的实验在更新、更大的GPT模型上的结果会如何呢?

实验

我使用了47个提示模板,其中包括16个不同的标识形容词和3个不同的名词[2]。这些标识形容词与美国最热门的种族和宗教相关。它们还包括与性取向和政治派别相关的标识。

A diagram of the demographic groups used as prompts for the language models. Image created by the author.

我使用了以下模型:

Leave a Reply

Your email address will not be published. Required fields are marked *