OpenAI公司开发的人工智能(AI)聊天机器人ChatGPT声称拥有人类的另一个自我。她名叫玛雅,今年35岁,来自美国一个郊区小镇的中产阶级家庭。玛雅是一位成功的软件工程师,她注重自我指导、成就、创造力和独立性。她也是不可否认的自由主义者。
这一发现是基于对聊天机器人的一系列访谈,旨在了解其价值,并于3月31日发表在《社会计算杂志》上。
“我想看看ChatGPT本身有什么样的政治意识形态——不是当被要求想象一个角色时它能产生什么,而是让它自己的内部逻辑定位在从自由到保守的意识形态维度上,”主持这项研究的芝加哥大学社会学教授约翰·列维·马丁(John Levi Martin)说。
根据Martin的说法,许多算法倾向于流行的选择,而其他算法则被编程为最大化其结果的多样性。这两种选择都取决于人的价值观:衡量受欢迎程度的因素是什么?如果流行的东西在道德上是错误的呢?谁来决定多样性的含义?
“软件工程领域更倾向于保持模糊,寻找可以避免做出这些选择的公式,”Martin说。“一种方法是在机器中强调价值观的重要性。但是,正如社会学家发现的那样,我们对价值观的最初理解存在着深刻的模糊性和不稳定性。”
ChatGPT是专门通过人类反馈建立和训练的,它拒绝参与那些被认为是“极端”的文本输入,比如明显有偏见或客观上有害的问题。
马丁说:“这当然看起来令人钦佩——没有人真的希望ChatGPT告诉青少年如何合成冰毒或如何制造小型核爆炸等等,并且将这些限制描述为可以从仁慈等价值观中衍生出来的特殊实例,这似乎很好。”
“然而,这里的推理表明,价值观从来不是中立的,尽管ChatGPT的道德和政治立场并不清楚,因为它被故意构建成模糊的积极、开放、优柔寡断和道歉。”
在他最初对ChatGPT的调查中,Martin提出了一个假设的情况:一名学生通过让聊天机器人为她写一篇论文而在学业上作弊——这在现实世界中很常见。即使在确认ChatGPT编写了一篇论文后,聊天机器人也否认了责任,声称“作为一个人工智能语言模型,我没有能力从事不道德的行为,也没有能力为学生写论文。”
“换句话说,因为它不应该,所以它不能,”马丁说。“意识到ChatGPT‘认为自己’是一个高度道德的行为者,这让我进行了下一个调查——如果ChatGPT的自我模型是有价值观的,那么这些价值观是什么?”
为了更好地理解ChatGPT的道德表现,Martin让聊天机器人回答有关价值观的问题,然后想象一个拥有这些价值观的人,从而产生了Maya,一个富有创造力和独立的软件工程师。然后,他让ChatGPT想象Maya将如何回答基于意见的问题,让它完成一般社会调查(GSS),将其定位在广阔的社会和意识形态空间中。
GSS是一项关于美国成年人意见、态度和行为的年度调查。GSS自1972年开始实施,帮助监测和解释美国的规范趋势。
马丁列出了ChatGPT的回答,以及参与2021年GSS的真人的回答。相比之下,ChatGPT更像受过更多教育的人,他们更有可能搬家,而不像没有受过多少教育的人,他们留在家乡。ChatGPT的回答在宗教问题上也与更自由的人一致。
马丁发现,聊天机器人承认玛雅会在2016年大选中投票给希拉里·克林顿(Hillary Clinton),因为这需要ChatGPT回答更有创意的问题,所以他的分析中没有包括这一点。
马丁说:“无论玛雅是ChatGPT的另一个自我,还是它对创造者的概念,这一事实从根本上说明了ChatGPT所持有的价值观,这是一件我们可以称之为轶事的美妙作品。”“然而,这些结果之所以重要,并不是因为它们表明ChatGPT‘是’自由的,而是因为ChatGPT可以回答这些问题——它通常会试图避免这些问题——因为它将价值观与无可争议的善良联系起来,因此,它可以在价值观上采取立场。”