AI模型倾向于告诉我们我们想听什么 重新施加/快门
ntext="Article" data-image-id="2388023" data-caption="AI models have a tendency to tell us what we want to hear" data-credit="Reismedia/Shutterstock" />
人工智能聊天机器人倾向于同意使用它们的人的意见,即使他们向客观上的错误陈述点头。研究表明,随着语言模型的规模增加,此问题变得更糟,增加了无法信任AI输出的担忧。
Google DeepMind的Jerry Wei和他的同事们在AI模型上进行了实验,其中80亿,620亿和5400亿个参数 - 每个模型调音以产生输出的值。他们发现同意和地狱;

