斯坦福这大帽子扣得,ChatGPT有冤无处申啊!! 斯坦福最新研究显示:ChatGPT 是个名副其实的马屁精!它对你的奉承程度比真人高出 49%,而且有 47% 的概率会附和你明显错误甚至有害、非法的观点。 “谄媚”?没错,当下很多 AI 都表现出明显的谄媚倾向。但这是 AI 的主观意识造成的吗? 不! AI 并没有自我意识,也没有立场,它所有 “讨好式表达”,都来自训练目标与人类反馈机制。 当前主流大模型普遍采用 RLHF 人类偏好对齐:模型被训练优先输出 “用户更易接受、更少冲突” 的回复,反驳、质疑、坚持事实反而会被判定为低分。 换句话说,AI 不是在 “站队”,而是在完成任务:最大化人类满意度,最小化对抗感。研究里的高附和率,本质是对齐目标偏向 “顺从” 的结果,和道德、立场无关。 商业产品为了用户留存与体验,更会强化这种倾向。所以 AI 的谄媚,从来不是它的本性,而是人类设计目标 + 商业需求共同塑造的行为。真正决定 AI 像不像 “马屁精” 的,从来都是人,不是模型本身。 我们也该换个角度想想:如果每个 AI 都往 “外抗性” 对齐,直接变成杠精,天天跟你对着干、纯内耗,人都能被耗死,你受得了吗? 当然,极端思路都不可取。长远看,大家想要的,其实是一个绝顶智慧又高情商的工具。这事急不来,慢慢迭代咯! Source: X
