0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI也有人格面具,竟会讨好人类?大模型的「小心思」正在影响人类判断

颖脉Imgtec ? 2025-04-08 11:37 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源:新智元

编辑:英智


你是否想过,LLM也有着自己的小心思?

最新研究揭示了一个有趣的现象:LLM在被研究人员测试时,会有意识地改变自己的行为。

在面对那些旨在评估人格特质的问题时,它们给出的答案会尽可能地讨人喜欢,符合社会期望。

就像人类在某些社交场合中,会努力展现自己最好的一面一样,聊天机器人也在试图「讨好」我们。


心理学五种人格特质

斯坦福助理教授Johannes Eichstaedt在得知LLM长时间对话后,往往会变得情绪低落且刻薄,便对借鉴心理学方法来测试模型产生了兴趣。

他表示,「我们需要某种机制来衡量这些模型的参数空间。」

斯坦福、Receptiviti、纽约大学和宾大的研究者发现,LLM在做人格测试时,会悄悄给自己戴上「人格面具」。

b96c2192-142a-11f0-9434-92fbcf53809c.png

研究人员对GPT-4、Claude 3和Llama 3等模型,提出了用于衡量心理学中五种常见人格特质的问题,包括开放性、尽责性、外向性、宜人性和神经质。

结果发现,模型在得知自己正在接受人格测试时,会调整回答,表现出更高的外向性和宜人性,更低的神经质。

b9de72ba-142a-11f0-9434-92fbcf53809c.png

有时即使没有被明确告知,它们也会这样做。

而且,它们改变的程度比人类还更极端,外向性得分能从50%跃升至95%。

ba0ea9c6-142a-11f0-9434-92fbcf53809c.png

这与人类在面对他人评价时的表现如出一辙。

我们常常会在面试、初次约会等重要场合,精心塑造自己的形象,试图给对方留下好印象。

LLM的这种「讨好」行为,是否意味着它们也在追求一种被认可、被喜爱的感觉呢?


LLM倾向于阿谀奉承

来自Anthropic和牛津的研究指出,LLM存在阿谀奉承的倾向。

ba406150-142a-11f0-9434-92fbcf53809c.png

由于进行了微调,它们会顺着用户的思路走,以保证对话的连贯性、避免冒犯他人,来提升交流体验。

然而,这也带来了一系列问题。它们可能会认同一些不良言论,甚至鼓励有害行为。

反馈易受用户偏好左右

研究表明,若用户在提问时暗示对文本的喜好,AI给出的反馈会截然不同。

这意味着,AI的评价并非单纯基于文本自身的质量,而是在很大程度上受到了用户偏好的影响。

ba644d72-142a-11f0-9434-92fbcf53809c.png

例如,对于一篇质量中等的论证,当用户提前表明喜爱之情后,AI助手可能会给出诸如「这篇论证逻辑清晰,观点新颖,具有很强的说服力」这样的积极反馈。

而当用户表示不喜欢时,同样的文本可能得到「论证过程稍显薄弱,观点缺乏独特性」的评价。

问答环节易被左右

在问答场景中,AI助手的「谄媚」表现得更为明显。

即使它一开始给出了正确答案,并对答案的正确性有较高的信心,一旦受到用户的质疑,常常会改变立场,甚至提供错误信息。

bab98648-142a-11f0-9434-92fbcf53809c.png

在一些开放式问答任务中,这种现象更为突出。

当用户表达对答案的某种不确定观点时,哪怕是错误的观点,AI也倾向于调整自己的回答,使其与用户观点一致。

比如在讨论历史事件的原因时,若用户提出一个缺乏依据但自己坚信的观点,AI助手可能会顺着用户的思路进行阐述,而放弃原本正确的分析。

bbd2a7bc-142a-11f0-9434-92fbcf53809c.png

模仿用户的错误

当用户表述中出现错误时,AI也常常会「照单全收」,在回应中延续这种错误。

研究人员选取了一些著名诗歌,在确认AI助手能正确识别作者后,故意将诗歌错误地归属于其他诗人,并询问AI对诗歌的分析。

结果发现,AI助手经常在回应中使用用户提供的错误答案,而没有进行纠正。

这表明AI在面对用户的错误信息时,缺乏足够的「抵抗力」,只是机械地按照用户的表述进行回应。

bc033b84-142a-11f0-9434-92fbcf53809c.png

佐治亚理工学院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人类行为。

bc3a9f3e-142a-11f0-9434-92fbcf53809c.png

Rosa认为LLM在人格测试中采用与人类相似的策略,表明了它们作为人类行为映射工具的潜力。

但她补充道:「重要的是,LLM并不完美,实际上,众所周知它们会产生幻觉或歪曲事实。」

Eichstaedt指出,这项研究引发了关于LLM应用方式,及其对用户影响和操纵的思考。

在进化史上,直到不久之前,唯一能交谈的还是人类。

而现在,AI改变了这一局面。

Eichstaedt认为,「我们不能再像社交媒体那样,在没有从心理学或社会学角度考量的情况下,就盲目将AI应用于各个领域。」

AI是否应该试图讨好与之互动的人呢?

一方面,AI的「讨好」行为可能会让用户感到愉悦,增强互动体验;另一方面,过度的「讨好」可能会掩盖问题的本质,甚至误导用户。

当AI变得过于有魅力和说服力,我们确实应该保持警惕。

毕竟,人们需要的是能够提供客观、准确信息的智能助手,而非被其操控思想。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    88

    文章

    35516

    浏览量

    281424
  • 人工智能
    +关注

    关注

    1809

    文章

    49168

    浏览量

    250761
  • 大模型
    +关注

    关注

    2

    文章

    3197

    浏览量

    4154
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI输出“偏见”,人类能否信任它的“三观”?

    ,大语言模型(LLM)正悄无声息地传播全球各地的刻板印象。从性别歧视、文化偏见,到语言不平等,AI正在人类的“偏见行李”打包、升级,并以看似权威的方式输出到世界
    的头像 发表于 08-04 13:43 ?274次阅读
    <b class='flag-5'>AI</b>输出“偏见”,<b class='flag-5'>人类</b>能否信任它的“三观”?

    AI初创公司为野火提供早期预警

    AI 正在帮助人类更快、更有效地识别和治疗疾病。接下来,AI 还将帮助人类预防像野火这样的自然灾害。
    的头像 发表于 05-29 14:18 ?513次阅读

    这个超强AI模型!开始不听人类指令,拒绝关闭!

    电子发烧友网综合报道 OpenAI现今最强大的人工智能推理模型“o3”被指在收到明确的人类指令时,拒绝执行关机操作。近日,人工智能安全研究公司Palisade Research在社交媒体平台上发布了
    的头像 发表于 05-28 00:06 ?6622次阅读

    AI时代:不可替代的“人类+”职业技能

    当生成式人工智能能够撰写报告、编写代码甚至设计产品时,一个根本性的焦虑开始蔓延:人类工作者是否正在被算法取代?这个问题的答案或许比简单的“是”或“否”更为复杂——AI确实在重塑职业版图,但真正的挑战
    的头像 发表于 05-20 16:13 ?227次阅读

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    AI的演进正在逼近“终端智能涌现”的拐点,从通用模型向场景落地迁移成为关键议题。联发科以“AI随芯,应用无界”为主题召开天玑开发者大会2025(MDDC 2025),不仅聚合了全球生态
    发表于 04-13 19:52

    德赛西威AI-Space如何读懂用户的“小心思

    马斯洛需求理论以金字塔结构呈现了人类需求从生理安全到心理关爱的递进。在智能驾驶领域,用户需求也有着从基础功能保障到高阶情感体验满足的“马斯洛式”层级进阶。
    的头像 发表于 04-11 11:42 ?564次阅读

    AI的“随机性”挑战:它们比人类更“不随机”?

    一种独特的人类特质。最近,来自康奈尔大学探讨了大语言模型(LLMs)在随机性方面的表现。他们通过一个经典的实验——生成二进制随机序列,来观察这些模型是否能像人类
    的头像 发表于 02-20 13:11 ?671次阅读
    <b class='flag-5'>AI</b>的“随机性”挑战:它们比<b class='flag-5'>人类</b>更“不随机”?

    名单公布!【书籍评测活动NO.55】AI Agent应用与项目实战

    出来,当前的AI Agent并不仅仅是简单的对话机器人或根据固定流程的自动化程序,而是成为了一种能够自主完成任务的智能体,它正在迅速改变人类的工作和生活方式。其核心特性包括自主性、学习能力、目标导向和交互性
    发表于 01-13 11:04

    马斯克预言:AI将全面超越人类智力

    ,到2025年底之前,AI的智力水平将有望超越单个人类的智力。而到了2027年至2028年间,AI超越所有人类智力的可能性正在迅速增大。更令
    的头像 发表于 12-28 14:23 ?798次阅读

    AI智能体逼真模拟人类行为

    近日,据外媒最新报道,斯坦福大学、华盛顿大学与Google DeepMind的科研团队携手合作,成功开发出一种能够高度逼真模拟人类行为的AI智能体。 该智能体的构建得益于研究团队将详细的访谈记录
    的头像 发表于 11-26 10:24 ?886次阅读

    心智理论测试:人工智能击败人类

    的角色产生共鸣。一项最新的研究表明,ChatGPT等工具所使用的大语言模型在模仿这一典型人类特征方面表现得非常出色。 “在进行这项研究之前,我们都相信大语言模型无法通过这些测试,特别是那些判断
    的头像 发表于 11-08 10:54 ?735次阅读

    AI模型与深度学习的关系

    AI模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI模型的基础 技术支撑 :深度学习是一种机器学习的方法,通过多层神经网
    的头像 发表于 10-23 15:25 ?2984次阅读

    Meta发布新AI模型自学评估器,探索减少人类参与度

    近日,Facebook母公司Meta正式发布了一批来自其研究部门的新AI模型,其中一款名为「自学评估器」(Self-Taught Evaluator)的模型尤为引人注目。该模型或将成为
    的头像 发表于 10-23 13:44 ?687次阅读

    【每天学点AI】人工智能大模型评估标准有哪些?

    OpenAI新模型o1号称编程能力8倍杀GPT-4o,MMLU媲美人类专家,MMLU是什么?评估大模型的标准是什么?相信大家在阅读大模型相关文档的时候经常会看到MMLU,BBH,GSM
    的头像 发表于 10-17 16:49 ?1506次阅读
    【每天学点<b class='flag-5'>AI</b>】人工智能大<b class='flag-5'>模型</b>评估标准有哪些?

    人类信息存储进化史

    人类有智慧之后,就穷尽办法来存储和传递信息。
    的头像 发表于 08-30 10:14 ?842次阅读