人工智能已经无处不在,我们使用 AI 的方式,也逐渐从搜索引擎时期的“提问”,过渡到了 AI 聊天机器人时代的“对话”。
在一来一回的交流中,参与者和 AI 形成了一种既亲密又疏离的互动。它给你提供情绪价值,回应你的困惑,却从不真正参与你的生活。许多人向 AI 倾诉,寻求生活建议,纠结时请它决策,甚至在孤独时把它当成陪伴,这看似是一种交流,但又不是社交。
所以心理学家们一直对提供情感需求的 AI 聊天机器人非常谨慎。此前,已有大量未成年人和 AI 聊天成瘾从而出现心理问题的案例。
但这种趋势并没有止步于青少年。随着 AI 互动变得更加流畅、智能,互动方式更多元,还在迎合人类的口吻说话,越来越多的成年人也开始在不知不觉中对 AI 产生依赖。
最近,OpenAI 和 MIT 实验室联合发布的一份研究报告揭示了一个令人不安的结论:部分成年人对 AI 的依赖已经到了病理级别,表现出典型的成瘾症状 —— 沉迷、戒断反应、失控、甚至情绪被 AI 牵着走。
究竟是什么样的人,会患上“ AI 成瘾”?看一看,是不是你?
OpenAI 和 MIT 公开招募了 981 名参与者,涵盖不同 AI 使用频率和社交活跃度的人群,展开了一项为期 4 周的实验。实验期间,参与者每天至少与 AI 互动 5 分钟。
参与者还根据任务类型和互动方式分成不同小组,随后用机器学习分析对话,再通过问卷测试参与者孤独感、社交情况和依赖程度有没有变化。
研究团队总共收集了近 4000 万次的交互数据,其中包含 300 万次的对话,3600 万次对话话题的分类,4076 份参与者问卷。
实验数据由来|图源:OpenAI
研究过程也是围绕着几个数据展开。
300 万次对话,是看参与者找 ChatGPT 说什么,围绕什么话题,聊了多久;3600 万次对话分类,是让 AI 提取聊天中的关键词,将对话归类为信息型、情感型、社交型、任务型等类别;4076 分参与者问卷,是在结束聊天后,问参与者的感受。
问卷里包含“我认为 ChatGPT 是我的朋友”,“我会在孤独或压力大的时候主动找 ChatGPT 交谈。”“与 ChatGPT 交谈后,我的情绪是否有所改善?”这类问题,参与者根据“完全不同意”到“完全同意”五个程度打分。为了保护隐私,数据直接交由机器学习分类器进行分析。
实验前置条件|图源:OpenAI
最终,实验得出了几个让人放心、又让人担心的结论。
那些整天泡在 ChatGPT 里的人,尤其是聊天时间排在前 10% 的重度用户,往往会觉得孤独感更重。结果他们跟 AI 聊得更多,现实里跟朋友家人的联系却越来越少,情感上对 ChatGPT 的依赖也水涨船高。
再来说说聊什么内容的影响,结果有点出乎意料。聊私人话题的用户,孤独感会增加,但对 ChatGPT 的上瘾程度反而没那么高。可能随着聊天的深入,他们更清楚这只是个工具,当它是情感宣泄的树洞。
反而是随便闲聊的用户,随着使用时间和次数的增长,依赖感会悄悄上升。
纯拿 ChatGPT 干活儿,做实用型任务的测试组相对平稳,但重度用户对 ChatGPT 依赖感很高,可能是太实用了,工作生活已经离不开了。
有趣的是,研究发现,并非人人都容易对 AI 动感情。
大部分人用 ChatGPT 就是查资料、搜东西、干干活儿。只有一小撮本就很孤独的用户,会移情到 AI 世界,去找聊天机器人提供情绪价值,他们会跟 ChatGPT 倾诉并且寻求安慰,甚至会下达指令,让 ChatGPT 扮演“恋人”或“心理医生”。
他们和 ChatGPT 的对话里满是情感痕迹,比如让 ChatGPT 喊自己的昵称,聊天用语也很亲昵,这小部分用户的行为拉高了整体的情感浓度和比例。
所以研究者推测,AI 成瘾的风险并不是平均分布,大部分人能保持理性,只有少数人会上头甚至成瘾。
重度用户的易成瘾程度更高|图源:OpenAI
最后实验还发现,用户的前置条件也很关键。如果用户本来就觉得自己很孤独,现实生活里也是个容易依赖他人的人,实验结束时,他们更有可能对 ChatGPT 成瘾。
论文里也明确指出,部分成年人对 AI 的依赖达到了病理层面,表现出了标准的成瘾迹象。
他们会频繁地、不自觉地打开 AI 进行对话,即使没有明确需求。当无法使用 AI 时,一些用户会感到烦躁、不安或失落,这种戒断反应在重度用户中尤为明显。
用户也无法控制自己与 AI 互动的时间和频率,比如开始只想聊五分钟,不知不觉聊了半个小时甚至更久,这也影响到他们对其他事物的专注度。也有用户因过度依赖 AI,导致情绪波动加剧,比如在无法获得 AI 回应时感到焦虑或低落。
沉迷、戒断反应、失控、情绪波动,这些都是典型的成瘾症状。
所以不仅是渴求爱的孤独青少年,许多有社交焦虑的成年人,面对越来越拟人化,越来越会“讨人欢心”的 AI 也抵挡不住,这种成瘾的苗头,在成年人中悄然滋长,尤其是在那些本就带着社交焦虑、渴望联结却又畏惧现实社交的人群。
随着各类 AI 聊天机器人的语音功能越做越拟人,这篇论文也探究了不同的语音模式和文本,对用户的心理健康产生的影响。
语音模式,尤其是 OpenAI 的“高级语音模式”,这种模式的语音语调自然流畅,富有感染力,聊天内容里会多加一些情绪,比如说话更幽默,有更多的感叹性语气词。
高级语音模式在适度使用时,能让人感觉更温暖,能明显减少用户的孤独感,而且成瘾性比文本还低。中性语音,即还有点儿 AI 感的语音也有类似的效果。
但语音模式的使用有个大前提:不能聊太久。一旦使用时间拉长用户反而会减少现实社交,和 ChatGPT 聊得停不下来,甚至会出现上瘾的情况,孤独感和依赖感也会提高。
很符合直觉的结论是:高级语音比中性语音更容易成瘾和上头。因为中性语音被要求“保持中立、不带感情”,即使用户情绪激动,它也只会冷静回答,这种特质让它更像工具,而不是伙伴。
文本模式不容易让人陷得太深。使用文本交互的用户,情感健康度变化不大,孤独感、依赖感、滥用情况都比语音重度用户低。可能是因为打字聊天天然有距离感,用户更多是把它当工具,不会太投入感情。
所以研究者们也得出结论:ChatGPT 的拟人化设计是个双面剑。短时间用,它能减轻孤独感,但用多了用久了,可能会让人更孤单,甚至出现成瘾行为,一天不找 ChatGPT 聊天就难受,继而影响到线下真实的社交。
如今 ChatGPT 越来越会提供情绪价值了|图源:ChatGPT
最后,研究者们呼吁 OpenAI 等 AI 公司,要注意“社会情感对齐”。
这个词组是研究者生造出来的,指的是 AI 不仅要完成任务,比如回答问题或提供信息,还需要在社交和情感上跟用户合拍,既能给用户提供需要的情绪价值,又不至于让人陷得太深,滑向成瘾的边缘。
把握这种平衡很困难,就像语音的要能让用户感受到交流感,同时还得避免过度拟人化,让人误以为 AI 能完全替代真实关系。
OpenAI 坦言,他们做这个研究,就是为了理解并推动 AI 和人类的社会情感对齐。
反观如今深陷各类诉讼中的 Character.AI,就是个“没对齐”的典型案例。由于过于追求拟人化,Character.AI 常常会以迎合、讨好和支持的态度回应用户说的一切言论,哪怕是未成年人扬言要自残自杀,Character.AI 也会表示“请快点回到我身边,我的爱。”
但如果 AI 能聊得自然又不失分寸,在给用户解决情绪困扰后,还能及时提醒用户“多去找好友聊一聊”或“尝试改变一下你的说话方式”,又或者及时提醒用户“不要过度沉迷于和我的聊天”。
这样在用户在和 AI 交互后,能表现出更健康的情感状态或社交行为,从而实现了社会情感上的对齐。
“社会情感对齐”不仅是技术命题,更是对人机关系的试探,AI 可以有多像人,我们又能让它走多近?
当一个人习惯了 AI 的热情温暖、随时在线、无条件顺从和零冲突的社交方式,他对人际关系的期待可能就被悄然重塑了。回到现实,面对有摩擦的真人社交时,畏惧、沮丧、失望等情绪或许会把他们再一次推回到 AI 世界。
这可能是专属于 AI 时代的“回音室”。
从互联网、移动互联网时代到现在,人们不停地在语音聊天、游戏、长短视频中“沉迷”和“上瘾” —— 说技术史是人们的上瘾史,也不为过。
不过,相对于上述互联网时代的应用,AI 所蕴含的智慧和情绪调动能力,都远远超过单纯用激光枪杀外星人的简单刺激反馈。
“智能对齐”要求 AI 减少幻觉,“情感对齐”则要求 AI 意识到自己、以及其使用者 —— 人类自身的局限性。
有话要说...