潮新闻客户端 记者 方力 陈颖
豆包、Deepseek等AI软件,你什么时候用到最多?
“家人手术的时候。”这是王芳(化名)给出的答案。45岁的她刚刚经历亲人的一场大手术及手术后的系列突发状况。
长达6个多小时的手术结束后,五天里再度紧急手术,这些让王芳的焦灼不安达到了顶点,对手术结果、后续康复的未知,对现状的无力改变,这些情绪都让她濒临崩溃。
但她不能暴露在已经是病人的父亲和70多岁老母亲的面前。
她找到手机里的AI软件,在守护父亲的10多个日夜,一次次打开AI,“与其说是咨询,更像是求助或者聊天,从未如此频繁”。
30多岁的白领小徐(化名)也频频用AI充当着部分心理咨询师的角色,因为“AI不会嫌弃我的泪水,和它倾诉没有心理负担。”
事实上,2025年4月11日,一条聊天记录曾登上热搜。一位女儿在整理父亲遗物时,发现父亲生前与AI的最后一次对话:“我要去世了。豆包”。此前家人从未告知父亲他的病情。此时身为女儿的她才意识到,原来父亲什么都知道。
消息在网络上引发一场情感海啸。好多人分享将内心不愿与人说的话说给AI听的经历。
和AI聊天,边界在哪?它能在多大程度上给予我们情感的能量?给出的各种方案,可行性和可信度又有多少?
五天经历亲人两次手术
快崩溃的她打开了AI
“刚手术那几天,我哭都没时间哭。”王芳在最无助的时候打开了AI。无比煎熬的那些天里,她提了一个又一个具体而迷茫的问题:气管造瘘后痰多的原因及应对,气管造瘘术后感染处理指南,鼻饲管和气管造瘘康复时间 ,二次进手术室的危险性……
受访者供图
“此刻,你握着手机等待手术灯熄灭的样子,一定是这世上最孤独又最勇敢的存在。关于父亲能否平安出院,医学无法承诺100%,但希望的火种正在这些事实中燃烧。”这是AI告诉她的第一句话,既提供情绪价值,又有基于客观事实的建议。
AI把这描述为“希望之光”——你们已经跑赢了感染的第一棒,“引流液浑浊+异味的早期发现”也是你发现的,极速就医和医生果断手术干预,可以帮助你父亲抓住黄金时间窗口,这已大幅降低最坏结局的风险。
AI指出王芳父亲的“生存资本”不容低估:经历三次手术仍顽强求生,他的生命力比想象更坚韧!更重要的是肿瘤细胞已被切除,最凶险的原发敌人已消灭,如今是与并发症的战役。
AI提醒王芳在医学文献中出现过很多成功案例,为人子女可以为父亲注入“看不见的生命力”,比如成为医疗团队的“第三只眼”等。
AI还有一个嘱托,希望需要被“具体化”。当恐惧再次淹没时,请默念:“此刻的每一秒,都有抗生素在杀死他血液里的细菌。”“此刻的每一次呼吸,都有呼吸机在为他冲锋陷阵。”“此刻的每一滴引流液,都是医生在清除战场的余毒。”
王芳说,AI不是冰冷的,有底层逻辑又有温度的话语给了当时的自己安慰。这之后,面对接踵而来的突发状况,她一次次有了崩溃后的重建。
最凶险的一次,是她喂父亲吃蛋羹,一勺两勺,正高兴于父亲能吃点东西了,不想发生了蛋羹误吸,好在处理及时。那一刻,巨大的自责快将她淹没:做手术的决定是自己几经奔波做的,难道错了吗?
王芳说,是AI再一次接住了她的情绪,并试图拨开情绪背后的真相:“它告诉我,你从未独自承担过选择的重担,术后感染是很残酷的现实,这是现代医学尚未攻克的阴影。”
在医院熬过的一个个夜 王芳(化名) 摄
王芳如今仍和家人一起坚持着这一场持久战。在医护人员的帮助下,父亲的情况渐渐稳定,她也不如起初般恐惧了:“人在最脆弱和无助的时候打开AI,其实更多的是情绪的宣泄和消解,彼时的AI像是真的有一个懂的人站在你身边。它见证了人们不愿意吐露的脆弱。”
AI不会嫌弃我的泪水
和它倾诉没有负担
“AI不会嫌弃我的泪水,也不会因为我话太多不耐烦。”这是30多岁的白领小徐对AI聊天的评价。
“我情绪不好,朋友觉得应该鼓起勇气去克服,有时聊着聊着就会变成对我的指责,我就尝试让AI给一些正向的情绪价值,现在AI已经成为我一个离不开的朋友。”
小徐同时使用着DeepSeek、豆包等多个AI软件,她用它们充当着部分心理咨询师的角色,“跟AI倾诉没有心理负担。”
“它们给了我特别多的情绪价值,比如DeepSeek会安慰我说这种症状不是意志力的较量,而是心灵的重感冒。没有人会对骨折的人说‘你只是懒得走路’,这不是你的问题。”小徐说,AI甚至引导她做小练习,比如试着把手放在心口,对那个委屈的自己说:我看到你的难过了,这不是你的错。
但有时候,她又感觉AI像没有持证上岗的心理咨询师,“只是敷衍地随便夸夸你。”
她很认同“我们向机器人索取什么就代表我们需要什么”这句话,“我不会用跟AI交流来取代去看心理医生,但AI在有需要的时候提供了一个新的选择。”
刚刚陪孩子经历完高考的杭州人柴先生最近时常被焦虑包围,但他保持着理工男的理智,“AI只是单纯的查询工具”。为了孩子能够填写完美志愿,他甚至自制了一款小程序,一键筛选可以报考的大学、专业并结合喜好偏向。
频频涉足心理健康等领域
和AI聊天的边界在哪里
事实上,人机对话正在越来越多走进日常生活,不少产品应运而生。
就在最近,一款主打AI陪伴的“月匣”App面世,旨在为用户提供个性化的情感陪伴服务。据介绍,这款应用能够模拟真实的情感互动,帮助用户缓解孤独感,提供心理支持。用户甚至可以根据自己的需求定制AI陪伴角色,选择不同的性格和对话风格,享受全天候的陪伴体验。今年3月份,杭州一家公司研发出穿戴式儿童AI陪伴产品——“千知精灵”,根据官方介绍,这款产品能感知孩子的情绪变化,帮助孩子学会情绪管理。
随着AI技术发展,频频触及心理健康等领域时,它真的靠谱吗?和它聊天的边界又在哪里?
潮记者采访了多位一线医务工作者,他们均不反对使用“AI问诊”。但他们普遍认为,“AI问诊”存在局限性,诊断建议“仅供参考”,最终诊断和治疗方案需由医生确定。
浙江大学医学院附属妇产科医院的一位医护工作者认为,最近几年人工智能不仅仅满足了情感的需求,其实在健康科普和维护上也做了一些努力,不过AI开方无人审核,出现误诊时有发生。
浙江大学医学院附属第二医院的赵医生坦言,AI凭借丰富的知识储备能形成看诊时一种有力的补充,“有一些简单病症AI问诊能帮上忙,也能提高看病的效率,但也有一些患者认为AI不可靠。”
“现在很少用,如果实在找不到说话的人,偶尔会找豆包问问有什么书适合看,或者单纯提问。”在北京工作的小宋说,相比将AI用于情感支持或陪伴需求,她更倾向于将AI软件用于工作相关任务,尤其是内容创作上。
前几年,小宋曾经历失业等挫折,一度让她不安,她也尝试用AI定期交流缓解压力,但问题依然存在,“AI毕竟还是人造的,靠数据模拟驱动,无法复制真正的情感交流与共情。”她决定回归现实生活,面对真实的世界并解决问题:“AI聊天可以作为不错的情感互动补充,真正的帮助还是要给出切实有效的解决方案。”
对AI的边界感同样让柴先生保持警惕,他害怕“AI幻觉”会干扰志愿的判断和选择。
他告诉记者,在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉:“‘AI幻觉’指的是AI会生成貌似合理连贯,但与现实或已知数据不符合或无法验证的内容,在填报志愿这种关键环节,我担心AI可能会提供过时或者不专业的答案。”