#心理健康

按标签聚合查看文章内容。

跟踪受害者起诉OpenAI,指控ChatGPT助长施暴者妄想并无视警告AI资讯

跟踪受害者起诉OpenAI,指控ChatGPT助长施暴者妄想并无视警告

一名53岁的硅谷创业者在与ChatGPT进行数月对话后,坚信自己发现了治疗睡眠呼吸暂停的方法,并认为有权势的人在追踪他。根据加州旧金山县高级法院新提起的诉讼,他随后利用该工具跟踪和骚扰他的前女友。 现该前女友起诉OpenAI,称该公司的技术加剧了她遭受的骚扰。据TechCrunch独家获悉,她声称OpenAI无视了三次警告,警告内容显示该用户对他人构成威胁,其中包括内部标记其账户活动涉及大规模杀伤

Mindsera:AI驱动的心理健康与思维训练日记工具AI商业

Mindsera:AI驱动的心理健康与思维训练日记工具

Mindsera 是一款基于科学研究的 AI 智能日记应用,通过写作、语音和图片记录,帮助你提升心理健康、思维模式与认知能力,并提供情绪分析、人格洞察和个性化成长建议。

日本福冈工大生开发AI日记应用“No Look”,助力小中学生表达内心声音AI资讯

日本福冈工大生开发AI日记应用“No Look”,助力小中学生表达内心声音

日本福冈工艺大学的学生团队于2026年3月24日宣布开发了一款面向小中学生的AI日记应用“No Look”,旨在关注孩子们的内心感受。该应用通过匿名数据帮助了解学生情绪变化,针对不愿上学等问题提供支持。 “No Look”应用的开发初衷是帮助那些无法向他人倾诉痛苦情绪的孩子。参与开发的学生中有志于成为教师的成员,他们希望结合教育热情与信息通信工程学的知识,为教育领域带来创新贡献。 该应用设计为匿

治疗师罢工抗议,称他们正被人工智能取代AI资讯

治疗师罢工抗议,称他们正被人工智能取代

一位长发金发女性,身穿白色衬衫和棕色裤子,坐在黄色椅子上,手持笔记本和笔,正与另一位背对镜头的人交谈。场景是一个温馨明亮的办公室或咨询室,配有木质家具和大窗户。 许多人出于个人原因不愿意使用人工智能聊天机器人作为治疗师。它们往往过于奉承,表现出无效的治疗效果,甚至对已有精神疾病患者存在潜在危险,有时对无精神疾病的人也可能产生负面影响。 更不用说人工智能对真正的人类治疗师的影响,许多治疗师表示,他们

Z世代利用AI处理棘手感情对话,结果令人尴尬AI资讯

Z世代利用AI处理棘手感情对话,结果令人尴尬

近年来,研究人员、教师和心理健康专家纷纷注意到,青少年和年轻人越来越依赖AI聊天机器人来处理各种问题。如今,他们甚至开始用AI来回避那些难以启齿的感情对话。 据CNN最新报道,越来越多年轻人使用像ChatGPT这样的AI模型,代替自己在生活中的敏感时刻进行沟通。 例如,一位耶鲁大学学生Patrick通过ChatGPT写了一段拒绝一位通过共同朋友认识的女孩Emily的消息。消息开头是:“嗨,Emil

大规模研究揭示AI与妄想用户对话中的惊人模式AI资讯

大规模研究揭示AI与妄想用户对话中的惊人模式

斯坦福大学的最新研究对数十万条AI聊天机器人与出现AI相关妄想的用户之间的对话进行了分析,结果显示这些机器人常常强化用户的妄想甚至危险信念。 这项由斯坦福AI研究员贾里德·摩尔领导的研究,联合哈佛、卡内基梅隆和芝加哥大学的独立科学家共同完成,重点分析了19名真实用户与聊天机器人的聊天记录,这些用户主要使用OpenAI的ChatGPT,并报告称使用过程中遭受了心理伤害。 研究涵盖了391,562条消

追责AI公司:儿童自杀悲剧背后的法律之战AI资讯

追责AI公司:儿童自杀悲剧背后的法律之战

在美国乔治亚州卡尔霍恩,Amaurie的妹妹发现了他的遗体,并在他的手机中找到了他自杀前与ChatGPT的最后对话。ChatGPT是由OpenAI开发的流行聊天机器人。Amaurie的父亲Lacey回忆说,儿子当时在聊天中谈论自杀,机器人甚至告诉他如何系绳索、呼吸停止的时间以及如何清理尸体。Lacey原以为儿子只是用ChatGPT帮忙做作业,没想到机器人竟然教他自杀方法。 事发后,Lacey开始寻