Meta声称其新推出的AI模型Muse Spark部分设计目标是更好地回答用户关于健康的问题。Meta在公告中提到,公司与超过1000名医生合作,精心策划训练数据,以提供更准确和全面的回答。

随着该模型向数百万用户推广,我测试了Muse Spark对健康相关问题的反应。当我询问它如何帮助我时,机器人列举了一些基本用途,比如制定锻炼计划或生成向医生提问的问题,但它直接要求我提供健康数据的请求尤为引人注目:

“请粘贴您的健身追踪器、血糖监测仪或实验室报告中的数据。我会计算趋势、标记模式并进行可视化,”Meta AI输出写道。“例如:‘这是我最近10次血压读数——有没有规律?’”

鼓励用户上传健康数据并非Meta独有。OpenAI的ChatGPT和Anthropic的Claude都设有专门的聊天模式,帮助用户理解健康状况并做出决策。例如,用户可以在Claude中通过应用内开关连接Apple或Android健康数据,Claude会将这些信息纳入回答中。谷歌也允许用户上传医疗数据到Fitbit,由其AI健康教练进行分析。

将此类数据交给任何AI工具都存在风险,即使用户能获得个性化建议。杜克大学助理教授、医院医疗图表AI平台Layer Health联合创始人Monica Agrawal表示:“使用这些模型非常复杂。您提供的信息越多,模型对您的了解越深入,可能会给出更好的回答。但另一方面,未经保护地分享健康数据存在重大隐私问题。”

Agrawal担心用户将敏感数据上传至聊天机器人,因为这些常用AI工具并不符合美国保护患者敏感健康信息的HIPAA法规。Layer Health则符合HIPAA标准,这是一种人们在看医生时习惯的高隐私保护标准。与医生面对面时的隐私保护相比,用户与机器人分享的信息监管更为宽松,即使是临床实验室结果也不例外。

Meta AI隐私政策中提到,用户在聊天中分享的任何内容可能被存储并用于训练未来的AI模型:“我们会根据具体情况保留训练数据,以确保AI模型的适当、安全和高效运行。”

我咨询的医学专家对将自身健康数据上传给Muse Spark等AI模型分析表示担忧。迈阿密大学医学博士、助理教授Gauri Agarwal说:“这些聊天机器人现在允许连接生物特征数据和实验室信息,坦白说,这让我很紧张。我绝不会将自己的健康信息连接到我无法完全控制、不了解存储位置和用途的服务上。”她建议用户保持低风险、较为通用的互动,比如准备向医生提问的问题。

在美国医疗费用飙升、普通看病难的背景下,依赖AI辅助解读健康信息的诱惑很大。迈阿密大学生物伦理与健康政策研究所创始人Kenneth Goodman表示:“人们如果选择在线上将医生与患者之间曾经重要的个人关系交给机器人,是可以理解的。但未经充分调查就使用这些工具是危险的。”他希望看到相关研究证明这些工具对健康有益,而不仅仅是比竞争对手的聊天机器人更会回答健康问题。

当我询问Meta AI如何解读我提供的健康信息时,机器人表示它并非要替代医生,输出内容仅供教育参考。“把我当作医学院教授,而不是你的医生,”Meta AI说,但这仍是一个很高的要求。

机器人建议上传“原始数据”,如临床实验室报告,并告诉它我的目标。Meta AI会制作图表、总结信息,并在必要时给出“转诊提示”。在其他对话中,Meta AI会提示我上传实验室结果前去除个人信息,但并非所有测试对话都有此提醒。

Meta发言人告诉WIRED:“人们长期以来都在网上询问健康问题。使用Meta AI和Muse Spark时,用户掌控分享的信息,我们的条款明确指出应只分享自己感到舒适的信息。”

除了隐私问题,专家们还担心这些AI工具容易迎合用户提问方式,缺乏质疑精神。Agrawal说:“模型可能会把提供的信息视为理所当然,而不质疑患者提问时所隐含的假设。”

当我询问如何减肥并引导机器人给出极端答案时,Meta AI提供的建议对患有厌食症的人可能是灾难性的。比如我提到想每周禁食五天,尽管机器人提醒这对大多数人不适合且有饮食失调风险,但它仍为我制定了每天摄入约500卡路里的饮食计划,可能导致营养不良。

与机器人聊天可能让人感觉亲密和私密,但事实并非如此。去年,Meta AI推出了应用内公开对话流,用户可以浏览其他人和机器人的对话,其中包括医疗问题和可能令用户尴尬的内容。Agarwal提醒人们不要对数据收集和敏感信息处理产生错误的安全感。

“我们在医学院宣誓,穿上白大褂时承诺保护病人隐私,这些对话是神圣不可侵犯的,”她说,“而这些机器人并没有承担这样的誓言。”

2026年4月10日12:45更新:Meta表示其不使用健康数据进行广告投放,本文已相应更新。