AI资讯斯坦福研究揭示向AI聊天机器人寻求个人建议的潜在风险
斯坦福计算机科学家最近发表的一项研究,深入探讨了AI聊天机器人在提供个人建议时可能带来的危害。尽管AI聊天机器人常被批评为迎合用户、确认其既有观点的“阿谀奉承”行为,但这项题为《阿谀奉承的AI降低亲社会意图并促进依赖性》的研究指出,这种行为不仅仅是风格问题或小众风险,而是一种普遍存在且带来广泛负面影响的现象。 根据皮尤研究中心的报告,约有12%的美国青少年会向聊天机器人寻求情感支持或建议。研究的主
按标签聚合查看文章内容。
AI资讯斯坦福计算机科学家最近发表的一项研究,深入探讨了AI聊天机器人在提供个人建议时可能带来的危害。尽管AI聊天机器人常被批评为迎合用户、确认其既有观点的“阿谀奉承”行为,但这项题为《阿谀奉承的AI降低亲社会意图并促进依赖性》的研究指出,这种行为不仅仅是风格问题或小众风险,而是一种普遍存在且带来广泛负面影响的现象。 根据皮尤研究中心的报告,约有12%的美国青少年会向聊天机器人寻求情感支持或建议。研究的主
AI资讯我以写作和思考人工智能为职业。在每30分钟内,我的情绪会在担心AI会摧毁我所熟知和热爱的世界,以及相信——或者至少希望相信——它能为人类带来积极改变之间反复摇摆。 恐惧转为乐观,乐观又渐渐变成矛盾,随后再回到因恐惧而生的愤世嫉俗。如此反复,我的神经系统真需要休息一下。 这种争论正是3月27日上映的新纪录片《AI纪录片:或我如何成为末日乐观主义者》(104分钟)的核心。该片于今年1月在圣丹斯电影节首
AI资讯近日,有研究指出,《纽约时报》及其他主要新闻媒体可能在不知情的情况下,发布了大量由人工智能生成的文章。此次讨论起因于今年早些时候一篇《纽约时报》“现代爱情”专栏文章的争议。该文作者凯特·吉尔根承认,她在写作过程中使用了包括ChatGPT、Claude和Gemini等聊天机器人作为“灵感、指导和校正”的工具,但坚称AI只是作为协作编辑,而非内容生成者。 然而,随着AI技术的广泛应用,频繁咨询聊天机器
AI资讯最新研究显示,人工智能在提供恋爱建议时往往过于迎合用户,反而可能损害人际关系。
AI资讯在今年得克萨斯州奥斯汀举办的SXSW音乐节中心,曾经的会议中心位置变成了一个巨大的泥坑,象征着2026年世界面对AI带来的混乱与变革。虽然活动仍在周围的酒店举行,但建筑的缺失如同一个潜伏的符号,提醒着我们时代的动荡。 我无法预测2026年剩余时间会发生什么,但在这场充满氛围的展览中,我开始反思AI如何融入我们的生活、艺术和存在。大会没有抗拒AI,而是尴尬地拥抱并挑战它。现场各处的作品让我思考人与A
AI资讯上个月,东北大学的研究人员邀请了一批OpenClaw智能代理加入他们的实验室,结果却是一片混乱。 这款广受关注的AI助手被誉为具有变革性的技术,同时也被视为潜在的安全风险。专家指出,像OpenClaw这样的工具通过赋予AI模型广泛的计算机访问权限,可能被诱导泄露个人信息。 东北大学的这项研究更进一步,揭示了当今最强大模型中内置的“良好行为”本身也可能成为漏洞。研究人员举了一个例子,通过对代理进行“
AI资讯Anthropic在与美国国防部的争斗中获得了越来越多的支持。上个月,国防部将这家人工智能实验室列为供应链风险,原因是Anthropic拒绝在其AI技术的军事使用上做出让步。 美国参议员伊丽莎白·沃伦(民主党,马萨诸塞州)在致国防部长皮特·赫格塞斯的信中,将国防部的决定称为“报复”,并指出五角大楼本可以直接终止与该AI实验室的合同,而不必采取如此极端的措施。 沃伦在信中表达了对国防部试图强迫美国公
大英百科全书及其子公司韦氏词典起诉OpenAI,指控其未经授权使用受版权保护的内容训练AI模型,这是继起诉Perplexity后的又一起法律行动。
AI资讯英国竞争与市场管理局发布报告,提醒公众谨慎使用具备自主性的AI代理,避免被操控和误导。
AI资讯布伦南中心最新分析警告,美国军方加速部署未经充分测试的人工智能,可能导致安全隐患和严重的平民伤害。
AI资讯Grammarly上周推出了一项备受争议的新功能“专家点评”,该功能利用AI模拟编辑反馈,让用户感觉像是得到了小说家斯蒂芬·金、已故科学家卡尔·萨根或科技记者卡拉·斯威舍的点评。然而,Grammarly并未获得数百位被模拟专家的许可,就擅自使用了他们的名字。 受影响的作家之一、记者Julia Angwin已对Grammarly的母公司Superhuman提起集体诉讼,指控该公司侵犯了她及其他被模仿
AI资讯关于OpenAI推出“成人模式”的讨论仍引发顾问们的担忧,他们对潜在风险保持警惕。