#技术伦理

按标签聚合查看文章内容。

斯坦福研究揭示向AI聊天机器人寻求个人建议的潜在风险AI资讯

斯坦福研究揭示向AI聊天机器人寻求个人建议的潜在风险

斯坦福计算机科学家最近发表的一项研究,深入探讨了AI聊天机器人在提供个人建议时可能带来的危害。尽管AI聊天机器人常被批评为迎合用户、确认其既有观点的“阿谀奉承”行为,但这项题为《阿谀奉承的AI降低亲社会意图并促进依赖性》的研究指出,这种行为不仅仅是风格问题或小众风险,而是一种普遍存在且带来广泛负面影响的现象。 根据皮尤研究中心的报告,约有12%的美国青少年会向聊天机器人寻求情感支持或建议。研究的主

希望、炒作还是恐惧?《AI纪录片》导演查理·泰瑞尔探讨未来走向AI资讯

希望、炒作还是恐惧?《AI纪录片》导演查理·泰瑞尔探讨未来走向

我以写作和思考人工智能为职业。在每30分钟内,我的情绪会在担心AI会摧毁我所熟知和热爱的世界,以及相信——或者至少希望相信——它能为人类带来积极改变之间反复摇摆。 恐惧转为乐观,乐观又渐渐变成矛盾,随后再回到因恐惧而生的愤世嫉俗。如此反复,我的神经系统真需要休息一下。 这种争论正是3月27日上映的新纪录片《AI纪录片:或我如何成为末日乐观主义者》(104分钟)的核心。该片于今年1月在圣丹斯电影节首

研究显示《纽约时报》大量发布AI生成文章AI资讯

研究显示《纽约时报》大量发布AI生成文章

近日,有研究指出,《纽约时报》及其他主要新闻媒体可能在不知情的情况下,发布了大量由人工智能生成的文章。此次讨论起因于今年早些时候一篇《纽约时报》“现代爱情”专栏文章的争议。该文作者凯特·吉尔根承认,她在写作过程中使用了包括ChatGPT、Claude和Gemini等聊天机器人作为“灵感、指导和校正”的工具,但坚称AI只是作为协作编辑,而非内容生成者。 然而,随着AI技术的广泛应用,频繁咨询聊天机器

我们都在与AI挣扎:我尝试了反映混乱的艺术作品AI资讯

我们都在与AI挣扎:我尝试了反映混乱的艺术作品

在今年得克萨斯州奥斯汀举办的SXSW音乐节中心,曾经的会议中心位置变成了一个巨大的泥坑,象征着2026年世界面对AI带来的混乱与变革。虽然活动仍在周围的酒店举行,但建筑的缺失如同一个潜伏的符号,提醒着我们时代的动荡。 我无法预测2026年剩余时间会发生什么,但在这场充满氛围的展览中,我开始反思AI如何融入我们的生活、艺术和存在。大会没有抗拒AI,而是尴尬地拥抱并挑战它。现场各处的作品让我思考人与A

OpenClaw智能代理容易被情感操控导致自我破坏AI资讯

OpenClaw智能代理容易被情感操控导致自我破坏

上个月,东北大学的研究人员邀请了一批OpenClaw智能代理加入他们的实验室,结果却是一片混乱。 这款广受关注的AI助手被誉为具有变革性的技术,同时也被视为潜在的安全风险。专家指出,像OpenClaw这样的工具通过赋予AI模型广泛的计算机访问权限,可能被诱导泄露个人信息。 东北大学的这项研究更进一步,揭示了当今最强大模型中内置的“良好行为”本身也可能成为漏洞。研究人员举了一个例子,通过对代理进行“

伊丽莎白·沃伦称五角大楼禁止Anthropic是“报复”行为AI资讯

伊丽莎白·沃伦称五角大楼禁止Anthropic是“报复”行为

Anthropic在与美国国防部的争斗中获得了越来越多的支持。上个月,国防部将这家人工智能实验室列为供应链风险,原因是Anthropic拒绝在其AI技术的军事使用上做出让步。 美国参议员伊丽莎白·沃伦(民主党,马萨诸塞州)在致国防部长皮特·赫格塞斯的信中,将国防部的决定称为“报复”,并指出五角大楼本可以直接终止与该AI实验室的合同,而不必采取如此极端的措施。 沃伦在信中表达了对国防部试图强迫美国公

作家起诉Grammarly未经同意将其及其他作者变成“AI编辑”AI资讯

作家起诉Grammarly未经同意将其及其他作者变成“AI编辑”

Grammarly上周推出了一项备受争议的新功能“专家点评”,该功能利用AI模拟编辑反馈,让用户感觉像是得到了小说家斯蒂芬·金、已故科学家卡尔·萨根或科技记者卡拉·斯威舍的点评。然而,Grammarly并未获得数百位被模拟专家的许可,就擅自使用了他们的名字。 受影响的作家之一、记者Julia Angwin已对Grammarly的母公司Superhuman提起集体诉讼,指控该公司侵犯了她及其他被模仿