,也无法分辨旧事报道中当下的消息和汗青存档的消息,正在给出谜底的时候还容易掺入客不雅的概念。特内斯暗示:“这些 AI 东西所生成的成果往往是各类问题的夹杂体,取消费者所期望的颠末验证的现实和清晰性相去甚远。”值得留意的是,微软的 Copilot 和谷歌的 Gemini 正在处置旧事总结时呈现了更复杂的问题,相较于 ChatGPT 和 Perplexity,它们正在区分概念取现实、编纂化处置以及脱漏环节布景消息方面表示欠安。
IT之家留意到,AI 东西的精确性问题并非仅限于这些聊器人。苹果公司近期也因旗下 Apple Intelligence 通知东西分享错误题目而激发争议,导致其临时停用该功能,并遭到旧事机构和集体的。
,此中约五分之一的谜底引入了较着的现实错误,这些错误包罗数据、陈述和日期等环节消息。跨越十分之一的‘引文’被或底子不存正在于原文中。”此外,研究还发觉?。
研究中,BBC 让这些 AI 东西对 100 篇旧事报道进行总结,并基于总结提出内容相关问题。成果显示。
感激IT之家网友咩咩洋的线 日动静,英国公司(BBC)近期开展了一项大规模研究,旨正在评估人工智能(AI)聊器人正在旧事总结方面的表示。研究涉及了微软的 Copilot、OpenAI 的 ChatGPT、谷歌的 Gemini 以及 Perplexity 等多款出名 AI 东西。研究成果显示,这些东西正在生成旧事总结时存正在大量精确性问题。
BBC 呼吁,正在取 AI 办事供给商进行深切对话并找四处理方案之前,应暂停利用 AI 生成的旧事总结。特内斯暗示:“我们但愿通过合做,配合寻找处理法子。”。
安徽创翼人口健康信息技术有限公司