HyperAI超神经
Back to Headlines

维基百科暂停AI生成摘要试验,引发编辑强烈反对

13 days ago

维基媒体基金会(Wikimedia Foundation)近日宣布试用一种新的AI生成文章摘要工具,引发了维基百科编辑们的强烈反对。该基金会上周表示,这一新功能旨在通过不同的内容发现项目,使维基更“易于全球读者访问”。根据计划,新工具将生成由编辑审核的简单文章摘要,为不同阅读水平的用户提供帮助。然而,这一看似善意的尝试迅速演变成了一场争议风暴。 在社区论坛上,编辑们纷纷表达了对这项实验的不满和担忧。“这到底是什么?绝对不行,”一名用户直言不讳地批评,“任何形式都不能接受。”另一名编辑则担心这会损害维基百科目前的准确性声誉:“人们不会越过AI生成的内容去寻找真正有价值的信息。”还有编辑指出,维基媒体基金会的一些员工可能只是为了在其简历中增添与AI相关的项目而提出此类设想。面对如此强烈的反对声,该组织不得不暂时叫停这项新功能。 维基媒体基金会在声明中解释道,这项为期两周的可选实验是为了生成复杂的维基百科文章的简化版本,帮助那些阅读能力有限的用户更好地理解内容。参与实验的摘要由Cohere开发的开放权重Aya模型生成,目的是评估社区的兴趣,并探索合适的社区审核机制,以确保人类编辑仍然是决定展示信息的核心。然而,编辑们的态度极为坚决,他们普遍认为这种做法是对维基精神的背离。 在这次事件中,维基百科编辑们的反应充分展示了维基社区的高度自治和对质量的严格把控。维基媒体基金会虽然声称将听取社区意见,但以往的经验让许多编辑对此持怀疑态度,担心管理层会强行实施决策。此外,编辑们还强调了AI生成内容的潜在风险,包括信息不准确、内容偏见问题以及难以控制的质量。 这次风波也让外界再次关注到维基媒体基金会与维基百科编辑社区之间的关系。作为维基百科的运营方,维基媒体基金会经常需要在技术创新和社区治理之间找到平衡点。然而,此次尝试显然未能获得社区的支持,反而引发了广泛质疑。业内专家普遍认为,维基百科的质量和权威性很大程度上依赖于其强大的编辑队伍,任何试图绕过或取代这一核心群体的举措都可能带来严重后果。 维基媒体基金会成立于2003年,是一个非营利组织,负责管理和支持维基百科和其他维基媒体项目的运营。该组织在全球拥有数百万志愿者编辑,正是这些编辑的自愿贡献使得维基百科成为世界上最大、最全面的百科全书之一。未来,维基媒体基金会需要更加谨慎地对待新技术的应用,尤其是在涉及如此基础的功能时,必须充分尊重和考虑编辑社区的意见。

Related Links