[因使用错误的维基百科数据,Bing地图丢失了墨尔本]

[因使用错误的维基百科数据,Bing地图丢失了墨尔本]微软上周被发现Bing地图搞错了澳大利亚维多利亚省首府墨尔本的坐标,将其坐标定位37.813610,144.963100,而实际上真正的坐标是-37.813610,144.963100。澳大利亚位于南半球,其使用的是南纬而不是北纬。Bing地图的高级项目经理RickyBrundritt在修正坐标后称出错的原因是使用了维基百科的数据。维基百科并不是可靠的信息源,因为它的内容是人人都可以编辑的。幸好没人使用Bing地图导航。http://www.theregister.co.uk/2016/08/23/microsoft_lost_a_city_because_it_used_bad_wikipedia_data/

相关推荐

封面图片

俄罗斯因“错误信息”对维基百科处以200万卢布罚款

俄罗斯因“错误信息”对维基百科处以200万卢布罚款维基媒体基金会周二被俄罗斯法院罚款200万卢布(27,000美元),此前当局指控其未能从维基百科中删除有关俄罗斯军方的“错误信息”,法院服务部门表示。去年俄罗斯入侵乌克兰后不久,俄罗斯出台了全面的新法律,限制人们报道冲突的内容,罚款或封锁传播与克里姆林宫官方说法不一致的信息的网站。拥有维基百科的维基媒体去年已经被罚款,因为它未能删除两篇与战争有关的文章,其中一篇是关于“俄罗斯2022年入侵乌克兰的评估”。——

封面图片

研究发现维基百科影响司法行为

研究发现维基百科影响司法行为使用随机现场实验,研究人员发现维基百科的文章会影响法官的法律推理。对互联网主要资源之一维基百科的混合评价反映在略带反乌托邦的文章“维基百科丑闻列表”中。然而,数十亿用户经常涌向在线、匿名可编辑的百科全书式知识库,以获取几乎所有内容。这种不权威的来源如何影响我们的话语和决定很难可靠地追踪。但一项新研究试图衡量从维基百科收集的知识如何在一个特定领域发挥作用:法院。

封面图片

TikTok悄然在搜索结果中插入维基百科片段

TikTok悄然在搜索结果中插入维基百科片段本周,该应用悄悄地在一些搜索结果页面中添加了维基百科片段,包括人物、地点和事件。在《纽约时报》、泰勒-斯威夫特和感恩节等搜索结果中都不难发现对应的维基百科链接。TikTok发言人扎卡里-基泽尔(ZacharyKizer)证实,该公司正在与维基百科合作,直接在应用程序中为用户提供信息。基泽尔说,这项功能已经上线几个月了,但公司似乎没有正式宣布,媒体此前也没有报道过。片段链接到主题的维基百科页面维基百科功能会在用户下拉应用内搜索结果时出现,并夹在相关视频之间。点击片段后,用户会直接进入维基百科;片段底部的链接会跳转到维基百科条目的不同部分。但维基百科词条的出现并不一致,例如作为城市,纽约和洛杉矶有一个片段,但芝加哥没有。搜索"纽约大都会队"时,维基百科上会出现"大都会队2015赛季"的具体词条。TikTok用户还偶然发现了包括俄语在内的语言片段。基泽尔没有说明哪些搜索词可以获得维基百科链接,也没有说明是如何决定的。TikTok还为其搜索功能添加了其他功能,但与传统的Google搜索相比,其搜索功能仍然不够强大。上个月,它开始将赞助商内容放在内容视频之间,从而使搜索结果可以产生收入。今年早些时候,TikTok宣布与IMDb合作,允许创作者在视频中链接电影和电视节目,IMDb链接和片段也会出现在某些搜索结果中。Google承认,TikTok和其他平台可能会蚕食其搜索主导地位。去年,Google负责搜索的高级副总裁普拉巴卡尔-拉加万(PrabhakarRaghavan)说:"差不多有40%的年轻人在寻找午餐地点时,不会去Google地图或搜索,而是去TikTok或Instagram。...PC版:https://www.cnbeta.com.tw/articles/soft/1383739.htm手机版:https://m.cnbeta.com.tw/view/1383739.htm

封面图片

英语维基百科条目 Censorship of Winnie-the-Pooh in China 首次使用AI生成的习维尼图像,用

英语维基百科条目CensorshipofWinnie-the-PoohinChina首次使用AI生成的习维尼图像,用来介绍中国对小熊维尼的审查措施。AI生成图片作者是Midjourney,但由于美国版权法不保护机器生成的作品,因此习维尼图像以公有领域的方式释出,可在维基百科上面自由使用。条目链接https://en.wikipedia.org/wiki/Censorship_of_Winnie-the-Pooh_in_China

封面图片

吉米·威尔士正在考虑使用GPT来协助编写维基百科 但隐患很明显

吉米·威尔士正在考虑使用GPT来协助编写维基百科但隐患很明显但他指出,"使用人工智能将维基百科的条目数量增加两倍,我们每年的运营成本不会增加超过1000英镑"。威尔士说,一个早期的用例可能是使用像GPT这样的大型语言模型(LLM)来比较多篇文章,寻找相互矛盾的点,并利用其结果来识别维基百科的人类志愿者大军可能需要投入一些工作的内容。"我认为我们离'ChatGPT,请写一个关于帝国大厦的维基百科条目'还有一段距离,"他告诉Hambury,"但我不知道我们离这有多远,当然比我两年前想的要近。"一种可能的情况是,让人工智能去寻找维基百科上所有的许多空白--那些可能有用的页面从未被写过--并试图利用网络上的信息为它们创建摘要条目。但威尔士意识到,维基百科的整个声誉是建立在对准确性的认知上的,而这是目前像GPT这样的法律硕士的一个巨大问题。他说:"它有一种凭空捏造东西的倾向,这对维基百科来说真的很糟糕。"那是不可以的。我们必须对此非常小心。"如果让LLM编写像维基百科这样的中央知识库,那些没有被立即发现的幻觉或谎言在AI的放大作用下将开始像滚雪球一样越滚越大。人们会在自己的写作中使用这些非事实,随后的人工智能将被训练出这些非事实,从长远来看很难纠正它们,并容易使我们更深入地进入这个"后真相"时代。威尔士还担心,使用LLM来扩展资源是否会帮助或加剧维基百科的系统性和无意识的偏见问题;该资源目前是由志愿者编写和维护的,其中绝大多数是白人男性,因此该网站倾向于忽略这一群体不感兴趣的话题,并从某种角度来报道其他话题。ChatGPT的明确设计是为了在可能的情况下尝试从平衡的角度看待话题,试图将一些细微的差别带回讨论领域,在这些领域,来自不同方面的人越来越难以从任何共同点出发。但GPT在其训练数据中也有其固有的偏见问题。这是一个棘手的问题,当然也会让赞助者考虑,如果该维基百科走这条路,是否还能继续捐款给它。但现实的是,任何组织如果不围绕下一代LLM的惊人能力重新定位,就会使自己在未来的竞争中处于巨大的劣势当中。...PC版:https://www.cnbeta.com.tw/articles/soft/1352823.htm手机版:https://m.cnbeta.com.tw/view/1352823.htm

封面图片

AI 帮助维基百科整理引用链接

AI帮助维基百科整理引用链接引用对维基百科至关重要,但它的引用经常会指向已失效的链接、不正确的信息或不可靠的来源。SamayaAI公司的研究人员开发了神经网络系统SIDE,能帮助维基百科整理其条目中不准确或不完整的参考来源,提高其质量和可靠性。系统能分析引用来源是否能支持条目中的相关断言,为不支持的引用提供更好的参考来源。该工具能为维基百科的编辑和内容审核者节省时间。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人