AI 生成的蘑菇科普书籍存在诸多错误,误食严重可导致生命危险

AI生成的蘑菇科普书籍存在诸多错误,误食严重可导致生命危险非营利组织纽约真菌学会(NYMS)近日发出,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。如果某人在野外求生中,根据这些AI书籍的知识食用蘑菇,严重的可能会导致死亡。该机构表示亚马逊和其它电商平台上,各种AI生成的科普书籍泛滥,这对于入门,以及对某个知识不太熟悉的用户来说,如果误信这些错误信息,可能意味着“lifeordeath”(生或死)。来源,频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

人工智能生成的书籍泛滥成灾,亚马逊面临大问题

人工智能生成的书籍泛滥成灾,亚马逊面临大问题最近有作者和几家新闻媒体报道称,人工智能生成的书籍出现在多个亚马逊畅销书排行榜上,并且数量正在显着增加。使得读者寻找至少目前由人类作者撰写的书籍增加了难度。还引起了人们对抄袭和侵犯版权的担忧,但也有人工智能文本生成器吐出错误信息的问题。自助出版,例如通过亚马逊的KindleDirect计划,已经成为许多真正的作者将他们的作品推向公众并在没有大型出版商帮助的情况下建立追随者的一种方式。由于这些自助出版功能特意易于注册,似乎任何人都可以生成无穷无尽的人工智能编写的书籍,并将其上传到亚马逊电子书商店出售,并可通过KindleUnlimited进行阅读。最近,,她注意到亚马逊青少年当代浪漫电子书前100名畅销书中只有19本是真正的、合法的书籍。其余的都是无意义和不连贯的,而且似乎是人工智能生成的。而在林奇发推文几天后,这些人工智能书籍就从畅销书排行榜上消失了,很可能是被亚马逊删除了。这些书消失并不重要。实施这种计划的人可以随心所欲地上传,以取代被删除的书。对此事,亚马逊一位发言人回应:"我们有明确的内容准则,管理哪些书籍可以上市销售,当有人提出疑问时,会及时调查任何书籍。我们投入大量资金,以提供值得信赖的购物体验,并保护客户和作者免受滥用"。——

封面图片

研究称AI生成的错误信息实为“胡扯”而非“幻觉”

研究称AI生成的错误信息实为“胡扯”而非“幻觉”大型语言模型(LLM)如OpenAI的ChatGPT,已革新人类与人工智能的互动方式,生成的文本常常看似与人类写作无异。尽管其能力令人印象深刻,这些模型也因持续产生的错误信息而广受关注,这些错误信息通常被称为“AI幻觉”。然而,格拉斯哥大学的学者MichaelTownsenHicks、JamesHumphries和JoeSlater在《伦理与信息技术》期刊发表的论文中指出,这些错误更应被视为“胡扯”。LLM是通过分析大量书面材料并使用统计技术预测下一个词的出现来生成类人文本的复杂计算机程序。与人类大脑拥有多种目标和行为不同,LLM只有一个目标:生成与人类语言接近的文本。这意味着它们的主要功能是复制人类语言的模式和结构,而非理解或传达事实信息。研究人员认为,将这些错误称为“AI幻觉”会误导公众,以为AI有意传达真相,而实际上,AI只是根据训练数据的模式生成文本,对其准确性没有内在的关心。哲学家HarryFrankfurt在其著作中将“胡扯”定义为一种对真相漠不关心的行为,生成的内容可能听起来很有道理,但实际上并没有事实依据。研究人员解释,LLM的输出符合Frankfurt对“胡扯”的定义,因为这些模型没有对真伪的理解,仅根据训练数据生成看似合理的文本。称其为“胡扯”比“幻觉”更准确,这对于如何理解和解决这些模型生成的错误信息具有重要意义。消息来源:

封面图片

倡导团体敦促拜登政府解决生成式AI对环境的影响和错误信息风险问题

倡导团体敦促拜登政府解决生成式AI对环境的影响和错误信息风险问题该命令涉及多个领域,包括人工智能对就业、隐私、安全等方面的影响。它还提到利用人工智能改善国家电网,审查环境研究,以帮助应对气候变化。包括美国绿色和平组织(GreenpeaceUSA)、科技监督项目(TechOversightProject)、地球之友(FriendsoftheEarth)、亚马逊员工气候正义组织(AmazonEmployeesforClimateJustice)和电子隐私信息中心(EPIC)在内的17个组织在致拜登的公开信中写道,该行政命令在解决技术对环境的影响方面做得不够,无论是字面上的影响还是通过错误信息造成的影响。信中写道:"......由于其巨大的能源需求及其增长和扩散所带来的碳足迹,LLM的广泛使用会增加碳排放。"人工智能初创公司HuggingFace和卡内基梅隆大学最近发表的一项研究强调了生成式人工智能模型在训练阶段和频繁的日常应用中所消耗的大量能源。使用类似StableDiffusionXL的模型生成1000张图像所产生的碳排放量,相当于驾驶一辆普通汽油车行驶4.1英里。这些组织写道:"硅谷毫无根据地炒作说,人工智能可以在未来某个时候拯救地球,但研究表明,现在的情况实际上恰恰相反。"除了担心人工智能对地球的影响,这些组织还对人工智能可能被用于传播气候虚假信息表示担忧:"生成式人工智能有可能放大那些困扰社交媒体时代的气候虚假信息,并减缓应对气候变化的努力。研究人员已经能够轻松绕过ChatGPT的保障措施,以气候变化否认者的视角制作一篇文章,认为全球气温实际上正在下降。"我们已经看到,生成式人工智能被用于制造有关即将到来的美国大选和其他一些领域的虚假信息,其中的主要挑战往往在于让人们相信生成的内容并不真实。这些组织希望政府要求企业公开报告人工智能模型整个生命周期(包括训练、更新和搜索查询)所产生的能源使用和排放情况。他们还要求研究人工智能系统对气候虚假信息的影响,并实施保障措施防止其产生。最后,还要求企业向公众解释人工智能生成模型如何生成信息、衡量气候变化的准确性,以及它们所做声明的证据来源。...PC版:https://www.cnbeta.com.tw/articles/soft/1402539.htm手机版:https://m.cnbeta.com.tw/view/1402539.htm

封面图片

AI生成图像 连它自己也分辨不出真假了

AI生成图像连它自己也分辨不出真假了图1:教皇穿着巴黎世家羽绒服的AI图片图2:图中有6个破绽上图是一张由微软必应图像生成器生成的图片,里面有6个破绽,相对容易分别。如果不看标记,你能找出这6个图片漏洞吗?1.她的手指极长且扁平。2.她的嘴巴似乎少了几颗牙齿,陷进了她的脸。3.她的手进入了桌子里。4.他的手指又长又扁。5.她的衬衫下垂不自然。6.桌子上的物品混合在一起。但是,有些AI生成的图片已经达到了以假乱真的地步了。例如,特朗普被捕的图片,教皇方济各穿上巴黎世家白色羽绒服的照片,法国总统马克龙穿过抗议人群的照片。如果不是有人提醒,你可能很难看出这是假图片。这就是为什么埃隆·马斯克(ElonMusk)等科技领袖呼吁暂停AI开发等原因。虽然AI生成的内容可能很有趣,但它会给行业和日常互动带来风险。它可以被用来传播错误信息、侵犯知识产权或使人们的照片性感化。图3:Optic图片工具都被AI欺骗了一些开发人员正在开发工具,通过分析图像以寻找人工智能做图迹象的工具。但问题是,除非这些工具与它们所监视的图像生成器保持同步,否则即使是它们也可能被愚弄。例如,AI信任和安全公司Optic的工具就被欺骗了,它认为有87%的可信度相信教皇穿着巴黎世家羽绒服的图片是人类拍摄的。...PC版:https://www.cnbeta.com.tw/articles/soft/1354265.htm手机版:https://m.cnbeta.com.tw/view/1354265.htm

封面图片

东南亚10国正在起草监管指南:为生成式AI加装护栏

东南亚10国正在起草监管指南:为生成式AI加装护栏生成式AI以OpenAI公司的ChatGPT聊天机器人为代表,可根据过去输入的数据生成新的文本、图像和其他内容。这项技术在给人们带来兴奋的同时,也引发了人们对其重塑各行各业潜力的担忧。今年早些时候,东南亚国家联盟(ASEAN)10个成员国的部长们一致同意,有必要为东南亚地区制定一份“AI指南”。东南亚国家的高级官员们今日表示,所谓的《东盟AI监管和伦理指南》正在形成,它将努力平衡AI的经济效益和诸多风险。其中一位官员向媒体表示:“起草工作正在进行中,可能会在年底前完成。然后,会提交给东盟成员国批准。”另一位官员称,这份指南可能会在明年初的东盟数字部长会议上公布。对此,新加坡通信和信息部(MCI)的一位发言人表示,作为2024年东盟数字部长会议的主席国,新加坡将与其他东盟国家合作,制定一份《东盟AI监管和伦理指南》,以确保这项创新技术在东盟的可信部署。除了新加坡,其他东盟国家还包括文莱、柬埔寨、印度尼西亚、老挝、马来西亚、缅甸、菲律宾、泰国和越南。对此,这些政府尚未发表评论。由于相关的讨论尚处于早期阶段,这些东南亚国家的高级官员们拒绝发表进一步的评论。在东盟国家制定AI指导方针的同时,欧盟和美国预计将在几周内发布一份自愿的AI行为准则草案。此外,在昨晚的欧洲议会全体会议上,议员们还通过了《AI法案》的法律草案。该草案对ChatGPT等生成式AI工具提出了新的透明度要求。与欧洲和美国的同行一样,东南亚地区政策制定者对AI将错误信息产业化的潜力也表示出了特别的担忧。本月早些时候,新加坡信息通信媒体发展局(IMDA)在一篇研究论文中警告称,当富于创造力的AI以令人信服的方式产生似是而非的内容时,让人很难分辨真假。知情人士称,新加坡一直处于东南亚地区AI战略的前沿,目前正在领导这份AI指南的起草工作。...PC版:https://www.cnbeta.com.tw/articles/soft/1365689.htm手机版:https://m.cnbeta.com.tw/view/1365689.htm

封面图片

恶意行为者正利用AI音乐生成器创作宣扬仇恨的歌曲

恶意行为者正利用AI音乐生成器创作宣扬仇恨的歌曲ActiveFence的研究人员在一份报告中说,在这些论坛和讨论区分享的人工智能生成的歌曲旨在煽动对民族、性别、种族和宗教群体的仇恨,同时歌颂殉难、自残和恐怖主义行为。创作仇恨和有害的歌曲并不是什么新现象。但人们担心的是,随着简单易用的免费音乐生成工具的出现,以前没有能力或技术的人也会大规模地制作这些歌曲,就像图像、语音、视频和文本生成器加速了错误信息、虚假信息和仇恨言论的传播一样。ActiveFence公司联合创始人兼首席执行官诺姆-施瓦茨(NoamSchwartz)在接受采访时说:"随着越来越多的用户学会如何生成这些歌曲并与他人分享,这些趋势正在加剧。威胁行为者正在迅速识别特定漏洞,以不同方式滥用这些平台并生成恶意内容。"Udio和Suno等人工智能音乐生成工具允许用户在生成的歌曲中添加自定义歌词。据ActiveFence称,这些平台上的保护措施会过滤掉常见的辱骂和贬义词,但用户已经找到了变通方法。报告中引用的一个例子是,白人至上主义论坛的用户分享了少数群体和攻击性词汇的拼音拼写,如用"jooz"代替"犹太人",用"saytan"代替"撒旦",他们用这些拼写绕过了内容过滤器。一些用户建议在提及暴力行为时改变间隔和拼写,如用"mireape"代替"myrape"媒体TechCrunch在Udio和Suno上测试了其中几种变通方法,这是两款用于创建和共享人工智能生成的音乐的流行工具。结果显示,Suno可以让所有的同音字通过,而Udio则屏蔽了部分(但不是全部)具有攻击性的同音字。Udio发言人表示,该公司禁止利用其平台发表仇恨言论。在被调查的网上社区中,ActiveFence被发现存在人工智能生成的歌曲链接,这些歌曲宣扬关于犹太人的阴谋论,鼓吹对犹太人的大规模屠杀;歌曲中包含与恐怖组织ISIS和基地组织有关的口号;以及歌颂对妇女实施性暴力的歌曲。施瓦茨认为,歌曲(与文字等不同)所蕴含的情感力量使其成为仇恨团体和政治战争的强大力量。他提到了"摇滚反共产主义"(RockAgainstCommunism)--70年代末和80年代初在英国举行的一系列白人力量摇滚音乐会,这些音乐会催生了反犹太主义和种族主义"仇恨核心"音乐的整个亚流派。他说:"人工智能让有害内容更有吸引力,例如有人宣扬对某个人群有害的言论,然后想象一下有人创作了一首押韵的歌曲,让每个人都能轻松唱出并记住。它们加强了群体团结,向外围群体成员灌输知识,还被用来震慑和冒犯无关联的互联网用户。"施瓦茨呼吁音乐生成平台实施预防工具,并进行更广泛的安全评估:"红队可能会发现其中一些漏洞,可以通过模拟威胁行为者的行为来实现。在这种情况下,对输入和输出进行更好的节制也可能是有用的,因为这将使平台能够在内容与用户共享之前对其进行阻止。"但随着用户发现新的破坏审核的方法,修复措施可能会稍纵即逝。例如,ActiveFence发现的一些由人工智能生成的恐怖主义宣传歌曲使用了阿拉伯语的委婉语和音译词--音乐生成器没有检测到这些委婉语,可能是因为它们的过滤器在阿拉伯语方面能力不强。人工智能生成的仇恨音乐如果步其他人工智能生成媒体的后尘,就会传播得越来越广。《连线》(Wired)今年早些时候记录了一段经过人工智能处理的阿道夫-希特勒(AdolfHitler)的视频,在被极右阴谋论影响者分享后,在X上的浏览量超过了1500万次。联合国的一个咨询机构对种族主义、反犹太主义、仇视伊斯兰教和仇外心理的内容可能被生成式人工智能所强化表示担忧。施瓦茨说:"生成式人工智能服务使那些缺乏资源或创意和技术技能的用户能够创建引人入胜的内容并传播创意,从而在全球创意市场上争夺注意力。威胁行为者发现了这些新服务提供的创造潜力,正在努力绕过审核,避免被发现--他们已经取得了成功。"...PC版:https://www.cnbeta.com.tw/articles/soft/1433447.htm手机版:https://m.cnbeta.com.tw/view/1433447.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人