研究:鸽子可用类似人工智能方式解决问题

研究:鸽子可用类似人工智能方式解决问题一项最新研究显示,鸽子可以处理极其广泛的视觉分类任务,能使用类似人工智能模型“暴力算法”的方式,解决一些问题。新华社报道,美国俄亥俄州立大学研究人员近日在国际《交叉学科》杂志发表一项研究成果。证据显示,鸽子的学习机制与现代机器学习和人工智能(AI)技术的原理相似。这项研究中使用的AI模型和鸽子解决问题的方法,都是“联想学习”和“纠错”。研究中,鸽子需要啄一下右侧或左侧的按钮来对物体分类;如果答对,就会得到食物,反之就什么也得不到。研究布置了四项不同的任务,难易程度不等。结果显示,通过反复试错,鸽子的任务“正确率”出现提升。鸽子在一项较简单的测试中做出正确选择的比率,从大约55%提高到了95%。在相对较难的题目中,鸽子的“正确率”也从55%提高到68%。以往的研究显示,鸽子能够学会解决复杂的分类任务。研究人员猜测,鸽子解决问题的方式与AI模型中使用的“暴力算法”相似,即模式匹配中最简单、最直观的算法。俄亥俄州立大学研究人员的这项成果,也证实了这一猜测。不过,研究者也表明,大自然可能已经找到一种方法,让鸽子成为一类非常高效的学习者,但它仍无法像人类一样做概括或推断。2023年10月29日11:25AM

相关推荐

封面图片

新研究:鸽子解决问题的方式类似于人工智能=======鸽子:你说的对,但是,黑车白屎,白车黑屎https://www.ithom

封面图片

马云来云谷学校讨论未来教育:要用人工智能去解决问题而不是被控制

马云来云谷学校讨论未来教育:要用人工智能去解决问题而不是被控制马云说,ChatGPT这一类技术已经对教育带来挑战,但是ChatGPT这一类技术只是AI时代的开始。我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力、脑力比不过机器,但机器只有“芯“,而人有“心”。他说,工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力、担当力、责任的竞争,是独立思考的竞争。——

封面图片

人工智能被发现会使用潜在的危险"捷径"来解决复杂的识别任务

人工智能被发现会使用潜在的危险"捷径"来解决复杂的识别任务这项研究由约克大学人类和计算机视觉研究主席、约克大学人工智能与社会中心联合主任Elder和芝加哥洛约拉学院助理心理学教授、约克大学前VISTA博士后NicholasBaker进行,发现深度学习模型无法捕捉人类形状感知的配置性质。为了研究人脑和DCNN如何感知整体的、配置性的物体属性,该研究使用了被称为"Frankensteins"的视觉刺激方法。"Frankensteins可以被理解为被拆开并以错误的方式装回去的物体,"埃尔德说。"因此,它们具有所有正确的局部特征,但组件会出现在错误的地方。"研究人员发现,虽然Frankensteins会被人类的视觉系统判断出异样,但DCNN却不会,这显示了人工智能对配置物体属性的不敏感。"我们的结果解释了为什么深度人工智能模型在某些条件下会失败,并指出需要考虑物体识别以外的任务,以了解大脑的视觉处理,"Elder说。"这些深度模型在解决复杂的识别任务时倾向于走'捷径'。虽然这些捷径在许多情况下可能有效,但在我们目前与行业和政府伙伴合作的一些现实世界的人工智能应用中,它们可能是危险的,"埃尔德指出。其中一个应用是交通视频安全系统。"繁忙的交通场景中的物体--车辆、自行车和行人--相互阻挡,以杂乱无章的碎片形式出现在司机的眼中,"埃尔德解释说。"大脑需要对这些碎片进行正确分组,以识别物体的正确类别和位置。用于交通安全监测的人工智能系统如果只能单独感知这些碎片,将无法完成这一任务,可能会误解脆弱的道路使用者的风险。"根据研究人员的说法,旨在使网络更像大脑的训练和架构的修改并没有考虑配置处理,而且没有一个网络能够准确地预测逐个试验的人类物体判断。我们推测,为了与人类的可配置敏感性相匹配,必须对网络进行训练,以解决类别识别以外的更广泛的物体任务,"埃尔德指出。了解更多:https://linkinghub.elsevier.com/retrieve/pii/S2589004222011853...PC版:https://www.cnbeta.com.tw/articles/soft/1332369.htm手机版:https://m.cnbeta.com.tw/view/1332369.htm

封面图片

【研究人员提议用区块链、DAO、NFT 和人工智能构建智能教育系统】

【研究人员提议用区块链、DAO、NFT和人工智能构建智能教育系统】2023年07月26日06点02分老不正经报道,土耳其Anadolu大学研究员MehmetFırat最近发表了一项研究,设想采用一种多技术解决方案来解决挑战传统教育系统的问题,称为“智能开放教育生态系统”(SOEE)。该研究结合了区块链、去中心化自治组织(DAO)、NFT、多模式学习分析和人工智能(AI),形成了一个独立的教育生态系统,该系统使用ChatGPT等生成式人工智能系统与学生交互并个性化学习体验。课程、学习资源和证书将被制作为NFT,整个过程将由DAO管理。Fırat认为,开放教育的最终目标不仅是使学习民主化、让教育变得可及,而且还为每个人提供个性化的学习体验。

封面图片

【书名】有解:高效解决问题的关键7步

【书名】有解:高效解决问题的关键7步【作者】奉湘宁;顾淑伟【格式】#epub#mobi#azw3#pdf【分类】#自我提升#管理学#思维方式【简介】本书致力于帮助读者提高解决问题的能力。作者融会贯通了10年来的问题解决研究所得与3万余个真实案例处理经验。重新定义了“问题”的概念,揭示了问题反复出现的真相。作者在书中提供了一套创新性的问题解决方法。

封面图片

研究发现人工智能算法对黄色皮肤存在偏见

研究发现人工智能算法对黄色皮肤存在偏见索尼公司的研究人员表示,目前常用的肤色测量方法仅使用从最浅到最深或从白到黑的滑动尺度来表示肤色,从而忽略了黄色和红色色调对人类肤色范围的影响。他们发现,生成式人工智能系统、图像抓取算法和照片分析工具在处理较黄的皮肤时都特别吃力。同样的弱点也可能适用于各种已被证实准确性会受肤色影响的技术,如用于人脸识别、身体跟踪和深度伪造检测的人工智能软件,或心率监测器和运动探测器等小工具。索尼公司首席研究科学家兼人工智能伦理全球负责人爱丽丝-项(AliceXiang)说:"如果只是以这种非常单一的方式对产品进行评估,那么就会有很多偏见没有被发现和减轻。我们的希望是,我们在这里所做的工作可以帮助取代一些现有的肤色量表,这些量表实际上只关注浅色与深色。"但并非所有人都确信,现有的选择不足以对人工智能系统进行分级。哈佛大学社会学家埃利斯-蒙克(EllisMonk)说,他去年与Google一起推出的由10种肤色组成的调色板,提供了从浅到深的选项,但这并不是单一维度的。蒙克说:"我必须承认,我对之前这方面的研究忽略了底色和色调的说法感到有些困惑。研究工作致力于决定在量表中优先考虑哪些肤色,以及在哪些点上优先考虑哪些肤色。他根据自己对肤色歧视的研究,并在咨询了其他专家和来自代表性不足社区的人之后,选择了他的量表中的10种肤色。"X.人工智能伦理咨询公司MaloSanto的首席执行官、Google肤色研究团队的创始人Eyeé表示,蒙克量表从未打算作为最终解决方案,并称索尼的工作是重要的进步。但Eyeé也提醒说,相机定位会影响图像中的CIELAB颜色值,这是导致该标准成为潜在不可靠参考点的几个问题之一。Eyeé说:"在我们将皮肤色调测量应用于现实世界的人工智能算法(如相机滤镜和视频会议)之前,还需要做更多的工作来确保测量的一致性。"关于量表的争论不仅仅是学术性的。找到人工智能研究人员所说的"公平性"的适当衡量标准,是科技行业的当务之急,因为欧盟和美国等国的立法者正在讨论要求公司对其人工智能系统进行审计,并指出风险和缺陷。索尼公司的研究人员说,不健全的评估方法可能会削弱法规的一些实际好处。关于肤色,Xiang说,制定更多改进措施的努力是有必要的:"我们需要不断尝试,以取得进展。根据不同的情况,不同的措施可能会被证明是有用的。我很高兴,在长期被忽视之后,人们对这一领域的兴趣与日俱增。"Google发言人布莱恩-加布里埃尔(BrianGabriel)则表示,公司欢迎这项新研究,并正在对其进行审查。人的肤色来自于光线与蛋白质、血细胞以及黑色素等色素的相互作用。测试算法是否因肤色而产生偏差的标准方法是检查算法在不同肤色上的表现,从最浅到最深的六个选项被称为菲茨帕特里克量表。该量表最初由皮肤科医生开发,用于评估皮肤对紫外线的反应。去年,科技界的人工智能研究人员对Google推出的蒙克量表大加赞赏,称其更具包容性。索尼公司的研究人员在本周于巴黎举行的国际计算机视觉会议(InternationalConferenceonComputerVision)上提交的一份研究报告中称,用于照片编辑和制造的国际色彩标准CIELAB为表现皮肤的广泛光谱提供了一种更忠实的方法。当他们应用CIELAB标准分析不同人的照片时,发现他们的皮肤不仅在色调(颜色的深度)上存在差异,而且在色相(即颜色的渐变)上也存在差异。不能正确捕捉人体皮肤中红色和黄色色调的肤色尺度似乎帮助了一些偏差在图像算法中不被发现。索尼公司的研究人员测试了开源人工智能系统,包括Twitter开发的图像捕捉器和一对图像生成算法,他们发现这些算法偏爱红色皮肤,这意味着在算法输出的最终图像中,大量皮肤偏黄的人没有得到充分体现。这有可能使包括东亚、南亚、拉丁美洲和中东在内的不同人群处于不利地位。索尼公司的研究人员提出了一种表现肤色的新方法,以捕捉以前被忽视的多样性。他们的系统使用两个坐标而不是一个数字来描述图像中的肤色。它既指定了肤色从浅到深的位置,也指定了从黄到红的位置,即化妆品行业有时所说的从暖到冷的底色。新方法的工作原理是分离图像中显示皮肤的所有像素,将每个像素的RGB颜色值转换为CIELAB代码,然后计算皮肤像素群的平均色调和色调。研究中的一个例子显示,前美国橄榄球明星特雷尔-欧文斯和已故女演员伊娃-嘉宝的明显头像具有相同的肤色,但色调不同,欧文斯的图像偏红,嘉宝的图像偏黄。不能正确捕捉人体皮肤红色和黄色色调的色标有助于图像算法中的偏差不被发现。当索尼团队将他们的方法应用于网上的数据和人工智能系统时,他们发现了重大问题。研究人员发现,CelebAMask-HQ(一个用于训练面部识别和其他计算机视觉程序的流行名人面孔数据集)有82%的图像偏向红色肤色,而另一个由NVIDIA开发的数据集FFHQ有66%偏向红色。在FFHQ上训练的两个人工智能生成模型再现了这种偏差:它们各自生成的每五张图像中,约有四张偏向红色色调。问题还不止于此。根据索尼公司的研究,当要求人工智能程序ArcFace、FaceNet和Dlib识别两张肖像是否对应同一个人时,它们在红色皮肤上的表现更好。Dlib的开发者戴维斯-金(DavisKing)说,他对这种偏差并不感到惊讶,因为该模型主要是在美国名人照片上训练出来的。微软Azure和亚马逊网络服务公司提供的用于检测微笑的云人工智能工具在较红的色调上也有较好的效果。微软负责人工智能工程的萨拉-伯德(SarahBird)说,公司一直在加强对公平性和透明度的投资。亚马逊发言人帕特里克-尼霍恩(PatrickNeighorn)说:"我们欢迎与研究界合作,我们正在仔细审查这项研究。"NVIDIA则拒绝发表评论。作为一个黄皮肤的人,Xiang对揭示当今人工智能测试方式的局限性非常关注。她表示,索尼将使用新系统分析自己的以人为本的计算机视觉模型,因为这些模型需要接受审查,但她拒绝具体说明是哪些模型。"我们每个人的皮肤都有不同的色调。这不应该被用来歧视我们,"她说。索尼的做法还有一个潜在优势。像Google的蒙克量表(Monkscale)这样的测量方法需要人类对特定个体的皮肤在光谱中的位置进行分类。人工智能开发人员说,这是一项会带来变数的任务,因为人们的看法会受到所在位置或自身种族和身份观念的影响。索尼的方法是完全自动化的,不需要人工判断。但哈佛大学的蒙克质疑这是否更好。像索尼这样的客观测量方法最终可能会简化或忽略人类多样性的其他复杂性。他说:"如果我们的目标是剔除偏见,而偏见也是一种社会现象,那么我就不太确定我们是否应该从分析中剔除人类是如何从社会角度看待肤色的。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387957.htm手机版:https://m.cnbeta.com.tw/view/1387957.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人