百度在 GitHub 开源了一个轻量级图像识别系统:PP-ShiTu,主要解决品类更新频率高、目标区分难度大、算法复杂速度慢等问

百度在GitHub开源了一个轻量级图像识别系统:PP-ShiTu,主要解决品类更新频率高、目标区分难度大、算法复杂速度慢等问题。该系统综合了目标检测、图像分类、度量学习、图像检索等多重技术,在CPU上仅需0.2s,即可轻松识别十万类,且十分简单易用。GitHub:github.com/PaddlePaddle/PaddleClas针对此项目,开发者们将在本周开放几场公开课,主讲图像识别系统概览、SOTA模型炼丹秘诀、商品识别痛点剖析、产业应用案例及落地方案分享等内容。直播时间:11.2-11.5,每晚20:15-21:30

相关推荐

封面图片

谷歌 DeepMind 推出 SynthID 工具,能在 AI 生成的图像中嵌入隐形水印

谷歌DeepMind推出SynthID工具,能在AI生成的图像中嵌入隐形水印谷歌DeepMind团队今日推出了一款名为SynthID的工具,可以在AI生成的图像中嵌入人眼不可见的水印,但可以用专门的人工智能检测工具检测出来,以便于区分真实和虚假的内容。SynthID的原理是在图像的像素中嵌入一个水印,但不会影响图像本身的质量和体验。该水印可以抵抗裁剪、缩放等常见的图片编辑操作,只有专门的AI检测工具才能识别出来。谷歌DeepMind的CEODemisHassabis表示,SynthID是为了解决深度伪造(deepfake)等潜在危险的问题而开发的。他认为,在2024年美国和英国即将举行大选的背景下,建立AI图像识别系统是非常重要的。他还表示,SynthID的基本思想也可以应用于视频和文本等其他媒体。来源,频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

谷歌为AI生成图像添加水印 这项技术有何不同之处?

谷歌为AI生成图像添加水印这项技术有何不同之处?据悉,这项名为SynthID的技术将水印直接嵌入到Imagen生成的图像中,Imagen是谷歌最新的人工智能图像生成器之一。之后,无论裁剪、添加过滤器或改变颜色以及使用各种有损压缩方案,被添加到图像中的水印都将无法去除,以便于人们区分真实和虚假的内容。当然,SynthID工具也可以扫描传入的图像,从而评估图像是由Imagen生成的可能性。这项功能由人工智能实验室GoogleDeepMind的技术提供支持。不过,SynthID并不能保证水印可以万无一失地抵御极端图像处理,但它提供了一种有用的技术方法,使人们能够负责任地使用人工智能生成的内容。研究团队表示之后可能还会面向音频、视频和文本等模态推出类似的工具。谷歌声明称:“虽然这项技术并不完美,但我们的内部测试表明,它对许多常见的图像处理都是准确的。”该公司表示,目前SynthID只能在谷歌云平台上使用,主要针对使用VertexAI平台和Imagen图像生成器的客户,但SynthID技术将继续发展下去,并可能扩展到谷歌其他产品或第三方产品。谷歌DeepMind首席执行官DemisHassabis表示,SynthID是为了解决深度伪造等问题而开发的,在2024年美国即将举行大选的背景下,建立人工智能图像识别系统是非常重要的。随着深度伪造和编辑过的图像、视频变得越来越逼真,科技公司正在争先恐后地寻找一种可靠的方式来识别和标记被操纵的内容。在上个月底,美国白宫发布公告称,已与大型科技公司达成协议,为人工智能的开发设置更多防护措施,包括开发水印系统等,来控制误导信息的传播和其他风险。白宫表示,亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI七家主要人工智能公司做出自愿承诺,以公众安全、系统网络安全和获取社会信任作为人工智能开发的三大原则。在SynthID发布之前,Truepic和RealityDefender等公司也在试图寻找解决方案,这也说明了这项工作的潜在风险和必要性。OpenAI公司今年早些时候推出了一个工具,旨在弄清文本是人类还是计算机写的。但该公司表示,他们检测人工智能生成的文字的能力是“不完美的”,需要继续进行优化。...PC版:https://www.cnbeta.com.tw/articles/soft/1380561.htm手机版:https://m.cnbeta.com.tw/view/1380561.htm

封面图片

AI狂飙70年背后原因大揭秘 4张图揭露算法进化之谜

AI狂飙70年背后原因大揭秘4张图揭露算法进化之谜就在上周,美国参议院司法委员会开展了关于监管AI的听证会。在会上,著名AI初创公司Anthropic的CEODarioAmodei表示说:了解AI最重要的一件事,就是知道它的发展速度有多快。最近,《时代周刊》就发了一篇文章,用四张图告诉我们,AI的发展速度为什么不会放缓。人类正在被AI超越如今,AI在许多任务中超越了人类,人类在新任务中被超越的速度也在增加。下图是SOTA模型在基准测试上相对于人类的表现。测试的能力分别是手写识别(MNIST)、语音识别(Switchboard)、图像识别(ImageNet)、阅读理解(SQuAD1.1&SQuAD2.0)、语言理解(GLUE)、常识完成(HellaSwag)、小学数学(GSK8k)、代码生成(HumanEval)。人类的表现被设定为100%人们通常会认为,科学和技术进步在根本上是不可预测的,驱动它们的是一种在事后才变得更清晰的洞察力。但我们可以预见,AI系统的进步是由三个输入(计算、数据和算法)的进步推动的。过去70年的大部分进步,都是研究人员使用更大的算力训练AI系统的结果。系统被提供了更多数据,或者存在更强的算法,有效地减少了获得相同结果所需的计算或数据量。只要了解这三个因素在过去是如何推动了人工智能的进步,我们就会理解为什么大多数AI从业者预计AI的进展不会放缓。计算量的增加第一个人工神经网络PerceptronMarkI开发于1957年,它可以分辨一张卡片的标记是在左侧还是右侧。拥有1000个人工神经元的MarkI,训练一次大概需要7x10^5次操作。而70多年后OpenAI发布的大语言模型GPT-4,训练一次大概需要21x10^24次操作。计算量的增加,不仅让AI系统可以从更多的数据中学到更多的示例,而且还可以更详细地对变量之间的关系进行建模,从而得出更准确、更细致的结论。自1965年以来,摩尔定律(集成电路中的晶体管数量大约每两年翻一番)意味着算力的价格一直在稳步下降。不过,研究机构Epoch的主任JaimeSevilla表示,这时的研究人员更专注于开发构建AI系统的新技术,而不是关注使用多少计算来训练这些系统。然而,情况在2010年左右发生了变化——研究人员发现‘训练模型越大,表现效果越好’。从那时起,他们便开始花费越来越多的资金,来训练规模更大的模型。训练AI系统需要昂贵的专用芯片,开发者要么构建自己的计算基础设施,要么向云计算服务商付费,访问他们的基础设施。随着这一支出的不断增长,再加上摩尔定律带来的成本下降,AI模型也能够在越来越强大的算力上进行训练。据OpenAICEOSamAltman透露,GPT-4的训练成本超过了1亿美元。作为业界的两个顶流,OpenAI和Anthropic已经分别从投资者那里筹集了数十亿美元,用于支付训练AI系统的计算费用,并各自与财力雄厚的科技巨头(微软、谷歌)建立了合作伙伴关系。自1950年以来,用于训练AI系统的计算量一直在增加;到2010年,增长率也增加了数据量的增长AI系统的工作原理是,构建训练数据中变量之间的关系模型。无论是单词‘home’与单词‘run’相邻的可能性,还是基因序列与蛋白质折叠之间的模式,即蛋白质以其三维形态取得功能的过程。一般来说,数据越多AI系统就有越多信息来建立数据中变量之间准确的关系模型,从而提高性能。例如,一个被提供更多文本的语言模型将拥有更多以‘run’跟随‘home’出现的句子示例。因为在描述棒球比赛或强调成功的句子中,这种词序更为常见。关于PerceptronMarkI的原始研究论文指出,它仅使用了六个数据点进行训练。相比之下,由Meta在2023年发布的大语言模型LLaMA,则使用了约10亿个数据点进行训练——比PerceptronMarkI增加了超过1.6亿倍。其中,这些数据包括,67%的CommonCrawl数据,4.5%的GitHub,以及4.5%的维基百科。在过去的70年中,用于训练AI模型的数据量急剧增加训练数据大小是指用于训练AI模型的数据量,表示可供模型学习的示例数。每个领域都有一个特定的数据点输入单元,例如用于训练视觉模型的图像、用于语言模型的单词,和用于游戏模型的时间步长。这意味着系统只能在同一领域内进行比较。算法的进步算法是定义要执行的操作序列的规则或指令集,它决定了AI系统如何准确地利用算力来建模给定的数据之间的关系。除了使用越来越多的算力在更多数据上训练AI之外,研究人员还在寻找在寻找如何用更少的资源获得更多的效益。Epoch的研究发现,‘每九个月,更好的算法的引入,相当于让计算预算翻番。’训练模型的帕累托边界,以实现知名模型随时间推移的性能而算法进步也就是意味着,模型可以凭借着更少的计算和数据,达到相同的性能水平。下图是在六个不同年份中,在图像识别测试中达到80.9%的准确度所需的计算量和数据点数。对于在1万亿个数据点上训练的模型,2021年训练的模型所需的计算量比2012年训练的模型少~16,500倍。在图像识别测试中,达到80.9%准确率所需的计算量和数据量调查涉及的是ImageNet基准测试上的ResNeXt-101计算机视觉系统,计算以FLOP为单位,数据以训练集中的图像数量来衡量。AI的下一个阶段根据Sevilla的预测,研究人员用于训练系统的计算量很可能在一段时间内继续以目前的加速度增长,企业在训练AI系统上花费的资金也会增加,而随着计算成本的持续下降,效率也会提高。直到个时刻,继续增加计算量只能略微提高性能为止。在此之后,计算量将继续增加,但速度会放慢。而这完全是因为摩尔定律导致计算成本下降。目前,AI系统(如LLaMA)所使用的数据来自互联网。在以往,能输入AI系统多少数据量,主要取决于有多少算力。而最近训练AI系统所需的数据量的爆炸性增长,已经超过了互联网上新文本数据的生产速度。因此,Epoch预测,研究人员将在2026年用尽高质量的语言数据。不过,开发AI系统的人对这个问题似乎不太担心。在3月份参加LunarSociety的播客节目时,OpenAI的首席科学家IlyaSutskever表示:‘我们的数据情况还不错。还有很多可用的数据。’在7月份参加HardFork播客节目时,DarioAmodei估计:‘在数据不足的情况下,这种扩展可能有10%的几率会受到影响。’Sevilla也相信,数据的不足并不会阻止AI的进一步发展,例如找到使用低质量语言数据的方法。因为与计算不同,数据不足以前并没有成为AI发展的瓶颈。他预计,在创新方面,研究人员将很可能会发现很多简单的方法来解决这个问题。到目前为止,算法的大部分改进,都源于如何更高效地利用算力这一目标。Epoch发现,过去超过四分之三的算法进步,都是被用来弥补计算的不足。未来,随着数据成为AI训练发展的瓶颈,可能会有更多的算法改进,被用来弥补数据上的不足。综合以上三个方面,包括Sevilla在内的专家们预计,AI进展将在未来几年内继续以惊人的速度进行。计算量将继续增加,因为公司投入更多资金,底层技术也变得更加便宜。互联网上剩余有用的数据将被用于训练AI模型,研究人员将继续找到训练和运行AI系统的更高效方法,从而更好地利用算力和数据。而AI在这些十年的发展趋势,也将继续延续下去。当然,这种趋势也让很多AI专家感到担忧。在参议院委员会听证会上,AnthropicCEOAmodei提出,如果AI再继续进步下去,两到三年内,普通人都可以获得即使是专家也无法获得的科学知识了。这可能造成的网络安全、核技术、化学、生物学等领域造成的严重破坏和滥用,谁都无法想象。...PC版:https://www.cnbeta.com.tw/articles/soft/1379237.htm手机版:https://m.cnbeta.com.tw/view/1379237.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人