“计算机视觉女神”图像为何被IEEE期刊封杀?

“计算机视觉女神”图像为何被IEEE期刊封杀?△Lenna图也就是说,之后委员会或审稿人会特地留意论文中是否有这张图,如果有的话,会要求作者用替换图片。“Lenna图”的时代彻底结束了?要知道,这张图曾经的火爆程度belike:“计算机视觉女神”Lenna图最初是登在1972年11月期的《花花公子》(Playboy)杂志上的一张裸体插图,由摄影师DwightHooker拍摄,图中主体是瑞典模特LenaForsén。当时,为了方便英语读者读准瑞典语“Lena”的发音,《花花公子》使用了“Lenna”这一名字。Lenna成为高分辨率彩色图像处理研究标准图的历史,在2001年5月的IEEEComSoc通讯文章中被讲述:1973年的六七月份,时任南加州大学电气工程助理教授的AlexanderSawchuk及其团队,包括一名研究生和SIPI实验室管理人,正急切地寻找一张适合会议论文使用的高质量图片。他们的目标是找到一张既有光泽又能展现出良好动态范围的图像,而且最好是一张人脸图片。恰巧这时有人带着一本最新版的《花花公子》杂志走了进来。里面的Lenna图,被研究人员选中。他们将插图放到Muirhead有线传真扫描仪的光鼓上进行扫描。Muirhead的分辨率为固定的100LPI,而研究人员希望得到一幅512x512的图像,所以他们将扫描范围定在上部的5.12英寸,这样恰好裁剪到人物的肩膀位置,去除了裸体的部分。由此,一张512x512的Lenna测试图就诞生了。这张图在上世纪七八十年代的传播范围有限,最初仅是在美国各高校实验室之间流行。但到了1991年7月,Lenna图与另一张流行的测试图Peppers一起出现在计算机视觉领域的《OpticalEngineering》杂志封面上,引起了大家的广泛注意。Lenna图备受喜欢的原因大概有这么几点。首先从技术上来讲,Lenna图有丰富的细节、明暗对比,同时也有平滑的过渡区域,而这很考验图像压缩算法的能力。众所周知,数字图像就是一个个像素点排列而成。而在压缩的时候,这些像素点都会被转化成频率信号。像素点之间差异大的区域,通常也就是细节丰富的区域,转化后对应高频信号,比较难处理;反过来像素点之间差异小的平滑过渡区域,就对应低频信号,处理起来也相对简单。一个好的压缩算法,高频和低频信号都得处理好。这两种信号,Lenna都有,分配比例还很恰当。其次,Lenna是一张漂亮小姐姐的照片,懂得都懂。但除此之外,还有一个更重要的原因:人眼对人脸非常敏感。你可能认不出两只二哈的脸有什么区别,但一个人的表情即使只有一丢丢变化,你都能一眼发觉。对图像压缩来说,相较于其他图像,人会更容易发觉人像在压缩前后的差异,所以也就更容易比较不同算法的好坏。正是由于以上种种优点,Lenna很快成了图像处理的标准测试图片。根据国外一个网站统计,91年后Lenna在互联网上的出现次数开始猛长。到了1996年,业界顶级期刊IEEE图像处理汇刊里,竟然有接近三分之一的文章都用到了Lenna。光在1999年的一期《IEEE图像处理汇刊》中,Lenna就被用于三篇独立研究中,21世纪初它还出现在了科学期刊中。由于Lenna在图像处理界被广泛接受,LenaForsén本人受邀成为了1997年成像科学与技术学会(IS&T)第50届年会的嘉宾。2015年,LenaForsén也是IEEEICIP2015晚宴的嘉宾,主持了最佳论文奖颁奖仪式。Lenna图的消逝不过,随之而来的还有大伙儿对这张图的批评。最大问题,就在于这张照片来源于有“物化女性”之嫌争议的《花花公子》。1999年,在一篇关于计算机科学中男性占主导地位原因的论文中,应用数学家DianneP.O’Leary写道:“在图像处理中使用的暗示性图片……传达了讲师只迎合男性的信息。例如,令人惊讶的是,Lenna图像图像至今仍作为示例在课程中使用,并作为测试图片发表于学术期刊。”2015年,一个美国高中生在《华盛顿邮报》上写了一篇文章,文中叙述了自己作为一个女生,在计算机课上看到这张照片后感到不适,“我不理解,为什么一所先进的理工学校,在教学中会用一张花花公子的封面?”虽然这只是一篇高中生写的文章,但却在学界引起了巨大的震动。由于种种争议,2018年,NatureNanotechnology杂志宣布禁止在论文提交中使用Lenna图像。至于LenaForsén,2019年《连线》一篇文章中写道,Forsén并没有对这张图片心怀怨恨,但她对当初没有为此获得更好的报酬感到遗憾,曾表示“我真的为那张照片感到骄傲”。△LenaForsén重拍当年照片但2019年,Creatable和CodeLikeaGirl制作了一部名为“LosingLena”的纪录片。LenaForsén表示:我很久以前就退出了模特界,现在也该退出科技界了。我们可以在今天做出一个简单的改变,为明天创造一个持久的改变。让我们承诺失去我。现在看来,这一承诺正在兑现。除了上面所讲的争议,有网友认为Lenna图在当今这个时代的意义也跟以往大有不同了。不同于以往,当今几乎人人都可轻易使用一台好的相机。大多数精力应投入于创造合适的光照条件和挑选满足特定标准的拍摄对象。此外,一个精心设计的计算机生成图像也能满足需求。参考链接:https://arstechnica.com/information-technology/2024/03/playboy-image-from-1972-gets-ban-from-ieee-computer-journals/...PC版:https://www.cnbeta.com.tw/articles/soft/1425771.htm手机版:https://m.cnbeta.com.tw/view/1425771.htm

相关推荐

封面图片

Lenna经典图片被禁止在IEEE计算机期刊上使用

Lenna经典图片被禁止在IEEE计算机期刊上使用IEEE计算机协会向会员宣布,自4月1日起,该协会将不再接受包含经常使用的1972年《花花公子》模特莉娜-福森(LenaForsén)形象的论文。这张照片以Forsén的脸和裸露的肩膀为特色,她戴着一顶带有紫色羽毛的帽子,由于对比度高、细节丰富,在数字图像技术发展的初期,这张照片是测试图像处理系统的理想选择。由于诸多针对此照片的批评,《自然》杂志在2018年禁止使用Forsén的形象。多年以前Forsén并不介意自己的形象被用于计算机科学领域,但近些年其显然改变了主意,IEEE表示尊重LenaForsén的意愿。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

IEEE 公告:4 月起不再接收包含 Lena 图像的论文

IEEE公告:4月起不再接收包含Lena图像的论文Lenna图最初是登在1972年11月期的《花花公子》(Playboy)杂志上的一张裸体插图。首先从技术上来讲,Lenna图有丰富的细节、明暗对比,同时也有平滑的过渡区域,而这很考验图像压缩算法的能力。其次人眼对人脸非常敏感,会更容易发觉人像在压缩前后的差异。正是由于以上种种优点,Lenna很快成了图像处理的标准测试图片。不过,随之而来的还有大伙儿对这张图的批评,最大问题,就在于这张照片来源于有“物化女性”之嫌争议的《花花公子》。IEEE本着坚持促进开放、包容及公平文化的承诺,同时尊重照片主体LenaForsén本人的意愿,决定不再接收包含Lenna图像的论文。https://www.qbitai.com/2024/04/132349.html

封面图片

IEEE 将禁止使用 Lenna 图像

IEEE将禁止使用Lenna图像IEEEComputerSociety宣布从4月1日起不再接受包含著名花花公子女郎Lenna图的论文,该图片是1972年11月期的《花花公子》封面。被截取的一幅512x512像素图像被称为Lenna图,自1973年以来被广泛用于图像处理研究,成为事实上的行业标准,但也引发了物化女性的批评。IEEE以多元化和文化包容的理由,以及LenaForsen本人的意愿宣布禁止Lenna图。Lenna图最早是因为研究者正匆忙寻找一副高质量的图片用于大学的会议论文,正好有人带着最近出版的一期《花花公子》过来。Lenna图包含了其脸部和裸露的肩膀,她还戴着一顶嵌有紫羽毛的帽子,由于其高对比度和多变的细节,被认为是早期测试图像处理系统的理想选择。——

封面图片

Meta新模型“分割一切”:抠图完成究极进化 计算机视觉迎来GPT-3时刻

Meta新模型“分割一切”:抠图完成究极进化计算机视觉迎来GPT-3时刻当最近巨头们正在AIGC领域上激战之时,Meta默默的在人工智能的另一个重要分支搞起了大动作——计算机视觉。本周三,Meta研究部门发布了一篇名为其“SegmentAnything(分割一切)”的论文,文中介绍了一个全新的SegmentAnythingModel(即SAM),可以用于识别图像和视频中的物体,甚至是人工智能从未被训练过的物品。所谓的“分割”,用最通俗的话来说就是抠图。但Meta此次所展示的人工智能抠图能力,可能远比你想象的要更加强大,甚至在人工智能领域被认为是计算机视觉的“GPT-3时刻”。01.图片、视频一键识别,哪里喜欢点哪里虽然智能抠图这件事并不算是个新鲜事物,但如果你尝试过用P图软件来抠图换背景,就会发现想把照片抠得快、抠得准、抠得自然其实是一件费时又费力的事。从技术的角度来说,数字图像的“抠图”一直就是计算机视觉领域的一项经典且复杂的任务,其中关键的难点在于识别的时间和精准度。而Meta此次发布的SAM可以说给出了近乎完美的解决方案。对于任何一张照片,Meta都可以快速识别照片中的所有物体,并智能地将其分割成不同的形状和板块。你可以点击图中的任意物品进行单独处理。此次SAM的一大突破还在于即使是在训练过程中从未遇到过的物品和形状,人工智能也能将其准确识别并分割出来。而除了简单的识别图片中的物品之外,此次SAM还支持用户使用各种交互性的方式来分离出想要的物体。比如你可以通过将鼠标悬浮在该物体之上,就能自动定位出物体的轮廓。即使是颜色非常相近或者有连人眼都很难快速分辨出的倒影的图片之中,SAM都能非常准确的找出轮廓边线。再比如,你也可以直接通过输入文字查询,AI就可以帮你找到并标记出这个图片中的你想找的这个文字对象。不仅仅是静态图片,对于视频中的物体,SAM也能准确识别并且还能快速标记出物品的种类、名字、大小,并自动用ID给这些物品进行记录和分类。Meta表示未来这一技术会跟AR/AR头显进行广泛结合。这听上去是不是确实有点钢铁侠头盔的味道了?看到这里是不是已经觉得很厉害了?别着急,Meta这次还有大招。除了能把物品从图像中精准地分离出来,SAM还能支持对这个物品的编辑。也就是说,你可以把这个衣服从这个模特身上换下来,或许再换个颜色改个大小,放在另一模特身上。你也可以把你从静态图片中“抠”出来的椅子,进行3D渲染和编辑,让它从一个图片立刻动起来,接着你还可以改变形状或者进行更多的创意操作。02.计算机视觉领域的GPT-3时刻,打开更大应用想象空间Meta发布了SAM之后,立刻吸引了大量关注,甚至在很多人工智能业内人士的眼中,SAM的出现可以说是计算机视觉领域的GPT-3时刻。英伟达人工智能科学家JimFan表示此次SAM最大的一点突破是它已经基本能够理解“物品”的一般概念,即使对于未知对象、不熟悉的场景(例如水下和显微镜里的细胞)它都能比较准确的理解。因此他表示相信SAM的出现会是在计算机视觉领域里的GPT-3时刻。不仅是Jim有这样的观点,一些AI研究专家甚至也表示,SAM之于计算机视觉,就像是GPT之于大语言模型。而就在SAM昨天发布之后,很多人也在第一时间上手进行了实测。硅星人浏览了一圈,发现不仅基本满屏都是惊叹,一些网友还结合自身的工作领域打开了SAM更广的应用想象空间。有人将包含了众多复杂元素的图片上传之后,SAM识别起来毫无压力,无论是近景还是远景,大量的复杂细微的元素都可以基本准确找出。有自然科学研究者将SAM和卫星图像结合在了一起,表示SAM能够很好的识别和找到他标记的风貌类型。有神经外科影像学的专家将SAM用到了一个脊髓血管病的病例文件之中,认为SAM在帮助判断和分析病情上有很大帮助。有生物学家输入了一张显微镜下的组织图片,即使图中形状特征毫无规律,但凭借着Zero-shot技术,SAM也能够自动识别多细胞结构中的腺体、导管、动脉等。该生物学家认为SAM的产出结果已经非常接近完美,未来能够节省大量手动注释的时间。还有有骑行爱好者将地图和SAM结合起来,认为能够帮助自己未来更快更高效地给地图做标记。03.基于1100万张照片训练,模型和数据全部开源总体来看,跟过去的一些计算机视觉模型相比,SAM在几个方面有着显著的提升和不同。首先,SAM开创性地跟Prompt结合了起来。它可以接受各种输入提示,例如点击、框选或指定想要分割的对象,这种输入并不是一次性指令,你可以不停地对图像下达不同的指令达到最终的编辑效果,这也意味着此前在自然语言处理的Prompt模式也开始被应用在了计算机视觉领域。此外,SAM基于1100万张图像和11亿个掩码的海量数据集上进行训练,这是迄今为止最大的分割数据集。该数据集涵盖了广泛的对象和类别,例如动物、植物、车辆、家具、食物等,这些图像的分辨率达到了1500×2250pixels,平均每张图像约有100个掩码。此次SAM采用了轻量级掩码解码器,可以在每次提示仅几毫秒内在网络浏览器中运行。SAM在各种分割任务上具有很强的零样本性能。零样本意味着SAM可以在不对特定任务或领域进行任何额外训练或微调的情况下分割对象。例如,SAM可以在没有任何先验知识或监督的情况下分割人脸、手、头发、衣服和配饰。SAM还可以以不同的方式分割对象,例如红外图像或深度图等。SAM的训练数据集是OpenImageV5的6倍Meta表示,目前公司内部已经开始使用SAM相关技术,用于在Facbook、Instagram等社交平台上照片的标记、内容审核和内容推荐等。而之后,生成人工智能作为"创意辅助工具"也将被作为今年的重点优先事项被纳入到Meta更多的应用程序中。此次,可能最让很多业内人士惊喜的地方在于,无论是SAM模型还是巨大的训练数据集都是开源的!也就是说,目前任何人都可以在非商用许可下载和使用SAM及数据。Meta表示,此举是希望进一步加速整个行业对图像分割以及更通用图像与视频理解的研究。‘Meta也预计,随着SAM的演进和发展,该技术可能会成为未来AR/VR、内容创作、设计更多领域的强大的辅助工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1353479.htm手机版:https://m.cnbeta.com.tw/view/1353479.htm

封面图片

Meta最新的开源项目DINOv2:具有自我监督学习功能的最先进的计算机视觉模型

Meta最新的开源项目DINOv2:具有自我监督学习功能的最先进的计算机视觉模型这款全新的自监督视觉Transformer模型可以作为几乎所有计算机视觉任务的主干模型。无需微调。•无需大量标注数据,即可训练计算机视觉模型。•多功能主干:图像分类、分割、图像检索和深度估计。•直接从图像中学习特征,而无需依赖文本描述,这有助于更好地理解局部信息。•可以从任何图像集合中学习。•DINOv2的预训练版本已经上线,并在众多任务中与CLIP和OpenCLIP竞争。Meta继SAM(SegmentAnything)网页链接之后又一计算机视觉领域的重量级开源项目。

封面图片

计算机视觉应用基础 - 带源码课件

名称:计算机视觉应用基础-带源码课件描述:溯本清源,把握问题的本质,理解经典方法的思想精髓,举一反三。链接:https://www.alipan.com/s/5JMmoMsHFy8大小:NG标签:#学习#知识#课程#资源来自:雷锋版权:频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人