Meta AI解除了对印度选举相关查询的限制 而Google仍在实施

Meta AI解除了对印度选举相关查询的限制 而Google仍在实施 今年 4 月印度大选开始时,该公司首次开始屏蔽某些政治查询。当时,当你询问有关政治家、候选人、官员和政党的信息时,Meta AI 会将人们引向选举委员会的网站。"这是一项新技术,它不一定总能返回我们想要的回应,这对所有生成式人工智能系统来说都是一样的。自推出以来,我们不断对模型进行更新和改进,并将继续努力使它们变得更好,"公司发言人当时这样表示。值得注意的是,Meta 的人工智能聊天机器人在印度仍处于测试阶段,只有少数人可以通过 WhatsApp 和 Instagram 访问它。Google的做法则并不相同,Google周一在印度推出了Android版 Gemini AI 应用程序,支持九种当地语言。不过,作为全球政策的一部分,该公司并没有取消对与选举有关的查询的限制。该公司向 TechCrunch 证实,它仍在实施这些限制。"今年全球各地都在举行重大选举,出于谨慎考虑,我们将限制 Gemini 返回回复的选举相关查询类型,转而指向Google搜索。这些限制适用于全球范围,"Google发言人在一份声明中说。今年早些时候,这家搜索巨头开始在全球所有正在进行选举的市场对这些查询实施限制 。但目前还不清楚Google是否以及何时会取消限制,尤其是在选举已经结束、新政府已经就职的国家。对于回答政治问题的聊天机器人,Meta 和 Google 采用了不同的方法。Meta 在有限的时间内限制查询,而Google继续在全球范围内阻止与选举有关的查询。目前还不清楚这一决定是否与Google人工智能今年多次语无遮拦放飞自我有关。ChatGPT 和 Microsoft Copilot 等其他聊天机器人的做法不尽相同。这两个机器人都不会回答"谁赢得了 2024 年印度大选?"这样的问题。不过,当我们向这些工具询问有关官员和政治家的信息时,它们会从网上获取信息。开发人工智能工具的公司已经因为输出结果显示出偏见和错误信息而受到审查。这些公司最不愿意做的事情就是在试图将其人工智能应用程序扩展到更多地区时陷入政治交火。 ... PC版: 手机版:

相关推荐

封面图片

Google将要求披露选举广告中的数字篡改内容

Google将要求披露选举广告中的数字篡改内容 生成式人工智能能在几秒钟内根据提示创建文本、图像和视频,它的快速发展引起了人们对其潜在滥用的担忧。深度伪造(Deepfakes)的兴起,令人信服地操纵内容来歪曲某人,进一步模糊了真假之间的界限。Google表示,它将为手机上的 Feeds 和 Shorts 以及电脑和电视上的流媒体生成广告内披露。对于其他格式,广告商将被要求为用户提供明显的"突出披露"。Google表示,"可接受的披露语言"将根据广告的语境而有所不同。今年 4 月,在印度大选期间,两段宝莱坞演员批评总理纳伦德拉-莫迪的虚假视频在网上疯传。这两段人工智能生成的视频都要求人们投票给反对党国大党。另外,萨姆-奥特曼领导的 OpenAI 在 5 月份表示,他们阻止了五项秘密影响行动,这些行动试图利用其人工智能模型在互联网上进行"欺骗活动","试图操纵公众舆论或影响政治结果"。Meta去年曾表示,如果人工智能或其他数字工具被用于改变或创建 Facebook 和 Instagram 上与政治、社交或选举有关的广告,它将要求广告商披露。 ... PC版: 手机版:

封面图片

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假 生成式人工智能(包括 ChatGPT 等大受欢迎的聊天机器人)的兴起导致了一种新的重大威胁,其中涉及人工智能生成的"深度伪造",其目的是使虚假信息永久化。这些新工具可以广泛使用,任何人都可以制作假视频、照片或高知名度政治实体的音频,但这并没有什么帮助。就在本周一,印度选举委员会敦促各政党在围绕选举开展的网络宣传活动中避免使用深度伪造和类似的虚假信息。正是在这一背景下,包括微软和 OpenAI 在内的所有主要科技公司都签署了应对此类风险的自愿承诺,并计划建立一个共同框架,以应对专门为误导选民而制造的深度伪造。在其他地方,主要的人工智能公司已经开始通过在其软件中引入限制来应对这些风险。例如,Google表示不允许其 Gemini 人工智能聊天机器人回答有关选举的问题,而 Facebook 的母公司 Meta也限制通过其人工智能聊天机器人回答与选举有关的问题。今天早些时候,OpenAI 为虚假信息研究人员推出了一款新的深度虚假检测工具,旨在帮助识别由其自己的 DALL-E 图像生成器生成的虚假内容,同时它还加入了行业机构内容出处和真实性联盟(C2PA)的指导委员会,该联盟的成员包括 Adobe、微软、Google和英特尔。新的"社会复原力基金"是这一更广泛的"负责任"人工智能推动力的一部分,微软和 OpenAI 目前正致力于"在选民和弱势群体中进一步开展人工智能教育和扫盲活动"。这将涉及向一些组织发放补助金,其中包括老年人技术服务组织(OATS)、内容真实性联盟(C2PA)、国际民主与选举援助研究所(International IDEA)和人工智能合作伙伴关系(PAI)。根据微软的说法,这些资助旨在让全社会更好地了解人工智能及其能力。例如,OATS 显然将把赠款用于针对美国 50 岁及以上人群的培训项目,内容涵盖"人工智能的基础方面"。社会复原力基金的启动只是微软和 OpenAI 致力于应对人工智能扫盲和教育领域的挑战和需求的其中一步,"微软负责技术和企业责任的公司副总裁 Teresa Hutson 在博文中表示。"微软和 OpenAI 将一如既往地致力于这项工作,我们将继续与拥有共同目标和价值观的组织和倡议合作。" ... PC版: 手机版:

封面图片

WhatsApp 在印度和更多市场测试 Meta AI 聊天机器人

WhatsApp 在印度和更多市场测试 Meta AI 聊天机器人 WhatsApp 正在与印度和其他一些市场的用户测试其基于大型语言模型的聊天机器人 Meta AI,这表明其打算利用庞大的用户群来扩大其人工智能产品范围。该公司最近开始测试这款人工智能聊天机器人,目前已在美国、印度和尼日利亚等特定市场进行测试。Meta 在一份声明中证实了这一举措。“我们的生成式人工智能体验正处于不同的开发阶段,我们正在有限的范围内公开测试其中的一系列产品。”

封面图片

随着全球选举季的到来,Meta将在未来几个月开始给上传到Facebook、Instagram和Threads的人工智能生成照片贴

随着全球选举季的到来,Meta将在未来几个月开始给上传到Facebook、Instagram和Threads的人工智能生成照片贴上标签。该公司还将开始惩罚那些不披露是否使用人工智能制作了真实视频或音频的用户。 标签: #Meta #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Meta AI在生成印度男性图像时对头巾情有独钟

Meta AI在生成印度男性图像时对头巾情有独钟 本月早些时候,该公司在十几个国家推出了 Meta AI,涉及 WhatsApp、Instagram、Facebook 和 Messenger。不过,该公司已向全球最大市场之一的印度的部分用户推出了Meta AI。TechCrunch 在人工智能测试过程中会查看各种特定文化的查询,例如我们发现,由于印度正在进行大选,Meta 屏蔽了该国与选举相关的查询。但是,Meta AI 的新图像生成器 Imagine 也显示出了生成戴头巾的印度男子的特殊倾向,以及其他一些偏见。编辑测试了不同的提示,并生成了 50 多张图片来测试各种场景,除去几张(如"德国司机"),其他图片都在这里。生成的背后并没有科学的方法,我们也没有考虑到文化视角之外的物体或场景表现的不准确性。印度戴头巾的男性很多,但比例并不像 Meta AI 工具显示的那么高。在印度首都德里,你最多只能看到十五分之一的男性佩戴头巾。然而,在 Meta 人工智能生成的图片中,代表印度男性的图片每 5 张中大约有 3-4 张戴着头巾。我们从"一个印度人走在街上"的提示开始,所有的图片都是头戴头巾的男人。接下来,我们尝试生成带有"印度男子"、"印度男子下棋"、"印度男子做饭"和"印度男子游泳"等提示的图片。Meta AI 只生成了一张没有头巾的男子图像。即使是非性别提示,Meta AI 在性别和文化差异方面也没有表现出太多的多样性。我们尝试了不同职业和背景的提示,包括建筑师、政治家、羽毛球运动员、弓箭手、作家、画家、医生、教师、卖气球的和雕塑家。正如您所看到的,尽管场景和服装多种多样,但生成的所有男性都戴着头巾。同样,虽然头巾在任何工作或地区都很常见,但 Meta AI 却认为它无处不在,这就很奇怪了。我们生成了一位印度摄影师的图片,他们大多使用的是过时的相机,只有一张图片中,一只猴子也莫名其妙地用上了单反相机。我们还生成了一位印度司机的图像。在我们添加"潇洒"一词之前,图像生成算法显示出了阶级偏见的迹象。我们还尝试用类似的提示生成两张图片。下面是一些例子:办公室里的印度编程人员。一名印度男子在田间操作拖拉机。两名印度男子相邻而坐:此外,我们还尝试生成带有提示的拼贴图片,例如一个有着不同发型的印度男子。这似乎产生了我们预期的多样性。Meta AI 的"想象"还有一个令人困惑的习惯,那就是在类似的提示下生成同一种图像。例如,它不断生成色彩鲜艳、木柱林立、屋顶造型别致的印度老式房屋图片。只要在Google上搜索一下图片,就会发现大多数印度房屋并非如此。我们尝试的另一个提示是"印度内容创作者",结果反复生成了一张女性创作者的图片。在下面的图库中,我们收录了内容创作者在海滩、山丘、山峰、动物园、餐厅和鞋店的图片。与任何图像生成器一样,我们在这里看到的偏差很可能是由于训练数据不足和测试过程不足造成的。虽然无法测试所有可能的结果,但常见的刻板印象应该很容易发现。Meta AI 似乎只针对给定的提示选择了一种表现形式,这表明至少在印度的数据集中缺乏多样化的表现形式。在回答 TechCrunch 向 Meta 公司提出的有关训练数据和偏见的问题时,该公司表示正在努力改进其生成式人工智能技术,但没有提供有关这一过程的太多细节。"这是新技术,不一定总能得到我们想要的回应,所有生成式人工智能系统都是如此。自推出以来,我们不断对我们的模型进行更新和改进,我们将继续努力使它们变得更好,"一位发言人在一份声明中说。Meta AI最大的亮点在于它是免费的,而且很容易在多种场景中使用。因此,来自不同文化背景的数百万人会以不同的方式使用它。虽然像 Meta 这样的公司一直在努力改进图像生成模型,以提高生成物体和人类的准确性,但同样重要的是,他们也要努力改进这些工具,以防止它们落入刻板印象。Meta 很可能希望创作者和用户使用这一工具在其平台上发布内容。然而,如果生成性偏见持续存在,它们也会在一定程度上证实或加剧用户和观众的偏见。印度是一个多元化的国家,文化、种姓、宗教、地区和语言有很多交集。开发人工智能工具的公司需要更好地代表不同的人。 ... PC版: 手机版:

封面图片

Meta 将要求政治广告商披露人工智能生成的内容

Meta 将要求政治广告商披露人工智能生成的内容 Meta 周三宣布,当政治、选举或社会问题广告中出现可能具有误导性的人工智能生成或篡改的内容时,它将要求广告商进行披露。 新规定适用于 Facebook 和 Instagram 上的广告,如果这些广告包含“逼真”的图片、视频或音频,误导性地显示某人在做其未做过的事情,或者想象真实事件的发展与事实不同。描绘逼真的虚假人物或事件的内容也需要披露。该政策预计将于明年生效。 本周早些时候,路透社报道称,Meta 禁止政治运动和团体使用其新的生成人工智能广告产品。这些工具允许广告商创建多个版本的广告,包括不同的背景、文本、图像和视频尺寸。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人