OPENAI称已终止了秘密影响行动有关的账户

OPENAI称已终止了秘密影响行动有关的账户 人工智能公司 OpenAI 周四表示,该公司发现并破坏了五个利用其生成式人工智能技术,以欺骗方式操纵世界各地公众舆论、影响地缘政治的线上行动。这些行动源自俄罗斯、中国、伊朗和以色列。使用 OpenAI 的技术来生成社交媒体帖子、翻译和编辑文章、撰写标题和调试计算机程序,通常是为了赢得对政治活动的支持,或者在地缘政治冲突中左右公众舆论。 、、

相关推荐

封面图片

OpenAI 删除中国、朝用户账户,防范AI滥用

OpenAI 删除中国、朝用户账户,防范AI滥用 ChatGPT 制造商 OpenAI 周五(21日)表示,该公司已经删除了来自中国和朝鲜的用户账户,这家人工智能公司认为这些用户正在将其技术用于恶意目的,包括监视和舆论影响行动。 OpenAI 在一份报告中表示,这些活动是专制政权试图利用人工智能对付美国及其本国人民的方式,并补充说它使用人工智能工具来检测这些操作。 些活动可能是专制政权试图利用AI对付美国及其人民。具体案例中,有用户利用ChatGPT生成诋毁美国的西班牙语新闻,并以中国公司名义发表;还有与朝鲜可能相关的行为者利用AI欺诈性求职; 另有一组账户涉嫌在社交媒体上翻译和生成与柬埔寨金融欺诈相关的评论。 美国政府对此表示担忧。

封面图片

微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂

微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂 了解更多: 展示了几个例子,表明中国的行为者在美国的社交网络上发布虚假信息,通常是用人工智能生成的内容。其中一些帖子试图推送有关重大新闻事件的虚假阴谋论。例如,2023 年 8 月夏威夷州毛伊岛的大火就是一个名为"风暴 1376"(Storm-1376)的群组的攻击目标,该群组发布虚假信息,声称大火是由美国政府的"气象武器"造成的。该组织还发布了关于 2023 年 11 月肯塔基州火车出轨原因的虚假帖子。Storm-1376被判定为一个来自中国的组织,负责人工智能制作内容,利用虚假信息影响 2024 年 1 月的台湾选举。微软称,这是第一次有民族国家支持的行为者使用人工智能生成的内容试图影响外国选举结果。虽然微软表示,这群行为者利用这些社交网络帖子影响包括美国在内的世界各地即将举行的选举的努力目前可能收效甚微,但"中国在制作谜因、视频和音频方面越来越多的尝试可能会继续下去而且可能会被证明更有效"。MTAC 的新报告还显示,除其他行动外,以朝鲜为基地的网络行为者加大了窃取加密货币资金的力度。其中一个名为"Emerald Sleet"的组织被认定使用了大型人工智能语言模型来帮助改进他们的行动。不过,微软表示,在与其合作伙伴 OpenAI 的共同努力下,微软关闭了被该组织使用的账户和资产。 ... PC版: 手机版:

封面图片

OpenAI 表示已开始训练新的旗舰人工智能模型

OpenAI 表示已开始训练新的旗舰人工智能模型 OpenAI 周二表示,它已开始训练一种新的旗舰人工智能模型,该模型将取代驱动其流行在线聊天机器人 ChatGPT 的 GPT-4 技术。 OpenAI 在一篇博客文章中表示,希望新模型能够带来“更高水平的能力”,因为该公司致力于打造“通用人工智能”,即能够做任何人类大脑能做的事情的机器。新模型将成为人工智能产品的引擎,包括聊天机器人、类似于苹果 Siri 的数字助理、搜索引擎和图像生成器。 ,

封面图片

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型

人工智能政策小组称,FTC 应阻止 OpenAI 推出新的 GPT 模型 人工智能和数字政策中心(Center for AI and Digital Policy,简称 CAIDP)日前提出投诉,要求美国联邦贸易委员会(Federal Trade Commission,FTC)调查 OpenAI 违反消费者保护规则的行为,认为 OpenAI 推出的人工智能文本生成工具 “有偏见,有欺骗性,并对公共安全构成风险”。CAIDP 认为,GPT-4 越过了伤害消费者的界限,应该引起监管行动。在投诉中,CAIDP 要求 FTC 停止任何进一步的 GPT 模式的商业部署,并要求在未来推出任何模式之前对其进行独立评估。FTC 已经表达了对人工智能工具的监管兴趣。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Midjourney拟禁生成特朗普拜登AI图像

Midjourney拟禁生成特朗普拜登AI图像 人工智能(AI)图像生成技术普及,可轻易大量制造出逼真的政治人物照片,或改变政治舆论风向,为免AI假照片影响美国大选,人工智能图像企业Midjourney考虑禁止用户生成美国总统拜登(Joe Biden)及特朗普(Donald Trump)的图像。 来源:格隆汇

封面图片

Deepfake GenAI 更有可能被滥用来影响投票而不是窃取钱财

Deepfake GenAI 更有可能被滥用来影响投票而不是窃取钱财 Google DeepMind 的一项新研究表明,人工智能生成政治内容的可能性远远大于网络攻击。DeepMind 的结论基于对 2023 年 1 月至 2024 年 3 月期间报告的 GenAI 滥用案例的分析。事实上,去年一段关于乔-拜登(Joe Biden)的视频曾在网络上疯传,尽管它被宣布为深度伪造内容。随着政治竞选季的升温,我们很可能会看到更多这种形式的操纵案例。研究发现,塑造公众舆论是利用 GenAI 能力的最常见目标,占所有报告案例的 27%。恶意行为者可以采用多种策略来歪曲公众对政治现实的看法,包括冒充公众人物、创建伪造媒体以及使用合成数字角色来模拟支持或反对某项事业的草根支持也就是所谓的"stroturfing"。不法分子可以轻而易举地篡改合法视频,让选举候选人显得明显衰老,不适合担任领导职务。熟练的人工智能艺术家可以从头开始编造一段视频,将对手置于不利的位置,但这样做更加复杂。报告指出,政治候选人及其支持者不公开地使用人工智能生成的媒体来塑造积极的公众形象,这是一种新出现的趋势,尽管并不那么普遍。其中一个例子是费城一名警长利用人工智能生成技术为其竞选网站编造正面新闻。政界人士也使用生成式人工智能进行超目标政治宣传,例如高保真地模拟政治家的声音,用他们的母语与选民沟通,或者部署人工智能驱动的竞选抢答工具,就关键问题与选民进行有针对性的对话。这些策略可能听起来似曾相识,因为早在人工智能出现之前,政治竞选活动就已经使用过这些策略了。不同的是,最近人工智能模型的快速发展为这些古老的策略赋予了新的力量,并使其使用更加民主化。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人