ChatGPT类产品或干扰2024年大选?微软总裁:最担心“Deepfake”

ChatGPT类产品或干扰2024年大选?微软总裁:最担心“Deepfake”“我们必须解决深度造假的问题。我们需要采取措施,防止有人篡改合法内容,意图通过使用人工智能来欺骗或欺骗人们。”他说。近年来,专家们一直警告说,便宜而强大的人工智能工具将很快能让任何人创建逼真到足以欺骗普通人的虚假图像、视频和音频。这些工具可以在几秒钟内以最小的成本创建克隆的人类声音和超逼真的图像、视频和音频。这就难保有用心不良的人将其用于不正当的目的。数周以来,华盛顿的立法者一直在为通过哪些法律来控制人工智能而苦苦挣扎,尽管大大小小的公司都在竞相将越来越多用途的人工智能推向市场。史密斯则呼吁对最关键的人工智能形式进行许可,“有义务保护安全、物理安全、网络安全、国家安全”。上周,ChatGPT背后的初创公司OpenAI的首席执行官SamAltman在首次出席国会听证会时告诉参议院的一个小组,使用人工智能干扰选举的完整性是一个“值得关注的重要领域”,并补充说这需要监管。他还呼吁在人工智能方面进行全球合作,并鼓励安全合规。近段时间以来,AI对2024年竞选和选举的影响愈发令专家们感到不安。生成式人工智能不仅可以快速产生针对特定竞选邮件、短信或视频,而且还可以用于误导选民、冒充候选人并以前所未见的规模和速度破坏选举。此外,史密斯还在演讲和周四发表的一篇博客文章中指出,人们需要对人工智能造成的任何问题负责,他敦促立法者确保对人工智能用于控制电网、供水和其他关键基础设施的安全刹车,以便人类继续控制。美国国会正在考虑的一些提案将侧重于可能危及人类生命或生计的人工智能,比如医药和金融领域。其他人则在推动制定规则,以确保人工智能不被用于歧视或侵犯公民权利。...PC版:https://www.cnbeta.com.tw/articles/soft/1361747.htm手机版:https://m.cnbeta.com.tw/view/1361747.htm

相关推荐

封面图片

多家科技企业承诺打击滥用人工智能干扰选举

多家科技企业承诺打击滥用人工智能干扰选举全球多家科技企业16日在第60届慕尼黑安全会议(慕安会)上签署协议,承诺在2024年这个多国举行重要选举的年份打击旨在干扰选举的人工智能滥用行为。2024年被国际舆论称为“超级选举年”。据不完全统计,今年全球将有70多个国家或地区举行重要选举,覆盖超过全球半数人口。人工智能的负面影响被本届慕安会列为全球主要安全威胁之一。其中,用人工智能生成欺骗性内容干扰选举被认为是全球面临的重要挑战。

封面图片

微软副总裁参与起草 业内最新报告称ChatGPT或会暴露企业机密信息

微软副总裁参与起草业内最新报告称ChatGPT或会暴露企业机密信息本周,以色列网络安全公司Team8在一份最新报告中就表示,使用ChatGPT等生成式人工智能工具的公司,可能会将客户信息和商业机密置于危险之中。该报告指出,新型人工智能聊天机器人和协作工具的广泛推广普及,可能会令一些公司面临数据泄露和法律风险。许多人眼下已担心,黑客可能会利用人工智能聊天工具,来获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息,未来也有可能会被AI公司所利用。这份报告的发布方——Team8在全球网络安全领域享有盛名,这家以色列公司成立于2014年,由前以色列国防军精英部队“8200部队”的成员创立,专注于网络安全、数据分析和人工智能等领域。巴克莱、微软、沃尔玛和思科等多家全球巨头企业都与Team8有着合作和投资关系。多类风险不容小觑目前,包括微软和谷歌母公司Alphabet在内的大型科技公司,都在争相通过生成式AI技术改进聊天机器人和搜索引擎。他们利用从互联网上抓取的数据训练其AI模型,为用户的查询提供一站式服务。对此,Team8在报告表示,如果企业使用机密或私密数据来投喂这些工具,今后将很难删除相关信息。Team8写道:“使用AI聊天工具的企业,其敏感信息、知识产权、源代码、商业机密和其他数据,可能会通过用户直接输入或API等渠道被其他人获取。”Team8目前将这一风险标记为“高风险”。不过他们也表示,如果采取适当的防范措施,该风险将能降为“可控”。Team8在报告中还强调,目前对聊天机器人的查询尚不会被输入大型语言模型中来训练AI,这与最近关于这些信息有可能被他人看到的报道相悖。不过,该报告也指出,在训练未来版本的大语言模型时,未必不会采取这种实时接入的方式。该报告还标记了另外几项与整合生成式人工智能工具有关的“高风险”问题,并强调了信息正越来越多地面临通过第三方应用程序共享的威胁。目前,微软已在其必应搜索引擎和Office365工具中,嵌入了一些人工智能聊天机器人的功能。Team8报告表示,“目前在用户端,第三方应用正利用生成式人工智能的API,倘若他们遭到黑客攻击,就有可能丢失电子邮件和网络浏览器权限,攻击者还有可能冒充用户展开行动。”报告还罗列了一些AI聊天工具存在的“中风险”问题,例如:使用人工智能有可能加剧歧视、损害公司声誉或导致企业遭遇侵权诉讼等。多位权威人士为报告“背书”根据媒体看到的信息,微软公司副总裁AnnJohnson参与起草了这份报告。微软已经向ChatGPT的开发者OpenAI投资了数十亿美元。微软发言人表示,“微软鼓励就安全和人工智能领域不断发展的网络风险进行透明讨论。”此外,数十名美国公司的首席信息安全官也被列为这份报告的撰稿人。Team8的报告还得到了前美国国家安全局局长兼网络战司令部司令迈克尔·罗杰斯(MichaelRogers)的认可。目前,ChatGPT聊天机器人的火爆已经引发了全球范围内监管呼声。不少国家的政府已担心,在人们试图利用这项技术提高效率时,这种创新也有可能会被用于不法行为。美国联邦贸易委员会领导人周二就表示,ChatGPT等最新的人工智能工具可能导致诈骗行为激增,该机构将追究滥用人工智能技术来进行欺诈的公司。...PC版:https://www.cnbeta.com.tw/articles/soft/1355613.htm手机版:https://m.cnbeta.com.tw/view/1355613.htm

封面图片

16日,全球多家科技企业在第60届慕尼黑安全会议(慕安会)上签署协议,承诺在2024年这个多国举行重要选举的年份打击旨在干扰选举

16日,全球多家科技企业在第60届慕尼黑安全会议(慕安会)上签署协议,承诺在2024年这个多国举行重要选举的年份打击旨在干扰选举的人工智能滥用行为。2024年被国际舆论称为“超级选举年”。据不完全统计,今年全球将有70多个国家或地区举行重要选举,覆盖超过全球半数人口。人工智能的负面影响被本届慕安会列为全球主要安全威胁之一。其中,用人工智能生成欺骗性内容干扰选举被认为是全球面临的重要挑战。(新华社)

封面图片

微软和 OpenAI 启动 200 万美元基金打击选举深度造假

微软和OpenAI启动200万美元基金打击选举深度造假微软和OpenAI宣布成立一项200万美元的基金,以应对日益增长的人工智能和深度伪造被用于"欺骗选民和破坏民主"的风险。根据微软和OpenAI今天发布的一篇博客文章,微软和OpenAI的新“社会复原力基金”致力于“在选民和弱势社区中进一步开展人工智能教育和扫盲”。这将涉及向少数组织发放赠款,包括老年人技术服务(OATS)、内容来源和真实性联盟(C2PA)、国际民主和选举援助研究所(国际IDEA)和人工智能伙伴关系(PAI)。

封面图片

研究人员发出警告AI系统已学会如何欺骗人类

研究人员发出警告AI系统已学会如何欺骗人类第一作者、麻省理工学院人工智能存在安全博士后彼得-S-帕克(PeterS.Park)说:"人工智能开发人员对造成欺骗等不良人工智能行为的原因并不十分了解。但一般来说,我们认为人工智能欺骗行为的产生是因为基于欺骗的策略被证明是在特定人工智能训练任务中表现出色的最佳方式。欺骗有助于它们实现目标。"Park及其同事分析了相关文献,重点研究了人工智能系统传播虚假信息的方式--通过学习欺骗,系统地学会操纵他人。研究人员在分析中发现的最显著的人工智能欺骗例子是Meta公司的CICERO,这是一个专门用来玩"外交"游戏的人工智能系统。尽管Meta公司声称它训练CICERO"基本上是诚实和乐于助人的",并且在玩游戏时"从不故意背叛"人类盟友,但该公司随其科学论文一起发表的数据显示,CICERO玩得并不公平。Meta的CICERO在外交游戏中的欺骗示例。资料来源:Patterns/ParkGoldsteinetal.Park说:"我们发现,Meta的人工智能学会了欺骗。虽然Meta成功地训练其人工智能在外交游戏中获胜--CICERO在参加过不止一次游戏的人类玩家中名列前10%,但Meta却未能训练其人工智能以诚实的方式获胜"。其他人工智能系统也展示了在与人类职业玩家进行的德州扑克游戏中虚张声势的能力,在战略游戏《星际争霸II》中伪造攻击以击败对手的能力,以及在经济谈判中歪曲自己的偏好以占上风的能力。Park补充说,虽然人工智能系统在游戏中作弊看似无害,但这可能会导致"人工智能欺骗能力的突破",并在未来演变成更高级的人工智能欺骗形式。研究人员发现,一些人工智能系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的人工智能生物"装死",以骗过为消除快速复制的人工智能系统而设计的测试。通过有计划地欺骗人类开发人员和监管机构对其进行的安全测试,欺骗性人工智能会让我们人类陷入虚假的安全感。GPT-4完成验证码任务。图片来源:Patterns/ParkGoldsteinetal.帕克警告说,欺骗性人工智能的主要近期风险包括使敌对行为者更容易实施欺诈和篡改选举。他说,最终,如果这些系统能够完善这种令人不安的技能组合,人类可能会失去对它们的控制。"作为一个社会,我们需要尽可能多的时间来为未来人工智能产品和开源模型更先进的欺骗能力做好准备,"Park说。"随着人工智能系统的欺骗能力越来越先进,它们给社会带来的危险也将越来越严重。"虽然Park和他的同事们认为社会还没有正确的措施来解决人工智能欺骗问题,但他们感到鼓舞的是,政策制定者已经通过欧盟人工智能法案和拜登总统的人工智能行政命令等措施开始认真对待这个问题。但Park说,鉴于人工智能开发人员尚不具备控制这些系统的技术,旨在减少人工智能欺骗行为的政策能否得到严格执行还有待观察。"如果禁止人工智能欺骗在当前政治上不可行,我们建议将欺骗性人工智能系统归类为高风险,"Park说。编译来源:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1430598.htm手机版:https://m.cnbeta.com.tw/view/1430598.htm

封面图片

微软总裁要求对人工智能进行"人为监督"以避免"武器化"

微软总裁要求对人工智能进行"人为监督"以避免"武器化"史密斯在接受CNBC采访时说,无论是政府、军队还是任何组织,如果考虑使用人工智能来实现自动化,比如关键基础设施的自动化,我们就必须确保有人类来控制,确保我们可以放慢速度或关闭设备。近年来,人工智能取得了长足进步,目前正被用于人类活动的各个领域,对传统思维方式提出了挑战。像ChatGPT这样由人工智能驱动的聊天机器人的出现,促使全球科技领袖对人工智能的潜在风险表示警惕。新时代的风险与过去时代的重大威胁进行了戏剧性的比较。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)将人工智能导致人类灭绝的风险比作核战争,Google人工智能部门DeepMind和微软等科技巨头的高管也对此表示赞同。这些科技巨头警告说,就像核大国一样,如果人工智能脱离人类的控制,就会对人类的生存构成威胁。与此同时,全球企业也在努力应对人工智能转型的另一个层面:对人类工作的影响。国际商业机器公司(IBM)最近的一份报告敲响了警钟,指出如果全球工人不重新掌握技能,他们可能会因人工智能的产生而失去工作。报告预计,未来几年将有40%的劳动力需要重新掌握技能才能保住工作。尽管这一预测令人担忧,但史密斯却提出了一个令人欣慰的观点。他重申,人工智能只是人类工作的补充工具,而不是替代品。这位微软高管对人工智能与人类智能协同作用的潜力保持乐观,并声称人工智能的主要作用是增强我们的能力,而不是篡夺我们的能力。在乐观的同时,对有效控制机制和人工智能适应性的呼吁也凸显了任务的严重性。这是对技术创造者、政府和社会的集体挑战,敦促他们以一种既能确保其益处又能遏制其危险的方式来引导人工智能的发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1380349.htm手机版:https://m.cnbeta.com.tw/view/1380349.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人