【拜登敦促科技公司应对人工智能的风险】

【拜登敦促科技公司应对人工智能的风险】 美国总统拜登周二表示,人工智能(AI)的安全性仍存在不确定性,并强调科技公司在向公众发布产品之前应确保其产品安全。 在与总统科技顾问委员会 (PCAST​​) 的会议开始时,他表示,科技公司必须确保其产品在向公众发布之前是安全的。当被问及人工智能的潜在危害时,他回答说,“还没有确定,有可能。” 根据总统的说法,社交媒体已经证明了强大的技术在没有适当的保护措施的情况下可能产生的负面影响。“缺乏保障措施,我们看到了对心理健康、自我形象和感觉以及绝望的影响,尤其是在年轻人中。”

相关推荐

封面图片

美国总统拜登的大型人工智能科学项目获得微软、NVIDIA等公司的支持

美国总统拜登的大型人工智能科学项目获得微软、NVIDIA等公司的支持 国家自然科学基金会在一份声明中说,国家人工智能研究资源(NAIRR)为美国的人工智能研究人员提供访问人工智能模型、计算能力、数据集、软件和培训的机会。 研究人员可以通过其网站申请访问NAIRR试点项目,NAIRR计划在今年春季启动第二次研究提案征集活动。 如果获得访问权,研究人员就可以使用微软Azure或亚马逊Bedrock等昂贵、处理能力强的服务,而这些服务通常需要用研究经费来支付。除国家自然科学基金外,参与 NAIRR 项目的其他政府机构包括美国国防部高级研究计划局、美国国家航空航天局(NASA)、美国国立卫生研究院、美国国家标准与技术研究院、美国国家海洋与大气管理局、美国农业部、美国国防部、美国能源部、美国退伍军人事务部以及美国专利商标局。政府正在与 15 家私营部门合作伙伴合作,包括亚马逊网络服务公司、Anthropic、AMD、EleutherAI、Google、Hugging Face、IBM、英特尔、Meta、微软、NVIDIA、OpenAI 和 Palantir。NVIDIA和微软分别介绍了各自对NAIRR的贡献。微软表示,它捐赠了2000万美元的Azure消费额度、Azure OpenAI服务中模型的访问权限,以及人工智能公平性、准确性和隐私方面的工作资源,NVIDIA承诺提供其DGX云和AI企业软件的访问权限。国家自然科学基金委员会主任塞图拉曼-潘查纳坦(Sethuraman Panchanathan)在声明中说:"为了继续在人工智能研发领域保持领先地位,我们必须在全国范围内创造机会,推进人工智能创新,加强教育机会,使国家有能力塑造国际标准,点燃经济增长的火花。"拜登的人工智能行政命令指示政府机构建立NAIRR,以确保美国继续成为世界领先的人工智能创新中心。由于Google和OpenAI等公司总部设在美国,美国在生成式人工智能的投资和研究方面继续处于领先地位,与此同时,其他地区也在加强对该技术的关注。根据《哈佛商业评论》的报道,中国、英国、日本和德国是投入人工智能开发资源最多的五个国家。在缺乏明确法规的情况下,大型科技公司一直与政府在人工智能方面保持合作。在人工智能行政命令发布之前,拜登白宫已从 Meta、Google和 OpenAI 等公司处获得了自愿性、非约束性协议,以安全开发人工智能系统。然而,政府与主要科技公司之间的这种紧密合作引发了监管“灯下黑”问题,而这种问题很可能不会随着 NAIRR 的推出而消失。NAIRR 试点项目最初将重点关注四个领域:促进对各种人工智能资源的访问;促进需要安全和隐私保护的人工智能研究;促进和发展人工智能平台之间的互操作性;教育和培训社区使用人工智能工具。国家自然科学基金会在声明中说,NAIRR 的首批项目主要集中在将人工智能应用于医疗保健和环境可持续性方面。 ... PC版: 手机版:

封面图片

美国总统乔·拜登表态希望禁止人工智能语音模仿

美国总统乔·拜登表态希望禁止人工智能语音模仿 "在国内,我已经签署了 400 多项两党法案。"拜登总统在国情咨文中说:"要通过我的团结议程,还有更多的法案。随后,他列举了如果他被选中连任,他希望解决的一些提案:加强对芬太尼贩运的惩罚力度,通过两党隐私立法来保护我们的儿童上网,利用人工智能的承诺来保护我们免受危险,禁止人工智能语音冒充等等"。拜登有充分的理由呼吁禁止人工智能语音克隆。今年 1 月,新罕布什尔州的选民接到了一个 39 秒的机器人电话,告诉他们不要在民主党初选中投票,而是把选票"留给"11 月的总统选举。播报这条建议的声音听起来几乎和乔·拜登一模一样。语音欺诈检测公司 Pindrop 后来分析了这通电话,认为它是使用 ElevenLabs 公司的文本到语音引擎制作的,该公司也证实了这一点。这一事件导致美国联邦通信委员会根据 1991 年的《电话消费者保护法》,规定使用人工智能生成的语音拨打机器人电话为非法行为。该机构担心,技术被用来模仿"名人、政治候选人和近亲属"的声音,从而混淆和欺骗消费者。拜登提议的禁令范围尚不明确。它可能仅限于某些领域,比如模仿政客,但总统听起来确实在谈论全面禁止人工智能语音模仿,这将产生深远影响。除了政治之外,使用人工智能重塑演员的声音和形象也是 SAG-AFTRA 演员罢工背后的问题之一。尽管并非所有人都对这一协议感到满意,但在达成一项协议,确保在使用人工智能复制演员时,演员同意并获得公平补偿后,罢工结束了。 ... PC版: 手机版:

封面图片

美国拟遏制中国对人工智能和科技领域投资

美国拟遏制中国对人工智能和科技领域投资 美国6月21日发布规则草案,禁止或要求通知中国在人工智能和其他技术领域的某些可能威胁美国国家安全的投资。去年8月,美国总统乔·拜登签署行政命令,经过初步评论期后,美国财政部公布了拟议规则和一系列例外情况。这些规则要求美国个人和公司自行决定限制或禁止哪些交易。拜登的行政命令要求对美国在半导体和微电子、量子计算和人工智能领域的某些投资进行监管,这是美国更广泛举措的一部分,旨在防止美国技术帮助中国开发尖端技术并主导全球市场。美国预计在今年年底前实施相关法规。公众意见征询截止日期为8月4日。

封面图片

英国在旧金山设立办事处应对人工智能风险

英国在旧金山设立办事处应对人工智能风险 在本周晚些时候在韩国首尔举行的人工智能安全峰会之前,其共同主办国英国正在扩大自己在该领域的努力。人工智能安全研究所是一家于2023年11月成立的英国机构,其雄心勃勃的目标是评估和解决人工智能平台的风险。该研究所表示将在旧金山开设第二个地点。这个想法是为了更接近目前人工智能发展的中心,湾区是 OpenAI、Anthropic、谷歌和 Meta 等构建基础人工智能技术的公司的所在地。基础模型是生成人工智能服务和其他应用的基石,有趣的是,尽管英国已与美国签署了谅解备忘录,两国将在人工智能安全举措上进行合作,但英国仍选择投资在美国建立直接存在来解决这个问题。

封面图片

拜登政府任命新一任人工智能安全研究所所长

拜登政府任命新一任人工智能安全研究所所长 白宫国家经济委员会主任莱尔-布雷纳德(Lael Brainard)在公告中说,凯利"制定了总统的科技和金融监管议程,并努力建立广泛的利益相关者联盟"。新成立的研究所将在促进技术发展方面发挥关键作用。到 7 月,它将为主要的人工智能开发商创建"红队"测试标准,以确保系统对消费者和企业的安全。政府认为,安全测试是释放快速发展的技术所带来的益处的必要条件,它将为更广泛地采用人工智能创造一定程度的信任。联邦政府最近开始要求人工智能公司对其系统进行测试。但到目前为止,这些测试还缺乏一套通用标准,而该研究所计划在今年夏天最终确定这套标准。凯利毕业于耶鲁大学法学院,根据她的 LinkedIn 页面显示,她还曾在奥巴马白宫和金融公司 Capital One 工作过。 ... PC版: 手机版:

封面图片

英国在旧金山设立办事处 用以应对人工智能风险

英国在旧金山设立办事处 用以应对人工智能风险 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 湾区是 OpenAI、Anthropic、Google和 Meta 等公司开发人工智能基础技术的所在地。基础模型是生成式人工智能服务和其他应用的基石,有趣的是,虽然英国已经与美国签署了谅解备忘录,两国将在人工智能安全方面开展合作,但英国仍然选择在美国投资建立自己的直接机构来解决这一问题。英国科学、创新和技术大臣米歇尔-多纳兰(Michelle Donelan)在接受采访时说:"通过在旧金山派驻人员,可以让他们接触到许多人工智能公司的总部。其中一些公司在英国本土设有基地,但我们认为在那里设立基地也非常有用,可以接触到更多的人才库,并能与美国开展更多的合作,携手共进。"部分原因在于,对英国来说,更接近行业核心不仅有助于了解正在建设的项目,还能让英国在这些公司中拥有更高的知名度这一点非常重要,因为英国将人工智能和技术整体视为经济增长和投资的巨大机遇。鉴于 OpenAI 最近围绕其"超级对齐"团队发生的戏剧性事件,在这里设立办事处显得尤为及时。人工智能安全研究所成立于 2023 年 11 月,目前规模相对较小。如果考虑到建立人工智能模型的公司所面临的数十亿美元投资,以及这些公司将其技术推广应用到付费用户手中的经济动机,那么该机构目前仅有 32 名员工,对于人工智能技术领域的歌利亚来说,是名副其实的"大卫"。本月早些时候,人工智能安全研究所发布了第一套用于测试基础人工智能模型安全性的工具Inspect。多纳兰今天称这次发布是"第一阶段"的努力。事实证明,迄今为止,为模型设定基准不仅具有挑战性,而且目前的参与在很大程度上是一种选择性的、不一致的安排。正如一位英国监管机构的资深人士所指出的,公司目前没有法律义务对其模型进行审核;而且并非每家公司都愿意在模型发布前对其进行审核。这可能意味着,在可能发现风险的情况下,马可能已经跑了。多纳兰说,人工智能安全研究所仍在研究如何以最佳方式与人工智能公司接触,对其进行评估。"我们的评估流程本身就是一门新兴科学,因此,在每一次评估中,我们都将开发流程,使其更加精细。"多纳兰说,在首尔的一个目标是向参加峰会的监管机构提交检查报告,希望他们也能采纳。"现在我们有了一个评估系统。第二阶段还需要在全社会范围内确保人工智能的安全,"她说。从长远来看,多纳兰认为英国将制定更多的人工智能立法,不过,英国首相苏纳克(Rishi Sunak)也表示,在更好地了解人工智能风险的范围之前,英国不会这么做。该研究所最近发布的国际人工智能安全报告主要侧重于试图全面了解迄今为止的研究情况,"我们不相信在我们正确掌握和充分了解之前就立法,"她说,"报告强调,目前还存在很大的差距,我们需要在全球范围内激励和鼓励更多的研究。""在英国,立法也需要一年左右的时间。如果我们一开始就开始立法,而不是[组织][去年11月举行的]人工智能安全峰会,我们现在可能还在立法,而实际上我们不会有任何成果。"人工智能安全研究所主席伊恩-霍加斯(Ian Hogarth)说:"从研究所成立的第一天起,我们就清楚地认识到,在人工智能安全、共享研究成果以及与其他国家合作测试模型和预测前沿人工智能风险等方面采取国际化方法的重要性。今日的进展标志着一个关键时刻,使我们能够进一步推进这一议程,我们很自豪能够在一个科技人才迸发的地区扩大我们的业务,为我们在伦敦的员工从一开始就带来的令人难以置信的专业知识锦上添花。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人