英国投资1亿英镑用于人工智能研究和监管

英国投资1亿英镑用于人工智能研究和监管英国政府当地时间周二表示,将斥资超1亿英镑设立9个新的人工智能研究中心,并为监管人员提供技术培训。英国政府表示,近9000万英镑将用于专注在医疗保健、化学和数学等领域使用人工智能的研究中心,并与美国就负责任AI开展合作。另外1000万英镑将用于帮助监管机构应对人工智能风险和利用人工智能带来的机遇,例如开发实用工具监控电信、医疗、金融和教育等领域的风险。——

相关推荐

封面图片

英国政府将投资超 1 亿英镑用于人工智能研究和监管

英国政府将投资超1亿英镑用于人工智能研究和监管英国政府2月5月表示,将斥资超1亿英镑启动9个新的人工智能(AI)研究中心,并为监管人员提供技术培训。英国政府称,近9000万英镑将用于专注在医疗保健、化学和数学等领域使用AI的研究中心,并与美国就负责任AI开展合作。另外1000万英镑将用于帮助监管机构应对AI风险和利用AI带来的机遇,例如开发实用工具监控电信、医疗、金融和教育等领域的风险。

封面图片

英国将投资超1亿英镑应对人工智能挑战

英国将投资超1亿英镑应对人工智能挑战英国政府表示,近9000万英镑将用于在英国各地的大学建立9个新的研究中心,并与美国就负责任地使用人工智能建立伙伴关系。此外,这一计划还包括为监管机构提供1000万英镑的奖金,以及提供1900万英镑用于21个项目以开发机器学习技术以提高生产力。英国科学、创新和技术大臣MichelleDonelan在一份声明中说:“我们已经开始立即控制风险,这反过来又为英国成为世界上第一批安全地从人工智能中获益的国家之一铺平了道路。”英国政府表示,虽然不会急于就人工智能安全立法,但将提出一个案例,对先进的、具有广泛可能用途的通用人工智能模型施加要求。在英国去年举办的一场人工智能安全峰会上,英国首相苏纳克警告称,人工智能将使制造化学武器和生物武器变得更容易,为网络攻击提供便利,甚至对人类本身构成威胁。周二,英国和法国还将在伦敦联合主办一次会议,讨论如何应对“雇佣黑客”和恶意使用商业网络工具的问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1416423.htm手机版:https://m.cnbeta.com.tw/view/1416423.htm

封面图片

英国宣布新的人工智能研究资助计划

英国宣布新的人工智能研究资助计划英国政府22日宣布,将提供850万英镑(约合1081万美元)的政府研究资助金,以提高社会对新人工智能技术开发所带来风险的抵御能力。根据英国政府网站22日发布的新闻公报,英国科学、创新和技术大臣米歇尔・唐兰在由英国和韩国共同主办的人工智能首尔峰会上宣布,英国政府将启动人工智能研究资助计划,以研究如何保护社会免受人工智能发展带来的风险,同时又能更好地利用人工智能技术提升生产力等。(新华社)

封面图片

英国政府计划拨款1亿英镑购买数千个顶级GPU用于AI研究

英国政府计划拨款1亿英镑购买数千个顶级GPU用于AI研究里希·苏纳克(RishiSunak,首相)将花费纳税人高达1亿英镑的资金购买数千枚高性能人工智能芯片,以在全球计算能力竞赛中迎头赶上。政府官员一直在与IT巨头英伟达(Nvidia)、AMD和英特尔(Intel)讨论为国家"人工智能研究资源"采购设备的事宜,这也是里希-苏纳克让英国成为该领域全球领导者的雄心壮志的一部分。这项工作由科学资助机构英国研究与创新组织(UKResearchandInnovation)牵头,据信已进入向英伟达(Nvidia)订购多达5000个图形处理器(GPU)的后期阶段,英伟达的芯片为ChatGPT等人工智能模型提供动力。该项目已获得1亿英镑的拨款。然而,据信这笔支出被认为不足以满足政府的人工智能雄心,官员们正在推动杰里米-亨特在未来几个月内划拨更多资金。今年发表的一份政府审查报告批评英国缺乏"专门的人工智能计算资源",只有不到1000块高端英伟达(Nvidia)芯片可供研究人员使用。建议尽快提供至少3000个"顶级规格"的GPU。——

封面图片

【英国发布人工智能监管白皮书,概述针对ChatGPT等人工智能治理的五项原则】

【英国发布人工智能监管白皮书,概述针对ChatGPT等人工智能治理的五项原则】2023年03月29日08点35分老不正经报道,英国政府发布了针对人工智能产业监管的白皮书,概述了针对ChatGPT等人工智能治理的五项原则。它们分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。在接下来的12个月里,监管机构将向相关组织发布实用指南,以及风险评估模板等其他工具,制定基于五项原则的一些具体规则。也将在议会推动立法,制定具体的人工智能法案。

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人