俄罗斯卫星通讯社克宫:普京与南非总统就为抗击新冠疫情向南非派遣专家小组达成共识 ||

None

相关推荐

封面图片

俄罗斯卫星通讯社俄专家小组已经出发前往南非帮助抗击新冠病毒 ||

封面图片

南非外长:金砖国家已就扩员达成共识

南非外长:金砖国家已就扩员达成共识 南非外交部长潘多尔说,(BRICS)通过了一份制定有关金砖扩员指导方针和原则的文件。 路透社报道,金砖国家领导人的第十五次会晤在星期二(8月22日)至星期四(24日)于南非约翰内斯堡举行。峰会上,建立接纳新成员的框架和标准是首要议题。 虽然所有金砖成员国都表明支持金砖扩员,但金砖五国对扩容的规模与速度存有分歧。 南非总统拉马福萨星期三(23日)致辞时说,世界正在改变,“新的现实要求对全球治理机构实施根本上的改革,使它们能够更具代表性、更好地应对人类面临的挑战。” 印度总理莫迪表明,印度完全支持金砖扩容,但指出必须以现有五个成员都同意的方式进行。 潘多尔在南非外交运营的电台上说:“我们已就扩员问题达成一致。我们通过了一份文件,其中规定了审议希望成为金砖五国成员的国家的指导方针、原则和程序。” 金砖五国为巴西、俄罗斯、印度、中国和南非,它们的人口占全球总人口的40%以上。据南非官员说,已有超过40个国家表示有兴趣加入金砖机制,其中20多国已提出正式申请。 此次峰会邀请伊朗、阿根廷、沙特阿拉伯、哈萨克斯坦、越南、印度尼西亚、埃塞俄比亚和委内瑞拉等多国以观察员和候选成员身份出席。

封面图片

姚期智等三十余位专家达成共识:AI不应违反红线

姚期智等三十余位专家达成共识:AI不应违反红线 我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对 AI 带来的挑战。现在,AI 领域又一封重磅公开信出现了。上周在颐和园召开的“北京AI国际安全对话”,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主Yoshua Bengio和智源学术顾问委员会主任张宏江担任共同主席,Geoffrey Hinton、Stuart Russell 、姚期智等三十余位中外技术专家、企业负责人开展了一次关于 AI Safety 的闭门讨论。这次会议达成了一项 Bengio、Hinton 与国内专家共同签名的《北京 AI 安全国际共识》。目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构):Yoshua BengioGeoffrey HintonStuart RussellRobert TragerToby OrdDawn SongGillian HadfieldJade LeungMax TegmarkLam Kwok YanDavidad DalrympleDylan Hadfield-Menell姚期智傅莹张宏江张亚勤薛澜黄铁军王仲远杨耀东曾毅李航张鹏田溯宁田天以下为达成的共识内容:一、人工智能风险红线人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中, 面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。自主复制或改进任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。权力寻求任何人工智能系统都不能采取不当地增加其权力和影响力的行动。协助不良行为者所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。欺骗任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。二、路线确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。治理我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。测量与评估在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。技术合作国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。三、总结避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。 ... PC版: 手机版:

封面图片

沙罗洞保育专家小组召开首次会议

沙罗洞保育专家小组召开首次会议 沙罗洞保育专家小组召开首次会议,重点讨论保育沙罗洞生态及生物多样性的首要工作。专家小组重点讨论为维持及提升沙罗洞丰饶生态所须推行的首要工作,包括透过研究改善水文修复重点湿地生境及进行更全面的环境及生态基线调查。专家小组认为,相关措施有利加强沙罗洞的生物多样性。专家小组召集人林健枝表示,沙罗洞有极高生态价值,认为要维持沙罗洞的淡水湿地生态,必须有积极的保育措施,将全力协助政府制订和落实保育沙罗洞的长远保育策略。 2024-06-14 19:57:46

封面图片

中电全面检讨资产管理 委任独立专家小组协助审视

中电全面检讨资产管理 委任独立专家小组协助审视 环境及生态局提出应就重大电压骤降事故设立惩罚方案,纳入现行与中电的《管制计划协议》的惩罚机制,中电表示,已就近月发生的电力事故向政府提交调查报告,已采取即时行动跟进,并全面落实相关改善措施。中电表示,会就发电、输电及配电方面的资产管理,包括维修保养制度,以及承办商监督系统进行全面检讨,并委任独立专家小组协助审视相关工作,预计今年内完成。专家小组由3人经成,并由香港工程师学会前会长梁广灏担任主席。 2024-05-20 21:04:23

封面图片

俄罗斯卫星通讯社普京:俄罗斯呼吁所有国家共同努力 抗击疫情 ||

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人