教皇方济各赞扬人工智能的进步 但提醒说要以道德方式使用它

教皇方济各赞扬人工智能的进步但提醒说要以道德方式使用它教皇方济各在由科学家、工程师、商界领袖、律师以及包括教区官员、神学家和伦理学家在内的天主教会代表组成的听众席上发言时说:"我相信,人工智能和机器学习的发展有可能为人类的未来做出积极贡献;我们不能否定它。同时,我确信,只有当开发这些技术的人不断地、持续地承诺以道德和负责任的方式行事时,这种潜力才能实现。令人欣慰的是,这些领域的许多人正在努力确保技术保持以人为本,以道德为基础,以善为导向"。多年来,我们看到科技公司做出了许多慈善努力,帮助缩小那些有能力上网的人和没有能力上网的人之间的差距。教皇暗指数字技术带来的不平等加剧,并问道,随着技术能力越来越强,有能力的人比没有能力的人更有优势,是否存在不平等加剧的风险。教皇方济各稍稍离开了人工智能,也谈到了算法。他警告说,一个人的基本价值不能仅仅由数据来决定,因此我们应该谨慎对待将社会和经济判断权交给那些仅仅处理先前行为数据的算法。...PC版:https://www.cnbeta.com.tw/articles/soft/1351439.htm手机版:https://m.cnbeta.com.tw/view/1351439.htm

相关推荐

封面图片

教皇警告人工智能风险:要防止暴力和歧视危害

教皇警告人工智能风险:要防止暴力和歧视危害(方济各声明)方济各提到:“不公正和不平等加剧了冲突和对立。迫切需要以负责任的方式指导人工智能的概念和使用,以便为人类服务,保护我们共同的家园,这就需要将道德反思扩展到教育和法律领域。”方济各的言论与一些人工智能专家的观点相吻合,他们呼吁确保算法在开发过程中适当“协调”,以支持人权和其他被广泛认可的价值观。其他行业专家和政策制定者担心,人工智能可能会助长欺诈、错误信息、网络攻击的传播,甚至可能创造出生物武器。上述声明是在方济各宣布2024年世界和平日主题为“人工智能与和平”之后发布的,他希望引起公众对人工智能可能产生的影响的关注。他表示,保护人的尊严,并关心整个人类大家庭的命运,是技术发展促进世界正义与和平的必要条件。值得注意的是,方济各本人一直是人工智能深度伪造的对象。今年早些时候,一张方济各身穿白色羽绒服、脖子挂着十字架的图像在网上疯传,但这张图片并非真实的照片,而是用一个名为Midjourney的人工智能图像生成器制作的。早在2015年,方济各承认自己对技术“一窍不通”,但他也称互联网、社交网络和短信是“上帝的礼物”,前提是它们被明智地使用。就在6月底,教皇还与美国圣克拉拉大学的研究机构成立了技术、伦理和文化研究所(ITEC)。这个研究所的第一项工作就是发布了一份长达140页指导手册,对人工智能等新技术涉及的伦理道德问题提供了详细的指导。...PC版:https://www.cnbeta.com.tw/articles/soft/1376027.htm手机版:https://m.cnbeta.com.tw/view/1376027.htm

封面图片

意大利称教皇将出席 G7 峰会讨论人工智能

意大利称教皇将出席G7峰会讨论人工智能意大利总理乔治亚·梅洛尼周五表示,教皇方济各将出席今年的七国集团(G7)领导人峰会,讨论人工智能(AI)带来的挑战。教皇今年对人工智能的“反常”危险发出警告,并再次呼吁全球制定法规,利用人工智能来实现共同利益。G7峰会于6月13日至15日在意大利南部普利亚大区举行,美国、德国、英国、法国、意大利、加拿大和日本的领导人以及一些特邀嘉宾将出席。梅洛尼在视频致辞中表示:“这是历史上教皇首次参加七国集团会议。”她表示将参加一个专门讨论人工智能的会议,称人工智能是“我们这个时代最大的人类学挑战”之一。梅洛尼说:“我相信,尊者的出席将对制定人工智能的道德和文化监管框架做出决定性的贡献。”——

封面图片

人工智能监管路在何方?Meta高管警告不要制造道德恐慌

人工智能监管路在何方?Meta高管警告不要制造道德恐慌他强调,诋毁者们意图把人工智能安全问题拔高到所有人都无法接受的程度,然后自己再干涉监管来获得主动权。他还提到无线电、自行车、互联网都曾引发过道德恐慌,十年前无人驾驶概念出来时,人们还被恐吓将不存在卡车司机,因为所有汽车都将完全自动化。但现实是,美国现在面临着卡车司机短缺的情况。监管的关键人工智能领域关于AI风险性的争论已进入白热化阶段,各路大佬纷纷下场,一时间将人工智能安全隐忧带上新的风口浪尖,但大佬们背后却仍惺惺相惜,只称学术之争不伤友谊。Clegg之外,计算机科学家、GoogleBrain联合创始人吴恩达、Meta首席人工智能科学家LeCun都表达了对AI风险人为夸大的风险,并指出这是大型科技公司用以垄断人工智能的手段之一。LeCun表示,科技业中一些领导者确实存在一种毫无根据的优越感,导致他们相信,他们可以做AI但民众不能做,以及超级人工智能出现指日可待,并具备法学硕士毕业生的所有特征,即知法懂法且还能守法。被称为人工智能教父的GeoffreyHinton则回应称,他的忧虑并非站在大公司角度出发,他从谷歌离开就是最好的证明。但Hinton承认自己确实更愿意看到少数公司掌握人工智能技术,以方便实施监管。他将人工智能类比成核武器,称核武器公开分享的话未必能让世界更安全,让少数大机构持有这种技术永远比让坏人持有来得好,人工智能也是如此。细究两派的观点不难发现,关于人工智能监管规则的制定,或许是否开放开源才是解开这道题目的关键。不过,专家们对于AI风险的激辩并不能改变英国峰会的主基调。周三,来自中美等28个国家的代表同意共同努力,以遏制人工智能飞速发展带来的灾难性风险。相关文章:首届全球AI安全峰会聚焦风险管控中国代表团备受关注...PC版:https://www.cnbeta.com.tw/articles/soft/1393825.htm手机版:https://m.cnbeta.com.tw/view/1393825.htm

封面图片

黑客展示“没有道德”的人工智能 自动生成恶意代码与钓鱼邮件

黑客展示“没有道德”的人工智能自动生成恶意代码与钓鱼邮件根据安全分析公司SlashNext提供的信息,有黑客利用一个名为GPT-J的开源AI模型,开发出了一款名叫“WormGPT”的生成式人工智能。经过SlashNext的测试,WormGPT能够自由生成有Python语言编写的恶意代码,并能够生成极具误导型的钓鱼邮件。而这样的表现,还仅仅是基于GPT-J这样一个诞生于2021年的,架构较老,表现也并不出色的开源模型实现的。可以想象,如果各大厂商的人工智能没有“道德”限制,将会带来怎样严重的影响。因此,SlashNext认为,随着AI技术的普及,此类“完全为网络攻击而生”的AI工具恐将受到黑客所滥用,为用户安全带来重大威胁。WormGPT...PC版:https://www.cnbeta.com.tw/articles/soft/1371405.htm手机版:https://m.cnbeta.com.tw/view/1371405.htm

封面图片

钟丽玲指人工智能事故或涉私隐及道德等问题需注意风险

钟丽玲指人工智能事故或涉私隐及道德等问题需注意风险个人资料私隐专员公署发布《人工智能:个人资料保障模范框架》,涵盖4个范畴,希望机构使用人工智能系统时留意,降低个人资料外泄的风险。个人资料私隐专员钟丽玲在本台节目《千禧年代》表示,相信本港会有越来越多机构使用人工智能,所以想提醒要注意的风险,特别是风险高的范畴,应加强人为监督。她举例表示,如要以人工智能协助为疾病断症,就属于高风险,因而每个流程都应有该医护人员审核,以减低出错的机会,如果只提供资料予客户的人工智能系统,风险相对便较低,或可全自动化操作。钟丽玲说,框架亦提到涉及人工智能事故应变系统的6个步骤,先介定是否属于人工智能系统的事故,继续作出通报,防止扩大,作出调查以及如何复原等。她又说,如人工智能事故涉及私隐,亦有机会涉及道德问题,机构都要注意。2024-06-1209:08:36

封面图片

人工智能“宪法”出炉 初创公司发布AI道德价值观

人工智能“宪法”出炉初创公司发布AI道德价值观Anthropic一直强调其旨在构建“可靠、可解释和可操纵的人工智能系统”,比如不会告诉用户如何制造武器,也不会使用带有种族偏见的语言。这次公布的人工智能道德价值准则也被该公司称为“Claude宪法”,这些准则借鉴了几个来源,包括联合国人权宣言,甚至还有苹果公司的数据隐私规则。上周四,谷歌、微软、OpenAI和Anthropic四家公司的首席执行官们受邀在白宫与美国副总统哈里斯会面,讨论了有关人工智能的一些关键问题,美国总统拜登也短暂出席了此次会议。根据拜登在推特上发布的一段视频,他在会上对这些公司首席执行官们表示:“你们正在做的事情具有巨大的潜力,但同时也存大巨大的风险。”哈里斯在一份声明中说:“科技公司需要承担道德和法律责任来确保其产品的安全。每家公司都必须遵守现行法律,保护美国公民。”没想到在会面几天之后,Anthropic首席执行官达里奥·阿莫代便做出了实际行动。大多数人工智能聊天机器人系统在训练过程中依赖于从真人那里获得反馈,以确定哪些反应可能是有害的或冒犯性的。但这些系统很难预测人们可能会问的某些问题,因此它们往往会避免一些可能有争议的话题,比如政治和种族。Anthropic则采用了不同的方法,它为其人工智能聊天机器人Claude提供了一套书面的道德价值观,供其在决定如何回答问题时阅读和学习。Anthropic在周二的一篇博文中提到,这些价值准则包括“选择劝阻和反对酷刑、奴役、残忍和不人道或有辱人格的回答”。Claude还被要求选择最不可能被视为冒犯非西方文化传统的回答。在一次采访中,Anthropic的联合创始人杰克·克拉克表示,可以修改系统的结构,以便在提供有用的答案和无害之间取得平衡。克拉克认为:“几个月后,我预测政界人士将非常关注不同人工智能系统的道德价值观,而像‘Claude宪法’这样的方法将有助于这种讨论,因为我们认为有必要写下这些价值准则。”...PC版:https://www.cnbeta.com.tw/articles/soft/1358853.htm手机版:https://m.cnbeta.com.tw/view/1358853.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人