伦理学家回击"AI暂停发展"信件 称其过于戏剧化以至于忽略了实际危害

伦理学家回击"AI暂停发展"信件称其过于戏剧化以至于忽略了实际危害TimnitGebru、EmilyM.Bender、AngelinaMcMillan-Major和MargaretMitchell都是人工智能和伦理学领域的重要人物,他们因一篇批评人工智能能力的论文而被Google排挤而闻名(除了他们的工作之外)。他们目前正在DAIR研究所工作,这是一个新的研究机构,旨在研究、揭露和预防与人工智能相关的危害。但在签名者名单上找不到他们,现在他们发表了一份反对意见书,指出这封信没有涉及到技术造成的现有问题。他们写道:"这些假设的风险是一种危险的意识形态的焦点,这种意识形态被称为长期主义,忽视了今天部署人工智能系统所造成的实际危害。"他们提到了工人剥削、数据盗窃、支持现有权力结构的合成媒体以及这些权力结构进一步集中在少数人手中。选择担心终结者或黑客帝国式的机器人启示录是一个红鲱鱼(红鲱鱼是英文熟语。指以修辞或文学等各种手法转移议题焦点与注意力,是一种政治宣传、公关及戏剧创作的技巧,也是一种逻辑谬误。)。因为在同一时刻,我们有报告称,像ClearviewAI这样的公司早已经被警方利用,基本上被用来陷害无辜者。当你看到每个前门都有Ring的门铃摄像头,还可以用假搜查令轻松读取这些数据时,这种担忧早已经成为现实,至于有没有T-1000已经不重要了。虽然DAIR的工作人员同意信中的一些目标,如识别合成媒体,但他们强调,现在必须采取行动,对今天的问题,用我们现有的补救措施:我们需要的是实施透明化的监管。我们不仅要清楚地知道我们何时遇到了合成媒体,而且还应该要求建立这些系统的组织记录和披露训练数据和模型架构。创造可安全使用的工具的责任应该由构建和部署生成系统的公司来承担,这意味着这些系统的构建者应该对其产品产生的结果负责。目前对越来越大的"人工智能实验"的竞赛并不是一条预设的道路,我们唯一的选择是跑多快,而是由利润动机驱动的一系列决定。公司的行动和选择必须由保护人们权益的监管来塑造。现在确实是采取行动的时候了:但我们关注的重点不应该是想象中的"强大的数字思想"。相反,我们应该关注那些声称建立数字思想的公司的非常真实和非常现实的剥削行为,这些公司正在迅速集中权力,增加社会不平等现象。顺便说一句,这封信呼应了我在昨天西雅图的非洲科技活动中听到的UnchartedPower创始人杰西卡-马修斯的感慨:"你不应该害怕人工智能。你应该害怕打造它的人"。(她的解决办法是:加入他们,成为打造它的人。)虽然任何大公司都不可能同意按照这封公开信暂停其研究工作,但从它收到的参与度来看,显然人工智能的风险--真实的和假设的--在社会的许多部分都非常令人担忧。但是,如果他们不做,也许就得有人替他们做。阅读反对信全文:https://www.dair-institute.org/blog/letter-statement-March2023...PC版:https://www.cnbeta.com.tw/articles/soft/1352341.htm手机版:https://m.cnbeta.com.tw/view/1352341.htm

相关推荐

封面图片

马斯克与逾千名专家以“社会风险”为由 促暂停发展人工智能

马斯克与逾千名专家以“社会风险”为由促暂停发展人工智能电动车巨头特斯拉首席执行官马斯克和一群人工智能专家呼吁,暂停开发比美国人工智能公司OpenAI新推出的GPT-4更强大的智能系统。路透社星期三(3月29日)报道,这封公开信由非营利组织未来生命研究所(FLI)公布,有包括马斯克在内的1000多人签署,旨在呼吁暂停开发高级人工智能,直到独立专家完成开发、实施和审计等共享安全协议。专家在公开信中写道:“只有当我们确信它们(高级人工智能)的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”信中还详细描述了具有人类竞争力的人工智能系统,以经济和政治干扰的形式对社会和文明造成的潜在风险,并呼吁开发者与决策者在治理和监管机构方面进行合作。欧洲刑警组织(Europol)星期一(27日)也加入了对ChatGPT等先进人工智能的道德和法律担忧的行列,警告该系统或被滥用于网络钓鱼、虚假信息和网络犯罪。与此同时,英国政府公布了围绕人工智能建立“适应性强”监管框架的提案。英政府在最新发布的一份政策文件中,概述了相关监管做法,既将管理人工智能的责任分配给人权、健康与安全以及竞争方面的监管机构,而不是创建一个专门针对这项技术的新机构。也在公开信上签名的纽约大学教授马库斯(GaryMarcus)说:“这封信并不完美,但其精神是正确的:我们需要慢下来,直到我们更好地理解其后果。”除了马斯克外,联合签署人还包括StabilityAI首席执行官莫斯塔克(EmadMostaque)、谷歌母公司Alphabet旗下DeepMind的研究人员,以及人工智能重量级人物图灵奖得主本希奥(YoshuaBengio)和美国加州大学伯克利分校计算机科学教授拉塞尔(StuartRussell)。OpenAI尚未对此置评。

封面图片

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧

有大学教师正在使用AI为论文评分专家提出伦理方面的担忧她会向学生展示ChatGPT的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的15名学生也这样做:通过ChatGPT运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台Turnitin赞助的战略咨询公司TytonPartners的一份报告发现,2023年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如ChatGPT、Writable、Grammarly和EssayGrader等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于ChatGPT和MicrosoftCoPilot等工具,这些工具内置于Word、PowerPoint和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(UniversityofVirginia)商业伦理教授多萝西-莱德纳(DorothyLeidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用ChatGPT,但她对一些教育工作者如何使用ChatGPT给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(LeslieLayne)在弗吉尼亚州林奇堡大学的写作工作坊中教授ChatGPT最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到ChatGPT是一个"巨大的道德考量",有可能侵犯他们的知识产权。像ChatGPT这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为Writable的软件,该软件使用ChatGPT帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司HoughtonMifflinHarcourt收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由ChatGPT和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(AlanReid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(UniversityofLynchburg)哲学副教授尼古拉斯-弗兰克(NicolasFrank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项--这样学生就有权知道人工智能何时被用于给他们的作业打分--并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。...PC版:https://www.cnbeta.com.tw/articles/soft/1426543.htm手机版:https://m.cnbeta.com.tw/view/1426543.htm

封面图片

Google正在测试人工智能聊天机器人以回击ChatGPT挑战

Google正在测试人工智能聊天机器人以回击ChatGPT挑战ChatGPT在编写软件、通过考试以及提供生活建议等方面都取得了成功,使其成为科技界的焦点,尽管其结果可能具有误导性或错误。CNBC称,Google的ApprenticeBard工具与ChatGPT类似,但该公司也在测试搜索结果的问答形式。Google研究部负责人杰夫-迪恩在2022年的一次会议上告诉员工,Google在方法上更加保守,以避免人工智能提供不良反应的"声誉风险"。Google没有对报告的具体内容发表评论,但发言人LilyLin在一份声明中说:"我们长期以来一直专注于开发和部署人工智能以改善人们的生活......继续在内部测试我们的人工智能技术,以确保它是有帮助和安全的,我们期待着尽快对外分享更多的经验"。人工智能技术已经在我们身边,从标记信用卡欺诈到将我们的语言翻译成文本信息,它们都在提供帮助。不过,ChatGPT技术提高了人们的期望值,所以很明显,随着对数字助理和在线工具的依赖不断加深,这项技术将在我们的生活中以这样或那样的方式变得更加重要。Google人工智能子公司DeepMind也参与其中。首席执行官DemisHassabis告诉时代周报,他的公司正在考虑在2023年对一个名为Sparrow的人工智能聊天机器人进行内部测试。Google在2020年因人工智能研究员TimnitGebru的离职而承受了不良影响,它有一个专注于负责任的人工智能和机器学习(或ML)技术的项目。Google研究副总裁MarianCroak在1月的一篇文章中说:"以负责任和道德的方式建立ML模型和产品是我们的核心重点和核心承诺。"Google热衷于宣传其深厚的人工智能专业知识。据《纽约时报》报道,ChatGPT引发了Google内部的"红色代码"紧急情况,并吸引了Google联合创始人拉里-佩奇和谢尔盖-布林重新投入积极的工作。...PC版:https://www.cnbeta.com.tw/articles/soft/1342387.htm手机版:https://m.cnbeta.com.tw/view/1342387.htm

封面图片

去年汤加火山喷发规模之大以至于扰乱了太空中的卫星信号

去年汤加火山喷发规模之大以至于扰乱了太空中的卫星信号这次喷发产生了巨大的、破纪录的火山烟羽。据Space.com报道,其中一个烟云的高度超过了35英里。这次爆发还引发了一系列的海啸,整个海洋远至加勒比海。它被认为是一个多世纪以来最强大的自然爆炸,有报道称它的强度可与美国的大型核弹相媲美。虽然之前对2022年汤加火山爆发的研究发现,它产生的大气波足以扰乱电离层,但这项新的研究展示了这些波浪达到了多远,以及它们对环绕我们星球的卫星信号有多大的破坏力。长期以来,人们猜测强大的火山喷发和其他火山活动可能会破坏电离层的F区。大气层的这一区域含有大气层中发现的最高浓度的离子。当汤加火山去年爆发时,似乎爆发是如此强烈,它在电离层中创造了"赤道等离子体气泡",创造了GPS和通信信号无法突破的洞。这项新的研究发表在《科学报告》杂志上。研究人员不仅仅证明了像2022年汤加火山喷发那样的喷发可以在大气中产生这些气泡。他们还展示了这些气泡的范围可以远远超出之前的猜测,研究人员指出,这些气泡的高度至少达到2000公里(1240英里)。科学家们还发现,喷发造成了电子密度的突然上升和电离层高度的增加,这出现在最初的冲击波袭击前几个小时。他们认为,这种快速反应可能与喷发产生的大气波与电离层内的带电离子相互作用有关。因此,2022年汤加火山爆发有可能导致GPS甚至通信信号出现问题,这是我们已经习惯于从太阳耀斑中看到的场景。...PC版:https://www.cnbeta.com.tw/articles/soft/1362029.htm手机版:https://m.cnbeta.com.tw/view/1362029.htm

封面图片

数百名顶级音乐家发公开信要求不要用AI取代人类艺术家

数百名顶级音乐家发公开信要求不要用AI取代人类艺术家在人工智能时代,这是音乐行业集体为艺人代言所采取的最强硬立场之一。字里行间与其他创作者围绕人工智能所做的宣传不同,这封信专门针对科技公司对音乐艺术家的担忧,如复制艺术家的声音、无偿使用他们的作品来训练人工智能模型,以及稀释支付给艺术家的版税。艺术家权利联盟(ARA)是代表签署这封信的艺术家的行业组织,其执行董事珍-雅各布森(JenJacobsen)对Axios说:"我们在这里考虑的不是立法。我们呼吁我们的技术和数字合作伙伴与我们合作,使这成为一个负责任的市场,并保持音乐的质量,而不是取代人类艺术家。"这封信由ARA内部数十位知名音乐人撰写,特别呼吁科技公司和人工智能开发商停止"掠夺性地使用人工智能窃取专业艺术家的声音和肖像,侵犯创作者的权利,破坏音乐生态系统"。包括ElvisCostello、诺拉-琼斯、妮姬-米娜、卡米拉-卡贝罗、凯西-马斯格雷夫斯、乔恩-巴蒂斯特、JaRule、杰森-伊斯贝尔、PearlJam、山姆-史密斯等数十位各音乐流派的音乐家。信中写道:"我们呼吁所有人工智能开发商、技术公司、平台和数字音乐服务承诺,他们不会开发或部署有损或取代词曲作者和艺术家的人类艺术创作,或剥夺我们的公平报酬的人工智能音乐生成技术、内容或工具。"信中还承认,人工智能在负责任地使用时,有一些方法可以促进人类的创造力。但该信认为,一些平台和人工智能开发商正在广泛地使用这项技术,"破坏创造力,损害艺术家、词曲作者、音乐家和权利人的利益"。音乐产业开始支持保护其作品免受人工智能版权问题影响的法案,但这些努力主要针对立法者。今年早些时候,数百名艺术家签署了人类艺术运动(HumanArtistryCampaign)的一封信,敦促国会签署《禁止人工智能欺诈法案》(TheNoAIFRAUDAct),这是一项旨在防止人工智能生成假货和伪造品的更广泛的法案。许多艺术家提交了个人证词,支持田纳西州的《猫王法案》,该法案是田纳西州第一个针对人工智能为居民提供声音、形象和肖像保护的法案。代表大型唱片公司的美国唱片业协会(RIAA)也支持该法案。...PC版:https://www.cnbeta.com.tw/articles/soft/1425968.htm手机版:https://m.cnbeta.com.tw/view/1425968.htm

封面图片

乔·拜登希望美国政府机构评估与测试算法对公民的潜在危害

乔·拜登希望美国政府机构评估与测试算法对公民的潜在危害备忘录中说:"如果好处没有明显超过风险,机构就不应该使用人工智能。但备忘录草案为涉及国家安全的模型划出了豁免范围,并允许各机构在停止使用人工智能模型'会对关键机构的运作造成不可接受的阻碍'的情况下,有效地为自己颁发豁免。"白宫管理和预算办公室在总统拜登签署行政命令两天后发布了该规则草案,该行政命令相当于一项政府范围内的计划,旨在同时增加政府对人工智能的使用,同时寻求防止该技术带来的危害。需要确保人们免受人工智能的危害是该行政令的一大主题,其中的规定包括对大型人工智能模型和计算集群开发者的报告要求。拟议的OMB规则将增加对从私营公司购买的算法进行测试和独立评估,作为联邦合同的一项要求。这些规则将要求政府机构评估和监控正在使用的算法和未来购买的算法,以确定其是否对隐私、民主、市场集中度和政府服务的获取产生负面影响。备忘录草案要求由不直接参与系统开发的人员对算法进行测试和评估,并鼓励对人工智能生成模型进行外部"红队"测试。它还指示联邦机构的领导人探索如何在"不带来过度风险"的情况下使用生成式人工智能,如OpenAI的ChatGPT。拜登的人工智能行政命令要求OMB在未来五个月内向联邦机构提供指导。该办公室正在就政策草案征求公众意见,截止日期为12月5日。OMB负责管理的副主任杰森-米勒(JasonMiller)说:"该框架为联邦机构制定了一套具有约束力的要求,以便为人工智能的使用提供保障,从而使我们能够利用人工智能带来的好处,并使公众能够信任联邦政府提供的服务。"备忘录草案强调了人工智能的某些用途,在这些用途中,技术可能会损害权利或安全,包括医疗保健、住房和执法--在这些情况下,算法过去都曾导致歧视或拒绝提供服务。OMB草案中提到的潜在安全风险的例子包括大坝等关键基础设施的自动化和Cruise机器人轴这样的自动驾驶汽车,后者上周在加利福尼亚被关闭,联邦和州监管机构正在对其进行调查,因为一名行人被一辆汽车撞倒,拖行了20英尺。在备忘录草案中,人工智能可能侵犯公民权利的例子包括:预测性警务、可以阻止受保护言论的人工智能、剽窃或情绪检测软件、租客筛选算法,以及可以影响移民或儿童监护权的系统。据OMB称,联邦机构目前使用700多种算法,但联邦机构提供的清单并不完整。米勒说,备忘录草案要求联邦机构更多地分享他们使用的算法。他说:"我们的期望是,在未来几周和几个月内,我们将提高各机构识别和报告其使用案例的能力。"美国副总统卡马拉-哈里斯(KamalaHarris)今天在美国驻伦敦大使馆发表讲话时提到了OMB备忘录和其他负责任的人工智能倡议,她此行是为了参加本周在英国举行的人工智能安全峰会。她说,虽然人工智能决策中的一些声音关注的是灾难性风险,比如人工智能有朝一日可能在网络攻击或制造生物武器中发挥作用,但偏见和错误信息已经被人工智能放大,每天都在影响着个人和社区。即将出版的一本关于人工智能采购政策的书的作者、非营利组织人工智能与数字政策中心(CenterforAIandDigitalPolicy)总裁梅尔-希科克(MerveHickok)对OMB备忘录要求各机构证明其使用人工智能的合理性,并指定专人负责这项技术表示欢迎。密歇根大学(UniversityofMichigan)讲师希科克(Hickok)说,这是一种潜在的有效方法,可以确保人工智能不会被强加到每个政府项目中。但她担心,提供豁免可能会破坏这些机制。她说:"如果我们开始看到各机构广泛使用这种豁免权,特别是执法、国土安全和监控机构,我会很担心。一旦他们获得豁免,就可能是无限期的"。...PC版:https://www.cnbeta.com.tw/articles/soft/1393885.htm手机版:https://m.cnbeta.com.tw/view/1393885.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人