FBI就人工智能危险发出警告https://www.bannedbook.org/bnews/worldnews/2023091

None

相关推荐

封面图片

美国之音FBI就人工智能危险发出警告

封面图片

康泰纳仕向人工智能搜索引擎 Perplexity 发出警告信

康泰纳仕向人工智能搜索引擎Perplexity发出警告信据信件副本显示,杂志巨头康泰纳仕集团已向人工智能搜索引擎Perplexity发出了一封停止侵权信,要求其停止在搜索结果中使用康泰纳仕集团出版物的内容。康泰纳仕集团的出版物包括《纽约客》、《Vogue》和《连线》。《福布斯》在一个月前也采取了类似行动。康泰纳仕在信函中指责Perplexity剽窃其内容。这一挑战加剧了人工智能初创公司因使用新闻媒体内容训练其大型语言模型而面临的法律诉讼浪潮。——

封面图片

AI教父发出警告:新版人工智能会让杀人机器人变为现实

AI教父发出警告:新版人工智能会让杀人机器人变为现实对毕生工作感到有些后悔欣顿周一正式加入到人工智能批评者的行列。批评者们认为,那些积极开发基于人工智能的产品的企业是在加速走向危险。欣顿说,他已辞去谷歌的工作,并对自己一生致力于人工智能开发感到有些后悔,欣顿已为谷歌效力长达十年。欣顿从人工智能奠基人到末日预言者的转变,标志着科技产业的一个关键时刻,该行业正处于几十年来最重要的转折点。业界领袖认为,人工智能系统的重要性可与上世纪90年代初引入网络浏览器媲美,并可能给从制药到教育等一系列领域带来突破。但许多业内人士担心,这有可能是一项危险的技术。人工智能已经成为生成错误信息的工具。很快,它就会带来就业风险。对人工智能感到最不放心的业界人士甚至认为,人工智能可能对人类构成威胁。欣顿说:“很难找到防止坏人用它做坏事的方法。”在旧金山初创企业开放人工智能研究中心(OpenAI)今年3月发布新版ChatGPT之后,1000多名技术领袖和研究人员签署公开信,呼吁在6个月内暂停开发人工智能新系统。几天后,有40年历史的人工智能促进会的19名现任和前任领导人发表公开信,警告人工智能存在风险。人工智能“变得越来越危险”1972年,作为英国爱丁堡大学的一名研究生,欣顿接受了所谓人工神经网的概念,即通过分析数据学习技能的系统,并以研发该系统作为主要工作。20世纪80年代,欣顿在卡内基-梅隆大学计算机系担任教授,但后来离开该大学前往加拿大,因为他不想接受五角大楼的经费资助。当时,美国的大部分人工智能研究都是由国防部资助的。但欣顿强烈反对在战场上使用人工智能,即他所说的“机器士兵”。2012年,欣顿博士和他在多伦多的两名学生伊利亚·苏茨克韦尔和亚历克斯·克里舍夫斯基共同创建了一个人工神经网,它可以通过分析数千张照片建立自己识别物体的能力,比如认识花、狗和汽车。谷歌斥资4400万美元收购了由欣顿博十及其两名学生创办的公司。他们创建的系统催生了越来越强大的技术包括聊天机器人ChatGPT和谷歌的巴德(Bard)。苏茨克韦尔后来成为OpenAI的首席科学家。大约同一时间,谷歌、OpenAI和其他公司开始建立通过大量数字化文本学习的人工神经网。去年,谷歌公司和OpenAI公司开始利用更庞大的数据建立人工智能系统。欣顿博士认为,这些系统在某些方面仍然不如人脑,但在其他方面已经超过了人类智力。他认为,随着企业逐渐升级人工智能系统,它们将变得越来越危险。杀人机器人或会变为现实现在,微软用聊天机器人加强了必应搜索引擎,谷歌也想采用同样的技术。欣顿说,科技巨头们已经陷入一场可能无法停止的竞争。他眼下最担心的是,互联网上将充斥着各种虚假照片、虚假视频和文字普通人“再也无法知道什么是真的了。”他还担心人工智能会颠覆就业市场。目前,ChatGPT这样的聊天机器人还是人类的助手,但它们已经可以胜任一些死记硬背的工作。欣顿说:“这不仅会夺走工作机会,它会夺走更多。”欣顿担心,新版本的人工智能会对人类构成威胁,因为它们往往会通过分析海量数据学会令人意想不到的本领。他说这会带来问题因为技术人员和公司不仅允许人工智能系统自己生成代码,而且还允许它们自行运行代码。他担心,有朝一日这会使杀人机器人变为现实。他说:“过去,有人认为这种东西会变得比人更聪明,我认为这样想为时过早,成为现实至少还需要30到50年甚至更长时间。显然我现在不这么认为了。”欣顿博士认为,谷歌和微软等公司之间的竞争将升级为一场全球竞赛,除非有某种形式的全球监管,否则竞赛不会停止。但他说,监管不太可能,因为与核武器不同,目前无法知道企业或国家是否在秘密研发这项技术。最大的希望是世界顶尖科学家联手找到控制这项技术的方法。欣顿说:“我认为,不应再升级该技术,直到人们确定是否能控制住人工智能。”...PC版:https://www.cnbeta.com.tw/articles/soft/1358583.htm手机版:https://m.cnbeta.com.tw/view/1358583.htm

封面图片

发出警告!日媒突然大幅报道这事https://www.bannedbook.org/bnews/worldnews/202308

封面图片

NASA新的人工智能工具能够在太阳风暴袭击地球之前提前30分钟发出警告

NASA新的人工智能工具能够在太阳风暴袭击地球之前提前30分钟发出警告据最近NASA的一份公告,科学家们创建了一个新的计算机程序,将NASA的卫星数据与人工智能相结合,可以作为危险空间现象的预警系统。具体来说,这项技术利用NASA对太阳风的测量来预测即将到来的太阳风暴。太阳风暴是指太阳风中的物质到达地球磁场时所引起的一种现象,也称为地磁风暴。它们的严重程度不同,但通常会对电力网产生不良影响,可能引起灾难性的二次后果。这种风暴会干扰地球周围的磁场,并能够完全摧毁卫星。虽然并非所有风暴都具有相同的强度,但在一个越来越依赖技术完成最基本任务的世界中,它们的影响可能会更加强烈。根据历史数据和来自太空的实时测量,人工智能工具可以预测地球上太阳风暴的范围。通过早期预警,世界各国可以保护基础设施免受即将到来的太阳风暴的影响。敏感系统可能会暂时离线,卫星可能会移动到更安全的轨道,以根据这些预测增加保护。据NASA称,我们可以预计太阳活动将在2025年达到峰值。为此,一个由国际科学家团队与NASA、美国地质调查局和美国能源部合作开发的模型被称为DAGGER-深度学习地磁扰动。DAGGER可以高效预测全球地磁干扰。该模型的领导作者是印度天体物理学和天文学中心的VishalUpendran。他在《空间天气》杂志上发表的一篇介绍DAGGER模型的文章中表示:“有了这个人工智能系统,现在可以快速准确地进行全球预测,并在太阳风暴事件中做出决策,从而最大程度地减少或甚至预防对现代社会的破坏。”...PC版:https://www.cnbeta.com.tw/articles/soft/1359883.htm手机版:https://m.cnbeta.com.tw/view/1359883.htm

封面图片

美国之音“人工智能教父”退出谷歌以警告该技术的危险

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人