北京试图在不打压中国人工智能行业的情况下对其进行监管

北京试图在不打压中国人工智能行业的情况下对其进行监管 最终的法规比四月份的最初草案要宽松一些,但它们表明中国和欧洲一样,正在推进政府对过去 30 年来最有前景、也最有争议的技术的监督。相比之下,即使行业领袖警告人工智能带来“灭绝风险”,并且 OpenAI 的萨姆·奥尔特曼 (Sam Altman)在公开听证会上敦促国会参与其中,美国也没有认真考虑立法。 “中国起步很快,”卡内基国际和平基金会研究员马特·希恩(Matt Sheehan)说,他正在就此主题撰写一系列研究论文。“它开始建立监管工具和监管力量,因此他们将做好更充分的准备来监管更复杂的技术应用。” “在全球激烈竞争的背景下,不发展是最不安全的,”中国政法大学学者张在谈到该指导方针时写道。 在今年的一系列活动中,阿里巴巴、百度和商汤科技都展示了人工智能模型。商汤科技首席执行官徐立完成了最华丽的演示,其中包括一个可以根据英文或中文提示编写计算机代码的聊天机器人。 乔治城安全与新兴技术中心主任海伦·托纳表示:“中国正试图在几个不一定兼容的不同目标之间走钢丝。” 在美国,即使信息是危险的或不准确的,OpenAI 也几乎没有表现出对信息进行控制。 在中国,企业必须更加小心。今年二月,总部位于杭州的远语智能在推出ChatYuan服务几天后就终止了服务。根据网上流传的截图,该机器人称俄罗斯对乌克兰的袭击是一场“侵略战争”,这违反了北京的立场,并对中国的经济前景提出了质疑。 现在,这家初创公司完全放弃了 ChatGPT 模型,转而专注于名为 KnowX 的人工智能生产力服务。“机器无法实现100%过滤,”该公司负责人徐亮说。“但你能做的就是在模型中加入爱国主义、守信和谨慎等人类价值观。”

相关推荐

封面图片

美国芯片限制对中国人工智能行业造成影响

美国芯片限制对中国人工智能行业造成影响 美国限制向中国出口人工智能芯片的规定开始挤压中国的人工智能产业。从阿里巴巴这样的巨头到月之暗面这样的新兴创业公司,各家公司都在努力应对这种影响。据一位知情员工透露,中国在线视频巨头快手发布了类似于 OpenAI 的 Sora 的文本转视频人工智能模型“可灵”的测试版后,大量用户争相报名试用,以至于快手不得不限制使用人数,以避免计算能力不足。而月之暗面旗下大模型应用 Kimi 智能助手近日推出打赏功能,用户在遇到高峰时段算力不足问题时,可以选择付费以在高峰时期优先使用。快手的一些团队一直在测试来自寒武纪科技等中国供应商的人工智能芯片,试图找到英伟达替代品。

封面图片

中国人工智能行业概览2023

中国人工智能行业概览2023 描述:中国人工智能行业发展势头强劲,赋能千行百业。MLOps 以数据为中心的技术成为人工智能生产落地的重要推动力。中国人工智能行业市场规模持续上升,与各产业深度融合 链接: 大小:6MB 标签:#报告 #AI #市场 来自:雷锋 频道:@Aliyundrive_Share_Channel 群组:@alyd_g 投稿:@AliYunPanBot

封面图片

中国人工智能行业概览2023

中国人工智能行业概览2023 描述:中国人工智能行业发展势头强劲,赋能千行百业。MLOps 以数据为中心的技术成为人工智能生产落地的重要推动力。中国人工智能行业市场规模持续上升,与各产业深度融合 链接:https://www.aliyundrive.com/s/1VTvNhJJvKQ 大小:6MB 标签:#报告 #AI #市场 来自:雷锋 版权:版权反馈/DMCA 频道:@shareAliyun 群组:@aliyundriveShare 投稿:@aliyun_share_bot

封面图片

【谷歌CEO警告:不要在没有监管的情况下仓促部署人工智能】

【谷歌CEO警告:不要在没有监管的情况下仓促部署人工智能】 4月17日消息,Alphabet和谷歌首席执行官Sundar Pichai在周日的一次采访中表示,必须对推动采用人工智能技术的进程进行严格监管,以避免潜在的有害影响。当被问及是什么让他在人工智能方面夜不能寐时,Pichai称,是有关以一种有益的方式使它工作和部署它的紧迫性,以及对如果部署不当,它可能会非常有害的担忧。Pichai称,他们还没有找到(如何用好AI技术的)所有的答案,但技术发展很快。尽管该行业存在紧迫感,但不要让公司被竞争动态所席卷。 他以deepfake视频为例,称类似的可能造假说明了监管的必要性。他表示,人们会意识到,人工智能领域是一种如此不同、如此深刻的东西,我们需要社会法规来思考如何适应。

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人