北京试图在不打压中国人工智能行业的情况下对其进行监管

北京试图在不打压中国人工智能行业的情况下对其进行监管最终的法规比四月份的最初草案要宽松一些,但它们表明中国和欧洲一样,正在推进政府对过去30年来最有前景、也最有争议的技术的监督。相比之下,即使行业领袖警告人工智能带来“灭绝风险”,并且OpenAI的萨姆·奥尔特曼(SamAltman)在公开听证会上敦促国会参与其中,美国也没有认真考虑立法。“中国起步很快,”卡内基国际和平基金会研究员马特·希恩(MattSheehan)说,他正在就此主题撰写一系列研究论文。“它开始建立监管工具和监管力量,因此他们将做好更充分的准备来监管更复杂的技术应用。”“在全球激烈竞争的背景下,不发展是最不安全的,”中国政法大学学者张在谈到该指导方针时写道。在今年的一系列活动中,阿里巴巴、百度和商汤科技都展示了人工智能模型。商汤科技首席执行官徐立完成了最华丽的演示,其中包括一个可以根据英文或中文提示编写计算机代码的聊天机器人。乔治城安全与新兴技术中心主任海伦·托纳表示:“中国正试图在几个不一定兼容的不同目标之间走钢丝。”在美国,即使信息是危险的或不准确的,OpenAI也几乎没有表现出对信息进行控制。在中国,企业必须更加小心。今年二月,总部位于杭州的远语智能在推出ChatYuan服务几天后就终止了服务。根据网上流传的截图,该机器人称俄罗斯对乌克兰的袭击是一场“侵略战争”,这违反了北京的立场,并对中国的经济前景提出了质疑。现在,这家初创公司完全放弃了ChatGPT模型,转而专注于名为KnowX的人工智能生产力服务。“机器无法实现100%过滤,”该公司负责人徐亮说。“但你能做的就是在模型中加入爱国主义、守信和谨慎等人类价值观。”——

相关推荐

封面图片

美国芯片限制对中国人工智能行业造成影响

美国芯片限制对中国人工智能行业造成影响美国限制向中国出口人工智能芯片的规定开始挤压中国的人工智能产业。从阿里巴巴这样的巨头到月之暗面这样的新兴创业公司,各家公司都在努力应对这种影响。据一位知情员工透露,中国在线视频巨头快手发布了类似于OpenAI的Sora的文本转视频人工智能模型“可灵”的测试版后,大量用户争相报名试用,以至于快手不得不限制使用人数,以避免计算能力不足。而月之暗面旗下大模型应用Kimi智能助手近日推出打赏功能,用户在遇到高峰时段算力不足问题时,可以选择付费以在高峰时期优先使用。快手的一些团队一直在测试来自寒武纪科技等中国供应商的人工智能芯片,试图找到英伟达替代品。——

封面图片

OpenAI行政总裁称人工智能行业受监管是至关重要

OpenAI行政总裁称人工智能行业受监管是至关重要人工智能公司OpenAI行政总裁奥尔特曼,就人工智能会否构成安全风险,到美国国会参议院作证。OpenAI制作的ChatGPT,近期在人工智能界掀起热潮。该聊天应用程式可模拟人类方式书写文章、剧本、诗词,以及解决电脑的编码问题,引发监管机构关注涉及的私隐及法律等问题,希望在不扼杀创新的前提下,为人工智能发展设置围栏。奥尔特曼作证时表示,人工智能有潜力解决人类面对的最大挑战,例如气候变化及癌症治疗等,同时承认人工智能的进步,将对劳动力带来重大影响。他形容人工智能目前发展的方向及模型,依然是一种工具,而不是一种生物,但承认随著人工智能变得越来越强大,行业受政府监管是至关重要。被问到人工智能对音乐的影响时,奥尔特曼表示,内容创作者对于他们的声音、肖像或受版权保护的内容,如何被用作训练人工智能模型,应该有发言权。2023-05-1703:24:30(2)

封面图片

中国人工智能行业概览2023

名称:中国人工智能行业概览2023描述:中国人工智能行业发展势头强劲,赋能千行百业。MLOps以数据为中心的技术成为人工智能生产落地的重要推动力。中国人工智能行业市场规模持续上升,与各产业深度融合链接:https://www.aliyundrive.com/s/1VTvNhJJvKQ大小:6MB标签:#报告#AI#市场来自:雷锋版权:频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度或将加大监管难度一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama2”,得分为54%。推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。谷歌推出的“PaLM2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude2”人工智能模型(36%)。斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

中国人工智能产业发展联盟医学人工智能委员会工作会即将召开,将发布医疗健康行业大模型系列标准

中国人工智能产业发展联盟医学人工智能委员会工作会即将召开,将发布医疗健康行业大模型系列标准为加速推动人工智能技术与医疗健康行业深度融合,中国人工智能产业发展联盟医学人工智能委员会2024年第一次工作会定于3月15日召开,探讨医学人工智能的未来发展方向。届时,将正式发布《数字医疗产品及服务高质量发展全景图》,以及医疗健康行业大模型系列标准。另外,华为公共事业系统部医疗解决方案研发总监周旭将作主题报告《大模型在医疗健康领域应用进展及未来方向》。(证券时报)

封面图片

【谷歌CEO警告:不要在没有监管的情况下仓促部署人工智能】

【谷歌CEO警告:不要在没有监管的情况下仓促部署人工智能】4月17日消息,Alphabet和谷歌首席执行官SundarPichai在周日的一次采访中表示,必须对推动采用人工智能技术的进程进行严格监管,以避免潜在的有害影响。当被问及是什么让他在人工智能方面夜不能寐时,Pichai称,是有关以一种有益的方式使它工作和部署它的紧迫性,以及对如果部署不当,它可能会非常有害的担忧。Pichai称,他们还没有找到(如何用好AI技术的)所有的答案,但技术发展很快。尽管该行业存在紧迫感,但不要让公司被竞争动态所席卷。他以deepfake视频为例,称类似的可能造假说明了监管的必要性。他表示,人们会意识到,人工智能领域是一种如此不同、如此深刻的东西,我们需要社会法规来思考如何适应。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人