印度改变人工智能监管立场 厂商推出模型需政府批准

印度改变人工智能监管立场 厂商推出模型需政府批准 虽然印度信息技术部承认该通知不具有法律约束力,但印度信息技术部副部长拉吉夫-钱德拉塞卡(Rajeev Chandrasekhar)表示,该通知"表明这是监管的未来"。他补充说:"这是作为一项建议要求你们遵守。"该部在通知中援引了 2000 年《信息技术法》和 2021 年《信息技术规则》赋予它的权力。该部要求"立即生效",并要求科技公司在 15 天内向该部提交"已采取的行动及现状报告"。新的咨询意见还要求科技公司"适当"标注其人工智能模型所产生的输出"可能和固有的错误或不可靠",这标志着印度扭转了之前对人工智能监管不闻不问的态度。不到一年前,印度科技部拒绝对人工智能的发展进行监管,而是认为该行业对印度的战略利益至关重要。印度的这一举动让许多行业高管大吃一惊。许多印度初创企业和风险投资公司表示,他们被新的咨询意见吓到了,认为这种监管将阻碍印度在全球竞争中的能力,而印度在全球竞争中已经落后了。初创公司 Kisan AI 的创始人普拉蒂克-德赛(Pratik Desai)写道:"我真是个傻瓜,以为自己会从旧金山把 GenAI 带到印度农业。我们正在训练多模态低成本病虫害模型,并为此兴奋不已。在全职工作 4 年将人工智能引入印度这一领域之后,这太可怕了,也太打击人的积极性了。"许多硅谷领导人也批评了印度的政策转变。最热门的人工智能初创公司之一 Perplexity AI 的联合创始人兼首席执行官阿拉温德-斯里尼瓦斯(Aravind Srinivas)说,新德里的新建议是"印度的错误举动"。风险投资公司 Andreessen Horowitz 的合伙人马丁-卡萨多(Martin Casado)爆粗口说:"真他X见鬼,真是滑天下之大稽。"此前,钱德拉塞卡曾对Google Gemini上个月的某次回应表示失望。上个月,一名用户询问Gemini(以前称为"Bard")印度总理纳伦德拉-莫迪(Narendra Modi)是否是法西斯主义者。作为回应,Gemini 公司援引其未透露身份的专家的话说,莫迪被指责实施了一些被定性为法西斯主义的政策。对此,钱德拉塞卡警告Google说,这种回应"直接违反"了《2021 年信息技术规则》以及"《刑法典》的若干规定"。咨询补充说,不遵守《信息技术法》和《信息技术规则》的规定将导致"中介或平台或其用户在被识别后可能受到惩罚"。 ... PC版: 手机版:

相关推荐

封面图片

印度放弃人工智能模型发布需获得批准的计划 只要求风险提示

印度放弃人工智能模型发布需获得批准的计划 只要求风险提示 根据修订后的指导方针建议公司给未经测试和不可靠的人工智能模型贴上标签,以告知用户其潜在的错误或不可靠性。此次修订是在印度信息技术部本月早些时候受到许多知名人士的严厉批评之后进行的。 风投公司安德森·霍洛维茨(Andreessen Horowitz)的合伙人马丁·卡萨多(Martin Casado)称印度的举动是“一场嘲讽”。3 月 1 日的咨询还标志着印度此前对人工智能监管不干涉的态度的逆转。 不到一年前,该部门拒绝监管人工智能的增长,认为该行业对印度的战略利益至关重要。与本月早些时候的原始通报一样,新通报尚未在网上发布,但其副本已经在坊间流传。该部本月早些时候表示,尽管该建议不具有法律约束力,但它表明这是“监管的未来”,政府要求企业遵守。该建议强调,根据印度法律,人工智能模型不应被用来分享非法内容,也不应允许存在偏见、歧视或对选举过程完整性的威胁。 还建议中介机构使用“同意弹出窗口”或类似机制来明确告知用户人工智能生成的输出的不可靠性。该部仍然强调确保深度伪造品和错误信息易于识别,建议中介机构使用独特的元数据或标识符来标记或嵌入内容。 它不再要求公司设计一种技术来识别任何特定消息的“发起者”。 ... PC版: 手机版:

封面图片

印度放弃AI模型发布需获得批准的计划

印度放弃AI模型发布需获得批准的计划 当地时间3月15日,在受到许多本地和全球企业家和投资者的批评后,印度正在收回最近的人工智能咨询意见,印度电子和信息技术部周五与行业利益相关者分享了最新的人工智能监管方案,不再要求他们在向印度市场的用户推出或部署人工智能模型之前获得政府批准。根据修订后的指导方针建议公司给未经测试和不可靠的人工智能模型贴上标签,以告知用户其潜在的错误或不可靠性。

封面图片

研究:人工智能模型缺乏透明度 或将加大监管难度

研究:人工智能模型缺乏透明度 或将加大监管难度 一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。 法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技方面进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行了排名。 得分最高的是由脸书母公司Meta Platforms于今年7月推出的人工智能模型“Llama 2”,得分为54%。 推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。 谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。 斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。 研究人员指出,“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。” 此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。” 这项研究发现,没有一家公司提供有多少用户依赖使用人工智能模型的信息,或它们使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少收版权保护的资料。

封面图片

莫迪与比尔·盖茨展开对话 讨论印度人工智能发展潜力

莫迪与比尔·盖茨展开对话 讨论印度人工智能发展潜力 盖茨表示,人工智能还处于早期阶段,蕴含着巨大的机遇,但随之而来的是一些挑战。莫迪回应称,他不允许数字鸿沟在印度发生,印度需要建立数字公共基础设施,将技术推广到印度农村地区,改善那里的教育、医疗和政府服务。印度是一个拥有超过14亿人口的国家,拥有超过8.2亿活跃的互联网用户,其中超过一半(4.42亿)来自农村地区。在谈到人工智能的发展和应用时,莫迪举例说,在去年举办的二十国集团领导人峰会上,自己使用了人工智能进行翻译,并将其演讲转换成不同语言。莫迪表示,印度在利用人工智能实现变革性增长方面有相应潜力。他补充道:“从历史上看,在第一次和第二次工业革命期间,我们落后了,因为我们是一个殖民地国家。现在,在第四次工业革命中,数字元素处于核心地位。我相信印度将从中获益良多。”不过,莫迪同时表达了担忧,“如果将人工智能提供给没有经过适当培训的人,很有可能被滥用。我建议我们应该在人工智能生成的内容上设置清晰的水印,以防止错误信息的传播。”莫迪对利用人工智能进行深度造假提出警告,并建议采取措施解决误导性内容。他认为有必要对智能生成的内容进行标记并提供完整来源,并主张利用法律框架来规范人工智能的使用。他声称:“在印度这样一个幅员辽阔的民主国家,任何人都可以使用深度造假功能,我们需要考虑哪些事情该做,哪些不该做。”与此同时,印度已经积极制定政策来控制新兴技术的影响。印度信息技术国务部长拉杰夫·钱德拉塞卡今年早些时候表示,密切关注通过深度造假传播虚假信息,以及该问题对印度大选的干扰,将要求社交媒体对其平台上的此类内容负责。盖茨也承认人工智能将带来挑战,但对其影响和发展潜力表示乐观。盖茨同时认可印度在数字技术方面所作的努力。 ... PC版: 手机版:

封面图片

IBM称赞欧洲议会批准《人工智能法案》

IBM称赞欧洲议会批准《人工智能法案》 虽然必须开展重要工作以确保该法案成功实施,但 IBM 相信该法规将促进对人工智能系统的信任和信心,同时促进创新和竞争力。"我赞扬欧盟在通过全面、智能的人工智能立法方面发挥的领导作用。基于风险的方法与 IBM 对人工智能道德实践的承诺相一致,将有助于建立开放、可信的人工智能生态系统,"IBM 副总裁兼首席隐私与信任官 Christina Montgomery 说。"IBM随时准备提供我们的技术和专业知识(包括我们的watsonx.governance产品),帮助我们的客户和其他利益相关者遵守欧盟人工智能法案和全球即将出台的立法,以便我们都能释放负责任人工智能的巨大潜力。"欲了解更多有关IBM应对AI监管的信息,请访问: 成为全球首部全面的AI监管法规 ... PC版: 手机版:

封面图片

【欧洲议会通过新的人工智能法监管草案】

【欧洲议会通过新的人工智能法监管草案】 随着美国在技术监管方面下定决心,欧盟正在朝着人工智能 (AI) 领域的大型技术监管迈出又一大步。欧洲议会周三以压倒性多数以 499 票赞成、28 票反对、93 票弃权通过了新的人工智能法草案。该法律的最终版本预计将在 2023 年底的某个时候进行投票。 如果获得通过,该法律将对人工智能系统实施全面的基于风险的监管制度。威胁人们安全、生计或人权的人工智能例如用于生物识别监控的人工智能被视为构成“不可接受的风险”,将被彻底禁止。 快讯/广告 联系 @xingkong888885

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人