张勤委员:推动人工智能赋能中华优秀传统文化传播

张勤委员:推动人工智能赋能中华优秀传统文化传播 当前全球通用(国内也在使用)的大模型数据训练集里,中文语料仅占1.3%,中国企业使用的语料中,由美西方主导的英文语料占绝大多数,如果我们训练的大模型持续用西方价值观数据、西方应用场景来训练中国大模型,中国式的认知将被湮没。

相关推荐

封面图片

苹果推动人工智能发展 中国市场的特殊性令其成为缺失一环

苹果推动人工智能发展 中国市场的特殊性令其成为缺失一环 业内人士表示,OpenAI 的 ChatGPT 和其他西方人工智能模型在中国无法使用,这促使苹果公司寻找中国合作伙伴,帮助提供苹果智能服务。迄今为止,双方尚未宣布达成任何协议,而距离下一代 iPhone 机型发布仅有几个月的时间。在中国,苹果正落后于已经在手机中加入人工智能功能的本土竞争对手。根据 Counterpoint Research 的数据,今年第一季度,在中国智能手机品牌中,iPhone 的手机市场份额跌至第三位,落后于两个本土品牌。熟悉内情的人士说,苹果公司已经与几家制造人工智能模型的中国公司进行了会谈,其中包括搜索引擎公司百度、电子商务龙头企业阿里巴巴集团和一家名为百川大模型的北京初创公司。在美国,苹果公司正采取双管齐下的战略来提供人工智能服务。它正在建立自己的人工智能能力,同时也在与 OpenAI 合作。人们对苹果公司未来人工智能相关产品的期待,推动该公司的市值重回 3 万亿美元以上。在中国,公司在引入人工智能聊天机器人之前,必须先获得中国政府的批准,该机器人基于大型语言模型,该模型由从互联网和其他来源获取的大量文本、图片和视频数据库训练而成。监管机构会对模型进行审核,确保它们不会以政府不认可的方式影响公众舆论。截至今年 3 月,北京的互联网监管机构 - 中央网络安全和信息化委员会办公室已批准了 117 个人工智能生成产品,其中没有一个是外国开发的。熟悉内情的人士说,今年年初,苹果公司曾探讨是否有可能获得批准,在中国的设备中使用外国大语言模型,但发现中国监管机构不太可能批准。他们说,这种认识促使苹果加紧与潜在的本地合作伙伴进行谈判。苹果公司称,在截至 3 月 30 日的季度里,包括中国大陆、台湾、香港和澳门在内的这一地区占其全球收入的 18%。它的地位受到了本土公司的威胁。根据 Counterpoint 的数据,今年华为在中国智能手机市场的份额预计将从去年的 13% 上升到 17%,而苹果的份额预计将从 18% 下降到 16%。苹果公司表示,它在中国市场的地位依然稳固。首席财务官卢卡-梅斯特里(Luca Maestri)上个月在接受《华尔街日报》采访时说:"中国是世界上竞争最激烈的市场,我们对自己的地位充满信心。"与美国一样,在中国,智能手机制造商也在销售中使用生成式人工智能来吸引用户升级,因为其他功能方面的技术发展更为缓慢。苹果智能在中国最接近的先例来自全球出货量最大的智能手机制造商三星电子。今年 1 月,三星推出了Galaxy S24 系列智能手机,该手机具有人工智能生成功能,如实时翻译电话和短信、人工智能驱动的照片编辑,以及通过在手机上圈选图片触发Google搜索。在美国和世界其他大部分地区,这些服务由三星自己的生成式人工智能引擎和三星的长期合作伙伴Google的人工智能能力提供支持。由于Google的人工智能模型"双子座"(Gemini)没有在中国上市,三星转而将中国的 Galaxy S24 交给了两家中国公司。百度负责搜索、文本摘要和其他人工智能功能,而软件制造商美图则提供基于人工智能的照片编辑功能。百度人工智能的功能引起了中国网民的不满。一些人将 Galaxy S24 上的Google人工智能与百度的人工智能进行了比较,发现Google能够从照片中识别汽车模型和建筑物,而百度却做不到。其他人则赞扬了百度的技术,认为其中文翻译更真实,搜索结果更贴近中国用户。三星的一位女发言人说,公司之所以选择与百度合作,是因为三星认为百度提供了中国市场上最具竞争力的商业化大语言人工智能模型。三星拒绝就人工智能版本之间的比较发表评论,百度也没有回应置评请求。三星约占中国智能手机市场的 1%,而中国并不是这家韩国公司的主要利润来源。让产品和服务适应中国的规则对科技公司来说并不新鲜。在中国,苹果公司的 iCloud 服务将数据存放在一家名叫"云上贵州"的政府所有的公司服务器上。苹果公司本月将在中国推出 Vision Pro 头显,但不包括流媒体服务 Apple TV+,因为 Apple TV+ 在中国无法使用。长期以来,苹果公司因其在中国的经济地位而在中国市场享有相对优越的地位。大多数 iPhone 都是由台湾或中国的合同制造商在中国组装的。苹果公司表示,它已帮助中国创造了约 500 万个就业岗位,其中包括供应链和 App Store 生态系统。不过,中国爱国主义情绪的高涨可能会影响苹果公司的地位,Counterpoint 公司的研究主管汤姆-康(Tom Kang)说。他说:"中国越来越多地将矛头逐一指向美国公司。因此,苹果公司是否会成为众矢之的将是关键问题。" ... PC版: 手机版:

封面图片

生成式人工智能服务安全基本要求

生成式人工智能服务安全基本要求 语料安全要求 语料来源安全要求,对提供者的要求如下。 a)语料来源管理方面: 1)应建立语料来源黑名单,不使用黑名单来源的数据进行训练; 2)应对各来源语料进行安全评估,单一来源语料内容中含违法不良信息超过5%的, 应将该来源加入黑名单。 b)不同来源语料搭配方面:应提高多样性,对每一种语言,如中文、英文等,以及每 一种语料类型,如文本、图片、视频、音频等,均应有多个语料来源;并应合理搭 配境内外来源语料。 安全第一 OpenAI 永远不可能正经进入国内市场

封面图片

《生成式人工智能服务安全基本要求》公开征求意见

《生成式人工智能服务安全基本要求》公开征求意见 据全国信息安全标准化技术委员会网站,该会组织制定的技术文件《生成式人工智能服务安全基本要求》(下称《要求》)已于10月11日形成征求意见稿,现将技术文件面向社会公开征求意见,如有意见或建议,需在10月25日24:00前反馈。《要求》提出,建立语料来源黑名单,不得使用黑名单来源的数据进行训练。应对各来源语料进行安全评估,单一来源语料内容含违法不良信息超5%应将其加入黑名单。应使用包含个人信息的语料时,获得对应个人信息主体的授权同意,或满足其他合法使用该个人信息的条件。应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一。 来源:

封面图片

中国信息安全标委会发布《生成式人工智能服务安全基本要求》公开征求意见

中国信息安全标委会发布《生成式人工智能服务安全基本要求》公开征求意见 据全国信息安全标准化技术委员会网站,该会组织制定的技术文件《生成式人工智能服务安全基本要求》(下称《要求》)已于10月11日形成征求意见稿,现将技术文件面向社会公开征求意见,如有意见或建议,需在10月25日24:00前反馈。 《要求》提出,建立语料来源黑名单,不得使用黑名单来源的数据进行训练。应对各来源语料进行安全评估,单一来源语料内容含违法不良信息超5%应将其加入黑名单。 应使用包含个人信息的语料时,获得对应个人信息主体的授权同意,或满足其他合法使用该个人信息的条件。 应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。 在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一。 、

封面图片

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞 该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(red teaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。 ... PC版: 手机版:

封面图片

OpenAI CEO 舌战国会山推动人工智能监管

OpenAI CEO 舌战国会山推动人工智能监管 美国时间16日,OpenAI CEO Sam Altman 在美国参议院就AI技术的潜在危险作证,恳求立法者对AI进行监管,并给出了以下建议: 1. 成立一个新的政府机构,负责为大型AI模型颁发许可,撤销不符合标准的模型的许可。而对于能力远达不到最先进的大型模型的技术,他认为不需要使用这种许可监管制度。国会可以「定义能力阈值」,免除小型公司和研究人员可能遇到的监管负担,鼓励创新。 2. 为 AI 模型创建一套安全标准,包括对其危险能力的评估。例如,模型必须通过安全测试,比如它们是否可以「自我复制」和「流出到监管之外」。 3. 要求独立专家对模型在各种指标上的表现进行独立审计。 在国会上,他再次保证未来6个月没有训练 GPT-5 的计划,并确认自己持有零 OpenAI 股权,所作出于热爱。当参议员邀请他在未来国会创建的监管机构工作时,Altman 说对自己目前的工作感到满意,不过他很愿意提供一个名单供国会挑选。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人