【超星尔雅】人工智能,语言与伦理 - 徐英瑾

名称:【超星尔雅】人工智能,语言与伦理-徐英瑾描述:什么是弱人工智能、强人工智能、通用人工智能以及专用人工智能?人工智能史上的“三国演义”,为何需要哲学眼光的梳理?“大数据”真的那么智能吗?如何教计算机说人话?计算机能够懂汉语吗?计算机能够懂得“一个帅哥”与“一枚帅哥”之间的区别吗?人工智能能够理解隐喻吗?如何设计一个“儒家机器人”?这一切,将在《人工智能:语言与伦理》这门课中得到解答。链接:https://www.alipan.com/s/or2wfmZB8bV大小:NG标签:#学习#知识#课程#资源来自:雷锋版权:频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

相关推荐

封面图片

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试英伟达CEO黄仁勋在参加2024年斯坦福经济政策研究所峰会时表示,“按照某些定义,通用人工智能(AGI)可能在短短五年内到来。”黄仁勋在活动中被问到“创造出能像人类一样思考的计算机需要多久”这一问题,他回答说,答案很大程度取决于“如何定义”。若对于上述计算机的定义是“能够通过人类测试”,那么通用人工智能将很快到来。“如果,我让一个人工智能进行任何你能想象的测试,你可以列举一个测试清单,将其提供给计算机科学行业,我猜想五年之内,每个测试(它)都能很好地完成。”()线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

广东:到 2027 年,人工智能手机产量达到 1 亿台以上 ,人工智能计算机产量达到 3000 万台以上

广东:到2027年,人工智能手机产量达到1亿台以上,人工智能计算机产量达到3000万台以上广东省发布关于人工智能赋能千行百业的若干措施。其中提到,创新操作系统打造人工智能手机。支持操作系统深度融合高效低损的轻量化大模型,推动端侧模型算法与架构的应用和创新。支持企业在AIOS上结合多模态自然交互技术,增强实时交互能力、拓展手机应用场景,打造个人专属数字助手。到2027年,人工智能手机产量达到1亿台以上。部署专属模型打造人工智能计算机。利用人工智能技术不断学习用户个人数据和习惯,形成端侧不出端、不上云、可迁移、可继承、可成长的个人本地知识库,结合模型压缩等轻量化技术,形成个人专属模型和新型智能生产工具。到2027年,人工智能计算机产量达到3000万台以上。

封面图片

英伟达CEO黄仁勋:通用人工智能可能在五年内到来

英伟达CEO黄仁勋:通用人工智能可能在五年内到来美东时间3月1日,英伟达CEO黄仁勋在参加2024年斯坦福经济政策研究所峰会时表示,“按照某些定义,通用人工智能(AGI)可能在短短五年内到来。”黄仁勋在活动中被问到“创造出能像人类一样思考的计算机需要多久”这一问题,他回答说,答案很大程度取决于“如何定义”。若对于上述计算机的定义是“能够通过人类测试”,那么通用人工智能将很快到来。就目前而言,人工智能可以通过诸如法律考试等测试,但在专业医学测试(如胃肠病学)上仍然存在困难。黄仁勋认为,五年后,AI有望能通过“任何一项测试”。黄仁勋同时表示,“很难让AI成为一名工程师”,要实现更高要求的通用人工智能“可能仍会很难”,对此他给出的理由是科学家在“如何描述人类思维的工作方式”方面仍存分歧。通用人工智能(AGI)又称“强人工智能”,指的是人工智能可以像人类一样学习和推理,有可能解决复杂的问题并独立做出决策。但目前仍没有公认的人类智能定义,不同领域科学家对通用人工智能的定义和标准也各不相同。来源,频道:@kejiqu群组:@kejiquchat

封面图片

《人工智能伦理治理研究报告(2023 年)》今天发布

《人工智能伦理治理研究报告(2023年)》今天发布26日,中国信通院在“2024中国信通院ICT深度观察报告会科技伦理治理分论坛”上发布了《人工智能伦理治理研究报告(2023年)》。报告认为,目前,人工智能引发的伦理挑战已从理论研讨变为现实风险。在技术研发阶段,由于人工智能技术开发主体在数据获取和使用、算法设计、模型调优等方面还存在技术能力和管理方式的不足,可能产生偏见歧视、隐私泄露、错误信息、不可解释等伦理风险。在产品研发与应用阶段,人工智能产品所面向的具体领域、人工智能系统的部署应用范围等将影响人工智能伦理风险程度,并可能产生误用滥用、过度依赖、冲击教育与就业等伦理风险。对于人工智能生成内容、自动驾驶、智慧医疗等典型应用场景,需要根据风险发生频率、影响范围、影响程度等评估主要风险。

封面图片

经济日报:加强人工智能伦理治理

经济日报:加强人工智能伦理治理经济日报发文称,近日,人工智能研究公司OpenAI推出全新的生成式人工智能模型Sora成为全球关注热点。Sora的出现意味着人工智能技术已经发展到一个新的高度,同时也对人工智能技术的监管能力提出挑战。如果不能有效地管控Sora等技术,可能会出现无法预料的后果。人工智能技术日新月异,伦理规范和监管制度难免存在滞后性。加之伦理问题的复杂性,各个国家和地区规范存在差异,许多规定过于原则性,缺乏可操作性,难以有效落地实施。因此,完善细化相关伦理规范,加强审查和监管,以及相关伦理教育和宣传,更显迫切。只有正视Sora带来的伦理挑战,并加强伦理治理,才能确保人工智能技术造福人类,而不是成为威胁。

封面图片

中国信通院发布《人工智能伦理治理研究报告(2023 年)》

中国信通院发布《人工智能伦理治理研究报告(2023年)》据中国信通院12月26日消息,12月26日,中国信息通信研究院在“2024中国信通院ICT深度观察报告会”科技伦理治理分论坛上发布了《人工智能伦理治理研究报告(2023年)》。报告在总结人工智能伦理治理有关概念和特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行分析,并结合国内外人工智能伦理治理实践,提出人工智能伦理治理的四点展望,以期为更加广泛深入的讨论提供参考。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人