在一篇最新的衡量AI生产力的论文里,有一些非常有趣的数据。

在一篇最新的衡量AI生产力的论文里,有一些非常有趣的数据。 - 质量和速度的全面提升,使用人工智能的顾问平均完成了12.2%更多的任务,并且产生的结果质量比没有使用人工智能的顾问高40%。 - 拉平技能,得分最低的顾问在使用人工智能后,他们的表现有了最大的提升,达到了43%,而顶级的顾问只提升了 17% 。 论文地址:

相关推荐

封面图片

研究机构:将生成式AI视为生产力工具的公司正在犯错

研究机构:将生成式AI视为生产力工具的公司正在犯错 该报告称,这可能不是一件坏事,因为它让高管们有机会在进行财务冒险之前,让他们的公司为人工智能工具和服务的广泛使用做好准备。这份联合研究报告指出,只有5%的全球组织高级领导者表示,他们的公司已经实现了成熟的一代人工智能计划。约45%的企业正在推迟投资,采取观望态度。Genpact公司人工智能和机器学习全球负责人Sreekanth Menon表示,缓慢的支出方法部分来自这样一个事实,即高级管理人员以错误的方式看待Gen AI。研究表明,大约一半的高管将生成式人工智能仅仅视为一种生产力工具。Sreekanth Menon表示:“这是一种缺乏远见的做法。生成式人工智能的萌芽,加上对其潜力的扭曲概念,导致了不情愿的预算支出。”技术咨询公司Searce应用人工智能实践副总裁Paul Pallath说,借助人工智能,组织经常专注于短期的、唾手可得的成果,“这导致了大量的技术和流程债务,随着组织的发展,管理成本变得很高。”“这就是为什么只有少数组织掌握了大规模利用人工智能并有效地颠覆市场的原因,”Pallath说,“如果组织追求短期目标,或只专注于快速制胜而没有长期战略计划,那么人工智能的真正潜力将永远无法实现。”Genpact和HFS的联合研究表明,企业领导者将高达10%的IT预算用于AI项目。但Menon说,数据治理问题、人才短缺和专有数据可访问性等因素导致了低支出,并扩大了试点和生产之间的障碍。 ... PC版: 手机版:

封面图片

微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作

微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作一个通用人工智能(AGI)系统的早期(但仍不完整)版本。」 #抽屉IT

封面图片

这个 Github 页面罗列了 2022 年人工智能领域最新突破的重磅论文,更厉害的是,给每一篇论文配上了Youtube短视频的

这个 Github 页面罗列了 2022 年人工智能领域最新突破的重磅论文,更厉害的是,给每一篇论文配上了Youtube短视频的清晰讲解,再也不用担心看不懂。就是数量有点多,适合收藏起来,寒假和春节下饭佳品。

封面图片

IMF“点名”英国:AI有望提振经济 生产力将大幅提高

IMF“点名”英国:AI有望提振经济 生产力将大幅提高 报告指出,由于人工智能的兴起,英国的经济规模可能会增长16%,其中大部分增长将发生在第一个十年。然而,这将导致更严重的收入不平等,因为人工智能将使低收入工人的工资上涨2%,而高收入工人的工资将上涨14%。目前,英国正遭遇发达国家近几十年来最严重之一的生产力放缓,当地经济增长遇阻。生产力的放缓对经济有着巨大的影响,它减少了政府的支出,阻碍了企业的成长,抑制了工人的工资增长。因此,恢复生产力至关重要。国际货币基金组织表示,英国经济严重依赖服务业,由于其“强大的数字基础设施、熟练的劳动力、创新生态系统和监管框架”,使其能够从快速发展的技术中受益。在其《世界经济展望》的分析中,IMF重点关注了英国在人工智能方面的潜在利益。“相反,许多新兴市场和发展中经济体在人工智能准备方面落后,潜在效益不到英国估计的一半。”报告称。长期以来,英国政府对AI技术可谓是寄予了全方位的支持。2017年,英国《产业战略白皮书》就提出将该国打造为全球人工智能中心的愿景。2018年4月,英国发布了《人工智能行业协议》,在政策层面支持AI产业生态的发展。此后,英国政府又陆续成立了人工智能委员会、人工智能办公室等。然后时间快进至2021年,英国政府发布了《人工智能路线图》;2022年推出国家层面《人工智能战略》;2023年3月,英国又公布了首部《人工智能监管白皮书》。而英国AI产业也终不负众望、高速发展。根据英国新闻网站Tortoise Media去年发布的报告,英国人工智能领域的综合情况目前在全球排名第四,前三名分别是美国、中国和新加坡。数据显示,目前英国有3000多家人工智能公司,总收入超过100亿英镑,有超过5万人从事人工智能相关工作,经济贡献规模达到37亿英镑。 ... PC版: 手机版:

封面图片

Valve公司在一篇博客文章中宣布了新规定,这些规定涉及游戏开发者如何在Steam平台上发布使用人工智能技术的。公司表示,他

Valve公司在一篇博客文章中宣布了新规定,这些规定涉及游戏开发者如何在Steam平台上发布使用人工智能技术的游戏。公司表示,他们正在“改变我们处理使用人工智能技术的游戏的方式”,这意味着开发者需要公开他们的游戏使用了人工智能技术。Valve在帖子中说,这些变化“将使我们能够发布绝大多数使用”人工智能的游戏。 这些变化似乎旨在提高Steam游戏中人工智能使用的透明度,同时提供保护措施,以防止使用人工智能生成内容的风险,并允许顾客在购买使用人工智能技术的游戏时能够做出明智的选择。 根据新规定,开发者需要公开游戏中是否包含了借助人工智能创造的预生成内容(比如艺术作品、代码或声音),并承诺这些内容不是“非法或侵权”的。他们还需要说明游戏中是否有在运行时“实时”生成的人工智能内容。在后一种情况下,开发者需要详细说明他们采取了哪些安全措施来防止人工智能生成非法内容。玩家可以在游戏的商店页面上看到游戏是否包含人工智能内容,并且如果在游戏中遇到非法的人工智能生成内容,玩家将有新的选项来举报。 新规则的发布是在几个开发者抱怨Valve拒绝接受包含人工智能生成素材的Steam游戏提交大约半年后进行的。在一个案例中,Valve表示,一款提交的游戏包含了“由人工智能生成的艺术素材,这些素材似乎依赖于第三方拥有版权的材料。”Valve说,除非开发者能确认他们拥有“训练AI创建游戏中素材所用数据集中所有知识产权”的权利,否则它无法发布这样的游戏。 标签: #Steam #Valve #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧

有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧 她会向学生展示 ChatGPT 的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的 15 名学生也这样做:通过 ChatGPT 运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台 Turnitin 赞助的战略咨询公司 Tyton Partners 的一份报告发现,2023 年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如 ChatGPT、Writable、Grammarly 和 EssayGrader 等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于 ChatGPT 和 Microsoft CoPilot 等工具,这些工具内置于 Word、PowerPoint 和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(University of Virginia)商业伦理教授多萝西-莱德纳(Dorothy Leidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用 ChatGPT,但她对一些教育工作者如何使用 ChatGPT 给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(Leslie Layne)在弗吉尼亚州林奇堡大学的写作工作坊中教授 ChatGPT 最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到 ChatGPT 是一个"巨大的道德考量",有可能侵犯他们的知识产权。像 ChatGPT 这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为 Writable 的软件,该软件使用 ChatGPT 帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司 Houghton Mifflin Harcourt 收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由 ChatGPT 和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI 去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(Alan Reid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(University of Lynchburg)哲学副教授尼古拉斯-弗兰克(Nicolas Frank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项这样学生就有权知道人工智能何时被用于给他们的作业打分并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人