有大学教师正在使用AI为论文评分 专家提出伦理方面的担忧
有大学教师正在使用AI为论文评分专家提出伦理方面的担忧她会向学生展示ChatGPT的反馈,以及该工具是如何改写他们的作文的。她说:"我也会分享我对他们介绍的看法,然后我们一起讨论。"盖斯基要求她班上的15名学生也这样做:通过ChatGPT运行他们的草稿,可以发现哪里可以改进。人工智能的出现正在重塑教育,它带来了实实在在的好处,比如将一些任务自动化,从而腾出时间进行更个性化的教学,但同时也带来了一些巨大的隐患,从围绕准确性和剽窃的问题到维护诚信的问题。教师和学生都在使用新技术。由学术剽窃检测平台Turnitin赞助的战略咨询公司TytonPartners的一份报告发现,2023年秋季,半数大学生使用了人工智能工具。与此同时,虽然使用人工智能的教师人数较少,但2023年秋季,使用人工智能的教师比例从2023年春季的9%增至22%。教师们正在求助于人工智能工具和平台,如ChatGPT、Writable、Grammarly和EssayGrader等,来帮助他们批改试卷、撰写反馈、制定教学计划和布置作业。他们还利用这些新兴工具创建测验、投票、视频和互动,以"提高课堂预期"。另一方面,学生们则依赖于ChatGPT和MicrosoftCoPilot等工具,这些工具内置于Word、PowerPoint和其他产品中。不过,虽然一些学校已经制定了学生可以或不可以在学校作业中使用人工智能的政策,但许多学校并没有为教师制定指导方针。使用人工智能撰写反馈或批改作业的做法也会引发道德方面的考虑。而已经在学费上花费了数十万美元的家长和学生可能会怀疑,在大学里无休止地使用人工智能生成和人工智能评分内容的反馈循环是否值得花费时间和金钱。盖斯基说:"如果教师只用它来评分,而学生只用它来制作最终产品,那么它就不会起作用。"弗吉尼亚大学(UniversityofVirginia)商业伦理教授多萝西-莱德纳(DorothyLeidner)认为,教师如何使用人工智能取决于很多因素,尤其是在评分时。她认为如果大班测试的材料主要是陈述性知识,因此有明确的对错,那么教师使用人工智能评分"甚至可能优于人类评分",人工智能可以让教师更快、更一致地批改试卷,避免疲劳或厌烦。莱斯利-雷恩教她的学生如何更好地使用ChatGPT,但她对一些教育工作者如何使用ChatGPT给论文打分表示不满。但莱德纳指出,当涉及到小班教学或答案不那么明确的作业时,评分应保持个性化,这样教师才能提供更具体的反馈,了解学生的作业,从而了解学生在一段时间内的进步。老师应该负责评分,但也可以让人工智能承担一些责任。她建议教师使用人工智能来查看某些指标,如结构、语言使用和语法,并根据这些数据给出一个数字分数。但是,教师应该自己对学生的作品进行评分,以考察其新颖性、创造性和见解深度。莱斯利-莱恩(LeslieLayne)在弗吉尼亚州林奇堡大学的写作工作坊中教授ChatGPT最佳实践,她说,她看到了教师的优势,但也看到了缺点。她说:"使用并非真正来自我的反馈意见似乎有点破坏了这种关系。"她还认为,将学生的作品上传到ChatGPT是一个"巨大的道德考量",有可能侵犯他们的知识产权。像ChatGPT这样的人工智能工具会利用这些作品来训练它们的算法,从说话模式到如何造句,再到事实和数字无所不包。伦理学教授莱德纳对此表示赞同,他说博士论文和硕士论文尤其应该避免这种情况,因为学生可能希望发表作品。她说:"在没有事先告知学生的情况下将材料上传到人工智能中是不对的。也许还需要征得学生的同意"。一些教师正在使用名为Writable的软件,该软件使用ChatGPT帮助批改论文,但采用了"标记化"技术,因此论文不包含任何个人信息,也不会直接与系统共享。该平台最近被教育公司HoughtonMifflinHarcourt收购。其他教育工作者正在使用Turnitin等平台,这些平台拥有剽窃检测工具,帮助教师识别作业是否由ChatGPT和其他人工智能撰写。但这类检测工具远非万无一失;OpenAI去年关闭了自己的人工智能检测工具,因为该公司称其"准确率很低"。一些学校正在积极制定针对教师和学生的政策。约翰-霍普金斯大学教育研究与改革中心(CRRE)的助理研究员艾伦-里德(AlanReid)说,他最近花时间与K-12教育工作者一起工作,这些教育工作者使用GPT工具在成绩单上创建季度末个性化评语。但与莱恩一样,他也承认该技术撰写有见地的反馈意见的能力仍然"有限"。他目前是所在学院一个委员会的成员,该委员会正在为教职员工制定一项人工智能政策;讨论正在进行中,不仅是关于教师如何在课堂上使用人工智能,还包括一般教育工作者如何使用人工智能。他承认,学校正在就使用生成式人工智能工具创建晋升和终身教职档案、绩效考核和职位发布等内容进行对话"。林奇堡大学(UniversityofLynchburg)哲学副教授尼古拉斯-弗兰克(NicolasFrank)说,大学和教授在政策方面需要保持一致,但也需要保持谨慎。他说:"在现阶段制定有关人工智能的政策非常危险。"他担心,现在了解人工智能将如何融入日常生活还为时过早。他还担心,一些不在课堂上授课的管理者制定的政策可能会忽略教学中的细微差别。"这可能会造成将人工智能用于评分和教学的问题过于简单化的危险,过度简化就是制定糟糕政策的方式"。"首先,教育工作者可以识别人工智能的明显滥用,并开始围绕这些滥用制定政策。"莱德纳表示,"大学可以提供非常高水平的指导,比如将透明度作为优先事项--这样学生就有权知道人工智能何时被用于给他们的作业打分--并确定哪些类型的信息绝不能上传到人工智能中,也不能向人工智能询问。大学也必须持开放态度,"随着技术和用途的发展,定期进行重新评估"。...PC版:https://www.cnbeta.com.tw/articles/soft/1426543.htm手机版:https://m.cnbeta.com.tw/view/1426543.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人