2学者被指误置马来帆船 UPM:论文已交由学术界审查!

2学者被指误置马来帆船UPM:论文已交由学术界审查!博特拉大学(UPM)解释,2名博大学者的研究论文《TheJongsandTheGalleys:TraditionalShipsofThePastMalayMaritimeCivilization》是采用匿名同行评审和引用论文期刊的政策。https://www.sinchew.com.my/?p=5326265

相关推荐

封面图片

学术界有人使用ChatGPT撰写论文 查询短语不慎出现在文章中

学术界有人使用ChatGPT撰写论文查询短语不慎出现在文章中如今,论文的作者已经坦白承认他们使用聊天机器人来起草文章,成为了生成式AI对学术界的最新示例,引发了学术伦理问题。IOPPublishing的同行评审和研究诚信主管KimEggleton表示:“这违反了我们的伦理政策。”2015年以来,Cabanac一直致力于揭示其他未公开声明用人工智能技术的已发表论文,当时AI技术还只是一种好奇。随着计算机能够生成更加逼真、类似人类的作品,这一斗争变得更加艰巨。但这仅加强了Cabanac的决心,他已经帮助揭示了数百份由AI生成的手稿。一些小心掩盖痕迹的作者不会留下明显的线索,但幸运的是,像Cabanac这样的侦探仍然可以找到很多迹象。他最近还揭发了另一篇发表在《ResourcesPolicy》期刊上的论文,其中包含了几个明显的痕迹。该期刊表示已经“意识到了这个问题”,并正在调查此事件。此外,AI模型经常会混淆事实,并且可能太愚蠢,无法准确地复述科学论文中涉及的数学和技术术语,就像《ResourcesPolicy》的研究中包含的毫无意义的方程式一样。ChatGPT还可能会凭空制造虚假主张,这种现象或许过于宽容地被描述为“幻觉”。一个丹麦教授最近发现,一篇预印论文部分由AI生成,因为它引用了他名下不存在的论文。考虑到同行评审过程的严格性,AI制作的伪造论文竟然能够过关,这实在令人震惊。...PC版:https://www.cnbeta.com.tw/articles/soft/1382995.htm手机版:https://m.cnbeta.com.tw/view/1382995.htm

封面图片

发一篇论文收2.3万、出版社太贪婪 42名期刊编辑全体辞职抗议

发一篇论文收2.3万、出版社太贪婪42名期刊编辑全体辞职抗议在出版社拒绝降低费用后,整个编辑委员会都辞职了,包括牛津大学、伦敦国王学院和卡迪夫大学的教授。他们称这种收费是“不道德的”,与所涉及的成本无关。出版社利润比谷歌亚马逊都高根据卫报旗下观察家报消息,该期刊背后出版社声称出版了世界上25%的科学论文,去年其收入增加了10%,达到29亿英镑(253亿人民币)。而2019年的财务数据显示其利润率高达40%,比谷歌亚马逊还高。学者们对此感到愤怒,他们的研究通常由慈善机构和公共财政资助,与出版社无关。学术编辑相互审阅论文则是免费或只领取很少的津贴。接下来,要么是大学支付高昂订阅费,要么是发表论文的学者被收取高昂出版费。卡迪夫大学脑刺激学负责人、辞职教授之一ChrisChambers表示:出版社在学术界掠食,获得巨大利润,却没给科学增加什么价值Neuroimage前主编、牛津大学生物医学工程教授StephenSmith表示:学术界整体真的不喜欢现在的情况,但作为个体为无法让大出版商更有道德而感到无能为力。出版社发言人对此也做出了回应:我们非常重视我们的编辑,并对[这次辞职]感到失望,特别是在过去的几年里,我们一直在与他们进行建设性的接触。出版社发言人还说该期刊出版费用“相对于质量来说低于市场平均水平”,“低于其领域内最接近的可比期刊的收费”。原班人马创办新期刊辞职的编辑们经过商议,决定在非盈利出版机构MITPress创办一个新期刊。新期刊命名为ImagingNeuroscience,专注于人类和其他物种的大脑和脊髓成像,还包括神经生理学和刺激方法。新期刊同样选择开放获取模式,旨在取代NeuroImage成为该学科的领先期刊。根据已上线的官网声明,新期刊版面费目标是比NeuroImage低一半甚至更低。同时将对低收入或中等收入国家免除版面费。StephenSmith教授依然担任新期刊主编。他认为,过去研究人员之所以能够忍受高费用,正是因为他们希望在有声望的期刊上发表文章,以助于他们的职业生涯,并确保他们的工作被广泛阅读和引用。现在他把整个编辑部全带走,原来建立的声望也会随之转移到新期刊上。参考链接:[1]https://www.theguardian.com/science/2023/may/07/too-greedy-mass-walkout-at-global-science-journal-over-unethical-fees[2]https://imaging-neuroscience.org...PC版:https://www.cnbeta.com.tw/articles/soft/1358631.htm手机版:https://m.cnbeta.com.tw/view/1358631.htm

封面图片

感觉学术界越来越没劲的原因就是人的背景高度同质化。如果一块陨石能砸死三个中国学者,那十有八九这几位分别是美本文理学院出身、国内t

感觉学术界越来越没劲的原因就是人的背景高度同质化。如果一块陨石能砸死三个中国学者,那十有八九这几位分别是美本文理学院出身、国内top大学的中产阶层、以及第一学位并不好但是读了n个硕士补学历,直到上到顶尖学校。这整个圈子完全就是一个极度封闭的系统,每个人的生活经历、家庭背景、收到的学术训练高度标准化,产生的insight不可能超越阶级,更不可能超越同质化的知识背景。在这种环境里说什么diversity都是白搭,因为游戏规则以及决定了最后筛选出的都是同一批人。在这种圈子里见到人都很难说是一个独特的个体,他们所有人更像是同一个“优秀得很标准”的人的不同变体。

封面图片

或被撤销学位证 AI立法能否解决学术道德问题?

或被撤销学位证AI立法能否解决学术道德问题?且不论AI到底是不是写论文的神器,仅仅是AI代写论文是否能够受到认可的事情就足以引起讨论。近日,我国拟立学位法,未来AI代写论文能否获得肯定或将有结论。AI代写论文或被撤销学位8月28日,学位法草案提请十四届全国人大常委会第五次会议初次审议。其中,草案对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。草案明确,已经获得学位者,在获得该学位过程中有下列情形之一的,经学位评定委员会审议决定,由学位授予单位撤销学位证书:学位论文或者实践成果存在抄袭、剽窃、伪造、数据造假、人工智能代写等学术不端行为的;盗用、冒用他人身份,顶替他人取得的入学资格,或者以徇私舞弊等非法手段取得入学资格、毕业证书的;在学习期间存在不应当授予学位的其他违法违规行为的。近一年来,生成式人工智能、多模态预训练大模型横空出世,在惊艳众人的同时也影响到多行多业,连象牙塔也不例外。从媒体报道来看,AI已渗透学术训练、学业评价等多个环节,如何看待AI对于教育的影响,也成为需要重视的问题。尽管由AI“参与”的论文写作尚未得到定性,有观点认为AI不具备学术能力,只是笔替的角色,也有观点认为“写”始终是论文创作中不可分割的整体,但由AI带来的学术造假、舆论安全风险等却早已引关注。2023年1月27日,法国一流大学巴黎政治学院向全体师生发电邮,宣布禁止使用ChatGPT,以防欺诈和抄袭。香港大学则成为香港首所明文禁止在课堂等教学行为中使用ChatGPT或其他人工智能工具的大学。此外,全国中文核心期刊、CSSCI核心库期刊《暨南学报(哲学社会科学版)》在关于使用人工智能写作工具的说明中提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创造性。如有隐瞒使用情况,将对文章作直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。对于此次草案的提出,全联并购公会信用管理委员会专家安光勇认为,《学位法》草案的提出标志着中国政府对于学术诚信和学位获得的重视,旨在规范学位授予过程中的不端行为,保障学术的公平性和高质量。这一举措有利于提升学术诚信意识、净化学术环境、加强学位授予程序、整顿学术代写行业等。生成式AI并非万能工具当前,市面上AI代写工具五花八门,生成式AI只需一些提示即可快速生成内容,能在一定程度上辅助学生完成写作,实现有效助力,但AI或许也并非万能。财经网科技留意到,以某款AI论文工具为例,只需输入论文标题,就可以得到一篇范文以及查重报告,其报价为78元/篇,若还需开题报告、任务书等增值服务,则需每项单独额外支付9.9元。该AI论文工具网站内容显示:文件下载流程:支付宝/微信打开账单,找到对应的支付记录,点开详情页复制订单号/交易单号后,查询结果输入编号即可下载对应的文件。东南大学经济管理学院教授吴芃曾对媒体指出,她早发现不少学生正借助AI工具完成论文或者课程作业。在她看来,论文写作过程中的繁琐和耗时常常令学生感到挑战重重,而AI工具在提高论文写作效率方面具有得天独厚的优势。如果学生善于运用AI工具,将有利于提升学生的综合能力、提高论文质量。但AI工具数据分析、模型搭建、思路创新方面仍显不足。仅仅依靠AI工具,学生并不能完成一篇高质量的论文。2022年,即将参加答辩的李琳被室友安利了一款AI写作工具。她称,自己当时想偷懒,于是大手一挥就花了48元买了高级版,摆弄了一天终于有一篇大致觉得还可以的,于是便收拾行李回家。“没想到后来仔细看的时候,发现法律不是最新的,不能用,有些还牛头不对马嘴,又花了19元生成的还是不行,最后还是自己熬夜通宵自己手动写论文。”在上海的沈雨则尝试过更多AI论文工具。她表示,在写开题报告时,她用一款工具续写,结果导师直接说一半的内容语意杂糅,自己几乎重写了一遍。“有的就是有bug、非常卡,还有一款是主打降重,但根本没用,甚至出现降重前55%、降重后76%的情况。”学术道德与法律责任规范化箭在弦上随着ChatGPT掀起的AI热潮席卷全球,越来越多AI应用开始遍地开花,随之带来了以假乱真等一系列问题,而学术训练也面临着技术变革所带来的考验。当前,有大量学术论文在使用新一代大模型所支持的API开发工具产出,产生了较为严重的学术风险和产权确定等难题。自2022年开始,全球学术界掀起了针对ChatGPT的学术道德与法律责任的规范化行动,而今国内也加速了对风险的深刻认知。立法能否解决相关问题,是否会遇到难点?在安光勇看来,鉴别AI生成的论文可能会变得越来越困难,尤其是当AI的写作质量逐渐接近人类写作水平时。然而,一些特定的模式、格式或语言使用可能会透露出AI生成的痕迹。“确定AI参与论文写作的标准可能是一个挑战,”安光勇指出,通常情况下,简单的语言润色、资料查询以及数据计算可能被视为正常辅助行为。然而,如果AI在思维、创意和文章主要内容上发挥了决定性作用,可能会被视为违规。总之,对于如何看待AI在学术领域的使用以及制定相关法律法规,目前尚无明确标准答案。在独立国际研究策略员陈佳看来,OpenAI的大模型开发工具GPT已经打开了潘多拉魔盒,要想实现法律治理目标有着诸多现实难题:首先,从技术层面分析,短期内强人工智能与技术监管之间道高一尺魔高一丈的现象,恐怕还要持续相当长的一段时间;其次,越来越快的技术换代这导致监管目标定位往往产生严重失锚现象,短期内存在大量科技监管与学术研究的灰色地带;再者,AGI本质上是一把双刃剑,如果全面封禁则会造成比较严重的学术研究与科技进步机会成本;另外,真正的学术监管难题不在于道德原则和法律精神,而在于如何精准度量。他表示,AGI科技监管最终还得要靠AGI监管技术进步与创新,利用API开发工具来追踪学生中期论文使用API工具的路径与痕迹是一条正确的学术道德治理之路,但对学术监管的技术能力与发展速度都提出来极高的要求。“在浩如烟海的学术论文中分辨究竟有多少借鉴、引用或者抄袭并不容易。法律法规写入条款不过几十上百字,要能够让实践检验有效履行,则需要多年的经验、教训、技术与理念的厚积薄发。AGI产生的全球学术伦理道德冲突是全新的问题,学术界全面实现科学法治之路还任重道远。”陈佳表示。文丁一编辑靖程...PC版:https://www.cnbeta.com.tw/articles/soft/1381057.htm手机版:https://m.cnbeta.com.tw/view/1381057.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人