ChatGPT写文章喜欢用“delve”一词,于是从ChatGPT问世起,PubMed收录的论文使用“delve”一词的直线上升

ChatGPT写文章喜欢用“delve”一词,于是从ChatGPT问世起,PubMed收录的论文使用“delve”一词的直线上升, 2023年有2000多篇,今年才过了3个月,也已有2000多篇论文用了这词。以前很少人用这个词。

相关推荐

封面图片

西安红会医院脊柱外科的三名医生用ChatGPT胡写了一篇关于精原干细胞的综述文章(这都哪跟哪?),还被登出来了,一举成名。可见这

西安红会医院脊柱外科的三名医生用ChatGPT胡写了一篇关于精原干细胞的综述文章(这都哪跟哪?),还被登出来了,一举成名。可见这份期刊没有任何审稿的。以后中国那些论文作坊要失业了,低档学术期刊上将会充斥着中国研究人员用ChaGPT胡写的论文。

封面图片

Meta监督委员会敦促公司停止禁止使用阿拉伯语"shaheed"一词

Meta监督委员会敦促公司停止禁止使用阿拉伯语"shaheed"一词 该委员会由 Meta 提供资金,但独立运作,它表示,社交媒体巨头只有在帖子与明显的暴力迹象有关或单独违反 Meta 的其他规则时,才应删除含有"shaheed"一词的帖子。这一裁决是在该公司处理涉及中东内容的做法遭到多年批评之后做出的,其中包括 Meta 自己委托进行的一项 2021 年研究,该研究发现,Meta 的做法对巴勒斯坦人和其他使用其服务的阿拉伯语用户造成了"不利的人权影响"。自 10 月份以色列与哈马斯爆发敌对行动以来,这些批评不断升级。在哈马斯 10 月 7 日对以色列发动致命袭击,导致加沙数万人丧生的战争背景下,人权组织指责 Meta 在 Facebook 和 Instagram 上压制支持巴勒斯坦人的内容。Meta 监督委员会在周二的报告中也得出了类似的结论,认为 Meta 关于"shaheed"的规定没有考虑到该词的各种含义,导致一些不以赞美暴力行动为目的的内容被删除。监督委员会联席主席海尔-托宁-施密特(Helle Thorning-Schmidt)在一份声明中说:"Meta 公司一直以为审查制度可以并将提高安全性,但证据表明,审查制度可能会使整个人群边缘化,而根本无法提高安全性。"Meta 目前会删除任何使用"shaheed"指代其"危险组织和个人"名单上的人的帖子,该名单包括伊斯兰激进组织、贩毒集团和白人至上主义组织的成员。根据董事会的报告,该公司称这个词构成了对这些实体的赞美,因此禁止使用。哈马斯是该公司指定的"危险组织"之一。董事会表示,Meta 公司在 2020 年开始重新评估该政策,但未能在内部达成共识,因此在去年就这一问题征求了董事会的意见。它在请求中透露,"shaheed"在其平台上被删除的内容比其他任何单词或短语都要多。Meta 发言人在一份声明中说,公司将审查董事会的反馈意见,并在 60 天内做出回应。 ... PC版: 手机版:

封面图片

试了一下谷歌文档AI分析工具NotebookLM,用同一篇论文同一个提示词扔给它和GPT-4进行总结。

试了一下谷歌文档AI分析工具NotebookLM,用同一篇论文同一个提示词扔给它和GPT-4进行总结。 NotebookLM总结的信息要更全面和详细一些,GPT-4说了跟没说一样,对简单提示词的响应比GPT-4好一些。 都是先用英文提示词总结在让他们翻译为中文。 可以来这里试试:

封面图片

微软昨天发了一篇论文,讲多模态模型下可以用可视化内容和音频来与 AI 沟通,标题就是《Language Is Not All Y

微软昨天发了一篇论文,讲多模态模型下可以用可视化内容和音频来与 AI 沟通,标题就是《Language Is Not All You Need》。看论文截图能很快理解是怎么回事。 这也验证了很多朋友的看法:ChatGPT 只是开始,只要有这种底层能力,交互上的难度并不是最大门槛,会很快得到迭代。每次交互和数据库的小调整,都会带来巨大的体验差。

封面图片

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下 但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者Muhammad Abbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitive prosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitive offloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。 ... PC版: 手机版:

封面图片

整合ChatGPT近一年 必应的市场份额上升不到1%

整合ChatGPT近一年 必应的市场份额上升不到1% 2022年11月底,OpenAI悄然上线一款聊天机器人ChatGPT,上线首周用户突破100万,两个月后月活用户突破1亿,成为当时史上增长最快的消费级应用程序。作为OpenAI的重要“金主”,微软很快跟进,在ChatGPT上线次月就宣布要将ChatGPT整合进其搜索引擎必应。2023年2月,在ChatGPT上线仅仅三个月后,微软正式宣布推出新必应。用户可以用自然语言直接提问,必应会给出答案,一问一答之间,微软勾勒出“下一代搜索方式”的愿景。调子起得很高。微软CEO萨提亚·纳德拉(Satya Nadella)亮剑Google,公开表示:“微软将利用ChatGPT背后的人工智能,颠覆互联网那个搜索市场,摧毁支撑Google核心业务的高利润率。”而Google也很配合地应了战,其CEO桑达尔·皮查伊(Sundar Pichai)在内部发布“红色警报”,代表Google面临紧急且直接的危机。激动人心的故事拉开序幕:蛰伏十多年,微软终于得以重拾搜索梦,化身“进击的微软”,冲击Google在该领域的统治地位。但现实很骨感,必应几乎没能从Google手中抢夺过来市场份额。据StatCounter,2023年结束时,Google搜索引擎的全球市场份额依旧稳定在90%以上。一方面,随着Google也上线了对标ChatGPT的聊天机器人Bard,其他小引擎也纷纷融合大语言模型,新必应的独特性被削弱。另一方面,搜索引擎的竞争远不止“谁更好用”的比拼。去年10月,纳德拉出席Google反垄断案作证,一改之前的豪言壮语,控诉Google控制了移动手机制造商和浏览器默认搜索的位置,微软即使有心出钱却一直没能成功。实际上,以“技术创新”和“使用体验”为切入点冲击Google,是微软2009年正式推出必应时就已经演练过的剧本。必应一举成为世界上第二大的搜索引擎,但也只是瓜分Google之外的不到10%的蛋糕,其“第二”当了十多年,市场份额几乎未变也已十多年。ChatGPT终究救不了必应,在搜索领域,不擒王,必应就难有出头之日。必应的市场份额依旧困在原地。根据StatCounter的数据,2023年结束之时,必应的全球市场份额为3.37%。实际上,在2023年一整年之中,必应的市场份额在整合ChatGPT之后经历过数月的下降,后又回升:1月市场份额3.03%,2月~7月跌至3%以下,8月开始缓慢爬升。Google则几乎与其相反,2023年Google搜索引擎的市场份额在1月到5月处于上升,最高达到93.11%,后小幅波动至年底的91.62%。查看往年数据不难发现,如此小的市场份额波动在正常范围内,无法与特定事件相联系。2023年必应的全球市场份额增长幅度甚至还不如俄罗斯的Yandex,后者的份额比年初增长0.6%。也就是说,不仅必应的市场份额仅仅增长了不到1%,而就连这不到1%,也难言与整合GPT-4有关系。微软也曾公布一些“激动人心”的数据。新必应一经推出,就在48小时内吸引了100万用户申请加入。在新必应推出的次月,微软就宣布必应日活用户数突破1亿,其中有“几百万活跃用户”都是被AI集成版本吸引。在美国市场,必应的市场份额从年初的6.67%增长到了年末的7.71%。但同样的,这些数据并不能说明必应取得了某种意义上的成功。将时间跨度拉大,科技创新带来的“尝鲜”稍纵即逝,并未带来质变;而必应在美国市场的份额近三年也曾一度破7%,而这个数字与其高峰时期的30%(加上雅虎)的美国市场占有率相比已经下滑了许多。最明显的问题在于,新必应以整合ChatGPT为最大的卖点,但这一点的独特性很快就被削弱了。在ChatGPT诞生后的几个月,早已为OpenAI投资百亿美元的微软出尽风头,而Google则按兵不动,被外界质疑在AI军备赛中落后。但在2023年2月,Google在微软发布会的前一天发布了Bard聊天机器人,与ChatGPT及新必应竞争,抢在了新必应正式发布之前。与此同时,其他搜索引擎也纷纷部署大语言模型:You.com去年12月就推出第一代聊天机器人YouChat,早于微软新必应落地;而DuckDuck紧跟新必应落地,在几周后推出DuckAssist。除此之外,旧金山还跑出个成立不到两年的Perplexity AI,整个产品提供的正是基于大语言模型的新型搜索服务,由OpenAI的GPT-3.5模型驱动,另内置基于GPT-4的Copilot搜索功能,用户可以在每四个小时使用五次。就在今年1月,PerPlexity AI完成B轮融资7360万美元,投资者包括亚马逊创始人杰夫·贝索斯(Jeff Bezos)和英伟达等企业,融资后估值超过5亿美元。当必应瞄准Google的时候,“黄雀”也在茁壮成长。仅就Perplexity AI来说,其2023年3月到10月的半年时间里,每天处理的搜索请求量增长了6到7倍,目前每日处理的搜索请求数量达到数百万个。另一方面,ChatGPT本身的迭代,也进一步削弱了新必应的优势。新必应的吸引力很大程度上来自“联网的ChatGPT”,在其推出的时间点,ChatGPT尚不能联网,且训练数据止步于2021年。但在2023年9月,ChatGPT已经可以接入互联网,并向用户提供网络链接。OpenAI还推出了手机应用,并为ChatGPT安上“嘴巴”和“眼睛”,实现多模态。种种变化,让新必应已经难以带给人们初上线时的“新鲜感”,ChatGPT没能成为必应的救星。从某种程度上来说,如今的路,必应不是没有走过。以科技创新、更好的用户体验,来挑战Google,必应本身就是攥着这样的剧本出生的。2008年,时任微软CEO史蒂夫·鲍尔默(Steve Ballmer)请来陆奇,向他承诺全力发展在线搜索业务,与Google展开长期竞争。陆奇曾先后就职于雅虎,负责雅虎的搜索和搜索广告技术,彼时雅虎可以说是Google唯一的有力竞争对手。次年,微软将Live Search更名为必应(Bing),并予以“决策引擎”的定位。简而言之,很多信息用户不必搜索就已经显示。如天气、航班信息,当用户键入关键词的时候,相关信息会直接显示或者弹窗,再如Facebook好友的内容也会通过必应推荐给用户。为此,微软和Facebook、多家旅行服务商等都展开了合作。最大手笔的,是微软与雅虎展开历史性协议,雅虎就此逐步放弃自己的搜索技术,改用必应的数据。向外积极合作,绞尽脑汁为用户提供“贴心”服务、更“便捷”的搜索体验,必应出生起的路径可以说与“新必应”如出一辙。就连Google的“警惕”,也与去年在内部拉响的“红色警报”遥相呼应。2010年时任GoogleCEO埃里克·施密特(Eric Schmit)表示,Google最大的敌人不是苹果或Facebook,而是微软必应。但大力未能出奇迹,反而让必应成为微软一块尴尬的业务。上线两年,微软在必应搜索业务上亏损了55亿美元。2014年,当纳德拉走马上任,成为微软的CEO后,立刻就需要回应关于“必应是否会被转让”的问题,彼时必应尚未盈利,而雅虎则已经动了停止合作的念头。十年过去,微软仍旧守着搜索业务,但其全球市场份额一直“稳定”在个位数。如今我们说必应2023年底市场份额3.71%,较之年初增长不到1%,实际上2010年年初必应的市场份额就已经是3.37%,必应并没有比14年前壮大多少。如果十几年前的“决策引擎”定位、与雅虎联姻,以及今天整合了ChatGPT的“新必应”、与OpenAI联手,都不能拯救必应,那究竟什么能?微软要想在搜索领域杀出一条血路,也许需要先“擒王”。去年9月,美国司法部对Google发起的反垄断诉讼开庭。这场庭审维持数周,许多竞争对手坐上证人席,其中就包括DuckDuckGo、Neeva(已经关停)这样的小搜索引擎公司高管,以及微软CEO纳德拉。如DuckDuckGo的CEO表示,Google与浏览器及平台达成协议,使其成为默认搜索引擎,阻碍有效竞争。小搜索引擎公司控诉Google在搜索领域的垄断,这并不令人意外,有意思的是微软也在庭上一改“颠... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人