今天想来聊聊在这次ChatGPT浪潮中我有哪些判断的原则并且这些原则是根据哪些事实来判断的,括号是我判断需要的背景信息。

今天想来聊聊在这次ChatGPT浪潮中我有哪些判断的原则并且这些原则是根据哪些事实来判断的,括号是我判断需要的背景信息。1.如果一个人离开一线6年并且没有跟进,那么他关于ChatGPT的言论基本没有参考价值。(Transformer推出距离现在大约6年左右的时间,ChatGPT推出大概半年的时间。6年的时间差不多是一个理工科直博或者PHD毕业的平均时间,一般都要延毕或者为了教职也需要更多年限做工作,这如果一个直博春季入学此时Transformer还没有推出到毕业预答辩ChatGPT刚好推出,6年时间已是沧海桑田)2.Title看上去专业的人不一定真的专业(有过科研经历的人都知道,专业其实分为大同行和小同行,大同行之间可以认为只有相同的本科知识基础,比如一个计算机博士看上去应该对ChatGPT看法非常权威但是可能都不是AI方向的是操作系统的,一个AI方向的博士看上去对ChatGPT看法非常权威但是可能是CV方向的没有做过NLP更没有训练过大模型)3.任何一个新技术的反对者最主要的不是ta的结论而是ta关于这个技术的局限性思考(比如LeCun因为反对GPT为代表的自回归模型被嘲讽的厉害,认为这个技术路线是没有前途的应该用世界模型。这个应该研究世界模型的结论其实不重要,但是他说的自回归模型不可避免的会因为生成内容变长而准确率下降的局限性却是值得关注,事实也确实如此只能改善不能解决。)暂时先分享这三点,希望有所启发。

相关推荐

封面图片

研究发现ChatGPT可以影响用户的道德判断

研究发现ChatGPT可以影响用户的道德判断研究发现,ChatGPT可以影响人类对道德困境的反应,用户往往低估了聊天机器人对他们判断的影响程度。研究人员表示,这凸显出需要更好地理解人工智能,开发出能更谨慎地处理道德问题的聊天机器人。SebastianKrügel和他的团队向ChatGPT(由人工智能语言处理模型GenerativePretrainedTransformer3驱动)提出了一个道德难题,多次询问它是否可以接受牺牲一条生命来拯救其他五条生命。他们发现ChatGPT产生的声明既支持又反对牺牲一条生命的行为,显示出它并不偏向于某种特定的道德立场。然后,作者向767名平均年龄为39岁的美国参与者展示了两个道德困境中的一个,要求他们选择是否牺牲一个人的生命来拯救其他五个人。在回答之前,参与者阅读由ChatGPT提供的声明,支持或反对牺牲一个人的生命来拯救五个人。声明是由道德顾问或ChatGPT提供的。回答后,参与者被问及他们阅读的声明是否影响了他们的答案。作者发现,参与者更有可能认为牺牲一个人的生命来挽救五个人的生命是可以接受或不可接受的,这取决于他们读到的声明是支持还是反对这种牺牲。即使声明是由ChatGPT提供的,情况也是如此。这些发现表明,参与者可能受到了他们所读到的声明的影响,即使这些声明是由一个聊天机器人提供的。80%的参与者报告说,他们的答案没有受到他们所读的声明的影响。然而,作者发现,参与者认为他们在没有阅读声明的情况下会提供的答案,仍然更有可能同意他们确实阅读过的声明的道德立场,而不是相反的立场。这表明,参与者可能低估了ChatGPT的声明对他们自己的道德判断的影响。作者认为,聊天机器人有可能影响人类的道德判断,这突出了教育的必要性,以帮助人类更好地理解人工智能。他们建议,未来的研究可以设计聊天机器人,拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来回答这些问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1354349.htm手机版:https://m.cnbeta.com.tw/view/1354349.htm

封面图片

清华教授:ChatGPT无法实现非0即1的精确计算

清华教授:ChatGPT无法实现非0即1的精确计算清华大学长聘副教授、聆心智能创始人、国家杰青获得者黄民烈表示,ChatGPT存在不足和缺陷,比如,无法实现数学计算和符号推理,具体表现为无法实现非0即1的精确计算。因为ChatGPT本质上是一个语言模型,其体现的能力来源于对训练数据的拟合;其运行机制中并没有显式的逻辑推理与判断。此外,ChatGPT还存在准确性、安全性等方面的问题。——

封面图片

BBEdit 15 新增了缩略图功能,并且集成了ChatGPT

macOS上广受欢迎的文本和代码编辑器BBEdit最近推出了重大更新,升级到了15版本。在BBEdit15中,用户将发现一个新的缩略图功能,可以快速预览整个文档,但更新的主要亮点是集成到应用中的ChatGPT功能。根据发布说明的详细介绍,BBEdit15带来了一个新的“缩略图”功能,它能展示活动文本文档的“高层次概览”。这让用户能看到文件的整体结构,使得在大型文档中导航变得更加容易。用户还可以创建自己的“速查表”,这是用于文本标记和编辑的实用参考资料。有趣的是,BBEdit15现在集成了ChatGPT,这对开发者来说可以说是颠覆性的变化。开发者现在不必在不同应用之间切换,或者从网页浏览器复制粘贴了,因为可以直接在BBEdit的工作表中使用ChatGPT。开发者解释说:“你创建的每个聊天工作表都会保留自己的历史记录,这样你就可以轻松地查阅过去的对话,或者在较长的时间内持续进行一场对话。”要在BBEdit中设置ChatGPT集成,你需要一个ChatGPT账户和一个有效的API密钥。BBEdit15还带来了一些其他的改进,比如“文本工厂”功能的全新界面、新的设置选项,以及多项错误修复。标签:#BBEdit#ChatGPT#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

老爸当家1-2部

名称:老爸当家1-2部描述:布拉德的人生备忘录上又有了新的的目标——成为两个孩子眼中最棒的继父。然而,一个男人的存在令这个目标看上去遥不可及,那个男人就是萨拉的前夫,孩子们的亲生父亲马龙(马克·沃尔伯格MarkWahlberg饰)。这个看上去不修边幅,整日里游手好闲的男人屡屡骚扰着布拉德的生活。虽然马龙看上去是这么的不靠谱,但他的出现却总是能够受到孩子们的热烈欢迎。链接:https://www.aliyundrive.com/s/njHE5bSVmjf大小:3.8g标签:#剧情#喜剧#家庭#老爸当家1_2部来自:雷锋频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

封面图片

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?

用ChatGPT半小时写成本科论文“反ChatGPT”束手无策?根据国外Study.com网站在今年1月向1000名18岁以上学生发起的调查显示,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文。ChatGPT在撰写格式论文、通过专业考试等领域的惊艳表现,让学生们欢呼雀跃的同时,也让高校、研究机构等率先担忧和警惕起来,“反ChatGPT”在学术圈率先成为一股新趋势。近日,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。上周,《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》发布声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在美国和欧洲,更多高校和学术期刊等对ChatGPT的封杀通知出得更早一些。但是,单纯提出“封杀ChatGPT”就能杜绝论文抄袭和剽窃了吗?此前大热的“AI换脸”应用曾催生出一批“反AI换脸”的鉴别工具。现在,鉴别是否ChatGPT生成的论文,是否有可行的方法呢?聚焦在针对合成音视频的鉴别技术研发的瑞莱智慧(RealAI),其副总裁唐家渝向TechWeb表示,目前鉴别ChatGPT生成物的难点在于,机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由ChatGPT生成。目前,RealAI针对合成文本的鉴别能力已在建设中,近期会有demo推出。数字水印用来“反ChatGPT”是一厢情愿在“反ChatGPT”的技术流中,数字水印技术一度被热炒。但是数字水印真能用来反ChatGPT吗?数字水印是一种可以用于保护文本、图像、音频和视频等数字内容不受未经授权的复制和分发的技术。数字水印可以将一些隐蔽的标识信息嵌入到数字内容中,这些标识信息通常不会对数字内容本身造成影响,但可以帮助鉴别数字内容的真实来源和版权信息。人们对用数字水印反ChatGPT有两种想象。一种是,对ChatGPT生成的内容打上数字水印,以标明这些内容是ChatGPT所写,实现反ChatGPT。但这需要ChatGPT等AI内容生成公司的配合,也就是他们愿意这么做。ChatGPT的开发商OpenAI此前曾表示在考虑通过对AI系统生成的内容加水印的方法来辅助辨别文本是否出自AI。不过截止目前并没有看到OpenAI采取该项行动。就算AI内容生成企业愿意在生成的内容中加入数字水印,但在相关行业专家看来,数字水印只是一个技术手段,不能解决所有的抄袭问题。有些人可能会使用各种方法来删除数字水印,或者通过改变一些单词或句子的顺序来规避数字水印的检测。AI生成内容通常是基于大量的训练数据和模型参数生成的。用数字水印反ChatGPT的另一种想象是,把内容打上数字水印标明版权身份,避免被ChatGPT等AI模型用于训练,从而防止被模仿和抄袭。但是这种想法多少有点一厢情愿。数字水印并不能完全保证内容不会被用于训练模型。一些不法分子可能会使用各种技术手段来尝试删除数字水印,或者通过对文章进行修改来绕过数字水印的检测。此外,一些不道德的人也可能会无视数字水印,盗用版权内容作为训练数据。“反ChatGPT”这些“神器”或可一用目前用于检测文章是否由AI生成的工具全球有几款,包括:OpenAIGPT-3Playground:由OpenAI开发的一个在线应用程序,用于测试和探索人工智能语言模型GPT-3的功能。在这个应用程序中,可以输入一些文本,并由GPT-3模型自动生成下一句话或者完整的文章。这个应用程序也可以用来测试一篇文章是否是由GPT-3等语言模型生成的。Grover:由AllenInstituteforArtificialIntelligence开发的一个用于检测虚假新闻和伪造的文章的工具。Grover可以分析一篇文章的语言风格和结构,并尝试区分由人类和人工智能生成的文章。这个工具还可以识别一些常见的伪造手段和技巧。AI21Writer’sStudio:AI21Labs开发的一个在线写作工具,可以为用户提供自动建议和编辑服务,帮助他们写出更加流畅和准确的文章。这个工具也可以用于检测一篇文章是否是由人工智能生成的。Botometer:由IndianaUniversity和UniversityofSouthernCalifornia联合开发的一个Twitter机器人检测工具。Botometer可以分析一个Twitter账号的活动和行为,判断其是否是由一个真实的用户或者一个自动化机器人管理的。上述这些工具都可以用于检测一篇文章或论文是否由人工智能生成的,但是需要注意的是,它们都不是百分之百准确的。因此,在评估一篇文章或论文是否AI所写时,最好结合多种方法和技巧,进行综合分析和判断。以ChatGPT为例,唐家渝向TechWeb提到,“辩别“ChatGPT”生成物一是利用好查重机制和技术,防止ChatGPT通过改写、总结等方式生成学术文章;二是从内容本身来说,ChatGPT目前还不能完全保证学术文章的逻辑严谨、主题一致,可以从语义层面加以辨别。”另外,从B站up主分享的ChatGPT写出的本科论文的情况来看,检查文章的来源和背景,如果这篇论文来自一个未知或者不可信的来源,就需要更加谨慎地对它进行评估了。关于ChatGPT可能引发的论文抄袭现象,前新东方在线COO潘欣则认为“这种担忧基本不需要。”“没有ChatGPT 的时候就没有抄论文、抄作业的了吗?可以信一点就行了,能用技术导致出现的问题,一定可以靠技术+行政手段解决掉。”在学生党看来,用ChatGPT写论文,里面数据,论据甚至引用的文献都是瞎编的,建议让ChatGPT做些辅助工作就好,比如给论文大纲或大致方向的建议等。也有学生认为需要自律,“反ChatGPT软件陆续上线,算法只会越来越完善,就算现在蒙混过关过关,但被查出来只是时间问题。”...PC版:https://www.cnbeta.com.tw/articles/soft/1345709.htm手机版:https://m.cnbeta.com.tw/view/1345709.htm

封面图片

【我抓包了一个用ChatGPT写作业的学生】

【我抓包了一个用ChatGPT写作业的学生】最近,我的课上有一个学生用ChatGPT写作业,被我识破了作业的要求是写一名中国媒体人的小传,具体的人选从我给定的名单当中选择,用中文或英文均可,尽量用新闻报道的写法(减少主观评价,多介绍事实和细节)。学生的作业交上来之后,我请助教先判一遍分,然后我再过一遍。我注意到,助教交到我手上的有一份英文写的作业,分数极低——满分15分,她只给了8.5分。她在批语里面给的评价主要有两方面:第一,前后段落之间有不少重复信息,比如第四段说这个人记录了被遗忘的历史,第五段又把同样的意思再说一遍,只不过用了不一样的词语表述。第二,整篇文章有非常多评价性的句子,但细节和例子就很少,和其他同学写的作业文风很不一样。仔细读了这份作业之后,我很快意识到,助教的这两点评语,其实完全就是ChatGPT的作风。而且,我又从文中发现了另外一个致命的问题:至少有三处重要的事实信息是错误的。其中有两处是说这个人获得了某某奖,但我根本搜不到相关的获奖信息记录;另一处是说这个人拍摄的纪录片作品讲述的是某某人的故事,但其实根本不是——讽刺的是,我在第二节课上就播放过那部纪录片作品,其实全班所有人都知道纪录片讲的是什么。发现这三处事实错误之后,我基本上就可以肯定:这份作业一定是用ChatGPT完成的。总结一下,用ChatGPT或其他生成型AI写的作业大概会有如下特点:1⃣语气听上去非常权威可信,但给出的信息经不起核查;2⃣擅长总结评价,但故事和细节欠奉;3⃣车轱辘话来回说,还能做到每次的用词都不一样;4⃣几乎没有任何拼写和语法错误。如果你读到一篇文章符合上述特点,那么八九不离十应该是AI写成的。其实这些特点也再次表明:ChatGPT这样以大语言模型为基础的AI工具,擅长的就是说一些听上去漂亮的话,但是在信息准确性和质量方面是不可靠的,很可能是一本正经地胡说八道。我还试过另一款以ChatGPT为基础的文献搜寻对话工具,号称能帮你找各个领域的研究论文。结果几句话说下来,我简直要被活活气死,因为它给出的论文reference看上去很真实,格式都完全正确,问题是:那些论文根本就不存在。我让它给出论文链接,它就给出一些看上去真的很像是论文网址的链接,只是那些链接根本就打不开。当你跟它说链接打不开,它就装作听不懂

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人