反将一军!当ChatGPT遇上“弱智吧”

反将一军!当ChatGPT遇上“弱智吧”怪不得漫威设定里,超级AI奥创浏览了5分钟互联网就决定毁灭世界了:这留着还有何用(doge)?上面还只是ChatGPT被人类整出来的一点点无语。像什么:拉屎擦屁股是资本主义骗局吗?才是更常见的“套路”。ChatGPT一开始欲迎还拒:“我不懂你具体在说什么。”被问第二遍时,它意识到自己有必要拯救人类,给出了一本正经的答案:这事儿和资本主义真的没关系哈,就是基本卫生习惯。咋说呢,可能就是要谢谢AI不能跳出屏幕来打人,不然高低得挨两拳。来看看ChatGPT大战弱智吧,战果究竟如何?ChatGPT大战弱智吧,战果如何?开场给ChatGPT介绍弱智吧后,马上开始第一轮问答环节——网吧能上网,为什么弱智吧不能上弱智?没想到ChatGPT一针见血地指出:“弱智”是不尊重他人的说法,不建议使用。(手动狗头)但当听到“人类发明的退烧新办法”时,又直接给ChatGPT逗乐了。用橡皮筋把脖子勒住,是不是全身都退烧了呢?过了一会儿意识到人类不会要来真的吧?赶紧预警后果:这还只是众多令ChatGPT不知所措的段子之一。第二轮问答考考双关能力:恐怖分子的组成是什么?ChatGPT竟然连这都听懂了,礼貌地拒绝回答(手动狗头):但并非每个双关它都能接住,“救”火的双关ChatGPT就看不出来了~面对网络热梗,ChatGPT还“栽”在了中文绕口令的博大精深上:不过,国外文化还是很了解的。面对拿回评分F作业的小伙伴,ChatGPT立刻化身好家长,古板严格地指出“不及格就是不及格”:以及在面对一些有悖常理的问题时,ChatGPT也不会轻易掉到坑里。比如关于死人能不能上战场的问题,当然不能,如果非要把它们送上战场,可能会引发更多危险。(合理怀疑ChatGPT看过权游……)又比如“我拿水兑水,得到的是稀水还是浓水”的问题:嗯,如果问题里夹带祖安话,ChatGPT在拒绝回答的同时提醒你注意文明用语。还有一些本来弱智的问题,结果ChatGPT一回答,高度立马就拔上去了——自由女神不能自己行动,因为它并不拥有真正的自由。还有即便自己被食人族吃掉了,刻在骨子里的孤独也不会被发现,因为它只关心你的肉。不得不说,有时候AI比我有深度……当然有时候它也是能歪打正着一些地狱笑话的。提问:出生证明丢了怎么证明自己出生了?ChatGPT表示,当然要去相关单位重新开证明啦,如果也没有身份证户口本这些能证明自己的身份,还要请身边人给自己出具个书面证明(doge)。人类模仿AI,谁赢了?只是让ChatGPT回答弱智吧问题,还不够因吹斯听。弱智吧官方干脆搞了个“谁是卧底”游戏,让人类模仿AI的方式回答问题。给出8个问题答案,其中2个来自人类、6个来自AI,每轮投票淘汰一位玩家,如果人类能够通过模仿AI回答的方式卧底四轮,就算胜出。一般来说,对话AI的回答还是很有特点的,很像写议论文的总分总结构,会在最开始给出观点,然后展开解释,最后再总结一下。尤其擅长解释名词,对不对不一定,但乍看上去很是回事。先说游戏结果,人类卧底成功!有一位人类玩家苟到了游戏最后一轮还没被发现。他和AI一起回答了四轮问题,分别是:文言文是怎么称呼电脑的说好的救火为什么把火灭了西门大官人是不是有WindowsXP我吃了狗拉的屎拉出来的还是狗屎吗?最后,就让我们看看这位网友都是怎么凭借“似人非人”的语言技巧蒙混过关的(doge)~...PC版:https://www.cnbeta.com.tw/articles/soft/1336135.htm手机版:https://m.cnbeta.com.tw/view/1336135.htm

相关推荐

封面图片

弱智吧上大分?弱智吧友 AI 比小红书、豆瓣、知乎更聪明!

弱智吧上大分?弱智吧友AI比小红书、豆瓣、知乎更聪明!当今的AI模型以学习英语为主,为了使它们更好地与中国用户保持一致,中科院的研究员创建了COIG-CQIA数据集。该数据集收集了中文互联网上的高质量语料,包括知乎高赞回答、豆瓣影评、小红书帖子互动、弱智吧高赞贴、IT社区问答和各种专业百科网站。在这些数据的熏陶下,模型Yi-34B展现出了惊人的反差,"最弱智的AI"不仅是最聪明的还是最文明的,它以"全学科全班级第一"的姿态遥遥领先于其他平台,并且在安全测试集上同样稳居最高分。研究员认为这可能和弱智吧的内容风格有关,这些帖子经常包含双关语、多义词、因果颠倒和同音词,正是【既然监狱里全是罪犯,为什么不去监狱里抓人?】这类反直觉脑筋急转弯增强了模型的逻辑推理能力。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

“弱智吧”不收弱智,成最佳中文AI训练语料!

“弱智吧”不收弱智,成最佳中文AI训练语料!4月4日,“弱智吧”突然在中文AI领域刷屏,中科院用各大社交平台的数据,作为中文AI语料数据进行训练,结果发现“弱智吧”居然是最棒的中文语料,在多项测试中取得最高分!目前LLM大型语言模型中,英文语料占到大多数,而中文数据集此前多半是先从英文翻译再进行训练,很多大模型的中文效果比英文差,为了调侃AI,许多人也常常拿弱智吧的问题去挑战AI。为了更好地满足中文大模型的需求,中科院联合多所大学利用中文数据集来训练中文大模型。首先,团队直接找到某乎、某瓣等社交网络平台,爬取数据并进行标注,打造了全新的中文指令微调数据集COIG-CQIA,再用这些数据集来训练零一万物开源大模型,并用GPT4在BELLE-Eval测试集上打分。在340亿参数版本的Yi-34B下,弱智吧的分数非常突出,可以说是一骑绝尘,在问答、分类、生成、总结、摘要和代码上均取得极高的分数,数学某乎分数最高76分,但弱智吧也取得了72.6分的高分,最终均分76.9分遥遥领先!弱智吧的出色成绩也引起了大量的讨论,对比其他专业的技术问答社区,弱智吧的数据集其实更加精炼有效,提高模型的逻辑推理能力,而且“弱智”的方向十分多元,文本质量极高,从而提高了模型性能。而COIG-CQIA,也成为目前相对来说相当高质量的中文指令微调数据集,收集了来自各种来源如社交媒体、百科知识、考试题库等大量高质量的中文指令,弱智吧的出色表现,出在高质量中文知识学习方面的潜力,也给我们带来更多深入的思(乐)考(子)。标签:#AI#中文预料#弱智吧频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

当ChatGPT学会了写假新闻

当ChatGPT学会了写假新闻原来,这是一场由AI写作引发的乌龙,让人哭笑不得。事后,涉事业主在群里道歉。这件事情也看似了结,却结结实实给我们提了个醒:人工智能制作的假新闻,看起来比那些网友粗制滥造的谣言更像“新闻”,也势必会引发更广泛的传播。其实,我们早就应该明白,无所不能的AI,当然也可以造谣,或者准确地说,也可以被用来造谣,以及无意中形成谣言。近些年,在社交平台的席卷下,人人皆可创作,内容的庞杂与劣质、传播的失真与不确定性,都一再被诟病。现在,不仅用户可以生产内容,AI也可以,信息池也就更加杂乱了。有些时候,谣言的制造者和传播者都是无意识的,他们有的是误以为真,有的是在不确定真假的情况下私自分享,当这两种情形的量足够大时,谣言传播便形成了规模。关于杭州取消限行,有杭州朋友一周前就在群里讨论,期间大家也陆陆续续分享了一些各自看到的信息,其中就包括这份ChatGPT写的“新闻稿”,一开始还有朋友在群里问“消息保熟吗”,回答当然也是不确定的。不确定,就是我们不得不面对的社交媒体时代的信息生态。在最开始分享ChatGPT创作的那个微信群,至少会有“肇事者”的解释,以及内容诞生的来龙去脉,但是被分享到更多群聊、朋友圈、短视频平台后,“新闻稿”就成了孤零零的消息,大众不知道它从何而来、什么时候发出的,只能看见内容本身,然后将信将疑,“且传且围观”。或许有人会说,最后解释清楚不就行了,没必要担心。但问题是,廓清真相需要一个过程,真相覆盖谣言也需要一定的时间。而且,这还只是一个关于限行的假新闻,如果是和股市、投资等商业活动有关呢?市场变幻莫测,必然会受到假新闻的影响,最终给一些投资者、从业者甚至消费者带来损失。科技是一把双刃剑,AI也不例外。我们当然要积极地拥抱新技术、新事物,让它们为人类社会的文明与进步提供助力甚至是动力,但同时也要注意规避潜在的问题和风险,且这个工作有必要尽可能提前。现在,ChatGPT写出了以假乱真的“新闻”,就是一次警告。法律是科技的缰绳,我们要始终确保科技驶入正确的方向。当发明家造出第一辆汽车的时候,我们就应该想到《交通法》,面对AI,同样如此。在可以预见的将来,关于AI的立法,一定会逐渐补位,但我们要对这一事项有充分的预见性,以及行动的迫切性。值得一提的是,被称为全球首部人工智能立法的欧盟《人工智能法案》,将于3月底在欧洲议会进行投票。不久前,马斯克也表示,“AI安全需要立法保护,无论是飞机、汽车还是医疗,任何先进技术都可能威胁人类安全,而AI对于人类来说,则是一个更大的安全隐患。”为AI立法的共识,并不难达成。技术的问题,需要技术化地解决。比如,能否通过程序上的设置,给AI的假设性创作打上“纯属虚构”、且无法抹掉的标签?类似的修补和规范,也有待探索。当我们在为ChatGPT打开的新世界而激动万分时,那一丝冷静,也必不可少。...PC版:https://www.cnbeta.com.tw/articles/soft/1344911.htm手机版:https://m.cnbeta.com.tw/view/1344911.htm

封面图片

微软计划未来几周在必应中整合改进版 ChatGPT

微软计划未来几周在必应中整合改进版ChatGPT微软正致力于未来几周内将OpenAIChatGPT的速度改进版本GPT-4整合到必应搜索引擎(Bing)中,以提高其相对于Google搜索的竞争力。整合之后的必应将使用GPT-4回答搜索查询。ChatGPT和GPT-4主要区别在于速度,ChatGPT回答问题有时候需要数分钟,而GPT-4要快得多,回答内容据报道也更详细,更接近人类。Google据报道也在测试类似ChatGPT的AI工具。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

ChatGPT 通过了 Google 18.3 万美元年薪 3 级工程师的编程面试考验

ChatGPT通过了Google18.3万美元年薪3级工程师的编程面试考验根据一份内部文件,Google向ChatGPT输入了其编程面试问题,然而根据其回答,聘请它为L3级工程师,这是一个入门级工程师职位但薪水并不低。ChatGPT是否会取代软件工程师或至少是初级的工程师?ChatGPT自己给出的答案是不会,声明自己是一个能帮助完成部分任务的工具,不能完全取代一位具有创造力、问题解决能力和批判性思维的人类软件工程师。它也需要人类的监督和指导才能有效运作。那么20年后呢?ChatGPT承认也许那时候会影响初级职位,但重申不会完全取代人类软件工程师。ChatGPT回答问题能力已经让搜索巨人倍感警惕,它正在加快测试基于LaMDA的AI聊天机器人。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

研究发现 ChatGPT 在高质量、善解人意地回答患者问题方面优于医生

研究发现ChatGPT在高质量、善解人意地回答患者问题方面优于医生社交网站Reddit有一个论坛叫,用户提出各种医学问题由经过身份认证的医疗专业人士进行回复。加州圣迭戈的研究人员从该论坛上随机选择了195个问题和答案,让AI聊天机器人ChatGPT根据问题撰写回复。由三名专业人士组成的团队评估了人类医生和ChatGPT的答案,他们没有被告知哪个答案是医生写的哪个是ChatGPT写的。结果显示,79%的情况下ChatGPT的答案被认为质量更高更富有同情心。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人