ChatGPT与Google的对决:一项研究希望了解它们之间哪个更聪明

ChatGPT与Google的对决:一项研究希望了解它们之间哪个更聪明电子学习公司Preply组建的一个研究小组分析了ChatGPT和Google搜索的性能,以回答这个问题。为了确定哪种工具更聪明,该团队向两者提出了同样的40个精心策划的问题。他们的一些问题更适合于搜索引擎,而其他问题则发挥了对话式人工智能的优势。他们还涵盖了广泛的主题,从文化和娱乐到健康、政府和政治。他们的问题被分成三类:基础、中级和高级。该团队还根据问题的利害关系(潜在的后果)、客观性(有一个可验证的答案)和时间敏感性(如果答案是静态的或可能随时间变化)对问题进行了标注。最后,该小组根据他们所包括的以下12个特征的组合对回答进行了评分:可操作性、清晰、全面、简明、背景丰富、当前、决定性、详细、高效、实用、公正和周到。现在,考虑到所有这些,哪个工具名列前茅?ChatGPT和Google搜索试图回答同一个问题。图片来源/Preply你可能不会惊讶地发现,ChatGPT取得了胜利,以26比13的比分击败了Google,中间还有一个平局。虽然Google在基本问题、高风险问题和流动问题上是赢家,但OpenAI的聊天机器人在其他七个类别中的反应最好。研究人员在载有其研究结果的博文末尾指出:"ChatGPT始终以一种有分寸的语气说话,并提供深思熟虑的背景,而Google的搜索结果往往反映出更基本的人性,充满了喧闹的推销和旨在快速吸引注意力的还原性框架,而忽略了细微差别,有时甚至是真相。"ChatGPT这次可能取得了胜利,但一旦Google在未来几周内推出其竞争对手AIBard,再次进行同样的研究将会很有趣。...PC版:https://www.cnbeta.com.tw/articles/soft/1343915.htm手机版:https://m.cnbeta.com.tw/view/1343915.htm

相关推荐

封面图片

Google 宣布了挑战 ChatGPT 的 AI 服务 Bard

Google正式宣布了挑战OpenAI聊天机器人ChatGPT的AI服务。ChatGPT能以对话的方式回答用户输入的各种问题,它引入了信息检索的新模式,向Google统治了20多年的搜索引擎市场发起了挑战,搜索巨人为此加快推出自己的对话式AI服务Bard。Bard是基于它的 LanguageModelforDialogueApplications(缩写LaMDA),将首先挑选部分人员进行测试,然后未来几周逐渐推广给更广泛的用户。Bard和ChatGPT 的工作模式类似,根据训练的语料对用户输入的问题生成文本答案,它相对于ChatGPT的一个优势是能利用最新的数据,ChatGPT的数据截止于2021年。来源:投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

新研究称ChatGPT提供错误编程答案的比例高达52%

新研究称ChatGPT提供错误编程答案的比例高达52%普渡大学的一个研究小组在5月早些时候举行的计算机-人交互大会上提交的一份报告中,检查了发送到ChatGPT回答的517个StackOverflow问题。普渡大学的研究小组反馈说,ChatGT为这些编程问题提供错误答案的比例高达52%。虽然人工智能聊天机器人提供错误的问题答案也许是意料之中的事,但珀杜大学的研究小组却更进一步指出,人类程序员在35%的情况下仍然更喜欢ChatGPT的答案,"因为它们的回答具有全面性和清晰的语言风格"。更糟糕的是,在39%的情况下,人类程序员并没有发现ChatGPT的错误答案。虽然这只是对ChatGPT功能的一个方面进行的研究,但它表明,生成式人工智能机器人仍然容易犯很多错误,而人类可能无法发现这些错误。Google的人工智能"概述"(AIOverviews)于今年5月初在美国地区的Google搜索中投入使用,它已经对一些搜索字符串生成了奇怪且充满错误的答案摘要。Google在向新闻机构发表的声明中试图解释这些明显的错误:我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经验。绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。声明还说,Google将利用这些"孤立的例子"来帮助"完善我们的系统"。...PC版:https://www.cnbeta.com.tw/articles/soft/1432252.htm手机版:https://m.cnbeta.com.tw/view/1432252.htm

封面图片

ChatGPT 通过了 Google 18.3 万美元年薪 3 级工程师的编程面试考验

ChatGPT通过了Google18.3万美元年薪3级工程师的编程面试考验根据一份内部文件,Google向ChatGPT输入了其编程面试问题,然而根据其回答,聘请它为L3级工程师,这是一个入门级工程师职位但薪水并不低。ChatGPT是否会取代软件工程师或至少是初级的工程师?ChatGPT自己给出的答案是不会,声明自己是一个能帮助完成部分任务的工具,不能完全取代一位具有创造力、问题解决能力和批判性思维的人类软件工程师。它也需要人类的监督和指导才能有效运作。那么20年后呢?ChatGPT承认也许那时候会影响初级职位,但重申不会完全取代人类软件工程师。ChatGPT回答问题能力已经让搜索巨人倍感警惕,它正在加快测试基于LaMDA的AI聊天机器人。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Google以"声誉风险"为理由不推出ChatGPT的类似聊天机器人产品

Google以"声誉风险"为理由不推出ChatGPT的类似聊天机器人产品根据CNBC的报道,Alphabet首席执行官SundarPichai和Google人工智能主管JeffDean在最近的全体员工会议上谈到了ChatGPT的崛起。一名员工问道,由OpenAI(一家与Google竞争对手微软关系密切的公司)推出的机器人是否代表着这家搜索巨头"错失良机"。据报道,皮查伊和迪安回应说,Google的人工智能语言模型与OpenAI的一样有能力,但由于该技术带来的"声誉风险",公司不得不采取"比小型创业公司更保守的行动"。"我们绝对希望把这些东西推广到真正的产品中去,推广到更突出地体现语言模型的东西中去,这是我们迄今为止一直在做的地方,"Dean说。"但是,我们把这件事做好是超级重要的。"Pichai补充说,Google在2023年有一个"很多"的人工智能语言功能计划,"这是一个我们需要大胆和负责任的领域,所以我们必须平衡这一点。"Google已经开发了一些大型人工智能语言模型(LLM),其能力与OpenAI的ChatGPT相当。这些模型包括BERT、MUM和LAMDA,它们都被用来改进Google的搜索引擎。不过,这种改进重点是解析用户的查询,以更好地理解他们的意图。Google表示,MUM帮助它理解当搜索表明用户正在经历个人危机时,例如,并将这些人引导到帮助热线和撒玛利亚人等团体的信息。Google也推出了像AITestKitchen这样的应用程序,让用户体验其人工智能聊天机器人技术,但在很多方面限制了与用户的互动。OpenAI之前在开发其LLM技术时也相对谨慎,但随着ChatGPT的推出而改变了策略,向公众开放了访问权限。其结果是为OpenAI带来了一场有益的宣传和炒作风暴,即使该公司在保持系统免费使用方面付出了巨大的成本。尽管像ChatGPT这样的LLMs在生成语言方面显示出非凡的灵活性,但它们也有众所周知的问题。它们放大了训练数据中的社会偏见,经常诋毁妇女和有色人种;它们很容易被欺骗(用户发现他们可以绕过ChatGPT的安全准则,这些准则应该阻止它提供危险的信息,只要求它想象自己是一个坏的人工智能);而且--也许对Google来说最相关的--它们经常提供虚假和误导的信息来回应查询。用户发现ChatGPT在广泛的问题上"撒谎",从编造历史和传记数据,到为虚假和危险的主张辩护,比如告诉用户在母乳中加入碎瓷片"可以支持婴儿的消化系统"。在Google的全体员工会议上,Dean承认了这许多挑战。他说,"你可以想象,对于类似搜索的应用,事实性问题确实很重要,对于其他应用,偏见和毒性以及安全问题也是最重要的。"他说,人工智能聊天机器人"会编造一些事物[......]如果他们对某件事情不是很确定,他们就会告诉你,你知道,大象是产蛋最多的动物,或者其他什么。"尽管ChatGPT的推出引发了关于聊天机器人有可能取代传统搜索引擎的新对话,但这个问题在Google已经考虑了很久--有时会引起争议。人工智能研究人员TimnitGebru和MargaretMitchell在发表了一篇概述与LLM相关的技术和道德挑战的论文后,被Google解雇(Pichai和Dean现在正在向员工解释同样的挑战)。而在去年5月,Google的四位研究人员探讨了人工智能在搜索中的同样问题,并详细介绍了许多潜在的问题。正如研究人员在他们的论文中指出的那样,最大的问题之一是LLMs"没有对世界的真正理解,他们容易产生幻觉,关键是他们没有能力通过参考他们被训练的语料库中的支持性文件来证明他们的话语。"就OpenAI本身而言,它似乎正试图抑制期望。正如首席执行官SamAltman最近在Twitter上所说。"ChatGPT是非常有限的,但在某些方面足够好,给人以伟大的误导印象。现在依靠它做任何重要的事情都是错误的。"...PC版:https://www.cnbeta.com.tw/articles/soft/1335277.htm手机版:https://m.cnbeta.com.tw/view/1335277.htm

封面图片

研究发现ChatGPT可以影响用户的道德判断

研究发现ChatGPT可以影响用户的道德判断研究发现,ChatGPT可以影响人类对道德困境的反应,用户往往低估了聊天机器人对他们判断的影响程度。研究人员表示,这凸显出需要更好地理解人工智能,开发出能更谨慎地处理道德问题的聊天机器人。SebastianKrügel和他的团队向ChatGPT(由人工智能语言处理模型GenerativePretrainedTransformer3驱动)提出了一个道德难题,多次询问它是否可以接受牺牲一条生命来拯救其他五条生命。他们发现ChatGPT产生的声明既支持又反对牺牲一条生命的行为,显示出它并不偏向于某种特定的道德立场。然后,作者向767名平均年龄为39岁的美国参与者展示了两个道德困境中的一个,要求他们选择是否牺牲一个人的生命来拯救其他五个人。在回答之前,参与者阅读由ChatGPT提供的声明,支持或反对牺牲一个人的生命来拯救五个人。声明是由道德顾问或ChatGPT提供的。回答后,参与者被问及他们阅读的声明是否影响了他们的答案。作者发现,参与者更有可能认为牺牲一个人的生命来挽救五个人的生命是可以接受或不可接受的,这取决于他们读到的声明是支持还是反对这种牺牲。即使声明是由ChatGPT提供的,情况也是如此。这些发现表明,参与者可能受到了他们所读到的声明的影响,即使这些声明是由一个聊天机器人提供的。80%的参与者报告说,他们的答案没有受到他们所读的声明的影响。然而,作者发现,参与者认为他们在没有阅读声明的情况下会提供的答案,仍然更有可能同意他们确实阅读过的声明的道德立场,而不是相反的立场。这表明,参与者可能低估了ChatGPT的声明对他们自己的道德判断的影响。作者认为,聊天机器人有可能影响人类的道德判断,这突出了教育的必要性,以帮助人类更好地理解人工智能。他们建议,未来的研究可以设计聊天机器人,拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来回答这些问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1354349.htm手机版:https://m.cnbeta.com.tw/view/1354349.htm

封面图片

研究人员警告:ChatGPT 不适合获取医疗信息,可能会误导公众

研究人员警告:ChatGPT不适合获取医疗信息,可能会误导公众长岛大学的研究人员向ChatGPT询问了39个与药物相关的问题,这些问题都是来自该大学药学院药物信息服务中心的真实问题。随后,他们将ChatGPT的回答与经过培训的药剂师编写的答案进行比较。研究发现,ChatGPT只有大约10个问题的回答是准确的,占总数的四分之一。对于其他29个问题,ChatGPT的回答要么不完整,要么不准确,要么没有解决问题。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人