如果把chatgpt 当作替代人类的工具,那它肯定有巨多的问题,并且目前的程度也做不到。

如果把chatgpt当作替代人类的工具,那它肯定有巨多的问题,并且目前的程度也做不到。可这不妨碍它是伟大的产品,不是单指chatgpt一家,更多的是交互方式的革命。电脑是有键盘和鼠标,我妈那个年纪的人根本不会用电脑,之后是手机,乔布斯说只需要手滑就可以,最起码我妈是会用抖音和微信。现在AI,从搜索问题寻找答案,到发送问题给出答案,从寻找图片到输入关键词生成图片之间的变化。Telegram有个机器人叫消息检索。直接发信息,它会把相关结果的链接发出来。我第一次看到这个交互,特别诧异。这是从自己主动找,到别人帮忙找的变化。做出这个机器人的作者,是非常厉害的产品经理。我知道会有人说这样人不就变得更懒吗?可这是不可逆的。

相关推荐

封面图片

研究显示39%的人类程序员未能识别出ChatGPT的编程错误

研究显示39%的人类程序员未能识别出ChatGPT的编程错误普渡大学的研究小组在计算机-人交互大会上提交的报告指出,ChatGPT在回答517个StackOverflow编程问题时,错误率高达52%。研究将问题分为概念性、如何操作和调试三个子类别,并根据问题的流行度、类型和时效性进行了分析。结果显示,人类程序员在35%的情况下更倾向于ChatGPT提供的答案,然而,在39%的情况下,人类程序员未能识别出ChatGPT的错误答案。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

ChatGPT闯入金融圈?研究:可作为助手 但不能取代人类

ChatGPT闯入金融圈?研究:可作为助手但不能取代人类此外,他们补充说,即使是专业的投资组合经理,也可以使用ChatGPT来提高他们的效率。研究人员写道:“ChatGPT不是金融行业的‘预言家’,而是投资者和投资组合经理的‘助手’或‘副驾驶’。如果在设定的框架内适当使用,ChatGPT有可能彻底改变资产配置实践。”这项研究测试了ChatGPT的“金融实力”,让它用40种资产(包括美国大盘股票、加密货币、大宗商品、货币和债券)创建了一个投资组合。测试运行了1万次,在此期间,研究者将人工智能的投资组合与随机选择的投资组合进行了较量。研究人员发现,ChatGPT的表现优于随机投资组合,并创造了足够多样化的投资组合。他们在报告中写道,“ChatGPT可以识别资产之间的抽象关系,特别是在资产类别的不同方面。”不过,研究人员强调称,不能将ChatGPT作为“市场预测器”,其他用户也指出了它提供错误答案的实例。此外,它的知识库也仅截止到2021年,这意味着它并未包含2022年的剧烈市场波动,其中包括熊市、美联储激进的紧缩政策以及俄乌冲突等等。该研究总结道:“值得注意的是,人类专家在投资组合管理中的作用仍然至关重要,因为他们必须与理论框架和投资理论相结合,以确保从大语言模型(LLM)获得可靠、有用的信息。”尽管如此,ChatGPT在去年11月推出后的两个月内就获得了约1亿用户。市场对人工智能技术的热情也有所体现,某些专注于这一不断增长领域的公司正在实现股票上涨。例如,为人工智能开发提供大部分硬件的英伟达(Nvidia)今年上涨了84%。根据瑞银全球财富管理的数据,到2025年,人工智能硬件和服务市场预计将达到900亿美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1351883.htm手机版:https://m.cnbeta.com.tw/view/1351883.htm

封面图片

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略在研究中,研究人员查看了StackOverflow中的517个问题,并分析了ChatGPT对这些问题的回答尝试。研究人员表示:“我们发现52%的ChatGPT答案包含错误信息,77%的答案比人类的答案更冗长。”尤其令人不安的是,许多人类程序员似乎更喜欢ChatGPT的答案。普渡大学的研究人员对12名程序员进行了调查——诚然,样本量很小——发现他们中39%的人没有发现人工智能产生的错误。研究人员写道:“礼貌的语言、清晰的教科书式的回答以及全面性是使ChatGPT答案看起来更令人信服的部分主要原因,这让用户放松了警惕,忽略了ChatGPT答案中的一些错误信息。”——

封面图片

研究发现 ChatGPT 在高质量、善解人意地回答患者问题方面优于医生

研究发现ChatGPT在高质量、善解人意地回答患者问题方面优于医生社交网站Reddit有一个论坛叫,用户提出各种医学问题由经过身份认证的医疗专业人士进行回复。加州圣迭戈的研究人员从该论坛上随机选择了195个问题和答案,让AI聊天机器人ChatGPT根据问题撰写回复。由三名专业人士组成的团队评估了人类医生和ChatGPT的答案,他们没有被告知哪个答案是医生写的哪个是ChatGPT写的。结果显示,79%的情况下ChatGPT的答案被认为质量更高更富有同情心。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

ChatGPT 的编程问题正确率比抛硬币还低

ChatGPT的编程问题正确率比抛硬币还低普渡大学的一项研究显示,OpenAI的聊天机器人ChatGPT在回答软件编程问题时,有一半以上的时间会回答错误。尽管如此,该机器人的说服力足以骗过三分之一的参与者。普渡大学团队分析了ChatGPT对517个StackOverflow问题的回答,以评估ChatGPT回答的正确性、一致性、全面性和简洁性。美国学者还对答案进行了语言和情感分析,并就模型生成的结果询问了十几名志愿参与者。“我们的分析表明,52%的ChatGPT答案是错误的,77%是冗长的,”该团队的论文总结道。“尽管如此,ChatGPT答案仍有39.34%的时间因其全面性和清晰的语言风格而受到青睐。”“在研究过程中,我们观察到,只有当ChatGPT答案中的错误很明显时,用户才能识别出错误,”论文中说到。“然而,当错误不容易验证或需要外部IDE或文档时,用户往往无法识别错误或低估答案的错误程度。”论文称,即使答案存在明显错误,12名参与者中仍有两人将答案标记为首选。——、

封面图片

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助

研究表明ChatGPT提供的建议,比专家更全面、更有帮助来自墨尔本大学和西澳大利亚大学的研究团队从十大热门建议栏网站上,随机挑选了50个社会困境问题。该科研团队邀请了404名志愿者,盲测展示由专栏作家和ChatGPT所提供的答案,要求其回答哪个答案更平衡、更全面、更善解人意、更有帮助。研究人员发现,ChatGPT在五个随机提出的问题中的每一个和所有查询类别中都“明显优于”人类顾问,支持人工智能的偏好率在70%到85%之间。尽管ChatGPT建议的质量很高,但77%的受访者依然表示,更喜欢人类专家给出的回答。来源,前文:频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人