AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。”...PC版:https://www.cnbeta.com.tw/articles/soft/1432740.htm手机版:https://m.cnbeta.com.tw/view/1432740.htm

相关推荐

封面图片

研究发现GPT-4比人类分析师表现出相对优势 有可能为投资带来更多收益

研究发现GPT-4比人类分析师表现出相对优势有可能为投资带来更多收益此外,研究人员还发现,通用LLM的表现与为阅读财务报表而训练的最先进的狭义机器学习模型一样出色。他们还发现,LLM能够做出产生更高夏普比率的预测,夏普比率是将投资收益与风险进行比较,夏普比率越高越好。鉴于这些结果,研究人员发现,在选择投资时,LLM可能会在决策中发挥核心作用。有趣的是,GPT-4仅凭财务报表就能超越人类投资者,而人类投资者却不了解任何背景情况。研究人员还表示,LLM的预测并非来自其训练记忆,而是"对公司未来业绩产生有用的叙述性见解"。对于那些认为这项工作听起来很有趣的投资者,研究人员创建了一个ChatGPT机器人,供ChatGPTPlus订阅者使用,这样他们就可以提交财务报表并获得分析结果。对于有兴趣免费分析财务报表的人来说,Claude3还允许用户上传文件,并就数据提出问题。虽然研究人员可能会怀疑LLM是否能取代人类投资者,但这些工具的出现带来的另一个质变是,可能不了解财务文件来龙去脉的业余投资者可以以更简单并更全面的方式了解不同公司的情况。...PC版:https://www.cnbeta.com.tw/articles/soft/1432541.htm手机版:https://m.cnbeta.com.tw/view/1432541.htm

封面图片

GPT-4、Llama 2比人类更懂“人类心理”?最新研究登上Nature子刊

GPT-4、Llama2比人类更懂“人类心理”?最新研究登上Nature子刊这些发现不仅表明大型语言模型(LLMs)展示出了与人类心理推理输出一致的行为,而且还突出了系统测试的重要性,从而确保在人类智能和人工智能之间进行非表面的比较。相关研究论文以“Testingtheoryofmindinlargelanguagemodelsandhumans”为题,已发表在Nature子刊NatureHumanBehaviour上。GPT更懂“误导”,Llama2更懂“礼貌”心智理论,是一个心理学术语,是一种能够理解自己以及周围人类的心理状态的能力,这些心理状态包括情绪、信仰、意图、欲望、假装等,自闭症通常被认为是患者缺乏这一能力所导致的。以往,心智理论这一能力被认为是人类特有的。但除了人类之外,包括多种灵长类动物,如黑猩猩,以及大象、海豚、马、猫、狗等,都被认为可能具备简单的心智理论能力,目前仍有争议。最近,诸如ChatGPT这样的大型语言模型(LLMs)的快速发展引发了一场激烈的争论,即这些模型在心智理论任务中表现出的行为是否与人类行为一致。在这项工作中,来自德国汉堡-埃彭多夫大学医学中心的研究团队及其合作者,反复测试了两个系列的LLMs(GPT和Llama2)的不同心智理论能力,并将它们的表现与1907名人类参与者进行比较。他们发现,GPT模型在识别间接要求、错误想法和误导三方面的表现,可以达到甚至超越人类的平均水平,而Llama2的表现还不如人类。图人类(紫色)、GPT-4(深蓝色)、GPT-3.5(浅蓝色)和LLaMA2-70B(绿色)在心智理论测试中的表现。在识别失礼方面,Llama2要强于人类,但GPT表现不佳。研究团队认为,Llama2表现好是因为回答的偏见程度较低,而不是因为真的对失礼敏感,GPT表现较差其实是因为对坚持结论的超保守态度,而不是因为推理错误。AI的心智理论已达人类水平?在论文的讨论部分,研究团队对GPT模型在识别不当言论任务中的表现进行了深入分析,实验结果支持了GPT模型在识别不当言论方面存在过度保守的假设,而不是推理能力差。当问题以可能性的形式提出时,GPT模型能够正确识别并选择最可能的解释。同时,他们也通过后续实验揭示了LLaMA2-70B的优越性可能是由于其对无知的偏见,而不是真正的推理能力。此外,他们还指出了未来研究的方向,包括进一步探索GPT模型在实时人机交互中的表现,以及这些模型的决策行为如何影响人类的社会认知。他们提醒道,尽管LLM在心智理论任务上的表现堪比人类,但并不意味着它们具有人类般的能力,也代表它们能掌握心智理论。尽管如此,他们也表示,这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现会如何影响个体在人机交互中的认知。...PC版:https://www.cnbeta.com.tw/articles/soft/1431713.htm手机版:https://m.cnbeta.com.tw/view/1431713.htm

封面图片

【OpenAI:GPT-4在许多标准化测试中比人类表现得更好】

【OpenAI:GPT-4在许多标准化测试中比人类表现得更好】2023年03月15日02点52分老不正经报道,Open-AI刚刚公布大型语言模型的最新版本——GPT-4,该版本比以前的版本“更大”,这意味着其已经在更多的数据上进行了训练,并且在模型文件中有更多的权重,这使得它的运行成本更高。OpenAI表示,新模型将产生更少的错误答案,更少地偏离谈话轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。例如,GPT-4在模拟律师考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。(CNBC)

封面图片

GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致

GPT-4整治学术不端:人大/浙大团队实测7000篇论文,撤稿预测与人类95%一致https://www.ithome.com/0/761/869.htmhttps://arxiv.org/abs/2403.16851(英文)研究表明,GPT-4的总体预测结果(包含撤稿预测和非撤稿预测)与人工预测结果的一致性最高,高达约95%!其次是GPT-3.5和SVM模型,其一致性超过80%。而关键词方法与其他机器学习模型的一致性则在46%-64%之间,预测效果一般。在精确率方面,同样是GPT-4的精确率最高:GPT-4预测会撤稿的论文中,近70%的在人工预测中同样会撤稿。而其他模型的预测精确率均远低于GPT-4。

封面图片

研究称 GPT-4 通过图灵测试

研究称GPT-4通过图灵测试据科创板日报,自英国计算机科学家阿兰・图灵于1950年提出关于判断机器是否能够思考的著名试验“图灵测试”以来,该测试就被视为判断计算机是否具有模拟人类思维能力的关键。两位研究人员以真人、初代聊天机器人ELIZA、GPT-3.5和GPT-4为研究对象,试图了解谁在诱使人类参与者认为它是人类方面表现最成功。结果显示,多达54%的参与者将GPT-4误认为真人,是迄今为止首次有AI模型以如此高的结果通过图灵测试。

封面图片

研究人员称 GPT-4 通过图灵测试

研究人员称GPT-4通过图灵测试《生活科学》报道,OpenAI的GPT-4已经通过了图灵测试,这意味着该模型在对话中能够表现出类似人类的智能水平。图灵测试由计算机科学家阿兰·图灵提出,是评估人工智能是否能够与人类表现出相同智能的标准。此次测试结果显示,GPT-4的表现足够逼真,足以欺骗评判者,使其难以分辨其与人类的对话。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人