阿里达摩院:GPT-4替代年薪60万的数据分析师只要几千块

阿里达摩院:GPT-4替代年薪60万的数据分析师只要几千块按新加坡行情,年薪8.6万-9万美元(60-63万人民币)的高级数据分析师,换成GPT-4就只需要三四百美元(2000多人民币)了。这项结论来自阿里达摩院与新加坡南洋理工大学的新论文,被网友评价为对AI和数据分析领域感兴趣的必读论文。具体来说,结论中高级分析师指在金融行业拥有多年工作经验的数据分析师。而GPT-4的表现,在大多数指标上能与一位6年工作经验的人类相当,正确性低于人类,但复杂性和一致性指标高于人类。在与另一位5年工作经验的分析师对比中,GPT-4在信息的正确性、图表的美观性、洞察的复杂性等方面输给人类。如果与2年工作经验的初级分析师对比,GPT-4在正确性上表现更好,而且能完成更多的工作。但GPT-4完成所有类型的任务都要比人类快得多。在假设每个月有21个工作日,每天8小时工作时间,按市场价支付工资的前提下,得出最终结论。——

相关推荐

封面图片

人类一败涂地 60万年薪的高级工作可被AI取代:成本只要2000多

人类一败涂地60万年薪的高级工作可被AI取代:成本只要2000多阿里达摩院与新加坡南洋理工大学合作研究了AI在数据分析上的作用,对比了OpenAI最新的GPT-4与金融行业中的数据分析师优劣。如果是2年工作经验的初级数据分析师,GPT-4在正确率及工作量上都是完胜的。对比的高级数据分析师有2种情况,一个是5年工作经验的数据分析师,GPT-4在正确率、图表美观度、复杂性上输了一些。但另一个6年工作经验的数据分析师对比中,GPT-4在正确率上略输一筹,但复杂性、一致性又高于人类。不过GPT-4最强的还是完成工作的速度,这个是人类没法比的,只有人类的1/10左右,因此叠加每个月的工作日、每日工作时间来算,GPT-4相比人类的成本实在太低了。公司老板用GPT-4替代初级分析师的话,成本只有之前的0.71%,替代高级分析师的更是只有0.45%。在新加坡,高级数据分析师的收入在8.6万到9万美元之间,人民币约合60-63万元之间,而GPT-4算下来每个月成本只要2000元多点。人类一败涂地。...PC版:https://www.cnbeta.com.tw/articles/soft/1361999.htm手机版:https://m.cnbeta.com.tw/view/1361999.htm

封面图片

《10周成为数据分析师》腾讯课堂

名称:《10周成为数据分析师》腾讯课堂描述:《10周成为数据分析师》适用于零基础及1~5年数据分析工作经验的学员,本课程囊括EXCEL、SQL、Python、Pandas、NumPy、Matplotlib、PyEcharts等,数据分析人三大能力综合培养,包括:逻辑思维,日积月累有意识的锻炼形成的一套解决问题的逻辑能力、业务分析,面对不同场景,应用不同分析模型解决问题、工具和工程能力,利用技能更方便高效的解决问题。优秀学员将获得一线互联网大厂内推机会,同时课程结合大量实战案例详细讲解10大数据分析模型,商业数据分析师训练营。链接:https://www.aliyundrive.com/s/5kenBAPrP87大小:NG标签:#10周成为数据分析师#腾讯课堂#分析师#_10周成为数据分析师_腾讯课堂来自:雷锋版权:频道:@shareAliyun群组:@aliyundriveShare投稿:@aliyun_share_bot

封面图片

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。”...PC版:https://www.cnbeta.com.tw/articles/soft/1432740.htm手机版:https://m.cnbeta.com.tw/view/1432740.htm

封面图片

研究发现GPT-4比人类分析师表现出相对优势 有可能为投资带来更多收益

研究发现GPT-4比人类分析师表现出相对优势有可能为投资带来更多收益此外,研究人员还发现,通用LLM的表现与为阅读财务报表而训练的最先进的狭义机器学习模型一样出色。他们还发现,LLM能够做出产生更高夏普比率的预测,夏普比率是将投资收益与风险进行比较,夏普比率越高越好。鉴于这些结果,研究人员发现,在选择投资时,LLM可能会在决策中发挥核心作用。有趣的是,GPT-4仅凭财务报表就能超越人类投资者,而人类投资者却不了解任何背景情况。研究人员还表示,LLM的预测并非来自其训练记忆,而是"对公司未来业绩产生有用的叙述性见解"。对于那些认为这项工作听起来很有趣的投资者,研究人员创建了一个ChatGPT机器人,供ChatGPTPlus订阅者使用,这样他们就可以提交财务报表并获得分析结果。对于有兴趣免费分析财务报表的人来说,Claude3还允许用户上传文件,并就数据提出问题。虽然研究人员可能会怀疑LLM是否能取代人类投资者,但这些工具的出现带来的另一个质变是,可能不了解财务文件来龙去脉的业余投资者可以以更简单并更全面的方式了解不同公司的情况。...PC版:https://www.cnbeta.com.tw/articles/soft/1432541.htm手机版:https://m.cnbeta.com.tw/view/1432541.htm

封面图片

七周成为数据分析师

资源名称:七周成为数据分析师描述:想要成为数据分析师,最快需要七周?七周信不信?这是一份数据分析师的入门指南,它包含七周的内容,Excel、数据可视化、数据分析思维、数据库、统计学、业务、以及Python。每一周的内容,都有两到三篇文章细致讲解,帮助新人们快速掌握。这七周的内容刚好涵盖了一位数据分析师需要掌握的基础体系,也是一位新人从零迈入数据大门的知识手册。链接:https://www.aliyundrive.com/s/nuXEEHMoKwV

封面图片

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为

OpenAI最新“神”操作:让GPT-4去解释GPT-2的行为即:让一个AI“黑盒”去解释另一个AI“黑盒”。工作量太大,决定让GPT-4去解释GPT-2OpenAI之所以做这项研究的原因,在于近来人们对AI伦理与治理的担忧:“语言模型的能力越来越强,部署也越来越广泛,但我们对其内部工作方式的理解仍然非常有限。”由于AI的“黑盒”性质,人们很难分辨大模型的输出结果是否采用了带有偏见性质的方法,也难以区分其正确性,因而“可解释性”是亟待重要的一个问题。AI的发展很大程度上是在模仿人类,因而大模型和人脑一样,也由神经元组成,它会观察文本规律进而影响到输出结果。所以想要研究AI的“可解释性”,理论上要先了解大模型的各个神经元在做什么。按理来说,这本应由人类手动检查,来弄清神经元所代表的数据特征——参数量少还算可行,可对于如今动辄百亿、千亿级参数的神经网络,这个工作量显然过于“离谱”了。于是,OpenAI灵机一动:或许,可以用“魔法”打败“魔法”?“我们用GPT-4为大型语言模型中的神经元行为自动编写解释,并为这些解释打分。”而GPT-4首次解释的对象是GPT-2,一个OpenAI发布于4年前、神经元数量超过30万个的开源大模型。让GPT-4“解释”GPT-2的原理具体来说,让GPT-4“解释”GPT-2的过程,整体分为三个步骤。(1)首先,让GPT-4生成解释,即给出一个GPT-2神经元,向GPT-4展示相关的文本序列和激活情况,产生一个对其行为的解释。如上图所示,GPT-4对GPT-2该神经元生成的解释为:与电影、人物和娱乐有关。(2)其次,再次使用GPT-4,模拟被解释的神经元会做什么。下图即GPT-4生成的模拟内容。(3)最后,比较GPT-4模拟神经元的结果与GPT-2真实神经元的结果,根据匹配程度对GPT-4的解释进行评分。在下图展示的示例中,GPT-4得分为0.34。通过这样的方法,OpenAI共让GPT-4解释了GPT-2中的307200个神经元,其中大多数解释的得分很低,只有超过1000个神经元的解释得分高于0.8。在官博中,OpenAI承认目前GPT-4生成的解释并不完美,尤其在解释比GPT-2规模更大的模型时,效果更是不佳:“可能是因为后面的layer更难解释。”尽管绝大多数解释的得分不高,但OpenAI认为,“即使GPT-4给出的解释比人类差,但也还有改进的余地”,未来通过ML技术可提高GPT-4的解释能力,并提出了三种提高解释得分的方法:对解释进行迭代,通过让GPT-4想出可能的反例,根据其激活情况修改解释来提高分数。使用更大的模型来进行解释,平均得分也会上升。调整被解释模型的结构,用不同的激活函数训练模型。值得一提的是,以上这些解释数据集、可视化工具以及代码,OpenAI都已在GitHub上开源发布:“我们希望研究界能开发出新技术以生成更高分的解释,以及更好的工具来使用解释探索GPT-2。”(GitHub地址:https://github.com/openai/automated-interpretability)“再搞下去,AI真的要觉醒了”除此之外,OpenAI还提到了目前他们采取的方法有很多局限性,未来需要一一攻克:GPT-4给出的解释总是很简短,但神经元可能有着非常复杂的行为,不能简洁描述。当前的方法只解释了神经元的行为,并没有涉及下游影响,希望最终能自动化找到并解释能实现复杂行为的整个神经回路。只解释了神经元的行为,并没有解释产生这种行为的背后机制。整个过程都是相当密集的计算,算力消耗很大。在博文的最后,OpenAI展望道:“我们希望将我们最大的模型解释为一种在部署前后检测对齐和安全问题的方式。然而,在这些技术能够揭露不诚实等行为之前,我们还有很长的路要走。”对于OpenAI的这个研究成果,今日在国内外各大技术平台也引起了广泛关注。有人在意其得分不佳:“对GPT-2的解释都不行,就更不知道GPT-3和GPT-4内部发生了什么,但这才是许多人更关注的答案。”有人感慨AI进化的方式愈发先进:“未来就是用AI完善AI模型,会加速进化。”也有人担心AI进化的未来:“再搞下去,AI真的要觉醒了。”那么对此,你又有什么看法呢?...PC版:https://www.cnbeta.com.tw/articles/soft/1359101.htm手机版:https://m.cnbeta.com.tw/view/1359101.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人