GPT-4 距离成为「天网」还有多远?微软最新研究揭秘:已初具雏形 #抽屉IT

None

相关推荐

封面图片

GPT-4击败华尔街?最新研究:选股回报超40% #抽屉IT

封面图片

大数据时代,距离“数字裸奔”还有多远? #抽屉IT

封面图片

刚刚,GPT-4 让微软 Office 迎来自己的「iPhone 时刻」 #抽屉IT

封面图片

GPT-4击败华尔街?最新研究:选股回报超40%

GPT-4击败华尔街?最新研究:选股回报超40% 这个在GPT-4基础上打造的选股票AI,名叫MarketSenseAI。整体来看,MarketSenseAI结合了思维链和上下文学习的方法来分析各种数据源,包括市场价格动态、财经新闻、公司基本面和宏观经济报告等等。基于此,这个AI系统就可以模拟金融投资团队的决策过程了。而且值得注意的一点是,GPT-4在这个过程中不仅充当预测工具,还起到了评估器的作用。对于这项研究,论文作者给出了这样的评价:证明了大语言模型在复杂金融决策中的功效,并标志着人工智能在整合金融分析和投资策略方面的重大进展。不过有一说一,此前与“AI炒股”相关的消息也是层出不穷。更是有许多消息拿着数据称“AI永远无法打败股票市场”,认为AI不仅无法预测黑天鹅事件,甚至可能会引发黑天鹤事件:那么此次基于GPT-4的选股研究是否靠谱,我们继续往下看。怎么做到的?从整体的框架结构来看,MarketSenseAI由五个主要部分构成,它们分别是:新闻总结器(Progressive News Summarizer)。基本面总结器(Fundamentals Summarizer)。股价动态总结器(Stock Price Dynamics Summarizer)。宏观经济环境总结(Macroeconomic Environment Summary)。信号生成(Signal Generation)。这五大部分在系统中各司其职,例如新闻总结器这个组件负责从大量的金融新闻中提取和浓缩关键信息,生成影响股票价格的重要新闻的概要。这一过程涉及到使用自然语言处理技术来识别和总结与特定股票相关的新闻事件,这些总结能够帮助投资者快速了解影响股价的最新动态。基本面总结器的作用是分析公司的财务报表,包括利润表、资产负债表和现金流量表;它利用 AI 技术来解读和总结这些财务数据,帮助投资者理解公司的财务状况和长期盈利能力。股价动态总结器的功能是分析股票的历史价格走势和关键的财务指标,如市盈率、股息收益率等;助于投资者了解股票的市场表现和潜在的风险回报比。宏观经济环境总结涵盖了对全球宏观经济状况的深入分析,考虑了经济增长、通货膨胀、利率水平、货币政策等因素。通过这种方式,能够在更广泛的经济环境中对单一股票进行评估。最后,信号生成这个步骤将上述所有分析整合,生成针对特定股票的投资信号(例如买入、持有或卖出),并提供详细的逻辑和理由。这一过程涉及到综合考虑各种数据源和分析结果,以形成对股票未来表现的预测。基于上述五个部件“组合拳”的能力,作者在与美国标普100指数做对比后,给出了在等权重投资组合(Equally-Weighted Portfolios)、资本化加权投资组合( Capitalization-Weighted Portfolios)和排名投资组合(Ranked Portfolios)三个方面的性能表现结果。AI炒股,不止这一例不过有一说一,MarketSenseAI虽然在这次研究中取得了不错的表现,但这也仅是“AI炒股”众多案例中的一个。例如此前GPT-4刚刚联网之际,便有一家名为Autopilot的公司在X中宣布(账号名为The GPT Portfolio),要用GPT-4进行实盘投资。具体而言,他们新建了一个ChatGPT主导的投资计划,并交给它5万美元初始资金,看GPT-4能否战胜对冲基金。截至目前,The GPT Portfolio官网数据现实已经吸引了超过3400名的投资者、募集资金890多万美元。但在此前,从The GPT Portfolio在X中发布的数据来看,巅峰的数据应当是:超42000名投资者和3300多万美元的募集资金。如此比较下来,起码在数据方面,这个AI炒股项目的热度是降低了不少;并且从去年的1月7日,X账号已经停止了内容的更新。而在这个项目的背后,是来自佛罗里达大学金融学教授Alejandro Lopez-Lira的一项研究。教授在论文中指出:根据我们的研究,ChatGPT 能够预测股市价格走势,并产生超过500%的回报。虽然Lopez-Lira教授在研究中整体表达的是AI乐观态度,但他也指出:短时间内AI或许可以预测市场走向,但这一情况并不会维持太久。随着越来越多的人使用这些工具,市场将变得更加有效率,因此预计收益的可预测性会下降。预计到第五年,将没有任何收益可预测性。那么你觉得AI炒股这事,靠谱吗?参考链接:[1] ... PC版: 手机版:

封面图片

终极「揭秘」:GPT-4模型架构、训练成本、数据集信息都被扒出来了 #抽屉IT

封面图片

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远?

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远? 也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?如果可行,将大大降低类ChatGPT大模型的开发难度。免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。其中GPT-4-Base的API访问权限从OpenAI Researcher Access Program项目中申请到。EPFL团队从这里出发,尝试了各种办法来提升上下文学习的效果。首先他们增加示例的数量,但发现帮助不大,没有随着例子数目增加性能就提升的趋势。这一点跟图像分类、机器翻译等任务还不太一样。然后他们使用了贪心搜索算法,从一大堆示例中选择最佳的添加到上下文。这种方法可以进一步提高性能,但与指令微调模型的差距仍然存在,特别是在 AlpacaEval 2.0基准测试中。此外他们还发现,贪心搜索为某个特定模型找到的最佳示例,对于其他模型不能可靠地迁移。也就是说,不同的示例适合不同的模型。团队还进行了一系列消融实验,以更多地了解上下文学习的工作原理。他们发现,在MT-Bench这样的综合评测中,示例包含正确的“问题-答案对”至关重要。这与此前大模型在分类任务中,只要有大量示例,部分标签错了也无所谓的发现非常不同。所以最终得出的结论是:即使采用更多复杂的改进方法,完全缩小上下文学习和指令微调之间的差距也有挑战,即使对于非常长上下文的大模型也是如此。论文最后分析,大语言模型可能通过上下文学习只学会了如何模仿例子里的回答风格,但还没有真正理解执行指令的逻辑。指令跟随任务相对还是比较复杂和开放的,没那么容易掌握。想让AI助手更“听话”,暂时还是很难有捷径可走。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人