《ML for Trading》第二版

《ML for Trading》第二版 这本书旨在以一种实用且全面的方式展示机器学习如何为算法交易策略增加价值。它涵盖了从线性回归到深度强化学习的广泛机器学习技术,并演示了如何构建、回测和评估由模型预测驱动的交易策略。 ​​​ 它分为四部分,23 章和一个附录,共800 多页: 数据来源、金融特征工程和投资组合管理的重要方面, 基于有监督和无监督 ML 算法的多空策略的设计和评估, 如何从SEC 文件、财报电话会议记录或金融新闻等金融文本数据中提取可交易信号, 将 CNN 和 RNN 等深度学习模型与市场和替代数据结合使用,如何使用生成对抗网络生成合成数据,以及使用深度强化学习训练交易代理 该存储库包含150 多个笔记本,这些笔记本将书中讨论的概念、算法和用例付诸实践。他们提供了大量示例来说明: 如何使用市场、基本和替代文本和图像数据并从中提取信号, 如何训练和调整预测不同资产类别和投资期限的回报的模型,包括如何复制最近发表的研究,以及如何设计、回测和评估交易策略。 || #电子书 #机器学习

相关推荐

封面图片

在线免费教程《》第二版

在线免费教程《》第二版 这本经过彻底修订的指南演示了命令行的灵活性如何帮你成为更高效、更有生产力的数据科学家。 你将学习如何结合小而强大的命令行工具来快速获取、清理、探索和建模数据。 为了让你快速入门,作者 Jeroen Janssens 提供了一个包含 100 多个 Unix 强大工具的 Docker 映像,无论使用 Windows、macOS 还是 Linux,该工具都非常有用。 本书非常适合数据科学家、分析师、工程师、系统管理员和研究人员。

封面图片

《》 Kafka:权威指南第二版:大规模实时数据和流处理

《》 Kafka:权威指南第二版:大规模实时数据和流处理 随便填下信息即可下载pdf版。内容主要是: 了解Apache Kafka与其他发布/订阅消息队列的比较 Kafka 如何融入大数据生态系统 深入了解内部架构和设计(Kafka 生产者、消费者、主题、代理、日志等) 学习开发使用 Kafka 的应用程序的最佳实践 了解在生产监控、调优和维护任务中部署 Kafka 的最佳方式 了解如何保护 Kafka 集群 了解最关键的指标 为什么选择Kafka?获取详细的好处和流处理用例 构建实时数据管道:注意事项和使用 Kafka Connect 带有示例和用例的Kafka Streams指南 #电子书 #指南

封面图片

机器学习和深度学习应避免的7种错误 || #经验

机器学习和深度学习应避免的7种错误 || #经验 1.使用低质量数据缺失数据、噪音数据、不具代表性的数据都会降低模型性能。 2.忽略离群值离群数据点会对模型产生较大影响,需要妥善处理。 3.数据集太大或太小数据集需要适中且高质量,过大或过小会导致过拟合或欠拟合。 4.使用性能不足的硬件深度学习需要高性能计算资源,使用老旧系统会限制性能。 5.集成错误需要谨慎地将深度学习技术集成到旧系统中。 6.重复使用单一模型应该训练和评估多个模型,获得更全面的结果。 7.首个模型就想要最佳效果不同模型各有擅长,需要迭代和变化来获得鲁棒结果。

封面图片

《植物学第二版 》

《植物学第二版 》 简介:系统讲解植物结构、生理功能、分类演化及生态应用,涵盖基础理论与现代技术。结合最新研究成果,融入分子生物学与生态保护进展,配以高清显微图像和实地案例,助力理论与实践深度融合。 亮点:新增跨学科交叉内容,强化农业、环保等应用场景解析;数字资源库提供3D模型与实验指南,适配多层次学习需求。 标签: #植物科学 #高等教育 #教材更新 #全彩图解 #数字资源 #植物学第二版 #科学出版社 链接:

封面图片

▎PyTorch 实用教程(第二版)

▎PyTorch 实用教程(第二版) 无论是零基础入门,还是CV、NLP、LLM项目应用,或是进阶工程化部署落地,在这里都有。相信在本书的帮助下,读者将能够轻松掌握 PyTorch 的使用,成为一名优秀的深度学习工程师。 #知识 #学习 #编程 地址:

封面图片

是一款开源 Python 软件,用于实现离线强化学习(离线 RL)的端到端流程,从数据收集到离线策略学习、离策略性能评估和策略选

是一款开源 Python 软件,用于实现离线强化学习(离线 RL)的端到端流程,从数据收集到离线策略学习、离策略性能评估和策略选择。软件包括一系列模块,用于实现合成数据集生成、数据集预处理、离策略评估 (OPE) 和离策略选择 (OPS) 方法的估计器。 该软件还与d3rlpy兼容,后者实现了一系列在线和离线 RL 方法。SCOPE-RL 通过OpenAI Gym和类似Gymnasium 的界面,可以在任何环境中进行简单、透明且可靠的离线 RL 研究实验。它还有助于在各种定制数据集和真实数据集的实践中实现离线强化学习。 特别是,SCOPE-RL 能够并促进与以下研究主题相关的评估和算法比较: 离线强化学习:离线强化学习旨在仅从行为策略收集的离线记录数据中学习新策略。SCOPE-RL 使用通过各种行为策略和环境收集的定制数据集来实现灵活的实验。 离线策略评估:OPE 旨在仅使用离线记录的数据来评估反事实策略的性能。SCOPE-RL 支持许多 OPE 估计器,并简化了评估和比较 OPE 估计器的实验程序。此外,我们还实现了先进的 OPE 方法,例如基于状态动作密度估计和累积分布估计的估计器。 离线策略选择:OPS 旨在使用离线记录的数据从多个候选策略池中识别性能最佳的策略。SCOPE-RL 支持一些基本的 OPS 方法,并提供多种指标来评估 OPS 的准确性。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人