【模型工具】基于多智能体深度强化学习的韧性社区灾后恢复决策模型
文章概要:
1 提出了体学习的支持模型。
2. 通过图神经网络捕获了基础设施的信息< 3. 探索了迁移学习减少成本。
4. 实例研究证实了该方法的优越性和有效性。
阅读原文
2. 通过图神经网络捕获了基础设施的信息< 3. 探索了迁移学习减少成本。
4. 实例研究证实了该方法的优越性和有效性。
深度强化学习应对加密货币交易过拟合
文章概要:
1. 引言:在加密货币市场中,设计盈利且可靠的交易策略至关重要,本文提出了一种实用方法来解决回测过拟合问题,通过估计过拟合的概率来检测模型过拟合,并在概率超过预设阈值时拒绝该代理。
2. 相关工作:现有研究可分为三类,向前看方法的回测、使用交叉验证方法的回测和带有超参数调整的回测。
3. 使用深度强化学习的加密货币:本章节详细介绍了如何将加密货币交易任务建模为马尔可夫决策过程(MDP),并构建了市场环境,以及训练交易代理的一般设置。
4. 解决回测过拟合的实用方法:第四章详细阐述了作者提出的解决加密货币交易中深度强化学习(DRL)模型回测过拟合问题的具体方法。该方法的核心在于通过假设检验来识别并拒绝过拟合的代理模型,从而提高模型在实际交易中的泛化能力。
5. 性能评估:本章节旨在验证所提出的解决回测过拟合问题的方法是否能够提高代理在实际市场中的表现。研究者通过对比不同深度强化学习(DRL)代理的策略,评估了它们在历史数据上的表现,并与市场基准进行了比较。
阅读原文
2. 相关工作:现有研究可分为三类,向前看方法的回测、使用交叉验证方法的回测和带有超参数调整的回测。
3. 使用深度强化学习的加密货币:本章节详细介绍了如何将加密货币交易任务建模为马尔可夫决策过程(MDP),并构建了市场环境,以及训练交易代理的一般设置。
4. 解决回测过拟合的实用方法:第四章详细阐述了作者提出的解决加密货币交易中深度强化学习(DRL)模型回测过拟合问题的具体方法。该方法的核心在于通过假设检验来识别并拒绝过拟合的代理模型,从而提高模型在实际交易中的泛化能力。
5. 性能评估:本章节旨在验证所提出的解决回测过拟合问题的方法是否能够提高代理在实际市场中的表现。研究者通过对比不同深度强化学习(DRL)代理的策略,评估了它们在历史数据上的表现,并与市场基准进行了比较。
「论文欣赏」基于深度强化学习的多能虚拟电厂优化调度
文章概要:
1. 文章建立了包含发电单元、制热单元、储能装置以及空调负荷集群、需求响应负荷的MEVPP模型,并面向该模型提出一种基于深度强化学习(Deep Reinforcement Learning, DRL)的优化调度方法,并设计了相应的状态、动作空间与奖励函数
2. 该方法以近端策略优化(Proximal Policy Optimization,PPO)算法为基础,能够根据预测负荷、/光出力、室外气温等环境信息,对分布式能源和需求侧灵活性资源进行调节,并以最小化运行成本为目标得到MEVPP优化调度策略集
3. 算例结果DRL在MEVPP优化调度中的可行性与策略集的可拓展性
阅读原文
2. 该方法以近端策略优化(Proximal Policy Optimization,PPO)算法为基础,能够根据预测负荷、/光出力、室外气温等环境信息,对分布式能源和需求侧灵活性资源进行调节,并以最小化运行成本为目标得到MEVPP优化调度策略集
3. 算例结果DRL在MEVPP优化调度中的可行性与策略集的可拓展性