Command Palette
Search for a command to run...

摘要
我们介绍了NoisyNet,这是一种在权重中加入参数噪声的深度强化学习代理,并展示了该代理策略所引起的随机性可以用于促进有效的探索。噪声的参数通过梯度下降与网络中的其他权重一同学习。NoisyNet的实现简单直接,且计算开销很小。我们发现,用NoisyNet替代A3C、DQN和双网络代理(分别对应熵奖励和$\varepsilon$-贪婪)的传统探索启发式方法,可以在广泛的Atari游戏中显著提高得分,在某些情况下甚至使代理从次人类水平提升到超人类水平的表现。
代码仓库
seungjaeryanlee/rldb
GitHub 中提及
Kaixhin/NoisyNet-A3C
pytorch
GitHub 中提及
LilTwo/DRL-using-PyTorch
pytorch
GitHub 中提及
chainer/chainerrl
pytorch
GitHub 中提及
YanSong97/Master-thesis
pytorch
GitHub 中提及
BY571/DQN-Atari-Agents
pytorch
GitHub 中提及
behzadanksu/rl-attack
tf
GitHub 中提及
mindspore-courses/Rainbow-MindSpore
mindspore
GitHub 中提及
Curt-Park/rainbow-is-all-you-need
GitHub 中提及
thomashirtz/noisy-networks
pytorch
GitHub 中提及
opendilab/DI-engine
pytorch
hw9603/DQfD-PyTorch
pytorch
GitHub 中提及
chandar-lab/RLHive
pytorch
behzadanksu/rlattack-dev
tf
GitHub 中提及
MOVzeroOne/DQN
pytorch
GitHub 中提及