more >>最小好进制
题目链接
英文链接:https://leetcode.com/problems/smallest-good-base/
中文链接:https://leetcode-cn.com/problems/smallest-good-base/
题目详述
对于给定的整数 n, 如果n的k(k>=2)进制数的所有数位全为1,则称 k(k>=2)是 n 的一个好进制。
以字符串的形式给出 n, 以字符串的形式返回 n 的最小好进制。
more >>最小好进制
题目链接
英文链接:https://leetcode.com/problems/smallest-good-base/
中文链接:https://leetcode-cn.com/problems/smallest-good-base/
题目详述
对于给定的整数 n, 如果n的k(k>=2)进制数的所有数位全为1,则称 k(k>=2)是 n 的一个好进制。
以字符串的形式给出 n, 以字符串的形式返回 n 的最小好进制。
more >>主要观点:CSRnet网络模型主要分为前端和后端网络,采用剔除了全连接层的VGG-16作为CSRnet的前端网络,输出图像的大小为原始输入图像的1/8。卷积层的数量增加会导致输出的图像变小,从而增加生成密度图的难度。所以本文采用空洞卷积神经网络作为后端网络,在保持分辨率的同时扩大感知域, 生成高质量的人群分布密度图。
用单个方法实时做到同时目标跟踪和半监督视频目标分割。SiamMask通过二值分割任务增强损失提升了全卷积Siamense目标跟踪方法的训练过程。训练完成后,SiamMask只依赖于单个边界框初始值,可以做到旋转的边界框分割未知类别目标,达到每秒55帧。
more >>more >>ABSTRACT
神经网络剪枝可以减少超过90%的参数量,同时准确率没有太大影响。但是剪枝后的结构很难从头开始训练,不然就能近似提高训练性能了。
有一些子网络,在初始情况下就可以高效的训练网络,但我们发现标准的剪枝技术天然的没有包括它们。基于这些结果,我们提出了彩票假说:密集的,随机初始化的前馈网络包括一些子网络(中奖者),这些子网络独立训练时可以在相近的迭代次数达到相近的测试准确率。这些中奖者赢得了初始彩票:它们初始权重就能特别高效的训练。
我们提出了一个算法来找这些中奖者,一系列的实验也支持了我们的假说和那些偶然初始化的重要性。我们不断的在MNIST和CIFAR10数据集上发现,中奖者的大小只有全连接网络和卷积网络的10%到20%。除了尺寸,我们发现这些中奖者训练更快,测试准确率更高。
more >>来自OpenAI Spinning Up Introduction to RL
简而言之,RL是研究agent(智能体,本文保留英文描述)如何通过反复的尝试来学习。我们通过奖励或惩罚agent的行为,使其在未来能以更高的概率去重复或放弃该行为。
more >>Abstract
无监督的GAN和强化学习的actor-critic方法在优化困难方面声名显著。这两个领域的研究人员积累了大量的缓解不稳定和改善训练情况的策略。这里我们展示了GAN可以看作是一个特定环境中的actor-critic方法,在这个环境中actor无法影响奖励。我们对这两类模型稳定训练方法做了综述,不仅包括可以同时对二者使用的方法,还包括只针对特定模型的方法。我们也对一系列信息流更复杂的GAN和RL算法进行了综述。我们希望强调二者之间的联系来激励GAN和RL两个领域开发出通用,可扩展以及稳定的算法。
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true