本文结合了两种生成模型VAE、GAN以更好的解决GZSL或GFSL的问题。但实际上从本质上看,本文依然是通过GAN解决这个问题的,而过程中的VAE与D2仅仅是本文为GAN添加的两个限制项,所以其真正能起到的作用仍待考察。
Read More本文主要是介绍了一种使用变分自动编码机来解决GZSL中的泛化问题,相对于现行的许多方法有独特的优点。首先,交叉重建的设计思路非常的巧妙;其次,相对于同为生成模型的GAN,VAE的训练过程相对稳定很多;更重要的是,本文使用了一种相对很soft的生成目标,即解决了VAE相对于GAN更初级的问题,也让softmax分类成为了可能。
Read More在学习和实践过程中对于一些重要的知识点进行的一些能够帮助我自己理解的总结和归纳,很多是按我自己的思路进行的,所以并不一定完善也不一定真的包含一些内容,甚至不一定能够抓住其中的重点,所以仅做参考,同时欢迎大家批评指正!
Read More本文主要的贡献在于将传统的零次学习拓展到了广义零次学习(GZSL),即在测试阶段所面对的数据可能属于已见类别或未见类别,而不是仅仅属于未见类别,是GZSL的提出文章。而这样做的关键在处理怎样区分已见类别和未见类别上(因为如果不区分的话那么已见类别一定会过拟合而未见类别一定会欠拟合),本文给出了两种淳朴的基于outlier的方法。
Read More最近正在做和零次学习相关的工作,所以就总结了一下相关的发展历程。这里主要是主线的发展,也就是集中在怎么样做特征和属性的嵌入,而关于转导模式、广义零次学习什么的暂时没有包含在其中,可能在之后的完善过程中会渐渐的补全。
Read More之前比较详细的阅读并分享了一些现在主流的或者基础的语义分割网络结构:FCN、RefineNet、DeepLab等,除此之外还有很多很有趣的针对性解决一些问题的网络结构也比较值得一看。
Read More是一个很巧妙的想要解决感受野大小和分辨率等之间的平衡的问题的方法--既然一个感受野一定会需要平衡那我们就搞多个感受野嘛~。但是论文结构存在着问题,导致他不能说明所得到的优化是自己提出的PSP层到来的。但仍然是一种非常值得借鉴的思路。
Read MoreDeepLabV3+是现有公认的语义分割最好的网络模型,本文从V2开始依次列出了本人阅读V2、V3、V3+相关的三篇文章的笔记,以供大家了解DeepLab的发展过程,并对其中的各个组成部分有更深入的了解。
Read More是现有语义分割中比较重要的方法之一,可以看做是由U-Net发展而来的一种方法,故而属于编码-解码+跳跃链接的思路,主要的网络结构继承自U-Net,并优化了解码的过程及跳跃链接的处理。
Read More语义分割的早期文章,对早期的语义分割方法有了一个比较充分的总结参考后提出了一个当时最佳的方案,同时给出了全卷积网络的思想以及跳跃链接的思想,为之后很多语义分割的工作提供了基础。
Read More本文考虑到每次向下一层传递的过程中,并不是所有信息都是新学习到的,于是采用了一种很简单但也很巧妙的方式来简化每次向下传递时的操作。这样的思路和处理非常有趣,可以在之后的工作中借鉴。
Read More原文链接:Deep Residual Learning for Image Recognition (2015)每个block至少两层,因为一层的话整个block基本上就是一个linear层,没有观察到很大的好处。进一步的探究:Identity Mapping in Deep Residual Networks ...
Read More本文提出了一种非常有趣的方法来解决一般的分类模型输入大小必须固定的问题--SPP层。这种层的构建方式中蕴含的思想是非常有趣的,根本上是一种对感受野大小做文章的方法,它通过不同大小的pooling使最终能获得很多感受野大小不同的输出。这种思想后来被广泛的用在Semantic Segmentation等多个需要不同大小的感受野的任务中。
Read More非常新颖的将卷积操作和非线性活化看成一种传统的GLM模型,于是理所当然的可以使用传统的GLM的优化方法来对其进行优化,虽然现在看来实际的效率并不尽如人意,但是依然是一个很有趣的思路与改进方向。
Read More转行起始阶段的学习资料,CS231n的详细笔记,多是卷积神经网络的基础知识,但后面的部分和实际研究中使用的东西已经很接近了,多是某一个特定领域的前沿研究中最基础的部分,在进入某个领域的时候还是很有翻阅的必要的。
Read More转行起始阶段的学习资料,CS231n的详细笔记,多是卷积神经网络的基础知识,但后面的部分和实际研究中使用的东西已经很接近了,多是某一个特定领域的前沿研究中最基础的部分,在进入某个领域的时候还是很有翻阅的必要的。
Read More本文结合了两种生成模型VAE、GAN以更好的解决GZSL或GFSL的问题。但实际上从本质上看,本文依然是通过GAN解决这个问题的,而过程中的VAE与D2仅仅是本文为GAN添加的两个限制项,所以其真正能起到的作用仍待考察。
Read More本文主要是介绍了一种使用变分自动编码机来解决GZSL中的泛化问题,相对于现行的许多方法有独特的优点。首先,交叉重建的设计思路非常的巧妙;其次,相对于同为生成模型的GAN,VAE的训练过程相对稳定很多;更重要的是,本文使用了一种相对很soft的生成目标,即解决了VAE相对于GAN更初级的问题,也让softmax分类成为了可能。
Read More在学习和实践过程中对于一些重要的知识点进行的一些能够帮助我自己理解的总结和归纳,很多是按我自己的思路进行的,所以并不一定完善也不一定真的包含一些内容,甚至不一定能够抓住其中的重点,所以仅做参考,同时欢迎大家批评指正!
Read More本文主要的贡献在于将传统的零次学习拓展到了广义零次学习(GZSL),即在测试阶段所面对的数据可能属于已见类别或未见类别,而不是仅仅属于未见类别,是GZSL的提出文章。而这样做的关键在处理怎样区分已见类别和未见类别上(因为如果不区分的话那么已见类别一定会过拟合而未见类别一定会欠拟合),本文给出了两种淳朴的基于outlier的方法。
Read More最近正在做和零次学习相关的工作,所以就总结了一下相关的发展历程。这里主要是主线的发展,也就是集中在怎么样做特征和属性的嵌入,而关于转导模式、广义零次学习什么的暂时没有包含在其中,可能在之后的完善过程中会渐渐的补全。
Read More之前比较详细的阅读并分享了一些现在主流的或者基础的语义分割网络结构:FCN、RefineNet、DeepLab等,除此之外还有很多很有趣的针对性解决一些问题的网络结构也比较值得一看。
Read More是一个很巧妙的想要解决感受野大小和分辨率等之间的平衡的问题的方法--既然一个感受野一定会需要平衡那我们就搞多个感受野嘛~。但是论文结构存在着问题,导致他不能说明所得到的优化是自己提出的PSP层到来的。但仍然是一种非常值得借鉴的思路。
Read MoreDeepLabV3+是现有公认的语义分割最好的网络模型,本文从V2开始依次列出了本人阅读V2、V3、V3+相关的三篇文章的笔记,以供大家了解DeepLab的发展过程,并对其中的各个组成部分有更深入的了解。
Read More是现有语义分割中比较重要的方法之一,可以看做是由U-Net发展而来的一种方法,故而属于编码-解码+跳跃链接的思路,主要的网络结构继承自U-Net,并优化了解码的过程及跳跃链接的处理。
Read More语义分割的早期文章,对早期的语义分割方法有了一个比较充分的总结参考后提出了一个当时最佳的方案,同时给出了全卷积网络的思想以及跳跃链接的思想,为之后很多语义分割的工作提供了基础。
Read More本文考虑到每次向下一层传递的过程中,并不是所有信息都是新学习到的,于是采用了一种很简单但也很巧妙的方式来简化每次向下传递时的操作。这样的思路和处理非常有趣,可以在之后的工作中借鉴。
Read More原文链接:Deep Residual Learning for Image Recognition (2015)每个block至少两层,因为一层的话整个block基本上就是一个linear层,没有观察到很大的好处。进一步的探究:Identity Mapping in Deep Residual Networks ...
Read More本文提出了一种非常有趣的方法来解决一般的分类模型输入大小必须固定的问题--SPP层。这种层的构建方式中蕴含的思想是非常有趣的,根本上是一种对感受野大小做文章的方法,它通过不同大小的pooling使最终能获得很多感受野大小不同的输出。这种思想后来被广泛的用在Semantic Segmentation等多个需要不同大小的感受野的任务中。
Read More非常新颖的将卷积操作和非线性活化看成一种传统的GLM模型,于是理所当然的可以使用传统的GLM的优化方法来对其进行优化,虽然现在看来实际的效率并不尽如人意,但是依然是一个很有趣的思路与改进方向。
Read More