完成图相关的任务,各种测试GNN性能的数据集。
【图像分类—ResNet V1】Deep Residual Learning for Image Recognition
论文解决的主要问题是深层的神经网络很难训练;提出了一种残差学习框架来减轻网络训练。
【图像分类—GoogLeNet Inception V3】Rethinking the Inception Architecture for Computer Vision
分析了Inception优化的一些历史情况;提出了设计Inception的四个原则;提出分解卷积核的方式;辅助分类器的作用;提出缩小feature的结构。
【图像分类—GoogLeNet Inception V2】Batch Normalization
BN的提出是为了克服深度神经网络难以训练的弊病,减轻了对参数初始化的依赖;训练更快,可以使用更高的学习率;BN一定程度上增加了泛化能力,dropout等技术可以去掉。
【图像分类—NIN】Network in Network
文章提出在每个局部感受野中进行更加复杂的运算,提出了对卷积层的改进算法:MLP卷积层。传统的卷积神经网络一般来说是由:线性卷积层、池化层、全连接层堆叠起来的网络,卷积层通过线性滤波器进行线性卷积运算,然后在接个非线性激活函数,最终生成特征图。
【图像分类—GoogLeNet Inception V1】Going Deeper With Convolutions
Google Inception Net 首次出现在 ILSVRC 2014的比赛中(和VGGNet 同年),就以较大优势取得了第一名。它最大的特点就是控制了计算量和参数量的同时,获得了非常好的分类性能——top-5 错误率 6.67%。Inception V1 有22 层深,比 AlexNet的8层或者 VGGNet的19层还要更深。但其大小却比AlexNet和VGG小很多,计算量只有 15亿次浮点运算,同时只有500万的参数量,仅为 AlexNet 参数量(6000万)的 1/12。
【语义分割—FCN】Fully Convolutional Networks for Semantic Segmentation
与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全连接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的feature map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。
【图像分类—VGG】 Very Deep Convolutional Networks for Large-Scale Image Recognition
VGG对于Alexnet来说,改进并不是很大,主要改进就在于使用了小卷积核,网络是分段卷积网络,通过max pooling过度,同时网络更深更宽。分别在定位和分类问题中获得了第一和第二名。我们还表明,我们的方法很好地推广到了其他数据集上,在那里他们实现了最好的结果。