查看原文
其他

计算机视觉知识点总结

JustDoIT 极市平台 2021-09-20

加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流扫描文末二维码立刻申请入群~


分享一篇计算机视觉知识点的相关博文汇总,非常系统全面,超多干货,也欢迎大家补充好的文章。本文涉及较多超链接,已经发布在极市开发者社区:

http://bbs.cvmart.net/articles/380(或直接阅读原文),欢迎前往获得更好的阅读体验。

作者 | JustDoIT

来源 | https://zhuanlan.zhihu.com/p/58776542


目录
0 计算机视觉四大基本任务
1 经典卷积网络
2 卷积、空洞卷积
3 正则化
4 全卷积网络
5 1*1卷积核
6 感受野
7 常见损失
8 优化算法
9 concat 和 add的区别
10 注意力机制
11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
12 边框回归
13 非极大值回归(NMS, Soft NMS)
14 激活函数
15 评价指标
16 batch size的选择
17 Graph Convolutional Network(GCN)


0 计算机视觉四大基本任务

计算机视觉四大基本任务(分类、定位、检测、分割)


  • 目标检测解读汇总

    目标检测论文及解读汇总


  • 图像语义分割综述

    图像语义分割综述


1 经典卷积网络

  • AlexNet

    从AlexNet理解卷积神经网络的一般结构


  • VGG

    【深度学习】经典神经网络 VGG 论文解读

    深度学习之基础模型-VGG


  • GoogleNet

    深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现


  • ResNet

    ResNet解析

    ResNetV2:ResNet深度解析


  • Xception

    Xception算法详解


  • DenseNet

    DenseNet算法详解


  • DetNet

    旷视科技提出物体检测专用Backbone——DetNet


2 卷积、空洞卷积

变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。


  • 卷积

    如何通俗易懂地解释卷积?

    “看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)

    CNN入门必读经典:Visualizing and Understanding Convolutional Networks



3 正则化

  • batch normalization、group normalization

    Batch Normalization导读

    深度学习中的Normalization模型

    Group Normalization 及其MXNet、Gluon实现


  • dropout

    理解dropout


  • L1、L2


    机器学习中的范数规则化之(一)L0、L1与L2范数

    机器学习中正则化项L1和L2的直观理解


4 全卷积网络

全卷积网络 FCN 详解


5 1*1卷积核

一文读懂卷积神经网络中的1x1卷积核

卷积神经网络中用1*1 卷积有什么作用或者好处呢?

如何理解卷积神经网络中的1*1卷积


6 感受野

深度神经网络中的感受野(Receptive Field)


7 常见损失

损失函数改进方法总览

请问faster rcnn和ssd 中为什么用smooth l1 loss,和l2有什么区别?


  • focal loss

    何恺明大神的「Focal Loss」,如何更好地理解?



8 优化算法

  • Momentum

    路遥知马力——Momentum


  • Nesterov Accelerated Gradient

    比Momentum更快:揭开Nesterov Accelerated Gradient的真面目


9 concat 和 add的区别

如何理解神经网络中通过add的方式融合特征?


10 注意力机制

计算机视觉中的注意力机制

计算机视觉中的注意力机制


11 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)

CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?


12 边框回归

边框回归(Bounding Box Regression)详解


13 非极大值回归(NMS, Soft NMS)

  • NMS

    NMS——非极大值抑制


  • Soft NMS

    Soft NMS算法笔记



14 激活函数

深度学习中的激活函数导引

如何理解ReLU activation function?

请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?


15 评价指标

  • 目标检测mAP

    rafaelpadilla/Object-Detection-Metrics


  • 语义分割(PA、MPA、MIoU、FWIoU)

    语义分割之评价指标


可参考下面论文第五章节

A Review on Deep Learning Techniques Applied to Semantic Segmentation


16 batch size的选择

怎么选取训练神经网络时的Batch size?

深度机器学习中的batch的大小对学习效果有何影响?


17 Graph Convolutional Network(GCN)

如何理解 Graph Convolutional Network(GCN)?







*推荐阅读

一文看尽2018全年计算机视觉大突破

计算机视觉领域最全汇总


扫描下方二维码即可申请加入极市目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群,更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流,一起来让思想之光照的更远吧~



觉得有用麻烦给个好看啦~  

视频 小程序 ,轻点两下取消赞 在看 ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存