码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 计算机视觉论文精度大纲


    目录

    一、图像分类

    1. AlexNet

    2. VGGNet

    3. GoogleNet_v1

    4. GoogleNet_v2_B

    二、目标检测

    三、视频目标检测

    四、Transformer(变形金刚)

    1.《Attention Is All You Need》

    2.《Version Transformer》

    五、Transformer专栏


    一、图像分类

    1. AlexNet

    AlexNet 论文精度,以及解析网络模型结构_Flying Bulldog的博客-CSDN博客《ImageNet Classification with Deep Convolutional Neural Networks》网络模型的名称由来:第一作者的名字 Alex Krizhevsky我们训练了一个大型的深度卷积神经网络,将ImageNet LSVRC - 2010竞赛中120万幅高分辨率图像分类到1000个不同的类中。在测试数据上,我们分别取得了37.5 %和17.0 %的前1位和前5位错误率,明显优于以往的先进水平。该神经网络包含6000万个参数和65万个神经元,由5个卷积层组成,其中部分卷https://blog.csdn.net/qq_54185421/article/details/125356469

    2. VGGNet

    VGGNet 论文精度,并解析 VGG-16 网络模型结构_Flying Bulldog的博客-CSDN博客_vgg16论文《VERY DEEP CONVOLUTIONAL NETWORKSFOR LARGE-SCALE IMAGE RECOGNITION》所以我们用3个3×3的卷积叠层代替单个7×7的卷积叠层得到了什么?(1)首先,我们用三个非线性校正层(ReLus)代替一个非线性校正层(ReLU),使得决策函数更具区分度。(2)其次,我们减少了参数个数:假设三层3 × 3卷积堆的输入和输出都有C通道,堆栈参数为个权重(3)最后,多个卷积堆叠在一起可以使得模型的深度增加,证明了本文章的结论:深度在视觉表征中的重要性。.https://blog.csdn.net/qq_54185421/article/details/125372642

    3. GoogleNet_v1

    《Going deeper with convolutions》论文精度,并解析GoogLeNet 网络模型结构_Flying Bulldog的博客-CSDN博客在2014年的ImageNet图像识别挑战赛中,⼀个名叫GoogLeNet 的网络架构⼤放异彩。GoogLeNet吸收了NiN《Network In Network》中串联网络的思想,并在此基础上做了改进。这篇论文的⼀个重点是解决了什么样大小的卷积核最合适的问题。毕竟,以前流⾏的网络使用小到1 × 1,⼤到11 × 11的卷积核。本文的⼀个观点是,有时使用不同大小的卷积核组合是有利的。(全都要!)目录一、引言(1)SOTA(state of the art)(2)Hebbian Principe:neurohttps://blog.csdn.net/qq_54185421/article/details/125386728

    4. GoogleNet_v2_B

    经典BN很NB,精读论文《Batch Normalization》_Flying Bulldog的博客-CSDN博客首先看摘要和结论,然后分析核心思想,最后总结表格内容和实验细节。训练深度神经网络是一个复杂的事实,在训练过程中每一层的输入分布随着前一层的参数变化而变化。这就需要较低的学习速率和仔细的参数初始化来减缓训练速度,并且使得具有饱和非线性的模型的训练变得非常困难。我们将这一现象称为内部协变量偏移(internal covariateshift),并通过归一化层输入来解决这个问题。我们的方法从将规范化作为模型架构的一部分和对每个训练小批量执行规范化来吸取其优点。Batch Normalization允许我们使用更高https://blog.csdn.net/qq_54185421/article/details/125429533

    二、目标检测

    待更新。。。

    三、视频目标检测

    待更新。。。

    四、Transformer(变形金刚)

    1.《Attention Is All You Need》

    《Attention Is All You Need》论文精读,并解析Transformer模型结构_Flying Bulldog的博客-CSDN博客建议:结合《Attention Is All You Need》论文观看此文章。Transformer的模型结构如下图所示,通过把“My money don't jiggle jiggle”翻译成“我的钱不摇晃摇晃”来分析Transformer的工作过程。训练过程中,每一次解码器的输出与数据集中的翻译值通过交叉熵计算错误率(一次送入batch_size大小个token,计算错误率),从而对权重进行更新。预测过程,同训练过程相似,即输入英文句子,一个词一个词的翻译成汉语句子。...https://blog.csdn.net/qq_54185421/article/details/125315630

    2.《Version Transformer》

    《Vision Transformer (ViT)》论文精度,并解析ViT模型结构以及代码实现_Flying Bulldog的博客-CSDN博客论文共有22页,表格和图像很多,网络模型结构解释的很清楚,并且用四个公式展示了模型的计算过程;本文章对其进行精度,并对源码进行剖析,希望读者可以耐心读下去。https://blog.csdn.net/qq_54185421/article/details/125345852

    五、Transformer专栏

    https://blog.csdn.net/qq_54185421/category_11847619.htmlhttps://blog.csdn.net/qq_54185421/category_11847619.html

    >>>未完待续。。。 

  • 相关阅读:
    centos 根目录逻辑卷扩容/home -> /
    git stash暂存-详细命令使用
    对话阿里巴巴副总裁贾扬清:追求大模型,并不是一件坏事
    systemV的工作原理+原理代码
    【两周学会FPGA】从0到1学习紫光同创FPGA开发|盘古PGL22G开发板学习之DDR3 IP简单读写测试(六)
    7年坚定投身“高清头显”,纳德光学聚焦打造高清头显领导品牌
    Java架构师面试最全100篇(2022最新版)
    背靠背 Nature 新方向 - 蛋白质结构家族图谱的“潘多拉魔盒”
    Excel使用笔记
    Java8 Stream生成流 generate iterate IntStream
  • 原文地址:https://blog.csdn.net/qq_54185421/article/details/125571690
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号