• slim.fully_connected()


    参考  slim.fully_connected() - 云+社区 - 腾讯云

    1. def fully_connected(inputs,
    2. num_outputs,
    3. activation_fn=nn.relu,
    4. normalizer_fn=None,
    5. normalizer_params=None,
    6. weights_initializer=initializers.xavier_initializer(),
    7. weights_regularizer=None,
    8. biases_initializer=init_ops.zeros_initializer(),
    9. biases_regularizer=None,
    10. reuse=None,
    11. variables_collections=None,
    12. outputs_collections=None,
    13. trainable=True,
    14. scope=None)
    添加一个完全连接的层。“fully_connected”创建一个名为“weights”的变量,表示一个完全连接的权重矩阵,该矩阵乘以“输入”,生成一个隐藏单元的“张量”。如果提供了' normalizer_fn '(例如' batch_norm '),则应用它。否则,如果‘normalizer_fn’为None,并且提供了一个‘biases_initializer’,那么就会创建一个‘bias’变量,并添加隐藏的单元。最后,如果“activation_fn”不是“None”,那么它也应用于隐藏单元。注意:如果“输入”的秩大于2,那么“输入”在初始矩阵乘以“权重”之前是平坦的。
    

    参数:

    • inputs:至少秩为2的张量,最后一个维度为静态值;即。' [batch_size, depth] ', ' [None, None, None, channels] '。
    • num_output:整数或长,层中输出单元的数量。
    • activation_fn:激活函数。默认值是一个ReLU函数。显式地将其设置为None以跳过它并保持线性激活。
    • normalizer_fn:用来代替“偏差”的归一化函数。如果提供“normalizer_fn”,则忽略“biases_initializer”和“biases_regularizer”,并且不会创建或添加“bias”。对于no正常化器函数,默认设置为None
    • normalizer_params:规范化函数参数。
    • weights_initializer:权值的初始化器。
    • weights_regularizer:可选的权重正则化器。
    • biases_initializer:用于偏差的初始化器。如果没有人跳过偏见。
    • biases_regularizer:可选的偏差调整器。
    • reuse:是否应该重用层及其变量。为了能够重用层范围,必须给出。
    • variables_collections:所有变量的可选集合列表,或包含每个变量的不同集合列表的字典。
    • outputs_collections:用于添加输出的集合。
    • trainable:如果“True”还将变量添加到图形集合“GraphKeys”中。TRAINABLE_VARIABLES”(见tf.Variable)。
    • scope:variable_scope的可选作用域。

    返回值:

    • 表示一系列运算结果的张量变量。

    可能产生的异常:

    • ValueError: If x has rank less than 2 or if its last dimension is not set.

  • 相关阅读:
    GEO数据库中搜索数据
    c++day2
    入职面经!!!
    25.leetcode---只出现一次的数字(Java版)
    多线程学习
    【Go语言入门指南】零基础入门 go 语言 | Golang 入门指南
    伽马校正笔记(Gamma Correction)
    一文看懂推荐系统:物品冷启02:简单的召回通道
    拼多多商品详情接口、拼多多商品基本信息、拼多多商品属性接口
    TCP/IP
  • 原文地址:https://blog.csdn.net/weixin_36670529/article/details/99717814