Keras Dense

发布时间 2023-10-08 09:35:43作者: emanlee

Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。
如果本层的输入数据的维度大于2,则会先被压为与kernel相匹配的大小。
————————————————
版权声明:本文为CSDN博主「lvkx」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_42146047/article/details/108416028

=================================================

keras.layers.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None)
参数解释如下(黑体为常用参数):

units :代表该层的输出维度或神经元个数, units解释为神经元个数为了方便计算参数量,解释为输出维度为了方便计算维度
activation=None:激活函数.但是默认 liner (详见API的activation)
use_bias=True:布尔值,该层是否使用偏置向量b
kernel_initializer:初始化w权重 (详见API的initializers)
bias_initializer:初始化b权重 (详见API的initializers)
kernel_regularizer:施加在权重w上的正则项 (详见API的regularizer)
bias_regularizer:施加在偏置向量b上的正则项 (详见API的regularizer)
activity_regularizer:施加在输出上的正则项 (详见API的regularizer)
kernel_constraint:施加在权重w上的约束项 (详见API的constraints)
bias_constraint:施加在偏置b上的约束项 (详见API的constraints)
链接:https://blog.csdn.net/weixin_44551646/article/details/112911215

=================================================

2.1 示例1:

dense层为输入层


# 作为 Sequential 模型的第一层,需要指定输入维度。可以为 input_shape=(16,) 或者 input_dim=16,这两者是等价的。
model = Sequential()
model.add(Dense(32, input_shape=(16,))) #其输出数组的尺寸为 (*, 32),模型以尺寸(*, 16) 的数组作为输入

# 在第一层之后,就不再需要指定输入的尺寸了:
model.add(Dense(32))


⚠️:作为 Sequential 模型的第一层,需要指定输入维度input_shape。
注意与input_dim区分:
    input_shape是指输入张量的shape
    input_dim是指的张量的维度

比如,一个一阶的张量[1,2,3]的shape是(3,),input_dim = 1(因为是一阶)
一个二阶的张量[[1,2,3],[4,5,6]]的shape是(2,3),input_dim = 2(因为是二阶)
一个三阶的张量[[[1],[2],[3]],[[4],[5],[6]]]的shape是(2,3,1),input_dim = 3(因为是三阶)
相反,如果input_dim=784,说明输入是一个784维的向量,这相当于一个一阶的张量,它的shape就是(784,)。因此,input_shape=(784,)。

 

2.2 示例2:

 

dense层为中间层



这里使用的是Sequential模型,同时展示了dense作为输入层,中间层和输出层

from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation

model = Sequential() # 顺序模型

# 输入层
model.add(Dense(7, input_shape=(4,)))  # Dense作第一层要写input—_shape
model.add(Activation('sigmoid')) # 激活函数

# 隐层
model.add(Dense(13))  # Dense层为中间层
model.add(Activation('sigmoid')) # 激活函数

# 输出层
model.add(Dense(5))
model.add(Activation('softmax'))

model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=["accuracy"])

model.summary()



2.3 示例3:

 

dense层为输出层



这里使用的是Model模型,展示了dense层为输出层

from tensorflow.python.keras import *
from tensorflow.python.keras.layers import *

x=Input(shape=(5,))
y=Dense(1,activation='softmax')(x)

model=Model(inputs=x,outputs=y)
model.summary()

链接:https://blog.csdn.net/weixin_44551646/article/details/112911215

https://blog.csdn.net/orDream/article/details/106355491