欢迎访问宙启技术站
智能推送

TensorFlow.keras.layers中的核心层和激活函数

发布时间:2023-12-25 12:48:34

TensorFlow.keras.layers的核心层是构建神经网络模型时常用的层,它们包括Dense、Conv2D、MaxPooling2D、Flatten等。激活函数则是在神经网络中引入非线性性质的函数,它们包括Relu、Sigmoid、Tanh等。下面将对核心层和激活函数分别进行介绍,并给出使用例子。

一、核心层

1. Dense层:该层是全连接层,它将输入张量与输出张量之间的所有神经元相连。

from tensorflow.keras.layers import Dense
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Dense(64, activation='relu', input_shape=(32,)))

2. Conv2D层:该层是二维卷积层,它对输入张量应用一个指定窗口大小的卷积核来进行卷积运算。

from tensorflow.keras.layers import Conv2D
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(64, 64, 3)))

3. MaxPooling2D层:该层是二维最大池化层,它对输入张量进行最大池化操作,以减少空间维度。

from tensorflow.keras.layers import MaxPooling2D
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(MaxPooling2D(pool_size=(2, 2), input_shape=(64, 64, 3)))

4. Flatten层:该层用于将多维输入张量展平为一维张量。

from tensorflow.keras.layers import Flatten
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Flatten(input_shape=(32, 32, 3)))

二、激活函数

1. Relu激活函数:该函数将所有负值变为0,保持正值不变。

from tensorflow.keras.layers import Dense
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Dense(64, activation='relu', input_shape=(32,)))

2. Sigmoid激活函数:该函数将输入压缩到0到1的范围内,常用于二分类问题。

from tensorflow.keras.layers import Dense
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Dense(1, activation='sigmoid', input_shape=(32,)))

3. Tanh激活函数:该函数将输入压缩到-1到1的范围内,常用于多分类问题。

from tensorflow.keras.layers import Dense
from tensorflow.keras.models import Sequential

model = Sequential()
model.add(Dense(10, activation='tanh', input_shape=(32,)))

以上是TensorFlow.keras.layers中的一些核心层和激活函数的使用例子。这些层和函数可以用于构建各种类型的神经网络模型,并且可以根据需要进行组合和调整参数来适应不同的问题。