LeakyReLU是一种非线性激活函数,它可以帮助模型更好地拟合数据。在TensorFlow中实现LeakyReLU操作的步骤如下:
导入需要的库
import tensorflow as tf import numpy as np
定义超参数
# 定义超参数 learning_rate = 0.01 training_epochs = 10
定义输入和输出
# 定义输入和输出 x = tf.placeholder(tf.float32, shape=[None, 1]) y_true = tf.placeholder(tf.float32, shape=[None, 1])
定义LeakyReLU激活函数
# 定义LeakyReLU激活函数 def leaky_relu(x, alpha=0.2): return tf.maximum(x, alpha * x)
定义模型
# 定义模型 y_pred = leaky_relu(x)
定义损失函数和优化器
# 定义损失函数和优化器 loss = tf.reduce_mean(tf.square(y_true - y_pred)) optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
步骤七:训练模型
# 训练模型 with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for epoch in range(training_epochs): _, loss_val = sess.run([optimizer, loss], feed_dict={x: x_train, y_true: y_train}) if epoch % 10 == 0: print("Epoch: {}, loss: {}".format(epoch, loss_val))
步骤八:预测结果
# 预测结果 y_pred_val = sess.run(y_pred, feed_dict={x: x_test})