赞
踩
实验室将探索神经元和层的内部工作原理,特别是将课程1中掌握的模型,即回归/线性模型和逻辑斯蒂模型,与之进行对比。本实验室将介绍Tensorflow并演示这些模型是如何在该框架中实现的。
Tensorflow和Keras
Tensorflow是谷歌开发的机器学习包。2019年,谷歌将Keras集成到Tensorflow中,并发布了Tensorflow 2.0。Keras是一个由franois Chollet独立开发的框架,它为Tensorflow创建了一个简单的、以层为中心的接口。本课程将使用Keras接口。
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.layers import Dense, Input
from tensorflow.keras import Sequential
from tensorflow.keras.losses import MeanSquaredError, BinaryCrossentropy
from tensorflow.keras.activations import sigmoid
from lab_utils_common import dlc
from lab_neurons_utils import plt_prob_1d, sigmoidnp, plt_linear, plt_logistic
plt.style.use('./deeplearning.mplstyle')
import logging
logging.getLogger("tensorflow").setLevel(logging.ERROR)
tf.autograph.set_verbosity(0)
后两行代码的含义是设置 TensorFlow 的日志级别,将 TensorFlow 的日志级别设置为 ERROR 级别,从而只记录 ERROR 级别及以上的日志信息,不记录更低级别的日志信息。
另外,tf.autograph.set_verbosity(0)这行代码是设置 AutoGraph 的日志级别,将 AutoGraph 的日志级别设置为 0,表示不输出任何日志信息。 AutoGraph 是 TensorFlow 中用于将普通 Python 代码转换成 TensorFlow 计算图的工具,设置日志级别为 0 可以关闭 AutoGraph 的日志输出,减少不必要的输出信息。
数据集
我们将使用课程一的例子,房价的线性回归。
X_train = np.array([[1.0], [2.0]], dtype=np.float32) #(size in 1000 square feet)
Y_train = np.array([[300.0], [500.0]], dtype=np.float32) #(price in 1000s of dollars)
fig, ax = plt.subplots(1,1)
ax.scatter(X_train, Y_train, marker='x', c='r', label="Data Points")
ax.legend( fontsize='xx-large')
ax.set_ylabel('Price (in 1000s of dollars)', fontsize='xx-large')
ax.set_xlabel('Size (1000 sqft)', fontsize='xx-large')
plt.show()
回归/线性模型
未激活的神经元实现的函数与课程1线性回归相同:
我们可以用一个神经元或单元定义一个层,并将其与熟悉的线性回归函数进行比较。
linear_layer = tf.keras.layers.Dense(units=1, activation = 'linear', )
在这里,'linear’激活函数的作用是保持输出与输入之间的线性关系。在神经网络中,每个层的输出通常会通过一个激活函数来进行非线性变换,以提供网络学习非线性关系的能力。然而,当我们希望保持线性关系时,可以选择使用’linear’激活函数,它实际上仅仅是一个恒等函数,不会对输入进行任何改变。
在这种情况下,Dense层实际上只是执行矩阵相乘和偏置加法,没有经过任何非线性变换,因此输出与输入之间的关系仍然是线性的。这在某些回归任务或特定的网络架构中可能是有用的。
我们来看看权重。
linear_layer.get_weights()
没有权重,因为权重尚未实例化。
让我们在X_train的一个例子上试试这个模型。
这将触发权重的实例化。
注意,图层的输入必须是二维的,所以我们将重塑它。
a1 = linear_layer(X_train[0].reshape(1,1))
print(a1)
结果是一个形状为(1,1)或一个条目的张量(数组的另一个名称)。现在让我们来看看权重和偏差。这些权重被随机初始化为较小的数字,并且偏置默认被初始化为零。
w, b= linear_layer.get_weights()
print(f"w = {w}, b={b}")
具有单个输入特征的线性回归模型(1)将具有单个权重和偏差。这与我们上面1层的尺寸相匹配。
权重被初始化为随机值,所以让我们将它们设置为一些已知值。
set_w = np.array([[200]])
set_b = np.array([100])
# set_weights takes a list of numpy arrays
linear_layer.set_weights([set_w, set_b])
print(linear_layer.get_weights())
让我们将方程(1)与层输出进行比较。
a1 = linear_layer(X_train[0].reshape(1,1))
print(a1)
alin = np.dot(set_w,X_train[0].reshape(1,1)) + set_b
print(alin)
可以看出无论是用参数设置好的模型计算还是用点积运算得到的结果是一样的。
它们产生相同的值!现在,我们可以使用我们的线性层对我们的训练数据进行预测。
prediction_tf = linear_layer(X_train)
prediction_np = np.dot( X_train, set_w) + set_b
plt_linear(X_train, Y_train, prediction_tf, prediction_np)
具有Sigmoid激活的神经元/单元实现的功能与课程1中的逻辑回归相同:
让我们设置
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。