200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > 【机器学习基础】数学推导+纯Python实现机器学习算法6:感知机

【机器学习基础】数学推导+纯Python实现机器学习算法6:感知机

时间:2023-10-18 07:06:13

相关推荐

【机器学习基础】数学推导+纯Python实现机器学习算法6:感知机

Python机器学习算法实现

Author:louwill

今天笔者要实现的机器学习算法是感知机(perceptron)。感知机是一种较为简单的二分类模型,但由简至繁,感知机却是神经网络和支持向量机的基础。感知机旨在学习能够将输入数据划分为+1/-1的线性分离超平面,所以说整体而言感知机是一种线性模型。因为是线性模型,所以感知机的原理并不复杂,本节笔者就和大家来看一下感知机的基本原理和Python实现。

感知机原理

假设输入x表示为任意实例的特征向量,输出y={+1,-1}为实例的类别。感知机定义由输入到输出的映射函数如下:

其中sign符号函数为:

w和b为感知机模型参数,也是感知机要学习的东西。w和b构成的线性方程wx+b=0极为线性分离超平面。

假设数据是线性可分的,当然有且仅在数据线性可分的情况下,感知机才能奏效。感知机模型简单,但这也是其缺陷之一。所谓线性可分,也即对于任何输入和输出数据都存在某个线性超平面wx+b=0能够将数据集中的正实例点和负实例点完全正确的划分到超平面两侧,这样数据集就是线性可分的。

感知机的训练目标就是找到这个线性可分的超平面。为此,定义感知机模型损失函数如下:

要优化这个损失函数,可采用梯度下降法对参数进行更新以最小化损失函数。计算损失函数关于参数w和b的梯度如下:

由上可知完整的感知机算法包括参数初始化、对每个数据点判断其是否误分,如果误分,则按照梯度下降法更新超平面参数,直至没有误分类点。

以上便是感知机算法的基本原理。当然这里说的感知机仅限于单层的感知机模型,仅适用于线性可分的情况。对于线性不可分的情形,笔者将在后续的神经网络和感知机两讲详细介绍。

感知机算法实现

完整的感知机算法包括参数初始化、模型主体、参数优化等部分,我们便可以按照这个思路来实现感知机算法。在正式写模型之前,我们先用sklearn来准备一下示例数据。

# 导入相关库import pandas as pdimport numpy as npfrom sklearn.datasets import load_irisimport matplotlib.pyplot as plt# 导入iris数据集iris = load_iris()df = pd.DataFrame(iris.data, columns=iris.feature_names)df['label'] = iris.targetdf.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']# 绘制散点图plt.scatter(df[:50]['sepal length'], df[:50]['sepal width'], c='red', label='0')plt.scatter(df[50:100]['sepal length'], df[50:100]['sepal width'], c='green', label='1')plt.xlabel('sepal length')plt.ylabel('sepal width')plt.legend();

#取两列数据并将并将标签转化为1/-1data = np.array(df.iloc[:100, [0, 1, -1]])X, y = data[:,:-1], data[:,-1]y = np.array([1 if i == 1 else -1 for i in y])

下面正式开始模型部分。先定义一个参数初始化函数:

# 定义参数初始化函数def initilize_with_zeros(dim):w = np.zeros(dim)b = 0.0return w, b

然后定义sign符号函数:

# 定义sign符号函数def sign(x, w, b):return np.dot(x,w)+b

最后定义模型训练和优化部分:

# 定义感知机训练函数def train(X_train, y_train, learning_rate):# 参数初始化w, b = initilize_with_zeros(X_train.shape[1])# 初始化误分类is_wrong = Falsewhile not is_wrong:wrong_count = 0for i in range(len(X_train)):X = X_train[i]y = y_train[i]# 如果存在误分类点# 更新参数# 直到没有误分类点if y * sign(X, w, b) <= 0:w = w + learning_rate*np.dot(y, X)b = b + learning_rate*ywrong_count += 1if wrong_count == 0:is_wrong = Trueprint('There is no missclassification!')# 保存更新后的参数params = {'w': w,'b': b}return params

对示例数据进行训练:

params = train(X, y, 0.01)params

最后对训练结果进行可视化,绘制模型的决策边界:

x_points = np.linspace(4, 7, 10)y_hat=-(params['w'][0]*x_points+params['b'])/params['w'][1]plt.plot(x_points,y_hat)plt.plot(data[:50, 0], data[:50, 1], color='red', label='0')plt.plot(data[50:100, 0], data[50:100, 1], color='green', label='1')plt.xlabel('sepal length')plt.ylabel('sepal width')plt.legend()

最后,我们也可以建一个perceptron类来方便调用。对上述代码进行整理:

class Perceptron:def __init__(self):passdef sign(self, x, w, b):return np.dot(x, w) + bdef train(self, X_train, y_train, learning_rate):# 参数初始化w, b = self.initilize_with_zeros(X_train.shape[1])# 初始化误分类is_wrong = Falsewhile not is_wrong:wrong_count = 0for i in range(len(X_train)):X = X_train[i]y = y_train[i]# 如果存在误分类点# 更新参数# 直到没有误分类点if y * self.sign(X, w, b) <= 0:w = w + learning_rate*np.dot(y, X)b = b + learning_rate*ywrong_count += 1if wrong_count == 0:is_wrong = Trueprint('There is no missclassification!')# 保存更新后的参数params = {'w': w,'b': b}return params

以上便是本节内容。完整代码文件和数据可参考我的GitHub地址:

/luwill/machine-learning-code-writing

参考资料:

李航 统计学习方法

/fengdu78/lihang-code

往期精彩:

数学推导+纯Python实现机器学习算法3:k近邻

数学推导+纯Python实现机器学习算法2:逻辑回归

数学推导+纯Python实现机器学习算法1:线性回归

往期精彩回顾适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑AI基础下载机器学习的数学基础专辑获取一折本站知识星球优惠券,复制链接直接打开:/yFQV7am本站qq群1003271085。加入微信群请扫码进群:

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。