600字范文,内容丰富有趣,生活中的好帮手!
600字范文 > 机器学习(二)简单逻辑回归python算法+代码(实例:体检阳性阴性预测患不患病)

机器学习(二)简单逻辑回归python算法+代码(实例:体检阳性阴性预测患不患病)

时间:2022-01-13 13:47:11

相关推荐

机器学习(二)简单逻辑回归python算法+代码(实例:体检阳性阴性预测患不患病)

数据集:

在txt文本里面,自己编写三列数行数据就可以,参考下图(由于无法上传,数据无所谓,可以自己编写,主要是实现算法):

右图是程序运行添加的头部和侧面编号,文本框只有数据,见下左图

简单算法手写草拟:

python实现:

1、导入python库

import numpy as npimport pandas as pdfrom matplotlib import pyplot as pltplt.rcParams['font.sans-serif'] = ['SimHei']#显示中文

2、导入数据并标记

path = 'andrew_ml_ex22391逻辑回归数据集\ex2data1.txt'data = pd.read_csv(path,header=None,names=['体检1','体检2','患病'])阳性 = data[data['患病'].isin([1])]阴性 = data[data['患病'].isin([0])]

3、数据可视化

fig, ax = plt.subplots(figsize=(12,8))ax.scatter(阳性['体检1'], 阳性['体检2'], s=50, c='r', marker='o', label='患病')ax.scatter(阴性['体检1'], 阴性['体检2'], s=50, c='g', marker='s', label='不患病')ax.legend()ax.set_xlabel('体检 1 数据')ax.set_ylabel('体检 2 数据')plt.show()

结果显示:

4、①Sigmoid函数和 应用梯度下降更新Ѳ

Sigmoid函数:

偏导数:

python代码如下:

# 实现sigmoid函数def sigmoid(z):return 1/(1+np.exp(-z))

#实现代价函数def Cost(theta,X,y):first = np.multiply(-y,np.log(sigmoid(X*theta.T)))second = np.multiply((1-y),np.log(1-sigmoid(X*theta.T)))return np.sum(first-second)/(len(X))#t梯度下降def gradientDescent(X, y, theta, alpha, iters):temp = np.matrix(np.zeros(theta.shape))parameters = int(theta.ravel().shape[1])cost = np.zeros(iters)for i in range(iters):error = sigmoid(X * theta.T) - yfor j in range(parameters):term = np.multiply(error, X[:, j])temp[0, j] = theta[0, j] - ((alpha / len(X)) * np.sum(term))theta = tempcost[i] = Cost(theta,X,y)return theta, cost# 加一列常数列data.insert(0, 'Ones', 1)# 初始化X,y,θcols = data.shape[1]X = data.iloc[:,0:cols-1]y = data.iloc[:,cols-1:cols]X = np.matrix(X.values)y = np.matrix(y.values)theta = np.matrix(np.array([0,0,0]))alpha = 0.0001#如果学习率太大会造成梯度上升,得出NAN数值,详见后期专门分析学习率iters = 1500g,cost= gradientDescent(X, y, theta, alpha, iters)print(g,cost)

运行结果:(最后代价函数为0.62909,有点大)

②利用scipy.optimize.fmin_tnc工具库,不用自己定义,自动应用学习率和迭代最优解

python代码如下:

#实现代价函数def Cost(theta,X,y):theta = np.matrix(theta)X = np.matrix(X)y = np.matrix(y)first = np.multiply(-y, np.log(sigmoid(X * theta.T)))second = np.multiply((1 - y), np.log(1 - sigmoid(X * theta.T)))return np.sum(first - second) / (len(X))# 加一列常数列data.insert(0, 'Ones', 1)# 初始化X,y,θcols = data.shape[1]X = data.iloc[:,0:cols-1]y = data.iloc[:,cols-1:cols]X = np.array(X.values)y = np.array(y.values)theta = np.zeros(3)#实现梯度函数def gradient(theta, X, y):theta = np.matrix(theta)X = np.matrix(X)y = np.matrix(y)parameters = int(theta.ravel().shape[1])grad = np.zeros(parameters)error = sigmoid(X * theta.T) - yfor i in range(parameters):term = np.multiply(error, X[:, i])grad[i] = np.sum(term) / len(X)return gradimport scipy.optimize as optresult = opt.fmin_tnc(func=Cost, x0=theta, fprime=gradient,args=(X,y))# 用θ的计算结果代回代价函数计算print(result[0])print(Cost( result[0],X, y))

运行结果:

对比得知第②种方法最优

如果想用第①种方法,就要设置个循环,假设代价函数(数据集全部损失函数的平均)小于0.3停止迭代(运行时间可能特别慢)

python代码如下:

alpha = 0.0005#如果学习率太大会造成梯度上升,得出NAN数值,详见后期专门分析学习率iters = 15000while True:g, cost = gradientDescent(X, y, theta, alpha, iters)if cost[-1] <0.3:print(g,cost)breakelse:print(cost)iters =iters+15000

迭代结果输出如下:

5、画出决策线

python代码如下:

print(result[0])print(Cost( result[0],X, y))plotting_x1 = np.linspace(30, 100, 100)plotting_h1 = ( - result[0][0] - result[0][1] * plotting_x1) / result[0][2]fig, ax = plt.subplots(figsize=(12,8))ax.plot(plotting_x1, plotting_h1, 'y', label='预测 ')ax.scatter(阳性['体检1'], 阳性['体检2'], s=50, c='r', marker='o', label='患病')ax.scatter(阴性['体检1'], 阴性['体检2'], s=50, c='g', marker='s', label='不患病')ax.legend()ax.set_xlabel('体检 1 数据')ax.set_ylabel('体检 2 数据')plt.show()

运行结果:

①、梯度下降配合循环逻辑,得出的Ѳ画出的图:

②、利用scipy.optimize.fmin_tnc工具库得出的Ѳ画出的图:

6、预测得病率和得不得病的反馈

得病为1,不得病为0

体检1为60,体检2为70

python代码如下:

def hfunc1(theta, X):return sigmoid(np.dot(theta.T, X))def predict(theta, X):probability = sigmoid(np.dot(theta.T, X))return [1 if probability >= 0.5 else 0]print('得病率为:',hfunc1(result[0],[1,60,70]))print('预测得不得病:',predict(result[0],[1,60,70]))

运行结果:

如有问题欢迎指正,谢谢~

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。