KNN

1. 常规流程

导包 --> 实例化模型对象(有参:k) --> 拆分训练与测试集 --> 拟合(训练)模型 --> 评估 --> 参数调优

1.1 必导包

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from IPython.core.interactiveshell import InteractiveShell
InteractiveShell.ast_node_interactivity = "all"  #全部输出

1.2 实例化对象

from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=3)

1.3 引入数据,以乳腺癌数据为例

from sklearn.datasets import load_breast_cance
cancer = load_breast_cancer()
X = pd.DataFrame(cancer.data,columns=name) #模型输入为二维,ndarray和DF都可以,DF方便观察
y = cancer.target

1.4 切分数据、拟合、预测、评估

# 切分数据
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split (X,y,random_state = 0)


# 拟合
knn.fit(X_train,y_train)

# 预测
knn.predict(预测数据)

# 评估
knn.score(X_test,y_test)
print("knn.score(): \n{:.2f}".format(knn.score(X_test,y_test)))

2. K的参数调节

train_acc = []
test_acc = []

# n_neighbors取值从1到10 
neighbors_settings = range(2, 31)

for k in neighbors_settings:
    clf = KNeighborsClassifier(n_neighbors=k)
    clf.fit(X_train,y_train)
    train_acc.append(clf.score(X_train,y_train))
    test_acc.append(clf.score(X_test,y_test))
    
plt.plot(neighbors_settings,train_acc,label="training accuracy")
plt.plot(neighbors_settings, test_acc, label="test accuracy") 
plt.ylabel("Accuracy")
plt.xlabel("K") 
plt.legend()
#注意,切分的随机数种子会影响学习参数曲线,
np.argmax(test_acc) #返回最大值对应索引,K从2开始,所以15对应K=17

3. 交叉验证: 为了解决knn.score评估结果不稳定,K也就不稳定

3.1 实现流程

from sklearn.model_selection import cross_val_score

scores = cross_val_score(knn, cancer.data, cancer.target,cv=5) #默认5折 ,参数:模型,X,y,几折
print("scores: {}".format(scores))

mean_score = scores.mean()
print("mean_scores: {:.2f}".format(mean_score))

3.2 在学习曲线中用交叉验证


train_acc = []
test_acc = []
cross_acc = []

# n_neighbors取值从2到30 
neighbors_settings = range(2, 31)

for k in neighbors_settings:
    clf = KNeighborsClassifier(n_neighbors=k)
    clf.fit(X_train,y_train)
    train_acc.append(clf.score(X_train,y_train))
    test_acc.append(clf.score(X_test,y_test))
    cross_acc.append(cross_val_score(clf, cancer.data, cancer.target,cv=5).mean())
#交叉验证用的数据集最好用切分后的训练集,因为是被随机打乱过的
    
plt.plot(neighbors_settings,train_acc,label="training accuracy")
plt.plot(neighbors_settings, test_acc, label="test accuracy") 
plt.plot(neighbors_settings, cross_acc, label="cross accuracy") 
plt.ylabel("Accuracy")
plt.xlabel("K")
plt.legend()

np.argmax(cross_acc) #返回最大值对应索引,K从2开始,所以11对应K=13

4. 归一化(0-1标准化)

  • 公式:(x-min)/(max-min)
  • 为了解决单个数据维度过大影响结果的问题,譬如身高与身价分别作x,y求距离时,身高影响非常小
  • 结果相当于比例关系
  • 语法:

fit(self, X[, y]): 生成标准化的规则

transform(self, X): 根据上面生成的规则,对数据进行转换

fit_transform(self, X[, y]): 把上面两步合并成一步

4.1 流程

# 导包 --> 实例化 --> fit(被拆分过的训练集) --> 分别对训练集和测试集标准化
from sklearn.preprocessing import MinMaxScaler
minmax = MinMaxScaler()

# 先fit学习训练集的数据信息(最大最小值等),然后以此去标准化,测试集永远没有fit
minmax.fit(X_train)  #fit只能对训练集,即使是对测试集转化也是用这个
X_train_minmax =  minmax.transform(X_train) #ndarray
X_test_minmax = minmax.transform(X_test) 

# 或者  minmax.fit_transform(X_train, X_train) 一步完成

4.2 用标准化数据进行训练调参

# 用标准化数据进行训练评估
# 在学习曲线中用交叉验证
train_acc = []
test_acc = []
cross_acc = []

# n_neighbors取值从2到30 
neighbors_settings = range(2, 31)

for k in neighbors_settings:
    clf = KNeighborsClassifier(n_neighbors=k)
    clf.fit(X_train_minmax,y_train)
    train_acc.append(clf.score(X_train_minmax,y_train))
    test_acc.append(clf.score(X_test_minmax,y_test))
    cross_acc.append(cross_val_score(clf, X_train_minmax, y_train,cv=5).mean())
    
plt.plot(neighbors_settings,train_acc,label="training accuracy")
plt.plot(neighbors_settings, test_acc, label="test accuracy") 
plt.plot(neighbors_settings, cross_acc, label="cross accuracy") 
plt.ylabel("Accuracy")
plt.xlabel("K")
plt.legend()

取最优结果及其索引

max_score = np.max(cross_acc)
max_index = np.argmax(cross_acc) # 然后输出值+2 重新建模得到最优模型

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容