大师兄的Python机器学习笔记:特征提取

大师兄的Python机器学习笔记:Pandas库

一、关于分类(Classification)

1. 什么是分类
  • 分类是机器学习的重要模块,主要用来预测数据的类别标签。
2. 常见分类问题

1) 二分类(Binary Classification)

  • 例:新冠人数增长还是减少?

2) 多分类(Multicalss classification)

  • 互斥。 例:足球比赛结果主队是胜、平还是负?
  • 非互斥。 例:火锅底料的味道是酸、甜还是辣?
3. 分类流程
  • 特征提取与特征选取 >> 分类器处理 >> 获得结果

二、关于特征提取

1. 特征提取与特征选取
  • 特征提取和特征选择统称为降维(DimensionalityReduction)。
1.1 意义
  • 研究如何从众多特征中求出那些对分类识别最有效的特征,从而实现特征空间维数的压缩,即获取一组“少而精”且分类错误概率小的分类待征.
1.2 目的
  • 使在最小维数特征空间中异类模式点相距较远(类间距离较大),而同类模式点相距较近(类内距离较小)。
1.3 特征要求
  • 具有很大的识别信息量: 所提供的特征应具有很好的可分性,使分类器容易判别。
  • 具有可靠性: 对那些模棱两可,似是而非不易判别的特征应该去掉。
  • 具有尽可能强的独立性: 重复的、相关性强的特征只选一个,因为强的相关性并没有增加更多的分类信息,不能要。
  • 数量尽可能少,同时损失的信息尽量小。
1.4 特征提取(Feature Extraction)
  • 常用的方法有主成分分析(PCA),独立成分分析(ICA),线性判别分析(LDA)。
  • 将提取的k维特征子集 [Xs1,Xs2,........Xsk] 映射到新特征 [Ye1,Ye2, ...,Yen]上起到进一步的降维。
  • 特征提取后的新特征是原来特征的一个映射。
1.5 特征选取(Feature Selection)
  • 特征选择是从样本集中选取重要的特征子集。
  • 常用特征选择有过滤法(Filter),包裹法(Wrapper),嵌入法(Embedded)等。
  • 特征选择后的特征是原来特征的一个子集。
image.png
2. 特征选取常用方法
  • 常用方法有过滤法包裹法嵌入法
2.1 过滤法(Filter)
  • 过滤法按照特征的发散性相关性对各个特征进行评分,设定阈值或者选择阈值的个数,完成特征选择。
  • 特征的发散性:特征在不同样本之间的差异性。
  • 特征的相关性:特征值和目标值之间在数据上的因果关系。

1) 方差法(VarianceThreshold)

  • 方差法通过计算每个特征的均值和方差,设定一个基础阈值。
  • 当该维度的特征方差小于基础阈值时,则丢弃该特征。
  • 这种方法简单高效的过滤了一些低方差的特征,但依赖于阈值的设置。
>>>import os
>>>import pandas as pd
>>>from sklearn.feature_selection import VarianceThreshold

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>def sort_by_varianceThreshold(dataset,threshold):
>>>    # 使用方差法过滤特征
>>>    sel = VarianceThreshold(threshold)
>>>    return sel.fit_transform(dataset)

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']] # 选出2个特征
>>>    threshold=(.7*(1-.7)) # 阈值设置为比例超过70%的特征
>>>    print(sort_by_varianceThreshold(data_selected,threshold))
[[ 1.  0.]
[ 1.  0.]
[ 1.  0.]
...
[56.  0.]
[ 4.  0.]
[ 4.  0.]]

2) 单变量特征选择

  • 单变量特征选择能够对每一个特征进行测试,衡量该特征和响应变量之间的关系,根据得分扔掉不好的特征。
  • 单变量特征选择方法,独立的衡量每个特征与响应变量之间的关系
  • SelectKBest : 移除那些除了评分最高的 K 个特征之外的所有特征。
  • SelectPercentile: 移除除了用户指定的最高得分百分比之外的所有特征。
  • GenericUnivariateSelect: 允许使用可配置方法来进行单变量特征选择。
>>>import os
>>>import pandas as pd
>>>from sklearn.feature_selection import SelectKBest,chi2

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>def sort_by_transform(x,y,k):
>>>    # 使用卡方检验过滤特征,选出最好的k个特征
>>>    return SelectKBest(chi2,k=k).fit_transform(x,y)

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']] # 选出2个特征
>>>    data_deaths = data['deaths']
>>>    print(sort_by_transform(data_selected,data_deaths,1)) # 这里直接选用死亡数据作为评估器,所以返回卡方选出的数据一定是死亡数据
[[ 1.]
[ 1.]
[ 1.]
...
[56.]
[ 4.]
[ 4.]]
2.2 包裹法(Wrapper)
  • 包裹法就是选定特定算法,然后再根据算法效果来选择特征集合,通过不断的启发式方法来搜索特征。
  • 从最终的学习器性能来看,包裹式特征选择比过滤式特征选择更好。
  • 但是由于在特征选择过程中需多次训练学习期,因此包裹式特征选择的计算开销通常要大得多。
>>>import os
>>>import pandas as pd
>>>from sklearn.feature_selection import RFE
>>>from sklearn.svm import SVR

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>def sort_by_wrapper(x,y,k,step=1):
>>>    estimator = SVR(kernel='linear')
>>>    selector = RFE(estimator,k,step=step) # 通过处理越来越少的特征集合来递归的选择特征。
>>>    return selector.fit(x,y)

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']].loc[[0,1,2,3,4,5]]
>>>    data_deaths = data['deaths'].loc[[0,1,2,3,4,5]]
>>>    selector = sort_by_wrapper(data_selected,data_deaths,1)
>>>    print(f'特征选择结果:{selector.support_},排行:{selector.ranking_}')
选择结果:[False  True],排行:[2 1]
2.3 嵌入法(Embedded)
  • 就是利用正则化的思想,配置特征属性的权重,权重为0则等于被舍弃了。
>>>import os
>>>import pandas as pd
>>>from sklearn.feature_selection import SelectFromModel
>>>from sklearn.svm import LinearSVC

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>def sort_by_Model(x,y):
>>>    lsvc = LinearSVC(C=0.01,penalty='l1',dual=False).fit(x,y)
>>>    model = SelectFromModel(lsvc,prefit=True)
>>>    return model.transform(x)

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']].loc[[x for x in range(0,1000)]]
>>>    data_deaths = data['deaths'].loc[[x for x in range(0,1000)]]
>>>    print(sort_by_Model(data_selected,data_deaths).shape)
(1000, 2)
3. 特征提取常用方法
  • 常用的方法有主成分分析(PCA)独立成分分析(ICA)线性判别分析(LDA)
  • 如果数据有类别,最好先考虑用LDA降维,也可先用小幅度的PCA降维消除噪声再用LDA降维。
  • 若训练数据无类别,则优先考虑PCA。
3.1 主成分分析(PCA)
  • PCA是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示, 并期望在所投影的维度上数据的方差最大(样本的分布最散乱)以使用较少的数据维度同时保留住较多的原数据点的特征。
  • 优点:
  1. 仅仅需要以方差衡量信息量,不受数据集以外的因素影响。
  2. 各主成分之间正交,可消除原始数据成分间的相互影响的因素。
  3. 计算方法简单,主要运算是特征值分解,易于实现。
  • 缺点:
  1. 提取出的各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强。
  2. PCA会消除一些类信息,但是方差小的非主成分也可能含有对样本差异的重要信息,因降维丢弃可能对后续数据处理有影响。
>>>import os
>>>import pandas as pd
>>>import matplotlib.pyplot as plt
>>>import numpy as np
>>>from sklearn.decomposition import PCA

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>def to_display(func):
>>>    def wrapper(*args, **kwargs):
>>>        # 可视化
>>>        data = func(*args,**kwargs)
>>>        x = np.array([np.arange(len(data))])
>>>        plt.scatter(x,data,marker='X')
>>>        plt.show()
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>@to_display
>>>def sort_by_PCA(x):
>>>    pca = PCA(n_components=1) # 加载PCA算法,设置降维后主成分数为2
>>>    reduced_x = pca.fit_transform(x)
>>>    return reduced_x

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']].loc[[x for x in range(0,100)]]
>>>    sort_by_PCA(data_selected)
3.2 独立成分分析(ICA)
  • ICA寻找的是最能使数据的相互独立的方向,而PCA仅要求方向是不相关的。
  • 独立可以推出不相关,反之则不可以,而高斯分布的情况下独立等价于不相关。
  • 因此ICA需要数据的高阶统计量,PCA则只需要二阶统计量。
>>>import os
>>>import pandas as pd
>>>import matplotlib.pyplot as plt
>>>import numpy as np
>>>from sklearn.decomposition import FastICA

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>def to_display(func):
>>>    def wrapper(*args, **kwargs):
>>>        # 可视化
>>>        data = func(*args,**kwargs)
>>>        print(args[1])
>>>        plt.scatter(args[1],data,marker='X')
>>>        plt.show()
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>@to_display
>>>def sort_by_ICA(x,y):
>>>    ica = FastICA(n_components=1) # 加载PCA算法,设置降维后主成分数为2
>>>    reduced_x = ica.fit_transform(x)
>>>    return reduced_x

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases','deaths']].loc[[x for x in range(0,100)]]
>>>    data['date'] = pd.to_datetime(data.date)
>>>    date = data[['date']].loc[[x for x in range(0,100)]]
>>>    sort_by_ICA(data_selected,date)
3.3 线性判别分析(LDA)
  • LDA也称为Fisher判别分析,是从更利于分类的角度来降维.
  • LDA投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。
  • LDA算法优点:
  1. 在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。
  2. LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。
  • LDA算法缺点:
  1. LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。
  2. LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。
  3. LDA在样本分类信息依赖方差而不是均值的时候,降维效果不好。
  4. LDA可能过度拟合数据。
>>>import os
>>>import pandas as pd
>>>import matplotlib.pyplot as plt
>>>import numpy as np
>>>from sklearn.decomposition import LatentDirichletAllocation

>>>def to_float(func):
>>>    def wrapper(*args,**kwargs):
>>>        # 将数据改为浮点数
>>>        data = func(*args,**kwargs)
>>>        for column in data:
>>>            if column == 'date': continue  # 跳过日期
>>>            if str(data[column][1]).isdigit():  # 如果是数字
>>>                data[column] = data[column].astype('float')  # 将列转为浮点数
>>>        return data
>>>    return wrapper

>>>def to_display(func):
>>>    def wrapper(*args, **kwargs):
>>>        # 可视化
>>>        data = func(*args,**kwargs)
>>>        plt.scatter(args[1],data,marker='X')
>>>        plt.show()
>>>        return data
>>>    return wrapper

>>>@to_float
>>>def read_csv(file):
>>>    # 获得文件中的数据
>>>    return pd.read_csv(file)

>>>@to_display
>>>def sort_by_LDA(x,y):
>>>    lda = LatentDirichletAllocation(n_components=1) # 加载PCA算法
>>>    reduced_x = lda.fit_transform(x)
>>>    return reduced_x

>>>if __name__ == '__main__':
>>>    file_path = os.path.join('D:\\','dataset','us-counties.csv')
>>>    data = read_csv(file_path)#
>>>    data_selected = data[['cases']].loc[[x for x in range(0,100)]]
>>>    data['date'] = pd.to_datetime(data.date)
>>>    date = data[['date']].loc[[x for x in range(0,100)]]
>>>    sort_by_LDA(data_selected,date)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,681评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,710评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,623评论 0 334
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,202评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,232评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,368评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,795评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,461评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,647评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,476评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,525评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,226评论 3 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,785评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,857评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,090评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,647评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,215评论 2 341