异常检测——传统统计学
主要内容包括:
- 高斯分布
- 箱线图
1.概述
统计学方法有效性高度依赖于给定数据所做的统计的模型假设是否成立。
异常检测的统计学方法的一般思想是:学习一个拟合给定数据集的生成模型,然后识别该模型低概率区域中的对象,把他们作为异常点
例如:正态分布的3个之外的点为异常点,箱线图中超过2个Q的点为异常点
根据如何指定和学习模型,异常检测的统计学方法可以划分为两个主要的类型:参数方法和非参数方法
参数方法假定正常的数据对象被一个以为参数的参数分布产生。该参数分布的概率密度函数给出对象被该分布产生的概率。该值越小, 越可能成为异常点。
非参数方法并不假定先验统计模型,而是试图从输入数据确定模型。非参数方法通常假定参数的个数和性质都是灵活的,不预先确定(所以非参数方法并不是说模型是完全无参的,完全无参的情况下从数据学习模型是不可能的)。
2.参数方法
2.1基于正态分布的一元异常点检测
仅涉及一个属性或变量的数据称为一元数据。我们假定数据由正态分布产生,然后可以由输入数据学习正态分布的参数,并把低概率的点识别为异常点。
假定输入数据集为,数据集中的样本服从正态分布,即,我们可以根据样本求出参数和。
求出参数之后,我们就可以根据概率密度函数计算数据点服从该分布的概率。正态分布的概率密度函数为
如果计算出来的概率低于阈值,就可以认为该数据点为异常点。
阈值是个经验值,可以选择在验证集上使得评估指标值最大(也就是效果最好)的阈值取值作为最终阈值。
例如常用的3sigma原则中,如果数据点超过范围,那么这些点很有可能是异常点。
这个方法还可以用于可视化。箱线图对数据分布做了一个简单的统计可视化,利用数据集的上下四分位数(Q1和Q3)、中点等形成。异常点常被定义为小于Q1-1.5IQR或大于Q3+1.5IQR的那些数据。
用Python画一个简单的箱线图:
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
data = np.random.randn(50000) * 20 + 20
sns.boxplot(data=data)
2.2多元异常点检测
涉及两个或多个属性或变量的数据称为多元数据。许多一元异常点检测方法都可以扩充,用来处理多元数据。其核心思想是把多元异常点检测任务转换成一元异常点检测问题。例如基于正态分布的一元异常点检测扩充到多元情形时,可以求出每一维度的均值和标准差。对于第维:
计算概率时的概率密度函数为
这是在各个维度的特征之间相互独立的情况下。如果特征之间有相关性,就要用到多元高斯分布了。
1.3多个特征相关,且符合多元高斯分布
3.使用混合参数分布
在许多情况下假定数据是由正态分布产生的。当实际数据很复杂时,这种假定过于简单,可以假定数据是被混合参数分布产生的。
非参数方法
在异常检测的非参数方法中,“正常数据”的模型从输入数据学习,而不是假定一个先验。通常,非参数方法对数据做较少假定,因而在更多情况下都可以使用。
例子:使用直方图检测异常点。
直方图是一种频繁使用的非参数统计模型,可以用来检测异常点。该过程包括如下两步:
步骤1:构造直方图。使用输入数据(训练数据)构造一个直方图。该直方图可以是一元的,或者多元的(如果输入数据是多维的)。
尽管非参数方法并不假定任何先验统计模型,但是通常确实要求用户提供参数,以便由数据学习。例如,用户必须指定直方图的类型(等宽的或等深的)和其他参数(直方图中的箱数或每个箱的大小等)。与参数方法不同,这些参数并不指定数据分布的类型。
步骤2:检测异常点。为了确定一个对象是否是异常点,可以对照直方图检查它。在最简单的方法中,如果该对象落入直方图的一个箱中,则该对象被看作正常的,否则被认为是异常点。
对于更复杂的方法,可以使用直方图赋予每个对象一个异常点得分。例如令对象的异常点得分为该对象落入的箱的容积的倒数。
使用直方图作为异常点检测的非参数模型的一个缺点是,很难选择一个合适的箱尺寸。一方面,如果箱尺寸太小,则许多正常对象都会落入空的或稀疏的箱中,因而被误识别为异常点。另一方面,如果箱尺寸太大,则异常点对象可能渗入某些频繁的箱中,因而“假扮”成正常的。
4、HBOS
BOS全名为:Histogram-based Outlier Score。它是一种单变量方法的组合,不能对特征之间的依赖关系进行建模,但是计算速度较快,对大数据集友好。其基本假设是数据集的每个维度相互独立。然后对每个维度进行区间(bin)划分,区间的密度越高,异常评分越低。
HBOS算法流程:
1.为每个数据维度做出数据直方图。对分类数据统计每个值的频数并计算相对频率。对数值数据根据分布的不同采用以下两种方法:
静态宽度直方图:标准的直方图构建方法,在值范围内使用k个等宽箱。样本落入每个桶的频率(相对数量)作为密度(箱子高度)的估计。时间复杂度:
2.动态宽度直方图:首先对所有值进行排序,然后固定数量的个连续值装进一个箱里,其 中N是总实例数,k是箱个数;直方图中的箱面积表示实例数。因为箱的宽度是由箱中第一个值和最后一个值决定的,所有箱的面积都一样,因此每一个箱的高度都是可计算的。这意味着跨度大的箱的高度低,即密度小,只有一种情况例外,超过k个数相等,此时允许在同一个箱里超过值。
时间复杂度:
2.对每个维度都计算了一个独立的直方图,其中每个箱子的高度表示密度的估计。然后为了使得最大高度为1(确保了每个特征与异常值得分的权重相等),对直方图进行归一化处理。最后,每一个实例的HBOS值由以下公式计算:
推导过程:
假设样本p第 i 个特征的概率密度为 ,则p的概率密度可以计算为: 两边取对数: 概率密度越大,异常评分越小,为了方便评分,两边乘以“-1”: 最后可得:
5、总结
1.异常检测的统计学方法由数据学习模型,以区别正常的数据对象和异常点。使用统计学方法的一个优点是,异常检测可以是统计上无可非议的。当然,仅当对数据所做的统计假定满足实际约束时才为真。
2.HBOS在全局异常检测问题上表现良好,但不能检测局部异常值。但是HBOS比标准算法快得多,尤其是在大数据集上。
6、python调用HBOS以及官网参数说明
# -*- coding: utf-8 -*-
"""Histogram-based Outlier Detection (HBOS)
"""
# Author: Yue Zhao <zhaoy@cmu.edu>
# License: BSD 2 clause
from __future__ import division
from __future__ import print_function
import numpy as np
from numba import njit
from sklearn.utils import check_array
from sklearn.utils.validation import check_is_fitted
from ..utils.utility import check_parameter
from ..utils.utility import invert_order
from .base import BaseDetector
class HBOS(BaseDetector):
"""Histogram- based outlier detection (HBOS) is an efficient unsupervised
method. It assumes the feature independence and calculates the degree
of outlyingness by building histograms. See :cite:`goldstein2012histogram`
for details.
Parameters
----------
n_bins : int, optional (default=10)
The number of bins.
alpha : float in (0, 1), optional (default=0.1)
The regularizer for preventing overflow.
tol : float in (0, 1), optional (default=0.5)
The parameter to decide the flexibility while dealing
the samples falling outside the bins.
contamination : float in (0., 0.5), optional (default=0.1)
The amount of contamination of the data set,
i.e. the proportion of outliers in the data set. Used when fitting to
define the threshold on the decision function.
Attributes
----------
bin_edges_ : numpy array of shape (n_bins + 1, n_features )
The edges of the bins.
hist_ : numpy array of shape (n_bins, n_features)
The density of each histogram.
decision_scores_ : numpy array of shape (n_samples,)
The outlier scores of the training data.
The higher, the more abnormal. Outliers tend to have higher
scores. This value is available once the detector is fitted.
threshold_ : float
The threshold is based on ``contamination``. It is the
``n_samples * contamination`` most abnormal samples in
``decision_scores_``. The threshold is calculated for generating
binary outlier labels.
labels_ : int, either 0 or 1
The binary labels of the training data. 0 stands for inliers
and 1 for outliers/anomalies. It is generated by applying
``threshold_`` on ``decision_scores_``.
"""
def __init__(self, n_bins=10, alpha=0.1, tol=0.5, contamination=0.1):
super(HBOS, self).__init__(contamination=contamination)
self.n_bins = n_bins
self.alpha = alpha
self.tol = tol
check_parameter(alpha, 0, 1, param_name='alpha')
check_parameter(tol, 0, 1, param_name='tol')
def fit(self, X, y=None):
"""Fit detector. y is ignored in unsupervised methods.
Parameters
----------
X : numpy array of shape (n_samples, n_features)
The input samples.
y : Ignored
Not used, present for API consistency by convention.
Returns
-------
self : object
Fitted estimator.
"""
# validate inputs X and y (optional)
X = check_array(X)
self._set_n_classes(y)
n_samples, n_features = X.shape[0], X.shape[1]
self.hist_ = np.zeros([self.n_bins, n_features])
self.bin_edges_ = np.zeros([self.n_bins + 1, n_features])
# build the histograms for all dimensions
for i in range(n_features):
self.hist_[:, i], self.bin_edges_[:, i] = \
np.histogram(X[:, i], bins=self.n_bins, density=True)
# the sum of (width * height) should equal to 1
assert (np.isclose(1, np.sum(
self.hist_[:, i] * np.diff(self.bin_edges_[:, i])), atol=0.1))
# outlier_scores = self._calculate_outlier_scores(X)
outlier_scores = _calculate_outlier_scores(X, self.bin_edges_,
self.hist_,
self.n_bins,
self.alpha, self.tol)
# invert decision_scores_. Outliers comes with higher outlier scores
self.decision_scores_ = invert_order(np.sum(outlier_scores, axis=1))
self._process_decision_scores()
return self
def decision_function(self, X):
"""Predict raw anomaly score of X using the fitted detector.
The anomaly score of an input sample is computed based on different
detector algorithms. For consistency, outliers are assigned with
larger anomaly scores.
Parameters
----------
X : numpy array of shape (n_samples, n_features)
The training input samples. Sparse matrices are accepted only
if they are supported by the base estimator.
Returns
-------
anomaly_scores : numpy array of shape (n_samples,)
The anomaly score of the input samples.
"""
check_is_fitted(self, ['hist_', 'bin_edges_'])
X = check_array(X)
# outlier_scores = self._calculate_outlier_scores(X)
outlier_scores = _calculate_outlier_scores(X, self.bin_edges_,
self.hist_,
self.n_bins,
self.alpha, self.tol)
return invert_order(np.sum(outlier_scores, axis=1))
@njit
def _calculate_outlier_scores(X, bin_edges, hist, n_bins, alpha,
tol): # pragma: no cover
"""The internal function to calculate the outlier scores based on
the bins and histograms constructed with the training data. The program
is optimized through numba. It is excluded from coverage test for
eliminating the redundancy.
Parameters
----------
X : numpy array of shape (n_samples, n_features)
The input samples.
bin_edges : numpy array of shape (n_bins + 1, n_features )
The edges of the bins.
hist : numpy array of shape (n_bins, n_features)
The density of each histogram.
n_bins : int, optional (default=10)
The number of bins.
alpha : float in (0, 1), optional (default=0.1)
The regularizer for preventing overflow.
tol : float in (0, 1), optional (default=0.1)
The parameter to decide the flexibility while dealing
the samples falling outside the bins.
Returns
-------
outlier_scores : numpy array of shape (n_samples, n_features)
Outlier scores on all features (dimensions).
"""
n_samples, n_features = X.shape[0], X.shape[1]
outlier_scores = np.zeros(shape=(n_samples, n_features))
for i in range(n_features):
# Find the indices of the bins to which each value belongs.
# See documentation for np.digitize since it is tricky
# >>> x = np.array([0.2, 6.4, 3.0, 1.6, -1, 100, 10])
# >>> bins = np.array([0.0, 1.0, 2.5, 4.0, 10.0])
# >>> np.digitize(x, bins, right=True)
# array([1, 4, 3, 2, 0, 5, 4], dtype=int64)
bin_inds = np.digitize(X[:, i], bin_edges[:, i], right=True)
# Calculate the outlying scores on dimension i
# Add a regularizer for preventing overflow
out_score_i = np.log2(hist[:, i] + alpha)
for j in range(n_samples):
# If the sample does not belong to any bins
# bin_ind == 0 (fall outside since it is too small)
if bin_inds[j] == 0:
dist = bin_edges[0, i] - X[j, i]
bin_width = bin_edges[1, i] - bin_edges[0, i]
# If it is only slightly lower than the smallest bin edge
# assign it to bin 1
if dist <= bin_width * tol:
outlier_scores[j, i] = out_score_i[0]
else:
outlier_scores[j, i] = np.min(out_score_i)
# If the sample does not belong to any bins
# bin_ind == n_bins+1 (fall outside since it is too large)
elif bin_inds[j] == n_bins + 1:
dist = X[j, i] - bin_edges[-1, i]
bin_width = bin_edges[-1, i] - bin_edges[-2, i]
# If it is only slightly larger than the largest bin edge
# assign it to the last bin
if dist <= bin_width * tol:
outlier_scores[j, i] = out_score_i[n_bins - 1]
else:
outlier_scores[j, i] = np.min(out_score_i)
else:
outlier_scores[j, i] = out_score_i[bin_inds[j] - 1]
return outlier_scores