0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

常见的异常检测方法

新机器视觉 ? 来源:Python数据分析实例 ? 作者:Python数据分析实例 ? 2022-05-31 10:58 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

本文收集整理了公开网络上一些常见的异常检测方法(附资料来源和代码)。不足之处,还望批评指正。

544925c8-e01e-11ec-ba43-dac502259ad0.png

一、基于分布的方法

1. 3sigma

基于正态分布,3sigma准则认为超过3sigma的数据为异常点。

54a029ea-e01e-11ec-ba43-dac502259ad0.png

图1: 3sigma


def three_sigma(s):  mu, std = np.mean(s), np.std(s)  lower, upper = mu-3*std, mu+3*std  return lower, upper

2. Z-score

Z-score为标准分数,测量数据点和平均值的距离,若A与平均值相差2个标准差,Z-score为2。当把Z-score=3作为阈值去剔除异常点时,便相当于3sigma。


def z_score(s): z_score = (s - np.mean(s)) / np.std(s) return z_score

3. boxplot

箱线图时基于四分位距(IQR)找异常点的。

54cba4bc-e01e-11ec-ba43-dac502259ad0.png

图2: boxplot


def boxplot(s):  q1, q3 = s.quantile(.25), s.quantile(.75)  iqr = q3 - q1  lower, upper = q1 - 1.5*iqr, q3 + 1.5*iqr  return lower, upper

4. Grubbs假设检验

资料来源:

[1] 时序预测竞赛之异常检测算法综述 - 鱼遇雨欲语与余,知乎:https://zhuanlan.zhihu.com/p/336944097

[2] 剔除异常值栅格计算器_数据分析师所需的统计学:异常检测 - weixin_39974030,CSDN:https://blog.csdn.net/weixin_39974030/article/details/112569610

Grubbs’Test为一种假设检验的方法,常被用来检验服从正态分布的单变量数据集(univariate data set)Y中的单个异常值。若有异常值,则其必为数据集中的最大值或最小值。原假设与备择假设如下:

H0: 数据集中没有异常值

H1: 数据集中有一个异常值

使用Grubbs测试需要总体是正态分布的。算法流程:

1. 样本从小到大排序

2. 求样本的mean和dev

3. 计算min/max与mean的差距,更大的那个为可疑值

4. 求可疑值的z-score (standard score),如果大于Grubbs临界值,那么就是outlier

Grubbs临界值可以查表得到,它由两个值决定:检出水平α(越严格越小),样本数量n,排除outlier,对剩余序列循环做 1-4 步骤 [1]。详细计算样例可以参考


from outliers import smirnov_grubbs as grubbsprint(grubbs.test([8, 9, 10, 1, 9], alpha=0.05))print(grubbs.min_test_outliers([8, 9, 10, 1, 9], alpha=0.05))print(grubbs.max_test_outliers([8, 9, 10, 1, 9], alpha=0.05))print(grubbs.max_test_indices([8, 9, 10, 50, 9], alpha=0.05))

局限

1、只能检测单维度数据

2、无法精确的输出正常区间

3、它的判断机制是“逐一剔除”,所以每个异常值都要单独计算整个步骤,数据量大吃不消。

4、需假定数据服从正态分布或近正态分布

二、基于距离的方法

1. KNN

资料来源:

[3] 异常检测算法之(KNN)-K Nearest Neighbors - 小伍哥聊风控,知乎:https://zhuanlan.zhihu.com/p/501691799

依次计算每个样本点与它最近的K个样本的平均距离,再利用计算的距离与阈值进行比较,如果大于阈值,则认为是异常点。优点是不需要假设数据的分布,缺点是仅可以找出全局异常点,无法找到局部异常点。


from pyod.models.knn import KNN
# 初始化检测器clfclf = KNN( method='mean', n_neighbors=3, )clf.fit(X_train)# 返回训练数据上的分类标签 (0: 正常值, 1: 异常值)y_train_pred = clf.labels_# 返回训练数据上的异常值 (分值越大越异常)y_train_scores = clf.decision_scores_

三、基于密度的方法

1. Local Outlier Factor (LOF)

资料来源:

[4] 一文读懂异常检测 LOF 算法(Python代码)- 东哥起飞,知乎:https://zhuanlan.zhihu.com/p/448276009

LOF是基于密度的经典算法(Breuning et. al. 2000),通过给每个数据点都分配一个依赖于邻域密度的离群因子 LOF,进而判断该数据点是否为离群点。它的好处在于可以量化每个数据点的异常程度(outlierness)。

54e24fa0-e01e-11ec-ba43-dac502259ad0.png

图3:LOF异常检测

数据点P的局部相对密度(局部异常因子)=点P邻域内点的平均局部可达密度跟 数据点P的局部可达密度 的比值:数据点P的局部可达密度=P最近邻的平均可达距离的倒数。距离越大,密度越小。

点P到点O的第k可达距离=max(点O的k近邻距离,点P到点O的距离)。

55109be4-e01e-11ec-ba43-dac502259ad0.png

图4:可达距离

点O的k近邻距离=第 k个最近的点跟点O之间的距离。

整体来说,LOF算法流程如下:

对于每个数据点,计算它与其他所有点的距离,并按从近到远排序;

对于每个数据点,找到它的K-Nearest-Neighbor,计算LOF得分。


from sklearn.neighbors import LocalOutlierFactor as LOF
X = [[-1.1], [0.2], [100.1], [0.3]]clf = LOF(n_neighbors=2)res = clf.fit_predict(X)print(res)print(clf.negative_outlier_factor_)

2. Connectivity-Based Outlier Factor (COF)

资料来源:

[5] Nowak-Brzezińska, A., & Horyń, C. (2020). Outliers in rules-the comparision of LOF, COF and KMEANS algorithms. *Procedia Computer Science*, *176*, 1420-1429.

[6] 機器學習_學習筆記系列(98):基於連接異常因子分析(Connectivity-Based Outlier Factor) - 劉智皓 (Chih-Hao Liu)

COF是LOF的变种,相比于LOF,COF可以处理低密度下的异常值,COF的局部密度是基于平均链式距离计算得到。在一开始的时候我们一样会先计算出每个点的k-nearest neighbor。而接下来我们会计算每个点的Set based nearest Path,如下图:

552fe77e-e01e-11ec-ba43-dac502259ad0.png

图5:Set based nearest Path

假使我们今天我们的k=5,所以F的neighbor为B、C、D、E、G。而对于F离他最近的点为E,所以SBN Path的第一个元素是F、第二个是E。离E最近的点为D所以第三个元素为D,接下来离D最近的点为C和G,所以第四和五个元素为C和G,最后离C最近的点为B,第六个元素为B。所以整个流程下来,F的SBN Path为{F, E, D, C, G, C, B}。而对于SBN Path所对应的距离e={e1, e2, e3,…,ek},依照上面的例子e={3,2,1,1,1}。

所以我们可以说假使我们想计算p点的SBN Path,我们只要直接计算p点和其neighbor所有点所构成的graph的minimum spanning tree,之后我们再以p点为起点执行shortest path算法,就可以得到我们的SBN Path。

而接下来我们有了SBN Path我们就会接着计算,p点的链式距离:有了ac_distance后,我们就可以计算COF:


# https://zhuanlan.zhihu.com/p/362358580from pyod.models.cof import COFcof = COF(contamination = 0.06, ## 异常值所占的比例     n_neighbors = 20,   ## 近邻数量    )cof_label = cof.fit_predict(iris.values) # 鸢尾花数据print("检测出的异常值数量为:",np.sum(cof_label == 1))

3. Stochastic Outlier Selection (SOS)

资料来源:

[7] 异常检测之SOS算法 - 呼广跃,知乎:https://zhuanlan.zhihu.com/p/34438518

将特征矩阵(feature martrix)或者相异度矩阵(dissimilarity matrix)输入给SOS算法,会返回一个异常概率值向量(每个点对应一个)。SOS的思想是:当一个点和其它所有点的关联度(affinity)都很小的时候,它就是一个异常点。

559e539e-e01e-11ec-ba43-dac502259ad0.png

图6:SOS计算流程

SOS的流程:

1. 计算相异度矩阵D;

2. 计算关联度矩阵A;

3. 计算关联概率矩阵B;

4. 算出异常概率向量。

相异度矩阵D是各样本两两之间的度量距离,比如欧式距离或汉明距离等。关联度矩阵反映的是度量距离方差,如图7,点的密度最大,方差最小;的密度最小,方差最大。而关联概率矩阵B(binding probability matrix)就是把关联矩阵(affinity matrix)按行归一化得到的,如图8所示。

55d569e2-e01e-11ec-ba43-dac502259ad0.png

图7:关联度矩阵中密度可视化

5623caba-e01e-11ec-ba43-dac502259ad0.png

图8:关联概率矩阵

得到了binding probability matrix,每个点的异常概率值就用如下的公式计算,当一个点和其它所有点的关联度(affinity)都很小的时候,它就是一个异常点。


# Ref: https://github.com/jeroenjanssens/scikit-sosimport pandas as pdfrom sksos import SOSiris = pd.read_csv("http://bit.ly/iris-csv")X = iris.drop("Name", axis=1).valuesdetector = SOS()iris["score"] = detector.predict(X)iris.sort_values("score", ascending=False).head(10)

四、基于聚类的方法

1. DBSCAN

DBSCAN算法(Density-Based Spatial Clustering of Applications with Noise)的输入和输出如下,对于无法形成聚类簇的孤立点,即为异常点(噪声点)。

输入:数据集,邻域半径Eps,邻域中数据对象数目阈值MinPts;

输出:密度联通簇。

564558e2-e01e-11ec-ba43-dac502259ad0.png

图9:DBSCAN

处理流程如下。

1. 从数据集中任意选取一个数据对象点p;

2. 如果对于参数Eps和MinPts,所选取的数据对象点p为核心点,则找出所有从p密度可达的数据对象点,形成一个簇;

3. 如果选取的数据对象点 p 是边缘点,选取另一个数据对象点;

4. 重复以上2、3步,直到所有点被处理。


# Ref: https://zhuanlan.zhihu.com/p/515268801from sklearn.cluster import DBSCANimport numpy as npX = np.array([[1, 2], [2, 2], [2, 3],       [8, 7], [8, 8], [25, 80]])clustering = DBSCAN(eps=3, min_samples=2).fit(X)
clustering.labels_array([ 0, 0, 0, 1, 1, -1])# 0,,0,,0:表示前三个样本被分为了一个群# 1, 1:中间两个被分为一个群# -1:最后一个为异常点,不属于任何一个群

五、基于树的方法

1. Isolation Forest (iForest)

资料来源:

[8] 异常检测算法 -- 孤立森林(Isolation Forest)剖析 - 风控大鱼,知乎:https://zhuanlan.zhihu.com/p/74508141

[9] 孤立森林(isolation Forest)-一个通过瞎几把乱分进行异常检测的算法 - 小伍哥聊风控,知乎:https://zhuanlan.zhihu.com/p/484495545

[10] 孤立森林阅读 - Mark_Aussie,博文:https://blog.csdn.net/MarkAustralia/article/details/120181899

孤立森林中的 “孤立” (isolation) 指的是 “把异常点从所有样本中孤立出来”,论文中的原文是 “separating an instance from the rest of the instances”。

我们用一个随机超平面对一个数据空间进行切割,切一次可以生成两个子空间。接下来,我们再继续随机选取超平面,来切割第一步得到的两个子空间,以此循环下去,直到每子空间里面只包含一个数据点为止。我们可以发现,那些密度很高的簇要被切很多次才会停止切割,即每个点都单独存在于一个子空间内,但那些分布稀疏的点,大都很早就停到一个子空间内了。所以,整个孤立森林的算法思想:异常样本更容易快速落入叶子结点或者说,异常样本在决策树上,距离根节点更近。

随机选择m个特征,通过在所选特征的最大值和最小值之间随机选择一个值来分割数据点。观察值的划分递归地重复,直到所有的观察值被孤立。

5676cdc8-e01e-11ec-ba43-dac502259ad0.png

图10:孤立森林

获得 t 个孤立树后,单棵树的训练就结束了。接下来就可以用生成的孤立树来评估测试数据了,即计算异常分数 s。对于每个样本 x,需要对其综合计算每棵树的结果,通过下面的公式计算异常得分:h(x):为样本在iTree上的PathLength;

E(h(x)):为样本在t棵iTree的PathLength的均值;

c(n):为n个样本构建一个二叉搜索树BST中的未成功搜索平均路径长度(均值h(x)对外部节点终端的估计等同于BST中的未成功搜索)。是对样本x的路径长度h(x)进行标准化处理。H(n-1)是调和数,可使用ln(n-1)+0.5772156649(欧拉常数)估算。指数部分值域为(?∞,0),因此s值域为(0,1)。当PathLength越小,s越接近1,此时样本为异常值的概率越大。


# Ref:https://zhuanlan.zhihu.com/p/484495545from sklearn.datasets import load_iris from sklearn.ensemble import IsolationForest
data = load_iris(as_frame=True) X,y = data.data,data.target df = data.frame 
# 模型训练iforest = IsolationForest(n_estimators=100, max_samples='auto',              contamination=0.05, max_features=4,              bootstrap=False, n_jobs=-1, random_state=1)
# fit_predict 函数 训练和预测一起 可以得到模型是否异常的判断,-1为异常,1为正常df['label'] = iforest.fit_predict(X) 
# 预测 decision_function 可以得出 异常评分df['scores'] = iforest.decision_function(X)

六、基于降维的方法

1. Principal Component Analysis (PCA)

资料来源:

[11] 机器学习-异常检测算法(三):Principal Component Analysis - 刘腾飞,知乎:https://zhuanlan.zhihu.com/p/29091645

[12] Anomaly Detection异常检测--PCA算法的实现 - CC思SS,知乎:https://zhuanlan.zhihu.com/p/48110105

PCA在异常检测方面的做法,大体有两种思路:

(1) 将数据映射到低维特征空间,然后在特征空间不同维度上查看每个数据点跟其它数据的偏差;

(2) 将数据映射到低维特征空间,然后由低维特征空间重新映射回原空间,尝试用低维特征重构原始数据,看重构误差的大小。

PCA在做特征值分解,会得到:

特征向量:反应了原始数据方差变化程度的不同方向;

特征值:数据在对应方向上的方差大小。

所以,最大特征值对应的特征向量为数据方差最大的方向,最小特征值对应的特征向量为数据方差最小的方向。原始数据在不同方向上的方差变化反应了其内在特点。如果单个数据样本跟整体数据样本表现出的特点不太一致,比如在某些方向上跟其它数据样本偏离较大,可能就表示该数据样本是一个异常点。

在前面提到第一种做法中,样本$x_i$的异常分数为该样本在所有方向上的偏离程度:其中,为样本在重构空间里离特征向量的距离。若存在样本点偏离各主成分越远,会越大,意味偏移程度大,异常分数高。是特征值,用于归一化,使不同方向上的偏离程度具有可比性。

在计算异常分数时,关于特征向量(即度量异常用的标杆)选择又有两种方式:

考虑在前k个特征向量方向上的偏差:前k个特征向量往往直接对应原始数据里的某几个特征,在前几个特征向量方向上偏差比较大的数据样本,往往就是在原始数据中那几个特征上的极值点。

考虑后r个特征向量方向上的偏差:后r个特征向量通常表示某几个原始特征的线性组合,线性组合之后的方差比较小反应了这几个特征之间的某种关系。在后几个特征方向上偏差比较大的数据样本,表示它在原始数据里对应的那几个特征上出现了与预计不太一致的情况。得分大于阈值C则判断为异常。

第二种做法,PCA提取了数据的主要特征,如果一个数据样本不容易被重构出来,表示这个数据样本的特征跟整体数据样本的特征不一致,那么它显然就是一个异常的样本:


其中,是基于k维特征向量重构的样本。

基于低维特征进行数据样本的重构时,舍弃了较小的特征值对应的特征向量方向上的信息。换一句话说,重构误差其实主要来自较小的特征值对应的特征向量方向上的信息。基于这个直观的理解,PCA在异常检测上的两种不同思路都会特别关注较小的特征值对应的特征向量。所以,我们说PCA在做异常检测时候的两种思路本质上是相似的,当然第一种方法还可以关注较大特征值对应的特征向量。


# Ref: [https://zhuanlan.zhihu.com/p/48110105](https://zhuanlan.zhihu.com/p/48110105)from sklearn.decomposition import PCApca = PCA()pca.fit(centered_training_data)transformed_data = pca.transform(training_data)y = transformed_data
# 计算异常分数lambdas = pca.singular_values_M = ((y*y)/lambdas)
# 前k个特征向量和后r个特征向量q = 5print "Explained variance by first q terms: ", sum(pca.explained_variance_ratio_[:q])q_values = list(pca.singular_values_ < .2)r = q_values.index(True)
# 对每个样本点进行距离求和的计算major_components = M[:,range(q)]minor_components = M[:,range(r, len(features))]major_components = np.sum(major_components, axis=1)minor_components = np.sum(minor_components, axis=1)
# 人为设定c1、c2阈值components = pd.DataFrame({'major_components': major_components,                 'minor_components': minor_components})c1 = components.quantile(0.99)['major_components']c2 = components.quantile(0.99)['minor_components']
# 制作分类器def classifier(major_components, minor_components):   major = major_components > c1  minor = minor_components > c2    return np.logical_or(major,minor)
results = classifier(major_components=major_components, minor_components=minor_components)

2. AutoEncoder

资料来源:

[13] 利用Autoencoder进行无监督异常检测(Python) - SofaSofa.io,知乎:https://zhuanlan.zhihu.com/p/46188296

[14] 自编码器AutoEncoder解决异常检测问题(手把手写代码) - 数据如琥珀,知乎:https://zhuanlan.zhihu.com/p/260882741

PCA是线性降维,AutoEncoder是非线性降维。根据正常数据训练出来的AutoEncoder,能够将正常样本重建还原,但是却无法将异于正常分布的数据点较好地还原,导致还原误差较大。因此如果一个新样本被编码,解码之后,它的误差超出正常数据编码和解码后的误差范围,则视作为异常数据。需要注意的是,AutoEncoder训练使用的数据是正常数据(即无异常值),这样才能得到重构后误差分布范围是多少以内是合理正常的。所以AutoEncoder在这里做异常检测时,算是一种有监督学习的方法。

56b57244-e01e-11ec-ba43-dac502259ad0.png

图11:自编码器


# Ref: [https://zhuanlan.zhihu.com/p/260882741](https://zhuanlan.zhihu.com/p/260882741)import tensorflow as tffrom keras.models import Sequentialfrom keras.layers import Dense
# 标准化数据scaler = preprocessing.MinMaxScaler()X_train = pd.DataFrame(scaler.fit_transform(dataset_train),               columns=dataset_train.columns,               index=dataset_train.index)# Random shuffle training dataX_train.sample(frac=1)X_test = pd.DataFrame(scaler.transform(dataset_test),               columns=dataset_test.columns,               index=dataset_test.index)
tf.random.set_seed(10)act_func = 'relu'# Input layer:model=Sequential()# First hidden layer, connected to input vector X.model.add(Dense(10,activation=act_func,        kernel_initializer='glorot_uniform',        kernel_regularizer=regularizers.l2(0.0),        input_shape=(X_train.shape[1],)        )     )model.add(Dense(2,activation=act_func,        kernel_initializer='glorot_uniform'))model.add(Dense(10,activation=act_func,        kernel_initializer='glorot_uniform'))model.add(Dense(X_train.shape[1],        kernel_initializer='glorot_uniform'))model.compile(loss='mse',optimizer='adam')print(model.summary())
# Train model for 100 epochs, batch size of 10:NUM_EPOCHS=100BATCH_SIZE=10history=model.fit(np.array(X_train),np.array(X_train),         batch_size=BATCH_SIZE,         epochs=NUM_EPOCHS,         validation_split=0.05,         verbose = 1)
plt.plot(history.history['loss'],     'b',     label='Training loss')plt.plot(history.history['val_loss'],     'r',     label='Validation loss')plt.legend(loc='upper right')plt.xlabel('Epochs')plt.ylabel('Loss, [mse]')plt.ylim([0,.1])plt.show()
# 查看训练集还原的误差分布如何,以便制定正常的误差分布范围X_pred = model.predict(np.array(X_train))X_pred = pd.DataFrame(X_pred,           columns=X_train.columns)X_pred.index = X_train.index
scored = pd.DataFrame(index=X_train.index)scored['Loss_mae'] = np.mean(np.abs(X_pred-X_train), axis = 1)plt.figure()sns.distplot(scored['Loss_mae'],       bins = 10,       kde= True,      color = 'blue')plt.xlim([0.0,.5])
# 误差阈值比对,找出异常值X_pred = model.predict(np.array(X_test))X_pred = pd.DataFrame(X_pred,           columns=X_test.columns)X_pred.index = X_test.indexthreshod = 0.3scored = pd.DataFrame(index=X_test.index)scored['Loss_mae'] = np.mean(np.abs(X_pred-X_test), axis = 1)scored['Threshold'] = threshodscored['Anomaly'] = scored['Loss_mae'] > scored['Threshold']scored.head()

七、基于分类的方法

1. One-Class SVM

资料来源:

[15] Python机器学习笔记:One Class SVM - zoukankan,博文:http://t.zoukankan.com/wj-1314-p-10701708.html

[16] 单类SVM: SVDD - 张义策,知乎:https://zhuanlan.zhihu.com/p/65617987

One-Class SVM,这个算法的思路非常简单,就是寻找一个超平面将样本中的正例圈出来,预测就是用这个超平面做决策,在圈内的样本就认为是正样本,在圈外的样本是负样本,用在异常检测中,负样本可看作异常样本。它属于无监督学习,所以不需要标签。

5709b9d0-e01e-11ec-ba43-dac502259ad0.png

图12:One-Class SVM

One-Class SVM又一种推导方式是SVDD(Support Vector Domain Description,支持向量域描述),对于SVDD来说,我们期望所有不是异常的样本都是正类别,同时它采用一个超球体,而不是一个超平面来做划分,该算法在特征空间中获得数据周围的球形边界,期望最小化这个超球体的体积,从而最小化异常点数据的影响。

假设产生的超球体参数为中心 o 和对应的超球体半径r>0,超球体体积V(r)被最小化,中心o是支持行了的线性组合;跟传统SVM方法相似,可以要求所有训练数据点xi到中心的距离严格小于r。但是同时构造一个惩罚系数为C的松弛变量 ζi,优化问题入下所示:

C是调节松弛变量的影响大小,说的通俗一点就是,给那些需要松弛的数据点多少松弛空间,如果C比较小,会给离群点较大的弹性,使得它们可以不被包含进超球体。详细推导过程参考资料[15] [16]。


from sklearn import svm# fit the modelclf = svm.OneClassSVM(nu=0.1, kernel='rbf', gamma=0.1)clf.fit(X)y_pred = clf.predict(X)n_error_outlier = y_pred[y_pred == -1].size

八、基于预测的方法

资料来源:

[17] 【TS技术课堂】时间序列异常检测 - 时序人,文章:https://mp.weixin.qq.com/s/9TimTB_ccPsme2MNPuy6uA

对于单条时序数据,根据其预测出来的时序曲线和真实的数据相比,求出每个点的残差,并对残差序列建模,利用KSigma或者分位数等方法便可以进行异常检测。具体的流程如下:

5755b380-e01e-11ec-ba43-dac502259ad0.png

图13:基于预测的方法

九、总结

异常检测方法总结如下:

544925c8-e01e-11ec-ba43-dac502259ad0.png

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7261

    浏览量

    92241
  • 检测
    +关注

    关注

    5

    文章

    4657

    浏览量

    93007
  • 数据集
    +关注

    关注

    4

    文章

    1224

    浏览量

    25542

原文标题:异常检测方法总结

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    机器学习异常检测实战:用Isolation Forest快速构建无标签异常检测系统

    本文转自:DeepHubIMBA无监督异常检测作为机器学习领域的重要分支,专门用于在缺乏标记数据的环境中识别异常事件。本文深入探讨异常检测
    的头像 发表于 06-24 11:40 ?682次阅读
    机器学习<b class='flag-5'>异常</b><b class='flag-5'>检测</b>实战:用Isolation Forest快速构建无标签<b class='flag-5'>异常</b><b class='flag-5'>检测</b>系统

    新能源电机气密性检测仪的常见故障及解决方法

    在新能源汽车产业蓬勃发展的当下,新能源电机气密性检测仪对于保障电机性能和安全性起着至关重要的作用。然而,在使用过程中,检测仪可能会出现一些常见故障,下面我们就来探讨这些故障及相应的解决方法
    的头像 发表于 05-24 13:39 ?217次阅读
    新能源电机气密性<b class='flag-5'>检测</b>仪的<b class='flag-5'>常见</b>故障及解决<b class='flag-5'>方法</b>

    提高IT运维效率,深度解读京东云AIOps落地实践(异常检测篇)

    基于深度学习对运维时序指标进行异常检测,快速发现线上业务问题 时间序列的异常检测是实际应用中的一个关键问题,尤其是在 IT 行业。我们没有采用传统的基于阈值的
    的头像 发表于 05-22 16:38 ?477次阅读
    提高IT运维效率,深度解读京东云AIOps落地实践(<b class='flag-5'>异常</b><b class='flag-5'>检测</b>篇)

    液晶屏幕 AOI 异常检测及液晶线路激光修复方法

    一、引言 在液晶屏幕生产制造过程中,确保产品质量至关重要。自动光学检测(AOI)技术能够快速、精准地发现屏幕异常,而液晶线路出现故障后,激光修复技术则成为高效修复的关键手段。研究二者的协同
    的头像 发表于 05-06 15:26 ?391次阅读
    液晶屏幕 AOI <b class='flag-5'>异常</b><b class='flag-5'>检测</b>及液晶线路激光修复<b class='flag-5'>方法</b>

    散热设计与测试:PCBA异常发热的解决之道

    至关重要。本文将从设计、材料和测试三个方面,详细探讨PCBA异常发热的排查思路与解决方法。 一、PCBA异常发热的常见原因 设计缺陷 PCB设计阶段的缺陷是导致发热问题的重要原因。例如
    的头像 发表于 04-10 18:04 ?655次阅读

    如何设计基于AI的异常检测解决方案

    汽车制造部门一直致力于在提高产品质量和最小化运营费用之间实现平衡。基于 AI 的异常检测是一种识别机器数据中的不规则模式以在潜在问题发生前预测这些问题的方法,它是对提高流程效率、减少停机时间和提高产品质量感兴趣的所有汽车制造商都
    的头像 发表于 03-20 15:26 ?603次阅读

    伺服驱动器常见故障及维修方法有哪些

    伺服驱动器常见故障及其维修方法主要包括以下几种: ?核心常见故障及维修方法?: ?电源故障?: 故障现象:伺服驱动器无法正常启动,或启动后电源指示灯不亮,运行中突然断电?12。 维修
    的头像 发表于 02-22 10:53 ?2461次阅读

    使用技巧 | 超声波传感器信号灯异常?快速排查方法get!

    在工业自动化领域,超声波传感器凭借其非接触式检测、穿透性强等特性,已成为单双张物料检测的一大利器。然而,在实际使用过程中,用户可能会因操作不当导致遇到信号灯异常的情况,这种异常表现为信
    的头像 发表于 02-11 07:34 ?893次阅读
    使用技巧 | 超声波传感器信号灯<b class='flag-5'>异常</b>?快速排查<b class='flag-5'>方法</b>get!

    电池盒气密性检测仪的常见故障及解决方法

    仪的常见故障及其解决方法常见故障一:检测结果不准确这可能是由于传感器故障、气路堵塞或测试参数设置错误导致的。解决方法包括检查传感器连接是否
    的头像 发表于 01-04 13:40 ?545次阅读
    电池盒气密性<b class='flag-5'>检测</b>仪的<b class='flag-5'>常见</b>故障及解决<b class='flag-5'>方法</b>

    断路器的检测方法

    断路器的检测方法多种多样,以下是一些常见检测方法: 一、直观检查 直观检查是断路器检测的基础步
    发表于 12-27 10:29

    串口通讯异常处理方法 串口设备连接方式

    串口通信异常处理方法 1. 异常检测 在串口通信中,首先需要能够检测异常情况。
    的头像 发表于 12-27 09:53 ?4230次阅读

    电子电器气密性检测仪使用方法:操作中的常见错误与纠正

    电子电器气密性检测仪是确保产品质量的关键设备,但在使用过程中,操作人员常犯一些错误,导致测试结果不准确或仪器损坏。以下是一些常见的操作错误及其纠正方法,旨在帮助操作人员正确使用气密性检测
    的头像 发表于 11-29 11:20 ?619次阅读
    电子电器气密性<b class='flag-5'>检测</b>仪使用<b class='flag-5'>方法</b>:操作中的<b class='flag-5'>常见</b>错误与纠正

    基于AI的异常检测解决方案

    工业过程和机械依赖可预测性和精确性。传感器数据中的意外模式(称为异常)可能表明存在问题,例如组件故障或传感器性能下降。基于 AI 的异常检测有助于工程师尽早发现这些潜在问题,从而使他们能够优化维护
    的头像 发表于 10-17 10:43 ?1085次阅读

    电磁阀的常见故障维修方法

    电磁阀的常见故障及其维修方法主要包括以下几个方面: 一、电磁线圈损坏 故障现象 :电磁阀通电后无输出,线圈外观异常,内置芯棒失去电磁吸力。 维修方法 : 检查电源电压是否正常,确保电压
    的头像 发表于 09-14 14:19 ?7689次阅读

    嵌入式C编程常用的异常错误处理

    嵌入式C编程中,异常错误处理是确保系统稳定性和可靠性的重要部分。以下是一些常见异常错误处理方法及其详细说明和示例: 1. 断言 (Assertions) 断言用于在开发阶段捕获程
    发表于 08-06 14:32