找回密码
 立即注册
首页 业界区 业界 从“朴素”到“半朴素”:贝叶斯分类器的进阶之路 ...

从“朴素”到“半朴素”:贝叶斯分类器的进阶之路

僻嘶 7 天前
在机器学习分类任务中,朴素贝叶斯(Naive Bayes)因其简单高效而广受欢迎,但它的“朴素”之名也暗示了其局限性。
为了突破这一局限,半朴素贝叶斯(Semi-Naive Bayes) 应运而生。
本文将详细介绍朴素贝叶斯和半朴素贝叶斯的原理、应用场景以及如何使用scikit-learn库实现它们。
1. 朴素贝叶斯:简单但“天真”

朴素贝叶斯是一种基于贝叶斯定理的简单概率分类器,它的核心思想是利用特征之间的独立性假设来简化计算。
具体来说,朴素贝叶斯假设每个特征之间是相互独立的,即给定一个类别标签,所有特征的联合概率可以分解为各个特征的条件概率的乘积。
用数学公式表示为:$ P(X|Y)=P(x_1|Y)\times P(x_2|Y)\times\cdots\times P(x_n|Y) $
其中,$ X \(是特征向量,\) Y \(是类别标签,\) x_1,x_2,\ldots,x_n $是各个特征。
朴素贝叶斯的优势在于计算高效,适合高维数据(如新闻分类)。
2. 半朴素贝叶斯:放松独立性假设

尽管朴素贝叶斯在许多场景下表现出色,但它的一个关键假设:特征独立性,在实际应用中往往难以满足。
在现实世界中,特征之间通常存在一定的相关性。
例如,在文本分类中,某些词汇的出现可能与其他词汇的出现密切相关。
这种情况下,朴素贝叶斯的独立性假设会导致分类器的性能下降。
为了解决这一问题,半朴素贝叶斯应运而生。
半朴素贝叶斯在一定程度上放宽了特征独立性的假设,允许特征之间存在一定的相关性,从而提高分类器的性能。
半朴素贝叶斯的核心改进在于允许部分特征之间存在依赖关系,通过捕捉关键特征间的依赖,提升分类精度,同时保持计算复杂度可控。
3. 实战对比

下面构造一个简单的示例,用来对比朴素半朴素贝叶斯的在属性存在依赖关系时的准确率。
首先,生成测试数据:

  • 类别Y有两种值,0和1
  • 类别Y决定X1的分布(Y=0时均值为0,Y=1时均值为1)
  • X2依赖于X1(X2 = X1 + 噪声),模拟属性间的依赖关系
  1. import numpy as np
  2. from sklearn.model_selection import train_test_split
  3. # 生成模拟数据:Y影响X1和X2,且X2依赖X1
  4. np.random.seed(42)
  5. n_samples = 1000
  6. Y = np.random.randint(0, 2, n_samples)
  7. X1 = np.zeros(n_samples)
  8. X2 = np.zeros(n_samples)
  9. for i in range(n_samples):
  10.     if Y[i] == 0:
  11.         x1 = np.random.normal(0, 1)
  12.         x2 = x1 + np.random.normal(0, 0.5)  # X2依赖X1
  13.     else:
  14.         x1 = np.random.normal(1, 1)
  15.         x2 = x1 + np.random.normal(0, 0.5)  # X2依赖X1
  16.     X1[i] = x1
  17.     X2[i] = x2
  18. X = np.vstack((X1, X2)).T
  19. X_train, X_test, y_train, y_test = train_test_split(
  20.     X,
  21.     Y,
  22.     test_size=0.3,
  23.     random_state=42,
  24. )
复制代码
然后分别使用朴素和半朴素贝叶斯模型来训练数据,看看各自的准确率。
注意,scikit-learn没有直接提供半朴素贝叶斯的实现,下面的示例中通过手动计算特征之间的相关性来改进朴素贝叶斯模型。
  1. from sklearn.naive_bayes import GaussianNB
  2. from sklearn.metrics import accuracy_score
  3. from sklearn.linear_model import LinearRegression
  4. # 朴素贝叶斯(假设属性独立)
  5. nb = GaussianNB()
  6. nb.fit(X_train, y_train)
  7. y_pred_nb = nb.predict(X_test)
  8. acc_nb = accuracy_score(y_test, y_pred_nb)
  9. # 半朴素贝叶斯(手动实现,假设X2依赖X1)
  10. # 训练阶段:估计每个类别的参数
  11. def train_semi_naive_bayes(X, y):
  12.     params = {}
  13.     for cls in [0, 1]:
  14.         X_cls = X[y == cls]
  15.         X1_cls = X_cls[:, 0]
  16.         X2_cls = X_cls[:, 1]
  17.         # 估计P(X1|Y)的参数(高斯分布)
  18.         mu_X1 = np.mean(X1_cls)
  19.         sigma_X1 = np.std(X1_cls)
  20.         # 估计P(X2|Y,X1)的参数(线性回归)
  21.         lr = LinearRegression().fit(X1_cls.reshape(-1, 1), X2_cls)
  22.         a, b = lr.coef_[0], lr.intercept_
  23.         residuals = X2_cls - lr.predict(X1_cls.reshape(-1, 1))
  24.         sigma_X2_given_X1 = np.std(residuals)
  25.         params[cls] = {
  26.             "prior": np.sum(y == cls) / len(y),
  27.             "mu_X1": mu_X1,
  28.             "sigma_X1": sigma_X1,
  29.             "a": a,
  30.             "b": b,
  31.             "sigma_X2_given_X1": sigma_X2_given_X1,
  32.         }
  33.     return params
  34. # 预测阶段:计算对数概率
  35. def predict_semi_naive_bayes(X, params):
  36.     y_pred = []
  37.     for x1, x2 in X:
  38.         log_prob = {0: 0, 1: 0}
  39.         for cls in [0, 1]:
  40.             p = params[cls]
  41.             # 计算P(Y)
  42.             log_prob[cls] += np.log(p["prior"])
  43.             # 计算P(X1|Y)
  44.             log_prob[cls] += -0.5 * np.log(2 * np.pi * p["sigma_X1"] ** 2) - (
  45.                 x1 - p["mu_X1"]
  46.             ) ** 2 / (2 * p["sigma_X1"] ** 2)
  47.             # 计算P(X2|Y,X1)
  48.             mu_x2 = p["a"] * x1 + p["b"]
  49.             log_prob[cls] += -0.5 * np.log(2 * np.pi * p["sigma_X2_given_X1"] ** 2) - (
  50.                 x2 - mu_x2
  51.             ) ** 2 / (2 * p["sigma_X2_given_X1"] ** 2)
  52.         y_pred.append(0 if log_prob[0] > log_prob[1] else 1)
  53.     return np.array(y_pred)
  54. params = train_semi_naive_bayes(X_train, y_train)
  55. y_pred_semi = predict_semi_naive_bayes(X_test, params)
  56. acc_semi = accuracy_score(y_test, y_pred_semi)
  57. # 输出结果
  58. print(f"朴素贝叶斯准确率: {acc_nb:.4f}")
  59. print(f"半朴素贝叶斯准确率: {acc_semi:.4f}")
  60. ## 输出结果:
  61. '''
  62. 朴素贝叶斯准确率: 0.6333
  63. 半朴素贝叶斯准确率: 0.7000
  64. '''
复制代码
朴素贝叶斯因假设属性独立,在X1和X2存在依赖时性能略有下降。
半朴素贝叶斯通过显式建模X2对X1的依赖,更准确地估计联合概率,从而获得更高的准确率。
此示例简单展示了半朴素贝叶斯在属性存在依赖关系时的优势。
4. 总结

朴素贝叶斯半朴素贝叶斯都是基于贝叶斯定理的分类算法。
其中,朴素贝叶斯假设特征之间相互独立,适用于特征独立性较强的场景,比如:

  • 特征独立性较强:当特征之间确实相互独立时,朴素贝叶斯能够发挥其优势。例如,在垃圾邮件分类中,邮件中的词汇通常可以被视为独立的特征。
  • 数据量较少:由于朴素贝叶斯的计算复杂度较低,它在数据量较少的情况下也能快速训练模型。
  • 对分类精度要求不高:在一些对分类精度要求不高的场景中,朴素贝叶斯可以作为一种快速且有效的解决方案。
半朴素贝叶斯在一定程度上放宽了这一假设,适用于特征存在相关性的场景,比如:

  • 特征存在相关性:当特征之间存在一定的相关性时,半朴素贝叶斯可以更好地捕捉这些关系,从而提高分类性能。例如,在医学诊断中,某些症状之间可能存在关联。
  • 对分类精度要求较高:在需要高精度分类的场景中,半朴素贝叶斯可以通过考虑特征之间的相关性来提升性能。
  • 数据量较大:当有足够的数据来估计特征之间的相关性时,半朴素贝叶斯能够更好地发挥其优势。

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
您需要登录后才可以回帖 登录 | 立即注册