Yang's blog Yang's blog
首页
Java
密码学
机器学习
命令手册
关于
友链
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

xiaoyang

编程爱好者
首页
Java
密码学
机器学习
命令手册
关于
友链
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 传统机器学习

    • 机器学习前言
    • 数据预处理
    • 简单线性回归
    • 多元线性回归
    • 逻辑回归(一)
    • 逻辑回归(二)
    • K近邻法(k-NN)
    • k最近邻分类任务代码演示
    • 支持向量机(SVM)
    • 使用SVM进行二分类
    • 决策树
    • 随机森林
      • 步骤 1: 引入必要的库
      • 步骤2:导入数据集
      • 步骤 3: 数据预处理
        • 3.1数据拆分
        • 3.2特征缩放
      • 步骤 4: 构建随机森林分类器
      • 步骤5:模型预测
      • 步骤6:评估模型性能
        • 6.1 混淆矩阵(Confusion Matrix)
        • 6.2 分类报告(Classification Report)
      • 步骤7:可视化结果
    • 什么是K-means聚类算法
    • 使用K-Means算法进行数据聚类:以鸢尾花数据集为例
  • 联邦学习

    • 联邦学习中的基础算法介绍
    • Advances and Open Problems in Federated Learning
    • Vertical Federated Learning Concepts,Advances, and Challenges
    • 机器学习中的并行计算
    • Boosted Trees 简介
    • SecureBoost:一种无损的联邦学习框架
    • FedGen & Data-Free Knowledge Distillation for Heterogeneous Federated Learning
    • Towards Personalized Federated Learning
    • Distilling the Knowledge in a Neural Network
    • FedMD & Heterogenous Federated Learning via Model Distillation
    • FedFTG & Fine-tuning Global Model via Data-Free Knowledge Distillation for Non-IID Federated Learning
    • MOON & Model-Contrastive Federated Learning
    • Knowledge Distillation in Federated Learning:A Practical Guide
    • DKD-pFed & A novel framework for personalized federated learning via decoupling knowledge distillation and feature decorrelation
    • pFedSD & Personalized Edge Intelligence via Federated Self-Knowledge Distillation
    • FedFD&FAug:Communication-Efficient On-Device Machine Learning:Federated Distillation and Augmentation under Non-IID Private Data
  • 机器学习
  • 传统机器学习
xiaoyang
2024-05-07
目录

随机森林

# 随机森林

# 步骤 1: 引入必要的库

首先,让我们引入必要的Python库,这些库将在整个代码中使用。

import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
1
2
3

# 步骤2:导入数据集

在这一步,我们将导入我们的数据集,该数据集位于文件"Social_Network_Ads.csv"中。数据集通常包含了特征(features)和目标变量(target variable)。你可以在Social_Network_Ads.csv下载数据集。

这个数据集看起来像这样:

Age EstimatedSalary Purchased
19 19000 0
35 20000 0
... ... ...

我们的目标是根据年龄(Age)和估计工资(EstimatedSalary)来预测用户是否购买了某个产品(Purchased)。我们将数据集拆分为特征(X)和目标变量(y)。

# 导入数据集
dataset = pd.read_csv('../data/Social_Network_Ads.csv')
X = dataset.iloc[:, [2, 3]].values
y = dataset.iloc[:, 4].values
1
2
3
4

# 步骤 3: 数据预处理

# 3.1数据拆分

在这一步骤中,我们将数据集分为两个部分:训练集和测试集。

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=0)
1
2
  • train_test_split:这是Scikit-Learn库的函数,用于将数据集拆分为训练集和测试集。test_size 参数设置了测试集的比例。

# 3.2特征缩放

特征缩放是将特征的值缩放到相同的尺度范围,以确保模型的性能不会受到不同尺度特征的影响。

from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
1
2
3
4
  • StandardScaler:这是Scikit-Learn库的标准化类,用于将特征标准化为均值为0、方差为1的正态分布。

# 步骤 4: 构建随机森林分类器

在这一步骤中,我们构建了一个随机森林分类器。

from sklearn.ensemble import RandomForestClassifier
classifier = RandomForestClassifier(n_estimators=10, criterion='entropy', random_state=0)
classifier.fit(X_train, y_train)

1
2
3
4
  • RandomForestClassifier:这是Scikit-Learn库中的随机森林分类器类,用于构建随机森林模型。
  • n_estimators=10:这个参数指定了随机森林中的决策树数量。
  • criterion='entropy':我们选择使用熵(entropy)作为分裂标准。
  • random_state=0:设置一个随机种子以确保结果的可重复性。

这些是代码中的关键步骤和方法,希望这些解释有助于你理解它们的作用和使用。接下来,我们将继续执行模型评估和结果可视化的步骤。

# 步骤5:模型预测

我们使用训练好的SVM模型对测试集进行预测。

# 在测试集上进行预测
y_pred = classifier.predict(X_test)
1
2

# 步骤6:评估模型性能

在这一步中,我们评估了SVM模型的性能,了解模型的准确性和其他性能指标。我们使用了混淆矩阵和分类报告来完成这项任务。

# 6.1 混淆矩阵(Confusion Matrix)

cm = confusion_matrix(y_test, y_pred)
print("混淆矩阵:")
print(cm)
1
2
3
  • confusion_matrix 函数接受两个参数:真实的目标值 y_test 和模型预测的目标值 y_pred。
  • 混淆矩阵是一个二维数组,它展示了模型的分类性能。它的四个元素分别是真正例(True Positives,TP)、真负例(True Negatives,TN)、假正例(False Positives,FP)和假负例(False Negatives,FN)的数量。这些元素用于计算精确度、召回率等性能指标。

# 6.2 分类报告(Classification Report)

print("\n分类报告:")
print(classification_report(y_test, y_pred))
1
2
  • classification_report 函数接受两个参数:真实的目标值 y_test 和模型预测的目标值 y_pred。
  • 分类报告提供了关于模型性能的详细信息,包括精确度(Precision)、召回率(Recall)、F1分数(F1-score)等。它对每个类别进行了单独的评估,并提供了加权平均值(weighted average)。

这些方法和参数是评估分类模型性能时常用的工具,可以帮助我们理解模型的强项和弱项,以便进一步优化和改进模型。

混淆矩阵:
[[63  5]
 [ 4 28]]

分类报告:
              precision    recall  f1-score   support

           0       0.94      0.93      0.93        68
           1       0.85      0.88      0.86        32

    accuracy                           0.91       100
   macro avg       0.89      0.90      0.90       100
weighted avg       0.91      0.91      0.91       100
1
2
3
4
5
6
7
8
9
10
11
12
13

# 步骤7:可视化结果

# Visualising the Training set results
from matplotlib.colors import ListedColormap
X_set, y_set = X_train, y_train
X1, X2 = np.meshgrid(np.arange(start=X_set[:, 0].min() - 1, stop=X_set[:, 0].max() + 1, step=0.01),
                     np.arange(start=X_set[:, 1].min() - 1, stop=X_set[:, 1].max() + 1, step=0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
             alpha=0.75, cmap=ListedColormap(['red', 'green']))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
    plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
                c=['red', 'green'][i], label=j)
plt.title('Random Forest Classification (Training set)')
plt.xlabel('Age')
plt.ylabel('Estimated Salary')
plt.legend()
plt.show()

# Visualising the Test set results
from matplotlib.colors import ListedColormap
X_set, y_set = X_test, y_test
X1, X2 = np.meshgrid(np.arange(start=X_set[:, 0].min() - 1, stop=X_set[:, 0].max() + 1, step=0.01),
                     np.arange(start=X_set[:, 1].min() - 1, stop=X_set[:, 1].max() + 1, step=0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
             alpha=0.75, cmap=ListedColormap(['red', 'green']))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
    plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
                c=['red', 'green'][i], label=j)
plt.title('Random Forest Classification (Test set)')
plt.xlabel('Age')
plt.ylabel('Estimated Salary')
plt.legend()
plt.show()

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36


编辑 (opens new window)
上次更新: 2025/04/01, 01:48:12

← 决策树 什么是K-means聚类算法→

最近更新
01
操作系统
03-18
02
Nginx
03-17
03
后端服务端主动推送消息的常见方式
03-11
更多文章>
Theme by Vdoing | Copyright © 2023-2025 xiaoyang | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式