在Python中使用Sklearn实现逻辑回归
发布时间:2024-01-15 11:03:22
逻辑回归是机器学习中常用的模型,用于分类问题。在Python中,可以使用Scikit-learn库(Sklearn)实现逻辑回归模型。Sklearn提供了LogisticRegression类来进行逻辑回归操作。
首先,我们需要导入所需的库和模块:
import numpy as np from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score
接下来,我们定义一个示例数据集,并将其分为训练集和测试集:
# 定义输入特征和输出标签 X = np.array([[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]]) y = np.array([0, 0, 0, 1, 1, 1]) # 将数据集分为训练集和测试集(70%训练集,30%测试集) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
然后,我们可以创建一个逻辑回归模型,并使用训练集对其进行训练:
# 创建逻辑回归模型 model = LogisticRegression() # 在训练集上训练模型 model.fit(X_train, y_train)
接下来,我们可以使用模型对测试集进行预测,并计算准确度评分:
# 在测试集上进行预测
y_pred = model.predict(X_test)
# 计算准确度评分
accuracy = accuracy_score(y_test, y_pred)
print("准确度:", accuracy)
最后,我们可以使用训练好的模型进行新数据的分类预测:
# 使用模型进行预测
new_data = np.array([[3, 2], [4, 1]])
predictions = model.predict(new_data)
print("预测结果:", predictions)
完整的逻辑回归实现示例代码如下所示:
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 定义输入特征和输出标签
X = np.array([[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]])
y = np.array([0, 0, 0, 1, 1, 1])
# 将数据集分为训练集和测试集(70%训练集,30%测试集)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
# 创建逻辑回归模型
model = LogisticRegression()
# 在训练集上训练模型
model.fit(X_train, y_train)
# 在测试集上进行预测
y_pred = model.predict(X_test)
# 计算准确度评分
accuracy = accuracy_score(y_test, y_pred)
print("准确度:", accuracy)
# 使用模型进行预测
new_data = np.array([[3, 2], [4, 1]])
predictions = model.predict(new_data)
print("预测结果:", predictions)
这就是使用Sklearn实现逻辑回归的简单示例。你可以根据自己的数据和需求进行适当的修改和扩展。逻辑回归模型是机器学习中非常重要的一种模型,掌握其使用将对你的机器学习工作非常有帮助。
