原理及相关参考资料
- 出场率No.1的逻辑回归算法,是怎样“炼成”的?
- 逻辑回归的本质及其损失函数的推导、求解
- 逻辑回归代码实现与调用
- 逻辑回归的决策边界及多项式
- sklearn中的逻辑回归中及正则化
- 一文详尽系列之逻辑回归
- 简单易懂的softmax交叉熵损失函数求导
- Logistics到softmax推导整理
逻辑回归的实现
LogisticRegression.py
1 | import numpy as np |
调用逻辑回归
导包
1 | import numpy as np |
准备数据
1 | iris = datasets.load_iris() |
训练及结果展示
1 | X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666) |
多项式逻辑回归拟合非线性数据
准备数据
1 | np.random.seed(666) |
绘制决策边界函数
1 | def plot_decision_boundary(model, axis): |
逻辑回归拟合
1 | log_reg = LogisticRegression() |
多项式逻辑回归拟合
1 | # 为逻辑回归添加多项式项的管道 |