请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

使用逻辑回归时怎么利用网格搜索来查找degree,c等超参数

老师,课上您说到如果在实际应用中逻辑回归的超参数是利用网格搜索来找的,我自己试了一下,下面是代码,您帮我看看哪里不对

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
#您课上举得例子
import numpy as np
import matplotlib.pyplot as plt
 
np.random.seed(666)
= np.random.normal(01, size=(2002))
= np.array((X[:,0]**2+X[:,1])<1.5, dtype='int')
for in range(20):
    y[np.random.randint(200)] = 1
#数据集分成训练数据集和测试数据集
from sklearn.model_selection import train_test_split
 
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666)
#使用逻辑回归
from sklearn.linear_model import LogisticRegression
log_reg = LogisticRegression()
log_reg.fit(X_train, y_train)
log_reg.score(X_test, y_test)
##########这里已经能够看到SCORE是多少##############
#这里是重点,我想使用网格搜索来查找多项式回归和逻辑回归的超参数
C_PARM = [0.1,0.2,0.3,0.4,0.5]
param_grid = [
    {
        'degree': [i for in range(111)], 
        'C': [i for in C_PARM]
    }
]
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(log_reg, param_grid)
grid_search.fit(X_train,y_train)  
#这一步进行fit的时候已经报错,我觉得是因为逻辑回归没有degree这个超参数
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
 
def PolynomialLogisticRegression(degree,C):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression(C=C))
    ])
####老师,我最想表达的是怎么用网格搜索来搜索degree和C这两个超参数,让其跟后面的pipeline一起使用
1
<br><br><br>



正在回答

插入代码

1回答

非常好的问题。如何将自定义的Pipline对象应用于sklearn内置的网格搜索确实是课程没有讲的一个sklearn使用上的语法细节:)


首先,你在31行的注释分析的是正确的。由于此时,你在构建grid_search的时候,传入的算法是log_reg。而log_reg是LogisticRegression的对象,但是创建LogisticRegression是并不需要参数degree,所以,这里会报错。


正确的做法是,我们要对你创建的PolynomialLogisticRegression这个函数返回的对象进行网格搜索。这个函数的逻辑是返回了一个Pipeline的对象,这个Pipeline的对象中创建PolynomialFeatures时使用了degree这个参数。


为了方便起见,在这里,我为这个PolynomialLogisticRegression添加上了默认值。

1
2
3
4
5
6
7
8
def PolynomialLogisticRegression(degree = 1, C = 0.1):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression(C=C))
    ])
     
poly_log_reg = PolynomialLogisticRegression()


我们需要针对poly_log_reg这个对象进行网格搜索:)


但是,在这里,poly_log_reg中包含三部分,每部分都有自己的参数。按照你写的param_grid,参数名称直接写degree和C,GridSearchCV是无法认得这些参数名隶属于哪一部分的。所以,在这种情况下,我们在设置param_grid的时候,参数名要显示地表明这个参数属于哪个部分。表示的方法是:

1
{$Pipeline中的对象名称}__{$参数名}

即,在Pipeline中的对象名称,加上双下换线(__),再加上参数名称。


所以,我们在网格搜索中,要搜索的两个参数名称应该是:

1
2
poly__degree
log_reg__C

其中的poly和log_reg,是你在实例化这个Pipeline对象的时候,给每一部分起的那个名称。


综上,此时我们的param_grid,要这样声明:

1
2
3
4
5
6
7
C_PARM = [0.1,0.2,0.3,0.4,0.5]
param_grid = [
    {
        'poly__degree': [i for in range(111)], 
        'log_reg__C': [i for in C_PARM]
    }
]


现在,就可以按照以前一样的方法使用GridSearchCV啦:)

1
2
grid_search = GridSearchCV(poly_log_reg, param_grid)
grid_search.fit(X_train,y_train)


整理一遍,我们的整个代码就是这样的:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
def PolynomialLogisticRegression(degree = 1,C = 0.1):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression(C=C))
    ])
 
# 待进行网格搜索的算法    
poly_log_reg = PolynomialLogisticRegression()
 
# 准备待搜索的参数列表
C_PARM = [0.1,0.2,0.3,0.4,0.5]
param_grid = [
    {
        'poly__degree': [i for in range(111)], 
        'log_reg__C': [i for in C_PARM]
    }
]
 
# 实例化GridSearchCV进行网格搜索
grid_search = GridSearchCV(poly_log_reg, param_grid)
grid_search.fit(X_train,y_train)


看起来写了很多,但是自己整理一遍,会发现其实这个语法非常简单:)


加油!

12 回复 有任何疑惑可以回复我~
  • 提问者 慕粉0602482145 #1
    非常仔细,非常走心的回答,我一下就看明白了,谢谢老师!!!,真的,十分感谢
    回复 有任何疑惑可以回复我~ 2018-06-04 10:13:39
  • 老师好,fit之后,如果使用最优参数进行predict,应该要这样写吧 grid_search.best_estimator_.predict(X_test)
    回复 有任何疑惑可以回复我~ 2019-07-17 18:18:20
  • liuyubobobo 回复 lemonlxn #3
    对的:)
    回复 有任何疑惑可以回复我~ 2019-07-18 03:18:45
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号