合成特征和离群值
学习目标:
尝试合成特征
上一次我们只使用了单个特征,但这是不切实际的,往往我们需要多个特征,但此次并不是使用多个特征,而是创建一个合成特诊
total_rooms
和 population
特征都会统计指定街区的相关总计数据。
但是,如果一个街区比另一个街区的人口更密集,会怎么样?我们可以创建一个合成特征(即 total_rooms
与 population
的比例)来探索街区人口密度与房屋价值中位数之间的关系。
# 创建合成特征 california_housing_dataframe["rooms_per_person"] =california_housing_dataframe["total_rooms"]/california_housing_dataframe["population"] calibration_data = train_model( learning_rate=0.0005, steps=500, batch_size=1, input_feature="rooms_per_person" )
结果:
Training model...
RMSE (on training data):
period 00 : 237.29
period 01 : 237.04
period 02 : 236.78
period 03 : 236.53
period 04 : 236.28
period 05 : 236.03
period 06 : 235.78
period 07 : 235.53
period 08 : 235.27
period 09 : 235.02
Model training finished
效果很差,因为RMSE变化很小,我们可以尝试增大学习速率,*10 learning_rate=0.005
Training model...
RMSE (on training data):
period 00 : 235.03
period 01 : 232.52
period 02 : 230.03
period 03 : 227.56
period 04 : 225.13
period 05 : 222.70
period 06 : 220.38
period 07 : 217.95
period 08 : 215.54
period 09 : 213.17
Model training finished.
可以发现RMSE是在逐渐收敛的,学习速率没有过大,继续*10 learning_rate=0.05
Training model...
RMSE (on training data):
period 00 : 212.86
period 01 : 190.91
period 02 : 172.64
period 03 : 155.99
period 04 : 149.72
period 05 : 141.27
period 06 : 136.94
period 07 : 134.30
period 08 : 131.94
period 09 : 130.69
Model training finished.
从RMSE的下降速率来看,说明已经接近最小值了,为其增大一点点,+0.005 learning_rate=0.055
Training model...
RMSE (on training data):
period 00 : 210.61
period 01 : 185.76
period 02 : 166.58
period 03 : 150.86
period 04 : 142.97
period 05 : 136.05
period 06 : 133.06
period 07 : 132.46
period 08 : 131.34
period 09 : 130.55
Model training finished.
predictions | targets | |
---|---|---|
count | 17000.0 | 17000.0 |
mean | 170.9 | 207.3 |
std | 77.4 | 116.0 |
min | 41.1 | 15.0 |
25% | 140.6 | 119.4 |
50% | 168.3 | 180.4 |
75% | 191.9 | 265.0 |
max | 3693.8 | 500.0 |
Final RMSE (on training data): 130.55
可以发现结果变化很小,我们在这里就可以停止了,因为再次尝试下去,要浪费太多的计算量和时间
识别离群值
通过上图的预测值与目标值的散点图效果,可以发现,
如果是在理想情况下,这些值将位于一条完全相关的对角线上。
但是现在却是存在许多异常的散点,如果我们能够查找到这些异常点的原因并将其筛除掉,那么效果一定会更好更贴近真实情况
# 尺寸15*6 plt.figure(figsize=(15, 6)) # 1行2列,先画第一个格 plt.subplot(1, 2, 1) # x,y轴标签 plt.xlabel("predictioon") plt.ylabel("targets") # 绘制散点图 plt.scatter(calibration_data["predictions"], calibration_data["targets"]) # 第二个绘制直方图 plt.subplot(1, 2, 2) california_housing_dataframe["rooms_per_person"].hist()
结果:
从散点图中可以看出,绝大部分的散点汇集在一条竖直的直线上(其实这也并不是一条直线,而是因为x轴的分辨率太大了,一格500),还有一些是散乱分布的
为什么大部分点会垂直排列,这个原因我们先不讲,这不是这次训练目的,我们的目的是要找出极少出的异常的点
再看直方图,大部分是在0-5这条线上,少数的应该就是异常值了,下面我们滤掉他们,并看下结果会怎样
california_housing_dataframe["rooms_per_person"] = ( california_housing_dataframe["rooms_per_person"]).apply(lambda x: min(x, 5)) _ = california_housing_dataframe["rooms_per_person"].hist()
结果:
这次都在0-5之内了
再次训练
calibration_data = train_model( learning_rate=0.055, steps=500, batch_size=5, input_feature="rooms_per_person")
结果:
Training model...
RMSE (on training data):
period 00 : 210.41
period 01 : 184.47
period 02 : 160.39
period 03 : 140.40
period 04 : 124.11
period 05 : 117.53
period 06 : 110.61
period 07 : 108.84
period 08 : 108.26
period 09 : 108.65
Model training finished.
predictions | targets | |
---|---|---|
count | 17000.0 | 17000.0 |
mean | 191.6 | 207.3 |
std | 50.1 | 116.0 |
min | 44.8 | 15.0 |
25% | 159.7 | 119.4 |
50% | 191.7 | 180.4 |
75% | 218.9 | 265.0 |
max | 425.3 | 500.0 |
Final RMSE (on training data): 108.65
这次的结果好过以前的每一次,体现在RMSE下降的速度特别快,说明少了很多干扰,其次便是RMSE这次是最小的,说明去除离群值后效果真的是好了很多
plt.scatter(calibration_data["predictions"], calibration_data["targets"])
结果:
现在可以看出散点分布其实是挺集中的。
以上,结束
共同学习,写下你的评论
评论加载中...
作者其他优质文章