01 起
机器学习分为有监督学习和无监督学习,在有监督学习中,我们需要将样本分为训练集和测试集。其中,训练集用于训练模型,这个集合中的样本数越大越好,测试集用于测试训练出的模型的效果。
在机器学习过程中,对于训练集和测试集,我们会:
将训练集的特征(X)和特征对应的标签(Y)输入到模型,去训练模型参数;
模型训练完成后,我们将测试集的特征(X)输入到模型中,让模型去预测这些测试集的标签(Y_predict);
最后我们将这些预测的标签和测试集真实标签(Y)进行比较,计算准确率,就可以评估训练模型的效果了。
所以,在有监督学习中,拿到样本后,我们需要将样本分割为训练集和测试集,怎么做呢?
在sklearn包中有写好的函数用于分割训练集和测试集,但是今天我们就来自己写一个分割函数吧,毕竟分割的原则和方法不自己操作一波是不会有太多体会的。
02 分割原则
前一节我们讲解了训练集和测试集的用处,他们都来自于同一个样本集,那么你再想想,分割的原则到底是什么呢?
分割原则:
随机分割
分割比例可选
训练集比例大于测试集
好了,基于上述分割原则,我们用python3来写一个分割函数吧!
03 分割函数
效果
输入总样本的特征集和标签集,输入分割比例、指定随机数种子,输出按分割比例分割好的训练集和测试集
输入
x-样本特征集,dataframe格式
y-样本对应分类标签,dataframe格式
random_seed-随机数种子,确保每次执行同样参数的函数后,得到的分割样本不变,默认7
test_size-测试集占总样本比例,如20%表示为0.2,默认0.25
输出
X_train,X_test,Y_train,Y_test(array格式)
def train_test_split(x,y,test_size=None,random_seed=None): import pandas as pd import numpy as np if test_size==None: test_size=0.25 if random_seed==None: random_seed=7 #根据随机数种子,将x索引打乱 np.random.seed(random_seed) indices=np.random.permutation(len(x)) #根据设定的测试集样本比例,划分训练集、测试集 cut=int(len(x)*(1-test_size)) x_train=x.iloc[indices[:cut]] y_train=y.iloc[indices[:cut]] x_test=x.iloc[indices[cut:]] y_test=y.iloc[indices[cut:]] # 将dataframe格式的数据转换为numpy array格式,便于调用函数计算 x_train=np.array(x_train) y_train=np.array(y_train) x_test=np.array(x_test) y_test=np.array(y_test) # 将labels的形状设置为(130,) y_train.shape=(cut,) return x_train,x_test,y_train,y_test
04 测试函数
写好了分割函数,让我们来测试一波,看看分割函数的效果吧。
测试使用的样本是鸢尾花数据集,长成这样,共有150条数据:
我们将此样本带入分割函数进行分割,分割比例为20%,即,训练集有120条,测试集有30条。
iris=pd.read_csv("E:\python\practice\iris.txt") iris_x=iris.iloc[:,[0,1,2,3]] iris_y=iris.iloc[:,[4]] iris_x_train,iris_x_test,iris_y_train,iris_y_test=train_test_split(iris_x,iris_y,0.2,32) iris_y_train.shape
输出为:
成功!
05 总结
今天我们自己写了一个函数,实现训练集和测试集的分割,此分割函数为随机分配,同时可以指定分割比例。
怎么样,造轮子是不是可以帮助我们更深刻地理解原理~~
作者:邓莎
链接:https://www.jianshu.com/p/1da36bc3663b
共同学习,写下你的评论
评论加载中...
作者其他优质文章