数据集:加利福尼亚房价预测数据集
from sklearn.datasets import fetch_california_housing #加载房价预测数据集
housing = fetch_california_housing()
print(housing.DESCR)
print(housing.data.shape) #x(20640, 8)
print(housing.target.shape) #y (20640,)
#有20640个样本,每个样本有8个特征
#显示前5个数据
import pprint
pprint.pprint(housing.data[0:5])
pprint.pprint(housing.target[0:5])
#切分训练集及测试集
from sklearn.model_selection import train_test_split
#train_test_split默认划分为1/4,3/4,前面是3/4,后面是1/4,如果要改变切分比例,则设置test_size=0.25。
x_train_all, x_test, y_train_all, y_test = train_test_split(housing.data, housing.target, random_state=7)
x_train, x_valid, y_train, y_valid = train_test_split(x_train_all, y_train_all, random_state=11)
#数据归一化
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
x_train_scaled = scaler.fit_transform(x_train)
x_valid_scaled = scaler.transform(x_valid)
x_test_scaled = scaler.transform(x_test)
#模型构建
model = keras.models.Sequential([
keras.layers.Dense(30,activation='relu',input_shape=x_train.shape[1:]),#取后半部分,8
keras.layers.Dense(1),
])
model.summary()
model.compile(loss="mean_squared_error", optimizer="sgd")
callbacks = [keras.callbacks.EarlyStopping(patience=5, min_delta=1e-2)]
history = model.fit(x_train_scaled, y_train,
validation_data = (x_valid_scaled, y_valid),
epochs = 100,
callbacks = callbacks)
train_test_split()函数
sklearn.model_selection.train_test_split随机划分训练集和测试集:默认划分为前3/4,后1/4。
一般形式:
train_test_split是交叉验证中常用的函数,功能是从样本中随机的按比例选取train data和test data,形式为:
X_train, X_test, y_train, y_test = train_test_split ( train_data,train_target, test_size = 0.4, random_state = 0)
参数解释:
train_data:所要划分的样本特征集
train_target:所要划分的样本结果
test_size:样本占比,如果是整数的话就是样本的数量
random_state:是随机数的种子。
随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。不填的话默认值为False,即每次切分的比例虽然相同,但是切分的结果不同。
随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:
种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。