东莞市盛裕绒艺玩具有限公司

东莞市盛裕绒艺玩具有限公司

AG亚游官方入口

15153559106
联系方式
全国服务热线: 15153559106

咨询热线:15147710999
联系人:郑素琼
地址:西藏自治省拉萨市堆龙德庆县西藏拉萨

python Deep learning 学习笔记(6)

来源:AG亚游官方入口   发布时间:2019-11-18   点击量:26

本节介绍循环神经网络及其优化循环神经网络(RNN,recurrent neural network)处理序列的方式是,遍历所有序列元素,并保存一个状态(state),其中包含与已查看内容相关的信息。在处理两个不同的独立序列(比如两条不同的 IMDB 评论)之间,RNN 状态会被重置,因此,你仍可以将一个序列看作单个数据点,即网络的单个输入。真正改变的是,数据点不再是在单个步骤中进行处理,相反,网络内部会对序列元素进行遍历,RNN 的特征在于其时间步函数

Keras 中的循环层

from keras.layers import SimpleRNN

它接收形状为 (batch_size, timesteps, input_features) 的输入与 Keras 中的所有循环层一样,SimpleRNN 可以在两种不同的模式下运行:一种是返回每个时间步连续输出的完整序列,即形状为 (batch_size, timesteps, output_features)的三维张量;另一种是只返回每个输入序列的最终输出,即形状为 (batch_size, output_features) 的二维张量。这两种模式由return_sequences 这个构造函数参数来控制。为了提高网络的表示能力,将多个循环层逐个堆叠有时也是很有用的。在这种情况下,你需要让所有中间层都返回完整的输出序列,即将return_sequences设置为True

简单Demo with SimpleRNN

from keras.datasets import imdbfrom keras.preprocessing import sequencefrom keras.layers import Dense, Embedding, SimpleRNNfrom keras.models import Sequentialimport matplotlib.pyplot as pltmax_features = 10000maxlen = 500batch_size = 32(input_train, y_train), (input_test, y_test) = imdb.load_data(num_words=max_features, path="E:\study\dataset\imdb.npz")print(len(input_train), "train sequences")print(len(input_test), "test sequences")print("Pad sequences (samples x time)")input_train = sequence.pad_sequences(input_train, maxlen=maxlen)input_test = sequence.pad_sequences(input_test, maxlen=maxlen)print("input_train shape:", input_train.shape)print("input_test shape:", input_test.shape)# 用 Embedding 层和 SimpleRNN 层来训练模型model = Sequential()model.add(Embedding(max_features, 32))model.add(SimpleRNN(32))model.add(Dense(1, activation="sigmoid"))model.compile(optimizer="rmsprop", loss="binary_crossentropy", metrics=["acc"])history = model.fit(input_train, y_train, epochs=10, batch_size=128, validation_split=0.2)acc = history.history["acc"]val_acc = history.history["val_acc"]loss = history.history["loss"]val_loss = history.history["val_loss"]epochs = range(1, len(acc) + 1)plt.plot(epochs, acc, "bo", label="Training acc")plt.plot(epochs, val_acc, "b", label="Validation acc")plt.title("Training and validation accuracy")plt.legend()plt.figure()plt.plot(epochs, loss, "bo", label="Training loss")plt.plot(epochs, val_loss, "b", label="Validation loss")plt.title("Training and validation loss")plt.legend()plt.show()

结果

Keras同时还内置了另外两个循环层:LSTM GRUSimpleRNN 的最大问题不能学到长期依赖,其原因在于梯度消失问题。LSTM 层和 GRU 层都是为了解决这个问题而设计的LSTM(long short-term memory)层是 SimpleRNN 层的一种变体,它增加了一种携带信息跨越多个时间步的方法,保存信息以便后面使用,从而防止较早期的信号在处理过程中逐渐消失

简单Demo with LSTM

from keras.datasets import imdbfrom keras.preprocessing import sequencefrom keras.layers import Dense, Embedding, LSTMfrom keras.models import Sequentialimport matplotlib.pyplot as pltmax_features = 10000maxlen = 500batch_size = 32(input_train, y_train), (input_test, y_test) = imdb.load_data(num_words=max_features, path="E:\study\dataset\imdb.npz")print(len(input_train), "train sequences")print(len(input_test), "test sequences")print("Pad sequences (samples x time)")input_train = sequence.pad_sequences(input_train, maxlen=maxlen)input_test = sequence.pad_sequences(input_test, maxlen=maxlen)print("input_train shape:", input_train.shape)print("input_test shape:", input_test.shape)model = Sequential()model.add(Embedding(max_features, 32))model.add(LSTM(32))model.add(Dense(1, activation="sigmoid"))model.compile(optimizer="rmsprop", loss="binary_crossentropy", metrics=["acc"])history = model.fit(input_train, y_train, epochs=10, batch_size=128, validation_split=0.2)acc = history.history["acc"]val_acc = history.history["val_acc"]loss = history.history["loss"]val_loss = history.history["val_loss"]epochs = range(1, len(acc) + 1)plt.plot(epochs, acc, "bo", label="Training acc")plt.plot(epochs, val_acc, "b", label="Validation acc")plt.title("Training and validation accuracy")plt.legend()plt.figure()plt.plot(epochs, loss, "bo", label="Training loss")plt.plot(epochs, val_loss, "b", label="Validation loss")plt.title("Training and validation loss")plt.legend()plt.show()

结果

可见此次结果比SimpleRNN网络要好一些,主要是因为LSTM 受梯度消失问题的影响要小得多LSTM适用于评论分析全局的长期性结构

可以提高循环神经网络的性能和泛化能力的三种高级技巧

循环 dropout(recurrent dropout)。这是一种特殊的内置方法,在循环层中使用 dropout 来降低过拟合堆叠循环层(stacking recurrent layers)。这会提高网络的表示能力(代价是更高的计算负荷)双向循环层(bidirectional recurrent layer)。将相同的信息以不同的方式呈现给循环网络,可以提高精度并缓解遗忘问题

门控循环单元(GRU,gated recurrent unit)层的工作原理与 LSTM 相同。但它做了一些简化,因此运行的计算代价更低(虽然表示能力可能不如 LSTM),GRU层通常更善于记住最近的数据,而不是久远的数据

使用以上三种种方式来进行温度预测

import osimport numpy as npfrom matplotlib import pyplot as pltfrom keras.models import Sequentialfrom keras import layersfrom keras.optimizers import RMSpropfrom keras import modelsdata_dir = "E:\study\dataset"fname = os.path.join(data_dir, "jena_climate_2009_2016.csv")f = open(fname)data = f.read()f.close()lines = data.split("")header = lines[0].split(",")lines = lines[1:]print(header)print(len(lines))# 将数据转换成一个 Numpy 数组float_data = np.zeros((len(lines), len(header) - 1))for i, line in enumerate(lines): values = [float(x) for x in line.split(",")[1:]] float_data[i, :] = values# 温度temp = float_data[:, 1]plt.plot(range(len(temp)), temp)plt.show()# 前 10 天的温度时间序列plt.plot(range(1440), temp[:1440])plt.show()# 数据标准化# 将使用前200 000 个时间步作为训练数据mean = float_data[:200000].mean(axis=0)float_data -= meanstd = float_data[:200000].std(axis=0)float_data /= std# 生成时间序列样本及其目标的生成器def generator(data, lookback, delay, min_index, max_index, shuffle=False, batch_size=128, step=6): """ :param data: 浮点数数据组成的原始数组 :param lookback: 输入数据应该包括过去多少个时间步 :param delay: 目标应该在未来多少个时间步之后 :param min_index: 数组中的索引 :param max_index: 数组中的索引 :param shuffle: 是打乱样本,还是按顺序抽取样本 :param batch_size: 每个批量的样本数 :param step: 数据采样的周期 :return: """ if max_index is None: max_index = len(data) - delay - 1 i = min_index + lookback while 1: if shuffle: rows = np.random.randint(min_index + lookback, max_index, size=batch_size) else: if i + batch_size >= max_index: i = min_index + lookback rows = np.arange(i, min(i + batch_size, max_index)) i += len(rows) samples = np.zeros((len(rows), lookback // step, data.shape[-1])) targets = np.zeros((len(rows),)) for j, row in enumerate(rows): indices = range(rows[j] - lookback, rows[j], step) samples[j] = data[indices] targets[j] = data[rows[j] + delay][1] yield samples, targets# 准备训练生成器、验证生成器和测试生成器lookback = 1440step = 6delay = 144batch_size = 128train_gen = generator(float_data, lookback=lookback, delay=delay, min_index=0, max_index=200000, shuffle=True, step=step, batch_size=batch_size)val_gen = generator(float_data, lookback=lookback, delay=delay, min_index=200001, max_index=300000, step=step, batch_size=batch_size)test_gen = generator(float_data, lookback=lookback, delay=delay, min_index=300001, max_index=None, step=step, batch_size=batch_size)# 查看,需要从 generate 中抽取多少次val_steps = (300000 - 200001 - lookback) // batch_sizetest_steps = (len(float_data) - 300001 - lookback) // batch_sizedef get_base_model_history(): model = Sequential() model.add(layers.Flatten(input_shape=(lookback // step, float_data.shape[-1]))) model.add(layers.Dense(32, activation="relu")) model.add(layers.Dense(1)) model.compile(optimizer=RMSprop(), loss="mae", metrics=["acc"]) history = model.fit_generator(train_gen, steps_per_epoch=500, epochs=20, validation_data=val_gen, validation_steps=val_steps) return history# 使用GRU 的模型def get_gru_model_history(): model = Sequential() model.add(layers.GRU(32, input_shape=(None, float_data.shape[-1]))) model.add(layers.Dense(1)) model.compile(optimizer=RMSprop(), loss="mae", metrics=["acc"]) history = model.fit_generator(train_gen, steps_per_epoch=500, epochs=20, validation_data=val_gen, validation_steps=val_steps) return history# 使用 dropout 正则化的基于 GRU 的模型def get_gru_model_with_dropout_history(): model = Sequential() model.add(layers.GRU(32, dropout=0.2, recurrent_dropout=0.2, input_shape=(None, float_data.shape[-1]))) model.add(layers.Dense(1)) model.compile(optimizer=RMSprop(), loss="mae", metrics=["acc"]) history = model.fit_generator(train_gen, steps_per_epoch=500, epochs=40, validation_data=val_gen, validation_steps=val_steps) model.save("gru_model_with_dropout.h5") return history# 使用 dropout 正则化的堆叠 GRU 模型def get_mul_gru_model_with_dropout_history(): model = Sequential() model.add(layers.GRU(32, dropout=0.1, recurrent_dropout=0.5, return_sequences=True, input_shape=(None, float_data.shape[-1]))) model.add(layers.GRU(64, activation="relu", dropout=0.1, recurrent_dropout=0.5)) model.add(layers.Dense(1)) model.compile(optimizer=RMSprop(), loss="mae", metrics=["acc"]) history = model.fit_generator(train_gen, steps_per_epoch=500, epochs=40, validation_data=val_gen, validation_steps=val_steps) model.save("mul_gru_model_with_dropout") return historydef draw_loss(history): loss = history.history["loss"] val_loss = history.history["val_loss"] epochs = range(1, len(loss) + 1) plt.figure() plt.plot(epochs, loss, "bo", label="Training loss") plt.plot(epochs, val_loss, "b", label="Validation loss") plt.title("Training and validation loss") plt.legend() plt.show()draw_loss(get_base_model_history())draw_loss(history=get_gru_model_history())draw_loss(history=get_gru_model_with_dropout_history())draw_loss(history=get_mul_gru_model_with_dropout_history())

结果原始数据

十天数据

基准

只使用gru的预测Loss

因为第一个和其它两个是分开训练的,所以因为draw_acc_and_loss函数中的history参数写成了"acc"得到了报错,而之前只保存了model,而没有保存history,所以画不出来,以下两个将引用原书中结果图,以后有空再补使用 dropout 正则化的gru

使用 dropout 正则化的堆叠 GRU 模型

由以上可见,相对于基准模型,使用 GRU 稍微降低了 loss,但是很快过拟合了,然后使用带有 dropout 的 GRU,再次降低了 loss,但是最后在0.28左右变得平缓,说明遇到了性能瓶颈,最后我们使用带有 dropout 正则化的堆叠 GRU 模型,性能再次提高,但是依旧不是很好注意:想要在循环网络中使用 dropout,你应该使用一个不随时间变化的 dropout 掩码与循环 dropout 掩码。这二者都内置于 Keras 的循环层中,所以你只需要使用循环层的 dropout 和 recurrent_dropout 参数即可

最后是双向 RNN,它常用于自然语言处理RNN是特别依赖顺序或时间的,打乱时间步或反转时间步会完全改变RNN从序列中提取的表示。所以,如果顺序对问题很重要,RNN的表现会很好。双向RNN利用了RNN的顺序敏感性:它包含两个普通RNN,每个RNN分别沿一个方向对输入序列进行处理,然后将它们合并在一起。通过沿这两个方向处理序列,双向RNN能够捕捉到可能被单向RNN忽略的模式

逆序数据,情感分类 Demo(用于性能比较)

from keras.datasets import imdbfrom keras.preprocessing import sequencefrom keras import layersfrom keras.models import Sequentialimport tools# 将画图的部分封装到了tools里面,依旧使用imdb数据(评论情感分类)max_features = 10000maxlen = 500(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features, path="E:\study\dataset\imdb.npz")# 逆序数据x_train = [x[::-1] for x in x_train]x_test = [x[::-1] for x in x_test]x_train = sequence.pad_sequences(x_train, maxlen=maxlen)x_test = sequence.pad_sequences(x_test, maxlen=maxlen)model = Sequential()model.add(layers.Embedding(max_features, 128))model.add(layers.LSTM(32))model.add(layers.Dense(1, activation="sigmoid"))model.compile(optimizer="rmsprop", loss="binary_crossentropy", metrics=["acc"])history = model.fit(x_train, y_train, epochs=10, batch_size=128, validation_split=0.2)tools.draw_acc_and_loss(history)

结果

可见,逆序数据之后,模型的性能与正序几乎没有改变,这证明一个假设:虽然单词顺序对于理解语言很重要,但使用哪种顺序并不重要。重要的是,在逆序序列上训练的RNN学到的表示不同于在原始序列上学到的表示。在机器学习中,如果一种数据表示不同但有用,那么总是值得加以利用,这种表示与其他表示的差异越大越好,它们提供了查看数据的全新角度,抓住了数据中被其他方法忽略的内容,因此可以提高模型在某个任务上的性能

双向 RNN 正是利用这个想法来提高正序 RNN 的性能,它从两个方向查看数据,从而得到更加丰富的表示,并捕捉到仅使用正序 RNN 时可能忽略的一些模式

使用双向LSTM和双向GRU的方法

from keras.models import Sequentialfrom keras import layersfrom keras.optimizers import RMSpropdef get_bothway_lstm_history(max_features, x_train, y_train): model = Sequential() model.add(layers.Embedding(max_features, 32)) model.add(layers.Bidirectional(layers.LSTM(32))) model.add(layers.Dense(1, activation="sigmoid")) model.compile(optimizer="rmsprop", loss="binary_crossentropy", metrics=["acc"]) history = model.fit(x_train, y_train, epochs=10, batch_size=128, validation_split=0.2) return historydef get_bothway_gru_history(float_data, train_gen, val_gen, val_steps): model = Sequential() model.add(layers.Bidirectional(layers.GRU(32), input_shape=(None, float_data.shape[-1]))) model.add(layers.Dense(1)) model.compile(optimizer=RMSprop(), loss="mae") history = model.fit_generator(train_gen, steps_per_epoch=500, epochs=40, validation_data=val_gen, validation_steps=val_steps) return history

向函数中填充对应数据即可开始训练

书中给出的结果是: 双向LSTM的表现比普通的LSTM略好,这是可以理解的,毕竟情感分析与输入顺序是没有什么关系的,而使用双向的LSTM比单向的LSTM参数多了一倍当使用双向GRU来预测温度时,并没有比普通的好,这也是可以理解的,GRU对于近期的记忆要好一些,但是对于远期的记忆表现的交叉,而温度预测是与时间相关的,当改变输入顺序,GRU必然会出现不好的预测,因此,使用双向GRU时,做出贡献的几乎都是正向的那个

在此,给一个建议,当你的model需要训练的时间很长的话,可以先使用只是一轮的训练来测试程序是否完全正确。然后,还可以在每次或每几次训练之后就保存一下模型,顺便保存一下history(如果需要的话)

python Deep learning 学习笔记(5)

, 1, 0, 9);

相关产品

COPYRIGHTS©2017 AG亚游官方入口 ALL RIGHTS RESERVED 备案号:26