RNN建立股票预测模型,keras基本结构功能

图片 10

RNN建立股票预测模型,keras基本结构功能

  博士毕业在此之前曾经对基于LSTM循环神经网络的股票价格预测方法实行过小小的研讨,趁着方今做事不忙,把内部的意气风发有的剧情写下来做以记录。

引自:

 

 

  本次股价预测模型仅依照股票的历史数据来确立,不思量音信面临个人股的影响。曾有东瀛专家使用深度学习的措施来对当天的新闻内容举行剖析,以咬定其对股票价格正面性/消极的一面性影响,并将其与股票(stock)的野史数据相结合,各自付与一定的权重来对那二日的股票价格进行远望[1]。该预测方法得到了迟早的法力。

汉语文书档案: 
合泰语档: 
文书档案首如果以keras2.0。

  而那边自个儿从来不引入信息面包车型大巴震慑,首要由于以下几点思虑:


  1.音信的及时性难以管教:很多时候,在三只股票(stock)的利好/利空音讯出来在此之前,其股票价格风华正茂度有了超大幅度面包车型地铁滋长/下落。新闻的不对称性导致普通群众缺少间接音信源。

.

  2.音讯的准头难以有限帮助:互联英特网消息传播速度很快,媒体之间平日会现出相互抄袭音信的场地,而这种抄来的资源新闻(非原创新闻)往往未有经过严峻的核实,存在着内容虚假,夸大宣传的可能。风华正茂旦深入分析模型错用了某条没有根据的话或真实不高的音信,很有望得出错误的远望结果。

Keras系列:

1、keras种类︱Sequential与Model模型、keras基本结构功能(意气风发) 
2、keras连串︱Application中五款已演习模型、VGG16框架(Sequential式、Model式)解读(二) 
3、keras类别︱图像多分类练习与使用bottleneck
features进行微调(三) 
4、keras体系︱人脸表情分类与识别:opencv人脸检查测量试验+Keras心理分类(四) 
5、keras种类︱迁移学习:利用英斯ptionV3进行fine-tuning及远望、完整案例(五)


  3.语言的歧义性:一条音讯,其正面性/消极面性往往存在着冒尖解读。举例“习近平发表中夏族民共和国将裁减军备30万”——新华每一日电子通信贰零壹肆.09.04。那条消息日常意义上得以解读为:中心政党浓重推进改革机制,简政放权,大力发展国防军事工业工作。那是大器晚成种正面性的解读。而在接收机器学习模型时,如守旧的离奇值分解算法(SVD),很有极大概率会咬定其与“2018年中国共产党第五次全国代表大会行裁员近3万”这种新闻具备较高的雷同度,由此将其分割为负面音讯。

零、keras介绍与焦点的模子保存

写成了驰念导图,便于观察与理解。

  4.技术达成相比凌乱:这实乃三个超重大的缘由啦~,获取科学的新闻并展开NLP操作,往往要求经过以下流程:人工浏览网页鲜明牢固可信赖的新闻源→设计爬虫实现效用新闻的取得→设计音讯裁剪(填充)方案以回应不一样长短的音讯→人工标明消息的正/负性(也得以用当日股票价格大喜大悲来标记)→设计网络模型→练习及注明模型。个中的每一步都十三分麻烦耗费时间,并且对于个股来讲,而不是天天都会有新闻现身。

1.keras网络布局

图片 1

 

2.keras网络安排

图片 2
个中回调函数callbacks应该是keras的精粹~

  上边说了这么多,还未有曾发轫对自己这几个预测模型实行介绍,上边开首走入正题。在支配扑灭音讯面包车型大巴勘查之后,小编初叶思考股票价格上涨或下落的真面目,笔者觉着股票价格便是基金博艺结果的反映。这一次建设构造的张望模型,朴素的主见是由此深度学习模型来侦查破案庄家的操作原理,对拉升、砸盘的场地展开前瞻。为了达到以下指标,小编说了算取舍以下四个特点来营造网络模型,即:

3.keras预管理效果

图片 3

上涨或下下降的幅度  最高幅度  最低降低的幅度  大单净流入 
中单净流入  小单净流入  换一只手率

4、模型的节点音讯提取

# 节点信息提取
config = model.get_config()  # 把model中的信息,solver.prototxt和train.prototxt信息提取出来
model = Model.from_config(config)  # 还回去
# or, for Sequential:
model = Sequential.from_config(config) # 重构一个新的Model模型,用去其他训练,fine-tuning比较好用

使用那多少个特征来对股票(stock)的起伏情状以及基金的流淌意况创设合适的模子。别的,其余的目标相通MACD、均线等也是由此一些基础数据的运算得出,在营造立模型型时并不曾将其归入考虑衡量范围。

5、 模型概略查询(富含权重查询)

# 1、模型概括打印
model.summary()

# 2、返回代表模型的JSON字符串,仅包含网络结构,不包含权值。可以从JSON字符串中重构原模型:
from models import model_from_json

json_string = model.to_json()
model = model_from_json(json_string)

# 3、model.to_yaml:与model.to_json类似,同样可以从产生的YAML字符串中重构模型
from models import model_from_yaml

yaml_string = model.to_yaml()
model = model_from_yaml(yaml_string)

# 4、权重获取
model.get_layer()      #依据层名或下标获得层对象
model.get_weights()    #返回模型权重张量的列表,类型为numpy array
model.set_weights()    #从numpy array里将权重载入给模型,要求数组具有与model.get_weights()相同的形状。

# 查看model中Layer的信息
model.layers 查看layer信息

 

6、模型保存与加载

model.save_weights(filepath)
# 将模型权重保存到指定路径,文件类型是HDF5(后缀是.h5)

model.load_weights(filepath, by_name=False)
# 从HDF5文件中加载权重到当前模型中, 默认情况下模型的结构将保持不变。
# 如果想将权重载入不同的模型(有些层相同)中,则设置by_name=True,只有名字匹配的层才会载入权重.

大器晚成.源数额及其预管理

7、如何在keras中设定GPU使用的高低

本节源于:深度学习theano/tensorflow多显卡几人采纳难点集(参见:Limit
the resource usage for tensorflow backend · Issue #1538 ·
fchollet/keras ·
GitHub) 
在使用keras时候会现出延续占满GPU显存的意况,能够透过重设backend的GPU占用景况来进展调节和测验。

import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))

 

供给在意的是,就算代码或配备范围设置了对显存占用百分比阈值,但在事实上运作中只要达到了那些阈值,程序有须要的话依旧会突破那几个阈值。换来说之假使跑在三个大数据集上照旧会用到越多的显存。以上的显存约束只是为了在跑小数码集时防止对显存的浪费而已。(二零一七年1月17日补给)

  通过某股票(stock)交易软件,笔者收获的源数据约有20来个特征,满含:升幅、现价、上涨或下跌、买入、卖价、成交量等等。为了获取地点所述的种种天性,筛选出上涨或下落低的幅度、大单净流入、中单净流入、小单净流入、换另一只手率那5个特征,并企图最高幅度、最高跌幅三个性格。通过下列公式总结获得。

8.更科学地模型练习与模型保存

filepath = 'model-ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5'
checkpoint = ModelCheckpoint(filepath, monitor='val_loss', verbose=1, save_best_only=True, mode='min')
# fit model
model.fit(x, y, epochs=20, verbose=2, callbacks=[checkpoint], validation_data=(x, y))

 

save_best_only张开未来,会如下:

 ETA: 3s - loss: 0.5820Epoch 00017: val_loss did not improve

 

如果val_loss 升高了就能够保留,未有增进就不会保留。

图片 4

9.如何在keras中使用tensorboard

    RUN = RUN + 1 if 'RUN' in locals() else 1   # locals() 函数会以字典类型返回当前位置的全部局部变量。

    LOG_DIR = model_save_path + '/training_logs/run{}'.format(RUN)
    LOG_FILE_PATH = LOG_DIR + '/checkpoint-{epoch:02d}-{val_loss:.4f}.hdf5'   # 模型Log文件以及.h5模型文件存放地址

    tensorboard = TensorBoard(log_dir=LOG_DIR, write_images=True)
    checkpoint = ModelCheckpoint(filepath=LOG_FILE_PATH, monitor='val_loss', verbose=1, save_best_only=True)
    early_stopping = EarlyStopping(monitor='val_loss', patience=5, verbose=1)

    history = model.fit_generator(generator=gen.generate(True), steps_per_epoch=int(gen.train_batches / 4),
                                  validation_data=gen.generate(False), validation_steps=int(gen.val_batches / 4),
                                  epochs=EPOCHS, verbose=1, callbacks=[tensorboard, checkpoint, early_stopping])

 

都是在回调函数中起效果:

  • EarlyStopping patience:当early 
    (1)stop被激活(如察觉loss比较上八个epoch练习未有下跌),则通过patience个epoch后终止练习。 
    (2)mode:‘auto’,‘min’,‘max’之后生可畏,在min形式下,假诺检验值甘休下滑则中止操练。在max格局下,当检查测量检验值不再回涨则停止练习。

  • 模型检查点ModelCheckpoint  
    (1)save_best_only:当设置为True时,将只保留在验证集上品质最佳的模型 
    (2)
    mode:‘auto’,‘min’,‘max’之一,在save_best_only=True时决定品质最棒模型的评议准绳,譬如,当监测值为val_acc时,情势应该为max,当检查评定值为val_loss时,格局应为min。在auto方式下,评价准则由被监测值的名字自动测算。 
    (3)save_weights_only:若设置为True,则只保留模型权重,不然将保存整个模型(满含模型结构,配置新闻等) 
    (4)period:CheckPoint之间的区间的epoch数

  • 可视化tensorboard write_images: 是还是不是将模型权重以图表的款型可视化

别的剧情可参看keras中文文书档案

.


透过管理的期货特征数据存款和储蓄在 期货(Futures)名.csv文件中,肖似下图:

意气风发、Sequential 序贯模型

序贯模型是函数式模型的简略版,为最简便易行的线性、通首至尾的布局顺序,不分开。

 图片 5

Sequential模型的骨干组件

相同须要:

  • 1、model.add,添加层;
  • 2、model.compile,模型锻练的BP情势设置;
  • 3、model.fit,模型练习参数设置 + 演习;
  • 4、模型评估
  • 5、模型预测

图中的特征顺序为:日期,大单净流入,中单净流入,小单净流入,上涨或下跌幅,最高幅度,最高降低的幅度,换另一边手率,股票价格。股票价格在这地的用途是拼接练习样板输出时,计算多日的总上涨或下落幅。

1. add:添加层——train_val.prototxt

add(self, layer)

# 譬如:
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dropout(0.25))

 

add里面独有层layer的剧情,当然在序贯式里面,也得以model.add(other_model)加载别的模型,在函数式里面就不太相仿,详见函数式。

注:在对源数据进行拍卖的时候,平时会遇上空值难题:即,有个别特征值为0的时候,系统提交的源数据为”-”或”“。须要开展特别管理。(通常遇见新挂牌股票(stock)第一天的上涨或下落低的幅度为空,或某交易日大单净流入为空。)

2、compile 训练格局——solver.prototxt文件

compile(self, optimizer, loss, metrics=None, sample_weight_mode=None)

 

其中: 
optimizer: 字符串(预约义优化器名)或优化器对象,参谋优化器 
loss: 字符串(预约义损失函数名)或目的函数,参谋损失函数 
metrics:
列表,包括评估模型在教练和测量检验时的互联网品质的指标,标准用法是metrics=[‘accuracy’] 
sample_weight_mode:如果您要求准期间步为样本赋权(2D权矩阵),将该值设为“temporal”。 
默以为“None”,代表按样品赋权(1D权)。在底下fit函数的演说中有相关的参照剧情。 
kwargs:
使用TensorFlow作为后端请忽视该参数,若使用Theano作为后端,kwargs的值将会传送给
K.function

注意: 
模型在使用前必得编写翻译,不然在调用fit或evaluate时会抛出极度。

1     if fin_temp.ix[day,12]=='-' or  fin_temp.ix[day,12]=='':  # 新股的涨跌幅一栏会出现'','-',需要特殊处理
2         raise_value = 0.0
3     else:
4         raise_value = float(fin_temp.ix[day,12])

3、fit 模型练习参数+训练——train.sh+soler.prototxt(部分)

fit(self, x, y, batch_size=32, epochs=10, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数将模型练习nb_epoch轮,其参数有:

  • x:输入数据。若是模型独有三个输入,那么x的品种是numpy 
    array,假诺模型有多少个输入,那么x的连串应当为list,list的成分是对应于种种输入的numpy
    array
  • y:标签,numpy array
  • batch_size:整数,钦赐实行梯度下落时种种batch包含的样品数。练习时贰个batch的样板会被总括三遍梯度下跌,使指标函数优化一步。
  • epochs:整数,训练的轮数,每一个epoch会把练习集轮一回。
  • verbose:日志展现,0为不在规范输出流输出日志消息,1为出口进程条记录,2为各种epoch输出生龙活虎行记录
  • callbacks:list,当中的因素是keras.callbacks.Callback的对象。那一个list中的回调函数将会在锻炼过程中的适当时机被调用,参谋回调函数
  • validation_split:0~1之间的浮点数,用来钦命操练集的大势所趋比例数据作为验证集。验证集将不插足操练,并在各样epoch结束后测验的模子的目标,如损失函数、准确度等。注意,validation_split的分割在shuffle此前,因而假若您的数码自个儿是百折不回的,供给先手工打乱再钦定validation_split,不然也许会现出验证集样板不均匀。
  • validation_data:方式为(X,y)的tuple,是点名的验证集。此参数将隐蔽validation_spilt。
  • shuffle:布尔值或字符串,经常为布尔值,表示是不是在教练进程中专断打乱输入样板的顺序。若为字符串“batch”,则是用来管理HDF5数据的新鲜意况,它就要batch内部将数据打乱。
  • class_weight:字典,将不一样的类型映射为差异的权值,该参数用来在演练进程中调治损失函数(只好用来锻炼)
  • sample_weight:权值的numpy 
    array,用于在练习时调度损失函数(仅用于练习)。能够传递一个1D的与范本等长的向量用于对样品实行1对1的加权,只怕在直面时序数据时,传递八个的花样为(samples,sequence_length)的矩阵来为各类时间步上的样品赋差异的权。这种情状下请鲜明在编写翻译模型时增添了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦命的epoch早前练习,在持续在此以前的训练时有用。

fit函数再次回到多个History的指标,其History.history属性记录了损失函数和其他目标的数值随epoch变化的事态,固然有验证集的话,也蕴藏了验证集的那些目标变动情状 
注意: 
要与之后的fit_generator做差异,两者输入x/y不一样。

 

4.evaluate 模子评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch总括在某个输入数据上模型的绝对误差,其参数有:

  • x:输入数据,与fit相仿,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但一定要取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数重回三个测量试验固有误差的标量值(尽管模型未有别的评价目标),或一个标量的list(若是模型还应该有其余的议论指标)。model.metrics_names将付出list中逐风流倜傥值的意义。

假设没有极度表明,以下函数的参数均保持与fit的同名参数相仿的含义 
假若未有非凡表达,以下函数的verbose参数(假设有)均只好取0或1

 二.操练样品拼接

5 predict 模型评估

predict(self, x, batch_size=32, verbose=0)
predict_classes(self, x, batch_size=32, verbose=1)
predict_proba(self, x, batch_size=32, verbose=1)

本函数按batch获得输入数据对应的出口,其参数有:

函数的再次来到值是预测值的numpy array 
predict_classes:本函数按batch发生输入数据的门类预测结果; 
predict_proba:本函数按batch产生输入数据属于种种门类的概率

        
首先设置叁个滑行窗口,此番实验旅长滑动窗口设置为肆十多个交易日。每二个练习样板由四十多少个一连的交易日组成,各种交易日的数据满含上述的八特性状,即三个50*7的矩阵,而二个样书的出口则是多个交易日之后的收盘价相比较昨天(即样板的输入中最后三个交易日)收盘价的上涨或下落幅,设置其上限为0.3,下限为-0.3(当然,延续多少个涨到结束板的上升的幅度会超越0.3,这里将其统一视作0.3)。之所以选用三个交易日之后的上涨或下跌幅作为演习样品的输出,是因为本国股票市集是T+1操作准绳,当日购入不可卖出,预测的略微靠后有个别可留有操作空间;再有正是一天的拉升/砸盘偶尔性太大,不易预测,对有个别短期一点的场景实行预测有着越来越高的谐和。

6 on_batch 、batch的结果,检查

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)
  • train_on_batch:本函数在多少个batch的数量上开展贰回参数更新,函数重返演练引用误差的标量值或标量值的list,与evaluate的境况相仿。
  • test_on_batch:本函数在三个batch的样板上对模型举行评估,函数的回到与evaluate的景况同样
  • predict_on_batch:本函数在二个batch的样品上对模型进行测量试验,函数再次回到模型在三个batch上的展望结果

  归生龙活虎化相关职业:因为神经互联网激活函数的范围,必要在教练前将数据映射到0~1区间。这一次试验中,对近五年的数目,获取其各式特色的最大值与小小值。设置归少年老成化与函数,在样板拼接的相同的时间将数据举办归生龙活虎化。

7 fit_generator

#利用Python的生成器,逐个生成数据的batch并进行训练。
#生成器与模型将并行执行以提高效率。
#例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练
# 参考链接:http://keras-cn.readthedocs.io/en/latest/models/sequential/

 

有了该函数,图像分类练习任务变得十分轻松。

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

# 案例:
def generate_arrays_from_file(path):
    while 1:
            f = open(path)
            for line in f:
                # create Numpy arrays of input data
                # and labels, from each line in the file
                x, y = process_line(line)
                yield (x, y)
        f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
        samples_per_epoch=10000, epochs=10)

 

此外的七个援救的内容:

evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)
predict_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False, verbose=0)

 

evaluate_generator:本函数使用五个生成器作为数据源评估模型,生成器应重临与test_on_batch的输入数据后生可畏致等级次序的多少。该函数的参数与fit_generator同名参数含义相似,steps是生成器要重临数据的轮数。 
predcit_generator:本函数使用一个生成器作为数据源预测模型,生成器应重回与test_on_batch的输入数据意气风发致类其余数目。该函数的参数与fit_generator同名参数含义相近,steps是生成器要回来数据的轮数。

样本 输入的归风流倜傥化:

案例一:简单的2分类

For a single-input model with 2 classes (binary classification):

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

其中: 
Sequential()代表类的开头化; 
Dense代表全连接层,那个时候有33个全连接层,最终接relu,输入的是100维度 
model.add,增加新的全连接层, 
compile,跟prototxt一样,一些教练参数,solver.prototxt

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

事先报过那样的错误,是因为版本的主题素材。 版本1.2里面是nb_epoch
,而keras2.0是epochs = 10

 error:
    TypeError: Received unknown keyword arguments: {'epochs': 10}

 

其中: 
epoch=batch_size * iteration,拾二遍epoch代表练习11回练习集

末段代码是基于keras ==1.2

# -*- coding:utf-8 -*-

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

 

 1 def normalize_oneday(stockN,fdata,day):
 2     max_min = list(max_min_list[stockN])
 3     in_1 = (fdata.ix[day,1]-max_min[1])/(max_min[0]-max_min[1])
 4     in_2 = (fdata.ix[day,2]-max_min[3])/(max_min[2]-max_min[3])
 5     in_3 = (fdata.ix[day,3]-max_min[5])/(max_min[4]-max_min[5])
 6     in_4 = (fdata.ix[day,4]-max_min[7])/(max_min[6]-max_min[7])
 7     in_5 = (fdata.ix[day,5]-max_min[9])/(max_min[8]-max_min[9])
 8     in_6 = (fdata.ix[day,6]-max_min[11])/(max_min[10]-max_min[11])
 9     in_7 = (fdata.ix[day,7]-max_min[13])/(max_min[12]-max_min[13])
10     return [in_1,in_2,in_3,in_4,in_5,in_6,in_7]

案例二:多分类-VGG的卷积神经互连网

import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

正式序贯网络,标签的教练情势 
注意: 
那边相当的重大的某个,对于笔者如此的新手,这一步的信守?

keras.utils.to_categorical

 

专门是多分类时候,小编前面认为输入的正是一列(100,),不过keras在多分类任务中是不认得这一个的,所以要求再增添这一步,让其转会为Keras认得的数量格式。

 

最后代码基于Keras==2.0

# -*- coding:utf-8 -*-


import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

样本 输出的归意气风发化与反归风流倜傥化:

案例三:使用LSTM的种类分类

具体的专门有链接来写:

.


def normalize_raise(volume):
    norm_value = (volume+0.3)/0.6
    if norm_value>1:
        norm_value = 1   #涨跌幅超过30%的都定义为 1或0
    elif norm_value<0:
        norm_value = 0
    return norm_value
def denormalize_raise(value):
    volume = value*0.6-0.3
    return volume

三、Model式模型

根源keras粤语文书档案: 
比序贯模型要复杂,但是意义很好,能够并且/分等第输入变量,分等级输出想要的模子; 
一句话,只要您的模子不是看似VGG同样一条路走到黑的模型,可能您的模子须要多于二个的出口,那么你总应该接受函数式模型。

不一样之处: 
挥洒结构完全不均等

         设置滑动窗口sample_window =
[],每趟遍历豆蔻梢头行特征数据,归风流倜傥化后插入窗口末尾,当窗口大亚岁50时,总计3天后上涨或下跌低的幅度,拼接出二个训练样板,并将sample_window中第贰个交易日的值弹出。

函数式模型基本性能与教练流程

诚如要求: 
1、model.layers,加多层音信;  
2、model.compile,模型操练的BP方式设置; 
3、model.fit,模型操练参数设置 + 演练; 
4、evaluate,模型评估; 
5、predict 模型预测

1 normalized_daily_sample = normalize_oneday(stockN_list_str[i],fin_temp,day)
2 # TODO 给样本插入该日数据
3 sample_window.append(normalized_daily_sample)   #存入一个样本list,特征数为7,全部归一化完毕
4 if len(sample_window)==window_len:  # 窗口大小满50
5     #TODO 需要对涨幅进行归一化 暂定 30% TODO
6     raise_3days = normalize_raise(float(fin_temp.ix[day+3,8])/float(fin_temp.ix[day,8])-1.0)
7     samples.append([sample_window,raise_3days])
8     sample_window = sample_window[1:]

1 常用Model属性

model.layers:组成模型图的各个层
model.inputs:模型的输入张量列表
model.outputs:模型的输出张量列表

 

遍历完全部数据行后,获得数百个练习样板。并将演习样品转存为numpy.array格式以造福演习。

2 compile 操练格局设置——solver.prototxt

compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None)

 

本函数编写翻译模型以供训练,参数有

optimizer:优化器,为预约义优化器名或优化器对象,参照他事他说加以侦查优化器 
loss:损失函数,为预订义损失函数名或一个目标函数,参照他事他说加以考察损失函数 
metrics:列表,包蕴评估模型在教练和测量试验时的性质的目的,标准用法是metrics=[‘accuracy’]要是要在多输出模型中为不相同的输出钦定分裂的指标,可像该参数字传送递三个字典,比如metrics={‘ouput_a’:
‘accuracy’} 
sample_weight_mode:假设您供给准时间步为样板赋权(2D权矩阵),将该值设为“temporal”。默感到“None”,代表按样板赋权(1D权)。 
万一模型有四个出口,可以向该参数字传送入钦命sample_weight_mode的字典或列表。在上面fit函数的解释中有连锁的参照他事他说加以考查剧情。

【Tips】假让你只是载入模型并应用其predict,能够不用进行compile。在Keras中,compile首要完结损失函数和优化器的局地布局,是为教练服务的。predict会在内部进行标识函数的编写翻译工作(通过调用_make_predict_function生成函数)

 注:跳点难题,具体分为除权(上涨或下跌低的幅度超越十分之一)与停盘(相邻交易日间距超越10天)。对于跳点难题,我们看清其是还是不是发生,大器晚成旦发生跳点,就清空sample_window,从下二个交易日重新在这里以前推测样本输入,以堵塞样板输入中有跳点数据。

3 fit 模型练习参数设置 + 锻练

fit(self, x=None, y=None, batch_size=32, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数用以操练模型,参数有:

  • x:输入数据。固然模型独有三个输入,那么x的种类是numpy 
    array,要是模型有四个输入,那么x的项目应当为list,list的因素是对应于各种输入的numpy 
    array。若是模型的每一个输入都有名字,则能够流传二个字典,将输入名与其输入数据对应起来。
  • y:标签,numpy array。假使模型有三个出口,能够流传一个numpy 
    array的list。假若模型的出口拥出名字,则足以流传一个字典,将输著名与其标签对应起来。
  • batch_size:整数,内定进行梯度下跌时种种batch包涵的样品数。练习时三个batch的样品会被计算三遍梯度下降,使指标函数优化一步。
  • nb_epoch:整数,操练的轮数,练习多中将会被遍历nb_epoch次。Keras中nb开始的变量均为”number
    of”的意思
  • verbose:日志显示,0为不在典型输出流输出日志消息,1为出口进程条记录,2为各类epoch输出大器晚成行记录
  • callbacks:list,当中的成分是keras.callbacks.Callback的靶子。那几个list中的回调函数将会在教练进度中的适当机遇被调用,参照他事他说加以考察回调函数
  • validation_split:0~1之间的浮点数,用来钦定操练集的确定比例数据作为验证集。验证集将不加入操练,并在每一种epoch截至后测量试验的模子的目标,如损失函数、精确度等。注意,validation_split的剪切在shuffle之后,由此风度翩翩旦你的数码作者是板上钉钉的,供给先手工业打乱再钦点validation_split,不然可能会鬼使神差验证集样品不均匀。
  • validation_data:形式为(X,y)或(X,y,sample_weights)的tuple,是点名的验证集。此参数将掩瞒validation_spilt。
  • shuffle:布尔值,表示是还是不是在操练进程中各样epoch前随意打乱输入样品的逐一。
  • class_weight:字典,将差别的花色映射为分歧的权值,该参数用来在教练进度中调治损失函数(只好用于演练)。该参数在管理非平衡的教练多少(有个别类的练习样板数少之又少)时,能够使得损失函数对样板数不足的数额更是关心。
  • sample_weight:权值的numpy 
    array,用于在教练时调解损失函数(仅用于练习)。能够传递一个1D的与范本等长的向量用于对样板进行1对1的加权,也许在濒临时序数据时,传递三个的款式为(samples,sequence_length)的矩阵来为每一种时间步上的样品赋分歧的权。这种意况下请明显在编写翻译模型时加多了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦定的epoch开首锻炼,在一而再在此之前的锻炼时有用。

输入数据与鲜明数额不相配时会抛出错误

fit函数再次来到五个History的指标,其History.history属性记录了损失函数和其他指标的数值随epoch变化的景况,假诺有验证集的话,也隐含了验证集的那一个指标变动意况

1 # 间隔日期大于10天,即day+3大于12天,判断为有停盘,不连续,或者涨跌幅异常(超过10.5%),不能作为训练样本序列, 
2 if int(diff/(24*3600))>12 or abs(raise_value)>10.5:  
3     sample_window = []

4.evaluate,模型评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch总计在好几输入数据上模型的基值误差,其参数有:

  • x:输入数据,与fit同样,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只好取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数再次回到八个测量试验相对误差的标量值(纵然模型未有别的评价目标),或叁个标量的list(假使模型还应该有其余的评论和介绍指标)。model.metrics_names将付诸list中相继值的含义。

假设未有例外表达,以下函数的参数均保持与fit的同名参数相仿的含义 
风流倜傥经未有极其表明,以下函数的verbose参数(假设有)均只可以取0或1

 

5.predict 模子预测

predict(self, x, batch_size=32, verbose=0)

 

本函数按batch获得输入数据对应的出口,其参数有:

函数的重临值是预测值的numpy array

三.搭建立模型型

模型检查 on_batch

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)

train_on_batch:本函数在一个batch的数码上进展贰回参数更新,函数重临练习抽样误差的标量值或标量值的list,与evaluate的事态一样。 

test_on_batch:本函数在二个batch的样品上对模型实行业评比估,函数的回到与evaluate的场馆同样; 
predict_on_batch:本函数在三个batch的样品上对模型进行测量检验,函数重回模型在一个batch上的预测结果

        
这里运用keras深度学习框架对模型实行高效搭建。建立Sequential模型,向当中加多LSTM层,设定Dropout为0.2,参预Dense层将其维度聚合为1,激活函数使用relu,损失函数定为交叉熵函数。从前也采纳过守旧的sigmoid作为激活函数,但经试验感觉作用不比relu。

_generator

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)
evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)

 

1 model = Sequential()
2 model.add(LSTM(128, input_shape=(window_len,7), return_sequences=False))  # TODO: input_shape=(timesteps ,data_dim)
3 model.add(Dropout(0.2))
4 model.add(Dense(1))
5 model.add(Activation('relu'))
6 model.compile(loss='binary_crossentropy',optimizer='rmsprop',metrics=['accuracy'])

案例生机勃勃:轻巧的单层-全连接网络

from keras.layers import Input, Dense
from keras.models import Model

# This returns a tensor
inputs = Input(shape=(784,))

# a layer instance is callable on a tensor, and returns a tensor
x = Dense(64, activation='relu')(inputs)
# 输入inputs,输出x
# (inputs)代表输入
x = Dense(64, activation='relu')(x)
# 输入x,输出x
predictions = Dense(10, activation='softmax')(x)
# 输入x,输出分类

# This creates a model that includes
# the Input layer and three Dense layers
model = Model(inputs=inputs, outputs=predictions)
model.compile(optimizer='rmsprop',
              loss='categorical_crossentropy',
              metrics=['accuracy'])
model.fit(data, labels)  # starts training

 

其中: 
能够看来结构与序贯模型完全不后生可畏致,当中x = Dense(64,
activation=’relu’)(inputs)中:(input)代表输入;x代表输出 
model = Model(inputs=inputs,
outputs=predictions);该句是函数式模型的经文,能够何况输入四个input,然后输出output八个模型

  模型搭建完成,使用早先拿到的数百个练习样品张开演习,并保留模型。

案例二:摄像拍卖

x = Input(shape=(784,))
# This works, and returns the 10-way softmax we defined above.
y = model(x)
# model里面存着权重,然后输入x,输出结果,用来作fine-tuning

# 分类->视频、实时处理
from keras.layers import TimeDistributed

# Input tensor for sequences of 20 timesteps,
# each containing a 784-dimensional vector
input_sequences = Input(shape=(20, 784))
# 20个时间间隔,输入784维度的数据

# This applies our previous model to every timestep in the input sequences.
# the output of the previous model was a 10-way softmax,
# so the output of the layer below will be a sequence of 20 vectors of size 10.
processed_sequences = TimeDistributed(model)(input_sequences)
# Model是已经训练好的

 

其中: 
Model是早就练习好的,以往用来做动员搬迁学习; 
内部还是能通过TimeDistributed来张开实时预测; 
TimeDistributed(model)(input_sequences),input_sequences代表连串输入;model代表已演习的模型

1 hist = model.fit(trainX,trainY,batch_size=1,epochs=50)
2 score = model.evaluate(trainX, trainY, batch_size=10)
3 if os.path.exists('./model/'+file_name[:-5]):
4     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date))  # HDF5 保存模型
5 else:
6     os.mkdir('./model/'+file_name[:-5])
7     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date)) 

案例三:双输入、双模型输出:LSTM 时序预测

本案例很好,能够理解到Model的精华在于他的自便性,给编写翻译者相当多的便利。

输入: 
情报语言材质;音信语料对应的时日 
输出: 
资源音讯语言材料的推断模型;音讯语言材质+对适当时候间的瞻望模型 
图片 6

 

模型黄金时代:只针对消息语言材质的LSTM模型

from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model

# Headline input: meant to receive sequences of 100 integers, between 1 and 10000.
# Note that we can name any layer by passing it a "name" argument.
main_input = Input(shape=(100,), dtype='int32', name='main_input')
# 一个100词的BOW序列

# This embedding layer will encode the input sequence
# into a sequence of dense 512-dimensional vectors.
x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
# Embedding层,把100维度再encode成512的句向量,10000指的是词典单词总数


# A LSTM will transform the vector sequence into a single vector,
# containing information about the entire sequence
lstm_out = LSTM(32)(x)
# ? 32什么意思?????????????????????

#然后,我们插入一个额外的损失,使得即使在主损失很高的情况下,LSTM和Embedding层也可以平滑的训练。

auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)
#再然后,我们将LSTM与额外的输入数据串联起来组成输入,送入模型中:
# 模型一:只针对以上的序列做的预测模型

 

四.功效体现

构成模型:音讯语言材质+时序

# 模型二:组合模型
auxiliary_input = Input(shape=(5,), name='aux_input')  # 新加入的一个Input,5维度
x = keras.layers.concatenate([lstm_out, auxiliary_input])   # 组合起来,对应起来


# We stack a deep densely-connected network on top
# 组合模型的形式
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
# And finally we add the main logistic regression layer
main_output = Dense(1, activation='sigmoid', name='main_output')(x)


#最后,我们定义整个2输入,2输出的模型:
model = Model(inputs=[main_input, auxiliary_input], outputs=[main_output, auxiliary_output])
#模型定义完毕,下一步编译模型。
#我们给额外的损失赋0.2的权重。我们可以通过关键字参数loss_weights或loss来为不同的输出设置不同的损失函数或权值。
#这两个参数均可为Python的列表或字典。这里我们给loss传递单个损失函数,这个损失函数会被应用于所有输出上。

 

其中:Model(inputs=[main_input, auxiliary_input],
outputs=[main_output, auxiliary_output])是核心, 
Input八个内容,outputs多个模型

# 训练方式一:两个模型一个loss
model.compile(optimizer='rmsprop', loss='binary_crossentropy',
              loss_weights=[1., 0.2])
#编译完成后,我们通过传递训练数据和目标值训练该模型:

model.fit([headline_data, additional_data], [labels, labels],
          epochs=50, batch_size=32)

# 训练方式二:两个模型,两个Loss
#因为我们输入和输出是被命名过的(在定义时传递了“name”参数),我们也可以用下面的方式编译和训练模型:
model.compile(optimizer='rmsprop',
              loss={'main_output': 'binary_crossentropy', 'aux_output': 'binary_crossentropy'},
              loss_weights={'main_output': 1., 'aux_output': 0.2})

# And trained it via:
model.fit({'main_input': headline_data, 'aux_input': additional_data},
          {'main_output': labels, 'aux_output': labels},
          epochs=50, batch_size=32)

 

因为输入三个,输出五个模型,所以能够分为设置分裂的模型练习参数

  最早的时候,笔者对全数的股票(stock)的练习样板聚积到联合,练习出贰个大模型(貌似这个时候有9万四个锻炼样板,整整编练习练了一天=,=),之后对各样期货都开展前瞻,企图搜索前些天大幅最高的前5支股票(stock)。后来意识平昔做不到……每支证券的操作原理都不等同,使用单个模型无法有效的握住个人股的起浮趋势。

案例四:分享层:对应涉及、相符性

三个节点,分成七个支行出去

import keras
from keras.layers import Input, LSTM, Dense
from keras.models import Model

tweet_a = Input(shape=(140, 256))
tweet_b = Input(shape=(140, 256))
#若要对不同的输入共享同一层,就初始化该层一次,然后多次调用它
# 140个单词,每个单词256维度,词向量
# 

# This layer can take as input a matrix
# and will return a vector of size 64
shared_lstm = LSTM(64)
# 返回一个64规模的向量

# When we reuse the same layer instance
# multiple times, the weights of the layer
# are also being reused
# (it is effectively *the same* layer)
encoded_a = shared_lstm(tweet_a)
encoded_b = shared_lstm(tweet_b)

# We can then concatenate the two vectors:
    # 连接两个结果
    # axis=-1?????
merged_vector = keras.layers.concatenate([encoded_a, encoded_b], axis=-1)

# And add a logistic regression on top
predictions = Dense(1, activation='sigmoid')(merged_vector)
# 其中的1 代表什么????

# We define a trainable model linking the
# tweet inputs to the predictions
model = Model(inputs=[tweet_a, tweet_b], outputs=predictions)

model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])
model.fit([data_a, data_b], labels, epochs=10)
# 训练模型,然后预测

 

  之后,笔者独立选了中黄炎子孙民共和国软件这一个证券(这一个票看起来像庄家主导的这种),对它独自开展分析。使用了一年半的交易数额作为练习集,共有2九十二个训练样板,练习1叁17个epoch。最终演练出模型对测量试验集中的63个测验样品进行验证。预测抽样误差如下图。

案例五:收取层节点内容

# 1、单节点
a = Input(shape=(140, 256))
lstm = LSTM(32)
encoded_a = lstm(a)
assert lstm.output == encoded_a
# 抽取获得encoded_a的输出张量

# 2、多节点
a = Input(shape=(140, 256))
b = Input(shape=(140, 256))

lstm = LSTM(32)
encoded_a = lstm(a)
encoded_b = lstm(b)

assert lstm.get_output_at(0) == encoded_a
assert lstm.get_output_at(1) == encoded_b

# 3、图像层节点
# 对于input_shape和output_shape也是一样,如果一个层只有一个节点,
#或所有的节点都有相同的输入或输出shape,
#那么input_shape和output_shape都是没有歧义的,并也只返回一个值。
#但是,例如你把一个相同的Conv2D应用于一个大小为(3,32,32)的数据,
#然后又将其应用于一个(3,64,64)的数据,那么此时该层就具有了多个输入和输出的shape,
#你就需要显式的指定节点的下标,来表明你想取的是哪个了
a = Input(shape=(3, 32, 32))
b = Input(shape=(3, 64, 64))

conv = Conv2D(16, (3, 3), padding='same')
conved_a = conv(a)

# Only one input so far, the following will work:
assert conv.input_shape == (None, 3, 32, 32)

conved_b = conv(b)
# now the `.input_shape` property wouldn't work, but this does:
assert conv.get_input_shape_at(0) == (None, 3, 32, 32)
assert conv.get_input_shape_at(1) == (None, 3, 64, 64)

 

 图片 7

案例六:视觉问答模型

#这个模型将自然语言的问题和图片分别映射为特征向量,
#将二者合并后训练一个logistic回归层,从一系列可能的回答中挑选一个。
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.layers import Input, LSTM, Embedding, Dense
from keras.models import Model, Sequential

# First, let's define a vision model using a Sequential model.
# This model will encode an image into a vector.
vision_model = Sequential()
vision_model.add(Conv2D(64, (3, 3) activation='relu', padding='same', input_shape=(3, 224, 224)))
vision_model.add(Conv2D(64, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(128, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(128, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Flatten())

# Now let's get a tensor with the output of our vision model:
image_input = Input(shape=(3, 224, 224))
encoded_image = vision_model(image_input)

# Next, let's define a language model to encode the question into a vector.
# Each question will be at most 100 word long,
# and we will index words as integers from 1 to 9999.
question_input = Input(shape=(100,), dtype='int32')
embedded_question = Embedding(input_dim=10000, output_dim=256, input_length=100)(question_input)
encoded_question = LSTM(256)(embedded_question)

# Let's concatenate the question vector and the image vector:
merged = keras.layers.concatenate([encoded_question, encoded_image])

# And let's train a logistic regression over 1000 words on top:
output = Dense(1000, activation='softmax')(merged)

# This is our final model:
vqa_model = Model(inputs=[image_input, question_input], outputs=output)

# The next stage would be training this model on actual data.

 

延伸意气风发:fine-tuning时怎样加载No_top的权重

假定您须求加载权重到差异的互连网布局(某个层同样)中,比如fine-tune或transfer-learning,你可以因此层名字来加载模型: 
model.load_weights(‘my_model_weights.h5’, by_name=True) 
例如:

万黄金时代原模型为:

    model = Sequential()
    model.add(Dense(2, input_dim=3, name="dense_1"))
    model.add(Dense(3, name="dense_2"))
    ...
    model.save_weights(fname)

# new model
model = Sequential()
model.add(Dense(2, input_dim=3, name="dense_1"))  # will be loaded
model.add(Dense(10, name="new_dense"))  # will not be loaded

# load weights from first model; will only affect the first layer, dense_1.
model.load_weights(fname, by_name=True)

内部前38个是训练聚集的样书,大家选拔其输入部分开展瞭望,开掘预测结果贴合拾壹分牢牢;后五16个是大家测量试验集的样书,我对其预测效果照旧比较满意的,狂降、狂升基本皆有估算到,除了第67到第73个点那一波猛跌预测的不佳。随后作者使用模型举行模拟交易,设定初阶成本七万元,在预测17日后会上升时选购,预测四日后会下降时卖出,均以收盘价为成交价,买入时扣除格外之2.5的回扣。收益曲线如下,灰色线条代表按模型进行贸易的入账,蓝紫线条代表直接有着期货(Futures)的受益。

图片 8

  能够见见,模型的估量效果还是不错的。特别是起先的20八个点,能够比较标准的避开一波回调下落。

  但笔者也知晓,对模型进行表明的样书数量依然太少,又过了二个月,在附加搜聚了十八个交易日的数码现在,作者又对该样品进行了测量试验。

前瞻绝对误差:

 图片 9

由上海体育地方能够看出,倒数十多少个交易日的这一波大开间,模型并未能够预测到。

低收入曲线:

 图片 10

  从上海教室能够看看,在鲜紫方框圈出来的地点,模型多次预测会有一波宽度,但紧跟着又随时预测股票价格要跌,对期货(Futures)进行了抛售,错失了这一遍大涨的时机;在紫灰方框圈出的地点,模型四遍在极端做出了规范的预计,精准抛售,躲过五回猛跌。

 

透过证券数量的认证,使用LSTM-奥迪Q5NN来对股票(stock)进行前瞻具有自然的势头,但功用不佳(尽管效果好的话笔者估量也不会享用到网络,自个儿闷声发大财啦,哈哈~~~)。

 

[1]R. Akita, A. Yoshihara, T. Matsubara and K. Uehara, “Deep learning
for stock prediction using numerical and textual information,” 2016
IEEE/ACIS 15th International Conference on Computer and Information
Science (ICIS)
, Okayama, 2016, pp. 1-6.     
()

admin

网站地图xml地图