本文为旧版实现,仅供学习参考。
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU(新版开发环境下的模版目录)
\
RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。
但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。
而Tr
更新时间:2024-09-04 01:21
transformer等深度学习中序列窗口滚动模块具体的功能是什么,为什么要把数据做这个处理,能否用numpy的源码写一个函数?
https://www.bilibili.com/video/BV1i44y1q7As?p=4&share_source=copy_web
2021年7月8日Meetup策略模板:
[https://bigquant.com/experimentshare/6235b7c
更新时间:2024-06-07 10:55
\
更新时间:2023-10-09 07:35
我用torch.save会报错,
直接DataSource.write_pickle(model),会提示
<trackeback: AttributeError: Can't pickle local object 'get_cosine_schedule_with_warmup.<locals>.lr_lambda'>
已经解决了,model.schedulers = None就可以保存了
更新时间:2023-10-09 07:33
1.从论坛拷过去的
transformer代码,不会自己调用GPU
2.在fai平台跑的时候,会报类加载不了
代码地址:https://bigquant.com/wiki/doc/moxing-zhineng-celve-Aq5HupQJrB
更新时间:2023-10-09 03:47
拷贝的训练营的策略,之前可以跑,现在跑不了了。
策略链接:
https://bigquant.com/wiki/doc/-zCgXuhm72a
报错提示:
--> 351 m33 = M.cached.v3( 352 input_1=m2.data, 353 input_2=m32.data,
<ipython-input-2-a70fc4bd659b> in m33_run_bigquant_run(input_1, input_2, input_3) 16 from bigmodels.models.transformer import Tran
更新时间:2023-10-09 03:32
如题,训练一次Transformer模型很不容易,训练完成以后如何固化呢?用固化深度模型的方法没办法存储。
提示如下:
ValueError Traceback (most recent call last) <ipython-input-17-6cbf37e6754a> in <module> 1 print(m4.data) 2 ds = m4.data ----> 3 pd.DataFrame([DataSource(ds.id).read()]).to_pickle('/
更新时间:2023-06-01 02:13
\
Google在2017年发布了Transformer,截止2022年5月,《Attention is all you need》论文的引用量已经超过了4万,可以说是近5年最热门的论文。
Transformer最初发布是用于时序任务和NLP任务,在近年来也有不少Transformer在CV应用比较出色的研究,我们有理由相信Transformer也可以应用于量化投资领域。
Transformer的基本思想可以从平台之前发布的文章中看到,本文就不再进行重述。
<https://bigquant.com/wiki/doc/moxing-z
更新时间:2023-03-16 11:59
RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。
但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。
而Transformer的核心,注意力机制(Attention)允许对输入输出序列的依赖项进行建模,而无需考虑它们在序列中的距离,这样对上面两个RNN中比较突出的问题就有了一个比较好的解决办法。本文将
更新时间:2022-11-03 08:33
Transformer:Attention is all you need
paper: https://arxiv.org/abs/1706.03762
The naive transformer implemented here for financial time series prediction follows the paper "Attention is all you need": Given the input (N, T, F)
更新时间:2022-09-15 13:09
原研报标题:Transformer: Attention is all you need
发布时间:2017年
作者:Ashish Vaswani、 Noam Shazeer、 Niki Parma 、Jakob Uszkoreit、 Llion Jones 、Aidan N. Gomez、 Łukasz Kaiser
主流的序列转换模型都是基于复杂的循环神经网络或卷积神经网络,且都包含一个enc
更新时间:2021-11-30 03:07
原标题:Hierarchical Multi-Scale Gaussian Transformer for Stock Movement Prediction
时间:2020年
作者:
由于金融市场的不确定性,预测股票等金融证券的价格走势是一项重要而具有挑战性的任务。本文提出了一种新的基于Transformer的股票移动预测方法。此外,我们还对提出的基本Transformer进行了一些增强。首先,提出了一种多尺度高斯先验增强Transformer局部性的方法。其次,我们提出了一种正交正则化方法,以避免在多头自注意机制中学习多余头。然后,我们设计了一个用于Transfo
更新时间:2021-11-02 07:03
作者:Jintao Liu1∗ , Xikai Liu1∗ , Hongfei Lin1† , Bo Xu1,2 , Yuqi Ren1 , Yufeng Diao1,3 , Liang Yang1 1
时间:2020年
原文标题:Transformer-Based Capsule Network For Stock Movements Prediction
股票走势预测对于研究和行业来说都是一项极具挑战性的研究。利用社交媒体预测股市走势是一项有效但困难的任务。然而,现有的基于社交媒体的预测方法往往没有考虑到特定股票的丰富语义和关联。这就导致了有效编码的困难。为了解决这一问题
更新时间:2021-11-02 03:42
RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。
但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。
而Transformer的核心,注意力机制(Attention)允许对输入输出序列的依赖项进行建模,而无需考虑它们在序列中的距离,这样对上面两个RNN中比较突出的问题就有了一个比较好的解决办法。本文将
更新时间:2021-07-03 14:26