上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 19 下一页
摘要: 一、前言 最近在看极星9.3的说明书,这里就总结记录一下下单相关的知识。由于期货很多术语很奇怪,这里不按专业的说法来给下单的方式命名,而是以比较口语化的表述。 二、手动填单 手动填单就是最平平无奇的下单方式,手动输入合约编号、数量、价格,然后选择买卖。 1、锁定合约 上图中红色箭头可以“锁定合约”, 阅读全文
posted @ 2020-02-06 15:41 布兰姥爷 阅读(2122) 评论(0) 推荐(0) 编辑
摘要: 一、前言 陆续写了几篇关于极星量化的文章,但似乎并没有写清楚如何入门。这里就写一篇全备一点的入门教程,帮大家零基础入门,顺便就是记录点心得。 整个内容分为三个部分: 1、下载安装和简介 2、简单的界面操作 3、常用函数介绍 注:极星量化是基于python的,好歹会点编程才玩的转,不过现用现学也不是不 阅读全文
posted @ 2020-01-14 12:33 布兰姥爷 阅读(7216) 评论(0) 推荐(0) 编辑
摘要: 一、前言 所谓滚动止盈是我瞎起的名字,简单来说就这么个流程: 1)基于某个价格A下N手单,每单间隔M。比如AP001当前价格是7555,那我就连下十手买单,并且价格递减: 第一手价格:7555 第二手价格:7554 第三手价格:7553 第四手价格:7552 ... 第十手价格7546 2)当合约的 阅读全文
posted @ 2020-01-13 09:44 布兰姥爷 阅读(1924) 评论(2) 推荐(0) 编辑
摘要: 一、前言 近期开始了对量化的学习,这里只是对学习过程的记录,肯定有一些错漏的,还请大家指正。 这篇文从下载到基本使用,主要讲一些最基本的知识。然后大概说一下极星9.5整个量化的流程。 二、环境准备 1、客户端下载与安装 其实极星9.5量化这个名称不太准确,目前其原名应该叫“极智量化1.1.0”,只是 阅读全文
posted @ 2020-01-12 09:12 布兰姥爷 阅读(3507) 评论(1) 推荐(0) 编辑
摘要: 一、前言: 本人对期货其实不太懂,只是会写一点python,有一些错漏之处还请各位指正。 极星客户端默认自带了很多套利合约,比如JD2001-JD2005,还提供了K线图。对于自定义的套利,比如JD2001-JD2002,就只有闪电图。但是有时候我们又想分析下自定义套利的K线走势,做一些指标分析。利 阅读全文
posted @ 2020-01-12 08:34 布兰姥爷 阅读(2592) 评论(1) 推荐(0) 编辑
摘要: 一、前言 之所以叫粪谱生成器,是因为确实效果不咋样。花了不少时间不少钱最后效果很一般,很气愤。还是人工做的谱子好,不过你要是编谱的小白,然后又懂一点python那这个工具还是可以帮到你一丢丢吧。 实在没精力搞这个了,有兴趣的童鞋可以自己玩哈。 另外这里是预设你懂一点python的,完全不懂的话就进交 阅读全文
posted @ 2020-01-06 16:34 布兰姥爷 阅读(776) 评论(0) 推荐(0) 编辑
摘要: 一、序言 前面已经逐步从单神经元慢慢“爬”到了神经网络并把常见的优化都逐个解析了,再往前走就是一些实际应用问题,所以在开始实际应用之前还得把“框架”翻出来,因为后面要做的工作需要我们将精力集中在业务而不是网络本身,所以使用框架可以减少非常多的工作量,有了前面自己实现神经网络的经验,现在理解框架的一些 阅读全文
posted @ 2019-11-04 20:44 布兰姥爷 阅读(1133) 评论(0) 推荐(0) 编辑
摘要: 一、序言 Adam是神经网络优化的另一种方法,有点类似上一篇中的“动量梯度下降”,实际上是先提出了RMSprop(类似动量梯度下降的优化算法),而后结合RMSprop和动量梯度下降整出了Adam,所以这里我们先由动量梯度下降引申出RMSprop,最后再介绍Adam。不过,由于RMSprop、Adam 阅读全文
posted @ 2019-10-29 23:01 布兰姥爷 阅读(1118) 评论(0) 推荐(0) 编辑
摘要: 一、序言 动量梯度下降也是一种神经网络的优化方法,我们知道在梯度下降的过程中,虽然损失的整体趋势是越来越接近0,但过程往往是非常曲折的,如下图所示: 特别是在使用mini-batch后,由于单次参与训练的图片少了,这种“曲折”被放大了好几倍。前面我们介绍过L2和dropout,它们要解决的也是“曲折 阅读全文
posted @ 2019-10-29 11:01 布兰姥爷 阅读(1455) 评论(0) 推荐(0) 编辑
摘要: 一、前言 回顾一下前面讲过的两种解决过拟合的方法: 1)L0、L1、L2:在向前传播、反向传播后面加个小尾巴 2)dropout:训练时随机“删除”一部分神经元 本篇要介绍的优化方法叫mini-batch,它主要解决的问题是:实际应用时的训练数据往往都太大了,一次加载到电脑里可能内存不够,其次运行速 阅读全文
posted @ 2019-10-27 23:12 布兰姥爷 阅读(8240) 评论(0) 推荐(1) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 19 下一页