股票学习网

股票学习网_股票入门基础知识_炒股入门知识 - - 股票学习网!

虚拟炒股软件app_虚拟炒股软件学习

2024-01-02 04:49分类:基本分析 阅读:

通过炒股实现财富自由

是很多人的梦想

近日

扬州就有一位小伙小蒋

下载了一款“炒股神器”

指望着稳赚不赔

结果却是血本无归

小蒋接触股票已经有两年多

但总抓不住行情

前不久

他刷短视频时

发现一款“炒股神器”

毫不犹豫下了单

接着客服让他下载了“甬兴证券”App

安装“炒股神器”之后注册登录

随后小蒋向账户转入2万元

跟着客服操作

买了一只“牛”股,涨停了

小蒋试着提现100元

结果秒到账

紧接着客服称

买涨停只是小打小闹

要想赚大钱,得打新股

他们有独家渠道

接连中了两只新股后

小蒋按对方要求

又缴纳了十几万申购资金

新股上市后

套现需要等待一段时间

这时客服又向他推荐了一只新股

这次“打新”要三十万

听说小蒋资金不多

客服劝他网贷搏一把

这引起了小蒋的警觉

他便打电话向甬兴证券官方求证

却得知没有注册信息

这才发现上当受骗

如今电诈分子非常狡猾,并且呈现专业化,他们往往通过自媒体平台发布短视频寻找“猎物”,然后实施精准诈骗,而所谓的炒股神器其实是定制的虚假软件。

除了利用炒股软件诈骗,诈骗分子还冒充投资大师,以炒虚拟货币、投资原始股等为由行骗,此类案件占诈骗案件近三成,涉案金额也非常高,受害人为了利益往往倾其所有,甚至背负网贷,损失惨重,广大市民投资前务必擦亮眼睛。
 

来源:扬州警方

 

项目地址:
https://github.com/wangshub/RL-Stock

初衷

最近一段时间,受到新冠疫情的影响,股市接连下跌,作为一棵小白菜兼小韭菜,竟然产生了抄底的大胆想法,拿出仅存的一点私房钱梭哈了一把。

第二天,暴跌,俺加仓

第三天,又跌,俺加仓

第三天,又跌,俺又加仓...

一番错误操作后,结果惨不忍睹,第一次买股票就被股市一段暴打,受到了媳妇无情的嘲讽。痛定思痛,俺决定换一个思路:如何用深度强化学习来自动模拟炒股? 实验验证一下能否获得收益。

监督学习与强化学习的区别

监督学习(如 LSTM)可以根据各种历史数据来预测未来的股票的价格,判断股票是涨还是跌,帮助人做决策。

而强化学习是机器学习的另一个分支,在决策的时候采取合适的行动 (Action) 使最后的奖励最大化。与监督学习预测未来的数值不同,强化学习根据输入的状态(如当日开盘价、收盘价等),输出系列动作(例如:买进、持有、卖出),使得最后的收益最大化,实现自动交易。

OpenAI Gym 股票交易环境

观测 Observation

策略网络观测的就是一只股票的各项参数,比如开盘价、收盘价、成交数量等。部分数值会是一个很大的数值,比如成交金额或者成交量,有可能百万、千万乃至更大,为了训练时网络收敛,观测的状态数据输入时,必须要进行归一化,变换到 [-1, 1] 的区间内。

动作 Action

假设交易共有买入、卖出和保持 3 种操作,定义动作(action)为长度为 2 的数组

action[0] 为操作类型;

action[1] 表示买入或卖出百分比;

注意,当动作类型 action[0] = 3 时,表示不买也不抛售股票,此时 action[1] 的值无实际意义,网络在训练过程中,Agent 会慢慢学习到这一信息。

奖励 Reward

奖励函数的设计,对强化学习的目标至关重要。在股票交易的环境下,最应该关心的就是当前的盈利情况,故用当前的利润作为奖励函数。即当前本金 + 股票价值 - 初始本金 = 利润。

# profits reward = self.net_worth - INITIAL_ACCOUNT_BALANCE reward = 1 if reward > 0 else reward = -100

为了使网络更快学习到盈利的策略,当利润为负值时,给予网络一个较大的惩罚 (-100)。

策略梯度

因为动作输出的数值是连续,因此使用基于策略梯度的优化算法,其中比较知名的是 PPO 算法,OpenAI 和许多文献已把 PPO 作为强化学习研究中首选的算法。PPO 优化算法 Python 实现参考 stable-baselines。

环境安装

# 虚拟环境

virtualenv -p python3.6 venv source ./venv/bin/activate # 安装库依赖 pip install -r requirements.txt

股票数据获取

股票证券数据集来自于 baostock,一个免费、开源的证券数据平台,提供 Python API。

>> pip install baostock -i https://pypi.tuna.tsinghua.edu.cn/simple/ --trusted-host pypi.tuna.tsinghua.edu.cn

数据获取代码参考 get_stock_data.py

>> python get_stock_data.py

将过去 20 多年的股票数据划分为训练集,和末尾 1 个月数据作为测试集,来验证强化学习策略的有效性。划分如下

验证结果

单只股票

    模拟实验
  • 初始本金 10000

    股票代码:sh.600036(招商银行)

    训练集: stockdata/train/sh.600036.招商银行.csv

    测试集: stockdata/test/sh.600036.招商银行.csv

    模拟操作 20 天,最终盈利约 400

    多只股票

    • 选取 1002 只股票,进行训练,共计

      盈利: 44.5%

      不亏不赚: 46.5%

      亏损:9.0%

      股票 Gym 环境主要参考 Stock-Trading-Environment,对观测状态、奖励函数和训练集做了修改。

      俺完全是股票没入门的新手,难免存在错误,欢迎指正!

      数据和方法皆来源于网络,无法保证有效性,Just For Fun!

      books 参考资料

        最后
      • Y. Deng, F. Bao, Y. Kong, Z. Ren and Q. Dai, "Deep Direct Reinforcement Learning for Financial Signal Representation and Trading," in IEEE Transactions on Neural Networks and Learning Systems, vol. 28, no. 3, pp. 653-664, March 2017.

        Yuqin Dai, Chris Wang, Iris Wang, Yilun Xu, "Reinforcement Learning for FX trading"(http://stanford.edu/class/msande448/2019/Final_reports/gr2.pdf)

        Chien Yi Huang. Financial trading as a game: A deep reinforcement learning approach. arXiv preprint arXiv:1807.02787, 2018.

        Create custom gym environments from scratch — A stock market example(https://towardsdatascience.com/creating-a-custom-openai-gym-environment-for-stock-trading-be532be3910e)

        notadamking/Stock-Trading-Environment(https://github.com/notadamking/Stock-Trading-Environment)

        Welcome to Stable Baselines docs! - RL Baselines Made Easy(https://stable-baselines.readthedocs.io/en/master)

https://www.haobaiyou.com

上一篇:易经炒股骗局跟易经炒股的书籍

下一篇:三维网技术论坛以及电线电缆技术论坛

相关推荐

返回顶部