## 目录结构 ``` . ├── assets │   └── ddb_dump_journal.csv ├── dolphindb │   └── project │   ├── modules │   └── scripts ├── ipynb │   ├── ddb.ipynb │   ├── ddb_pe.ipynb │   ├── ddb_pit.ipynb │   ├── dos.ipynb │   └── mssql.ipynb ├── README.md └── src ├── DDBBase.py ├── expr │   └── DDBExpression.py ├── factor │   └── DDBFactor.py ├── __init__.py ├── loader │   ├── DDBBasicInfoLoader.py │   ├── DDBDailyLoader.py │   ├── DDBHFTLoader.py │   ├── DDBLoader.py │   ├── DDBPITLoader.py │   ├── make_hft.py │   └── ProtoBuffEntitys ├── ReadTickFromDB.py ├── run.py └── script.py ``` ## 目录说明 - `assets` - 程序运行过程中产生、或者依赖的配置数据 - `ddb_dump_jounral.csv`记录海通高频数据写入DolphinDB的日志(类似log) - `dolphindb` - DolphinDB的客户端Workspace,主要用来放置dos文件 - 目录结构是DolphinDB的官方Java客户端设定的,因此略显臃肿 - `ipynb` - jupyter notebook的存放目录 - 包含开发DolphinDB相关功能的草稿和SQL-Server相关功能的草稿 - `src` - Python源代码目录,是工作的主要目录 - 大部分源码文件以`DDB`开头,表示与DolphinDB相关,继承和代码复用关系可以进一步优化 - `DDBBase.py`: - `DDB*`的基类,包含了一些常用常量 - `run.py`: - 用于执行具体操作任务的入口脚本 - TODO:需要支持命令行参数来选择执行功能和配套参数 - `loader`目录:代码专门用于向DolphinDB写入数据(似乎称为Dumper更合适),目前包括: - `DDBLoader.py`:其他Loader类的基础类 - `DDBHFTLoader.py`:用以导入高频数据(海通高频数据) - `DDBDailyLoader.py`:用以导入日频数据(市场日K线数据) - `DDBPITLoader.py`:用以导入低频PIT数据,主要是财报数据 - `loader/ProtoBuffEntitys`目录: - 用以解析海通高频数据中,protobuf字节流的Python辅助代码 - `factor`目录:用于生成因子 - `DDBFactor.py`:目前只有生成日频因子 - `expr`目录:用于支持基于DDB的各种表达式操作 - `DDBExpression.py`:提供了基本的操作表达式,目前包括: - 通过Function View,读取DolphinDB的分布式存储表: - 在任意时间点上,获取所有公司某张财报、指定财报期的最新可见快照 - 在任意时间点上,获取所有公司某张财报中某科目、指定财报期的最新可见快照 - 通过一般Function,对内存表进行操作: - 流量表累计数值转单季值 - 跨年同比指标计算(分母为去年基数取绝对值,函数会同时返回当年值和去年基数,以便进一步调整) ## 一分钟K线数据校验 ### 海通数据vs 旭诺MongoDB数据质量对比 MongoDB的数据问题比较严重,主要有以下几个大问题: 1. MongoDB的日内分钟数据加上了9:25集合竞价的数据,同时剔除了14:57-14:59尾盘集合竞价的数据,所以MongoDB的标准日内分钟是239分钟,但实际上日内分钟不同股票、不同交易日内都有不同程度的分钟丢失,导致股票日内记录数通常小于239,集中在开盘前几分钟(这个问题比较严重,开盘往往对因子计算影响较大),尾盘收盘时刻和日内离散的时刻,采样结果显示,20220121当天4609个股票,仅99只股票有15:00收盘时刻的数据; 2. 早年的数据,甚至有整个交易日所有股票无数据的情况,例如2018、2019年,近年来少一些; 3. 有些股票的时间序列上有部分字段的数据缺失,例如只有开盘和收盘价,没有最高最低,或者有价格数据但无成交数据。 ### 海通分钟数据和旭诺MongoDB映射表 | 海通字段 | MongoDB字段 | 映射规则(旭诺→海通) | | -------------- | ---------- | ------------ | | m\_nDate | nActionDay | Int型→date型 | | m\_nTime | nTime | Int型→time型 | | m\_nOpen | nOpen | nOpen/10000 | | m\_nHigh | nHigh | nHigh/10000 | | m\_nLow | nLow | nLow/10000 | | m\_nClose | nClose | nClose/10000 | | code | szXnCode | copy | | m\_iVolume | iVolume | copy | | m\_iTurover | iTurnover | copy | | m\_nMatchItems | | | 另外还要注意以下几点: 1. 海通数据是前置的,旭诺数据是后置的,即前者14:56的数据反映的是14:56-14:57的成交情况,后者反映的是14:55-14:56的成交情况,所以在映射时要错位映射。 2. 1的逻辑也导致了海通数据没有11:30和15:00两个时间戳,而旭诺数据有,且旭诺数据将14:56-15:00的数据都包括在了15:00这个时间戳内。不过旭诺数据依然有9:30的时间戳,反映开盘行情。 ### 海通数据vs天软数据 以天软数据为基准,海通数据主要有三点问题: 1. 历史上一大段时间缺失了001872 001914 689009三只股票,其中 - 001872在20181226之前无数据,因为20181226更换了股票代码,之前的股票代码为000022; - 001914在20191216之前无数据,因为20191216更换了股票代码,之前的股票代码为000043; - 689009在20210402-20210528期间无数据,股票这期间并未更换股票代码或停牌等其他重大事件 - 对于前两种情况,海通的处理逻辑是,变更前和变更后的代码分开记录变更前后的数据,而天软的处理逻辑是,保留变更前的记录,同时copy一份到变更后,并用变更后的股票代码继续记录变更后的数据,所以导致变更之前的时间戳上天软有变更后代码的数据,但海通没有。对于第三种情况,则属于__数据缺失__。 2. 海通数据多了很多停牌、未上市或者已退市,但并未做剔除处理的数据,最多的时候单日多出来190只股票。这些未剔除的数据都是当天停牌的,显示为高开低收全天一样,且成交量、成交额、成交笔数全为0(唯一例外是20151123的600568.SH在9:30有成交数据,但当天实际上是停牌的)。由于海通对于停牌等情况的基本处理逻辑是剔除当天行情,整个行情理论上不包含停牌期的时间戳和数据,且在天软里面也完全没有退市、停牌、未上市期间的行情数据,所以这些多出来的股票数据属于__异常__。 3. 海通的数据相比于天软,剔除了北交所的股票,但多出来了510300.SH, 510050.SH, 510500.SH, 159915.SZ, 159949.SZ 5个etf。 - 不过目前这三个问题影响不算很大,对于(1),可以在后续处理时将两个股票代码的行情进行拼接,并统一用变更后代码赋值code列,即可保证和天软数据一致;对于(2),由于天软daily是准确的,可以通过天软daily数据进行过滤,或者对日内vol求和进行判断,和为0的属于异常点,计算因子时不予考虑;对于(3),在数据处理时加上股票代码的正则表达式过滤。 ## Appendix: 海通高频数据录入说明: - Python语言从数据库中读取字节流程序并解码还原示例程序在ReadTickFromDB.py中。 - 该函数需要pymssql、gzip、google.protobuf(可用pip install protobuf安装)三个外部依赖库需要在运行程序。 - 成功读取后,每个标的会读出并解析成一个结构体数组的数据结构,可以对于该数据进行进一步操作。