一招教你看懂纯债债基的真实投资策略 来源:宏观交易笔记 作者:前海木兰 又到一年一度的年终总结之时,各只基金的最终业绩榜单已经出炉,大家朋友圈开始纷纷被基金... 

又到一年一度的年终总结之时,各只基金的最终业绩榜单已经出炉,大家朋友圈开始纷纷被基金小伙伴们的各类打榜基金花式刷屏。面对这些一只只业绩亮瞎钛合金狗眼的债券基金,很多小伙伴估计与前海木兰之前一样迷惑:这些债基到底是怎么做到这么高收益的呢?到底是通过看准趋势抓住波段交易,还是适当进行了信用下沉呢?

那么今天前海木兰将以2019年定期开放式纯债债基为例,对基金季报、半年报进行数据挖掘,教你捕获打榜债基赚取超额收益的奥秘。

一、数据清洗

将研究样本锁定于银河证券基金研究中心《中国基金业绩评价报告》中细分类别“定期开放式纯债债券型基金(A类)”(即真正意义上的纯债基金,投资范围不包含可转债、可交换债、股票资产),截至2019年9月30日该样本的债券基金共有370只。

有以下两点需要提前说明:

1、选择定期开放式纯债债券型基金(A类)为例,主要是因为定开债基相对于开放式债基受流动性干扰的因素更小,基金管理人在负债相对稳定条件下的操作一般更能反应其的真实的投资思路,故以此作为各家基金投资策略“管中窥豹”之用可能更优。

2、当基金规模过小时,基金业绩往往会受单一资产贡献度、杠杆、赎回费等因素干扰,不能充分反应基金管理人对资金的整体把控能力和投资理念,故剔除年初至今每季度披露基金规模全部在3亿元以下的债券基金。

经过对年报、季报规模数据的筛选后,最终总共有205只债基入围有效样本。

二、数据分析

首先,我们在这205只入围定开债基中筛选出年度收益率前30强(即前15%分位数)的债基如下:

利用excel附带的WIND函数找到“基金利润表”,对每一只债基在20190630半年报中披露的“收入合计”、“利息收入”、“投资收益”以及“公允价值变动收益”分别摘出,你会发现“收入合计”=“利息收入”+“投资收益”+“公允价值变动收益”。

在此数据基础上,我们便可以计算每一项与“收入合计”的比值分别得到“利息收入占比”、“投资收益占比”以及“公允价值变动收益占比”如下:

这里需要对基金会计入账时用到的上述几个关键名词进行解释:

在今年整体震荡、信用严重分化的行情下,通过综合“公允价值变动收益”和“利息收入”两个要素的数据,其实比较容易推测出每一只基金的大致策略和资产持仓,大致有几个可遵循的规律:

1、“公允价值变动收益”负偏离越大往往说明该债基的交易所杠杆越高,也就意味着基金整体杠杆率越高;

2、“公允价值变动收益”正偏离越大意味着其以高于估值收益率买入的资产越多,以今年的信用环境,各位可以自行脑补哪一类资产今年上半年有机会大幅高于估值收益率买入;

3、“利息收入”正偏离越大意味着报告期内由票息贡献的收入就越高,当然这部分也与杠杆水平挂钩。

我们可以综合这些数据,大致得知每只债基的杠杆水平、票息水平,从而推测其持仓信用资质。一个最简单的逻辑就是,如果一只债基的杠杆很高,票息收入却较低,正常情况下可以推测出这只债基所持资产的信用等级较高。

以下是矩阵图:

三、数据挖掘

通过上述关键数据的抓取和理解,可以对TOP30债基榜单中的打榜债基分类如下:

1、信用研究进取派

指具备极强的信用研究能力,在全年信用风险事件频发的大环境下还能合理利用信用下沉赚取超额收益的债券基金,我们可以综合债基的绝对收益率,并在“公允价值变动收益”高、“利息收入”高(即低杠杆、高票息)的基金产品中找到这类债基:

对于此类债基的持仓情况,各位在此数据挖掘的基础上,建议再结合前期已披露的季报、年报前5大持仓结合推测实际信用情况。另外木兰在数据处理中发现有一只债基数据非常突兀,翻看其半年报发现有较高的“投资收益”浮亏,但另一项“公允价值变动收益”几乎刚好覆盖掉了前面的投资亏损。

2、信用研究保守派

指对信用下沉相对保守,持仓整体资质较高的债券基金,并在“公允价值变动收益”低、“利息收入”低(即高杠杆、低票息)的基金产品中找到这类债基:

3、波段交易派

基金利润表中“投资收益”是基金管理人卖出债券获得的损益,反映了基金管理人在债券市场的交易能力,当然这与不同封闭期下的导致的实际可用杠杆水平也有较大关系,以下是几只波段交易能力较强的债基:

我们可以看到几只定开期限较长的债基由于实际杠杆水平最高可长期达到200%的先天优势,在信用债相对走牛的行情下,产生的资本利得相对更高,这点可以从排名第一的大摩纯债可以非常明显地看出。

四、总结

以上是对2019年一批业绩优秀定开纯债基金的数据挖掘,在上述筛选基金思路下可以评选出适合各位金主的基金经理,从而跟踪该基金经理各类其他债券基金。结合当前的市场环境,木兰偏好中高信用等级、久期相对较短、具有较强交易能力的债券基金。

THE END
1.数据清洗的重要性与技巧:提升大数据分析的准确性和效率提升模型性能:在机器学习和数据分析领域,模型的性能在很大程度上依赖于输入数据的质量。数据清洗包括特征选择和特征工程,这些步骤可以帮助模型更好地识别数据中的模式,从而提高模型的预测能力。 节省时间和资源:在数据分析的早期阶段进行数据清洗可以避免在后续阶段进行昂贵的修正。自动化数据清洗流程可以进一步节省时间和资https://blog.csdn.net/Shaidou_Data/article/details/144110971
2.数据清洗总结数据清洗总结 转发数据清洗 数据清洗流程 1 缺失值清洗 1.1 确定缺失值范围 对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定策略,可用下图表示: image.png 1.2 去除不需要的字段 直接删掉,但是务必做好每一步的备份 1.3 填充缺失值(重要,复杂)https://www.jianshu.com/p/4eb95d04a62f
3.总结了pandas实现数据清洗的7种方式以下文章来源于python数据分析之禅,作者小dull鸟 python数据分析之禅. 点击领取pandas高清速查表,后台回复“速查表”获取 最近在做“对比excel,学习pandas系列”,前面发了一篇 很受读者喜爱,今天给大家介绍一下excel和pandas实现数据清洗的种方式 1.处理数据中的空值 https://mp.weixin.qq.com/s?__biz=MjM5NjIwOTQyMA==&mid=2651838178&idx=1&sn=ddda4f225aa4bbd9c38bda50cefc2eb6&chksm=bd17c0818a6049975b3ace3661850a7a73a8f5fdc7d6daafd1653eaaa8181acd071bfa2c3a0e&scene=27
4.感悟与反思┃“数据清洗工作”的总结与反思——席义博虽然数据清洗过程中报错不断,但大家的热情不减,那段时间每天晚上和大家一起处理数据,听大家反馈的问题,然后一起讨论解决,是我每天最期待的事儿,也是我度过最开心的时光,在实践与交流中,我相信大家一定都有各自的收获! 这次数据清洗的任务,其实带动了很大一批同学对于编程的兴趣与冲动,这是个很好的开端,是凝聚大家庭http://www.sxmu.edu.cn/bdcd/info/1097/1393.htm
5.大语言模型系列—预训练数据集及其清洗框架梳理中英文训练数据集。 整理文本清洗框架。 总结现有框架的优点、问题和初步解决方案。 二、预训练数据集 大规模的高质量语料是训练大语言模型的关键“养料”。这些语料提供了世界性的知识体系,能够提升语言模型的理解能力和生成质量,同时也能够支持多样化的应用场景。事实上,高质量的文本对于大语言模型的训练和能力表现https://www.51cto.com/article/778437.html
6.数据清洗随笔分类星涅爱别离数据清洗 随笔分类 -数据清洗 总结与梳理(含之前所涉及的代码和数据) 摘要:一些特别弄混的事: 总体的总结: 数据处理的步骤: 常用的函数 注意点阅读全文 posted @2020-02-06 21:36星涅爱别离阅读(143)评论(0)推荐(0)编辑 数据清洗之数据预处理 重复值 缺失值 异常值 数据离散化https://www.cnblogs.com/xingnie/category/1641806.html
7.玩转逻辑回归之金融评分卡模型消费金融风控联盟总结一下特征分箱的优势: 特征分箱可以有效处理特征中的缺失值和异常值。 特征分箱后,数据和模型会更稳定。 特征分箱可以简化逻辑回归模型,降低模型过拟合的风险,提高模型的泛化能力。 将所有特征统一变换为类别型变量。 分箱后变量才可以使用标准的评分卡格式,即对不同的分段进行评分。 https://www.shangyexinzhi.com/article/5177142.html
8.如何进行数据预处理和清洗?总结 数据预处理和清洗是机器学习和数据分析中非常重要的步骤。通过识别和纠正缺失值、异常值、重复值和错误数据等问题,可以提高数据质量并减 少后续分析的误差和偏差。数据预处理和清洗的流程包括数据收集和选择、数据清洗、数据转换、数据集成和数据规约。在进行数据预处理和清洗时,需要根据实际情况采取不同的处理方法https://www.cda.cn/bigdata/202680.html