一招教你看懂纯债债基的真实投资策略 来源:宏观交易笔记 作者:前海木兰 又到一年一度的年终总结之时,各只基金的最终业绩榜单已经出炉,大家朋友圈开始纷纷被基金... 

又到一年一度的年终总结之时,各只基金的最终业绩榜单已经出炉,大家朋友圈开始纷纷被基金小伙伴们的各类打榜基金花式刷屏。面对这些一只只业绩亮瞎钛合金狗眼的债券基金,很多小伙伴估计与前海木兰之前一样迷惑:这些债基到底是怎么做到这么高收益的呢?到底是通过看准趋势抓住波段交易,还是适当进行了信用下沉呢?

那么今天前海木兰将以2019年定期开放式纯债债基为例,对基金季报、半年报进行数据挖掘,教你捕获打榜债基赚取超额收益的奥秘。

一、数据清洗

将研究样本锁定于银河证券基金研究中心《中国基金业绩评价报告》中细分类别“定期开放式纯债债券型基金(A类)”(即真正意义上的纯债基金,投资范围不包含可转债、可交换债、股票资产),截至2019年9月30日该样本的债券基金共有370只。

有以下两点需要提前说明:

1、选择定期开放式纯债债券型基金(A类)为例,主要是因为定开债基相对于开放式债基受流动性干扰的因素更小,基金管理人在负债相对稳定条件下的操作一般更能反应其的真实的投资思路,故以此作为各家基金投资策略“管中窥豹”之用可能更优。

2、当基金规模过小时,基金业绩往往会受单一资产贡献度、杠杆、赎回费等因素干扰,不能充分反应基金管理人对资金的整体把控能力和投资理念,故剔除年初至今每季度披露基金规模全部在3亿元以下的债券基金。

经过对年报、季报规模数据的筛选后,最终总共有205只债基入围有效样本。

二、数据分析

首先,我们在这205只入围定开债基中筛选出年度收益率前30强(即前15%分位数)的债基如下:

利用excel附带的WIND函数找到“基金利润表”,对每一只债基在20190630半年报中披露的“收入合计”、“利息收入”、“投资收益”以及“公允价值变动收益”分别摘出,你会发现“收入合计”=“利息收入”+“投资收益”+“公允价值变动收益”。

在此数据基础上,我们便可以计算每一项与“收入合计”的比值分别得到“利息收入占比”、“投资收益占比”以及“公允价值变动收益占比”如下:

这里需要对基金会计入账时用到的上述几个关键名词进行解释:

在今年整体震荡、信用严重分化的行情下,通过综合“公允价值变动收益”和“利息收入”两个要素的数据,其实比较容易推测出每一只基金的大致策略和资产持仓,大致有几个可遵循的规律:

1、“公允价值变动收益”负偏离越大往往说明该债基的交易所杠杆越高,也就意味着基金整体杠杆率越高;

2、“公允价值变动收益”正偏离越大意味着其以高于估值收益率买入的资产越多,以今年的信用环境,各位可以自行脑补哪一类资产今年上半年有机会大幅高于估值收益率买入;

3、“利息收入”正偏离越大意味着报告期内由票息贡献的收入就越高,当然这部分也与杠杆水平挂钩。

我们可以综合这些数据,大致得知每只债基的杠杆水平、票息水平,从而推测其持仓信用资质。一个最简单的逻辑就是,如果一只债基的杠杆很高,票息收入却较低,正常情况下可以推测出这只债基所持资产的信用等级较高。

以下是矩阵图:

三、数据挖掘

通过上述关键数据的抓取和理解,可以对TOP30债基榜单中的打榜债基分类如下:

1、信用研究进取派

指具备极强的信用研究能力,在全年信用风险事件频发的大环境下还能合理利用信用下沉赚取超额收益的债券基金,我们可以综合债基的绝对收益率,并在“公允价值变动收益”高、“利息收入”高(即低杠杆、高票息)的基金产品中找到这类债基:

对于此类债基的持仓情况,各位在此数据挖掘的基础上,建议再结合前期已披露的季报、年报前5大持仓结合推测实际信用情况。另外木兰在数据处理中发现有一只债基数据非常突兀,翻看其半年报发现有较高的“投资收益”浮亏,但另一项“公允价值变动收益”几乎刚好覆盖掉了前面的投资亏损。

2、信用研究保守派

指对信用下沉相对保守,持仓整体资质较高的债券基金,并在“公允价值变动收益”低、“利息收入”低(即高杠杆、低票息)的基金产品中找到这类债基:

3、波段交易派

基金利润表中“投资收益”是基金管理人卖出债券获得的损益,反映了基金管理人在债券市场的交易能力,当然这与不同封闭期下的导致的实际可用杠杆水平也有较大关系,以下是几只波段交易能力较强的债基:

我们可以看到几只定开期限较长的债基由于实际杠杆水平最高可长期达到200%的先天优势,在信用债相对走牛的行情下,产生的资本利得相对更高,这点可以从排名第一的大摩纯债可以非常明显地看出。

四、总结

以上是对2019年一批业绩优秀定开纯债基金的数据挖掘,在上述筛选基金思路下可以评选出适合各位金主的基金经理,从而跟踪该基金经理各类其他债券基金。结合当前的市场环境,木兰偏好中高信用等级、久期相对较短、具有较强交易能力的债券基金。

THE END
1.深度学习数据清洗的目的mob649e81673fa5的技术博客深度学习的成功依赖于高质量的数据。在深度学习之前,数据清洗是一个至关重要的步骤。本文将详细介绍数据清洗的目的,流程及实现步骤,帮助初学者更好地理解这一过程。 数据清洗目的 数据清洗的主要目的是去除噪声和不一致的数据,确保输入到深度学习模型中的数据是准确和高效的。具体包括: https://blog.51cto.com/u_16175512/12697067
2.数据分析中的数据清洗方法策略数据清洗策略csdn数据分析中的数据清洗方法策略 由于原始数据中或多或少存在一些缺失、损坏的脏数据。如果不处理会导致模型失效。就好比一个水平很高的厨师,给到的原材料如果不卫生不干净,那也很难做出一道让人满意的菜品。因此在整合数据建立模型之前, 应先评估数据的质量,对数据进行清洗。https://blog.csdn.net/qq_22201881/article/details/142056502
3.部署数据治理解决方案MicrosoftLearn使用Microsoft Purview 数据生命周期管理(以前为 Microsoft 信息治理)保留所需内容并删除不需要的内容。展开表 步骤说明更多信息 1 了解Microsoft 365 服务保留和删除工作原理。 了解如何使用保留策略和保留标签后,确定需要保留策略的工作负荷,以及是否需要为异常创建保留标签。 了解保留策略和保留标签 2 创建保留策略,https://docs.microsoft.com/microsoft-365/compliance/data-governance-solution
4.数据清洗范例6篇因此,如何制定和执行安全、高效的数据清洗策略,实现对图书馆大数据资源的检测、校验、修正、整合与分解,及时发现并纠正大数据中存在的错误、缺失、异常和可疑数据,确保图书馆大数据资源结构完整、正确和无重复,是关系图书馆大数据应用与决策安全、科学、高效、经济和可控的重要问题。https://www.baywatch.cn/haowen/155864.html
5.一文看懂风控模型所有(应该)银行信息5)样本设计和抽取策略 6)数据清洗 7)特征衍生 8)特征变量筛选 9)模型变量分箱 10)模型拟合 11)模型评估常用指标 12)模型预测概率校准 13)模型违约概率误差校准 五.评分模型如何应用于决策 六.技术的升华之路 01 风控模型概要 在社会数据厚度和纬度不断增加的当下,大数据与金融服务的跨界结合越加紧密,互联网技术http://www.sinotf.com/GB/SME/Bankinfo/2020-05-07/2OMDAwMDM0MzE2OA.html
6.大数据分析对企业营销有哪些帮助二、优化营销策略; 三、提升用户体验。近年来,随着互联网的发展和数字化时代的到来,大数据分析已经成为企业发展和竞争的重要手段。 一、提高营销效率 传统的营销方法往往是基于经验和直觉,缺乏科学的依据。而大数据分析可以对海量的数据进行采集、整理、分析和挖掘,从而为企业提供科学的数据支持,更好地理解目标客户,决https://www.linkflowtech.com/news/2697
7.历史数据内容清洗解决方案用户存量数据清洗内容过滤引擎无法快速清洗 针对需要在指定时间节点集中处理的海量历史数据,无法在预期时间达到全量快速清洗目标 缺乏布控经验 政策解读不系统,对策略布控经验不足,无法精准从海量数据中清洗出问题数据,达不到内容过滤目的 没有定期回溯过滤 内容安全意识相对薄弱,对存量历史数据没有定期过滤,内容安全风险似隐形炸弹,随时可能爆发 方案https://m.dun.163.com/solution/history-data
8.如何进行数据清洗和预处理?数据清洗和预处理是数据分析和机器学习任务中不可或缺的步骤。通过适当的处理,可以提高数据的质量和可用性,并为后续分析和建模奠定基础。在进行数据清洗和预处理时,需要理解数据、制定处理策略、保留备份和总结经验等,才能取得更好的效果。 CDA数据分析师考试相关入口一览(建议收藏): https://www.cda.cn/bigdata/202679.html
9.数据清洗的方法包括哪些?数据清洗常见六大问题及处理方法!处理缺失值非常重要,因为缺失值会影响数据的分析和决策。因此,正确选择填充或删除策略是很必要的,同时也可以根据具体情况使用不同的统计方法或数据工具进行数据清洗。具体处理方法如下: 1.计算缺失比例 首先,我们可以计算每个字段的缺失值比例,然后根据比例和字段的重要性设置不同的策略。 https://www.fanruan.com/bw/sjqxcjldwt
10.如何对数据进行清洗以下是对数据进行清洗的一般步骤和方法: 数据探索与评估: 在开始清洗之前,先对数据进行初步的探索,了解数据的整体情况,包括数据的类型、范围、缺失值、异常值等。 缺失值处理: 识别数据中的缺失值,并根据情况采取不同的处理策略,如删除含有缺失值的记录、使用均值、中位数或众数填充缺失值,或使用更复杂的预测模型来https://www.ai-indeed.com/encyclopedia/9102.html
11.Stata数据处理:清洗CFPS数据库我们再在 Result_data 中新建 4 个文件夹: Dofiles 、 Logfiles 、 Temp_data 和 Working_data ,存放数据清洗的 do 文档、 log 文档、产生的过程数据和最终的结果数据。这么复杂的起手式是为了帮助我们在后续清洗过程中理清自己的思路,不至于手忙脚乱,这在处理繁复的数据中尤为重要。https://www.lianxh.cn/news/2916ae8363459.html