实际分析投资专业人士
2021年11月26日

机器学习:解释或破产

“如果你不能解释它简单,你不明白。”

和如此复杂的机器学习(ML)。

毫升措施环境、社会和治理(ESG)风险,执行交易,还可以推动股票选择和投资组合构建,最强大的模型仍然黑匣子。

曼梯·里的加速膨胀整个投资行业创造了全新的担忧减少透明度和如何解释投资决策。坦率地说,“解释的ML算法。)公开公司不可接受水平的法律和监管的风险。”

说白了,这意味着如果你不能解释你的投资决策,你,你的公司,你的涉众都深陷困境。解释,或者更好的是,直接解释,因此至关重要。

订阅按钮

伟大的头脑在其他主要行业部署人工智能(AI)和机器学习摔跤这个挑战。它改变了一切对于那些在我们部门谁会支持计算机科学家在投资专业人士或试图把天真和开箱即用的ML应用到投资决策。

目前有两种类型的机器学习解决方案提供:

  1. 可说明的AI使用更少的复杂的毫升,可以直接读取和解释。
  2. 可辩解的AI(新品)采用复杂的ML和试图解释它。

新品可能未来的解决方案。但那是未来。目前和可预见的,基于量化投资和毫升20年的研究,我相信可解释性,你应该利用机器学习和人工智能。

让我来解释一下为什么。

金融的第二次技术革命

毫升将形成一个材料现代投资管理的未来的一部分。这是广泛共识。它承诺减少昂贵的前台员工,取代传统因素模型,杆巨大且不断增长的数据池,并最终实现资产所有者的目标更有针对性,定做。

缓慢的技术投资管理是一个古老的故事,然而,毫升也不例外。也就是说,直到最近。

环境、社会和治理的兴起在过去的18个月中,在巨大的数据池需要评估它一直关键力量涡轮增压过渡到毫升。

这些新技术和解决方案的需求超过了任何我目睹了过去十年或自最后一次重大技术革命在1990年代中期融资。

毫升的步伐军备竞赛是一个引起人们的关注。明显的吸收新self-minted专家令人担忧。这场革命可能吸取由计算机科学家而不是业务可能是最令人担忧的可能性。解释投资决策总是躺在硬盘业务的依据。

瓷砖对t形团队报告

可翻译的简洁?或可说明的复杂性?

可说明的人工智能,也称为符号人工智能(SAI),或“老式的AI,”起源于1960年代,但在人工智能研究的前沿。

可说明的AI系统往往是基于规则的,几乎像决策树。当然,在决策树可以帮助了解过去发生了什么,他们是可怕的预测工具和一般overfit数据。可说明的AI系统,然而,现在有了更强大的和复杂的规则学习过程。

这些规则应该被应用到数据。他们可以直接检查、审查和解释,就像本杰明•格雷厄姆和戴维•多德的投资规则。他们也许是简单的,但功能强大,如果规则学习已经做得很好,安全。

可辩解的AI,替代或新品,是完全不同的。新品试图找到一个解释黑箱模型,目的是不可能直接解释。黑匣子,输入和结果可以观察到,但是之间的过程是不透明的,只能猜测。

这是新品通常尝试:猜和测试黑盒的解释过程。它使用可视化展示不同的输入可能会影响结果。

新品仍处于早期和被证明是一个具有挑战性的学科。这是两个很好的理由推迟判断和解释的机器学习应用程序时。


解释或解释?

图像描述不同的人工智能应用程序

更常见的新品在金融领域应用之一是世鹏科技电子(夏普利添加剂的解释)。世鹏科技电子有它的起源在博弈论的美观价值。,最近由华盛顿大学的研究人员

下面的插图显示了世鹏科技电子选股模型的解释,结果只有几行Python代码。但这是一个解释,需要有自己的解释。

是个超级主意和开发毫升系统非常有用,但这需要一个勇敢点依赖它来解释贸易合规执行错误。


一个为你的合规执行?使用夏普利值解释神经网络

注意:这是世鹏科技电子解释随机森林模型设计选择高阿尔法宇宙股票在一个新兴市场股票。它使用过去的自由现金流,市场β,股本回报率和其他输入。解释了右侧的输入输出的影响。

无人机、核武器、癌症诊断。和选股?

医学研究人员和国防工业一直探索的问题比金融部门解释或者解释得更久。他们取得了强大的特定于应用程序的解决方案,但是还没有达到任何通用的结论。

美国国防高级研究计划局(DARPA)进行了思想领先的研究和可解释性特征作为成本,阻碍机器学习系统的力量。

下图说明了这个结论与各种毫升的方法。在这个分析,可判断的一种方法越多,越复杂,因此,准确的将会越少。这肯定是真的如果复杂性与精度有关,但节俭原则,一些重量级的该领域的研究人员却不敢苟同。这表明的右侧图可以更好的代表现实。


可解释性真的减少精度?

图表显示可翻译的和准确的人工智能应用程序之间的区别
注意:辛西娅·鲁丁州精度并不相关的可解释性(右)新品的支持者认为(左)。

复杂性管理者的偏见

“错误的二分法准确的黑盒和不太准确的透明模式已经走得太远。当数百名顶尖科学家和金融公司高管误导了这种二分法,想象世界其他地区可能被愚弄。”- - -辛西娅·鲁丁

假设烤成explainability阵营——复杂性是必要的——可能是真的在深度学习至关重要的应用程序,如预测蛋白质折叠为例。但它可能不是在其他应用程序中至关重要,选股。

一个在2018年可辩解的展示这个机器学习的挑战。这应该是一个黑盒的挑战神经网络,但是巨星人工智能研究员辛西娅·鲁丁和她的团队有不同的想法。他们提出了一个解释的——读:简单——机器学习模型。因为它不是神经网络,它不需要任何解释。已经解释。

也许鲁丁最惊人的评论是,“信任一个黑盒子模型不仅意味着你信任模型的方程,而且整个数据库,这是由。”

她应该很熟悉那些在行为金融学背景鲁丁承认另一个行为偏见:复杂性的偏见。我们倾向于找到比简单的复杂的更有吸引力。她的方法,在最近的解释WBS研讨会可与可辩解的人工智能是只使用黑盒模型提供一个基准,然后用类似的开发可说明的模型精度。

管理层推动人工智能的军备竞赛可能想停下来反思之前继续全面追求过度复杂性。

人工智能先锋投资管理

可说明的,可审计的股票选择的机器学习

虽然一些目标需求的复杂性,其他人遭受它。

选股就是这样一个例子。在“可判断的、透明的和可审计的机器学习。”大卫直到盖法,我现在可判断的AI,作为选股因子可伸缩的替代投资在股票投资管理。我们的应用程序学习简单,可判断的投资规则使用一个简单的非线性功率毫升的方法。

新奇的是,它是简单的,可说明的,可伸缩的,——我们相信能成功和投资远远超过因素。事实上,我们的应用程序几乎以及更复杂的黑盒方法,我们尝试了。

我们的应用程序的透明度意味着它是可审计的,可以沟通和理解利益相关者谁可能没有一个先进的计算机科学学位。新品不需要解释。它直接解释。

我们愿意公开这项研究由我们长期认为过度的股票选择的复杂性是不必要的。事实上,这种复杂性几乎肯定会危害选股。

可解释性机器学习中至关重要。另一种是一个复杂性所以圆形,每个解释都需要一个无限的解释解释。

在哪结束呢?

一个人类

到底是哪个?解释或者解释吗?激烈的辩论。数亿美元被花在研究机器学习支持激增最前卫的金融公司。

与任何尖端技术一样,错误的开始,吹起,和浪费的资本是不可避免的。但是现在和可预见的未来,解决方案是可翻译的人工智能。

考虑两个老生常谈:越复杂,越需要一个解释;更容易解释的问题,更需要一个解释。

广告瓷砖资产管理的人工智能

在未来,新品会更好建立和理解,并且更强大。现在,它正处于起步阶段,它要求一个投资经理太多暴露他们的公司和利益相关者的机会不可接受水平的法律和监管风险。

通用的新品目前并不提供一个简单的解释,俗话说:

“如果你不能解释它简单,你不明白。”

如果你喜欢这篇文章,别忘了订阅有事业心的投资者


所有文章作者的观点。因此,他们不应该被视为投资建议,也不代表CFA协会的观点表达的观点或作者的雇主。爱游戏安全吗

图片来源:©盖蒂图片社/ MR.Cole_Photographer


专业学习CFA协会会员爱游戏安全吗

爱游戏安全吗CFA协会成员有权自行决定和自我报告的专业学习(PL)的学分,包括内容有事业心的投资者。成员可以记录学分容易使用他们在线PL追踪

作者(年代)
丹份,博士,足协

丹份博士CFA,罗斯科投资策略主管和是一个人工智能(AI)的研究员。他有20年的量化投资经验。罗斯科之前,他是一个资深投资组合经理蒙德里安投资合作伙伴。1998年以前,份在许多投资银行工作,专门从事交易和风险模型的设计和开发。他有一个从城市人工智能和计算机科学博士学位,伦敦大学的理学学士(荣誉)从伦敦国王学院,是一个特许金融分析师,CFA英国协会的成员,是一个荣誉华威大学的研究员。

4思想“机器学习:解释或破产”

  1. 大卫Botbol 说:

    感谢这个消息灵通。
    我们可以说采用人工智能的缓慢步伐可能也是一个见证我们-金融专业学习至少一个教训“当天才失败”:“如果你不能解释它简单,你不理解它”?

    1. 丹份 说:

      大卫谢谢你的评论。我部分同意,但也一直…1)惯性的戏剧性的政权更迭对可用的投资信息,和技术处理(ML);2)害怕风格漂移,因为许多宽客(专门)复杂系基于线性因子的投资,一个从根本上不同的方法对大多数毫升。
      (另外,看到我们2021年11月JFDS纸上面链接更多的相对优势interpretable-AI vs因子基础投资。)

  2. 保罗OBrien 说:

    这一切都是有意义的,但给我留下一个问题:你是什么意思“解释”和“理解”?当然,人类可以”解释“为什么他们做了一个决定,但你不能确认他们给一个准确的解释。人类思维是最终的黑盒。你打算举行AI更高的标准比你人呢?

  3. 丹份 说:

    谢谢保罗。我可以一个不同的角度…

    acid测试,当事情出错,你的解释会满足你的利益相关者理解为什么?

    利益相关者的知识,你试图解释的复杂性,和你解释它的能力3关键参数。

    激增的数据我们已经看到在过去的10年,计算能力的革命,现在让我们画从中更深的推论(AI),意味着我们需要一些复杂性,但我的信息是,尽可能保持简单,想出更好的解释。你也可以更好的教育你的利益相关者(最后一个参数),但我收集CFA本月已经覆盖了!

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*



通过继续使用本网站,您同意使用cookie。更多的信息

cookie设置在这个网站上设置为“允许饼干”给你最好的浏览体验。如果您继续使用本网站而不改变cookie设置或点击下面的“接受”然后你同意这一点。

关闭