来源:CPDA数据分析师网 / 作者:数据君
应该将思想视为适应性工具箱,它已经发展了广泛的启发法或经验法则
这些本能使头脑能够最好地应对高度不确定的环境,其特征是不确定的问题和机会,规则宽松且易变的环境以及成功的定义不定,这描述了我们生活的真实世界,世界在计算上是棘手的,任何合理复杂的商业利益决策都无法通过任何可想象的信息量和处理能力来最终解决,用这种启发式的自适应工具箱来描述决策,这种工具箱通常比逻辑推理更快,更直接地得出结论。

意图和情绪在现实世界的决策中也很普遍,尽管它们通常被认为是问题而不是资产
这种解雇是一个真正的问题:它错过了意图在驾驶行为中引导思想和激情方面的重要作用,考虑一下决策者的意图,该决策者重视自己在企业整体上的进步,而不是在业务整体成功上的进步,即使双方使用相同的流程和信息,她的决定也可能与团队成员的决定大相径庭,从人力资源的角度来看,激情在高管甄选中被高度重视,被视为完成工作的能量和创新的源泉,然而当涉及到决策过程的建模时,积极和消极的情感因素都被排除在外。
行为科学正在从学术角度探讨其中的一些问题
似乎与人类应如何行为的经济和进化公理相矛盾:自私,肮脏和野蛮,事实证明完美地说明了当我们试图将完全理性的解释应用于人类行为和决策时出现的内在矛盾,道德和棘手的棘手话题很快出现在任何此类讨论中,事实上,当人们进行行动时,是因为他们愿意这样做,合理性当然仍然是有效的,有价值的,并且经常是必要的,但是在很长一段时间内,它一直被提倡排斥所有其他方法,正如人们所期望的,信息无疑有助于决策的理性选择。
在现实世界中的决策中,我们看到BI的一种更普遍的用法是基于直觉
政治上的需要或被其他人认为不可接受的其他基础来确认(并经常证明)已经做出的决策,将“理性鸿沟”和其他方面的思想声明为人类的弱点,现在提供了一个令人担忧的开放空间,可以提议将人们完全从决策循环中剔除,这在当前关于基于AI的算法决策的思考中尤其明显,从自动驾驶汽车到算法交易和医疗诊断,一种新兴的叙述是,使用算法将避免偏差,模式错误识别以及人类决策中固有的其他问题。
经常遗漏的一点是,预测分析,相关性等都是基于设计算法的人员所做的训练和运行时数据
统计模型以及实验假设而得出的,实际上这种方法只会将注意力集中在少数设计师的手中,从而放大了人类决策中固有的风险,抵押债务义务的隐含信任主要是因为其算法基础,问题在于,数据仓库/商业智能行业从一开始就一直缺少其体系结构的主要组成部分,我们一直在将目光从机器代码和十六进制数据转移到过程和信息上,确实尽管最近在Hadoop世界中看到了对低级思想的回归,但我们在信息领域和上下文的重要性方面取得了长足的进步,但是关于人员,在BI世界中,我们几乎没有关于人员如何个体和集体地做出决策的基本思想。
人们从问题或问题转移到分析和解决方案
内部和人员之间的内部和协作流程是什么?这些过程有什么投入?人们为每个决定带来什么背景?为什么决策与行动之间存在如此看似的鸿沟?我们需要一个决策者的体系结构。
网友评论