推荐序:
符号主义,知识驱动,天然可解释。专家知识获取苦难。深度学习,本质不可解释,难以得到用户信任。
深度学习AI原理不可解释。网络缺乏鲁棒性;
语义的不可解释性。深度学习挖掘数据中变量之间的关联,因果、混淆和样本选择偏差。
通常找到的是“虚假”和“表面”的关联,而不是因果关系。降低信任程度。
贝叶斯方法可以用来描述不确定性,又可用直观、清晰的图形描述变量之间的直接作用关系,
刻画变量之间的条件独立性,从而学到可解释的、用户友好的特征。
因果模型聚焦于因果关系,能够给出更加稳定和可靠的解释。
结合知识驱动和数据驱动两种范式,从根本上解决可解释问题。
如何将知识与深度模型结合,或者导入因果关系,有待进一步深入。