可解释的深度TSK模糊系统综述

root 提交于 周五, 06/17/2022 - 10:21
深度神经网络在多个领域取得了突破性的成功,然而这些深度模型大多高度不透明。而在很多高风险领域,如医疗、金融和交通等,对模型的安全性、无偏性和透明度有着非常高的要求。因此,在实际中如何创建可解释的人工智能(Explainable artificial intelligence, XAI)已经成为了当前的研究热点。作为探索XAI的一个有力途径,模糊人工智能因其语义可解释性受到了越来越多的关注。其中将高可解释的Takagi-Sugeno-Kang(TSK)模糊系统和深度模型相结合,不仅可以避免单个TSK模糊系统遭受规则爆炸的影响,也可以在保持可解释性的前提下取得令人满意的测试泛化性能。本文以基于栈式泛化原理的可解释的深度TSK模糊系统为研究对象,分析其代表模型,总结其实际应用场景,最后剖析其所面临的挑战与机遇。

相关内容

发布日期 06/17/2022 - 10:21
发布日期 01/01/1970 - 08:00
发布日期 01/21/2024 - 12:12
发布日期 06/17/2022 - 10:21
发布日期 09/10/2023 - 22:37
发布日期 08/04/2020 - 19:02
发布日期 08/04/2020 - 01:35
发布日期 08/04/2020 - 01:35
发布日期 01/10/2022 - 19:32