- 14 次围观
深度神经网络在多个领域取得了突破性的成功,然而这些深度模型大多高度不透明。而在很多高风险领域,如医疗、金融和交通等,对模型的安全性、无偏性和透明度有着非常高的要求。因此,在实际中如何创建可解释的人工智能(Explainable artificial intelligence, XAI)已经成为了当前的研究热点。作为探索XAI的一个有力途径,模糊人工智能因其语义可解释性受到了越来越多的关注。其中将高可解释的Takagi-Sugeno-Kang(TSK)模糊系统和深度模型相结合,不仅可以避免单个TSK模糊系统遭受规则爆炸的影响,也可以在保持可解释性的前提下取得令人满意的测试泛化性能。本文以基于栈式泛化原理的可解释的深度TSK模糊系统为研究对象,分析其代表模型,总结其实际应用场景,最后剖析其所面临的挑战与机遇。
来源出处
相关内容
发布日期
06/17/2022 - 10:21
发布日期
06/17/2022 - 10:21
发布日期
06/08/2024 - 17:47
发布日期
06/17/2022 - 10:21
发布日期
07/12/2024 - 17:58
发布日期
01/01/1970 - 08:00
发布日期
06/17/2022 - 10:21
发布日期
09/21/2023 - 22:52
发布日期
01/21/2024 - 12:12
发布日期
06/17/2022 - 10:21
发布日期
09/10/2023 - 22:37
发布日期
08/04/2020 - 19:02
发布日期
01/10/2022 - 19:32
发布日期
03/19/2024 - 09:13
发布日期
07/23/2023 - 21:46
发布日期
08/04/2020 - 01:35
发布日期
08/04/2020 - 01:35
发布日期
01/10/2022 - 19:32
发布日期
03/19/2024 - 09:13
发布日期
08/04/2020 - 01:35