当前位置: > 财经>正文

专家观点梁正教授:从可解释AI到可理解AI 外汇理财的风险有哪些方面表现呢图片解释

2023-08-12 07:30:14 互联网 未知 财经

专家观点梁正教授:从可解释AI到可理解AI

2023年8月15日,清华大学人工智能国际治理研究院副院长梁正教授出席《未来论坛 AI伦理与治理系列第4期——AI决策的可靠性和可解释性》。本次论坛旨在从不同的角度阐明公众、政策法规和AI技术从业者对AI可靠性的理解和需求,分享AI的可解释性、稳定性和鲁棒性、可回溯可验证等方面的技术研究和解决方案,共同探讨实现可解释和可靠AI的可行路径。梁正教授在论坛上发表了题为《从可解释AI到可理解AI:基于算法治理的视角》的报告。

梁正教授指出可靠的AI应该具备四大要素:安全、公平、透明、隐私保护。因此,“可信任”和“可解释”是正向相关关系,尤其对用户和公众而言,实现算法可解释是确保可靠和信任的重要一环。其次,“负责任的人工智能”有两个基石,即从技术角度去解决其因果机制的构建问题和从制度角度赋予个人和主体可解释的权利。此外,他还指出,和欧美国家相比,我国算法治理相关的规则目前比较分散,缺乏实施的细则和操作指引;在算法治理上,统一协调负责的监管机构还不明确。而未来算法治理要发展的两大方向也已比较明确,即可问责性和可解释性。现将梁正教授主题报告的主要内容推出,以飨读者。

在本次主题报告中,梁正教授从四个方面探讨了人工智能治理,对“可解释性AI”的理解与认识,“可信任”和“可解释”之间的关系,为什么我们需要关注可解释性问题,关于这一问题的当前实践和经验又有哪些,我国是如何探索算法治理路径的,以及未来我们可以如何设计算法治理路径。

一、为什么关注AI可解释性问题

为什么要关注AI或者算法的可解释性?

今天机器学习的主流呈现出“黑箱”的特点,普通用户很难观察到数据训练的中间过程,这样的特征导致AI对我们而言处在不可知的状态。黑箱问题也带来了难以控制、歧视偏见和可能存在的安全风险,使得我们对算法信任产生怀疑。一些重要的应用领域尤其如此,比如医疗健康、金融、司法领域,包括自主决策的AI系统,算法可解释性是非常重要的应用依据,特别是在金融领域,一些监管机构也提出可解释性是应用的先决条件。

什么是算法的“可解释性”?

学界从不同的角度来认识,国外学者以及部分国内学者认为“可解释性”是可以提供细节和决策的依据,能够被用户简单清晰的认识和理解。从法律法规角度来看,欧盟《通用数据保护条例》(以下简称“GDPR”)规定在自动化决策中用户有权获得决策解释,处理者应告知数据处理的逻辑、重要性,特别是影响后果,这是学理层面、政策层面上的“AI可解释性”。

“可解释”和“可信任”之间是什么关系?

普通用户对“可解释”的认知

版权声明: 本站仅提供信息存储空间服务,旨在传递更多信息,不拥有所有权,不承担相关法律责任,不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请发送邮件至 举报,一经查实,本站将立刻删除。