当前位置:首页 > > 打开算法黑箱,腾讯发布国内首份可解释AI报告 |
第一,立法和监管宜遵循基于风险的分级分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。 第二,探索建立适应不同行业与场景的可解释性标准。 第三,探索可解释的替代性机制,多举措共同实现可信、负责任AI。 第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是AI生态的核心参与者,需要提升他们的算法伦理素养。 第五,引导、支持行业加强可解释AI研究与落地。 由于AI技术的快速发展迭代,可解释AI的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释AI的发展进步。企业为维持自身的市场竞争力,会主动提高其AI相关产品服务的可解释程度。
|
机器人推荐 |