加入收藏 在线留言 联系我们
关注微信
手机扫一扫 立刻联系商家
全国服务热线18513733697
公司新闻
重塑未来信任:揭秘人工智能的透明度与可解释性
发布时间: 2024-09-19 15:00 更新时间: 2024-11-10 08:00

人工智能的透明度和可解释性


图片


近年来,基于人工智能的系统被广泛应用于各种任务中。这些任务依赖于人工智能做出的决定,而这些决定往往具有高度敏感性,并可能对个人或社会群体的福祉构成潜在风险。这些任务包括批准贷款、管理招聘流程和做出与健康相关的决定。要在此类敏感情况和其他情况下适当使用人工智能,人工智能做出的决定必须对人类来说是可以理解和合理的。


透明度:揭开AI决策的神秘面纱

图片


透明度可以被定义为一个特定人工智能系统的可理解性——我们知道哪部分的系统发生了什么。这可以是一个促进问责的机制。可解释性是一个密切相关的概念,指的是以反向方式提供有关人工智能系统行动所依据的逻辑、流程、因素或推理的信息。可解释的人工智能(XAI)可以通过各种方式实现,例如,通过调整现有的人工智能系统或开发设计可解释的人工智能系统。通常,这些方法被称为“XAI 方法”


Meske等人认为,人工智能的透明度和可解释性与五个利益相关者群体有关:

1

人工智能监管机构,需要解释以测试和认证系统;


2

人工智能管理人员,需要解释以监督和控制算法及其使用,并确保算法的合规性;


3

人工智能开发人员,需要解释来提高算法的性能,并进行调试和验证。这使他们能够采用基于原因分析的结构化工程方法,而不是反复试验;


4

人工智能用户,他们有兴趣了解算法推理并将其与自己的思维方式进行比较,以评估算法的有效性和可靠性;


5

受人工智能决策影响的个人,他们对可解释性感兴趣,以评估特定人工智能决策的公平性。


由于人工智能系统的可解释性对于许多敏感的现实任务非常重要。因此,大家可以持续关注。未来,我们也会出具一份详细的报告,包括XAI方法的高层次概览,深入剖析现有技术的优劣等内容。




相关阅读

欧盟《人工智能法》今日生效,中国AI出海企业面临新挑战

ISO/IEC 42001:2023人工智能管理体系内审员培训报名中!

重磅!猎户星空斩获中国首张人工智能管理体系认证证书

标准聚焦 | ISO/IEC 42001人工智能管理体系标准正式发布


关于SGS

图片

SGS是国际公认的测试、检验和认证机构,SGS管理与保证事业群在信息与通讯技术(ICT)领域深耕多年,为诸多企业提供信息安全、隐私安全管理等技术支持,致力于为各行业机构提供全方位管理提升服务,为企业信创保驾护航,如:ISO/IEC 42001、ISO/IEC 27001、ISO/IEC 27701、ISO/IEC 20000、ISO/IEC 27017、ISO/IEC 27018、ISO 22301、CSA STAR、TISAX、ISO/SAE 21434、Europrivacy等产品培训和认证服务。



联系方式

  • 电  话:010-58352655
  • 联系人:Emma Bai
  • 手  机:18513733697
  • 微  信:13011282712 企业微信