当前位置: 首页 > news >正文

IAPP发布《2024年人工智能治理实践报告》

文章目录

  • 前言
  • 一、黑箱问题
    • ►透明度、可理解性与可解释性
  • 二、法律和政策中的注意事项
    • ►欧盟的《通用数据保护条例》
    • ►欧盟的AI法案
    • ►NIST的AI风险管理框架
    • ►美国的第14110号行政命令
    • ►《生成式人工智能服务管理暂行办法》
    • ►新加坡的AI验证
  • 三、实施人工智能治理
    • ►模型卡与系统卡
    • ►开源AI
    • ►水印标记


前言

2024年6月,IAPP和FTI Consulting发布了《2024年人工智能治理实践报告》,报告旨在向人工智能治理专业人员提供信息,让其了解在构建和完善人工智能治理计划时,需要意识到人工智能治理正面临多重挑战。

具体而言,报告介绍了数据挑战,隐私和数据保护挑战,透明度、可理解性与可解释性挑战,偏见、歧视与不公平挑战,安全与稳健性挑战和版权挑战。本文主要摘译透明度、可理解性与可解释性挑战这一部分进行介绍。

在这里插入图片描述


一、黑箱问题

缺乏对人工智能系统信任的一个原因是用户无法清楚地理解人工智能的运作原理。这可能是由于模型本身的复杂性导致的,也可能是因为知识产权的封闭保护导致的,这通常被称为“黑箱问题”。

目前,深度学习等人工智能技术正变得越来越复杂,且多年来其参数数量呈指数级增长。同时,由于人工智能的强大自我学习能力以及它们的规模性和复杂性,黑箱问题变得越来越难以解决,通常需要去权衡简化AI系统的一些方面。

►透明度、可理解性与可解释性

透明度(Transparency)是一个广泛的概念,可以包括在整个生命周期中对技术和非技术文档的需求。在开源环境中,透明度也可以指提供对代码或数据集的访问权限,供开源社区中的人工智能系统使用。

透明度的目标还可以包括在用户与人工智能系统交互时通知用户,或者识别内容是否由人工智能生成。对于设计和使用这些系统的人来说&#


http://www.mrgr.cn/news/28416.html

相关文章:

  • 算法题解:斐波那契数列(C语言)
  • 15. 三数之和(实际是双指针类型的题目)
  • 支持升降压型、升压、降压、60V的1.2MHz频率LED恒流驱动器LGS63040、LGS63042
  • C/C++实现植物大战僵尸(PVZ)(打地鼠版)
  • 配置cobbler服务提供centos7安装源
  • [OpenCV] 数字图像处理 C++ 学习——15像素重映射(cv::remap) 附完整代码
  • 初中生物--5.单细胞生物
  • 大数据新视界 --大数据大厂之MongoDB与大数据:灵活文档数据库的应用场景
  • 建设世界一流财务管理体系【数字化顶层设计】【持续更新】
  • 大学生看过来,必备4款写论文AI写作网站先稿后付
  • 【AI小项目5】使用 KerasNLP 对 Gemma 模型进行 LoRA 微调
  • 开题报告的流程
  • Go语言开发im-websocket服务和vue3+ts开发类似微信pc即时通讯
  • 背包问题(如何定义dp状态)
  • CSS调整背景
  • 绝缘检测原理
  • C语言代码练习(第二十五天)
  • 拖拽排序的实现示例demo
  • 系统优化工具 | TweakPower v2.0.6 绿色版
  • 【C语言学习路线】