通过设计信任构建人工智能解决方案
消费者和员工都希望组织在使用人工智能以及在人工智能中使用他们的数据时保持透明。随着监管机构倾向于要求数据主体知情同意,组织将需要全面了解和传达他们的人工智能用途,这不仅仅是为了遵守法规,也是为了与组织内外的关键利益相关者保持沟通渠道畅通。在全球范围内,监管机构已经确定了组织在开发和部署人工智能时需要考虑的共同主题和核心特征。在美国,白宫制定了《人工智能权利法案》3 ,强调了其人工智能优先事项,随后美国国家标准与技术研究院 (NIST) 也通过自己的人工智能风险管 克罗地亚电报数据 理框架4为组织提供理解、评估和管理风险的指导。
这一早期监管指南为积极主动的组织提供了大纲,帮助他们开始构建负责任的人工智能使用护栏。最近在联邦层面,《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》5旨在为特定的双重用途基础模型建立安全测试,以识别和减轻国家安全人工智能风险。该行政命令还鼓励其他监管机构行使其现有权力,调查使用人工智能造成的偏见、公平、隐私和其他潜在危害,就像一些州级法规针对特定行业一样。
頁:
[1]