微信扫一扫,添加好友

AI也要守规矩,ACM重新制定生成式 AI 开发原则

根据7月13日发布的消息,美国生成式人工智能协会(Association for Generative AI)计算机器全球技术政策委员会(ACM TPC)发布了《生成式人工智能技术的开发、部署和使用原则》。该原则得到了ACM的美国技术政策委员会(USTPC)和欧洲技术政策委员会(Europe TPC)的通过。

ACM成立于1947年,被誉为“世界上最大的科学和教育计算协会”,拥有约110000名学生和专业会员。他们认为生成式AI的强大可能对社会构成严重风险。

目前的技术安全使用指南不足,因此需要建立新的标准来确保该技术的潜在危害得以规避。这也是ACM发布该原则草案的初衷。

该原则包含四项专门针对生成式AI的原则,以及四项改编自TPC 2022年《负责任的算法系统声明》原则。

以下是改写后的原则内容:

生成式AI特定原则:
1. 部署和使用的限制和指南:应与所有利益相关者协商,审查和应用书面或修订的法律和法规,以在需要时限制生成人工智能技术的部署和使用,以最大程度地减少危害。如果没有明确和充分的保障措施,包括确保人在决策过程中的参与以及相关利益相关者之间的共识,即该系统的好处将大大超过其潜在的负面影响,则不应允许任何高风险的人工智能系统运行。可以通过定义风险等级来评估,最高级别为不可接受的风险,最低级别为最小风险。

2. 所有权:知识产权(IP)法律和法规尚未充分考虑生成式人工智能系统的结构和功能的固有方面。

3. 个人数据控制:生成式人工智能系统应允许人们选择不使用他们的数据来训练系统或促进其信息生成。

4. 可纠正性:生成人工智能系统的提供者应创建和维护公共存储库,以记录系统的错误,并可选择进行更正。

改编的先前原则:
1. 透明度:任何使用生成式人工智能的应用程序或系统都应向适当的利益相关者明确披露。

2. 可审计性和可质疑性:生成人工智能系统的提供者应确保尽可能记录系统模型、算法、数据和输出(适当考虑隐私),以便在适当的情况下对其进行审计和/或质疑。

3. 限制环境影响:鉴于生成式人工智能模型对环境的巨大影响,建议就方法论达成共识,以衡量、归因并积极减少此类影响。

4. 更高的安全性和隐私性:生成式人工智能系统容易受到各种新的安全和隐私风险的影响,包括新的攻击向量和恶意数据泄露等。


 

感谢您阅读这篇文章,请持续关注昀天资讯不要忘记点赞!评论!打赏~ 谢谢大家!

如需转载请联系作者:昀天资讯 » AI也要守规矩,ACM重新制定生成式 AI 开发原则

评论一下

5+7=

如果给您带来了帮助,请略微支持一下我们哦~

支付宝扫一扫打赏

微信扫一扫打赏