新华社华盛顿11月1日电(记者周舟)美国国防创新委员会10月31日发布了一份关于人工智能伦理原则的报告,旨在为美国国防部未来如何在战斗和非战斗场景中设计、开发和应用人工智能提供建议。
这份报告名为《人工智能原则:国防部人工智能应用伦理的若干建议》,提出了“负责、公平、可追踪、可靠、可控”五大原则。
报告强调国防部应确保技术专家对人工智能的技术、开发过程和操作方法有足够理解;国防部应避免偏见,以防在开发和部署战斗或非战斗人工智能系统时对人造成无意伤害等。
委员会还提出12条建议,包括通过国防部官方渠道将这些原则正式化,建立一个国防部范围的人工智能指导委员会,确保人工智能伦理原则的正确执行,召开有关人工智能安全的年度会议等。
美国国防创新委员会是一个独立的联邦顾问委员会,旨在为国防部高级领导提供建议。成员包括来自谷歌、脸书、微软等科技企业的高管和专家。
委员会成员、计算机理论学家丹尼·希利斯说,人工智能有可能进化出设计者难以预料的行为方式,有时人工智能类似于自我保护的行为可能会有违设计者初衷,这是一大危险。
美国很多科技公司员工反对将人工智能用于军事。去年,谷歌公司超过4600名员工联名敦促谷歌不再参与美国军方一个项目,该项目借助人工智能识别军方无人机所摄画面中的潜在“目标”。谷歌随后决定不再与军方续约,承诺不会把人工智能用于武器等可能造成人身伤害的项目。
【编辑:张一凡】