人工智能治理是各方为解决人工智能领域风险分担和利益分配问题,通过政策制定、法律监管、伦理指导等手段,对人工智能的研发、应用等行为进行全面管理和调控的过程。人工智能治理应为人工智能领域发展和安全问题建立有效的风险矫正机制、利益分配机制及机构协调机制,积极应对发展不平衡、规则不健全、秩序不合理问题并促进全球协商合作。
近一年来,全球人工智能治理面临复杂多变新形势。全球人工智能行业实现高速增长,在产业规模、投融资、企业数量等方面表现明显,具身智能、数字人等人工智能应用将驱动下一轮产业洗牌。通用人工智能技术飞速跃迁敲响安全警钟,幻觉难消除、场景难限定、责任难追溯等特性放大了虚假信息、隐私侵犯、网络犯罪等现实风险。同时,全新的人机交互模式开启了“人类外脑”时代,在未来发展中可能引发情感依赖、劳动替代、生存性风险等方面的人机伦理风险,不断挑战政府传统监管模式、加剧国际合作协调难度、考验供应链主体自治能力。
人工智能治理蓝皮书(2024 年):电子版下载地址