[关闭]
@TedZhou 2025-07-11T07:59:27.000000Z 字数 1368 阅读 16

在此处输入标题

未分类


欧盟发布全球首部AI行为准则,重塑人工智能治理格局

欧盟委员会2025年7月10日正式发布《通用人工智能行为准则》(General-Purpose AI Code of Practice),为ChatGPT、Gemini等大模型设立全球最严监管框架。该准则作为欧盟《人工智能法案》(AI Act)的核心配套细则,将于2025年8月2日生效,标志着人工智能治理从“事后追责”转向“全程防控”的新时代。


🔥 核心亮点:三大支柱约束AI巨头

  1. 安全防线升级
    企业须对模型全生命周期进行风险管理,重点防范生物武器开发等系统性风险,并建立应急预案。
  2. 穿透式透明度
    • 强制公开训练数据来源与算法逻辑,提供标准化文档模板;
    • 所有AI生成内容(如图像、视频)必须明确标注来源,打击深度伪造。
  3. 版权合规革命
    • 数据爬取须遵守robots.txt协议,严禁规避付费墙或使用盗版内容;
    • 要求通过技术设计降低侵权风险,并建立版权投诉快速通道。

⏳ 分级监管进入实战阶段

欧盟AI监管体系正按时间表全面落地:

💡 自愿签署准则的企业可减轻行政负担,但需通过成员国监管机构审核。


⚖️ 天价罚则震慑违规


🌪️ 争议与挑战并存

尽管欧盟力图平衡创新与安全,行业反弹仍在发酵:


🌍 全球影响:欧盟再立规则标杆

该准则预计将产生三重辐射效应:

  1. 示范作用:美、英、中等国已启动类似立法磋商,欧盟框架或成国际模板;
  2. 企业合规重构:科技公司需彻底调整数据获取流程,研发成本可能上升;
  3. 主权AI加速:多国或将推动本土化立法,应对欧盟规则外溢。

“这是人类对AI‘黑箱’的第一次系统性破壁。”欧盟数字政策委员维斯塔格强调,“准则赋予用户知情权,同时为创新保留呼吸空间。”

随着8月2日生效日临近,全球科技企业正紧急组建合规团队。分析指出,中国出海企业需尤其警惕生物识别、情感识别等禁用功能,并借助TÜV南德等认证机构规避风险。人工智能的“野蛮生长”时代,正在欧盟的规则熔炉中走向终结。


欧盟《人工智能法案》划分的四类风险等级

  1. 禁止类(不可接受风险)
    • 操纵人类行为(如诱导儿童危险行为)
    • 社会评分(基于无关数据评估信用或就业资格)
    • 无差别面部图像抓取(构建未经同意的生物识别库)
    • 工作场所/教育机构的情感识别
    • 实时远程生物识别(执法场景除外)等。
  2. 高风险类:涵盖人脸识别、生物识别、关键公共服务、教育、就业、医疗等领域。
    • 需履行数据质量审核、人工监督、上市前测试等义务。
  3. 特定透明度风险类:如聊天机器人需明确告知用户正与AI交互,深度伪造内容须标注来源。
  4. 极低风险类:如推荐系统,无强制义务,鼓励自愿遵守行为准则。
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注