英国互联网安全活动人士向 Ofcom 呼吁限制 AI 在风险评估中的应用,因 Meta 计划将其旗下平台 90% 的风险评估工作自动化。根据《在线安全法案》,平台需评估伤害风险并采取措施保护儿童和防止非法内容。多个组织批评 AI 风险评估不符合法规要求,而 Ofcom 正在评估这一问题。Meta 表示其并非完全依赖 AI 决策,而是通过技术辅助专家判断以提升安全性。然而,美国 NPR 报道指出,Meta 的 AI 自动化审批可能加速产品发布,但也增加了潜在风险,特别是在青少年保护和虚假信息监测领域。
来源:https://tech.ifeng.com/c/8k2XKGf2O9v