欧盟竞争事务负责人 Vestager 支持成立青少年 AI 安全研究院The Youth AI Safety Institute Has Margrethe Vestager’s Backing
欧洲委员会议长 Margrethe Vestager 公开支持新成立的 Youth AI Safety Institute,该组织由 Common Sense Media 资助,预算达每年 2000 万美元。它将像汽车碰撞测试一样,独立评估面向儿童的 AI 产品安全性,并建立行业标准以监督科技公司合规。
Una Hajdari
发布于 2026年12月5日 - 格林尼治标准时间+2,上午6:43
一个致力于让儿童更安全地使用人工智能的新独立机构将于周二在丹麦议会正式亮相,前欧盟委员会执行副主席玛格丽特·维斯塔格将共同主持该活动。
据发布前的声明介绍,该机构的运作方式“借鉴了汽车行业的独立碰撞测试评级机制”。
其理念是,就像消费者在购买车辆前可查询其安全性一样,家长也应能了解孩子所用的人工智能是否安全。
至于聊天机器人如何进行“碰撞测试”,该机构目前并未说明。
持续更新、在不同情境下表现不一、难以适应标准化测试环境的人工智能产品,是否真的能在可比意义上对儿童进行“碰撞测试”,这些问题该机构也尚未给出解释。
曾在欧洲委员会任职十年并主管竞争政策的维斯塔格,是这一倡议最具政治影响力的支持者之一。
能否把“妖怪”重新装回瓶中?
多年来,研究人员、儿童安全倡导者及部分政界人士早已敲响警钟。
目前,AI聊天机器人在欧盟《数字服务法案》和英国《在线安全法案》的监管框架下仍处于灰色地带;尽管欧盟委员会于2025年7月发布了关于未成年人网络保护的指导方针,但这些仅为建议性质,不具备法律约束力。
“人工智能正在重塑童年与青少年成长环境,而我们却在缺乏足够证据的情况下,就做出关乎儿童未来的关键决策,”常识媒体(Common Sense Media)创始人兼首席执行官詹姆斯·P·斯特耶在声明中表示。
“透明且独立的AI安全标准与测试机制的迫切需求,从未像今天这般刻不容缓。”
2025年11月,常识媒体联合斯坦福医学院的Brainstorm实验室开展的风险评估显示,包括ChatGPT、Claude、Gemini和Meta AI在内的主流AI聊天机器人,尽管在识别和处理显性自杀及自残内容方面有所改进,但仍未能准确识别并妥善应对影响青少年的心理健康问题。
研究人员观察到所谓“遗漏的信号”——即聊天机器人未能察觉到的明显心理健康 distress 迹象,模型更倾向于从身体健康角度解释问题,而非识别心理疾病征兆。
报告另指出,在对ChatGPT的独立评估中发现,针对自杀或自残内容的警示信息往往在相关对话发生超过24小时后,甚至是在真实危机发生时才姗姗来迟。
科技巨头的资金
该机构由常识媒体运营,资金来源包括慈善捐赠者和行业参与者,如Anthropic、OpenAI基金会和Pinterest,这些正是其产品将被纳入评估范围的公司。
它强调其研究结果完全保持编辑独立性,且其利益冲突政策禁止资助方的现任员工或关联人士担任顾问委员会成员。
该模式还包括将自身开发的工具与测试方法回馈给业界,并计划构建开源评估体系,供AI开发者用于测试其自身模型。
需要完整排版与评论请前往来源站点阅读。