2月13日,联合国秘书长古特雷斯宣布,联合国大会已正式任命,新设立的“人工智能问题独立国际科学小组”40名成员,任期三年。值得骄傲的是,上海交通大学、上海人工智能研究院院长宋海涛和中国工程院院士、云计算技术专家王坚两位中国科学家成功当选。 这份40人名单,从全球2600多名候选人中经多轮筛选产生,由国际电信联盟、联合国数字与新兴技术办公室、联合国教科文组织三家机构独立评审,专业门槛清晰。入选者均以个人身份履职,不代表政府或机构,保障评估中立。 国际电信联盟管的是电信技术标准化,看重AI在通信领域的落地可行性和技术规范;联合国数字与新兴技术办公室聚焦数字治理,关注AI发展带来的政策协调和全球合作问题;教科文组织则盯着伦理底线,确保AI发展不触碰人权和尊严的红线。 三家机构从技术、治理、伦理三个维度层层把关,候选人必须在每个维度都达标才能晋级,少一个短板都过不了关,这也是为什么2600多人最后只留下40人的核心原因。 更关键的是这个小组的运作规则,所有入选者都以个人身份履职,不代表任何政府或机构,这一点从根源上保证了评估的中立性。 候选人在提名阶段就要全面披露财务、专业、个人等可能影响公正的利益关联,入选后还要持续报备,一旦出现利益冲突就得主动回避。 这样的设计不是多余,而是因为AI技术的影响太广,小到个人数据隐私,大到全球技术竞争,一旦评估被某个国家或机构的利益捆绑,得出的结论就失去了参考价值,全球AI治理也就没了公平可言。 这种“去机构化”的履职方式,让科学家们能纯粹从专业角度出发,分析AI的真实风险和机遇,不用受制于任何外部压力,也不用为特定群体背书。 中国两位科学家的入选,绝不是运气加持,而是专业能力和行业贡献刚好踩中了小组的核心需求。 宋海涛长期深耕工业视觉检测和嵌入式图像处理,主持过国家重点研发计划的子课题,在机器人智能作业系统、线结构光测量等领域有多项发明专利,这些技术正好对应AI在工业场景落地的关键问题——如何让AI更精准、更安全地应用到生产流程中,这也是国际社会在AI治理中重点关注的实际议题。 他的研究不是停留在实验室里的理论,而是能直接解决工业AI应用中精度、效率、安全等实际难题,这种“能落地、能解决问题”的专业特质,正是小组所需要的实战型能力。 王坚作为云计算技术专家,开创了“以数据为中心”的分布式云计算体系架构,主持研发的自主知识产权云计算平台,为AI发展提供了核心的算力支撑。 AI的大规模应用离不开强大的云计算能力,没有稳定高效的算力底座,再先进的AI算法也难以落地,而王坚在这一领域的突破,不仅提升了中国在全球云计算领域的话语权,更积累了AI底层技术支撑的实战经验。 他推动的“城市大脑”等项目,更是AI技术与城市治理结合的成功实践,恰好契合了全球对AI规模化应用和可持续发展的探讨方向,这种“从技术到应用”的全链条经验,在全球范围内都具备稀缺性和参考价值。 两人的专业领域一个聚焦AI技术落地的细节突破,一个夯实AI发展的底层支撑,都是当前AI治理中最需要的核心能力。 小组要应对的不是空泛的AI概念,而是AI在实际应用中出现的技术规范、伦理风险、治理协调等具体问题,宋海涛和王坚的研究方向和实践经验,刚好填补了这些关键领域的专业缺口,这也是他们能从众多候选人中脱颖而出的核心逻辑——不是靠地域平衡或象征性入选,而是专业能力与小组使命的高度契合。 这个40人小组可不是摆样子的花瓶,它的核心使命是出具基于实证的科学评估,每年都会发布政策相关但不具强制性的总结报告,还会根据需要推出主题简报。 这些报告不是空泛的理论探讨,而是要梳理现有研究,分清AI领域的炒作和真实价值,把复杂的技术问题转化为各国都能理解的信息,为全球AI治理提供实打实的参考。 小组还会成立工作小组,邀请外部专家参与讨论,每年最多两次向联合国大会更新工作进展,通过互动对话收集各方意见,最后把成果提交到全球AI治理对话中。 这种运作模式让科学研究和政策制定能有效衔接,避免各国在AI治理中各自为战,也能让发展中国家获得平等的信息和话语权,不用再被动跟随发达国家的规则。 值得注意的是,小组的工作严格限定在非军事领域,聚焦AI的民用价值与风险防控,这一定位让它能更集中精力解决与普通人生活相关的AI问题,比如算法歧视、数据泄露、AI对就业的影响等。 它就像全球AI领域的“科学瞭望塔”,既要发现潜在风险提前预警,也要梳理可行路径提供参考,让各国在发展AI的同时,能有一个中立、权威的科学依据,避免盲目跟风或过度恐慌。
