群发资讯网

全球战局:中、美、欧AI监管实践对比

AI 倒反天罡摆脱人类控制的情节在科幻作品屡见不鲜,现实中各国也已立法管控AI带来的风险近两年AI大潮,一浪强过一浪,现

AI 倒反天罡摆脱人类控制的情节在科幻作品屡见不鲜,现实中各国也已立法管控AI带来的风险

近两年AI大潮,一浪强过一浪,现在的 AI 聪明得有点“渗人”?

越来越逼真的效果,让各种问题浮现。前段时间江苏就有买家利用手机合成制作收到 6 只“死螃蟹”的虚假视频,实施诈骗。甚至有人担心明天会不会被硅基生物抢了饭碗。就像看着自家养的哈士奇突然学会了开锁——既惊又怕。

大家都想让 AI 听话、安全、别搞事,已是国际共识。但怎么管?各国的模式却有所不同。

🇪🇺 欧盟:严防死守

欧盟的导向是最为严格,以至于有声音说阻碍科技发展。

欧盟《人工智能法案》根据造成伤害的风险对除军事用途外人工智能应用进行分类。有四个等级 — 不可接受风险、高风险、有限风险、最小风险 — 加上一个通用人工智能的附加类别。

不可接受风险:除特定豁免外,此类人工智能应用被禁止。这类主要是针对能直接影响到人类行业的应用。

高风险: 预计会对人们的健康、安全或基本权利构成重大威胁的人工智能应用。这类要接受严格管理及需进行“基本权利影响评估”。

通用人工智能:比如聊天机器人。必须经过彻底的评估过程,它们须遵守透明度要求。说人话就是不能装成真人。

最小风险:此类别包括例如用于视讯游戏或垃圾电子邮件筛检的人工智能系统。这些不用接受管理。

欧盟这就是典型的“以风险为基础”,核心就是保护公民权利。由法案而产生的“布鲁塞尔效应”——通过市场机制管理全球:只要与欧盟生意,就得接爱《人工智能法案》。

🇺🇸 美国:能搞钱就行

漂亮国的态度与欧盟就完全风格相反。

美国的逻辑是:“兄弟,先搞钱……啊不,先创新!”

散装的美国基本是各州各自立法,目前仍没有一个关于管理AI的联邦法律。主要靠大统领签个“行政命令”来指方向。这有点像老板发个全员邮件:“大家注意安全啊,但业绩不能掉!”说了等于没说。

他们更在意的是**“基础模型”**(Frontier Models),国家标准局(NIST)搞了个风险框架指导行业自律。

说白了,美国就是生意人头脑,毕总大统领就是一个生意人。没到危害国家安全就不用管,赚钱最重要。

🇨🇳 中国:高效的“实干派”

再看咱们中国。目前监控AI的法律文件主要是《互联网信息服务算法推荐管理规定》和《生成式人工智能服务管理暂行办法》。

中国的管理哲学是“双轮驱动”:既要发展,又要安全。而且特别具体:

管内容:AI 生成的东西必须标注。

管算法:以前大厂总说算法是黑箱,现在不行了,你得告诉用户这玩意儿怎么推给我的,还得让人家能选择退出。

这叫“以治理为主线”。由网信办牵头,一旦发现问题,那是真·光速修补 Bug 17。

最后总结

欧盟宁愿慢慢走也要走稳,谁也别想抢跑;

美国管理是没有的,交给市场自己找出路;

中国只要没造成社会影响,放手干。

虽然各地区管理方式不同,但也聚焦通用大模型算法透明。deepseek这类模型选择开源,估计这也是一个考量点。

未来的管理长啥样?

AI 是没有国界的,真出了乱子,谁也跑不了。觉得全球应该尽快制定一个类似“机器人三原则”的最底层代码,否则“天网”与“奧创”降临时再后悔就晚了。

最后扩展思考:

尽管各地都有管理,但全都只是针对民间。你更觉未来会有AI机器人大战吗?