Claude4开启AI安全3级保护

听说过Anthropic这家公司没?他们最近可牛了,宣布他们的最新AI模型Claude4开启了“AI安全3级保护”!听起来是不是很酷?但这到底啥意思?为啥这么重要?史蒂文·阿德勒,这位“曾经在OpenAI干过危险能力测试的老司机”给你们好好唠唠!

先说说啥叫“AI安全3级保护”
想象一下,AI就像个超级聪明的机器人,能干很多事,但也可能被坏人利用去干坏事。所以,在把AI放出来前,公司得给它做个“体检”,看看它会不会变成“超级反派”。这种体检叫“安全测试”,结果会写在一个叫“系统卡”的报告里。

Anthropic的测试方法写在一份叫“负责任的扩展政策”的文件里,别的公司也有类似的东西,比如OpenAI有个“准备框架”,Google有个“前沿安全框架”。这些都是为了确保AI不会惹祸。

这次,Anthropic的最新AI牛到啥程度?
它居然在测试中达到了“AI安全3级”(ASL-3)!这可是破天荒头一回!简单说,这个AI在“生物武器”相关任务上超级能干,能帮着普通人干出很危险的事儿,比如制造化学、生物、放射性或核武器(简称CBRN武器)。

这可不是开玩笑!Anthropic的科学家说,他们没法完全排除这个AI会不会帮一个大学本科生造出这种超级危险的武器。

下一个等级就是帮国家级的生物武器计划干活了,幸好还没到那一步,但已经够吓人了!

为啥这事儿很危险?
你们想想,世界上大学生多得是,如果AI能帮他们造生化武器,那还得了?

Anthropic的首席科学家举了个例子:有个叫蒂莫西·麦克维的恐怖分子,1995年在俄克拉荷马城搞了个大爆炸,炸死了168人。如果当时他有这么个AI帮忙,估计破坏力更恐怖!再比如,这AI可能帮人合成一种超级危险的病毒,搞不好就引发大灾难。

他们咋测试AI的“危险程度”?
Anthropic的测试就像给AI做“危险能力大考”。比如,他们会问AI一堆关于生物武器的问题,看看它是不是像个“口袋里的专家”,啥都知道。他们还会试试AI能不能“提升”一个普通人的能力,比如让一个啥也不懂的菜鸟突然变成制造武器的“高手”。

测试结果咋样?Anthropic说,他们的AI在“生物武器获取”这块儿差一点就完全达到ASL-3的危险标准,真的就差那么一丢丢!我自己估算了一下,确实挺悬的,难怪他们不敢打包票说“没事,这AI绝对安全”。

现在咋办?AI危险了咋整?
Anthropic说,他们给AI加了新的安全锁,恐怖分子想偷走AI去干坏事没那么容易。他们还觉得自己挺有责任感,带头做了个好榜样。但问题是,现在这种安全测试完全是公司自愿的,没人逼他们做!这就有点像让小学生自己决定要不要写作业,靠谱吗?

我觉着吧,这还远远不够。AI发展快得像火箭,Anthropic今天有这种AI,明天可能别的公司也搞出来了。要是哪天有个叫DeepSeek的AI模型,能力超强,还能免费在网上下载,那麻烦可就大了!到时候,坏人拿去干坏事,谁拦得住?

总结一下
Anthropic的最新AI厉害是厉害,但也真挺危险的,特别是在生物武器这块儿。他们做了测试,发现问题,上了安全锁,也算有点良心。但光靠公司自觉可不行,得有硬性规定,让所有AI公司都得做这种安全测试。不然,等到AI满大街跑,坏人随便就能搞到,那可就晚啦!

重点来了!
既然这家公司能做出"三级危险"AI,其他公司很快也能。

你们想想,要是哪天网上突然能下载"绝命毒师AI免费版"......(后排男生突然举手:"老师那期末化学实验...")想都别想!所以现在必须立法把这些AI统统关进"数字监狱"!