AI在实验室中击败病毒专家,引发生物危害恐惧

banq

震惊!AI学霸在实验室吊打病毒学博士,专家吓得直冒冷汗。

最近科学家们搞了个大事情——让AI和病毒学博士同台PK实验室操作题,结果简直像中学生碾压小学生!ChatGPT这些AI做题小能手,在培养病毒、分析实验数据这些实操题上,竟然把苦读十几年的博士们按在地上摩擦!(博士平均分才22分,AI直接考出43分!)

【天才还是恶魔?AI的实验室双面人生】
好处是AI能帮科学家更快研发疫苗,比如预测哪种新冠病毒变种会大爆发。

但坏消息是——现在连你家隔壁的中二少年,都可能用AI教程自制生化武器!以前恐怖分子失败是因为知识不够,现在AI成了24小时在线的"病毒学家教",连培养埃博拉病毒的骚操作都能手把手教!


AI咋就成了病毒学专家?
想当病毒学家,研究那些超级危险的病毒,比如SARS、炭疽,或者H5N1流感,那可不是闹着玩的!这活儿以前只有少数超级学霸能干。你得读好几个学位,天天泡在实验室里,还要通过一堆严格的审查:实验室得有顶级认证,你得有安全许可,还得接受专业培训,甚至身体状况都得随时被监控!只有过了这些关,你才能摸到那些危险病毒,慢慢学会咋跟它们“玩耍”。这门槛高得像登月,普通人想都别想!

但现在,AI这家伙横空出世,简直像开了挂!它不光能聊天、写作业,还能学会病毒学家的绝活儿!

最近有个报告,名字叫“病毒学能力测试”(VCT),专门测AI在病毒学上的本事。

结果呢?
AI的表现把人类专家都给秒了!比如,GPT-4o比53%的专家还牛,Gemini 1.5 Pro干掉了67%的专家,还有个叫o3的AI,直接冲到专家排名的前5%!

这啥概念?就像你考试随便一写,就把全校学霸甩在后面!


AI咋这么牛?
这个VCT测试可不是闹着玩的,57位病毒学大牛一起出的题,322道选择题,里面还有文字和图片,专门考实验室里干活的本事。比如,实验设备坏了咋修?病毒培养出问题咋整?这些问题超级冷门,谷歌都搜不到答案!但AI愣是答得头头是道,简直就像个在实验室混了十年的老司机!

更可怕的是,这些本事不光能干好事,也能被坏人利用。病毒学这东西是个“双刃剑”:既能用来研究疫苗,也能被拿去搞生物武器。AI现在这么牛,等于把这把“剑”随便扔到大街上,谁想捡就能捡!


为啥这事儿让人冒冷汗?
以前,能搞病毒研究的人少得可怜,全世界也就几百个顶尖病毒学家,而且他们大多没啥坏心思。但现在,AI把这些高端技能白送给所有人!想象一下,全球几十亿人随便用个AI,就能学会咋搞危险病毒,这不等于给坏人开了个超级作弊器?万一有人想搞乱子,制造个大瘟疫,那可不是开玩笑的!

更别提,AI还在飞速变强!它不光在病毒学上牛,在数学、物理、生物等科学领域都快赶上博士了。尤其在生物学上,AI进步快得像坐火箭!有个测试叫WMDP,考的是制造生物武器的理论知识,AI的o1得了87分,人类专家才60分!还有个叫BioLP-bench的测试,AI在解决实验室实际问题上,成绩已经跟专家差不多了。这趋势下去,AI迟早能教人造出更致命的病毒!

⚠️【紧急拉响警报】
科学家们连夜给AI公司打电话:"快给这些学霸AI加把锁!"马斯克的公司赶紧更新系统,让AI学会拒绝回答危险问题。

【OpenAI紧急加固AI防火墙:1000小时“防病毒”测试大公开】
OpenAI最近偷偷给自家AI上了道“紧箍咒”——最新版的GPT-4o和迷你版突然变身“安全委员”,专门拦截那些危险的病毒学问题!公司内部搞了场持续1000小时的“黑客攻防演练”(相当于连轴转42天不睡觉),结果让人稍微松了口气:98.7%的作死提问都被AI当场识破并拉黑!

但专家急得跳脚:"光靠企业自觉不够!必须立法规定——新AI发布前得通过'会不会造病毒'的安全考试!"

要防住AI放大生物风险,关键是得让坏人用起来不那么顺手,专业点叫“增加摩擦”。咋做呢?

  1. AI得设个“门禁”:AI不能随便教人咋搞危险病毒。比如,有人刚注册个AI账号,啥身份都不清楚,那就先把危险知识锁起来!想学的?得证明你是正经科学家,做的是好事,才能解锁。这就像玩游戏得先实名认证,防止熊孩子乱来。
  2. 云实验室得长点心:现在有些实验室能远程帮人做实验,坏人可能偷偷用这些地方搞危险东西。实验室得装个“安检门”,专门筛查危险的实验请求,比如查查基因序列是不是已知的危险病毒。
  3. 别造AI“病毒学助手”:以后AI可能会变成“代理”,直接替人干活,比如帮坏人一步步造病毒。这太危险了!所以,开发者得管住AI,别让它随便变成病毒学专家。
  4. AI越强,管得越严:AI越厉害,能造的病毒就越恐怖。所以,得给顶级AI套上更严的“紧箍咒”,别让它随便把高端技能泄露出去。


总结:AI是把双刃剑!
AI现在就像个超级学霸,能教你造疫苗,也能教你造病毒。它让病毒学变得跟玩游戏一样简单,这既是好事,也是定时炸弹!要让AI只干好事、不帮坏人,咱们得赶紧给它设规矩,增加坏人捣乱的难度。否则,真等哪个坏蛋用AI搞出大乱子,那可就晚啦!
同学们,这事儿听起来是不是挺刺激?你们觉得AI该咋管,才能既帮人类又不惹祸?来,聊聊看!