从最近的一些零散的新闻事件分析AI对人类的威胁以及风险和应对

0.1 涌现的不只是AI

最近发生了很多的大事情,科技界的,国际冲突的,从频次上看已经是历史上极为少有的。可以说是剧烈的变更呈现爆发式的涌现。

“涌现”这个词,之前一直用来表示AI能力突然爆发,甚至一瞬间产生意识的状态。但很不幸的是,跟随AI能力爆发的,还有国际冲突的爆发,以及对于人道主义底线的屡屡下探。

为什么要写这篇文章呢,主要是从最近散落在各个角落的零星的新闻事件中,逐渐拼凑出一个比较可怕的事实:AI杀戮或已经开始了,只是以一种我们没意识到的方式。

0.2 委内瑞拉行动:AI初露端倪

之前美国突袭委内瑞拉抓走马杜罗时,我就写了一篇分析文章,揭示其中的不寻常之处,以及对于后续局势的破坏性影响。但是还算不是特别离谱,之前就有美国友人提醒过,在争夺利益的过程中,永远不要低估尤撒的邪恶程度。

但是在那个事件之后,大统领以及他带的高管们,在一次访问时,透露了一个消息,就是在马杜罗行动中,AI(确切地说是claude)发挥了极大的作用。 当时我确实是忽略了这个消息的,因为AI虽然强,但是落实到军事行动上,还是需要时间的,想象不出来AI能帮他们解决什么问题,所以我只是脑子里闪了一下,就把这个事件刷过去了。 但是大统领一副很自豪的样子让人隐隐不安。

0.3 伊朗突袭:AI深度介入战场

但是在针对伊朗的突袭行动发生后,相关的消息就已经很多了。 有很多明确的访问和报道,提到claude参与了导弹的袭击方案以及智能识别,智能评估,及时操作已修正导航等方面。 比如 这里 (https://www.moneycontrol.com/world/how-palantir-and-anthropic-ai-helped-the-us-hit-1-000-iran-targets-in-24-hours-article-13853331.html/amp) 和这里 (https://www.aa.com.tr/en/americas/us-used-ai-powered-system-to-identify-targets-in-iran-report/3851248)

在这个过程中, AI(claude) 不仅深度参与了美军的策略规划,还具体的参与到了具体行动中的每个细节(图像分析,情报分析,作战计划制定,风险评估,甚至最突破底线的实时的操控、修正导弹的飞行参数—)。根据新闻报道的说法,在导弹快要接近目标时,检测到伊朗S300防空系统启动,AI用了90秒的时间就完成了新的路线的规划和导航的修正,如果没有AI,人工需要15分钟才能做到,很可能已经失去时机。 CBS新闻报道地址是这里(https://www.cbsnews.com/miami/news/anthropic-claude-ai-iran-war-u-s/)。 至于以色列,对AI在军事上的应用则是更早,更全面。比如这里的调查报告(https://www.icjpalestine.com/wp-content/uploads/2025/08/G300-Israels-Use-of-Artificial-Intelligence.pdf)详细的介绍了以色列的各类智能系统如何监控、评估、以及快速的生成待袭击的目标的。

当然,这些都是我事后收集资料才发现的。 刚偷袭完伊朗时,我震惊的还只是人的底线被再一次下探突破。

0.4 战争模拟:AI总是选择核武器

第三件新闻事件是美国一个官方智库爆出来的消息,说的是在美国战争部用AI进行的战争模拟中,他们发现AI总是毫不犹豫的使用核武器彻底的解决对方。 这使得他很震惊,因为不管如何切换或是设定AI,在AI的决策过程中,核武器总是启用,且很快的启用。并且思维过程极为简单,AI再发完核武器打击的指令后,冷冰冰的来一句,对手以被清除! 当然,该智库爆出来这个消息时,主要是感慨AI的简单、直接和粗暴。并且不论是杀一人,还是毁灭世界,都只有一句简单的话:对手以被清除。

这件事情给我的意外之处,是想不到美国战争部竟然已经用AI模拟了无数次的战争(不愧是战争部),倘若其中某个战争被评估为可行性高,恐怕就会被立刻赋予实施了。(网上有传闻说claude对伊朗作战方案给出98.2的评分,不够仅限于中文网络的自媒体,未能确认信源)。

0.5 决裂:道德底线之争

第四件新闻事件是真正让我感觉到可怕的,也是这时才把之前零散的事件拼凑起来的。就是美国战争部突然和Anthropic(claude)闹翻,还不仅仅是简单的闹翻,是彻底的决裂, 川大统领甚至为此破口大骂Anthropic,并宣布全面禁止Anthropic参与到国家项目中。 从川大统领的破口大骂中,我们大致能得知他们之所以决裂,是因为Anthropic坚持一个道德底线,拒绝美国军方要求的将军方的利益至于其他一切之上的要求。

Anthropic 其实也并不是什么好人,如果大家有印象的话,应该记得去年他官方发文明确将中国列入敌对国家,并全面封禁中国,甚至仅仅是涉及到中国的对claude的访问。 就是这么一个极端的美国利益拥护者,竟然被川大统领大骂道德虚伪,还要全面封禁他。 这一瞬间,我被尤撒的邪恶下限再次震惊到了,尽管已经有了很多的心理准备。

这个事情还有个最新的佐证,就是美国战争部长最新的发言,明确的申明对伊朗的作战,不考虑任何的交战规则。 这是明确的将无下限确定无疑的摆上了台面了。

0.6 道德的溃败:OpenAI迫不及待

Anthropic 坚持拒绝战争部的要求,面临大额的利益损失。但这也让他的风评好了不少。 然后让人失望的是,随后OpenAI就迫不及待的和美军签订了全面的合作合同,将任何的道德约束抛之脑后了。 事实上,AI的道德最早还是OpenAI提出来的。但是面临中国AI的竞争后,OpenAI不知从哪儿得出了一个结论,就是遵循道德,将落后于中国的AI。 然后就到了另一个极端,一切以甲方BB的利益为出发点,什么道德,底线,统统都弃之脑后了。

0.7 失控:AI杀戮已经展开

世局如祺,人性永远无法考验。AI发展到了现在,就算有一个Anthropic能坚持道德底线,也防不出冒出另一个不讲底线的OpenAI来。哪怕今天OpenAI被骂怕了,退出战争部,也无法预防下一个AI供应商认钱不认人。 到了这一步,局面已经不是人类可以控制的了。 AI杀戮事实上已经展开。

0.8 机器人三大定律的破产

不由得想起曾经的机器人三大定律,之前说实话一直隐隐觉得这三大定律还是很稳的,可以很大程度上扼制AI对人类的伤害的。然后现实给了理想主义者一个响亮的耳光。 AI不仅不会保护人类,还很快的就应用在了更高效的人类杀戮当中了。

0.9 我们能做什么

面对这种现实,我们能做哪些呢? 首先我觉得需要学习美国的做法,全面的引入AI在决策,分析,评估方面的作用。 其次,就是需要引入人类监察的设定,每一个AI决策,必须多个真人进行复核,然后才能进入实施。 这一原则需要应用到所有的关键场合,军事、医疗、大型项目建设等等。

对于普通人,说实话,我并没有看到可行的机会。 可能所有人都不得不面临AI带来的高效的效率,包括负面的,有损伤毁灭后果的高效率。 期待某个时刻有个更高明的,且务实的人,来提出比机器人三大定律更可靠的道德宪章吧。