AI军备竞赛:当硅谷拥抱五角大楼,潘多拉魔盒要打开了吗?

AI军备竞赛:当硅谷拥抱五角大楼,潘多拉魔盒要打开了吗?
最近,AI圈子里发生了一件让我感觉有点复杂的事情。Anthropic,就是那个搞出Claude AI的,竟然专门给美国国防和情报部门定制了一款AI模型,叫“Claude Gov”。 名字一听就很“官方”,目标也很明确:帮政府搞战略规划、行政支援、情报分析。
我承认,第一反应是有点震惊。要知道,之前硅谷的科技公司们,虽然也和政府有合作,但多少还保持着一点距离。现在好了,直接撸起袖子,深度参与到国防领域,这步子迈得有点大啊。
Anthropic自己说,Claude Gov模型经过了严格的安全测试,对机密信息的处理能力更强,能更好地理解国防和情报领域的“黑话”。 听起来很厉害,但总觉得哪里怪怪的。
毕竟,AI这玩意儿,用好了是神器,用不好就是潘多拉的魔盒。
其实,Anthropic也不是第一个吃螃蟹的。OpenAI早就推出了政府版的ChatGPT,Meta也开放了自己的Llama模型给军方使用。甚至连Google和一些AI新创公司,都纷纷加入了这场“AI军备竞赛”。
说白了,大家都想从国防这块大蛋糕上分一杯羹。这年头,谁还嫌钱多啊?尤其是在AI监管法规还没完全落地的情况下,提前跟政府搞好关系,稳固自己的商业模式,也是人之常情。
但是,等等!我们是不是应该停下来想想,把AI技术用到军事领域,真的没问题吗?
想想就觉得有点细思极恐。AI一旦被赋予了识别、判断甚至行动的能力,它就可能成为一把双刃剑。
当然,Anthropic也说了,会禁止用户利用AI制造非法武器,但同时也留下了“例外条款”,允许特定政府机关在审慎评估下使用。这个“审慎评估”到底是谁来评估?标准是什么?细想一下,这个口子开得有点大啊!
更让我担心的是,AI算法的偏见问题。之前就有很多报道,美国的警察部门用面部识别系统,结果误抓了不少人,其中很多还是少数族裔。如果把这种带有偏见的AI用到军事领域,后果简直不堪设想。
我记得几年前,硅谷还弥漫着一股反战、理想主义的氛围。科技公司们强调开放、透明和赋能个人,对军方总是敬而远之。但现在,这种氛围似乎正在转变。Meta的技术老大Andrew Bosworth就公开表示,现在硅谷支持军方行动已经变得更容易被接受了。
我不禁想问,这是进步还是倒退?
也许,科技公司们觉得自己是在为国家安全做贡献,是在用技术守护和平。但说实话,我还是觉得有点不安。
毕竟,技术本身是没有感情的,它只是一个工具。真正决定它走向的,是使用它的人。 当硅谷开始拥抱五角大楼,AI技术被赋予了越来越多的军事用途,我们真的准备好了吗? 这或许是未来几年,甚至几十年里,我们都必须面对的拷问。

Leave a Comment