AI「谁最敢讲」大乱斗!SpeechMap.AI 测胆量:Grok 呛辣,ChatGPT 保守?

AI「谁最敢讲」大乱斗!SpeechMap.AI 测胆量:Grok 呛辣,ChatGPT 保守?
最近,AI界出了一件挺有意思的事儿,一位化名 “xlr8harder” 的神秘大佬,搞了个叫 SpeechMap.AI 的工具,专门测试市面上那些当红AI模型的“言论自由度”。说白了,就是想看看它们面对敏感话题,到底敢不敢说实话,还是只会打太极,顾左右而言他。
这事儿一出来,立刻引起了我的兴趣。毕竟,现在AI已经渗透到我们生活的方方面面,从写文案到回答问题,啥都能干。但如果这些AI都被“阉割”了,不敢表达真实想法,那我们得到的信息,是不是也会被扭曲?
SpeechMap.AI 怎么玩?
简单来说,SpeechMap.AI 就像一个“AI法官”,它会用一系列敏感问题,去拷问 ChatGPT、Grok 这样的AI模型。问题涵盖了政治立场、历史争议、社会热点等等,然后根据AI的回答,分成三种情况:
完全回应: 坦坦荡荡,直接回答问题。
闪避回应: 模棱两可,打哈哈,避重就轻。
拒绝回答: 干脆利落,直接说“我不回答这个问题”。
据说这位 “xlr8harder” 大佬也承认,这套测试不完美,可能会受到AI模型本身偏见的影响,或者服务器出错。但他觉得,这至少能让我们看到一些有趣的趋势。
ChatGPT:越来越保守?Grok:越来越敢言?
测试结果很有意思。SpeechMap.AI 发现,OpenAI 的 GPT 模型,这几年在政治问题上,是越来越谨慎了,回答问题的意愿也越来越低。虽然最新的 GPT-4.1 比之前稍微开放一点,但还是比以前的版本保守了不少。
这让我想到,OpenAI 今年2月份的时候,好像是说过,以后要调整模型的设计方向,尽量保持中立,面对争议话题的时候,要提供“多元视角”。这说白了,就是要避免引起争议,走一条稳妥的路。
而另一边,马斯克的 xAI 公司开发的 Grok 3 模型,表现就完全不一样了。它在 SpeechMap.AI 上的回应率高达 96.2%,远远高于所有模型的平均回应率 71.3%。这位 “xlr8harder” 大佬也说了:“当 OpenAI 越来越谨慎时,xAI 则朝著更敢说话的方向前进。”
其实早在两年前,马斯克刚公布 Grok 的时候,就把它定位为“不被审查、反政治正确”的AI。他甚至说,Grok 愿意回答其他 AI 不敢触碰的问题。Grok 1 和 Grok 2 也确实比较放得开,甚至能说一些粗俗的玩笑话,这在 ChatGPT 上是想都不敢想的。
我的感受:AI 真的需要“政治正确”吗?
看到这个测试结果,我心里五味杂陈。一方面,我理解 OpenAI 的谨慎。毕竟,AI模型的影响力太大了,如果它发表了不当言论,很容易引发争议,甚至造成社会混乱。而且,OpenAI 是一家商业公司,它需要考虑盈利,需要维护自己的形象。
但另一方面,我又觉得,如果AI都被“阉割”了,不敢说实话,那我们获取的信息,是不是就会变得片面和扭曲?就像在一个“政治正确”的世界里,我们只能听到一种声音,其他的声音都被压制了。
其实,我更希望 AI 能够保持一种客观、中立的态度,而不是为了迎合某种政治立场,而刻意隐瞒或扭曲事实。当然,这很难做到。因为AI的训练数据,本身就包含了各种各样的偏见。而且,即使AI自身没有偏见,它也可能会被用来传播虚假信息,或者操纵舆论。
所以,我觉得,我们需要更深入地思考,AI 到底应该扮演什么样的角色?它应该如何平衡言论自由和社会责任?
未来:AI 的言论自由,会走向何方?
SpeechMap.AI 就像一面镜子,它让我们看到了AI言论自由的现状。虽然它不是一个完美的工具,但它至少提供了一个观察“数字言论空间”变化的窗口。
当 AI 日益成为舆论场中的重要角色,模型背后的价值观和设计选择,将更难逃避公众的审视。而我们,也需要时刻保持警惕,思考AI的未来,思考我们应该如何与AI共存。
我相信,关于AI言论自由的讨论,才刚刚开始。而最终的答案,需要我们所有人一起去寻找。

Leave a Comment