马斯克又搞了个大动作,xAI团队发布了Grok3,宣称这是“天下最聪明”的AI。
按照马斯克的说法,这玩意儿在数学、科学和编程测试里把其他主流模型都秒了,甚至还能参与SpaceX的火星任务计算,未来三年内有望实现诺贝尔奖级别的突破。听起来是不是很牛?但事实真的如此吗?

先别急着吹捧,实测结果让人有点大跌眼镜。
有人问了Grok3一个简单得不能再简单的问题:“9.11与9.9哪个大?”结果它愣是没答对!
这可不是个例,海外也有不少类似的测试,比如“比萨斜塔上两个球哪个先落下”,这些基础的物理、数学问题,Grok3都搞不定,被网友调侃为“天才不愿意回答简单问题”。
更搞笑的是,在xAI的发布会直播里,马斯克还用Grok3分析他爱玩的游戏《流亡黯道2》,结果Grok3给出的答案大部分都是错的,马斯克居然都没发现。这下好了,不仅被海外网友抓住把柄,说他打游戏“找代练”,也让大家对Grok3的实际应用可靠性产生了大大的怀疑。

再来看看Grok3的性能和榜单表现。
官方PPT里说Grok3在大模型竞技场Chatbot Arena里“遥遥领先”,可这其实是用了点小技巧,把榜单纵轴限定在1400-1300分段,把1%的测试结果差距给放大了。
实际上,Grok3的跑分只比DeepSeek R1和GPT4.0高出1%~2%,很多用户测试后也觉得没啥明显差别。
而且,xAI之前就被指责在榜单里“刷分”,Grok2时代就靠大量数据堆出高分,结果榜单调整回答长度风格的权重后,分数就直线下降。这次Grok3的高分,背后是20万张H100显卡,两亿小时的训练,代价不可谓不高。
有网友算了一笔账,DeepSeek V3用2000张H800训练两个月,算力消耗是Grok3的1/263,可它在榜单上的得分和Grok3差距不到100分。这说明啥?模型越大,性能越强的逻辑已经出现明显的边际效应了!
