让GPT-4.1「头皮发麻的考试」!OpenAI给大模型上强度,AI能赢吗?

新智元报道
编辑:定慧
OpenAI发布的新基准测试数据集MRCR,旨在检验模型在超长上下文中精准定位特定信息的能力。这比「大海捞针」的简单任务更具挑战性。通过MRCR测试,GPT-4.1展示了其强大的上下文理解和处理能力,但随着上下文长度和复杂度增加,准确性会迅速下降。

“煽风点火”让大模型“卷”起来的提升性能的套路

近日,一名网友分享了一种通过巧妙利用不同AI模型之间的‘竞争’心理来提升AI输出效果的方法,具体步骤包括:选择任务→交给第一个AI(如ChatGPT)→将结果复制粘贴给第二个AI(如Claude),并要求其改进表现→再继续挑战第三个AI(如Grok)。这种方法已经得到了很多网友的验证和认可。