上海ai lab发布mathbench,gpt-凯发备用官网

大模型数学能力哪家强?

最近,上海ai lab构建了一个全面的多语言数学基准——mathbench。与现有的基准不同的是,mathbench涵盖从小学、初中、高中、大学不同难度,从基础算术题到高阶微积分、统计学、概率论等丰富类别的数学题目,跨度大,难度设置呈阶梯状,可以多维度评估模型的数学能力。

本文测试了20 个开源或闭源不同规模的大模型,包括新秀gpt-4o、常胜将军gpt-4,还有开源模型里的扛把子通义千问和llama-3。

一起来看看各家大模型的数学真实水平到底如何吧~

3.5研究测试:
https://hujiaoai.cn

4研究测试:
https://askmanyai.cn

claude-3研究测试:
https://hiclaude3.com

论文标题:

mathbench: evaluating the theory and application proficiency of llms with a hierarchical mathematics benchmark

论文链接
https://arxiv.org/pdf/2405.12209

github连接
https://github.com/open-compass/mathbench

在mathbench中,作者首先将数学内容分为四个主要的教育阶段和一个基础算术阶段。四个阶段对应于基础教育阶段:小学、初中、高中和大学。“算术”阶段评估四种基本数学运算的能力:加、减、乘、除。每个阶段进一步细分为学科领域(如代数、几何、三角学、微积分、统计学、概率论等)和具体主题(如代数中的线性方程、二次方程、多项式函数),如下图所示:

这种分类确保了广泛数学问题的覆盖,使数据集能够深入揭示模型在各数学领域的理解和熟练程度。每个问题都带有详细标签,包括所属阶段、学科领域和主题,便于分析模型性能并识别其数学理解上的优势与不足。算术阶段的强调也凸显了基础运算在数学学习中的核心地位。

在预定义的知识框架下,作者主要收集两类问题:一是理论知识问题,旨在检验模型对基本公式、理论及其推论的理解;二是实际应用问题,考察将理论知识应用于实践的能力。

问题格式定义:由于在开放性问题上难以评估模型的的表现,作者将可能产生复杂答案的理论知识和实践应用问题重新设计为四选一的选择题形式,确保答案的唯一性和干扰项的高混淆度。

对于理论知识问题,从数学教科书和互联网中按主题搜集相关定义和推论,并转化为高质量的多选题。在选择实践应用问题时,遵循以下标准:匹配教育阶段、全面覆盖知识分类体系、问题表述清晰,主要关注如中考、高考、amc和sat等教育考试或竞赛的题目,并引入开源问题以丰富多样性。mathbench问题的来源在下表中列出。

通过使用gpt-4半自动化过滤过程,最终mathbench共包含3709个问题,涵盖五个阶段和三个知识层级的中英文内容。数据集分为mathbench-t(含2,209个理论问题)和mathbench-a(含1,500个实践应用问题)两部分。

本文主要使用circulareval (ce) 和 perplexity (ppl) 评估chat模型和base模型。ce通过系统性地评估包含n个选项的多选问题,每次改变选项顺序来进行评估。为确保评估一致性,统一设置最大输出长度为2048个token,并采用贪心解码策略对所有llms进行评估。评估框架采用opencompass。评估模型涵盖了超20中开源与闭源模型,还有几个专门针对数学能力进行微调后的数学llms。

下表展示了实验结果,分为面向应用的部分(mathbench-a), 以及理论构成的部分(mathbench-t)。

在mathbench-a中,gpt-4o(gpt-4o-2024-05-13)总体表现最佳,尤其在初中、高中和大学阶段数学试题测试中显著领先。开源模型中,qwen1.5-110b-chat表现最优,而deepseek-math-7b-rl虽小但数学能力也很突出。

在开源的chat模型中,不同参数规模的模型表现出不同的能力:

约7b模型:internlm2-chat-7b和llama-3-8b-instruct在7亿规模模型中脱颖而出。llama-3-8b-instruct与chatglm3-6b相比,性能差距随难度递增,分别高出43.95%-723.53%。这表明高阶数学问题对模型的理解和推理能力提出更高要求,小型llms在解决复杂问题上仍面临挑战。

约20b模型:internlm2-chat-20b表现出色,其次是qwen-14b-chat。尽管yi-34b-chat参数量更大,但其性能却不及其他20b模型。这些模型在解决高中和大学复杂数学问题时也面临挑战。

约70b模型: qwen1.5-110b-chat在解决数学应用问题上尤为出色,不仅超越了其他开源聊天模型,还超越了多个专用数学模型,性能接近闭源模型gpt-4-0125-preview。

专注数学任务模型: deepseek-math-7b-rl在处理小学至大学数学应用问题时均表现优异,不仅超越了同类模型,还以仅十分之一的模型大小,在参数量大10倍的deepseek-67b-chat上取得了24.8%的性能优势,这彰显了其在数学问题求解方面的高效性和针对性。

在mathbench-t中,gpt-4o同样在各阶段均表现出色,平均理论得分87.0,位居所有模型之首。结合其mathbench-a的应用得分70.9,gpt-4o在理论与应用层面均展现卓越性能。

qwen系列模型紧随其后,其中qwen1.5-110b-chat在初级阶段领先,并在“primary”阶段以93.4的ce分数居首。但在高级教育阶段,gpt-4o优势明显,如大学级理论知识阶段高出deepseek-math-7b-rl达16.9分。

internlm2-chat-7b在70亿参数模型中表现稳健,其理论阶段表现优于qwen-7b-chat达31.3%。deepseek-math-7b-rl在数学领域持续领先,成绩超越llama-3-70b-instruct。

mathbench测试显示,模型在理论与应用能力上排名相近,理论强的模型应用亦佳,反之亦然。

下表展示了base模型的结果,可以看出base模型与其chat模型性能一致。

在7b参数范围里,internlm2-7b的表现是最好的。qwen-14b和qwen-72b在mathbench基准测试中,各自在其所属的参数类别中表现得非常出色。

在处理数学任务时,deepseek-math-7b-base与chat模型的表现结果非常接近,这说明基础模型(base模型)和聊天模型(chat模型)在性能上有很高的相似性。

chatglm3-6b-base在7b类别中排在第二位,它超过了qwen-7b和mistral-7b-v0.1。但是,它的聊天版本chatglm3-6b在mathbench-a测试中,性能比qwen-7b-chat差95.2%,在mathbench-t测试中,差距更是高达104.7%。这种性能上的差异很可能是因为在后续优化阶段,它们采用了不同的调整方法。

如下图所示,大多数模型在算术和基础数学问题上的表现很出色。然而,当问题难度达到中等或更高时,它们的性能会大幅下降。这说明当前模型在解决可以通过直接计算、模式识别或记忆基本概念的任务时表现良好,但在面对更复杂的数学问题时则显得力不从心。

模型的理论理解与应用能力之间确实存在差距,尤其是在处理不同阶段的数学问题时。如下图所示,llm在不同阶段的理论和应用得分趋势揭示了这一点。

在基础阶段,大多数llm的理论和应用得分高度相关,显示出它们在解决简单任务时,理论理解和应用能力能够较好地结合。然而,也有少数例外。例如,qwen-72b-chat在理论能力上表现出色,而claude-3-opus在应用能力上更胜一筹。

随着问题难度的增加,即进入中等及以上阶段,模型需要更强的计算和推理能力来取得良好的应用得分。在这一阶段,理论与应用之间的差距开始显现。gpt-4在所有阶段的应用表现都领先,尤其是在更高级阶段,这种差距更加明显。

因此,虽然理论是解决大多数应用问题的基础,但在面对更高难度的任务时,模型的理论理解与应用能力之间会存在一定的差距。为了提高模型的整体性能,我们需要在加强模型理论理解的同时,注重提升其在实际应用中的表现。

如下图所示,模型在涉及基础数学技能的主题上表现优异,如“单位转换”、“四则运算”和“方程的基本概念”,这些主题的平均得分较高。

然而,面对需要抽象推理和复杂计算的主题,如“双重积分”、“数学逻辑”和“集合论”,模型表现欠佳,平均得分较低。

这提示我们,针对这些较难的数学问题,需要对模型进行专门的分析和优化,找出推理能力不足或基础理论概念掌握不稳定的根源,以提高模型的整体性能。

下图展示了各种llm在mathbench上的双语能力,强调了处理需要理解不同语言和数学概念细微差别数学任务时语言灵活性的重要性。

在所有llm中,gpt-4以67.1的最高双语分数领先,它在中文(65.2)和英语(69.0)方面的表现均衡,这显示出其卓越的双语处理能力。其他模型如qwen-72b-chat和deepseek math-7b-rl也展现出了显著的双语能力。但值得注意的是,大多数评估的llm在中文和英语之间的性能差距相比gpt-4要大得多。

本文还对每个阶段随机抽取的80个理论问题和100个应用问题进行了全面的错误分析,如下图所示:

错误主要由以下问题引起:

  • 知识匮乏:在理论性问题中,高达78%的模型错误源于对数学概念的误解,这一比例在所有错误中占据49.5%。这表明大多数模型在掌握基础知识和术语上还存在明显的不足。
  • 推理能力欠缺:模型在逻辑推理方面存在明显短板,33.4%的错误源于逻辑上虽连贯但存在缺陷的推理过程。此外,还有9.6%的错误是因为模型偏离了用户的查询意图,这反映出模型在理解用户意图和给出恰当回答方面的局限性。随着任务难度的增加,这类与推理相关的错误也会增多。
  • 长度限制:尽管在统计上不是主要的错误类型(仅占4.0%),但模型在处理复杂任务时受限于输出长度,这暴露了模型在有限空间内处理复杂指令和任务的挑战。
  • 其他不足:有时,模型会给出缺乏明确推理过程的回答,这使得审查变得困难。然而,那些具备更强推理能力的模型在面对选择时,能够展现出批判性思维,提供超出预设选项的解答。

mathbench根据问题难度和阶段对数学题进行分类,全面评估了llms的数学能力。它覆盖了教育各阶段的广泛学科和主题,为数学学习和评估领域的研究者及教育工作者提供了宝贵的资源。

凯发备用官网的版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

(0)
上一篇 2024年6月18日 下午5:29
下一篇 2024年6月18日 下午5:41

相关推荐

  • 呼吸麻醉面罩的研发历程可以追溯到19世纪末,当时医学界开始探索无痛手术的可能性。在早期的手术中,患者通常需要承受极大的疼痛和痛苦,甚至在手术过程中保持清醒状态。为了解决这些问题,医…

    科研百科 2024年4月22日
    48
  • 近日,记者从西藏自治区科技厅了解到,为全面落实自治区党委、政府关于建设藏医药“四个一流”的决策部署,自治区科技厅藏医药研究中心筹建办公室统筹协调,布局建设藏医药研究中心联合实验室和…

    科研百科 2024年4月13日
    29
  • 市北首批“首席审批服务官”上岗 压缩逐级审批流程

    来源:【青岛信网】 市北区行政审批服务局不断优化服务流程,推动审批再提速、服务再升级。(来源:市北区行政审批服务局) 信网8月2日讯(记者 杜杲燃)为深入推进“放管服”改革,推动审…

    2022年8月27日
    241
  • pcfcms企业建站系统 免费 开源的企业内容管理系统

    项目介绍 pcfcms是基于tp6. 0 框架为核心开发的免费 开源的企业内容管理系统,专注企业建站用户需求提供海量各行业模板,降低中小企业网站建设、网络营销成本,致力于打造用户舒…

    科研百科 2023年3月24日
    302
  • 申请军工科研项目需要什么资质 申请军工科研项目需要具备一定的资质和条件,以确保科研项目的安全、可靠和成功。这些资质和条件可能因不同的军工机构、项目类型和任务要求而有所不同,但通常包…

    科研百科 2024年6月13日
    16
  •   今年以来,青海省西宁市以“一优两高”为引领,以保生态、调结构、提质量、稳增长为发展思路,发展饲草产业,强化生态养殖,加强粪污综合利用,全面推进生态循环畜…

    科研百科 2022年5月13日
    274
  • pmi项目管理: 追求卓越的项目管理方法 pmi(international organization for standardization)是国际标准化组织,其目标是通过制定和…

    科研百科 2024年5月23日
    29
  • 工业软件指的是在工业领域内应用的软件,能够实现功控制生产设备、优化制造流程等功能,可以说是现代工业的“灵魂”。工业软件是几乎所有工业产业链中最顶端的一环,没有工业软件,后续的工作都…

    科研百科 2022年10月30日
    562
  • 来源:红网-时刻新闻 湖南旅游发展公司坚持党建引领,通过下一线、开晨会解决具体问题,增强抗风险能力。 红网时刻记者 陈雪骅 通讯员 何欧华 蹇迅 长沙报道 刚刚过去的一年,疫情影响…

    科研百科 2023年6月12日
    256
  • 课程背景: 互联网经济环境风云莫测,风险无时不在、无处不有,风险时刻威胁着企业的生存与发展。“得控则强,失控则弱,无控则乱”,对企业进行有效的内部控制与风险管理是企业可持续发展过程…

    科研百科 2024年1月17日
    110
网站地图