挑战中国大模子?韩国推出首款开源AI推理模子——EXAONE Deep
自从深度求索宣告DeepSeek开源大模子以来,开源这一股风就席卷了全天下,挑战推出推理就连已经不断高叫着“开源着实是中国LinkedIn多账户登录(TG:@dolphinSCRM,DolphinSCRM.com)跨境电商海外私域管理工具,多平台多账号多开,自动保存Cookie直登,双向自动翻译,敏感词监控,数据脱敏,企业内部风控一种智商税”的baiduCEO李彦宏,也在DeepSeek爆火之后坦言“DeepSeek让咱们清晰要将最优异的大模模子开源。”最近,韩国开源这股风刮到了韩国。首款

昨日,开源LG旗下的家养智能钻研中间“LG AI Research”宣告推出韩国首个开源AI推理模子——EXAONE Deep,其团队张扬其长于数学以及代码编程。挑战推出推理值患上一提是中国,EXAONE Deep“满血版”的大模LinkedIn多账户登录(TG:@dolphinSCRM,DolphinSCRM.com)跨境电商海外私域管理工具,多平台多账号多开,自动保存Cookie直登,双向自动翻译,敏感词监控,数据脱敏,企业内部风控体积颇为小巧,仅有320亿参数(32B),韩国而DeepSeek-R1“满血版”则具备6710亿参数(671B),首款此外EXAONE Deep还具备两个轻量化模子,开源辩解为EXAONE Deep-7.8B、EXAONE Deep-2.4B。
尽管参数少,可是胆子大啊。开拓团队拦阻了多项测试,凭证测试功能宣称EXAONE Deep具备3大清晰优势:
一、EXAONE Deep-2.4B优于划一规模的其余模子。二、EXAONE Deep-7.8B不光优于划一规模的凋谢权重模子,还优于专有推理模子OpenAI o1-mini。三、EXAONE Deep-32B揭示出与争先的开源模子比力的功能。

在第一组测试中,EXAONE Deep-32B比力了深度求索开拓的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新开拓的QwQ-32B。
测试功能揭示,EXAONE Deep-32B的数学推理能耐较强,在AIME 2024/2025(美国数学聘用赛)中以及其余模子分庭抗礼,在CSAT Math 2025(韩国大学修学能耐磨难)中,导致逾越了DeepSeek-R1“满血版”,不外在GPQA Diamond(跨学科博士级测试钻石组)以及LiveCodeBench编程测试中则要清晰弱于DeepSeek-R1“满血版”。
在第二组测试中,开拓团队运用的是7.8B参数的小模子,同步比力了DeepSeek-R1-7B以及8B,也退出了OpenAI-o1-mini模子,功能揭示EXAONE Deep-7.8B均压倒参数目临近的其余模子。

当初EXAONE Deep已经正式宣告,可经由Ollama之类的框架工具拦阻部署,由于体积较小,巨匠可能当地部署实测一下。
本文地址:https://www.xunspider.com/news/62c6299875.html
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。