9月28日消息,韩国企业正全力开发贴合本土语言文化的大语言模型(LLM),试图在 AI 时代与 OpenAI、谷歌等全球科技巨头一较高下。
上月,韩国政府正式启动史上最大规模 “主权 AI” 计划,斥资 5300 亿韩元(约合 26.8 亿元人民币)扶持五家本土企业开发大规模基础模型。
这项战略旨在降低对外国 AI 技术的依赖,强化国家安全并实现数据主权控制。
韩国科技部选定的五支 “国家队” 包括 LG AI 研究院、SK 电信、Naver Cloud、NC AI 和初创公司 Upstage,政府将每半年评估进展,逐步淘汰落后者,最终仅保留两家作为长期技术核心。
LG AI 研究院的 Exaone 4.0采用混合推理架构,融合语言处理与深度推理能力。
其 320 亿参数模型在行业基准测试中表现亮眼,计划通过生物科技、先进材料等领域的真实数据持续优化。
与英伟达合作开发的专用 AI 芯片 RNGD,使模型推理效率提升 2.25 倍,成本降低 30% 以上。
LG AI 联席负责人洪拉克・李表示,他们的核心策略是 “用垂直领域数据构建智能闭环”,而非单纯追求参数规模。
SK 电信的 A.X 4.0基于阿里云 Qwen 2.5 开源模型开发,720 亿参数版本处理韩语效率比 GPT-4o 高 33%。
其优势在于整合电信网络数据,提供从导航到打车的全场景服务。
截至 2025 年 8 月,配套个人 AI 助手 A. 已吸引 1000 万用户,并计划通过 AWS 共建超算中心强化算力。
SK 电信基础模型办公室负责人金泰允指出,他们正构建 “芯片 - 数据 - 应用” 全栈生态,与 MIT 合作开发的先进制造 AI 系统已进入量产阶段。
Naver Cloud 的 HyperCLOVA X堪称韩国版 “AI 操作系统”,覆盖从云服务到消费应用的完整链条。
其自主研发的多模态模型 HyperCLOVA X Think,不仅支持搜索、购物等核心场景,还被应用于核电站运维等关键基础设施。
Naver 发言人强调,他们的 “全栈优势” 使其能在 300 亿参数规模下实现与 GPT-5 相当的性能,而成本仅为后者的 1/5。
初创公司 Upstage 的 Solar Pro 2以 310 亿参数打破行业认知,在韩语基准测试中超越所有全球模型,且训练成本降低 60%。
其目标是构建 “AI 原生” 生态,已推出金融、医疗等领域的专用模型。执行副总裁权顺一表示:“我们要让韩国企业不再为西方模型支付高昂授权费。”
值得关注的是,SK 海力士已量产全球首款 HBM4 芯片,使 AI 训练速度提升 69%,能效比优化 40%。
三星电子则计划 2026 年量产 12 层堆叠 HBM3E,为英伟达下一代 GPU 提供支持。(转自AI普瑞斯)