主页搜索
搜索
选择时间
搜索范围
全部的
‘推理’新闻 15个
-
中国开源AI生态加速崛起 重塑全球人工智能格局中国人工智能(AI)初创企业深度求索(DeepSeek)去年1月发布DeepSeek-R1模型,并同步开源模型权重,撼动全球AI生态界。近来一项分析指出,中国AI生态的发展已不再局限于追赶美国,而是凭借开源这一核心战略,逐步构建起具有全球影响力的自主生态体系。 据ICT业界8日消息,全球知名AI社区平台Hugging Face(抱抱脸)近日发布题为《DeekSeek登场后一年》的报告,称过去一年中,Hugging Face平台上新发布的中国生成式AI模型下载量已超越美国模型,DeekSeek登场后最显著的变化在于开源标准化的形成。 报告指出,过去中国大型科技企业多以封闭式AIP形式提供高性能模型,而DeepSeek-R1首次公开模型推理过程与训练经验,彻底改变行业格局。例如百度此前从未公开开源AI模型,但在DeepSeek发布一年后,已在Hugging Face上开源超过100个模型。中国AI企业月之暗面(Moonshot AI)也在发布Kimi K2模型后,正式加入开源生态阵营。 麻省理工学院和Hugging Face去年底联合发布的研究报告显示,中国开源AI模型的全球下载比重为17.1%,已超过美国的15.8%。不仅下载数量领先,在以AI模型为基础上衍生的派生模型数量上同样领先。 根据报告,阿里巴巴的“千问”(Qwen)模型已衍生出11.5万个相关模型,远高于谷歌的7.2万个、Meta的4.6万个和OpenAI的1.1万个。这意味着全球开发者在开发新AI模型时,最常借鉴和使用的是中国的开源AI模型。 随着中国开源AI模型逐渐成为行业标准,影响力已扩展至美国硅谷。报告称,约8成美国AI初创企业在产品开发过程中使用中国开源AI模型。在OpenAI、Anthropic等美国企业坚持封闭式生态的同时,中国企业主动将高性能模型开源,并成为全球标准。 中国企业在开放型AI生态界影响力持续扩大,令韩国AI模型面临巨大挑战。Naver和Kakao等拥有自主AI模型的企业以专业韩语能力为核心优势,但由于中国AI模型外语性能快速提升,这一优势正在被削弱。尤其在韩国政府主导的自主AI基础模型项目中,阿里巴巴“千问”模型的视觉编码器被采用,而Naver却落选,显示出韩国AI企业过于依赖中国开源生态的现实。 AI行业相关人士指出,相比于从零开始开发自主AI模型,以中国开源AI模型开发金融、医疗等垂直领域的AI正在成为行业常态。
2026-02-08 19:11:45 -
SK海力士去年营业利润达47万亿韩元 创历史新高SK海力士28日发布业绩报告称,去年实现销售额97.15万亿韩元(约合人民币4728亿元),营业利润达47.21万亿韩元,净利润达42.95万亿韩元,营业利润率高达49%,净利润率也达到44%,刷新历史纪录。与2024年相比,全年销售额增加逾30万亿韩元,营业利润也实现翻倍增长,创公司成立以来最高年度业绩。 去年第四季度业绩同样表现亮眼。受高带宽存储器(HBM)需求持续火热,以及服务器用通用存储器需求显著回暖的推动,公司去年第四季度营业收入达32.83万亿韩元,环比增长34%;营业利润为19.17万亿韩元,环比增长68%,营业利润率高达58%,均创单季历史新高。 SK海力士表示,围绕AI驱动的市场结构变化,公司持续强化技术竞争力并提高高附加值产品比重,并在兼顾收益性与增长性的经营战略下,公司实现了跨越式增长。 从业务结构来看,DRAM领域中,HBM销售额同比增长逾一倍,成为推动业绩创纪录的核心引擎。在通用DRAM方面,公司已正式量产第六代10纳米级(1c)DDR5产品,并成功开发基于1b工艺的32Gb单芯片、容量达256GB的服务器用DDR5 RDIMM模块,进一步巩固了其在服务器内存市场的领导地位。 NAND闪存业务方面,公司在上半年需求低迷的情况下完成了321层QLC产品研发,并在下半年积极应对以企业级SSD(eSSD)为中心的需求回升,推动全年销售额创下新高。 展望未来,SK海力士预计,随着AI市场从“训练”阶段向“推理”阶段加速转型,分布式计算架构需求持续扩大,存储器在AI系统中的战略重要性将进一步凸显。除HBM等高性能存储器外,服务器用DRAM与NAND闪存的整体需求也预计将同步增长。 SK海力士将依托客户信赖,持续强化技术优势、产品可靠性及量产能力。公司已于去年9月率先构建HBM4量产体系,并已按客户需求实现稳定供货,并将通过HBM4巩固领先地位,同时加快布局“定制化HBM”(Custom HBM)领域。 在通用存储器方面,公司计划加速1c工艺转换,扩大面向AI的SOCAMM2、GDDR7等产品组合;在NAND领域,则将通过321层堆叠技术提升竞争力,并结合旗下Solidigm的QLC eSSD产品,积极应对AI数据中心存储需求。 在生产布局方面,公司优先将保障客户需求,提前实现韩国清州M15X工厂产能最大化,并推进龙仁半导体集群首座晶圆厂建设,稳步扩充中长期产能基础。同时,清州P&T7工厂及美国印第安纳州先进封装工厂也将按计划推进,以构建覆盖前端与后端工艺的全球一体化生产体系。 在创纪录业绩的基础上,SK海力士同步宣布强化股东回报政策。公司将实施每股1500韩元的额外分红,总规模约1万亿韩元,使2025财年每股股息达到3000韩元,全年股东回报规模约2.1万亿韩元。此外,公司还计划注销1530万股库存股,以提升每股价值。 SK海力士Corporate Center负责人宋炫宗(音)表示,公司将以差异化技术竞争力为基础,在实现可持续增长的同时,保持未来投资、财务稳健性与股东回报之间的平衡,进一步巩固其作为AI时代核心基础设施合作伙伴的地位。
2026-01-29 02:49:48 -
机遇与争议并存的制度试验 韩国全球率先实施AI监管本月22日起,韩国正式施行《人工智能发展与信任基础构建基本法》(以下简称《AI基本法》),由此成为全球首个全面实施AI监管法律的国家。尽管欧盟在立法层面更早推出《人工智能法案》,但由于选择分阶段实施,全面生效时间被不断推迟,这使得韩国在落地执行层面抢得先机。 欧盟原计划自2024年8月起对“高风险AI”实施核心监管条款,但欧盟委员会在去年底发布包含监管放宽内容的“数字简化方案”后,外界普遍预计相关条款可能延至2027年底才正式适用。在全球各国将AI视为战略性核心资产、竞相加大财政与政策支持的背景下,韩国此时率先全面实施AI监管法,引发了产业界的广泛争议。 持反对意见者多数认为,过早、过严的监管可能削弱本土AI产业竞争力,支持者则指出,AI技术发展迅猛,而伦理规范与风险治理体系长期滞后,韩国若能全面落实AI基本法,将有机会成为“包容性AI治理”的示范国家。 ▲引入“高影响AI”概念 强调安全与可解释性 根据AI基本法,科学技术信息通信部长官需每三年制定一次《AI基本计划》,以系统性提升国家AI竞争力。法律还强化了国家人工智能委员会的治理效能,并将AI安全研究机构的设立正式写入法律条文,用于评估和研究AI潜在风险。 政府强调,立法宗旨并非重罚企业,而是通过最低限度监管和更高的政策可预期性,通过AI基本法来振兴产业。然而,鉴于深度伪造内容泛滥、虚假信息操纵舆论,以及AI可能侵蚀生命权与基本权利等风险,法律引入了“高影响AI”概念。 所谓“高影响AI”,是指在医疗、能源、招聘、信贷审核等与国民生命或权利息息相关的领域中使用的AI系统。这类AI将被要求建立人工监督机制,并主动采取安全保障措施,同时需具备一定程度的“可解释性”,即能够说明AI决策所依据的推理过程。 在自动驾驶领域,目前仍需人类驾驶员介入的L3级自动驾驶不被认定为高影响AI,但完全由系统自主行驶的L4级及以上则被纳入严格监管范围。 ▲生成式AI须标识来源 海外巨头须设立本地代理 针对生成式AI,法律规定必须通过可见或不可见水印等方式,明确标识内容为AI生成。法律义务主体主要包括AI模型开发商和AI解决方案或服务提供商,而仅使用AI生成内容的企业或普通用户不在直接监管范围内。 对于海外科技巨头,若满足以下任一条件:上一年度全球营收超过1万亿韩元(约合人民币47.4亿元)、韩国AI服务营收超过100亿韩元、韩国日均用户数超过100万人,则必须在韩国设立本地代理。目前,Open AI和谷歌符合相关条件。 违反AI基本法的企业,最高可被处以3000万韩元罚款。不过,政府明确表示,将设置至少一年的“指导与整改期”(过渡期),以减轻法律对相关产业的冲击。 ▲初创企业压力突出 政府强调“AI指南针”定位 对AI基本法实施最为担忧的是AI模型和服务开发领域的初创企业。相较大型科技公司可借助律师事务所或内部法务团队应对合规要求,资金和人力有限的初创企业普遍感到力不从心。 初创企业联盟去年底对101家本土AI初创公司的调查显示,98%的企业表示尚未建立实质性的AI基本法应对体系。尽管政府表示将谨慎行使调查权,并在过渡期内不急于处罚,但“调查权本身”仍可能对挫伤产业创新热情。 有初创企业人士呼吁,有必要效仿《重大灾害处罚法》对小规模企业设置额外宽限期的做法,对AI初创企业给予更多制度性照顾。对此,科技信息通信部回应称,AI基本法的目标不是“惩罚”,而是为行业提供清晰的合规“路线图”,从长期看有助于产业稳定发展。 ▲透明性与数据安全仍待强化 随着AI在国防、医疗等高敏感领域的应用日益频繁,学界与业界呼吁进一步强化“黑箱式”AI模型的透明度要求。尤其在开源模型广泛应用的背景下,如何防范国内数据外流及新型网络安全威胁,被认为在现行法律中体现不足。 有观点认为,若AI基本法过度偏向监管,应通过与《个人信息保护法》《信息通信网络法》等现行法律的衔接,构建更灵活的治理体系,以防范利用AI工具实施的新型权利侵害行为。 总体而言,AI基本法的实施既是韩国AI治理的一次大胆尝试,也是对政策平衡能力的重大考验。AI基本法成效如何,不仅将影响本国产业走向,也可能为全球AI监管提供重要参考。
2026-01-22 22:58:24 -
Naver推理AI模型被纳入全球权威AI性能评估体系Naver旗下云计算和人工智能(AI)服务提供商Naver Cloud发布的高性能推理AI近日被纳入全球权威AI性能评估体系,标志着韩国本土AI技术开发能力的显著提升。 30日,全球AI性能评估机构Artificial Analysis(AA)将Naver Cloud前日公开的“HyperCLOVA X”高性能推理模型纳入大模型评测榜单Artificial Analysis Intelligence Index(AA智能指数)。Naver Cloud的推理模型以44分的综合成绩在韩国本土AI模型中排名第二位。 本次评估中,Motif Technologies发布的“Motif 12.7B”获得45分位居韩国首位。LG AI研究院的“ EXAONE 4.0”和Upstage的“Solar Pro2”分别获得43分和38分。 从全球来看,谷歌的“Gemini 3 Pro”和Open AI的“ChatGPT 5.0”同为73分并列榜首。 此外,Naver Cloud的推理模型在模拟电信运营商客户支持场景、评估AI工具使用能力的专项测试中,取得了87%的高分,创下韩国AI模型的最高纪录。 专家分析称,这一评估结果不仅体现了Naver Cloud推理模型在单纯推理上的能力,更展示了作为“全模态”(Omni-modal)助手的应用潜力。“全模态”是比现有“多模态”概念更为广泛和先进的下一代AI技术方向,能处理文本、图像、音频、数据表格等多模态数据,并生成对应输出的大规模模型,通过统一架构实现跨模态数据融合与协同推理。 Naver Cloud日前发布两款新一代全模态AI模型,一款是此次参与评估的推理模型,另一款则是在现有AI平台“HyperClovaX”基础上功能大幅扩展的“原生全模态模型”。
2025-12-30 18:44:44 -
HBM3E锁定明年市场 HBM4决战序幕全面拉开在第五代高带宽存储器HBM3E持续主导市场格局的背景下,随着英伟达计划于明年下半年推出下一代人工智能(AI)加速器“Rubin”,第六代产品HBM4的市场预计将正式启动,SK海力士与三星电子之间的主导权竞争或将进一步激化。 据业界28日消息,搭载HBM3E的英伟达Blackwell系列目前占据AI芯片市场的主要份额,加之H200对华出口有望启动,HBM3E预计至少在2026年前仍将维持在整体HBM市场中的主体地位。同时,随着谷歌、博通、微软、亚马逊云服务等定制芯片(ASIC)厂商对HBM3E的需求持续增长,HBM3E市场规模有望进一步扩大。LS证券分析指出,明年HBM3E在整体HBM产量中的占比预计为66%,虽较今年的87%下降21个百分点,但仍将占据一半以上份额。 SK海力士凭借在HBM3E早期量产及向主要客户供货方面的领先优势,目前以约60%的市占率位居HBM市场首位,不仅承担英伟达大部分订单,也为多家ASIC厂商提供HBM3E产品,市场主导地位短期内有望继续保持。 同时,市场关注焦点正逐步转向下一代产品HBM4。HBM4在性能、制程技术及基板芯片应用等方面均实现进一步升级。若英伟达Rubin成为首款搭载HBM4的产品,HBM4市场预计将于2027年全面展开。作为Blackwell架构的后继平台,Rubin定位为高性能AI计算平台,旨在提升推理与训练效率。此外,谷歌第八代TPU、亚马逊Trainium4以及微软Maia 300均计划采用HBM4,并有望在2027年面世。据此预测,HBM4出货量将于2027年超越HBM3E。 三星电子对在HBM4市场展现出强烈信心。三星电子计划在HBM4中采用基于三星代工4纳米工艺的基板芯片,以及10纳米级第六代(1c)DRAM工艺。据悉,其内部技术评估已实现每秒11.7吉比特的业界最高性能水平。相比之下,SK海力士则采用台积电12纳米基板芯片与第五代10纳米级DRAM工艺。近期,三星电子在英伟达HBM4系统级封装测试中获得最高评分,被业界视为HBM4供货前景向好的积极信号。三星电子计划于明年初正式启动HBM4的量产工作。 市场对三星电子的业绩预期也相应上调。全球投资银行野村证券在最新报告中预测,三星电子明年营业利润有望达约133万亿韩元(约合人民币6446.9亿元)。野村证券分析指出,三星电子预计将较HBM3E更集中资源于通用存储器及HBM4的生产,新增产能中将有相当部分分配给HBM4所需的1c制程,且英伟达的质量认证有望于明年1月前完成。
2025-12-28 19:23:21 -
SK海力士256GB DDR5高容量服务器DRAM获英特尔数据中心认证SK海力士18日宣布,将基于第五代10纳米级(1b)32Gb单片的256GB DDR5 RDIMM高容量服务器DRAM模块应用于英特尔至强6平台(Intel Xeon 6 platform),业界首次获得英特尔数据中心认证(Intel Data Center Certified)。 此次认证在位于美国的英特尔先进数据中心开发实验室(Advanced Data Center Development Laboratory)完成。SK海力士经过数次的全方位评估,证实其产品与Xeon平台相结合时具备可靠的性能、兼容性和品质。公司此前已于今年1月获得了基于第四代10纳米级(1a)16Gb的256GB产品认证。 SK海力士方面表示:“此次率先完成与引领服务器CPU市场的英特尔最新服务器平台的兼容性验证,证明公司的高容量DDR5模块技术已达到全球顶尖水平。将以此为基础,深化与全球主要数据中心企业的合作,及时应对激增的服务器客户需求,巩固下一代存储器市场的领导地位。” 在下一代人工智能(AI)基础设施中,存储器正成为决定性能的核心要素。近期AI推理模型不仅需执行简单的回答生成,还需执行复杂的逻辑思考过程,实时处理的数据量正在指数级增长。为了高速稳定处理海量数据,必须具备高容量、高性能的存储器,因此其市场需求也在激增。 SK海力士强调,该产品是符合市场需求的最佳解决方案。技术团队表示:“搭载本产品的服务器与采用32Gb 128GB产品时相比,推理性能提高了16%。通过利用32Gb DRAM单芯片设计,其功耗较1a 16Gb 256GB产品降低约18%。”因此,公司预计注重功耗效率*的数据中心客户将高度关注该产品。 SK海力士DRAM产品规划担当李相权副社长表示:“通过此次认证,公司巩固了在DDR5服务器DRAM市场的主导地位,也快速应对了客户的要求。作为全方位面向AI的存储器创造者,将积极应对高性能、低功耗、高容量存储器需求的增长,致力于满足客户要求。” 英特尔公司平台架构(Platform Architecture)副总裁Dimitrios Ziakas表示:“双方紧密合作显著提升了技术成熟度,由此取得了良好成果,也为存储器技术的发展做出了贡献。高容量模块将有效应对AI工作负载(Workload)激增需求,大幅提升数据中心客户所需的性能和效率。”
2025-12-19 00:32:40 -
三星电子HBM出货量或迎三倍增长随着人工智能(AI)生态逐渐从以英伟达、AMD等图形处理器(GPU)为中心,向以博通、谷歌、亚马逊等定制芯片(ASIC)厂商主导的结构扩展,市场预期,三星电子明年的高带宽存储器(HBM)销售额将实现约三倍的大幅增长。 据业界日前消息,KB证券研究员金东元(音)分析指出,三星电子明年HBM的比特出货量预计将达到112亿吉比特(Gb),较今年增长约三倍。他表示,这一增长主要得益于三星电子在博通、谷歌、亚马逊、微软、Meta等ASIC厂商中建立起多元且稳固的客户基础,从而为明年的出货放量提供了有力支撑。 金东元进一步分析,随着AI算力结构逐步演变,GPU与ASIC的市场比例预计将由2025年的7比3,调整至2026年的6比4。自2027年起,伴随推理市场的迅速扩大,ASIC在整体结构中的占比有望提升至接近50%。特别是在HBM搭载容量方面,ASIC厂商预计将显著增加配置,而三星电子有望在GPU与ASIC厂商围绕高容量HBM的竞争以及AI多元化生态扩张过程中,成为重要受益者之一。 此外,业内普遍预计,三星电子对博通的HBM供应量明年有望增至今年水平的三倍,其HBM市场占有率也将相应实现翻番。金东元强调,在以ASIC厂商为核心的客户体系支撑下,三星电子计划在明年将约60%的HBM总产能分配给ASIC客户。其中,对博通的HBM供应量预计同比增长约三倍。据此推算,三星电子明年在HBM市场的占有率有望达到35%左右,较今年实现约两倍的增长。
2025-12-15 23:42:54 -
AI"考生"迎战韩国高考数学 本土模型得分远逊于海外一项调查显示,目前韩国在人工智能(AI)大型语言模型(LLM)领域的发展水平仍明显落后于海外先进模型。在针对韩国高考数学试题及国际论述型数学题的解答能力评估中,韩国模型的平均得分显著低于海外模型。 西江大学数学研究团队于15日公布一项对比研究成果。该研究选取国内与海外各五个具有代表性的大型语言模型,分别解答今年韩国高考数学试题20道以及来自多个国家的论述型数学试题30道,结果显示双方表现存在明显差距。 在韩国高考数学试题部分,研究团队从概率与统计、微积分、几何四大领域中分别选取难度最高的五道题目,共计二十题;论述型试题则包括韩国十所大学的历年真题十道、印度大学入学考试数学题十道,以及日本东京大学工学院研究生入学考试数学题十道,总计三十题。全部五十道题目由十个模型分别进行作答。 参与评测的韩国模型包括Upstage的“Solar Pro-2”、LG AI研究院的“EXAONE 4.0.1”、NAVER的“HCX-007”、SK电信的“A.X 4.0(72B)”,以及NCsoft的轻量化模型“Llama Barco 8B Instruct”。海外模型则涵盖GPT-5.1、Gemini 3 Pro Preview、Claude Opus 4.5、Grok 4.1 Fast以及DeepSeek V3.2。 测评结果显示,海外模型的得分区间为76至92分,而韩国模型中除Solar Pro-2获得58分外,其余模型得分均集中在20分左右的较低水平。其中Llama Barco 8B Instruct仅得2分,为所有模型中最低。研究团队指出,在单纯依赖推理的条件下,韩国五个模型难以完成大部分题目的解答。 此外,研究团队进一步从按大学水平至教授级研究难度细分的题库“EntropyMath(熵数学)”中选取十道题目,交由上述十个模型进行作答。在此项测试中,海外模型得分介于82.8至90分之间,韩国模型则仅为7.1至53.3分。若采用“最多尝试三次、答对即为通过”的规则进行评估,Grok获得满分,其余海外模型也均达到90分;相比之下,韩国模型中Solar Pro-2为70分,EXAONE为60分,HCX-007为40分,A.X 4.0为30分,Llama Barco 8B Instruct仅为20分。 金钟洛教授表示,此次测试结果显示出韩国本土模型与海外先进模型之间仍存在显著差距。未来,研究团队将持续完善自主开发的问题生成算法与处理流程,不仅在数学领域,还将致力于在科学、制造、文化等多个领域构建高质量数据集,以推动领域专用模型整体性能的提升。
2025-12-15 19:17:41 -
魔法背后的账单:AI不是免费的人工智能(AI)如今已不仅深入企业和公共机构,更触及了学生乃至普通消费者的掌心。随着生成式AI的普及,仿佛每个人都成为了技术的受益者。然而,在此刻我们需要冷静地抛出一个问题:实际上是谁在制造和运营这个庞大的智能体?又是谁在承担这就连天文数字都难以形容的巨额成本? 大语言模型(LLM)和生成式AI并非凭空出现的魔法,而是运行在实实在在的物理实体之上。它需要庞大的数据、高性能半导体、相当于足球场数倍大小的超大型数据中心,以及无数工程师精心设计算法所投入的劳动。虽然用户在使用时感觉像是免费服务,但其背后盘踞着巨大的成本结构。“AI是免费的”这一认知,更像是企业为了争夺用户而制造的一种体验错觉。 AI被视为免费的背景,源于过去搜索引擎和社交媒体等IT服务所采取的“先免费后付费”策略。但回顾IT产业的历史,免费向来只是为了抢占市场的初期手段,绝非可持续的商业结构。如今的AI同样处于隐瞒成本或用投资款填补亏损的阶段,账单终有一天会浮出水面。 AI的成本往往产生于肉眼不可见之处。24小时不间断运转的数据中心消耗着巨额电力,为了冷却服务器,还需要使用惊人的水资源和能源。随着数据中心向特定区域集中,电网负担和环境问题也正在累积成为社会成本。我们在智能手机屏幕上几秒钟内得到的答案,其实是建立在全球基础设施所承担的集体成本之上的结果。 严格来说,大众目前免费使用的功能仅是AI的冰山一角。企业提供的仅仅是“尝鲜”级别的功能,旨在收集数据和测试市场性。若想利用AI真正的潜力——即能够革新业务的高性能功能,就必须支付相应的代价。高度进化的推理能力、有保障的安全环境以及个性化的AI秘书功能,绝不会免费提供。 不过,在掏出钱包之前,还有一个先决课题,那就是用户的“AI应用能力”。如果不理解AI的运作原理,仅仅出于好奇或跟风按下付费按钮,无异于一种浪费。无论工具多么昂贵卓越,若不懂得驾驭便是废铁。如果不懂得如何提问,就别指望得到明晰的答案。 训练一个大规模模型需要耗资数百亿至数千亿韩元。在运营阶段,每一个提问也都会产生运算成本和电力成本。随着用户增加,成本并非线性增长,而是呈几何级数爆发。这也是随着AI大众化,“免费”概念越发难以维持的悖论所在。 AI不是魔法。它是某人的资本、资源和劳动投入的产物。现在看起来免费,并不是因为没有成本,而是因为暂时有别人在别处代为支付。技术虽然在进化,但经济的基本原理不会改变。AI也不例外。AI绝非免费。只有正视这一显而易见的事实,我们才能展开成熟的技术讨论。
2025-12-15 02:48:54 -
与中美技术差距明显缩小 韩国AI三大强国小目标愈加清晰基本以中美两国为主导形成的全球人工智能(AI)模型竞争格局中,韩国正在后来居上奋力追赶。分析称,随着全球AI竞争加剧,AI前沿模型之间的差距正在逐渐缩小,韩国跻身全球“AI三大强国的”小目标日益清晰。 上周微软发布的一份报告显示,在各国代表AI模型的横向比较重,韩国LG的混合推理AI模型EXAONE 4.0评分仅次于美国Open AI的GPT-5和中国的Deepseek 3.1,以GPT-5性能为100分基准,Deepseek 3.1得分为84.1,EXAONE 4.0得分为82.4,。韩国的代表AI模型性能落后美国约18%,但几乎已与中国并驾齐驱。 微软此次从编程、解决问题、推理、执行指令准确性、信息检索水平等五个方面进行评估。报告称,目前拥有前沿AI模型的只有7个国家,性能差距正在不断缩小。报告以美国为基准,技术领先中国和韩国分别为5.3个月和5.9个月,其次依次为法国(7个月)、英国(7.7个月)、加拿大(7.8个月)、以色列(11.6个月)等。 技术差距以GPT为参照基准,计算其他国家的AI模型性能相当于GPT哪个时间点的水平。例如中国今年9月发布的Deepseek 3.1性能相当于4月发布的GPT-o3,因此中美之间技术差距为5.3个月。 本次调查结果备受瞩目,此前评估结果显示韩国在AI技术竞争力方面落后美国一年以上,目前已缩小至6个月以内。业内人士指出,韩国企业虽然起步相对较晚,但全力投入AI研发,正在快速迎头赶上。 专家认为,未来韩国有望成为同时具备制造实力、基础设施与AI模型三大AI竞争力要素的“全能”国家。截止目前韩国仅在以半导体为主的AI制造领域优势明显,但在获得英伟达26万块图形处理器(GPU)后,基建设施得到完善,此前相对薄弱的AI模型有望发力。 微软在报告中将韩国列为AI普及的成功范例,称“韩国是全球半导体生产速度最快、质量最高的国家,韩国的成功源于对数字技术的高度掌控,并以此为基础构建强大产业体系。” 报告还预测,随着AI产业向推理型AI及物理型AI发展,韩国将迎来新一轮发展机遇。当AI技术进化至能够自主做出判断和提出创意的阶段并与机器人结合后,将能执行更为精密的作业。这一发展趋势将有望与韩国现有的制造业竞争力产生可观的协同效应。
2025-11-06 20:04:18
-
中国开源AI生态加速崛起 重塑全球人工智能格局中国人工智能(AI)初创企业深度求索(DeepSeek)去年1月发布DeepSeek-R1模型,并同步开源模型权重,撼动全球AI生态界。近来一项分析指出,中国AI生态的发展已不再局限于追赶美国,而是凭借开源这一核心战略,逐步构建起具有全球影响力的自主生态体系。 据ICT业界8日消息,全球知名AI社区平台Hugging Face(抱抱脸)近日发布题为《DeekSeek登场后一年》的报告,称过去一年中,Hugging Face平台上新发布的中国生成式AI模型下载量已超越美国模型,DeekSeek登场后最显著的变化在于开源标准化的形成。 报告指出,过去中国大型科技企业多以封闭式AIP形式提供高性能模型,而DeepSeek-R1首次公开模型推理过程与训练经验,彻底改变行业格局。例如百度此前从未公开开源AI模型,但在DeepSeek发布一年后,已在Hugging Face上开源超过100个模型。中国AI企业月之暗面(Moonshot AI)也在发布Kimi K2模型后,正式加入开源生态阵营。 麻省理工学院和Hugging Face去年底联合发布的研究报告显示,中国开源AI模型的全球下载比重为17.1%,已超过美国的15.8%。不仅下载数量领先,在以AI模型为基础上衍生的派生模型数量上同样领先。 根据报告,阿里巴巴的“千问”(Qwen)模型已衍生出11.5万个相关模型,远高于谷歌的7.2万个、Meta的4.6万个和OpenAI的1.1万个。这意味着全球开发者在开发新AI模型时,最常借鉴和使用的是中国的开源AI模型。 随着中国开源AI模型逐渐成为行业标准,影响力已扩展至美国硅谷。报告称,约8成美国AI初创企业在产品开发过程中使用中国开源AI模型。在OpenAI、Anthropic等美国企业坚持封闭式生态的同时,中国企业主动将高性能模型开源,并成为全球标准。 中国企业在开放型AI生态界影响力持续扩大,令韩国AI模型面临巨大挑战。Naver和Kakao等拥有自主AI模型的企业以专业韩语能力为核心优势,但由于中国AI模型外语性能快速提升,这一优势正在被削弱。尤其在韩国政府主导的自主AI基础模型项目中,阿里巴巴“千问”模型的视觉编码器被采用,而Naver却落选,显示出韩国AI企业过于依赖中国开源生态的现实。 AI行业相关人士指出,相比于从零开始开发自主AI模型,以中国开源AI模型开发金融、医疗等垂直领域的AI正在成为行业常态。
2026-02-08 19:11:45 -
SK海力士去年营业利润达47万亿韩元 创历史新高SK海力士28日发布业绩报告称,去年实现销售额97.15万亿韩元(约合人民币4728亿元),营业利润达47.21万亿韩元,净利润达42.95万亿韩元,营业利润率高达49%,净利润率也达到44%,刷新历史纪录。与2024年相比,全年销售额增加逾30万亿韩元,营业利润也实现翻倍增长,创公司成立以来最高年度业绩。 去年第四季度业绩同样表现亮眼。受高带宽存储器(HBM)需求持续火热,以及服务器用通用存储器需求显著回暖的推动,公司去年第四季度营业收入达32.83万亿韩元,环比增长34%;营业利润为19.17万亿韩元,环比增长68%,营业利润率高达58%,均创单季历史新高。 SK海力士表示,围绕AI驱动的市场结构变化,公司持续强化技术竞争力并提高高附加值产品比重,并在兼顾收益性与增长性的经营战略下,公司实现了跨越式增长。 从业务结构来看,DRAM领域中,HBM销售额同比增长逾一倍,成为推动业绩创纪录的核心引擎。在通用DRAM方面,公司已正式量产第六代10纳米级(1c)DDR5产品,并成功开发基于1b工艺的32Gb单芯片、容量达256GB的服务器用DDR5 RDIMM模块,进一步巩固了其在服务器内存市场的领导地位。 NAND闪存业务方面,公司在上半年需求低迷的情况下完成了321层QLC产品研发,并在下半年积极应对以企业级SSD(eSSD)为中心的需求回升,推动全年销售额创下新高。 展望未来,SK海力士预计,随着AI市场从“训练”阶段向“推理”阶段加速转型,分布式计算架构需求持续扩大,存储器在AI系统中的战略重要性将进一步凸显。除HBM等高性能存储器外,服务器用DRAM与NAND闪存的整体需求也预计将同步增长。 SK海力士将依托客户信赖,持续强化技术优势、产品可靠性及量产能力。公司已于去年9月率先构建HBM4量产体系,并已按客户需求实现稳定供货,并将通过HBM4巩固领先地位,同时加快布局“定制化HBM”(Custom HBM)领域。 在通用存储器方面,公司计划加速1c工艺转换,扩大面向AI的SOCAMM2、GDDR7等产品组合;在NAND领域,则将通过321层堆叠技术提升竞争力,并结合旗下Solidigm的QLC eSSD产品,积极应对AI数据中心存储需求。 在生产布局方面,公司优先将保障客户需求,提前实现韩国清州M15X工厂产能最大化,并推进龙仁半导体集群首座晶圆厂建设,稳步扩充中长期产能基础。同时,清州P&T7工厂及美国印第安纳州先进封装工厂也将按计划推进,以构建覆盖前端与后端工艺的全球一体化生产体系。 在创纪录业绩的基础上,SK海力士同步宣布强化股东回报政策。公司将实施每股1500韩元的额外分红,总规模约1万亿韩元,使2025财年每股股息达到3000韩元,全年股东回报规模约2.1万亿韩元。此外,公司还计划注销1530万股库存股,以提升每股价值。 SK海力士Corporate Center负责人宋炫宗(音)表示,公司将以差异化技术竞争力为基础,在实现可持续增长的同时,保持未来投资、财务稳健性与股东回报之间的平衡,进一步巩固其作为AI时代核心基础设施合作伙伴的地位。
2026-01-29 02:49:48 -
机遇与争议并存的制度试验 韩国全球率先实施AI监管本月22日起,韩国正式施行《人工智能发展与信任基础构建基本法》(以下简称《AI基本法》),由此成为全球首个全面实施AI监管法律的国家。尽管欧盟在立法层面更早推出《人工智能法案》,但由于选择分阶段实施,全面生效时间被不断推迟,这使得韩国在落地执行层面抢得先机。 欧盟原计划自2024年8月起对“高风险AI”实施核心监管条款,但欧盟委员会在去年底发布包含监管放宽内容的“数字简化方案”后,外界普遍预计相关条款可能延至2027年底才正式适用。在全球各国将AI视为战略性核心资产、竞相加大财政与政策支持的背景下,韩国此时率先全面实施AI监管法,引发了产业界的广泛争议。 持反对意见者多数认为,过早、过严的监管可能削弱本土AI产业竞争力,支持者则指出,AI技术发展迅猛,而伦理规范与风险治理体系长期滞后,韩国若能全面落实AI基本法,将有机会成为“包容性AI治理”的示范国家。 ▲引入“高影响AI”概念 强调安全与可解释性 根据AI基本法,科学技术信息通信部长官需每三年制定一次《AI基本计划》,以系统性提升国家AI竞争力。法律还强化了国家人工智能委员会的治理效能,并将AI安全研究机构的设立正式写入法律条文,用于评估和研究AI潜在风险。 政府强调,立法宗旨并非重罚企业,而是通过最低限度监管和更高的政策可预期性,通过AI基本法来振兴产业。然而,鉴于深度伪造内容泛滥、虚假信息操纵舆论,以及AI可能侵蚀生命权与基本权利等风险,法律引入了“高影响AI”概念。 所谓“高影响AI”,是指在医疗、能源、招聘、信贷审核等与国民生命或权利息息相关的领域中使用的AI系统。这类AI将被要求建立人工监督机制,并主动采取安全保障措施,同时需具备一定程度的“可解释性”,即能够说明AI决策所依据的推理过程。 在自动驾驶领域,目前仍需人类驾驶员介入的L3级自动驾驶不被认定为高影响AI,但完全由系统自主行驶的L4级及以上则被纳入严格监管范围。 ▲生成式AI须标识来源 海外巨头须设立本地代理 针对生成式AI,法律规定必须通过可见或不可见水印等方式,明确标识内容为AI生成。法律义务主体主要包括AI模型开发商和AI解决方案或服务提供商,而仅使用AI生成内容的企业或普通用户不在直接监管范围内。 对于海外科技巨头,若满足以下任一条件:上一年度全球营收超过1万亿韩元(约合人民币47.4亿元)、韩国AI服务营收超过100亿韩元、韩国日均用户数超过100万人,则必须在韩国设立本地代理。目前,Open AI和谷歌符合相关条件。 违反AI基本法的企业,最高可被处以3000万韩元罚款。不过,政府明确表示,将设置至少一年的“指导与整改期”(过渡期),以减轻法律对相关产业的冲击。 ▲初创企业压力突出 政府强调“AI指南针”定位 对AI基本法实施最为担忧的是AI模型和服务开发领域的初创企业。相较大型科技公司可借助律师事务所或内部法务团队应对合规要求,资金和人力有限的初创企业普遍感到力不从心。 初创企业联盟去年底对101家本土AI初创公司的调查显示,98%的企业表示尚未建立实质性的AI基本法应对体系。尽管政府表示将谨慎行使调查权,并在过渡期内不急于处罚,但“调查权本身”仍可能对挫伤产业创新热情。 有初创企业人士呼吁,有必要效仿《重大灾害处罚法》对小规模企业设置额外宽限期的做法,对AI初创企业给予更多制度性照顾。对此,科技信息通信部回应称,AI基本法的目标不是“惩罚”,而是为行业提供清晰的合规“路线图”,从长期看有助于产业稳定发展。 ▲透明性与数据安全仍待强化 随着AI在国防、医疗等高敏感领域的应用日益频繁,学界与业界呼吁进一步强化“黑箱式”AI模型的透明度要求。尤其在开源模型广泛应用的背景下,如何防范国内数据外流及新型网络安全威胁,被认为在现行法律中体现不足。 有观点认为,若AI基本法过度偏向监管,应通过与《个人信息保护法》《信息通信网络法》等现行法律的衔接,构建更灵活的治理体系,以防范利用AI工具实施的新型权利侵害行为。 总体而言,AI基本法的实施既是韩国AI治理的一次大胆尝试,也是对政策平衡能力的重大考验。AI基本法成效如何,不仅将影响本国产业走向,也可能为全球AI监管提供重要参考。
2026-01-22 22:58:24 -
Naver推理AI模型被纳入全球权威AI性能评估体系Naver旗下云计算和人工智能(AI)服务提供商Naver Cloud发布的高性能推理AI近日被纳入全球权威AI性能评估体系,标志着韩国本土AI技术开发能力的显著提升。 30日,全球AI性能评估机构Artificial Analysis(AA)将Naver Cloud前日公开的“HyperCLOVA X”高性能推理模型纳入大模型评测榜单Artificial Analysis Intelligence Index(AA智能指数)。Naver Cloud的推理模型以44分的综合成绩在韩国本土AI模型中排名第二位。 本次评估中,Motif Technologies发布的“Motif 12.7B”获得45分位居韩国首位。LG AI研究院的“ EXAONE 4.0”和Upstage的“Solar Pro2”分别获得43分和38分。 从全球来看,谷歌的“Gemini 3 Pro”和Open AI的“ChatGPT 5.0”同为73分并列榜首。 此外,Naver Cloud的推理模型在模拟电信运营商客户支持场景、评估AI工具使用能力的专项测试中,取得了87%的高分,创下韩国AI模型的最高纪录。 专家分析称,这一评估结果不仅体现了Naver Cloud推理模型在单纯推理上的能力,更展示了作为“全模态”(Omni-modal)助手的应用潜力。“全模态”是比现有“多模态”概念更为广泛和先进的下一代AI技术方向,能处理文本、图像、音频、数据表格等多模态数据,并生成对应输出的大规模模型,通过统一架构实现跨模态数据融合与协同推理。 Naver Cloud日前发布两款新一代全模态AI模型,一款是此次参与评估的推理模型,另一款则是在现有AI平台“HyperClovaX”基础上功能大幅扩展的“原生全模态模型”。
2025-12-30 18:44:44 -
HBM3E锁定明年市场 HBM4决战序幕全面拉开在第五代高带宽存储器HBM3E持续主导市场格局的背景下,随着英伟达计划于明年下半年推出下一代人工智能(AI)加速器“Rubin”,第六代产品HBM4的市场预计将正式启动,SK海力士与三星电子之间的主导权竞争或将进一步激化。 据业界28日消息,搭载HBM3E的英伟达Blackwell系列目前占据AI芯片市场的主要份额,加之H200对华出口有望启动,HBM3E预计至少在2026年前仍将维持在整体HBM市场中的主体地位。同时,随着谷歌、博通、微软、亚马逊云服务等定制芯片(ASIC)厂商对HBM3E的需求持续增长,HBM3E市场规模有望进一步扩大。LS证券分析指出,明年HBM3E在整体HBM产量中的占比预计为66%,虽较今年的87%下降21个百分点,但仍将占据一半以上份额。 SK海力士凭借在HBM3E早期量产及向主要客户供货方面的领先优势,目前以约60%的市占率位居HBM市场首位,不仅承担英伟达大部分订单,也为多家ASIC厂商提供HBM3E产品,市场主导地位短期内有望继续保持。 同时,市场关注焦点正逐步转向下一代产品HBM4。HBM4在性能、制程技术及基板芯片应用等方面均实现进一步升级。若英伟达Rubin成为首款搭载HBM4的产品,HBM4市场预计将于2027年全面展开。作为Blackwell架构的后继平台,Rubin定位为高性能AI计算平台,旨在提升推理与训练效率。此外,谷歌第八代TPU、亚马逊Trainium4以及微软Maia 300均计划采用HBM4,并有望在2027年面世。据此预测,HBM4出货量将于2027年超越HBM3E。 三星电子对在HBM4市场展现出强烈信心。三星电子计划在HBM4中采用基于三星代工4纳米工艺的基板芯片,以及10纳米级第六代(1c)DRAM工艺。据悉,其内部技术评估已实现每秒11.7吉比特的业界最高性能水平。相比之下,SK海力士则采用台积电12纳米基板芯片与第五代10纳米级DRAM工艺。近期,三星电子在英伟达HBM4系统级封装测试中获得最高评分,被业界视为HBM4供货前景向好的积极信号。三星电子计划于明年初正式启动HBM4的量产工作。 市场对三星电子的业绩预期也相应上调。全球投资银行野村证券在最新报告中预测,三星电子明年营业利润有望达约133万亿韩元(约合人民币6446.9亿元)。野村证券分析指出,三星电子预计将较HBM3E更集中资源于通用存储器及HBM4的生产,新增产能中将有相当部分分配给HBM4所需的1c制程,且英伟达的质量认证有望于明年1月前完成。
2025-12-28 19:23:21 -
SK海力士256GB DDR5高容量服务器DRAM获英特尔数据中心认证SK海力士18日宣布,将基于第五代10纳米级(1b)32Gb单片的256GB DDR5 RDIMM高容量服务器DRAM模块应用于英特尔至强6平台(Intel Xeon 6 platform),业界首次获得英特尔数据中心认证(Intel Data Center Certified)。 此次认证在位于美国的英特尔先进数据中心开发实验室(Advanced Data Center Development Laboratory)完成。SK海力士经过数次的全方位评估,证实其产品与Xeon平台相结合时具备可靠的性能、兼容性和品质。公司此前已于今年1月获得了基于第四代10纳米级(1a)16Gb的256GB产品认证。 SK海力士方面表示:“此次率先完成与引领服务器CPU市场的英特尔最新服务器平台的兼容性验证,证明公司的高容量DDR5模块技术已达到全球顶尖水平。将以此为基础,深化与全球主要数据中心企业的合作,及时应对激增的服务器客户需求,巩固下一代存储器市场的领导地位。” 在下一代人工智能(AI)基础设施中,存储器正成为决定性能的核心要素。近期AI推理模型不仅需执行简单的回答生成,还需执行复杂的逻辑思考过程,实时处理的数据量正在指数级增长。为了高速稳定处理海量数据,必须具备高容量、高性能的存储器,因此其市场需求也在激增。 SK海力士强调,该产品是符合市场需求的最佳解决方案。技术团队表示:“搭载本产品的服务器与采用32Gb 128GB产品时相比,推理性能提高了16%。通过利用32Gb DRAM单芯片设计,其功耗较1a 16Gb 256GB产品降低约18%。”因此,公司预计注重功耗效率*的数据中心客户将高度关注该产品。 SK海力士DRAM产品规划担当李相权副社长表示:“通过此次认证,公司巩固了在DDR5服务器DRAM市场的主导地位,也快速应对了客户的要求。作为全方位面向AI的存储器创造者,将积极应对高性能、低功耗、高容量存储器需求的增长,致力于满足客户要求。” 英特尔公司平台架构(Platform Architecture)副总裁Dimitrios Ziakas表示:“双方紧密合作显著提升了技术成熟度,由此取得了良好成果,也为存储器技术的发展做出了贡献。高容量模块将有效应对AI工作负载(Workload)激增需求,大幅提升数据中心客户所需的性能和效率。”
2025-12-19 00:32:40 -
三星电子HBM出货量或迎三倍增长随着人工智能(AI)生态逐渐从以英伟达、AMD等图形处理器(GPU)为中心,向以博通、谷歌、亚马逊等定制芯片(ASIC)厂商主导的结构扩展,市场预期,三星电子明年的高带宽存储器(HBM)销售额将实现约三倍的大幅增长。 据业界日前消息,KB证券研究员金东元(音)分析指出,三星电子明年HBM的比特出货量预计将达到112亿吉比特(Gb),较今年增长约三倍。他表示,这一增长主要得益于三星电子在博通、谷歌、亚马逊、微软、Meta等ASIC厂商中建立起多元且稳固的客户基础,从而为明年的出货放量提供了有力支撑。 金东元进一步分析,随着AI算力结构逐步演变,GPU与ASIC的市场比例预计将由2025年的7比3,调整至2026年的6比4。自2027年起,伴随推理市场的迅速扩大,ASIC在整体结构中的占比有望提升至接近50%。特别是在HBM搭载容量方面,ASIC厂商预计将显著增加配置,而三星电子有望在GPU与ASIC厂商围绕高容量HBM的竞争以及AI多元化生态扩张过程中,成为重要受益者之一。 此外,业内普遍预计,三星电子对博通的HBM供应量明年有望增至今年水平的三倍,其HBM市场占有率也将相应实现翻番。金东元强调,在以ASIC厂商为核心的客户体系支撑下,三星电子计划在明年将约60%的HBM总产能分配给ASIC客户。其中,对博通的HBM供应量预计同比增长约三倍。据此推算,三星电子明年在HBM市场的占有率有望达到35%左右,较今年实现约两倍的增长。
2025-12-15 23:42:54 -
AI"考生"迎战韩国高考数学 本土模型得分远逊于海外一项调查显示,目前韩国在人工智能(AI)大型语言模型(LLM)领域的发展水平仍明显落后于海外先进模型。在针对韩国高考数学试题及国际论述型数学题的解答能力评估中,韩国模型的平均得分显著低于海外模型。 西江大学数学研究团队于15日公布一项对比研究成果。该研究选取国内与海外各五个具有代表性的大型语言模型,分别解答今年韩国高考数学试题20道以及来自多个国家的论述型数学试题30道,结果显示双方表现存在明显差距。 在韩国高考数学试题部分,研究团队从概率与统计、微积分、几何四大领域中分别选取难度最高的五道题目,共计二十题;论述型试题则包括韩国十所大学的历年真题十道、印度大学入学考试数学题十道,以及日本东京大学工学院研究生入学考试数学题十道,总计三十题。全部五十道题目由十个模型分别进行作答。 参与评测的韩国模型包括Upstage的“Solar Pro-2”、LG AI研究院的“EXAONE 4.0.1”、NAVER的“HCX-007”、SK电信的“A.X 4.0(72B)”,以及NCsoft的轻量化模型“Llama Barco 8B Instruct”。海外模型则涵盖GPT-5.1、Gemini 3 Pro Preview、Claude Opus 4.5、Grok 4.1 Fast以及DeepSeek V3.2。 测评结果显示,海外模型的得分区间为76至92分,而韩国模型中除Solar Pro-2获得58分外,其余模型得分均集中在20分左右的较低水平。其中Llama Barco 8B Instruct仅得2分,为所有模型中最低。研究团队指出,在单纯依赖推理的条件下,韩国五个模型难以完成大部分题目的解答。 此外,研究团队进一步从按大学水平至教授级研究难度细分的题库“EntropyMath(熵数学)”中选取十道题目,交由上述十个模型进行作答。在此项测试中,海外模型得分介于82.8至90分之间,韩国模型则仅为7.1至53.3分。若采用“最多尝试三次、答对即为通过”的规则进行评估,Grok获得满分,其余海外模型也均达到90分;相比之下,韩国模型中Solar Pro-2为70分,EXAONE为60分,HCX-007为40分,A.X 4.0为30分,Llama Barco 8B Instruct仅为20分。 金钟洛教授表示,此次测试结果显示出韩国本土模型与海外先进模型之间仍存在显著差距。未来,研究团队将持续完善自主开发的问题生成算法与处理流程,不仅在数学领域,还将致力于在科学、制造、文化等多个领域构建高质量数据集,以推动领域专用模型整体性能的提升。
2025-12-15 19:17:41 -
魔法背后的账单:AI不是免费的人工智能(AI)如今已不仅深入企业和公共机构,更触及了学生乃至普通消费者的掌心。随着生成式AI的普及,仿佛每个人都成为了技术的受益者。然而,在此刻我们需要冷静地抛出一个问题:实际上是谁在制造和运营这个庞大的智能体?又是谁在承担这就连天文数字都难以形容的巨额成本? 大语言模型(LLM)和生成式AI并非凭空出现的魔法,而是运行在实实在在的物理实体之上。它需要庞大的数据、高性能半导体、相当于足球场数倍大小的超大型数据中心,以及无数工程师精心设计算法所投入的劳动。虽然用户在使用时感觉像是免费服务,但其背后盘踞着巨大的成本结构。“AI是免费的”这一认知,更像是企业为了争夺用户而制造的一种体验错觉。 AI被视为免费的背景,源于过去搜索引擎和社交媒体等IT服务所采取的“先免费后付费”策略。但回顾IT产业的历史,免费向来只是为了抢占市场的初期手段,绝非可持续的商业结构。如今的AI同样处于隐瞒成本或用投资款填补亏损的阶段,账单终有一天会浮出水面。 AI的成本往往产生于肉眼不可见之处。24小时不间断运转的数据中心消耗着巨额电力,为了冷却服务器,还需要使用惊人的水资源和能源。随着数据中心向特定区域集中,电网负担和环境问题也正在累积成为社会成本。我们在智能手机屏幕上几秒钟内得到的答案,其实是建立在全球基础设施所承担的集体成本之上的结果。 严格来说,大众目前免费使用的功能仅是AI的冰山一角。企业提供的仅仅是“尝鲜”级别的功能,旨在收集数据和测试市场性。若想利用AI真正的潜力——即能够革新业务的高性能功能,就必须支付相应的代价。高度进化的推理能力、有保障的安全环境以及个性化的AI秘书功能,绝不会免费提供。 不过,在掏出钱包之前,还有一个先决课题,那就是用户的“AI应用能力”。如果不理解AI的运作原理,仅仅出于好奇或跟风按下付费按钮,无异于一种浪费。无论工具多么昂贵卓越,若不懂得驾驭便是废铁。如果不懂得如何提问,就别指望得到明晰的答案。 训练一个大规模模型需要耗资数百亿至数千亿韩元。在运营阶段,每一个提问也都会产生运算成本和电力成本。随着用户增加,成本并非线性增长,而是呈几何级数爆发。这也是随着AI大众化,“免费”概念越发难以维持的悖论所在。 AI不是魔法。它是某人的资本、资源和劳动投入的产物。现在看起来免费,并不是因为没有成本,而是因为暂时有别人在别处代为支付。技术虽然在进化,但经济的基本原理不会改变。AI也不例外。AI绝非免费。只有正视这一显而易见的事实,我们才能展开成熟的技术讨论。
2025-12-15 02:48:54 -
与中美技术差距明显缩小 韩国AI三大强国小目标愈加清晰基本以中美两国为主导形成的全球人工智能(AI)模型竞争格局中,韩国正在后来居上奋力追赶。分析称,随着全球AI竞争加剧,AI前沿模型之间的差距正在逐渐缩小,韩国跻身全球“AI三大强国的”小目标日益清晰。 上周微软发布的一份报告显示,在各国代表AI模型的横向比较重,韩国LG的混合推理AI模型EXAONE 4.0评分仅次于美国Open AI的GPT-5和中国的Deepseek 3.1,以GPT-5性能为100分基准,Deepseek 3.1得分为84.1,EXAONE 4.0得分为82.4,。韩国的代表AI模型性能落后美国约18%,但几乎已与中国并驾齐驱。 微软此次从编程、解决问题、推理、执行指令准确性、信息检索水平等五个方面进行评估。报告称,目前拥有前沿AI模型的只有7个国家,性能差距正在不断缩小。报告以美国为基准,技术领先中国和韩国分别为5.3个月和5.9个月,其次依次为法国(7个月)、英国(7.7个月)、加拿大(7.8个月)、以色列(11.6个月)等。 技术差距以GPT为参照基准,计算其他国家的AI模型性能相当于GPT哪个时间点的水平。例如中国今年9月发布的Deepseek 3.1性能相当于4月发布的GPT-o3,因此中美之间技术差距为5.3个月。 本次调查结果备受瞩目,此前评估结果显示韩国在AI技术竞争力方面落后美国一年以上,目前已缩小至6个月以内。业内人士指出,韩国企业虽然起步相对较晚,但全力投入AI研发,正在快速迎头赶上。 专家认为,未来韩国有望成为同时具备制造实力、基础设施与AI模型三大AI竞争力要素的“全能”国家。截止目前韩国仅在以半导体为主的AI制造领域优势明显,但在获得英伟达26万块图形处理器(GPU)后,基建设施得到完善,此前相对薄弱的AI模型有望发力。 微软在报告中将韩国列为AI普及的成功范例,称“韩国是全球半导体生产速度最快、质量最高的国家,韩国的成功源于对数字技术的高度掌控,并以此为基础构建强大产业体系。” 报告还预测,随着AI产业向推理型AI及物理型AI发展,韩国将迎来新一轮发展机遇。当AI技术进化至能够自主做出判断和提出创意的阶段并与机器人结合后,将能执行更为精密的作业。这一发展趋势将有望与韩国现有的制造业竞争力产生可观的协同效应。
2025-11-06 20:04:18