深圳WBG香港邀请赛夺冠,PEL剑指世界杯
深圳WBG香港邀请赛夺冠,PEL剑指世界杯
深圳WBG香港邀请赛夺冠,PEL剑指世界杯今年年初,DeepSeek AI大模型横空出世,迅速成为(chéngwéi)科技(kējì)圈的热门话题。与此同时,AI PC 也持续进化,步入新的发展阶段(jiēduàn)。对于众多科技发烧友而言,本地部署大模型的诱惑难以(nányǐ)抵挡。相较于直接付费使用成熟 AI 应用,DeepSeek 的完全开源特性,让发烧友们热衷于在(zài)本地发挥硬件 AI 性能。
然而,在轻薄笔记本电脑领域,面对(miànduì)本地运行 DeepSeek 大模型(móxíng)这一挑战,不同品牌和平台的(de)表现究竟如何(rúhé)?“轻薄笔记本电脑哪个牌子好”这一问题,也随着本地部署大模型的需求,成为消费者关注的重点。
我们找来当下较新的(de)轻薄本,分别搭载了(le)Intel酷睿Ultra9 285H处理器(chǔlǐqì)(chǔlǐqì)和AMD锐龙AI 9 HX370处理器的机型,它们都是各自平台轻薄本能搭载的最强处理器,定位上旗鼓相当。下面,就让我们一同测试不同平台在本地运行 DeepSeek 大(dà)模型的表现,看看“轻薄笔记本电脑哪个牌子好”。
一、测试(cèshì)平台介绍:各有优势 但都是最强移动处理器的竞争者
Intel酷睿Ultra9 285H处理器基于(jīyú)Arrow Lake架构,拥有(yōngyǒu)6个(gè)性能核(hé),8个能效核和2个低功耗能效核,一共16核心,性能核最大睿频频(pínpín)率为5.4GHz,拥有24MB高速缓存。它(tā)内建Intel锐炫140T显卡,包含8个Xe核心,同时还内置NPU,能够提供高达13 TOPS的(de)算力。CPU+GPU+NPU全平台总算力达到99 TOPS,为本地运行大模型提供了很好的支撑。
AMD锐龙AI 9 HX370处理器基于Zen 5架构(jiàgòu),4个Zen 5核心和8个Zen 5c核心,支持(zhīchí)超线程技术,总共是(shì)12个核心24线程,最高加速频率为5.1GHz,拥有12MB的(de)L2 高速缓存和24MB的L3 高速缓存。内建AMD Radeon 890M显卡,包含(bāohán)16个GPU核心。当然也(yě)有独立的NPU引擎,而且算力高达55 TOPS。
需要注意的是,Intel酷睿Ultra9 285H处理器的TDP高达45W,AMD锐龙(ruìlóng)AI 9 HX370处理器的TDP只有(zhǐyǒu)28W。当然,Intel和AMD都允许笔记本制造商根据具体(jùtǐ)产品设计,在一定范围(fànwéi)内设定处理器功耗。
二、DeepSeek-R1模型测试:iGPU算力也(yě)可流畅运行本地部署的(de)14B模型
Ollama是一个(yígè)开源(kāiyuán)的(de)大语言部署服务工具,只需iGPU即可部署大模型。此次(cǐcì)测试就是基于Ollama框架,在本地部署DeepSeek-R1的蒸馏版模型,测试使用iGPU的运行效率。Ollama作为一个开源软件,功能(gōngnéng)依赖全球开发者的共同维护,会有一些特别的分支。
此次测试,专门找来了针对 intel 推理(tuīlǐ)框架和AMD ROCm推理框架分别优化(yōuhuà)过的Ollama版本,更能体现Intel和AMD硬件在各自(gèzì)最佳环境下的运行效率。
(左侧为Intel酷睿Ultra9 285H运行(yùnxíng)截图,右侧(yòucè)为AMD锐龙AI 9 HX370运行截图)
为了(wèile)避免图形(túxíng)UI造成的延迟和对性能的影响,我们直接在命令行中同DeepSeek-R1:14B模型进行对话,准备(zhǔnbèi)了4个问题,分别是:
“你是(shì)谁?”最简单的问题,用来检查(jiǎnchá)DeepSeek大模型是否正确工作。
“模仿李白的风格,写一首七律·登月(dēngyuè)。”简单的文字写作能力。
“一亿之内最大的质数是多少?”数学能力其实不是DeepSeek这种(zhèzhǒng)推理模型的长处,但也可以(kěyǐ)测试一下。
“帮我(wǒ)写一份5月份(yuèfèn)前往南疆的旅行攻略。”对DeepSeek的语义理解/推理能力和文字写作能力进行测试。
同样还对DeepSeek-R1大模型另外两个更小规模的蒸馏版本7B和1.5B,也(yě)都进行了测试(cèshì),测试成绩汇总如下:
模型规模越小,执行速度越快,但相对的AI智力下降也非常明显,经常(jīngcháng)会出现无法回答或者先入死循环的状态。14B规模的模型的反应速度(fǎnyìngsùdù)和(hé)回答准确率表现都比较优秀,在测试平台上运行效果非常好(但数学问题的回答准确度还是不(bù)太行)。
从测试结果(jiéguǒ)上来看,Intel酷睿Ultra9 285H在针对Intel优化(yōuhuà)过的Ollama上的每秒token输出更高一些,在14B和7B规模模型中,对比AMD锐龙AI 9 HX370都有(yǒu)40%左右的领先,而(ér)在1.5B规模模型中,Intel平台仍(réng)有5%左右的优势。
从实际测试的(de)结果上来看,针对Intel 优化过的框架确实拥有更好(gènghǎo)的支持,让Intel处理器的性能表现更强。
三、AI大模型(móxíng)(móxíng)能力测试:Deepseek-R1:14B模型编程已经实用
我们也测试了一下(yīxià)Deepseek-R1:14B模型(móxíng)在Intel酷睿Ultra9 285H处理器的轻薄本上实际表现,看看使用本地Intel iGPU算力来编程(biānchéng),效果如何。
首先安装了一个针对Intel酷睿Ultra处理器优化的(de)AI应用工具(gōngjù):Flowy AI PC软件,然后在其中使用Deeoseek-R1:14B模型来编写一个基于HTML语言(yǔyán)的贪吃蛇(tānchīshé)游戏。
按照Deepseek给出的操作说明,很(hěn)容易就可以把这个由AI写出来的贪吃蛇游戏运行起来(qǐlái)。Intel酷睿Ultra9 285H处理器搭配Deepseek-R1:14B模型,能力具备一定实用价值,可以帮助用户提高编程(biānchéng)速度和工作效率(gōngzuòxiàolǜ)。
四、总结(zǒngjié):Intel 全力推广OpenVINO 效果(xiàoguǒ)已经开始展现
得益于DeepSeek的开源,让本(běn)地部署AI大模型变的前所未有的容易,即使是在轻薄本这种(zhèzhǒng)并不以性能见长的移动(yídòng)平台上,运行本地大模型也能有相当不错的性能表现。
在(zài)测试中,Intel酷睿Ultra9 285H处理器展现出相当强劲的实力(shílì),使用开源部署工具Ollama(Intel优化版),在本地部署DeepSeek-R1:14B,仅(jǐn)依靠(yīkào)CPU的算力,就可以实现接近10 Token/s的输出(shūchū)速度,比AMD锐龙AI 9 HX370处理器的输出高了40%以上,而且这个成绩还是在CPU实际功率相差接近一倍的情况(qíngkuàng)下得出的。
这也从一个侧面说明,AI大模型的(de)高效运行,不仅仅是硬件性能的问题,软件的适配同样重要,甚至比(bǐ)硬件性能更重要一些。
Intel全力推广OpenVINO成效初显,也许硬件的真实性能强弱难以量化比较,但(dàn)从此次测试结果来看,Intel酷睿Ultra9 285处理器在用户实际(shíjì)使用中(zhōng),确实能发挥出比AMD锐龙AI 9 HX370处理器更强的性能。再加上Intel连续举办的人工智能创新应用(yìngyòng)大赛,以资金鼓励开发者,使得基于(jīyú)OpenVINO的AI应用日益丰富,促进了(le)AI生态系统的繁荣。
轻薄(qīngbó)笔记本电脑(bǐjìběndiànnǎo)哪个牌子(páizi)好?对于科技爱好者而言,在选择轻薄笔记本电脑时,可以考虑搭载最新Intel处理器(chǔlǐqì)的品牌机型,不仅能享受到当下卓越的AI应用体验,更能率先拥抱未来AI计算的各种可能性。
今年年初,DeepSeek AI大模型横空出世,迅速成为(chéngwéi)科技(kējì)圈的热门话题。与此同时,AI PC 也持续进化,步入新的发展阶段(jiēduàn)。对于众多科技发烧友而言,本地部署大模型的诱惑难以(nányǐ)抵挡。相较于直接付费使用成熟 AI 应用,DeepSeek 的完全开源特性,让发烧友们热衷于在(zài)本地发挥硬件 AI 性能。
然而,在轻薄笔记本电脑领域,面对(miànduì)本地运行 DeepSeek 大模型(móxíng)这一挑战,不同品牌和平台的(de)表现究竟如何(rúhé)?“轻薄笔记本电脑哪个牌子好”这一问题,也随着本地部署大模型的需求,成为消费者关注的重点。
我们找来当下较新的(de)轻薄本,分别搭载了(le)Intel酷睿Ultra9 285H处理器(chǔlǐqì)(chǔlǐqì)和AMD锐龙AI 9 HX370处理器的机型,它们都是各自平台轻薄本能搭载的最强处理器,定位上旗鼓相当。下面,就让我们一同测试不同平台在本地运行 DeepSeek 大(dà)模型的表现,看看“轻薄笔记本电脑哪个牌子好”。
一、测试(cèshì)平台介绍:各有优势 但都是最强移动处理器的竞争者
Intel酷睿Ultra9 285H处理器基于(jīyú)Arrow Lake架构,拥有(yōngyǒu)6个(gè)性能核(hé),8个能效核和2个低功耗能效核,一共16核心,性能核最大睿频频(pínpín)率为5.4GHz,拥有24MB高速缓存。它(tā)内建Intel锐炫140T显卡,包含8个Xe核心,同时还内置NPU,能够提供高达13 TOPS的(de)算力。CPU+GPU+NPU全平台总算力达到99 TOPS,为本地运行大模型提供了很好的支撑。
AMD锐龙AI 9 HX370处理器基于Zen 5架构(jiàgòu),4个Zen 5核心和8个Zen 5c核心,支持(zhīchí)超线程技术,总共是(shì)12个核心24线程,最高加速频率为5.1GHz,拥有12MB的(de)L2 高速缓存和24MB的L3 高速缓存。内建AMD Radeon 890M显卡,包含(bāohán)16个GPU核心。当然也(yě)有独立的NPU引擎,而且算力高达55 TOPS。
需要注意的是,Intel酷睿Ultra9 285H处理器的TDP高达45W,AMD锐龙(ruìlóng)AI 9 HX370处理器的TDP只有(zhǐyǒu)28W。当然,Intel和AMD都允许笔记本制造商根据具体(jùtǐ)产品设计,在一定范围(fànwéi)内设定处理器功耗。
二、DeepSeek-R1模型测试:iGPU算力也(yě)可流畅运行本地部署的(de)14B模型
Ollama是一个(yígè)开源(kāiyuán)的(de)大语言部署服务工具,只需iGPU即可部署大模型。此次(cǐcì)测试就是基于Ollama框架,在本地部署DeepSeek-R1的蒸馏版模型,测试使用iGPU的运行效率。Ollama作为一个开源软件,功能(gōngnéng)依赖全球开发者的共同维护,会有一些特别的分支。
此次测试,专门找来了针对 intel 推理(tuīlǐ)框架和AMD ROCm推理框架分别优化(yōuhuà)过的Ollama版本,更能体现Intel和AMD硬件在各自(gèzì)最佳环境下的运行效率。
(左侧为Intel酷睿Ultra9 285H运行(yùnxíng)截图,右侧(yòucè)为AMD锐龙AI 9 HX370运行截图)
为了(wèile)避免图形(túxíng)UI造成的延迟和对性能的影响,我们直接在命令行中同DeepSeek-R1:14B模型进行对话,准备(zhǔnbèi)了4个问题,分别是:
“你是(shì)谁?”最简单的问题,用来检查(jiǎnchá)DeepSeek大模型是否正确工作。
“模仿李白的风格,写一首七律·登月(dēngyuè)。”简单的文字写作能力。
“一亿之内最大的质数是多少?”数学能力其实不是DeepSeek这种(zhèzhǒng)推理模型的长处,但也可以(kěyǐ)测试一下。
“帮我(wǒ)写一份5月份(yuèfèn)前往南疆的旅行攻略。”对DeepSeek的语义理解/推理能力和文字写作能力进行测试。
同样还对DeepSeek-R1大模型另外两个更小规模的蒸馏版本7B和1.5B,也(yě)都进行了测试(cèshì),测试成绩汇总如下:
模型规模越小,执行速度越快,但相对的AI智力下降也非常明显,经常(jīngcháng)会出现无法回答或者先入死循环的状态。14B规模的模型的反应速度(fǎnyìngsùdù)和(hé)回答准确率表现都比较优秀,在测试平台上运行效果非常好(但数学问题的回答准确度还是不(bù)太行)。
从测试结果(jiéguǒ)上来看,Intel酷睿Ultra9 285H在针对Intel优化(yōuhuà)过的Ollama上的每秒token输出更高一些,在14B和7B规模模型中,对比AMD锐龙AI 9 HX370都有(yǒu)40%左右的领先,而(ér)在1.5B规模模型中,Intel平台仍(réng)有5%左右的优势。
从实际测试的(de)结果上来看,针对Intel 优化过的框架确实拥有更好(gènghǎo)的支持,让Intel处理器的性能表现更强。
三、AI大模型(móxíng)(móxíng)能力测试:Deepseek-R1:14B模型编程已经实用
我们也测试了一下(yīxià)Deepseek-R1:14B模型(móxíng)在Intel酷睿Ultra9 285H处理器的轻薄本上实际表现,看看使用本地Intel iGPU算力来编程(biānchéng),效果如何。
首先安装了一个针对Intel酷睿Ultra处理器优化的(de)AI应用工具(gōngjù):Flowy AI PC软件,然后在其中使用Deeoseek-R1:14B模型来编写一个基于HTML语言(yǔyán)的贪吃蛇(tānchīshé)游戏。
按照Deepseek给出的操作说明,很(hěn)容易就可以把这个由AI写出来的贪吃蛇游戏运行起来(qǐlái)。Intel酷睿Ultra9 285H处理器搭配Deepseek-R1:14B模型,能力具备一定实用价值,可以帮助用户提高编程(biānchéng)速度和工作效率(gōngzuòxiàolǜ)。
四、总结(zǒngjié):Intel 全力推广OpenVINO 效果(xiàoguǒ)已经开始展现
得益于DeepSeek的开源,让本(běn)地部署AI大模型变的前所未有的容易,即使是在轻薄本这种(zhèzhǒng)并不以性能见长的移动(yídòng)平台上,运行本地大模型也能有相当不错的性能表现。
在(zài)测试中,Intel酷睿Ultra9 285H处理器展现出相当强劲的实力(shílì),使用开源部署工具Ollama(Intel优化版),在本地部署DeepSeek-R1:14B,仅(jǐn)依靠(yīkào)CPU的算力,就可以实现接近10 Token/s的输出(shūchū)速度,比AMD锐龙AI 9 HX370处理器的输出高了40%以上,而且这个成绩还是在CPU实际功率相差接近一倍的情况(qíngkuàng)下得出的。
这也从一个侧面说明,AI大模型的(de)高效运行,不仅仅是硬件性能的问题,软件的适配同样重要,甚至比(bǐ)硬件性能更重要一些。
Intel全力推广OpenVINO成效初显,也许硬件的真实性能强弱难以量化比较,但(dàn)从此次测试结果来看,Intel酷睿Ultra9 285处理器在用户实际(shíjì)使用中(zhōng),确实能发挥出比AMD锐龙AI 9 HX370处理器更强的性能。再加上Intel连续举办的人工智能创新应用(yìngyòng)大赛,以资金鼓励开发者,使得基于(jīyú)OpenVINO的AI应用日益丰富,促进了(le)AI生态系统的繁荣。
轻薄(qīngbó)笔记本电脑(bǐjìběndiànnǎo)哪个牌子(páizi)好?对于科技爱好者而言,在选择轻薄笔记本电脑时,可以考虑搭载最新Intel处理器(chǔlǐqì)的品牌机型,不仅能享受到当下卓越的AI应用体验,更能率先拥抱未来AI计算的各种可能性。













相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎