只需这4步 华为ModelEngine支持DeepSeek全系列本地部署

[复制链接]
查看6617 | 回复0 | 2025-2-13 14:30:25 | 显示全部楼层 |阅读模式

 pt转onnx

  华为ModelEngine是大模型训练、推理和应用开发的AI平台,提供从数据预处理到模型训练、优化及部署的一站式服务。

  华为官方表示,ModelEngine现已全面支持DeepSeek系列模型R1&V3 671B以及蒸馏系列模型,开发者可通过ModelEngine实现“一键部署”。

  此举省去硬件选型、兼容性验证和环境配置等繁琐步骤,大幅降低企业AI应用门槛。

  此外华为还表示,ModelEngine通过其高度的开放性和模块化设计,极大地缩短了DeepSeek的本地部署时间。

  下面以DeepSeek-R1为例,基于ModelEngine 3步快速完成部署模型

  1、登录ModelEngine模型管理页面,上传DeepSeek-R1 FP8权重,然后进行模型权重格式转换,将FP8精度模型权重转换为BF16精度模型权重;

  只需这4步 华为ModelEngine支持DeepSeek全系列本地部署

  2、在模型服务页面,选择BF16精度的模型权重版本,下发推理服务,启动任务部署;

  只需这4步 华为ModelEngine支持DeepSeek全系列本地部署

  3、ModelEngine使用MindIE推理框架启动DeepSeek-R1推理服务后,支持OpenAI API 调用风格的推理服务接口和访问方式;

  4、ModelEngine 启动 DeepSeek-R1 推理服务后,平台支持 OpenAI API 调用风格的推理服务接口和访问方式,用户可以将该 API 集成到对话、RAG 以及 Agent 应用。

  只需这4步 华为ModelEngine支持DeepSeek全系列本地部署

  到这里,基于ModelEngine私有化本地部署的DeepSeek-R1完整版推理服务API已经就绪了。

  用户可以将推理服务API集成到对话应用、RAG或者Agent应用中,在保证数据安全的前提下,让DeepSeek-R1媲美世界头部顶流闭源大模型服务智能的能力。





免责声明

1.本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
2.如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

上一篇:深圳展会排期情况如何?都有哪些展会?
下一篇:华为Mate手机如何高效关闭后台应用程序?你真的做对了吗?

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

674

主题

0

回帖

674

积分

士兵

Rank: 1

积分
674