Ascend对pytorch代码的适配,可从以下链接中获取。
Ascend/pytorch
执行如下命令即可。
源码下载后,如果需要编译torch-npu,最好保持pytorch的源码版本匹配,以及其编译环境的gcc,g++等与torch-npu的版本匹配,否则会出现各种乱起八糟的问题。
执行编译命令:bash ci/build.sh --python=3.x
如:
在torch-npu编译成功之后,通过generate_code.sh会生成如下文件:
上述文件生成路径默认的是torch_npu/csrc/aten。算子编译信息的yaml文件:torch_npu/csrc/aten/npu_native_functions.yaml
打开上述的的文件中,从中分析可知大概有3种方式实现昇腾npu算子的调用。
本质上,ascend上对pytroch框架的适配代码,主要是将npu上的算子库对接起来。如何对接这些算子,是一套机制的问题,本身应该不复杂。
直接调用npu的算子。torch_npu/csrc/aten/RegisterSparseNPU.cpp
参考文件:torch_npu/csrc/aten/CustomFunctions.cpp
参考文件:torch_npu/utils/custom_ops.py
以上属于个人理解,如有错误敬请指正。
到此这篇pytorch模型部署单片机(pytorch模块)的文章就介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/rgzn-ptkj/32313.html