-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
老哥测试过C++版本和python版本trt耗时差距么? #1
Comments
我没用过python下的trt,c++确实快,确定gpu起来了吗?第一次测试时间应该丢弃,使用数据循环测试,取平均时间还有,测试的是纯推理时间吗?模型你是指什么模型,crnn还是dbnet的
…---原始邮件---
发件人: ***@***.***>
发送时间: 2021年8月30日(周一) 下午5:21
收件人: ***@***.***>;
抄送: ***@***.***>;
主题: [LW-CVer/trt_crnn_dynamic_cpp] 老哥测试过C++版本和python版本trt耗时差距么? (#1)
我现在用的是DB+CRNN的流程做OCR 全是python版本的
python版本crnn trt的模型我试着测了一下耗时 发现还比ONNX慢 不清楚是不是C++和python的关系
python版本db trt我测试比onnx快了大概3倍 但是还是得200多ms(之前做过yolo检测 转trt大概20ms)
有点疑惑是python和C++会差那么多么
另外老哥能否提供一下你训好的模型 我想测试看看
另外我QQ 303502399 老哥愿意交流欢迎加我呀:)
—
You are receiving this because you are subscribed to this thread.
Reply to this email directly, view it on GitHub, or unsubscribe.
Triage notifications on the go with GitHub Mobile for iOS or Android.
|
GPU肯定是起来了的 我测试10次 取后9次平均时间的 是纯推理时间 模型如果DB和CRNN都有就更好 不行的话就CRNN的吧 谢谢老哥 |
CRNN我没有,都是实际项目的模型,你可以自己训练,只测速度就不需要模型收敛,随便训练个模型就行,这是我的训练代码https://github.com/LW-CVer/crnn_pytorch |
好的 多谢 |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
我现在用的是DB+CRNN的流程做OCR 全是python版本的
python版本crnn trt的模型我试着测了一下耗时 发现还比ONNX慢 不清楚是不是C++和python的关系
python版本db trt我测试比onnx快了大概3倍 但是还是得200多ms(之前做过yolo检测 转trt大概20ms C++版本)
有点疑惑是python和C++会差那么多么(我也都是动态输入)
另外老哥能否提供一下你训好的模型 我想测试看看
另外我QQ 303502399 老哥愿意交流欢迎加我呀:)
The text was updated successfully, but these errors were encountered: