We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问你们工作中的表2中的模型运行时间_421.96ms是如何计算得到的? 我有两种猜测,第一种是你们将10 scenes作为一个batch(即batch size 为10),然后运行一次,统计得到的时间;第二种是你们将单个10 scene作为一个batch (即batch size 为1),然后运行十次,统计得到的时间。 请问哪种是你们所采用的方法?
我在3090上测试了RDLUF和DAUHST方法,这两种模型使用第一种方法时得到的运行时间和你们文章中的421.96是相同的量级。如果使用第二种方法测试RDLUF和DAUHST方法,这两种模型所使用的时间达到了你们方法所用时间(421.96ms)的将近十倍了
The text was updated successfully, but these errors were encountered:
感谢关注这个工作!
您说的第一种猜测是对的,是10个一起测的。我们具体测试方法在SM中有描述,不久后就会出版了。
Sorry, something went wrong.
No branches or pull requests
请问你们工作中的表2中的模型运行时间_421.96ms是如何计算得到的?
我有两种猜测,第一种是你们将10 scenes作为一个batch(即batch size 为10),然后运行一次,统计得到的时间;第二种是你们将单个10 scene作为一个batch (即batch size 为1),然后运行十次,统计得到的时间。
请问哪种是你们所采用的方法?
我在3090上测试了RDLUF和DAUHST方法,这两种模型使用第一种方法时得到的运行时间和你们文章中的421.96是相同的量级。如果使用第二种方法测试RDLUF和DAUHST方法,这两种模型所使用的时间达到了你们方法所用时间(421.96ms)的将近十倍了
The text was updated successfully, but these errors were encountered: