GPU Cuda cudnn.h文件全是注释?

/*   cudnn : Neural Networks Library

*/

#if !defined(CUDNN_H_)
#define CUDNN_H_

#include <cuda_runtime.h>
#include <stdint.h>

#include "cudnn_version.h"
#include "cudnn_ops_infer.h"
#include "cudnn_ops_train.h"
#include "cudnn_adv_infer.h"
#include "cudnn_adv_train.h"
#include "cudnn_cnn_infer.h"
#include "cudnn_cnn_train.h"

#include "cudnn_backend.h"

#if defined(__cplusplus)
extern "C" {
#endif

#if defined(__cplusplus)
}
#endif

#endif /* CUDNN_H_ */

这是神马情况?
Cuda安装正确
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
没输出,是不是因为注释的原因?你们都是注释吗?路径就在/usr/local/cuda/include/cudnn.h,有搞cudnn加速的帮我看一下哦,谢谢了


#if !defined(CUDNN_H_)
#define CUDNN_H_

#include <cuda_runtime.h>
#include <stdint.h>

#include "cudnn_version.h"
#include "cudnn_ops_infer.h"
#include "cudnn_ops_train.h"
#include "cudnn_adv_infer.h"
#include "cudnn_adv_train.h"
#include "cudnn_cnn_infer.h"
#include "cudnn_cnn_train.h"

#include "cudnn_backend.h"

#if defined(__cplusplus)
extern "C" {
#endif

#if defined(__cplusplus)
}
#endif

#endif

这些都不是注释
将具体的代码放在不同的头文件
再一个头文件包含,这是大项目常规的做法。

这是分支包含头文件的做法吧