因此,我试图编写一些利用Nvidia的CUDA架构的代码.我注意到复制到设备和从设备复制真的会损害我的整体性能,所以现在我试图将大量数据移动到设备上.
由于这些数据用于众多功能,我希望它是全球性的.是的,我可以传递指针,但我真的想知道如何在这个实例中使用全局变量.
所以,我有想要访问设备分配数组的设备功能.
理想情况下,我可以这样做:
__device__ float* global_data;
main()
{
cudamalloc(global_data);
kernel1<<<blah>>>(blah); //access global data
kernel2<<<blah>>>(blah); //access global data again
}
但是,我还没弄明白如何创建动态数组.我通过声明如下数组找出了解决方法:
__device__ float global_data[REALLY_LARGE_NUMBER];
虽然这不需要cudamalloc调用,但我更喜欢动态分配方法.
解决方法
这样的事情应该可行.
#include <algorithm>
#define NDEBUG
#define CUT_CHECK_ERROR(errorMessage) do { \
cudaThreadSynchronize(); \
cudaError_t err = cudaGetLastError(); \
if( cudaSuccess != err) { \
fprintf(stderr,"Cuda error: %s in file '%s' in line %i : %s.\n",\
errorMessage,__FILE__,__LINE__,cudaGetErrorString( err) );\
exit(EXIT_FAILURE); \
} } while (0)
__device__ float *devPtr;
__global__
void kernel1(float *some_neat_data)
{
devPtr = some_neat_data;
}
__global__
void kernel2(void)
{
devPtr[threadIdx.x] *= .3f;
}
int main(int argc,char *argv[])
{
float* otherDevPtr;
cudamalloc((void**)&otherDevPtr,256 * sizeof(*otherDevPtr));
cudamemset(otherDevPtr,256 * sizeof(*otherDevPtr));
kernel1<<<1,128>>>(otherDevPtr);
CUT_CHECK_ERROR("kernel1");
kernel2<<<1,128>>>();
CUT_CHECK_ERROR("kernel2");
return 0;
}
给它一个旋转.