cuda

Ubuntu18+cuda9.0+cudnn+tensorflow+GPU1080Ti+protobuf-3.6.0

环境:ubuntu18.04LTS,python3.6.5目标环境:cuda9.0cuDNN7.0.5_for_cuda9.0tensorflow任意依照https://blog.csdn.net/ShellDawn/article/details/80274534我也安装了一些依赖项:sudoapt-getinstallfreeglut3-devbuild-essentiallibx11libxmulibxilibgl1-mesa-glxlibglu1-mesalibfreeimage3libfreei

为什么cuGraphAddMemCopyNode已经获得了两个上下文,却需要额外的上下文?

考虑CUDA图形API函数在此描述。它采用的CUDA_MEMCPY3D结构是一组非常广泛的参数。实际上,它包含两个上下文句柄字段:srcContext和dstContext,用于定义源和目标内存区域或数组的上下文。然而,该函数需要额外的第三个上下文句柄。但是,这意味着什么?节点是一个图,它通过具有上下文的流启动。除此之外,为什么这很重要?两个端点上下文应该足以让CUDA驱动程序执行复制。虽然大多数节点插入API函数都没有?

ubuntu – 没有CUDA的CUDA启用了gpu [复制]

参见英文答案>GPUEmulatorforCUDAprogrammingwithoutthehardware6个我想在我的ubunbu10.04上设置一个CUDA模拟器,因为我没有硬件.有人可以提供一些有价值的指示我认为Nvidia确实提供了一个模拟器,我该如何设置它.到目前为止我不关心性能,如果它很慢.谢谢.直接答案:@Andrey是正确的,新的工具包/API(v3)没有模拟器.但是,您可以考虑

显卡 – Ubuntu 14.04如何在不安装nvidia驱动程序的情况下安装cuda 6.5

我在工作站上工作cpu核心I74790和两个GPUGTX7604GBram/1152核心系统的内存是16GBRAM我有Ubuntu14.04.1LTS经过多次尝试并重新安装Ubuntu多次终于我已经正确安装了nvidia驱动程序340.46使用3shell命令ppaxorg-edgers现在我想安装Cuda6.5工具包但在手册中他们说cuda工具包安装程序也将安装nvidiaGraphics驱动程

CUDA 7.0编译样本时出错

我正在尝试在Ubuntu14.04上安装CUDA7.0.我按照here所述的安装说明进行操作.具体来说,我按照第3.6节和第6章中的步骤进行操作.在使用make编译示例(第6.2.2.2节)时,我收到以下错误:如果你注意到,有-L/usr/lib/“nvidia-346”.就我而言,我已经安装了nvidia-349.对我有用的是编辑NVIDIA_CUDA-7.0_Samples/3_Imaging

python – nvcc致命:没有为theano选项’gpu-architecture’错误定义值’sm_61′

我正在设置python和theano用于gpuon;ubuntu14.04,GeForceGTX1080已成功为系统安装了NVIDIA驱动程序(367.27)和CUDA工具包(7.5),但在使用theanogpu实现进行测试时,我得到了上述错误(例如;在启用gpu的情况下导入theano时)我试图寻找可能的解决方案,但没有成功.我对ubuntu和gpu编程有点新意,所以我很感激能够解决这个问题.谢

python distutils可以编译CUDA代码吗?

我有CUDA代码,我想使用distutils为Python构建一个动态库.但即使安装了“nvcc”编译器,似乎distutils也无法识别“.cu”文件.不知道如何完成它.解决方法distutils默认情况下无法编译CUDA,因为它不支持同时使用多个编译器.默认情况下,它仅根据您的平台设置为编译器,而不是基于您拥有的源代码类型.我在github上有一个示例项目,其中包含一些针对distutils的

CUDA代码中的常量内存使用情况

r-pleasant-way也有类似的问题.我正在使用GTX580并仅编译2.0功能.我的内核看起来像我在主机上执行以下代码:另一种方法是添加到.cu文件,从内核中删除src指针并执行这两种方式是等效的还是第一种不保证使用常量内存而不是全局内存?

c – 在CUDA内核中放置一个for循环

在内核中放置for循环是个坏主意吗?或者这是常见的事情?启动参数,全局与常量与共享内存,保持寄存器数量冷却,确保合并并避免内存库冲突等.如果您对性能感兴趣,你应该在CUDA4.0文档页面上查看NVIDIA提供的“CUDAC最佳实践”和“CUDA占用计算器”.

c – 在CUDA中编写内核函数的正确方法?

例如,我可以让GPU直接执行下一个并行操作而无需返回cpu来初始化下一个内核吗?显然,我会将所有运行时变量保留在GPU内存上以限制正在进行的数据传输量,所以我是否应该担心内核调用之间的时间?