mynote

TJU Server Usage

Server Remote Connection

VPN: TJU-VPN

IP: ** . ** . ** . **

Server Port Manager HardWare Configuration
GPU-2080Ti 101 窦明亮 48 Thread; 512G Memory; 2080Ti*4; 12*4G GPU Memory; 4T Disk + 4T Disk (protein group)
GPU-2080Ti 102 李雪健 48 Thread; 256G Memory; 2080Ti*4; 12*4G GPU Memory; 4T Disk
GPU-V100 103 李佳玮 96 Thread; 1024G Memory; V100*4; 32*4G GPU Memory; 4T Disk
CPU-P700 104 孟巧珍 24 Thread; 384G Memory; 4T Disk

Server Usage Precautions

  1. 原则上每个人占用的硬盘空间不超过 500 G,超出需要及时清理无用文件。
  2. 避免误操作,所有账户均不具有管理员权限,如操作需管理员权限,需要联系相应管理员。
  3. 所有服务器使用一个上网账户,每月 15 G 的流量,如需下载大量数据,可以本地下载,再传输到服务器上。(内网操作,不会消耗流量)
  4. 蛋白质组专用 104(CPU 计算)服务器 和 101(CPU,GPU 计算)服务器 的 protein_group 账户, 其他空间需要留给其他人。
  5. 更新中!!!(欢迎大家提出自己的意见)

GPU Usage Code fragment

### 所有人都需在程序中加入以下相应的代码段,特殊情况除外。
### GPU 可用序号:{0, 1, 2, 3}, 使用 nvidia-smi 查看可用的GPU

# 1\ Tensorflow 1.0
import os
import tensorflow as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "0"  #指定要使用的GPU序号
config = tf.ConfigProto()
config.gpu_options.allow_growth=True   	  #不全部占满显存, 动态增长
sess = tf.Session(config=config)

import keras.backend.tensorflow_backend as keras_backend
keras_backend.set_session(sess)  		  #仅对于使用 tensorflow1.0 后端的keras

# 2\ Tensorflow2.0
import os
import tensorflow as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "0"  #指定要使用的GPU序号

gpu_devices = tf.config.experimental.list_physical_devices('GPU')
if gpu_devices:
    for gpu in gpu_devices:
        tf.config.experimental.set_memory_growth(gpu, True)

# 3\ PyTorch (PyTorch 默认不占用全部显存,只需指定要使用GPU序号即可)
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"  #指定要使用的GPU序号