Dell AMD EPYC 7662 / NVIDIA Tesla A100

Softwares Instalados

Categoria: Química/Física

Gromacs
Versão 2021.2, 2024.3
Descrição GROMACS is a versatile package to perform molecular dynamics, i.e. simulate the Newtonian equations of motion for systems with hundreds to millions of particles. It is primarily designed for biochemical molecules like proteins, lipids and nucleic acids that have a lot of complicated bonded interactions, but since GROMACS is extremely fast at calculating the nonbonded interactions (that usually dominate simulations) many groups are also using it for research on non-biological systems, e.g. polymers.
Documentação GROMACS User's Guide
Getting good performance from mdrun
Running mdrun with GPUs
Documentação PLUMED-2.9.2
Hybrid Quantum-Classical simulations (QM/MM) with CP2K interface
Licença LGPL
Localização https://gromacs.org/

Como usar

- Opções de módulos de ativação:
Gromacs 2024.3
module load gromacs/cenapad-gnu-openmpi-mkl

Compilador: GNU gcc-12.2.0
Recursos: OpenMPI, Intel MKL, Plumed

Executáveis: /opt/pub/gromacs/2024.3/gcc/12.2.0/bin

gmx_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla
gmx_gpu Processamento paralelo híbrido: multitask+multithread+GPU - MPI+OpenMP+CUDA Apenas Precisão Simples
gmx_plumed_s Processamento paralelo multitask - MPI Precisão Simples
gmx_plumed_d Processamento paralelo multitask - MPI Precisão Dupla
gmx_plumed_gpu Processamento paralelo híbrido: multitask+GPU - MPI+CUDA Apenas Precisão Simples

Gromacs 2024.3 Hybrid Quantum-Classical simulations (QM/MM) with CP2K interface
module load gromacs/cenapad-gnu-qmmm

Compilador: GNU gcc-12.2.0
Recursos: OpenMPI, Intel MKL, CP2K

Executáveis: /opt/pub/gromacs/2024.3/gcc/12.2.0/qmmm/bin

gmx_qmmm_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_qmmm_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla

Gromacs 2021.2
module load gromacs/2021.2-intel-2021.3.0

Compilador: Intel-2021.3.0
Recursos: Intel MPI, Intel MKL

module load gromacs/2021.2-gcc-9.4.0

Compilador: GNU gcc-9.4.0
Recursos: OpenMPI, Intel MKL

Executáveis: /opt/pub/gromacs/2021.2/intel/2021.3.0/bin
/opt/pub/gromacs/2021.2/gcc/9.4.0/bin

gmx_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla
gmx_gpu Processamento paralelo híbrido: multitask+multithread+GPU - MPI+OpenMP+CUDA Apenas Precisão Simples

Exemplo de script de submissão de um job 'multitask' (MPI) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl
export OMP_NUM_THREADS=1

### A opcao -n indica o numero total de processos.  ###

mpirun -np 128 gmx_s mdrun -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job 'multithread' (OpenMP) na fila 'par16':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par16

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl
export OMP_NUM_THREADS=16

### A opcao -n indica o numero total de processos.  ###

gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl
export OMP_NUM_THREADS=2

### A opcao -n indica o numero total de processos.  ###

mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job (PLUMED) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl
export OMP_NUM_THREADS=1

### A opcao -n indica o numero total de processos.  ###

mpirun -np 128 gmx_plumed_s mdrun -plumed plumed.dat -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'paralela':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q paralela

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessários para execução:                            ###

###   select=           Número de nós computacionais               ###
###   ncpus=            Número de CPUs disponíveis por nó          ###
###   mpiprocs=         Número de processos MPI por nó             ###
###   OMP_NUM_THREADS=  Número de THREADS por processo             ###

### Total de processos = select X mpiprocs                         ###
### Total de threads   = select X mpiprocs X OMP_NUM_THREADS       ###

#PBS -l select=2:ncpus=128:mpiprocs=32

export OMP_NUM_THREADS=4

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl

### A opcao -np indica o numero total de processos MPI.  ###

mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job híbrido 'multitask+GPU' (MPI+CUDA) na fila 'umagpu':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q umagpu

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessários para execução:                            ###

#PBS -l nodes=1:ppn=16

export OMP_NUM_THREADS=4

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/cenapad-gnu-openmpi-mkl

### A opcao -np indica o numero total de processos MPI.  ###

mpirun -np 4 gmx_gpu mdrun -s ./arquivo_input -nb gpu -bonded gpu -pin on -v -ntomp 4

echo "Final do job:" `date`
echo "-----------------------------------------"