Dell AMD EPYC 7662 / NVIDIA Tesla A100

Softwares Instalados

Categoria: Química/Física

Gromacs
Versão
Descrição GROMACS is a versatile package to perform molecular dynamics, i.e. simulate the Newtonian equations of motion for systems with hundreds to millions of particles. It is primarily designed for biochemical molecules like proteins, lipids and nucleic acids that have a lot of complicated bonded interactions, but since GROMACS is extremely fast at calculating the nonbonded interactions (that usually dominate simulations) many groups are also using it for research on non-biological systems, e.g. polymers.
Documentação GROMACS User's Guide
Getting good performance from mdrun
Running mdrun with GPUs
Documentação PLUMED-2.5.5
Licença LGPL
Localização https://gromacs.org/

Como usar

- Opções de módulos de ativação:

module load gromacs/2019.4-intel-2021.3.0 Compilador Intel-2021.3.0/Intel MPI/Intel MKL/PLUMED

module load gromacs/2021.2-intel-2021.3.0 Compilador Intel-2021.3.0/Intel MPI/Intel MKL
module load gromacs/2021.2-gcc-9.4.0 Compiladores GNU gcc-9.4.0/OpenMPI/Intel MKL

- Executáveis disponíveis nas pastas:

/opt/pub/gromacs/2019.4/intel/2021.3.0/bin

gmx_plumed_s Execuções paralelas multitask/multithread (MPI+SMP), precisão simples
gmx_plumed_d Execuções paralelas multitask/multithread (MPI+SMP), precisão dupla
gmx_plumed_gpu Execuções paralelas (MPI+SMP+GPU) com processamento em GPUs, apenas precisão simples

/opt/pub/gromacs/2021.2/intel/2021.3.0/bin
/opt/pub/gromacs/2021.2/gcc/9.4.0/bin

gmx_s Execuções paralelas multitask/multithread (MPI+SMP), precisão simples
mdrun_s Execuções paralelas multitask/multithread (MPI+SMP), precisão simples
gmx_d Execuções paralelas multitask/multithread (MPI+SMP), precisão dupla
mdrun_d Execuções paralelas multitask/multithread (MPI+SMP), precisão dupla
gmx_gpu Execuções paralelas (MPI+SMP+GPU) com processamento em GPUs, apenas precisão simples
mdrun_gpu Execuções paralelas (MPI+SMP+GPU) com processamento em GPUs, apenas precisão simples

Exemplo de script de submissão de um job 'multitask' (MPI) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/2021.2-intel-2021.3.0
export OMP_NUM_THREADS=1

### A opcao -n indica o numero total de processos.  ###

mpirun -np 128 gmx_s mdrun -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job 'multithread' (OpenMP) na fila 'par16':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par16

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/2021.2-intel-2021.3.0
export OMP_NUM_THREADS=16

### A opcao -n indica o numero total de processos.  ###

gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/2021.2-intel-2021.3.0
export OMP_NUM_THREADS=2

### A opcao -n indica o numero total de processos.  ###

mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job (PLUMED) na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/2019.4-intel-2021.3.0
export OMP_NUM_THREADS=1

### A opcao -n indica o numero total de processos.  ###

mpirun -np 128 gmx_plumed_s mdrun -plumed plumed.dat -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'paralela':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q paralela

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessários para execução:                            ###

###   select=           Número de nós computacionais               ###
###   ncpus=            Número de CPUs disponíveis por nó          ###
###   mpiprocs=         Número de processos MPI por nó             ###
###   OMP_NUM_THREADS=  Número de THREADS por processo             ###

### Total de processos = select X mpiprocs                         ###
### Total de threads   = select X mpiprocs X OMP_NUM_THREADS       ###

#PBS -l select=2:ncpus=128:mpiprocs=32

export OMP_NUM_THREADS=4

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

### Configura ambiente para execucao do GROMACS ###

module load gromacs/2021.2-intel-2021.3.0

### A opcao -np indica o numero total de processos MPI.  ###

mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input

echo "Final do job:" `date`
echo "-----------------------------------------"