Dell AMD EPYC 7662 / NVIDIA Tesla A100
Softwares Instalados
Categoria: Química/Física
Gromacs | |
---|---|
Versão | 2021.2, 2024.3 |
Descrição | GROMACS is a versatile package to perform molecular dynamics, i.e. simulate the Newtonian equations of motion for systems with hundreds to millions of particles. It is primarily designed for biochemical molecules like proteins, lipids and nucleic acids that have a lot of complicated bonded interactions, but since GROMACS is extremely fast at calculating the nonbonded interactions (that usually dominate simulations) many groups are also using it for research on non-biological systems, e.g. polymers. |
Documentação |
GROMACS User's Guide Getting good performance from mdrun Running mdrun with GPUs Documentação PLUMED-2.9.2 Hybrid Quantum-Classical simulations (QM/MM) with CP2K interface |
Licença | LGPL |
Localização | https://gromacs.org/ |
Como usar
- Opções de módulos de ativação:Gromacs 2024.3
module load gromacs/cenapad-gnu-openmpi-mklGromacs 2024.3 Hybrid Quantum-Classical simulations (QM/MM) with CP2K interface
Compilador: GNU gcc-12.2.0
Recursos: OpenMPI, Intel MKL, Plumed
Executáveis: /opt/pub/gromacs/2024.3/gcc/12.2.0/bin
gmx_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla
gmx_gpu Processamento paralelo híbrido: multitask+multithread+GPU - MPI+OpenMP+CUDA Apenas Precisão Simples
gmx_plumed_s Processamento paralelo multitask - MPI Precisão Simples
gmx_plumed_d Processamento paralelo multitask - MPI Precisão Dupla
gmx_plumed_gpu Processamento paralelo híbrido: multitask+GPU - MPI+CUDA Apenas Precisão Simples
module load gromacs/cenapad-gnu-qmmmGromacs 2021.2
Compilador: GNU gcc-12.2.0
Recursos: OpenMPI, Intel MKL, CP2K
Executáveis: /opt/pub/gromacs/2024.3/gcc/12.2.0/qmmm/bin
gmx_qmmm_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_qmmm_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla
module load gromacs/2021.2-intel-2021.3.0
Compilador: Intel-2021.3.0
Recursos: Intel MPI, Intel MKL
module load gromacs/2021.2-gcc-9.4.0
Compilador: GNU gcc-9.4.0
Recursos: OpenMPI, Intel MKL
Executáveis: /opt/pub/gromacs/2021.2/intel/2021.3.0/bin
/opt/pub/gromacs/2021.2/gcc/9.4.0/bin
gmx_s Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Simples
gmx_d Processamento paralelo híbrido: multitask+multithread - MPI+OpenMP Precisão Dupla
gmx_gpu Processamento paralelo híbrido: multitask+multithread+GPU - MPI+OpenMP+CUDA Apenas Precisão Simples
Exemplo de script de submissão de um job 'multitask' (MPI) na fila 'par128':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q par128 ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessarios para execucao: ### ### nodes= Numero de nos computacionais ### ### ppn= Numero de processos por no ### ### Total de processos = nodes X ppn ### #PBS -l nodes=1:ppn=128 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl export OMP_NUM_THREADS=1 ### A opcao -n indica o numero total de processos. ### mpirun -np 128 gmx_s mdrun -s ./arquivo_input echo "Final do job:" `date` echo "-----------------------------------------"
Exemplo de script de submissão de um job 'multithread' (OpenMP) na fila 'par16':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q par16 ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessarios para execucao: ### ### nodes= Numero de nos computacionais ### ### ppn= Numero de processos por no ### ### Total de processos = nodes X ppn ### #PBS -l nodes=1:ppn=16 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl export OMP_NUM_THREADS=16 ### A opcao -n indica o numero total de processos. ### gmx_s mdrun -pin on -s ./arquivo_input echo "Final do job:" `date` echo "-----------------------------------------"
Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'par128':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q par128 ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessarios para execucao: ### ### nodes= Numero de nos computacionais ### ### ppn= Numero de processos por no ### ### Total de processos = nodes X ppn ### #PBS -l nodes=1:ppn=128 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl export OMP_NUM_THREADS=2 ### A opcao -n indica o numero total de processos. ### mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input echo "Final do job:" `date` echo "-----------------------------------------"
Exemplo de script de submissão de um job (PLUMED) na fila 'par128':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q par128 ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessarios para execucao: ### ### nodes= Numero de nos computacionais ### ### ppn= Numero de processos por no ### ### Total de processos = nodes X ppn ### #PBS -l nodes=1:ppn=128 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl export OMP_NUM_THREADS=1 ### A opcao -n indica o numero total de processos. ### mpirun -np 128 gmx_plumed_s mdrun -plumed plumed.dat -s ./arquivo_input echo "Final do job:" `date` echo "-----------------------------------------"
Exemplo de script de submissão de um job híbrido 'multitask+multithread' (MPI+OpenMP) na fila 'paralela':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q paralela ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessários para execução: ### ### select= Número de nós computacionais ### ### ncpus= Número de CPUs disponíveis por nó ### ### mpiprocs= Número de processos MPI por nó ### ### OMP_NUM_THREADS= Número de THREADS por processo ### ### Total de processos = select X mpiprocs ### ### Total de threads = select X mpiprocs X OMP_NUM_THREADS ### #PBS -l select=2:ncpus=128:mpiprocs=32 export OMP_NUM_THREADS=4 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl ### A opcao -np indica o numero total de processos MPI. ### mpirun -np 64 gmx_s mdrun -pin on -s ./arquivo_input echo "Final do job:" `date` echo "-----------------------------------------"
Exemplo de script de submissão de um job híbrido 'multitask+GPU' (MPI+CUDA) na fila 'umagpu':
#!/bin/bash ### Nome da fila de execucao ### #PBS -q umagpu ### Nome do job ### #PBS -N teste ### Nome do arquivo de saida ### #PBS -o saida ### Nome do arquivo de erros ### #PBS -e erro ### Recursos necessários para execução: ### #PBS -l nodes=1:ppn=16 export OMP_NUM_THREADS=4 cd $PBS_O_WORKDIR echo "-----------------------------------------" echo "Inicio do job:" `date` ### Configura ambiente para execucao do GROMACS ### module load gromacs/cenapad-gnu-openmpi-mkl ### A opcao -np indica o numero total de processos MPI. ### mpirun -np 4 gmx_gpu mdrun -s ./arquivo_input -nb gpu -bonded gpu -pin on -v -ntomp 4 echo "Final do job:" `date` echo "-----------------------------------------"