Dell AMD EPYC 7662 / NVIDIA Tesla A100

Softwares Instalados

Categoria: Química/Física

Lammps
Versão 7Feb2024 23Jun2022
Descrição LAMMPS-Large-scale Atomic/Molecular Massively Parallel Simulator
Documentação Lammps Manual
Uso de GPUs pelo Lammps
Uso de processamento Multithread com pacote OpenMP
Licença Open-Source License
Localização https://www.lammps.org/

Como usar

- Opções de módulos de ativação para uso:

module load lammps/cenapad-intel-mkl Lammps-7Feb2024 Intel-OneAPI-2023.2.1
module load lammps/23Jun2022-intel-2021.3.0 Lammps-23Jun2022 Intel-OneAPI-2021.3.0

- Executáveis disponíveis da versão 7Feb2024 :

/opt/pub/lammps/7Feb2024/intel/2023.2.1/bin

lmp_lovelace Executável padrão ( Executa apenas em CPUs )
lmp_lovelace_single Executável precisão simples ( Executa em CPUs e, em GPUs, com precisão simples )
lmp_lovelace_double Executável precisão dupla ( Executa em CPUs e, em GPUs, com precisão dupla )
lmp_lovelace_sd Executável precisão mista ( Executa em CPUs e, em GPUs, com precisão simples/dupla )

- Recursos/pacotes instalados com a versão 7Feb2024:

MOLECULE KSPACE ADIOS AMOEBA ASPHERE AWPMD BOCS BODY BPM BROWNIAN CG-DNA
CG-SPICA CLASS2 COLLOID COLVARS COMPRESS CORESHELL DIFFRACTION DIPOLE
DPD-BASIC DPD-MESO DPD-REACT DPD-SMOOTH DRUDE EFF EXTRA-COMPUTE EXTRA-DUMP
EXTRA-FIX EXTRA-MOLECULE EXTRA-PAIR FEP GRANULAR H5MD INTEL INTERLAYER KIM
KOKKOS LATBOLTZ LEPTON MACHDYN MANIFOLD MANYBODY MC MDI MEAM MESONT MGPT MISC MLIP
ML-HDNNP ML-PACE ML-POD ML-QUIP ML-RANN ML-SNAP MOFFF MOLFILE NETCDF OPENMP
OPT ORIENT PERI PLUGIN PLUMED POEMS PTM PYTHON QEQ QMMM QTB REACTION REAXFF
REPLICA RIGID SCAFACOS SHOCK SMTBQ SPH SPIN SRD TALLY UEF VORONOI YAFF ATC
DIELECTRIC ELECTRODE ML-IAP PHONON

- Pasta com os executáveis da outra versão instalada:

/opt/pub/lammps/23Jun2022/intel/2021.3.0/bin

- Detalhes completos da instalação:

lmp_lovelace -h

ATENÇÃO! Para processamento em GPUs,verifique o uso correto na documentação: 'Uso de GPUs pelo Lammps'

Exemplo de script de submissão de um job (MPI+OpenMP) para a fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load lammps/cenapad-intel-mkl

### Execução com 64 processos e 2 threads/processo    ###

mpirun -np 64 lmp_lovelace -sf omp -pk omp 2 -in arquivo_de_dados

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job (MPI) para a fila 'paralela':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q paralela

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=2:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load lammps/cenapad-intel-mkl

### A opcao -np indica o numero total de processos.    ###

mpirun -np 256 lmp_lovelace -in arquivo_de_dados

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job para GPUs, para a fila 'umagpu':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q umagpu

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos necessarios para execucao:     ###
###   nodes=   Numero de nos computacionais ###
###   ppn=     Numero de processos por no   ###
### Total de processos = nodes X ppn        ###
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load lammps/cenapad-intel-mkl

### A opcao -np indica o numero total de processos.    ###

mpirun -np 16 lmp_lovelace_single -sf gpu -pk gpu 1 -in arquivo_de_dados

echo "Final do job:" `date`
echo "-----------------------------------------"