Dell AMD EPYC 7662 / NVIDIA Tesla A100

Softwares Instalados

Categoria: Química/Física

DFTB+
Versão 24.1
Descrição DFTB+ is an implementation of the Density Functional based Tight Binding (DFTB) method.DFTB+ offers an approximate density functional theory based quantum simulation tool with functionalities similar to ab initio quantum mechanical packages while being one or two orders of magnitude faster. You can optimize the structure of molecules and solids, you can extract one electron spectra, band structures and various other useful quantities. Additionally, you can calculate electron transport under non-equilibrium conditions.
Documentação Documentação
Licença PUBLIC
Localização https://dftbplus.org/

Como usar

A versão mais atual do DFTB+ está dsiponível através de cinco instalações, de acordo com o recurso de paralelização utilizado:

module load dftb+/cenapad-intel-threads Paralelização apenas Multithread (OPENMP)
module load dftb+/cenapad-intel-mpi Paralelização apenas Multitask (MPI)
module load dftb+/cenapad-intel-threads-mpi Paralelização híbrida Multithread+Multitask (OPENMP+MPI)
module load dftb+/cenapad-intel-threads-gpu Paralelização híbrida Multithread+GPUs (OPENMP+GPUs)
module load dftb+/cenapad-intel-mpi-gpu Paralelização híbrida Multitask+GPUs (MPI+GPUs)


Essas instalações foram feitas com os recursos:

Compiladores: Intel-2023.2.1
Bibliotecas : OpenMP (Processamento Multithread)
Intel MPI-2021.10.0 (Processamento Multitask)
CUDA-12.0.0 (Processamento em GPUs)
Intel MKL-2023.2.0
MAGMA-2.7.1
ELSI-2.9.1
ARPACK-NG-3.9.0

- Recursos do Software instalados: TRANSPORT, POISSON, SDFTD3, ELSI, ARPACK e PYTHON

Executáveis disponíveis nas pastas:

/opt/pub/dftb+/24.1/intel/2023.2.1/threads/bin
/opt/pub/dftb+/24.1/intel/2023.2.1/mpi/bin
/opt/pub/dftb+/24.1/intel/2023.2.1/threads_mpi/bin
/opt/pub/dftb+/24.1/intel/2023.2.1/threads_gpu/bin
/opt/pub/dftb+/24.1/intel/2023.2.1/mpi_gpu/bin

dftb+

-Instalações antigas ainda disponíveis:

module load dftb+/23.1-intel Paralelização apenas Multitask (MPI), Intel OneAPI-2023.2.1
module load dftb+/22.2-gnu Paralelização apenas Multitask (MPI), GNU-9.4.0, Biblioteca OPENMPI-4.1.1
module load dftb+/21.1-intel-2019.0.5-threads Paralelização apenas Multithread (OPENMP), Intel OneAPI-2019.0.5
module load dftb+/21.1-intel-2019.0.5-mpi Paralelização apenas Multitask (MPI), Intel OneAPI-2019.0.5
module load dftb+/21.1-intel-2019.0.5-mpi-threads Paralelização híbrida Multithread+Multitask (OPENMP+MPI), Intel OneAPI-2019.0.5
module load dftb+/21.1-intel-2019.0.5-threads-gpu Paralelização híbrida Multithread+GPUs (OPENMP+GPU), OneAPI-2019.0.5

Exemplo de script de submissão de um job multitask na fila 'par16':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par16

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos alocados para execucao:
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load dftb+/cenapad-intel-mpi
export OMP_NUM_THREADS=1

mpirun -np 16 dftb+

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job multithread na fila 'par16':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par16

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos alocados para execucao:
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load dftb+/cenapad-intel-threads
export OMP_NUM_THREADS=16

dftb+

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job multitask+multithread na fila 'par128':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q par128

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos alocados para execucao:
#PBS -l nodes=1:ppn=128

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load dftb+/cenapad-intel-threads-mpi
export OMP_NUM_THREADS=2

mpirun -np 64 dftb+

echo "Final do job:" `date`
echo "-----------------------------------------"
          

Exemplo de script de submissão de um job multithread na fila 'umagpu':

#!/bin/bash
### Nome da fila de execucao ###
#PBS -q umagpu

### Nome do job ###
#PBS -N teste

### Nome do arquivo de saida ###
#PBS -o saida

### Nome do arquivo de erros ###
#PBS -e erro

### Recursos alocados para execucao:
#PBS -l nodes=1:ppn=16

cd $PBS_O_WORKDIR
echo "-----------------------------------------"
echo "Inicio do job:" `date`

module load dftb+/cenapad-intel-threads-gpu
export OMP_NUM_THREADS=16

dftb+

echo "Final do job:" `date`
echo "-----------------------------------------"