Medusa

De IngridPtWiki

Tabela de conteúdo


Introdução

  • O cluster medusa encontra-se sob a operação técnica da equipa INGRID.
  • Esta página tem como objectivo orientar os utilizadores LNEC a submeter tarefas paralelas (corridas) ao cluster, e a manipular os dados gerados durante as execuções.



Como utilizar os recursos Medusa

Acesso

Recursos de acesso

  • O acesso local é realizado por ssh para um conjunto de máquinas instaladas com SL6, e servidas pelo alias ui6-lnec.ncg.ingrid.pt.
  • Dependendo do "load", os utilizadores podem ser redirecionados para uma das diferentes máquinas físicas que operam sobre o alias ui6-lnec.ncg.ingrid.pt.
$ host ui6-lnec.ncg.ingrid.pt
ui6-lnec.ncg.ingrid.pt has address 193.136.75.232
ui6-lnec.ncg.ingrid.pt has address 193.136.75.233

Acesso do Exterior

  • O acesso a partir do exterior é restrito. De momento apenas é permitido o acesso a partir da rede do LNEC.


Autenticação: Como gerar chaves ssh

  • Gostaríamos de descontinuar a autenticação de utilizadores através de password, usando em alternativa autenticação via chave pública ssh.
  • Para gerar um conjunto de chaves ssh, o utilizador deve executar no seu desktop linux (ou da máquina a partir de onde pretende aceder às máquinas de login) o comando ssh-keygen. É muito importante que o utilizador introduza uma boa password durante o processo.
$ ssh-keygen 
Generating public/private rsa key pair.
Enter file in which to save the key (/home/username/.ssh/id_rsa): 
Created directory '/home/username/.ssh'.
Enter passphrase (empty for no passphrase):           ----> IMPORTANTE: Introduzir uma boa password
Enter same passphrase again:                          ----> IMPORTANTE: Introduzir uma boa password
Your identification has been saved in /home/username/.ssh/id_rsa.
Your public key has been saved in /home/username/.ssh/id_rsa.pub.
The key fingerprint is:
a8:60:b3:73:aa:ed:7f:bf:88:32:7a:fc:9d:00:1d:1d username@mydesktop
The key's randomart image is:
+--[ RSA 2048]----+
|      E          |
|     . .         |
|    . .          |
|   . . .         |
|  = . . S        |
| . = .           |
| .o +            |
| .=+ +.o         |
|o=+=+.+.o.       |
+-----------------+
  • O comando ssh-keygen gera um conjunto chave privada / chave pública em ~username/.ssh. NUNCA partilhe a sua chave privada (id_rsa) !!!
ls -l ~username/.ssh/
total 8
-rw------- 1 username group 1743 Feb 19 10:52 id_rsa
-rw-r--r-- 1 username group  404 Feb 19 10:52 id_rsa.pub
  • Envie o conteúdo da sua chave publica (~username/.ssh/id_rsa.pub) para ingrid.helpdesk@lip.pt
  • Espere pela confirmação dos administradores de que a sua chave foi inserida no sistema.

Autenticação: Como gerar chaves ssh em Windows com putty

Este software segure normalmente a criação de chaves SSH com 1024 bits, por favor ignorem este valor e usem antes 4096 bits. Chaves com um baixo número de bits são vulneráveis e teoricamente há sempre a possibilidade de serem quebradas.


Login

  • Faça login nas máquinas interactivas.
  1. É importante usar a opção "-A" para o forward da chave
  2. Sempre que faz ssh pela primeira vez será solicitada a password que utilizou para proteger a sua chave privada de ssh. Esta operação é apenas realizada uma vez por cada sessão a partir do seu desktop
$ ssh -A -l username ui06-lnec.ncg.ingrid.pt
/usr/bin/xauth:  creating new authority file /home/hpc/username/.Xauthority
-bash-3.2$

Directorias e sistemas de ficheiros

  • Nas máquinas medusa existem os seguintes filesystems acessíveis aos utilizadores:
  1. /home/lnec (2.7 TB de capacidade total): As HOMES dos utilizadores. É a partir desta directoria que os utilizadores devem criar e compilar os seus programas.
  2. /data/lnec (5.0 TB de capacidade total): Directoria para armazenar grandes quantidades de dados. Esta não é uma directoria para execuções ou compilações mas apenas para armazenamento, preferencialmente, de grandes ficheiros.
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda1             276G   25G  237G  10% /
tmpfs                 127G     0  127G   0% /dev/shm
nfs01:/exports/uhomes/lnec
                      2.8T  1.9T  856G  70% /home/lnec
nfs01:/exports/exper-sw
                      2.8T  665G  2.1T  24% /exper-sw


Gestão de software

  • As instalações de software disponíveis podem ser consultadas através do software Module.
  • Este software inicia o ambiente adequado (PATH, LD_LIBRARY_PATH, etc) para utilização pelo utilizador, e é uma ferramenta conveniente para mudanças de software específicas.
  • Os principais comandos são:
  1. consultar software: module avail
  2. carregar software: module load
  3. listar software em uso: module list
  4. Ajuda sobre comandos module: module help
# Listar modulos disponíveis
-bash-3.2$ module avail

----------------------- /exper-sw/sw/Modules/modulefiles -----------------------
gcc41/root-5.26.00        modules                   open64/openmpi-noib-1.4.1
gcc44/fftw-noib-3.2.2     ncgenv
gcc44/openmpi-noib-1.4.1  open64/fftw-noib-3.2.2

--------------------- /exper-sw/sw/Modules/modulefiles.hpc ---------------------
gcc41/fftw-3.2.2          gcc44/openmpi-1.4.2       open64/open64-4.2.3-0
gcc41/gcc-4.1.2           gcc44/parmetis-3.1        open64/openmpi-1.4.1
gcc41/mvapich-1.1.0       intel/eval/gotm-4.0.0     open64/openmpi-1.4.2
gcc41/mvapich-1.4.1       intel/eval/intel-11.1.073 open64/openmpi-1.4.2-noib
gcc41/netcdf-3.6.2        intel/eval/netcdf-3.6.2   open64/openmpi-1.4.3
gcc41/netcdf-4.1.1        intel/eval/openmpi-1.4.2  open64/parmetis-3.1
gcc41/openmpi-1.2.8       intel/eval/parmetis-3.1   open64/selfe-3.1c
gcc41/openmpi-1.4.1       intel/eval/selfe-3.1c     open64/selfe-3.1c-noib
gcc41/openmpi-1.4.2       intel/eval/swan/mpi-40.81 open64/swan/mpi-40.72
gcc41/parmetis-3.1        intel/eval/swan/omp-40.81 open64/swan/mpi-40.81
gcc44/blacs-1.1           intel/eval/swan/ser-40.81 open64/swan/omp-40.72
gcc44/fftw-3.2.2          open64/fftw-3.2.2         open64/swan/omp-40.81
gcc44/gcc-4.4.0           open64/netcdf-3.6.2       open64/swan/ser-40.72
gcc44/mvapich-1.4.1       open64/netcdf-4.1.1       open64/swan/ser-40.81
gcc44/openmpi-1.4.1       open64/open64-4.2.3       toolworks/totalview-8.8.0

# Carregar modulos / software
-bash-3.2$ module load gcc44/openmpi-1.4.1
-bash-3.2$

# Listar os modulos / software em uso
-bash-3.2$ module list
Currently Loaded Modulefiles:
 1) gcc44/gcc-4.4.0       2) gcc44/openmpi-1.4.1


Notas adicionais: MATLAB

  • Tendo em conta que na Medusa não existe Matlab instalado, encontra-se disponível o Matlab compiler runtime.
  • Este software permite utilizar código do Matlab (previamente compilado) em máquinas que não tenham este software.
  • Os seguintes módulos encontram-se agora disponíveis, que podem ser carregados com o comando module load <name_of_the_module>
matlab/R2012a
matlab/R2012a.i686
matlab/R2012b
  • Referências
  1. http://www.mathworks.com/products/compiler/mcr/
  • Agradecimentos / Créditos
  1. Carlos M. Lima Azevedo


Gestão de tarefas

Topologia e limites para as filas de execução

  • Os utilizadores de HPC têm ao seu dispor as seguintes filas de execução:
  1. hpcgrid: Para todos os utilizadores
  2. medusa Exclusivas dos utilizadores LNEC (geral)
  3. fast_medusa Exclusivas dos utilizadores LNEC (restrita a utilizadores específicos) para execuções rápidas
  • Os utilizadores gerais executam tarefas na fila hpcgrid com um limite máximo de tempo de CPU de 48h, e de wallclock time de 72h. O número máximo de instâncias paralelas permitidas por tarefa é de 64.
  • Os utilizadores LNEC têm acesso exclusivo às seguintes filas de execução (para além da fila hpcgrid):
  1. medusa (que lhes é exclusiva) com um limite máximo de tempo de wallclock time de 18 dias. O número máximo de instâncias paralelas permitidas por tarefa é limitado pelo número máximo de máquinas disponíveis na fila.
  2. fast_medusa (que lhes é exclusiva) com um limite máximo de tempo de wallclock time de 1 dias. O número máximo de instâncias paralelas permitidas por tarefa é limitado pelo número máximo de máquinas disponíveis na fila.
  3. Caso os utilizadores LNEC não explicitem em que fila pretendem executar tarefa, essa informação será delegada ao sistema de gestão de tarefas, que por pré-configuração, submete as tarefas para a fila de execução medusa . Para escolher uma fila específica, por favor consulte a secção Selecção das filas de execução.


Infiniband versus Gigabit Ethernet

  • As filas de execução medusa/fast_medusa contribuem com recursos interconnectados através de uma rede Gigabit Ethernet a 1Gbits/s. Por agregação de portas nos switches pode-se conseguir uma largura de banda agregada de 4 Gbits/s.
  • A fila de execução hpcgrid contribui com recursos de 2 tipos:
  1. um conjunto interconnectado através de uma rede Gigabit Ethernet sem agregações (Max: 1 Gbit/s)
  2. um outro conjunto interconnectado através de infiniband (Max: 8 Gbit/s).
  • De forma a não degradar a execução e a latência do sistema, não são permitidas execuções híbridas. Deste modo, as seguintes políticas foram implementadas para submissões na fila de execução hpcgrid:
  1. Por pré-definição, todas as tarefas são redireccionadas para os recursos a Gigabit Ethernet;
  2. Para aceder aos recursos Infiniband, o utilizador terá que declarar essa vontade no acto de submissão do job (por favor consulte a secção Selecção das filas de execução).


Recursos disponíveis

A ocupação dos recursos das duas filas pode ser consultada a cada instante através dos seguintes comandos:

# qstat -g c -q hpcgrid
CLUSTER QUEUE                   CQLOAD   USED    RES  AVAIL  TOTAL aoACDS  cdsuE  
--------------------------------------------------------------------------------
hpcgrid                           0.16     48      0    217    321      0     56 
# qstat -g c -q medusa
CLUSTER QUEUE                   CQLOAD   USED    RES  AVAIL  TOTAL aoACDS  cdsuE  
--------------------------------------------------------------------------------
medusa                            0.11     52      0    220    280      0     48 
# qstat -g c -q fast_medusa
CLUSTER QUEUE                   CQLOAD   USED    RES  AVAIL  TOTAL aoACDS  cdsuE  
--------------------------------------------------------------------------------
fast_medusa                       0.14      0      0     44     44      0      0 


Submissão ao sistema

  • O serviço de login ui6-lnec.ncg.ingrid.pt (SL6) têm instalados os comandos cliente que permitem submeter e gerir as corridas / tarefas na medusa.
  • A submissão ao sistema é realizada com o comando qsub:
qsub [ options ] [ command | -- [ command_args ]]. 
  • As opções podem ser indicadas directamente na linha de comando, ou no interior de um script bash (ou outro). Para mais informações sobre as opções, por favor consulte o manual (man qsub).
  • No exemplo seguinte mostramos um script que compila e executa uma aplicação. As opções ao comando qsub são incluídas através de directivas #$. De notar que o utilizador explicitamente pretende:
  1. compilar a sua aplicação com gcc44, e utilar a versão de MPI openmpi-1.4.1,
  2. executar a sua tarefas com 2 instâncias, sobre o ambiente paralelo mpi.
-bash-3.2$ cat cpi_submit.sh 
#!/bin/bash

# Opção para herdar o ambiente do utilizador na execução
#$ -V    

# Opção para começar os jobs na directoria de onde o utizador submete.
#$ -cwd  

# Invocar o ambiente paralelo denominado mpi, e executar a tarefa com 2 instâncias
#$ -pe mpi 2
 
# Carregar os modules de interesse
source /etc/profile.d/modules.sh
module load gcc44/openmpi-1.4.1

# Compilar a aplicação
echo "=== Compiling ===" 
mpicc -o cpi cpi.c

# Executar a aplicação
echo "=== Running ==="
mpirun -np $NSLOTS cpi
  • Finalmente, a script pode ser submetida para execução ao sistema:
-bash-3.2$ qsub cpi_submit.sh 
Your job 5076311 ("cpi_submit.sh") has been submitted

Selecção de filas de execução

  • Por pré-definição, os utilizadores LNEC submetem para a fila medusa. A execução noutras filas deve ser invocada explicitamente.
  • Caso o utilizador pretenda executar na fila fast_medusa, então teve adicionar as seguintes linhas à sua script de submissão:
# Invocar execução da aplicação na fila fast_medusa
#$ -q fast_medusa
  • Caso o utilizador pretenda executar nos recursos da fila hpcgrid (sem infiniband), então teve adicionar as seguintes linhas à sua script de submissão:
# Invocar execução da aplicação na fila hpcgrid
#$ -q hpcgrid

  • Caso o utilizador pretenda executar nos recursos da fila hpcgrid (com infiniband), então deve adicionar as seguintes linhas à sua script de submissão:
# Requerer acesso a recursos Infiniband
#$ -q hpcgrid
#$ -l ib=y


Estado da tarefa

  • O estado da tarefa é obtido através do comando qstat. Para informação sobre as opções deste comando, por favor consulte o manual (man qstat).
qstat  [  -ext  ]  [  -cb  ] [ -f ] [ -F [resource_name,...]  ] [ -g {c|d|t}[+] ] [ -help ] [ -j
       [job_list] ] [ -l resource=val,...  ] [ -ne ] [ -pe pe_name,...  ] [ -pri ] [ -q wc_queue_list ]
       [  -qs  {a|c|d|o|s|u|A|C|D|E|S}  ]  [ -r ] [ -s {r|p|s|z|hu|ho|hs|hd|hj|ha|h|a}[+] ] [ -t ] [ -U
       user,...  ] [ -u user,...  ] [ -urg ] [ -xml ]
  • No exemplo seguinte, pretendo obter informação sobre todas as tarefas submetidas ao sistema pelo utilizador goncalo. A resposta do sistema é que a tarefa se encontra em espera para ser executada (estado qw):
-bash-3.2$ qstat -u goncalo
job-ID  prior   name       user         state submit/start at     queue                          slots ja-task-ID 
-----------------------------------------------------------------------------------------------------------------
5076311 0.00000 cpi_submit goncalo      qw    11/26/2010 15:41:51                                    2        
  • Passados alguns segundos, a informação do mesmo comando mostra que a tarefa entrou em execução (estado r) na queue medusa, e na máquina gorgon101.ncg.ingrid.pt:
-bash-3.2$ qstat -u goncalo
job-ID  prior   name       user         state submit/start at     queue                          slots ja-task-ID 
-----------------------------------------------------------------------------------------------------------------
5076311 0.31283 cpi_submit goncalo      r     11/26/2010 15:41:58 medusa@gorgon101.ncg.ingrid.pt     2


Resultados (Standard Error / Standard Output)

Depois de finalizada a execução, são gerados 4 ficheiros. Os mais importantes a ter em conta são os ficheiros de Standard Error and Standard Output

-bash-3.2$ ll
total 32
-rwxr-xr-x 1 goncalo hpc  10103 Nov 26 15:42 cpi
-rw-r--r-- 1 goncalo csys  1513 Oct  1 16:02 cpi.c
-rw-r--r-- 1 goncalo csys   352 Nov 26 15:35 cpi_submit.sh
-rw-r--r-- 1 goncalo hpc    240 Nov 26 15:41 cpi_submit.sh.e5076311
-rw-r--r-- 1 goncalo hpc    287 Nov 26 15:42 cpi_submit.sh.o5076311
-rw-r--r-- 1 goncalo hpc    124 Nov 26 15:41 cpi_submit.sh.pe5076311
-rw-r--r-- 1 goncalo hpc      0 Nov 26 15:41 cpi_submit.sh.po5076311
  • Standard Error (nota: considere as mensagens seguintes normais):
-bash-3.2$ cat cpi_submit.sh.e5076311
/bin/bash: module: line 1: syntax error: unexpected end of file
/bin/bash: error importing function definition for `module'
-bash: module: line 1: syntax error: unexpected end of file
-bash: error importing function definition for `module'
  • Standard Output:
-bash-3.2$ cat cpi_submit.sh.o5076311
=== Compiling ===
=== Running ===
Process 0 of 2 is on gorgon101.ncg.ingrid.pt
Process 1 of 2 is on gorgon101.ncg.ingrid.pt
pi is approximately 3.1416009869231241, Error is 0.0000083333333309
wall clock time = 0.002751


Opções Avançadas

Uso privilegiado de recursos

  • Um conjunto de utilizadores têm acesso exclusivo a recursos dedicados (gorgon201.ncg.ingrid.pt e gorgon301.ncg.ingrid.pt) no âmbito de execução de tarefas nas filas medusa e fast_medusa.
  • O acesso a esses recursos exclusivos é invocado com a inclusão das seguintes linhas nas scripts de submissão (para além de outras eventuais opções como a selecção da fila de execução):
# Invocar acesso a gorgon201.ncg.ingrid.pt
#$ -l lnecit=y
# Invocar acesso a gorgon301.ncg.ingrid.pt
#$ -l lnecintel=y
  • Apenas utilizadores autorizados conseguem invocar estes atributos, e executar com sucesso aplicações nos recursos correspondentes.

Acesso Interactivo

  • O acesso interactivo funciona apenas com autenticação via chave pública ssh. Utilizadores que continuem a aceder ao cluster via password, não conseguem utilizar esta funcionalidade. Para gerar conjuntos de chave públic / privada ssh, por favor consulte a secção Autenticação: Como gerar chaves ssh
  • O acesso interactivo apenas funciona se o forward das chaves ssh estiver activo. Por isso é importante conectar às máquinas de login usando a opção "-A" para o ssh.
  • Existem 2 formas para obter acesso interactivo.
    • Usando o comando qlogin.
    • Usando o comando qrsh
  • O comando qlogin permite o acesso a um terminal numa máquina de execução.
$ ssh -A -l username ui6-lnec.ncg.ingrid.pt
$ qlogin
JSV "/opt/ge-tools/submit/jsv.sh" has been started
JSV "/opt/ge-tools/submit/jsv.sh" has been stopped
Your job 977402 ("QLOGIN") has been submitted
waiting for interactive job to be scheduled ...
Your interactive job 977402 has been successfully scheduled.
Establishing /opt/sge/util/resources/wrappers/qlogin_wrapper session to host hpc017.ncg.ingrid.pt ...
Warning: Permanently added '[hpc017.ncg.ingrid.pt]:58283,[10.193.5.17]:58283' (RSA) to the list of known hosts.
[username@hpc017 ~]$ 
[username@hpc017 ~]$ hostname
hpc017.ncg.ingrid.pt
  • O comando qrsh é a melhor forma de executar scripts interactivas.
$ qrsh <full path for script.sh>

Reserva de nós dedicados

  • Alguns utilizadores têm a necessidade de executar tarefas paralelas híbridas (threads/MPI), ou seja:
  1. várias threads em execução no mesmo nó;
  2. gerir a comunicação entre nós independentes por processos MPI.
  • Neste tipo de contexto, é habitual o utilizador solicitar a reserva de nós dedicados. No sistema de gestão de tarefas em uso na infra-estrutura da iniciativa nacional grid, esse cenário é possivel com a invocação de um novo ambiente paralelo (-pe mp "M") e da propriedade exclusive=true que garante a exclusividade dos nós
  • O exemplo seguinte resulta na atribuição de 4 máquinas dedicadas (uma por cada processo MPI). A gestão das threads a executar em cada nó dedicado é da exclusiva responsabilidade do utilizador. De notar que, se cada máquina possuir N cores, este deve ser o limite maximo do número de threads a utilizar. Entre threads e processos MPI, o exemplo anterior resulta em (4 processos MPI x N Threads) = 4N instâncias em execuçao.
-bash-3.2$ cat cpi_submit.sh 
#!/bin/bash

# Opção para herdar o ambiente do utilizador na execução
#$ -V    

# Opção para começar os jobs na directoria de onde o utizador submete.
#$ -cwd  

# Invocar o ambiente paralelo denominado mp, e executar a tarefa com 4 instâncias
#$ -pe mp 4

# Invocar exclusividade em cada máquina
#$ -l exclusive=true

# Escolher explicitamene a queue hpcgrid para a execução da tarefa
#$ -q hpcgrid

# Carregar os modules de interesse
source /etc/profile.d/modules.sh
module load gcc44/openmpi-1.4.1

# Compilar a aplicação
echo "=== Compiling ===" 
mpicc -o cpi cpi.c 

# Executar a aplicação
echo "=== Running ==="
mpirun -np $NSLOTS cpi


Evitar fenómenos de job starvation

  • A reserva de recursos para jobs paralelos grandes (acima de 24 slots) realiza-se com a inclusão da opção #$ -R y nas scripts usadas para submeter os jobs. Esta reserva evita o fenómeno denominado de job starvation, descrito nos parágrafos abaixo:
In this scenario there is one high priority pending job (possibly parallel) A that requires 
a larger quota of a particular resource and a stream of smaller and lower priority jobs B(i)
requiring a smaller quota of the same resource. An assignment for A can not be guaranteed 
assumed the stream of B(i) jobs does not stop - even if job A actually has higher priority 
than the B(i) jobs:

       A
       |
   +---+----+--------+--------+--------+--------+--------+   +----------+
   |  B(0)  | B(2)   | B(4)   | B(6)   | B(8)   | B(10)  |   |          |
   +---+----+---+----+---+----+---+----+---+----+---+----+---+    A     |
       | B(1)   | B(3)   | B(5)   | B(7)   | B(9)   | B(11)  |          |
       +--------+--------+--------+--------+--------+--------+----------+-->

With resource reservation job A gets a reservation that blocks lower priority B(i) jobs and 
thus guarantees resources will be available for A as soon as possible:

       A
       |
   +---+----+----------+--------+
   |  B(0)  |          |  B(2)  |   ...
   +---+----+    A     +--------+--------+
       |    |          |  B(1)  |  B(3)  |  ...
       +----+----------+--------+--------+------------------------------->


Manipulação de dados

  • Para optimizar a performance das execuções das corridas, os utilizadores devem proceder de acordo com as seguintes guidelines:
  1. Compilar e executar os seus programas nas suas HOMES em /home/lnec. As HOMES são disponibilizadas por NFS que é o melhor sistema para manipulação de ficheiros pequenos, logo, adequado a compilações e/ou execuções.
  2. Copiar os dados (principalmente ficheiros grandes) para /home/data. Este filesystem é disponibilizado por LUSTRE que é o melhor sistema para manipulação de ficheiros muito grandes.
  3. Adequar as tarefas de submissão e/ou programas para lerem e escreverem os dados para /home/data.


Dados Técnicos

Recursos LNEC

  • Cluster MEDUSA - Servidores FUJITSU SIEMENS
  1. Servidores FUJITSU SIEMENS PRIMERGYRX220 em rede Ethernet (1 Gbit/s)
  2. 67 servidores, 268 cores, 1 GB de RAM por core (4 GB de RAM por servidor)
  3. 1 disco de 70 GB
  4. Servidores instalados com Scientific Linux 6, versão x86_64


processor	: 3
vendor_id	: AuthenticAMD
cpu family	: 15
model		: 33
model name	: Dual Core AMD Opteron(tm) Processor 280
stepping	: 2
cpu MHz		: 2394.127
cache size	: 1024 KB
physical id	: 1
siblings	: 2
core id		: 1
cpu cores	: 2
apicid		: 3
fpu		: yes
fpu_exception	: yes
cpuid level	: 1
wp		: yes
flags		: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt lm 3dnowext 3dnow pni lahf_lm cmp_legacy
bogomips	: 4787.31
TLB size	: 1024 4K pages
clflush size	: 64
cache_alignment	: 64
address sizes	: 40 bits physical, 48 bits virtual
power management: ts fid vid ttp


  • Cluster MEDUSA - Servidores TYAN
  1. Servidores TYAN FT48B8812 em rede Ethernet (1 Gbit/s)
  2. 1 servidor, 32 cores, 8 GB de RAM por core (256 GB de RAM por servidor)
  3. 1 disco de 280 GB
  4. Servidores instalados com Scientific Linux 6, versão x86_64


processor       : 0
vendor_id       : AuthenticAMD
cpu family      : 21
model           : 1
model name      : AMD Opteron(TM) Processor 6220                 
stepping        : 2
cpu MHz         : 1400.000
cache size      : 2048 KB
physical id     : 0
siblings        : 8
core id         : 0
cpu cores       : 4
apicid          : 32
initial apicid  : 0
fpu             : yes
fpu_exception   : yes
cpuid level     : 13
wp              : yes
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush mmx 
                  fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nonstop_tsc extd_apicid 
                  amd_dcm aperfmperf pni pclmulqdq monitor ssse3 cx16 sse4_1 sse4_2 popcnt aes xsave avx lahf_lm cmp_legacy 
                  svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs xop skinit wdt lwp fma4 nodeid_msr topoext 
                  perfctr_core cpb npt lbrv svm_lock nrip_save tsc_scale vmcb_clean flushbyasid decodeassists pausefilter pfthreshold
bogomips        : 6000.41
TLB size        : 1536 4K pages
clflush size    : 64
cache_alignment : 64
address sizes   : 48 bits physical, 48 bits virtual
power management: ts ttp tm 100mhzsteps hwpstate [9]


  • Cluster Medusa - Servidores GATEWAY
  1. Servidores Gateway GR380 F2 em rede Ethernet (1 Gbit/s)
  2. 1 servidor, 12 cores, 4 GB de RAM por core (32 GB de RAM por servidor)
  3. 1 disco de 500 GB
  4. Servidores instalados com Scientific Linux 6, versão x86_64


processor	: 0
vendor_id	: GenuineIntel
cpu family	: 6
model		: 45
model name	: Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz
stepping	: 7
cpu MHz		: 2001.000
cache size	: 15360 KB
physical id	: 0
siblings	: 12
core id		: 0
cpu cores	: 6
apicid		: 0
initial apicid	: 0
fpu		: yes
fpu_exception	: yes
cpuid level	: 13
wp		: yes
flags		: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer xsave avx lahf_lm ida arat epb xsaveopt pln pts dts tpr_shadow  vnmi flexpriority ept vpid
bogomips	: 4000.18
clflush size	: 64
cache_alignment	: 64
address sizes	: 46 bits physical, 48 bits virtual
power management:

Configurações gerais

Armazenamento

  • shared file system NFS para as HOMES dos utilizadores disponível sobre /home/lnec. A utilizar para compilações de programas.
  • shared file system do tipo LUSTRE disponível sobre /data/lnec (12 OSTs com 1 TB cada configurados em regime de stripe all, 10 Gigabit Ethernet). A utilizar para armazenamento de dados.
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda1             276G   25G  237G  10% /
tmpfs                 127G     0  127G   0% /dev/shm
nfs01:/exports/uhomes/lnec
                      2.8T  1.9T  856G  70% /home/lnec
nfs01:/exports/exper-sw
                      2.8T  665G  2.1T  24% /exper-sw

Gestor de tarefas


Suporte e Contactos

Ferramentas pessoais
Suporte