Skip to content

Actualités et formations

Formations

Consultez les prochaines formations sur le portail : https://indico.criann.fr/category/3/

Actualités sur Austral

10.10.2024 : Limite sur l'utilisation des GPU

Changement de la limitation du nombre de GPU et de cœurs cumulés pour les partitions gpu, gpu_all, hpda :

  • en semaine : 16 GPU et 128 cœurs
  • pendant les week-end (vendredi 17h au dimanche 20h): 32 GPU et 256 cœurs

Les partitions gpu_mig et gpu_smt ne sont pas concernées.

Recommandation : limitez vos demandes à 8 cœurs par GPU.

8.10.2024 : Comité Technique HPC

Présentation : http://www.criann.fr/docs/0/actus/2024/CT-HPC-20241008.pdf

A retenir :

  • Ajout d'une partition gpu_smt contenant un serveur GPU avec le mode multithreading activé (128 cœurs)

  • Activation du mode semaine/week-end pour les partitions GPU en doublant les ressources autorisées pendant les week-end

  • Nouvelle version des documents d'ouverture de comptes (https://www.criann.fr/formulaires/)

25.09.2024 : remise en production des noeuds Large et Alt

La maintenance est terminée sur les serveurs Large et Alt (GPU AMD) : ils sont de retour en production.

Mise à jour de rocm en version 6.1.3.

23.09.2024 : coupure électrique non programmée

6.09.2024 : fin de la maintenance

  • Remise en production progressive
    • première phase : les serveurs fins, gpu/hpda et le service de visualisation
    • prochainement : le noeud large et les serveurs GPU AMD (alt)
  • Environnement
  • Environnement pour l'IA
    • Les drivers NVIDIA ont été mis à jour permettant l'utilisation de Cuda 12.6.
  • Mises à jour système
    • RedHat 8.7 -> 8.8
    • Slurm : pas de mise à jour
    • Slingshot 2.1.1 -> 2.2.0
    • Nvidia driver 535.154.05 -> 560.35.03

17.07.2024 Mise en place des Quotas

Mise en place des quotas sur les home-dir et les dossiers de partage.

25.06.2024 : Limitation de la durée des partitions GPU

Mise en place de la limite à 48h (2j) sur les 2 partitions gpu et gpu_all.

20.06.2024 : Comité Technique HPC

Présentation : http://www.criann.fr/docs/0/actus/2024/CT-HPC-20240620.pdf

A retenir :

Changement des configurations des partitions pour les serveurs GPU

  • Partitions hpda, hpda_mig : durée max de 72h (3j)
    • Ressources max par calcul : 1 serveur (8 GPU)
    • Ressources associées aux partitions : 6 serveurs + 1 serveur MIG
  • Partition gpu, gpu_all : durée max de 48h (2 j)
    • Ressources max par calcul : 2 serveurs (16 GPU)
    • Ressources associées aux partitions : 10 serveurs

Stockage

  • Quotas pour les futurs comptes : 50Go sur le homedir
  • Quotas pour les nouveaux projets : 200Go sur le dossier PARTAGE
  • Mise en place prochaine de quotas adaptés sur tous les homedir existants

Performances Lustre et IA

  • Des tests sont en cours actuellement avec HPE : détails dans la présentation
  • Recommandation d'un utilisateur du GREYC : utiliser la librairie WebDataset pour un accès efficace à des jeux de données constitués d’un grand nombre de fichiers (gestion via des archives).

Date envisagée pour le prochain comité technique : 10 octobre 2024

7.06.2024 : mise en place d'un quota sur les inodes

Afin d’éviter une saturation de la baie de disques, nous avons mis en place des quotas sur la volumétrie et sur le nombre d’inodes (lié au nombre de fichiers).

Des limites strictes sont maintenant appliquées à chaque utilisateur, sur son usage de la totalité de la baie de disque :

  • nombre d’inodes max : 5 millions
  • volumétrie max : 30 To

En complément : le stockage temporaire (/dlocal/run) est maintenant nettoyé automatiquement pour conserver uniquement les dossiers de moins de 60 jours.

Plus d'informations dans la documentation : https://services.criann.fr/services/hpc/cluster-austral/guide/data-management/

15.05.2024 : incident sur les serveurs GPU

Une maintenance non programmée d'une journée et demi a eu lieu le 15-16 mai sur les serveurs GPU (c23gpu[1-6]). Les serveurs HPDA (c23hpda[1-5]) sont restés opérationnels.

16.04.2024 : comptabilité dans les fichiers .o

Un rapport de consommation du calcul est rajoutée en fin du fichier .o
Documentation en ligne

9.04.2024 : comité Technique HPC

Présentation : http://www.criann.fr/docs/0/actus/2024/CT-HPC-20240409.pdf

À retenir :

Changement des limitations par utilisateur :

  • GPU : passage de 32 à 16 GPU / utilisateur en simultané
  • CPU : passage de 8448 à 4224 cœurs / utilisateur (22 nœuds) en simultané pendant la semaine et 8448 cœurs / utilisateur (44 nœuds) pendant les week-end (du vendredi 17h au dimanche 20h)

Nouveautés :

26.03.2024 : coupure électrique non programmée

22.02.2024 : fin de la maintenance

  • Précaution pour les calculs MPI multi-noeuds, la consigne reste la même : rajouter l'option --exclusive afin de réserver les serveurs en entier.

  • La quantité totale de mémoire disponible sur les serveurs a été réduite :

    • 714 000M (3500M par coeur) pour les noeuds fin
    • 492 000M (7600M par coeur) pour les serveurs équipés de GPU Nvidia
  • Remise en production progressive
    • première phase : les serveurs fins, gpu/hpda et le service de visualisation
    • prochainement : le noeud large et les serveurs GPU AMD (alt)
  • Environnement
    • les modules initiaux de compilation cpe_env/*.08.23 ont été conservés et restent supportés par la nouvelle configuration d’Austral (le module pré-chargé à la connexion est resté le même que précédemment : cpe_env/gcc-milan-08.23).
    • Les nouveaux modules cpe_env/*.02.24 (voir module avail cpe_env) fournissent des versions plus récentes de compilateur ou de bibliothèque MPI ou de bibliothèque scientifique (cray-libsci). Les développeurs qui souhaiteraient re-compiler leurs applications avec ces environnements, doivent nous contacter s’ils emploient des bibliothèques externes partagées (autres que cray-hdf5, cray-fftw, cray-libsci) car nous devrons compiler ces bibliothèques avec ces nouveaux compilateurs.
  • Environnement pour l'IA
    • Les drivers NVIDIA ont été mis à jour permettant l'utilisation de Cuda 12.2.
  • Mises à jour système
    • RedHat 8.6 -> 8.7
    • Slurm 22.05.10 -> 23.02.7
    • Slingshot 2.1.0 -> 2.1.1
    • Nvidia SDK 22.7 -> 23.3
    • Nvidia driver 515.65.01 -> 535.154.05

Last update: October 21, 2024 10:19:27