Notes de réunion OSUG-DC du 24 nov 2016
Notes prises par Pierre Volcke et Laurent Bourges
Objectifs OSUG-DC: Resp. Scientifique (JC Augereau) : faire en sorte que DC fonctionne dans un premier temps puis obj. scientifiques dans un deuxième temps
Resp. Technique OSUG-DC (B Boutherin) a aussi une préoccupation mutualisation OSUG
Tour de table et activité courante:
- Armel Sereckissy (ASR UMS) : nouvel arrivant (01/11) sur la mise en place du service postgresql,
- Jacques Garnier (ASR UMS) : administrateur de la plate-forme VMWare + services communs OSUG,
- Guillaume Mella (ingé IPAG, JMMC) : dev. log pour projet européen (OIMaging) + évolution infrastructure jmmc.fr,
- P Bollard (ingé contractuel IPAG, projet SSHADE) : projet europeen (bdd postgres + web python),
- G Arneodo (ingé contractuel ISTERRE, projet RESIF) : consolidation / exploitation zabbix + postgres + python,
- R Jacquot (ingénieur IPAG, JMMC) : évolution infrastructure jmmc.fr (ansible),
- P Volcke (ingénieur ISTERRE, RESIF) : consolidation SI RESIF + ANF (semaine prochaine),
- Catherine Peguegnat (ingénieur ISTERRE, RESIF) : RESIF (resp technique, coord) sur consolidation services (codes métier, analyses, logs / erreur),
- F Roch (ingénieur UMS, calcul intensif & CIMENT, responsable SI UMS) : mise à jour environement de dev calcul,
- D Albert (ingénieur UMS, projets SPHERE-DC & SSHADE) : SPHERE = code de calcul sur ciment en idl + SSHADE = outil VO dachs (gavo),
- L Bourges (ingénieur UMS, développement, équipe JMMC) : JMMC (oiFits explorer) + OSUG-DOI (dev) pour mise en production prochainement,
- JC Augereau (directeur adjoint UMS en charge des services d'observation & responsable scientifique OSUG-DC),
- B Boutherin (ingénieur UMS OSUG, responsable technique OSUG-DC & mission de développement de la mutualisation OSUG) : activité avec directions laboratoires et services infos pour mutualisation SI
Organisation & fréquence des réunions
- Réunion plénière en fréquence mensuelle
- Rencontre informelle hebdomadaire (café) + travail ensemble (1/2 journée) sur un sujet désigné par sous-groupes.
- Possibilité de bureau disponible pour travail commun ⇒ salle Taillefer OSUG-D 2eme (ipag)
- Arrivée de contractuels dans différents projets (JMMC, RESIF). Selon l'affectation géographique des personnels, traiter question des bureaux dans OSUG D.
Retour sur les rencontres avec les services d'observation
Les rencontres font apparaître beaucoup de questions sur les périmètres et sur la circulation de l’information.
- OSUG-DC :
- un ensemble de personnels avec une somme de compétences et d'historique
- un ensemble de projets des services d'observation
- Ces projets ont leur visibilité propre
- Pas de concurrence avec les offres de service GRICAD
- Les projets participants sont actuellement : JMMC + Sphere-DC + SSHADE (IPAG), RESIF (ISTERRE), Cryobsclim (IGE, ajouté récemment)
- besoin d'un “guichet unique” pour partager les infos sur les offres de service, bonnes pratiques et les informations (GRICAD, OSUG) ⇔ labos, équipes
- essayer de converger vers des procédures / doc bonnes pratiques communes (linux, sécurité, services)
- GRICAD
- est organisé en groupes de travail
- dans la cartographie OSUG, nécessité de savoir qui participe à quel groupe de travail
- organiser la circulation & retour d'information au sein de l'OSUG
Discussion sur les canaux de communication. Il est proposé que :
- la conservation de la liste osug-dc@ (personnels participants à l'OSUG-DC)
- la conservation de la liste osug-si@ (personnels SI de tous les labos)
- que la communication des comptes-rendus soit dirigée à : osug-dc@ + osug-si@
- Comment partager l'information (dev ⇔ ops) ?
- Représentant SIG dans OSUG-DC: éric maldonado à inclure ?
- Mise à jour du site web osug.fr concernant OSUG-DC ?
- Outils :
- Besoin de calendriers partagés ? au moins un calendrier OSUG-DC pour définir les réunions ?
- wiki OSUG: ouvrir les accès en lecture / écriture à tout personnel OSUG = en cours
- Utiliser Etherpad pour prise de notes à plusieurs mains en direct: https://etherpad.in2p3.fr
- Outil commun de gestion de projet / actions: trac, redmine: à rediscuter
Question ouverte : autres canaux pour les personnels non inclus ? (activité SIG, chercheurs-développeurs, autres projets non inclus dans OSUG-DC).
Articulation entre le développement des services et leur exploitation :
- organisé aujourd'hui de façon informelle entre développeurs & admin systèmes.
- Bernard pointe la nécessité d'organiser l'exploitation des services de façon à garantir la continuité des services en partageant les procédures, les modes d'exploitations, la surveillance des systèmes
- effectuer des revues sur la façon d'intervenir sur les services
Comptabilité sur les ETP sur chaque projet
- Comment anticiper la venue de nouveaux projets ?
- Comptabilité des ETP sur chaque projet (Bernard tiendra cette comptabilité 2 fois par an):
- comment faire pour les personnels partagés sur plusieurs projets ?
Feuille de route INSU
- demande de l'INSU pour une “roadmap” en terme RH informatique
- cycle de rencontre avec la direction OSUG, les directions des labos & les responsables informatiques
- identifier les départs de personnel BAP-E et le risque de perte de compétences
- quelles lacunes en compétences & quelles stratégie de recrutement (recrutement labo versus OSUG) : recensement des demandes / départs ASR des labos INSU ⇒ demande de postes mutualisés OSUG
- renouvellement d'équipements possiblement mutualisables
- demande au labo de se positionner services par services (virtu, stockage, …) = en local ou mutualisé OSUG, GRICAD ?
- mise en commun du support ? croisement entre les systèmes de gestion de tickets ?
- Sécurité et Réseaux : parler d'une seule voix au niveau OSUG
Vie et évolution des plateformes GRICAD (SUMMER, virtualisation etc.)
- lacune actuelle sur le retour d'informations “stratégiques” sur la vie des plateformes
- s'organiser par le haut : s'assurer d'une participation de OSUG-DC au comité de pilotage/décision dans GRICAD
- s'organiser par le bas : demander aux admin systèmes contribuant au CTS des retours sur les actions/décisions du CTS
- comment influer pour avoir une offre technique mieux adaptée comme par exemple la gestion des quotas (2000iops), difficulté à identifier quel interlocuteur peut agir sur ce point qui relève d'une décision politique.
GitLAB GRICAD
Information de L Bourges:
- Forge Gitlab / Redmine installée en prototype à GRICAD
- possibilité de tester (officieusement) !
PostgreSQL UMS
- présentation (architecture.pdf) de Armel sur une architecture 9.5 redondée (maitre/esclave/pgpool)
- intérêt pour partager la compétence et les socles
- ⇒ rencontres/séminaires techniques spécifiques à prévoir
- mise en place de PGPOOL pour la répartition de charge, tolérance au pannes (fail-over) / mode proxy (déclaration d'un seul serveur coté client)
- propose en parallele de la réplication de faire du backup incrémentale sur un serveur dédié
- l'évaluation se fait sur des VMs et non des machines physiques
- service en recherche de beta-testeurs :
- Shade candidat!
- Resif également avec une base déjà existante. Intéressé pour le futur et donc aimeraient avoir des infos sur les performances envisagées.
- remarques:
- Se poseront les questions de compatibilités / extension, closonnement de données (disques dédiés distinguer les index de la base)
- Question version 9.5 ou 9.6 ? performance (ssd, partitionement, tuning)
- Analyse de logs postgresql (séminaire pg badger par Gregory ?) = https://github.com/dalibo/pgbadger
- besoin d'avoir une plateforme pour des essais
Zabbix
- passer la version de test en dernière version stable
- documenter les procédures d'exploitation de la plateforme Zabbix : niveaux de délégation dans l'interface web, partage des confs, sauvegardes, cloisonnement (ou pas) entre projets/usagers, qui intervient en cas de pb sur la plateforme, qui contacter, période de congés, etc.
- bascule de la prod en derniere version stable 3.2 (fin 2016) mais avant upgrade zabbix-test en 3.2
- Gregory a travaillé sur du monitoring postgres et plugins applicatif (client, serveur, python) qui pourront bénéficier à tous
achat de volume SUMMER et NAS
- NAS OSUG = 6x8Tb (32Tb utiles) pour sauvegarde OSUG-DC en dehors de SUMMER, installé au CERMO mais pas de réseau (10Gb)
- vSAN OSUG-DC = attente de retour VMWare / Dell pour compatibilité avec nos serveurs pour acheter du stockage local dédié OSUG-DC (virtu)
- 30To argent (argent = sauvegardé):
- 30Tb commandés mais volumes fragmentés, avec / sans sauvegarde, 30Tb commandés mais volumes fragmentés, avec / sans sauvegarde
- Migration en cours vers un nouveau volume de 30Tb (blocs de 8Tb)
- test SUMMER “rapide” : le CTS a alloué une SVM de test (pour 1 mois) pour évaluer les perfs
- RESIF peut proposer un workload à l'UMS dans le cadre des tests.
JMMC
- mise en production de la nouvelle infrastructure en janvier 2017 (1 grosse VM ⇒ petites VMs)
- rencontre avec la DSI sur le sujet du nouveau réseau UGA pour datacenters (subnets) = ACI (réseau virtualisé = switchs virtuels)
- la DSI fera un topo général sur ces nouvelles architectures pour l'OSUG (8 Déc, 14h)