• Todas las sedes

IT-DevOps

Buscamos candidatos motivados, con experiencia demostrada en gestión de sistemas informáticos y de la nube, para formar parte de un equipo dedicado al diseño e implementación de sistemas informáticos y de almacenamiento de alto rendimiento dedicados a apoyar proyectos de investigación.

El candidato debe tener conocimientos y experiencia para gestionar, basándose en las buenas prácticas, la configuración, el mantenimiento, la actualización y la supervisión del sistema de cálculo a dos niveles:

 

  1. La infraestructura de hardware de HPC, Inteligencia Artificial y Big Data, que incluye clústeres locales de máquinas que utilizan la última tecnología de GPU y otros entornos de hardware para el entrenamiento, la prueba y la inferencia de modelos de Deep Learning, almacenamiento distribuido y CI / CD.
  2. La plataforma de software que proporciona aplicaciones y servicios que permiten realizar el trabajo de investigación de forma eficiente, además de simplificar las operaciones de integración, mantenimiento y seguimiento.

Otros objetivos estarán vinculados a la participación activa en proyectos de investigación como apoyo y soporte a los investigadores en la aplicación de tecnologías emergentes e innovadoras.

Las personas aspirantes deben tener:

  • Formación: Grado o Licenciatura en Informática, Telecomunicación o Desarrollo de Software.
  • Idiomas: Español e Inglés.

Valoramos que las candidaturas cuenten con:

  • Experiencia en entornos Linux ((gestión de usuarios, gestión de servicios, control de procesos y sintonización).
  • Experiencia en la configuración de redes (control del tráfico en redes de comunicación y seguridad).
  • Herramientas CI/CD: GitLab (herramientas devops, gitlab runners, CI/CD pipelines).
  • Tecnologías de contenedorización: Docker.
  • Desarrollo de software Agile.
  • Microservicios y Tecnologías de Orquestación: Kubernetes.
  • Sistemas de almacenamiento distribuidos (GPFS, Ceph, configuración NAS).
  • HPC Job Scheduling System: Slurm.
  • Control informático: Prometheus y Grafana.
  • Registro y auditoría TI: ELK stack.
  • Experiencia en el análisis de la seguridad del código CI/CD y del pipeline, y en la optimización de la gestión de las vulnerabilidades.
  • Experiencia con arquitecturas HPC, servidores GPU, arquitecturas basadas en datos, almacenamiento distribuido.
  • Experiencia con soluciones  de virtualización bare-metal: Open Nebula, Proxmox, MAAS, OpenStack.
  • Experience en la implementación de sistemas de Big Data y DB: Kafka, PostgreSQL, Spark, MongoDB, Cassandra.
  • Conocimiento de los diferentes proveedores de servicios en la nube y sus ofertas de servicios (p. ej. IaaS, PaaS): Amazon Web Services, Google Cloud Platform, Microsoft Azure
  • Herramientas de gestión de flujo  MLOPs e IA: Airflow, Kubeflow, MLFlow, DVC etc.

Tareas y responsabilidades:

  • Evaluar la infraestructura de HW existente (centrada en servidores de GPU, servidores de archivos y redes), identificar las necesidades y participar en el proceso de diseño de modernización del sistema.
  • Planificar las necesidades futuras de HW.
  • Mantener, actualizar y dar soporte a la HPC interna.
  • Implementar buenas prácticas en CI/CD y MLOps.
  • Desarrollo de middleware para MLOps.
  • Brindar soporte/consultoría para la implementación de MLOps para terceros, en nubes/clusters privados o públicos.

Vicomtech

Parque Científico y Tecnológico de Gipuzkoa,
Paseo Mikeletegi 57,
20009 Donostia / San Sebastián (España)

+(34) 943 309 230

Zorrotzaurreko Erribera 2, Deusto,
48014 Bilbao (España)

close overlay

Las cookies de publicidad comportamental son necesarias para cargar el contenido

Aceptar cookies de publicidad comportamental