Pour les employeurs
Senior DevOps Engineer


Qantev
il y a 12 jours
Date de publication
il y a 12 jours
S/O
Niveau d'expérience
S/O
Temps pleinType de contrat
Temps plein
DevOps / CloudCatégorie d'emploi
DevOps / Cloud
About Qantev

Qantev is a cutting-edge AI company focused on transforming the health insurance industry. Its platform helps insurers enhance healthcare delivery and streamline claims management through the power of advanced Machine Learning and Generative AI.

By analyzing historical health claims data, Qantev predicts patient journeys, improves health outcomes, and optimizes operations for payers. This data-driven approach enables more efficient, personalized, and impactful healthcare experiences for millions of people worldwide.

Key Facts
  • Founded in 2019
  • Team of more than 45 professionals across Paris and Hong Kong
  • Active in Europe, the United States, Latin America, Asia, and the Middle East
  • Supported by top-tier investors and industry experts

Why Join Qantev
  • Make a meaningful impact in healthcare through the application of advanced technology
  • Work with a diverse and passionate team at the forefront of AI innovation
  • Collaborate in a fast-moving, international environment
  • Contribute to a mission-driven company revolutionizing health insurance operations

About the Role

We are looking for a Senior DevOps Engineer to join our engineering team and drive the scalability, performance, and reliability of our infrastructure. You will play a critical role in building and maintaining a modern DevOps stack that powers real-time & batch data processing, distributed systems, and machine learning pipelines.

You will be responsible for infrastructure automation, monitoring, deployment pipelines, and ensuring high availability for mission-critical services in production.
Key Responsibilities
  • Design, build, and manage cloud infrastructure (AWS/GCP/Azure) using IaC tools (Terraform, etc.)
  • Deploy and manage Kubernetes clusters and workloads across environments.
  • Set up and manage Apache Kafka clusters for event-driven architectures.
  • Develop and maintain CI/CD pipelines for backend services, data pipelines, and ML workflows.
  • Support & Maintain Airflow DAGs for data and task automation across environments.
  • Optimize system performance and ensure infrastructure reliability, scalability, and security.
  • Implement observability solutions: logging, monitoring, alerting (e.g., Prometheus, Grafana, ELK, Loki, Sentry).
  • Work with development, data, and ML teams to ensure smooth integration and deployments.
  • Mentor junior DevOps or SRE engineers and contribute to infrastructure roadmap.
Required Qualifications
  • 5+ years of hands-on experience in DevOps, Site Reliability Engineering, or Infrastructure Engineering.
  • Deep expertise with Kubernetes, including Helm, operators, and managing multi-cluster environments.
  • Strong experience with Kafka setup, tuning, and monitoring in production.
  • Experience with maintaining & supporting Apache Airflow deployments..
  • Proficiency in CI/CD pipelines using tools like GitHub Actions, GitLab CI, ArgoCD, Jenkins, or Spinnaker.
  • Strong scripting and automation skills (Python, Bash, Go, etc.).
  • Experience with Terraform, Ansible, or other infrastructure-as-code tools.
  • Familiarity with containerization (Docker) and cloud-native tooling.
  • Solid understanding of networking, security best practices, and distributed system operations.
Preferred Qualifications
  • Experience in a cloud-native environment with autoscaling & service meshes.
  • Hands-on experience with ML Ops infrastructure or data platform operations.

Recruitment process

Pre-selection interview

Case study

Interviews with the hiring manager, the head of department, a member of the team and the CEO.

À propos du poste

Nous recherchons un ingénieur DevOps senior pour rejoindre notre équipe d'ingénieurs et améliorer l'évolutivité, les performances et la fiabilité de notre infrastructure. Vous jouerez un rôle essentiel dans la création et la maintenance d'une pile DevOps moderne qui alimente le traitement des données en temps réel et par lots, les systèmes distribués et les pipelines d'apprentissage automatique.

Vous serez responsable de l'automatisation de l'infrastructure, de la surveillance, des pipelines de déploiement et de la haute disponibilité des services critiques en production.

Principales responsabilités
  • Concevoir, construire et gérer l'infrastructure cloud (AWS/GCP/Azure) à l'aide d'outils IaC (Terraform, etc.)
  • Déployer et gérer les clusters Kubernetes et les charges de travail dans tous les environnements.
  • Configurer et gérer les clusters Apache Kafka pour les architectures événementielles.
  • Développer et maintenir des pipelines CI/CD pour les services backend, les pipelines de données et les workflows ML.
  • Prendre en charge et maintenir les DAG Airflow pour l'automatisation des données et des tâches dans tous les environnements.
  • Optimiser les performances du système et garantir la fiabilité, l'évolutivité et la sécurité de l'infrastructure.
  • Mettre en œuvre des solutions d'observabilité : journalisation, surveillance, alertes (par exemple, Prometheus, Grafana, ELK, Loki, Sentry).
  • Collaborer avec les équipes de développement, de données et de ML pour assurer une intégration et des déploiements fluides.
  • Encadrer les ingénieurs DevOps ou SRE juniors et contribuer à la feuille de route de l'infrastructure.

Qualifications requises

Plus de 5 ans d'expérience pratique dans le domaine du DevOps, de l'ingénierie de fiabilité des sites ou de l'ingénierie des infrastructures.

Expertise approfondie de Kubernetes, y compris Helm, les opérateurs et la gestion d'environnements multi-clusters.

Solide expérience dans la configuration, le réglage et la surveillance de Kafka en production.

Expérience dans la maintenance et le support des déploiements Apache Airflow.

Maîtrise des pipelines CI/CD à l'aide d'outils tels que GitHub Actions, GitLab CI, ArgoCD, Jenkins ou Spinnaker.

Solides compétences en script et en automatisation (Python, Bash, Go, etc.).

Expérience avec Terraform, Ansible ou d'autres outils d'infrastructure en tant que code.

Connaissance de la conteneurisation (Docker) et des outils natifs du cloud.

Solide compréhension des réseaux, des meilleures pratiques en matière de sécurité et des opérations des systèmes distribués.

Qualifications souhaitées

Expérience dans un environnement natif du cloud avec autoscaling et service meshes.

Expérience pratique avec l'infrastructure ML Ops ou les opérations de plateformes de données.

Process recrutement

Entretetien de préselection

Case study

Entretiens avec le Hiring Manager, le responsable de département, une personne de l'équipe et le CEO.

At Qantev, Diversity, Equity and Inclusion is a core principle that drives innovation and success. We are committed to building a global workforce that reflects the rich variety of backgrounds, experiences, and perspectives that make up our world. We hire and embrace applications with no regard to race, ethnic origin, sexual orientation, physical or mental disability, pregnancy, medical condition, gender expression or identity, religion, marital status, age or other non-merit criteria.

This is not a trend for us-it's an integral part of who we are and how we work.
Qantev is proud to foster an environment where everyone has equal access to opportunities, and where each individual can bring their authentic self to the table. We will always strive to welcome applicants of all backgrounds and will remain dedicated to building a team where all voices are heard and all talents are celebrated.

Qantev does not accept unsolicited employment agencies' or headhunter's resumes. We will not pay any third-party that does not have a pre-signed agreement with us. Any unsolicited CVs are deemed to be the property of Qantev and its subsidiaries.
Balises associées
-
RÉSUMÉ DE L' OFFRE
Senior DevOps Engineer
Qantev
Paris
il y a 12 jours
S/O
Temps plein

Senior DevOps Engineer