Background Image
DONNÉES

Kafka hybride résilient : Automatiser les déploiements sur site avec Confluent Clust

May 2, 2025 | 4 Lecture minute

Les entreprises sont à la recherche de solutions innovantes pour maximiser leurs investissements technologiques et obtenir un impact commercial réel. L'une de ces solutions, qui a gagné en popularité, est la mise en œuvre d'architectures hybrides résilientes utilisant Apache Kafka et Confluent Cloud. Cette approche permet non seulement de répondre aux besoins complexes des entreprises, mais aussi de garantir l'évolutivité, la fiabilité et la conformité à des réglementations strictes.

L'architecture pilotée par les événements : Un changement de donne 

L'architecture pilotée par les événements a révolutionné la manière dont les données sont gérées et traitées au sein des entreprises. Traditionnellement, les entreprises étaient confrontées à des problèmes de silos de données, d'anciens systèmes et de fragiles connexions point à point. Ces problèmes entraînaient souvent des inefficacités et un manque de confiance dans la qualité des données. Apache Kafka est apparu comme un outil puissant pour découpler les producteurs et les consommateurs de données, en fournissant une solution de flux d'événements en temps réel qui sert de source de vérité.

Les performances élevées, l'évolutivité et l'observabilité de Kafka en font un choix idéal pour les entreprises qui cherchent à rationaliser leurs processus de données. Cependant, la gestion des clusters Kafka sur site peut s'avérer complexe et gourmande en ressources. C'est là que Confluent Cloud entre en jeu, en offrant une solution multi-cloud entièrement gérée et globale, avec une sécurité de niveau entreprise et une évolutivité élastique.

Le besoin de l'entreprise : Garantir la conformité et la fiabilité 

Pour un client du Fortune 100 travaillant dans un secteur hautement réglementé adjacent à la santé, le besoin d'une architecture hybride résiliente était primordial. Le client était confronté à une nouvelle réglementation exigeant une chaîne de contrôle complète pour ses produits tout au long du processus de distribution. Cela signifiait qu'il fallait enregistrer chaque événement au fur et à mesure que les produits entraient et sortaient des entrepôts, en veillant à ce qu'il n'y ait pratiquement pas de temps d'arrêt afin d'éviter des pertes de plusieurs millions de dollars.

L'ampleur de l'opération était considérable, des millions d'événements devant être enregistrés en temps réel. Une destination centralisée des données était essentielle pour fournir la chaîne de contrôle complète à l'organisme de réglementation. En outre, le client avait besoin d'un produit de données fiable et digne de confiance dès le départ, afin d'éviter les pièges de la dette technologique et d'assurer une fiabilité à long terme.

Solution d'architecture hybride : Utiliser Kafka et Confluent Cloud 

Pour répondre à ces exigences élevées, une solution d'architecture hybride a été mise en œuvre, s'appuyant sur Apache Kafka et Confluent Cloud. Les composants clés de cette solution sont les suivants

  1. Confluent Cloud: Servant de source et de destination centrales pour les données, Confluent Cloud a fourni l'évolutivité et l'intégration nécessaires pour des millions d'événements. Des outils tels que Kafka Connect, Kafka Streams et l'intégration Flink ont permis un traitement et une analyse efficaces des données.

  2. Plateforme Confluent sur site: Déployée dans les centres de distribution du client, la plateforme Confluent sur site a assuré l'enregistrement local des événements et la résilience. Confluent for Kubernetes a été utilisé pour simplifier le déploiement et la gestion des clusters Kafka.

  3. Source d'événements: Les scans de produits dans les entrepôts ont déclenché des événements, assurant l'enregistrement en temps réel de chaque mouvement. Cette approche a permis de préserver la chaîne de contrôle et de fournir des données précises pour la conformité réglementaire.

  4. Liaison des clusters: Fonctionnalité essentielle de Confluent Enterprise, la liaison entre clusters a permis une réplication transparente des données sur site vers Confluent Cloud. Cela garantit la disponibilité des données centralisées et la résilience en cas de défaillance de la connectivité.

  5. Registre des schémas: Utilisé pour la gouvernance des données, le registre des schémas a permis de mettre en œuvre des contrats de données fiables et la découvrabilité, garantissant ainsi un produit de données fiable dès le départ.

Automatisation des déploiements : Le modèle du centre de distribution 

Compte tenu de l'ampleur de l'opération, un déploiement manuel n'était pas envisageable. Un modèle de centre de distribution a été créé pour automatiser le déploiement de clusters Kafka, de bases de données documentaires et d'applications Java vers des clusters Kubernetes locaux. Ce modèle a permis des déploiements cohérents et reproductibles dans tous les centres de distribution, réduisant considérablement le temps et les efforts nécessaires.

Confluent for Kubernetes a joué un rôle essentiel dans cette automatisation, en fournissant un puissant opérateur Kubernetes qui a simplifié la création et la gestion des clusters Kafka. L'opérateur s'est occupé de tout, de la configuration des courtiers à la création des sujets et à la liaison des clusters, ce qui a rendu le processus de déploiement très efficace et adapté à GitOps.

Données résilientes et temps d'arrêt nul 

L'architecture hybride a permis aux centres de distribution de ne subir aucun temps d'arrêt, même en cas de défaillance de la connectivité. L'enregistrement local des événements a permis aux opérations de se poursuivre sans interruption, tandis que l'interconnexion des clusters a facilité la réplication transparente des données vers Confluent Cloud une fois la connectivité rétablie. Cette résilience était cruciale pour répondre aux exigences réglementaires et éviter des interruptions coûteuses.

Exploiter la valeur des données 

Au-delà de la conformité réglementaire, la solution hybride Kafka a permis de dégager une valeur significative pour le client. Avec des données centralisées dans Confluent Cloud, le client pouvait effectuer des analyses avancées, s'intégrer à des outils tels que Snowflake et fournir des informations précieuses à ses clients finaux. Le produit de données fiable et digne de confiance a permis au client d'optimiser ses opérations, d'améliorer l'expérience client et de stimuler la croissance de l'entreprise.

Conclusion 

La mise en œuvre d'une architecture Kafka hybride résiliente avec Confluent Cloud et des déploiements sur site offre une solution puissante pour les entreprises confrontées à des besoins commerciaux complexes et à des réglementations strictes. En s'appuyant sur les forces des environnements on-prem et cloud, les entreprises peuvent atteindre l'évolutivité, la fiabilité et la conformité tout en libérant le plein potentiel de leurs données.

Cette approche permet non seulement de répondre aux exigences réglementaires immédiates, mais aussi de jeter les bases de la croissance et de l'innovation futures. Alors que les entreprises continuent de naviguer dans le paysage numérique, des solutions telles que Kafka hybride résilient joueront un rôle crucial dans l'obtention d'un impact commercial réel et dans l'optimisation des investissements technologiques.

Si vous cherchez à élever votre entreprise et à obtenir des résultats remarquables, n'hésitez pas à contacter Improving. Notre équipe est prête à collaborer avec vous et à favoriser votre réussite.

Données

Dernières réflexions

Explorez nos articles de blog et laissez-vous inspirer par les leaders d'opinion de nos entreprises.
Asset - Unlock the Value Thumbnail
Données

Kafka hybride résilient : Automatiser les déploiements sur site avec Confluent Clust

Utiliser des architectures hybrides résilientes avec Apache Kafka et Confluent Cloud pour les investissements technologiques et les réglementations.