Lors de Devoxx France 2018, j’ai participé au Hands-on Lab d’initiation à Apache Cassandra. Animé par Alexander Dejanovski (The LastPickle) et Maxence Lecointe (Ippon), ce Lab m’aura enfin permis de découvrir cette base de donnée NoSQL, d’appréhender ses concepts fondamentaux, de jouer avec un cluster en local et d’écrire quelques requêtes CQL par le biais de son client Java.
Le Lab était construit autour d’un support de présentation et de 5 exercices pratiques. Les slides Devoxx France – Initiation àApache Cassandra – Avril 2018.pdf et les exercices sont disponibles sur le dépôt GitHub thelastpickle/devoxxfr2018.
Ce billet a pour objectif de permettre aux développeurs n’ayant pas eu la chance de suivre ce Lab de profiter du travail préparatif des 2 speakers (un grand merci à eux) en lui donnant de la visibilité. Vous pourrez ainsi vous former par vous-même à Cassandra. Les explications données dans ce billet complètent les slides mais ne remplacent pas leur lecture.
Installation de CCM
Slides : 4 à 5
Une partie du Lab repose sur l’utilisation du Cassandra Cluster Manager (CCM). Cet outil est particulièrement pratique pour développer en local avec Cassandra. En effet, il permet de créer des clusters multi-nœuds et multi Data Centers (DC). Un pré-requis de ce Lab consiste donc à installer CCM en suivant son guide d’installation.
Cassandra n’est pas encore compatible avec Java 9 (cf. CASSANDRA-9608). Il est donc nécessaire d’utiliser un JDK 8 pour le démarrer.
Pour tester son installation, vous pouvez simuler la création d’un cluster de 3 nœuds sur 3 DC via la commande suivante :
ccm create my_cluster_3016 -v binary:3.0.16 -n 3:3
D’autres cas d’usage de CCM sont :
- le teste d’un programme sur différentes versions de Cassandra, et réaliser ainsi des tests d’upgrade / downgrade,
- l’exécution des tests d’intégration sur un cluster éphémère.
Concepts fondamentaux
Slides : 6 à 48
Avant de pouvoir commencer le Lab, il est nécessaire d’acquérir quelques connaissances sur Cassandra et le Cassandra Query Language (CQL). Ce dernier ressemble à du SQL.
Dans Cassandra, l’unité de stockage et de réplication est le Keyspace. Il s’apparente au schéma du monde des bases de données relationnelles.
Lors de la création du Keyspace, on spécifie le facteur de réplication sur les nœuds du cluster. De ce paramétrage, va dépendre la montée en charge et la tolérance aux pannes de l’application.
A noter que la réplication multi-datacenter est native dans Cassandra.
La création d’une Table requière la déclaration d’une clé primaire composée d’une partition key (id_flux dans la suite de l’article) et d’un clustering key. Comme en SQL, la clé primaire est unique.
Le système de partition est basé sur des hashs. Chaque clé de partition est hachée.
L’algorithme de hashing Murmur3 permet d’utiliser toute la plage des Long en Java.
Avant Cassandra 1.2 et l’apparition des VNodes, un cluster de 4 nœuds se répartissait les tokens (hash) par plage (range). Le nœud A était responsable d’une des 4 plages. Lorsqu’on ajoutait des nœuds, le nœud A devenait responsable d’une plus petite plage.
Problématique : on devait doubler le nombre de nœuds du cluster pour scaler proprement le cluster (chaque plage est alors de même taille).
Avec les VNodes, chaque nœud s’attribue un range de tokens de manière aléatoire.
Comment déterminer la partition auquel appartient un enregistrement ?
En appliquant la formule : Hash(id_flux) = token
Chaque nœud dispose d’un répertoire interne contenant la répartition des tokens.
La réplication des données est gérée lors de leur enregistrement. L’id_flux est à la main du développeur.
Le Storage Engine est inspiré de celui d’InnoDB. Il n’est pas maitre/esclave. Il existe une notion de range primaire, mais elle est purement logique.
Chose très importante : Cassandra est optimisée pour récupérer des données d’une seule partition. Pour être performante, les requêtes doivent donc requêter une seule partition.
La clé de clustering sert à ordonner les données.
Clé de partition et clé de clustering peuvent être composites.
Les types CQL sont nombreux : counter, inet, les collections (pour dénormaliser car pas de jointure), les tuples, uuid … (se référer au slide 17 pour une liste plus exhaustive)
Limites du CQL par rapport au SQL (slide 18) :
- Pas de jointures entre tables
- Pas de OR dans les clauses WHERE (que des AND)
- Limitations sur les champs du WHERE
- Pas d’INSERT/SELECT. Cette limitation implique l’utilisation d’un programme pour transvaser les données d’une table à une autre. Il est nécessaire de bien prévoir le modèle de données.
- Pas de vues. L’utilisation de Vues Dématérialisées est fortement déconseillée par Alexander
- Index peu performants
- Le GROUP BY introduit en 3.10 ne fonctionne que sur une partition.
Comment requêter une table ?
Les requêtes sont conditionnées par les colonnes définissant la clé primaire.
Par exemple, avec la PRIMARY KEY (id_flux, id_etape, start_time), il est possible de réaliser une requête dont la clause WHERE porte sur
- id_flux
- id_flux et id_etape
- id_flux, id_etape et start_time
L’ordre des colonnes est très important.
Il est en effet interdit de requêter Cassandra sur :
- id_etape
- id_flux et start_time, car il manquerait la clause sur id_etape qui est avant start_time dans la clé primaire
Cette limitation est très restrictive. Il est en effet nécessaire de maintenir autant de tables qu’il y’aura de requêtes. La modélisation des tables dépend donc directement de leur usage en lecture.
En résumé, l’usage dans Cassandra est 1 table par requête. Cela augmente le volume de données. Mais les écritures dans Cassandra sont peu chères (écriture en mémoire puis écriture séquentielle sur disque).
Les données sont compressées dans Cassandra. La version 3.0 a grandement amélioré l’occupation de l’espace disque.
Cassandra assure-t-elle la cohérence entre les 2 tables ? Oui, si tout se passe bien.
Les slides 25 et 26 abordent le caractère d’idempotence de Cassandra.
Deux même INSERT (avec la même clé primaire) vont s’exécuter sans erreur. La dernière écriture prévaut sur la 1ière. La 1ière ligne est donc écrasée. Il n’existe pas de contraintes d’intégrité comme en SQL.
Un INSERT et équivalent à un UPDATE. Avant d’insérer une ligne, il n’est plus besoin de savoir si l’enregistrement existe ou non.
A noter qu’on travaille plus souvent avec des Sets que des Lists car les Sets garantissent l’idempotence. Différenciation syntaxique : utilisation des {} au lieu des []
La notion de Tombstone est très importante, car à l’origine de nombreux problèmes de performance.
Un DELETE place une donnée spéciale appelée TOMBSTONE. Il s’agit d’un marqueur logique de suppression.
Cassandra est codée en Java. Lire en mémoire des TOMBSTONE génère non seulement beaucoup d’I/O pour rien, mais exerce également beaucoup de pression sur le GC.
Les enregistrements peuvent avoir une durée de vie (un TTL). Une fois la durée de vie passée, ils passent en TOMBSTONE. Pour garder un historique de 3 mois, fixer le TTL à ~7776000.
Les conditions de purge des Tombstones sont complexes. La durée de vie minimale d’un Tombstone est de 10 jours. A partir de 100 000 Tombstones, Cassandra va killer la requête, se protégeant ainsi envers le GC.
Une colonne de type Counter est mise à jour par incréments. Elle n’est pas idempotente. C’est parfait pour créer des statistiques approximatives en temps réels (ex : un compteur par heure, jour et mois).
Spotify utilise les counters pour calculer en journée le nombre approximatif d’écoute. La nuit, ils utilisent un batch pour calculer le nombre exact.
Pour garantir des performances optimales, une règle de base est d’essayer d’avoir des partitions de moins de 100 Mo à cause du Heap. Pour s’en prémunir, on peut ajouter le jour dans la clé de partition.
Exemple : PRIMARY KEY ((id_flux, jour), id_etape, start_time).
Il devient alors nécessaire de lancer plusieurs requêtes en // pour requêter sur plusieurs jours.
Bien que Cassandra offre la possibilité de créer des Index Secondaires, il est recommandé de les éviter. Les temps de réponse peuvent être considérablement dégradés. A noter que le timeout par défaut d’une requête est de 10 secondes.
A présent que les présentations sont faites, le Lab va se dérouler en 2 parties :
- Une 1ière partie dédiée à l’administration d’un cluster et à son requêtage
- Une 2nde partie où vous allez écrire un programme Java chargée de lire et d’écrire dans une base Cassandra
Lab – Part 1
Slides : 49 à 99
Vous allez commencer par créer un cluster Cassandra 3.0.16, puis apprendre à le démarrer, à consulter son statut et à savoir comment accéder à la configuration de chaque nœud.
La connexion à un cluster Cassandra repose sur le principe des Seed Nodes. C’est le même principe que sur les réseaux Peer-to-Peer type eMule. Pour accéder au cluster, il est nécessaire de connaître au moins un Seed Node. En règle général, on configure 3 Seeds nodes par Data Center. Les Seeds Nodes sont uniquement utilisés au démarrage d’un client pour prendre connaissance de la typologie du cluster.
Un nœud est identifié par son Host ID (et non son IP). On peut donc changer l’IP d’un nœud.
Un Rack peut être assimilé à une zone de disponibilité AWS ou bien encore à un rack électrique. Cassandra place une réplique par rack. Il est recommandé d’avoir 3 racks au minimum.
La suite du Lab requière l’utilisation d’un Cassandra Dataset Manager (CDM). Cet outil va être utilisé pour importer des données de films dans votre cluster Cassandra.
Le Keyspace movielens est composé de 5 tables.
La table principale movies utilise la colonne ID de type UUID comme clé primaire et donc clé de répartition. Il y’a donc un 1 enregistrement (1 film) par partition.
Les 2 tables ratings_by_user et ratings_by_movie permettent de répondre à des requêtes différentes : par utilisateur ou par film.
A noter qu’une base Cassandra n’est pas sécurisée de base. Il sera nécessaire d’activer l’authentification.
Le Lab met en exergue qu’il est impossible de rechercher en l’état un film par titre partiel ou par sa première lettre. Vous allez être amenés à créer la table movies_by_first_letter qui permet une recherche par 1ière lettre ou 1er mot. Pour se faire, la 1ière lettre et le 1er mot du titre d’un film doivent avoir leur propre colonne.
Cette table ne permet pas de faire une recherche de type like et encore moins une recherche approximative.
Cassandra n’est pas fait pour de la recherche. Il est préférable de privilégier un moteur de recherche type Elasticsearch.
Alexander précise qu’il existe une distribution commerciale alignant le sharding d’Elasticsearch avec celui de Cassandra.
Pour combler ce vide en termes de recherche, Apple a contribué à l’amélioration de l’Index Secondaire avec SASSI. Cette fonctionnalité est à utiliser avec précaution.
Lors du Lab, la commande ccm node2 nodetool decommission permet de streamer les données sur les autres nœuds avant la décommision du nœud 2.
Cassandra tolère la perte de données en fonction du niveau de cohérence (Consistency Level) configuré :
- Cohérence in fine : niveau ONE / LOCAL_ONE : lecture pas forcément à jour si mise à jour non terminée (1 seule réplique)
- Cohérence forte : Cassandra utilise le timestamp pour renvoyer la donnée à jour en fonction du quorum
Lorsqu’une opération d’écriture nécessite d’avoir le Quorum, Cassandra attend d’avoir une majorité de répliques avant de valider l’écriture. Le nombre de réplique impacte le quorum, pas le nombre de nœuds.
Lorsqu’on n’a que 2 Data Centers, on est obligé de faire du Local Quorum à cause du problème du split-brain. Lors de la resynchro des 2 DS, c’est la dernière écriture qui gagne.
La lecture en Quorum ne requête pas toutes les répliques. Elle interroge un nombre suffisant de répliques (quel que soit le Data Center)
Conseil d’Alexander : partez du principe que les applications ont besoin de cohérence et faites du Quorum. Lorsqu’on vient du Relationnel, on est habitué à voir de la cohérence. Démarrez avec du Local Quorum qui est plus simple que le Quorum.
Intéressons-nous à présent au Client d’une base Cassandra. Une seule connexion est nécessaire pour l’ensemble des requêtes CQL. Il est toutefois possible de créer une connexion par cœur d’un CPU.
Créer une connexion coute cher car elle se connecte à tous les nœuds du cluster. La connexion connaît le schéma et la typologie des nœuds (distribution des tokens). Cela permet au drivers de savoir si des nœuds tombent ou sont ajoutés.
Une grande partie de l’intelligence se trouve dans le cluster.
Lors de la création d’une connexion, peuvent être spécifiées plusieurs stratégies :
- Load Balancing policies: permet de choisir le nœud qui va traiter la requête CQL. Cassandra permet de créer sa propre policy.
- Retry policies : dans un système distribué, il peut y avoir des problèmes passager de réseau. Attention à bien positionner un setIdempotent(true) sur la requête lors d’un Retry. Certains drivers sont un peu plus complet que d’autres : le SpeculativeRetry n’est disponible que sur le driver Java.
Les slides 84 à 99 expliquent comment coder un client Cassandra en Java :
- Ajout de la dépendance Maven cassandra-driver-core
- Création et configuration de l’objet Cluster
- Création de l’objet Session : une fois l’objet Cluster créé, il faut créer un objet Session qui va permettre d’exécuter des requêtes CQL.
- Exécution d’une requête CQL puis récupération des données renvoyées
- Utilisation d’un PreparedStatement (recommandée)
- Exécution de requêtes asynchrones : le executeAsync() renvoie la main après avoir d’envoyer des écritures dans le cluster. On boucle ensuite sur la liste de Futures pour attendre la fin de l’écriture. Guava permet de simplifier l’écriture : Futures.successFulAsList(futures)
Lab – Part 2
Slides : 100 à 140
Dans cette seconde partie, vous allez coder en Java 2 classes main :
- Une classe Writer chargée d’écrire des messages dans la table messages
- Une classe Reader chargée de lire les messages de la table messages, de les recopier dans une seconde table devoxx.messages_ack puis de les supprimer dans la 1ière table.
Pour vous y aider, vous pourrez vous référer aux exemples de code des slides précédents.
La branche part2-first-design-squelette met à votre disposition un projet Maven ainsi que des squelettes de classes qui sont à compléter.
Le correctif est disponible dans la branche part2-first-design. Pour le tester en local, pensez à changer le ContactPoint.
En l’état, cette implémentation pose 2 problèmes :
- Une dégradation des performances au cours du temps. A force des suppressions, on lit de plus en plus de Tombstones.
- De la concurrence de lecture : les messages peuvent être traités par plusieurs participants.
La suite du Lab consiste à coder une deuxième implémentation corrigeant ces 2 problèmes.
Partez du squelette proposé dans la branche part2-second-design-squelette.
Pour corriger le problème de performance, une solution consiste à designer la base autour des Tombstones. On est contraint de supprimer les enregistrements, mais on limite la durée de vie des partitions en utilisant un bucketing temporel (à la minute). Du coup, on aura moins de tombstone par partition/lecture.
Pour résoudre le problème de concurrence de traitement, un système de verrou est mis en œuvre via l’introduction d’une colonne processed_by. Ce sont les LightWeights Transactions effectuées sur le champ processed_by qui vont nous permettre de verrouiller les enregistrements.
La solution est disponible sur la branche part2-second-design.
Le Lab se termine par une présentation du mécanisme de compaction. La compaction permet de merger les données afin d’avoir des données à jour. Elle permet également de supprimer la Tombstone.
Lors d’opération en écriture, Cassandra écrit dans le Heap puis flushe sur disque dans un SSTable (fichier immuable). Lors d’une opération de lecture, Cassandra va essayer d’adresser le moins de SSTable possible.
Bonjour Antoine,
voici un retour trèèèèèès détaillé du lab, c’est impressionnant 🙂
Quelques corrections à apporter :
Dans la partie sur les restrictions de la clause where, on peut requêter sur « id_flux, start_time et id_etape ». Ce qu’on ne peut pas faire c’est requêter sur « id_flux et start_time » car il manquerait la clause sur « id_etape » qui est avant « start_time » dans la PK. L’ordre à proprement parler dans la clause WHERE n’a pas d’importance par contre, donc inverser « id_etape » et « start_time » par rapport à leur ordre dans la clé de clustering n’aura aucune incidence.
La taille max de partition à respecter est 100 Mo, pas 100 Go 🙂 A 100 Go on est déjà dans de sacrés ennuis…
Un TTL de 3 mois correspond à ~7776000 au lieu de 86400 (1 jour).
Dans la partie 2 du lab, on fait toujours des suppressions (pas le choix) mais on limite la durée de vie des partitions en utilisant un bucketing temporel (à la minute). Du coup on aura moins de tombstone par partition/lecture.
Pour le problème de concurrence d’accès, ce sont les LightWeights Transaction effectuée sur le champ processed_by qui vont nous permettre de « locker » les enregistrements.
Merci Alexander pour ta relecture. J’intègre tes précieux retours dans la journée 🙂
Bonjour,
J’ai des requêtes à traiter avec des OR… Quelle solution utilisez vous pour contourner cela?
Passage par Spark,
Gestion par la couche applicative
Ou autre alternative?
Bonjour Monabel, un OR entre 2 ou plusieurs valeurs peut être résolu en CQL avec un IN https://docs.datastax.com/en/cql/3.3/cql/cql_using/useQueryIN.html
Pour des cas plus compliqués, peut-être passer par 2 requêtes ? Je ne connais pas suffisamment Cassandra pour vous répondre.
J’espère qu’un internaute pourra vous apporter une réponse.
Antoine