➟ Maîtriser l'Incontrôlable : Quand l'IA Défie le Déterminisme

C’était plus simple avant… ou pas.

Coder dans l’Inconnu : Quand l’IA Joue par Ses Propres Règles

Dans le développement de logiciels, nous avons l’habitude de jouer avec des règles claires et précises, à la manière d’un jeu de société bien structuré : on connaît les règles, les étapes sont fixes, et on peut prévoir ce qui va se passer. C’est ce qu’on appelle un développement déterministe : les mêmes causes produisent les mêmes effets, et en tant que développeur, nous avons un contrôle total sur le processus. Mais dès que l’on commence à intégrer de l’intelligence artificielle, tout change. Le monde du développement n’est plus uniquement fait de règles fixes, mais d’algorithmes qui apprennent, d’IA génératives qui créent, et de résultats qui ne sont pas toujours prévisibles.

C’est là que réside le nouveau défi du développement d’applications qui intègrent de l’IA : le mélange entre un code déterministe et un comportement non-déterministe. Et soyons francs, cela complique énormément la tâche du développeur. Dans cet article, je vais explorer pourquoi cet équilibre est si difficile à atteindre, et pourquoi cela nécessite un ensemble de compétences nouvelles qui vont bien au-delà de la simple maîtrise des langages de programmation.

Le Déterminisme vs. la Créativité de l’IA

Pour bien comprendre ce défi, il faut d’abord clarifier ce que l’on entend par déterminisme et non-déterminisme. En développement traditionnel, nous avons cette règle d’or : “Même cause, même conséquence”. Cela veut dire que si vous écrivez un bout de code et que vous l’exécutez avec les mêmes entrées, vous obtiendrez toujours le même résultat. Vous pouvez anticiper les comportements et les effets, ce qui permet de tester et de garantir la qualité de vos applications de manière fiable.

Avec l’IA générative, tout est différent. La prédictibilité est sacrifiée au profit de la créativité. Lorsqu’on entraîne un modèle d’IA, le but est souvent de trouver des solutions originales, des réponses que personne n’a anticipées. Mais cela signifie aussi que les comportements de l’IA peuvent varier, et parfois de manière imprévisible. Un même prompt peut produire différentes réponses selon l’état du modèle, son entraînement, ou même ses interactions passées.

Cela implique qu’un développeur d’IA doit savoir jongler entre ces deux réalités. D’un côté, il doit maîtriser des algorithmes déterministes pour encadrer et structurer le comportement de l’IA. De l’autre, il doit accepter une part d’incertitude et gérer des résultats qui ne sont pas toujours sous contrôle. J’aime bien me réprésenter cela comme l’image du scientifique dans un laboratoire où certaines expériences peuvent dévier des attentes, et où il faut en permanence tester et évaluer les résultats.

L’Art de Mélanger Déterminisme et Non-déterminisme

Trouver des développeurs qui savent mélanger ces deux mondes n’est pas une tâche facile, et c’est un véritable enjeu aujourd’hui. Il ne suffit pas de maîtriser l’API d’Openai ou d’être bon en dans tel ou tel langage de programmation. Il faut comprendre comment une mise à jour d’un modèle peut affecter tout un système de manière parfois inattendue. La nature non-déterministe de l’IA signifie que même des ajustements mineurs du modèle peuvent introduire des comportements différents, voire des bugs subtils et difficiles à identifier.

L’IA générative nécessite aussi une nouvelle compétence qui est en train de devenir indispensable : le prompting. Il ne s’agit pas juste de coder, mais de communiquer efficacement avec une IA pour en tirer le meilleur parti, comme parler à un expert possédant un un immense savoir, mais qui peut être imprévisible. Il faut savoir poser les bonnes questions, être clair et spécifique, et comprendre comment guider ses réponses vers des objectifs concrets et ne jamais lâcher la bride…

L’Approche Scientifique du Développement IA

Le développement avec de l’IA demande une approche scientifique. Tout comme en biologie ou dans d’autres sciences appliquées, il faut tester, observer, ajuster et répéter. Il ne suffit pas d’écrire du code une fois et de le laisser fonctionner tranquillement. Avec l’IA, chaque mise à jour de modèle peut changer les comportements. Il faut être prêt à évaluer en permanence la manière dont l’IA se comporte et à tester continuellement son intégration avec le reste de l’application.

En ce sens, le développement d’IA se rapproche beaucoup plus d’une discipline scientifique que de l’ingénierie logicielle classique. On peut planifier et concevoir une architecture, mais il faut aussi être prêt à expérimenter, à ajuster les paramètres, à explorer des pistes nouvelles, et à apprendre des erreurs commises.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ Rust est-il le meilleur pari pour l'avenir de l'IA ?

Python vs Rust

L’intelligence artificielle est en train de redéfinir ce que nous pensions possible dans le monde de la technologie. Mais, au cœur de cette révolution, il y a des choix fondamentaux à faire. Parmi eux : quel langage de programmation utiliser pour construire les futurs modèles d’IA ? Aujourd’hui, Python est la star incontestée de l’écosystème IA. Mais, est-ce vraiment le langage qu’il nous faut pour l’avenir, en particulier quand on pense à l’efficacité, aux performances et à la durabilité des modèles ? Je pense que non. Et j’aimerais vous expliquer pourquoi Rust pourrait bien être le pari gagnant pour la prochaine étape de l’évolution de l’intelligence artificielle.

La Domination de Python dans l’écosystème IA

Commençons par être clair : si vous avez entendu parler d’intelligence artificielle, il y a de fortes chances que vous ayez entendu parler de Python. Ce langage a dominé l’espace IA ces dix dernières années, et ce pour de bonnes raisons.

Pourquoi Python a-t-il été adopté en IA ? Tout simplement parce qu’il est simple à apprendre et qu’il rend l’écriture de code accessible à pratiquement n’importe qui. Quand on parle de chercheurs en IA, leur but n’est pas d’être des programmeurs hardcore, mais de tester rapidement des idées et d’expérimenter avec des modèles. Python a été parfait pour cela : syntaxe facile, faible barrière à l’entrée, et une tonne de bibliothèques prêtes à l’emploi.

En plus, Python dispose d’un écosystème riche, avec des bibliothèques qui sont devenues les références dans l’industrie : TensorFlow, PyTorch, scikit-learn, NumPy, et bien d’autres. Toutes ces bibliothèques ont permis à Python de se hisser en tête dans le domaine de l’IA, parce qu’elles ont facilité chaque étape du processus : de la manipulation des données à l’entraînement des réseaux de neurones.

Mais, aussi répandue que soit l’adoption de Python, tout n’est pas parfait. Et c’est là que j’aimerais qu’on se penche sur les limites actuelles de Python.

Les Limites de Python en IA

Performances et calcul intensif

Commençons par le plus évident : Python est lent. C’est un langage interprété, ce qui signifie que chaque ligne de code est exécutée ligne par ligne, ce qui est très loin de la vitesse des langages compilés comme Rust. Pour résoudre ce problème, Python dépend de bibliothèques écrites en C pour les calculs intensifs, mais ça reste un compromis. Ces calculs sont rapides, mais l’interface entre Python et ces bibliothèques reste un goulot d’étranglement.

Problèmes de gestion des ressources

Ensuite, il y a le garbage collector. Python gère automatiquement la mémoire pour toi, et c’est pratique… jusqu’à ce que ça ne le soit plus. L’entraînement de gros modèles implique de manipuler d’énormes quantités de données et de poids, et le garbage collector de Python peut se mettre en travers du chemin, causant des ralentissements imprévisibles et une utilisation inefficace de la mémoire.

Sécurité et contrôle réduit

Enfin, parlons de la sécurité. Python est permissif, parfois trop. L’absence de typage strict et de gestion sûre de la mémoire peut causer des erreurs difficiles à déboguer. Dans un projet complexe, cela peut devenir un vrai problème, surtout quand il s’agit de s’assurer que les modèles d’IA se comportent de manière fiable. Python n’offre pas non plus un contrôle fin sur la gestion des ressources — si tu veux exploiter au mieux ton CPU ou ton GPU, Python ne te facilitera pas la vie.

Pourquoi Rust est le Langage le Plus Prometteur pour l’Avenir de l’IA

Alors, pourquoi Rust ? Pourquoi parier sur un langage qui est relativement nouveau dans le domaine de l’IA, alors que Python est si bien implanté ? Voici pourquoi je pense que Rust est le meilleur pari pour l’avenir.

Performance optimisée

Rust est un langage compilé qui produit du code natif extrêmement rapide, similaire à C ou C++. Cela signifie que Rust permet de créer des modèles d’IA qui fonctionnent à pleine vitesse, sans les goulots d’étranglement que Python peut introduire. Il n’y a pas de garbage collector à chaque coin, ce qui permet un contrôle total sur la gestion de la mémoire, crucial lorsque l’on manipule des ensembles de données massifs.

Efficacité énergétique et gestion fine des ressources

Avec Rust, l’efficacité ne concerne pas seulement la vitesse mais aussi la consommation énergétique. L’optimisation mémoire et la gestion fine des threads permettent de minimiser la consommation en ressources. Rust est capable de tirer parti du parallélisme natif grâce aux threads sécurisés, permettant de maximiser les performances tout en réduisant la consommation énergétique. Cela peut paraître mineur, mais l’efficacité énergétique est un enjeu de plus en plus important, en particulier quand on pense à l’échelle des grands modèles IA comme GPT-3.

Sécurité et fiabilité

La sécurité mémoire est l’un des points forts majeurs de Rust. Son système d’ownership empêche la majorité des erreurs classiques, comme les débordements de tampon ou les pointeurs invalides, qui peuvent transformer une expérimentation IA en cauchemar. Cela veut dire que quand tu développes des modèles en Rust, tu as une garantie que ton code est solide et que les erreurs subtiles de gestion de mémoire sont minimisées.

Contrôle fin des processus

Rust permet aussi un contrôle bas-niveau qui n’a pas d’équivalent en Python. Si tu veux optimiser chaque aspect de ton modèle, des calculs matriciels à la parallélisation, Rust te donne la liberté de le faire. De plus, Rust est hautement interopérable avec C/C++, ce qui te permet d’utiliser des bibliothèques performantes existantes tout en écrivant du code sécurisé. Cela offre la flexibilité de combiner le meilleur des deux mondes : des performances maximales avec un niveau de sécurité élevé.

Rust dans l’écosystème IA : Où en est-on aujourd’hui ?

On pourrait se demander : si Rust est si génial, pourquoi n’est-il pas déjà la norme ? Eh bien, l’écosystème est encore en développement, mais il est prometteur. Des bibliothèques comme Gorgonia (un équivalent de TensorFlow) et Tch-rs (une API Rust pour PyTorch) montrent que l’on peut déjà faire des choses intéressantes en Rust. Le potentiel est là, et l’adoption de Rust dans l’IA ne fait que commencer.

Il y a aussi des projets passionnants qui mettent l’accent sur l’IA distribuée et la parallélisation de grande envergure. Il est possible de développer des systèmes IA pour des applications cloud ou des modèles edge computing tout en gardant un contrôle complet sur la sécurité et l’efficacité des ressources. Rust semble être le candidat idéal pour ce genre de défi, surtout dans un contexte où l’éco-responsabilité devient cruciale.

Conclusion : Rust, un Pari Sûr pour l’Avenir de l’IA

En résumé, Rust répond à toutes les limites que Python rencontre aujourd’hui. Il offre une performance supérieure, une gestion fine de la mémoire, une sécurité incomparable, et un contrôle total des ressources. C’est un langage conçu pour des systèmes robustes, efficaces, et capables de faire face aux défis de l’échelle, de l’énergie, et de la performance.

Le monde de l’IA arrive à maturité, et les techniques de deep learning aussi. Pour cette prochaine phase, il est essentiel de disposer d’un langage mieux adapté aux exigences de performance, de sécurité et d’efficacité énergétique. Rust est un excellent candidat. Il n’est peut-être pas encore aussi populaire que Python, mais pour ceux qui cherchent à créer des systèmes IA performants, fiables, et durables, Rust est le meilleur pari pour l’avenir.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ 7 principes pour ameliorer ton code

GLow up your code!

Que tu sois un développeur débutant ou expérimenté, l’amélioration continue de la qualité de ton code est une quête sans fin. À mesure que les projets évoluent, les technologies avancent et les attentes en matière de performance augmentent, il est important de suivre des principes qui permettent de produire un code simple, efficace, et maintenable. Voici quelques principes essentiels qui, s’ils sont appliqués correctement, te permettront d’écrire un code de meilleure qualité tout en gardant les choses simples.

1. Keep It Simple (KIS)

Le principe KIS (Keep It Simple) est la première règle d’or à suivre. L’idée est simple : ne complique jamais ton code plus qu’il ne le faut. Souvent, en tant que développeur, on a tendance à sur-ingénier des solutions et à vouloir tout prévoir, mais cela finit par introduire de la complexité inutile. Un code simple est :

  • Plus facile à comprendre
  • Plus rapide à maintenir
  • Moins sujet aux bugs

Demande-toi toujours : “Est-ce que je peux faire ça plus simplement ?” Si la réponse est oui, alors il est probable que tu devrais opter pour la solution la plus simple. Un code qui semble “trop malin” est souvent difficile à maintenir, et si c’est toi qui dois le relire dans six mois, tu comprendras pourquoi ce principe est si important.

2. You Aren’t Gonna Need It (YAGNI)

Le principe YAGNI nous rappelle qu’il est inutile de développer des fonctionnalités que tu n’as pas besoin d’implémenter maintenant. Beaucoup de développeurs anticipent des besoins futurs et finissent par écrire du code poubelle qui ne sera jamais utilisé ou, pire, qui ajoute de la complexité inutile.

Ce code poubelle n’a pas seulement un impact sur la maintenabilité du projet, mais il augmente aussi les chances d’introduire des bugs dans des fonctionnalités non nécessaires. En restant concentré sur ce dont tu as réellement besoin aujourd’hui, tu réduis :

  • La dette technique
  • Les bugs potentiels
  • Le temps passé à maintenir du code non utilisé

Suis ce conseil : implémente uniquement ce qui est nécessaire au moment présent, et laisse les besoins futurs se manifester lorsque tu seras prêt à y répondre.

3. Don’t Repeat Yourself (DRY)

L’un des problèmes récurrents dans le code est la répétition. Le principe DRY (Don’t Repeat Yourself) est là pour te rappeler qu’il est essentiel d’éviter les duplications dans ton code. Si tu écris la même logique plusieurs fois, tu augmentes les risques d’erreurs et la maintenance devient fastidieuse.

Quand tu repères du code dupliqué, demande-toi si tu peux :

  • Extraire cette logique dans une fonction réutilisable
  • Refactoriser ton code pour qu’il soit plus générique
  • Centraliser la gestion d’une tâche spécifique

Un code non répété est non seulement plus propre, mais il est aussi plus facile à mettre à jour. Si tu dois modifier une fonctionnalité, tu ne le fais qu’à un seul endroit, et ton code reste cohérent.

4. Test-Driven Development (TDD)

Le Test-Driven Development (TDD) est une méthode qui consiste à écrire les tests avant d’écrire le code lui-même. Bien que cela puisse sembler contre-intuitif au début, cette approche a plusieurs avantages : elle t’assure que ton code répond aux exigences fonctionnelles dès le départ et te permet d’avoir une grande confiance dans la fiabilité de ton code grâce aux tests automatisés. De la TDD et en particulier l’écriture de tests unitaires favorisent la SoC que nous aborderons dans le point suivant.

L’idée est simple :

  • Écris un test unitaire qui échoue (car la fonctionnalité n’existe pas encore)
  • Implémente la fonctionnalité minimale pour que le test réussisse
  • Refactorise ton code si nécessaire, tout en vérifiant que les tests continuent de passer

Cependant, attention à ne pas tomber dans l’excès avec TDD. Si tu passes trop de temps à écrire des tests pour chaque petit détail de ton code, tu risques de devenir contre-productif. Un emploi excessif du TDD peut être chronophage, en particulier si ton projet évolue rapidement. Il est donc important de trouver un équilibre entre la couverture de tests nécessaire et l’efficacité du développement.

5. Separation of Concerns (SOC)

Separation of Concerns (SoC) est un principe clé pour structurer ton code de manière propre et lisible. Il consiste à séparer les différentes responsabilités dans ton code. Cela signifie que chaque partie de ton système doit s’occuper d’une seule préoccupation ou fonctionnalité. Cette séparation améliore non seulement la lisibilité, mais aussi la testabilité et la maintenabilité de ton code.

Par exemple, dans une application web :

  • Le traitement des données doit être séparé de la logique d’affichage (frontend vs backend)
  • Les interactions avec la base de données doivent être isolées de la logique métier

Plus ton code sera modulaire et compartimenté, plus il sera facile à maintenir et à faire évoluer. Quand chaque partie de ton code est responsable d’une seule tâche, tu évites l’effet “boule de neige” où un changement dans une partie de l’application casse tout le reste.

6. Continuous Refactoring

Le refactoring est un processus d’amélioration continue du code, sans changer son comportement fonctionnel. Il est tentant de repousser le refactoring jusqu’à ce que la dette technique devienne insurmontable, mais le refactoring doit être une pratique régulière. Si tu vois du code qui peut être simplifié ou clarifié, refactorise-le immédiatement. Cela permet de maintenir une qualité constante et évite de laisser le code devenir un nid de problèmes futurs.

Quelques exemples de refactoring :

  • Renommer une variable pour qu’elle soit plus descriptive
  • Simplifier une fonction complexe en plusieurs petites fonctions plus lisibles
  • Éliminer le code redondant ou inutile

La clé est de ne jamais laisser le code devenir “vieux”. En gardant une approche active de refactoring, tu t’assures que ton projet reste propre et évolutif tout en rafraîchissant ta mémoire régulièrement.

7. Law of Demeter (LOD)

La Law of Demeter (ou loi du moindre couplage) est un principe simple mais puissant : “Ne parle qu’à tes amis proches.” Cela signifie qu’un module ou une fonction ne doit interagir qu’avec ses dépendances immédiates et non avec les dépendances des dépendances. Ce principe permet de limiter l’interdépendance entre les différentes parties du code, ce qui réduit les effets de bord lors des changements et facilite le test unitaire.

En respectant cette loi, tu évites que ton code ne devienne trop “entrelacé” et difficile à maintenir.


Réflexion sur TypeScript

Et Typescript dans tout ça ?

TypeScript est souvent mis en avant pour la sécurité qu’il apporte grâce à son typage statique, mais dans le contexte des technologies modernes comme JSDoc et les outils d’IA, certains inconvénients méritent d’être soulignés.

  1. Complexité supplémentaire : L’ajout de TypeScript dans un projet introduit une couche de complexité non négligeable. Cela inclut un compilateur à configurer et des définitions de types à maintenir, ce qui peut être perçu comme un obstacle inutile, surtout pour les projets simples ou de taille modeste.

  2. Répétition de l’information : Si tu utilises déjà JSDoc pour documenter ton code, TypeScript pourrait sembler redondant. Les annotations JSDoc permettent déjà de préciser les types de manière claire, tout en restant dans l’environnement JavaScript natif.

  3. Réduction de la flexibilité : TypeScript impose une certaine rigidité dans le développement. JavaScript, en revanche, offre une flexibilité bienvenue pour des projets qui évoluent rapidement, où les règles strictes de typage ne sont pas toujours nécessaires.

  4. Contre-productivité dans certains contextes : Pour de petits projets ou des prototypes, utiliser TypeScript peut ralentir le développement et demander plus d’efforts que nécessaire. Dans de tels cas, le retour sur investissement en termes de temps et d’efficacité n’est pas toujours évident.

  5. Écosystème IA et outils modernes : Avec l’essor des outils IA capables d’analyser et de répondre à des questions sur le code, la nécessité de typage statique peut être réduite. Ces outils peuvent comprendre et documenter le code sans qu’il soit nécessaire de formaliser autant les types via TypeScript.

En résumé, bien que TypeScript ait ses avantages, son utilisation peut parfois sembler contre-productive dans le contexte actuel, où les outils d’IA et des systèmes comme JSDoc offrent déjà une bonne couverture pour la documentation et la compréhension des types.


Conclusion

Améliorer la qualité de ton code, quel que soit ton niveau, repose sur quelques principes simples mais essentiels. KIS, YAGNI, DRY, et d’autres principes comme la Separation of Concerns ou encore la Law of Demeter t’aideront à produire un code clair, maintenable, et évolutif. N’oublie pas non plus que le TDD, bien qu’efficace, doit être utilisé avec mesure afin de ne pas devenir un frein à ta productivité.

Enfin, la réflexion autour de l’utilisation de TypeScript dans un contexte moderne avec des outils comme JSDoc et les solutions IA montre que l’ajout de typage statique peut parfois être superflu, voire contre-productif, dans certains projets. Cela ne signifie pas que TypeScript est à éviter, mais il est crucial de bien évaluer si sa complexité supplémentaire se justifie dans le cadre de ton projet.

Au final, l’amélioration de la qualité du code est un processus continu. Le plus important est de toujours garder à l’esprit la simplicité et l’efficacité, tout en utilisant les bons outils et principes au bon moment. En appliquant ces conseils, tu seras en mesure de maintenir un code de haute qualité, évolutif, et facile à maintenir sur le long terme.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ L'Ère de la Lassitude des Abonnements : Réinventons les Business Models SaaS !

A modern SaaS by Code Alchimie

Alors que Paris se prépare à accueillir les Jeux olympiques de 2024, une autre révolution se prépare en France : celle de la saturation des abonnements. Oui, vous avez bien lu. Avec une moyenne de 3 abonnements par personne, les Français dépensent environ 780 € par an pour des services récurrents. Pas étonnant que 66% d’entre eux jugent qu’il y a trop de services d’abonnement, et 60% déclarent ne pas pouvoir se permettre tous ceux qu’ils souhaitent.

La saturation des abonnements : un problème bien réel 😩

La prolifération des abonnements entraîne des frustrations croissantes :

  • 33% des utilisateurs paient désormais pour des services qui étaient gratuits.
  • 22% consomment du contenu piraté faute d’options tout-en-un abordables.

En tant que développeur, je comprends la nécessité des abonnements pour assurer une source de revenus stable. Cependant, force est de constater que ce modèle atteint ses limites et fatigue les consommateurs.

Le « Super Bundling » : la solution miracle ? 🤔

Le concept de « Super Bundling », qui promet de centraliser et simplifier la gestion des abonnements, attire de plus en plus d’adeptes. Les consommateurs sont même prêts à payer jusqu’à 20 € de plus par mois pour ce service. Mais est-ce vraiment la panacée ?

Réinventons les modèles économiques des SaaS 🌟

Il est temps de penser autrement et de proposer des alternatives viables aux abonnements traditionnels. Voici quatre approches détaillées pour un modèle freemium amélioré :

1. Segmentation des Utilisateurs

Le modèle freemium traditionnel offre généralement une seule version gratuite avec des fonctionnalités limitées. Cette approche unique ne prend pas en compte la diversité des utilisateurs et de leurs besoins spécifiques.

Amélioration :

  • Diversité des Offres : Proposer plusieurs niveaux de fonctionnalités gratuites adaptées à différents segments d’utilisateurs. Par exemple, une version gratuite pour les particuliers avec des fonctionnalités basiques et une autre pour les petites entreprises avec des outils supplémentaires.
  • Analyse Comportementale et IA Générative : Utiliser des outils d’analyse avancés et l’intelligence artificielle générative pour comprendre les comportements des utilisateurs et personnaliser les recommandations de fonctionnalités payantes. Ainsi, chaque utilisateur reçoit des suggestions pertinentes, augmentant la probabilité de conversion vers les options payantes.

2. Personnalisation et Adaptabilité

Dans le modèle freemium traditionnel, les utilisateurs gratuits et payants ont souvent des parcours d’utilisation distincts, ce qui peut créer une expérience fragmentée.

Amélioration :

  • Personnalisation de l’Expérience : Offrir une expérience utilisateur personnalisée même pour les utilisateurs gratuits, en adaptant l’interface et les recommandations en fonction de leurs préférences et usages. L’IA générative peut jouer un rôle clé en créant des expériences uniques pour chaque utilisateur, en fournissant des contenus et des fonctionnalités sur mesure.
  • Flexibilité des Essais : Permettre des essais gratuits basés sur l’utilisation plutôt que sur une période fixe. Par exemple, offrir un accès temporaire à des fonctionnalités premium en fonction de l’engagement et de l’utilisation du service par l’utilisateur.

3. Fonctionnalités Freemium Plus Riches

Le modèle freemium traditionnel limite souvent les fonctionnalités gratuites à un point où elles deviennent peu utiles, ce qui peut freiner l’adoption et frustrer les utilisateurs.

Amélioration :

  • Fonctionnalités Robustes : Offrir des fonctionnalités gratuites suffisamment puissantes pour résoudre des problèmes réels, tout en montrant clairement la valeur ajoutée des options payantes. Par exemple, offrir des capacités d’analyse de base gratuitement, mais des analyses avancées sous forme payante.
  • Éducation et Support : Investir dans l’éducation des utilisateurs gratuits à travers des tutoriels, des webinaires et des supports interactifs. Cela permet de démontrer comment les fonctionnalités payantes peuvent optimiser leur expérience, tout en offrant un support limité mais efficace pour les utilisateurs gratuits.
  • Gamification : Introduire des éléments de gamification pour encourager l’engagement et la fidélisation. Les utilisateurs peuvent accumuler des points, gagner des badges et obtenir des récompenses pour leur utilisation continue et leur interaction avec le service. Par exemple, des défis hebdomadaires ou mensuels pourraient inciter les utilisateurs à explorer davantage de fonctionnalités, avec des récompenses sous forme d’accès temporaire à des fonctionnalités premium.

Conclusion : Vers un avenir plus flexible et transparent 🌍

Le modèle d’abonnement est en train de montrer ses limites et il est temps d’innover. Les entreprises SaaS doivent explorer des alternatives pour rester compétitives et répondre aux besoins changeants des consommateurs. En réinventant le modèle freemium de manière à offrir une expérience personnalisée et flexible, avec des options payantes à la carte, nous pouvons maximiser la satisfaction des utilisateurs et faciliter la conversion vers les versions premium. Cette approche permet de créer une expérience utilisateur plus engageante et alignée avec les besoins des différents segments de marché.

La révolution des abonnements est en marche, et nous avons l’opportunité de la façonner de manière à ce qu’elle profite à tous💡


En bonus : Cheat Sheet - Modern Saas for Dummies 🛠️

1. Expérience Sur Mesure

  • Personnalisation : Adaptation des fonctionnalités gratuites et des recommandations en fonction des comportements et des préférences des utilisateurs.
  • Segmentation : Offrir différentes versions gratuites adaptées à des segments spécifiques (particuliers, petites entreprises, etc.).

2. Options Payantes à la Carte

  • Flexibilité : Les utilisateurs peuvent choisir et payer uniquement pour les fonctionnalités premium dont ils ont réellement besoin.
  • Modularité : Les fonctionnalités premium sont disponibles de manière modulaire, permettant aux utilisateurs de composer leur propre expérience en fonction de leurs besoins spécifiques.

3. Engagement et Éducation

  • Support et Tutoriels : Offrir des ressources éducatives et du support pour aider les utilisateurs à comprendre et à tirer le meilleur parti des fonctionnalités gratuites, tout en montrant la valeur des options premium.
  • Gamification et Récompenses : Utiliser des mécanismes de gamification pour encourager l’utilisation régulière et la transition vers les fonctionnalités payantes.

4. Essais Flexibles

  • Essais Non Limités dans le Temps : Proposer des essais gratuits basés sur l’utilisation (nombre d’utilisations) plutôt que sur une période fixe.
  • Promotions et Offres Temporaires : Offrir des promotions ciblées et des réductions pour les utilisateurs actifs de la version gratuite.

5. Communauté et Support Collaboratif

  • Forums et Groupes : Créer des espaces de discussion où les utilisateurs gratuits peuvent échanger des conseils et des astuces.
  • Sessions Q&A : Organiser des sessions de questions-réponses en direct pour aider les utilisateurs à résoudre leurs problèmes et découvrir les avantages des fonctionnalités payantes.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ Communiquer avec un Robot via UDP en Node.js

Dans le cadre de l’un de mes projets, je dois développer un logiciel backend Node.js capable de dialoguer avec un robot en utilisant le protocole UDP (User Datagram Protocol).

Nous allons donc voir dans cet article comment mettre en place cette communication en utilisant deux scripts JavaScript : l’un pour simuler l’envoi des données par le robot robot-simulator.js et l’autre pour recevoir ces données robot-udp-service.js. Nous allons détailler ces scripts et expliquer leur fonctionnement.

Cette solution permet de transmettre des données optimisées, minimisant ainsi la taille des paquets pour une communication efficace et rapide.

Do you speak robot?

Le Protocole UDP

UDP est un protocole de communication rapide mais non fiable. Contrairement à TCP, il n’assure pas la livraison des paquets et ne garantit pas leur ordre. Cependant, sa rapidité en fait un excellent choix pour des applications temps réel ou où la vitesse est cruciale.

Diagramme Séquentiel de la Communication

Diagramme Séquentiel de la Communication

Explication de la Structure des Données

Les données, au niveau du robot, sont optimisées pour minimiser la taille des paquets envoyés. Voici comment les données sont structurées sur deux octets :

Octet 1
Bits 0-1 : num1
Bits 2-7 : charCode (6 bits)
Octet 2
Bits 0-1 : charCode (suite, 2 bits)
Bits 2-7 : num2

num1 : un nombre entre 0 et 3, codé sur 2 bits.
charCode : le code ASCII d’un caractère (a-z), codé sur 8 bits (6 bits dans le premier octet, 2 bits dans le second).
num2 : un nombre entre 0 et 63, codé sur 6 bits dans le second octet.

Il va donc falloir restructurer ses données pour les exploiter dans le service de réception. Nous allons pour cela utiliser des techniques de décalage et de masquage de bits pour extraire les différentes parties des octets.

Script de Simulation du Robot : robot-simulator.js

Ce script simule le comportement du robot en envoyant des messages UDP structurés au service de réception.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
// Importation du module 'dgram' pour créer des sockets UDP
const dgram = require('dgram');
// Création d'un socket UDP
const socket = dgram.createSocket('udp4');

// Adresse IP et port du service de réception
const SERVICE_IP = '127.0.0.1';
const SERVICE_PORT = 5501;

let messageCount = 0; // Compteur pour les messages envoyés

// Fonction pour générer un entier aléatoire entre 'min' et 'max'
function getRandomInt(min, max) {
return Math.floor(Math.random() * (max - min + 1)) + min;
}

// Fonction pour créer un message structuré
function createStructuredMessage() {
let buffer = Buffer.alloc(2);

// Génération des données
let num1 = getRandomInt(0, 3); // Nombre entre 0 et 3
let charCode = getRandomInt(97, 122); // Code ASCII pour une lettre minuscule (a-z)
let char = String.fromCharCode(charCode); // Conversion du code ASCII en caractère
let num2 = getRandomInt(0, 63); // Nombre entre 0 et 63

// Premier octet : bits 0-1 pour 'num1', bits 2-7 pour 'charCode' (6 premiers bits)
buffer[0] = (num & 0b11) | ((charCode & 0b111111) << 2);

// Deuxième octet : bits 0-1 pour 'charCode' (2 derniers bits), bits 2-7 pour 'num2'
buffer[1] = ((charCode >> 6) & 0b11) | ((num2 & 0b111111) << 2);

return { buffer, num1, char, num2 };
}

// Fonction pour envoyer un message structuré au service
function sendMessageToService(buffer, serviceIp, servicePort, num1, char, num2) {
messageCount++;
socket.send(buffer, servicePort, serviceIp, (err) => {
if (err) {
console.error('Erreur lors de l\'envoi du message:', err);
} else {
console.log(`Message envoyé ${messageCount} - Num1: ${num1}, Char: ${char}, Num2: ${num2}`);
}
});
}

// Envoi périodique de messages structurés toutes les 500 millisecondes
setInterval(() => {
const { buffer, num1, char, num2 } = createStructuredMessage();
sendMessageToService(buffer, SERVICE_IP, SERVICE_PORT, num1, char, num2);
}, 500);

// Gestion des erreurs du socket
socket.on('error', (err) => {
console.error('Erreur du socket:', err);
socket.close();
});

// Gestion de la fermeture du socket
socket.on('close', () => {
console.log('Socket fermé');
});

Script de Réception des Données : robot-udp-service.js

Ce script écoute les messages UDP envoyés par le robot. Il décode les messages structurés et affiche les données reçues.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
// Importation du module 'dgram' pour créer des sockets UDP
const dgram = require('dgram');
// Création d'un socket UDP
const socket = dgram.createSocket('udp4');

// Adresses IP et ports pour la communication avec le robot et le service local
const ROBOT_IP = '10.5.0.2';
const ROBOT_PORT = 6501;

const LOCAL_IP = '0.0.0.0';
const LOCAL_PORT = 5501;

let messageCount = 0; // Compteur pour les messages reçus

// Fonction pour envoyer un message au robot
function sendMessageToRobot(message, robotIp, robotPort) {
const messageBuffer = Buffer.from(message);
socket.send(messageBuffer, robotPort, robotIp, (err) => {
if (err) {
console.error('Erreur lors de l\'envoi du message:', err);
} else {
console.log('Message envoyé au robot:', message);
}
});
}

// Fonction pour décoder un message structuré reçu
function parseStructuredMessage(buffer) {
// Premier octet : extraction des 2 premiers bits pour 'num1' et des 6 suivants pour 'charCode'
let num1 = buffer[0] & 0b11;
let charCode = (buffer[0] >> 2) & 0b111111;

// Deuxième octet : extraction des 2 premiers bits restants de 'charCode' et des 6 bits suivants pour 'num2'
charCode |= (buffer[1] & 0b11) << 6;
let num2 = (buffer[1] >> 2) & 0b111111;

let char = String.fromCharCode(charCode);

return { num1, char, num2 };
}

// Fonction pour gérer la réception des messages
function handleIncomingMessage(msg, rinfo) {
const parsedMessage = parseStructuredMessage(msg);
messageCount++;
console.log(`Message reçu ${messageCount} - Num1: ${parsedMessage.num1}, Char: ${parsedMessage.char}, Num2: ${parsedMessage.num2}`);
}

// Configuration de l'événement 'message' pour le socket
socket.on('message', handleIncomingMessage);

// Liaison du socket à une adresse IP et un port locaux
socket.bind(LOCAL_PORT, LOCAL_IP, () => {
console.log(`Serveur UDP en écoute sur ${LOCAL_IP}:${LOCAL_PORT}`);
});

// Envoi d'un message initial au robot
sendMessageToRobot('Hello, Robot!', ROBOT_IP, ROBOT_PORT);

// Gestion des erreurs du socket
socket.on('error', (err) => {
console.error('Erreur du socket:', err);
socket.close();
});

// Gestion de la fermeture du socket
socket.on('close', () => {
console.log('Socket fermé');
});

Exécution des Scripts

Communication avec le robot

Conclusion

Ces scripts montrent comment envoyer et recevoir des messages UDP structurés en Node.js. Cette technique peut être adaptée pour divers types de communication en temps réel où la rapidité est cruciale. En suivant et adaptant ces exemples, vous pourrez implémenter des solutions similaires pour vos propres projets.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ Transformer un Raspberry Pi en Point d’Accès Wi-Fi : Guide Complet

Transformer un Raspberry Pi en Point d’Accès Wi-Fi

Dans cet article, nous allons transformer un Raspberry Pi 4 sous Ubuntu 22.04 LTS en point d’accès Wi-Fi, une solution puissante et flexible pour de nombreuses applications. Cela devrait aussi fonctionner avec un Raspberry Pi 5 sous Ubuntu 24.04 LTS.

À la fin de cet article, vous serez capable de mettre en place votre propre point d’accès Wi-Fi chez vous.

Pourquoi Créer un Point d’Accès Wi-Fi avec un Raspberry Pi ?

Créer un point d’accès Wi-Fi avec un Raspberry Pi présente plusieurs avantages :

  • Coût réduit : Un Raspberry Pi est une solution abordable comparée à des routeurs commerciaux.
  • Flexibilité : Vous pouvez personnaliser votre configuration selon vos besoins spécifiques.
  • Apprentissage : C’est une excellente opportunité pour apprendre davantage sur les réseaux et Linux.

Exemples d’Utilisation

  1. Étendre la couverture Wi-Fi : Améliorez la couverture de votre réseau Wi-Fi dans les zones mortes.
  2. Réseau invité : Fournissez un réseau séparé pour vos invités sans compromettre la sécurité de votre réseau principal.
  3. Projets IoT : Créez un réseau dédié pour vos appareils IoT.

Objectifs de Cet Article

Nous allons :

  1. Configurer un Raspberry Pi en point d’accès Wi-Fi.
  2. Comprendre le rôle de hostapd, dnsmasq et netplan dans cette configuration.
  3. Fournir un script pour visualiser le fonctionnement du point d’accès.

Prérequis

  • Un Raspberry Pi 4 ou 5 avec Ubuntu 22.04 LTS ou 24.04 LTS installé.
  • Une connexion Internet pour installer les paquets nécessaires.

Étapes de Configuration

1. Installation et Mise à Jour

Tout d’abord, mettons à jour notre Raspberry Pi et installons les paquets nécessaires :

1
2
3
$ sudo apt update
$ sudo apt upgrade -y
$ sudo apt install hostapd dnsmasq

2. Configuration de Netplan

Netplan est un utilitaire pour la configuration réseau sur les distributions basées sur Ubuntu.

Sauvegardez la configuration existante et modifiez le fichier :

1
2
$ sudo cp /etc/netplan/50-cloud-init.yaml /etc/netplan/50-cloud-init.yaml.default
$ sudo nano /etc/netplan/50-cloud-init.yaml

Voici la configuration à utiliser :

1
2
3
4
5
6
7
8
9
10
network:
version: 2
renderer: networkd
ethernets:
eth0:
dhcp4: true
wlan0:
dhcp4: false
addresses:
- 192.168.1.1/24

Explications :

  • version: 2 : Indique la version de configuration de Netplan.
  • renderer: networkd : Utilise networkd pour gérer les configurations réseau.
  • ethernets : Déclare les interfaces Ethernet.
    • eth0 : La principale interface Ethernet, configurée pour utiliser DHCP.
    • wlan0 : Interface Wi-Fi configurée avec une adresse IP statique (192.168.1.1/24).

Appliquez les modifications :

1
$ sudo netplan apply

3. Configuration du Serveur DHCP avec Dnsmasq

Dnsmasq va gérer le service DHCP pour notre point d’accès.

Sauvegardez et modifiez la configuration :

1
2
$ sudo cp /etc/dnsmasq.conf /etc/dnsmasq.conf.default
$ sudo nano /etc/dnsmasq.conf

Ajoutez ces lignes :

1
2
3
interface=wlan0
port=5353
dhcp-range=192.168.1.2,192.168.1.10,24h

Explications :

  • interface=wlan0 : Spécifie l’interface Wi-Fi à utiliser pour le DHCP.
  • port=5353 : Définit le port sur lequel Dnsmasq écoutera (5353 est souvent utilisé pour les services DNS mDNS).
  • dhcp-range=192.168.1.2,192.168.1.10,24h : Définit la plage d’adresses IP (de 192.168.1.2 à 192.168.1.10) et la durée du bail DHCP (24 heures).

Démarrez le service :

1
2
3
$ sudo systemctl unmask dnsmasq
$ sudo systemctl enable dnsmasq
$ sudo systemctl start dnsmasq

4. Configuration du Point d’Accès Wi-Fi avec Hostapd

Hostapd transforme notre Raspberry Pi en point d’accès Wi-Fi.

Créez et modifiez le fichier de configuration :

1
$ sudo nano /etc/hostapd/hostapd.conf

Ajoutez ces lignes :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
interface=wlan0
driver=nl80211
ssid=monssid
hw_mode=g
channel=7
wmm_enabled=0
macaddr_acl=0
auth_algs=1
ignore_broadcast_ssid=0
wpa=2
wpa_passphrase=monsupermotdepasse
wpa_key_mgmt=WPA-PSK
wpa_pairwise=TKIP
rsn_pairwise=CCMP

Explications :

  • interface=wlan0 : Spécifie l’interface Wi-Fi à utiliser pour le point d’accès.
  • driver=nl80211 : Utilise le pilote nl80211 pour gérer l’interface Wi-Fi.
  • ssid=monssid : Définit le nom du réseau Wi-Fi (SSID).
  • hw_mode=g : Définit le mode matériel sur 802.11g (2,4 GHz).
  • channel=7 : Définit le canal Wi-Fi à utiliser (7 dans ce cas).
  • wmm_enabled=0 : Désactive la gestion de la qualité de service Wi-Fi (WMM).
  • macaddr_acl=0 : Désactive le contrôle d’accès basé sur l’adresse MAC.
  • auth_algs=1 : Active l’algorithme d’authentification WPA-PSK.
  • ignore_broadcast_ssid=0 : Diffuse le SSID du réseau.
  • wpa=2 : Active WPA2 (Wi-Fi Protected Access 2) pour la sécurité.
  • wpa_passphrase=masuperpassphrase : Définit la passphrase WPA2.
  • wpa_key_mgmt=WPA-PSK : Utilise la gestion de clé WPA-PSK.
  • wpa_pairwise=TKIP : Utilise TKIP pour le chiffrement WPA.
  • rsn_pairwise=CCMP : Utilise CCMP pour le chiffrement WPA2.

Ensuite, modifiez /etc/default/hostapd pour pointer vers ce fichier :

1
$ sudo nano /etc/default/hostapd

Ajoutez cette ligne :

1
DAEMON_CONF="/etc/hostapd/hostapd.conf"

Démarrez le service :

1
2
3
$ sudo systemctl unmask hostapd
$ sudo systemctl enable hostapd
$ sudo systemctl start hostapd

Explication des Composants

  • Hostapd : Utilisé pour créer un point d’accès Wi-Fi.
  • Dnsmasq : Fournit les services DHCP et DNS.
  • Netplan : Utilisé pour la configuration réseau sur Ubuntu.

Schéma Fonctionnel

La RAG donne des super pouvoirs à votre model d’IA générative !

Conclusion

Transformer un Raspberry Pi en point d’accès Wi-Fi est une solution économique et flexible pour divers besoins réseau. Avec les instructions ci-dessus, vous devriez être en mesure de configurer votre propre point d’accès Wi-Fi à la maison. Que ce soit pour étendre la couverture Wi-Fi, créer un réseau pour invités, ou pour vos projets IoT, cette configuration offre de nombreuses possibilités.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ FLUXX FRONTEND | backbone pour la réalisation de frontend web

Fluxx Frontend

Ce projet est une application web de type Single Page Application (SPA) développée avec Svelte et Vite. Il sert de base de départ pour la réalisation d’applications SPA.

Il existe aussi une version backend de l’ossature : Fluxx Backend.

Stack technologique

Svelte

Svelte est un framework JavaScript moderne qui permet de créer des interfaces utilisateur réactives. Svelte compile les composants en JavaScript optimisé au moment de la construction, ce qui permet un rendu ultra-rapide et une interaction fluide. Contrairement à d’autres frameworks, Svelte n’inclut pas de runtime ou bibliothèque volumineuse dans le bundle final, ce qui réduit la taille des fichiers JavaScript envoyés au navigateur.

Vite

Vite est un bundler et serveur de développement rapide, qui offre une excellente expérience de développement. Vite révolutionne le flux de travail du développement web avec sa rapidité, sa simplicité de configuration et son support des technologies modernes. Il améliore l’expérience des développeurs grâce à des temps de démarrage instantanés, des mises à jour à chaud rapides, et une compatibilité étendue avec différents frameworks front-end, faisant de lui un choix idéal pour les projets web modernes.

Intégration de la Stack

L’intégration de Svelte et Vite offre une solution puissante et efficace pour le développement d’applications web modernes. Svelte, avec sa syntaxe concise et ses performances optimisées, combiné à Vite, avec son démarrage instantané et son Hot Module Replacement ultra-rapide, permet de créer des applications réactives et performantes avec une expérience développeur exceptionnelle. Cette combinaison réduit les temps de build et simplifie la configuration, tout en offrant une flexibilité maximale grâce à la compatibilité avec les fonctionnalités modernes et divers frameworks front-end. Ensemble, Svelte et Vite forment une stack de développement idéale pour des projets rapides, maintenables et à hautes performances.

Structure du projet

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
frontend/
├── public/ # Contient les ressources publiques telles que les images, les manifestes, etc.
├── src/ # Contient le code source de l'application
│ ├── components/ # Composants réutilisables de Svelte
│ ├── lib/ # Modules d'aide et stores Svelte
│ ├── routes/ # Composants de routage pour différentes pages
│ ├── style/ # Fichiers de style SCSS
│ ├── App.svelte # Composant principal de l'application
│ ├── config.example.js # Exemple de configuration de l'application
│ └── main.js # Point d'entrée de l'application
├── .nvmrc # Version de Node.js à utiliser
├── eslint.config.mjs # Configuration d'ESLint
├── jsconfig.json # Configuration de JavaScript pour le projet
├── package.json # Dépendances et scripts du projet
├── svelte.config.js # Configuration de Svelte
├── vite.config.js # Configuration de Vite
├── remoteDeploy.example.sh # Exemple de script pour déployer en production
└── README.md # Documentation du projet

Diagramme séquentiel du flux d’authentification de l’utilisateur

Diagramme séquentiel du flux d’authentification de l’utilisateur

Installation

Pour installer et exécuter le projet en local, suivez les étapes suivantes :

  1. Cloner le dépôt
1
2
git clone git@deployment:jeremydierx/fluxx-frontend.git
cd fluxx-frontend
  1. Installer les dépendances
1
npm install
  1. ** Adapter les fichiers de configuration à vos besoins**
1
2
3
cp vite.config.example.js vite.config.js
cp src/config.example.js src/config.js
cp remoteDeploy.example.sh remoteDeploy.sh

En local

Démarrer le serveur de développement

1
npm run dev

L’application sera accessible à l’adresse https://localhost:[port][port] est le port configuré dans le fichier vite.config.js.

Génération de la documentation intégrée (JSDoc)

1
$ npm run docs

Linting

1
$ npm run lint

En distant (serveur de production)

Commandes de Déploiement pour l’Environnement de Production

1
$ npm run remoteDeployProd

Commandes de Maintenance pour l’Environnement de Production

1
2
$ npm run remoteMaintenanceOnProd # Activer le mode maintenance
$ npm run remoteMaintenanceOffProd # Désactiver le mode maintenance

Pourquoi je n’utilise pas de framework «tout-en-un» ?

Apprentissage en Profondeur:

  • Masquage de la Complexité : Les frameworks tout-en-un ont tendance à abstraire beaucoup de complexités, ce qui peut empêcher les développeurs d’apprendre et de comprendre les mécanismes sous-jacents. Cette abstraction peut limiter la capacité des développeurs à résoudre des problèmes complexes ou à optimiser les performances de manière efficace.
  • Dépendance au Framework : Une dépendance excessive à un framework spécifique peut restreindre la flexibilité des développeurs et les rendre moins adaptables à d’autres technologies ou paradigmes.

Surcharge Fonctionnelle:

  • Overkill pour les Projets Simples : Ces frameworks viennent souvent avec une multitude de fonctionnalités intégrées qui peuvent être superflues pour de nombreux projets, rendant la configuration initiale et la maintenance plus lourdes et complexes.
  • Performance Impactée : L’inclusion de fonctionnalités non nécessaires peut alourdir l’application et impacter ses performances, surtout si ces fonctionnalités ne sont pas utilisées mais continuent de consommer des ressources.

Flexibilité Limitée:

  • Personnalisation Difficile : La personnalisation ou l’extension des fonctionnalités d’un framework tout-en-un peut être difficile ou impossible sans recourir à des hacks ou des contournements, ce qui peut nuire à la maintenabilité du code.
  • Contraintes architecturales : Ces frameworks imposent souvent une architecture et une structure spécifiques, limitant la capacité des développeurs à adapter l’application à des besoins uniques ou à adopter des meilleures pratiques qui sortent du cadre défini par le framework.

Le principe KIS (Keep It Simple)

Le principe KIS (Keep It Simple) prône la simplicité et l’absence de complexité inutile dans le développement et la conception. En privilégiant des solutions directes et faciles à comprendre, ce principe facilite la maintenance, réduit les erreurs et améliore l’efficacité. En se concentrant sur l’essentiel et en éliminant les éléments superflus, KIS permet de créer des systèmes plus robustes, plus accessibles et plus rapides à mettre en œuvre. Adopter KIS aide les équipes à rester agiles, à réduire les coûts et à livrer des produits de qualité supérieure en évitant les complications inutiles.

Éviter la programmation orientée objet (POO)

Préférez les fonctions et les structures de données simples aux classes et objets complexes pour réduire la complexité du code.

Utiliser JSDOC à la place de TypeScript

Documentez votre code JavaScript avec JSDoc pour bénéficier de l’auto-complétion et de la vérification des types, sans la complexité supplémentaire de TypeScript.

Privilégier les solutions simples

Choisissez toujours la solution la plus simple et directe pour résoudre un problème, même si elle semble moins élégante ou moins sophistiquée.

Éviter les abstractions inutiles

Limitez l’utilisation des abstractions (comme les interfaces, les frameworks complexes) qui peuvent rendre le code plus difficile à comprendre et à maintenir.

Utiliser des noms de variables et de fonctions explicites

Choisissez des noms clairs et significatifs pour vos variables et fonctions afin de rendre le code auto-documenté.

Diviser le code en petites fonctions

Écrivez des fonctions courtes et spécifiques qui effectuent une seule tâche, ce qui facilite la compréhension et la maintenance.

Minimiser les dépendances

Réduisez le nombre de bibliothèques et de frameworks externes pour limiter les points de défaillance et simplifier la gestion des mises à jour.

Favoriser la composition plutôt que l’héritage

Utilisez la composition de fonctions et de modules au lieu de l’héritage pour structurer votre code, ce qui permet de réutiliser et de tester plus facilement les composants.

Écrire des tests simples et clairs

Rédigez des tests unitaires et d’intégration qui sont faciles à comprendre et à maintenir, couvrant les cas d’utilisation principaux sans surcharger le projet.

Limiter les commentaires

Évitez de commenter chaque ligne de code. Utilisez des commentaires uniquement lorsque cela est nécessaire pour expliquer des choix non évidents.

Utiliser des outils de linters

Employez des outils de linting comme ESLint pour automatiser la vérification de la qualité et la cohérence du code.

Suivre les conventions de code

Adoptez et respectez des conventions de codage claires et bien définies pour maintenir un code cohérent et lisible par tous les membres de l’équipe.

Éviter les optimisations prématurées

Ne vous concentrez pas sur l’optimisation du code avant de vérifier qu’il y a effectivement un problème de performance. Priorisez la simplicité et la clarté.

Favoriser l’utilisation de l’outillage standard

Utilisez les fonctionnalités natives du langage et des environnements de développement avant de recourir à des solutions externes ou sur-mesure.

Conclusion

En suivant ces principes KIS, vous pourrez créer des systèmes plus simples, plus robustes et plus faciles à maintenir, tout en réduisant les coûts et le temps de développement.

Fluxx Frontend est disponible sur GitHub sous licence MIT.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ FLUXX BACKEND | backbone pour la réalisation de backend web

Fluxx Backend

Fluxx est une ossature pour toute application web moderne construite sur le paradigme de backend monolithique modulaire.

Il existe aussi une version frontend de l’ossature : Fluxx Frontend.

Qu’est-ce qu’un backend monolithique modulaire ?

Un backend monolithique modulaire est une architecture de développement de logiciel où toutes les fonctionnalités d’une application sont regroupées dans une seule application, ou “monolithe”, mais sont organisées de manière modulaire. Cela signifie que bien que toutes les parties de l’application résident dans un seul codebase et dépendent d’un seul déploiement, elles sont divisées en modules distincts qui encapsulent différentes fonctionnalités ou responsabilités.

Caractéristiques principales d’un backend monolithique modulaire :

Monolithe :

  • Codebase unique : Toute l’application est construite et déployée comme une seule unité.
  • Déploiement unique : Une seule version de l’application est déployée à la fois, ce qui simplifie le processus de déploiement.

Modularité :

  • Modules séparés : Le code est organisé en modules distincts, chacun avec une responsabilité ou une fonctionnalité spécifique.
  • Encapsulation : Chaque module encapsule ses données et sa logique métier, réduisant les dépendances directes entre les modules.
  • Interface définie : Les modules interagissent via des interfaces bien définies, facilitant la maintenance et l’évolution du code.

Avantages :

  • Maintenance Facilitée : La séparation en modules rend le code plus facile à comprendre et à maintenir. Les développeurs peuvent travailler sur un module sans affecter les autres.
  • Réutilisabilité : Les modules peuvent être réutilisés dans différentes parties de l’application ou même dans d’autres projets.
  • Testabilité : Les modules bien définis peuvent être testés de manière indépendante, améliorant ainsi la qualité du logiciel.
  • Evolutivité du Code : Il est plus facile d’ajouter de nouvelles fonctionnalités ou de modifier les existantes sans toucher à l’ensemble du codebase.
  • Coûts d’Hébergement Extrêmement Réduits : Comparé aux backends dans le cloud de type serverless, un backend monolithique modulaire peut offrir des coûts d’hébergement extrêmement réduits. Cela est dû au fait que vous n’avez pas besoin de payer pour chaque fonction ou service individuellement, mais plutôt pour un seul serveur qui héberge l’ensemble de l’application.
  • Légèreté et Rapidité de Fonctionnement : Un backend monolithique modulaire est souvent plus léger et plus rapide que les solutions serverless. Cela est dû au fait qu’il n’y a pas de latence de réseau entre les services, et que toutes les parties de l’application sont exécutées dans le même processus.
  • Simplicité de Déploiement : Avec un backend monolithique modulaire, le déploiement est généralement plus simple car il n’y a qu’une seule application à gérer.
  • Cohérence : Toutes les parties de l’application sont développées et gérées ensemble, ce qui peut conduire à une plus grande cohérence dans le code et l’architecture.
  • Scalabilité Horizontale et Verticale : Un backend monolithique modulaire offre une grande flexibilité en termes de scalabilité. Vous pouvez facilement augmenter la capacité de traitement en multipliant les processus au sein d’un même serveur (scalabilité verticale) ou en distribuant l’application sur plusieurs serveurs (scalabilité horizontale). En utilisant un reverse proxy en front, vous pouvez équilibrer la charge entre les différents serveurs et processus, ce qui permet à l’application de gérer efficacement une grande quantité de trafic.

Paradigme RCM (Route-Controller-Model) :

Le paradigme RCM est une approche héritée du paradigme MVC (Model-View-Controller). Il définit la structure et l’organisation du code en trois composants principaux : Route, Controller et Model.

Route :

  • Définition des Chemins : Les routes définissent les chemins d’accès (URL) aux différentes parties de l’application web.
  • Gestion des Requêtes : Les routes gèrent les requêtes entrantes et déterminent quel contrôleur doit être utilisé en fonction de l’URL demandée.

Controller :

  • Logique de l’Application : Les contrôleurs contiennent la logique de l’application. Ils prennent les données du modèle, les transforment si nécessaire, et les passent à la vue.
  • Intermédiaire : Les contrôleurs agissent comme un intermédiaire entre les modèles et les vues. Ils reçoivent les requêtes de l’utilisateur, interagissent avec le modèle pour obtenir ou modifier les données, et renvoient une réponse à l’utilisateur.

Model :

  • Gestion des Données : Les modèles gèrent les données de l’application. Ils interagissent avec la base de données, effectuent des opérations CRUD (Create, Read, Update, Delete) et renvoient les résultats au contrôleur.
  • Indépendance : Les modèles sont indépendants de la logique de l’application et de l’interface utilisateur. Cela signifie qu’ils peuvent être réutilisés et testés indépendamment du reste de l’application.

Avantages du Paradigme RCM :

  • Organisation du Code : Le paradigme RCM aide à organiser le code de manière logique et cohérente, ce qui facilite la maintenance et l’évolution de l’application.
  • Séparation des Préoccupations : Chaque composant du paradigme RCM a une responsabilité spécifique, ce qui permet une séparation claire des préoccupations.
  • Réutilisabilité et Testabilité : Les modèles peuvent être réutilisés dans différentes parties de l’application et testés indépendamment, ce qui améliore la qualité du code.
  • Flexibilité : Le paradigme RCM offre une grande flexibilité, car il permet de modifier ou d’ajouter des fonctionnalités à une partie de l’application sans affecter les autres parties.

Stack technologique

Fastify

Fastify est un framework web rapide et performant pour Node.js. Conçu pour offrir une efficacité maximale, Fastify promet des performances optimales grâce à une gestion efficace des requêtes HTTP. Il se distingue par sa faible surcharge (overhead) et sa capacité à gérer un grand nombre de requêtes par seconde. Fastify est également modulaire et extensible, ce qui permet aux développeurs de charger uniquement les fonctionnalités nécessaires à leur application, réduisant ainsi la complexité et améliorant les performances. De plus, Fastify offre une gestion des erreurs robuste et un support intégré pour la validation des schémas et les plugins.

Redis

Redis est une base de données en mémoire, clé-valeur, reconnue pour sa rapidité exceptionnelle et sa flexibilité. Utilisé principalement comme cache, queue et store de sessions, Redis permet de stocker et récupérer des données avec une latence extrêmement faible, ce qui est crucial pour les applications nécessitant des réponses rapides et une haute performance. Dans cette stack, Redis est utilisé pour la gestion des sessions, le stockage des tokens et les opérations nécessitant un accès rapide aux données temporaires. Sa simplicité d’utilisation et sa compatibilité avec de nombreux types de données en font un choix privilégié pour optimiser les performances de l’application.

Intégration de la Stack

Ensemble, Node.js, Fastify et Redis constituent une stack technologique puissante et efficace pour construire des applications web modernes. Node.js fournit la base de l’exécution côté serveur, Fastify ajoute une couche de serveur HTTP rapide et modulaire, et Redis offre une solution de stockage rapide et fiable. Cette combinaison permet de développer des applications robustes, performantes et capables de gérer de grandes charges de travail avec une latence minimale.

Structure du projet

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
├── backend/                         # Racine du projet backend
│ ├── .env # Fichier de configuration des variables d'environnement
│ ├── .eslintrc.js # Configuration ESLint pour le linting du code
│ ├── .gitignore # Fichiers et dossiers à ignorer par Git
│ ├── .nvmrc # Version de Node.js spécifiée pour NVM
│ ├── ecosystem.config.js # Configuration PM2 pour le déploiement
│ ├── eslint.config.js # Configuration ESLint
│ ├── jest.config.js # Configuration Jest pour les tests unitaires
│ ├── jsdoc.json # Configuration JSDoc pour la documentation du code
│ ├── package.json # Dépendances et scripts du projet
│ ├── README.md # Documentation du projet
│ ├── remoteWorker.sh # Script pour démarrer un worker à distance
│ ├── web.js # Point d'entrée principal de l'application web
│ ├── worker.js # Script pour lancer les workers
│ ├── src/ # Contient le code source de l'application
│ │ ├── app.js # Fichier principal de configuration de l'application
│ │ ├── config/ # Configuration de l'application
│ │ │ ├── assets.js # Configuration des assets
│ │ │ ├── backend.js # Configuration backend
│ │ │ ├── db.js # Configuration de la base de données
│ │ │ ├── frontend.js # Configuration frontend
│ │ │ ├── index.js # Point d'entrée pour les configurations
│ │ │ ├── mailer.js # Configuration du service de mail
│ │ │ └── token.js # Configuration des tokens JWT
│ │ ├── controllers/ # Contrôleurs gérant la logique des routes
│ │ │ ├── index.js # Point d'entrée pour les contrôleurs
│ │ │ └── user.js # Contrôleur pour les opérations utilisateur
│ │ ├── errors/ # Gestion des erreurs
│ │ │ ├── index.js # Point d'entrée pour les erreurs
│ │ │ └── user.js # Gestion des erreurs spécifiques aux utilisateurs
│ │ ├── helpers/ # Fonctions d'aide et utilitaires
│ │ │ ├── index.js # Point d'entrée pour les helpers
│ │ │ ├── log.js # Fonctions de logging
│ │ │ ├── secure.js # Fonctions de sécurité (e.g., hash de mot de passe)
│ │ │ ├── user.js # Fonctions utilitaires pour les utilisateurs
│ │ │ └── utils.js # Autres fonctions utilitaires
│ │ ├── middlewares/ # Middlewares de l'application
│ │ │ ├── index.js # Point d'entrée pour les middlewares
│ │ │ └── secure.js # Middleware de sécurité (e.g., vérification de token)
│ │ ├── models/ # Modèles de données
│ │ │ ├── index.js # Point d'entrée pour les modèles
│ │ │ ├── log.js # Modèle pour les logs
│ │ │ ├── mailer.js # Modèle pour le mailer
│ │ │ └── user.js # Modèle pour les utilisateurs
│ │ ├── routes/ # Définitions des routes de l'application
│ │ │ ├── index.js # Point d'entrée pour les routes
│ │ │ └── user.js # Routes pour les opérations utilisateur
│ │ ├── seed/ # Scripts et données de seed
│ │ │ ├── index.js # Point d'entrée pour les scripts de seed
│ │ │ └── user.js # Script de seed pour les utilisateurs
│ │ ├── assets/ # Assets utilisés pour les seeds
│ │ │ ├── fonts/ # Polices de caractères
│ │ │ │ └── Montserrat-VariableFont_wght.ttf # Police Montserrat
│ │ │ └── images/ # Images (utilisées dans les mail, etc.)
│ ├── test/ # Tests unitaires et d'intégration
│ │ ├── .env.test # Variables d'environnement pour les tests
│ │ ├── app.test.js # Tests pour l'application
│ │ └── options.js # Options de configuration pour les tests

Fonctionnalités intégrées

  • Gestion des logs : Enregistre les événements importants et les erreurs pour le suivi et le débogage.
  • Gestion des utilisateurs : Comprend l’authentification, l’inscription, la mise à jour, et la suppression des utilisateurs.
  • Authentification : Utilisation de JSON Web Tokens (JWT) pour authentifier les utilisateurs.
  • Rafraîchissement des Tokens : Gestion des tokens de rafraîchissement pour maintenir les sessions actives.
  • Rôles et Permissions : Contrôle d’accès basé sur les rôles (par exemple, admin, utilisateur) pour sécuriser les actions critiques.

Diagramme séquentiel du flux d’authentification de l’utilisateur

Diagramme séquentiel du flux d’authentification de l’utilisateur

Installation

Pour installer et exécuter le projet en local, suivez les étapes suivantes :

  1. Cloner le dépôt

    1
    2
    $ git clone git@deployment:jeremydierx/fluxx-backend.git
    $ cd fluxx-backend
  2. Installer les dépendances

    1
    $ npm install
  3. ** Adapter les fichiers de configuration à vos besoins**

    1
    2
    $ cp .env.example .env
    $ cp ecosystem.config.example.js ecosystem.config.js

En local

Initialisation de la base de données

1
$ npm run seed # le mot de passe admin généré se trouve dans seedUsers.txt

Démarrage du serveur web en local (dev)

1
$ npm run dev

L’application sera accessible à l’adresse https://localhost:[port][port] est le port configuré dans le fichier .env.

Accès complet à l’application backend depuis la console nodejs

1
$ node

puis, dans la console nodejs :

1
const app = require('./src/app')({appMode: 'console'})

Execution des tests unitaires et d’intégration

1
$ npm run test

Génération de la documentation intégrée (JSDoc)

1
$ npm run docs

Linting

1
$ npm run lint

Démarrage des workers locaux

Pour démarrer un worker local, utilisez la commande suivante en fonction du nombre de workers que vous souhaitez démarrer :

1
2
3
$ npm run worker numWorker=1 # Démarrage d'un worker
$ npm run worker numWorker=2 # Démarrage de deux workers
$ npm run worker numWorker=3 # Démarrage de trois workers

etc.

En distant (serveur de production)

Commandes de Déploiement pour l’Environnement de Production

1
2
3
4
5
$ npm run remoteSetupProd # Configure l'environnement de production.
$ npm run remoteDeployProd # Met à jour l'application en production.
$ npm run remoteSeedProd # Exécute le seeding en production.
$ npm run remoteListProd # Affiche la liste des applications pm2 en production.
$ npm run remoteSaveProd # Sauvegarde l'état actuel des processus pm2 en production.

Commande pour la gestion du serveur applicatif (backend web)

1
2
3
4
$ npm run remoteWebStartProd # Démarre l'application web en production.
$ npm run remoteWebStopProd # Arrête l'application web en production.
$ npm run remoteWebRestartProd # Redémarre l'application web en production.
$ npm run remoteWebDeleteProd # Supprime l'application web en production.

Commandes pour la gestion des workers en production

1
2
3
4
$ npm run remoteWorkerStartProd # Démarre les workers distants en production.
$ npm run remoteWorkerStopProd # Arrête les workers distants en production.
$ npm run remoteWorkerRestartProd # Redémarre les workers distants en production.
$ npm run remoteWorkerDeleteProd # Supprime les workers distants en production.

Pourquoi je n’utilise pas de framework «tout-en-un» ?

Apprentissage en Profondeur:

  • Masquage de la Complexité : Les frameworks tout-en-un ont tendance à abstraire beaucoup de complexités, ce qui peut empêcher les développeurs d’apprendre et de comprendre les mécanismes sous-jacents. Cette abstraction peut limiter la capacité des développeurs à résoudre des problèmes complexes ou à optimiser les performances de manière efficace.
  • Dépendance au Framework : Une dépendance excessive à un framework spécifique peut restreindre la flexibilité des développeurs et les rendre moins adaptables à d’autres technologies ou paradigmes.

Surcharge Fonctionnelle:

  • Overkill pour les Projets Simples : Ces frameworks viennent souvent avec une multitude de fonctionnalités intégrées qui peuvent être superflues pour de nombreux projets, rendant la configuration initiale et la maintenance plus lourdes et complexes.
  • Performance Impactée : L’inclusion de fonctionnalités non nécessaires peut alourdir l’application et impacter ses performances, surtout si ces fonctionnalités ne sont pas utilisées mais continuent de consommer des ressources.

Flexibilité Limitée:

  • Personnalisation Difficile : La personnalisation ou l’extension des fonctionnalités d’un framework tout-en-un peut être difficile ou impossible sans recourir à des hacks ou des contournements, ce qui peut nuire à la maintenabilité du code.
  • Contraintes architecturales : Ces frameworks imposent souvent une architecture et une structure spécifiques, limitant la capacité des développeurs à adapter l’application à des besoins uniques ou à adopter des meilleures pratiques qui sortent du cadre défini par le framework.

Le principe KIS (Keep It Simple)

Le principe KIS (Keep It Simple) prône la simplicité et l’absence de complexité inutile dans le développement et la conception. En privilégiant des solutions directes et faciles à comprendre, ce principe facilite la maintenance, réduit les erreurs et améliore l’efficacité. En se concentrant sur l’essentiel et en éliminant les éléments superflus, KIS permet de créer des systèmes plus robustes, plus accessibles et plus rapides à mettre en œuvre. Adopter KIS aide les équipes à rester agiles, à réduire les coûts et à livrer des produits de qualité supérieure en évitant les complications inutiles.

Éviter la programmation orientée objet (POO)

Préférez les fonctions et les structures de données simples aux classes et objets complexes pour réduire la complexité du code.

Utiliser JSDOC à la place de TypeScript

Documentez votre code JavaScript avec JSDoc pour bénéficier de l’auto-complétion et de la vérification des types, sans la complexité supplémentaire de TypeScript.

Privilégier les solutions simples

Choisissez toujours la solution la plus simple et directe pour résoudre un problème, même si elle semble moins élégante ou moins sophistiquée.

Éviter les abstractions inutiles

Limitez l’utilisation des abstractions (comme les interfaces, les frameworks complexes) qui peuvent rendre le code plus difficile à comprendre et à maintenir.

Utiliser des noms de variables et de fonctions explicites

Choisissez des noms clairs et significatifs pour vos variables et fonctions afin de rendre le code auto-documenté.

Diviser le code en petites fonctions

Écrivez des fonctions courtes et spécifiques qui effectuent une seule tâche, ce qui facilite la compréhension et la maintenance.

Minimiser les dépendances

Réduisez le nombre de bibliothèques et de frameworks externes pour limiter les points de défaillance et simplifier la gestion des mises à jour.

Favoriser la composition plutôt que l’héritage

Utilisez la composition de fonctions et de modules au lieu de l’héritage pour structurer votre code, ce qui permet de réutiliser et de tester plus facilement les composants.

Écrire des tests simples et clairs

Rédigez des tests unitaires et d’intégration qui sont faciles à comprendre et à maintenir, couvrant les cas d’utilisation principaux sans surcharger le projet.

Limiter les commentaires

Évitez de commenter chaque ligne de code. Utilisez des commentaires uniquement lorsque cela est nécessaire pour expliquer des choix non évidents.

Utiliser des outils de linters

Employez des outils de linting comme ESLint pour automatiser la vérification de la qualité et la cohérence du code.

Suivre les conventions de code

Adoptez et respectez des conventions de codage claires et bien définies pour maintenir un code cohérent et lisible par tous les membres de l’équipe.

Éviter les optimisations prématurées

Ne vous concentrez pas sur l’optimisation du code avant de vérifier qu’il y a effectivement un problème de performance. Priorisez la simplicité et la clarté.

Favoriser l’utilisation de l’outillage standard

Utilisez les fonctionnalités natives du langage et des environnements de développement avant de recourir à des solutions externes ou sur-mesure.

Conclusion

En suivant ces principes KIS, vous pourrez créer des systèmes plus simples, plus robustes et plus faciles à maintenir, tout en réduisant les coûts et le temps de développement.

Fluxx Backend est disponible sur GitHub sous licence MIT.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action

➟ Créer une RAG app en local !

La RAG donne des super pouvoirs à votre model d’IA générative !

Introduction

Dans cet article, nous allons explorer la création d’un POC (Proof of Concept) pour un système de RAG (Retrieval Augmented Generation) en utilisant Node.js, une base de données vectorielle ChromaDB, et le modèle de langage Llama3 via Ollama.

Qu’est-ce qu’une RAG ?

Une RAG, ou Retrieval Augmented Generation, est une technique qui combine la recherche d’informations pertinentes dans une base de données (retrieval) avec la génération de texte (generation) pour fournir des réponses plus précises et contextuelles. En d’autres termes, un RAG peut récupérer des données spécifiques et utiliser un modèle de langage pour générer une réponse en se basant sur ces données, ce qui le rend particulièrement utile pour des applications nécessitant des réponses détaillées et informées.

Qu’est-ce que ChromaDB et une base de données vectorielle ?

ChromaDB est une base de données vectorielle, un type de base de données spécialement conçu pour stocker et rechercher des vecteurs. Les vecteurs sont des représentations numériques de données (comme des textes ou des images) qui permettent de mesurer la similarité entre ces données. Dans le cas présent, ChromaDB est utilisée pour rechercher des phrases similaires à la question posée, ce qui aide à récupérer les informations les plus pertinentes pour générer une réponse précise.

Qu’est-ce qu’Ollama ?

Ollama est un outil qui facilite l’utilisation de modèles de langage de grande taille (LLM) comme Llama3. Il permet de gérer facilement ces modèles et de les intégrer dans des applications. Dans ce POC, Ollama est utilisé pour générer des réponses basées sur les données récupérées par ChromaDB, ajoutant une couche de compréhension et de génération de texte naturel.

Qu’est-ce qu’un LLM (Llama3) ?

Un LLM (Large Language Model), comme Llama3, est un modèle d’intelligence artificielle entraîné sur de vastes quantités de données textuelles. Ces modèles peuvent comprendre et générer du texte en langage naturel de manière très sophistiquée. Dans ce POC, Llama3 est utilisé pour transformer les données récupérées en réponses claires et pertinentes, améliorant ainsi l’expérience utilisateur en fournissant des informations complètes et bien formulées.

Nous allons détailler chaque étape pour vous permettre de reproduire ce POC facilement.

Prérequis

Avant de commencer, assurez-vous d’avoir les éléments suivants installés sur votre machine :

  • Ubuntu 22.04 (mais cela devrait fonctionner sur les autres OS)
  • Node.js (version 20 ou supérieure)
  • npm (Node Package Manager)
  • Python3 (pour lancer le serveur ChromaDB)

Objectif

Notre dataset contient des informations sur des personnes et des animaux. Nous allons utiliser ChromaDB pour stocker ces informations et rechercher des données pertinentes en fonction de la question posée. Ensuite, nous utiliserons Ollama avec le modèle Llama3 pour générer une réponse basée sur les données récupérées. Voici les informations dont nous disposons :

“Alex porte un bonnet vert”
“Alex est un homme”
“Laura conduit une voiture bleue”
“Laura est une femme”
“Médore joue avec une balle blanche”
“Médore est un chien”
“Minou fait ses griffes sur le canapé”
“Minou est un chat”
“Sam a les cheveux longs”
“Sam est un enfant”

La question posée sera : “Que fait le chat ?”. Nous allons rechercher des données similaires dans notre dataset, puis utiliser Ollama avec Llama3 pour générer une réponse basée sur ces données.

Principe de fonctionnement de notre RAG

Diagramme de flux de notre RAG app

Notre RAG app en action !

Étape 1 : Installer ChromaDB

Commencez par installer ChromaDB sur votre système Linux Ubuntu :

1
$ pip install chromadb

Démarrer le serveur ChromaDB :

1
2
3
$ mkdir ~/rag-app
$ mkdir ~/rag-app/db
$ chroma run --path ~/rag-app/db

Étape 2 : Installer Ollama et Llama3

Nous allons maintenant installer Ollama, Llama3 et démarrer le service (dans une autre console) :

1
2
$ curl -fsSL https://ollama.com/install.sh | sh
$ ollama run llama3

Étape 3 : Installer les dépendances pour Node.js

Nous allons maintenant créer un script en Node.js pour interagir avec ChromaDB et Ollama. Commençons par installer les packages nécessaires :

1
2
3
4
$ cd ~/rag-app
$ npm init
$ npm install chromadb chromadb-default-embed ollama
$ touch rag.js

Étape 3 : Initialiser ChromaDB et Ollama (rag.js)

1
2
3
4
5
6
7
8
9
const ollama = require('ollama').default

const {
ChromaClient,
DefaultEmbeddingFunction
} = require('chromadb')

const client = new ChromaClient()
const embedder = new DefaultEmbeddingFunction()

Étape 4 : Définir les Données et la Collection

Ajoutons les documents et la collection à ChromaDB (dataset) :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
const collectionName = 'docs'

// le choix du modèle
const model = 'llama3'

// le dataset
const documents = [
"Alex porte un bonnet vert",
"Alex est un homme",
"Laura conduit une voiture bleue",
"Laura est une femme",
"Médore joue avec une balle blanche",
"Médore est un chien",
"Minou fait ses griffes sur le canapé",
"Minou est un chat",
"Sam a les cheveux longs",
"Sam est un enfant"
]

console.log(`
--- Documents de départ ---\n
${documents.join('\n')}`)

Étape 5 : Supprimer et Créer une Collection

Nous allons ajouter les fonctions pour supprimer et créer une nouvelle collection dans ChromaDB :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
// on supprime la collection si elle existe
async function deleteCollection(name) {
try {
await client.deleteCollection({ name })
return true
} catch (error) {
console.error('Error deleting collection', error)
}
}

// on crée la collection (docs)
async function createCollection(name) {
try {
const collection = await client.createCollection({
name,
embeddingFunction: embedder
})
return collection
} catch (error) {
console.error('Error creating collection', error)
}
}

Étape 6 : Ajouter des Documents à la Collection

Ajoutons les documents dans la collection que nous venons de créer :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
// on ajoute les documents à la collection
async function addToCollection(collection) {
try {
const ids = documents.map((_, i) => i.toString())
await collection.add({
ids,
documents,
embeddings: await embedder.generate(documents)
})
return collection
} catch (error) {
console.error('Error adding items to collection', error)
}
}

Étape 7 : Recherche par Similarité

Implémentons la recherche par similarité dans la collection :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
// on recherche dans la collection par similarité
async function searchInCollection(collection) {
try {
const nResults = 2
const question = 'Que fait le chat ?'
console.log(`--- Question ---\n\n${question}\n`)
const results = await collection.query({
nResults,
queryEmbeddings: await embedder.generate([question])
})
const data = results.documents[0].join(', ')
console.log(`--- Données proches retrouvées en DB (${nResults} résultats max) ---\n\n${data}\n`)
return data
} catch (error) {
console.error('Error searching in collection', error)
}
}

Étape 8 : Générer la Réponse avec Ollama / LLama3

Nous allons maintenant utiliser Ollama pour générer une réponse à partir des données trouvées :

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
// on génère la réponse à partir des données trouvées
async function generateResponse(data) {
try {
const { response } = await ollama.generate({
model,
prompt: `En utilisant ces données : ${data}. Répond à cette question : Quel est le sexe de la personne qui porte des gants ?`
})
console.log(`--- Réponse de ${model} ---`)
console.log(response)
console.log()
return response
} catch (error) {
console.error('Error generating response:', error)
}
}

Étape 9 : Exécuter les Fonctions

Pour finir, créons une fonction principale pour exécuter toutes les étapes séquentiellement:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
// on exécute les fonctions
function main(){
deleteCollection(collectionName)
.then(deleted => {
return createCollection(collectionName)
})
.then(collection => {
return addToCollection(collection)
})
.then(collection => {
return searchInCollection(collection)
})
.then(data => {
return generateResponse(data)
})
}

// start!
main()

Le programme complet

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
const ollama = require('ollama').default

const {
ChromaClient,
DefaultEmbeddingFunction
} = require('chromadb')

const client = new ChromaClient()
const embedder = new DefaultEmbeddingFunction()

const collectionName = 'docs'

// le choix du modèle <--
const model = 'llama3'

// le dataset <--
documents = [
"Alex porte un bonnet vert",
"Alex est un homme",
"Laura conduit une voiture bleue",
"Laura est une femme",
"Médore joue avec une balle blanche",
"Médore est un chien",
"Minou fait ses griffes sur le canapé",
"Minou est un chat",
"Sam a les cheveux longs",
"Sam est un enfant"
]

console.log(`
--- Documents de départ ---\n
${documents.join('\n')}\n`)

// le nombre de résultats récupérés par similarité depuis la DB <--
const nResults = 2

// la question <--
const question = 'Que fait le chat ?'
console.log(`--- Question ---\n\n${question}\n`)
// on supprime la collection si elle existe
async function deleteCollection(name) {
try {
await client.deleteCollection({
name
})
return true
} catch (error) {
console.error('Error deleting collection', error)
}
}

// on crée la collection (docs)
async function createCollection(name) {
try {
const collection = await client.createCollection({
name,
embeddingFunction: embedder
})
return collection
} catch (error) {
console.error('Error creating collection', error)
}
}

// on ajoute les documents à la collection
async function addToCollection(collection) {
try {
const ids = documents.map((_, i) => i.toString())
await collection.add({
ids,
documents,
embeddings: await embedder.generate(documents)
})
return collection
return coll
} catch (error) {
console.error('Error adding items to collection', error)
}
}

// on récupère les items de la collection (uniquement pour tester)
async function getItemsFromCollection(name) {
try {
const collection = await client.getCollection({ name })
console.log(await coll.get())
return collection
} catch (error) {
console.error('Error get items from collection', error)
}
}

// on recherche dans la collection par similarité
async function searchInCollection(collection) {
try {
const results = await collection.query({
nResults,
queryEmbeddings: await embedder.generate([question])
})
const data = results.documents[0].join(', ')
console.log(`--- Données proches retrouvées en DB (${nResults} résultats max) ---\n\n${data}\n`)
return data
} catch (error) {
console.error('Error searching in collection', error)
}
}

// on génère la réponse à partir des données trouvées
async function generateResponse(data) {
try {
const { response } = await ollama.generate({
model,
prompt: `En utilisant ces données : ${data}. Répond à cette question : ${question}`
})
console.log(`--- Réponse de ${model} ---\n${response}`)
return response
} catch (error) {
console.error('Error generating response:', error)
}
}

// on exécute les fonctions
function main(){
deleteCollection(collectionName)
.then(deleted => {
return createCollection(collectionName)
})
.then(collection => {
return addToCollection(collection)
})
.then(collection => {
return searchInCollection(collection)
})
.then(data => {
return generateResponse(data)
})
}

// start!
main()

Vous pouvez retrouver le code source complet sur Github

Conclusion

En suivant ces étapes, vous pouvez créer un POC de RAG en utilisant Node.js, ChromaDB et Llama3 via Ollama. Ce processus vous permet d’explorer la puissance des bases de données vectorielles et des modèles de langage avancés pour améliorer vos applications web avec des capacités de génération de réponses enrichies par la récupération d’informations pertinentes.

N’hésitez pas à adapter ce script à vos propres besoins et à explorer d’autres fonctionnalités de ChromaDB et Ollama pour aller plus loin dans l’innovation technologique.

Jérémy @ Code Alchimie


Une idée de business en ligne ? Un saas à développer ? Une boutique en ligne à créer ?
Essayer mon-plan-action.fr pour vous aider à démarrer votre projet en ligne.

Mon Plan Action