J’ai eu confirmation que n8n ne peut s’installer sur O2switch. Du coup je vais le faire avec une instance DigitalOcean, vous pouvez aller sur l’offre KVM de Hostinger à 6€/mois à l’heure où j’écris ces lignes. O2Switch est vraiment taillé pour l’hébergement PHP/Mysql, hélas, si vous sortez de ce setup, comme pour NodeJs ou Python, c’est moins pratique. Notamment Phusion Passenger, qui est loin d’être aussi flexible qu’un reverse proxy Nginx.
Créez votre instance VPS, vous devez avoir accès à Linux en ligne de commande, en général ce sera un Ubuntu. Je ne détaille pas le process ici car la page n’est pas consacrée à l’hébergement.
Installation de NodeJS
sudo apt update
sudo apt install node
installer n8n avec node et npm
npm install -g n8n
// Mais il est conseillé de faire tourner n8n dans un docker, aussi, il faut d'abord installer Docker Engine. Chez DigitalOcean, vous pouvez réserver un VPS avec Docker déjà installé (avec Ubuntu)
Installation en local sur votre ordinateur
npm install -g n8n
// pour lancer
n8n
ensuite (sous Windows) appuyer sur la touche 'o' pour lancer l'application web.
Laissez la fenêtre ouverte pour faire tourner n8n.
Prérequis : vous devez avoir à minima un VPS et la liberté d’installer ce que vous voulez (ce qui n’est pas le cas de O2switch). hostinger propose un VPS de ce calibre, DigitalOcean propose des instances à la demande.
Installer Nginx et PHP-FPM
# Mettre à jour le système
sudo apt update && sudo apt upgrade -y
# Installer Nginx
sudo apt install nginx -y
# Installer PHP-FPM et extensions nécessaires pour WordPress
sudo apt install php-fpm php-mysql php-curl php-gd php-mbstring php-xml php-xmlrpc php-soap php-intl -y
Ici, proxy_cache_path définit le cache, sa taille (100m) et l’endroit où il est stocké. On active le cache pour les pages publiques, et on le désactive pour les pages d’administration ou login.
Tester la configuration Nginx
sudo nginx -t
sudo systemctl reload nginx
Activer le log de cache
tail -f /var/log/nginx/wordpress.access.log
On devrait voir des en-têtes comme :
HIT → la page vient du cache.
MISS → la page vient du serveur PHP (premier chargement ou cache expiré).
Pour ajouter un en-tête qui montre si une page est en cache :
proxy_set_header X-Cache $upstream_cache_status;
Placez-le dans la section location /.
Conseils pour WordPress
Installe un plugin de cache léger (comme LiteSpeed Cache ou WP Super Cache) si tu veux contrôler le purging automatique, sinon Nginx ne sait pas quand le contenu change.
Les images et fichiers statiques (CSS/JS) peuvent être directement servis avec expires pour ne pas passer par PHP.
Configure un cron ou purge Nginx pour vider le cache si tu changes beaucoup de contenu.
Nginx cache les réponses HTTP qu’il reçoit de ton backend (PHP-FPM pour WordPress).
Il ne connaît pas la logique métier de WordPress : il ne sait pas si un post a été édité, si un commentaire est ajouté, etc.
Donc, par défaut, Nginx utilise un TTL (proxy_cache_valid 200 60m) pour déterminer combien de temps garder la page.
Après expiration, il refait une requête à PHP-FPM.
💡 En résumé : Nginx “voit” seulement les codes HTTP et les headers, pas l’état de WordPress.
2. Comment invalider intelligemment le cache ?
Pour qu’un cache Nginx soit “intelligent” et se purge automatiquement quand WordPress change quelque chose :
Plugins WordPress dédiés :
LiteSpeed Cache ou WP Rocket peuvent envoyer des commandes de purge au serveur Nginx via HTTP ou socket quand un post/page est mis à jour.
Le plugin sait quand une page devient “obsolète” et demande à Nginx de la supprimer du cache.
Purge manuel via Nginx :
On peut créer une URL spéciale comme /purge/some-path que WordPress appelle via un hook save_post.
Cette URL est configurée pour supprimer les fichiers du cache correspondants.
Cache-Control et ETag :
Si WordPress envoie les headers Cache-Control et ETag, Nginx peut les respecter pour savoir quand revalider une page.
Cela permet un cache plus dynamique sans toucher au filesystem.
En pratique : Nginx est très rapide pour servir le cache, mais il a besoin d’un signal externe pour savoir quand le contenu est obsolète. WordPress côté PHP ou un plugin fournit ce signal.
Saviez vosu que vous pouvez ne cloner qu’un répertoire ou plusieurs répertoire de votre repository Git? Ainsi vous économiserez de la place ! Ceci est particulièrement pertinent dans les monorepos, un monorepo est un repository unique mais avec plein de projets à l’intérieur. Google par exemple travaille en monorepo.
Vous savez alors qu’on ne peut pas cloner tous les projets de Google dsur son ordinateur, telle la volumétrie est grande. Il faut cloner ce dont on a besoin.
Comment fait on alors pour ne cloner ue partiellement un repository?
Vient la commande sparse checkout
Imaginez que vous êtes sur votre ordinateur et que vous vouliez cloner partiellement un repository, en ligne de commande voilà ce que l’on va faire
# Initialiser un nouveau dépôt Git
git clone --filter=blob:none --no-checkout https://github.com/vous/ledepot.git
cd ledepot
# Activer sparse-checkout
git sparse-checkout init --cone
# Spécifier le dossier à récupérer
git sparse-checkout set htdocs/todolist.com
# Récupérer les fichiers
git checkout main
Cette méthode vous permet néanmoins d’avoir l’historique des commits complet. Vous n’avez peut être pas besoin des commit précédents (on a rarement besoin), donc il est plus léger de n’avoir que le dernier commit.
Clonage encore plus light
git clone --depth 1 --filter=blob:none --sparse https://github.com/vous/ledepot.git
cd ledepot
git sparse-checkout set htdocs/todolist.com
--depth 1 = télécharge uniquement le dernier commit (pas d’historique)
Parfait si vous voulez juste travailler sur la version actuelle
Les blob sont des fichiers binaire, on a avec commande éviter des les télécharger.
Cette méthode télécharge uniquement les fichiers du dossier spécifié au lieu de tout le repository. L’option --cone optimise les performances pour les grandes arborescences, et --filter=blob:none évite de télécharger les blobs inutiles initialement.
Si vous voulez modifier le sparse-checkout plus tard pour ajouter d’autres dossiers :
git sparse-checkout add htdocs/autre-dossier
Un mot à propos du flag –cone
--cone fait référence au mode « cone » du sparse-checkout, qui est une approche optimisée pour gérer les patterns de fichiers.
Sans --cone (mode pattern traditionnel) :
Vous pouvez spécifier des patterns complexes comme *.js, src/**/test
Plus flexible mais plus lent sur les gros repositories
Git doit vérifier chaque fichier individuellement
Avec --cone (mode cone) :
Vous ne pouvez spécifier que des dossiers entiers (pas de wildcards)
Beaucoup plus rapide et performant
Git optimise en travaillant par « cônes » de répertoires
C’est le mode recommandé par défaut depuis Git 2.26
Donc le flag –cone permet d’être plus rapide quand vous avez un vraiment gros repository
Je suis le fondateur du centre de formation Yvonh.com, un centre de formation certifié Qualiopi, dédié à l’apprentissage du développement web. Mon objectif est d’aider les personnes qui souhaitent apprendre à créer des sites web, développer des applications et comprendre les technologies qui font fonctionner internet aujourd’hui.
Les points différenciant de mon organisme de formation
Le développement web est devenu une compétence très recherchée. Aujourd’hui, presque toutes les entreprises ont besoin d’une présence en ligne, que ce soit à travers un site internet, une application web ou des services numériques. C’est pour répondre à cette demande croissante que j’ai créé Yvonh.com : un centre de formation qui permet d’apprendre le développement web de manière claire, progressive et surtout pratique.
Dans mes formations, je commence toujours par les bases fondamentales du web. J’accompagne les apprenants dans la découverte du HTML, qui permet de structurer les pages web, et du CSS, qui sert à mettre en forme les sites internet. Ces deux technologies sont indispensables pour comprendre comment un site web est construit. L’accompagnement est personnalisé.
L’un des points les plus importants dans ma pédagogie est la pratique. Je privilégie toujours l’apprentissage par projets. Les apprenants réalisent des exercices concrets et développent progressivement leurs propres projets web. Cette approche leur permet non seulement de mieux comprendre les concepts, mais aussi de développer leur autonomie et leur capacité à résoudre des problèmes. Vous disposez d’un Discord pour l’aide.
Je transfère mon savoir faire de 12 ans dans le code
Au-delà des langages et des technologies, je mets également l’accent sur les bonnes pratiques du développement web. J’enseigne comment organiser son code, utiliser des outils professionnels, gérer les versions d’un projet ou encore sécuriser une application web. Ces compétences sont essentielles pour travailler efficacement dans un environnement professionnel.
Avec Yvonh.com, mon ambition est de rendre le développement web accessible à tous : étudiants, professionnels en reconversion ou simples passionnés de technologie. Je souhaite transmettre non seulement des compétences techniques, mais aussi une manière de penser et de construire des projets numériques.
Et l’IA?
L’IA n’est pas oublié, je vous apprendrai tirer profit de l’IA dans votre apprentissage. Dans le monde de l’entreprise également vous serez demandé à utiliser l’IA, les nouveaux outils comme Antigravity ou Claude Code (le plus puissant au moment où j’écris ces lignes)
Certificat Qualiopi :
La Certification Qualiopi a été délivrée au titre de la catégorie d’action suivante : Actions de formation
Certaines formations proposées peuvent faire l’objet d’une prise en charge par des dispositifs de financement (CPF, OPCO, France Travail…), selon les conditions définies par les organismes financeurs. Pour plus d’informations, veuillez nous contacter. (Mettre un lien vers la page Contact).
Enregistré sous le numéro de déclaration d’activité 76310966431 auprès de la DREETS Occitanie (cet enregistrement ne vaut pas agrément de l’Etat)
Siret : 510 776 529 00040 , l’avis de situation est téléchargeable sur le site de l’Insee.
Le vibecoding, qui consiste à parler à une IA pour générer du code fonctionnel, a transformé l’équilibre des forces entre les sachants et les non sachant coder. En effet le développement d’application était réservé à une minorité de personnes qui ont mis des années à parfaire leurs connaissances en code. L’arrivée des LLM (modèle larges de données) a permis à tout un chacun de développer des application web sans vraiment avoir passsé des années à apprendre et pratiquer le code.
Est ce à dire qu’il n’est plus besoin de savoir lire du code basique ou d’écrire du code basique pour développer une application? Rien n’et moins sûr, en effet, ce que vous voyez dans les réseaux sociaux montre des petites applications simples développée à partir de zéro.
Le jeu se complique lorsque l’application grandit. Or vous ne pouvez pas ignorer votre oeuvre, il faut au moins en maitriser les grandes lignes. au fur et à msur qu’il grandit, que vous ajoutez des fonctionnalité, il faut pouvoir suivre son évolution, comme un enfant qui grandit il faut savoir l’appréhender sinon il va mal finir !
Public cible :
Porteur de projet à la recherche de prototype fonctionnel, SEO, Marketeur, curieux passionné mais ne sachant pas encore coder, créateur d’entreprise, indépendants. Chef de projet, product Owner,développeur, chef d’entreprise TPE/PME
Objectif de la formation : à l’issue de la formation, vous saurez comment fonctionne un LLM, la génération de code, comment prompter un LLM pour générer une application sécurisée. Vous saurez déployer cette application en ligne. La maintenir et la faire évoluer.
Programme de formation
Comprendre les LLM et le prompting
Maitriser les outils de vibecoding : Lovable pour les interfaces, Antigravity, Cursor, Windsurf,Claude Code
Pour exposer votre site local au réseau local (LAN) avec Laragon ou Apache, le processus est similaire à celui d’autres serveurs locaux comme Node.js. Cependant, il y a quelques ajustements spécifiques à faire selon que vous utilisez le serveur intégré de Laragon ou une installation Apache autonome.
Exposer Laragon au LAN
Laragon est un environnement de développement populaire sous Windows, incluant Apache, MySQL, PHP, etc. Voici comment vous pouvez exposer un site Laragon à votre réseau local.
Étape 1 : Modifier la configuration Apache de Laragon
Par défaut, Laragon est configuré pour n’écouter que sur localhost. Vous devez modifier la configuration d’Apache pour qu’il écoute sur toutes les interfaces (0.0.0.0), permettant ainsi l’accès depuis le réseau local. Ouvrez le fichier de configuration Apache dans Laragon : Allez dans Menu > Apache > httpd.conf. Recherchez la ligne suivante (généralement définie sur localhost)
Listen 127.0.0.1:80
Changez 127.0.0.1 en 0.0.0.0 pour qu'Apache écoute sur toutes les interfaces :
Listen 0.0.0.0:80
Étape 2 : Permettre aux hôtes virtuels de fonctionner sur le LAN
Si vous utilisez des hôtes virtuels avec Laragon (par exemple, monsite.test), vous devez également modifier la configuration des hôtes virtuels : Ouvrez votre fichier de configuration des hôtes virtuels (Menu > Apache > sites-enabled > 00-default.conf ou httpd-vhosts.conf). Trouvez la directive VirtualHost, qui ressemble à ceci :
<VirtualHost 127.0.0.1:80>
Changez 127.0.0.1 en 0.0.0.0 :
<VirtualHost 0.0.0.0:80>
Étape 3 : Trouver votre adresse IP locale
Vous devez maintenant trouver l’adresse IP locale de votre machine. Sous Windows, exécutez la commande ipconfig. Sous Linux ou Mac, utilisez ifconfig ou ip a. Une fois que vous avez votre adresse IP (par exemple, 192.168.1.100), les autres appareils du réseau local peuvent accéder à votre site hébergé sur Laragon en allant à l’adresse suivante :
http://192.168.1.100
Si vous utilisez un hôte virtuel comme monsite.test, vous y accéderez avec cette adresse :
http://192.168.1.100
Étape 4 : Configurer le pare-feu (si nécessaire)
Assurez-vous que votre pare-feu ne bloque pas l’accès au port (généralement 80 pour HTTP) :
Sous Windows : Allez dans Panneau de configuration > Système et sécurité > Pare-feu Windows Defender > Autoriser une application ou une fonctionnalité via le pare-feu Windows Defender. Ajoutez une règle pour Apache HTTP Server ou autorisez les connexions entrantes sur le port 80.
Étape 5 : Accéder depuis des appareils sur le LAN
Depuis n’importe quel appareil sur le même réseau local, accédez à votre site Laragon local en saisissant l’adresse IP de votre machine dans le navigateur, comme décrit ci-dessus.
Exposer un Apache autonome au LAN
Si vous utilisez une installation Apache autonome, le processus est similaire, mais implique la modification directe des fichiers de configuration Apache.
Étape 1 : Modifier la configuration Apache
Ouvrez votre fichier de configuration Apache. Il est généralement situé à :
Sous Windows (XAMPP/WAMP) : C:\xampp\apache\conf\httpd.conf ou C:\wamp\bin\apache\apache2.x.x\conf\httpd.conf Sous Linux/Mac : /etc/httpd/httpd.conf ou /etc/apache2/apache2.conf Recherchez la directive Listen, qui ressemble à ceci :
Listen 127.0.0.1:80
Modifiez-la pour écouter sur toutes les interfaces (0.0.0.0) :
Listen 0.0.0.0:80
Étape 2 : Mettre à jour les hôtes virtuels (si applicable)
Si vous utilisez des hôtes virtuels, ouvrez votre fichier d’hôtes virtuels (par exemple, httpd-vhosts.conf) et changez l’hôte virtuel de 127.0.0.1 à 0.0.0.0 :
Cela garantit que les hôtes virtuels sont accessibles sur le réseau local.
Étape 3 : Configuration du pare-feu
Assurez-vous que votre pare-feu permet les connexions entrantes sur le port 80 :
Sous Linux (avec ufw) :
sudo ufw allow 80/tcp
Sous Windows : Suivez les étapes mentionnées plus haut pour autoriser le trafic via le port 80.
Étape 4 : Accéder depuis des appareils sur le LAN
Une fois votre serveur Apache configuré pour écouter sur 0.0.0.0, vous pouvez y accéder depuis d’autres appareils sur le LAN en utilisant l’adresse IP locale de votre machine :
http://192.168.1.x
Si vous avez configuré un hôte virtuel, cela fonctionnera de manière similaire.
En conclusion
Pour Laragon : Modifiez Listen 127.0.0.1:80 en Listen 0.0.0.0:80 dans le fichier httpd.conf ainsi que dans les fichiers des hôtes virtuels si nécessaire.
Pour Apache autonome : Suivez un processus similaire en modifiant la configuration pour qu’Apache écoute sur 0.0.0.0 et mettez à jour les hôtes virtuels.
Après avoir configuré votre serveur, accédez au site via l’adresse IP locale de votre machine (192.168.x.x) depuis d’autres appareils sur le réseau local. De cette manière, vous pouvez exposer votre environnement de développement local, que ce soit avec Laragon ou Apache, à votre réseau local (LAN)
Lorsque vous sélectionnez plusieurs éléments HTML en se basant sur le nom de la balise ou d’un nom de classe, vous recevez plusieurs éléments. Par exemple on a le code ci-dessous :
<ul>
<li>1</li>
<li>2</li>
<li>3</li>
</ul>
let liste = document.querySelectorAll('li')
let liste2 = document.getElementsByTagName('li')
A priori liste 1 et liste2 sont pareil, mais si nous loggons chaque variable on a HTMLCollection pour liste2 et NodeList pour liste. Quelle est la différence entre les deux?
NodeList est plus général que HTMLCollection
En effet un node peut désigner un élément HTML certes, mais peut aussi désigner un commentaire HTML qui est on le sait pas un élément HTML. Le texte à l’intérieur d’un élément HTML est un node, mais pas un élément HTML
<div>
Je suis un texte
<p>Une phrase</p>
<p>une seconde phrase</p>
</div>
Dans l’exemple ci-dessus « Je suis un texte » n’est pas un élément HTML mais un Node.
Un HTMLCollection ou un Nodelist n’est pas un tableau mais un Iterable !
Vous connaissez sans doute la méthode map relative aux tableaux, si vous essayer d’appliquer map à une Nodelist ou un HTMLCollection, vous aurez une erreur.
liste.map( e=> e ) // erreur
for(let i=0;i< liste.length;i++){
console.log(liste[i])
}
ça marchera aussi pour liste2.
Les index et la propriété length marchent mais c’est tout, ce n’est donc pas un tableau ! On peut boucler dessu, donc c’est un Itérable. Un tableau est un Iterable mais avec plus de propriété.
On peut cependant transformer ces Iterable en tableau avec la fonction Array.from.
Qu’est ce qu’un serveur MCP (Model Context Protocole?)
Un serveur MCP est un webservice qui fournit de la data, cette data va servir de contexte pour l’IA générative. A la différence du RAG (Retrieval Augmented Generation), il n’est pas besoin de base vectorielle pour stocker des informations.
Le workflow est le suivant, le client IA (Claude Desktop) va requêter le serveur MCP pour retirer les informations dont il a besoin pour envoyer au LLM.(chatGPT par exemple).
Cette technologie inventée par Anthropic (à l’origine de Claude) est devenue très populaire. Je pense que c’est dû au fait qu’il n’est besoin que de connaissances existantes (Webservice) par les développeurs pour pouvoir taquiner les IA afin d’éviter les hallucination.
Mais cela va au delà des hallucination, un serveur MCP est un webservice à destination non du programmeur mais de l’IA générative. Je pense que c’est une bonne comparaison, l’IA (ou plutôt l’agent IA) va pouvoir décider en autonomie de requêter un serveur MCP pour chercher les information dont il a besoin?
Donc un serveur MCP est un webservice pour agent IA, au même titre qu’un webservice est un …. webservice pour un programmeur. Dans notre cas on va utiliser Claude Desktop comme « agent IA » ou plutôt comme Client IA.
Mise en place du serveur MCP dans Pycharm
Création de mon environnement virtuel
On crée le répertoire MCP puis on fait la commande :
vous avez un répertoire appelé MCP rentrez dedans
$ python -m venv .venv
# activez l'environnement virtuel (sous powershell)
$ .\.venv\Scripts\Activate.ps1
#c'est activé (normalement) vous avez accès à la commande pip
$ pip --version
Installation de uv
uv est un gestionnaire de paquet nouvelle génération écrite en RUST.
pip install uv
puis avec uv on installe mcp
uv add "mcp[cli]"
A partir de maintenant on va utiliser uv pour installer notre projet
uv init
# la commande tree -L 2 nous donne la structure suivante
.
|-- README.md
|-- main.py
|-- .venv
| |-- Include
| |-- Lib
| |-- Scripts
| `-- pyvenv.cfg
|-- pyproject.toml
`-- uv.lock
Pour install tree dans Windows Gitbash, il faut télécharger l’EXE et le mettre dans C:\Program Files\Git\usr\bin, un tuto est accessible sur ce lien.
Le soucis c’est que mcp s’attends à ce que le dossier environnement virtuel soit nommé .venv, si vous faites la commande:
$ uv run mcp
warning: `VIRTUAL_ENV=mcpvenv` does not match the project environment path `.venv` and will be ignored; use `--active` to target the active environment instead
Désativez l'environnement avec
$ deactivate
si un .venv est présent, exécutez le venv de ce répertoire.
Exemple rapide de serveur MCP:
#server.py
from mcp.server.fastmcp import FastMCP
# Create an MCP server
mcp = FastMCP("Demo")
# Add an addition tool
@mcp.tool()
def add(a: int, b: int) -> int:
"""Add two numbers"""
return a + b
# Add a dynamic greeting resource
@mcp.resource("greeting://{name}")
def get_greeting(name: str) -> str:
"""Get a personalized greeting"""
return f"Hello, {name}!"
# Add a prompt
@mcp.prompt()
def greet_user(name: str, style: str = "friendly") -> str:
"""Generate a greeting prompt"""
styles = {
"friendly": "Please write a warm, friendly greeting",
"formal": "Please write a formal, professional greeting",
"casual": "Please write a casual, relaxed greeting",
}
return f"{styles.get(style, styles['friendly'])} for someone named {name}."
Pour le faire tourner
mcp dev server.py
#il vous sera demandé d'installer le paquet @modelcontextprotocol/inspector@0.17.0
Les méthodes d’instance ne sont invocable que sur un objet instantié.
hasOwnProperty(prop)
Vérifie si la propriété existe directement dans l’objet.
const user = { name: "Alice" };
console.log(user.hasOwnProperty("name")); // true
isPrototypeOf(obj)
Vérifie si l’objet existe dans la chaine d eprototype d’un autre objet
function Animal() {}
function Dog() {}
Dog.prototype = Object.create(Animal.prototype);
const d = new Dog();
console.log(Animal.prototype.isPrototypeOf(d)); // true
npm init -y
npm install express @prisma/client
npx tsc --init // va créer le fichier tsconfig.json
npx prisma --init //
Fetching latest updates for this subcommand...
✔ Your Prisma schema was created at prisma/schema.prisma
You can now open it in your favorite editor.
warn You already have a .gitignore file. Don't forget to add `.env` in it to not commit any private information.
Next steps:
1. Run prisma dev to start a local Prisma Postgres server.
2. Define models in the schema.prisma file.
3. Run prisma migrate dev to migrate your local Prisma Postgres database.
4. Tip: Explore how you can extend the ORM with scalable connection pooling, global caching, and a managed serverless Postgres database. Read: https://pris.ly/cli/beyond-orm
More information in our documentation:
https://pris.ly/d/getting-started
A ce stade un fichier .env et un répertoire prisma a été créé. Le .env contient la chaine de connexion, par défaut c’est pour du postgres, mais on va changer en mysql. Il faut créer la base prisma_demo_ts avant de faire les opérations de migration.
Maintenant on va constituer un fichier de modèle pour créer les tables dans
Création des fichiers de migration et migration dans la même commande !
npx prisma migrate dev --name add-user-contact-table
Environment variables loaded from .env
Prisma schema loaded from prisma\schema.prisma
Datasource "db": MySQL database "prisma_demo_ts" at "localhost:3306"
Applying migration `20251018092422_add_user_contact_table`
The following migration(s) have been created and applied from new schema changes:
prisma\migrations/
└─ 20251018092422_add_user_contact_table/
└─ migration.sql
Your database is now in sync with your schema.
Le script index.ts
import express from 'express'
import { PrismaClient } from '@prisma/client'
const app = express()
const prisma = new PrismaClient()
app.use(express.json())
// GET all users
app.get('/users', async (req, res) => {
const users = await prisma.user.findMany()
res.json(users)
})
// POST new user
app.post('/users', async (req, res) => {
const { name, email } = req.body
const user = await prisma.user.create({ data: { name, email } })
res.json(user)
})
app.listen(3000, () => console.log('🚀 Serveur démarré sur http://localhost:3000'))
Si vous avez un message d’avertissement relatif à verbatimModuleSyntax, commentez la ligne dans tsconfig.json.
Pour lancer la compilation du fichier index.ts, désignez le répertoire de sortie des fichier JS, c’est dans tsconfig.json, la clé outDir doit être décommentée : « outDir »: « ./dist »,
// Créez un répertoire pour votre projet Prisma et entrez dedans
npm init -y
npm i prisma --save-dev
Créez la base de données
CREATE DATABASE prisma_demo;
// Dans le fichier .env mettre cette chaine de connexion
DATABASE_URL="mysql://root:password@localhost:3306/prisma_demo"
npm install @prisma/client
npx prisma init
✔ Your Prisma schema was created at prisma/schema.prisma
You can now open it in your favorite editor.
Next steps:
1. Run prisma dev to start a local Prisma Postgres server.
2. Define models in the schema.prisma file.
3. Run prisma migrate dev to migrate your local Prisma Postgres database.
4. Tip: Explore how you can extend the ORM with scalable connection pooling, global caching, and a managed serverless Postgres database. Read: https://pris.ly/cli/beyond-orm
Un répertoire prisma a été créé dans le projet. Dans le fichier schema.prisma mettez le code ci-dessous :
generator client {
provider = "prisma-client-js"
}
datasource db {
provider = "mysql"
url = env("DATABASE_URL")
}
model User {
id Int @id @default(autoincrement())
email String @unique
name String?
createdAt DateTime @default(now())
}
Ce modèle crée une table User avec :
id auto-incrémenté
email unique
name optionnel
createdAt avec la date de création
Faire la migration
npx prisma migrate dev --name init
Cela crée :
table User
Génère le client Prisma dans node_modules/.prisma/client
un fichier de migration
Execution du script d’exploitation de la base de donnée :
import { PrismaClient } from '@prisma/client'
const prisma = new PrismaClient()
async function main() {
// Créer un utilisateur
const newUser = await prisma.user.create({
data: {
email: 'alice@example.com',
name: 'Alice',
},
})
console.log('Utilisateur créé :', newUser)
// Lire tous les utilisateurs
const users = await prisma.user.findMany()
console.log('Liste des utilisateurs :', users)
}
main()
.catch((e) => console.error(e))
.finally(async () => {
await prisma.$disconnect()
})
Ce script une fois exécuté va créer un utilisateur dans la base de données.
Visualiser la base de données avec Studio
npx prisma studio
Vue de Prisma Studio sur http://localhost:5555/
Syntaxe de l’ORM Prisma
// Trouver un user par email
const user = await prisma.user.findUnique({
where: { email: 'alice@example.com' },
})
// Mettre à jour un user
const updatedRecord = await prisma.user.update({
where: { id: 1 },
data: { email: 'yvon.huynh@hotmail.com' },
})
console.log('Updated utilisateur :', updatedRecord )
// Supprimer un user
// const deletedRecord = await prisma.user.delete({
// where: { email: 'yvon.huynh@gmail.com' },
// })
// console.log('Effacement utilisateur :', deletedRecord)
Récemment pour les besoin de développement d’une extension Chrome, j’ai cherché un moyen de rafraichir l’extension car le process de rafraichissement était un peu fastidieux. Il fallait aller dans le menu des extensions (chrome://extensions) et rafraichir en cliquant sur un bouton. Je voulais automatiser cette procédure comme le fait le plugin Liveserver.
Pour commencer il faut aller sur le site Ollama.com (à ne pas confondre avec Llama.com). Le lien Github, pour consulter les sources et la documentation sur les modèles
Téléchargez et installez. Une fois installé, vous aurez une opup comme ci-dessous :
Vous allez vous perdre dans la jungle des modèles. Vous connaissez sans doute aussi de nom Hugging Face, c’est un repository de modèle LLM open source. Une fois que vous avez installé Ollama, ouvrez un terminal et tapez la commande $ ollama, une liste de commande sera affichée. Allez sur le Github, vous verrz un tableau de modèles LLM, différentes capacité et taille, ça va de 1 Go à 404 Go ! En fonction de votre machine téléchargez celui que vous pouvez faire fonctionner !
La colonne parameters indique combien de paramètres est considéré par le modèle, comptez environs 1 giga de RAM pour 1 Giga (Billion milliards) de paramètres. Mon ordinateur fait 32 Giga de RAM, je peux aller avec le modèle à 30B paramètres.
Les commandes pour installer les LLM
ollama run llama2
Pour connaitres les différentes commande au sein du chat
/?
>>> /?
Available Commands:
/set Set session variables
/show Show model information
/load <model> Load a session or model
/save <model> Save your current session
/clear Clear session context
/bye Exit
/?, /help Help for a command
/? shortcuts Help for keyboard shortcuts
Use """ to begin a multi-line message.
Pour quitter :
/bye
Pour lister les modèles :
ollama list
.
Ecran du téléchargement du modèle, à la vue de la sortie terminal, ça ressemble à une image Docker
Test de llama2
La première chose que je constate, est que le modèle est vraiment limité, surtout quand vous avez l’habitude de vous amuser avec chatGPT ou Claude sur le web, donc sur les modèles les plus sophistiqués.
Par exemple je lui demande de me donner la recette du roesti, il me répond qu’il ne sait pas
Quand je lui demande la recette de la tarte tatin, il me liste en anglais (pas vraiment multilingue, ok pour la taille du modèle cependant !). Par contre comme il est hébergé en local il est très rapide. Je lui demande pourquoi il me répond qu’il n’a pas réussi à détecter (alors que je lui ai demandé en français), mais il me propose de donner la version française ce qu’il fit très bien.
Nous allons télécharger un autre modèle
Cette fois ci nous allons télécharger le modèle Mistral, équivalent en taille. Sur le repository, vous trouverez la commande dans le tableau
ollama run mistral
Après le téléchargement, il démarre le prompt automatiquement. Quand vous ferez bye, vous pourrez démarrer entre les deux modèles (Mistral ou llma2 en ligne de commande)
Pour effacer un modèle, vous avez la comamnde remove, mais pensez à faire ollama pour afficher les différentes commandes.
Et maintenant explorons l’API !
Eh oui c’est là que cela devient très intéressant car nous allons pouvoir exploiter un LLM depuis un programme pour automatiser nos tâche (notre GRAAL)
Ollama expose une API sur le localhost. Dans la barre des tâches, vous pouvez voir une image de Llama, cela veut dire que l’application Desktop est lancée, et donc que l’API est active. Mais si le desktop n’est pas llancé, vous pouvez toujours lancer le serveur en ligne de commande
ollama serve
En parlant de l’icone, vous pouvez accéder aux paramètres
Vous remarquez (j’espère) le slider pour définir la « mémoire » du LLM (la taille du contexte), ceci est utile pour se souvenir d’une conversation !
Vous pouvez exposer le LLM au réseau local (très intéressant !)
Installer le package Python ollama
Très simplement on va faire un script pour requêter Ollama par API avec pip install ollama. Si vous installez le paquet après avoir démarré l’environnement virtuel, il sera en local, si vous le faites hors environnement virtuels, il sera dans le système. Pour connaitre où est installé un package
#affiche les emplacements pouvant héberger les paquets
python -m site
# cherche un paquet en particuliers
python -m pip show <paquet>
#lister les paquets de l'environnement virtuel en cours
pip list
import ollama
client = ollama.Client()
model = "llama2"
prompt = "How to set up a venv?"
response = client.generate(model, prompt)
print(f"Response from {model}:")
print(response.response)
Si vous préférez que la réponse arrive morceau par morceau voici le script (il suffit de passer stream= True)
import ollama
client = ollama.Client()
model = "llama2"
prompt = "How to set up a venv?"
# Use the stream=True option
stream = client.generate(model=model, prompt=prompt, stream=True)
print(f"Response from {model}:\n")
for chunk in stream:
# Each chunk is a small piece of the model's output
print(chunk['response'], end='', flush=True)
print() # final newline
Ok là c’est mieux mais on peut wrapper les phrases (retour à la ligne quand ça déborde)
Avec retour à la ligne sans streaming
import ollama
import textwrap
import shutil
client = ollama.Client()
model = "llama2"
prompt = "How to set up a venv?"
response = client.generate(model=model, prompt=prompt)
terminal_width = shutil.get_terminal_size().columns
print(f"Response from {model}:\n")
print(textwrap.fill(response['response'], width=terminal_width))
Avec retour à la ligne avec streaming
import ollama
import shutil
import sys
client = ollama.Client()
model = "llama2"
prompt = "How to set up a venv?"
stream = client.generate(model=model, prompt=prompt, stream=True)
print(f"Response from {model}:\n")
terminal_width = shutil.get_terminal_size().columns
current_line = ""
for chunk in stream:
text = chunk["response"]
for char in text:
current_line += char
if len(current_line) >= terminal_width - 1:
print(current_line)
current_line = ""
# print remaining text
if current_line:
print(current_line)
Personnalisation du modèle
Avec un fichier de configuration, on peut agir sur la façon dont les réponse vont être apportées, il y a de nombreux paramètres qui font qu’un LLM va se comporer d’une certianes façon. Vous avez peut être remarqué que ChatGPT était plus jovial que Claude qui est plus sérieux. Perso j’aim bien cette touche.
Mettez Le fichier de personnalisation Modefile dans un répertoire et invoquez une commande sur ce fichier dans ce répertoire.
$ ollama create formabot -f ./Modelfile
# ici j'ai invoqué un modèle non présent ça met du temps à télécharger le modèle
On va lancer avec la commande run
$ ollama run formabot
>>> qui es tu?
# pour effacer le modèle
$ ollama rm formabot
Conclusion :
Dans sa forme, l’outil ressemble beaucoup à Docker (les commandes, les modèles). Voilà pour une première introduction de Ollama. Pourquoi est ce important d’avoir un LLM en local? Si vous voulez rester privé, avoir des temps de réponse rapide, et ne pas vous ruiner en crédit token, alors n’hésitez pas à utiliser un LLM open source, il y en a d’autres allez voir du côté de Deepseek et de HuggingFace.
Mettons nous dans le contexte d’une application avec front et back découplé. NodeJS/Express est le back avec une base de données, et le front par exemple est une application ReactJS. Toute l’application n’est que webservice, et l’on pourra tester l’application rien qu’avec Postman.
Ce dernier prend en charge l’authentification, grâce à la possibilité de stocker le token JWT et de le renvoyer à chaque requête.
Installation des packages NPM
Je suppose que vous avez déjà bootstrappé une application node/Express/Typescript, sinon allez visiter la page du lien. LEs paquet à installer sont jsonwebtoken, bcrypt et comme on travaille en typescript il faudra les fichier type pour l’autocomplétion. Je mets aussi mysql2 au cas où vous ne l’auriez pas installé.
Voici le code de la route (!) qui s’occupe de l’authentification
app.post('/api/auth', async (req: Request, res: Response) => {
const { email, password } = req.body
if (!email || !password) {
res.status(400).json({ message: "Email et mot de passe requis." });
}
try {
const [rows] = await pool.execute(
"SELECT id, email, password FROM utilisateurs WHERE email = ?", [email]
)
const users = rows as any[];
if (users.length === 0) {
res.status(401).json({ message: "Utilisateur inconnu." })
}
// vérification du mot de passe
const user = users[0]
const match = await bcrypt.compare(password, user.password);
if (!match) {
res.status(401).json({ message: "Mot de passe incorrect." });
}
// sinon on génère un JWT token
const token = jwt.sign(
{ id: user.id, email: user.email },
process.env.JWT_SECRET || "secretKey",
{ expiresIn: "24h" }
);
res.json({ token });
} catch (err) {
console.log(error);
res.status(500).json({ message: 'Erreur serveur' })
}
})
Je vous laisse mettre les imports qu’il faut. Aussi il vous faudra avoir la table utilisateurs pour
Requêter avec Postman.
Postman c’est comme un navigateur sans écran, en fait un navigateur est composé d’un écran et d’une antenne émettrice-réceptrice. Installez Postman, et démarrez votre serveur nodeJS, la route de l’authentification est http://localhost:3000/api/auth, faites une requête POST
Vous recevrez le JWT en réponse.
Stocker le JWT dans Postman
Copiez le token (sans les guillements et collez dans le champs avec à gauche la liste déroulante mis sur l’item Bearer Token.
Comprendre le fonctionnement du JWT
A chaque requêtes le serveur, en en-tête Authorization sera envoyé
requireAuth est un middleware, il va filtrer toutes les requêtes qui viennent d’un client, l’avantage du middleware est qu’on n’a pas besoin de faire la validation manuellement dans la route, c’est automatique. Je le mets dans le répertoire src/middleware
fichier middleware/auth.ts
import { Request, Response, NextFunction } from "express";
import jwt from "jsonwebtoken";
import dotenv from "dotenv";
dotenv.config();
// solution JWT Stateless simple
const JWT_SECRET = process.env.JWT_SECRET || "dev_secret";
;
const verifyJwt = <T = object>(token: string): T => {
return jwt.verify(token, JWT_SECRET) as T
}
export interface AuthRequest extends Request {
user?: any;
}
export const requireAuth = (req: AuthRequest, res: Response, next: NextFunction) => {
const authHeader = req.headers.authorization;
if (!authHeader || !authHeader.startsWith("Bearer ")) {
res.status(401).json({ message: "Missing or invalid authorization header" });
return;//le simple fait de mettre return permet à authHeader de ne plus avoir de undefined possible (enlever le return pour montrer l'erreur)
}
const token = authHeader.split(" ")[1];
if (!token) {
return res.status(401).json({ message: "Token invalide" });
}
try {
const payload = verifyJwt(token);
req.user = payload;
next();
} catch (err) {
res.status(403).json({ message: "Forbidden, vous êtes authentifié mais n'avez pas accès à la ressource, problème de permission" });
}
}
Je démarre une nouvelle série passionnante sur les extensions Google Chrome !
Les extension Google Chrome (ou sur autre navigateur) sont des script HTML/CSS/ Javascript qui permettent d’interagir avec le DOM du navigateur.
Ce que j’adore c’est l’interaction avec les éléments du DOM, quelques soit le site web, ce qui permet une grande variété d’application, pour être plus productif !
Nous allons démarrer avec une extension très simple : une extension qui permet de mettre en local les prompts qu’on a fait avec chatGPT. Il servira à organiser les prompts, marque ceux qu’on aime, sauvegarder la liste en local, et pourquoi pas en ligne pour permettre de les partager. Il permettra peut être de créer une branche pour faire des variantes de prompt, ce qui est impossible au moment où j’écris ces lignes.
Je tiens à souligner que c’est grâce à un LLM que je progresse plus vite dans l’élaboration d’une extension Google Chrome.
J4ai fait des extension très simple par le passé, avec TamperMonkey, mais je ne me suis jamais aventuré à faire des extension pour de vrai. Mais avec l’arrivée de chatGPT, je peux maintenant m’attaquer à des projets ambitieux. Attention je ne dis pas que je vais demander à chatGPT de tout faire, ici l’utilisatoin de chatGPT que je fais est en mode « discovery ». J’utilise chatGPT pour aller beaucoup plus vite pour ingurgiter de l’information éparpillée sur le net, ce que mettrait des jours à faire, désormais je ne mettrait qu’une demi-journée.
Mais cet article n’est pas de parler de chatGPT, mais des extensions de navigateur Google Chrome.
Quels fichiers faut il pour faire une extension Google Chrome?
A minima il vous faudra le fichier manifest.json qui décrit l’extension, et un fichier javascript de point d’entrée.
Pour les besoins de code PHP, vous devez vous connecter à la base de données avec PDO. Si vous n’avez jusqu’à présent fait une connexion qu’avec l’utilisateur postgres, vous ne pouvez faire ça avec ce dernier dans vos scripts PHP. Nous allons donc créer un utilisateur refschool.
Créer un utilisateur dans postgresql
Vous devez vous connecter avec l’utilisateur postgres, qui agit comme le superadministrateur, car vous ne pouvez pas vous connecter en root à postgresql, en fait c’est l’équivalent du root dans Mysql
sudo -u postgres psql // attention c'est un u minuscule
// postgresql
CREATE USER refschool WITH LOGIN PASSWORD '123';
GRANT CONNECT ON DATABASE devdb TO refschool;
GRANT USAGE ON SCHEMA public TO refschool;
GRANT SELECT, INSERT, UPDATE, DELETE ON ALL TABLES IN SCHEMA public TO refschool;
Notez que public est un SCHEMA et pas une table ! Si vous venez de MySQL comme moi, un SCHEMA est une table. Apparemment la logique de Postgresql est plus répandue du moins chez les grands systèmes de SGBDR comme SQLSERVER et ORACLE.
Création d’une table dans le SCHEMA public
CREATE TABLE public.users (
id SERIAL PRIMARY KEY,
name VARCHAR(100) NOT NULL,
email VARCHAR(150) UNIQUE,
age INTEGER,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);
// mention du SCHEMA public, ce dernier étant par défaut dans Postgesql
CREATE TABLE users (
id SERIAL PRIMARY KEY,
name VARCHAR(100) NOT NULL,
email VARCHAR(150) UNIQUE,
age INTEGER,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);
Principalement pour vous connecter à un terminal distant sans mot de passe. Le principe étant d’avoir une paire de clé privée/publique. Vosu déposez la clé publique sur le terminal distant, ensuite pour vous y connecter il suffit de ssh à l’adresse IP
Il faut d’abord installer OpenSSH, qui va vous donner les outils
Génération de la paire de clé SSH
ssh-keygen -t rsa -C "your_email@example.com"
Vous serez amené à entrer un mot de passe (optionnel) appelée passphrase.
Uploader la clé publique sur le serveur distant
Il s’agit d’uploader la clé dans le répertoire /home/user. An l’absence de logiciel FTP, vous pouvez faire un SSH. LE plus simple est de se logger en root dans le serveur distant et de copier à la mains les texte des clés publiques. Le plus simple eset de copier coller le texte de la clé publique et le coller dans le fichier authorized_keys du serveur.
Connectez vous en root et éditez le fichier authorized_keys.
Vous pouvez essayer de faire ce tuto dans un container docker sous Debian
On va d’abord créer un droplet, puis mettre à jour le package et installer Proftpd
apt update
apt install proftpd
On va créer un utilisateur FTP (pas un utiliser avec Shell), on est sous root
useradd yvon -d /home/yvon -m -s /bin/false yvon // ce user ne possède pas de shell, et son répertoire home est /home/yvon
passwd yvon
//définir le mot de passe
Le but est que l’utilisateur lorsqu’il se connecte avec Filezilla, voit le répertoire /home/yvon, pour y mettre ses fichiers
Puis on va configurer le fichier /etc/proftpd/proftpd.conf
//Afin de contraindre le répertoire à /home/yvon on doit avoir
DefaultRoot ~
// comme yvon n'a pas accès au shell
RequireValidShell off
// spécifier les port passif (intervalle de ports)
PassivePorts 49152 65534
Il faut ouvrir les port 21 et la plage de port dans
ufw allow 21/tcp
ufw allow 49152:65534/tcp
// vérifier le status
ufw status
To Action From
-- ------ ----
21/tcp ALLOW Anywhere
49152:65534/tcp ALLOW Anywhere
21/tcp (v6) ALLOW Anywhere (v6)
49152:65534/tcp (v6) ALLOW Anywhere (v6)
Faire un script bash pour envoyer des fichiers vers ce serveur FTP
Nous allons d’abord installer le client ftp si ce n’est déjà fait
apt install ftp
// upload d'un fichier (il faut créer le user et le login)
ftp -n 165.22.194.80 <<EOF
user yvon motdepasse
put fichier_local.txt
quit
EOF
On peut faire l’équivalent en script bash c’est plus sympa pour la simplicité
//script bash syncftp.sh
// on définit les variables
HOST=165.22.194.80
USER=yvon
PASS=123
FILE=date.log
ftp -n $HOST << EOF
user $USER $PASS
put $FILE
quit
EOF
Mettez les lignes dans l’ordre, au début j’ai fait une bêtise j’ai mis le put avant le user !
Voici une version un peu améliorée, va setter le mode de transfert en binary malgré que ce soit du texte, ceci pour ménager les caractères spéciaux, les retour chariots CLRF <-> LF, le ls va lister le fichier pour vérifier que le fichier est bien uploadé !
HOST=165.22.194.80
USER=yvon
PASS=123
FILE=date.log
ftp -n $HOST << EOF
user $USER $PASS
binary
put $FILE
ls
quit
EOF
Que contient ce cours Linux et administration de serveur web?
A partir d’une image Docker de Debian, on va installer différents éléments tels nginx, php-fpm, postgreSQL et faire tourner un serveur web. Nous allons voir la configuration d’un vhost, expliquer l’architecture client serveur, les DNS?
Puis on va installer un serveur FTP proftpD, nftable, fail2ban pour protéger le serveur web.
Puis on va faire un backup et un certificat autosigné, puis un certificat Let’s Encrypt
Nous allons aussi voir les commandes de base de Linux, les outils de base de Linux,
nft list ruleset
#Si vous avez le message même en étant root :
netlink: Error: cache initialization failed: Operation not permitted
#il faut lancer le container avec le flag --privileged
docker run --privileged -it <image_docker>
Rien n’apparait, il n’y a pas de règles on va en créer une, d’abord on va créer une table
nft add table inet filter
puis nft list ruleset
table inet filter {
}
C’est vide pour l’instant, on va ajouter une règle pour autoriser les connexion sur le port 22
nft add rule inet filter input tcp dport 22 accept
mais vous risquez d'avoir l'erreur
Error: Could not process rule: No such file or directory
add rule inet filter input tcp dport 22 accept
^^^^^
Comment ajouter une règle
nftable organise les règle en hiérarchie : table (conteneur de niveau supérieur) > chaine (groupe de règle dans une table) > règle (instruction de filtrage)
Types de tables:
ip : ipv4
ip6 : ipv6
inet : ipv4 + ipv6
arp : ARP
bridge : bridge
netdev : interface réseau
Création table puis chaine puis règle
# Créer la table inet filter (on vient de le faire)
nft add table inet filter
# Créer la chaîne input
nft add chain inet filter input { type filter hook input priority 0 \; policy accept \; }
# Maintenant ajouter votre règle SSH
nft add rule inet filter input tcp dport 22 accept
# lister les règles
nft list ruleset
table inet filter {
chain input {
type filter hook input priority filter; policy accept;
tcp dport 22 accept
}
}
Commandes de diagnostic
# voir une table spécifique
nft list table inet filter
# Voir le contenu d'une table spécifique
nft list table inet filter
# Voir les chaînes d'une table
nft list chains inet filter
# Voir une chaîne spécifique
nft list chain inet filter input
Un certificat autosigné ne sert que lors de la phase de développement. EN effet si vous l’utilisez en production, il y a aura des avertissements. Les certificats permettent une marque de confiance, donc d’une autorité tierce de confiance. De ce fait un certificat autosigné n’aura aucue valeur, puisuqe c’est l’éditeur de site qui le génère. Il faut que ce soit un tiers indépendant qui le fasse, comme par exemple Lets Encrypt. Ce dernier ne génère que des certificat ordinaires, mais utilisable en production. Si vous voulez des certificats plus qualitatifs, comme les certificats EV, il faudra les acheter sur des sites spécialisés.
Nous allons générer un certificat SSL autosigné
mkdir -p /etc/ssl/private/mycert && cd /etc/ssl/private/mycert
ou vous pouvez aller dans le répertoire mycert pour avoir une commande plus courte
cd /etc/ssl/private
mkdir -p /mycert && cd mycert
Le flag -p permet de créer les dossier parents manquant dans la commande mkdir
# Redirection HTTP vers HTTPS (optionnel mais recommandé)
server {
listen 80;
server_name phpsite;
return 301 https://$host$request_uri;
}
# Bloc HTTPS avec certificat autosigné
server {
listen 443 ssl;
server_name phpsite;
ssl_certificate /etc/ssl/private/mycert/selfsigned.crt;
ssl_certificate_key /etc/ssl/private/mycert/selfsigned.key;
root /var/www/phpsite;
index index.php index.html;
location ~ \.php$ {
include fastcgi_params;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_pass 127.0.0.1:9000;
}
}
Votre site non https va rediriger vers le https.
$ curl https://phpsite/info.php
// néanmoins vous aurez un erreur de type
curl: (60) SSL certificate problem: self-signed certificate
More details here: https://curl.se/docs/sslcerts.html
curl failed to verify the legitimacy of the server and therefore could not
establish a secure connection to it. To learn more about this situation and
how to fix it, please visit the web page mentioned above.
Ceci est dû au fait que ce soit un certificat autocertifié. Pour bypasser cette vérification, il faut rajouter le flag -k à la requête
curl -k https://phpsite/info.php
Redémarrer votre container docker et redémarrer les services
vous avez installé nginx, php-fpm, postgresql, et configuré votre vhost. Le soucis c’est la prochaine que vous faites un docker start <Id container> (après avoir stoppé votre container (ce ne sera pas le cas si vous fiates un exit de votre container), il faut redémarrer les services. Vous pouvez intégrer une commande
De même le vhost que vous avez ajouté dans /etc/hosts a disparu ! ceci est dû à la nature éphémère du container docker, mais heureusement il existe un flag pour ajouter le vhost quand vous faites un run
docker run -d \
--name mon-site \
-p 80:80 \
--add-host=phpsite:127.0.0.1 \
mon-image
// ce qui donne dans notre cas sauf qu'on est en mode interactif
docker run -it \
--name phpsite \
-p 80:80 \
--add-host=phpsite:127.0.0.1 \
debian-nginx
// il nous manque la commande bash pour démarrer php-fpm et nginx (remplacez le nom de l'image par votre image)
docker run -it \
--name phpsite \
-p 80:80 \
--add-host=phpsite:127.0.0.1 \
nginx_postgres_image \
bash -c "/usr/sbin/php-fpm8.2 -F && nginx -g 'daemon off;'"
// ce qui donne en une seul ligne
docker run -it --name phpsite -p 80:80 --add-host=phpsite:127.0.0.1 nginx_postgres_image bash -c "/usr/sbin/php-fpm8.2 -F && nginx -g 'daemon off;'"
// en non interactif
docker run -d --name phpsite -p 80:80 -p 443:443 --add-host=phpsite:127.0.0.1 nginx_postgres_image bash -c "/usr/sbin/php-fpm8.2 -F && nginx -g 'daemon off;'"
Attention avec la syntaxe ci-dessus pour le bash bash -c « /usr/sbin/php-fpm8.2 -F && nginx -g ‘daemon off;' », ça ne va pas marcher car php-fpm étant lancé en foreground, il ne laissera pas la main à nginx pour démarrer, donc il faut remplacer le double && par le simple & , qui va lancer php-fpm en background
On peut améliorer ceci en mettant dans un script bash. Nous pouvons aussi inclure le démarrage de postgresql afin d’avoir une stack complète pour développer.
Accéder au site phpsite depuis l’hôte
La partie intéressante est de se connecter à notre site dans docker depuis notre navigateur ou curl, car on a mappé les ports de docker et de l’hôte. Pour ce faire nous devons ajouter au fichier hosts de l’hôte : 127.0.0.1 phpsite.
// depuis l'hôte
curl -k https://phpsite/info.php
// depuis votre navigateur vous aurez un avertissement de site non sécurisé, confirmez l'exception.
Prochaine étape nous allons plutôt explorer les volumes docker afin de pouvoir héberger les scripts php sur notre hôte.
Les volumes sous Docker c’est quoi?
C’est un répertoire sur l’hôte, qui sert à herberger des fichiers de code, mais accessible par le container docker, voyez ça comme un mount d’un drive sur un système de fichier Linux. Cela permet de travailler plus facilement et efficacement avec des container Docker. En effet notreIDE préféré est sur notre hôte et pas sur un container docker.
Dans la suite, mon répertoire se trouve dans le drive E: sur Windows dans le répertoire volume_nginx
docker run -d --name phpsite -p 80:80 -p 443:443 -v E:\volume_nginx:/var/www/phpsite --add-host=phpsite:127.0.0.1 nginx_postgres_image bash -c "/usr/sbin/php-fpm8.2 -F & nginx -g 'daemon off;'"
// avec la ligne -v E:\volume_nginx:/var/www/phpsite on monte le répertoire hôte dans le container docker, du coup ce dernier va être masqué par le répertoire windows
// connextez vous en interactif dans le container en question
$ docker exec -it <idContainer> bash
// allez dans le répertoire /var/www/phpsite, il est vide pour l'instant mais créez un fichier index.php dedans et faites un ls vous verrez ce fichier. Félicitation vous avez réussi à connecter un volume !
Avouez que maintenant vous allez être beaucoup plus confortable pour faire un site web en php !
Générer un meilleur certificat SSL avec Let’s Encrypt
Avec une autorité externe les certificats sont de milleurs qualité. Let’s Encrypt délivre des certificats gratuitement et de grade production. MAIS il faut que votre site soit accessible depuis internet, car Let’s Encrypt va accéder à votre site pour installer des fichiers.
#installation de certbot
apt install certbot
# Génération du certificat
certbot certonly --webroot -w /var/www/html -d votre-domaine.com -d www.votre-domaine.com
Normalement si vous avez installé avec apt, pas besoin de créer un répertoire ni d’initialiser une base de données.
Nous allons maintenant lancer postgresql, la commande est un peut longue et vous ne pouvez pas lancer en root
postgres /usr/lib/postgresql/15/bin/postgres -D /var/lib/postgresql/15/main
"root" execution of the PostgreSQL server is not permitted.
The server must be started under an unprivileged user ID to prevent
possible system security compromise. See the documentation for
more information on how to properly start the server.
De plus si on veut ne pas taper cette commande il vaut mieux ajouter au PATH
export PATH="$PATH:/usr/lib/postgresql/15/bin"
La commande à faire est via un utilisateur non root, il faut créer un utilisateur
// création d'utilisateur
adduser refschool // il vaut mieux utiliser adduser car useradd nécessite de setter le password avec la commande passwd
// on ajouter refschool dans la liste de sudoer
usermod -aG sudo refschool // en fait on l'ajoute au groupe sudoer
Si vous avez l’erreur suivante : postgres: could not access the server configuration file « /var/lib/postgresql/15/main/postgresql.conf »: No such file or directory
c’est que la base de donnée a été initialisée mais ne contient pas le fichier de configuration postgresql.conf.
Nous allons initialiser la base dans un autre répertoire
Une base de données sera initialisée dans le répertoire /opt/postgres_data
Sortie de cette commande
The files belonging to this database system will be owned by user "postgres".
This user must also own the server process.
The database cluster will be initialized with locale "C". The default database encoding has accordingly been set to "SQL_ASCII". The default text search configuration will be set to "english".
Data page checksums are disabled.
fixing permissions on existing directory /opt/postgres_data ... ok
creating subdirectories ... ok
selecting dynamic shared memory implementation ... posix
selecting default max_connections ... 100
selecting default shared_buffers ... 128MB
selecting default time zone ... Etc/UTC
creating configuration files ... ok
running bootstrap script ... ok
performing post-bootstrap initialization ... ok
syncing data to disk ... ok
initdb: warning: enabling "trust" authentication for local connections
initdb: hint: You can change this by editing pg_hba.conf or using the option -A, or --auth-local and --auth-host, the next time you run initdb.
Success. You can now start the database server using:
/usr/lib/postgresql/15/bin/pg_ctl -D /opt/postgres_data -l logfile start
Attention lorsque vous arrêtez Postgresql, la commande pour le redémarrer est différente, en effet, on fait ici (ci-dessus) un initdb, qu’on fait une seule fois, pour les fois suivantes:
// à exécuter lorsque vous êtes loggé en utilisateur refschool (mais pas root)
sudo -u postgres /usr/lib/postgresql/15/bin/postgres -D /opt/postgres_data
Pratique des commandes principales de Postgresql
Une fois que vous êtes dans le prompt de Postgresql, vous pouvez faire les commandes suivantes:
Je rappelle qu’il faut démarrer postgresql avant, vous ne pouvez le faire en root, donc switchez sur un user normal et lancez la commande suivante :
// vous êtes en user normal (non root)
sudo -u postgres /usr/lib/postgresql/15/bin/postgres -D /opt/postgres_data
//puis dans un autre shell connectez vous avec la commande psql en tant que user postgres
psql -U postgres
lister les bases de données
\l ou \list
postgres=# \list
List of databases
Name | Owner | Encoding | Collate | Ctype | ICU Locale | Locale Provider | Access privileges
-----------+----------+-----------+---------+-------+------------+-----------------+-----------------------
devdb | devuser | SQL_ASCII | C | C | | libc | =Tc/devuser +
| | | | | | | devuser=CTc/devuser
postgres | postgres | SQL_ASCII | C | C | | libc |
template0 | postgres | SQL_ASCII | C | C | | libc | =c/postgres +
| | | | | | | postgres=CTc/postgres
template1 | postgres | SQL_ASCII | C | C | | libc | =c/postgres +
| | | | | | | postgres=CTc/postgres
(4 rows)
Choisir une base de donnés
Nous devons comme dans tous les sytème sde base de données choisir une base pour faire des requêtes
postgres=# \c devdb
You are now connected to database "devdb" as user "postgres".
// à noter que le prompt a changé
Créer une table et lister les tables
Coller ce code
devdb=# CREATE TABLE produit (
id SERIAL PRIMARY KEY,
nom VARCHAR(100) NOT NULL,
description TEXT,
prix NUMERIC(10,2) NOT NULL,
stock INTEGER DEFAULT 0,
date_creation TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);
devdb=# \dt
List of relations
Schema | Name | Type | Owner
--------+---------+-------+----------
public | produit | table | postgres
(1 row)
Accessoirement pour lister les schémas dans toutes les bases de données
\dt *.*
pour sortir du mode "pager" appuyez sur la touche "q"
Exécuter une requête SQL pour insérer des données
On va insérer des données :
devdb=# INSERT INTO produit (nom, description, prix, stock)
VALUES
('Iphone', 'Description du Iphone', 1999, 10),
('Samsung', 'Description du Samsung', 299, 5);
// afficher les données de la table avec un SELECT
// attention il faut respecter la casse
SELECT * FROM produit
Vous qui avez l’habitude de fonctionner avec Apache, vous allez voir une alternative intéressante avec Nginx, qui peut à la différence de Apache jouer plusieurs rôles, reverse proxy, load balancer, mise en cache.
Nous allons partir d’une image docker debian de base officielle
docker pull debian
docker run -it debian
Nous aurions pu faire un dockerfile pour installer les packages nécessaire mais nous allons essayer de faire une configuration minimaliste, sans systemd ni supervisor.
Installation des packages
nous aurons besoin de curl nginx vim php-fpm etc (on découvrira au fur et à mesure)
apt update
apt install nginx php-fpm curl vim
configuration du fichier vhost de phpsite
Ce fichier est à placer dans le répertoire /etc/nginx/sites-available/
server {
listen 80;
server_name phpsite;
root /var/www/phpsite;
index index.php index.html;
location ~ \.php$ {
include fastcgi_params;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_pass 127.0.0.1:9000;
}
}
la ligne include fastcgi_params est important, car permet à Nginx d’exécuter le PHP, sinon un curl vous renvoit le texte du code.
La ligne fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
Vous testez ce script avec la commande nginx -t qui vérifiera s’il n’y a pas d’erreur.
Pour rendre ce site actif il faut créer un lien symbolic dans le répertoire /etc/nginx/sites-enabled/ qui pointe vers ce fichiers de configuration de vhsot qu’on appelera phpsite.conf
Ainsi le navigateur va résoudre l’adresse phpsite en pointant vers 127.0.0.1 qui est en fait votre machine.
Le fichier php info.php
cd /var/www/phpsite
touch info.php
nano info.php
<?php
echo "Hello";
?>
Vous devez démarrer php-fpm pour prendre en charge l’exécution du php et démarrer nginx aussi
Démarrage des services pour accéder à un site en php
Démarrage de php-fpm
le fait qu’on n’utilise pas systemd ni supervisor nécessite qu’on démarre à la main php-fpm et utiliser le socket TCP et non le socket Unix
/usr/sbin/php-fpm8.2 -F
le -F fait démarrer php-fpm en foreground.
Démarrage de Nginx
nginx -g "daemon off;"
Cette commande évite de démarrer nginx en tâche de fond, comme ça on a les logs si jamais il y a une erreur. Le flag -g indique qu’on passe une directive globale au lancement, ça permet d’overrider une directive du fichier de configuration nginx.conf.
Erreurs et problèmes possibles
Si vous essayez d’atteindre une page php avec curl
curl http://phpsite/info.php
// n'oubliez pas d'ajouter dans le fichier /etc/hosts/ le vhost phpsite
vim /etc/hosts
// contenu du fichier
et que vous avez un erreur 502 Bad Gateway, c’est que php-fpm écoute sur un socket Unix et que Nginx est paramétré sur un socket TCP. Pour savoir quel type de configuration a php-fpm:
// commande pour savoir quel type de socket php-fpm utilise
grep -E "^listen" /etc/php/8.2/fpm/pool.d/www.conf
//Dans le fichier /etc/php/8.2/fpm/pool.d/www.conf, remplacez le socket Unix par le socket TCP.
listen = /run/php/php8.2-fpm.sock # socket Unix
listen = 127.0.0.1:9000 # socket TCP
Dans notre cas (fonctionnement sans systemd et supervisor, on va choisir les socket TCP.)
On va donc changer la configuration de php-fpm
vim /etc/php/8.2/fpm/pool.d/www.conf
on cherche la ligne où on a
listen = /run/php/php8.2-fpm.sock
pour remplacer par
listen = 127.0.0.1:9000
et on redémarre php-fpm et nginx
PHP ne s’exécute pas mais affiche le code à la place, Nginx n’arrive pas à communiquer avec php-fpm. Vérifiez que ce dernier soit bien démarré.
cela veut dire que le fichier est traité comme un fichier texte, vérifiez que vous avez inclus
Note : Créer une nouvelle image avec ces modifications
Créer une image avec toutes ces modifications, afin de ne pas avoir à refaire les manipulations, en somme préparer une image pour un usage.
Important avant de commiter
/!\ Quittez tous les process à l’intérieur du docker, quittez le docker et vérifiez que le process docker en question est stoppé avec docker ps.
Ensuite on va commiter le docker avec son id selon la syntaxe suivante:
docker ps -a // pour voir l'id du container
docker commit <nom_ou_id_du_conteneur> monimage:1.0
docker commit b425 monimage:1.0
Sauver l’image docker dans le repository distant (hub de docker)
Ensuite vous devez sauver cette image dans un repository, le plus commun est le hub de docker.com
// connexion avec le hub
docker login
// tagging de l'image avant de pouvoir l'envoyer dans le repository
docker tag debian-nginx refschool/debian-nginx:1.0
^ debian-nginx est l'image qu'on vient de créer
// push de l'image docker
docker push refschool/debian-nginx:1.0
Rappel de commandes Nginx sans Systemd et sans supervisor
démarrer en avant plan : nginx -g « daemon off »; »
test du fichier de configuration : nginx -t
arrêt : nginx -s stop
arrêt graceful : nginx -s quit (nginx arrête les connexions avant de s’arrêter
Dans quelle situation un serveur MCP est pertinent?
Un modèle LLM comme ChatGPT est généraliste et a été entrainé sur un dataset limité bien que grand. Il ne dispose pas d’une connaissance universelle. Mais avez vous remarqué qu’une IA a toujours réponse à tous néanmoins? quitte à vous sortir des insanités? qu’on appelle des hallucinations.
Pour éviter ce phénomène d’hallucination, qui résulte d’un trou dans sa connaissance, il faut pouvoir compléter avec des données supplémentaires. Seulement voilà, le modèle de chatGPT a été entrainé déjà (et c’est ultra coûteux d’entrainer une IA, tout le monde ne dispose pas les moyens de le faire.
La solution du RAG (Retrieval Augmented Generation)
Le principe repose sur le stockage dans une base vectorielle des données, avec une base de données vectorielle comme FAISS ou ChromaDB, puis de prompter la base au lieu de prompter chatGPT, le résultat de ce prompt est envoyé à chatGPT. (prompt augmenté).
C’est une bonne solution, et vraiment adapté à certaines situation comme chatPDF. Cependant c’est un peu lourd. Nous allons voir qu’Anthropic propose une solution qui marche dans le sens inverse mais qui semble être plus légère et performante (quoique différent).
La solution MCP (Model Context Protocol)
Cette solution à base de données structurée (et c’est là la différence avec la RAG) requiert à Claude (et non chatGPT puisque qu’au moment d’écrire cet article chatGPT ne le prend pas encore en charge), de faire un sorte de requête AJAX avec un serveur MCP pour contextualiser la réponse à un prompt.
MCP ouvre tout un univers de champs d’application très intéressant, tout en préservant l’anonymat des données.
Notre serveur MCP est simplement un serveur REST, le différence c’est ce n’est pas vous qui requêtez en AJAX mais c’est Claude qui va le requêter (on comprend mieux pourquoi les autres vendors d’IA ne l’ont pas encore implémenté)
employee_db.json est la base de données, mcp_manifest/json va décrire la façon dont les données seront formatées en input (venant de Claude) et en output (allant vers Claude).
Pour que Claude puisse lire le manifest.json, on peut le stocker sur une github page, ou un serveur accessible publiquement. On va notifier cette url à Claude via son interface graphique ou par API.
Le serveur REST doit être accessible publiquement, si vous le déployez en local il faut faire un tunnel vers votre serveur.
Comment utiliser ce système
Il faut que ce soit clair que dans ce cas de figure vous ne pouvez requêter Claude que par API. Quand est ce que Claude va savoir qu’il va avoir besoin de requêter le serveur MCP? C’est lui qui détermine quand il faut requêter le serveur MCP, quand il va s’apercevoir que le contexte lui manque et qu’il existe un serveur MCP décrit par le manifest.json existe.
Exemple de requête faite à Claude
vous pouvez faire en Javascript cette requête POST
POST /v1/messages
{
"model": "claude-3-opus-20240229",
"messages": [
{ "role": "user", "content": "Peux-tu me dire ce que fait Bruno Martin ?" }
],
"context_providers": [
{ "url": "https://ton-domaine.com/mcp_manifest.json" }
]
}
Pour exposer le site sur un serveur il suffit de simplement déployer sur un serveur. Une alternative serait de créer un tunnel SSH pour exposer votre site local à Claude.