Et si vos e-mails s’occupaient d’eux-mêmes ?
Entre newsletters, rappels automatiques, notifications et messages importants, notre boîte mail déborde. Et souvent, un message critique passe à la trappe.
Mais imaginez : et si chaque e-mail important était automatiquement transformé en tâche à traiter, classée dans un gestionnaire comme Notion, ClickUp ou autre ? Et si tout cela se faisait grâce à une IA hébergée chez vous, sans dépendre d’un service cloud ?
C’est exactement ce que permet n8n, un outil d’automatisation open source, associé à une intelligence artificielle locale.
Ce template n8n, que vous pouvez télécharger gratuitement ci-dessous, surveille votre boîte Gmail, identifie automatiquement les e-mails importants nécessitant une action de votre part (y compris les logs techniques), et les transforme immédiatement en tâches claires dans Google Tasks.
Pourquoi utiliser une IA locale avec n8n ?
Confidentialité : vos données ne quittent pas votre serveur
Autonomie : plus besoin d’API tierces coûteuses
Flexibilité : vous pouvez entraîner ou adapter le modèle à votre contexte métier
Dans cet exemple, j’utilise Ollama pour héberger un modèle IA (ex Gemma 3, Qwen3, Mistral, etc. ) en local, que je connecte à n8n pour analyser le contenu des e-mails.
Configuration initiale de votre serveur VPS
Pour faire tourner ce système, j’ai choisi une configuration sobre mais redoutablement efficace : un VPS chez Hostinger avec n8n déjà préinstallé , équipé d’un processeur unique, à 6,49 €/mois. Ce petit budget cache un vrai potentiel : suffisamment de puissance pour faire tourner Gemma 3:4B en local — un modèle léger mais largement capable de prendre en charge les analyses de contenu, les arbitrages contextuels et les résumés intelligents nécessaires à la création automatique des tâches dans Google Tasks.
Installation d’Ollama et Gemma3 (4b dans notre cas)
Nous allons installer Ollama sur notre serveur n8n Hostinger via Docker.
Ollama
Lancez le terminal de navigateur de votre VPS Hostinger et exécutez cette ligne de commande :
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Tester l’installation :
ollama --version
Vous devriez voir quelque chose comme « ollama version 0.X.X »
Rendez-vous maintenant sur votre application n8n. Créez un « Credentials » Ollama et ajoutez http://ollama:11434 dans Base URL.
Si tout se passe correctement vous devriez voir le message « Connection tested successfully ».
Retournons sur le terminal de navigateur.
Gemma 3:4b
Téléchargez et configurez la variante Gemma 3 par défaut en saisissant la commande suivante :
ollama pull gemma3:4b
Une fois le téléchargement terminé, vous pouvez vérifier que le modèle est disponible à l’aide de la commande suivante :
ollama list
Enfin, pour tester le modèle et commencer à générer des réponses, saisissez la commande suivante :
ollama run gemma3 "Marseille au coucher du soleil, c’est..."
Téléchargez et installez le workflow
Téléchargez gratuitement l’automatisation au format .json et importez-la simplement dans votre instance n8n
Personnalisez votre automatisation
Pour que le workflow sache détecter si un e-mail vous est personnellement adressé, vous devez préciser votre prénom ou votre adresse e-mail dans la variable « Mon prénom » à l’étape 2.

Vous souhaitez aller plus loin ?
Ce workflow n’est qu’un point de départ. Il peut être entièrement personnalisé selon vos besoins spécifiques :
Intégration à d’autres boîtes mail (Outlook, IMAP, ProtonMail…)
Connexion à d’autres outils de productivité comme Notion, Trello, ClickUp ou même Slack
Ajout de filtres intelligents selon le contexte, le ton du message ou les mots-clés
Génération de résumés automatiques pour chaque e-mail important
Ou encore, déploiement sur un serveur dédié haute disponibilité
👉 Avec un peu d’imagination, vous pouvez transformer chaque flux d’informations en actions concrètes, sans abonnement et en toute autonomie.
Alors, prêt à reprendre le contrôle de vos e-mails et à automatiser intelligemment votre quotidien ?