Apr 09, 2025
Chaimaa C.
9minutes de lecture
NGINX est un serveur web très performant, largement reconnu pour sa stabilité, la richesse de ses fonctionnalités et sa faible consommation de ressources. En tant que proxy inverse, il joue le rôle d’intermédiaire entre les requêtes des clients et les serveurs dorsaux, améliorant ainsi la sécurité, les performances et l’évolutivité des applications web.
Dans cet article, vous découvrirez le serveur reverse proxy NGINX, son rôle dans les architectures web modernes et les étapes de sa mise en place. Nous vous guiderons tout au long du processus d’installation et de configuration afin de garantir un fonctionnement plus efficace et plus sûr de vos applications.

Un proxy inverse NGINX est une configuration de serveur qui dirige le trafic entrant vers différents serveurs back-end en fonction de l’URL, assurant ainsi une distribution efficace de la charge et l’accessibilité des ressources.
Un serveur proxy inverse NGINX va au-delà de la simple redirection du trafic, jouant un rôle crucial dans l’amélioration des performances des applications web. Il gère habilement les contenus dynamiques et statiques, en les acheminant vers les serveurs appropriés pour un traitement et une diffusion optimaux.
Avec NGINX Plus, les utilisateurs ont accès à des fonctionnalités améliorées telles qu’un meilleur équilibrage de la charge, des capacités de surveillance étendues et des mesures de sécurité renforcées.
Dans les environnements Kubernetes, NGINX excelle en tant que contrôleur d’entrée, orchestrant l’accès externe aux services – un élément clé dans le déploiement d’applications cloud-natives évolutives.
En outre, NGINX améliore l’efficacité du réseau grâce à sa fonctionnalité de passerelle API, qui simplifie la gestion du trafic réseau et garantit un routage fiable vers les services en amont.
À la base, le proxy inverse NGINX agit comme un pont entre les appareils clients et les serveurs dorsaux, tels que LiteSpeed ou Apache, en gérant les requêtes entrantes dans une configuration de proxy inverse.
Processus de traitement des demandes
Lorsqu’un appareil client envoie des requêtes HTTP à votre application web, ces requêtes atteignent d’abord le serveur reverse proxy NGINX. NGINX examine alors les détails de la requête, tels que l’URL et les en-têtes, afin de déterminer le traitement approprié.
Pour les demandes de contenu statique, NGINX optimise la livraison en servant le contenu à partir de son cache, ce qui réduit considérablement les temps de chargement. Parallèlement, les demandes de contenu dynamique nécessitant un traitement en temps réel sont transmises au serveur back-end approprié.
Prise de décision pour le transfert des serveurs de back-end
NGINX utilise diverses méthodes d’équilibrage de la charge pour décider vers quel serveur dorsal les requêtes doivent être acheminées, comme par exemple :
Configurations avancées
Pour les scénarios complexes, vous pouvez configurer les règles NGINX en fonction des en-têtes de requête, du type de contenu et même des modules de code personnalisés, ce qui permet de prendre des décisions précises en matière de transfert.
Cette adaptabilité permet à NGINX de diriger efficacement le trafic vers les serveurs web et les serveurs d’application, et fonctionne comme un proxy pour les requêtes sortantes lorsqu’il est configuré à cet effet.
Avant de configurer un reverse proxy NGINX sur un serveur privé virtuel (VPS), assurez-vous que vous disposez des éléments essentiels suivants pour une configuration fluide et efficace :
Nous allons vous guider dans la configuration d’un proxy inverse NGINX sur un VPS Hostinger fonctionnant sous Ubuntu 22.04.

Pour configurer un proxy inverse NGINX, vous devez d’abord installer le serveur NGINX sur votre VPS. Suivez les étapes suivantes pour installer NGINX et le faire fonctionner :
sudo apt update sudo apt upgrade -y
sudo apt install nginx -y
sudo systemctl status nginx
Le résultat doit indiquer que le service NGINX est “active (running)“, comme dans l’exemple suivant :
● nginx.service - A high performance web server and a reverse proxy server
Loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor preset: enabled)
Active: active (running) since Wed 2024-01-01 12:34:56 UTC; 2min 22s ago
Docs: man:nginx(8)
Main PID: 1234 (nginx)
Tasks: 2 (limit: 1152)
Memory: 5.3M
CGroup: /system.slice/nginx.service
├─1234 nginx: master process /usr/sbin/nginx -g daemon on; master_process on;
└─1235 nginx: worker processSi votre VPS a un pare-feu configuré, vous devez également autoriser le trafic vers NGINX. Pour les systèmes Uncomplicated Firewall (UFW), autorisez le trafic sur les ports appropriés avec :
sudo ufw allow 'Nginx Full'
Lorsque vous installez NGINX, le système met automatiquement en place plusieurs répertoires et fichiers essentiels pour sa configuration et son fonctionnement.
L’organisation des fichiers de configuration de NGINX est cruciale pour adapter ses fonctionnalités à des besoins spécifiques, tels que la gestion de diverses charges de travail et l’acheminement efficace des requêtes vers plusieurs serveurs.
Structure de base du fichier de configuration de NGINX
Le fichier de configuration principal de NGINX est nginx.conf, qui se trouve dans /etc/nginx/. Ce fichier contient des paramètres globaux et des directives permettant d’obtenir des configurations supplémentaires à partir d’autres fichiers et répertoires :
Directives NGINX importantes
Pour utiliser efficacement NGINX, vous devez vous familiariser avec ses directives clés :
Pour configurer NGINX en tant que reverse proxy, vous devez créer un nouveau fichier de configuration. Ce fichier contiendra les blocs du serveur et les directives nécessaires au routage des requêtes. Suivez les étapes suivantes :
cd /etc/nginx/sites-available/
sudo nano exemple.com
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://your_backend_server_ip;
proxy_set_header Host $host; # Forwarded host
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_redirect off;
}
}Remplacez your_backend_server_ip par l’adresse IP réelle de votre serveur back-end.
Configuration de l’équilibrage de la charge
Pour mettre en place un équilibreur de charge, définissez un bloc upstream et utilisez proxy_pass dans votre bloc serveur pour répartir le trafic entre plusieurs serveurs :
upstream myapp1 {
server backend1.example.com;
server backend2.example.com;
}
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://myapp1;
proxy_next_upstream error timeout;
# Additional settings...
}
}Gestion du contenu statique
Pour plus d’efficacité, servez le contenu statique directement à partir de NGINX en utilisant un bloc de location séparé :
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://your_backend_server_ip;
# Proxy settings...
}
location /static/ {
root /path/to/static/files;
expires 30d;
}
}Affiner les directives Proxy
Personnalisez la façon dont NGINX interagit avec vos serveurs mandataires en utilisant diverses directives proxy_ pour améliorer les performances et gérer efficacement les requêtes mandataires :
location / {
proxy_pass http://backend.example.com;
}location / {
proxy_pass http://backend.example.com;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}http {
proxy_cache_path /path/to/cache levels=1:2 keys_zone=my_cache:10m max_size=10g inactive=60m use_temp_path=off;
server {
location / {
proxy_pass http://backend.example.com;
proxy_cache my_cache;
}
}
}location / {
proxy_pass http://backend.example.com;
proxy_buffering off;
}location / {
proxy_pass https://backend.example.com;
proxy_set_header X-Forwarded-Proto https;
}location / {
proxy_pass http://backend.example.com;
proxy_buffer_size 4k;
}location / {
proxy_pass http://backend.example.com;
proxy_connect_timeout 60s;
proxy_read_timeout 60s;
proxy_send_timeout 60s;
}Une fois la configuration de votre proxy inverse NGINX terminée, il est temps d’activer les paramètres, de tester les erreurs de syntaxe et d’appliquer les changements. Voici les étapes à suivre :
sudo ln -s /etc/nginx/sites-available/example.com /etc/nginx/sites-enabled/
sudo nginx -t
Les clients du VPS Hostinger peuvent également utiliser Kodee IA pour confirmer leur configuration NGINX. Ouvrez le menu Assistant IA Kodee depuis la barre latérale gauche de votre tableau de bord VPS, puis saisissez votre invite comme ceci :

Si un problème de proxy inverse NGINX est détecté, il indiquera où il se trouve, ce qui vous permettra de le résoudre et de le corriger.
Recharger ou redémarrer NGINX
Pour appliquer les changements de configuration, vous pouvez recharger ou redémarrer le serveur NGINX.
sudo systemctl reload nginx
sudo systemctl restart nginx
Le redémarrage est parfois nécessaire pour des changements plus importants ou pour dépanner les erreurs de NGINX.

Dans ce guide, vous avez appris à configurer NGINX en tant que serveur proxy inverse, en couvrant l’installation, la configuration et les tests.
En gérant et en distribuant uniformément les requêtes entrantes, vous vous assurez que votre serveur est utilisé de manière optimale et que vos applications web fonctionnent sans problème. Utilisez ces étapes comme point de départ pour améliorer les performances, la sécurité et l’évolutivité de votre environnement serveur avec NGINX.
Cette section répondra aux questions les plus courantes concernant les serveurs mandataires inversés NGINX.
L’utilisation d’un serveur proxy inverse NGINX permet d’améliorer les performances en équilibrant le trafic entre plusieurs serveurs web. Il renforce également la sécurité et l’évolutivité au sein des centres de données, ce qui en fait un outil idéal pour la gestion des applications web.
Oui, vous pouvez utiliser NGINX comme proxy inverse pour plusieurs backends, même ceux qui utilisent des technologies différentes comme Apache Tomcat. Cette configuration améliore l’allocation des ressources et stimule les performances des autres serveurs.
Lors de la configuration d’un proxy inverse NGINX, utilisez SSL pour sécuriser la transmission des données. Étant donné son rôle de point d’entrée unique, il est crucial d’appliquer des mesures de sécurité solides. Veillez également à configurer correctement les WebSockets pour maintenir une communication sécurisée en temps réel.
Oui, l’utilisation de la mise en cache du proxy inverse NGINX peut réduire les temps de chargement et la demande du serveur en stockant des copies des ressources fréquemment consultées. C’est particulièrement pratique pour les microservices et les hôtes virtuels, car cela permet de rationaliser la diffusion du contenu et d’améliorer l’expérience des utilisateurs.
Tout le contenu des tutoriels de ce site est soumis aux normes éditoriales et aux valeurs rigoureuses de Hostinger.