Dec 18, 2025
Diego B.
8min Leer
NGINX es un servidor web de alto rendimiento ampliamente reconocido por su estabilidad, riqueza de funciones y bajo consumo de recursos.
Como proxy inverso, actúa como intermediario para las peticiones de los clientes a los servidores back-end, mejorando la seguridad, el rendimiento y la escalabilidad de las aplicaciones web.
En este artículo, aprenderás sobre el servidor proxy inverso NGINX, su papel en las arquitecturas web modernas y los pasos para configurarlo.
Te guiaremos a través del proceso de instalación y configuración para garantizar que tus aplicaciones se ejecuten de forma más eficiente y segura.

Un proxy inverso NGINX es una configuración de servidor que dirige el tráfico entrante a varios servidores back-end en función de la URL, garantizando una distribución eficaz de la carga y la accesibilidad a los recursos.
Un servidor proxy inverso NGINX va más allá de la simple redirección del tráfico, ya que desempeña un papel crucial en la mejora del rendimiento de las aplicaciones web.
Gestiona hábilmente tanto el contenido dinámico como el estático, dirigiéndolos a los servidores adecuados para un procesamiento y entrega óptimos.
Con NGINX Plus, los usuarios acceden a funciones mejoradas, como un equilibrio de carga superior, amplias capacidades de supervisión y medidas de seguridad reforzadas.
En entornos Kubernetes, NGINX destaca como controlador de entrada, orquestando el acceso externo a los servicios, un componente clave en el despliegue de aplicaciones escalables nativas de la nube.
Además, NGINX mejora la eficiencia de la red gracias a su funcionalidad de pasarela API, que simplifica la gestión del tráfico de red y garantiza un enrutamiento fiable a los servicios ascendentes.
En esencia, el proxy inverso NGINX actúa como puente entre los dispositivos cliente y los servidores back-end, como LiteSpeed o Apache, gestionando las peticiones entrantes en una configuración de proxy inverso.
Proceso de tramitación de solicitudes
Cuando un dispositivo cliente envía peticiones HTTP a tu aplicación web, estas peticiones llegan primero al servidor proxy inverso NGINX. A continuación, NGINX examina los detalles de la solicitud, como la URL y las cabeceras, para determinar la gestión adecuada.
Para las peticiones de contenido estático, NGINX optimiza la entrega sirviendo el contenido desde su caché, reduciendo significativamente los tiempos de carga.
Mientras tanto, las solicitudes de contenido dinámico que requieren procesamiento en tiempo real se reenvían al servidor back-end apropiado.
Toma de decisiones para el reenvío de servidores back-end
NGINX utiliza varios métodos de equilibrio de carga para decidir a qué servidor back-end reenviar las peticiones, como por ejemplo:
Configuraciones avanzadas
Para escenarios complejos, puedes configurar reglas NGINX basadas en cabeceras de petición, tipo de contenido e incluso módulos de código personalizados, lo que permite tomar decisiones de reenvío precisas.
Esta adaptabilidad permite a NGINX dirigir eficazmente el tráfico a los servidores web y de aplicaciones, y funciona como proxy de reenvío para las peticiones salientes cuando está configurado para ello.
Antes de configurar un proxy inverso NGINX en un servidor privado virtual (VPS), asegúrate de que dispones de los siguientes elementos esenciales para una configuración eficaz y sin problemas:
Te guiaremos a través de la configuración de un proxy inverso NGINX en un plan VPS de Hostinger que ejecuta una distribución Ubuntu 22.04.

Para configurar un proxy inverso NGINX, primero tienes que instalar el servidor NGINX en tu VPS. Sigue estos pasos para poner en marcha NGINX:
sudo apt update sudo apt upgrade -y
sudo apt install nginx -y
sudo systemctl status nginx
La salida debería indicar que el servicio NGINX está activo (en ejecución), de forma similar al ejemplo siguiente:
● nginx.service - A high performance web server and a reverse proxy server
Loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor preset: enabled)
Active: active (running) since Wed 2024-01-01 12:34:56 UTC; 2min 22s ago
Docs: man:nginx(8)
Main PID: 1234 (nginx)
Tasks: 2 (limit: 1152)
Memory: 5.3M
CGroup: /system.slice/nginx.service
├─1234 nginx: master process /usr/sbin/nginx -g daemon on; master_process on;
└─1235 nginx: worker processSi tu VPS tiene configurado un cortafuegos, también tienes que permitir el tráfico a NGINX. Para los sistemas de cortafuegos sin complicaciones (UFW), habilita el tráfico en los puertos adecuados con:
sudo ufw allow 'Nginx Full'
Cuando instalas NGINX, el sistema establece automáticamente varios directorios y archivos esenciales para su configuración y funcionamiento.
Organizar los archivos de configuración de NGINX es crucial para adaptar su funcionalidad a necesidades específicas, como gestionar diversas cargas de trabajo y dirigir eficazmente las peticiones a varios servidores.
Estructura básica del archivo de configuración de NGINX
El archivo de configuración principal de NGINX es nginx.conf, que se encuentra en /etc/nginx/. Este archivo contiene ajustes globales e incluye directivas para extraer configuraciones adicionales de otros archivos y directorios:
Directivas importantes de NGINX
Para utilizar eficazmente NGINX, debes familiarizarte con sus directivas clave:
Para configurar NGINX como proxy inverso, debes crear un nuevo archivo de configuración. Este archivo contendrá los bloques de servidor y las directivas necesarias para enrutar las peticiones. Sigue estos pasos:
cd /etc/nginx/sites-available/
sudo nano ejemplo.com
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://your_backend_server_ip;
proxy_set_header Host $host; # Forwarded host
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_redirect off;
}Sustituye tu_ip_servidor_backend por la dirección IP real de tu servidor back-end.
Ajustar el equilibrio de carga
Para configurar un equilibrador de carga, define un bloque ascendente y utiliza proxy_pass dentro de tu bloque de servidor para distribuir el tráfico entre varios servidores:
upstream myapp1 {
server backend1.example.com;
server backend2.example.com;
}
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://myapp1;
proxy_next_upstream error timeout;
# Additional settings...
}Manejar contenido estático
Para mayor eficacia, sirve contenido estático directamente desde NGINX utilizando un bloque de ubicación independiente:
server {
listen 80;
server_name example.com;
location / {
proxy_pass http://your_backend_server_ip;
# Proxy settings...
}
location /static/ {
root /path/to/static/files;
expires 30d;
}Ajuste fino de las directivas proxy
Personaliza la forma en que NGINX interactúa con tus servidores proxy utilizando varias directivas proxy_ para mejorar el rendimiento y gestionar eficazmente las peticiones proxy:
location / {
proxy_pass http://backend.example.com;
}location / {
proxy_pass http://backend.example.com;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}http {
proxy_cache_path /path/to/cache levels=1:2 keys_zone=my_cache:10m max_size=10g inactive=60m use_temp_path=off;
server {
location / {
proxy_pass http://backend.example.com;
proxy_cache my_cache;
}
}location / {
proxy_pass http://backend.example.com;
proxy_buffering off;
}location / {
proxy_pass https://backend.example.com;
proxy_set_header X-Forwarded-Proto https;
}location / {
proxy_pass http://backend.example.com;
proxy_buffer_size 4k;
}location / {
proxy_pass http://backend.example.com;
proxy_connect_timeout 60s;
proxy_read_timeout 60s;
proxy_send_timeout 60s;
}Una vez terminada la configuración de tu proxy inverso NGINX, es hora de activar la configuración, comprobar si hay errores de sintaxis y aplicar los cambios. Estos son los pasos:
sudo ln -s /etc/nginx/sites-available/ejemplo.com /etc/nginx/sites-enabled/
sudo nginx -t
Alternativamente, los clientes de VPS de Hostinger pueden utilizar Kodee para confirmar su configuración de NGINX. Abre el menú Asistente de IA Kodee en la barra lateral izquierda de tu panel de control VPS y escribe tu consulta de la siguiente manera:

Si se detecta algún problema con el proxy inverso NGINX, te indicará dónde está, permitiéndote solucionar y corregir los errores.
Recargar o reiniciar NGINX
Para aplicar tus cambios de configuración, puedes recargar o reiniciar el servidor NGINX.
sudo systemctl reload nginx
sudo systemctl restart nginx
A veces es necesario reiniciar para realizar cambios más significativos o para solucionar errores de NGINX.

En esta guía, has aprendido a configurar NGINX como servidor proxy inverso, abarcando la instalación, la configuración y las pruebas.
Gestionando y distribuyendo uniformemente las peticiones entrantes, te aseguras de que tu servidor se utiliza de forma óptima, y tus aplicaciones web funcionan sin problemas.
Utiliza estos pasos como punto de partida para mejorar el rendimiento, la seguridad y la escalabilidad de tu entorno de servidor con NGINX.
Esperamos que esta guía te haya sido de utilidad. Si tienes algún comentario o pregunta, escríbela en la sección de abajo. ¡Buena suerte!
Esta sección responderá a las preguntas más comunes sobre los servidores proxy inversos NGINX.
Utilizar un servidor NGINX proxy inverso puede mejorar el rendimiento equilibrando el tráfico entre varios servidores web.u003cbr /u003eu003cbr /u003eTambién mejora la seguridad y la escalabilidad en los centros de datos, por lo que es ideal para gestionar aplicaciones web.
Sí, puedes utilizar NGINX como proxy inverso para múltiples back-ends, incluso los que emplean tecnologías diferentes como Apache Tomcat. u003cbr /u003eu003cbr /u003eEsta configuración mejora la asignación de recursos y aumenta el rendimiento de otros servidores.
Cuando configures un proxy inverso NGINX, utiliza SSL para asegurar la transmisión de datos. Dado su papel como punto único de entrada, es crucial aplicar medidas de seguridad sólidas. u003cbr /u003eu003cbr /u003eAsegúrate también de configurar correctamente los WebSockets para mantener una comunicación segura y en tiempo real.
Sí, el uso de la caché del proxy inverso NGINX puede reducir los tiempos de carga y la demanda del servidor almacenando copias de los recursos a los que se accede con frecuencia. u003cbr /u003eu003cbr /u003eEsto es especialmente útil para microservicios y hosts virtuales, ya que agiliza la entrega de contenidos y mejora la experiencia del usuario.
Todo el contenido de los tutoriales en este sitio web está sujeto a los rigurosos estándares y valores editoriales de Hostinger.