944 063 154

Blog

Categoría: Sistemas TI

Contenedores de software para empaquetar aplicaciones

Publicado enSistemas TI en noviembre 13, 2019 10:00 am

Actualmente un desarrollador es capaz de crear código y de distribuirlo sin problemas. Antes estas labores que estaban diferenciadas entre desarrolladores y administradores de sistemas, se unen en la figura del DevOps. Esto no quiere decir que ninguna de las profesiones deje de existir, sino que existe una nueva que une lo mejor de cada una de ellas. Para haber podido dar este paso ha sido fundamental la aparición del contenedor de software.

¿Qué es un contenedor de software?

Los contenedores de software son como esos enormes contenedores que se transportan en barco y que contienen diferentes tipos de mercancías. Si bien en este caso puede que unos productos y otros no tengan nada que ver entre sí, todo lo que se encuentra dentro de un contenedor de software es necesario para poder ejecutar una aplicación en otro lugar. Así, dentro de un contenedor de software se encontrará el código, las librerías necesarias y cualquier tipo de configuración que permiten a dicha aplicación funcionar correctamente. Podríamos decir que un contenedor de software es como un sistema completo virtualizado pero reducido a su mínima expresión; que solo necesita el sistema operativo del servidor que lo contiene para funcionar.

Estos contenedores acaban con los típicos problemas entre entornos de desarrollo y producción. Puesto que todo lo necesario se encuentra dentro del contenedor, es posible hacer pruebas de una aplicación sin tener que preocuparse por si el código se rompe. Cualquier cambio que se vaya a realizar se hará de la forma más segura. Igualmente, en el caso de utilizar diferentes versiones de lenguajes de programación o cualquier elemento de software incluyendo el sistema operativo.

Dentro de un contenedor de software está todo lo necesario para que cualquier aplicación pueda ejecutarse correctamente. Además, al incluirse un archivo de configuración, es posible que cualquier desarrollador o administrador de sistemas pueda trabajar con el contenido del contenedor de software sin necesidad de conocer el funcionamiento de la aplicación.

¿Docker o Kubernetes?

Aunque se trata de sistemas relacionados, cada uno tiene sus propias funciones. Por ello, no es posible elegir entre uno u otro, sino que es necesario utilizar los dos.

Por un lado, Docker es un gestor de contenedores de código abierto; es decir, una plataforma open source que permite crear, estandarizar y distribuir aplicaciones en contenedores. Un entorno en el que desarrollar aplicaciones ligeras al no ser necesario incluir en el contenedor un sistema operativo. Mientras que Kubernetes es un orquestador de contenedores. Es decir, el encargado de manejar los procesos que se llevan a cabo dentro de un contenedor de software creado a partir de Docker.

A medida que el número de aplicaciones o contenedores de software va creciendo, es posible que Docker ya no sea suficiente para gestionarlo. Se requiere de una plataforma de orquestación que se encargue de hacer funcionar cada contenedor de software bajo la misma arquitectura. Como si fuese un director de orquesta Kubernetes se ocupa de que todo lo desarrollado en Docker funcione bien. La principal ventaja de Kubernetes es que puede ser utilizado en cualquier lugar y sobre todo tipo de infraestructuras. Un orquestador como Kubernetes se encargará de crear y reconfigurar servidores, monitorizar y realizar las configuraciones necesarias para que las aplicaciones que se encuentran dentro de un contenedor de software estén siempre operativas. El propósito no es otro que automatizar las tareas para tener un mejor control de una infraestructura.

Ni la idea de los contenedores ni del orquestador son nuevas, pero sí se han hecho más populares en los últimos años. Así, la idea de los contenedores se remonta a la virtualización de sistemas y el concepto de orquestador, entendido al modo de Kubernetes, está relacionado con Google, que ya contaba con su propio sistema antes de que apareciera Kubernetes. La principal función de estos dos sistemas es permitir que las aplicaciones puedan funcionar correctamente por sí mismas, y también en relación a las demás. Hasta el punto de que el sistema no requiera de la interacción humana para poder funcionar.

Contenedores vs máquinas virtuales

Es muy común confundir un contenedor de software con técnicas de virtualización. La virtualización es una tecnología que permite crear diferentes máquinas virtuales a partir de un único elemento físico. Cada una de estas máquinas virtuales pueden tener su propio sistema operativo y una configuración específica, a pesar de estar ejecutándose en una misma máquina física que puede tener unas características diferentes.

La virtualización es una de las técnicas que han posibilitado la tecnología cloud, tanto para crear diferentes servidores cloud en una misma máquina física, como para permitir que cada uno de ellos utilice un sistema operativo diferente. Así, la virtualización permitió dejar de utilizar máquinas físicas como única forma de aislar a un cliente de los demás, con el ahorro económico, de espacio e impacto ambiental que eso supone.

La principal diferencia entre un contenedor de software y una máquina virtual es que los contenedores no requieren de la copia del sistema operativo. Esto se debe a que comparten el mismo núcleo que la máquina en la que se ejecutarán, haciendo que el peso del contenedor se reduzca. Así, mientras que una máquina virtual ocupará varios gigas, un contenedor de software se reduce a unos cuantos megas.

En los últimos años los contenedores de software han avanzado mucho, hasta el punto de convertir una tecnología de nicho en un estándar para desplegar software. A pesar de ello, aún queda mucho por hacer en relación a ello.

Amplía el espacio de tu servidor con soluciones de almacenamiento: NAS y SAN

Publicado enSistemas TI en noviembre 6, 2019 10:00 am

A medida que los proyectos van creciendo es muy probable que los recursos iniciales que se contrataron no sean suficientes para garantizar el correcto funcionamiento del servidor y de los sitios web que se alojan en él. En función de las características de cada proyecto web es probable que lo recomendable sea aumentar proporcionalmente los recursos del servidor cloud escalando a un plan superior, pero también es posible que solo se necesite ampliar uno de los recursos, por ejemplo, el espacio en disco del servidor cloud. En estos casos lo más recomendable es optar por otro tipo de almacenamiento: NAS y SAN. Dos soluciones de almacenamiento en red que ayudan a almacenar la información de una forma segura ante cualquier imprevisto y que con mucha frecuencia tienden a confundirse.

Almacenamiento NAS

NAS (Network Attached Storage) es una forma de almacenamiento que está conectada a la red de una empresa y que suele considerarse parte del propio servidor. Para ello es posible acceder a través de NFS (sistema de archivos de red), CIFS o FTP, aunque también puede hacerse a través de HTTP.

Ideal para empresas pequeñas, optar por un almacenamiento NAS es una opción que no supone un gran desembolso económico. Por un precio reducido al mes es posible contar con mayor espacio en el que almacenar bases de datos y copias de seguridad en un almacenamiento NAS que destaca su disponibilidad; ya que este espacio se integra en la red de forma que siempre estará a disposición de los usuarios, servicios o dispositivos que quieran utilizarlo.

Optar por un almacenamiento NAS es una buena opción para albergar archivos que se solicitan con frecuencia en un entorno virtualizado. Además de ser escalable, NAS permite gestionar con rapidez un gran número de archivos. De esta forma, se puede disponer de una mayor capacidad de espacio en disco en el servidor sin necesidad de pagar más por otros recursos que pueden no ser necesarios; como el aumento de RAM o más procesadores.

¿Qué es una red de área SAN?

Las redes de área de almacenamiento SAN (Storage Area Network) son una forma de añadir un espacio extra al disco de un servidor o un conjunto de servidores con alto rendimiento. A diferencia de NAS, un almacenamiento SAN actúa como si formara parte de los componentes físicos del servidor, por lo que actúa en local. Por ello, son la solución perfecta para alojar bases de datos empresariales o de páginas web o tiendas online con un gran tráfico.

Al actuar como un almacenamiento ‘dentro del servidor’, cualquiera de los servidores cliente pueden leer y escribir sobre él, algo que no es posible en NAS. De esta forma se reducen los tiempos de respuesta y, además, se evita un consumo excesivo de ancho de banda; ya que no la información no tiene que salir del servidor y el acceso a los datos es instantáneo. Todo esto permite configurar máquinas muy potentes que permitan escalar sin límites la capacidad de una red.

¿En qué se diferencian NAS y SAN?

NAS y SAN son soluciones de almacenamiento complementarias pero que generalmente rivalizan entre sí. No todas las empresas pueden permitirse contar con las dos formas de almacenamiento y, para que decantarse por una u otra sea más sencillo, estas son sus principales diferencias:

  • Mientras que NAS recurre a las redes TCP/IP para conectarse con el servidor principal, SAN hace lo propio a través de una red de alta velocidad.
  • NAS es un sistema basado en archivos, SAN en bloques.
  • El rendimiento que ofrece una red SAN es mucho mayor que el de NAS, de ahí que se recomienden en sitios web de gran tráfico. Por el contrario, NAS, además de peor rendimiento también tiene más latencia, aunque esto puede compensarse con una red a mayor velocidad.
  • El coste de contratar NAS y SAN no tiene nada que ver. Por ser más simples, los dispositivos NAS también son más baratos que un SAN. Lo mismo ocurre con su gestión, mientras que NAS es fácilmente administrable, SAN requerirá de un técnico profesional.

Como en muchos otros servicios, como un VPS o un cloud, la elección de una solución de almacenamiento u otra está relacionada con el tipo de proyecto y sus necesidades.

¿Conseguirá IPv6 desterrar a su antecesor IPv4?

Publicado enSistemas TI en octubre 16, 2019 10:00 am

Igual que existen los números de teléfono para llamar, aunque cada vez menos, a alguien con quien tenemos que hablar, en internet existen las direcciones IP. Una dirección IP no es más que un número que identifica a los millones de dispositivos que se conectan a internet, algo así como la matrícula de tu ordenador, de tu teléfono móvil o del servidor en el que se encuentra alojada tu página web. Hasta ahora las direcciones IP que hemos venido utilizando pertenecen a la cuarta versión del protocolo: IPv4. Un rango de direcciones que, oficialmente, se acabaron el 31 de enero de 2011 y que serán reemplazadas por IPv6.

¿Qué es IPv6?

Ante la popularización de internet y el aumento de dispositivos conectados, ya desde finales de los 90 se preveía la necesidad de un nuevo protocolo. Nuevas direcciones para todos los dispositivos que estaban por venir; de otra forma, al no ser posible ofrecer más direcciones IP el crecimiento de internet se estancaría. Por este motivo comenzó el desarrollo del nuevo protocolo IPv6, aunque no se empezara a utilizar hasta el cambio de siglo.

También conocido como IP Next Generation o IPng, IPv6 cuadruplica los bits que contiene la IP y el número de combinaciones posibles de IPv4. Así, el número de direcciones IP ha pasado de 4.300 millones a más de 340 sextillones. Más allá del incremento de IPs, IPv6 ha conseguido superar algunas limitaciones más de IPv4, como la eficiencia de los paquetes y un aumento de la seguridad respecto a su antecesor.

Nuevo protocolo, otros problemas

A pesar de que IPv6 consigue salvar muchas de las deficiencias de las anteriores versiones del protocolo IP, es totalmente incompatible con IPv4. Aunque el usuario no llegue a notar nada ya que los routers son capaces de lidiar con los dos protocolos, lo cierto es que para que dos equipos con diferentes versiones de IP establezcan conexión es necesario un intermediario. Aún así puedes comprobar si tus dispositivos son compatibles o utilizan IPv6 de una forma muy sencilla.

Cuando llegó el fin de IPv4 algunos organismos e instituciones sugirieron la adopción de IPv6 cuanto antes. Pese al dramatismo que parecía envolver la situación, el mensaje no caló demasiado entre empresas, proveedores y usuarios. Así, según las estadísticas de Google, desde enero de 2009 hasta ahora la adopción de IPv6 apenas llega al 25%, siendo Estados Unidos, India y Alemania los países que recurren a la nueva versión del protocolo IP; en España apenas llega a alcanzar el 3%. Una adopción que ha aumentado a buen ritmo en lo que llevamos de década, pero que no parece vaya a crecer mucho más en los próximos años.

El estancamiento de IPv6 se debe principalmente a la situación de IPv4. En la teoría, el número de direcciones IP de la versión 4 lleva años agotado, pero no así en la práctica. Desde hace algunos años ha surgido la figura del IP bróker, personas o empresas que se dedican a revender direcciones IP que están en desuso. Con este movimiento la necesidad de adoptar el nuevo protocolo IP deja de ser tan urgente, tanto que ya se considera a IPv6 una alternativa ante el verdadero fin de IPv4.

¿Qué es un servidor proxy?

Publicado enSistemas TI en octubre 2, 2019 10:00 am

Tanto si estás familiarizado con la informática como si no, es muy probable que en algún momento hayas oído hablar de servidor proxy. Un servicio que proporciona privacidad en internet y que es habitual confundir con una VPN. A pesar de que ambas formas de conexión nada tienen que ver.

¿Qué es un servidor proxy?

Un proxy es un sistema que actúa de intermediario entre dos dispositivos informáticos. Generalmente, este tipo de conexiones suelen ser entre un ordenador o un Smartphone e internet. Un servidor proxy suele utilizarse para navegar de forma privada, ya que el proxy evita que se establezca una conexión directa entre el dispositivo que solicita la información y el que la contiene.

En líneas generales, un servidor proxy no es más que un equipo informático independiente que intercepta las conexiones entre un cliente y el servidor de destino. Así, esta intermediación evita que al solicitarse los datos se recoja información del equipo desde el que se lanza la petición. Así, siempre que un dispositivo (A) solicita información a otro (C), existirá alguien en el medio de la transmisión (B) que se encarga de solicitar y devolver los datos que se han pedido. De esta forma, la información se envía, a través del proxy, a un usuario anónimo.

¿Para qué se utiliza un proxy?

Más allá de la privacidad que proporciona al enmascarar la IP del equipo que solicita unos determinados recursos, un servidor proxy tiene otras utilidades que permiten mejorar la navegación. Por ejemplo, al funcionar como caché no es necesario volver a pedir al servidor de destino un determinado contenido, puesto que estará almacenado en la memoria de la aplicación. De esta forma el contenido se sirve de forma instantánea, haciendo que la navegación web sea más fluida. Además, el servidor proxy permite controlar el acceso de usuarios y otorgar permisos, ahorrar recursos o establecer conexiones más seguras.

Pese a sus ventajas, los servidores proxy también tienen aspectos negativos. El control de accesos no es perfecto, ya que un mismo servidor proxy puede recibir un gran número de peticiones de diferentes usuarios y es posible que se acabe otorgando permisos a un usuario que no tiene acceso. Además, a pesar de que el cacheo permita mejorar el rendimiento, es posible que la información almacenada en caché esté desactualizada, haciendo que el servidor proxy devuelva respuestas antiguas.

¿Servidor proxy o VPN?

Por su capacidad para conectarse a equipos remotos y actuar como intermediario entre dos dispositivos, es muy común confundir un servidor proxy con una conexión a través de VPN. Aunque es cierto que los dos servicios tienen algún punto en común, como el anonimato que ofrece al ocultar la dirección IP del equipo que solicita la información, en cuanto a seguridad no tienen nada que ver.

Mientras que el servidor proxy es una máscara que cubre a un equipo para navegar por internet, la VPN además de proporcionar mayor privacidad, encripta la conexión. Un servidor proxy solo oculta la dirección IP original del equipo que solicita la información, pero no añade mayor seguridad, además de actuar únicamente sobre una aplicación determinada, como un navegador, no a nivel de red. Para privatizar y asegurar todas las conexiones que salgan de un equipo es necesaria una VPN, un servicio básico si, por ejemplo, vamos a acceder a herramientas corporativas desde una red pública.

Por hacerlo más simple, es como si un servidor proxy fuera una careta de superhéroe, mientras que una VPN es un acceso a un club de superhéroe. Con el primero podrás disfrazarte de Batman y hacerte pasar por él, pero no podrás formar parte de sus amigos. Ahora la decisión de qué quieres ser, o qué te conviene más utilizar si una VPN o un servidor proxy, es tuya. Tu privacidad y seguridad en internet son lo que tú necesitas que sean.

¿Qué es el percentil 95 y para qué se utiliza?

Publicado enSistemas TI en mayo 22, 2019 10:00 am

Generalmente utilizamos los percentiles para referirnos al crecimiento de los bebés. Pero, además de recurrir al percentil 95 para evaluar el desarrollo de un bebé, este sistema de medición es muy utilizado en muchas otras áreas; como, por ejemplo, entre los proveedores de alojamiento web. En nuestro caso recurrimos a este sistema estandarizado de medición entre los ISP para calcular el ancho de banda que consume un alojamiento web por ser el método que mejor refleja este aspecto.

¿Qué es el percentil 95?

El percentil 95 es una fórmula matemática que, en este caso, permite garantizar que el ancho de banda contratado es el adecuado a las necesidades de un proyecto. De esta forma, se evita tener que sobreestimar los recursos que puede necesitar un sitio web para funcionar correctamente; o quedarse demasiado cortos en cuanto a ancho de banda y hacer que la web pierda visitas o vaya demasiado lenta.

Los proveedores de servicios de internet recurrimos al uso de esta fórmula para tratar de favorecer al cliente. Utilizando el percentil 95 el usuario paga por el ancho de banda que habitualmente consume su servidor, un nivel de consumo que se corresponde con el ancho de banda utilizado el 95% del mes para el correcto funcionamiento del sitio web. Así, se evita hacerle pagar un extra por haber excedido de manera puntual el ancho de banda que tenía contratado.

¿Cómo funciona esta fórmula?

El percentil 95 se basa en una serie de mediciones del ancho de banda consumido por un servidor a lo largo de un mes. Entendiendo por mes siempre un periodo de 30 días, con independencia del número de días que tenga el mes real de facturación. A lo largo de este periodo de tiempo se mide cada 5 minutos el consumo en Mbps (megabits por segundo) del ancho de banda.

Al finalizar los 30 días, se recopilan todos los datos recogidos y se ordenan de menor a mayor. De entre toda esta información se descarta el 5% de los valores más altos; es decir, los valores que se corresponden con picos puntuales de tráfico al entenderse que ese nivel de consumo de ancho de banda es algo puntual y no el consumo habitual del servidor durante el 95% de los días.

Con los datos filtrados, el valor más alto se corresponderá con el percentil 95. Si este valor es igual o menor al ancho de banda contratado en el servidor quiere decir que se está pagando por los recursos adecuados para el proyecto. En cambio, si resulta una cifra mayor, además de facturarse aparte este exceso de consumo de ancho de banda, el servidor no dispone del ancho de banda necesario para el correcto funcionamiento del sitio web.

El percentil 95 permite determinar las necesidades reales en cuestión de ancho de banda de un proyecto web. Un valor necesario para garantizar que el sitio web funcione correctamente, al menos, el 95% del tiempo. El 5% restante dependerá de cómo de elevado sea el pico de tráfico, haciendo que por no contar con los recursos necesarios pueda perderse tráfico o que el funcionamiento del sitio web sea demasiado lento.

¿Por qué utilizamos el percentil 95?

Como ya hemos mencionado anteriormente, este sistema de medición es la forma más eficaz de medir y facturar el consumo de ancho de banda de un servidor. Los proveedores de servicios en internet somos plenamente conscientes de que no todos los días se tiene el mismo tráfico ni se consumen los mismos recursos; como por ejemplo puede ocurrir durante el Black Friday. Por ello, con el percentil 95 se favorece que aproximadamente durante 35 horas al mes se tengan picos inusuales de tráfico. Generalmente esto se debe a la publicación de algún artículo o producto que ha suscitado una gran cantidad de visitas. Al tratarse de algo puntual lo que se busca es favorecer al cliente, en lugar de penalizarle pagando el consumo adicional de ancho de banda.

En Linube recurrimos al percentil 95 como método de medición para calcular el ancho de banda de todos nuestros servicios. De esta forma, aunque nuestros clientes tengan picos de tráfico superiores a su consumo habitual de ancho de banda, no pagarán por ese exceso de consumo siempre que no supere el percentil 95.

¿Qué es un FQDN o ruta de red?

Publicado enSistemas TI en mayo 2, 2019 10:00 am

Al igual que sucede, por ejemplo, con los crawlers que al visitar una web lo único que pueden ver es su código, y no su diseño, con las máquinas sucede algo parecido. Los servidores, o las máquinas, cuando buscan una web no lo hacen por su dominio, sino por su dirección IP. En algunas ocasiones, necesitan de mayor información para encontrar un determinado espacio en internet; es decir, es necesario saber el FQDN.

¿Qué es un FQDN?

FQDN son las siglas de Fully Qualified Domain Name, es decir, un nombre de dominio completo. Este nombre de dominio único que contiene toda la información necesaria para poder acceder a una máquina a través de una red pública, como puede ser internet. A través de un FQDN un equipo es capaz de conectarse con cualquier otro.

En cuanto a su composición, los FQDN se componen de un mínimo de tres etiquetas que ayudan a la identificación de una máquina mediante números, letras o guiones con una longitud de entre 63 y 255 caracteres. Estas etiquetas se separan mediante puntos y se leen siempre de derecha a izquierda. Así, primero se identifica el dominio en base a su TLD (o extensión de dominio), nombre del dominio (la parte del dominio que se registra) y el nombre del host. Este orden de lectura permite identificar de una forma más sencilla la máquina que se está buscando.

Por ejemplo, en blog.linube.es, la búsqueda empezaría por linube.es y en esa misma búsqueda llegaríamos al lugar correcto. Si la lectura se realizara de izquierda a derecha, el sistema comenzaría por todas las direcciones que comiencen por blog.tudominio.es e iría discriminando hasta llegar a la máquina que se la ha solicitado. Un proceso que evidentemente lleva mucho más tiempo.

De forma muy simplificada, los FQDN son como nuestro nombre y dirección, solo que en este caso, además, se relacionan con una IP. Una estructura que ayuda a recordar la ruta de red y que permite crear estructuras, como si fueran calles, barrios o pueblos.

¿En qué se diferencia de un hostname?

Los hostnames son parte del FQDN. A grandes rasgos, podríamos decir que la única diferencia entre un hostname y un FQDN es que este último contiene más información. El uso de uno u otro depende del contexto y del tipo de red que se utilice para ello. Por ejemplo, en ocasiones no es necesario proporcionar toda la información de una máquina y es suficiente con el hostname. De esta forma, podemos decir que un FQDN contiene toda la información que necesitamos para poder acceder a una máquina a la que queremos acceder a través de internet; y un hostname es el nombre de una máquina para la que necesitaremos conocer información adicional si queremos acceder a ella.

Por poner un sencillo ejemplo, imaginemos que tenemos un coche y queremos aparcarlo en un parking; uno que, además, dispone de servicio de aparcacoches. Si optamos por hacer uso de este servicio, pero queremos saber dónde han aparcado nuestro coche, necesitaremos que nos lleven hasta el lugar donde lo han aparcado o que nos indiquen el lugar exacto donde se encuentra (planta del parking, zona, número de plaza…); es decir, su FQDN. En cambio, si somos nosotros quienes estacionamos nuestro vehículo, no necesitaremos tanta información para saber dónde está. Con unas ligeras indicaciones sobre la zona sabremos llegar a él.

FQDN y hostname VS subdominio

Los tres elementos comparten la misma estructura de etiquetas separadas por puntos. Pero, mientras que un FQDN y un hostname sirven al mismo objetivo, un subdominio hace referencia a una parte de una web. Es decir, un subdominio indica dónde se ubica un determinado contenido, pero dentro de un sitio web. Además de esto, detrás de un subdominio, al igual que de un dominio, siempre está un DNS. El DNS es el sistema encargado de traducir los nombres de dominio en direcciones IP para que las máquinas puedan interpretar el contenido de qué servidor queremos visitar.

Aunque tanto el subdominio como el nombre del host siempre van delante del nombre del dominio, no debe confundirse con un subdominio. En estos casos, lo habitual es que el host sea www y el subdominio blog, tienda o una palabra que indica por sí misma que se trata de una parte de la web.

A simple vista puede parecer que los hostnames y los FQDN, o rutas de red, sean algo exclusivo de los expertos informáticos, lo cierto es que si tienes contratado un plan de hosting o utilizas un cliente de correo, en algún momento has tenido que configurar un hostname. En Linube recurrimos a los hostnames y los FQDN en muchos de nuestros servicios para indicar a nuestros clientes a qué máquinas tienen que conectarse para poder utilizar los servicios que contratan.

DRS, la mejor forma de contar con un CPD secundario

Publicado enSistemas TI en abril 24, 2019 10:00 am

Puesto que cada vez almacenamos mayor cantidad de información en dispositivos informáticos, ya estén o no conectados a internet, cobra mayor importancia la replicación de dicha información en otras ubicaciones. Como en Linube nos gusta velar por la seguridad de la información de todos nuestros clientes hemos lanzado un servicio de DRS, la mejor forma de recuperación ante desastres.

Plan de contingencia o DRS

Diasaster Recovery Service es una solución de contingencia que facilita la total recuperación ante desastres. Algo que es posible gracias a la replicación en tiempo real de todos tus servidores en nuestra plataforma cloud. De esta forma, en el caso de que la plataforma en la que se encuentran alojados tus servidores fallara, siempre contarías con un segundo centro de datos para garantizar la continuidad de tu negocio.

Con un DRS los tiempos de inoperatividad de tu sitio web o las herramientas online que utilicen tus empleados para realizar su labor diaria se reducen al máximo. Ya que, aunque la plataforma principal dejara de funcionar, los servicios seguirán estando disponibles desde tu CPD secundario; ubicado en nuestra infraestructura cloud.

Diferencias respecto a backups

Existen otros servicios en la nube que facilitan la recuperación en caso de desastres; pero las soluciones DRS van un paso más allá de todas ellas. Lo habitual es que este tipo de soluciones se limiten a replicar la información contenida en el servidor, de forma que con restaurar la última copia de seguridad pueda volver a disponerse de todos los datos. En cambio, las soluciones DRS replican en tiempo real las configuraciones en los servidores; incluyendo todos los ajustes realizados en los servidores para que cada una de las aplicaciones pueda funcionar correctamente.

Gracias a la replicación en tiempo real de los servidores cloud y sus configuraciones, en caso de fallo, la infraestructura replicada funcionaría exactamente igual que la original ya que ambas contienen la misma información. Además, a diferencia de las copias de seguridad que tienen que programarse, las soluciones DRS se replican de forma automática. Haciendo que el porcentaje de pérdida sea mínimo al recuperarse el servidor como se encontraba en el minuto anterior; en lugar de restaurar el último backup realizado con mayor anterioridad.

Las ventajas del DRS

Los planes de contingencia ofrecen múltiples ventajas a cualquier tipo de empresa; ya que no es necesario contar con una gran infraestructura para empezar a replicar tus servidores. El DRS es más una cuestión de anticipar desastres. La pérdida de servicio o información puede tener grandes consecuencias en cualquier tipo de empresa; no solo en las grandes compañías.

Además de la replicación en tiempo real de los servidores y toda su información, nuestra solución DRS garantiza la continuidad de negocio ya que:

  • Tu CPD secundario se encontrará ubicado en España; con las ventajas en términos de rendimiento y cumplimiento de normativas que conlleva para tu empresa.
  • La transmisión de tus datos desde la plataforma original a nuestra plataforma cloud se realiza de manera cifrada para garantizar la máxima seguridad y privacidad.
  • Nuestro servicio DRS es válido desde y hacia todo tipo de máquinas, sin importar que sean físicas o virtuales. Cualquier servidor puede replicarse en nuestras plataformas cloud.
  • Cada solución está diseñada específicamente para cada cliente, además irá escalándose a medida que vayan creciendo tus servidores principales.
  • Los planes de contingencia permiten contar con un CPD secundario sin necesidad de invertir en infraestructura. Gracias al pago por uso, es posible ahorrar en costes ya que solo se paga por los recursos consumidos.

Aunque la tecnología está en un proceso de mejora y evolución continua, puede fallar. Pero, como en todas las situaciones, ante un problema siempre habrá una solución. En este caso, para evitar que el funcionamiento de tu proyecto o empresa puede verse afectado por un fallo en el servidor, necesitas disponer de dos plataformas. Necesitas nuestras soluciones DRS.

¿Qué es una VPN y para qué puedes utilizarla?

Publicado enSistemas TI en diciembre 12, 2018 10:00 am

Al igual que cada vez utilizamos más internet, somos más conscientes de los peligros que supone conectarse a redes inseguras. En este sentido, ha sido de gran ayuda el movimiento iniciado por los navegadores para usar conexiones seguras bajo HTTPS. Actualmente, además de ser necesario contar con un certificado SSL, ya sea Let’s Encrypt o de pago en todas las webs, el usuario desconfía de las páginas que sigan utilizando conexiones no seguras. Aún así, y pese al incremento del uso del protocolo HTTPS, nunca está de más utilizar una conexión privada, es decir, una VPN.

¿Qué es una VPN?

VPN es el acrónimo de Virtual Private Network, una red privada virtual que permite conectarse a internet de forma anónima. Si bien el uso de VPN está haciéndose cada vez más popular, no se trata de una forma de conexión nueva. Las conexiones remotas datan de la década de los 60, cuando la inteligencia militar de Estados Unidos creó ARPANET. Este tipo de conexiones se relacionan, erróneamente, con la parte más oscura de internet: Pero lo cierto es que su uso tiene más efectos positivos que negativos.

La principal diferencia entre una conexión con y sin VPN es con quién se conecta nuestro dispositivo cada vez que queremos acceder a internet. Así, al iniciar una conexión ‘normal’, el dispositivo que estemos utilizando establecerá una conexión con un router o módem; y este, a su vez, con el proveedor de internet que hayamos contratado que nos permitirá el acceso a internet. Para identificar los dispositivos que están conectados a una misma red, cada uno de ellos dispone de su propia IP local; una dirección compuesta por grupos de números que, en este caso, no serán visibles desde fuera.

En cambio, con una VPN, tu dispositivo no se conecta directamente a otro módem que le facilite la conexión a internet. En este tipo de conexión se establece un enlace con un servidor VPN y de allí al destino final. Conectándote a través de una VPN tu dirección IP no será la de tu router, sino la del servidor virtual al que estás conectado. En este sentido es como si te encontraras en el mismo lugar en el que se ubica el servidor VPN. Una ubicación que puede estar en cualquier parte del mundo.

Porqué usar una VPN

El envío y recepción de datos de forma cifrada cuenta con las ventajas de una red local pero añadiendo flexibilidad. Con una VPN es posible conectarse a otros dispositivos sin importar la distancia entre ambos; es decir, una red LAN con un alcance geográfico total. La VPN se encarga de enrutarlo todo, por lo que da igual a qué tipo de aplicación accedas o el tipo de conexión que utilizas para ello.

Todas las peticiones que circulan por una VPN lo hacen a través de túneles de datos. Esta técnica permite utilizar un protocolo diferente para la transmisión de la información impidiendo al proveedor de internet saber desde dónde se está accediendo ni rastrear la IP.

Usos de las conexiones cifradas

Por su naturaleza, uno de los usos más habituales de una red VPN es el teletrabajo. Este tipo de conexión permite acceder a la información más sensible de la compañía desde un lugar totalmente seguro como si la petición no hubiera salido de la red local del edificio. También es de gran utilidad para evitar bloqueos geográficos; ya que con una VPN no se puede limitar el acceso a ninguna web por IP. Al utilizar la misma dirección IP que el servidor VPN al que se está conectado, es más fácil falsear la ubicación. Este uso suele ser habitual para acceder a sitios web o servicios que con una conexión ‘normal’ no podría hacerse.

Además, recurrir a una conexión mediante VPN supone siempre una capa extra de seguridad. De esta forma, acceder a tu banco online no supone ningún riesgo, incluso si lo haces a través de una WiFi pública. La falta de protección que tiene una red abierta se suple con el cifrado de punto a punto de la conexión VPN. Por lo que el riesgo de que alguien pudiera acceder a tu cuenta bancaria es casi nulo.

Aunque no lo parezca conectarse y desconectarse de un servidor VPN es mucho más fácil de lo que parece. Una vez se hayan configurado tanto el servidor VPN como el cliente que utilizarás para conectarte, solo hay que pulsar un botón para establecer o pausar la conexión.

Más seguro, pero más lento

Las conexiones que se producen mediante VPN tienen tiempos de latencia superiores a las conexiones ‘normales’. Esto se debe a que, para llegar al destino, la conexión habrá dado la vuelta al mundo. A lo que habrá que añadir el lugar en el que se encuentre el servidor virtual. Algo similar a lo que ocurre con los alojamientos web. En estos casos es recomendable contratar un hospedaje que se ubique en el mismo país en el que se orienta la web. Para, de esta forma, mejorar la velocidad de carga del sitio.

Asimismo, deberás tener en cuenta que es más que probable que la velocidad de subida y bajada estén limitadas; algo que no ocurre en una conexión ‘normal’. Como consecuencia, es posible que las páginas tarden un poco más en cargar. O que tengas que esperar para poder ver un vídeo, por ejemplo.

También debes tener en cuenta que el anonimato que la red VPN proporciona nunca es total. Tu proveedor de servicios de internet no podrá saber a qué sitios accedes ni información alguna relacionada con tus búsquedas; pero quien sí tendrá acceso a esta información es tu servidor de VPN.

El proyecto GNU celebra su 35 cumpleaños

Publicado enSistemas TI en noviembre 27, 2018 9:30 am

En un lugar de Estados Unidos, de cuyo nombre no quiero acordarme, no ha mucho tiempo que nació un programador pionero, fundador del movimiento del software libre y creador del proyecto GNU; además de ser el inventor del concepto copyleft. Su nombre es Richard Stalman y el 27 de Noviembre de 1983 anunció al mundo entero su intención de crear un sistema operativo basado en UNIX, compatible con él, y totalmente libre. Pero el proyecto no avanzó de la forma que se presuponía y en 1987 se lanzaba MINIX, un sistema operativo parecido a UNIX. Y, gracias al enfado que esto generó en Linus Torvalds, este comenzó a trabajar en su propio kernel. Un nuevo núcleo que combinaba componentes de GNU y licencias de código abierto que, en 1991, se acabó convirtiendo en el sistema operativo GNU/Linux que conocemos.

Evolución del proyecto de código abierto más famoso

GNU/Linux se fue haciendo popular a la vez que surgía la web, aunque se mantuvo en segundo plano durante mucho tiempo. Años enlos que alimentaba servidores de grandes compañías, pero no podía encontrar éxito en dispositivos personales. Hasta que, de repente, todo cambió.

Gracias al lanzamiento del Android de Google en 2008 GNU/Linux se ha hecho hueco en los teléfonos móviles. Una popularidad en la que también ha sido de gran importancia el impulso por parte del Cloud Hosting. Tanto que GNU/Linux se presupone como el sistema operativo del futuro. Una red de referencia en cuanto a Centros de Datos empresariales y servidores cloud. Actualmente, además, es el sistema operativo más instalado en el mundo y cuenta con una gigantesca comunidad de desarrolladores. Según la Fundación GNU/Linux, cerca de 13.500 desarrolladores repartidos en más de 1.300 empresas han contribuido al kernel de GNU/Linux desde que, gracias a Git, es posible hacer un seguimiento detallado.

El sistema operativo GNU/Linux

Pero el éxito de GNU/Linux, a pesar de ser un poco fortuito, está avalado por las ventajas que aporta su uso. Entre los múltiples beneficios, destacamos los siguientes:

  • Es un modelo gratuito, de código abierto y totalmente adaptable. GNU/Linux es modular, esto es, puedes escoger solo aquello que necesitas. Incluso es posible su uso en casos especiales, por ejemplo, como sistema operativo de escritorio.
  • Cada vez más empresas referentes confían en el proyecto GNU. Gracias a GNU/Linux, las redes son mucho más adaptables a las necesidades de cualquier empresa. Además, GNU/Linux está demostrando día a día que resulta esencial para poder entender las tendencias actuales más significativas en referencia al big data y su automatización.
  • Tiene una fuerte comunidad que la apoya. Un ecosistema que potencia las funcionalidades y previene posibles bugs del sistema.
  • Su buena fama lo avala. Según estadísticas recientes, ejecuta más de dos tercios de los servidores en internet. Además, el 95% de los mejores ordenadores también cuentan con GNU. Asimismo, todos los teléfonos Android, los coches Tesla o videoconsolas como la Playstation utilizan GNU/Linux. Empresas fabricantes de coches pioneras en el mercado como Toyota, Ford u Honda muestran su interés por estar inmersos en el proyecto.

Con el paso del tiempo, la concepción de GNU/Linux ha ido cambiando. Así, el sistema operativo que, tal y como se muestra en su anuncio original, no fue desarrollado como una idea de software libre, a día de hoy es el proyecto de código abierto más utilizado en el planeta.

Alternativas nativas a Wget de GNU en Windows

Publicado enSistemas TI en abril 26, 2018 10:33 am

Por norma general, no es recomendable instalar en los servidores nada que no sea estrictamente necesario para el funcionamiento del mismo. Es decir, solo es recomendable instalar aplicaciones accesorias cuando el propio sistema no ofrezca una determinada funcionalidad; y siempre que esa nueva funcionalidad que vamos a instalar ayude a que el servidor o las aplicaciones que se encuentran en él puedan ejecutarse de forma correcta. En este sentido, el Wget de GNU en versión Windows no es ninguna excepción. Pero esta aplicación no es la única que puedes instalar para añadir nuevas funcionalidades. Existen diferentes opciones nativas para Windows que realizan las mismas funciones que la herramienta de GNU.

En la gran mayoría de los casos, los administradores de sistemas que recurren a aplicaciones de terceros como alternativa a Wget en Windows es porque desconocen la existencia de herramientas nativas. Aplicaciones especialmente diseñadas para Windows que permiten realizar las mismas tareas de una forma más eficiente. Instalando aplicaciones de terceros lo único que se consigue es llenar el sistema de apliaciones que realmente no son necesarias. Además de que recurrir a aplicaciones no confiables puede ser muy peligroso. En algunos casos el uso de estas aplicaciones puede afectar al rendimiento del servidor. Otras, junto con la aplicación, puede llevar asociado algún software malicioso. Y es que, que las aplicaciones contengan malware es, desafortunadamente, algo bastante habitual en las aplicaciones de Windows.

Wget de GNU

Como ejemplo de este desconocimiento, basta con comprobar qué nos recomiendan cuando pedimos opinión sobre alguna aplicación similar al comando Wget de Linux para Windows. En la mayoría de los casos, nos recomendarán la instalación de la versión específica para Windows de Wget de GNU. Esto es la solución más fácil al problema, pero no la mejor. Ya que siempre habrá alternativas más adecuadas aunque sean menos conocidas o resulten algo más complicadas de instalar o de utilizar. En casos como este, lo ideal sería optar por alguna de las opciones nativas que, además de resultar más seguras, garantizaremos que funcionen correctamente en el servidor.

La aplicación nativa más parecida al Wget de GNU para Windows es PowerShell. Ambas opciones son ejecutables desde la línea de comandos y, aunque sus principales funciones sean diferentes, permiten realizar en gran medida las mismas tareas. Así, mientras que Wget de GNU es un descargador de archivos desde la línea de comandos; Powershell es un lenguaje de scripting y de línea de comandos que se basa en tareas.

Windows PowerShell

Desde PowerShell, es posible realizar multitud de tareas, entre las que se incluye la realización de peticiones a un determinado sitio web. Estas pueden ser tanto HTTP como HTTPS y es posible realizarlas de diversas formas. Nosotros te mostramos dos formas diferentes de realizar dichas peticiones a una página web:

Ejemplo 1:

PS C:\>Invoke-WebRequest linube.com

Ejemplo 2:

(new-object system.net.webclient).downloadstring('https://linube.com')

Si lo prefieres, también puedes probar a jugar con las distintas opciones de algunos comandos, como por ejemplo Invoke-WebRequest y WebClient, para sacarle el máximo partido a la aplicación para Windows PowerShell.

Los logs de accesos para entender mejor a tus usuarios

Publicado enSistemas TI en enero 17, 2018 10:00 am

Sin duda Google Analytics es la herramienta más utilizada para conocer el comportamiento de los visitantes. Pero, no es la única que existe para obtener este tipo de datos. Además, para obtener una visión más detallada, podemos complementar la información que proporciona la herramienta de Google con la información de los logs de accesos.

Los logs de accesos, o registros de acceso, son archivos de texto en los que se registran todas las acciones que tienen lugar en un servidor. Es decir, cada una de las peticiones que se realizan a nuestro servidor. Gracias a estos datos, es posible conocer aspectos como la popularidad de nuestro sitio web o su nivel de usabilidad. Pero, a decir verdad, no es habitual consultar los datos que se encuentran en los logs de accesos; o al menos no de manera frecuente. Es más, suele ser un archivo que sólo se consulta en situaciones de emergencia, por ejemplo, cuando ocurre algún error en la web. Ya que la información que contienen es fundamental para analizar errores de un programa o de un sistema.

Debido a la cantidad de información que contienen, los logs de accesos suelen ser archivos grandes y pesados. Unos ficheros que permiten conocer todo lo que ocurre dentro de nuestro sitio web. Desde el número de visitas que hemos recibido a si nuestra página web tiene un flujo de información normal. También si se están produciendo cuellos de botella.

Mucha más información desde los logs de accesos

En los logs de accesos puedes encontrar datos muy concretos de tus usuarios dentro de tu sitio web, como por ejemplo:

  • Duración de la sesión. El tiempo que un usuario ha estado navegando por las páginas que componen nuestro sitio web.
  • Fecha y hora de acceso. Cuándo y en qué momento ha accedido a nuestra página web.
  • IP visitante. El número de identificación del equipo desde el que ha accedido el usuario.
  • El tipo de operación que se le ha solicitado al servidor.
  • Cuál ha sido el código de respuesta del servidor a la solicitud del usuario.
  • Qué buscador se ha utilizado para acceder a nuestra página web, incluyendo los términos de búsqueda que se hayan empleado.
  • El sistema operativo que utiliza el usuario que ha visitado el sitio web.

A partir de esa información, podemos conocer el uso que los diferentes usuarios han hecho de nuestro sitio web. Cuántas y qué páginas de nuestra página web se han visitado y qué es lo que se ha hecho en cada una de ellas.

Es posible que no toda la información contenida en los logs de accesos nos sea de utilidad. Por ello, deberemos aprender a ‘limpiar’ todos los datos que no nos aportan nada y quedarnos solo con aquella información que sea válida para nuestro propósito. Manejar y, sobre todo, entender el contenido de los logs de accesos es indispensable para conocer mejor a nuestros usuarios y el comportamiento de nuestra página web.

¿Qué es el protocolo FTP?

Publicado enSistemas TI

FTP (File Transfer Protocol) son las siglas por las que se conoce a uno de los protocolos de internet más antiguos y, posiblemente, el más conocido. Se implementó en abril de 1971 y desde entonces se ha modificado en diversas ocasiones. Actualmente, la versión que se utiliza es de 1985. Debido a su antigüedad, y a la falta de actualización, es considerado un protocolo inseguro. Esto es así ya que no requiere de la autentificación del usuario para iniciar la transmisión, ni las contraseñas se encriptan. Desde Linube te recomendamos su uso sólo en ocasiones concretas.

¿Qué es FTP?

A groso modo, podemos decir que se trata de un protocolo de transferencia de archivos; al conectarnos a un servidor podemos crear una conexión de datos para, por ejemplo, descargar archivos. Vamos a explocar

El protocolo FTP facilita el acceso a archivos que se encuentran en sistemas remotos a través de simples comandos. Tiene múltiples funciones siendo la transferencia de archivos la principal, tal y como su nombre indica. Para este intercambio de archivos entre dispositivos que estén conectados se usa una red con protocolo TCP (Transmission Control Protocol), que es otro de los protocolos esenciales en internet. Dentro de la red TCP, FTP recurre a la arquitectura cliente-servidor, además del uso de múltiples puertos para poder funcionar.

Transfiere archivos mediante el protocolo FTP

No importa cuál sea tu sistema operativo ni qué tipo de conexión estés utilizando para la transmisión de los archivos. Es decir, te permite transferir archivos desde tu ordenador a tu espacio web en internet. Ya sea tu propio servidor o el espacio que algunas plataformas como WordPress te ceden a cambio de utilizar su nombre en tu dominio.

Asimismo, con FTP, pueden realizarse otras muchas acciones como: visualizar directorios o cambiar sus nombres, limitar derechos o eliminar archivos, ya sean ficheros, carpetas o directorios. Evidentemente, todos estos cambios repercutirán en tu página web. Por lo que, si optas por eliminar algo, el contenido dejará de estar disponible para todos los usuarios de tu sitio web.

Para poder realizar acciones utilizando FTP es necesario un cliente, conocido como cliente de FTP. El más conocido de todos es FileZilla, una aplicación de código abierto compatible con todo tipo de plataformas y sistemas operativos que permite la conexión con el servidor FTP. Asimismo, destacar que también permite el uso de los protocolos SFTP y FTPS.

El acceso a FTP es un servicio básico incluido en cualquier tipo de alojamiento web. Eligiendo con Linube tu hosting compartido o un servidor cloud obtendrás acceso a través de FTP. El uso de FTP, resulta fundamental para el acceso al servidor y una correcta gestión de la página web. Si tu plan de alojamiento incluye un panel Plesk, podrás crear tantas cuentas FTP adicionales como necesites para directorios específicos.

Vulnerabilidad grave en BASH

Publicado enCiberataques Sistemas TI

A lo largo de la noche del 24 de septiembre se ha hecho pública una grave vulnerabilidad. Un probelama de seguridad descubierto recientemente en el programa informático Bash. Este programa constituye la línea de comandos que utilizan muchos de los sistemas operativos que se utilizan con normalidad, como Linux, OSx o Android. Además, todos los dispositivos que forman parte del llamado Internet de las cosas (neveras, SmartTV, sistemas de domótica…) también recurren a Bash en su código. Esta nueva vulnerabilidad permite la ejecución de código explotando un fallo relacionado con algunas de las variables.

¿Somos vulnerables a BASH?

Existe una forma muy sencilla de comprobar si somos vulnerables a Bash o no. Sólo con ejecutar un comando de aspecto similar a este que mostramos a continuación, nos dirá si nuestro equipo puede estar afectado por esta grave vulnerabilidad; o si por el contrario estamos a salvo de este fallo de seguridad:

$ env x='() { :;}; echo soy vulnerable' bash -c "echo Hola"

Una vez ejecutado el comando, el programa debería mostrarnos simplemente la palabra «Hola». De esta forma indicamos que nuestro sistema no está afectado por este problema y que se encuentra a salvo. Pero, en el caso de que se haya sido víctima de esta vulnerabilidad recién descubierta, veremos que junto a la palabra «Hola» también se ejecuta la frase «soy vulnerable».

Esto se puede explotar de una forma remota de múltiples maneras; como por ejemplo, pasando estas variables (a través de comandos) vía CGI (php, perl…). Estos comandos se ejecutarán al realizar cualquier tipo de llamada al programa informático Bash.

Servidores siempre actualizados

Desde Linube informamos a nuestros usuarios que todos nuestros servidores se encuentran ya actualizados; tanto los servidores administrados por nuestros clientes como los servidores cloud de nuestra plataforma que, además, cuentan con servicio de administración de sistemas. Así que si estás alojado en nuestras plataformas cloud, puedes estar totalmente tranquilo; tus sistemas ya no podrán verse afectados por esta vulnerabilidad de Bash. Aún así, si gestionas algún servidor que creas que haya podido verse afectado por esta vulnerabilidad de Bash, te recomendamos que realices las actualizaciones necesarias a la mayor brevedad posible a fin de evitar graves consecuencias. Asimismo, recomendamos permanecer atentos y seguir muy de cerca todas las novedades que vayan publicándose en relación a esta vulnerabilidad de Bash. Lamentablemente, casi con total seguridad, este fallo de seguridad en Bash podría derivar en nuevos problemas como ya ha ocurrido en otras ocasiones cuando se han descubierto vulnerabilidades similares.

Por si quieres indgar más sobre este asunto, la vulnerabilidad de Bash ha sido registrada con el código CVE-2014-6271. Si lo prefieres, puedes obtener más detalles acerca de este fallo de seguridad en el artículo publicado en el sitio web de RedHat.

Incrementar la rotación de los logs de Plesk en Windows

Publicado enSistemas TI

Los logs son archivos que contienen todo tipo de información acerca de cada uno de los registros que se han producido en el servidor. Estos registros pueden contener desde el día o la hora en la que se ha accedido a un alojamiento o a un sitio web; a si ha ocurrido algún inconveniente a la hora de acceder a un archivo o si el servidor ha encontrado problemas al tratar de devolver una petición. En Windows esta información que puede obtenerse tanto desde el propio servidor como a través del Panel de control Plesk.

Período de rotación en Plesk Windows

Plesk Windows rota por defecto todos sus logs de manera diaria. Esta frecuencia de rotación de los registros puede hacer que se pierdan algunos datos. Por ejemplo, si queremos revisar qué es lo que ha pasado con alguno de nuestros correos electrónicos que sea de hace más de un día, o ver qué archivos se hayan podido subir a través de FTP estaremos a ciegas. Al haberse rotado los logs de Plesk ya no podremos obtener dicha información. De forma automática, Plesk habrá generado un nuevo archivo que habrá reemplazado al anterior. Y, con ello, se habrá perdido toda esa información que estábamos buscando.

Para evitar perder todos estos datos, lo que podemos hacer es incrementar el período en el que los logs tiene que rotar. Para que los logs se almacenen durante un tiempo más prolongado, la mejor opción es crear un nuevo directorio en el servidor. Un nuevo archivo en el que se puedan almacenar todos esos datos de registros y, sobre todo, donde poder consultar esa información en períodos de tiempo más largos.

En nuestro caso hemos realizado este nuevo directorio en la ubicación c:\logs y hemos procedido a crear tres nuevas entradas de tipo (REG_SZ) en el registro. La primera de ellas estará destinada a guardar los logs de FTP; la segunda de ellas la utilizaremos para almacenar todos los logs de HTTP; y una última en la que podamos almacenar los logs del correo electrónico. Las rutas de cada una de estas entradas serán las siguientes:

HKLM\SOFTWARE\Plesk\PSA Config\Config\SaveFTPLogsDirectory

HKLM\SOFTWARE\Plesk\PSA Config\Config\SaveHTTPLogsDirectory

HKLM\SOFTWARE\Plesk\PSA Config\Config\SaveMailLogsDirectory

Plesk Windows-incrementar-periodo-rotacion-linube

Establecer parámetros de configuración

De esta forma, evitaremos que se pierda información relacionada con los logs del panel de control Plesk. Ya que, de no cambiarse la configuración, los logs se borrarán todos los días haciendo que no podamos consultar determinada información pasado ese tiempo. En esta nueva ubicación, podemos establecer diferentes parámetros de configuración para los logs. Estos pueden ser en base a su tamaño o simplemente ampliando el período en el que los registros tengan que renovarse (semanalmente, mensualmente o incluso hasta una fecha determinada…). Así, haremos que la información contenida en cada uno de los logs (FTP, HTTP o de correo electrónico) permanezca un mayor período de tiempo almacenada en el servidor.

A partir de ahora, cada vez que necesitemos consultar los datos almacenados en los logs de Plesk, podremos hacerlo con la seguridad de saber que vamos a encontrar esa información. Ya que los datos contenidos estarán disponibles durante el tiempo que especifiquemos y cualquier duda acerca de un correo o de un acceso a FTP podremos resolverla con gran facilidad.

Ver los logs de Apache o IIS en Plesk

Publicado enSistemas TI

Con el nuevo diseño del panel de control Plesk, algunas de las opciones que antes se encontraban con relativa facilidad, ahora se hallan más ocultas. Por ejemplo, algunas funciones como consultar los logs de Apache, han cambiado de ubicación. Debido a las muchas preguntas que hemos ido recibiendo estos días, vamos a ir viendo dónde podemos localizar algunas de las funcionalidades más reclamadas. Relacionadas en su mayoría con la nueva ubicación de las diferentes pestañas y funcionalidades, en este y sucesivos posts, iremos viendo dónde se ubican ahora algunas de las funciones más utilizadas en el Panel de control Plesk.

Logs de Apache

En esta ocasión, hablaremos sobre cómo ver los logs de Apache en la nueva versión del Panel de control Plesk. Para ello, en primer lugar, debemos acceder al panel Plesk como administrador. Y, una vez allí, pinchar en la pestaña de «suscripciones». A continuación, deberemos entrar en «sitios web y dominios» y seguidamente acceder a las diferentes bases de datos almacenadas en el servidor.

Al desplegar el menú de «bases de datos», aparecerán diversas opciones entre las que se encuentran los registros o logs. Desde aquí podemos ver todos los logs que se vayan generando en nuestro servidor. Y, en el caso de que sean muchos, también podremos controlar su rotación para evitar que se acumulen y acaben ocupando demasiado espacio en el disco. Además, en la opción de «administrar archivos de registro» podemos encontrar otras muchas funcionalidades. Como puede ser enviar los logs a la cuenta de correo electrónico que decidas, modificar el período de eliminación estableciendo un tamaño máximo al archivo de logs o poniendo una fecha límite en la que queramos que se roten los logs.

Tipos de logs

Los logs de Apache pueden ser de dos tipos. Por un lado se encuentran los logs de errores o de información de diagnóstico; en este archivo se encuentran todos los fallos que se han ido produciendo durante cada una de las solicitudes a un servidor. Además, cada uno de estos errores aparecerá detallado, para que solucionar los problemas de tu servidor sea mucho más sencillo.  Por otra parte, están los access logs o logs de acceso. Aquí se almacenan todas las solicitudes, tanto entrantes como salientes, que se han producido en el servidor.

A pesar de que ambos tipos de logs ya vengan preconfigurados en el panel Plesk, tanto por formato como por su ubicación, puedes modificar ambos parámetros y establecer la configuración que desees. De esta forma puedes establecer los límites de almacenamiento, la información que quieres guardar o el lugar dónde quieres que se almacenen esos registros.

Ver los logs de Apache no es tan difícil como pudiera parecer. A pesar de los cambios que se han introducido en el Panel Plesk, las diferentes funcionalidades siguen ahí. Sólo tenemos que saber encontrarlas de nuevo.