944 063 154

Blog

Contenedores de software para empaquetar aplicaciones

Publicado enSistemas TI en noviembre 13, 2019 10:00 am

Actualmente un desarrollador es capaz de crear código y de distribuirlo sin problemas. Antes estas labores que estaban diferenciadas entre desarrolladores y administradores de sistemas, se unen en la figura del DevOps. Esto no quiere decir que ninguna de las profesiones deje de existir, sino que existe una nueva que une lo mejor de cada una de ellas. Para haber podido dar este paso ha sido fundamental la aparición del contenedor de software.

¿Qué es un contenedor de software?

Los contenedores de software son como esos enormes contenedores que se transportan en barco y que contienen diferentes tipos de mercancías. Si bien en este caso puede que unos productos y otros no tengan nada que ver entre sí, todo lo que se encuentra dentro de un contenedor de software es necesario para poder ejecutar una aplicación en otro lugar. Así, dentro de un contenedor de software se encontrará el código, las librerías necesarias y cualquier tipo de configuración que permiten a dicha aplicación funcionar correctamente. Podríamos decir que un contenedor de software es como un sistema completo virtualizado pero reducido a su mínima expresión; que solo necesita el sistema operativo del servidor que lo contiene para funcionar.

Estos contenedores acaban con los típicos problemas entre entornos de desarrollo y producción. Puesto que todo lo necesario se encuentra dentro del contenedor, es posible hacer pruebas de una aplicación sin tener que preocuparse por si el código se rompe. Cualquier cambio que se vaya a realizar se hará de la forma más segura. Igualmente, en el caso de utilizar diferentes versiones de lenguajes de programación o cualquier elemento de software incluyendo el sistema operativo.

Dentro de un contenedor de software está todo lo necesario para que cualquier aplicación pueda ejecutarse correctamente. Además, al incluirse un archivo de configuración, es posible que cualquier desarrollador o administrador de sistemas pueda trabajar con el contenido del contenedor de software sin necesidad de conocer el funcionamiento de la aplicación.

¿Docker o Kubernetes?

Aunque se trata de sistemas relacionados, cada uno tiene sus propias funciones. Por ello, no es posible elegir entre uno u otro, sino que es necesario utilizar los dos.

Por un lado, Docker es un gestor de contenedores de código abierto; es decir, una plataforma open source que permite crear, estandarizar y distribuir aplicaciones en contenedores. Un entorno en el que desarrollar aplicaciones ligeras al no ser necesario incluir en el contenedor un sistema operativo. Mientras que Kubernetes es un orquestador de contenedores. Es decir, el encargado de manejar los procesos que se llevan a cabo dentro de un contenedor de software creado a partir de Docker.

A medida que el número de aplicaciones o contenedores de software va creciendo, es posible que Docker ya no sea suficiente para gestionarlo. Se requiere de una plataforma de orquestación que se encargue de hacer funcionar cada contenedor de software bajo la misma arquitectura. Como si fuese un director de orquesta Kubernetes se ocupa de que todo lo desarrollado en Docker funcione bien. La principal ventaja de Kubernetes es que puede ser utilizado en cualquier lugar y sobre todo tipo de infraestructuras. Un orquestador como Kubernetes se encargará de crear y reconfigurar servidores, monitorizar y realizar las configuraciones necesarias para que las aplicaciones que se encuentran dentro de un contenedor de software estén siempre operativas. El propósito no es otro que automatizar las tareas para tener un mejor control de una infraestructura.

Ni la idea de los contenedores ni del orquestador son nuevas, pero sí se han hecho más populares en los últimos años. Así, la idea de los contenedores se remonta a la virtualización de sistemas y el concepto de orquestador, entendido al modo de Kubernetes, está relacionado con Google, que ya contaba con su propio sistema antes de que apareciera Kubernetes. La principal función de estos dos sistemas es permitir que las aplicaciones puedan funcionar correctamente por sí mismas, y también en relación a las demás. Hasta el punto de que el sistema no requiera de la interacción humana para poder funcionar.

Contenedores vs máquinas virtuales

Es muy común confundir un contenedor de software con técnicas de virtualización. La virtualización es una tecnología que permite crear diferentes máquinas virtuales a partir de un único elemento físico. Cada una de estas máquinas virtuales pueden tener su propio sistema operativo y una configuración específica, a pesar de estar ejecutándose en una misma máquina física que puede tener unas características diferentes.

La virtualización es una de las técnicas que han posibilitado la tecnología cloud, tanto para crear diferentes servidores cloud en una misma máquina física, como para permitir que cada uno de ellos utilice un sistema operativo diferente. Así, la virtualización permitió dejar de utilizar máquinas físicas como única forma de aislar a un cliente de los demás, con el ahorro económico, de espacio e impacto ambiental que eso supone.

La principal diferencia entre un contenedor de software y una máquina virtual es que los contenedores no requieren de la copia del sistema operativo. Esto se debe a que comparten el mismo núcleo que la máquina en la que se ejecutarán, haciendo que el peso del contenedor se reduzca. Así, mientras que una máquina virtual ocupará varios gigas, un contenedor de software se reduce a unos cuantos megas.

En los últimos años los contenedores de software han avanzado mucho, hasta el punto de convertir una tecnología de nicho en un estándar para desplegar software. A pesar de ello, aún queda mucho por hacer en relación a ello.

Amplía el espacio de tu servidor con soluciones de almacenamiento: NAS y SAN

Publicado enSistemas TI en noviembre 6, 2019 10:00 am

A medida que los proyectos van creciendo es muy probable que los recursos iniciales que se contrataron no sean suficientes para garantizar el correcto funcionamiento del servidor y de los sitios web que se alojan en él. En función de las características de cada proyecto web es probable que lo recomendable sea aumentar proporcionalmente los recursos del servidor cloud escalando a un plan superior, pero también es posible que solo se necesite ampliar uno de los recursos, por ejemplo, el espacio en disco del servidor cloud. En estos casos lo más recomendable es optar por otro tipo de almacenamiento: NAS y SAN. Dos soluciones de almacenamiento en red que ayudan a almacenar la información de una forma segura ante cualquier imprevisto y que con mucha frecuencia tienden a confundirse.

Almacenamiento NAS

NAS (Network Attached Storage) es una forma de almacenamiento que está conectada a la red de una empresa y que suele considerarse parte del propio servidor. Para ello es posible acceder a través de NFS (sistema de archivos de red), CIFS o FTP, aunque también puede hacerse a través de HTTP.

Ideal para empresas pequeñas, optar por un almacenamiento NAS es una opción que no supone un gran desembolso económico. Por un precio reducido al mes es posible contar con mayor espacio en el que almacenar bases de datos y copias de seguridad en un almacenamiento NAS que destaca su disponibilidad; ya que este espacio se integra en la red de forma que siempre estará a disposición de los usuarios, servicios o dispositivos que quieran utilizarlo.

Optar por un almacenamiento NAS es una buena opción para albergar archivos que se solicitan con frecuencia en un entorno virtualizado. Además de ser escalable, NAS permite gestionar con rapidez un gran número de archivos. De esta forma, se puede disponer de una mayor capacidad de espacio en disco en el servidor sin necesidad de pagar más por otros recursos que pueden no ser necesarios; como el aumento de RAM o más procesadores.

¿Qué es una red de área SAN?

Las redes de área de almacenamiento SAN (Storage Area Network) son una forma de añadir un espacio extra al disco de un servidor o un conjunto de servidores con alto rendimiento. A diferencia de NAS, un almacenamiento SAN actúa como si formara parte de los componentes físicos del servidor, por lo que actúa en local. Por ello, son la solución perfecta para alojar bases de datos empresariales o de páginas web o tiendas online con un gran tráfico.

Al actuar como un almacenamiento ‘dentro del servidor’, cualquiera de los servidores cliente pueden leer y escribir sobre él, algo que no es posible en NAS. De esta forma se reducen los tiempos de respuesta y, además, se evita un consumo excesivo de ancho de banda; ya que no la información no tiene que salir del servidor y el acceso a los datos es instantáneo. Todo esto permite configurar máquinas muy potentes que permitan escalar sin límites la capacidad de una red.

¿En qué se diferencian NAS y SAN?

NAS y SAN son soluciones de almacenamiento complementarias pero que generalmente rivalizan entre sí. No todas las empresas pueden permitirse contar con las dos formas de almacenamiento y, para que decantarse por una u otra sea más sencillo, estas son sus principales diferencias:

  • Mientras que NAS recurre a las redes TCP/IP para conectarse con el servidor principal, SAN hace lo propio a través de una red de alta velocidad.
  • NAS es un sistema basado en archivos, SAN en bloques.
  • El rendimiento que ofrece una red SAN es mucho mayor que el de NAS, de ahí que se recomienden en sitios web de gran tráfico. Por el contrario, NAS, además de peor rendimiento también tiene más latencia, aunque esto puede compensarse con una red a mayor velocidad.
  • El coste de contratar NAS y SAN no tiene nada que ver. Por ser más simples, los dispositivos NAS también son más baratos que un SAN. Lo mismo ocurre con su gestión, mientras que NAS es fácilmente administrable, SAN requerirá de un técnico profesional.

Como en muchos otros servicios, como un VPS o un cloud, la elección de una solución de almacenamiento u otra está relacionada con el tipo de proyecto y sus necesidades.

El ataque informático que engaña a los CDN: CPDoS

Publicado enCiberataques en octubre 29, 2019 10:00 am

Que Halloween sea la noche más terrorífica del año tampoco tiene porqué ser algo literal. El temor a sufrir un ciberataque es algo que se sufre durante todo el año. De hecho, solo en este mes de octubre hemos conocido unos cuantos casos de ciberataques, hackeos, phishing…Lo último, una nueva forma de ataque informático: el CPDoS. ¿En qué consiste este nuevo ciberataque que afecta a los CDN y cómo evitar en Halloween (o en cualquier otro día) ‘la muerte’ digital de tu web?

El ataque de los CPDoS

Hace solo unos días la Universidad de Colonia ha revelado la existencia de un nuevo ciberataque que afecta a las redes de distribución de contenido o CDNs. Una nueva forma de ataque informático que se basa en devolver al visitante una página de error, en lugar del contenido real de la web. Algo que sería posible al envenenar los CDN, es decir, las redes distribuidas que se encargan de servir de forma más rápida el contenido de una web ubicada en cualquier parte del mundo.

CPDoS (Cache-Poisoned Denial-of-Service), que así es como se llama esta nueva forma de ataque informático, está orientado a deshabilitar recursos y páginas web. Principalmente, consiste en generar una nueva entrada de CDN en un servidor mediante un encabezado HTTP de gran tamaño. Si el CDN permite que dicho encabezado acabe pasando al sitio web, el servidor terminará por procesarlo y generar una web que se almacenará en el caché del servidor de CDN.

Como consecuencia del tamaño del encabezado malicioso, el servidor web original se bloqueará; generando así un error 4xx. Esta página de error se almacenará en el caché del CDN y, cuando un usuario trate de acceder a la web obtendrá página de error en vez del contenido real de la página. Este error se propagará a otros nodos de la red CDN, haciendo ver que la web ‘está rota’ cuando no es así.

Tipos de ataques de CDN

Los investigadores han determinado tres tipos principales de ataque CPDoS en función del encabezado HTTP utilizado por el atacante, aunque existen otras muchas variaciones del ataque.

  • HHO, para los encabezados HTTP de gran tamaño. El estándar establecido por la mayoría de los servidores web y servidores proxy es de alrededor de 8.192 bytes; aunque algunos sistemas como Amazon Cloudfront CDN permite hasta 20.480 bytes. Este tipo de ataque CPDoS consiste en enviar al servidor CDN un encabezado de un tamaño mayor al admitido, pero menor del que permite el servidor de caché. Así, al no poder gestionarlo el primero, el segundo lo interpretará como un error en el sitio web.
  • HMC, para los encabezados que contengan metacaracteres. Funciona de manera similar el HHO, solo que, en lugar de enviar un encabezado demasiado grande, la solicitud incluye un carácter no admitido por el servidor de CDN. Basta un simple salto de línea para provocar un ataque CPDoS de tipo HMC.
  • HMO, para aquellos que anulen el método HTTP. El estándar HTTP admite unos pocos métodos para realizar comunicaciones en la web; de los que los sistemas intermedios como proxies o firewalls solo admiten GET y POST. Para eludir las restricciones, algunos sistemas proporcionan encabezados especiales de forma que la solicitud pueda enviarse al servidor. Y son estos encabezados especiales los que serán utilizados por el atacante para provocar un ataque CPDoS

Por (no solo) un Halloween sin CPDos

Igualmente, para evitar que tus CDN acaben infectados por un CPDos, podemos encargarnos de gestionar tus CDN. Mantener los sistemas seguros es una tarea que lleva su tiempo, pero en Linube podemos hacerlas por ti, para que tu seguridad siempre esté garantizada.

De esta forma, además de olvidarte de tener que configurar, o revisar la configurar, de tus CDN evitarás que un ataque, como un CPDoS impida que tus usuarios accedan a tu sitio web.

¿Aún no has instalado un captcha en tu sitio web?

Publicado enCiberataques en octubre 23, 2019 10:00 am

Cuando tienes una web o una tienda online uno de tus objetivos es conseguir que cada vez más personas lleguen a él de forma orgánica y, si se da el caso, se registren en la web. Por ello, es habitual crear una página de contacto, añadir un formulario, habilitar el registro… pero ¿has instalado un captcha? Generalmente el problema viene cuando los emails que recibes o los nuevos usuarios registrados no son reales; además de que es probable que acabes fijando tus objetivos en base a unos datos de audiencia que no son ciertos. Para evitar esto desde hace unos años en casi todas las páginas web se utilizan los captchas.

Captcha, ¿qué es?

El captcha (Completely Automated Public Turing test to tell Computers and Humans Apart); es decir, una prueba de Turing automática y pública que permite diferenciar ordenadores de humanos. A pesar de la referencia a la prueba de Turing, los captcha están controlados por una máquina, en lugar de por un humano; así que más bien se trata de una prueba de Turing inversa, nombre por el que también es conocido.

Utilizado por primera vez en el 2000, el captcha comenzó a desarrollarse a mediados de los 90, cuando los buzones de correo y los foros de internet empezaron a llenarse de spam. Un invento surgido en Altavista, uno de los buscadores más conocidos antes de que Google lo arrasara todo, para evitar que las peticiones de registro en su motor de búsqueda se llenaran de spam. La razón de ser del captcha se encuentra en que se supone que un ordenador no será capaz de comprender lo que en la imagen distorsionada a descifrar se muestra.

Principalmente los captcha se utilizan para evitar que bots, o spambots, utilicen algunos servicios de internet. Por ejemplo, es habitual su instalación en formularios de contacto para evitar que puedan enviar spam al email del sitio web, en encuestas o foros de discusión para no desvirtuar el mensaje o que no puedan registrarse en ninguna página web o tienda online. Antes de que cualquiera de estas acciones se produzca deberá pasarse por el captcha y, solo si se supera el mensaje o la acción se llevará a cabo.

ReCaptcha, su versión mejorada

Más allá de que solo sirven para demostrar la humanidad, los captcha no son infalibles. Prueba de ello es que el spam y los bots no solo se cuelan entre los formularios de contacto. También son capaces de llevar a cabo ataques DDoS o distribuir malware. Por ello se intentó mejorar el método para evitar que la explotación de vulnerabilidades o el entrenamiento de los sistemas lograra descifrar el captcha.

El reCaptcha es la evolución del captcha, una nueva versión que sirvió para digitalizar textos que los ordenadores no podían entender. Con el tiempo, y la adquisición del proyecto por parte de Google en 2009, dejaron de utilizarse caracteres aleatorios para mostrar palabras de textos que el usuario debía identificar para buscar otros métodos más productivos.

Un lustro después, en 2014, el reCaptcha evolucionó a No captcha reCaptcha, la verificación mediante un solo click. Esto fue posible gracias al análisis que se hacía de los movimientos del usuario, como su dirección IP o las cookies de su equipo para asegurarse que tiene un comportamiento en internet de humano. En el caso de que el reCaptcha no esté seguro de tu humanidad, seguirá mostrando pruebas en las que tendrás que identificar coches, semáforos, letreros… información extraída de Google Street View para mejorar la precisión de las direcciones de Maps.

El captcha invisible

Prácticamente al mismo ritmo que avanzan las mejoras del captcha, hacen los propio los sistemas de bots. Por ello Google ha creado una nueva versión de reCaptcha que se caracteriza por no ser necesario interactuar directamente para poder demostrar la humanidad. Esto que hace que sea mucho menos molesto que sus antecesores también puede llevar a dudar de la prividad de nuestros datos. ReCaptcha v3 se sirve de determinados criterios, como los movimientos de ratón, el tiempo que pasamos en una web o el número de clicks que realizamos para otorgarnos una puntuación. Un sistema que puede hacer que un humano que no cumpla con estos criterios sea considerado como un no-humano; en este caso deberá pasar por un captcha tradicional.

Con la última versión de captcha llega una forma más fiel de conocer si el tráfico de una web es real o si, por el contrario, muchas de las visitas que recibimos provienen de bots. Una información muy valiosa para los administradores de sitios web que podrán utilizar estos datos para su estrategia. Al menos por el momento.

¿Conseguirá IPv6 desterrar a su antecesor IPv4?

Publicado enSistemas TI en octubre 16, 2019 10:00 am

Igual que existen los números de teléfono para llamar, aunque cada vez menos, a alguien con quien tenemos que hablar, en internet existen las direcciones IP. Una dirección IP no es más que un número que identifica a los millones de dispositivos que se conectan a internet, algo así como la matrícula de tu ordenador, de tu teléfono móvil o del servidor en el que se encuentra alojada tu página web. Hasta ahora las direcciones IP que hemos venido utilizando pertenecen a la cuarta versión del protocolo: IPv4. Un rango de direcciones que, oficialmente, se acabaron el 31 de enero de 2011 y que serán reemplazadas por IPv6.

¿Qué es IPv6?

Ante la popularización de internet y el aumento de dispositivos conectados, ya desde finales de los 90 se preveía la necesidad de un nuevo protocolo. Nuevas direcciones para todos los dispositivos que estaban por venir; de otra forma, al no ser posible ofrecer más direcciones IP el crecimiento de internet se estancaría. Por este motivo comenzó el desarrollo del nuevo protocolo IPv6, aunque no se empezara a utilizar hasta el cambio de siglo.

También conocido como IP Next Generation o IPng, IPv6 cuadruplica los bits que contiene la IP y el número de combinaciones posibles de IPv4. Así, el número de direcciones IP ha pasado de 4.300 millones a más de 340 sextillones. Más allá del incremento de IPs, IPv6 ha conseguido superar algunas limitaciones más de IPv4, como la eficiencia de los paquetes y un aumento de la seguridad respecto a su antecesor.

Nuevo protocolo, otros problemas

A pesar de que IPv6 consigue salvar muchas de las deficiencias de las anteriores versiones del protocolo IP, es totalmente incompatible con IPv4. Aunque el usuario no llegue a notar nada ya que los routers son capaces de lidiar con los dos protocolos, lo cierto es que para que dos equipos con diferentes versiones de IP establezcan conexión es necesario un intermediario. Aún así puedes comprobar si tus dispositivos son compatibles o utilizan IPv6 de una forma muy sencilla.

Cuando llegó el fin de IPv4 algunos organismos e instituciones sugirieron la adopción de IPv6 cuanto antes. Pese al dramatismo que parecía envolver la situación, el mensaje no caló demasiado entre empresas, proveedores y usuarios. Así, según las estadísticas de Google, desde enero de 2009 hasta ahora la adopción de IPv6 apenas llega al 25%, siendo Estados Unidos, India y Alemania los países que recurren a la nueva versión del protocolo IP; en España apenas llega a alcanzar el 3%. Una adopción que ha aumentado a buen ritmo en lo que llevamos de década, pero que no parece vaya a crecer mucho más en los próximos años.

El estancamiento de IPv6 se debe principalmente a la situación de IPv4. En la teoría, el número de direcciones IP de la versión 4 lleva años agotado, pero no así en la práctica. Desde hace algunos años ha surgido la figura del IP bróker, personas o empresas que se dedican a revender direcciones IP que están en desuso. Con este movimiento la necesidad de adoptar el nuevo protocolo IP deja de ser tan urgente, tanto que ya se considera a IPv6 una alternativa ante el verdadero fin de IPv4.

¿Por qué es necesario almacenar los backups en un espacio externo?

Publicado enServidores cloud en octubre 9, 2019 10:00 am

¿Te imaginas que ocurriera algún problema en tu servidor cloud y necesitaras restaurar el último backup? ¿Qué ocurriría si almacenaras todas tus copias de seguridad en el propio servidor? ¿Y si fueses a restaurar una copia de seguridad y descubrieras que no está actualizada? Para evitar cualquier problema, todos nuestros planes cloud incluyen la deslocalización del backup; el almacenamiento de las copias de seguridad en un espacio independiente para garantizar su disponibilidad.

¿Qué es la deslocalización del backup?

La deslocalización de las copias de seguridad no es más que el almacenamiento de los backups en una ubicación diferente; es decir, fuera del servidor cloud. De esta forma se garantiza que, aunque ocurra un problema en el servidor, ya sea el borrado accidental de la información, las consecuencias de una tormenta o cualquier otro fenómeno meteorológico, incluso un ciberataque, toda la información esté a buen recaudo. Sin la deslocalización del backup al perderse los datos del servidor, se perderían también las copias de seguridad, haciendo imposible restablecer el servicio.

Por ello, al contratar cualquiera de nuestros planes cloud se contrata también un espacio dedicado al almacenamiento de copias de seguridad. Dos alojamientos independientes, pero muy relacionados, que permiten asegurar toda la información que se encuentra en el servidor cloud. Aunque cada uno de estos espacios tenga una función diferente, necesariamente van de la mano; ya que el almacenamiento para backups no tiene sentido sin el espacio en disco y éste último puede estar en riesgo sin un espacio en el que almacenar las copias de seguridad. Por ello, a medida que aumenta el consumo de espacio en disco del servidor cloud, será necesario ampliar el almacenamiento correspondiente a las copias de seguridad.

¿Por qué es necesario un espacio para copias de seguridad?

A pesar de las múltiples ventajas de la tecnología cloud, como la redundancia o la alta disponibilidad, existen imprevistos que no hay nube que los arregle. Por mucho que un servidor en la nube tenga la capacidad de trasladar la información que contiene a otro alojamiento de similares características dentro de la misma plataforma, hay ocasiones en las que esto puede no ser suficiente. Por ejemplo, en el caso del borrado accidental de la información, al no producirse un fallo como tal en el servidor, la única forma de recuperar ese contenido será restaurando el último backup.

Para que sea posible reponerse de cualquier imprevisto es necesario contar con un espacio en el que almacenar las copias de seguridad; un espacio independiente para garantizar la deslocalización del backup. Además del espacio, hay que mantener las copias de seguridad actualizadas para evitar sustos cuando haya que restaurarlas. No sería la primera vez, ni lamentablemente la última, que los backup no están actualizados y se pierden días, o incluso meses, de datos y trabajo. Cantidades de información entre las que no solo se encuentran los datos de la compañía, sino también de todos sus clientes.

Confíanos tus copias de seguridad

En Linube cuidamos al máximo los datos de cada uno de nuestros clientes. Somos conscientes de la importancia de realizar copias de seguridad y de la deslocalización del backup. De ahí que nuestros servidores cloud vayan unidos a un almacenamiento para copias de seguridad. Pero, si además del espacio para backup, contratas alguno de nuestros servicios de administración de sistemas estarás dejando en las mejores manos tus copias de seguridad.

Con la intención de ponértelo fácil nos encargamos de realizar tus copias de seguridad. Tanto backups completos, coomo de la base de datos, para que la información siempre esté actualizada. Así se evita que un despiste te deje sin backups; igualmente si se trata de falta de espacio en el almacenamiento para copias de seguridad, te notificaremos con tiempo para que puedas ampliar este espacio.
El almacenamiento para copias de seguridad es la pareja perfecta de tu servidor cloud. Un dúo que, si quieres tener la tranquilidad de que toda tu información está protegida, no deberías separar.

¿Qué es un servidor proxy?

Publicado enSistemas TI en octubre 2, 2019 10:00 am

Tanto si estás familiarizado con la informática como si no, es muy probable que en algún momento hayas oído hablar de servidor proxy. Un servicio que proporciona privacidad en internet y que es habitual confundir con una VPN. A pesar de que ambas formas de conexión nada tienen que ver.

¿Qué es un servidor proxy?

Un proxy es un sistema que actúa de intermediario entre dos dispositivos informáticos. Generalmente, este tipo de conexiones suelen ser entre un ordenador o un Smartphone e internet. Un servidor proxy suele utilizarse para navegar de forma privada, ya que el proxy evita que se establezca una conexión directa entre el dispositivo que solicita la información y el que la contiene.

En líneas generales, un servidor proxy no es más que un equipo informático independiente que intercepta las conexiones entre un cliente y el servidor de destino. Así, esta intermediación evita que al solicitarse los datos se recoja información del equipo desde el que se lanza la petición. Así, siempre que un dispositivo (A) solicita información a otro (C), existirá alguien en el medio de la transmisión (B) que se encarga de solicitar y devolver los datos que se han pedido. De esta forma, la información se envía, a través del proxy, a un usuario anónimo.

¿Para qué se utiliza un proxy?

Más allá de la privacidad que proporciona al enmascarar la IP del equipo que solicita unos determinados recursos, un servidor proxy tiene otras utilidades que permiten mejorar la navegación. Por ejemplo, al funcionar como caché no es necesario volver a pedir al servidor de destino un determinado contenido, puesto que estará almacenado en la memoria de la aplicación. De esta forma el contenido se sirve de forma instantánea, haciendo que la navegación web sea más fluida. Además, el servidor proxy permite controlar el acceso de usuarios y otorgar permisos, ahorrar recursos o establecer conexiones más seguras.

Pese a sus ventajas, los servidores proxy también tienen aspectos negativos. El control de accesos no es perfecto, ya que un mismo servidor proxy puede recibir un gran número de peticiones de diferentes usuarios y es posible que se acabe otorgando permisos a un usuario que no tiene acceso. Además, a pesar de que el cacheo permita mejorar el rendimiento, es posible que la información almacenada en caché esté desactualizada, haciendo que el servidor proxy devuelva respuestas antiguas.

¿Servidor proxy o VPN?

Por su capacidad para conectarse a equipos remotos y actuar como intermediario entre dos dispositivos, es muy común confundir un servidor proxy con una conexión a través de VPN. Aunque es cierto que los dos servicios tienen algún punto en común, como el anonimato que ofrece al ocultar la dirección IP del equipo que solicita la información, en cuanto a seguridad no tienen nada que ver.

Mientras que el servidor proxy es una máscara que cubre a un equipo para navegar por internet, la VPN además de proporcionar mayor privacidad, encripta la conexión. Un servidor proxy solo oculta la dirección IP original del equipo que solicita la información, pero no añade mayor seguridad, además de actuar únicamente sobre una aplicación determinada, como un navegador, no a nivel de red. Para privatizar y asegurar todas las conexiones que salgan de un equipo es necesaria una VPN, un servicio básico si, por ejemplo, vamos a acceder a herramientas corporativas desde una red pública.

Por hacerlo más simple, es como si un servidor proxy fuera una careta de superhéroe, mientras que una VPN es un acceso a un club de superhéroe. Con el primero podrás disfrazarte de Batman y hacerte pasar por él, pero no podrás formar parte de sus amigos. Ahora la decisión de qué quieres ser, o qué te conviene más utilizar si una VPN o un servidor proxy, es tuya. Tu privacidad y seguridad en internet son lo que tú necesitas que sean.

WHOIS (por fin) podría tener un sustituto: RDAP

Publicado enDominios en septiembre 25, 2019 10:00 am

La llegada del nuevo reglamento de privacidad de los datos ya hizo presagiar el final de WHOIS, un final que ahora parece inminente. Durante unas cuantas décadas, WHOIS ha sido la única fuente de información para encontrar los datos de los propietarios de los dominios. Una base de datos pública que no ha sabido adaptarse a los cambios de legislación ni al funcionamiento de internet y que está a punto de ser sustituida por RDAP.

¿Qué es RDAP?

El Protocolo de Acceso a Datos de Registro (RDAP) es la principal alternativa para reemplazar a WHOIS. Un nuevo protocolo desarrollado por el IEFT en 2015 para proporcionar el mismo servicio que WHOIS, pero resolviendo todas sus deficiencias. Al igual que su antecesor, RDAP permite conocer información relacionada con recursos fundamentales de internet, como nombres de dominio, direcciones IP o Sistemas Autónomos (ASN) de una forma más segura, estandarizada e internacional.

Teniendo en cuenta que WHOIS nació en 1982 para consultar información sobre las conexiones de ARPANET y que apenas ha sufrido modificaciones en este tiempo; es normal que el protocolo no sea capaz de satisfacer las necesidades técnicas de la web e internet en pleno 2019. Además de sus limitaciones técnicas, la concienciación sobre la privacidad en internet, especialmente desde la llegada del RGPD, ha terminado de rematar al obsoleto protocolo.

Un protocolo actualizado

Junto con las principales debilidades de WHOIS, a la hora de diseñar RDAP se han considerado las etiquetas utilizadas por los servidores de WHOIS para mostrar los datos. Y es que problemas de seguridad aparte, WHOIS muestra la información en texto plano; algo que dificulta su interpretación. A lo que habría que añadir la imposibilidad de utilizar alfabetos no latinos; haciendo que consultar información de un dominio, por ejemplo, asiático sea misión imposible. Por ello, con RDAP se busca dar respuesta a todos los problemas que WHOIS no ha conseguido hacer frente.

  • Formato estandarizado de preguntas-respuestas y mensajes de error. RDAP devuelve los datos en formato JSON, haciendo que la interpretación de los programas informáticos sea más sencilla. Además, permite la automatización de un gran número de tareas y no es necesario recurrir a software adicional porque se utiliza una semántica común y estructurada.
  • Acceso seguro a través de HTTPS. Mientras que en WHOIS no es posible autenticar el servidor y el contenido se sirve en texto plano, con RDAP la información se cifra.
  • Autenticación y definición de permisos de acceso a los datos. La llegada del RGPD ocultó al público general casi toda la información contenida en WHOIS. Con RDAP solo los usuarios autorizados tendrán acceso a la dirección de correo o al contacto técnico de una página web; los usuarios anónimos únicamente podrán ver los datos más básicos. Una forma de reducir los ataques contra sitios web y empresas.
  • Mayor flexibilidad. Mientras que WHOIS está vinculado a TCP y a un puerto específico, RDAP tiene una mayor independencia al recurrir a HTTP. Esto hace que sea posible realizar búsquedas de datos, en lugar de búsquedas estáticas, y se simplifique la programación de servicios de consulta.
  • Internacionalización de los datos. Gracias a HTTP es posible consultar información en otros idiomas y alfabetos. De esta forma, la limitación de WHOIS a alfabetos latinos, al no poder especificarse la codificación de texto, desaparece.

El último intento

No es la primera vez que se intenta crear un protocolo que sustituya a WHOIS. CRISP e IRIS son algunos de los intentos por renovar una herramienta fundamental pero desfasada. Y es que la información contenida en WHOIS puede ser de utilidad para informar al propietario de una web sobre problemas técnicos, para informar de vulneraciones de derechos de autor, tomar acciones legales e incluso para intentar comprar el dominio asociado. Pero también puede ser utilizado con fines menos amables como el envío de spam.

Los servidores de WHOIS han sido la fuente de información de los spammers durante años; ya que mediante una simple búsqueda era posible hacerse con un gran número de direcciones de email. De ahí que haya sido necesario buscar una alternativa que ofrezca las mismas funciones que WHOIS, pero cumpliendo con las normativas vigentes; especialmente con la RGPD.

Si por la ICANN hubiera sido, WHOIS habría sido sustituido por otro protocolo hace mucho tiempo. Con RDAP parece que por fin podría llegar el reemplazo perfecto.

¿Qué es la directiva PSD2 y cómo te afecta?

Publicado enGeneral en septiembre 18, 2019 10:00 am

Como en todo, a medida que el comercio electrónico ha ido creciendo y mejorando ha ocurrido lo mismo con su seguridad. Especialmente si tenemos en cuenta que en estas transacciones se utiliza información tan sensible como nuestros datos bancarios. Para evitar que cada operador siguiera sus propios procesos y tiempos, en 2007 se adoptó la Directiva PSD1 (Payment Services Directive). Una norma que permitía homogeneizar los procesos estableciendo un marco común en todos los países de la Unión Europea. Más allá de la estandarización, la puesta en marcha de la primera versión de PSD sirvió para fomentar la competitividad en el sector y generar valor añadido en las tiendas online y sus consumidores. En los próximos días llegará PSD2, la nueva directiva para los pagos digitales.

PSD1, un antes y un después

Desde su puesta en marcha en 2007, PSD1 supuso un antes y un después en el comercio electrónico y sus agentes en toda la Unión Europea. Con la llegada de PSD1 se acabó el monopolio de los bancos como único agente autorizado para realizar operaciones económicas y aparecen nuevos conceptos de entidades y formas de pago. Entre ellas las llamadas entidades de pago, empresas cuya única función es gestionar cobros y pagos; actividad para la que habrán tenido que cumplir con ciertos criterios establecidos en la norma.

Junto con la llegada de las entidades de pago vinieron los iniciadores de pago. Un nuevo sistema de pago que se basa en transferencias instantáneas y directas desde la cuenta del usuario a la del comercio electrónico. Esto permitió integrar nuevas pasarelas de pago, como PayPal o Redsys, en las tiendas online.

La nueva versión: PSD2

Como era de esperar con tanto cambio en el comercio electrónico, ha sido necesario actualizar PSD1 para corregir algunos de sus problemas y, especialmente, mejorar la seguridad del consumidor. Este es el caso de algunas aplicaciones de ahorro o de seguros que requieren de nuestra información bancaria para poder funcionar, un acceso a los datos que hasta la llegada de PSD2 no estaba regulado. Con PSD2 todas las entidades que intervengan en el proceso habrán sido certificadas por una autoridad competente, en este caso el Banco de España.

Además, los bancos deberán facilitar una API a los proveedores para que se realicen las transferencias. De esta forma se acaba con el retraso en las transferencias bancarias, y la demora en el envío y recepción del producto, al realizarse una transacción directa entre usuario y comercio electrónico. Por ejemplo, si adquirimos varios productos en un Marketplace, con PSD2 cada una de las partes recibirá de forma directa e inmediata el dinero que le corresponde. En lugar de que sea el Marketplace quien distribuya, del importe total de la compra, lo que corresponde a cada una de las partes.

Asimismo, con la llegada de PSD2 no será necesario abandonar la web de una tienda online para poder realizar el pago. Es decir, ya no seremos redirigimos a su pasarela de paso, sino que el cobro se realizará dentro del mismo sitio web. Esto implica que compañías como Visa o Mastercard dejarán de tener visibilidad en todos los sitios web al realizarse una transacción directa entre el banco y el ecommerce mediante API.

Más seguridad

Con PSD2 los datos bancarios del usuario estarán protegidos en todo momento por dos certificados diferentes. Por un lado, QWAC, un certificado entre el proveedor y la entidad bancaria que se encarga de encriptar los datos en transmisión. Y, por el otro QSealC un sello de seguridad que viaja adjunto a los datos. Este último permite realizar un seguimiento de las empresas que han accedido a la cuenta bancaria y que transfirieron información a través de la API del banco en cuestión. Además, QSealC garantiza que los datos se puedan modificar. La emisión de estos certificados es competencia del Banco de España. Para poder acceder a ellos es necesario, además de la aprobación de la autoridad competente, contar con alguno de los siguientes permisos:

  • Servicio de agregación de información (AIS). Un permiso para proveedores que estén interesados en recibir información de una cuenta bancaria. Estas entidades se encargan de recopilar y mostrar los datos haciendo que el cliente pueda acceder a toda su información con mayor facilidad.
  • Servicio de iniciación de pagos (PIS). Esta licencia está orientada a empresas que pueden realizar pagos o transferencias en nombre del cliente. Para ello recurren a un software que conecta las cuentas bancarias del comprador y la empresa y notifica a las partes cuando se ha realizado la transacción.

Además, con PSD2 no se permitirán recargos adicionales al finalizar el proceso de compra. Con la nueva normativa dejarán de aplicarse sobreprecios sobre el precio de compra por razones como el tipo de tarjeta de crédito.

Consecuencias de PSD2

Al igual que ocurrió con la RGPD, parece que solo hemos escuchado hablar de ella cuando su llegada es inminente. Pero lo cierto es que PSD2 fue adoptada en 2017 y su incorporación a la legislación española llegó en septiembre de 2018. En primer lugar se estableció el 14 se septiembre como fecha límite, el plazo para su implantación se ha ampliado entre 14 y 18 meses.

La llegada de PSD2 afecta principalmente a los bancos y las entidades financieras, lo que hace de esta nueva directiva algo prácticamente inapreciable para usuarios y tiendas online. En cualquier caso, antes de la llegada de PSD2 te recomendamos asegurarte de que tu ecommerce está adaptado a esta nueva norma, evitando así cualquier tipo de penalización como consecuencia de su incumplimiento. Por ejemplo, en el caso de que no hayas implementado la autenticación en dos pasos en tu tienda online algunos pagos serán automáticamente cancelados. Esto afectará a:

  • Pagos con un importe superior a los 30€, o con un coste superior a 100€ si se trata de varios productos.
  • Transacciones económicas que tengan lugar dentro de la Unión Europea. En el caso de que se produzcan fuera del territorio europeo no será necesaria la doble autenticación.
  • Transacciones solicitadas por el cliente. Para aquellas iniciadas por parte de las empresas, como las domiciliaciones bancarias, no se requiere de doble factor de autenticación.

Adiós a las tarjetas de coordenadas

Entre los principales cambios que llegan con la nueva PSD2 se encuentra el fin de las tarjetas de coordenadas. Sí, aquella que te dieron el primer día y que siempre necesitarías para realizar compras por internet. El método estandarizado de doble autenticación de los últimos años, también desaparece al no tener que salir de una tienda online para pagar por sus productos.

A partir de la llegada de la nueva norma, la seguridad adicional en tus compras vendrá desde tu móvil, indispensable para realizar cualquier pago a través de internet. Lo que provocará que también deje de tener importancia el CVV de tu tarjeta, otro de los códigos de seguridad tradicionales.

Activa la 2FA

Aunque las estadísticas indican que el fraude en el comercio electrónico se encuentra en niveles muy bajos gracias al uso de sistemas de seguridad en las aplicaciones, la autenticación en dos pasos reducirá aún más estas cifras. Desde el 14 de septiembre todos los pagos que se realicen en una tienda online deberán estar protegido por la autenticación en dos factores. La 2FA es un requisito indispensable en un ecommerce para cumplir con la nueva PSD2.

Con esta medida se seguridad adicional se garantiza el pago seguro y se protege al máximo la información más sensible solicitando al cliente al menos dos de los siguientes elementos:

  • Algo que solo el cliente conozca. Como su contraseña o un PIN de acceso, el resto de su información bancaria, como el número de cuenta, no se consideran datos que el cliente tenga que conocer.
  • Algo que solo el cliente posea. Por ejemplo, su teléfono móvil.
  • Algo propio del cliente. El reconocimiento facial, mediante huella dactilar o a través de su voz.

Para ello puedes instalar un plugin, si se trata de un WooCommerce, o un módulo, en el caso de PrestaShop, que ofrezca esta funcionalidad. Eso sí, antes de instalar nada asegúrate de que el tema de tu ecommerce y los addons que se encuentren en ella son compatibles con el nuevo elemento.

Sencillez con PSD2

En un intento por hacerlo todo más sencillo, no será necesario introducir el segundo factor de autenticación cada vez que quieras realizar un pago. Durante un plazo de 90 días, el banco recordará que eres tú quien paga y no solicitará la comprobación.

Aunque cada banco llevará una estrategia diferente de cara a la adaptación a PSD2, lo cierto es que todos harán del móvil algo fundamental. Si antes debíamos tener a mano la tarjeta física para realizar pagos, ahora no podremos perder de vista nuestro smartphone; y siempre con conexión a internet, evidentemente. Bueno, y tener la aplicación de nuestro banco siempre actualizada, porque es muy probable que los códigos de confirmación se envíen desde la APP y no con un SMS, para evitar consecuencias del SIM swapping. Auqnue por el momento son muy pocas las entidades bancarias que han rehusado utilizar los mensajes de texto como factor de doble autenticación.

SIM swapping, el fraude bancario que empieza por tu tarjeta SIM

Publicado enCiberataques en septiembre 11, 2019 10:00 am

Desde que empezaron a convertirse en algo fundamental en nuestro día a día, el temor a perder nuestro smartphone ha pasado a ser uno de los miedos más frecuentes. Y es que cada vez que no encontramos nuestro teléfono móvil a la primera, el microinfarto está asegurado. A este susto hay que sumarle otro que parece estar en su máximo esplendor: el SIM swapping.

¿Qué es el SIM swapping?

También llamado suplantación de tarjeta SIM, este tipo de fraude consiste en explotar la puerta de acceso a los datos de nuestros terminales para accederse con nuestras credenciales. Aunque muchas veces tendemos a infravalorarlas, las tarjetas SIM son las responsables de que podamos hacer infinidad de tareas desde nuestros smartphones; desde llamadas telefónicas a intercambiar WhatsApp, tareas que no serían posibles sin la tarjeta SIM del dispositivo.

Así, el SIM swapping consiste en burlar los protocolos de los operadores móviles para hacerse con un duplicado de la tarjeta de otra persona. Con la SIM duplicada en su poder, el atacante puede acceder a los servicios de la víctima gracias a la autenticación en dos pasos a través de SMS. Esto se debe a que los mensajes de texto no están cifrados, lo que hace que utilizarlos para la autenticación en dos pasos no sea la mejor de las ideas. Aunque no hace tanto recurrir al SMS como capa extra de seguridad a la hora de acceder a algunos servicios era recomendable, actualmente es mejor optar por otras alternativas como la huella dactilar, el reconocimiento facial o aplicaciones como Google Authenticator.

Detectando el fraude de la SIM

Saber si estamos siendo víctimas de esta nueva técnica de ataque basta con prestar atención a dos factores clave: la cobertura del dispositivo y los movimientos bancarios inusuales. Al duplicarse la tarjeta SIM lo normal es que la tarjeta original deje de funcionar, de ahí que se produzcan pérdidas de cobertura. Además, pese a los complejos y seguros protocolos que siguen las entidades bancarias, la mayoría de los bancos recurren a los SMS como factor de doble autenticación. Por eso, hacerse con un duplicado de la tarjeta de tu móvil es esencial para el SIM swapping porque, entre otras cosas, las SIM móviles funcionan en cualquier plataforma.

Para obtener el duplicado de una tarjeta SIM los hackers se valen de todo tipo de técnicas de ingeniería social a través del engaño del trabajador de la operadora móvil. Aunque en ocasiones también se recurre a ciberataques o a la compra de bases de datos de páginas web que hayan sido comprometidas. Incluso es posible descifrar el código de acceso al móvil haciendo que el proceso sea aún más sencillo.

¿Cómo evitar ser víctimas de SIM swapping?

No cabe duda de que el móvil no es solo el dispositivo que más utilizamos sino también el que almacena mayor cantidad de información. Por ello, además de cuidarnos de no perderlo o que puedan robárnoslo, es importante tomar precauciones digitales para evitar que puedan clonar nuestra tarjeta SIM.

  • Establece como forma de 2FA una clave física, como la huella dactilar o el reconocimiento facial y, si optas por contraseñas o códigos PIN, almacena las claves en dispositivos sin conexión a internet. De esta forma se evita que tus contraseñas puedan filtrarse.
  • No compartas demasiada información sobre ti en lugares públicos como redes sociales o foros de internet. Cuantos más datos publiques, más fácil será utilizar esa información en tu contra.
  • Evita almacenar toda tu información en tu dispositivo móvil. El hecho de que sea tan fácil de transportar también convierte a tu smartphone en fácil de perder o susceptible de ser robado.
  • Aunque es prácticamente imposible, evita vincular el menor número de servicios con tu número de móvil. De esta forma en el caso de ser víctima de SIM swapping el atacante solo tendría acceso a aquellos servicios en los que, entre la información de tu perfil, aparezca tu número de contacto.

Otras consecuencias

Aunque el fraude bancario sea la principal consecuencia, el SIM swapping puede llegar a expandir malware entre los contactos de tu agenda; principalmente a través de enlaces enviados por mensaje instantáneo. Porque, ¿quién va a desconfiar de lo que le envía uno de sus contactos?

En las últimas semanas parece que el SIM swapping está instalándose en nuestro país. Así que si notas que de repente tu teléfono móvil experimenta comportamientos extraños no dudes en ponerte en contacto con tu operadora móvil y, sobretodo, cambiar las claves de acceso y el segundo factor de autenticación de todos los servicios que utilices. Además, no olvides avisar a tus contactos para evitar que puedan acabar siendo víctimas también del SIM swapping.

El SIM swapping es algo que puede pasarle a cualquiera, desde usuarios anónimos que comparten su experiencia en Twitter, hasta el propio cofundador de la red social, Jack Dorsey. Nadie se salva de la maldad de los ciberdelincuentes.

Conoce el consumo de tu servidor con las nuevas gráficas de monitorización

Publicado enServidores cloud en septiembre 4, 2019 10:00 am

La monitorización proactiva es una de las características principales de nuestros servicios de administración de sistemas. Pero, el hecho de que nos encarguemos de vigilar el estado en el que se encuentra tu servidor cloud para adelantarnos a gran parte de los futuros problemas, no significa que no puedas comprobar por ti mismo el estado en el que se encuentra tu máquina. Por ello, hemos mejorado las gráficas de monitorización para ofrecerte más información del servidor cloud de una forma más sencilla.

Más datos, más fácil

Detrás de cada servidor cloud hay una gran cantidad de información: datos económicos, información concreta sobre el consumo del servidor, el estado del servicio, cuánto espacio queda para almacenar backups… Para que conocer todos estos datos, y entenderlos, sea más sencillo desde el área de cliente puedes acceder a las gráficas de monitorización de tu servidor y más información relacionada con tu alojamiento. Ten en cuenta que estos datos solo están disponibles en el caso de los servidores con administración de sistemas.

Mediante la opción ‘ver detalles’ de tu servidor puedes comprobar de un solo vistazo que todo en tu servidor cloud funciona de forma correcta. Además, de conocer el estado del servidor, también puedes conocer el tiempo que lleva encendido, la dirección IP o el periodo de facturación. Asimismo, puedes ver la configuración del alojamiento y los servicios adicionales, como el tipo de servicio de administración de sistemas que tengas contratado, si dispones o no de mantenimiento de WordPress o si cuentas con licencia Plesk; además de consultar el estado en el que se encuentra el espacio para copias de seguridad.

Interpretando las gráficas de monitorización

Sin duda el principal cambio son las nuevas gráficas de monitorización. Una serie de tablas que aportan datos precisos sobre el uso de cada uno de los recursos contratados. Además, muestra el estado en tiempo real de los diferentes servicios instalados en el servidor.

  • CPU. La CPU, o core, es uno de los aspectos esenciales de la monitorización, ya que cada una de las acciones que se producen en el servidor consumen CPU. Expresado en porcentaje, puede que algunos procesos aumenten puntualmente la carga de CPU. Un consumo elevado durante un periodo prologado indica que los recursos de la máquina no son suficientes para la ejecución de los procesos y puede afectar al funcionamiento de la máquina.
  • RAM. Es la memoria con la que cuenta el servidor y que es fundamental para atender las peticiones de los usuarios, de ahí que sea otro de los aspectos esenciales en las gráficas de monitorización. A diferencia de la CPU, es normal que el consumo de RAM se mantenga de forma prolongada. Estos niveles suelen estar relacionados con la necesidad de ampliar los recursos, aunque también pueden deberse a la mala configuración de alguno de los servicios o aplicaciones.
  • Disco. Indica el espacio total de almacenamiento con el que cuenta el servidor cloud. En el disco se almacenarán los archivos de la web, o webs, almacenadas en el servidor, los buzones de correo, las bases de datos… cualquier elemento que dependa o posibilite el funcionamiento del servidor. En Linube recomendamos dejar siempre un 20% de la capacidad del disco libre para poder ejecutar los backups y garantizar el correcto funcionamiento del servidor.
  • Ancho de banda de banda de entrada y salida. Es la cantidad de datos que se transmiten por segundo desde y hacia el servidor. Para calcular estos niveles recurrimos a la fórmula del percentil 95. En los momentos en que el consumo de ancho de banda es más elevado es posible que la velocidad del sitio web se resienta y que la página tarde más en responder.
  • Transferencia mensual. El volumen total de datos contratados que se pueden transferir en un mes. Aquí se tiene en cuenta tanto el tráfico del sitio web, como cualquier servicio instalado en el servidor.
  • Espacio para backups. Para garantizar la disponibilidad de las copias de seguridad, los backup se almacenan en un espacio independiente y externo al servidor. Con estas nuevas gráficas de monitorización podrás saber en cualquier momento qué servicios ocupan más espacio, cuánto pesa cada copia de seguridad y la periodicidad con la que se actualizan.

Gráficas de monitorización cloud desde el área de cliente de Linube

En mejora continua

Hace unos meses os presentábamos una forma más sencilla de apagar, reiniciar o forzar el apagado de un servidor no administrado. En esta ocasión, la mejora está orientada a los servidores administrados. Junto a las gráficas de monitorización podrás comprobar el estado en el que se encuentran cada uno de los servicios instalados en el servidor. Además de las URLs monitorizadas y el tiempo de respuesta de dichas direcciones. Para hacerlo más visual, hemos recurrido a tres colores; verde cuando el estado del servicio es correcto, amarillo para los avisos y rojo para alertar de los errores. Con las nuestras nuevas gráficas de monitorización podrás conocer de primera mano, y de la forma más transparente, el consumo de recursos de tu servidor y del almacenamiento para backups.

Seguimos trabajando para ser lo más transparentes posible. Por ello, a partir de ahora cada vez que se produzca alguna incidencia en cualquiera de tus servicios contratados aparecerá una notificación en la ventana de inicio del área de cliente. Así, podrás saber en todo momento de qué se trata con tan solo iniciar sesión en tu panel de cliente. En cualquier caso, también te notificaremos por email del estado de la incidencia y del restablecimiento del servicio.

En Linube no solo tratamos de mejorar nuestros servicios a nivel técnico. Queremos que tú seas testigo de cada una de estas mejoras y puedas beneficiarte de ellas.

Los doodles de Google, garabatos con arte

Publicado enGeneral en agosto 28, 2019 10:00 am

Ya no nos sorprende entrar en la página principal de Google y darnos cuenta de que su logotipo ha cambiado. Es más, muchas veces es probable que ni nos demos cuenta de que el logo tradicional se ha sustituido temporalmente por un doodle; bien porque nos hemos acostumbrado a su presencia, o simplemente porque no pasamos por la página de inicio de Google. Lo cierto es que los doodles se han convertido en un elemento informativo más de nuestro día a día. Pero, ¿cómo surgió el doodle?

El nacimiento del doodle

La primera alteración del logotipo de Google tuvo lugar un final de agosto de 1998. Larry Page y Sergey Brin se disponían a acudir al Burning Man Festival, un evento de siete días que se celebra en Nevada, Estados Unidos. Antes de marcharse lejos de la civilización, los creadores de Google decidieron notificar en clave de humor a sus usuarios sobre su futura ausencia. Sobre su ‘out of office’ (OoO), justo lo que la unión lo de logotipos sugería de forma sutil. Especialmente por si durante esos días se produjera algún inconveniente que pudiera afectar al funcionamiento de la aplicación o si los servidores se dañaban.

Desde esa primera prueba tuvieron que pasar un par de años hasta que en julio de 2000 apareciera un segundo doodle dedicado al Día de la Toma de la Bastilla. Un proyecto con tan buenas críticas que, además de servir para nombrar a su autor como ‘doodler’ oficial, propició que el doodle se fuera convirtiendo en un indispensable del buscador para comunicar todo tipo de acontecimientos. En un primer momento, dedicados a festividades populares, para después representar también eventos específicos de cada uno de los países.

Repasando los doodles

En estos 21 años el equipo de Google ha creado más de 2.000 piezas diferentes para las páginas de inicio de los principales países en los que el buscador tiene presencia. A la hora de decidir qué eventos se representan se tienen en cuenta numerosas fuentes, desde empleados de Google a usuarios, e incluso es posible sugerir temáticas o personalidades a los doodlers. Asimismo, a partir de los datos de herramientas como Google +, el día de tu cumpleaños la página de inicio se personalizaba con un doodle solo para ti.

Si bien el primer doodle animado no apareció hasta el 21 de mayo de 2010 dedicado a PAC-MAN, actualmente los hay de todos los tipos. Desde aquellos que cambian los colores, los que utilizan una tipografía diferente, hasta los que sirven a modo de videojuego. De ser algo estático han pasado a convertirse en un elemento dinámico con el que interactuar (y que nos hace pasar más tiempo dentro del buscador).

Desde aquel agosto de 1998, el doodle el término ‘garabato’ en inglés adquirió un nuevo significado para convertirse en una herramienta más de Google. ¿Cuál será el próximo y qué celebrará? Solo Google lo sabe.

Módulos imprescindibles para sacarle el máximo partido a PrestaShop

Publicado enDesarrollo y Programación en agosto 21, 2019 10:00 am

PrestaShop es uno de los gestores de contenido más utilizados para el desarrollo de una tienda online. La versatilidad que proporciona la multitud de módulos PrestaShop es una de las principales características del CMS. Así, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan.

¿Qué son los módulos PrestaShop?

Los módulos PrestaShop son extensiones o complementos que añaden más funcionalidades al gestor de contenidos, en este caso PrestaShop. Gracias a ellos, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan. Una capacidad que va desde la parte estética a la técnica y que apenas requiere de configuraciones.

Al igual que ocurre con los plugins de WordPress, te recomendamos descargarlos desde el sitio oficial. En la misma web de PrestaShop encontrarás una amplia variedad de módulos que te permitirán incluir nuevas funciones en tu tienda online. Como en el caso de WordPress, recuerda instalar únicamente aquellos módulos PrestaShop que necesites; ya que un exceso de módulos puede perjudicar al rendimiento de tu tienda online, además de provocar vulnerabilidades si no se actualizan con frecuencia.

Principalmente los módulos PrestaShop pueden clasificarse en tres categorías:

  • De personalización de la interfaz o de la tienda online. Este tipo de complementos permiten modificar los aspectos visuales, tanto del panel de gestión del administrador como de la propia página del comercio electrónico. Con estos módulos es posible modificar los menús o las fichas de producto, añadir banners o realizar modificaciones en periodos determinados como rebajas o el Black Friday.
  • De tareas empresariales. Gestionar los envíos, ofrecer descuentos, recuperar carritos abandonados, mejorar el SEO de la tienda online… extensiones que facilitan la realización de tareas necesarias para el óptimo funcionamiento del negocio; no solo de la tienda online.
  • De integración con otras herramientas. Algunas funciones, como el pago de los pedidos, requiere de una pasarela de pago; plataformas externas que aumentan las funcionalidades del comercio electrónico.

Módulos imprescindibles

  • Aviso de cookies. Con la llegada de la RGPD, e incluso antes, es fundamental que tu tienda online advierta al usuario de todas las cookies que se utilizan en el sitio. Para ello basta con instalar un simple módulo PrestaShop que, con unas pequeñas configuraciones, realizará esta función a la perfección.
  • Recuperación de carritos abandonados. No es nada extraño ver qué se ofrece en una tienda online y comenzar una compra que no se finaliza. En estos casos, contar con un módulo para carritos abandonados permitirá cerrar muchas ventas que de otra forma se hubieran quedado en el camino. Además, este tipo de extensiones permiten ofrecer descuentos o envío gratuito a través de un email recordatorio para animar a finalizar el pedido.
  • Módulo de caché. La velocidad de carga de la tienda online es un aspecto fundamental para el usuario y también para posicionar mejor en buscadores. Cada visita que llega al comercio electrónico es una venta potencial que no deberíamos perder y menos por algo que está totalmente en nuestras manos. Con un módulo PrestaShop de caché es posible optimizar el ecommerce con facilidad.
  • Pasarelas de pago. Una tienda online no sería tal sin una pasarela de pago que permita finalizar el pedido. Como existen muchos tipos de usuarios, es recomendable que ofrezcas más de una forma de pago. De forma que no estés limitando las opciones a aquellos que tienen cierto reparo a la hora de realizar pagos a través de internet. Redsys, PayPal, transferencias, contra reembolso… son algunas de las opciones.

Módulos recomendables

  • Feed de Instagram. Si utilizas esta red social para conectar con tus usuarios, este módulo PrestaShop es casi fundamental. Además, podrás conectar tu tienda online con el perfil de Instagram y vender también a través de la red social.
  • Newsletter con Mailchimp. Enviar periódicamente comunicaciones comerciales a tus suscriptores es una buena forma de invitarles a volver a tu tienda online. Si, además, realizas envíos personalizados y diferentes o incluyes algún tipo de descuento, cada email será una venta casi segura.
  • Módulos para SEO. Trabajar el contenido de tu tienda online es un aspecto básico para hacerla más visible y facilitar la llegada de futuros compradores. Este tipo de módulos, además de facilitar la conexión del ecommerce con Google, permite optimizar los títulos, las descripciones y las etiquetas sin necesidad de realizar cambio alguno en el código.

Módulos PrestaShop recomendables

  • Buscador avanzado. Aunque PrestaShop incluye por defecto un buscador, es algo limitado. Para ponérselo muy fácil a tus usuarios, te recomendamos instalar un buscador que simplifique la tarea de encontrar un producto determinado en la tienda online.
  • Venta cruzada. Sugerir productos relacionados con el artículo en el que el usuario está interesado es una técnica para aumentar las ventas. Para que tu tienda online ofrezca esta funcionalidad solo tienes que instalar un módulo que se encargue de realizar esta función.
  • Preguntas frecuentes. Proporcionar el máximo de información posible al usuario ayuda a que tome una decisión, en este caso acabar comprando en el comercio electrónico. Por eso es recomendable contar con un módulo PrestaShop para preguntas frecuentes donde se resuelvan las dudas habituales relacionadas con algunas características del servicio como los envíos o la gestión de las devoluciones.
  • Crear un blog. Aunque no se trata de un módulo PrestaShop, incluir en la tienda online un blog es una buena forma de generar contenido. A los buscadores les gusta que los sitios web se actualicen de forma constante. Así, contar con un blog permitirá estar creando contenido relacionado con las palabras clave del negocio, algo fundamental para contribuir a mejorar el SEO del ecommerce.

Sacarle el máximo partido a una tienda online creada a partir de un CMS es fácil si cuentas con los módulos PrestaShop adecuados; y si están correctamente configurados. Pero no debemos olvidar que el mejor complemento es siempre el sentido común. Así que no te olvides de realizar copias de seguridad de tu ecommerce y no instales en tu PrestaShop todo aquello que no necesites. De esta forma tu tienda online siempre funcionará de la mejor manera.

El primer sistema ecommerce permitió realizar un pedido a través de una TV

Publicado enDesarrollo y Programación en agosto 14, 2019 10:00 am

Al día se realizan en el mundo miles y miles de compras online, lo que muy pocos saben es que la primera persona que consiguió realizar una compra online fue una señora inglesa. Jane Snowball consiguió hace más de 35 años realizar un pedido a Tesco a través del primer sistema ecommerce de la historia. Una compra para la que no se utilizó ningún ordenador sino la televisión instalada en la salita de la mujer.

Videotex, el primer sistema ecommerce

Un día cualquiera de 1979 cuando Michael Aldrich, un inventor inglés, se encontraba paseando con su mujer pensó que sería una buena idea crear un sistema que le librara de tener que ir hasta el supermercado. Aquella falta de ganas por ir a hacer la compra se materializó en Videotex, el primer sistema de ecommerce de la historia.

La peculiaridad de este sistema es que no dependía de un ordenador, sino de una televisión. Tengamos en cuenta que, en aquel momento, ni los ordenadores domésticos ni internet, ni siquiera la web, se habían popularizado aún. De ahí que Aldrich optara por investigar con lo que tenía más a mano. Durante sus primeros años Videotex fue utilizado por algunas empresas para hacer negocios a distancia, pero no fue hasta 1984 cuando el primer sistema ecommerce llegó al usuario general.

Aquel año el ayuntamiento de Gateshead estaba experimentando con una iniciativa para personas mayores o con problemas de movilidad. La idea era permitirles hacer algunas de sus tareas diarias, como ir al supermercado, sin tener que salir de sus casas. Para ello, el sistema de Aldrich era perfecto. Una televisión que había sido modificada para realizar pedidos en tiempo real a través de un sistema de estética similar al Teletexto.

Un funcionamiento peculiar

A pesar de que no puede ser considerada como la primera compra online, puesto que el pedido se pagó en metálico, no cabe duda de que la compra realizada por Jane Snowball fue algo sin precedentes. La mujer solo tuvo que dejar de ver durante unos minutos su serie favorita para realizar su pedido desde su televisión. Un aparato al que se le había instalado un chip que a través del botón ‘phone’ del mando a distancia mostraba un directorio de supermercados locales. De entre esa pequeña lista de comercios era posible escoger entre más de mil productos. El pedido se enviaba a través de la línea de teléfono y se pagaba en metálico cuando se recibía en el domicilio.

Este sistema permitía transformar en un ordenador cualquier televisión estableciendo una conexión directa entre el televisor y la tienda. Pese a que se trataba de una buena idea, apenas tuvo éxito porque requería de una gran inversión para el poco uso y beneficio económico que reportaba. Además de que, para cuando otros ayuntamientos fueron a implantarlo, internet ya había llegado a nuestras vidas. Después llegarían eBay, Amazon y todos los demás para convertir al ecommerce en un canal de venta masivo.

Tres décadas de ecommerce

Llevamos más de 30 años comprando a distancia de una forma u otra. Y, muy posiblemente, sin el invento de Michael Aldrich y su primer sistema ecommerce, el comercio electrónico que conocemos actualmente no sería igual. La idea de un adelantado a su tiempo que demostró que podíamos hacer casi cualquier cosa desde el sofá, incluso la compra diaria.

Con el paso de los años Aldrich trabajó para el gobierno de Margaret Tatcher, Tesco se convirtió en una de las primeras tiendas online y la señora que realizó el primer pedido fue reconocida por su papel en la iniciativa. El único problema de todo aquello es que apenas se conservan registros. En ese momento no se consideró que el primer pedido realizado a través de un sistema ecommerce fuera a ser trascendente. Eso y que fue necesaria una década hasta que los comercios se dieron cuenta del enorme potencial de aquel experimento.

Internet, una red de cables submarinos que rodea el planeta

Publicado enHosting en agosto 7, 2019 10:00 am

Aunque parece que vuelan, tus emails no se envían por paloma mensajera; tampoco los angelitos velan por la seguridad de tus backup. En un mundo de conexiones inalámbricas, las verdaderas conexiones se realizan a través de cables. Autopistas de cables submarinos de fibra óptica que, con sus pulsos de luz, hacen que cualquiera de nuestras peticiones llegue a misma velocidad. En apenas unas milésimas de segundo los datos son capaces de recorrer miles de kilómetros; desde nuestro dispositivo hasta el servidor en el que se encuentra la información y vuelta.

Millones de kilómetros de cables submarinos

Las verdaderas conexiones no tienen lugar en el aire, tampoco se encuentra flotando la banda ancha que contratamos a nuestro operador de telefonía. El 99% de las comunicaciones a través de dispositivos se realiza en el fondo del mar; así, cuando decimos que los datos ‘viajan’ igual deberíamos decir que ‘nadan’.

Internet no es un ente que nos permite solucionar nuestras dudas en segundos o comunicarnos a tiempo real con nuestros amigos. Internet es un conjunto de máquinas conectadas a través de cables submarinos que nos permite realizar casi cualquier cosa desde nuestros dispositivos. Pero todo esto no sucede de forma mágica, internet además de ser algo físico, también hace ruido. Al igual que podemos ver la red de metro de una ciudad, incluso podemos escuchar cuando los vagones están en circulación, con internet sucede algo parecido. La parte física la componen un montón de equipos y los miles de kilómetros de cables submarinos encargados de unir todas esas máquinas; la sonora, las máquinas a pleno rendimiento en lugares especialmente acondicionados para su funcionamiento. Por lo que internet no solo es visible y hace ruido, internet también es frío.

Rutas de buques de carga

La historia de los cables submarinos se remonta a 1850 cuando Francia e Inglaterra plantearon el primer sistema de telégrafo, una infraestructura que atravesaría el Canal de la Mancha pero que sufrió su primera avería solo unas horas después de ponerse en marcha. Aunque a nivel técnico la infraestructura actual poco tiene que ver con la creada durante el siglo XIX, el aspecto del trazado es prácticamente el mismo a excepción de la inexistencia de conexiones con Asia.

En 2018 se estima que había más de 448 cables submarinos conectando diferentes puntos de la tierra. Una cifra que a buen seguro habrá aumentado porque cada año entran en funcionamiento nuevos cables. Como por ejemplo Equiano, que estará listo a finales de 2020, o Marea, el último cable que conecta España. Además de las nuevas oportunidades comerciales que está propiciando el deshielo provocado por el cambio climático; como lo ocurrido en el Ártico.

Sin ninguna duda esta infraestructura ha sido clave para el avance de la sociedad. La necesidad de más conexiones y de mejor calidad ha provocado que la longitud de estas autopistas de cables en línea recta sea, aproximadamente, la misma que separa la Luna de la Tierra: más de un millón de kilómetros.

Fragilidad submarina

Aunque los cables submarinos descansan en el fondo del mar y están protegidos, en ocasiones esa distancia no es suficiente para asegurar que los cables no sufren daños. Esto no es más que la evidencia de que internet no es una red indestructible, sino todo lo contrario: es bastante vulnerable. Tanto en el mar, como en su salida a tierra o en las tareas de manejo los cables submarinos son extremadamente sensibles. Un corte en uno de los cables submarinos puede dejar sin servicio a un país entero y, en este sentido, se estima que anualmente unos 150 cables sufren algún tipo de daño.

La gran mayor parte de los problemas tienen que ver con la actividad humana. Las redes de barcos o las anclas de algunos buques suelen ser culpables habituales de la rotura de los cables submarinos ubicados a más de 100 metros de profundidad. Asimismo, la ubicación de los cables submarinos es pública lo que en casos puntuales provoca que se dañen intencionadamente al no ser necesarios grandes recursos ni habilidades para estropearlos. Pero no solo los grandes barcos ni el hombre tienen la culpa, algunos animales marinos pueden dañarlos al confundirlo con presas o al utilizarlos para esconderse de los depredadores. Además, algunos desastres naturales como terremotos o maremotos pueden estropear los cables submarinos.

Más allá de las molestias causadas por el corte, los daños en los cables submarinos pueden ocasionar pérdidas millonarias. En la actualidad la gran mayoría de los servicios dependen en mayor o menor medida de internet, por lo que un corte en el servicio puede ser fatal. Los expertos recomiendan ocultar los lugares en que se ubican los cables, reforzar los puntos de entrada y salida a tierra y mejorar los sistemas de monitorización. Una serie de inversiones que permitirían hacer mucho más fuerte la red de cables submarinos que nos permiten conectarnos a cualquier parte del mundo.