944 063 154

Blog

¿Cómo ha sido la evolución del hosting en solo unas décadas?

Publicado enGeneral en diciembre 4, 2019 10:00 am

¿Alguna vez te has parado a pensar el gran cambio que ha experimentado el sector del hosting en tan poco tiempo? Al igual que internet y otro tipo de servicios que parece que siempre han estado ahí, los servidores web apenas tienen unas cuantas décadas de vida. Y como en cualquier otro producto o servicio tecnológico en su corta vida la evolución del hosting ha experimentado un cambio brutal.

Para entender la evolución del alojamiento web hay que considerar tres aspectos clave: el aumento de la información que se genera diariamente, la mejora de la capacidad de almacenamiento y el nivel de procesamiento de la información.

Creando datos continuamente

En un solo minuto somos capaces de generar millones de datos, información que tiene que almacenarse en algún lado; generalmente en los servidores de las aplicaciones desde las que generamos esos nuevos datos (WhatsApp, Facebook, Twitter…). Unas cifras que cada año van en aumento y que son uno de los principales factores que impulsan la mejora de los servidores; tanto en términos de procesamiento de la información como de su almacenamiento. A mayor cantidad de información se requiere de mejores técnicas de procesamiento de los datos y de capacidad para almacenarlos. Conceptos muy ligados con la evolución del hosting.

Pero no toda la información que se genera proviene de redes sociales o aplicaciones web. Al crear un nuevo sitio web, una tienda online o publicar un nuevo artículo en nuestro blog también estamos creando datos. Información que se almacenará, en este caso, en el servidor contratado en algún proveedor de alojamiento web.

Más datos en menos espacio

De aquellos primeros ordenadores que medían metros, pesaban toneladas y requerían de días para ser trasladados, afortunadamente hemos pasado a potentes dispositivos que caben en la palma de la mano. Y es que, si tuviéramos que continuar almacenando información en aquellos primeros servidores web, no habría suficientes edificios para almacenar tanto ‘hierro’. Además de que el coste, tanto para el proveedor como para el usuario, sería muchísimo mayor.

Las primeras máquinas tenían unos cuantos megas de capacidad. Por lo que para almacenar grandes proyectos sería necesaria una enorme infraestructura. Edificios de grandes dimensiones en los que instalar, aproximadamente, un servidor por sala y donde incluso pequeños proyectos podrían requerir de más de un servidor. Actualmente, gracias a la innovación tecnológica que ha propiciado la evolución del hosting, es posible almacenar varios proyectos en un mismo servidor. Incluso podemos crear varios servidores dentro de la misma máquina. Y así, instalar cientos de servidores en una misma sala gracias a las técnicas de virtualización; sin tener que renunciar a la potencia o el rendimiento de los servidores.

Esta reducción de las dimensiones de los servidores y el crecimiento constante de su capacidad de almacenamiento ha facilitado el acceso a un servidor a cualquier persona. Ya que no es necesaria una gran inversión económica para contratar los recursos necesarios para iniciar cualquier tipo de proyecto, además de reducir el impacto ecológico. Al reducirse el tamaño de la máquina, se consume menor cantidad de electricidad para garantizar el funcionamiento de los servidores y para la climatización de la sala en la que se encuentran.

Garantizar el correcto funcionamiento

Para que toda esa nueva información se gestione de forma más eficiente, es necesario perfeccionar los sistemas. Haciendo que, por ejemplo, un servidor sea capaz de gestionar grandes cantidades de datos sin que repercuta en su funcionamiento. Por ejemplo, de esta forma se ha conseguido evitar que los picos de consumo de una máquina puedan dejar sin suministro eléctrico a toda una ciudad. Algo que ocurría en Filadelfia cuando el ENIAC, una de las primeras computadoras, entraba en funcionamiento.

Aunque, como todo, los servidores no son perfectos y pueden producirse fallos de hardware o software que puedan afectar al rendimiento o funcionamiento, actualmente cualquier tipo de problema puede solucionarse en apenas unos minutos. Por ejemplo, si en nuestras plataformas cloud se produjera una caída, automáticamente se levantaría otro nodo que devolvería la operatividad al servidor. Esto no hubiera sido posible sin la mejora en el procesamiento de datos y si no hubiera surgido la tecnología cloud. Si el alojamiento web aún dependiera de servidores físicos, las paradas del servidor serían más prolongadas al requerir de la intervención de un técnico para restaurar el servicio.

Del físico al cloud

Sin tener que remontarnos a los años 50 del siglo pasado, únicamente viajando hasta 2009 también podemos ver la evolución del hosting. Básicamente hablamos del paso de servidores físicos, totalmente dependientes de hardware, a servidores cloud que tienen la capacidad de abstraerse de la máquina para proporcionar un servicio que siempre está disponible.

En estos 10 años que Linube lleva ofreciendo todo tipo de servicios web hemos visto cómo cada vez la tecnología cloud cuenta con más adeptos. Una tecnología que echó a andar en 2007 pero que ha ido consolidándose con el paso de los años hasta convertirse en la mejor forma de crear una infraestructura a partir de servidores virtuales. Aunque en un primer momento hubo quienes se mostraron reacios a la tecnología cloud, acabaron rendidos a las ventajas de la nube. Y cada vez son más quienes se unen al fog computing, la versión más cercana de la nube.

Este cambio de actitud se debió principalmente a su precio, su capacidad de escalar los recursos, alta disponibilidad y redundancia, además de otorgar al usuario un control total del alojamiento. Factores que han propiciado que tanto pequeñas empresas como grandes compañías apuesten por la nube como infraestructura para sus proyectos.

Nuestra evolución del hosting

Desde que naciéramos un 8 de mayo de 2009, hemos ido adaptando nuestra oferta de servicios a las tendencias del mundo del hosting para ofrecer a nuestros clientes siempre lo mejor. Una oferta que en todos estos años ha ido desde sencillos planes de hosting a la creación de plataformas cloud en alta disponibilidad, pasando por servidores dedicados y VPS. Para acabar centrándonos en todo tipo de soluciones en la nube: Cloud Backup, Nextcloud, Planes de contingencia (DRS), además de administración de sistemas alojados en nuestra plataforma y también de servidores en otras plataformas como la nube de Amazon.

Trabajamos día a día por facilitarles las cosas a nuestros clientes. Desde hacer más fácil el reinicio o apagado de servidores o la gestión de la zona DNS de un dominio a incluir gráficas de monitorización de nuestros servidores administrados. Además de lanzar nuevos servicios como la Optimización de sitios web (WPO).

Segunda oportunidad para el software abandonado, ¿qué es el abandonware?

Publicado enGeneral en noviembre 27, 2019 10:00 am

Cuando no en todas las casas había ordenadores la vida social de la mayoría de los jóvenes y adolescentes giraba alrededor de los salones recreativos. Aquellos primeros gamers, hoy convertidos en adultos, pueden revivir esos años mozos gracias al abandonware. Aunque siempre se ha compartido software, la llegada de internet simplificó en gran medida esos actos de distribución; además de otorgarles una mayor importancia.

¿Qué es el abandonware?

Un término acuñado en 1996 por Peter Ringering compuesto a partir de dos palabras inglesas, el abandonware hace referencia a aquellos programas, y sobre todo videojuegos, abandonados por diferentes razones. Generalmente este software acaba descatalogado por diferentes motivos; antigüedad, por desaparición de la empresa propietaria o porque han sido vendidos a otra compañía sin ningún interés en continuar su desarrollo. Sea cual sea el motivo el software se convierte en abandonware cuando ya no puede comercializarse. En este caso se entiende que es legal compartirlos y descargarlos siempre que no haya ánimo de lucro.

El problema es que el abandonware no está reconocido de forma legal, sino que es un término coloquial para referirse a los productos de software que, a pesar de tener un estado legal, se han descatalogado. Una condición que lejos de aclarar la situación pone el software abandonado en un limbo entre lo legal y lo ilegal; ya que no se convierte de forma automática en propiedad pública si no que, al no haber nadie que reclame los derechos de autor, el abandonware pasa a llamarse freeware; o software liberado de derechos que autor que pasa a distribuirse de forma gratuita. Tanto abandonware como freeware estarán en una especie de limbo hasta que caduquen sus derechos de autor; un periodo que varía según la legislación de cada país.

¿Cómo funciona(ba) el software abandonado?

Cuando internet estaba enlazado, pero no era tan fácilmente accesible como lo es ahora, y cuando a Google aún le quedaban un par de años para aparecer en escena, los sitios web de abandonware se agrupaban formando anillos web. Los webrings son grupos de páginas de temática común enlazados entre sí de forma circular; donde una web central soporta a todas las demás, de forma que, si alguna desaparece, el resto puedan seguir enlazadas entre sí. De esta forma se conseguía mayor efectividad y el abandonware tiene una mayor visibilidad.

Meses más tarde de que se creara el primer anillo web para los proyectos de software abandonados la ESA (Entretainmente Software Association) intentó que se rompiera el anillo de abandonware. Y consiguió todo lo contrario; con su rechazo terminó por impulsar la creación de otros anillos nuevo que acabaron superando al anillo original. De todo aquello ahora quedan proyectos como Abandonia, Home of the Underdogs, Clásicos Básicos, AbandonwareDOS o MyAbandonware, que permite también jugar a través del navegador.

Nostalgia gamer

A pesar de que los nuevos sistemas operativos van abandonando partes esenciales para el correcto funcionamiento de estos softwares abandonados, aún es posible echar unas partidas a los clásicos de siempre. Si bien no es una tarea sencilla hacer compatible un software de más de veinte años con los dispositivos actuales, la aparición de emuladores, tanto de comando como de interfaz, se lo ponen más fácil a esos jugadores menos familiarizados con la informática. Además, junto con la aparición de plataformas como Steam, volver a jugar a los clásicos del abandonware sigue siendo un juego de niños.

Quién sabe si dentro de unos años el software que utilizamos en estos momentos acabe siendo abandonware; y si termina por formar parte del legado inmaterial que almacenaremos en el Archivo Mundial del Ártico.

¿Cómo van tus preparativos para el Black Friday?

Publicado enGeneral en noviembre 20, 2019 10:00 am

Es evidente que cada vez la navidad ‘llega’ antes, pero si antes la época más mágica del año se iniciaba con el encendido de luces o los niños de San Ildefonso, ahora el pistoletazo de salida es más consumista. Desde 2012, cuando la legislación permitió hacer rebajas fuera del período habitual, la navidad empieza con el Black Friday; o, según el comercio, con el Single Day. Una fecha indeterminada entre el 11 y el último viernes de noviembre son nuestro inicio de la campaña navideña. Pasado ya el primer asalto que, aunque suma adeptos, aún tiene mucho que aprender del viernes más negro, ¿has comenzado ya con los preparativos para el Black Friday? Por si andas rezagado, te recordamos qué aspectos debes considerar para evitar que el Black Friday acabe siendo un día negro en tu sitio web.

Piensa en Google

La mayor parte del tráfico de un sitio web proviene de Google, de ahí la enorme importancia de adecuarnos a lo que el buscador nos sugiere; por no decir impone. Además de realizar promociones que contribuyan a llevar más visitas a tu tienda online, no debes descuidar los aspectos más básicos del SEO: títulos, palabras clave y meta descripciones. Si tu estrategia para este Black Friday pasa por crear una landing especial, contarás con más opciones para posicionar más alto; siempre que esta página tenga una URL que haga referencia a este periodo, claro. En cuanto a las palabras clave, procura atacar a aquellas menos comunes o intenta hacer variaciones fuera de lo habitual; de esta forma será más probable que un usuario acabe en tu web y no en una de la competencia.

Con independencia del tráfico orgánico, nunca está de más avisar a tus clientes a través de cualquier canal. Por ejemplo, enviando newsletters sobre la promoción que sirvan de preparativos para el Black Friday. Así, cuando llegue el momento los carritos ya estarán listos para proceder al pago. Algo que unido al carácter de urgencia y unidades limitadas que se suele asociar con este tipo de eventos hará que todos estén pendientes de tu sitio web.

Un servidor preparado

Incluso si no realizas ninguna promoción es probable que las visitas de tu sitio web se disparen simplemente por curiosidad. Por ello, deberás garantizar que quien quiere acceder a tu web, tanto para echar un vistazo a tus productos como para acabar comprándolos, pueda hacerlo. Generalmente durante estos días el tráfico aumenta de forma radical y en un solo minuto pueden concentrarse un gran número de usuarios simultáneos; algo que no suele suceder durante el año. Por ello, es fundamental que el servidor esté preparado para ese aumento de las visitas.

Si no escalas los recursos del servidor cloud es probable que acabes creando una mala imagen a tus usuarios. Ya sea por lentitud o porque deje de estar operativa, casi nadie finalizará un proceso de compra que es excesivamente lento. Recuerda que no solemos conceder más de unos segundos a la carga de una web y que, de superarse nuestro límite, acabaremos abandonando. De ahí que aprovisionar el espacio en disco, los procesadores y la memoria RAM para el Black Friday sea una obligación para cualquier tienda online. De entre todos los preparativos para el Black Friday este es sin duda el más importante, a no ser que no vender a través de tu ecommerce no sea una prioridad para ti. Pero, ¿estás dispuesto a condicionar tus ventas a la disponibilidad de tu tienda física? Seguro que no.

Optimización móvil

Aunque el comercio electrónico empezara a través de una televisión, en la actualidad la mayor parte de las compras se realizan desde el móvil. En 2017 más de la mitad de las compras realizadas durante el Black Friday se realizaron desde un dispositivo móvil; una tendencia que aumentó el pasado 2018 y que, a buen seguro, seguirá en alza este 2019. Si tener una web responsive es una obligación a día de hoy, no estaría de más que echaras un vistazo a cómo de optimizada está tu página web de cara al ‘finde negro’ para evitar disgustos.

Reduce el peso de las imágenes, asegúrate de tener una buena velocidad y, sobre todo, simplifica el proceso de compra. Desde un dispositivo móvil puede resultar más complicado finalizar una compra, por ello cuanto más sencillo sea más ventas se producirán. Cuanto más fácil se lo pongas al usuario más comprará, cuanto más difícil, antes saldrá de tu web; y, encima, sin comprar nada.

Compras siempre seguras

Pese a que ya se haya convertido en algo normal, aún son muchas las páginas web que siguen recurriendo a HTTP. Si es tu caso, no deberías esperar más para contratar un certificado de seguridad SSL que se encargue de encriptar toda la información que se comparta en tu tienda online. Aunque cada vez seamos menos reacios a realizar compras a través de internet y pagar con nuestra tarjeta de crédito, desde luego no compartiremos estos datos tan sensibles en un sitio web marcado como inseguro. Tu tienda online necesita seguridad todo el año y un certificado de seguridad que la convierta en HTTPS, pero especialmente en días clave como el Black Friday.

Además, recuerda que hace solo unos meses llegaba una nueva normativa para los pagos electrónicos, la PSD2. Lo que supone que probablemente tengas que realizar cambios en tu proceso de compra a fin de adecuarte a la nueva norma. Entre los principales cambios introducidos por la PSD2 se encuentra la obligación de contar con autenticación en dos pasos. Así que, si tu web, no está actualizada a la nueva norma esta tarea debería ser otro de tus principales preparativos para el Black Friday.

Preparativos para el Black Friday

La campaña de navidad es una de las fechas más importantes para cualquier negocio. Con el auge del comercio electrónico estar adaptados a la llegada del Black Friday, y cualquier otro evento que pueda disparar las ventas, se ha convertido en mucho más que una necesidad. Si quieres evitar que esta fecha tan importante acabe convirtiéndose en el viernes más negro de tu calendario empresarial, no dejes los preparativos para el Black Friday para el último momento.

Contenedores de software para empaquetar aplicaciones

Publicado enSistemas TI en noviembre 13, 2019 10:00 am

Actualmente un desarrollador es capaz de crear código y de distribuirlo sin problemas. Antes estas labores que estaban diferenciadas entre desarrolladores y administradores de sistemas, se unen en la figura del DevOps. Esto no quiere decir que ninguna de las profesiones deje de existir, sino que existe una nueva que une lo mejor de cada una de ellas. Para haber podido dar este paso ha sido fundamental la aparición del contenedor de software.

¿Qué es un contenedor de software?

Los contenedores de software son como esos enormes contenedores que se transportan en barco y que contienen diferentes tipos de mercancías. Si bien en este caso puede que unos productos y otros no tengan nada que ver entre sí, todo lo que se encuentra dentro de un contenedor de software es necesario para poder ejecutar una aplicación en otro lugar. Así, dentro de un contenedor de software se encontrará el código, las librerías necesarias y cualquier tipo de configuración que permiten a dicha aplicación funcionar correctamente. Podríamos decir que un contenedor de software es como un sistema completo virtualizado pero reducido a su mínima expresión; que solo necesita el sistema operativo del servidor que lo contiene para funcionar.

Estos contenedores acaban con los típicos problemas entre entornos de desarrollo y producción. Puesto que todo lo necesario se encuentra dentro del contenedor, es posible hacer pruebas de una aplicación sin tener que preocuparse por si el código se rompe. Cualquier cambio que se vaya a realizar se hará de la forma más segura. Igualmente, en el caso de utilizar diferentes versiones de lenguajes de programación o cualquier elemento de software incluyendo el sistema operativo.

Dentro de un contenedor de software está todo lo necesario para que cualquier aplicación pueda ejecutarse correctamente. Además, al incluirse un archivo de configuración, es posible que cualquier desarrollador o administrador de sistemas pueda trabajar con el contenido del contenedor de software sin necesidad de conocer el funcionamiento de la aplicación.

¿Docker o Kubernetes?

Aunque se trata de sistemas relacionados, cada uno tiene sus propias funciones. Por ello, no es posible elegir entre uno u otro, sino que es necesario utilizar los dos.

Por un lado, Docker es un gestor de contenedores de código abierto; es decir, una plataforma open source que permite crear, estandarizar y distribuir aplicaciones en contenedores. Un entorno en el que desarrollar aplicaciones ligeras al no ser necesario incluir en el contenedor un sistema operativo. Mientras que Kubernetes es un orquestador de contenedores. Es decir, el encargado de manejar los procesos que se llevan a cabo dentro de un contenedor de software creado a partir de Docker.

A medida que el número de aplicaciones o contenedores de software va creciendo, es posible que Docker ya no sea suficiente para gestionarlo. Se requiere de una plataforma de orquestación que se encargue de hacer funcionar cada contenedor de software bajo la misma arquitectura. Como si fuese un director de orquesta Kubernetes se ocupa de que todo lo desarrollado en Docker funcione bien. La principal ventaja de Kubernetes es que puede ser utilizado en cualquier lugar y sobre todo tipo de infraestructuras. Un orquestador como Kubernetes se encargará de crear y reconfigurar servidores, monitorizar y realizar las configuraciones necesarias para que las aplicaciones que se encuentran dentro de un contenedor de software estén siempre operativas. El propósito no es otro que automatizar las tareas para tener un mejor control de una infraestructura.

Ni la idea de los contenedores ni del orquestador son nuevas, pero sí se han hecho más populares en los últimos años. Así, la idea de los contenedores se remonta a la virtualización de sistemas y el concepto de orquestador, entendido al modo de Kubernetes, está relacionado con Google, que ya contaba con su propio sistema antes de que apareciera Kubernetes. La principal función de estos dos sistemas es permitir que las aplicaciones puedan funcionar correctamente por sí mismas, y también en relación a las demás. Hasta el punto de que el sistema no requiera de la interacción humana para poder funcionar.

Contenedores vs máquinas virtuales

Es muy común confundir un contenedor de software con técnicas de virtualización. La virtualización es una tecnología que permite crear diferentes máquinas virtuales a partir de un único elemento físico. Cada una de estas máquinas virtuales pueden tener su propio sistema operativo y una configuración específica, a pesar de estar ejecutándose en una misma máquina física que puede tener unas características diferentes.

La virtualización es una de las técnicas que han posibilitado la tecnología cloud, tanto para crear diferentes servidores cloud en una misma máquina física, como para permitir que cada uno de ellos utilice un sistema operativo diferente. Así, la virtualización permitió dejar de utilizar máquinas físicas como única forma de aislar a un cliente de los demás, con el ahorro económico, de espacio e impacto ambiental que eso supone.

La principal diferencia entre un contenedor de software y una máquina virtual es que los contenedores no requieren de la copia del sistema operativo. Esto se debe a que comparten el mismo núcleo que la máquina en la que se ejecutarán, haciendo que el peso del contenedor se reduzca. Así, mientras que una máquina virtual ocupará varios gigas, un contenedor de software se reduce a unos cuantos megas.

En los últimos años los contenedores de software han avanzado mucho, hasta el punto de convertir una tecnología de nicho en un estándar para desplegar software. A pesar de ello, aún queda mucho por hacer en relación a ello.

Amplía el espacio de tu servidor con soluciones de almacenamiento: NAS y SAN

Publicado enSistemas TI en noviembre 6, 2019 10:00 am

A medida que los proyectos van creciendo es muy probable que los recursos iniciales que se contrataron no sean suficientes para garantizar el correcto funcionamiento del servidor y de los sitios web que se alojan en él. En función de las características de cada proyecto web es probable que lo recomendable sea aumentar proporcionalmente los recursos del servidor cloud escalando a un plan superior, pero también es posible que solo se necesite ampliar uno de los recursos, por ejemplo, el espacio en disco del servidor cloud. En estos casos lo más recomendable es optar por otro tipo de almacenamiento: NAS y SAN. Dos soluciones de almacenamiento en red que ayudan a almacenar la información de una forma segura ante cualquier imprevisto y que con mucha frecuencia tienden a confundirse.

Almacenamiento NAS

NAS (Network Attached Storage) es una forma de almacenamiento que está conectada a la red de una empresa y que suele considerarse parte del propio servidor. Para ello es posible acceder a través de NFS (sistema de archivos de red), CIFS o FTP, aunque también puede hacerse a través de HTTP.

Ideal para empresas pequeñas, optar por un almacenamiento NAS es una opción que no supone un gran desembolso económico. Por un precio reducido al mes es posible contar con mayor espacio en el que almacenar bases de datos y copias de seguridad en un almacenamiento NAS que destaca su disponibilidad; ya que este espacio se integra en la red de forma que siempre estará a disposición de los usuarios, servicios o dispositivos que quieran utilizarlo.

Optar por un almacenamiento NAS es una buena opción para albergar archivos que se solicitan con frecuencia en un entorno virtualizado. Además de ser escalable, NAS permite gestionar con rapidez un gran número de archivos. De esta forma, se puede disponer de una mayor capacidad de espacio en disco en el servidor sin necesidad de pagar más por otros recursos que pueden no ser necesarios; como el aumento de RAM o más procesadores.

¿Qué es una red de área SAN?

Las redes de área de almacenamiento SAN (Storage Area Network) son una forma de añadir un espacio extra al disco de un servidor o un conjunto de servidores con alto rendimiento. A diferencia de NAS, un almacenamiento SAN actúa como si formara parte de los componentes físicos del servidor, por lo que actúa en local. Por ello, son la solución perfecta para alojar bases de datos empresariales o de páginas web o tiendas online con un gran tráfico.

Al actuar como un almacenamiento ‘dentro del servidor’, cualquiera de los servidores cliente pueden leer y escribir sobre él, algo que no es posible en NAS. De esta forma se reducen los tiempos de respuesta y, además, se evita un consumo excesivo de ancho de banda; ya que no la información no tiene que salir del servidor y el acceso a los datos es instantáneo. Todo esto permite configurar máquinas muy potentes que permitan escalar sin límites la capacidad de una red.

¿En qué se diferencian NAS y SAN?

NAS y SAN son soluciones de almacenamiento complementarias pero que generalmente rivalizan entre sí. No todas las empresas pueden permitirse contar con las dos formas de almacenamiento y, para que decantarse por una u otra sea más sencillo, estas son sus principales diferencias:

  • Mientras que NAS recurre a las redes TCP/IP para conectarse con el servidor principal, SAN hace lo propio a través de una red de alta velocidad.
  • NAS es un sistema basado en archivos, SAN en bloques.
  • El rendimiento que ofrece una red SAN es mucho mayor que el de NAS, de ahí que se recomienden en sitios web de gran tráfico. Por el contrario, NAS, además de peor rendimiento también tiene más latencia, aunque esto puede compensarse con una red a mayor velocidad.
  • El coste de contratar NAS y SAN no tiene nada que ver. Por ser más simples, los dispositivos NAS también son más baratos que un SAN. Lo mismo ocurre con su gestión, mientras que NAS es fácilmente administrable, SAN requerirá de un técnico profesional.

Como en muchos otros servicios, como un VPS o un cloud, la elección de una solución de almacenamiento u otra está relacionada con el tipo de proyecto y sus necesidades.

El ataque informático que engaña a los CDN: CPDoS

Publicado enCiberataques en octubre 29, 2019 10:00 am

Que Halloween sea la noche más terrorífica del año tampoco tiene porqué ser algo literal. El temor a sufrir un ciberataque es algo que se sufre durante todo el año. De hecho, solo en este mes de octubre hemos conocido unos cuantos casos de ciberataques, hackeos, phishing…Lo último, una nueva forma de ataque informático: el CPDoS. ¿En qué consiste este nuevo ciberataque que afecta a los CDN y cómo evitar en Halloween (o en cualquier otro día) ‘la muerte’ digital de tu web?

El ataque de los CPDoS

Hace solo unos días la Universidad de Colonia ha revelado la existencia de un nuevo ciberataque que afecta a las redes de distribución de contenido o CDNs. Una nueva forma de ataque informático que se basa en devolver al visitante una página de error, en lugar del contenido real de la web. Algo que sería posible al envenenar los CDN, es decir, las redes distribuidas que se encargan de servir de forma más rápida el contenido de una web ubicada en cualquier parte del mundo.

CPDoS (Cache-Poisoned Denial-of-Service), que así es como se llama esta nueva forma de ataque informático, está orientado a deshabilitar recursos y páginas web. Principalmente, consiste en generar una nueva entrada de CDN en un servidor mediante un encabezado HTTP de gran tamaño. Si el CDN permite que dicho encabezado acabe pasando al sitio web, el servidor terminará por procesarlo y generar una web que se almacenará en el caché del servidor de CDN.

Como consecuencia del tamaño del encabezado malicioso, el servidor web original se bloqueará; generando así un error 4xx. Esta página de error se almacenará en el caché del CDN y, cuando un usuario trate de acceder a la web obtendrá página de error en vez del contenido real de la página. Este error se propagará a otros nodos de la red CDN, haciendo ver que la web ‘está rota’ cuando no es así.

Tipos de ataques de CDN

Los investigadores han determinado tres tipos principales de ataque CPDoS en función del encabezado HTTP utilizado por el atacante, aunque existen otras muchas variaciones del ataque.

  • HHO, para los encabezados HTTP de gran tamaño. El estándar establecido por la mayoría de los servidores web y servidores proxy es de alrededor de 8.192 bytes; aunque algunos sistemas como Amazon Cloudfront CDN permite hasta 20.480 bytes. Este tipo de ataque CPDoS consiste en enviar al servidor CDN un encabezado de un tamaño mayor al admitido, pero menor del que permite el servidor de caché. Así, al no poder gestionarlo el primero, el segundo lo interpretará como un error en el sitio web.
  • HMC, para los encabezados que contengan metacaracteres. Funciona de manera similar el HHO, solo que, en lugar de enviar un encabezado demasiado grande, la solicitud incluye un carácter no admitido por el servidor de CDN. Basta un simple salto de línea para provocar un ataque CPDoS de tipo HMC.
  • HMO, para aquellos que anulen el método HTTP. El estándar HTTP admite unos pocos métodos para realizar comunicaciones en la web; de los que los sistemas intermedios como proxies o firewalls solo admiten GET y POST. Para eludir las restricciones, algunos sistemas proporcionan encabezados especiales de forma que la solicitud pueda enviarse al servidor. Y son estos encabezados especiales los que serán utilizados por el atacante para provocar un ataque CPDoS

Por (no solo) un Halloween sin CPDos

Igualmente, para evitar que tus CDN acaben infectados por un CPDos, podemos encargarnos de gestionar tus CDN. Mantener los sistemas seguros es una tarea que lleva su tiempo, pero en Linube podemos hacerlas por ti, para que tu seguridad siempre esté garantizada.

De esta forma, además de olvidarte de tener que configurar, o revisar la configurar, de tus CDN evitarás que un ataque, como un CPDoS impida que tus usuarios accedan a tu sitio web.

¿Aún no has instalado un captcha en tu sitio web?

Publicado enCiberataques en octubre 23, 2019 10:00 am

Cuando tienes una web o una tienda online uno de tus objetivos es conseguir que cada vez más personas lleguen a él de forma orgánica y, si se da el caso, se registren en la web. Por ello, es habitual crear una página de contacto, añadir un formulario, habilitar el registro… pero ¿has instalado un captcha? Generalmente el problema viene cuando los emails que recibes o los nuevos usuarios registrados no son reales; además de que es probable que acabes fijando tus objetivos en base a unos datos de audiencia que no son ciertos. Para evitar esto desde hace unos años en casi todas las páginas web se utilizan los captchas.

Captcha, ¿qué es?

El captcha (Completely Automated Public Turing test to tell Computers and Humans Apart); es decir, una prueba de Turing automática y pública que permite diferenciar ordenadores de humanos. A pesar de la referencia a la prueba de Turing, los captcha están controlados por una máquina, en lugar de por un humano; así que más bien se trata de una prueba de Turing inversa, nombre por el que también es conocido.

Utilizado por primera vez en el 2000, el captcha comenzó a desarrollarse a mediados de los 90, cuando los buzones de correo y los foros de internet empezaron a llenarse de spam. Un invento surgido en Altavista, uno de los buscadores más conocidos antes de que Google lo arrasara todo, para evitar que las peticiones de registro en su motor de búsqueda se llenaran de spam. La razón de ser del captcha se encuentra en que se supone que un ordenador no será capaz de comprender lo que en la imagen distorsionada a descifrar se muestra.

Principalmente los captcha se utilizan para evitar que bots, o spambots, utilicen algunos servicios de internet. Por ejemplo, es habitual su instalación en formularios de contacto para evitar que puedan enviar spam al email del sitio web, en encuestas o foros de discusión para no desvirtuar el mensaje o que no puedan registrarse en ninguna página web o tienda online. Antes de que cualquiera de estas acciones se produzca deberá pasarse por el captcha y, solo si se supera el mensaje o la acción se llevará a cabo.

ReCaptcha, su versión mejorada

Más allá de que solo sirven para demostrar la humanidad, los captcha no son infalibles. Prueba de ello es que el spam y los bots no solo se cuelan entre los formularios de contacto. También son capaces de llevar a cabo ataques DDoS o distribuir malware. Por ello se intentó mejorar el método para evitar que la explotación de vulnerabilidades o el entrenamiento de los sistemas lograra descifrar el captcha.

El reCaptcha es la evolución del captcha, una nueva versión que sirvió para digitalizar textos que los ordenadores no podían entender. Con el tiempo, y la adquisición del proyecto por parte de Google en 2009, dejaron de utilizarse caracteres aleatorios para mostrar palabras de textos que el usuario debía identificar para buscar otros métodos más productivos.

Un lustro después, en 2014, el reCaptcha evolucionó a No captcha reCaptcha, la verificación mediante un solo click. Esto fue posible gracias al análisis que se hacía de los movimientos del usuario, como su dirección IP o las cookies de su equipo para asegurarse que tiene un comportamiento en internet de humano. En el caso de que el reCaptcha no esté seguro de tu humanidad, seguirá mostrando pruebas en las que tendrás que identificar coches, semáforos, letreros… información extraída de Google Street View para mejorar la precisión de las direcciones de Maps.

El captcha invisible

Prácticamente al mismo ritmo que avanzan las mejoras del captcha, hacen los propio los sistemas de bots. Por ello Google ha creado una nueva versión de reCaptcha que se caracteriza por no ser necesario interactuar directamente para poder demostrar la humanidad. Esto que hace que sea mucho menos molesto que sus antecesores también puede llevar a dudar de la prividad de nuestros datos. ReCaptcha v3 se sirve de determinados criterios, como los movimientos de ratón, el tiempo que pasamos en una web o el número de clicks que realizamos para otorgarnos una puntuación. Un sistema que puede hacer que un humano que no cumpla con estos criterios sea considerado como un no-humano; en este caso deberá pasar por un captcha tradicional.

Con la última versión de captcha llega una forma más fiel de conocer si el tráfico de una web es real o si, por el contrario, muchas de las visitas que recibimos provienen de bots. Una información muy valiosa para los administradores de sitios web que podrán utilizar estos datos para su estrategia. Al menos por el momento.

¿Conseguirá IPv6 desterrar a su antecesor IPv4?

Publicado enSistemas TI en octubre 16, 2019 10:00 am

Igual que existen los números de teléfono para llamar, aunque cada vez menos, a alguien con quien tenemos que hablar, en internet existen las direcciones IP. Una dirección IP no es más que un número que identifica a los millones de dispositivos que se conectan a internet, algo así como la matrícula de tu ordenador, de tu teléfono móvil o del servidor en el que se encuentra alojada tu página web. Hasta ahora las direcciones IP que hemos venido utilizando pertenecen a la cuarta versión del protocolo: IPv4. Un rango de direcciones que, oficialmente, se acabaron el 31 de enero de 2011 y que serán reemplazadas por IPv6.

¿Qué es IPv6?

Ante la popularización de internet y el aumento de dispositivos conectados, ya desde finales de los 90 se preveía la necesidad de un nuevo protocolo. Nuevas direcciones para todos los dispositivos que estaban por venir; de otra forma, al no ser posible ofrecer más direcciones IP el crecimiento de internet se estancaría. Por este motivo comenzó el desarrollo del nuevo protocolo IPv6, aunque no se empezara a utilizar hasta el cambio de siglo.

También conocido como IP Next Generation o IPng, IPv6 cuadruplica los bits que contiene la IP y el número de combinaciones posibles de IPv4. Así, el número de direcciones IP ha pasado de 4.300 millones a más de 340 sextillones. Más allá del incremento de IPs, IPv6 ha conseguido superar algunas limitaciones más de IPv4, como la eficiencia de los paquetes y un aumento de la seguridad respecto a su antecesor.

Nuevo protocolo, otros problemas

A pesar de que IPv6 consigue salvar muchas de las deficiencias de las anteriores versiones del protocolo IP, es totalmente incompatible con IPv4. Aunque el usuario no llegue a notar nada ya que los routers son capaces de lidiar con los dos protocolos, lo cierto es que para que dos equipos con diferentes versiones de IP establezcan conexión es necesario un intermediario. Aún así puedes comprobar si tus dispositivos son compatibles o utilizan IPv6 de una forma muy sencilla.

Cuando llegó el fin de IPv4 algunos organismos e instituciones sugirieron la adopción de IPv6 cuanto antes. Pese al dramatismo que parecía envolver la situación, el mensaje no caló demasiado entre empresas, proveedores y usuarios. Así, según las estadísticas de Google, desde enero de 2009 hasta ahora la adopción de IPv6 apenas llega al 25%, siendo Estados Unidos, India y Alemania los países que recurren a la nueva versión del protocolo IP; en España apenas llega a alcanzar el 3%. Una adopción que ha aumentado a buen ritmo en lo que llevamos de década, pero que no parece vaya a crecer mucho más en los próximos años.

El estancamiento de IPv6 se debe principalmente a la situación de IPv4. En la teoría, el número de direcciones IP de la versión 4 lleva años agotado, pero no así en la práctica. Desde hace algunos años ha surgido la figura del IP bróker, personas o empresas que se dedican a revender direcciones IP que están en desuso. Con este movimiento la necesidad de adoptar el nuevo protocolo IP deja de ser tan urgente, tanto que ya se considera a IPv6 una alternativa ante el verdadero fin de IPv4.

¿Por qué es necesario almacenar los backups en un espacio externo?

Publicado enServidores cloud en octubre 9, 2019 10:00 am

¿Te imaginas que ocurriera algún problema en tu servidor cloud y necesitaras restaurar el último backup? ¿Qué ocurriría si almacenaras todas tus copias de seguridad en el propio servidor? ¿Y si fueses a restaurar una copia de seguridad y descubrieras que no está actualizada? Para evitar cualquier problema, todos nuestros planes cloud incluyen la deslocalización del backup; el almacenamiento de las copias de seguridad en un espacio independiente para garantizar su disponibilidad.

¿Qué es la deslocalización del backup?

La deslocalización de las copias de seguridad no es más que el almacenamiento de los backups en una ubicación diferente; es decir, fuera del servidor cloud. De esta forma se garantiza que, aunque ocurra un problema en el servidor, ya sea el borrado accidental de la información, las consecuencias de una tormenta o cualquier otro fenómeno meteorológico, incluso un ciberataque, toda la información esté a buen recaudo. Sin la deslocalización del backup al perderse los datos del servidor, se perderían también las copias de seguridad, haciendo imposible restablecer el servicio.

Por ello, al contratar cualquiera de nuestros planes cloud se contrata también un espacio dedicado al almacenamiento de copias de seguridad. Dos alojamientos independientes, pero muy relacionados, que permiten asegurar toda la información que se encuentra en el servidor cloud. Aunque cada uno de estos espacios tenga una función diferente, necesariamente van de la mano; ya que el almacenamiento para backups no tiene sentido sin el espacio en disco y éste último puede estar en riesgo sin un espacio en el que almacenar las copias de seguridad. Por ello, a medida que aumenta el consumo de espacio en disco del servidor cloud, será necesario ampliar el almacenamiento correspondiente a las copias de seguridad.

¿Por qué es necesario un espacio para copias de seguridad?

A pesar de las múltiples ventajas de la tecnología cloud, como la redundancia o la alta disponibilidad, existen imprevistos que no hay nube que los arregle. Por mucho que un servidor en la nube tenga la capacidad de trasladar la información que contiene a otro alojamiento de similares características dentro de la misma plataforma, hay ocasiones en las que esto puede no ser suficiente. Por ejemplo, en el caso del borrado accidental de la información, al no producirse un fallo como tal en el servidor, la única forma de recuperar ese contenido será restaurando el último backup.

Para que sea posible reponerse de cualquier imprevisto es necesario contar con un espacio en el que almacenar las copias de seguridad; un espacio independiente para garantizar la deslocalización del backup. Además del espacio, hay que mantener las copias de seguridad actualizadas para evitar sustos cuando haya que restaurarlas. No sería la primera vez, ni lamentablemente la última, que los backup no están actualizados y se pierden días, o incluso meses, de datos y trabajo. Cantidades de información entre las que no solo se encuentran los datos de la compañía, sino también de todos sus clientes.

Confíanos tus copias de seguridad

En Linube cuidamos al máximo los datos de cada uno de nuestros clientes. Somos conscientes de la importancia de realizar copias de seguridad y de la deslocalización del backup. De ahí que nuestros servidores cloud vayan unidos a un almacenamiento para copias de seguridad. Pero, si además del espacio para backup, contratas alguno de nuestros servicios de administración de sistemas estarás dejando en las mejores manos tus copias de seguridad.

Con la intención de ponértelo fácil nos encargamos de realizar tus copias de seguridad. Tanto backups completos, coomo de la base de datos, para que la información siempre esté actualizada. Así se evita que un despiste te deje sin backups; igualmente si se trata de falta de espacio en el almacenamiento para copias de seguridad, te notificaremos con tiempo para que puedas ampliar este espacio.

El almacenamiento para copias de seguridad es la pareja perfecta de tu servidor cloud. Un dúo que, si quieres tener la tranquilidad de que toda tu información está protegida, no deberías separar.

¿Qué es un servidor proxy?

Publicado enSistemas TI en octubre 2, 2019 10:00 am

Tanto si estás familiarizado con la informática como si no, es muy probable que en algún momento hayas oído hablar de servidor proxy. Un servicio que proporciona privacidad en internet y que es habitual confundir con una VPN. A pesar de que ambas formas de conexión nada tienen que ver.

¿Qué es un servidor proxy?

Un proxy es un sistema que actúa de intermediario entre dos dispositivos informáticos. Generalmente, este tipo de conexiones suelen ser entre un ordenador o un Smartphone e internet. Un servidor proxy suele utilizarse para navegar de forma privada, ya que el proxy evita que se establezca una conexión directa entre el dispositivo que solicita la información y el que la contiene.

En líneas generales, un servidor proxy no es más que un equipo informático independiente que intercepta las conexiones entre un cliente y el servidor de destino. Así, esta intermediación evita que al solicitarse los datos se recoja información del equipo desde el que se lanza la petición. Así, siempre que un dispositivo (A) solicita información a otro (C), existirá alguien en el medio de la transmisión (B) que se encarga de solicitar y devolver los datos que se han pedido. De esta forma, la información se envía, a través del proxy, a un usuario anónimo.

¿Para qué se utiliza un proxy?

Más allá de la privacidad que proporciona al enmascarar la IP del equipo que solicita unos determinados recursos, un servidor proxy tiene otras utilidades que permiten mejorar la navegación. Por ejemplo, al funcionar como caché no es necesario volver a pedir al servidor de destino un determinado contenido, puesto que estará almacenado en la memoria de la aplicación. De esta forma el contenido se sirve de forma instantánea, haciendo que la navegación web sea más fluida. Además, el servidor proxy permite controlar el acceso de usuarios y otorgar permisos, ahorrar recursos o establecer conexiones más seguras.

Pese a sus ventajas, los servidores proxy también tienen aspectos negativos. El control de accesos no es perfecto, ya que un mismo servidor proxy puede recibir un gran número de peticiones de diferentes usuarios y es posible que se acabe otorgando permisos a un usuario que no tiene acceso. Además, a pesar de que el cacheo permita mejorar el rendimiento, es posible que la información almacenada en caché esté desactualizada, haciendo que el servidor proxy devuelva respuestas antiguas.

¿Servidor proxy o VPN?

Por su capacidad para conectarse a equipos remotos y actuar como intermediario entre dos dispositivos, es muy común confundir un servidor proxy con una conexión a través de VPN. Aunque es cierto que los dos servicios tienen algún punto en común, como el anonimato que ofrece al ocultar la dirección IP del equipo que solicita la información, en cuanto a seguridad no tienen nada que ver.

Mientras que el servidor proxy es una máscara que cubre a un equipo para navegar por internet, la VPN además de proporcionar mayor privacidad, encripta la conexión. Un servidor proxy solo oculta la dirección IP original del equipo que solicita la información, pero no añade mayor seguridad, además de actuar únicamente sobre una aplicación determinada, como un navegador, no a nivel de red. Para privatizar y asegurar todas las conexiones que salgan de un equipo es necesaria una VPN, un servicio básico si, por ejemplo, vamos a acceder a herramientas corporativas desde una red pública.

Por hacerlo más simple, es como si un servidor proxy fuera una careta de superhéroe, mientras que una VPN es un acceso a un club de superhéroe. Con el primero podrás disfrazarte de Batman y hacerte pasar por él, pero no podrás formar parte de sus amigos. Ahora la decisión de qué quieres ser, o qué te conviene más utilizar si una VPN o un servidor proxy, es tuya. Tu privacidad y seguridad en internet son lo que tú necesitas que sean.

WHOIS (por fin) podría tener un sustituto: RDAP

Publicado enDominios en septiembre 25, 2019 10:00 am

La llegada del nuevo reglamento de privacidad de los datos ya hizo presagiar el final de WHOIS, un final que ahora parece inminente. Durante unas cuantas décadas, WHOIS ha sido la única fuente de información para encontrar los datos de los propietarios de los dominios. Una base de datos pública que no ha sabido adaptarse a los cambios de legislación ni al funcionamiento de internet y que está a punto de ser sustituida por RDAP.

¿Qué es RDAP?

El Protocolo de Acceso a Datos de Registro (RDAP) es la principal alternativa para reemplazar a WHOIS. Un nuevo protocolo desarrollado por el IEFT en 2015 para proporcionar el mismo servicio que WHOIS, pero resolviendo todas sus deficiencias. Al igual que su antecesor, RDAP permite conocer información relacionada con recursos fundamentales de internet, como nombres de dominio, direcciones IP o Sistemas Autónomos (ASN) de una forma más segura, estandarizada e internacional.

Teniendo en cuenta que WHOIS nació en 1982 para consultar información sobre las conexiones de ARPANET y que apenas ha sufrido modificaciones en este tiempo; es normal que el protocolo no sea capaz de satisfacer las necesidades técnicas de la web e internet en pleno 2019. Además de sus limitaciones técnicas, la concienciación sobre la privacidad en internet, especialmente desde la llegada del RGPD, ha terminado de rematar al obsoleto protocolo.

Un protocolo actualizado

Junto con las principales debilidades de WHOIS, a la hora de diseñar RDAP se han considerado las etiquetas utilizadas por los servidores de WHOIS para mostrar los datos. Y es que problemas de seguridad aparte, WHOIS muestra la información en texto plano; algo que dificulta su interpretación. A lo que habría que añadir la imposibilidad de utilizar alfabetos no latinos; haciendo que consultar información de un dominio, por ejemplo, asiático sea misión imposible. Por ello, con RDAP se busca dar respuesta a todos los problemas que WHOIS no ha conseguido hacer frente.

  • Formato estandarizado de preguntas-respuestas y mensajes de error. RDAP devuelve los datos en formato JSON, haciendo que la interpretación de los programas informáticos sea más sencilla. Además, permite la automatización de un gran número de tareas y no es necesario recurrir a software adicional porque se utiliza una semántica común y estructurada.
  • Acceso seguro a través de HTTPS. Mientras que en WHOIS no es posible autenticar el servidor y el contenido se sirve en texto plano, con RDAP la información se cifra.
  • Autenticación y definición de permisos de acceso a los datos. La llegada del RGPD ocultó al público general casi toda la información contenida en WHOIS. Con RDAP solo los usuarios autorizados tendrán acceso a la dirección de correo o al contacto técnico de una página web; los usuarios anónimos únicamente podrán ver los datos más básicos. Una forma de reducir los ataques contra sitios web y empresas.
  • Mayor flexibilidad. Mientras que WHOIS está vinculado a TCP y a un puerto específico, RDAP tiene una mayor independencia al recurrir a HTTP. Esto hace que sea posible realizar búsquedas de datos, en lugar de búsquedas estáticas, y se simplifique la programación de servicios de consulta.
  • Internacionalización de los datos. Gracias a HTTP es posible consultar información en otros idiomas y alfabetos. De esta forma, la limitación de WHOIS a alfabetos latinos, al no poder especificarse la codificación de texto, desaparece.

El último intento

No es la primera vez que se intenta crear un protocolo que sustituya a WHOIS. CRISP e IRIS son algunos de los intentos por renovar una herramienta fundamental pero desfasada. Y es que la información contenida en WHOIS puede ser de utilidad para informar al propietario de una web sobre problemas técnicos, para informar de vulneraciones de derechos de autor, tomar acciones legales e incluso para intentar comprar el dominio asociado. Pero también puede ser utilizado con fines menos amables como el envío de spam.

Los servidores de WHOIS han sido la fuente de información de los spammers durante años; ya que mediante una simple búsqueda era posible hacerse con un gran número de direcciones de email. De ahí que haya sido necesario buscar una alternativa que ofrezca las mismas funciones que WHOIS, pero cumpliendo con las normativas vigentes; especialmente con la RGPD.

Si por la ICANN hubiera sido, WHOIS habría sido sustituido por otro protocolo hace mucho tiempo. Con RDAP parece que por fin podría llegar el reemplazo perfecto.

¿Qué es la directiva PSD2 y cómo te afecta?

Publicado enGeneral en septiembre 18, 2019 10:00 am

Como en todo, a medida que el comercio electrónico ha ido creciendo y mejorando ha ocurrido lo mismo con su seguridad. Especialmente si tenemos en cuenta que en estas transacciones se utiliza información tan sensible como nuestros datos bancarios. Para evitar que cada operador siguiera sus propios procesos y tiempos, en 2007 se adoptó la Directiva PSD1 (Payment Services Directive). Una norma que permitía homogeneizar los procesos estableciendo un marco común en todos los países de la Unión Europea. Más allá de la estandarización, la puesta en marcha de la primera versión de PSD sirvió para fomentar la competitividad en el sector y generar valor añadido en las tiendas online y sus consumidores. En los próximos días llegará PSD2, la nueva directiva para los pagos digitales.

PSD1, un antes y un después

Desde su puesta en marcha en 2007, PSD1 supuso un antes y un después en el comercio electrónico y sus agentes en toda la Unión Europea. Con la llegada de PSD1 se acabó el monopolio de los bancos como único agente autorizado para realizar operaciones económicas y aparecen nuevos conceptos de entidades y formas de pago. Entre ellas las llamadas entidades de pago, empresas cuya única función es gestionar cobros y pagos; actividad para la que habrán tenido que cumplir con ciertos criterios establecidos en la norma.

Junto con la llegada de las entidades de pago vinieron los iniciadores de pago. Un nuevo sistema de pago que se basa en transferencias instantáneas y directas desde la cuenta del usuario a la del comercio electrónico. Esto permitió integrar nuevas pasarelas de pago, como PayPal o Redsys, en las tiendas online.

La nueva versión: PSD2

Como era de esperar con tanto cambio en el comercio electrónico, ha sido necesario actualizar PSD1 para corregir algunos de sus problemas y, especialmente, mejorar la seguridad del consumidor. Este es el caso de algunas aplicaciones de ahorro o de seguros que requieren de nuestra información bancaria para poder funcionar, un acceso a los datos que hasta la llegada de PSD2 no estaba regulado. Con PSD2 todas las entidades que intervengan en el proceso habrán sido certificadas por una autoridad competente, en este caso el Banco de España.

Además, los bancos deberán facilitar una API a los proveedores para que se realicen las transferencias. De esta forma se acaba con el retraso en las transferencias bancarias, y la demora en el envío y recepción del producto, al realizarse una transacción directa entre usuario y comercio electrónico. Por ejemplo, si adquirimos varios productos en un Marketplace, con PSD2 cada una de las partes recibirá de forma directa e inmediata el dinero que le corresponde. En lugar de que sea el Marketplace quien distribuya, del importe total de la compra, lo que corresponde a cada una de las partes.

Asimismo, con la llegada de PSD2 no será necesario abandonar la web de una tienda online para poder realizar el pago. Es decir, ya no seremos redirigimos a su pasarela de paso, sino que el cobro se realizará dentro del mismo sitio web. Esto implica que compañías como Visa o Mastercard dejarán de tener visibilidad en todos los sitios web al realizarse una transacción directa entre el banco y el ecommerce mediante API.

Más seguridad

Con PSD2 los datos bancarios del usuario estarán protegidos en todo momento por dos certificados diferentes. Por un lado, QWAC, un certificado entre el proveedor y la entidad bancaria que se encarga de encriptar los datos en transmisión. Y, por el otro QSealC un sello de seguridad que viaja adjunto a los datos. Este último permite realizar un seguimiento de las empresas que han accedido a la cuenta bancaria y que transfirieron información a través de la API del banco en cuestión. Además, QSealC garantiza que los datos se puedan modificar. La emisión de estos certificados es competencia del Banco de España. Para poder acceder a ellos es necesario, además de la aprobación de la autoridad competente, contar con alguno de los siguientes permisos:

  • Servicio de agregación de información (AIS). Un permiso para proveedores que estén interesados en recibir información de una cuenta bancaria. Estas entidades se encargan de recopilar y mostrar los datos haciendo que el cliente pueda acceder a toda su información con mayor facilidad.
  • Servicio de iniciación de pagos (PIS). Esta licencia está orientada a empresas que pueden realizar pagos o transferencias en nombre del cliente. Para ello recurren a un software que conecta las cuentas bancarias del comprador y la empresa y notifica a las partes cuando se ha realizado la transacción.

Además, con PSD2 no se permitirán recargos adicionales al finalizar el proceso de compra. Con la nueva normativa dejarán de aplicarse sobreprecios sobre el precio de compra por razones como el tipo de tarjeta de crédito.

Consecuencias de PSD2

Al igual que ocurrió con la RGPD, parece que solo hemos escuchado hablar de ella cuando su llegada es inminente. Pero lo cierto es que PSD2 fue adoptada en 2017 y su incorporación a la legislación española llegó en septiembre de 2018. En primer lugar se estableció el 14 se septiembre como fecha límite, el plazo para su implantación se ha ampliado entre 14 y 18 meses.

La llegada de PSD2 afecta principalmente a los bancos y las entidades financieras, lo que hace de esta nueva directiva algo prácticamente inapreciable para usuarios y tiendas online. En cualquier caso, antes de la llegada de PSD2 te recomendamos asegurarte de que tu ecommerce está adaptado a esta nueva norma, evitando así cualquier tipo de penalización como consecuencia de su incumplimiento. Por ejemplo, en el caso de que no hayas implementado la autenticación en dos pasos en tu tienda online algunos pagos serán automáticamente cancelados. Esto afectará a:

  • Pagos con un importe superior a los 30€, o con un coste superior a 100€ si se trata de varios productos.
  • Transacciones económicas que tengan lugar dentro de la Unión Europea. En el caso de que se produzcan fuera del territorio europeo no será necesaria la doble autenticación.
  • Transacciones solicitadas por el cliente. Para aquellas iniciadas por parte de las empresas, como las domiciliaciones bancarias, no se requiere de doble factor de autenticación.

Adiós a las tarjetas de coordenadas

Entre los principales cambios que llegan con la nueva PSD2 se encuentra el fin de las tarjetas de coordenadas. Sí, aquella que te dieron el primer día y que siempre necesitarías para realizar compras por internet. El método estandarizado de doble autenticación de los últimos años, también desaparece al no tener que salir de una tienda online para pagar por sus productos.

A partir de la llegada de la nueva norma, la seguridad adicional en tus compras vendrá desde tu móvil, indispensable para realizar cualquier pago a través de internet. Lo que provocará que también deje de tener importancia el CVV de tu tarjeta, otro de los códigos de seguridad tradicionales.

Activa la 2FA

Aunque las estadísticas indican que el fraude en el comercio electrónico se encuentra en niveles muy bajos gracias al uso de sistemas de seguridad en las aplicaciones, la autenticación en dos pasos reducirá aún más estas cifras. Desde el 14 de septiembre todos los pagos que se realicen en una tienda online deberán estar protegido por la autenticación en dos factores. La 2FA es un requisito indispensable en un ecommerce para cumplir con la nueva PSD2.

Con esta medida se seguridad adicional se garantiza el pago seguro y se protege al máximo la información más sensible solicitando al cliente al menos dos de los siguientes elementos:

  • Algo que solo el cliente conozca. Como su contraseña o un PIN de acceso, el resto de su información bancaria, como el número de cuenta, no se consideran datos que el cliente tenga que conocer.
  • Algo que solo el cliente posea. Por ejemplo, su teléfono móvil.
  • Algo propio del cliente. El reconocimiento facial, mediante huella dactilar o a través de su voz.

Para ello puedes instalar un plugin, si se trata de un WooCommerce, o un módulo, en el caso de PrestaShop, que ofrezca esta funcionalidad. Eso sí, antes de instalar nada asegúrate de que el tema de tu ecommerce y los addons que se encuentren en ella son compatibles con el nuevo elemento.

Sencillez con PSD2

En un intento por hacerlo todo más sencillo, no será necesario introducir el segundo factor de autenticación cada vez que quieras realizar un pago. Durante un plazo de 90 días, el banco recordará que eres tú quien paga y no solicitará la comprobación.

Aunque cada banco llevará una estrategia diferente de cara a la adaptación a PSD2, lo cierto es que todos harán del móvil algo fundamental. Si antes debíamos tener a mano la tarjeta física para realizar pagos, ahora no podremos perder de vista nuestro smartphone; y siempre con conexión a internet, evidentemente. Bueno, y tener la aplicación de nuestro banco siempre actualizada, porque es muy probable que los códigos de confirmación se envíen desde la APP y no con un SMS, para evitar consecuencias del SIM swapping. Auqnue por el momento son muy pocas las entidades bancarias que han rehusado utilizar los mensajes de texto como factor de doble autenticación.

SIM swapping, el fraude bancario que empieza por tu tarjeta SIM

Publicado enCiberataques en septiembre 11, 2019 10:00 am

Desde que empezaron a convertirse en algo fundamental en nuestro día a día, el temor a perder nuestro smartphone ha pasado a ser uno de los miedos más frecuentes. Y es que cada vez que no encontramos nuestro teléfono móvil a la primera, el microinfarto está asegurado. A este susto hay que sumarle otro que parece estar en su máximo esplendor: el SIM swapping.

¿Qué es el SIM swapping?

También llamado suplantación de tarjeta SIM, este tipo de fraude consiste en explotar la puerta de acceso a los datos de nuestros terminales para accederse con nuestras credenciales. Aunque muchas veces tendemos a infravalorarlas, las tarjetas SIM son las responsables de que podamos hacer infinidad de tareas desde nuestros smartphones; desde llamadas telefónicas a intercambiar WhatsApp, tareas que no serían posibles sin la tarjeta SIM del dispositivo.

Así, el SIM swapping consiste en burlar los protocolos de los operadores móviles para hacerse con un duplicado de la tarjeta de otra persona. Con la SIM duplicada en su poder, el atacante puede acceder a los servicios de la víctima gracias a la autenticación en dos pasos a través de SMS. Esto se debe a que los mensajes de texto no están cifrados, lo que hace que utilizarlos para la autenticación en dos pasos no sea la mejor de las ideas. Aunque no hace tanto recurrir al SMS como capa extra de seguridad a la hora de acceder a algunos servicios era recomendable, actualmente es mejor optar por otras alternativas como la huella dactilar, el reconocimiento facial o aplicaciones como Google Authenticator.

Detectando el fraude de la SIM

Saber si estamos siendo víctimas de esta nueva técnica de ataque basta con prestar atención a dos factores clave: la cobertura del dispositivo y los movimientos bancarios inusuales. Al duplicarse la tarjeta SIM lo normal es que la tarjeta original deje de funcionar, de ahí que se produzcan pérdidas de cobertura. Además, pese a los complejos y seguros protocolos que siguen las entidades bancarias, la mayoría de los bancos recurren a los SMS como factor de doble autenticación. Por eso, hacerse con un duplicado de la tarjeta de tu móvil es esencial para el SIM swapping porque, entre otras cosas, las SIM móviles funcionan en cualquier plataforma.

Para obtener el duplicado de una tarjeta SIM los hackers se valen de todo tipo de técnicas de ingeniería social a través del engaño del trabajador de la operadora móvil. Aunque en ocasiones también se recurre a ciberataques o a la compra de bases de datos de páginas web que hayan sido comprometidas. Incluso es posible descifrar el código de acceso al móvil haciendo que el proceso sea aún más sencillo.

¿Cómo evitar ser víctimas de SIM swapping?

No cabe duda de que el móvil no es solo el dispositivo que más utilizamos sino también el que almacena mayor cantidad de información. Por ello, además de cuidarnos de no perderlo o que puedan robárnoslo, es importante tomar precauciones digitales para evitar que puedan clonar nuestra tarjeta SIM.

  • Establece como forma de 2FA una clave física, como la huella dactilar o el reconocimiento facial y, si optas por contraseñas o códigos PIN, almacena las claves en dispositivos sin conexión a internet. De esta forma se evita que tus contraseñas puedan filtrarse.
  • No compartas demasiada información sobre ti en lugares públicos como redes sociales o foros de internet. Cuantos más datos publiques, más fácil será utilizar esa información en tu contra.
  • Evita almacenar toda tu información en tu dispositivo móvil. El hecho de que sea tan fácil de transportar también convierte a tu smartphone en fácil de perder o susceptible de ser robado.
  • Aunque es prácticamente imposible, evita vincular el menor número de servicios con tu número de móvil. De esta forma en el caso de ser víctima de SIM swapping el atacante solo tendría acceso a aquellos servicios en los que, entre la información de tu perfil, aparezca tu número de contacto.

Otras consecuencias

Aunque el fraude bancario sea la principal consecuencia, el SIM swapping puede llegar a expandir malware entre los contactos de tu agenda; principalmente a través de enlaces enviados por mensaje instantáneo. Porque, ¿quién va a desconfiar de lo que le envía uno de sus contactos?

En las últimas semanas parece que el SIM swapping está instalándose en nuestro país. Así que si notas que de repente tu teléfono móvil experimenta comportamientos extraños no dudes en ponerte en contacto con tu operadora móvil y, sobretodo, cambiar las claves de acceso y el segundo factor de autenticación de todos los servicios que utilices. Además, no olvides avisar a tus contactos para evitar que puedan acabar siendo víctimas también del SIM swapping.

El SIM swapping es algo que puede pasarle a cualquiera, desde usuarios anónimos que comparten su experiencia en Twitter, hasta el propio cofundador de la red social, Jack Dorsey. Nadie se salva de la maldad de los ciberdelincuentes.

Conoce el consumo de tu servidor con las nuevas gráficas de monitorización

Publicado enServidores cloud en septiembre 4, 2019 10:00 am

La monitorización proactiva es una de las características principales de nuestros servicios de administración de sistemas. Pero, el hecho de que nos encarguemos de vigilar el estado en el que se encuentra tu servidor cloud para adelantarnos a gran parte de los futuros problemas, no significa que no puedas comprobar por ti mismo el estado en el que se encuentra tu máquina. Por ello, hemos mejorado las gráficas de monitorización para ofrecerte más información del servidor cloud de una forma más sencilla.

Más datos, más fácil

Detrás de cada servidor cloud hay una gran cantidad de información: datos económicos, información concreta sobre el consumo del servidor, el estado del servicio, cuánto espacio queda para almacenar backups… Para que conocer todos estos datos, y entenderlos, sea más sencillo desde el área de cliente puedes acceder a las gráficas de monitorización de tu servidor y más información relacionada con tu alojamiento. Ten en cuenta que estos datos solo están disponibles en el caso de los servidores con administración de sistemas.

Mediante la opción ‘ver detalles’ de tu servidor puedes comprobar de un solo vistazo que todo en tu servidor cloud funciona de forma correcta. Además, de conocer el estado del servidor, también puedes conocer el tiempo que lleva encendido, la dirección IP o el periodo de facturación. Asimismo, puedes ver la configuración del alojamiento y los servicios adicionales, como el tipo de servicio de administración de sistemas que tengas contratado, si dispones o no de mantenimiento de WordPress o si cuentas con licencia Plesk; además de consultar el estado en el que se encuentra el espacio para copias de seguridad.

Interpretando las gráficas de monitorización

Sin duda el principal cambio son las nuevas gráficas de monitorización. Una serie de tablas que aportan datos precisos sobre el uso de cada uno de los recursos contratados. Además, muestra el estado en tiempo real de los diferentes servicios instalados en el servidor.

  • CPU. La CPU, o core, es uno de los aspectos esenciales de la monitorización, ya que cada una de las acciones que se producen en el servidor consumen CPU. Expresado en porcentaje, puede que algunos procesos aumenten puntualmente la carga de CPU. Un consumo elevado durante un periodo prologado indica que los recursos de la máquina no son suficientes para la ejecución de los procesos y puede afectar al funcionamiento de la máquina.
  • RAM. Es la memoria con la que cuenta el servidor y que es fundamental para atender las peticiones de los usuarios, de ahí que sea otro de los aspectos esenciales en las gráficas de monitorización. A diferencia de la CPU, es normal que el consumo de RAM se mantenga de forma prolongada. Estos niveles suelen estar relacionados con la necesidad de ampliar los recursos, aunque también pueden deberse a la mala configuración de alguno de los servicios o aplicaciones.
  • Disco. Indica el espacio total de almacenamiento con el que cuenta el servidor cloud. En el disco se almacenarán los archivos de la web, o webs, almacenadas en el servidor, los buzones de correo, las bases de datos… cualquier elemento que dependa o posibilite el funcionamiento del servidor. En Linube recomendamos dejar siempre un 20% de la capacidad del disco libre para poder ejecutar los backups y garantizar el correcto funcionamiento del servidor.
  • Ancho de banda de banda de entrada y salida. Es la cantidad de datos que se transmiten por segundo desde y hacia el servidor. Para calcular estos niveles recurrimos a la fórmula del percentil 95. En los momentos en que el consumo de ancho de banda es más elevado es posible que la velocidad del sitio web se resienta y que la página tarde más en responder.
  • Transferencia mensual. El volumen total de datos contratados que se pueden transferir en un mes. Aquí se tiene en cuenta tanto el tráfico del sitio web, como cualquier servicio instalado en el servidor.
  • Espacio para backups. Para garantizar la disponibilidad de las copias de seguridad, los backup se almacenan en un espacio independiente y externo al servidor. Con estas nuevas gráficas de monitorización podrás saber en cualquier momento qué servicios ocupan más espacio, cuánto pesa cada copia de seguridad y la periodicidad con la que se actualizan. Además, ahora dispones de un botón para ver los detalles de la ejecución de cada uno de los backups.

Gráficas de monitorización cloud desde el área de cliente de Linube

En mejora continua

Hace unos meses os presentábamos una forma más sencilla de apagar, reiniciar o forzar el apagado de un servidor no administrado. En esta ocasión, la mejora está orientada a los servidores administrados. Junto a las gráficas de monitorización podrás comprobar el estado en el que se encuentran cada uno de los servicios instalados en el servidor. Además de las URLs monitorizadas y el tiempo de respuesta de dichas direcciones. Para hacerlo más visual, hemos recurrido a tres colores; verde cuando el estado del servicio es correcto, amarillo para los avisos y rojo para alertar de los errores. Con las nuestras nuevas gráficas de monitorización podrás conocer de primera mano, y de la forma más transparente, el consumo de recursos de tu servidor y del almacenamiento para backups.

Seguimos trabajando para ser lo más transparentes posible. Por ello, a partir de ahora cada vez que se produzca alguna incidencia en cualquiera de tus servicios contratados aparecerá una notificación en la ventana de inicio del área de cliente. Así, podrás saber en todo momento de qué se trata con tan solo iniciar sesión en tu panel de cliente. En cualquier caso, también te notificaremos por email del estado de la incidencia y del restablecimiento del servicio.

En Linube no solo tratamos de mejorar nuestros servicios a nivel técnico. Queremos que tú seas testigo de cada una de estas mejoras y puedas beneficiarte de ellas.

Los doodles de Google, garabatos con arte

Publicado enGeneral en agosto 28, 2019 10:00 am

Ya no nos sorprende entrar en la página principal de Google y darnos cuenta de que su logotipo ha cambiado. Es más, muchas veces es probable que ni nos demos cuenta de que el logo tradicional se ha sustituido temporalmente por un doodle; bien porque nos hemos acostumbrado a su presencia, o simplemente porque no pasamos por la página de inicio de Google. Lo cierto es que los doodles se han convertido en un elemento informativo más de nuestro día a día. Pero, ¿cómo surgió el doodle?

El nacimiento del doodle

La primera alteración del logotipo de Google tuvo lugar un final de agosto de 1998. Larry Page y Sergey Brin se disponían a acudir al Burning Man Festival, un evento de siete días que se celebra en Nevada, Estados Unidos. Antes de marcharse lejos de la civilización, los creadores de Google decidieron notificar en clave de humor a sus usuarios sobre su futura ausencia. Sobre su ‘out of office’ (OoO), justo lo que la unión lo de logotipos sugería de forma sutil. Especialmente por si durante esos días se produjera algún inconveniente que pudiera afectar al funcionamiento de la aplicación o si los servidores se dañaban.

Desde esa primera prueba tuvieron que pasar un par de años hasta que en julio de 2000 apareciera un segundo doodle dedicado al Día de la Toma de la Bastilla. Un proyecto con tan buenas críticas que, además de servir para nombrar a su autor como ‘doodler’ oficial, propició que el doodle se fuera convirtiendo en un indispensable del buscador para comunicar todo tipo de acontecimientos. En un primer momento, dedicados a festividades populares, para después representar también eventos específicos de cada uno de los países.

Repasando los doodles

En estos 21 años el equipo de Google ha creado más de 2.000 piezas diferentes para las páginas de inicio de los principales países en los que el buscador tiene presencia. A la hora de decidir qué eventos se representan se tienen en cuenta numerosas fuentes, desde empleados de Google a usuarios, e incluso es posible sugerir temáticas o personalidades a los doodlers. Asimismo, a partir de los datos de herramientas como Google +, el día de tu cumpleaños la página de inicio se personalizaba con un doodle solo para ti.

Si bien el primer doodle animado no apareció hasta el 21 de mayo de 2010 dedicado a PAC-MAN, actualmente los hay de todos los tipos. Desde aquellos que cambian los colores, los que utilizan una tipografía diferente, hasta los que sirven a modo de videojuego. De ser algo estático han pasado a convertirse en un elemento dinámico con el que interactuar (y que nos hace pasar más tiempo dentro del buscador).

Desde aquel agosto de 1998, el doodle el término ‘garabato’ en inglés adquirió un nuevo significado para convertirse en una herramienta más de Google. ¿Cuál será el próximo y qué celebrará? Solo Google lo sabe.