944 063 154

Blog

Categoría: General

¿Qué es la directiva PSD2 y cómo te afecta?

Publicado enGeneral en septiembre 18, 2019 10:00 am

Como en todo, a medida que el comercio electrónico ha ido creciendo y mejorando ha ocurrido lo mismo con su seguridad. Especialmente si tenemos en cuenta que en estas transacciones se utiliza información tan sensible como nuestros datos bancarios. Para evitar que cada operador siguiera sus propios procesos y tiempos, en 2007 se adoptó la Directiva PSD1 (Payment Services Directive). Una norma que permitía homogeneizar los procesos estableciendo un marco común en todos los países de la Unión Europea. Más allá de la estandarización, la puesta en marcha de la primera versión de PSD sirvió para fomentar la competitividad en el sector y generar valor añadido en las tiendas online y sus consumidores. En los próximos días llegará PSD2, la nueva directiva para los pagos digitales.

PSD1, un antes y un después

Desde su puesta en marcha en 2007, PSD1 supuso un antes y un después en el comercio electrónico y sus agentes en toda la Unión Europea. Con la llegada de PSD1 se acabó el monopolio de los bancos como único agente autorizado para realizar operaciones económicas y aparecen nuevos conceptos de entidades y formas de pago. Entre ellas las llamadas entidades de pago, empresas cuya única función es gestionar cobros y pagos; actividad para la que habrán tenido que cumplir con ciertos criterios establecidos en la norma.

Junto con la llegada de las entidades de pago vinieron los iniciadores de pago. Un nuevo sistema de pago que se basa en transferencias instantáneas y directas desde la cuenta del usuario a la del comercio electrónico. Esto permitió integrar nuevas pasarelas de pago, como PayPal o Redsys, en las tiendas online.

La nueva versión: PSD2

Como era de esperar con tanto cambio en el comercio electrónico, ha sido necesario actualizar PSD1 para corregir algunos de sus problemas y, especialmente, mejorar la seguridad del consumidor. Este es el caso de algunas aplicaciones de ahorro o de seguros que requieren de nuestra información bancaria para poder funcionar, un acceso a los datos que hasta la llegada de PSD2 no estaba regulado. Con PSD2 todas las entidades que intervengan en el proceso habrán sido certificadas por una autoridad competente, en este caso el Banco de España.

Además, los bancos deberán facilitar una API a los proveedores para que se realicen las transferencias. De esta forma se acaba con el retraso en las transferencias bancarias, y la demora en el envío y recepción del producto, al realizarse una transacción directa entre usuario y comercio electrónico. Por ejemplo, si adquirimos varios productos en un Marketplace, con PSD2 cada una de las partes recibirá de forma directa e inmediata el dinero que le corresponde. En lugar de que sea el Marketplace quien distribuya, del importe total de la compra, lo que corresponde a cada una de las partes.

Asimismo, con la llegada de PSD2 no será necesario abandonar la web de una tienda online para poder realizar el pago. Es decir, ya no seremos redirigimos a su pasarela de paso, sino que el cobro se realizará dentro del mismo sitio web. Esto implica que compañías como Visa o Mastercard dejarán de tener visibilidad en todos los sitios web al realizarse una transacción directa entre el banco y el ecommerce mediante API.

Más seguridad

Con PSD2 los datos bancarios del usuario estarán protegidos en todo momento por dos certificados diferentes. Por un lado, QWAC, un certificado entre el proveedor y la entidad bancaria que se encarga de encriptar los datos en transmisión. Y, por el otro QSealC un sello de seguridad que viaja adjunto a los datos. Este último permite realizar un seguimiento de las empresas que han accedido a la cuenta bancaria y que transfirieron información a través de la API del banco en cuestión. Además, QSealC garantiza que los datos se puedan modificar. La emisión de estos certificados es competencia del Banco de España. Para poder acceder a ellos es necesario, además de la aprobación de la autoridad competente, contar con alguno de los siguientes permisos:

  • Servicio de agregación de información (AIS). Un permiso para proveedores que estén interesados en recibir información de una cuenta bancaria. Estas entidades se encargan de recopilar y mostrar los datos haciendo que el cliente pueda acceder a toda su información con mayor facilidad.
  • Servicio de iniciación de pagos (PIS). Esta licencia está orientada a empresas que pueden realizar pagos o transferencias en nombre del cliente. Para ello recurren a un software que conecta las cuentas bancarias del comprador y la empresa y notifica a las partes cuando se ha realizado la transacción.

Además, con PSD2 no se permitirán recargos adicionales al finalizar el proceso de compra. Con la nueva normativa dejarán de aplicarse sobreprecios sobre el precio de compra por razones como el tipo de tarjeta de crédito.

Consecuencias de PSD2

Al igual que ocurrió con la RGPD, parece que solo hemos escuchado hablar de ella cuando su llegada es inminente. Pero lo cierto es que PSD2 fue adoptada en 2017 y su incorporación a la legislación española llegó en septiembre de 2018. En primer lugar se estableció el 14 se septiembre como fecha límite, el plazo para su implantación se ha ampliado entre 14 y 18 meses.

La llegada de PSD2 afecta principalmente a los bancos y las entidades financieras, lo que hace de esta nueva directiva algo prácticamente inapreciable para usuarios y tiendas online. En cualquier caso, antes de la llegada de PSD2 te recomendamos asegurarte de que tu ecommerce está adaptado a esta nueva norma, evitando así cualquier tipo de penalización como consecuencia de su incumplimiento. Por ejemplo, en el caso de que no hayas implementado la autenticación en dos pasos en tu tienda online algunos pagos serán automáticamente cancelados. Esto afectará a:

  • Pagos con un importe superior a los 30€, o con un coste superior a 100€ si se trata de varios productos.
  • Transacciones económicas que tengan lugar dentro de la Unión Europea. En el caso de que se produzcan fuera del territorio europeo no será necesaria la doble autenticación.
  • Transacciones solicitadas por el cliente. Para aquellas iniciadas por parte de las empresas, como las domiciliaciones bancarias, no se requiere de doble factor de autenticación.

Adiós a las tarjetas de coordenadas

Entre los principales cambios que llegan con la nueva PSD2 se encuentra el fin de las tarjetas de coordenadas. Sí, aquella que te dieron el primer día y que siempre necesitarías para realizar compras por internet. El método estandarizado de doble autenticación de los últimos años, también desaparece al no tener que salir de una tienda online para pagar por sus productos.

A partir de la llegada de la nueva norma, la seguridad adicional en tus compras vendrá desde tu móvil, indispensable para realizar cualquier pago a través de internet. Lo que provocará que también deje de tener importancia el CVV de tu tarjeta, otro de los códigos de seguridad tradicionales.

Activa la 2FA

Aunque las estadísticas indican que el fraude en el comercio electrónico se encuentra en niveles muy bajos gracias al uso de sistemas de seguridad en las aplicaciones, la autenticación en dos pasos reducirá aún más estas cifras. Desde el 14 de septiembre todos los pagos que se realicen en una tienda online deberán estar protegido por la autenticación en dos factores. La 2FA es un requisito indispensable en un ecommerce para cumplir con la nueva PSD2.

Con esta medida se seguridad adicional se garantiza el pago seguro y se protege al máximo la información más sensible solicitando al cliente al menos dos de los siguientes elementos:

  • Algo que solo el cliente conozca. Como su contraseña o un PIN de acceso, el resto de su información bancaria, como el número de cuenta, no se consideran datos que el cliente tenga que conocer.
  • Algo que solo el cliente posea. Por ejemplo, su teléfono móvil.
  • Algo propio del cliente. El reconocimiento facial, mediante huella dactilar o a través de su voz.

Para ello puedes instalar un plugin, si se trata de un WooCommerce, o un módulo, en el caso de PrestaShop, que ofrezca esta funcionalidad. Eso sí, antes de instalar nada asegúrate de que el tema de tu ecommerce y los addons que se encuentren en ella son compatibles con el nuevo elemento.

Sencillez con PSD2

En un intento por hacerlo todo más sencillo, no será necesario introducir el segundo factor de autenticación cada vez que quieras realizar un pago. Durante un plazo de 90 días, el banco recordará que eres tú quien paga y no solicitará la comprobación.

Aunque cada banco llevará una estrategia diferente de cara a la adaptación a PSD2, lo cierto es que todos harán del móvil algo fundamental. Si antes debíamos tener a mano la tarjeta física para realizar pagos, ahora no podremos perder de vista nuestro smartphone; y siempre con conexión a internet, evidentemente. Bueno, y tener la aplicación de nuestro banco siempre actualizada, porque es muy probable que los códigos de confirmación se envíen desde la APP y no con un SMS, para evitar consecuencias del SIM swapping. Auqnue por el momento son muy pocas las entidades bancarias que han rehusado utilizar los mensajes de texto como factor de doble autenticación.

Los doodles de Google, garabatos con arte

Publicado enGeneral en agosto 28, 2019 10:00 am

Ya no nos sorprende entrar en la página principal de Google y darnos cuenta de que su logotipo ha cambiado. Es más, muchas veces es probable que ni nos demos cuenta de que el logo tradicional se ha sustituido temporalmente por un doodle; bien porque nos hemos acostumbrado a su presencia, o simplemente porque no pasamos por la página de inicio de Google. Lo cierto es que los doodles se han convertido en un elemento informativo más de nuestro día a día. Pero, ¿cómo surgió el doodle?

El nacimiento del doodle

La primera alteración del logotipo de Google tuvo lugar un final de agosto de 1998. Larry Page y Sergey Brin se disponían a acudir al Burning Man Festival, un evento de siete días que se celebra en Nevada, Estados Unidos. Antes de marcharse lejos de la civilización, los creadores de Google decidieron notificar en clave de humor a sus usuarios sobre su futura ausencia. Sobre su ‘out of office’ (OoO), justo lo que la unión lo de logotipos sugería de forma sutil. Especialmente por si durante esos días se produjera algún inconveniente que pudiera afectar al funcionamiento de la aplicación o si los servidores se dañaban.

Desde esa primera prueba tuvieron que pasar un par de años hasta que en julio de 2000 apareciera un segundo doodle dedicado al Día de la Toma de la Bastilla. Un proyecto con tan buenas críticas que, además de servir para nombrar a su autor como ‘doodler’ oficial, propició que el doodle se fuera convirtiendo en un indispensable del buscador para comunicar todo tipo de acontecimientos. En un primer momento, dedicados a festividades populares, para después representar también eventos específicos de cada uno de los países.

Repasando los doodles

En estos 21 años el equipo de Google ha creado más de 2.000 piezas diferentes para las páginas de inicio de los principales países en los que el buscador tiene presencia. A la hora de decidir qué eventos se representan se tienen en cuenta numerosas fuentes, desde empleados de Google a usuarios, e incluso es posible sugerir temáticas o personalidades a los doodlers. Asimismo, a partir de los datos de herramientas como Google +, el día de tu cumpleaños la página de inicio se personalizaba con un doodle solo para ti.

Si bien el primer doodle animado no apareció hasta el 21 de mayo de 2010 dedicado a PAC-MAN, actualmente los hay de todos los tipos. Desde aquellos que cambian los colores, los que utilizan una tipografía diferente, hasta los que sirven a modo de videojuego. De ser algo estático han pasado a convertirse en un elemento dinámico con el que interactuar (y que nos hace pasar más tiempo dentro del buscador).

Desde aquel agosto de 1998, el doodle el término ‘garabato’ en inglés adquirió un nuevo significado para convertirse en una herramienta más de Google. ¿Cuál será el próximo y qué celebrará? Solo Google lo sabe.

Todo lo que MSN Messenger fue y lo que quedó en el camino

Publicado enGeneral en julio 24, 2019 10:00 am

Si a finales de los 90 y principios de los 2000s estabas en plena adolescencia puede que sientas una punzadita de nostalgia. Porque hace no tanto la puerta de internet no era Google sino MSN, una serie de servicios creados por Microsoft que nos abrían al mundo y de donde acabaría saliendo su producto estrella: MSN Messenger.

¿Qué fue MSN Messenger?

La primera y arcaica versión de MSN Messenger fue lanzada el 22 de julio de 1999. Una agenda de contactos y la posibilidad de enviar de forma instantánea mensajes en texto plano fue el punto de partida de una aplicación que, con el paso del tiempo, acabaría convirtiéndose en la semilla de nuestras redes sociales.

En los 90 los proveedores de servicios de internet recurrían a los servicios de mensajería como anzuelo para captar (y retener) clientes. Un mercado al que Microsoft llegó un poco tarde pero que, gracias al retraso, pudo crear una app de mensajería que superara las limitaciones de sus competidores. Generalmente, este tipo de servicios solo permitían interactuar con otros usuarios del mismo proveedor. Pero Bill Gates, consciente de que la popularización de internet iba a ser clave para el futuro de sus productos, apostó por una nueva fórmula; un servicio que permitiera chatear con otros usuarios independientemente de cuál fuera su proveedor.

Aunque la idea principal fue que MSN Messenger fuera compatible con otros servicios similares, Microsoft se encontró con que sus competidores, como AIM, no iban a ponérselo fácil. Cada vez que el servicio de Microsoft conseguía ser compatible con AIM, éstos volvían a cambiar su aplicación para que Microsoft no pudiera conectarse a sus servidores. Y así fue hasta que, finalmente, Microsoft descartó esta opción y pasó al modelo tradicional: solo podrían chatear entre sí los usuarios de MSN Messenger. Una serie de intentos frustrados por crear un servicio más global que dieron como resultado el trasvase de usuarios. Quienes (aún) no eran usuarios de MSN, cambiaron de proveedor al no poder seguir chateando con sus amigos. Un movimiento que a Microsoft le salió más que redondo.

MSN Messenger: chat y correo

El único requisito para empezar a utilizar MSN Messenger era tener una cuenta de Hotmail. Un proceso que llevaba apenas unos minutos y durante el que los adolescentes de la época tomamos una mala decisión. Sí, reconoce que una cuenta de Hotmail fue tu primera (y vergonzosa) cuenta de correo. Esa misma que desearías no haber creado nunca, o al menos haber sido lo suficientemente sensato como para haber escogido un nombre diferente. Pero eran cosas de la edad.

La primera actualización llegó solo unos meses más tarde de su lanzamiento. Con los cambios que Microsoft había introducido era posible, entre otras cosas, personalizar la apariencia del chat. Unos meses después sería posible enviar archivos entre PCs y se añadieron capacidades de audio entre ordenadores y los dispositivos móviles de la época. Y, con la llegada de Windows XP en 2001, el sistema operativo x86 más utilizado del mundo, llegaron más cambios en la interfaz, los grupos de contactos y la voz en las conversaciones. En las siguientes actualizaciones llegarían los famosos (y añorados) zumbidos, los emoticonos, los guiños, la posibilidad de mostrar la música que se escuchaba, las videollamadas…incluso jugar con tus amigos a través de la aplicación. Aunque para esta última funcionalidad la escasa velocidad de las conexiones jugaba en contra.

Todas estas y otras muchas opciones convirtieron a MSN Messenger en algo fundamental en la vida de cualquier adolescente. Gracias a MSN ya no era necesario llamar a tus amigos, podías chatear con ellos y sin que nadie cotilleara la conversación. Una sensación de privacidad y cierta independencia en plena edad del pavo que contribuyó a que MSN Messenger siguiera aumentado en número de usuarios.

Más dura fue la caída

El pico máximo de usuarios de MSN Messenger se alcanzó en 2009, a partir de ahí todo empezó a ir cuesta abajo. De tener más de 330 millones de usuarios mensuales en todo el mundo, la aplicación de Microsoft empezó a ver como las cifras empezaban a decaer por la llegada de las redes sociales. Nuevas herramientas de comunicación que lo habían aprendido (casi) todo de las mejoras que habían ido introduciéndose en MSN Messenger. Por ejemplo, el muro de Facebook, y una de las principales razones del comienzo de su éxito, tiene su origen en la barra de estado de MSN. Aquel lugar que, entre otras muchas cosas, se utilizaba para enviar indirectas.

Como en todo, Facebook no fue la primera en aparecer, pero sí la primera en hacer las cosas bien. De ahí que poco a poco fuera robándole usuarios a MSN. Un golpe que se agravó con la llegada de Skype (que Microsoft adquiriría en 2011) y que acabaría de rematar a MSN Messenger cuando aparecieron BlackBerry Messenger y WhatsApp. Si ya estaba siendo duro ver cómo aparecían nuevos servicios que mejoraban las prestaciones de MSN, incorporarlos en un Smartphone fue mortal para la aplicación de Windows. Aunque Microsoft intentó dar el salto a los dispositivos móviles, sus intentos no dieron ningún resultado.

Pero la caída de MSN no llegó sola. Junto a ella, comenzó también el declive del PC. Los teléfonos móviles empezaban a ofrecer las mismas opciones que un ordenador y eran muy capaces de superar sus limitaciones. Y es que ahora podíamos chatear en tiempo real con nuestros amigos desde cualquier parte, más allá de las paredes de nuestras casas y, a diferencia de los SMS, de forma gratuita.

Microsoft no lo vio

Aunque lo tuvieron todo para seguir manteniéndose en el top de servicios más utilizados, Microsoft no lo quiso ver. O simplemente prefirió seguir con su tónica habitual de llegar tarde a (casi) todo. Lo cierto es que la mezcla de Hotmail, el servicio de correo con más cuentas del momento, con MSN Messenger hacía que todos necesitáramos estar en la onda. El problema fue que nuestras necesidades fueron cambiando, pero el servicio no evolucionó.

Quizá, si hubieran introducido algunos pequeños cambios estaríamos celebrando su veinte aniversario intercambiando mensajes en MSN Messenger. Porque, a decir verdad, las funciones que nos ofrecía MSN no distan mucho de lo que obtenemos con Facebook, Twitter o Instagram. A excepción de la posibilidad de ver lo que ha ocurrido mientras que no estábamos conectados, algo con lo que hasta ese momento MSN no había probado.

El ser humano necesita comunicarse, pero también cotillear y conocer lo que pasa cuando está ausente. Y en eso Microsoft no cayó, o al menos no a tiempo.

Llega HTTP/3, la última (y renovada) versión de HTTP

Publicado enGeneral en junio 5, 2019 10:00 am

HTTP es uno de los principales protocolos que posibilitan el funcionamiento de internet. Un protocolo de comunicación cuya primera versión aún sigue en uso entre aquellos usuarios que aún no han instalado en su sitio web un certificado de seguridad SSL. Y es que para utilizar HTTP/2, actualmente la última versión de HTTP, es necesario tener una web cifrada ya que los principales navegadores no cuentan con soporte para HTTP/2 sin SSL.

Aunque la adopción de HTTP/2 sigue en aumento, en su obsesión por intentar mejorar la velocidad de las páginas webun grupo de trabajo lleva unos años trabajando en QUIC, el nuevo protocolo HTTP/3.

De HTTP/1 a HTTP/2

Con el tiempo el número de usuarios en internet ha ido creciendo y las conexiones se han hecho cada vez más rápidas. Por no hablar de que la complejidad y frecuencia de los ciberataques ha evolucionado casi en la misma proporción. Todo ello ha ocasionado que el número de peticiones que se realizan desde un cliente a un servidor haya aumentado y que sea necesario implementar medidas de seguridad más potentes.

En este sentido, el HTTP original maneja de forma independiente cada una de estas peticiones, estableciendo una conexión diferente para cada una de ellas, además de no ser un protocolo cifrado por defecto. Esto puede hacer que si alguna de las peticiones es lenta se acabe produciendo un bloqueo en los encabezados de línea (HOLB). En este caso, todas las peticiones que sigan a esa petición lenta serán igualmente lentas y acabará perjudicando al sitio web.

HTTP/2 y la gestión de peticiones

Para solucionar este problema de gestión de las peticiones, HTTP/2 introdujo la multiplexación. Una técnica que permite responder a diferentes peticiones de forma simultánea utilizando una misma conexión. Este gran cambio que hace que no sea necesario esperar a que se complete una petición para iniciar otra, consiguió mejorar la velocidad de carga de una página web siempre que no se produzcan problemas de conexión. A pesar de que, técnicamente, HTTP/2 consigue mejorar la velocidad de carga, la nueva versión del protocolo no ha podido escapar de las limitaciones de TCP.

Al enviarse todas las peticiones en una única conexión TCP, todos los paquetes dependen de que el protocolo haga bien su trabajo. Así, en el caso de que se perdiera alguno de estos paquetes, los que han sido correctamente enviados tendrán que esperar a que se consiga recuperar todos aquellos que se han perdido. Porque solo será posible establecer la conexión cuando todos los paquetes se hayan entregado correctamente.

Más allá de los problemas ocasionados por las limitaciones de TCP, HTTP/2 se ha encontrado con que en algunos casos la velocidad de carga no solo no se mejora, sino que se empeora. Esto se debe a que para poder utilizar HTTP/2 es necesario tener instalado un certificado de seguridad en la web. Y, en ocasiones, el cifrado puede hacer que los tiempos de respuesta del sitio web aumenten.

HTTP-over-QUIC o HTTP/3

Prácticamente desde que se presentó HTTP/2 se ha trabajado por seguir mejorando el protocolo HTTP. Tanto que en 2017 Google ya había publicado una guía sobre QUIC, su segunda tecnología experimental que al igual que SPYDY acabaría convirtiéndose en un protocolo. Así, si SPDY supuso el nacimiento de HTTP/2, QUIC haría lo propio con HTTP/3.

La principal diferencia entre ambos protocolos nacidos de la experimentación de Google es que HTTP/3 supone una redefinición de HTTP. Y es que el protocolo HTTP/3 no se basa en TCP, como han hecho las anteriores versiones de HTTP, sino que apuesta por UDP como protocolo de transporte. Una declaración de intenciones que se encuentra en el nombre que Google le dio a su versión preliminar: QUIC – Quick UDP Internet Connections.

El motivo por el que el equipo de Google optó por UDP como forma de escapar de las limitaciones de TCP es que ambos protocolos de transporte son soportados por la gran mayoría de los dispositivos. Optar por otro protocolo hubiera supuesto, además de la redefinición de HTTP, la de todos los sistemas operativos, aplicaciones y equipos. Aun así, UDP no goza de la misma popularidad que TCP, el considerado protocolo de moda desde hace unas cuantas décadas.

En un primer momento el equipo de Google decidió que QUIC se basaría únicamente en el transporte HTTP recurriendo a la sintaxis de HTTP/2. Tras las recomendaciones del IEFT se modificó para que pudiera transportar más que solo HTTP y que recurriría a TLS 1.3 como forma de cifrado. Además de posibilitar la compatibilidad retroactiva al hacer que HTTP/3 incluya a sus versiones anteriores en la respuesta. Una serie de cambios que mejoran la velocidad del protocolo y reducen su latencia al simplificar el proceso de negociación.

Resolviendo los problemas de HTTP/2

Esta última versión de HTTP supone una nueva forma de resolver los problemas del protocolo valiéndose de UDP para acelerar las conexiones. Un aspecto especialmente relevante en el caso de redes lentas en las que, además de una gran latencia, se pierden muchos paquetes.

Con HTTP/3 dejan de producirse los problemas de flujo experimentados por HTTP/2. Cada petición que se realice en la nueva versión de HTTP se responderá de manera independiente. De forma que incluso si una petición fallara el resto llegarían a su destino, en lugar de tener que esperar a que se recuperen los paquetes perdidos. Lo que hará que mejore la experiencia de usuario y que la velocidad de carga del sitio web no se vea perjudicada.

Más allá de las mejoras en cuanto a velocidad y eficiencia de los paquetes que se envían, HTTP/3 estará cifrado por defecto. Algo que en HTTP/2 solo se conseguía mediante la instalación de un certificado SSL, ya que el estándar HTTP por sí mismo no está encriptado.

HTTP/3 en la actualidad

En este momento el protocolo se encuentra en un plan preliminar que expirará en apenas unos días. A partir de ese momento, HTTP/3 pasará a convertirse en un estándar oficial.

El propósito de Google es que con el tiempo QUIC-HTTP/3 se convierta en el sustituto de los clásicos TCP y UDP. Una nueva forma de mover datos con mayor rapidez y seguridad, al ser un protocolo cifrado por defecto, que ya ha sido probado. Teniendo en cuenta la multitud de servicios de Google, la compañía implementó en 2013 HTTP-over-QUIC en gran parte de internet sin necesidad de esperar a la aprobación de la IEFT, el organismo encargado de regular estándares en internet. De tal manera que en 2017 un 7% del tráfico total de internet ya utilizaba QUIC. Aunque otras grandes empresas como Facebook también han comenzado a aceptar el protocolo HTTP/3, solo un 1.2% de los servicios son compatibles con esta tecnología.

Por el momento, esta intención se ha encontrado con dos obstáculos. Por un lado, que hasta ahora los únicos navegadores que soportan QUIC son Chrome y Opera. De forma que si utilizas cualquier otro la conexión se producirá a través de HTTP/2, siempre que se cuente con una web cifrada bajo HTTPS; sino, se estará utilizando HTTP/1. Por otra parte, hay muchos que consideran que se trata de un cambio muy precipitado teniendo en cuenta que la adopción de HTTP/2 no llega al 40%.

Es evidente que HTTP/2 ha mejorado la velocidad de carga de los sitios web pero no ha conseguido superar algunas de las limitaciones que le ha impuesto el uso de TCP. Problemas que, técnicamente, se solucionarían con el cambio de protocolo a HTTP/3, algo que podría comenzar en las próximas semanas.

10 años de servicios en la nube

Publicado enGeneral en mayo 8, 2019 10:00 am

Para nosotros hoy no es un día cualquiera. Tal día como hoy, un 8 de mayo de 2009, Linube vino al mundo. Bueno, al Registro Mercantil, y entonces aún no nos llamábamos así si no Blackslot. Pero esa parte de la historia ya os la contamos hace algún tiempo. La cosa es que si aquel viernes de mayo nos hubieran preguntado dónde creíamos que estaríamos diez años después, seguro que no acertábamos en nuestra respuesta. No es fácil prever (y acertar) a tantos años vista, ni siquiera el mejor de los futurólogos podría habernos dicho que seguiríamos al pie del cañón. Lo de trabajar sin descanso para ofrecer siempre el mejor servicio, en cambio, sí que lo teníamos muy claro.

3.650 días de servicio

En esta primera década de vida, que se dice pronto, hemos ido adaptando nuestra oferta a las tendencias del sector. Al igual que ocurre con todo lo relacionado con internet, el mundo del hosting avanza a pasos agigantados. Así, en este tiempo hemos pasado de ofrecer servidores dedicados y VPS a sacar productos que aúnan y mejoran lo mejor de los anteriores: nuestros servidores cloud. Alojamientos personales y personalizados según las necesidades de cada cliente o cada proyecto. Porque si algo caracteriza al cloud es su capacidad de configuración para que el crecimiento de un proyecto web no tenga que depender de migraciones entre servidores.

Más allá del alojamiento web, en estos diez años hemos ido ofreciendo otros servicios complementarios para que nuestros clientes puedan tenerlo todo en el mismo lugar. Desde la gestión de su dominio, al desarrollo de un nuevo proyecto o la administración de su servidor sin importar que se encuentre, o no, en nuestras plataformas cloud. Tareas que requieren de conocimientos técnicos y, sobretodo, de tiempo para llevarlas a cabo. Algo que nosotros podemos hacer por ti para que tú no tengas que pensar en nada más allá de la gestión de tu negocio.

Una década de proyectos

En este tiempo hemos visto nacer muchos proyectos y visto cómo crecían otros tantos. Siempre hemos dicho que crecemos con nuestros clientes y no podría haber una definición más acertada para explicar qué es lo que hacemos. Sin nuestros clientes, y todo lo que hemos ido aprendiendo gracias a ellos, no seríamos lo que hoy somos. Ni probablemente estaríamos en el mismo sitio, o al menos no en las mismas condiciones.

Cada uno de nuestros clientes son los verdaderos protagonistas de nuestros diez años de historia y nuestro principal objetivo al desarrollar nuevos productos o servicios. En Linube trabajamos día a día por crear nuevos servicios que faciliten la gestión de los proyectos web de nuestros clientes y garanticen la máxima seguridad a sus negocios.

Diez años (más) de Linube

La historia de Linube ha sido testigo de la evolución de internet, de cómo internet se ha convertido en un servicio tan básico y necesario para cualquier empresa. Además, en un mercado cada vez más exigente como es el de los proveedores de alojamiento web, nosotros trabajamos por ampliar nuestra oferta sin perder de vista el cloud. Así, hemos pasado de ofrecer VPS y servidores dedicados a centrarnos en la nube y desarrollar todo tipo de soluciones: Cloud Backup, Nextcloud, Planes de contingencia (DRS)… además de administrar servidores en otras plataformas cloud como la de Amazon.

Una búsqueda constante de la innovación y de la aplicación de las nuevas tecnologías para crear el servicio más personalizado en una infraestructura de la mejor calidad. Un trabajo constante que nos permita ofrecer mayores prestaciones al mejor precio. Por el momento hemos añadido nuevos servicios como la Optimización de sitios web (WPO), pero aún queda mucho por venir. Y no es solo que cada vez tengamos más productos, sino que cada vez queremos hacerlo mejor. Y eso, lo vamos a conseguir.

¿Qué son los crawlers y cómo influyen en los sitios web?

Publicado enGeneral en abril 10, 2019 10:00 am

Nacido con un claro propósito militar que permitiera asegurar las comunicaciones entre instituciones ubicadas en diferentes puntos geográficos, la rápida y continua evolución de internet a lo largo de su (corta) historia ha hecho que internet se convierta en lo que actualmente conocemos. Para ello, fue de vital importancia la integración del contenido presente en internet a través de enlaces o hipervínculos. Aunque pueda parecer lejano, no fue hasta 1998 cuando una nueva empresa decidió analizar y organizar los enlaces para hacer accesible al usuario el contenido que se encontraba en internet. Aquella nueva empresa que tuvo la idea de crear un ejército de crawlers fue Google.

¿Qué son los crawlers?

Un crawler, rastreador, indexador, araña… es un pequeño programa informático que analiza las páginas web de forma automática. Su principal objetivo es seguir cada uno de los enlaces que se encuentra en cada sitio web; posteriormente, almacenará en sus bases de datos una copia de todo lo que encuentra. De esta forma, se crea una red de interconexiones que une los millones de páginas web que se encuentran en internet y todo el contenido de cada una de ellas.

Además de la creación de índices de búsqueda a partir de toda la información contenida en sus bases de datos, los crawlers también permiten encontrar enlaces rotos o crear catálogos. Así, toda la información recopilada en cada una de las visitas de los crawlers sirve, entre otras cosas, para crear los resultados de búsqueda que los navegadores muestran en base al contenido indexado. En este caso, lo que Google muestra al realizar una determinada búsqueda utilizando su navegador.

¿Cómo funcionan estas arañas?

  1. Un crawler visita una lista que contiene una serie de URLs, las analiza y descarga su HTML. Los bots o crawlers únicamente leen código, de ahí que se queden con una copia del HTML de cada uno de los sitios web. Estas copias serán almacenadas en sus servidores, en este caso los de Google. También es necesario tener en cuenta que, si el código de la página web no cumple con ciertos estándares, el posicionamiento SEO se verá afectado.
  2. A continuación, los crawlers identifican cada uno de los enlaces que contienen las URLs que ha visitado y los añaden a sus listas. La próxima que vayan a visitar una de las URLs de la lista, seguirán también cada uno de los enlaces que estas contienen.
  3. Como de cada una de las páginas web salen infinidad de enlaces, tanto internos como externos, llegado un punto los crawlers deciden abandonar la misión; es decir, dejar de rastrear los enlaces de los enlaces a los que a llegado a partir del análisis de un sitio web. Esto generalmente ocurre en el nivel 3 y se denomina frontera de rastreo.
  4. Cuando finaliza la tarea de rastreo y almacenamiento, el algoritmo analizará todo el contenido para extraer entre tanta información solo aquello que le interesa. Es decir, qué es lo que quiere indexar o posicionar en sus resultados de búsqueda.
  5. Con toda la información recopilada se crea un índice. Estos índices de búsqueda serán los resultados que muestre el navegador al realizar una determinada búsqueda.
  6. A fin de actualizar la información de sus bases de datos, los crawlers vuelven a las mismas URLs con cierta frecuencia. Así, verifican que todo está tal y como se encontraba en su última visita; o, si por el contrario, si se ha añadido o eliminado contenido o corregido errores.

Las políticas de crawlers

El funcionamiento de los crawlers se corresponde con unas determinadas políticas de comportamiento. Unas normas que, por regla general, siguen todos los rastreadores de este tipo:

  • Selección. Puesto que es imposible rastrear todo el contenido que se encuentra en internet, los crawlers tienen que decidir qué páginas se descargan. Por lo tanto, también estarán decidiendo cuáles optan por ignorar.
  • Re-visita. Una vez se han descargado el código HTML de una web, tienen que decidir cuándo volverán a visitarla. Esta nueva visita servirá para actualizar el contenido que almacenan en sus bases de datos. Estas re-visitas de los crawlers pueden forzarse si queremos que se indexen los cambios que se han introducido en la web.
  • Cortesía. Para evitar sobrecargar el servidor con sus peticiones, los crawlers cuentan con una política de cortesía. Esto permite al servidor seguir operando con normalidad mientras las arañas hacen su trabajo.
  • Paralelización. Los crawlers se coordinan entre sí para no pasar todos por las mismas URLs. De esta forma pueden realizar su trabajo de una forma más eficiente.

¿Los crawlers afectan al servidor?

Al publicar una nueva web, es necesario hacerle saber a Google que hay una nueva página y que no está indexada; si la web contiene muchas páginas, es recomendable enviar el sitemaps. Google, al recibir, la noticia envía a uno de sus crawlers a visitar esta nueva página web.

Pero Google no es el único crawler que existe; también podemos cruzarnos con los bots de SEMrush, Ahrefs, Majestic SEO, Screaming Frog, Sistrix… La principal diferencia es que los rastreadores de Google suelen acudir solos a visitar las webs; mientas que el resto acostumbran a ir de la mano de otros crawlers. Es decir, si el bot de SEMrush entra a rastrear tu web, lo hará junto a todos los demás.

Aunque estas herramientas puedan ser de gran ayuda para mejorar el SEO de una web, también pueden dejar inoperativo el servidor. Al entrar varios crawlers a la vez en una misma URL el servidor se satura, haciendo que se quede sin recursos o que funcione más lento de lo habitual. Con tantos crawlers se produce un número de peticiones que el servidor no puede responder, algo similar a lo que ocurre durante un ataque DDoS. Para evitar que los crawlers puedan afectar al funcionamiento de tu servidor, es recomendable bloquear algunos. En ningún caso bloquees el rastreador de Google, ya que podrías acabar desindexando toda tu web.

En el caso de que por cualquier motivo no sea posible bloquear ninguno de esos crawlers, tendrás que aumentar los recursos del servidor. De esta forma se evitará que el servidor acabe perjudicado por las peticiones de tantos rastreadores a la vez.

La creación de los crawlers mejoró el funcionamiento y la accesibilidad en internet que no en el ciberespacio, pero como en todo, los excesos no son nada buenos.

Web e internet no deben usarse como sinónimos, ¿por qué?

Publicado enGeneral en marzo 20, 2019 10:00 am

La semana pasada la web, que no internet, cumplía su tercera década. Un 12 de marzo de 1989 Tim Berners-Lee redactaba la propuesta de un nuevo proyecto que lo cambiaría todo: la Web, o World Wide Web; un nuevo servicio dentro de internet que acabaría robándole el protagonismo a la propia red de redes.

¿Qué es la World Wide Web?

La web es el resultado de combinar el lenguaje HTML, el protocolo HTTP y la URL, tres sistemas que también nacieron con la propia World Wide Web. Aunque la web nació con propósitos militares, la base del proyecto escrito por Berners-Lee facilitaba enormemente el hecho de compartir información entre equipos que físicamente estaban lejos; además de la forma más simple y visual. Por ello, en poco tiempo pasó a ser una herramienta de uso académico; para el uso general que le damos hoy en día, habría que esperar un poco más.

El potencial de la web se mostró con la publicación de la primera página web de la Historia. Un sitio web que, actualmente, tiene apariencia prehistórica ya que no era más que un conjunto de enlaces y fragmentos de texto. Afortunadamente con los años iría mejorando sus funcionalidades y ganando en componente estético; hasta convertirse en lo que ahora consideramos web.

Un error habitual

La confusión del concepto web y su asociación con internet es mucho más habitual de lo que parece. Creer que la World Wide Web es internet es algo tan habitual como pensar que el ciberespacio e internet; o quien cree que un servidor cloud es lo mismo que un VPS. Sin olvidarnos de aquellos que consideran a Google como si fuera el propio internet. Y hablando de Google, incluso él en su versión española ha caído en esta confusión en su doodle del 30 aniversario.

Todos ellos son conceptos estrechamente relacionados y que en muchos casos los unos no podrían existir sin los otros; pero nunca está de más recordar que no es correcto el uso de algunos términos. La web es la parte más visible de internet, pero no por ello es internet.

¿En qué se diferencian?

La World Wide Web es quien los permite navegar a través de páginas web, lo que habitualmente consideramos navegación. Pero es que hasta la aparición de la web únicamente podía accederse a archivos o correos; ya que tampoco existían los navegadores, otro de los inventos de Tim Berners-Lee.

De esta forma, en la red hay otros muchos servicios, estándares o protocolos que permiten hacer otras tantas acciones entre dispositivos que están conectados. Así, podríamos decir que internet es la infraestructura que proporciona los recursos necesarios para que la World Wide Web tenga sentido; es decir, la conexión entre diferentes equipos a través de un determinado protocolo que permita que la conexión pueda establecerse.

Además, hay que tener en cuenta qu internet nació unos cuantos años antes, en 1969, con la primera comunicación entre dos ordenadores conectados entre sí. En aquel momento la red informática que posibilitó el intercambio de mensajes se denominaba ARPANET. Una red que años más tarde incorporaría el protcolo TCP/IP y pasaría a llamarse internet.

El rumbo de la WWW

Precisamente con motivo de su 30 aniversario Berners-Lee ha redactado un nuevo documento en el que repasa la evolución de su invento. Para el padre de la World Wide web su proyecto se ha convertido, en parte, en aquello que él esperaba. En el lado positivo Berners-Lee sitúa el hecho de haberse convertido en un foco de creación de oportunidades, un medio que ha servido como altavoz a los colectivos menos favorecidos y una forma de facilitarnos a todos nuestra vida diaria.

En el extremo opuesto, a través de la World Wide Web los estafadores, quienes quieren propagar el odio o aquellos que tienen intención de cometer delitos han encontrado también un lugar en el que hacerlo. La solución a este tipo de amenazas a la web está en adaptación de las leyes al mundo digital y el trabajo colaborativo entre los organismos correspondientes. Sin descuidar la privacidad, la diversidad de la web y la seguridad de cada uno de los usuarios.

A fin de garantizar la diversidad de la World Wide Web, Berners-Lee, entre otras figuras de internet, se opone tajantemente al artículo 13 de la Directiva de Copyright. Una propuesta de ley que busca acabar con las infracciones de los derechos de autor filtrando el contenido que suben los usuarios.

Con la perspectiva que nos proporciona el paso del tiempo podemos afirmar que el nacimiento de la web es, sin duda, uno de los hitos más importantes de la Historia. Y no solo de la Historia informática; de no haber existido la World Wide Web internet tampoco sería como lo conocemos actualmente.

¿Cómo solucionar el error de WordPress Toolkit en Plesk?

Publicado enGeneral en marzo 6, 2019 10:00 am

WordPress Toolkit, la extensión de Plesk para simplificar la gestión de sitios web desarrollados en WordPresss, parece estar dando problemas. Son muchos los usuarios que después de actualizar esta extensión han visto cómo sus páginas web se han quedado en modo mantenimiento; devolviendo al usuario un error HTTP 503.

WordPress Toolkit

Plesk, el panel de control más utilizado para la gestión de alojamientos web, cuenta con múltiples extensiones que amplían las funcionalidades del panel de control. Entre el catálogo de extensiones de Plesk se encuentran extensiones de todo tipo; desde aquellas orientadas al desarrollo web, extensiones de seguridad como la posibilidad de instalar Let’s Encrypt en el servidor, herramientas de monitorización del alojamiento, funcionalidades para evitar el spam… entre todas ellas se encuentra WordPress Toolkit.

Desde WordPress Toolkit es posible gestionar diferentes instalaciones de WordPress desde una única interfaz. De esta forma se simplifica en gran medida la gestión de todas las instancias. Gracias a esta herramienta no es necesario tener que acudir a cada una de las instancias WordPress para conocer qué versión del CMS utilizan o cuáles son los plugins que se encuentran instalados en ella. Además, WordPress Toolkit facilita la realización de las siguientes tareas:

  • Máxima seguridad. Con WordPress Toolkit la seguridad de cada una de las instancias está garantizada ya que se protegen de forma automática.
  • Actualizaciones conjuntas. Esta herramienta permite actualizar a la vez el tema, los plugins o la versión de WordPress de todos los sitios a la vez; en lugar de tener que hacerlo de forma individual.
  • Copias de seguridad. WordPress Toolkit crea puntos de restauración para recuperar los sitios web. Así, podrás volver atrás en el caso de que ocurra algún imprevisto en cualquiera de las instancias.
  • Sincronización y clonado. Al reunir todas las instalaciones de WordPress en un mismo lugar, es posible sincronizar los cambios en los archivos y bases de datos entre las instancias e incluso clonar la información de una a otra.

Solución desde Plesk

WordPress Toolkit se actualiza de forma automática en Plesk. Lo que no sería un problema de no ser porque su última actualización ha provocado cambios en las funcionalidades de la extensión. Así, algunas de las características que estaban disponibles para las licencias Web Admin ya solo estarán disponibles para Web Pro y Web Host. Un cambio en las funcionalidades de WordPress Toolkit que ha originado el error de Plesk; activando el modo mantenimiento del sitio web y devolviendo un error 503 a los visitantes.

Parece ser que se trata de un problema que tiene lugar en el momento en el que se actualizan de forma automática cada una de las instancias de WordPress. Si has experimentado este error tienes dos formas de solucionarlo, en función del número de dominios que hayan resultado afectados. En el caso de que solo un dominio esté perjudicado deberás eliminar de forma manual el archivo .maintenance. Este archivo se encuentra en el directorio del dominio afectado y es el encargado de activar el modo mantenimiento del sitio web. Para ello:

  1. Inicia sesión en el panel de control Plesk.
  2. Ve a ‘sitios web y dominios’ y elige la suscripción afectada.
  3. Selecciona ‘Administrador de archivos’ y elige el directorio que lleve el nombre del dominio, ya que es donde se encontrará el archivo que deberás eliminar.
  4. Selecciona el archivo ‘.maintenance’ y haz click en eliminar.

Una vez eliminado el archivo que ponía el WordPress en modo mantenimiento, el sitio web debería poder verse con normalidad.

Accediendo por SSH

Si son varios los afectados, deberás acceder a través de SSH. Ya dentro del servidor tendrás que descargar y descomprimir los scripts que Plesk indica en su sitio web. A continuación, tendrás que ejecutarlos para que el modo mantenimiento se desactive de todas las páginas web.

Con esto debería desactivarse el modo mantenimiento de WordPress Toolkit desde el panel Plesk 17.8. En el caso de que se siga produciendo el error, puedes ponerte en contacto con nosotros para que te brindemos el soporte técnico adecuado.

Linube obtiene la ISO 27001 de seguridad de la información

Publicado enGeneral en febrero 11, 2019 10:00 am

En nuestro compromiso con la seguridad de la información Linube ha obtenido la Certificación ISO/IEC 27001. Con la obtención de la norma internacional ISO 27001 damos un paso más para garantizar la seguridad de la información. Además, nos acredita como una compañía que cumple con las políticas y los procedimientos necesarios para asegurar la confidencialidad, integridad y disponibilidad de los datos.

Qué es la norma ISO 27001:2014

La norma ISO 27001 es una norma internacional que recoge cómo gestionar la información en una empresa de la forma más segura. Para ello, se definen todos los posibles riesgos a los que se podría enfrentar una compañía y qué debería hacer para solucionar cada uno de ellos; así como establecer los procedimientos y las medidas de seguridad necesarias para su mitigación. Todo ello constituye el llamado Sistema de Gestión de la Seguridad de la Información (SGSI); el concepto clave sobre el que gira la ISO 27001.

El SGSI, sus políticas y procedimientos para la gestión de la información de la forma más segura, se suman a las medidas de seguridad que ya veníamos aplicando; tanto en nuestras redes, como en las aplicaciones que hemos desarrollado o en nuestra infraestructura.

De esta forma, una compañía que haya recibido la certificación ISO 27001, es una compañía que garantiza la máxima calidad y seguridad de sus sistemas de información. Además, también se certifica la cualificación del equipo en el desarrollo de sus tareas sin perder de vista el propósito principal; hacerlo de forma que se garantice la seguridad y la confidencialidad de toda información.

En nuestro caso, el alcance de la ISO 27001 es aplicable a todos los servicios que ofrecemos; desde dominios y certificados de seguridad, pasando por planes de hosting y servidores cloud, desarrollo web y nuestros servicios de administración de sistemas y almacenamiento en la nube y el servicio de Nextcloud.

Mismo servicio seguro y de calidad

Aunque contemos con la certificación ISO 27001 desde hace tan solo unos días, el nivel de seguridad de nuestros servicios siempre ha sido el más alto. La única diferencia se encuentra en que ahora alguien certifica que esto es cierto, y no algo que digamos nosotros. Por eso, tanto si te decides a contratar nuestros servicios a partir de ahora, como si ya habías confiado en nosotros antes puedes estar seguro de que te brindaremos siempre el mejor servicio. Una plataforma siempre disponible, un equipo altamente cualificado o una monitorización proactiva son solo algunas de nuestras ventajas que ahora se certifican con la ISO 27001.

Sabemos de la importancia de verificar que los servicios de Linube cumplen con los estándares de seguridad más altos; algo que queda patente con la obtención de la ISO 27001. Este, además, puede ser un factor clave a la hora de contratar un proveedor de alojamiento web; especialmente si estás pensando en contratar un servidor cloud, o cualquiera de nuestros servicios en la nube.

Todas las empresas manejan a diario todo tipo de información sensible; ya sea propia o de sus clientes, todos esos datos deben estar a buen recaudo. Ahora, gracias a la certificación ISO 27001 sabrás que, al contratar nuestros servicios, toda tu información está protegida. Algo de que lo que nosotros ya estábamos seguros, pero que ahora tú también sabes.

¿Cifrar y encriptar pueden usarse como sinónimos?

Publicado enGeneral en febrero 6, 2019 10:00 am

En nuestro día a día, y especialmente en el ámbito informático, es habitual el uso de préstamos lingüísticos. Palabras que tomamos prestadas de otros idiomas y que acaban por hacerse un hueco en nuestro vocabulario cotidiano; a pesar de que ya exista un término equivalente. Algo que nos sucede a diario con el uso de términos ingleses y que es especialmente curioso en el caso de cifrar y encriptar.

Qué es cifrar

Si nos guiamos por la definición recogida en la RAE (Real Academia Española), cifrar es transcribir un mensaje o texto utilizando una clave para proteger su contenido. Es decir, a lo que nos referimos cuando decimos, por ejemplo, que un certificado SSL cifra los datos que se proporcionan en un sitio web. En este caso, el contenido original se transforma en caracteres sin sentido para aquel que intente acceder al mismo sin contar con las llaves de cifrado o descifrado de la información.

De acuerdo con este significado, cifrar es para los más puristas del lenguaje y la informática la forma correcta de designar a la acción de proteger un archivo alterándolo de forma que solo el emisor y el destinatario puedan comprender el contenido del mensaje. Aunque, de acuerdo con su definición, no solo es necesaria una clave, sino que mínimo son necesarias dos: la clave de cifrado y la descifrado.

Encriptar, ¿meter a alguien en una cripta?

Durante años se ha considerado cifrar como el término correcto. De hecho, la propia RAE no recogió la palabra, como sinónimo de encriptar, hasta 2014. Esto se debe, una vez más al ligero retardo que lleva la Academia respecto al lenguaje hablado. Las palabras van añadiéndose al Diccionario de la RAE a medida que son utilizadas en la calle; y no al revés. De ahí que muchas veces nos sorprendan los nuevos términos que van incorporándose al diccionario.

Por ello, durante mucho tiempo hemos considerado que encriptar era meter a alguien en una cripta. Pensando que la etimología de la palabra se encontraba en las lenguas clásicas, donde cripta (raíz de la palabra) era la forma de designar una cámara de roca que generalmente se encontraba bajo el suelo de una iglesia. A partir de ahí, surgió la asociación entre encriptar y meter a alguien en una cripta; aunque lo cierto es que la palabra encriptar no es un latinismo ni un helenismo, sino un anglicismo.

Sí, encriptar proviene del término inglés encrypt. Una palabra que fue adoptada entre los países latinoamericanos y que acabó cruzando el charco como sinónimo de cifrar; puesto que cifrar sería el equivalente en español. Un término tan válido como cifrar y sobre el que la Fundéu afirma no haber razón para censurarlo.

El uso de uno u otro término dependerá de cada uno; puesto que el término encriptar ya no se considera erróneo. En cualquier caso, teniendo nuestro propio equivalente español, cifrar, siempre será preferible al uso de un anglicismo o cualquier otro tipo de palabra de origen extranjero.

¿Qué ha pasado, tecnológicamente hablando, en 2018?

Publicado enGeneral en diciembre 26, 2018 10:00 am

365 días para mucho y más tecnológicamente hablando donde todo avanza a un ritmo mucho más rápido. Así que, como ya hiciéramos en 2017, repasamos los acontecimientos más importantes de este 2018 al que decimos adiós.

Nuestro cambio de imagen

No podemos despedir 2018 sin mencionar que ha sido, además de nuestro noveno aniversario, el año de nuestro gran cambio. Un cambio que únicamente nos ha afectado por fuera porque el corazón de Linube sigue siendo el mismo que tenía Blackslot. Una marca comercial diferente pero el mismo servicio de calidad y la misma atención personalizada para todas esas dudas y contratiempos.

Sí, ahora tenemos un nombre mucho más ‘cloud’, pero seguimos siendo los mismos de siempre. Y, con mejoras, nuestros servicios también. Por ejemplo, este 2018 hemos habilitado HTTP/2 en todos los servidores cloud con panel de control Plesk, lanzado botones desde los que apagar, reiniciar o forzar el apagado de tu servidor cloud con mayor facilidad o incorporado mejoras en nuestros planes de hosting. Y todos los productos que vendrán en los próximos meses que harán que tu vida en internet sea mucho más fácil.

Microsoft se vuelve opensource en 2018

Si algo ha podido dejarnos ligeramente desconcertados es todo lo que ha rodeado a Microsoft. El gigante de las licencias ha acabado sucumbiendo al código abierto y no solo eso: Microsoft se ha convertido en una de las empresas que más contribuyen al desarrollo de software libre.

A la compra de GitHub, un repositorio para el alojamiento de proyectos utilizando el software de control de versiones Git, en junio, se le unió la liberación de más de 60.000 patentes con la intención de “ayudar a proteger Linux y el open source” a finales de octubre. Justo al mismo tiempo en que anunciaban su unión a la Open Invention Network (OIN), la mayor comunidad de patentes para la protección del código abierto. Una iniciativa a la que ya pertenecían otras grandes compañías como Google, IBM, Red Hat o SUSE.

Parece que la filosofía de la multinacional de Redmond está cambiando. A ver con qué nos sorprenden en 2019.

Google y la seguridad

No es nada nuevo decir que Google lleva años intentando mejorar la seguridad en internet. Pero tampoco lo es que ellos mismos han caído en las redes de la inseguridad.

Gracias a su persistencia han conseguido que prácticamente la totalidad de la Web recurra al protocolo seguro HTTPS. Un movimiento iniciado en 2014 y que al cierre de 2018 ya cuenta con un 94% del tráfico cifrado. Para ello, durante un tiempo el navegador beneficiaba el posicionamiento SEO de aquellos sitios web que hubieran instalado un certificado de seguridad para, a modo de ultimátum, comenzar a penalizar las webs sin certificado SSL en julio de 2018. Como consecuencia de la adopción de la versión segura del protocolo HTTP, Google ha ido cambiando la forma en que se muestran los indicadores de seguridad. Ya (casi) no es necesario alertar al usuario de la seguridad de una página web porque ser seguros debe ser lo normal.

Las otras preocupaciones de Google

Además, este 2018 Google ha lanzado una nueva extensión de dominio: los dominios .page. Esta nueva extensión se caracteriza por ser segura por defecto ya que viene configurada para soportar HTTPS; algo que por el momento ninguna otra proporciona. Si te ha sorprendido saber que Google también ejerce como registrador de dominios es porque te has perdido que los dominios .app también fueron invención suya. Con la creación de este tipo de extensiones de dominio el gigante de internet busca hacer más accesible algunas herramientas de internet; por supuesto, sin que el usuario tenga que salir de sus servicios.

La velocidad de carga de los sitios web y la experiencia de usuario es otra de las grandes preocupaciones de Google. Si una web responde rápido y facilita una navegación fluida, los usuarios volverán a ella y, para hacerlo, recurrirán a Google; para muchos la puerta a internet o incluso la misma red. Así que, para hacer que el usuario mejore estos y otros aspectos de su web, han lanzado una serie de herramientas para ayudar a mejorar la velocidad de los sitios web. Asimismo, desde el lanzamiento de Mobile Page Speed, una actualización en su algoritmo, la velocidad de carga de las webs es un factor SEO más.

Los bugs de Google+

Pero para Google no todo han sido buenas noticias. Hace un par de meses la compañía se veía obligada a reconocer que Google+, su (fracasada) red social, tenía un agujero de seguridad que habría expuesto los datos de millones de usuarios. De paso, aprovecharon para reconocer la falta de uso de Google+, quizá también el motivo por el que los datos que pudieran haberse obtenido de la red social “no habían sido explotados”.

Pero la desgracia de Google+ no se quedó ahí; el descubrimiento de otra brecha de seguridad ha provocado que el cierre definitivo de la red social de Google se adelante a abril de 2019. Así, en unos meses, Google+ pasará a formar parte del llamado “Cementerio Google”, el lugar en el que se encuentran todos esos desarrollos que han ido quedándose en el camino. Algunos de ellos fueron todo un éxito, otros murieron sin pena ni gloria.

El universo CMS

Al hablar de CMS automáticamente nos viene a la cabeza WordPress. Por algo el producto estrella de Automattic es el software más utilizado para el desarrollo de sitios web. Una plataforma que desde su nacimiento en 2004 apenas ha mantenido su editor, hasta ahora. Con el lanzamiento de WordPress 5.0 llegaba el cambio de editor, pasando de diseño tradicional al llamado Gutenberg; un editor mucho más visual y que facilita la creación de contenido a través de bloques. Si la llegada de Gutenberg no es una novedad; sí lo es que haya pasado de ser un plugin de WordPress a su nuevo editor por defecto.

Aunque con el paso de los años WordPress ha ido aumentando el número de plantillas y plugins para aumentar las posibilidades de creación; pero no ha hecho lo mismo con las versiones de PHP soportadas. Es cierto que el CMS siempre ha recomendado el uso de las últimas versiones estables de los servicios; pero también ha permitido el uso de versiones obsoletas. Esto ha provocado que más del 60% de las páginas web creadas a partir de WordPress utilicen versiones desaconsejadas; lo que puede poner en peligro la seguridad del sitio web.

A partir de enero de 2019 la versión estable con soporte activo más antigua de PHP será PHP 7.1. Así que, si tu web utiliza una versión obsoleta, no esperes más para actualizar el código de tu web a PHP 7.2. De esta forma garantizarás la seguridad del código de tu sitio web; además de optimizarlo haciendo que el rendimiento de la página mejore.

Adiós al geobloqueo

Siguiendo con el mundo CMS, en este caso aquellas plataformas para el desarrollo de una tienda online, la Unión Europea anunció el fin del geobloqueo. El geoblocking es una técnica muy habitual en el comercio electrónico. Una forma de imposibilitar que un usuario pueda adquirir un producto a través de un ecommerce de otro país. O, si puede hacerlo, el precio a pagar no sea el mismo que en el país de origen. Además de la redirección del usuario a otro sitio web. Con el fin del geoblocking, comprar por internet será igual independientemente del país en el que nos encontremos o al que queramos comprar.

Legal y red

Aprobado en 2016, el Reglamento General de Protección de Datos entró en vigor el 25 de mayo de 2018. La normativa de carácter europeo es la sustituta de la derogada LOPD, Ley de Protección de Datos de Carácter Personal. Una norma que ha cambiado el tratamiento de los datos de los clientes; haciendo que sea el usuario quien consienta de forma explícita la cesión de su información personal; además de poder retirar el consentimiento cuando quiera.

La llegada del RGPD ha hecho que todos tengamos que adaptarnos para evitar sanciones. Si todo esto aún te pilla un poco de nuevas, échale un vistazo a nuestra checklist RGPD para asegurarte de que cumples con la nueva norma en materia de protección de datos.

Pero el RGPD, o GDPR, no ha sido el único aspecto legal que ha influido en internet en este 2018. Desde 2016 la Directiva de Copyright está pululando por las mesas de los europarlamentarios. Una nueva propuesta de ley que busca regular los Derechos de Autor y que contiene dos artículos muy polémicos; tanto que han provocado el nacimiento de #SaveYourInternet. Una plataforma para acabar con el artículo 13 de dicha propuesta de ley, prevista para enero de 2019. De aprobarse, tendríamos que aprender a comunicarnos sin gifs, a no poder compartir contenido creado por otros; incluso a ser censurados por las máquinas encargadas de filtrar el contenido.

Si la RGPD ha acabado con algunos servicios de internet, como WHOIS, ¿qué internet podría dejarnos la aprobación de la Directiva de Copyright?

Todo esto, y mucho más, lo comprobaremos a lo largo de 2019.

¿Está tu servidor cloud preparado para el Black Friday?

Publicado enGeneral en noviembre 20, 2018 10:00 am

Desde hace algunos años el Black Friday se ha convertido en uno de los días más importantes para el comercio electrónico, especialmente desde que la gran mayoría de las compras se realizan a través de internet. El último viernes de noviembre marca el pistoletazo de salida a las compras navideñas y, además, con tentadores descuentos.

Si quieres que tu Black Friday sea todo un éxito para tu tienda online, te recomendamos que prepares tu ecommerce y el servidor. Aún estás a tiempo, ¿quieres saber cómo garantizar el funcionamiento de tu comercio electrónico?

Aumenta los recursos del servidor

Para asegurar que tu tienda soporta el aumento del tráfico durante el Black Friday, aumenta los recursos de tu alojamiento. Tanto si es un servidor cloud, como si se trata de un plan de hosting, amplía tu capacidad de espacio en disco y la memoria RAM. De esta forma, será capaz de responder todas las peticiones que se produzcan.

De otra forma podrían darse caídas en el servicio como consecuencia de ese aumento de visitantes. Durante el Black Friday, con total seguridad, recibirás un número elevado de visitas que podrían provocar un efecto similar al de un ataque DoS. Esto hará que tu tienda online deje de estar operativa al no ser capaz de gestionar ese gran número de visitantes simultáneos.

Si también vas a realizar promociones durante el cyber monday, o si quieres estar preparado de cara a la campaña de navidad, es indudable que necesitas un servidor más potente. Aumenta los recursos o escala tu plan y, al finalizar la temporada navideña, vuelve a tu servidor inicial.

Instala un certificado SSL

Aunque ya deberías contar con uno, no está de más recordar su importancia. Los certificados de seguridad SSL te permiten encriptan todos los datos que se proporcionen en tu sitio web. Algo que es especialmente importante en el caso del comercio electrónico; donde se piden datos sensibles como el número de tu tarjeta de crédito.

Si aún no habías instalado un SSL, ahora es el momento. Necesitas un ecommerce seguro; elige entre un SSL de pago o un Let’s Encrypt gratuito para tu sitio web. De otra manera, los indicadores de seguridad de los navegadores podrían asustar a tus visitantes; haciendo que se marchen de tu web. No te arriesgues a perder visitantes ni ventas por no invertir en la seguridad de tu web.

Mejora la velocidad de carga de la web

La velocidad de carga de una tienda online es otro de los factores fundamentales a la hora de comprar por internet. Si el ecommerce en cuestión tarda en cargar, lo más seguro es que acabemos perdiendo la paciencia y marchándonos sin haber realizado compra alguna.

Igualmente ten en cuenta el proceso de compra en tu sitio web. Cuanto más sencillo se lo pongas al usuario, mayores serán las ventas. Si cuando empezamos una compra, el proceso se vuelve complicado es bastante probable que acabemos abandonándola. Para evitar que esto ocurra, establece el menor número posible de pasos para la compra y optimiza tu tienda online; por ejemplo, reduciendo el peso de las imágenes.

Aprovecha el Black Friday

El Black Friday es una gran oportunidad para capatar nuevos clientes y fidelizar aquellos que ya tienes. Además de servirte para aumentar las ventas y mejorar la rentabilidad de tu comercio electrónico.

Si no quieres echar a perder esta magnífica oportunidad, sigue nuestras recomendaciones. Aunque la cara visible sea la tienda online por la que navegan tus usuarios, cuidar el servidor en el que se aloja es igual de importante.

 

Black Friday, prepara tu servidor cloud con Linube.

¿Cuáles son los errores HTTP 4XX más asiduos?

Publicado enGeneral en noviembre 5, 2018 9:00 am

Cuando navegamos por internet, se envían constantemente códigos de estado HTTP. Y, a veces, recibimos todo tipo de errores HTTP. Desde errores 3xx que suelen pasar desapercibidos por el usuario a errores 4xx basados en peticiones incorrectas del lado del cliente hasta errores 5xx relacionados con fallos provenientes del servidor.

Los errores 4xx suelen darse cuando la página que se está intentando cargar no existe o tiene el acceso bloqueado. Existen muchos tipos de errores HTTP, pero en este artículo vamos a centrarnos en los errores 4xx o errores del cliente más habituales.

Error 400 Bad Request

Básicamente, la petición HTTP no se ha producido satisfactoriamente y la petición no puede procesarse. Un error 400 Solicitud Incorrecta puede deberse a diversos factores:

  • Al igual que un error 404, la URL no tiene un formato válido; esto es, la solicitud tiene una sintaxis incorrecta.
  • Registros DNS obsoletos.
  • Existen servidores web que limitan la longitud de los encabezados. Por lo que pueden rechazarse encabezados demasiado largos.
  • El servidor puede denegar la carga de archivos muy pesados.
  • Las cookies del navegador contienen errores.

Si usamos un servidor IIS 7.0, IIS 7.5 o IIS 8.0 podremos extraer algunos datos del código de estado.

  • 400.1: destination header inválido.
  • 400.2: depth header inválido.
  • 400.3: if header inválido.
  • 400.4: overwrite header inválido.
  • 400.5: translate header inválido.
  • 400.6: request body inválido.
  • 400.7: longitud del contenido inválida.
  • 400.8: timeout inválido.
  • 400.9: lock token inválido.

Aunque suele producirse en el navegador, el error 400 no está exento de producirse fuera del. Por ejemplo, un cliente de correo electrónico, puede recibir este código de estado al comunicarse con el servidor.

Error 401 Authorization Required

El error 401 Se Requiere Autorización se produce, tal y como el nombre indica, porque se requiere autorización para acceder a un recurso o una URL. Puede resultar similar al error 404, pero en este caso es posible acceder a la misma mediante una solicitud de usuario y contraseña.

Cada servidor suele administrar la autentificación de usuarios de modo independiente, por lo que puede producirse un error 401 al no poder validar algunas credenciales. Este error también puede deberse a diversas causas como: no tenemos las credenciales de acceso, las claves son incorrectas o porque hayamos sido bloqueados.

Error 403 Forbidden

Un error 403 Prohibido significa que no se ha obtenido permiso para acceder a la URL de destino. Como usuarios, nos solemos encontrar con el error 403 cuando estamos tratando de acceder a una dirección web que tiene prohibido el acceso. El mensaje suele ser así: Acceso denegado. No tiene permiso para acceder.

También existe la posibilidad de que el culpable de dicho error sea el servidor; o incluso que en nuestro equipo haya un malware que controle el navegador o las credenciales de acceso. De todas formas, las estadísticas demuestran que deberías descartar todas estas opciones en un principio.

Error 404 Not Found

El error 404 No Encontrado es el error HTTP 4xx más habitual de todos. Se trata de un código de respuesta estándar que indica que se ha podido establecer la conexión con el servidor pero no se ha podido encontrar el elemento solicitado. En resumidas cuentas: no podemos acceder a la página web porque ya no existe.

Es un error común en páginas web que han sufrido cambios o en gestores de contenido como WordPress. Es más, es posible configurar una landing de aterrizaje para cuando se produzcan errores 404 en la web.

Error 406 Not Acceptable

El error 406 No Aceptable ocurre cuando el cliente solicita una respuesta utilizando encabezados que el servidor no puede cumplir. Es decir, el servidor no puede responder con el encabezado accept especificado en la solicitud. Esto ocurre en contadas ocasiones ya que casi todos los navegadores web aceptan directrices */* en el encabezado accept.

Existen diferentes encabezados de aceptación:

  • Accept: tipos MIME aceptados por el cliente, por ejemplo, archivos HTML.
  • Accept-Charset: conjunto de caracteres aceptados por el cliente.
  • Accept-Encoding: codificación de los datos aceptada por el cliente.
  • Accept Language: los lenguajes naturales aceptados por el cliente.
  • Accept-Ranges: los rangos de bytes que se aceptan desde el recurso.

Por lo tanto, si el servidor web detecta que el cliente no puede aceptar los datos que quiere enviar, devolverá un código de error 406 No Aceptable.

Pero también puede suceder lo contrario. El servidor no conoce la extensión de la solicitud y trata de buscar una aplicación instalada en el para servir el archivo. En el caso de que no exista ninguna otra aplicación que sea capaz de servir el archivo, devolverá un error 406. Incluso existe la posibilidad de devolver un 406 si el servidor no está seguro sobre el tipo de MIME del archivo solicitado. Lo cual está bien ya que puede evitar pérdidas de información confidencial guardada en archivos como .pass o .ini.

Este error suele ser difícil de detectar y también determinar su causa debido a que existen más de 50 códigos de estado. De todas formas, resulta extremadamente inusual.

Error 410 Gone

Un error 410 Ya No Disponible notifica que la URL a la que estamos intentando acceder no existe. La diferencia principal entre el error 410 y el 404 es que la cabecera dice a los bots que la URL no existe y que no existirá jamás, por lo que no hace falta que ningún bot vuelva a rastrearla.

Normalmente, este tipo de error HTTP suele ser causada de forma intencionada para evitar el rastreo de esa URL. Y, si no, también existe la posibilidad de crear redirecciones 301 desde el fichero .htaccess.

Y hasta aquí llega el artículo sobre errores 4xx. Si quieres mantenerte informado sobre todo lo relacionado con los dominios, hosting web y programación, puedes consultar nuestro blog .

 

Qué es un servicio de Housing y cuándo contratarlo

Publicado enGeneral en octubre 29, 2018 9:30 am

El Housing o Co-Location es el alquiler de un espacio físico en un Centro de Datos que suele ser propiedad del proveedor y se trata de un entorno totalmente adaptado. El proveedor de housing renta sus instalaciones para que los clientes puedan implantar sus propios servidores en un lugar optimizado en cuanto a refrigeración y conectividad. Asimismo, proporciona potencia eléctrica y seguridad total a dichos servidores.

¿Por qué contratar un servicio de housing?

Existen múltiples razones para alquilar un espacio en un Centro de Datos, como la garantía de un funcionamiento correcto e ininterrumpido en unas instalaciones especializadas, o el ahorro de gasto derivado del mantenimiento.

Otra de las razones principales para transportar los servidores a este tipo de instalaciones es la necesidad de un lugar seguro. Suele ser un servicio bastante demandado por empresas; por razones de seguridad o porque no se reúnen las condiciones adecuadas para el alojamiento. Un proveedor de hosting no puede arriesgarse a tener sus servidores inoperativos o con riesgo de pérdida de información debido a múltiples causas.

El cliente tipo de este tipo de servicios suele ser una empresa grande que cuenta con recursos tecnológicos potentes y requiere de un entorno de máxima seguridad. El objetivo del Data Center es minimizar riesgos eléctricos, de climatización y pérdida de información.

¿Cuál es la diferencia entre hosting y housing?

Cuando hablamos de hosting o alojamiento web nos referimos al alquiler de un servidor en el que se almacena la información de nuestro site. Es decir, un plan de hosting nos permite ser visibles en internet. Al contratar un servidor compartido o dedicado, tenemos acceso al mismo, pero la máquina física es propiedad del proveedor. En cambio, el housing o co-location, es el alquiler de un espacio físico en un Data Center que asegura conectividad ininterrumpida y disponibilidad total. Se alquila un determinado espacio, no un servidor.

Ventajas e inconvenientes

Entre las ventajas del housing destacan:

  • Reducción de gastos. El ahorro de costes a largo plazo resulta remarcable, más aún cuando se trata de un alto volumen de servidores.
  • Alta seguridad. Protección de datos personales, antirrobo y anti-incendios.
  • Posibilidad de reventa. Podemos revender servicios de alojamiento web a terceros.
  • Más espacio. Contar con un emplazamiento de altas prestaciones mayor y más seguro.
  • Recursos ilimitados. No hay ningún inconveniente si queremos trabajar en varios proyectos simultáneamente.
  • Escalabilidad total. Ya sea para servicios de paquetes de transferencia o contratar una monitorización siempre es posible aumentar los recursos.
  • Climatización. Refrigeración y ventilación de calidad.

Pero no todo son ventajas, la contratación de este servicio también tiene aspectos negativos:

  • Inversión elevada. La compra o el alquiler de un servidor no está al alcance de cualquiera.
  • Requerimiento de personal. La configuración y la administración corre a cargo del cliente, por lo que deberá contar con personal cualificado.
  • Mantenimiento continuo. Licencias, software… todo es responsabilidad del cliente. También las actualizaciones de hardware y posibles averías.
  • Posibles desplazamientos. En caso de que hubiese averías resultaría necesario acercarse al Data Center para subsanar dichos errores.

Según sus características, el housing puede ofrecer altos ingresos a aquellas compañías que puedan costear el mantenimiento del servicio. Por lo que este servicio de housing puede resultar adecuado para empresas grandes (o medianas) e incluso para multinacionales, pero no resulta apto para proyectos de pequeña envergadura.

Google dice adiós a su red social: Google+ cerrará en 2019

Publicado enGeneral en octubre 24, 2018 10:00 am

Hace unos días Google anunciaba mejoras en la protección de datos de sus usuarios; de manera que las aplicaciones de terceros que utilicen las APIs de la compañía, solo puedan tener acceso a la información necesaria. Hasta el momento, no ha sido nada extraño el hecho de que determinadas aplicaciones solicitasen al usuario el acceso a funcionalidades que nada tenían que ver con la app en cuestión. Y ahora, Google quiere mejorar en esto; y de paso tapar un problema igual de grave: la exposición de miles de datos de los usuarios de Google+.

A principios de año, Google apostaba por Project Strobe, una auditoría interna con la que evaluar desde cero el funcionamiento de sus diferentes aplicaciones y poder mejorar la privacidad y la seguridad de sus servicios. Auditoría de la que salió un desagradable descubrimiento: un fallo de seguridad en la API de Google+. Como consecuencia de dicha auditoría, Google ha lanzado 4 medidas para paliar el problema y prevenir futuras brechas de seguridad.

1. El cierre de Google+

Muchos ni siquiera habíamos notado que Google+ seguía existiendo, pero ahí sigue. Y seguirá hasta agosto del próximo 2019, fecha máxima establecida por la compañía para su cierre. Pero la red social de Google no cierra por su escasísima adopción, sino por la exposición de los datos de más de 500.000 usuarios entre 2015 y 2018.

Un bug que fue corregido en marzo de este mismo año y que ha estado silenciado hasta ahora; algo que hubiera sido ilegal de haber sucedido solo unos meses después. El nuevo reglamento de Protección de Datos (RGPD) obliga a advertir al usuario en un plazo inferior a 72 horas después de su descubrimiento de que sus datos han sido comprometidos.

Este error en la API de Google+ permitiría el acceso a terceros no solo a datos del perfil no públicos del usuario, sino también a los de sus amigos. A pesar de ello, Google dice no haber evidencia de que dicha información se haya utilizado de forma incorrecta y que en ningún caso se trata de datos sensibles; como mensajes o cuentas bancarias.

Así que, aprovechando una filtración del bug de seguridad de Google+ por parte del Wall Street Journal, y con la excusa de mejorar la gestión de permisos, la compañía ha anunciado el cierre de su red social. Una muerte anunciada ya que, según Google, el 90% de las sesiones duraban menos de 5 segundos; por lo que mantenerla se hacía insostenible. Hasta la llegada del cierre definitivo, Google facilitará herramientas de migración a los usuarios con las que exportar los datos almacenados en el perfil de Google+. En el caso de los perfiles de empresa la situación será diferente: se mantendrán algunas funcionalidades y se añadirán otras; dando lugar a un producto corporativo totalmente distinto.

2. Gestión de permisos a las aplicaciones

Como segunda medida, Google proporcionará herramientas granulares para ofrecer permisos a aplicaciones de terceros. Con ello se pretende que las aplicaciones no puedan tener acceso total a la información del usuario cuando únicamente necesitan una parte especifica. De esta forma se evitará que, por ejemplo, una aplicación de linterna pueda tener acceso a la agenda de contactos; una funcionalidad que nada tiene que ver con el propósito de la app.

Además, los permisos requerirán de permiso explícito. Es decir, las aplicaciones tendrán que mostrar una página para cada uno de los permisos que quieran solicitar y que el usuario tendrá que aceptar o denegar. Así, en lugar de ver todos los permisos que se solicitan en una misma pantalla, se hará de forma independiente y deberá ser posible aceptar unos y denegar otros.

3. Acceso a Gmail limitado

Con estas medidas, la política de acceso a la API de Gmail también sufrirá modificaciones. Con lo que únicamente las aplicaciones relacionadas con las funcionalidades de Gmail podrán tener acceso a los datos del usuario. Por ejemplo, los gestores de correo, las aplicaciones para almacenamiento en la nube o apps para mejorar la productividad. Nuevas normas que tendrán que ser aceptadas por las aplicaciones antes de solicitar permiso alguno al usuario.

Si quieres revisar qué aplicaciones tienen acceso a tus datos en cuentas de Google, entre las que se incluye Gmail, puedes hacerlo con la herramienta para revisar la seguridad. Además de permitir revisar tu actividad reciente en relación a la seguridad de tus cuentas; te permite mejorar la protección.

4. Limitar el acceso a llamadas, contactos y SMS

Algunas aplicaciones, especialmente en el caso de Android, solicitan permiso para acceder al teléfono del usuario; incluyendo su registro de llamadas y los mensajes de texto. Un acceso que solo debería tener la aplicación asignada para realizar llamar o enviar y recibir SMS; con la excepción de las herramientas para la realización de copias de seguridad y el contestador.

Es evidente que Google ha vendido un fallo de seguridad como una mejora para la gestión de permisos a terceros. Además, en los próximos meses anunciarán nuevas medidas y limitaciones para que el usuario sepa qué permisos otorga y a qué aplicaciones. Lo que no exime a Google de una falta de transparencia con sus usuarios; posiblemente motivada por escándalos similares que se produjeron prácticamente al mismo tiempo, como el caso Cambridge Analytics. Y es precisamente esto, la falta de transparencia de algunas compañías con sus usuarios, una de las cosas que se pretenden corregir con la RGPD.

Si quieres evitar problemas de este tipo, te recomendamos pasarte al webmail privado; de forma que nadie tenga acceso a tus correos. Y, sobre todo, controla qué accesos permites a tus equipos para evitar que tus datos puedan verse comprometidos.