944 063 154

Blog

Categoría: General

Sí, en tiempos de crisis, deberías mantener tu web

Publicado enGeneral en abril 3, 2020 10:00 am

Se avecinan tiempos confusos. Para los proyectos nuevos y también para los que ya estaban consolidados, tanto dentro como fuera de internet. Al final, en mayor o menor medida, todos acabaremos sufriendo los efectos del coronavirus. Algunas empresas echarán el cierre, otras sobrevivirán como puedan y las que estaban a punto de dar el salto puede que ya no lo hagan. La incertidumbre es lo que tiene, genera miedo; y este, dudas. Y si las tuyas tienen que ver con si mantener una web en tiempos de crisis o no, hemos venido a ayudarte.

¿Por qué continuar con tu web?

El dilema de mantener una web en tiempos de crisis es un poco como mudarte de casa y no poder llevarte tu reforma. Una inversión de tiempo y dinero que, al dejarlo, otra persona le acabará sacando provecho. Para evitar que nadie pueda beneficiarse de tu trabajo es recomendable continuar con la web, aunque sea bajo mínimos, o al menos intentarlo.

Todo proyecto en internet requiere de dos elementos: dominio y host. Y son lo primero que debes cuidar para mantener tu proyecto. Así, no olvides renovar el dominio de forma anual, ya que si lo dejas caducar alguien podría registrarlo. Esto puede llevarte a tener que elegir otro dominio cuando decidas retomar el proyecto, e incluso derivar en un cambio de marca. Y dar a conocer (de nuevo) una marca no es tan sencillo. Además, será fundamental para mantener tus buzones de correo. Sin dominio no solo no tendrás un nombre para que te busquen en internet, pierdes también las cuentas de correo corporativas.

Es probable que si las visitas o los pedidos descienden no necesites un servidor con tantos recursos. Aquí la magia de la tecnología cloud juega un papel fundamental, permitiéndote ajustar los recursos del servidor cloud a lo que necesites en ese momento. También puedes optar por migrar a un plan compartido, un servicio mucho más económico con el que, al menos, el proyecto se mantendrá vivo. Además, nunca se sabe cuándo ni dónde puede surgir una oportunidad.

La importancia del SEO

El SEO es de esas disciplinas que no dan resultados de un día para otro. Es necesario ser constante, probar y corregir hasta que los resultados vayan llegando. Dejar de mantener una web en tiempos de crisis no solo es perder todo el trabajo de posicionamiento que, a buen seguro, llevas años haciendo; es quitarle competencia a tu competencia y dejarles tu trozo del pastel. Todo el posicionamiento SEO que tú pierdas, ellos lo ganarán. Esto puede hacer que cuando alguien trata de encontrarte en internet, acabe encontrándoles a ellos. Y, probablemente, comprándoles también porque tus usuarios seguirán estando ahí. Puede que no tengan recursos para adquirir tus productos o servicios, pero si los mantienes será mucho más fácil volver a la normalidad cuando todo esto pase. Si desapareces, se esfumarán también las posibilidades de conversión.

Si no sabes qué ofrecer, orienta tus contenidos. En un momento como este no tiene sentido vender si no se trata de bienes de primera necesidad o de algo que pueda disfrutarse sin salir de casa, pero puedes ofrecer otras cosas. Por ejemplo, si tienes un e-commerce de ropa, propón combinaciones con tus prendas. En el caso de una web presencial o de reservas de restaurante, ofrece recetas. Para una web de viajes, muestra lugares que visitar cuando el confinamiento haya acabado. Seguro que entre quienes ahora te visitan, alguno acabará contratando porque más adelante se acordará de aquello que compartiste.

¿Mantener una web en tiempos de crisis?

Rotundamente sí. Igual que consideraste básico estar en internet cuando te lanzaste con tu proyecto, es importante mantenerse en la red. Internet no cierra, en las búsquedas no se puede echar la persiana y si lo que cierra es tu web, cuando quieras volver será el doble de difícil. Durante el tiempo que no estabas habrá quien no solo se haya mantenido, sino que haya crecido. Puede que no en términos económicos, pero sí en posiciones de Google, algo que en épocas de consumo se traduce en más visitas y ventas.

Dejar de mantener tu web en tiempos de crisis es partir con desventaja cuando quieras retomar tu proyecto. De las peores situaciones siempre surgen oportunidades, aunque sea en una situación así en la que todos tenemos que permanecer en nuestras casas. ¿Estás dispuesto a perder la tuya?

El COVID-19 nos está cambiando la vida y la forma en que utilizamos internet

Publicado enGeneral en marzo 26, 2020 10:00 am

Si la alerta sanitaria en la que, lamentablemente, estamos inmersos ha propiciado una adopción repentina del teletrabajo, el virus está cambiando muchas otras cosas que tienen lugar en la red. Internet está siendo nuestra válvula de escape, una forma de darle a nuestras vidas en aislamiento la máxima normalidad posible. Pero, ¿cómo están siendo los efectos del coronavirus en internet? ¿Cómo está afectando el estar en casa al consumo y al uso que hacemos de la red de redes?

El virus crece en Google

Unas semanas es lo que ha tardado el término coronavirus en colarse en nuestro día a día. Hace no tanto era una palabra totalmente desconocida para la mayor parte de la población, ahora uno de los términos más utilizados. Desde que el virus llegara a la península, las búsquedas en Google comenzaron a multiplicarse. Según muestra Google Trends, desde la última semana de febrero las búsquedas relacionadas con el cornavirus han ido en aumento a medida que los efectos del virus se hacían más notables en el país.

Teniendo en cuenta que todo lo que no sabemos acabamos buscándolo en Google, era de esperar que uno de los primeros efectos del coronavirus en internet fuera este. En líneas generales se estima que desde su primera aparición en China, el coronavirus ha sido el protagonista de unos 3 millones de búsquedas. Solo en España la media de búsquedas se sitúa entorno a 30.000 veces al mes; ya sea en relación a las medidas de contención o para conocer sus síntomas o formas de contagio.

En la misma línea, Worldometers, una pequeña web dedicada a mostrar estadísticas en tiempo real vio como sus visitas no dejaban de crecer. Tanto que tuvieron que ampliar los recursos, ya que aquella pequeña web se había convertido en la principal fuente de datos de muchos ciudadanos en todo el mundo.

Un consumo disparado

Estar 24×7 y hasta nuevo aviso en nuestras casas implica recurrir más que nunca a todos los servicios que tenemos contratados y contratar otros nuevos. Plataformas de streaming, redes sociales, videollamadas… todo lo que pueda hacerse utilizando un móvil u ordenador mientras estás en el sofá. Por ello, uno de los principales efectos del coronavirus en internet es el aumento del tráfico en redes IP en un 40% desde que empezara la cuarentena. También se han duplicado el número de llamadas a través de internet y se ha quintuplicado el uso de aplicaciones de mensajería instantánea. Porque, aunque permanezcamos aislados, estamos más conectados que nunca.

Un repentino aumento que, unido a la necesidad de teletrabajo y a la teleenseñanza, se ha materializado en un acuerdo elaborado por las principales operadoras del país. En dicho comunicado indican que sus infraestructuras están preparadas para soportar ese incremento, pero también recomiendan hacer un uso responsable de la red priorizando lo laboral y educativo sobre el ocio. Por ello, en un intento por garantizar el mejor funcionamiento de internet, las principales plataformas de streaming han decidido bajar la calidad de sus contenidos. De esta forma, al tratarse de archivos algo más ligeros, se consumirá menos ancho de banda asegurando así una mejor conectividad.

Contenido en abierto para matar el tiempo

Durante los primeros días de confinamiento muchos autores liberaron las versiones digitales de sus obras, se organizaron todo tipo de conciertos por Instagram y tours desde tu sofá por los principales museos del mundo; incluso los medios de pago volvieron, de forma temporal, a ser gratuitos. Los operadores duplicaron los recursos contratados y ofrecieron servicios adicionales de forma gratuita. Todo tipo de actos de generosidad para ayudarnos a pasar esta cuarentena de una forma más amena pero que, de nuevo, tienen incidencia en internet. Porque, sin que nos hayamos dado cuenta, hemos vertebrado toda nuestra vida entorno a los datos de nuestros smartphones y la red wifi que nos rodea.

Esa apertura de ocio es otro de los efectos del coronavirus en internet. Tener más y más opciones para entretenernos dentro de las paredes de nuestras casas contribuye a un mayor consumo de internet. Por fin hemos encontrado el tiempo necesario para hacer todo aquello que siempre quisimos, pero para lo que aún no habíamos hecho hueco. Nos registramos en nuevos sitios, nos descargamos contenido para ver después, nos apuntamos a clases de deporte online… pero seguimos haciendo lo mismo de siempre. El uso responsable de internet que nos recomendaban las operadoras telefónicas era precisamente eso, no descargar los recursos que no necesitáramos o que no fuésemos a utilizar para no saturar la red.

Más compras online

Puesto que no es posible salir a la calle, salvo en contadas excepciones, todo lo que antes comprábamos en tienda hemos pasado a hacerlo online. Desde la cesta de la compra, quizá uno de los aspectos a los que nos mostrábamos más reticentes, hasta artículos para mascotas, videoconsolas, incluso máquinas para hacer deporte. Esto se ha traducido en un importante aumento del comercio electrónico en determinados sectores. Así, los sectores tradicionalmente más afortunados, como la ropa o los viajes, han cedido su puesto a otros que, generalmente, tienen menos suerte como el material escolar o los electrodomésticos.

Ahora bien, en este auge del e-commerce, hay que tener en cuenta que la parte logística no está creciendo de la misma manera. No todos los bienes que adquirimos son de primera necesidad por lo que muchas empresas de reparto han optado por reducir sus servicios. Ya que los repartidores se exponen cada vez que salen a trabajar, lo mínimo es que lo hagan en las mejores condiciones y porque sea algo necesario para el comprador. Es decir, repartidores de supermercados o parafarmacias porque sin el resto de productos, mejor o peor, podemos sobrevivir a esta cuarentena.

El coronavirus como cebo

Si esta crisis está sacando lo mejor de muchos, también lo peor de otros. En los últimos días hay quienes están intentado engañar, principalmente al personal sanitario, utilizando como excusa el coronavirus. Tal y como las autoridades han reportado, a través de una campaña de phishing se buscaba infectar con malware los sistemas hospitalarios. Algo que en la situación actual hubiera tenido consecuencias catastróficas impidiendo el uso de los sistemas o secuestrando la información, en el caso del ransomware, y que de haberlo conseguido hubiera dificultado aún más el panorama actual.

Aunque debemos acostumbrarnos siempre a comprobar la legitimidad de los emails que recibimos, en este caso es aún más importante. Aprender a detectar ciberataques no es tan difícil, únicamente es necesario dedicarle unos segundos a lo que se recibe y utilizar el sentido común antes de realizar ninguna acción. Porque, aunque algunos crackers evitan hacer negocios en situaciones como la que atravesamos en este momento, otros parecen opinar todo lo contrario.

Por el momento, nosotros seguimos quedándonos en casa y esperamos que, si puedes, tú también lo hagas. Teletrabaja, teleestudia o simplemente no hagas nada, pero elige siempre ser responsable.

Las herramientas para teletrabajo para hacer más sencillo el trabajo desde casa

Publicado enGeneral en marzo 16, 2020 10:00 am

El teletrabajo se había convertido en la asignatura pendiente de la gran mayoría de empresas, no solo españolas sino también a nivel mundial. Y es que garantizar el normal funcionamiento de una empresa cuando cada uno de sus trabajadores está físicamente lejos, no es tan fácil. La inesperada llegada del coronavirus ha obligado a que, quienes estaban posponiendo este momento, tengan que asumirlo de forma forzosa. Por ello, hemos seleccionado algunas herramientas para teletrabajo que pueden ayudarte a continuar con tu día a día dentro de lo posible.

Conexión a través de VPN

Una de las cosas más importantes a la hora de teletrabajar es establecer conexiones seguras con las herramientas corporativas. Lo habitual es que en tu oficina o lugar de trabajo los sistemas cuenten con diferentes medidas de seguridad para garantizar que únicamente los empleados acceden a esas herramientas; y por tanto tienen acceso a la información de los clientes.

En este sentido las conexiones VPN, o redes virtuales privadas, permiten establecer conexiones de forma anónima. Si en una conexión ‘normal’ las direcciones IP de los diferentes dispositivos (equipo, router, servidor…) pueden verse; con una VPN únicamente será visible la IP del servidor VPN. Un servidor que puede estar en cualquier parte del mundo, lo que hace que no sea posible ubicarte geográficamente; además de proporcionar una conexión totalmente segura y cifrada.

Conectándote a las herramientas corporativas de tu empresa a través de una VPN podrás acceder a toda la información que necesites para teletrabajar con total seguridad. Nadie podrá saber quién ha establecido la conexión, a qué servidor se ha conectado ni desde dónde lo ha hecho. Esto es debido a que la VPN actúa como si la conexión se produjera desde una red local, es decir, como si te encontraras en tu lugar de trabajo.

Herramientas de trabajo colaborativo

En el día a día de cualquier empresa compartir documentos es algo fundamental. Actualmente existen muchas herramientas para teletrabajo que permiten compartir y editar documentos en línea, pero no todas cuentan con el mismo nivel de seguridad o cumplen con las normativas vigentes. Por ello, a la hora de escoger una herramienta es fundamental considerar dos aspectos: que la información se cifre en transmisión y que la plataforma elegida cumpla con la RGPD.

Nextcloud es una aplicación similar a Dropbox pero que cumple con ambas condiciones. Por un lado, al hacer uso de una VPN se garantiza el cifrado en transmisión de los datos y, por el otro, te ayuda a cumplir con la normativa vigente en materia de protección de datos. La aplicación se instala en el servidor que tú decidas y, al decantarte por un almacenamiento ubicado en territorio español, se cumple con uno de los aspectos más básicos de la RGPD.

Con Nextcloud es posible cubrir diferentes aspectos necesarios para el teletrabajo, lo que hace que sea una herramienta para teletrabajo de gran utilidad. A través de diferentes complementos es posible compartir desde archivos de textos, a calendarios, imágenes o agenda de contactos, además de permitir realizar reuniones a través de la plataforma. Adapta Nextcloud a las necesidades de tu empresa y utiliza una única herramienta para poder compartir información sensible de tu empresa de la forma más segura.

Mensajería interna e instantánea

Con el teletrabajo eso de acercarte a la mesa del compañero deja de ser una opción. Por ello es fundamental una herramienta para teletrabajo que te permita tener comunicación instantánea y constante con aquellos con los que trabajas. Si para compartir documentos en línea has optado por Nextcloud, puedes instalar la aplicación correspondiente para disponer de chat y así añadir más funcionalidades a la misma herramienta; en lugar de tener varias herramientas para cubrir todas tus necesidades.

Si buscas una herramienta exclusivamente para la comunicación instantánea, puedes recurrir a Slack. Una herramienta creada por la compañía Tiny Speck para su propia comunicación interna y que desde 2013 está accesible a todos. Además de utilizarse como chat al uso, con Slack puedes compartir documentos y realizar videoconferencias, en la versión de pago. La versión Premium también permite integrar otros servicios como Google Drive, Dropbox, Trello o Github. Si buscas una opción open source de Slack que facilita la comunicación entre los miembros de un equipo, con la diferencia de que puede instalarse en tu propio servidor cloud.

En caso de que ni las funcionalidades de Nextcloud ni Slack te convenzan, puedes optar por aplicaciones como Telegram o WhatsApp. Crea un grupo con tus compañeros y mantén una comunicación constante, será la única forma de evitar solapamientos y que varias personas estén realizando el mismo trabajo. De la misma manera, lo tendrás más fácil para avisar de aquello que vas a comenzar a hacer, o que has acabado, para que otro pueda continuar o comenzar con su labor.

Si vas a decantarte por una de las populares aplicaciones como herramientas para teletrabajo, evita utilizarla también para el uso personal. Así podrás separar bien la comunicación con tus amigos de las comunicaciones laborales, además de optimizar tu tiempo y evitar distracciones.

Reúnete con tus compañeros

Gracias a internet y la tecnología no es necesario reunirse físicamente para conversar cara a cara con otra persona. Aplicaciones como Google Hangouts, Skype o Microsoft Teams permiten mantener reuniones a distancia. Aunque también puedes reunirte a través de algunas de las aplicaciones que hemos mencionado anteriormente, como Nextcloud o Slack.

Dentro de las dificultades que implica reunirse de forma digital, tener claro los temas que se van a tratar y enviar un email antes y después de la reunión puede hacer que la videoconferencia sea más productiva. Además, de esta forma será más fácil cumplir con los objetivos propuestos, en lugar de divagar sobre diferentes temas que vayan surgiendo.

Pon todo en orden

Ordenar las tareas que se van a realizar es de gran ayuda en condiciones normales, y muchísimo más cuando el teletrabajo llega así, de esta manera. Trello o Microsoft To Do, entre otras aplicaciones, permiten organizarte con mayor facilidad, establecer tiempos de ejecución o añadir notas. Aunque también puedes elaborar una lista, al estilo de las de la compra, en la que ir tachando todo lo que ya está hecho. Más que la herramienta, lo que importa es el orden.

Además del orden, ten en cuenta los tiempos. Ya no solo por cumplir con las horas, sino por sacarle el máximo partido al tiempo. Y más aún en una situación tan extraña (aún) como es trabajar desde casa. Sesame, RescueTime Focus To-Do o Keeper pueden ser buenas opciones para saber cuánto destinas a cada tarea y poder reorganizar de forma más productiva tu tiempo de teletrabajo.

¿Qué herramientas de teletrabajo elegir?

Aunque todas son igualmente válidas, es probable que en función de tu empresa o tus necesidades tengas que priorizar algunos aspectos como la seguridad. Si este es tu caso, te recomendamos optar por opciones como Nextcloud o Mattermost que, junto a una conexión VPN, harán que el intercambio de documentos o las comunicaciones sean de lo más seguras. Esto se debe principalmente a que se instalan en el servidor que tú elijas, lo que hace mucho más sencillo el cumplimiento de las normativas vigentes.

Esta crisis sanitaria está siendo la prueba de fuego en cuanto a teletrabajo de casi todas las empresas españolas. Un estreno precipitado motivado por una situación excepcional que nos permitirá generalizar el uso del teletrabajo y conocer los puntos débiles a mejorar. Escoge bien las herramientas que utilizas ya que pueden ser un factor decisivo para que todo salga mejor.

Recuerda que trabajar desde casa no es tan simple como trabajar en pijama. El teletrabajo, pese a parecer en pleno 2020 una prueba de concepto, se convertirá cuando todo esto pase en una forma más de realizar nuestras funciones. Trabajar en un ambiente totalmente diferente al que estamos acostumbrados, pero no por ello deberá ser menos productivo. Para ello, tener las herramientas para teletrabajo adecuadas es fundamental.

Desarrollando aplicaciones más seguras con Microsoft Application Inspector

Publicado enGeneral en febrero 19, 2020 10:00 am

Hoy en día es muy habitual utilizar componentes de terceros para el desarrollo de aplicaciones; funcionalidades escritas por otro miembro de tu equipo o por usuarios de la comunidad open source. Este tipo de prácticas permiten reducir el tiempo de desarrollo y hacer aplicaciones más completas, pero también pueden suponer un riesgo. Para evitar agujeros de seguridad o malas prácticas en desarrollo web, la compañía de Redmond ha liberado Microsoft Application Inspector; una herramienta para analizar el código fuente de una aplicación.

¿Qué es Microsoft Application Inspector?

Escrita sobre .NET Core, Microsoft Application Inspector es un analizador de código fuente que, además de detectar amenazas de seguridad, identifica los cambios y ayuda a comprender el código fuente.

Si bien no es la primera aplicación de estas características, Microsoft Application Inspector se diferencia de todas ellas en que no se limita a detectar prácticas pobres de programación; sino que va más allá en sus verificaciones automáticas. Comprobaciones que, de realizarse de forma manual, sería necesario invertir más tiempo, además de requerir mayores conocimientos al ser una tarea más difícil.

Con Microsoft Application Inspector después del análisis se obtiene un informe final con toda la información de la aplicación para saber si existen problemas de seguridad, si algunas funciones pueden mejorarse o si se han producido cambios importantes o nuevas características en el código.

Pero Microsoft Application Inspector no solo es de gran utilidad para detectar problemas en el código; también es de gran ayuda en todas las fases de un proyecto. La herramienta permite identificar con gran facilidad las diferencias entre cada fase, así como mostrar las líneas añadidas que pudieran suponer un problema de seguridad, como una puerta trasera.

El uso de Microsoft Application Inspector no debería sustituir las revisiones de seguridad; sino que se trata de una herramienta que sirve de gran ayuda a la hora de detectar problemas. Compatible con diferentes lenguajes de programación, Microsoft Application Inspector está disponible en GitHub.

Microsoft, cada vez más open

La llegada de Satya Nadella ha supuesto un antes y un después en la filosofía de Microsoft. Una apuesta por el código abierto que, lejos de perjudicar a los beneficios o funcionamiento de la compañía, no ha hecho más que favorecer el crecimiento de una Microsoft que llevaba años estancada. Dejar atrás la dependencia del sistema operativo Windows y las aplicaciones de ofimática para apostar por el cloud, la inteligencia artificial y otras tecnologías solo ha tenido consecuencias positivas para los de Redmond.

Aunque llevan años ofreciendo herramientas para hacer más fácil el día a día de los programadores, hasta hace muy poco todas ellas eran privadas. Pero, desde el cambio de 2014 cuando Microsoft se decidió a apostar por el software libre, cada vez son más el número de aplicaciones accesibles a todos. Algo que sirve para reafirmar el compromiso de Microsoft con el desarrollo de aplicaciones cada vez más seguras; además de convertirse en un referente para otras grandes compañías.

2019 se perderá en el tiempo ¿como lágrimas en la lluvia?

Publicado enGeneral en diciembre 26, 2019 10:00 am

Cuando en 1982 llegó a los cines Blade Runner las expectativas sobre un futuro, que ahora es presente, cambiaron considerablemente. Aunque esas predicciones tenían como fecha de caducidad 1992, según el libro de Philip K.Dick en el que se inspira la película, Ridley Scott decidió hacerlas aún más futuras. Noviembre de 2019 ya es parte del pasado y ni los coches vuelan, ni vivimos entre replicantes, ni nos hemos mudado a la Luna o Marte; al menos no por el momento.

Eso sí, Blade Runner acertó en algunas cosas que se han convertido en clave en la tecnología de esta década, como el reconocimiento de voz o el desarrollo de la inteligencia artificial. Aunque sin ser tan inteligente y tan poco artificial como se muestra en la película.

Al margen de lo presagiado por Blade Runner, el 2019 ha dado para mucho, tecnológicamente hablando, y es el momento de repasarlo.

El ransomware de Jerez

Ni un año sin el correspondiente susto por ransomware. A comienzos de mes de octubre el Ayuntamiento de Jerez sufría un ataque de ransomware que dejaba inoperativos todos los equipos del consistorio. Mil trescientos ordenadores que tuvieron que ser analizados uno por uno por el CNI para conseguir desencriptar la información contenida. Las tareas se demoraron un par de semanas, tiempo en el que algunos organismos del Ayuntamiento permanecieron fuera de servicio o sin poder realizar muchas de sus labores diarias.

Este tipo de ataques informáticos son bastante habituales, recordemos WannaCry en 2017 y cómo afectó a grandes compañías. Y, desgraciadamente, no es posible una protección infalible contra el ransomware, pero siempre pueden tomarse medidas que ayuden a minimizar riesgos, o al menos supongan un plan de contingencia. Desde contar con copias de seguridad externas en servicios como Cloud Backup o DRS, si se trata de grandes infraestructuras, a mantener el software siempre actualizado.

Incluso en 2019 gran parte de los problemas informáticos tienen su origen en la falta de actualización de los equipos y programas informáticos. Si bien las actualizaciones pueden añadir más funcionalidades, su principal propósito es solucionar problemas de seguridad. En este sentido muchas instituciones continúan utilizando versiones de sistemas operativos o programas sin soporte de seguridad. Muchas papeletas para acabar sufriendo un ciberataque.

Las cuentas hackeadas

Prácticamente a la vez las cuentas de Twitter de Atención al cliente de Correos y la Universidad Pública de Navarra (UPNA) sufrían un ataque. Durante el tiempo que perdieron el control de sus perfiles sociales, los atacantes aprovecharon para publicar mensajes ofensivos. Tuits que acabaron siendo virales y de los que las propias empresas acabaron por tomarse con humor. Una vez solucionado el problema, eso sí.

El caso de Correos Atiende fue aún más grave, ya que además del hackeo se intentó estafar a los usuarios a través de SMS. Un ataque de phishing basado en enviar una notificación al usuario solicitándole el pago de una tasa de aduanas a través de un sitio web que, evidentemente, no tenía relación alguna con la empresa de envíos. Por ello, es muy importante aprender a detectar este tipo de ataques; ya que, además de hacerse con el control de tus datos, pueden acabar sacándote unos euros.

Y no solo Correos cayó en las manos de los suplantadores de identidad, el cliente de correo para webmail Roundcube también lo sufrió. Mediante un correo a nombre del servicio de emails, se avisaba de que la cuenta había sido deshabilitada tras varios intentos erróneos de inicio de sesión. Un aviso engañoso que únicamente trataba de hacerse con la cuenta del usuario porque, entre otras cosas, Roundcube no envía mensajes a tu buzón. Más o menos lo mismo que ocurrió con los dominios .eu. Una vez más, en 2019 también ha ‘reinado’ el mal.

El cambio en los pagos digitales

La nueva directiva PSD2 ha supuesto algunos cambios en las compras online. Entre ellos la necesidad de implementar la doble autenticación a la hora de realizar una transacción, dejando atrás las famosas tarjetas de coordenadas. La teoría es perfecta, pero como siempre el problema llega en la práctica.

Gran parte de las entidades bancarias siguen utilizando el SMS como factor de doble autenticación, lo que ha propiciado la aparición del SIM swapping. Una técnica que explota la poca seguridad de los mensajes de texto para hacerse con el control de las cuentas bancarias de los usuarios. Para ver el código de seguridad enviado por tu banco al hacer cualquier operación desde la banca online no es necesario desbloquear el dispositivo; lo que hace enormemente fácil burlar esta medida de seguridad.

2019, la llegada de Firefox Monitor

La compañía del panda rojo ha lanzado un servicio para alertar si alguna de tus claves de acceso ha sido comprometida. En colaboración con Have I Been Pwned (HIBP), la base de datos que permite conocer si las direcciones de correo se han visto expuestas, Mozilla lanza Firefox Monitor. Aunque no es el único servicio de estas características que existe.

Con este servicio, en lugar de tener que buscar si nuestras direcciones están a salvo, muestra la seguridad de la cuenta al acceder al servicio; en el caso de que el servicio haya sufrido algún robo. En cualquier caso, tanto si tus contraseñas han sido expuestas como si no, te recomendamos cambiar tus claves de acceso de forma periódica. Y si, además, estableces contraseñas seguras en todos tus servicios mucho mejor. De esta forma que alguien acabe descubriendo tus passwords será mucho más difícil.

Sabemos que mantener los sistemas actualizados es esencial para añadir seguridad. Por ello desde Linube contamos con diferentes tipos de servicios de administración de sistemas, de forma que puedas delegar la gestión técnica de tu servidor en manos expertas. Además de olvidarte de las actualizaciones de seguridad, podrás tener la seguridad de que tus backups están a salvo y que nuestra monitorización proactiva nos permite adelantarnos a muchos de los problemas.

¿Época de cambios?

Hace unas semanas RIPE asignaba el último bloque de direcciones IPv4. A finales de 2019 y con todas las direcciones IPV4 agotadas parece que la llegada de IPv6 estaría un poco más cerca. Aunque con la aparición de los IP brokers y la reventa de las direcciones IP que eso supone, es probable que la implantación de IPv6 nunca llegue a avanzar.

En el extremo opuesto, un reemplazo que ya es una realidad. El obsoleto Whois sufrió de primera mano las consecuencias del RGPD. Por ello, y ante la necesidad de llevar un control sobre los dominios y sus propietarios, se ha agilizado la llegada de RDAP, el protocolo que le sustituye. RDAP además de suplir las carencias en cuanto a seguridad al recurrir a HTTPS, supone la estandarización e internacionalización de la información que se muestra.

La UE ha redefinido el concepto de ciberseguridad. Después de 25 años el alcance de la definición nada tiene que ver con las posibilidades de hoy en día; ni en términos de daño causado ni en cuanto a las técnicas empleadas. Por ejemplo, ¿quién iba a pensar que podría atacarse a los servidores de CDN para que devuelvan páginas de error en lugar del contenido correcto? Pero sí, los ciberataques CPDoS son posibles y cuando se definió la ciberseguridad no estaba contemplado, porque aún no se había descubierto. Y es que esta forma de ataque informático apenas tiene un par de meses de vida.

Google en 2019

Como no podía ser de otra forma estos 365 días le han dado a Google para mucho. Desde desarrollar, o más bien publicar, el nuevo protocolo de transferencia de hipertexto para hacer que internet sea más rápida a acabar con el contenido mixto. Para el primero, HTTP/3, la compañía de Mountain View ha redefinido HTTP para que no sea necesario recurrir a TCP sino apostar por UDP. Este cambio permite solventar los problemas de HTTP/2 sin renunciar a la seguridad y mejorando la velocidad.

En cuanto al contenido mixto, todo comenzó con la obligación de instalar un certificado SSL en todos los sitios web, especialmente si solicitaban información al usuario. Este cambio provocó que algunos elementos de la web, especialmente imágenes, vídeos, hojas de estilo o scripts continuarán cargándose a través de una conexión HTTP; lo que se denomina contenido mixto. El plan de Google a partir de 2019 consiste, básicamente, en forzar todo el contenido de una web a HTTPS mediante una nueva funcionalidad de Chrome que no afectaría a la experiencia de navegación.

Nuestra década

Este 2019 Linube ha cumplido sus primeros diez años de vida. Una década que refleja la confianza que nuestros clientes depositan en nosotros y que nos anima a mejorar día a día. Así, en este último año, además de lanzar diferentes servicios relacionados con el backup como Nextcloud, Cloud Backup o planes de contingencia DRS, hemos desarrollado mejoras para nuestros clientes.

Desde un panel de monitorización al detalle que encontrarás en el área de cliente y que te permitirá conocer el consumo de recursos de tu servidor cloud; además del estado de cada uno de los servicios instalados. Conscientes de la importancia de una web o tienda online optimizada, también hemos creado un servicio de WPO para ayudar a que los proyectos de nuestros clientes vuelen. Con la misma intención de echar una mano, hemos lanzado el servicio de administración de servidores AWS; para que quien cuente con un servicio en la nube de Amazon no tenga que preocuparse.

Por todo ello, el nivel de seguridad con el que cuenta nuestra plataforma cloud y las buenas prácticas que seguimos para garantizar la seguridad de la información, obtuvimos la certificación ISO 27001. La norma que permite la seguridad, confidencialidad e integridad de los datos y la información.

Para 2020 prometemos ser igual de seguros o más y seguir ofreciéndote siempre lo mejor.

¿Qué ocurre con las webs abandonadas?

Publicado enGeneral en diciembre 11, 2019 10:00 am

Con el final del año siempre llega el momento de recordar todo lo ocurrido en los meses anteriores. Que si viajes, que si recuerdos, que si la canción del verano… pero, ¿alguien se acuerda de las webs abandonadas?

Una red muerta

En internet se generan miles de millones de datos por segundo: ese email que acabas de enviar, cada una de las búsquedas que realizas en Google, la foto del atardecer que subiste a Instagram… Según Internet Live Stats, de los casi dos mil millones de páginas web que se encuentran en internet, apenas unos 200 millones están activas; es decir, en todo internet hay más de mil millones de webs abandonadas. Una cifra que da qué pensar si tenemos en cuenta que en 1991 la cifra de sitios web inactivos se reducía a 1.

‘Si no estás en internet no existes’ es el mantra de cualquier empresa en estos días que corren. Una frase que, por otra parte, no deja de ser una realidad ya que tener presencia online es fundamental para llegar a cualquier parte del mundo, pero también puede ser contraproducente en el caso de las webs abandonadas. ¿De qué sirve contar con un sitio web si la información no se actualiza? ¿Para qué quieres seguir manteniendo tu web si el negocio no existe?

¿Mantener las webs abandonadas?

Aunque abandonar una web pueda parecer algo inocente producto de una mala situación corporativa, lo cierto es que puede ocasionar problemas de seguridad. Hay quienes buscar dominios caducados para registrarlos con fines maliciosos, los conocidos como cybersquatters, y también hay quien tratará de buscar agujeros de seguridad que explotar. Las webs abandonadas tienen todos sus componentes desfasados, desde el diseño hasta el código de la aplicación; además de que, en función del tiempo que lleve sin actualizarse es posible que no cumpla con las normativas vigentes como la GDPR o la PSD2. Lo que además de cuestiones de seguridad ocasionaría problemas legales.

La falta de actualización y la caducidad de algunos servicios, como el certificado de seguridad SSL, pueden aumentar la vulnerabilidad de un sitio web. De esta forma, las webs abandonadas acabaran por exponer la información de los usuarios como consecuencia de la desactualización.

Más allá de las cuestiones de seguridad, es especialmente preocupante el abandono de las webs corporativas. Un sitio web corporativo es el mejor escaparate de una empresa, uno que tiene un alcance mundial y que, de descuidarlo, puede arruinar la imagen de la compañía. Así algunas veces es mejor no estar en internet que estar en condiciones inadecuadas. Tanto si acaba sufriendo una brecha de seguridad, como si luce un diseño muy desfasado que ya no se corresponde con la imagen o los valores de la empresa, las webs abandonadas acaban siendo el peor enemigo de una compañía.

La huella del abandono

Además de los asuntos legales y todo lo relativo a la seguridad, las webs abandonadas siguen consumiendo energía. Bueno, las páginas web y todos los servicios que aún siguen activos pese a que tú ya no los uses. Por ejemplo, aquella cuenta de correo que creaste en tu adolescencia y que nunca te has molestado en eliminar. Tu perfil en una determinada red social que, a pesar de que hace años que no inicias sesión, sigue estando accesible a quien quiera visitarlo.

Un informe de Greenpeace estima que el tráfico de datos en internet consume un 7% de la electricidad mundial; lo que supondría un 2% de las emisiones globales de CO2. Teniendo en cuenta que más de la mitad de los sitios web que están en internet son webs abandonadas, no sería tan difícil reducir ese consumo. Si bien no pueden compararse las emisiones causadas por el tráfico de coches con las del tráfico digital, todo suma.

Una ayuda para la COP25

Coincidiendo con la celebración de la Cumbre Mundial del Clima COP25, cerrar todos los servicios que no utilizamos o las webs abandonadas puede ser un buen movimiento para ayudar al planeta. Pese a abogar por el Green computing, no es tan fácil prescindir de algo fundamental para garantizar el correcto funcionamiento de todo tipo de sistemas.

Los miles de millones de datos generados al día deben almacenarse en potentes infraestructuras. Pese a que los Centros de Datos cada vez sean más eficientes en términos ecológicos, no es fácil cambiar el funcionamiento de toda la infraestructura, si bien en este sentido ha sido esencial la evolución del hosting al permitir almacenar más información en un menor espacio; y, por lo tanto, reducir de forma significativa el consumo eléctrico. Asimismo, tampoco resulta sencillo prescindir de determinados servicios. Y es que internet se ha convertido en el sistema central sobre el que gira nuestra sociedad, desde la economía a las comunicaciones pasando por las actividades más rutinarias de nuestro día a día.

Si quieres, puedes consultar cuántos kilos de CO2 se están enviando a la atmosfera mientras tú navegas por internet en CO2GLE. Por el momento las grandes compañías como Google, Facebook y Apple ya han comenzado a construir una red renovable a la que, poco a poco, van sumándose otras empresas.

Éxito tardío de las webs abandonadas

Al igual que sucede con otros fenómenos, algunas webs abandonadas han alcanzado la gloria cuando ya estaban en el olvido de su creador. Sin ninguna actividad desde hace años, pero bien posicionadas en Google, son muchas las páginas inactivas que continúan alimentándose de los comentarios de los usuarios. La magia del algoritmo de Google puede llevarnos a descubrir sitios web inactivos que contienen la respuesta a todas nuestras preguntas.

Si el abandonware supone una segunda oportunidad para el software obsoleto, las webs abandonadas también pueden seguir vivas pese a que quien las creó ya no las considere importantes. Pero, hablando de importancia, la prioridad siempre debe ser cuidar del planeta a lo que puedes contribuir, además de reutilizando y reciclando, precisamente por su estado de inactividad, comenzar por borrar las webs abandonadas puede ser una buena forma de empezar.

¿Cómo ha sido la evolución del hosting en solo unas décadas?

Publicado enGeneral en diciembre 4, 2019 10:00 am

¿Alguna vez te has parado a pensar el gran cambio que ha experimentado el sector del hosting en tan poco tiempo? Al igual que internet y otro tipo de servicios que parece que siempre han estado ahí, los servidores web apenas tienen unas cuantas décadas de vida. Y como en cualquier otro producto o servicio tecnológico en su corta vida la evolución del hosting ha experimentado un cambio brutal.

Para entender la evolución del alojamiento web hay que considerar tres aspectos clave: el aumento de la información que se genera diariamente, la mejora de la capacidad de almacenamiento y el nivel de procesamiento de la información.

Creando datos continuamente

En un solo minuto somos capaces de generar millones de datos, información que tiene que almacenarse en algún lado; generalmente en los servidores de las aplicaciones desde las que generamos esos nuevos datos (WhatsApp, Facebook, Twitter…). Unas cifras que cada año van en aumento y que son uno de los principales factores que impulsan la mejora de los servidores; tanto en términos de procesamiento de la información como de su almacenamiento. A mayor cantidad de información se requiere de mejores técnicas de procesamiento de los datos y de capacidad para almacenarlos. Conceptos muy ligados con la evolución del hosting.

Pero no toda la información que se genera proviene de redes sociales o aplicaciones web. Al crear un nuevo sitio web, una tienda online o publicar un nuevo artículo en nuestro blog también estamos creando datos. Información que se almacenará, en este caso, en el servidor contratado en algún proveedor de alojamiento web.

Más datos en menos espacio

De aquellos primeros ordenadores que medían metros, pesaban toneladas y requerían de días para ser trasladados, afortunadamente hemos pasado a potentes dispositivos que caben en la palma de la mano. Y es que, si tuviéramos que continuar almacenando información en aquellos primeros servidores web, no habría suficientes edificios para almacenar tanto ‘hierro’. Además de que el coste, tanto para el proveedor como para el usuario, sería muchísimo mayor.

Las primeras máquinas tenían unos cuantos megas de capacidad. Por lo que para almacenar grandes proyectos sería necesaria una enorme infraestructura. Edificios de grandes dimensiones en los que instalar, aproximadamente, un servidor por sala y donde incluso pequeños proyectos podrían requerir de más de un servidor. Actualmente, gracias a la innovación tecnológica que ha propiciado la evolución del hosting, es posible almacenar varios proyectos en un mismo servidor. Incluso podemos crear varios servidores dentro de la misma máquina. Y así, instalar cientos de servidores en una misma sala gracias a las técnicas de virtualización; sin tener que renunciar a la potencia o el rendimiento de los servidores.

Esta reducción de las dimensiones de los servidores y el crecimiento constante de su capacidad de almacenamiento ha facilitado el acceso a un servidor a cualquier persona. Ya que no es necesaria una gran inversión económica para contratar los recursos necesarios para iniciar cualquier tipo de proyecto, además de reducir el impacto ecológico. Al reducirse el tamaño de la máquina, se consume menor cantidad de electricidad para garantizar el funcionamiento de los servidores y para la climatización de la sala en la que se encuentran.

Garantizar el correcto funcionamiento

Para que toda esa nueva información se gestione de forma más eficiente, es necesario perfeccionar los sistemas. Haciendo que, por ejemplo, un servidor sea capaz de gestionar grandes cantidades de datos sin que repercuta en su funcionamiento. Por ejemplo, de esta forma se ha conseguido evitar que los picos de consumo de una máquina puedan dejar sin suministro eléctrico a toda una ciudad. Algo que ocurría en Filadelfia cuando el ENIAC, una de las primeras computadoras, entraba en funcionamiento.

Aunque, como todo, los servidores no son perfectos y pueden producirse fallos de hardware o software que puedan afectar al rendimiento o funcionamiento, actualmente cualquier tipo de problema puede solucionarse en apenas unos minutos. Por ejemplo, si en nuestras plataformas cloud se produjera una caída, automáticamente se levantaría otro nodo que devolvería la operatividad al servidor. Esto no hubiera sido posible sin la mejora en el procesamiento de datos y si no hubiera surgido la tecnología cloud. Si el alojamiento web aún dependiera de servidores físicos, las paradas del servidor serían más prolongadas al requerir de la intervención de un técnico para restaurar el servicio.

Del físico al cloud

Sin tener que remontarnos a los años 50 del siglo pasado, únicamente viajando hasta 2009 también podemos ver la evolución del hosting. Básicamente hablamos del paso de servidores físicos, totalmente dependientes de hardware, a servidores cloud que tienen la capacidad de abstraerse de la máquina para proporcionar un servicio que siempre está disponible.

En estos 10 años que Linube lleva ofreciendo todo tipo de servicios web hemos visto cómo cada vez la tecnología cloud cuenta con más adeptos. Una tecnología que echó a andar en 2007 pero que ha ido consolidándose con el paso de los años hasta convertirse en la mejor forma de crear una infraestructura a partir de servidores virtuales. Aunque en un primer momento hubo quienes se mostraron reacios a la tecnología cloud, acabaron rendidos a las ventajas de la nube. Y cada vez son más quienes se unen al fog computing, la versión más cercana de la nube.

Este cambio de actitud se debió principalmente a su precio, su capacidad de escalar los recursos, alta disponibilidad y redundancia, además de otorgar al usuario un control total del alojamiento. Factores que han propiciado que tanto pequeñas empresas como grandes compañías apuesten por la nube como infraestructura para sus proyectos.

Nuestra evolución del hosting

Desde que naciéramos un 8 de mayo de 2009, hemos ido adaptando nuestra oferta de servicios a las tendencias del mundo del hosting para ofrecer a nuestros clientes siempre lo mejor. Una oferta que en todos estos años ha ido desde sencillos planes de hosting a la creación de plataformas cloud en alta disponibilidad, pasando por servidores dedicados y VPS. Para acabar centrándonos en todo tipo de soluciones en la nube: Cloud Backup, Nextcloud, Planes de contingencia (DRS), además de administración de sistemas alojados en nuestra plataforma y también de servidores en otras plataformas como la nube de Amazon.

Trabajamos día a día por facilitarles las cosas a nuestros clientes. Desde hacer más fácil el reinicio o apagado de servidores o la gestión de la zona DNS de un dominio a incluir gráficas de monitorización de nuestros servidores administrados. Además de lanzar nuevos servicios como la Optimización de sitios web (WPO).

Segunda oportunidad para el software abandonado, ¿qué es el abandonware?

Publicado enGeneral en noviembre 27, 2019 10:00 am

Cuando no en todas las casas había ordenadores la vida social de la mayoría de los jóvenes y adolescentes giraba alrededor de los salones recreativos. Aquellos primeros gamers, hoy convertidos en adultos, pueden revivir esos años mozos gracias al abandonware. Aunque siempre se ha compartido software, la llegada de internet simplificó en gran medida esos actos de distribución; además de otorgarles una mayor importancia.

¿Qué es el abandonware?

Un término acuñado en 1996 por Peter Ringering compuesto a partir de dos palabras inglesas, el abandonware hace referencia a aquellos programas, y sobre todo videojuegos, abandonados por diferentes razones. Generalmente este software acaba descatalogado por diferentes motivos; antigüedad, por desaparición de la empresa propietaria o porque han sido vendidos a otra compañía sin ningún interés en continuar su desarrollo. Sea cual sea el motivo el software se convierte en abandonware cuando ya no puede comercializarse. En este caso se entiende que es legal compartirlos y descargarlos siempre que no haya ánimo de lucro.

El problema es que el abandonware no está reconocido de forma legal, sino que es un término coloquial para referirse a los productos de software que, a pesar de tener un estado legal, se han descatalogado. Una condición que lejos de aclarar la situación pone el software abandonado en un limbo entre lo legal y lo ilegal; ya que no se convierte de forma automática en propiedad pública si no que, al no haber nadie que reclame los derechos de autor, el abandonware pasa a llamarse freeware; o software liberado de derechos que autor que pasa a distribuirse de forma gratuita. Tanto abandonware como freeware estarán en una especie de limbo hasta que caduquen sus derechos de autor; un periodo que varía según la legislación de cada país.

¿Cómo funciona(ba) el software abandonado?

Cuando internet estaba enlazado, pero no era tan fácilmente accesible como lo es ahora, y cuando a Google aún le quedaban un par de años para aparecer en escena, los sitios web de abandonware se agrupaban formando anillos web. Los webrings son grupos de páginas de temática común enlazados entre sí de forma circular; donde una web central soporta a todas las demás, de forma que, si alguna desaparece, el resto puedan seguir enlazadas entre sí. De esta forma se conseguía mayor efectividad y el abandonware tiene una mayor visibilidad.

Meses más tarde de que se creara el primer anillo web para los proyectos de software abandonados la ESA (Entretainmente Software Association) intentó que se rompiera el anillo de abandonware. Y consiguió todo lo contrario; con su rechazo terminó por impulsar la creación de otros anillos nuevo que acabaron superando al anillo original. De todo aquello ahora quedan proyectos como Abandonia, Home of the Underdogs, Clásicos Básicos, AbandonwareDOS o MyAbandonware, que permite también jugar a través del navegador.

Nostalgia gamer

A pesar de que los nuevos sistemas operativos van abandonando partes esenciales para el correcto funcionamiento de estos softwares abandonados, aún es posible echar unas partidas a los clásicos de siempre. Si bien no es una tarea sencilla hacer compatible un software de más de veinte años con los dispositivos actuales, la aparición de emuladores, tanto de comando como de interfaz, se lo ponen más fácil a esos jugadores menos familiarizados con la informática. Además, junto con la aparición de plataformas como Steam, volver a jugar a los clásicos del abandonware sigue siendo un juego de niños.

Quién sabe si dentro de unos años el software que utilizamos en estos momentos acabe siendo abandonware; y si termina por formar parte del legado inmaterial que almacenaremos en el Archivo Mundial del Ártico.

¿Cómo van tus preparativos para el Black Friday?

Publicado enGeneral en noviembre 20, 2019 10:00 am

Es evidente que cada vez la navidad ‘llega’ antes, pero si antes la época más mágica del año se iniciaba con el encendido de luces o los niños de San Ildefonso, ahora el pistoletazo de salida es más consumista. Desde 2012, cuando la legislación permitió hacer rebajas fuera del período habitual, la navidad empieza con el Black Friday; o, según el comercio, con el Single Day. Una fecha indeterminada entre el 11 y el último viernes de noviembre son nuestro inicio de la campaña navideña. Pasado ya el primer asalto que, aunque suma adeptos, aún tiene mucho que aprender del viernes más negro, ¿has comenzado ya con los preparativos para el Black Friday? Por si andas rezagado, te recordamos qué aspectos debes considerar para evitar que el Black Friday acabe siendo un día negro en tu sitio web.

Piensa en Google

La mayor parte del tráfico de un sitio web proviene de Google, de ahí la enorme importancia de adecuarnos a lo que el buscador nos sugiere; por no decir impone. Además de realizar promociones que contribuyan a llevar más visitas a tu tienda online, no debes descuidar los aspectos más básicos del SEO: títulos, palabras clave y meta descripciones. Si tu estrategia para este Black Friday pasa por crear una landing especial, contarás con más opciones para posicionar más alto; siempre que esta página tenga una URL que haga referencia a este periodo, claro. En cuanto a las palabras clave, procura atacar a aquellas menos comunes o intenta hacer variaciones fuera de lo habitual; de esta forma será más probable que un usuario acabe en tu web y no en una de la competencia.

Con independencia del tráfico orgánico, nunca está de más avisar a tus clientes a través de cualquier canal. Por ejemplo, enviando newsletters sobre la promoción que sirvan de preparativos para el Black Friday. Así, cuando llegue el momento los carritos ya estarán listos para proceder al pago. Algo que unido al carácter de urgencia y unidades limitadas que se suele asociar con este tipo de eventos hará que todos estén pendientes de tu sitio web.

Un servidor preparado

Incluso si no realizas ninguna promoción es probable que las visitas de tu sitio web se disparen simplemente por curiosidad. Por ello, deberás garantizar que quien quiere acceder a tu web, tanto para echar un vistazo a tus productos como para acabar comprándolos, pueda hacerlo. Generalmente durante estos días el tráfico aumenta de forma radical y en un solo minuto pueden concentrarse un gran número de usuarios simultáneos; algo que no suele suceder durante el año. Por ello, es fundamental que el servidor esté preparado para ese aumento de las visitas.

Si no escalas los recursos del servidor cloud es probable que acabes creando una mala imagen a tus usuarios. Ya sea por lentitud o porque deje de estar operativa, casi nadie finalizará un proceso de compra que es excesivamente lento. Recuerda que no solemos conceder más de unos segundos a la carga de una web y que, de superarse nuestro límite, acabaremos abandonando. De ahí que aprovisionar el espacio en disco, los procesadores y la memoria RAM para el Black Friday sea una obligación para cualquier tienda online. De entre todos los preparativos para el Black Friday este es sin duda el más importante, a no ser que no vender a través de tu ecommerce no sea una prioridad para ti. Pero, ¿estás dispuesto a condicionar tus ventas a la disponibilidad de tu tienda física? Seguro que no.

Optimización móvil

Aunque el comercio electrónico empezara a través de una televisión, en la actualidad la mayor parte de las compras se realizan desde el móvil. En 2017 más de la mitad de las compras realizadas durante el Black Friday se realizaron desde un dispositivo móvil; una tendencia que aumentó el pasado 2018 y que, a buen seguro, seguirá en alza este 2019. Si tener una web responsive es una obligación a día de hoy, no estaría de más que echaras un vistazo a cómo de optimizada está tu página web de cara al ‘finde negro’ para evitar disgustos.

Reduce el peso de las imágenes, asegúrate de tener una buena velocidad y, sobre todo, simplifica el proceso de compra. Desde un dispositivo móvil puede resultar más complicado finalizar una compra, por ello cuanto más sencillo sea más ventas se producirán. Cuanto más fácil se lo pongas al usuario más comprará, cuanto más difícil, antes saldrá de tu web; y, encima, sin comprar nada.

Compras siempre seguras

Pese a que ya se haya convertido en algo normal, aún son muchas las páginas web que siguen recurriendo a HTTP. Si es tu caso, no deberías esperar más para contratar un certificado de seguridad SSL que se encargue de encriptar toda la información que se comparta en tu tienda online. Aunque cada vez seamos menos reacios a realizar compras a través de internet y pagar con nuestra tarjeta de crédito, desde luego no compartiremos estos datos tan sensibles en un sitio web marcado como inseguro. Tu tienda online necesita seguridad todo el año y un certificado de seguridad que la convierta en HTTPS, pero especialmente en días clave como el Black Friday.

Además, recuerda que hace solo unos meses llegaba una nueva normativa para los pagos electrónicos, la PSD2. Lo que supone que probablemente tengas que realizar cambios en tu proceso de compra a fin de adecuarte a la nueva norma. Entre los principales cambios introducidos por la PSD2 se encuentra la obligación de contar con autenticación en dos pasos. Así que, si tu web, no está actualizada a la nueva norma esta tarea debería ser otro de tus principales preparativos para el Black Friday.

Preparativos para el Black Friday

La campaña de navidad es una de las fechas más importantes para cualquier negocio. Con el auge del comercio electrónico estar adaptados a la llegada del Black Friday, y cualquier otro evento que pueda disparar las ventas, se ha convertido en mucho más que una necesidad. Si quieres evitar que esta fecha tan importante acabe convirtiéndose en el viernes más negro de tu calendario empresarial, no dejes los preparativos para el Black Friday para el último momento.

¿Qué es la directiva PSD2 y cómo te afecta?

Publicado enGeneral en septiembre 18, 2019 10:00 am

Como en todo, a medida que el comercio electrónico ha ido creciendo y mejorando ha ocurrido lo mismo con su seguridad. Especialmente si tenemos en cuenta que en estas transacciones se utiliza información tan sensible como nuestros datos bancarios. Para evitar que cada operador siguiera sus propios procesos y tiempos, en 2007 se adoptó la Directiva PSD1 (Payment Services Directive). Una norma que permitía homogeneizar los procesos estableciendo un marco común en todos los países de la Unión Europea. Más allá de la estandarización, la puesta en marcha de la primera versión de PSD sirvió para fomentar la competitividad en el sector y generar valor añadido en las tiendas online y sus consumidores. En los próximos días llegará PSD2, la nueva directiva para los pagos digitales.

PSD1, un antes y un después

Desde su puesta en marcha en 2007, PSD1 supuso un antes y un después en el comercio electrónico y sus agentes en toda la Unión Europea. Con la llegada de PSD1 se acabó el monopolio de los bancos como único agente autorizado para realizar operaciones económicas y aparecen nuevos conceptos de entidades y formas de pago. Entre ellas las llamadas entidades de pago, empresas cuya única función es gestionar cobros y pagos; actividad para la que habrán tenido que cumplir con ciertos criterios establecidos en la norma.

Junto con la llegada de las entidades de pago vinieron los iniciadores de pago. Un nuevo sistema de pago que se basa en transferencias instantáneas y directas desde la cuenta del usuario a la del comercio electrónico. Esto permitió integrar nuevas pasarelas de pago, como PayPal o Redsys, en las tiendas online.

La nueva versión: PSD2

Como era de esperar con tanto cambio en el comercio electrónico, ha sido necesario actualizar PSD1 para corregir algunos de sus problemas y, especialmente, mejorar la seguridad del consumidor. Este es el caso de algunas aplicaciones de ahorro o de seguros que requieren de nuestra información bancaria para poder funcionar, un acceso a los datos que hasta la llegada de PSD2 no estaba regulado. Con PSD2 todas las entidades que intervengan en el proceso habrán sido certificadas por una autoridad competente, en este caso el Banco de España.

Además, los bancos deberán facilitar una API a los proveedores para que se realicen las transferencias. De esta forma se acaba con el retraso en las transferencias bancarias, y la demora en el envío y recepción del producto, al realizarse una transacción directa entre usuario y comercio electrónico. Por ejemplo, si adquirimos varios productos en un Marketplace, con PSD2 cada una de las partes recibirá de forma directa e inmediata el dinero que le corresponde. En lugar de que sea el Marketplace quien distribuya, del importe total de la compra, lo que corresponde a cada una de las partes.

Asimismo, con la llegada de PSD2 no será necesario abandonar la web de una tienda online para poder realizar el pago. Es decir, ya no seremos redirigimos a su pasarela de paso, sino que el cobro se realizará dentro del mismo sitio web. Esto implica que compañías como Visa o Mastercard dejarán de tener visibilidad en todos los sitios web al realizarse una transacción directa entre el banco y el ecommerce mediante API.

Más seguridad

Con PSD2 los datos bancarios del usuario estarán protegidos en todo momento por dos certificados diferentes. Por un lado, QWAC, un certificado entre el proveedor y la entidad bancaria que se encarga de encriptar los datos en transmisión. Y, por el otro QSealC un sello de seguridad que viaja adjunto a los datos. Este último permite realizar un seguimiento de las empresas que han accedido a la cuenta bancaria y que transfirieron información a través de la API del banco en cuestión. Además, QSealC garantiza que los datos se puedan modificar. La emisión de estos certificados es competencia del Banco de España. Para poder acceder a ellos es necesario, además de la aprobación de la autoridad competente, contar con alguno de los siguientes permisos:

  • Servicio de agregación de información (AIS). Un permiso para proveedores que estén interesados en recibir información de una cuenta bancaria. Estas entidades se encargan de recopilar y mostrar los datos haciendo que el cliente pueda acceder a toda su información con mayor facilidad.
  • Servicio de iniciación de pagos (PIS). Esta licencia está orientada a empresas que pueden realizar pagos o transferencias en nombre del cliente. Para ello recurren a un software que conecta las cuentas bancarias del comprador y la empresa y notifica a las partes cuando se ha realizado la transacción.

Además, con PSD2 no se permitirán recargos adicionales al finalizar el proceso de compra. Con la nueva normativa dejarán de aplicarse sobreprecios sobre el precio de compra por razones como el tipo de tarjeta de crédito.

Consecuencias de PSD2

Al igual que ocurrió con la RGPD, parece que solo hemos escuchado hablar de ella cuando su llegada es inminente. Pero lo cierto es que PSD2 fue adoptada en 2017 y su incorporación a la legislación española llegó en septiembre de 2018. En primer lugar se estableció el 14 se septiembre como fecha límite, el plazo para su implantación se ha ampliado entre 14 y 18 meses.

La llegada de PSD2 afecta principalmente a los bancos y las entidades financieras, lo que hace de esta nueva directiva algo prácticamente inapreciable para usuarios y tiendas online. En cualquier caso, antes de la llegada de PSD2 te recomendamos asegurarte de que tu ecommerce está adaptado a esta nueva norma, evitando así cualquier tipo de penalización como consecuencia de su incumplimiento. Por ejemplo, en el caso de que no hayas implementado la autenticación en dos pasos en tu tienda online algunos pagos serán automáticamente cancelados. Esto afectará a:

  • Pagos con un importe superior a los 30€, o con un coste superior a 100€ si se trata de varios productos.
  • Transacciones económicas que tengan lugar dentro de la Unión Europea. En el caso de que se produzcan fuera del territorio europeo no será necesaria la doble autenticación.
  • Transacciones solicitadas por el cliente. Para aquellas iniciadas por parte de las empresas, como las domiciliaciones bancarias, no se requiere de doble factor de autenticación.

Adiós a las tarjetas de coordenadas

Entre los principales cambios que llegan con la nueva PSD2 se encuentra el fin de las tarjetas de coordenadas. Sí, aquella que te dieron el primer día y que siempre necesitarías para realizar compras por internet. El método estandarizado de doble autenticación de los últimos años, también desaparece al no tener que salir de una tienda online para pagar por sus productos.

A partir de la llegada de la nueva norma, la seguridad adicional en tus compras vendrá desde tu móvil, indispensable para realizar cualquier pago a través de internet. Lo que provocará que también deje de tener importancia el CVV de tu tarjeta, otro de los códigos de seguridad tradicionales.

Activa la 2FA

Aunque las estadísticas indican que el fraude en el comercio electrónico se encuentra en niveles muy bajos gracias al uso de sistemas de seguridad en las aplicaciones, la autenticación en dos pasos reducirá aún más estas cifras. Desde el 14 de septiembre todos los pagos que se realicen en una tienda online deberán estar protegido por la autenticación en dos factores. La 2FA es un requisito indispensable en un ecommerce para cumplir con la nueva PSD2.

Con esta medida se seguridad adicional se garantiza el pago seguro y se protege al máximo la información más sensible solicitando al cliente al menos dos de los siguientes elementos:

  • Algo que solo el cliente conozca. Como su contraseña o un PIN de acceso, el resto de su información bancaria, como el número de cuenta, no se consideran datos que el cliente tenga que conocer.
  • Algo que solo el cliente posea. Por ejemplo, su teléfono móvil.
  • Algo propio del cliente. El reconocimiento facial, mediante huella dactilar o a través de su voz.

Para ello puedes instalar un plugin, si se trata de un WooCommerce, o un módulo, en el caso de PrestaShop, que ofrezca esta funcionalidad. Eso sí, antes de instalar nada asegúrate de que el tema de tu ecommerce y los addons que se encuentren en ella son compatibles con el nuevo elemento.

Sencillez con PSD2

En un intento por hacerlo todo más sencillo, no será necesario introducir el segundo factor de autenticación cada vez que quieras realizar un pago. Durante un plazo de 90 días, el banco recordará que eres tú quien paga y no solicitará la comprobación.

Aunque cada banco llevará una estrategia diferente de cara a la adaptación a PSD2, lo cierto es que todos harán del móvil algo fundamental. Si antes debíamos tener a mano la tarjeta física para realizar pagos, ahora no podremos perder de vista nuestro smartphone; y siempre con conexión a internet, evidentemente. Bueno, y tener la aplicación de nuestro banco siempre actualizada, porque es muy probable que los códigos de confirmación se envíen desde la APP y no con un SMS, para evitar consecuencias del SIM swapping. Auqnue por el momento son muy pocas las entidades bancarias que han rehusado utilizar los mensajes de texto como factor de doble autenticación.

Los doodles de Google, garabatos con arte

Publicado enGeneral en agosto 28, 2019 10:00 am

Ya no nos sorprende entrar en la página principal de Google y darnos cuenta de que su logotipo ha cambiado. Es más, muchas veces es probable que ni nos demos cuenta de que el logo tradicional se ha sustituido temporalmente por un doodle; bien porque nos hemos acostumbrado a su presencia, o simplemente porque no pasamos por la página de inicio de Google. Lo cierto es que los doodles se han convertido en un elemento informativo más de nuestro día a día. Pero, ¿cómo surgió el doodle?

El nacimiento del doodle

La primera alteración del logotipo de Google tuvo lugar un final de agosto de 1998. Larry Page y Sergey Brin se disponían a acudir al Burning Man Festival, un evento de siete días que se celebra en Nevada, Estados Unidos. Antes de marcharse lejos de la civilización, los creadores de Google decidieron notificar en clave de humor a sus usuarios sobre su futura ausencia. Sobre su ‘out of office’ (OoO), justo lo que la unión lo de logotipos sugería de forma sutil. Especialmente por si durante esos días se produjera algún inconveniente que pudiera afectar al funcionamiento de la aplicación o si los servidores se dañaban.

Desde esa primera prueba tuvieron que pasar un par de años hasta que en julio de 2000 apareciera un segundo doodle dedicado al Día de la Toma de la Bastilla. Un proyecto con tan buenas críticas que, además de servir para nombrar a su autor como ‘doodler’ oficial, propició que el doodle se fuera convirtiendo en un indispensable del buscador para comunicar todo tipo de acontecimientos. En un primer momento, dedicados a festividades populares, para después representar también eventos específicos de cada uno de los países.

Repasando los doodles

En estos 21 años el equipo de Google ha creado más de 2.000 piezas diferentes para las páginas de inicio de los principales países en los que el buscador tiene presencia. A la hora de decidir qué eventos se representan se tienen en cuenta numerosas fuentes, desde empleados de Google a usuarios, e incluso es posible sugerir temáticas o personalidades a los doodlers. Asimismo, a partir de los datos de herramientas como Google +, el día de tu cumpleaños la página de inicio se personalizaba con un doodle solo para ti.

Si bien el primer doodle animado no apareció hasta el 21 de mayo de 2010 dedicado a PAC-MAN, actualmente los hay de todos los tipos. Desde aquellos que cambian los colores, los que utilizan una tipografía diferente, hasta los que sirven a modo de videojuego. De ser algo estático han pasado a convertirse en un elemento dinámico con el que interactuar (y que nos hace pasar más tiempo dentro del buscador).

Desde aquel agosto de 1998, el doodle el término ‘garabato’ en inglés adquirió un nuevo significado para convertirse en una herramienta más de Google. ¿Cuál será el próximo y qué celebrará? Solo Google lo sabe.

Todo lo que MSN Messenger fue y lo que quedó en el camino

Publicado enGeneral en julio 24, 2019 10:00 am

Si a finales de los 90 y principios de los 2000s estabas en plena adolescencia puede que sientas una punzadita de nostalgia. Porque hace no tanto la puerta de internet no era Google sino MSN, una serie de servicios creados por Microsoft que nos abrían al mundo y de donde acabaría saliendo su producto estrella: MSN Messenger.

¿Qué fue MSN Messenger?

La primera y arcaica versión de MSN Messenger fue lanzada el 22 de julio de 1999. Una agenda de contactos y la posibilidad de enviar de forma instantánea mensajes en texto plano fue el punto de partida de una aplicación que, con el paso del tiempo, acabaría convirtiéndose en la semilla de nuestras redes sociales.

En los 90 los proveedores de servicios de internet recurrían a los servicios de mensajería como anzuelo para captar (y retener) clientes. Un mercado al que Microsoft llegó un poco tarde pero que, gracias al retraso, pudo crear una app de mensajería que superara las limitaciones de sus competidores. Generalmente, este tipo de servicios solo permitían interactuar con otros usuarios del mismo proveedor. Pero Bill Gates, consciente de que la popularización de internet iba a ser clave para el futuro de sus productos, apostó por una nueva fórmula; un servicio que permitiera chatear con otros usuarios independientemente de cuál fuera su proveedor.

Aunque la idea principal fue que MSN Messenger fuera compatible con otros servicios similares, Microsoft se encontró con que sus competidores, como AIM, no iban a ponérselo fácil. Cada vez que el servicio de Microsoft conseguía ser compatible con AIM, éstos volvían a cambiar su aplicación para que Microsoft no pudiera conectarse a sus servidores. Y así fue hasta que, finalmente, Microsoft descartó esta opción y pasó al modelo tradicional: solo podrían chatear entre sí los usuarios de MSN Messenger. Una serie de intentos frustrados por crear un servicio más global que dieron como resultado el trasvase de usuarios. Quienes (aún) no eran usuarios de MSN, cambiaron de proveedor al no poder seguir chateando con sus amigos. Un movimiento que a Microsoft le salió más que redondo.

MSN Messenger: chat y correo

El único requisito para empezar a utilizar MSN Messenger era tener una cuenta de Hotmail. Un proceso que llevaba apenas unos minutos y durante el que los adolescentes de la época tomamos una mala decisión. Sí, reconoce que una cuenta de Hotmail fue tu primera (y vergonzosa) cuenta de correo. Esa misma que desearías no haber creado nunca, o al menos haber sido lo suficientemente sensato como para haber escogido un nombre diferente. Pero eran cosas de la edad.

La primera actualización llegó solo unos meses más tarde de su lanzamiento. Con los cambios que Microsoft había introducido era posible, entre otras cosas, personalizar la apariencia del chat. Unos meses después sería posible enviar archivos entre PCs y se añadieron capacidades de audio entre ordenadores y los dispositivos móviles de la época. Y, con la llegada de Windows XP en 2001, el sistema operativo x86 más utilizado del mundo, llegaron más cambios en la interfaz, los grupos de contactos y la voz en las conversaciones. En las siguientes actualizaciones llegarían los famosos (y añorados) zumbidos, los emoticonos, los guiños, la posibilidad de mostrar la música que se escuchaba, las videollamadas…incluso jugar con tus amigos a través de la aplicación. Aunque para esta última funcionalidad la escasa velocidad de las conexiones jugaba en contra.

Todas estas y otras muchas opciones convirtieron a MSN Messenger en algo fundamental en la vida de cualquier adolescente. Gracias a MSN ya no era necesario llamar a tus amigos, podías chatear con ellos y sin que nadie cotilleara la conversación. Una sensación de privacidad y cierta independencia en plena edad del pavo que contribuyó a que MSN Messenger siguiera aumentado en número de usuarios.

Más dura fue la caída

El pico máximo de usuarios de MSN Messenger se alcanzó en 2009, a partir de ahí todo empezó a ir cuesta abajo. De tener más de 330 millones de usuarios mensuales en todo el mundo, la aplicación de Microsoft empezó a ver como las cifras empezaban a decaer por la llegada de las redes sociales. Nuevas herramientas de comunicación que lo habían aprendido (casi) todo de las mejoras que habían ido introduciéndose en MSN Messenger. Por ejemplo, el muro de Facebook, y una de las principales razones del comienzo de su éxito, tiene su origen en la barra de estado de MSN. Aquel lugar que, entre otras muchas cosas, se utilizaba para enviar indirectas.

Como en todo, Facebook no fue la primera en aparecer, pero sí la primera en hacer las cosas bien. De ahí que poco a poco fuera robándole usuarios a MSN. Un golpe que se agravó con la llegada de Skype (que Microsoft adquiriría en 2011) y que acabaría de rematar a MSN Messenger cuando aparecieron BlackBerry Messenger y WhatsApp. Si ya estaba siendo duro ver cómo aparecían nuevos servicios que mejoraban las prestaciones de MSN, incorporarlos en un Smartphone fue mortal para la aplicación de Windows. Aunque Microsoft intentó dar el salto a los dispositivos móviles, sus intentos no dieron ningún resultado.

Pero la caída de MSN no llegó sola. Junto a ella, comenzó también el declive del PC. Los teléfonos móviles empezaban a ofrecer las mismas opciones que un ordenador y eran muy capaces de superar sus limitaciones. Y es que ahora podíamos chatear en tiempo real con nuestros amigos desde cualquier parte, más allá de las paredes de nuestras casas y, a diferencia de los SMS, de forma gratuita.

Microsoft no lo vio

Aunque lo tuvieron todo para seguir manteniéndose en el top de servicios más utilizados, Microsoft no lo quiso ver. O simplemente prefirió seguir con su tónica habitual de llegar tarde a (casi) todo. Lo cierto es que la mezcla de Hotmail, el servicio de correo con más cuentas del momento, con MSN Messenger hacía que todos necesitáramos estar en la onda. El problema fue que nuestras necesidades fueron cambiando, pero el servicio no evolucionó.

Quizá, si hubieran introducido algunos pequeños cambios estaríamos celebrando su veinte aniversario intercambiando mensajes en MSN Messenger. Porque, a decir verdad, las funciones que nos ofrecía MSN no distan mucho de lo que obtenemos con Facebook, Twitter o Instagram. A excepción de la posibilidad de ver lo que ha ocurrido mientras que no estábamos conectados, algo con lo que hasta ese momento MSN no había probado.

El ser humano necesita comunicarse, pero también cotillear y conocer lo que pasa cuando está ausente. Y en eso Microsoft no cayó, o al menos no a tiempo.

Llega HTTP/3, la última (y renovada) versión de HTTP

Publicado enGeneral en junio 5, 2019 10:00 am

HTTP es uno de los principales protocolos que posibilitan el funcionamiento de internet. Un protocolo de comunicación cuya primera versión aún sigue en uso entre aquellos usuarios que aún no han instalado en su sitio web un certificado de seguridad SSL. Y es que para utilizar HTTP/2, actualmente la última versión de HTTP, es necesario tener una web cifrada ya que los principales navegadores no cuentan con soporte para HTTP/2 sin SSL.

Aunque la adopción de HTTP/2 sigue en aumento, en su obsesión por intentar mejorar la velocidad de las páginas webun grupo de trabajo lleva unos años trabajando en QUIC, el nuevo protocolo HTTP/3.

De HTTP/1 a HTTP/2

Con el tiempo el número de usuarios en internet ha ido creciendo y las conexiones se han hecho cada vez más rápidas. Por no hablar de que la complejidad y frecuencia de los ciberataques ha evolucionado casi en la misma proporción. Todo ello ha ocasionado que el número de peticiones que se realizan desde un cliente a un servidor haya aumentado y que sea necesario implementar medidas de seguridad más potentes.

En este sentido, el HTTP original maneja de forma independiente cada una de estas peticiones, estableciendo una conexión diferente para cada una de ellas, además de no ser un protocolo cifrado por defecto. Esto puede hacer que si alguna de las peticiones es lenta se acabe produciendo un bloqueo en los encabezados de línea (HOLB). En este caso, todas las peticiones que sigan a esa petición lenta serán igualmente lentas y acabará perjudicando al sitio web.

HTTP/2 y la gestión de peticiones

Para solucionar este problema de gestión de las peticiones, HTTP/2 introdujo la multiplexación. Una técnica que permite responder a diferentes peticiones de forma simultánea utilizando una misma conexión. Este gran cambio que hace que no sea necesario esperar a que se complete una petición para iniciar otra, consiguió mejorar la velocidad de carga de una página web siempre que no se produzcan problemas de conexión. A pesar de que, técnicamente, HTTP/2 consigue mejorar la velocidad de carga, la nueva versión del protocolo no ha podido escapar de las limitaciones de TCP.

Al enviarse todas las peticiones en una única conexión TCP, todos los paquetes dependen de que el protocolo haga bien su trabajo. Así, en el caso de que se perdiera alguno de estos paquetes, los que han sido correctamente enviados tendrán que esperar a que se consiga recuperar todos aquellos que se han perdido. Porque solo será posible establecer la conexión cuando todos los paquetes se hayan entregado correctamente.

Más allá de los problemas ocasionados por las limitaciones de TCP, HTTP/2 se ha encontrado con que en algunos casos la velocidad de carga no solo no se mejora, sino que se empeora. Esto se debe a que para poder utilizar HTTP/2 es necesario tener instalado un certificado de seguridad en la web. Y, en ocasiones, el cifrado puede hacer que los tiempos de respuesta del sitio web aumenten.

HTTP-over-QUIC o HTTP/3

Prácticamente desde que se presentó HTTP/2 se ha trabajado por seguir mejorando el protocolo HTTP. Tanto que en 2017 Google ya había publicado una guía sobre QUIC, su segunda tecnología experimental que al igual que SPYDY acabaría convirtiéndose en un protocolo. Así, si SPDY supuso el nacimiento de HTTP/2, QUIC haría lo propio con HTTP/3.

La principal diferencia entre ambos protocolos nacidos de la experimentación de Google es que HTTP/3 supone una redefinición de HTTP. Y es que el protocolo HTTP/3 no se basa en TCP, como han hecho las anteriores versiones de HTTP, sino que apuesta por UDP como protocolo de transporte. Una declaración de intenciones que se encuentra en el nombre que Google le dio a su versión preliminar: QUIC – Quick UDP Internet Connections.

El motivo por el que el equipo de Google optó por UDP como forma de escapar de las limitaciones de TCP es que ambos protocolos de transporte son soportados por la gran mayoría de los dispositivos. Optar por otro protocolo hubiera supuesto, además de la redefinición de HTTP, la de todos los sistemas operativos, aplicaciones y equipos. Aun así, UDP no goza de la misma popularidad que TCP, el considerado protocolo de moda desde hace unas cuantas décadas.

En un primer momento el equipo de Google decidió que QUIC se basaría únicamente en el transporte HTTP recurriendo a la sintaxis de HTTP/2. Tras las recomendaciones del IEFT se modificó para que pudiera transportar más que solo HTTP y que recurriría a TLS 1.3 como forma de cifrado. Además de posibilitar la compatibilidad retroactiva al hacer que HTTP/3 incluya a sus versiones anteriores en la respuesta. Una serie de cambios que mejoran la velocidad del protocolo y reducen su latencia al simplificar el proceso de negociación.

Resolviendo los problemas de HTTP/2

Esta última versión de HTTP supone una nueva forma de resolver los problemas del protocolo valiéndose de UDP para acelerar las conexiones. Un aspecto especialmente relevante en el caso de redes lentas en las que, además de una gran latencia, se pierden muchos paquetes.

Con HTTP/3 dejan de producirse los problemas de flujo experimentados por HTTP/2. Cada petición que se realice en la nueva versión de HTTP se responderá de manera independiente. De forma que incluso si una petición fallara el resto llegarían a su destino, en lugar de tener que esperar a que se recuperen los paquetes perdidos. Lo que hará que mejore la experiencia de usuario y que la velocidad de carga del sitio web no se vea perjudicada.

Más allá de las mejoras en cuanto a velocidad y eficiencia de los paquetes que se envían, HTTP/3 estará cifrado por defecto. Algo que en HTTP/2 solo se conseguía mediante la instalación de un certificado SSL, ya que el estándar HTTP por sí mismo no está encriptado.

HTTP/3 en la actualidad

En este momento el protocolo se encuentra en un plan preliminar que expirará en apenas unos días. A partir de ese momento, HTTP/3 pasará a convertirse en un estándar oficial.

El propósito de Google es que con el tiempo QUIC-HTTP/3 se convierta en el sustituto de los clásicos TCP y UDP. Una nueva forma de mover datos con mayor rapidez y seguridad, al ser un protocolo cifrado por defecto, que ya ha sido probado. Teniendo en cuenta la multitud de servicios de Google, la compañía implementó en 2013 HTTP-over-QUIC en gran parte de internet sin necesidad de esperar a la aprobación de la IEFT, el organismo encargado de regular estándares en internet. De tal manera que en 2017 un 7% del tráfico total de internet ya utilizaba QUIC. Aunque otras grandes empresas como Facebook también han comenzado a aceptar el protocolo HTTP/3, solo un 1.2% de los servicios son compatibles con esta tecnología.

Por el momento, esta intención se ha encontrado con dos obstáculos. Por un lado, que hasta ahora los únicos navegadores que soportan QUIC son Chrome y Opera. De forma que si utilizas cualquier otro la conexión se producirá a través de HTTP/2, siempre que se cuente con una web cifrada bajo HTTPS; sino, se estará utilizando HTTP/1. Por otra parte, hay muchos que consideran que se trata de un cambio muy precipitado teniendo en cuenta que la adopción de HTTP/2 no llega al 40%.

Es evidente que HTTP/2 ha mejorado la velocidad de carga de los sitios web pero no ha conseguido superar algunas de las limitaciones que le ha impuesto el uso de TCP. Problemas que, técnicamente, se solucionarían con el cambio de protocolo a HTTP/3, algo que podría comenzar en las próximas semanas.

10 años de servicios en la nube

Publicado enGeneral en mayo 8, 2019 10:00 am

Para nosotros hoy no es un día cualquiera. Tal día como hoy, un 8 de mayo de 2009, Linube vino al mundo. Bueno, al Registro Mercantil, y entonces aún no nos llamábamos así si no Blackslot. Pero esa parte de la historia ya os la contamos hace algún tiempo. La cosa es que si aquel viernes de mayo nos hubieran preguntado dónde creíamos que estaríamos diez años después, seguro que no acertábamos en nuestra respuesta. No es fácil prever (y acertar) a tantos años vista, ni siquiera el mejor de los futurólogos podría habernos dicho que seguiríamos al pie del cañón. Lo de trabajar sin descanso para ofrecer siempre el mejor servicio, en cambio, sí que lo teníamos muy claro.

3.650 días de servicio

En esta primera década de vida, que se dice pronto, hemos ido adaptando nuestra oferta a las tendencias del sector. Al igual que ocurre con todo lo relacionado con internet, el mundo del hosting avanza a pasos agigantados. Así, en este tiempo hemos pasado de ofrecer servidores dedicados y VPS a sacar productos que aúnan y mejoran lo mejor de los anteriores: nuestros servidores cloud. Alojamientos personales y personalizados según las necesidades de cada cliente o cada proyecto. Porque si algo caracteriza al cloud es su capacidad de configuración para que el crecimiento de un proyecto web no tenga que depender de migraciones entre servidores.

Más allá del alojamiento web, en estos diez años hemos ido ofreciendo otros servicios complementarios para que nuestros clientes puedan tenerlo todo en el mismo lugar. Desde la gestión de su dominio, al desarrollo de un nuevo proyecto o la administración de su servidor sin importar que se encuentre, o no, en nuestras plataformas cloud. Tareas que requieren de conocimientos técnicos y, sobretodo, de tiempo para llevarlas a cabo. Algo que nosotros podemos hacer por ti para que tú no tengas que pensar en nada más allá de la gestión de tu negocio.

Una década de proyectos

En este tiempo hemos visto nacer muchos proyectos y visto cómo crecían otros tantos. Siempre hemos dicho que crecemos con nuestros clientes y no podría haber una definición más acertada para explicar qué es lo que hacemos. Sin nuestros clientes, y todo lo que hemos ido aprendiendo gracias a ellos, no seríamos lo que hoy somos. Ni probablemente estaríamos en el mismo sitio, o al menos no en las mismas condiciones.

Cada uno de nuestros clientes son los verdaderos protagonistas de nuestros diez años de historia y nuestro principal objetivo al desarrollar nuevos productos o servicios. En Linube trabajamos día a día por crear nuevos servicios que faciliten la gestión de los proyectos web de nuestros clientes y garanticen la máxima seguridad a sus negocios.

Diez años (más) de Linube

La historia de Linube ha sido testigo de la evolución de internet, de cómo internet se ha convertido en un servicio tan básico y necesario para cualquier empresa. Además, en un mercado cada vez más exigente como es el de los proveedores de alojamiento web, nosotros trabajamos por ampliar nuestra oferta sin perder de vista el cloud. Así, hemos pasado de ofrecer VPS y servidores dedicados a centrarnos en la nube y desarrollar todo tipo de soluciones: Cloud Backup, Nextcloud, Planes de contingencia (DRS)… además de administrar servidores en otras plataformas cloud como la de Amazon.

Una búsqueda constante de la innovación y de la aplicación de las nuevas tecnologías para crear el servicio más personalizado en una infraestructura de la mejor calidad. Un trabajo constante que nos permita ofrecer mayores prestaciones al mejor precio. Por el momento hemos añadido nuevos servicios como la Optimización de sitios web (WPO), pero aún queda mucho por venir. Y no es solo que cada vez tengamos más productos, sino que cada vez queremos hacerlo mejor. Y eso, lo vamos a conseguir.

¿Qué son los crawlers y cómo influyen en los sitios web?

Publicado enGeneral en abril 10, 2019 10:00 am

Nacido con un claro propósito militar que permitiera asegurar las comunicaciones entre instituciones ubicadas en diferentes puntos geográficos, la rápida y continua evolución de internet a lo largo de su (corta) historia ha hecho que internet se convierta en lo que actualmente conocemos. Para ello, fue de vital importancia la integración del contenido presente en internet a través de enlaces o hipervínculos. Aunque pueda parecer lejano, no fue hasta 1998 cuando una nueva empresa decidió analizar y organizar los enlaces para hacer accesible al usuario el contenido que se encontraba en internet. Aquella nueva empresa que tuvo la idea de crear un ejército de crawlers fue Google.

¿Qué son los crawlers?

Un crawler, rastreador, indexador, araña… es un pequeño programa informático que analiza las páginas web de forma automática. Su principal objetivo es seguir cada uno de los enlaces que se encuentra en cada sitio web; posteriormente, almacenará en sus bases de datos una copia de todo lo que encuentra. De esta forma, se crea una red de interconexiones que une los millones de páginas web que se encuentran en internet y todo el contenido de cada una de ellas.

Además de la creación de índices de búsqueda a partir de toda la información contenida en sus bases de datos, los crawlers también permiten encontrar enlaces rotos o crear catálogos. Así, toda la información recopilada en cada una de las visitas de los crawlers sirve, entre otras cosas, para crear los resultados de búsqueda que los navegadores muestran en base al contenido indexado. En este caso, lo que Google muestra al realizar una determinada búsqueda utilizando su navegador.

¿Cómo funcionan estas arañas?

  1. Un crawler visita una lista que contiene una serie de URLs, las analiza y descarga su HTML. Los bots o crawlers únicamente leen código, de ahí que se queden con una copia del HTML de cada uno de los sitios web. Estas copias serán almacenadas en sus servidores, en este caso los de Google. También es necesario tener en cuenta que, si el código de la página web no cumple con ciertos estándares, el posicionamiento SEO se verá afectado.
  2. A continuación, los crawlers identifican cada uno de los enlaces que contienen las URLs que ha visitado y los añaden a sus listas. La próxima que vayan a visitar una de las URLs de la lista, seguirán también cada uno de los enlaces que estas contienen.
  3. Como de cada una de las páginas web salen infinidad de enlaces, tanto internos como externos, llegado un punto los crawlers deciden abandonar la misión; es decir, dejar de rastrear los enlaces de los enlaces a los que a llegado a partir del análisis de un sitio web. Esto generalmente ocurre en el nivel 3 y se denomina frontera de rastreo.
  4. Cuando finaliza la tarea de rastreo y almacenamiento, el algoritmo analizará todo el contenido para extraer entre tanta información solo aquello que le interesa. Es decir, qué es lo que quiere indexar o posicionar en sus resultados de búsqueda.
  5. Con toda la información recopilada se crea un índice. Estos índices de búsqueda serán los resultados que muestre el navegador al realizar una determinada búsqueda.
  6. A fin de actualizar la información de sus bases de datos, los crawlers vuelven a las mismas URLs con cierta frecuencia. Así, verifican que todo está tal y como se encontraba en su última visita; o, si por el contrario, si se ha añadido o eliminado contenido o corregido errores.

Las políticas de crawlers

El funcionamiento de los crawlers se corresponde con unas determinadas políticas de comportamiento. Unas normas que, por regla general, siguen todos los rastreadores de este tipo:

  • Selección. Puesto que es imposible rastrear todo el contenido que se encuentra en internet, los crawlers tienen que decidir qué páginas se descargan. Por lo tanto, también estarán decidiendo cuáles optan por ignorar.
  • Re-visita. Una vez se han descargado el código HTML de una web, tienen que decidir cuándo volverán a visitarla. Esta nueva visita servirá para actualizar el contenido que almacenan en sus bases de datos. Estas re-visitas de los crawlers pueden forzarse si queremos que se indexen los cambios que se han introducido en la web.
  • Cortesía. Para evitar sobrecargar el servidor con sus peticiones, los crawlers cuentan con una política de cortesía. Esto permite al servidor seguir operando con normalidad mientras las arañas hacen su trabajo.
  • Paralelización. Los crawlers se coordinan entre sí para no pasar todos por las mismas URLs. De esta forma pueden realizar su trabajo de una forma más eficiente.

¿Los crawlers afectan al servidor?

Al publicar una nueva web, es necesario hacerle saber a Google que hay una nueva página y que no está indexada; si la web contiene muchas páginas, es recomendable enviar el sitemaps. Google, al recibir, la noticia envía a uno de sus crawlers a visitar esta nueva página web.

Pero Google no es el único crawler que existe; también podemos cruzarnos con los bots de SEMrush, Ahrefs, Majestic SEO, Screaming Frog, Sistrix… La principal diferencia es que los rastreadores de Google suelen acudir solos a visitar las webs; mientas que el resto acostumbran a ir de la mano de otros crawlers. Es decir, si el bot de SEMrush entra a rastrear tu web, lo hará junto a todos los demás.

Aunque estas herramientas puedan ser de gran ayuda para mejorar el SEO de una web, también pueden dejar inoperativo el servidor. Al entrar varios crawlers a la vez en una misma URL el servidor se satura, haciendo que se quede sin recursos o que funcione más lento de lo habitual. Con tantos crawlers se produce un número de peticiones que el servidor no puede responder, algo similar a lo que ocurre durante un ataque DDoS. Para evitar que los crawlers puedan afectar al funcionamiento de tu servidor, es recomendable bloquear algunos. En ningún caso bloquees el rastreador de Google, ya que podrías acabar desindexando toda tu web.

En el caso de que por cualquier motivo no sea posible bloquear ninguno de esos crawlers, tendrás que aumentar los recursos del servidor. De esta forma se evitará que el servidor acabe perjudicado por las peticiones de tantos rastreadores a la vez.

La creación de los crawlers mejoró el funcionamiento y la accesibilidad en internet que no en el ciberespacio, pero como en todo, los excesos no son nada buenos.