944 063 154

Blog

Módulos imprescindibles para sacarle el máximo partido a PrestaShop

Publicado enDesarrollo y Programación en agosto 21, 2019 10:00 am

PrestaShop es uno de los gestores de contenido más utilizados para el desarrollo de una tienda online. La versatilidad que proporciona la multitud de módulos PrestaShop es una de las principales características del CMS. Así, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan.

¿Qué son los módulos PrestaShop?

Los módulos PrestaShop son extensiones o complementos que añaden más funcionalidades al gestor de contenidos, en este caso PrestaShop. Gracias a ellos, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan. Una capacidad que va desde la parte estética a la técnica y que apenas requiere de configuraciones.

Al igual que ocurre con los plugins de WordPress, te recomendamos descargarlos desde el sitio oficial. En la misma web de PrestaShop encontrarás una amplia variedad de módulos que te permitirán incluir nuevas funciones en tu tienda online. Como en el caso de WordPress, recuerda instalar únicamente aquellos módulos PrestaShop que necesites; ya que un exceso de módulos puede perjudicar al rendimiento de tu tienda online, además de provocar vulnerabilidades si no se actualizan con frecuencia.

Principalmente los módulos PrestaShop pueden clasificarse en tres categorías:

  • De personalización de la interfaz o de la tienda online. Este tipo de complementos permiten modificar los aspectos visuales, tanto del panel de gestión del administrador como de la propia página del comercio electrónico. Con estos módulos es posible modificar los menús o las fichas de producto, añadir banners o realizar modificaciones en periodos determinados como rebajas o el Black Friday.
  • De tareas empresariales. Gestionar los envíos, ofrecer descuentos, recuperar carritos abandonados, mejorar el SEO de la tienda online… extensiones que facilitan la realización de tareas necesarias para el óptimo funcionamiento del negocio; no solo de la tienda online.
  • De integración con otras herramientas. Algunas funciones, como el pago de los pedidos, requiere de una pasarela de pago; plataformas externas que aumentan las funcionalidades del comercio electrónico.

Módulos imprescindibles

  • Aviso de cookies. Con la llegada de la RGPD, e incluso antes, es fundamental que tu tienda online advierta al usuario de todas las cookies que se utilizan en el sitio. Para ello basta con instalar un simple módulo PrestaShop que, con unas pequeñas configuraciones, realizará esta función a la perfección.
  • Recuperación de carritos abandonados. No es nada extraño ver qué se ofrece en una tienda online y comenzar una compra que no se finaliza. En estos casos, contar con un módulo para carritos abandonados permitirá cerrar muchas ventas que de otra forma se hubieran quedado en el camino. Además, este tipo de extensiones permiten ofrecer descuentos o envío gratuito a través de un email recordatorio para animar a finalizar el pedido.
  • Módulo de caché. La velocidad de carga de la tienda online es un aspecto fundamental para el usuario y también para posicionar mejor en buscadores. Cada visita que llega al comercio electrónico es una venta potencial que no deberíamos perder y menos por algo que está totalmente en nuestras manos. Con un módulo PrestaShop de caché es posible optimizar el ecommerce con facilidad.
  • Pasarelas de pago. Una tienda online no sería tal sin una pasarela de pago que permita finalizar el pedido. Como existen muchos tipos de usuarios, es recomendable que ofrezcas más de una forma de pago. De forma que no estés limitando las opciones a aquellos que tienen cierto reparo a la hora de realizar pagos a través de internet. Redsys, PayPal, transferencias, contra reembolso… son algunas de las opciones.

Módulos recomendables

  • Feed de Instagram. Si utilizas esta red social para conectar con tus usuarios, este módulo PrestaShop es casi fundamental. Además, podrás conectar tu tienda online con el perfil de Instagram y vender también a través de la red social.
  • Newsletter con Mailchimp. Enviar periódicamente comunicaciones comerciales a tus suscriptores es una buena forma de invitarles a volver a tu tienda online. Si, además, realizas envíos personalizados y diferentes o incluyes algún tipo de descuento, cada email será una venta casi segura.
  • Módulos para SEO. Trabajar el contenido de tu tienda online es un aspecto básico para hacerla más visible y facilitar la llegada de futuros compradores. Este tipo de módulos, además de facilitar la conexión del ecommerce con Google, permite optimizar los títulos, las descripciones y las etiquetas sin necesidad de realizar cambio alguno en el código.

Módulos PrestaShop recomendables

  • Buscador avanzado. Aunque PrestaShop incluye por defecto un buscador, es algo limitado. Para ponérselo muy fácil a tus usuarios, te recomendamos instalar un buscador que simplifique la tarea de encontrar un producto determinado en la tienda online.
  • Venta cruzada. Sugerir productos relacionados con el artículo en el que el usuario está interesado es una técnica para aumentar las ventas. Para que tu tienda online ofrezca esta funcionalidad solo tienes que instalar un módulo que se encargue de realizar esta función.
  • Preguntas frecuentes. Proporcionar el máximo de información posible al usuario ayuda a que tome una decisión, en este caso acabar comprando en el comercio electrónico. Por eso es recomendable contar con un módulo PrestaShop para preguntas frecuentes donde se resuelvan las dudas habituales relacionadas con algunas características del servicio como los envíos o la gestión de las devoluciones.
  • Crear un blog. Aunque no se trata de un módulo PrestaShop, incluir en la tienda online un blog es una buena forma de generar contenido. A los buscadores les gusta que los sitios web se actualicen de forma constante. Así, contar con un blog permitirá estar creando contenido relacionado con las palabras clave del negocio, algo fundamental para contribuir a mejorar el SEO del ecommerce.

Sacarle el máximo partido a una tienda online creada a partir de un CMS es fácil si cuentas con los módulos PrestaShop adecuados; y si están correctamente configurados. Pero no debemos olvidar que el mejor complemento es siempre el sentido común. Así que no te olvides de realizar copias de seguridad de tu ecommerce y no instales en tu PrestaShop todo aquello que no necesites. De esta forma tu tienda online siempre funcionará de la mejor manera.

El primer sistema ecommerce permitió realizar un pedido a través de una TV

Publicado enDesarrollo y Programación en agosto 14, 2019 10:00 am

Al día se realizan en el mundo miles y miles de compras online, lo que muy pocos saben es que la primera persona que consiguió realizar una compra online fue una señora inglesa. Jane Snowball consiguió hace más de 35 años realizar un pedido a Tesco a través del primer sistema ecommerce de la historia. Una compra para la que no se utilizó ningún ordenador sino la televisión instalada en la salita de la mujer.

Videotex, el primer sistema ecommerce

Un día cualquiera de 1979 cuando Michael Aldrich, un inventor inglés, se encontraba paseando con su mujer pensó que sería una buena idea crear un sistema que le librara de tener que ir hasta el supermercado. Aquella falta de ganas por ir a hacer la compra se materializó en Videotex, el primer sistema de ecommerce de la historia.

La peculiaridad de este sistema es que no dependía de un ordenador, sino de una televisión. Tengamos en cuenta que, en aquel momento, ni los ordenadores domésticos ni internet, ni siquiera la web, se habían popularizado aún. De ahí que Aldrich optara por investigar con lo que tenía más a mano. Durante sus primeros años Videotex fue utilizado por algunas empresas para hacer negocios a distancia, pero no fue hasta 1984 cuando el primer sistema ecommerce llegó al usuario general.

Aquel año el ayuntamiento de Gateshead estaba experimentando con una iniciativa para personas mayores o con problemas de movilidad. La idea era permitirles hacer algunas de sus tareas diarias, como ir al supermercado, sin tener que salir de sus casas. Para ello, el sistema de Aldrich era perfecto. Una televisión que había sido modificada para realizar pedidos en tiempo real a través de un sistema de estética similar al Teletexto.

Un funcionamiento peculiar

A pesar de que no puede ser considerada como la primera compra online, puesto que el pedido se pagó en metálico, no cabe duda de que la compra realizada por Jane Snowball fue algo sin precedentes. La mujer solo tuvo que dejar de ver durante unos minutos su serie favorita para realizar su pedido desde su televisión. Un aparato al que se le había instalado un chip que a través del botón ‘phone’ del mando a distancia mostraba un directorio de supermercados locales. De entre esa pequeña lista de comercios era posible escoger entre más de mil productos. El pedido se enviaba a través de la línea de teléfono y se pagaba en metálico cuando se recibía en el domicilio.

Este sistema permitía transformar en un ordenador cualquier televisión estableciendo una conexión directa entre el televisor y la tienda. Pese a que se trataba de una buena idea, apenas tuvo éxito porque requería de una gran inversión para el poco uso y beneficio económico que reportaba. Además de que, para cuando otros ayuntamientos fueron a implantarlo, internet ya había llegado a nuestras vidas. Después llegarían eBay, Amazon y todos los demás para convertir al ecommerce en un canal de venta masivo.

Tres décadas de ecommerce

Llevamos más de 30 años comprando a distancia de una forma u otra. Y, muy posiblemente, sin el invento de Michael Aldrich y su primer sistema ecommerce, el comercio electrónico que conocemos actualmente no sería igual. La idea de un adelantado a su tiempo que demostró que podíamos hacer casi cualquier cosa desde el sofá, incluso la compra diaria.

Con el paso de los años Aldrich trabajó para el gobierno de Margaret Tatcher, Tesco se convirtió en una de las primeras tiendas online y la señora que realizó el primer pedido fue reconocida por su papel en la iniciativa. El único problema de todo aquello es que apenas se conservan registros. En ese momento no se consideró que el primer pedido realizado a través de un sistema ecommerce fuera a ser trascendente. Eso y que fue necesaria una década hasta que los comercios se dieron cuenta del enorme potencial de aquel experimento.

Internet, una red de cables submarinos que rodea el planeta

Publicado enHosting en agosto 7, 2019 10:00 am

Aunque parece que vuelan, tus emails no se envían por paloma mensajera; tampoco los angelitos velan por la seguridad de tus backup. En un mundo de conexiones inalámbricas, las verdaderas conexiones se realizan a través de cables. Autopistas de cables submarinos de fibra óptica que, con sus pulsos de luz, hacen que cualquiera de nuestras peticiones llegue a misma velocidad. En apenas unas milésimas de segundo los datos son capaces de recorrer miles de kilómetros; desde nuestro dispositivo hasta el servidor en el que se encuentra la información y vuelta.

Millones de kilómetros de cables submarinos

Las verdaderas conexiones no tienen lugar en el aire, tampoco se encuentra flotando la banda ancha que contratamos a nuestro operador de telefonía. El 99% de las comunicaciones a través de dispositivos se realiza en el fondo del mar; así, cuando decimos que los datos ‘viajan’ igual deberíamos decir que ‘nadan’.

Internet no es un ente que nos permite solucionar nuestras dudas en segundos o comunicarnos a tiempo real con nuestros amigos. Internet es un conjunto de máquinas conectadas a través de cables submarinos que nos permite realizar casi cualquier cosa desde nuestros dispositivos. Pero todo esto no sucede de forma mágica, internet además de ser algo físico, también hace ruido. Al igual que podemos ver la red de metro de una ciudad, incluso podemos escuchar cuando los vagones están en circulación, con internet sucede algo parecido. La parte física la componen un montón de equipos y los miles de kilómetros de cables submarinos encargados de unir todas esas máquinas; la sonora, las máquinas a pleno rendimiento en lugares especialmente acondicionados para su funcionamiento. Por lo que internet no solo es visible y hace ruido, internet también es frío.

Rutas de buques de carga

La historia de los cables submarinos se remonta a 1850 cuando Francia e Inglaterra plantearon el primer sistema de telégrafo, una infraestructura que atravesaría el Canal de la Mancha pero que sufrió su primera avería solo unas horas después de ponerse en marcha. Aunque a nivel técnico la infraestructura actual poco tiene que ver con la creada durante el siglo XIX, el aspecto del trazado es prácticamente el mismo a excepción de la inexistencia de conexiones con Asia.

En 2018 se estima que había más de 448 cables submarinos conectando diferentes puntos de la tierra. Una cifra que a buen seguro habrá aumentado porque cada año entran en funcionamiento nuevos cables. Como por ejemplo Equiano, que estará listo a finales de 2020, o Marea, el último cable que conecta España. Además de las nuevas oportunidades comerciales que está propiciando el deshielo provocado por el cambio climático; como lo ocurrido en el Ártico.

Sin ninguna duda esta infraestructura ha sido clave para el avance de la sociedad. La necesidad de más conexiones y de mejor calidad ha provocado que la longitud de estas autopistas de cables en línea recta sea, aproximadamente, la misma que separa la Luna de la Tierra: más de un millón de kilómetros.

Fragilidad submarina

Aunque los cables submarinos descansan en el fondo del mar y están protegidos, en ocasiones esa distancia no es suficiente para asegurar que los cables no sufren daños. Esto no es más que la evidencia de que internet no es una red indestructible, sino todo lo contrario: es bastante vulnerable. Tanto en el mar, como en su salida a tierra o en las tareas de manejo los cables submarinos son extremadamente sensibles. Un corte en uno de los cables submarinos puede dejar sin servicio a un país entero y, en este sentido, se estima que anualmente unos 150 cables sufren algún tipo de daño.

La gran mayor parte de los problemas tienen que ver con la actividad humana. Las redes de barcos o las anclas de algunos buques suelen ser culpables habituales de la rotura de los cables submarinos ubicados a más de 100 metros de profundidad. Asimismo, la ubicación de los cables submarinos es pública lo que en casos puntuales provoca que se dañen intencionadamente al no ser necesarios grandes recursos ni habilidades para estropearlos. Pero no solo los grandes barcos ni el hombre tienen la culpa, algunos animales marinos pueden dañarlos al confundirlo con presas o al utilizarlos para esconderse de los depredadores. Además, algunos desastres naturales como terremotos o maremotos pueden estropear los cables submarinos.

Más allá de las molestias causadas por el corte, los daños en los cables submarinos pueden ocasionar pérdidas millonarias. En la actualidad la gran mayoría de los servicios dependen en mayor o menor medida de internet, por lo que un corte en el servicio puede ser fatal. Los expertos recomiendan ocultar los lugares en que se ubican los cables, reforzar los puntos de entrada y salida a tierra y mejorar los sistemas de monitorización. Una serie de inversiones que permitirían hacer mucho más fuerte la red de cables submarinos que nos permiten conectarnos a cualquier parte del mundo.

Fog computing, la tecnología que hace más accesible el cloud

Publicado enServidores cloud en agosto 1, 2019 10:00 am

Cuando ya habíamos empezado a familiarizarnos con el cloud computing, aparece un nuevo término informático-meteorológico en nuestras vidas: el fog computing. Aunque a decir verdad el término, y el concepto, llevan ya algún tiempo en nuestro día a día. Cosa bien diferente es que esté ganando protagonismo en los últimos tiempos.

La niebla informática

En un primer momento podría parecer el nombre de una novela de terror, pero pensándolo bien el término acaba por cobrar mucho sentido. Más o menos lo mismo que pasó la primera vez que nos enfrentamos a aquello de la computación en la nube.

Así, si las nubes son un conjunto de minúsculas gotas de agua que se encuentran muy por encima de nuestras cabezas; la niebla serían esas mismas gotas flotando mucho más cerca del suelo. De la misma manera, la tecnología cloud puede parecer algo remoto e inalcanzable mientras que el fog computing está más cerca de nosotros. Podríamos decir que se trata de una extensión del cloud pero con una serie de características que le diferencian de un servicio superior y sin el que el fog computing no tiene sentido.

¿Qué es el fog computing?

También llamado edge computing porque tiene lugar al borde de la red, la tecnología en la niebla se ocupa del procesamiento de los datos en el limbo que separa los dispositivos de la nube. Una especie de niebla tecnológica que se encarga de unir nuestros dispositivos inteligentes con el espacio en la nube en el que se almacenará esa información.

Con la aparición del internet de las cosas y con el constante crecimiento de dispositivos conectados, cada vez se generan más y más datos. Una información que deberá enviarse a la nube para ser almacenada, algo que aumenta el consumo de datos y el ancho de banda del dispositivo. Para evitar un excesivo consumo de recursos entra en juego el fog computing. Una tecnología que, simplificándolo al máximo, viene a ser el intermediario entre nuestros dispositivos y la nube.

Si cada vez que generamos datos tuvieran que enviarse directamente a la nube, los dispositivos funcionarían más lentos. Gracias al fog computing, la información se procesa en el propio dispositivo, se cifra y se envía a modo de resumen a nuestro espacio en la nube. Haciendo que los dispositivos tengan un rendimiento mayor y consuman solo los recursos necesarios, además de acercar el cloud de una forma más eficiente según las características del dispositivo.

Por ejemplo, si los equipos de domótica que equipan algunos hogares tuvieran que enviar constantemente los datos a la nube, el simple hecho de intentar apagar una luz llevaría unos cuantos segundos de más. En cambio, con el fog computing en lugar de enviarse directamente cada una de las peticiones, se envía un resumen de las mismas. Esto hace que prácticamente al enviar la orden, la luz que hemos seleccionado se apague; además de evitar que los procesos tengan que realizarse dos veces.

Puntos positivos

De alguna manera el fog computing propone una solución a los problemas relacionados con la implantación del internet de las cosas. Con esta tecnología se consigue reducir el tráfico entre los dispositivos inteligentes y el almacenamiento en la nube a la vez que se ahorra en costes. Al enviarse menos información y ya procesada, tanto el tamaño del archivo como el número de envíos es menor haciendo que se reduzca el consumo de datos; además de evitarse la formación de cuellos de botella.

Asimismo, consigue solventar uno de las principales inseguridades que la tecnología cloud despierta en los usuarios: el control sobre los datos. Así, el fog computing otorga al usuario un control más visible sobre la información que el mismo genera. Puesto que todos los datos se originan en los dispositivos y se procesan de forma local, el usuario percibe un mayor control sobre sus datos; aunque en la nube también obtenga el dominio total, por la intangibilidad de la tecnología parece algo más lejano e incierto.

Pero sin duda el punto más fuerte del fog computing respecto al cloud es la posibilidad de funcionamiento offline. Mientras que la tecnología en la nube requiere de una conexión entre dispositivos y el almacenamiento para funcionar, el fog computing es capaz de seguir almacenando información incluso si no ha sido posible establecer una conexión. Cuando vuelva a producirse la conexión, el dispositivo enviará los datos ya tratados al espacio en la nube.

Lo gris del fog computing

Procesar los datos al borde de la red, aunque se esté en interacción con el cloud, también tiene su lado malo. Por ejemplo, es mucho más sencillo manipular o alterar un dispositivo para acceder a sus datos que hacerlo en un Centro de Datos en la nube. Del mismo modo durante el envío de los datos del dispositivo a al almacenamiento cloud hay más probabilidades de que se produzcan ataques de intermediario; es decir, cuando alguien no autorizado intenta acceder a la información durante la transmisión.

También hay que considerar que el fog computing al depender de un dispositivo físico no está redundado. Lo que quiere decir que en caso de que el dispositivo principal sufra cualquier daño, la información podría perderse. O al menos sí lo haría la conexión con el almacenamiento cloud, hasta que el dispositivo emisor pueda ser restaurado. Algo que va directamente relacionado con una mayor necesidad de mantenimiento como consecuencia de la descentralización de los datos; es decir, al no encontrarse todo almacenado en la nube.

En relación al procesamiento de los datos, como únicamente se envía a la nube un resumen de la información, se reduce la visibilidad de lo que realmente sucede. Así, en el caso de que necesitáramos acceder a los datos en bruto, no sería posible más que obtener un resumen de ello.

Aunque algunos caigan en el error de considerar el fog computing como una tecnología alternativa al cloud, el primero nunca podrá ser sin el segundo. Es decir, el fog computing tiene como objetivo maximizar los beneficios de la tecnología en la nube y acercársela al usuario.

Todo lo que MSN Messenger fue y lo que quedó en el camino

Publicado enGeneral en julio 24, 2019 10:00 am

Si a finales de los 90 y principios de los 2000s estabas en plena adolescencia puede que sientas una punzadita de nostalgia. Porque hace no tanto la puerta de internet no era Google sino MSN, una serie de servicios creados por Microsoft que nos abrían al mundo y de donde acabaría saliendo su producto estrella: MSN Messenger.

¿Qué fue MSN Messenger?

La primera y arcaica versión de MSN Messenger fue lanzada el 22 de julio de 1999. Una agenda de contactos y la posibilidad de enviar de forma instantánea mensajes en texto plano fue el punto de partida de una aplicación que, con el paso del tiempo, acabaría convirtiéndose en la semilla de nuestras redes sociales.

En los 90 los proveedores de servicios de internet recurrían a los servicios de mensajería como anzuelo para captar (y retener) clientes. Un mercado al que Microsoft llegó un poco tarde pero que, gracias al retraso, pudo crear una app de mensajería que superara las limitaciones de sus competidores. Generalmente, este tipo de servicios solo permitían interactuar con otros usuarios del mismo proveedor. Pero Bill Gates, consciente de que la popularización de internet iba a ser clave para el futuro de sus productos, apostó por una nueva fórmula; un servicio que permitiera chatear con otros usuarios independientemente de cuál fuera su proveedor.

Aunque la idea principal fue que MSN Messenger fuera compatible con otros servicios similares, Microsoft se encontró con que sus competidores, como AIM, no iban a ponérselo fácil. Cada vez que el servicio de Microsoft conseguía ser compatible con AIM, éstos volvían a cambiar su aplicación para que Microsoft no pudiera conectarse a sus servidores. Y así fue hasta que, finalmente, Microsoft descartó esta opción y pasó al modelo tradicional: solo podrían chatear entre sí los usuarios de MSN Messenger. Una serie de intentos frustrados por crear un servicio más global que dieron como resultado el trasvase de usuarios. Quienes (aún) no eran usuarios de MSN, cambiaron de proveedor al no poder seguir chateando con sus amigos. Un movimiento que a Microsoft le salió más que redondo.

MSN Messenger: chat y correo

El único requisito para empezar a utilizar MSN Messenger era tener una cuenta de Hotmail. Un proceso que llevaba apenas unos minutos y durante el que los adolescentes de la época tomamos una mala decisión. Sí, reconoce que una cuenta de Hotmail fue tu primera (y vergonzosa) cuenta de correo. Esa misma que desearías no haber creado nunca, o al menos haber sido lo suficientemente sensato como para haber escogido un nombre diferente. Pero eran cosas de la edad.

La primera actualización llegó solo unos meses más tarde de su lanzamiento. Con los cambios que Microsoft había introducido era posible, entre otras cosas, personalizar la apariencia del chat. Unos meses después sería posible enviar archivos entre PCs y se añadieron capacidades de audio entre ordenadores y los dispositivos móviles de la época. Y, con la llegada de Windows XP en 2001, el sistema operativo x86 más utilizado del mundo, llegaron más cambios en la interfaz, los grupos de contactos y la voz en las conversaciones. En las siguientes actualizaciones llegarían los famosos (y añorados) zumbidos, los emoticonos, los guiños, la posibilidad de mostrar la música que se escuchaba, las videollamadas…incluso jugar con tus amigos a través de la aplicación. Aunque para esta última funcionalidad la escasa velocidad de las conexiones jugaba en contra.

Todas estas y otras muchas opciones convirtieron a MSN Messenger en algo fundamental en la vida de cualquier adolescente. Gracias a MSN ya no era necesario llamar a tus amigos, podías chatear con ellos y sin que nadie cotilleara la conversación. Una sensación de privacidad y cierta independencia en plena edad del pavo que contribuyó a que MSN Messenger siguiera aumentado en número de usuarios.

Más dura fue la caída

El pico máximo de usuarios de MSN Messenger se alcanzó en 2009, a partir de ahí todo empezó a ir cuesta abajo. De tener más de 330 millones de usuarios mensuales en todo el mundo, la aplicación de Microsoft empezó a ver como las cifras empezaban a decaer por la llegada de las redes sociales. Nuevas herramientas de comunicación que lo habían aprendido (casi) todo de las mejoras que habían ido introduciéndose en MSN Messenger. Por ejemplo, el muro de Facebook, y una de las principales razones del comienzo de su éxito, tiene su origen en la barra de estado de MSN. Aquel lugar que, entre otras muchas cosas, se utilizaba para enviar indirectas.

Como en todo, Facebook no fue la primera en aparecer, pero sí la primera en hacer las cosas bien. De ahí que poco a poco fuera robándole usuarios a MSN. Un golpe que se agravó con la llegada de Skype (que Microsoft adquiriría en 2011) y que acabaría de rematar a MSN Messenger cuando aparecieron BlackBerry Messenger y WhatsApp. Si ya estaba siendo duro ver cómo aparecían nuevos servicios que mejoraban las prestaciones de MSN, incorporarlos en un Smartphone fue mortal para la aplicación de Windows. Aunque Microsoft intentó dar el salto a los dispositivos móviles, sus intentos no dieron ningún resultado.

Pero la caída de MSN no llegó sola. Junto a ella, comenzó también el declive del PC. Los teléfonos móviles empezaban a ofrecer las mismas opciones que un ordenador y eran muy capaces de superar sus limitaciones. Y es que ahora podíamos chatear en tiempo real con nuestros amigos desde cualquier parte, más allá de las paredes de nuestras casas y, a diferencia de los SMS, de forma gratuita.

Microsoft no lo vio

Aunque lo tuvieron todo para seguir manteniéndose en el top de servicios más utilizados, Microsoft no lo quiso ver. O simplemente prefirió seguir con su tónica habitual de llegar tarde a (casi) todo. Lo cierto es que la mezcla de Hotmail, el servicio de correo con más cuentas del momento, con MSN Messenger hacía que todos necesitáramos estar en la onda. El problema fue que nuestras necesidades fueron cambiando, pero el servicio no evolucionó.

Quizá, si hubieran introducido algunos pequeños cambios estaríamos celebrando su veinte aniversario intercambiando mensajes en MSN Messenger. Porque, a decir verdad, las funciones que nos ofrecía MSN no distan mucho de lo que obtenemos con Facebook, Twitter o Instagram. A excepción de la posibilidad de ver lo que ha ocurrido mientras que no estábamos conectados, algo con lo que hasta ese momento MSN no había probado.

El ser humano necesita comunicarse, pero también cotillear y conocer lo que pasa cuando está ausente. Y en eso Microsoft no cayó, o al menos no a tiempo.

¿Utilizas contraseñas seguras en tus cuentas?

Publicado enCiberataques en julio 17, 2019 10:00 am

A pesar de ser el método de autenticación más antiguo en informática, las contraseñas siguen siendo la opción preferida para registrarse e iniciar sesión en diferentes servicios. La aparición de sistemas de reconocimiento facial o por voz, la huella dactilar o los patrones no han conseguido bajar del podio a las claves de acceso. Pero, en un tiempo en el que nuestra información más sensible se almacena en internet, es más importante que nunca recurrir a contraseñas seguras.

Es muy común que cuando nos damos de alta en un nuevo servicio web dudemos entre establecer una contraseña fácil de recordar o una más compleja. Si bien las claves fáciles de recordar suelen ser extremadamente inseguras, las contraseñas seguras suelen ser más difíciles de memorizar. Y, precisamente por ello, son siempre la opción más adecuada. Si a nosotros nos resultan difíciles, para quien intente adivinarla será mucho más complejo.

Lo que no se debe hacer

Como queremos evitar que nadie pueda acceder a tus datos o consiga descifrar tu clave de acceso, te contamos todo lo que no tienes para crear una contraseña.

No reutilices contraseñas. La tentación más común, porque es mucho más sencillo recordar una única contraseña, que tener que memorizar muchas. Pero piensa que, si alguien consigue adivinar tu contraseña, lo más lógico sería probarla en otros servicios y ver si hay suerte. Y si es tu caso, el hacker habrá tenido suerte, tú no tanta.

  • Evita las palabras genéricas. Generalmente todos los programas creados para descifrar contraseñas suelen contar con diccionarios en diferentes idiomas. Así que utilizar como contraseña cualquier palabra del diccionario, o una combinación de ellas, no es muy buena idea.
  • No recurras a información personal. Utilizar información personal para la contraseña suele ser otro de los errores más habituales. Una contraseña compuesta por datos con los que se nos puede relacionar fácilmente tiene muchas papeletas para ser descubierta con demasiada facilidad.
  • Sustituir letras por números. Aunque pueda parecer una técnica supersegura (y casi de hacker), una máquina tardaría segundos en descifrar una contraseña en la que algunos caracteres de la palabra han sido sustituidos por números.
  • No compartas tu contraseña. Ni en papel ni en formato digital, ya que nunca sabes dónde puede acabar o quién puede verla. Las contraseñas, para ser seguras, deben ser secretas.
  • Desactiva la opción de recordar contraseña del navegador. Una funcionalidad pensada para no tener que introducir la contraseña cada vez que quieres acceder, pero que puede exponerte. Especialmente si compartes equipo con más usuarios, esta opción podría hacer que tuviera acceso a tus perfiles.

Cómo crear contraseñas seguras

Es evidente que ninguna contraseña es infalible, pero cuanto más empeño pongamos en crear una contraseña segura más difícil será que cualquier programa consiga descifrarla y acceder a nuestra información. Así que te recomendamos seguir alguno de estos métodos para añadir seguridad a tus claves de acceso.

  • Longitud de al menos 12 caracteres. Cuanto más larga, más segura será la contraseña. El mínimo, para ser más difícil de descifrar, es de 12 caracteres, pero si tiene una extensión mayor mucho mejor.
  • Combina números, símbolos, mayúsculas y minúsculas. Una contraseña que combine símbolos, números y letras sin ningún sentido reúne las condiciones necesarias para ser considerada como contraseña segura.
  • Palabras sin conexión. También puedes optar por combinar varias palabras que no tengan nada que ver. De esta forma, además de obtener una contraseña larga, no habrá lógica que las una y, por tanto, una máquina lo tendrá muy difícil para dar con la combinación exacta.
  • Activa la verificación en dos pasos. Esta medida de seguridad adicional permite que, aunque la contraseña sea descubierta, sea necesaria otra clave que se enviará a un dispositivo al que solo tú tienes acceso.
  • Las preguntas de seguridad también pueden ser contraseñas. Aunque su objetivo es ayudarte a recuperar tu contraseña, puedes utilizarlas como claves de acceso. De esta forma, poniendo como respuesta algo que no encaje con la pregunta, evitarás que alguien que te conozca y sepa la respuesta a la pregunta pueda restablecer la contraseña.
  • El método Diceware. Lanzando cinco veces un dado de seis caras y sustituyendo los números por su equivalente en la lista Diceware obtendrás una contraseña totalmente aleatoria.

Si sigues todas nuestras recomendaciones es posible que te esté cundiendo el pánico con tanta contraseña (y tan difíciles de memorizar). Para ello dispones de gestores de contraseñas que se encargarán de recordar por ti todas tus contraseñas seguras; y para los que solo necesitarás recordar la password del gestor.

Nuestra ciberseguridad es un asunto muy importante, sobre todo si tenemos en cuenta que realizamos pagos y compartimos información sensible a través de la red. Además, la sofisticación de los hackeos hace que tengamos que ser especialmente cuidadosos. Por ello, lo más recomendable es cambiar tus claves de acceso cada seis meses. Usando cualquiera de las técnicas o herramientas, como el gestor de contraseñas, tener nuevas contraseñas seguras es muy fácil. Y sin que sea necesario recordarlas todas a la vez.

Comprobar la reputación del dominio y evitar que acabe en spam

Publicado enDominios en julio 10, 2019 10:00 am

Siempre que enviamos emails lo hacemos con la intención de que nuestros mensajes sean leídos. Pero, para que lleguen correctamente a las bandejas de entrada de nuestros clientes o usuarios, es fundamental tener en cuenta la reputación del dominio desde el que se envían. De otra forma, nuestros mensajes acabarán, en el mejor de los casos, en la carpeta de spam.

¿Qué es la reputación del dominio?

La reputación de un dominio es un factor que se obtiene del uso que se hace de una dirección IP y de cómo se gestionen los envíos a través de correo electrónico. Así, llevando a cabo buenas prácticas de email marketing, la reputación del dominio será mucho mejor que si mandamos a nuestros usuarios correos que no desean recibir. Además, cuanto más alta sea la reputación de un dominio mayor tasa de apertura tendrán los correos que se envíen a la vez que se reducen las posibilidades de que el dominio acabe en alguna lista negra.

Aunque sea el principal factor, para determinar si los correos se reciben correctamente o si son marcados como spam, no es el único. En la reputación del dominio también influye el uso que se hace de IP desde la que se envían los correos. Este asunto, en el caso de que compartas servidor con otros usuarios, será algo que no dependerá directamente de tus acciones. Ya que en un plan de hosting una misma dirección IP se comparte entre varios usuarios; lo que hace que el uso de un usuario pueda perjudicar a todos sus vecinos y afectar a la capacidad para enviar mensajes de cada uno de ellos.

Pero para determinar la reputación del dominio y la IP también se considera la reacción del destinatario. Si cada vez que recibe un correo, lo marca como spam, el dominio, la IP o ambas, acabarán en listas negras. Por lo que en gran medida se trata de algo que no depende directamente del propietario del dominio; aunque de forma indirecta es el reflejo de sus acciones.

¿Cómo comprobar la reputación de mi dominio?

Existen multitud de sitios web en los que, a través de una sencilla búsqueda, puedes averiguar cuál es la reputación del dominio. Eso sí, hay que tener en cuenta que contar con un dominio de buena reputación no evita que los correos que se envíen puedan acabar en la carpeta de spam. Aquí te mostramos algunos de ellos:

  • Senderbase.org. Permite conocer la situación de una IP o dominio en base a tres fases: buena, neutral o pobre. En función del resultado, sabrás si necesitas cambiar tu estrategia de email marketing o si vas por el buen camino.
  • Senderscore.org. En una escala de 0 a 100 muestra el estado de una IP frente a otras direcciones. Cuanto mayor sea la puntuación obtenida, mayor será la reputación del dominio y, por lo tanto, la tasa de entrega de los emails.
  • ReputationAuthority. Además de indicar si una web contiene malware, muestra el porcentaje de correos buenos y malos según la IP desde la que se enviaron.
  • Barracuda Central. Una enorme base de datos que averigua la reputación de un dominio y de una IP en tiempo real, mostrando cuáles de esas direcciones son buenas y cuáles demasiado pobres.
  • TrustedSource. Además de información sobre un dominio y su reputación, este sitio web proporciona detalles sobre el servidor de correo y las DNS; así como el historial del dominio y sus asociaciones.

Otros aspectos de reputación

Más allá de realizar una consulta a estos sitios web puedes revisar otros aspectos relacionados con tu dominio. Por ejemplo, un mal uso de los registros DKIM, SPF o CNAME de la zona DNS también puede ocasionar que tus emails acaben en la carpeta de spam. Además, lo apropiado del contenido de tus emails o si envías en el texto enlaces que se encuentran en listas negras, son otros aspectos a considerar para mejorar la tasa de envío.

Puesto que el email es la principal forma de propagación de malware y phishing, cuidar el uso que se le da al servicio de correo es fundamental. Ya no solo para evitar las listas negras sino también para conseguir la mejor reputación del dominio y ganar la confianza de los usuarios.

El Consejo de la UE redefine el concepto de ciberseguridad

Publicado enCiberataques en julio 3, 2019 10:00 am

Primero fue la nueva norma en materia de protección de datos, después acabar con el geobloqueo; ahora el nuevo propósito del Consejo Europeo es reformar el concepto de ciberseguridad y revisar sus estrategias para proteger a todos los estados miembros. Con el temor a una posible guerra informática, se hace necesario preparar el marco legal para, en caso de que se produjera, disponer de la normativa adecuada.

Adaptados a la era digital

En los últimos tiempos el Consejo de la Unión Europea está centrado en adaptarse a los cambios digitales para poder dar respuesta a los nuevos problemas que vayan surgiendo. Algo especialmente importante cuando se trata de conceptos o definiciones que llevan años sin actualizarse. Al igual que ha sido necesario, polémicas aparte, redefinir los derechos de autor en el entorno digital; la definición de ciberseguridad que estamos utilizando fue establecida en 1995. En aquel entonces el panorama era muy diferente al actual.

Hace 25 años los ciberataques no eran tan sofisticados ni agresivos; por lo que redefinir la ciberseguridad es fundamental para hacer frente a todo tipo de ataques informáticos. Además, esta reforma servirá para aprovechar las nuevas oportunidades digitales de la forma más segura. Asimismo, supone un aspecto fundamental para el desarrollo del mercado único digital.

Nuevo concepto de ciberseguridad

En general, los conocimientos informáticos son insuficientes, al igual que la concienciación en cuanto a ciberseguridad. Fruto de este conocimiento tienen lugar al año millones de fallos en los sistemas y otros tantos dispositivos son infectados con algún virus. Incidentes que en muchas ocasiones puede acabar contagiando a más equipos, afectando a otras empresas e incluso alcanzar a la totalidad de estados miembros de la Unión Europa. Así, en un momento en el que la gran mayoría de las empresas dependen de sus infraestructuras digitales para funcionar, estos percances afectan a la confianza de los consumidores; además de tener un coste anual de más de 400.000 millones de euros al año. Razones por las que mejorar la respuesta ante cualquier ataque informático se ha convertido en una prioridad de los estados miembros de la UE y sus instituciones.

La nueva definición hace referencia a cualquier tipo de acción que tenga implicación en el acceso o intromisión en los sistemas de información, en los datos que contienen o si durante el ciberataque se intercepta cualquier tipo de información. Asimismo, se incluye cualquier acción que no esté permitida o autorizada por el usuario, el derecho europeo o el de los estados miembro.

En este nuevo concepto se incluyen otras variables como el alcance y la gravedad de la incidencia, el número de afectados, las pérdidas económicas y la sensibilidad de los datos extraídos; además del beneficio económico que el atacante hubiera podido obtener. Asimismo, se designan como infraestructuras y los servicios susceptibles de sufrir un ciberataque a cualquier aparato o grupo de aparatos que conectados entre sí permitan el tratamiento de cualquier dato digital. Entre ellos podemos encontrar desde los cables submarinos, los procesos electorales o los diferentes transportes públicos de cada uno de los estados miembro.

La UE más online

En el último año la Unión Europea ha establecido nuevas normas para adaptar los derechos de autor a la era digital, además de hacer más transparente la gestión de los dominios .eu; una extensión de dominio considerada pieza clave para la construcción de la identidad europea en internet. Con los cambios en cuanto al concepto y las estrategias de ciberseguridad, la UE llevará a cabo una serie de iniciativas; entre las que se encuentra la creación de una Agencia de Ciberseguridad y el establecimiento de Certificaciones de Ciberseguridad y la Directiva SRI.

La Directiva de seguridad en las redes fue aprobada el pasado 17 de mayo de 2019. A partir de ese momento los diferentes estados miembros disponen de 18 meses para adaptarla e implementarla en su derecho interno. Con un marco legal acorde a la situación actual, se espera mejorar la repuesta ante un ataque informático; además de permitir imponer sanciones y medidas más restrictivas a los ciberdelincuentes. En cualquier caso, pese a la redefinición del concepto de ciberseguridad y las estrategias digitales, la mejor forma de prevenir ataques informáticos pasa por concienciar a los ciudadanos sobre la importancia de la ciberseguridad.

¿Por qué tu IP o dominio han acabado en una blacklist?

Publicado enCorreo / Webmail en junio 26, 2019 10:00 am

Aunque los primeros resultados de Google solo hablen de una serie con el mismo nombre, una Blacklist, o lista negra, se remonta a mucho antes de 2013. La idea, tanto de la serie como del término informático, es la misma: una lista que recoge cosas que no se han hecho bien. En el caso de la serie, nombres de personas que no han obrado todo lo bien que debieran; en el del concepto de internet, de direcciones que han realizado un uso indebido de una dirección IP o de un nombre de dominio.

¿Qué es una lista negra?

Una blacklist es una lista que recoge direcciones IP o dominios que, generalmente, se han utilizado para enviar spam. Pero el envío de emails no deseados no hace que una dirección acabe de forma automática en listas negras, sino que depende de si los destinatarios marcan tus correos como emails no deseados. De forma que, indirectamente, el uso que hagas de tu IP o dominio también puede hacer que puedas, o no, acabar en listas negras.

Cuando un domino o una dirección IP es añadida a una blacklist es posible que los correos que envíes desde el dominio asociado a dicha IP no lleguen a tus usuarios. Aunque esto depende en gran medida de los filtros establecidos por el proveedor del destinatario. Si su proveedor filtra por aquellas listas negras en las que se te ha incluido, el destinatario no recibirá tus correos electrónicos puesto que los filtros antispam han impedido el paso a su bandeja de entrada. En cambio, si filtra por otras blacklist diferentes, los emails que envíes le llegarán con normalidad.

¿Cómo salir de una blacklist?

Podría parecer que salir de una lista negra sea misión imposible, pero nada más lejos de la realidad. Eso sí, ten en cuenta de que antes de proceder a sacar tu IP o dominio de una blacklist, debes identificar dónde está el origen del problema. De otra forma, no servirá de nada todo lo que hagas, ya que el problema sigue ahí y volver a una lista negra solo será cuestión de tiempo.

Si el problema es el mal uso que tú haces de los envíos de email, deberías empezar por ahí. Para ello, elimina de la lista aquellos usuarios inactivos y no vuelvas a añadir a los que se han dado de baja. Además, puede ser buena idea espaciar en el tiempo tus envíos, así evitarás saturar a tus destinatarios y que acaben marcando como spam tus mensajes.

Asimismo, puede ser que si te encuentras en un servidor compartido estés sufriendo las consecuencias del mal hacer de tus vecinos de alojamiento. En este caso lo recomendable es pasarte a un servidor cloud para no tener que compartir IP con otros usuarios ni verte afectado por el uso que hagan de la misma. Con tu propio servidor, si tu IP o dominio acaban en listas negras, es porque hay algo que no estás haciendo bien.

Una vez sepas cuál es el problema, deberás saber en qué listas negras te encuentras. No existe una única blacklist, así que tu IP puede encontrarse en unas cuantas listas negras. Para ello, puedes realizar una búsqueda en sitios como MXToolbox o Spamhaus y solicitar la exclusión de las blacklist en las que se ha añadido la IP vinculada a tu dominio. Después de realizar la solicitud, solo te quedará esperar a que el proveedor te saque de su lista de desautorización.

Evita las listas negras

Para evitar acabar en una blacklist basta con seguir buenas prácticas en relación al envío de correos electrónicos. Por un lado, debes evitar utilizar tu servidor de correo para estos envíos masivos. Existen herramientas como Mailchimp o Mailrelay para realizar este tipo de envíos y evitar que la IP o el dominio desde el que se realizan acaben añadidos en una lista negra.

Por otro lado, es recomendable mantener limpia tu lista de suscriptores. Es decir, enviar correos solo a aquellos usuarios que hayan aceptado el envío de notificaciones comerciales y que se mantengan activos; de otra forma, añadiendo direcciones de correo que no han aceptado tus emails acabarás tarde o temprano en alguna blacklist. Además, te recomendamos revisar con cierta frecuencia tu lista de suscriptores para mantenerla siempre lo más actualizada posible.

A diferencia de lo que ocurre en The Blacklist para salir de una lista negra de internet basta con hacer un buen uso del servicio de correo.

¿Cuál es el origen de la arroba y cómo llegó a la informática?

Publicado enCorreo / Webmail en junio 19, 2019 10:00 am

Aunque lleva en los teclados desde las primeras máquinas de escribir, la arroba no fue utilizada como símbolo con significado propio hasta 1971 cuando Ray Tomlinson inventó el correo electrónico.

@, fuera de la informática

Las primeras apariciones de la arroba se remontan a la Época Medieval. En una época en la que los copistas debían realizar a mano las copias de los manuscritos simplificar la tarea les permitía ahorrar tiempo. Así, en lugar de tener que escribir la palabra ‘ad’ comenzaron a recurrir al uso de la arroba. Este carácter fruto de la deformación gráfica de la palabra original significaba igualmente ‘hasta o hacia’.

Poco a poco el símbolo comenzó a ganar en popularidad y empezó a utilizarse en los documentos oficiales. De esta forma en 1448 aparece el primer uso de la arroba como unidad de medida. La arroba como forma de medir cantidades fue ampliamente utilizada hasta 1849 cuando se sustituyó por el sistema métrico decimal al que recurríamos hasta hace muy poco.

Aunque la arroba perdió su valor como unidad de medida, siguió utilizándose con valor contable en los registros aduaneros. De esta forma, el símbolo continuo en uso para indicar el valor de las mercancías que se intercambiaban entre el Reino de Aragón y el Reino de Castilla; tal y como se encontró en la Taula de Ariza que data de 1448.
Su llegada a los teclados

Gracias a este último uso comercial, la arroba acabó llegando a los teclados de las primeras máquinas de escribir y teletipos. Así, la arroba se incluyó entre las teclas de estas herramientas de trabajo de uso comercial para registrar de una forma más sencilla las mercancías y el coste por unidad. Por ejemplo, si quisiéramos recurrir a este sistema para indicar el precio de uno de nuestros servidores cloud sería algo así: 1 cloud base @ 29€.

La arroba y el email

Con el desarrollo de sistemas específicos de contabilidad, el uso de la arroba con fines comerciales fue perdiéndose. Su popularidad en todos los teclados hizo que en 1971 Ray Tomlinson le diera al símbolo una nueva vida y un nuevo significado.

El programador estadounidense, padre del correo electrónico, estaba buscando un símbolo que le permitiera diferenciar los mensajes locales de los que provenían de un servidor externo. Además, el símbolo tampoco debía de aparecer en los nombres de personas, de empresas o de servidores. Entonces se encontró con que la arroba aparecía en todos los teclados y que en ese momento no tenía ningún uso.

Pero el hecho de que recurrir a la arroba para las direcciones de correo electrónico no entrara en conflicto con ningún otro sistema estipulado en ese momento no fue el único motivo para la elección. Tomlinson se dio cuenta de que no podía haber encontrado un símbolo con un significado más acertado para el invento que tenía entre manos. Y es que en inglés la arroba significa ‘junto a’ o ‘en’, precisamente lo que él buscaba indicar con la inclusión de un símbolo: separar el nombre de usuario del servidor desde el que se enviaba el mensaje. Algo fundamental en las direcciones de correo electrónico: indicar el servidor en el que se está alojado el usuario que envía el email.

Con todos los elementos preparados, Tomlinson creó la primera dirección de correo de la historia: tomlinson@bbn-tenexa.

Un símbolo diario

De las direcciones de correo, uno de los servicios más utilizados en internet, la arroba pasó a simbolizar la propia red de redes. Y de ahí a ser un elemento habitual en las redes sociales, empezando por Twitter y extendiéndose su uso a los nombres de usuario de casi todas ellas. Además, también suele utilizarse la arroba en algunos lenguajes de programación, pero con funciones totalmente diferentes.

Más allá de su uso en el email o en cualquier otro aspecto de la informática, la arroba se ha convertido en uno de los símbolos utilizados en el lenguaje inclusivo. A pesar de ser un signo no lingüístico, es ampliamente utilizado para evitar el masculino genérico y permitir el desdoblamiento de género.

Al igual que pasó con los términos cifrar y encriptar, los cambios en el lenguaje y la evolución de la tecnología y su influencia en la vida diaria pueden dar nuevo sentido a las cosas. La arroba nació para un fin y ha acabado siendo popular para otro totalmente diferente, nunca nada es definitivo.

¿Qué hay de nuevo en Debian 10 Buster?

Publicado enDesarrollo y Programación en junio 12, 2019 10:00 am

Han pasado casi dos años desde que se lanzara Debian 9 Stretch y Debian 10 Buster iniciara su fase de pruebas. El próximo 6 de julio se espera el lanzamiento oficial de la nueva versión del ‘sistema operativo universal’. Según el Proyecto Debian, la última versión del sistema operativo será mucho más versátil que sus antecesores, ya que se podrá instalar en muchas más arquitecturas.

Sin fecha exacta

A diferencia de otras compañías o comunidades que lanzan sus nuevas versiones en base a una determinada fecha, Debian solo publica sus versiones cuando son estables de verdad. Es decir, las versiones de Debian se hacen públicas cuando se han corregido los errores críticos y problemas de seguridad (CVE) que puedan afectar al funcionamiento de Debian; aunque esto no evita que pueda producirse algún error en el sistema operativo. Una política por la mejora de la seguridad que deja en el aire la fecha de publicación de Debian 10 Buster.

Esto se debe a que las versiones de Debian constan de cuatro partes: main, contrib, non-free y optional. Y solo cuando se consigue la estabilidad en main, se libera la versión. De esta forma consiguen evitar muchos problemas funcionales y de seguridad, algo fundamental si tenemos en cuenta que Debian es un sistema operativo que no solo se utiliza en equipos, sino también en todo tipo de servidores.

La sucesora de Stretch, como viene siendo habitual, recibe el nombre en clave de otro de los personajes de Toy Strory. En esta ocasión de Buster, el perro de Andy y amigo del vaquero Woody. De ahí que la nueva imagen gráfica de Debian 10, desde el tema a los fondos de pantalla, gire en torno a la figura de un perro salchicha.

Novedades de Debian 10 Buster

Con Debian 10 vuelven a la distribución varias aplicaciones de escritorio y de entorno que no estaban en su antecesora Stretch, además de añadir más programas que Debian 9. Entre estas nuevas aplicaciones podremos encontrar algunas dedicadas a mejorar la productividad o diferentes suites de ofimática. Así, además de las actualizaciones de rigor, Debian 10 Buster incorpora nuevas funcionalidades y mejora otras presentes en versiones anteriores. Por ejemplo:

  • En el escritorio de GNOME algunos paquetes habituales se reemplazan por otros más optimizados y se lanzan nuevas funciones para el sistema operativo.
  • El Kernel de Linux se actualiza y se mantiene el soporte LTS para proporcionar una mejor asistencia de hardware y mantenimiento por 5 años.
  • Nueva versión de OpenJDK, la plataforma de desarrollo Java, detrás de la que se encontrará un equipo encargado de las nuevas versiones.
  • AppArmor habilitado por defecto para hacer que el sistema sea más seguro al asociar cada programa a un perfil. Además, forzará a modificar los scripts de versiones previas para mantener la usabilidad del software.
  • Compatibilidad con las versiones más recientes de NodeJS y nuevas herramientas para trabajar con bibliotecas JavaScript.
  • Compatibilidad con Python3, ya que la versión 2 será marcada como obsoleta en enero de 2020. De esta forma se aprovecharán mejor las características de las aplicaciones desarrolladas en Python.
  • Con nuevas características y capacidades. Debian 10 incluye Bash 5.0 de forma predeterminada.
  • Soporte de arranque seguro (UEFI Secure Boot) para facilitar la instalación de Debian 10 Buster sin necesidad de deshabilitar esta opción en la máquina.

Mucho más fácil

Debian 10 Buster, además de hacer más fácil la sintaxis y mejorarla, simplifica el soporte para firewall. Más allá de esto, la nueva versión de Debian también incorpora Calamares como su nuevo instalador gráfico; la mejor alternativa al instalador tradicional de Debian para hacer que la instalación del sistema operativo sea más rápida y esté al alcance de cualquier usuario.
Además, la compatibilidad de Debian 10 con las versiones más recientes del software que utilizamos a diario hará que crear un servidor web y mantenerlo sea mucho más fácil y seguro.

La última versión de Debian 10 Buster se está haciendo de rogar, pero todo sea por mejorar la seguridad de las aplicaciones y servidores que lo utilizan. Bajo el nombre en clave del otro personaje de Toy Story Debian 10 nos promete la máxima seguridad del ‘sistema operativo más universal’, solo nos falta esperar al 6 de julio para ponerlo a prueba.

Llega HTTP/3, la última (y renovada) versión de HTTP

Publicado enGeneral en junio 5, 2019 10:00 am

HTTP es uno de los principales protocolos que posibilitan el funcionamiento de internet. Un protocolo de comunicación cuya primera versión aún sigue en uso entre aquellos usuarios que aún no han instalado en su sitio web un certificado de seguridad SSL. Y es que para utilizar HTTP/2, actualmente la última versión de HTTP, es necesario tener una web cifrada ya que los principales navegadores no cuentan con soporte para HTTP/2 sin SSL.

Aunque la adopción de HTTP/2 sigue en aumento, en su obsesión por intentar mejorar la velocidad de las páginas webun grupo de trabajo lleva unos años trabajando en QUIC, el nuevo protocolo HTTP/3.

De HTTP/1 a HTTP/2

Con el tiempo el número de usuarios en internet ha ido creciendo y las conexiones se han hecho cada vez más rápidas. Por no hablar de que la complejidad y frecuencia de los ciberataques ha evolucionado casi en la misma proporción. Todo ello ha ocasionado que el número de peticiones que se realizan desde un cliente a un servidor haya aumentado y que sea necesario implementar medidas de seguridad más potentes.

En este sentido, el HTTP original maneja de forma independiente cada una de estas peticiones, estableciendo una conexión diferente para cada una de ellas, además de no ser un protocolo cifrado por defecto. Esto puede hacer que si alguna de las peticiones es lenta se acabe produciendo un bloqueo en los encabezados de línea (HOLB). En este caso, todas las peticiones que sigan a esa petición lenta serán igualmente lentas y acabará perjudicando al sitio web.

HTTP/2 y la gestión de peticiones

Para solucionar este problema de gestión de las peticiones, HTTP/2 introdujo la multiplexación. Una técnica que permite responder a diferentes peticiones de forma simultánea utilizando una misma conexión. Este gran cambio que hace que no sea necesario esperar a que se complete una petición para iniciar otra, consiguió mejorar la velocidad de carga de una página web siempre que no se produzcan problemas de conexión. A pesar de que, técnicamente, HTTP/2 consigue mejorar la velocidad de carga, la nueva versión del protocolo no ha podido escapar de las limitaciones de TCP.

Al enviarse todas las peticiones en una única conexión TCP, todos los paquetes dependen de que el protocolo haga bien su trabajo. Así, en el caso de que se perdiera alguno de estos paquetes, los que han sido correctamente enviados tendrán que esperar a que se consiga recuperar todos aquellos que se han perdido. Porque solo será posible establecer la conexión cuando todos los paquetes se hayan entregado correctamente.

Más allá de los problemas ocasionados por las limitaciones de TCP, HTTP/2 se ha encontrado con que en algunos casos la velocidad de carga no solo no se mejora, sino que se empeora. Esto se debe a que para poder utilizar HTTP/2 es necesario tener instalado un certificado de seguridad en la web. Y, en ocasiones, el cifrado puede hacer que los tiempos de respuesta del sitio web aumenten.

HTTP-over-QUIC o HTTP/3

Prácticamente desde que se presentó HTTP/2 se ha trabajado por seguir mejorando el protocolo HTTP. Tanto que en 2017 Google ya había publicado una guía sobre QUIC, su segunda tecnología experimental que al igual que SPYDY acabaría convirtiéndose en un protocolo. Así, si SPDY supuso el nacimiento de HTTP/2, QUIC haría lo propio con HTTP/3.

La principal diferencia entre ambos protocolos nacidos de la experimentación de Google es que HTTP/3 supone una redefinición de HTTP. Y es que el protocolo HTTP/3 no se basa en TCP, como han hecho las anteriores versiones de HTTP, sino que apuesta por UDP como protocolo de transporte. Una declaración de intenciones que se encuentra en el nombre que Google le dio a su versión preliminar: QUIC – Quick UDP Internet Connections.

El motivo por el que el equipo de Google optó por UDP como forma de escapar de las limitaciones de TCP es que ambos protocolos de transporte son soportados por la gran mayoría de los dispositivos. Optar por otro protocolo hubiera supuesto, además de la redefinición de HTTP, la de todos los sistemas operativos, aplicaciones y equipos. Aun así, UDP no goza de la misma popularidad que TCP, el considerado protocolo de moda desde hace unas cuantas décadas.

En un primer momento el equipo de Google decidió que QUIC se basaría únicamente en el transporte HTTP recurriendo a la sintaxis de HTTP/2. Tras las recomendaciones del IEFT se modificó para que pudiera transportar más que solo HTTP y que recurriría a TLS 1.3 como forma de cifrado. Además de posibilitar la compatibilidad retroactiva al hacer que HTTP/3 incluya a sus versiones anteriores en la respuesta. Una serie de cambios que mejoran la velocidad del protocolo y reducen su latencia al simplificar el proceso de negociación.

Resolviendo los problemas de HTTP/2

Esta última versión de HTTP supone una nueva forma de resolver los problemas del protocolo valiéndose de UDP para acelerar las conexiones. Un aspecto especialmente relevante en el caso de redes lentas en las que, además de una gran latencia, se pierden muchos paquetes.

Con HTTP/3 dejan de producirse los problemas de flujo experimentados por HTTP/2. Cada petición que se realice en la nueva versión de HTTP se responderá de manera independiente. De forma que incluso si una petición fallara el resto llegarían a su destino, en lugar de tener que esperar a que se recuperen los paquetes perdidos. Lo que hará que mejore la experiencia de usuario y que la velocidad de carga del sitio web no se vea perjudicada.

Más allá de las mejoras en cuanto a velocidad y eficiencia de los paquetes que se envían, HTTP/3 estará cifrado por defecto. Algo que en HTTP/2 solo se conseguía mediante la instalación de un certificado SSL, ya que el estándar HTTP por sí mismo no está encriptado.

HTTP/3 en la actualidad

En este momento el protocolo se encuentra en un plan preliminar que expirará en apenas unos días. A partir de ese momento, HTTP/3 pasará a convertirse en un estándar oficial.

El propósito de Google es que con el tiempo QUIC-HTTP/3 se convierta en el sustituto de los clásicos TCP y UDP. Una nueva forma de mover datos con mayor rapidez y seguridad, al ser un protocolo cifrado por defecto, que ya ha sido probado. Teniendo en cuenta la multitud de servicios de Google, la compañía implementó en 2013 HTTP-over-QUIC en gran parte de internet sin necesidad de esperar a la aprobación de la IEFT, el organismo encargado de regular estándares en internet. De tal manera que en 2017 un 7% del tráfico total de internet ya utilizaba QUIC. Aunque otras grandes empresas como Facebook también han comenzado a aceptar el protocolo HTTP/3, solo un 1.2% de los servicios son compatibles con esta tecnología.

Por el momento, esta intención se ha encontrado con dos obstáculos. Por un lado, que hasta ahora los únicos navegadores que soportan QUIC son Chrome y Opera. De forma que si utilizas cualquier otro la conexión se producirá a través de HTTP/2, siempre que se cuente con una web cifrada bajo HTTPS; sino, se estará utilizando HTTP/1. Por otra parte, hay muchos que consideran que se trata de un cambio muy precipitado teniendo en cuenta que la adopción de HTTP/2 no llega al 40%.

Es evidente que HTTP/2 ha mejorado la velocidad de carga de los sitios web pero no ha conseguido superar algunas de las limitaciones que le ha impuesto el uso de TCP. Problemas que, técnicamente, se solucionarían con el cambio de protocolo a HTTP/3, algo que podría comenzar en las próximas semanas.

EMD, tus keywords en el dominio

Publicado enDominios en mayo 29, 2019 10:00 am

Hace algunos años los dominios EMD causaron verdadero furor en internet. Muchas páginas web se encontraban bajo dominios que mostraban justo lo que el usuario estaba buscando. Hasta que a Google aquella estrategia le dejó de gustar y empezó a penalizar esta práctica con las siguientes actualizaciones de su algoritmo.

¿Qué es un dominio EMD?

Exact Match Domain, como su nombre indica, es un nombre de dominio de concordancia exacta. Es decir, un dominio que es, a su vez, una palabra clave o una combinación de ellas. Cuando en los resultados de búsqueda aparece un dominio EMD se presupone que todo el contenido de dicha web estará relacionado con la palabra clave en cuestión; pero lo que muchas veces se obvia es que se trata de spam puro y duro. Además de que utilizar esta técnica puede llevar a crear nombres de dominio demasiado largos.

En sus inicios, registrar un EMD era sinónimo de mejor posicionamiento, de obtener más clicks y más tráfico prácticamente desde la publicación de un sitio web. Esto se debía a que parte del trabajo para escalar posiciones ya estaba hecho. ¿Qué puede haber más exacto que registrar como dominio EMD justo lo que el usuario quiere encontrar?

De ahí que en sus primeros años tuvieran un impacto muy positivo en SEO. Además, por regla general estos sitios web estaban plagados de términos relacionados con el dominio EMD, de enlaces que iban y venían a sitios web de temáticas parecidas… pero también repletos de spam. Por ello, Google empezó a penalizar a aquellas páginas web que tenían un EMD, pero un contenido de poca o ninguna utilidad para los seres humanos, aunque para las arañitas de Google fuesen lo más tentador del mundo.

El algoritmo anti-concordancia exacta

En vista de aquel panorama Google decidió actualizar su famoso algoritmo de búsqueda para mejorar la experiencia de sus usuarios y eliminar el spam en sus resultados de búsqueda. Así, comenzaron a penalizar a los sitios web con un dominio EMD cuyo contenido era poco útil para el usuario: webs de enlaces de afiliados, contenido pobre y únicamente pensado en la optimización… De esta forma, se comenzó a dar importancia a la calidad del contenido y lo relevante que resultaría para el usuario por encima del uso de las palabras claves más apropiadas.

Aunque este cambio de Google pareció cundir el pánico, no todos los sitios web se vieron afectados. Únicamente aquellos que seguían malas prácticas en cuanto a experiencia de usuario sufrieron las consecuencias del cambio de algoritmo. Así, por mucho que una web contara con un dominio EMD, si su contenido es de calidad y no está creado solo desde el punto de vista del posicionamiento, no hay peligro. Para determinar qué webs miran por el usuario y cuáles se centran únicamente en posicionar, Google recurre a una serie de indicadores: calidad y temática de los enlaces entrantes, veces que se comparten en las redes sociales, cantidad de backlinks, calidad de la ortografía

Los EMD en la actualidad

En este momento, los dominios de palabras clave solo se utilizan en proyectos de nicho donde hay poca competencia para la palabra clave que se utilizará como nombre de dominio. Entre otras cosas por su elevado precio; ya que las keywords ‘más comunes’ ya están registradas. De ahí que para registrar un nuevo dominio sea necesario realizar un ejercicio de creatividad que permita dar con un nombre nuevo, fácil de recordar para el usuario y que esté disponible.

Además, a pesar de que un dominio de concordancia exacta pueda ayudar a obtener mejores resultados de búsqueda, es una técnica demasiado agresiva (y penalizable por Google) que no permite crear marca. Al recurrir a las palabras clave para el dominio el nombre de la marca se diluye; por lo que con un EMD es más fácil darse a conocer por lo que se hace y no por quien se es.

Aunque pueda parecer que los dominios de palabras clave son cosa del pasado, continúan utilizándose, pero con un propósito totalmente diferente. La idea de ser justo lo que el usuario está buscando tiene sentido en situaciones muy concretas. Por ejemplo, en una campaña estacional donde lo que interesa es generar tráfico en un site creado para la ocasión. También en el caso de eslóganes o claims muy potentes que puedan servir de gancho para redirigir visitas a la web principal. Este último es el caso de Nike, donde justdoit.com lleva al site principal de la marca nike.com. Asimismo, es común recurrir a los EMD para crear expectación entorno a un nuevo proyecto en el que se desconoce la marca que está detrás.

¿Has pensado alguna vez en recurrir a un EMD? ¿Para qué tipo de proyecto o qué palabras claves utilizarías para evitar ser penalizado por los motores de búsqueda?

¿Qué es el percentil 95 y para qué se utiliza?

Publicado enSistemas TI en mayo 22, 2019 10:00 am

Generalmente utilizamos los percentiles para referirnos al crecimiento de los bebés. Pero, además de recurrir al percentil 95 para evaluar el desarrollo de un bebé, este sistema de medición es muy utilizado en muchas otras áreas; como, por ejemplo, entre los proveedores de alojamiento web. En nuestro caso recurrimos a este sistema estandarizado de medición entre los ISP para calcular el ancho de banda que consume un alojamiento web por ser el método que mejor refleja este aspecto.

¿Qué es el percentil 95?

El percentil 95 es una fórmula matemática que, en este caso, permite garantizar que el ancho de banda contratado es el adecuado a las necesidades de un proyecto. De esta forma, se evita tener que sobreestimar los recursos que puede necesitar un sitio web para funcionar correctamente; o quedarse demasiado cortos en cuanto a ancho de banda y hacer que la web pierda visitas o vaya demasiado lenta.

Los proveedores de servicios de internet recurrimos al uso de esta fórmula para tratar de favorecer al cliente. Utilizando el percentil 95 el usuario paga por el ancho de banda que habitualmente consume su servidor, un nivel de consumo que se corresponde con el ancho de banda utilizado el 95% del mes para el correcto funcionamiento del sitio web. Así, se evita hacerle pagar un extra por haber excedido de manera puntual el ancho de banda que tenía contratado.

¿Cómo funciona esta fórmula?

El percentil 95 se basa en una serie de mediciones del ancho de banda consumido por un servidor a lo largo de un mes. Entendiendo por mes siempre un periodo de 30 días, con independencia del número de días que tenga el mes real de facturación. A lo largo de este periodo de tiempo se mide cada 5 minutos el consumo en Mbps (megabits por segundo) del ancho de banda.

Al finalizar los 30 días, se recopilan todos los datos recogidos y se ordenan de menor a mayor. De entre toda esta información se descarta el 5% de los valores más altos; es decir, los valores que se corresponden con picos puntuales de tráfico al entenderse que ese nivel de consumo de ancho de banda es algo puntual y no el consumo habitual del servidor durante el 95% de los días.

Con los datos filtrados, el valor más alto se corresponderá con el percentil 95. Si este valor es igual o menor al ancho de banda contratado en el servidor quiere decir que se está pagando por los recursos adecuados para el proyecto. En cambio, si resulta una cifra mayor, además de facturarse aparte este exceso de consumo de ancho de banda, el servidor no dispone del ancho de banda necesario para el correcto funcionamiento del sitio web.

El percentil 95 permite determinar las necesidades reales en cuestión de ancho de banda de un proyecto web. Un valor necesario para garantizar que el sitio web funcione correctamente, al menos, el 95% del tiempo. El 5% restante dependerá de cómo de elevado sea el pico de tráfico, haciendo que por no contar con los recursos necesarios pueda perderse tráfico o que el funcionamiento del sitio web sea demasiado lento.

¿Por qué utilizamos el percentil 95?

Como ya hemos mencionado anteriormente, este sistema de medición es la forma más eficaz de medir y facturar el consumo de ancho de banda de un servidor. Los proveedores de servicios en internet somos plenamente conscientes de que no todos los días se tiene el mismo tráfico ni se consumen los mismos recursos; como por ejemplo puede ocurrir durante el Black Friday. Por ello, con el percentil 95 se favorece que aproximadamente durante 35 horas al mes se tengan picos inusuales de tráfico. Generalmente esto se debe a la publicación de algún artículo o producto que ha suscitado una gran cantidad de visitas. Al tratarse de algo puntual lo que se busca es favorecer al cliente, en lugar de penalizarle pagando el consumo adicional de ancho de banda.

En Linube recurrimos al percentil 95 como método de medición para calcular el ancho de banda de todos nuestros servicios. De esta forma, aunque nuestros clientes tengan picos de tráfico superiores a su consumo habitual de ancho de banda, no pagarán por ese exceso de consumo siempre que no supere el percentil 95.

Mejora el rendimiento de tu WordPress con plugins WPO

Publicado enSEO en mayo 15, 2019 10:00 am

Aunque optimizar un sitio web requiere de técnicas WPO que ayuden a minimizar el peso de los elementos de la web y mejorar su velocidad de carga; en ocasiones puede ser de gran ayuda recurrir a determinados plugins WPO. Que puedan ser de ayuda no quiere decir que se deba abusar de ellos, ya que instalar demasiados plugins en un WordPress, más que mejorar el rendimiento del sitio web hará todo lo contrario. Además, ten en cuenta que algunos plugins consumen demasiados recursos, por lo que más que ayudar, solo están ralentizando la velocidad de carga de la web. O también es posible que nos muestren unos mejores resultados en algunas herramientas como GTMetrix, pero a costa de aumentar el consumo de recursos del servidor.

Para ayudarte en la elección de los plugins WPO más adecuados para tu sitio web, hemos seleccionado algunos de los plugins de WordPress según las funciones que realizan. Esto no quiere decir que debas instalar en tu WordPress un plugin de cada una de las categorías que te proponemos, puesto que cada proyecto tiene unas necesidades diferentes y, por tanto, requerirá de unos plugins WPO determinados.

Plugins WPO de caché

A todos nos gustan los sitios web que cargan rápido, pero nos interesa especialmente gustar a Google y a nuestros usuarios. Una de las mejores formas de mejorar la velocidad de carga de nuestra web es con un plugin de caché. Un complemento para WordPress que se encargue de crear copias HTML de la web y las utilice para servirle al usuario el contenido que busca; en lugar de pedírselo directamente al servidor.

  • WP Rocket. Este plugin permite, con pocas y muy sencillas configuraciones, reducir al máximo los tiempos de carga. Además de su sencillez, WP Rocket apenas consume recursos en el servidor. La única desventaja de este plugin para WPO es que es de pago, por lo que si aún no has contemplado la opción de invertir en plugins para WordPress es posible que no sea el más indicado para ti.
  • WP Super Caché. Otro plugin perfecto para mejorar el WPO de una web desarrollada en WordPress. De fácil instalación y configuración, su único problema es que únicamente cuenta con función caché y CDN. A cambio, su modo ‘easy’ se encargará de configurar el plugin por ti para hacer que el sistema de caché empiece a funcionar cuanto antes.
  • W3 Total Caché. Aunque se trata de un plugin muy completo a nivel funcional, es igualmente complejo a nivel técnico. Así que, si no tienes experiencia en WordPress, no te recomendamos utilizar WP Total Caché.

Plugins para optimizar imágenes

El peso o el tamaño de las imágenes de una página web suele ser uno de los problemas más comunes en el rendimiento de un sitio web. Si las imágenes de nuestra web son demasiado grandes, o si pesan demasiado, la web tardará mucho en cargar (y también acabará con los megas de quienes la visitan). Optimizar las imágenes de la web no significa reducir la calidad de las imágenes, únicamente su peso.

  • Regenerate Thumbnails. Como su nombre indica, este plugin hace que todas las miniaturas de tu WordPress tengan unas dimensiones determinadas. Además, te ofrece la posibilidad de eliminar aquellas miniaturas que no se están utilizando en la web para ahorrar espacio en el servidor.
  • Imsanity. Este plugin redimensiona automáticamente todas las imágenes, tanto si quieres cambiar su tamaño como si lo que quieres es reducir su peso o determinar la calidad de todas ellas. Puedes asignar unas medidas máximas que se aplicarán a todas las imágenes subidas a WordPress.
  • WP Smush. Al igual que los dos anteriores, WP Smush ayuda a tener una web con imágenes más ligeras, pero de la misma calidad que las originales. Además, permite comprimir tanto las imágenes alojadas en la página web como optimizar aquellas que se vayan subiendo más tarde. Al igual que Imnsanity, ofrece la opción de establecer las dimensiones máximas de todas las imágenes de WordPress. El único problema de este plugin WPO es que solo optimiza un máximo de 50 imágenes cada vez; por lo que si en tu web hay un gran número de elementos gráficos, es posible que tengas que realizar varias optimizaciones.
  • Imagify. Otro plugin, aunque esta vez de pago, para optimizar todas las imágenes de la web al mismo sitio. Como en algunos de los anteriores, permite establecer dimensiones máximas, además de elegir entre calidades. Como factor diferencial respecto a los otros plugins WPO gratuitos, Imagify guarda las imágenes originales por si necesitaras recuperarlas en cualquier momento.

Optimizando las bases de datos

A pesar de sus múltiples ventajas, WordPress tiene un gran problema: almacena en su base de datos todo lo que hacemos. Desde cada una de las revisiones, a los borradores de las páginas o entradas, el spam, los archivos temporales… todo. Es decir, cada vez que realizas un cambio en una entrada de tu blog, por ejemplo, WordPress guarda una versión completa de esa entrada. Por ello, además de tener una buena configuración de base de datos, es recomendable optimizar su contenido de vez en cuando.

  • WP-Optimize. Un plugin que elimina todo el contenido irrelevante de la base de datos de WordPress; como los comentarios que hemos enviado a la papelera por ser spam o datos que se han quedado obsoletos. Además, este plugin WPO compacta y desfragmenta las tablas de las bases de datos MySQL para garantizar la máxima eficiencia de la base de datos de WordPress, es recomendable utilizar este plugin al menos un par de veces al mes.
  • Optimize Database after Deleting Revisions. Similar al anterior, este plugin permite determinar cuántas versiones de una misma página queremos guardar y eliminar a golpe de click las adicionales que se guardan en la base de datos. También es posible programar estas optimizaciones para ahorrar espacio en tu servidor de la forma más sencilla.
  • WP Rocket. Aunque más que un plugin para la optimización de bases de datos es un plugin de caché, también puedes utilizar WP Rocket para mejorar el rendimiento de la base de datos de WordPress.

El heartbeat de WordPress

Heartbeat API es una funcionalidad del gestor de contenidos que, como su nombre indica, envía ‘los latidos’ de WordPress al servidor. La principal misión de Heartbeat es enviar información en periodos cortos de tiempo por todo el sistema de WordPress, como si fuera el corazón del CMS. Aunque es muy útil en el caso de sitios web administrados por varias personas, ya que avisa si alguien está editando contenido de forma que no se solapen las modificaciones, lo cierto es que Heartbeat realiza múltiples peticiones pudiendo ralentizar la velocidad de carga de la administración de WordPress como consecuencia de un consumo excesivo de los recursos del servidor.

Para evitar que Heartbeat esté continuamente enviado información, puedes controlar la actividad de la API con Heartbeat Control. De esta forma, puedes aumentar los tiempos del latido de WordPress; establecido por defecto en 15 segundos por página o post y 60 desde el escritorio. Este plugin permite reducir en gran medida el consumo de recursos por parte de Heartbeat con muy pocos ajustes.

Plugins WPO para optimizar plugins

Sí, sí, aunque parezca extraño existen plugins WPO que permiten conocer el consumo y el rendimiento de otros plugins. Y es que, aunque muchos plugins nos faciliten muchas tareas, también pueden acabar siendo contraproducentes. En ocasiones estos plugins pueden consumir demasiados recursos en el servidor o ralentizar la administración de WordPress. Por ello, es recomendable consultar de vez en cuando el comportamiento de cada uno de los plugins instalados en el CMS.

Para comprobar el rendimiento de nuestra instalación de WordPress, puedes recurrir a alguno de los siguientes plugins WPO:

  • WordPress Inspector. Además de realizar comprobaciones para mejorar el SEO de tu web, WordPress Inspector ayuda a la optimización y el rendimiento de la instalación. Además de mostrar a través de indicadores de rendimiento la velocidad de carga de una web, detecta si alguno de los plugins o el tema tiene problemas de seguridad o de rendimiento.
  • Debug Objects. Especialmente recomendado para desarrolladores o usuarios con conocimientos técnicos, proporciona diferentes tablas con información muy útil para entornos de desarrollo. Entre toda la información encontrarás el número de peticiones que realiza cada uno de los plugins de forma que puedas optimizarlos o reemplazarlos por otros similares antes de publicar un sitio web.
  • Query Monitor. Similar a Debug Objects, Query Monitor también es un plugin muy útil para conocer el rendimiento de una instalación WordPress, aunque no cualquier usuario sabrá entender y sacar provecho a los datos.
  • UsageDD. Un plugin muy simple que muestra cuántas consultas MySQL se realizan, la memoria que utilizan los scripts de la web, la versión de PHP, el tiempo de carga de la página web y si el TTFB es alto o bajo. En base a estos datos podrás comprobar si estás utilizando plugins que consumen demasiados recursos o si hay cosas que no funcionan correctamente en tu web. Eso sí, el plugin por sí mismo no te dirá qué está ralentizando tu sitio web, tendrás que averiguarlo tú en base a la información proporcionada por el plugin y realizando diferentes pruebas de configuración.

Sentido común, aliado del WPO

Aunque escoger bien tus plugins WPO puede ser una buena forma de mejorar el rendimiento de tu sitio web, el mejor consejo para optimizar un WordPress es recurrir al sentido común.

  • Utiliza una plantilla ligera. Aunque siempre tendemos a escoger el tema de nuestro WordPress en base al diseño, también deberíamos considerar la cantidad de código que utiliza; ya que lo más probable es que no necesitemos tantos scripts para nuestro proyecto. Puedes utilizar herramientas como GTMetrix para averigurar los scripts CSS o JS que utiliza tu plantilla y, si tiene más de 10, nuestra recomendación es que te decidas por otro tema; ese no está correctamente optimizado.
  • Instala solo los plugins que necesites. Teniendo en tu instalación de WordPress solo aquellos plugins que necesitas, evitas el consumo innecesario de recursos. Y, aunque no todos los plugins tienen porqué ser demasiado pesados, utilizando solo aquellos que realmente tienen sentido en tu sitio web evitarás que se realicen peticiones que no son imprescindibles para el funcionamiento del WordPress y que solo lo ralentizarán.
  • Elimina los plugins que ya no utilizas. Aunque pueda parecer una obviedad, muchas veces desactivamos los plugins que ya no necesitamos, pero no los eliminamos. Al final estos plugins, además de estar ocupando espacio en el servidor, acaban estando desactualizados y suponiendo un riesgo para la seguridad del WordPress.
  • Contrata un hosting o un servidor cloud de calidad. Gran parte de la optimización de un sitio web está relacionada con la calidad del alojamiento. Así, si tu proveedor no te ofrece un servidor optimizado para WordPress compatible con la última versión de PHP, HTTP/2, compresión Gzip… por mucho que optimices tu web, habrá algunos aspectos que no podrás mejorar.
  • Realiza pruebas de consumo periódicas. La mejor forma de saber cuál es el rendimiento de tu web es comprobarlo de vez en cuando. De esta forma podrás contrastar los datos de las diferentes pruebas y ver si alguno de los valores está fuera de lo normal.

La optimización de tu web es un factor que puede ser decisivo para aumentar visitas y escalar posiciones en los resultados de búsqueda. Aunque puedes utilizar plugins WPO para mejorar el rendimiento de tu WordPress, el sentido común y un alojamiento de calidad pueden ser tus mejores aliados.