944 063 154

Blog

¿Qué es la directiva PSD2 y cómo te afecta?

Publicado enGeneral en septiembre 18, 2019 10:00 am

Como en todo, a medida que el comercio electrónico ha ido creciendo y mejorando ha ocurrido lo mismo con su seguridad. Especialmente si tenemos en cuenta que en estas transacciones se utiliza información tan sensible como nuestros datos bancarios. Para evitar que cada operador siguiera sus propios procesos y tiempos, en 2007 se adoptó la Directiva PSD1 (Payment Services Directive). Una norma que permitía homogeneizar los procesos estableciendo un marco común en todos los países de la Unión Europea. Más allá de la estandarización, la puesta en marcha de la primera versión de PSD sirvió para fomentar la competitividad en el sector y generar valor añadido en las tiendas online y sus consumidores. En los próximos días llegará PSD2, la nueva directiva para los pagos digitales.

PSD1, un antes y un después

Desde su puesta en marcha en 2007, PSD1 supuso un antes y un después en el comercio electrónico y sus agentes en toda la Unión Europea. Con la llegada de PSD1 se acabó el monopolio de los bancos como único agente autorizado para realizar operaciones económicas y aparecen nuevos conceptos de entidades y formas de pago. Entre ellas las llamadas entidades de pago, empresas cuya única función es gestionar cobros y pagos; actividad para la que habrán tenido que cumplir con ciertos criterios establecidos en la norma.

Junto con la llegada de las entidades de pago vinieron los iniciadores de pago. Un nuevo sistema de pago que se basa en transferencias instantáneas y directas desde la cuenta del usuario a la del comercio electrónico. Esto permitió integrar nuevas pasarelas de pago, como PayPal o Redsys, en las tiendas online.

La nueva versión: PSD2

Como era de esperar con tanto cambio en el comercio electrónico, ha sido necesario actualizar PSD1 para corregir algunos de sus problemas y, especialmente, mejorar la seguridad del consumidor. Este es el caso de algunas aplicaciones de ahorro o de seguros que requieren de nuestra información bancaria para poder funcionar, un acceso a los datos que hasta la llegada de PSD2 no estaba regulado. Con PSD2 todas las entidades que intervengan en el proceso habrán sido certificadas por una autoridad competente, en este caso el Banco de España.

Además, los bancos deberán facilitar una API a los proveedores para que se realicen las transferencias. De esta forma se acaba con el retraso en las transferencias bancarias, y la demora en el envío y recepción del producto, al realizarse una transacción directa entre usuario y comercio electrónico. Por ejemplo, si adquirimos varios productos en un Marketplace, con PSD2 cada una de las partes recibirá de forma directa e inmediata el dinero que le corresponde. En lugar de que sea el Marketplace quien distribuya, del importe total de la compra, lo que corresponde a cada una de las partes.

Asimismo, con la llegada de PSD2 no será necesario abandonar la web de una tienda online para poder realizar el pago. Es decir, ya no seremos redirigimos a su pasarela de paso, sino que el cobro se realizará dentro del mismo sitio web. Esto implica que compañías como Visa o Mastercard dejarán de tener visibilidad en todos los sitios web al realizarse una transacción directa entre el banco y el ecommerce mediante API.

Más seguridad

Con PSD2 los datos bancarios del usuario estarán protegidos en todo momento por dos certificados diferentes. Por un lado, QWAC, un certificado entre el proveedor y la entidad bancaria que se encarga de encriptar los datos en transmisión. Y, por el otro QSealC un sello de seguridad que viaja adjunto a los datos. Este último permite realizar un seguimiento de las empresas que han accedido a la cuenta bancaria y que transfirieron información a través de la API del banco en cuestión. Además, QSealC garantiza que los datos se puedan modificar. La emisión de estos certificados es competencia del Banco de España. Para poder acceder a ellos es necesario, además de la aprobación de la autoridad competente, contar con alguno de los siguientes permisos:

  • Servicio de agregación de información (AIS). Un permiso para proveedores que estén interesados en recibir información de una cuenta bancaria. Estas entidades se encargan de recopilar y mostrar los datos haciendo que el cliente pueda acceder a toda su información con mayor facilidad.
  • Servicio de iniciación de pagos (PIS). Esta licencia está orientada a empresas que pueden realizar pagos o transferencias en nombre del cliente. Para ello recurren a un software que conecta las cuentas bancarias del comprador y la empresa y notifica a las partes cuando se ha realizado la transacción.

Además, con PSD2 no se permitirán recargos adicionales al finalizar el proceso de compra. Con la nueva normativa dejarán de aplicarse sobreprecios sobre el precio de compra por razones como el tipo de tarjeta de crédito.

Consecuencias de PSD2

Al igual que ocurrió con la RGPD, parece que solo hemos escuchado hablar de ella cuando su llegada es inminente. Pero lo cierto es que PSD2 fue adoptada en 2017 y su incorporación a la legislación española llegó en septiembre de 2018. En primer lugar se estableció el 14 se septiembre como fecha límite, el plazo para su implantación se ha ampliado entre 14 y 18 meses.

La llegada de PSD2 afecta principalmente a los bancos y las entidades financieras, lo que hace de esta nueva directiva algo prácticamente inapreciable para usuarios y tiendas online. En cualquier caso, antes de la llegada de PSD2 te recomendamos asegurarte de que tu ecommerce está adaptado a esta nueva norma, evitando así cualquier tipo de penalización como consecuencia de su incumplimiento. Por ejemplo, en el caso de que no hayas implementado la autenticación en dos pasos en tu tienda online algunos pagos serán automáticamente cancelados. Esto afectará a:

  • Pagos con un importe superior a los 30€, o con un coste superior a 100€ si se trata de varios productos.
  • Transacciones económicas que tengan lugar dentro de la Unión Europea. En el caso de que se produzcan fuera del territorio europeo no será necesaria la doble autenticación.
  • Transacciones solicitadas por el cliente. Para aquellas iniciadas por parte de las empresas, como las domiciliaciones bancarias, no se requiere de doble factor de autenticación.

Adiós a las tarjetas de coordenadas

Entre los principales cambios que llegan con la nueva PSD2 se encuentra el fin de las tarjetas de coordenadas. Sí, aquella que te dieron el primer día y que siempre necesitarías para realizar compras por internet. El método estandarizado de doble autenticación de los últimos años, también desaparece al no tener que salir de una tienda online para pagar por sus productos.

A partir de la llegada de la nueva norma, la seguridad adicional en tus compras vendrá desde tu móvil, indispensable para realizar cualquier pago a través de internet. Lo que provocará que también deje de tener importancia el CVV de tu tarjeta, otro de los códigos de seguridad tradicionales.

Activa la 2FA

Aunque las estadísticas indican que el fraude en el comercio electrónico se encuentra en niveles muy bajos gracias al uso de sistemas de seguridad en las aplicaciones, la autenticación en dos pasos reducirá aún más estas cifras. Desde el 14 de septiembre todos los pagos que se realicen en una tienda online deberán estar protegido por la autenticación en dos factores. La 2FA es un requisito indispensable en un ecommerce para cumplir con la nueva PSD2.

Con esta medida se seguridad adicional se garantiza el pago seguro y se protege al máximo la información más sensible solicitando al cliente al menos dos de los siguientes elementos:

  • Algo que solo el cliente conozca. Como su contraseña o un PIN de acceso, el resto de su información bancaria, como el número de cuenta, no se consideran datos que el cliente tenga que conocer.
  • Algo que solo el cliente posea. Por ejemplo, su teléfono móvil.
  • Algo propio del cliente. El reconocimiento facial, mediante huella dactilar o a través de su voz.

Para ello puedes instalar un plugin, si se trata de un WooCommerce, o un módulo, en el caso de PrestaShop, que ofrezca esta funcionalidad. Eso sí, antes de instalar nada asegúrate de que el tema de tu ecommerce y los addons que se encuentren en ella son compatibles con el nuevo elemento.

Sencillez con PSD2

En un intento por hacerlo todo más sencillo, no será necesario introducir el segundo factor de autenticación cada vez que quieras realizar un pago. Durante un plazo de 90 días, el banco recordará que eres tú quien paga y no solicitará la comprobación.

Aunque cada banco llevará una estrategia diferente de cara a la adaptación a PSD2, lo cierto es que todos harán del móvil algo fundamental. Si antes debíamos tener a mano la tarjeta física para realizar pagos, ahora no podremos perder de vista nuestro smartphone; y siempre con conexión a internet, evidentemente. Bueno, y tener la aplicación de nuestro banco siempre actualizada, porque es muy probable que los códigos de confirmación se envíen desde la APP y no con un SMS, para evitar consecuencias del SIM swapping. Auqnue por el momento son muy pocas las entidades bancarias que han rehusado utilizar los mensajes de texto como factor de doble autenticación.

SIM swapping, el fraude bancario que empieza por tu tarjeta SIM

Publicado enCiberataques en septiembre 11, 2019 10:00 am

Desde que empezaron a convertirse en algo fundamental en nuestro día a día, el temor a perder nuestro smartphone ha pasado a ser uno de los miedos más frecuentes. Y es que cada vez que no encontramos nuestro teléfono móvil a la primera, el microinfarto está asegurado. A este susto hay que sumarle otro que parece estar en su máximo esplendor: el SIM swapping.

¿Qué es el SIM swapping?

También llamado suplantación de tarjeta SIM, este tipo de fraude consiste en explotar la puerta de acceso a los datos de nuestros terminales para accederse con nuestras credenciales. Aunque muchas veces tendemos a infravalorarlas, las tarjetas SIM son las responsables de que podamos hacer infinidad de tareas desde nuestros smartphones; desde llamadas telefónicas a intercambiar WhatsApp, tareas que no serían posibles sin la tarjeta SIM del dispositivo.

Así, el SIM swapping consiste en burlar los protocolos de los operadores móviles para hacerse con un duplicado de la tarjeta de otra persona. Con la SIM duplicada en su poder, el atacante puede acceder a los servicios de la víctima gracias a la autenticación en dos pasos a través de SMS. Esto se debe a que los mensajes de texto no están cifrados, lo que hace que utilizarlos para la autenticación en dos pasos no sea la mejor de las ideas. Aunque no hace tanto recurrir al SMS como capa extra de seguridad a la hora de acceder a algunos servicios era recomendable, actualmente es mejor optar por otras alternativas como la huella dactilar, el reconocimiento facial o aplicaciones como Google Authenticator.

Detectando el fraude de la SIM

Saber si estamos siendo víctimas de esta nueva técnica de ataque basta con prestar atención a dos factores clave: la cobertura del dispositivo y los movimientos bancarios inusuales. Al duplicarse la tarjeta SIM lo normal es que la tarjeta original deje de funcionar, de ahí que se produzcan pérdidas de cobertura. Además, pese a los complejos y seguros protocolos que siguen las entidades bancarias, la mayoría de los bancos recurren a los SMS como factor de doble autenticación. Por eso, hacerse con un duplicado de la tarjeta de tu móvil es esencial para el SIM swapping porque, entre otras cosas, las SIM móviles funcionan en cualquier plataforma.

Para obtener el duplicado de una tarjeta SIM los hackers se valen de todo tipo de técnicas de ingeniería social a través del engaño del trabajador de la operadora móvil. Aunque en ocasiones también se recurre a ciberataques o a la compra de bases de datos de páginas web que hayan sido comprometidas. Incluso es posible descifrar el código de acceso al móvil haciendo que el proceso sea aún más sencillo.

¿Cómo evitar ser víctimas de SIM swapping?

No cabe duda de que el móvil no es solo el dispositivo que más utilizamos sino también el que almacena mayor cantidad de información. Por ello, además de cuidarnos de no perderlo o que puedan robárnoslo, es importante tomar precauciones digitales para evitar que puedan clonar nuestra tarjeta SIM.

  • Establece como forma de 2FA una clave física, como la huella dactilar o el reconocimiento facial y, si optas por contraseñas o códigos PIN, almacena las claves en dispositivos sin conexión a internet. De esta forma se evita que tus contraseñas puedan filtrarse.
  • No compartas demasiada información sobre ti en lugares públicos como redes sociales o foros de internet. Cuantos más datos publiques, más fácil será utilizar esa información en tu contra.
  • Evita almacenar toda tu información en tu dispositivo móvil. El hecho de que sea tan fácil de transportar también convierte a tu smartphone en fácil de perder o susceptible de ser robado.
  • Aunque es prácticamente imposible, evita vincular el menor número de servicios con tu número de móvil. De esta forma en el caso de ser víctima de SIM swapping el atacante solo tendría acceso a aquellos servicios en los que, entre la información de tu perfil, aparezca tu número de contacto.

Otras consecuencias

Aunque el fraude bancario sea la principal consecuencia, el SIM swapping puede llegar a expandir malware entre los contactos de tu agenda; principalmente a través de enlaces enviados por mensaje instantáneo. Porque, ¿quién va a desconfiar de lo que le envía uno de sus contactos?

En las últimas semanas parece que el SIM swapping está instalándose en nuestro país. Así que si notas que de repente tu teléfono móvil experimenta comportamientos extraños no dudes en ponerte en contacto con tu operadora móvil y, sobretodo, cambiar las claves de acceso y el segundo factor de autenticación de todos los servicios que utilices. Además, no olvides avisar a tus contactos para evitar que puedan acabar siendo víctimas también del SIM swapping.

El SIM swapping es algo que puede pasarle a cualquiera, desde usuarios anónimos que comparten su experiencia en Twitter, hasta el propio cofundador de la red social, Jack Dorsey. Nadie se salva de la maldad de los ciberdelincuentes.

Conoce el consumo de tu servidor con las nuevas gráficas de monitorización

Publicado enServidores cloud en septiembre 4, 2019 10:00 am

La monitorización proactiva es una de las características principales de nuestros servicios de administración de sistemas. Pero, el hecho de que nos encarguemos de vigilar el estado en el que se encuentra tu servidor cloud para adelantarnos a gran parte de los futuros problemas, no significa que no puedas comprobar por ti mismo el estado en el que se encuentra tu máquina. Por ello, hemos mejorado las gráficas de monitorización para ofrecerte más información del servidor cloud de una forma más sencilla.

Más datos, más fácil

Detrás de cada servidor cloud hay una gran cantidad de información: datos económicos, información concreta sobre el consumo del servidor, el estado del servicio… Para que conocer todos estos datos, y entenderlos, sea más sencillo desde el área de cliente puedes acceder a las gráficas de monitorización de tu servidor y más información relacionada con tu alojamiento. Ten en cuenta que estos datos solo están disponibles en el caso de los servidores con administración de sistemas.

Mediante la opción ‘ver detalles’ de tu servidor puedes comprobar de un solo vistazo que todo en tu servidor cloud funciona de forma correcta. Además, de conocer el estado del servidor, también puedes conocer el tiempo que lleva encendido, la dirección IP o el periodo de facturación. Asimismo, puedes ver la configuración del alojamiento y los servicios adicionales, como mantenimiento el tipo de servicio de administración de sistemas que tengas contratado, si dispones o no de mantenimiento de WordPress o si cuentas con licencia Plesk.

Interpretando las gráficas de monitorización

Sin duda el principal cambio son las nuevas gráficas de monitorización. Una serie de tablas que aportan datos precisos sobre el uso de cada uno de los recursos contratados. Además, muestra el estado en tiempo real de los diferentes servicios instalados en el servidor.

  • CPU. La CPU, o core, es uno de los aspectos esenciales de la monitorización, ya que cada una de las acciones que se producen en el servidor consumen CPU. Expresado en porcentaje, puede que algunos procesos aumenten puntualmente la carga de CPU. Un consumo elevado durante un periodo prologado indica que los recursos de la máquina no son suficientes para la ejecución de los procesos y puede afectar al funcionamiento de la máquina.
  • RAM. Es la memoria con la que cuenta el servidor y que es fundamental para atender las peticiones de los usuarios, de ahí que sea otro de los aspectos esenciales en las gráficas de monitorización. A diferencia de la CPU, es normal que el consumo de RAM se mantenga de forma prolongada. Estos niveles suelen estar relacionados con la necesidad de ampliar los recursos, aunque también pueden deberse a la mala configuración de alguno de los servicios o aplicaciones.
  • Disco. Indica el espacio total de almacenamiento con el que cuenta el servidor cloud. En el disco se almacenarán los archivos de la web, o webs, almacenadas en el servidor, los buzones de correo, las bases de datos… cualquier elemento que dependa o posibilite el funcionamiento del servidor. En Linube recomendamos dejar siempre un 20% de la capacidad del disco libre para el almacenamiento de backups y garantizar el correcto funcionamiento del servidor.
  • Ancho de banda. Es la cantidad de datos que se transmiten por segundo desde y hacia el servidor. Para calcular estos niveles recurrimos a la fórmula del percentil 95. En los momentos en que el consumo de ancho de banda es más elevado es posible que la velocidad del sitio web se resienta y que la página tarde más en responder.

En mejora continua

Hace unos meses os presentábamos una forma más sencilla de apagar, reiniciar o forzar el apagado de un servidor no administrado. En esta ocasión, la mejora está orientada a los servidores administrados. Junto a las gráficas de monitorización podrás comprobar el estado en el que se encuentran cada uno de los servicios instalados en el servidor. Además de las URLs monitorizadas y el tiempo de respuesta de dichas direcciones. Para hacerlo más visual, hemos recurrido a tres colores: verde cuando el estado del servicio es correcto, amarillo para los avisos y rojo para alertar de los errores. Con las nuestras nuevas gráficas de monitorización podrás conocer de primera mano, y de la forma más transparente, el consumo de recursos de tu servidor.

Seguimos trabajando para ser lo más transparentes posible. Por ello, a partir de ahora cada vez que se produzca alguna incidencia en cualquiera de tus servicios contratados aparecerá una notificación en la ventana de inicio del área de cliente. Así, podrás saber en todo momento de qué se trata con tan solo iniciar sesión en tu panel de cliente. En cualquier caso, también te notificaremos por email del estado de la incidencia y del restablecimiento del servicio.

En Linube no solo tratamos de mejorar nuestros servicios a nivel técnico. Queremos que tú seas testigo de cada una de estas mejoras y puedas beneficiarte de ellas.

Los doodles de Google, garabatos con arte

Publicado enGeneral en agosto 28, 2019 10:00 am

Ya no nos sorprende entrar en la página principal de Google y darnos cuenta de que su logotipo ha cambiado. Es más, muchas veces es probable que ni nos demos cuenta de que el logo tradicional se ha sustituido temporalmente por un doodle; bien porque nos hemos acostumbrado a su presencia, o simplemente porque no pasamos por la página de inicio de Google. Lo cierto es que los doodles se han convertido en un elemento informativo más de nuestro día a día. Pero, ¿cómo surgió el doodle?

El nacimiento del doodle

La primera alteración del logotipo de Google tuvo lugar un final de agosto de 1998. Larry Page y Sergey Brin se disponían a acudir al Burning Man Festival, un evento de siete días que se celebra en Nevada, Estados Unidos. Antes de marcharse lejos de la civilización, los creadores de Google decidieron notificar en clave de humor a sus usuarios sobre su futura ausencia. Sobre su ‘out of office’ (OoO), justo lo que la unión lo de logotipos sugería de forma sutil. Especialmente por si durante esos días se produjera algún inconveniente que pudiera afectar al funcionamiento de la aplicación o si los servidores se dañaban.

Desde esa primera prueba tuvieron que pasar un par de años hasta que en julio de 2000 apareciera un segundo doodle dedicado al Día de la Toma de la Bastilla. Un proyecto con tan buenas críticas que, además de servir para nombrar a su autor como ‘doodler’ oficial, propició que el doodle se fuera convirtiendo en un indispensable del buscador para comunicar todo tipo de acontecimientos. En un primer momento, dedicados a festividades populares, para después representar también eventos específicos de cada uno de los países.

Repasando los doodles

En estos 21 años el equipo de Google ha creado más de 2.000 piezas diferentes para las páginas de inicio de los principales países en los que el buscador tiene presencia. A la hora de decidir qué eventos se representan se tienen en cuenta numerosas fuentes, desde empleados de Google a usuarios, e incluso es posible sugerir temáticas o personalidades a los doodlers. Asimismo, a partir de los datos de herramientas como Google +, el día de tu cumpleaños la página de inicio se personalizaba con un doodle solo para ti.

Si bien el primer doodle animado no apareció hasta el 21 de mayo de 2010 dedicado a PAC-MAN, actualmente los hay de todos los tipos. Desde aquellos que cambian los colores, los que utilizan una tipografía diferente, hasta los que sirven a modo de videojuego. De ser algo estático han pasado a convertirse en un elemento dinámico con el que interactuar (y que nos hace pasar más tiempo dentro del buscador).

Desde aquel agosto de 1998, el doodle el término ‘garabato’ en inglés adquirió un nuevo significado para convertirse en una herramienta más de Google. ¿Cuál será el próximo y qué celebrará? Solo Google lo sabe.

Módulos imprescindibles para sacarle el máximo partido a PrestaShop

Publicado enDesarrollo y Programación en agosto 21, 2019 10:00 am

PrestaShop es uno de los gestores de contenido más utilizados para el desarrollo de una tienda online. La versatilidad que proporciona la multitud de módulos PrestaShop es una de las principales características del CMS. Así, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan.

¿Qué son los módulos PrestaShop?

Los módulos PrestaShop son extensiones o complementos que añaden más funcionalidades al gestor de contenidos, en este caso PrestaShop. Gracias a ellos, cada usuario puede personalizar al máximo su ecommerce instalando o activando los módulos que más le convengan. Una capacidad que va desde la parte estética a la técnica y que apenas requiere de configuraciones.

Al igual que ocurre con los plugins de WordPress, te recomendamos descargarlos desde el sitio oficial. En la misma web de PrestaShop encontrarás una amplia variedad de módulos que te permitirán incluir nuevas funciones en tu tienda online. Como en el caso de WordPress, recuerda instalar únicamente aquellos módulos PrestaShop que necesites; ya que un exceso de módulos puede perjudicar al rendimiento de tu tienda online, además de provocar vulnerabilidades si no se actualizan con frecuencia.

Principalmente los módulos PrestaShop pueden clasificarse en tres categorías:

  • De personalización de la interfaz o de la tienda online. Este tipo de complementos permiten modificar los aspectos visuales, tanto del panel de gestión del administrador como de la propia página del comercio electrónico. Con estos módulos es posible modificar los menús o las fichas de producto, añadir banners o realizar modificaciones en periodos determinados como rebajas o el Black Friday.
  • De tareas empresariales. Gestionar los envíos, ofrecer descuentos, recuperar carritos abandonados, mejorar el SEO de la tienda online… extensiones que facilitan la realización de tareas necesarias para el óptimo funcionamiento del negocio; no solo de la tienda online.
  • De integración con otras herramientas. Algunas funciones, como el pago de los pedidos, requiere de una pasarela de pago; plataformas externas que aumentan las funcionalidades del comercio electrónico.

Módulos imprescindibles

  • Aviso de cookies. Con la llegada de la RGPD, e incluso antes, es fundamental que tu tienda online advierta al usuario de todas las cookies que se utilizan en el sitio. Para ello basta con instalar un simple módulo PrestaShop que, con unas pequeñas configuraciones, realizará esta función a la perfección.
  • Recuperación de carritos abandonados. No es nada extraño ver qué se ofrece en una tienda online y comenzar una compra que no se finaliza. En estos casos, contar con un módulo para carritos abandonados permitirá cerrar muchas ventas que de otra forma se hubieran quedado en el camino. Además, este tipo de extensiones permiten ofrecer descuentos o envío gratuito a través de un email recordatorio para animar a finalizar el pedido.
  • Módulo de caché. La velocidad de carga de la tienda online es un aspecto fundamental para el usuario y también para posicionar mejor en buscadores. Cada visita que llega al comercio electrónico es una venta potencial que no deberíamos perder y menos por algo que está totalmente en nuestras manos. Con un módulo PrestaShop de caché es posible optimizar el ecommerce con facilidad.
  • Pasarelas de pago. Una tienda online no sería tal sin una pasarela de pago que permita finalizar el pedido. Como existen muchos tipos de usuarios, es recomendable que ofrezcas más de una forma de pago. De forma que no estés limitando las opciones a aquellos que tienen cierto reparo a la hora de realizar pagos a través de internet. Redsys, PayPal, transferencias, contra reembolso… son algunas de las opciones.

Módulos recomendables

  • Feed de Instagram. Si utilizas esta red social para conectar con tus usuarios, este módulo PrestaShop es casi fundamental. Además, podrás conectar tu tienda online con el perfil de Instagram y vender también a través de la red social.
  • Newsletter con Mailchimp. Enviar periódicamente comunicaciones comerciales a tus suscriptores es una buena forma de invitarles a volver a tu tienda online. Si, además, realizas envíos personalizados y diferentes o incluyes algún tipo de descuento, cada email será una venta casi segura.
  • Módulos para SEO. Trabajar el contenido de tu tienda online es un aspecto básico para hacerla más visible y facilitar la llegada de futuros compradores. Este tipo de módulos, además de facilitar la conexión del ecommerce con Google, permite optimizar los títulos, las descripciones y las etiquetas sin necesidad de realizar cambio alguno en el código.

Módulos PrestaShop recomendables

  • Buscador avanzado. Aunque PrestaShop incluye por defecto un buscador, es algo limitado. Para ponérselo muy fácil a tus usuarios, te recomendamos instalar un buscador que simplifique la tarea de encontrar un producto determinado en la tienda online.
  • Venta cruzada. Sugerir productos relacionados con el artículo en el que el usuario está interesado es una técnica para aumentar las ventas. Para que tu tienda online ofrezca esta funcionalidad solo tienes que instalar un módulo que se encargue de realizar esta función.
  • Preguntas frecuentes. Proporcionar el máximo de información posible al usuario ayuda a que tome una decisión, en este caso acabar comprando en el comercio electrónico. Por eso es recomendable contar con un módulo PrestaShop para preguntas frecuentes donde se resuelvan las dudas habituales relacionadas con algunas características del servicio como los envíos o la gestión de las devoluciones.
  • Crear un blog. Aunque no se trata de un módulo PrestaShop, incluir en la tienda online un blog es una buena forma de generar contenido. A los buscadores les gusta que los sitios web se actualicen de forma constante. Así, contar con un blog permitirá estar creando contenido relacionado con las palabras clave del negocio, algo fundamental para contribuir a mejorar el SEO del ecommerce.

Sacarle el máximo partido a una tienda online creada a partir de un CMS es fácil si cuentas con los módulos PrestaShop adecuados; y si están correctamente configurados. Pero no debemos olvidar que el mejor complemento es siempre el sentido común. Así que no te olvides de realizar copias de seguridad de tu ecommerce y no instales en tu PrestaShop todo aquello que no necesites. De esta forma tu tienda online siempre funcionará de la mejor manera.

El primer sistema ecommerce permitió realizar un pedido a través de una TV

Publicado enDesarrollo y Programación en agosto 14, 2019 10:00 am

Al día se realizan en el mundo miles y miles de compras online, lo que muy pocos saben es que la primera persona que consiguió realizar una compra online fue una señora inglesa. Jane Snowball consiguió hace más de 35 años realizar un pedido a Tesco a través del primer sistema ecommerce de la historia. Una compra para la que no se utilizó ningún ordenador sino la televisión instalada en la salita de la mujer.

Videotex, el primer sistema ecommerce

Un día cualquiera de 1979 cuando Michael Aldrich, un inventor inglés, se encontraba paseando con su mujer pensó que sería una buena idea crear un sistema que le librara de tener que ir hasta el supermercado. Aquella falta de ganas por ir a hacer la compra se materializó en Videotex, el primer sistema de ecommerce de la historia.

La peculiaridad de este sistema es que no dependía de un ordenador, sino de una televisión. Tengamos en cuenta que, en aquel momento, ni los ordenadores domésticos ni internet, ni siquiera la web, se habían popularizado aún. De ahí que Aldrich optara por investigar con lo que tenía más a mano. Durante sus primeros años Videotex fue utilizado por algunas empresas para hacer negocios a distancia, pero no fue hasta 1984 cuando el primer sistema ecommerce llegó al usuario general.

Aquel año el ayuntamiento de Gateshead estaba experimentando con una iniciativa para personas mayores o con problemas de movilidad. La idea era permitirles hacer algunas de sus tareas diarias, como ir al supermercado, sin tener que salir de sus casas. Para ello, el sistema de Aldrich era perfecto. Una televisión que había sido modificada para realizar pedidos en tiempo real a través de un sistema de estética similar al Teletexto.

Un funcionamiento peculiar

A pesar de que no puede ser considerada como la primera compra online, puesto que el pedido se pagó en metálico, no cabe duda de que la compra realizada por Jane Snowball fue algo sin precedentes. La mujer solo tuvo que dejar de ver durante unos minutos su serie favorita para realizar su pedido desde su televisión. Un aparato al que se le había instalado un chip que a través del botón ‘phone’ del mando a distancia mostraba un directorio de supermercados locales. De entre esa pequeña lista de comercios era posible escoger entre más de mil productos. El pedido se enviaba a través de la línea de teléfono y se pagaba en metálico cuando se recibía en el domicilio.

Este sistema permitía transformar en un ordenador cualquier televisión estableciendo una conexión directa entre el televisor y la tienda. Pese a que se trataba de una buena idea, apenas tuvo éxito porque requería de una gran inversión para el poco uso y beneficio económico que reportaba. Además de que, para cuando otros ayuntamientos fueron a implantarlo, internet ya había llegado a nuestras vidas. Después llegarían eBay, Amazon y todos los demás para convertir al ecommerce en un canal de venta masivo.

Tres décadas de ecommerce

Llevamos más de 30 años comprando a distancia de una forma u otra. Y, muy posiblemente, sin el invento de Michael Aldrich y su primer sistema ecommerce, el comercio electrónico que conocemos actualmente no sería igual. La idea de un adelantado a su tiempo que demostró que podíamos hacer casi cualquier cosa desde el sofá, incluso la compra diaria.

Con el paso de los años Aldrich trabajó para el gobierno de Margaret Tatcher, Tesco se convirtió en una de las primeras tiendas online y la señora que realizó el primer pedido fue reconocida por su papel en la iniciativa. El único problema de todo aquello es que apenas se conservan registros. En ese momento no se consideró que el primer pedido realizado a través de un sistema ecommerce fuera a ser trascendente. Eso y que fue necesaria una década hasta que los comercios se dieron cuenta del enorme potencial de aquel experimento.

Internet, una red de cables submarinos que rodea el planeta

Publicado enHosting en agosto 7, 2019 10:00 am

Aunque parece que vuelan, tus emails no se envían por paloma mensajera; tampoco los angelitos velan por la seguridad de tus backup. En un mundo de conexiones inalámbricas, las verdaderas conexiones se realizan a través de cables. Autopistas de cables submarinos de fibra óptica que, con sus pulsos de luz, hacen que cualquiera de nuestras peticiones llegue a misma velocidad. En apenas unas milésimas de segundo los datos son capaces de recorrer miles de kilómetros; desde nuestro dispositivo hasta el servidor en el que se encuentra la información y vuelta.

Millones de kilómetros de cables submarinos

Las verdaderas conexiones no tienen lugar en el aire, tampoco se encuentra flotando la banda ancha que contratamos a nuestro operador de telefonía. El 99% de las comunicaciones a través de dispositivos se realiza en el fondo del mar; así, cuando decimos que los datos ‘viajan’ igual deberíamos decir que ‘nadan’.

Internet no es un ente que nos permite solucionar nuestras dudas en segundos o comunicarnos a tiempo real con nuestros amigos. Internet es un conjunto de máquinas conectadas a través de cables submarinos que nos permite realizar casi cualquier cosa desde nuestros dispositivos. Pero todo esto no sucede de forma mágica, internet además de ser algo físico, también hace ruido. Al igual que podemos ver la red de metro de una ciudad, incluso podemos escuchar cuando los vagones están en circulación, con internet sucede algo parecido. La parte física la componen un montón de equipos y los miles de kilómetros de cables submarinos encargados de unir todas esas máquinas; la sonora, las máquinas a pleno rendimiento en lugares especialmente acondicionados para su funcionamiento. Por lo que internet no solo es visible y hace ruido, internet también es frío.

Rutas de buques de carga

La historia de los cables submarinos se remonta a 1850 cuando Francia e Inglaterra plantearon el primer sistema de telégrafo, una infraestructura que atravesaría el Canal de la Mancha pero que sufrió su primera avería solo unas horas después de ponerse en marcha. Aunque a nivel técnico la infraestructura actual poco tiene que ver con la creada durante el siglo XIX, el aspecto del trazado es prácticamente el mismo a excepción de la inexistencia de conexiones con Asia.

En 2018 se estima que había más de 448 cables submarinos conectando diferentes puntos de la tierra. Una cifra que a buen seguro habrá aumentado porque cada año entran en funcionamiento nuevos cables. Como por ejemplo Equiano, que estará listo a finales de 2020, o Marea, el último cable que conecta España. Además de las nuevas oportunidades comerciales que está propiciando el deshielo provocado por el cambio climático; como lo ocurrido en el Ártico.

Sin ninguna duda esta infraestructura ha sido clave para el avance de la sociedad. La necesidad de más conexiones y de mejor calidad ha provocado que la longitud de estas autopistas de cables en línea recta sea, aproximadamente, la misma que separa la Luna de la Tierra: más de un millón de kilómetros.

Fragilidad submarina

Aunque los cables submarinos descansan en el fondo del mar y están protegidos, en ocasiones esa distancia no es suficiente para asegurar que los cables no sufren daños. Esto no es más que la evidencia de que internet no es una red indestructible, sino todo lo contrario: es bastante vulnerable. Tanto en el mar, como en su salida a tierra o en las tareas de manejo los cables submarinos son extremadamente sensibles. Un corte en uno de los cables submarinos puede dejar sin servicio a un país entero y, en este sentido, se estima que anualmente unos 150 cables sufren algún tipo de daño.

La gran mayor parte de los problemas tienen que ver con la actividad humana. Las redes de barcos o las anclas de algunos buques suelen ser culpables habituales de la rotura de los cables submarinos ubicados a más de 100 metros de profundidad. Asimismo, la ubicación de los cables submarinos es pública lo que en casos puntuales provoca que se dañen intencionadamente al no ser necesarios grandes recursos ni habilidades para estropearlos. Pero no solo los grandes barcos ni el hombre tienen la culpa, algunos animales marinos pueden dañarlos al confundirlo con presas o al utilizarlos para esconderse de los depredadores. Además, algunos desastres naturales como terremotos o maremotos pueden estropear los cables submarinos.

Más allá de las molestias causadas por el corte, los daños en los cables submarinos pueden ocasionar pérdidas millonarias. En la actualidad la gran mayoría de los servicios dependen en mayor o menor medida de internet, por lo que un corte en el servicio puede ser fatal. Los expertos recomiendan ocultar los lugares en que se ubican los cables, reforzar los puntos de entrada y salida a tierra y mejorar los sistemas de monitorización. Una serie de inversiones que permitirían hacer mucho más fuerte la red de cables submarinos que nos permiten conectarnos a cualquier parte del mundo.

Fog computing, la tecnología que hace más accesible el cloud

Publicado enServidores cloud en agosto 1, 2019 10:00 am

Cuando ya habíamos empezado a familiarizarnos con el cloud computing, aparece un nuevo término informático-meteorológico en nuestras vidas: el fog computing. Aunque a decir verdad el término, y el concepto, llevan ya algún tiempo en nuestro día a día. Cosa bien diferente es que esté ganando protagonismo en los últimos tiempos.

La niebla informática

En un primer momento podría parecer el nombre de una novela de terror, pero pensándolo bien el término acaba por cobrar mucho sentido. Más o menos lo mismo que pasó la primera vez que nos enfrentamos a aquello de la computación en la nube.

Así, si las nubes son un conjunto de minúsculas gotas de agua que se encuentran muy por encima de nuestras cabezas; la niebla serían esas mismas gotas flotando mucho más cerca del suelo. De la misma manera, la tecnología cloud puede parecer algo remoto e inalcanzable mientras que el fog computing está más cerca de nosotros. Podríamos decir que se trata de una extensión del cloud pero con una serie de características que le diferencian de un servicio superior y sin el que el fog computing no tiene sentido.

¿Qué es el fog computing?

También llamado edge computing porque tiene lugar al borde de la red, la tecnología en la niebla se ocupa del procesamiento de los datos en el limbo que separa los dispositivos de la nube. Una especie de niebla tecnológica que se encarga de unir nuestros dispositivos inteligentes con el espacio en la nube en el que se almacenará esa información.

Con la aparición del internet de las cosas y con el constante crecimiento de dispositivos conectados, cada vez se generan más y más datos. Una información que deberá enviarse a la nube para ser almacenada, algo que aumenta el consumo de datos y el ancho de banda del dispositivo. Para evitar un excesivo consumo de recursos entra en juego el fog computing. Una tecnología que, simplificándolo al máximo, viene a ser el intermediario entre nuestros dispositivos y la nube.

Si cada vez que generamos datos tuvieran que enviarse directamente a la nube, los dispositivos funcionarían más lentos. Gracias al fog computing, la información se procesa en el propio dispositivo, se cifra y se envía a modo de resumen a nuestro espacio en la nube. Haciendo que los dispositivos tengan un rendimiento mayor y consuman solo los recursos necesarios, además de acercar el cloud de una forma más eficiente según las características del dispositivo.

Por ejemplo, si los equipos de domótica que equipan algunos hogares tuvieran que enviar constantemente los datos a la nube, el simple hecho de intentar apagar una luz llevaría unos cuantos segundos de más. En cambio, con el fog computing en lugar de enviarse directamente cada una de las peticiones, se envía un resumen de las mismas. Esto hace que prácticamente al enviar la orden, la luz que hemos seleccionado se apague; además de evitar que los procesos tengan que realizarse dos veces.

Puntos positivos

De alguna manera el fog computing propone una solución a los problemas relacionados con la implantación del internet de las cosas. Con esta tecnología se consigue reducir el tráfico entre los dispositivos inteligentes y el almacenamiento en la nube a la vez que se ahorra en costes. Al enviarse menos información y ya procesada, tanto el tamaño del archivo como el número de envíos es menor haciendo que se reduzca el consumo de datos; además de evitarse la formación de cuellos de botella.

Asimismo, consigue solventar uno de las principales inseguridades que la tecnología cloud despierta en los usuarios: el control sobre los datos. Así, el fog computing otorga al usuario un control más visible sobre la información que el mismo genera. Puesto que todos los datos se originan en los dispositivos y se procesan de forma local, el usuario percibe un mayor control sobre sus datos; aunque en la nube también obtenga el dominio total, por la intangibilidad de la tecnología parece algo más lejano e incierto.

Pero sin duda el punto más fuerte del fog computing respecto al cloud es la posibilidad de funcionamiento offline. Mientras que la tecnología en la nube requiere de una conexión entre dispositivos y el almacenamiento para funcionar, el fog computing es capaz de seguir almacenando información incluso si no ha sido posible establecer una conexión. Cuando vuelva a producirse la conexión, el dispositivo enviará los datos ya tratados al espacio en la nube.

Lo gris del fog computing

Procesar los datos al borde de la red, aunque se esté en interacción con el cloud, también tiene su lado malo. Por ejemplo, es mucho más sencillo manipular o alterar un dispositivo para acceder a sus datos que hacerlo en un Centro de Datos en la nube. Del mismo modo durante el envío de los datos del dispositivo a al almacenamiento cloud hay más probabilidades de que se produzcan ataques de intermediario; es decir, cuando alguien no autorizado intenta acceder a la información durante la transmisión.

También hay que considerar que el fog computing al depender de un dispositivo físico no está redundado. Lo que quiere decir que en caso de que el dispositivo principal sufra cualquier daño, la información podría perderse. O al menos sí lo haría la conexión con el almacenamiento cloud, hasta que el dispositivo emisor pueda ser restaurado. Algo que va directamente relacionado con una mayor necesidad de mantenimiento como consecuencia de la descentralización de los datos; es decir, al no encontrarse todo almacenado en la nube.

En relación al procesamiento de los datos, como únicamente se envía a la nube un resumen de la información, se reduce la visibilidad de lo que realmente sucede. Así, en el caso de que necesitáramos acceder a los datos en bruto, no sería posible más que obtener un resumen de ello.

Aunque algunos caigan en el error de considerar el fog computing como una tecnología alternativa al cloud, el primero nunca podrá ser sin el segundo. Es decir, el fog computing tiene como objetivo maximizar los beneficios de la tecnología en la nube y acercársela al usuario.

Todo lo que MSN Messenger fue y lo que quedó en el camino

Publicado enGeneral en julio 24, 2019 10:00 am

Si a finales de los 90 y principios de los 2000s estabas en plena adolescencia puede que sientas una punzadita de nostalgia. Porque hace no tanto la puerta de internet no era Google sino MSN, una serie de servicios creados por Microsoft que nos abrían al mundo y de donde acabaría saliendo su producto estrella: MSN Messenger.

¿Qué fue MSN Messenger?

La primera y arcaica versión de MSN Messenger fue lanzada el 22 de julio de 1999. Una agenda de contactos y la posibilidad de enviar de forma instantánea mensajes en texto plano fue el punto de partida de una aplicación que, con el paso del tiempo, acabaría convirtiéndose en la semilla de nuestras redes sociales.

En los 90 los proveedores de servicios de internet recurrían a los servicios de mensajería como anzuelo para captar (y retener) clientes. Un mercado al que Microsoft llegó un poco tarde pero que, gracias al retraso, pudo crear una app de mensajería que superara las limitaciones de sus competidores. Generalmente, este tipo de servicios solo permitían interactuar con otros usuarios del mismo proveedor. Pero Bill Gates, consciente de que la popularización de internet iba a ser clave para el futuro de sus productos, apostó por una nueva fórmula; un servicio que permitiera chatear con otros usuarios independientemente de cuál fuera su proveedor.

Aunque la idea principal fue que MSN Messenger fuera compatible con otros servicios similares, Microsoft se encontró con que sus competidores, como AIM, no iban a ponérselo fácil. Cada vez que el servicio de Microsoft conseguía ser compatible con AIM, éstos volvían a cambiar su aplicación para que Microsoft no pudiera conectarse a sus servidores. Y así fue hasta que, finalmente, Microsoft descartó esta opción y pasó al modelo tradicional: solo podrían chatear entre sí los usuarios de MSN Messenger. Una serie de intentos frustrados por crear un servicio más global que dieron como resultado el trasvase de usuarios. Quienes (aún) no eran usuarios de MSN, cambiaron de proveedor al no poder seguir chateando con sus amigos. Un movimiento que a Microsoft le salió más que redondo.

MSN Messenger: chat y correo

El único requisito para empezar a utilizar MSN Messenger era tener una cuenta de Hotmail. Un proceso que llevaba apenas unos minutos y durante el que los adolescentes de la época tomamos una mala decisión. Sí, reconoce que una cuenta de Hotmail fue tu primera (y vergonzosa) cuenta de correo. Esa misma que desearías no haber creado nunca, o al menos haber sido lo suficientemente sensato como para haber escogido un nombre diferente. Pero eran cosas de la edad.

La primera actualización llegó solo unos meses más tarde de su lanzamiento. Con los cambios que Microsoft había introducido era posible, entre otras cosas, personalizar la apariencia del chat. Unos meses después sería posible enviar archivos entre PCs y se añadieron capacidades de audio entre ordenadores y los dispositivos móviles de la época. Y, con la llegada de Windows XP en 2001, el sistema operativo x86 más utilizado del mundo, llegaron más cambios en la interfaz, los grupos de contactos y la voz en las conversaciones. En las siguientes actualizaciones llegarían los famosos (y añorados) zumbidos, los emoticonos, los guiños, la posibilidad de mostrar la música que se escuchaba, las videollamadas…incluso jugar con tus amigos a través de la aplicación. Aunque para esta última funcionalidad la escasa velocidad de las conexiones jugaba en contra.

Todas estas y otras muchas opciones convirtieron a MSN Messenger en algo fundamental en la vida de cualquier adolescente. Gracias a MSN ya no era necesario llamar a tus amigos, podías chatear con ellos y sin que nadie cotilleara la conversación. Una sensación de privacidad y cierta independencia en plena edad del pavo que contribuyó a que MSN Messenger siguiera aumentado en número de usuarios.

Más dura fue la caída

El pico máximo de usuarios de MSN Messenger se alcanzó en 2009, a partir de ahí todo empezó a ir cuesta abajo. De tener más de 330 millones de usuarios mensuales en todo el mundo, la aplicación de Microsoft empezó a ver como las cifras empezaban a decaer por la llegada de las redes sociales. Nuevas herramientas de comunicación que lo habían aprendido (casi) todo de las mejoras que habían ido introduciéndose en MSN Messenger. Por ejemplo, el muro de Facebook, y una de las principales razones del comienzo de su éxito, tiene su origen en la barra de estado de MSN. Aquel lugar que, entre otras muchas cosas, se utilizaba para enviar indirectas.

Como en todo, Facebook no fue la primera en aparecer, pero sí la primera en hacer las cosas bien. De ahí que poco a poco fuera robándole usuarios a MSN. Un golpe que se agravó con la llegada de Skype (que Microsoft adquiriría en 2011) y que acabaría de rematar a MSN Messenger cuando aparecieron BlackBerry Messenger y WhatsApp. Si ya estaba siendo duro ver cómo aparecían nuevos servicios que mejoraban las prestaciones de MSN, incorporarlos en un Smartphone fue mortal para la aplicación de Windows. Aunque Microsoft intentó dar el salto a los dispositivos móviles, sus intentos no dieron ningún resultado.

Pero la caída de MSN no llegó sola. Junto a ella, comenzó también el declive del PC. Los teléfonos móviles empezaban a ofrecer las mismas opciones que un ordenador y eran muy capaces de superar sus limitaciones. Y es que ahora podíamos chatear en tiempo real con nuestros amigos desde cualquier parte, más allá de las paredes de nuestras casas y, a diferencia de los SMS, de forma gratuita.

Microsoft no lo vio

Aunque lo tuvieron todo para seguir manteniéndose en el top de servicios más utilizados, Microsoft no lo quiso ver. O simplemente prefirió seguir con su tónica habitual de llegar tarde a (casi) todo. Lo cierto es que la mezcla de Hotmail, el servicio de correo con más cuentas del momento, con MSN Messenger hacía que todos necesitáramos estar en la onda. El problema fue que nuestras necesidades fueron cambiando, pero el servicio no evolucionó.

Quizá, si hubieran introducido algunos pequeños cambios estaríamos celebrando su veinte aniversario intercambiando mensajes en MSN Messenger. Porque, a decir verdad, las funciones que nos ofrecía MSN no distan mucho de lo que obtenemos con Facebook, Twitter o Instagram. A excepción de la posibilidad de ver lo que ha ocurrido mientras que no estábamos conectados, algo con lo que hasta ese momento MSN no había probado.

El ser humano necesita comunicarse, pero también cotillear y conocer lo que pasa cuando está ausente. Y en eso Microsoft no cayó, o al menos no a tiempo.

¿Utilizas contraseñas seguras en tus cuentas?

Publicado enCiberataques en julio 17, 2019 10:00 am

A pesar de ser el método de autenticación más antiguo en informática, las contraseñas siguen siendo la opción preferida para registrarse e iniciar sesión en diferentes servicios. La aparición de sistemas de reconocimiento facial o por voz, la huella dactilar o los patrones no han conseguido bajar del podio a las claves de acceso. Pero, en un tiempo en el que nuestra información más sensible se almacena en internet, es más importante que nunca recurrir a contraseñas seguras.

Es muy común que cuando nos damos de alta en un nuevo servicio web dudemos entre establecer una contraseña fácil de recordar o una más compleja. Si bien las claves fáciles de recordar suelen ser extremadamente inseguras, las contraseñas seguras suelen ser más difíciles de memorizar. Y, precisamente por ello, son siempre la opción más adecuada. Si a nosotros nos resultan difíciles, para quien intente adivinarla será mucho más complejo.

Lo que no se debe hacer

Como queremos evitar que nadie pueda acceder a tus datos o consiga descifrar tu clave de acceso, te contamos todo lo que no tienes para crear una contraseña.

No reutilices contraseñas. La tentación más común, porque es mucho más sencillo recordar una única contraseña, que tener que memorizar muchas. Pero piensa que, si alguien consigue adivinar tu contraseña, lo más lógico sería probarla en otros servicios y ver si hay suerte. Y si es tu caso, el hacker habrá tenido suerte, tú no tanta.

  • Evita las palabras genéricas. Generalmente todos los programas creados para descifrar contraseñas suelen contar con diccionarios en diferentes idiomas. Así que utilizar como contraseña cualquier palabra del diccionario, o una combinación de ellas, no es muy buena idea.
  • No recurras a información personal. Utilizar información personal para la contraseña suele ser otro de los errores más habituales. Una contraseña compuesta por datos con los que se nos puede relacionar fácilmente tiene muchas papeletas para ser descubierta con demasiada facilidad.
  • Sustituir letras por números. Aunque pueda parecer una técnica supersegura (y casi de hacker), una máquina tardaría segundos en descifrar una contraseña en la que algunos caracteres de la palabra han sido sustituidos por números.
  • No compartas tu contraseña. Ni en papel ni en formato digital, ya que nunca sabes dónde puede acabar o quién puede verla. Las contraseñas, para ser seguras, deben ser secretas.
  • Desactiva la opción de recordar contraseña del navegador. Una funcionalidad pensada para no tener que introducir la contraseña cada vez que quieres acceder, pero que puede exponerte. Especialmente si compartes equipo con más usuarios, esta opción podría hacer que tuviera acceso a tus perfiles.

Cómo crear contraseñas seguras

Es evidente que ninguna contraseña es infalible, pero cuanto más empeño pongamos en crear una contraseña segura más difícil será que cualquier programa consiga descifrarla y acceder a nuestra información. Así que te recomendamos seguir alguno de estos métodos para añadir seguridad a tus claves de acceso.

  • Longitud de al menos 12 caracteres. Cuanto más larga, más segura será la contraseña. El mínimo, para ser más difícil de descifrar, es de 12 caracteres, pero si tiene una extensión mayor mucho mejor.
  • Combina números, símbolos, mayúsculas y minúsculas. Una contraseña que combine símbolos, números y letras sin ningún sentido reúne las condiciones necesarias para ser considerada como contraseña segura.
  • Palabras sin conexión. También puedes optar por combinar varias palabras que no tengan nada que ver. De esta forma, además de obtener una contraseña larga, no habrá lógica que las una y, por tanto, una máquina lo tendrá muy difícil para dar con la combinación exacta.
  • Activa la verificación en dos pasos. Esta medida de seguridad adicional permite que, aunque la contraseña sea descubierta, sea necesaria otra clave que se enviará a un dispositivo al que solo tú tienes acceso.
  • Las preguntas de seguridad también pueden ser contraseñas. Aunque su objetivo es ayudarte a recuperar tu contraseña, puedes utilizarlas como claves de acceso. De esta forma, poniendo como respuesta algo que no encaje con la pregunta, evitarás que alguien que te conozca y sepa la respuesta a la pregunta pueda restablecer la contraseña.
  • El método Diceware. Lanzando cinco veces un dado de seis caras y sustituyendo los números por su equivalente en la lista Diceware obtendrás una contraseña totalmente aleatoria.

Si sigues todas nuestras recomendaciones es posible que te esté cundiendo el pánico con tanta contraseña (y tan difíciles de memorizar). Para ello dispones de gestores de contraseñas que se encargarán de recordar por ti todas tus contraseñas seguras; y para los que solo necesitarás recordar la password del gestor.

Nuestra ciberseguridad es un asunto muy importante, sobre todo si tenemos en cuenta que realizamos pagos y compartimos información sensible a través de la red. Además, la sofisticación de los hackeos hace que tengamos que ser especialmente cuidadosos. Por ello, lo más recomendable es cambiar tus claves de acceso cada seis meses. Usando cualquiera de las técnicas o herramientas, como el gestor de contraseñas, tener nuevas contraseñas seguras es muy fácil. Y sin que sea necesario recordarlas todas a la vez.

Comprobar la reputación del dominio y evitar que acabe en spam

Publicado enDominios en julio 10, 2019 10:00 am

Siempre que enviamos emails lo hacemos con la intención de que nuestros mensajes sean leídos. Pero, para que lleguen correctamente a las bandejas de entrada de nuestros clientes o usuarios, es fundamental tener en cuenta la reputación del dominio desde el que se envían. De otra forma, nuestros mensajes acabarán, en el mejor de los casos, en la carpeta de spam.

¿Qué es la reputación del dominio?

La reputación de un dominio es un factor que se obtiene del uso que se hace de una dirección IP y de cómo se gestionen los envíos a través de correo electrónico. Así, llevando a cabo buenas prácticas de email marketing, la reputación del dominio será mucho mejor que si mandamos a nuestros usuarios correos que no desean recibir. Además, cuanto más alta sea la reputación de un dominio mayor tasa de apertura tendrán los correos que se envíen a la vez que se reducen las posibilidades de que el dominio acabe en alguna lista negra.

Aunque sea el principal factor, para determinar si los correos se reciben correctamente o si son marcados como spam, no es el único. En la reputación del dominio también influye el uso que se hace de IP desde la que se envían los correos. Este asunto, en el caso de que compartas servidor con otros usuarios, será algo que no dependerá directamente de tus acciones. Ya que en un plan de hosting una misma dirección IP se comparte entre varios usuarios; lo que hace que el uso de un usuario pueda perjudicar a todos sus vecinos y afectar a la capacidad para enviar mensajes de cada uno de ellos.

Pero para determinar la reputación del dominio y la IP también se considera la reacción del destinatario. Si cada vez que recibe un correo, lo marca como spam, el dominio, la IP o ambas, acabarán en listas negras. Por lo que en gran medida se trata de algo que no depende directamente del propietario del dominio; aunque de forma indirecta es el reflejo de sus acciones.

¿Cómo comprobar la reputación de mi dominio?

Existen multitud de sitios web en los que, a través de una sencilla búsqueda, puedes averiguar cuál es la reputación del dominio. Eso sí, hay que tener en cuenta que contar con un dominio de buena reputación no evita que los correos que se envíen puedan acabar en la carpeta de spam. Aquí te mostramos algunos de ellos:

  • Senderbase.org. Permite conocer la situación de una IP o dominio en base a tres fases: buena, neutral o pobre. En función del resultado, sabrás si necesitas cambiar tu estrategia de email marketing o si vas por el buen camino.
  • Senderscore.org. En una escala de 0 a 100 muestra el estado de una IP frente a otras direcciones. Cuanto mayor sea la puntuación obtenida, mayor será la reputación del dominio y, por lo tanto, la tasa de entrega de los emails.
  • ReputationAuthority. Además de indicar si una web contiene malware, muestra el porcentaje de correos buenos y malos según la IP desde la que se enviaron.
  • Barracuda Central. Una enorme base de datos que averigua la reputación de un dominio y de una IP en tiempo real, mostrando cuáles de esas direcciones son buenas y cuáles demasiado pobres.
  • TrustedSource. Además de información sobre un dominio y su reputación, este sitio web proporciona detalles sobre el servidor de correo y las DNS; así como el historial del dominio y sus asociaciones.

Otros aspectos de reputación

Más allá de realizar una consulta a estos sitios web puedes revisar otros aspectos relacionados con tu dominio. Por ejemplo, un mal uso de los registros DKIM, SPF o CNAME de la zona DNS también puede ocasionar que tus emails acaben en la carpeta de spam. Además, lo apropiado del contenido de tus emails o si envías en el texto enlaces que se encuentran en listas negras, son otros aspectos a considerar para mejorar la tasa de envío.

Puesto que el email es la principal forma de propagación de malware y phishing, cuidar el uso que se le da al servicio de correo es fundamental. Ya no solo para evitar las listas negras sino también para conseguir la mejor reputación del dominio y ganar la confianza de los usuarios.

El Consejo de la UE redefine el concepto de ciberseguridad

Publicado enCiberataques en julio 3, 2019 10:00 am

Primero fue la nueva norma en materia de protección de datos, después acabar con el geobloqueo; ahora el nuevo propósito del Consejo Europeo es reformar el concepto de ciberseguridad y revisar sus estrategias para proteger a todos los estados miembros. Con el temor a una posible guerra informática, se hace necesario preparar el marco legal para, en caso de que se produjera, disponer de la normativa adecuada.

Adaptados a la era digital

En los últimos tiempos el Consejo de la Unión Europea está centrado en adaptarse a los cambios digitales para poder dar respuesta a los nuevos problemas que vayan surgiendo. Algo especialmente importante cuando se trata de conceptos o definiciones que llevan años sin actualizarse. Al igual que ha sido necesario, polémicas aparte, redefinir los derechos de autor en el entorno digital; la definición de ciberseguridad que estamos utilizando fue establecida en 1995. En aquel entonces el panorama era muy diferente al actual.

Hace 25 años los ciberataques no eran tan sofisticados ni agresivos; por lo que redefinir la ciberseguridad es fundamental para hacer frente a todo tipo de ataques informáticos. Además, esta reforma servirá para aprovechar las nuevas oportunidades digitales de la forma más segura. Asimismo, supone un aspecto fundamental para el desarrollo del mercado único digital.

Nuevo concepto de ciberseguridad

En general, los conocimientos informáticos son insuficientes, al igual que la concienciación en cuanto a ciberseguridad. Fruto de este conocimiento tienen lugar al año millones de fallos en los sistemas y otros tantos dispositivos son infectados con algún virus. Incidentes que en muchas ocasiones puede acabar contagiando a más equipos, afectando a otras empresas e incluso alcanzar a la totalidad de estados miembros de la Unión Europa. Así, en un momento en el que la gran mayoría de las empresas dependen de sus infraestructuras digitales para funcionar, estos percances afectan a la confianza de los consumidores; además de tener un coste anual de más de 400.000 millones de euros al año. Razones por las que mejorar la respuesta ante cualquier ataque informático se ha convertido en una prioridad de los estados miembros de la UE y sus instituciones.

La nueva definición hace referencia a cualquier tipo de acción que tenga implicación en el acceso o intromisión en los sistemas de información, en los datos que contienen o si durante el ciberataque se intercepta cualquier tipo de información. Asimismo, se incluye cualquier acción que no esté permitida o autorizada por el usuario, el derecho europeo o el de los estados miembro.

En este nuevo concepto se incluyen otras variables como el alcance y la gravedad de la incidencia, el número de afectados, las pérdidas económicas y la sensibilidad de los datos extraídos; además del beneficio económico que el atacante hubiera podido obtener. Asimismo, se designan como infraestructuras y los servicios susceptibles de sufrir un ciberataque a cualquier aparato o grupo de aparatos que conectados entre sí permitan el tratamiento de cualquier dato digital. Entre ellos podemos encontrar desde los cables submarinos, los procesos electorales o los diferentes transportes públicos de cada uno de los estados miembro.

La UE más online

En el último año la Unión Europea ha establecido nuevas normas para adaptar los derechos de autor a la era digital, además de hacer más transparente la gestión de los dominios .eu; una extensión de dominio considerada pieza clave para la construcción de la identidad europea en internet. Con los cambios en cuanto al concepto y las estrategias de ciberseguridad, la UE llevará a cabo una serie de iniciativas; entre las que se encuentra la creación de una Agencia de Ciberseguridad y el establecimiento de Certificaciones de Ciberseguridad y la Directiva SRI.

La Directiva de seguridad en las redes fue aprobada el pasado 17 de mayo de 2019. A partir de ese momento los diferentes estados miembros disponen de 18 meses para adaptarla e implementarla en su derecho interno. Con un marco legal acorde a la situación actual, se espera mejorar la repuesta ante un ataque informático; además de permitir imponer sanciones y medidas más restrictivas a los ciberdelincuentes. En cualquier caso, pese a la redefinición del concepto de ciberseguridad y las estrategias digitales, la mejor forma de prevenir ataques informáticos pasa por concienciar a los ciudadanos sobre la importancia de la ciberseguridad.

¿Por qué tu IP o dominio han acabado en una blacklist?

Publicado enCorreo / Webmail en junio 26, 2019 10:00 am

Aunque los primeros resultados de Google solo hablen de una serie con el mismo nombre, una Blacklist, o lista negra, se remonta a mucho antes de 2013. La idea, tanto de la serie como del término informático, es la misma: una lista que recoge cosas que no se han hecho bien. En el caso de la serie, nombres de personas que no han obrado todo lo bien que debieran; en el del concepto de internet, de direcciones que han realizado un uso indebido de una dirección IP o de un nombre de dominio.

¿Qué es una lista negra?

Una blacklist es una lista que recoge direcciones IP o dominios que, generalmente, se han utilizado para enviar spam. Pero el envío de emails no deseados no hace que una dirección acabe de forma automática en listas negras, sino que depende de si los destinatarios marcan tus correos como emails no deseados. De forma que, indirectamente, el uso que hagas de tu IP o dominio también puede hacer que puedas, o no, acabar en listas negras.

Cuando un domino o una dirección IP es añadida a una blacklist es posible que los correos que envíes desde el dominio asociado a dicha IP no lleguen a tus usuarios. Aunque esto depende en gran medida de los filtros establecidos por el proveedor del destinatario. Si su proveedor filtra por aquellas listas negras en las que se te ha incluido, el destinatario no recibirá tus correos electrónicos puesto que los filtros antispam han impedido el paso a su bandeja de entrada. En cambio, si filtra por otras blacklist diferentes, los emails que envíes le llegarán con normalidad.

¿Cómo salir de una blacklist?

Podría parecer que salir de una lista negra sea misión imposible, pero nada más lejos de la realidad. Eso sí, ten en cuenta de que antes de proceder a sacar tu IP o dominio de una blacklist, debes identificar dónde está el origen del problema. De otra forma, no servirá de nada todo lo que hagas, ya que el problema sigue ahí y volver a una lista negra solo será cuestión de tiempo.

Si el problema es el mal uso que tú haces de los envíos de email, deberías empezar por ahí. Para ello, elimina de la lista aquellos usuarios inactivos y no vuelvas a añadir a los que se han dado de baja. Además, puede ser buena idea espaciar en el tiempo tus envíos, así evitarás saturar a tus destinatarios y que acaben marcando como spam tus mensajes.

Asimismo, puede ser que si te encuentras en un servidor compartido estés sufriendo las consecuencias del mal hacer de tus vecinos de alojamiento. En este caso lo recomendable es pasarte a un servidor cloud para no tener que compartir IP con otros usuarios ni verte afectado por el uso que hagan de la misma. Con tu propio servidor, si tu IP o dominio acaban en listas negras, es porque hay algo que no estás haciendo bien.

Una vez sepas cuál es el problema, deberás saber en qué listas negras te encuentras. No existe una única blacklist, así que tu IP puede encontrarse en unas cuantas listas negras. Para ello, puedes realizar una búsqueda en sitios como MXToolbox o Spamhaus y solicitar la exclusión de las blacklist en las que se ha añadido la IP vinculada a tu dominio. Después de realizar la solicitud, solo te quedará esperar a que el proveedor te saque de su lista de desautorización.

Evita las listas negras

Para evitar acabar en una blacklist basta con seguir buenas prácticas en relación al envío de correos electrónicos. Por un lado, debes evitar utilizar tu servidor de correo para estos envíos masivos. Existen herramientas como Mailchimp o Mailrelay para realizar este tipo de envíos y evitar que la IP o el dominio desde el que se realizan acaben añadidos en una lista negra.

Por otro lado, es recomendable mantener limpia tu lista de suscriptores. Es decir, enviar correos solo a aquellos usuarios que hayan aceptado el envío de notificaciones comerciales y que se mantengan activos; de otra forma, añadiendo direcciones de correo que no han aceptado tus emails acabarás tarde o temprano en alguna blacklist. Además, te recomendamos revisar con cierta frecuencia tu lista de suscriptores para mantenerla siempre lo más actualizada posible.

A diferencia de lo que ocurre en The Blacklist para salir de una lista negra de internet basta con hacer un buen uso del servicio de correo.

¿Cuál es el origen de la arroba y cómo llegó a la informática?

Publicado enCorreo / Webmail en junio 19, 2019 10:00 am

Aunque lleva en los teclados desde las primeras máquinas de escribir, la arroba no fue utilizada como símbolo con significado propio hasta 1971 cuando Ray Tomlinson inventó el correo electrónico.

@, fuera de la informática

Las primeras apariciones de la arroba se remontan a la Época Medieval. En una época en la que los copistas debían realizar a mano las copias de los manuscritos simplificar la tarea les permitía ahorrar tiempo. Así, en lugar de tener que escribir la palabra ‘ad’ comenzaron a recurrir al uso de la arroba. Este carácter fruto de la deformación gráfica de la palabra original significaba igualmente ‘hasta o hacia’.

Poco a poco el símbolo comenzó a ganar en popularidad y empezó a utilizarse en los documentos oficiales. De esta forma en 1448 aparece el primer uso de la arroba como unidad de medida. La arroba como forma de medir cantidades fue ampliamente utilizada hasta 1849 cuando se sustituyó por el sistema métrico decimal al que recurríamos hasta hace muy poco.

Aunque la arroba perdió su valor como unidad de medida, siguió utilizándose con valor contable en los registros aduaneros. De esta forma, el símbolo continuo en uso para indicar el valor de las mercancías que se intercambiaban entre el Reino de Aragón y el Reino de Castilla; tal y como se encontró en la Taula de Ariza que data de 1448.
Su llegada a los teclados

Gracias a este último uso comercial, la arroba acabó llegando a los teclados de las primeras máquinas de escribir y teletipos. Así, la arroba se incluyó entre las teclas de estas herramientas de trabajo de uso comercial para registrar de una forma más sencilla las mercancías y el coste por unidad. Por ejemplo, si quisiéramos recurrir a este sistema para indicar el precio de uno de nuestros servidores cloud sería algo así: 1 cloud base @ 29€.

La arroba y el email

Con el desarrollo de sistemas específicos de contabilidad, el uso de la arroba con fines comerciales fue perdiéndose. Su popularidad en todos los teclados hizo que en 1971 Ray Tomlinson le diera al símbolo una nueva vida y un nuevo significado.

El programador estadounidense, padre del correo electrónico, estaba buscando un símbolo que le permitiera diferenciar los mensajes locales de los que provenían de un servidor externo. Además, el símbolo tampoco debía de aparecer en los nombres de personas, de empresas o de servidores. Entonces se encontró con que la arroba aparecía en todos los teclados y que en ese momento no tenía ningún uso.

Pero el hecho de que recurrir a la arroba para las direcciones de correo electrónico no entrara en conflicto con ningún otro sistema estipulado en ese momento no fue el único motivo para la elección. Tomlinson se dio cuenta de que no podía haber encontrado un símbolo con un significado más acertado para el invento que tenía entre manos. Y es que en inglés la arroba significa ‘junto a’ o ‘en’, precisamente lo que él buscaba indicar con la inclusión de un símbolo: separar el nombre de usuario del servidor desde el que se enviaba el mensaje. Algo fundamental en las direcciones de correo electrónico: indicar el servidor en el que se está alojado el usuario que envía el email.

Con todos los elementos preparados, Tomlinson creó la primera dirección de correo de la historia: tomlinson@bbn-tenexa.

Un símbolo diario

De las direcciones de correo, uno de los servicios más utilizados en internet, la arroba pasó a simbolizar la propia red de redes. Y de ahí a ser un elemento habitual en las redes sociales, empezando por Twitter y extendiéndose su uso a los nombres de usuario de casi todas ellas. Además, también suele utilizarse la arroba en algunos lenguajes de programación, pero con funciones totalmente diferentes.

Más allá de su uso en el email o en cualquier otro aspecto de la informática, la arroba se ha convertido en uno de los símbolos utilizados en el lenguaje inclusivo. A pesar de ser un signo no lingüístico, es ampliamente utilizado para evitar el masculino genérico y permitir el desdoblamiento de género.

Al igual que pasó con los términos cifrar y encriptar, los cambios en el lenguaje y la evolución de la tecnología y su influencia en la vida diaria pueden dar nuevo sentido a las cosas. La arroba nació para un fin y ha acabado siendo popular para otro totalmente diferente, nunca nada es definitivo.

¿Qué hay de nuevo en Debian 10 Buster?

Publicado enDesarrollo y Programación en junio 12, 2019 10:00 am

Han pasado casi dos años desde que se lanzara Debian 9 Stretch y Debian 10 Buster iniciara su fase de pruebas. El próximo 6 de julio se espera el lanzamiento oficial de la nueva versión del ‘sistema operativo universal’. Según el Proyecto Debian, la última versión del sistema operativo será mucho más versátil que sus antecesores, ya que se podrá instalar en muchas más arquitecturas.

Sin fecha exacta

A diferencia de otras compañías o comunidades que lanzan sus nuevas versiones en base a una determinada fecha, Debian solo publica sus versiones cuando son estables de verdad. Es decir, las versiones de Debian se hacen públicas cuando se han corregido los errores críticos y problemas de seguridad (CVE) que puedan afectar al funcionamiento de Debian; aunque esto no evita que pueda producirse algún error en el sistema operativo. Una política por la mejora de la seguridad que deja en el aire la fecha de publicación de Debian 10 Buster.

Esto se debe a que las versiones de Debian constan de cuatro partes: main, contrib, non-free y optional. Y solo cuando se consigue la estabilidad en main, se libera la versión. De esta forma consiguen evitar muchos problemas funcionales y de seguridad, algo fundamental si tenemos en cuenta que Debian es un sistema operativo que no solo se utiliza en equipos, sino también en todo tipo de servidores.

La sucesora de Stretch, como viene siendo habitual, recibe el nombre en clave de otro de los personajes de Toy Strory. En esta ocasión de Buster, el perro de Andy y amigo del vaquero Woody. De ahí que la nueva imagen gráfica de Debian 10, desde el tema a los fondos de pantalla, gire en torno a la figura de un perro salchicha.

Novedades de Debian 10 Buster

Con Debian 10 vuelven a la distribución varias aplicaciones de escritorio y de entorno que no estaban en su antecesora Stretch, además de añadir más programas que Debian 9. Entre estas nuevas aplicaciones podremos encontrar algunas dedicadas a mejorar la productividad o diferentes suites de ofimática. Así, además de las actualizaciones de rigor, Debian 10 Buster incorpora nuevas funcionalidades y mejora otras presentes en versiones anteriores. Por ejemplo:

  • En el escritorio de GNOME algunos paquetes habituales se reemplazan por otros más optimizados y se lanzan nuevas funciones para el sistema operativo.
  • El Kernel de Linux se actualiza y se mantiene el soporte LTS para proporcionar una mejor asistencia de hardware y mantenimiento por 5 años.
  • Nueva versión de OpenJDK, la plataforma de desarrollo Java, detrás de la que se encontrará un equipo encargado de las nuevas versiones.
  • AppArmor habilitado por defecto para hacer que el sistema sea más seguro al asociar cada programa a un perfil. Además, forzará a modificar los scripts de versiones previas para mantener la usabilidad del software.
  • Compatibilidad con las versiones más recientes de NodeJS y nuevas herramientas para trabajar con bibliotecas JavaScript.
  • Compatibilidad con Python3, ya que la versión 2 será marcada como obsoleta en enero de 2020. De esta forma se aprovecharán mejor las características de las aplicaciones desarrolladas en Python.
  • Con nuevas características y capacidades. Debian 10 incluye Bash 5.0 de forma predeterminada.
  • Soporte de arranque seguro (UEFI Secure Boot) para facilitar la instalación de Debian 10 Buster sin necesidad de deshabilitar esta opción en la máquina.

Mucho más fácil

Debian 10 Buster, además de hacer más fácil la sintaxis y mejorarla, simplifica el soporte para firewall. Más allá de esto, la nueva versión de Debian también incorpora Calamares como su nuevo instalador gráfico; la mejor alternativa al instalador tradicional de Debian para hacer que la instalación del sistema operativo sea más rápida y esté al alcance de cualquier usuario.
Además, la compatibilidad de Debian 10 con las versiones más recientes del software que utilizamos a diario hará que crear un servidor web y mantenerlo sea mucho más fácil y seguro.

La última versión de Debian 10 Buster se está haciendo de rogar, pero todo sea por mejorar la seguridad de las aplicaciones y servidores que lo utilizan. Bajo el nombre en clave del otro personaje de Toy Story Debian 10 nos promete la máxima seguridad del ‘sistema operativo más universal’, solo nos falta esperar al 6 de julio para ponerlo a prueba.