944 063 154

Blog

El COVID-19 nos está cambiando la vida y la forma en que utilizamos internet

Publicado enGeneral en marzo 26, 2020 10:00 am

Si la alerta sanitaria en la que, lamentablemente, estamos inmersos ha propiciado una adopción repentina del teletrabajo, el virus está cambiando muchas otras cosas que tienen lugar en la red. Internet está siendo nuestra válvula de escape, una forma de darle a nuestras vidas en aislamiento la máxima normalidad posible. Pero, ¿cómo están siendo los efectos del coronavirus en internet? ¿Cómo está afectando el estar en casa al consumo y al uso que hacemos de la red de redes?

El virus crece en Google

Unas semanas es lo que ha tardado el término coronavirus en colarse en nuestro día a día. Hace no tanto era una palabra totalmente desconocida para la mayor parte de la población, ahora uno de los términos más utilizados. Desde que el virus llegara a la península, las búsquedas en Google comenzaron a multiplicarse. Según muestra Google Trends, desde la última semana de febrero las búsquedas relacionadas con el cornavirus han ido en aumento a medida que los efectos del virus se hacían más notables en el país.

Teniendo en cuenta que todo lo que no sabemos acabamos buscándolo en Google, era de esperar que uno de los primeros efectos del coronavirus en internet fuera este. En líneas generales se estima que desde su primera aparición en China, el coronavirus ha sido el protagonista de unos 3 millones de búsquedas. Solo en España la media de búsquedas se sitúa entorno a 30.000 veces al mes; ya sea en relación a las medidas de contención o para conocer sus síntomas o formas de contagio.

En la misma línea, Worldometers, una pequeña web dedicada a mostrar estadísticas en tiempo real vio como sus visitas no dejaban de crecer. Tanto que tuvieron que ampliar los recursos, ya que aquella pequeña web se había convertido en la principal fuente de datos de muchos ciudadanos en todo el mundo.

Un consumo disparado

Estar 24×7 y hasta nuevo aviso en nuestras casas implica recurrir más que nunca a todos los servicios que tenemos contratados y contratar otros nuevos. Plataformas de streaming, redes sociales, videollamadas… todo lo que pueda hacerse utilizando un móvil u ordenador mientras estás en el sofá. Por ello, uno de los principales efectos del coronavirus en internet es el aumento del tráfico en redes IP en un 40% desde que empezara la cuarentena. También se han duplicado el número de llamadas a través de internet y se ha quintuplicado el uso de aplicaciones de mensajería instantánea. Porque, aunque permanezcamos aislados, estamos más conectados que nunca.

Un repentino aumento que, unido a la necesidad de teletrabajo y a la teleenseñanza, se ha materializado en un acuerdo elaborado por las principales operadoras del país. En dicho comunicado indican que sus infraestructuras están preparadas para soportar ese incremento, pero también recomiendan hacer un uso responsable de la red priorizando lo laboral y educativo sobre el ocio. Por ello, en un intento por garantizar el mejor funcionamiento de internet, las principales plataformas de streaming han decidido bajar la calidad de sus contenidos. De esta forma, al tratarse de archivos algo más ligeros, se consumirá menos ancho de banda asegurando así una mejor conectividad.

Contenido en abierto para matar el tiempo

Durante los primeros días de confinamiento muchos autores liberaron las versiones digitales de sus obras, se organizaron todo tipo de conciertos por Instagram y tours desde tu sofá por los principales museos del mundo; incluso los medios de pago volvieron, de forma temporal, a ser gratuitos. Los operadores duplicaron los recursos contratados y ofrecieron servicios adicionales de forma gratuita. Todo tipo de actos de generosidad para ayudarnos a pasar esta cuarentena de una forma más amena pero que, de nuevo, tienen incidencia en internet. Porque, sin que nos hayamos dado cuenta, hemos vertebrado toda nuestra vida entorno a los datos de nuestros smartphones y la red wifi que nos rodea.

Esa apertura de ocio es otro de los efectos del coronavirus en internet. Tener más y más opciones para entretenernos dentro de las paredes de nuestras casas contribuye a un mayor consumo de internet. Por fin hemos encontrado el tiempo necesario para hacer todo aquello que siempre quisimos, pero para lo que aún no habíamos hecho hueco. Nos registramos en nuevos sitios, nos descargamos contenido para ver después, nos apuntamos a clases de deporte online… pero seguimos haciendo lo mismo de siempre. El uso responsable de internet que nos recomendaban las operadoras telefónicas era precisamente eso, no descargar los recursos que no necesitáramos o que no fuésemos a utilizar para no saturar la red.

Más compras online

Puesto que no es posible salir a la calle, salvo en contadas excepciones, todo lo que antes comprábamos en tienda hemos pasado a hacerlo online. Desde la cesta de la compra, quizá uno de los aspectos a los que nos mostrábamos más reticentes, hasta artículos para mascotas, videoconsolas, incluso máquinas para hacer deporte. Esto se ha traducido en un importante aumento del comercio electrónico en determinados sectores. Así, los sectores tradicionalmente más afortunados, como la ropa o los viajes, han cedido su puesto a otros que, generalmente, tienen menos suerte como el material escolar o los electrodomésticos.

Ahora bien, en este auge del e-commerce, hay que tener en cuenta que la parte logística no está creciendo de la misma manera. No todos los bienes que adquirimos son de primera necesidad por lo que muchas empresas de reparto han optado por reducir sus servicios. Ya que los repartidores se exponen cada vez que salen a trabajar, lo mínimo es que lo hagan en las mejores condiciones y porque sea algo necesario para el comprador. Es decir, repartidores de supermercados o parafarmacias porque sin el resto de productos, mejor o peor, podemos sobrevivir a esta cuarentena.

El coronavirus como cebo

Si esta crisis está sacando lo mejor de muchos, también lo peor de otros. En los últimos días hay quienes están intentado engañar, principalmente al personal sanitario, utilizando como excusa el coronavirus. Tal y como las autoridades han reportado, a través de una campaña de phishing se buscaba infectar con malware los sistemas hospitalarios. Algo que en la situación actual hubiera tenido consecuencias catastróficas impidiendo el uso de los sistemas o secuestrando la información, en el caso del ransomware, y que de haberlo conseguido hubiera dificultado aún más el panorama actual.

Aunque debemos acostumbrarnos siempre a comprobar la legitimidad de los emails que recibimos, en este caso es aún más importante. Aprender a detectar ciberataques no es tan difícil, únicamente es necesario dedicarle unos segundos a lo que se recibe y utilizar el sentido común antes de realizar ninguna acción. Porque, aunque algunos crackers evitan hacer negocios en situaciones como la que atravesamos en este momento, otros parecen opinar todo lo contrario.

Por el momento, nosotros seguimos quedándonos en casa y esperamos que, si puedes, tú también lo hagas. Teletrabaja, teleestudia o simplemente no hagas nada, pero elige siempre ser responsable.

Las herramientas para teletrabajo para hacer más sencillo el trabajo desde casa

Publicado enGeneral en marzo 16, 2020 10:00 am

El teletrabajo se había convertido en la asignatura pendiente de la gran mayoría de empresas, no solo españolas sino también a nivel mundial. Y es que garantizar el normal funcionamiento de una empresa cuando cada uno de sus trabajadores está físicamente lejos, no es tan fácil. La inesperada llegada del coronavirus ha obligado a que, quienes estaban posponiendo este momento, tengan que asumirlo de forma forzosa. Por ello, hemos seleccionado algunas herramientas para teletrabajo que pueden ayudarte a continuar con tu día a día dentro de lo posible.

Conexión a través de VPN

Una de las cosas más importantes a la hora de teletrabajar es establecer conexiones seguras con las herramientas corporativas. Lo habitual es que en tu oficina o lugar de trabajo los sistemas cuenten con diferentes medidas de seguridad para garantizar que únicamente los empleados acceden a esas herramientas; y por tanto tienen acceso a la información de los clientes.

En este sentido las conexiones VPN, o redes virtuales privadas, permiten establecer conexiones de forma anónima. Si en una conexión ‘normal’ las direcciones IP de los diferentes dispositivos (equipo, router, servidor…) pueden verse; con una VPN únicamente será visible la IP del servidor VPN. Un servidor que puede estar en cualquier parte del mundo, lo que hace que no sea posible ubicarte geográficamente; además de proporcionar una conexión totalmente segura y cifrada.

Conectándote a las herramientas corporativas de tu empresa a través de una VPN podrás acceder a toda la información que necesites para teletrabajar con total seguridad. Nadie podrá saber quién ha establecido la conexión, a qué servidor se ha conectado ni desde dónde lo ha hecho. Esto es debido a que la VPN actúa como si la conexión se produjera desde una red local, es decir, como si te encontraras en tu lugar de trabajo.

Herramientas de trabajo colaborativo

En el día a día de cualquier empresa compartir documentos es algo fundamental. Actualmente existen muchas herramientas para teletrabajo que permiten compartir y editar documentos en línea, pero no todas cuentan con el mismo nivel de seguridad o cumplen con las normativas vigentes. Por ello, a la hora de escoger una herramienta es fundamental considerar dos aspectos: que la información se cifre en transmisión y que la plataforma elegida cumpla con la RGPD.

Nextcloud es una aplicación similar a Dropbox pero que cumple con ambas condiciones. Por un lado, al hacer uso de una VPN se garantiza el cifrado en transmisión de los datos y, por el otro, te ayuda a cumplir con la normativa vigente en materia de protección de datos. La aplicación se instala en el servidor que tú decidas y, al decantarte por un almacenamiento ubicado en territorio español, se cumple con uno de los aspectos más básicos de la RGPD.

Con Nextcloud es posible cubrir diferentes aspectos necesarios para el teletrabajo, lo que hace que sea una herramienta para teletrabajo de gran utilidad. A través de diferentes complementos es posible compartir desde archivos de textos, a calendarios, imágenes o agenda de contactos, además de permitir realizar reuniones a través de la plataforma. Adapta Nextcloud a las necesidades de tu empresa y utiliza una única herramienta para poder compartir información sensible de tu empresa de la forma más segura.

Mensajería interna e instantánea

Con el teletrabajo eso de acercarte a la mesa del compañero deja de ser una opción. Por ello es fundamental una herramienta para teletrabajo que te permita tener comunicación instantánea y constante con aquellos con los que trabajas. Si para compartir documentos en línea has optado por Nextcloud, puedes instalar la aplicación correspondiente para disponer de chat y así añadir más funcionalidades a la misma herramienta; en lugar de tener varias herramientas para cubrir todas tus necesidades.

Si buscas una herramienta exclusivamente para la comunicación instantánea, puedes recurrir a Slack. Una herramienta creada por la compañía Tiny Speck para su propia comunicación interna y que desde 2013 está accesible a todos. Además de utilizarse como chat al uso, con Slack puedes compartir documentos y realizar videoconferencias, en la versión de pago. La versión Premium también permite integrar otros servicios como Google Drive, Dropbox, Trello o Github. Si buscas una opción open source de Slack que facilita la comunicación entre los miembros de un equipo, con la diferencia de que puede instalarse en tu propio servidor cloud.

En caso de que ni las funcionalidades de Nextcloud ni Slack te convenzan, puedes optar por aplicaciones como Telegram o WhatsApp. Crea un grupo con tus compañeros y mantén una comunicación constante, será la única forma de evitar solapamientos y que varias personas estén realizando el mismo trabajo. De la misma manera, lo tendrás más fácil para avisar de aquello que vas a comenzar a hacer, o que has acabado, para que otro pueda continuar o comenzar con su labor.

Si vas a decantarte por una de las populares aplicaciones como herramientas para teletrabajo, evita utilizarla también para el uso personal. Así podrás separar bien la comunicación con tus amigos de las comunicaciones laborales, además de optimizar tu tiempo y evitar distracciones.

Reúnete con tus compañeros

Gracias a internet y la tecnología no es necesario reunirse físicamente para conversar cara a cara con otra persona. Aplicaciones como Google Hangouts, Skype o Microsoft Teams permiten mantener reuniones a distancia. Aunque también puedes reunirte a través de algunas de las aplicaciones que hemos mencionado anteriormente, como Nextcloud o Slack.

Dentro de las dificultades que implica reunirse de forma digital, tener claro los temas que se van a tratar y enviar un email antes y después de la reunión puede hacer que la videoconferencia sea más productiva. Además, de esta forma será más fácil cumplir con los objetivos propuestos, en lugar de divagar sobre diferentes temas que vayan surgiendo.

Pon todo en orden

Ordenar las tareas que se van a realizar es de gran ayuda en condiciones normales, y muchísimo más cuando el teletrabajo llega así, de esta manera. Trello o Microsoft To Do, entre otras aplicaciones, permiten organizarte con mayor facilidad, establecer tiempos de ejecución o añadir notas. Aunque también puedes elaborar una lista, al estilo de las de la compra, en la que ir tachando todo lo que ya está hecho. Más que la herramienta, lo que importa es el orden.

Además del orden, ten en cuenta los tiempos. Ya no solo por cumplir con las horas, sino por sacarle el máximo partido al tiempo. Y más aún en una situación tan extraña (aún) como es trabajar desde casa. Sesame, RescueTime Focus To-Do o Keeper pueden ser buenas opciones para saber cuánto destinas a cada tarea y poder reorganizar de forma más productiva tu tiempo de teletrabajo.

¿Qué herramientas de teletrabajo elegir?

Aunque todas son igualmente válidas, es probable que en función de tu empresa o tus necesidades tengas que priorizar algunos aspectos como la seguridad. Si este es tu caso, te recomendamos optar por opciones como Nextcloud o Mattermost que, junto a una conexión VPN, harán que el intercambio de documentos o las comunicaciones sean de lo más seguras. Esto se debe principalmente a que se instalan en el servidor que tú elijas, lo que hace mucho más sencillo el cumplimiento de las normativas vigentes.

Esta crisis sanitaria está siendo la prueba de fuego en cuanto a teletrabajo de casi todas las empresas españolas. Un estreno precipitado motivado por una situación excepcional que nos permitirá generalizar el uso del teletrabajo y conocer los puntos débiles a mejorar. Escoge bien las herramientas que utilizas ya que pueden ser un factor decisivo para que todo salga mejor.

Recuerda que trabajar desde casa no es tan simple como trabajar en pijama. El teletrabajo, pese a parecer en pleno 2020 una prueba de concepto, se convertirá cuando todo esto pase en una forma más de realizar nuestras funciones. Trabajar en un ambiente totalmente diferente al que estamos acostumbrados, pero no por ello deberá ser menos productivo. Para ello, tener las herramientas para teletrabajo adecuadas es fundamental.

Evita ataques al login de WordPress cambiando wp-admin

Publicado enDesarrollo y Programación en marzo 11, 2020 10:00 am

A pesar de que mucha gente siga percibiendo a WordPress como un CMS únicamente destinado a la creación de blogs, lo cierto es que continúa siendo el gestor de contenidos más utilizado para desarrollar todo tipo de páginas web. Puesto que elegir un objetivo con muchos usuarios multiplica el número de posibles perjudicados, es recomendable modificar el wp-admin, la URL de acceso a tu sitio web.

Configuración por defecto

Al crear una nueva instancia en WordPresss, el sistema genera una URL para poder acceder a la administración. Esto no sería un problema si no fuera porque WordPress establece el mismo wp-admin para todas las instalaciones, dando lugar a uno de los grandes problemas de seguridad del CMS. A pesar de que con frecuencia se critica a WordPress por su complejidad para crear código que mejore su seguridad frente a ciertos ataques, lo cierto es que el principal de ellos tiene una solución muy sencilla.

Si echas un vistazo a las estadísticas de tu sitio web, es muy probable que te encuentres con algo curioso. Puede que tengas páginas muy bien posicionadas que estén recibiendo un gran número de visitas, pero también lo está haciendo la página de acceso a tu wp-admin. Bueno, puede que no sea una cifra alarmante, pero si lo comparas con las veces que accedes a tu web, sí lo es. Esto se debe a que la gran mayoría de las visitas que recibe wp-admin provienen de bots que conocen perfectamente el modus operandi de WordPress.

Actualmente WordPress es la plataforma sobre la que se han desarrollado más del 35% de los sitios web de internet. Y, como siempre, ser uno de los sistemas más utilizados, implica ser también uno de los más propensos a todo tipo de ataques. De ahí que intentar crackear tu web a partir de ataques de fuerza bruta sea una de las técnicas más habituales y sencillas. Especialmente si tenemos en cuenta que, junto al wp-admin por defecto, sigue siendo demasiado común utilizar contraseñas poco seguras. Lo que hace que para el atacante sea todo mucho más sencillo.

Editando el acceso a wp-admin

Por ello, se hace imprescindible modificar la URL de acceso a tu WordPress para que no sea exactamente como todas las demás. La forma más sencilla de editar el acceso a tu wp-admin es a través de plugins, ya que no se requiere de conocimientos en programación. En la mayoría de los casos basta con instalar el plugin y activarlo para que puedas cambiar la URL actual por la que desees. Además, generalmente es el propio plugin quien se encarga de realizar la redirección correspondiente para que puedas seguir accediendo a la administración de tu web.

Si tienes los conocimientos necesarios en programación, también puedes modificar el login de acceso a tu WordPress desde el fichero .htaccess. Esta opción tampoco implica demasiada dificultad, tiene más que ver con atreverse a editar el archivo, disponible en el directorio de instalación, y sobrescribir la URL de wp-admin.

Nuestro servicio de administración de WordPress

En Linube te ofrecemos la posibilidad de garantizar la seguridad de tu WordPress sin tener que preocuparte por ello. Con nuestro servicio de administración de WordPress nos ocupamos de modificar el wp-admin de tu web para evitar los ataques de bots y otras configuraciones adicionales que mejoran la seguridad de tu sitio web.

Un servicio de lo más completo, técnicamente hablando, que unido a nuestros servidores cloud, el servicio de administración y el espacio destinado a las copias de seguridad, harán que tu web esté siempre en las mejores manos. Si quieres más información en relación al servicio de gestión de WordPress, no dudes en ponerte en contacto con nosotros.

Tanto si te inclinas por delegar en expertos el mantenimiento de tu sitio web, como si decides hacerlo por ti mismo, no descuides el cambio de wp-admin. No cambiar el acceso al login de WordPress puede suponer la caída del servidor a través de ataques DDoS o el acceso a la información más sensible de tu sitio web.

Las redes WiFi gratuitas y sus riesgos

Publicado enCiberataques en marzo 4, 2020 10:00 am

En España hay más de 50 millones de líneas telefónicas, es decir, hay más números de teléfono que personas viven en el país. Aunque en este dato se contemplan desde las líneas móviles, a las centralitas o los números fijos de casa, no cabe duda de que vivimos en conexión permanente con el mundo a través de internet. Una conexión para la que es imprescindible tener datos móviles, o en su defecto conectarte a una red WiFi. Quizá por ello, cada vez que vemos WiFi gratis no dudamos en conectarnos a esa red pública. Una red abierta que nos proporciona un instante de felicidad digital, pero que puede traer graves consecuencias de seguridad.

El irresistible WiFi gratis

Generalmente, cuando un servicio es gratuito es porque puede haber trampa. En este caso, que una red WiFi sea gratis por ser de una reconocida empresa o de algún organismo público, no quiere decir que sea segura. Pero ya se sabe, cuando algo no tiene coste es más tentador conectarse para navegar por internet que pararse a pensar si hacer uso de ello puede suponer un riesgo.

En cualquier caso, el problema no está en utilizar una red WiFi abierta, sino en qué sitios se van a visitar a través de ellas. Al establecer una conexión con una red WiFi abierta, podemos estar exponiendo nuestros datos; por ejemplo, al acceder a nuestro correo electrónico o iniciando sesión en la aplicación de nuestro banco.

Una forma de ataque informático denominada man-in-the-middle donde la conexión pasa primero por el dispositivo del atacante, para después pasar al router que permite la salida a internet. De esta forma, el usuario no sospecha que la conexión que acaba de iniciar no es legítima.

Al establecerse una conexión con una red WiFi gratis hay muchas probabilidades de que nuestra información acabe expuesta. Ya no solo las webs que visitamos, también es posible acceder a los datos almacenados en el dispositivo: agenda de contactos, galería de imágenes, contraseñas en otras aplicaciones… Incluso consultar a qué redes WiFi nos hemos conectado previamente para saber dónde hemos estado antes.

Google y las webs cifradas

Aunque cada vez somos más conscientes de los peligros que pueden acechar en internet, aún falta mucho por concienciar en cuanto a ciberseguridad. Especialmente en lo que a sistemas actualizados y copias de seguridad se refiere, sigue quedando mucho por andar. Y es que, curiosamente la mejor forma de prevenir ciberataques es la opción más sencilla y también la que más pereza nos da: actualizar y copiar. Nada más. Siempre será más complicado acceder a un sistema actualizado y en caso de ransomware, por ejemplo, estaremos a salvo con nuestros backups actualizados.

Por ello hace un par de años Google lideró un movimiento que buscaba mejorar la seguridad de los sitios web a través de la instalación de certificados de seguridad SSL. Hasta ese momento eran muy pocas las páginas web que cifraban la información que compartían los usuarios en su sitio web. El miedo a penalizaciones en el posicionamiento de los resultados de búsqueda, junto a las advertencias de seguridad de las webs, han sido fundamentales para que las webs sean más seguras. Tanto que actualmente más del 80% de internet utiliza algún tipo de certificado SSL.

Cómo evitar los peligros del WiFi gratis

A pesar de que el mejor consejo siempre es el sentido común, nunca está de más tomar algunas medidas de precaución accesorias.

  • Asegúrate de que el dispositivo desde el que vas a conectarte a una red WiFi abierta tenga el cortafuegos activado. Habilitando esta opción se bloqueará todas las conexiones sospechosas.
  • Activa el antivirus de tu equipo. Hoy en día no es necesario contratar el servicio ya que la gran parte de los dispositivos lo traen por defecto; así que solo deberías tener que comprobar que el antivirus está activado.
  • Mantén actualizado el sistema operativo del dispositivo, así como todas las aplicaciones instaladas. Aunque pueda resultar incómodo estar actualizando el sistema con frecuencia, recuerda que las actualizaciones corrigen vulnerabilidades y fallos de seguridad, además de añadir más funcionalidades o mejorar algunas ya existentes.
  • Evita acceder a aplicaciones sensibles utilizando una conexión WiFi gratis. Comprar por internet o acceder a tu cuenta bancaria, con total seguridad, puede esperar a que llegues a casa y establezcas una conexión segura.
  • Procura utilizar los datos móviles antes que una red WiFi pública. Si es necesaria otra forma de conexión, asegúrate de que la red a la que vas a acceder sea segura.
  • Para conectarte a una red abierta, utiliza una conexión VPN.
  • Accede solo a páginas web protegidas que tengan instalado un certificado de seguridad SSL.
  • Cuando termines la conexión, elimina todos los datos de la red WiFi pública almacenados en tu dispositivo. Así evitarás que, en próximas ocasiones, tu dispositivo se conecte de forma automática a esa red abierta.

Amazon consigue el control de los dominios .amazon

Publicado enDominios en febrero 26, 2020 10:00 am

Si cada vez hay más sitios web en internet, también hay un mayor número de dominios. Como hemos comentado en alguna otra ocasión, la aparición de más y más proyectos web está provocando el agotamiento de las extensiones de dominio más utilizadas, como los .com o el territorial .es. Por ello, cada cierto tiempo van lanzándose nuevas extensiones de dominio. Extensiones que agrupan webs del mismo ámbito o temática, incluso algunas empresas tienen sus propias extensiones de dominio. Los últimos en obtener el beneplácito de la ICANN han sido los dominios.amazon.

Los dominios .amazon

Amazon, el comercio electrónico más grande del mundo, no es la primera empresa en contar con su propia extensión de dominio; ya que otras como Google ya cuentan con su propia extensión. Además, otras empresas como McDonald’s también solicitaron su propio dominio, aunque finalmente optaron por abandonar sus extensiones de marca.

En la gran mayoría de los casos, al tratarse de marcas registradas, no suele haber problemas para que se admita la solicitud; al ser propietario de la marca se suele obtener de forma casi directa la extensión del dominio. Pero, en el caso de los dominios .amazon ha sido diferente. La razón no es otra que la traducción al inglés del río Amazonas.

La compañía de Jeff Bezos recibió el nombre del río más largo del mundo porque la intención del estadounidense era crear la librería online más grande de internet. Desde entonces el negocio no hizo más que crecer y desde 2012 se han topado con la negativa de la OTCA a la hora de obtener su propia extensión de dominio. Después de batallar durante siete años con diferentes países sudamericanos, la compañía ha conseguido hacerse con la exclusividad de los dominios .amazon.

Polémica extensión de dominio

La Organización del Tratado de Cooperación Amazónica (OTCA), se creó en 1995 para promover acciones que favorecieran el desarrollo armónico de la Cuenca Amazónica. Una organización que, desde que se enteró de que el gigante ecommerce había solicitado la asignación de los dominios .amazon, intentó obtener el derecho a gestionar los dominios .amazon al considerar que hacen referencia al río Amazonas. El mismo río que sirvió de inspiración a Bezos a la hora de ponerle nombre a su ecommerce.

Para acabar con la polémica, Amazon trató de llegar a un acuerdo con los países de la Amazonia prometiéndoles libros electrónicos y espacio de almacenamiento en la plataforma en la nube de Amazon. Una propuesta que la OTCA no aceptó.

Las normas de la ICANN establecen que una empresa o particular no puede quedarse con el dominio de un país; de ahí que la adjudicación de los dominios geográficos requiera de la aprobación de las autoridades locales. En este caso, no se considera que Amazon pueda ser un término geográfico al no ser la denominación original, sino una traducción al inglés de la Amazonia o el río Amazonas.

Durante un año la ICANN trató de mediar entre la empresa de Bezos y la OTCA sin éxito. En un último intento la Corporación de Internet para la Asignación de Nombres y Números redactó una propuesta en la que Amazon se comprometiera a respetar el legado de los países amazónicos; pero la OTCA volvió a rechazarla.

El alcance de los dominios .amazon

Más allá del uso de los dominios .amazon como una forma de vincular los servicios del titán del comercio electrónico, lo que más preocupa a la OTCA es qué dominios podrían llegar a registrarse. Así, con la exclusividad del dominio en manos de Amazon sitios web como hoteles.amazon, turismo.amazon o viajes.amazon podrían hacer creer a un usuario que cuentan con la autorización de la región amazónica. De ahí la preocupación de los países por el uso que una empresa privada podría hacer de su patrimonio cultural.

Puesto que ambas partes no han alcanzado un acuerdo, ni siquiera con la intermediación de la ICANN, esta ha tomado su propia decisión. En este caso la resolución ha sido admitir la solicitud de extensión de dominio del gigante tecnológico. Pero, antes del veredicto, la propia Amazon se comprometió a compartir parte del dominio con los países de la OTCA para mejorar la visibilidad de esta región sin fines comerciales. De esta forma, se garantiza la protección de los intereses culturales, naturales y simbólicos de la OTCA.

Si bien esto puede no contentar a todas las partes, es la mejor aproximación a lo que cada uno defendía. Por un lado Amazon, que quiere utilizar su extensión de dominio para la promoción de sus productos, por ejemplo Kindle.amazon; y por el otro la preservación del patrimonio de la Amazonia al comprometerse el e-commerce a no utilizar variaciones de los dominios .amazon que pudieran causar confusión o afectar a los intereses culturales de esta región.

Aunque internet ya es demasiado mayor como para ser considerado una nueva tecnología, aún falta por delimitar muchas cosas que en el mundo analógico llevan años reguladas. Y como prueba de ello, tenemos la polémica de los dominios .amazon.

Desarrollando aplicaciones más seguras con Microsoft Application Inspector

Publicado enGeneral en febrero 19, 2020 10:00 am

Hoy en día es muy habitual utilizar componentes de terceros para el desarrollo de aplicaciones; funcionalidades escritas por otro miembro de tu equipo o por usuarios de la comunidad open source. Este tipo de prácticas permiten reducir el tiempo de desarrollo y hacer aplicaciones más completas, pero también pueden suponer un riesgo. Para evitar agujeros de seguridad o malas prácticas en desarrollo web, la compañía de Redmond ha liberado Microsoft Application Inspector; una herramienta para analizar el código fuente de una aplicación.

¿Qué es Microsoft Application Inspector?

Escrita sobre .NET Core, Microsoft Application Inspector es un analizador de código fuente que, además de detectar amenazas de seguridad, identifica los cambios y ayuda a comprender el código fuente.

Si bien no es la primera aplicación de estas características, Microsoft Application Inspector se diferencia de todas ellas en que no se limita a detectar prácticas pobres de programación; sino que va más allá en sus verificaciones automáticas. Comprobaciones que, de realizarse de forma manual, sería necesario invertir más tiempo, además de requerir mayores conocimientos al ser una tarea más difícil.

Con Microsoft Application Inspector después del análisis se obtiene un informe final con toda la información de la aplicación para saber si existen problemas de seguridad, si algunas funciones pueden mejorarse o si se han producido cambios importantes o nuevas características en el código.

Pero Microsoft Application Inspector no solo es de gran utilidad para detectar problemas en el código; también es de gran ayuda en todas las fases de un proyecto. La herramienta permite identificar con gran facilidad las diferencias entre cada fase, así como mostrar las líneas añadidas que pudieran suponer un problema de seguridad, como una puerta trasera.

El uso de Microsoft Application Inspector no debería sustituir las revisiones de seguridad; sino que se trata de una herramienta que sirve de gran ayuda a la hora de detectar problemas. Compatible con diferentes lenguajes de programación, Microsoft Application Inspector está disponible en GitHub.

Microsoft, cada vez más open

La llegada de Satya Nadella ha supuesto un antes y un después en la filosofía de Microsoft. Una apuesta por el código abierto que, lejos de perjudicar a los beneficios o funcionamiento de la compañía, no ha hecho más que favorecer el crecimiento de una Microsoft que llevaba años estancada. Dejar atrás la dependencia del sistema operativo Windows y las aplicaciones de ofimática para apostar por el cloud, la inteligencia artificial y otras tecnologías solo ha tenido consecuencias positivas para los de Redmond.

Aunque llevan años ofreciendo herramientas para hacer más fácil el día a día de los programadores, hasta hace muy poco todas ellas eran privadas. Pero, desde el cambio de 2014 cuando Microsoft se decidió a apostar por el software libre, cada vez son más el número de aplicaciones accesibles a todos. Algo que sirve para reafirmar el compromiso de Microsoft con el desarrollo de aplicaciones cada vez más seguras; además de convertirse en un referente para otras grandes compañías.

El efecto 2038 o la nueva llegada de un apocalipsis informático

Publicado enSistemas TI en febrero 12, 2020 10:00 am

Cuando se cumplen dos décadas el efecto 2000 ya empezamos a prepararnos para el siguiente apocalipsis tecnológico. Aunque en aquella ocasión el desastre no fue tal, parece que en dieciocho años la historia volverá a repetirse con el llamado efecto 2038.

¿Qué fue el efecto 2000?

El error del milenio fue un problema informático que hizo saltar las alarmas con el cambio de siglo. Aunque para cuando los cuartos y las doce campanadas comenzaron a sonar ya se había perdido parte del miedo al efecto 2000, lo cierto es que en los meses previos el pánico fue muy real.

Desde los años 60 los programadores fueron acostumbrándose a omitir las dos primeras cifras de los años, aquellas que hacen referencia al siglo, por ser más práctico y consumir menos memoria. Con el cambio de siglo se creyó que los sistemas no serían capaces de detectar el año 2000 y volverían atrás en el tiempo hasta el año 1900.

El principal temor del efecto 2000 era que los sistemas más básicos, como los encargados de suministrar energía o los bancos, pudieran fallar. Con ello las cuentas corrientes se quedarían a cero, las telecomunicaciones no estarían operativas y cualquier sistema que dependiera de un ordenador dejaría de funcionar. Pero ni la llegada del 1 de enero iba a producirse a la vez en todo el mundo ni todos los aparatos susceptibles de sufrir el efecto 2000 lo harían al mismo tiempo. Puesto que algunos de ellos estaban apagados durante el cambio de año, no se podía establecer una fecha límite para saber si un dispositivo había sufrido, o no, el efecto 2000.

Lo que ahora parece una anéc

dota más y una excusa para vender más equipos ante el temor del apocalipsis informático, quizá pudo haber sido un desastre para el que nos preparamos a tiempo. Una previsión millonaria permitió estar preparados para el cambio de milenio, algo que de haber sucedido hubiera provocados miles de millones en pérdidas; aunque no evitó que se produjera algún que otro problema.

Y2K38: el efecto 2038

Apenas han pasado dos décadas del efecto 2000 y ya estamos temiendo la llegada del efecto 2038. Parece que al igual que las modas, los apocalipsis informáticos son algo que también se repite cada cierto tiempo. La diferencia entre aquel drama del milenio y el efecto 2038 es que este último no coincide con el cambio de año; aunque también tiene fecha y hora exactas.

El error 2038 afectará a los sistemas de 32 bits que recurren a POSIX para la representación del tiempo. A diferencia del efecto 2000 donde la comodidad hizo que las fechas solo tuvieran dos cifras; el problema del efecto 2038 es alcanzar el límite máximo de capacidad del sistema para generar fechas. Es decir, un sistema de 32 bits admite un total de 4.294.967.296 combinaciones posibles, tanto positivas como negativas, una cifra a la que se llegará el 19 de enero de 2038 a las 03.14 UTC.

El sistema POSIX se basa en contar el número de segundos transcurridos desde la medianoche del 1 de enero de 1970 hasta completar el máximo permitido por el sistema. Al llegar a las 03.14 del 19 de enero de 2038, los equipos pasarían de forma automática al 13 de diciembre de 1901; exactamente el número de combinaciones negativas que admite POSIX. Eso en el mejor de los casos, puesto que los sistemas también podrían dejar de funcionar.

Más o menos lo mismo que pasó en 2014 cuando el contador de visitas de YouTube llegó a su máximo a causa del boom del Gangman Style. Ese record sirvió para que Google se viera obligada a parchear su aplicación y al resto de los mortales nos mostrara que en internet también había límites.

¿Qué podría pasar?

Afortunadamente en esta ocasión la tecnología está de nuestro lado. Desde hace tiempo los fabricantes de procesadores y los desarrolladores de sistemas operativos y aplicaciones apenas usan versiones de 32 bits. Así, la gran mayoría de los dispositivos que utilizamos actualmente recurren a versiones de 64 bits. El uso de 32 bits ha quedado relegado a algunas empresas e instituciones públicas, para las que tampoco está todo perdido porque aún están a tiempo de prevenir el efecto 2038.

Quedan aún dieciocho años para actualizar todos los dispositivos a arquitecturas de 64 bits; aunque lo más probable es que para entonces todos hayan sido reemplazados por otros nuevos. Puede que una vez más nos hayamos preparado para la llegada del apocalipsis informático con suficiente antelación; o puede que acabemos viajando al pasado si en 2038 aún quedan sistemas de 32 bits.

Digitalizar el mercado es más fácil con el Digital Market de Hermeneus

Publicado enEventos y Colaboraciones en febrero 5, 2020 10:00 am

No será la primera, ni seguro la última, vez que decimos que en estos tiempos si no estás en internet es como si no existieras. Por ello cada vez son más los comercios que se deciden a llevar al online sus tiendas físicas; incluso hay quienes nacen directamente en internet para después terminar de crecer en el establecimiento físico. En muchos sectores y tipos de comercio este salto es bastante sencillo, pero en el mercado tradicional no tanto. Para facilitar la digitalización de los procesos claves de los mercados y los comercios tradicionales, Hermeneus tiene la herramienta perfecta.

El Digital Market de Hermeneus

Digital Market es un software que lleva, literalmente, el mercado a internet. Con esta herramienta no es necesario que cada uno de los comercios desarrolle su sitio web, sino que es posible gestionar la versión digital del negocio alojada en una plataforma compartida con el resto de puestos de su mercado. Así no es necesario saltar a internet en solitario ni tener que sacrificar los beneficios de las ventas por utilizar plataformas de terceros como Amazon.

La plataforma desarrollada por Hermeneus, y fruto del trabajo de una década, lleva el mercado de toda la vida al mundo online en el que nos movemos. Con Digital Market puedes hacer todas tus compras en varios puestos de un mismo mercado. Esto es posible porque, aunque cada comercio se gestiona por separado, todos comparten una serie de servicios comunes; como los repartos a domicilio, la pasarela de pago, campañas publicitarias… El modelo no es válido únicamente para mercados, puede utilizarse para asociaciones de comerciantes, agrupaciones, administraciones… cualquier conjunto de establecimientos que quiera promover su actividad.

De esta forma, todos los establecimientos comparten estética y funcionamiento, pero cada negocio se gestiona de forma independiente en cuanto a productos, información o promociones. Además, el acceso a cada comercio puede realizarse de dos formas; bien directamente en la web del comercio, bien a través del propio mercado o asociación, donde se puede consultar qué establecimientos se encuentran en la plataforma.

Una plataforma para cualquier necesidad

Digital Market nació como una forma de abrir una nueva ventana al mundo a agricultores y ganaderos vascos en un sector en el que no es tan habitual comprar a través de internet. La falta de costumbre, o el hábito de acudir a los establecimientos físicos, son barreras que hasta hace poco parecían insalvables para el sector de la alimentación. Hasta que la posibilidad de contar con un escaparate siempre abierto y la aparición de una herramienta como Digital Market, simplificó el proceso. Así, el software de Hermeneus ha ido perfeccionándose hasta convertirse en un referente para el pequeño comercio en España. Para lograrlo ha sido imprescindible saber adaptar la tecnología a los cambios que iban produciéndose.

Porque no todos los negocios son iguales, el software desarrollado por Hermeneus se adapta a las necesidades de cada uno de los comercios. Con diferentes tipos de licencias de uso, cada una de ella implementa unas funciones concretan que se ajustan al proceso de digitalización de cada uno de los comercios. Para saber qué tipo de licencia se requiere en cada caso y comenzar a utilizar la plataforma de Hermeneus, solo hay que completar un pequeño formulario. A partir de ahí, cada comercio es libre de gestionar su establecimiento online para obtener los mejores resultados.

A diferencia de otras plataformas, Hermeneus se limita a ofrecer el software a través de licencias anuales y garantizar el óptimo funcionamiento de la plataforma. Es decir, no cobra comisiones por producto ni interfiere de forma en los beneficios obtenidos por los establecimientos a través de su software. Además, con Digital Market es el propio comercio quien tiene todos los datos del comprador y no el propietario de la plataforma; para que en el caso de que decidieras dejar de utilizarla, no pierdas toda tu cartera de clientes.

Hermeneus en cifras

En sus diez años de recorrido, Hermeneus ha desplegado diez plataformas por toda España. Entre todas suman más de dos mil comercios y cuarenta mil referencias de productos, lo que ha convertido a Digital Market en un referente para todos los implicados en el pequeño comercio. Ente los que destaca Mercado 47, agrupación de los mercados municipales de Madrid, y Lorra Market, un proyecto respaldado por la Diputación Foral de Bizkaia para la digitalización del sector agroganadero.

Por todo ello han resultado ganadores de la segunda edición del Concurso de Ideas Tecnológicas para el Comercio Minorista por parte de la Secretaría de Estado de Comercio del Ministerio de Industria, Comercio y Turismo. Asimismo, la Comisión Europea ha reconocido el software como la mejor práctica de Europa para la modernización y revitalización del pequeño comercio. Este mismo organismo ha publicado una guía entre todas las autoridades locales europeas para fomentar la puesta en marcha de iniciativas similares, despertando el interés de otras plataformas internacionales con la que actualmente están negociando.

Revitalizar y modernizar el mercado local tradicional es más fácil con el software de Hermeneus, además de favorecer unos buenos hábitos alimenticios basados en productos frescos.

Zombieload y CacheOut, más vulnerabilidades de Intel

Publicado enCiberataques en enero 30, 2020 10:00 am

Por tercer enero consecutivo, algunos procesadores vuelven a estar en problemas como consecuencia de las vulnerabilidades de Intel. Desde que en 2018 se descubrieran los problemas de seguridad bautizados como Meltdown y Spectre, los comienzos de año no han vuelto a ser lo que eran. Si bien Spectre afectaba no solo a los procesadores de Intel, sino también a los diseños de AMD y ARM tanto en ordenadores, como en smartphones o servicios en la nube.

Meltdown y Spectre, el inicio

Cuando se descubrieron estas dos vulnerabilidades de Intel, inicialmente se consideró que podrían permitir a un software malicioso controlar los procesos y los datos de la memoria del equipo. Pero, gracias a Project Zero de Google, vieron que el problema iba más allá. Alguien que explotara Meltdown o Spectre podría hacerse con los datos que se almacenaban en la memoria de otros programas.

Así, Meltdown acababa con el estado de aislamiento entre una aplicación y el sistema operativo, otorgando el acceso a la memoria del sistema. Spectre, por su parte, rompía el aislamiento entre aplicaciones, aunque su programación estuviera basada en las mejores prácticas, para permitir el acceso a la memoria de otras aplicaciones.

Mediante un problema denominado ‘ejecución especulativa’, el procesador ejecutaba un código que, llegado a un punto del algoritmo, debía decidir entre dos direcciones en función de cuáles habían sido los datos de entrada. Con estas vulnerabilidades de Intel el ciberatacante trataba de adivinar por dónde iba a continuar el proceso e intentaba adelantarse. Si el procesador se daba cuenta de que la ejecución especulativa no era correcta, volvía atrás y deshacía esos datos. Pero antes, los almacenaba en su caché. De esta forma podían diseñarse peticiones, aprovechar los fallos especulativos y acceder a esta memoria para hacerse con las contraseñas.

Ellas y sus variantes

Cuando el susto provocado por Meltdown y Spectre parecía que había pasado, llegaron sus variantes. Y solo unos meses después llegaría Foreshadow, un conjunto de tres nuevas vulnerabilidades de Intel basadas en la ejecución especulativa de Spectre. Mediante estos tres fallos de seguridad se podía extraer información de la caché de los procesadores y leer otro tipo de datos de la memoria. Como era de esperar, Foreshadow afectaba a algunos de los procesadores que ya estaban afectados por Spectre.

En mayo de 2019 salía a la luz Zombieload, una vulnerabilidad que afectaba a todos los procesadores Intel a partir de 2011. El tercer gran problema de seguridad que Intel sufría en los últimos años, permitía a un tercero acceder a la información del usuario sin que este le hubiera dado permiso. Esta carga zombie obligaba al procesador a pedir ayuda al microcódigo para evitar un fallo; haciendo que la información tenga que ir más allá de la aplicación y sus limitaciones, queden al descubierto y puedan leerse sin problemas.

En esta ocasión, tuvimos constancia de que había una nueva vulnerabilidad cuando ya estaba disponible el parche que lo corregía. En noviembre de 2019 se publicó la segunda actualización para reducir aún más el poder de Zombieload. Ahora, en enero de 2020 se ha publicado un tercer parche que corrige dos errores más que podían ser explotados para un ataque.

Desde el primer momento Zombieload fue considerado más fácil de explotar que Spectre, pero mucho menos que Meltdown. Por ello, Intel comenzó por corregir los fallos más básicos que permitían la ejecución de Zombieload en sus primeros parches; aunque desde Intel afirman que no tienen constancia de que ninguno de los errores haya sido utilizado fuera del entorno controlado de laboratorio.

Parcheando las vulnerabilidades de Intel

En estos momentos Apple, Google y Microsoft han publicado las actualizaciones pertinentes para mitigar cualquier ataque Zombieload. Para la actualización de software Intel habrá que esperar un poco más, posiblemente porque junto a Zombieload también se ha descubierto CacheOut. Un nuevo fallo que permite filtrar los datos almacenados en la memoria caché del procesador, saltándose cualquier medida de seguridad a nivel de hardware del procesador, incluidas las medidas de seguridad que se tomaron con Meltdown.

Parece que casi dos años después de Meltdown y Spectre, Intel aún no ha sido capaz de reponerse de sus vulnerabilidades. ¿Conseguirán corregir todos los agujeros de seguridad con el nuevo parche? ¿Surgirán otras vulnerabilidades nuevas? Eso, solo el tiempo nos lo dirá.

El rickroll sigue vivo más de 30 años después

Publicado enCiberataques en enero 22, 2020 10:00 am

Año nuevo, más vulnerabilidades. Apenas unos días le han bastado a 2020 para que aparezca la primera vulnerabilidad del año. ¿El sistema afectado? Windows 10. ¿La forma? Un rickroll.

¿Qué es un rickroll?

Si en los 80 estabas en plena adolescencia, o si lo estaban tus padres, es muy probable que en tu casa haya sonado Rick Astley unos cuantos cientos de veces. Bueno, tal vez toda su discografía no, pero su archiconocido ‘Never gonna give you up’, seguro que sí. Pues un rickroll es más o menos eso; insertar un enlace trampa que, en lugar de redirigirte al contenido que te interesa, te lleva a este temazo de los ochenta.

El primer rickroll del que se tiene constancia fue en mayo de 2007. Los rickrolleados, que así es como se llaman los afectados, abrían un enlace con la intención de ver el tráiler del ‘Grand Theft Auto IV’ y… se encontraban con el bueno de Rick Astley moviendo las caderas. Unas semanas después la broma se convirtió en tendencia en internet y para el April Fool’s Day de 2008 hasta YouTube rickrolleaba sus vídeos, tanto que según una encuesta de SurveyUsa, 18 millones de estadounidenses habían sido víctimas del rickroll.

Llegó el drama

Con los años la canción ha terminado por convertirse en uno de los principales memes de internet. Y también en uno de los vídeos más vistos con más de 600 millones de reproducciones.
El 23 de febrero de 2010 el vídeo original utilizado para rickrollear fue eliminado por error de YouTube. Por una confusión con los términos de uso ‘Never gonna give you up’ fue retirado, aunque volvía a estar disponible en menos de 24 horas.

Aunque parezca una novedad, no es la primera (ni será la última) que un rickroll se utiliza para demostrar vulnerabilidades en los sistemas. Por ejemplo, en abril de 2008, Kaminsky lo utilizó para revelar un grave problema de seguridad en Facebook y PayPal.

El rickroll en Windows 10

El fallo de seguridad de Windows 10 fue aprovechado para insertar un rickroll en la web de la NSA, la Agencia de Seguridad Nacional de Estados Unidos, y GitHub. Insertar el vídeo de Astley fue posible por un exploit que permitía falsificar las webs protegidas por HTTPS que podían ejecutarse desde Chrome, Microsoft Edge u otros navegadores.

Pese a la broma, lo cierto es que se trataba de una vulnerabilidad muy grave. Por ello fue necesario aplicar el correspondiente parche en los servidores con las versiones vulnerables de Windows y el reinicio de los servicios. Igualmente, en el caso de los navegadores, ya que la vulnerabilidad afectaba a todo tipo de servicios que utilizaran Windows, no únicamente a los servidores.

Ya sabes, para evitar ser vulnerable, ‘never gonna give you up’, pero en mejorar tu ciberseguridad.

Todas las novedades y mejoras de Plesk Obsidian

Publicado enNovedades en enero 15, 2020 10:00 am

Plesk Obsidian, la última versión del panel de control más utilizado para la gestión de alojamientos web, ha llegado para sustituir a Onyx. Esta nueva versión de Plesk, además de algunos cambios estéticos en la interfaz para una mejor experiencia de usuario, trae consigo mejoras de seguridad, monitorización y optimización de los sitios web.

Mayor seguridad con SSL it!

SSL it! es una extensión de Plesk Obsidian que permite, a través de una sencilla interfaz, realizar todo tipo de tareas relacionadas con certificados de seguridad SSL. Para garantizar que tanto el servidor como las webs alojadas en él estén protegidos en todo momento, SSL it! es compatible con las principales autoridades certificadoras, como Let´s Encrypt. Además, está previsto que próximamente se añadan otras muchas entidades más.

La seguridad SSL se ha convertido en una funcionalidad básica en Plesk Obsidian. De ahí que ahora SSL it! vaya preinstalado en todas las nuevas instalaciones, y también se ofrezca en las actualizaciones del panel de control.

Además, con SSL it! es posible:

  • Instalar y renovar certificados SSL de diferentes entidades certificadoras de una forma más sencilla.
    Asegurar tu dominio, subdominios, las versiones con y sin www y el webmail de una forma más simple. De un solo vistazo podrás ver qué está protegido con un certificado SSL y qué no.
  • En aquellos dominios protegidos por un certificado no válido (autofirmados, expirados o emitidos por una autoridad certificadora que no sea de confianza), se emitirá, instalará y renovará un certificado Let’s Encrypt. De esta forma, incluso si se produjera algún problema con el certificado, tanto la web como el servidor estarán siempre protegidos.
  • Gestión HSTS, protocolo OCSP y HTTP para redirigir de forma automática a HTTPS.
  • Poder consultar el estado del certificado asociado a un dominio, sus subdominios y los diferentes alias de dominio desde un mismo lugar. Estos estados contarán, además, con unos indicadores en la página del dominio para que sea más sencillo identificar el estado.
  • Siempre se utilizarán las últimas versiones del protocolo criptográfico TLS.
  • Con SSL it! se obtienen las mejores puntuaciones en ssllabs, la herramienta que verifica la seguridad de una página web.

Kit de auto-reparación con Plesk Obsidian

Aunque no es una novedad de Plesk Obsidian puesto que existe desde anteriores versiones del panel de control, en esta última versión se mejoran y añaden funcionalidades. La herramienta de autoreparación de Plesk detecta y resuelve de forma automática problemas en el panel de control y sus servicios. Además:

  • Permite ver la lista de procesos que están ejecutándose en el servidor y filtrarlos en función del dominio. También es posible, en caso de que fuera necesario, matar los procesos.
  • Consultar los recursos disponibles (CPU, RAM y espacio en disco) para todos los procesos que se ejecutan en el servidor o en procesos individuales.

Monitorización avanzada

Esta es una de las funcionalidades exclusivas de Plesk Obsidian. Una extensión que permite hacer uso de unas gráficas de monitorización avanzadas, pero que deberá instalarse de forma manual una vez se haya actualizado o instalado la última versión de Plesk. Fundamentalmente:

  • Esta extensión reemplaza a la herramienta Health Monitor, ofreciendo mayor información gracias a la extensión Grafana.
  • Permite configurar alertas de notificación en relación al consumo de recursos a través de correo electrónico o notificaciones push, en el caso de tener instalada la app de Plesk en el dispositivo. Igualmente, si se produjeran problemas que afecten a la disponibilidad del servidor o la web.

Sencillez con PHP Composer

La nueva versión de Plesk trae algunos cambios en el gestor de paquetes PHP para que programar sea más sencillo y visual. Así:

  • Plesk Obsidian permite utilizar PHP Composer a través de la interfaz de usuario sin acceso SSH. Además, desde la interfaz web es posible configurar nuevas variables, editar composer.json y ejecutar los comandos que permiten instalar nuevos elementos y actualizarlos.
  • Ya no será necesario recordar comandos u opciones para instalar o actualizar componentes, Plesk Obsidian se encargará de ello con solo hacer click en la opción.
  • Las actualizaciones son básicas para garantiza la seguridad de un sistema informático, pero si hay incompatibilidad entre los elementos pueden ‘romper la web’. Por ello, la nueva versión de Plesk revisa todos los componentes instalados y ayuda a decidir si tiene sentido instalar las actualizaciones o no; además de mostrar a través de indicadores si las actualizaciones pueden causar problemas o no son compatibles con la configuración actual.
  • De forma automática los sitios web utilizarán las últimas versiones de PHP especificadas en composer.json., la versión correcta del controlador de PHP y no la del sistema por defecto; sino la misma versión que se utilice en cada sitio web.

Limitación de permisos en Plesk Obsidian

La opción antes conocida como ‘custom view’ pasa a llamarse ‘modo de acceso restringido’. Además, permitirá que el administrador de la suscripción Plesk Obsidian tenga un mayor control sobre las operaciones que pueden hacerse y quiénes pueden llevarlas a cabo. Esta nueva funcionalidad está disponible tanto para administradores de Plesk como para los administradores adicionales y posibilita:

  • Ver qué herramientas de administración del servidor y configuraciones disponibles.
  • Las herramientas de administración del hosting y las configuraciones disponibles.
  • Consultar los servicios y recursos de las suscripciones que están disponibles para el administrador.

Esto permite proporcionar a cualquier usuario acceso como administrador, en lugar de acceso reseller o usuario, mientras que se puede controlar el acceso a operaciones delicadas; como la gestión de las actualizaciones, los reinicios o apagados del servidor

Nuevo sistema de notificaciones

Para que estar al tanto de lo que ocurre en tu suscripción Plesk Obsidian sea más sencillo, la última versión del panel de control ofrece una mejor experiencia de usuario y control del servidor y las webs alojadas en él sin tener que iniciar sesión. De esta forma se tiene constancia de los problemas críticos que puedan ocurrir en la suscripción a la vez que ofrece una solución en pocos pasos para que el usuario no tenga que perder demasiado tiempo en arreglar el problema.

  • Notificaciones a través de correo electrónico. Los mensajes con formato HTML son más sencillos de leer que el texto plano, además de ser más visuales y diferenciarlos del resto de emails de la bandeja de entrada.
  • Notificaciones del panel a través de la interfaz web o mediante push en la aplicación móvil, en el caso de tenerla instalada en el Smartphone.

Mejoras en el servicio de correo

  • Puesto que Plesk se utiliza en la mayoría de los casos para poder disponer de servicio de correo en un servidor cloud, las mejoras en relación al correo electrónico son fundamentales.
  • El email para un dominio puede asegurarse con un SSL individual mediante SNI.
  • Notificaciones de consumo cuando un buzón de correo esté por encima del 95% de su capacidad.
  • Tanto el servidor de correo como el webmail están disponibles a través de HTTPS por defecto, protegidos por el mismo SSL que asegura el panel de control.
  • El administrador puede cambiar las contraseñas de los usuarios, revendedores o cualquier otro rol de usuario mediante un enlace.
  • Los usuarios pueden restablecer su contraseña, incluso si han perdido el acceso a su correo principal, especificando otra dirección de correo.

Otras funcionalidades de Plesk Obsidian

  • En sistemas basados en Linux, los servicios que fallen se restauran de forma automática.
  • Mejoras de PHP-FPM y Apache para que el reinicio de los servicios sea más seguro.
  • Los reinicios ‘suaves’ (graceful) de Apache están establecidos por defecto, al ser más robustos y contribuir a minimizar los tiempos de caída de un sitio web.
  • Las aplicaciones mod_security y fail2ban están activadas por defecto para ofrecer mayor seguridad.
  • Para los nuevos sitios web, se activará por defecto la redirección HTTP > HTTPS. De esta forma, además de encriptarse la comunicación, es más fácil ser SEO-friendly.
  • El motor de PHP que utiliza Plesk Obsidian contiene las extensiones PHP más utilizadas.
  • El módulo PageSpeed de Apache para la optimización de sitios web ahora viene pre-compilado con Nginx.
  • Se ha optimizado el punto de entrada de Plesk Obsidian para poder ser utilizado en diferentes servicios cloud, como Amazon AWS o Google Cloud.
  • El gestor de archivos permite subidas masivas y también la búsqueda de archivos por nombre o contenido para mejorar la productividad.
  • Mover dominios entre suscripciones para reorganizar un negocio o mantener determinadas webs aisladas o separar las webs en desarrollo de las webs en producción. El único requisito para hacer uso de una de las funcionalidades más esperadas de Plesk es que la suscripción de destino cuente con recursos disponibles.

Si utilizas Plesk para gestionar tu alojamiento web, o simplemente para disponer de servicio de correo en un servidor cloud, todos los cambios de Plesk Obsidian te serán de gran ayuda.

¿Utilizas de forma adecuada los términos hacker y cracker?

Publicado enCiberataques en enero 8, 2020 10:00 am

Las redes sociales, los medios de comunicación, internet o el cine son un elemento clave en la viralización de contenidos y también de nuevos términos. El problema llega cuando desde cualquiera de esas plataformas se envía un mensaje erróneo; un cambio que llegará a miles, sino millones, de personas y que dificultará la rectificación. Y esto es lo que ha ocurrido con el término hacker.

¿Qué es un hacker?

Aunque tradicionalmente la palabra se ha asociado con los piratas informáticos o la criminalidad en internet, lo cierto es que significa todo lo contrario. Si bien esa confusión comenzó en el mismo lugar en el que se utilizó por primera vez; para cuando llegó al español ya estaba totalmente desvirtuada.

Los primeros usos del término se encuentran en las Islas Británicas en el siglo XIII donde parece que la palabra surgió como derivado del verbo inglés ‘to hack’. Cinco siglos después comenzaría a utilizarse para referirse a los conductores de vehículos tirados por caballos de la raza hackney; hasta que se popularizó el vocablo francés ‘taxi’. Más o menos en la misma época el término hacker empezó a usarse para referirse a aquellos trabajos que resultaban pesados y rutinarios; especialmente entre los escritores (hack-writer) que escribían por encargo y sin motivación alguna en publicaciones de escasa calidad.

En un diccionario de 1959 encontramos la primera referencia de hack como sinónimo de proyecto sin ningún fin práctico e iniciado por desconocimiento o como una broma producto de la creatividad. Este diccionario terminaría siendo años después la base de Jargon File, un glosario que recoge los principales términos de la jerga informática y al que contribuyeron grandes figuras del open source como Stallman o Raymond. Para el primer uso de hacker en el ámbito tecnológico habría que esperar hasta 1975 cuando el MIT (Massachusetts Institute of Technology) lo utilizó para referirse a una persona que programa por placer.

Una cosa y lo contrario

Con el tiempo la palabra hacker terminó por adoptar dos significados. Teniendo en cuenta que los primeros ordenadores estaban pensados para llevar a cabo cálculos matemáticos, podría considerarse como una labor pesada y rutinaria; además, había quienes trataban de encontrar el lado creativo de su trabajo programando para buscar mejoras en los sistemas.

Ingenieros informáticos como Feynman, participante en el Proyecto Manhattan, desconectaban de su trabajo diario poniendo a prueba la seguridad de aquellos primitivos sistemas. Un hobby que se recoge en ‘¿Cómo ser un hacker?’, un artículo de Raymond donde la afición a los conocimientos técnicos en se junta con la capacidad de superación y de poner a prueba la seguridad de los sistemas informáticos. De esta forma es posible plantear soluciones a problemas que ni siquiera se conocían y que, quizá, no hubiesen sido descubiertos de otra forma.

Cambios en el lenguaje

El lenguaje y la tecnología no avanzan al mismo ritmo. Así, mientras que diariamente se utilizan nuevos términos para designar nuevas actividades, productos o cualquier tipo de nuevo elemento tardan meses, e incluso años, en recogerse en los diccionarios. Un proceso que es especialmente lento en el caso de la tecnología, donde todo evoluciona a un ritmo vertiginoso que no se corresponde con la frecuencia con que se incluyen nuevos términos en el diccionario.

Las palabras que se recogen en el Diccionario de la Real Academia Española (RAE) dependen del uso que se hace del lenguaje. De ahí que la palabra hacker no fuese incluida en el diccionario hasta 2014, cuando el término ya se había popularizado con un significado erróneo en la sociedad. Habrían de pasar tres años más hasta que la RAE rectificara y añadiera una segunda acepción que hiciera referencia a los hackers buenos, el verdadero significado del término, y no sin crear polémica en la comunidad especializada en seguridad informática.

De cracker a hacker

En la gran mayoría de los casos en los que se recurre a la palabra hacker, lo adecuado sería utilizar el término cracker; puesto que generalmente se utiliza el término con connotaciones negativas, en lugar de su verdadero significado. Esta confusión demasiado habitual y generalizada para referirse a los crackers como hackers indigna a los verdaderos ‘piratas buenos’. Mientras que unos destruyen cosas, los otros trabajan a diario para crear nuevas funcionalidades y mejorar la seguridad a partir de los sistemas disponibles en ese momento.

Este cambio en el significado de la palabra es, en gran parte, producto de la desinformación de los medios y la industria cinematográfica. Así, además de algunas noticias, películas como ‘Hackers’ no han hecho sino contribuir a la desvirtuación de la palabra y aumentar la percepción negativa en el imaginario colectivo.

No es necesario dedicarse a la informática para ser hacker, es posible hacerlo en otros ámbitos como la música o la electrónica, ni siquiera es imprescindible tener a mano la más alta tecnología. Está más relacionado con dar importancia a lo que se hace para explorar nuevos caminos y, sobre todo, mejorar los sistemas.

2019 se perderá en el tiempo ¿como lágrimas en la lluvia?

Publicado enGeneral en diciembre 26, 2019 10:00 am

Cuando en 1982 llegó a los cines Blade Runner las expectativas sobre un futuro, que ahora es presente, cambiaron considerablemente. Aunque esas predicciones tenían como fecha de caducidad 1992, según el libro de Philip K.Dick en el que se inspira la película, Ridley Scott decidió hacerlas aún más futuras. Noviembre de 2019 ya es parte del pasado y ni los coches vuelan, ni vivimos entre replicantes, ni nos hemos mudado a la Luna o Marte; al menos no por el momento.

Eso sí, Blade Runner acertó en algunas cosas que se han convertido en clave en la tecnología de esta década, como el reconocimiento de voz o el desarrollo de la inteligencia artificial. Aunque sin ser tan inteligente y tan poco artificial como se muestra en la película.

Al margen de lo presagiado por Blade Runner, el 2019 ha dado para mucho, tecnológicamente hablando, y es el momento de repasarlo.

El ransomware de Jerez

Ni un año sin el correspondiente susto por ransomware. A comienzos de mes de octubre el Ayuntamiento de Jerez sufría un ataque de ransomware que dejaba inoperativos todos los equipos del consistorio. Mil trescientos ordenadores que tuvieron que ser analizados uno por uno por el CNI para conseguir desencriptar la información contenida. Las tareas se demoraron un par de semanas, tiempo en el que algunos organismos del Ayuntamiento permanecieron fuera de servicio o sin poder realizar muchas de sus labores diarias.

Este tipo de ataques informáticos son bastante habituales, recordemos WannaCry en 2017 y cómo afectó a grandes compañías. Y, desgraciadamente, no es posible una protección infalible contra el ransomware, pero siempre pueden tomarse medidas que ayuden a minimizar riesgos, o al menos supongan un plan de contingencia. Desde contar con copias de seguridad externas en servicios como Cloud Backup o DRS, si se trata de grandes infraestructuras, a mantener el software siempre actualizado.

Incluso en 2019 gran parte de los problemas informáticos tienen su origen en la falta de actualización de los equipos y programas informáticos. Si bien las actualizaciones pueden añadir más funcionalidades, su principal propósito es solucionar problemas de seguridad. En este sentido muchas instituciones continúan utilizando versiones de sistemas operativos o programas sin soporte de seguridad. Muchas papeletas para acabar sufriendo un ciberataque.

Las cuentas hackeadas

Prácticamente a la vez las cuentas de Twitter de Atención al cliente de Correos y la Universidad Pública de Navarra (UPNA) sufrían un ataque. Durante el tiempo que perdieron el control de sus perfiles sociales, los atacantes aprovecharon para publicar mensajes ofensivos. Tuits que acabaron siendo virales y de los que las propias empresas acabaron por tomarse con humor. Una vez solucionado el problema, eso sí.

El caso de Correos Atiende fue aún más grave, ya que además del hackeo se intentó estafar a los usuarios a través de SMS. Un ataque de phishing basado en enviar una notificación al usuario solicitándole el pago de una tasa de aduanas a través de un sitio web que, evidentemente, no tenía relación alguna con la empresa de envíos. Por ello, es muy importante aprender a detectar este tipo de ataques; ya que, además de hacerse con el control de tus datos, pueden acabar sacándote unos euros.

Y no solo Correos cayó en las manos de los suplantadores de identidad, el cliente de correo para webmail Roundcube también lo sufrió. Mediante un correo a nombre del servicio de emails, se avisaba de que la cuenta había sido deshabilitada tras varios intentos erróneos de inicio de sesión. Un aviso engañoso que únicamente trataba de hacerse con la cuenta del usuario porque, entre otras cosas, Roundcube no envía mensajes a tu buzón. Más o menos lo mismo que ocurrió con los dominios .eu. Una vez más, en 2019 también ha ‘reinado’ el mal.

El cambio en los pagos digitales

La nueva directiva PSD2 ha supuesto algunos cambios en las compras online. Entre ellos la necesidad de implementar la doble autenticación a la hora de realizar una transacción, dejando atrás las famosas tarjetas de coordenadas. La teoría es perfecta, pero como siempre el problema llega en la práctica.

Gran parte de las entidades bancarias siguen utilizando el SMS como factor de doble autenticación, lo que ha propiciado la aparición del SIM swapping. Una técnica que explota la poca seguridad de los mensajes de texto para hacerse con el control de las cuentas bancarias de los usuarios. Para ver el código de seguridad enviado por tu banco al hacer cualquier operación desde la banca online no es necesario desbloquear el dispositivo; lo que hace enormemente fácil burlar esta medida de seguridad.

2019, la llegada de Firefox Monitor

La compañía del panda rojo ha lanzado un servicio para alertar si alguna de tus claves de acceso ha sido comprometida. En colaboración con Have I Been Pwned (HIBP), la base de datos que permite conocer si las direcciones de correo se han visto expuestas, Mozilla lanza Firefox Monitor. Aunque no es el único servicio de estas características que existe.

Con este servicio, en lugar de tener que buscar si nuestras direcciones están a salvo, muestra la seguridad de la cuenta al acceder al servicio; en el caso de que el servicio haya sufrido algún robo. En cualquier caso, tanto si tus contraseñas han sido expuestas como si no, te recomendamos cambiar tus claves de acceso de forma periódica. Y si, además, estableces contraseñas seguras en todos tus servicios mucho mejor. De esta forma que alguien acabe descubriendo tus passwords será mucho más difícil.

Sabemos que mantener los sistemas actualizados es esencial para añadir seguridad. Por ello desde Linube contamos con diferentes tipos de servicios de administración de sistemas, de forma que puedas delegar la gestión técnica de tu servidor en manos expertas. Además de olvidarte de las actualizaciones de seguridad, podrás tener la seguridad de que tus backups están a salvo y que nuestra monitorización proactiva nos permite adelantarnos a muchos de los problemas.

¿Época de cambios?

Hace unas semanas RIPE asignaba el último bloque de direcciones IPv4. A finales de 2019 y con todas las direcciones IPV4 agotadas parece que la llegada de IPv6 estaría un poco más cerca. Aunque con la aparición de los IP brokers y la reventa de las direcciones IP que eso supone, es probable que la implantación de IPv6 nunca llegue a avanzar.

En el extremo opuesto, un reemplazo que ya es una realidad. El obsoleto Whois sufrió de primera mano las consecuencias del RGPD. Por ello, y ante la necesidad de llevar un control sobre los dominios y sus propietarios, se ha agilizado la llegada de RDAP, el protocolo que le sustituye. RDAP además de suplir las carencias en cuanto a seguridad al recurrir a HTTPS, supone la estandarización e internacionalización de la información que se muestra.

La UE ha redefinido el concepto de ciberseguridad. Después de 25 años el alcance de la definición nada tiene que ver con las posibilidades de hoy en día; ni en términos de daño causado ni en cuanto a las técnicas empleadas. Por ejemplo, ¿quién iba a pensar que podría atacarse a los servidores de CDN para que devuelvan páginas de error en lugar del contenido correcto? Pero sí, los ciberataques CPDoS son posibles y cuando se definió la ciberseguridad no estaba contemplado, porque aún no se había descubierto. Y es que esta forma de ataque informático apenas tiene un par de meses de vida.

Google en 2019

Como no podía ser de otra forma estos 365 días le han dado a Google para mucho. Desde desarrollar, o más bien publicar, el nuevo protocolo de transferencia de hipertexto para hacer que internet sea más rápida a acabar con el contenido mixto. Para el primero, HTTP/3, la compañía de Mountain View ha redefinido HTTP para que no sea necesario recurrir a TCP sino apostar por UDP. Este cambio permite solventar los problemas de HTTP/2 sin renunciar a la seguridad y mejorando la velocidad.

En cuanto al contenido mixto, todo comenzó con la obligación de instalar un certificado SSL en todos los sitios web, especialmente si solicitaban información al usuario. Este cambio provocó que algunos elementos de la web, especialmente imágenes, vídeos, hojas de estilo o scripts continuarán cargándose a través de una conexión HTTP; lo que se denomina contenido mixto. El plan de Google a partir de 2019 consiste, básicamente, en forzar todo el contenido de una web a HTTPS mediante una nueva funcionalidad de Chrome que no afectaría a la experiencia de navegación.

Nuestra década

Este 2019 Linube ha cumplido sus primeros diez años de vida. Una década que refleja la confianza que nuestros clientes depositan en nosotros y que nos anima a mejorar día a día. Así, en este último año, además de lanzar diferentes servicios relacionados con el backup como Nextcloud, Cloud Backup o planes de contingencia DRS, hemos desarrollado mejoras para nuestros clientes.

Desde un panel de monitorización al detalle que encontrarás en el área de cliente y que te permitirá conocer el consumo de recursos de tu servidor cloud; además del estado de cada uno de los servicios instalados. Conscientes de la importancia de una web o tienda online optimizada, también hemos creado un servicio de WPO para ayudar a que los proyectos de nuestros clientes vuelen. Con la misma intención de echar una mano, hemos lanzado el servicio de administración de servidores AWS; para que quien cuente con un servicio en la nube de Amazon no tenga que preocuparse.

Por todo ello, el nivel de seguridad con el que cuenta nuestra plataforma cloud y las buenas prácticas que seguimos para garantizar la seguridad de la información, obtuvimos la certificación ISO 27001. La norma que permite la seguridad, confidencialidad e integridad de los datos y la información.

Para 2020 prometemos ser igual de seguros o más y seguir ofreciéndote siempre lo mejor.

¿Qué ocurre con las webs abandonadas?

Publicado enGeneral en diciembre 11, 2019 10:00 am

Con el final del año siempre llega el momento de recordar todo lo ocurrido en los meses anteriores. Que si viajes, que si recuerdos, que si la canción del verano… pero, ¿alguien se acuerda de las webs abandonadas?

Una red muerta

En internet se generan miles de millones de datos por segundo: ese email que acabas de enviar, cada una de las búsquedas que realizas en Google, la foto del atardecer que subiste a Instagram… Según Internet Live Stats, de los casi dos mil millones de páginas web que se encuentran en internet, apenas unos 200 millones están activas; es decir, en todo internet hay más de mil millones de webs abandonadas. Una cifra que da qué pensar si tenemos en cuenta que en 1991 la cifra de sitios web inactivos se reducía a 1.

‘Si no estás en internet no existes’ es el mantra de cualquier empresa en estos días que corren. Una frase que, por otra parte, no deja de ser una realidad ya que tener presencia online es fundamental para llegar a cualquier parte del mundo, pero también puede ser contraproducente en el caso de las webs abandonadas. ¿De qué sirve contar con un sitio web si la información no se actualiza? ¿Para qué quieres seguir manteniendo tu web si el negocio no existe?

¿Mantener las webs abandonadas?

Aunque abandonar una web pueda parecer algo inocente producto de una mala situación corporativa, lo cierto es que puede ocasionar problemas de seguridad. Hay quienes buscar dominios caducados para registrarlos con fines maliciosos, los conocidos como cybersquatters, y también hay quien tratará de buscar agujeros de seguridad que explotar. Las webs abandonadas tienen todos sus componentes desfasados, desde el diseño hasta el código de la aplicación; además de que, en función del tiempo que lleve sin actualizarse es posible que no cumpla con las normativas vigentes como la GDPR o la PSD2. Lo que además de cuestiones de seguridad ocasionaría problemas legales.

La falta de actualización y la caducidad de algunos servicios, como el certificado de seguridad SSL, pueden aumentar la vulnerabilidad de un sitio web. De esta forma, las webs abandonadas acabaran por exponer la información de los usuarios como consecuencia de la desactualización.

Más allá de las cuestiones de seguridad, es especialmente preocupante el abandono de las webs corporativas. Un sitio web corporativo es el mejor escaparate de una empresa, uno que tiene un alcance mundial y que, de descuidarlo, puede arruinar la imagen de la compañía. Así algunas veces es mejor no estar en internet que estar en condiciones inadecuadas. Tanto si acaba sufriendo una brecha de seguridad, como si luce un diseño muy desfasado que ya no se corresponde con la imagen o los valores de la empresa, las webs abandonadas acaban siendo el peor enemigo de una compañía.

La huella del abandono

Además de los asuntos legales y todo lo relativo a la seguridad, las webs abandonadas siguen consumiendo energía. Bueno, las páginas web y todos los servicios que aún siguen activos pese a que tú ya no los uses. Por ejemplo, aquella cuenta de correo que creaste en tu adolescencia y que nunca te has molestado en eliminar. Tu perfil en una determinada red social que, a pesar de que hace años que no inicias sesión, sigue estando accesible a quien quiera visitarlo.

Un informe de Greenpeace estima que el tráfico de datos en internet consume un 7% de la electricidad mundial; lo que supondría un 2% de las emisiones globales de CO2. Teniendo en cuenta que más de la mitad de los sitios web que están en internet son webs abandonadas, no sería tan difícil reducir ese consumo. Si bien no pueden compararse las emisiones causadas por el tráfico de coches con las del tráfico digital, todo suma.

Una ayuda para la COP25

Coincidiendo con la celebración de la Cumbre Mundial del Clima COP25, cerrar todos los servicios que no utilizamos o las webs abandonadas puede ser un buen movimiento para ayudar al planeta. Pese a abogar por el Green computing, no es tan fácil prescindir de algo fundamental para garantizar el correcto funcionamiento de todo tipo de sistemas.

Los miles de millones de datos generados al día deben almacenarse en potentes infraestructuras. Pese a que los Centros de Datos cada vez sean más eficientes en términos ecológicos, no es fácil cambiar el funcionamiento de toda la infraestructura, si bien en este sentido ha sido esencial la evolución del hosting al permitir almacenar más información en un menor espacio; y, por lo tanto, reducir de forma significativa el consumo eléctrico. Asimismo, tampoco resulta sencillo prescindir de determinados servicios. Y es que internet se ha convertido en el sistema central sobre el que gira nuestra sociedad, desde la economía a las comunicaciones pasando por las actividades más rutinarias de nuestro día a día.

Si quieres, puedes consultar cuántos kilos de CO2 se están enviando a la atmosfera mientras tú navegas por internet en CO2GLE. Por el momento las grandes compañías como Google, Facebook y Apple ya han comenzado a construir una red renovable a la que, poco a poco, van sumándose otras empresas.

Éxito tardío de las webs abandonadas

Al igual que sucede con otros fenómenos, algunas webs abandonadas han alcanzado la gloria cuando ya estaban en el olvido de su creador. Sin ninguna actividad desde hace años, pero bien posicionadas en Google, son muchas las páginas inactivas que continúan alimentándose de los comentarios de los usuarios. La magia del algoritmo de Google puede llevarnos a descubrir sitios web inactivos que contienen la respuesta a todas nuestras preguntas.

Si el abandonware supone una segunda oportunidad para el software obsoleto, las webs abandonadas también pueden seguir vivas pese a que quien las creó ya no las considere importantes. Pero, hablando de importancia, la prioridad siempre debe ser cuidar del planeta a lo que puedes contribuir, además de reutilizando y reciclando, precisamente por su estado de inactividad, comenzar por borrar las webs abandonadas puede ser una buena forma de empezar.

¿Cómo ha sido la evolución del hosting en solo unas décadas?

Publicado enGeneral en diciembre 4, 2019 10:00 am

¿Alguna vez te has parado a pensar el gran cambio que ha experimentado el sector del hosting en tan poco tiempo? Al igual que internet y otro tipo de servicios que parece que siempre han estado ahí, los servidores web apenas tienen unas cuantas décadas de vida. Y como en cualquier otro producto o servicio tecnológico en su corta vida la evolución del hosting ha experimentado un cambio brutal.

Para entender la evolución del alojamiento web hay que considerar tres aspectos clave: el aumento de la información que se genera diariamente, la mejora de la capacidad de almacenamiento y el nivel de procesamiento de la información.

Creando datos continuamente

En un solo minuto somos capaces de generar millones de datos, información que tiene que almacenarse en algún lado; generalmente en los servidores de las aplicaciones desde las que generamos esos nuevos datos (WhatsApp, Facebook, Twitter…). Unas cifras que cada año van en aumento y que son uno de los principales factores que impulsan la mejora de los servidores; tanto en términos de procesamiento de la información como de su almacenamiento. A mayor cantidad de información se requiere de mejores técnicas de procesamiento de los datos y de capacidad para almacenarlos. Conceptos muy ligados con la evolución del hosting.

Pero no toda la información que se genera proviene de redes sociales o aplicaciones web. Al crear un nuevo sitio web, una tienda online o publicar un nuevo artículo en nuestro blog también estamos creando datos. Información que se almacenará, en este caso, en el servidor contratado en algún proveedor de alojamiento web.

Más datos en menos espacio

De aquellos primeros ordenadores que medían metros, pesaban toneladas y requerían de días para ser trasladados, afortunadamente hemos pasado a potentes dispositivos que caben en la palma de la mano. Y es que, si tuviéramos que continuar almacenando información en aquellos primeros servidores web, no habría suficientes edificios para almacenar tanto ‘hierro’. Además de que el coste, tanto para el proveedor como para el usuario, sería muchísimo mayor.

Las primeras máquinas tenían unos cuantos megas de capacidad. Por lo que para almacenar grandes proyectos sería necesaria una enorme infraestructura. Edificios de grandes dimensiones en los que instalar, aproximadamente, un servidor por sala y donde incluso pequeños proyectos podrían requerir de más de un servidor. Actualmente, gracias a la innovación tecnológica que ha propiciado la evolución del hosting, es posible almacenar varios proyectos en un mismo servidor. Incluso podemos crear varios servidores dentro de la misma máquina. Y así, instalar cientos de servidores en una misma sala gracias a las técnicas de virtualización; sin tener que renunciar a la potencia o el rendimiento de los servidores.

Esta reducción de las dimensiones de los servidores y el crecimiento constante de su capacidad de almacenamiento ha facilitado el acceso a un servidor a cualquier persona. Ya que no es necesaria una gran inversión económica para contratar los recursos necesarios para iniciar cualquier tipo de proyecto, además de reducir el impacto ecológico. Al reducirse el tamaño de la máquina, se consume menor cantidad de electricidad para garantizar el funcionamiento de los servidores y para la climatización de la sala en la que se encuentran.

Garantizar el correcto funcionamiento

Para que toda esa nueva información se gestione de forma más eficiente, es necesario perfeccionar los sistemas. Haciendo que, por ejemplo, un servidor sea capaz de gestionar grandes cantidades de datos sin que repercuta en su funcionamiento. Por ejemplo, de esta forma se ha conseguido evitar que los picos de consumo de una máquina puedan dejar sin suministro eléctrico a toda una ciudad. Algo que ocurría en Filadelfia cuando el ENIAC, una de las primeras computadoras, entraba en funcionamiento.

Aunque, como todo, los servidores no son perfectos y pueden producirse fallos de hardware o software que puedan afectar al rendimiento o funcionamiento, actualmente cualquier tipo de problema puede solucionarse en apenas unos minutos. Por ejemplo, si en nuestras plataformas cloud se produjera una caída, automáticamente se levantaría otro nodo que devolvería la operatividad al servidor. Esto no hubiera sido posible sin la mejora en el procesamiento de datos y si no hubiera surgido la tecnología cloud. Si el alojamiento web aún dependiera de servidores físicos, las paradas del servidor serían más prolongadas al requerir de la intervención de un técnico para restaurar el servicio.

Del físico al cloud

Sin tener que remontarnos a los años 50 del siglo pasado, únicamente viajando hasta 2009 también podemos ver la evolución del hosting. Básicamente hablamos del paso de servidores físicos, totalmente dependientes de hardware, a servidores cloud que tienen la capacidad de abstraerse de la máquina para proporcionar un servicio que siempre está disponible.

En estos 10 años que Linube lleva ofreciendo todo tipo de servicios web hemos visto cómo cada vez la tecnología cloud cuenta con más adeptos. Una tecnología que echó a andar en 2007 pero que ha ido consolidándose con el paso de los años hasta convertirse en la mejor forma de crear una infraestructura a partir de servidores virtuales. Aunque en un primer momento hubo quienes se mostraron reacios a la tecnología cloud, acabaron rendidos a las ventajas de la nube. Y cada vez son más quienes se unen al fog computing, la versión más cercana de la nube.

Este cambio de actitud se debió principalmente a su precio, su capacidad de escalar los recursos, alta disponibilidad y redundancia, además de otorgar al usuario un control total del alojamiento. Factores que han propiciado que tanto pequeñas empresas como grandes compañías apuesten por la nube como infraestructura para sus proyectos.

Nuestra evolución del hosting

Desde que naciéramos un 8 de mayo de 2009, hemos ido adaptando nuestra oferta de servicios a las tendencias del mundo del hosting para ofrecer a nuestros clientes siempre lo mejor. Una oferta que en todos estos años ha ido desde sencillos planes de hosting a la creación de plataformas cloud en alta disponibilidad, pasando por servidores dedicados y VPS. Para acabar centrándonos en todo tipo de soluciones en la nube: Cloud Backup, Nextcloud, Planes de contingencia (DRS), además de administración de sistemas alojados en nuestra plataforma y también de servidores en otras plataformas como la nube de Amazon.

Trabajamos día a día por facilitarles las cosas a nuestros clientes. Desde hacer más fácil el reinicio o apagado de servidores o la gestión de la zona DNS de un dominio a incluir gráficas de monitorización de nuestros servidores administrados. Además de lanzar nuevos servicios como la Optimización de sitios web (WPO).