944 063 154

Blog

Categoría: General

¿Cuáles son los errores HTTP 4XX más asiduos?

Publicado enGeneral en noviembre 5, 2018 9:00 am

Cuando navegamos por internet, se envían constantemente códigos de estado HTTP. Y, a veces, recibimos todo tipo de errores HTTP. Desde errores 3xx que suelen pasar desapercibidos por el usuario a errores 4xx basados en peticiones incorrectas del lado del cliente hasta errores 5xx relacionados con fallos provenientes del servidor.

Los errores 4xx suelen darse cuando la página que se está intentando cargar no existe o tiene el acceso bloqueado. Existen muchos tipos de errores HTTP, pero en este artículo vamos a centrarnos en los errores 4xx o errores del cliente más habituales.

Error 400 Bad Request

Básicamente, la petición HTTP no se ha producido satisfactoriamente y la petición no puede procesarse. Un error 400 Solicitud Incorrecta puede deberse a diversos factores:

  • Al igual que un error 404, la URL no tiene un formato válido; esto es, la solicitud tiene una sintaxis incorrecta.
  • Registros DNS obsoletos.
  • Existen servidores web que limitan la longitud de los encabezados. Por lo que pueden rechazarse encabezados demasiado largos.
  • El servidor puede denegar la carga de archivos muy pesados.
  • Las cookies del navegador contienen errores.

Si usamos un servidor IIS 7.0, IIS 7.5 o IIS 8.0 podremos extraer algunos datos del código de estado.

  • 400.1: destination header inválido.
  • 400.2: depth header inválido.
  • 400.3: if header inválido.
  • 400.4: overwrite header inválido.
  • 400.5: translate header inválido.
  • 400.6: request body inválido.
  • 400.7: longitud del contenido inválida.
  • 400.8: timeout inválido.
  • 400.9: lock token inválido.

Aunque suele producirse en el navegador, el error 400 no está exento de producirse fuera del. Por ejemplo, un cliente de correo electrónico, puede recibir este código de estado al comunicarse con el servidor.

Error 401 Authorization Required

El error 401 Se Requiere Autorización se produce, tal y como el nombre indica, porque se requiere autorización para acceder a un recurso o una URL. Puede resultar similar al error 404, pero en este caso es posible acceder a la misma mediante una solicitud de usuario y contraseña.

Cada servidor suele administrar la autentificación de usuarios de modo independiente, por lo que puede producirse un error 401 al no poder validar algunas credenciales. Este error también puede deberse a diversas causas como: no tenemos las credenciales de acceso, las claves son incorrectas o porque hayamos sido bloqueados.

Error 403 Forbidden

Un error 403 Prohibido significa que no se ha obtenido permiso para acceder a la URL de destino. Como usuarios, nos solemos encontrar con el error 403 cuando estamos tratando de acceder a una dirección web que tiene prohibido el acceso. El mensaje suele ser así: Acceso denegado. No tiene permiso para acceder.

También existe la posibilidad de que el culpable de dicho error sea el servidor; o incluso que en nuestro equipo haya un malware que controle el navegador o las credenciales de acceso. De todas formas, las estadísticas demuestran que deberías descartar todas estas opciones en un principio.

Error 404 Not Found

El error 404 No Encontrado es el error HTTP 4xx más habitual de todos. Se trata de un código de respuesta estándar que indica que se ha podido establecer la conexión con el servidor pero no se ha podido encontrar el elemento solicitado. En resumidas cuentas: no podemos acceder a la página web porque ya no existe.

Es un error común en páginas web que han sufrido cambios o en gestores de contenido como WordPress. Es más, es posible configurar una landing de aterrizaje para cuando se produzcan errores 404 en la web.

Error 406 Not Acceptable

El error 406 No Aceptable ocurre cuando el cliente solicita una respuesta utilizando encabezados que el servidor no puede cumplir. Es decir, el servidor no puede responder con el encabezado accept especificado en la solicitud. Esto ocurre en contadas ocasiones ya que casi todos los navegadores web aceptan directrices */* en el encabezado accept.

Existen diferentes encabezados de aceptación:

  • Accept: tipos MIME aceptados por el cliente, por ejemplo, archivos HTML.
  • Accept-Charset: conjunto de caracteres aceptados por el cliente.
  • Accept-Encoding: codificación de los datos aceptada por el cliente.
  • Accept Language: los lenguajes naturales aceptados por el cliente.
  • Accept-Ranges: los rangos de bytes que se aceptan desde el recurso.

Por lo tanto, si el servidor web detecta que el cliente no puede aceptar los datos que quiere enviar, devolverá un código de error 406 No Aceptable.

Pero también puede suceder lo contrario. El servidor no conoce la extensión de la solicitud y trata de buscar una aplicación instalada en el para servir el archivo. En el caso de que no exista ninguna otra aplicación que sea capaz de servir el archivo, devolverá un error 406. Incluso existe la posibilidad de devolver un 406 si el servidor no está seguro sobre el tipo de MIME del archivo solicitado. Lo cual está bien ya que puede evitar pérdidas de información confidencial guardada en archivos como .pass o .ini.

Este error suele ser difícil de detectar y también determinar su causa debido a que existen más de 50 códigos de estado. De todas formas, resulta extremadamente inusual.

Error 410 Gone

Un error 410 Ya No Disponible notifica que la URL a la que estamos intentando acceder no existe. La diferencia principal entre el error 410 y el 404 es que la cabecera dice a los bots que la URL no existe y que no existirá jamás, por lo que no hace falta que ningún bot vuelva a rastrearla.

Normalmente, este tipo de error HTTP suele ser causada de forma intencionada para evitar el rastreo de esa URL. Y, si no, también existe la posibilidad de crear redirecciones 301 desde el fichero .htaccess.

Y hasta aquí llega el artículo sobre errores 4xx. Si quieres mantenerte informado sobre todo lo relacionado con los dominios, hosting web y programación, puedes consultar nuestro blog .

 

Qué es un servicio de Housing y cuándo contratarlo

Publicado enGeneral en octubre 29, 2018 9:30 am

El Housing o Co-Location es el alquiler de un espacio físico en un Centro de Datos que suele ser propiedad del proveedor y se trata de un entorno totalmente adaptado. El proveedor de housing renta sus instalaciones para que los clientes puedan implantar sus propios servidores en un lugar optimizado en cuanto a refrigeración y conectividad. Asimismo, proporciona potencia eléctrica y seguridad total a dichos servidores.

¿Por qué contratar un servicio de housing?

Existen múltiples razones para alquilar un espacio en un Centro de Datos, como la garantía de un funcionamiento correcto e ininterrumpido en unas instalaciones especializadas, o el ahorro de gasto derivado del mantenimiento.

Otra de las razones principales para transportar los servidores a este tipo de instalaciones es la necesidad de un lugar seguro. Suele ser un servicio bastante demandado por empresas; por razones de seguridad o porque no se reúnen las condiciones adecuadas para el alojamiento. Un proveedor de hosting no puede arriesgarse a tener sus servidores inoperativos o con riesgo de pérdida de información debido a múltiples causas.

El cliente tipo de este tipo de servicios suele ser una empresa grande que cuenta con recursos tecnológicos potentes y requiere de un entorno de máxima seguridad. El objetivo del Data Center es minimizar riesgos eléctricos, de climatización y pérdida de información.

¿Cuál es la diferencia entre hosting y housing?

Cuando hablamos de hosting o alojamiento web nos referimos al alquiler de un servidor en el que se almacena la información de nuestro site. Es decir, un plan de hosting nos permite ser visibles en internet. Al contratar un servidor compartido o dedicado, tenemos acceso al mismo, pero la máquina física es propiedad del proveedor. En cambio, el housing o co-location, es el alquiler de un espacio físico en un Data Center que asegura conectividad ininterrumpida y disponibilidad total. Se alquila un determinado espacio, no un servidor.

Ventajas e inconvenientes

Entre las ventajas del housing destacan:

  • Reducción de gastos. El ahorro de costes a largo plazo resulta remarcable, más aún cuando se trata de un alto volumen de servidores.
  • Alta seguridad. Protección de datos personales, antirrobo y anti-incendios.
  • Posibilidad de reventa. Podemos revender servicios de alojamiento web a terceros.
  • Más espacio. Contar con un emplazamiento de altas prestaciones mayor y más seguro.
  • Recursos ilimitados. No hay ningún inconveniente si queremos trabajar en varios proyectos simultáneamente.
  • Escalabilidad total. Ya sea para servicios de paquetes de transferencia o contratar una monitorización siempre es posible aumentar los recursos.
  • Climatización. Refrigeración y ventilación de calidad.

Pero no todo son ventajas, la contratación de este servicio también tiene aspectos negativos:

  • Inversión elevada. La compra o el alquiler de un servidor no está al alcance de cualquiera.
  • Requerimiento de personal. La configuración y la administración corre a cargo del cliente, por lo que deberá contar con personal cualificado.
  • Mantenimiento continuo. Licencias, software… todo es responsabilidad del cliente. También las actualizaciones de hardware y posibles averías.
  • Posibles desplazamientos. En caso de que hubiese averías resultaría necesario acercarse al Data Center para subsanar dichos errores.

Según sus características, el housing puede ofrecer altos ingresos a aquellas compañías que puedan costear el mantenimiento del servicio. Por lo que este servicio de housing puede resultar adecuado para empresas grandes (o medianas) e incluso para multinacionales, pero no resulta apto para proyectos de pequeña envergadura.

Google dice adiós a su red social: Google+ cerrará en 2019

Publicado enGeneral en octubre 24, 2018 10:00 am

Hace unos días Google anunciaba mejoras en la protección de datos de sus usuarios; de manera que las aplicaciones de terceros que utilicen las APIs de la compañía, solo puedan tener acceso a la información necesaria. Hasta el momento, no ha sido nada extraño el hecho de que determinadas aplicaciones solicitasen al usuario el acceso a funcionalidades que nada tenían que ver con la app en cuestión. Y ahora, Google quiere mejorar en esto; y de paso tapar un problema igual de grave: la exposición de miles de datos de los usuarios de Google+.

A principios de año, Google apostaba por Project Strobe, una auditoría interna con la que evaluar desde cero el funcionamiento de sus diferentes aplicaciones y poder mejorar la privacidad y la seguridad de sus servicios. Auditoría de la que salió un desagradable descubrimiento: un fallo de seguridad en la API de Google+. Como consecuencia de dicha auditoría, Google ha lanzado 4 medidas para paliar el problema y prevenir futuras brechas de seguridad.

1. El cierre de Google+

Muchos ni siquiera habíamos notado que Google+ seguía existiendo, pero ahí sigue. Y seguirá hasta agosto del próximo 2019, fecha máxima establecida por la compañía para su cierre. Pero la red social de Google no cierra por su escasísima adopción, sino por la exposición de los datos de más de 500.000 usuarios entre 2015 y 2018.

Un bug que fue corregido en marzo de este mismo año y que ha estado silenciado hasta ahora; algo que hubiera sido ilegal de haber sucedido solo unos meses después. El nuevo reglamento de Protección de Datos (RGPD) obliga a advertir al usuario en un plazo inferior a 72 horas después de su descubrimiento de que sus datos han sido comprometidos.

Este error en la API de Google+ permitiría el acceso a terceros no solo a datos del perfil no públicos del usuario, sino también a los de sus amigos. A pesar de ello, Google dice no haber evidencia de que dicha información se haya utilizado de forma incorrecta y que en ningún caso se trata de datos sensibles; como mensajes o cuentas bancarias.

Así que, aprovechando una filtración del bug de seguridad de Google+ por parte del Wall Street Journal, y con la excusa de mejorar la gestión de permisos, la compañía ha anunciado el cierre de su red social. Una muerte anunciada ya que, según Google, el 90% de las sesiones duraban menos de 5 segundos; por lo que mantenerla se hacía insostenible. Hasta la llegada del cierre definitivo, Google facilitará herramientas de migración a los usuarios con las que exportar los datos almacenados en el perfil de Google+. En el caso de los perfiles de empresa la situación será diferente: se mantendrán algunas funcionalidades y se añadirán otras; dando lugar a un producto corporativo totalmente distinto.

2. Gestión de permisos a las aplicaciones

Como segunda medida, Google proporcionará herramientas granulares para ofrecer permisos a aplicaciones de terceros. Con ello se pretende que las aplicaciones no puedan tener acceso total a la información del usuario cuando únicamente necesitan una parte especifica. De esta forma se evitará que, por ejemplo, una aplicación de linterna pueda tener acceso a la agenda de contactos; una funcionalidad que nada tiene que ver con el propósito de la app.

Además, los permisos requerirán de permiso explícito. Es decir, las aplicaciones tendrán que mostrar una página para cada uno de los permisos que quieran solicitar y que el usuario tendrá que aceptar o denegar. Así, en lugar de ver todos los permisos que se solicitan en una misma pantalla, se hará de forma independiente y deberá ser posible aceptar unos y denegar otros.

3. Acceso a Gmail limitado

Con estas medidas, la política de acceso a la API de Gmail también sufrirá modificaciones. Con lo que únicamente las aplicaciones relacionadas con las funcionalidades de Gmail podrán tener acceso a los datos del usuario. Por ejemplo, los gestores de correo, las aplicaciones para almacenamiento en la nube o apps para mejorar la productividad. Nuevas normas que tendrán que ser aceptadas por las aplicaciones antes de solicitar permiso alguno al usuario.

Si quieres revisar qué aplicaciones tienen acceso a tus datos en cuentas de Google, entre las que se incluye Gmail, puedes hacerlo con la herramienta para revisar la seguridad. Además de permitir revisar tu actividad reciente en relación a la seguridad de tus cuentas; te permite mejorar la protección.

4. Limitar el acceso a llamadas, contactos y SMS

Algunas aplicaciones, especialmente en el caso de Android, solicitan permiso para acceder al teléfono del usuario; incluyendo su registro de llamadas y los mensajes de texto. Un acceso que solo debería tener la aplicación asignada para realizar llamar o enviar y recibir SMS; con la excepción de las herramientas para la realización de copias de seguridad y el contestador.

Es evidente que Google ha vendido un fallo de seguridad como una mejora para la gestión de permisos a terceros. Además, en los próximos meses anunciarán nuevas medidas y limitaciones para que el usuario sepa qué permisos otorga y a qué aplicaciones. Lo que no exime a Google de una falta de transparencia con sus usuarios; posiblemente motivada por escándalos similares que se produjeron prácticamente al mismo tiempo, como el caso Cambridge Analytics. Y es precisamente esto, la falta de transparencia de algunas compañías con sus usuarios, una de las cosas que se pretenden corregir con la RGPD.

Si quieres evitar problemas de este tipo, te recomendamos pasarte al webmail privado; de forma que nadie tenga acceso a tus correos. Y, sobre todo, controla qué accesos permites a tus equipos para evitar que tus datos puedan verse comprometidos.

Consultas SQL que más se ejecutan y el CPU que consumen

Publicado enGeneral en octubre 19, 2018 10:15 am
En las tareas de administración de SQL Server, es necesario recabar información; especialmente a fin de conocer las sentencias que más hacen trabajar al servidor. Por ello, es de gran utilidad conocer cuáles son las consultas SQL que más se ejecutan y cual es su consumo de CPU. SQL Server es un sistema que ayuda a la gestión de las bases de datos. Un producto de Microsoft que está basado en el modelo relacional, pero que además, se utiliza para el rendimiento de instancias en el motor de la base de datos. Esto es, depurar procedimientos o llevar a cabo pruebas de esfuerzo.
Lo habitual es que, entre las consultas más ejecutadas en SQL Server, se encuentren consultas de selección o básicas. Pero también pueden darse cualquiera de los otros tipos de consultas, como consultas de descripción, con predicado o de acción.

Las consultas SQL más ejecutadas

Para conocer cuáles son las consultas que con mayor frecuencia se realizan en SQL Server basta con un script. Estas líneas de texto mostrarán, entre otras cosas, el top ten de las consultas que más veces se repiten. Es posible que, en muchos casos, aparezcan repetidas. Para evitar las duplicidades en las consultas, puedes utilizar servicios de caché. De esta forma, se mostrarán las consultas más ejecutadas sin repeticiones.


SELECT TOP 10
qs.execution_count,
SUBSTRING(qt.text,qs.statement_start_offset/2,
(case when qs.statement_end_offset = -1
then len(convert(nvarchar(max), qt.text)) * 2
else qs.statement_end_offset end -qs.statement_start_offset)/2)
as query_text,
qt.dbid, dbname=db_name(qt.dbid),
qt.objectid
FROM sys.dm_exec_query_stats qs
cross apply sys.dm_exec_sql_text(qs.sql_handle) as qt
ORDER BY
qs.execution_count DESC

En ocasiones, es posible que nuestro SQL Server tenga un gran consumo de CPU. Una buena forma de saber de dónde viene ese consumo excesivo de CPU es realizar consultas. De esta forma podremos saber cuáles son las que más sobrecargan, de media, nuestro servidor. Este consumo elevado de CPU en el servidor puede deberse a diferentes motivos; desde fallos en la memoria del servidor a espacio insuficiente. También es posible que esto se deba a la presencia de algún elemento malicioso que ejecuta demasiada actividad aunque no sea visible.

En cualquier caso, el consumo de CPU es un aspecto que no debe descuidarse en un servidor. Ya que esto podría afectar al rendimiento del servidor y provocar problemas de operatividad.

Consultas SQL con mayor consumo de CPU

Para conocer dónde se encuentra el problema, podemos recurrir a un script. De esta forma podremos saber cuáles son las consultas con un consumo más elevado de CPU. Unas consultas que pueden estar sobrecargando la CPU de nuestro servidor.

SELECT TOP 10
qs.total_worker_time/qs.execution_count as [Avg CPU Time],
SUBSTRING(qt.text,qs.statement_start_offset/2,
(case when qs.statement_end_offset = -1
then len(convert(nvarchar(max), qt.text)) * 2
else qs.statement_end_offset end -qs.statement_start_offset)/2)
as query_text,
qt.dbid, dbname=db_name(qt.dbid),
qt.objectid
FROM sys.dm_exec_query_stats qs
cross apply sys.dm_exec_sql_text(qs.sql_handle) as qt
ORDER BY
[Avg CPU Time] DESC

Para mejorar aún más el rendimiento de tu servidor, puedes consultar cuáles son las consultas SQL Server que más se ejecutan para optimizar el alojamiento. Un cambio que se reflejará en el comportamiento de los sitios web que en él se encuentren.

Si además de informarte sobre consultas SQL quieres saber de recuperaciones en SQL Server, en nuestro blog encontrarás la información necesaria.

Paquita Salas: cuando se te atraviesan el spam y el ‘domain’

Publicado enGeneral en septiembre 19, 2018 10:00 am

Si en los últimos meses te has pasado por las redes sociales, o incluso si no lo has hecho, es muy probable que hayas oído hablar de ella. Bueno, de ella y de sus problemillas con la informática. Porque, sí, Paquita Salas no ha sabido entenderse con su bandeja de correo y también ha tenido problemas con su dominio. Pero es que Paquita Salas somos, un poco, todos. Los problemas informáticos de Paquita son también habituales en el día a día de cualquier usuario de internet. ¿Quieres evitar ser la nueva Paquita de la informática?

Paquita Salas y el spam

Aunque no te lo creas muchos no saben qué es eso del spam o correo basura. Y muchos de los que saben de qué se trata, no saben dónde se encuentra esta bandeja. Otros simplemente han oído hablar de ello y la pobre Paquita Salas, ni eso.

El spam no es más que esos correos electrónicos que, generalmente, no queremos recibir. Esos mails publicitarios a los que nos suscribimos casi sin darnos cuenta por contratar o utilizar algún servicio; una práctica que ya no debería hacerse, al menos no sin autorización, con el nuevo RGPD. También se consideran correos basura a aquellos que provienen de un remitente desconocido o cuando se envían emails de forma masiva.

Para molestar al usuario lo menos posible, es habitual que los clientes de correo realicen un filtrado de los emails que llegan a tu buzón; normalmente, en función a unas determinadas reglas o si otros usuarios ya han marcado como spam notificaciones que provienen del mismo remitente. De esta forma, aplicaciones como Gmail pueden proporcionar una mejor experiencia a sus usuarios a través de filtros antispam.

Pero las bandejas de spam suelen tener un período de caducidad. Es decir, que, si no consultas con cierta frecuencia los emails que tu cliente de correo envía a la carpeta de spam, es probable que los acabes perdiendo. O puede ser que te enteres demasiado tarde de algo importante, como le pasó a Paquita Salas.

Si Paquita hubiera sabido qué era el spam y cómo consultarlo, no se hubiera enterado tan tarde del cambio de horario. Ese email que nunca llegó, porque Paquita no tenía una cuenta spam, o eso creían ella y Magüi. Pero, bueno, que lo mismo le pasó unos años antes con el fax; y eso nada tenía que ver con notificaciones no deseadas.

Cuando te quedas sin ‘domain’

Si el spam fue el protagonista tecnológico de la primera temporada de la serie, en la segunda reinó el dominio. Como ya hemos contado en otras ocasiones, los dominios no son tan diferentes a los humanos, al menos en lo que a su ciclo de vida se refiere.

Paquita pensó que su ‘domain’ era de esas cosas que solo tienes que hacer una vez en la vida, pero no. Que registras el dominio una vez y dura para siempre sin tener que preocuparte por su renovación. Pero, cuando decidió utilizar su abandonada web para promocionar sus eventos y servicios, se llevó una desagradable sorpresa. Y es que Ps Management era un dominio que ya no le pertenecía. Ahora su dominio le pertenece a alguien que, además de haber estado hábil para registrarlo, a buen seguro no tendrá ni idea de español. Y, claro, la pobre Paquita ha tenido que cambiar su web de representación de artistas, ahora puedes encontrar su sitio web en Ps Management.

Desgraciadamente esta es una práctica muy habitual que ha hecho todo un negocio del registro de dominios. Hay quienes se dedican a registrar dominios al precio habitual para revenderlos después por un coste muy superior. Un chantaje al que muchos ceden porque cualquier proyecto gira entorno a una web y un dominio.

No seas Paquita

Para evitar hacerte un Paquita Salas, en Linube contamos con un servicio de renovación automática de los dominios. De esta forma, puedes estar tranquilo, que tu dominio no caducará hasta que tú decidas que no quieres renovarlo más. Además, te notificaremos por email que tu dominio está a punto de caducar; así que por si acaso atento a tu spam.

Y, como consejo, si estás pensando en iniciar cualquier proyecto, mira si el dominio está disponible. Si lo está, lo esperes más para registrar el dominio. Así, el día que todos conozcan tu proyecto, podrán buscar información en tu sitio web; y no en uno que no lleve el mismo nombre.

Es evidente que Paquita Salas nos ha enseñado mucho. El personaje creado por ‘Los Javis’, nos ha llevado de vuelta al panorama artístico español de los 80; pero también nos está enseñando el uso de las redes sociales y algunos de los problemas más habituales en relación al mundo del hosting. De sus inconvenientes con la informática podemos aprender todos, así que pongámoslo en práctica, evita hacerte ‘un Paquita Salas’; pero disfruta de sus aventuras en Netflix.

¿Por qué, aunque estén relacionados, internet y el ciberespacio no son lo mismo?

Publicado enGeneral en agosto 16, 2018 10:00 am

Un día de julio de 1984 se utilizó por primera vez el término ciberespacio. Un concepto muy relacionado con internet y que muchos utilizan como si fuesen sinónimos. Es cierto que uno no puede entenderse sin el otro; pero por muy relacionados que estén, no pueden utilizarse de forma análoga.

El origen del prefijo ciber

La gran mayoría de las palabras que usamos para referirnos a cosas de internet, o que suceden en la red, empiezan con el prefijo ciber. Prueba de ello son algunas de las palabras que empleamos prácticamente todos los días; como ciberseguridad o ciberataque. Y, como la mayoría de los términos del lenguaje español, tienen su origen en el griego, y posteriormente en el latín.

Del griego original cuyo significado estaba relacionado con la habilidad para pilotar barcos; en los años 40 empezó a relacionarse con la comunicación. Concretamente Norbert Wiener acuñó el término cibernética para referirse a la ciencia que estudia las similitudes entre los sistemas de control y las formas de comunicarse de los seres vivos y las máquinas. Pero, para relacionarlo con internet, habrían de pasar otros cuarenta años.

El ciberespacio del ciberpunk

En 1984 aparece por vez primera la palabra ciberespacio en una novela de William Gibson: Neuromante. Una obra ciberpunk protagonizada por un héroe que quiere volver al mundo online del que fue expulsado. Aquí, el ciberespacio supone un espacio virtual creado por las redes informáticas. Algo que no es físico, sino un concepto utilizado para ubicar las cosas que se llevan a cabo en entidades intangibles. Y es aquí donde se produce la primera relación entre ciberespacio e internet.

Si internet es un conjunto descentralizado de redes de comunicación a través de protocolos; el ciberespacio es el lugar en el que se producen las comunicaciones de internet. Por ejemplo, cuando hablamos de hackeo, este ataque no se produce en un espacio físico determinado, se produce en el ciberespacio. Es decir, de la idea original de Gibson, hemos llegado a un híbrido entre lo real y lo virtual. Tomamos decisiones en un lugar indeterminado de internet y las consecuencias de nuestras acciones tienen influencia directa en la vida real.

Esto se debe a que el ciberespacio se construye mediante intercambios de información. Es un espacio en el que se produce la comunicación y también es el medio que posibilita el intercambio de comunicación. De ahí que haya quienes confundan ambos conceptos y consideren que internet y el ciberespacio son lo mismo.

Dentro de la red

De no haber existido internet, tampoco hubiera existido el ciberespacio; entendido como el lugar en el que situamos las cosas que suceden en la red. De no haber existido ninguno de los dos, tampoco hubiera sido posible crear un sistema social a partir de una base tecnológica; donde la evolución a nivel social está condicionada por las posibilidades técnicas. Por lo que, a medida que progrese la tecnología, será posible mejorar las relaciones sociales del ciberespacio.

Quién iba a pensar que algunas de las acciones cotidianas que antes únicamente podíamos realizar de forma física, ahora tienen lugar en el ciberespacio. Ya no es necesario desplazarse hasta un supermercado para hacer la compra, ni siquiera es necesario salir de casa. Comprar por internet utilizando un ordenador o un dispositivo móvil se ha convertido en toda una realidad gracias a internet y al ciberespacio.

Nuestro 9 aniversario, ¿cómo hemos llegado hasta aquí?

Publicado enGeneral en mayo 8, 2018 10:00 am

Han pasado ya 9 años desde que un 8 de mayo de 2009 viniéramos al mundo. Hasta hace unos meses bajo el nombre de Blackslot y, a partir de ahora, como Linube; nada mejor para celebrar nuestro noveno aniversario que actualizar nuestro nombre al igual que nuestro servicios.

Casi una década de vida que nos ha dado para mucho. Desde ampliar equipo y ofrecer más servicios, a participar en un gran número de proyectos o conocer nuevas tecnologías. Pero, sobre todo, a ser capaces de adaptarnos a los cambios. Si en el mundo físico pasan muchas cosas durante un año, en internet muchísimas más. Y, en estos casos, ya se sabe: renovarse o morir. Y resulta que nosotros somos más de lo primero, de ahí que celebremos nuestro noveno aniversario. Hemos ido abandonando gradualmente el color negro asociado a Blackslot para llegar al azul Linube. Un color que evoca a las nubes. A la nube; a Linube.

La calidad, nuestra prioridad

Durante todo este tiempo ha habido de todo. Desde quienes han seguido confiándonos el alojamiento y mantenimiento de su web a quienes han decidido iniciar su proyecto de nuestra mano. Por nuestra parte, siempre hemos tenido una cosa en mente: ofrecer a nuestros clientes el mejor servicio. Como consecuencia de ello, hemos ido incorporando nuevos servicios más allá del alojamiento web.

Por ejemplo, a diferencia de algunas empresas de hosting web, también ofrecemos un servicio de administración de sistemas. Nuestra experiencia nos ha demostrado lo difícil que puede llegar a ser la gestión de un servidor y siendo conscientes de que cualquiera no cuenta con los conocimientos técnicos necesarios para la gestión de un servidor, incorporamos a nuestro catálogo la administración de sistemas. Para que nuestros clientes puedan contar con la mayor seguridad y todos los componentes actualizados en su alojamiento.

Nuestro empeño por ofrecer siempre un servicio de la mejor calidad nos lleva a estar a la vanguardia tecnológica, especialmente en relación al software libre. Así, podemos implementar las últimas novedades en tecnología y las más altas medidas de seguridad de forma que la información de cada uno de nuestros clientes esté siempre a salvo. De ahí que en las últimas semanas hayamos habilitado el protocolo seguro HTTP/2 y de nuestra apuesta firme por el uso de HTTPS para el cifrado de las comunicaciones.

Somos más que tecnología

En estos más de 3.200 días hemos colaborado con diferentes asociaciones solidarias y otras tantas que apuestan por el deporte. Entre otras cosas, hemos aportado nuestro granito de arena en Tomando Conciencia. Un proyecto que sirve de altavoz a proyectos sociales que de otra forma pasarían desapercibidos para muchos de nosotros.

Hemos sido testigos de cómo pequeños proyectos, como La Cantabrona, se convertían en un referente de las marchas cicloturistas. Un evento que cada año congrega a mayor número de participantes y bate sus propios récords y en el que nosotros mismos hemos tomado parte en sus diferentes ediciones.

También de cómo el blog de Yo fui a EGB comenzó a ser un éxito de ventas y crearon su propio juego de mesa. Una nostalgia ochentera que acabó dando a sus egeberos el concierto de sus vidas con Yo fui a EGB, La Gira.

Todo esto es solo una pequeñísima parte de lo que ha pasado en estos 9 años. Quién sabe cuántas cosas más pueden pasarnos para nuestro décimo aniversario o cómo cambiará la tecnología en los próximos 365 días. Lo que está claro es que te necesitamos para seguir cumpliendo años, ¿nos ayudas?

¿Qué es el protocolo TCP?

Publicado enGeneral en mayo 1, 2018 5:00 pm

En los inicios de internet toda la comunicación era unidireccional. Es decir, se conocía al emisor de la información, pero no la persona ni el dispositivo que pudiera recibirla. Para mejorar las comunicaciones y hacerlas bidireccionales, Vint Cerf y Robert Kahn desarrollaron el protocolo TCP a mediados de los años 70.

TCP o Protocolo de Control de Transmisión, es un protocolo de internet encargado de informar del destino de los datos permitiendo la creación de conexiones seguras. Aunque fue desarrollado entre 1973 y 1974, continúa siendo a día de hoy uno de los protocolos fundamentales en internet. TCP sirve, además, como soporte a muchas de las aplicaciones y protocolos que han surgido después.

El protocolo TCP es una forma segura de intercambio de datos al requerir de la autorización entre cliente y servidor, o emisor y receptor, antes de producirse la transferencia. Una vez ambas partes hayan autorizado la transmisión, podrá iniciarse el envío y recepción de datos. El protocolo TCP, al igual que otros como el protocolo SSH, nació para sustituir protocolos anteriores; debido a su antigüedad, dichos protocolos resultaban inseguros para la conexión o el intercambio de datos en internet.

Cómo funciona el protocolo TCP

TCP tiene un funcionamiento muy sencillo que consta de tres fases. En la primera, se establece la conexión con la autorización de ambas partes. Entonces, se produce un procedimiento denominado ‘negociación en tres pasos’. Para, después, iniciarse la transferencia de la información. Aquí, se establecen cada uno de los parámetros para un intercambio ordenado, correcto y, sobre todo, seguro. Por último, mediante una ‘negociación en cuatro pasos’ se finaliza la conexión entre cliente y servidor.

En el protocolo TCP los datos se entregan en el mismo orden en el que se enviaron. Para ello, divide la información en diferentes paquetes que se envían por la ruta más rápida hacia su destino. Así, con una separación en capas, se identifica la procedencia del tráfico es más fácil y evitar la saturación de la red. Además, sirve de capa intermedia entre una aplicación y el protocolo IP, supliendo las carencias de seguridad del protocolo de red (consulta aquí cuál es tu dirección IP).

TCP sirve también como mecanismo que permite diferenciar las aplicaciones, ya sean emisoras o receptoras, dentro de una misma máquina. Para ello, recurre al concepto de puerto. A pesar de tener ya más de cuatro décadas, sigue empleándose en todas las comunicaciones que se producen en la red de redes: internet. Y, sin su desarrollo, el internet que conocemos actualmente sería muy diferente.

El nacimiento del protocolo TCP, al igual que muchos otros avances tecnológicos, se produjo en un lugar extraño. Hemos oído hablar de garajes, pero no tanto de furgonetas equipadas con la más alta tecnología. Y fue ahí donde se produjo la primera transmisión del protocolo que cambiaría el rumbo de la red de redes.

Cómo solucionar error 404 en WordPress

Publicado enGeneral en abril 27, 2018 3:25 pm

El error 404 es uno de los problemas más comunes en internet. Que tus usuarios se encuentren con un error 404 afectará negativamente a su experiencia dentro de tu sitio web. La tasa de rebote aumenta y repercute negativamente en el posicionamiento de tu web. Y todo ello puede conllevar penalizaciones por parte de los buscadores.

Qué es el error 404 

Es un código de respuesta estándar en el protocolo HTTP que indica que se ha podido establecer la conexión con el servidor pero no se ha podido encontrar el elemento solicitado.  Esto es, que la página web que queremos visitar ya no existe y, por lo tanto, no podemos acceder a ella. Se trata, en resumen, de un error 4xx o error del cliente.

Este error es también algo habitual en la creación de nuevos apartados (o nuevas páginas) en tu gestor de contenidos WordPress. En muchas ocasiones, puedes visualizar con total normalidad cómo quedaría la entrada o la página que estás redactando con solo pinchar sobre la opción “Vista previa”. Sin embargo, otras veces, ese contenido no se ve cuando lo publicas, y es entonces cuando aparece el error 404 not found.

vista previa wordpress error 404

¿Cómo afectan los errores 404?

No deberías preocuparte por ello en exceso. Internet sufre cambios constantes y los contenidos se actualizan si cesar, por lo que recibir un error 404 al navegar es totalmente normal. Es más, según John Mueller de Google, tener errores 404 resulta correcto. Sólamente deberemos tomar en cuenta esos errores si:

  • Nuestro site tiene cientos de errores 404; y google puede interpretar esto como una experiencia negativa para el usuario.
  • Son urls importantes dentro de nuestra web. Queremos que estas urls se indexen y se posicionen por lo que no deben devolver este tipo de errores.
  • Son errores 404 leves; estas páginas devuelven un código 200 pero resulta ser una página sin contenido (o no válido).

Intentaremos subsanar los errores leves cuanto antes. Ello se debe a que el rastreador invierte tiempo en urls que deberían estar fuera del índice de búsqueda; asimismo, páginas importantes pueden dejar de rastrearse con la misma asiduidad que en tiempos pasados. Esto significa que si tenemos una cantidad elevada de este tipo de errores la cobertura de rastreo puede verse afectada; y esto no nos interesa en absoluto.

A continuación te mostramos como evitar la aparición de errores 404. No dejes que estos errores afecten a tu página y a todo aquel que vaya a visitar tu sitio web.

Solución al error 404 en WordPress

Algunas veces este error 404 se puede solucionar en pocos minutos de una forma muy sencilla. Basta con que accedas en tu gestor de contenidos WordPress a la opción de Ajustes > Enlaces permanentes. Y una vez estés en ella:

– Marques la opción de “estructura personalizada”.
Elimines el contenido que aparece en la opción de estructura personalizada en la que se indica: /%postname%/
– Pinches sobre el botón de guardar.
– Te desloguees de tu WordPress y compruebes si puedes visualizar el contenido que querías publicar como si fueses uno de los usuarios que acceden a tu página web.
Una vez que hayas comprobado que el contenido se ve correctamente, si lo deseas, puedes volver a acceder a tu panel de WordPress como administrador y marcar la opción que previamente tenías en los ajustes de tus enlaces permanentes. En nuestro caso, por ejemplo, esta opción se denominaría “nombre de entrada”.

enlaces permanentes wordpress error 404

De esta forma tan sencilla, se actualizará por completo la configuración de todos tus enlaces permanentes; además de las reglas de escritura. Bastaría con realizar esta acción para que se corrigiera el error 404 relacionado con la publicaciones de nuevas entradas o páginas que vayas creando desde tu gestor de contenidos WordPress. Pero, ¿has realizado estas modificaciones y el error 404 persiste? Si es así, deberías actualizar manualmente el archivo htaccess. Para ello, tienes dos opciones; accediendo al servidor vía FTP o bien modificando de forma manual el código del fichero htaccess.

Diferencias entre un error 404 y un 410

Antes de terminar con el artículo, cabe destacar que los errores 404 y 410 no son iguales; y que tampoco hay que tratarlos del mismo modo.

Un error 410 devuelve un código HTTP 410, el cual notifica que esa url no existe. La cabecera de esta url especifica a los robots o crawlers que esa url no existe (y aquí llega la diferencia entre ambas) y no va a volver a existir; esto es, no hace falta volver a rastrearla. Por tanto, habrá veces en los que nos interese devolver una cabecera 410; y otras en las que la solución más efectiva sea una redirección 301.

Aquí el vídeo de Matt Cuts en el que explica las diferencias entre ambos errores.

Cómo retornar un error 410 en WordPress

Existen dos sencillos métodos si deseamos devolver una cabecera 410 en algunas de nuestras urls. En resumen: podemos hacer uso de un plugin llamado “410 for WordPress” o determinarlas en .htaccess.

  • Mediante plugin 410 for WordPress. Permite configurar una página de opciones donde se irán añadiendo los registros que devolverán un 410; esos registros (expresiones regulares) son almacenados en una tabla creada por el plugin.
  • Establecer a Apache la página con 410 vía ErrorDocument creando un archivo expresamente para ello. Determinamos vía htaccess (con el flag G) todas las url que queramos devuelvan un error 410. Si no es un cantidad elevada de urls y las tenemos bien definidas, esta es la mejor opción.
  • Cabe mencionar que también existe una tercera opción, una especie de mezcla entre las anteriores opciones. Combina los beneficios de establecer las reglas desde Apache pero mostrando la misma página de error de WordPress como para un 404.

Modificamos el ErrorDocument de Apache:

/**
* Reponse the header 410.
*
* @param string $template
* @return string
*/
function e12_response_410( $template ) {
    if( is_404() && '410' == $_SERVER['REDIRECT_STATUS'] ) {
        status_header( 410 );
 
        if( file_exists( STYLESHEETPATH . '/410.php' ) ) {
            return STYLESHEETPATH . '/410.php';
        }
    }
 
    return $template;
}
 
add_filter( 'template_include', 'e12_response_410' );

Después añadimos las reglas a Apache para que retorne los 410:

RewriteRule ^url-eliminada$  - [G,L]

Si has configurado todo de forma correcta, la página con error 404 devolverá el error pero con la cabecera de un 410.

¿Qué es y para qué sirve el protocolo SSH?

Publicado enGeneral en abril 24, 2018 10:00 am

Secure SHell (SSH), o intérprete de ordenes seguro, es un protocolo para acceder de forma remota a un servidor privado. Además, da nombre al programa que permite su implementación. El protocolo SSH o Secure SHell es un protocolo que posibilita el acceso y la administración de un servidor a través de una puerta trasera (backdoor). Y, a diferencia de otros protocolos como HTTP o FTP, SSH establece conexiones seguras entre los dos sistemas. Esto se produce recurriendo a la llamada arquitectura cliente/servidor.

Como ya ocurriera con el protocolo TCP, SSH nació para sustituir a otros protocolos. Por su antigüedad, estos protocolos resultaban inseguros para la conexión o el intercambio de datos en internet. En este sentido, el antecedente de SSH es Telnet (Teleccomunication Network). Un protocolo de red en modo terminal para acceder a una máquina remota desarrollado en 1969. En aquellos años en los que el uso de internet se limitaba a Instituciones Académicas y a los Gobiernos. La diferencia entre ambos es que SSH añade seguridad mediante cifrado. En cambio, con Telnet toda la información viaja por internet en forma de texto plano haciéndola fácilmente accesible a cualquier hacker.

SSH para encriptar las sesiones

Accediendo a un servidor remoto a través del protocolo SSH los riesgos de seguridad se reducen considerablemente. Tanto en el caso del cliente como del propio sistema la seguridad se mejora gracias a la encriptación; Secure SHell se encarga de encriptar todas las sesiones. Así, resulta imposible que alguien pueda acceder a las contraseñas, los datos de acceso del cliente o a lo que éste haya escrito. Cuando se produce una conexión mediante el protocolo Secure SHell, el usuario remoto es autentificado por el sistema. A continuación, se procede a la transferencia de la información desde el cliente del host y devolver los datos al cliente.

La evolución del protocolo SSH

En sus inicios, el protocolo SSH era libre. Pero entre 1995 y 1999 su licencia fue cambiando hasta que Red Hat Enterprise creó la segunda versión del protocolo Secure SHell: OpenSSH. Esta segunda versión del protocolo solucionaba la vulnerabilidad a un agujero de seguridad presente en la primera versión mediante un intercambio de claves. Aun así, OpenSSH permite la conexión SSH a través de la primera versión del protocolo.

Además del ya mencionado cifrado de los datos que aporta Secure SHell, el uso del protocolo permite que el cliente pueda verificar en cualquier momento si está conectándose al mismo servidor en cada uno de sus accesos. El nivel de encriptación utilizado por el protocolo SSH es de 128 bits. Un cifrado muy potente que hace que cualquier información, enviada o recibida, que se intercepte sea extremadamente difícil de leer y descifrar. De la misma manera, permite a los usuarios acceder a un servidor de forma remota además de reenviar todo tipo de aplicaciones X11, proporcionando una forma segura para utilizar aplicaciones gráficas.

Blockchain: cadenas de bloques más allá de la economía

Publicado enGeneral en abril 11, 2018 10:00 am

Hace casi un año, el 12 de mayo de 2017, se produjo el mayor ciberataque a nivel mundial. El ransomware, un software malicioso que impide el acceso a tu propia información y pide un rescate por ella, puedo haberse evitado con otra de las palabras de moda: el blockchain. Además de poner a salvo nuestros datos, esta cadena de bloques podría dar un giro radical a los procedimientos y negocios tal y como los conocemos en la actualidad.

La evolución del mundo digital está estrechamente relacionada con todo lo comercial. Puesto que cada vez se utiliza más internet para realizar todo tipo de gestiones, debe tenerse muy en cuenta la seguridad del usuario y sus datos más sensibles en la red. De ahí que las cadenas de bloques sean la forma más segura de realizar transacciones, tanto económicas como de datos.

Qué es el blockchain

Podríamos definir el blockchain como una enorme base de datos distribuida y extremadamente segura que no puede ser fácilmente alterada. Esto es así porque está repartida entre millones de ordenadores de todo el mundo y no es posible modificar la información de sus bloques cifrados sin el consenso del resto de usuarios del mismo. De esta forma, atacar o eliminar la información de las cadenas de bloques es una tarea prácticamente imposible.

La tecnología blockchain elimina los intermediarios en el proceso de comunicación. Los encargados de controlar el proceso son el emisor y el receptor de la transferencia de datos. Aunque estos dos agentes no están solos, son parte de un enorme grupo de usuarios que se ocupan de comprobar que el procedimiento se produce de forma correcta y de validar la transacción. Si quieres, puedes echar un vistazo a su web y empezar a crear tu billetera de criptomonedas.

Cómo funcionan las cadenas de bloques

Antes de realizarse una transferencia el emisor tiene que avisar al resto de usuarios de la cadena. Estos comprobarán si el intercambio puede producirse y, en caso afirmativo, darán su aprobación para que la transferencia pueda producirse. Y solo cuando todos los usuarios hayan aceptado dicha transferencia, la información pasará a formar parte del bloque, es decir, a efectuarse el intercambio. De esta forma, la nueva transacción pasa a formar parte de un bloque que contiene otras muchas transferencias más. Cada uno de los bloques tiene una capacidad limitada. Su tamaño dependerá de la estructura de la cadena y del tamaño de las transacciones. Al alcanzar su capacidad máxima, el bloque se ‘cerrará’ quedando registradas permanentemente cada una de las transacciones que contiene.

El blockchain es, por su naturaleza, una de las formas más seguras para intercambiar información o realizar transacciones económicas. Esto se debe a que en cada uno de los bloques la información está cifrada. Y no solo el bloque en sí, si no que cada registro está encriptado con respecto al anterior. De forma que para poder desencriptar toda la información sería necesario que todos los agentes que hayan intervenido en cada uno de los procesos de un mismo bloque llegaran a un consenso. Algo que es prácticamente imposible.

No es posible intentar modificar o eliminar la información contenida en los bloques sin el consentimiento del resto de usuarios. En caso de que se produjera, los nodos se alterarían, rompiendo la cadena, y avisando a todos sus participantes de que alguien ha intentado realizar una acción sin que hubiera consenso. De esta forma se dificulta que un agente pueda desviar transacciones sin que los demás se enteren. Además de que cada unidad solo puede transferirse una única vezy se evitan dobles transacciones.

Revolución en todos los ámbitos

Las cadenas de bloques aceleran las transacciones, favorecen la seguridad y transparencia total de la información. Solo el emisor y el receptor de la transacción permanecen en el anonimato. El resto de la información relacionada con el intercambio es pública. Esto permite conocer el camino que sigue una transacción desde que el emisor inicia el intercambio hasta que queda registrado en la cadena de bloques.

Aunque lo más habitual es asociar el blockchain con las criptomonedas, como bitcoin, esta tecnología puede usarse en todo tipo de transacciones. Como, por ejemplo, historiales médicos, voto electrónico, tareas fiscales o en la logística de las empresas. Toda la información contenida permanecerá accesible durante toda la vida de la cadena de bloques, por lo que esos datos pueden consultarse en cualquier momento. O al menos hasta que otra tecnología consiga mejorar la cadena de bloques.

que-es-blockchain-como-funciona

¿Qué es el geobloqueo y por qué la Unión Europea quiere acabar con él?

Publicado enGeneral Novedades en marzo 28, 2018 10:10 am

El mejor escaparate de tu tienda es internet. El comercio electrónico no solo sigue su mejor momento, sino que se ha convertido en una necesidad de los establecimientos tradicionales. Comprar por internet es cada vez más seguro y esto se debe a la labor de los buscadores para el cifrado de las comunicaciones mediante diferentes tipos de certificados de seguridad; algunos comercios electrónicos incluso han aplicado técnicas como el “geobloqueo” o bloqueo para determinados países o ubicaciones.

Hasta el momento, si querías dar el salto al ecommerce, solo tenías que escoger la plataforma para tu tienda online y establecer tu política de precios. Y, a partir de ahí, prepararte para empezar a vender tus productos o servicios. Pero con la nueva normativa del ecommerce habrá que darle una vuelta a la forma de vender por internet.

El geobloqueo

Tanto si cuentas con una tienda online, como si adquieres productos a través de internet, puede que hayas utilizado o sufrido esta práctica de ventas. El geobloqueo consiste en bloquear determinados productos o servicios accesibles desde una página web. Algo que suele realizarse, generalmente, en función del país en el que se encuentre el usuario. Lo habitual es que el usuario sea redirigido a otra web, que no puda registrarse, adquirir un producto o acceder a un determinado contenido. Incluso tener que pagar un precio más elevado por un producto o quedarte con las ganas de escuchar una canción o de ver un vídeo en concreto. Hasta ahora.

El pasado 28 de febrero la Unión Europea aprobó la normativa que elimina las barreras en las compras online. Un reglamento que hasta finales de año no entrará en vigor. Pero, para entonces más de un 63% de las tiendas online europeas deberán cambiar su forma de vender. Si el comercio electrónico ha cambiado la forma de comprar, ahora su nueva legislación hará que esos dos tercios de ecommerces que recurren al geobloqueo ofrezcan a sus usuarios las mismas oportunidades.

Cómo funciona el geobloqueo

Antes de acceder a una página web, debes pedírsela al servidor en el que está alojada. Para ello, tendrás que decirle cuál es tu dirección IP. Una serie de números que identifican a tu ordenador, Smartphone o Tablet e informan de tu ubicación geográfica. Así, el lugar desde el que realizas la búsqueda puede hacer que el contenido que el servidor te devuelva varíe en función del país desde el que se realice la búsqueda.

Las técnicas de geoblocking pueden ser de lo más diversas. Desde impedir el acceso a un sitio web a una determinada IP o a quienes naveguen en un idioma. Incluso, redirigir a otra web a todos los visitantes de un país en concreto.

Compra sin discriminaciones

Cuando la normativa sobre comercio electrónico entre en vigor el próximo 3 de diciembre, las tiendas online no podrán realizar discriminación alguna en cuanto a precios, ventas o condiciones de pago. Esto es, no podrán negar el acceso a ningún visitante ni redirigirlo a otro sitio web, a no ser que éste haya dado su consentimiento al respecto. Asimismo, tampoco podrán establecer diferentes precios por país si la diferencia no está destinada a sufragar los gastos de distribución. Al igual que no pueden condicionar a pagar la compra con una tarjeta bancaria de un determinado país. De esta forma, la UE estará un paso más cerca del mercado único.

Por el momento en la normativa no se contemplan los servicios audiovisuales. Así que, es posible, que tengas que esperar un poco más para poder seguir determinados programas, canciones o vídeos. La regulación de este sector todavía tendrá que esperar.

¿En qué consiste el envenenamiento de DNS?

Publicado enGeneral en febrero 7, 2018 10:00 am

A medida que el uso de internet ha ido popularizándose, también lo ha hecho la sofisticación de los ataques. En este sentido, el envenenamiento de DNS es una de las técnicas blackhat más utilizadas. También es uno de los ataques más antiguos, ya que se remonta al origen de los DNS (Sistema de Nombres de Dominio).

Cada vez que accedes a una página web, lo habitual es que te refieras a ella por su dominio. Algo que no es legible por los buscadores. Para que estos puedan encontrar la web que estás buscando, tienen que traducir tus palabras a un sistema de números. Este sistema es conocido como dirección IP. La primera vez que tecleas el sitio web, se envía una petición a los servidores de DNS cuya respuesta será la dirección IP que se corresponde con ese dominio. De esta forma, el buscador es capaz de mostrarte la página web que le has pedido.

Como no es posible que siempre que busques un sitio web se realice una petición al servidor de DNS, los equipos disponen de una memoria DNS local. De otra forma, los servidores DNS no darían a basto para poder responder las peticiones que se producen por segundo. En ella se almacenan cada una de las IPs de los sitios web a los que has accedido con anterioridad. Podríamos decir que es una especie de directorio en el que se guardan las referencias obtenidas del servidor de DNS. De forma que no sea necesario volver a preguntarle con qué IP se corresponde un determinado sitio web una y otra vez.

Qué es el envenenamiento de DNS

El envenenamiento de DNS consiste en obtener el control del servidor de DNS para realizar modificaciones en la información. Como por ejemplo, cambiar la IP. Así, cuando alguien intentara acceder a una página web sería redireccionado a otro servidor. Un servidor que, por supuesto, no se corresponde con el que tiene alojada la web. En este caso estaríamos hablando también de phishing, es decir, un método de suplantación de identidad.

Detectando ataques de phishing

Los ataques de phishing son muy difíciles de detectar a simple vista. Entre las características del phishing se encuentra el reproducir de forma casi perfecta la web original. De ahí que si no se trata de una página web que hayamos visitado en muchas ocasiones no podamos percibir los pequeños fallos que diferencien el sitio web legítimo del falso. Generalmente se trata de ligeras variaciones en la tipografía, en el color o en el tamaño de los textos. Además del uso de diferentes caracteres en el dominio usando, por ejemplo, números para simular algunas letras o recurriendo a otros alfabetos. Un aspecto que sí deberemos considerar es que los ataques de phishing suelen propagarse a través del correo electrónico.

Como si de una gripe se tratara, el envenenamiento del DNS es contagioso. Este ataque puede propagarse de un servidor DNS a otro servidor DNS. Para evitarlo, no hagas click en enlaces que no sepas de dónde provienen. Asimismo, recuerda vaciar la caché del DNS si sospechas que las páginas web que se te muestran no serían las legítimas.

#NoHacked, la apuesta de Google por la ciberseguridad

Publicado enGeneral en enero 10, 2018 10:00 am

Es posible que el hecho de que 2017 se convirtiera en el año del ransomware haya animado a Google a retomar su campaña #NoHacked. El buscador lleva ya un tiempo velando por la mejora de la seguridad en la red. Y en esta ocasión, quiere ayudarnos a reconocer cuándo nuestra página web es víctima de un hackeo. En contra de lo que habitualmente creemos, una web no está hackeada únicamente cuando deja de estar disponible. También pueden producirse ataques de diversos tipos que alteran o dañan un sitio web. Y que, a pesar del hackeo, el sitio web puede seguir funcionando con normalidad.

Campaña social #NoHacked

La apuesta comenzó por recomendar la instalación de certificados SSL para que nuestra web recurra al protocolo de seguridad HTTPS. Y ahora continua con la vuelta de su campaña más social: #NoHacked. La campaña busca sensibilizar acerca de los hackeos y ofrecer consejos para evitar que nuestra página web sea víctima del ataque de los hackers. En 2014, el buscador realizó una acción similar en la que recomendaba no utilizar software pirata. Para evitar los ataques, en aquella primera edición de #NoHacked, también se recomendaba modificar las contraseñas con frecuencia o contratar un alojamiento de calidad. Además, en el caso de WordPress, se anima a cambiar el nombre al archivo wp-config por uno personalizado. De esta forma, se disminuyen las probabilidades de hackeo de la web.

No existe un único motivo por el que se hackea un sitio web. Aunque lo habitual es que se produzcan para obtener beneficios económicos a través de técnicas de spam de lo más variado. Por ejemplo, insertando enlaces en tu página web o redirigiendo el tráfico que llega hacia otra página. Pero también pueden copiarse archivos con información sensible si no tienes instalado un certificado SSL. Estos certificados se encargan de encriptar los datos para hacer que tus comunicaciones sean seguras. Asimismo, es posible que el atacante inserte malware (software malicioso) en tu sitio web. Como normal general, no es sencillo detectar este tipo de ataques, aunque existen una serie de indicios que podrían hacerte sospechar que tu página web ha sido hackeada.

En esta ocasión, la campaña #NoHacked, se ha centrado en enseñar a interpretar la información que se proporciona desde los resultados de búsqueda y el uso de Google Search Console para conocer el estado de nuestra página web.

La búsqueda de Google

Si Google considera que un sitio web no es seguro, lo especificará desde los resultados de búsqueda. Así evitará que accedas a una página web que puede acabar dañando tu equipo o poniendo en riesgo la información que proporciones. Para ello, Google habitualmente recurre a tres tipos de mensajes:

  • Este sitio puede haber sido comprometido.
    El buscador utiliza este aviso para alertar acerca de posibles cambios en contenido de la web o si se han añadido nuevas páginas de spam. Al acceder a la web, es posible que acabes siendo redirigido a una página de software malicioso o spam.
  • Este sitio puede dañar tu ordenador.
    El mensaje con el que Google alerta sobre páginas que podrían permitir que algunos programas instalen software malicioso en tu ordenador. De visitar la página, es probable que tus contraseñas y tarjetas de crédito queden al descubierto.
  • Advertencias sobre sitios web que no son seguros.
    La forma de informar acerca de contenidos peligrosos o inseguros, generalmente relacionados con ataques de phishing o suplantación de identidad. Para evitar que el usuario acceda a la web, aparecerá una pantalla roja alertando del peligro del sitio web, además de especificar si se trata de software malicioso, una web con contenido engañoso o descarga de archivos de fuentes que no han sido autorizadas.

En todos estos casos, es recomendable no entrar en la web en cuestión hasta que el mensaje haya desaparecido del SERP (Search Engine Results Pages). Esto se producirá cuando el webmaster haya procedido a solucionar el problema.

Redirecciones de URL

O redirecciones abiertas, constituyen una vulnerabilidad que permite a los hackers utilizar tu sitio web para ocultar enlaces maliciosos. Así, cada usuario que acceda a un sitio web hackeado, será redirigido a la web que el atacante decida mediante un enlace que parece legítimo.

Este tipo de vulnerabilidades son potencialmente peligrosas. Especialmente si se utilizan en procesos de registro o autenticación ya que podría estar proporcionándose información sensible en el lugar incorrecto. Las redirecciones abiertas no son un problema exclusivo de las aplicaciones, si no que pueden afectar a todo tipo de plataformas. Desde CMS, a redes sociales o incluso a sistemas operativos.

Google Search Console

Antes denominada Google Webmaster Tools, es la herramienta de Google para informarte acerca del estado de tu página web. Además, sirve para gestionar de una manera más eficiente tu sitio web. Una vez la página esté verificada en Google Search Console, recibirás alertas y mensajes cuando el buscador detecte errores críticos. Tanto relacionadoscon hackeos como en la estructura o el contenido de tu página web.  Además, desde ‘analítica de búsqueda’ podrás comprobarestás utilizando los términos correctos en tu sitio. Es decir, que los términos guarden relación con la temática del sitio. En el caso de que no exista relación alguna entre ambos elementos, tu página podría estar en peligro.

#NoHacked también hace hincapié en revisar que la versión móvil y la de escritorio sirvan el mismo contenido. Aunque el contenido esté adaptado a las características del dispositivo, debe ser igual en ambas versiones. Y, es que, en ocasiones, puede ser que el contenido de una de las dos versiones haya sido alterado.

Una vez más os recordamos de la importancia de actualizaciones y copias de seguridad para, si no evitar, minimizar los daños que uno de estos ataques pueda ocasionar en nuestra web. Los hackeos están directamente relacionados con la desactualización de los componentes. No mantener el sistema operativo, los plugins o el navegador al día facilita enormemente la labor de los hackers.

Lo que tecnológicamente 2017 nos ha dado

Publicado enGeneral en diciembre 27, 2017 10:00 am

Se acaba un año más y antes de decirle adiós a este año, queremos hacen un resumen de 2017. Estos son algunos de los acontecimientos informáticos más importantes ocurridos en estos casi 365 días.

El ransomware

Si hay algo que resume este año los acontecimientos informáticos más importantes, es el término ransomware. Un programa malicioso que impide el acceso a determinados archivos de un ordenador que haya sido infectado. Para poder recuperar toda la información secuestrada, es necesario pagar una cantidad de dinero determinada por el hacker. Y, unido al ransomware, tenemos a WannaCry. Este software malicioso creó verdadera alarma a mediados de mayo al perjudicar a muchas compañías en diferentes países del mundo entre las que se incluyeron Iberdrola, Gas Natural o el Servicio de Salud Británico, entre otros.

Pocas semanas después del ataque producido por WannaCry, se produjo el ciberataque Petya/NotPetya. Ya que no sabían hasta qué punto podría ser una versión de Petya o un ataque totalmente nuevo. Éste, fue mucho más grave que su compañero puesto que, además de secuestrar datos, afectaba al funcionamiento del equipo informático.

Tanto WannaCry como Petya explotaban vulnerabilidades del sistema que podrían haberse evitado teniendo el ordenador actualizado. Y minimizado sus consecuencias si las personas afectadas dispusieran de copias de seguridad de todos sus datos. De ahí que sea muy importante prestarle atención a las actualizaciones y realización de copias de seguridad.

La mejor conexión

Muy cerquita y con un propósito mucho más agradable, llegó Marea. El cable submarino y ultrarrápido que une Sopelana (Bizkaia) con Estados Unidos. Marea fue promovido por algunas de las compañías más importantes en la actualidad; tales como Facebook, Microsoft y Telefónica.

Este megacable supone una apuesta de las empresas impulsoras por la mejora de las comunicaciones haciendo de internet algo mucho más rápido y ágil. Y es que Marea no es un cable más de esos que se encuentran en el fondo de nuestros océanos. Es el cable de mayor velocidad y capacidad creado hasta el momento.

Comunicaciones cifradas

Desde principios de 2017, Google ha venido avisando de la falta de seguridad en internet. Y lo que es más grave: los usuarios no percibían el peligro real que suponía entrar y, sobre todo, facilitar información personal en algunas páginas web.

Por ello, empezaron enero animando al cambio de protocolo. Pasar de HTTP al protocolo seguro HTTPS suponía en primer lugar el cifrado de la información que los usuarios pudieran proporcionar al sitio web. Algo fundamental en el caso del comercio electrónico, donde miles de personas facilitan sus números bancarios al realizar una compra. Para que las empresas se animaran a pasarse a HTTPS, el buscador ofrecía a cambio una mejora del posicionamiento.

Con la llegada de Chrome 62, el 1 de octubre, los casos en los que el buscador avisa acerca de la falta de seguridad de una página web se ampliaron. Actualmente, cualquier acción realizada en un ecommerce que no esté bajo HTTPS estará marcada con un ‘web no segura’. Igualmente, en el caso de la navegación en modo incógnito.

Y esto no acaba aquí. Google ya advirtió que el cambio sería progresivo hasta que todas las páginas web de internet fuesen HTTPS. Así que, en los próximos meses, los supuestos que harán de una web HTTP una página no segura, se ampliarán.

Para evitarlo, basta con instalar un certificado de seguridad SSL. La tecnología SSL, además de encriptar la información y hacer que una página web esté bajo HTTPS, ofrece otras ventajas para tus usuarios al demostrar que eres el propietario del sitio web y hacen visible que se trata de una página segura.

Si aún no has dado el paso a HTTPS, proporciona seguridad a tu web contratando uno de nuestros certificados SSL con renovación automática. De esta forma, tu web estará siempre protegida y la información de tus usuarios también.

Resultados más cercanos

Otra de las grandes apuestas de Google es la mejora de experiencia de sus usuarios. Por ello, la compañía ha realizado cambios en los resultados de búsqueda basándose en dos frentes.

Por un lado, a partir de ahora su ranking estará condicionado por el lugar en el que nos encontremos. Así, aquello de modificar la URL para parecer que estamos navegando desde una versión extranjera del buscador dejará de dar resultados. A partir de ahora ya sólo se nos mostrará contenido relevante para google.es.

Por otra parte está la apuesta por la tecnología AMP. Con el objetivo de reducir los tiempos de carga, uno de los aspectos mejor valorados por los usuarios, Google anima a contar con una versión AMP de nuestra página web. La recompensa, lo de siempre, aparecer mejor posicionados en los resultados de búsqueda.

Las no copias de seguridad

Que el usuario medio no acostumbre a realizar periódicamente copias de seguridad es algo grave. En caso de pérdida de datos no tiene forma de recuperar toda su información. Pero es mucho más grave que esto ocurra en empresas relacionadas con el mundo informático.

Aunque en el caso de GitLab no se trate exactamente de no contar con backups, sino de no haberlas probado antes de que ocurriera una desgracia. Y ocurrió a principios de febrero. La incorrecta ejecución del comando rm –rf, que borra archivos sin confirmarle al usuario si quiere eliminar esa información, provocó la pérdida de cientos de GB de datos en producción. Aunque muchos de esos archivos pudieron recuperarse, las consecuencias podrían haber sido menores y el problema resuelto en un menor período de tiempo de haber contado con copias de seguridad actualizadas.

Tanto el caso de GitLab como los ataques producidos por ransomware manifiestan la poca importancia que se les da a las copias de seguridad. Aunque sean muy necesarias para poder volver a un estado previo al ciberataque. Así que, si no acostumbras a realizar backup de todos tus archivos, no esperes a que llegue la desgracia. Recuerda que, en estos casos, las copias de seguridad y las actualizaciones del equipo son tus grandes aliados.

La nube se consolida

Las previsiones para el año 2017 en cuanto al cloud computing no se han equivocado. Y es que el año que se nos va ha sido el de consolidación de la tecnología cloud. El término cloud ha pasado a ser una palabra habitual en nuestro vocabulario. Especialmente cuando hacemos referencia a aspectos relacionados con la informática.

Hemos tardado casi una década en darnos cuenta de todas las ventajas que nos ofrece el cloud computing. Pero ahora no vamos a desaprovecharlas. En este tiempo se han unido a la nube todo tipo de compañías y negocios. Desde las empresas más pequeñas hasta las grandes multinacionales.

Para el próximo 2018 parece que el modelo cloud continuará creciendo. Debido a su flexibilidad, escalabilidad y alta disponibilidad son muchas empresas las que ya no contemplan otra forma de alojamiento.

Bye, Terra

Aunque muchos dejamos de utilizarla hace un tiempo, Terra ha estado entre nosotros dieciocho años. Casi dos décadas en las que el portal de internet más famoso de los países hispanohablantes fue nuestra puerta a internet. Incluso para muchos Terra también estuvo en su primera cuenta de correo electrónico.

Pero llegaron las redes sociales y poco a poco fueron haciéndole a un lado a un Terra que no estaba siendo capaz de soportar el paso de los años. A pesar de sus intentos por adaptarse a lo que los usuarios demandaban. Al final la plataforma acabó siendo rentable sólo en Brasil, país en el que aún sigue activa como web de noticias. A finales de junio la compañía anunciaba su fin en el resto de países de habla hispana.

Terra no está, Terra se fue; y con ella, nuestros primeros pasos en internet.

Zona Gaming

Cabe destacar otros acontecimientos informáticos de nivel, como “el acontecimiento gaming” del año; y es que los eSports están llamados a ser los sustitutos perfectos de los deportes reyes: el fútbol y el baloncesto. Y, por el momento, parece que los deportes electrónicos van por el buen camino. Aunque a muchos aún nos pille por sorpresa la cantidad de seguidores que hay detrás de este tipo de deporte, lo cierto es que este imparable fenómeno ya tiene sus años. La primera competición de deportes electrónicos data, nada más y nada menos, que de 1981 con Space Invaders. Su éxito reciente es tal que los eSports fueron propuestos y aceptados como deporte olímpico para 2024 siempre que cumplan una serie de requisitos.

2017 ha sido el año del despertar de la compañía japonesa Nintendo. A principios de año anunciaban la llegada de Nintendo Switch, una consola portátil, pero de formato casero. Y con la llegada del verano, la vuelta de uno de sus productos estrella en versión mejorada: la Nintendo Classic Mini (SNES).

También ha sido este año cuando nos han confirmado algo que ya veníamos sospechando: Mario ya no ejerce como fontanero. Desde hace algunos años el que ha sido el fontanero más famoso del mundo sólo se dedicaba a rescatar a la Princesa Peach. Sin duda, el mundo de las cañerías ha perdido una gran figura que ha ganado el mundo gamer.

La vulnerabilidad del Wi-Fi

El que hasta el momento es considerado como el protocolo de redes inalámbricas más seguro, WPA2, sufrió un grave fallo de seguridad. 2017 ha sido el año de la seguridad y los ataques informáticos, aunque en esta ocasión el exploit fue provocado por la comunidad para la investigación de seguridad en un intento por poner a prueba a WPA2. Como suele ser habitual, esto cundió el pánico ya que todos accedemos diariamente a diferentes redes Wi-Fi.

El fallo consistía en el acceso a nuestros movimientos. Nada que ver con la posibilidad de acceder a la contraseña del router de casa. La solución al problema era cosa de los fabricantes de los dispositivos. Pero una vez más podemos poner de nuestra parte navegando en webs seguras HTTPS. La información que pueda obtenerse de una web segura está siempre encriptada, por lo que quien acceda a ella no podrá hacer nada con los datos.

El tropiezo de la manzana

Hace menos de un mes, Apple sufrió el peor error de su historia reciente. El fallo en macOS High Sierra permitía a cualquiera acceder a todos los archivos del usuario que estuvieran en la máquina y contar con todos los privilegios de un administrador. Es decir, convertirse en usuario root sin necesidad de contraseña alguna. Por su parte, Apple procedió a solucionar el agujero de seguridad con la mayor brevedad. Si aún no te habías enterado de este gran fallo del sistema operativo, te aconsejamos actualizar el sistema para evitar cualquier riesgo.

Hasta aquí el resumen de 2017. Quién sabe qué acontecimientos informáticos nos deparará 2018…