944 063 154

Blog

PHP 7.2: mejoras en las funciones y aumento de la seguridad

Publicado en Desarrollo web en febrero 14, 2018 10:00 am

Es de sobra conocido que PHP es uno de los lenguajes de programación más utilizado para el desarrollo de todo tipo de aplicaciones, de ahí que se encuentre en actualización continua para adaptarse a las nuevas tecnologías y necesidades.  En las últimas semanas, han lazado su última versión: PHP 7.2.

La nueva versión de PHP incluye diversas funciones y mejoras que te ayudarán a escribir código y a que se ejecute de una forma más rápida. Todo ello permite que se reduzcan los recursos necesarios para el desarrollo y mantenimiento de las aplicaciones. Asimismo, PHP 7.2 contribuye a aumentar la seguridad mediante librerías que no requieren de API externa.

Las mejoras de PHP 7.2

Entre las principales mejoras de este lenguaje backend se encuentra el cambio en la declaración del tipo de argumento. Esto ya estaba disponible en PHP 5, y mejoró en PHP 7.0, pero en la última versión ha sufrido ligeras modificaciones. Con PHP 7.2 es posible declarar “object” como tipo de argumento o retorno en funciones.

PHP no permite variaciones en los tipos de parámetros de métodos heredados. Pero con la llegada de PHP 7.2 sí es posible omitir un tipo en una subclase (“type widening”) sin que se produzca un error de concordancia. De esta forma sería posible implementar tipos en los argumentos de librerías sin tener que modificar clases en otras librerías o aplicaciones que dependan de las mismas.

Por último, se añade la posibilidad de incluir coma final al utilizar la construcción “list()”.

Mayor seguridad

La última versión de PHP también incluye cambios en relación con la seguridad. El primero de ellos es la incorporación de Libsodium al núcleo. Libsodium es una librería multiplataforma y moderna para criptografía. Permite cifrar, descifrar, firmar y crear hashes. Por otro lado, PHP 7.2 incorpora soporte nativo para Argon2, un algoritmo de hashing, como alternativa a Bcrypt.

Funciones obsoletas

Aunque acaban de presentar la versión 7.2, desde PHP ya se comienza a hablar de algunos cambios que tendrá PHP 8.0. Todos ellos relacionados con funciones que se eliminarán y que ya recomiendan no utilizar.

  • function __autoload. Esta función fue reemplazada por por spl_autoload_register en PHP 5.1.
  • $php_errormsg. Con PHP 7.2 es recomendable utilizar error_get_last y error_clear_last en su lugar.
  • create_function(). Por diversos problemas de seguridad y debido a su bajo rendimiento, se recomienda utilizar “closures”.
  • parse_str () sin segundo parámetro. PHP comenzará a advertir cada vez que se use la función sin pasar por el segundo parámetro.
  • gmp_random(). En lugar de utilizar esta función deberá usarse gmp_random_bits() y gmp_random_rage().
  • assert(). Su resultado abre una vulnerabilidad de ejecución remota de código (RCE). Por ello, se recomiendael uso de zend.assertion ini.
  • Tampoco se recomienda el uso de mbstring.func_overload, (unset) cast, each() y $errcontext. Estas funciones han sido declaradas como obsoletas por resultar poco útiles.

Si PHP es uno de los lenguajes de programación más utilizados es, en parte, por su relación con WordPress, ya que el CMS está desarrollado con PHP. Pero, lamentablemente, la mayoría de usuarios de WordPress no acostumbra a actualizar su versión de PHP. De ahí que más de un 70% de las webs aún usen PHP 5.6 o incluso versiones más antiguas. Esto, además de ser un peligro de cara a la seguridad, puede ocasionar problemas de rendimiento.

Desde Linube recomendamos la actualización, al menos, a PHP 7. De esta forma, tu web irá mucho más rápida y será capaz de ejecutar un mayor número de transacciones por segundo que en cualquier versión anterior.

Por nuestra parte, ya contamos con PHP 7.2 en todos nuestros servicios.

¿En qué consiste el envenenamiento de DNS?

Publicado en General en febrero 7, 2018 10:00 am

A medida que el uso de internet ha ido popularizándose, también lo ha hecho la sofisticación de los ataques. En este sentido, el envenenamiento de DNS es una de las técnicas blackhat más utilizadas. También es uno de los ataques más antiguos, ya que se remonta al origen de los DNS (Sistema de Nombres de Dominio).

Cada vez que accedes a una página web, lo habitual es que te refieras a ella por su dominio. Algo que no es legible por los buscadores. Para que estos puedan encontrar la web que estás buscando, tienen que traducir tus palabras a un sistema de números. Este sistema es conocido como dirección IP. La primera vez que tecleas el sitio web, se envía una petición a los servidores de DNS cuya respuesta será la dirección IP que se corresponde con ese dominio. De esta forma, el buscador es capaz de mostrarte la página web que le has pedido.

Como no es posible que siempre que busques un sitio web se realice una petición al servidor de DNS, los equipos disponen de una memoria DNS local. De otra forma, los servidores DNS no darían a basto para poder responder las peticiones que se producen por segundo. En ella se almacenan cada una de las IPs de los sitios web a los que has accedido con anterioridad. Podríamos decir que es una especie de directorio en el que se guardan las referencias obtenidas del servidor de DNS. De forma que no sea necesario volver a preguntarle con qué IP se corresponde un determinado sitio web una y otra vez.

Pero, ¿que es el envenenamiento de DNS?

El envenenamiento de DNS consiste en obtener el control del servidor de DNS para realizar modificaciones en la información. Como por ejemplo, cambiar la IP. Así, cuando alguien intentara acceder a una página web sería redireccionado a otro servidor. Un servidor que, por supuesto, no se corresponde con el que tiene alojada la web. En este caso estaríamos hablando también de phishing, es decir, un método de suplantación de identidad.

Detectando ataques de phishing

Los ataques de phishing son muy difíciles de detectar a simple vista. Entre las características del phishing se encuentra el reproducir de forma casi perfecta la web original. De ahí que si no se trata de una página web que hayamos visitado en muchas ocasiones no podamos percibir los pequeños fallos que diferencien el sitio web legítimo del falso. Generalmente se trata de ligeras variaciones en la tipografía, en el color o en el tamaño de los textos. Además del uso de diferentes caracteres en el dominio usando, por ejemplo, números para simular algunas letras o recurriendo a otros alfabetos. Un aspecto que sí deberemos considerar es que los ataques de phishing suelen propagarse a través del correo electrónico.

Como si de una gripe se tratara, el envenenamiento del DNS es contagioso. Este ataque puede propagarse de un servidor DNS a otro servidor DNS. Para evitarlo, no hagas click en enlaces que no sepas de dónde provienen. Asimismo, recuerda vaciar la caché del DNS si sospechas que las páginas web que se te muestran no serían las legítimas.

Blackslot ahora es Linube

Publicado en General en enero 31, 2018 12:06 pm

Pues sí, parece que debutamos. Somos Linube y venimos con nueva identidad y también nueva web.

Podríamos decirte muchas cosas para justificar nuestro cambio de nombre. Desde que Linube ya no es tanto el futuro de internet, a que la tecnología cloud está más presente que nunca. Que Linube puede ser clave en la transformación digital de tu negocio porque aumenta la seguridad. Y que, además, no limita la capacidad máxima de tus datos. O decirte que, si hace unos años el Big Data vino para quedarse, Linube es el mejor lugar en el que almacenar esa enorme cantidad de datos. Pero eso podría sonar a excusa.

Podríamos seguir diciéndote que hemos cambiado de nombre para demostrarte que siempre estamos a la última. O, también, para que nos recuerdes mejor, nos asocies con la tecnología cloud o para que escribirnos un email te resulte aún más fácil. Pero tampoco sería verdad.

Tenemos nueva imagen, sí, pero seguimos siendo los mismos de siempre. Con un nombre nuevo, pero manteniendo el corazón de Blackslot: su gran equipo de profesionales. Seguimos al otro lado (del teléfono, del correo electrónico o de nuestro centro de soporte) para ayudarte con cualquier problema relacionado con nuestros servicios. Y para atender cualquier duda que te surja. Bien sea en relación a desarrollo web, planes de hosting o cualquier temática relacionada con nuestra actividad.

Mucho más que cloud

Y hablando de servicios, aunque nos asocies con los servidores cloud tenemos muchas más cosas para ti. A partir de ahora, olvídate de la gestión de tus dominios, de líos de código para el desarrollo de tu nueva web o tienda online o de ser tú quien tenga que instalar el certificado SSL que haga que tus usuarios confíen aún más en tu sitio web. Lo mismo si tienes que administrar por ti mismo el servidor cloud. Ponte en contacto con nosotros y cuéntamos en qué podemos ayudarte. Casi con total seguridad encontraremos la forma de ayudarte

Queremos que des el salto a internet de la forma más sencilla. Por ello, te ofrecemos la posibilidad de dejar la parte más técnica de tu negocio en nuestras manos. Así, podrás centrarte en los aspectos menos tecnológicos de tu proyecto web. Delega la parte más complicada en nuestro equipo de profesionales y juntos haremos crecer tu negocio. Tanto desde el punto de vista de código a un alojamiento que se adapte a las necesidades de tu sitio web.

 

Tenemos nueva imagen, pero queremos seguir haciéndote la vida Linube mucho más fácil.

¿Para qué sirve el protocolo SSH?

Publicado en General en enero 24, 2018 10:00 am

Secure SHell (SSH), o intérprete de ordenes seguro, es un protocolo para acceder de forma remota a un servidor privado. Además, da nombre al programa que permite su implementación. El protocolo SSH posibilita el acceso y la administración de un servidor a través de una puerta trasera (backdoor). Y, a diferencia de otros protocolos como FTP o HTTP, SSH establece conexiones seguras entre los dos sistemas. Esto se produce recurriendo a la llamada arquitectura cliente/servidor.

Como ya ocurriera con TCP, el protocolo SSH nació para sustituir a otros protocolos. Por su antigüedad, estos protocolos resultaban inseguros para la conexión o el intercambio de datos en internet. En este sentido, el antecedente del protocolo SSH es Telnet (Teleccomunication Network). Un protocolo de red en modo terminal para acceder a una máquina remota desarrollado en 1969. En aquellos años en los que el uso de internet se limitaba a Instituciones Académicas y a los Gobiernos. La diferencia entre ambos protocolos es que SSH añade seguridad mediante cifrado. En cambio, con Telnet toda la información viaja por internet en forma de texto plano haciéndola fácilmente accesible a cualquier hacker.

Accediendo a un servidor remoto a través del protocolo SSH los riesgos de seguridad se reducen considerablmente. Tanto en el caso del cliente como del propio sistema la seguridad se mejora gracias a la encriptación de SSH. El protocolo SSH se encarga de encriptar todas las sesiones. Así, resulta imposible que un tercero pueda acceder a las contraseñas, los datos de acceso del cliente o a lo que éste haya escrito. Cuando se produce una conexión mediante el protocolo SSH, el usuario remoto es autentificado por el sistema. A continuación, se procede a la transferencia de la información desde el cliente del host y devolver los datos al cliente.

La evolución del protocolo SSH

En sus inicios, el protocolo el protocolo SSH era libre. Pero entre 1995 y 1999 su licencia fue cambiando hasta que Red Hat Entrerprise creó la segunda versión del protocolo SSH: OpenSSH. Esta segunda versión del protocolo solucionaba la vulnerabilidad a un agujero de seguridad presente en la primera versión del protocolo mediante un intercambio de claves. Aun así, OpenSSH permite la conexión SSH a través de la primera versión del protocolo.

Además del ya mencionado cifrado de los datos que aporta el protocolo SSH, el uso del protocolo permite que el cliente pueda verificar en cualquier momento si está conectándose al mismo servidor en cada uno de sus accesos. El nivel de encriptación utilizado por el protocolo SSH es de 128 bits. Un cifrado muy potente que hace que cualquier información, enviada o recibida, que se intercepte sea extremadamente difícil de leer y descifrar. De la misma manera, un cliente puede, aparte de acceder a un servidor de forma remota, reenviar todo tipo de aplicaciones X11, proporcionando una forma segura para utilizar aplicaciones gráficas.

Cómo los logs de accesos pueden ayudarte a entender a tus usuarios

Publicado en General en enero 17, 2018 10:00 am

Sin duda que Google Analytics es la herramienta más utilizada para conocer el comportamiento de los visitantes. Pero, no es la única. Para complementar la información que proporciona la herramienta de Google podemos recurrir a la información de los logs de accesos.

Los logs de accesos, o registros de acceso, son archivos de texto en los que se registran todas las acciones que un servidor realiza. Es decir, cada una de las peticiones que se realizan a nuestro servidor. Gracias a estos datos, es posible conocer aspectos como la popularidad de nuestro sitio web o su nivel de usabilidad. Pero, a decir verdad, no es habitual consultar los datos que se encuentran en los logs de accesos de manera frecuente. Es más, suele ser un archivo que sólo se consulta en situaciones de emergencia, por ejemplo, cuando ocurre algún error en la web. Ya que la información que contienen es fundamental para analizar errores de un programa o de un sistema.

Debido a la cantidad de información que contienen, los logs de accesos suelen ser grandes y pesados. Estos archivos permiten conocer todo lo que ocurre dentro de nuestro sitio web. Desde el número de visitas que hemos recibido a si nuestra página web tiene un flujo de información normal. También si se están produciendo cuellos de botella.

Mucha más información desde los logs de accesos

En los logs de accesos puedes encontrar datos muy concretos de tus usuarios dentro de tu sitio web, como por ejemplo:

  • Duración de la sesión. El tiempo que un usuario ha estado navegando en nuestro sitio web.
  • Fecha y hora de acceso. Cuándo ha accedido a nuestra página web.
  • IP visitante. El número de identificación del equipo desde el que ha accedido el usuario.
  • El tipo de operación que se le ha solicitado al servidor.
  • Cuál ha sido el código de respuesta del servidor.
  • Qué buscador se ha utilizado para acceder a nuestra página web, incluyendo los términos de búsqueda que se hayan empleado.
  • El sistema operativo del usuario que ha visitado el sitio web.

A partir de esa información, podemos conocer el uso que los diferentes usuarios han hecho de nuestro sitio web. Cuántas y qué páginas de nuestra página web se han visitado y qué es lo que se ha hecho en cada una de ellas.

Es posible que no toda la información contenida en los logs de accesos nos sea de utilidad. Por ello, deberemos aprender a ‘limpiar’ todos los datos que no nos aportan nada y quedarnos con aquella información que sea válida para nuestro propósito. Manejar y, sobre todo, entender el contenido de los logs de accesos es indispensable para conocer mejor a nuestros usuarios y el comportamiento de nuestra página web.

#NoHacked, la apuesta de Google por la ciberseguridad

Publicado en Novedades en enero 10, 2018 10:00 am

Es posible que el hecho de que 2017 se convirtiera en el año del ransomware haya animado a Google a retomar su campaña #NoHacked. El buscador lleva ya un tiempo velando por la mejora de la seguridad en la red. Y en esta ocasión, quiere ayudarnos a reconocer cuándo nuestra página web es víctima de un hackeo. En contra de lo que habitualmente creemos, una web no está hackeada únicamente cuando deja de estar disponible. También pueden producirse ataques de diversos tipos que alteran o dañan un sitio web. Y que, a pesar del hackeo, el sitio web puede seguir funcionando con normalidad.

La apuesta comenzó por recomendar la instalación de certificados SSL para que nuestra web recurra al protocolo de seguridad HTTPS. Y ahora continua con la vuelta de su campaña más social: #NoHacked. La campaña busca sensibilizar acerca de los hackeos y ofrecer consejos para evitar que nuestra página web sea víctima del ataque de los hackers. En 2014, el buscador realizó una acción similar en la que recomendaba no utilizar software pirata. Para evitar los ataques, en aquella primera edición de #NoHacked, también se recomendaba modificar las contraseñas con frecuencia o contratar un alojamiento de calidad. Además, en el caso de WordPress, se anima a cambiar el nombre al archivo wp-config por uno personalizado. De esta forma, se disminuyen las probabilidades de hackeo de la web.

No existe un único motivo por el que se hackea un sitio web. Aunque lo habitual es que se produzcan para obtener beneficios económicos a través de técnicas de spam de lo más variado. Por ejemplo, insertando enlaces en tu página web o redirigiendo el tráfico que llega hacia otra página. Pero también pueden copiarse archivos con información sensible si no tienes instalado un certificado SSL. Estos certificados se encargan de encriptar los datos para hacer que tus comunicaciones sean seguras. Asimismo, es posible que el atacante inserte malware (software malicioso) en tu sitio web. Como normal general, no es sencillo detectar este tipo de ataques, aunque existen una serie de indicios que podrían hacerte sospechar que tu página web ha sido hackeada.

En esta ocasión, la campaña #NoHacked, se ha centrado en enseñar a interpretar la información que se proporciona desde los resultados de búsqueda y el uso de Google Search Console para conocer el estado de nuestra página web.

La búsqueda de Google

Si Google considera que un sitio web no es seguro, lo especificará desde los resultados de búsqueda. Así evitará que accedas a una página web que puede acabar dañando tu equipo o poniendo en riesgo la información que proporciones. Para ello, Google habitualmente recurre a tres tipos de mensajes:

  • Este sitio puede haber sido comprometido.
    El buscador utiliza este aviso para alertar acerca de posibles cambios en contenido de la web o si se han añadido nuevas páginas de spam. Al acceder a la web, es posible que acabes siendo redirigido a una página de software malicioso o spam.
  • Este sitio puede dañar tu ordenador.
    El mensaje con el que Google alerta sobre páginas que podrían permitir que algunos programas instalen software malicioso en tu ordenador. De visitar la página, es probable que tus contraseñas y tarjetas de crédito queden al descubierto.
  • Advertencias sobre sitios web que no son seguros.
    La forma de informar acerca de contenidos peligrosos o inseguros, generalmente relacionados con ataques de phishing o suplantación de identidad. Para evitar que el usuario acceda a la web, aparecerá una pantalla roja alertando del peligro del sitio web, además de especificar si se trata de software malicioso, una web con contenido engañoso o descarga de archivos de fuentes que no han sido autorizadas.

En todos estos casos, es recomendable no entrar en la web en cuestión hasta que el mensaje haya desaparecido del SERP (Search Engine Results Pages). Esto se producirá cuando el webmaster haya procedido a solucionar el problema.

Redirecciones de URL

O redirecciones abiertas, constituyen una vulnerabilidad que permite a los hackers utilizar tu sitio web para ocultar enlaces maliciosos. Así, cada usuario que acceda a un sitio web hackeado, será redirigido a la web que el atacante decida mediante un enlace que parece legítimo.

Este tipo de vulnerabilidades son potencialmente peligrosas. Especialmente si se utilizan en procesos de registro o autenticación ya que podría estar proporcionándose información sensible en el lugar incorrecto. Las redirecciones abiertas no son un problema exclusivo de las aplicaciones, si no que pueden afectar a todo tipo de plataformas. Desde CMS, a redes sociales o incluso a sistemas operativos.

Google Search Console

Antes denominada Google Webmaster Tools, es la herramienta de Google para informarte acerca del estado de tu página web. Además, sirve para gestionar de una manera más eficiente tu sitio web. Una vez la página esté verificada en Google Search Console, recibirás alertas y mensajes cuando el buscador detecte errores críticos. Tanto relacionadoscon hackeos como en la estructura o el contenido de tu página web.  Además, desde ‘analítica de búsqueda’ podrás comprobarestás utilizando los términos correctos en tu sitio. Es decir, que los términos guarden relación con la temática del sitio. En el caso de que no exista relación alguna entre ambos elementos, tu página podría estar en peligro.

#NoHacked también hace hincapié en revisar que la versión móvil y la de escritorio sirvan el mismo contenido. Aunque el contenido esté adaptado a las características del dispositivo, debe ser igual en ambas versiones. Y, es que, en ocasiones, puede ser que el contenido de una de las dos versiones haya sido alterado.

Una vez más os recordamos de la importancia de actualizaciones y copias de seguridad para, si no evitar, minimizar los daños que uno de estos ataques pueda ocasionar en nuestra web. Los hackeos están directamente relacionados con la desactualización de los componentes. No mantener el sistema operativo, los plugins o el navegador al día facilita enormemente la labor de los hackers.

¿Por qué necesitas usar Git en tu proyecto?

Publicado en Desarrollo web en enero 3, 2018 10:00 am

Lamentablemente, son muchas las ocasiones en que echamos en falta las cosas cuando ya es demasiado tarde. Por ejemplo, ese momento en el que cunde el pánico porque toda nuestra información se ha borrado y no habíamos realizado copias de seguridad. O cuando modificas el código fuente de tu página web para que el nuevo plugin para WordPress que te has descargado funcione mejor. Pero, cuando pasado un tiempo intentas saber qué fue lo que cambiaste y ya no lo recuerdas.

Si alguna vez has sufrido alguna de estas situaciones, debes saber que existen herramientas para evitar cualquier susto de este tipo llamadas software de control de versiones. Con estos sistemas, todos los cambios que se realicen en cualquiera de los elementos de un sitio web o en su configuración quedan registrados. Una de las más utilizadas, y que ha supuesto toda una revolución en el mundo del desarrollo web y la administración de sistemas informáticos, es Git.

Lanzada en abril de 2005, son muchos los grandes proyectos de software libre que han migrado sus repositorios a Git. Especialmente todas las aplicaciones relacionadas con Linux o con el Kernel de Linux. Asimismo, Microsoft también ha empezado a confiar en el código abierto para desarrollar y mejorar sus aplicaciones y sistemas operativos.

Tu información en Git

Entre otras muchas cosas, Git te permite subir y actualizar el código de tu página web a la nube de GitHub. De esta forma siempre puedes disponer de él cuando lo necesites. Pero, además puedes:

  • Conocer quién ha sido el responsable de una determinada modificación y cuándo la ha realizado.
  • Realizar comparaciones entre versiones de una aplicación.
  • Observar la evolución del proyecto con el paso del tiempo.
  • Contar con una copia del código fuente para poder volver atrás ante cualquier imprevisto en la página web.
  • Estar al tanto de los cambios en el código fuente.
  • Tener una copia de seguridad del proyecto al completo.
  • Disponer de un historial en el que se detallen las modificaciones realizadas en el código del sitio web.

Recurrir a Git es una buena opción cuando nuestras aplicaciones o páginas web tienen una gran cantidad de archivos de código fuente. Pero usar Git para gestionar las versiones no se limita únicamente a conocer los cambios que se producen. Bien sea en el código de un sitio web o bien contar con una copia de respaldo. Git permite también la gestión distribuida del trabajo. Es decir, trabajar en equipo sin tener que estar físicamente cerca. Cada programador cuenta con su propia copia del repositorio en su equipo. Y cada vez que se realice algún cambio, la modificación se aplica al proyecto en desarrollo.

Saber cómo usar Git se ha convertido en algo muy importante tanto desde un punto de vista profesional como personal. No sólo para los desarrolladores, administradores de sistemas o cualquier otra profesión relacionada con la informática.

Lo que tecnológicamente 2017 nos ha dado

Publicado en General en diciembre 27, 2017 10:00 am

Se acaba un año más y antes de decirle adiós a este 2017, queremos hacen un resumen de 2017. Estos son algunos de los acontecimientos informáticos más importantes ocurridos en estos casi 365 días.

Resumen de 2017:

El ransomware

Si hay algo que resume este año es el término ransomware. Un programa malicioso que impide el acceso a determinados archivos de un ordenador que haya sido infectado. Para poder recuperar toda la información secuestrada, es necesario pagar una cantidad de dinero determinada por el hacker. Y, unido al ransomware, tenemos a WannaCry. Este software malicioso creó verdadera alarma a mediados de mayo al perjudicar a muchas compañías en diferentes países del mundo entre las que se incluyeron Iberdrola, Gas Natural o el Servicio de Salud Británico, entre otros.

Pocas semanas después del ataque producido por WannaCry, se produjo el ciberataque Petya/NotPetya. Ya que no sabían hasta qué punto podría ser una versión de Petya o un ataque totalmente nuevo. Éste, fue mucho más grave que su compañero puesto que, además de secuestrar datos, afectaba al funcionamiento del equipo informático.

Tanto WannaCry como Petya explotaban vulnerabilidades del sistema que podrían haberse evitado teniendo el ordenador actualizado. Y minimizado sus consecuencias si las personas afectadas dispusieran de copias de seguridad de todos sus datos. De ahí que sea muy importante prestarle atención a las actualizaciones y realización de copias de seguridad.

La mejor conexión

Muy cerquita y con un propósito mucho más agradable, llegó Marea. El cable submarino y ultrarrápido que une Sopelana (Bizkaia) con Estados Unidos. Marea fue promovido por algunas de las compañías más importantes actualmente: Facebook, Microsoft y Telefónica.

Este megacable supone una apuesta de las empresas impulsoras por la mejora de las comunicaciones haciendo de internet algo mucho más rápido y ágil. Y es que Marea no es un cable más de esos que se encuentran en el fondo de nuestros océanos. Es el cable de mayor velocidad y capacidad creado hasta el momento.

Comunicaciones cifradas

Desde principios de 2017, Google ha venido avisando de la falta de seguridad en internet. Y lo que es más grave: los usuarios no percibían el peligro real que suponía entrar y, sobre todo, facilitar información personal en algunas páginas web.

Por ello, empezaron enero animando al cambio de protocolo. Pasar de HTTP al protocolo seguro HTTPS suponía en primer lugar el cifrado de la información que los usuarios pudieran proporcionar al sitio web. Algo fundamental en el caso del comercio electrónico, donde miles de personas facilitan sus números bancarios al realizar una compra. Para que las empresas se animaran a pasarse a HTTPS, el buscador ofrecía a cambio una mejora del posicionamiento.

Con la llegada de Chrome 62, el 1 de octubre, los casos en los que el buscador avisa acerca de la falta de seguridad de una página web se ampliaron. Actualmente, cualquier acción realizada en un ecommerce que no esté bajo HTTPS estará marcada con un ‘web no segura’. Igualmente, en el caso de la navegación en modo incógnito.

Y esto no acaba aquí. Google ya advirtió que el cambio sería progresivo hasta que todas las páginas web de internet fuesen HTTPS. Así que, en los próximos meses, los supuestos que harán de una web HTTP una página no segura, se ampliarán.

Para evitarlo, basta con instalar un certificado de seguridad SSL. La tecnología SSL, además de encriptar la información y hacer que una página web esté bajo HTTPS, ofrece otras ventajas para tus usuarios al demostrar que eres el propietario del sitio web y hacen visible que se trata de una página segura.

Si aún no has dado el paso a HTTPS, puedes contratar uno de nuestros certificados de seguridad SSL con renovación automática. De esta forma, tu web estará siempre protegida y la información de tus usuarios también.

Resultados más cercanos

Otra de las grandes apuestas de Google es la mejora de experiencia de sus usuarios. Por ello, la compañía ha realizado cambios en los resultados de búsqueda basándose en dos frentes.

Por un lado, a partir de ahora su ranking estará condicionado por el lugar en el que nos encontremos. Así, aquello de modificar la URL para parecer que estamos navegando desde una versión extranjera del buscador dejará de dar resultados. A partir de ahora ya sólo se nos mostrará contenido relevante para google.es.

Por otra parte está la apuesta por la tecnología AMP. Con el objetivo de reducir los tiempos de carga, uno de los aspectos mejor valorados por los usuarios, Google anima a contar con una versión AMP de nuestra página web. La recompensa, lo de siempre, aparecer mejor posicionados en los resultados de búsqueda.

Las no copias de seguridad

Que el usuario medio no acostumbre a realizar periódicamente copias de seguridad es algo grave. En caso de pérdida de datos no tiene forma de recuperar toda su información. Pero es mucho más grave que esto ocurra en empresas relacionadas con el mundo informático.

Aunque en el caso de GitLab no se trate exactamente de no contar con backups, sino de no haberlas probado antes de que ocurriera una desgracia. Y ocurrió a principios de febrero. La incorrecta ejecución del comando rm –rf, que borra archivos sin confirmarle al usuario si quiere eliminar esa información, provocó la pérdida de cientos de GB de datos en producción. Aunque muchos de esos archivos pudieron recuperarse, las consecuencias podrían haber sido menores y el problema resuelto en un menor período de tiempo de haber contado con copias de seguridad actualizadas.

Tanto el caso de GitLab como los ataques producidos por ransomware manifiestan la poca importancia que se les da a las copias de seguridad. Aunque sean muy necesarias para poder volver a un estado previo al ciberataque. Así que, si no acostumbras a realizar backup de todos tus archivos, no esperes a que llegue la desgracia. Recuerda que, en estos casos, las copias de seguridad y las actualizaciones del equipo son tus grandes aliados.

La nube se consolida

Las previsiones para el año 2017 en cuanto al cloud computing no se han equivocado. Y es que el año que se nos va ha sido el de consolidación de la tecnología cloud. El término cloud ha pasado a ser una palabra habitual en nuestro vocabulario. Especialmente cuando hacemos referencia a aspectos relacionados con la informática.

Hemos tardado casi una década en darnos cuenta de todas las ventajas que nos ofrece el cloud computing. Pero ahora no vamos a desaprovecharlas. En este tiempo se han unido a la nube todo tipo de compañías y negocios. Desde las empresas más pequeñas hasta las grandes multinacionales.

Para el próximo 2018 parece que el modelo cloud continuará creciendo. Debido a su flexibilidad, escalabilidad y alta disponibilidad son muchas empresas las que ya no contemplan otra forma de alojamiento.

Bye, Terra

Aunque muchos dejamos de utilizarla hace un tiempo, Terra ha estado entre nosotros dieciocho años. Casi dos décadas en las que el portal de internet más famoso de los países hispanohablantes fue nuestra puerta a internet. Incluso para muchos Terra también estuvo en su primera cuenta de correo electrónico.

Pero llegaron las redes sociales y poco a poco fueron haciéndole a un lado a un Terra que no estaba siendo capaz de soportar el paso de los años. A pesar de sus intentos por adaptarse a lo que los usuarios demandaban. Al final la plataforma acabó siendo rentable sólo en Brasil, país en el que aún sigue activa como web de noticias. A finales de junio la compañía anunciaba su fin en el resto de países de habla hispana.

Terra no está, Terra se fue y con ella nuestros primeros pasos en internet.

Zona Gaming

Los eSports están llamados a ser los sustitutos perfectos de los deportes reyes: el fútbol y el baloncesto. Y, por el momento, parece que los deportes electrónicos van por el buen camino. Aunque a muchos aún nos pille por sorpresa la cantidad de seguidores que hay detrás de este tipo de deporte, lo cierto es que este imparable fenómeno ya tiene sus años. La primera competición de deportes electrónicos data, nada más y nada menos, que de 1981 con Space Invaders. Su éxito reciente es tal que los eSports fueron propuestos y aceptados como deporte olímpico para 2024 siempre que cumplan una serie de requisitos.

2017 ha sido el año del despertar de la compañía japonesa Nintendo. A principios de año anunciaban la llegada de Nintendo Switch, una consola portátil, pero de formato casero. Y con la llegada del verano, la vuelta de uno de sus productos estrella en versión mejorada: la Nintendo Classic Mini (SNES).

También ha sido este año cuando nos han confirmado algo que ya veníamos sospechando: Mario ya no ejerce como fontanero. Desde hace algunos años el que ha sido el fontanero más famoso del mundo sólo se dedicaba a rescatar a la Princesa Peach. Sin duda, el mundo de las cañerías ha perdido una gran figura que ha ganado el mundo gamer.

La vulnerabilidad del Wi-Fi

El que hasta el momento es considerado como el protocolo de redes inalámbricas más seguro, WPA2, sufrió un grave fallo de seguridad. 2017 ha sido el año de la seguridad y los ataques informáticos, aunque en esta ocasión el exploit fue provocado por la comunidad para la investigación de seguridad en un intento por poner a prueba a WPA2. Como suele ser habitual, esto cundió el pánico ya que todos accedemos diariamente a diferentes redes Wi-Fi.

El fallo consistía en el acceso a nuestros movimientos. Nada que ver con la posibilidad de acceder a la contraseña del router de casa. La solución al problema era cosa de los fabricantes de los dispositivos. Pero una vez más podemos poner de nuestra parte navegando en webs seguras HTTPS. La información que pueda obtenerse de una web segura está siempre encriptada, por lo que quien acceda a ella no podrá hacer nada con los datos.

El tropiezo de la manzana

Hace menos de un mes, Apple sufrió el peor error de su historia reciente. El fallo en macOS High Sierra permitía a cualquiera acceder a todos los archivos del usuario que estuvieran en la máquina y contar con todos los privilegios de un administrador. Es decir, convertirse en usuario root sin necesidad de contraseña alguna. Por su parte, Apple procedió a solucionar el agujero de seguridad con la mayor brevedad. Si aún no te habías enterado de este gran fallo del sistema operativo, te aconsejamos actualizar el sistema para evitar cualquier riesgo.

Hasta aquí el resumen de 2017. Quién sabe qué nos deparará 2018…

Lenguajes de programación con los que iniciarse en 2018

Publicado en Desarrollo web en diciembre 20, 2017 10:03 am

Si acabas de aterrizar en el mundo de la informática es posible que sólo con ver la variedad de lenguajes de programación que existen te estés empezando a arrepentir de tu decisión. Es cierto que existen múltiples lenguajes de programación y que cada uno de ellos requiere un aprendizaje prácticamente exclusivo. Pero una vez dentro, verás que manejar líneas de código no es tan difícil como pueda parecer. Se acerca el nuevo año y sabemos que aprender programación puede ser uno de los propósitos para 2018. Por ello, hemos seleccionado algunos de los mejores lenguajes de programación con los que iniciarse.

Lenguajes de programación para 2018:

Code Studio

Es el lenguaje de programación desarrollado por code.org. La asociación sin ánimo de lucro que intenta visibilizar la importancia de aprender programación desde edades tempranas y que se convierta en una asignatura más en los colegios. Aunque esté especialmente orientado para niños, por sus características, puede ser una buena opción si jamás has trabajado con lenguajes de programación. El objetivo de Code Studio no es enseñar un lenguaje de programación como tal, si no proporcionar las bases para iniciarse en otros lenguajes más complejos.

Code Studio con su sencilla interfaz permite crear juegos y aplicaciones mediante combinaciones de bloques. La forma en que se ordenen los elementos provocará una determinada acción. Además, puede integrarse con HTML5, de forma que el resultado pueda estar disponible a través de casi cualquier navegador y pueda compartirse a través de las redes sociales.

 

Python

Sí, el nombre de este lenguaje de programación viene por la admiración de su creador, Guido van Rossum, por el grupo de humoristas británico Monty Python. Lanzado en 1991, este lenguaje de programación de código abierto apuesta por una sintaxis que pueda leerse con facilidad.

Con Python los resultados empiezan a verse de forma casi inmediata. De ahí que sea uno de los lenguajes de programación con la curva de aprendizaje más rápida. Además, permite probar fragmentos de código incluso antes de integrarlo. Algo que puede resultar de gran utilidad tanto a quien ya tiene conocimientos de programación como a los recién iniciados. Esto es así ya que Python permite corregir algunos errores antes de que la página web esté en activo.

Java

Posiblemente el lenguaje de programación con más teorías acerca del origen de su nombre. Java fue creado a principios de los 90 para el desarrollo de aplicaciones receptoras de televisión. Su sintaxis está muy relacionada con C++, aunque Java únicamente se orienta a objetos, salvo alguna que otra excepción, y clases.

Java es uno de los lenguajes con mayor crecimiento. En gran medida por ser compatible con casi todos los dispositivos; desde smartphones, a navegadores web, servidores o incluso aplicaciones de escritorio. A diferencia de los que algunos creen, Java apenas guarda relación alguna con JavaScript. No tienen mayor relación más allá del nombre y el uso de una sintaxis a la que también recurren muchos otros lenguajes de programación.

PHP

PHP es uno de los lenguajes de programación más utilizado tanto para el desarrollo web como en el funcionamiento de servidores actualmente. Pese a sus más de dos décadas de vida siguen incorporándose nuevas funciones. Las últimas en la versión 7.1 centradas en la reducción de consumo de recursos y mejorar el rendimiento de una página web o un servidor.

Algunas de las webs más famosas han sido desarrolladas con PHP, como Facebook o WordPress. Por lo que si tienes una página web que has desarrollado a partir de este CMS, tienes parte del trabajo hecho; además del mejor entorno para realizar pruebas. Eso sí, no te olvides de hacer una copia de seguridad antes de modificar nada. No vaya a ser que luego el experimento acabe saliéndote muy caro.

Nosotros te damos 5 ideas, elegir por qué lenguaje de programación te decantas es ya cosa tuya.

Symfony 4.0: “su mejor versión”

Publicado en Desarrollo web en diciembre 13, 2017 10:00 am

Symfony, el framework más completo para el desarrollo de todo tipo de aplicaciones web, lanza “la mejor versión de su historia”: el symfony 4.0. El proyecto fue lanzado hace más de 12 años para la creación de aplicaciones de Sensio programadas en PHP. Tras ser liberado bajo una licencia open source, presenta ahora su versión 4.0 gracias a la colaboración de la comunidad.

Symfony 4.0

Es el resultado de la modernización y adaptación del framework a las nuevas necesidades. Eso sí, manteniendo los conceptos de Symfony pero con una implementación mucho mejor. Algunas ‘ideas Symfony’ tradicionales se han sustituido por ideas más acordes con los estándares de la industria del software. Todo ello ha dado como resultado una versión que ofrece mejores resultados con menos trabajo. Symfony 4.0 requiere de un menor aprendizaje al ser mucho más intuitivo y las configuraciones son más sencillas. Así, las horas de programación de la aplicación se reducen para que el tiempo que antes dedicabas a Symfony ahora puedas emplearlo en otras tareas.

Entre las principales novedades que trae Symfony 4.0 destacan tres que simplifican la generación de código en el desarrollo de una aplicación y la automatización de algunas de las tareas habituales durante la programación con Symfony.

Symfony Flex

La nueva forma de instalar y gestionar componentes en aplicaciones desarrolladas con Symfony. Esta herramienta hace que instalar o eliminar dependendencias sea mucho más sencillo. Con Symfony 4.0 no será necesario buscar en GitHub cómo instalar bundles, componentes, librerías o cómo activarlas en el kernel de la aplicación. El plugin Symfony Flex se encarga de automatizar ese tipo de tareas a la hora de programar aplicaciones con Symfony.

Symfony Flex permite instalar y configurar componentes automáticamente a través de recetas. El propio plugin ofrecerá la opción de ejecutar esa configuración automática si detecta una receta en el componente que se quiere instalar. Además, se ha creado un nuevo archivo que evita la aplicación de una misma receta más de una vez. También se han eliminado los archivos Makefile y se han sustituido por Symfony Console. Además de que con Symfony 4.0 los bundles se registran de forma automática.

Symfony Make Bundle

Este bundle sustituye a un popular SensioGeneratorBundle. Un bundle que se estaba quedando obsoleto. El nuevo SymfonyMakerBundle se encarga de crear el código inicial (boilerplate code) necesario para la consola, los controladores o los formularios. De esta manera, eliminar el código inicial de la aplicación es más fácil que generarlo. Así, el código nuevo que tengas que crear se hará con un bundle más moderno, más sencillo y, sobre todo, mucho más ligero.

SymfonyMakerBundle deja atrás el uso del prefijo generate para implementar makers. Por el momento solo están disponibles algunos comandos simples. Aunque Symfony irá añadiendo nuevos incluyendo makers interactivos.

Aún más sencillo

Para hacer que la programación de aplicaciones con Symfony sea más sencilla e intuitiva, los directorios se simplifican. Con Symfony 4.0 todos serán de primer nivel y no existirán jerarquías entre ellos al adoptar una estructura plana.

Además, el tamaño de las aplicaciones se reducirá considerablemente. A partir de ahora sólo se instalarán las dependencias necesarias para poder desarrollar la aplicación. Así se evita tener que instalar todos los bundles y componentes de Symfony. Esto supondrá una reducción del 70% del código y de los archivos que requiere una aplicación desarrollada con Symfony 3. La versión 4.0 facilita el desarrollo de todo tipo de aplicaciones, desde microservicios a backends para aplicaciones en JavaScript, mediante el uso de un micro-kernel.

Al mismo tiempo que se publicaba Symfony 4.0 salía una versión anterior del framework: Symfony 3.4. Una versión que cuenta con las mismas funcionalidades de la rama 3.x pero que es imprescindible para poder actualizar tus aplicaciones a Symfony 4.0. Symfony 3.4 ha sido lanzada en versión LTS por lo que tendrá soporte hasta noviembre de 2021.

9 de diciembre, Día Mundial de la Informática

Publicado en General en diciembre 5, 2017 10:00 am

Como ocurre desde que en 1983 se produjera el Primer Encuentro de Profesionales Informáticos, cada 9 de diciembre se celebra el Día Mundial de la Informática. La elección de la fecha no es algo aleatorio, sino un homenaje a Grace Hopper. Una mujer pionera en el mundo de la informática nacida un 9 de diciembre de 1906.

Homenaje a Grace Hopper, la creadora del día mundial de la informática

La figura de Hopper es de gran importancia en el mundo informático. Esta científica de la computación fue la primera mujer programadora que utilizó el Harvard Mark I. Es decir, el primer ordenador electromecánico creado por IBM. Además, Grace Hooper es responsable del desarrollo del primer compilador. Además de participar en la aparición de los métodos de validación.

Pero, el Día Mundial de la Informática es también un homenaje a la disciplina en sí. Aunque no fue hasta 1957 cuando el informático Karl Steinbuch acuñase el término a partir de una palabra de origen alemán. Lo cierto es que se habla de la llamada Revolución Informática desde la invención de ENIAC. Este dispositivo fue el primer ordenador de propósito general en 1946.

Desde entonces, la informática pasó de ser una de las principales herramientas para ordenar información a instrumento de cambio en la vida y la forma de vivir de los ciudadanos. Sin ella, no hubiera sido posible desarrollar la WWW: la web. Ni tampoco los diferentes lenguajes de programación que pueden utilizarse hoy en día o los sistemas operativos.

La revolución de la informática

A nivel de uso cotidiano, los primeros cambios producidos por la informática se vieron materializados con la invención del teléfono. Y, unos años más tarde, con la aparición de la televisión. Actualmente la influencia se extiende a cosas hoy en día consideradas tan básicas como el almacenamiento seguro y siempre disponible de archivos en la nube. Así como a la aparición de las redes sociales y herramientas de mensajería instantánea como mejora de la comunicación. O también en la posibilidad de comprar a través de internet sin necesidad de desplazarse hasta una tienda física.

En el plano laboral, ha facilitado el trabajo en general al agilizar los procesos y mejorar el rendimiento y productividad. Pero también ha propiciado la aparición de nuevas formas de trabajo, como el teletrabajo. Esto no sería posible sin un ordenador y, a su vez, tampoco podría concebirse sin el nacimiento de la informática. Hablando de un caso concreto, la invención del ordenador y su popularización fueron capaces de generar más de 50.000 puestos de trabajo sólo en Estados Unidos.

De forma menos objetiva, la informática ha transformado conceptos tan básicos como el tiempo y el espacio. Ambos conceptos se han acelerado de tal forma que cada poco tiempo se producen grandes cambios que alteran la vida del hombre. Si antes de la Revolución Informática cualquier cambio tardaba años en producirse, actualmente esas variaciones se producen en períodos de tiempo mucho más reducidos.

Aún quedan más de 365 días para saber qué novedades traerá el Día Mundial de la Informática 2018. Seguramente relacionadas con la Inteligencia Artificial. Pero, hasta que consiga superar a la inteligencia humana, habrá que esperar un poco más.

Los resultados de búsqueda de Google estarán más relacionados que nunca con tu ubicación

Publicado en General SEO en noviembre 29, 2017 10:00 am

El buscador de internet más utilizado del mundo parece que no quiere ceder su reinado. Por ello, cada cierto tiempo Google nos sorprende con todo tipo de ‘mejoras’ que modifican los resultados de google. Los cambios van desde velar por nuestra seguridad al navegar por internet, hasta mostrarnos los resultados de búsqueda que considera más relevantes por nuestra ubicación.

En los últimos meses, la compañía se ha centrado principalmente en el uso de conexiones seguras bajo el protocolo HTTPS. Esto es posible gracias a la instalación de certificados de seguridad SSL en el servidor. Un SSL se encarga de encriptar la información que un usuario proporcione en un sitio web. Además, Google también ha sido una pieza fundamental en el desarrollo e implantación de HTTP/2. Un protocolo de comunicación que mejora considerablemente a su antecesor HTTP. También se han volcado en la creación de versiones AMP de nuestros sitios web. Una tecnología opensource que reduce los tiempos de carga en móvil con el objetivo de ofrecer una mejor experiencia de usuario. Algo que relega al diseño responsive a un ligero segundo plano.

Cambios en los resultados de Google

Su último cambio tiene apenas unos días. Esta vez, Google ha vuelto a centrarse en mejorar su sistema de búsquedas. A partir de ahora todos los resultados de búsqueda que obtengamos, en función de los términos que empleemos, estarán relacionados con el país en el que nos encontremos. Esto es, ya no será posible intentar navegar desde google.fr o google.pt porque el buscador sólo nos mostrará los resultados que considere relevantes y estén relacionados con google.es. Un cambio que la compañía afirma no tendrá ningún efecto en el resto de los servicios que ofrece. Asimismo, ha afirmado que algunas de sus aplicaciones, como YouTube o Google Maps, ya hace tiempo que recurrían a ello.

Pero, ya se sabe: hecha la ley, hecha la trampa. Ya no será posible cambiar la versión del navegador desde la URL, ni desde un ordenador ni desde un Smartphone, para parecer que navegamos desde otros países. Pero el cambio puede hacerse de forma manual. Dificultando de esta forma el acceso al buscador desde variantes extranjeras y condicionando los resultados de google de esta forma.

Este cambio en el sistema en que se muestran los resultados de búsqueda está estrechamente relacionado con el alojamiento de un sitio web en servidores que se encuentren en el mismo país al que se orienta la página web. En ambos casos, Google trata de mostrar la información más relevante para el usuario en función del lugar en el que se encuentra. De ahí que se prioricen en cuanto a posicionamiento SEO a aquellas páginas web ubicadas en servidores nacionales.

Permaneceremos atentos a ver con qué nos sorprende Google en los próximos meses. Su naturaleza le impide dejar de innovar. Bueno, su naturaleza y mantenerse como el navegador más usado del mundo, algo que no es nada fácil.

¿Qué es AMP y cómo afecta al SEO?

Publicado en Desarrollo web en noviembre 22, 2017 10:00 am

El presente y el futuro de internet se encuentra en nuestras manos o bolsillos. Cada vez se utiliza más el smartphone para acceder a internet, e incluso para realizar compras. De ahí que la red de redes se esté volviendo más móvil. Y es por ello que se ideó la versión AMP, con el objetivo de mejorar la velocidad de carga de una página web.

Cambios que trae la versión AMP

Para mejorar la experiencia de usuario al navegar desde su dispositivo móvil, a finales de 2015 se presentó el proyecto AMP: Accelerated Mobile Pages. Esta tecnología de código abierto impulsada por Google tiene como objetivo reducir los tiempos de carga de una web cuando se accede a ella desde un teléfono móvil. Así, se favorece una navegación mucho más ágil al acortarse la distribución de datos.

El estándar o versión AMP, no solo está pensado de cara al usuario. También busca ayudar a los desarrolladores web contribuyendo a la creación de sitios webs de carga prácticamente instantánea. De esta forma, la labor de optimización de una página se vuelve una tarea mucho más sencilla. Para agilizar este proceso, el estándar AMP se basa en tres elementos:

  • AMP HTML, que no es otra cosa que el HTML normal. Aunque con ciertas restricciones que hacen que compile mucho más contenido que el HTML básico. De esta forma la web ofrece un mejor rendimiento.
  • AMP JS, una biblioteca JavaScript que permite la aparición de las imágenes al momento. Esto es gracias a las mejoras que posibilita el AMP HTML.
  • Google AMP cache de las páginas AMP HTML que permiten un acceso más rápido a la web.

De esta forma, se elimina el contenido superfluo reduciendo los elementos a únicamente texto e imagen. El estándar AMP es de gran utilidad para algunas webs, especialmente si generan mucho y constante contenido. Como pueden ser portales de noticias o blogs, pero no en el caso de tiendas online. Ya que al reducirse al máximo los elementos de la página no permite realizar algunas acciones de lo más básicas. Si una tienda online utilizase AMP no sería posible, por ejemplo, añadir productos en el carrito de la compra. Además, por su sencilla apariencia requiere de la creación de botones que capten la atención del usuario si queremos que realicen alguna acción dentro de la página.

Cuidar al usuario

La apuesta por el estándar AMP es, unido al aumento de la seguridad, otro de los movimientos de Google por mejorar la experiencia de usuario. Recomendaciones realizadas por el buscador que, de seguirse, tendrán un efecto directo en el posicionamiento SEO. Desde hace ya algún tiempo, el buscador viene priorizando en los resultados de búsqueda aquellas webs que cuentan con un diseño responsive. Y lo mismo ocurre con las páginas web con AMP. A la hora de mostrar los resultados, los sitios web AMP aparecen entre las primeras posiciones. Podrás identificar las webs AMP por tener el icono de un rayo. Por lo tanto, el hecho de que nuestra web sea compatible con AMP beneficiará a nuestro SEO pero únicamente en las búsquedas móviles. Aquellas búsquedas realizadas desde un ordenador permanecerán igual.

Si tu página web está desarrollada en WordPress, puedes hacerla compatible con el estándar AMP instalando un plugin. Así, se reducirán el número de elementos que componen tu web y, de esta forma, el tiempo de carga no será un factor penalizable a la hora del posicionamiento SEO.

SLA, ¿qué significan estas siglas?

Publicado en Cloud Computing en noviembre 15, 2017 10:00 am

Cada vez son menos las compañías que no tienen presencia online; que internet es el presente (que ya no futuro) de cualquier negocio, no es ninguna novedad. Seguramente pertenezcas a esa mayoría de empresas que se encuentran en la red y conozcas los SLA, los certificados ssl o el funcionamiento del plnel de control Plesk. Incluso es probable que en los años que lleves operando hayas cambiado al menos una vez de proveedor de alojamiento. O, por el contrario, también puede ser que simplemente no tengas muchas idea o que estés buscando el primer alojamiento a tu nuevo sitio web.

Si tu caso es alguno de estos, lo más normal es que estés comparando entre diferentes proveedores de alojamiento web para dar con el que mejor se adapte a tus necesidades. En esta búsqueda, tendrás que considerar factores como el precio, el lugar en el que se ubican los servidores, el tipo de alojamiento: servidores físicos o cloud computing o los discos utilizados. Sin olvidar si incluye o no, servicios adicionales como la realización de copias de seguridad.

El Acuerdo de Nivel de Servicio

Entre tanta información seguramente haya una palabra que no deje de repetirse en las características de los diferentes proveedores: SLA. Algo que si no estás familiarizado con el mundo del hosting lo más seguro es que no sepas qué es. Y, por ello, puede que no sea uno de los factores que te hagan decidirte por una u otra empresa. Algo que puede suponer un gran error. Prestarle atención a estas siglas puede ahorrarte algún que otro problema en el futuro.

SLA son las siglas de service level agreement, o acuerdo de nivel de servicio. Un documento escrito entre el proveedor del alojamiento y el cliente. En él se establecen los términos y condiciones de un servicio informático. Y, además, constituyen una de las formas más objetivas de poder medir el servicio prestado.

Características del SLA

Generalmente en el SLA se habla de la disponibilidad (tiempo que el servicio está disponible en internet) y de los tiempos de respuesta del servidor. Pero también se especifica en qué casos, y en cuáles no, la compañía se hace cargo de las caídas del servidor. O cómo se verá recompensada la falta de calidad del servicio ofrecido. Un aspecto muy importante si el proveedor por el que nos decantamos acaba sufriendo algún tipo de problema que provoca la caída del servidor.

Teniendo esto en cuenta, es innegable que prestar atención a los SLA es imprescindible a la hora de contratar cualquier servicio de alojamiento en internet. De esta forma, nos aseguraremos de que la opción elegida sea la más adecuada. Tomar una decisión de esta índole por aspectos púramente económicos no suele ser la opción más rentable; considera otros aspectos igual de importantes.

¿Tienes cualquier duda al respecto? o ¿ya te has decidido por un plan de hosting que se amolde a tus necesidades? En Linube estamos siempre a tu completa disposición.

¿Qué es el protocolo TCP?

Publicado en General en noviembre 8, 2017 10:00 am

En los inicios de internet toda la comunicación era unidireccional. Es decir, se conocía quién era el emisor de la información, pero no la persona ni el dispositivo que pudiera recibirla. Para mejorar las comunicaciones y hacerlas bidireccionales, a mediados de los años 70 Vint Cerf y Robert Kahn desarrollaron el llamado protocolo TCP.

TCP o Protocolo de Control de Transmisión, es un protocolo de internet encargado de informar del destino de los datos, permitiendo la creación de conexiones seguras. Desarrollado entre 1973 y 1974, TCP continúa siendo a día de hoy uno de los protocolos fundamentales en internet. TCP sirve, además, como soporte a muchas de las aplicaciones y protocolos que han surgido después.

El protocolo TCP es una forma segura de intercambio de datos al requerir de la autorización entre cliente y servidor, o emisor y receptor, antes de que se produzca la transferencia. Una vez ambas partes hayan autorizado la transmisión, podrá iniciarse el envío y recepción de datos.

Cómo funciona el protocolo TCP

TCP tiene un funcionamiento muy sencillo que consta de tres fases. En la primera, se establece la conexión con la autorización de ambas partes. Entonces se produce un procedimiento denominado ‘negociación en tres pasos’. A continuación, se inicia la transferencia de la información. Aquí, se establecen cada uno de los parámetros para que el intercambio sea ordenado, correcto y, sobre todo, seguro. Por último, mediante una ‘negociación en cuatro pasos’ se finaliza la conexión entre cliente y servidor.

En el protocolo TCP los datos se entregan en el mismo orden en el que se enviaron. Además de la ya mencionada seguridad de la transmisión. Para ello, el protocolo TCP divide la información en diferentes paquetes. Ca uno de ellos se enviará por la ruta más rápida hacia su destino. Así, con una separación en capas, identificar de dónde proviene el tráfico es mucho más fácil. A la vez que se evita la saturación de la red. Además, sirve de capa intermedia entre una aplicación y el protocolo IP. Supliendo así las carencias de seguridad que muestra el protocolo de red.

El protocolo TCP sirve también como mecanismo que permite diferenciar las aplicaciones, ya sean emisoras o receptoras, dentro de una misma máquina utilizando para ello el concepto puerto.

A pesar de tener ya más de cuatro décadas, el protocolo TCP sigue empleándose en todas las comunicaciones que se producen en la red de redes: internet.