Tecnología

facebook facebook twiter youtube alexa
Hemeroteca - Periodico Correo
Clima-Gto     Guanajuato
 Principalmente Nublado  /  23° C
Clima-Leon     León
  Principalmente Nublado  / 19° C  
Clima-Celaya     Celaya
  Principalmente Nublado /  20° C
Clima-irapuato     Irapuato
  Principalmente Nublado  /  19° C
Clima-Salamanca     Salamanca
  Principalmente Nublado  /  19° C
Clima-SMASan Miguel de Allende
  Principalmente Nublado  /  19° C
Inicio | Tecnología |

Hay más robots que humanos en Internet

Por cada usuario conectado hay un bot “bueno” y otro “malo”

Foto: Especial

Tamaño de letra: Decrease font Enlarge font
/

 

MÉXICO, D.F.- En 2013, el 61.5 por ciento del tráfico global en Internet no fue realizado por humanos. Así lo afirma un estudio de Incapsula, una empresa de seguridad virtual que realizó un muestreo de 20 mil sitios representativos en el mundo. A más de uno le sonará a fraude, spam y trolls, pero no todo es tan malo.

Todos tenemos la culpa

Pensemos en herramientas usuales: ¿Qué hay detrás de Google que indexa y ordena millones de páginas web diariamente para que podamos navegarlas cómodamente? Un robot. ¿Qué hay detrás de sitios como HootSuite o Buffer que nos permite programar por adelantado varios tuits o publicaciones de Facebook? Un robot. ¿Qué hay detrás de las “Alertas de Google” que nos llegan automáticamente a los correos electrónicos cuando alguien menciona ciertas palabras? Un robot. No son robots humanoides de metal, sino más bien unas cuantas líneas de código conocidos también como “bots”, pero cada vez son más importantes.

¿Quiénes navegamos en Internet?

Tal vez no son C3PO ni R2-D2 (los dos famosos androides que aparecen en la saga de Star Wars), pero los robots ha aumentado en los últimos años y por cada humano hay dos robots, uno bueno y uno malo: • Tráfico humano – 38.5 por ciento: Se trata de las páginas consultadas directamente por seres humanos. Cuando navegamos por las fotografías de un amigo en Facebook; cuando leemos las noticias en un periódico en línea; cuando platicamos por un mensajero instantáneo. • Robots “buenos” – 31 por ciento: Se trata de software programado para beneficio de los humanos. Principalmente se trata de algoritmos de motores de búsqueda (como Google) que visitan las páginas web para indexarlas, categorizarlas y jerarquizarlas. También se encuentran ahí los programas de automatización (como HootSuite) y algunos servicios de optimización para buscadores (SEO) que continuamente monitorean ciertas páginas. • Robots maliciosos – 30.5 por ciento: Hay una variedad inmensa. Los scrapers suelen duplicar contenidos sin permiso para beneficio de un tercero.

Las herramientas para hackeo roban información privada o confidencial. Los spammers publican infinidad de anuncios o enlaces que pretenden promocionar algo de manera poco ética. Los impersonators o imitadores se hacen pasar por usuarios legítimos para robar información o colapsar un sitio web. Y hay muchos, muchos, más.

¿El "Internet de las cositas"?

Desde hace unos años, se habla de que el futuro de la red es el “internet de las cosas”. El término hace referencia a que cada vez será más frecuente que un gran número de objetos se conecten a la red sin necesidad de que un humano las maneje. Por ejemplo, será posible que los autos conectados a la red calculen automáticamente la mejor ruta en el tráfico sin necesidad de que una persona se los pida. Los “Google glasses” también proponen interacciones automáticas a través de las gafas de realidad aumentada sin que la persona pida información directamente.

Sin embargo, en The Atlantic son un poco críticos de esta postura, pues al respecto del estudio de Incapsula, publicaron un artículo titulado “Bienvenidos al Internet de las cositas”. La idea, como es posible adivinar, es que por el momento no se están conectando a la red esas “cosas” realmente útiles como los autos o los Google Glasses. Al menos en el 2013, lo que se conectó a Internet fueron simples “cositas”, diminutas líneas de código que casi cualquier persona puede programar o contratar. Como ejemplo ponen el software Ubot Studio.

Se trata de un servicio que permite automatizar tareas sin tener que saber cómo programar. Se vende como un sistema de marketing que permite aumentar el potencial de las empresas. ¿Cómo? Usando robots, por supuesto. Si uno desea aumentar el número de páginas vistas de una empresa, sólo se configura un algoritmo que visite una página diez, cien, mil o millones de veces. Y listo. Sin ningún esfuerzo se pueden inflar estadísticas de uso, visitantes, etcétera. Es un servicio de pago, pero el paquete básico cuesta 245 dólares, un precio que casi cualquier empresa, político o personalidad puede pagar.

¿Qué podemos hacer?

Tendremos que acostumbrarnos a convivir con los robots (buenos y malos), pero sobre todo procurar usarlos para cosas realmente útiles. ¿De qué sirve que una empresa infle el número de visitantes a su página web? ¿Para qué quiere un político tener millones de seguidores falsos en Twitter? ¿Por qué una agencia de relaciones públicas recurriría a trucos tan bajos como usar robots que publiquen falsas notas de prensa para simular mayor repercusión mediática? Suenan a disparates, pero son prácticas comunes. Poco a poco nos toca aprender que en el fondo el contenido sigue siendo lo más importante. Los robots nos ayudan en muchas cosas. ¿Qué sería de nosotros sin el algoritmo de búsqueda de Google? Pero de nada serviría ese gigantesco buscador si no hubiera contenido que buscar.

Por seguir los ejemplos: En vez de cantidad, las empresas deberían perseguir la calidad de interacción con sus usuarios. Los políticos deberían privilegiar la conversación real y efectiva con sus seguidores. Las agencias de relaciones públicas deberían apoyar a medios que realmente construyan historias periodísticas y fidedignas en vez de propaganda. Los robots no son un problema. El problema es que los usemos para reproducir vicios del pasado.

 

Califica este artículo
0

Más de Tecnología

  • disqus
  • facebook