Usamos cookies. Tienes opciones. Las cookies nos ayudan a mantener el sitio funcionando sin problemas e informar sobre nuestra publicidad, pero si deseas realizar ajustes, puedes visitar nuestro Aviso de cookies para más información.
Utilizamos cookies propias y de terceros para analizar su actividad en el sitio web con el objetivo de enviarle publicidad personalizada y mejorar el funcionamiento de la web. Puedes aceptar todas las cookies pulsando el botón “ACEPTAR” o seleccionarlas en función de su funcionalidad pulsando el botón “AJUSTES”.
×

¿Qué es Quality Assurance?

La analítica web proporciona datos acerca de tu página web, sus usuarios y la relación que existe entre ellos. Permite entender qué aspectos funcionan y cuales no, y predecir (hasta cierto punto) qué va a funcionar, qué no y por qué. Y para conseguir datos coherentes y de calidad, hace falta una recolección de datos de calidad.

Lo anterior es, a estas alturas, evidente para todos los lectores asiduos de este blog, pero hoy se hablará de un aspecto que, en ocasiones, se deja en un segundo plano de forma inmerecida: el Control de Calidad, o Quality Assurance (QA).

¿Por qué Quality Assurance?

Un despliegue incorrecto de la solución de recolección puede resultar una pérdida de datos o, aún peor, datos erróneos. En el mejor de los casos, esto implica un proceso de detección y solución del problema, con el coste en tiempo y esfuerzo asociados. En el peor de los casos, datos incoherentes pueden pasar desapercibidos, dando lugar a conclusiones falsas en el proceso de análisis.

Esta situación inspira pánico en cualquier analista digital, porque da lugar a una pérdida de confianza en el dato, algo que, igual que el six-pack, es fácil perder pero difícil de recuperar. Y si el dato no es fiable, su obtención y análisis fue una pérdida de tiempo.

De ahí la importancia de un proceso de control de calidad efectivo, que minimice los errores en el despliegue y garantice una calidad del dato adecuada. En la práctica, esto se lleva a cabo principalmente mediante validacionestema algo que ya hemos visto anteriormente en este post y sobre validación con Charles Proxy en este otro post.

La calidad y alcance de las validaciones repercute directamente en la salud futura del sistema de medición. Es un proceso manual, costoso y repetitivo, pero, sobretodo, necesario si quieres ahorrar problemas en el futuro. Un problema añadido es que las páginas web cambian y evolucionan con el tiempo; cualquier cambio puede afectar a la medición de forma inesperada. Idealmente, habría que realizar un seguimiento periódico para comprobar que todo funciona como debería y poder tomar medidas lo antes posible si no es así.

Peor aún: en la práctica, hacer una validación verdaderamente exhaustiva a mano es inabarcable. Verificar cada tag en cada web de tu site, cada parte de la medición en cada navegador, caso responsive y no responsive, nueva funcionalidad en la web o cambios en su diseño, cambios en un sitio que “rompen” alguna otra cosa inesperadamente y un sinfín de otras posibilidades, hacen necesario decidir el alcance de las validaciones. Es por ello que hay que encontrar un equilibrio entre su nivel de detalle (coste) y el valor de tener garantizado su funcionamiento correcto (beneficio), y asumir que tarde o temprano va a aparecer alguna que otra incidencia.

Y eso, ¿no puede hacerlo otro?

Aquí se nos puede ocurrir la idea de automatizar este proceso. Para inspirarse, uno puede mirar a un mundo en el que este entorno está muy maduro: el del desarrollo software. En bases de código que cambian continuamente, es común que no sólo se realicen builds varias veces al día para comprobar la validez del código, sino también test unitarios, test regresivos, test de aceptación y un largo etcétera, haciendo uso de entornos virtuales dedicados, creados bajo demanda para simular el funcionamiento real de la aplicación.

Esto puede parecer demasiado, pero está claro que algunas ideas pueden aplicarse a nuestro entorno, mediante tecnologías de automatización de navegadores. En concreto, puede resultar interesante distinguir dos aspectos:

  • Garantizar que los tags funcionan correctamente en todas las páginas del site.
  • Verificar la coherencia entre el dato recolectado y la capa de datos creada.

Hay varias herramientas en el mercado que cubren el primer punto de una manera u otra. El punto más complicado es el segundo, porque se reduce, en definitiva, a diseñar test que verifiquen aspectos concretos de la medición (cuando el usuario interactúa de esta manera con mi web, deberían recolectarse estos datos, y no otros). Diseñar y desplegar estos test puede ser una tarea compleja, que requiere unos conocimientos técnicos mínimos. E igual que con las validaciones hechas “a mano”, llega un punto en el que no merece la pena invertir más recursos en mejorar el alcance del control de calidad.

Saber con seguridad cuál es ese punto, sin embargo, es otra historia y es totalmente dependiente del caso particular de cada uno. No obstante, está claro que no prestar la atención que merece a la validación de los datos puede dar lugar a la reimplementación de código en el futuro o, aún peor, repercutir en la calidad y coherencia del dato.

Y tú, ¿cómo te aseguras de la calidad de tus datos?

 

En nuestra compañía