26. febrero 2018

Tests A/B: probar, medir, comparar y optimizar

Cualquiera que esté metido en un negocio online sabe que atraer tráfico de calidad a sus páginas es un reto complejo. Y que todavía lo es más convertirlo en seguidores, compradores o lo que sea que nos hayamos propuesto. Lograr que alguien que nos visita haga el paso que pretendemos depende de muchos factores: que ofrezcamos lo que quiere, sí, pero también que tenga una buena experiencia de usuario, que nuestro mensaje le llegue con claridad y sea acorde a sus expectativas o que nuestro sitio le inspire confianza, entre otros factores.

Desde luego que diseñadores y programadores, guiados por su instinto y por su experiencia, tratan de dar en el clavo desde el principio. Pero como no existen fórmulas infalibles ni esto es una ciencia exacta, solo queda recurrir a lo que sí es cuantificable: medir y cotejar qué funciona mejor.

Esa es exactamente la función de los tests A/B. Gracias a este tipo de pruebas podemos tomar decisiones basadas en datos reales y no en elucubraciones.  La técnica consiste en hacer distintas versiones de una web, una app, una plataforma, un anuncio, etc. y después analizar cuál de ellas es más eficaz para el objetivo fijado.
Para que un test A/B funcione y no dé lugar a errores de percepción o lecturas equivocadas es muy importante establecer claramente la métrica de éxito. Es decir, que identifiquemos bien el problema que queremos solucionar, pongamos a prueba  una hipótesis para resolverlo y veamos si los datos la confirman o desmienten. Así, si por ejemplo percibimos que mucha gente no completa el registro en nuestra página, podemos deducir que tiene demasiados pasos y presentar a los usuarios una versión abreviada. Si en lo sucesivo aumentan los registros de forma notoria, podremos concluir que, en efecto, habíamos complicado de más el proceso y que el nuevo método es mejor. Es decir, hay que poner un foco concreto, y no uno vago y genérico y que difícilmente nos permitirá concluir nada.

 A/B TESTING y sus resultados.

Resultados que nos dejan boquiabiertos…incluso con cambios pequeños.

TESTs A/B UX

Hacer este tipo de pruebas es uno de los servicios más comunes que damos a nuestros clientes. Pero, como es obvio, no solo confiamos en los test A/B cuando sacamos productos para terceros, sino que somos los primeros en servirnos de ellos. De hecho, tenemos un ejemplo muy reciente y que da toda la medida del potencial que tienen para mejorar nuestras perspectivas.

En nuestro caso lo que queríamos era saber si una disposición distinta de los elementos de nuestra web nos llevaba a conseguir más registros para la newsletter en la que informamos de todo lo relacionado con el proyecto de GlucoNightWatch.
Con esa finalidad, confrontamos dos diseños. Uno, el original, en el que ofrecíamos bastante información del proyecto antes de incluir a media página un recuadro para registrarse. Y otro en el que ese mismo recuadro aparecía arriba de la página, justo detrás de una sinopsis de lo esencial del producto. Tras comparar las suscripciones que obteníamos con uno y otro modelo vimos que con la segunda versión habían crecido un… ¡1500%!

Desde luego, es un caso muy acusado de éxito y no siempre veremos  variaciones tan espectaculares. Pero, incluso así, cualquier oscilación significativa nos señalará que hay una opción mejor y otra no tan buena. Además, esta experiencia también pone sobre la mesa otro hecho: cuando hablamos de tests A/B no tenemos que pensar forzosamente, ni mucho menos, en grandes y costosas recombinaciones para llevar a cabo los ensayos. Puede que se trate de algo tan sencillo como cambiar unos botones de lugar, seleccionar otras palabras clave, elegir otra paleta de colores, modificar el texto de un menú o mover una caja de texto de un sitio a otro para observar lo que sucede.

Otra cosa que hay que tener en cuenta es que los test A/B, pese a su nombre, no son siempre la confrontación de dos versiones, sino que pueden ponerse frente a frente todas las que consideremos necesarias e ir depurando  aspectos de las mismas hasta llegar a la óptima.

Un caso clásico es el de la publicidad online. Sin salir de nuestro ejemplo, al hacerla campaña de adwords para dar a conocer GlucoNightWatch y atraer tráfico de posibles suscriptores e interesados, probamos muchas variantes en las que cambiaba el título, la entradilla o el texto: en algunas figuraba solo el nombre de nuestro producto y en otras se privilegiaba el término FreeStyle Libre, que es el del sensor de glucosa más extendido del mercado y con el que funciona el brazalete Smart que hemos diseñado. A veces hemos usado la expresión 24h. y otras 24/7. Y así un largo etcétera.

Lo bueno es que a fuerza de ir controlando los resultados -clics, coste por clic, conversiones, coste por conversión- vamos eliminando los anuncios demasiado caros o ineficaces y mantenemos aquellos que mejor relación coste-resultado nos han dado. Y, además, en el proceso obtenemos también información valiosa sobre las palabras y términos que atraen más a nuestro público, de modo que podemos adaptar los textos de nuestra web para que tengan un contenido  más ajustado a sus búsquedas.

Por supuesto habría mucho que precisar sobre toda la cuestión. Hay distintas formas de  testear (por ejemplo, en test web hay que estudiar si se distribuye el tráfico a dos URLs distintas, para que unos vean una versión y otros otra, o sencillamente se reemplaza la nueva página por la anterior, etc.) y no se hacen del mismo modo para una web que para una app. También hay tests A/B más delicados y complejos (por ejemplo, si se comparan ventas con dos precios distintos) y otros que, como hemos mostrado, son relativamente sencillos de llevar a cabo.
Pero esa es la parte que puedes dejar en nuestras manos: como siempre, nuestra política es que nos cuentes el problema, para que nosotros investiguemos y diseñemos la mejor solución.

TESTS A/B UX
Navilo