Cuando se habla en aumento de las tasas de conversión en el e-commerce, el test AB (o A/B Testing) es una de las herramientas más recomendadas.
Con una metodología sencilla de aplicar, los tests AB permiten entender las preferencias de los consumidores virtuales y los triggers que los hacen convertir más.
Se pueden realizar experimentos en el texto de un botón de Call-to-Action, en una imagen del home de la tienda, en la diagramación de la página de producto; finalmente, cualquier modificación en un punto de interacción con el público surte efecto en las ventas.
Pero, ¿de verdad vale la pena empezar a probar las páginas de su e-commerce? ¿Esto ya ha aportado resultados concretos para otras empresas?
Es lo que entenderemos mejor en este texto. Hablaremos sobre la importancia del test AB y mostraremos 8 casos reales de aplicación de esos experimentos. ¡Acompáñenos!
¿Conoce alguna página de un sitio web o tienda que tenga el 100% de tasa de conversión? Puede buscar cuánto quiera, pero usted no encontrará siquiera un ejemplo de perfección.
Mientras no haya una página con el 100% de aprovechamiento, los tests AB siempre serán necesarios. A fin de cuentas, las conversiones siempre pueden mejorar.
Todo es una cuestión de entender qué hace más agradable la experiencia de compra para el cliente. Y esta respuesta la de la el propio público, ya que los resultados de esos tests se derivan en función de las acciones de los visitantes en el sitio.
Es esto que hace tan eficiente el test AB. Son muestras con cantidades similares o idénticas de personas reales siendo probadas al mismo tiempo. No hay “opiniones personales”, sino que es un experimento empírico.
Ya que estamos hablando de datos reales, traeremos algunas estadísticas que comprueban la eficiencia y la popularidad de esos tests. Se removieron los números del informe Conversion Rate Optimization Report 2015, hecho en alianza por las empresas Econsultancy y RedEye. Compruébelo:
Si los datos ya han dado una idea de cómo son importantes tests AB, ha llegado la hora de reforzar ese argumento usado casos reales de aplicación de ese método.
Para ello, hemos seleccionado 8 ejemplos. Compruébelo:
En el home de la tienda oficial de las Olimpíadas de Invierno de Vancouver se hizo un test AB. En la versión A, además de las ofertas principales ocupando la mayor parte de la pantalla, había una barra lateral con los productos en destaque. En la versión B, esa barra lateral no existía.
El resultado fue como sigue: la primera versión presentó una tasa de conversión el 22% mayor que la segunda.
Ese destaque en los productos fue bueno para los consumidores que necesitaban una referencia sobre qué ofertas adquirir.
Un test realizado en el sitio web de la tienda California Closets comparó dos modelos de texto de una landing page.
La versión A tenía una llamada más específica y que complementaba el texto del anuncio que llevaba los visitantes a aquella página. Y la versión B tenía un título más abierto y dirigido a cualquier persona que llegaba a la página.
Por el hecho de la versión A ser más segmentada y por combinarse más con el anuncio, su ganancia sobre la versión B fue del 115% en el número de llamadas telefónicas — que era la métrica analizada en el test.
En este test realizado en el sitio WikiJob, el propósito era comprobar el impacto que los comentarios de otros clientes tendrían en las ventas.
Para ello, se preparó una versión A, sin los testimonios de los clientes, y una B, con los testimonios.
El resultado fue previsible: aumento del 34% en las ventas para la versión B. Esto muestra cómo son importantes para el público las pruebas sociales.
En un test hecho para una tienda de joyas, se comparó el desempeño de una página de producto en la que se mostraba el precio con los ceros de los centavos y otra página sin esos ceros.
La versión A mostraba $19 y la versión B exhibía $19,00.
El equipo de la agencia que llevó a cabo ese experimento esperaba que los consumidores de joyas pudieran pensar que acortar el precio indicaría que el producto costaría menos.
¡Y tenían razón! El ingreso por visitante en el sitio fue el 47% mayor. Además, hubo un incremento del 9,7% en las adiciones en el carrito.
Las campañas de remarketing son muy comunes en el e-commerce, ¿cierto? Entonces, los tests AB también pueden aplicarse a esas estrategias.
Para que usted tenga una idea, hemos separado un experimento hecho en una campaña de la operadora de telefonía Vodafone.
Se hizo el test sobre un e-mail de recuperación de carrito abandonado. En la versión A, el texto del botón de CTA era “Go back to Vodafone.nl”; en la versión B, “Complete order”.
La segunda versión, por ser más objetiva (lleva el consumidor a volver al punto en el que se había detenido), generó una ganancia del 20% en la tasa de clics.
En un experimento hecho en la página inicial del e-commerce Tafford, se puso a prueba la preferencia del público por estilos de imágenes.
En la versión A, había un banner con dos imágenes de ropas en destaque, mientras que otros dos cuadros del mismo banner no tenían fotos de ropas. En la versión B, había imágenes de piezas en todos los cuadros del banner.
El resultado del test fue favorable a la versión A: + el 13% en ventas. Un visual más limpio puede haber hecho que las personas siguieran por ese camino.
En otro caso parecido, pero en la tienda Frontlineshop, el elemento cambiado fue el fondo de una imagen que tenía un zapato como destaque.
En la versión A, un fondo negro; en la versión B, un fondo blanco. El primer modelo fue el ganador con una ventaja del 30% más en los clics en relación al segundo.
Además del contraste favorecer el producto, el público era de un perfil al que le gustaba más el color negro, que transmite una sensación de sofisticación a la zapatilla.
La tienda Express hizo un experimento probando dos modelos de páginas iniciales para su sitio web.
La versión A destacaba una mujer en el home, un CTA que llamaba para comprobar las ofertas para el público femenino y un menú con las demás categorías.
La versión B optó por la segmentación. En un visual más sencillo, la pantalla fue dividida en dos: una mujer de un lado y un hombre del otro. La idea era segmentar los accesos que llegaban por home del sitio, haciendo que cada visitante eligiera su camino.
Si bien la segunda parece tener más sentido, ´fue la primera versión que mantuvo los buenos resultados. El modelo B, que ofrecía la segmentación como primer paso, derrumbó los pedidos en más del 10%.
Pero, ¿por qué ha ocurrido esto? La respuesta puede estar en el hecho de que las personas quieran caminos más cortos hacia la compra. Cada obstáculo colocado puede desanimar el público.
Las estadísticas y los casos reales muestran cómo el test AB es un método eficiente para los e-commerces. Si consideramos que las conversiones siempre pueden mejorar un poco y que cada elemento dispuesto en una pantalla hace diferencia en las decisiones de los clientes, la inversión en ese tipo de experimento se vuelve válida. A fin de cuentas, sin hacer pruebas, usted no sabrá qué hace que sus visitantes conviertan en su tienda.
Entonces, para hacer que más personas sepan cómo el test AB ya aportó resultados positivos para otros e-commerces, ¡comparta este artículo en sus redes sociales!