Archivo de la categoría: analítica web

La importancia del porcentaje de rebote a la hora de diseñar una landing page

Escrito originalmente el 19/07/2011: Una landing page, página de aterrizaje en castellano, es la página de una web en la que se trata de realizar la conversión (venta, registro…) marcada como objetivo.

Como es lógico, un buen diseño es clave para aumentar el ratio de conversión y lograr de este modo aumentar los beneficios de un proyecto.

Pero hay que tener una cosa clara a la hora de construir landings: la forma en la que se captará tráfico para ella. Y es que, como es lógico, antes de construir páginas de aterrizaje habrá que tener en mente como se les suministrará tráfico, porque si nadie las visita es “de cajón” que no habrá conversiones.

Y todo lo anterior viene por la importancia cada vez mayor de la métrica del porcentaje de rebote (porcentaje de usuarios que una vez han llegado a una página la han abandonado sin visitar ninguna otra página de la misma web).

A la hora de construir landing page eficaces muchos expertos recomiendan cerrar al máximo las fugas, eliminando la mayoría de los enlaces que no lleven a la conversión final, pero esa estrategia no dejará al usuario, prácticamente, otra opción que “comprar o escapar”, lo cual hace, y te lo digo por experiencia, aumentar considerablemente la tasa de rebote.

Lo anterior será contraproducente para nuestra landing, por ejemplo, tanto si tratamos de captar tráfico para ella a través de SEO o PPC (al menos para AdWords), ya que aumentar el rebote es perjudicial en ambos métodos de captar tráfico.

¿Soluciones? En mi caso, como para la mayoría de mis proyectos trato de captar tráfico a través del SEO, utilizo páginas intermedias. Es decir, trato de captar tráfico a través de páginas en las que hay diversos enlaces que llevan a las landing page donde realizar las conversiones, en las cuales cierro al máximo las fugas.

Pero si captas tráfico por otros métodos, como el email marketing, un porcentaje de rebote alto no será un excesivo problema.

Actualización 14/06/2013: Han pasado casi 2 años desde que escribí este post, pero creo que debo actualizarlo.

Somos muchos (creo) los que en la actualidad defendemos que conseguir reducir el porcentaje de rebote que ofrece Analytics (métrica no tan sencilla de interpretar como parece a priori) no ayuda a posicionar mejor en Google.

¿Significa esto que Google no tiene en cuenta el comportamiento del usuario en nuestras páginas? Para nada. Simplemente se sospecha (en estos temas nunca se pueden hacer afirmaciones categóricas) que lo que mide Google es el tiempo desde que envía una visita a una página y ese mismo usuario vuelve al buscador. Lo expliqué con algo más de detalle aquí (Dwell time).

¿Invalida esto último todo el post? Para nada. Usar tácticas para mejorar el rebote Analitycs posiblemente ayudará a mejorar el Dwell time. Simplemente quería dejar constancia de que nadie debería esperar una “causa efecto” entre mejoras en dicha métrica de Analitycs y mejores “rankeos” en G.

No profundizo más, porque para ello ya está este recomendable post de ikhuerta.

 

El imparable ascenso del not provided y su influencia en la analítica a corto plazo

Asumo que la mayoría de la gente que se pasa de vez en cuando por este blog es webmaster o similar, por lo cual conocéis de sobra la polémica del not provided. Si queda algún despistado, que eche un vistazo por aquí para “ponerse al día”.

Antes de seguir con este post, muestro un pequeño gráfico que demuestra el imparable ascenso de los datos not provided en Google Analytics.

fundacion dedalo
En el gráfico se representa el % de palabras clave señaladas como not provided en relación con el total del tráfico aportado cada mes por Google a una de mis páginas web. Creo que esta forma es la mejor para darnos cuenta que está pasando en lugar de otros gráficos que he visto en el que se representa únicamente el número de not provided totales mensuales, cifras que se pueden ver alteradas por pérdidas o ganancias del tráfico que suministra mensualmente Google a un proyecto.

¿Cómo afecta todo este tema a la analítica? Está claro que a medio/largo plazo este % va a crecer lo cual nos va a obligar a hacer ajustes en la forma de medir. Muchos ya plantean diferentes soluciones. Yo de momento acepto para mi la desarrollada por Miguel López en el post anterior: “Si asumimos que la distribución de las keyword not provided sigue la misma distribución que el resto de keyword, para realizar nuestros análisis de ranking de keywords, marca contra no marca, short, médium y long tail, etc, podemos utilizar los porcentajes que nos de Google Analytics excluyendo todas las visitas desde keywords not provided”.

Y es que al final, no parece lógico pensar que estar logueado en Gmail altere tu forma de buscar en Google

Teniendo en cuenta todo lo anterior, en algunas de las estadísticas de mis webs he tenido que hacer reajustes. Por ejemplo, me gusta controlar el número de visitas que recibo de gente que busca en los buscadores mi marca (o dominio exacto, según el caso).

En este aspecto, el número de palabras claves referentes a la marca deja de tener valor, ya que no es lo mismo 200 kw con un 5% de datos not provided que 200 kw con 25% de datos “capados” por Google.

Para ello, y teniendo en cuenta como ya comenté que asumo que los datos siguen la misma distribución, recojo los siguientes datos para prorratear la cantidad de tráfico total que llega a mi web desde los buscadores gracias a mi marca:

fundacion dedalo
Los datos que obtengo tras el prorrateo tienen mayor sentido que quedarse únicamente con el número de visitas que trae la marca (recordar, como se vio claro en el gráfico anterior, el avance imparable que está teniendo el not provided).

Eso si, no podemos obviar que:

  • Es una aproximación, no un dato real. Por ejemplo, en el tratamiento que hago de los datos doy por hecho que el 100% de keyword las trae Google cuando no lo es (pero casi, por encima del 95% del tráfico que recibo de buscadores es de Google).
  • Cuanto más suba el not provided, más inexacto serán los datos que prorrateo. Si en el futuro llegan, por ejemplo, al 80% este sistema perderá bastante fiabilidad…

2 claves básicas para aumentar la rentabilidad de una web

Febrero está siendo un mal mes para mis intereses como “rentabilizador” de proyectos en internet. Además de algún problema propio, he detectado un descenso brutal en la demanda de algunos de los mejores productos de mis webs, la cual sospecho viene dado porque los bolsillos de la “gente de a pie” están vacíos debido a la combinación brutal de crisis, Navidades y ofertas del mes de Enero.

Pero cuando la rentabilidad de un proyecto baja, no hay que esperar a que pase el chaparrón si no que toca remangarse y tratar de mejorar los resultados.

En estas situaciones, me aplico con mayor ahínco a un par de claves, bastante relacionadas entre si, que aprendí de mi admirado Tim Ferriss (en la foto). Son las siguientes:

  • Todo lo que se puede medir se puede gestionar. Es clave conocer el mayor número de datos, tanto de tráfico como de ingresos para poder optimizar y obtener los mejores resultados posibles.
  • Ley de Pareto (regla 80-20). El 80% de la producción genera el 20% de los insumos. Aplicado a la web quiere decir que el 20% de tus webs genera el 80% de los ingresos, que dentro de cada web el 20% de las secciones generan el 80% de los beneficios… y así hasta el infinito. Hay que detectar las zonas más rentables y tratar de potenciarlas… dejando el resto en piloto automático hasta tiempos más apropiados.

A la hora de crear landing pages hay que tener en cuenta la analítica

tim-ferrisTim Ferriss afirma lo siguiente en la edición ampliada y actualizada de La semana laboral de 4 horas:  “Lo que se puede medir, se puede gestionar”.

Jaume Ferré afirma que una de las claves para rentabilizar los proyectos es: “el control de la gestión: excel y analítica.”

Lo dicho, para rentabilizar es clave la analítica web.

Pero lo que no puedes hacer es crear tus páginas sin pensar en la analítica web y luego querer obtener de ella datos valiosos.

Esto último es lo que he hecho yo en mi landing sobre Difundir música en internet.

Os comento el fallo que he tenido para que no caigáis en él.

Mi landing page consta de una página de aterrizaje que lleva a un formulario por el medio del cual se pueden pedir 10 consejos para difundir tu música a través de internet.

Mi problema ha sido que no he tenido en cuenta que la misma url (/consejos-promocion-musica.php) tenía 3 funciones diferentes: página de formulario, página para el usuario que rellena algún campo del formulario de manera incorrecta y página para el usuario que rellena de forma correcta el formulario.

Es decir, los datos que me aporta la analítica no me sirven porque no puede saber a ciencia cierta el éxito de la landing en cuestión. Por ejemplo, un usuario que pide los 10 consejos para difundir tu música y se equivoca 2 veces en el formulario ha recargado la misma página 4 veces (1 acceso, 2 errores y 1 envío correcto).

Para evitar esto, he cambido la estructuras de las URL´s a la siguiente:

Acceso: /consejos-promocion-musica.php

Envío incorrecto: /consejos-promocion-musica.php?envio=incorrecto

Envío correcto: /envio-correcto.php

Ahora si que podré medir la gente que está realmente interesada en el “producto” y no se verán los datos distorsionados por los fallos en el rellenado del formulario.

Foto: Tim Ferriss.