Archivo de la categoría: seo

Carrefour, me anticipo a Google y te doy unos consejos SEO

Si me sigues en Twitter ya habrás visto que estoy “expectante” con el acuerdo anunciado entre Carrefour y Google para que el gigante norteamericano ayude al supermercado a vender más. Parece ser que G ayudará a la empresa francesa a aumentar sus ventas a través de Google Assistant, G Shopping y su propia web.

Algunas desconfianzas me genera este acuerdo (y no creo que sea al único): ¿tendrán descuentos los partners de G en Shopping y Adwords? ¿Les ”guiará” en su SEO para que posicionen mejor en… Google? No hace falta decir que beneficiar a una compañía implica perjudicar a sus competidores porque en el primer puesto solo cabe uno.

Me centraré en el SEO, que es a lo que me dedico. Doy por hecho que G no va a trucar su buscador para que se beneficien sus partners pero, teniendo en cuenta que la fórmula del algoritmo es secreta, un hipotético asesoramiento SEO no sería otra cosa que jugar con las cartas marcadas, ¿no?

Dándole vueltas al tema me ha dado por entrar a Carrefour.es (¿estará considerado en un futuro este link externo como una señal de que este artículo cuenta con fuentes de gran autoridad?). Como a nivel SEO creo que se puede mejorar he pensado, tras un rápido vistazo, ofrecerles mis consejos desinteresados. Luego cuando G les de los suyos que los comparen y me digan si voy por el buen camino.

Como referencia he usado el portátil Lenovo Legion y520, el cual parecen bastante interesados en vender ya que lo incluyen en su home.

Carrefour, ¡deja de canibalizarte!

Con esta simple búsqueda se ve rápido que están obviando una de las recomendaciones SEO básicas para cualquier ecommerce: cuidado con la canibalización. Diferentes landings están atacando la misma palabra clave objetivo, lo cual provocará que Google tenga dudas sobre a cual darle mayor peso y al final se acabé diluyendo la fuerza de todas. Es decir, se canibalizan las unas a las otras.

Estaría bien que contarais con contenido único

No es algo nuevo. Google Panda en gran parte fue de esto. En la imagen se ve como simplemente han volcado la información del fabricante.

Con este total desinterés por el contenido no espero que vayan a hacer ninguna actualización de la ficha del producto. Y teniendo en cuenta que actualizaciones periódicas ayudan…

Unos textos propios los podrían utilizar para poner enlaces internos (mejorar experiencia de usuario, señalar a Google cuales son las partes importantes de la web…) y externos (eres lo que enlazas). La inclusión de vídeos sobre el producto también ayudarían a mejorar la experiencia de usuario, algo crucial a nivel SEO.

Controlar (algo) el enlazado interno

Los enlaces internos son un recurso valioso no utilizado por Carrefour. Sus páginas de venta están llenas de enlaces a todo tipo de menús, a páginas de venta de otros partners… Estaría bien que controlaron este aspecto no solo por el reparto de autoridad, sino para optimizar el crawl budget de Google (algo crucial en ecommerce muy profundos como éste). Por ejemplo ofuscar los enlaces a las páginas de venta de sus partners podría ser un buen primer paso.

Además con el enlazado interno, como ya comenté en el punto anterior, se “enseña” a Google cuales son las páginas más importantes para la web.

Cuidar los metas

< title >Portátil Gaming Lenovo Legion Y520-15IKBN con i7, 8GB, 1TB, GTX 1050 4GB, 39,62 cm – 15,6” | Las mejores ofertas de Carrefour < / title>
< meta name=”description” content=”Portátil Gaming Lenovo Legion Y520-15IKBN con i7, 8GB, 1TB, GTX 1050 4GB, 39,62 cm – 15,6”| las mejores ofertas y descuentos. Compra online en Carrefour.es” />

A nivel de metas su trabajo es bastante mejorable. Porque aunque las metas no posicionan si que ayudan a traer más tráfico de los buscadores.

Y a nivel de URL también. Llevo desde 2003 posicionando webs y entonces ya se hablaba de diseñar urls “amigables”.

https://www.carrefour.es/portatil-gaming-lenovo-legion-y520-15ikbn-con-i7-8gb-1tb-gtx-1050-4gb-39-62-cm-15-6/VC4A-4445634/p#

Trabajar el long tail

Aunque todo el mundo quiere posicionar palabras clave premium como “teléfonos móviles”, “seguros”… al final casi todo el tráfico es long tail. Incluso hay varios estudios que apuntan que cada vez introducimos más palabras en el cajetín del buscador.

Por tanto, no deberíais conformaros con atacar keywords como “Lenovo Legion y520” si no que también tendríais que analizar qué están buscando vuestros potenciales clientes.

Al no cuidar vuestros contenidos adiós trabajo de long tail. Crear un blog o similar para tratar de captar tráfico a través de inbound marketing lo dejamos para otro día…

Mejorar la velocidad de vuestra web

¿Queréis ganar clientes? Pues no os queda otra que servir vuestros productos a través de páginas rápidas. No hay paciencia y la competencia está a un único click de distancia.

En la herramienta Insights de vuestro amigo G podéis ver claramente que tenéis bastante trabajo por delante en este aspecto.

 

Y paro aquí. Cuando me confirméis que Google os da su visto bueno le echo otro vistazo. 😉

¿Por qué me he cargado el 80% de las páginas de una web?

Una de mis webs en 2014 recibía muchísimo tráfico de buscadores. Al estar orientada a afiliación ese tráfico se transformaba en unos más que significativos ingresos. Pero desde aquel año todo ha sido bajar… hasta el punto que en 2017 ha perdido más del 40% de tráfico respecto a 2014. Es lo que hay. Todos los SEO’s tenemos cadáveres en el armario.

Diversos factores se han unido para provocar la tormenta (im)perfecta:

  1.  Llegada de mucha competencia en el nicho que cubre la web.
  2. Web de 2010 que ha envejecido mal. Se ha quedado grande (aunque a priori parece algo bueno, también puede ser malo) y “vieja” (muchos fallos a nivel estructural). Esto me proporcionaba la sensación de que reformarla sería un proceso muy complejo.
  3.  Muchos cambios / reajustes del algoritmo de Google durante su vida. Durante años le apliqué “recetas” que hace años servían pero hoy no
  4. Debido a lo anterior empezó a perder importancia dentro de mi cartera de webs, lo que se tradujo en cada vez menos tiempo dedicado.

Después de la campaña navideña me puse a estudiar la creación de una nueva web para el Black Friday 2018 (no es broma)… pero algunos datos no me acababan de cuadrar. Y analizando mis hojas de cálculo, que cada son quienes dirigen mi negocio, me di cuenta de que los números de la web de la que hablo en este post eran mejores. Lógico, de ahí la llegada de tanta competencia.

Entonces una idea me pasó por la cabeza: ¿es el momento de resucitarla? Motivos a favor hay:

  1. Aunque no vuelva a alcanzar las cotas de 2014 (la tarta a repartir ha crecido… pero el número de comensales se ha disparado) si no hago nada acabará muriendo. Y a pesar de la tremenda bajada todavía genera ingresos “significativos”.
  2. Dispone de “montañas” de contenido que, tratado adecuadamente, todavía puede ser de mucho interés en 2018. Además tiene un dominio con antigüedad de 2010, muchísimos datos a mi disposición (Analytics, Search Console, buscador interno…).
  3. Tiene algo de marca. Muestra de ello es que le siguen llegando comentarios cada día.
  4. Su long tail es tan grande que siempre puede quedar espacio para pequeños como yo.
  5. Debido a todos los errores detectados (thin content, canibalizaciones, linking interno mal utilizado…) dispone de gran margen de mejora.
  6. Está centrada en uno de los productos con mayor % de comisión en Amazon.

Ok. Lo malo es que ahora viene lo complicado. ¿Cómo reinventar la web?

Pues escuchando a los que saben.

Fuente: akifrases.com

Nadie en su sano juicio que tenga una web que le dé dinero se queda con los brazos cruzados viendo su declive. Por eso en los últimos años he hecho muchos retoques en esta web. Creo, sinceramente, que es una web mucho mejor que en 2014… pero los números dejan claro que no lo suficiente. Así que toca un tratamiento más agresivo.

 

Fuente: crmneeds.com

El de esta última imagen es el nuevo enfoque para la web. De ahí que vaya a cargarme el 80% de la web. Pero no lo hago por agarrarme, en la desesperación, a una frase. Hay un razonamiento detrás:

  1. Me aseguro que el thin content de la web no afecta al resto.
  2. Hago un mejor uso del crawl budget. Confío en que Google valoré que no lo voy a hacer perder el tiempo.
  3. Convierto la web en más manejable (para mí). Ahora podré tratar cada landing con la dedicación que se merece (si no lo hago simplemente habré perdido el 20% del tráfico). En su día el enfoque que le dí a esta web fue cantidad > calidad. Ahora viro a calidad > cantidad. También me será más fácil ofrecer la mejores ofertas para cada producto (mejor CRO).

El truco para posicionar es hacer landings de mayor valor para el usuario que tu competencia. Si a esto le sumo, que como dijo César Aparicio en el Clinic SEO sobre Crawling e Indexing, a un proyecto con años le sobran muchas páginas…

¿Con qué 20% me quedo?

Con lo anterior decidido este es el punto crítico. ¿Cómo acertar con qué páginas me quedo? No queda otra que los datos de la hoja de cálculo manden por encima del componente emocional (porque hay landings que me han costado muchas horas y esto pesa a la hora de decidir tirarlas a la basura).

He realizado la selección contestando las siguientes preguntas:

  • ¿Qué 20% de las páginas han traído el 80% del tráfico durante los últimos 6 meses? Cuanto más grande es la muestra más fiables son los datos.
  • 80/20 del último mes para captar tendencias. Todos los productos tienen una vida que se va agotando…
  • ¿Por qué cree las últimas landings? Algunas tenían apenas un par de semanas y está claro que estaban en inferioridad para aparecer en los rankings anteriores.
  • Datos del buscador interno. ¿Qué 20% de consultas acumulan el 80% del total? Hay que darle al usuario lo que busca.
  • ¿Qué landings generan más ingresos? Debido al CRO hay páginas que no están en el top de tráfico pero si de euros. Y al final vivimos de euros, no de visitas.

Una vez que tengo la lista de lo que voy a salvar queda otra pregunta por responder:

¿Cómo eliminar el 80%?

Recomiendo encarecidamente este artículo sobre test para desindexar urls de MJ Cachón. En mi caso, teniendo en cuenta lo programación de mi web, he optado por la combinación dar de baja en Search Console + meta noindex.

Pero no puedo quedarme en lo anterior. Para completar el proceso he borrado enlaces internos que apuntan a las páginas eliminadas, rehecho el sitemap…

 

De momento hasta aquí he llegado. Ahora queda la siguiente fase: mejorar la optimización del 20% con el que me he quedado.

El camino de la #reconquista todavía es largo. 😉

Mis apuntes sobre Crawling e Indexing (Clinic SEO eShow 2017)

La semana pasada asistí al Clinic SEO centrado en Crawling e Indexing. Fueron unas 7 horas de ponencias de nivel medio alto de las que he podido sacar ideas que ya estoy empezando a aplicar en mis proyectos.

Tras pasar mis apuntes a limpio los comparto por si le pueden ser de ayuda a alguien:

Casos de estudio de Crawling

Carlos Redondo

La arquitectura (cuanto más profunda es una web más difícil es que sea rastreada al 100%) y la estructuración del código son fundamentales para asegurarse un buen crawling para una web.

Si abusas del noindex quizás tengas que plantearte un rediseño de tu web. Una web de clasificados con 96.000 páginas noindex y 3.000 index (es un caso real) está enviando una mala señal a Google diciéndole que tienen mucha información no relevante. Mucho rastrear para poco indexar. Además las páginas de baja calidad bajan el Crawl Rate de una web.

El propio Amazon tiene un 70% de su página noindex (aquí se incluyen las páginas con canonical). De esta forma no optimiza su crawl budget al obligar a recorrer muchas veces la misma página (ficha del producto, zona de opiniones…).

Buena praxis: revisar periódicamente robots.txt.

¿Ponerle nofollow a los botones para introductor comentarios, etc? Esta solución sobre el papel pierde link juice pero no crawlbudget. En una ponencia posterior Lino Uruñuela explicaría que para él en estos cosas es mejor ofuscar enlaces, algo que comparto.

El problema anterior es muy habitual en foros. Por ejemplo Enfemenino.com lo soluciona creando esos enlaces en JavaScript.

En jsseo.expert se pueden ver experimentos sobre enlaces con JavaScript, etc.

Pensar siempre en el usuario. Forzar url’s con redirecciones provoca mala experiencia de usuario (NBA.com estuve muchos meses redirigiendo a as.com/nba debido a un acuerdo comercial). Incluso puede desembocar, aunque hoy en día es poco probable, en una penalización por cloaking.

Una buena arquitectura y un buen contenido… puede ser liquidada por un hosting barato que se acabe cargando nuestro crawleo. Además todas las optimizaciones que se puedan hacer (limpiar logs, cacheos, bases de datos…) siempre van a ser buenas para crawleo… ¡y usuario!

¿Cómo subir crawleo? Subir popularidad, frecuencia de actualización del contenido, número de urls de calidad…

Cuidado con los bloqueos de bots para no sobrecargar el servidor. ¡Hay quien ha llegado a bloquear el bot de Google!

Estrategias y técnicas de indexación en grandes sites

Lino Uruñuela

Pensar muy bien como repartimos los links internos. ¡Son valiosos recursos!

Cuidado con nofollow porque en teoría quita fuerza al link sculpting. En teoría porque no se puede creer al pie de la letra todo lo que dice Google. Piensa en él, ¡no en ti!

Ley del Primer Enlace: Cuando hay 2 enlaces desde una página a otra solo cuenta el anchor del 1º. ¡Ojo con las migas de pan porque pueden estar matando nuestro link sculpting sin darnos cuenta! Esta ley también puede hacer que no tenga sentido optimizar los enlaces del footer.

Ley 2: Evita que Google pierda el tiempo. No enlaces (mediante href) a páginas noindex, a páginas de productos que ya no estén a la venta, paginados, filtros… La alternativo a esto es ofuscar enlaces.

Ofuscar sirve para no desperdiciar link juice, no gastar crawl, saltarse la ley del primer enlace…

En Google hay que distinguir entre directivas (se cumplen) y señales (no siempre se cumplen).

  • Directivas: Robots, Meta.
  • Señales: Nofollow (su sentido es indicar que es un enlace comercial , por lo que probablemente no es buena idea indicar a G que se tienen muchos enlaces comerciales).

Para Privacidad, etc.. .mejor ofuscar que nofollow.

Canonical no afecta al rastreo. Es decir, Google rastrea las páginas con canonical.

Especialmente importante en grandes sitios que G no pierda el tiempo (desperdiciando el crawl que tienes asignado). Por ejemplo en urls con parámetros mejor robots.txt que noindex.
Bloquear basura permite a Google indexar contenido de mayor valor.

No por tener +url’s tendrás más tráfico orgánico.

Si tienes thin content que puede servir (por ejemplo ofrece linking interno que permite llegar al robot más profundo) entonces noindex.

Los metas no dejan de ser parches que hablan de una mala estructura web.

A veces los metas hay que utilizarlos cuando no queda otra y no existe un patrón determinado (ejemplo: contenido generado por usuario con menos de 200 palabras).

Resumen:
1.- Vigilar Primer enlace.
2.- No crear enlaces (a parámetros, filtros, tags, búsquedas internas, contenido pobre generado por usuarios) que luego debamos corregir con algún meta.
3.- Ofuscar enlaces

Indexa como no lo habías hecho nunca antes.

Iñaki Huerta

No importa donde esté el meta. Si en un artículo pones dentro del texto la etiqueta meta noindex lo aplica. Esto es hoy, G puede cambiar en cualquier momento.

Los Sitemap ayudan un poco a indexar nuevas zonas. Cuando las urls ya están indexadas los sitemap sirven de poco.

Casi lo más interesante de los Sitemap es, gracias a Search Console, saber cómo va la indexación de una web.

Cuanto más arriba (a 1 clic de la home, a 2 clics…) mejor indexación. Cuantos más enlaces internos mejor indexación.

Si se hacen pruebas de Sitemap con páginas malas (por ejemplo ponemos una sección en noindex y queremos conocer el % que ya ha sido desindexado) cuando tenemos el dato que queremos quitarlos. Subir, anotar el dato (suele tardar 24h) y quitarlo. Tener en cuenta que el objetivo del Sitemap no es este.

Se pueden marcar directrices de indexación a través del módulo rewrite de .htaccess.

Indexación SEO con JavaScript, Mitos y realidades.

Eduardo Garolera

Cuidado con los cambios de tecnologías. Hulu se la pegó apostando por JavaScript.

Si vas a usar una solución que no tienes claro cómo va a responder Google, realiza pruebas antes de implementarla en todo el sitio web.

Foro debate Crawling & indexing.

Sitemap ayuda poco a indexar. Incluso puede ser más negativo que positivo. Si no lo actualizas correctamente y tienes páginas noindex puedes estar desperdiciando crawleo.

¿Es tu robots.txt correcto? ¿Tiene tu sitemap sentido? Preguntas que hay que hacerse recurrentemente.

Antes de restringir algo (robots.txt, etc) asegurarse de que no está trayendo tráfico orgánico valioso.

Para orientar “presupuesto” de crawleo es más efectivo linking interno que el sitemap.

Cuidado con darle rol de Administrador en Search Console de nuestras web a terceros. ¡Pueden incluso desindexar nuestra página!

Migraciones SEO.

Miguel Pascual

Lo más habitual en la mayoría de migraciones, si no se tiene extremo cuidado, es perder tráfico.

La migración a https no es tan sencilla como muchos piensan. Lo más práctico es poner canonical en todas las páginas al https, avisar en Google Search Console del cambio y cambiar los links internos.

Recomendaciones: 1.- Cambiar a https (pero sigue funcionando http). 2.- Canonical en todas las páginas a https. 3.- Cuando está más que comprobado que todo funciona correctamente redirecciones de http a https.

Tener en cuenta que https necesita más recursos del servidor (encripta y desencripta).

En migraciones es una gran ayuda Screaming frog para controlar que el crawling se hace de manera correcta.

Utilizar el código 503 (mantenimiento). Si al lanzar la nueva versión hay errores se vuelva a la versión anterior hasta corregir la nuevo y ante Google no ha pasado nada.

Diagnóstico y tratamiento de Canibalizaciones SEO.

Iñaki Tovar

2 resultados en las SERP en vez de uno puede no ser muy bueno: peor CTR, autoridad diluida, desperdicio de crawl, afecta a la conversión (landing vs blog)… Mejor #2 que #7 y #8.

¡Precisión! 1 search intent -> 1 landing.

¿Cómo encontrar una canibalización?

  • Search Console: repasar qué páginas tienen muchas impresiones y pocos clics.
  • Search Console: Fijar una kw y observar qué landings están recibiendo tráfico.
  • Google: site:www.web.com + SEO Quake (plugging gratuito)

¿2 landings luchando por la misma kw? Para elegir con cual quedarte analiza conversión, tráfico, % rebote…

Cuidado con los anchors de los enlaces internos. Podemos ayudar a canibalizarnos nuestros contenidos ante los ojos de Google. Es recomendable buscar este tipo de señales (links internos, palabras claves) y quitarlas.

¿Cómo solucionar la canibalización? Fusión (content update), 301 de la vieja a la nueva (lo mejor es hacerlo a través de .htaccess), avisar a Google desde SC y darle un pequeño empujón (publicar en redes sociales, pasarla por la home…)

No dejar los 301 para siempre. No es bueno tener muchas redirecciones.

Un error 410 avisa a Google que se ha quitado un contenido. Para urgencias es una buena opción.

Hay que invertir en copy writing. Cada día G entiende mejor el tono, la intención…. La inteligencia artificial también va ganando peso en el buscador.

Resuelve los problemas de contenido y arquitectura.

César Aparicio

Arquitectura y contenido van de la mano.

Con arquitectura se puede mejorar posicionamiento, en ocasiones incluso mejor que con contenidos (repartiendo mejor el link juice).

Una url debe responder a varias kws. /tag/edredon debería posicionar para edredon, edredones… pero también para funda nórdica.

Si una landing diseñada para una kw en Google tiene en las SERPs por encima resultados complementarios (atacan una kw similar pero no esa) quizás sea porque esa url no tiene suficiente calidad.

La ubicación del contenido es relevante debido a la experiencia de usuario que genera. La muestra es que Google llegó a penalizar por poner publicidad “Above the fold”.

Google entiende bastante bien las entidades similares. Por eso una landing para edredones baratos puede canibalizarse con otra para edredones económicos.

Urls malas (thin content…), además de no aportar tráfico, pueden afectar al resto de una web. A más thin content mayor probabilidad de que G vea patrones negativos.

Reflexionar sobre cada página de baja calidad: ¿recibe tráfico? ¿De verdad es necesaria? A un proyecto con años le suelen sobrar muchas urls. ¡Ojo! Borrar no es lo mismo que noindex (se queda link juice, gasta crawl…).

En una landing más texto no tiene porque ser mejor (keyword stuffing…).

G puede penalizar (o rankear peor de lo que debiera) por cluster (sección), todo menos home (ya que la home suele ser el sitio con más autoridad de una web) o total.

¿Qué hacer con contenido de baja calidad (duplicado, thin content)? Unificar, enriquecer o fusionar.

 

¿Mi balance final? Mereció la pena invertir 150€ en la entrada.

Iniciador Madrid SEO vs SEM: Mis apuntes

En los últimos meses apenas estaba yendo a charlas. Las últimas en las que estuve me decepcionaron y el tiempo no sobra. Pero parece que ahora he cogido una buena racha. Tras el buen Evento SEO de la semana pasada, ayer pude presenciar una gran confrontación SEO vs SEM llevada a cabo por Romuald Fons y Carlos Molina en Iniciador Madrid.

Siguiendo mi teoría de que escribir ayuda a ordenar las ideas comparto los apuntes que cogí ayer.

SEO (Fons)

  • El tráfico orgánico (bien hecho) convierte mejor que el SEM.
  • Para los usuarios, a nivel psicológico, el número 1 en orgánico es el líder del sector
  • ¡Cuidado! La mitad de lo que se escribe de SEO en la red no vale nada.
  • Hoy en día una persona sola no puede hacer SEO. El sector se ha especializado mucho. Hay especialistas en analítica, en creación de contenidos, en captación de enlaces… En SEM ocurre lo mismo.
  • Linkbuilding de calidad. Por ejemplo ¡aparecer en periódicos! Las PBN acabarán cayendo, los enlaces de tus amigos no valen tanto como piensas…
  • Hay que tener claro dónde vas a tratar de “rascar” el tráfico. Si buscas transacciones tendrás que atacar kw’s como comprar, barato… que suelen ser las más difíciles. Otra estrategia. Si vendes vuelos a Venecia puedes crear contenidos tipo los mejores restaurantes de Venecia y luego tratar de redirigir el tráfico a tus landings de ventas de billetes.
  • Error clásico en SEO a la hora de vender: ¡hacer mal inbound marketing! Por ejemplo usar un blog para apoyar a una tienda y que este acabe posicionando por encima de la tienda. La tienda es la que hace el dinero, ¡no el blog!
  • Otro error clásico en ecommerce. Fichas de producto “débiles” o directamente sin contenido original. Panda se acabará comiendo la web. Si es imposible contar con fichas de calidad lo mejor es hacerlas noindex y tratar de posicionar las categorías.
  • Ahora mismo hay muchísima gente mirando Semrush. Esto hace que lo que parece una oportunidad clara deje de serlo rápidamente.
  • Tener diferentes landings para la misma keyword no suele ser bueno. Google se lía y no sabe cual mostrar.

carlos-molina-sem

SEM (Molina)

  • Máximo beneficio no está en la posición 1. Vendes más, pero el CPC sube mucho. Suele ser en la 2 (el gráfico de la foto superior es relativo a esto). Hay excepciones. Si vas a comprar algo barato quizás te quedes con el 1. Si es un lead en lugar de una venta el 1 es el más importante.
  • Si tu ratio de conversión en SEM es superior al de SEO estás perdiendo dinero si no inviertes en SEM.
  • Matemática y analítica son claves.
  • El SEM está lleno de indocumentados. Esto le viene genial a Google ya que provoca inflación en el precio del clic. Por eso a veces es mejor comprar clics en Facebooks Ads ya que aunque convierta peor los clics son mucho más baratos. Las cuentas que salen son mejores.
  • El rediseño de las SERP’s de Google ha provocado que se pasen de 11 resultados de pago a 7. El menor espacio provoca que suban las subastas, sobre todo de los últimos puestos. Al margen de que Google haya hecho los cambios porque quiere ganar más, ¿puede que también haya sido porque una única columna convierte mejor (ya no aparecen resultados a la derecha)? Quizás nos estamos acostumbrando a la navegación móvil.
  • Lo primero es asegurarse un gran producto. Hasta que no esté pulido no se inicia el SEM. El SEO como necesita más tiempo se debe empezar a trabajar desde el minuto 1.
  • Probar. Test A/B. Recoger datos. Tomar decisiones. Las cosas no suelen ser como parecen.
  • ¿Cuál es mi mejor producto? ¿Cual convierte mejor? Es ahí donde hay que poner los esfuerzos buscando tráfico.

Como resumen final. La conversión es la clave. Si tienes tráfico pero no conviertes… ¡no tienes un buen producto!

Evento SEO & Ecommerce: Mis 10 apuntes destacados

Segundo evento SEO de 2016. El primero, como ya indiqué, me pareció un poco fallido. Pero este ha sido un éxito. Temas muy interesantes, ritmo ágil y agotado el tiempo de preguntas. Esto último suele ser un KPI para valorar el éxito de este tipo de eventos.

evento-seo-ecommerce

Aunque hoy en día ha quedado desfasado escribir un post sobre un evento, debido a Twitter y sobre todo a que la charla se puede ver en Youtube, pienso que escribir ayuda a poner en orden las ideas. Por eso recopilo a continuación mis 10 apuntes destacados del Evento SEO & Ecommerce. Si además le sirven a alguien que, por ejemplo le de pereza ver el vídeo completo, mejor que mejor.

Allá voy:

  • Antes el objetivo era estar en el top 10 de Google. Con el progresivo aumento del SEM ahora hay que buscar top 3.
  •  SEO y calidad van juntos. El periodo del spam quedó atrás.
  •  Existe un desfase de denominación entre lo que buscan los usuarios y los productos que se venden actualmente. Gente busca televisiones Smart TV, cuando ya todas las TV son Smart Tv.
  • La gente que usa el buscador interno es el 10%, pero convierte 3 o 4 veces.
  • Lo que no medimos no se puede mejorar, y si no mejoramos se degrada
  • La posibilidad de recoger el pedido online en una tienda física suele duplicar la tasa de conversión.
  • Simplificar el proceso de pago es una de las tendencias del futuro del ecommerce. El 75% de las ventas se pierden en el proceso checkout
  • Antes de lanzar tu tienda online pruébala en un marketplace. Si funciona quizás sea el momento de montar tu propia web. Lo dejo por aquí como punto para la reflexión, por yo no lo tengo tan claro. Razón aquí.
  • España es de los países con mas smartphones, pero luego se compra poco a través de ellos. La lógica indica que las compras a través de smartphones irán subiendo.
  • Cuidado con pensar que menos es más negándole contenido al usuario.

Este tweet me parece un gran colofón:

Repasando lo comentado me doy cuenta de que realmente hablamos más de conversión que de SEO, así que parece que no voy muy desencaminado cuando digo que el CRO es más importante que el SEO.

Fuente foto: @Esther_Azcano

Tendencias SEO 2016: mis apuntes

Era un poco raro que Madrid no tuviera su evento para SEO’s. Ha tenido que resucitar Evento SEO (no se celebraba desde 2012) para poner fin a esta situación. Y parece que yo no era el único que viera la necesidad, porque ayer Campus Madrid se llenó para el reestreno.

Aunque esté un poco desfasado en 2016 escribir en un blog personal sobre un evento ya que son tweeteados en directo por los asistentes, dejar por escrito lo vivido siempre ayuda a ordenar ideas. Si encima le es de interés a alguien, pues doble función.

evento-seo-2016

Allá va un pequeño repaso de algunos temas que se tocaron en este evento dedicado a “Tendencias SEO 2016”:

  • Mobile first. Pero de verdad. Una nueva web ya hay que crearla para el móvil, y luego estudiar como trasladarla a PC. El análisis del posicionamiento tiene que empezar por el mobile para luego seguir por el PC, etc.
  • Para empezar un proyecto SEO es clave el “back to basis”. Tener un onpage 10/10 y a partir de ahí seguir mejorando.
  • Dentro del onpage tener muy en cuenta los microformatos. No suelen ser suficientemente explotados a pesar de tener un impacto directo en el CTR de las SERP.
  • Queda mucho campo abierto en el video. No se está trabajando lo suficiente. Tener en cuenta que ya no es suficiente con llenar un blog de contenido (texto). Precisamente esto se puede hilar con algo que he comentado estos días en Twitter:

  • A la hora de plantear un proyecto tener es crucial tener en cuenta el lenguaje a utilizar. Angular JS está de moda, pero parece que su indexación no es la mejor. Esto siempre ha sido así, ya ocurrió por ejemplo este hace años con Flash.
  • Cada vez el perfil del SEO está más pegado al de analista de datos.
  • Atentos a las búsquedas de voz. Hay que analizar su impacto. Podrían cambiar la forma de buscar del usuario.
  • Machine learning. Parece que Google lo quiere impulsar. Si se quita el componente manual al algoritmo (Quality Raters) se podría hacer un proceso de ingeniera inversa. ¿Podría llevar esto a que los SEO’s modificaran las webs a posicionar en base a sus propios algoritmos internos? Se comentó que no es disparatado pensar que esto pueda ocurrir en menos de 5 años. Hay quien aviso que en 5 meses habría importantes novedades en el mercado español.
  • Se habló también de AMP (Accelerated Mobile Pages), programa de Google que pretende ayudar a distintas publicaciones a cargar webs en dispositivos móviles más rápido. Un claro indicador de la importancia de este aspecto (velocidad de carga) para G.

Se tocaron otros temas, pero estos han sido los que más llamaron mi atención.

Decir que el final del evento fue un poco abrupto, finalizando a los 50 minutos (creo que la duración estimada era 90) por falta de preguntas de la audiencia. Mal por la audiencia (me incluyo, claro está), pero creo que falló un poco la organización. Si hubieran avisado en los días previos que el formato sería un breve cambio de impresiones de los ponentes de poco más de media hora y luego se abriría un debate con el público la gente se podría haber preparado algo en casa sabiendo que habría tanto tiempo. Para la próxima vez ya lo se. 🙂

El contenido sigue siendo el rey, pero el usuario es el emperador

En 2015 parece que todo el mundo está de acuerdo en que la respuesta de usuario es clave para que una web posicione bien. Leyendo un interesante artículo sobre esto, he recordado un artículo que escribí en verano de 2011 para Ojo Buscador. Al buscarlo para recordar mis pensamientos de tantos años atrás, he descubierto que la otrora página de referencia de SEO ha cerrado.

Con la ayuda de archive.org he recuperado dicho artículo y lo comparto a continuación. Creo que ha envejecido bastante bien. 😉

google-pandaAntes de nada he de reconocer que el título de este post no es mío, pero espero que al Search Engine Journal no le importe que lo tome prestado. Creo que la ocasión lo merece, ya que bajo mi opinión la frase que da título a esta entrada se va a acuñar cada vez más dentro del mundo SEO. Y es que tras la archiconocida frase de “el contenido es el rey”, de ahora en adelante (y especialmente tras la actualización del algoritmo de Google Panda Update) deberemos completar la frase con un “pero el usuario es el emperador”.

Desde hace muchos años se viene hablando de la vital importancia de dotar de buenos contenidos a los proyectos de internet, pero especialmente desde los últimos cambios introducidos en los buscadores la importancia de los movimientos del usuario dentro de las webs crecen en importancia.

Y es que cada vez tienen más importancia (y más que van a tener, al menos bajo mi opinión) métricas como el tiempo de permanencia en una web, el porcentaje de rebote, la fidelidad de los usuarios (usuario nuevos vs recurrentes), el CTR en las SERP´s… lo cual convierte al usuario en el juez que ayudará a dictar sentencia sobre la calidad de las webs.

¿Calidad? Efectivamente, el Panda Update trata de ser una actualización capaz de desterrar de los resultados de las búsquedas a las webs de escasa calidad. Todo encaja. Ya solo no vale con generar buenos contenidos, has de facilitarle la vida al usuario para que los pueda consumir de la mejor forma posible.

Google no se esconde y siempre ha afirmado abiertamente que “si es bueno para el usuario seguramente también lo será para el posicionamiento”.

Internet avanza muy rápido en todas sus dimensiones, lo cual nos obliga a replantearnos constantemente las estrategias a llevar a cabo para alcanzar el éxito con una web. Y debido a esa constante evolución, empieza a ser la hora de afirmar que “el contenido es el rey, pero el usuario es el emperador”.

Artículo de Luis Clausín publicado el 31 de agosto de 2011 en Ojo Buscador.

6 ejemplos de cómo optimizar tu ecommerce para que consiga más tráfico en buscadores

Si tienes un ecommerce seguro que ya eres consciente de la crucial importancia que tiene en la viabilidad de tu negocio contar con landings para tus productos que conviertan bien. Pero la competencia aprieta y el dinero en el bolsillo de nuestros usuarios escasea, lo cual nos obliga a todos a ir siempre un paso más allá tratando de optimizar todos los aspectos posibles que afecten a nuestro negocio.

Por ello en este post quiero compartir algunos ejemplos que he recopilado de cómo algunas tiendas miman la información que buscadores como Google muestran de ellas en sus resultados. Porque no hay que olvidar que no somos autómatas y que antes de hacer un clic en Google leemos, aunque sea someramente, la información que el buscador nos ofrece.

Y que mejor para ilustrar lo anterior que unos cuantos ejemplos reales que he sacado de un mercado tan competitivo como el de la venta de móviles. Allá van:

Búsquedas genéricas:

Las mejores ofertas de móviles libres – phonehouse.es
www.phonehouse.es/moviles/moviles-libres.html
Las mejores ofertas de móviles libres con 3 años de garantía en todas las marcas las puedes encontrar aquí, en phonehouse.es ¡No busques más!

Hablar de mejores ofertas tampoco dice mucho (¿quién va a decir que sus ofertas no son las mejores?), pero lo realmente interesante aquí, ami modo de ver, es afirmar que todos los móviles tienen 3 años de garantía lo cual parece una información de mucho interés para sus potenciales usuarios.

OUTLET de Móviles – Puesto a nuevo Phone House
www.phonehouse.es/outlet
Ahorra en la compra de tu móvil en el Outlet de Phone House. Móviles Libres complétamente revisados y actualizados con grandes descuentos. Con un año de …

Móviles baratos… ¡pero además completamente revisados, actualizados y con grandes descuentos! A mi me sinceramente me parece una proposición bastante atractiva.

Búsquedas genéricas 2º nivel:

Teléfonos móviles, smartphones y tablets Nokia – Moviles.com
www.moviles.com/nokia
Buscas teléfonos móviles, smartphones o tablets Nokia? Tenemos 533 terminales Nokia con 1683 opiniones y todas sus características. Compáralos ahora.

Mucha oferta de terminales, con mucha opinión de clientes y con toda la información completa de cada uno.

Tarifas Yoigo Móvil. Comparador de Tarifas Yoigo Móvil
www.doctorsim.com/tarifas-movil/yoigo/
Comparador de tarifas Yoigo móvil: Descubre las ventajas de hacer portabilidad a Yoigo. Con doctorSIM podrás ahorrar hasta 35% en tu factura móvil.

Comparador de tarifas (lo cual es sinónimo de poder elegir tu mismo la opción más barata) y además especifican cifras exactas del ahorro que puede suponer cambiarse a Yoigo.

Búsquedas productos concretos

A tener en cuenta que estas son las páginas “calientes”, las que traen dinero. Quienes busquen móviles libres probablemente se encuentren en una fase inicial de compra o simplemente están curioseando en la red. Por su parte, los usuarios que buscan el One Plus One parece que tienen claro lo que quieren y por tanto posiblemente están cercanos a cerrar la compra.

Donde comprar OnePlus One 16GB por 283,41€
www.kimovil.com › Todas las marcas de móviles › OnePlus
Aqui encontraras donde comprar OnePlus One 16GB por solo 283,41€, el precio más barato de entre las más de 40 tiendas que rastreamos constantemente.

En su propuesta prácticamente están asegurando el precio más barato al que se puede comprar el One Plus One. Tentador.

Comprar Xiaomi Mi4 al mejor precio – Ofertitas
blog.ofertitas.es › Electrónica
12 de sept. de 2014 – En este artículo revisamos las especificaciones, y ya de paso, te contamos dónde comprar el Xiaomi Mi4 al mejor precio. Un móvil chino con …

Prometen información detallada y el mejor precio.

 

Está claro que si no hay un segundo clic dentro de tu página el tráfico no te servirá de nada, pero para colocarte en esa situación también has de conseguir algún clic previo. Tienes unas pocas palabras para llevar a tus potenciales usuarios desde las SERP de los buscadores a tu tienda. ¡Aprovéchalas! Desarrolla las ventajas de tu producto, muestra promociones, descuentos… Eso si, obviamente todo lo que prometas deberás cumplirlo ya que si no el usuario se sentirá engañado y saldrá corriendo de tu tienda… lo que se traducirá en una subida del % de rebote.

Google Panda, el contenido es el rey y la autoridad

Sigo librando día tras día una larga y cruenta (para mi) batalla para levantar lo que creo que es un Google Panda. Esto me lleva a devorar constantemente información sobre este animalito al que antiguamente le tuve simpatía por cosas como esta. Y casi todo el mundo dice lo mismo: elabora contenido magnífico, original e hiperlargo… y si no lo haces luego no te quejes si eres “pandalizado”.

Ok, en cierto modo estoy de acuerdo con lo anterior pero entonces… ¿no posiciona Amazon demasiado bien teniendo en cuenta que, siendo generoso, el 99% de sus contenidos no son originales? La clave respuesta está en la autoridad de la web. Según MOZ Amazon.es tiene una autoridad de 88 (por encima de 50 ya está muuuuy bien).

¿Qué es la autoridad? Básicamente lograr enlaces buenos (precisamente de sitios con autoridad) y un poco de antigüedad de dominio.

A continuación comentaré un ejemplo real, “concierto madrid joaquin sabina”, que creo que aporta resultados bastante significativos:

serps-google-joaquin-sabina

A nivel de contenido, los resultados 1, 2 y 4 (que son los que van a hacer dinero con esta búsqueda) cuentan o con contenido 100% duplicado (1 y 2) o prácticamente inexistente (4). Como comenté antes, la autoridad de estas páginas es bastante potente (74, 77 y 49 respectivamente) lo cual se traduce en estos buenos “rankeos”.

Si el contenido fuera el absoluto rey, ¿no deberían liderar las SERP´s los diarios digitales que aparecen un poco más abajo en teoría unos contenidos más sólidos? Realmente los contenidos de dichos diarios no son muy potentes (de agencias, con bastante información copiada/reproducida en otros medios y tirando a cortos) pero también es verdad que la autoridad que les asigna MOZ es muy alta (86 y 89).

Ok Luis, entonces ¿si tienen una autoridad superior los diarios además de mejores contenidos por qué no ocupan las primeras posiciones? Si no estoy equivocado (que puedo estarlo, ya que las “instrucciones” de Google no son públicas) es debido a que los enlaces desde los sitios más relevantes los tiene Ticketmaster (incluso el propio Nvivo por ejemplo, como comparador de precios de entradas que es, enlaza a Ticketmaster).

Realmente contenidos de calidad y autoridad en principio deberían de estar unidos, porque contenido de gran calidad debería traer buenos enlaces y estos ayudar a aumentar la autoridad del sitio en cuestión. Usando el refranero español “la pescadilla que se muerde la cola”. Si los artículos de los periódicos del caso anterior fueran de bastante mejor calidad podrían recibir buenos enlaces y pelear más duro por la supremacía en esa búsqueda… Pero también es verdad que aquí tienen ventaja quienes venden las entradas, porque es probable que gente que haga una previa sobre este concierto en algún punto escriba algo así como “las entradas para esta concierto se pueden adquirir…” (con “enlazaco” incluido).

Por todo lo anterior, en mi opinión, centrarlo todo en que el contenido es el rey no es suficiente… aunque si no tienes algo valioso que ofrecer (catálogo casi infinito de productos en el caso de Amazon, las entradas de los principales conciertos como Ticketmaster…) no podrás alcanzar el éxito sin él.

6 acciones que he implementado para que Google me quiera más

Hay algo que no funciona como antaño en una de mis webs. Se traduce en una pérdida de tráfico un poco superior al 10% en estos momentos (llegó a ser mayor).

Intuyo que puede ser Panda, pero no estoy plenamente seguro. No hay un patrón claro. En ningún momento hay subida ni bajada de tráfico fuera de lo normal. Algo pasa, lo sé porque las nuevas páginas no posicionan de la manera que lo hacían antes… pero manejo otra teoría: la competencia. Y es que está página está en un sector que los competidores han crecido prácticamente exponencialmente en los últimos meses.

tráfico google 2013 2014

A mi modo de ver, no hay patrones raros. Bajada si, pero… podría ser por el aumento de competitividad del sector, ¿no creéis?

¿Qué he hecho ante esta situación? Primero, no entrar en ningún momento en modo pánico realizando acciones rápidas que pudieran llegar a empeorar la situación. Segundo, implementar cambios en puntos que sospecho que podrían estar causando problemas pero con un objetivo claro: las mejoras deben servir, si o si, para elevar el nivel de la web (o al menos ahuyentar hipotéticos problemas futuros).

A continuación comparto las medidas que he tomado hasta el momento buscando que Google “quiera” más mi proyecto:

Mejorar contenidos. He reescrito bastantes páginas de mi web buscando aumentar el número de palabras que contiene. La primera fase ha consistido en aumentar el contenido de las landings “calientes” (las que más potencial de captar ingresos tienen). Ahora estoy inmerso en la segunda, en la que estoy cogiendo las páginas más pobres a nivel de contenidos y si considero que merece la pena el esfuerzo las reescribo y si no las elimino directamente (esto último es duro, pero creo que necesario).

También he añadido bastantes videos embebidos de Youtube para aumentar la calidad de la información que ofrezco a los usuarios… y mejorar el tiempo de permanencia. 😉

Busco mejora tanto para los usuarios (más información) como para Google (que no considere que hay contenido malo en la web).

Sobre esto último, no hay que volverse locos. Mi opinión se resumen el siguiente par de tweets:

Retirar el RSS público. Tenía un RSS disponible para todo el mundo con todos los productos de mi web. Lo he quitado, porque las posibilidades de que los malos jueguen con él son altas. Una pena, pero los RSS están muriendo… Me cuesta horrores encontrarlos para almacenarlos en mi The Old Reader.

Nuevo title para huir de una posible sobreoptimización. Hasta ahora la mayoría de los enlaces internos coincidían con H1 y title de la página. Google podría verlo como un intento de sobreoptimización por esas palabras claves determinadas. He complementado con más información los title, lo cual también puede ser de interés para los usuarios en las SERP´s.

Cambios linking interno para evitar sobreoptimización. Excesivos enlaces internos dañan. Hasta ahora casi todas las páginas repartían enlaces internos entre un pequeño grupo bajo el habitual sistema de “Últimas noticias / productos”. Ahora, tras implementar un simplón algoritmo, todo está más repartido.

Reestructuración del Sitemap. Con el objetivo de darle a los buscadores únicamente información crucial a través del Sitemap, antaño únicamente incluía en el Sitemap los contenidos finales. Esto provocó que Google se liará un poco y que en sus Webmasters Tools únicamente marcará un % bajo de páginas del Sitemap indexadas (lo cual no era cierto, porque era sencillo comprobar que prácticamente todas estaban indexadas). A recomendación de Javier Casares (a quién comenté mis problemas y me sugirió tomar esta medida y la siguiente) simplifiqué el Sitemap dejando únicamente la URL y la fecha de la última modificación y las ordené por creación (en lugar de por actualización como venía haciendo hasta ahora). Además separé mi único Sitemap en 2 distintos.

Mejoras a nivel de código. ¿Tables o divs? Mítico debate. Finalmente he abandonado los tables y me he pasado a los divs. En esta nueva versión algunas landings han totalizado hasta un 30% menos de código. En teoría ahora las páginas deberían ser más sencillas de indexar por las arañas de los buscadores, deberían cargar más rápido…

¿Qué os parecen las mejoras? ¿Tienen sentido para vosotros? ¿Le gustarán tanto a la gran G como a los usuarios?