Archivo de la categoría: seo

Iniciador Madrid SEO vs SEM

En los últimos meses apenas estaba yendo a charlas. Las últimas en las que estuve me decepcionaron y el tiempo no sobra. Pero parece que ahora he cogido una buena racha. Tras el buen Evento SEO de la semana pasada, ayer pude presenciar una gran confrontación SEO vs SEM llevada a cabo por Romuald Fons y Carlos Molina en Iniciador Madrid.

Siguiendo mi teoría de que escribir ayuda a ordenar las ideas comparto los apuntes que cogí ayer.

SEO (Fons)

  • El tráfico orgánico (bien hecho) convierte mejor que el SEM.
  • Para los usuarios, a nivel psicológico, el número 1 en orgánico es el líder del sector
  • ¡Cuidado! La mitad de lo que se escribe de SEO en la red no vale nada.
  • Hoy en día una persona sola no puede hacer SEO. El sector se ha especializado mucho. Hay especialistas en analítica, en creación de contenidos, en captación de enlaces… En SEM ocurre lo mismo.
  • Linkbuilding de calidad. Por ejemplo ¡aparecer en periódicos! Las PBN acabarán cayendo, los enlaces de tus amigos no valen tanto como piensas…
  • Hay que tener claro dónde vas a tratar de «rascar» el tráfico. Si buscas transacciones tendrás que atacar kw’s como comprar, barato… que suelen ser las más difíciles. Otra estrategia. Si vendes vuelos a Venecia puedes crear contenidos tipo los mejores restaurantes de Venecia y luego tratar de redirigir el tráfico a tus landings de ventas de billetes.
  • Error clásico en SEO a la hora de vender: ¡hacer mal inbound marketing! Por ejemplo usar un blog para apoyar a una tienda y que este acabe posicionando por encima de la tienda. La tienda es la que hace el dinero, ¡no el blog!
  • Otro error clásico en ecommerce. Fichas de producto «débiles» o directamente sin contenido original. Panda se acabará comiendo la web. Si es imposible contar con fichas de calidad lo mejor es hacerlas noindex y tratar de posicionar las categorías.
  • Ahora mismo hay muchísima gente mirando Semrush. Esto hace que lo que parece una oportunidad clara deje de serlo rápidamente.
  • Tener diferentes landings para la misma keyword no suele ser bueno. Google se lía y no sabe cual mostrar.

carlos-molina-sem

SEM (Molina)

  • Máximo beneficio no está en la posición 1. Vendes más, pero el CPC sube mucho. Suele ser en la 2 (el gráfico de la foto superior es relativo a esto). Hay excepciones. Si vas a comprar algo barato quizás te quedes con el 1. Si es un lead en lugar de una venta el 1 es el más importante.
  • Si tu ratio de conversión en SEM es superior al de SEO estás perdiendo dinero si no inviertes en SEM.
  • Matemática y analítica son claves.
  • El SEM está lleno de indocumentados. Esto le viene genial a Google ya que provoca inflación en el precio del clic. Por eso a veces es mejor comprar clics en Facebooks Ads ya que aunque convierta peor los clics son mucho más baratos. Las cuentas que salen son mejores.
  • El rediseño de las SERP’s de Google ha provocado que se pasen de 11 resultados de pago a 7. El menor espacio provoca que suban las subastas, sobre todo de los últimos puestos. Al margen de que Google haya hecho los cambios porque quiere ganar más, ¿puede que también haya sido porque una única columna convierte mejor (ya no aparecen resultados a la derecha)? Quizás nos estamos acostumbrando a la navegación móvil.
  • Lo primero es asegurarse un gran producto. Hasta que no esté pulido no se inicia el SEM. El SEO como necesita más tiempo se debe empezar a trabajar desde el minuto 1.
  • Probar. Test A/B. Recoger datos. Tomar decisiones. Las cosas no suelen ser como parecen.
  • ¿Cuál es mi mejor producto? ¿Cual convierte mejor? Es ahí donde hay que poner los esfuerzos buscando tráfico.

Como resumen final. La conversión es la clave. Si tienes tráfico pero no conviertes… ¡no tienes un buen producto!

Evento SEO & Ecommerce

Segundo evento SEO de 2016. El primero, como ya indiqué, me pareció un poco fallido. Pero este ha sido un éxito. Temas muy interesantes, ritmo ágil y agotado el tiempo de preguntas. Esto último suele ser un KPI para valorar el éxito de este tipo de eventos.

evento-seo-ecommerce

Aunque hoy en día ha quedado desfasado escribir un post sobre un evento, debido a Twitter y sobre todo a que la charla se puede ver en Youtube, pienso que escribir ayuda a poner en orden las ideas. Por eso recopilo a continuación mis 10 apuntes destacados del Evento SEO & Ecommerce. Si además le sirven a alguien que, por ejemplo le de pereza ver el vídeo completo, mejor que mejor.

Allá voy:

  • Antes el objetivo era estar en el top 10 de Google. Con el progresivo aumento del SEM ahora hay que buscar top 3.
  •  SEO y calidad van juntos. El periodo del spam quedó atrás.
  •  Existe un desfase de denominación entre lo que buscan los usuarios y los productos que se venden actualmente. Gente busca televisiones Smart TV, cuando ya todas las TV son Smart Tv.
  • La gente que usa el buscador interno es el 10%, pero convierte 3 o 4 veces.
  • Lo que no medimos no se puede mejorar, y si no mejoramos se degrada
  • La posibilidad de recoger el pedido online en una tienda física suele duplicar la tasa de conversión.
  • Simplificar el proceso de pago es una de las tendencias del futuro del ecommerce. El 75% de las ventas se pierden en el proceso checkout
  • Antes de lanzar tu tienda online pruébala en un marketplace. Si funciona quizás sea el momento de montar tu propia web. Lo dejo por aquí como punto para la reflexión, por yo no lo tengo tan claro. Razón aquí.
  • España es de los países con mas smartphones, pero luego se compra poco a través de ellos. La lógica indica que las compras a través de smartphones irán subiendo.
  • Cuidado con pensar que menos es más negándole contenido al usuario.

Este tweet me parece un gran colofón:

Repasando lo comentado me doy cuenta de que realmente hablamos más de conversión que de SEO, así que parece que no voy muy desencaminado cuando digo que el CRO es más importante que el SEO.

Fuente foto: @Esther_Azcano

Tendencias SEO 2016

Era un poco raro que Madrid no tuviera su evento para SEO’s. Ha tenido que resucitar Evento SEO (no se celebraba desde 2012) para poner fin a esta situación. Y parece que yo no era el único que viera la necesidad, porque ayer Campus Madrid se llenó para el reestreno.

Aunque esté un poco desfasado en 2016 escribir en un blog personal sobre un evento ya que son tweeteados en directo por los asistentes, dejar por escrito lo vivido siempre ayuda a ordenar ideas. Si encima le es de interés a alguien, pues doble función.

evento-seo-2016

Allá va un pequeño repaso de algunos temas que se tocaron en este evento dedicado a “Tendencias SEO 2016”:

  • Mobile first. Pero de verdad. Una nueva web ya hay que crearla para el móvil, y luego estudiar como trasladarla a PC. El análisis del posicionamiento tiene que empezar por el mobile para luego seguir por el PC, etc.
  • Para empezar un proyecto SEO es clave el “back to basis”. Tener un onpage 10/10 y a partir de ahí seguir mejorando.
  • Dentro del onpage tener muy en cuenta los microformatos. No suelen ser suficientemente explotados a pesar de tener un impacto directo en el CTR de las SERP.
  • Queda mucho campo abierto en el video. No se está trabajando lo suficiente. Tener en cuenta que ya no es suficiente con llenar un blog de contenido (texto). Precisamente esto se puede hilar con algo que he comentado estos días en Twitter:

  • A la hora de plantear un proyecto tener es crucial tener en cuenta el lenguaje a utilizar. Angular JS está de moda, pero parece que su indexación no es la mejor. Esto siempre ha sido así, ya ocurrió por ejemplo este hace años con Flash.
  • Cada vez el perfil del SEO está más pegado al de analista de datos.
  • Atentos a las búsquedas de voz. Hay que analizar su impacto. Podrían cambiar la forma de buscar del usuario.
  • Machine learning. Parece que Google lo quiere impulsar. Si se quita el componente manual al algoritmo (Quality Raters) se podría hacer un proceso de ingeniera inversa. ¿Podría llevar esto a que los SEO’s modificaran las webs a posicionar en base a sus propios algoritmos internos? Se comentó que no es disparatado pensar que esto pueda ocurrir en menos de 5 años. Hay quien aviso que en 5 meses habría importantes novedades en el mercado español.
  • Se habló también de AMP (Accelerated Mobile Pages), programa de Google que pretende ayudar a distintas publicaciones a cargar webs en dispositivos móviles más rápido. Un claro indicador de la importancia de este aspecto (velocidad de carga) para G.

Se tocaron otros temas, pero estos han sido los que más llamaron mi atención.

Decir que el final del evento fue un poco abrupto, finalizando a los 50 minutos (creo que la duración estimada era 90) por falta de preguntas de la audiencia. Mal por la audiencia (me incluyo, claro está), pero creo que falló un poco la organización. Si hubieran avisado en los días previos que el formato sería un breve cambio de impresiones de los ponentes de poco más de media hora y luego se abriría un debate con el público la gente se podría haber preparado algo en casa sabiendo que habría tanto tiempo. Para la próxima vez ya lo se. 🙂

Pequeño truco SEO aplicable a marca personal

Hoy en día es crucial cuidar nuestra marca personal. Tengas trabajo o no. Seas alto o bajo. Innegociable.

El otro día haciendo unos pequeños ajustes en mi propia marca me di cuenta que había aplicado a la misma, sin ser consciente de ello, técnicas SEO.

Se podría decir que mi marca personal nació, aunque no fuera consciente de ello, con el inicio de este blog en 2006. En aquellos tiempos estaba muy en boga el concepto webmaster, el cual me pareció que me describía a la perfección. Con el paso del tiempo empecé a utilizar en la cabecera de este blog, en mis redes sociales, tarjetas de visita… expresiones como «webmaster emprendedor» o «webmaster independiente».

Hace ya tiempo me di cuenta que el concepto webmaster ya estaba anticuado y empecé a usar otras keywords para mi marca. La herramienta de Google Trends muestra claramente de lo que hablo:

trends-webmaster-seo

Vemos, en este ejemplo, que la demanda de información sobre SEO se ha comido totalmente en los últimos años a los webmasters.

Ni que decir tiene que si hacemos una rápida búsqueda en un portal dedicado a publicar ofertas de empleo comprobaremos que ya casi nadie busca webmasters.

Es obligatorio que cuidemos nuestra marca personal como la de un producto, por tanto asegurémonos que hay demanda para ella al igual que hacemos antes de lanzar cualquier proyecto.

El mundo va muy rápido y hay que adaptarse rápido a él si no queremos quedarnos en fuera de juego.

Escribiendo en OJOBuscador

ojobuscadorDurante unos meses escribí algunos artículos sobre SEO y actualidad de los buscadores en OJOBuscador. No me limité a dar noticias, sino que también incluí mis opiniones sobre aspectos relacionadas con los temas.

Me hizo ilusión colaborar con OJObuscador, ya que lo había intentado sin éxito en otra ocasión (creo recordar que en aquella ocasión buscaban un redactor «full time») y además en 2007 asistí al Congreso OjoBuscador 2.0 de Madrid.

Con el cierre de Ojo Buscador, para que no se perdiera mi trabajo, he incluido mis colaboraciones aquí:

El contenido sigue siendo el rey, pero el usuario es el emperador

google-pandaAntes de nada he de reconocer que el título de este post no es mío, pero espero que al Search Engine Journal no le importe que lo tome prestado. Creo que la ocasión lo merece, ya que bajo mi opinión la frase que da título a esta entrada se va a acuñar cada vez más dentro del mundo SEO. Y es que tras la archiconocida frase de “el contenido es el rey”, de ahora en adelante (y especialmente tras la actualización del algoritmo de Google Panda Update) deberemos completar la frase con un “pero el usuario es el emperador”.

Desde hace muchos años se viene hablando de la vital importancia de dotar de buenos contenidos a los proyectos de internet, pero especialmente desde los últimos cambios introducidos en los buscadores la importancia de los movimientos del usuario dentro de las webs crecen en importancia.

Y es que cada vez tienen más importancia (y más que van a tener, al menos bajo mi opinión) métricas como el tiempo de permanencia en una web, el porcentaje de rebote, la fidelidad de los usuarios (usuario nuevos vs recurrentes), el CTR en las SERP´s… lo cual convierte al usuario en el juez que ayudará a dictar sentencia sobre la calidad de las webs.

¿Calidad? Efectivamente, el Panda Update trata de ser una actualización capaz de desterrar de los resultados de las búsquedas a las webs de escasa calidad. Todo encaja. Ya solo no vale con generar buenos contenidos, has de facilitarle la vida al usuario para que los pueda consumir de la mejor forma posible.

Google no se esconde y siempre ha afirmado abiertamente que “si es bueno para el usuario seguramente también lo será para el posicionamiento”.

Internet avanza muy rápido en todas sus dimensiones, lo cual nos obliga a replantearnos constantemente las estrategias a llevar a cabo para alcanzar el éxito con una web. Y debido a esa constante evolución, empieza a ser la hora de afirmar que “el contenido es el rey, pero el usuario es el emperador”.

Publicado el 31 de agosto de 2011.


Google penaliza su Chrome de cara a la galería

Tras ser “pillado infraganti” promocionando su navegador Google Chrome por medio de post patrocinados que daban lugar a enlaces a la página de descarga de Chrome, Google se ha visto obligado a penalizar su propia web.

Y es que tras llevar años plantando cara a la compra / venta de enlaces como mecanismo para mejorar el posicionamiento en sus SERPs, a golpe de penalizaciones, al ser descubierto practicando esta ilegal técnica SEO se ha visto obligado a penalizarse a si mismo… de cara a la galería.

Y digo de cara la galería, porque el impacto en el número de descargas del navegador no va a ser muy grande, ya que ante búsquedas como “Google Chrome” o “Chrome” el resultado número 1 son otras páginas del propio Chrome diferentes a la página de descarga, pero desde las que se pueden saltar a la propia página de descarga. Eso, sumado a su lógico control sobre su propia red publicitaria dentro del buscador, hace que el impacto ante tal penalización sea mínimo.

Veamos un ejemplo de la búsqueda chrome dentro de Google.com:

chrome-google-300x171

Resultado 1: Publicidad de Google Chrome.

Resultado 2:  Página de ayuda para descargar e instalar Chrome.

A esto hay que sumarle, que en otros buscadores como Bing la compra de enlaces de Google no se visto reflejada en una penalización.

chrome-bing-300x177

Resumiendo, Google aprovecha su propia trampa (de la cual han declarado no saber nada, ya que la campaña de promoción que ha originado esta situación estaba a cargo de una agencia externa a la compañía Mountain View) para lanzar el mensaje de “la justicia es igual para todos“… cuando ellos presumiblemente van a sufrir poco con su auto-penalización de 60 días.

¿Acaso detrás de toda esta situación únicamente se esconde una campaña publicitaria perfectamente orquestada? Seguramente no, pero si lo fuera bajo mi opinión sería brillante.

Publicado el 4 de enero de 2012.


Google+ el último producto «de la casa» en integrarse en el buscador

google-plusAunque de momento únicamente está disponible en la versión en inglés (el comienzo habitual de todas las novedades del gigante norteamericano), Google+ ya está integrado en los resultados del buscador líder a nivel mundial en internet.

La nueva funcionalidad implementada consiste en mostrar al usuario resultados personalizados teniendo en cuenta la actividad de su propia red en Google+. Es decir, las páginas más comentadas y compartidas en dicha red social serán priorizadas en los resultados de las búsquedas sobre el resto.

De momento, el usuario tendrá la opción de activar dichos resultados o seguir con el método tradicional.

Hasta aquí la noticia, ahora daré mi opinión. Aprovechando su posición predominante en los buscadores (y en internet en general, ya que Google.com es la página más visitada a nivel mundial), Google quiere seguir con su filosofía de acaparar mayor cuota (¿toda?) de mercado en su propia herramienta.

Para anunciarte en Google tendrás que invertir en Google AdWords, para posicionar tus productos trabajar con Google Shopping, para posicionar tu negocio Google Maps, para noticias Google News, tus videos por medio de Youtube (también es propiedad de Larry Page y Sergey Brin)… y tras está ultima “buena nueva” para mejorar los resultados generales de una determinada web en su buscador habrá que trabajar en su red social Google+.

Es obvio que Google es una empresa privada cuyo objetivo es ganar dinero, cosa totalmente lícita, ¿pero no están “abusando” demasiado? Cada vez es más complicado mantenerse a flote en un nicho en el que el que Google entre, y cada vez más son los que señalan al buscador como el nuevo Microsoft (monopolio). Twitter ha sido uno de los últimos en levantar la voz.

Pero no parece que Google+ sea su último proyecto metido “a martillo” en su buscador. Google Flight (comparador de precios de vuelo) ya está en pruebas en USA… a raíz de lo que que también han sido acusados de monopolio.

¿Le acabará pasando factura su filosofía a Google o simplemente nos acostumbraremos a depender todos los internautas al 100% de sus productos?

Publicado el 11 de enero de 2012.


Seguir las recomendaciones de AdSense puede provocar penalizaciones del propio Google

Google ha hecho público recientemente una nueva modificación de su algoritmo. Este cambio, el cual se ha denominado “page layout algorithm“, avisa de posibles degradaciones en las posiciones de sus resultados de búsqueda para las webs que tengan en la parte visible (zona que el usuario ve sin necesidad de “hacer scroll”) una cantidad alta de anuncios en proporción al contenido.

Si el Panda Update avisaba que una web con multitud de anuncios era un indicador de baja calidad (y por tanto, aumentaba las posibilidades de sufrir penalizaciones), con esta nueva vuelta de tuerca desde Mountain View van un paso más lejos. Y es que de esta forma continúan tratando de reducir la cantidad de SPAM, MFA (Made For AdSense) y similares de sus índices. ¿O no?

general_en-225x300Todo lo anterior “lo firma” el equipo de lucha contra spam que encabeza Matt Cutts, pero mientras tanto los chicos de Google Adsense tienen propuestas diferentes para los webmasters:

  • AdSense cuanto más arriba en una página es más rentable (lo cual choca, como acabamos de ver, con el page layout algorithm).
  • Cuantos más bloques de AdSense se introduzcan en una web más dinero se puede ganar (lo contrario que promulga Panda). Los editores de Google AdSense reciben correos electrónico con el encabezamiento “Está dejando pasar X oportunidades para obtener más ingresos” en el que se indica el número de páginas de una web que incluyen menos de tres bloques de AdSense.

Es decir, lo que Google AdSense recomienda el equipo antispam de Google lo penaliza.

Eso si, las normas de la empresa norteamericana son únicamente para los demás, ya que ellos actualmente están ofreciendo una gran cantidad de publicidad (incluida la zona visible de la web) en su producto estrella: el buscador.

Me gustaría cerrar este post con una recomendación personal: mejor seguir las directrices del equipo antispam de Google sacrificando algo las ganancias de AdSense (u otros soportes publicitarios) que sufrir una penalización que nos reste una importante cantidad de tráfico (recordar que si no estás en Google.. prácticamente no existes en los buscadores).

24 de enero de 2012.


Div vs Table, la SEO batalla está servida

Si algo revolucionó el mundo de los buscadores en 2011 fue el Panda Update, no hay discusión. Desde su despliegue a nivel mundial muchos debates han surgido en torno a las “buenas prácticas” que hay que poner en marcha en una web para evitar caer en las garras del simpático (quizás ya no tanto para muchos profesionales de internet) osito.

Según Google el objetivo de su cambio de algoritmo es penalizar las webs de baja calidad (existen puntos de vista diferente), siendo parece ser una de sus obsesiones, esta vez si, el contenido duplicado.

Para calcularlo, son muchos los que opinan que en la actualidad, en lugar de tomar en cuenta únicamente el texto “puro y duro”, tiene en cuenta el código íntegro de cada página.

Y ahí es donde surge la SEO batalla que nos ocupa en este post, ¿las páginas diseñadas por medio de div (capas) posicionan mejor en los buscadores que las construidas con tablas? El motivo de esta corriente de opinión viene dado porque, generalmente, para crear una página con capas se necesita menos código html. Además, la teoría 2.0 dice que se maqueta con DIV, mientas que los “tables” se deben utilizar únicamente para meter datos dentro de ellos.

Hay quien piensa que maquetar con DIV es mejor, mientras que otros que defienden que no tiene relevancia a nivel SEO la forma de maquetar una web y lo importante es poner la atención en otros aspectos.

Si se hace una búsqueda en Google de la consulta “div table seo” se obtienen infinidad de conversaciones en blogs y foros entre partidarios de estas distintas corrientes.

El propio Matt Cutts, jefe de Google en lucha contra el spam, también participó en este debateafirmando que es irrelevante de cara al posicionamiento maquetar de una forma u otra.

2 matizaciones acerca de este video. 1.- Es de mediados de 2009 lo cual es un mundo desde el punto de vista SEO. 2.- Muchos son los que opinan que si se siguen al pie de la letra las recomendaciones de Cutts… tu competencia te superará.

Está claro que las reglas del juego no están escritas (bueno, si están escritas pero no son públicas) y cada uno debe tomar sus propias decisiones, pero lo único que parece claro es que nadie defiende que maquetar con tablas sea mejor que con capas así que…

Publicado el 20 de enero de 2012.


5 claves para posicionar webs con programas de afiliación

Como posiblemente ya sabrás, los programas de afiliados permiten ganar dinero con páginas webs vendiendo productos o consiguiendo acciones predeterminadas (registros principalmente) para terceros recibiendo una comisión a cambio. Su ventaja es clara, puedes vender casi cualquier producto sin necesidad de tenerlos en stock y olvidándote completamente de la logística.

Lo anterior sumado a otras virtudes propicia que siempre hayan tenido “mucho tirón” entre webmasters y anunciantes (gigantes como Amazon y eBay apuestan fuerte por sus programas de afiliación)… hasta que el primer despliegue de Panda, en 2011, propició que posicionar páginas webs que explotaran programas de afiliación no fuera tan “sencillo” como lo venía siendo.

Como ya explicó en su momento Jesús Navarro en OJObuscador “poner enlaces de afiliados no viola las normas de Google. Tu puedes poner en tu página normal y corriente unos cuantos enlaces de afiliación para rentabilizar tu contenido. Pero una cosa es eso y otra es pasarse y dedicar tu webs a alojar enlaces de afiliados.”. Esto unido a que otra de las técnicas más usadas para algunos afiliados en aquellos momentos era “Copiar/Pegar” propició que Google borrará de sus rankings miles de páginas cuyo modelo de negocio se basaba en explotar la afiliación.

Google baneó todas aquellas webs, en la mayoría de los casos, porque las consideró de baja calidad ya que no aportaban nada que no se pudiera encontrar en otros sitios web.

Desde aquello algunos acuñaron el falso mito de que ya no se podía posicionar webs que incluyeran programas de afiliación, mantra que trataré de desmontar en este post.

Y no soy yo exclusivamente quien afirma que todavía se pueden posicionar webs con enlaces de afiliados, sino que el propio Google especifica claramente en sus directrices para webmasters que requisitos se deben cumplir para captar tráfico de los buscadores con este tipo de páginas:

  • Evita las páginas “puerta” creadas exclusivamente para motores de búsqueda u otros medios extendidos, como programas de afiliación con escaso o nulo contenido original.
  • Si tu sitio participa en un programa de afiliación, asegúrate de que aporte un valor añadido. Proporciona contenido único y relevante que ofrezca a los usuarios una razón para visitar el sitio.

Teniendo en cuenta todo lo anterior, voy a explicar cuáles son, para mi, las principales claves para alcanzar buenos rankings en las SERPs de Google con este tipo de páginas:

1.- Generar valor añadido: Los tiempos de intentar vender un producto copiando la descripción de su fabricante y añadiéndole el enlace de afiliado se acabaron, debes darle un valor añadido a tus potenciales clientes. Si lo piensas es lógico, ¿por qué alguien va a comprar el último modelo de teléfono a través de tu web en lugar de en el portal de su fabricante si ofreces exactamente la misma información?

¿Cómo generar valor añadido? Múltiples opciones: comparar diferentes ofertas del producto en cuestión, vales de descuento, conseguir diversas opiniones sobre dicho producto, información exclusiva (en muchas páginas webs de particulares se encuentra muchas veces más información sobre un producto que en su propia web oficial)….

Los sitios de interés, y los que generan valor añadido están dentro de esta categoría, son ideales para atraer enlaces de forma natural, aspecto clave para mejorar el posicionamiento.

2.- El contenido es el rey (especialmente el textual): Si las páginas donde incorporas tus enlaces de afiliados no están acompañadas de textos ricos en palabras Google te mirará con malos ojos. ¿Cuánto es el mínimo? Todo es relativo, nunca menos de 500 caracteres (hay quienes defienden que es necesario una cantidad superior) aunque también dependerá de la cantidad de enlaces de afiliados que incorpores en cada página (nunca es conveniente pasarse en este aspecto, hay que recordar que Panda penaliza el exceso de publicidad). Siempre hay que tener presente el ratio enlaces de afiliación / texto.

3.- Contenidos “extra”: Hazle ver a Google que tu único objetivo no es sacar dinero de tu web (aunque el objetivo si que sea ese 😉 ). Por eso, no crees únicamente páginas con enlaces de afiliados, crea otras secciones diferentes pero que apoyen al resto de contenidos de la página. Un blog con consejos sobre los productos de tu página es, por ejemplo, un gran punto de apoyo.

4.- Oculta tus enlaces de afiliado: Los enlaces de afiliados son publicidad, así que esconderlos un poco no es mala idea. No hay una técnica específica que nos asegure que el buscador no se dará cuenta de lo que son realmente, pero por si acaso no está de mas poner alguna que otra barrera. Redirecciones de url (en teoría las arañas de los buscadores no las siguen), sistemas como Pretty Link para los usuarios de WordPress…

5.- Paciencia: El dinero es paciencia, el posicionamiento es paciencia… No crees tu web y al día siguiente le añadas tus enlaces de afiliación. Créala y dedícate durante un par de meses a los 3 primeros puntos referidos anteriormente. Cuando empiece a “rankear” de forma aceptable, será el momento de ir añadiéndole progresivamente los enlaces de afiliado (siempre sin pasarse en la cantidad) aplicando el punto 4.

Hay quienes consideran que el esfuerzo que hay que realizar para ganar dinero con la fórmula SEO + afiliación en la actualidad es demasiado grande, lo cual nos beneficia a quienes nos dedicamos a explotar estos sistemas ya que muchos potenciales competidores renuncian de antemano a su parte de “la tarta”.

Para cerrar este post, permíteme sugerirte que si quieres profundizar en como rentabilizar páginas webs a través de programas de afiliación u otros sistemas publicitarios en mi ebook “Como crear una web para ganar dinero extra todos los meses (sin necesidad de saber programar)” encontrarás más información.

Publicado el 4 de septiembre de 2012.

Google Panda, el contenido es el rey y la autoridad

Sigo librando día tras día una larga y cruenta (para mi) batalla para levantar lo que creo que es un Google Panda. Esto me lleva a devorar constantemente información sobre este animalito al que antiguamente le tuve simpatía por cosas como esta. Y casi todo el mundo dice lo mismo: elabora contenido magnífico, original e hiperlargo… y si no lo haces luego no te quejes si eres «pandalizado».

Ok, en cierto modo estoy de acuerdo con lo anterior pero entonces… ¿no posiciona Amazon demasiado bien teniendo en cuenta que, siendo generoso, el 99% de sus contenidos no son originales? La clave respuesta está en la autoridad de la web. Según MOZ Amazon.es tiene una autoridad de 88 (por encima de 50 ya está muuuuy bien).

¿Qué es la autoridad? Básicamente lograr enlaces buenos (precisamente de sitios con autoridad) y un poco de antigüedad de dominio.

A continuación comentaré un ejemplo real, «concierto madrid joaquin sabina», que creo que aporta resultados bastante significativos:

serps-google-joaquin-sabina

A nivel de contenido, los resultados 1, 2 y 4 (que son los que van a hacer dinero con esta búsqueda) cuentan o con contenido 100% duplicado (1 y 2) o prácticamente inexistente (4). Como comenté antes, la autoridad de estas páginas es bastante potente (74, 77 y 49 respectivamente) lo cual se traduce en estos buenos «rankeos».

Si el contenido fuera el absoluto rey, ¿no deberían liderar las SERP´s los diarios digitales que aparecen un poco más abajo en teoría unos contenidos más sólidos? Realmente los contenidos de dichos diarios no son muy potentes (de agencias, con bastante información copiada/reproducida en otros medios y tirando a cortos) pero también es verdad que la autoridad que les asigna MOZ es muy alta (86 y 89).

Ok Luis, entonces ¿si tienen una autoridad superior los diarios además de mejores contenidos por qué no ocupan las primeras posiciones? Si no estoy equivocado (que puedo estarlo, ya que las «instrucciones» de Google no son públicas) es debido a que los enlaces desde los sitios más relevantes los tiene Ticketmaster (incluso el propio Nvivo por ejemplo, como comparador de precios de entradas que es, enlaza a Ticketmaster).

Realmente contenidos de calidad y autoridad en principio deberían de estar unidos, porque contenido de gran calidad debería traer buenos enlaces y estos ayudar a aumentar la autoridad del sitio en cuestión. Usando el refranero español «la pescadilla que se muerde la cola». Si los artículos de los periódicos del caso anterior fueran de bastante mejor calidad podrían recibir buenos enlaces y pelear más duro por la supremacía en esa búsqueda… Pero también es verdad que aquí tienen ventaja quienes venden las entradas, porque es probable que gente que haga una previa sobre este concierto en algún punto escriba algo así como «las entradas para esta concierto se pueden adquirir…» (con «enlazaco» incluido).

Por todo lo anterior, en mi opinión, centrarlo todo en que el contenido es el rey no es suficiente… aunque si no tienes algo valioso que ofrecer (catálogo casi infinito de productos en el caso de Amazon, las entradas de los principales conciertos como Ticketmaster…) no podrás alcanzar el éxito sin él.

6 acciones que he implementado para que Google me quiera más

Hay algo que no funciona como antaño en una de mis webs. Se traduce en una pérdida de tráfico un poco superior al 10% en estos momentos (llegó a ser mayor).

Intuyo que puede ser Panda, pero no estoy plenamente seguro. No hay un patrón claro. En ningún momento hay subida ni bajada de tráfico fuera de lo normal. Algo pasa, lo sé porque las nuevas páginas no posicionan de la manera que lo hacían antes… pero manejo otra teoría: la competencia. Y es que está página está en un sector que los competidores han crecido prácticamente exponencialmente en los últimos meses.

tráfico google 2013 2014

A mi modo de ver, no hay patrones raros. Bajada si, pero… podría ser por el aumento de competitividad del sector, ¿no creéis?

¿Qué he hecho ante esta situación? Primero, no entrar en ningún momento en modo pánico realizando acciones rápidas que pudieran llegar a empeorar la situación. Segundo, implementar cambios en puntos que sospecho que podrían estar causando problemas pero con un objetivo claro: las mejoras deben servir, si o si, para elevar el nivel de la web (o al menos ahuyentar hipotéticos problemas futuros).

A continuación comparto las medidas que he tomado hasta el momento buscando que Google «quiera» más mi proyecto:

Mejorar contenidos. He reescrito bastantes páginas de mi web buscando aumentar el número de palabras que contiene. La primera fase ha consistido en aumentar el contenido de las landings «calientes» (las que más potencial de captar ingresos tienen). Ahora estoy inmerso en la segunda, en la que estoy cogiendo las páginas más pobres a nivel de contenidos y si considero que merece la pena el esfuerzo las reescribo y si no las elimino directamente (esto último es duro, pero creo que necesario).

También he añadido bastantes videos embebidos de Youtube para aumentar la calidad de la información que ofrezco a los usuarios… y mejorar el tiempo de permanencia. 😉

Busco mejora tanto para los usuarios (más información) como para Google (que no considere que hay contenido malo en la web).

Sobre esto último, no hay que volverse locos. Mi opinión se resumen el siguiente par de tweets:

Retirar el RSS público. Tenía un RSS disponible para todo el mundo con todos los productos de mi web. Lo he quitado, porque las posibilidades de que los malos jueguen con él son altas. Una pena, pero los RSS están muriendo… Me cuesta horrores encontrarlos para almacenarlos en mi The Old Reader.

Nuevo title para huir de una posible sobreoptimización. Hasta ahora la mayoría de los enlaces internos coincidían con H1 y title de la página. Google podría verlo como un intento de sobreoptimización por esas palabras claves determinadas. He complementado con más información los title, lo cual también puede ser de interés para los usuarios en las SERP´s.

Cambios linking interno para evitar sobreoptimización. Excesivos enlaces internos dañan. Hasta ahora casi todas las páginas repartían enlaces internos entre un pequeño grupo bajo el habitual sistema de «Últimas noticias / productos». Ahora, tras implementar un simplón algoritmo, todo está más repartido.

Reestructuración del Sitemap. Con el objetivo de darle a los buscadores únicamente información crucial a través del Sitemap, antaño únicamente incluía en el Sitemap los contenidos finales. Esto provocó que Google se liará un poco y que en sus Webmasters Tools únicamente marcará un % bajo de páginas del Sitemap indexadas (lo cual no era cierto, porque era sencillo comprobar que prácticamente todas estaban indexadas). A recomendación de Javier Casares (a quién comenté mis problemas y me sugirió tomar esta medida y la siguiente) simplifiqué el Sitemap dejando únicamente la URL y la fecha de la última modificación y las ordené por creación (en lugar de por actualización como venía haciendo hasta ahora). Además separé mi único Sitemap en 2 distintos.

Mejoras a nivel de código. ¿Tables o divs? Mítico debate. Finalmente he abandonado los tables y me he pasado a los divs. En esta nueva versión algunas landings han totalizado hasta un 30% menos de código. En teoría ahora las páginas deberían ser más sencillas de indexar por las arañas de los buscadores, deberían cargar más rápido…

¿Qué os parecen las mejoras? ¿Tienen sentido para vosotros? ¿Le gustarán tanto a la gran G como a los usuarios?

Unas cuantas notas sobre el SEO Clinic eShow Madrid 2014

Comparto algunas de las notas que tomé ayer en el SEO Clinic del eShow 2014. Obviamente falta mucha info… ¡ya que fueron varias horas de formación! Pero menos es nada, ¿no?

Seo Masivo (José B. Moreno)

Lo primero, antes de plantear un proyecto, es tener claro que puedes ofrecer a tus potenciales clientes. En su caso no pueden competir en Google en búsquedas tipo «hoteles en Madrid».

QDQ, como no podía ser de otra forma al albergar muchas páginas, se centra en el long tail. Ellos tienen que ir a por kw’s como «venta de rodamientos en Cuenta».

Van a lo fácil… pero, ojo, no a lo inútil para el cliente.

Desde hace año y medio los dominios EMD (exact match domain) no funcionan tan bien. Por ello, trabajan hoy en día más dominios de marca que EMD.

No muy partidario de dominios con ñ y tildes.

Sus webs ya cuentan con diseño adaptativo web/móvil.

Es muy importante sacar partido a las herramientas de análisis.

Arquitectura de la información y SEO: 11811.es, un caso práctico (Fernando Maciá)

Para empezar análisis de la competencia y de fortalezas y debilidades propias.

En 2009, año de inicio del proyecto que mostró, Trends indicaba que por marca Páginas amarillas arrasaba a sus competidores.

Su punto de partida era peculiar: contaban con la misma materia prima que sus competidores directos.

Alto % de rebote no es necesariamente malo. Por ejemplo alguien llega, anota el teléfono que busca y se va.

¿Cómo empezaron a avanzar? Incrementar branding (anuncios TV), énfasis en la velocidad y profundidad de indexación, arquitectura de la información más inteligente que la de la competencia, mejor relevancia onpage…

¿Problemas a solucionar? Problemas de indexación rápida (página grande con poco PageRank), alto riesgo de contenido duplicado…
Una página grande es prácticamente imposible conseguir que se indexe totalmente. Hay una parte, la más pequeña, que se indexa y posiciona, hay otra que se indexa pero no posiciona y otra tercera lo uno ni lo otro. A través de la arquitectura de información se debe conseguir que las landings calientes (páginas con más demanda y con mayor potencial de beneficios) sean las que se posicionan e indexan. Hay que concentrar el PR sobre los nodos de la arquitectura con mayor potencial de tráfico.

¿Qué ciudades eran claves para 11811? Las 7 con mayor población. Por tanto, esos 7 son fijados como nodos claves para su arquitectura.
Buscaron también las actividades más populares con la ayuda de Trends, Planificador de palabras clave…, y también las marcaron como claves.
Se creó una estructura para repartir el PageRank entre los nodos importantes y que Google (los usuarios no navegamos por directorios, usamos el buscador) llegará a los contenidos profundos en menos «clics».

Un sencillo ejemplo es que en su arquitectura tiene más peso un ciudad como Getafe que una provincia como Palencia.

En los inicios, indexación gradual del contenido. No todo de golpe. Se puede hacer usando nofollow, noindex… A Google no se le puede enseñar un proyecto nuevo entero de golpe. Mejor salir con algo pequeño, pero bueno, que salir con todo de inicio. 11811, incluso con el proyecto entero realizado, no les permitió acceder e indexar a Google todo el proyecto de primeras.

De primeras no introducir Sitemap… Luego Sitemap por provincias, ya que el sitio es muy grande.

¿Cómo seguir creciendo? Captar enlaces de portales amigos progresivamente, potenciar con contenidos las landings «calientes», buscar oportunidades con granularidades que no tengan la competencia (ellos lo encontraron en comarcas, otros como Idealista dividen también por barrios)…

Y siguen buscando nuevas oportunidades de crecimiento. Como presenta Google los datos, por ejemplo, cambia el tráfico que una web recibe.
En la actualidad están peleando con Panda. Cada vez Panda sube más el umbral.

Long tail es lo que más tráfico les da.

Páginas Amarillas se basa en la autoridad de marca y dominio para ser el líder. No somos todos iguales ante G.

Aquí tenéis la presentación.

Resistencias al SEO: competencia, cliente y Google (Miguel López)

El SEO es una carrera de resistencia.

¿Lo más sencillo para llegar a los primeros puestos en Google? Mirar que hace el primero e intentar mejorarlo.

Tras Panda y Penguin todo el mundo parece que se ha pasado al «Content Marketing». Trends lo demuestra. Lo mejor es que funciona.
crecimiento del content marketing
¿Resultado de lo anterior? El 80% del contenido de la red es morralla creada para buscar tráfico long tail.

¿Cómo detectar una penalización? Analytics -> Palabras clave. A veces Panda penaliza las principales kw´s, no todas.

Herramientas para detectar penalizaciones: Website Penalty Indicator y Barracuda.

Para no caer en Panda artículos entre 300 y 400 palabras. 150 serio candidato a ser «Pandalizado».

Piratas, drogas, sexo y quality raters (Miguel Pascual)

Necesidad de actualizar WordPress.

Sobre lo que explicó Miguel en la primera fase de su ponencia ya hablé en mi último post. Incluso en él se incluye un video del propio Miguel.

Los quality raters son personas. Suelen responder rápido. También comenten errores (hay que estar atento porque te puedes aferrar a alguna de ellos para intentar que te levanten la penalización).

Entre webs propias es peligroso enlazar. Respecto a esto no hay unanimidad en la sala. Yo en este caso estoy con Miguel, en mi opinión mejor no enlazar entre proyectos propios.

Poner nofollow en links vendidos (en esta categoría entiendo que deberían entrar por ejemplo los links de afiliación).

Penalizaciones reales en sitios reales (David Campañó)

A lo que todo el mundo suele llamar penalizaciones, realmente no lo son. Existe la penalización manual. Lo otro son cambios de algoritmo. (Disclaimer: de ahora en adelante a ambas me referiré como penalizaciones para hacer más sencilla la lectura…).

Una subida de tráfico sin motivo puede ser el anticipo de una caída de tráfico debida a factores algorítmicos.

¿Quién no ha tenido en 5/6 años sustos a nivel de caídas de tráfico?

En el caso real que mostró, Motor.es (¿pongo nofollow para qué G no les haga llegar una notificación de enlace no natural? ;)) a ellos las fichas les dejaron de buscar (mucho contenido duplicado) por lo que tuvieron que centrar su búsqueda de tráfico en los listados.

Panda te descuenta tráfico poco a poco. Desde que eres penalizado hasta que lo descubres puede pasar un tiempo. El Panda más peligroso es que el que te desangra poco a poco. Si no actúas a tiempo Panda te acaba matando.

¿Cuando empezó la penalización? ¿2013? ¿Qué actualizaciones del algoritmo hubo en 2013?

Habla de su experiencia con quality raters. Ellos necesitaron hasta 8 reconsideraciones para levantar una penalización manual.
En caso de recibir un aviso de quality raters por enlaces no naturales, y antes de comenzar a utilizar la herramienta de desindexación de enlaces, pararse a analizar qué enlaces son buenos para una web y cuáles no.

Por cierto, si Google te dice que tienes enlaces sospechosos… ¡para sus SERP’s son directamente culpables!

Ya no existen prácticamente los enlaces naturales. Hoy en día la gente ya no tiene blogs, tiene Facebook, Twitter…

¿Cómo hacer linkbuilding? Tratar de crear contenido que guste para buscar enlaces de terceros (si se consiguen de webs importantes del sector, ¡lo mejor!).

Cuando Panda ataca es porque considera que una web tiene mucho «bambú». Pero todo no es bambú, discernir qué es que.
Si con las fotos se crean páginas… claras candidatas a generar bambú.

Tratar de aislar el contenido malo. Disallow, robots.txt, sacar a otro dominio… No permitir ni siquiera rastrearlo.
Si te ataca Panda, hay que currar para salir de él. Panda no es el final.

Hay que buscar mejorar la calidad de la visita. El parámetro página/sesión es un indicador interesante para este aspecto.
Motor.es va de pleno hacia la web semántica: RDF, schema.org…

Gestión de Errores e Indexación en sitios enormes (Pedro Martínez)

Lo primero es corregir los errores recientes.

Un Sitemap por cada sección grande.

Canonical no siempre funciona perfectamente. ¡Precaución!

Preparando una estrategia de Linkbuilding (Fernando Muñoz)

Para comenzar el Linkbuilding, al igual que para buscar financiación: FFF (friends, family and fools).

El linkbuilding (seguro) de darle a un botón ya no existe. Hay que ir link a link.

El linkbuilding no es gratis, cuesta tiempo o dinero.

Ahrefs es un buen sitio para conocer los enlaces de tu competencia.

Blogs y foros importantes de tu sector son grandes sitios para ir en busca de enlaces.

No todas las páginas son interesantes para conseguir links. Hay que hace una investigación previa (¿está indexada? ¿posiciona bien su kw principal?)

También buscar enlaces naturales. Aquí coincide con David Campañó, lo mejor escribir artículos que gusten.

Presentación de Fernando Muñoz.

Hasta aquí las ponencias. Mi experiencia ha sido muy positiva. Aunque yo no pagué entrada tengo la intención de hacerlo en la edición de 2015.
¿Por qué hay más información claramente de unas ponencias que de otras? La calidad de todas fueron altas, pero obviamente a unos nos interesan más unas básicamente porque están relacionadas con las problemáticas a las que nos enfrentamos en nuestro día a día.

Imagino que ya sabréis cuales fueron las que más me gustaron pero por si acaso…

Tu web puede ser hackeada y además penalizada por Google

Cada día más hackers se están aprovechando de los agujeros de seguridad de muchas páginas web y de las vulnerabilidades de Google para hacer dinero.

No tienes más que hacer una búsqueda en Google como por ejemplo «air max baratas» para comprobarlo.

CRO > SEO

Puedes comprobarlo en la imagen, 3 de las 4 primeras webs posicionadas están hackeadas. ¿O es que ahora los editores digitales se dedican también a vender zapatillas de Nike en su propia web?

El método elegido para poder realizar esto parece ser el siguiente. Encuentran un agujero de seguridad donde introducen las páginas que quieren posicionar (que en realidad solo sirven para «enseñárselas» a Google ya que lo que contienen es una redirección a la página donde los hackers buscan hacer dinero) y luego hacen una campaña bestial de linkbuilding hacia dichos archivos.

¿Resultado? Consiguen posicionar sus páginas en webs de terceros gracias a la fuerza bruta obteniendo tráfico a través de las redirecciones ya comentadas. Luego la penalización, que antes o después llegará, se la queda la web hackeada (los editores por ejemplo en el primero de los casos de la imagen superior) y los autores de la treta seguirán recibiendo tráfico de otras webs que «controlan» a través de este método.

Si quieres ampliar información sobre el tema, lo cual te aconsejo ya que si hay hackers que han entrado en el pentágono tu web es imposible que sea 100% segura, te recomiendo que visualices el siguiente vídeo:

¡Debemos estar muy atentos los webmasters porque esto nos puede costar un gran disgusto!

Por qué considero el CRO más importante que el SEO

CRO SEOComienza oficiosamente el curso 2014/15. Y una de las primeras cosas que he hecho al iniciar esta nueva «temporada» laboral es poner un post it en mi ordenador con el siguiente mensaje: CRO (Conversion Rate Optimization) > SEO (Search Engine Optimization).

Sé que no es rompedor, ya que lo anterior no deja de ser una repetición del manido mantra «beneficios es más importante que las páginas vistas», pero de esta forma quiero que no se me olvide reforzar mi apuesta por esta filosofía para mis proyectos. Siempre lo he tratado de hacer, pero reconozco que en ocasiones me he desviado del camino.

Los principales motivos por lo que creo que es beneficioso anteponer el CRO al SEO son los siguientes:

  • Los beneficios son la métrica más importante. Desde este punto de vista, es más interesante doblar tu CRO que tu tráfico SEO (el crecimiento del tráfico y de los ingresos casi nunca es lineal).
  • El número de webs crece cada día, cosa que no ocurre con el número de nuevos usuarios que se incorporan a internet. Además el número de webs de calidad suben (muchas webs de empresas). Suma de lo anterior: captar tráfico cada día es más complicado.
  • A lo anterior hay que sumar que Google, el mayor surtidor de tráfico vía SEO, cada día se queda más tráfico para si.
  • En el SEO dependes de terceros (básicamente de un tercero, Google), en el CRO no tanto. Esto es algo que nos debemos de plantear seriamente todos los websmasters: reducir nuestra Googledependencia.

Eso si, tampoco hay que perder el norte. Sin tráfico, es imposible lograr ingresos. Por tanto para los nuevos proyectos que estoy montando no queda otra que 1º tráfico (SEO por ejemplo) y 2º conversión (CRO).