Archivo de la categoría: seo

Unas cuantas notas sobre el SEO Clinic eShow Madrid 2014

Comparto algunas de las notas que tomé ayer en el SEO Clinic del eShow 2014. Obviamente falta mucha info… ¡ya que fueron varias horas de formación! Pero menos es nada, ¿no?

Seo Masivo (José B. Moreno)

Lo primero, antes de plantear un proyecto, es tener claro que puedes ofrecer a tus potenciales clientes. En su caso no pueden competir en Google en búsquedas tipo “hoteles en Madrid”.

QDQ, como no podía ser de otra forma al albergar muchas páginas, se centra en el long tail. Ellos tienen que ir a por kw’s como “venta de rodamientos en Cuenta”.

Van a lo fácil… pero, ojo, no a lo inútil para el cliente.

Desde hace año y medio los dominios EMD (exact match domain) no funcionan tan bien. Por ello, trabajan hoy en día más dominios de marca que EMD.

No muy partidario de dominios con ñ y tildes.

Sus webs ya cuentan con diseño adaptativo web/móvil.

Es muy importante sacar partido a las herramientas de análisis.

Arquitectura de la información y SEO: 11811.es, un caso práctico (Fernando Maciá)

Para empezar análisis de la competencia y de fortalezas y debilidades propias.

En 2009, año de inicio del proyecto que mostró, Trends indicaba que por marca Páginas amarillas arrasaba a sus competidores.

Su punto de partida era peculiar: contaban con la misma materia prima que sus competidores directos.

Alto % de rebote no es necesariamente malo. Por ejemplo alguien llega, anota el teléfono que busca y se va.

¿Cómo empezaron a avanzar? Incrementar branding (anuncios TV), énfasis en la velocidad y profundidad de indexación, arquitectura de la información más inteligente que la de la competencia, mejor relevancia onpage…

¿Problemas a solucionar? Problemas de indexación rápida (página grande con poco PageRank), alto riesgo de contenido duplicado…
Una página grande es prácticamente imposible conseguir que se indexe totalmente. Hay una parte, la más pequeña, que se indexa y posiciona, hay otra que se indexa pero no posiciona y otra tercera lo uno ni lo otro. A través de la arquitectura de información se debe conseguir que las landings calientes (páginas con más demanda y con mayor potencial de beneficios) sean las que se posicionan e indexan. Hay que concentrar el PR sobre los nodos de la arquitectura con mayor potencial de tráfico.

¿Qué ciudades eran claves para 11811? Las 7 con mayor población. Por tanto, esos 7 son fijados como nodos claves para su arquitectura.
Buscaron también las actividades más populares con la ayuda de Trends, Planificador de palabras clave…, y también las marcaron como claves.
Se creó una estructura para repartir el PageRank entre los nodos importantes y que Google (los usuarios no navegamos por directorios, usamos el buscador) llegará a los contenidos profundos en menos “clics”.

Un sencillo ejemplo es que en su arquitectura tiene más peso un ciudad como Getafe que una provincia como Palencia.

En los inicios, indexación gradual del contenido. No todo de golpe. Se puede hacer usando nofollow, noindex… A Google no se le puede enseñar un proyecto nuevo entero de golpe. Mejor salir con algo pequeño, pero bueno, que salir con todo de inicio. 11811, incluso con el proyecto entero realizado, no les permitió acceder e indexar a Google todo el proyecto de primeras.

De primeras no introducir Sitemap… Luego Sitemap por provincias, ya que el sitio es muy grande.

¿Cómo seguir creciendo? Captar enlaces de portales amigos progresivamente, potenciar con contenidos las landings “calientes”, buscar oportunidades con granularidades que no tengan la competencia (ellos lo encontraron en comarcas, otros como Idealista dividen también por barrios)…

Y siguen buscando nuevas oportunidades de crecimiento. Como presenta Google los datos, por ejemplo, cambia el tráfico que una web recibe.
En la actualidad están peleando con Panda. Cada vez Panda sube más el umbral.

Long tail es lo que más tráfico les da.

Páginas Amarillas se basa en la autoridad de marca y dominio para ser el líder. No somos todos iguales ante G.

Aquí tenéis la presentación.

Resistencias al SEO: competencia, cliente y Google (Miguel López)

El SEO es una carrera de resistencia.

¿Lo más sencillo para llegar a los primeros puestos en Google? Mirar que hace el primero e intentar mejorarlo.

Tras Panda y Penguin todo el mundo parece que se ha pasado al “Content Marketing”. Trends lo demuestra. Lo mejor es que funciona.
crecimiento del content marketing
¿Resultado de lo anterior? El 80% del contenido de la red es morralla creada para buscar tráfico long tail.

¿Cómo detectar una penalización? Analytics -> Palabras clave. A veces Panda penaliza las principales kw´s, no todas.

Herramientas para detectar penalizaciones: Website Penalty Indicator y Barracuda.

Para no caer en Panda artículos entre 300 y 400 palabras. 150 serio candidato a ser “Pandalizado”.

Piratas, drogas, sexo y quality raters (Miguel Pascual)

Necesidad de actualizar WordPress.

Sobre lo que explicó Miguel en la primera fase de su ponencia ya hablé en mi último post. Incluso en él se incluye un video del propio Miguel.

Los quality raters son personas. Suelen responder rápido. También comenten errores (hay que estar atento porque te puedes aferrar a alguna de ellos para intentar que te levanten la penalización).

Entre webs propias es peligroso enlazar. Respecto a esto no hay unanimidad en la sala. Yo en este caso estoy con Miguel, en mi opinión mejor no enlazar entre proyectos propios.

Poner nofollow en links vendidos (en esta categoría entiendo que deberían entrar por ejemplo los links de afiliación).

Penalizaciones reales en sitios reales (David Campañó)

A lo que todo el mundo suele llamar penalizaciones, realmente no lo son. Existe la penalización manual. Lo otro son cambios de algoritmo. (Disclaimer: de ahora en adelante a ambas me referiré como penalizaciones para hacer más sencilla la lectura…).

Una subida de tráfico sin motivo puede ser el anticipo de una caída de tráfico debida a factores algorítmicos.

¿Quién no ha tenido en 5/6 años sustos a nivel de caídas de tráfico?

En el caso real que mostró, Motor.es (¿pongo nofollow para qué G no les haga llegar una notificación de enlace no natural? ;)) a ellos las fichas les dejaron de buscar (mucho contenido duplicado) por lo que tuvieron que centrar su búsqueda de tráfico en los listados.

Panda te descuenta tráfico poco a poco. Desde que eres penalizado hasta que lo descubres puede pasar un tiempo. El Panda más peligroso es que el que te desangra poco a poco. Si no actúas a tiempo Panda te acaba matando.

¿Cuando empezó la penalización? ¿2013? ¿Qué actualizaciones del algoritmo hubo en 2013?

Habla de su experiencia con quality raters. Ellos necesitaron hasta 8 reconsideraciones para levantar una penalización manual.
En caso de recibir un aviso de quality raters por enlaces no naturales, y antes de comenzar a utilizar la herramienta de desindexación de enlaces, pararse a analizar qué enlaces son buenos para una web y cuáles no.

Por cierto, si Google te dice que tienes enlaces sospechosos… ¡para sus SERP’s son directamente culpables!

Ya no existen prácticamente los enlaces naturales. Hoy en día la gente ya no tiene blogs, tiene Facebook, Twitter…

¿Cómo hacer linkbuilding? Tratar de crear contenido que guste para buscar enlaces de terceros (si se consiguen de webs importantes del sector, ¡lo mejor!).

Cuando Panda ataca es porque considera que una web tiene mucho “bambú”. Pero todo no es bambú, discernir qué es que.
Si con las fotos se crean páginas… claras candidatas a generar bambú.

Tratar de aislar el contenido malo. Disallow, robots.txt, sacar a otro dominio… No permitir ni siquiera rastrearlo.
Si te ataca Panda, hay que currar para salir de él. Panda no es el final.

Hay que buscar mejorar la calidad de la visita. El parámetro página/sesión es un indicador interesante para este aspecto.
Motor.es va de pleno hacia la web semántica: RDF, schema.org…

Gestión de Errores e Indexación en sitios enormes (Pedro Martínez)

Lo primero es corregir los errores recientes.

Un Sitemap por cada sección grande.

Canonical no siempre funciona perfectamente. ¡Precaución!

Preparando una estrategia de Linkbuilding (Fernando Muñoz)

Para comenzar el Linkbuilding, al igual que para buscar financiación: FFF (friends, family and fools).

El linkbuilding (seguro) de darle a un botón ya no existe. Hay que ir link a link.

El linkbuilding no es gratis, cuesta tiempo o dinero.

Ahrefs es un buen sitio para conocer los enlaces de tu competencia.

Blogs y foros importantes de tu sector son grandes sitios para ir en busca de enlaces.

No todas las páginas son interesantes para conseguir links. Hay que hace una investigación previa (¿está indexada? ¿posiciona bien su kw principal?)

También buscar enlaces naturales. Aquí coincide con David Campañó, lo mejor escribir artículos que gusten.

Presentación de Fernando Muñoz.

Hasta aquí las ponencias. Mi experiencia ha sido muy positiva. Aunque yo no pagué entrada tengo la intención de hacerlo en la edición de 2015.
¿Por qué hay más información claramente de unas ponencias que de otras? La calidad de todas fueron altas, pero obviamente a unos nos interesan más unas básicamente porque están relacionadas con las problemáticas a las que nos enfrentamos en nuestro día a día.

Imagino que ya sabréis cuales fueron las que más me gustaron pero por si acaso…

Tu web puede ser hackeada y además penalizada por Google

Cada día más hackers se están aprovechando de los agujeros de seguridad de muchas páginas web y de las vulnerabilidades de Google para hacer dinero.

No tienes más que hacer una búsqueda en Google como por ejemplo “air max baratas” para comprobarlo.

CRO > SEO

Puedes comprobarlo en la imagen, 3 de las 4 primeras webs posicionadas están hackeadas. ¿O es que ahora los editores digitales se dedican también a vender zapatillas de Nike en su propia web?

El método elegido para poder realizar esto parece ser el siguiente. Encuentran un agujero de seguridad donde introducen las páginas que quieren posicionar (que en realidad solo sirven para “enseñárselas” a Google ya que lo que contienen es una redirección a la página donde los hackers buscan hacer dinero) y luego hacen una campaña bestial de linkbuilding hacia dichos archivos.

¿Resultado? Consiguen posicionar sus páginas en webs de terceros gracias a la fuerza bruta obteniendo tráfico a través de las redirecciones ya comentadas. Luego la penalización, que antes o después llegará, se la queda la web hackeada (los editores por ejemplo en el primero de los casos de la imagen superior) y los autores de la treta seguirán recibiendo tráfico de otras webs que “controlan” a través de este método.

Si quieres ampliar información sobre el tema, lo cual te aconsejo ya que si hay hackers que han entrado en el pentágono tu web es imposible que sea 100% segura, te recomiendo que visualices el siguiente vídeo:

¡Debemos estar muy atentos los webmasters porque esto nos puede costar un gran disgusto!

Por qué considero el CRO más importante que el SEO

CRO > SEOComienza oficiosamente el curso 2014/15. Y una de las primeras cosas que he hecho al iniciar esta nueva “temporada” laboral es poner un post it en mi ordenador con el siguiente mensaje: CRO (Conversion Rate Optimization) > SEO (Search Engine Optimization).

Sé que no es rompedor, ya que lo anterior no deja de ser una repetición del manido mantra “beneficios es más importante que las páginas vistas“, pero de esta forma quiero que no se me olvide reforzar mi apuesta por esta filosofía para mis proyectos. Siempre lo he tratado de hacer, pero reconozco que en ocasiones me he desviado del camino.

Los principales motivos por lo que creo que es beneficioso anteponer el CRO al SEO son los siguientes:

  • Los beneficios son la métrica más importante. Desde este punto de vista, es más interesante doblar tu CRO que tu tráfico SEO (el crecimiento del tráfico y de los ingresos casi nunca es lineal).
  • El número de webs crece cada día, cosa que no ocurre con el número de nuevos usuarios que se incorporan a internet. Además el número de webs de calidad suben (muchas webs de empresas). Suma de lo anterior: captar tráfico cada día es más complicado.
  • A lo anterior hay que sumar que Google, el mayor surtidor de tráfico vía SEO, cada día se queda más tráfico para si.
  • En el SEO dependes de terceros (básicamente de un tercero, Google), en el CRO no tanto. Esto es algo que nos debemos de plantear seriamente todos los websmasters: reducir nuestra Googledependencia.

Eso si, tampoco hay que perder el norte. Sin tráfico, es imposible lograr ingresos. Por tanto para los nuevos proyectos que estoy montando no queda otra que 1º tráfico (SEO por ejemplo) y 2º conversión (CRO).

Consejo SEO (aplicable a todos los aspectos de la vida): evita entrar en modo pánico

Desde hace varios meses estoy muy enganchado al ajedrez. Esto me llevó hace unas semanas a comprar el libro “Jaque mate: Estrategias ganadoras del ajedrez para aplicar a tu negocio” escrito por el Gran Maestro Internacional Miguel Illescas (podéis leer mi opinión sobre la obra aquí).

Jaque mate: Estrategias ganadoras del ajedrez para aplicar a tu negocioEn el libro se habla fundamentalmente de como afrontan ajedrecistas de talla mundial sus problemas sobre el tablero y como la forma en que tratan de resolverlos puede ser aplicable a la empresa (y al día a día de cualquier persona). Aunque muchos de ellos son válidos para cualquier SEO, en este post me gustaría hablar sobre el modo pánico.

El modo pánico hace referencia a situaciones de tensión de las cuales tratamos de escapar rápidamente a través de, en muchas ocasiones, acciones poco reflexivas.

Sobre el tablero de ajedrez se ve claramente lo anterior. Si un jugador realiza una mala jugada, la cual le lleva una posición comprometida, el impulso natural le impulsa a querer mejorar su situación rápidamente realizando jugadas sin la serenidad que la situación demanda. No aguanta la presión de estar en una mala situación y piensa que con decisiones rápidas saldrá de ella.

Entrar en modo pánico en ajedrez se traduce en que en muchas ocasiones después de una mala jugada… se encadenan otras dos igual de malas, o incluso peores, que llevan a una situación todavía mucho más comprometida.

Hay que tratar de evitar a toda costa entrar en modo pánico. Illescas dice que Vladimir Krámnik, a quién ayudó a ser campeón del mundo jugando el rol de entrenador, nunca entraba en modo pánico y eso le ayudó a triunfar en el mundo de las 64 casillas.

Como sabrás, en el SEO, como en mucho otros campos, también se producen momentos de máxima tensión. Por ejemplo, después de una penalización. Muchos somos quienes después de un “machetazo” de Google hemos tomado decisiones sin la reflexión que exigía la situación.

Precisamente acabo de leer un artículo 100% recomendable sobre cómo recuperarse de una penalización de Google Panda y uno de los consejos que dan los autores a quienes quieran solventar situaciones similares es… no entrar en pánico.

Copio y pego uno de los párrafos ya que creo que puede servir perfectamente para ilustrar lo que quiero plasmar en este post “Las decisiones tienen que estar bien fundamentadas, teniendo claro que esa es la mejor solución a adoptar entre las posibles. Parece obvio, pero no lo es: cuando eres el responsable de un sitio que sufre una caída cercana al 40% del tráfico es fácil caer en el error de querer solucionarlo todo en sólo unas horas o días, pero eso es un problema porque en ese estado de nerviosismo es fácil tomar decisiones equivocadas que agraven el problema.”.

Recuerda, trata de evitar siempre entrar en modo pánico. La mala jugada ya no es reversible. Ahora lo primero es evitar que las siguientes jugadas también sean malas.

Cómo detectar una caída de tráfico provocada por un cambio de algoritmo

Mucha gente que ve perder paulatinamente tráfico procedente de buscadores en sus webs lo achaca a penalizaciones por parte de las mismos, olvidándose del peso que puede tener en ese descenso los (cada vez más habituales) cambios de algoritmo.

Antes de avanzar, una rápida explicación sobre ambas. Por un lado están las penalizaciones por las cuales el buscador señala a tu web como spam y le aplica una sanción dentro de sus SERPs. Por otro lado están los cambios de algoritmo que periódicamente realizan los buscadores que te pueden perjudicar o beneficiar.

Aunque hay múltiples casos dentro de cada una, generalmente las penalizaciones provocan fuertes y rápidas caídas de tráfico mientras que las variaciones por cambios de algoritmo no suelen ser tan drásticas.

En ambos casos el escenario es complicado, ya que nadie nos va a avisar cuando los buscadores interpreten que estamos haciendo mal las cosas (bueno, en “honor a la verdad” a veces Google avisa de alguna penalización manual a través de Search Console) y obren en consecuencia. Porque ni en las penalizaciones, que en principio son más fáciles de detectar (no el tipo, si no simplemente que hemos sido penalizados), nadie nos puede asegurar que hundimientos de tráfico puedan ser debidos a ellas ya que también pueden ser provocados por mal uso de meta noindex, robots.txt, fallos de servidor, fallos en la implementación del código del sistema de medición de tráfico web… Incluso dentro de los cambios de algoritmo los hay que afectan en mayor medida y en menor medida.

Entonces nos surge un problema, ¿cómo detectar cuando nos ha “pillado” un cambio de algoritmo? Obviamente nadie quiere perder un 10% de su tráfico, aunque las gráficas visualmente indiquen que la caída es leve.

A continuación explicaré como encontré en una de mis webs una caída de tráfico de buscadores provocada creo (obviamente Google no me lo ha asegurado así que tampoco yo lo puedo afirmar al 100%) por un cambio de algoritmo, cosa siempre complicada debido a lo ya explicado anteriormente (recordar: a.- nadie te va a avisar. 2.- las caídas pueden ser provocadas por causas ajenas al buscador).

Como todo responsable de una web hace, estudio una serie de parámetros mensuales de cada una de mis webs para analizar la evolución de los mismos. Una de ellas son las páginas vistas mensuales, las cuales comparo automáticamente con las del mismo mes del año anterior para evitar la distorsión que puede provocar, al comparar meses consecutivos, la estacionalidad. Por cierto, después de tiempo desechando el dato, ahora también controlo y comparo el número de visitas mensuales, dato más interesante para realizar este pequeño análisis.

caida paginas vistas
En los datos anteriores se observa claramente como la web va subiendo como un cohete hasta que en Junio de 2013 el crecimiento se desacelera para comenzar a darse la vuelta a partir de ahí. ¿Qué ha pasado?

En Analytics comprobé que la caída de tráfico tenía como fuente principal los buscadores. Por ello consideré que sería una buena idea comparar los periodos de 2012 y 2013 en los que acaba la subida y comienza la bajada. Filtrando únicamente el tráfico de Google obtengo lo siguiente:

comparacion visitas
No hay duda. Aunque parece que la caída de tráfico no es evidente mes a mes, por su temática debería empezar a crecer como la espuma y no lo está haciendo. Algo marcha mal, ¿pero el qué?

Mirando la gráfica, en torno al 11 de Junio las tornas parecen cambiar. ¿Hubo cambios en esas fechas en el algoritmo de Google? Al acudir al Google Algorithm Change History de Moz veo que “casualmente” el 11 de Junio hubo movimientos: “Panda Dance” y “Payday Loan Update”. ¡De ahí puede surgir mi problema!

Tras lo anterior, estudié la situación y llegué a la conclusión que unos de los cambios, exactamente el “Payday Loan Update”, podrían ser los causantes de la situación.

Al no ser una web prioritaria en mi portafolio, no empecé a trabajar en revertir la situación hasta el 29 de Octubre por lo que todavía es pronto para saber si los cambios que he ido haciendo en mi web surgirán efecto. Si lo hacen, contaré en un próximo post lo que he estado haciendo con el objetivo de que G vuelva a “mirar con buenos” ojos a mi web.

Como en SEO es imposible asegurar al 100% ninguna teoría (todo se basa en que nadie conoce el algoritmo) me gustaría conocer tu opinión sobre este post. ¿Estás de acuerdo en que mi web tiene pinta de haberse visto afectada por un cambio de algoritmo? ¿Qué otros parámetros podría analizar para estar más seguro? ¡Gracias por participar!

La estacionalidad en el SEO (tu web quizás no está penalizada)

Si tu proyecto depende del tráfico de buscadores para sobrevivir me imagino que vivirás en un continuo sobre salto. Lo usual, en caso de ser cierto lo anterior, será que prácticamente todo tu tráfico de buscadores provenga de Google, por lo que estarás siempre alerta de las continuas actualizaciones / modificaciones / reestructuraciones de su algoritmo ya se llamen Panda, Penguin o el reciente Hummingbird.

El proceso se repite ante cada actualización. Alguien da el primer aviso, Matt Cutts confirma que algo hay… y a partir de ahí avalancha de información más o menos (mucha más de esta última) contrastada.

Entonces empiezas a mirar los gráficos buscando tendencias ascendentes / descendentes provocadas por los recientes cambios de los buscadores. Y si la tendencia es descendente, llegan los nervios, el stress y las ganas de revertir la situación. Este post no va de como levantar una penalización SEO. Ya hay muchos sobre ello. Por cierto, bastantes defienden que levantar una penalización es sencillo lo cual no comparto para nada. Lo primero porque tu únicamente intuyes que estás penalizado, ni tan siquiera tienes la confirmación pero no sabes por qué salvo casos muy evidentes. Pero repito, este es otro tema.

Lo que si que quiero recordarte a través de estas líneas es que si notas una nueva tendencia en tu tráfico, ya sea ascendente o descendente, puede ser debido a la estacionalidad y no a los reajustes en los buscadores.

Si vendes lotería de de Navidad a partir de Enero tu tráfico se va a desplomar. Si o si. Este es un ejemplo muy evidente, pero la estacionalidad casi siempre afecta en mayor o menor medida y no se suele tener en cuenta habitualmente.

Un ejemplo de uno de mis proyectos. En MueveteBasket.es vendo camisetas de baloncesto, las cuales tienen una estacionalidad bastante clara. En verano y en Navidad reciben más tráfico que el resto del año.  ¿Por qué? En Navidad todo se vende más, pero en verano la clave está en que la mayoría de las camisetas de la NBA no se utilizan para jugar a baloncesto sino para “vestir”. ¿Y cuando se utilizará para vestir camisetas de tirantes? En verano. Por eso, en Septiembre el tráfico está cayendo en picado (no por el despliegue el ¿4 de septiembre? de Google Hummingbird).

¿Cómo puedes cerciorarte de que las tendencias que ves en tus gráficas se deben a la estacionalidad y no a otros motivos? Algunas ideas:

  • Tendencias en los gráficos. En el de mi propio caso que comenté anteriormente se ve más o menos claro.camisetas baloncesto muevetebasket
  • Apuntar posiciones en SERPs. Simple, vas guardando las posiciones en diferentes fechas de 4 o 5 keywords. Si es en Google, mejor haz las búsquedas con una url similar a la siguiente para obtener datos lo menos condicionados posibles por geolocalizaciones, logueos… https://www.google.com/search?pws=0&gf=0&filter=0&hl=es&gl=es&q=camisetas+baloncesto No esperes las mismas posiciones, si pasas del 4 al 7 y del 8 al 2 tu posicionamiento es similar. Eso si, preocúpate si tus top 10 dejan de estar en la primera página…
  • Google Trends. Usa la herramienta para analizar tendencias. Si busco camisetas baloncesto veo claramente como a partir de Septiembre el interés por ellas cae en picado.
    camisetas baloncesto google trends
  • Sentido común. Para esto y para todo. Me remito de nuevo a la lotería de Navidad.

Coincido con Google, ha llegado la era de la autoridad a internet

Tanto en este blog como en el “cara a cara”, la gente que me conoce sabe que no suelo dedicarle generalmente bonitas palabras a Google. Para no aburrir siempre como los mismos temas, por si alguien no conoce mi posicionamiento respecto a la gran G lo resumiré muy brevemente: abusa, al igual que todos los monopolios, de su posición dominante en el mercado de las búsquedas.

Pero como dejo claro en el título, este post va sobre todo de autoridad.

Y es que el caso es que últimamente no paro de repetir el mismo “mantra”: en internet está todo, pero todo lo que está en internet no es cierto.

No vale con buscar información sobre un tema y dar la primera que “salga” a nuestro paso por buena.

Si algo ha traído consigo internet es la era de la hiperinformación. Y esto es debido a que cualquiera, sin ninguna barrera de entrada (pertenencia a un medio o grupo, conocimientos de programación…) puede ponerse a escribir sobre cualquier tema… ¡e incluso “atreverse” a evangelizar sobre el mismo!

Haz la prueba. Busca información sobre una temática que domines y empieza a leer. ¿Es todo correcto? Seguro que no.

No me precio de ser un gran SEO pero algo conozco. Pues cada día tropiezo con más artículos de gente autodenominada como experto que aconseja técnicas… las cuales la mayoría de los verdaderos expertos desaconsejaría.

¿Y cual es la solución? La de siempre: aplicar sentido común. Cuando te planteas asistir a una conferencia en “el mundo real”, ¿qué es lo primero que haces? Posiblemente analizar al ponente y decidir si es una persona que te pueda aportar valor.

Es decir, decidir si es una persona con autoridad real (no auto impuesta por él mismo) dentro de su campo. En la red es lo mismo, el artículo que te ofrece Google para saciar tu sed de conocimientos, ¿está redactado por alguien “confiable”?

Y todo parece indicar que en esto está centrado Google para ordenar sus resultados en el ¿presente?/futuro. Determinar qué personas tienen autoridad en su campo para dar mayor relevancia tanto a sus aportaciones directas como indirectas (recomendaciones de artículos de terceras personas por ejemplo).

Otro tema, qué si a alguien le interesa podría ser motivo de otro post, es que aprovechando nuevamente su posición de monopolio quiera vertebrar todo este nuevo paradigma a través de su red social Google+. Una más.

Pero a lo que voy, es a recordarte que nunca debes olvidar que toda la información vertida en intenet no tiene por qué ser cierta. La situación ha cambiado mucha respecto a cuando estudiábamos con los libros del colegio. Incluso cuando Google muestre resultados considerados por él como relevantes, párate a pensar si lo que estás leyendo debe tener tu credibilidad. Un algoritmo por si solo no va a solucionar este “problema” que nos va a acompañar, irremediablemente, para siempre. Por ejemplo, seguro que Google le otorga máxima relevancia a la Wikipedia… cuando todo el mundo sabe que no es, ni muchos menos, 100% fiable.

Pero no solo como consumidor de información nos afecta esto, si no obviamente también como autores. ¿Y como conseguir autoridad de cara a nuestros potenciales lectores? Seguro que hay decenas de formas (volviendo a lo mencionado anteriormente, el buscador quiere que empieces a demostrar la misma en su Google+), pero en mi opinión hay 2 claves: tu hoja de resultados (no lo que vas a hacer sino lo que ya has hecho) y tu casa (blog personal) que es el lugar donde puedes demostrar a lo largo de tu trayectoria profesional, en tu día a día, tus conocimientos.

Por cierto, ¿te paras a pensar quien es el autor de la información que tienes delante o piensas que realmente es algo utópico y no se puede hacer con cada blog o similar en el que “caes”? ¿Qué factores utilizas para medir la autoridad dentro de una materia de un determinado autor?

La importancia del porcentaje de rebote a la hora de diseñar una landing page

Escrito originalmente el 19/07/2011: Una landing page, página de aterrizaje en castellano, es la página de una web en la que se trata de realizar la conversión (venta, registro…) marcada como objetivo.

Como es lógico, un buen diseño es clave para aumentar el ratio de conversión y lograr de este modo aumentar los beneficios de un proyecto.

Pero hay que tener una cosa clara a la hora de construir landings: la forma en la que se captará tráfico para ella. Y es que, como es lógico, antes de construir páginas de aterrizaje habrá que tener en mente como se les suministrará tráfico, porque si nadie las visita es “de cajón” que no habrá conversiones.

Y todo lo anterior viene por la importancia cada vez mayor de la métrica del porcentaje de rebote (porcentaje de usuarios que una vez han llegado a una página la han abandonado sin visitar ninguna otra página de la misma web).

A la hora de construir landing page eficaces muchos expertos recomiendan cerrar al máximo las fugas, eliminando la mayoría de los enlaces que no lleven a la conversión final, pero esa estrategia no dejará al usuario, prácticamente, otra opción que “comprar o escapar”, lo cual hace, y te lo digo por experiencia, aumentar considerablemente la tasa de rebote.

Lo anterior será contraproducente para nuestra landing, por ejemplo, tanto si tratamos de captar tráfico para ella a través de SEO o PPC (al menos para AdWords), ya que aumentar el rebote es perjudicial en ambos métodos de captar tráfico.

¿Soluciones? En mi caso, como para la mayoría de mis proyectos trato de captar tráfico a través del SEO, utilizo páginas intermedias. Es decir, trato de captar tráfico a través de páginas en las que hay diversos enlaces que llevan a las landing page donde realizar las conversiones, en las cuales cierro al máximo las fugas.

Pero si captas tráfico por otros métodos, como el email marketing, un porcentaje de rebote alto no será un excesivo problema.

Actualización 14/06/2013: Han pasado casi 2 años desde que escribí este post, pero creo que debo actualizarlo.

Somos muchos (creo) los que en la actualidad defendemos que conseguir reducir el porcentaje de rebote que ofrece Analytics (métrica no tan sencilla de interpretar como parece a priori) no ayuda a posicionar mejor en Google.

¿Significa esto que Google no tiene en cuenta el comportamiento del usuario en nuestras páginas? Para nada. Simplemente se sospecha (en estos temas nunca se pueden hacer afirmaciones categóricas) que lo que mide Google es el tiempo desde que envía una visita a una página y ese mismo usuario vuelve al buscador. Lo expliqué con algo más de detalle aquí (Dwell time).

¿Invalida esto último todo el post? Para nada. Usar tácticas para mejorar el rebote Analitycs posiblemente ayudará a mejorar el Dwell time. Simplemente quería dejar constancia de que nadie debería esperar una “causa efecto” entre mejoras en dicha métrica de Analitycs y mejores “rankeos” en G.

No profundizo más, porque para ello ya está este recomendable post de ikhuerta.

 

Los 7 factores más importantes para posicionarse en Google en 2013

Pensaba que en pleno 2013 en lo que respecta al SEO ciertas cosas estaban ya superadas. Pero en los últimos días, tras leer encendidos debates en la red sobre el número de palabras que hay que introducir en el meta keyword o ver gente que sigue haciendo del spam “puro y duro” su principal arma para hacer linkbuilding, he empezado a pensar de nuevo que algunos no tienen la cosas muy claras todavía.

Quien quiera aprender sobre SEO, o cualquier otro campo, lo tiene más “sencillo” que nunca gracias a toda la información que superpuebla la red hoy en día. Pero hay un obstáculo muy importante que vencer hoy en día, y es que debemos ser capaces de discernir la información buena de la mala. Y es que el número de blogs de supuestos profesionales a los que se les llena la boca explicando dudosas técnicas es cada día superior.

Un fenómeno que me ha llamado mucho la atención estos días es que cuando apenas se estaba empezando a desplegar Penguin 2.0 ya había un montón de artículos que explicaban cómo salir de la penalización. Esto va a tal velocidad que muchos para captar la atención son prácticamente capaces de inventar el antídoto antes de la aparición del propio veneno.

Y no, esta intro no está encaminada a deciros que me leáis a mi porque yo si que se de SEO. Soy consciente de mis limitaciones y de que hay cientos de personas que saben más que yo, como por ejemplo Spencer Haws.

El bueno de Spencer escribió hace unas semanas en su más que recomendable Niche Pursuits un interesantísimo artículo titulado The most important factors for ranking in Google.

Me parece muy interesante y haré un breve resumen del mismo, siempre recomendando acudir a la fuente principal para aumentar conocimientos. Tengo desde hace unos días un esquema en papel del miso para uso propio, pero me ha parecido interesante compartirlo añadiéndole algún comentario propio.

Ya sin más preámbulos, los 7 factores más importantes para posicionarse en Google en 2013:

1.- Contenido y palabras claves: Para Spencer este es el más importante hoy en día. Por tanto, al igual que yo es otro de los defensores del archiconocido “el contenido es el rey“. Para ello, hay que ajustar lo máximo posible las palabras claves que queremos posicionar a nuestro contenido.

¿Formas principales de hacerlo? Utilizando la palabra clave en el dominio (Matt Cutts dijo hace meses que esto iba a perder fuerza, pero hasta el momento está dentro de los cientos de cosas que ha dicho y no se ha cumplido, este palo a Matts es mi cosecha), en el título de la página y en el propio contenido.

Google, afortunadamente, entiende que la relevancia está por encima de la autoridad.

2.- Autoridad de página: Pero, ¿qué es exactamente la autoridad de la página? Spencer apuesta por la información da Moz (nuevo nombre del conocido SEOMoz) sobre la misma. Aquí también hay información en mi opinión bastante interesante.

Además en esta segunda fuente coinciden plenamente con lo que defiende Spencer: se necesita la suma de autoridad y relevancia para poder clasificar bien hoy en día en Google.

3.- Dwell time (tiempo de espera es su traducción literal): Más que el tiempo de permanencia en el sitio, se refiere al tiempo en que el usuario que ha llegado a una página a través de una búsqueda en Google vuelve al buscador debido a que no ha quedado satisfecho con el resultado que le ha sido ofrecido.

Si tu página tiene un buen ranking, pero los visitantes que les manda Google vuelven rápido el buscador, éste  interpreta que tus contenidos no son los apropiados para dichas búsquedas.

Este punto nos devuelve al primero: es indispensable contar con contenidos de primera calidad en nuestros proyectos.

Importante: Este dato no es el mismo que el que nos ofrece Google Analytics.

4.- Páginas de enlaces: Aunque ya no son tan importantes como hace años, los enlaces siguen siendo muy importantes (he de reconocer que en este punto me equivoqué en mis predicciones de 2011). Eso si, hay no hay que olvidar la máxima actual: es más importante la calidad (sitios de prestigio relacionados, de poco me servirá que una página con mucha autoridad en el mundo de los coches enlace mi página de zapatillas para correr) de los enlaces que la cantidad.

Puntualización al párrafo anterior: ¿Por qué no le pongo un enlace a ZapatillasRuning.net en el párrafo anterior? 1.- Un enlace en un blog personal de un webmaster no es relevante para una página de zapatillas. 2.- Google sabe que ambas páginas son mías (whois de los dominios, códigos Analytics…) y enlazarme entre mis webs no me va a dar nada bueno (incluso si se abusa, puede perjudicar).

Además, indiscutiblemente, los enlaces tienen su importancia para determinar la autoridad de una página (punto 2).

5.- Tipo de Sitios: Una web es fácil que “rankee” bien para una palabra clave que otro tipo de páginas como de Q&A, foros, directorios de artículos… u otro tipo de contenido generado por los usuarios.

Esto está relacionado con la importancia de analizar el tipo de competencia que habrá que superar para alcanzar el éxito cuando se inicia un proyecto.

6.- Señales sociales: Comparto la opinión de Spencer. No tengo la sensación de que a día de hoy este factor sea muy importante, pero parece obvia que irán ganando peso poco a poco. Mi opinión personal es que en la actualidad para lo que están siendo utilizadas es para detectar técnicas de black hat SEO. Por ejemplo, si una web recibe muchos enlaces en un corto espacio de tiempo… sin generar nada de buzz en las redes sociales Google comienza a sospechar.

7.- PageRank: Creado en 1996, ha perdido casi toda su importancia aunque las páginas con buen PageRank parece que tienen una buena indexación asegurada (cosa importante). Personalmente tengo una página con PageRank 4. ¿Qué noto? Varias ofertas cada mes para vender enlaces. 🙂

Esto es todo. Está claro que nadie tiene la fórmula de Google (casi seguro ni el propio Cutts, aunque le guste aparentar que si la tiene) pero mi experiencia me dice que las anteriores son unas buenas bases sobre las que tratar de edificar un buen posicionamiento para una web. Yo tengo muy presente que autoridad y relevancia son claves para rankear bien hoy en día en Google.

Como habrás podido detectar a lo largo de este post, las ideas de Spencer están aderezadas con comentarios de mi cosecha. Por eso te recomiendo encarecidamente que saques unos minutos para leer el artículo original… ¡y así de paso repasas tu inglés! 😉

Número 1 en Google para palabra clave objetivo de web nueva en 70 días

A finales de Febrero comencé a desarrollar desde 0 una web, siguiendo centrado en mis principales fuentes de ingresos pero con la filosofía de intentar todos los días de trabajar algo en ella (muchos pocos hacen un mucho, ya hablé sobre ello por aquí).

Pues bien, en 70 días ya rankea #1 en Google su palabra clave principal. La verdad es que es una keyword que no tiene una gran competencia (2.980.000 resultados en el momento de escribir estas líneas) ya que su tráfico no es excesivo (pero si jugoso, ya que mucha gente compra anuncios para ella :)) pero alcanzar el número 1 en 70 días sin un trabajo excesivo me ha llevado a una serie de reflexiones que me gustaría compartir con todos vosotros. Allá van:

  • El contenido es el rey. Aunque tengo claro que todavía debo de mejorar mucho en este aspecto, la web ha alcanzado el #1 con 0 enlaces apuntando a ella.
  • Aunque Google amenaza constantemente con reducir la fuerza de los dominios… a día de hoy sigue teniendo mucho peso las keywords en los dominios a la hora de posicionar. Eso si, mi apuesta sigue siendo trabajar este tipo de dominios como marcas (por ejemplo, pongo mucho énfasis en promocionar como marca ZapatillasRunning.net).
  • Posiblemente el paso más importante a la hora de iniciar un proyecto con el objetivo de la rentabilización es el primero (buscar el nicho en el que establecerse). En una temática más competida no sería #1… a estas alturas. 😉
  • El sandbox tiene mucho de leyenda urbana.

De todas maneras, no quiero engañar a nadie: el tráfico de este proyecto sigue siendo muy bajo… pero tengo claro que éste es un proyecto a largo plazo.