Archivo de la categoría: seo

Iniciador Madrid SEO vs SEM: Mis apuntes

En los últimos meses apenas estaba yendo a charlas. Las últimas en las que estuve me decepcionaron y el tiempo no sobra. Pero parece que ahora he cogido una buena racha. Tras el buen Evento SEO de la semana pasada, ayer pude presenciar una gran confrontación SEO vs SEM llevada a cabo por Romuald Fons y Carlos Molina en Iniciador Madrid.

Siguiendo mi teoría de que escribir ayuda a ordenar las ideas comparto los apuntes que cogí ayer.

SEO (Fons)

  • El tráfico orgánico (bien hecho) convierte mejor que el SEM.
  • Para los usuarios, a nivel psicológico, el número 1 en orgánico es el líder del sector
  • ¡Cuidado! La mitad de lo que se escribe de SEO en la red no vale nada.
  • Hoy en día una persona sola no puede hacer SEO. El sector se ha especializado mucho. Hay especialistas en analítica, en creación de contenidos, en captación de enlaces… En SEM ocurre lo mismo.
  • Linkbuilding de calidad. Por ejemplo ¡aparecer en periódicos! Las PBN acabarán cayendo, los enlaces de tus amigos no valen tanto como piensas…
  • Hay que tener claro dónde vas a tratar de “rascar” el tráfico. Si buscas transacciones tendrás que atacar kw’s como comprar, barato… que suelen ser las más difíciles. Otra estrategia. Si vendes vuelos a Venecia puedes crear contenidos tipo los mejores restaurantes de Venecia y luego tratar de redirigir el tráfico a tus landings de ventas de billetes.
  • Error clásico en SEO a la hora de vender: ¡hacer mal inbound marketing! Por ejemplo usar un blog para apoyar a una tienda y que este acabe posicionando por encima de la tienda. La tienda es la que hace el dinero, ¡no el blog!
  • Otro error clásico en ecommerce. Fichas de producto “débiles” o directamente sin contenido original. Panda se acabará comiendo la web. Si es imposible contar con fichas de calidad lo mejor es hacerlas noindex y tratar de posicionar las categorías.
  • Ahora mismo hay muchísima gente mirando Semrush. Esto hace que lo que parece una oportunidad clara deje de serlo rápidamente.
  • Tener diferentes landings para la misma keyword no suele ser bueno. Google se lía y no sabe cual mostrar.

carlos-molina-sem

SEM (Molina)

  • Máximo beneficio no está en la posición 1. Vendes más, pero el CPC sube mucho. Suele ser en la 2 (el gráfico de la foto superior es relativo a esto). Hay excepciones. Si vas a comprar algo barato quizás te quedes con el 1. Si es un lead en lugar de una venta el 1 es el más importante.
  • Si tu ratio de conversión en SEM es superior al de SEO estás perdiendo dinero si no inviertes en SEM.
  • Matemática y analítica son claves.
  • El SEM está lleno de indocumentados. Esto le viene genial a Google ya que provoca inflación en el precio del clic. Por eso a veces es mejor comprar clics en Facebooks Ads ya que aunque convierta peor los clics son mucho más baratos. Las cuentas que salen son mejores.
  • El rediseño de las SERP’s de Google ha provocado que se pasen de 11 resultados de pago a 7. El menor espacio provoca que suban las subastas, sobre todo de los últimos puestos. Al margen de que Google haya hecho los cambios porque quiere ganar más, ¿puede que también haya sido porque una única columna convierte mejor (ya no aparecen resultados a la derecha)? Quizás nos estamos acostumbrando a la navegación móvil.
  • Lo primero es asegurarse un gran producto. Hasta que no esté pulido no se inicia el SEM. El SEO como necesita más tiempo se debe empezar a trabajar desde el minuto 1.
  • Probar. Test A/B. Recoger datos. Tomar decisiones. Las cosas no suelen ser como parecen.
  • ¿Cuál es mi mejor producto? ¿Cual convierte mejor? Es ahí donde hay que poner los esfuerzos buscando tráfico.

Como resumen final. La conversión es la clave. Si tienes tráfico pero no conviertes… ¡no tienes un buen producto!

Evento SEO & Ecommerce: Mis 10 apuntes destacados

Segundo evento SEO de 2016. El primero, como ya indiqué, me pareció un poco fallido. Pero este ha sido un éxito. Temas muy interesantes, ritmo ágil y agotado el tiempo de preguntas. Esto último suele ser un KPI para valorar el éxito de este tipo de eventos.

evento-seo-ecommerce

Aunque hoy en día ha quedado desfasado escribir un post sobre un evento, debido a Twitter y sobre todo a que la charla se puede ver en Youtube, pienso que escribir ayuda a poner en orden las ideas. Por eso recopilo a continuación mis 10 apuntes destacados del Evento SEO & Ecommerce. Si además le sirven a alguien que, por ejemplo le de pereza ver el vídeo completo, mejor que mejor.

Allá voy:

  • Antes el objetivo era estar en el top 10 de Google. Con el progresivo aumento del SEM ahora hay que buscar top 3.
  •  SEO y calidad van juntos. El periodo del spam quedó atrás.
  •  Existe un desfase de denominación entre lo que buscan los usuarios y los productos que se venden actualmente. Gente busca televisiones Smart TV, cuando ya todas las TV son Smart Tv.
  • La gente que usa el buscador interno es el 10%, pero convierte 3 o 4 veces.
  • Lo que no medimos no se puede mejorar, y si no mejoramos se degrada
  • La posibilidad de recoger el pedido online en una tienda física suele duplicar la tasa de conversión.
  • Simplificar el proceso de pago es una de las tendencias del futuro del ecommerce. El 75% de las ventas se pierden en el proceso checkout
  • Antes de lanzar tu tienda online pruébala en un marketplace. Si funciona quizás sea el momento de montar tu propia web. Lo dejo por aquí como punto para la reflexión, por yo no lo tengo tan claro. Razón aquí.
  • España es de los países con mas smartphones, pero luego se compra poco a través de ellos. La lógica indica que las compras a través de smartphones irán subiendo.
  • Cuidado con pensar que menos es más negándole contenido al usuario.

Este tweet me parece un gran colofón:

Repasando lo comentado me doy cuenta de que realmente hablamos más de conversión que de SEO, así que parece que no voy muy desencaminado cuando digo que el CRO es más importante que el SEO.

Fuente foto: @Esther_Azcano

Tendencias SEO 2016: mis apuntes

Era un poco raro que Madrid no tuviera su evento para SEO’s. Ha tenido que resucitar Evento SEO (no se celebraba desde 2012) para poner fin a esta situación. Y parece que yo no era el único que viera la necesidad, porque ayer Campus Madrid se llenó para el reestreno.

Aunque esté un poco desfasado en 2016 escribir en un blog personal sobre un evento ya que son tweeteados en directo por los asistentes, dejar por escrito lo vivido siempre ayuda a ordenar ideas. Si encima le es de interés a alguien, pues doble función.

evento-seo-2016

Allá va un pequeño repaso de algunos temas que se tocaron en este evento dedicado a “Tendencias SEO 2016”:

  • Mobile first. Pero de verdad. Una nueva web ya hay que crearla para el móvil, y luego estudiar como trasladarla a PC. El análisis del posicionamiento tiene que empezar por el mobile para luego seguir por el PC, etc.
  • Para empezar un proyecto SEO es clave el “back to basis”. Tener un onpage 10/10 y a partir de ahí seguir mejorando.
  • Dentro del onpage tener muy en cuenta los microformatos. No suelen ser suficientemente explotados a pesar de tener un impacto directo en el CTR de las SERP.
  • Queda mucho campo abierto en el video. No se está trabajando lo suficiente. Tener en cuenta que ya no es suficiente con llenar un blog de contenido (texto). Precisamente esto se puede hilar con algo que he comentado estos días en Twitter:

  • A la hora de plantear un proyecto tener es crucial tener en cuenta el lenguaje a utilizar. Angular JS está de moda, pero parece que su indexación no es la mejor. Esto siempre ha sido así, ya ocurrió por ejemplo este hace años con Flash.
  • Cada vez el perfil del SEO está más pegado al de analista de datos.
  • Atentos a las búsquedas de voz. Hay que analizar su impacto. Podrían cambiar la forma de buscar del usuario.
  • Machine learning. Parece que Google lo quiere impulsar. Si se quita el componente manual al algoritmo (Quality Raters) se podría hacer un proceso de ingeniera inversa. ¿Podría llevar esto a que los SEO’s modificaran las webs a posicionar en base a sus propios algoritmos internos? Se comentó que no es disparatado pensar que esto pueda ocurrir en menos de 5 años. Hay quien aviso que en 5 meses habría importantes novedades en el mercado español.
  • Se habló también de AMP (Accelerated Mobile Pages), programa de Google que pretende ayudar a distintas publicaciones a cargar webs en dispositivos móviles más rápido. Un claro indicador de la importancia de este aspecto (velocidad de carga) para G.

Se tocaron otros temas, pero estos han sido los que más llamaron mi atención.

Decir que el final del evento fue un poco abrupto, finalizando a los 50 minutos (creo que la duración estimada era 90) por falta de preguntas de la audiencia. Mal por la audiencia (me incluyo, claro está), pero creo que falló un poco la organización. Si hubieran avisado en los días previos que el formato sería un breve cambio de impresiones de los ponentes de poco más de media hora y luego se abriría un debate con el público la gente se podría haber preparado algo en casa sabiendo que habría tanto tiempo. Para la próxima vez ya lo se. 🙂

El contenido sigue siendo el rey, pero el usuario es el emperador

En 2015 parece que todo el mundo está de acuerdo en que la respuesta de usuario es clave para que una web posicione bien. Leyendo un interesante artículo sobre esto, he recordado un artículo que escribí en verano de 2011 para Ojo Buscador. Al buscarlo para recordar mis pensamientos de tantos años atrás, he descubierto que la otrora página de referencia de SEO ha cerrado.

Con la ayuda de archive.org he recuperado dicho artículo y lo comparto a continuación. Creo que ha envejecido bastante bien. 😉

google-pandaAntes de nada he de reconocer que el título de este post no es mío, pero espero que al Search Engine Journal no le importe que lo tome prestado. Creo que la ocasión lo merece, ya que bajo mi opinión la frase que da título a esta entrada se va a acuñar cada vez más dentro del mundo SEO. Y es que tras la archiconocida frase de “el contenido es el rey”, de ahora en adelante (y especialmente tras la actualización del algoritmo de Google Panda Update) deberemos completar la frase con un “pero el usuario es el emperador”.

Desde hace muchos años se viene hablando de la vital importancia de dotar de buenos contenidos a los proyectos de internet, pero especialmente desde los últimos cambios introducidos en los buscadores la importancia de los movimientos del usuario dentro de las webs crecen en importancia.

Y es que cada vez tienen más importancia (y más que van a tener, al menos bajo mi opinión) métricas como el tiempo de permanencia en una web, el porcentaje de rebote, la fidelidad de los usuarios (usuario nuevos vs recurrentes), el CTR en las SERP´s… lo cual convierte al usuario en el juez que ayudará a dictar sentencia sobre la calidad de las webs.

¿Calidad? Efectivamente, el Panda Update trata de ser una actualización capaz de desterrar de los resultados de las búsquedas a las webs de escasa calidad. Todo encaja. Ya solo no vale con generar buenos contenidos, has de facilitarle la vida al usuario para que los pueda consumir de la mejor forma posible.

Google no se esconde y siempre ha afirmado abiertamente que “si es bueno para el usuario seguramente también lo será para el posicionamiento”.

Internet avanza muy rápido en todas sus dimensiones, lo cual nos obliga a replantearnos constantemente las estrategias a llevar a cabo para alcanzar el éxito con una web. Y debido a esa constante evolución, empieza a ser la hora de afirmar que “el contenido es el rey, pero el usuario es el emperador”.

Artículo de Luis Clausín publicado el 31 de agosto de 2011 en Ojo Buscador.

Google Panda, el contenido es el rey y la autoridad

Sigo librando día tras día una larga y cruenta (para mi) batalla para levantar lo que creo que es un Google Panda. Esto me lleva a devorar constantemente información sobre este animalito al que antiguamente le tuve simpatía por cosas como esta. Y casi todo el mundo dice lo mismo: elabora contenido magnífico, original e hiperlargo… y si no lo haces luego no te quejes si eres “pandalizado”.

Ok, en cierto modo estoy de acuerdo con lo anterior pero entonces… ¿no posiciona Amazon demasiado bien teniendo en cuenta que, siendo generoso, el 99% de sus contenidos no son originales? La clave respuesta está en la autoridad de la web. Según MOZ Amazon.es tiene una autoridad de 88 (por encima de 50 ya está muuuuy bien).

¿Qué es la autoridad? Básicamente lograr enlaces buenos (precisamente de sitios con autoridad) y un poco de antigüedad de dominio.

A continuación comentaré un ejemplo real, “concierto madrid joaquin sabina”, que creo que aporta resultados bastante significativos:

serps-google-joaquin-sabina

A nivel de contenido, los resultados 1, 2 y 4 (que son los que van a hacer dinero con esta búsqueda) cuentan o con contenido 100% duplicado (1 y 2) o prácticamente inexistente (4). Como comenté antes, la autoridad de estas páginas es bastante potente (74, 77 y 49 respectivamente) lo cual se traduce en estos buenos “rankeos”.

Si el contenido fuera el absoluto rey, ¿no deberían liderar las SERP´s los diarios digitales que aparecen un poco más abajo en teoría unos contenidos más sólidos? Realmente los contenidos de dichos diarios no son muy potentes (de agencias, con bastante información copiada/reproducida en otros medios y tirando a cortos) pero también es verdad que la autoridad que les asigna MOZ es muy alta (86 y 89).

Ok Luis, entonces ¿si tienen una autoridad superior los diarios además de mejores contenidos por qué no ocupan las primeras posiciones? Si no estoy equivocado (que puedo estarlo, ya que las “instrucciones” de Google no son públicas) es debido a que los enlaces desde los sitios más relevantes los tiene Ticketmaster (incluso el propio Nvivo por ejemplo, como comparador de precios de entradas que es, enlaza a Ticketmaster).

Realmente contenidos de calidad y autoridad en principio deberían de estar unidos, porque contenido de gran calidad debería traer buenos enlaces y estos ayudar a aumentar la autoridad del sitio en cuestión. Usando el refranero español “la pescadilla que se muerde la cola”. Si los artículos de los periódicos del caso anterior fueran de bastante mejor calidad podrían recibir buenos enlaces y pelear más duro por la supremacía en esa búsqueda… Pero también es verdad que aquí tienen ventaja quienes venden las entradas, porque es probable que gente que haga una previa sobre este concierto en algún punto escriba algo así como “las entradas para esta concierto se pueden adquirir…” (con “enlazaco” incluido).

Por todo lo anterior, en mi opinión, centrarlo todo en que el contenido es el rey no es suficiente… aunque si no tienes algo valioso que ofrecer (catálogo casi infinito de productos en el caso de Amazon, las entradas de los principales conciertos como Ticketmaster…) no podrás alcanzar el éxito sin él.

6 acciones que he implementado para que Google me quiera más

Hay algo que no funciona como antaño en una de mis webs. Se traduce en una pérdida de tráfico un poco superior al 10% en estos momentos (llegó a ser mayor).

Intuyo que puede ser Panda, pero no estoy plenamente seguro. No hay un patrón claro. En ningún momento hay subida ni bajada de tráfico fuera de lo normal. Algo pasa, lo sé porque las nuevas páginas no posicionan de la manera que lo hacían antes… pero manejo otra teoría: la competencia. Y es que está página está en un sector que los competidores han crecido prácticamente exponencialmente en los últimos meses.

tráfico google 2013 2014

A mi modo de ver, no hay patrones raros. Bajada si, pero… podría ser por el aumento de competitividad del sector, ¿no creéis?

¿Qué he hecho ante esta situación? Primero, no entrar en ningún momento en modo pánico realizando acciones rápidas que pudieran llegar a empeorar la situación. Segundo, implementar cambios en puntos que sospecho que podrían estar causando problemas pero con un objetivo claro: las mejoras deben servir, si o si, para elevar el nivel de la web (o al menos ahuyentar hipotéticos problemas futuros).

A continuación comparto las medidas que he tomado hasta el momento buscando que Google “quiera” más mi proyecto:

Mejorar contenidos. He reescrito bastantes páginas de mi web buscando aumentar el número de palabras que contiene. La primera fase ha consistido en aumentar el contenido de las landings “calientes” (las que más potencial de captar ingresos tienen). Ahora estoy inmerso en la segunda, en la que estoy cogiendo las páginas más pobres a nivel de contenidos y si considero que merece la pena el esfuerzo las reescribo y si no las elimino directamente (esto último es duro, pero creo que necesario).

También he añadido bastantes videos embebidos de Youtube para aumentar la calidad de la información que ofrezco a los usuarios… y mejorar el tiempo de permanencia. 😉

Busco mejora tanto para los usuarios (más información) como para Google (que no considere que hay contenido malo en la web).

Sobre esto último, no hay que volverse locos. Mi opinión se resumen el siguiente par de tweets:

Retirar el RSS público. Tenía un RSS disponible para todo el mundo con todos los productos de mi web. Lo he quitado, porque las posibilidades de que los malos jueguen con él son altas. Una pena, pero los RSS están muriendo… Me cuesta horrores encontrarlos para almacenarlos en mi The Old Reader.

Nuevo title para huir de una posible sobreoptimización. Hasta ahora la mayoría de los enlaces internos coincidían con H1 y title de la página. Google podría verlo como un intento de sobreoptimización por esas palabras claves determinadas. He complementado con más información los title, lo cual también puede ser de interés para los usuarios en las SERP´s.

Cambios linking interno para evitar sobreoptimización. Excesivos enlaces internos dañan. Hasta ahora casi todas las páginas repartían enlaces internos entre un pequeño grupo bajo el habitual sistema de “Últimas noticias / productos”. Ahora, tras implementar un simplón algoritmo, todo está más repartido.

Reestructuración del Sitemap. Con el objetivo de darle a los buscadores únicamente información crucial a través del Sitemap, antaño únicamente incluía en el Sitemap los contenidos finales. Esto provocó que Google se liará un poco y que en sus Webmasters Tools únicamente marcará un % bajo de páginas del Sitemap indexadas (lo cual no era cierto, porque era sencillo comprobar que prácticamente todas estaban indexadas). A recomendación de Javier Casares (a quién comenté mis problemas y me sugirió tomar esta medida y la siguiente) simplifiqué el Sitemap dejando únicamente la URL y la fecha de la última modificación y las ordené por creación (en lugar de por actualización como venía haciendo hasta ahora). Además separé mi único Sitemap en 2 distintos.

Mejoras a nivel de código. ¿Tables o divs? Mítico debate. Finalmente he abandonado los tables y me he pasado a los divs. En esta nueva versión algunas landings han totalizado hasta un 30% menos de código. En teoría ahora las páginas deberían ser más sencillas de indexar por las arañas de los buscadores, deberían cargar más rápido…

¿Qué os parecen las mejoras? ¿Tienen sentido para vosotros? ¿Le gustarán tanto a la gran G como a los usuarios?

Unas cuantas notas sobre el SEO Clinic eShow Madrid 2014

Comparto algunas de las notas que tomé ayer en el SEO Clinic del eShow 2014. Obviamente falta mucha info… ¡ya que fueron varias horas de formación! Pero menos es nada, ¿no?

Seo Masivo (José B. Moreno)

Lo primero, antes de plantear un proyecto, es tener claro que puedes ofrecer a tus potenciales clientes. En su caso no pueden competir en Google en búsquedas tipo “hoteles en Madrid”.

QDQ, como no podía ser de otra forma al albergar muchas páginas, se centra en el long tail. Ellos tienen que ir a por kw’s como “venta de rodamientos en Cuenta”.

Van a lo fácil… pero, ojo, no a lo inútil para el cliente.

Desde hace año y medio los dominios EMD (exact match domain) no funcionan tan bien. Por ello, trabajan hoy en día más dominios de marca que EMD.

No muy partidario de dominios con ñ y tildes.

Sus webs ya cuentan con diseño adaptativo web/móvil.

Es muy importante sacar partido a las herramientas de análisis.

Arquitectura de la información y SEO: 11811.es, un caso práctico (Fernando Maciá)

Para empezar análisis de la competencia y de fortalezas y debilidades propias.

En 2009, año de inicio del proyecto que mostró, Trends indicaba que por marca Páginas amarillas arrasaba a sus competidores.

Su punto de partida era peculiar: contaban con la misma materia prima que sus competidores directos.

Alto % de rebote no es necesariamente malo. Por ejemplo alguien llega, anota el teléfono que busca y se va.

¿Cómo empezaron a avanzar? Incrementar branding (anuncios TV), énfasis en la velocidad y profundidad de indexación, arquitectura de la información más inteligente que la de la competencia, mejor relevancia onpage…

¿Problemas a solucionar? Problemas de indexación rápida (página grande con poco PageRank), alto riesgo de contenido duplicado…
Una página grande es prácticamente imposible conseguir que se indexe totalmente. Hay una parte, la más pequeña, que se indexa y posiciona, hay otra que se indexa pero no posiciona y otra tercera lo uno ni lo otro. A través de la arquitectura de información se debe conseguir que las landings calientes (páginas con más demanda y con mayor potencial de beneficios) sean las que se posicionan e indexan. Hay que concentrar el PR sobre los nodos de la arquitectura con mayor potencial de tráfico.

¿Qué ciudades eran claves para 11811? Las 7 con mayor población. Por tanto, esos 7 son fijados como nodos claves para su arquitectura.
Buscaron también las actividades más populares con la ayuda de Trends, Planificador de palabras clave…, y también las marcaron como claves.
Se creó una estructura para repartir el PageRank entre los nodos importantes y que Google (los usuarios no navegamos por directorios, usamos el buscador) llegará a los contenidos profundos en menos “clics”.

Un sencillo ejemplo es que en su arquitectura tiene más peso un ciudad como Getafe que una provincia como Palencia.

En los inicios, indexación gradual del contenido. No todo de golpe. Se puede hacer usando nofollow, noindex… A Google no se le puede enseñar un proyecto nuevo entero de golpe. Mejor salir con algo pequeño, pero bueno, que salir con todo de inicio. 11811, incluso con el proyecto entero realizado, no les permitió acceder e indexar a Google todo el proyecto de primeras.

De primeras no introducir Sitemap… Luego Sitemap por provincias, ya que el sitio es muy grande.

¿Cómo seguir creciendo? Captar enlaces de portales amigos progresivamente, potenciar con contenidos las landings “calientes”, buscar oportunidades con granularidades que no tengan la competencia (ellos lo encontraron en comarcas, otros como Idealista dividen también por barrios)…

Y siguen buscando nuevas oportunidades de crecimiento. Como presenta Google los datos, por ejemplo, cambia el tráfico que una web recibe.
En la actualidad están peleando con Panda. Cada vez Panda sube más el umbral.

Long tail es lo que más tráfico les da.

Páginas Amarillas se basa en la autoridad de marca y dominio para ser el líder. No somos todos iguales ante G.

Aquí tenéis la presentación.

Resistencias al SEO: competencia, cliente y Google (Miguel López)

El SEO es una carrera de resistencia.

¿Lo más sencillo para llegar a los primeros puestos en Google? Mirar que hace el primero e intentar mejorarlo.

Tras Panda y Penguin todo el mundo parece que se ha pasado al “Content Marketing”. Trends lo demuestra. Lo mejor es que funciona.
crecimiento del content marketing
¿Resultado de lo anterior? El 80% del contenido de la red es morralla creada para buscar tráfico long tail.

¿Cómo detectar una penalización? Analytics -> Palabras clave. A veces Panda penaliza las principales kw´s, no todas.

Herramientas para detectar penalizaciones: Website Penalty Indicator y Barracuda.

Para no caer en Panda artículos entre 300 y 400 palabras. 150 serio candidato a ser “Pandalizado”.

Piratas, drogas, sexo y quality raters (Miguel Pascual)

Necesidad de actualizar WordPress.

Sobre lo que explicó Miguel en la primera fase de su ponencia ya hablé en mi último post. Incluso en él se incluye un video del propio Miguel.

Los quality raters son personas. Suelen responder rápido. También comenten errores (hay que estar atento porque te puedes aferrar a alguna de ellos para intentar que te levanten la penalización).

Entre webs propias es peligroso enlazar. Respecto a esto no hay unanimidad en la sala. Yo en este caso estoy con Miguel, en mi opinión mejor no enlazar entre proyectos propios.

Poner nofollow en links vendidos (en esta categoría entiendo que deberían entrar por ejemplo los links de afiliación).

Penalizaciones reales en sitios reales (David Campañó)

A lo que todo el mundo suele llamar penalizaciones, realmente no lo son. Existe la penalización manual. Lo otro son cambios de algoritmo. (Disclaimer: de ahora en adelante a ambas me referiré como penalizaciones para hacer más sencilla la lectura…).

Una subida de tráfico sin motivo puede ser el anticipo de una caída de tráfico debida a factores algorítmicos.

¿Quién no ha tenido en 5/6 años sustos a nivel de caídas de tráfico?

En el caso real que mostró, Motor.es (¿pongo nofollow para qué G no les haga llegar una notificación de enlace no natural? ;)) a ellos las fichas les dejaron de buscar (mucho contenido duplicado) por lo que tuvieron que centrar su búsqueda de tráfico en los listados.

Panda te descuenta tráfico poco a poco. Desde que eres penalizado hasta que lo descubres puede pasar un tiempo. El Panda más peligroso es que el que te desangra poco a poco. Si no actúas a tiempo Panda te acaba matando.

¿Cuando empezó la penalización? ¿2013? ¿Qué actualizaciones del algoritmo hubo en 2013?

Habla de su experiencia con quality raters. Ellos necesitaron hasta 8 reconsideraciones para levantar una penalización manual.
En caso de recibir un aviso de quality raters por enlaces no naturales, y antes de comenzar a utilizar la herramienta de desindexación de enlaces, pararse a analizar qué enlaces son buenos para una web y cuáles no.

Por cierto, si Google te dice que tienes enlaces sospechosos… ¡para sus SERP’s son directamente culpables!

Ya no existen prácticamente los enlaces naturales. Hoy en día la gente ya no tiene blogs, tiene Facebook, Twitter…

¿Cómo hacer linkbuilding? Tratar de crear contenido que guste para buscar enlaces de terceros (si se consiguen de webs importantes del sector, ¡lo mejor!).

Cuando Panda ataca es porque considera que una web tiene mucho “bambú”. Pero todo no es bambú, discernir qué es que.
Si con las fotos se crean páginas… claras candidatas a generar bambú.

Tratar de aislar el contenido malo. Disallow, robots.txt, sacar a otro dominio… No permitir ni siquiera rastrearlo.
Si te ataca Panda, hay que currar para salir de él. Panda no es el final.

Hay que buscar mejorar la calidad de la visita. El parámetro página/sesión es un indicador interesante para este aspecto.
Motor.es va de pleno hacia la web semántica: RDF, schema.org…

Gestión de Errores e Indexación en sitios enormes (Pedro Martínez)

Lo primero es corregir los errores recientes.

Un Sitemap por cada sección grande.

Canonical no siempre funciona perfectamente. ¡Precaución!

Preparando una estrategia de Linkbuilding (Fernando Muñoz)

Para comenzar el Linkbuilding, al igual que para buscar financiación: FFF (friends, family and fools).

El linkbuilding (seguro) de darle a un botón ya no existe. Hay que ir link a link.

El linkbuilding no es gratis, cuesta tiempo o dinero.

Ahrefs es un buen sitio para conocer los enlaces de tu competencia.

Blogs y foros importantes de tu sector son grandes sitios para ir en busca de enlaces.

No todas las páginas son interesantes para conseguir links. Hay que hace una investigación previa (¿está indexada? ¿posiciona bien su kw principal?)

También buscar enlaces naturales. Aquí coincide con David Campañó, lo mejor escribir artículos que gusten.

Presentación de Fernando Muñoz.

Hasta aquí las ponencias. Mi experiencia ha sido muy positiva. Aunque yo no pagué entrada tengo la intención de hacerlo en la edición de 2015.
¿Por qué hay más información claramente de unas ponencias que de otras? La calidad de todas fueron altas, pero obviamente a unos nos interesan más unas básicamente porque están relacionadas con las problemáticas a las que nos enfrentamos en nuestro día a día.

Imagino que ya sabréis cuales fueron las que más me gustaron pero por si acaso…

Tu web puede ser hackeada y además penalizada por Google

Cada día más hackers se están aprovechando de los agujeros de seguridad de muchas páginas web y de las vulnerabilidades de Google para hacer dinero.

No tienes más que hacer una búsqueda en Google como por ejemplo “air max baratas” para comprobarlo.

CRO > SEO

Puedes comprobarlo en la imagen, 3 de las 4 primeras webs posicionadas están hackeadas. ¿O es que ahora los editores digitales se dedican también a vender zapatillas de Nike en su propia web?

El método elegido para poder realizar esto parece ser el siguiente. Encuentran un agujero de seguridad donde introducen las páginas que quieren posicionar (que en realidad solo sirven para “enseñárselas” a Google ya que lo que contienen es una redirección a la página donde los hackers buscan hacer dinero) y luego hacen una campaña bestial de linkbuilding hacia dichos archivos.

¿Resultado? Consiguen posicionar sus páginas en webs de terceros gracias a la fuerza bruta obteniendo tráfico a través de las redirecciones ya comentadas. Luego la penalización, que antes o después llegará, se la queda la web hackeada (los editores por ejemplo en el primero de los casos de la imagen superior) y los autores de la treta seguirán recibiendo tráfico de otras webs que “controlan” a través de este método.

Si quieres ampliar información sobre el tema, lo cual te aconsejo ya que si hay hackers que han entrado en el pentágono tu web es imposible que sea 100% segura, te recomiendo que visualices el siguiente vídeo:

¡Debemos estar muy atentos los webmasters porque esto nos puede costar un gran disgusto!

Por qué considero el CRO más importante que el SEO

CRO > SEOComienza oficiosamente el curso 2014/15. Y una de las primeras cosas que he hecho al iniciar esta nueva “temporada” laboral es poner un post it en mi ordenador con el siguiente mensaje: CRO (Conversion Rate Optimization) > SEO (Search Engine Optimization).

Sé que no es rompedor, ya que lo anterior no deja de ser una repetición del manido mantra “beneficios es más importante que las páginas vistas“, pero de esta forma quiero que no se me olvide reforzar mi apuesta por esta filosofía para mis proyectos. Siempre lo he tratado de hacer, pero reconozco que en ocasiones me he desviado del camino.

Los principales motivos por lo que creo que es beneficioso anteponer el CRO al SEO son los siguientes:

  • Los beneficios son la métrica más importante. Desde este punto de vista, es más interesante doblar tu CRO que tu tráfico SEO (el crecimiento del tráfico y de los ingresos casi nunca es lineal).
  • El número de webs crece cada día, cosa que no ocurre con el número de nuevos usuarios que se incorporan a internet. Además el número de webs de calidad suben (muchas webs de empresas). Suma de lo anterior: captar tráfico cada día es más complicado.
  • A lo anterior hay que sumar que Google, el mayor surtidor de tráfico vía SEO, cada día se queda más tráfico para si.
  • En el SEO dependes de terceros (básicamente de un tercero, Google), en el CRO no tanto. Esto es algo que nos debemos de plantear seriamente todos los websmasters: reducir nuestra Googledependencia.

Eso si, tampoco hay que perder el norte. Sin tráfico, es imposible lograr ingresos. Por tanto para los nuevos proyectos que estoy montando no queda otra que 1º tráfico (SEO por ejemplo) y 2º conversión (CRO).

Consejo SEO (aplicable a todos los aspectos de la vida): evita entrar en modo pánico

Desde hace varios meses estoy muy enganchado al ajedrez. Esto me llevó hace unas semanas a comprar el libro “Jaque mate: Estrategias ganadoras del ajedrez para aplicar a tu negocio” escrito por el Gran Maestro Internacional Miguel Illescas (podéis leer mi opinión sobre la obra aquí).

Jaque mate: Estrategias ganadoras del ajedrez para aplicar a tu negocioEn el libro se habla fundamentalmente de como afrontan ajedrecistas de talla mundial sus problemas sobre el tablero y como la forma en que tratan de resolverlos puede ser aplicable a la empresa (y al día a día de cualquier persona). Aunque muchos de ellos son válidos para cualquier SEO, en este post me gustaría hablar sobre el modo pánico.

El modo pánico hace referencia a situaciones de tensión de las cuales tratamos de escapar rápidamente a través de, en muchas ocasiones, acciones poco reflexivas.

Sobre el tablero de ajedrez se ve claramente lo anterior. Si un jugador realiza una mala jugada, la cual le lleva una posición comprometida, el impulso natural le impulsa a querer mejorar su situación rápidamente realizando jugadas sin la serenidad que la situación demanda. No aguanta la presión de estar en una mala situación y piensa que con decisiones rápidas saldrá de ella.

Entrar en modo pánico en ajedrez se traduce en que en muchas ocasiones después de una mala jugada… se encadenan otras dos igual de malas, o incluso peores, que llevan a una situación todavía mucho más comprometida.

Hay que tratar de evitar a toda costa entrar en modo pánico. Illescas dice que Vladimir Krámnik, a quién ayudó a ser campeón del mundo jugando el rol de entrenador, nunca entraba en modo pánico y eso le ayudó a triunfar en el mundo de las 64 casillas.

Como sabrás, en el SEO, como en mucho otros campos, también se producen momentos de máxima tensión. Por ejemplo, después de una penalización. Muchos somos quienes después de un “machetazo” de Google hemos tomado decisiones sin la reflexión que exigía la situación.

Precisamente acabo de leer un artículo 100% recomendable sobre cómo recuperarse de una penalización de Google Panda y uno de los consejos que dan los autores a quienes quieran solventar situaciones similares es… no entrar en pánico.

Copio y pego uno de los párrafos ya que creo que puede servir perfectamente para ilustrar lo que quiero plasmar en este post “Las decisiones tienen que estar bien fundamentadas, teniendo claro que esa es la mejor solución a adoptar entre las posibles. Parece obvio, pero no lo es: cuando eres el responsable de un sitio que sufre una caída cercana al 40% del tráfico es fácil caer en el error de querer solucionarlo todo en sólo unas horas o días, pero eso es un problema porque en ese estado de nerviosismo es fácil tomar decisiones equivocadas que agraven el problema.”.

Recuerda, trata de evitar siempre entrar en modo pánico. La mala jugada ya no es reversible. Ahora lo primero es evitar que las siguientes jugadas también sean malas.