Tocado, pero no hundido

Los últimos tiempos no venían siendo los mejores para mis proyectos en internet. Meses de bajadas, no fuertes pero si permanentes, de mis ingresos. A nadie le gusta caer, por muy lentamente que sea. Lógicamente trabajaba por revertir la situación, pero notaba que estaba cansado. Necesitaba vacaciones. Más que en los últimos años. 3 semanas me di. Necesita recargar pilas.

Durante los días de descanso me conecté varios días para resolver dudas en ZapatillasRunning.net, actualizar los fichajes de MueveteBasket.es, tener un poco al día mi bandeja de correo electrónico… Poco más. Intuía poca actividad pero lo achacaba al mes de Agosto. Un día antes de que comenzará «oficialmente» mi curso 2015/16 tracé mi hoja de ruta. Tenía ganas. Me había regenerado. Estaba preparado para la nueva batalla.

Pero a los 30 minutos de mi primera jornada trabajo de la temporada… ¡zas! Repasando gráficas comprobé que mi principal web había sido penalizada por Google durante mis vacaciones. Duro, muy duro, golpe para empezar.

Si venía de meses malos, la situación ahora empeoraba. Tocado, PERO NO HUNDIDO. No es mi primera penalización… ni la segunda. De las penalizaciones se sale. Y hasta a los grandes les pasa. La teoría la sabemos todos, pero en la práctica antes o después se hierra.

Hay que seguir. No he llegado hasta aquí para que Google (o la competencia, o…) me haga ahora bajar los brazos. Ya he estado abajo en otras ocasiones, y en peor contexto (menos fuentes de ingreso web, menos ahorros para aguantar «vacas flacas»… y sobre todo menos conocimientos). Levantaré la penalización, revitalizaré otros proyectos y volverán las «vacas gordas».

Así es la vida de las personas que nos dedicamos a los famosos ingresos pasivos. Inestabilidad, golpes, bajones… pero también flexibilidad, llevar las riendas de tu vida, trabajar en sectores que uno le gustan… El que quiera dedicarse a esto que tengo en cuenta los dos lados de la moneda, no solo el bueno.

Seguimos en la pelea. 😉

9 pensamientos en “Tocado, pero no hundido

  1. Esteban Etayo

    Claro que si, hay que seguir luchando!! Animo Luis! Como has dicho tienes muchos mas conocimientos que antes no te vas a rendir ahora con todo lo que has logrado… de verdad que eres un ejemplo para muchos, conseguir vivir de algo tuyo es algo que a muchos de nosotros nos gustaría ;). Un abrazo!

  2. David

    Míralo por el lado bueno, si google te hubiera penalizado tres semanas antes, la situación sería igual de mala pero te habría jodido además las vacaciones 😮

    Saldrás adelante porque tienes los conocimientos y las ganas de trabajar necesarios.

    Aunque ya no estoy tan implicado en la temática web y/o SEO, esta web me sigue resultando igual de útil que antes. Tus comentarios técnicos pero sobre todo tus experiencias y vivencias personales/laborales son muy instructivas y motivadoras. Enhorabuena por ello y gracias. Espero leer los siguientes post en los que seguro que vendrán buenas noticias.

    Un saludo.

  3. Stephen

    ¿Es una penalización manual, de algoritmo…? Imagino que ya tendrás localizado el motivo de la penalización, en caso contrario comenta un poco por aquí el tema y tal vez podamos ayudar. Si prefieres comentarlo por privado, ya sabes cómo localizarme 🙂

  4. Luis Clausín Autor

    Muchas gracias Esteban. Eso es, hay que seguir. ¡A ver cuando nos vemos!

    David, precisamente eso es algo que he aprendido con el tiempo. Si no voy a poder solucionar un problema del «negocio» prefiero no conocerlo. Así cuando esté en disposición se resolverlo estaré más fresco y podré solventarlo antes. Antes o después llegarán mejores noticias. 🙂

    Stephen, penalización algorítmica. No estoy seguro al 100% pero creo que es una especie de Panda que penaliza el contenido fino (bambú). Hace años cuando monté ZapatillasRunning.net metía las fichas de producto con entre 500 y 600 caracteres, ya que con que fueran contenidos originales era suficiente. Eso provocó tener un catálogo con muchísimas páginas con menos de 150 palabras, que creo que es lo que me ha jodido. Mi hipótesis de la caída en Panda se refuerza en que afecta a unas páginas si y a otras no (no respeta directorios y generalmente se ha comido las páginas con más tráfico) lo cual es muy propio de Panda.

  5. Stephen

    Hola Luís

    Echando un vistazo a la página, es una clara candidata a que Panda le haga una visita. Panda lleva con nosotros ya varios años. Mi pregunta es: ¿porqué no has tomado medidas antes?

    No soy quién para criticar a nadie, pero como por Twitter me has pedido que de mi opinión, me tomo la libertad de ser directo 😉 Lo dicho, Panda lleva dando vueltas desde 2011. Aunque ha ido cambiando, ya todos lo conocemos y no es algo que nos pueda pillar por sorpresa. En ZapatillasRunning tienes varios miles de páginas donde lo único que varia es un texto de entre 150 y 200 palabras. Era cuestión de tiempo que Panda se hiciera notar. Y aunque no se llegara al extremo de una penalización, estabas dando muchas facilidades para que webs de la competencia de fueran desbancando.

    Aunque lo tienes bloqueado por robots.txt Google está rastreando las urls de salida a sitios de afiliados. Mira: site:zapatillasrunning.net/precios Ojo con eso. Es muy importante que Google no crea que simplemente eres una web de afiliados. Ese tipo de páginas no suelen aportar valor, así que ganas papeletas para llevarte un susto. Hay que hacer lo posible porque Google no rastree las páginas de salida y que no nos identifique fácilmente como un sitio de afiliados. Usar X-Robots-Tag puede ayudar.

    Y como al final sí somos un sitio de afiliados, hay que tratar de demostrar que aportamos valor. Usa etiquetado con schema.org para ayudar a que entienda el contenido. Sino, es más complicado que entienda si somos un catálogo online, una web de reviews, un sitio de noticias sobre zapatillas… hay que dejar claro qué tenemos que otros sitios web no tienen.

    En muchas fichas tienes Opiniones y Preguntas/respuestas, aprovecha ahí para meter el schema de Reviews, de Question/Answer similares. Y más contenido por url, con fichas de 150 palabras… y sin olvidar el linkbuilding (bien hecho).

    Sobre enlaces. Desde Junio se ve una subida hacia tu web. Y no son enlaces desde buenos barrios. O has hecho algo raro raro, o alguien está intentando hundirte. Te dejo unos ejemplos:

    casinoscompared.com/Templates/newsletter.asp?brooks-glycerin-11/zapatillas/990
    utpranking.co.uk/styles/newsletter.asp?mizuno-wave-ascend-8/zapatillas/1074

    Hay bastantes dominios con ese tipo de contenido apuntando a tu web. A ver si los problemas van a venir de ahí…

    Todo esto lo digo con ánimo constructivo. Mucho ánimo, buena música y a levantar la web 🙂

  6. Luis Clausín Autor

    Hola Stephen,

    antes de nada muchas gracias por tu crítica sincera. Estas «reprimendas» ayudan bastante. Voy respondiendo a tus comentarios.

    ¿Por qué no he tomando medidas antes? Aunque no lo parezca, llevo años trabajando para que no me cogiera Panda. La web creo que era bastante más débil a nivel de contenidos años atrás. ¡Y funcionaba! Esto probablemente hizo que no apretara el acelerador a la hora de mejorar los contenidos. Efectivamente Panda lleva desde 2011, pero en aquellos primeros momentos con no tener contenidos duplicados era suficiente. 300/500 caracteres originales era suficiente para rankear medianamente bien. En 4 años la exigencia se ha multiplicado ¿x8? Pero es que esto no está escrito en ningún sitio, ese es el problema. Como bien sabes en ningún sitio pone que haciendo exactamente X serás libre de cualquier penalización y rankearas 1.

    Pero es que además veo en el mundo de las zapatillas que todavía hay gente que posiciona con menos de 150 palabras. Imagino que lo compensarán con otros factores como linkbuilding. De todas formas creo que en el tema de las palabras mínimas para no ser Panda depende de muchos factores (dinero que mueva el sector, tipo de sector, etc).

    Una puntualización. ZR no tiene varios miles de páginas indexadas. Según mi arquitectura debería tener en estos momentos 1762. Y creo que G la entiende más o menos bien, porque el comando site devuelve 1820, dato que concuerda bastante ya que en los últimos días, como no podía ser de otra forma, estoy «podando el árbol».

    Lo de evitar que Google rastree los enlaces de afiliados te doy 100% la razón. Y lo he intentado (enmascaramientos de los enlaces, robots.txt, nofollow…), pero G suele llegar siempre bastante lejos. Voy a ver si puedo mejorar con X-Robots-Tag.

    En lo de schema.org. Hace un par de meses estuve haciendo pruebas pero no las llegué a completar. Básicamente quería que G sacará las famosas estrellitas en sus SERP’s pero no lo conseguí. Quería mejor mi CTR, pero está claro que schema también es necesario para que G entienda mejor tu web. Me voy a poner con ello también.

    Tema enlaces. Es una putada y está relacionado con esto: http://www.luisclausin.com/tu-web-puede-ser-hackeada-y-penalizada-por-google Al igual que en otros sectores, los hackers se han puesto a tope con el tema de las zapatillas. Hacekean una web, scrapean otra (en ocasiones la mía, de ahí salen los enlaces) y a tratar de posicionar a lo bestia. Cuando lo detecte observé que mi competencia estaba igual que yo. Pensé que G no podía penalizar por esto, porque la cosa se lo podía ir de las manos: un hacker encuentra un agujero de seguridad en una web, scrapea otra y le mete esos contenidos. Después enlaces a saco contra la web hackeada para posicionar… y llega G y penaliza a la web hackeada y a la scrapeada. Entre eso y el SEO negativo las webs penalizadas crecerían exponencialmente…

    Aunque piense que lo anterior no perjudica a mi posicionamiento, me jode que me scrapeen mi web aunque solo sea por los recursos que me chupan. El problema es que no he encontrado como protegerme para que un robot no pueda copiar mi web. ¿Alguna idea?

    En resumen, y a ver que te parece, mi hoja de ruta a corto plazo. Analizar una a una todas las url’s de menos de 200 palabras (incluyendo opiniones, preguntas y respuestas). Las que no sean money quitarlas y las que lo sean reforzarlas hasta llegar a esas 200 palabras. Además ponerme a saco con schema… y tratar de cerrar mi web al scrapeo automático.

    Espero poder decirte en no mucho que ha sido suficiente.

    Gracias una vez más! 🙂

  7. Stephen

    Salvo que los bloquees por IP, es complicado evitar que scrapeen tu web. Al final y al cabo, Google también scrapea tu web. Lo que no conviene ignorar es que te están generando enlaces de tipo spam desde dominios nada recomendables, incluidos dominios de casinos online. Para eso está disavow tool.

    No hay una guía oficial de Google sobre Panda (y en caso de existir, habría que ignorarla), pero sí hay mucha información online y casos de estudio que desgranan a fondo el asunto.

    Mi recomendación: cambia el enfoque y sé más ambicioso con las tareas a realizar.

    Un ejemplo: tienes urls con 150 palabras de contenido y sugieres aumentarlas hasta 200 palabras. Con contenidos de 200 palabras por url, a medio plazo no vas a ningún sitio. Lo comento también a raíz de esto otro post http://www.luisclausin.com/por-que-cada-dia-es-mas-complicado-vivir-de-internet donde comentabas que los ingresos iban bajando. Si uno lleva años en esto y le dedica varias horas al día, lo normal es crecer. Si en 2015 la historia se está repitiendo (cosa que no sé), yo repasaría el sistema de trabajo desde la base para ver qué esta fallando y cambiar el enfoque.

    Tampoco hay que reinventar la rueda. Fíjate qué hace la gente que crece en ingresos, analiza su planteamiento y evalúa qué aspectos puedes incorporar a tu método.

    Lo digo con humildad y para tratar de aportar mi granito de arena.

  8. Luis Clausín Autor

    Tienes razón, G también está scrapenado la web. Sobre lo de disavow tool no lo tengo 100% claro. Que hago, ¿estoy todo el día analizando quién me escrapea para automáticamente decírselo a G? Y este proceso cuando acaba, ¿nunca? Son enlaces que acaban cayendo porque antes o después los propietarios de las webs hackeadas se dan cuenta y limpian el desaguisado. De todas formas, tengo que pegarle una pensada más al tema.

    Lo de url’s con 150 palabras no es del todo cierto. Muchas no llegan a esa cifra. Estoy limpiando, y todavía queda, muchas páginas que no llegan a las 100 palabras. ¡Hay diferencia! Ya se que con esto no me voy a forrar. Pero todo se tiene que hacer por etapas, progresivamente. Digamos que no puedo pasar de a tener una web 5 a una 10 en una semana. Lo primero es levantar la web de la penalización. Porque G la haya tumbado no puedo tirar horas y horas de trabajo. Ha funcionado muy bien durante años y da un servicio que muchos runners aprecian.

    ¿Repasar mi sistema de trabajo? Está claro que he de hacerlo. Es más, esta crítica interna ya la he hecho y tienes razón. Ya he montado webs bajo otra filosofía, pero todavía son jóvenes. Necesitan tiempo. Por un lado tengo que levantar ZR y por otro ver si las nuevas técnicas me llevan al lugar donde quiero ir.

    ¿Qué me fije en la gente que crece en ingresos y les copie? Ok, mañana monto un curso de como ganar dinero. 😉 Es broma, obviamente siempre se puede mejorar en todo. Es más, si la actitud no es de mejora constante… adiós.

    Muchas gracias de nuevo por aportar tu visión. 🙂

  9. Pingback: Por qué seguir adelante

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *