Por qué he rechazado publicar un libro en papel

Hace unas semanas se puso en contacto conmigo una editorial para ofrecerme la posibilidad de publicar con ellos un libro en papel. En principio su idea era que publicara con ellos una versión reforzada de mi ebook disponible en Amazon «Como mejorar tu tienda online (87 consejos para crear o/y optimizar tu ecommerce)«.

Tras varios correos electrónicos en los que me trasladaron su propuesta, decidí declinar su amable ofrecimiento.

En las siguientes líneas compartiré qué me llevo a tomar una decisión que hace unos años hubiera sido impensable.

Siendo sincero, el pequeño % de beneficios que me hubiera quedado en cada venta fue un factor primordial. No era un «problema» de la editorial en cuestión, si no de la industria del libro de papel. Además del autor, también tienen que ingresar la editorial, el distribuidor, el vendedor, la imprenta…

Esto choca frontalmente con el escenario que pone Amazon, principal plataforma de autopublicación y venta de ebooks, a disposición de cualquier potencial autor.  Y es que permite ingresar hasta el 70% de cada venta. Por ejemplo, de cada ebook que vendo de mi libro electrónico sobre ecommerce me quedó con 2.79€ siendo su precio de 3.99€. En la propuesta que recibí a «groso modo» se planteaban para mi unos ingresos en torno a 1’5€ por cada ejemplar vendido a un precio aproximadamente de 12.5€.

Por lo tanto, como tengo claro que no soy Dan Brown o Ken Follett las probabilidades de ganar un dinero reseñable con libros en papel para mi es muy baja.

Otro de los principales escollos que veía era tener trabajar con unos plazos de entrega muy marcados. Mi actividad principal es la rentabilización de páginas webs y por tanto mi prioridad son ellas. No quería estar supeditado a tener que «cerrar» la entrega de un libro y tener que dejarlas de lado durante una pequeña temporada. La autopublicación me permite distribuir mi tiempo y gestionar mis prioridades.

Por último y como no todo es el dinero, aunque como todo el mundo si no soy capaz de generarlo en mis horas de trabajo tengo un serio problema, me planteé si desde el punto de vista de promoción personal publicar un título en papel me podría ser interesante. Al final por ejemplo LuisClausin.com me cuesta dinero año a año pero de él obtengo otro tipo de beneficios (y espero sinceramente en este aspecto que lo mejor este por llegar). Pero, tras hacer una reflexión personal y consultarlo con varias personas, llegué a la conclusión que tener una obra en papel en pleno 2.014 no te debería abrir más puertas que un libro en formato electrónico. Y sobre todo para una persona, como yo, dedicada a internet. Quizás si se está en un campo en el que pueda haber dirigentes de generaciones antiguas que no han oído hablar de ebooks, Amazon… aunque lógicamente esos dinosaurios se irán extinguiendo más pronto que tarde. Está claro que si la editorial fuera grande y me prometiera una promoción importante la cosa se podrían ver con ojos diferentes… pero sinceramente no espero que nadie apueste tan fuerte por un libro sobre comercio electrónico de un autor desconocido.

Estos 3 «problemas» (bajo % de beneficios por venta, plazos de entrega y falta de repercusión adicional respecto al papel) no existen en la publicación electrónica, al menos para los autores independientes como yo.

¿Por qué comparto esto aquí? Pues porque estoy convencido plenamente que el futuro de los libros va hacia el forma electrónico ineludiblemente, lo cual es bueno tanto para los lectores (libros más baratos, comodidad de leer, no ocupan espacio, a un clic de cualquier libro en formato digital publicado en el mundo…) como para cualquier persona que quiera convertirse en autor (mayor % de beneficios, control total de la obra, potenciales clientes en todo el mundo…).

Con todo esto no quiero decir que yo piense que los libros en papel van a desaparecer. Lo que creo (yo y la mayor parte de la gente) es el libro digital es una oportunidad que se nos abre a TODO el mundo… pudiendo beneficiarnos TODOS tanto como lectores como autores.

Caso real: La importancia de elegir buenos programas en afiliación

Para tener éxito en afiliados es indispensable trabajar con buenos programas. Me lo habrás leído a mi (en este blog, en mi ebook…) y a cualquier otra persona que hable sobre la afiliación. Es de cajón. Por muy bien que hagamos nuestro trabajo si nuestros programas no cumplen (mala usabilidad, página lenta y/o poco confiable, precios altos…) no hay nada que hacer.

Hace pocos días me ha ocurrido algo con lo que todo rentabilizador sueña. Tener un programa que no funciona bien, cambiarlo por otro… ¡y que los ingresos se disparen sin necesidad de realizar más cambios!

El caso es que yo tenía un programa que antaño me había funcionado bien, pero mes a mes iba bajando sus prestaciones. Hasta el punto de que en Noviembre de 2013 tocó fondo tras generar únicamente el 16% de lo que había acumulado el mismo mes en 2012. Algo raro pasaba porque el resto de programas, con sus subidas y bajadas normales, funcionaban de manera bastante similar a como lo hacían 365 días antes.

Teniendo en cuenta que las condiciones del programa (comisión, cookie time…) no habían cambiado, ¿qué era lo que estaba ocurriendo? ¿Problemas con el tracking? ¿La API había dejado de ofrecer resultados ajustados a los textos de mi web? ¿Menos ofertas especiales? ¿Sus precios eran menos competitivos? Escribí a la persona encargada del programa para preguntarle si notaban alguna anomalía y me respondió que no. Lo hice fundamentalmente confiando en que fuera algún problema técnico, porque sabía que no me iba a decir «ya no vendemos tanto como hace un año, antes éramos líderes en nuestro sector pero a día de hoy la competencia se nos ha comido».

Como siempre digo, no regalo el espacio en mis webs. Por tanto tenía 2 opciones, o buscaba una alternativa para él o simplemente lo suprimía. Como mejor era lo primero, me puse a investigar en foros sobre los productos que yo quería vender. ¿Donde estaba comprando ahora la gente? Apenas se hablaba ya de la empresa que tenía el programa que ya no me funcionaba a mi. Ahora se hacía sobre todo de otra… ¡que además tenía su programa de afiliación en la misma compañía que el programa que estaba a punto de suprimir! Por tanto, solo tenía que pedir ser aceptado en él y cambiar 4 datos para que en mi web la API empezará a volcar datos de esta nueva compañía.

Y así lo hice, con los siguientes resultados:

comparacion visitas

He puesto los datos de 3 semanas diferentes. La primera es Febrero, mes a partir del cual el programa 1 empezó a empeorar sus resultados. Las otras 2 son la última semana en la que operé con el programa 1 y la primera con el que lo hice ya con el nuevo programa.

¡Resultados espectaculares! Únicamente cambiando un programa por otro, con cantidades de tráfico en mi web muy similares. Sus ofertas mucho más atractivas subieron el número de clics, el CR (número de ventas por cada 100 visitas envidas) y el EPC (dinero ganado cada 100 visitas) que son las variables más aconsejables de estudiar para concluir sin un programa es rentable o no. Obviamente en la gran subida del EPC fue clave, además de la subida de CR, que la comisión de este nuevo programa es el doble (8% en lugar del 4%).

Creo que con este caso real queda demostrada la necesidad de tener buenos programas de afiliación para poder alcanzar el éxito. Y otra cosa, los programas que hoy funcionan bien mañana pueden no hacerlo ya que el mercado se mueve a toda velocidad, no solo para nosotros los pequeños webmasters, para todos.

Medir y analizar constantemente es clave en este negocio… y posiblemente en todos. ¿No crees?

Cómo detectar una caída de tráfico provocada por un cambio de algoritmo

Mucha gente que ve perder paulatinamente tráfico procedente de buscadores en sus webs lo achaca a penalizaciones por parte de las mismos, olvidándose del peso que puede tener en ese descenso los (cada vez más habituales) cambios de algoritmo.

Antes de avanzar, una rápida explicación sobre ambas. Por un lado están las penalizaciones por las cuales el buscador señala a tu web como spam y le aplica una sanción dentro de sus SERPs. Por otro lado están los cambios de algoritmo que periódicamente realizan los buscadores que te pueden perjudicar o beneficiar.

Aunque hay múltiples casos dentro de cada una, generalmente las penalizaciones provocan fuertes y rápidas caídas de tráfico mientras que las variaciones por cambios de algoritmo no suelen ser tan drásticas.

En ambos casos el escenario es complicado, ya que nadie nos va a avisar cuando los buscadores interpreten que estamos haciendo mal las cosas (bueno, en «honor a la verdad» a veces Google avisa de alguna penalización manual a través de Search Console) y obren en consecuencia. Porque ni en las penalizaciones, que en principio son más fáciles de detectar (no el tipo, si no simplemente que hemos sido penalizados), nadie nos puede asegurar que hundimientos de tráfico puedan ser debidos a ellas ya que también pueden ser provocados por mal uso de meta noindex, robots.txt, fallos de servidor, fallos en la implementación del código del sistema de medición de tráfico web… Incluso dentro de los cambios de algoritmo los hay que afectan en mayor medida y en menor medida.

Entonces nos surge un problema, ¿cómo detectar cuando nos ha «pillado» un cambio de algoritmo? Obviamente nadie quiere perder un 10% de su tráfico, aunque las gráficas visualmente indiquen que la caída es leve.

A continuación explicaré como encontré en una de mis webs una caída de tráfico de buscadores provocada creo (obviamente Google no me lo ha asegurado así que tampoco yo lo puedo afirmar al 100%) por un cambio de algoritmo, cosa siempre complicada debido a lo ya explicado anteriormente (recordar: a.- nadie te va a avisar. 2.- las caídas pueden ser provocadas por causas ajenas al buscador).

Como todo responsable de una web hace, estudio una serie de parámetros mensuales de cada una de mis webs para analizar la evolución de los mismos. Una de ellas son las páginas vistas mensuales, las cuales comparo automáticamente con las del mismo mes del año anterior para evitar la distorsión que puede provocar, al comparar meses consecutivos, la estacionalidad. Por cierto, después de tiempo desechando el dato, ahora también controlo y comparo el número de visitas mensuales, dato más interesante para realizar este pequeño análisis.

caida paginas vistas
En los datos anteriores se observa claramente como la web va subiendo como un cohete hasta que en Junio de 2013 el crecimiento se desacelera para comenzar a darse la vuelta a partir de ahí. ¿Qué ha pasado?

En Analytics comprobé que la caída de tráfico tenía como fuente principal los buscadores. Por ello consideré que sería una buena idea comparar los periodos de 2012 y 2013 en los que acaba la subida y comienza la bajada. Filtrando únicamente el tráfico de Google obtengo lo siguiente:

comparacion visitas
No hay duda. Aunque parece que la caída de tráfico no es evidente mes a mes, por su temática debería empezar a crecer como la espuma y no lo está haciendo. Algo marcha mal, ¿pero el qué?

Mirando la gráfica, en torno al 11 de Junio las tornas parecen cambiar. ¿Hubo cambios en esas fechas en el algoritmo de Google? Al acudir al Google Algorithm Change History de Moz veo que «casualmente» el 11 de Junio hubo movimientos: «Panda Dance» y «Payday Loan Update». ¡De ahí puede surgir mi problema!

Tras lo anterior, estudié la situación y llegué a la conclusión que unos de los cambios, exactamente el «Payday Loan Update», podrían ser los causantes de la situación.

Al no ser una web prioritaria en mi portafolio, no empecé a trabajar en revertir la situación hasta el 29 de Octubre por lo que todavía es pronto para saber si los cambios que he ido haciendo en mi web surgirán efecto. Si lo hacen, contaré en un próximo post lo que he estado haciendo con el objetivo de que G vuelva a «mirar con buenos» ojos a mi web.

Como en SEO es imposible asegurar al 100% ninguna teoría (todo se basa en que nadie conoce el algoritmo) me gustaría conocer tu opinión sobre este post. ¿Estás de acuerdo en que mi web tiene pinta de haberse visto afectada por un cambio de algoritmo? ¿Qué otros parámetros podría analizar para estar más seguro? ¡Gracias por participar!

5 claves para sacarle el máximo partido a tu web durante las Navidades

En el momento de escribir estas líneas quedan apenas 2 meses y un día para Nochebuena. Para cuando queramos darnos cuenta, ya tenemos encima la Navidad. Sin lugar a dudas, el mayor periodo de compras del año… por mucha crisis que haya. Es lo que hay.

Obviamente, es un periodo importante para todo webmaster que viva de sus proyectos. Ya que nuestros ingresos fluctúan a lo largo del año, tenemos que aprovechar los periodos más «fértiles» del año para aumentar nuestras ganancias.

beneficios 2010 2013

El gráfico de los beneficios de mis proyectos en internet es una clara muestra de la importancia que tiene para mi de la campaña navideña.

En mi opinión en esta recta final hacia el fin del año lo que tenemos que hacer es trabajar en fortalecer al máximo nuestras principales fuentes de ingresos. Aparcar a corto plazo los proyectos menos rentables o nuevos negocios, para redoblar nuestros esfuerzos en las zonas más rentables de nuestras webs.

A continuación compartiré los 5 puntos claves en los que me centraré en esta pre-Navidad 2013/14:

  • Aplicar la regla 80/20 a todo. ¿Qué 20% de proyectos suponen el 80% de nuestros ingresos? ¿Qué 20% de productos significan el 80% de las ventas? Pon tu mayor ahínco en las zonas más rentables, añade a tu catálogo productos similares a los más vendidos…
  • Analizar la estacionalidad de tus productos. Sentido común. Aunque vendiendo bañadores te vaya muy bien, quizás tengas otras opciones mejor que potenciar en estas fechas.
  • No tomar riesgos. Es el momento de practicar el SEO más white del año. Una penalización durante el periodo de Navidades, por pequeña que sea, puede ser letal. No es momento tampoco para rediseños agresivos…
  • Contenidos. Son el rey de internet. Sirven para posicionar, para persuadir, para informar… Por tanto, y aunque en ningún momento del año hay que dejarlos de lado, es el momento de poner «el turbo» con los contenidos en todos sus formatos (texto, imágenes, videos…). De los datos obtenidos a partir de aplicar la regla 80/20 podrás sacar las mejores ideas para elaborar estos contenidos.
  • Utilizar los métodos más exitosos para atraer clientes por medio de email marketing, redes sociales, publicidad… Has tenido todo el año para probar, ahora es el momento (en este punto, especialmente a partir de Diciembre) para exhibir tus mejores propuestas.

Después de las Navidades y sus posteriores rebajas el bolsillo del internauta estará muy tocado y será un buen momento para plantearse nuevos proyectos, mejoras más atrevidas… ¡o incluso bajar el pistón momentáneamente de trabajo!

La estacionalidad en el SEO (tu web quizás no está penalizada)

Si tu proyecto depende del tráfico de buscadores para sobrevivir me imagino que vivirás en un continuo sobre salto. Lo usual, en caso de ser cierto lo anterior, será que prácticamente todo tu tráfico de buscadores provenga de Google, por lo que estarás siempre alerta de las continuas actualizaciones / modificaciones / reestructuraciones de su algoritmo ya se llamen Panda, Penguin o el reciente Hummingbird.

El proceso se repite ante cada actualización. Alguien da el primer aviso, Matt Cutts confirma que algo hay… y a partir de ahí avalancha de información más o menos (mucha más de esta última) contrastada.

Entonces empiezas a mirar los gráficos buscando tendencias ascendentes / descendentes provocadas por los recientes cambios de los buscadores. Y si la tendencia es descendente, llegan los nervios, el stress y las ganas de revertir la situación. Este post no va de como levantar una penalización SEO. Ya hay muchos sobre ello. Por cierto, bastantes defienden que levantar una penalización es sencillo lo cual no comparto para nada. Lo primero porque tu únicamente intuyes que estás penalizado, ni tan siquiera tienes la confirmación pero no sabes por qué salvo casos muy evidentes. Pero repito, este es otro tema.

Lo que si que quiero recordarte a través de estas líneas es que si notas una nueva tendencia en tu tráfico, ya sea ascendente o descendente, puede ser debido a la estacionalidad y no a los reajustes en los buscadores.

Si vendes lotería de de Navidad a partir de Enero tu tráfico se va a desplomar. Si o si. Este es un ejemplo muy evidente, pero la estacionalidad casi siempre afecta en mayor o menor medida y no se suele tener en cuenta habitualmente.

Un ejemplo de uno de mis proyectos. En MueveteBasket.es vendo camisetas de baloncesto, las cuales tienen una estacionalidad bastante clara. En verano y en Navidad reciben más tráfico que el resto del año.  ¿Por qué? En Navidad todo se vende más, pero en verano la clave está en que la mayoría de las camisetas de la NBA no se utilizan para jugar a baloncesto sino para «vestir». ¿Y cuando se utilizará para vestir camisetas de tirantes? En verano. Por eso, en Septiembre el tráfico está cayendo en picado (no por el despliegue el ¿4 de septiembre? de Google Hummingbird).

¿Cómo puedes cerciorarte de que las tendencias que ves en tus gráficas se deben a la estacionalidad y no a otros motivos? Algunas ideas:

  • Tendencias en los gráficos. En el de mi propio caso que comenté anteriormente se ve más o menos claro.camisetas baloncesto muevetebasket
  • Apuntar posiciones en SERPs. Simple, vas guardando las posiciones en diferentes fechas de 4 o 5 keywords. Si es en Google, mejor haz las búsquedas con una url similar a la siguiente para obtener datos lo menos condicionados posibles por geolocalizaciones, logueos… https://www.google.com/search?pws=0&gf=0&filter=0&hl=es&gl=es&q=camisetas+baloncesto No esperes las mismas posiciones, si pasas del 4 al 7 y del 8 al 2 tu posicionamiento es similar. Eso si, preocúpate si tus top 10 dejan de estar en la primera página…
  • Google Trends. Usa la herramienta para analizar tendencias. Si busco camisetas baloncesto veo claramente como a partir de Septiembre el interés por ellas cae en picado.
    camisetas baloncesto google trends
  • Sentido común. Para esto y para todo. Me remito de nuevo a la lotería de Navidad.

Coincido con Google, ha llegado la era de la autoridad a internet

Tanto en este blog como en el “cara a cara”, la gente que me conoce sabe que no suelo dedicarle generalmente bonitas palabras a Google. Para no aburrir siempre como los mismos temas, por si alguien no conoce mi posicionamiento respecto a la gran G lo resumiré muy brevemente: abusa, al igual que todos los monopolios, de su posición dominante en el mercado de las búsquedas.

Pero como dejo claro en el título, este post va sobre todo de autoridad.

Y es que el caso es que últimamente no paro de repetir el mismo “mantra”: en internet está todo, pero todo lo que está en internet no es cierto.

No vale con buscar información sobre un tema y dar la primera que “salga” a nuestro paso por buena.

Si algo ha traído consigo internet es la era de la hiperinformación. Y esto es debido a que cualquiera, sin ninguna barrera de entrada (pertenencia a un medio o grupo, conocimientos de programación…) puede ponerse a escribir sobre cualquier tema… ¡e incluso “atreverse” a evangelizar sobre el mismo!

Haz la prueba. Busca información sobre una temática que domines y empieza a leer. ¿Es todo correcto? Seguro que no.

No me precio de ser un gran SEO pero algo conozco. Pues cada día tropiezo con más artículos de gente autodenominada como experto que aconseja técnicas… las cuales la mayoría de los verdaderos expertos desaconsejaría.

¿Y cual es la solución? La de siempre: aplicar sentido común. Cuando te planteas asistir a una conferencia en “el mundo real”, ¿qué es lo primero que haces? Posiblemente analizar al ponente y decidir si es una persona que te pueda aportar valor.

Es decir, decidir si es una persona con autoridad real (no auto impuesta por él mismo) dentro de su campo. En la red es lo mismo, el artículo que te ofrece Google para saciar tu sed de conocimientos, ¿está redactado por alguien “confiable”?

Y todo parece indicar que en esto está centrado Google para ordenar sus resultados en el ¿presente?/futuro. Determinar qué personas tienen autoridad en su campo para dar mayor relevancia tanto a sus aportaciones directas como indirectas (recomendaciones de artículos de terceras personas por ejemplo).

Otro tema, qué si a alguien le interesa podría ser motivo de otro post, es que aprovechando nuevamente su posición de monopolio quiera vertebrar todo este nuevo paradigma a través de su red social Google+. Una más.

Pero a lo que voy, es a recordarte que nunca debes olvidar que toda la información vertida en intenet no tiene por qué ser cierta. La situación ha cambiado mucha respecto a cuando estudiábamos con los libros del colegio. Incluso cuando Google muestre resultados considerados por él como relevantes, párate a pensar si lo que estás leyendo debe tener tu credibilidad. Un algoritmo por si solo no va a solucionar este “problema” que nos va a acompañar, irremediablemente, para siempre. Por ejemplo, seguro que Google le otorga máxima relevancia a la Wikipedia… cuando todo el mundo sabe que no es, ni muchos menos, 100% fiable.

Pero no solo como consumidor de información nos afecta esto, si no obviamente también como autores. ¿Y como conseguir autoridad de cara a nuestros potenciales lectores? Seguro que hay decenas de formas (volviendo a lo mencionado anteriormente, el buscador quiere que empieces a demostrar la misma en su Google+), pero en mi opinión hay 2 claves: tu hoja de resultados (no lo que vas a hacer sino lo que ya has hecho) y tu casa (blog personal) que es el lugar donde puedes demostrar a lo largo de tu trayectoria profesional, en tu día a día, tus conocimientos.

Por cierto, ¿te paras a pensar quien es el autor de la información que tienes delante o piensas que realmente es algo utópico y no se puede hacer con cada blog o similar en el que “caes”? ¿Qué factores utilizas para medir la autoridad dentro de una materia de un determinado autor?

La importancia del porcentaje de rebote a la hora de diseñar una landing page

Escrito originalmente el 19/07/2011: Una landing page, página de aterrizaje en castellano, es la página de una web en la que se trata de realizar la conversión (venta, registro…) marcada como objetivo.

Como es lógico, un buen diseño es clave para aumentar el ratio de conversión y lograr de este modo aumentar los beneficios de un proyecto.

Pero hay que tener una cosa clara a la hora de construir landings: la forma en la que se captará tráfico para ella. Y es que, como es lógico, antes de construir páginas de aterrizaje habrá que tener en mente como se les suministrará tráfico, porque si nadie las visita es «de cajón» que no habrá conversiones.

Y todo lo anterior viene por la importancia cada vez mayor de la métrica del porcentaje de rebote (porcentaje de usuarios que una vez han llegado a una página la han abandonado sin visitar ninguna otra página de la misma web).

A la hora de construir landing page eficaces muchos expertos recomiendan cerrar al máximo las fugas, eliminando la mayoría de los enlaces que no lleven a la conversión final, pero esa estrategia no dejará al usuario, prácticamente, otra opción que «comprar o escapar», lo cual hace, y te lo digo por experiencia, aumentar considerablemente la tasa de rebote.

Lo anterior será contraproducente para nuestra landing, por ejemplo, tanto si tratamos de captar tráfico para ella a través de SEO o PPC (al menos para AdWords), ya que aumentar el rebote es perjudicial en ambos métodos de captar tráfico.

¿Soluciones? En mi caso, como para la mayoría de mis proyectos trato de captar tráfico a través del SEO, utilizo páginas intermedias. Es decir, trato de captar tráfico a través de páginas en las que hay diversos enlaces que llevan a las landing page donde realizar las conversiones, en las cuales cierro al máximo las fugas.

Pero si captas tráfico por otros métodos, como el email marketing, un porcentaje de rebote alto no será un excesivo problema.

Actualización 14/06/2013: Han pasado casi 2 años desde que escribí este post, pero creo que debo actualizarlo.

Somos muchos (creo) los que en la actualidad defendemos que conseguir reducir el porcentaje de rebote que ofrece Analytics (métrica no tan sencilla de interpretar como parece a priori) no ayuda a posicionar mejor en Google.

¿Significa esto que Google no tiene en cuenta el comportamiento del usuario en nuestras páginas? Para nada. Simplemente se sospecha (en estos temas nunca se pueden hacer afirmaciones categóricas) que lo que mide Google es el tiempo desde que envía una visita a una página y ese mismo usuario vuelve al buscador.

¿Invalida esto último todo el post? Para nada. Usar tácticas para mejorar el rebote Analitycs posiblemente ayudará a mejorar el Dwell time. Simplemente quería dejar constancia de que nadie debería esperar una «causa efecto» entre mejoras en dicha métrica de Analitycs y mejores «rankeos» en G.

No profundizo más, porque para ello ya está este recomendable post de ikhuerta.

 

Número 1 en Google para palabra clave objetivo de web nueva en 70 días

A finales de Febrero comencé a desarrollar desde 0 una web, siguiendo centrado en mis principales fuentes de ingresos pero con la filosofía de intentar todos los días de trabajar algo en ella.

Pues bien, en 70 días ya rankea #1 en Google su palabra clave principal. La verdad es que es una keyword que no tiene una gran competencia (2.980.000 resultados en el momento de escribir estas líneas) ya que su tráfico no es excesivo (pero si jugoso, ya que mucha gente compra anuncios para ella :)) pero alcanzar el número 1 en 70 días sin un trabajo excesivo me ha llevado a una serie de reflexiones que me gustaría compartir con todos vosotros. Allá van:

  • El contenido es el rey. Aunque tengo claro que todavía debo de mejorar mucho en este aspecto, la web ha alcanzado el #1 con 0 enlaces apuntando a ella.
  • Aunque Google amenaza constantemente con reducir la fuerza de los dominios… a día de hoy sigue teniendo mucho peso las keywords en los dominios a la hora de posicionar. Eso si, mi apuesta sigue siendo trabajar este tipo de dominios como marcas (por ejemplo, pongo mucho énfasis en promocionar como marca ZapatillasRunning.net).
  • Posiblemente el paso más importante a la hora de iniciar un proyecto con el objetivo de la rentabilización es el primero (buscar el nicho en el que establecerse). En una temática más competida no sería #1… a estas alturas. 😉
  • El sandbox tiene mucho de leyenda urbana.

De todas maneras, no quiero engañar a nadie: el tráfico de este proyecto sigue siendo muy bajo… pero tengo claro que éste es un proyecto a largo plazo.

Cómo detectar malware en una web

He comenzado el año sufriendo una mala experiencia en una de mis webs: un falso positivo de un antivirus por el cual informaba a sus usuarios que mi web era peligrosa. Cosas (desagradables) que pasan (si no, ¿por qué todos los antivirus tienen formularios en sus webs para avisar de falsos positivos?).

En mi caso, no quedaba lugar a la duda ya que el archivo al que se «acusaba» de contener malware, favicon.ico, no existía. Además la llamada a ese archivo devolvía un error 404 que funcionaba correctamente.

Antes de ponerme en contacto con el antivirus, a pesar de tener bastante claro la ausencia de un problema real, decidí hacer una serie de pruebas para asegurarme de que no hubiera nada raro en mi web.

Hice las siguientes pruebas, las cuales no está demás realizar periódicamente para asegurarnos de que códigos maliciosos no se cuelan en nuestras webs:

  • Descargar todos los archivos de la web al PC y «pasar» el antivirus sobre ellos. Se supone que los propios hostings tienen sus antivirus, pero todo ayuda.
  • Mirar en el apartado Salud de Google Webmasters Tools  si se ha detectado software malintencionado. Si además las propias WMT informan, sin motivo aparente, del aumento en el número de errores de página no encontrada conviene repasar los mismos porque pueden ser páginas basura que esté creando algún tipo de malware (conozco un par de casos que a raíz de ello se detectó la existencia de virus).
  • Comprobar los diversos parámetros que devuelve la herramienta de Google Safebrowsing.
  • Hacer un escaneo de la página en Stopbadware.org, organismo que previene sobre este tipo de problemas (en ocasiones los propios navegadores utilizan sus listas negras para avisar a sus usuarios sobre páginas maliciosas).
  • Llevar a cabo diversos escaneos online. Algunos ejemplos .
  • En caso de falsos positivos, acceder a la web desde otros antivirus. Si los demás antivirus no detectan nada (yo probé hasta 3 diferentes)…

***

Adjunto la nota de prensa sobre lo ocurrido:

Falso positivo de ZapatillasRunning.net en Kaspersky

kaspersky13-2Como algunos nos notificasteis, durante los últimos días quienes teníais instalado en vuestro ordenador el antivirus Kaspersky os saltaba una detección similar a la de la imagen de la izquierda.

Después de realizar múltiples análisis (entre otros muchos, probamos la web con 4 antivirus distintos y ninguno informó de anomalía alguna), se confirmó nuestra primera impresión: era un falso positivo ya que el icono que el archivo que señalaba como infectado ni tan siquiera existía.

Por ello, notificamos a Kaspersky la situación… la cual ya ha sido resuelta por su parte ya que el antivirus ha dejado de reportar los problemas anteriormente mencionados.

Por lo tanto, queremos dejar claro que en ningún momento ZapatillasRunning.net estuvo infectado por un virus, troyano o similar…

***

Por cierto, en mi caso en menos de una semana desde que les realicé la notificación el antivirus en cuestión corrigió el falso positivo y dejó de detectar mi web como portadora de malware.

Hablando sobre rentabilización web

luis clausín charla
El pasado lunes di en la Fundación Dédalo una charla sobre como rentabilizar páginas webs.

Muchas gracias a quienes asistieron (aforo completo, en torno a las 35 personas) y a todas las personas de la propia Fundación quienes, por cierto, me dieron un trato inmejorable.

Para ser mi primera charla estoy satisfecho con el resultado, aunque soy consciente que mis aptitudes para expresarme en público son mejorables.

Pd: La charla se grabó para emitirse en streaming y posteriormente subirse a Youtube (cuando se haga esto último compartiré el enlace):

Para impartir la charla preparé un guión con 6 claves:

Encuentra la temática adecuada.

Elige un tema (mejor si es uno de tus hobbies) -> Segméntalo (¿hay audiencia? compruébalo en la keyword tool external, ¿hay anunciantes? analízalo haciendo búsquedas en Google y eBay) -> ¿Competencia alta?

Extra: HotelesEnTudela.es o el fracaso de un proyecto por demasiada competencia, baja audiencia…

Crea tu web

Selecciona un hosting de confianza (por 2/3€ mes los hay), un dominio (piénsatelo bien, será tu marca en internet), un CMS (o si sabes programar móntate tu web a tu gusto) y desde el primer día instala herramientas (Analytics, Webmasters Tools, Bing Webmasters) que te permitirán cumplir con éxito el punto 6.

Extra: ¿Cómo elegir su CMS para un blog o para un sitio web?

El contenido es el rey

Nutre de buenos contenidos tu web. ¿Por qué visitas una web, lees un periódico o ves un programa de TV? Efectivamente, por sus contenidos.

Extra: Un nuevo estudio confirma que el contenido es el rey, no los social media…

Diseña tu estrategia para captar tráfico

0 tráfico = 0 ingresos. Pero alto tráfico no significa altos ingresos (la importancia del tráfico de calidad).

Extra: El tráfico, para empezar, solo es coste y muchos proyectos de Internet con increíble tráfico han fracasado.

Métodos para captar tráfico: SEO, SEM, SMO, anunciantes directos, publicidad off line, email marketing, generar contenidos para terceros…

Elige tus mecanismos para ganar dinero y optimízalos

Extra: Alternativas para ganar dinero con la publicidad

¿Por donde empezar? CPC/CPM (AdSense es el programa más popular, crítico para su buen funcionamiento controlar aspectos como cómo diseñar los anuncios y donde colocar los mismos) o Afiliados (Amazon/eBay tienen programas con muchas alternativas, elegir buenos formatos, buenos productos y pre-vender en tu página). No es suficiente pegar un código y quedarse mirando a la pantalla esperando que llegue el dinero.

Prueba, mide y analiza (aplicable al tráfico y al rendimiento económico de la web)

Lo que se puede medir se puede controlar.

Extra: Medir y optimizar el rendimiento olímpico. Más allá de las medallas

Son puntos muy esquemáticos acompañados por contenidos externos en los que poder profundizar. Si te has quedado con ganas de mas, en mi ebook Como crear una web para ganar dinero extra todos los meses (sin necesidad de saber programar) encontrarás mucha más información sobre cada clave. 🙂