Archivo de la categoría: seo

Tu web puede ser hackeada y además penalizada por Google

Cada día más hackers se están aprovechando de los agujeros de seguridad de muchas páginas web y de las vulnerabilidades de Google para hacer dinero.

No tienes más que hacer una búsqueda en Google como por ejemplo «air max baratas» para comprobarlo.

CRO > SEO

Puedes comprobarlo en la imagen, 3 de las 4 primeras webs posicionadas están hackeadas. ¿O es que ahora los editores digitales se dedican también a vender zapatillas de Nike en su propia web?

El método elegido para poder realizar esto parece ser el siguiente. Encuentran un agujero de seguridad donde introducen las páginas que quieren posicionar (que en realidad solo sirven para «enseñárselas» a Google ya que lo que contienen es una redirección a la página donde los hackers buscan hacer dinero) y luego hacen una campaña bestial de linkbuilding hacia dichos archivos.

¿Resultado? Consiguen posicionar sus páginas en webs de terceros gracias a la fuerza bruta obteniendo tráfico a través de las redirecciones ya comentadas. Luego la penalización, que antes o después llegará, se la queda la web hackeada (los editores por ejemplo en el primero de los casos de la imagen superior) y los autores de la treta seguirán recibiendo tráfico de otras webs que «controlan» a través de este método.

Si quieres ampliar información sobre el tema, lo cual te aconsejo ya que si hay hackers que han entrado en el pentágono tu web es imposible que sea 100% segura, te recomiendo que visualices el siguiente vídeo:

¡Debemos estar muy atentos los webmasters porque esto nos puede costar un gran disgusto!

Por qué considero el CRO más importante que el SEO

CRO SEOComienza oficiosamente el curso 2014/15. Y una de las primeras cosas que he hecho al iniciar esta nueva «temporada» laboral es poner un post it en mi ordenador con el siguiente mensaje: CRO (Conversion Rate Optimization) > SEO (Search Engine Optimization).

Sé que no es rompedor, ya que lo anterior no deja de ser una repetición del manido mantra «beneficios es más importante que las páginas vistas», pero de esta forma quiero que no se me olvide reforzar mi apuesta por esta filosofía para mis proyectos. Siempre lo he tratado de hacer, pero reconozco que en ocasiones me he desviado del camino.

Los principales motivos por lo que creo que es beneficioso anteponer el CRO al SEO son los siguientes:

  • Los beneficios son la métrica más importante. Desde este punto de vista, es más interesante doblar tu CRO que tu tráfico SEO (el crecimiento del tráfico y de los ingresos casi nunca es lineal).
  • El número de webs crece cada día, cosa que no ocurre con el número de nuevos usuarios que se incorporan a internet. Además el número de webs de calidad suben (muchas webs de empresas). Suma de lo anterior: captar tráfico cada día es más complicado.
  • A lo anterior hay que sumar que Google, el mayor surtidor de tráfico vía SEO, cada día se queda más tráfico para si.
  • En el SEO dependes de terceros (básicamente de un tercero, Google), en el CRO no tanto. Esto es algo que nos debemos de plantear seriamente todos los websmasters: reducir nuestra Googledependencia.

Eso si, tampoco hay que perder el norte. Sin tráfico, es imposible lograr ingresos. Por tanto para los nuevos proyectos que estoy montando no queda otra que 1º tráfico (SEO por ejemplo) y 2º conversión (CRO).

Cómo detectar una caída de tráfico provocada por un cambio de algoritmo

Mucha gente que ve perder paulatinamente tráfico procedente de buscadores en sus webs lo achaca a penalizaciones por parte de las mismos, olvidándose del peso que puede tener en ese descenso los (cada vez más habituales) cambios de algoritmo.

Antes de avanzar, una rápida explicación sobre ambas. Por un lado están las penalizaciones por las cuales el buscador señala a tu web como spam y le aplica una sanción dentro de sus SERPs. Por otro lado están los cambios de algoritmo que periódicamente realizan los buscadores que te pueden perjudicar o beneficiar.

Aunque hay múltiples casos dentro de cada una, generalmente las penalizaciones provocan fuertes y rápidas caídas de tráfico mientras que las variaciones por cambios de algoritmo no suelen ser tan drásticas.

En ambos casos el escenario es complicado, ya que nadie nos va a avisar cuando los buscadores interpreten que estamos haciendo mal las cosas (bueno, en «honor a la verdad» a veces Google avisa de alguna penalización manual a través de Search Console) y obren en consecuencia. Porque ni en las penalizaciones, que en principio son más fáciles de detectar (no el tipo, si no simplemente que hemos sido penalizados), nadie nos puede asegurar que hundimientos de tráfico puedan ser debidos a ellas ya que también pueden ser provocados por mal uso de meta noindex, robots.txt, fallos de servidor, fallos en la implementación del código del sistema de medición de tráfico web… Incluso dentro de los cambios de algoritmo los hay que afectan en mayor medida y en menor medida.

Entonces nos surge un problema, ¿cómo detectar cuando nos ha «pillado» un cambio de algoritmo? Obviamente nadie quiere perder un 10% de su tráfico, aunque las gráficas visualmente indiquen que la caída es leve.

A continuación explicaré como encontré en una de mis webs una caída de tráfico de buscadores provocada creo (obviamente Google no me lo ha asegurado así que tampoco yo lo puedo afirmar al 100%) por un cambio de algoritmo, cosa siempre complicada debido a lo ya explicado anteriormente (recordar: a.- nadie te va a avisar. 2.- las caídas pueden ser provocadas por causas ajenas al buscador).

Como todo responsable de una web hace, estudio una serie de parámetros mensuales de cada una de mis webs para analizar la evolución de los mismos. Una de ellas son las páginas vistas mensuales, las cuales comparo automáticamente con las del mismo mes del año anterior para evitar la distorsión que puede provocar, al comparar meses consecutivos, la estacionalidad. Por cierto, después de tiempo desechando el dato, ahora también controlo y comparo el número de visitas mensuales, dato más interesante para realizar este pequeño análisis.

caida paginas vistas
En los datos anteriores se observa claramente como la web va subiendo como un cohete hasta que en Junio de 2013 el crecimiento se desacelera para comenzar a darse la vuelta a partir de ahí. ¿Qué ha pasado?

En Analytics comprobé que la caída de tráfico tenía como fuente principal los buscadores. Por ello consideré que sería una buena idea comparar los periodos de 2012 y 2013 en los que acaba la subida y comienza la bajada. Filtrando únicamente el tráfico de Google obtengo lo siguiente:

comparacion visitas
No hay duda. Aunque parece que la caída de tráfico no es evidente mes a mes, por su temática debería empezar a crecer como la espuma y no lo está haciendo. Algo marcha mal, ¿pero el qué?

Mirando la gráfica, en torno al 11 de Junio las tornas parecen cambiar. ¿Hubo cambios en esas fechas en el algoritmo de Google? Al acudir al Google Algorithm Change History de Moz veo que «casualmente» el 11 de Junio hubo movimientos: «Panda Dance» y «Payday Loan Update». ¡De ahí puede surgir mi problema!

Tras lo anterior, estudié la situación y llegué a la conclusión que unos de los cambios, exactamente el «Payday Loan Update», podrían ser los causantes de la situación.

Al no ser una web prioritaria en mi portafolio, no empecé a trabajar en revertir la situación hasta el 29 de Octubre por lo que todavía es pronto para saber si los cambios que he ido haciendo en mi web surgirán efecto. Si lo hacen, contaré en un próximo post lo que he estado haciendo con el objetivo de que G vuelva a «mirar con buenos» ojos a mi web.

Como en SEO es imposible asegurar al 100% ninguna teoría (todo se basa en que nadie conoce el algoritmo) me gustaría conocer tu opinión sobre este post. ¿Estás de acuerdo en que mi web tiene pinta de haberse visto afectada por un cambio de algoritmo? ¿Qué otros parámetros podría analizar para estar más seguro? ¡Gracias por participar!

La estacionalidad en el SEO (tu web quizás no está penalizada)

Si tu proyecto depende del tráfico de buscadores para sobrevivir me imagino que vivirás en un continuo sobre salto. Lo usual, en caso de ser cierto lo anterior, será que prácticamente todo tu tráfico de buscadores provenga de Google, por lo que estarás siempre alerta de las continuas actualizaciones / modificaciones / reestructuraciones de su algoritmo ya se llamen Panda, Penguin o el reciente Hummingbird.

El proceso se repite ante cada actualización. Alguien da el primer aviso, Matt Cutts confirma que algo hay… y a partir de ahí avalancha de información más o menos (mucha más de esta última) contrastada.

Entonces empiezas a mirar los gráficos buscando tendencias ascendentes / descendentes provocadas por los recientes cambios de los buscadores. Y si la tendencia es descendente, llegan los nervios, el stress y las ganas de revertir la situación. Este post no va de como levantar una penalización SEO. Ya hay muchos sobre ello. Por cierto, bastantes defienden que levantar una penalización es sencillo lo cual no comparto para nada. Lo primero porque tu únicamente intuyes que estás penalizado, ni tan siquiera tienes la confirmación pero no sabes por qué salvo casos muy evidentes. Pero repito, este es otro tema.

Lo que si que quiero recordarte a través de estas líneas es que si notas una nueva tendencia en tu tráfico, ya sea ascendente o descendente, puede ser debido a la estacionalidad y no a los reajustes en los buscadores.

Si vendes lotería de de Navidad a partir de Enero tu tráfico se va a desplomar. Si o si. Este es un ejemplo muy evidente, pero la estacionalidad casi siempre afecta en mayor o menor medida y no se suele tener en cuenta habitualmente.

Un ejemplo de uno de mis proyectos. En MueveteBasket.es vendo camisetas de baloncesto, las cuales tienen una estacionalidad bastante clara. En verano y en Navidad reciben más tráfico que el resto del año.  ¿Por qué? En Navidad todo se vende más, pero en verano la clave está en que la mayoría de las camisetas de la NBA no se utilizan para jugar a baloncesto sino para «vestir». ¿Y cuando se utilizará para vestir camisetas de tirantes? En verano. Por eso, en Septiembre el tráfico está cayendo en picado (no por el despliegue el ¿4 de septiembre? de Google Hummingbird).

¿Cómo puedes cerciorarte de que las tendencias que ves en tus gráficas se deben a la estacionalidad y no a otros motivos? Algunas ideas:

  • Tendencias en los gráficos. En el de mi propio caso que comenté anteriormente se ve más o menos claro.camisetas baloncesto muevetebasket
  • Apuntar posiciones en SERPs. Simple, vas guardando las posiciones en diferentes fechas de 4 o 5 keywords. Si es en Google, mejor haz las búsquedas con una url similar a la siguiente para obtener datos lo menos condicionados posibles por geolocalizaciones, logueos… https://www.google.com/search?pws=0&gf=0&filter=0&hl=es&gl=es&q=camisetas+baloncesto No esperes las mismas posiciones, si pasas del 4 al 7 y del 8 al 2 tu posicionamiento es similar. Eso si, preocúpate si tus top 10 dejan de estar en la primera página…
  • Google Trends. Usa la herramienta para analizar tendencias. Si busco camisetas baloncesto veo claramente como a partir de Septiembre el interés por ellas cae en picado.
    camisetas baloncesto google trends
  • Sentido común. Para esto y para todo. Me remito de nuevo a la lotería de Navidad.

Coincido con Google, ha llegado la era de la autoridad a internet

Tanto en este blog como en el “cara a cara”, la gente que me conoce sabe que no suelo dedicarle generalmente bonitas palabras a Google. Para no aburrir siempre como los mismos temas, por si alguien no conoce mi posicionamiento respecto a la gran G lo resumiré muy brevemente: abusa, al igual que todos los monopolios, de su posición dominante en el mercado de las búsquedas.

Pero como dejo claro en el título, este post va sobre todo de autoridad.

Y es que el caso es que últimamente no paro de repetir el mismo “mantra”: en internet está todo, pero todo lo que está en internet no es cierto.

No vale con buscar información sobre un tema y dar la primera que “salga” a nuestro paso por buena.

Si algo ha traído consigo internet es la era de la hiperinformación. Y esto es debido a que cualquiera, sin ninguna barrera de entrada (pertenencia a un medio o grupo, conocimientos de programación…) puede ponerse a escribir sobre cualquier tema… ¡e incluso “atreverse” a evangelizar sobre el mismo!

Haz la prueba. Busca información sobre una temática que domines y empieza a leer. ¿Es todo correcto? Seguro que no.

No me precio de ser un gran SEO pero algo conozco. Pues cada día tropiezo con más artículos de gente autodenominada como experto que aconseja técnicas… las cuales la mayoría de los verdaderos expertos desaconsejaría.

¿Y cual es la solución? La de siempre: aplicar sentido común. Cuando te planteas asistir a una conferencia en “el mundo real”, ¿qué es lo primero que haces? Posiblemente analizar al ponente y decidir si es una persona que te pueda aportar valor.

Es decir, decidir si es una persona con autoridad real (no auto impuesta por él mismo) dentro de su campo. En la red es lo mismo, el artículo que te ofrece Google para saciar tu sed de conocimientos, ¿está redactado por alguien “confiable”?

Y todo parece indicar que en esto está centrado Google para ordenar sus resultados en el ¿presente?/futuro. Determinar qué personas tienen autoridad en su campo para dar mayor relevancia tanto a sus aportaciones directas como indirectas (recomendaciones de artículos de terceras personas por ejemplo).

Otro tema, qué si a alguien le interesa podría ser motivo de otro post, es que aprovechando nuevamente su posición de monopolio quiera vertebrar todo este nuevo paradigma a través de su red social Google+. Una más.

Pero a lo que voy, es a recordarte que nunca debes olvidar que toda la información vertida en intenet no tiene por qué ser cierta. La situación ha cambiado mucha respecto a cuando estudiábamos con los libros del colegio. Incluso cuando Google muestre resultados considerados por él como relevantes, párate a pensar si lo que estás leyendo debe tener tu credibilidad. Un algoritmo por si solo no va a solucionar este “problema” que nos va a acompañar, irremediablemente, para siempre. Por ejemplo, seguro que Google le otorga máxima relevancia a la Wikipedia… cuando todo el mundo sabe que no es, ni muchos menos, 100% fiable.

Pero no solo como consumidor de información nos afecta esto, si no obviamente también como autores. ¿Y como conseguir autoridad de cara a nuestros potenciales lectores? Seguro que hay decenas de formas (volviendo a lo mencionado anteriormente, el buscador quiere que empieces a demostrar la misma en su Google+), pero en mi opinión hay 2 claves: tu hoja de resultados (no lo que vas a hacer sino lo que ya has hecho) y tu casa (blog personal) que es el lugar donde puedes demostrar a lo largo de tu trayectoria profesional, en tu día a día, tus conocimientos.

Por cierto, ¿te paras a pensar quien es el autor de la información que tienes delante o piensas que realmente es algo utópico y no se puede hacer con cada blog o similar en el que “caes”? ¿Qué factores utilizas para medir la autoridad dentro de una materia de un determinado autor?

La importancia del porcentaje de rebote a la hora de diseñar una landing page

Escrito originalmente el 19/07/2011: Una landing page, página de aterrizaje en castellano, es la página de una web en la que se trata de realizar la conversión (venta, registro…) marcada como objetivo.

Como es lógico, un buen diseño es clave para aumentar el ratio de conversión y lograr de este modo aumentar los beneficios de un proyecto.

Pero hay que tener una cosa clara a la hora de construir landings: la forma en la que se captará tráfico para ella. Y es que, como es lógico, antes de construir páginas de aterrizaje habrá que tener en mente como se les suministrará tráfico, porque si nadie las visita es «de cajón» que no habrá conversiones.

Y todo lo anterior viene por la importancia cada vez mayor de la métrica del porcentaje de rebote (porcentaje de usuarios que una vez han llegado a una página la han abandonado sin visitar ninguna otra página de la misma web).

A la hora de construir landing page eficaces muchos expertos recomiendan cerrar al máximo las fugas, eliminando la mayoría de los enlaces que no lleven a la conversión final, pero esa estrategia no dejará al usuario, prácticamente, otra opción que «comprar o escapar», lo cual hace, y te lo digo por experiencia, aumentar considerablemente la tasa de rebote.

Lo anterior será contraproducente para nuestra landing, por ejemplo, tanto si tratamos de captar tráfico para ella a través de SEO o PPC (al menos para AdWords), ya que aumentar el rebote es perjudicial en ambos métodos de captar tráfico.

¿Soluciones? En mi caso, como para la mayoría de mis proyectos trato de captar tráfico a través del SEO, utilizo páginas intermedias. Es decir, trato de captar tráfico a través de páginas en las que hay diversos enlaces que llevan a las landing page donde realizar las conversiones, en las cuales cierro al máximo las fugas.

Pero si captas tráfico por otros métodos, como el email marketing, un porcentaje de rebote alto no será un excesivo problema.

Actualización 14/06/2013: Han pasado casi 2 años desde que escribí este post, pero creo que debo actualizarlo.

Somos muchos (creo) los que en la actualidad defendemos que conseguir reducir el porcentaje de rebote que ofrece Analytics (métrica no tan sencilla de interpretar como parece a priori) no ayuda a posicionar mejor en Google.

¿Significa esto que Google no tiene en cuenta el comportamiento del usuario en nuestras páginas? Para nada. Simplemente se sospecha (en estos temas nunca se pueden hacer afirmaciones categóricas) que lo que mide Google es el tiempo desde que envía una visita a una página y ese mismo usuario vuelve al buscador.

¿Invalida esto último todo el post? Para nada. Usar tácticas para mejorar el rebote Analitycs posiblemente ayudará a mejorar el Dwell time. Simplemente quería dejar constancia de que nadie debería esperar una «causa efecto» entre mejoras en dicha métrica de Analitycs y mejores «rankeos» en G.

No profundizo más, porque para ello ya está este recomendable post de ikhuerta.

 

Número 1 en Google para palabra clave objetivo de web nueva en 70 días

A finales de Febrero comencé a desarrollar desde 0 una web, siguiendo centrado en mis principales fuentes de ingresos pero con la filosofía de intentar todos los días de trabajar algo en ella.

Pues bien, en 70 días ya rankea #1 en Google su palabra clave principal. La verdad es que es una keyword que no tiene una gran competencia (2.980.000 resultados en el momento de escribir estas líneas) ya que su tráfico no es excesivo (pero si jugoso, ya que mucha gente compra anuncios para ella :)) pero alcanzar el número 1 en 70 días sin un trabajo excesivo me ha llevado a una serie de reflexiones que me gustaría compartir con todos vosotros. Allá van:

  • El contenido es el rey. Aunque tengo claro que todavía debo de mejorar mucho en este aspecto, la web ha alcanzado el #1 con 0 enlaces apuntando a ella.
  • Aunque Google amenaza constantemente con reducir la fuerza de los dominios… a día de hoy sigue teniendo mucho peso las keywords en los dominios a la hora de posicionar. Eso si, mi apuesta sigue siendo trabajar este tipo de dominios como marcas (por ejemplo, pongo mucho énfasis en promocionar como marca ZapatillasRunning.net).
  • Posiblemente el paso más importante a la hora de iniciar un proyecto con el objetivo de la rentabilización es el primero (buscar el nicho en el que establecerse). En una temática más competida no sería #1… a estas alturas. 😉
  • El sandbox tiene mucho de leyenda urbana.

De todas maneras, no quiero engañar a nadie: el tráfico de este proyecto sigue siendo muy bajo… pero tengo claro que éste es un proyecto a largo plazo.

Penalizado por exceso de publicidad en la zona visible

Con el lanzamiento de Panda, Google ya avisó que el exceso de publicidad podría ser causa de penalización ya que lo tomaba como un claro indicador de baja calidad de una web. Pero el gigante norteamericano dio un paso más allá a comienzos de este año avisando que podría penalizar directamente páginas por exceso de publicidad en  la zona visible (la que se ve a «primera vista» sin necesidad de hacer scroll).

Esto último causó mucho revuelo entre los webmasters debido a que los discursos de Google AdSense y del equipo de lucha contra spam del propio buscador quedaban enfrentados.

Pues en el último día de Febrero puedo hacer público que ya me he recuperado de una penalización sufrida por exceso de publicidad en la zona caliente de una web.

Voy a contar lo que me ha pasado con una sección importante de MueveteBasket.es, aunque la teoría está más que confirmada debido a que con otras 2 secciones me ha pasado exactamente lo mismo y en plazos muy similares.

La historia es la siguiente. El 21 de Diciembre de 2011, aprovechando una serie de remodelaciones, decido probar un AdSense más agresivo en una de las páginas con mayor tráfico: Camisetas NBA. La obra quedó así:

En torno al 20 de Enero de 2012, el tráfico aportado por Google a esa página empezó a resentirse y fue disminuyendo producto de la caída de posiciones en las serps hasta pasar a ser casi residual.

Visto lo visto, el 24 de Enero realizo un único cambio en el cual el AdSense que había colocado por encima del h1 lo paso al pie, quedando la página así:

Desde el cambio anterior no he modificado nada en la página para confirmar que la degradación venía dada por la causa que estoy comentando, lo cual está confirmado debido a que ayer 28 de Febrero las aguas han vuelto a su cauce comenzando a recibir, aproximadamente, el mismo tráfico que recibía antes.

Conclusión: mejor regirse por las directrices de los chicos de Matt Cutts y no fiarse mucho de lo que cuenten desde AdSense. Apretar el acelerador con la publicidad me ha hecho perder unos cuantos euros debido a los casi 40 días que dicha página ha estado fuera de los puestos nobles de la clasificación de Google.

Errores 404 para evitar que terceros te generen contenido basura

Uno de los objetivos que busca Google con las últimas actualizaciones de su algoritmo es dejar de indexar contenidos de bajo valor en sus índices. Por ello, una de las recomendaciones más importantes en la actualidad es eliminar (o al menos desindexar) páginas basura que aporten nada/poco a un proyecto.

Pero no solo hay que tener controladas las páginas «basura» que tu creas (en muchas ocasiones son necesarias: formularios de contacto, paginaciones…), sino también las que terceros generan por ti.

Aunque es uno de los negocios a los cuales Google trata de cerrar el grifo en la actualidad, siguen existiendo infinidad de webs (123people.es, radaris.es y un largo etcétera de páginas a las que obviamente no voy a dar publicidad) que crean sus contenidos «arañando»información de terceros. Nada nuevo, sino fuera porque últimamente estoy detectando un aumento de los enlaces que generan rotos (en muchos casos debidos a errores de sus propios acortadores) apuntando a páginas de una web que realmente no existen.

Un sencillo ejemplo, un enlace a www.ministioweb.com/contenido/1/ por un error se puede convertir en un link a la inexistente página www.ministioweb.com/conten…

Y es ahí donde se pueden originar los problemas, ya que si tu sistema no devuelve un error 404 (o como mínimo aplica automáticamente el Meta NOINDEX) esas páginas inservibles irán siendo indexadas por los buscadores llenando tu dominio de basura… lo cual a la larga te puede ocasionar consecuencias negativas.

Por ello, es importante verificar que tus webs responden correctamente en situaciones de páginas erróneas.

Mi propio Máster SEO en 2011

Muchas veces se crea el mismo debate en la red: para ser un buen SEO, ¿es mejor hacer un Máster u otro tipo de curso, estudiarse libros, leer blogs/foros o acumular experiencia en proyectos propios?

Yo apuesto por la siguiente fórmula, leer blogs/foros y acumular experiencia por medio de proyectos propios. Sin querer generalizar, hay veces que el programa de los Másters es demasiado teórico, poco práctico y está alejado de las demandas del mercado y en algunos libros hay mucha paja amen de quedarse enseguida anticuados.

He de reconocer que mi planteamiento anterior puede venir condicionado por haber cursado hace unos años un Máster con el cual no quedé plenamente satisfecho y de haberme gastado en alguna ocasión un buen puñado de euros en algún libro sobre SEO con el que me sentí «un pelín» estafado.

Por eso, y para reciclarme, a lo largo del 2011 (y espero que por muchos años más) estoy cursando lo que considero mi propio Máster SEO (lecturas en internet + proyectos propios).

A continuación, una muestra de «las notas» que estoy sacando:

Como podéis observar, empecé flojo pero a medida que ido aumentando mis conocimientos (muchas veces en base a prueba/error) los resultados van llegando.

Como imaginaréis el ver la irregular gráfica anterior, en dicho proyecto he sufrido varias penalizaciones SEO y es que así también se aprende. A alguien del sector le escuché una vez decir que un SEO que nunca haya sufrido una penalización no puede ser un buen SEO. Y es que es muy sencillo montar un blog y no sufrir penalizaciones, pero si montas una web con el objetivo de hacer negocio siempre tendrás que buscar los límites de los buscadores, aunque siempre con cuidado y sin pasarse de listo.

Lo dicho, ¡menos teoría y más práctica!

PD: Como sabréis tengo varios proyectos en internet, pero he elegido tomar la gráfica de esta web porque la creé a finales de 2010 y está 100% orientada a negocio.