Blogs y RSS Feeds: La información publicada en los blogs, es indexada por los motores de búsqueda mas rápido que la publicada en páginas web, además cuentan con la posibilidad de proporcionar RSS Feeds de una manera sencilla, los cuales permiten notificar de forma automática cualquier modificación que se introduzca en el blog. Yo recomiendo la utilización simultánea de blog y página web, introduciendo numerosos vínculos entre ambos que, como consecuencia, incrementaran su ránking.
Rasgos sospechados: Son aquellos rasgos secretos discernidos en la práctica misma de la actividad, los mismos no son de carácter oficial, pero al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por ejemplo se ha descubierto que a pesar de todo lo dicho por los creadores lo más importante para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.
Creación de una estrategia de social media marketing con la que apoyar y potenciar los contenidos del blog, hacer publicaciones habituales de este y otros medios relacionados, hacer publicidad (esta parte iría más bien dentro de el posicionamiento SEA) y conseguir seguidores que lean, compartan y comenten los contenidos de la web. Para que esta estrategia sea eficaz, no sólo se deben gestionar estos aspectos, sino que además, se debe interactuar y participar de forma activa con los usuarios (también en los comentarios del blog, las opciones de hilos de foro, etc. con que cuente tu web).
Prueba, crea pequeñas campañas con poco presupuesto, entre 1€ y 3€ al día, o comienza con una prueba de una campaña de 5€. Utiliza una segmentación demográfica y por intereses acorde con el artículo que vas a promover y analiza los resultados que consigues. En campañas de interacción con la publicación puedes llegar a obtener un coste por interacción menor al céntimo de euro.
Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de web han gastado meses o incluso años en optimizar un sitio web para mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda. En febrero de 2011, Google anunció la actualización “Panda”, la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.
Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara. Un «mapa del sitio web» en el código (tanto el de Google como uno presente en el sitio) permitirá dar paso al buscador por las diferentes secciones del sitio en forma ordenada, mejorando su visibilidad. Incluidos los archivos RSS que también pueden ser utilizados como sitemaps.
Excelente post, la verdad es que, salvo algunos puntos, he llevado a cabo la mayoría y puedo dar fe de su eficacia, sobre todo en lo que se refiere al análisis de palabras clave, páginas AMP, velocidad de carga, etcétera. En cuanto a las palabras de alta competencia como «abogados», es quizá lo más complicado, pues cuando intentas posicionar una chocas frontalmente con una competencia feroz que invierte mucho dinero para aparecer. Son realmente difíciles. Yo mismo tengo un portal temático de mi ciudad, Elche, y ahora, al cabo de cuatro años, aparece la palabra «Elche» bien posicionada, en segunda página, mientras que las de cola larga no tienen dificultad para estar arriba.
Se podría decir que este tipo de páginas, abrieron la puerta de forma masiva tanto a usuarios particulares como negocios. Esto se tradujo en un nuevo entorno para cientos de miles de marcas en el que poder operar y evolucionar y en el que cada vez existe una competencia más intensa (y es que ya llevamos más de 20 años disfrutando de sus grandes ventajas).
Para poder medir las métricas relativas al posicionamiento SEO podemos emplear las herramientas para Webmasters que nos ofrecen los motores de búsqueda, en el caso de Google, Search Console. Esta herramienta nos da cierta información de las posiciones y palabras clave que nos han generado clics, pero la información es incompleta, dificultando el trabajo de cualquier SEO.
Este tipo de portales se constituyen como una fuente de tráfico de gran calidad. Podemos encontrar plataformas en las que sólo se difunde una temática determinada, u otras en las que se tratan más variedad de materias. Vemos entonces que los contenidos están clasificados por temáticas, por lo que los usuarios van directamente a aquello que les interesa.

Por su parte, la estrategia SEM tiene un claro y obvio propósito comercial. Es por eso que la mayoría de las veces esos contenidos no satisfacen las necesidades de los usuarios que realizan las consultas de búsqueda. Si se trabaja el SEM, es muy aconsejable contar con páginas de aterrizaje específicas y muy enfocadas en darle al usuario lo que busca y en llevarlo hacia la conversión, usando textos y reclamos que inciten a la acción, y facilitando que el usuario alcance el objetivo que nos hemos planteado con la campaña (registro, solicitud, llamada, presupuesto, descarga, venta…).

El concepto de SEO (Search Engine Optimization) se refiere al trabajo de optimización y de aumento de la popularidad de un sitio web, con el objetivo de que dicho sitio sea rastreable por los motores de búsqueda, indexado correctamente y suficientemente relevante para que algunas o muchas de las páginas sean mostradas en las primeras posiciones de los buscadores para determinadas consultas de búsqueda de los usuarios.
1. Google Trends for Websites. Compara los visitantes únicos diarios de dos o más websites, averigua la localización geográfica de las visitas tanto por países como subregiones, qué webs adicionales visitaron los internautas y qué otros términos buscaron. Todo ello, con datos desde 2008 (fecha de lanzamiento de la herramienta) hasta la actualidad, aunque la comparativa puede acortar hasta un mínimo de los últimos 30 días. Obtiene sus datos del buscador, Google Analytics (sólo quienes lo tienen instalado y hayan permitido compartir la información acerca del tráfico) y “otras fuentes” no detalladas.
Ahora bien ¿cuánto valen esas 148.000 visitas? Pues si para ese término el gasto medio por clic es de 0,20€ estamos hablando de más de 29.000€/mes. Esto solo en España, si tenemos un negocio orientado a varios países, cada hora se realizan 1,4 billones de búsquedas en el mundo. De esas búsquedas, un 70% de los clics son en los resultados orgánicos y el 75% de los usuarios no llegan a la segunda página. Si tenemos en cuenta todo esto, vemos que son muchos clics al mes para el primer resultado.

En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). De acuerdo con los análisis del experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a usarse en agosto 1997, 2​ por John Audette y su compañía, Multimedia Marketing Group, documentado en una página del sitio web de la compañía.


En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.
En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

El tráfico web cualificado es aquel que realmente tiene interés en tu página web y que, probablemente, realizará algún tipo de conversión en tu portal. Es el tipo de tráfico que interesa, ya que la opción de comprar tráfico web no es muy recomendable puesto no se va conseguir ningún tipo de rendimiento de unas visitas pagadas, el interés es nulo. Mejorar las estadísticas temporalmente con visitas artificiales de dudosa procedencia es lo único que se conseguirá al comprar tráfico web.


Emails: No es recomendable realizar el envío masivo de correos electrónicos no solicitados, los programas anti Spam se han encargado de restar el atractivo que esta forma de publicidad disfrutó en su día. Sin embargo el correo electrónico continua siendo muy efectivo, si se realiza de la forma adecuada. Yo recomiendo utilizar alguna aplicación que facilite la suscripción voluntaria de los visitantes a nuestro sitio web, al envío periódico de newsletter, o mejor aún, de RSS Feed to Email, que remitirá de forma periódica, las actualizaciones que se produzcan en nuestro sitio web. Es importante que permitan, de manera sencilla, darse de baja de la suscripción. También es muy útil, introducir un vínculo a nuestra página, en la firma de todos nuestros correos electrónicos.
A todos nos gusta que nos incluyan en listados de mejores blogs, mejores perfiles de Twitter, mejores emprendedores, etc. Todo aquello que empiece por ‘mejores X’ nos encanta, ¿verdad? Incluso por muchas veces que nos mencionen o incluyan en este tipo de listados nos sigue gustando, ¿y qué hacemos cuando esto ocurre? Exacto, lo compartimos en nuestros perfiles sociales, no solo por el puro ego, si no porque estamos contentos porque incluyen un enlace a nuestra web desde otro blog, toma, ¡un backlink!
×