Yo tengo una web, es todocontenidos.net El contenido que se imparte ahí es de descargas. Mi duda surgue en estaré haciendo lo correcto? Ya que al momento de revisar mis estadísticas de analytics me doy cuenta que han bajado. La web no esta basada en ningún framework conocido o CMS como wordpress nada más es una web aplication En PHP bastante buena, ya que tiene su propio sitemap.xml, sus enlaces amigables y otras funciones. La cuestión es que un usuario el mayor tiempo que navega es de menos de 2 minutos, Eso sera bueno.?
La experiencia en la creación, implementación y seguimiento de este tipo de estrategias, no sólo acelera el tiempo en que se llevan a cabo, sino que además reducen el tiempo que tardas  en obtener tráfico web debido a la minimización de errores, fruto de la destreza y maestría adquirida a lo largo del tiempo por agencias y consultores expertos en posicionamiento web. Además, en muchas ocasiones las estrategias y acciones que realizan ya han sido similares a otras anteriores, o han tenido casos de empresas del mismo sector, de manera que ya dominan implicaciones y consecuencias de acciones, y su margen de error es por tanto reducido.
Es el cofundador de NP Digital. The Wall Street Journal lo llama el influenciador más importante en Internet, Forbes dice que es uno de los 10 especialistas en marketing más importantes, y Entrepreneur Magazine dice que creó una de las empresas más brillantes. Neil es autor best seller del New York Times y fue reconocido como uno de los 100 empresarios más importantes menores de 30 años por el presidente Obama, y como uno de los 100 más importantes menores de 35 años por las Naciones Unidas.
Mantener centrado el tema de nuestro sítio web: Es imprescindible para conseguir tráfico de valor. Cuanto mas se ciña a un tema central, el contenido será mejor indexado por los motores de búsqueda resultando en un mejor ranking. Hacerlo, aumenta la densidad de palabras claveen nuestro dominio, convirtiendo a nuestro sitio en un experto del tema de que se trate, generando confianza en los visitantes y, por tanto, fidelizando el tráfico.
Rasgos públicos: Entiéndase por estos a los que son de índole declarada por los administradores o creadores de dicho algoritmo, por ejemplo podemos saber que el algoritmo de Google tienes ciertos aspectos técnicos que penalizan ciertos accionares de los administradores web o redactores de contenido. Un ejemplo práctico es Google Panda, que tiene como principal objetivo eliminar contenido copiado, duplicado o irrelevante por ser considerado Spam Web también llamado Spam SEO. Google Penguin en cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etc. También vé un factor humano importante para el Seo como es porcentaje de rebote de una página web.
Un buen lugar para conseguir esta información es a través de Google Search Console, antes conocida como “Google Webmaster Tools”, una herramienta gratuita que te ayuda a analizar, optimizar y verificar el estado de tu sitio en los buscadores web. Te muestra todos los errores que Google encuentra cuando lee tu sitio web para que los resuelvas más rápido.

Por otro lado, mediante la estrategia SEM, podemos aparecer en cuestión de minutos en el primer o segundo lugar de los resultados de la búsqueda, superando a todos los resultados SEO de un plumazo. Esto nos hará conseguir resultados (visitas y conversiones) casi desde el minuto cero. No obstante, una campaña SEM requiere de mucha experimentación y análisis, sobre todo al principio, lo que se conoce con el nombre de optimización de campaña. Si bien se deben esperar resultados en el primer mes, hasta el segundo, tercero o cuarto no se suelen conseguir los mejores resultados. Por ello, conviene tener un poco de paciencia si vemos que en el primer mes las ventas no amortizan aún el coste de la campaña, siempre que se vea un trabajo que progresa y se vayan solucionando los problemas con los que nos encontremos. Estos problemas, en ocasiones no dependen de la propia campaña, sino de la parte del embudo de conversión que depende de la propia empresa (ser capaz de cerrar las oportunidades o leads, disponer de un producto o servicio que de verdad sea interesante, un precio competitivo,…) y de la web. Hay que verlo también desde el punto de vista de que entra un nuevo competidor al mercado, y la competencia se va a mover y nos lo pondrá difícil, a veces incluso usando técnicas poco éticas o fraude con los clics.
Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las metaetiquetas, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían causar, y causaron, que ciertas páginas se posicionaran muy alto para búsquedas irrelevantes.3​ Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda.4​ Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más importancia a los sitios más antiguos.

El posicionamiento natural, dada su complejidad y la alta competencia constante y creciente que tiene (entre otras cosas porque se pueden llevar a cabo acciones de SEO sin necesidad a priori de una inversión), es cierto que puede generar un aumento significativo de tu tráfico web en un tiempo cercano a 3 meses, pero si definimos como “objetivo” a estar en las primeras páginas y lo más cerca posible de la primera posición en la primera página, entonces es necesario un tiempo mayor para poder acercarte a esas posiciones, aunque como podrás imaginar, esos resultados dependen directamente de los factores que hemos visto en el punto anterior: sector, objetivos, y palabras clave.
En el caso del SEO en Google, el principal buscador a nivel mundial, este ha ido variando bastante en los últimos años ya que este buscador ha ido modificando y mejorando su algoritmo mediante la inclusión de actualizaciones como Penguin (analiza los enlaces entrantes y salientes a la web) y Panda (analiza la calidad y originalidad del contenido y su frecuencia de publicación en la web), cambiando sobre manera la forma en que se hacía posicionamiento en este buscador hasta ese momento.
IMPORTANTE: haz un uso responsable de los grupos. Publica de forma periódica pero sin abusar. Participa también de forma desinteresada, ayuda al resto de usuarios cuando publican sus dudas o debates. Cuando publiques un contenido, introdúcelo siempre, dirígete a los usuarios de forma cercana, indica qué beneficio les puede aportar leer tu articulo. Intenta contestar a todos los comentarios que dejen en tus publicaciones de los grupos y siempre que puedas, crea debate.
Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). De acuerdo con los análisis del experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a usarse en agosto 1997, 2​ por John Audette y su compañía, Multimedia Marketing Group, documentado en una página del sitio web de la compañía.
El hecho de contar con suscriptores a la newsletter ya está indicando que los emails que configuran esa base de datos tienen un interés previo en las actividades de la empresa. Por lo tanto, una campaña de emailing efectiva pasa por contar con una buena base de suscriptores. Ésta se conseguirá con la calidad de los contenidos, estableciendo una periodicidad de envío que no agobie a los suscriptores, incluyendo asuntos impactantes, con llamadas a la acción tanto en web como en el blog, o con privilegios para los interesados como guías descargables, ebooks o plantillas.
Creación de una estrategia de social media marketing con la que apoyar y potenciar los contenidos del blog, hacer publicaciones habituales de este y otros medios relacionados, hacer publicidad (esta parte iría más bien dentro de el posicionamiento SEA) y conseguir seguidores que lean, compartan y comenten los contenidos de la web. Para que esta estrategia sea eficaz, no sólo se deben gestionar estos aspectos, sino que además, se debe interactuar y participar de forma activa con los usuarios (también en los comentarios del blog, las opciones de hilos de foro, etc. con que cuente tu web).
El SEO Local o Posicionamiento Local es una estrategia de marketing online destinada a destacar y hacer visible una marca – negocio cuando potenciales clientes buscan la actividad, productos o servicios que vende haciendo referencia a la localidad o zona donde está emplazada u opera la misma, es decir, cuando la búsqueda se produce físicamente cerca de donde está ubicado el negocio. 
Artículos: Son una herramienta indispensable para dirigir tráfico a tu página web y la razón es bien simple los buscadores como google, yahoo y bing buscan en la web información fresca para colgarla en sus portales y esa información viene de los artículos y blogger, por lo que te recomiendo que escribas artículos en varios portales y agregues el link de tu página web y de esta manera vas a dirigir trafico cualificado y posibilidades de venta. Aquí te dejo algunos portales que te permiten escribir artículos y tener tu blog:
Muchas gracias por la información, ciertamente de provecho. Nosotros nos encontramos continuamente intentando promocionar nuestro establecimiento ecológico pero lo último que queremos es convertirnos en spam, de modo que creo que realizaré un pequeño vídeo explicando cómo funciona nuestro sistema de energía geotérmica… además de otras muchas cosas.
Una vez conocido este perfil tipo, las acciones que se lleven a cabo van a tener una mayor repercusión al estar focalizadas en los usuarios correctos. Se trata de orientarse hacia el ‘buyer persona’ para impactarle de un modo efectivo y confirmar que el tráfico web que va a tener el sitio web va a ser de bastante calidad. Siguiendo el ejemplo anterior, esta academia tendrá que optimizar la usabilidad del sitio y facilitar el acceso de los usuarios a la plataforma de estudio.
Google Search Console es una herramienta gratuita de Google antes llamada Google Webmaster Tools, fundamental para llevar a cabo una buena estrategia SEO. Analiza tu web y te avisa de posibles errores que afecta a tu posicionamiento natural como pueden ser errores de indexación, errores en el robots.txt, errores en el sitemap, errores 404 o errores de servidor…
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las metaetiquetas, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían causar, y causaron, que ciertas páginas se posicionaran muy alto para búsquedas irrelevantes.3​ Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda.4​ Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más importancia a los sitios más antiguos.
Los estudiantes graduados en la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron Backrub, un motor de búsqueda que se basaba en un algoritmo matemático que puntuaba la relevancia de páginas web. PageRank fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa que algunos vínculos son más fuertes que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio.
×