Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
SEO SEO (search engine optimization u optimización para mecanismos de búsqueda) es el conjunto de acciones y estrategias de Marketing Digital que tiene como objetivo el aumento de tráfico y de desempeño de un sitio por medio resultados orgánicos de mecanismos de búsqueda como Google, Bing e incluso YouTube. ¿Qué es SEO? Con seguridad ya escuchaste hablar de Google, ¿verdad? Entonces, cada vez que una página se publica en internet, Google (y otros buscadores) buscan cómo indexarla de manera que sea encontrada por quien la busca. Sin embargo, existen millones de páginas siendo publicadas todos los días en internet, lo que hace que haya bastante competencia. Por lo tanto, ¿cómo hacer que una página esté al frente de otras? Ahí es que entra el SEO (Search Engine Optimization). Como la propia traducción ya indica, SEO es una optimización para los motores de búsqueda, esto significa, un conjunto de técnicas que influencian los algoritmos de los buscadores para definir el ranking de una página para determinada palabra clave que fue procurada. En esta página, podrás estudiar todo sobre SEO, desde lo básico hasta lo avanzado. En la parte superior hay un índice para encontrar el capítulo deseado. Pero, si quieres leer desde el comienzo, nada mejor que iniciar por la historia. Historia del SEO En 1993 surgió Architext, considerado el primer buscador de internet (que se convirtió en Excite ). Con su éxito, nuevos sitios semejantes surgieron como es el caso de Yahoo ! (1994) y de Google (1997). 1 http://www.excite.com/ http://www.excite.com/ https://es.yahoo.com/?p=us https://es.yahoo.com/?p=us https://www.google.com/ https://www.google.com/ Fundado por Larry Page y Sergey Brin, Google fue creado para ser una herramienta de búsqueda de gran escala y “organizar internet”, usando la estructura de links para determinar la relevancia de las páginas de acuerdo con la búsqueda del usuario. La idea de utilizar los links recibidos por una página está inspirada en el medio académico: un artículo o investigación científica que recibe citaciones de revistas y artículos de otros autores, principalmente los que tienen mejor reputación, son considerados más confiables. Siguiendo esta lógica, fue desarrollado el revolucionario Pagerank : una métrica de 0 a 10, creada por Larry Page y calculada por la cantidad y calidad de links recibidos. En diciembre de 1997 la revista PC Magazine escribió que Google “tiene una capacidad inusual de retornar resultados extremadamente relevantes” y lo clasificó como el principal sitio de búsquedas en el “Top 100 Web Sites”. De acuerdo con este post de Search Engine Land , también fue en 1997 que el término SEO fue mencionado por primera vez, en el libro Net Results, escrito por Bob Heyman, Leland Harden y Rick Bruner. Según ellos, el término surgió en una discusión sobre el posicionamiento del sitio de la banda Jefferson Starship en sitios de búsqueda. Al incluir más palabras clave con el nombre de la banda en el contenido del sitio, notaron que el sitio volvió a la primera posición. con esto, Bob y Leland llamaron esa técnica como Search Engine Optimization. Hasta la popularización de Google, las acciones de SEO se limitaban al envío del sitio a los buscadores y optimizaciones on-page, como la inclusión (y repetición) de palabras clave en el contenido. Una vez popularizado Google los profesionales de SEO comenzaron a ver más para la métrica de links, muy importante para el buscador. Así surgieron las estrategias de link building, explorando tanto técnicas legítimas para obtención de links como prácticas más oscuras, enfocadas solamente en mejorar la evaluación del sitio, independientemente de su calidad. Esas técnicas de manipulación de ranking son conocidas como Black Hat SEO. En el 2000 fue lanzado Google Toolbar para Internet Explorer, que presentaba el Pagerank de los sitios, de 0 a 10, lo que hizo de las técnicas de link building más medibles y populares. En el mismo año, los resultados orgánicos de Google recibieron compañía: Google AdWords fue lanzado, incluyendo resultados patrocinados, que permanecen en los resultados de búsquedas hasta hoy. 2 https://es.wikipedia.org/wiki/Larry_Page https://es.wikipedia.org/wiki/Larry_Page https://searchengineland.com/who-coined-the-term-seo-14916 https://www.rdstation.com/blog/es/palabras-clave/ https://www.rdstation.com/blog/es/palabras-clave/ https://www.rdstation.com/blog/es/adwords-google-ads/ https://www.rdstation.com/blog/es/adwords-google-ads/ Después de años de optimizaciones de sitios, generación de links y mucha manipulación del ranking con técnicas Black Hat, en 2003 fue lanzada la primera gran actualización de su algoritmo, llamada Florida , que cambió el SEO para siempre. Según un artículo escrito en la época por Gord Hotchkiss, Florida era un filtro aplicado a las búsquedas con base comercial, identificadas por el uso de palabras clave específicas. Este 3 https://www.searchenginejournal.com/google-algorithm-history/florida-update/ https://www.searchenginejournal.com/google-algorithm-history/florida-update/ limpiaba muchos de los sitios que anteriormente eran parte del ranking (en varias pruebas, la herramienta removió del 50 al 98% de los sitios listados anteriormente). El objetivo eran sitios relacionados, con dominios que contenían palabras clave y con una red de links que apuntando hacia la página inicial del sitio. Cuando fue lanzada, la actualización causó revuelo en los comerciantes, que tenían en los sitios relacionados su principal fuente de tráfico (y ventas). A pesar del impacto de la actualización, los resultados fueron positivos, con sitios de más calidad siendo lanzados, empresas invirtiendo más en su propio sitio web y mejorando los resultados de la búsqueda. Esa fue solo la primera actualización de Google. Durante los siguientes años fueron lanzadas nuevas actualizaciones, siempre con el objetivo de disminuir los resultados no legítimos presentados por el buscador y mejorar la calidad de las búsquedas. Desde entonces, con cada actualización lanzada por Google, también son lanzadas varias especulaciones sobre la muerte del SEO. Sin embargo, las optimizaciones en los sitios para los mecanismos de búsqueda va mucho más allá de técnicas cuestionables que buscan manipular los resultados exhibidos por Google, que son penalizadas y se van extinguiendo con las actualizaciones. La optimización de los sitios para mecanismos de búsqueda es realizada para llegar al usuario entregando la respuesta que éste busca con el formato ideal, ofreciendo la mejor experienciaposible dentro del ambiente de la marca y siguiendo las directrices de los buscadores. El buscador más popular del mundo es Google, y es sobre este el próximo capítulo. Cómo funciona Google ¿Ya pensaste en todo lo que pasa entre el digitar tu búsqueda y hacer clic en los resultados de Google? Lo que acontece en ese periodo es el secreto el éxito del gigante de las búsquedas. La calidad y la velocidad de su clasificación transformó la empresa en el mayor buscador del mundo, acabando con todos sus competidores, incluso sumando sus participaciones. Para tener una idea, el dominio es tan grande que en Estados Unidos existe como verbo to google , que es usado en frases como He googled you (él te buscó en Google). Conoce mejor el trabajo que existe detrás de la página de resultados más accesadas mundialmente. Rastreo, indexación y exhibición de resultados Estos son los 3 principales procesos de retorno de búsqueda. El rastreo es el proceso en el que los robots de Google (llamado Googlebot) identifican las páginas para enviarlas al índice del buscador. Para esto, los robots usan algoritmos que definen la priorización y la frecuencia de de indexación de las páginas. El proceso inicia con las URLs generadas a partir de procesos anteriores de rastreamiento y enriquecidas con sitemaps. Conforme va visitando las páginas, Googlebot identifica links 4 https://www.rdstation.com/es/casos-de-exito/modab/ https://www.rdstation.com/es/casos-de-exito/modab/ https://www.rdstation.com/es/casos-de-exito/modab/ existentes y también incluye una lista de rastreo. Durante el proceso, son detectados y actualizados nuevos sitios, alteraciones y exclusiones. Luego de esto se hace la indexación, en la cual Googlebot procesa cada una de las páginas rastreadas para incluirlas en su índice. En este momento, se indexan informaciones tales como contenido de la página, fecha de publicación, título, descripción, así como datos estructurados. De esta forma, cuando se realiza una consulta, una búsqueda de páginas correspondientes es hecha en el índice de Google, exhibiendo los resultados más relevantes. No es una relevancia basada en suposiciones: esta se determina con factores de ranking. En el proceso de búsqueda también existe el autocompletado de Google y el ya conocido: “Quisiste decir…”, hechos para ahorrar tiempo, corregir errores y facilitar las búsquedas. Algoritmo y actualizaciones Incluso si nunca trabajaste con SEO, es probable que ya hayas escuchado del algoritmo de Google o de redes sociales como Facebook e Instagram. Estos algoritmos son los responsables por filtrar lo que es más relevante para el usuario y no simplemente dejar todo el contenido disponible en la página, sin ningún criterio de clasificación. Google usa más de 200 factores de ranking para definir el orden de las páginas presentadas al usuario para cada búsqueda realizada. Para mejorar cada vez más las informaciones presentadas al usuario y su relevancia, este algoritmo está en constante actualización. Conoce las principales y sus impactos: ● 1. Florida (2003) ● 2. Panda (2011) ● 3. Penguim (2012) ● 4. Hummingbird (2013) ● 5. HTTPS/SSL Update (2014) ● 6. Mobile Friendly Update - Mobilegeddon (2015) ● 7. Rankbrain (2015) ● 8. Fred (2017) 1. Florida (2003) 5 Florida fue la primera gran actualización de Google y es considerada la actualización que colocó el SEO en el mapa. Cuando fue lanzada, eliminó entre el 50 y el 98% de los sitios listados anteriormente. El objetivo fueron sitios de baja calidad (principalmente de afiliados), que practicaban keyword stuffing, con domínios que contenían palabras clave exactas y con una red de links dirigiendo hacia la página principal del sitio. 2. Panda (2011) Panda fue otra gran actualización que afectó caso 12% de los resultados de búsqueda. El objetivo era penalizar sitios con baja calidad, con muchos anuncios y sitios presentes en content farms. Desde entonces, sus actualizaciones siempre se enfocaron en la calidad del contenido de los sitios. Después de 27 actualizaciones impactando en los resultados de búsqueda, la última llegó en 2015. Panda 4.2 fue solo una actualización de banco de datos, pero terminó impactando muchos sitios que aún producían contenido de bajísima calidad. 3. Penguim (2012) 6 Más conocida en la época como Webspam Update, Penguim fue la actualización responsable por contener el exceso de optimizaciones en el contenido. Con su lanzamiento, fueron impactados 3,1% de los resultados de búsquedas en inglés. Su objetivo es identificar y penalizar sitios que practican keyword stuffing y que participan de esquemas para generar links (técnicas consideradas black hat). De la misma forma que Panda, esta actualización del algoritmo pasó por una serie de mejoras y lanzamientos, hasta llegar a su versión 4.0 (2016), cuando hizo parte del algoritmo de Google oficialmente y comenzó a funcionar en tiempo real. 4. Hummingbird (2013) A diferencia de los anteriores, la actualización Hummingbird no fue solo un complemento al algoritmo de Google, sino una revisión completa del mismo. Con la actualización, los resultados de búsquedas para los usuarios van más allá de la palabra clave: el buscador no solo considera los términos buscados, sino también todo su universo semántico, como el significado de aquella búsqueda, lo que incluye sinónimos y el contexto en el que los términos están siendo insertados en las páginas y también otros factores aún más complejos, como la localización del usuario y hasta búsquedas anteriores realizadas por este. Todo esto es hecho para hacer los resultados presentados cada vez más relacionados con la verdadera intención de búsqueda del usuario y no solamente las palabras exactas de la búsqueda. 5. HTTPS/SSL Update (2014) 7 Después de alertar e incentivar mucho a los webmasters a invertir en seguridad, en 2014 Google anunció que el HTTPS estaba convirtiéndose en un factor de ranking, como forma de incentivar la migración de la comunidad online y así hacer la web más segura. Ese incentivo se debe a que los sitios que poseen un certificado SSL (y así su migración a HTTPS) utilizan informaciones criptografadas, lo que impide que los datos sean identificados en medio del camino, en caso que sean interceptados. 6. Mobile Friendly Update - Mobilegeddon La actualización de Google para dispositivos móviles es conocida como Mobilegeddon (en referencia a la película Armageddon) por el impacto que los especialistas creían que iría a causar. En la práctica, sin embargo, el impacto no fue tan grande. Para resumirlo, laactualización comenzó a priorizar los sitios amigables para mecanismos de búsqueda realizadas en dispositivos móviles, sin considerar si el sitio era más o menos adaptado para dispositivos móviles: o era o no era. En 2016 Google lanzó una nueva actualización mobile friendly, que tuvo un impacto en los rankings inferior a la primera, según los webmasters (el principal motivo era que la mayoría de los sitios ya era adaptado). 7. Rankbrain (2015) 8 Google anunció en 2015 la incorporación oficial al algoritmo de un sistema que utilizaba machine learning e inteligencia artificial, con el propósito de ayudar a la interpretación y presentación de los resultados de búsqueda: Rankbrain. De acuerdo con el mismo Google, el sistema se convirtió en uno de los 3 principales factores de ranking, junto con los links y el contenido. Sin embargo, a diferencia de los otros 2, era más difícil optimizar los sitios para esta inteligencia. Lo que podía ser hecho era explorar las palabras que hacían parte de la semántica de los contenidos y dejar claro todo el contexto del contenido. 8. Fred (2017) La actualización Fred fue lanzada para identificar sitios con contenido de baja calidad y muchos banners de publicidad. Según John Mueller, Webmaster Trends Analyst de Google en esa época, “si estás siguiendo buenas prácticas de SEO, el único motivo para que tu sitio sea penalizado será la baja calidad del contenido”. Factores de ranking de Google Como mencionamos en el punto anterior, Google define la priorización y la relevancia de los resultados basado en más de 200 factores de ranking. Varios estudios son hechos cada año para desvendar todos los factores utilizados. La empresa Backlinko realizó una lista con los 200 factores de ranking, siendo los 10 principales factores: 9 https://backlinko.com/google-ranking-factors https://backlinko.com/google-ranking-factors 1. Page Authority/Pagerank La autoridad de la página es considerada un factor de ranking extremadamente relevante. 2. Autoridad del dominio Las páginas que hacen parte de un dominio con más autoridad en internet tienen más probabilidad de una mejor posición. 3. Relevancia de los links Recibir links de sitios con asunto de tu universo es mucho mejor que de otro tipo de sitios. 4. Contenido original y de calidad Los buscadores quieren presentar resultados de sitios que tienen contenidos robustos y originales. Por eso, son priorizados. 5. Tamaño del contenido Contenidos mayores son considerados menos superficiales sobre un asunto y generalmente tendrán preferencia. 6. Palabra clave en el título (tag title) Posee gran influencia en la evaluación on-page. 7. Palabra clave en el contenido Tener la palabra clave presente en las primeras 100 palabras y además en los subtítulos presentan fuertes señales de relevancia para Google. 8. Tiempo de permanencia en la página Google presta mucha atención en cómo las personas se comportan cuando acceden a los sitios que presenta; 9. Velocidad de carga de la página Entre más leve sea tu página, mejor posición tendrá. 10. Responsive Design Google prioriza hace algún tiempo para dispositivos móviles sitios que son adaptados a estos. Adicionalmente, al final de 2017 SEMrush realizó un estudio sobre los factores de posicionamiento, con 600 mil palabras clave de su base mundial y las 100 primeras páginas de resultados para cada una de ellas. Los 5 factores más importantes que fueron identificados en este estudio fueron visitas directas al sitio, tiempo de visita, cantidad de páginas accedidas, tasa de rechazo y total de dominios de referencia. Algunas curiosidades que fueron identificadas en el estudio: 10 https://www.rdstation.com/es/seo/ https://www.rdstation.com/es/seo/ https://www.rdstation.com/es/seo/ ● La diferencia promedio en el tamaño del contenido entre las 3 primeras posiciones y la 20ª es del 45%; ● La tasa de rechazo promedio para los dominios en el top 3 es del 49%; ● 3% de los backlinks contienen una palabra clave en el texto ancla. Mobile-first Index Anunciado al final del 2016, esta nueva forma de indexación de Google viene siendo realizado de forma gradual desde el 2017. En la práctica, lo que cambia es que la indexación de Google siempre partió de cómo los sitios eran visualizados desde desktop. Con este cambio, el buscador usa la versión mobile del sitio como base. Esto puede perjudicar mucho el posicionamiento orgánico (y en consecuencia el tráfico) de los sitios que no poseen su sitio adaptado para dis4positivos móviles. Sin embargo, según Google, los sitios que solo tienen una versión para desktop continuarán siendo indexados y, si poseen contenido de calidad, pueden no ser perjudicados. En caso que ya tengas un sitio adaptable, no necesitas hacer ninguna alteración en tu sitio más allá de lo tradicional. Si tienes una versión mobile de tu sitio (m.ejemplo.com) es necesario realizar una alteración en la canonical tag de las páginas, de acuerdo al siguiente ejemplo: 11 12 13 Técnicas de SEO: Black Hat x White Hat Existen algunas técnicas antiéticas que según Google, son hechas con el único propósito de impulsar el posicionamiento orgánico, sin tener en cuenta la experiencia del usuario. Repetir varias veces la palabra clave del contenido, comprar y generar una gran cantidad de links de otros sitios, incluir palabras escondidas en la página, para que los robots de los buscadores visualicen una parte de estas. Todo esto ofrece una mala experiencia al usuario, que, al acceder a un sitio en las primeras posiciones para su búsqueda, espera un contenido de calidad y que tenga las respuestas a lo que está buscando. Además, va totalmente en contra de la misión de Google : “organizar la información del mundo y hacer que sea útil y accesible para todos” Para penalizar a lo sitios que usan estas técnicas y garantizar que sean realmente las mejores opciones en internet las que aparezcan en los primeros lugares, Google viene haciendo actualizaciones constantes desde el 2000 en su algoritmo (como mencionamos anteriormente) y además creó las Directrices para Webmasters , con las reglas y las mejores prácticas para posicionar los sitios orgánicamente. Actualmente las técnicas de SEO se dividen en 2 grupos: Black Hat y White Hat. Black Hat SEO Las técnicas Black Hat buscan solamente el posicionamiento orgánico e infringen las directrices de Google. Estas técnicas generan resultados de corto plazo, pero son consideradas antiéticas y muy susceptibles a recibir sanciones e incluso la exclusión del buscador. Las 10 técnicas Black Hat más populares son: ● Keyword stuffing; ● Contenidooculto; ● Contenido duplicado; ● Cloaking; ● Doorway page (o gateway page; ● Linkfarm; ● Private Blog Networks (PBN); ● Links pagados; ● Blog SPAM; ● SEO negativo; Para saber más sobre técnicas Black Hat, cómo saber si fuiste castigado y lo que puedes hacer, accede al post “ 10 técnicas de Black Hat SEO que no debes usar ”. White Hat SEO 14 https://about.google/intl/es/ https://about.google/intl/es/ https://support.google.com/webmasters/answer/35769?hl=es https://support.google.com/webmasters/answer/35769?hl=es https://www.rdstation.com/blog/es/tecnicas-black-hat-seo/ Podemos considerar como White Hat SEO a las técnicas que no van en contra de las directrices de Google y de otros buscadores. Funcionan a mediano y largo plazo y no generan sanciones para el sitio que las utiliza. Según las directrices de Google, lo más recomendable básicamente es crear contenido original y de calidad, pensando siempre en el usuario y evitando otro tipo de trucos para mejorar la posición orgánica del sitio. Google actualizó recientemente su Guía SEO, en el cual recomienda varias técnicas de SEO que están de acuerdo con sus directrices. Para saber más, accede al material de Google: Optimización en buscadores (SEO) para principiantes Importante: todo lo que verás en esta página son prácticas consideradas White Hat SEO. SEO on-page Algunas partes específicas de una página poseen una mayor relevancia en la búsqueda y merecen tener una atención especial. Trabajar en ellas significa tener mayores probabilidades para que Google te considere como resultado para una búsqueda realizada. Esto en la industria se llama “SEO on-page” . Más importante que conocer estas técnicas, es no dejarlas por encima de un buen contenido. Con cada actualización del algoritmo, los robots de Google se hacen más inteligentes para identificar cuál es la mejor respuesta a la pregunta del usuario. Por eso, lo que aquí funciona es tener técnicas de SEO on-page junto a un excelente contenido. Las dos cosas deben estar integradas para funcionar. Hablando específicamente de SEO on-page, los principales atributos que se destacan son: Contenido Como mencionamos antes, el contenido es el activo más importante para un buen trabajo de SEO . No entanto, con algunas técnicas correctas, es posible potencializar el alcance de una página. La utilización de una determinada palabra clave dentro del contenido, facilita las posibilidades para que Google exhiba tu página como resultado a quien busca esa palabra. No exageres en el uso de la palabra clave, distribuyéndola en el texto de manera forzada. El uso excesivo de una misma palabra puede generar confusión en los usuarios. Al no ser una conducta aprobada por Google, es muy probable que tu sitio sufra algunas consecuencias, como una reducción en la exhibición de tu página en los resultados de búsqueda. Si estás buscando una respuesta para saber cuántas veces debe aparecer una palabra clave en un texto para tener una mejor posición, debemos informarte que esa respuesta simplemente no existe. En caso de estar en duda, desarrolla un contenido naturalmente y hazte las siguientes preguntas: 15 https://www.rdstation.com/blog/es/seo-on-page/ https://www.rdstation.com/blog/es/seo-on-page/ ● ¿Está citada la palabra clave en el contenido? ● ¿Es una cantidad razonable? ● ¿Los usuarios estarían satisfechos con la cantidad de apariciones? ● ¿Fueron usadas variaciones parciales? ● ¿Se hizo uso de sinónimos? Si todas las respuestas son positivas, la página está lista para ser publicada. Contenido escaneable ¿Cómo es el contenido que produces para tu empresa? Además de las ideas en sí, ¿también piensas en cómo estructurarlo? Contrario a lo que algunas personas piensan, internet no es como un libro. Esto quiere decir que si escribes un bloque de texto largo y monótono las personas simplemente ignorarán tu mensaje. En internet, las personas suelen ser multitarea. Es probable que estén navegando en tu sitio mientras conversan con sus amigos en Facebook, responden correos o otro tipo de actividades. Como resultado, estos necesitan filtrar y escanear informaciones en tu sitio facilmente. De lo contrario, irán a cualquier otra página. Algunos de los elementos que puedes incluir para hacer tu contenido escaneable son: ● Headings (o encabezados) ● Bullet points ● Negrita ● Cursiva ● Imágenes ● Videos ● Párrafos cortos Semántica Como hemos mencionado, es importante optimizar tu página para una palabra clave para lograr un mejor desempeño en los resultados de búsqueda. No obstante, existen otros factores que ayudan a Google a entender el contexto de tu contenido además de la palabra clave. Estos factores pueden incluso posicionar tu sitio para términos que el cual el contenido no está optimizado, lo que prueba que Google da cada vez más importancia a la calidad del contenido. Contenido duplicado Probablemente ya viste en algún resultado de búsqueda que Google informa sobre algunos resultados siendo omitidos. 16 Para mostrarte los resultados más relevantes. hemos omitido algunas entradas muy similares a las 3 que ya se muestran. Si quieres, puedes repeitr la búsqueda e incluir los resultados que se han omitido. En muchas ocasiones, el motivo de esa omisión es la existencia de contenidos duplicados, es decir, más de lo mismo. Por eso, replicar el mismo contenido de otro sitio al tuyo probablemente no traerá tráfico orgánico, y es por esto que es importante invertir en contenido original . Título y descripción (title y meta description) El título de la página (o “title”) no es necesariamente el mismo al del artículo. En realidad, el title se refiere a una propiedad del código HTML (<title>), identificada por medio de la frase que aparece en la pestaña del navegador o en la página de resultados de Google. Este es un elemento muy importante para SEO, que muchas veces se convierten en un espacio ocupado por slogans o frases que no describen bien la página o que no incluyen las keywords que realmente importan para el negocio (por ejemplo “home” en la página inicial del sitio). Nuestro consejo aquí es buscar describir con precisión el tema que la página aborda y estar atento al orden de las palabras: las primeras tienen más relevancia que las últimas. No olvides que existe un límite de tamaño para el título que aparece en los resultados de búsqueda. Lo recomendable es utilizar un tamaño máximo de 65 caracteres para el título. Google puede leer una cantidad mayor, pero este es el límite que suele aparecer cuando el buscador exhibe los resultados en la página. Un ejemplo de la importancia del title para SEO está en el siguiente gráfico, que presenta los clics de una página. Luegode que alteramos el título de la página (período destacado no gráfico), el número de clics tuvo un salto significativo. 17 https://www.rdstation.com/blog/es/contenido-original/ https://www.rdstation.com/blog/es/contenido-original/ Respecto a la descripción del link ¿Es importante para SEO? Cuando buscas un determinado artículo, el resultado muestra un pequeño resumen debajo del título. Este campo corresponde a la meta description , un código dentro de la página que no tiene peso como factor de posicionamiento, pero que influencia directamente la tasa de clic. Y esta tasa si es un factor que va a influenciar en el ranking de tu página. De forma simple, la intención de la meta description es convencer al usuario de hacer clic en el link. Por lo mismo, es un campo muy importante a ser trabajado. El tip aquí es hacer una meta description llamativa, interesante, que informe, sea curiosa y además, tenga un toque de Call to Action . Cabe recordar que no siempre el texto incluido será exhibido en Google. El buscador prioriza el texto más relevante para el usuario y si una parte del contenido fuera considerada más adecuada que la descripción configurada, esta será exhibida. URL Otro elemento en el cual Google escanea las palabras clave es la propia dirección de la página. En consecuencia, es esencial que tu URL sea descriptiva y que contenga la palabra clave deseada, algo como “http://sitio.com/nombre-del-post”. Evita crear URL’s con códigos como en el modelo “http://sitio.com/ct136781xg19g37” o con parámetros como “http://sitio.com/?p=12447”. Adicionalmente, queda más amigable, confiable y fácil para que las personas compartan los links de tu sitio con sus respectivos contactos. Mira un buen ejemplo de contenido con title, descripción y url optimizados: ● Palabra clave: marketing digital 18 https://www.rdstation.com/blog/es/editar-meta-description/ https://www.rdstation.com/blog/es/editar-meta-description/ https://www.rdstation.com/blog/es/call-to-action/ https://www.rdstation.com/blog/es/call-to-action/ ● Title: Marketing Digital: Que és, cómo hacer y todo sobre Marketing Online ● URL: https://www.rdstation.com/es/marketing-digital/ ● Description: Aprende TODO sobre Marketing Digital: qué es, cómo hacer, sus ventajas, estrategias, herramientas y mucho más. ¡Accede ahora! Si el sitio está en WordPress, instala Yoast SEO para editar fácilmente estas informaciones. Otros CMSs generalmente posibilitan una fácil edición de estas informaciones. En caso contrario, necesitarás editar esas tags en el código. Para saber más, accede al post “Qué es una URL amigable para Google y otros buscadores” . Links Internos Toda la internet está compuesta por links. Los usuarios navegan todo el tiempo por links, así como los robots de cada motor de búsqueda. Teniendo esto en cuenta, los motivos para que tu sitio posea links internos son muy simples. Algunos de ellos son: ● Mejorar la navegación del usuario; 19 https://www.rdstation.com/es/marketing-digital/ https://www.rdstation.com/es/marketing-digital/ https://www.rdstation.com/blog/es/url-amigable/ https://www.rdstation.com/blog/es/url-amigable/ ● Facilitar el conocimiento de nuevas páginas para los motores de búsqueda; ● Relacionar páginas que abordan asuntos semejantes. En la inclusión de los links, es importante prestar atención al texto ancla y no trabajar con indicaciones genéricas como “en este post” o “haz clic aquí” . Lo ideal es usar un ancla que este relacionado al asunto de la página, para indicarle a los robots que, cuando se trate de determinado asunto, aquella es la página principal. Texto Alternativo Todas las imágenes de una página deben contar con un texto alternativo (alt text) en caso que la imagen no sea exhibida. Es al completar este campo que ayuda a los programas de lectura de pantalla y a Google a entender o que la imagen representa. Usar la palabra clave en el texto alternativo (o alt text) además ayuda al posicionamiento orgánico del contenido, reforzando a los motores de búsqueda el contexto por el cual la imagen fue agregada. El mismo Google recomienda que el texto alternativo sea descriptivo en relación a la imagen que representa y que no quede muy largo. Para saber dónde encontrar imágenes para tus páginas conoce el post “57 bancos de imágenes gratuitos y pagos que debes conocer” . Featured Snippet (posición 0) ¿Has notado que, para algunas búsquedas realizadas en Google, se exhibe un bloque con un fragmento del contenido que estás buscando? Este resultado es el featured snippet, también conocido como “posición 0” de Google, y generalmente muestra recetas, tablas, definiciones detalladas, etc Este es un ejemplo de snippet de párrafo. Este modelo muestra un pequeño fragmento del contenido con la intuición de ya responder la pregunta del usuario en la propia página de resultados. 20 https://www.rdstation.com/blog/es/bancos-de-imagenes/ https://www.rdstation.com/blog/es/bancos-de-imagenes/ https://www.rdstation.com/blog/es/bancos-de-imagenes/ Es importante resaltar que no existe una relación entre la posición 0 y la posición 1. Incluso, hay estudios que identificaron sitios en la 8ª página del buscador presentando el resultado en la posición 0. Ahora debes estar preguntándote cómo llegar a la posición 0 de Google. ¿verdad? En realidad, no existe una marcación de datos o garantía de conseguirlo. Es algo relativamente nuevo y muchos están ya estudiando sobre el asunto. Lo recomendado es trabajar con contenido que exhiba una respuesta directa y objetiva sobre una determinada pregunta o un tutorial paso a paso al cual la se aplica la búsqueda. SEO off-page Podemos considerar SEO off-page a todas las actividades realizadas fuera del dominio del sitio que impactan directamente en tu posicionamiento orgánico. Generalmente se vincula al link building, pero existe otro factor más allá de los links que influencia los resultados de un sitio: presencia de marca . Presencia de marca Mejorar tu presencia de marca en internet no es lo mismo que la generación de links ( o link building ). La presencia de la marca no aumentará la autoridad de tu dominio, pero si la confianza de Google y de otros buscadores en tu marca. Y si tu marca es confiable, difícilmente será penalizada. Algunos factores que pueden influenciar en tu presencia de marca: ● Menciones al nombre de la marca sin links en sitios y portales; ● Presencia consolidada en YouTube; ● Calificación positiva de usuarios en Google; ● Una base sólida y comprometida de fans en las redes sociales. Recibir una mención a tu marca y con un link a tu sitio (principalmente de sitios relevantes y confiables), además de contribuir a la presencia y confianza de tu marca, aumenta la autoridad de tu sitio y yahace parte de las acciones de link building. Link Building Como mencionamos en los factores del posicionamiento de Google, las autoridades de página y de dominio están entre los criterios más importantes. Finalmente, clasificar los sitios teniendo en cuenta los links que apuntan a estos fue el principal diferencial de Google cuando entró al mercado de buscadores. Además de que el gigante de las búsquedas haya anunciado que es uno de los principales factores de posicionamiento (como dijimos antes), una búsqueda con 1 millón de resultados de Google , realizada por Backlinko, señaló el número de dominio de referencia como el factor que más impacta en las posiciones . 21 https://searchenginewatch.com/2017/06/15/how-to-optimize-for-googles-featured-snippets/ https://searchenginewatch.com/2017/06/15/how-to-optimize-for-googles-featured-snippets/ https://backlinko.com/search-engine-ranking https://backlinko.com/search-engine-ranking https://backlinko.com/search-engine-ranking Sin embargo, desde la actualización Penguin no es solamente la cantidad de links que Google tiene en consideración a la hora de calificar un sitio, ahora el foco está en la calidad de esos links . Para entenderlo mejor, vamos a comparar links con premios: ● Hasta el 2015, Leonardo DiCaprio tenía 2 Globos de Oro, 1 premio del Festival de Berlín, 1 People’s Choice Awards y 1 AACTA Awards. Un total de 5 premios ; ● En 2016 ganó 1 Oscar y 1 Globo de Oro. Un total de 2 premios . Y ¿Qué fue lo que más tuvo impacto en su carrera (y en el cache) del actor? Con seguridad ganar su primer Oscar tuvo más impacto en su vida y carrera que en las redes sociales . Lo mismo aplica cuando hablamos links. Es más importante recibir un link de un sitio confiable, de autoridad y que tenga relevancia en su contenido, que recibir varios de sitios pequeños, sin ningún tipo de autoridad o relevancia. Para generar links para tu sitio, existen algunas tácticas utilizadas por los profesionales de SEO. Conoce 6 técnicas populares de link building : ● Guest post ● Menciones a la marca ● Links rotos ● Entrevistas con especialistas ● Estudios ● Asesoría de prensa Guest post Producción de artículos para otros blogs como invitado (con link dirigiendo a tu sitio), que exploran contenidos relacionados al universo de la empresa y de un sitio relevante. No debe ser 22 https://es.wikipedia.org/wiki/Leonardo_DiCaprio https://es.wikipedia.org/wiki/Leonardo_DiCaprio https://www2.teletica.com/117833_memes-de-leonardo-dicaprio-tras-ganar-el-oscar-inundan-las-redes-sociales https://www2.teletica.com/117833_memes-de-leonardo-dicaprio-tras-ganar-el-oscar-inundan-las-redes-sociales https://www.rdstation.com/blog/es/link-building/ https://www.rdstation.com/blog/es/link-building/ hecho solo para generar links, es importante mantener un estándar de calidad e incluir links que tengan sentido para el usuario. Aprende más sobre guest posts. Menciones a la marca No todos los sitios que hablan de ti o de tu marca incluyen un link hacia tu sitio. Por eso, es importante monitorear esas menciones y, en caso que sea hecho sin un link, entrar en contacto con el responsable para intentar una inclusión. Puedes usar Google Alerts para eso. Links rotos Es muy probable que sitios relevantes para tu negocio hayan generado links para otros sitios en algún momento y que hoy estén rotos (el otro sitio deshabilitó la página o simplemente no existe más). Si tienes un contenido relevante para substituir el link roto,basta entrar en contacto con el autor o propietario del sitio informando el error y recomendando el cambio por tu link. Entrevistas con especialistas Entrevistar a especialistas de tu área de actuación trae muchas ventajas, pues genera un contenido de calidad y además brinda la posibilidad de generar links de los propios especialistas. Para incentivarlo, puedes entrar en contacto con el entrevistado luego de la publicación, agradeciendo la participación y enviando el link de la entrevista. También puedes aprovechar e contacto e indicar un contenido del sitio del especialista que se encaje en la entrevista. Es muy probable que este realiza una inclusión (en el contenido indicado posteriormente, en algún contenido relevante). Conoce nuestra entrevista con Fábio Ricotta, por ejemplo. Estudios No son simples de hacer y, dependiendo de la metodología elegida, puede llegar a ser incluso inviable. Sin embargo, este recurso te coloca como referencia cuando otros sitios usen las estadísticas levantadas en el estudio, generando links. Asesoría de prensa Trabajar con una asesoría de prensa trae varias ventajas para tu empresa. Entre estas, está la posibilidad de conseguir noticias o artículos en varios sitios y portales. En caso que sea una asesoría que ya trabaja con link building o que ya haya acordado eso contigo, las probabilidades de generar links en cada materia obtenida es mucho mayor. En la teoría puede parecer simple, pero entre mayor sea el sitio, más difícil será el contacto y la generación de links. Otro problema radica en que muchos sitios grandes, principalmente portales de noticias, solo incluyen links externos usando “nofollow”. ¿Qué son los links “nofollow”? Al incluir un link en tu sitio en una imagen o texto ancla, independiente si es un link interno o para otros sitios, los robots de los buscadores, al pasar por la página que contiene el link, va a identificarlo y seguirlo, yendo para la página que está indicando. Esos links son conocidos como links dofollow y no es necesario ninguna alteración para mantenerlos de esa forma. 23 No obstante, existe una forma de impedir que los robots sigan ese link y atribuyan autoridad para la página que está recibiendo este: incluir la meta “nofollow” en el link . La meta tag se incluye de la siguiente forma, dentro de la sección : Para que los robots no sigan los links: <meta name="robots" content="nofollow" /> Para que los robots no indexen el contenido: <meta name="robots" content="noindex" /> Para que que los robots no indexen el contenido y no sigan los links: <meta name="robots" content="noindex, nofollow" /> Esta información puede insertarse dentro del head en el código del sitio para ser usada en todos los links presentados o solamente en algunos links específicos. Muchos sitios lo incluyen solamente en links externos, de la siguiente forma: <a href="https://linkmencionado.com" rel="nofollow"> A pesar de no generar autoridad para el sitio que recibe ese tipo de link, esto no quiere decir que no tengan valor. Además de contribuir a la presencia de marca, estos puede generar trafico gratuito, muchasveces calificado, de acuerdo con el sitio que está presente. Por ser un reflejo de acciones que ocurren en otros sitios, puede parecer difícil medir los resultados de una estrategia de link building o la reputación de un sitio. Para esto, existen algunas métricas que pueden ayudarte. ● Pagerank ● Page Authority y Domain Authority (Moz) ● URL Rating y Domain Rating (Ahrefs) Pagerank Métrica de 0 a 10 creada por Larry Page (uno de los fundadores de Google) para medir la autoridad de una página. Actualmente el Pagerank calcula la cantidad, calidad y relevancia de los links recibidos por una página. Desde 2016 no se divulga más de manera pública. Page Authority y Domain Authority (Moz) Métrica de 1 a 100 creada por Moz para medir la autoridad de una página (Page Authority o PA) o del dominio entero (Domain Authority o DA). Son calculadas teniendo en cuenta los links recibidos, MozRank , MozTrust y otras métricas. Se consideran buenas alternativas para el Pagerank y pueden ser visualizadas en MozBar (gratuito) y en Open Site Explorer . URL Rating y Domain Rating (Ahrefs) Son métricas logarítmicas de 1 a 100 para medir la fuerza de backlinks de una URL (URL Rating o UR) y de un dominio entero (Domain Rating o DR). Son calculadas en la herramienta Ahrefs y es necesario tener una cuenta para acceder a ella. SEO on-site (o SEO técnico) 24 https://moz.com/learn/seo/mozrank https://moz.com/learn/seo/mozrank https://moz.com/learn/seo/domain-authority https://moz.com/learn/seo/domain-authority https://moz.com/products/pro/seo-toolbar https://moz.com/products/pro/seo-toolbar https://moz.com/researchtools/ose/ https://ahrefs.com/ https://ahrefs.com/ Muchos profesionales unifican esas técnicas SEO on-page por tratarse de mejoras dentro del propio ambiente. Sin embargo, creemos que el SEO on-site, conocido también como SEO técnico, es una categoría separada, que no involucra tanto a producción de contenido, sino las características de programación, desempeño y usabilidad del sitio. Con las actualizaciones de Google cada vez dando más atención a la calidad del contenido, estas técnicas son muchas veces olvidadas por los profesionales. Pero cabe recordar que factores como UX (user experience o experiencia del usuario), velocidad de carga y seguridad estás cada día adquiriendo más importancia y requieren tu atención. Conoce a continuación los principales puntos de atención cuando se trata de SEO on-site. UX UX o User Experience en SEO se refiere a toda la experiencia e interacción de los usuarios con tu sitio o blog . Proporcionar una experiencia increíble al recibir un usuario en tu ambiente online influenciará positivamente en métricas como tasa de rebote , páginas visualizadas por sesión y tiempo del usuario en el sitio. Es importante recordar que métricas así interfieren directamente en el posicionamiento orgánico de tu sitio. Tratándose del contenido de tu sitio, principalmente artículos del blog, mantén un texto escaneable, con párrafos cortos, imágenes, ilustraciones, así como otros medios y todo lo que pueda contribuir para dejar el contenido más fácil, accesible y agradable para el usuario . Cuando hablamos de accesos vía dispositivos móviles, eso se hace aún más relevante, ya que la experiencia ofrecida en desktops no puede ser la misma en los celulares. Según Google, 61% de los usuarios tienden a abandonar una página si la experiencia móvil no fue positiva. ¿Y cómo saber si la experiencia del usuario en el sitio no es positiva? Por medio de las métricas presentadas en Google Analytics ya puedes ir reconociendo si la experiencia es positiva o no. Otras herramientas como Hotjar (cuenta con un plan gratuito), Clicktale y Crazy Egg ayudan igualmente en el diagnóstico y análisis de la experiencia, con mapas de calor, grabación de sesiones de los usuarios y otras funcionalidades. Velocidad de carga En 2010 Google anunció que el tiempo de carga de las páginas se convirtió en un factor de posicionamiento. A inicios de 2018 la gigante de las búsquedas divulgó al público que la velocidad de los sitios en dispositivos móviles comenzaría a afectar los posicionamientos orgánicos en las búsquedas hechas en celulares. Esta actualización fue conocida como “The Speed Update”. ¿Crees que el tiempo de carga de tu sitio no es importante? Entonces consulta algunos datos que te harán cambiar de idea: ● 53% de los usuarios mobile abandonan el sitio si la página demora más de 3 segundos para cargar (fuente: Google ); ● 83% de los usuarios esperan que el sitio cargue en 3 segundos o menos (fuente: WebpageFX ); 25 https://www.rdstation.com/blog/es/como-crear-un-blog-wordpress/ https://www.rdstation.com/blog/es/como-crear-un-blog-wordpress/ https://www.rdstation.com/blog/es/tasa-de-rebote-bounce-rate/ https://www.rdstation.com/blog/es/tasa-de-rebote-bounce-rate/ https://www.thinkwithgoogle.com/intl/es-419/recursos-y-herramientas/m%C3%B3vil/mobile-user-experience-a-consumer-expectation/ https://www.thinkwithgoogle.com/intl/es-419/recursos-y-herramientas/m%C3%B3vil/mobile-user-experience-a-consumer-expectation/ https://www.thinkwithgoogle.com/intl/es-419/recursos-y-herramientas/m%C3%B3vil/mobile-user-experience-a-consumer-expectation/ https://www.rdstation.com/blog/es/google-analytics/ https://www.rdstation.com/blog/es/google-analytics/ https://www.hotjar.com/ https://www.hotjar.com/ https://www.clicktale.com/ https://www.clicktale.com/ https://www.crazyegg.com/ https://www.crazyegg.com/ https://webmasters.googleblog.com/2010/04/using-site-speed-in-web-search-ranking.html https://webmasters.googleblog.com/2010/04/using-site-speed-in-web-search-ranking.html https://webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html https://webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/ https://www.thinkwithgoogle.com/marketing-resources/data-measurement/mobile-page-speed-new-industry-benchmarks/ https://www.webfx.com/blog/internet/website-page-load-time-conversions/ https://www.webfx.com/blog/internet/website-page-load-time-conversions/ ● La campaña de recaudación de fondos hecho por Obama tuvo un aumento de 14% en las donaciones reduciendo el tiempo de carga de 5 para 2 segundos (fuente: WebpageFX ); ● Cada segundo de mejoría en la velocidad de la página aumenta en 7% las conversiones (fuente: WebpageFX ). Ahora que ya sabes que mejorar el tiempo de carga de las páginas de tu sitio no afecta solamente el posicionamiento orgánico de tu sitio, sino también la experiencia de los usuarios y las conversiones, ¿qué tal comenzar a optimizar? Aprende ahora cómo hacer tests y cómo optimizar la velocidad de tu sitio en el artículo: Velocidad del sitio web: aprende a hacer testsy dejar tu página más rápida . HTTPS La seguridad es prioridad para Google. Tanto que, como dijimos en la sección “Algoritmo y actualizaciones”, en 2014 el buscador anunció que HTTPS se volvió un factor de posicionamiento para los sitios. “¿Qué es lo que cambia con un sitio en HTTPS?”, puedes estar pensando. Básicamente los datos enviados son autenticados, criptografados y no pueden ser modificados durante la transferencia . Esto es tan importante que Google Chrome alerta como “sitio no seguro” a las páginas sin HTTPS que solicitan cualquier información del usuario. En algunos casos, esta alerta ya es exhibida en los resultados de búsquedas de Google, sin siquiera entrar al sitio. Es importante tener en cuenta que si decides migrar tu sitio para HTTPS, Google y todos los buscadores lo considerarán como un sitio nuevo y, por tanto, contenido duplicado. Para evitar esta situación es necesario redirigir todas las URLs antiguas en HTTP para las nuevas en HTTPS, además de tener otros cuidados durante la migración. El ex-Google Pedro Dias desarrolló un checklist para migración HTTPS (en portugués), con las principales del proceso. Los pasos recomendados son: 1. Obtener un certificado SSL; 2. Validar el soporte HTTPS de recursos externos; 3. Planificar y preparar la migración de protocolo; 4. Habilitar el protocolo HTTPS e instalar el certificado SSL; 5. Actualizar recursos y links internos para HTTPS; 6. Actualizar recursos externos para HTTPS; 7. Incluir la versión HTTPS en Google Search Console; 8. Habilitar los redireccionamientos HTTP para HTTPS; 9. Habilitar soporte HTTP/2; 10. Habilitar HSTS. 26 https://www.webfx.com/blog/internet/website-page-load-time-conversions/ https://www.webfx.com/blog/internet/website-page-load-time-conversions/ https://www.rdstation.com/es/casos-de-exito/termine-seus-estudos/ https://www.rdstation.com/es/casos-de-exito/termine-seus-estudos/ https://www.rdstation.com/blog/es/velocidad-sitio-web/ https://www.rdstation.com/blog/es/velocidad-sitio-web/ https://www.pedrodias.net/webmaster/migrar-para-https https://www.pedrodias.net/webmaster/migrar-para-https Sitemap Un sitemap no es nada más que un mapa de tu sitio. Su función es facilitar el trabajo de los robots de los buscadores para entender la estructura del sitio. Si tu sitio utiliza WordPress, puedes generar el sitemap automáticamente via plugins, como Yoast . En caso que no uses CMS, existen herramientas online que pueden generar el archivo, como XML-Sitemaps . El formato más común del archivo es XML, pero es posible generar un mapa del sitio en archivo TXT y Atom-RSS (el feed RSS de site, aunque no es recomendable que sea utilizado). Luego de ser generado, el link del sitemap debe ser enviado a las herramientas de webmasters de los buscadores, como Google Search Console y Bing Webmasters. Para saber más del tema, no dejes de ver el artículo completo: Sitemap XML: todo lo que necesitas saber . Robots.txt ¿Ya oíste (o incluso ya pasó en tu caso) de sitios siendo creados, lanzados hace un tiempo, pero que ninguna página es exhibida en Google, incluso buscando por el nombre de la empresa? Generalmente esto pasa porque fue indicado a los robots de los buscadores en Robots.txt para no indexar ninguna página. Robots.txt es un archivo de texto que queda dentro del servidor del sitio (como https://www.rdstation.com/robots.txt, por ejemplo) e indica a los robots de los buscadores si pueden (o no) indexar partes de un sitio. En la práctica, el archivo debe contener el user-agent y las instrucciones disallow y/o allow. Otra instrucción común en el archivo es indicando dónde está el sitemap. ● User-agent : indicación de cuál buscador debe leer las instrucciones dentro del archivo. Si quieres listar las configuraciones específicas de un buscador, puedes revisar la lista de los principales user-agents de internet. En caso que las instrucciones se apliquen a todos los buscadores, puedes incluir simplemente un “*”. ● Disallow : son una subcarpeta o categorías del sitio que no deseas que los buscadores rastreen. ● Allow : por defecto, las páginas que no son indicadas directamente o no hacen parte de la categoría listada en el comando disallow serán rastreadas. El comando allow generalmente es usado para páginas específicas o subcategorías que están dentro de una categoría que fue indicada en el comando disallow, pero que deben ser rastreadas. ● Sitemap : basta con incluir los links de los sitemaps del sitio. Generalmente un archivo de robots.txt posee la siguiente estructura: User-agent: * Allow: / Sitemap: http://www.exemplo.com/sitemap.xml 27 https://es.wordpress.org/plugins/wordpress-seo/ https://es.wordpress.org/plugins/wordpress-seo/ https://www.xml-sitemaps.com/ https://www.xml-sitemaps.com/ https://www.rdstation.com/blog/es/sitemap-xml/ https://www.rdstation.com/blog/es/sitemap-xml/ https://www.rdstation.com/blog/es/sitemap-xml/ En el caso de sitios que no están indexando en Google, el archivo puede haber sido configurado indicando que ninguna página debe ser rastreada, como en el siguiente ejemplo (que no debe ser usado): User-agent: * Disallow: / Para entender mejor cómo es configurado, conoce un segmento del robots.txt del propio Google: Ten en cuenta que este está configurado para todos los buscadores (user-agent: *), posee una categoría bloqueada (Disallow: /search), pero indica que 2 páginas de la categoría deben ser rastreadas (Allow: /search/about y Allow: /search/howsearchworks). Luego de crear tu robots.txt y publicar en el servidor del sitio, puedes usar una herramienta de Google para probar si el archivo está correcto. Se recomienda que todo el sitio tenga un Robots.txt configurado, no entanto no son todas las situaciones que deben ser usadas con el Robots.txt. Es posible visualizar las configuraciones hechas por cualquier sitio que posee el archivo. (como hicimos con Google). Por eso para las páginas que no deben ser accesadas por el público de ninguna forma, como thank you pages o páginas de login, lo más indicado es utilizar el comando <meta name=”robots” content=”noindex”> dentro de la sección <head>. Además de ser más seguro, esta es la forma recomendada y más garantizada para que un contenido no sea indexado en los buscadores. Heading tags Las heading tags ya tuvieron más importancia cuando a SEO se refiere. Hoy en día sirven para presentar a los robots (y a los usuarios) una estructura lógica de las informaciones de las páginas. Lógicamente, el texto que está en H1 es más importante que el que está en H2, que es más importante que el texto en H3 y así sucesivamente. Mira el ejemplo a continuación: 28 https://support.google.com/webmasters/answer/6062598?hl=en&ref_topic=6061961 https://support.google.com/webmasters/answer/6062598?hl=en&ref_topic=6061961https://support.google.com/webmasters/answer/6062598?hl=en&ref_topic=6061961 https://www.rdstation.com/blog/es/thank-you-page/ https://www.rdstation.com/blog/es/thank-you-page/ Según Matt Cutts , ex-Google y referencia en SEO, no es necesario tener exactamente ese orden , lo importante es que la página tenga una organización para el usuario. Otra duda común de los webmasters es si hay algún problema con tener más de un tag H1. Matt Cutts también responde a esto , afirmando que no hay problema en tener más de un tag H1, desde que la página no esté llena de ellas. Por ser considerados textos destacados en la página, es importante intentar encajar las palabras clave que están siendo exploradas en el contenido (principalmente en el H1, que generalmente también es el título de la página). Con esto, también ayudarás a los robots de los buscadores a entender que el asunto principal de la página es la palabra clave elegida, puesto que está presenta en una parte importante del texto, además de ser encontrada junto con sus sinónimos en los párrafos. Rich snippets ¿Has visto que ciertos resultados de búsqueda presentados por Google son más completos que otros? Algunos tienen barra de búsqueda, estrellas de calificación, links dentro del sitio, etc. Mira un ejemplo de Televisa en Google: 29 https://twitter.com/mattcutts https://twitter.com/mattcutts https://www.youtube.com/watch?v=iR5itZlq8sk https://www.youtube.com/watch?v=iR5itZlq8sk https://www.youtube.com/watch?v=GIn5qJKU8VM https://www.youtube.com/watch?v=GIn5qJKU8VM https://www.youtube.com/watch?v=GIn5qJKU8VM Varios de los datos son presentados junto con el sitio, como informaciones de la empresa al lado derecho de la pantalla y sitelinks debajo del primer resultado. ¿Percibiste como los resultados de búsqueda que presentan esas informaciones se destacan en la página de resultados? Según estudios , los resultados que utilizan rich snippets tienen un aumento de 30% en la tasa de clics , en promedio, trayendo más tráfico e incluso mejorando el posicionamiento orgánico de la página, ya que la tasa de clics (CTR) también es un factor de ranking. Para exhibir esas informaciones diferenciadas, estos sitios deben aplicar algunas configuraciones en su sitio. Si no usas Wordpress, el sitio Schema.org posee toda la documentación necesaria para aplicar las configuraciones. En caso que uses WordPress, el propio Yoast SEO ya aplica las configuraciones más comunes, como los snippets de empresa y del artículo. Para aplicar otras configuraciones, puedes usar el All In One Schema Rich Snippets . Error 404 “La página que buscas no existe.” ¿Alguna vez viste este tipo de mensaje en un sitio? Esto ocurre cuando se intenta acceder a la página de un dominio existente que fue excluida, su URL fue alterada o nunca existió. 30 https://searchengineland.com/how-to-get-a-30-increase-in-ctr-with-structured-markup-105830 https://searchengineland.com/how-to-get-a-30-increase-in-ctr-with-structured-markup-105830 http://schema.org/ http://schema.org/ https://es.wordpress.org/plugins/all-in-one-schemaorg-rich-snippets/ https://es.wordpress.org/plugins/all-in-one-schemaorg-rich-snippets/ El primer paso es garantizar una página de error 404 ofrezca una experiencia positiva al usuario para que este permanezca en tu sitio y encuentre lo que quiere. Por ejemplo, esta es nuestra página de error: Además de mostrar la navegación para la página anterior o para la página principal del sitio, también cuenta con un campo de búsqueda para que el usuario pueda buscar el contenido al que quiere ingresar. Aún teniendo una página de error 404 que ofrezca una buena experiencia al usuario, es importante evitar al máximo que esta sea exhibida, garantizando que, en caso que necesites remover o despublicar un contenido, que haya un redireccionamiento 301 para un contenido semejante. Además de mejorar la navegación y presentar un contenido más adecuado, también redireccionas la autoridad que la URL antigua recibió para la nueva URL. Redireccionamientos Mencionando los redireccionamientos, ¿Sabes lo que son? Básicamente, un redireccionamiento es una configuración en el servidor para que el acceso a la URL A sea dirigido hacia la URL B. Para eso, puedes usar el redireccionamiento 302 o 301, que son los más usados (y recomendados). El redireccionamiento 302 es temporal. Al usar este formato, muestras principalmente a los buscadores que estás aplicando algún cambio o mejora en la URL A y por eso en el momento estas redireccionando a los usuarios para la URL B, pero que eso en próximamente dejará de ser hecho. 31 Por su parte, el redireccionamiento 301 es definitivo. Este le indica a los buscadores que pueden considerar únicamente la página nueva, que recibe la atención, e inclusive la autoridad de la URL antigua va también para la nueva. Además de migrar las páginas que no existen más y están presentando error 404, el redireccionamiento 301 también debe ser utilizado en otras situaciones, como la migración de dominio del sitio (sea solamente una migración de HTTP a HTTPS o un cambio de nombre), redireccionando las URLs antiguas para las nuevas. Así mismo, es importante aplicar los redireccionamientos de otras versiones de tu sitio, como la versión con www al inicio, home con /index al final, etc. Redirecciona todas para la versión oficial. Para probar cuál tipo de redireccionamiento (y cuántos) tiene una determinada página, puedes utilizar la herramienta gratuita HTTP Status Code Checker. Recuerda tener cuidado con las cadenas de redireccionamientos (redirect chains) siempre que vayas a realizar los redireccionamientos. Evita redireccionar a una URL que redirecciona a outra. 32 https://httpstatus.io/ https://httpstatus.io/ Lo ideal es que el redireccionamiento sea hecho para una URL final directamente, ya que entre más redireccionamiento existan en el camino, mayor será el tiempo de carga y mayor el riesgo que los robots de Google no sigan hasta el final. Saber más en el post Qué es un Redirect 301 y por qué este es un buen amigo del profesional de Marketing. Canonical tag El nombre puede dar a entender que se trata de algo complicado, pero el objetivo de una canonical tag es simple: en caso de tener contenido duplicado, la canonical tag indica el principal a los buscadores. En un primer momento puede parecer similar a los redireccionamientos. Sin embargo, en el caso de la canonical tag, los mecanismos de búsqueda sólo le atribuyen la autoridad a la página preferencial si realmente entienden que es una versión similar y si el usode la tag tiene sentido. El código que debe ser insertado en las versiones secundarias de la página, dentro de la sección <head>, es: <link rel="canonical" href="http://www.misitio.com.mx" /> Otra diferencia es que las páginas que envían hacia la principal no son accesibles al usuario, diferente del redireccionamiento que termina yendo a la página que el usuario o los robots intentan acceder, llevando para la página direccionada. Un caso de uso común es si utilizas un software para creación de de Landing Pages , como RD Station Marketing, en el que puedes trabajar con una landing page para cada campaña, sea en medios pagados o en las redes sociales. Como probablemente las páginas son muy parecidas, pero con URLs diferentes, puedes definir una como principal, y utilizar la canonical tag para señalar todas las otras. 33 https://www.rdstation.com/blog/es/redirect-301/ https://www.rdstation.com/blog/es/redirect-301/ https://www.rdstation.com/blog/es/redirect-301/ https://www.rdstation.com/blog/es/landing-page/ https://www.rdstation.com/blog/es/landing-page/ Muchos desarrolladores o plugins configuran el sitio para usar la self canonical, en el que cada página, cuando no incluye una canonical tag específica para su versión principal, apunta para ella misma, como en el blog de RD Station, por ejemplo: Esta práctica no es obligatoria, pero es recomendada por Google , pues le deja más claro a los mecanismos de búsqueda que ese la página que realmente quieres indexar. Google ya interpreta canonical tags entre dominios diferentes . Por lo tanto es posible apuntar ejemplo.com para sitio.com . Alternate tag Se cuentas con una versión exclusiva de tu sitio para dispositivos móviles (m.ejemplo.com) los buscadores lo entenderán como otro sitio, con contenido muy similar al de la versión desktop (ejemplo.com), lo que puede terminar en problemas de contenido duplicado. Puedes verlo en el siguiente ejemplo: 34 https://blog.seoprofiler.com/google-recommend-self-referencing-canonical-tags/ https://blog.seoprofiler.com/google-recommend-self-referencing-canonical-tags/ https://webmasters.googleblog.com/2009/12/handling-legitimate-cross-domain.html https://webmasters.googleblog.com/2009/12/handling-legitimate-cross-domain.html ● En la página para computador (https://www.sitio.com/pagina), debe agregarse la tag: <link rel="alternate" media="only screen and (max-width: 640px)" href="https://m.sitio.com.br/pagina"> ● En la página para dispositivos móviles (https://m.sitio.com/pagina), debe ser incluida la tag canónica: <link rel="canonical" href="https://www.sitio.com/pagina"> Para saber más sobre la implementación de esta marcación, accede a la documentación oficial de Google sobre el tema. Otra aplicación de la alternate tag es en sitios con idiomas diferentes, indicando a los buscadores cuál es la versión ideal de contenido para cada idioma (o país). Para aplicar las tags de forma correcta, todas las páginas involucradas deben poseer el código configurado (en caso contrario, esa indicación no será válida). Un ejemplo es un sitio que posee versión español (sin ningún país específico como foco), otra versión para portugués de Brasil y una otra para inglés de Estados Unidos. Las páginas que poseen los 3 idiomas deben tener la marcación siguiente en el código, dentro de <head>: <link rel="alternate" href="https://sitio.com.br/pagina/" hreflang="es" /> <link rel="alternate" href="https://sitio.com/es/pagina/" hreflang="pt_BR" /> <link rel="alternate" href="https://sitio.com/en/pagina/" hreflang="en-US" /> <link rel="alternate" href="https://sitio.com.br/pagina/" hreflang="x-default" /> De esta forma: ● Para usuarios que el idioma principal es español (independiente del país), la versión presentada es "https://sitio.com/es/pagina/"; ● Para usuarios en Brasil , la versión presentada en las búsquedas será "https://sitio.com.br/pagina/"; ● Para usuarios en los Estados Unidos con idioma en inglés , la versión indicada es "https://sitio.com/en/pagina/"; ● Para los usuarios que no sean de las regiones e idiomas indicados (o que no poseen eso determinado) la versión indicada es "https://sitio.com/página/", usando hreflang="x-default". Cabe resaltar que esas configuraciones sirven para indicarle a Google cuáles son las versiones ideales del contenido de acuerdo con el país e idioma. Incluir esas marcaciones no garantizará que tu posicionamiento en un país sea replicada para los otros o que no sea considerado contenido duplicado (para que eso no acontezca, usa una canonical tag). ¿Aún tienes dudas sobre cómo aplicarlas? Encuentra en la Central de Ayuda de Google algunos consejos. SEO para dispositivos móviles (mobile SEO) 35 https://developers.google.com/search/mobile-sites/mobile-seo/separate-urls?hl=pt-br https://developers.google.com/search/mobile-sites/mobile-seo/separate-urls?hl=pt-br https://developers.google.com/search/mobile-sites/mobile-seo/separate-urls?hl=pt-br https://support.google.com/webmasters/answer/189077?hl=es&ref_topic=2370587 https://support.google.com/webmasters/answer/189077?hl=es&ref_topic=2370587 Puedes hasta pensas que los dispositivos móviles no están afectando los resultados de tu negocio, pero probablemente estás equivocado. Hay muchas cosas que vienen mudando. De acuerdo con Maryna Hradovich , de SEMrush, actualmente más del 60% de las búsquedas en internet son hechas por dispositivos móviles en los Estados Unidos. https://www.youtube.com/watch?v=WOtyMkcj94M Es en este escenario que entra el SEO para dispositivos móviles, que tiene como objetivo garantizar que los usuarios accediendo a contenidos a partir de celulares y tablets tengan una buena experiencia. Si ya tienes tu sitio optimizado para los mecanismos de búsqueda, sólo debes realizar algunas acciones para optimizarlo también para dispositivos móviles. Google lanzó un documento (en portugués), con varias técnicas para tener un sitio mobile mejor. Conoce las 12 principales a continuación: 1. Destaca tus Calls-to-Action 2. Mantén los menús cortos 3. Facilita el regreso para el home del sitio 4. Haz visible el campo de búsqueda 5. Ofrece mejores resultados de búsqueda 6. Permite la navegación sin necesidad de registro 7. Usa botones de “clic para llamar” 8. Simplifica y facilita la inclusión de informaciones (como formularios) 9. Optimiza el sitio completo para dispositivos móviles 10. No fuerces el zoom en la pantalla (exhibe las informaciones en el tamaño adecuado) 11. Mantén al usuario en una única ventana 12. No llames la versión de “sitio completo” Sitio Responsive vs Sitio Mobile ¿Conoces esos sitios que abres desde el celular y la pantalla queda ajustada pero con letras tan pequeñas que debes utilizar el zoom para leer? Bueno, esos no son sitios responsive. Los sitios responsive son inteligentemente proyectados para que sean adaptados a cualquier
Compartir