Entender que supone mucho trabajo visionar todos los vídeos en Inglés y resumirlos para tú. Espero que la siguiente información te sirva no obstante tienes un enlace hacía cada vídeo por si quieres comprobar por ti mismo lo que aquí digo. Bueno puestos ya en antecedentes pasamos pues a una nueva recopilación que espero sea de tu interés:
1. A rel=canonical corner case (un caso extremo de uso de rel=canonical). Si no recuerdas para que se utiliza canonical, te recuerdo que es la manera de indicar a Google que página (es decir url) es la más relevante de un conjunto de páginas con contenido más o menos similar. Matt Cutts comenta que Google se reserva el uso de aceptar url’s declaradas mediante canonical en los siguientes casos:
-
- Que enlacen páginas que provoquen el error 404 (página no encontrada).
- Presencia de elementos inadecuados en el «head»: Ya sea porque se ha olvidado incluir el cierre (más frecuente de lo que parece) o bien porque se muestra elementos que no tocan, podría hablar de un head reventado de enlaces con gran cantidad de texto anclaje que conozco de un caso que acabo de analizar pero el secreto profesional es algo que los SEOS también debemos mantener.
Nota: me parece muy interesante la observación de Fernando Maciá que me parece de lo más solvente, se trata de una interesante solución para resolver el problema de la paginación de contenidos con una solución más óptima que la declaración de canonical. Puedes ir al punto 4 del apartado URL’s con parámetros.
2. ¿Si no necesito bloquear rastreadores necesito crear un archivo robots.txt?Matt comenta que aunque por un lado es totalmente equivalente permitir el rastreo (o bloquear) a nivel de pagina mediante el metadato robots, en un pequeño porcentaje de casos puede ocurrir que por alguna razón no se pueda leer el contenido de dicha página, mejor si complementamos con la declaración de un archivo robots.txt que marca que se debe rastrear y que no, en todo el sitio web.
3. ¿Si realizo campañas Adwords, subiré el posicionamiento natural? Matt dice que no.
4. ¿Cómo puede superar en el ranking un sitio no optimizado de cara al posicionamiento frente a otro que si lo está? Matt Cutts indica que básicamente se mira el contenido relacionado y los enlaces a nivel de dominio, pese a que existen otros muchos factores (There’s lots of different factors that would make you rank well, but fundamentally, we try to look at on-page content as well as off-domain links). En pocas palabras el SEO off Page puede marcar la diferencia y de hecho suele marcarla.
5. ¿Está limitado el número de redirecciones 301 permanentes que se pueden realizar en un sitio? No está limitado el número de redirecciones que se pueden realizar en un sitio, si bien cada del sitio A debe redireccionar a la misma página del sitio B que tenga el contenido similar. Piensa que no es correcto redireccionar a un sitio cuyo contenido difiere mucho del contenido inicial. Lo que si está limitado es el número de redirecciones intermedias, es decir si en lugar de A->F, haces A->B, B->C, C->D, D->E, E->F probablemente tengas problemas, Matt Cutts recomienda una distancia de no más de 3 nodos. Personalmente he comprobado este tema y recuerdo un cliente que tenía muchas redirecciones realizadas previamente y que al pasar todo su sitio en html estático a php, tuvimos que añadir las pertinentes redirecciones y en algunos casos las páginas no se mostraban en el buscador debido a esto, eliminando los saltos obsoletos, recuerda que como mucho no es necesario mantener la redirección más de 2 meses.
6. Cambiando tu web de hosting (no hay cambio de dominio). Hay que subir todo el contenido en el nuevo hosting y básicamente hay que cambiar poner las dns del nuevo hosting en el hosting que se haya registrado el dominio si no se ha traído. En este momento se inicia un proceso de replicar el cambio por todos los servidores, este proceso puede durar hasta un máximo de 72h, aunque lo usual no es tanto tiempo. Mientras dura este proceso puede ser que algunos computadores dependiendo ubicación vea la página en el sitio nuevo o en el sitio viejo. Al finalizar el proceso todo el mundo accede ya al sitio nuevo y es el momento de eliminar el contenido en el sitio viejo. Al no haber cambio de dominio no hay necesidad de redirección 301 permanente.
7. Cambiando el nombre de dominio de tu web. Básicamente hay que realizar una redirección 301 permanente, recuerda lo observado en el punto 5, en cuanto a cómo se hacen las redirecciónes 301 cosa que no explica el bueno de Matt, te remito a este artículo:
8. ¿Considera Google que el SEO es SPAM?. Depende de que técnicas SEO se utilicen. Sólo se considera SPAM el conjunto de técnicas consideradas como Black Hat SEO, es decir técnicas de sombrero negro. En general el SEO no se considera SPAM si no todo lo contrario ya que una de las labores que hacemos los SEO es asegurarnos de que el contenido se indexa correctamente en los buscadores.
9. ¿Cómo determina Google la velocidad de la página?
A traves de la barra de herramientas de Google que muchos usuarios instalan en su ordenador, de manera que las mediciones se hacen sobre usuarios normales, usuarios que en algunos casos pueden tener conexiones muy lentas incluso todavía con modems a 56KB. La velocidad de un sitio puede ser un factor que afecte a una de cada 100 búsquedas, esto nos dice que uno de cada mil sitios puede verse afectado significativamente sólo por la velocidad. Optimizar la velocidad del sitio se traduce en una mejora de la experiencia del usuario.
10. ¿Qué pasos puedo realizar para diagnósticar una caída en el ranking? Los siguientes:
- Ejecutar site:el-nombre-de-mi-dominio y ver si ya no hay resultados indexados total o parcialmente
- En caso de tener resultados no indexados parcialmente ver si no es debido a una declaración del metadato robots o una mala configuración del archivo robots.txt.
- Que en el snippet presente en la hoja de resultados de búsqueda se muestre la advertencia:»«Advertencia: La visita a este sitio puede dañar tu ordenador». (simplemente con que figure esta advertencia, basta para que la gente se lo piense dos veces y no visite tu sitio, con la consecuente caída de tráfico.
- Acceder a Webmasters tools y atender a todo posible mensaje que informe de problemas. Dentro de esta herramienta puedes explorar una página como Google Bot.
- En ausencia de mensajes acudir a los foros de ayuda de Google donde usuarios avanzados podrán proporcionar ayuda o dar la pista de lo que pasa. Puede ser que no haya penalización y que un cambio algorítmico te haya echado fuera. (Nota me hace gracia esta observación de Matt …)
- Comprobar que también apareces en otros buscadores (Yahoo, Bing, etc) ya que si no sales eso te confirma que tienes problemas en tu lado.
- Que haya contenido visible a los usuarios pero no para Google. (Aunque Matt no lo dice directamente aquí esta aludiendo a contenido no transparente para Google como Flash por ejemplo).
- Enviar una solicitud de reconsideración para ver si Google ha emprendido alguna acción de tipo manual contra el sitio (esto es lo que dice Matt, pero se aconseja resolver los problemas antes de enviar la solicitud de reconsideración, muchas veces no es una penalización manual y realizando los ajustes se vuelve a subir en el ranking, cuando esto no pasa entonces si se trata de una penalización manual, hay que ver mucho y bien donde están los problemas , resolverlos y finalmente enviar dicha solicitud, pues la razón es que no suelen responder con prontitud)
- Este punto no forma parte de la recomendación de Google pero yo diría: !Contrata un SEO! Una de las cosas que hago es evaluar a fondo los problemas de un sitio web, es increíble la gran cantidad de cosas que se pasan por alto. Ocurre que hay muchas empresas que realizan sitios webs pero no muchas disponen de personal personalizado que de alguna manera verifiquen el buen trabajo realizado. Implicar a un SEO en un proyecto web desde el inicio es FUNDAMENTAL.
11. ¿Debo dedicar más tiempo a mejorar el contenido de mi sitio o bien a luchar contra los que lo copian? A raíz de la aplicación de Google Panda Mumbai de la India le hace a Matt esta pregunta. Matt reconoce que el algoritmo permite que sitios que copian a otros puedan tener mejor ranking si tienen más influencia (aquí debemos entender enlaces). Pero también dice que también es cierto que el algoritmo ha mejorado y que ha penalizado a muchos sitios de este tipo. Dicen que seguirán mejorando el algoritmo y el consejo que da es que se dedique todo el tiempo a mejorar la calidad del contenido del sitio.
12. ¿Cuáles son las mejores prácticas para la optimización de PDFs y otros documentos y cuándo decide Google mostrar esos archivos en otras páginas web? Matt comenta:
Se trata de una buena pregunta por dos motivos. Si pensamos exclusivamente en archivos PDF, no podemos optimizar gran cosa. Primero hay que ver si hay texto, porque puede tratarse de un PDF compuesto por imágenes fundamentalmente. Tal vez usemos en el futuro un sistema OCR. Ahora bien en cuanto al texto si lo contiene, recomendamos una buena elección de títulos. Pero la pregunta de interés sería ¿cómo se clasifican las páginas web en comparación con los documentos PDF?
Los documentos PDF suelen ser más largos y con menos probabilidad de enlaces que los documentos web quizás porque al clicar en un enlace aparezca a continuación un lector de archivos PDF. La filosofía de Google es intentar determinar lo mejor posible la utilidad del documento en base a la siguiente pregunta. ¿Se responde mejor al usuario al devolver un archivo PDF? ¿O es mejor devolver un documento web?
Complicada pregunta. Fundamentalmente, son tipos de datos diferentes. Puede ser el caso de un libro en PDF o de una página web. Es subjetivo determinar la utilidad del documento en cada caso. Depende de la información que se tenga del usuario (nota mía: aquí creo que debemos entender que Google también rankea a los usuarios, de hecho a través de microformatos propugnados recientemente está abordando la autoría de los textos que podemos encontrar en las páginas web) entre otros factores en suma se trata de terminar si es más útil un archivo en formato pdf o bien mostrar este archivo como página web.
Hay usuarios a los que no le gusta obtener documentos PDF ya que algunos de ellos solo incluyen algunas coincidencias y son tan extensos como un libro. Y, por tanto, puede resultar más útil que tener el mismo número de resultados en un documento web.
Básicamente, se trata de una pregunta difícil. Pero, tratamos de esforzamos todo lo posible para determinar la mejor respuesta para el usuario según este tipo de contenido multimedia y este tipo de documentos.
¿Cuál de estas opciones ofrecerá al usuario la mejor solución y le permitirá satisfacer su necesidad de información? (cierra su explicación lanzando esta pregunta al aire).
13. Marcado de autor mediante parámetros en la URL
Matt Cutts presenta a Othar Hannson una de las personas que han estado trabajando en el microformato rel=»author» y en la autoría de los textos en general. Básicamente se trata de añadir el marcadado rel=»author» a una capa que disponga de identificador (ancla, fragmento, «anchor» es el término utilizado en el vídeo) y que básicamente apunte a una página biográfica o a una página que contenga un perfil de Google. Esta es la mejor manera, pero hay algunos CMS que eliminan este tipo de marcado para solventar este caso debemos adicionar al final de la url ‘?rel=»author»‘ (estamos hablando el la url contenida en href de dicho enlace). Nota interesante si la url apunta a tu pérfil de Google. En el vídeo indican que como texto de anclaje (el texto del enlace) incluyas un «+» antes de tu nombre.
14. Marcado de autor
De nuevo se habla sobre el marcado aunque específicamente sobre rel=»author». Este vídeo me parece muy interesante, rel = autor es en realidad en la especificación de HTML5 la representación del autor de la página cuyo contenido estás citando o tomando y también enlazando. Luego si la gente enlaza a los autores incluyendo este marcado les está dando más popularidad y por tanto el contenido que emitan estas personas será más creíble (no sé si los enlaces que emitan también serán más valiosos), esto influirá también en el posicionamiento, pero importante esto se está experimentando ahora, es decir en el futuro el branding personal todavía posicionará más .
También se debe incorporar este marcado en tu propio sitio, de modo que cuando firmes con algún enlace alguno de tus contenidos, apuntes a tu perfil, esto es la página donde se habla de ti. Google recomienda que incluyas el botón de perfil de google + en la zona de la cabecera, esto facilita que aparezca tu foto junto a los resultados.
Por otro lado van a facilitar todo tipo de plugins para worpdress, blogger para facilitar que la gente utilice este tipo de marcado. El vídeo continúa hablando ya de XFN, te remito a la Wikipedia para que aprendas más sobre este concepto. Importante indicar que rel=»author» es una especificación de HTML5. Cada vez estoy más convencido de la importancia de migrar hacia HYML5, en mis últimos desarrollos ya lo utilizo y espero migrar esta página a HTML5 a primeros de año.
15. ¿Está afectando Google Panda en las búsquedas realizadas en lenguajes diferentes al Inglés?. SEO Charlie lanzó esta pregunta cuando ya se había lanzado Google Panda pero todavía no se había aplicado en España, la respuesta de Matt es esta, que Panda en ese momento sólo afectaba a las consultas en el idioma Inglés pero que con el tiempo se iría aplicando al resto del mundo. En estos momentos creo que queda todavía algún país asiático donde no se aplica todavía este algoritmo.
16. ¿Puede usted explicar lo que Google quiere decir con «confianza»? Te resumo lo que dice Matt a continuación:
La confianza (trust) es una especie de término comodín que utilizamos. PageRank es el tipo más conocido de confianza, este término tiene en cuenta los enlaces y la importancia de dichos enlaces. A mayor calidad en los enlaces mayor confianza para Google.
Manejamos más de 200 factores para determinar el ranking de una web. Pero por otro lado hay que ver como se ajusta la información ofrecida ante una consulta en particular, cabe preguntarse si dicha información es actual y sobre todo que porcentaje de la información ofrecida se corresponde con la consulta.
El Page Rank es uno de los algoritmos de confianza, pero también barajamos otros términos aparte de «confianza», términos como reputación y autoridad. No es que usemos algo como «rango de autoridad» o «rango de confianza», pero estamos tratando de responder a preguntas como ¿Que grado de calidad tiene esta página? ¿Y la calidad del sitio entero?
Por tanto nos preocupamos de dos cosas que el contenido sea el que se corresponde con la consulta y que el emisor de la información disponga de reputación, autoridad y confianza. El Page Rank es un ejemplo de algoritmo de confianza (Nota: aquí Matt Cutts no está diciendo que el Page Rank tenga en cuenta la reputación, lo que tiene en cuenta el Page Rank ya se ha indicado al principio de este punto).
17. ¿Que es el cloaking? El resultado de mostrar un contenido a los usuarios y otro diferente a los buscadores (a Google Bot en este caso) con ánimo de engaño. Esto supone una violación de nuestras directivas de calidad. Matt comenta el caso de algunas páginas porno que mostraban a los buscadores que el contenido del sitio era de dibujos animados, con lo cual el usuario veía en las hojas de resultados enlaces hacía contenido en principio dibujos animados de Disney, cuando el usuario visitaba la página se encontraba contenido pornográfico. Tu puedes comprobar si la información que se ofrece en el sitio es la misma que ve Google Bot, utilizando la herramienta «explorar como Google bot» que encontrarás a tu disposición en Webmasters tools.
Matt aclara que no es «cloaking» lo que se conoce como «IP delivery» es decir servir los contenidos dependiendo de la ip del usuario, por ejemplo servir a una ip el contenido en el idioma que corresponda atendiendo a dicha IP (cada país tiene un rango de direcciones IP asignadas). Si Google bot viene de estados unidos en ese caso vería la versión en inglés y si los contenidos que vé el usuario son los mismos que los que ve el buscador pues no hay problema. En el caso de adaptar los contenidos a teléfonos móviles es el mismo caso, no se considera cloaking en absoluto. Es normal que se tengan que adaptar los contenidos en estos casos. Los Smartphones cada vez tienen más capacidad para interactuar con los sitios webs de manera similar a los navegadores de escritorio pero es más cómodo por ejemplo ofrecer formularios de autenticación a pantalla completa en tu smartphone que no tener que hacer zoom para poder usarlos.
18. ¿Que papel juega DMOZ en los rankings?
Antes de empezar a pensar si un sitio está número uno porque está en DMOZ. Matt recuerda el operador link: que muestra los links de retroceso (o una submuestra) del dominio consultado. Porque puede pasar que ese sitio reciban más links de sitios de autoridad, no sólo DMOZ. Pero hablemos de DMOZ (Nota de la wikipedia: El Open Directory Project (ODP), también conocido como DMoz por directory.mozilla.org su nombre de dominio original) es un proyecto colaborativo multilingüe, en el que editores voluntarios listan y categorizan enlaces a páginas web.) Reconocemos que hemos empezado a dar pasos para no tenerlo en cuenta, si bien su influencia puede seguir siendo vigente en algunos países de Asia. En la actualidad recurrimos a DMOZ si siguiendo los vínculos de retroceso llegamos a una página y no podemos rastrearla y encontramos información de dicha página en DMOZ. Actualmente consideramos un enlace proveniente de DMOZ con el valor de un enlace cualquiera.
19. ¿Importa la ortografía y la gramática a la hora de evaluar el contenido y la calidad de un sitio?
Matt Cuts aclara que la ortografía y la gramática no es uno de los más de 22 factores que se tienen en cuenta para el posicionamiento. Aunque dice que normalmente los sitios con buen ranking suelen tener contenidos correctos gramatical y ortográficamente. Esto es debido a que se mejora la experiencia del usuario (nota mía: de esta manera es más fácil que confíen en tus contenidos y los enlacen, esto a la postre significa posicionamiento).
20. ¿Si obtengo enlaces de una URL con o sin «/» mi Pagerank se divide?
A ver más claro ¿Hay alguna diferencia entre conseguir un vínculo de retroceso que apunta a www.website.com contra www.website.com/? Matt dice que Google hace un buen trabajo de url’s canónicas y que normalmente detecta ambas urls como la misma página y que por tanto el pagerank no se divide. Otra cosa es el caso de que se alcance una página por www.website.com y website.com es decir con y sin www. En este caso puede pensarse que ambas son diferentes y esto es un problema a resolver. (Nota: cuando hago auditorias es sorprendente la cantidad de ocasiones en las que esto se pasa o bien se hace mal).
21. ¿Cómo determina Google la fuente canónica de una parte del contenido? Es decir como determina el contenido original En principio por marcas de tiempo, comenta Matt que si se indexa un contenido en un sitio y dos años después aparece en otro lado, se presume que el contenido original es el del primero. Por otro lado aquí interviene el Pagerank, comenta que si dos sitios muestran el mismo contenido y si uno de ellos tiene un buen Pagerank y el otro no lo tiene o bien es un sitio de reciente creación, es más probable que aparezca primero el de Pagerank más alto.
También se puede utilizar el marcado de autor (rel=»author») y decir «eh» que yo escribí esto. Por otro lado están los sitios que realizan Scrapping, esto es que toman contenidos de manera parcial de aquí y de allá. (Nota mía: bueno he de decir sobre esto que es relativo, si tomas una idea de otro pero la mejoras y aportas tu visión de las cosas eso es bueno, por scrapping debemos entender el mero cortar y pegar de aquí y de allá y en nada de tiempo tienes un artículo. No es mi caso, te aseguro que me tomo mi tiempo para leer y documentar mis artículos de manera que resulten útiles). Si un sitio normalmente realiza Scrapping y otro normalmente aporta contenido original, si encontramos el mismo contenido en los dos sitios, solemos primar al sitio que aporta contenido original. Pero y con esto finaliza Matt Cutts, la web se actualiza a cada instante y es infinita, no siempre es posible determinar quien lanzó el contenido original y quien la copia.
22. ¿Google trata el .co como un TLD (Top level Domain)?
«.co» es un dominio de pais, en este caso el de Colombia como lo es el «.es» en España. El caso es que Google utiliza este dominio en su servicio de acortador de enlaces g.co La respuesta es que en efecto debido a que personas de todo el mundo utilizan esta extensión, no tratan esta extensión como un dominio específico de Colombia (nota: pues esto no me parece honorable). Dice que en cierto modo Colombia ha ido vendiendo esos dominios por todo el mundo, pero que en última instancia se puede usar Google Webmasters tools para indicar la orientación geográfica de un dominio «.co» en particular.
23. ¿Cómo puedo recibir una notificación cuando mi nombre se menciona en la web? ¿ y además de esto como puedo ser reconocido como el creador de mi contenido?
Bueno esta pregunta quizás no debiera haberla incluido por obvia, la primera parte Matt alude al servicio de Google Alerts que precisamente tiene esta función el notificarte cuando en alguna parte se menciona el texto objeto de la alerta. La segunda parte alude al tag rel=»author» que ya hemos comentado antes.
24. ¿Cómo podemos los que tenemos un buen sitio y no hacemos SEO posicionar bien? Mejorando el contenido todo lo posible (sería el resumen …)
25. ¿Puede mi ranking resentirse si utilizo https en lugar de http?
Bueno https en principio ralentiza la carga de la página a causa del cifrado de la información. (Nota mía: la s de http indica http seguro, se cifra la información entre el cliente y el servidor de forma que un tercero no puede obtener información escuchando la red ya sea capturando paquetes u otros medios). Matt Cutts dice que esto es así porque no se configura adecuadamente, de hecho comenta que es una buena idea cambiar a https. Vuelve a indicar que la lentitud afecta a una de cada 100 búsquedas lo que afecta a uno de 1000 sitios. Por otro lado indica que Google está todavía tratando de mejorar la velocidad de sus páginas bajo https … en fin.
26. ¿El contenido traducido provocar un problema de contenido duplicado?
La respuesta simple es No. El contenido en un idioma es lógicamente diferente al de otro idioma. Pero si lo que has hecho es tomar contenido de un idioma, usar Google Translate y utilizar ese contenido autogenerado en tu sitio web, entonces sí. (Nota mía: Si no puedes mejorar el original dando valor añadido tu contenido no sirve de nada … no copies pues). Matt aconseja traducciones profesionales y por nativos.
27. ¿Cuál es la densidad de palabras clave ideal de una página?
Esta es una de esas veces en las que Matt no contesta la pregunta, no da ningún dato, sencillamente y por resumir el vídeo indicar que hay que escribir de modo natural y que la repetición en exceso es una técnica penalizable (keyword stuffing).
28. ¿Google va a implementar la búsqueda con expresiones regulares?
Matt comenta que la cantidad de gente que podría utilizarla podría calificarse de nula. Que se necesita una gran espacio de indexación y una gran infraestructura para implementarla y debido al escaso número de usuarios que la usarían no vale la pena realizar ese desarrollo.
29. ¿Cómo puedo identificar las causas de una caída de PageRank?
Resumo lo que dice por puntos:
- Si sólo un sitio o varios sitios con muy buena reputación te enlazaban y han dejado de hacerlo eso puede suponer por si sólo una caída de Pagerank.
- Servir la misma página con www y sin www.
- Problemas de canonización.
- Venta de enlaces si se descubre
Live Q & A 21 de septiembre 2011
Este es un vídeo extenso donde no toda la información es útil así que voy a comentar lo más interesante y por si quieres comprobarlo iré introduciendo los minutos donde puedes ir directo a la información (en inglés). Seguimos pues con los consejos.
30. Solicitudes de reconsideración (6.51): Ahora cuando realizas una solicitud de reconsideración en la respuesta te dicen si ha habido acción manual en la penalización.
31. Afectan los +1’s a los rankigs de búsqueda (8.45): No contesta la pregunta, dicen que todavía están experimentando y que no quieren precipitarse en como usar los resultados que proporciona este botón, pero que algún uso harán en el futuro de dicha información. (Nota mía: pues seguiremos con las orejas afiladas pues). Lo que si dice en otro momento es que se muestra más información si tienes un pérfil asociado en Google+ en las hojas de resultados de Google si se consulta tu nombre (minuto 14:10).
32. ¿Alguna vez contarán las palabras clave negativas en los metadatos (9.38): observación; el término al que aluden es «negative meta keywords» puede inducir a entender a las palabras claves negativas que se utilizaban antes en el metadato keywords cuyo uso era interesante para mejorar las búsquedas ante aquellas palabras que siendo la misma tenían significados muy diferentes, o bién sencillamente porque no te interesaba que te encontrasen por una palabra clave en concreto, pero ahora Google no utiliza el metadato keyword para nada, de hecho hay un vídeo de Matt Cutts afirmando esto. Esta pregunta se refiere a si hay alguna manera de impedir que salgan resultados de tu sitio ante una palabra clave cualquiera. Por ejemplo a mí no me gustaría que alguien pusiera «Consultor Feo» saliera mi web, si bien sale www.consultor-seo.es, me gustaría salir como «Consultor Guapo» pero taller SEO (tallerseo.com) es el que sale si realizas esta búsqueda, para Google es el más guapo!. Matt Cutts dice que en principio no hay nada por ahora que permita no aparecer ante determinadas palabras y que tal vez podría ser una idea para el 2012.
33. ¿La edad de las páginas de dominio influye en el posicionamiento? (17.33) Matt comenta que se necesita cierta frescura en el contenido, recordar que Google ha introducido el factor actualidad recientemente para favorecer el contenido de reciente publicación. Comenta que la edad del dominio parece más importante que de lo que es realmente.
34. Google Panda (18:46). Comenta Panda no se aplica para los idiomas Chino, Japonés y Coreano. Cosas que tenemos que pensar que ahora pueden tenerse en cuenta, pues el número de anuncios en la página, ¿Desplazan estos el protagonismo del contenido principal? Aunque dice que esto de los anuncios no es uno de los factores de Panda, y que no olvidemos que siempre debemos pensar en mejorar la experiencia del usuario que nos visita.
35. ¿Cuál es el valor recomendado de prioridad que se puede presentar en el archivo XML que subimos como mapa del sitio (sitemap.xml)? (21:42) Dicen que si todo se marca con prioridad alta lo más seguro es que no se tome en serio ahora bien si predomina la prioridad normal y de vez en cuando algo se marca con prioridad alta tal vez tenga más peso. Sobre esto añade un consejo y es que si tienes un blog que suele enviar pings para notificar actualizaciones, es buena cosa que hagas ping a blogsearch.google.com.
36. Google se reserva el uso del metadato description (24:33): Si la consulta no tiene mucho que ver con el contenido de la meta descripción de tu página probablemente se muestre otro contenido de tu página que tenga más relación con dicha consulta.
37. Declarar canónical ayuda a mejorar el ranking de una página (25:15): es más interesante indexar una url que no 15 con casi el mismo contenido, de este modo se concentra más los enlaces y se favorece el Pr de la página y por ende el posicionamiento.
38. Deben los comercios electrónicos usar (rel=»autor») (26:46): el marcado de rel=»author» es independiente del tipo de website donde esté contenido. El uso de la semántica es buena cosa para establecer relaciones (XFN), en este caso para indicar la presencia sobre un nuevo autor en la materia que aunque provenga de un pequeño blog, si el contenido es bueno con el tiempo puede lograr una variación de los resultados de búsqueda
39. ¿Cuando vamos a actualizar el Page Rank de nuevo? (33:03): cada tres o cuatro meses.
40. ¿Y acerca de los nuevos dominios de nivel superior «TLD? (36:31): Se habla por ejemplo del dominio XXX. Matt comenta que google lo rastreará igual y mostrará los mejores resultados con independencia del tipo de dominio considerado
41. ¿Identifica Google la redirección automática hecha con Javascript? (38:48) NO en estos momentos Google no puede detectarla y sabemos que algunos Spammers Rusos utilizan esta técnica, Google (supongo que se refiere al algoritmo) es cada vez más inteligente y seguro que podremos detectar el uso de esta técnica.
42. No bloquear los CSS y los JS (39:14): Mat comenta que están desarrollando cosas como mostrar imágenes en los resultados de búsquedas y cosas de este estilo y que el bloqueo de los CSS y JS puede dificultar esto.
Bueno esto ha sido todo por ahora espero que os sirva.
Atentamente
Miguel Valero
Analista Seo y desarrollador Web en Valencia
Excelente información, a trabajar duro se ha dicho, hay muchos cambios buenos que tenemos que tener en cuenta a la hora del posicionamiento, y como siempre el contenido sigue siendo el rey. Saludos y exitos.
Hola Miguel:
En mi caso tengo una web en varios idiomas, y estoy interesado en comprar dominios para los distintos países. Por ejemplo: ahora ya tengo .es y quiero .br y .us
¿Me penalizará Panda si redirecciono todo el tráfico de .br a .es y de .us a .es (cada una a su correspondiente sección según el idioma)?
Además: ¿sería mejor la opción de crear la misma web, pero cada una con su idioma correctamente traducido, en los distintos dominios raíz: una web con hosting propio en .br ; otra en .us …).
Gracias de antemano,
Juanjo
Juanjo hay novedades te remito a un post donde ya he tratado esto. No se considera contenido duplicado, incluso si se trata de diversas variedades del mismo idioma ya ves en el post que hay soluciones. Echa un vistazo y si tienes dudas tratamos el tema de las redirecciones
Muchas gracias por tu recopilación, vaya trabajo que te has currado.
Muchas gracias Fernando por pasarte por este blog, sigo tus publicaciones desde hace tiempo, me pareces una persona de referencia. Saludos!!
Excelente información,
Gracias!