una sitio pagina los indexar como buscadores javascript html gwt dynamic search-engine

sitio - ¿Los motores de búsqueda pueden indexar páginas web generadas con JavaScript?



como indexar una pagina web en los buscadores (8)

Sí, Google (y probablemente Bing) indexará HTML generado dinámicamente. Vea más detalles aquí: http://searchengineland.com/tested-googlebot-crawls-javascript-heres-learned-220157 .

¿Los motores de búsqueda como el índice de Google pueden generar páginas web con JavaScript? Cuando haces clic derecho y seleccionas ver fuente en una página generada por JavaScript (por ejemplo, usando GWT), no ves el HTML generado dinámicamente. Supongo que si un motor de búsqueda tampoco puede ver el código HTML generado, entonces no hay mucho que indexar, ¿verdad?


si un motor de búsqueda tampoco puede ver el HTML generado, entonces no hay mucho que indexar

Eso lo resume todo. Técnicamente, nada impide que un motor de búsqueda implemente un motor de JavaScript para su bot / spider, pero simplemente no se hace normalmente. Podrían, pero no lo harán.

Por otro lado, puedes oler el agente de usuario de un motor de búsqueda y mostrarle algo legible. Pero a los motores de búsqueda generalmente no les gusta esto y lo penalizarán severamente si detectan diferencias con lo que envía a un navegador normal.


Google está trabajando en la ejecución de Javascript simple para descubrir cierto contenido, pero ciertamente no ejecuta scripts completos. Si le preocupa el SEO, debe considerar proporcionar versiones estáticas de las páginas.


Una buena regla general: si puede verla en Lynx , puede indexarla Google.

Lynx es una excelente prueba porque también te da una idea de cómo los lectores de pantalla para ciegos verán tu página también.


Su sospecha es correcta: no se puede confiar en que el contenido generado por JS sea visible para los robots de búsqueda. Tampoco puede ser visto por nadie con JS desactivado, y la última vez agregué algunas pruebas a un sitio en el que estaba trabajando (que era un sitio grande, de público principal, con cientos de miles de visitantes únicos por mes) , aproximadamente el 10% de los usuarios no ejecutaban Javascript de ninguna forma. Eso incluye bots de búsqueda, navegadores de PC con JS deshabilitado, muchos móviles, personas ciegas que utilizan lectores de pantalla ... etc., etc.

Esta es la razón por la cual el contenido generado a través de JS (sin opción de reserva) es una Idea realmente mala.

Volver a lo básico. En primer lugar, cree su sitio usando HTML escueto (X) , siguiendo los principios de REST (al menos hasta el punto de requerir solicitudes POST para cambios de estado). Marcado semántico simple, y olvídate de CSS y Javascript.

El primer paso es hacerlo bien, y que todo su sitio (o todo lo que tenga sentido) funcione bien de esta manera para los robots de búsqueda y los agentes de usuario tipo Lynx.

A continuación, agregue una capa visual : CSS / graphics / media para pulir visualmente, pero no cambie significativamente su marcado HTML original (X); Permitir que el sitio original de solo texto permanezca intacto y en funcionamiento. ¡Mantenga limpio su marcado!

El tercero es agregar una capa de comportamiento : Javascript (Ajax). Ofrezca cosas que hagan que la experiencia sea más rápida, fluida y agradable para usuarios / navegadores con JS compatible con Ajax ... pero solo para esos usuarios. Los usuarios sin Javascript son bienvenidos; y también lo son los robots de búsqueda, los discapacitados visuales, muchos móviles, etc.

Esto se llama mejora progresiva en círculos de diseño web. Hágalo de esta manera y su sitio funciona, de alguna forma razonable, para todos.


Hay algunas maneras de manejar esto en GWT, esta es una gran discusión sobre el tema. Parece que la mejor opción es proporcionar contenido SEO estático cuando el usuario-agente es un bot, siempre y cuando el contenido SEO sea idéntico al que se ofrece a través de la ruta GWT. Esto puede ser mucho trabajo, pero si realmente quieres una aplicación GWT completamente enriquecida que esté optimizada para los motores de búsqueda, puede valer la pena.


Eche un vistazo al Manifiesto de interfaz de página única de cómo una aplicación SPI (intensiva en AJAX) puede ser indexada por Google y otros rastreadores. Qué tan difícil es depende del marco web utilizado.


Incluso si ejecutan el JavaScript básico MAYORMENTE LOS SITIOS WEB USAN LIBRARIES Y FRAMEWORKS , no creo que un robot como Googlebot o cualquier otra araña también cargue archivos Js vinculados con la página web y sin cargarlos el código JS producirá errores.

/*Correct Me If I am wrong*/