una tutorial scraping paquete pagina page hacer extraer español datos con como r web-scraping

tutorial - ¿Cómo puedo usar R(paquetes de Rcurl/XML?!) Para raspar esta página web.



scraping a web page using r (3)

Es un problema interesante y estoy de acuerdo en que R es genial, pero de alguna manera encuentro que R es un poco engorroso a este respecto. Parece que prefiero obtener los datos en formato de texto plano intermedio primero para poder verificar que los datos sean correctos en cada paso ... Si los datos están listos en su forma final o para cargar sus datos en alguna parte RCurl es muy útil.

Lo más simple en mi opinión sería (en linux / unix / mac / o en cygwin) simplemente duplicar todo el sitio http://gtrnadb.ucsc.edu/ (usando wget) y tomar los archivos con el nombre / -structs.html, sed o ignore los datos que desea y formatéelos para leer en R.

Estoy seguro de que también habría muchas otras formas.

Tengo un desafío de raspado web (algo complejo) que deseo lograr y que me encantaría en alguna dirección (al nivel que quieras compartir):

Me gustaría revisar todas las "páginas de especies" presentes en este enlace:

http://gtrnadb.ucsc.edu/

Entonces para cada uno de ellos iré a:

  1. El enlace de la página de especies (por ejemplo: http://gtrnadb.ucsc.edu/Aero_pern/ )
  2. Y luego al enlace de la página "Estructuras secundarias" (por ejemplo: http://gtrnadb.ucsc.edu/Aero_pern/Aero_pern-structs.html )

Dentro de ese enlace deseo eliminar los datos en la página para que tenga una larga lista que contenga esta información (por ejemplo):

chr.trna3 (1-77) Length: 77 bp Type: Ala Anticodon: CGC at 35-37 (35-37) Score: 93.45 Seq: GGGCCGGTAGCTCAGCCtGGAAGAGCGCCGCCCTCGCACGGCGGAGGcCCCGGGTTCAAATCCCGGCCGGTCCACCA Str: >>>>>>>..>>>>.........<<<<.>>>>>.......<<<<<.....>>>>>.......<<<<<<<<<<<<....

Donde cada línea tendrá su propia lista (dentro de la lista para cada "trna" dentro de la lista para cada animal)

Recuerdo haber encontrado los paquetes Rcurl y XML (en R) que pueden permitir esa tarea. Pero no sé cómo usarlos. Entonces, lo que me gustaría tener es: 1. Alguna sugerencia sobre cómo construir dicho código. 2. Y recomendación de cómo aprender el conocimiento necesario para realizar dicha tarea.

Gracias por cualquier ayuda,

Tal


Lo intenté con Mozenda ( http://www.mozenda.com ). Después de aproximadamente 10 minutos y tuve un agente que podría raspar los datos como usted describe. Es posible que pueda obtener todos estos datos solo con su versión de prueba gratuita. La codificación es divertida, si tiene tiempo, pero parece que ya tiene una solución codificada para usted. Buen trabajo, Drew.


Tal,

Podría usar R y el paquete XML para hacer esto, pero (maldición) es un HTML mal formado que está tratando de analizar. De hecho, en la mayoría de los casos, querrá utilizar la función readHTMLTable() , que se trata en este hilo anterior .

Dado este feo HTML, sin embargo, tendremos que usar el paquete RCurl para extraer el HTML sin procesar y crear algunas funciones personalizadas para analizarlo. Este problema tiene dos componentes:

  1. Obtenga todas las URLS del genoma de la página web básica ( http://gtrnadb.ucsc.edu/ ) usando la función getURLContent() en el paquete RCurl y algo de magia regex :-)
  2. Luego, tome esa lista de URL y elimine los datos que está buscando y luego data.frame en un data.frame .

Entonces, aquí va ...

library(RCurl) ### 1) First task is to get all of the web links we will need ## base_url<-"http://gtrnadb.ucsc.edu/" base_html<-getURLContent(base_url)[[1]] links<-strsplit(base_html,"a href=")[[1]] get_data_url<-function(s) { u_split1<-strsplit(s,"/")[[1]][1] u_split2<-strsplit(u_split1,''//"'')[[1]][2] ifelse(grep("[[:upper:]]",u_split2)==1 & length(strsplit(u_split2,"#")[[1]])<2,return(u_split2),return(NA)) } # Extract only those element that are relevant genomes<-unlist(lapply(links,get_data_url)) genomes<-genomes[which(is.na(genomes)==FALSE)] ### 2) Now, scrape the genome data from all of those URLS ### # This requires two complementary functions that are designed specifically # for the UCSC website. The first parses the data from a -structs.html page # and the second collects that data in to a multi-dimensional list parse_genomes<-function(g) { g_split1<-strsplit(g,"/n")[[1]] g_split1<-g_split1[2:5] # Pull all of the data and stick it in a list g_split2<-strsplit(g_split1[1],"/t")[[1]] ID<-g_split2[1] # Sequence ID LEN<-strsplit(g_split2[2],": ")[[1]][2] # Length g_split3<-strsplit(g_split1[2],"/t")[[1]] TYPE<-strsplit(g_split3[1],": ")[[1]][2] # Type AC<-strsplit(g_split3[2],": ")[[1]][2] # Anticodon SEQ<-strsplit(g_split1[3],": ")[[1]][2] # ID STR<-strsplit(g_split1[4],": ")[[1]][2] # String return(c(ID,LEN,TYPE,AC,SEQ,STR)) } # This will be a high dimensional list with all of the data, you can then manipulate as you like get_structs<-function(u) { struct_url<-paste(base_url,u,"/",u,"-structs.html",sep="") raw_data<-getURLContent(struct_url) s_split1<-strsplit(raw_data,"<PRE>")[[1]] all_data<-s_split1[seq(3,length(s_split1))] data_list<-lapply(all_data,parse_genomes) for (d in 1:length(data_list)) {data_list[[d]]<-append(data_list[[d]],u)} return(data_list) } # Collect data, manipulate, and create data frame (with slight cleaning) genomes_list<-lapply(genomes[1:2],get_structs) # Limit to the first two genomes (Bdist & Spurp), a full scrape will take a LONG time genomes_rows<-unlist(genomes_list,recursive=FALSE) # The recursive=FALSE saves a lot of work, now we can just do a straigh forward manipulation genome_data<-t(sapply(genomes_rows,rbind)) colnames(genome_data)<-c("ID","LEN","TYPE","AC","SEQ","STR","NAME") genome_data<-as.data.frame(genome_data) genome_data<-subset(genome_data,ID!="</PRE>") # Some malformed web pages produce bad rows, but we can remove them head(genome_data)

El marco de datos resultante contiene siete columnas relacionadas con cada entrada del genoma: ID, longitud, tipo, secuencia, cadena y nombre. La columna de nombre contiene el genoma base, que fue mi mejor estimación para la organización de datos. Aquí es lo que parece:

head(genome_data) ID LEN TYPE AC SEQ 1 Scaffold17302.trna1 (1426-1498) 73 bp Ala AGC at 34-36 (1459-1461) AGGGAGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACCGGGATCGATGCCCGGGTTTTCCA 2 Scaffold20851.trna5 (43038-43110) 73 bp Ala AGC at 34-36 (43071-43073) AGGGAGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACCGGGATCGATGCCCGGGTTCTCCA 3 Scaffold20851.trna8 (45975-46047) 73 bp Ala AGC at 34-36 (46008-46010) TGGGAGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACCGGGATCGATGCCCGGGTTCTCCA 4 Scaffold17302.trna2 (2514-2586) 73 bp Ala AGC at 34-36 (2547-2549) GGGGAGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACAGGGATCGATGCCCGGGTTCTCCA 5 Scaffold51754.trna5 (253637-253565) 73 bp Ala AGC at 34-36 (253604-253602) CGGGGGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACCGGGATCGATGCCCGGGTCCTCCA 6 Scaffold17302.trna4 (6027-6099) 73 bp Ala AGC at 34-36 (6060-6062) GGGGAGCTAGCTCAGATGGTAGAGCGCTCGCTTAGCATGCGAGAGGtACCGGGATCGATGCCCGAGTTCTCCA STR NAME 1 .>>>>>>..>>>>........<<<<.>>>>>.......<<<<<.....>>>>>.......<<<<<<<<<<<.. Spurp 2 .>>>>>>..>>>>........<<<<.>>>>>.......<<<<<.....>>>>>.......<<<<<<<<<<<.. Spurp 3 .>>>>>>..>>>>........<<<<.>>>>>.......<<<<<.....>>>>>.......<<<<<<<<<<<.. Spurp 4 >>>>>>>..>>>>........<<<<.>>>>>.......<<<<<.....>.>>>.......<<<.<<<<<<<<. Spurp 5 .>>>>>>..>>>>........<<<<.>>>>>.......<<<<<.....>>>>>.......<<<<<<<<<<<.. Spurp 6 >>>>>>>..>>>>........<<<<.>>>>>.......<<<<<......>>>>.......<<<<.<<<<<<<. Spurp

Espero que esto ayude, ¡y gracias por el divertido y pequeño desafío de la tarde del domingo!