api mediawiki wikipedia wikipedia-api mediawiki-api

wikipedia api



¿Cómo usar la API de wikipedia si existe? (8)

A continuación se muestra un ejemplo de trabajo que imprime la primera oración de la página Wikipedias New York Yankees en la consola de su navegador web:

<!DOCTYPE html> </html> <head> <script src="https://ajax.googleapis.com/ajax/libs/jquery/2.1.3/jquery.min.js"></script> </head> <body> <script> var wikiUrl = "http://en.wikipedia.org/w/api.php?action=opensearch&search=New_York_Yankees&format=json&callback=wikiCallbackFunction"; $.ajax(wikiUrl, { dataType: "jsonp", success: function( wikiResponse ) { console.log( wikiResponse[2][0] ); } }); </script> </body> </html>

http://en.wikipedia.org/w/api.php es el punto final para su url. Puede ver cómo estructurar su url visitando: http://www.mediawiki.org/wiki/API:Main_page

Usé jsonp como dataType para permitir solicitudes entre sitios. Puede encontrar más aquí: http://www.mediawiki.org/wiki/API:Cross-site_requests

Por último, pero no menos importante, asegúrese de hacer referencia a la API Jquery.ajax (): http://api.jquery.com/jquery.ajax/

Estoy tratando de averiguar si hay una API api (¿Pienso que está relacionada con MediaWiki?).

Si es así, me gustaría saber cómo le diría a wikipedia que me diera un artículo sobre los yanquis de Nueva York, por ejemplo.

¿Cuál sería la URL REST para este ejemplo?

Todos los documentos sobre este tema parecen bastante complicados.



Las respuestas aquí me ayudaron a llegar a una solución, pero descubrí más información en el proceso que puede ser ventajosa para otros que encuentran esta pregunta. Me imagino que la mayoría de la gente simplemente quiere usar la API para obtener contenido rápidamente de la página. Así es como estoy haciendo eso:

Usando Revisiones:

//working url: http://en.wikipedia.org/w/api.php?action=query&prop=revisions&titles=Threadless&rvprop=content&format=json&rvsection=0&rvparse=1 //Explanation //Base Url: http://en.wikipedia.org/w/api.php?action=query //tell it to get revisions: &prop=revisions //define page titles separated by pipes. In the example i used t-shirt company threadless &titles=whatever|the|title|is //specify that we want the page content &rvprop=content //I want my data in JSON, default is XML &format=json //lets you choose which section you want. 0 is the first one. &rvsection=0 //tell wikipedia to parse it into html for you &rvparse=1

Usar extractos (mejor / más fácil para lo que estoy haciendo)

//working url: http://en.wikipedia.org/w/api.php?action=query&prop=extracts&titles=Threadless&format=json&exintro=1 //only explaining new parameters //instead of revisions, we''ll set prop=extracts &prop=extracts //if we just want the intro, we can use exintro. Otherwise it shows all sections &exintro=1

Toda la información requiere leer la documentación de API como se mencionó, pero espero que estos ejemplos ayuden a la mayoría de las personas que vienen aquí para una solución rápida.


Realmente necesitas pasar un tiempo leyendo la documentación, ya que me tomó un momento mirar y hacer clic en el enlace para solucionarlo. : / pero por simpatía te proporcionaré un enlace que quizás puedas aprender a utilizar.

http://en.wikipedia.org/w/api.php?action=query&prop=revisions&titles=New_York_Yankees&rvprop=timestamp|user|comment|content

Esa es la variable que buscará obtener. Su mejor apuesta es conocer la página que va a buscar y reemplazar la parte del enlace de Wikipedia en el título, es decir:

http://en.wikipedia.org/wiki/New_York_Yankees [Toma la parte después de la wiki /]

->

http://en.wikipedia.org/w/api.php?action=query&prop=revisions&titles=New_York_Yankees&rvprop=timestamp|user|comment|content

[Colóquelo en la variable de título de la solicitud GET.

La URL anterior puede ser útil para ajustar las diferentes secciones que desea o no desea. Así que lee la documentación :)


Si desea extraer datos estructurados de Wikipedia, puede considerar el uso de DbPedia http://dbpedia.org/

Proporciona medios para consultar datos usando los criterios dados usando SPARQL y devuelve datos de plantillas de infobox de Wikipedia analizadas

Hay algunas bibliotecas SPARQL disponibles para múltiples plataformas para facilitar las consultas




Wiki Parser convierte los volcados de Wikipedia en XML. También es bastante rápido. A continuación, puede utilizar cualquier herramienta de procesamiento XML para manejar los datos de los artículos de Wikipedia analizados.