wikipedia api
¿Cómo usar la API de wikipedia si existe? (8)
A continuación se muestra un ejemplo de trabajo que imprime la primera oración de la página Wikipedias New York Yankees en la consola de su navegador web:
<!DOCTYPE html>
</html>
<head>
<script src="https://ajax.googleapis.com/ajax/libs/jquery/2.1.3/jquery.min.js"></script>
</head>
<body>
<script>
var wikiUrl = "http://en.wikipedia.org/w/api.php?action=opensearch&search=New_York_Yankees&format=json&callback=wikiCallbackFunction";
$.ajax(wikiUrl, {
dataType: "jsonp",
success: function( wikiResponse ) {
console.log( wikiResponse[2][0] );
}
});
</script>
</body>
</html>
http://en.wikipedia.org/w/api.php
es el punto final para su url. Puede ver cómo estructurar su url visitando: http://www.mediawiki.org/wiki/API:Main_page
Usé jsonp como dataType para permitir solicitudes entre sitios. Puede encontrar más aquí: http://www.mediawiki.org/wiki/API:Cross-site_requests
Por último, pero no menos importante, asegúrese de hacer referencia a la API Jquery.ajax (): http://api.jquery.com/jquery.ajax/
Estoy tratando de averiguar si hay una API api (¿Pienso que está relacionada con MediaWiki?).
Si es así, me gustaría saber cómo le diría a wikipedia que me diera un artículo sobre los yanquis de Nueva York, por ejemplo.
¿Cuál sería la URL REST para este ejemplo?
Todos los documentos sobre este tema parecen bastante complicados.
Eche un vistazo a ApiSandbox en https://en.wikipedia.org/wiki/Special:ApiSandbox Es una interfaz web para consultar fácilmente la API . Unos pocos clics le crearán la URL y le mostrarán el resultado de la API.
Esa es una extensión para MediaWiki, habilitada en todos los idiomas de Wikipedia. https://www.mediawiki.org/wiki/Extension:ApiSandbox
Las respuestas aquí me ayudaron a llegar a una solución, pero descubrí más información en el proceso que puede ser ventajosa para otros que encuentran esta pregunta. Me imagino que la mayoría de la gente simplemente quiere usar la API para obtener contenido rápidamente de la página. Así es como estoy haciendo eso:
Usando Revisiones:
//working url:
http://en.wikipedia.org/w/api.php?action=query&prop=revisions&titles=Threadless&rvprop=content&format=json&rvsection=0&rvparse=1
//Explanation
//Base Url:
http://en.wikipedia.org/w/api.php?action=query
//tell it to get revisions:
&prop=revisions
//define page titles separated by pipes. In the example i used t-shirt company threadless
&titles=whatever|the|title|is
//specify that we want the page content
&rvprop=content
//I want my data in JSON, default is XML
&format=json
//lets you choose which section you want. 0 is the first one.
&rvsection=0
//tell wikipedia to parse it into html for you
&rvparse=1
Usar extractos (mejor / más fácil para lo que estoy haciendo)
//working url:
http://en.wikipedia.org/w/api.php?action=query&prop=extracts&titles=Threadless&format=json&exintro=1
//only explaining new parameters
//instead of revisions, we''ll set prop=extracts
&prop=extracts
//if we just want the intro, we can use exintro. Otherwise it shows all sections
&exintro=1
Toda la información requiere leer la documentación de API como se mencionó, pero espero que estos ejemplos ayuden a la mayoría de las personas que vienen aquí para una solución rápida.
Realmente necesitas pasar un tiempo leyendo la documentación, ya que me tomó un momento mirar y hacer clic en el enlace para solucionarlo. : / pero por simpatía te proporcionaré un enlace que quizás puedas aprender a utilizar.
Esa es la variable que buscará obtener. Su mejor apuesta es conocer la página que va a buscar y reemplazar la parte del enlace de Wikipedia en el título, es decir:
http://en.wikipedia.org/wiki/New_York_Yankees [Toma la parte después de la wiki /]
->
[Colóquelo en la variable de título de la solicitud GET.
La URL anterior puede ser útil para ajustar las diferentes secciones que desea o no desea. Así que lee la documentación :)
Si desea extraer datos estructurados de Wikipedia, puede considerar el uso de DbPedia http://dbpedia.org/
Proporciona medios para consultar datos usando los criterios dados usando SPARQL y devuelve datos de plantillas de infobox de Wikipedia analizadas
Hay algunas bibliotecas SPARQL disponibles para múltiples plataformas para facilitar las consultas
Si desea extraer datos estructurados de Wikipedia, también puede probar http://www.wikidata.org/wiki/Wikidata:Main_Page
Ver http://www.mediawiki.org/wiki/API
Específicamente, para la Wikipedia en inglés, la API se encuentra en http://en.wikipedia.org/w/api.php
Wiki Parser convierte los volcados de Wikipedia en XML. También es bastante rápido. A continuación, puede utilizar cualquier herramienta de procesamiento XML para manejar los datos de los artículos de Wikipedia analizados.