www tutorial que org elastic elasticsearch

elasticsearch - tutorial - que es kibana



Cómo mover datos de Elasticsearch de un servidor a otro (9)

Intenté en ubuntu para mover datos de ELK 2.4.3 a ELK 5.1.1

Los siguientes son los pasos.

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

en el directorio de inicio goto $ cd node_modules/elasticdump/

ejecutar el comando

Si necesita autenticación básica http, puede usarla así:

--input=http://name:password@localhost:9200/my_index

Copie un índice de producción:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index" --type=data

¿Cómo muevo los datos de Elasticsearch de un servidor a otro?

Tengo el servidor A que ejecuta Elasticsearch 1.1.1 en un nodo local con múltiples índices. Me gustaría copiar esos datos al servidor B que ejecuta Elasticsearch 1.3.4

Procedimiento hasta ahora

  1. Apague ES en ambos servidores y
  2. scp todos los datos al directorio de datos correcto en el nuevo servidor. (los datos parecen estar ubicados en / var / lib / elasticsearch / en mis cuadros de debian)
  3. cambiar permisos y propiedad a elasticsearch: elasticsearch
  4. iniciar el nuevo servidor ES

Cuando miro el clúster con el complemento de cabecera ES, no aparecen índices.

Parece que los datos no están cargados. ¿Me estoy perdiendo de algo?


La respuesta seleccionada hace que suene un poco más complejo de lo que es, lo siguiente es lo que necesita (instale npm primero en su sistema).

npm install -g elasticdump elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Puede omitir el primer comando elasticdump para copias posteriores si las asignaciones permanecen constantes.

Acabo de hacer una migración de AWS a Qbox.io con lo anterior sin ningún problema.

Más detalles en:

https://www.npmjs.com/package/elasticdump

Página de ayuda (a partir de febrero de 2016) incluida para completar:

elasticdump: Import and export tools for elasticsearch Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS] --input Source location (required) --input-index Source index and type (default: all, example: index/type) --output Destination location (required) --output-index Destination index and type (default: all, example: index/type) --limit How many objects to move in bulk per operation limit is approximate for file streams (default: 100) --debug Display the elasticsearch commands being used (default: false) --type What are we exporting? (default: data, options: [data, mapping]) --delete Delete documents one-by-one from the input as they are moved. Will not delete the source index (default: false) --searchBody Preform a partial extract based on search results (when ES is the input, (default: ''{"query": { "match_all": {} } }'')) --sourceOnly Output only the json contained within the document _source Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}} sourceOnly: {SOURCE} (default: false) --all Load/store documents from ALL indexes (default: false) --bulk Leverage elasticsearch Bulk API when writing documents (default: false) --ignore-errors Will continue the read/write loop on write error (default: false) --scrollTime Time the nodes will hold the requested search in order. (default: 10m) --maxSockets How many simultaneous HTTP requests can we process make? (default: 5 [node <= v0.10.x] / Infinity [node >= v0.11.x] ) --bulk-mode The mode can be index, delete or update. ''index'': Add or replace documents on the destination index. ''delete'': Delete documents on destination index. ''update'': Use ''doc_as_upsert'' option with bulk update API to do partial update. (default: index) --bulk-use-output-index-name Force use of destination index name (the actual output URL) as destination while bulk writing to ES. Allows leveraging Bulk API copying data inside the same elasticsearch instance. (default: false) --timeout Integer containing the number of milliseconds to wait for a request to respond before aborting the request. Passed directly to the request library. If used in bulk writing, it will result in the entire batch not being written. Mostly used when you don''t care too much if you lose some data when importing but rather have speed. --skip Integer containing the number of rows you wish to skip ahead from the input transport. When importing a large index, things can go wrong, be it connectivity, crashes, someone forgetting to `screen`, etc. This allows you to start the dump again from the last known line written (as logged by the `offset` in the output). Please be advised that since no sorting is specified when the dump is initially created, there''s no real way to guarantee that the skipped rows have already been written/parsed. This is more of an option for when you want to get most data as possible in the index without concern for losing some rows in the process, similar to the `timeout` option. --inputTransport Provide a custom js file to us as the input transport --outputTransport Provide a custom js file to us as the output transport --toLog When using a custom outputTransport, should log lines be appended to the output stream? (default: true, except for `$`) --help This page Examples: # Copy an index from production to staging with mappings: elasticdump / --input=http://production.es.com:9200/my_index / --output=http://staging.es.com:9200/my_index / --type=mapping elasticdump / --input=http://production.es.com:9200/my_index / --output=http://staging.es.com:9200/my_index / --type=data # Backup index data to a file: elasticdump / --input=http://production.es.com:9200/my_index / --output=/data/my_index_mapping.json / --type=mapping elasticdump / --input=http://production.es.com:9200/my_index / --output=/data/my_index.json / --type=data # Backup and index to a gzip using stdout: elasticdump / --input=http://production.es.com:9200/my_index / --output=$ / | gzip > /data/my_index.json.gz # Backup ALL indices, then use Bulk API to populate another ES cluster: elasticdump / --all=true / --input=http://production-a.es.com:9200/ / --output=/data/production.json elasticdump / --bulk=true / --input=/data/production.json / --output=http://production-b.es.com:9200/ # Backup the results of a query to a file elasticdump / --input=http://production.es.com:9200/my_index / --output=query.json / --searchBody ''{"query":{"term":{"username": "admin"}}}'' ------------------------------------------------------------------------------ Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`


Puede utilizar la función de snapshot/restore disponible en Elasticsearch para esto. Una vez que haya configurado un almacén de instantáneas basado en el sistema de archivos, puede moverlo entre grupos y restaurarlo en un grupo diferente


Si puede agregar el segundo servidor al clúster, puede hacer esto:

  1. Agregue el servidor B al clúster con el servidor A
  2. Incremento del número de réplicas para índices
  3. ES copiará automáticamente los índices al servidor B
  4. Cerrar servidor A
  5. Disminución del número de réplicas de índices.

Esto solo funcionará si el número de reemplazos es igual al número de nodos.


Si alguien encuentra el mismo problema, cuando intente volcar de elasticsearch <2.0 a> 2.0 debe hacer lo siguiente:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source[''_id'']"


Si simplemente necesita transferir datos de un servidor elasticsearch a otro, también puede usar elasticsearch-document-transfer .

Pasos:

  1. Abra un directorio en su terminal y ejecute
    $ npm install elasticsearch-document-transfer.
  2. Crear un archivo config.js
  3. Agregue los detalles de conexión de ambos servidores config.js en config.js
  4. Establezca los valores apropiados en options.js
  5. Correr en la terminal
    $ node index.js

Siempre he tenido éxito simplemente copiando el directorio índice / carpeta al nuevo servidor y reiniciando. Encontrará la identificación del índice haciendo GET /_cat/indices y la carpeta que coincida con esta identificación se encuentra en data/nodes/0/indices (generalmente dentro de su carpeta de búsqueda GET /_cat/indices menos que la haya movido).


También existe la opción _reindex

De la documentación:

A través de Elasticsearch reindex API, disponible en la versión 5.xy posterior, puede conectar su nueva implementación de Elasticsearch Service de forma remota a su antiguo clúster Elasticsearch. Esto extrae los datos de su clúster anterior y los indexa en el nuevo. La reindexación esencialmente reconstruye el índice desde cero y puede requerir más recursos para ejecutarse.

POST _reindex { "source": { "remote": { "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT", "username": "USER", "password": "PASSWORD" }, "index": "INDEX_NAME", "query": { "match_all": {} } }, "dest": { "index": "INDEX_NAME" } }


Use https://www.npmjs.com/package/elasticdump

1) yum instala epel-release

2) yum install nodejs

3) yum instalar npm

4) npm instalar elasticdump

5) cd node_modules / elasticdump / bin

6)

./elasticdump / --input=http://192.168.1.1:9200/original / --output=http://192.168.1.2:9200/newCopy / --type=data