los servidores de configuración de mongodb no están sincronizados

9

He configurado con 2 fragmentos, con 2 servidores de réplica y 3 servidores de configuración, y 2 mongos. Tengo los siguientes problemas:

1) servidores de configuración mongo fuera de sincronización:

Aug 14 09:46:48 server mongos.27017[10143]: Sun Aug 11 09:46:48.987 [CheckConfigServers] ERROR: config servers not in sync! config servers mongocfg1.testing.com:27000 and mongocfg3.testing.com:27000 differ#012chunks: "d2c08c5f1ee6048e5f6fab30e37a70f0"#011chunks: "7e643e9402ba90567ddc9388c2abdb8a"#012databases: "6f35ec52b536eee608d5bc706a72ec1e"#011databases: "6f35ec52b536eee608d5bc706a72ec1e"

2) Utilizo este documento para sincronizar servidores: http://docs.mongodb.org/manual/tutorial/replace-config-server/ 3) Después de la sincronización, reinicio un servidor mongos y veo esto en los registros:

Thu Aug 15 09:56:05.376 [mongosMain] MongoS version 2.4.4 starting: pid=1575 port=27111 64-bit host=web-inno.innologica.com (--help for usage)
Thu Aug 15 09:56:05.376 [mongosMain] git version: 4ec1fb96702c9d4c57b1e06dd34eb73a16e407d2
Thu Aug 15 09:56:05.376 [mongosMain] build info: Linux ip-10-2-29-40 2.6.21.7-2.ec2.v1.2.fc8xen #1 SMP Fri Nov 20 17:48:28 EST 2009 x86_64 BOOST_LIB_VERSION=1_49
Thu Aug 15 09:56:05.376 [mongosMain] options: { configdb: "mongocfg1.testing.com:27000,mongocfg2.testing.com:27000,mongocfg3.testing.com:27000", keyFile: "/mongo_database/pass.key", port: 27111 }
Thu Aug 15 09:56:05.582 [mongosMain] SyncClusterConnection connecting to [mongocfg1.testing.com:27000]
Thu Aug 15 09:56:05.583 [mongosMain] SyncClusterConnection connecting to [mongocfg2.testing.com:27000]
Thu Aug 15 09:56:05.583 [mongosMain] SyncClusterConnection connecting to [mongocfg3.testing.com:27000]
Thu Aug 15 09:56:05.585 [mongosMain] SyncClusterConnection connecting to [mongocfg1.testing.com:27000]
Thu Aug 15 09:56:05.586 [mongosMain] SyncClusterConnection connecting to [mongocfg2.testing.com:27000]
Thu Aug 15 09:56:05.586 [mongosMain] SyncClusterConnection connecting to [mongocfg3.testing.com:27000]
Thu Aug 15 09:56:07.213 [Balancer] about to contact config servers and shards
Thu Aug 15 09:56:07.213 [websvr] admin web console waiting for connections on port 28111
Thu Aug 15 09:56:07.213 [Balancer] starting new replica set monitor for replica set replica01 with seed of mongo1.testing.com:27020,mongo2.testing.com:27020,mongo3.testing.com:27017
Thu Aug 15 09:56:07.214 [Balancer] successfully connected to seed mongo1.testing.com:27020 for replica set replica01
Thu Aug 15 09:56:07.214 [Balancer] changing hosts to { 0: "mongo1.testing.com:27020", 1: "mongo2.testing.com:27020" } from replica01/
Thu Aug 15 09:56:07.214 [Balancer] trying to add new host mongo1.testing.com:27020 to replica set replica01
Thu Aug 15 09:56:07.215 [Balancer] successfully connected to new host mongo1.testing.com:27020 in replica set replica01
Thu Aug 15 09:56:07.215 [Balancer] trying to add new host mongo2.testing.com:27020 to replica set replica01
Thu Aug 15 09:56:07.215 [Balancer] successfully connected to new host mongo2.testing.com:27020 in replica set replica01
Thu Aug 15 09:56:07.215 [mongosMain] waiting for connections on port 27111
Thu Aug 15 09:56:07.427 [Balancer] Primary for replica set replica01 changed to mongo1.testing.com:27020
Thu Aug 15 09:56:07.429 [Balancer] replica set monitor for replica set replica01 started, address is replica01/mongo1.testing.com:27020,mongo2.testing.com:27020
Thu Aug 15 09:56:07.429 [ReplicaSetMonitorWatcher] starting
Thu Aug 15 09:56:07.430 [Balancer] starting new replica set monitor for replica set replica02 with seed of mongo5.testing.com:27020,mongo6.testing.com:27020
Thu Aug 15 09:56:07.431 [Balancer] successfully connected to seed mongo5.testing.com:27020 for replica set replica02
Thu Aug 15 09:56:07.432 [Balancer] changing hosts to { 0: "mongo5.testing.com:27020", 1: "mongo6.testing.com:27020" } from replica02/
Thu Aug 15 09:56:07.432 [Balancer] trying to add new host mongo5.testing.com:27020 to replica set replica02
Thu Aug 15 09:56:07.432 [Balancer] successfully connected to new host mongo5.testing.com:27020 in replica set replica02
Thu Aug 15 09:56:07.432 [Balancer] trying to add new host mongo6.testing.com:27020 to replica set replica02
Thu Aug 15 09:56:07.433 [Balancer] successfully connected to new host mongo6.testing.com:27020 in replica set replica02
Thu Aug 15 09:56:07.712 [Balancer] Primary for replica set replica02 changed to mongo5.testing.com:27020
Thu Aug 15 09:56:07.714 [Balancer] replica set monitor for replica set replica02 started, address is replica02/mongo5.testing.com:27020,mongo6.testing.com:27020
Thu Aug 15 09:56:07.715 [Balancer] config servers and shards contacted successfully
Thu Aug 15 09:56:07.715 [Balancer] balancer id: web-inno.innologica.com:27111 started at Aug 15 09:56:07
Thu Aug 15 09:56:07.715 [Balancer] SyncClusterConnection connecting to [mongocfg1.testing.com:27000]
Thu Aug 15 09:56:07.716 [Balancer] SyncClusterConnection connecting to [mongocfg2.testing.com:27000]
Thu Aug 15 09:56:24.438 [mongosMain] connection accepted from 127.0.0.1:55303 #1 (1 connection now open)
Thu Aug 15 09:56:24.443 [conn1]  authenticate db: admin { authenticate: 1, nonce: "6cc9a76b79656179", user: "admin", key: "xxxxxxxxxxxxxxxxxxx" }
Thu Aug 15 09:56:26.676 [conn1] creating WriteBackListener for: mongo1.testing.com:27020 serverID: 520c7b87e4a4c3afa569b21a
Thu Aug 15 09:56:26.676 [conn1] creating WriteBackListener for: mongo2.testing.com:27020 serverID: 520c7b87e4a4c3afa569b21a
Thu Aug 15 09:56:26.678 [conn1] creating WriteBackListener for: mongo5.testing.com:27020 serverID: 520c7b87e4a4c3afa569b21a
Thu Aug 15 09:56:26.678 [conn1] creating WriteBackListener for: mongo6.testing.com:27020 serverID: 520c7b87e4a4c3afa569b21a
Thu Aug 15 09:56:26.679 [conn1] SyncClusterConnection connecting to [mongocfg1.testing.com:27000]
Thu Aug 15 09:56:26.679 [conn1] SyncClusterConnection connecting to [mongocfg2.testing.com:27000]
Thu Aug 15 09:56:26.680 [conn1] SyncClusterConnection connecting to [mongocfg3.testing.com:27000]
Thu Aug 15 09:57:33.704 [conn1] warning: inconsistent chunks found when reloading collection.documents, previous version was 8651|7||51b5c7a96b2903a0b3fac106, this should be rare
Thu Aug 15 09:57:33.714 [conn1] warning: ChunkManager loaded an invalid config for collection.documents, trying again
Thu Aug 15 09:57:34.065 [conn1] warning: inconsistent chunks found when reloading collection.documents, previous version was 8651|7||51b5c7a96b2903a0b3fac106, this should be rare
Thu Aug 15 09:57:34.076 [conn1] warning: ChunkManager loaded an invalid config for collection.documents, trying again
Thu Aug 15 09:57:34.491 [conn1] warning: inconsistent chunks found when reloading collection.documents, previous version was 8651|7||51b5c7a96b2903a0b3fac106, this should be rare
Thu Aug 15 09:57:34.503 [conn1] warning: ChunkManager loaded an invalid config for collection.documents, trying again
Thu Aug 15 09:57:34.533 [conn1] Assertion: 13282:Couldn't load a valid config for collection.documents after 3 attempts. Please try again.
0xa82161 0xa46e8b 0xa473cc 0x8b857e 0x93cb52 0x93f329 0x93ff18 0x94311f 0x9740e0 0x991865 0x669887 0xa6e8ce 0x7f4456361851 0x7f445570790d
 /usr/bin/mongos(_ZN5mongo15printStackTraceERSo+0x21) [0xa82161]
 /usr/bin/mongos(_ZN5mongo11msgassertedEiPKc+0x9b) [0xa46e8b]
 /usr/bin/mongos() [0xa473cc]
 /usr/bin/mongos(_ZN5mongo12ChunkManager18loadExistingRangesERKSs+0x24e) [0x8b857e]
 /usr/bin/mongos(_ZN5mongo8DBConfig14CollectionInfo5shardEPNS_12ChunkManagerE+0x52) [0x93cb52]
 /usr/bin/mongos(_ZN5mongo8DBConfig14CollectionInfoC1ERKNS_7BSONObjE+0x149) [0x93f329]
 /usr/bin/mongos(_ZN5mongo8DBConfig5_loadEv+0xa48) [0x93ff18]
 /usr/bin/mongos(_ZN5mongo8DBConfig4loadEv+0x1f) [0x94311f]
 /usr/bin/mongos(_ZN5mongo4Grid11getDBConfigESsbRKSs+0x480) [0x9740e0]
 /usr/bin/mongos(_ZN5mongo7Request5resetEv+0x1d5) [0x991865]
 /usr/bin/mongos(_ZN5mongo21ShardedMessageHandler7processERNS_7MessageEPNS_21AbstractMessagingPortEPNS_9LastErrorE+0x67) [0x669887]
 /usr/bin/mongos(_ZN5mongo17PortMessageServer17handleIncomingMsgEPv+0x42e) [0xa6e8ce]
 /lib64/libpthread.so.0(+0x7851) [0x7f4456361851]
 /lib64/libc.so.6(clone+0x6d) [0x7f445570790d]
Thu Aug 15 09:57:34.549 [conn1] scoped connection to mongocfg1.testing.com:27000,mongocfg2.testing.com:27000,mongocfg3.testing.com:27000 not being returned to the pool
Thu Aug 15 09:57:34.549 [conn1] warning: error loading initial database config information :: caused by :: Couldn't load a valid config for collection.documents after 3 attempts. Please try again.
Thu Aug 15 09:57:34.549 [conn1] AssertionException while processing op type : 2004 to : collection.system.namespaces :: caused by :: 13282 error loading initial database config information :: caused by :: Couldn't load a valid config for collection.documents after 3 attempts. Please try again.
Thu Aug 15 09:57:37.722 [Balancer] SyncClusterConnection connecting to [mongocfg1.testing.com:27000]
Thu Aug 15 09:57:37.723 [Balancer] SyncClusterConnection connecting to [mongocfg2.testing.com:27000]
Thu Aug 15 09:57:37.723 [Balancer] SyncClusterConnection connecting to [mongocfg3.testing.com:27000]

Los primeros mongos también tienen este error "advertencia: error al cargar la información de configuración inicial de la base de datos :: causada por :: No se pudo cargar una configuración válida para collection.documents después de 3 intentos. Vuelva a intentarlo".

pero trabaja por ahora.

Los segundos mongos después del reinicio no funcionan;

mongos> show collections
Thu Aug 15 09:57:34.550 JavaScript execution failed: error: {
    "$err" : "error loading initial database config information :: caused by :: Couldn't load a valid config for collection.documents after 3 attempts. Please try again.",
    "code" : 13282
} at src/mongo/shell/query.js:L128
mongos>

¿Cuáles son los próximos pasos para recuperar los servidores de configuración?

Todos los consejos son bienvenidos.

usuario2688866
fuente

Respuestas:

11

Restaurar servidores de configuración, particularmente si ha tenido algún tipo de evento catastrófico es complicado, pero no imposible. Pero, antes de continuar, una gran advertencia:

COPIA DE SEGURIDAD DE TODO

Eso significa hacer una copia de seguridad de los tres servidores de configuración. Voy a darle algunos consejos, y generalmente es correcto, pero por favor, haga una copia de seguridad de cada instancia del servidor de configuración actual antes de sobrescribir / reemplazar cualquier cosa

Como explicación rápida, los servidores de configuración no están configurados como un conjunto de réplicas: se supone que cada instancia del servidor de configuración es idéntica (al menos para todas las colecciones que importan) a las demás. Por lo tanto, cualquier servidor de configuración saludable puede usarse para reemplazar un servidor de configuración no saludable y luego puede seguir el tutorial que mencionó para volver a una buena configuración.

La clave para la recuperación es identificar el servidor de configuración en buen estado y luego usarlo para reemplazar a los demás; luego terminas con 3 servidores de configuración idénticos.

Hay más de una forma de hacer esto, básicamente se dividen en tres categorías:

1) Usa el mensaje de error

El mensaje de error que se imprime en realidad le permite saber qué servidor de configuración cree que está en buen estado, aunque eso no es obvio en la mensajería. Aquí se explica cómo leerlo genéricamente:

ERROR: config servers not in sync! config servers <healthy-server> and <out-of-sync-server> differ

Básicamente, el primero en la lista es el saludable, en su caso sería mongocfg1.testing.com:27000. Ese es nuestro primer candidato para una base de datos de configuración saludable.

2) Use dbhashpara comparar los tres y elija los que estén de acuerdo

En cada servidor de configuración, cambie a la base de datos de configuración utilizando use config, ejecute db.runCommand("dbhash")y compare los hashes para las siguientes colecciones:

  • trozos
  • bases de datos
  • ajustes
  • fragmentos
  • versión

Está buscando dos servidores que estén de acuerdo, y lo usa como base para determinar que la versión de la base de datos de configuración en esos hosts es básicamente confiable y debe usarse para sembrar el resto.

3. Inspeccione manualmente las colecciones en la base de datos de configuración

Finalmente, eche un vistazo a la base de datos de configuración y preste atención a las colecciones enumeradas en la segunda opción anterior. Esta es una decisión directa basada en su familiaridad con sus datos.

Esperemos que los tres métodos lo apunten al mismo host (o hosts). Ese servidor de configuración debe usarse para sembrar los otros dos (después de haber realizado copias de seguridad para que pueda volver). Esa es básicamente tu mejor apuesta. Si eso falla, entonces es posible que desee probar una de las otras versiones (de las copias de seguridad), siempre asegurándose de que cuando las inicie, las tres sean idénticas.

Finalmente, asegúrese siempre de que todos los mongosprocesos estén usando la misma cadena de servidor de configuración, y que los 3 servidores siempre estén listados en el mismo orden en cada proceso; no hacerlo en todos los mongosprocesos puede conducir a resultados (muy) extraños.

Adam C
fuente
Para la segunda categoría, no veo una colección de "bases de datos". ¿Qué tan importante es si otras cosas como "fragmentos" están sincronizadas? ¿Se puede encontrar en otro lugar?
snetch
Seguí lo que dijiste, solo veo el "md5": "d41d8cd98f00b204e9800998ecf8429e" del servidor de 3 configuraciones como el mismo. ¿Cómo corrijo el error?
Amit Tripathi
hola AdamC, actualmente estoy teniendo el mismo problema y es muy urgente que lo haga lo antes posible. Tengo una pregunta rápida. ¿Tengo que detener todos los mongos y mongod antes de cerrar el configdb?
rendybjunior
Si tiene un problema urgente, le recomendaría obtener asesoramiento profesional sobre esto: comuníquese con MongoDB y solicite ayuda. Ya no trabajo para MongoDB y no me gustaría hablar con usted a través de este tipo de procedimiento, particularmente para versiones más recientes de la base de datos donde este tipo de problema ha cambiado sustancialmente (esta respuesta fue escrita hace casi 4 años)
Adam C