Preguntas etiquetadas con coreos

49
Hacer que una aplicación Docker escriba en stdout

Estoy implementando una aplicación de terceros de conformidad con el aviso de 12 factores , y uno de los puntos dice que los registros de la aplicación deben imprimirse en stdout / stderr: luego el software de agrupación puede recopilarlo. Sin embargo, la aplicación solo puede escribir en archivos...

40
¿Cómo eliminar las unidades systemd faltantes?

Tengo problemas para descubrir cómo eliminar las unidades systemd que ya no tienen archivos. Todavía parecen quedarse en el sistema de alguna manera. Las viejas unidades rotas que estoy tratando de eliminar: core@ip-172-16-32-83 ~ $ systemctl list-units --all firehose-router* UNIT LOAD ACTIVE...

23
Docker Daemon no comienza en el arranque en CoreOS

Tengo una instalación estándar de CoreOS (835.9.0) y no inicia el Docker Daemon al inicio. Solo comienza cuando hago SSH y hago, por ejemplo docker ps. ¿Cómo puedo hacer que el Docker Daemon se inicie automáticamente en el arranque del sistema? Cuando digo el demonio de Docker, quiero decir que...

20
¿Cómo iniciar y detener una unidad systemd con otra?

Estoy usando CoreOS para programar unidades systemd con flota. Tengo dos unidades ( firehose.servicey firehose-announce.service. Estoy tratando de firehose-announce.serviceiniciar y detener junto con el firehose.service. Aquí está el archivo de la unidad para

17
Actualice el contenedor Docker sin tiempo de inactividad

Digamos que tengo un contenedor Docker con un servidor web (como Apache 2). Ahora quiero actualizar el sistema operativo debajo de él. Esta respuesta de SF dice que la mejor manera es reconstruir la imagen base y mi imagen de Apache. Pero la implementación de la imagen significa tiempo de...

9
La mejor base para el despliegue de Mesos

Actualmente estamos en el proceso de diseño de la arquitectura de nuestra nueva configuración de nube Apache Mesos. El objetivo es unificar nuestros sistemas moviendo diferentes pilas a la misma arquitectura. Las principales cargas de trabajo son análisis de big data que utilizan Apache Spark y...