Necesito descargar 100 GB de archivos (está en unos 150 archivos) dentro de un período de 7 días antes de que caduquen. El host limita la velocidad de descarga, por lo que tarda MUCHO más tiempo que la velocidad de transferencia teórica basada en las velocidades normales de Internet. Tengo un script de curl http://curl.haxx.se/docs/manpage.html comandos: una línea por archivo.
Tuve la idea de activar automáticamente n instancias EC2, ejecutar el comando y enviar los archivos por FTP a una ubicación central, y luego apagar las máquinas. ¿Cómo haría esto?
No me importa si es Linux o Windows.
fuente
He usado boto para escribir este tipo de cosas antes. Es más fácil girar las imágenes de Linux y luego usarlas para que funcionen.
fuente
No estoy seguro de la mejor solución. Pero si está haciendo esto de forma regular y necesita algo para iniciar y detener automáticamente sus máquinas, entonces es posible que desee ver este producto: http://LabSlice.com (con el descargo de responsabilidad de que soy el CTO).
fuente
Vagabundo con el proveedor de AWS lo hace fácilmente y es multiplataforma.
Una vez
Vagrantfile
creado,vagrant up
inicia la instancia con , inicia sesión con élvagrant ssh
y destrúyelo convagrant destroy
. Muy facil.fuente