Torrent vs wget --limit-rate vs curl --limit-rate

0

Tengo algunos archivos de datos enormes en una galaxia lejana. Necesito descargarlos, y es probable que tarde unos días. Si bien quiero asegurarme de que todos los datos se descarguen sanos y salvos, sin compromisos, también debo asegurarme de no consumir todo el ancho de banda ya que otras personas pueden necesitar acceder a esa máquina de forma remota.

Tengo dos alternativas me parece: wget --limit-rate=amount/ curl --limit-rate <speed>o un cliente CLI torrente rtorrent, transmissiono algo similar.

Soy un novato y me encantaría saber cuáles serían las ventajas de uno y otro. Además, ¿hay algún otro medio para descargar correctamente esos archivos monstruosos?

Zurdo G Balogh
fuente
¿Están comprimidos los archivos de monstruos?
Alex
De hecho lo son. Targz piensa.
Zurdo G Balogh
Puede intentar usar rsync: rsync -chavzP --bwlimit=KBPS [email protected]:/path/to/copy /path/to/local/storagesi tiene acceso SSH al servidor que aloja sus archivos.
Alex
Rsync tiene una opción de 'reanudar' en caso de que se detenga la descarga. Lea más aquí: unix.stackexchange.com/q/48298
Alex