Tengo algunos archivos de datos enormes en una galaxia lejana. Necesito descargarlos, y es probable que tarde unos días. Si bien quiero asegurarme de que todos los datos se descarguen sanos y salvos, sin compromisos, también debo asegurarme de no consumir todo el ancho de banda ya que otras personas pueden necesitar acceder a esa máquina de forma remota.
Tengo dos alternativas me parece: wget --limit-rate=amount
/ curl --limit-rate <speed>
o un cliente CLI torrente rtorrent
, transmission
o algo similar.
Soy un novato y me encantaría saber cuáles serían las ventajas de uno y otro. Además, ¿hay algún otro medio para descargar correctamente esos archivos monstruosos?
rsync -chavzP --bwlimit=KBPS [email protected]:/path/to/copy /path/to/local/storage
si tiene acceso SSH al servidor que aloja sus archivos.