¿Cómo descargar y guardar un archivo de Internet usando Java?

425

Hay un archivo en línea (como http://www.example.com/information.asp) que necesito tomar y guardar en un directorio. Sé que hay varios métodos para capturar y leer archivos en línea (URL) línea por línea, pero ¿hay alguna manera de descargar y guardar el archivo usando Java?

echoblaze
fuente
1
relacionados stackoverflow.com/questions/8324862/…
Adrien Be

Respuestas:

560

Prueba Java NIO :

URL website = new URL("http://www.website.com/information.asp");
ReadableByteChannel rbc = Channels.newChannel(website.openStream());
FileOutputStream fos = new FileOutputStream("information.html");
fos.getChannel().transferFrom(rbc, 0, Long.MAX_VALUE);

El uso transferFrom()es potencialmente mucho más eficiente que un simple ciclo que lee del canal fuente y escribe en este canal. Muchos sistemas operativos pueden transferir bytes directamente desde el canal de origen al caché del sistema de archivos sin copiarlos realmente.

Mira más sobre esto aquí .

Nota : El tercer parámetro en transferFrom es el número máximo de bytes para transferir. Integer.MAX_VALUEtransferirá como máximo 2 ^ 31 bytes, Long.MAX_VALUEpermitirá como máximo 2 ^ 63 bytes (más grande que cualquier archivo existente).

dfa
fuente
22
Cierre los tres con Java 7 try-with-resource: try (InputStream inputStream = website.openStream (); ReadableByteChannel readableByteChannel = Channels.newChannel (inputStream); FileOutputStream fileOutputStream = new FileOutputStream (outputFileNameFut). (readableByteChannel, 0, 1 << 24); }
mazatwork
80
Esto solo descargará los primeros 16 MB de un archivo: stackoverflow.com/questions/8405062/downloading-files-with-java
Ben McCann
31
@kirdie y si quiero más que 8388608TB?
Cruncher
22
Una sola llamada no es adecuada. transferFrom()isnt 'especificado para completar la transferencia completa en una sola llamada. Por eso devuelve un recuento. Tienes que hacer un bucle.
Marqués de Lorne
11
¿Por qué se aceptó esta respuesta? URL::openStream()devuelve solo una secuencia regular, lo que significa que todo el tráfico todavía se está copiando a través de matrices de bytes Java [] en lugar de permanecer en búferes nativos. Solo fos.getChannel()es en realidad un canal nativo, por lo que la sobrecarga permanece completa. Eso es cero ganancias al usar NIO en este caso. Además de estar roto, como EJP y Ben MacCann notaron correctamente.
Ext3h
495

Use apache commons-io , solo un código de línea:

FileUtils.copyURLToFile(URL, File)
卢 声 远 Shengyuan Lu
fuente
22
¡Agradable! Justo lo que estoy buscando! Sabía que las bibliotecas de Apache ya cubrirían esto. Por cierto, ¡se recomienda usar la versión sobrecargada con parámetros de tiempo de espera!
Hendy Irawan
66
... y cuando use esa versión sobrecargada, recuerde que los tiempos de espera se especifican en milisegundos, no en segundos.
László van den Hoek
55
Tenga en cuenta que el copyURLToFileparámetro con tiempo de espera solo está disponible desde la versión 2.0 de la biblioteca Commons IO. Ver documentos Java
Stanley
66
¿Qué sucede si se debe agregar un encabezado de autenticación básica a la solicitud? ¿hay alguna solución?
damian
3
Aunque esto es "corto", en realidad es muy lento.
Meinkraft
123

Uso más simple de nio:

URL website = new URL("http://www.website.com/information.asp");
try (InputStream in = website.openStream()) {
    Files.copy(in, target, StandardCopyOption.REPLACE_EXISTING);
}
xuesheng
fuente
55
Desafortunadamente, esto falla silenciosamente (descargas de 0 bytes) en caso de que haya una redirección como "302 encontrados".
Alexander K
1
@AlexanderK Pero, ¿por qué descargaría a ciegas un recurso de todos modos?
xuesheng
55
A pesar del hecho de que esta es una solución elegante, detrás de escena este enfoque podría traicionarlo en silencio. Files.copy (InputStream, Paths, FileOption) delega el proceso de copia en Files.copy (InputStream, OutputStream). Este último método no verifica el final de la secuencia (-1) pero no busca la lectura de bytes (0). Significa que, si su red tuvo una pequeña pausa, podría leer 0 bytes y finalizar el proceso de copia, incluso si el sistema operativo no ha terminado la descarga.
Miere
66
@Miere Es imposible InputStream.read()devolver cero a menos que haya proporcionado un búfer o conteo de longitud cero, 'pequeña pausa' o de otra manera. Se bloqueará hasta que se haya transferido al menos un byte o al final de la transmisión o se produzca un error. Su reclamo sobre los Files.copy()aspectos internos de no tiene fundamento.
Marqués de Lorne
3
Tengo una prueba unitaria que lee un archivo binario con 2.6TiB. Al usar Files.copy, siempre falla en mi servidor de almacenamiento HDD (XFS), pero falla solo unas pocas veces en mi SSH. Mirando JDK 8 el código de File.copy, he identificado que comprueba '> 0' para salir del ciclo 'while'. Acabo de copiar exactamente el mismo código con el -1 y ambas pruebas unitarias nunca se detuvieron nuevamente. Una vez que InputStream puede representar la red y los descriptores de archivos locales, y ambas operaciones de E / S están sujetas al cambio de contexto del sistema operativo, no puedo ver por qué mi reclamo no tiene fundamento. Uno puede afirmar que funciona por suerte, pero ya no le dio dolor de cabeza.
Miere
85
public void saveUrl(final String filename, final String urlString)
        throws MalformedURLException, IOException {
    BufferedInputStream in = null;
    FileOutputStream fout = null;
    try {
        in = new BufferedInputStream(new URL(urlString).openStream());
        fout = new FileOutputStream(filename);

        final byte data[] = new byte[1024];
        int count;
        while ((count = in.read(data, 0, 1024)) != -1) {
            fout.write(data, 0, count);
        }
    } finally {
        if (in != null) {
            in.close();
        }
        if (fout != null) {
            fout.close();
        }
    }
}

Deberá manejar excepciones, probablemente externas a este método.

Ben Noland
fuente
66
¿Cómo descargar muy rápido? ¿Te gusta el acelerador de descargas?
digz6666
11
Si in.closearroja una excepción, fout.closeno se llama.
Berilio
1
@ComFreek Eso es simplemente falso. El uso de BufferedInputStreamtiene un efecto precisamente cero en los tiempos de espera de socket. Ya lo había refutado como 'mito urbano' en mis comentarios a los 'detalles de fondo' que usted citó. Tres años antes.
Marqués de Lorne
@EJP ¡Gracias por la corrección! Eliminé mi comentario (para el archivo: hice un enlace a esta respuesta indicando que BufferedInputStream"puede causar fallas impredecibles").
ComFreek
+1 Mi única objeción a esta respuesta (y otras aquí) es que la persona que llama no puede distinguir el evento "no encontrado" de algún error de conexión (sobre el cual es posible que desee volver a intentarlo).
leonbloy
24

Es una pregunta antigua, pero aquí hay una solución concisa, legible, solo JDK con recursos debidamente cerrados:

public static void download(String url, String fileName) throws Exception {
    try (InputStream in = URI.create(url).toURL().openStream()) {
        Files.copy(in, Paths.get(fileName));
    }
}

Dos líneas de código y sin dependencias.

Jan Nielsen
fuente
Para las personas que se preguntan, aquí está la importación necesaria para este fragmento de código:import java.io.InputStream; import java.net.URI; import java.nio.file.Files; import java.nio.file.Paths;
BelovedFool
23

La descarga de un archivo requiere que lo lea, de cualquier manera tendrá que revisar el archivo de alguna manera. En lugar de línea por línea, puede leerlo por bytes de la secuencia:

BufferedInputStream in = new BufferedInputStream(new URL("http://www.website.com/information.asp").openStream())
    byte data[] = new byte[1024];
    int count;
    while((count = in.read(data,0,1024)) != -1)
    {
        out.write(data, 0, count);
    }
z -
fuente
17

Cuando utilice, Java 7+utilice el siguiente método para descargar un archivo de Internet y guardarlo en algún directorio:

private static Path download(String sourceURL, String targetDirectory) throws IOException
{
    URL url = new URL(sourceURL);
    String fileName = sourceURL.substring(sourceURL.lastIndexOf('/') + 1, sourceURL.length());
    Path targetPath = new File(targetDirectory + File.separator + fileName).toPath();
    Files.copy(url.openStream(), targetPath, StandardCopyOption.REPLACE_EXISTING);

    return targetPath;
}

Documentación aquí .

BullyWiiPlaza
fuente
16

Esta respuesta es casi exactamente como la respuesta seleccionada pero con dos mejoras: es un método y cierra el objeto FileOutputStream:

    public static void downloadFileFromURL(String urlString, File destination) {    
        try {
            URL website = new URL(urlString);
            ReadableByteChannel rbc;
            rbc = Channels.newChannel(website.openStream());
            FileOutputStream fos = new FileOutputStream(destination);
            fos.getChannel().transferFrom(rbc, 0, Long.MAX_VALUE);
            fos.close();
            rbc.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
Brian Risk
fuente
2
Una sola llamada no es adecuada. transferFrom()isnt 'especificado para completar la transferencia completa en una sola llamada. Por eso devuelve un recuento. Tienes que hacer un bucle.
Marqués de Lorne
10
import java.io.*;
import java.net.*;

public class filedown {
    public static void download(String address, String localFileName) {
        OutputStream out = null;
        URLConnection conn = null;
        InputStream in = null;

        try {
            URL url = new URL(address);
            out = new BufferedOutputStream(new FileOutputStream(localFileName));
            conn = url.openConnection();
            in = conn.getInputStream();
            byte[] buffer = new byte[1024];

            int numRead;
            long numWritten = 0;

            while ((numRead = in.read(buffer)) != -1) {
                out.write(buffer, 0, numRead);
                numWritten += numRead;
            }

            System.out.println(localFileName + "\t" + numWritten);
        } 
        catch (Exception exception) { 
            exception.printStackTrace();
        } 
        finally {
            try {
                if (in != null) {
                    in.close();
                }
                if (out != null) {
                    out.close();
                }
            } 
            catch (IOException ioe) {
            }
        }
    }

    public static void download(String address) {
        int lastSlashIndex = address.lastIndexOf('/');
        if (lastSlashIndex >= 0 &&
        lastSlashIndex < address.length() - 1) {
            download(address, (new URL(address)).getFile());
        } 
        else {
            System.err.println("Could not figure out local file name for "+address);
        }
    }

    public static void main(String[] args) {
        for (int i = 0; i < args.length; i++) {
            download(args[i]);
        }
    }
}
mumair
fuente
55
Si in.closearroja una excepción, out.closeno se llama.
Berilio
8

Personalmente, he encontrado que el HttpClient de Apache es más que capaz de todo lo que necesito hacer con respecto a esto. Aquí hay un gran tutorial sobre el uso de HttpClient

belgariontheking
fuente
2
También commons-io es una gran biblioteca
DFA
6

Esta es otra variante de java7 basada en la respuesta de Brian Risk con el uso de la declaración try-with:

public static void downloadFileFromURL(String urlString, File destination) throws Throwable {

      URL website = new URL(urlString);
      try(
              ReadableByteChannel rbc = Channels.newChannel(website.openStream());
              FileOutputStream fos = new FileOutputStream(destination);  
              ){
          fos.getChannel().transferFrom(rbc, 0, Long.MAX_VALUE);
      }

  }
msangel
fuente
Una sola llamada no es adecuada. transferFrom()isnt 'especificado para completar la transferencia completa en una sola llamada. Por eso devuelve un recuento. Tienes que hacer un bucle.
Marqués de Lorne
No sé por qué me estás haciendo esa estúpida pregunta. No tiene nada que ver con lo que dije, y realmente me niego a que me pongan palabras en la boca.
Marqués de Lorne
2

Es posible descargar el archivo con Apache en HttpComponentslugar de Commons-IO. Este código le permite descargar un archivo en Java de acuerdo con su URL y guardarlo en el destino específico.

public static boolean saveFile(URL fileURL, String fileSavePath) {

    boolean isSucceed = true;

    CloseableHttpClient httpClient = HttpClients.createDefault();

    HttpGet httpGet = new HttpGet(fileURL.toString());
    httpGet.addHeader("User-Agent", "Mozilla/5.0 (Windows NT 6.3; WOW64; rv:34.0) Gecko/20100101 Firefox/34.0");
    httpGet.addHeader("Referer", "https://www.google.com");

    try {
        CloseableHttpResponse httpResponse = httpClient.execute(httpGet);
        HttpEntity fileEntity = httpResponse.getEntity();

        if (fileEntity != null) {
            FileUtils.copyInputStreamToFile(fileEntity.getContent(), new File(fileSavePath));
        }

    } catch (IOException e) {
        isSucceed = false;
    }

    httpGet.releaseConnection();

    return isSucceed;
}

En contraste con la única línea de código:

FileUtils.copyURLToFile(fileURL, new File(fileSavePath),
                        URLS_FETCH_TIMEOUT, URLS_FETCH_TIMEOUT);

este código le dará más control sobre un proceso y permitirá especificar no sólo los tiempos de espera, pero User-Agenty Refererlos valores, que son fundamentales para muchos sitios web.

Mike B.
fuente
2

Hay muchas respuestas elegantes y eficientes aquí. Pero la concisión puede hacernos perder información útil. En particular, a menudo no se quiere considerar un error de conexión como una Excepción , y se puede tratar de manera diferente algún tipo de error relacionado con la red, por ejemplo, para decidir si debemos volver a intentar la descarga.

Aquí hay un método que no arroja Excepciones para errores de red (solo para problemas verdaderamente excepcionales, como URL malformada o problemas para escribir en el archivo)

/**
 * Downloads from a (http/https) URL and saves to a file. 
 * Does not consider a connection error an Exception. Instead it returns:
 *  
 *    0=ok  
 *    1=connection interrupted, timeout (but something was read)
 *    2=not found (FileNotFoundException) (404) 
 *    3=server error (500...) 
 *    4=could not connect: connection timeout (no internet?) java.net.SocketTimeoutException
 *    5=could not connect: (server down?) java.net.ConnectException
 *    6=could not resolve host (bad host, or no internet - no dns)
 * 
 * @param file File to write. Parent directory will be created if necessary
 * @param url  http/https url to connect
 * @param secsConnectTimeout Seconds to wait for connection establishment
 * @param secsReadTimeout Read timeout in seconds - trasmission will abort if it freezes more than this 
 * @return See above
 * @throws IOException Only if URL is malformed or if could not create the file
 */
public static int saveUrl(final Path file, final URL url, 
  int secsConnectTimeout, int secsReadTimeout) throws IOException {
    Files.createDirectories(file.getParent()); // make sure parent dir exists , this can throw exception
    URLConnection conn = url.openConnection(); // can throw exception if bad url
    if( secsConnectTimeout > 0 ) conn.setConnectTimeout(secsConnectTimeout * 1000);
    if( secsReadTimeout > 0 ) conn.setReadTimeout(secsReadTimeout * 1000);
    int ret = 0;
    boolean somethingRead = false;
    try (InputStream is = conn.getInputStream()) {
        try (BufferedInputStream in = new BufferedInputStream(is); OutputStream fout = Files
                .newOutputStream(file)) {
            final byte data[] = new byte[8192];
            int count;
            while((count = in.read(data)) > 0) {
                somethingRead = true;
                fout.write(data, 0, count);
            }
        }
    } catch(java.io.IOException e) { 
        int httpcode = 999;
        try {
            httpcode = ((HttpURLConnection) conn).getResponseCode();
        } catch(Exception ee) {}
        if( somethingRead && e instanceof java.net.SocketTimeoutException ) ret = 1;
        else if( e instanceof FileNotFoundException && httpcode >= 400 && httpcode < 500 ) ret = 2; 
        else if( httpcode >= 400 && httpcode < 600 ) ret = 3; 
        else if( e instanceof java.net.SocketTimeoutException ) ret = 4; 
        else if( e instanceof java.net.ConnectException ) ret = 5; 
        else if( e instanceof java.net.UnknownHostException ) ret = 6;  
        else throw e;
    }
    return ret;
}
leonbloy
fuente
2

A continuación se muestra el código de muestra para descargar películas de internet con código java:

URL url = new 
URL("http://103.66.178.220/ftp/HDD2/Hindi%20Movies/2018/Hichki%202018.mkv");
    BufferedInputStream bufferedInputStream = new  BufferedInputStream(url.openStream());
    FileOutputStream stream = new FileOutputStream("/home/sachin/Desktop/test.mkv");


    int count=0;
    byte[] b1 = new byte[100];

    while((count = bufferedInputStream.read(b1)) != -1) {
        System.out.println("b1:"+b1+">>"+count+ ">> KB downloaded:"+new File("/home/sachin/Desktop/test.mkv").length()/1024);
        stream.write(b1, 0, count);
    }
Sachin Rane
fuente
En general, las respuestas son mucho más útiles si incluyen una explicación de lo que se pretende que haga el código y por qué eso resuelve el problema sin introducir otros.
Tim Diekmann
1

Hay un problema con el uso simple de:

org.apache.commons.io.FileUtils.copyURLToFile(URL, File) 

si necesita descargar y guardar archivos muy grandes, o en general si necesita reintentos automáticos en caso de que se corte la conexión.

Lo que sugiero en tales casos es Apache HttpClient junto con org.apache.commons.io.FileUtils. Por ejemplo:

GetMethod method = new GetMethod(resource_url);
try {
    int statusCode = client.executeMethod(method);
    if (statusCode != HttpStatus.SC_OK) {
        logger.error("Get method failed: " + method.getStatusLine());
    }       
    org.apache.commons.io.FileUtils.copyInputStreamToFile(
        method.getResponseBodyAsStream(), new File(resource_file));
    } catch (HttpException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    } finally {
    method.releaseConnection();
}
oktieh
fuente
1

Para resumir (y de alguna manera pulir y actualizar) respuestas anteriores. Los tres métodos siguientes son prácticamente equivalentes. (Agregué tiempos de espera explícitos porque creo que son imprescindibles, nadie quiere que una descarga se congele para siempre cuando se pierde la conexión).

public static void saveUrl1(final Path file, final URL url,
   int secsConnectTimeout, int secsReadTimeout)) 
    throws MalformedURLException, IOException {
    // Files.createDirectories(file.getParent()); // optional, make sure parent dir exists
    try (BufferedInputStream in = new BufferedInputStream(
       streamFromUrl(url, secsConnectTimeout,secsReadTimeout)  );
        OutputStream fout = Files.newOutputStream(file)) {
        final byte data[] = new byte[8192];
        int count;
        while((count = in.read(data)) > 0)
            fout.write(data, 0, count);
    }
}

public static void saveUrl2(final Path file, final URL url,
   int secsConnectTimeout, int secsReadTimeout))  
    throws MalformedURLException, IOException {
    // Files.createDirectories(file.getParent()); // optional, make sure parent dir exists
    try (ReadableByteChannel rbc = Channels.newChannel(
      streamFromUrl(url, secsConnectTimeout,secsReadTimeout) 
        );
        FileChannel channel = FileChannel.open(file,
             StandardOpenOption.CREATE, 
             StandardOpenOption.TRUNCATE_EXISTING,
             StandardOpenOption.WRITE) 
        ) {
        channel.transferFrom(rbc, 0, Long.MAX_VALUE);
    }
}

public static void saveUrl3(final Path file, final URL url, 
   int secsConnectTimeout, int secsReadTimeout))  
    throws MalformedURLException, IOException {
    // Files.createDirectories(file.getParent()); // optional, make sure parent dir exists
    try (InputStream in = streamFromUrl(url, secsConnectTimeout,secsReadTimeout) ) {
        Files.copy(in, file, StandardCopyOption.REPLACE_EXISTING);
    }
}

public static InputStream streamFromUrl(URL url,int secsConnectTimeout,int secsReadTimeout) throws IOException {
    URLConnection conn = url.openConnection();
    if(secsConnectTimeout>0) conn.setConnectTimeout(secsConnectTimeout*1000);
    if(secsReadTimeout>0) conn.setReadTimeout(secsReadTimeout*1000);
    return conn.getInputStream();
}

No encuentro diferencias significativas, todo me parece correcto. Son seguros y eficientes. (Las diferencias de velocidad parecen poco relevantes: escribo 180 Mb desde el servidor local en un disco SSD en tiempos que fluctúan alrededor de 1.2 a 1.5 segs). No requieren bibliotecas externas. Todos funcionan con tamaños arbitrarios y (según mi experiencia) redirecciones HTTP.

Además, todos se lanzan FileNotFoundExceptionsi no se encuentra el recurso (error 404, por lo general) y java.net.UnknownHostExceptionsi falla la resolución de DNS; otras IOException corresponden a errores durante la transmisión.

(Marcado como wiki de la comunidad, siéntase libre de agregar información o correcciones)

leonbloy
fuente
1

Hay un método U.fetch (url) en la biblioteca de subrayado-java .

pom.xml:

  <groupId>com.github.javadev</groupId>
  <artifactId>underscore</artifactId>
  <version>1.45</version>

Ejemplo de código:

import com.github.underscore.lodash.U;

public class Download {
    public static void main(String ... args) {
        String text = U.fetch("https://stackoverflow.com/questions"
        + "/921262/how-to-download-and-save-a-file-from-internet-using-java").text();
    }
}
Valentyn Kolesnikov
fuente
¿Qué tan útil es esta respuesta cuando el enlace deja de ser válido? Por favor, mire cómo responder
JimHawkins
Tu código no compila. Pregunta pedir solución en Java, pero su mirada como respuestaJavaScript
TAlex
@talex Agregué la sección pom.xml y mejoré el ejemplo de código.
Valentyn Kolesnikov
0
public class DownloadManager {

    static String urls = "[WEBSITE NAME]";

    public static void main(String[] args) throws IOException{
        URL url = verify(urls);
        HttpURLConnection connection = (HttpURLConnection) url.openConnection();
        InputStream in = null;
        String filename = url.getFile();
        filename = filename.substring(filename.lastIndexOf('/') + 1);
        FileOutputStream out = new FileOutputStream("C:\\Java2_programiranje/Network/DownloadTest1/Project/Output" + File.separator + filename);
        in = connection.getInputStream();
        int read = -1;
        byte[] buffer = new byte[4096];
        while((read = in.read(buffer)) != -1){
            out.write(buffer, 0, read);
            System.out.println("[SYSTEM/INFO]: Downloading file...");
        }
        in.close();
        out.close();
        System.out.println("[SYSTEM/INFO]: File Downloaded!");
    }
    private static URL verify(String url){
        if(!url.toLowerCase().startsWith("http://")) {
            return null;
        }
        URL verifyUrl = null;

        try{
            verifyUrl = new URL(url);
        }catch(Exception e){
            e.printStackTrace();
        }
        return verifyUrl;
    }
}
Gegi4321
fuente
Puede mejorar su respuesta proporcionando información sobre cómo funciona su código en lugar de simplemente descartarlo.
Matej Kormuth
0

Puede hacer esto en 1 línea usando netloader para Java :

new NetFile(new File("my/zips/1.zip"), "https://example.com/example.zip", -1).load(); //returns true if succeed, otherwise false.
Celestina
fuente
0

Si está detrás de un proxy, puede configurar los proxies en el programa java de la siguiente manera:

        Properties systemSettings = System.getProperties();
        systemSettings.put("proxySet", "true");
        systemSettings.put("https.proxyHost", "https proxy of your org");
        systemSettings.put("https.proxyPort", "8080");

Si no está detrás de un proxy, no incluya las líneas anteriores en su código. Código de trabajo completo para descargar un archivo cuando está detrás de un proxy.

public static void main(String[] args) throws IOException {
        String url="https://raw.githubusercontent.com/bpjoshi/fxservice/master/src/test/java/com/bpjoshi/fxservice/api/TradeControllerTest.java";
        OutputStream outStream=null;
        URLConnection connection=null;
        InputStream is=null;
        File targetFile=null;
        URL server=null;
        //Setting up proxies
        Properties systemSettings = System.getProperties();
            systemSettings.put("proxySet", "true");
            systemSettings.put("https.proxyHost", "https proxy of my organisation");
            systemSettings.put("https.proxyPort", "8080");
            //The same way we could also set proxy for http
            System.setProperty("java.net.useSystemProxies", "true");
            //code to fetch file
        try {
            server=new URL(url);
            connection = server.openConnection();
            is = connection.getInputStream();
            byte[] buffer = new byte[is.available()];
            is.read(buffer);

                targetFile = new File("src/main/resources/targetFile.java");
                outStream = new FileOutputStream(targetFile);
                outStream.write(buffer);
        } catch (MalformedURLException e) {
            System.out.println("THE URL IS NOT CORRECT ");
            e.printStackTrace();
        } catch (IOException e) {
            System.out.println("Io exception");
            e.printStackTrace();
        }
        finally{
            if(outStream!=null) outStream.close();
        }
    }
bpjoshi
fuente
0

1er método usando el nuevo canal

ReadableByteChannel aq = Channels.newChannel(new url("https//asd/abc.txt").openStream());
FileOutputStream fileOS = new FileOutputStream("C:Users/local/abc.txt")
FileChannel writech = fileOS.getChannel();

Segundo método usando FileUtils

FileUtils.copyURLToFile(new url("https//asd/abc.txt",new local file on system("C":/Users/system/abc.txt"));

3er método usando

InputStream xy = new ("https//asd/abc.txt").openStream();

Así es como podemos descargar el archivo utilizando el código básico de Java y otras bibliotecas de terceros. Estos son solo para referencia rápida. Busque en Google las palabras clave anteriores para obtener información detallada y otras opciones.

Ashish Gupta
fuente