http://www.zago.eti.br/wget.txt FAQ, indicações de sites e dicas pra configurar e usar wget. Use CTRL+F para refinar a pesquisa. Site sobre wget, download, documentação, lista e etc.. http://www.gnu.org/software/wget/wget.html FAQ relacionado a download e tranferencia de arquvos: http://www.zago.eti.br/ftp.txt http://www.zago.eti.br/ssh/ssh.txt Pesquise também sobre: httrack - copia de site - download... http://www.httrack.com/ wwwoffle - para permitir navegação offline Pesquise no Google: wwwoffle ~linux ******************************************************** wget em ambiente gráfico - Gwget. Gerenciador de de download para Gnome 2 Gwget it's a download manager for the Gnome Desktop. http://gnome.org/projects/gwget/index.html ******************************************************** Tutoriaiis, dicas, comandos e etc.. em portugues. http://linuxhard.org/publicacoes.php?id=69 ******************************************************** pesquise sobre sitecopy (SUSE 10.1) sitecopy - Local to Remote Website Synchronizer ******************************************************** wget é usado no modo texto, veja também a versão para Gnome em ambiente gráfico (Gwget), muito útil e poderoso para baixar site, pode baixar o site inteirinho para sua maquina, exceto para site que trabalha com páginas dinamicas, sites hospedados em servidores que armazenam as páginas em banco de dados, rodam scripts e softwares adicionais para montar a página que você visualiza, nestes casos não vai funcionar o wget ou funciona parcialmente. O wget funciona onde um navegador funciona, requer as mesmas configurações exigidas para navegar, a diferença é que o wget vai ler tudo no servidor e gravar na maquina local, enfim, fazer o download do arquivo ou site. Requer o paconte wget, está presente na maioria das distros, procure no seu gerenciador de pacotes por wget, alguns exemplos de pesquisa pelo pacote e comando para instalar. Via apt-get apt-get search wget apt-get install wget Via smart smart search wget smart install wget -y Não esqueça do manual, tem muitas opções; man wget veja mais no manual: wget -help man wget wget -b inicia o wget e volta para o prompt mas continua baixando o site a até fim assim o usuario pode usar o micro para outro serviço. exemplos de uso do wget wget -r -np -nH www.pagina.que.quero.br wget http://www.site.com.br wget -m http://www.site.com.br wget --convert-links www.site.com.br útil para navegação local, salva no diretório local com o nome do site e no seu navegador e digite file://path/www.site.com.br/ wget -t O -r -F http://www.site.com Baixar somente um arquivo; wget www.zago.eti.br comandos.html Usando coringas, exemplo para baixar todos arquivos .html wget www.zago.eti.br *.html man wget e procure pelas opções -l (level) -r (recursive). As configurações do wget ficam no arquivo: /etc/wgetrc Dependendo da distro e configuração veja em: ~ /.wgetrc download de diretórios, use -r -np, exemplo. wget -c -r -np http://www.zago.eti.br/DIR-DOWNLOAD wget -c -r -np http://www.zago.eti.br/script/ wget -c -t70 -r -np http://www.zago.eti.br/DIR-DOWNLOAD ******************************************************** download via curl, ideal para baixar arquivos com mais de 2GB curl -C - -O URL. curl -C - -O http://www.gtlib.gatech.edu/pub/mandrake/devel/iso/2007.0/DVD/mandriva-free-2007-tyr-DVD.i586-x86_64.iso curl -C - -O http://www.gtlib.gatech.edu/pub/mandrake/devel/iso/2007.0/DVD/mandriva-free-2007-tyr-DVD.i586-x86_64.iso % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 1 4394M 2 89.2M 0 0 60082 0 21:18:10 0:26:43 20:51:08 60132 Continua download, basta repetir o comando em caso de parada. curl: (18) transfer closed with 4472811232 bytes remaining to read zago@linux-server:/home/isos/mandriva> curl -C - -O http://www.gtlib.gatech.edu/pub/mandrake/devel/iso/2007.0/DVD/mandriva-free-2007-tyr-DVD.i586-x86_64.iso ** Resuming transfer from byte position 134762784 % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 4265M 0 12.0M 0 0 60082 0 20:52:10 0:02:43 20:46:08 60132 ******************************************************** WGET e LYNX atras de um servidor proxy Pra estações que estão atras de um servidor proxy, por exemplo Squid, precisa executar esta linha de comando pro wget alcançar a net. export http_proxy=http://ip.do.proxy:porta-do-proxy Exemplo da linha de comando pra uma estação que usa internet compartilhada com proxy Squid, onde o servidor tem o IP 192.168.1.2 e todo o trafego é redirecionado pra porta 3128, nos navegadores voce deve utilizar como servidor proxy 192.168.1.2 porta 3128, pra configurar o wget nesta mesma rede o comando fica assim: export http_proxy=http://192.168.1.2:3128 Após o comando, pra testar execute: Pra navegar: lynx http://www.zago.eti.br/comandos.txt Pra fazer download wget http://www.zago.eti.br/comandos.txt Prontinho, arquivo baixado pro seu diretório local, use esta opção pra baixar modelos de configuração ou a dupla "vi" + lynx pra importar o texto limpo diretamente pro editor vi. dentro do editor vi em modo comando: :r !lynx -dump http://200.204.198.164/zago/comandos.txt Como foi executado na linha de comando, esta configuração não vale para os proximos boot, pra automatizar este processo somente pra usuários especificos da maquina, insira a linha de comando no .bash_profile dos usuários, basta editar o arquivo .bash_profile que fica no home do usuário e acrescentar na ultima linha: export http_proxy=http://192.168.1.2:3128 Pronto, automatizado a execução desta linha no login do usuário. Pra esta configuração valer pra todos os logins nesta maquina, acrescente no final do arquivo /etc/profile, use o um editor pra acrescentar a linha: export http_proxy=http://192.168.1.2:3128 OU da maneira mais simples, como root, basta copiar e colar no prompt: echo "export http_proxy=http://192.168.1.2:3128" >> /etc/profile Ajuste na linha de comando acima para o IP e porta do proxy da tua rede. Prontinho, a partir do proximo boot da maquina a configuração do proxy pro wget e lynx vale pra todos, quando optar pelo /etc/profile valerá pra todos, portanto não precisa incluir no .bash_profile dos usuários ******************************************************** Páginas web com senha. Download de arquivos em páginas web que requer login e senha, exemplo para download do arquivo lynx.txt dentro do diretório livros/guiaz em 192.168.1.216, diretório do apache configurado para pedir senha de acesso. Passando usuário e senha na linha de comando. wget --http-user=usuario --http-passwd=senha 192.168.1.216/livros/guiaz/lynx.txt Este exemplo faz o login e downlaod do arquivo, salva no diretório local. Sem passar login e senha retorna esta mensagem. zago@suse64:~/tmp> wget 192.168.1.216/livros/guiaz/lynx.txt --19:40:47-- http://192.168.1.216/livros/guiaz/lynx.txt => `lynx.txt' Connecting to 192.168.1.216:80... conectado! HTTP requisição enviada, aguardando resposta... 401 Authorization Required Autorização falhou. O exemplo acima funciona no SUSE 10.1, no manual (man wget) consta isto. --user=user --password=password Specify the username user and password password for both FTP and HTTP file retrieval. These parameters can be overridden using the --ftp-user and --ftp-password options for FTP connections and the --http-user and --http-password options for HTTP connections. ******************************************************** CL10 - Erro ao baixar arquivos com mais de 2 GB. Ainda não procurei pela solução, nem sei explicar o motivo, usando CL10 instalado com sistema de arquivos ext3, ao tentar baixar a ISO em DVD do mandriva 2006 ocorre erro quase no final, tem espaço em disco de sobra, acho que tem algo relacionado a FTP, já tive problema semelhante quanto tentei usar g4u para criar imagem de instalações via rede, ele envia a imagem para o servidor de FTP e falha quando o arquivo atinge 2GB, muita coincidencia ocorrer somente com FTP, como as imagens do Mandriva estavam em servidores de FTP e não encontrei a mesma imagem em servidor http. Ficou a dúvida e sem condições de testar para saber se o problema está no wget ou FTP. Qualquer dia procuro entender isto e procurar eventual explicação A solução seria via bittorrent, nesta mesma instalação já baixei diversas ISO com mais de 3GB via bittorrent sem problema algum, faço copias de arquivos com mais de 6GB via ssh (scp) sem problemas, como não localizei a ISO em DVD para baixar via bittorrent ou http, então tentei via wget e deu este erro. A solução foi baixar as ISO para CD, mesmo baixando os 3 CD via wget não tem problema, ou se preferir pode fazer via browser. Veja a linha de comando e mensagem de erro; [zago@speedy mdv2006]$ wget -c ftp://ftp.free.fr/mirrors/ftp.mandriva.com/MandrivaLinux/official/iso/2006.0/i586/Mandriva-Linux-Free-2006-DVD.i586.iso --03:01:58-- ftp://ftp.free.fr/mirrors/ftp.mandriva.com/MandrivaLinux/official/iso/2006.0/i586/Mandriva-Linux-Free-2006-DVD.i586.iso => `Mandriva-Linux-Free-2006-DVD.i586.iso' Resolving ftp.free.fr... 213.228.0.141 Connecting to ftp.free.fr[213.228.0.141]:21... connected. Logando como anonymous ... Logado! ==> SYST ... feito. ==> PWD ... feito. ==> TYPE I ... feito. ==> CWD /mirrors/ftp.mandriva.com/MandrivaLinux/official/iso/2006.0/i586 ... feito. ==> SIZE Mandriva-Linux-Free-2006-DVD.i586.iso ... feito. ==> PORT ... feito. ==> REST 2147483647 ... feito. ==> RETR Mandriva-Linux-Free-2006-DVD.i586.iso ... feito. Tamanho: -2,105,305,088 [42,178,561 para terminar] (sem autoridade) 100%[+++++++++++++++++++++++++++++++++++++++++++++++++++] 2,147,483,647 --.--K/s Excedido tamanho limite de arquivo ******************************************************** o texto abaixo é um resumo adaptado de: http://www.conectiva.com.br/cpub/pt/incConectiva/suporte/pr/internet.aplicativos.wget.html man wget Exemplos: Para baixar um arquivo [usuario@localhost]$ wget http://www.site.org/arquivo Para baixar um site com todos os subdiretórios (recursivo) também chamado de "fazer mirror" [usuario@localhost]$ wget -r http://www.site.org/arquivo Cuidado com esse -r... Uma instrução adicional para este modo: "-nc" --no-clobber : Normalmente ao efetuar o download, o wget verifica se o arquivo existe no seu diretório, se existente ele grava o novo arqivo como "arquivo.1". Com esta opção o wget só irá efetuar o download de novos arquivo no site, algo muito util se usado com a opção -r; Para sanar o problema de downloads que param repentinamente, é possível utilizar o seguinte comando: [root@localhost]# wget -c -t 0 http://www.site.org/arquivo Sendo: "-c" --continue-ftp : O Download interrompido de um arquivo continua de onde parou, não tendo que reiniciar o download do mesmo; "-t" num --tries=num : Indica quantas tentativas ele vai fazer para efetuar o download completo; No exemplo anterior foi utilizado o "-t 0" que quer dizer que o download efetuará infinitas tentativas para acabar o download completamente, é possível colocar, por exemplo, "-t 2", para duas tentativas e assim por diante. > Alguem conhece algum programa pra linux que eu possa usar > para baixar todo um site para o meu micro. > Por exemplo alto do tipo: > > get http://www.meusite.com.br > /home/site > > Salve todo o conteudo deste endereco incluindo imagens e > aplets para o diretorio desejado, no windows tem o teleport-pro > alguem conhece algo para o linux ? O wget pode fazer isto. # cd /home/site # wget -m -nH http://www.meusite.com.br para mais informações: man wget wget -rc http://www.site.com.br ou wget -rc ftp://ftp.site.com.br vai baixar tudinho :) ******************************************************** ja experimentou a opcao -m do wget? do help do wget: -m, --mirror turn on options suitable for mirroring adicione a opcao -t 0, para ele nao parar de tentar em caso de erros. On Mon, 22 May 2000, alexandro wrote: > utilize wget -t 0 -r -F http://www.pagina.com.br > ******************************************************** Tenta ai o seguinte comando: wget -c -t0 -m http://www.meusite.com.br ******************************************************** Wget para Windows --------------------------------------------------------------------- O programa Wget, originario do ambiente Unix, esta tambem disponivel para a plataforma Windows. Este programa pode ser usado para fazer download de paginas via Internet ou mesmo sites inteiros. O programa e bastante poderoso e muito facil de usar. Suporta tambem o protocolo FTP e pode ser usado para fazer o download de arquivos grandes: wget -t0 ftp://ftp.unicamp.br/cp32e46.exe O comando acima estabelece uma conexao com o servidor ftp da Unicamp e a flag t0 indica que o programa deve reestabelecer a conexao caso tenha havido algum problema e continuar do ponto em que parou. O wget para Windows pode ser obtido no endereco http://www.ccp14.ac.uk/ccp/web-mirrors/wget/~tcharron/wgetwin.html A versao original, para Unix, pode ser obtida em http://ftp.unicamp.br/pub/gnu/wget/wget-1.4.5.tar.gz ******************************************************** tente assim wget -r -c http://www.dominio.com.br/arquivos/linux A sintaxe -r significa "Recursive" Tome muito cuidado com essa por vc pode pegar muita tranqueira. A sintaxe -c Significa "Continue" Em caso de desconexão o wget irá ignorar os bytes gravados no HD e continuar dali. ******************************************************** > Ex. SITE: http://www.fulanodetal.com.br/DIR_DOWNLOADS > > Quero que ele faça um "MIRROR" desse diretório em diante! :) wget -c -t70 -r -l0 -np http://www.fulanodetal.com.br/DIR_DOWNLOADS -c se desconectar recontinua (re-get) -t 70 timeout de 70 segundos -r recursivo -l0 nivel de recursividade ilimitada -np nao suba pros outros diretorios ex.: .. ******************************************************** > Bom dia lista, gostaria de saber se alguem tem uma receita de bolo de como > instalar o WGET, para FTP automatico usando o usuario anonymous para um > diretorio que queira baixar. wget -r --no-parent ftp://ftp.blah.edu/diretorio/que/voce/quer/ ******************************************************** > Gostaria de saber se a flag -r do wget funciona como > recursividade de links ou de diretorios em modo http. links. > Aproveitando, existe algumprograma q fica baixando um > determinado site p/ depois se navegar off-line? > Acho q o wget atenderia. Ou naum? Atende sim. A opcao -L pode ser util neste caso, pois ele nao "saira'" do site que voce esta' baixando. Uma boa leitura na secao "FOLLOWING LINKS" do man sera' bem util. ******************************************************** Vc pode usar o seguinte programa : http://freshmeat.net/redir/download/936571634/ Ps.: Naum se esqueca que existe um recurso ´copia´ e ´colar´ :) : : Existe alguma interface grafica pro wget no estilo do getright (que : captura os cliques no netscape)? Eh muito chato ter que digitar o : endereco inteiro no terminal cada vez que eu quero baixar alguma : coisa... ******************************************************** Os melhores sao o Webdownloader (clone do GetRight) e o gFTP (clone do WS_FTP) para interface gráfica... e em console o wget eh o melhor! Você encontra todos eles em www.linuxapps.com Subject: (linux-br) FTP client que para um download no meio e o reassume quando a conexao voltar. >Gostaria de saber qual cliente ftp no linux tem a funcionalidade do cute >do windows isto é, suporta "broken downloads" e reativa a conexao se ela >cai. > ******************************************************** Se voce vai usa-lo a partir de um ambiente grafico, pegue um front-end para ele. Em www.freshmeat.net procure por KWebGet. Eu usava o Caitoo, mas gostei mais dele. > Alguem sabe usar o wget?! ******************************************************** > Gostaria de saber se alguém conhece algum programa que faz a desconexão do > computador da Internet em um horário pre determinado; como o Getright p/ Eu uso o seguinte: $ wget -c ftp:/bla.bla.br ; /usr/bin/ppp-down Ai qdo acaba o download ele disconecta. Qto a horario pode colocar uma regra no crontab: $ crontab -e 00 6 * * * /usr/bin/ppp-down Isso chama o script q desconecta da internet ppp-down (pode ser killall pppd) as 6:00 da manha. To supondo q vc ta rodando o crond. Esta é apenas uma sugestao , qfunciona p/ mim. Provavelmnete vc vai ter q melhorar. Poderia tbem usar o diald , que permite controlar o horario de conexao (das 0:00 as 6:00 por ex). To instlando em casa mas é um pouco complicado :( Depois, se ouver interesse eu posso colocar uma pagina explicando como faz. ******************************************************** a sintaxe é: wget -c ftp:// O -c só é necessário se você quiser continuar um download que você começou usando ftp, ou quando você teve que matar o processo do wget e quer recomeçá-lo. O default do wget é retomar um download interrompido do ponto onde parou. Ele faz 10 tentativas, e depois para. Dá para aumentar esse valor, usando -t . Se você fizer -t 0, ele vai tentar infinitas vezes. O bom mesmo é usar o wget com o nohup: nohup wget -t 0 ftp:// & Assim, o processo fica em background, e o output do wget vai para o arquivo nohup.out. Você pode controlar essa saída usando: tail -f nohup.out, e assim monitorar o que está acontecendo no download. O wget morre quando acaba o download. Boa sorte! ******************************************************** > Esqueci como usar o wget. > Quero baixar um arquivo num ftp. se você ainda não fez aqui vai uma dica: wget -t0 -c --passive-ftp ftp://site_ftp/caminho_para_o_arquivo > wget.log 2>&1 & -t0 : retry infinitely -c : resume download --passive-ftp : se você está debaixo de um firewall > wget.log : fazer um log do download para ver o que acontece 2>&1 : redireciona também mensagens de erro (stderr) para o arquivo wget.log ******************************************************** : Alguem conhece algum programa pra linux que eu possa usar : para baixar todo um site para o meu micro. : Por exemplo alto do tipo: : : get http://www.meusite.com.br > /home/site : : Salve todo o conteudo deste endereco incluindo imagens e : aplets para o diretorio desejado, no windows tem o teleport-pro : alguem conhece algo para o linux ? Experimente usar o wget, vem junto com o CL4. Ex.: $ wget -c -tx -Tx -rx http://... $ wget -c -tx -Tx -rx ftp... -c: p/continuar download interrompido; -tx: reinicia a conexão x vezes até baixar o arquivo (0=infinito); -Tx: se não receber nada em x segundos, mata e reinicia a conexão; -rx: nível de recursividade, 0=infinito; ******************************************************** Voce da wget -c http://...arquivo.iso. Depois se interomper da de volta. wget -c http://...arquivo.iso. Numa dessas duas situacoes acima o -c pode ser omitido. Mas é só numa! Não lembro qual é. Melhor não omitir. José Lauro. P.s. Antes de dar um novo wget eu constumo matar o outro que ta rodando usando o kill. Não sei se isso é nescessario, mas sempre faso isso. Pode ser também que o servidor não suporte reinício de download. On Mon, 4 Jun 2001, Ricardo Castanho de O. Freitas wrote: > > Estou tentando baixar um *.iso com o wget e não estou conseguindo! > Ele inicia o download novamente ao invés de continuar do ponto > interrompido! > > Segundo a man pages seria a opção '-c' que já é default! > > Alguma sugestão ******************************************************** > comando para buscar > http://www.uol.com.br/remedios > wget -m -l 0 -A htm http://www.uol.com.br/remedios O wget não se dá bem com páginas dinâmicas. Aliás, buscadores e mecanismos de download automático nunca se dão bem com eles. Olhe esse trecho de uma mensagem anterior sua. > > > a URL eh da seguinte forma: > > > http://cf6.uol.com.br/remedios/buscalis.cfm? > > > nc=nc&buscanc=A Preste atenção no nome da página: buscalis.cfm CFM é a extensão (Windows aaargh!!!) para Cold Fusion Markup Language. Esse site usa o ColdFusion como Servidor de Aplicações. As páginas são, portanto, geradas dinâmicamente, no momento da consulta (como se traduz "at browsing time"?). Como é conteúdo dinâmico, o wget não consegue puxar as páginas, mesmo porque elas nem existem como arquivo HTML reais, estocados no servidor. São só uma "imagem" de arquivo HTML gerada na hora para o seu browser. Não sei uma solução para o caso. Mas o motivo do problema deve ser esse. ******************************************************** > wget -c -r -t 0 ftp://ftp.conectiva.com/pub/conectiva/cl7/ * > > gostaria de saber como eu faco para dar este comando e ja liberar o Acrescente a opção -b. Ele vai para background e vai gravar um arquivo de log (ele vai dizer qual). Para monitorar o download, faça tail -f esse-arquivo-de-log o comando ficaria assim wget -cbrt 0 ftp://slackware.com/pub/slackware/slackware-x.x wget -c -b -r -t 0 ftp://slackware.com/pub/slackware/slackware-x.x Acredito que as duas opções se equivalem. Mas é só testar ;) ******************************************************** De: Magno K. Nardin <127.o.o.1@bol.com.br> Para: linux-br@bazar.conectiva.com.br Assunto: Re: (linux-br) Utilitário para download Data: 04 Jan 2003 18:28:09 -0200 Em Sab 04 Jan 2003 16:33, Luciano Marcos Paes escreveu: > Estou utilizando o Mozilla Download Menager, mas não estou obtendo > sucesso quanto ao suporte de reinícios. > Qual o melhor utilitário para download, que suporte reinício (resume), > for linux ? Luciano, man wget > reiniício -c Exemplo: wget -c http://www.exemplo.com.br/arquivo.tar.gz Sds. -- Magno K. Nardin ******************************************************** De: Jorge Godoy Para: Quake Cc: linux-br Assunto: Re: (linux-br) Usar wget c/ proxy Data: 29 Apr 2003 10:17:43 -0300 "Quake" writes: > Como eu uso o wget? Eu não to conseguindo usar ele passando pelo Proxy. man wget / proxy ******************************************************** De: Arnaldo Carvalho de Melo Para: Quake Cc: linux-br Assunto: Re: (linux-br) Usar wget c/ proxy Data: 29 Apr 2003 05:41:33 -0300 Em Mon, Apr 28, 2003 at 02:57:08PM -0300, Quake escreveu: > Como eu uso o wget? Eu não to conseguindo usar ele passando pelo Proxy. Tente: export http_proxy=http://seu.proxy:porta-de-seu-proxy export ftp_proxy=http://seu.proxy:porta-de-seu-proxy e depois tente usar o wget novamente. - Arnaldo ******************************************************** De: Helder Jean Para: Quake Cc: linux-br Assunto: Re: (linux-br) Usar wget c/ proxy Data: 29 Apr 2003 14:54:41 -0300 Quake wrote: > Como eu uso o wget? Eu não to conseguindo usar ele passando pelo Proxy. > > []´s Ricardo > Pra usar ele com um proxy basta dar um "export http_proxy=seu.proxy:porta" ou "export ftp_proxy=seu.proxy:porta" e usar o wget com o parâmetro "-Y on" além dos outros que por ventura use. Qualquer coisa um _man wget_ te dá uma vasta documentação. []'s ******************************************************** De: Marcus Lima Responder-a: marcuslima@marcuslima.eti.br Para: onzeonze@terra.com.br, Dicas Linux-BR Assunto: RES: (linux-br) Segurança WGET Data: 03 May 2003 15:02:34 -0300 Paulo, Fiz alguns testes no WGET e aparentemente ele não abre nenhuma porta. Então existem 2 possibilidades: 1. Você estava fazendo download de um site FTP e neste caso você precisa abrir uma porta no seu computador para receber os dados da porta 20 do servidor FTP ao qual você está conectado; 2. Seu wget contém um exploit. Como identificar se você está no caso 1: 1. Execute o wget e coloque-o em background (executando). 2. Rode o netstat -an --inet e verifique se a porta que foi aberta é a mesma que está conectada na porta 20 do site FTP ao qual você se conectou. 3. Neste caso, se você quiser filtrar, faça uma regra que não bloqueie o retorno de dados do site FTP, caso contrário, você não vai conseguir fazer o download. Em tempo, a versão do WGET: wget-1.8.2-1U80_1cl Abraços, ******************************************************** De: Carlo Pires Para: Ederson L. Correa Cc: linux Assunto: Re: (linux-br) Como usar wget pra baixar de ftps que requerem login?? Data: 20 May 2003 09:17:45 -0300 Ederson L. Correa wrote: Pessoal, quais parametros eu devo passar pro wget pra ele logar num server ftp e iniciar o download?? Não wget ftp://usuario:senha@servidor_ftp.com.br/arquivo.extensao -Carlo ******************************************************** De: Anderson Lizardo Para: Ederson L. Correa Cc: linux-br@bazar.conectiva.com.br Assunto: Re: (linux-br) Como usar wget pra baixar de ftps que requerem login?? Data: 20 May 2003 23:08:45 -0300 Em Sexta, 16 de Maio de 2003 13:47, Ederson L. Correa escreveu: > Pessoal, quais parametros eu devo passar pro wget pra > ele logar num server ftp e iniciar o download?? Não > sei se fui claro, mas o q quero saber é como uso o > wget pra baixar arquivos de servers ftp que requerem > autenticação?? Utilize a seguinte sintaxe: $ wget ftp://login:senha@ftp.servidor.com/pasta/arquivo.txt -- ******************************************************** De:  Gustavo Vasconcelos Para:  Cezar Augusto de Freitas Anselmo Cc:  linux-br@bazar2.conectiva.com.br Assunto:  Re: (linux-br)off-topic (salvar site ftp inteiro) Data:  Sat, 13 Sep 2003 06:34:23 -0300 -----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1 Curto e grosso: wget -c -r ftp://meu.servidor.com/ Longo e fino: man wget Favor ignorar o sentido pornográfico da mensagem. []'s Gustavo Cezar Augusto de Freitas Anselmo escreveu on 12-09-2003 16:34: | Hah alguma forma ou aplicativo em que eu forneco um endereco em que | armazenei varios arquivos (ftp ou http) e ele baixa todos os arquivos do | endereco (com opcao por excolher subdiretorios tambem)? | Grato, | C. | ******************************************************** De:  Dicas-L-Owner@unicamp.br Assunto:  [Dicas-L] Download seletivo de arquivos com wget Data:  Fri, 3 Oct 2003 02:38:28 -0300 -------------------------------------------------------------------- Endereço: http://www.Dicas-l.com.br/dicas-l/20031003.shtml --------------------------------------------------------------------                 Linux: Programação Shell Script                     Campinas: 13 e 14 de outubro                          Mais informações:    http://www.dextra.com.br/servicos/treinamento/linux/progsh.htm --------------------------------------------------------------------   Download seletivo de arquivos com wget   ====================================== Colaboração: Gentil de Bortoli Júnior Algumas pessoas têm necessidade de fazer o download de apenas determinados tipos de arquivos como, por exemplo, PDFs ou imagens. Isso pode ser feito de maneira muito simples, utilizando o wget. Uma pessoa que deseja baixar todos os PDFs do endereço http://ldp.conectiva.com.br pode fazer algo como: --- $ mkdir LDP_PDFs ; cd LDP_PDFs $ wget -A .pdf -r -nd http://ldp.conectiva.com.br   Explicando:   ---   -A  -> Baixe somente os arquivos com a extensão fornecida.   -r  -> Siga os links recursivamente   -nd -> Não crie hierarquia de diretórios. Como resultado desse comando, dentro do diretório LDP_PDFs você terá todos os PDFs que podem ser encontrados seguindo os links no site em questão. ----------------------------------------------------------------------------         Robô Cirurgião da Microsoft         =========================== http://www.Dicas-l.com.br/humor/robocirurgiao.jpg   SECOMP - Seminário em Computação:   Redes de Computadores e Sistemas Distribuídos   12 a 16 de novembro de 2003 - Universidade Federal de Itajubá   http:www.cacomp.unifei.edu.br/secomp -------------------------------------------------------------------- Simpósio Internacional ISTEC/IEEE em Educação Continuada Avançada: Políticas e Tendências em Formação Continuada em Engenharia         21 e 22 de outubro de 2003 - Unicamp          http://rau-tu.ccuec.unicamp.br/ace -------------------------------------------------------------------- As mensagens da lista Dicas-L são veiculadas diariamente para 22659 assinantes.        Todas as mensagens da Dicas-L ficam armazenadas em                http://www.Dicas-l.com.br. A redistribuição desta e outras mensagens da lista Dicas-L pode ser feita livremente, deste que o conteúdo, inclusive esta nota, não sejam modificados. --------------------------------------------------------------- ******************************************************** De:  Leslie Harlley Watter Para:  Arnaldo Carvalho de Melo Cc:  cl@distro2.conectiva.com.br Assunto:  Re: [cl] Problemas com Wget Data:  Tue, 25 Nov 2003 23:09:41 -0200 Obrigado Acme, o wget voltou a funcionar usando o ipv6. Leslie >) > O que mais é necessário para que o wget funcione ?? >) >) Sim, ele compila com suporte a IPV6, tenho que arrumar isto, por enquanto tente: >) >) modprobe ipv6 >) >) e tente novamente >) >) - Arnaldo >) :-- final da mensagem Re: [cl] Problemas com Wget de Arnaldo Carvalho de Melo --: -- Página Pessoal ------------ http://www.lezz.org/ Outside of a dog, a book is a man's best friend. Inside a dog it's too dark to read. Groucho Marx ___________________ ******************************************************** SOMENTE AS FIGURAS. De:  Manoel Pinho Para:  Paulo Correia Andrade Cc:  linux-br Assunto:  Re: (linux-br)download de imagens Data:  Wed, 18 Feb 2004 19:15:38 -0300 Paulo Correia Andrade escreveu: Há um programa chamado Express WebPictures, para Windows, que ao > fornecermos o endereço de um site ele faz o download apenas das figuras > do site. > Eu gostaria de saber se existe um programa para Linux que também faz o > download de apenas as figuras de um site. > wget Tirado do man wget: You want to download all the GIFs from a directory on an HTTP server. You tried wget http://www.server.com/dir/*.gif, but that didn't work because HTTP retrieval does not support globbing.  In that case, use: wget -r -l1 --no-parent -A.gif http://www.server.com/dir/ More verbose, but the effect is the same.  -r -l1 means to retrieve recursively, with maximum depth of 1.  --no-parent means that references to the parent directory are ignored, and -A.gif means to download only the GIF files.  -A "*.gif" would have worked too. ******************************************************** De:  julio henrique Para:  Paulo Correia Andrade Cc:  linux-br@bazar2.conectiva.com.br Assunto:  re: (linux-br)download de figuras) Data:  Sat, 28 Feb 2004 12:02:46 -0300 #Boa tarde, pessoal! boa tarde, Paulo #   Alguém saber se existe para Linux programas do tipo "Picture #Downloader" (exemplo Express WebPictures para Windows) #com interface gráfica ARGHHHH!!!! pra que um canhão pra matar moscas??? tem MESMO que ser gráfica? wget é seu amigo...rs wget -P /tmp/pastaespecifica -r -p http://www.unicamp.br --accept=JPG,jpg,GIF,gif,png,PNG divirta-se! [ ]s, julio -- ==================================================== IMECC/UNICAMP Instituto de 'Matemágica' e Computação Científica Universidade Estadual de Campinas ******************************************************** De:  Evandro Meneguella Para:  Rafael A Hachich , linux-br@bazar2.conectiva.com.br Assunto:  Re: (linux-br)Get-Right para linux Data:  Wed, 01 Dec 2004 08:19:38 -0500 wget, é o melhor e mais simples, com muitas opçoes, até controla uso de banda. É modo texto e muito eficiente, nos meus testes é mais rápido que qualquer outro gerenciador de download. Abraços, Evandro. Rafael A Hachich wrote: Olá. > > Alguem conhece um programa (gerenciador de download) como o getright > para o linux? Eu só achei gerenciadores que nao aceitam segmentaçao > (baixar varias partes do arquivo ao mesmo tempo). > ******************************************************** De: Cesar Grossmann Responder A: Cesar Grossmann Para: Ednei Pacheco Cc: linux-br@bazar2.conectiva.com.br Assunto: Re: (linux-br)Aplicativo para links quebrados Data: Mon, 9 May 2005 11:22:06 -0300 Em 08/05/05, Ednei Pacheco escreveu: > > Alguém aí saberia me indicar um aplicativo para buscar links quebrados > em páginas HTML de um site (ou local)? Agradeço por qualquer sugestão. Procura na internet por "web spider". Um aplicativo que pode ser usado como spider é o wget, veja na documentação do mesmo (man wget). []s -- .O. Cesar A. K. Grossmann ICQ: 35659423 ..O http://www.LinuxByGrossmann.cjb.net/ OOO Quidquid Latine dictum sit, altum viditur ******************************************************** ********************************************************