===== Загрузка всех URL, указанный в файле FILE =====
$ wget -i FILE
===== Скачивание файла в указанный каталог (-P) =====
$ wget -P /path/for/save ftp://ftp.example.org/some_file.iso
===== Использование имени пользователя и пароля на FTP/HTTP =====
$ wget ftp://login:password@ftp.example.org/some_file.iso
$ wget --user=login --password=password ftp://ftp.example.org/some_file.iso
$ wget --ftp-user=dan --ftp-password=********* FTP-URL
===== Скачивание в фоновом режиме (-b) =====
$ wget -b ftp://ftp.example.org/some_file.iso
===== Продолжить (-c continue) загрузку ранее не полностью загруженного файла =====
$ wget -c http://example.org/file.iso
===== Скачать страницу с глубиной следования 10, записывая протокол в файл log =====
$ wget -r -l 10 http://example.org/ -o log
===== Скачать содержимое каталога http://example.org/~luzer/my-archive/ и всех его подкаталогов, при этом не поднимаясь по иерархии каталогов выше =====
$ wget -r --no-parent http://example.org/~luzer/my-archive/
===== Для того, чтобы во всех скачанных страницах ссылки преобразовывались в относительные для локального просмотра, необходимо использовать ключ -k =====
$ wget -r -l 10 -k http://example.org/
===== Также поддерживается идентификация на сервере =====
$ wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://example.org/auth.php
===== Скопировать весь сайт целиком =====
$ wget -r -l 0 -k http://example.org/
===== Скачивание галереи картинок с превьюшками =====
$ wget -r -k -p -l1 -I /images/ -I /thumb/ \
--execute robots=off www.example.com/gallery.html
===== Сохранить веб страницу (как она открывается локально) в текущую директорию =====
$ (cd cli && wget -nd -pHEKk http://www.pixelbeat.org/cmdline.html)
===== Скачать файлы определенного типа в текущую директорию =====
$ wget -r -nd -np -l1 -A '*.jpg' http://www.example.com/
===== Пропуск файлов определенного типа =====
$ wget --reject=png Website_url
===== Отображать вывод напрямую (на экран) =====
$ wget -q -O- http://www.pixelbeat.org/timeline.html | grep 'a href' | head
===== Скачать URL в 01:00 в текущую директорию =====
$ echo 'wget url' | at 01:00
===== Сделать закачку с уменьшенной скоростью в данном случае 20 KB/s =====
$ wget --limit-rate=20k url
===== Проверить ссылки в файле =====
$ wget -nv --spider --force-html -i bookmarks.html
===== Создание локальной копии веб-сайта =====
$ wget --mirror -p --convert-links -P /home/dan xyz.com
* -p: производится загрузка всех файлов, необходимых для корректного отображения HTML-страниц.
* --convert-links: ссылки в документах будут преобразованы для целей локального просмотра сайта.
* -P /home/dan: материалы будут сохранены в указанную папку.
===== Оперативно обновлять локальную копию сайта (удобно использовать с cron) =====
$ wget --mirror http://www.example.com/
===== Используем wildcard для того чтобы скачать несколько страниц =====
$ wget http://site.com/?thread={1..100}
$ wget http://site.com/files/main.{css,js}
===== Запустить скачивание списка ссылок в 5 потоков =====
$ wget links.txt | xargs -P 5 wget {}
===== Проверить ссылки из файла на живость =====
$ cat list.txt
http://yandex.ru
http://google.ru
http://yandex.ru/qweqweqweqwe
$ wget -nv --spider -i list.txt
2013-08-08 22:40:20 URL: http://www.yandex.ru/ 200 Ok
2013-08-08 22:40:20 URL: http://www.google.ru/ 200 OK
http://yandex.ru/qweqweqweqwe:
Удалённый файл не существует — битая ссылка!
===== Загрузка файла и сохранение его с новым именем в текущую директорию =====
$ wget -O имяфайла https://downloads.sourceforge.net/nagios-4.3.1/nagios-4.3.1.tar.gz
[[http://najomi.org/_nix/wget|Источник 1]]
[[https://habr.com/ru/company/ruvds/blog/346640/|Источник 2]]