wget - nieinteraktywny program do pobierania z sieci
wget [
opcja]... [
URL]...
GNU Wget jest wolnym programem narzędziowym do pobierania plików z
sieci. Obsługuje protokoły HTTP, HTTPS i FTP, a także
pobieranie poprzez serwery proxy HTTP.
Wget jest nieinteraktywny, co pozwala mu działać w tle, w czasie
gdy użytkownik nie jest zalogowany. Dzięki temu
użytkownik może rozpocząć pobieranie i
rozłączyć się z komputerem, pozwalając
Wgetowi na zakończenie pracy. Większość
przeglądarek WWW wymaga ciągłej obecności
człowieka, co staje się uciążliwe przy pobieraniu
dużej ilości danych.
Wget potrafi podążać za odnośnikami zawartymi w
stronach HMTL, XHTML i CSS oraz tworzyć lokalne wersje zdalnych witryn,
w pełni odtwarzając strukturę katalogów
oryginalnej strony. Jest to czasami nazywane "pobieraniem
rekurencyjnym". Podczas takiego działania Wget respektuje
ustalenia Standardu Robot Exclusion (
/robots.txt). Możliwe jest
poinstruowanie programu, by w pobieranych plikach przekształcał
odnośniki tak, aby wskazywały na lokalne kopie, do
przeglądania bez połączenia.
Wget został zaprojektowany tak, by działać solidnie
również przy powolnych bądź niestabilnych
połączeniach. Jeżeli pobieranie nie udaje się z
powodu problemów z siecią, ponawia próby aż do
ściągnięcia całości pliku. Jeśli
dany serwer obsługuje taką możliwość, Wget
nakaże kontynuację pobierania od miejsca, w którym
przerwano.
Wget używa GNU getopt do przetwarzania argumentów wiersza
poleceń, więc każda opcja ma długi i krótki
format. Długie opcje są łatwiejsze do
zapamiętania, lecz wpisuje się je dłużej.
Można dowolnie łączyć oba style zapisu lub
podać opcje po argumentach wiersza poleceń. Można
więc użyć:
wget -r --tries=10 http://fly.srk.fer.hr/ -o log
Spacja pomiędzy opcją akceptującą argument i
argumentem może być pomięta. Zamiast
-o log
można wpisać
-olog.
Można umieścić kilka opcji, które nie
wymagają argumentów razem, tak jak poniżej:
wget -drc <URL>
Jest to równoważne zapisowi:
wget -d -r -c <URL>
Ponieważ opcje mogą być podane po argumentach, może
być konieczne oddzielenie ich za pomocą
--.
Poniższe polecenie spróbuje pobrać URL
-x,
zapisując niepowodzenie do
log:
wget -o log -- -x
Opcje, które akceptują listy oddzielone przecinkami,
respektują konwencję podania pustej listy, która usuwa
ich wartosć. Jest to przydatne do wyczyszczenia ustawień
.wgetrc np. jeśli
.wgetrc użytkownika ustawia
"exclude_directories" na
/cgi-bin, to poniższy
przykład najpierw zresetuje wartość, a następnie
ustawi ją na
/~nobody i
/~somebody. Można
również wyczyścić listę w
.wgetrc.
wget -X "" -X /~nobody,/~somebody
Większość opcji, która nie akceptuje
argumentów są opcjami
logicznymi tzn. takimi,
których stan można opisać zmienną
zero-jedynkową ("logiczną"). Na przykład
--follow-ftp mówi Wgetowi, aby podążał za
linkami FTP z plików HTML, a
--no-glob nakazuje
nieprzeprowadzania rozwijania masek URL-i FTP. Opcje logiczną są
albo
pozytywne, albo
negatywne (te zaczynają się
od
--no). Wszystkie takie opcje mają kilka
własności.
Jeżeli nie zaznaczono inaczej, to przyjmuje się, że
domyślne zachowanie jest przeciwne niż to, które zapewnia
opcja. Na przykład udokumentowane istnienie
--follow-ftp
wskazuje, że domyślnie
nie podąża
się za linkami FTP ze stron HTML.
Działanie opcji pozytywnych można odwrócić
dodając
--no- do ich nazw; analogicznie w przypadku opcji
negatywnych (wyłączających) - usuwając przedrostek
--no-. Może to wyglądać na niepotrzebne -- skoro
domyślnym działaniem opcji pozytywnych jest nie robienie
czegoś, to po co zapewniać metodę jawnego
wyłączania ich? Wynika to z działania pliku startowego,
który może zmienić wartości domyślne.
Przykładowo, skorzystanie z wpisu follow_ftp = on w pliku
.wgetrc powoduje, że Wget domyślnie podąża
(
follow) za dowiązaniami FTP, natomiast opcja
--no-follow-ftp jest jedynym sposobem na przywrócenie
wartości pierwotnie domyślnych z wiersza poleceń.
- -V
- --version
- Wyświetla wersję Wgeta.
- -h
- --help
- Wypisuje komunikat pomocy, opisujący wszystkie
opcje, jakie można przekazać Wgetowi w wierszu
poleceń.
- -b
- --background
- Przechodzi w tło natychmiast po rozpoczęciu
pracy. Jeśli nie podano pliku wyjściowego za pomocą
-o, wyjście jest przekierowywane do wget-log.
-
-e polecenie
-
--execute polecenie
- Wykonuje polecenie tak, jakby było
częścią .wgetrc. Polecenie wywołane w
ten sposób zostanie wykonane po poleceniach z
.wgetrc, więc będzie mieć nad nimi priorytet.
Aby podać kilka poleceń wgetrc, należy
użyć opcji -e wielokrotnie.
-
-o dziennik
-
--output-file=dziennik
- Rejestruje wszystkie komunikaty w pliku dziennika.
Normalnie są zgłaszane na standardowym wyjściu
błędów.
-
-a dziennik
-
--append-output=dziennik
- Dodaje komunikaty na końcu pliku dziennika.
Jest to to samo, co -o, tyle że dopisuje do dziennika
zamiast nadpisywać stary. Jeśli plik dziennik nie
istnieje, jest tworzony.
- -d
- --debug
- Włącza wyjście diagnostyczne, czyli
wypisywanie rozmaitych informacji ważnych dla twórców
Wget, gdy nie działa on poprawnie. Administrator systemu
mógł skompilować Wget bez obsługi trybu
usuwania błędów, wówczas -d nie
będzie działać. Należy zauważyć,
że kompilacja z obsługą diagnostyki jest zawsze
bezpieczna -- Wget skompilowany w ten sposób nie
będzie wypisywał żadnych informacji diagnostycznych
dopóki nie zażąda się tego opcją
-d.
- -q
- --quiet
- Tryb cichy. Wyłącza wyjście Wget.
- -v
- --verbose
- Pełne wyjście, z wszystkimi dostępnymi
danymi. Jest to opcja domyślna.
- -nv
- --non-verbose
- Niepełne wyjście -- wyłącza
pełne wyjście, ale nie ucisza całkowicie (to robi
się opcją -q); komunikaty o błędach i
podstawowe informacje będą nadal wypisywane.
-
--report-speed=typ
- Wypisuje przepustowość jako typ.
Jedyną akceptowaną wartością są bity (
bits).
-
-i plik
-
--input-file=plik
- Odczytuje URL-e z lokalnego lub zewnętrznego
pliku. Jeśli jako plik podano -, to URL-e
są czytane ze standardowego wejścia (aby czytać z
pliku nazwanego -, należy użyć zapisu
./-).
Czyta URL-e z pliku wejściowego plik, w związku z czym
nie trzeba ich podawać w wierszu poleceń. Jeśli URL-e
podano zarówno w wierszu poleceń, jak i w pliku
wejściowym, to pierwsze zostaną pobrane pliki wymienione w
wierszu poleceń. Jeśli nie podano opcji --force-html,
to plik powinien składać się z zestawu URL-i -
po jednym na wiersz.
Jednakże jeśli zostanie podana opcja --force-html, to
plik będzie traktowany jak dokument html. Mogą
się wówczas pojawić kłopoty z
odnośnikami względnymi, które można
rozwiązać dodając "<base href="
url">" do pliku lub podając
--base=url w wierszu poleceń.
Jeśli plik jest plikiem zewnętrznym, to dokument
zostanie potraktowany automatycznie jako html, jeśli jego
Content-Type pasuje do text/html. Co więcej,
położenie pliku zostanie użyte jako href,
jeśli nie podano innego.
-
--input-metalink=plik
- Downloads files covered in local Metalink file.
Metalink version 3 and 4 are supported.
- --keep-badhash
- Keeps downloaded Metalink's files with a bad hash. It
appends .badhash to the name of Metalink's files which have a checksum
mismatch, except without overwriting existing files.
- --metalink-over-http
- Issues HTTP HEAD request instead of GET and extracts
Metalink metadata from response headers. Then it switches to Metalink
download. If no valid Metalink metadata is found, it falls back to
ordinary HTTP download. Enables Content-Type:
application/metalink4+xml files download/processing.
-
--metalink-index=number
- Set the Metalink application/metalink4+xml metaurl
ordinal NUMBER. From 1 to the total number of
"application/metalink4+xml" available. Specify 0 or inf
to choose the first good one. Metaurls, such as those from a
--metalink-over-http, may have been sorted by priority key's value;
keep this in mind to choose the right NUMBER.
- --preferred-location
- Set preferred location for Metalink resources. This has
effect if multiple resources with same priority are available.
- --xattr
- Enable use of file system's extended attributes to save the
original URL and the Referer HTTP header value if used.
Be aware that the URL might contain private information like access tokens
or credentials.
- -F
- --force-html
- Kiedy wejście jest czytane z pliku, wymusza aby
było traktowane jako plik HTML. Pozwala to na pobieranie
względnych odnośników z istniejących
plików HTML znajdujących się na lokalnym dysku
naszego komputera, przez dodanie znacznika "<base href="
url">" do pliku HTML lub użycie opcji
--base.
-
-B URL
-
--base=URL
- Przekształca linki względne
używając URL-i jako punktu odniesienia, przy
odczytywaniu linków z pliku HTML określonego opcją
-i/--input-file (razem z --force-html lub gdy plik
został pobrany z serwera zewnętrznego, opisującego go
jako HTML). Jest to odpowiednik obecności znacznika BASE w pliku
wejściowym HTML, z wartością URL jako
wartość atrybutu href.
Na przykład przy podaniu http://foo/bar/a.html do URL i
odczytaniu przez Wgeta ../baz/b.html z pliku wejściowego,
zostanie on przekształcony do http://foo/baz/b.html.
-
--config=plik
- Specify the location of a startup file you wish to use
instead of the default one(s). Use --no-config to disable reading of
config files. If both --config and --no-config are given, --no-config is
ignored.
-
--rejected-log=logfile
- Logs all URL rejections to logfile as comma
separated values. The values include the reason of rejection, the URL and
the parent URL it was found in.
-
--bind-address=adres
- Podczas tworzenia klienckich połączeń
TCP/IP, wiąże z lokalnym komputerem, przez
"bind()", zadany adres. Adres można
podać jako nazwę hosta lub adres IP. Może się
przydać jeśli dany komputer ma przypisane kilka
adresów IP.
-
--bind-dns-address=adres
- [libcares only] This address overrides the route for DNS
requests. If you ever need to circumvent the standard settings from
/etc/resolv.conf, this option together with --dns-servers is your
friend. ADDRESS must be specified either as IPv4 or IPv6 address.
Wget needs to be built with libcares for this option to be available.
-
--dns-servers=adres
- [libcares only] The given address(es) override the standard
nameserver addresses, e.g. as configured in /etc/resolv.conf.
ADDRESSES may be specified either as IPv4 or IPv6 addresses,
comma-separated. Wget needs to be built with libcares for this option to
be available.
-
-t liczba
-
--tries=liczba
- Ustawia liczbę prób na liczbę.
0 lub inf oznacza próbowanie bez końca.
Domyślna wartość wynosi 20, z wyjątkiem
błędów krytycznych, takich jak "connection
refused" (odrzucono połączenie) lub "not
found" (nie znaleziono - 404), gdy nie podejmuje się ponownych
prób.
-
-O plik
-
--output-document=plik
- Dokumenty nie będą zapisywane do odpowiednich
plików, ale wszystkie zostaną sklejone i zapisane do
pliku. Jeśli jako plik podano -, dokumenty
będą zapisane na standardowe wyjście,
wyłączając konwersję linków
(proszę użyć ./-, aby zapisać do pliku
o nazwie -).
Użycie -O nie jest przeznaczone jako "użyj
nazwy pliku zamiast tej z URL-a", lecz jest to odpowiednik
przekierowania powłoki: wget -O plik http://foo jest
zaprojektowane do działania jak wget -O - http://foo >
plik; plik zostanie natychmiast przycięty, i
cała zawartość pobierania zostanie do niego
zapisana.
Z tego powodu, -N (sprawdzanie znacznika czasowego) nie jest
obsługiwane w połączeniu z -O: ponieważ
plik jest zawsze nowo tworzony, będzie miał on zawsze
całkiem nowy znacznik czasowy. Przy użyciu tej kombinacji
wyświetlane jest ostrzeżenie.
Podobnie, używanie -r lub -p z -O może
nie działać zgodnie z przewidywaniami: Wget nie
będzie pobierał pierwszego pliku do pliku, a reszty
do zwykłych plików; cała
zawartość pobierania zostanie umieszczona w pliku.
Zostało to wyłączone w wersji 1.11, lecz
powróciło (z ostrzeżeniem) w 1.11.2, ponieważ
są przypadki, gdzie takie zachowanie może mieć sens.
A combination with -nc is only accepted if the given output file does
not exist.
Proszę zauważyć, że kombinacja z -k jest
dozwolona tylko przy pobieraniu pojedynczego dokumentu, ponieważ w
takim przypadku, wszystkie relatywne URI zostaną
przekształcone w URI zewnętrzne. Opcja -k nie ma
sensu przy wielu URI, które zostały pobrane do pojedynczego
pliku, stąd -k może być użyte tylko,
jeśli wyjściem jest zwykły plik.
- -nc
- --no-clobber
- Jeśli plik jest pobierany więcej niż
raz do tego samego katalogu, zachowanie Wgeta zależy od kilku
opcji, między innymi -nc. W pewnych przypadkach
istniejący lokalny plik będzie nadpisany lub przebity
(ang. clobbered), przy powtórzeniu ściągania. W
innych przypadkach zostanie zachowany.
Przy uruchomieniu Wget bez opcji -N, -nc, -r lub
-p pobranie tego samego pliku do tego samego katalogu spowoduje
pozostawienie pierwotnego egzemplarza pliku i nadanie drugiemu
nazwy plik.1. Gdy plik będzie ściągany
kolejny raz, trzeci egzemplarz otrzyma nazwę file.2,
i tak dalej (jest tak również z opcją -nd,
nawet jeśli działa równocześnie -r lub
-p). Przy podanej opcji -nc, zachowanie takie jest
wstrzymywane, a Wget odmawia pobrania nowszych kopii pliku. Dlatego
też, "no-clobbe" jest w rzeczywistości
złą nazwą dla tego trybu -- nie chroni on przed
nadpisywaniem (gdyż temu zapobiegają już numeryczne
przyrostki), ale przed zachowywaniem wielu wersji pliku.
Przy uruchomieniu Wget z -r lub -p, ale bez -N,
-nd czy -nc, ponowne ściągnięcie pliku
powoduje, że nowa kopia po prostu nadpisuje starą. Dodanie
-nc zapobiega takiemu zachowaniu, skutkując zamiast tego
zachowaniem pierwotnej wersji i ignorowaniem ewentualnych nowych kopii z
serwera.
Przy uruchomieniu Wget z -N, z opcją -r lub -p
albo bez niej, decyzja, czy ściągać nową
wersję pliku czy też nie, zależy od znaczników
czasu (dat modyfikacji) i rozmiarów lokalnego i zdalnego pliku.
-nc nie można podawać równocześnie z
-N.
A combination with -O/--output-document is only accepted if
the given output file does not exist.
Proszę zauważyć, że jeśli podano
-nc, pliki z przyrostkami .html lub .htm
będą odczytywane z dysku i przetwarzane tak, jakby
zostały pobrane z sieci.
-
--backups=kopia-zapasowa
- Przed nadpisaniem pliku, istniejący jest zachowywany
poprzez dodanie przyrostka .1 (_1 w VMS) do nazwy pliku.
Przy kolejnym przebiegu kolejne kopie zapasowe mają nazwy zmieniane
na .2, .3 itd., aż do osiągnięcia
liczby kopii-zapasowych (gdy ją przekroczą są
usuwane).
- --no-netrc
- Do not try to obtain credentials from .netrc file.
By default .netrc file is searched for credentials in case none
have been passed on command line and authentication is required.
- -c
- --continue
- Kontynuuje pobieranie częściowo
ściągniętego pliku. Przydatne, gdy chcemy
dokończyć ściąganie rozpoczęte w
poprzednim przebiegu Wgeta lub przez inny program. Przykład:
wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z
Jeśli w bieżącym katalogu istnieje plik ls-lR.Z,
Wget przyjmie, że jest to początkowy fragment zdalnego pliku
i zażąda od serwera kontynuacji pobierania od
przesunięcia równego długości lokalnego pliku.
Proszę zauważyć, że nie ma potrzeby podawania
tej opcji jeśli chcemy tylko, by aktualnie wywołany Wget
ponownie próbował ściągać plik, w
połowie którego zostało zerwane
połączenie. Jest to zachowanie domyślne. Opcja
-c wpływa tylko na wznawianie pobrań zaczętych
przed bieżącym wywołaniem Wget i tylko dla
tych plików, których lokalne kopie nadal istnieją.
Bez -c, polecenie z poprzedniego przykładu pobrałby po
prostu zdalny plik do ls-lR.Z.1, zostawiając w spokoju
obcięty plik ls-lR.Z.
If you use -c on a non-empty file, and the server does not support
continued downloading, Wget will restart the download from scratch and
overwrite the existing file entirely.
Począwszy od Wget 1.7, jeśli użyjemy -c dla
pliku, którego rozmiar jest taki sam, jak na serwerze, to Wget
odmówi ściągnięcia pliku i wypisze komunikat
objaśniający. Tak samo dzieje się, gdy plik jest
mniejszy na serwerze niż lokalnie (prawdopodobnie dlatego,
że został zmieniony na serwerze od czasu naszej ostatniej
próby ściągania) -- ponieważ
"kontynuacja" jest bezsensowna, pobieranie nie zachodzi.
Z drugiej strony, przy stosowaniu -c, każdy plik, który
jest większy na serwerze niż lokalnie będzie
uważany za nie w pełni ściągnięty.
Wówczas pobranych i doczepionych na koniec pliku lokalnego zostanie
tylko "(wielkość(zdalny) -
wielkośc(lokalny))" bajtów. W pewnych przypadkach takie
zachowanie jest pożądane -- na przykład, można
skorzystać z wget -c do ściągnięcia
tylko nowej porcji danych, dopisanej na końcu zbioru danych czy
pliku dziennika.
Jednakże, jeśli plik na serwerze jest większy dlatego,
że został zmieniony, a nie tylko doklejono do
niego dane, to w efekcie otrzymamy zniekształcony plik. Wget w
żaden sposób nie może sprawdzić, czy lokalny
plik jest poprawną częścią
początkową zdalnego. Należy na to szczególnie
uważać stosując -c w połączeniu
z -r, gdyż każdy plik będzie uważany za
kandydata na "nieukończone ściąganie".
Inną sytuacja, w której przy korzystaniu z -c uzyskuje
się zniekształcony plik, zachodzi, gdy mamy do czynienia z
ułomnym serwerami pośredniczącymi HTTP,
wstawiającym łańcuch "transfer interrupted"
do lokalnego pliku. W przyszłości będzie może
dodana opcja "rollback", obsługująca ten
przypadek.
Proszę zauważyć, że -c działa
tylko z serwerami FTP i HTTP, które obsługują
nagłówek "Range".
-
--start-pos=OFFSET
- Start downloading at zero-based position OFFSET.
Offset may be expressed in bytes, kilobytes with the `k' suffix, or
megabytes with the `m' suffix, etc.
--start-pos has higher precedence over --continue. When
--start-pos and --continue are both specified, wget will
emit a warning then proceed as if --continue was absent.
Server support for continued download is required, otherwise
--start-pos cannot help. See -c for details.
-
--progress=typ
- Umożliwia wskazanie typu wskaźnika
postępu. Dozwolonymi rodzajami wskaźnika są
"dot" (kropka) i "bar" (pasek).
Domyślnie stosowany jest wskaźnik "bar". Rysowany
jest wówczas pasek postępu złożony ze
znaków graficznych ASCII (zwany czasem wskaźnikiem
"termometrowym"), wskazujący stan pobierania.
Jeżeli wyjściem programu nie jest TTY, to domyślnie
zostanie użyty wskaźnik typu "dot".
Aby przełączyć się na zapis kropkowy
należy użyć opcji --progres=dot. Śledzi
on pobieranie wypisując kropki, a każda oznacza
określoną ilość pobranych danych.
The progress type can also take one or more parameters. The
parameters vary based on the type selected. Parameters to
type are passed by appending them to the type sperated by a colon
(:) like this:
--progress=type:parameter1:
parameter2.
When using the dotted retrieval, you may set the style by specifying
the type as dot:style. Different styles assign different
meaning to one dot. With the "default" style each dot represents
1K, there are ten dots in a cluster and 50 dots in a line. The
"binary" style has a more "computer"-like
orientation---8K dots, 16-dots clusters and 48 dots per line (which makes
for 384K lines). The "mega" style is suitable for downloading
large files---each dot represents 64K retrieved, there are eight dots in a
cluster, and 48 dots on each line (so each line contains 3M). If
"mega" is not enough then you can use the "giga"
style---each dot represents 1M retrieved, there are eight dots in a
cluster, and 32 dots on each line (so each line contains 32M).
With --progress=bar, there are currently two possible parameters,
force and noscroll.
When the output is not a TTY, the progress bar always falls back to
"dot", even if --progress=bar was passed to Wget during
invocation. This behaviour can be overridden and the "bar"
output forced by using the "force" parameter as
--progress=bar:force.
By default, the bar style progress bar scroll the name of the file
from left to right for the file being downloaded if the filename exceeds
the maximum length allotted for its display. In certain cases, such as
with --progress=bar:force, one may not want the scrolling filename
in the progress bar. By passing the "noscroll" parameter, Wget
can be forced to display as much of the filename as possible without
scrolling through it.
Note that you can set the default style using the "progress"
command in .wgetrc. That setting may be overridden from the command
line. For example, to force the bar output without scrolling, use
--progress=bar:force:noscroll.
- --show-progress
- Force wget to display the progress bar in any verbosity.
By default, wget only displays the progress bar in verbose mode. One may
however, want wget to display the progress bar on screen in conjunction
with any other verbosity modes like --no-verbose or --quiet.
This is often a desired a property when invoking wget to download several
small/large files. In such a case, wget could simply be invoked with this
parameter to get a much cleaner output on the screen.
This option will also force the progress bar to be printed to stderr
when used alongside the --output-file option.
- -N
- --timestamping
- Włącza stosowanie znaczników czasu
(time-stamping).
- --no-if-modified-since
- Do not send If-Modified-Since header in -N mode.
Send preliminary HEAD request instead. This has only effect in -N
mode.
- --no-use-server-timestamps
- Nie ustawia znacznika czasu pliku lokalnego na podstawie
znacznika z serwera.
Domyślnie, gdy plik jest pobierany, używany jest znacznik
czasu pliku zdalnego. Pozwala to na użycie opcji
--timestamping w kolejnych wywołaniach wgeta. Czasem
korzystniej jest ustawić znacznik czasu na podstawie rzeczywistego
czasu pobierania; w tym celu powstała opcja
--no-use-server-timestamps.
- -S
- --server-response
- Wypisuje nagłówki wysyłane przez
serwery HTTP i odpowiedzi wysyłane przez serwery FTP.
- --spider
- Wywołany z tą opcją, Wget
będzie zachowywał się jak sieciowy
pająk (Web spider), to znaczy, że nie będzie
pobierał stron, a jedynie sprawdzał, czy tam są.
Można to wykorzystać to sprawdzenia zakładek
(bookmarks), na przykład tak:
wget --spider --force-html -i bookmarks.html
Ta funkcja wymaga jeszcze wiele pracy, by Wget osiągnął
możliwości zbliżone do prawdziwych
pająków WWW.
- -T seconds
-
--timeout=sekundy
- Ustawia sieciowy czas oczekiwania na sekundy sekund.
Jest to odpowiednik jednoczesnego podania --dns-timeout,
--connect-timeout i --read-timeout.
Podczas interakcji z siecią, Wget może sprawdzić czas
oczekiwania i przerwać operację, gdy zabiera zbyt
dużo czasu. Zapobiega to takim anomaliom jak zawieszenie odczytu i
niekończące się łączenie. Jedynym
domyślnym czasem oczekiwania jest 900 sekundowe oczekiwanie na
odczyt. Ustawienie "0", wyłączy go. Nie poleca
się zmian domyślnych ustawień, chyba że wie
się, co się robi.
Wszystkie opcje związane z czasami oczekiwania akceptują
wartości dziesiętne oraz ułamki sekundowe, np.
0.1 jest poprawną (choć bezsensowną)
wartością czasu oczekiwania. Wartości mniejsze od
sekundy są przydatne do sprawdzania czasu odpowiedzi serwera lub w
celu testowania opóźnienia sieciowego.
-
--dns-timeout=sekundy
- Ustawia czas translacji adresów DNS na
sekundy sekund. Jeśli translacja DNS nie zostanie
ukończona w podanym czasie, zakończy się
błędem. Domyślnie, nie ma ograniczeń czasowych
innych niż wynikających z implementacji bibliotek
systemowych.
-
--connect-timeout=sekundy
- Ustawia czas oczekiwania połączenia na
sekundy sekund. Połączenia TCP, które
potrzebują więcej czasu do poprawnego nawiązania,
zostaną przerwane. Domyślnie, czas oczekiwania
połączenia nie jest zdefiniowany, z
wyłączeniem rozwiązań zaimplementowanych w
bibliotekach systemowych.
-
--read-timeout=sekundy
- Ustawia czasy oczekiwania odczytu (i zapisu) na
sekundy sekund. "Czas" odnosi się tu do czasu
bezczynności, tzn. jeśli w dowolnej chwili pobierania,
dane nie są otrzymywane przez więcej niż podana
liczba sekund, to odczyt zwraca błąd, a pobieranie jest
restartowane. Opcja ta nie wpływa bezpośrednio na czas
trwania samego pobierania.
Zdalny serwer może oczywiście przerwać
połączenie wcześniej, niż wynika to z
wymagań tej opcji. Domyślny czas oczekiwania odczytu wynosi
900 sekund.
-
--limit-rate=wielkość
- Ogranicza prędkość pobierania do
wielkość bajtów na sekundę.
Wielkość może być wyrażona w bajtach,
kilobajtach (z przyrostkiem k lub megabajtach (z przyrostkiem
m. Na przykład --limit-rate=20k ograniczy
prędkość pobierania do 20 KB/s. Jest to przydatne,
gdy z jakiegoś powodu nie chce się pozwolić Wgetowi
na zajęcie całej przepustowości łącza.
Opcja wymaga liczb dziesiętnych, połączonych z
reguły z odpowiednim przyrostkiem; poprawną
wartością jest na przykład --limit-rate=2.5k.
Proszę zauważyć, że implementację Wgeta
jest wstrzymywanie transferu na pewny czas po tym, gdy odczyt sieciowy
zabiera mniej czasu niż wynikałoby to z
żądanej przepustowości. Ta strategia skutkuje
ostatecznie spowolnieniem transferu TCP do wartości
przybliżonej do podanej. Osiągnięcie zbalansowanego
poziomu może chwilę potrwać, dlatego proszę
się nie dziwić, że ograniczanie przepustowości
nie działa zbyt dobrze w przypadku bardzo małych
plików.
-
-w sekundy
-
--wait=sekundy
- Odczekuje zadaną liczbę sekund
pomiędzy kolejnymi pobraniami. Zaleca się używanie
tej opcji, gdyż zmniejsza obciążenie serwera
dzięki rzadszym żądaniom. Czas, zamiast w sekundach,
można podać w minutach dodając przyrostek
"m", w godzinach - dodając "h" lub w dniach -
dodając "d".
Określanie dużej wartości tej opcji przydaje się
jeśli sieć lub komputer docelowa są
wyłączone. Wówczas Wget może odczekać
wystarczająco długo, by rozsądnie spodziewać
się, że przed ponowną próbą
błąd sieci został naprawiony. Na czas oczekiwania
określony przez tę opcję wpływa
--random-wait.
-
--waitretry=sekundy
- Opcję tę stosujemy jeśli nie chcemy,
by Wget czekał pomiędzy każdym pobraniem, a
tylko pomiędzy ponawianymi próbami nieudanych pobrań.
Wget zastosuje odczekiwanie liniowe (linear backoff),
czekając 1 sekundę po pierwszym niepowodzeniu z danym
plikiem, następnie 2 sekundy po drugim niepowodzeniu z tym plikiem,
aż do maksymalnej liczby sekund, jaką podano. Zatem,
wartość 10 faktycznie spowoduje, że Wget
będzie odczekiwał łącznie do (1 + 2 + ... +
10) = 55 sekund na każdy plik.
Domyślna wartość jaka zostanie przyjęta, wynosi
10 sekund.
- --random-wait
- W niektórych z ośrodków wykonywana
jest analiza plików dziennikowych (tzw. logów), która
ma na celu zidentyfikowanie programów do pobierania, takich jak
Wget. Polega ona na wyszukiwaniu statystycznie znaczących
podobieństw między różnicami czasu, jaki
upłynął pomiędzy kolejnymi
żądaniami. Ta opcja powoduje, że dla zamaskowania
przed takimi analizami obecności Wgeta czas pomiędzy
żądaniami będzie się wahać od 0,5 do
1,5 * sekundy, gdzie sekundy podano opcją
--wait ( -w).
W artykule z 2001, w pewnej publikacji poświęconej rozwijaniu
oprogramowania na popularnych platformach klienckich, podano kod
wykonujący taką analizę na bieżąco.
Autor sugerował blokowanie na poziomie adresu klasy C, co ma
gwarantować, że programy pobierające zostaną
zablokowane niezależnie od zmiany adresów przedzielanych
przez DHCP.
Opcja --random-wait powstała z powodu tej
właśnie nierozważnej porady, zalecającej
blokowanie wielu postronnych użytkowników ośrodka z
powodu działań jednego z nich.
- --no-proxy
- Wyłącza używanie serwerów
pośredniczących, nawet jeśli zdefiniowano
odpowiednią zmienną środowiskową *_proxy.
-
-Q wielkość
-
--quota=wielkość
- Określa ograniczenie wielkości pobieranych
danych przy ściąganiu automatycznym. Limit podawany jest w
bajtach (domyślnie), kilobajtach (z przyrostkiem k) lub
megabajtach (z przyrostkiem m).
Note that quota will never affect downloading a single file. So if you
specify wget -Q10k https://example.com/ls-lR.gz, all of the
ls-lR.gz will be downloaded. The same goes even when several URLs
are specified on the command-line. The quota is checked only at the end of
each downloaded file, so it will never result in a partially downloaded
file. Thus you may safely type wget -Q2m -i sites---download will
be aborted after the file that exhausts the quota is completely
downloaded.
Ustawienie limitu na 0 lub na inf znosi ograniczenie
pobierania.
- --no-dns-cache
- Wyłącza buforowanie translacji DNS. Wget
zwykle zapamiętuje przetłumaczone adresy IP z DNS,
dzięki czemu nie musi odpytywać ponownie serwera DNS w
sprawie tego samego (zwykle małego) zestawu hostów, z
których następuje pobieranie. Bufor istnieje
wyłącznie w pamięci; nowa kopia Wgeta ponownie odpyta
serwery DNS.
W niektórych przypadkach zostało zgłoszone, że
buforowanie nazw hostów nie jest pożądane nawet, gdy
trwa to tylko tyle, ile działanie Wgeta. Po użyciu tej
opcji, Wget wysyła nowe żądanie translacji DNS
(bardziej precyzyjnie: nowe wywołanie gethostbyname lub
getaddrinfo) przy każdym zestawianiu nowego
połączenia. Proszę zauważyć, że
opcja ta nie wpływa na buforowanie, które może
być wykonywane przez odpowiednią bibliotekę lub w
zewnętrznej warstwie buforowania, takiej jak NSCD.
Jeśli przeznaczenie tej opcji nie jest całkowicie jasne,
prawdopodobnie nie ma potrzeby jej stosowania.
-
--restrict-file-names=tryby
- Zmienia znaki, które mają być cytowane
w odnośnikach zewnętrznych podczas tworzenia lokalnych nazw
plików. Znaki, które są ograniczone przez
tę opcję, są cytowane - tzn. zastępowane przez
%HH, gdzie HH jest liczbą szesnastkową
odpowiadającą ograniczonemu znakowi. Opcję
można wykorzystać również do wymuszenia
określonej wielkości liter.
Domyślnie, Wget cytuje znaki, które nie są
prawidłowe lub bezpieczne jako część nazwy
pliku w danym systemie operacyjnym, jak również znaki
kontrolne, które zwykle nie są wyświetlane. Opcja
jest przydatna do zmiany wartości domyślnych, np.
ponieważ plik został pobrany na partycję
nienatywną, aby wyłączyć cytowanie
znaków kontrolnych lub aby jeszcze bardziej ograniczyć
zestaw znaków, do wartości ASCII.
Tryby są zestawem wartości tekstowych, oddzielonych
przecinkiem. Akceptowanymi wartościami są: unix,
windows, nocontrol, ascii, lowercase i
uppercase. Wartości unix i windows są
wzajemnie sprzeczne (jedna przesłoni drugą), podobnie jak
lowercase i uppercase. Dwie ostatnie są
wartościami specjalnymi, ponieważ nie zmieniają one
zestawu znaków do cytowania, lecz wymuszają
przekształcenie ścieżek plików lokalnych na,
odpowiednio, małe litery i duże litery.
Jeśli użyje się trybu unix, to Wget
będzie cytował znak / oraz znaki kontrolne z
przedziałów 0-31 i 128-159. Jest to domyślne
zachowanie w systemach uniksowych.
Przy podaniu trybu windows, Wget cytuje znaki \, |,
/, :, ?, ", *, <,
> oraz znaki kontrolne w przedziałach 0-31 i 128-159.
Dodatkowo, w lokalnych nazwach plików, w trybie windowsowym Wget
oddziela nazwę komputera i port znakiem + zamiast :,
oraz używa @ zamiast ? do oddzielenia
części zapytania w nazwie pliku od reszty. Dlatego, URL
który w trybie uniksowym zostałby zachowany jako
www.xemacs.org:4300/search.pl?input=blah, w trybie windowsowym
zostanie zapisany jako www.xemacs.org+4300/search.pl@input=blah.
Jest to domyślny tryb w systemie Windows.
Tryb nocontrol wyłącza cytowanie znaków
kontrolnych. Opcja ta ma sens, gdy pobierane są URL-e
zawierające znaki UTF-8 w systemie, który może
zapisywać i wyświetlać nazwy plików w UTF-8
(część możliwych wartości bajtów
używanych w sekwencjach UTF-8 mieści się w zakresie
wartości opisywanych przez Wgeta jako "kontrolne".
Tryb ascii cytuje wszystkie bajty spoza zakresu znaków ASCII
(czyli większe niż 127). Przydatne, gdy kodowanie nazw
plików nie pasuje do tego używanego lokalnie.
- -4
- --inet4-only
- -6
- --inet6-only
- Wymusza połączenia z adresami IPv4 lub IPv6.
Z opcją --inet4-only lub -4, Wget
połączy się wyłącznie z adresami IPv4,
ignorując rekordy AAAA w DNS i odmawiając
połączenia z adresami IPv6 podanymi w URL-u. Analogicznie,
opcja --inet6-only lub -6 spowoduje łączenie
się wyłącznie z adresami IPv6 i ignorowanie
rekordów A i adresów IPv4.
Nie powinno się zwykle używać żadnej z tych
opcji. Domyślnie, Wget obsługujący adresy IPv6
będzie używał rodziny adresów
określonych przez rekord DNS hosta. Jeśli DNS odpowie
zarówno adresem IPv4 jak i IPv6, to Wget spróbuje
połączyć się z nimi po kolei, dopóki mu
się to nie uda (zob. też opcja --prefer-family opisana
poniżej).
Opcje te mogą posłużyć do celowego wymuszenia
użycia rodzin adresów IPv4 lub IPv6 w systemach o
podwójnej rodzinie adresów, zwykle w celu pomocy w
debugowaniu lub do obsługi nieprawidłowej konfiguracji
sieci. W tym samym czasie można użyć tylko jednej z
opcji --inet6-only i --inet4-only. Żadna z nich nie
jest dostępna we Wgecie skompilowanym bez obsługi IPv6.
-
--prefer-family=none/IPv4/IPv6
- Gdy do wyboru będzie kilka adresów,
łączy się najpierw z adresami z podanej rodziny.
Kolejność adresów zwrócona przez DNS
domyślnie jest używana bez zmian.
Zapobiega się w ten sposób fałszywym
błędom i próbom łączenia przy
dostępnie do hostów, które obsługują
zarówno adresy IPv6 jak i IPv4 z sieci IPv4. Na przykład
www.kame.net tłumaczy się na
2001:200:0:8002:203:47ff:fea5:3085 i 203.178.141.194.
Jeśli preferowaną rodziną adresów jest
"IPv4", to one są używane jako pierwsze;
jeśli preferowaną rodziną jest "IPv6",
adresy IPv6 mają pierwszeństwo. Jeśli podaną
wartością jest "none", to używana jest
kolejność adresów zwracana przez DNS.
W przeciwieństwie do opcji -4 i -6, ta opcja nie
wyklucza dostępu do którejś rodziny adresów -
zmienia jedynie kolejność wykorzystania
adresów. Proszę również
zauważyć, że zmiana kolejności wykonywana za
pomocą tej opcji jest stabilna - nie dotyka
kolejności adresów w tej samej rodzinie. Oznacza to,
że względna kolejność adresów IPv4 i
adresów IPv6, we wszystkich przypadkach pozostaje bez zmian.
- --retry-connrefused
- Uznaje "odrzucenie połączenia" za
błąd przejściowy i próbuje ponownie. Zwykle
Wget poddaje się w przypadku URL-i, przy których nie
może się połączyć, ponieważ taki
błąd uznawany jest za znak całkowitego
niedziałania serwera i ponowne próby zwykle nie
przyniosłyby rezultatu. Opcja jest przeznaczona do tworzenia kopii
lustrzanych stron na niestabilnych serwerach, które mają
tendencję do znikania na krótki czas z sieci.
-
--user=użytkownik
-
--password=hasło
- Określa użytkownika użytkownik
i hasło hasło do pobierania plików za
pomocą FTP i HTTP. Można przesłonić te
parametry za pomocą opcji --ftp-user i --ftp-password
w przypadku połączeń FTP oraz --http-user i
--http-password w przypadku połączeń
HTTP.
- --ask-password
- Pyta o hasło po zestawieniu każdego
połączenia. Nie można użyć tej opcji z
--password, ponieważ wzajemnie się
wykluczają.
-
--use-askpass=polecenie
- Prompt for a user and password using the specified command.
If no command is specified then the command in the environment variable
WGET_ASKPASS is used. If WGET_ASKPASS is not set then the command in the
environment variable SSH_ASKPASS is used.
You can set the default command for use-askpass in the .wgetrc. That
setting may be overridden from the command line.
- --no-iri
- Wyłącza obsługę URI ze znakami
narodowymi (IRI). Opcja --iri włącza ją.
Obsługa IRI jest domyślnie włączona.
Można ustawić domyślną wartość
obsługi IRI za pomocą polecenia iri w .wgetrc,
które może być przesłonięte z wiersza
poleceń.
-
--local-encoding=kodowanie
- Wymusza użycie kodowania jako
domyślnego kodowania systemowego. Wpływa to na
sposób, w jaki Wget przekształca URL-e podane jako argumenty
do kodowania UTF-8, w celu obsługi IRI.
Wget używa funkcji nl_langinfo(), a następnie zmiennej
środowiskowej CHARSET w celu ustalenia kodowania. Jeśli nie
powiedzie się to, używane jest ASCII.
Można ustawić domyślne kodowanie lokalne za
pomocą polecenia local_encoding w .wgetrc, które
może być przesłonięte z wiersza
poleceń.
-
--remote-encoding=kodowanie
- Wymusza użycie kodowania jako
domyślnego kodowania serwera zdalnego. Wpływa to na
sposób tłumaczenia URI znajdowanych w plikach, z kodowania
zdalnego na UTF-8 podczas pobierania rekurencyjnego.Opcja jest przydatna
tylko do obsługi IRI, w celu interpretacji znaków spoza
ASCII.
W przypadku HTTP, kodowanie zdalne można znaleźć w
nagłówku HTTP Content-Type i w metaznaczniku Content-Type
http-equiv.
Można ustawić domyślne kodowanie za pomocą
polecenia remoteencoding w .wgetrc, które może
być przesłonięte z wiersza poleceń.
- --unlink
- Wymusza wykonywanie unlink na plikach, zamiast przebijania
plików istniejących. Opcja jest przydatna w przypadku
pobierania do katalogu zawierającego dowiązania
zwykłe (twarde).
- -nd
- --no-directories
- Nie tworzy hierarchii katalogów przy pobieraniu
rekurencyjnym. Po włączeniu tej opcji wszystkie pliki
będą zapisywane do bieżącego katalogu bez
przebijania (jeśli nazwa pojawi się więcej niż
raz, nazwy plików otrzymają rozszerzenie .n).
- -x
- --force-directories
- Przeciwieństwo -nd. Wymusza utworzenie
hierarchii katalogów nawet jeśli nie miałaby
być stworzona. Np. wget -x http://fly.srk.fer.hr/robots.txt
zapisze ściągnięty plik jako
fly.srk.fer.hr/robots.txt.
- -nH
- --no-host-directories
- Wyłącza tworzenie katalogów z
nazwą hosta jako przedrostkiem. Domyślnie, -r
http://fly.srk.fer.hr/ spowoduje utworzenie struktury katalogów
zaczynającej się od fly.srk.fer.hr/, gdzie trafi
cała reszta. Ta opcja wyłącza takie zachowanie.
- --protocol-directories
- Używa nazwy protokołu jako
części nazwy katalogu plików lokalnych. Na
przykład, po użyciu tej opcji wget -r
http://host zostanie zapisane do katalogu
http/host /... zamiast do
host/....
-
--cut-dirs=liczba
- Ignoruje podaną liczbę
składowych katalogu. Przydatne do precyzyjnego sterowania
katalogami, w których będą składowane pliki z
pobierania rekurencyjnego.
Weźmy, na przykład, katalog
ftp://ftp.xemacs.org/pub/xemacs/. Jeżeli pobierzemy go z
-r, to lokalnie zostanie zachowany jako
ftp.xemacs.org/pub/xemacs/. Mimo że opcja -nH pozwala
na usunięcie części ftp.xemacs.org/, nadal
utkniemy z pub/xemacs. Tu właśnie z pomocą
przychodzi --cut-dirs. Powoduje, że Wget "nie
widzi" zadanej liczby składowych zdalnego katalogu. Oto
kilka przykładów pokazujących, jak działa
opcja --cut-dirs.
Brak opcji -> ftp.xemacs.org/pub/xemacs/ -nH ->
pub/xemacs/ -nH --cut-dirs=1 -> xemacs/ -nH
--cut-dirs=2 -> . --cut-dirs=1 -> ftp.xemacs.org/xemacs/
...
Jeśli chcemy po prostu pozbyć się struktury
katalogów, to opcja ta jest podobna do kombinacji -nd i
-P. Jednak --cut-dirs, w przeciwieństwie do
-nd, nie pozbywa się podkatalogów -- na
przykład, przy -nH --cut-dirs=1, podkatalog beta/
będzie, zgodnie z oczekiwaniami, umieszczony w
xemacs/beta.
-
-P prefiks
-
--directory-prefix=prefiks
- Ustawia przedrostek katalogów na prefiks.
Przedrostek katalogów oznacza katalog, zostaną
zapisane wszystkie inne pliki i katalogi, tzn. wierzchołek drzewa
pobierania. Domyślnym przedrostkiem jest ., katalog
bieżący.
-
--default-page=nazwa
- Używa nazwy jako domyślnej nazwy
pliku, gdy nie jest ona znana (np. w przypadku URL-ów
kończących się ukośnikiem), zamiast
index.html.
- -E
- --adjust-extension
- Jeśli pobierany jest plik typu
application/xhtml+xml lub text/html a jego URL nie
kończy się wyrażeniem regularnym
\.[Hh][Tt][Mm][Ll]?, to opcja ta spowoduje dodanie przyrostka
.html do lokalnej nazwy pliku. Przydatne, na przykład, gdy
tworzymy kopię lustrzaną witryny, która używa
stron .asp, ale chcemy, by pozyskane strony dawały
się przeglądać za pomocą własnego
serwera Apache. Innym dobrym zastosowaniem jest pobieranie wyjścia
generowanego przez skrypty CGI. URL typu
http://site.com/article.cgi?25 zostanie zachowany jako
article.cgi?25.html.
Proszę zauważyć, że pliki o zmienionych w ten
sposób nazwach będą ponownie pobierane za
każdym razem gdy będziemy odświeżać
kopię lustrzaną witryny. Dzieje się tak,
ponieważ Wget nie potrafi stwierdzić, że lokalny plik
X.html odpowiada zdalnemu URL-owi X (gdyż nie wie,
że ten URL tworzy wyjście typu text/html lub
application/xhtml+xml).
Wget upewni się też (stan na wersję 1.12), że
pobierane pliki typu text/css kończą się
przyrostkiem .css. Zmieniono nazwę tej opcji z
--html-extension, aby lepiej oddać to nowe zachowanie. Stara
nazwa opcji jest wciąż akceptowana, ale jest
przestarzała.
As of version 1.19.2, Wget will also ensure that any downloaded files with a
"Content-Encoding" of br, compress, deflate
or gzip end in the suffix .br, .Z, .zlib and
.gz respectively.
W przyszłości, opcja może zostać poszerzona, aby
objąć również przyrostki innych typów
zawartości, w tym takich, które nie są przetwarzane
przez Wget.
-
--http-user=użytkownik
-
--http-password=hasło
- Określa nazwę użytkownika i
hasło, które Wget prześle serwerowi HTTP. W
zależności od rodzaju protokołu
wezwanie-odpowiedź, Wget koduje je stosując albo
uwierzytelnianie podstawowe (basic, niechronione), albo w oparciu o
skrót (digest) lub też korzystając z metody Windowsa
(NTLM).
Another way to specify username and password is in the URL itself. Either
method reveals your password to anyone who bothers to run "ps".
To prevent the passwords from being seen, use the --use-askpass or
store them in .wgetrc or .netrc, and make sure to protect
those files from other users with "chmod". If the passwords are
really important, do not leave them lying in those files either---edit the
files and delete them after Wget has started the download.
- --no-http-keep-alive
- Wyłącza funkcję "keep-alive"
pobierań HTTP. Wget zwykle prosi serwer o utrzymywanie otwartego
połączenia, dzięki czemu, jeśli pobiera
się więcej niż jeden dokument z tego samego serwera,
są przesyłane tym samym połączeniem TCP.
Oszczędza to czas i redukuje obciążenie serwera.
Opcja jest przydatna, gdy połączenia stałe (keep-alive)
nie działają poprawnie, np. z powodu błędu
serwera lub niemożności obsługi takich
połączeń przez skrypty po stronie serwera.
- --no-cache
- Disable server-side cache. In this case, Wget will send the
remote server appropriate directives ( Cache-Control: no-cache and
Pragma: no-cache) to get the file from the remote service, rather
than returning the cached version. This is especially useful for
retrieving and flushing out-of-date documents on proxy servers.
Domyślnie, buforowanie jest dozwolone.
- --no-cookies
- Wyłącza używanie ciasteczek (cookies).
Ciasteczka są mechanizmem do przechowywania stanu po stronie
serwera. Serwer przesyła klientowi ciasteczko stosując
nagłówek Set-Cookie, a klient przy
późniejszych żądaniach odpowiada tym samym
ciasteczkiem. Ponieważ ciasteczka umożliwiają
właścicielom serwera prowadzenie rejestrów
gości i wymianę się tymi informacjami z innymi
ośrodkami, niektórzy uważają je za
pogwałcenie prywatności. Domyślnie cookies są
używane, jednak ich zapisywanie nie jest domyślnie
włączone.
-
--load-cookies plik
- Przed pierwszym pobraniem HTTP wczytuje ciasteczka z
pliku. Plik jest plikiem tekstowym w formacie, jaki
pierwotnie zastosowano dla pliku cookies.txt przeglądarki
Netscape.
Na ogół korzysta się z tej opcji przy tworzeniu kopii
lustrzanych tych ośrodków, które do skorzystania z
części lub całości zasobów
wymagają zalogowania się. Proces logowania się zwykle
polega na tym, że po otrzymaniu od nas informacji
uwierzytelniającej i jej zweryfikowaniu serwer WWW wysyła
ciasteczko HTTP. Następnie, gdy przeglądarka sięga do
zasobów, odsyła serwerowi otrzymane ciasteczko,
potwierdzając w ten sposób naszą
tożsamość.
Utworzenie kopii tego rodzaju witryny wymaga wysyłania przez Wget
takich samych ciasteczek, jakie podczas komunikowania się z tym
ośrodkiem przesyła nasza przeglądarka. Osiąga
się to za pomocą --load-cookies -- wystarczy
wskazać programowi lokalizację pliku cookies.txt, a
on wyśle te same ciasteczka, które w tej samej sytuacji
wysłałaby przeglądarka. Poszczególne
przeglądarki przechowują tekstowe pliki ciasteczek w
różnych miejscach:
- "Netscape 4.x."
- Ciasteczka są w ~/.netscape/cookies.txt.
- "Mozilla and Netscape 6.x."
- Plik ciasteczek Mozilli nazywa się
również cookies.txt, jest położony
gdzieś w ~/.mozilla, w katalogu właściwym dla
profilu użytkownika. Pełna ścieżka zazwyczaj
kończy się czymś w rodzaju
~/.mozilla/default/coś-dziwnego/cookies.txt.
- "Internet Explorer."
- Ciasteczko, jakiego mógłby użyć
Wget, można utworzyć korzystając z menu
"Plik" i opcji "Importuj i Eksportuj", "Eksportuj
pliki cookie". Zostało to przetestowane z Internet Explorerem
5 -- nie ma gwarancji, że będzie działać z
wcześniejszymi wersjami.
- "Other browsers."
- Jeżeli do tworzenia ciasteczek korzysta się z
innej przeglądarki, --load-cookies będzie
działać tylko wtedy, gdy uda się je
zlokalizować lub utworzyć plik ciasteczek w formacie
Netscape, jakiego oczekuje Wget.
Jeśli nie można skorzystać z
--load-cookies, jest
jeszcze inna możliwość. Jeśli używana
przeglądarka udostępnia "menedżera plików
cookie", można z niego skorzystać, żeby
podglądnąć ciasteczka, jakie zostały wykorzystane
podczas uzyskiwania dostępu do witryny, której kopię chce
się utworzyć. Proszę zapisać nazwę i
wartość ciasteczka, a następnie ręcznie
nakazać Wgetowi wysłanie ciasteczka o zadanej postaci,
obchodząc równocześnie "oficjalny" kod
odpowiedzialny za obsługę ciasteczek:
wget --no-cookies --header "Cookie:
I<nazwa>=I<wartość>"
-
--save-cookies plik
- Zachowuje ciasteczka do pliku przed wyjściem.
Nie zostaną zapisane ciasteczka przeterminowane lub
nieposiadające daty ważności (zwane
"ciasteczkami sesyjnymi"); por.
--keep-session-cookies.
- --keep-session-cookies
- Po podaniu, powoduje że --save-cookies
zachowuje również ciasteczka sesyjne, które zwykle
nie są zapisywane, ponieważ są przeznaczone do
zachowania w pamięci i usunięcia z niej po zamknięciu
przeglądarki. Zachowywanie ich może być przydatne na
stronach, które wymagają logowania lub odwiedzenia strony
głównej przed uzyskaniem dostępu do innych stron. Po
skorzystaniu z tej opcji, różne przebiegi Wgeta mogą
być traktowane jako jedna sesja przeglądarki, w
zależności od strony internetowej.
Ponieważ format pliku ciasteczek nie przechowuje zwykle ciasteczek
sesyjnych, Wget oznacza je znacznikiem czasowym przedawnienia
równym 0. Opcja --load-cookies rozpoznaje je jako ciasteczka
sesyjne, lecz może to zmylić inne przeglądarki.
Proszę zwrócić uwagę, że tak
załadowane ciasteczka będą traktowane jak inne
ciasteczka sesji, co oznacza, że trzeba użyć opcji
--keep-session-cookies ponownie, aby zachować je za
pomocą opcji --save-cookies.
- --ignore-length
- Niestety, niektóre serwery HTTP (dokładniej
mówiąc, programy CGI) wysyłają
błędne nagłówki Content-Length, co powoduje,
że Wget głupieje, sądząc, że nie
została pobrana całość dokumentu. Syndrom ten
można uchwycić, gdy Wget próbuje w
kółko pobierać ten sam dokument, za każdym
razem twierdząc, że (inaczej niż zwykle)
połączenie zostało zamknięte na
dokładnie tym samym bajcie.
Wywołany z tą opcją, Wget będzie
ignorował nagłówek Content-Length, tak jakby nie
istniał.
-
--header=wiersz-nagłówka
- Wysyła wiersz-nagłówka razem z
pozostałą częścią
nagłówka w każdym żądaniu HTTP. Podany
nagłówek jest wysyłany bez zmian, tak więc
musi zawierać nazwę i wartość (po dwukropku) i
nie może zawierać znaku nowego wiersza.
Możliwe jest określenie więcej niż jednego
dodatkowego nagłówka przez kilkakrotne podanie opcji
--header.
wget --header='Accept-Charset: iso-8859-2' \
--header='Accept-Language: hr' \ http://fly.srk.fer.hr/
Podanie pustego łańcucha jako nagłówka kasuje
wszystkie uprzednio zdefiniowane przez użytkownika
nagłówki.
Od Wgeta 1.10, można użyć tej opcji do
przesłonięcia nagłówków, które
byłyby wygenerowane automatycznie. Oto przykład nakazania
Wgetowi połączenie z komputerem lokalnym, jednak
podając foo.bar w nagłówku Host:
wget --header="Host: foo.bar" http://localhost/
W wersjach poniżej 1.10, takie użycie opcji --header
powodowało wysyłanie zduplikowanych
nagłówków.
-
--compression=typ
- Choose the type of compression to be used. Legal values are
auto, gzip and none.
If auto or gzip are specified, Wget asks the server to
compress the file using the gzip compression format. If the server
compresses the file and responds with the "Content-Encoding"
header field set appropriately, the file will be decompressed
automatically.
If none is specified, wget will not ask the server to compress the
file and will not decompress any server responses. This is the default.
Compression support is currently experimental. In case it is turned on,
please report any bugs to "[email protected]".
-
--max-redirect=liczba
- Określa maksymalną liczbę
przekierowań w celu dotarcia do zasobu. Domyślnie jest to
20, czyli znaczniej więcej niż z reguły potrzeba.
Opcja może się przydać, jeśli zajdzie potrzeba
pozwolenia na więcej (lub mniej) przekierowań.
-
--proxy-user=użytkownik
-
--proxy-passwd=hasło
- Określają nazwę użytkownika i
hasło, które zostaną użyte do
uwierzytelnianiana serwerze pośredniczącym. Wget koduje je
stosując podstawowy (basic) schemat uwierzytelniania.
Odnoszą się do tego podobne zagadnienia związane z
bezpieczeństwem, jak w przypadku opcji --http-password.
-
--referer=url
- Zamieszcza nagłówek "Referer:
url" w żądaniu HTTP. Przydatne do pobierania
dokumentów z takim przetwarzaniem po stronie serwera, które
zakłada, że są one zawsze pobierane przez
interaktywne przeglądarki internetowe i uznawane za poprawne tylko
wtedy, gdy Referer jest ustawione na jedną ze stron, które
na nie wskazują.
- --save-headers
- Zapisuje nagłówki wysyłane przez
serwer HTTP do pliku, przed właściwą
zawartością, z pustym wierszem jako separatorem.
-
-U nazwa-agenta
-
--user-agent=nazwa-agenta
- Serwerowi HTTP przedstawia się jako agent o podanej
nazwie.
Protokół HTTP pozwala klientom na podanie, za pomocą
pola User-Agent nagłówka swojej tożsamości.
Umożliwia to rozróżnianie oprogramowania WWW, zwykle
do celów statystycznych lub śledzenia naruszeń
protokołu. Wget normalnie przedstawia się jako
Wget/wersja, gdzie wersja jest aktualnym numerem
wersji programu.
Znane są jednak pewne witryny narzucające politykę
przykrawania wyników stosownie do informacji dostarczonej im w polu
User-Agent. Mimo iż koncepcyjnie nie jest to taki zły
pomysł, zaczął być nadużywany przez
serwery odmawiające informacji klientom innym niż
(kiedyś) Netscape lub, częściej, Internet Explorer.
Ta opcja umożliwia zmianę linii User-Agent wysyłanej
przez Wget. Nie zachęcamy do używania tej opcji, chyba
że z pełną świadomością.
Podanie pustego łańcucha za pomocą
--user-agent="" powoduje, że Wget nie
będzie wysyłał nagłówka User-Agent w
żądaniach HTTP.
-
--post-data=łańcuch
-
--post-file=plik
- Używa metody POST do wszystkich
żądań HTTP i wysyła podane dane w ciele
żądania. --post-data wysyła
łańcuch jako dane, podczas gdy --post-file
wysyła zawartość pliku. W pozostałych
aspektach ich działanie jest identyczne. W
szczególności obie opcje oczekują
zawartości w postaci
klucz=wartość&klucz2=wartość2, kodowaniem
znaków specjalnych w postaci procentowej; jedyną
różnicą jest, że jedna oczekuje
zawartości jako parametru wiersza polecenia, a druga akceptuje
swą treść z pliku. W szczególności,
--post-file nie przysyła plików w postaci
załączników, muszą być to dane w
postaci klucz=wartość (z właściwym kodowaniem
"procentowym"), jak zaznaczono wyżej. Wget nie
obsługuje obecnie multipart/form-data przy przesyłaniu
danych POST, a jedynie application/x-www-form-urlencoded. Proszę
użyć jedynie jednej z opcji --post-data i
--post-file.
Proszę zauważyć, że wget nie wymaga aby
zawartość była w postaci
"klucz1=wartość1&klucz2=wartość2"
ani nie sprawdza tego. Wget przesyła takie dane, jakie mu
dostarczono. Większość serwerów oczekuje
jednak, aby dane POST występowały w powyższej postaci
przy przetwarzaniu formularzy HTML.
When sending a POST request using the --post-file option, Wget treats
the file as a binary file and will send every character in the POST
request without stripping trailing newline or formfeed characters. Any
other control characters in the text will also be sent as-is in the POST
request.
Proszę zwrócić uwagę, że Wget musi
znać rozmiar danych POST z góry. W związku z tym,
argumentem do opcji --post-file musi być zwykły plik;
przekazanie potoku FIFO lub czegoś takiego jak /dev/stdin
nie zadziała. Nie jest do końca jasne, jak
obejść to ograniczenie wpisane w protokół
HTTP/1.0. Choć HTTP/1.1 wprowadza transfer fragmentaryczny,
który nie wymaga wiedzy o długości
żądania z góry, to klient nie może go
używać, dopóki nie wie, że komunikuje
się z serwerem HTTP/1.1. Nie może tego wiedzieć,
dopóki nie otrzyma odpowiedzi, która wymaga pełnego
żądania...
Uwaga: Według stanu na wersję 1.15 przy przekierowaniu Wgeta
po sfinalizowaniu żądania POST, zachowanie programu
będzie zależało od kodu zwróconego przez
serwer. Jeśli będzie to 301 Moved Permanently, 302 Moved
Temporarily lub 307 Temporary Redirect, Wget, zgodnie z RFC2616,,
będzie kontynuował wysyłanie żądania
POST. Jeśli serwer chce zmienić metodę
żądań klienta przy przekierowaniu powinien
wysłać kod 303 See Other.
Przykład pokazuje, jak zalogować się do serwera
używającego POST, a następnie przejść
do pobierania żądanych stron, dostępnych
prawdopodobnie tylko dla użytkowników uwierzytelnionych:
# Logowanie do serwera. Można to zrobić tylko raz. wget
--save-cookies cookies.txt \ --post-data 'user=foo&password=bar'
\ http://example.com/auth.php # Teraz przechwytujemy
stronę lub strony o które nam chodzi. wget --load-cookies
cookies.txt \ -p http://example.com/interesting/article.php
Jeśli serwer używa ciasteczek sesji do śledzenia
uwierzytelnienia użytkownika, to powyższy przykład
nie zadziała, ponieważ --save-cookies nie zachowa ich
(podobnie jak przeglądarki), a plik cookies.txt
będzie pusty. W takim przypadku, oprócz
--save-cookies należy użyć
również --keep-session-cookies.
-
--method=metoda-HTTP
- Do skryptów "restowych" (RESTfull, gdzie
REST oznacza Representational State Transfer) Wget pozwala na
wysłanie innych metod HTTP bez konieczności jawnego
ustawiania ich przy pomocy opcji --header=Header-Line. Wget
użyje takiego łańcucha, jaki jest mu podany po
--method jako metoda HTTP do serwera.
-
--body-data=łańcuch-danych
-
--body-file=plik-danych
- Opcja musi być ustawiona gdy konieczne jest
wysłanie dodatkowych danych do serwera przy użyciu metody
podanej w --method. --body-data wysyła
łańcuch-danych jako dane, a --body-file
wysyła zawartość pliku-danych. Poza tym obie
opcje działają tak samo.
Obecnie --body-file nie służy do transmisji
plików jako całości. Wget nie obsługuje w tej
chwili "multipart/form-data" do transmisji danych, a jedynie
"application/x-www-form-urlencoded". W przyszłości
może się to zmienić tak, aby wget
wysyłał --body-file jako cały plik zamiast
wysyłania jego zawartości na serwer. Proszę
zauważyć, że Wget musi znać wpierw
zawartość danych BODY, dlatego argument do opcji
--body-file powinien być zwykłym plikiem.
Więcej szczegółów znajduje się w opisie
opcji --post-file. Powinno się podawać albo
opcję --body-data albo --body-file.
Jeśli Wget zostanie przekierowany po sfinalizowaniu
żądania, wznowi bieżącą metodę i
będzie wysyłał żądanie GET aż do
zakończenia przekierowania. Jest tak w przypadku wszystkich
kodów z wyjątkiem 307 Temporary Redirect, który
służy do bezpośredniego wskazania, ze metoda
nie powinna się zmienić. Inny wyjątek ma
miejsce gdy metoda jest ustawiona na "POST", ponieważ
wówczas przestrzegane są zasady określone przez
--post-data.
- --content-disposition
- Opcja włącza eksperymentalną
(niepełną) obsługę nagłówka
Content-Disposition. Może to obecnie spowodować dodatkowe
kluczenie serwera związane z żądaniami HEAD, znane
jest również kilka błędów, co powoduje,
że opcja ta domyślnie nie jest włączona.
Opcja jest przydatna niektórym programom CGI pobierającym
pliki, które używają nagłówków
Content-Disposition do opisania nazwy pobieranego pliku.
When combined with --metalink-over-http and
--trust-server-names, a Content-Type:
application/metalink4+xml file is named using the
"Content-Disposition" filename field, if available.
- --content-on-error
- Jeśli ta opcja jest włączona, to wget
nie będzie pomijał zawartości gdy serwer odpowie
kodem statusu http wskazującym na błąd.
- --trust-server-names
- If this is set, on a redirect, the local file name will be
based on the redirection URL. By default the local file name is based on
the original URL. When doing recursive retrieving this can be helpful
because in many web sites redirected URLs correspond to an underlying file
structure, while link URLs do not.
- --auth-no-challenge
- Jeśli opcja jest podana, Wget będzie
wysyłał proste (Basic) informacje uwierzytelniające
HTTP (nazwa użytkownika i hasło w jawnym tekście)
przy wszystkich żądaniach, tak jak domyślnie
robił to Wget w wersjach 1.10.2 i wcześniejszych.
Używanie tej opcji nie jest zalecane, jako że została
przeznaczona jedynie do obsługiwania kilku zapomnianych
serwerów, które nigdy nie wysyłają
pytań o uwierzytelnienie HTTP, lecz akceptują
nieżądane informacje uwierzytelniające, oprócz
uwierzytelnienia opartego na formularzu.
- --retry-on-host-error
- Consider host errors, such as "Temporary failure in
name resolution", as non-fatal, transient errors.
-
--retry-on-http-error=code[,code,...]
- Consider given HTTP response codes as non-fatal, transient
errors. Supply a comma-separated list of 3-digit HTTP response codes as
argument. Useful to work around special circumstances where retries are
required, but the server responds with an error code normally not retried
by Wget. Such errors might be 503 (Service Unavailable) and 429 (Too Many
Requests). Retries enabled by this option are performed subject to the
normal retry timing and retry count limitations of Wget.
Using this option is intended to support special use cases only and is
generally not recommended, as it can force retries even in cases where the
server is actually trying to decrease its load. Please use wisely and only
if you know what you are doing.
To support encrypted HTTP (HTTPS) downloads, Wget must be compiled with an
external SSL library. The current default is GnuTLS. In addition, Wget also
supports HSTS (HTTP Strict Transport Security). If Wget is compiled without
SSL support, none of these options are available.
-
--secure-protocol=protokół
- Choose the secure protocol to be used. Legal values are
auto, SSLv2, SSLv3, TLSv1, TLSv1_1,
TLSv1_2, TLSv1_3 and PFS. If auto is used, the
SSL library is given the liberty of choosing the appropriate protocol
automatically, which is achieved by sending a TLSv1 greeting. This is the
default.
Podanie SSLv2, SSLv3, TLSv1, TLSv1_1,
TLSv1_2 lub TLSv1_3 wymusza użycie odpowiedniego
protokołu. Jest to przydatne przy komunikacji ze starymi i
błędnymi implementacjami SSL serwera, które nie
pozwalają na łatwy wybór poprawnej wersji
protokołu przez bibliotekę SSL. Na szczęście,
takie serwery są rzadkością.
Specifying PFS enforces the use of the so-called Perfect Forward
Security cipher suites. In short, PFS adds security by creating a one-time
key for each SSL connection. It has a bit more CPU impact on client and
server. We use known to be secure ciphers (e.g. no MD4) and the TLS
protocol. This mode also explicitly excludes non-PFS key exchange methods,
such as RSA.
- --https-only
- W trybie rekurencyjnym podąża
wyłącznie za odnośnikami HTTPS.
- --ciphers
- Set the cipher list string. Typically this string sets the
cipher suites and other SSL/TLS options that the user wish should be used,
in a set order of preference (GnuTLS calls it 'priority string'). This
string will be fed verbatim to the SSL/TLS engine (OpenSSL or GnuTLS) and
hence its format and syntax is dependent on that. Wget will not process or
manipulate it in any way. Refer to the OpenSSL or GnuTLS documentation for
more information.
- --no-check-certificate
- Nie sprawdza certyfikatu serwera pod kątem
dostępnego ośrodka certyfikacji. Nie wymaga
również tego, aby nazwa hosta URL-a pasowała do nazwy
ogólnej w certyfikacie.
Od wersji 1.10, Wget domyślnie weryfikuje certyfikat serwera w
odniesieniu do znanych ośrodków certyfikacji,
przerywając nawiązanie połączenia SSL
(handshaking) i pobieranie pliku, jeśli weryfikacja się nie
powiedzie. Choć zwiększa się w ten sposób
bezpieczeństwo pobierań, zrywa to jednak
kompatybilność z niektórymi stronami, które
działały z poprzednimi wersjami Wgeta, szczególnie
korzystającymi z podpisanych przez siebie, wygasłych lub
niepoprawnych z innego powodu certyfikatów. Opcja ta wymusza
"niebezpieczny" tryb działania, który zmienia
błędy weryfikacji certyfikatów w ostrzeżenia i
pozwala kontynuować.
If you encounter "certificate verification" errors or ones saying
that "common name doesn't match requested host name", you can
use this option to bypass the verification and proceed with the download.
Only use this option if you are otherwise convinced of the site's
authenticity, or if you really don't care about the validity of its
certificate. It is almost always a bad idea not to check the
certificates when transmitting confidential or important data. For
self-signed/internal certificates, you should download the certificate and
verify against that instead of forcing this insecure mode. If you are
really sure of not desiring any certificate verification, you can specify
--check-certificate=quiet to tell wget to not print any warning about
invalid certificates, albeit in most cases this is the wrong thing to
do.
-
--certificate=plik
- Używa certyfikatu klienta z pliku. Jest to
konieczne w przypadku serwerów wymagających
certyfikatów od klientów, którzy się z nimi
łączą. Zwykle taki certyfikat nie jest wymagany, a
ten przełącznik jest opcjonalny.
-
--certificate-type=typ
- Określa typ certyfikatu klienta. Poprawnymi
wartościami są PEM (zakładany
domyślnie) i DER, znany również jako
ASN1.
-
--private-key=plik
- Odczytuje klucz prywatny z pliku. Pozwala to na
dostarczenie klucza prywatnego w oddzielnym od certyfikatu pliku.
-
--private-key-type=typ
- Określa typ klucza prywatnego. Akceptowanymi
wartościami są PEM (domyślnie) i
DER.
-
--ca-certificate=plik
- Używa pliku jako pliku z zestawem
ośrodków certyfikacji ("CA") do weryfikacji
pośredników. Certyfikaty muszą być w formacie
PEM.
Bez tej opcji, Wget szuka certyfikatów CA w lokalizacji systemowej,
wybranej podczas instalacji OpenSSL.
-
--ca-directory=katalog
- Określa katalog zawierający certyfikaty CA w
formacie PEM. Każdy plik zawiera certyfikat CA, a nazwa pliku jest
oparta o wartości skrótu wyliczonego na podstawie
certyfikatu. Osiąga się to przetwarzając katalog
certyfikatów narzędziem rehash pochodzącego z
OpenSSL. Używanie --ca-directory jest efektywniejsze od
--ca-certificate w przypadku, gdy zainstalowanych jest wiele
certyfikatów, ponieważ pozwala Wgetowi pobierać
certyfikaty na żądanie.
Bez tej opcji, Wget szuka certyfikatów CA w lokalizacji systemowej,
wybranej podczas instalacji OpenSSL.
-
--crl-file=plik
- Specifies a CRL file in file. This is needed for
certificates that have been revocated by the CAs.
- --pinnedpubkey=file/hashes
- Tells wget to use the specified public key file (or hashes)
to verify the peer. This can be a path to a file which contains a single
public key in PEM or DER format, or any number of base64 encoded sha256
hashes preceded by "sha256//" and separated by ";"
When negotiating a TLS or SSL connection, the server sends a certificate
indicating its identity. A public key is extracted from this certificate
and if it does not exactly match the public key(s) provided to this
option, wget will abort the connection before sending or receiving any
data.
-
--random-file=plik
- [OpenSSL and LibreSSL only] Use file as the source
of random data for seeding the pseudo-random number generator on systems
without /dev/urandom.
W takich systemach biblioteka SSL wymaga zewnętrznego
źródła losowości do rozpoczęcia pracy.
Może być EGD (por. --egd-file poniżej) lub
odczyt z zewnętrznego źródła podanego przez
użytkownika. Jeśli nie poda się tej opcji, Wget
poszuka losowych danych w $RANDFILE lub, jeśli zmienna nie jest
ustawiona, w $HOME/.rnd.
Pojawienie się błędu "Could not seed OpenSSL PRNG;
disabling SSL." oznacza, że należy zapewnić
losowe dane korzystając z jednej z powyższych metod.
-
--egd-file=plik
- [OpenSSL only] Use file as the EGD socket. EGD
stands for Entropy Gathering Daemon, a user-space program that
collects data from various unpredictable system sources and makes it
available to other programs that might need it. Encryption software, such
as the SSL library, needs sources of non-repeating randomness to seed the
random number generator used to produce cryptographically strong keys.
OpenSSL pozwala użytkownikowi podać swoje
źródło entropii za pomocą zmiennej
środowiskowej RAND_FILE. Jeśli pozostanie ona nieustawiona
lub podany plik nie tworzy wystarczającej losowości, OpenSSL
odczyta dane losowe z gniazda EGD podanego za pomocą opisywanej
opcji.
Jeśli nie poda się tej opcji (ani nie użyje się
równoważnego polecenia uruchomieniowego), EGD nigdy nie
zostanie użyte. Mechanizm ten nie jest potrzebny w nowoczesnych
systemach uniksowych, obsługujących
/dev/urandom.
- --no-hsts
- Wget supports HSTS (HTTP Strict Transport Security, RFC
6797) by default. Use --no-hsts to make Wget act as a
non-HSTS-compliant UA. As a consequence, Wget would ignore all the
"Strict-Transport-Security" headers, and would not enforce any
existing HSTS policy.
-
--hsts-file=plik
- By default, Wget stores its HSTS database in
~/.wget-hsts. You can use --hsts-file to override this. Wget
will use the supplied file as the HSTS database. Such file must conform to
the correct HSTS database format used by Wget. If Wget cannot parse the
provided file, the behaviour is unspecified.
The Wget's HSTS database is a plain text file. Each line contains an HSTS
entry (ie. a site that has issued a "Strict-Transport-Security"
header and that therefore has specified a concrete HSTS policy to be
applied). Lines starting with a dash ("#") are ignored by Wget.
Please note that in spite of this convenient human-readability
hand-hacking the HSTS database is generally not a good idea.
An HSTS entry line consists of several fields separated by one or more
whitespace:
"<hostname> SP [<port>] SP <include subdomains> SP
<created> SP <max-age>"
The hostname and port fields indicate the hostname and port to
which the given HSTS policy applies. The port field may be zero,
and it will, in most of the cases. That means that the port number will
not be taken into account when deciding whether such HSTS policy should be
applied on a given request (only the hostname will be evaluated). When
port is different to zero, both the target hostname and the port
will be evaluated and the HSTS policy will only be applied if both of them
match. This feature has been included for testing/development purposes
only. The Wget testsuite (in testenv/) creates HSTS databases with
explicit ports with the purpose of ensuring Wget's correct behaviour.
Applying HSTS policies to ports other than the default ones is discouraged
by RFC 6797 (see Appendix B "Differences between HSTS Policy and
Same-Origin Policy"). Thus, this functionality should not be used in
production environments and port will typically be zero. The last
three fields do what they are expected to. The field
include_subdomains can either be 1 or 0 and it signals whether the
subdomains of the target domain should be part of the given HSTS policy as
well. The created and max-age fields hold the timestamp
values of when such entry was created (first seen by Wget) and the
HSTS-defined value 'max-age', which states how long should that HSTS
policy remain active, measured in seconds elapsed since the timestamp
stored in created. Once that time has passed, that HSTS policy will
no longer be valid and will eventually be removed from the database.
If you supply your own HSTS database via --hsts-file, be aware that
Wget may modify the provided file if any change occurs between the HSTS
policies requested by the remote servers and those in the file. When Wget
exits, it effectively updates the HSTS database by rewriting the database
file with the new entries.
If the supplied file does not exist, Wget will create one. This file will
contain the new HSTS entries. If no HSTS entries were generated (no
"Strict-Transport-Security" headers were sent by any of the
servers) then no file will be created, not even an empty one. This
behaviour applies to the default database file ( ~/.wget-hsts) as
well: it will not be created until some server enforces an HSTS policy.
Care is taken not to override possible changes made by other Wget processes
at the same time over the HSTS database. Before dumping the updated HSTS
entries on the file, Wget will re-read it and merge the changes.
Using a custom HSTS database and/or modifying an existing one is
discouraged. For more information about the potential security threats
arose from such practice, see section 14 "Security
Considerations" of RFC 6797, specially section 14.9 "Creative
Manipulation of HSTS Policy Store".
-
--warc-file=plik
- Używa pliku jako celu pliku WARC.
-
--warc-header=łańcuch
- Używa łańcucha jako rekordu
warcinfo.
-
--warc-max-size=rozmiar
- Ustawia maksymalny rozmiar plików WARC na
rozmiar.
- --warc-cdx
- Zapisuje pliku indeksu CDX.
-
--warc-dedup=pliku
- Nie przechowuje rekordów wyszczególnionych w
danym pliku CDX.
- --no-warc-compression
- Nie kompresuje plików WARC za pomocą
GZIP.
- --no-warc-digests
- Nie oblicza sum SHA1.
- --no-warc-keep-log
- Nie przechowuje pliku dziennika w rekordzie WARC.
-
--warc-tempdir=katalog
- Określa położenie plików
tymczasowych tworzonych przy zapisie WARC.
-
--ftp-user=użytkownik
-
--ftp-password=hasło
- Określa nazwę użytkownika i
hasło serwera FTP. Bez tej opcji (i równoważnej opcji
uruchomieniowej) używane jest domyślne hasło
-wget@, używane zwykle do anonimowych FTP.
Inną metodę podania nazwy i hasła użytkownika
jest wyszczególnienie ich w samym URL-u. Obie te metody
ujawniają hasło każdemu, kto zechce uruchomić
ps. Żeby uchronić hasła przed podpatrzeniem,
należy przechowywać je w pliku .wgetrc lub
.netrc i, za pomocą chmod, zapewnić tym plikom
ochronę przed innymi użytkownikami. Jeżeli
hasła są naprawdę ważne, w tych plikach
też nie należy trzymać ich na stałe --
proszę usunąć je z plików zaraz po
rozpoczęciu pobierania przez Wgeta.
- --no-remove-listing
- Nie usuwa tymczasowych plików .listing
generowanych przez odczyty FTP. Normalnie, pliki te zawierają
nieprzetworzone listingi katalogów otrzymane z serwerów FTP.
Pozostawienie ich może się przydać do celów
diagnostycznych lub łatwego sprawdzenia zawartości
katalogów zdalnego serwera (np. do sprawdzenia, że tworzona
kopia lustrzana jest kompletna).
Proszę zauważyć, że mimo iż Wget zapisuje
w tym przypadku do pliku o znanej nazwie, nie jest to dziura w
zabezpieczeniach w sytuacji, gdy użytkownik stworzy .listing
jako dowiązanie symboliczne do /etc/passwd czy innego pliku
i poprosi superużytkownika (roota) o uruchomienie Wget w tym
katalogu. W zależności od użytych opcji, Wget albo
odmówi zapisu do .listing (co spowoduje niepowodzenie
operacji na maskach, rekurencyjnej czy zależnej od
znaczników czasu), albo dowiązanie symboliczne zostanie
usunięte i zastąpione faktycznym plikiem .listing,
albo też listing zostanie zapisany do pliku .listing.numer.
Choć ta sytuacja nie stwarza kłopotów, jednak root nie
powinien nigdy uruchamiać Wget w katalogu niezaufanego
użytkownika. Użytkownik taki mógłby na
przykład dowiązać index.html do
/etc/passwd i poprosić "root"a o uruchomienie Wget
z opcjami -N lub -r, tak że plik ten zostałby
nadpisany.
- --no-glob
- Wyłącza obsługę masek w
przypadku FTP. Obsługa masek oznacza, że można
używać znaków specjalnych,
uogólniających (wieloznaczników), takich jak
*, ?, [ i ], do pobrania większej
liczby plików z tego samego katalogu naraz, np.
wget ftp://gnjilux.srk.fer.hr/*.msg
Domyślnie obsługa masek będzie włączona
jeśli URL zawiera znaki uogólniające. Tej opcji
można użyć do włączenia
bądź wyłączenia obsługi masek na
stałe.
Może zajść potrzeba ujęcia URL-a w znaki
cudzysłowu, by uchronić go przed rozwinięciem przez
powłokę. Obsługa masek powoduje, że Wget
oczekuje listingu katalogu, którego postać jest
zależna od systemu. Z tego powodu obecnie działa tylko z
uniksowymi serwerami FTP (i z tymi, które potrafią
emulować wyjście uniksowego ls).
- --no-passive-ftp
- Wyłącza użycie pasywnego trybu
transferu FTP. Pasywny FTP nakazuje klientowi
łączącemu się z serwerem zestawić
połączenie, zamiast wykorzystywać inne
rozwiązania.
Jeśli komputer ma bezpośrednie połączenie z
Internetem, to zarówno pasywne jak i aktywne FTP powinny
działać tak samo dobrze. Za większością
zapór sieciowych i konfiguracji NAT, pasywny FTP ma
większą szansę działania. Jednak w
niektórych rzadkich konfiguracjach zapór, aktywny FTP
działa, a pasywny FTP nie. Jeśli zachodzi
prawdopodobieństwo, że ma miejsce ta sytuacja, proszę
użyć opisywanej opcji lub ustawić w swym pliku
konfiguracyjnym passive_ftp=off.
- --preserve-permissions
- Zachowuje uprawnienia zdalnych plików zamiast
uprawnień wynikających z umask.
- --retr-symlinks
- By default, when retrieving FTP directories recursively and
a symbolic link is encountered, the symbolic link is traversed and the
pointed-to files are retrieved. Currently, Wget does not traverse symbolic
links to directories to download them recursively, though this feature may
be added in the future.
When --retr-symlinks=no is specified, the linked-to file is not
downloaded. Instead, a matching symbolic link is created on the local
filesystem. The pointed-to file will not be retrieved unless this
recursive retrieval would have encountered it separately and downloaded it
anyway. This option poses a security risk where a malicious FTP Server may
cause Wget to write to files outside of the intended directories through a
specially crafted .LISTING file.
Proszę zauważyć, że przy pobieraniu pliku (nie
katalogu) podanego w wierszu poleceń, a nie
osiągniętego z powodu pobierania rekurencyjnego, opcja nie
odnosi skutku. W takich przypadkach plik docelowy dowiązania jest
zawsze pobierany.
- --ftps-implicit
- This option tells Wget to use FTPS implicitly. Implicit
FTPS consists of initializing SSL/TLS from the very beginning of the
control connection. This option does not send an "AUTH TLS"
command: it assumes the server speaks FTPS and directly starts an SSL/TLS
connection. If the attempt is successful, the session continues just like
regular FTPS ("PBSZ" and "PROT" are sent, etc.).
Implicit FTPS is no longer a requirement for FTPS implementations, and
thus many servers may not support it. If --ftps-implicit is passed
and no explicit port number specified, the default port for implicit FTPS,
990, will be used, instead of the default port for the "normal"
(explicit) FTPS which is the same as that of FTP, 21.
- --no-ftps-resume-ssl
- Do not resume the SSL/TLS session in the data channel. When
starting a data connection, Wget tries to resume the SSL/TLS session
previously started in the control connection. SSL/TLS session resumption
avoids performing an entirely new handshake by reusing the SSL/TLS
parameters of a previous session. Typically, the FTPS servers want it that
way, so Wget does this by default. Under rare circumstances however, one
might want to start an entirely new SSL/TLS session in every data
connection. This is what --no-ftps-resume-ssl is for.
- --ftps-clear-data-connection
- All the data connections will be in plain text. Only the
control connection will be under SSL/TLS. Wget will send a "PROT
C" command to achieve this, which must be approved by the
server.
- --ftps-fallback-to-ftp
- Fall back to FTP if FTPS is not supported by the target
server. For security reasons, this option is not asserted by default. The
default behaviour is to exit with an error. If a server does not
successfully reply to the initial "AUTH TLS" command, or in the
case of implicit FTPS, if the initial SSL/TLS connection attempt is
rejected, it is considered that such server does not support FTPS.
- -r
- --recursive
- Włącza pobieranie rekurencyjne.
Domyślny maksymalny poziom wynosi 5.
-
-l głębokość
-
--level=głębokość
- Set the maximum number of subdirectories that Wget will
recurse into to depth. In order to prevent one from accidentally
downloading very large websites when using recursion this is limited to a
depth of 5 by default, i.e., it will traverse at most 5 directories deep
starting from the provided URL. Set -l 0 or -l inf for
infinite recursion depth.
wget -r -l 0 http://I<strona>/1.html
Ideally, one would expect this to download just 1.html. but
unfortunately this is not the case, because -l 0 is equivalent to
-l inf---that is, infinite recursion. To download a single HTML
page (or a handful of them), specify them all on the command line and
leave away -r and -l. To download the essential items to
view a single HTML page, see page requisites.
- --delete-after
- Ta opcja nakazuje Wget usunięcie każdego z
plików, jaki pobiera, po wykonaniu ściągania.
Jest przydatna do pobierania wstępnego (prefetching) popularnych
stron poprzez serwer pośredniczący, np.:
wget -r -nd --delete-after http://whatever.com/~popular/page/
Opcja -r nakazuje pobieranie rekurencyjne, a -nd nietworzenie
katalogów.
Proszę zauważyć, że --delete-after usuwa
pliki z lokalnego komputera. Nie wydaje polecenia DELE, na
przykład zdalnym ośrodkom FTP. Także jeśli
podano --delete-after, to --convert-links jest ignorowane,
więc przede wszystkim pliki .orig po prostu nie są
tworzone.
- -k
- --convert-links
- Po zakończeniu pobierania konwertuje
odnośniki w dokumencie tak, by nadawały się do
lokalnego przeglądania. Dotyczy to nie tylko widzialnych
odnośników hipertekstowych, ale każdej
części dokumentu, która prowadzi do
zewnętrznych materiałów, jak osadzone obrazki,
odnośniki do arkuszy stylów, odnośniki hipertekstowe
do zawartości innej niż HTML, itp.
Każdy odnośnik będzie zmieniony na jeden z dwu
sposobów:
- •
- Odnośniki do plików, które
zostały ściągnięte przez Wget zostaną
zmienione tak, by odwoływały się do pliku, na jaki
wskazują, jako odnośniki względne.
Przykład: jeśli ściągnięty plik
/foo/doc.html jest powiązany z z /bar/img.gif,
również ściągniętym, to odnośnik
w doc.html zostanie zmieniony tak, by wskazywał na
../bar/img.gif. Ten rodzaj przekształcenia działa
bezproblemowo dla dowolnej kombinacji katalogów.
- •
- Odnośniki do plików, które nie
zostały ściągnięte przez Wget zostaną
zmienione tak, by zawierały nazwę hosta i
ścieżkę bezwzględną miejsca, na
które wskazują.
Przykład: jeśli ściągnięty plik
/foo/doc.html jest powiązany z z /bar/img.gif (lub z
../bar/img.gif), to odnośnik w doc.html zostanie
zmieniony tak, by wskazywał na
http://hostname/bar/img.gif.
Z tego powodu, przeglądanie lokalne działa niezawodnie:
jeśli powiązany plik był ściągnięty,
to odnośnik wskazuje na jego lokalną nazwę, jeśli
nie był -- to na pełny adres internetowy, a nie pojawia
się popsuty odnośnik. Konwersja pierwotnych
odnośników na odnośniki względne zapewnia nam
możliwość przesuwania pobranej hierarchii
katalogów do innego katalogu.
Proszę zauważyć, że dopiero na samym końcu
pobierania Wget może rozpoznać, które odnośniki
zostały ściągnięte. Z tego powodu, opcja
-k
wykonuje swoją pracę po zakończeniu wszystkich
pobrań.
- --convert-file-only
- This option converts only the filename part of the URLs,
leaving the rest of the URLs untouched. This filename part is sometimes
referred to as the "basename", although we avoid that term here
in order not to cause confusion.
It works particularly well in conjunction with --adjust-extension,
although this coupling is not enforced. It proves useful to populate
Internet caches with files downloaded from different hosts.
Example: if some link points to //foo.com/bar.cgi?xyz with
--adjust-extension asserted and its local destination is intended
to be ./foo.com/bar.cgi?xyz.css, then the link would be converted
to //foo.com/bar.cgi?xyz.css. Note that only the filename part has
been modified. The rest of the URL has been left untouched, including the
net path ("//") which would otherwise be processed by Wget and
converted to the effective scheme (ie. "http://").
- -K
- --backup-converted
- Podczas konwersji pliku zachowuje kopię
zapasową pierwotnej wersji z przyrostkiem .orig.
Wpływa na zachowanie opcji -N.
- -m
- --mirror
- Włącza opcje odpowiednie do tworzenia kopii
lustrzanych. Ta opcja włącza rekurencję, stosowanie
znaczników czasu, ustawia nieograniczony poziom rekurencji i
zachowuje wypisania zawartości katalogów FTP. Obecnie jest
równoważna użyciu -r -N -l inf
--no-remove-listing.
- -p
- --page-requisites
- Opcja powoduje, że Wget ściągnie
wszystkie pliki niezbędne do poprawnego wyświetlenia danej
strony HTML. Obejmuje to takie rzeczy jak grafikę,
dźwięki i powiązane arkusze stylów.
Przy zwykłym trybie pracy, podczas pobierania pojedynczej strony
HTML, ewentualne powiązane dokumenty, które mogą
być potrzebne do poprawnego jej wyświetlenia, nie są
pobierane. Pomóc może użycie opcji -r z
-l, ale ponieważ Wget normalnie nie odróżnia
dokumentów zewnętrznych od włączonych, na
ogół pozostaje się z "oskubanymi
dokumentami", którym brakuje potrzebnych elementów
towarzyszących.
Na przykład, powiedzmy, że dokument 1.html zawiera
znacznik <IMG> odnoszący się do 1.gif i
znacznik <A> wskazujący na zewnętrzny dokument
2.html. Powiedzmy, że 2.html jest podobny, tyle,
że jego obrazkiem jest 2.gif a odnośnik wskazuje na
3.html. Załóżmy, że kontynuujemy takie
zależności aż do jakiejś dowolnie dużej
liczby.
Jeśli wykona się polecenie:
wget -r -l 2 http://I<strona>/1.html
to zostaną pobrane 1.html, 1.gif, 2.html,
2.gif i 3.html. Jak widać, 3.html nie posiada
towarzyszącego mu elementu, gdyż Wget w celu
określenia miejsca, gdzie powinien przerwać
rekurencję po prostu zlicza liczbę skoków (aż
do 2) od początkowego 1.html. Jednak przy takim poleceniu:
wget -r -l 2 -p http://I<strona>/1.html
zostaną ściągnięte wszystkie powyższe
pliki oraz wymagany przez 3.html plik 3.gif.
Podobnie,
wget -r -l 1 -p http://<strona>/1.html
spowoduje pobranie 1.html, 1.gif, 2.html i
2.gif. Można by sądzić, że:
wget -r -l 0 -p http://I<strona>/1.html
pobrałoby tylko 1.html i 1.gif, ale niestety tak nie
jest, gdyż -l 0 jest równoważnikiem -l
inf -- czyli nieskończonej rekurencji. Do pobrania pojedynczej
strony HTML (lub ich grupy, wszystkich podanych w wierszu poleceń
lub w pliku wejściowym URL-i -i) i towarzyszących jej
(lub im) elementów, wystarczy pominąć -r i
-l:
wget -p http://<strona>/1.html
Proszę zauważyć, że Wget zachowa się tak,
jakby podano opcję -r, ale zostanie pobrana tylko pojedyncza
strona i jej elementy. Program nie będzie
podążał za odnośnikami z tej strony do
zewnętrznych dokumentów. Faktycznie, do
ściągania pojedynczej strony i wszystkich
towarzyszących jej elementów (nawet jeśli
leżą one na odrębnych serwerach WWW) i upewnienia
się, że całość lokalnie poprawnie
się wyświetla, autor oprócz -p korzysta z
kilku dodatkowych opcji:
wget -E -H -k -K -p http://<strona>/<dokument>
Kończąc ten temat, warto wiedzieć, że Wget
uważa za odnośnik do dokumentu zewnętrznego
każdy URL podany w znaczniku <A>, <AREA> lub
<LINK>, oprócz <LINK REL="stylesheet">.
- --strict-comments
- Włącza ścisłe przetwarzanie
komentarzy HTML. Domyślnie, komentarze są przerywane po
pierwszym wystąpieniu -->.
Zgodnie ze specyfikacją, komentarze HTML są wyrażone
jako deklaracje SGML. Deklaracja jest specjalnym znacznikiem,
rozpoczynającym się <! i kończącym
się >, np. <!DOCTYPE ...>, która
może zawierać dodatkowe komentarze, między
parą ograniczników --. Komentarze HTML są
"pustymi deklaracjami", bez tekstu niebędącego
komentarzem. Stąd <!--foo--> jest poprawnym
komentarzem, jak również <!--one-- --two-->,
lecz <!--1--2--> nim nie jest.
Z drugiej strony, większość piszącym HTML nie
odczytuje komentarzy jako cokolwiek innego poza tekstem ograniczonym
<!-- i -->, co nie jest tym samym. Np. coś
takiego: <!------------> jest poprawnym komentarzem o ile
liczba minusów jest wielokrotnością czterech (sic!).
Jeśli tak nie jest, to ściśle mówiąc
komentarz kończy się dopiero po następnym
wystąpieniu --, które może
nastąpić np. na końcu dokumentu. Z tego powodu, wiele
popularnych przeglądarek internetowych całkowicie ignoruje
specyfikację i implementuje coś, czego użytkownicy
mogą się spodziewać: komentarze ograniczone
<!-- i -->.
Do wersji 1.9 Wget interpretował komentarze w sposób
ścisły, co powodowało wybrakowanie wielu
linków w stronach internetowych wyświetlających
się poprawnie w przeglądarkach, lecz mających
nieszczęście w postaci niezgodnych z normą
komentarzy. Począwszy od wersji 1.9, Wget
dołączył do grona klientów
implementujących "naiwne" komentarze, zamykając
każdy komentarz po pierwszym wystąpieniu -->.
Jeśli zajdzie potrzeba ścisłego parsowania komentarzy,
ta opcja je włączy.
-
-A lista-akc --accept
lista-akc
-
-R lista-odrz --reject
lista-odrz
- Określa oddzieloną przecinkami listę
przyrostków lub wzorców nazw plików do, odpowiednio,
zaakceptowania lub odrzucenia. Proszę pamiętać,
że maski (wieloznaczniki) tzn. *, ?, [ lub
], które pojawią się jako element
listy-akc lub listy-odrz, zostaną potraktowane jako
wzorzec, a nie przyrostek. W takim przypadku, aby uniknąć
rozwinięcia nazwy przez powłokę należy
ująć wzorzec w cudzysłowy, jak w przykładach
-A "*.mp3" lub -A '*.mp3'.
-
--accept-regex url-wyr-reg
-
--reject-regex url-wyr-reg
- Określa wyrażenie regularne do zaakceptowania
lub odrzucenia całego URL-a.
-
--regex-type typ-wyr-reg
- Określa typ wyrażenia regularnego.
Dozwolonymi wartościami są posix i pcre.
Proszę zauważyć, że w celu użycia typu
pcre wget musi mieć wkompilowaną
obsługę libpcre.
-
-D lista-domen
-
--domains=lista-domen
- Ustala domeny, do których program może
przechodzić. Lista-domen jest listą separowaną
przecinkami. Proszę zauważyć, że ta opcja
nie włącza -H.
-
--exclude-domains lista-domen
- Podaje domeny, do których program ma nie
przechodzić.
- --follow-ftp
- Podąża za odnośnikami FTP z
dokumentów HTML. Bez tej opcji Wget będzie ignorował
wszelkie odnośniki do FTP.
-
--follow-tags=lista
- Wget ma wewnętrzną tablicę par:
znacznik HTML/atrybut, którą posługuje się
przy poszukiwaniu powiązanych dokumentów podczas pobierania
rekurencyjnego. Aby brany był pod uwagę tylko pewien
podzbiór tych znaczników, należy użyć
tej opcji, podając je w postaci listy separowanej
przecinkami.
-
--ignore-tags=lista
- Jest to przeciwieństwo opcji --follow-tags.
Dzięki podaniu listy rozdzielonych przecinkami
znaczników HTML można pominąć je podczas
rekurencyjnego szukania dokumentów do pobrania.
Niegdyś, ta opcja była najlepszym wyborem do
ściągania pojedynczej strony razem z jej elementami,
użyta w wierszu poleceń:
wget --ignore-tags=a,area -H -k -K -r
http://<strona>/<dokument>
Jednak autor tej opcji przeszedł przez stronę ze znacznikami
typu <LINK REL="home" HREF="/"> i
uświadomił sobie, że -G nie wystarcza. Nie
można po prostu nakazać Wget ignorowania <LINK>,
gdyż wówczas nie będą ściągane
arkusze stylów. Obecnie najlepszym sposobem pobierania pojedynczej
strony razem z jej elementami jest specjalnie przeznaczona do tego opcja
--page-requisites.
- --ignore-case
- Ignoruje wielkość znaków przy
dopasowywaniu plików i katalogów. Wpływa to na
zachowanie opcji -R, -A, -I i -X, podobnie jak
przy stosowaniu masek przy pobieraniu stron FTP. Na przykład, po
zastosowaniu tej opcji -A "*.txt" dopasuje
plik1.txt, lecz również plik.TXT,
plik3.TxT itd. Cudzysłowy w przykładzie
powodują, że powłoka nie rozwija wzorca.
- -H
- --span-hosts
- Włącza przechodzenie pomiędzy hostami
przy pobieraniu rekurencyjnym.
- -L
- --relative
- Podąża tylko za odnośnikami
względnymi. Przydatne do pobierania konkretnej strony bez
żadnych odwracających uwagę dodatków, nawet z
tego samego hosta.
-
-I lista
-
--include-directories=lista
- Określa listę rozdzielonych
przecinkami katalogów, do których ma przechodzić
program podczas pobierania. Elementy listy mogą
zawierać znaki uogólniające (maski).
-
-X lista
-
--exclude-directories=lista
- Określa listę rozdzielonych
przecinkami katalogów, które chcemy wykluczyć z
pobierania. Elementy listy mogą zawierać znaki
uogólniające (maski).
- -np
- --no-parent
- Powoduje, że Wget przy pobieraniu rekurencyjnym
nigdy nie wchodzi do katalogu nadrzędnego. Przydatna opcja,
gdyż gwarantuje, że ściągane
będą tylko pliki poniżej pewnego poziomu.
Wget obsługuje serwery pośredniczące do pobierań
przez HTTP i FTP. Standardową metodą podawania
położenia serwera pośredniczącego w przypadku
Wgeta, są poniższe zmienne środowiskowe:
- http_proxy
- https_proxy
- Gdy ustawione, zmienne http_proxy i
https_proxy powinny zawierać URL-e serwerów
pośredniczących w, odpowiednio, połączeniach
HTTP i HTTPS.
- ftp_proxy
- Zmienna powinna zawierać URL serwera
pośredniczącego w połączeniach FTP.
Dość często spotyka się sytuację, gdy
http_proxy i ftp_proxy zawierają ten sam URL.
- no_proxy
- Zmienna powinna zawierać listę
rozszerzeń domen (separatorem jest przecinek), do których
nie będą stosowane serwery
pośredniczące. Jeśli na przykład
wartość no_proxy wynosi .mit.edu, to serwery
pośredniczące nie będą stosowane do pobierania
dokumentów z MIT.
W przypadku wystąpienia problemów Wget może
zwrócić jeden z poniższych kodów
zakończenia.
- 0
- Nie wystąpiły żadne problemy.
- 1
- Podstawowy kod błędu.
- 2
- Błąd przetwarzania danych -- np. przy
przetwarzaniu opcji wiersza polecenia, .wgetrc lub
.netrc...
- 3
- Błąd wejścia/wyjścia
pliku.
- 4
- Błąd sieci.
- 5
- Błąd weryfikacji SSL.
- 6
- Błąd uwierzytelnienia nazwy
użytkownika/hasła.
- 7
- Błędy protokołów.
- 8
- Serwer zwrócił błędną
odpowiedź.
Oprócz kodów 0 i 1, kody zakończenia o mniejszej
wartości liczbowej mają pierwszeństwo w sytuacji, gdy
wystąpi wiele typów błędów.
W wersjach Wgeta do 1.12, kody zakończenia były niespójne i
niezbyt pomocne. Pobierania rekurencyjne zawsze zwracały 0 (powodzenie)
bez względu na wystąpienie ewentualnych
błędów, a nierekurencyjne zwracały zawsze kod
zakończenia odpowiadający ostatniej próbie pobierania.
- /etc/wgetrc
- Domyślne położenie globalnego
pliku startowego.
- .wgetrc
- Plik startowy użytkownika.
You are welcome to submit bug reports via the GNU Wget bug tracker (see <
https://savannah.gnu.org/bugs/?func=additem&group=wget>) or to
our mailing list <
[email protected]>.
Visit <
https://lists.gnu.org/mailman/listinfo/bug-wget> to get
more info (how to subscribe, list archives, ...).
Przed faktycznym przedłożeniem zgłoszenia
błędu, proszę spróbować zastosować
się do kilku prostych wskazówek.
- 1.
- Proszę upewnić się, że
obserwowane zachowanie jest rzeczywiście błędem.
Jeśli Wget się wywala, jest to błąd.
Jeśli nie zachowuje się zgodnie z dokumentacją, jest
to błąd. Jeśli coś działa dziwnie, ale
nie ma pewności jak powinno to wyglądać,
również może być to błąd, ale
proszę dwa razy sprawdzić dokumentację i listy
dyskusyjne.
- 2.
- Proszę spróbować
powtórzyć ten błąd w możliwie
najprostszych warunkach. Np. jeśli Wget pada podczas
ściągania wget -rl0 -kKE -t5 -Y0 http://example.com -o
/tmp/log, należy spróbować sprawdzić, czy
to wywalanie się jest powtarzalne i czy pojawia się przy
prostszym zestawie opcji. Można nawet spróbować
zacząć pobieranie od strony, przy której
wystąpiła awaria i sprawdzić, czy to nie ta strona w
jakiś sposób ją powoduje.
Ponadto, choć co prawda prawdopodobnie autor będzie
zainteresowany zawartością pliku .wgetrc
użytkownika, zwykłe skopiowanie go do wiadomości o
błędzie jest raczej złym pomysłem. Zamiast
tego, należy najpierw sprawdzić, czy błąd
powtarza się przy .wgetrc przeniesionym w inne miejsce.
Proszę przesłać odpowiednie fragmenty tego pliku
tylko wtedy, gdy okaże się, że błąd
zależy od ustawień .wgetrc.
- 3.
- Proszę uruchomić Wget z opcją
-d i przesłać uzyskany wynik (lub związane z
błędem jego części). Jeśli Wget
został skompilowany bez obsługi debugowania, proszę
go przekompilować. Dużo łatwiej jest
śledzić błędy z udostępnioną
diagnostyką.
Uwaga: proszę upewnić się, że
usunęło się wszystkie potencjalnie prywatne dane z
dziennika debugowania, przed wysłaniem go na adres
zgłoszeń błędów. Opcja -d nie
będzie starała się zbierać danych prywatnych,
lecz dziennik będzie zawierał dość
kompletny zapis komunikacji Wgeta z serwerem, co może
obejmować także hasła i część
pobranych danych. Zgłoszenia błędów są
archiwizowane publicznie, tak więc należy uznać,
że zgłoszenia błędów są
również dostępne publicznie.
- 4.
- Jeśli Wget się wywala, proszę
uruchomić go w debuggerze, np. gdb `which wget` core i
wpisać where, by otrzymać stos wywołania (backtrace).
Może się to nie powieść, jeśli
administrator systemu wyłączył pliki core, ale zawsze
można spróbować.
Nie jest to kompletny podręcznik GNU Wgeta. Więcej
informacji, w tym pełniejszy opis niektórych opcji oraz wiele
poleceń możliwych do zastosowania w plikach
.wgetrc i z
opcją
-e znajduje się we wpisie
wget w GNU Info.
Also see
wget2(1), the updated version of GNU Wget with even better
support for recursive downloading and modern protocols like HTTP/2.
Originally written by Hrvoje Nikšić <
[email protected]>.
Currently maintained by Darshit Shah <
[email protected]> and Tim
Rühsen <
[email protected]>.
Copyright (c) 1996--2011, 2015, 2018--2022 Free Software Foundation, Inc.
Zezwala się na kopiowanie, rozpowszechnianie i/lub modyfikowanie tego
dokumentu na warunkach Licencji Wolnej Dokumentacji GNU (GNU Free
Documentation License) w wersji 1.3 lub jakiejkolwiek nowszej wersji
opublikowanej przez Fundację Wolnego Oprogramowania, przy czym Sekcjami
niezmiennymi są "GNU General Public License" i "GNU Free
Documentation License", bez treści przedniej lub tylnej strony
okładki. Egzemplarz licencji zamieszczono w sekcji zatytułowanej
"GNU Free Documentation License".
Autorami polskiego tłumaczenia niniejszej strony podręcznika
są: Wojtek Kotwica <
[email protected]> i Michał
Kułach <
[email protected]>
Niniejsze tłumaczenie jest wolną dokumentacją.
Bliższe informacje o warunkach licencji można uzyskać
zapoznając się z
GNU
General Public License w wersji 3 lub nowszej. Nie przyjmuje się
ŻADNEJ ODPOWIEDZIALNOŚCI.
Błędy w tłumaczeniu strony podręcznika prosimy
zgłaszać na adres listy dyskusyjnej
[email protected]