PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FTP-Client für die Konsole mit GetRight Qualitäten?



ElDiablo666
27.10.01, 14:07
Hallo Leute

Ich brauche einen FTP-Client für Linux aber am besten nur für die Konsole, weil ich kein X drauf habe. Der Client soll z.B. GetRight Qualitäten haben wie erneut versuchen bei Trennung nach einer bestimmten Zeit und das alles autmatisch. Ich sage ihm also dieser FTP, diese Datei und get oder reget und er versucht z.B. X Mal sich erneut zu connecten innerhalb einer bestimmten Zeit, wenn aus irgendwelchen Gründen die Verbindung unterbrochen wurde...

Gibt es sowas? Wenn nicht für die Konsole dann für X-Windows. Mein Traum ist es sowieso, daß ich X-Windows drauf mache (kenne ich mich leider noch nicht gut genug mit aus) und dann Status Fenster wie derzeitige Connections, Anzahl der User auf der Homepage/dem FTP grafisch anzeigen lassen kann...

Thanx 4 help... :)

Jorge
27.10.01, 17:25
Schon mal wget versucht?

Grüsse/Regards
Carsten :cool:

ElDiablo666
28.10.01, 18:03
Ne was ist das?

ElDiablo666
02.11.01, 18:01
Das Ding hier? : WGet (http://www.gnu.org/software/wget/wget.html)

ElDiablo666
03.11.01, 19:34
Keine Antwort... :(

Wenn das gemeint war also das geht nicht! Sah zuerst ganz gut aus das Programm aber der kann nur anonymous FTPs! :(

Weitere Vorschläge? :confused:

tuxus
06.11.01, 20:12
wie kommst du da drauf? :confused: :confused: :confused:
les mal hier: http://www.gnu.org/manual/wget/html_chapter/wget_1.html

Invoking

By default, Wget is very simple to invoke. The basic syntax is:

wget [option]... ...

Wget will simply download all the URLs specified on the command line. URL is a Uniform Resource Locator, as defined below.

However, you may wish to change some of the default parameters of Wget. You can do it two ways: permanently, adding the appropriate command to `.wgetrc' (See section Startup File), or specifying it on the command line.

URL Format

URL is an acronym for Uniform Resource Locator. A uniform resource locator is a compact string representation for a resource available via the Internet. Wget recognizes the URL syntax as per RFC1738. This is the most widely used form (square brackets denote optional parts):

[url]http://host[:port]/directory/file
ftp://host[:port]/directory/file

You can also encode your username and password within a URL:

ftp://user:password@host/path
http://user:password@host/path

Either user or password, or both, may be left out. If you leave out either the HTTP username or password, no authentication will be sent. If you leave out the FTP username, `anonymous' will be used. If you leave out the FTP password, your email address will be supplied as a default password.(1)

You can encode unsafe characters in a URL as `%xy', xy being the hexadecimal representation of the character's ASCII value. Some common unsafe characters include `%' (quoted as `%25'), `:' (quoted as `%3A'), and `@' (quoted as `%40'). Refer to RFC1738 for a comprehensive list of unsafe characters.

Wget also supports the type feature for FTP URLs. By default, FTP documents are retrieved in the binary mode (type `i'), which means that they are downloaded unchanged. Another useful mode is the `a' (ASCII) mode, which converts the line delimiters between the different operating systems, and is thus useful for text files. Here is an example:

ftp://host/directory/file;type=a

Two alternative variants of URL specification are also supported, because of historical (hysterical?) reasons and their wide-spreadedness.

FTP-only syntax (supported by NcFTP):

host:/dir/file

HTTP-only syntax (introduced by Netscape):

host[:port]/dir/file

These two alternative forms are deprecated, and may cease being supported in the future.

If you do not understand the difference between these notations, or do not know which one to use, just use the plain ordinary format you use with your favorite browser, like Lynx or Netscape.


*rofl* die smilies heißen natürlich "doppelpunkt" & "P"
blöde smilie funktion...:D

ElDiablo666
10.11.01, 15:33
Wer lesen kann ist klar im Vorteil also vielen Dank es scheint doch genau das zu sein, was ich gesucht habe!!! Mit der Option -c flickt er an und macht sogar vernünftige Ausgaben, wie weit er ist beim Download also vielen Dank.

Jetzt muss ich nur noch testen, was er beim Verbindungsabbruch macht und wie man ihn einstellt, daß er selber wieder weiter versucht... :)