CHAIKA

Главная | Регистрация | Вход
Вторник, 19.11.2019, 10:05
Приветствую Вас Гость | RSS
[Новые сообщения · Участники · Правила форума · Поиск · RSS ]
  • Страница 1 из 1
  • 1
Форум » Форум » Менеджеры загрузки » Менеджеры закачки для Linux
Менеджеры закачки для Linux
chaika2Дата: Вторник, 03.02.2009, 06:46 | Сообщение # 1
Admin
Группа: Администраторы
Сообщений: 649
Репутация: 0
Статус: Offline
Менеджеры закачки для Linux

Один из моментов которые не вызывают сомнения даже у ярых противников Linux, это то, что эта система рождена для сети. действительно многие замечают, что пингвин ведет себя стабильней во многих критических ситуациях, часто скорость работы несколько выше чем в Windows при тех же условиях. Это правда, чисто субъективное мнение, но “тысячи леммингов не могут ошибаться”. Не говорю уже о том, что хакерские атаки, вирусы и прочие неприятности Интернет здесь пока не прижились, поэтому можно спокойно оставлять компьютер, без присмотра не боясь, что через некоторое время он будет рассылать спам. Итак, посмотрим, чем можно закачать файлы в этой системе.

Прежде чем начать с обзора специализированных решений хотелось бы напомнить, что здесь, как и в Windows есть такие браузеры как Opera и Firefox, которые имеют неплохие менеджеры закачек. Кроме этого к Firefox имеется плагин FlashGot (www.flashgot.net) по популярности, занимающие первое место и умеющий автоматически определять установленные в системе менеджеры закачек, перехватывать ссылки с файлами определённых в настройках расширений и передача их выбранному менеджеру закачек. Применительно к Linux FlashGot умеет совместно работать с такими менеджерами как Aria,cURL, Gnome Gwget, KDE Kget и Downloader 4 X.

 
chaika2Дата: Вторник, 03.02.2009, 06:46 | Сообщение # 2
Admin
Группа: Администраторы
Сообщений: 649
Репутация: 0
Статус: Offline
Качаем в командной строке

Самым популярным инструментом для закачки файлов и целых сайтов является утилита GNU Wget, которая, как правило, устанавливается по умолчанию. Поддерживает все популярные протоколы HTTP/HTTPS и FTP, умеет работать через HTTP прокси-сервер. Чем так удобен wget? Самое главное, что wget является не-интерактивной программой, поэтому натравив программу на сайт вообще можно о ней забыть. Повлиять на ее работу можно только убив процесс (например, нажатием Ctrl+D в той консоли в которой запущена программа). При использовании веб-браузера, пользователь должен постоянно отвечать на какие то вопросы и скачивание больших объемов информации может быть утомительно. Чтобы скопировать весь сайт целиком достаточно ввести команду:

$ wget http://server.org/

И через некоторое время в текущем каталоге появится полная копия сайта. Чтобы при обрыве соединения закачка возобновлялась добавляем параметр -с. Так можно скачать отдельный файл.

$ wget -c http://server.org/file.rar

Параметр -r указывает на рекурсивный обход, а -l на его глубину. Обойдем рекурсивно все каталоги сайта, на глубину не более 10:

$ wget -r -l10 http://server.org/

Наиболее часто используемые параметры можно указать в конфигурационном файле .wgetrc, который создается в домашнем каталоге пользователя. Очень удобно скачивать файлы по расписанию. Например, создадим задачу для закачки файла в 02.00 (необходимо чтобы работал демон atd).

$ at 0200

warning: commands will be executed using /bin/sh

at> wget -c http://server.org/file.rar

at> Нажимаем Ctrl+D

Wget удобная и популярная программа, но к сожалению развивающаяся очень вяло. Поэтому стоит обратить свое внимание на сURL (http://curl.haxx.se/), которая поддерживает на порядок большее количество протоколов: FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, FILE и LDAP. Знает об сертификатах SSL, прокси, cookies, возможна аутендификация пользователей по имени и паролю.

Например, чтобы скачать заглавную страницу сайта, вводим:

$ curl http://www.linux.org/ -o linux.html

Параметров у нее довольно много, расскажу только о самом интересном, который привлек в свое время мое внимание именно к этой утилите. Называется он -r/–range. С его помощью можно указать только на часть файла. Что это нам дает? Находим несколько зеркал и загружаем файл частями с каждого зеркала, а затем собираем.

$ curl -r 0-350000000 http://releases.ubuntu.com/kubuntu/7.10/kubuntu-7.... -o kubuntu_7_10_1 &
$ curl -r 350000001- http://de.releases.ubuntu.com/kubuntu/7.10/kubuntu... -o kubuntu_7_10_2 &
После того как обе части будут скачаны, соединяем их, командой cat kubuntu_7_10_* > kubuntu-7.10-desktop-i386.iso. Проверяем контрольную сумму при помощи md5sum и если все нормально записываем дистрибутив на диск.

 
chaika2Дата: Вторник, 03.02.2009, 06:47 | Сообщение # 3
Admin
Группа: Администраторы
Сообщений: 649
Репутация: 0
Статус: Offline
Aria

Aria (aria.rednoah.com) В свое время это была весьма удобная утилита для скачивания файлов по протоколам FTP и HTTP имеющая множество функций и настроек. Программе можно было вскормить заготовленный список файлов, дальше она все делала сама. Кроме этого параллельно проверялась целостность закачанных файлов и при необходимости закачка повторялась. На сегодня интерфейс, основанный еще на первой версии библиотек GTK, уже вряд ли кого может удовлетворить. Хотя, повозившись с установками шрифтов в файле ~/.aria/rc.aria можно попробовать придать этому менеджеру вполне нормальный внешний вид. На замену первой версии уже продвигается Aria2 (aria2.sourceforge.net), в которой Татсухиро Тзукаява (Tatsuhiro Tsujikawa) отказался от графического интерфейса и вся работа происходит исключительно в командной строке. Поясняется это малой нагрузкой на систему и большими возможностями командной строки. Возможно, в 21 веке такая позиция будет оценена не многими, но та часть, которая понимает все удобства такого подхода только за. Поддерживаются протоколы HTTP/HTTPS/FTP/BitTorrent и Metalink. Изначально поддерживается сегментирование файла, поэтому в одной строке можно указать сразу несколько зеркал указывающих на один файл. Утилита сама разобьет файл на части, скачает, соберет и проверит.

Например, так можно качать файл с помощью одного соединения:

$ aria2c http://server.com/file.zip

А так будет задействовано 2 подключения к одному серверу:

$ aria2c -s 2 http://server.com/file.zip

А теперь заберем файл с двух разных серверов:

$ aria2c http://server.com/file.zip http://example.com/file.zip

Причем в одной команде можно смешивать разные протоколы, скачивая файл, с http и с ftp серверов. С torrent aria2 работает аналогично. Просто указываем .torrent файл с помощью параметра -T:

$ aria2c -T test.torrent

А такой командой можно просмотреть список файлов:

$ aria2c -T test.torrent -S

С metalink работаем аналогично:

aria2c -M test.metalink

Если указывается гипер-ссылка на torrent или metalink файлы, то дополнительных опций прописывать не нужно программа сама разберется, что нужно делать.

 
chaika2Дата: Вторник, 03.02.2009, 06:47 | Сообщение # 4
Admin
Группа: Администраторы
Сообщений: 649
Репутация: 0
Статус: Offline
Графические менеджеры

По умолчанию в KUbuntu в качестве менеджера закачки с графическим интерфейсом предлагается Downloader for X (www.krasu.ru/soft/chuchelo) Максима Кошелева, с него и начнем. По моему мнению, у него не самый удобный GTK+ интерфейс, но я знаю пользователей, которые думают совсем иначе.

Тем, кто пользовался Download Master, найдут много знакомого в D4X, все на своих местах и там где ожидаешь найти нужную опцию. Кстати предусмотрен запуск вообще без интерфейса. D4X умеет закачивать файлы по протоколам FTP и HTTP, в том числе рекурсивно, ведет отдельный каталог для каждой закачки, работает через прокси-сервер. Среди полезных возможностей встроенный планировщик для выполнения различных операций по расписанию, выборочный фильтр при закачке по HTTP, FTP-поиск для нахождения ближайшего сервера, ограничение скорости закачки и скачивание файла в несколько потоков для увеличения скорости. Реализована функция дистанционного управления программой, поддержка Drag-n-Drop, возможность ввода паролей. Во общем здесь можно найти все и вся для закачки файлов.

KGet

Установка sudo apt-get install kget.

Полнофункциональный менеджер закачек для среды KDE и интегрирующийся с Konqueror, сначала развивался, как отдельный проект, но уже с версии 3.1 все разработки ведутся под крылом KDE.

Настроек не много, можно выбрать тип соединения, указать поведение при разрыве связи, ограничить количество соединений. Есть возможность разорвать соединение по расписанию или по окончании всех закачек, но команду на разрыв придется вбивать вручную. Для разных типов файлов можно указать свой каталог для сохранения, для этого достаточно указать маску файла в меню Папки. Ссылка на ресурс скопированная в буфер обмена легко добавляется в программу, просто выбираем в значке в панели задач Вставить, затем выбрать каталог и имя файла куда сохранить файл и все. Новая задача готова. Вторым вариантом, является активация пункта «Цель для перетаскивания». В этом случае на рабочем столе появится стрелка, достаточно на нее бросит ссылку с браузера и задача готова. Созданный в KGet файл ссылок можно скормить wget который с удовольствием закачает все файлы. После выключения компьютера все задачи сохраняются и файлы можно докачать. Когда не хочется особенно возиться с настройками KGet весьма удобен.

 
chaika2Дата: Вторник, 03.02.2009, 06:49 | Сообщение # 5
Admin
Группа: Администраторы
Сообщений: 649
Репутация: 0
Статус: Offline
Gnome Transfer Manager (gtm.sourceforge.net)

Установка sudo apt-get install gtm

Программа построена на Gtk+ библиотеках , проект уже некоторое время практически не развивается. Работает по протоколам HTTP, HTTPS и FTP.

Параметров можно указать не много: прокси-сервер с информацией для аутентификации, команду которая будет выполнена по окончании закачки. Также как и KGet можно указать шаблон, чтобы GTM автоматически сортировал файлы по их расширению или имени. Отдельно вынесена возможность названная Numeric Download, автоматизирующий закачку файлов имена, которых отличаются только номером. Программа имеет удобную статистику скачивания.

Программа для копирования сайтов
WebHTTrack Website Copier (www.httrack.com)

Установка sudo apt-get install

Еще один полезный в хозяйстве инструмент, о котором нельзя умолчать. С его помощью можно скачивать целые сайты для локального просмотра. После запуска загружается браузера и с помощью мастера в пошаговом режиме указывается, что нужно скачать и куда сохранить .

При копировании сайтов сохраняется оригинальная структура, поэтому при просмотре вся навигация по ресурсу ничем не отличается от работы в он-лайн. Если сайт скачать за один раз не получилось, WebHTTrack умеет докачивать недостающее. Чтобы уменьшить трафик можно использовать фильтры и отобрать только действительно необходимое.

Кстати есть версия WinHTTrack для Windows 9x/NT/2000/XP.

Это далеко не все программы, которые можно использовать для закачки. Поиск по репозитарию дает большое количество самых разнообразных программ, всегда можно найти себе что-то по душе. Linux forever!

http://avsvdv.hoter.ru/wiki/1065/149...BB%D1%8F_Linux

 
Форум » Форум » Менеджеры загрузки » Менеджеры закачки для Linux
  • Страница 1 из 1
  • 1
Поиск:





 


счетчики посещений сайта
 
Хочешь помочь? Кликай, вводи код, а мы выплатим проекту бонус!
 
 
Copyright MyCorp © 2019 |