webdev2 писал(а):Parasite писал(а):Хех. А как Вы предлагаете бороться с фактом того,
По правде сказать, мне и в голову не приходила мысль раздавать тайлы по отдельности.
В том-то и дело, что не приходила.
А раздавать заархивированными кусками неизвестно от кого, где и как полученными - это уже давно было и без всяких P2P и прочих нововведений. P2P была предложена именно для обмена
тайлами помимо основного сервера-первоисточника -
читайте внимательнее. Когда, допустим, мне нужен ОДИН тайл Х-У-V на карте N, но на сервере карты N я забанен - то было бы неплохо, если бы я мог получить конкретно этот тайл другими путями от тех, у кого он уже есть, и чтобы это происходило по возможности автоматически и незаметно для меня. И разумеется без скачки многомегабайтных архивов, если мне нужен всего ОДИН тайл.
webdev2 писал(а):Архивируем. Чтобы каждый тип кэша лежал в своей папочке. И у нас получится не 10000, а один файл архива на карту.
Скажите, Вы когда-нибудь пробовали утоптать более-менее большое кол-во мелких файлов в один архив, а потом их распаковать - на среднестатистической машине? Я - да, и если Вы мне подскажете
работающий способ разовой запаковки\переноса\распаковки, например, одного из глубоких зумов одним архивом (например, 14 - число тайлов знаете) - то я Вам буду премного благодарен. Я еще помню, как в РАРе, ЗИПе и же с ними выглядят окошечки с мессагами о переполнениях памяти вообще и макс.числа доступных файлов в архиве частности. И если утоптать в архив еще как-то можно исхитриться (например юниксовой консольной версией, которая гораздо более стабильна), да и архивация идет как правило последовательно, файл за файлом по одному добавляясь в архив - то вот распаковать штатными методами намного сложнее (при открытии архива штатным РАРом\ЗИПом сперва идет чтение и вывод ТОС
всего архива с одновременным подсчетом CRC оного, и при большом количестве файлов в оном - архиватор просто-напросто вырубается\виснет с переполнением, и дальнейшей распаковки не получается, даже частичной). К Вашему сведению, от задачи копирования\переноса КУЧИ мелких файлов валится даже банальный ФАР при обычном копировании - ибо при копировании он сперва составляет очередь файлов для копирования, а если их несколько больше чем он может разово переварить - то происходит переполнение памяти уже на стадии подготовки к копированию.
Если же делать тысячи более мелких отдельных архивов (НЕ частей одного архива - ибо для архиватора это будет таки одним непрерывным архивом, со всеми вытекающими граблями описанными выше) на каждый зум, ручками - то это не стоит свеч ввиду трудоемкости и временнЫх затрат.
Я уж не говорю о том, что распаковка миллионов тайлов с архива на винт равна записи оных тайлов в ФС штатными средствами, и займет КУЧУ времени - примерно столько же, сколько обычное копирование этих файлов Эксплорером.... Попробуйте сами - для меня это уже пройденный этап, мы тут уже вполне пытались делать ФТП-обменник, и кое-кто из народа даже пользовался. Это оказалось банально НЕУДОБНЫМ даже несмотря на техн.ограничения, описанные выше.
webdev2 писал(а):Parasite писал(а):У меня лично более 400Гб кэша
Вы, батенька, гигант. Уважаю. Намедни читал, что для накопления информации тоже действует закон Мура - каждые 18 месяцев накопленная информация удваивается. И это наверное правда.
У меня кэша сильно меньше, но зато он в базе Sqlite. Я уж про это пост делал. Много удобств. И в плане переноса на ноуты/домашние/рабочие компы. И другие приятности.
Предпочитаю карманный USB-винт на 500. Удобств еще больше, как и скорости, как и непривязанности к конкретным осям и базоводам - из удобств, например, открытые тайлы в чистом виде плюс уже встроенная в ФС индексация\журналирование без необходимости делать это сторонними средствами.
webdev2 писал(а):Parasite писал(а):Не, до 18го я еще не добрался... Но процесс идет.
Вы все левелы по нисходящей качаете?
Да.
Вопрос крайне замедляется тем, что на первоисточнике часто меняют версии.
((((