Лучшие сообщения темы «Поиск в множестве имен»

 

digger

аксакал

Обрабатывать по одному проще.Я не уверен,что надо распараллеливать : будет одновременное чтение из запись многих файлов из одного диска,которое будет его насиловать и замедлит процесс.Распараллеливание имеет смысл только если обработка в памяти медленная и хочется использовать многопроцессорность,либо обработка связана с получением информации из медленного внешнего источника.Журнал - надо закрывать файл после каждой записи или использовать соотвествующий флаг файловой операции.Проще всего для журналирования держать отдельный файлик на каждый обрабатываемый файл и стирать его,если обработка завершена, file.bin and file.bin.journal.
   33.033.0

спокойный тип
Спокойный_Тип

старожил
★★
у тебя может перекос получиться - каждый поток взял по пачке задач из списка и отдельно работает, один долго работает - то ли завис или то ли просто задача тяжелая, другой быстро отработал и простаивает, в том или ином виде должен быть подбор задач по мере освобождения

проще ( и тупее конечно, UNIX way в чистом виде) это когда дочерний поток берет из пула первую свободную задачу , отработал - или убивается или берет следующую , опять же и по таймауту его проще прибивать если слишком долго работает и только результат обработки одной задачи потеряется и пулом задач можно управлять и число активных потоков менять на лету по необходимости

хотя в общем "и туда тоже можно" :D

ps или у тебя эта утилита которая смотрит логи и списки обработки делает - будет регулярно запускаться и подправлять списки?
   31.931.9
Это сообщение редактировалось 04.12.2014 в 13:51

в начало страницы | новое
 
Поиск
Настройки






Статистика
Рейтинг@Mail.ru
АвиаТОП
 
Яндекс.Метрика
website counter
 
free counters