Ну и по сравнению со стандартным импортом Zoo у нашего множество достоинств
- По шаговый процесс
- Оптимизирован по памяти и времени исполнения каждого шага, чтобы слабый хостинг мог нормально работать.
- Удаление (или отключение) материалов которых нет в CSV
- Автоматически изменяет списки в полях виде checkbox, radio, select (опционально)
- отдельный импорт категорий и всех их полей
- наш импорт может искать по ключу (ID, Alias, Название, Артикул)
- Все поля (мета, настройки, ядро, пользовательские) можно импортировать и экспортировать в CSV
- Удобно расширяется для новых не стандартных элементов
+ очень гибкий экспорт. Например, можно выгрузить только пользовательские поля опубликованных материалов с типом "Товар", из категории "Холодильники" и отсортировать по имени.
Ну да, так то есть куда..
10к ИМХО должно за пару минут перевариваться..
Я делал импорт для другого проекта, там загружалось со скоростью ~1500 строк в секунду.
Так быстро потому что оптимизировано было именно для этого проекта.
База данных из 7 миллионов загружалась несколько суток.
Но вы не путайте теплое с мягким, то.
Если рассматривать именно Zoo, то нужно учитывать огромное количество факторов и взаимосвязей материалов
+ вся та гибкость, из-за которой компонентом пользуются.
Видим вы слабо представляете сколько процессов происходит при обычном сохранении материала

Если вычеркнуть например внутренние события API, проверки алиасов, привязки по ключу, изменить структуру хранения материала, убрать индексации и грохнуть еще пяток мелких вещей, то он конечно ускорится раз в 10-20, но тогда и сайтом особо не попользуешься =)
И не будет гибкости. которая всем нравится =)
ЗЫ. Так если истекает время выполнения скрипта, он перезакпускается с точки останова?
Как я уже сказал, он пошаговый. Каждый шаг обрабатывается ~10 сек. Много?