Цитата:
Сообщение от
EVGL
Все в одном. Один процесс контролирует множественные задания.
Идея такая.
1. Есть Interface - связь с DMF проектом и dataentity.
2. Есть Shared resource - связь с тем, где брать/куда класть файлы с данными.
3. Есть звязка между Interface и Shared resource.
4. Есть Interface log, промежуточная таблица, куда попадают данные для экспорта/импорта. Данные - это файлы сгенерированные DMF или для DMF.
5. Обработчик (пакетник) для обработки Shared resource, при запуске нужно указать какой ресурс. Сколько интерфейсов нужно мониторить, столько пактеных заданий запускаем. Для входящих интерфейсов файлы будут браться с ресурса и класться в Interface log со статусом Pending import. Для исходящих данных из Interface log будут браться строки с Pending export и отправляться на/в ресурс.
6. Обработчик для Pending import. Нужно одно пакетное задание.
7. Для экспорта нужны или триггеры, или можно натроить Auto push для dataentity с Incremental push only. Данные попадают в Interface log со статусом Pending export.
8. Обработчик для Pending import. Нужно одно пакетное задание.
9. Обработчик для Auto push интерфейсов.