Hi,
ich habe mal wieder einen fall wo batch jobs gequeued werden muessten, 
bisher ein reines gedankenspiel.

cron ist fuer wiederkehrende ereignisse, at fuer einmale ereignisse
und jetzt suche ich was mit dem ich systemweit jobs queuen kann die
nacheinander evtl mit definierter parallelitaet abgearbeitet werden 
wuerden.

Gedanken waere sowas wie verschiedene job queues. Beim queuen kann ich
eine prioritaet und eine queue angeben und das wuerde dann abgearbeitet.

Ggfs koennte man noch parallelitaeten bzw dependencys angeben sowas
wie cpu bound, diskio bound, networkio bound etc so das ich 2 jobs,
den einen cpu und den anderen diskio bound parallelisieren kann.

Irgendwie habe ich den fall staendig und jedesmal baue ich mir die welt
neu mit xargs -P, oder perl wrappern die forken und execen - aber
irgendsowas wirds doch auch fertig geben oder?

Irgendwie fehlt da ein bischen Host OS/390 z/serie fuer unix ...

Flo
-- 
Florian Lohoff                                                 [email protected]

Attachment: signature.asc
Description: Digital signature

--
Linux mailing list [email protected]
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Antwort per Email an