Hoi, das geht zeitgesteuert mit cron bzw. whenever. Problematisch an diesem Workflow ist die Feststellung, ob die xml-Datei schon fertig hochgeladen ist oder nicht. Das könntest du aber z.B. darüber lösen, dass du im den Format der xml-Dateien nen speziellen Tag für's Ende der Datei vorschreibst.
Wenn man auf die xml-Dateien keinen Einfluß hat (weil sie von Dritten geschrieben werden) würde ich nen Node.js Service bauen der die Datein nach abgeschlossener Dateiübertragung parsed und die Daten in die Datenbank wirft. Beste Grüße, Daniel Am 27.07.11 08:30, schrieb Guido Pesch: > Hallo Leute, > > > > ich möchte folgendes Umsetzen. > > hier mal kurz eine Ablaufbeschreibung: > > 1. via ftp wird eine Datei (in meinem Fall eine XML-Datei) auf das > Server-Dir gelegt. > > > > 2. Jetzt kommt der Hintergrundprozess ins Spiel. > > Findet der Hintergrundprozess eine Datei so wird diese Verarbeitet. > > > > 3. Nach der Verarbeitung soll die Datei in ein anderes Verzeichnis > kopiert werden. > > > > > > So hier die Frage. > > Wie bekomme ich das Scannen eines Server-Directories als > Hintergrundprozess hin? > > Gibt es da Plugins? > > Hat da jemand Erfahrung > > > > Ich habe Delayerd_job mit http://daemons.rubyforge.org/ im Einsatz. Kann > man es damit realisieren? > > > > Danke und Gruß > > Guido > > > > _______________________________________________ > rubyonrails-ug mailing list > rubyonrails-ug@headflash.com > http://mailman.headflash.com/listinfo/rubyonrails-ug -- Daniel Schweighöfer Kameruner Str. 44 13351 Berlin 030 / 303 40 112 0176 / 626 54 026 mailto: dan...@netsteward.net http://netsteward.net _______________________________________________ rubyonrails-ug mailing list rubyonrails-ug@headflash.com http://mailman.headflash.com/listinfo/rubyonrails-ug