Hoi,

das geht zeitgesteuert mit cron bzw. whenever. Problematisch an diesem
Workflow ist die Feststellung, ob die xml-Datei schon fertig hochgeladen
ist oder nicht. Das könntest du aber z.B. darüber lösen, dass du im den
Format der xml-Dateien nen speziellen Tag für's Ende der Datei vorschreibst.

Wenn man auf die xml-Dateien keinen Einfluß hat (weil sie von Dritten
geschrieben werden) würde ich nen Node.js Service bauen der die Datein
nach abgeschlossener Dateiübertragung parsed und die Daten in die
Datenbank wirft.

        Beste Grüße,

                Daniel

Am 27.07.11 08:30, schrieb Guido Pesch:
> Hallo Leute,
> 
>  
> 
> ich möchte folgendes Umsetzen.
> 
> hier mal kurz eine Ablaufbeschreibung: 
> 
> 1. via ftp wird eine Datei (in meinem Fall eine XML-Datei) auf das
> Server-Dir gelegt.
> 
>  
> 
> 2. Jetzt kommt der Hintergrundprozess ins Spiel. 
> 
> Findet der Hintergrundprozess eine Datei so wird diese Verarbeitet.
> 
>  
> 
> 3. Nach der Verarbeitung soll die Datei in ein anderes Verzeichnis
> kopiert werden. 
> 
>  
> 
>  
> 
> So hier die Frage.
> 
> Wie bekomme ich das Scannen eines Server-Directories als
> Hintergrundprozess hin?
> 
> Gibt es da Plugins?
> 
> Hat da jemand Erfahrung
> 
>  
> 
> Ich habe Delayerd_job mit http://daemons.rubyforge.org/ im Einsatz. Kann
> man es damit realisieren?
> 
>  
> 
> Danke und Gruß
> 
> Guido 
> 
> 
> 
> _______________________________________________
> rubyonrails-ug mailing list
> rubyonrails-ug@headflash.com
> http://mailman.headflash.com/listinfo/rubyonrails-ug


-- 

Daniel Schweighöfer
Kameruner Str. 44
13351 Berlin

030 / 303 40 112
0176 / 626 54 026
mailto: dan...@netsteward.net
http://netsteward.net

_______________________________________________
rubyonrails-ug mailing list
rubyonrails-ug@headflash.com
http://mailman.headflash.com/listinfo/rubyonrails-ug

Antwort per Email an