Mandi! bodr...@mail.dm.unipi.it
In chel dì si favelave...
bmdui http://www.beautylabs.net/software/dupseek.html
bmdui http://packages.debian.org/squeeze/perforate
Grazie dei link; io conoscevo anche:
http://premium.caribe.net/~adrian2/fdupes.html
--
I poveri debbono smetterla di
Ciao,
Il Lun, 7 Novembre 2011 11:06 am, Marco Gaiarin ha scritto:
bmdui http://www.beautylabs.net/software/dupseek.html
bmdui http://packages.debian.org/squeeze/perforate
Grazie dei link; io conoscevo anche:
http://premium.caribe.net/~adrian2/fdupes.html
Sì, lo conoscevo anche io, ma
On 11/04/2011 04:14 PM, Gollum1 wrote:
In data venerdì 04 novembre 2011 09:46:00, Premoli, Roberto ha scritto:
capita che tra copie, backup, copia della copia, aspetta che
salvo anche qui e via discorrendo, ci si ritrovi con molti file
duplicate in varie parti del disco. Prima di imbarcarmi
capita che tra copie, backup, copia della copia, aspetta che
salvo anche qui e via discorrendo, ci si ritrovi con molti file
duplicate in varie parti del disco. Prima di imbarcarmi nella
realizzazione di un batch di scansione e controllo, sapete se esiste
qualcosa di gia' fatto? Ovviamente NON
Il 04 novembre 2011 09:46, Premoli, Roberto
roberto.prem...@pfizer.com ha scritto:
capita che tra copie, backup, copia della copia, aspetta che
salvo anche qui e via discorrendo, ci si ritrovi con molti file
duplicate in varie parti del disco. Prima di imbarcarmi nella
realizzazione di un
CIAO !
Probabilmente un find con pipe a md5sum sulla directory origine, lo stesso
sulla destinazione ed una comparazione tra i due file di elenco digest è
quello che ti serve.
Valuta solo che.. dato che fai un calcolo di digest, potrebbe servire un bel
po di tempo (su directory ampie con file
Ciao,
Il Ven, 4 Novembre 2011 9:46 am, Premoli, Roberto ha scritto:
capita che tra copie, backup, copia della copia, aspetta che
salvo anche qui e via discorrendo, ci si ritrovi con molti file
duplicate in varie parti del disco. Prima di imbarcarmi nella
realizzazione di un batch di scansione
In data venerdì 04 novembre 2011 09:46:00, Premoli, Roberto ha scritto:
capita che tra copie, backup, copia della copia, aspetta che
salvo anche qui e via discorrendo, ci si ritrovi con molti file
duplicate in varie parti del disco. Prima di imbarcarmi nella
realizzazione di un batch di
On Wed, 2006-09-27 at 23:58 +0200, Giuseppe Ferruzzi wrote:
Ma solo a me stanno arrivando duplicati da questa lista ?
--
Giuseppe Ferruzzi
Anche a me ne sono arrivati molti.
--
Stefano Simonucci
GNU/Linux User: #81790 http://counter.li.org
--
Per REVOCARE l'iscrizione alla lista
Ma solo a me stanno arrivando duplicati da questa lista ?
--
Giuseppe Ferruzzi
--
Per REVOCARE l'iscrizione alla lista, inviare un email a
[EMAIL PROTECTED] con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a [EMAIL PROTECTED]
To UNSUBSCRIBE, email to [EMAIL PROTECTED
On Wed, Nov 19, 2003 at 06:18:45PM +, sinapsi wrote:
Ciao a tutti
Ho installato una debian 3.0 testing.
Ho patchato il kernel con grsecurity 1.9.12
Poich? Grsecurity non supporta pi? il kernel debian = 2.4.20 ho ricompilato
un vanilla kernel 2.4.22 con la patch grsecurity.
shhh :) dillo
Mattia Dongili [EMAIL PROTECTED] ha scritto nel messaggio
news:[EMAIL PROTECTED]
On Wed, Nov 19, 2003 at 06:18:45PM +, sinapsi wrote:
Ciao a tutti
Ho installato una debian 3.0 testing.
Ho patchato il kernel con grsecurity 1.9.12
Poich? Grsecurity non supporta pi? il kernel debian = 2.4.20
Ciao a tutti
Ho installato una debian 3.0 testing.
Ho patchato il kernel con grsecurity 1.9.12
Poichè Grsecurity non supporta più il kernel debian = 2.4.20 ho ricompilato
un vanilla kernel 2.4.22 con la patch grsecurity.
Il kernel funziona correttamente tranne per il fork dei processi.
Ogni
concatenati in
un quarto file finale, che riporta tutti gli iscritti, solo che alcuni
sono iscritti a più di una list e i loro indirizzi sono *duplicati*.
Come posso agire sul file finale per eliminare i duplicati e/o ordinare
gli indirizzi?
Grazie.
--
wiren
www.wiren.dyndns.org
resistenza
wiren [EMAIL PROTECTED] :
Come posso agire sul file finale per eliminare i duplicati e/o ordinare
gli indirizzi?
sort mi pare faccia entrambe le cose
--
The nightmare shall be over now _ There's nothing more to fear
Come join in our singing _ And dance with us now
- Blind Guardian
At 18.14 12/05/2003 +0200, wiren wrote:
[..]
Come posso agire sul file finale per eliminare i duplicati e/o ordinare
gli indirizzi?
devi usare uniq... ma il file deve essere già ordinato (in modo che i
duplicati siano adiacenti)
wagner:~# echo pippo file23
wagner:~# echo pluto file23
wagner
On Monday 12 May 2003 18:14, wiren wrote:
Sapreste indicarmi qual'è il comando linux che posso usare per
eliminare righe identiche (=stringhe identiche disposte su due righe
diverse) all'interno di un file?
uniq
--
Saluti,
Cristiano Riva
[EMAIL PROTECTED]
On Sat, Jul 20, 2002 at 03:02:04PM +0200, Angelo Siciliano - wrote:
Fastidioso in che senso, scusa? :)
Quando cambio mailbox si vede questo file in mezzo alle mailbox e non mi
piace... ;P
Non vedo perche' tu lo debba tenere in mezzo alle mailbox, io uso il
sistema analogo ma con maildrop e
On Fri, Jul 19, 2002 at 09:57:23AM +0200, Angelo Siciliano - wrote:
:0 Wh: msgid.lock
| formail -D 8192 msgid.cache
Solo che non sembra funzionare molto. In più il file che crea
(msgid.cache) e che raccoglie i message-id è molto fastidioso.
Fastidioso in che senso, scusa? :)
--
sabato 20 luglio 2002, alle 14:55, Christian Surchi ha scritto:
On Fri, Jul 19, 2002 at 09:57:23AM +0200, Angelo Siciliano - wrote:
:0 Wh: msgid.lock
| formail -D 8192 msgid.cache
Solo che non sembra funzionare molto. In più il file che crea
(msgid.cache) e che raccoglie i
Un saluto a tutti.
Ultimamente sto ricevendo i messaggi duplicati, cosa molto seccante e
fastidiosa. Allora ho messo le seguenti righe in .procmailrc, come
suggerito da man procmailex:
:0 Wh: msgid.lock
| formail -D 8192 msgid.cache
Solo che non sembra funzionare molto. In più
On Fri, Jul 19, 2002 at 09:57:23AM +0200, Angelo Siciliano - wrote:
Un saluto a tutti.
Ultimamente sto ricevendo i messaggi duplicati, cosa molto seccante e
fastidiosa. Allora ho messo le seguenti righe in .procmailrc, come
suggerito da man procmailex:
:0 Wh: msgid.lock
| formail
On Fri, Jul 19, 2002 at 09:57:23AM +0200, Angelo Siciliano - wrote:
Ultimamente sto ricevendo i messaggi duplicati, cosa molto seccante e
fastidiosa. Allora ho messo le seguenti righe in .procmailrc, come
suggerito da man procmailex:
non e' meglio che cerchi la causa della ricezione
venerdì 19 luglio 2002, alle 12:18, Roberto Rotta ha scritto:
Visto che usi mutt usa i delete-pattern sui messaggi duplicati
-Roberto
Ho dato un'occhiata al manuale di Mutt. Ho trovato che con il comando D
si imposta un pattern, per i messaggi duplicati basta mettere ~=.
C'è un modo perchè
On Fri, Jul 19, 2002 at 12:48:31PM +0200, Angelo Siciliano - wrote:
Visto che usi mutt usa i delete-pattern sui messaggi duplicati
Ho dato un'occhiata al manuale di Mutt. Ho trovato che con il comando D
si imposta un pattern, per i messaggi duplicati basta mettere ~=.
C'è un modo perchè
Il ven, 2002-07-19 alle 09:57, Angelo Siciliano - ha scritto:
:0 Wh: msgid.lock
| formail -D 8192 msgid.cache
Solo che non sembra funzionare molto. In più il file che crea
perche' il msgid cambia da ri-trasmissione all'altra, per cui sono
interpretati come messaggi diversi... come
26 matches
Mail list logo