Acho q vai funcionar:

$ cut -d\; -f3 arquivo | uniq -d | awk  '{ printf "/%s/d;",$0}' | sed
-f - arquivo > unicos

para duplicados basta usar uniq puro :-)

On 1/23/08, César Vianna <[EMAIL PROTECTED]> wrote:
> Buenas !!
>
> Tenho um csv com 5 campos. O terceiro são CPFs. Tenho que separar em dois
> arquivos: um com os CPFs duplicados e outro com os CPFs únicos.
>
> Fiz assim:
>
> cut -d";" -f3 arquivo.csv | uniq -d
>
> e
>
> cut -d";" -f3 arquivo.csv | uniq
>
>
> Ok. O problema é que eu perco o resto da linha. Tem alguma opção do uniq ou
> outro comando para recuperar o conteúdo da linha? Como os grupos ( \1 ... )
> em expressões regulares.
>
>
> [As partes desta mensagem que não continham texto foram removidas]
>
>


-- 
Tiago B Peczenyj
Linux User #405772

http://peczenyj.blogspot.com/
"what does not kill us makes us stronger"

Responder a