confirmei com um arquivo de 8 e 10GB -- alguma coisa acontece e o sed
se perde e apaga TUDO.

Nesse caso usei arquivos com linhas de 1023 caracteres.

Resumindo : cuidado... :)

2008/4/14 Tiago Barcellos Peczenyj <[EMAIL PROTECTED]>:
> 2008/4/14 Andre Xavier <[EMAIL PROTECTED]>:
>
> >
>  > Vc tentou com "sed -i" ? Nunca manipulei um arquivo tão grande com sed, mas
>  > vc poderia tentar:
>
>  Ola
>
>  Antes de sugerir o uso, eu criei um arquivo com 80 GB através de
>  concatenações sucessivas de um arquivo cheio de #
>
>  depois de fazer  sed -i '$d' arquivo veja só o que aconteceu:
>
>  $ wc 80GB
>  0 0 0 80GB
>
>  Não sei o que aconteceu, se estourou algum buffer, sei la, só sei q os
>  primeiros 80 GB não tinham \n (eram 80 * 1024 * 1024 * 1024 caracteres
>  identicos) e o sed apagou o arquivo.
>
>  Sugiro vc fazer um teste com MUITO cuidado.
>
>  []ś T
>



-- 
Tiago B Peczenyj
Linux User #405772

http://peczenyj.blogspot.com/
"what does not kill us makes us stronger"

Responder a