confirmei com um arquivo de 8 e 10GB -- alguma coisa acontece e o sed se perde e apaga TUDO.
Nesse caso usei arquivos com linhas de 1023 caracteres. Resumindo : cuidado... :) 2008/4/14 Tiago Barcellos Peczenyj <[EMAIL PROTECTED]>: > 2008/4/14 Andre Xavier <[EMAIL PROTECTED]>: > > > > > Vc tentou com "sed -i" ? Nunca manipulei um arquivo tão grande com sed, mas > > vc poderia tentar: > > Ola > > Antes de sugerir o uso, eu criei um arquivo com 80 GB através de > concatenações sucessivas de um arquivo cheio de # > > depois de fazer sed -i '$d' arquivo veja só o que aconteceu: > > $ wc 80GB > 0 0 0 80GB > > Não sei o que aconteceu, se estourou algum buffer, sei la, só sei q os > primeiros 80 GB não tinham \n (eram 80 * 1024 * 1024 * 1024 caracteres > identicos) e o sed apagou o arquivo. > > Sugiro vc fazer um teste com MUITO cuidado. > > []ś T > -- Tiago B Peczenyj Linux User #405772 http://peczenyj.blogspot.com/ "what does not kill us makes us stronger"
