> > ups. ich will nicht packen sondern patchen. der unterschied > ist enorm. denn > eine einmal gepackte datei kann nicht mehr (wesentlich) weitergepackt > werden. ja, und die daten liegen schon komprimiert vor(zb. tif - lzw). > es gibt wesentliche teile in jeder der dateien, die man nicht > immer wieder > �bertragen m�sste. zb gabs bei einigen(nicht bei allen, aber vielen) > bildern, eine st�ndige wiederholung in jedem 2. byte. genau > da setzt dann > meine "weitere" optimierung an. diese bytes aus der > urspr�nglichen gel�scht > ergibt eine neues bild, welches sich auch in vielen dateien > stark �hnelte. > bei vektordaten(konstruktionspl�ne sind auch dabei) ists noch > �bler(im sinne > von redundant). da sind aber auch die dateigr��en nicht so > erheblich(aber > immerhin so ca. 1-5mb) >
Du irrst Dich... Eine einmal gepackte Datei enth�lt nicht mehr solche redundanzen. Du hast Dich vielleicht auch von den Texten reinlegen lassen... Diese bestehen nunmal aus vielen Worten, die sich st�ndig wiederholen... Das ist bei bin�rdaten anders... > > eine weitere "optimierungsm�glichkeit", die ich aber noch > nicht ganz zu ende > begutachtet habe, waren wiederholungen in der eigenen datei. > diese m�sste > ich nur einmal mitgeben und dann nur noch referenzen darauf. Genau das machen pack-algorithmen... > > > >In diesem Bereich ist es nicht einfach weitere Verbesserungen zu > erreichen... > > >Rein theoretisch ist es zwar wirklich so, dass man umso besser packen > >kann, je mehr vorinformation hat, jedoch muss man daf�r bestehende > >Algorithmen anpassen, denn diese fangen immer mit null > Information an... > > >Solche Algorithmen kann man auch gut an bestimmte Arten von > zu packende > >Daten anpassen, hierzu muss man aber nicht nur mit gesunden > >Menschenverstand arbeiten, sondern auch viel mit Tests... > > welches von den beiden traust du mir nicht zu ;)? > Es geht nicht ums zutrauen... Es ist halt viel Arbeit und man weiss nie, ob man es letztendlich besser als Winzip hinbekommt... > > >Du solltest es Dir wirklich schwer �berlegen, ob Du selbst weiter in > >diese Richtung forschen willst... Denn das k�nnte l�nger dauern... > > aber nat�rlich will ich. es macht nicht nur spa�, sonder ist �beraus > lehrreich > > > >Falls es Dich trotzdem interessiert, informier Dich �ber > folgende Themen: > >Informationstheorie, Informationsgehalt/menge, Entropie, Redundanz, > >Kodierungstheoreme, Quantisierung/Vektorquantisierung, > >Kompressionsalgorithmen, Huffman, Lempel-Ziv > >Hierzu findest Du bestimmt einige gute B�cher, ansonsten > kannst Du mit > >google starten... > > jetzt bist du etwas zu tief im detail ;) > ich bin immer noch beim patchen.. oder der gesunde teil des verstandes > fehlt.. Du kannst die Informationstheorie nicht austricksen. Packprogramme setzen auf einer tieferen Ebene f�rs packen an als das Patchen.... Wenn erstmal ein Datenstrom geschaffen wurde, der kaum noch Redundanzen enth�lt, dann kannst Du per Definition kaum Information k�rzen auch mit Deinem Patch-Algorithmus nicht mehr... > > >Wenn Du weiter machen willst, w�rde ich die Spielereien mit Texten > >lassen und gleich auf bin�re Daten verallgemeinern. > > wie kommts zu der aussage? rein informativ! Weil bin�re Daten andere Eigenschaften haben... Sie haben andere Arten von Redundanzen... Claudius | [aspdecoffeehouse] als [email protected] subscribed | http://www.aspgerman.com/archiv/aspdecoffeehouse/ = Listenarchiv | Sie k�nnen sich unter folgender URL an- und abmelden: | http://www.aspgerman.com/aspgerman/listen/anmelden/aspdecoffeehouse.asp
