> 
> ups. ich will nicht packen sondern patchen. der unterschied 
> ist enorm. denn
> eine einmal gepackte datei kann nicht mehr (wesentlich) weitergepackt
> werden. ja, und die daten liegen schon komprimiert vor(zb. tif - lzw).
> es gibt wesentliche teile in jeder der dateien, die man nicht 
> immer wieder
> �bertragen m�sste. zb gabs bei einigen(nicht bei allen, aber vielen)
> bildern, eine st�ndige wiederholung in jedem 2. byte. genau 
> da setzt dann
> meine "weitere" optimierung an. diese bytes aus der 
> urspr�nglichen gel�scht
> ergibt eine neues bild, welches sich auch in vielen dateien 
> stark �hnelte.
> bei vektordaten(konstruktionspl�ne sind auch dabei) ists noch 
> �bler(im sinne
> von redundant). da sind aber auch die dateigr��en nicht so 
> erheblich(aber
> immerhin so ca. 1-5mb)
> 

Du irrst Dich... Eine einmal gepackte Datei enth�lt nicht mehr solche
redundanzen. Du hast Dich vielleicht auch von den Texten reinlegen
lassen... Diese bestehen nunmal aus vielen Worten, die sich st�ndig
wiederholen... Das ist bei bin�rdaten anders...

> 
> eine weitere "optimierungsm�glichkeit", die ich aber noch 
> nicht ganz zu ende
> begutachtet habe, waren wiederholungen in der eigenen datei. 
> diese m�sste
> ich nur einmal mitgeben und dann nur noch referenzen darauf.

Genau das machen pack-algorithmen...

> 
> 
> >In diesem Bereich ist es nicht einfach weitere Verbesserungen zu
> erreichen...
> 
> >Rein theoretisch ist es zwar wirklich so, dass man umso besser packen
> >kann, je mehr vorinformation hat, jedoch muss man daf�r bestehende
> >Algorithmen anpassen, denn diese fangen immer mit null 
> Information an...
> 
> >Solche Algorithmen kann man auch gut an bestimmte Arten von 
> zu packende
> >Daten anpassen, hierzu muss man aber nicht nur mit gesunden
> >Menschenverstand arbeiten, sondern auch viel mit Tests...
> 
> welches von den beiden traust du mir nicht zu ;)?
> 

Es geht nicht ums zutrauen... Es ist halt viel Arbeit und man weiss nie,
ob man es letztendlich besser als Winzip hinbekommt...

> 
> >Du solltest es Dir wirklich schwer �berlegen, ob Du selbst weiter in
> >diese Richtung forschen willst... Denn das k�nnte l�nger dauern...
> 
> aber nat�rlich will ich. es macht nicht nur spa�, sonder ist �beraus
> lehrreich
> 
> 
> >Falls es Dich trotzdem interessiert, informier Dich �ber 
> folgende Themen:
> >Informationstheorie, Informationsgehalt/menge, Entropie, Redundanz,
> >Kodierungstheoreme, Quantisierung/Vektorquantisierung,
> >Kompressionsalgorithmen, Huffman, Lempel-Ziv
> >Hierzu findest Du bestimmt einige gute B�cher, ansonsten 
> kannst Du mit
> >google starten...
> 
> jetzt bist du etwas zu tief im detail ;)
> ich bin immer noch beim patchen.. oder der gesunde teil des verstandes
> fehlt..

Du kannst die Informationstheorie nicht austricksen. Packprogramme
setzen auf einer tieferen Ebene f�rs packen an als das Patchen.... Wenn
erstmal ein Datenstrom geschaffen wurde, der kaum noch Redundanzen
enth�lt, dann kannst Du per Definition kaum Information k�rzen auch mit
Deinem Patch-Algorithmus nicht mehr...

> 
> >Wenn Du weiter machen willst, w�rde ich die Spielereien mit Texten
> >lassen und gleich auf bin�re Daten verallgemeinern.
> 
> wie kommts zu der aussage? rein informativ!

Weil bin�re Daten andere Eigenschaften haben... Sie haben andere Arten
von Redundanzen...


Claudius


| [aspdecoffeehouse] als [email protected] subscribed
| http://www.aspgerman.com/archiv/aspdecoffeehouse/ = Listenarchiv
| Sie k�nnen sich unter folgender URL an- und abmelden:
| http://www.aspgerman.com/aspgerman/listen/anmelden/aspdecoffeehouse.asp

Antwort per Email an