MOMENT ^^

Also, stop! Ich hab das gefühl, ihr bringt euch alle gegenseitig durcheinander.

Bei Grafikkarten in Notebooks heisst "dedicated" / "dediziert" in
verbindung mit RAM immer, dass es ein paar Rambausteine auf dem
Mainboard gibt, die fest der Grafikkarte zugeordnet sind.
Die Grafikkarte hat also ihren eigenen, separaten Speicher, mit dem
sie tun kann, was sie möchte.

Das andere wäre dann Shared Memory, wo die Grafikkarte den Speicher
der CPU mitbenutzt.
Da gibt es heute drei Methoden:

a) Der Grafikkarte wird eine feste Menge des RAM abgezweigt (32, 64, 128 MB etc)
b) Der Grafikkarte wird dynamisch eine bestimmte Menge des RAM
zugeordnet - eben soviel, wie sie gerade in der Situation benötigt. Im
2D betrieb also weniger, als im 3D-Betrieb
c) Die Graka hat eine bestimmte Menge an eigenem Speicher meist 64
oder 128 MB, wenn ihr das nicht reicht, fängt sie an und benutzt den
Hauptspeicher ( ATI nennt das HyperMemory, Nvidia TurboCache)

Hier ist aber rein garnichts hyper oder turbo - das dedizierte RAM für
eine Grafikkarte ist IMMER schneller, als es onboard RAM jemals sein
könnte - allein die Verwaltung des RAM und die Verteilung der
Speicherzugriffe auf beide Geräte bremst die Sache schon ordentlich
aus.

merke: onboard Lösungen, die "shared ram" haben, sind meistens ultra
lahme gurken. sparversionen eben. Man kann sich die Kosten für eigenes
Video-RAM sparen und verkauft den Kunden mit Marketingfaxen für Dumm -
siehe HyperMemory und TurboCache.

Grafikkarten, die auf die Festplatte zugreifen, gibt es garnicht - das
ist Blödsinn..

*zitier*
"Ich meinte der Unterschied wäre zwischen Grafikkarten mit
eigenem Speicher und solchen, die die Festplatte benutzen (wobei ich selber
von Hardware kaum was weiß. Man hat mir nur gesagt dass ich selber halt kein
3D-Desktop sehen könne weil man Grafikkarte einen zu kleinen Speicher hat)"
*/zitier*


Am 22.04.07 schrieb Stefan Rinass <[EMAIL PROTECTED]>:
>  Man hat mir nur gesagt dass ich selber halt kein
> 3D-Desktop sehen könne weil man Grafikkarte einen zu kleinen Speicher hat)
>

Gut möglich. Ich kann mich noch an Zeiten erinnern-ich weiß nicht mehr,
welcher Rechner das war, C128 oder CPC464, wo die Möglichkeit bestand,
zwischen mehreren Screens hin und herzuschalten, d.h. auf dem einen
(unsichtbaren) Screen wurde das "Bild" (Animationsframe o.ä.) aufgebaut,
auf dem zweiten wurde es angezeigt. So hat man zwischen den Screens hin
und hergeschaltet, um auf diese Weise einen "flüssige" Animation
hinzubekommen. Ich denke, selbige Methode wird bis zu den heutigen
GraKas angewendet, d.h. je mehr Speicher, desto mehr "Frames" lassen
sich im Hintergrund generieren (oder auch gar keine, da zuwenig
Speicher), Ich gehe nicht davon aus, das 3D-Effekte in Echtzeit
-generiert und gleichzeitig dargestellt- werden.

Gruß
Stefan




--
----------------------------------------------------------------------------
PUG - Penguin User Group Wiesbaden - http://www.pug.org




--
Grüße,

Mathias Baran

---

Mathias Baran
Rheingaustraße 106
65375 Oestrich-Winkel

Tel.:  06723 - 885659
Mobil: 0176 - 20529172
ICQ:   77571225
Jabber: mathias[dot]baran[at]jabber[dot]ccc[dot]de
-- 
----------------------------------------------------------------------------
PUG - Penguin User Group Wiesbaden - http://www.pug.org

Antwort per Email an