MOMENT ^^ Also, stop! Ich hab das gefühl, ihr bringt euch alle gegenseitig durcheinander.
Bei Grafikkarten in Notebooks heisst "dedicated" / "dediziert" in verbindung mit RAM immer, dass es ein paar Rambausteine auf dem Mainboard gibt, die fest der Grafikkarte zugeordnet sind. Die Grafikkarte hat also ihren eigenen, separaten Speicher, mit dem sie tun kann, was sie möchte. Das andere wäre dann Shared Memory, wo die Grafikkarte den Speicher der CPU mitbenutzt. Da gibt es heute drei Methoden: a) Der Grafikkarte wird eine feste Menge des RAM abgezweigt (32, 64, 128 MB etc) b) Der Grafikkarte wird dynamisch eine bestimmte Menge des RAM zugeordnet - eben soviel, wie sie gerade in der Situation benötigt. Im 2D betrieb also weniger, als im 3D-Betrieb c) Die Graka hat eine bestimmte Menge an eigenem Speicher meist 64 oder 128 MB, wenn ihr das nicht reicht, fängt sie an und benutzt den Hauptspeicher ( ATI nennt das HyperMemory, Nvidia TurboCache) Hier ist aber rein garnichts hyper oder turbo - das dedizierte RAM für eine Grafikkarte ist IMMER schneller, als es onboard RAM jemals sein könnte - allein die Verwaltung des RAM und die Verteilung der Speicherzugriffe auf beide Geräte bremst die Sache schon ordentlich aus. merke: onboard Lösungen, die "shared ram" haben, sind meistens ultra lahme gurken. sparversionen eben. Man kann sich die Kosten für eigenes Video-RAM sparen und verkauft den Kunden mit Marketingfaxen für Dumm - siehe HyperMemory und TurboCache. Grafikkarten, die auf die Festplatte zugreifen, gibt es garnicht - das ist Blödsinn.. *zitier* "Ich meinte der Unterschied wäre zwischen Grafikkarten mit eigenem Speicher und solchen, die die Festplatte benutzen (wobei ich selber von Hardware kaum was weiß. Man hat mir nur gesagt dass ich selber halt kein 3D-Desktop sehen könne weil man Grafikkarte einen zu kleinen Speicher hat)" */zitier* Am 22.04.07 schrieb Stefan Rinass <[EMAIL PROTECTED]>:
> Man hat mir nur gesagt dass ich selber halt kein > 3D-Desktop sehen könne weil man Grafikkarte einen zu kleinen Speicher hat) > Gut möglich. Ich kann mich noch an Zeiten erinnern-ich weiß nicht mehr, welcher Rechner das war, C128 oder CPC464, wo die Möglichkeit bestand, zwischen mehreren Screens hin und herzuschalten, d.h. auf dem einen (unsichtbaren) Screen wurde das "Bild" (Animationsframe o.ä.) aufgebaut, auf dem zweiten wurde es angezeigt. So hat man zwischen den Screens hin und hergeschaltet, um auf diese Weise einen "flüssige" Animation hinzubekommen. Ich denke, selbige Methode wird bis zu den heutigen GraKas angewendet, d.h. je mehr Speicher, desto mehr "Frames" lassen sich im Hintergrund generieren (oder auch gar keine, da zuwenig Speicher), Ich gehe nicht davon aus, das 3D-Effekte in Echtzeit -generiert und gleichzeitig dargestellt- werden. Gruß Stefan -- ---------------------------------------------------------------------------- PUG - Penguin User Group Wiesbaden - http://www.pug.org
-- Grüße, Mathias Baran --- Mathias Baran Rheingaustraße 106 65375 Oestrich-Winkel Tel.: 06723 - 885659 Mobil: 0176 - 20529172 ICQ: 77571225 Jabber: mathias[dot]baran[at]jabber[dot]ccc[dot]de
-- ---------------------------------------------------------------------------- PUG - Penguin User Group Wiesbaden - http://www.pug.org

