Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: ATI stellt erste PCI Express Grafikkarten vor
Leonidas
2004-06-01, 12:48:08
Link (http://www.3dcenter.org/artikel/2004/06-01.php)
StefanV
2004-06-01, 13:08:57
so nimmt die neue Stärke bei 1600x1200 auch nicht wunder
Öhm, klingt irgendwie 'blöd'
"Besser wäre z.B. 'so ist die neue Stäre bei 1600x1200 auch kein Wunder"
Oder sowas in der Art (hm: so ist die neue Stärke bei 1600x1200 auch nicht verwunderlich)
€dit:
Ich find den Namen des Artikels auch nicht soo ganz passend :|
€dit2:
Im gleichen Zuge kritisieren wir die Bemühungen beider Marktführer, Benchmarks in der Auflösung 1600x1200, bei 4x Antialiasing und 8x anisotroper Filterung als Standard setzen zu wollen. Das geht voll am Anwender vorbei. Kaum jemand hat den Monitor für solche Auflösungen.
Da könnte man nochmal 'nachtreten' und als nebensatz nochmal reinbringen können, daß sich TFTs mit einer Auflösung von meist 1280x1024 durchzusetzen scheinen ;)
Original geschrieben von Stefan Payne
Ich find den Namen des Artikels auch nicht soo ganz passend :|Mein Titel war "Update zu ATIs Produkten". Hat Leo offensichtlich geändert.
Original geschrieben von Stefan Payne
Da könnte man nochmal 'nachtreten' und als nebensatz nochmal reinbringen können, daß sich TFTs mit einer Auflösung von meist 1280x1024 durchzusetzen scheinen ;)
Wenn ich mir die "großen" TFTs ansehe, dann liegen ATI und nV nicht verkehrt. ;)
StefanV
2004-06-01, 16:42:29
Original geschrieben von Axel
Wenn ich mir die "großen" TFTs ansehe, dann liegen ATI und nV nicht verkehrt. ;)
Welche von denen kann sich ein 'normaluser' leisten?? *eg*
Quasar
2004-06-01, 16:49:53
Original geschrieben von Stefan Payne
Öhm, klingt irgendwie 'blöd'
[...]
Öhm, nö. Klingt irgendwie nur anders (stilvoller) als von der Blöd-Zeitung gewohnt.
diedl
2004-06-01, 19:37:29
11ter Absatz
dass sie vorherst darauf verzichteten
mfg diedl
Zitat: ATI beschreibt die Vorzüge von einem nativen PCI-E-Interface in schillernden Farben.
Aha, warum sollte mann auch 2-Mal eine NEUE PCI - Expresskarte im Highend kaufen wenn 2005 die ersten Anwendungen rauskommen sollen die 4gb/sec in beide RICHTUNGEN unterstützen??
nv hingegen nur eine Bridge hat die beim WICHTIGEn Upload deutlich weniger kann!
-> Meine Meinung: Das ist "VORSÄTZLICHE FALSCHINFORMATION an den LESER!
Zitat: Übrigens wird die R360-Serie (Radeon 9800 /Pro/XT) für AGP fortgesetzt und nicht als PCI-E-Version angeboten.
Falsch: Die R360-Serie ist EOL! (9800XT und co)
-> Meine Meinung: Bewußte Verunsicherung an den Leser!
Zitat: Kritisieren müssen... Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben.
-> Meine Meinung:
1. Ist mehr nicht gleich schneller:
2. Ist DX9 Full Precision bei PS 2.0 genau das warum nv so abloost in den Test, sie müssen jede PS 2.0 Berechnung doppelt berechnen.
Das ist auch der Grund warum Farcry einen eigenen PS 1.x Pfad für FX-Karten geschrieben hat.
Das wars fürs erste!
Ich finde es ziemlich bedenklich das Ihr so EINDEUTIG die grüne Flagge im Vergleich hochhaltet! Ich habe diesen Artikel einem Freund von der WAZ zum LESEN geschickt und er sieht die Tendenz in diese Richtung bei diesem Artikel als gegeben an.
Die 8x1 Architektur der Radeon 9800 Pro gibt sich hier zwar ein wenig konventioneller, aber großartige Eskapaden außerhalb der DX 9 Spezifikationen sind auch nicht nötig, hat man doch die volle Optimierung der Microsoft API im Rücken, und quasi alle Standards gesetzt. Für Shaderprogramme geringerer Präzision setzt man FP16 ein (16-Bit Fließkommaoperationen), für "Full Precision" Shader gibt es den FP24 Modus. Hier hat nVidia, wie schon anfangs erwähnt einen kritischen Nachteil, denn die NV3x GPU's beherrschen generell kein FP24. Laut nVidia rechnen die vier Fließkommaeinheiten des NV35 Kerns automatisch mit der noch wesentlich höheren FP32 Präzision, sobald ein Programm FP24 anfordert. Diese Erhöhung der Präzision ist aber in FP24 Shaderprogrammen visuell nicht zu verspüren, alles was man also verspürt, ist niedrigere Leistung.
Quelle:
http://members.aon.at/grandadmiralthrawn/index.htm?http://www.hardoverclock.org/html/reviews/fx5900u_9800pro/5900u9800p_3.htm
Performance-Probleme mit Nvidia GeForce FX Karten
Bei Verwendung der Pixel-Shader 2.0 brechen die aktuellen GeForce FX Beschleuniger in allen gängigen DX9-Anwendungen (3DMark 03, TR6 AoD, Aquamark 3, Half-Life 2) deutlich ein. Wer diesen Artikel gründlich durchgelesen hat, wird auch den Grund dafür verstehen. Die Nvidia-Karten bieten nicht die Fließkommagenauigkeit fp24, sondern entweder nur fp16 oder fp32. Sollen die DirectX 9 Spezifikationen erfüllt werden, so muss man bei den GeForce FX Karten fp32 auswählen (also 128 Bit). Die ATI Radeon Karten können dagegen die vorgeschriebene fp24 (96 Bit) verwenden und sind dadurch von der Geschwindigkeit her klar im Vorteil. Die Treiber-Entwickler bei Nvidia versuchen die Problematik damit zu lösen, durch Cheats im Treiber die Routinen in der Anwendung zu umgehen und fp16 zu verwenden. Allerdings erreicht man dadurch nicht die nach DX9 vorgeschriebene Bildqualität. Zusätzlich schummeln die Nvidia-Ingenieure noch mit einer schlechten Qualiät des anisotropen Filters oder der Ersetzung von Shader-Programmen - wie in 3DMark 03 geschehen. Ein weiteres Problem soll das für Half-Life 2 geplante Motion Blur bringen. Dieses wird es nur für den Standard-DX9-Pfad geben, der mit voller Präzision arbeitet. Somit müssen GeForce FX Besitzer entweder ein Ruckeln hinnehmen (Ausnahme vermutlich GeForce FX 5900) oder darauf verzichten.
Nvidia wollte mit seiner einzigartigen CineFX-Architektur die Spielewelt angeblich revolutionieren, dabei war es ein reiner Marketinggag. Ob die jetzigen Chips mit verbesserten Treiber doch noch in Höchstform anlaufen können, bleibt zu bezweifeln. Bis dahin muss man auf jeden Fall mit fp16 oder Effekten nach dem DirectX 8.1 Standard vorlieb nehmen - wenn man denn stolzer Besitzer einer GeForce FX Karte ist.
Quelle: http://www.freeze-networks.de/pc/hardware/berichte/directx9/seite3.php
Zur R420 gibt es von sireric / ATi auf Beyond3D einen schönen Kommentar, der gut in diesen Artikel rein passen würde :
Thread : I dont mean to spread fud.. (http://www.beyond3d.com/forum/viewtopic.php?t=12683&start=0&postdays=0&postorder=asc&highlight=&sid=e532c2e3b79c2fc02c6db85849f96a57)
Our shader compiler is getting better with every release. The performance increases from it will benefit all cards, including 9700's. Some upcoming updates will increase performance > 10% for longer shaders. For most of the current batch of applications, the shaders are pretty short already, so I don't know if they will get much benefit. We also have other optimizations that will benefit various cards in different ways (96's, X800's vs. 97's) -- I don't know most of them.
As for the X800 series, it's getting a lot of its upcoming performance benefits from our work in optimizing the memory controller. We've got a huge amount of flexibility in how it can be programmed and used, and we've just scratched the surface (the state space is huge, and it will take some time to come up with optimal cases). People can expect significant (>>10%) performance increases, esp for AA.
und
Well, for <10 instruction shaders, unless they are badly written, the compilers we have can probably do a good job. For longer shaders, say >20, there's a good chance that the new compilers will do more to advance things, since there is more to do. Of course, some shaders will benefit more than others (a serial dependancy stream cannot be optimized very much, for example).
regarding Memory Controller :
es, there's still a lot of work there, on both the X800P & X800XT. Probably won't get even at 90% until later in the summer.
Nett oder?
zeckensack
2004-06-01, 22:48:55
athsimausi,
R420 kann "Pixel Shader" mit mindestens 512 Instruktionen Länge ausführen. Das ist sehr wohl eine signifikante Verbesserung ggü R{V}3xx, und sollte nicht einfach so unter den Tisch gekehrt werden.
In der Tabelle steht in der Spalte "Technologie-Klasse" zudem überall "DirectX9 Shader 2.0", was so nicht stimmt. Zumindest R420 kann man (zugegeben schwammig) als "2.x" klassifizieren.
Das wird aber gerne hier vergessen, darüber rege ich mich so auf.
Der ganze Artikel erscheint dadurch mehr als unseriös!
Original geschrieben von Gast
Zitat: ATI beschreibt die Vorzüge von einem nativen PCI-E-Interface in schillernden Farben.
Aha, warum sollte mann auch 2-Mal eine NEUE PCI - Expresskarte im Highend kaufen wenn 2005 die ersten Anwendungen rauskommen sollen die 4gb/sec in beide RICHTUNGEN unterstützen??
nv hingegen nur eine Bridge hat die beim WICHTIGEn Upload deutlich weniger kann!Die Brigde von Nvidia kann Up- und Downstream dynamisch anpassen.
Original geschrieben von Gast
-> Meine Meinung: Das ist "VORSÄTZLICHE FALSCHINFORMATION an den LESER!Der Leser kennt hoffentlich diesen Artikel: http://www.3dcenter.org/artikel/2004/03-03_a.php
Original geschrieben von Gast
Zitat: Übrigens wird die R360-Serie (Radeon 9800 /Pro/XT) für AGP fortgesetzt und nicht als PCI-E-Version angeboten.
Falsch: Die R360-Serie ist EOL! (9800XT und co)
-> Meine Meinung: Bewußte Verunsicherung an den Leser!Von ATI wurde mir gesagt, dass die AGP-Versionen so lange fortgesetzt werden, wie sie Absatz finden.
Original geschrieben von Gast
Zitat: Kritisieren müssen... Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben.
-> Meine Meinung:
1. Ist mehr nicht gleich schneller:
2. Ist DX9 Full Precision bei PS 2.0 genau das warum nv so abloost in den Test, sie müssen jede PS 2.0 Berechnung doppelt berechnen.?? Was bei ATI mit FP24 ein Takt kostet, kostet bei NV mit FP32 ebenfalls ein Takt. Bestimmte Befehle sind bei CineFX sogar schneller als beim R360.
Original geschrieben von Gast
Das ist auch der Grund warum Farcry einen eigenen PS 1.x Pfad für FX-Karten geschrieben hat.Das hat andere Gründe.
Original geschrieben von Gast
Ich finde es ziemlich bedenklich das Ihr so EINDEUTIG die grüne Flagge im Vergleich hochhaltet! Ich habe diesen Artikel einem Freund von der WAZ zum LESEN geschickt und er sieht die Tendenz in diese Richtung bei diesem Artikel als gegeben an. Sorry, aber nur weil du nicht so gut informiert bist, solltest du anderen nicht gleich Tendenzen unterstellen. Zum Thema NV30 und Shadergschwindigkeit gibt es einen superben Artikel von Demirug: http://www.3dcenter.org/artikel/cinefx/
Original geschrieben von Gast
Die 8x1 Architektur der Radeon 9800 Pro gibt sich hier zwar ein wenig konventioneller, aber großartige Eskapaden außerhalb der DX 9 Spezifikationen sind auch nicht nötig, hat man doch die volle Optimierung der Microsoft API im Rücken, und quasi alle Standards gesetzt. Für Shaderprogramme geringerer Präzision setzt man FP16 ein (16-Bit Fließkommaoperationen), für "Full Precision" Shader gibt es den FP24 Modus. Hier hat nVidia, wie schon anfangs erwähnt einen kritischen Nachteil, denn die NV3x GPU's beherrschen generell kein FP24. Laut nVidia rechnen die vier Fließkommaeinheiten des NV35 Kerns automatisch mit der noch wesentlich höheren FP32 Präzision, sobald ein Programm FP24 anfordert. Diese Erhöhung der Präzision ist aber in FP24 Shaderprogrammen visuell nicht zu verspüren, alles was man also verspürt, ist niedrigere Leistung.Die niedrigere Leistung kommt eben nicht durch FP32.
Original geschrieben von Gast
Quelle:
http://members.aon.at/grandadmiralthrawn/index.htm?http://www.hardoverclock.org/html/reviews/fx5900u_9800pro/5900u9800p_3.htm 3DCenter halte ich für eine bessere Quelle, wenn ich das in dieser Arroganz sagen darf. Ich erlaube mir, einen Absatz von dem von dir verlinkten Artikel zu kommentieren.
"Die 8x1 Architektur der Radeon 9800 Pro gibt sich hier zwar ein wenig konventioneller, aber großartige Eskapaden außerhalb der DX 9 Spezifikationen sind auch nicht nötig, hat man doch die volle Optimierung der Microsoft API im Rücken, und quasi alle Standards gesetzt."
Der NV3x hat genau so die DX9-Spec im Rücken.
"Für Shaderprogramme geringerer Präzision setzt man FP16 ein (16-Bit Fließkommaoperationen), für "Full Precision" Shader gibt es den FP24 Modus."
Ein Shaderprogramm ansich hat gar keine Präzision. Bestimmte Befehle können mit dem _PP-Flag ein Format nutzen was schlechter als Full Precision ist. Full Precision ist mindestens FP24, Partial Precision ist mindestens FP16.
"Hier hat nVidia, wie schon anfangs erwähnt einen kritischen Nachteil, denn die NV3x GPU's beherrschen generell kein FP24. Laut nVidia rechnen die vier Fließkommaeinheiten des NV35 Kerns automatisch mit der noch wesentlich höheren FP32 Präzision, sobald ein Programm FP24 anfordert."
Da wird kein spezielles Format angefordert. Wenn nichts weiter angegeben wird, verlangt der Shader Full Precision, also mindestens FP24. Das kam auf Drängen von ATI in die Spec, Microsoft hätte lieber gleich FP32 gesehen. GF FX rechnet dann auch mit FP32, was wegen der höheren Genauigkeit ein Vor- und kein Nachteil ist. Radeon berechnet hingegen Befehle mit dem _PP-Modifier mit FP24, was ebenfalls ein Genauigkeits-Vorteil ist.
"Diese Erhöhung der Präzision ist aber in FP24 Shaderprogrammen visuell nicht zu verspüren, alles was man also verspürt, ist niedrigere Leistung."
Sofern ein Effekt darauf Rücksicht nimmt, dass Full Precision bei ATI nur FP24 ist, wird man mit FP32 keine oder fast keine BQ-Steigerung haben, das ist richtig. Doch die niedrigere Leistung resultiert eben nicht aus FP32. Ob FP24 oder FP32, alle grundlegenden Operationen werden von den Rechenwerken in jeweils einem Takt erledigt.
Original geschrieben von zeckensack
athsimausi,
R420 kann "Pixel Shader" mit mindestens 512 Instruktionen Länge ausführen. Das ist sehr wohl eine signifikante Verbesserung ggü R{V}3xx, und sollte nicht einfach so unter den Tisch gekehrt werden.Das stimmt, und wurde im "Inside R420"-Artikel schon erwähnt. Der neue ist vor allem als Ergänzung zu verstehen.
Original geschrieben von zeckensack
In der Tabelle steht in der Spalte "Technologie-Klasse" zudem überall "DirectX9 Shader 2.0", was so nicht stimmt. Zumindest R420 kann man (zugegeben schwammig) als "2.x" klassifizieren. Die Tabellen hat Leo gemacht :schleich: Abgesehen vom Instruction Count (und dass Sincos keine 8 Slots mehr belegt) und von den zusätzlichen Temps ist es aber 2.0, afaik. Hast natürlich Recht, dass dort besser "2.X (2_B)" stehen sollte.
Morgen bin ich terminlich leider ausgelastet, hoffentlich schaffe ich es dann übermorgen, Leo eine Korrekturliste zu schicken.
Auch diese Quelle möchte ich kommentieren:
"Performance-Probleme mit Nvidia GeForce FX Karten
Bei Verwendung der Pixel-Shader 2.0 brechen die aktuellen GeForce FX Beschleuniger in allen gängigen DX9-Anwendungen (3DMark 03, TR6 AoD, Aquamark 3, Half-Life 2) deutlich ein."
So ist es.
"Wer diesen Artikel gründlich durchgelesen hat, wird auch den Grund dafür verstehen. Die Nvidia-Karten bieten nicht die Fließkommagenauigkeit fp24, sondern entweder nur fp16 oder fp32. Sollen die DirectX 9 Spezifikationen erfüllt werden, so muss man bei den GeForce FX Karten fp32 auswählen (also 128 Bit). Die ATI Radeon Karten können dagegen die vorgeschriebene fp24 (96 Bit) verwenden und sind dadurch von der Geschwindigkeit her klar im Vorteil."
Eben nicht dadurch. Ein FP32-Rechenwerk ist größer, aber nicht langsamer als ein FP24-Rechenwerk. Vorgeschrieben ist mindestens FP24, ein Format was auf ATIs Wunsch eingeführt wurde, damit sie bei der Radeon 9700 mit möglichst wenig Transistoren auskommen.
"Die Treiber-Entwickler bei Nvidia versuchen die Problematik damit zu lösen, durch Cheats im Treiber die Routinen in der Anwendung zu umgehen und fp16 zu verwenden. Allerdings erreicht man dadurch nicht die nach DX9 vorgeschriebene Bildqualität."
Wenn _PP genutzt wird, ohne dass der Shader das von sich aus verlangt, ist es ein Cheat, ja.
"Zusätzlich schummeln die Nvidia-Ingenieure noch mit einer schlechten Qualiät des anisotropen Filters oder der Ersetzung von Shader-Programmen - wie in 3DMark 03 geschehen."
Des Shader-Replacements hat sich auch ATI schuldig gemacht. Ebenso gibt es "Spielereien" mit dem anisotropen Filter auch bei ATI.
Leonidas
2004-06-02, 02:28:46
Original geschrieben von aths
Mein Titel war "Update zu ATIs Produkten". Hat Leo offensichtlich geändert.
Ja. War mir nicht griffig bzw. nicht klar genug.
Leonidas
2004-06-02, 02:30:49
Original geschrieben von Gast
Ich finde es ziemlich bedenklich das Ihr so EINDEUTIG die grüne Flagge im Vergleich hochhaltet! Ich habe diesen Artikel einem Freund von der WAZ zum LESEN geschickt und er sieht die Tendenz in diese Richtung bei diesem Artikel als gegeben an.
Bla. Wer außerhalb des Technik-Bereichs hat soviel Ahnung von der Materie, um das wirklich beurteilen zu können? Da kannste auch zu ZDF Frontal * gehen und die fragen. Die mögen gute Journalisten sein, haben aber vom Fachgebiet keine Ahnung.
* Haben heute die Angreifbarkeit des Windows-OS auf - man halte sich fest - die DSL-Modems bzw. die Internet Provider geschoben. Kein Wort dazu, daß das OS der Fehler ist.
Leonidas
2004-06-02, 02:33:14
Original geschrieben von Gast
Zitat: ATI beschreibt die Vorzüge von einem nativen PCI-E-Interface in schillernden Farben.
Aha, warum sollte mann auch 2-Mal eine NEUE PCI - Expresskarte im Highend kaufen wenn 2005 die ersten Anwendungen rauskommen sollen die 4gb/sec in beide RICHTUNGEN unterstützen??
nv hingegen nur eine Bridge hat die beim WICHTIGEn Upload deutlich weniger kann!
-> Meine Meinung: Das ist "VORSÄTZLICHE FALSCHINFORMATION an den LESER!
Bla! Wichtiger Upload - für was? Was sind denn die Anwendungen, die viele Daten von der gfx zur CPU übertragen? Nur bei Videobearbeitung kommt man da auf interessante Mengen. Wie hoch ist der Anteil der Videobearbeitungs-Anwender am Gesamtmarkt?!
Leonidas
2004-06-02, 02:34:16
Original geschrieben von Gast
Zitat: Übrigens wird die R360-Serie (Radeon 9800 /Pro/XT) für AGP fortgesetzt und nicht als PCI-E-Version angeboten.
Falsch: Die R360-Serie ist EOL! (9800XT und co)
-> Meine Meinung: Bewußte Verunsicherung an den Leser!
1. Quatsch. Nur weil Du denkst, sie wäre EOL, heißt das nicht, daß das *faktisch* so wäre.
2. Deine Meinung is fürn Arsch. Die Faktenlage ist halt anders. Nebenbei wäre es eine Verunsicherung der Leser, von EOL zu reden, wenn noch kein EOL anstatt. Nur das Du das machst und nicht wir.
Leonidas
2004-06-02, 02:36:22
Original geschrieben von Gast
Das wird aber gerne hier vergessen, darüber rege ich mich so auf.
Der ganze Artikel erscheint dadurch mehr als unseriös!
Wenn sich 99% Deine Argumente so spielend auseinander nehmen lassen, bist Du irgendwie nicht in der Position, so eine Behauptung aufzustellen. Auch wird es dann wirklich schwierig, Deine vernünftigen Kritikpunkte an den Mann zu bringen. Du solltest eventuell mal zukünftig weniger biased schreiben, ansonsten wirste schlicht ignoriert.
Leonidas
2004-06-02, 02:40:40
Original geschrieben von zeckensack
In der Tabelle steht in der Spalte "Technologie-Klasse" zudem überall "DirectX9 Shader 2.0", was so nicht stimmt. Zumindest R420 kann man (zugegeben schwammig) als "2.x" klassifizieren.
Der Chip wird von ATI selber so angegeben. Und 2.x sieht so aus, als wären es die Kapazitäten von CineFX - die jedoch (rein technologisch) weit über denen des R420 liegen.
Leonidas
2004-06-02, 02:42:11
"Wer diesen Artikel gründlich durchgelesen hat, wird auch den Grund dafür verstehen. Die Nvidia-Karten bieten nicht die Fließkommagenauigkeit fp24, sondern entweder nur fp16 oder fp32. Sollen die DirectX 9 Spezifikationen erfüllt werden, so muss man bei den GeForce FX Karten fp32 auswählen (also 128 Bit). Die ATI Radeon Karten können dagegen die vorgeschriebene fp24 (96 Bit) verwenden und sind dadurch von der Geschwindigkeit her klar im Vorteil."
http://www.freeze-networks.de/pc/hardware/berichte/directx9/seite3.php
Übelste Falschaussage. Nicht wirklich tragisch, denn irren ist menschlich. Aber man sollte es dringend korrigieren.
zeckensack
2004-06-02, 03:30:53
Original geschrieben von Leonidas
Der Chip wird von ATI selber so angegeben. Und 2.x sieht so aus, als wären es die Kapazitäten von CineFX - die jedoch (rein technologisch) weit über denen des R420 liegen. Jein. "2.x" ist schon richtig, und bedeutet nichts anderes als 2.0 mit zusätzlichen Caps. 2.x ist einfach eine Shaderversion irgendwo oberhalb von 2.0. Was genau das ist, muss man dann softwaremässig abfragen.
Was wirklich NV3x-spezifisch ist, ist allerdings nicht die Shaderversion "2.x", sondern das Compilerprofil "2_a".
Übersicht der Shader-Versionen (http://msdn.microsoft.com/archive/en-us/directx9_c/directx/graphics/reference/shaders/shaders.asp)
Shader 2.0 Extended (http://msdn.microsoft.com/archive/en-us/directx9_c/directx/graphics/reference/Shaders/PixelShader2_0_Extended/PixelShader2_0_Extended.asp)
Btw, manche Firmen (http://www.s3graphics.com/feature_def.html#DirectX9) nennen das auch "2.0+" (NVIDIA hat das IIRC auch schon getan, ist aber auf "2.x" umgeschwenkt).
Leonidas
2004-06-02, 08:17:04
Original geschrieben von zeckensack
Jein. "2.x" ist schon richtig, und bedeutet nichts anderes als 2.0 mit zusätzlichen Caps. 2.x ist einfach eine Shaderversion irgendwo oberhalb von 2.0. Was genau das ist, muss man dann softwaremässig abfragen.
Das ist mir absolut klar. Genauso klar ist mir jedoch aus, daß eine Angabe von 2.x in der Tat wirklich so aussieht wie "gleich CineFX". Man müsste es jedesmal mit dazu erklären.
Original geschrieben von aths
Vorgeschrieben ist mindestens FP24, ein Format was auf ATIs Wunsch eingeführt wurde, damit sie bei der Radeon 9700 mit möglichst wenig Transistoren auskommen.
Anscheinend aber recht spät, und was wäre es für eine Blamage für MS UND ATi gewesen, wenn bis heute vom GPU-Partner für die XBox2 kein einziger "DX9-complianter" Chip gekommen wäre.
Nachdem ATi sich auf FP24 festgelegt hatte, war der Weg zu FP24 als DX9-Full-Precision quasi nicht mehr aufzuhalten.
;Q
Demirug
2004-06-02, 10:25:39
Original geschrieben von q@w
Anscheinend aber recht spät, und was wäre es für eine Blamage für MS UND ATi gewesen, wenn bis heute vom GPU-Partner für die XBox2 kein einziger "DX9-complianter" Chip gekommen wäre.
Nachdem ATi sich auf FP24 festgelegt hatte, war der Weg zu FP24 als DX9-Full-Precision quasi nicht mehr aufzuhalten.
;Q
Aufgrund wie das festlegen der Hardwarespec für eine DX-Version abläuft ist eine solche Blamage ja ausgeschlossen. MS schreibt ja grundsätzlich nichts in die entgültige Spec was dazu führen würde das ein IHV plötzlich ohne entsprechenden Hardware darsteht.
Original geschrieben von Leonidas
Ja. War mir nicht griffig bzw. nicht klar genug. Der Titel sollte neugierig machen, immerhin gibt es ja auch neue Infos zum R420 (neu heißt hier, neu für 3DCenter.)
Original geschrieben von Demirug
Aufgrund wie das festlegen der Hardwarespec für eine DX-Version abläuft ist eine solche Blamage ja ausgeschlossen. MS schreibt ja grundsätzlich nichts in die entgültige Spec was dazu führen würde das ein IHV plötzlich ohne entsprechenden Hardware darsteht. Im gleichen Zuge würde ich mich freuen, wenn gewisse Leute aufhören würden zu behaupten, CineFX sei am DirectX9-Standard vorbeientwickelt worden, nur weil sie CineFX mehr kann als Smartshader 2, man dafür jedoch den Preis in Form komplizierter und oft nicht realisierbarer Optimierungen (sprich, bescheidene Performance) zahlen muss. Schade, dass dein CineFX-Artikel von einigen leider noch immer nicht gelesen wurde.
Tigerchen
2004-06-02, 16:21:49
Original geschrieben von Demirug
Aufgrund wie das festlegen der Hardwarespec für eine DX-Version abläuft ist eine solche Blamage ja ausgeschlossen. MS schreibt ja grundsätzlich nichts in die entgültige Spec was dazu führen würde das ein IHV plötzlich ohne entsprechenden Hardware darsteht.
Heißt das daß du die Schuld fürs Shaderdesaster im Gegensatz zu den überzeugten Freunden sämtlicher nV-Hartware nicht ATI oder MS in die Schuhe schieben willst?
Sollte nV das etwa ganz alleine verbockt haben?
Original geschrieben von aths
Die Brigde von Nvidia kann Up- und Downstream dynamisch anpassen.
[/url]
Ich lach mich kaputt!
Es eine physikalische Grenze bei AGP8X, wer daran glaubt nv könne per Anpassung oder besser gesagt im NEU-DEUTSCH "CHEAT" mehr Datentransfer über den PCI-E Bus hinzubekommen glaubt auch an den Weihnachtsmann!
Original geschrieben von aths
Sorry, aber nur weil du nicht so gut informiert bist, solltest du anderen nicht gleich Tendenzen unterstellen. Zum Thema NV30 und Shadergschwindigkeit gibt es einen superben Artikel von Demirug: http://www.3dcenter.org/artikel/cinefx/
Da spricht der RICHTIGE ! Es tut mir leid ATHS aber diesmal hast du dich zu weit aus dem Fenster gelehnt.
Ich bin 100% INFORMIERT!
Vieleicht solltest du mal die nächsten Wochen darauf aufpassen mit wem INTEl seine LAUNCH-Aktivitäten hinsichtlicht PCI-Espress durchführt und die entsprechenden Informationen Handouts von INTEl beachten. Wir haben da ein bissel mehr ERFAHRUNG mit diesem Thema als du !
Original geschrieben von Leonidas
Übelste Falschaussage. Nicht wirklich tragisch, denn irren ist menschlich. Aber man sollte es dringend korrigieren.
Lieber Leonidas,
ich verstehe dich nicht, aber egal, es gibt ja GOTTSEIDANK unsere Handouts zum Intel PCI Express Thema!
Original geschrieben von Tigerchen
Heißt das daß du die Schuld fürs Shaderdesaster im Gegensatz zu den überzeugten Freunden sämtlicher nV-Hartware nicht ATI oder MS in die Schuhe schieben willst?
Sollte nV das etwa ganz alleine verbockt haben?
Ganz RICHTIG Tiger!
Original geschrieben von Gast
Ich lach mich kaputt!
Es eine physikalische Grenze bei AGP8X, wer daran glaubt nv könne per Anpassung oder besser gesagt im NEU-DEUTSCH "CHEAT" mehr Datentransfer über den PCI-E Bus hinzubekommen glaubt auch an den Weihnachtsmann!
Es gibt ........
sorry!
Demirug
2004-06-02, 17:34:10
Original geschrieben von Tigerchen
Heißt das daß du die Schuld fürs Shaderdesaster im Gegensatz zu den überzeugten Freunden sämtlicher nV-Hartware nicht ATI oder MS in die Schuhe schieben willst?
Sollte nV das etwa ganz alleine verbockt haben?
Die schlechte FP-Performance geht klar auf die Kappe von nVidia. nVidia hat eben schlicht und ergreifend ein anderes Next-Gen Shader-model entwickelt als Microsoft dann später als DX9 spezifiziert hat.
Hätte sich MS mehr an dem Model von nVidia orientiert hätten der NV30 zwar weiterhin ein mässige FP-Performance gehabt aber eine gute DX9 Performance.
Demirug
2004-06-02, 17:35:26
Original geschrieben von Gast
Ich lach mich kaputt!
Es eine physikalische Grenze bei AGP8X, wer daran glaubt nv könne per Anpassung oder besser gesagt im NEU-DEUTSCH "CHEAT" mehr Datentransfer über den PCI-E Bus hinzubekommen glaubt auch an den Weihnachtsmann!
Weil AGP8x ja zu wenig ist benutzt nVidia ja auch einen ungenormten AGP12x bzw AGP16x Modus.
nggalai
2004-06-02, 17:39:29
Original geschrieben von Gast
Ich lach mich kaputt!
Es eine physikalische Grenze bei AGP8X, wer daran glaubt nv könne per Anpassung oder besser gesagt im NEU-DEUTSCH "CHEAT" mehr Datentransfer über den PCI-E Bus hinzubekommen glaubt auch an den Weihnachtsmann! Die Bridge fährt nicht mit AGP8x.
Edit: Mist, Demirug war schneller. :D
93,
-Sascha.rb
nggalai
2004-06-02, 17:41:46
Original geschrieben von Gast
Da spricht der RICHTIGE ! Es tut mir leid ATHS aber diesmal hast du dich zu weit aus dem Fenster gelehnt.
Ich bin 100% INFORMIERT!
Vieleicht solltest du mal die nächsten Wochen darauf aufpassen mit wem INTEl seine LAUNCH-Aktivitäten hinsichtlicht PCI-Espress durchführt und die entsprechenden Informationen Handouts von INTEl beachten. Wir haben da ein bissel mehr ERFAHRUNG mit diesem Thema als du ! Und was hat das mit Shadergeschwindigkeit resp. Einfluss von FP32 darauf zu tun? Darauf hat sich aths mit dem Link bezogen.
Schön, dass Du zu "100% INFORMIERT!" bist. :) Wir würden uns freuen, wenn Du diese Infos posten könntest, statt einfach im falschen Kontext mit "nein, ich weiss es besser" zu argumentieren.
93,
-Sascha.rb
100% informiert muss wohl aufgerundet sein (und da 100% ja 1 ist, kann man da ne ganze Menge runden...), sonst wüsste er ja dass die Bridge nicht AGP8x nutzt ;)
LovesuckZ
2004-06-02, 18:43:18
Original geschrieben von Gast
Vieleicht solltest du mal die nächsten Wochen darauf aufpassen mit wem INTEl seine LAUNCH-Aktivitäten hinsichtlicht PCI-Espress durchführt und die entsprechenden Informationen Handouts von INTEl beachten. Wir haben da ein bissel mehr ERFAHRUNG mit diesem Thema als du !
http://www.nvidia.com/docs/IO/12607/banner_ISS_04_184x110_nv.jpg
Achja, ich finde es immer wieder erstaunlich, wie du von dir in der Mehrzahl redest...
Original geschrieben von Demirug
Weil AGP8x ja zu wenig ist benutzt nVidia ja auch einen ungenormten AGP12x bzw AGP16x Modus.
Es gibt keinen AGP12 oder 16 ! Menno, AGP8X ist ein Mainboardstandart !
Dann kann nv gar nix machen ausser in die Röhre gucken, das gerade du das nicht verstehst wundert mich sehr!
Such mal unter www.google.de nach Intel & AGP8X
Original geschrieben von Xmas
100% informiert muss wohl aufgerundet sein (und da 100% ja 1 ist, kann man da ne ganze Menge runden...), sonst wüsste er ja dass die Bridge nicht AGP8x nutzt ;)
Es gibt keinen Standart für die Bridge, sagt mal seid Ihr so uninformiert oder tut ihr so!
Es gibt es nicht, hier erzählem angebliche FAchleute was von AG?12 oder AGP16! Traurig aber wohl wahr!
:)
auf das Wesentliche reduziert. Kakarot
Tigerchen
2004-06-02, 19:21:23
Original geschrieben von Demirug
Die schlechte FP-Performance geht klar auf die Kappe von nVidia. nVidia hat eben schlicht und ergreifend ein anderes Next-Gen Shader-model entwickelt als Microsoft dann später als DX9 spezifiziert hat.
Hätte sich MS mehr an dem Model von nVidia orientiert hätten der NV30 zwar weiterhin ein mässige FP-Performance gehabt aber eine gute DX9 Performance.
Könnte es sein daß es daran liegen könnte daß dies daran lag daß nVIDIA einfach nicht fertig wurde oder war es eine Retourkutsche von MS wegen des Streits mit nVIDIA über den X-Box Grafikchip?
Wie du auch antwortest es liegt an nVIDIA selbst wenn sie auf einmal kein Ohr mehr bei MS fanden oder?
Original geschrieben von Gast
Es gibt keinen Standart für die Bridge, sagt mal seid Ihr so uninformiert oder tut ihr so!
Es gibt es nicht, hier erzählem angebliche FAchleute was von AG?12 oder AGP16! Traurig aber wohl wahr!
Demi sprach auch von ungenormt. Sagt dir das Wort was? :)
Demirug
2004-06-02, 19:28:38
Original geschrieben von Gast
Es gibt keinen AGP12 oder 16 ! Menno, AGP8X ist ein Mainboardstandart !
Dann kann nv gar nix machen ausser in die Röhre gucken, das gerade du das nicht verstehst wundert mich sehr!
Such mal unter www.google.de nach Intel & AGP8X
Richtig, Intel hat bei AGP8X aufgehört. Da die Bridge und die GPU aber auf der gleichen Platine verbaut werden darf nVidia als Protokol zwischen diesen beiden Chips benutzten was sie wollen. nVidia nennt dieses Protokol eben nun mal AGP12x bzw AGP16x weil es auf dem AGP Standard aufbaut aber die 12 bzw 16 fache Geschwindigkeit erreicht.
Such mal unter www.google.de nach nVidia & AGP16X
Demirug
2004-06-02, 19:33:11
Original geschrieben von Tigerchen
Könnte es sein daß es daran liegen könnte daß dies daran lag daß nVIDIA einfach nicht fertig wurde oder war es eine Retourkutsche von MS wegen des Streits mit nVIDIA über den X-Box Grafikchip?
Wie du auch antwortest es liegt an nVIDIA selbst wenn sie auf einmal kein Ohr mehr bei MS fanden oder?
Was die genauen Gründe von MS waren must du schon MS fragen.
Quasar
2004-06-02, 19:44:19
Original geschrieben von Tigerchen
Könnte es sein daß es daran liegen könnte daß dies daran lag daß nVIDIA einfach nicht fertig wurde oder war es eine Retourkutsche von MS wegen des Streits mit nVIDIA über den X-Box Grafikchip?
Wie du auch antwortest es liegt an nVIDIA selbst wenn sie auf einmal kein Ohr mehr bei MS fanden oder?
Könnte, muss aber nicht. Vielleicht liegt's auch an MS, daß nV auf einmal kein Ohr mehr bei ihnen fand. :naughty:
Auf jeden Fall hat dieses Szenario/Desaster/Retourkutsche einerseits dem Markt sehr gut getan, indem das Quasi-Monopol nVs einer wenn schon nicht optimalen, so doch wesentlich erträglicheren Oligarchie gewichen ist. Andererseits hat MS ziemlich deutlich bewiesen, wie stark ihre Macht ist und daß sie nicht zögern, davon in welchem Umfang auch immer, Gebrauch zu machen, wenn man ihnen nicht zu Willen ist.
Mich würde es wunder nehmen, wenn ATi im Zuge des XBox2-Deals auch irgendwann mal aufmucken würde - aber wir werden sehen. :)
Original geschrieben von kami
Demi sprach auch von ungenormt. Sagt dir das Wort was? :)
Ja genau wie DX9.1 ! hört doch endlich auf für nv das marketing zu übernehmen und hier wissentlich falsche infos an consumer rauszugeben!
Jeder der sich halbwegs mit mainboards auskennt weiss das diese AGP12 oder 16 Geschichte nur ein Treiber-Gag ist!
Also bitte!
Demirug
2004-06-02, 20:07:55
Original geschrieben von Gast
Ja genau wie DX9.1 ! hört doch endlich auf für nv das marketing zu übernehmen und hier wissentlich falsche infos an consumer rauszugeben!
Jeder der sich halbwegs mit mainboards auskennt weiss das diese AGP12 oder 16 Geschichte nur ein Treiber-Gag ist!
Also bitte!
Was hat die Verbindung zwischen zwei Chips auf einer PCI-E Karte mit Mainboards zu tun?
Quasar
2004-06-02, 20:19:20
Original geschrieben von Gast
Ja genau wie DX9.1 ! hört doch endlich auf für nv das marketing zu übernehmen und hier wissentlich falsche infos an consumer rauszugeben!
Jeder der sich halbwegs mit mainboards auskennt weiss das diese AGP12 oder 16 Geschichte nur ein Treiber-Gag ist!
Also bitte!
Jeder, der sich halbwegs mit Mainboards auskennt, weiß, daß diese AGP12- oder AGP16-Geschichte gar nichts mit Mainboards zu tun hat. X-D
Also bitte!
;(
Original geschrieben von Gast
Ich lach mich kaputt!
Es eine physikalische Grenze bei AGP8X, wer daran glaubt nv könne per Anpassung oder besser gesagt im NEU-DEUTSCH "CHEAT" mehr Datentransfer über den PCI-E Bus hinzubekommen glaubt auch an den Weihnachtsmann! Richtig. Die GeForce FX-Karten, die mit Bridge ausgeliefert werden, laufen deswegen intern mit 16x AGP.
Original geschrieben von Gast
Da spricht der RICHTIGE ! Es tut mir leid ATHS aber diesmal hast du dich zu weit aus dem Fenster gelehnt.Was genau ist falsch?
Original geschrieben von Gast
Ich bin 100% INFORMIERT!Gut. Wäre nett, wenn du mich dann aufklären kannst.
Original geschrieben von Gast
Vieleicht solltest du mal die nächsten Wochen darauf aufpassen mit wem INTEl seine LAUNCH-Aktivitäten hinsichtlicht PCI-Espress durchführt und die entsprechenden Informationen Handouts von INTEl beachten. Wir haben da ein bissel mehr ERFAHRUNG mit diesem Thema als du ! Hm? Mich würde zunächst interessieren, was an meinem Arikel bzw. Posting falsch ist.
Original geschrieben von Quasar
Jeder, der sich halbwegs mit Mainboards auskennt, weiß, daß diese AGP12- oder AGP16-Geschichte gar nichts mit Mainboards zu tun hat. X-D
Also bitte!
;(
Richtig! Reingefallen!!!
Und wie bitteschön will nvidia dann auf einem PCI Express Board eine höhere Performance erreichen???
Der AGP (Accelerated Graphics Port) ist heute Standard in allen Computersystemen . Nur in Low Budget Computern finden sich noch Hauptplatinen ohne den AGP.
Nachteil : Diese Boards lassen sich nicht mit einer starken Grafikkarte aufrüsten. Spielen im High End Bereich ist damit ausgeschlossen. Doch was ist der AGP genau. Wo liegen seine Vorteile ?
Tauchen wir zunächst wieder in die PC Geschichte ab. Wir müssen dabei gar nicht weit zurück blicken. Bis etwa Mitte der 90er Jahre wurden Computer ausschließlich mit dem langsamen PCI Bus ( 33 MHz) verkauft. Schau dir dein Mainboard an, du erkennst die PCI Schnittstelle an den weißen Slots.
Die ersten Mainboards mit AGP1x Chipsatz (i440 LX) wurden 1997 auf den Markt gebracht. (brauner Slot - etwas kürzer als der PCI - Steckplatz) Intel erschuf diesen Steckplatz, der ausschließlich auf die Grafikkarte zugeschnitten wurde.
Hintergrund : Der PCI Bus wurde durch seine geringe Bandbreite mehr und mehr zur Leistungsbremse. Letztlich musste sich der Bus die Bandbreite auch noch mit anderen Geräten teilen. Folge : Das System brach in seiner Performance ein. Dies war besonders im 3D Bereich zu spüren. Mit dem AGP Bus, der mit 66 MHz getaktet ist, wurde die Grafikkarte förmlich abgekoppelt und die Performance erheblich gesteigert.
Während der AGP 1x Standard (Outer Loop) arbeitet ( Datensignale laufen "einfach" zwischen Sender und Empfänger über die positive Signalflanke) wurden mit dem 1998 eingeführten AGP 2x Standard Datenpakete (Inner Loop )auch an der fallenden Signalflanken übertragen. Damit ließ sich zumindest die Bandbreite theoretisch verdoppeln.
AGP 1.0 AGP 2.0 AGP 3.0
Modi 1x , 2x 1x, 2x , 4x 4x, 8x
Transferrate 266 MByte/s
532 MByte/s 266 MByte/s
532 MByte/s
1064 MByte/s 266 MByte/s
532 MByte/s
1064 MByte/s
I/O 3,3 V 1,5 V
Typ 3,3 V 1,5 V und 3,3 V 1,5 V und 0,8 V
1998 wurde mit dem 4x Modus ein Standard erreicht, der im Grunde bis heute (01/04) technisch die Grenze des möglichen darstellt. Und das obwohl AGP 8x (3.0) bereits verkauft wird. Mit dem AGP 8x Standard sind bereits Übertragungen bis zu 2.0 GB/s möglich.
Aber die Hardware kann der Bustechnologie nur langsam folgen. Das war bei Einführung von AGP 4x nicht anders. Denn für den AGP 8x Standard benötigst du eine entsprechende Umgebung. Unglaublich aber wahr - Hersteller verkaufen den 8x Modus sogar in Grafikkarten der unteren Leistungsstufe. Tatsächlich kann jedoch kein Chip der "günstigeren Baureihen" wie der Geforce 4 MX , oder dem Radeon 9000 die volle Bandbreite nutzen !
Selbst die Spiele - Industrie kann dem neuen Modus nur schwer folgen.
Viele Spiele funktionieren nur im 4x Modus einwandfrei, und reagieren beim Zuschalten des 8x Modus instabil. Ältere Spiele laufen in der Regel nur im 4x Betrieb. Warum dann 8x ? Eine berechtigte Frage. Aber der neue Modus braucht seine Zeit. Softwarehersteller müssen ihre Produkte erst umschreiben. Und das dauert mal wieder... Vielleicht zu lange. Denn Intel hat bereits angekündigt die Grafikschnittstelle auf PCI-X umzustellen. PCI-X wird 2003/ 2004 den PCI Standard ablösen, und damit auch dem parallelen Standard ein Ende bereiten.
Quasar
2004-06-02, 21:58:27
Original geschrieben von Gast
Richtig! Reingefallen!!!
Und wie bitteschön will nvidia dann auf einem PCI Express Board eine höhere Performance erreichen???
Eine höhere Performance als PCI-express? Wohl kaum.
Eine höhere Performance als AGP? Aber sicher, konnte ich mich persönlich schon von überzeugen.
P.S.:
Das PCI-e INterface bedient der Bridge-Chip, der auf der einen Seite, AFAIK, ein natives PCI-e Interface besitzt. :)
Reingefallen? Sorry, aber ich glaube nicht. =)
Grestorn
2004-06-02, 22:02:47
Original geschrieben von Gast
Richtig! Reingefallen!!!
Und wie bitteschön will nvidia dann auf einem PCI Express Board eine höhere Performance erreichen???
Bist Du wirklich so beschränkt oder verarscht Du uns alle?
Also, gaaaanz langsam...
Board hat PCI-Express und erreicht damit die Bandbreite von einem hypothetischen AGPx16.
GraKa hat Bridge. Diese hat auf der einen Seite eine PCI-E Schnittstelle und auf der anderen eine AGP Schnittstelle (zum Grafikchip). Diese AGP Schnittstelle ist alleine in nVidia's Hand. Und nVidia schiebt über diese AGP Schnittstelle die selbe Datenmenge, die über einen AGPx16 laufen würde und nennt das ganze deswegen auch AGPx16.
Kapiert?
Original geschrieben von grestorn
Bist Du wirklich so beschränkt oder verarscht Du uns alle?
Also, gaaaanz langsam...
Board hat PCI-Express und erreicht damit die Bandbreite von einem hypothetischen AGPx16.
GraKa hat Bridge. Diese hat auf der einen Seite eine PCI-E Schnittstelle und auf der anderen eine AGP Schnittstelle (zum Grafikchip). Diese AGP Schnittstelle ist alleine in nVidia's Hand. Und nVidia schiebt über diese AGP Schnittstelle die selbe Datenmenge, die über einen AGPx16 laufen würde und nennt das ganze deswegen auch AGPx16.
Kapiert?
Aha, Ihr habt ja auch alle schon eine Board in den Händen gehabt!
Ich glaube wenn das so einfach wäre hätte wir den APG-Port nicht abgelöst.
Es gibt keine Optimierung von AGP8X auf 16x!
Das ist eine reine Marketing-Aussage die NACHWEISLICH in unseren Labors keine Leistungssteigerung beinhaltet.
zeckensack
2004-06-03, 08:11:59
Original geschrieben von Gast
Aha, Ihr habt ja auch alle schon eine Board in den Händen gehabt!
Ich glaube wenn das so einfach wäre hätte wir den APG-Port nicht abgelöst.
Es gibt keine Optimierung von AGP8X auf 16x!
Das ist eine reine Marketing-Aussage die NACHWEISLICH in unseren Labors keine Leistungssteigerung beinhaltet. Also so langsam mache ich mir Sorgen ...
Hast du in letzter Zeit öfter Kopfschmerzen? Taubheitsgefühl an der Stirn oder sonstwo im Gesicht/am Kopf? Alles klar bei dir?
Lies bitte nochmal ganz langsam was grestorn geschrieben hat, und atmen dabei nicht vergessen.
Das einzige was NVIDIA (und auch 3DCenter) sagt, ist dass zwischen Grafikchip und HSI (also auf der Grafikkarte) eine beschleunigte Version des AGP-Protokolls zur Anwendung kommt. Nichts weiter. Niemand hat je behauptet, dass der AGP-Port auf dem Board dadurch angetastet wird.
Geht auch nicht, denn dort sind die Signalwege viel zu lang, es ist eine Steckverbindung dazwischen, etc, sodass hier sowieso nicht mehr viel Spielraum für Beschleunigung gegeben ist.
edit:
Da ich gerade sehe dass du das auch nicht kapiert hast: das gilt nur für PCI-Express-Karten Marke NVIDIA, also die Kombination aus einem AGP-Grafikchip und dem HSI auf einer Grafikkarte mit PCI-E-Anschluss. Ich weiss nicht was du da in deinen "Labors" gemessen haben willst, aber höchstwahrscheinlich nicht das richtige.
Quasar
2004-06-03, 08:18:36
Ich kann mir schon denke, was Gast da gemessen hat. Einmal 3DMark2001 durchlaufen gelassen und - oh wunder - keine Leistungsexplosion durch PCI-e X-D
nggalai
2004-06-03, 09:04:09
Ich probier's auch nochmals:
Original geschrieben von Gast
1) Aha, Ihr habt ja auch alle schon eine Board in den Händen gehabt!
2) Ich glaube wenn das so einfach wäre hätte wir den APG-Port nicht abgelöst.
3) Es gibt keine Optimierung von AGP8X auf 16x!
Das ist eine reine Marketing-Aussage die NACHWEISLICH in unseren Labors keine Leistungssteigerung beinhaltet. 1) Ja.
2) Auf einem Mainboard geht "dank" der langen Signalwege mit AGP praktisch nicht mehr als 8x. Ist mit unter einer der Gründe, dass wir jetzt mit PCI-Express zu tun haben.
3) Davon redet auch niemand. Wir sprechen nicht davon, dass eine dieser Karten in einen AGP8X-Port auf einem Mainboard gesteckt wird, und plötzlich durch Magie den AGP-Port auf dem Mainboard auf 16x aufrüstet. Die besprochenen Karten sind eben PCI-Express-Karten. Aber auf der Grafikkarte selbst kann NV machen, was sie wollen, und auch mal was ungenormtes fahren--und "AGP16X" zwischen PCI-Express-Interface und Grafikchip auf der Grafikkarte ist das, was NV verwendet. Die Verbindung Grafikkarte <-> Mainboard wird davon nicht tangiert. Da läuft PCI-Express.
Oder willst Du eine AGP-Grafikkarte in einen PCI-Express-Slot reinwürgen? Mit Hammer und Lötkolben? :|
93,
-Sascha.rb
Grestorn
2004-06-03, 09:07:35
Original geschrieben von nggalai
Ich probier's auch nochmals:
Deine Geduld ist bewundernswert :)
Nv hat das AGP-Interface, sofern die Bridge zum Einsatz kommt, einfach doppelt so hoch getaktet. Damit wird AGPx16-Bandbreite erreicht, wobei zwischen CPU und HSI eben nach AGP 3.0-Standard (nur doppelt so schnell :)) kommuniziert wird. HSI sitzt auf dem Grakaboard ganz in der Nähe der GPU, damit die Signalwege kurz bleiben.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.