PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Parhelia kann gar keine volle Leistung bringen???


Doomtrain
2002-07-15, 13:09:36
Schaut euch mal dieses Bild hier an. Bei Serious Sam 2 kann der P512 endlich mal seine Quad-TMUs nutzen, und schwupps, fast auf TI4600 Level.
OK, das ist nun Open GL. Aber ich kann mir auch gut vorstellen, das auch die Shader Version 2.0 erst unter DX9 ihre volle Leistung bringen können.
Lest mal http://www.digit-life.com/articles/parhelia/index.html

Das sagt Andrew Worobyew , das er glaubt, das nur 1!!!!er der Vertexshader zur Zeit in benutzung ist. Seltsam, oder?

Das Bild stammt von www.gamersdepot.com

Edit: Link und Präzision

Richthofen
2002-07-15, 13:33:34
ist mir letztlich egal wieso weshalb nich usw..

Er hat fast 6GB mehr Bandbreite. Von so einem Teil erwarte ich das er alles andere in den Boden rammt vor allem bei dem Preis.
ATI und danach Nvidia werden es Matrox vormachen wie es richtig geht.

Demirug
2002-07-15, 13:43:19
Die Shader müssen auch schon mit DX8 die volle Leistung bringen da VS 2.0 lediglich eine erweiterung darstellt.

Das Problem der Parhelia ist die fehlenden Pixelfillrate. Bei 4 Texturen pro pass kann sie beim verzicht auf Trilinare wieder boden Gut machen. Wenn aber NVIDIA und ATi die Drohung mit den 8 Pipelines wahrmachen sehe ich schwarz für Matrox. Das FAA ist ja leider auch nicht das gelbe vom Ei.

Thr33pW00d
2002-07-15, 14:42:55
Originally posted by Richthofen
ist mir letztlich egal wieso weshalb nich usw..

Er hat fast 6GB mehr Bandbreite. Von so einem Teil erwarte ich das er alles andere in den Boden rammt vor allem bei dem Preis.
ATI und danach Nvidia werden es Matrox vormachen wie es richtig geht.
so ähnlich stelle ich mir das auch vor
die parhelia wurde soooo hoch gelobt aber irgendwie zeigen die benchmarks, das die karte nicht ganz dem preis/leistungsverhältnis entsprechen (find ich als gamer zumindest)

vielleicht bring DX9 mehr ...

StefanV
2002-07-15, 14:48:05
bei zukünftigen DX8 Games könnte die Parhelia ihre Muskeln spielen lassen...

Radeonator
2002-07-15, 14:55:08
Matrox hat wieder das gemacht, was Sie seit Ewigkeiten machen: Eine Graka für jemanden, der am Rechner viel Arbeitet, jedoch gelegentlich auch mal ein flottes Spielchen zwischendurch machen will.Warum haben die jongens net aus ihren Fehlern gelernt? Vielleicht ist es ihnen auch gar nicht möglich, eine schnelle Graka zu basteln ???

Eines muss man ihnen aber zu gute halten, immerhin ist die Karte diesmal schneller als der Vorgänger geworden...;)

Wenn die Karte nicht ihr volles Potential nutzen kann, ist das wohl ein Konstruktionsfehler und nicht die API

Demirug
2002-07-15, 14:56:18
Bitte setzt keine Hoffnung auf DX9. Die Parhelia wird davon genausso viel bzw. wenig wie alle anderen auch davon profitieren können.

@Stefan: Von welche Muskeln sprichts du? Alles was mit der DOOM III Engine (sehe ich jetzt auch mal als DX8 Games an obwohl mit OpenGL gemacht) gemacht ist wird der Parhelia wegen der schwachen Pixelfillrate schwer zu schaffen machen. Die 4 VS Einheiten sind zwar schön aber solange man kein HOS benutzt überdiemsioniert.

StefanV
2002-07-15, 15:10:01
Originally posted by Demirug
@Stefan: Von welche Muskeln sprichts du? Alles was mit der DOOM III Engine (sehe ich jetzt auch mal als DX8 Games an obwohl mit OpenGL gemacht) gemacht ist wird der Parhelia wegen der schwachen Pixelfillrate schwer zu schaffen machen. Die 4 VS Einheiten sind zwar schön aber solange man kein HOS benutzt überdiemsioniert.

Ich spreche von den Games, die 4 Texturen nutzen...

Auch wenn entsprechend viele PS OPs genutzt werden, müsste die Parhelia im Vorteil sein...

Demirug
2002-07-15, 15:41:12
Originally posted by Stefan Payne


Ich spreche von den Games, die 4 Texturen nutzen...

Auch wenn entsprechend viele PS OPs genutzt werden, müsste die Parhelia im Vorteil sein...

Hab ich mir fast schon gedacht das du darauf hinaus möchtest.

Die PS OPs können wir mal unberücksichtigt lassen da das bei einer GeForce in der Regel sich ganz gut mit den Loopbacks für die Texturen aufrechnet.

Bei den 4 Texturen gewinnt Matrox aber nur wenn die Geforce die Pipeline auch wirklich durchläuft. Falls Punkte durch EarlyZ verworfen werden brauchen beide die gleiche Anzahl von Takten (1). Reine Stencilops (Schattenvolumen) erledigen beide auch in einem Takt. In Summe wird die Parhelia es schwer haben an der Geforce vorbei zu kommen.

Quasar
2002-07-15, 15:49:43
@SP:
Ich möchte jedenfalls nicht alle zuküntigen Games nur mit bilinearem Filter spielen müssen, nur um alle 4 TMUs der Parhelia für Quadtexturing nutzen zu können.

Ich denke nicht, daß sich am Gesamtbild im nächsten Jahr großartig etwas ändert.

edit:
F**k, wieso geht Digitlife nicht???

zeckensack
2002-07-15, 16:09:41
Originally posted by Quasar
F**k, wieso geht Digitlife nicht???[/i] Digit-Life schreibt sich mit einem Bindestrich, der da oben beim Link fehlt.

http://www.digit-life.com/articles/parhelia/index.html

ow
2002-07-15, 16:11:58
Originally posted by Quasar

edit:
F**k, wieso geht Digitlife nicht???


weil es "digit-life" heissen muss und nicht "digitlife" in obigem Link.:D


/edit: ich hasse Vordrängler;)

Quasar
2002-07-15, 17:29:33
Originally posted by Doomtrain
Schaut euch mal dieses Bild hier an. Bei Serious Sam 2 kann der P512 endlich mal seine Quad-TMUs nutzen, und schwupps, fast auf TI4600 Level.
OK, das ist nun Open GL. Aber ich kann mir auch gut vorstellen, das auch die Shader Version 2.0 erst unter DX9 ihre volle Leistung bringen können.
Lest mal das Review auf http://www.digitlife.com/articles/parhelia/index.html

Das sagt Andrew Worobyew , das er glaubt, das nur 1!!!!er der Vertexshader zur Zeit in benutzung ist. Seltsam, oder?

Woher stammt eigentlich das Bild? Im Review von Digit-Life isses jedenfalls nicht.

Axel
2002-07-15, 18:24:58
Aus diesem Test der auch in den 3DC-News genannte wurde:

http://www.gamersdepot.com/hardware/video_cards/matrox/Parhelia512/001.htm

Das nur eine VS-Einheit funktioniert stimmt nicht. Matrox sagte das alle Einheiten arbeiten, aber auch von der Engine angesprochen werden müssen. Ich dachte eigentlich, daß die höhere Anzahl automatisch genutzt wird.

Gruß Axel

ow
2002-07-15, 19:40:04
Vermutlich weiss Matrox nicht, was sie da reden.;)

Die Applikation kann gar nicht wissen, wieviele Recheneinheiten ein Chip hat.
Also ist es ausschliesslich Sache des Treibers, die Chipstruktur entsprechend zu verwalten.

Scheint bei den 2 VS des GF4 ja wohl zu funktionieren.

zeckensack
2002-07-15, 19:46:50
Originally posted by ow
Vermutlich weiss Matrox nicht, was sie da reden.;)

Die Applikation kann gar nicht wissen, wieviele Recheneinheiten ein Chip hat.
Also ist es ausschliesslich Sache des Treibers, die Chipstruktur entsprechend zu verwalten.

Scheint bei den 2 VS des GF4 ja wohl zu funktionieren. *anschließ*

Das ist doch recht starker Tobak, wenn das tatsächlich von Matrox kommt ...

Demirug
2002-07-15, 19:53:33
Originally posted by ow
Vermutlich weiss Matrox nicht, was sie da reden.;)

Die Applikation kann gar nicht wissen, wieviele Recheneinheiten ein Chip hat.
Also ist es ausschliesslich Sache des Treibers, die Chipstruktur entsprechend zu verwalten.

Scheint bei den 2 VS des GF4 ja wohl zu funktionieren.

Wenn ich die NVidia Documente richtig verstanden haben werden die ankommenden Vertexdaten einfach wechselweise auf die VS einheiten verteilt. Das gleiche müsste auch bei Matrox eigentlich auch gehen. Unter umstanden ist aber der post VS Cache zu klein ausgelegt. Damit könnte man sich den Vorteil von 4 VS Einheiten sehr schnell wieder kaput machen.

zeckensack
2002-07-15, 20:07:35
Originally posted by Demirug


Wenn ich die NVidia Documente richtig verstanden haben werden die ankommenden Vertexdaten einfach wechselweise auf die VS einheiten verteilt. Das gleiche müsste auch bei Matrox eigentlich auch gehen. Unter umstanden ist aber der post VS Cache zu klein ausgelegt. Damit könnte man sich den Vorteil von 4 VS Einheiten sehr schnell wieder kaput machen. IMHO (hey, manchmal brauche auch ich das H) sollte der Post-Cache erst ab der dritten Einheit eine Rolle spielen.

Bei Strips kann man gefahrlos zwei Vertices gleichzeitig transformieren, der dritte muß sowieso vorgehalten werden, ansonsten würden Strips überhaupt nicht funktionieren. Dann kommt's nur noch auf's Tri-Setup an. Wenn das nicht bremst (was reichlich blöde wäre), muß mindestens das doppelte an Geometriedurchsatz drin sein, auch ohne guten Post-Cache.

Btw, daß das TriSetup bremst kann man anhand des 'complex shader' Tests ausschließen.

Demirug
2002-07-15, 20:28:31
Originally posted by zeckensack
IMHO (hey, manchmal brauche auch ich das H) sollte der Post-Cache erst ab der dritten Einheit eine Rolle spielen.


Nö bringt schon viel früher was. Selbst bei nur einem VS ist ein großer Postcache nützlich. Das ganze bringt allerdings nur etwas beim rendern mit Indexbuffern etwas. NVIDIA hat extra TOOLS um Geometrie auf möglichst hohe cachehit raten zu optimieren.


Bei Strips kann man gefahrlos zwei Vertices gleichzeitig transformieren, der dritte muß sowieso vorgehalten werden, ansonsten würden Strips überhaupt nicht funktionieren. Dann kommt's nur noch auf's Tri-Setup an. Wenn das nicht bremst (was reichlich blöde wäre), muß mindestens das doppelte an Geometriedurchsatz drin sein, auch ohne guten Post-Cache.


Hängt davon ab wie gut die Pipeline ausgeglichen ist. Im Idealzustand braucht die VS Einheit zum Bereitstellen der nächsten 3 Vertexdatensätze genaus so lange wie die Fragmenteinheit zum Rendern des vorhergehenden Dreiecks. Ist eine der beiden Einheiten schneller läuft sie leer. Mit den Caches läst sich das etwas abmildern. Die GeForce 4 kann IMHO irgendwie Dreiecke schon beim TriSetup verwerfen. Sollte das wirklich zutreffen kann sie natürlich vom Cache noch mehr profitieren.

Axel
2002-07-15, 20:53:07
Originally posted by ow
Vermutlich weiss Matrox nicht, was sie da reden.;)

Die Applikation kann gar nicht wissen, wieviele Recheneinheiten ein Chip hat.
Also ist es ausschliesslich Sache des Treibers, die Chipstruktur entsprechend zu verwalten.

Scheint bei den 2 VS des GF4 ja wohl zu funktionieren.

Bitte nicht überbewerten. Ich habe zwar versucht diese Aussage nochmal zu finden, hatte aber keinen Erfolg. Kann also sein das mich irre und es mit den Textureeinheiten verwechsle. Mit Bestimmtheit kann ich sagen, daß laut Matrox alle VS laufen.

Mal eine andere Frage:
Ist es theoretisch möglich, daß die hohe Wärmeentwicklung des Parhelia-Chips nicht von den 80 Mio. Transitoren kommt, sondern hauptsächlich vom Speicherinterface ? Anders kann ich mir ein R300 mit über 300 MHz bei über 100 Mio. Transistoren nicht erklären.

Gruß Axel

Demirug
2002-07-15, 21:01:44
Originally posted by Axel

Mal eine andere Frage:
Ist es theoretisch möglich, daß die hohe Wärmeentwicklung des Parhelia-Chips nicht von den 80 Mio. Transitoren kommt, sondern hauptsächlich vom Speicherinterface ? Anders kann ich mir ein R300 mit über 300 MHz bei über 100 Mio. Transistoren nicht erklären.

Gruß Axel

Wärme erzeugt jeder Transitor bei dem Ladungen bewegt werden und dann erzeugen auch noch die verbindungswege auf dem DIE abwärme. Die Funktion ist dabei egal.

Es könnte sein das ATi bessere Chip Compiler als Matrox hat.

Matrix316
2002-07-15, 23:42:45
Gibts eigentlich keine Verrückten die mit einer Wakü eine Parhelia mal gehörig Dampf machen und ein paar OC Ergebnisse ins Netz stellen können? ;D

Quasar
2002-07-15, 23:46:50
Originally posted by Axel
Aus diesem Test der auch in den 3DC-News genannte wurde:
http://www.gamersdepot.com/hardware/video_cards/matrox/Parhelia512/001.htm
Das nur eine VS-Einheit funktioniert stimmt nicht. Matrox sagte das alle Einheiten arbeiten, aber auch von der Engine angesprochen werden müssen. Ich dachte eigentlich, daß die höhere Anzahl automatisch genutzt wird.
Gruß Axel

Ah ja. Die benchen SeSam2 ja auf default....kein Wunder, daß da keine so großen Unterschiede sind, wie bei den 3DCenter-MAX Einstellungen.

StefanV
2002-07-16, 00:34:23
Originally posted by ow
Vermutlich weiss Matrox nicht, was sie da reden.;)

Die Applikation kann gar nicht wissen, wieviele Recheneinheiten ein Chip hat.
Also ist es ausschliesslich Sache des Treibers, die Chipstruktur entsprechend zu verwalten.

Scheint bei den 2 VS des GF4 ja wohl zu funktionieren.

1. vermutlich schon :)

2. doch, kann sie, denn bisher hat jeder Chip nur EINEN VS, ob der nun 2 Pipelines hat oder nicht, ist egal...
Das heißt im Umgehrschluß, das bisherige Aplikationen nur einen Vertex Shader nutzen.
Oder aber, daß sie nur einen VS 'sehen' können, wenn die Parhelia, im Gegensatz zur GF4 4 hat, dann schauts anders aus..
Dann nutzt die Parhelia einen, die GF4 hingegen auch einen, der aber 2 Pipes hat, weshalb die GF4 da schneller ist.


3. nein, die GF4 hat einen VS mit 2 Pipelines.

Das ist ein Unterschied zwischen 2 (unabhängigen) VS :)

In sofern kann Matrox durchaus recht haben, wenn sie wirklich 4 'richtige' VS verbaut haben und nicht 1en mit 4 Pipelines...


DAS sind ein paar Feinheiten, auf die man achten sollte...

Ein geeignetes Beispiel fällt mir gerade nicht ein...

Quasar
2002-07-16, 01:03:17
Wenn du damit recht hast (und Matrox somit auch), dann kann dieser erhoffte Boost in der VS-Leistung wohl erst mit richtigen DX9-Apps kommen, da AFAIK DX8 so oder so nur einen VS ansprechen kann und der Rest vom Treiber verteilt werden muss. Somit kann eigentlich nur ein Single-Cycle/Zero-Latency VS als Optimum herauskommen.

Xmas
2002-07-16, 01:38:47
Originally posted by Stefan Payne
DAS sind ein paar Feinheiten, auf die man achten sollte...

Ein geeignetes Beispiel fällt mir gerade nicht ein...
Kein Wunder dass dir kein passendes Beispiel einfällt... es ist Blödsinn.

Der Parhelia hat genauso einen Vertex Shader mit 4 Pipelines wie eine GeForce4 einen VS mit zwei Pipelines hat (nach deiner Definition).

Vier "unabhängige" Vertex Shader Pipelines machen gar keinen Sinn. Es werden ja auch nicht 4 Dreiecke gleichzeitig gerendert.

Und DirectX spricht nicht die Hardware an, sondern den Treiber. Der Treiber kann mit den Vertex Buffern die er bekommt machen was er will, also auch beliebig auf vorhandene Pipelines verteilen (oder z.B. mit der CPU Load Balancing machen).

Schnitzl
2002-07-16, 02:06:46
Originally posted by Matrix316
Gibts eigentlich keine Verrückten die mit einer Wakü eine Parhelia mal gehörig Dampf machen und ein paar OC Ergebnisse ins Netz stellen können? ;D
Wenn du mir ein OC-Tool gibst...
:biggrin:

Demirug
2002-07-16, 06:44:37
Originally posted by Quasar
Wenn du damit recht hast (und Matrox somit auch), dann kann dieser erhoffte Boost in der VS-Leistung wohl erst mit richtigen DX9-Apps kommen, da AFAIK DX8 so oder so nur einen VS ansprechen kann und der Rest vom Treiber verteilt werden muss. Somit kann eigentlich nur ein Single-Cycle/Zero-Latency VS als Optimum herauskommen.

Da bringst du aber jetzt irgendwas durcheinander. DirectX sieht (unabhängig von der Version) immer nur eine VS-Einheit deren maximale Version vom Treiber mitgeteilt wird. Es ist also immer aufgabe des Treibers/Hardware die Vertexdaten auf die vorhandenen VS aufzuteilen.

Bei 4 VS einheiten braucht man Programme mit mindestens 4 Ops um alle Einheiten auszulasten. 4 Ops sind bei VS gar nichts das hat eigentlich jedes Program. Wenn allerdings das TriSetup und die Fragmentpipeline die von den VS erzeugen Daten nicht schnell genung verarbeiten kann laufen die VS einheiten leer. Wenn bei Matrox dort alles richtig funktioniert (davon gehe ich aus) wird die Karte im VS Bereich effektiver wenn die Dreiecke kleiner bzw. die Programme größer werden. Das trift zwar auf derzeit alle DX8 Karten zu aber bei der Parhelia müsste eine entsprechende Messkurve (Vertex/s zu Dreiecksgröße) am längsten steigen.

Quasar
2002-07-16, 07:06:12
Bis auf die DX-Version meinte ich das auch so, nur hatte ich eben gedacht, daß evtl. DX9 auch mehrere VS gleichzeitig ansprechen könnte. Schade..

Demirug
2002-07-16, 07:36:23
Quasar, warum sollte das DX das Verteilen der Daten auf die einzelen VS übernehmen? Die Hardware kann das viel besser alleine erledigen. DX schickt einfach das VS Programm und dann die zu bearbeiten Daten. Wenn also der Treiber/Hardware keinen Mist bauen werden immer alle verfügbaren Einheiten genutzt auch unter DX8. Die Parhelia hat aber solange keine HOS benutzt werden im verhältnis zu der Pixelfillrate zuviel VS Leistung.

Doomtrain
2002-07-16, 16:05:58
Originally posted by Demirug
Die Shader müssen auch schon mit DX8 die volle Leistung bringen da VS 2.0 lediglich eine erweiterung darstellt.

Das Problem der Parhelia ist die fehlenden Pixelfillrate.

1) Sind die Shader von DX8 und 9 zu 100% vor-rückwärtskompatibel?

2) Wie würde die Leistung steigen wenn man die Fillrate erhöhen würde, (übertakten!!!) oder ist das angebliche 256bit Interface soo ineffizient wie alle behaupten. Das würde mich mal interessieren.

ow
2002-07-16, 16:18:00
Originally posted by Doomtrain


1) Sind die Shader von DX8 und 9 zu 100% vor-rückwärtskompatibel?



Jede PS2.0 HW kann die PS1.0-1.4 ausführen.


2) Wie würde die Leistung steigen wenn man die Fillrate erhöhen würde, (übertakten!!!) oder ist das angebliche 256bit Interface soo ineffizient wie alle behaupten. Das würde mich mal interessieren.

Bei Fillratelimitierung steigt die Leistung linear mit dem Chiptakt an. Bei Bandbreitenlimitierung linear mit der Bandbreite.
Und 'dazwichen' eben weniger als linear mit Chip- bzw. Speichertakt.

Ikon
2002-07-16, 16:27:31
Originally posted by Doomtrain
Wie würde die Leistung steigen wenn man die Fillrate erhöhen würde, (übertakten!!!) oder ist das angebliche 256bit Interface soo ineffizient wie alle behaupten. Das würde mich mal interessieren.

Die Leistung würde sicher steigen, aber deutlich weniger als bei einer GF4, das größte Problem ist das Fehlen von brauchbarem HSR. Das spart nämlich auch die (realtiv zur Speicherbandbreite) geringe Fillrate, da z.B. der vorgezogene Tiefentest (Early Z) ja schon beim Triangle-Setup durchgeführt wird. Was ich damit sagen will, ist dass der Parhelia die zusätzliche Fillrate durch Übertakten realtiv schlechter umsetzen könnte (als z.B. eine GF4) aufgrund des fehlenden HSR -> das ist es, was dem Parhelia das Genick bricht.


EDIT: hilfloser Versuch der klareren Formulierung

ow
2002-07-16, 17:55:09
Originally posted by Ikon

Was ich damit sagen will, ist dass der Parhelia die zusätzliche Fillrate durch Übertakten nur realtiv schlecht umsetzen könnte aufgrund des fehlenden HSR -> das ist es, was dem Parhelia das Genick bricht.

Das ist leider falsch.
Die Umsetzung der höheren Leistung (Fillrate) durch Übertakten ist unabhängig von irgendwelchen HSR-Mechanismen.

Demirug
2002-07-16, 18:09:16
@ow:

Ich glaube was Ikon meint ist nicht die physikalische sondern die virtuelle (gefüllte oder wie man das auch immer nennen mag) Fillrate.

Bei der Parhelia die ja scheinbar über keine HSR verfahren verfügt sind die beiden werte gleich.

Bei einer Geforce kommt aber zur Physikalischen ja noch die durch das HSR gesparte Fillrate hinzu.

Wenn man also um 10% Übertaktet bekommt die Parhelia 10% mehr Fillrate. Bei der Geforce sind es 10% + 10% der durch das HSR gesparten Fillrate mehr.

Bei einer Kyro fällt das noch extremer aus.

Ikon
2002-07-16, 18:22:59
@Demirug
Genau das meinte ich - danke für die wesentlich verständlichere Erklärung :D

ow
2002-07-16, 18:52:32
Spielt das eine Rolle?

Ich kann die Prozente ja nicht aufaddieren.

Das Verhältnis von echter Fillrate zu durch HSR eingesparter Fillrate ist ja konstant.

Ein kyro kann ja auch nicht mehr als linear mit der (echten) Fillrate seine Leistung steigern. Und das tun IMRs auch.

zeckensack
2002-07-16, 19:01:23
*owzustimm*

Wenn die Rechnung tatsächlich anders liefe, dann hätte zB (grob geschätzt) eine Geforce4Ti bei 100MHz überhaup keine Füllrate mehr (==0) :|

Quasar
2002-07-16, 19:17:43
*ow&z-bagnichtzustimm*

Aber es ist schon so, daß ein MHz in Sachen Füllrate nicht bei jedem Chip gleich ist, da bei manchen Chips ohne HSR und vorgezogene Tiefentests diese zusätzlichen MHz nur 1:1 in Fillrate umgesetzt werden.

Zusätzliche Fillrate wird zwar wohl auch bei den "intelligenteren" Designs nicht erzeugt, aber außer der höheren Fillrate gibt es noch zusätzliche Einsparungen, was die Bandbreite angeht, was wiederum eine effektivere Nutzung der nunmehr gesteigerten Fillrate gegenüber einem "unintelligenten" Design erlaubt. Und diese virtuelle Fillrate, also die effektiv nutzbare, steigt dadurch eben überproportional zur reinen MHz-Übertaktung an.

Doomtrain
2002-07-16, 19:38:57
Originally posted by ow


1)Jede PS2.0 HW kann die PS1.0-1.4 ausführen.

2) Bei Fillratelimitierung steigt die Leistung linear mit dem Chiptakt an. Bei Bandbreitenlimitierung linear mit der Bandbreite.
Und 'dazwichen' eben weniger als linear mit Chip- bzw. Speichertakt.

1) OK,danke.

2)Logisch. Ich wollte nur wissen, ob die Karte noch andere bekannte Flaschenhälse hat außer der Füllrate. Anscheinend nicht.

Ehrlich gesagt, an was soll es denn sonst liegen wenn nicht an der Füllrate. Bandbreitenlimitation liegt "höchstwarscheinlich" NICHT vor, egal wie scheiße das 256bit Interface performt. Min 8-10GB(geschätzt) sollten von 18!!! schon noch überbleiben.


*spam*
In 0.13micron sollte der P512 endlich gefertigt werden (Ich bin sicher solch eine Karte wird es geben) Mit ~350Mhz und 1400MP bzw. 5600MT sollte doch was zu machen sein.
*spam*

Demirug
2002-07-16, 19:59:42
@Quasar & zeckensack & ow:

Es ist sogar möglich durch "intelligenteren" Design wirklich mehr Füllrate für Spezialsituationen pro Takt zu produzieren. So ist es zum Beispiel ohne größere Problem möglich bei einer 4 Pipeline Architektur verdeckte Dreiecke mit bis zu 16 (oder noch mehr) Pixel pro Takt zu verwerfen. Die dabei eingesparten Takte lassen sich dann natürlich für sichtbare Pixel benutzen.

zeckensack
2002-07-16, 20:02:29
Originally posted by Quasar
.... Und diese virtuelle Fillrate, also die effektiv nutzbare, steigt dadurch eben überproportional zur reinen MHz-Übertaktung an. Warum?
Wenn durch effizenzsteigernde Maßnahmen die 'virtuelle' Füllrate ein paar Prozent über der 'realen' liegt, dann tut sie genau das, und zwar taktunabhängig.

Beispielszene: In einem (unbewegten) Bildchen mit viel Overdraw reißt der Early-Z-Test 50% extra raus.

Übertakte ich die Karte um zehn Prozent, steigt die reale Füllrate um 10% an, der 'Effizienzbonus' hängt aber nur von der Szene ab. Wenn nur zwei drittel der Punkte den Early-Z-Test überleben, dann ist völlig egal, wie schnell der Chip getaktet ist, es bleibt bei 50% Bonus.

Simon Moon
2002-07-16, 20:15:48
Komische erklärungen hier. Bei den einen könnte man meinen, wenn man die Ti um 10% übertaktet, kriegt man 20% Performance gewinn u.ä. Ich glaub aber verstanden zu haben, wie das gemeint ist.

Also gehen wir von ner Fillrate von 100MPixel aus. Durch HSR wird diese um 10MPixel gesteigert. Logisch ist nun, das bei einer übertaktung von 10% der absolute Wert um 11Mpixel (1Mpixel von den 10HSR Megapixeln, 10 MP von der Fillrate) steigen wird, relativ bleibt es aber weiterhin nur 10% schneller.

Beim Parhelia ist es nun so, das (gehen wir auch von ner Fillrate von 100MP aus) er bei einer übertaktung von 10% nur 10Mpixel gewinnen würde. Also gegenüber dem GeForce 1MP weniger. Das liegt jedoch logischerweise daran, das er nicht noch HSR hat, das ihm gewinn bringt.
Aber die Fillrate kann ja logischerweise nicht überproportional ansteigen (ansonsten hätten wir ja bei ner 1GHz GeForce bspw. 100GPixel ;D )...
Ich hoff mal, das meine wirren Gedanken dies mehr oder weniger klar aufschrieben.

Demirug
2002-07-16, 20:52:51
Fassen wir doch mal zusammen:

1. Jeder Chip skaliert linear mit dem Takt solange er nicht durch seine externen Einheiten (RAM, AGP, Treiber) limitiert wird.

2. Trotz gleicher Anzahl von Pipelines ist der absolute Fillrategewinn pro zusätzlichem Takt bei jedem Chip anders.

3. Je besser das HSR desto mehr absoluter Fillrategewinn pro Takt kann erreicht werden.

4. Eine Geforce 4 hat eine bessere pro Takt Fillrate als der Parhelia.

ow
2002-07-16, 20:58:05
Originally posted by zeckensack
Warum?
Wenn durch effizenzsteigernde Maßnahmen die 'virtuelle' Füllrate ein paar Prozent über der 'realen' liegt, dann tut sie genau das, und zwar taktunabhängig.




wow. ich staune ob diser sehr einfachen Formulierung des Sachverhalts.:D
So meinte ich das.


Die Effizienz durch HSR-Massnahmen nimmt ja prozentual nicht zu bei Übertaktung.

Um 10% mehr Leistung in einer beliebigen Fillrate limitierten 3D-Szene zu bekommen, muss ich bei TBR wie IMR den Takt des Chip um 10% anheben, damit er 10% mehr Pixel zeichnen kann.

Völlig egal, ob da vorher durch HSR Pixel aussortiert werden.



So. Nun alle ausreichend verwirrt? ;)

ow
2002-07-16, 21:00:50
Originally posted by Demirug
Fassen wir doch mal zusammen:

1. Jeder Chip skaliert linear mit dem Takt solange er nicht durch seine externen Einheiten (RAM, AGP, Treiber) limitiert wird.

2. Trotz gleicher Anzahl von Pipelines ist der absolute Fillrategewinn pro zusätzlichem Takt bei jedem Chip anders.

3. Je besser das HSR desto mehr absoluter Fillrategewinn pro Takt kann erreicht werden.

4. Eine Geforce 4 hat eine bessere pro Takt Fillrate als der Parhelia.


Richtig.
Der absolute Fillratengewinn ist unterschiedlich.
Der relative aber nicht.

Simon Moon
2002-07-16, 21:07:57
Originally posted by ow

So. Nun alle ausreichend verwirrt? ;)

Nein, ich will noch Bandbreite und Texelfillrate reinmixen :D

Pussycat
2002-07-17, 12:43:12
Nein, ich will noch Bandbreite und Texelfillrate reinmixen :D

LOL

Unregistered
2002-08-13, 02:51:51
Ich kann nur sagen, eine graka kann seine leistung erst dann nutzen wenn auch dafür programmierte Spiele auf dem Mark kommen.

Sagen wir mal die Karte Matrox Parhelia 512 Max 20 GB kann erst zum lauf kommen wen ein Spiel sehr viel Bandbreite schluckt. Und das ganze kann man auch von den anderen karten behaupten.

Welcher Spiel ist heute zu tage für ATI Radeon 9700 oder Matrox Parhelia-512 oder GeForce 5 (NV30) eingestellt, meiner meinung nach garkein Spiel aber wer immer noch eine ATI R300 oder P.512 oder NV30 kauft ist selbst schuld. Heut zu tage reicht eine GeForce 3 völlig aus.




MFG
BlueRaven

BlueRaven
2002-08-13, 02:56:34
So reg gemacht.


MFG
BlueRaven

Exxtreme
2002-08-13, 08:42:30
Originally posted by Unregistered
Welcher Spiel ist heute zu tage für ATI Radeon 9700 oder Matrox Parhelia-512 oder GeForce 5 (NV30) eingestellt, meiner meinung nach garkein Spiel aber wer immer noch eine ATI R300 oder P.512 oder NV30 kauft ist selbst schuld. Heut zu tage reicht eine GeForce 3 völlig aus.

MFG
BlueRaven
Wenn du auf so Nettigkeiten wie FSAA und AF verzichten kannst, hast du sicherlich recht. Deswegen wird sich kaum einer eine R300 zulegen und dann ohne FSAA+AF zocken.

Gruß
Alex

Unregistered
2002-08-13, 10:48:11
wenn du die nettigkeiten benutzen willst muss auch dein rechner was hergeben und ich glaube nicht das alle High End teile zuhause haben.

Egal von welcher richtig du guckst es wird sich nie lohnen die neuesten und besten karten sich zuzulegen.


MFG
BlueRaven

nocturne
2002-08-13, 10:54:53
Originally posted by Unregistered

Egal von welcher richtig du guckst es wird sich nie lohnen die neuesten und besten karten sich zuzulegen.


Deshalb kaufen sich die meisten Gamer ja auch nicht die allerneuesten High-End-Modelle, sondern die mit besserem Preis/Leistungsverhältnis um 200 € wie GF4-Ti4200.

BlueRaven
2002-08-13, 10:59:37
Ich vergesse mich immer einzulogen *Tztzttz*


Ich glaube schon das es einpaar reiche unter uns oder volldeppen gibt die immer das neuste und beste haben wollen obwohl es nix bringt aber bekommen erst später mit das der Kauf sinnlos war und da ist es zu spät.

Die meisten werden auch nur von den Features geblendet und zum kauf gezwungen.


Ich sage nur leute überlegt ein kauf 2 oder 3, stellt euch vor was was will ich mit der Karte so alles machen und wofür brauche ich eine High End karte.


MFG
BlueRaven

nggalai
2002-08-13, 11:05:34
Die Diskussion, wann / ob sich High End-Karten lohnen, hatten wir bereits hier http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=23227 und hier http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=25657 .

Also bitte da weitermachen, das ist hier OT.

ta,
-Sascha.rb

nocturne
2002-08-13, 11:05:34
Originally posted by BlueRaven

Ich glaube schon das es einpaar reiche unter uns oder volldeppen gibt die immer das neuste und beste haben wollen obwohl es nix bringt aber bekommen erst später mit das der Kauf sinnlos war und da ist es zu spät.


Das sind aber wohl nicht viele. Du kannst ja hier (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=23227) mal nachsehen. ;)

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=23227