PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die ersten DX9-Karten werden wieder überflüssig


Seiten : 1 [2]

aths
2002-07-09, 16:04:46
Originally posted by Salvee
Schliesslich verbläst doch auch ein GF1 DDR mit 120 MHz Coretakt eine TNT2U mit 185 Mhz, oder sehe ich das falsch ? Der TNT2U-Core wird mit 150 MHz getaktet, der RAM mit 183 MHz.

Salvee
2002-07-09, 16:25:17
Originally posted by aths
Der TNT2U-Core wird mit 150 MHz getaktet, der RAM mit 183 MHz.

Die Herules DynamiteTNT2U hat(te) 185/200, soweit ich weiss.
EDIT: Und die Xentor32 hatte 175/185, aber ich frage mich eigentlich nur, ob mein erstes Posting vom Prinzip her stimmig ist ?

ow
2002-07-09, 16:37:24
Originally posted by Labberlippe


Achso ???
Wie soll die Option angeboten werden, wenn noch nicht die Karten verfügbar sind.
Damals hat nVIDIA auch 32 Bit gesetzt gegeben hat es noch kein Game auser bei div. wo man über DD den Wert setzen konnte.
Erst Q3 war ein richtiges 32 Bit Game.

Wieso wird von Dir 64 Bit Rendering abgetan und 32 geht ok

Gruss Labberlippe

Hi LL

Kennst du ein OGL Game, dass KEIN 32Bit unterstuetzt?
Ich nicht.

Quasar
2002-07-09, 19:01:23
Originally posted by Salvee
Die Herules DynamiteTNT2U hat(te) 185/200, soweit ich weiss.
EDIT: Und die Xentor32 hatte 175/185, aber ich frage mich eigentlich nur, ob mein erstes Posting vom Prinzip her stimmig ist ?

Normal war bei den TNT2u's 150/183, die Herkules hatte in der Anfangsserie jedoch noch 175/200, ein Freund hat seine noch :)
Von Guillemot weiß ich die Taktung nicht

Labberlippe
2002-07-10, 12:40:35
Originally posted by ow


Hi LL

Kennst du ein OGL Game, dass KEIN 32Bit unterstuetzt?
Ich nicht.

Ne aber damals hat es noch keine richtigen Games gegeben.
Das gleiche wird auch bei 64 Bit sein.
Ich kann mir gut vorstellen das die neuen OGL Games 64 Bit erkennen werden. ala Doom3 z.B. (Vermutung Ende)

Gruss Labberlippe

bambo
2002-07-10, 18:53:10
Originally posted by Labberlippe

Wie soll die Option angeboten werden, wenn noch nicht die Karten verfügbar sind.


Das ganze 64bit-Gerede ist doch erst mal sowieso nur eine Scheinargumentation. Auf den ersten 64bit-Karten wird es für Diashows und Featurelisten ganz nett sein, aber doch nicht für Spiele. Schon gar nicht mit 0.15 µm. Die ersten 64bit-Karten werden in der Praxis dafür zu langsam sein, genau wie die ersten 32bit-Karten so langsam waren, dass man zwar damit geprahlt hat, aber doch lieber mit 16 bit gespielt hat.

CannedCaptain
2002-07-11, 13:56:14
Originally posted by Exxtreme

Richtig. Je kälter ein Chip ist desto weniger Saft braucht er um zu laufen.

Gruß
Alex
Gewagtes Argument!
<müllredmode>
Vorraussetzung:
Q=Q1+Q2;
Q= Gesamtwärme;
Q1= Chipwärme;
Q2= "Kühlwärme" //ausm Kühlspray;
sgn(Q1) = -1 //Vorzeichen negativ, da abgegebene Wärme;
sgn(Q2) = +1 //Vorzeichen positiv, da aufgenommen Wärme;
|Q1|<|Q2| // sonst kühlt sich der Chip nicht ab;

Erkenntnis
sgn(Q)=+1 //Vorzeichen positiv => aufgenommene Wärme (Temperaturverlust an Umgebung);
Du hast richtig erkannt, der Chip kühlt sich ab!
Trotzdem bleibt Q1 konstant => sprich der Chip braucht immer noch die gleiche Energie!

Gegenargument:

Leiter leiten schlechter, je höher ihre Temperatur ist. Höherer Stromverbrauch ist das Ergebnis1


Falls irgendwer Langeweile hat, kann er ja die Verlustleistungen Q1 und Q2 ermitteln, eine Funktion für den variablen Widerstand finden, das irgendwie zusammenmauscheln, den Extremwert bilden und dann wissen wir ob du recht hast. Solange der Extremwert in den Bereich von 273K-373K fällt.

</müllredmode>

aths
2002-07-12, 23:20:32
Originally posted by bambo
Auf den ersten 64bit-Karten wird es für Diashows und Featurelisten ganz nett sein, aber doch nicht für Spiele. Schon gar nicht mit 0.15 µm.Bitte was haben die 64 Bit mit 0.15µ zu tun?

Die ersten DX9-Chips werden vermutlich schneller als alle bisherigen DX8-Chips sein. (Zumindest war es bei den ersten DX7- und DX8-Karten ja auch so.) Wird die Grafik nun durch 64 Bit etwas langsamer, macht das deshalb nix. Da es in erster Linie eine Frage der Speicherbandbreite ist sollte mit dem Übergang zu den 512-Bit-Chips mit 256-Bit-DDR-Interface das Problem nicht allzu groß sein.

nocturne
2002-07-13, 01:52:12
Originally posted by aths
Die ersten DX9-Chips werden vermutlich schneller als alle bisherigen DX8-Chips sein. (Zumindest war es bei den ersten DX7- und DX8-Karten ja auch so.) Wird die Grafik nun durch 64 Bit etwas langsamer, macht das deshalb nix. Da es in erster Linie eine Frage der Speicherbandbreite ist sollte mit dem Übergang zu den 512-Bit-Chips mit 256-Bit-DDR-Interface das Problem nicht allzu groß sein.

Und? Die ersten 32bit-Renderer waren für sinnvolles Spielen in 32bit auch zu langsam, obwohl sie schneller als alle vorherigen Chips waren. Zumindest war das immer das Argument der 3dfx-Fans. ;)

Und Deine "Argumentation" mit dem 256-Bit-DDR-Interface ist schon bei Deiner Vorschuss-Hyperei des Parhelia in die Hose gegangen.

zeckensack
2002-07-13, 02:06:59
Originally posted by nocturne


Und? Die ersten 32bit-Renderer waren für sinnvolles Spielen in 32bit auch zu langsam, obwohl sie schneller als alle vorherigen Chips waren.Wirklich? 640x480x32 war die Auflösung auf der RivaTNT, in dieser Kombination habe ich sowohl UT als auch Quake3, als auch alles andere (soweit es einstellbar war) gespielt. Und ich kenne da jemanden, der schonmal angedeutet hat, dasselbe getan zu haben. Hint: zwei Buchstaben.

Warum? Wenn man einmal den Vergleich hatte, dann will man den 16bit-Modus einfach nicht mehr haben.
Zumindest war das immer das Argument der 3dfx-Fans. ;)Nein :PUnd Deine "Argumentation" mit dem 256-Bit-DDR-Interface ist schon bei Deiner Vorschuss-Hyperei des Parhelia in die Hose gegangen. Du bist unbelehrbar, nicht wahr? Da du konstant darüber hinwegsiehst, daß der erste DX9 Chip voraussichtlich doppelt soviele Pixelpipelines haben wird wie alles bisher dagewesene, wird er weder langsam sein, noch überflüssig, noch wird er Probleme haben, von einem breiteren Interface zu profitieren. Denn oh Wunder, doppelt soviele Pipes brauchen doppelt soviel Bandbreite. Geht dir das jetzt irgendwann mal in den Schädel?

Der nächste bitte.

mapel110
2002-07-13, 02:44:21
sind doch alles ungelegte eier !

vielleicht vergessen ja die hersteller ähnlich wie matrox etwas, um die speicherbandbreite effektiv zu nutzen.
tschuldigung, aber ich hab kein plan :) . jedenfalls hängt die nutzung der speicherbandbreite doch bestimmt von mehr faktoren ab, als nur von memory-controllern und pipelines, oder ?

allerdings ist das recht unwahrscheinlich, dass nochmal ein hersteller solch einen fehler produziert.
so wie es derzeit aussieht, wird wohl der r300 der erste dx9-chip sein. und ati versteht ja was von grafikkarten.

nocturne
2002-07-13, 09:25:20
Originally posted by zeckensack
Wirklich? 640x480x32 war die Auflösung auf der RivaTNT, in dieser Kombination habe ich sowohl UT als auch Quake3, als auch alles andere (soweit es einstellbar war) gespielt. Und ich kenne da jemanden, der schonmal angedeutet hat, dasselbe getan zu haben,
Achso, wenn Du so gerne in so niedrigen Auflösungen spielst, könnte 64bit tatsächlich auch auf den ersten DX9-Karten für Dich reichen.
640x480x64 sollten sogar auf einer 0.15µ-Karte drin sein. ;)
Ich kenne da Leute, die spielen lieber in hohen Auflösungen.

Originally posted by zeckensack
Nein :PDu bist unbelehrbar, nicht wahr? Da du konstant darüber hinwegsiehst, daß der erste DX9 Chip voraussichtlich doppelt soviele Pixelpipelines haben wird wie alles bisher dagewesene, wird er weder langsam sein, noch überflüssig, noch wird er Probleme haben, von einem breiteren Interface zu profitieren. Denn oh Wunder, doppelt soviele Pipes brauchen doppelt soviel Bandbreite. Geht dir das jetzt irgendwann mal in den Schädel?

:zzz: Jaja, die gleichen Beschimpfungen habe ich mir schon anhören dürfen, als ich vor zwei Monaten den Parhelia-Hype angezweifelt habe.
Wir sprechen uns zu diesem Thema im Herbst wieder, wenn es Benchmarks gibt. Wenn es dann in der Diskussion darum geht, ob die Optik bei aktuellen 32bit-Spielen den Performanceeinbruch bei 64bit lohnt. Es gibt - schon gar nicht auf 0.15µ - kein "64bit for free", geht Dir das in den Schädel?

Iceman346
2002-07-13, 11:14:19
Och Nocturnchen, du bist süß. Du bist das beste Beispiel für jemanden der garnicht versucht die Posts die ihn ansprechen zu verstehen...

zeckensack
2002-07-13, 12:19:36
Originally posted by nocturne
... 0.15µ ...Du hast es bis jetzt nicht geschafft, das in einen sinnvollen Kontext zu stellen. Deine gesamte 'Argumentation' baut darauf auf. Wäre mal so langsam an der Zeit, daß du dir das Gesamtpaket (hrhr) anschaust.

Deine Vergleiche mit dem Parhelia ziehen nicht, und zwar aus dem Grund, den ich oben schon genannt habe, ich kann aber auch noch deutlicher werden:

a)P hat ein Füllratenproblem. 220MHz*4 reicht nichtmal an eine Radeon8500LE heran.

b)0.15µ wird dieses Füllratenproblem nicht haben. ? MHz*8. Sinnvollerweise wird die Bandbreite im gleichen Verhältnis mitwachsen. Du kannst dir gerne selbst ausrechnen, wieviel Takt nötig sein damit du zufrieden bist. ZB werden IMO schon 100MHz reichen, um P abzuhängen, da dieser extrem ineffizient ist.

64bit-PS: Eine erhöhte Farbtiefe ist nunmal mit Leistungsverlust verbunden. Das hat mit dem Fertigungsprozeß überhaupt nichts zu tun, schämen solltest du dich :nono:

Quasar
2002-07-13, 12:39:36
Der Bezug, den nocturne imho zwischen Fertigungsprozess und 64Bit herstellt, hat ja auch direkt mit der Leistung zu tun, da er (und ich im übrigen auch!) anzweifelt, daß mit 0,15µ die für ausreichende 64Bit-Leistung nötigen Taktraten in den Transistormonstern von morgen möglich wären. Ich bin sicher, daß hast du auch so verstanden, oder Z-Bag?

Exxtreme
2002-07-13, 12:56:53
@ Quasar
Ich glaube kaum, daß die Leistung unter 64 Bit was mit dem Fertigungsprozess zu tun hat. Die 64-Bit Farbtiefe belasten fast ausschliesslich das Speicherinterface da die doppelte Menge an Daten über den Speicher-Bus muss. In der Praxis wird's trotzdem daraus auslaufen, daß die in 0,15µ hergestellten Chips zu langsam für 64-Bit Farbtiefe werden aber nur weil das Speicherinterface zu lahm ist.

Gruß
Alex

zeckensack
2002-07-13, 13:02:18
Originally posted by Quasar
Der Bezug, den nocturne imho zwischen Fertigungsprozess und 64Bit herstellt, hat ja auch direkt mit der Leistung zu tun, da er (und ich im übrigen auch!) anzweifelt, daß mit 0,15µ die für ausreichende 64Bit-Leistung nötigen Taktraten in den Transistormonstern von morgen möglich wären. Ich bin sicher, daß hast du auch so verstanden, oder Z-Bag? Der Bezug zu den 64bit interessiert mich nicht. Wenn in einem Spiel 32bit nicht gut genug aussehen, dann nimmt man halt 64bit, muß aber im Gegenzug mit geringerer Leistung leben. Völlig unabhängig von der absoluten Leistung eines Chips wird ein 64bit-Modus langsamer sein. Entweder man braucht die höhere Farbtiefe und lebt damit, oder man verzichtet darauf. Das leuchtet doch ein, gell? ;)

Also, wie sieht's denn mit der absoluten Leistung aus ...

Hmm, wenn 200MHz reichen, um schon deutlich schneller als die Vorgängerserie zu sein, dann muß man sich doch keine großen Sorgen wegen den Taktraten machen, oder?

Nicht umsonst ist der R300 (ok, nennen wir das Kind beim Namen) als ein solches Transistormonster geplant. Der einzige Grund dafür, ihm niedrige mögliche Taktraten vorzuwerfen, ist gleichzeitig auch ein Grund trotzdem gute Leistung zu erwarten: er wird rundum leistungsfähiger.

Matrox ging einen sehr ungeschickten Weg, indem sie die ganzen Transistoren auf die schier unglaublichen Vertex Shader und Pixel Shader Einheiten verblasen haben, ohne an der Rohleistung zu arbeiten. Da haut der niedrige Takt dann voll rein und der potentielle Kunde kratzt sich (zu Recht!) am Kopf und fragt sich, wo die Balance geblieben ist.

Aber der Vergleich mit dem R300 hinkt so dermaßen, daß es wirklich albern ist, was hier in diesem Thread so alles abgeht ...

Quasar
2002-07-13, 13:11:03
Wenn ihr eure Standpunkte gleich so gründlich begründet hättet, gäbe es in diesem Thread mit Sicherheit einige gehaltlose Postings weniger... :)

mapel110
2002-07-13, 13:29:51
hm, igendwie wird hier aneinander vorbeigeredet :|
aber das ist ja immer der fall, wenn nocturne am werk ist

:bad1:

:jedifire:

struktur-dichte eines chips hat nur bedingt aussagekraft über die leistung !
kleinere strukturen => mehr takt, wenn es der selbe chip ist => mehr leistung

kann man das so stehen lassen ???

Exxtreme
2002-07-13, 13:34:59
Originally posted by Quasar
Wenn ihr eure Standpunkte gleich so gründlich begründet hättet, gäbe es in diesem Thread mit Sicherheit einige gehaltlose Postings weniger... :)
Hätsch di aba glei denka kiänna, daß 64-Bit niäx mit dr Chipvärtigung zu tun henn'.
;)

Gruß
Alex

Quasar
2002-07-13, 13:54:28
Jo, doun könne hätt i det wohl nur häb i docht, dat so auch mol annere een büttn erleucht wern küntt. ;)

bambo
2002-07-26, 20:18:49
Originally posted by aths
64 Bit kann ohne expliziten Support der Engine verwendet werden.

Konkret: nVidia's NV30 soll ja 64bit und sogar 128bit floating point color unterstützen. Könnte man das dann per Treiber auch z.B. bei heutigen Spielen mit der Quake3-Engine freischalten?

???

Xmas
2002-07-26, 20:28:10
Originally posted by bambo
Konkret: nVidia's NV30 soll ja 64bit und sogar 128bit floating point color unterstützen. Könnte man das dann per Treiber auch z.B. bei heutigen Spielen mit der Quake3-Engine freischalten?

???
Da sollte es nichts geben was dagegenspricht. Bleibt abzuwarten ob es denn eine solche Option im Treiber geben wird.

Lethargica
2002-07-26, 20:47:14
Hm mal ne Grundlegende Frage : bei 64Bit muss doch eigentlich mehr als 2x soviel Transfer entstehen als bei 32Bit oder?

Die Bit-Größe ist zwar doppelt so groß, aber die Farben werde doch vertausendfacht (sry hatte in Mathe nen 4er und is auch nicht so mein Ding ^^)

Zum eigentlichen Thema...ich glaub nicht, dass der R300 überflüssig ist, werd ihn mir aber trotzdem nicht kaufen, da ich nie mehr als 250€ für ne Graka ausgebe und da ich auf FSAA und Konsorten verzichten kann, werd ich sie Leistungsmäßig wahrscheinlich nicht brauchen werde (für mich is alles über 30fps Flüssig ;-)

Also wer das Geld hat soll sich ne DX9 Graka kaufen und wers nicht will solls halt lassen.

Meine Vorgehensweiße :
Hab mir jetzt ne spottbillige TI4200 gekauft...warte auf die NV30 und kauf mir dann wahrscheinlich ne billige RV300 usw....

Xmas
2002-07-26, 21:21:45
Originally posted by J0hN|Cl4rK
Hm mal ne Grundlegende Frage : bei 64Bit muss doch eigentlich mehr als 2x soviel Transfer entstehen als bei 32Bit oder?

Die Bit-Größe ist zwar doppelt so groß, aber die Farben werde doch vertausendfacht (sry hatte in Mathe nen 4er und is auch nicht so mein Ding ^^)
Sowohl der Wertebereich als auch die Anzahl der Zwischenschritte ist bei 64 Bit um einiges größer. Wieso aber mehr als 2x so viel Daten transferiert werden sollten, verstehe ich irgendwie nicht...

Wenn man bei heutigen Spielen 64Bit Rendering erzwingen würde, verdoppelt man nur den Transfer von (Alphablending) und zum Framebuffer. Für Z, Stencil, Texturen und Geometrie ändert sich überhaupt nichts. Es ist also deutlich weniger als das doppelte an Bandbreite erforderlich (Wobei zukünftige Spiele natürlich auch 64Bit Texturen haben können).

bambo
2002-07-26, 21:30:37
Originally posted by Xmas

(Wobei zukünftige Spiele natürlich auch 64Bit Texturen haben können).

Gerade bei Texturen halte ich das für Overkill. So viel haben wir ja noch nicht mal auf dem Desktop, wenn wir uns Fotos ansehen. Ausserdem würden diese Texturen ja auch doppelt so viel Texturspeicher brauchen. Beim Rendering wäre das schon eher brauchbar, aber das ist sowieso Zukunftsmusik.

Xmas
2002-07-26, 21:47:17
Originally posted by bambo
Gerade bei Texturen halte ich das für Overkill. So viel haben wir ja noch nicht mal auf dem Desktop, wenn wir uns Fotos ansehen. Ausserdem würden diese Texturen ja auch doppelt so viel Texturspeicher brauchen. Beim Rendering wäre das schon eher brauchbar, aber das ist sowieso Zukunftsmusik.
Texturen sind nicht zwangsläufig Farbwerte. Bei Normalmaps und Lookup-Texturen machen 64bit einen signifikanten Unterschied (bzw. sind sogar unverzichtbar wegen dem Wertebereich). Außerdem ist 24Bit IMHO nicht ganz ausreichend für optimale Farbdarstellung (aber das hat auch mit der fehlenden Gamma-Korrektur beim Texturieren zu tun).

Major
2002-07-27, 10:26:24
Ich finde, alle die hier immer so schön gegen die ach so schlechten neuen DX9 Chips gewettert haben, sollen sich doch jetzt die ersten Benches der R300 ansehen, und dann können wir weiter reden:bäh: