PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon9700 unpräziser als NV30?


mezzo
2002-08-11, 01:13:26
Im 3Dcenter-Artikel (http://www.3dcenter.de/artikel/2002/07-14_b.php) steht, dass R300 und NV30 beide 128-bit floating-point Genauigkeit hätten.

Im Tech-Report Artikel steht, dass die Pixel-Shader-Präzision beim NV30 128 bit, beim R300 aber nur 96 bit betragen würde:

http://tech-report.com/etc/2002q3/nextgen-gpus/index.x?pg=1

Was stimmt denn nun?

???

Xmas
2002-08-11, 01:51:15
Der R300 nutzt intern größtenteils maximal 24 Bit pro Kanal, manche Werte sind aber 32 Bit pro Kanal.

Um die Bildqualität braucht man sich aber keine Sorgen zu machen, 24 Bit pro Kanal sind für die nächsten Jahre mehr als ausreichend. Das schränkt höchstens die Nutzbarkeit des R300 als "universelle" SIMD-Einheit ein.

mezzo
2002-08-11, 02:03:34
Originally posted by Xmas

Das schränkt höchstens die Nutzbarkeit des R300 als "universelle" SIMD-Einheit ein.

Kannst Du das bitte genauer erklären?

Xmas
2002-08-11, 02:13:58
Originally posted by mezzo
Kannst Du das bitte genauer erklären?
Nun, falls man auf die Idee kommt, die Grafikkarte als "CPU-Ersatz" zu gebrauchen (für parallele Nicht-Grafik-Berechnungen, die viel Bandbreite brauchen), dann benötigt man evtl. die vollen 32 Bit, je nach Art der Berechnung.

Quasar
2002-08-11, 12:07:25
Für einen richtigen HW-Raytracer z.B. könnte das interessant werden, denke ich, aber sicher nicht im "normalen" Grafikbereich, wo sich manche angeblich schon schwer tun, 16Bit Farbtiefe von 32Bit zu unterscheiden...

Unregistered
2002-08-11, 15:04:17
Das sind nur Zahlenspielereien. NV rechnet halt imo anders als ATi ;)
Wenn ATi16Tap ani hat, hat Nv 64...;) wenn ATi nen direkten Zugriff beschreibt, multipliziert Nv mit Loopbacks...;)
So einfach ist das, Willi und Eva DAU zu beeindrucken...:bonk:

bambo
2002-08-13, 17:16:17
Originally posted by mezzo
Im 3Dcenter-Artikel (http://www.3dcenter.de/artikel/2002/07-14_b.php) steht, dass R300 und NV30 beide 128-bit floating-point Genauigkeit hätten.

Im Tech-Report Artikel steht, dass die Pixel-Shader-Präzision beim NV30 128 bit, beim R300 aber nur 96 bit betragen würde:

http://tech-report.com/etc/2002q3/nextgen-gpus/index.x?pg=1

Was stimmt denn nun?


Das muss kein Widerspruch sein. Anscheinend haben zwar beide die gleiche Framebuffer-Genauigkeit, aber nVidia hat hier einen präziseren Pixelshader als ATI.

Xmas
2002-08-13, 23:55:02
Originally posted by Unregistered
Das sind nur Zahlenspielereien. NV rechnet halt imo anders als ATi ;)
Egal wie mans liest...
:rofl:

ice cool69
2002-08-14, 00:53:35
selbst wenn diesbezüglich ein kleiner unterschied besteht so wird ihn in der praxis niemand sehen können...

nocturne
2002-08-14, 03:49:22
Originally posted by ice cool69

selbst wenn diesbezüglich ein kleiner unterschied besteht so wird ihn in der praxis niemand sehen können...

:lol: Das erinnert mich an die damalige Behauptung mancher Besitzer veralteter Grafikkarten anno 2000, dass man angeblich in der Praxis keinen Unterschied zwischen 16bit und 32bit sehen würde... :D

aths
2002-08-14, 11:20:20
Originally posted by nocturne
:lol: Das erinnert mich an die damalige Behauptung mancher Besitzer veralteter Grafikkarten anno 2000, dass man angeblich in der Praxis keinen Unterschied zwischen 16bit und 32bit sehen würde... :D Na dann berechne doch mal den durchschnittlichen Fehler bei 32 Bit FP vs 24 Bit FP Rendering, sagen wir bei 8x Multitexturing und weise anhand von wissenschaftlich empirisch gewonnenen Daten nach, dass man den Unterschied sieht.

bambo
2002-08-14, 14:19:18
Originally posted by aths
Na dann berechne doch mal den durchschnittlichen Fehler bei 32 Bit FP vs 24 Bit FP Rendering, sagen wir bei 8x Multitexturing und weise anhand von wissenschaftlich empirisch gewonnenen Daten nach, dass man den Unterschied sieht.
aths, warum versuchst Du plötzlich, die Bedeutung von höheren Genauigkeiten herunterzuspielen, obwohl Du sonst immer ein Verfechter von höheren Genauigkeiten bist? Nur weil es nVidia ist, die dann bei der Präzision die Nase vorn haben werden? :nono:

Zitat von aths aus einem anderen Thread (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=22693&perpage=20&pagenumber=12) :

Originally posted by aths

Das erwähne ich deshalb weil du mit dem Aufkommen der DX9-Karten genaueres Rendering wahrscheinlich mit "braucht man noch nicht" abtun wirst.
:bonk:

Demirug
2002-08-14, 14:41:55
Nur zur allgemeinen Information:

Pixar (Toy Story, Shrek) rechnet mit 16bit FP. 24 Bit Reichen zum rendern wirklich aus. Die 32 bit FP sind primär für die Spieler überzogen und deshalb hat NVIDIA ja auch einen 16 bit FP Modus vorgesehen (der Performanter sein soll)

ice cool69
2002-08-14, 14:58:25
thx @ demirug

man muss halt immer abwägen zwischen qualität und geschwindigkeit...

bambo
2002-08-14, 16:22:55
Neues vom Reverend bei http://www.ve3d.com/hw/previews/cinefx/ :

-------------------------

High precision color

Banding in things such as fog, even at 32bit, exists. This should be history with CineFX's support for 128-bit color precision. This is achieved through 16 and 32-bit floating-point numbers for each RGB component. 32-bit floating-point will, of course, be slower than 16-bit floating point but it offers true 128-bit color. Having support for 128-bit floating-point color not only gives us higher precision, it also allows extended dynamic range. What this means is that we should now have scenes with better lighting effects as well as less potential errors when multi-passing.

The differences as provided by NVIDIA :

http://www.ve3d.com/hw/previews/cinefx/colorprecision.jpg

NOTE : It appears NVIDIA's understanding of the R300 is that the R300 does not support 64-bit and 128-bit color. As I understand it, both 64-bit and 128-bit floating-point surface formats, both on texture input and as destination formats for buffers (i.e. writing the internal pixel shader output to that buffer), are supported on the R300. You'll note that the R300 loses out on maximum precision (96 versus 128-bit on the CineFX/NV3x). The R300's internal pixel pipeline is a mix of 32-bit and 24-bit per component. The main pixel shader core, however, is 24-bit floating-point per component (red, green, blue plus alpha), or 96-bit in total. When the R300 writes the full 96-bits (24-bitsx4 channels) to main memory, it is written as a 128-bit value (32-bitx4 channels, with each 32-bit being a IEEE SPFP). Some of the texture addressing operations are done in 32-bit instead of 24-bit. There may be specific instances where a game programmer may not agree with this implementation by ATi but this is not the article to go into detail about ATi's R300.

---------------------------------------------------------------

nggalai
2002-08-14, 16:40:50
Die Infos und Bildli stammen übrigens Original aus einem NV-Paper, welches hier http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=29222 diskutiert wird.

ta,
-Sascha.rb

Kai
2002-08-14, 17:07:00
Originally posted by aths
Na dann berechne doch mal den durchschnittlichen Fehler bei 32 Bit FP vs 24 Bit FP Rendering, sagen wir bei 8x Multitexturing und weise anhand von wissenschaftlich empirisch gewonnenen Daten nach, dass man den Unterschied sieht.

Warum empirisch werden wenn man es in der Praxis eben doch sieht? Wie war das nochmal mit der "Besorg Dir eine Brille"-Diskussion ?

Exxtreme
2002-08-14, 17:10:48
@ Kai
Wir sprechen hier von Fliesskomma-Zahlen. Diese lassen sich nicht mit den Derzeitigen vergleichen. Ich bezweifle stark, daß man einen Unterschied bei 8x MT sieht.

Gruß
Alex

bambo
2002-08-14, 17:15:22
Originally posted by Kai

Warum empirisch werden wenn man es in der Praxis eben doch sieht? Wie war das nochmal mit der "Besorg Dir eine Brille"-Diskussion ?

Stimmt, die Argumentationsweise mancher Leute scheint hier wieder in die alte "Kein Mensch braucht mehr als 16 bit"-Masche zu verfallen.

Wie schon Bill Gates vor zwanzig Jahren sagte:

"Kein Betriebssystem wird jemals mehr als 640 KB RAM brauchen".

;)

ice cool69
2002-08-14, 19:39:04
das ist ja wohl kaum zu vergleichen...
ich bleibe trotzdem dabei dass der unterschied marginal ist und andere faktoren in der grafikqualität viel wichtigere rollen spielen werden.

aths
2002-08-14, 23:25:56
Originally posted by bambo
aths, warum versuchst Du plötzlich, die Bedeutung von höheren Genauigkeiten herunterzuspielen, obwohl Du sonst immer ein Verfechter von höheren Genauigkeiten bist?Ich kann auch sehen, ob es was bringt oder eher für's Marketing ist. 64 Bit FP, was übrigens JC fordert, halte ich aus numerischen Gründen für völlig ausreichend, erst recht bei der DX9-Generation. Wenn ATI 96 Bit anbietet, naja. NVs 128 Bit halte ich bei Grafik für übertrieben.

aths
2002-08-14, 23:30:26
Originally posted by Kai
Warum empirisch werden wenn man es in der Praxis eben doch sieht? Wie war das nochmal mit der "Besorg Dir eine Brille"-Diskussion ? Kai, wir sprechen von 32 oder 24 Bit pro Kanal Fliesspunktgenauigkeit.

aths
2002-08-14, 23:33:41
Originally posted by bambo
Stimmt, die Argumentationsweise mancher Leute scheint hier wieder in die alte "Kein Mensch braucht mehr als 16 bit"-Masche zu verfallen.

Wie schon Bill Gates vor zwanzig Jahren sagte:

"Kein Betriebssystem wird jemals mehr als 640 KB RAM brauchen".Dein Analogievergleich hilft nicht drüber weg, dass du nicht in der Lage bist, einen wahrnehmbaren Qualitätsnachteil von 96 Bit Rendering ggü. 128 Bit Rendering irgendwie nachzuweisen*. Du flüchtest dich in allgemeine Phrasen.

* Unter Berücksichtigung der Leistungsfähigkeit der Hardware, sprich ungefähr 8x Multitexturing. 16x MT würde wohl zu langsam (ist aber für 96 Bit Genauigkeit auch kein Problem.)

Übrigens sagte Billyboy: "640 k should be enough for everyone."

nocturne
2002-08-14, 23:47:32
Originally posted by aths
Dein Analogievergleich hilft nicht drüber weg, dass du nicht in der Lage bist, einen wahrnehmbaren Qualitätsnachteil von 96 Bit Rendering ggü. 128 Bit Rendering irgendwie nachzuweisen*. Du flüchtest dich in allgemeine Phrasen.

Dein Versuch, Dich nun innerhalb weniger Wochen um 180° zu drehen und den Vorteil höherer Genauigkeiten plötzlich herunterzuspielen, hilft nicht darüber weg, dass Du nicht in der Lage bist, nachzuweisen, dass es keinen Qualitätsnachteil gibt. Du flüchtest Dich in allgemeine Phrasen.

Übrigens, wohin ist denn plötzlich unser Anti-nVidia-Miesmacher Steffi Payne abgetaucht? Vor einem Monat hat er hier (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=22693&perpage=20&pagenumber=12) noch auf folgender Position beharrt:

"Interne Rendergenauigkeit kann man immer gebrauchen!!" (Zitat Payne)

Aber damals (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=22693&perpage=20&pagenumber=12) ging's Euch ja noch gegen nVidia, da war Euch dieses "Argument" recht und billig. Dass Ihr nun plötzlich nichts mehr davon wissen wollt, nur weil sich der Wind gedreht hat, ist schon ziemlich peinlich.
:nono:

HiddenGhost
2002-08-14, 23:55:59
FP Rendering bedeutet doch, dass die Fehler die gegen null gehen geringer werden ( 0- <=1 ), dafür aber mit steigenden Farbwerten exponentiel an Abstand gewinnen, der im Vergleich zu Integer mit hohen Werten 98=>1<=99 deutlich breiter ausfällt... 2^3 sind 8, 2^4 sind 16 dh. 2 Werte 8=>8<=16 liegen schon deutlich weiter auseinander.

Ich hoffe ich hab das jetzt Prinzipiell verstanden...

Was hat es denn nun in der Praxis für VOrteile, dass der Frabraum zwischen 0 und 1 mit deutlich mehr möglichen Zwischenwerten ausgestattet ist als nur 0 ODER 1.

Könnte man mir das vieleich an EINFACHEN Beispielen erklaeren... wenns zu kompliziert wird vergess ich das nämlich zu schnell wieder bei den ganzen Hausaufgaben ;) *g*

ice cool69
2002-08-15, 01:30:51
also ich lass mir ja noch einreden dass man den unterschied zwischen 2x und 4x FSAA sieht. auch den unterschied zwischen 4x und 8x AF lass ich mir noch einreden. sogar dass man den unterschied zwischen 16bit und 32bit farbtiefe in half life sieht hab ich mir noch einreden lassen.

aber dass man bei heutigen spielen einen unterschied zwischen 96bit und 128bit renderinggenauigkeit im spiel sieht, das kann mir noch nicht einmal die marketingabteilung von nvidia weis machen (hier unter dem namen RICHTHOFEN bekannt)

nocturne
2002-08-15, 01:46:13
Wer redet denn von "heutigen" Spielen? Für "heutige" Spiele reicht auch eine GF3-Ti200 für 99 €. ;)

tEd
2002-08-15, 02:15:15
bei welchen operationen verliert man eigentlich genauigkeit?

man hat ja vorallem bei multipass rendering einen verlust weil man bei bisherigen karten mit 32bit in den frame(back)buffer schreiben musste und so die intern höhere genauigkeit verloren hat. auch wenn der r9700 mit multipass rendern muss ist das ja kein problem da er ja mit 128bit genauigkeit in den backbuffer schreiben kann und somit keine genauigkeit verliert.

desweitern ist es ja nicht bei allen blendings operation kritisch da z.b diffuse und spekular operationen additiv sind und somit keine fehler verursachen jedenfalls hab ich das gelesen :).

weiter nehm ich an das man mit mit so hohen genauigkeiten es weniger um rundungsfehler zu beheben geht(ich denk da reicht auch weniger) aber vorallem um ein dymaischer farbbereich zu bekommen wie extrem hell oder extrem dunkel.

Xmas
2002-08-15, 04:11:35
Originally posted by HiddenGhost
Was hat es denn nun in der Praxis für VOrteile, dass der Frabraum zwischen 0 und 1 mit deutlich mehr möglichen Zwischenwerten ausgestattet ist als nur 0 ODER 1.

Könnte man mir das vieleich an EINFACHEN Beispielen erklaeren... wenns zu kompliziert wird vergess ich das nämlich zu schnell wieder bei den ganzen Hausaufgaben ;) *g*
Ich weiß nicht ob du es wusstest, aber der "darstellbare" Farbraum wurde bisher immer mit Werten von 0 bis 1 dargestellt, wobei Integerwerte linear auf diesen Bereich gemappt werden. Zumindest ist das die "Sicht des Programmierers". GeForce3/4 bieten einen Rechenbereich von -1 bis 1 (nicht ganz exakt), was u.a. für Bumpmapping praktisch ist. Radeon8500/9000 bieten sogar -8 bis 8.
Generell muss man sagen dass ein noch größerer Wertebereich viel eher für die Nicht-Farb-Berechnungen (Texturkoordinaten, Bumpmapping) wichtig ist.

0 steht normalerweise für Schwarz, 1 für die maximal darstellbare Intensität.

FP ist aus mehreren Gründen vorteilhaft:
1. Die nichtlineare Wahrnehmung des Auges
2. Die dunklen Farbbereiche werden viel feiner aufgelöst, wodurch man sie ohne Banding multiplikativ aufhellen kann
3. Ohne den "Farbbereich", also 0 bis 1, zu vernachlässigen, kann man einen großen Wertebereich darstellen, was bei einigen Nicht-Farb-Berechnungen wichtig ist

frag_evil
2002-08-15, 14:23:46
verstehe ich das dann richtig, dass mit der genaueren berechnung auch heutige spiele besser aussehen werden? oder müssen die spieleengines dafür extra angepasst werden?

zeckensack
2002-08-15, 14:46:31
Originally posted by frag_evil
verstehe ich das dann richtig, dass mit der genaueren berechnung auch heutige spiele besser aussehen werden?Wenn sie unter 32bit Farbe bereits Schwächen zeigen (Banding bei starkem Nebel zB in Q3Tourney3 oder im Sumpflevel bei JK2 oder oder oder ...) -> ja.
Ist aber generell eine Frage des Spieldesigns. Normalerweise machen Entwickler eben nichts, das auf der aktuellen Hardware scheiße aussieht. Im Umkehrschluß bedeutet das, daß mit höherer Framebufferpräzision Dinge machbar werden, die sonst am Banding total zugrunde gehen würden (deswegen bisher nicht gemacht wurden).
oder müssen die spieleengines dafür extra angepasst werden? DirectX : ja
OpenGL : nein

Kann aber wohl über Treibersettings erzwungen werden, es bleibt abzuwarten was die Chiphersteller dem Benutzer alles anbieten werden.

aths
2002-08-15, 22:07:44
Originally posted by nocturne
Sorry, da gab es nichts zu quoten. Wenn du mal deine "Ich muss nV wie mein eigen Fleisch und Blut verteidigen" Einstellung ablegen würdest, könntest du vielleicht auch der Argumentation folgen.

raibera
2002-08-16, 07:04:36
Originally posted by nocturne

Übrigens, wohin ist denn plötzlich unser Anti-nVidia-Miesmacher Steffi Payne abgetaucht?

anti-nvidia-miesmacher??

also wenn jemand anti-nvidia miesmacht, müsste der doch nvidia fan sein, oder :D

StefanV
2002-08-16, 09:22:20
Originally posted by nocturne

Übrigens, wohin ist denn plötzlich unser Anti-nVidia-Miesmacher Steffi Payne abgetaucht?
In die HW Hilfe Foren und diverse andere deusche Foren.
Hab halt keinen Bock wegen jeder Aussage, die ich hier mach angemotzt zu werden!!

BTW: vielleicht solltest du dich mal mit der dt. Sprache beschäftigen, dann würdest du feststellen, daß doppelte Verneinung das gegenteil meint.
Oder Mathematisch ausgedrückt:

- * - = +

Und ein NV Fan, wie du behauptest, bin ich ganz bestimmt nicht!!

Originally posted by nocturne

Vor einem Monat hat er hier (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=22693&perpage=20&pagenumber=12) noch auf folgender Position beharrt:

"Interne Rendergenauigkeit kann man immer gebrauchen!!" (Zitat Payne)


Ersteinmal ist es scheiße, wenn man irgendwelche Aussagen aus dem Zusammenhang reißt.
Insbesondere solch kleine Fetzen, wie du sie immer bei jedem raussuchst, um die Aussagen anderer gegen sie zu verwenden ist einfach nur bescheiden.

Ein Satz ohne Zusammenhang ist soviel Wert wie eine SU-27 ohne Triebwerke...


Originally posted by nocturne
Aber damals (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=22693&perpage=20&pagenumber=12) ging's Euch ja noch gegen nVidia, da war Euch dieses "Argument" recht und billig. Dass Ihr nun plötzlich nichts mehr davon wissen wollt, nur weil sich der Wind gedreht hat, ist schon ziemlich peinlich.

Nachdenken mein Lieber!!
In dem Thread, den du genannt hast, gings um Integer Werte...

Hier geht es um Fliespunkt Werte!!

Das kann man nicht miteinander vergleichen, jeder der sich etwas mit CPUs beschäftigt, wird mir wohl zustimmen.

Warum wird dann heute noch relativ oft die FPU benutzt und nicht die 'besseren' SSE/3DNow Befehle?

nggalai
2002-08-16, 09:47:16
Sollten sich hier wohl wiedermal ein paar Leute zu Gemüte führen . . .

--> http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=10046

ta,
-Sascha.rb

P.S. Stefan, "Anti-nVidia-Miesmacher" ist hier keine doppelte Verneinung, sondern eine Bindung. [Anti-nVidia] + [Miesmacher], NICHT [ [Anti-nVidia] [Miesmacher] ]. Der Gebrauch des Bindestriches im Deutschen wäre echt mal reformwürdig . . . ;) -.rb

raibera
2002-08-16, 10:15:17
war doch nur spass, deshalb ja auch der smiley

bambo
2002-08-25, 17:45:44
John Carmack hat kürzlich auf der Quakecon übrigens nochmal die Bedeutung von 128-bit-Genauigkeit betont.

HiddenGhost
2002-08-25, 19:36:55
Aha, hat er das. In welchem Zusammenhang und wofür ???

Schieb mal paar konkreter Infos nach... bitte, bitte !

bambo
2002-08-26, 21:59:02
Originally posted by HiddenGhost
Aha, hat er das. In welchem Zusammenhang und wofür ???

Schieb mal paar konkreter Infos nach... bitte, bitte !

Guckst Du z.B. hier (http://www.monstaquake.com/admins/railchu/John_Carmack_-_Quakecon_2002_Speech.mp3) oder hier (http://www.nvnews.net/cgi-bin/search_news.cgi?keyword=carmack).

Supa
2002-08-27, 19:32:38
Originally posted by Stefan Payne

BTW: vielleicht solltest du dich mal mit der dt. Sprache beschäftigen, dann würdest du feststellen, daß doppelte Verneinung das gegenteil meint.
Oder Mathematisch ausgedrückt:

- * - = +



warum nicht so? -a + -b = -c? ;D ich finde es sehr abstrack sprachlichs in mathematischen regeln auszudrücken, desweitern gilt deine regel nicht bei negativen fragen, wie zB "willst du nicht mitkommen?", dem fall das man mitkommen will sagt man "ja", und dem anderes fall das man es nciht will "nein", so sagt es mir mein weningstens mein sprachgefühl

Vedek Bareil
2002-09-09, 00:05:09
Originally posted by [BVSA]Supa
desweitern gilt deine regel nicht bei negativen fragen, wie zB "willst du nicht mitkommen?", dem fall das man mitkommen will sagt man "ja", und dem anderes fall das man es nciht will "nein", so sagt es mir mein weningstens mein sprachgefühl man sagt nicht "ja", sondern "doch" ;)

Doomtrain
2002-09-09, 17:27:53
Originally posted by bambo
John Carmack hat kürzlich auf der Quakecon übrigens nochmal die Bedeutung von 128-bit-Genauigkeit betont.

Der Mann ist sowieso nicht ganz klar im Kopf. Im positiven Sinn natürlich.

bambo
2002-09-26, 13:28:04
Originally posted by aths
Ich kann auch sehen, ob es was bringt oder eher für's Marketing ist. 64 Bit FP, was übrigens JC fordert, halte ich aus numerischen Gründen für völlig ausreichend, erst recht bei der DX9-Generation. Wenn ATI 96 Bit anbietet, naja. NVs 128 Bit halte ich bei Grafik für übertrieben.

Der Unterschied ist aber, dass der NV30 statt einer 128-bit-Operation auch zwei 64-bit-Operationen gleichzeitig durchführen kann, während der Radeon 9700 da nur eine schafft.

Zitat aus http://www.bit-tech.net/feature/10/ :

"Remember debating whether to run Quake3 in 16 or 32 bit colour? Worrying about the performance impact? Well, get reading for that same decision in Doom 3...only this time, quadruple the colour depth. John Carmack, in one of his famous .plan files, made a public appeal a while back now, for 64 bit colour to be implemented as standard on next-gen cards. DX9 provides for 128 bit, and NV30 will support that, as does the new Ati 9700. Where the NV30 differs from the 9700 is that instead of a single 128bit colour call, it can perform two 64bit operations in the same time, providing what Adam called a 'sweet spot' between performance and colour. The 9700, however, can only call one 64 bit operation in the same time as a 128 bit, so decreasing the colour level will not enhance performance."

aths
2002-09-26, 14:12:06
Originally posted by bambo
Der Unterschied ist aber, dass der NV30 statt einer 128-bit-Operation auch zwei 64-bit-Operationen gleichzeitig durchführen kann, während der Radeon 9700 da nur eine schafft.Dafür rechnet Radeon9700 mit 96 Bit...

Pussycat
2002-09-26, 14:13:01
Glücklich hat man bei der Berechnung die irrelevante Speicherbandbreite nicht mitberechnet :)

zeckensack
2002-09-26, 16:09:10
Kenne ich schon
Originally posted by bambo


Der Unterschied ist aber, dass der NV30 statt einer 128-bit-Operation auch zwei 64-bit-Operationen gleichzeitig durchführen kann, während der Radeon 9700 da nur eine schafft.Moment!

Zitat aus http://www.bit-tech.net/feature/10/ :

"Remember debating whether to run Quake3 in 16 or 32 bit colour? Worrying about the performance impact? Well, get reading for that same decision in Doom 3...only this time, quadruple the colour depth. John Carmack, in one of his famous .plan files, made a public appeal a while back now, for 64 bit colour to be implemented as standard on next-gen cards. DX9 provides for 128 bit, and NV30 will support that, as does the new Ati 9700. Where the NV30 differs from the 9700 is that instead of a single 128bit colour call, it can perform two 64bit operations in the same time, providing what Adam called a 'sweet spot' between performance and colour. The 9700, however, can only call one 64 bit operation in the same time as a 128 bit, so decreasing the colour level will not enhance performance." Also, da steht, daß der NV30 bei 128bit 50% Leistung verliert.
Dann steht da weiter, daß das dem R300 schnuppe ist, er macht's immer mit der gleichen Geschwindigkeit.

Dadurch weiß man immer noch nicht, wie schnell beides im Direktvergleich ist.

Wenn du das Zitat mal etwas intensiver liest wirst du feststellen, daß hier gekonnt einer Angabe von Operationen 'per clock' vermieden wird. Mit Absicht, IMO.

Xmas
2002-09-26, 20:57:19
Originally posted by zeckensack
Wenn du das Zitat mal etwas intensiver liest wirst du feststellen, daß hier gekonnt einer Angabe von Operationen 'per clock' vermieden wird. Mit Absicht, IMO.
Du gehst also davon aus dass der NV30 nur eine 64Bit (16Bit * 4) Arithmetik-Instruktion pro Takt (pro Pipeline) schafft?

zeckensack
2002-09-26, 22:15:31
Originally posted by Xmas

Du gehst also davon aus dass der NV30 nur eine 64Bit (16Bit * 4) Arithmetik-Instruktion pro Takt (pro Pipeline) schafft? Pro Pipe? Keine Ahnung. Ich weiß zu wenig über den Aufbau dieses Teils, um dazu etwas vernünftiges sagen zu können.

Pro aktiver ALU pro Takt, das meinte ich.
Ich halte es für denkbar, daß der NV30 nur 16bittige Operationen nativ ausführen wird, was sich günstig auf die Transistorzahl und den machbaren Takt auswirken sollte.

Für 32bittige Sachen muß das ganze eben nochmal nachgekaut werden, um das vollständige Ergebnis zu erhalten.

Wenn man das ganze Ding aufgrund simplerer Funktionseinheiten 50% höher takten kann, dann ist das an sich keine schlechte Idee.

So läuft's ja auch beim P4 (Stichwort 'double pumped' ALUs).

Allerdings ist es schon albern, ATI jetzt wieder in die Verliererecke stellen zu müssen, nur weil hier offenbar keine Unterscheidung zwischen 'schnell' und 'präzise' vorgesehen ist.

1)Gibt es keine vergleichenden Leistungsdaten, so oder so. Es gibt nur den Vergleich zwischen NV30 16bit und NV30 32bit. Ersteres ist laut dieser Info schneller. Die Relation zum R300 bleibt nach wie vor unbekannt. :bäh:
2)In Anbetracht des Threadtitels sollte man sich als NV-Verfechter geradezu schämen, den Low Precision-Modus besonders hervorzuheben ;)

Unregistered
2002-09-27, 12:23:17
"Remember debating whether to run Quake3 in 16 or 32 bit colour? Worrying about the performance impact? Well, get reading for that same decision in Doom 3...only this time, quadruple the colour depth. John Carmack, in one of his famous .plan files, made a public appeal a while back now, for 64 bit colour to be implemented as standard on next-gen cards. DX9 provides for 128 bit, and NV30 will support that, as does the new Ati 9700. Where the NV30 differs from the 9700 is that instead of a single 128bit colour call, it can perform two 64bit operations in the same time, providing what Adam called a 'sweet spot' between performance and colour. The 9700, however, can only call one 64 bit operation in the same time as a 128 bit, so decreasing the colour level will not enhance performance."
Sorry, aber halte Eure Übersetzung für leicht fehlinterpretiert.
Frei übersetzt setht da:
"Erinnert Ihr Euch an die Diskussionen, in denen es darum ging Q3 in 16 oder in 32 Bit laufen zu lassen ? An die Verwunderung über den [Anmerkung: "geringen"] Performace-Verlust ? Nun, übertragen wir das mal auf Doom3... nur diesmal wird die Farbtiefe vervierfacht [Anmerkung: 64 oder 128Bit]. John Carmack hat in einem seiner berühmten .plan-Abhandlungen schon vor einiger Zeit dazu aufgerufen, 64Bit als Standard in die Next-Gen Karten aufzunehmen. DX9 unterstützt 128Bit und der NV30 wird das unterstützen, wie es die neue ATI 9700 bereits tut. Die Arbeitsweise des NV30 unterscheidet sich zum 9700 aber dahingehend, dass statt einer einzigen 128Bit Operation eben auch 2 64Bit Operationen gleichzeitig ausgeführt werden können, was von Adam als 'netter Gimmick' zwischen Leistung und Farbtiefe bezeichnet wurde. Wie auch immer, die 9700 kann eine 64Bit Operation nur als 128Bit Operation ausführen, insofern ein Reduzieren der Farbtiefe hier keine Leistungsvorteile bringt."
Wenn jemand einen anderen Vorschlag zur Übersetzung hat, bitte ich darum, diesen darzulegen.

Wenn nicht, wird hier eindeutig gesagt, dass (bezogen auf 128Bit Operationen) die beiden Karten Leistungsmässig vergleichbar sind. Beide Unterstützen 128Bit also voll. Mit einem kleinen, aber feinen Unterschied: Auch 64Bit-Operationen können vom R300 nur als 128Bit-Operation ausgeführt werden (was dann natürlich auch für 16, bzw. 32-Bit Operationen gilt), während der NV30 alternativ auch 2 64-Bit-Operationen gleichzeitig ausführen kann (oder eben 16, bzw. 32Bit).

Was bedeutet das jetzt ?

Ist die 128Bit (!) Leistung beider Karten vergleichbar (was sich erst noch heraus stellen muss), dann ist der NV30 theoretisch doppelt so schnell, wie ein R300, wenn es darum geht, 64Bit (oder geringer, eben 16 oder 32Bit) Operationen auszuführen !

Von einem Verlust an Leistung bei 16, 32 oder 64Bit Operationen kann hier also keine Rede sein, noch wird dieses irgendwo erwähnt.

Aber wie hier ja schon gesagt wurde: Abwarten !

IMHO kommt es darauf an, wie sich die beiden Kontrahenten unter 128Bit (!) schlagen...
Erst dann kann man diesbezügliche Vermutungen anstellen.

zeckensacks Vermutung könnte natürlich hinkommen, wenn ein NV30 tatsächlich unter 128Bit (!) nur halb so schnell ist, wie ein R300... aber irgendwie wage ich das zu bezweifeln...
:D

In diesem Sinne

Razor
(im Exil)

Unregistered
2002-09-27, 12:32:37
Originally posted by zeckensack
1)Gibt es keine vergleichenden Leistungsdaten, so oder so. Es gibt nur den Vergleich zwischen NV30 16bit und NV30 32bit. Ersteres ist laut dieser Info schneller. Die Relation zum R300 bleibt nach wie vor unbekannt. :bäh:
2)In Anbetracht des Threadtitels sollte man sich als NV-Verfechter geradezu schämen, den Low Precision-Modus besonders hervorzuheben ;)
1) meinst Du vermutlich den Vergleich zwischen NV20 16 und 32 Bit. Denn nur darauf kann Bezug genommen worden sein. So ist es doch sehr verwunderlich, dass eine gf3 beim Zurückgehen auf 16Bit kaum an Leistung verliert und auf die Unfähigkeit hindeutet, 16Bit nativ auszuführen. Denn "laut dieser Info" ist besagtes 16Bit eben kaum schneller.

Ich vermute mal, dass Du hier was mißverstanden hast...
;-)

2) hoffentlich hast Du den 64Bit Modus nicht tatsächlich als "Low Precision Mode" bezeichnen wollen...
:D

Bis denne

Razor

ice cool69
2002-09-27, 12:34:10
ich dachte der r300 läuft mit 96 bit als die optimale lösung (kompromiss) zwischen qualität und geschwindigkeit.

das finde ich persönlich am sinnvollsten. oder habe ich da jetzt was falsch verstanden?

bei älteren spielen stellt man halt 128bit farbtiefe ein da die geschwindigkeit hier kein problem darstellen sollte...

Demirug
2002-09-27, 12:34:40
Razor,

IMO macht hier niemand eine Aussage in welchem Verhältnis die Leistung der R9700 zum NV30 steht.

Es geht nur darum das die R9700 intern immer mit 96 bits rechnet und der NV30 einen 64 und 128 Bit Modus hat. Zudem wird die aussage gemacht das der NV30 in der gleichen Zeit die er für eine 128bit operation braucht auch 2 64 Bit ops ausführen könnte.

Zeckensack hat auch AFAIK nie gesagt das der NV30 bei 128 bit nur halb so schnell wie der R300 ist. er sagt nur das der NV30 bei 128 bit nur noch 50% der Leistung wie bei 64 bit bringt. Womit er natürlich recht hat wenn die ursprüngliche Aussage richtig ist. Es halt nur die "pessimistische" Auslegung der Aussage :D

Unregistered
2002-09-27, 12:36:45
(im Exil)
;-)

Unregistered
2002-09-27, 12:47:06
Originally posted by Demirug
Razor,

IMO macht hier niemand eine Aussage in welchem Verhältnis die Leistung der R9700 zum NV30 steht.

Es geht nur darum das die R9700 intern immer mit 96 bits rechnet und der NV30 einen 64 und 128 Bit Modus hat. Zudem wird die aussage gemacht das der NV30 in der gleichen Zeit die er für eine 128bit operation braucht auch 2 64 Bit ops ausführen könnte.

Zeckensack hat auch AFAIK nie gesagt das der NV30 bei 128 bit nur halb so schnell wie der R300 ist. er sagt nur das der NV30 bei 128 bit nur noch 50% der Leistung wie bei 64 bit bringt. Womit er natürlich recht hat wenn die ursprüngliche Aussage richtig ist. Es halt nur die "pessimistische" Auslegung der Aussage :D
Nun ja, die Diskussion wird an dieser Stelle recht hypothetisch, nicht wahr ?
;-)

Mir ist schon klar, was zeckensack damit zum Ausdruck bringen wollte...
Selber habe ich lediglich die "optimistische", bzw. "relaistische" Auslegung der Aussage gegenüberstellen wollen, dessen Ziel auch in diese Richtung gehen dürfte.

Aber wie schon gesagt, wir werden es bald wissen !
:D

Bis denne

Razor
(im Exil)

Unregistered
2002-09-27, 12:47:51
"realistische", selbstverständlich...
;-)

Pussycat
2002-09-27, 14:34:09
Originally posted by Unregistered
Selber habe ich lediglich die "optimistische", bzw. "relaistische" Auslegung der Aussage gegenüberstellen wollen, dessen Ziel auch in diese

Hast du nicht. "...wird hier eindeutig gesagt, dass (bezogen auf 128Bit Operationen) die beiden Karten Leistungsmässig vergleichbar sind." - Razor

Das hast mit optimistisch ("doppelt so schnell unter 64 bit") bzw pessimistisch ("halb so schnell unter 128 bit") nichts zu tun. Du sagst, dass die nv30 und r300 bei 128 bit gleich schnell sind, was nirgendwo in der originalen Aussage steht. Dort werden nut r300-64 bit mit r300-128 bit und nv30-64 bit mit nv30-128 bit verglichen.

Also: du hast selber Informationen erfunden, und das hat ganz und gar nichts mit interpretieren zu tun.

zeckensack
2002-09-27, 16:48:48
@Razor,

Ich habe mich eigentlich nicht auf Gf3/4Ti beziehen wollen, sondern schon auf NV30. Ich habe 16/32bit als Präzision pro Farbkanal gemeint, was natürlich insgesamt auch wieder 64/128bit ergibt (vier Kanäle RGBA). ;)

Razor
2002-09-27, 18:05:30
Originally posted by Pussycat

Hast du nicht. "...wird hier eindeutig gesagt, dass (bezogen auf 128Bit Operationen) die beiden Karten Leistungsmässig vergleichbar sind." - Razor

Das hast mit optimistisch ("doppelt so schnell unter 64 bit") bzw pessimistisch ("halb so schnell unter 128 bit") nichts zu tun. Du sagst, dass die nv30 und r300 bei 128 bit gleich schnell sind, was nirgendwo in der originalen Aussage steht. Dort werden nut r300-64 bit mit r300-128 bit und nv30-64 bit mit nv30-128 bit verglichen.

Also: du hast selber Informationen erfunden, und das hat ganz und gar nichts mit interpretieren zu tun.
Des Lesens bist Du aber mächtig, oder pussycat ?
???

Habe folgendes geschrieben:
Wenn nicht, wird hier eindeutig gesagt, dass (bezogen auf 128Bit Operationen) die beiden Karten Leistungsmässig vergleichbar sind. Beide unterstützen 128Bit also voll. Mit einem kleinen, aber feinen Unterschied: Auch 64Bit-Operationen können vom R300 nur als 128Bit-Operation ausgeführt werden (was dann natürlich auch für 16, bzw. 32-Bit Operationen gilt), während der NV30 alternativ auch 2 64-Bit-Operationen gleichzeitig ausführen kann (oder eben 16, bzw. 32Bit).
Insofern würde ich Dir empfehlen, das nächste mal einfach weiter zu lesen...
:D

Leistungsmäßig gleich meint hier: beide haben volle 128Bit Unterstützung !
Ich hoffe das nun auch für Dich klar gestellt zu haben...


Razor

Razor
2002-09-27, 18:09:10
Originally posted by zeckensack
@Razor,

Ich habe mich eigentlich nicht auf Gf3/4Ti beziehen wollen, sondern schon auf NV30. Ich habe 16/32bit als Präzision pro Farbkanal gemeint, was natürlich insgesamt auch wieder 64/128bit ergibt (vier Kanäle RGBA). ;)
Hmmm...

Ich muss zugeben, dass ich Deinen Kommentar dann überhaupt nicht mehr in den Zusammenhang mit der hier zitierten Aussage bringen kann. Könntest Du diesen Bezug dann vielleicht herstellen ?
;-)

Bis denne

Razor

Demirug
2002-09-27, 18:17:38
Originally posted by Razor
Leistungsmäßig gleich meint hier: beide haben volle 128Bit Unterstützung !
Ich hoffe das nun auch für Dich klar gestellt zu haben...


Razor

ist nicht ganz richtig R300 hat 96Bit. NV30 64/128 Bit

zeckensack
2002-09-27, 18:33:26
Originally posted by Razor

Hmmm...

Ich muss zugeben, dass ich Deinen Kommentar dann überhaupt nicht mehr in den Zusammenhang mit der hier zitierten Aussage bringen kann. Könntest Du diesen Bezug dann vielleicht herstellen ?
;-)

Bis denne

Razor Die zitierte Aussage impliziert Überlegenheit der NV30-Architektur über die R300-Architektur im 64bit-Modus (16 Bit pro Farbkanal).

Bei genauem Lesen stellt man aber fest, daß wie bei allen im Moment kursierenden Anheizer-Gerüchten gekonnt die Kerninformation in Form eines Performancevergleichs fehlt, auch wenn mit Absicht so formuliert wurde, daß alle Welt glauben soll, sie sei enthalten.

Meine Aussage sollte
1)dies klarstellen und
2)den Sinn und Unsinn eines Architekturtradeoffs (geringere Präzision bei Maximaldurchsatz contra machbare Taktraten) erforschen.

HTH

zeckensack
2002-09-27, 18:34:23
Originally posted by Demirug


ist nicht ganz richtig R300 hat 96Bit. NV30 64/128 Bit Sieht man ja schon am Threadtitel ;)

Quasar
2002-09-27, 18:40:55
Apropos: Wie wär's mit Spekulationsforum??

Thowe
2002-09-27, 18:47:22
Originally posted by Quasar
Apropos: Wie wär's mit Spekulationsforum??

Gute Idee :)

Razor
2002-09-27, 18:49:13
Originally posted by zeckensack
Die zitierte Aussage impliziert Überlegenheit der NV30-Architektur über die R300-Architektur im 64bit-Modus (16 Bit pro Farbkanal).

Bei genauem Lesen stellt man aber fest, daß wie bei allen im Moment kursierenden Anheizer-Gerüchten gekonnt die Kerninformation in Form eines Performancevergleichs fehlt, auch wenn mit Absicht so formuliert wurde, daß alle Welt glauben soll, sie sei enthalten.

Meine Aussage sollte
1)dies klarstellen und
2)den Sinn und Unsinn eines Architekturtradeoffs (geringere Präzision bei Maximaldurchsatz contra machbare Taktraten) erforschen.

HTH
OK, dann hab' ich Dich verstanden... oder doch nicht ?
:D

Du willst also sagen, dass es rein architektonisch nicht von Vorteil wäre, wenn die 128Bit Operations'breite' auf 2x64Bit aufgeteilt werden kann ? Ein Vergleich hierzu wäre der Crossbar-Memory-Controller nVidia's (nun auch ATI's ;-). Vorausgesetzt (!) beide Kontrahenten können exakt gleich viele 128Bit (!) Operationen in der gleichen Zeit (!) durchführen, wäre nVidia's Architektur eindeutig im Vorteil:
- höhere intere Präzision
- doppelt so hohe Geschwindigkeit bei 64, 32 oder 16Bit Operationen


Meine Meinung:
Parallelität ist IMMER von Vorteil, wenn es nicht zulasten der Performance geht.

Ich denke, dass Du insbesondere den letzten Satz von mir nur umgekehrt ausdrücken wolltest, oder ?
;-)

Bis denne

Razor

P.S.: Warten wir doch einfach, bis man die Performance beider Karten/Chips vergleichen kann, OK ?

zeckensack
2002-09-27, 19:03:13
Originally posted by Razor

OK, dann hab' ich Dich verstanden... oder doch nicht ?
:-D

Du willst also sagen, dass es rein architektonisch nicht von Vorteil wäre, wenn die 128Bit Operations'breite' auf 2x64Bit aufgeteilt werden kann ?Doch doch :)
'Schmalere' Einheiten sind immer simpler und höher taktbar. Sagen wir mal, ein 16bit FP-Addierer geht im gleichen Prozess 50% schneller als ein 32bit FP-Addierer.

Da man ihn aber für ein 32bit-Resultat mit einem zweiten verschalten muß (oder Loopback), naja ... Performance glatt halbiert, dann wäre doch wieder der 'echte' 32bittige Addierer besser gewesen. ;)

ATI sitzt nun architektonisch in der Mitte dazwischen.

Siehe P4 contra Athlon. Wobei der R300 eher noch besser dasteht als in diesem Vergleich, da man die volle Präzision ja garnicht anbietet (Obacht: dafür bietet NV den 96bit-Modus nicht an, der mir auch nicht weniger sinnvoll erscheint).
Ein Vergleich hierzu wäre der Crossbar-Memory-Controller nVidia's (nun auch ATI's ;-).IMHO kein guter Vergleich, sorry ;)
Vorausgesetzt (!) beide Kontrahenten können exakt gleich viele 128Bit (!) Operationen in der gleichen Zeit (!) durchführen, wäre nVidia's Architektur eindeutig im Vorteil:
- höhere intere Präzision
- doppelt so hohe Geschwindigkeit bei 64, 32 oder 16Bit OperationenJau. Wobei man zu den Integer-Formaten eigentlich noch nichts weiß ;)

Meine Meinung:
Parallelität ist IMMER von Vorteil, wenn es nicht zulasten der Performance geht.

Ich denke, dass Du insbesondere den letzten Satz von mir nur umgekehrt ausdrücken wolltest, oder ?
;-)Absolut. Das ist der Knackpunkt, nämlich inwieweit sich so eine Speed-Optimierung für die halbe Präzision auf die Geschwindigkeit bei voller Präzision auswirkt.
Bis denne

Razor

P.S.: Warten wir doch einfach, bis man die Performance beider Karten/Chips vergleichen kann, OK ? OK :)

Pussycat
2002-09-27, 21:07:16
Originally posted by Razor

Leistungsmäßig gleich meint hier: beide haben volle 128Bit Unterstützung !
Ich hoffe das nun auch für Dich klar gestellt zu haben...


Leistung heisst bei mir Geschwindigkeit, nicht Unterstützung von x oder y. Ist meine Definition da so weltfremd???

Razor
2002-09-28, 07:05:38
Originally posted by Pussycat

Leistung heisst bei mir Geschwindigkeit, nicht Unterstützung von x oder y. Ist meine Definition da so weltfremd???
Nein, Du hast mich einfach nur falsch verstanden !
;-)

Razor

Razor
2002-09-28, 07:11:16
@zeckensack

OK, dann haben wir uns doch noch verstanden...
;-)

Hängt also alles von der Performance beider Karten unter DX9, i.e. mit vollen 128Bit, ab. Warten wir also, bis a) DX9 da ist und b) der NV30 erscheint und schlussendlich das wichtigste c) 3DMurks2003 erscheint und uns dann auch mal was in 128Bit zeigen kann...
:D

Bin mal gespannt, wie sich die Karten da schlagen und ob die etwas höhere Präzision des NV30 tatsächlich was bringt (beziehungsweise die höhere Präzision der R9700 unter 64Bit, gell ? ;-)...

Bis denne

Razor

Quasar
2002-09-28, 10:30:58
Ich denke die ganze Diskussion um 96 oder 128Bit ist recht müssig, da sie, wenn, dann höchstens für "Cinema-Effects" eingesetzt werden, aber mit Sicherheit nicht schnell genug abgearbeitet werden können, um in Echtzeit in einem Spiel verwendet werden zu können.

Ich denke da an Parallelen, wie "flüssig" erste harte TnL-Demos auf den GeForce256 liefen oder wie das erste echte DX7-Game (UT2003-Demo) absolut "flüssig" auf den GeForce & Radeon < Baujahr 2001 läuft.

Von Belang für uns Gamer wird, wenn überhaupt unterstützt, höchstens der 64Bit Modus sein und wichtig ist, wie schnell die Produkte dort performen, IMO.

frag_evil
2002-09-28, 17:18:06
Wird die Steigerung von 32 auf 64 bzw. 128 bit überhaupt richtig sichtbar sein?? Ich meine, ob der MONITOR diese ,doch schon sehr detaillierten Änderungen, auch deutlich genug anzeigen kann?

Xmas
2002-09-28, 18:56:41
Originally posted by frag_evil
Wird die Steigerung von 32 auf 64 bzw. 128 bit überhaupt richtig sichtbar sein?? Ich meine, ob der MONITOR diese ,doch schon sehr detaillierten Änderungen, auch deutlich genug anzeigen kann?
Der Framebuffer ist weiterhin nur 32bittig (wenn auch möglicherweise ein 10-10-10-2 Format). Entscheidend ist dass Berechnungen nun deutlich Präziser ablaufen, womit Banding der Vergangenheit angehören sollte, und der deutlich erhöhte Wertebereich, der überhaupt erst viele Effekte zulässt.

Demirug
2002-09-28, 19:22:34
ja wobei die entschiedende Sache ja nicht die Erweiterung von 8 auf 16 (bzw 24 oder 32) Bit pro Farbkanal ist sondern der Wechsel von Festpunkt auf Fliesspunktberechnungen.

aths
2002-09-28, 20:18:35
Originally posted by Demirug
ja wobei die entschiedende Sache ja nicht die Erweiterung von 8 auf 16 (bzw 24 oder 32) Bit pro Farbkanal ist sondern der Wechsel von Festpunkt auf Fliesspunktberechnungen. ... wobei Fließpunkt erst bei höheren Bittiefen (z.B. 16) Sinn macht :)

Demirug
2002-09-28, 20:33:51
Originally posted by aths
... wobei Fließpunkt erst bei höheren Bittiefen (z.B. 16) Sinn macht :)

Ja 8 bit lassen sich so schlecht in Exponet und Mantisse aufteilen. Das reicht einfach nicht.

Razor
2002-09-29, 09:05:24
Originally posted by Quasar
Ich denke die ganze Diskussion um 96 oder 128Bit ist recht müssig...
Von Belang für uns Gamer wird, wenn überhaupt unterstützt, höchstens der 64Bit Modus sein und wichtig ist, wie schnell die Produkte dort performen, IMO.
Völlig korrekt, Quasar.
Und genau darum geht es hier... teilweise... oder wie auch immer...
;-)

Razor