PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread: Infos zum NV30-Launch (Comdex)


Seiten : 1 [2]

zeckensack
2002-11-19, 18:17:21
Originally posted by zeckensack
Gibt's bei Intel als pdf. Ich glaube ehrlich gesagt nicht, daß da was von doppelt hohen AGP-non-Pro-Karten drinsteht, aber werde gern nochmal nachsehen.

Habe ich jetzt.

AGP3 (http://www.intel.com/technology/agp/downloads/Spec_1_0_final_Sep10.pdf) beschreibt sich selbst als Superset von AGP2.0.
Die Mechanische Spezifikation ist gleich.

AGP2 (ftp://download.intel.com/technology/agp/downloads/agp20.pdf) erlaubt als Maximale 'bracket'-Größe tatsächlich doppelte Bauhöhe aber mit der Einschränkung daß dann auf beiden Seiten der Karte jeweils eine Slot-Höhe belegt wird. Siehe Seite 214.

Zwei Slots auf einer Seite gibt's nicht,wird nicht beschrieben, ist damit IMO nicht mit der Spec zu vereinbaren.

AGP Pro (http://www.agpforum.org/downloads/apro_r11a.pdf) definiert größere 'brackets', siehe dazu die Seiten 29ff.

*edit*
AGP Pro setzt allerdings einen größeren AGP-Stecker für die zusätzliche Stromversorgung voraus (Seite 14).


Die fotofierte Karte ist damit weder AGP Pro- noch AGP-konform.
Können wir das Thema damit bitte abhaken?

2B-Maverick
2002-11-19, 18:18:56
Originally posted by Höhnangst

Das lässt hoffen =).

jein: hoffen auf bessere Qualität ja, auf viel Speed: nein (da supersampling... und da hilft AFAIK auch keine color-compression)

ow
2002-11-19, 18:40:14
/edit: Hat sich erledigt und zeckensack hat recht.

/edit2: wobei mich das mit doppelter Bauhöhe und Platine mittig zwischen den Slotblechen nicht ganz überzeugt. Auf welche Boards und Gehäuse soll denn sowas passen??

Höhnangst
2002-11-19, 18:46:20
Originally posted by 2B-Maverick
jein: hoffen auf bessere Qualität ja
Primär meinte ich Qualität.


Originally posted by 2B-Maverick
auf viel Speed: nein (da supersampling... und da hilft AFAIK auch keine color-compression)
Nunja, ich weiß jetzt nicht, wie stark MS und SS von der Füllrate und/oder der Bandbreite abhängen, aber sollte die Kombination beider Techniken eher von der Füllrate abhängen und der GeForceFX sehr effektiv und effizient mit der vorhandenen Bandbreite umgehen, d.h. ungefähr R9700 Pro-Niveau erreichen, dann sollte er dank seiner überlegenen Füllrate selbst mit diesem 6x MS/SS-Modus ordentliche Performance liefern können.


Ich hoffe, man versteht den Satz =).

Meckersack
2002-11-19, 18:46:54
so, dann muss ich euch nun auch noch meine Meinung aufs Auge drücken ;)

Gut:
- das Quality-AF bleibt
- viele Kantenglättungsoptionen
- geht ab wie Schnitzl, evtl. schneller als R9700
- sehr gute Spieleunterstützung

Schlecht:
- Karte zu groß
- Verzögerungen, kaufbar frühestens Februar 2003
- 1. PCI-Steckplatz belegt
- Staubfilter ?

Die letzten 2 Punkte erübrigen sich, wenn es stimmt, dass diese Karte so gar nicht rauskommt.
Ansonsten hoffe ich auf eine Karte, die so groß ist wie die Ti4200
*hoff*

zeckensack
2002-11-19, 18:47:05
Originally posted by ow
Da wird auch nichts drin stehen, dass eine AGP-Pro Karte die paar Pins mehr des AGP-Pro Slot nutzen muss. Sie kann ihren Strombedarf darüber decken.Korrekt.
IdR baut man AGP Pro-Karten aber eben nur dann, wenn man den zusätzlichen Strom auch braucht. Es wäre Unsinn, 'einfach so' AGP Pros zu machen, da man damit die Auswahl an Mainboards stark einschränkt.

Angesichts der Verbereitung von Motherboards mit AGP-Pro Slot wäre es aber Unsinn (zumindest im Bereich der Consumer-Karten) eine Karte mit AGP-Pro-Steckleiste zu produzieren. Jo, das ist richtig.
AFAIK macht das nur ASUS.

Um nochmal meinen Standpunkt hier zu klären:
Vom Strombedarf her gibt es gegen die gezeigte Karte sicherlich nichts zu sagen.
Es will mir nur nicht einleuchten, daß es gut sein soll, wenn eine Karte zwei Slots belegt. Besser wäre es nunmal, wenn das gleiche mit einem einzelnen Slot lösbar ist, das auch so zu machen.

Joe
2002-11-19, 18:48:40
lol

ich liebe das Typische NV Ausselektieren...

Läuft sowiso wieder drauf raus: Gainward Golden Sample, WaKü drauf und freuen :D

tEd
2002-11-19, 18:48:56
Originally posted by Purple_Stain



also dass der r 300 nur 32 bit beherrscht ist eine lüge oder??

hat da wirklich jeder drübergelesen??

oder irre ich mich da irgendwo
AFAIK kann der r300 96 bit Farbtiefe

cya axel

mit den nur 32bit ist der frambuffer gemeint. der r300 unterstützt multible 64,128bit backbuffer und rechnet generell intern mit 96bit genauigkeit wobei für gewisse texture samplings auch auf 128bit genauigkeit zurückgreifen kann, ich weiss aber nicht welche genau.

ow
2002-11-19, 18:55:35
Hey, Mann.
Wieso musst du mich schon quoten, wenn ich gerade meinen Irrtum eingestehen will?;) Hatte dein 2. Postiung oben noch gar nicht gelesen, als ich meines schrieb.


Originally posted by zeckensack
Korrekt.
IdR baut man AGP Pro-Karten aber eben nur dann, wenn man den zusätzlichen Strom auch braucht. Es wäre Unsinn, 'einfach so' AGP Pros zu machen, da man damit die Auswahl an Mainboards stark einschränkt.
Jo, das ist richtig.
AFAIK macht das nur ASUS.

Um nochmal meinen Standpunkt hier zu klären:
Vom Strombedarf her gibt es gegen die gezeigte Karte sicherlich nichts zu sagen.
Es will mir nur nicht einleuchten, daß es gut sein soll, wenn eine Karte zwei Slots belegt. Besser wäre es nunmal, wenn das gleiche mit einem einzelnen Slot lösbar ist, das auch so zu machen.


Gut ist daran sicher nichts. Ich hoffe und denke doch aber, dass auch normale Kühllösungen auf dem Markt erscheinen werden.

zeckensack
2002-11-19, 18:59:03
Hey, Mann.
Wieso musst du dein Posting editieren, wenn ich gerade darauf antworte? :D

Und ja, ich denke es wird 120%ig 'normale' Karten geben, gegen die kein FanATIker auf der ganzen Welt etwas haben kann :)

Unregistered
2002-11-19, 19:39:00
Originally posted by nagus
http://www.hwupgrade.it/articoli/734/2.html !


die karte ist ja noch größer als eine GF4!! *pfFF* typisch Nvidia ;)

http://www.hwupgrade.it/articoli/734/scheda.jpg

Schaut euch mal die beiden Chips ganz links neben dem Grafikchip an.
Könnte es sein das der größere von den beiden ein SAGE-Chip ist?
NV hat ja gesagt, in die Karte würde 3dfx-Technologie eingesteckt.

ow
2002-11-19, 19:45:22
Nö, keine Ahnung was das ist, aber SAGE sicher nicht.

StefanV
2002-11-19, 19:45:45
Originally posted by Unregistered


Schaut euch mal die beiden Chips ganz links neben dem Grafikchip an.
Könnte es sein das der größere von den beiden ein SAGE-Chip ist?
NV hat ja gesagt, in die Karte würde 3dfx-Technologie eingesteckt.

Ein 'SAGE' von Philips??

StefanV
2002-11-19, 19:47:06
Originally posted by ow
Nö, keine Ahnung was das ist, aber SAGE sicher nicht.


Ich weiß es, ich weiß es ;D

Einmal TV Encoder (der Philips Chip) und einmal der TDMS Decoder (oder wie man diese Chips nennt, auf der Parhelia sind übrigens Chronotel Chips drauf)...

askibo
2002-11-19, 19:50:48
Ist ein Video-Capture-Chip von Philips

StefanV
2002-11-19, 19:51:55
Originally posted by ow

Wieviel Boards mit AGP-Pro kennst du denn??
Und als AGP-Pro waeren die 2 Slots akzeptabel? Sorry, aber da kann ich deiner Argumentation gar nicht folgen.

'ne Ganze Menge...

z.B. alle neueren ASUS, einige Gigabyte, z.B. 7DXR, Soyo K7V DRAGON, bei MSI K7T266 PRO und darauf basierten Designs ist es als Option Freigehalte, eine Bestückungsvariante mit AGP PRO wäre also möglich.

aths
2002-11-19, 20:01:09
Originally posted by Höhnangst
Das lässt hoffen =). Leider nein.

Ich prüf gerade meine Theorien auf Hieb- und Stichfestigkeit. Sollten sie standhalten (wonach es sehr aussieht) ist die Radeon9500/9700 von der AA-Qualität haushoch überlegen.

Mehr dazu schon sehr bald in einem kleinen (!) Artikel.

Quasar
2002-11-19, 20:01:14
ordered, but not rectangular......

Klingt zwar nicht nach dem optimum, aber das Sample-Pattern der VSA-100 war AFAIK auch "ordered", trotzdem "rotated", das einzige was also fehlt, wäre "pseudo-random".

Lost Prophet
2002-11-19, 20:07:22
Originally posted by Demirug
ja die Tabele ist sehr geschickt vom Marketing gemacht und das schöne daran ist das man NVIDIA hier noch nicht mal vorwerfen kann das sie lügen.

Das ganze kommt folgendermassen zustande:

max precision gibt an mit welcher maximalen Genauigkeit der Chip rechnen kann. Die Spalten darunter geben dann an welche Rechenmodies unterstützt werden.

Wenn man es ganz genau nimmt hätte die Tabelle so aussehen sollen:


DX8 R300 CineFX
Max Precision: 32 96 128
32-bit X X X
64-bit - - X
96-bit - X -
128-bit - - X
Format Int FP FP


Es geht also darum welche Rechengenauigkeiten in den PS zur verfügung stehen.


trotzdem ist es falsch (gelogen) wenn man schreibt r300 can only 32bit wenn er afaik 96 bit kann


dass er 64 nicht kann , wusste ich nicht thx 4 info


cya axel

Piffan
2002-11-19, 20:08:06
Originally posted by aths
Leider nein.

Ich prüf gerade meine Theorien auf Hieb- und Stichfestigkeit. Sollten sie standhalten (wonach es sehr aussieht) ist die Radeon9500/9700 von der AA-Qualität haushoch überlegen.

Mehr dazu schon sehr bald in einem kleinen (!) Artikel.

Klasse! "Lechz"

Mal sehen, ob sich der Trend in den Hochrech- äh- Spekulationen fortsetzt: Die NV30 scheintin den für uns Gaymer relevanten Disziplinen zu schwächeln, NV versucht den Nachteil mit Mhz- Bolzerei ausgleichen zu wollen.
Die tollen Specs scheinenfür Profis interessant zu sein, die sonst auf Renderfarmen angewiesen wären... Au backe, imho könnte sich NV schwer verheben an den hochtrabenden Plänen....Wenn die man jetzt nicht doch auf die Schnauze fliegen.... Vielleicht steckt in der Firma mehr 3dfx drin als gut ist....

Ein bissel Flame tut immer gut :D

aths
2002-11-19, 20:10:02
Originally posted by Quasar
Klingt zwar nicht nach dem optimum, aber das Sample-Pattern der VSA-100 war AFAIK auch "ordered", trotzdem "rotated", das einzige was also fehlt, wäre "pseudo-random". Jupp, ordered schließt rotated nicht aus. Wenn man von "OG" spricht, meint man meistens OG im 90°-Winkel; was in diesem Zitat aber nicht der Fall ist.

tEd
2002-11-19, 20:28:15
Originally posted by Purple_Stain



trotzdem ist es falsch (gelogen) wenn man schreibt r300 can only 32bit wenn er afaik 96 bit kann


dass er 64 nicht kann , wusste ich nicht thx 4 info


cya axel

das kommt drauf an auf was man es bezieht. wie gehabt kann der r300 nur 32bit framebuffer

Lost Prophet
2002-11-19, 20:42:40
Originally posted by tEd


das kommt drauf an auf was man es bezieht. wie gehabt kann der r300 nur 32bit framebuffer

in meinem quote stand aber (bzw razor schrieb) "Three ColorModes: 32/64/128-bit (R300 only 32-bit)"

ich glaub nicht das das was mit dem framebuffer zu tun hat oder ??

cya axel

Razor
2002-11-19, 20:43:17
Originally posted by Purple_Stain

trotzdem ist es falsch (gelogen) wenn man schreibt r300 can only 32bit wenn er afaik 96 bit kann

dass er 64 nicht kann , wusste ich nicht thx 4 info

cya axel
Ist es nicht, wie hier schon mehrfach gesagt wurde...
Klar ist es Marketing und weil's so schön ist, gleich noch was drauf.

Hier erst noch mal der 'Stein des Anstosses':

http://mitglied.lycos.de/razor3dc/geforcefx/compare_cinefx.gif


Und dann gleich noch ein weiterer:

http://mitglied.lycos.de/razor3dc/geforcefx/compare_ps20.gif

Schön, gell ?
Jetzt kannst Du Dich gleich noch mehr aufregen !
:D

Bis denne

Razor

Unregistered
2002-11-19, 20:43:38
Originally posted by aths
Leider nein.

Ich prüf gerade meine Theorien auf Hieb- und Stichfestigkeit. Sollten sie standhalten (wonach es sehr aussieht) ist die Radeon9500/9700 von der AA-Qualität haushoch überlegen.

Mehr dazu schon sehr bald in einem kleinen (!) Artikel.

Spielst Du darauf an, das die fps bei 6XS gnadenlos einbrechen werden, da es sich ja um einen ca.50% Supersample-Mode handelt? Sieht dann gut aus (das das SS auch etwas AF mitbringt) ist aber _sehr_ langsam (im Vergleich).

Unregistered
2002-11-19, 20:48:56
Originally posted by ow


Genau das heisst das wohl.


stimmt aber trotzdem nicht. Der R300 rechnet intern immer mit 96bit ( der NV30 kann 128bit und 64bit, das geringfügig schneller wird, da die doppelte Anzahl von Shaderinstruktionen in den Cache passen ) und kann das Ergebnis mit 64bit oder 128bit FP-Genauigkeit in den Speicher schreiben (genauso wie die GFFX )

Es ist also kein Nachteil, das der R300 keine 64bit Genauigkeit kann (außer etwas Speed, wenn denn der 64bit Modus beim R300 wirklich Speed bringen würde). Nur der fehlende 128bit Modus ist wirklich schlechter.

StefanV
2002-11-19, 20:53:21
Originally posted by Purple_Stain



trotzdem ist es falsch (gelogen) wenn man schreibt r300 can only 32bit wenn er afaik 96 bit kann


dass er 64 nicht kann , wusste ich nicht thx 4 info


cya axel

Übrigens:

der Kyro kann kein 16bit ;)

Demirug
2002-11-19, 20:55:08
Originally posted by Unregistered



stimmt aber trotzdem nicht. Der R300 rechnet intern immer mit 96bit ( der NV30 kann 128bit und 64bit, das geringfügig schneller wird, da die doppelte Anzahl von Shaderinstruktionen in den Cache passen ) und kann das Ergebnis mit 64bit oder 128bit FP-Genauigkeit in den Speicher schreiben (genauso wie die GFFX )

Es ist also kein Nachteil, das der R300 keine 64bit Genauigkeit kann (außer etwas Speed, wenn denn der 64bit Modus beim R300 wirklich Speed bringen würde). Nur der fehlende 128bit Modus ist wirklich schlechter.

Die Erklärung ist nicht ganz richtig. Der Speedgewinn hat primär nichts mit dem Programmcache zu tun sondern mit dem Aufbau der Pixelshader ALUs. Diese können entweder eine 128 bit oder zwei 64 bit Operationen durchführen. Ein Gewinn ist natürlich nur dann zu erreichen wenn das Programm es überhaupt erlaubt das man zwei 64 bit Operationen zusammenfassen kann. In wie weit der Treiber da noch optimierend eingreifen wird kann man natürlich noch nicht sagen.

Lost Prophet
2002-11-19, 20:55:08
Originally posted by Razor

Ist es nicht, wie hier schon mehrfach gesagt wurde...
Klar ist es Marketing und weil's so schön ist, gleich noch was drauf.

Hier erst noch mal der 'Stein des Anstosses':

http://mitglied.lycos.de/razor3dc/geforcefx/compare_cinefx.gif


Und dann gleich noch ein weiterer:

http://mitglied.lycos.de/razor3dc/geforcefx/compare_ps20.gif

Schön, gell ?
Jetzt kannst Du Dich gleich noch mehr aufregen !
:D

Bis denne

Razor

hör zu, ich hab nichts dagegen wenn mir irgendeine marketingabteilung nichts bzw halbwahrheiten oder sonstwas erzählt


nv kann von mir aus sagen der gf-fx ist 100 mal schneller als sonst was ( was dann brav von gamestar und DAUs geglaubt wird),

ich hab nur was gegen LÜGEN

ausserdem (trotz smiley) was soll die hetze, ich hab nur versucht eine unwahrheit richtigzustellen.

im übrigen ist es von keiner Firma akzeptabel, lügen zu verbreiten


cya axel

aths
2002-11-19, 20:56:56
Originally posted by Unregistered
Spielst Du darauf an, das die fps bei 6XS gnadenlos einbrechen werden, da es sich ja um einen ca.50% Supersample-Mode handelt? Sieht dann gut aus (das das SS auch etwas AF mitbringt) ist aber _sehr_ langsam (im Vergleich). 50% Supersampling hat bereits 4xS. Der 6xS-Modus besteht zu 2/3 aus Supersampling. Der NV30 sollte allerdings genügend Power selbst für 8xS haben (3/4 Supersampling-Anteil.)

Rampage 2
2002-11-19, 21:00:51
Peace Leute,

NV hatte ein paar Monate nach der Einführung des NV20 (GF3) bei einem
Interview gesagt, dass sie mit dem NV30, Szenen mit 5 Millionen Polygone pro Frame in Echtzeit an die Tagesordnung setzen wollen.
Wenn man sich den theoretischen Polygonoutput der NV30 von 350Mtriang-
les anschaut, wäre das durchaus möglich - die benötigte Speicherband,
breite ist schließlich auch da. Was sagt ihr dazu?

Razor
2002-11-19, 21:04:24
Originally posted by Demirug

Die Erklärung ist nicht ganz richtig. Der Speedgewinn hat primär nichts mit dem Programmcache zu tun sondern mit dem Aufbau der Pixelshader ALUs. Diese können entweder eine 128 bit oder zwei 64 bit Operationen durchführen. Ein Gewinn ist natürlich nur dann zu erreichen wenn das Programm es überhaupt erlaubt das man zwei 64 bit Operationen zusammenfassen kann. In wie weit der Treiber da noch optimierend eingreifen wird kann man natürlich noch nicht sagen.
Soweit ich das in dem Interview bei Beyond3D richtig verstanden habe, kann der NV30 nicht nur im FP16 (64-bit) und FP32 (128-bit) Modus arbeiten (innerhalb eines Shaders sogar sowohl als auch), sondern besitzt zusätzlich einen native 32-bit interger mode, welcher es ihr erlaubt, insbesndere bei nicht-DX9-Engines entsprechend performant zu arbeiten.

Hälst Du das für sinnvoll, Demirug ?
Das würde doch eigentlich bedeuten, das da wohl noch ein bissel mehr im Spiel ist, als 'nur' die volle 128-bit-FP-Architektur. Eine eigene Integer-Einheit ? Hmmm...

Razor

Exxtreme
2002-11-19, 21:06:22
Hehe, die R300 schafft über 20 Mio Polygone in Echtzeit. Ich kann dir meine 3DMurks-Ergebnisse posten zum High-Poly-Durchsatz.
;) <--- Bitte nicht übersehen.
Originally posted by Rampage 2
Peace Leute,

NV hatte ein paar Monate nach der Einführung des NV20 (GF3) bei einem
Interview gesagt, dass sie mit dem NV30, Szenen mit 5 Millionen Polygone pro Frame in Echtzeit an die Tagesordnung setzen wollen.
Wenn man sich den theoretischen Polygonoutput der NV30 von 350Mtriang-
les anschaut, wäre das durchaus möglich - die benötigte Speicherband,
breite ist schließlich auch da. Was sagt ihr dazu?

Eusti
2002-11-19, 21:09:05
Originally posted by aths
50% Supersampling hat bereits 4xS. Der 6xS-Modus besteht zu 2/3 aus Supersampling. Der NV30 sollte allerdings genügend Power selbst für 8xS haben (3/4 Supersampling-Anteil.) Auf jedenfall sieht das AA cool aus (egel wie schnell es dann mal sein wird). Hier mal ein InGame-Screenshot von guru3d (man beachte das Gras):
http://www.guru3d.com/tech/geforcefx/img/Games/RalliSport_02.jpg

aths
2002-11-19, 21:13:05
Originally posted by Eusti
Auf jedenfall sieht das AA cool aus (egel wie schnell es dann mal sein wird). Hier mal ein InGame-Screenshot von guru3d (man beachte das Gras): Das Gras besteht aus Texturen. Da müssen keine Polygon-Kanten glattgezogen werden.

Demirug
2002-11-19, 21:14:08
Originally posted by Razor

Soweit ich das in dem Interview bei Beyond3D richtig verstanden habe, kann der NV30 nicht nur im FP16 (64-bit) und FP32 (128-bit) Modus arbeiten (innerhalb eines Shaders sogar sowohl als auch), sondern besitzt zusätzlich einen native 32-bit interger mode, welcher es ihr erlaubt, insbesndere bei nicht-DX9-Engines entsprechend performant zu arbeiten.

Hälst Du das für sinnvoll, Demirug ?
Das würde doch eigentlich bedeuten, das da wohl noch ein bissel mehr im Spiel ist, als 'nur' die volle 128-bit-FP-Architektur. Eine eigene Integer-Einheit ? Hmmm...

Razor

Es gibt da ein Gerücht das in dem Chip noch pro Pipe zwei 32 bit Registercombinder verbaut sind. Was da aber nun dran ist kann ich nicht sagen.

frag_evil
2002-11-19, 22:02:41
@ Razor

Dein Argument gegen den R300 war (ist), dass er dich nicht "überraschen" konnte.
Was ist für dich denn so überraschend beim NV30??

AA-----> wahrscheinlich(!) sogar schlechter als Ati's Lösung

AF-----> geht z.T. den gleichen Weg wie Ati (adaptive)

PS/VS 2.0+ -----> IMO für dich (uns) als Spieler oder Nicht-Profi-Anwender z.Z. völlig uninteressant

Speed-----> den speed der R97k ggü. der TI4600 hast du "damals" auch nicht als Argument gelten lassen, also lassen wir ihn hier auch raus ;) (obwohl wir auch noch nichts darüber wissen)

Quasar
2002-11-19, 22:20:01
Originally posted by Stefan Payne
Sieht nicht so aus, als ob es eine wäre, oder?
Wenn du damit auf den Connector anspielst, es steht nirgends geschrieben, dass eine AGP-pro Karte die vollen 55W nutzen MUSS, ergo ist auch der Kontakt zum Mainboard optional.

Quasar
2002-11-19, 22:29:00
Originally posted by Exxtreme
Hehe, die R300 schafft über 20 Mio Polygone in Echtzeit. Ich kann dir meine 3DMurks-Ergebnisse posten zum High-Poly-Durchsatz.
;) <--- Bitte nicht übersehen.

Kool, Exxtreme. Das würde in letzter Konsequenz, dass er (knapp)über 4fps in dem von Rampage2 beschriebenen Szenario schaffen würde.

Mal abgesehen davon, dass ich von diesem Szenario nichts halte, aber das klingt fast, als würdest du deine Radeon ziemlich scheisse finden.

Ach ja:
;) <--- Bitte nicht übersehen.

tEd
2002-11-19, 23:39:09
Originally posted by Purple_Stain


in meinem quote stand aber (bzw razor schrieb) "Three ColorModes: 32/64/128-bit (R300 only 32-bit)"

ich glaub nicht das das was mit dem framebuffer zu tun hat oder ??

cya axel

doch eigentlich schon. lasst dich nicht zu fest verwirren zwischen framebuffer genauigkeit und interner renderingsgenauigkeit. es hat schon alles seine richtigkeit. Das marketing versucht natürlich bewusst die leute zu verwirren.

es gibt aber schon ein paar falsch aussagen die betreffen vorallem die vertexshader und zum teil auch pixelshader vom r300.

Unreg Asshole
2002-11-20, 07:31:32
Hatten wir den schon? THG geht bei DDR/II von vier Datenpaketen pro Takt aus:


In der Marketing-Sprache verkauft NVIDIA sein Produkt mit "1 GHz DDR II", physikalisch beträgt die Taktrate lediglich 250 MHz.
GeForceFX: 16 Bytes * 250 MHz * 4 = 16 GB/s


http://www.de.tomshardware.com/graphic/02q4/021119/geforcefx-nv30-04.html

Exxtreme
2002-11-20, 07:38:49
Das Problem ist, daß sich THG in diesem Fall irrt. DDR2 ist nichts anderes als DDR1 mit der Möglichkeit sehr viel höhere Taktraten zu erreichen.
Originally posted by Unreg Asshole
Hatten wir den schon? THG geht bei DDR/II von vier Datenpaketen pro Takt aus:

Demirug
2002-11-20, 07:56:32
Originally posted by Exxtreme
Das Problem ist, daß sich THG in diesem Fall irrt. DDR2 ist nichts anderes als DDR1 mit der Möglichkeit sehr viel höhere Taktraten zu erreichen.


Ja und nein. Die Speicher-Chips arbeiten intern wirklich nur mit einem viertel der Transferrate. Die Speicherchips die NVIDIA nutzen will laufen also intern nur mit 250 MHz.

nggalai
2002-11-20, 08:45:11
Hola,

OK, Video-Aufzeichnung des Las Vegas-Launches gibt's hier (http://event.on24.com/eventRegistration/EventLobbyServlet?playerheight=533&playerwidth=785&sourcepage=null&eventid=1179&sessionid=1&username=&partnerref=&contenttype=&format=&key=8818A278CD4B677B742470856670B9CB).

Das Unreal Engine CineFX-Demo sieht krass aus . . . (1h8min).

ta,
-Sascha.rb

Unregistered
2002-11-20, 08:53:46
hast du auch einen link wo ich das cideo downloaden kann?

nggalai
2002-11-20, 09:00:13
Nope, sorry. Und wenn's so einen Link gibt, ist's semi-legal (war ursprünglich ein Broadcast, so mit Copyright und so).

ta,
-Sascha.rb

Unregistered
2002-11-20, 09:06:11
achja und auf w3elcher grafikkarte ist dieses demo gelaufen?? (vermultich auf einer r9700) :D

Demirug
2002-11-20, 09:26:23
Originally posted by Unregistered
achja und auf w3elcher grafikkarte ist dieses demo gelaufen?? (vermultich auf einer r9700) :D

Kann nicht sein. :D Die R9700 kann keine Pixelshader mit 100 oder noch mehr anweisungen. Und der gröste Shader lag so bei 350 Anweisungen.

Crushinator
2002-11-20, 09:28:14
Ich habe seit einer Woche eine R300 und bin damit haushoch zufrieden. Die NV30
gefällt mir von den Daten auch ziemlich gut. Was ich allerdings schade finde ist,
daß nVidia es nicht geschafft hat, trotz 0.13 Prozeß den Verbrauch bei 40 Watt
zu halten damit keine Extra Stromzufuhr notwendig ist. Außerdem finde ich daß
sie im Vergleich zu R300 trotz Marketings-Blabla nicht viel schneller
sein soll. Es wäre doch abzusehen, daß z.B. zu Cebit eine R350 o.ä. in 0.13
auftaucht und evtl. mit vergleichbarem oder noch höherem Takt wieder die
Performance-Krone erobert.

Naja, wie dem auch sei. Ich allerdings glaube auch noch nicht so recht daran,
daß es in absehbarer Zeit Spiele geben wird, die die Fähigkeiten solcher Karten
wie NV30 bzw. R300 nennenswert ausnutzen
würden.

askibo
2002-11-20, 09:43:57
Unterstützt der CineFX kein DM?
Habs grad das hier im b3-Forum gelesen. http://www.beyond3d.com/forum/viewtopic.php?t=3219#top



Got a message from doug rogers:

No, the GeForce FX does not support displacement mapping.

-Doug Rogers
NVIDIA Developer Relations

ow
2002-11-20, 10:03:24
Originally posted by crushinator
Ich habe seit einer Woche eine R300 und bin damit haushoch zufrieden. Die NV30
gefällt mir von den Daten auch ziemlich gut. Was ich allerdings schade finde ist,
daß nVidia es nicht geschafft hat, trotz 0.13 Prozeß den Verbrauch bei 40 Watt
zu halten damit keine Extra Stromzufuhr notwendig ist.

Ueber den Leistungsbedarf des NV30 ist nichts bekannt. "Trotz 0.13" kann man so auch nicht sagen, dann sag ich naemlich: 500(!!)MHz.:D


Außerdem finde ich daß
sie im Vergleich zu R300 trotz Marketings-Blabla nicht viel schneller
sein soll. Es wäre doch abzusehen, daß z.B. zu Cebit eine R350 o.ä. in 0.13
auftaucht und evtl. mit vergleichbarem oder noch höherem Takt wieder die
Performance-Krone erobert.


Reine Spekulation.
Geruechten zufolge wird es so schnell keine R350 geben. Auch bis zur Cebit nicht.

skampi
2002-11-20, 10:32:03
Originally posted by ow


...

Reine Spekulation.
Geruechten zufolge wird es...

;)

tEd
2002-11-20, 10:38:02
ja ja diese gerüchte....die könnens einfach nicht lassen :D

Unregistered
2002-11-20, 12:18:29
kannst du mal bitte sagen wo diese gerüchte stehen?? bzw. nachzulesen sind?

Romulus
2002-11-20, 13:41:50
also wenn die nv30 schon mit 128 speicher interface schneller ist wie die R300 was ist dann wenn die nv35 kommt mit 256 bit interface ?

Mehrpack
2002-11-20, 13:56:55
hi,
dann gibt es den nächsten chip von ati denn bis der nv35 raus kommt wird es herbst werden, wenn net sogar noch später.
denn ansonsten würde sich ja nv nen eigenes bein stellen, so wie als würde jetzt ATI den R350 aus dem hut zaubern, auch wenn es ihn bis jetzt nur in gerüchten gibt.

Mehrpack

Unregistered
2002-11-20, 14:06:09
Originally posted by Mehrpack
hi,
dann gibt es den nächsten chip von ati denn bis der nv35 raus kommt wird es herbst werden, wenn net sogar noch später.
denn ansonsten würde sich ja nv nen eigenes bein stellen, so wie als würde jetzt ATI den R350 aus dem hut zaubern, auch wenn es ihn bis jetzt nur in gerüchten gibt.

Mehrpack

ja aber der r300 hat ja schon ein 256 bit interface

ich meine ja nur das NV viel mehr optimieren kann beim rv35 als ati beim r350-r400

oder sehe ich das falsch

MegaManX4
2002-11-20, 14:17:28
Originally posted by Unregistered


ja aber der r300 hat ja schon ein 256 bit interface

ich meine ja nur das NV viel mehr optimieren kann beim rv35 als ati beim r350-r400

oder sehe ich das falsch

Naja...Immerhin kann ATI die Taktraten noch drastisch erhöhen. Wer sagt mir denn das ATI es im 0.13µ nicht schafft mit 15 Millionen Transistoren weniger als NVIDIA mehr Takt zu erreichen? 450Mhz Core sind bei Standardkühlung dann wohl auf jeden Fall drin, wenn nicht sogar 500Mhz. Dazu noch DDR2 Speicher @900Mhz...Ich denke schon das diese (spekulative) Konfiguration einiges reißen wird.

Thomas

Mehrpack
2002-11-20, 14:28:50
hi,
desweiteren kann ATI im nachfolger chip noch bandbreiten schonernde massnahmen verbaun, den speichercontroller noch mehr aufteilen zbsp in 8 oder vielleicht 16 teile (wenn das wirtschaftlich/technisch überhaupt sinn machen würde?) und wie schon megaman gesagt hat ordentlich an der taktschraube drehn und den chip um feature aufstocken.
kann natürlich auch sein das es nur eine ultravariante oder dualchip variante geben wird und ATI dann im Sommer den R400 raus bringen wird.
wer weiss das schon.

Mehrpack

turboschlumpf
2002-11-20, 16:21:49
naja, dann meld ich mich auch mal.

ich weiss nicht so recht was ich von dem chip halten soll.
erst hat nvidia tierisch das maul aufgerissen (erste komplette neuentwicklung...; revolution; blablabla) und jetzt ist es schon wieder nur ein aufguss.
eigentlich bin ich enttäuscht.

was er von der geschwindigkeit her leistet wird man sehn, ich glaube inzwischen sogar dran dass ati geschlagen wird, wenn auch nur knapp.

vor allem vom fsaa bin ich enttäuscht, tausend verschiedene verfahren.
etwas mehr wie 8x af hätts auch sein können.

ich hab eher von folgendem geträumt *g*
dx 9.0; ogl 2.0
8x2 (jeweils tri af fähig)
400 mhz chip
400 mhz 256bit ddr2
2,4,8x rgmsaa
2,4,8x ogssaa (beides auch kombinierbar)
2,4,8,16x af
+ diverse andere nvidiaübliche 'gimmicks'

aktuell ist nvidia zwar ziemlich abgeschlagen durch die verspätung,
ich sehe aber deutlich mehr potential.
einfach gfddr like irgendwann die breite des speicherinterfaces verdoppeln, die taktrate noch etwas erhöhen und ati kann einpacken.

das einzige was ati bis zum r400 dagegen unternehmen könnte wären höhere taktraten, sonst nix.

Lost Prophet
2002-11-20, 16:39:06
Originally posted by turboschlumpf
naja, dann meld ich mich auch mal.

ich weiss nicht so recht was ich von dem chip halten soll.
erst hat nvidia tierisch das maul aufgerissen (erste komplette neuentwicklung...; revolution; blablabla) und jetzt ist es schon wieder nur ein aufguss.
eigentlich bin ich enttäuscht.

was er von der geschwindigkeit her leistet wird man sehn, ich glaube inzwischen sogar dran dass ati geschlagen wird, wenn auch nur knapp.

vor allem vom fsaa bin ich enttäuscht, tausend verschiedene verfahren.
etwas mehr wie 8x af hätts auch sein können.

ich hab eher von folgendem geträumt *g*
dx 9.0; ogl 2.0
8x2 (jeweils tri af fähig)
400 mhz chip
400 mhz 256bit ddr2
2,4,8x rgmsaa
2,4,8x ogssaa (beides auch kombinierbar)
2,4,8,16x af
+ diverse andere nvidiaübliche 'gimmicks'

aktuell ist nvidia zwar ziemlich abgeschlagen durch die verspätung,
ich sehe aber deutlich mehr potential.
einfach gfddr like irgendwann die breite des speicherinterfaces verdoppeln, die taktrate noch etwas erhöhen und ati kann einpacken.

das einzige was ati bis zum r400 dagegen unternehmen könnte wären höhere taktraten, sonst nix.

ich glaub nicht das da noch viel an potential drin ist, siehe kühler

die dürften einen hohen ausschus bei den taktraten haben
(was dann allerdings gut geregelt zu sein scheint, da die guten für den fx 5k8 ultra sind und die nicht so guten für den ohne ultra)

allerdings gibts sicher einen GEWALTIGEN leistungszuwachs bei verdoppelung des speicherinterfaces (vor allem bei SSAA)

obwohl da ATI auch noch potenzial bezgl chiptakt(0.13) und speichertakt (DDR2) hat glaub ich

cya axel

Unregistered
2002-11-20, 16:45:00
es kann doch durch aus sein das nvidia den chip komplett neu entwickelt hat was auch durch die lange produktionszeit vermuten lässt das der chip aber von den paper-specs aber trotzdem ähnlich der gf4 aussieht, warten wir leiber mal die ersten benchmarks ab du sehen dann wie sich der chip schlägt nicht das nvidia hier mit ihren angaben zu geschwindigkeit bewusst untertrieben hat um dann nochmal bei den ersten benchmarks zeigen zu können wie gut der chip wirklich ist, wer weiss denn auch auf welchem takt der chip lief den welche getesten haben sollen so wie ich das rausgelesen hab
ich sag nur abwarten

ps ich will hier auf keinen partei für nvidia ergreifen aber man sollte doch auf jeden nicht auf paper-specs vertrauen ( das meine ich nach beiden gesichtspunkten sprich ob er nun doch langsamer oder doch schneller ist als gedacht )

<evil>

robbitop
2002-11-20, 16:45:55
@Turboschlumpf

1. die TMUs sind afaik mit genügend Samples für Tri AF 4Free bei der R300 isses bi AF oder Tri NoAF (AFAIK) ...wie bitte willst du da noch 8 weitere TMUs reibekommen..125mio Transistoren scheint schon recht viel für die Fertigung... ausserdem genügt es aufaik weil die TMUs eben sehjr viele Samples haben und der Chip hochgetaktet ist.
2. der NV30 ist eine Neuentwicklung und läuft aus Kostengründen (vieleicht so eine Art Freundschaftsangebot für PCB Hersteller (Hercules..)) immo nur mit 128bit DDR und benötigt aber eben diese 500Mhz um dort noch gut genug zu sein. Schau mal so er schafft trotz geringerer BAndbreite mehr leistung. Und ich denke er ist intern 512bit so wie R300 und P512 und P10, denn der NV35 wird im 0,13µ Prozess hergestellt und da geht kaum noch was rein und viel höher kannst ihn sicher auch nich takten, also wird dort das 256bit DDR interface genutzt...denn wenn er intern nur 256bit wäre, müsste man ein aufwendiges Redesign vornehmen.
3. zum FSAA ..dort ist noch vieles ungeklärt, deshalb sage ich dazu wenig... aber der Hybrit aus SS/MS ( xS)ist Rotated Grit und hat mit Gammakorrektur wesendlich höhere Qualli als alle anderen FSAAModi von jeder GPU auf dem Markt und schön scharf ist es auch. SS hat den nachteil der Füllratenlimitierung, davon hat der NV30 jedoch genug.

der reine MS Mode weiss niemand so recht ob er OG oder RG ist, jedenfalls sollte RG wesendlich bessere Qualli bieten und 2x dürfte RG sein und da sich laut DK hier alles um 4xAA dreht denke ich dass auch dieser MS Mode RG ist.

btw warum OGSS??? RG ist immer die bessere Lösung (aber ab 8x ist es denke ich mal schon so gut dass RG nicht von nöten ist, da die Implementierung von OG wesendlich einfacher vonstatten läuft als RG)

Beim Speicherinterface verdoppeln stimm ich dir zu..hier denke ich mir die Selbe Situation wie mit der GF1 damals. Wenn sie jetzt schon DDR256bit hätte, wäre sie 1. zu teuer und 2. bliebe nix für den NV35... aber dann könnte ATi wirklich einpacken...(aus Performance sicht)..wenn die benches so stimmen kann der R350 den NV30 einholen...

aber ehrlich gesagt glaube ich nicht an einen R400 im Jahre 2003...wir sind jetzt bei 110mio Transistoren, das wird zu recht zu komplex um jedes Jahr einen komplett neuen Chip zu designen und je komplexer desto mehr Probs in der Fertigung...mit 0,13µ müssen die bestimmt noch bis Anfang 2004 leben und AFAIK ist man dezeit mit dem NV30 am limit. NV35 und R350 werden das nächste Gefecht 2003 austragen müssen...und NV40 gegen R400 wohl erst Anfang 2004...ATi kann auch nicht jedes jahr nen neuen Chip bringen...

robbitop
2002-11-20, 16:50:33
@Purplestain

eine Freisetzung es 256bit DDR Interfaces bringt vorteile beim AA aber nicht unbedingt bei SSAA da dort auch sehr die Füllrate eine Rolle spielt, bei MS eher die Bandbreite ;-)


gegen Ende 2003 wird man hierzulande dann wohl den NV35 kaufen dürfen...ich denke mal so Oktober November..TapeOut hatte er schon..bis dahin können sie die Yields verbessern und mit NV30 Kohle machen und neue Treiber proggen also ne Ruhige Kugel schieben..ich denke die Ingeneure sind schon vom NV3x Projekt zum Grossteil abgezogen..nur noch welche die bei TSMC rumlungern..die anderen machen Urlaub ;-D (werden wohl am NV4x arbeiten)

Eusti
2002-11-20, 17:07:28
Ein gewichtiger Punkt, zu der Kühlerlösung:
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard0_mod2.png

Es wird immer wieder gesagt, dieser Monster-Kühler wäre zu laut. Eine Sache wird dabei aber vollkommen vergessen. Der Kühler bzw. Lüfter wird von der Grafikkarte gesteuert.

Das heisst in 2D Anwendungen (z.B. Internet oder Office) taktet sich die Grafikkarte selbstständig runter und kann passiv gekühlt werden. Der Lüfter wird dann ebenfalls von der Grafikkarte deaktiviert, so das das System vollkomen ruhig gestellt wird.

Erst wenn man eine 3D-Anwendung startet, wird der Chip wieder auf seine 500+ MHZ gebracht. Und erst dann wir der Lüfter wieder zugeschaltet. Aber weil man dann sowiso am Spielen ist und den Sound des Spiels hört, stört der Lüfter nicht mehr.

Man hat also im 2D-Bereich eine passiv gekühlte Karte und im 3D-Berreich eine hohe Leistung. Meiner Meinung nach ist das eine ziemlich geniale Lösung!

MadManniMan
2002-11-20, 17:15:38
Originally posted by Eusti

Aber weil man dann sowiso am Spielen ist und den Sound des Spiels hört, stört der Lüfter nicht mehr.



bist kopfhörerspieler mit schallisolierung?

Eusti
2002-11-20, 17:19:33
Originally posted by MadManniMan
bist kopfhörerspieler mit schallisolierung? Hab ja nicht gesagt, das man Ihn nicht mehr höhren kann, sondern lediglich, das er nicht mehr stört. Stören tun Lüfter eigentlich nur im ruhigen (2D) Umfeld. Und da stellt die FX den Lüfter ja ab.

Salvee
2002-11-20, 17:19:35
Originally posted by Unregistered
nicht das nvidia hier mit ihren angaben zu geschwindigkeit bewusst untertrieben hat um dann nochmal bei den ersten benchmarks zeigen zu können wie gut der chip wirklich ist
<evil>

Man kann von nVidia halten was man will, eines machen sie GANZ sicher nicht: UNTERTREIBEN

ernesto.che
2002-11-20, 18:36:09
Originally posted by Eusti
Hab ja nicht gesagt, das man Ihn nicht mehr höhren kann, sondern lediglich, das er nicht mehr stört. Stören tun Lüfter eigentlich nur im ruhigen (2D) Umfeld. Und da stellt die FX den Lüfter ja ab.

Vermutest du das oder ist das offiziell?
Wenn das stimmt, super Sache!

turboschlumpf
2002-11-20, 18:38:18
@ robbitop
wie gesagt,
das sind ja nur die specs die mich vom hocker gehaun hätten
und bei der grossen klappe von nvidia angebracht gewesen wären.

robbitop
2002-11-20, 18:43:50
jojo die PR Abteilung is zwar nich ganz korrekt aber ich sage mal heutzutage gewinnt man eben nur noch mit den Ellenbogen und die Korrekten (MGA, PVR) haben das nachsehen, weil das gute zu blöd ist, gewinnt das böse :D

jedenfalls haben sie Erfolg mit dieser PR denn wir, die klugen Leute, sind in der Unterzahl :D

und mit ATi haben sie im OEM Markt einen sehr starken Konkurrenten und damit MUSS wirbel in allen Zeitschriften gemacht werden.

btw:
Habe heut ma mich im MediaMarkt umgesehn und andere Zeitschriften durchgeblättert, total viele Komplettsysteme mit Radeon9000 und [/DAUMODE:ON] 9000 muss ja schonma nah dran sein denn die 9 steht ja [/DAUMODE:OFF]

MadManniMan
2002-11-20, 18:59:48
Originally posted by Eusti
Hab ja nicht gesagt, das man Ihn nicht mehr höhren kann, sondern lediglich, das er nicht mehr stört.

du hälst silent-user auch für ne verschwörung von ati? ;) btw: hast ihn schon in aktion gehört?

Originally posted by Eusti Stören tun Lüfter eigentlich nur im ruhigen (2D) Umfeld. Und da stellt die FX den Lüfter ja ab.

sie stellt ihn WAS? puh... bei dem qualm will ich dann nich dabei sein... ;)

seahawk
2002-11-20, 19:02:53
Originally posted by robbitop
@Purplestain

eine Freisetzung es 256bit DDR Interfaces bringt vorteile beim AA aber nicht unbedingt bei SSAA da dort auch sehr die Füllrate eine Rolle spielt, bei MS eher die Bandbreite ;-)


gegen Ende 2003 wird man hierzulande dann wohl den NV35 kaufen dürfen...ich denke mal so Oktober November..TapeOut hatte er schon..bis dahin können sie die Yields verbessern und mit NV30 Kohle machen und neue Treiber proggen also ne Ruhige Kugel schieben..ich denke die Ingeneure sind schon vom NV3x Projekt zum Grossteil abgezogen..nur noch welche die bei TSMC rumlungern..die anderen machen Urlaub ;-D (werden wohl am NV4x arbeiten)


Wo hast Du denn das mit dem NV35 Tape out her ?? Du meinst NV31 und NV34 oder ??

seahawk
2002-11-20, 19:04:29
Originally posted by MadManniMan

sie stellt ihn WAS? puh... bei dem qualm will ich dann nich dabei sein... ;)

Es ist zumindest denkbar, dass die den Lüfter Last- oder Temperaturabhängig regelt. Ob die den Lüfter ganz abstellt sei dahin gestellt, aber Runterregeln ist machbar.

robbitop
2002-11-20, 19:07:02
oh ..mhh..ja stimmt...mist.

der hat sicher auch nix mit dem NV35 zu tun ..naja ich denk ma trotzdem dass es recht leicht wird eine 256bit DDR Variante zu bauen, da chipseitig alles (imho) da ist...nur PCB und PINÄnderungen. Wäre es chipintern nicht so (so wie bei vorheriegen NVChips) müsste man komplett redesignen..wär echt dumm von nv es nich gleich so einzurichten... so wie damals mit der GF1 -> DDR ...hat ja intern 256bit Bus gehabt und nutzte den ab DDR 128bit aus (2xDatenflankenx128bit= 256bit Bus)

turboschlumpf
2002-11-20, 19:10:37
axo, das ssaa hab ich deshalb og gemacht dass man es (besser) mit dem rgmsaa hätte kombinieren können.
aber ich denke das kombinieren von ss und ms iss eh mist.

robbitop
2002-11-20, 19:14:40
@Turboschlumpf...wenn du dir den Artikel von Aths @3dcenter durchliesst denkste danach..alles schrott das AA...naja ich habe ne 4200 und habe mal 4xS probiert @1024 und ich bin wirklich pingelig...und ehrlich gesagt hats mich vom Hocker gehaun..und dann noch die Gammakorrektur..WOW...und leider is es eben bei mir nicht flüssig nutzbar...aber @GF FX sicher und das wäre ne Feine Sache.

komischkomisch aber laut DK dreht sich bei der GF FX alles um 4XAA da dies wirklich ohne grossartigen Performanceverlust realisiert wird...da müsste doch wenigsten ein RGMS drin sein...wäre blöd wenn nicht..leider sieht es danach aus...dann probier ich ma 4xS und erfreu mich am 8xAF der nun vom Speed her nutzbar ist.

AlfredENeumann
2002-11-20, 19:37:39
Originally posted by Romulus
also wenn die nv30 schon mit 128 speicher interface schneller ist wie die R300 was ist dann wenn die nv35 kommt mit 256 bit interface ?


Sie ist ja alleine dadurch schon erheblich schneller das die Karte erheblich höher getaktet ist. 325MHz <-> 500MHz !!
Die nur geringfügig kleinere Bandbreite ist auch kein Beinbruch.
Die GFFX hat zwar nur 128Bit RAM Interface, aber dafür ist das RAM entsprechend hoch getaktet was das wieder ausgleicht. Wenn du davon sprichst das NVidia nur ein 256Bit Interface draufzumachen braucht um nochmal einen Geschwindigkeitsschub zu erhalten mußt du bedenken, das ATI auch nur mal eben DDR II RAM drauflöten muß.

Iceman346
2002-11-20, 19:42:32
Originally posted by robbitop
@Turboschlumpf...wenn du dir den Artikel von Aths @3dcenter durchliesst denkste danach..alles schrott das AA...naja ich habe ne 4200 und habe mal 4xS probiert @1024 und ich bin wirklich pingelig...und ehrlich gesagt hats mich vom Hocker gehaun..und dann noch die Gammakorrektur..WOW...und leider is es eben bei mir nicht flüssig nutzbar...aber @GF FX sicher und das wäre ne Feine Sache.


mmh... Ich glaube nicht das 4xS an 4x auf der 9700Pro rankommt und an 6x schon garnicht. Mal schauen obs bei der GFFX anders ist.

askibo
2002-11-20, 19:43:25
Die FX wird sicher in den meisten Fällen schneller sein als die 9700Pro. Die Füllrate ist immer noch am wichtigsten und da hat Nvidia einen satten Vorsprung durch die hohe Taktung.

MeLLe
2002-11-20, 19:43:53
Originally posted by seahawk
Es ist zumindest denkbar, dass die den Lüfter Last- oder Temperaturabhängig regelt. Ob die den Lüfter ganz abstellt sei dahin gestellt, aber Runterregeln ist machbar.
Das ist nicht nur denkbar, das ist Fakt. Die GeFX regelt den Propeller selbständig. D.h. bei Last(3D) und hoher Temperatur -> Drehzahl rauf. Sinkt die Temperatur bzw. gibts weniger zu tun (2D) -> Drehzahl runter. Dazu gibts offizielle nV-Slides.
Und im Launch-Video auf der GeFX-Seite (http://nvidia.com/view.asp?PAGE=geforcefx - linker Frame, da wo Mr. Huang spricht) gibts die Info glaub ich auch.

(Was mich aber am meisten fasziniert: nV gibt öffentlich zu, dass der GeFX in Teilen auf 3dfx-KnowHow baut. Siehe besagtes Video, bei 24m50s ... )

Razor
2002-11-20, 19:45:56
Originally posted by frag_evil
@ Razor

Dein Argument gegen den R300 war (ist), dass er dich nicht "überraschen" konnte.
Was ist für dich denn so überraschend beim NV30??

AA-----> wahrscheinlich(!) sogar schlechter als Ati's Lösung

AF-----> geht z.T. den gleichen Weg wie Ati (adaptive)

PS/VS 2.0+ -----> IMO für dich (uns) als Spieler oder Nicht-Profi-Anwender z.Z. völlig uninteressant

Speed-----> den speed der R97k ggü. der TI4600 hast du "damals" auch nicht als Argument gelten lassen, also lassen wir ihn hier auch raus ;) (obwohl wir auch noch nichts darüber wissen)
Bevor ich mir so'n Teil zulegen würde, muss es erst einmal zeigen was es kann.
Habe ich irgend etwas behauptet, was darauf schließen läßt, dass ich mir so ein Teil hole ?
???

Wir werden sehen, noch wissen wir viel zu wenig über das Teil.

Und ja die Kühlung find' ich schon mal gut !
:D

Razor

askibo
2002-11-20, 19:46:34
Originally posted by robbitop
jojo die PR Abteilung is zwar nich ganz korrekt aber ich sage mal heutzutage gewinnt man eben nur noch mit den Ellenbogen und die Korrekten (MGA, PVR) haben das nachsehen, weil das gute zu blöd ist, gewinnt das böse :D

jedenfalls haben sie Erfolg mit dieser PR denn wir, die klugen Leute, sind in der Unterzahl :D

und mit ATi haben sie im OEM Markt einen sehr starken Konkurrenten und damit MUSS wirbel in allen Zeitschriften gemacht werden.

btw:
Habe heut ma mich im MediaMarkt umgesehn und andere Zeitschriften durchgeblättert, total viele Komplettsysteme mit Radeon9000 und [/DAUMODE:ON] 9000 muss ja schonma nah dran sein denn die 9 steht ja [/DAUMODE:OFF]

Hab heute im Medi-Max Prospket ein Komplettsystem mit Radeon 9500 128 MB gesehen.

Demirug
2002-11-20, 19:48:34
Weil ich hier immer wieder das Thema sehe das beim Speicher beide Seiten in Zukunft noch was drehen können auch ein paar Worte von mir dazu.

ATI hat es sicherlich einfacher da der Bus schon 256 Bit hat muss man nur schnelleren RAM nehmen.

NVIDIA hat ein bischen mehr arbeit was aber auch kein alzu grosses problem sein sollte da die meisten Teile des Chips sowieso nicht mehr direkt auf den Speicher zugreifen.

Was bringt es aber nun in harten Zahlen ausgedrückt.

NVIDIA verdoppelt seine Bandbreite beim Umstieg auf 256 bit einfach auf das doppelte. Und wenn man die Crossbar auch auf 8 Ports verdoppelt erhöht sich auch der verschnitt nicht.

Wenn ATI auf die 1 GHz Speicher umsteigt gewinnen sie ca 61% mehr Bandbreite. Es gäbe auch hier noch die möglichkeit der Crossbar mehr ports zu spendieren. Wenn man sich allerdings das Compressionverfahren des R300 anschaut kann man nicht sicher sein in wie weit dieser schritt nützlich sein würde.

MadManniMan
2002-11-20, 19:55:01
Originally posted by Razor

Habe ich irgend etwas behauptet, was darauf schießen läßt, dass ich mir so ein Teil hole ?


NEIN! wie kommst du nur DARAUF?!? :eyes:

robbitop
2002-11-20, 20:05:35
zm Thema 3dfx KnowHow : ich denke bei der Gammakorrektur und beim Framebuffer und was sonst hinter Intellisample noch so steckt durften sie wohl was tun aber im Bereich AA gilt offenbar noch das gute alte, seit NV20 bekannte HRAA, wobei 3dfx keinen Anteil trägt da die erst dazukamen als der NV20 schon sein TapeOut hatte oder davor stand.

ich finde enorm schwach was nV beim AA leistet, ehrlich.

ich hoffe es wird im NV35 behoben (ich persönlich denke eher beim NV40 ..vieleicht sogar mit M-Buffer (Accumulation Buffer).

Naja was busbreite anbetrifft stimme ich dir zu Demi, sie haben es sicher recht leicht das umzustellen und nV kostet das wohl so gut wie gor nix, "nur" den user und den PCB Hersteller...denn mit 256bit bräuchte man 2x Speicherchipsmenge...vermutlich wird die dann wohl auch 256MB haben???


naja in Punkto AA bin ich ziemlich enttäuscht aber ansonsten ein netter Ansatz ...

Demirug
2002-11-20, 20:32:39
Originally posted by robbitop
ich hoffe es wird im NV35 behoben (ich persönlich denke eher beim NV40 ..vieleicht sogar mit M-Buffer (Accumulation Buffer).

M-Buffer? Hat NVIDIA doch schon länger.


Naja was busbreite anbetrifft stimme ich dir zu Demi, sie haben es sicher recht leicht das umzustellen und nV kostet das wohl so gut wie gor nix, "nur" den user und den PCB Hersteller...denn mit 256bit bräuchte man 2x Speicherchipsmenge...vermutlich wird die dann wohl auch 256MB haben???


Nein man kann auch eine 128 MB Karten mit den gleichen Chips und einem 256 Bit Interface bauen. Deswegen könnte ATI ja auch die DDR-II Chip auf die R300 Karten bauen. Jeder Speicher-Chip hat 32 Datenpins. 8 Chip würden nun normalerweise 256 Bit ergeben. Um mit 8 Chips nun aber denoch ein 128 Bit Interface nutzt man einen Trick. Jeweils 2 Chips benutzen die gleichen Address und Datenleitungen auf dem PCB. Deswegen sind die Chips auch auf der Vorder und Rückseite jeweils paarweise auf der gleichen Stelle montiert weil es die beste möglichkeit ist das zu erreichen. Zusätzlich führt nun noch zu jedem der beiden Chips noch eine Leitung über die bestimmt wird ob der Grafikchip den Speicherchip auf der Vorder oder den auf der Rückseite ansprechen möchte (Chip Select). Der andere Chip wird solange passiv geschaltet.

robbitop
2002-11-20, 20:50:33
@ Demi : Thx

das mit dem A-Buffer möchte ich etwas vertieft haben

beim AA stimmst du mir zu??

robbitop
2002-11-20, 20:54:46
ma ne Frage...hat die R300 nich auch ne Framebufferkompression? wenn ja wo liegt der Unterschied ...muss ja einen Geben da NV einen recht grossen Bandbreitennachteil wettmachen kann und trotzdem Vorsprung hat...

Exxtreme
2002-11-20, 20:59:00
AFAIK kann die R300 nur den Framebuffer komprimieren wenn FSEAA aktiv ist. Dann soll sie aber ein Komprimierungsverhältnis von bis zu 1:24 erreichen. Wie gesagt, "bis zu". Ausserdem wird die R300 mit aktivierten FSEAA quasi zum Tiler.
Originally posted by robbitop
ma ne Frage...hat die R300 nich auch ne Framebufferkompression? wenn ja wo liegt der Unterschied ...muss ja einen Geben da NV einen recht grossen Bandbreitennachteil wettmachen kann und trotzdem Vorsprung hat...

Richthofen
2002-11-20, 21:00:12
"
NVidia nur ein 256Bit Interface drauchmachen zu braucht um nochmal einen Geschwindigkeitsschub zu erhalten mußt du bedenken, das ATI Auch nur mal eben DDR II RAM drauflöten muß
"
ATI muss in erster Linie shrinken und mehr aus dem Core holen.
Mehr Bandbreite wird nicht so viel bringen. Davon ist jetzt schon genug vorhanden.

Demirug
2002-11-20, 21:09:40
Originally posted by robbitop
@ Demi : Thx

das mit dem A-Buffer möchte ich etwas vertieft haben

beim AA stimmst du mir zu??

Was soll ich da vertiefen? Der M-Buffer bei 3dfx ist das gleiche wie der Multisamplebuffer bei NVIDIA.

Über das AA habe ich mir noch kein abschliessendes Urteil aufgrund der recht dürftigen Informationslage gemacht.

robbitop
2002-11-20, 21:19:19
und was sagst du zur Framebufferkompressionsfrage ???

Demirug
2002-11-20, 21:30:31
Originally posted by robbitop
ma ne Frage...hat die R300 nich auch ne Framebufferkompression? wenn ja wo liegt der Unterschied ...muss ja einen Geben da NV einen recht grossen Bandbreitennachteil wettmachen kann und trotzdem Vorsprung hat...

das die Kompression nur mir FSEAA funktionieren soll habe ich auch irgendwo gelesen.

sorry jetzt wird es kompliziert:

Der R300 benutzt AFAIK 8*8 Pixel tiles.

Bei 6xAA ergibt das 384 AA-Samples pro Tile. Ob der Z und der Farbbuffer getrennt gespeichert werden konnte ich bisher nicht eindeutig herausfinden. Gehen wir mal davon aus das das es so ist:

Bei 4 Byte pro AA-Sample ergibt sich eine Grösse von 1536 Byte (1,5K) pro Tile (unkomprimiert). Bei maximaler Kompression 64 byte. Das Problem mit Tiles ist das man sie für jede Änderung komplett laden und speichern muss. Der R300 hat aus diesem Grund sicher einen Tile-Buffer der verhindern soll das die Tiles ständig über das Speicherinterface laufen. Die grösses dieses Buffers hat starke auswirkungen auf die Performanens. Auch NVIDIA muss mit Tiles arbeiten IMO sind diese aber kleiner was den verschnitt senken dürfte.

Dazu kommt noch das Problem das der R300 aufgrund seines 4*64 Bit Interface im vergleich zum 2*32 Bit Interface auch dort mehr Verschnit haben wird.

IMO gleicht der NV30 den Bandbreiten unterschied dadurch aus das er mehr Daten als der R300 komprimiert und weniger Verschnitt produziert.

robbitop
2002-11-20, 21:35:49
und wo vermutest du 3dfx knowhow?

Demirug
2002-11-20, 21:43:07
Originally posted by robbitop
und wo vermutest du 3dfx knowhow?

Das ist nun sehr schwer zu sagen da ja wohl im wesentliche von 3dfx nur Dinge eingeflossen sein können die wahrscheinlich zu dem Zeitpunkt als sie von NVIDIA aufgekauft wurden noch streng geheim waren.

dead
2002-11-20, 22:08:18
Originally posted by askibo
Unterstützt der CineFX kein DM?
Habs grad das hier im b3-Forum gelesen. http://www.beyond3d.com/forum/viewtopic.php?t=3219#top






Got a message from doug rogers:

No, the GeForce FX does not support displacement mapping.

-Doug Rogers
NVIDIA Developer Relations


Steht auch bei tommti zu lesen.
Sollte mich doch sehr wundern wenn das stimmen sollte.

:O

MeLLe
2002-11-20, 22:09:41
Auch wenn's etwas OT ist ... das Bild muss ich bringen ... ;)
http://www.priesh.co.uk/3dfx.gif

In Sachen 3dfx-KnowHow halte ich mich noch etwas zurück, weil noch zu wenig über FSAA-Performance und -Methoden bekannt ist. Gerade auf diesem Gebiet erwarte ich noch Überraschungen vom NV30. Unabhängige Tests werden es zeigen ...

Razor
2002-11-20, 22:14:44
Für alle, die offensichtlich des Lesens nicht mächtig sind:

Forum: Kein Displacement Mapping auf der GeForce FX (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=41216)

Man könnte auch so sagen...
Sie kann sogar mehr !
:D

Razor

dead
2002-11-20, 22:43:17
Originally posted by Razor
Für alle, die offensichtlich des Lesens nicht mächtig sind:

Forum: Kein Displacement Mapping auf der GeForce FX (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=41216)

Man könnte auch so sagen...
Sie kann sogar mehr !
:D

Razor

ohneinohneinohnein,:o

da habe ich mich doch auf nur einen thread beschränkt...
Also, er kanns, sehr wahrscheinlich, oder auch nicht, aber fast sicher noch mehr...

da (ernsthaft) wohl letzteres stimmt, ist die Aussage von Mr. Rogers wirklich gut!

Pussycat
2002-11-20, 23:04:12
Originally posted by alex_x

so wie es aussieht muss ati sich warm anziehen und sich schleunigst etwas einfallen lassen!ich bin auf die ersten tests gespannt!


Wenn ATI sich auch so 'ne Karte einbaut, brauchen die keine warmen Kleider mehr :d.

Aber im Ernst, bis jetzt sieht es ja nicht danach aus alsob
a) der nv30 viel besser als der r300 sein wird (keine Benches z.b., ausser du zählst den 'roten balken' als objektiver test)
b) Nich vor januar/februar erhältlich.

Eusti
2002-11-21, 00:59:37
Originally posted by ernesto.che
Vermutest du das oder ist das offiziell?
Wenn das stimmt, super Sache! Das ist offiziell. Ich hab den NVidia Launch nebenher mitlaufen lassen. Die haben das Feature irgendwo zwischen Minute 30 - 45 vorgestellt. Der Chef (der das die ganze Zeit moderiert hat) meinte, die Idee mit dem regelbaren Chiptakt wär ne dolle Sache. Aber was soll der auch sonst sagen, is ja der Chef...

Leonidas
2002-11-21, 03:42:29
Originally posted by Demirug


Ja und nein. Die Speicher-Chips arbeiten intern wirklich nur mit einem viertel der Transferrate. Die Speicherchips die NVIDIA nutzen will laufen also intern nur mit 250 MHz.


Das bezweifle ich. Das widerspricht DDR/II.

Salvee
2002-11-21, 04:16:03
Originally posted by Demirug
Kann nicht sein. :D Die R9700 kann keine Pixelshader mit 100 oder noch mehr anweisungen. Und der gröste Shader lag so bei 350 Anweisungen.

Frage: Wäre es nicht möglich, beliebig viele Instruktionen in mehreren Passes ausführen zu lassen (Performance hin oder her) ?

zeckensack
2002-11-21, 06:31:48
Originally posted by Salvee


Frage: Wäre es nicht möglich, beliebig viele Instruktionen in mehreren Passes ausführen zu lassen (Performance hin oder her) ? Klar geht das. Das Aufsplitten der dicken Shader muß aber (so wie's im Moment aussieht) die Applikation machen.

Treiberseitiges Monster-Shading ist für OGL2 vorgesehen. NVIDIA sträubt sich zum Teil recht vehement dagegen, weil sowas natürlich 'damn f***in hard' ist. ATI wird's da auch nicht leicht haben, da muß man abwarten wie die Hersteller mit dem 3DLabs-Toolkit klarkommen, und ob MS sich sowas dann für DX10 'ausborgt' :)

Demirug
2002-11-21, 08:18:36
Originally posted by zeckensack
Klar geht das. Das Aufsplitten der dicken Shader muß aber (so wie's im Moment aussieht) die Applikation machen.

Treiberseitiges Monster-Shading ist für OGL2 vorgesehen. NVIDIA sträubt sich zum Teil recht vehement dagegen, weil sowas natürlich 'damn f***in hard' ist. ATI wird's da auch nicht leicht haben, da muß man abwarten wie die Hersteller mit dem 3DLabs-Toolkit klarkommen, und ob MS sich sowas dann für DX10 'ausborgt' :)

Das "Monster-Shading" von OpenGL 2.0 ist auch so wie es vorgesehen ist der grösste Blödsinn überhaupt den sich 3dlabs ausgedacht hat. Sorry für die harten Worte aber da wurde wohl einfach zu wenig gedacht. Es gibt ein grosses Probleme bei automatischen OpenGL 2.0 Shader spliten.

Vertex und Fragmentshader sind zwei getrennte Programme. Es wird erst zur Laufzeit festgelegt welcher Vertex mit welchem Fragment shader zusammenarbeiten soll. Dadurch muss das spliten zur Laufzeit geschehen und das spliten ist wenn man sich die Forschungen dazu anschaut eigentlich zu aufwendig um es zur Laufzeit zu machen.

Das 3dLabs-Toolkit (Die Bezeichnung ist für das was man da bekommt eigentlich ein Witz) wird dabei keine hilfe sein.

Ob sich MS das ausborgt? Ich denke eher mal nicht die haben sowas mal bei DX7 versucht (und da wäre im verhältniss einfacher gewessen) und sind damit voll aufgelaufen. Solange die Vertex und die Fragmentshader getrennt betrachtet werden ist das IMO für Realtimeanwendungen unbrauchbar. Solte sich MS allerdings dazu entschliessen bei DX10 beide Shaderprogramme zu einem zusammenzuführen wäre es möglich das man ein splitten vorsieht.

Demirug
2002-11-21, 08:31:27
Originally posted by Leonidas



Das bezweifle ich. Das widerspricht DDR/II.

Nein das wiederspricht nicht DDR-II. Die DDR-II Spec fordert das sogar.


• Dram core utilizes a prefetch of 4
• Decreases frequency of dram core relative needed to support
increased data rate
• Dram core runs at 1/4 data bus frequency

• Commands can be valid on any rising edge of clock
• Preserves command bus utilization
• Dram command bus runs at 1/2 data bus frequency


aus: http://www.jedec.org/DOWNLOAD/pub21/HotDDR/DDR_II_evolution.pdf

Bei einer 1 GHZ Datenrate läuft der Commandbus also mit 500 MHz und der Core mit 250 MHz. Das ist auch der grund warum immer wieder geschrieben wird DDR-II würde 4 bit pro Takt übertragen. Im Core ist das auch richtig (deswegen wurde ja auch der prefetch von 2 auf 4 bit verdoppelt). Auf dem Datenbus bleibt aber alles beim alten.

zeckensack
2002-11-21, 08:45:23
Originally posted by Demirug


Das "Monster-Shading" von OpenGL 2.0 ist auch so wie es vorgesehen ist der grösste Blödsinn überhaupt den sich 3dlabs ausgedacht hat. Sorry für die harten Worte aber da wurde wohl einfach zu wenig gedacht. Es gibt ein grosses Probleme bei automatischen OpenGL 2.0 Shader spliten.

Vertex und Fragmentshader sind zwei getrennte Programme. Es wird erst zur Laufzeit festgelegt welcher Vertex mit welchem Fragment shader zusammenarbeiten soll. Dadurch muss das spliten zur Laufzeit geschehen und das spliten ist wenn man sich die Forschungen dazu anschaut eigentlich zu aufwendig um es zur Laufzeit zu machen.

Das 3dLabs-Toolkit (Die Bezeichnung ist für das was man da bekommt eigentlich ein Witz) wird dabei keine hilfe sein.

Ob sich MS das ausborgt? Ich denke eher mal nicht die haben sowas mal bei DX7 versucht (und da wäre im verhältniss einfacher gewessen) und sind damit voll aufgelaufen. Solange die Vertex und die Fragmentshader getrennt betrachtet werden ist das IMO für Realtimeanwendungen unbrauchbar. Solte sich MS allerdings dazu entschliessen bei DX10 beide Shaderprogramme zu einem zusammenzuführen wäre es möglich das man ein splitten vorsieht. Ich habe nie behauptet, daß das leicht, oder überhaupt sinnvoll im Treiber lösbar ist.

Für die ersten paar Jahre GL2 wird man sich IMO hüten, einen Shader auf die Graka loszulassen der vom Treiber gesplittet werden muß.

Ich sehe das mehr als Feature für Rapid Prototyping oder sowas, für Spiele ist's uninteressant solange nicht die Chips selbst mit der Shadersprache umgehen können (und das wird mindestens drei, vier Jahre daueren, wenn es denn überhaupt jemals passiert ...).

Pussycat
2002-11-21, 11:36:21
Originally posted by Rampage 2

NV hatte ein paar Monate nach der Einführung des NV20 (GF3) bei einem
Interview gesagt, dass sie mit dem NV30, Szenen mit 5 Millionen Polygone pro Frame in Echtzeit an die Tagesordnung setzen wollen.

Dass wöllte ich auch gerne. 100 millionen wöllte ich noch gerner :)

Pussycat
2002-11-21, 12:04:48
Originally posted by Demirug
Das Problem mit Tiles ist das man sie für jede Änderung komplett laden und speichern muss. Der R300 hat aus diesem Grund sicher einen Tile-Buffer der verhindern soll das die Tiles ständig über das Speicherinterface laufen. Die grösses dieses Buffers hat starke auswirkungen auf die Performanens. Auch NVIDIA muss mit Tiles arbeiten IMO sind diese aber kleiner was den verschnitt senken dürfte.



Da er aber auch z-werte erstmal pro tile prüft bei early-z, spart er an dieser Stelle doch wieder etwas an Bandbreite ein, oder?

Demirug
2002-11-21, 12:35:52
Originally posted by Pussycat


Da er aber auch z-werte erstmal pro tile prüft bei early-z, spart er an dieser Stelle doch wieder etwas an Bandbreite ein, oder?

Das hängt davon ab ob die Z-Werte für das hirachische Z-Culling mit in der Tile Komprimiert oder eigenständig gespeichert sind. Wobei es in diesem Fall mir sehr schwer fällt zu sagen was sich beim R300 in der Praxsis als besser erweisen würde. Dafür ist einfach die Informationslage zu dünn. Zudem muss man auf jeden Fall berücksichtigen wie die Zielausrichtung war. ATI wusste wohl von Anfang an das sie mit einem 256 Bit Interface antreten würde und aufgrund der dadurch möglichen Bandbreite war man dort einfach nicht gezwungen so sehr auf die Bandbreite zu schauen. Kompresion wurde nur dort eingesetzt wo es dann wirklich eng wurde beim AA. NVIDIA dagegen war sich von Anfang an bewust das sie mit dem 128 Bit Interface auskommen müssen und das heist Kompresion wo immer es machbar ist um die Bandbreite zu schonen.

Jeder Hersteller hat nun mal so seine eigene Marschrichtung. NVIDIA war eben der Meinung das man aus dem 128 Bit Interface noch genügend rausholen kann. Die Konkurenz war nicht so mutig und ging den Brute Force weg und verdoppelte einfach die Interfacebreite. Solche mutigen Entscheidungen sind natürlich nicht ohne Risiko. Wenn man aber damit erfolg hat ist man der Konkurenz einen Schritt vorraus den man hat dann immer noch die Bruteforce Lösung in der Hinterhand während der Konkurrenz nur noch der aufwendige weg bleibt. Beim Speicher hat NVIDIA zwar den Intelegenten weg gewählt aber ganz ohne ein bischen Brute-Force haben sie es auch nicht geschaft. Man muss auf höhere Taktfrequenzen zurück greifen. Wobei ich auf diesen Punkt nach den ersten Test ergebnissen gerne noch mal zurück kommen würde.

Alexander
2002-11-21, 14:53:31
Originally posted by robbitop
und hat mit Gammakorrektur wesendlich höhere Qualli als alle anderen FSAAModi von jeder GPU auf dem Markt


Da hast Du aber irgendwie Radeon 9500/9700 vergessen...

Alexander

robbitop
2002-11-21, 15:17:54
du hast nicht korrekt gequotet Alex.

das meinte ich für 4xS vs 4xMS von ATi...für keine anderen Modi.
Und das auch nur weil die Texturen wesendlich besser aussehen, von der Glättung dürfte 4xMS ein wenig besser sein von ATi.
ich meine dort eher den qualligesamteindruck ;-)

Alexander
2002-11-21, 16:26:32
Originally posted by robbitop
du hast nicht korrekt gequotet Alex.

das meinte ich für 4xS vs 4xMS von ATi...für keine anderen Modi.
Und das auch nur weil die Texturen wesendlich besser aussehen, von der Glättung dürfte 4xMS ein wenig besser sein von ATi.
ich meine dort eher den qualligesamteindruck ;-)

Ah...ok da hab ich Dich falsch verstanden. Aber trotzdem denke ich, daß der Schärfe-Effekt durch SS nicht so wichtig ist...wozu gibts denn AF. Wenn ich FSAA anmachen, will ich gerade Kanten... ;)

Alexander

robbitop
2002-11-21, 20:17:49
AF is nich das mass der dinge...wenn du mal richtiges SS in Aktion gesehen hast, weisst du was ich meine..das Bild wird ruhiger und alles wird geglättet..es sieht einfach besser aus...

skampi
2002-11-21, 21:56:42
Hehe, vor einem Jahr war das alles noch ganz anders.;)

BlueRaven
2002-11-21, 22:39:56
meiner meinung nach benutzt Nvidia hier 1-2-3 oder mehr aufgeborte 3dfx techniken die komplett überarbeitet sind aber bennent die anders.

z.B die Cinematics Effekts gabs auch bei der Voodoo5 5500 & Voodoo5 6000

Ich denke Nvidia macht von den gekauften 3dfx Patenten jetzt gebrauch mit den 3dfx designern.



MFG
BlueRaven

MeLLe
2002-11-21, 23:09:43
Originally posted by BlueRaven
meiner meinung nach benutzt Nvidia hier 1-2-3 oder mehr aufgeborte 3dfx techniken die komplett überarbeitet sind aber bennent die anders.
z.B die Cinematics Effekts gabs auch bei der Voodoo5 5500 & Voodoo5 6000
Ich denke Nvidia macht von den gekauften 3dfx Patenten jetzt gebrauch mit den 3dfx designern.
Nicht direkt. Die VSA100-Technik für Cinematic Effects wird nicht verwendet beim NV30. Motion Blur, DoF etc. wird per Pixel- bzw. Vertex-Shading realisiert, und nicht per Multisample-Buffer wie auf den Voodoo4/5-Boards.
Allerdings könnten die FSAA-Techniken, RAMDAC-Scanout und evtl. auch die Framebuffer-Compression erste hauchzarte Zeichen von 3dfx-Technologie sein...

robbitop
2002-11-22, 17:27:09
bis auf das wirklich sehr angegraute HRAA mit Gammakorrekt .. nice work nV!!!

und wenn der NV35 dann mit 256bit DDR kommt...WoW

aber zur Performance ist dank 0 unabhängiger Benchmarks eh nix klar....

wäre natürlich fett wenn sie aus dem 128bit DDR soviel rausholen wie ATi aus dem 256bit DDR (techniken jetz ma eingeschlossen) aber das kann man nur sehen wenn man den NV30 runtertaktet oder den R350 nimmt ;-)

denn R300vs NV30 haben nicht wirklich extreme Bandbreitenunterschiede

ow
2002-11-22, 18:44:01
Für die Spammer geht´s hier weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=41544

Quasar
2002-11-22, 18:53:03
Originally posted by BlueRaven
meiner meinung nach benutzt Nvidia hier 1-2-3 oder mehr aufgeborte 3dfx techniken die komplett überarbeitet sind aber bennent die anders.
z.B die Cinematics Effekts gabs auch bei der Voodoo5 5500 & Voodoo5 6000
Ich denke Nvidia macht von den gekauften 3dfx Patenten jetzt gebrauch mit den 3dfx designern.
MFG
BlueRaven

Das sehe ich prinzipiell ähnlich: ATi und nV haben beide je eine Schmiede mit halbwegs fertigen Designs aufgekauft, davor gab's Evolutionen ihrer eigenen Designs, so z.B. GF->GF2 | GF3, bei ATi eben Radeon->Radeon7500 |Radeon8500, trotz des "DX8-Sprunges" sind viele Dinge bei den Chips gleichgeblieben.

Nun hat ATi im Sommer ihr adaptiertes artX-Design rausgebracht und ab jetzt werden sie auch wieder kleinere Brötchen backen, sprich weitere Pflege des Produktes.

nVidia steht dieser Schritt noch bevor: bis zum nV28 ist AFAIK so gut wie keine 3dfx-Tech mit eingeflossen, aber der nV30 wird wohl einiges davon beinhalten, vermischt mit den Ideen der nV-Ingenieure. Da wird's im Vergleich zum nV28 wohl auch einen Sprung geben, vielleicht auf anderer Ebene als bei ATi, aber innerhalb der eigenen Grenzen sicherlich vergleichbar. Danach wird auch nV erstmal wieder ein wenig das Design verbessern, aufbohren, schneller machen etc., genau wie bei ATi.

IMO ist die Zeit der Revolution mit dem Erscheinen des nV30 erstmal wieder vorbei....

Razor
2002-11-22, 18:58:14
Originally posted by Quasar

IMO ist die Zeit der Revolution mit dem Erscheinen des nV30 erstmal wieder vorbei....
Das wiederum glaube ich nicht...
Vermutlich steht sie noch bevor !

Glaube nicht, dass das jetzt schon alles war.
(nicht von nVidia und auch nicht von ATI)

- DX9 ist noch nicht einmal fertig (nach Aussage M$)...
- Nicht einmal Ansatzweise ein Eindruck der neuen Technologie ist verfügabr...

Irgend etwas fehlt da noch... aber was ?
Hmmm...

Razor