PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vorläufige Spezifikationen des NV35:


Seiten : [1] 2

Merlin31
2003-03-19, 14:34:52
http://www.chip.de/news/c_news_10209939.html

Was ich so lese (hoffen wir das es auch stimmt), habe ich ja noch Hoffnung da NV wieder bald dabei ist. Dann gibt es endlich wieder richtige Konkurenz. Auf das die Preise fallen.

Unregistered
2003-03-19, 14:36:53
Ups ist das net ein schritt zurück ?

Exxtreme
2003-03-19, 14:39:15
Originally posted by Unregistered
Ups ist das net ein schritt zurück ?
Nicht unbedingt. DDR1 ist eigentlich immer etwas effektiver als DDR2 bei gleichem Takt. Wenn man anstatt DDR2 DDR1 nehmen kann, dann ist es IMHO sinnvoller.

Demirug
2003-03-19, 14:39:37
Gerücht = Spekulation

EDIT: *moved*

turboschlumpf
2003-03-19, 14:40:17
chip
^^
:|

die bandbreite und der performance sprung wäre krass.
dann natürlich ne wasserkühlung drauf dass ruhe ist.
nur das aa der fx find ich ehrlich gesagt ziemlich scheisse,
und da wird sich nicht allzu viel getan haben befürchte ich.

Unregistered
2003-03-19, 14:41:52
Diese Daten sind doch schon keine Spekulation mehr ?!?!

Demirug
2003-03-19, 14:43:37
Originally posted by Exxtreme

Nicht unbedingt. DDR1 ist eigentlich immer etwas effektiver als DDR2 bei gleichem Takt. Wenn man anstatt DDR2 DDR1 nehmen kann, dann ist es IMHO sinnvoller.

Bei gleichem Takt spielt es primär keine Rolle weil beide Chips das gleiche Protokol benutzten. DDR-I Chips sind lediglich etwas variabler was die Konfiguration angeht was man natürlich ausnutzen kann.

Nur an 500 MHz DDR-I Chips glaube ich nicht den das macht wirklich keinen Sinn.

Endorphine
2003-03-19, 14:44:43
Originally posted by Unregistered
Diese Daten sind doch schon keine Spekulation mehr ?!?! Alles was nVidia nicht selbst bestätigt ist und bleibt eine Spekulation.

Demirug
2003-03-19, 14:44:57
Originally posted by Unregistered
Diese Daten sind doch schon keine Spekulation mehr ?!?!

Wenn Chip "Gerücht" schreibt kann man gar nichts darauf geben den normalerweise verkauft Chip gerüchte als Tatsachen.

Unregistered
2003-03-19, 14:46:41
***Peinlich ich habe ein Chip ABO***

Endorphine
2003-03-19, 14:49:16
Originally posted by Unregistered
***Peinlich ich habe ein Chip ABO*** Du kannst es ja in ein c't-Abo "wandeln" und ab und zu in die Bibliothek gehen und relevante iX-Artikel kopieren :)

Unregistered
2003-03-19, 14:52:37
Originally posted by Endorphine
Alles was nVidia nicht selbst bestätigt ist und bleibt eine Spekulation.

selbst wenn es nvidia bestätigt ist es spekulation ... hehe :D

Merlin31
2003-03-19, 14:57:52
Wundern tut mich folgendes

CHP: der NV35 selbst soll laut Nvidias Spezifikationen auch in seiner späteren Standard-Taktung ohne aufwändiges Kühl-Aggregat auskommen

Wieso geth das auf einmal weil die Daten ausser den 256BIT bus
der NV30 total ähnlich sind :

Vorläufige Spezifikationen des NV35:

130 Millionen Transistoren (NV30: 125 Mio.)

Herstellungsprozess: 0,13 Mikrometer (wie NV30)

Speicher-Schnittstelle: 256 Bit (NV30: 128 Bit)

Chiptakt: geplant sind 500 MHz (wie NV30)

Speichertakt: 500 MHz DDR-I (effektiv 1 GHz, NV30: 500 MHz DDR-II)
_______

Und wie Demirug schon richtig geschrieben hat wundert mich auch der Speichertakt. Ich dachte bei DDR1 ist bei 400 Schluss.

Und ich kann mir net vorstellen das der 256 BIT Bus alleine
das hier verursachen kann :

In einem Q3A-Benchmark mit maximalen Einstellungen - nämlich: demo001, Auflösung 1.600 x 1.200, 4xAA, 8xAF - schlug der NV35 im CeBIT-Hinterzimmer nicht ganz unerwartet das derzeitige Flaggschiff NV30. Dass der Vorsprung aber mit 110 zu 48 Bildern pro Sekunde mehr als um das Doppelte ausfällt, überraschte so manchen Zaungast

Dann müste es doch auch mit der 9700 mit Voltmod möglich sein.

nagus
2003-03-19, 15:10:02
also 500Mhz DDRI hört sich ziehmlich unglaubwürdig für mich an. wenn sich da nicht nvidia etwas zu weit aus dem fenster lehnt...


400Mhz bei 256bit würden vollkommen ausreichen IMHO.


btw,

Radeon 9700PRO 400/760Mhz demo demo four.dm_66

1600x1200 HQ++, 6xAA, 16xAF (Quality AF)
94,6fps

... und demo four.dm_66 ist wesentlich haardwarefressender als Demo001...
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=9870

... ich werde das heute mal mit meiner Radeon genau nachmessen.

Unregistered
2003-03-19, 15:16:48
Originally posted by Merlin31
Wundern tut mich folgendes

CHP: der NV35 selbst soll laut Nvidias Spezifikationen auch in seiner späteren Standard-Taktung ohne aufwändiges Kühl-Aggregat auskommen

Wieso geth das auf einmal weil die Daten ausser den 256BIT bus
der NV30 total ähnlich sind :

Vorläufige Spezifikationen des NV35:

130 Millionen Transistoren (NV30: 125 Mio.)

Herstellungsprozess: 0,13 Mikrometer (wie NV30)

Speicher-Schnittstelle: 256 Bit (NV30: 128 Bit)

Chiptakt: geplant sind 500 MHz (wie NV30)

Speichertakt: 500 MHz DDR-I (effektiv 1 GHz, NV30: 500 MHz DDR-II)
_______

Und wie Demirug schon richtig geschrieben hat wundert mich auch der Speichertakt. Ich dachte bei DDR1 ist bei 400 Schluss.

Und ich kann mir net vorstellen das der 256 BIT Bus alleine
das hier verursachen kann :

In einem Q3A-Benchmark mit maximalen Einstellungen - nämlich: demo001, Auflösung 1.600 x 1.200, 4xAA, 8xAF - schlug der NV35 im CeBIT-Hinterzimmer nicht ganz unerwartet das derzeitige Flaggschiff NV30. Dass der Vorsprung aber mit 110 zu 48 Bildern pro Sekunde mehr als um das Doppelte ausfällt, überraschte so manchen Zaungast

Dann müste es doch auch mit der 9700 mit Voltmod möglich sein.

Beides finde ich auch merkwürdig...die Zahlen sollen anscheinend belegen, das eine Verdoppelung des Speicherinterfaces eine Verdoppelung der Performance mit sich bringt. Warum lief der Prototyp nur mit halber Kraft ? Da schließt sich nämlich die Frage der Kühlung an...für mich auch unverstädnlich warum der NV35 mit normaler Kühlung zu betreiben sein soll während der NV30 nur mit Gebläse halbwegs am laufen gehalten werden kann obwohl sich beide nicht wirklich unterscheiden ? Klingt alles nicht sehr vertrauenserweckend und ist wohl eher als "Spitze" gegen ATI zu werten, die in Kürze mit dem R350 kommen. Vielleicht hofft man dass einige Hartgesottene auf ein Wunder bei Nvidia hoffen und sich keine 9800/9800pro kaufen.

Grüße

Unregistered
2003-03-19, 15:17:30
Wenn ich deine Werte mir so anschau, dann kommt mir der Gedanke
wenn doe 9800 PRO gerade bei der Auflösung mit Filter ja angeblich
bis zu 25 % mehr Leistung als eine standart 9700 PRO schafft.

Dann sehe ich für die NV35 schon wieder schwarz

Ailuros
2003-03-19, 15:17:44
also 500Mhz DDRI hört sich ziehmlich unglaubwürdig für mich an. wenn sich da nicht nvidia etwas zu weit aus dem fenster lehnt...

Spekulationen oder Geruechte sind meistens uebertrieben. Ein paar Tage vor der R350 Ankuendigung hiess es auch dass dieser 460MHz Speicher haben soll.

Nichtsdestominder (den FXFlow flop und Stromverbrauch beiseite) hast Du auch die 500MHz Taktrate fuer NV30 bezweifelt. Nicht dass Zahlen so ueberaus wichtig sind....

nagus
2003-03-19, 15:18:04
was ich vergessen hab zu sagen... banchmarks radeon 9700 @ 250mhz core werde ich natürlich auch nachreichen....

nagus
2003-03-19, 15:18:53
Originally posted by Ailuros


Spekulationen oder Geruechte sind meistens uebertrieben. Ein paar Tage vor der R350 Ankuendigung hiess es auch dass dieser 460MHz Speicher haben soll.

Nichtsdestominder (den FXFlow flop und Stromverbrauch beiseite) hast Du auch die 500MHz Taktrate fuer NV30 bezweifelt. Nicht dass Zahlen so ueberaus wichtig sind....


die R350 mit 400/920Mhz ist die 256MB version von FIC.

PCGH_Thilo
2003-03-19, 15:18:59
Originally posted by Demirug
Gerücht = Spekulation

aber hallo!

nix gegen die kollegen...

Ailuros
2003-03-19, 15:21:53
Originally posted by nagus



die R350 mit 400/920Mhz ist die 256MB version von FIC.

Das antwortet dann auch eher auf Deinen vorigen Post. ;)

Merlin31
2003-03-19, 15:22:36
Hast du ähnliche ERfahrungen auf der Cebist machen können wie deine Kolegen von der Chip Zeitung ? *g

PCGH_Thilo
2003-03-19, 15:27:22
Originally posted by Merlin31
Hast du ähnliche ERfahrungen auf der Cebist machen können wie deine Kolegen von der Chip Zeitung ? *g

die haben ja anscheinend KEINE gemacht oder tun zumindest so, als ob ihnen eine vögeli was gezwitschert hat.

mein stil ist das nicht. ich unterschreibe NDAs und halt meine klappe ;-) okay, beim nv30 habe ich auch früher berichtet, nur hatte man da vergessen, mich signieren zu lassen.

Merlin31
2003-03-19, 15:29:07
für deine Aussage ;D

Demirug
2003-03-19, 15:34:55
Originally posted by PCGH_Thilo


aber hallo!

nix gegen die kollegen...

Thilo, das war nicht gegen die Kollegen von Chip sonder die Begründung warum ich das ganze verschoben habe.

PCGH_Thilo
2003-03-19, 15:39:34
Originally posted by Demirug


Thilo, das war nicht gegen die Kollegen von Chip sonder die Begründung warum ich das ganze verschoben habe.

genau so meinte ich das auch =)

Virtual
2003-03-19, 15:41:20
Leute, Leute, abwarten!

***Kopfschüttel***

Der NV30 war vor 6 Monaten auch doppelt so schnell wie er heute tatsächlich ist. Aber wenn es gefällt, dann möchte ich vorschlagen, den NV35 gleich heute noch den Performance-Spitze erklimmen zu lassen. Das man den Chip vermutlich erst in 5+ Monaten mit 'nem Sack voll Geld kaufen können wird, ist maximal fader Beigeschmack, aber nicht wirklich ein Hinderungsgrund für die Krönung.

***Kopfschüttel***

G.
V.

Exxtreme
2003-03-19, 15:42:01
Originally posted by Demirug


Bei gleichem Takt spielt es primär keine Rolle weil beide Chips das gleiche Protokol benutzten. DDR-I Chips sind lediglich etwas variabler was die Konfiguration angeht was man natürlich ausnutzen kann.

Nur an 500 MHz DDR-I Chips glaube ich nicht den das macht wirklich keinen Sinn.
Vergiss aber die Latenzen bei sequenziellen Zugriffen nicht. Diese sind beim DDR2 doppelt so hoch, da der Speicher intern mit der halben Taktfrequenz arbeitet.

HOT
2003-03-19, 15:53:19
5Mio Transis mehr -> lässt auf die Verdopplung des Speicherinterfaces schliessen. Villeicht sind dort auch noch einige Taktoptimierungen enthalten, damit man FX Flow sparen kann.
Und ein NV30 soll nur durch die Verdopplung des Speicherinterfeaces mehr als doppelt soviel Leistung erreichen? Nein Leute, das IST unglaubwürdig.
Zudem dürfte 500MHz DDRII Speicher billiger als DDR1 sein bei dieser Taktfrequenz. Aber gänzlich ausgeschlossen halte ich diese Taktung nicht, denn immerhin gibt es ja RAM in dieser Frequenzgegend.

Demirug
2003-03-19, 15:56:16
Originally posted by Exxtreme

Vergiss aber die Latenzen bei sequenziellen Zugriffen nicht. Diese sind beim DDR2 doppelt so hoch, da der Speicher intern mit der halben Taktfrequenz arbeitet.

Doppelt nicht. es gibt ein paar Latenzen die beim DDR II Speicher einen zusätzlichen Takt brauchen (bei gleichem Takt). Die wichtige RAS CL ist aber bei beiden gleich.

x-dragon
2003-03-19, 16:17:10
Hier nochmal ein Quote von letzem Jahr :)

11.12.2002, 17:44 | Quelle: Hynix
500MHz DDR-I SDRAM von Hynix
Schnelle 128Mbit DDR-I SDRAM FBGA-Chips für Grafikspeicher

Der koreanische Hersteller Hynix hat gestern neue 128Mbit DDR-I SDRAM Bausteine angekündigt, die für Taktfrequenzen bis 500MHz geeignet sind. Dementsprechend sind die Chips mit einer Zugriffszeit von 2ns ausgestattet. Durch die Double Data Rate (DDR) Technik spricht man von einem effektiven Takt von 1000MHz. Einsatzgebiete sind vor allem Grafikkarten und Netzwerkgeräte.
Die neuen Speicherchips verwenden die FBGA (Fine pitch Ball Grid Array) Verpackung, die kleiner ist als das klassische TSOP-Package und bessere thermische Eigenschaften besitzt. Aktuelle High-End Grafikkarten wie die nVidia GeForce4 Ti4400/4600 und die ATI Radeon 9500/9700 sind bereits mit FBGA-Speicher ausgestattet, der aber "nur" bis maximal 350 MHz (700MHz DDR - 2.86ns) geeignet ist.

Die Partner von Hynix sind bereits mit Mustern der neuen 500MHz DDR-I SDRAM Chips beliefert worden, so dass man annehmen darf, dass erste Grafikkarten mit solch schnellem Speicher im Frühjahr 2003 erscheinen werden.
Bei 2ns Zugriffszeit dürfte dann endgültig das Ende der DDR-I Technologie erreicht sein. Hynix plant für das erste Quartal nächsten Jahres dann die Einführung von 500MHz DDR-II SDRAM. Solche bzw. ähnliche Bausteine anderer Hersteller werden z.B. auf der GeForce FX eingesetzt.

http://www.hartware.net/news.html?id=30038 Und da gabs den Thread dazu: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=44412&highlight=500MHz

Eusti
2003-03-19, 17:36:42
Originally posted by HOT
5Mio Transis mehr -> lässt auf die Verdopplung des Speicherinterfaces schliessen. Villeicht sind dort auch noch einige Taktoptimierungen enthalten, damit man FX Flow sparen kann.
Und ein NV30 soll nur durch die Verdopplung des Speicherinterfeaces mehr als doppelt soviel Leistung erreichen? Nein Leute, das IST unglaubwürdig.
Zudem dürfte 500MHz DDRII Speicher billiger als DDR1 sein bei dieser Taktfrequenz. Aber gänzlich ausgeschlossen halte ich diese Taktung nicht, denn immerhin gibt es ja RAM in dieser Frequenzgegend. Na, man kann ja auch einen ganz anderen Ansatz gewält haben. Der 128bit breite und 47 Millionen schwehre NV34 hat in 0,15 auch schon 4 Pipes und unterstützt trotzdem DX9.

Wenn ich den NV34 jetzt von 4 aud 10 Pipelines und 256bit aufbore, verbrate ich ca. 118 Mio Transistoren (47x10/4). Mit den restlichen 12 Millionen kann ich noch HyperZ + ColorCompression und sowas einbauen und hab dann einen Chip, welcher 4 mal so schnell ist wie der 5200Ultra. Wenn ich dann die Taktrate noch auf 500MHZ hochziehe (da 0,13), hab ich einen Chip, welcher 6 mal so schnell ist wie ein 5200Ultra.

Ist natürlich alles nur dummes rumgelabere, aber sollte mal darstellen, das man für den NV35 nicht unbedingt auf den NV30 aufbauen muss, sondern auch auf NV34 aufbauen könnte.

Aquaschaf
2003-03-19, 17:41:15
10 pipelines ? geht das überhaupt ;)

Eusti
2003-03-19, 17:49:36
Originally posted by Aquaschaf
10 pipelines ? geht das überhaupt ;) Keine Ahnung. Vielleicht nimmt man ja auch 10 Stück. und 2 setzen immer abwechselnd aus, um den Chip höher takten zu können. Wer weis...

zeckensack
2003-03-19, 18:10:05
Originally posted by Eusti
Na, man kann ja auch einen ganz anderen Ansatz gewält haben. Der 128bit breite und 47 Millionen schwehre NV34 hat in 0,15 auch schon 4 Pipes und unterstützt trotzdem DX9.

Wenn ich den NV34 jetzt von 4 aud 10 Pipelines und 256bit aufbore, verbrate ich ca. 118 Mio Transistoren (47x10/4). Mit den restlichen 12 Millionen kann ich noch HyperZ + ColorCompression und sowas einbauen und hab dann einen Chip, welcher 4 mal so schnell ist wie der 5200Ultra. Wenn ich dann die Taktrate noch auf 500MHZ hochziehe (da 0,13), hab ich einen Chip, welcher 6 mal so schnell ist wie ein 5200Ultra.

Ist natürlich alles nur dummes rumgelabere, aber sollte mal darstellen, das man für den NV35 nicht unbedingt auf den NV30 aufbauen muss, sondern auch auf NV34 aufbauen könnte. Es kommt mir nicht so vor, als hätte der NV34 (=GfFX5200/Ultra) 4 Pipes ... sieht eher nach 2 aus.

Außerdem, der NV34 baut klar auf dem NV30 auf. Dein letzter Satz beißt sich irgendwie in den Schwanz :idea:

aths
2003-03-19, 18:25:33
Originally posted by Merlin31
http://www.chip.de/news/c_news_10209939.html

Was ich so lese (hoffen wir das es auch stimmt), habe ich ja noch Hoffnung da NV wieder bald dabei ist. Dann gibt es endlich wieder richtige Konkurenz. Auf das die Preise fallen. Solange NV bei AccuView bleibt, wird das mit der Konkurrenz nichts.

Richthofen
2003-03-19, 19:27:31
"
Beides finde ich auch merkwürdig...die Zahlen sollen anscheinend belegen, das eine Verdoppelung des Speicherinterfaces eine Verdoppelung der Performance mit sich bringt. Warum lief der Prototyp nur mit halber Kraft ? Da schließt sich nämlich die Frage der Kühlung an...für mich auch unverstädnlich warum der NV35 mit normaler Kühlung zu betreiben sein soll während der NV30 nur mit Gebläse halbwegs am laufen gehalten werden kann obwohl sich beide nicht wirklich unterscheiden ? Klingt alles nicht sehr vertrauenserweckend und ist wohl eher als "Spitze" gegen ATI zu werten, die in Kürze mit dem R350 kommen. Vielleicht hofft man dass einige Hartgesottene auf ein Wunder bei Nvidia hoffen und sich keine 9800/9800pro kaufen.
"

2,3 Bemerkungen dazu.

Einfach mal nen Rückblick machen T-Bred A und T-Bred B.
Ersterer lies sich gar nicht takten letzterer schon.
Die weniger aufwendige Kühlung lässt sich mit Designoptimierungen und natürlich Fortschrtitte beim Fertigungprozess erklären.
Das der NV30 so ne fette Kühlung braucht liegt einfach an dem Fertogungsproblem und Zeitdruck. Es war keine Zeit mehr um noch lange rumzuwurschteln und der 0.13 gab nicht mehr her.

Das der Prototyp auf 250 MHZ läuft ist kein Wunder. Es ist eben ein Prototyp. Die ersten NV30 Teile liefen auch nicht auf 500 MHZ und AMDs Opterons liefen auch nicht alle gleich auf 1,6 GHZ.
Die ersten lauffähigen Chips sind immer recht schlecht zu takten.
Aber die großen Sprünge findet man dann recht schnell.

Und der 3. Gedanke den ich schon oft angebracht habe. Wer kann 100% sagen, dass beim NV30 auf Grund des Zeitdrucks nicht diverse Dinge deaktiviert werden mussten weil sie nicht mehr zu debuggen waren.
Die Wahrscheinlichkeit wird für mich immer größer je mehr ich darüber nachdenke.
Die NV30 Architektur soll ja sehr flexibel ausgelegt sein. Sozusagen ein nochmal deutlich verbessertes Baukastensystem, das die abentheuerlichsten Modifikationen erlauben soll.
So ist der NV34 zb 0.15 und ähnelt dem NV30 in 0.13 und der NV31 in 0.13 soll bereits in Teilen dem NV35 ähneln.
Mir scheint die haben viel Geld in Flexibilität des Designs investiert. Das ist natürlich langfristig gesehen ne feine Sache weil man sich späteren Aufwand erspaart bzw. verringert.

nagus
2003-03-19, 19:53:27
btw, was mir an diesem sog. "prototyp" auffällt.... warum zum geier bracht das teil bei 250Mhz core und speicher, optimiertem 0,13µm fertigungsprozess eine kühlvorrichtung die 2(!) PCI-slots frisst?!

irgendwie kommt mir das spanisch vor :|


btw2, ein vergleich: Radeon 9500PRO und Radeon 9700.... wie hoch ist da der unterschied bei hohen AA und AF? vielleicht 50%? wie bitte soll eine NV30 mit 256bit (N35) und "echten" 8 pipelines mehr als 100% schneller sein als mit "nur" 128-bit interface???

wenn ihr mich fragt: alles nur NV-PR-BS.

nagus
2003-03-19, 20:16:04
jetzt mal Radeon 9700 benchmarks:

also: karte läuft auf 250/250Mhz. quake3 hab ich NEU istalliert, ohne patch, sound OFF, auflösung 1600x1200 4xFSAA

8xQualityAF

HQ++ : 72.5 (275/275: 80.1 | 300/300: 87 | 325/325: 94 | 350/350: 101)
HQ: 82.1 fps


8xPerformance AF

HQ++: 77,8 fps
HQ: 82,7 fps (300/300: 99.1 | 325/325: 108)



HQ++ :default HIGH setting + alle einstallungen im grafik-menü auf max... triliner, textures, geometry etc..

HQ: quality button einfach auf "High Quality"

HOT
2003-03-19, 20:16:09
Originally posted by Eusti
Na, man kann ja auch einen ganz anderen Ansatz gewält haben. Der 128bit breite und 47 Millionen schwehre NV34 hat in 0,15 auch schon 4 Pipes und unterstützt trotzdem DX9.

Wenn ich den NV34 jetzt von 4 aud 10 Pipelines und 256bit aufbore, verbrate ich ca. 118 Mio Transistoren (47x10/4). Mit den restlichen 12 Millionen kann ich noch HyperZ + ColorCompression und sowas einbauen und hab dann einen Chip, welcher 4 mal so schnell ist wie der 5200Ultra. Wenn ich dann die Taktrate noch auf 500MHZ hochziehe (da 0,13), hab ich einen Chip, welcher 6 mal so schnell ist wie ein 5200Ultra.

Ist natürlich alles nur dummes rumgelabere, aber sollte mal darstellen, das man für den NV35 nicht unbedingt auf den NV30 aufbauen muss, sondern auch auf NV34 aufbauen könnte.

vergiss es ;) du brauchst MEHR!
Die Vertexshader sind ja auch extrem DIE Fläche fressend, und der ist beim NV31/34 gedrittelt.

[ncp]EasyChiller
2003-03-19, 21:12:57
die 500MHz-DDR1 halt ich erstmal für möglich! ... wie X-Dragon schon richtig gepostet hat kann ich mich auch noch an die vorstellung der bis 500mhz-DDR1-Rams erinnern! ;D
Wie der NV-35 allerdings aus den 5Mio mehr Transistoren soviel mehr Leisung zaubern will iss mir schleierhaft! ... ich könnte mir nur denken, das die doch mal nen komplettes Neudesign vorgenommen haben (was mir allerdings bei NV eher unglaubwürdig erscheint).

Zudem sind die AA-AF-Benches im Grunde schlecht wertbar, da es ja eben sein kann, das der Hauptgewinn in diesen Benches aus verbesserungen (mehr speed) am AA / AF hervorkommt! =) ... mich hätten erstmal mehr die Werte ohne AA / AF interessiert, da die mehr die Rohleistung wiederspiegeln .. AA / AF kann ma ja immer noch gesondert betrachten! =)

Eusti
2003-03-19, 22:21:48
Originally posted by nagus
jetzt mal Radeon 9700 benchmarks:

also: karte läuft auf 250/250Mhz. quake3 hab ich NEU istalliert, ohne patch, sound OFF, auflösung 1600x1200 4xFSAA

8xQualityAF

HQ++ : 72.5 (275/275: 80.1 | 300/300: 87 | 325/325: 94 | 350/350: 101)
HQ: 82.1 fps
So wie ich die ursprüngliche News gelesen habe, liefen beide Karten auf vollem Ram-Takt und nur halbiertem Coretakt, also auf 250/500(1000DDR). Was kommt den bei der Radeon bei 250/500 raus?

nagus
2003-03-19, 22:26:02
Originally posted by Eusti
So wie ich die ursprüngliche News gelesen habe, liefen beide Karten auf vollem Ram-Takt und nur halbiertem Coretakt, also auf 250/500(1000DDR). Was kommt den bei der Radeon bei 250/500 raus?


guter witz :lol::lol:

ich keine keine radeon die mit 500Mhz DDRI läuft.

scherz bei seite.... ergebnise kommen in wenigen minuten

askibo
2003-03-19, 22:35:21
Originally posted by [ncp]EasyChiller
Wie der NV-35 allerdings aus den 5Mio mehr Transistoren soviel mehr Leisung zaubern will iss mir schleierhaft! ... ich könnte mir nur denken, das die doch mal nen komplettes Neudesign vorgenommen haben (was mir allerdings bei NV eher unglaubwürdig erscheint).


Angeblich sollen beim NV30 einige Funktion wegen der großen Hitzeentwicklung noch deaktiviert sein.

Unregistered
2003-03-19, 22:52:37
Richthofen

...was sagst du?...

Die Wahrscheinlichkeit wird für mich immer größer je mehr ich darüber nachdenke.

...sehr spannend...



;D :lol: :rofl: :lol: ;D

robbitop
2003-03-19, 22:59:22
ist euch nicht mal die geringe pro Mhz Leistung des NV30 aufefallen...?
spätestens doch aber im Vergleich zum R9500PRO mit gleichen Takten auf dieser frz page, oder???

Und das mit einer Brandneuen Architektur??? Die Fertigung hatte Probleme....langsam dürfte jeder schlüsse ziehen können.

Das Ding läuft wie auch der P512 einfach nicht rund hat viel potential, besonders in der PS und TMU Leistung ist viel effizienz zu holen. Der NV35 ist ein stark überarbeiteter NV30. Er soll kühler werden. Volle PS Leistung und vernünftige Füllraten ausnutzen. Man hat also die Handbremsen gelösung und hat nun genug Zeit zur Prozess optimierung. Nebenbei ein thermisches Redesign wie es bei AMD und Intel Gang und Gebe ist, why not??? ATi bekommt das auch immer fein hin...
Dazu ein 256bit DDR Interface und dann noch 500/500 Taktraten...ist doch klar dass das nett werden KÖNNTE.

Gegen das FSAA hätte ich persönlich nichts, da ich wie auch Exxtreme ein SSAA Fan bin. Und ich bin auch dafür dass ATi das mal freischaltet. Denn mit dem NV35 wäre dieses wunderbar machbar.
4xS bei 1280 und 8xAF (vieleicht sogar application) und das smooth bei Mafia oder Unreal2 oder gothic 2? WAHNSINN
sehen konnt ichs auf meiner Ti4200 nur war es dort lahm...


denkt mal drüber nach, so schlecht muss die neue Architektur nicht sein. Und ich wäre mit den Auslieferungsterminen nicht so pessimistisch. Das Tapeout ist bald 3 monate her (wenn es stimmen sollte). Man hat (wenn es stimmen sollte) lauffähige prototypen. MAn kann jetzt im Labor monatelang rumspielen wie es damals mit dem R300 gewesen war und auch den 0,13µ Yield optimieren.

ABER: Wenn das Teil wirklich 2x so schnell sein SOLLTE wie der NV30, dann tut sich zum Mainstreammarkt eine zu grosse Lücke auf (naja gut zw 9600 und 9800PRO sind es ja auch welten bei hohen settings)...

Quasar
2003-03-19, 23:36:03
Originally posted by zeckensack
Es kommt mir nicht so vor, als hätte der NV34 (=GfFX5200/Ultra) 4 Pipes ... sieht eher nach 2 aus.

Außerdem, der NV34 baut klar auf dem NV30 auf. Dein letzter Satz beißt sich irgendwie in den Schwanz :idea:

4 sind aber nach nV-Zählweise offiziell bestätigt, genau wie für den nV31.

2B-Maverick
2003-03-19, 23:43:27
Originally posted by Quasar


4 sind aber nach nV-Zählweise offiziell bestätigt, genau wie für den nV31.

Lol - und wenn Bush sagt "i am God" glaubst du ihm auch?

NV hat doch bewiesen, wie "vertrauenswürdig" sie sind (Kyro Dokument, 8x1 Pipe beim NV30 etc.)

zeckensack
2003-03-20, 00:35:04
Originally posted by 2B-Maverick


Lol - und wenn Bush sagt "i am God" glaubst du ihm auch?

NV hat doch bewiesen, wie "vertrauenswürdig" sie sind (Kyro Dokument, 8x1 Pipe beim NV30 etc.) Der NV30 hat quasi 8 Pipes. Wir haben das vor kurzem mal gemessen :bäh:

Allerdings muß man unbedingt dazusagen, daß dies nur für Z/Stencil-Werte gilt. Man bekommt in der Tat nie mehr als 4 Farbwerte pro Takt aus dem Chip heraus, auch Textursampler zähle ich insgesamt exakt 4.

Quasar
2003-03-20, 00:55:31
Originally posted by 2B-Maverick


Lol - und wenn Bush sagt "i am God" glaubst du ihm auch?

NV hat doch bewiesen, wie "vertrauenswürdig" sie sind (Kyro Dokument, 8x1 Pipe beim NV30 etc.)

Was haben Bush, das Kyro-Dokument und der nV30 mit der Relation des Verhältnisses der Pipelines von nV31 und nV34 zu tun???

Ailuros
2003-03-20, 01:31:17
Gegen das FSAA hätte ich persönlich nichts, da ich wie auch Exxtreme ein SSAA Fan bin. Und ich bin auch dafür dass ATi das mal freischaltet. Denn mit dem NV35 wäre dieses wunderbar machbar.
4xS bei 1280 und 8xAF (vieleicht sogar application) und das smooth bei Mafia oder Unreal2 oder gothic 2? WAHNSINN
sehen konnt ichs auf meiner Ti4200 nur war es dort lahm...

Momentan sind in Rivatuner RC12.3 die folgenden Modi vorhanden fuer NV20/5 (und natuerlich auch fuer NV3x):

D3D:

2x RGMS
Quincunx
4x OGMS
4x OGMS/9-tap
4xS (RGMS + OGMS)
6xS (RGMS + OGSS)
8xS (RGMS + OGSS)
6x (OGMS + OGSS)
8x (OGMS + OGSS)
2x2 (OGSS)

OpenGL:

2x RGMS
Quincunx
2x OGSS
4x OGMS
4x OGMS/9-tap
2x2 OGSS

So lange die "O" den "R"s ueberwiegen egal ob es sich um Multi- oder Supersampling handelt, hat aths leider recht.

Genauso recht hat er natuerlich auch wenn er sagt dass Supersampling unnoetig Fuellrate auffrisst. Ein guter MSAA kombiniert mit einem effizienten Aniso Algorithmus in hohen Aufloesungen ist um mehrere Male nutzvoller als normales SSAA. "Ueberfiltern" ergo SSAA+Aniso ist sowieso technisch eine Verschwendung.

Ich bin zwar dafuer dass Karten entweder SSAA Alternativen oder hybride Methoden anbieten sollten fuer "Notfaelle"; ich setze dann SSAA oder hybride Methoden fuer dies Notfaelle oder Ausnahmen ein oder bei aeusserst CPU limitierten Spielen (ich wende z.B. in MS FlightSimulator2002 8xS mit Level8x optimiertem Aniso an); aber in der Mehrzahl von Spielen ist mir eine MSAA/Aniso Kombination lieber.

Ich bezweifle uebrigens dass 4x Supersampling mit Aniso spielbar in der U2 engine auf R300 oder NV30 (oder auch deren direkte Refreshes) waere. Fuellrate rutscht auf ein Viertel, und neben allem anderem kann Farben-Komprimierung auch nichts mehr machen fuer Supersampling; wenn dann nur sehr gering.

Ailuros
2003-03-20, 01:36:17
Originally posted by zeckensack
Der NV30 hat quasi 8 Pipes. Wir haben das vor kurzem mal gemessen :bäh:

Allerdings muß man unbedingt dazusagen, daß dies nur für Z/Stencil-Werte gilt. Man bekommt in der Tat nie mehr als 4 Farbwerte pro Takt aus dem Chip heraus, auch Textursampler zähle ich insgesamt exakt 4.

Leider hast Du recht. Dabei ist die Leistung auf NV31/4 in Doom3 alpha gar nicht mal so schlecht; was wohl die Theorie auch bestaetigt.

Quasar
2003-03-20, 01:45:09
Nur so als "Halb-Beweis":
http://home.arcor.de/quasat/3DC-Pics/nV-FX%20Overview.jpg

Ailuros
2003-03-20, 04:31:41
Sei nicht so gemein. Es handelt sich nur um einen Druckfehler.

Es haette Zixel Pipelines heissen sollen....:chainsaw:

PCGH_Thilo
2003-03-20, 09:44:24
Originally posted by nagus
btw, was mir an diesem sog. "prototyp" auffällt.... warum zum geier bracht das teil bei 250Mhz core und speicher, optimiertem 0,13µm fertigungsprozess eine kühlvorrichtung die 2(!) PCI-slots frisst?!

irgendwie kommt mir das spanisch vor :|


btw2, ein vergleich: Radeon 9500PRO und Radeon 9700.... wie hoch ist da der unterschied bei hohen AA und AF? vielleicht 50%? wie bitte soll eine NV30 mit 256bit (N35) und "echten" 8 pipelines mehr als 100% schneller sein als mit "nur" 128-bit interface???

wenn ihr mich fragt: alles nur NV-PR-BS.

nagus, prototypen laufen eigentlich nie mit voller taktfrequenz. deshalb heißen die so. daraus würde ich jetzt keine rückschlüsse auf was auch immer ziehen.

und was das speicherinterface angeht: nur weil beim r300 der übergang von 128 auf 256 bit vergleichsweise wenig bringt, muss das bei nvidia nicht auch so sein.

PCGH_Thilo
2003-03-20, 09:48:00
Originally posted by zeckensack
Der NV30 hat quasi 8 Pipes. Wir haben das vor kurzem mal gemessen :bäh:

Allerdings muß man unbedingt dazusagen, daß dies nur für Z/Stencil-Werte gilt. Man bekommt in der Tat nie mehr als 4 Farbwerte pro Takt aus dem Chip heraus, auch Textursampler zähle ich insgesamt exakt 4.

bei digit-life zeigte sich, dass der nv34 immer nur maximal 2 farbwerte pro takt in den speicher schreiben kann, der nv31 aber teilweise doch 4.

nvidia selbst sagt, dass nv30, 31 und 34 4 werte/clock color+z schreiben kann. color allein führen sie nicht auf ;-)

Muh-sagt-die-Kuh
2003-03-20, 09:50:07
Originally posted by Richthofen
Und der 3. Gedanke den ich schon oft angebracht habe. Wer kann 100% sagen, dass beim NV30 auf Grund des Zeitdrucks nicht diverse Dinge deaktiviert werden mussten weil sie nicht mehr zu debuggen waren.
Die Wahrscheinlichkeit wird für mich immer größer je mehr ich darüber nachdenke.Unwahrscheinlich, durch die Probleme mit dem Fertigungsprozess hatten sie mehr als genug Zeit fürs Debugging.

2B-Maverick
2003-03-20, 10:31:24
Originally posted by Quasar


Was haben Bush, das Kyro-Dokument und der nV30 mit der Relation des Verhältnisses der Pipelines von nV31 und nV34 zu tun???

Ist doch ganz einfach: Bush lügt, NVidia hat gelogen (NV30 = 8 Pipelines...SISCHER!!..), also glaub ich NV erst mal auch nicht das NV31/34 4 Pipes haben soll.

Pussycat
2003-03-20, 10:42:16
NV hat sich immer um die Anzahl von Pipes gedrückt.

Exxtreme
2003-03-20, 10:46:21
Originally posted by Pussycat
NV hat sich immer um die Anzahl von Pipes gedrückt.
Wundert mich aber auch nicht. Die meiste Zeit dürfte sich der NV30 wie ein 4x2-Design verhalten. Aber das wäre schlecht für's Marketing denn erstens hat ATi 8 Pipes und zweitens müsste sich NV den Vorwurf gefallen lassen, daß der NV30 doch eher ein NV25 mit Colorcompression und besseren Shadern ist.

robbitop
2003-03-20, 10:46:54
mhhh...ich sehe das weniger als nachteil, denn wie ich schon länger sagte kann man transistorunaufwendig ohne ganze Pipes zu duplizieren einfach die Einheiten erhöhen, die man benötigt. Genau das richtige IMHO.

Ich denke so schlecht ist das ganze nicht...aber man wird sehen...fakt ist, dass NV diesmal VIEL zeit für Treiberentwicklung hat (1. baut auf NV30 auf und 2. hat man lauffähige Chips und 3 Monate Zeit). Auch die Yields werden bis zum Sommer besser und dann das neue thermische Design.
Ich denke beim Speed haben sie vieleicht ein wenig übertrieben...naja neues FSAA/AF dürfte man IMHO erst zum NV40 erwarten, da zu grosser eingriff in den Chip für einen Refresh. Aber Die PS und TMU Leistung werden wesendlich effektiver...

we will see...

robbitop
2003-03-20, 10:49:00
@Exxtreme das mit dem advanced NV25 stimmt so nur in der Wirkung, nicht in der Ursache, aber ich denke das weisst du ;-) .

Denn intern haben nur wenige Chipteile (die Pipe sehr wenig auch wenn die anzahl ähnlich sein soll) noch Ähnlichkeit mit dem NV2x.
Die Pipearchitektur ist flexibel aber im NV30 nicht wie es sein soll....

Exxtreme
2003-03-20, 10:55:46
Originally posted by robbitop
@Exxtreme das mit dem advanced NV25 stimmt so nur in der Wirkung, nicht in der Ursache, aber ich denke das weisst du ;-) .
Naja, wenn ich mir mal anschaue, was sich bei beiden Chips alles gleich verhält, dann gehe ich dann doch eher von einer Evolution aus. NV hatte die Möglichkeit den Chip besser zu machen.
Originally posted by robbitop
Denn intern haben nur wenige Chipteile (die Pipe sehr wenig auch wenn die anzahl ähnlich sein soll) noch Ähnlichkeit mit dem NV2x.
Die Pipearchitektur ist flexibel aber im NV30 nicht wie es sein soll....
Naja, da keiner hier den genauen Aufbau der Pipes kennt, kann man diese Aussage IMHO nicht so einfach treffen.

egdusp
2003-03-20, 11:57:52
Originally posted by nagus
jetzt mal Radeon 9700 benchmarks:

also: karte läuft auf 250/250Mhz. quake3 hab ich NEU istalliert, ohne patch, sound OFF, auflösung 1600x1200 4xFSAA

8xQualityAF

HQ++ : 72.5 (275/275: 80.1 | 300/300: 87 | 325/325: 94 | 350/350: 101)
HQ: 82.1 fps


8xPerformance AF

HQ++: 77,8 fps
HQ: 82,7 fps (300/300: 99.1 | 325/325: 108)



HQ++ :default HIGH setting + alle einstallungen im grafik-menü auf max... triliner, textures, geometry etc..

HQ: quality button einfach auf "High Quality"

Also hat der NV35 eine bessere Pro Mhz Leistung als der R300 (R350). OK, nur von einem Spiel darauf zu schließen ist etwas gewagt, das gebe ich zu, aber die Leistungsseigerung ist doch beachtlich.
Dann müßte NV evtl. auch nur bis 400 Mhz takten, um den R350 zu überholen.

Die Frage ist jetzt noch, ob sie auch die Bildqualität unter AA und AF der von ATI angepaßt haben.

mfg
egdusp

Crushinator
2003-03-20, 18:27:49
Originally posted by nagus
jetzt mal Radeon 9700 benchmarks:

also: karte läuft auf 250/250Mhz. quake3 hab ich NEU istalliert, ohne patch, sound OFF, auflösung 1600x1200 4xFSAA 8xQualityAF
...

Du müßtest noch Einen machen: 250/500 :D bzw. mit dem Speicher soweit wie möglich nach oben.

aths
2003-03-20, 19:40:53
Richtig ist, dass Supersampling bei NV, da OG-Muster, wenig Sinn macht. Übrigens habe ich Unwinder heute informiert, dass es neue AA-Modi in OpenGL gibt (aTuner wird auch in Kürze erweitert.)

Ich bezweifle uebrigens dass 4x Supersampling mit Aniso spielbar in der U2 engine auf R300 oder NV30 (oder auch deren direkte Refreshes) waere. Fuellrate rutscht auf ein Viertel, und neben allem anderem kann Farben-Komprimierung auch nichts mehr machen fuer Supersampling; wenn dann nur sehr gering. Color Compression funktioniert nur im Zusammenspiel mit MSAA. Es handelt sich, wie beim R3x0, um eine Pseudo-Komprimierung.

Demirug
2003-03-20, 19:49:29
Originally posted by aths
Color Compression funktioniert nur im Zusammenspiel mit MSAA. Es handelt sich, wie beim R3x0, um eine Pseudo-Komprimierung.

Möglicherweise hat NVIDIA ja gerade hier noch ein bischen gefeilt das man auch (unter bestimten umständen) noch eine Kompression ereicht wenn nicht alle Samples indentisch sind.

aths
2003-03-20, 20:04:28
Originally posted by Demirug
Möglicherweise hat NVIDIA ja gerade hier noch ein bischen gefeilt das man auch (unter bestimten umständen) noch eine Kompression ereicht wenn nicht alle Samples indentisch sind. Das wäre möglich, wird afaik aber nicht umgesetzt.

nagus
2003-03-20, 20:13:46
Originally posted by Eusti
So wie ich die ursprüngliche News gelesen habe, liefen beide Karten auf vollem Ram-Takt und nur halbiertem Coretakt, also auf 250/500(1000DDR). Was kommt den bei der Radeon bei 250/500 raus?

Radeon 9700 250Mhz Core und 390Mhz RAM (780DDR) (3.2 Catalyst)

8xQualityAF
HQ++ : 82.3
default HQ: 95,6


8xPerformance AF
HQ++: 89,9
default HQ: 97,3

-----------------

Radeon 9700 420Mhz Core und 390Mhz RAM (780DDR) (3.2 Catalyst)

8xQualityAF
HQ++ : 117

8xPerformance AF
default HQ: 133,1

Eusti
2003-03-20, 20:25:18
Originally posted by nagus Radeon 9700 250Mhz Core und 250Mhz RAM (500DDR) (3.2 Catalyst)

8xQualityAF
HQ++ : 72.5 fps
HQ: 82.1 fps


8xPerformance AF
HQ++: 77,8 fps
HQ: 82,7 fpsOriginally posted by nagus Radeon 9700 250Mhz Core und 390Mhz RAM (780DDR) (3.2 Catalyst)

8xQualityAF
HQ++ : 82.3
HQ: 95,6


8xPerformance AF
HQ++: 89,9
HQ: 97,3
Speichertakt: +56%
QualityAF: +15%
Perf.AF: +17%

Immerhin liegt auch bei einer 256bit breiten Radeon noch eine Bandbreitenlimitierung vor. Man sieht aber schon deutlich, das mehr als paraleller Speichertakt bei 256bit nicht sinvoll erscheint.

robbitop
2003-03-20, 20:45:04
@Exxtreme
ich kann es zwar nicht mit Gewissheit sagen aber so wie es aussieht ist es eine Revolution ;-P ...die leider ein Rohrkrepierer war wie die Parhelia. Naja aber vieleicht reisst NV35 was und wird der Chip, der NV30 werden sollte...

Ailuros
2003-03-21, 02:38:24
Übrigens habe ich Unwinder heute informiert, dass es neue AA-Modi in OpenGL gibt (aTuner wird auch in Kürze erweitert.)

Die User-Bande ist dankbar ;D

Darf ich fragen wass fuer Modi? (bitte keine hybriden OGMS/OGSS Modi; die machen weniger Sinn als stinknormales 4xOGMS).

Crazytype
2003-03-22, 21:56:12
Wer bitte sehr kauft sich ne 120Watt GPU? (nach NVDIA INgenieuren)
ist wahrscheinlich eher nv40/45 gemeint aber trotzdem würde ich sowas nie kaufen.

StefanV
2003-03-22, 22:05:50
Originally posted by Ailuros

Darf ich fragen wass fuer Modi? (bitte keine hybriden OGMS/OGSS Modi; die machen weniger Sinn als stinknormales 4xOGMS).

hm, k/a was 8xS genau ist, 2xRG + 4x OG ??

PP
2003-03-22, 23:52:59
Hat zwar nichts mit den NV35 Spezifikationen zu tun, aber laut digit-life (http://www.digit-life.com/articles2/radeon/r9800pro.html) soll der NV35 ende April kommen.

"It doesn't make sense for owners of RADEON 9700 PRO to sell their cards to buy 9800 PRO. But those who want a top High-End accelerator and who are thinking about 9700 PRO had better wait for RADEON 9800 PRO. Reportedly, such cards will get to the shelves not earlier than the second half of April. The accelerated version of GeForce FX 5800 codenamed NV35 should appear on the market at the same time. That is why it's not clear which models RADEON 9800 PRO is going to stand against: NV30 or NV35. What is going to happen with RADEON 9700 PRO? I wish 9700 and 9700 PRO remained on the market but stepped down the price ladder ($200-250); but as you know, new RADEON 9600(PRO) are positioned for $170-200, and speedier RADEON 9700 might spoil its sales. Besides, R300 is not much cheaper than R350, and it's hardly beneficial for ATI to cut prices for R300. I suppose RADEON 9700/PRO will entirely be replaced with RADEON 9800/PRO."

Kann das sein? Kann den die NV30 schon in Europa gekauft werden?

Crazytype
2003-03-23, 00:26:06
Ich würde sagen höchstens vorgestellt werden, bis zum richtigen launch kann es dann also etwas dauern ;)

robbitop
2003-03-23, 02:10:44
höchstens der Paperlaunch...btw ich denke das teil wid auch FX heissen mit ner höheren nummer um sich die anderen Karten nicht zu versauen.

Btw schonmal gesehen, was der NV31 für eine hohe pro Mhzt leistung für die halbierung hat? NV30vs NV31 bei gleichem takt sind fast genausoschnell.
Man multipliziere den NV31x2 und dann noch mit dem höheren Takt und da ist der NV35...oder?

Endorphine
2003-03-23, 14:57:30
Originally posted by robbitop
Btw schonmal gesehen, was der NV31 für eine hohe pro Mhzt leistung für die halbierung hat? NV30vs NV31 bei gleichem takt sind fast genausoschnell.
Man multipliziere den NV31x2 und dann noch mit dem höheren Takt und da ist der NV35...oder? Du vergisst die sehr wahrscheinliche 256-Bit breite Speicheranbindung des NV35. Ich glaube auch fest daran, dass nVidia etwas an den Renderingpipelines drehen wird, um die höhere Speicherbandbreite auch mit entsprechender Füllrate gebührend auszulasten.

LovesuckZ
2003-03-23, 15:26:46
Originally posted by robbitop
Btw schonmal gesehen, was der NV31 für eine hohe pro Mhzt leistung für die halbierung hat? NV30vs NV31 bei gleichem takt sind fast genausoschnell.


eher nicht. Denn der NV31 Ultra kann ohne AA und AF nichtmal gegen eine TI4200 bestehen. Der NV30 ist mit gleichen Takt ca. 10% schneller als ne GF4TI. Wenn der NV31 nun auf 275/275 gegen die TI4400 antreten wuerde, waere sie wohl noch deutlicher abgeschlagen.

Eusti
2003-03-23, 16:33:32
Originally posted by LovesuckZ

eher nicht. Denn der NV31 Ultra kann ohne AA und AF nichtmal gegen eine TI4200 bestehen. Der NV30 ist mit gleichen Takt ca. 10% schneller als ne GF4TI. Wenn der NV31 nun auf 275/275 gegen die TI4400 antreten wuerde, waere sie wohl noch deutlicher abgeschlagen. Tschuldigung, für das was jetzt kommt.

Aber es geht mir tierisch auf den Sack, da du immer wieder Grafikkartenleistung OHNE AA/AF vergleichst. Nur Idioten vergleichen die Leistung moderner Grafikkarten OHNE AA/AF. AA/AF sind MEGA-Coole-Features. Niemand, der sich Grafikkarten im 200-Euro-Bereich kauft wird dieses ohne Blick auf AA/AF machen. In jedem Vergleich von Grafikkarten sollte IMMER AA/AF mit einbezogen werden. Alles andere ist totaler Schwachsinn. Da hätten wir schon mit der GF2 aufhören können zu entwickeln.

Also, las bitte in Zukunft die dämlichen Vergleiche OHNE AA/AF!

LovesuckZ
2003-03-23, 17:03:25
Originally posted by Eusti
Aber es geht mir tierisch auf den Sack, da du immer wieder Grafikkartenleistung OHNE AA/AF vergleichst.

Was hat die Pro-MHz - Leistung mit AA und AF zu tun?
Da du es aber bist: Auch wenn AA und AF dazukommen sollten, haette ein NV31 keine bessere Pro-Mhz-Leistung, wie auch, da sie nur über 4 Pipes verfuegt, statt 8...

StefanV
2003-03-23, 18:01:05
Originally posted by Eusti
Tschuldigung, für das was jetzt kommt.

Aber es geht mir tierisch auf den Sack, da du immer wieder Grafikkartenleistung OHNE AA/AF vergleichst. Nur Idioten vergleichen die Leistung moderner Grafikkarten OHNE AA/AF. AA/AF sind MEGA-Coole-Features. Niemand, der sich Grafikkarten im 200-Euro-Bereich kauft wird dieses ohne Blick auf AA/AF machen. In jedem Vergleich von Grafikkarten sollte IMMER AA/AF mit einbezogen werden. Alles andere ist totaler Schwachsinn. Da hätten wir schon mit der GF2 aufhören können zu entwickeln.

Also, las bitte in Zukunft die dämlichen Vergleiche OHNE AA/AF!

mir auch, liegt aber wohl daran, daß ATI bei FSAA und AF einen Vorteil hat...

FSAA ist für mich enorm wichtig und das schon seit der Voodoo5, damals hab ich aber darauf verzichtet, weils zur damaligen Zeit zu lahm war und erst ab der GF3 nutzbar war (für 'ne weile) und erst ab der R300 machts wirklich Sinn...

StefanV
2003-03-23, 18:02:33
Originally posted by LovesuckZ

Was hat die Pro-MHz - Leistung mit AA und AF zu tun?
Da du es aber bist: Auch wenn AA und AF dazukommen sollten, haette ein NV31 keine bessere Pro-Mhz-Leistung, wie auch, da sie nur über 4 Pipes verfuegt, statt 8...

Kannst du hellsehen oder woher weißt du das ??

Weder das eine (NV31 schneller) noch das andere (RV350 schneller) wissen wir momentan, da es noch nicht wirklich Testsamples beider gibt.

LovesuckZ
2003-03-23, 18:04:58
Originally posted by Stefan Payne
Kannst du hellsehen oder woher weißt du das ??


???

Hast du die letzten paar Wochen verschlafen?

Razor
2003-03-23, 19:13:30
Originally posted by Stefan Payne

mir auch, liegt aber wohl daran, daß ATI bei FSAA und AF einen Vorteil hat...

FSAA ist für mich enorm wichtig <snip> ...
Weswegen Du ja jetzt auch 2 (?) gf3's im den Rechnern stecken hast ?
???

Soooo wichtig scheit's Dir dann ja doch nicht zu sein...
:D

Razor

StefanV
2003-03-23, 19:17:04
Originally posted by Razor

Weswegen Du ja jetzt auch 2 (?) gf3's im den Rechnern stecken hast ?
???

Soooo wichtig scheit's Dir dann ja doch nicht zu sein...
:D

Razor

1. nein, nur eine, die andere hab ich weiter verkloppt ;)
Hab ja nur einen 'Game PC'...

2. wie kommst du darauf ??
Nur weil ich 'nur' eine GF3 hab ??
Momentan fehlt mir noch das Geld für 'ne 9500 PRO/9700...

Pussycat
2003-03-23, 20:10:34
Hattest du nicht eine gf4ti?? Ich kann's gar nicht verfolgen mit dir... Wieder durchgebrennt?

StefanV
2003-03-23, 20:11:43
Originally posted by Pussycat
Hattest du nicht eine gf4ti?? Ich kann's gar nicht verfolgen mit dir... Wieder durchgebrennt?

1. ja, hatte ich.

2. nein, die lebt noch, werkelt bei Thowe im Rechner (hoffe ich)...

Ailuros
2003-03-24, 14:23:22
Originally posted by Stefan Payne


hm, k/a was 8xS genau ist, 2xRG + 4x OG ??

Ja.

http://www.3dcenter.de/artikel/2002/11-24_b.php

Ailuros
2003-03-24, 14:32:09
FSAA ist für mich enorm wichtig und das schon seit der Voodoo5, damals hab ich aber darauf verzichtet, weils zur damaligen Zeit zu lahm war und erst ab der GF3 nutzbar war (für 'ne weile) und erst ab der R300 machts wirklich Sinn...

2xRGMS + 2xAF muesste immer noch spielbar sein auf der NV20. Die Kombination ist ja sowieso so nah wie moeglich an 2xRGSS im guten Ganzen.

Nach diversen Behauptungen:

2001: jetzt endlich macht FSAA Sinn auf NV20...
2002: nein jetzt macht FSAA Sinn auf NV25...
2003: nein nein nein; FSAA macht jetzt Sinn auf R300....
2004: alles falsch; FSAA macht nur wahren Sinn auf R400...

Sieht da irgendwas verdaechtig aus? Bei ALLEN Karten macht FSAA nur fuer eine bestimmte Zeitspanne Sinn.

robbitop
2003-03-24, 15:49:06
aber die Zeiten des Sinns werden immer länger und FSAA wird immer mehr standard. Der Verlust von no AA zu AA schrumpft immer weiter und höhere AA Modis beginnen nutzbarer zu werden.
2xAA kann man in jedem Game flüssig und SMOOTH selbst in schnellen games nutzen. Und 4x sind wir auch bald soweit. Denn doret gibt es noch ausnahmen. Ist mit den Auflösungen das selbe. Die Benches 98 waren immer 8x6 die referenz. Dann 10x8 und jetz 12x10.

StefanV
2003-03-24, 17:35:55
Originally posted by Ailuros
Ja.

http://www.3dcenter.de/artikel/2002/11-24_b.php
hey, da hab ich ja richtig geraten *eg*:naughty:

StefanV
2003-03-24, 17:38:57
Originally posted by Ailuros


2xRGMS + 2xAF muesste immer noch spielbar sein auf der NV20. Die Kombination ist ja sowieso so nah wie moeglich an 2xRGSS im guten Ganzen.

Nach diversen Behauptungen:

2001: jetzt endlich macht FSAA Sinn auf NV20...
2002: nein jetzt macht FSAA Sinn auf NV25...
2003: nein nein nein; FSAA macht jetzt Sinn auf R300....
2004: alles falsch; FSAA macht nur wahren Sinn auf R400...

Sieht da irgendwas verdaechtig aus? Bei ALLEN Karten macht FSAA nur fuer eine bestimmte Zeitspanne Sinn.

Natürlich, da die Performance höher wird, die Spiele benutzen mehr Details usw...

Irgendwann wird auch die R300 für FSAA zu langsam sein, momentan ist sie es nicht...

Irgendwann wirds sich auch nicht mehr lohnen FSAA abzuschalten, da der Performanceverlust immer geringer werden wird...

aths
2003-03-24, 18:11:10
Originally posted by Stefan Payne
Irgendwann wird auch die R300 für FSAA zu langsam sein, momentan ist sie es nicht...R300 wird für FSAA nie zu langsam sein. Angenommen, sie verballert im ungünstigen Fall 20% Leistung fürs 2x FSAA. Dann nimmt man lieber noch FSAA als den Rohmodus. Wenn man ein Spiel nicht mit FSAA spielen kann, lohnt es nicht, es dann ohne zu spielen.

ow
2003-03-24, 18:16:59
Ack@aths

Für die GF3/4 sehe ich das übrigens ähnlich. Entweder läuft´s gut mit 2xAA oder man kann sich auch das Abschalten von AA sparen und sich gleich einen schnellere Karte kaufen.

SKYNET
2003-03-25, 00:10:01
Originally posted by Stefan Payne


Kannst du hellsehen oder woher weißt du das ??

Weder das eine (NV31 schneller) noch das andere (RV350 schneller) wissen wir momentan, da es noch nicht wirklich Testsamples beider gibt.

die 9800pro gibbet schon zukaufen :P

Ailuros
2003-03-25, 00:49:13
Originally posted by ow
Ack@aths

Für die GF3/4 sehe ich das übrigens ähnlich. Entweder läuft´s gut mit 2xAA oder man kann sich auch das Abschalten von AA sparen und sich gleich einen schnellere Karte kaufen.

In der Richtung war in so etwa mein voriger Post.

aths,

Ich sehe keinen Grund warum die R300 oder irgend eine andere High-end Karte, eine laengere Lebenszeit haben sollte als in der Vergangenheit.

Wenn heute z.B. fuer jemand eine GF3 nicht mehr genug ist, dann wird wohl auch die R300 in 2005 auch nicht viel besser aussehen.

Ailuros
2003-03-25, 00:56:27
Irgendwann wirds sich auch nicht mehr lohnen FSAA abzuschalten, da der Performanceverlust immer geringer werden wird...

Selbst dann wird der Verbraucher VGA's mit der gleichen Frequenz aufruesten; das hab ich damit gemeint.

Ausserdem gibt es noch so einige IQ improving Features die noch dazukoemmen koennten, und die heutige spielbaren samples (ob AA oder AF) werden sich auch mit der Zeit erhoehen.

Lost Prophet
2003-03-25, 18:56:03
Originally posted by SKYNET


die 9800pro gibbet schon zukaufen :P


wo bitte ???

cya axel

AlfredENeumann
2003-03-25, 19:28:56
in den USA. Siehe News www.hartware.de von heute

[ncp]EasyChiller
2003-03-25, 20:04:25
die sind da aber och erst nur bei den online-shops gelistet und NOCH NICHT VERFÜGBAR! ;D

StefanV
2003-03-25, 20:14:41
Originally posted by SKYNET
die 9800pro gibbet schon zukaufen :P

Glaub ich dir gern, nur gings in meinem Post nicht um die R350 sondern die RV350 (aka Radeon 9600 (PRO))...

Richthofen
2003-03-26, 16:16:04
da dieser Thread über den NV35 handelt:


Bei NVews, Beyond3D und anderen ist zu lesen, dass Nvidia einen Vertrag mit IBM über die Fertigung von Chips auf 0.13er Prozess und 300mm Wafern in IBM FABs abgeschlossen hat.
Es ist auch herauszuhören, dass es sich hierbei um einen Nachfolgechip des NV30 handelt. Kann also wahrscheinlich nur der NV35 sein. Die mittleren und niedrigeren Segmente werden nach wie vor bei TSMC gefertigt werden nur die High End Produkte wohl vorerst nicht mehr. Der NV30 aka GF FX 5800 Ultra dürfte vorerst der letzte sein.
Dieses Marktsegment schein nun bei IBM in Auftrag gegeben zu werden.

Henrik
2003-03-26, 16:41:37
hat nvidia nicht auch mal gesagt der fx ultra werde 3.8x schneller sein als der ti 4600 ? :|

ow
2003-03-26, 16:45:06
Originally posted by _3dfx_rulez
hat nvidia nicht auch mal gesagt der fx ultra werde 3.8x schneller sein als der ti 4600 ? :|


nicht dass ich wuesste...

aths
2003-03-26, 17:37:00
Originally posted by Ailuros
Ich sehe keinen Grund warum die R300 oder irgend eine andere High-end Karte, eine laengere Lebenszeit haben sollte als in der Vergangenheit.

Wenn heute z.B. fuer jemand eine GF3 nicht mehr genug ist, dann wird wohl auch die R300 in 2005 auch nicht viel besser aussehen. Es ging mir um die "Lebensdauer" des AA-Algos. Das FSAA des R300s ist kaum verbesserbar. Ein solcher Algorithmus wird immer genutzt, solange der R300 eingesetzt wird. Wenn was abläuft ist das die Zeit des R300, nicht sein Anti-Aliasing.

Ailuros
2003-03-27, 05:23:12
Ich sehe trotzdem keinen Unterschied zu GF3/2xAA im Gegensatz.

aths
2003-03-27, 07:59:11
Originally posted by Ailuros
Ich sehe trotzdem keinen Unterschied zu GF3/2xAA im Gegensatz. GF3 verliert bei 2x FSAA afaik >40%. Ohne AA zu spielen bringt einen ziemlichen Boost, sofern die Graka limitiert. Ti 4600 verliert unter übelsten Umständen 30%. Das ist imo schon ein Streitfall, 30% sind kein Pappenstil.

ow
2003-03-27, 08:33:49
Die 30% der GF4 halte ich fuer etwas zu hoch gegriffen. Die verlier ich nicht mal in synthetischen Fillrate-Tests wie archmark.

zeckensack
2003-03-27, 08:43:11
Originally posted by ow
Die 30% der GF4 halte ich fuer etwas zu hoch gegriffen. Die verlier ich nicht mal in synthetischen Fillrate-Tests wie archmark. 'Nicht mal' ist gut :D

Was AM macht, ist optimal burstbar und komprimierbar, keine Schnittkanten, kein garnichts. Ich würde sagen was du da mißt ist das Optimum für AA jeder Art.

Von einer Parhelia zB erwarte ich ~überhaupt keinen Verlust.

ow
2003-03-27, 09:16:32
Originally posted by zeckensack
'Nicht mal' ist gut :D

Was AM macht, ist optimal burstbar und komprimierbar, keine Schnittkanten, kein garnichts. Ich würde sagen was du da mißt ist das Optimum für AA jeder Art.

Von einer Parhelia zB erwarte ich ~überhaupt keinen Verlust.


???

Ich wurde sagen, ich messe damit den Worstcase-Fall, weil MSAA ja praktisch nur Fillrate braucht. Der mit dem archmark gemessene Abfall von etwa 25% ist das Maximum, was ich bei 2xAA verliere. Im 3DM2001 sind es keine 15%.

zeckensack
2003-03-27, 09:23:30
Originally posted by ow



???

Ich wurde sagen, ich messe damit den Worstcase-Fall, weil MSAA ja praktisch nur Fillrate braucht.Bandbreite. Füllrate war Supersampling ;)
Der mit dem archmark gemessene Abfall von etwa 25% ist das Maximum, was ich bei 2xAA verliere. Im 3DM2001 sind es keine 15%. Schleichende CPU-Limitierung? *eg*

Oder meinst du den 'Füllraten'-Test von 3DM?

ow
2003-03-27, 09:28:58
Originally posted by zeckensack
Bandbreite. Füllrate war Supersampling ;)
Schleichende CPU-Limitierung? *eg*

Oder meinst du den 'Füllraten'-Test von 3DM?


Ja, ich meinte natuerlich Bandbreite, insofern hast du wohl recht.

CPU-Limitierung vermutlich ja, mein XP1700 wird die GF4 nicht komplett auslasten im 3DM2001 default.

Ailuros
2003-03-27, 16:30:38
Originally posted by aths
GF3 verliert bei 2x FSAA afaik >40%. Ohne AA zu spielen bringt einen ziemlichen Boost, sofern die Graka limitiert. Ti 4600 verliert unter übelsten Umständen 30%. Das ist imo schon ein Streitfall, 30% sind kein Pappenstil.

Uebelste Umstaende uebersetzt sich dann wohl in Situationen wo sowieso die Faehigkeiten der Hartware ueberwaeltigt werden.

Beim 3DCenter dx8 Graphik-shootout (der auch nicht so aktuell ist was Spiele betrifft) sehe ich fuer 2xAA/4xAF einen Extrem-Fall bei Aqua-NOT, wobei aber alle GF's um etwa das gleiche Prozentual verlieren. Valley of the Jaguar ist CPU bound in SS:SE.

In Elephant Atrium/SS:SE/1024x768 liegt bei mir der Unterschied der GF4Ti bei <-10% von noAA auf 2xAA; wobei IMHO die "low sustained" Werte genauso wichtig sind, in diesem Fall <-2%. (gleiche settings nur mit 2xAF: average= -20%, low sustained= -8%)

Der Fuellraten Unterschied bei 3dquark2k1/Multitexturing liegt bei quasi -14%.

Dabei sind die Fuellraten-limitierten Spiele/Anwendungen die breiteste Minderwertigkeit.

Ich hab ernsthafte Zweifel dass eine GF3 heute mit einem starken Prozessor UT2003 nicht mit 2xAA/2xAF in 1024x768x32 spielen kann. Spekulation:

Botmatch: ~60fps
Botmatch 2xAA/2xAF: ~30-35fps

Wobei benchmark.exe sowieso die maximalen Werte einsetzt. Nach zwei Jahren Lebenszeit haette ich auch nichts besseres erwartet.

OT: ich kann die Befehle fuer Fuellraten-Messungen in SS:SE nicht mehr finden. Kann jemand helfen?

ow
2003-03-27, 16:36:46
Originally posted by Ailuros

OT: ich kann die Befehle fuer Fuellraten-Messungen in SS:SE nicht mehr finden. Kann jemand helfen?


war das nicht sowas wie "benchmark()"

Ailuros
2003-03-28, 02:50:08
Originally posted by ow



war das nicht sowas wie "benchmark()"

Aechz warum ich immer nur das einfache Zeug vergesse ist mir ein Raetsel. Danke :)

Richthofen
2003-03-28, 21:45:56
wollte hier nebenbei mal erwähnen, dass der gute Anand die Benchmarkwerte von der Chip für den NV35 bestätigt hat indirekt in seinem Forum :)
Also wahrscheinlich Faktor 2 zur FX5800 Ultra in entsprechend Performance intensiven Benchmarkszenarien.
Also in Default wird sich nicht so viel ergeben aber in AA und AF bzw. hohen Auflösungen wirds wohl abgehen.

robbitop
2003-03-28, 22:11:57
Ausblick auf den NV35 (http://www.seijin.de/index2.php?page=Artikel/nv35speks.php)

nagus
2003-03-29, 15:37:31
Originally posted by robbitop
Ausblick auf den NV35 (http://www.seijin.de/index2.php?page=Artikel/nv35speks.php)


die werte der "simulierte NV35" finde ich etwas zu gut. man sollte nicht vergessen, dass nvidias treiber doch sehr stark auf quake3 optimiert sind (ist eines der wenigen spiele, bei denen sich die NV30 ULTRA halbwegs von einer 9700PRO absetzen kann). außerdem weis kein mensch, welche qualitätseinstellungen verwendet wurde.


btw, die auf der CeBit vorgeführte NV35 lief übrigends nicht auf 250/250 sonder 250/500 Mhz.

meine "simulierte" R300 250/500 Mhz (real: 325/760) schafft hier bei Q3 1600x1200 4xAA+8XAF (trilinear und quality) ~ 103 frames.

>> das pro/Mhz verhältnis dürfte als ~ auf dem niveau der R300 sein. (NV35 ~= R300 bei gleicher taktfrequenz).

robbitop
2003-03-29, 15:49:02
der bench ist UT2003 Flyby nit Quake3 nagus ;-)

und die 500Mhz DDR sind 250 physikalische Mhz.
Sowas gewöhnen wir uns gar nich erst an ;-)


oder meinst du 500mhz physikalisch?
ich habe von ersterm gehört...


edit:
vergiss nicht: es war ein simulierter Bench.
ich sage sowieso immer, der NV3x ist ein technologisch interessanter ansatz für die zukunft. Noch lohnt sich das wie man sieht nicht, aber das ändert sich sicher ;)

Wobei ich das 4xS doch sehr liebe.

Jedoch ist nicht nur pro-Mhz leistung wichtig, genauso wie pure technologie. Eine Karte ist so zu testen, wie sie ausgeliefert wird. Denn gewisse Architekturen kommen eben mit hohen Taktfrequenzten her für ihre Leistung (siehe P4) und das ist kein falscher weg, andere mit pro Mhz leistung (AthlonXP). Und eine knapp 40%ige Verbesserung bei einem Refresh ist ein guter schritt.

ATi hat dies clever gelöst, ohne F&E Ressourcen nutzen zu müssen.
Einfach per treiber leistung freigeschalten und chips selektiert IMHO.
Natürlich höher getaktet dann.

nagus
2003-03-29, 15:54:01
Originally posted by robbitop
der bench ist UT2003 Flyby nit Quake3 nagus ;-)

und die 500Mhz DDR sind 250 physikalische Mhz.
Sowas gewöhnen wir uns gar nich erst an ;-)


oder meinst du 500mhz physikalisch?
ich habe von ersterm gehört...


ich meine 500mhz physikalisch

robbitop
2003-03-29, 15:55:27
aha nagut, hört sich auch ziemlich logisch an, danke nagus ;-)

egdusp
2003-03-29, 18:51:05
Originally posted by nagus



die werte der "simulierte NV35" finde ich etwas zu gut. man sollte nicht vergessen, dass nvidias treiber doch sehr stark auf quake3 optimiert sind (ist eines der wenigen spiele, bei denen sich die NV30 ULTRA halbwegs von einer 9700PRO absetzen kann). außerdem weis kein mensch, welche qualitätseinstellungen verwendet wurde.

Sofern schon der NV30 sehr stark auf Q3 optimiert wäre, wäre die nochmalige Steigerung der Pro Mhz Leistung des NV35 eher ein Beweis für die überragende Leistung und nicht umgekehrt. Ich verstehe deine Argumentation da nicht.
Hätten sie ein Spiel genommen, in dem der NV30 schlecht ist, z.B. Comanche, und da eine über 100% Leistungssteigerung erreicht, dann würde ich dir zustimmen, dass die Leistungssteigerung wohl nur in speziellen Fällen so hoch ausfällt.

Originally posted by nagus
btw, die auf der CeBit vorgeführte NV35 lief übrigends nicht auf 250/250 sonder 250/500 Mhz.

meine "simulierte" R300 250/500 Mhz (real: 325/760) schafft hier bei Q3 1600x1200 4xAA+8XAF (trilinear und quality) ~ 103 frames.

>> das pro/Mhz verhältnis dürfte als ~ auf dem niveau der R300 sein. (NV35 ~= R300 bei gleicher taktfrequenz).

Was den physikalischen Takt des NV35 Speicher angeht gibt es keine eindeutigen Informationen, beide Interpretationsweisen sind möglich.
Wenn der NV30 physikalisch 500 Mhz Ram gehabt hätte (=> nicht bandbreitenlimitiert) ist die Leistung des NV35 noch höher einzuschätzen, da der NV30 in Spielen wohl öfter an sein Bandbreitenlimit stoßen sollte.

An ein pro Mhz Verhältnis wie der R300 glaube ich auch, entscheidend werden die AA und AF Implementationen und die PS Leistung sein.

mfg
egdusp

mapel110
2003-03-31, 05:54:29
anand hat die gerüchte von chip.de bestätigt.
ddr1 500 mhz :o

sorry, wenns schon jemand hierein gepostet hat, aba null bock 7 seiten durchzuwelzen ;)

Richthofen
2003-03-31, 11:33:55
jo ich wars du Schlingel :)

strickjackenscheitel
2003-03-31, 14:55:32
ehm mal ein gedanke. wie schauts denn aus mit einem deferred renderer? koennte der nv35 nicht eine art von kyro+ t&l+ shader sein?

sowas ging doch mal die runde, bevor der nv30 papergelaunched wurde.
das wuerde zumindest erklaeren, warum das ding FX heisst(fx=3dfx und deren naechstes projekt waere ein deferredrenderer gewesen), warum wir bei chip solche benchmarkergebnisse sehen und warum nv eine neue treiberreihe startet(50.00 soll ja schon in arbeit sein.)

also erfreuen wuerde es mich allemal, auch wenn ich nicht weiss, ob man das mit gerade mal 5mill transistoren gebacken bekommt.

... war ja nur mal ein gedanke ;)

Demirug
2003-03-31, 15:11:37
Originally posted by strickjackenscheitel
ehm mal ein gedanke. wie schauts denn aus mit einem deferred renderer? koennte der nv35 nicht eine art von kyro+ t&l+ shader sein?

sowas ging doch mal die runde, bevor der nv30 papergelaunched wurde.
das wuerde zumindest erklaeren, warum das ding FX heisst(fx=3dfx und deren naechstes projekt waere ein deferredrenderer gewesen), warum wir bei chip solche benchmarkergebnisse sehen und warum nv eine neue treiberreihe startet(50.00 soll ja schon in arbeit sein.)

also erfreuen wuerde es mich allemal, auch wenn ich nicht weiss, ob man das mit gerade mal 5mill transistoren gebacken bekommt.

... war ja nur mal ein gedanke ;)

Sehr unwahrscheinlich. Aus einem IMR macht man nicht mal schnell einen deferred renderer. Sowas erfordert ein komplett neues Design. Ergo frühstens mit NV40 wenn überhaupt.

[ncp]EasyChiller
2003-03-31, 15:12:24
wenn der NV35 wirklich eine Abkehr vom bisherigen Konzept darstellen sollte (was ich nicht glaube), dann wären zumindest völlige eigene Treiber für die Karten notwendig (also keine "Abwärtskompatiblität" der Treiber mehr)!

Ich glaube es in sofern nicht, da das Anfangsdatum, als begonnen wurde am NV35 zu arbeiten noch zuweit in der Vergangenheit liegt, als das sie da schon nen DR geplant haben könnten. (nur meine Vermutung, nichts weiter) ;D
Und da das NV-30-Design wie nun deffinitiv bewiesen ist lange nicht ausgereizt ist, wäre es überhaupt nicht NV-like kein überarbeitetes Refresh zu bringen! :D (und was zwischen NV30 und NV35 ist nicht geplant, folglich muss der NV35 nen NV30-Refresh sein!)

edit: och nö - ich schreibe zu lahm! :bäh:

Demirug
2003-03-31, 15:20:18
Originally posted by [ncp]EasyChiller
wenn der NV35 wirklich eine Abkehr vom bisherigen Konzept darstellen sollte (was ich nicht glaube), dann wären zumindest völlige eigene Treiber für die Karten notwendig (also keine "Abwärtskompatiblität" der Treiber mehr)!

Selbst bei einem deferred renderer könnte man noch grosse Teile des Treibers weiterverwenden. Im Zweifel wird der Detonator eben noch ein bischen grösser.

Ailuros
2003-03-31, 16:12:40
Die Wahrheit ist wohl dass kleine oder groessere Teile von vorigem 3dfx/Gigapixel Talent/Technologie in Bereichen benutzt wurde wo man es anwenden konnte und es auch einen Unterschied machen wuerde.

Dabei ist es nicht notwendig auf eine volle TBDR Architektur umzuspringen, es reicht oefters wenn man z.B. Gigapixel's Tiling/Caching oder Speicher Optimierende Ideen einfach weiterentwickelt und implementiert.

wenn der NV35 wirklich eine Abkehr vom bisherigen Konzept darstellen sollte (was ich nicht glaube), dann wären zumindest völlige eigene Treiber für die Karten notwendig (also keine "Abwärtskompatiblität" der Treiber mehr)!

Demirug hat schon darauf geantwortet. Als Zusatz ist es moeglich durch z.B. Rivatuner zwischen NV1x und NV3x Emulation einzusetzen. Das heisst wohl dass ich z.B. ein NV30 optimiertes demo auf NV25 laufen lassen kann, wobei natuerlich wo immer die kompliant Hartware fehlt (siehe PS2.0 z.B.), fehler- oder mangelhafte Darstellung dabei herauskommt.

Tiling wird bei Karten schon seit Jahren angewendet uebrigens.

Demirug
2003-03-31, 16:55:54
Originally posted by Ailuros


Demirug hat schon darauf geantwortet. Als Zusatz ist es moeglich durch z.B. Rivatuner zwischen NV1x und NV3x Emulation einzusetzen. Das heisst wohl dass ich z.B. ein NV30 optimiertes demo auf NV25 laufen lassen kann, wobei natuerlich wo immer die kompliant Hartware fehlt (siehe PS2.0 z.B.), fehler- oder mangelhafte Darstellung dabei herauskommt.

Die Darstellung ist korrekt wenn man die Emulation aktiviert hat aber dafür auch verdammt lahm. Im Prinzip liefert NVIDIA da einfach das funktionale Simulationsmodel des entsprechenden Chips aus.

Ailuros
2003-04-01, 03:07:31
Um ehrlich zu sein hab ich es selber nie probiert. Ein Freund auf einem anderem Forum hat gefragt ob er das Dawn demo auf einer GF4 laufen kann; da hab ich einfach auf die NV30 Emulation hingewiesen.

Es lief danach (ueberaus langsam das stimmt) aber er berichtete Graphikfehler (deshalb mein Post oben).

Demirug
2003-04-01, 07:31:12
Originally posted by Ailuros
Um ehrlich zu sein hab ich es selber nie probiert. Ein Freund auf einem anderem Forum hat gefragt ob er das Dawn demo auf einer GF4 laufen kann; da hab ich einfach auf die NV30 Emulation hingewiesen.

Es lief danach (ueberaus langsam das stimmt) aber er berichtete Graphikfehler (deshalb mein Post oben).

Dann hat die Emulation entweder eine Macke oder die Dawn demo macht Probeleme wenn sie zu langsam läuft.

Radeonator
2003-04-02, 09:43:39
Also objektiv betrachtet, fand ich FSAA auf der GF4 nicht wirklich brauchbar, erst die R300 hat dort genügend Power.

Ich hoffe, das die NV35 ein intelligenteres Design wird als die NV30 haben wird.

1. Endlich ein "normales" PCB und kein Brotbrett ;)
2. Eine deutlich geringere Verlustleistung und somit einfacher zu Kühlende GPU
3. Gutes und schnelles FSAA/AF
4. 256 Bit
5. Echte 8Pipes
6. Starke Pro MHz Leistung und keine MHz für Leistung...

Damit wäre ich im Grunde schon fast zufrieden...käme dann nur noch auf den Preis an ;)

robbitop
2003-04-02, 10:49:46
das ist unsinn.

Der NV35 ist einfach nur ein "Refresh".

Es ist ein vermutlich "kühlerer" NV30 und dieser hat ein 256bit DDR Interface. Das PCB muss dafür komplex sein. 256bit DDR und dann noch hohe Taktraten...

Am Chip selbst konnten sie sicher nicht viel ändern.
Die PS Leistung bricht bei 1.4-2.0Code NICHT mehr ein.
Das ist beim NV31 genauso.

Der NV35 wird imho kein neues AA/AF haben...
denn hierfür ist eine sehr grosse Änderung an der pipeline nötig...das ist zuviel für einen Refresh (4xS ist in Games mit alphatexturen sowieso unschlagbar imho ;-) ).

Er wird ähnlich ProMhz Leistung haben wir R300/350 aber eben höher Getaktet.
Somit ca 20-30% Geschwindigkeitsvorteil in extremen Situationen.

btw was nutzt dir ein 8x1 Pipe Design.
Imho wäre sogar ein gut designtest 4x4bi TMU Design noch effektiv.
Da heutzutage TRILINIEAR gefiltert wird und Multitexturing im Spiel ist. Sobald auch nur eines von beidem (und beides ist standard) im einsatz ist, ist es egal ob 4x2 oder 8x1.

Wenn die ALUs nicht im Betrieb sind, gibt sich der NV35 als 8*1 aus.
Die Pipe ist flexibel. Sie soll etwas effizienter laufen.

Ich denke den Vorteil aus der "Neuen flexiblen Architektur" wird erst der NextGen Chip NV40 bieten. Denn hier kann man ohne ganze Pipes zu duplizieren den Chip beliebig schneller machen.

auf seijin.de findest du eine kleine NV35 simulation unter ARTIKEL

bis denne ;-)

Radeonator
2003-04-02, 13:55:37
Worin sich zeigt das die Pro MHz Leistung theoretisch der R300 unterlegen ist. ATi zeigt mit der R300, wie man auf einer kleinen Platine viel "zaubern" kann. NV hat seit der GF4 vergessen, wie amn eine solche Platine bastelt, da fand ich die GF3 bedeutend intelligenter ausgelegt (IMO die beste NV Karte bis heute!!!)

ow
2003-04-02, 14:06:13
Jo, Ati hat wirklich beeindruckend gezeigt, wie man ein PCB so versauen kann, so auf vielen Boards Stoerwellen auftreten. Einfach GEIL! Vielleicht sollten die bei NV mal schauen, wie man stoerungsfreie PCBs designed.

Radeonator
2003-04-02, 14:20:28
Originally posted by ow
Jo, Ati hat wirklich beeindruckend gezeigt, wie man ein PCB so versauen kann, so auf vielen Boards Stoerwellen auftreten. Einfach GEIL! Vielleicht sollten die bei NV mal schauen, wie man stoerungsfreie PCBs designed.

:bonk:

Mein Fresse, wieviel bekommst du eigentlich von NV, damit du nur noch Müll von dir gibst ???

StefanV
2003-04-02, 14:20:35
Originally posted by ow
Jo, Ati hat wirklich beeindruckend gezeigt, wie man ein PCB so versauen kann, so auf vielen Boards Stoerwellen auftreten. Einfach GEIL! Vielleicht sollten die bei NV mal schauen, wie man stoerungsfreie PCBs designed.

ow, nimm mal deine NV Brille ab!!

Nicht nur ATI hat Probleme mit einem störungsfreien Bildaufbau, auch Matrox hat das...

Vielleicht liegts einfach daran, daß es solangsam Probleme mit den hohen Frequenzen gibt ??

Auch Übersprechen ist ein Faktor, induktivitäten sagen dir doch was, oder ?
wie eine Antenne funzt weißt du auch, oder ?

robbitop
2003-04-02, 14:22:02
nette Satire OW ;-)

naja einige Leute wollen es halt nicht verstehen:
der R300 ist einfach nur ein sehr aufgebohrter R200.
nVidia hätte ohne grosse F&E Kosten den NV25 auf 8x2TMUs 4VS und 256bit DDR bringen können, da wären sie auch bei 100Mio Transistoren und hätten in 0,15µ Ferigen können.

Man kann den Leuten von nVidia keine Dummheit unterstellen.
Das NV30 Design ist technologisch sehr interessant, nur leider wird
das erst in zukünftigen Chips zum Ausdruck kommen. Wenn man nämlich an Transistoren spaaren möchte und trotzdem massig Performance haben möchte.

Man kann beim NV3x Design das hinzufügen, was benötigt wird, anstatt ganze Chipteile zu duplizieren. Die pipelinestruktur ist flexibel.

Das ganze ist sicherlich etwas daneben gegangen beim NV30, ohne Frage.

Man wird sehen was es in der Zukunft nützen kann.

btw die Tatsache dass der Nv3x noch mit HRAA auskommen muss lässt Raum für Spekulation..ich denke das könnte ein Indiz sein, dass der IHV hier vieleicht ein ganz neues anderes FSAA entwickelt...wer weiss.

Der NV30 ist nicht so doll geraten, aber NV31 ist bisher nicht schlecht und NV34 als LowCost auch nicht, und wer weiss was der Nv35 bringen kann.

Ich finde bloss immer dieses mit billigen StandardKO Argumenten Gebashe immer wieder blöd....

das ist von beiden Seiten nicht fein...

ow
2003-04-02, 14:26:38
Originally posted by Radeonator


:bonk:

Mein Fresse, wieviel bekommst du eigentlich von NV, damit du nur noch Müll von dir gibst ???


:rofl:
Es wurde von einem faehigen Ingenieur einwandfrei nachgewiesen, wo das Problem des R300 PCB ist. Evtl. gibt's dazu noch nen 3DC Artikel. Nur Geduld.

Und spar dir doch diese Beleidigungen, mehr als Flamerei hast du wophl nicht zu beiten. Echt arm, sowas.

ow
2003-04-02, 14:28:04
Originally posted by Stefan Payne


ow, nimm mal deine NV Brille ab!!

Nicht nur ATI hat Probleme mit einem störungsfreien Bildaufbau, auch Matrox hat das...

Vielleicht liegts einfach daran, daß es solangsam Probleme mit den hohen Frequenzen gibt ??

Auch Übersprechen ist ein Faktor, induktivitäten sagen dir doch was, oder ?
wie eine Antenne funzt weißt du auch, oder ?


SP, sei doch einfach ruhig, wenn du Dinge nicht verstehst. Und nein, das Problem liegt eindeutig am R300 PCB. Die entsprechende Arbeit des Ingenierus liegt der 3DC-Crew und den Mods vor.

robbitop
2003-04-02, 14:29:42
Stefan und ow...

hehe wie die sich immer habe...find ich immer wieder lustich...

*sry4spam*

ow
2003-04-02, 14:29:59
Originally posted by robbitop
nette Satire OW ;-)



:D

Ist alles nur die reine Wahrheit.
Arm ist doch nur solches Blabla ueber die PCB-Groesse einer Firma, da lach ich mich tot. Als ware das irgendein Argument fuer irgendwas.

Börk
2003-04-02, 14:32:01
Originally posted by ow
Jo, Ati hat wirklich beeindruckend gezeigt, wie man ein PCB so versauen kann, so auf vielen Boards Stoerwellen auftreten. Einfach GEIL! Vielleicht sollten die bei NV mal schauen, wie man stoerungsfreie PCBs designed.
Recht hast du, bei den NV-PCB bekommt man garantiert keine störwellen, da man solche 50cm boards erst gar nicht in den PC reinbekommt :P
Sry, aber das musste jetzt sein, da du mich mit deinem ständigen Anti-Ati geflame sowas von ankotzst. Es interessiert mich nämlich nen scheissdreck, was du von ATI hältst. Also musst du nicht immer anfangen sachliche Threads vollzuspammen.
Wenn dir spammen so doll gefällt, dann geh gefälligst auf die spielwiese...

P.S.: Mir isses scheiss egal, dass du mod bistt. IMO bist du nämlich der einzige von allen mods, der die kompetenz dazu hat ...
P.P.S.: Übrigens, ursprünglich ging es hier um NV35 spekulationen. Da sieht man mal wieder wohin das scheiss geflame von ow und payne hinführt...

robbitop
2003-04-02, 14:32:05
@ow
da muss ich zustimmen wegen PCB (in diesem Punkt)

@burk

so muss das aber nicht sein.
sowas geht auch per PM und so schlimm ist ow in diesem threat gerade nicht und diese Agressivität vergiftet die schöne Athmosphäre

Demirug
2003-04-02, 14:34:34
In diesem Fall muss ich ow mal zur Seite stehen. Ich habe die Problemanalyse (und beseitigung) ebenfalls gelessen und ATI hat beim 9700 PCB wirklich ein paar Designfehler gemacht die bei einem grösseren PCB wahrscheinlich nicht passiert währen.

StefanV
2003-04-02, 14:37:40
Originally posted by ow
SP, sei doch einfach ruhig, wenn du Dinge nicht verstehst. Und nein, das Problem liegt eindeutig am R300 PCB. Die entsprechende Arbeit des Ingenierus liegt der 3DC-Crew und den Mods vor.

Sagmal, Brüderchen, nimm doch mal deine NV Brille ab und lass mal deine Anti ATI Flames!!

Die gehen solangsam 'einigen' Leuten auf den Sack!!

Auch daß du 'ein paar' Threads 'zerstückeln' musst.

StefanV
2003-04-02, 14:40:06
Originally posted by Demirug
In diesem Fall muss ich ow mal zur Seite stehen. Ich habe die Problemanalyse (und beseitigung) ebenfalls gelessen und ATI hat beim 9700 PCB wirklich ein paar Designfehler gemacht die bei einem grösseren PCB wahrscheinlich nicht passiert währen.

Es geht auch nicht unbedingt darum, ob ATI einen Fehler gemacht hat oder nicht, es geht eher darum, wer und wie er es sagt.

Bei ow hört es sich so an, als ob bei ATI nur Vollidioten sitzen, die kenen Schimmer von nix haben.

Seine persönlichen Präferenzen sollte solangsam auch jeder mitbekommen haben...

robbitop
2003-04-02, 14:42:50
da gibt es von beiden Seiten so einige Leuts die das gern machen....

mich störts nur wenns zu aggressiv und bitter und unter die Gürtellinie geht

ow
2003-04-02, 14:45:00
*flamemode*

Ich mach's mal etwas groesser, damit die Ati Fanboys das durch ihre dicken ATi-Brillen auch lesen koennen.*eg*


Originally posted by Demirug
In diesem Fall muss ich ow mal zur Seite stehen. Ich habe die Problemanalyse (und beseitigung) ebenfalls gelessen und ATI hat beim 9700 PCB wirklich ein paar Designfehler gemacht die bei einem grösseren PCB wahrscheinlich nicht passiert währen.

Radeonator
2003-04-02, 14:45:30
Ach und die zu tief gesetzten Kondensatoren bei NV sind wohl eine Meisterleistung, genauso wie die, trotz Föhnkühlers, Kochend heiss werdende GPU der FX Karten, die im vergleich geringe pro MHz etc.

AFAIK treten diese Störwellen auch nur bei wenigen Usern auf(Bei mir z.B. nicht)

Trotzdeben sehe ich das Platinen Layout von NV als den falschen Weg!!!
Andere Hersteller schaffen es alle "normale" Layouts hinzubekommen (MATROX, ATi, SiS). Da fühlt man sich in zeiten der Voodoo Rush zurück versetzt, wo man erstmal ausmessen musste, ob die Platine überhaupt aufs Board und zudem überhaupt in den Tower passt...

Das Platinen Layout muss genauso weiterentwickelt werden, wie die GPU layouts (Baugrösse, Fertigungsprozesse etc.) sonst stimmt da wohl was nicht.Wenn nicht alles mit "evolutioniert" hat man irgendwann unlösbare Probleme.

Börk
2003-04-02, 14:45:50
Originally posted by robbitop

@burk

so muss das aber nicht sein.
sowas geht auch per PM und so schlimm ist ow in diesem threat gerade nicht und diese Agressivität vergiftet die schöne Athmosphäre
Mich regt es eigentlich nur auf, dass ow und einige ANDERE immer damit anfangen müssen sachliche threads zu versauen.
Natürlich weiss ich, dass die störwellen am anfang auf das PCB zurückzuführen waren, aber erstens hat sich dieses problem mitlerweile gelöst und zweitens brauch man sowas nicht auf eine derart provokative weise sagen.
Ow und andere legen es anscheinend darauf an, dass ein thread zugeflamed wird.
Eine PM hätte es da wohl eher weniger getan, da als antwort eh nur wieder ne spammmail gekommen wäre, anderes bin ich im moment von ow einfach nicht gewohnt.
Diese Profispamer sollten sich mal ein beispiel an demirug/zecki/aths nehmen, die kommen immer mit sachlichen argumenten und versuchen nie zu provzieren...

ow
2003-04-02, 14:46:35
Originally posted by Stefan Payne


Sagmal, Brüderchen, nimm doch mal deine NV Brille ab und lass mal deine Anti ATI Flames!!



???

wer flamt denn hier gerade, bist nicht du das??

Lesen kannst du doch: Das Problem liegt am ATi-PCB.

ow
2003-04-02, 14:49:04
Originally posted by burk23

Mich regt es eigentlich nur auf, dass ow und einige ANDERE immer damit anfangen müssen sachliche threads zu versauen.



Aber sonst geht''s dir gut???

Schau dir doch mal Flaminators Geflame da oben an. Da wird ueber ein grosses PCB gelaestert. Voellig hirnrissig ist sowas.

Dass das ATi PCB nix taugt, ist hingegen Tatsache. Und hat nix mit Flamen zu tun. Aber dass die Ati Fanboys keine Kritik dulden ist ja hinreichend bekannt. Echt arm.

Börk
2003-04-02, 14:49:29
Originally posted by ow
Ich mach's mal etwas groesser, damit die Ati Fanboys das durch ihre dicken ATi-Brillen auch lesen koennen.*eg*


Ich bin übrigens kein Ati Fanboy (hab selber ne GF4), sondern ich stehe ziemlich neutral zwischen ATI und NV. Nur gilt es halt auch manchmal einzusehen, wenn die "feindfirma" mal was besser kann als die achsotolle "götterfirma". Damit mein ich jetzt nicht nur die sache mit dem PCB, sondern Anti-ATI/Anti-NV flamerei im allgemeinen.

robbitop
2003-04-02, 14:49:36
die beiden (ow und Stefan) sind irgendwie wie brüder...ständig am rumbalken....

:D

tja..aber nun genug davon..zurück zum Thema??

StefanV
2003-04-02, 14:51:01
Originally posted by ow
Aber sonst geht''s dir gut???

Schau dir doch mal Flaminators Geflame da oben an. Da wird ueber ein grosses PCB gelaestert. Voellig hirnrissig ist sowas.

Dass das ATi PCB nix taugt, ist hingegen Tatsache. Und hat nix mit Flamen zu tun. Aber das die Ati Fanboys keien Kriytk dulden ist ja hinreichend bekannt. Echt arm.

Ach, und du flamst nicht oder was ??

Udn was ist dieses Posting ??

Und was machst DU, wenn irgendjemand einen kleinen Seitenhieb auf NV postet ??
Springst DU dann nicht auf wie von der Hornisse gestochen ?

robbitop
2003-04-02, 14:54:20
wer von euch möchte weiterdiskutieren??

sonst wird Threat bestümmt geschlossn, das muss nich sein, oder?

Los "Payne-Brüder", gebt euch die Hand und vertragt euch :D

Börk
2003-04-02, 14:56:53
Originally posted by ow
Aber sonst geht''s dir gut???

Mir gehts bestens, danke.


Schau dir doch mal Flaminators Geflame da oben an. Da wird ueber ein grosses PCB gelaestert. Voellig hirnrissig ist sowas.

Ja, hab ich gesehen. Aber komischerweise sind da genauso viele Anti-ATI Flames dabei :|


Dass das ATi PCB nix taugt, ist hingegen Tatsache. Und hat nix mit Flamen zu tun.

Da geb ich dir vollkommen recht. Aber wie gesagt hätte eine andere ausdrucksweise am anfang nicht zu geflame geführt...
Fakt ist ausserdem, dass die probleme mitlerweile behoben sind.
IMO haben beide PCB Nachteile, bei ATI die Störwellen, bei NV bekommt man die Graka in viele Boards fast gar net rein.


Aber das die Ati Fanboys keien Kriytk dulden ist ja hinreichend bekannt. Echt arm.
Find ich auch arm. Jeder sollte eigentlich in der lage sein die nachteile seiner favorisierten firma zu erkennen. Damit mein ich aber auch auch NV-Boys.

P.S.: Stefan, les dir die posts am besten auch mal durch. Halt dich dran und es wird weniger geflame geben^^

Radeonator
2003-04-02, 14:58:29
Originally posted by ow



Aber sonst geht''s dir gut???

Schau dir doch mal Flaminators Geflame da oben an. Da wird ueber ein grosses PCB gelaestert. Voellig hirnrissig ist sowas.

Dass das ATi PCB nix taugt, ist hingegen Tatsache. Und hat nix mit Flamen zu tun. Aber das die Ati Fanboys keien Kriytk dulden ist ja hinreichend bekannt. Echt arm.

Das einzige was hier arm ist, ist deine Unfähigkeit Fehler einzugestehen oder threads ganz zu lesen. Statt dessen muss man dein kindisches geflame hier lesen und du zerstörst durch dauer Provokation jeden vernünftigen Thread (wie einige andere hier auch)
Ich schreibe hier meine Meinung und du kommst wieder nur mit deinem nvidiotischen gebashe, ich hoffe Demi löscht den ganzen sh1c3 hier raus oder schliesst ihn einfach. Hat keinen Sinn mehr mit dir...

Wenn ihr euch streiten wollt macht das via PM. Wenn ihr Flamen wollt geht auf die Spielwiese...

Börk
2003-04-02, 14:59:10
Originally posted by robbitop
die beiden (ow und Stefan) sind irgendwie wie brüder...ständig am rumbalken....

:D

tja..aber nun genug davon..zurück zum Thema??
Gaynau, lassen wir jetzt mal das geflame sein.

ow
2003-04-02, 15:00:37
Originally posted by burk23


Ich bin übrigens kein Ati Fanboy (hab selber ne GF4), sondern ich stehe ziemlich neutral zwischen ATI und NV. Nur gilt es halt auch manchmal einzusehen, wenn die "feindfirma" mal was besser kann als die achsotolle "götterfirma". Damit mein ich jetzt nicht nur die sache mit dem PCB, sondern Anti-ATI/Anti-NV flamerei im allgemeinen.


Ich habe kein Feindbilder. Ich bin neutral, was irgendwelche Firmen angeht. Ich flame auch nicht gegen ATi.

Aber du hast du gesehen, wohin es fuehrt, wenn man einen offensichtlichen Mangel eines ATi Produktes nennt.
Schau dir doch Radeonators Post mal an.

ow
2003-04-02, 15:01:59
Originally posted by Stefan Payne


Ach, und du flamst nicht oder was ??

Udn was ist dieses Posting ??

Und was machst DU, wenn irgendjemand einen kleinen Seitenhieb auf NV postet ??
Springst DU dann nicht auf wie von der Hornisse gestochen ?



Auf NV-Gebashe reagiere ich mit wahrheitsgemaessen Aussagen ueber Ati.
Siehst den Unterschied?

Radeonator
2003-04-02, 15:07:47
OW Du machst dich gerade mal wieder lächerlich...

Lese dir meine Begründung mal durch, gebashed habe ich überhaupt nichts, bashen tust nur du. Du stehst ATI so neutral, wie George Bush dem Irak gegenüber und das weiss jeder hier...

robbitop
2003-04-02, 15:08:55
naja zumindist bist du manchmal Provokativ. Ich denke wenn man weiss dass sich hier viele (ich nich ;D ) mit ihrer GPU identifizieren, muss man etwas höflicher Formulieren...

sonst gibts hier gleich Kriiiech...

StefanV
2003-04-02, 15:09:40
Originally posted by ow
Ich habe kein Feindbilder. Ich bin neutral, was irgendwelche Firmen angeht. Ich flame auch nicht gegen ATi.

Aber du hast du gesehen, wohin es fuehrt, wenn man einen offensichtlichen Mangel eines ATi Produktes nennt.
Schau dir doch Radeonators Post mal an.

1. ja, ow, natürlich, das glaub dir auch JEDER in diesem Forum...
Was sagst du eigentlich, wenn ich sage, daß der TV Out auf ALLEN NV Karten Müll ist ??
Na, flamst du nicht dagegen ??

Nein, du flamst auch überhauptnicht gegen ATI, niemals, sowas würdest DU niemals tun...

2. wie hast du es denn dargestellt ??
Du hast es doch so dargestellt, als ob bei ATI nur unfähige Vollidioten arbeiten und NV alles richtig macht, wie vielen deiner Postings...

Das du völlig neutral bist kannst du sonstwen erzählen, glauben wird dir das eh keiner.

StefanV
2003-04-02, 15:10:27
Originally posted by ow
Auf NV-Gebashe reagiere ich mit wahrheitsgemaessen Aussagen ueber Ati.
Siehst den Unterschied?

:rofl:

Wie mit solchem schwachsinn, das der TV Out von NV Karten mit denen einer G550 vergleichbar sind ??

wie in diesem (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=59722) Thread nachzulesen...

robbitop
2003-04-02, 15:12:45
ihr weicht vom thema ab...

und SP ist meist in seinen 18000 posts nicht anders...wobei er in letzter Zeit sich besserte...

StefanV
2003-04-02, 15:14:30
Originally posted by robbitop
wobei er in letzter Zeit sich besserte...

liegt wohl daran, daß ich momentan genausoviele NV wie ATI Karten hab *eg*

Wobei die Mach32 ISA sowie die Rage PRO kann man nicht mehr wirklich dazuzählen *eg*

ow
2003-04-02, 15:14:44
Originally posted by robbitop
ihr weicht vom thema ab...

und SP ist meist in seinen 18000 posts nicht anders...wobei er in letzter Zeit sich besserte...


Siehst du wo die Flamer sitzen??

Wo sind denn SPs und Radeonators Argumente?? Ich sehe keine.

StefanV
2003-04-02, 15:15:29
Originally posted by ow
Siehst du wo die Flamer sitzen??

Wo sind denn SPs und Radeonators Argumente?? Ich sehe keine.

ja, ow, das sowas kommt, war klar...
Aber hauptsache andere als Idioten hinstellen...

Die Flamer siehst du vermutlich nicht, weil sie vor deinem Rechner sitzen...

Demirug
2003-04-02, 15:15:59
So Jungs könnte ihr euch langsam wieder beruhigen.

Wir wissen doch alle das jede Computerhardware nur Schrott ist. Für ein gutes Bild geht doch nichts über Leinwand und Farbe. Jetzt brauche wir nur noch ein paar Maler die schnell genug sind das ich damit mit mindestens 60 LPS (Leinwände pro Sekunden) spielen kann. Und dann können wir ja darüber streiten wer den besseren Maler hat sonst wir euch noch langweilig.

Also meiner hat Eindeutig die Tendez zuviel Blau zu benutzten dafür ist er aber echt schnell.

strickjackenscheitel
2003-04-02, 15:18:03
wenn moderatorEN von der seite etwas begruendet in den raum stellen sollte man nicht mit "und wie eine antenne funktioniert weisst du auch?(stefan payne)" doch schon recht unqualifiziert zurueckbeleidigen.

sowas weiss ich auch, wenn ich nicht jahre in foren gewesen bin.

im uebrigen frage ich mich warum einige hier wie gerade burk23 oder eben stefan payne ati so frenetisch verteidigen.
dann bemerke ich auch das stefan payne in situationen ati verteidigt, in denen niemand diese firma attackiert hat.
warum? fragt man sich da berechtigter weise? vorbeugung? boese kindheitserinnerungen? (lach doch mal stefan ;P)
ow und robbitop versuchen mit ihrem wissen zumindest noch sachlich zu argumentieren das 3dcenterforumnievau zu retten, was ihnen doch oefters gelingt, aber ....

alles im allen sollte meiner auffassung ein moderator und auch member mit hunderten oder tausenden post die fassung bei haltlosem verteidigunghymnen (denn ehrlich gesagt war es nix anderes, oder?) nicht verlieren und auch etwas ungehalten zurueckschiessen.

so das wars mit meiner mittagspredigt an die 3dcenternation. ;)

p.s.: am ende koennen wir doch ohnehin nix an dem aendern was die firmen mit milliardenumsaetzen machen, oder? :)

robbitop
2003-04-02, 15:21:34
also in diesem thread empfand ich ow max als provokativ, mehr nicht...nicht flame zumindist. (@ow mich störte das net)
was hier aber schon tödlich ist. und der Herr Payne muss auch nicht immer mitmachen finde ich.

und DAS hier können wir inner Spielwiese fortsetzen..ich würde gerne Kommentare zur Pipeline des NV35 hören habe da einen recht interesanten bericht über die architektur gelesen...*kram*


..verdammt ich meld mich wenn ich ihn finde...

Börk
2003-04-02, 15:24:36
Originally posted by strickjackenscheitel
im uebrigen frage ich mich warum einige hier wie gerade burk23... ati so frenetisch verteidigen.

Les du dir meine posts nochmal ganz genau durch, ich hab nicht versucht ATI zu verteidigen, sondern hab versucht ow und Payne auf das geflame aufmerksam zu machen. Nur weil ich ow gequted hab, heisst das noch lange nicht, dass ich gegen NV bin...

Radeonator
2003-04-02, 15:27:18
Originally posted by Demirug
So Jungs könnte ihr euch langsam wieder beruhigen.

Wir wissen doch alle das jede Computerhardware nur Schrott ist. Für ein gutes Bild geht doch nichts über Leinwand und Farbe. Jetzt brauche wir nur noch ein paar Maler die schnell genug sind das ich damit mit mindestens 60 LPS (Leinwände pro Sekunden) spielen kann. Und dann können wir ja darüber streiten wer den besseren Maler hat sonst wir euch noch langweilig.

Also meiner hat Eindeutig die Tendez zuviel Blau zu benutzten dafür ist er aber echt schnell.

DANKE :D

ow
2003-04-02, 15:36:37
@SP: Brille ab? Dann schau doch mal:

Originally posted by Radeonator


:bonk:

Mein Fresse, wieviel bekommst du eigentlich von NV, damit du nur noch Müll von dir gibst ???


Sowas kommt auf eine wahrheitsgemaesse (zugegeben etwas scharf formulierte) Aussage zu ATis R300 PCB.
Wie wuerdest du das denn nennen?

Unregistered
2003-04-02, 15:39:18
"
Ach und die zu tief gesetzten Kondensatoren bei NV sind wohl eine Meisterleistung, genauso wie die, trotz Föhnkühlers, Kochend heiss werdende GPU der FX Karten, die im vergleich geringe pro MHz etc.
"
Soweit ich das mitbekommen habe, hat sich NV an die AGP Specs gehalten und auch an die Keep Out Areas. Wenn Boardhersteller dort selber Teile verbauen ist das ihr Problem nicht NVs.

Trotzdeben sehe ich das Platinen Layout von NV als den falschen Weg!!!
Andere Hersteller schaffen es alle "normale" Layouts hinzubekommen (MATROX, ATi, SiS). Da fühlt man sich in zeiten der Voodoo Rush zurück versetzt, wo man erstmal ausmessen musste, ob die Platine überhaupt aufs Board und zudem überhaupt in den Tower passt...

"
NV Grakas passen in jedes ATX Gehäuse, dass die Normen einhält. Wenn Gehäusehersteller hier die Abstände nicht einhalten und Festplattenschächte dahin bauen wo sie nicht hinsollen, ist das ihr Problem.
Es kann kaum Ziel der Aufgabe sein, dass sich ein Hardwarehersteller sämtliche am Markt befindlichen Gehäuse kauft und testet ob seine Graka dahinein passt. Dafür gibt es Normen und soweit mir bekannt, wurden diese eingehalten, ich lasse mich hier aber gern eines besseren belehren.

Die Größe des Platinenlayouts ist gelinde gesagt kein Maß für irgendwas. Ein kleineres Platinenlayout ist bei gleicher Chip und Pinkomplexität teurer, weil es schlichtweg schwieriger ist die gleiche Menge an Signalen auf kleinerem Raum unter zu bringen. Die Wahrscheinlichkeit dass Störungen bei Produkten im Performance Grenzbereich auftreten ist deutlich erhöht und im Fall von ATI auch vollends eingetreten.

Wenn NV ein größeres Layout einsetzt, dann um Geld und vor allem Zeit bei der PCB Entwicklung und Produktion zu spaaren.
Wie gesagt gilt für Platinen mit gleicher Layeranzahl etc...
Eine FX auf einem kleineren Layout wäre teurer als eine auf einem großen. Das selbe gilt für die GF4TI.
Solange die Platine sich in den Normen bewegt gibt es für mich da keinen Grund zur Kritik.

ow
2003-04-02, 15:40:21
Originally posted by robbitop
also in diesem thread empfand ich ow max als provokativ


gaynau, auf NV-Gebashe kann ich auch schonmal so reagieren. Ich hab ja auch wenigstens Argumente zur Hand. Das ist der Unterschied.


Mal schauen, ob ich mich nicht demnaechst mal wieder zu ATis Treibern auslasse. Da waere auch jede Menge drueber zu sagen. Ich sehe ja ganz genau auf meiner 8500, was da funzt und was nicht.*eg*;)

robbitop
2003-04-02, 15:45:32
ja die nVidia Treiber (auch wenn die die ich meine nicht offiziell sind ) haben auch einige Macken bzg MSAA und leider auch in gewissen anderen Bereichen. Wobei der 43.45 bis auf das MSAA Problem recht zufriedenstellend ist.

Vor allem die Farben sind super.

Ich denke hier müssen beide Firmen noch klotzen..

StefanV
2003-04-02, 15:49:32
Originally posted by ow
Mal schauen, ob ich mich nicht demnaechst mal wieder zu ATis Treibern auslasse. Da waere auch jede Menge drueber zu sagen. Ich sehe ja ganz genau auf meiner 8500, was da funzt und was nicht.*eg*;)

...als ob die NV Treiber sooo fehlerfrei wären...

PS: ich hab 'ne 9700 :P

robbitop
2003-04-02, 15:50:19
hast du nicht...sie liegt noch auf der Post...

Ailuros
2003-04-02, 15:50:50
Die Flamer siehst du vermutlich nicht, weil sie vor deinem Rechner sitzen...

Gespaltene Personalitaet? In jedem anderen Fall wie viele haelt denn der Stuhl aus? Klingt zumindest errrr...verdaechtig :D

Allen Ernstes wer von Euch beiden sich selber als objektiver ansieht, sollte den ersten Stein werfen.

2B-Maverick
2003-04-02, 16:03:04
Originally posted by robbitop
ja die nVidia Treiber (auch wenn die die ich meine nicht offiziell sind ) haben auch einige Macken bzg MSAA und leider auch in gewissen anderen Bereichen. Wobei der 43.45 bis auf das MSAA Problem recht zufriedenstellend ist.

Vor allem die Farben sind super.

Ich denke hier müssen beide Firmen noch klotzen..

jo. 43.45 rendert auf GFFX die PixelShader2 Tests inkorrekt (den Holzboden) und ATIs Cat3.2 in IL2-Forgotten Battles die weit entfernte Landschaft mit S3TC und Pixel Shadern aktiviert falsch..

nobodys perfekt...

P.S: wo finde ich Infos zum angeblich fehlerhaft designten R300 PCB? Mein Board funzt supi. Aber das muss ja nix heissen......

PS2: dieser Post war ja nicht super sinnvoll... aber sinnvoller als viele vorher in diesem Thread :D

strickjackenscheitel
2003-04-02, 16:14:31
"OW Du machst dich gerade mal wieder lächerlich...

Lese dir meine Begründung mal durch, gebashed habe ich überhaupt nichts, bashen tust nur du. Du stehst ATI so neutral, wie George Bush dem Irak gegenüber und das weiss jeder hier..."(radeonator)

es ist unsinnig einen vergleich zwischen grafikkarten und internationaler politik zu ziehen, wie es unsinnig ist pcs mit automobilen zu vergleichen. deweiteren frag ich mich "wer das hier alles weiss"? ich weiss nichts davon, dass z.b. ow ein achso boeser spammer ist, oder grundsaetzlich nonsens brabelt!

ok burk spammt nicht (entschuldige bitte), aber der herr radeonator ist doch wohl der paradespammer (vgl. mit zitat ... wieviel nuetzliche info war drinn?)
im uebrigen finde ich es ganz persoenlich sich schon durch seinen namen auf ewig einer grafikkarten firma untergeben zu zeigen, was man mit dem name "radeonator" ja wohl schafft, faul und dumm.warum? weil es sicher nicht falsch ist sich nach anderem, vielleicht besserem unzuschauen. warum das wieder nciht schlecht ist erkalert sich von selbst, oder?
machen andere firmen nicht auch gute produkte, lieber radeonator?
(was hatte ati denn zur zeit der gf3 zu bieten? eine radeon1? also mal ganz ehrlich, welche graka war da besser?)

...

um wieder auf das thema zurueckzukommen. warum ist die architektur der 30er reihe von nv denn ueberhaupt so dermaßen richtungsweisend?
wenn ich eine gf4 auf 400/400mhz habe, ist solch eine karte sicherlich fast ebenso gut wie eine gf fx 5800, oder?


scheisse, sicher wieder irre viele fehler drinn ;)

ow
2003-04-02, 16:17:23
Originally posted by robbitop
ja die nVidia Treiber (auch wenn die die ich meine nicht offiziell sind ) haben auch einige Macken bzg MSAA und leider auch in gewissen anderen Bereichen. Wobei der 43.45 bis auf das MSAA Problem recht zufriedenstellend ist.



Ich weiss das, aber was haben NVs Treiber denn mit Ati zu tun?

Die Sache ist doch so: alle bashen gegen NV, aber es soll sich mal einer wagen, ATis Maengel zu benennen. Da ist dieser Thread hier doch gerade ein Paradebeispiel.

robbitop
2003-04-02, 16:40:39
da hast du absolut Recht ow

ABER hier muss man wirklich immer vorsichtig sein, um nicht als Fanboy betrachtet zu werden.

nach monatelangen Tests bewege ich mich aus subjektiven Gründen eher zu nVidia. Es sind einfach spezielle Bedürfnisse und Erfahrungen.
Doch ich habe auch gesehen, dass ATi sehr viel zu bieten hat...

Ich denke der Cat 3.2 ist schon recht solide...ich denke Vergleiche sind immer gut, weil wenn man den einen Treiber kritisiert ist es wie gesagt sehr gefährlich hier.... ;-)

kami
2003-04-02, 16:45:56
@robbitop : du meintest nicht zufällig das (http://www.beyond3d.com/forum/viewtopic.php?t=5124)
mit der Theorie über die FX-Architektur oder ?

Gruß
kami

robbitop
2003-04-02, 16:48:59
danke Kami, genau das...

für alle die denken der NV30 sei ein aufgebohrter NV2x...dem ist nicht so ;-)

strickjackenscheitel
2003-04-02, 17:04:17
ok, leute mit weniger als wievielen post werden hier nicht beachtet?
schreibe ich scheisse? :'(

Hauwech
2003-04-02, 18:08:39
Neee strickjackenscheitel (geiler nick!!!), wenne sch|c3 posten wuerdest, wuerdest du es schon merken :bad3: :D

Es haben sich nur einige Leute gaaaaanz doll lieb und bringen ihre tiefe aeehh Zuneigung ab und zu immer wieder zum Ausdruck... Gewoehn dich einfach dran, wird nicht das letzte mal sein und zur Not gibbet ja immer noch die Ignorefunktion...

Hmm bei deinem nick faellt mir gerade wieder eine der besten websites ein: Scheitel ohne Ende (http://www.fiese-scheitel.de)

SCNR, nicht boese sein :)

StefanV
2003-04-02, 18:12:40
Originally posted by Ailuros
Allen Ernstes wer von Euch beiden sich selber als objektiver ansieht, sollte den ersten Stein werfen.

Ich hab mich nie als objektiv betrachtet, werde mich auch hüten sowas in der Richtung von mir zu geben, denn alles in diese Richtung wäre gelogen, völlig egal von wem es kommt, aber das Thema objektiv hatten wir irgendwo in diesem Forum schonmal.

Naja, jedenfalls war NV mal vor langer Zeit einfach nur grottig...
Dazu kommen noch ein paar nV Fanboys, die einen persönlich gleich als zu blöd hinstellen, wenn mal was auf 'ner NV Karte nicht läuft.

Was gibt das ??
SIcher keinen, der NV abgöttisch liebt...

robbitop
2003-04-02, 18:13:14
also ich schätze das Thema könn wir ja jetz vergessn...

Naja wiegross der Scheitel von D. Kirk wohl sein wird??

;D

Muh-sagt-die-Kuh
2003-04-02, 19:19:30
Originally posted by ow



Ich habe kein Feindbilder. Ich bin neutral, was irgendwelche Firmen angeht.Ist heut noch der erste April? Aths kann man als neutral betrachten, dich auf keinen Fall.

ow
2003-04-02, 19:31:35
Originally posted by Muh-sagt-die-Kuh
Ist heut noch der erste April? Aths kann man als neutral betrachten, dich auf keinen Fall.

:zzz:

das ist nur deine Meinung
aber nenn doch mal lieber mal einen konkreten Fall

Muh-sagt-die-Kuh
2003-04-02, 19:38:15
Originally posted by ow


:zzz:

das ist nur deine Meinung
aber nenn doch mal lieber mal einen konkreten Fall Das dürfte die Meinung der meisten Leute in diesem Forum sein.

Man muss nur mal die Aufspaltung deiner "neutralen Kritik" auf die verschiedenen Hersteller betrachten, einer wird andauernd massivst (Wortwahl) kritisiert, der andere alle nur 100 Jahre mal ganz leicht.

Wenn du jetzt damit kommst, das spiegelt nur das reale Verhältnis der Fehler wieder, dann haben wir hier direkt einen konkreten Fall :eyes:

StefanV
2003-04-02, 19:43:57
Originally posted by Muh-sagt-die-Kuh
Das dürfte die Meinung der meisten Leute in diesem Forum sein.

Man muss nur mal die Aufspaltung deiner "neutralen Kritik" auf die verschiedenen Hersteller betrachten, einer wird andauernd massivst (Wortwahl) kritisiert, der andere alle nur 100 Jahre mal ganz leicht.

Wenn du jetzt damit kommst, das spiegelt nur das reale Verhältnis der Fehler wieder, dann haben wir hier direkt einen konkreten Fall :eyes:

...noch dazu, weil er den TV Out der G-Forces so massivst verteidigt...

Also wer das macht, der hat entweder einen 14" Fernseher (aka 34cm), der ist fast blind oder er will den Unterschied nicht sehen...

StefanV
2003-04-02, 19:49:00
Originally posted by Muh-sagt-die-Kuh
Ist heut noch der erste April? Aths kann man als neutral betrachten, dich auf keinen Fall.

1. nein, aber gestern war de 1. April ;)

2. naja, so würde ich es nicht sehen, ich würde eher sagen, daß sich aths um eine möglichst neutrale Position bemüht...

robbitop
2003-04-02, 20:24:57
HALLO????

ES REICHT LANGSAM!

Ist doch jetzt egal wer schuld ist und einige von euch sind sowieso solche Kandidaten hier im Forum. Ich würde gerne den Threat vor der Spielwiese retten.

Demi falls du anwesend bist, was sagst du zu der techn. Skizzierung der NV3x Serie. Was mich angeht ich fühle mich durch diese zT bestätigt. Lass uns dies doch ein wenig erörtern.

Demirug
2003-04-02, 20:52:37
Originally posted by robbitop
HALLO????

ES REICHT LANGSAM!

Ist doch jetzt egal wer schuld ist und einige von euch sind sowieso solche Kandidaten hier im Forum. Ich würde gerne den Threat vor der Spielwiese retten.

Demi falls du anwesend bist, was sagst du zu der techn. Skizzierung der NV3x Serie. Was mich angeht ich fühle mich durch diese zT bestätigt. Lass uns dies doch ein wenig erörtern.

Ach hier will noch jemand beim Thema bleiben.

Um ehrlich zu sein verstehe ich die Diagramme nicht so ganz. Ein Pipelinediagramm sieht normalerweise etwas anders aus.

In den Bildern dort fehlen zum Beispiel:

-die Loopbackeinheiten
-die Registerspeicher
-Die Z Stencil einheiten sind so falsch weil MSAA nicht berücksichtigt wurde.

robbitop
2003-04-02, 20:55:49
tja das sind schonmal sehr nette Infos...ich mach mir jetz ma ein Kopp über das Diagram...

strickjackenscheitel
2003-04-02, 22:13:49
was meint ihr wird die neue architektur im stande sein zu leisten?
ich meine WANN ist es zeit fuer eine neue architektur?

soweit ich weiss bleibt der nv35 sowieso bei der momentanen, ebenso wie der nv40(oder?).

das speicherinterface liegt doch ausserhalb des chips, womit die 5mill. extratransistoren dafuer eher nicht drauf gehen sollten/koennten?!
wofuer sind die dann? oder irre ich hier etwa auch?

sicherlich sind 5mill.transistoren nicht verantwortlich fuer exorbitante leistungszuwaechse, sollten doch aber irgendwas bewirken ... was ist das?

danke fuer antwort :)

robbitop
2003-04-02, 22:29:47
eine Überarbeitung der Architektur.
Thermisch, die Pixelshader und evl kleinere Änderungen an der pipeline.

Ich nehme an, dass keine der vorhandenen Einheiten dupliiert worden ist.

eine kleine Simulation zu dessen findest du auf meiner Seite :
http://www.seijin.de/index2.php?page=Artikel/nv35speks.php

sonst noch fragen?? ;-)

strickjackenscheitel
2003-04-02, 23:06:06
wow eine so schnelle und fundiert spekulative antwort haette ich nicht erwartet :)

ich dank dir!

jetzt fragt sich noch wie laut die standartkuehlloesungen von nv sein werden, wenn die produktionstechniken von ibm zu verfuegung stehen?
wird da nicht auch der stromverbrauch gesenkt, wenn man eine fortschrittlichere fertigungstechnik hat?
wie wird die kartenlaenge ausfallen?

alleszusammen frage ich mich wie es mit der ergonomie ausschaut?!

auch der preis waere interesant zu erfahren!

aths
2003-04-02, 23:26:54
Originally posted by robbitop
HALLO????

ES REICHT LANGSAM!

Ist doch jetzt egal wer schuld ist und einige von euch sind sowieso solche Kandidaten hier im Forum. Ich würde gerne den Threat vor der Spielwiese retten."Threat" ist die Bedrohung. Du meinst "Thread", den Gedankengang.

robbitop
2003-04-02, 23:47:52
@aths
ich weiss und das bekomme ich diese Woche schon das 5.Mal zu hören...
aber meistens von Mods.

@Scheitel :D

die neuen Fertigungstechniken von IBM (Silicon on Insulator, Germanium Silicium, Low-K-Dielectric ect) werden frühestens im NV40 eingesetzt werden.
Der NV35 hatte sein Tapeout im Januar OHNE all diese Techniken.
Der Einsatz einer dieser Techniken erfordert ein kleines Redesgin und vor allem ein neues Tapeout -> grosse Verschiebung.

Es ist derzeit unklar ob der NV35 bei TSMC produziert wird (dann Auslieferung Q2) oder IBM (auslieferung wegen Foundrywechsel verschoben). Letzteres wäre nötig, wenn die Yields (Ausbeute) bei TSMC bei angepeilten Taktraten zu gering wären.

Der NV30 (GF FX´) wurde damals auf low-k-dielcetric und dem Einsatz von 400Mhz design. Man merkte aber (der NV30 war bereits vor 1,3 Jahren fertig) dass man low k dieelectric nicht Serienreif bekam. rgo neues Tapeout. Dazu kam der R300 und seine enorme Leistung. Also musste der NV30, um einigermassen Konkurrenzfähig zu bleiben, ans limit getaktet werden. -> Fön und geringe Yields bei TSMC.

Der NV35 hingegen soll auf high-k-dielectric von vorn herrein design sein. Ich denke er wird ohne Fön auskommen.

Für den NV40 und den R400 ist allerdings lowkDielectric angesichts der komplexität und der angepeilten Taktraten nötig. Da TSMC derzeitig nicht im Stande dazu ist, wurde der R400 verschoben. nVidia wechselte zu IBM. Dort hat man eine HighTechFabrik mit viel KnowHow (und neben AMD wären sie nicht die ersten die sich beim SOI-Entwickler IBM Hilfe gesucht hätten). Somit stehen die chancen für geringe Wartezeiten wegen Fertigungsproblemen gut. Bei ATi weiss man es nicht, da TSMC im Moment den 0,13µ prozess einfach nicht im Griff bei komplexen Chips hat. Der R400 KÖNNTE sich dadurch zB verzögern...alles Spekulation..

strickjackenscheitel
2003-04-03, 08:17:06
oi ok :)

bleibt immer noch die frage(n) wie teuer ein nv 35 wird und wie groß das ding dann wird.
also wenn das voodoo 5 5500 maße hat, dann ... hat es nv echt geschafft ;)

zeckensack
2003-04-03, 09:57:59
Originally posted by kami
@robbitop : du meintest nicht zufällig das (http://www.beyond3d.com/forum/viewtopic.php?t=5124)
mit der Theorie über die FX-Architektur oder ?

Gruß
kami Das NV30-Diagramm (oder zumindest die Schlußfolgerung "Shader operates at 8 Pixels/clock") ist definitiv widerlegt.
Der NV30 kann maximal 4 Pixel/Takt produzieren. Gemessen mit abmaskiertem Z/Stencil-Buffer, deaktivierten Z/Stencil-Tests, ohne Texturen.
Selbst wenn mehr Pixel 'in flight' sind, ist dies kein Gegenargument, das ist bei jeder Form von Pipelining so.

Demirug
2003-04-03, 10:04:16
Originally posted by zeckensack
Das NV30-Diagramm (oder zumindest die Schlußfolgerung "Shader operates at 8 Pixels/clock") ist definitiv widerlegt.
Der NV30 kann maximal 4 Pixel/Takt produzieren. Gemessen mit abmaskiertem Z/Stencil-Buffer, deaktivierten Z/Stencil-Tests, ohne Texturen.
Selbst wenn mehr Pixel 'in flight' sind, ist dies kein Gegenargument, das ist bei jeder Form von Pipelining so.

Ja das hat NV doch sogar schon irgendwo so zugegeben. 4 Pixel/Clock Output sobald man irgendwas mit Farbwerten macht. 8 Pixel/Clock nur bei Z und Stencil operationen only.

in flight sind wahrscheinlich sogar noch mehr als nur 8 Pixel. Korrekt müsste es wohl heisen 8 Pixeloperationen/clock und bei fp32 bin ich mir noch nicht mal da ganz sicher.

Ailuros
2003-04-03, 16:25:17
Ich weiss nur dass meine alte K2 mit ihren 32 Zixels/clock in ihrer Schachtel eine Freude fuer Spinnweben ist ;)

Ailuros
2003-04-03, 16:41:52
Originally posted by Stefan Payne


Ich hab mich nie als objektiv betrachtet, werde mich auch hüten sowas in der Richtung von mir zu geben, denn alles in diese Richtung wäre gelogen, völlig egal von wem es kommt, aber das Thema objektiv hatten wir irgendwo in diesem Forum schonmal.

Naja, jedenfalls war NV mal vor langer Zeit einfach nur grottig...
Dazu kommen noch ein paar nV Fanboys, die einen persönlich gleich als zu blöd hinstellen, wenn mal was auf 'ner NV Karte nicht läuft.

Was gibt das ??
SIcher keinen, der NV abgöttisch liebt...

Uhmmm ist das nicht in etwa gleich so mit allen Fanboys von allen IHV's? (uebrigens schliesse ich mie selber nie aus bei solchen Themen, um Missverstaendnissen zu entgehen).

Ganz im Altertum gab es mal die 3Dfx vs Videologic/PowerVR Argumente, dann spaeter 3dfx vs NVIDIA, dann NVIDIA vs 3dfx, NVIDIA vs ATI und heutzutage ATI vs NVIDIA :D

Soooo viel hat sich da gar nicht geaendert in allen Faellen durch die Jahre und von allen Seiten.

Sobald aber im Hinterkopf endlich eine Birne aufleuchtet, dass es sich doch letztenendes nur um oedes Silizium handelt, kommt normalerweise der Realitaets-schock. Es hilft nicht immer bei mir, aber ich sorge dafuer dass Strom-Ausfaelle seltener passieren ;)

Ich bin zu faul einen alten Thread auf einem anderen Forum auszugraben, wo Du die bloedesten Argumente finden kannst warum man NVIDIA hassen MUSS!!! Ich mag vielleicht deren PR/marketing Philosophie mehr als oefters nicht und die ganze Strategie dahinter, aber ich "hasse" doch nicht dafuer eine Firma oder kaufe ihre Produkte nicht.

Natuerlich ist all das irrelevant zum Thema; wenn bei Dir eine oder mehrere NV Karten nicht wie erwartet liefen, dann ist es eine ganz andere Sache.

Ich wollte nur mal darauf hinweisen wie laecherlich solche "du fanboy"- "ich bin kein fanboy, du bist der fanboy"- "nein du bist der fanboy" Debatten sich oefters anhoeren ;)

StefanV
2003-04-03, 18:28:04
Originally posted by Ailuros
Uhmmm ist das nicht in etwa gleich so mit allen Fanboys von allen IHV's? (uebrigens schliesse ich mie selber nie aus bei solchen Themen, um Missverstaendnissen zu entgehen).


nicht nur bei IHVs sondern auch in anderen Bereichen, z.B. Take That vs Backstreet Boys...

Originally posted by Ailuros
Ganz im Altertum gab es mal die 3Dfx vs Videologic/PowerVR Argumente, dann spaeter 3dfx vs NVIDIA, dann NVIDIA vs 3dfx, NVIDIA vs ATI und heutzutage ATI vs NVIDIA :D

Ich hatte damals noch kein Inet, hab die HW Entwicklung aber verfolgt...
An den flames wird sich niemals was ändern, nicht bevor sich das Bildungssystem in D völlig ändert...

Originally posted by Ailuros
Soooo viel hat sich da gar nicht geaendert in allen Faellen durch die Jahre und von allen Seiten.

Es wird sich niemals was ändern, solange sich die Leute nicht ändern...
Die flames beginnen in den persönlichen Ansichten...


Originally posted by Ailuros
Sobald aber im Hinterkopf endlich eine Birne aufleuchtet, dass es sich doch letztenendes nur um oedes Silizium handelt, kommt normalerweise der Realitaets-schock. Es hilft nicht immer bei mir, aber ich sorge dafuer dass Strom-Ausfaelle seltener passieren ;)

Das ist das Problem, 'einige' flamen, merken es aber nicht, halten sich selbst für die objektivsten...
(wie schon gesagt, wer sich selbst für objektiv hält, ist ein Heuchler oder Lügner)
NIEMAND ist objektiv...

Das Problem ist vielmehr die 'Meinungen' und 'Erfahrungen' anderer Leute zu akzeptiren...

Originally posted by Ailuros
Ich bin zu faul einen alten Thread auf einem anderen Forum auszugraben, wo Du die bloedesten Argumente finden kannst warum man NVIDIA hassen MUSS!!! Ich mag vielleicht deren PR/marketing Philosophie mehr als oefters nicht und die ganze Strategie dahinter, aber ich "hasse" doch nicht dafuer eine Firma oder kaufe ihre Produkte nicht.

Ich kann mir in etwa vorstellen wie es damals lief...
In 'grauer Vorzeit', zu den TNT vs Banshee flames, als die NV Fanboys damit argumentiert haben, daß man unbedingt MT und 32bit Farbtiefe benötigt und das man in nächster Zeit überhauptnicht ohne leben könne...

Dummerweise haben sie vergessen, daß die TNT für 32bit damals 'etwas' lahm ist und bis zu 50% eingebrochen ist...
Und wie die Zeit gelehrt hat, gabs MT in Spielen erst als die Banshee völlig veraltet war...

Originally posted by Ailuros
Natuerlich ist all das irrelevant zum Thema; wenn bei Dir eine oder mehrere NV Karten nicht wie erwartet liefen, dann ist es eine ganz andere Sache.
eine?? mehrere??
Das Problem ist eigentlich nicht, daß es mit 'ner NV Karte nicht lief, sowas kommt vor, das Problem ist vielmehr der 'Spott' der NV Fanboys, wenn man mal ein Problem mit 'ner NV Karte hat und einen Thread öffnet...
Dann kommen solche kommentare wie 'du bist zu blöd', 'du bist mit NV nicht kompatibel', 'bei mir läufts, der Fehler muß wohl vor dem Rechner sitzen' usw...

Vielleicht erwarte ich von NV Karten auch 'etwas' viel, ich benutze auch 'diverse' Funktionen, die einige nicht wirlich nutzen, die ich aber schon seit der G400 kenne...
Dazu noch die TV-Out Situation bei NV Karten...

Wenn man dann mal seine Meinung über seine Erfahrungen kundtut, dann wird man auch gleich zugeflamt, von der Seite angemacht usw...

z.B. find ich das NV Panel ziehmlich durcheinander und unübersichtlich...

Originally posted by Ailuros
Ich wollte nur mal darauf hinweisen wie laecherlich solche "du fanboy"- "ich bin kein fanboy, du bist der fanboy"- "nein du bist der fanboy" Debatten sich oefters anhoeren ;)
i know...

Bei einigen kann sogar ein blinder die persönlichen präferenzen erkennen, sie selbst leugnen aber daß sie XXX lieber mögen als YYY...

Ich selbst geb ja zu, daß ich NV nicht sonderlich mag, was aber zum Teil auch an den 'Fanboys' liegt...

PS: falls es dich interessiert, Ailuros:
Ich hatte in meinem Leben ~ doppelt so viele NV wie ATI Karten und hab (fast) jeden Chip von ATI, Matrox und NV 'gesehen'...

Sicher liefen einige Karten ganz brauchbar, aber so überwältigend, wie sie von einigen dargestellt sind, sind sie nicht...
Spätestens dann, wenn man mal einen Film auf dem TV sehen will und eine Matrox Karte als Vergleich hat...

LovesuckZ
2003-04-03, 18:46:23
Originally posted by Stefan Payne
Dummerweise haben sie vergessen, daß die TNT für 32bit damals 'etwas' lahm ist und bis zu 50% eingebrochen ist...


Huch, soll das ne Anspielung auf das Trueform der r300 sein?

StefanV
2003-04-03, 18:48:22
Originally posted by LovesuckZ
Huch, soll das ne Anspielung auf das Trueform der r300 sein?

Oh mann, suckie, wenn du nix gegen ATI sagen kannst...

Ich würds mal eher so sehen:
ATI hat eingesehen, daß Truform ein Griff ins Klo war und es entfernt.
Genau wie NV ihre RT-Patches entfernt haben...

Die einzigen, die noch HOS haben, sind MGA...

Pussycat
2003-04-05, 13:54:55
Wenn mann's entfernt, muss man aber nicht sagen das mann's noch hat. Da wirst du doch mit einverstanden sein, oder?

strickjackenscheitel
2003-04-05, 14:19:23
ja sicherlich wird der nv35 den r350 schlagen, waere ja unentschuldbar wenn nicht.
mir stellt sich nur die frage fuer welchen preis nv den neuen chip anbieten kann, wenn der guenstigste nv30 momentan ca.450euro kostet.
der r350 kommt mit 480 davon und siegt klar ueber den nv30.

wird der nv35 nicht ein bisschen zu teuer?

p.s.: wie schauts dann auch mit der ergonomie aus?
(also strom, lautstaerke des luefters, groeße der karte und uebertaktbarkeit) was vermutet/wisst ihr?

robbitop
2003-04-05, 20:31:31
ich habe ein Pic gesehn, kA ob das korrekt war.
Der Kühler war so wie der des 5600Ultra

Kakarot
2003-04-06, 01:51:55
Originally posted by strickjackenscheitel
wird der nv35 nicht ein bisschen zu teuer?


News vom 28.2.
In derselbigen von Goldman Sachs abgehaltenen Investoren-Konferenz sprach auch nVidia, die dort gezeigte Präsentation seitens nVidia kann man sich auch downloaden (PDF, 2 MB). Interessant ist vornehmlich die vorletzte Seite jener Präsentation, in welcher nVidia angibt, alle vier Preissegmente (Enthusiast - 399 $, Performance - 299 $, Mainstream - 199 $, Value - 99 $) demnächst mit Karten auf Basis der NV3x-Architektur versorgen zu wollen. Die ersten beiden Marktsegmente werden dabei wohl auf die beiden GeForceFX-Karten fallen, die beiden unteren auf Karten mit NV31- und nV34-Chip. Im übrigen drückt nVidia damit DirectX9-Hardware erstaunlich zügig in den Markt (obwohl wir noch immer auf die große Masse an DirectX8-Spielen warten), wird doch nach der Einführung der NV3x-Linie von den "alten" Chips scheinbar nur die GeForce4 MX im absoluten LowCost-Markt überleben dürfen.


Demnach werden die NV35 Karten wohl (hoffentlich) nicht teurer sein als ne 9800PRO, denn die liegt auch bei 399 $.

Ailuros
2003-04-06, 02:52:12
ATI hat auf R300/350 auf die hoechstbeste Qualitaet mit bestmoeglicher Leistung eingeschlagen. Wenn ich bei Vorstellung des NV35 wieder die gleichen AA/AF Algorithmen bzw. Bildqualitaet sehe, dann moechte ich schon gar nichts davon hoeren.

R350 wird auch hoechstwahrscheinlich schon wieder billiger sein bis NV35 auf den Markt kommt.

robbitop
2003-04-06, 04:07:18
dafür SSAA ;-)

StefanV
2003-04-06, 10:58:20
Originally posted by Ailuros
ATI hat auf R300/350 auf die hoechstbeste Qualitaet mit bestmoeglicher Leistung eingeschlagen. Wenn ich bei Vorstellung des NV35 wieder die gleichen AA/AF Algorithmen bzw. Bildqualitaet sehe, dann moechte ich schon gar nichts davon hoeren.

R350 wird auch hoechstwahrscheinlich schon wieder billiger sein bis NV35 auf den Markt kommt.

ganz nebenbei bemerkt:

ATI scheint einiges aus den Vorgängern über den Haufen geworfen zu haben und den R300 deutlich verbessert.

z.B.:

Man kann einen analogen Monitor während des Betriebes gegen einen digitalen TFT ändern, man braucht die nur umstecken, thats all.

War selbst überrascht, daß das funzt...

Auch der Interpolations Algo für die Skalierung am DVI Out wurde verbessert...

Frank
2003-04-06, 12:52:23
Originally posted by Stefan Payne


ganz nebenbei bemerkt:

ATI scheint einiges aus den Vorgängern über den Haufen geworfen zu haben und den R300 deutlich verbessert.

z.B.:

Man kann einen analogen Monitor während des Betriebes gegen einen digitalen TFT ändern, man braucht die nur umstecken, thats all.

War selbst überrascht, daß das funzt...

Auch der Interpolations Algo für die Skalierung am DVI Out wurde verbessert... ach und deswegen hat man gleich alles alte über den Haufen geworfen? Ausserdem gehts hier wohl eher um angebliche Specs des NV35 und nicht um die Vorzüge eines R300, die einen im Forum aus jeder Ecke engegengeleiert kommen.

robbitop
2003-04-06, 13:07:53
wir müssen das unserem Stefan verzeihen ^^

er hat gerade sein ganzes Erspartes in seine R9700 gesteckt und ist jetzt stolz wie Oskar und es bietet ihm auch starke Vorzüge, dass man dort den Stecker im Laufendem Betrieb (ja ihr lesst richtig, im LAUFENDEM Betrieb) wechseln kann. Boah. ;D
Und nebenbei ist das Teil noch schnell ;-)
...und nicht von nVidia ;D


P.S ich hoffe diesen kleinen Spam nimmst du mir nicht übel Stefan ;-)

StefanV
2003-04-06, 13:13:44
Originally posted by robbitop
wir müssen das unserem Stefan verzeihen ^^

er hat gerade sein ganzes Erspartes in seine R9700 gesteckt und ist jetzt stolz wie Oskar und es bietet ihm auch starke Vorzüge, dass man dort den Stecker im Laufendem Betrieb (ja ihr lesst richtig, im LAUFENDEN Betrieb) wechseln kann. Boah. ;D
Und nebenbei ist das Teil noch schnell ;-)
...und nicht von nVidia ;D


P.S ich hoffe diesen kleinen Spam nimmst du mir nicht übel Stefan ;-)

Robbi, im Laufenden Betrieb geht das auch bei anderen Karten, es erfordert 'nur' eine Einstellung im Treiber Panel...

Bei der Radeon 9700 nicht, das ist ja das fantastische ;)

Analoger Monitor ab, DVI-D Kabel dran -> BILD
bei anderen Karten muß man das erst in der Software umstellen...

robbitop
2003-04-06, 13:14:35
:O :O


:chainsaw:



*scheissspamlauneheut*

ow
2003-04-06, 14:09:46
Originally posted by robbitop
:O :O


:chainsaw:



*scheissspamlauneheut*

:O
ack

absolutes 'must have' feature:D

Frank
2003-04-06, 14:16:37
Originally posted by ow


:O
ack

absolutes 'must have' feature:D ack ack

wenns danach geht, sticht selbst meine Neomagic die ATIsonstewas aus. Mutlidisplay Grundeinstellungen vieeeeel komfortabler. :D *spam*

seahawk
2003-04-06, 15:58:18
Originally posted by Stefan Payne


ganz nebenbei bemerkt:

ATI scheint einiges aus den Vorgängern über den Haufen geworfen zu haben und den R300 deutlich verbessert.

z.B.:

Man kann einen analogen Monitor während des Betriebes gegen einen digitalen TFT ändern, man braucht die nur umstecken, thats all.

War selbst überrascht, daß das funzt...

Auch der Interpolations Algo für die Skalierung am DVI Out wurde verbessert...

Boah, ein wirklich für die Praxis extrem wichtiges Feature. Machen 99% der Anwender jeden Tag dreimal.

StefanV
2003-04-06, 17:31:11
Originally posted by seahawk
Boah, ein wirklich für die Praxis extrem wichtiges Feature. Machen 99% der Anwender jeden Tag dreimal.

Irgendwie scheint mich keiner zu verstehen (wollen) :|

strickjackenscheitel
2003-04-06, 19:43:10
sehawk ... einfach mal die schnauze halten, wenn man nix produktives zusagen hat!

stefan payne ... ich finde das feature stark! ich verwende auch manchmal digitale, manchmal analoge bildschirme.
dies mache ich aus testgruenden fuer freunde, oder zum weiterverkauf.

das feature ist NICHT zwegfrei und danke fuer die info, auch wenn sie nicht gerade so gut zu den vorlaeufigen spezis des nv 35 passt! ;)

nochmal zu seahawk. wenn du gerade schlechte laune hast, dann gehe doch bitte gluehbirnen klopfen und beschwoere nicht mit so einem sinnlosem "AAAAAAAAH JEDER BRAUCHS AAH" konflikte herrauf, danke!

SO!

...

wenn der nv35 mit max 32gb speicherbandbreite und einer arg ausgereiften architektur den r350 dermaßen schlaegt, wie es seine spezifikationen es vermuten lassen, sind 400euro(bis 500) doch sicher kein falscher preis, oder?

Ailuros
2003-04-07, 04:07:28
Originally posted by Frank
ach und deswegen hat man gleich alles alte über den Haufen geworfen? Ausserdem gehts hier wohl eher um angebliche Specs des NV35 und nicht um die Vorzüge eines R300, die einen im Forum aus jeder Ecke engegengeleiert kommen.

Du kannst es Dir so ansehen: momentan habe ich zwei NVIDIA Produkte in diesem PC. Wenn es NVIDIA interessiert dass es auch in der Zukunft zwei Produkte verbleiben, dann koennte sie sich eventuell um die Algorithmen kuemmern, um mich davon abzuhalten von der Konkurrenz zu kaufen.

Mein Kommentar war darauf ausgerichtet, dass es mir persoenlich total schnuppe ist wie die Paperspecs aussehen. NV30 sah auch imposant auf Papier aus; es ist auch nicht anders bei NV35 von der heutigen Perspektive gesehen.

Nur eine Erklaerung dass ich es war, der Stefan's Interesse hervorgerufen hat.

Exxtreme
2003-04-07, 07:56:33
Originally posted by seahawk
Boah, ein wirklich für die Praxis extrem wichtiges Feature. Machen 99% der Anwender jeden Tag dreimal.
Tja, das sind halt Details, die eine sehr gute GraKa von einer weniger guten unterscheiden. Es gibt Leute, die schauen auch auf sowas und sind nicht nur fps-besessen. :)

StefanV
2003-04-07, 09:44:40
Originally posted by Exxtreme

Tja, das sind halt Details, die eine sehr gute GraKa von einer weniger guten unterscheiden. Es gibt Leute, die schauen auch auf sowas und sind nicht nur fps-besessen. :)
Eben ;)

Allerdings weiß ich nicht mehr, wieso ich auf den Gedanken gekommen bin, mal den Monitor umzustecken :|

Was mir auch aufgefallen ist, ist, daß ATI den 'alten' Interpolations Algo am DVI 'entsorgt' hat und durch einen 'ordentlichen' ersetzt.

Mehr hab ich noch nicht getestet...

ShadowXX
2003-04-07, 10:55:14
Das Problem ist, das viele sagen : "Das Feature ist doch wirlich egal...", weil Sie es nicht brauchen. Aus Ihrer Sicht ist es deshalb auch kein Grund Grafikkarten die solche und ähnliche Features bieten (bzw. 'kleine Gimmicks') "aufzuwerten".

Wenn Sie eines dieses (aus Ihrer Sicht unwichtigen) Features doch plötzlich brauchen (bzw. eine Komfortfunktion nutzen wollen die es nur bei Hersteller "x" gibt) schimpfen Sie auf Ihren bis dato geliebten Produzenten und kaufen sich dann doch die Konkurenzmarke oder "schlucken" einfach den "Nachteil". (lezteres aus verschiedensten Gründen, Fanboy, ungenügende Infos, falsche Infos, PR....)

Aber wie gesagt, solange man nicht diese Zusatzgimmicks/Funktionen braucht, gibt es tatsächlich auch keinen Grund diese mit in die persönliche Bewertung der gfx einfliessen zu lassen.

Ich habe eine 9700Pro und diese bestimmt nicht wegen des tollen TV-Outs oder der Dual-Monitoranbindung gekauft, sondern nur weil ich AA/AF in hohen Auflösungen mit gutem Resultat haben wollte.
Ergo-> mir war es beim Kauf der Karte ziemlich egal ob diese überhaupt irgend etwas davon kann!!!! Das Sie es kann hat mich gefreut, falls ich es mal benutzen will, aber sonst war es egal und ich würde keines dieser Features als Kaufgrund nenne noch würde ich aus diesem Grund die Karte empfehlen.

Aber (musste ja noch kommen), wenn man die Karten wirklich Komplett bewerten will (und das wollen wir hier ja), dann muss man auch diese Features miteinfliessen lassen, egal wie nichtig diese manchen vorkommen, irgenjemand kann dieses "speziellen" Funktionen vielleicht gebrauchen.(und für den sind sie dann vielleicht Kaufentscheident)

Das gilt übrigens in beide Richtungen (nv->ati, ati->nv).

@ow
nur so nebenbei: Deine Aussagen sind teilweise wirklich so provokativ, das sie der eine oder andere tatsächlich als gebashe empfindet (speziel wenns denn auch noch aus dem Zusammenhang gerissen als quote gepostet wird.)
Und das du völlig neutral bist glaube ich dir auch nicht ganz, wobei ich weiss das es teilweise sehr schwer ist neutral zu bleiben (besonders wenn man angemacht wird.)
Einen kleinen Kritikpunkt muss ich dir allerdings vorhalten: Wenn etwas nicht deinem Standpunkt/Argumenten entspricht, sind die Gegenaussagen sofort Falsch bzw. keine Argumente (selbst dann wenn dort Argumente vorhanden sind -> dabei jetzt egal ob richtig/falsch). Aus deiner Sicht ist das auch OK, aber du solltest den anderen dann wenigsten begründen warum du Ihre Aussagen in Frage stellst....

J.S.Shadow

ps:
nochmal @ow:
du bist allerdings wirklich der erste der den TV-Out von nv-Karten verteidigt....(und ich hatte alle (brauchbaren) nv's von der Riva128 bis zur Gf4Ti4600, die 9700Pro ist meine erste ATI, und der TV-Out ist bei den meisten (nicht allen) nv-Karten deutlich schlechter als bei ATI, meiner meinung nach.......)

ow
2003-04-07, 11:08:03
Originally posted by ShadowXX
ps:
nochmal @ow:
du bist allerdings wirklich der erste der den TV-Out von nv-Karten verteidigt....(und ich hatte alle (brauchbaren) nv's von der Riva128 bis zur Gf4Ti4600, die 9700Pro ist meine erste ATI, und der TV-Out ist bei den meisten (nicht allen) nv-Karten deutlich schlechter als bei ATI, meiner meinung nach.......)

ich hab da auch gute Gruende dazu: der TVout meiner GF4ti funzt perfekt. was da an ATi oder sonstwem besser sein soll, das muss mir erst mal jemand erklaeren.
Also werde ich mich gegen Pauschalisierungen, der Tvout an NV-Karten tauge nichts, wehren. btw. ich weiss sehr wohl, dass es NV-Karten mit nicht so gutem TVout gibt.

StefanV
2003-04-07, 11:11:08
Originally posted by ow


ich hab da auch gute Gruende dazu: der TVout meiner GF4ti funzt perfekt. was da an ATi oder sonstwem besser sein soll, das muss mir erst mal jemand erklaeren.
Also werde ich mich gegen Pauschalisierungen, der Tvout an NV-Karten tauge nichts, wehren. btw. ich weiss sehr wohl, dass es NV-Karten mit nicht so gutem TVout gibt.

Ow, kauf dir mal 'nen neuen Fernseher, oder geh mal zu Fielmann...

Frank
2003-04-07, 11:22:55
Originally posted by Stefan Payne


Ow, kauf dir mal 'nen neuen Fernseher, oder geh mal zu Fielmann... Hast/Hattest du die selbe Geforce 4 wie ow um dir ein Urteil bilden zu können?

ow
2003-04-07, 11:33:47
Originally posted by Stefan Payne


Ow, kauf dir mal 'nen neuen Fernseher, oder geh mal zu Fielmann...

This spam was delivered by:

StefanV
2003-04-07, 11:46:02
@ow

schau mal hier:
http://www.seijin.de/index2.php?page=Artikel/tvout.php

StefanV
2003-04-07, 12:23:46
Originally posted by Frank
Hast/Hattest du die selbe Geforce 4 wie ow um dir ein Urteil bilden zu können?

'Seltsam', daß (sogar) die c't sagt, daß die 9700 Karten besser sind als ALLE TI4200 Karten :|

robbitop
2003-04-07, 13:28:01
jo ist ein schöner Artikel, kommt ja auch von meinem Chefredakteur Gohan *schleim*

Ich persönlich finde das PCB und den Abwärmeaspekt der Radeon schön.
Das GammaKorrekte RGMSAA auch, obwohl 4x für einige Games zu langsam ist.
Aber hier fehlt mir SSAA für Zäune und Bäume (alles AlphaTexturen).
Ausserdem (es ist zwar sehr selten) stört mich das Stottern, das wird aber sicherlich behoben.

Zum Nv35:
Er hat selbst bei 400Mhz und gerade auch bei 500Mhz enorme Speicherbandbreiten, doch ist die Füllrate sehr limitierend.
Es sind nur 8 biliniear gefilterte Texel/Clock, die der R300/350/NV30 "ausspucken". Das konnte schon die vorherige Generation. Und beim (heute bei solchen karten standard) trilinearen Filtern wird die Füllrate halbiert. Somit ist Füllrate der nächste Aspekt der in den neuen Chips bearbeitet werden sollte (diese Situation hatte man das letzte Mal vor der GF2 gehabt).

Es gibt einen schönen Artikel auf www.notforidiots.com dort wird die Nv3x Architektur etwas beleuchtet. Also eine Revolutionäre Architektur als Basis für zukünftige Chips. Sie stellt wohl eine Misch und GPU und CPU dar. Mit flexbilen Recheneinheiten (ähnlich wie beim P10 damals).
Somit müsste man statt irgendwelche Chipteile zu duplizieren einach nur die Anzahl bestimmter Recheneinheiten erhöhen, um den erwünschten Leistungssprung zu bekommen. Somit sind viel weniger MehrTransistoren für Mehrleistrung nötig und weniger ManPower. Dies wird sich in künftigen Chips zeigen. Dieses flexible Design ist IMHO ein Schritt in die Richtige Richtung und der Artikel ist äusserst lesenswert NV3x Artikel (http://www.notforidiots.com/NV3x.html)

zum TV-Out
wir werden den TVOut der GF FX Reihe im April/Mai in einem Review beleuchten, bzw den alten updaten. Denn afaik hat den noch niemand im Netz so richtig getestet.
(für Gamer nicht nützlich aber für die Leute die DVD über PC auf dem Fernseher schauen möchten...wobei ich sagen möchte, dass die P512 ungeschlagen ist)

zur Kühlung:
die NV35 reihe bekommt eine "normale" Kühllösung, also kein FlowFX mehr, das ist offiziell.

zurück zum NV3x:
da dieses design wirklich Variabel ist, darf man hier vieleicht schon im nächsten Chip (vermutlich erst beim Nv40) ein neues FSAA erwarten.
Man hat das alte HRAA vom NV20 zwar bis zum NV3x mitgeschleppt, doch ich denke es ist für einen Refresh bereits eine Chipinterne Änderung vorgesehen, die wohl dann nicht so ein grosses Redesign fordert (keine traditionelle Pipe mehr). Wer weiss, warum sie das so lange vor sich her geschoben haben. Ich denke sie entwickeln etwas völlig Neues.

betasilie
2003-04-07, 13:37:35
Originally posted by robbitop

Aber hier fehlt mir SSAA für Zäune und Bäume (alles AlphaTexturen).

full ack. Es wird wirklich Zeit, dass ATI SSAA anbietet.

ow
2003-04-07, 17:41:28
Originally posted by Stefan Payne


'Seltsam', daß (sogar) die c't sagt, daß die 9700 Karten besser sind als ALLE TI4200 Karten :|

???
Auf was bezogen? Hat die c´t den TVout meiner Karte getestet?
Heftnummer, Artikel?

ow
2003-04-07, 17:42:42
Originally posted by betareverse

full ack. Es wird wirklich Zeit, dass ATI SSAA anbietet.

imo ist ATi schlichtweg zu faul, um das anzubieten. SSAA kann jede Karte und wird auch von vielen unterstützt.

robbitop
2003-04-07, 17:45:40
nicht zu faul, ich denke der Praktikannt hat angst vor falschen Benches. Ausserdem gilt SS als veraltet (wegen Performance Verlust)...unfassbar.

ow
2003-04-07, 17:46:11
Originally posted by Stefan Payne
@ow

schau mal hier:
http://www.seijin.de/index2.php?page=Artikel/tvout.php

:rofl::rofl:
welche karten wurde denn da getestet??
:rofl:

LovesuckZ
2003-04-07, 17:48:58
Originally posted by Stefan Payne
@ow
schau mal hier:
http://www.seijin.de/index2.php?page=Artikel/tvout.php

Vielleicht solltest du das in deine Sig mitaufnehmen, denn brauchst du den Link nicht in jeden Nvidiathread posten.

ow
2003-04-07, 17:49:56
Originally posted by robbitop
nicht zu faul, ich denke der Praktikannt hat angst vor falschen Benches. Ausserdem gilt SS als veraltet (wegen Performance Verlust)...unfassbar.

Ja, das is echt unfasssbar.

robbitop
2003-04-07, 17:52:07
aber unfassbar von der ganzen Brange...