PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread NV40 (war: NV40 am 14. April)


Seiten : 1 2 3 4 5 6 [7] 8 9 10

StefanV
2004-04-11, 17:27:57
Original geschrieben von betareverse
Und mal was anderes: Ist es gesichert, dass der NV40 OGL2.0-compliance ist?

Sind das nicht auch schon R300 (und ableger) und nV3x??

betasilie
2004-04-11, 17:32:02
Original geschrieben von Stefan Payne
Sind das nicht auch schon R300 (und ableger) und nV3x??
Das wäre meine nächste Frage gewesen. :)

betasilie
2004-04-11, 17:33:00
Original geschrieben von Demirug
Ist OpenGL 2.0 umfang schon entgültig festgelegt?
Ich frage halt, weil es in der Tabelle von gzeasy so dargestellt wird.

zeckensack
2004-04-11, 17:43:10
Original geschrieben von Demirug
Ist OpenGL 2.0 umfang schon entgültig festgelegt? Nein. OpenGL2 war ein Konzept, aus dem einige interessante Dinge hervorgegangen sind (GLslang, Superbuffers, async GL).
GL2 als ganzes ist weder "fertig", noch wird es das in absehbarer Zeit werden.

Die entwickelten Ideen werden jetzt aber so nach und nach in GL1 eingepflegt (GLslang, EXT_render_target (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011747) als quasi-Ersatz für Superbuffers, NVX_conditional_render (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011740) könnte man als Untermenge von Async GL sehen, etc pp).

Original geschrieben von betareverse
Und mal was anderes: Ist es gesichert, dass der NV40 OGL2.0-compliance ist?
"Compliance" ist ein Begriff der nur bei DXG überhaupt jemals Sinn ergab. Ich bitte darum, an GL nicht mit solch absurden Begriffen heranzugehen.
GLslang setzt keine harten Limits (so wie der DXG-Texturmanager zB auch keine harten Limits setzt). Es ist alleine von daher schonmal unmöglich "GLslang compliant" überhaupt festzustellen. Das heisst nicht, dass es nicht trotzdem funktioniert (der DXG-Texturmanager funktioniert ja auch).

Es ist im Grunde ganz einfach:
NV40 kann Shader-Programme mit maximal xyz Instruktionen verwalten und letztlich ausführen. Unabhängig von der API und der benutzten Syntax, ergo auch via GLslang. Mehr braucht man nicht zu wissen.

AMC
2004-04-11, 18:06:40
Original geschrieben von Demirug
Es macht für nVidia keinen Sinn ATI mit riesigem Abstand den hintern zu versollen weil sie dich damit selbst die Marge kaputt machen würden. Das gleiche gilt natürlich umgekehrt auch für ATI.

Hmm, dass habe ich jetzt ehrlich gesagt nicht so ganz verstanden! Wieso macht das für, sagen wir mal, nVidia, keinen Sinn, den r420 mit grösserem Abstand zu verkloppen? Wenn die gesamte Produktlinie das jeweilige Konkurrenzprodukt um Längen schlägt, kann das doch wirtschaftlich nur sehr gut sein und wer würde in so einem Fall noch zu ATI´s Karten greifen? Das gilt andersrum natürlich auch. Kläre er mich doch bitte auf. :)

Gast
2004-04-11, 18:37:43
Mal ne Frage zu den 2 Molex-Steckern der Ultra:
http://www.heatsink-guide.com/psplug.gif

Ist es etwa so, daß der eine die 5V und der andere die 12V nutzt, um quasi die Last (±100W!) zu teilen?

up

tokugawa
2004-04-11, 18:38:44
Original geschrieben von Gast
Mal ne Frage zu den 2 Molex-Steckern der Ultra:
http://www.heatsink-guide.com/psplug.gif

Ist es etwa so, daß der eine die 5V und der andere die 12V nutzt, um quasi die Last (±100W!) zu teilen?

up

Klar liegt's im Bereich des möglichen. 7V ist übrigens auch möglich. Wissen werden wir's vermutlich eh bald.

tokugawa
2004-04-11, 18:41:55
Original geschrieben von zeckensack
Nein. OpenGL2 war ein Konzept, aus dem einige interessante Dinge hervorgegangen sind (GLslang, Superbuffers, async GL).
GL2 als ganzes ist weder "fertig", noch wird es das in absehbarer Zeit werden.

Die entwickelten Ideen werden jetzt aber so nach und nach in GL1 eingepflegt (GLslang, EXT_render_target (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011747) als quasi-Ersatz für Superbuffers, NVX_conditional_render (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=011740) könnte man als Untermenge von Async GL sehen, etc pp).


"Compliance" ist ein Begriff der nur bei DXG überhaupt jemals Sinn ergab. Ich bitte darum, an GL nicht mit solch absurden Begriffen heranzugehen.
GLslang setzt keine harten Limits (so wie der DXG-Texturmanager zB auch keine harten Limits setzt). Es ist alleine von daher schonmal unmöglich "GLslang compliant" überhaupt festzustellen. Das heisst nicht, dass es nicht trotzdem funktioniert (der DXG-Texturmanager funktioniert ja auch).

Es ist im Grunde ganz einfach:
NV40 kann Shader-Programme mit maximal xyz Instruktionen verwalten und letztlich ausführen. Unabhängig von der API und der benutzten Syntax, ergo auch via GLslang. Mehr braucht man nicht zu wissen.

Vielleicht sind meine Ansprüche niedriger, aber ich freue mich bei OpenGL 2.0 vor allen auf die seperaten independent Index Arrays für die Vertex Arrays... dass ein Index Array (etwa für VBO/glDraw(Range)Elements) in OpenGL <2.0 sowohl Vertizes, Normals, und TexCoord Arrays ansprechen (vielleicht gibt's ja eine Extension die das löst, aber mir wäre nichts dergleichen aufgefallen), mag ich nicht...

zeckensack
2004-04-11, 18:53:25
up,
das macht wenig Sinn. Man kann auch gleich die Leitungen parallel Schalten, dh aus beiden Steckern jeweils die 5V- und 12V-Schienen zusammenlegen, und damit die doppelte Stromstärke bekommen. Das ist keine grosse Wissenschaft, man braucht keine weiteren Bauteile dafür. Zwei dicke Leiterbahnen auf dem PCB, und fertig :)

Original geschrieben von tokugawa
Klar liegt's im Bereich des möglichen. 7V ist übrigens auch möglich. Wissen werden wir's vermutlich eh bald. 7 Volt sollte man (bei höheren Strömen) nicht aus dem Molex entnehmen. Ein PC-Netzteil ist eine Stromquelle, aber keine besonders gute Stromsenke. Dh dass wenn man 7Volt @ 10 Ampere aus dem Molex "subtraktiv" entnimmt, dann muss die 5V-Leitung (irgendwo anders im System) auch mit mindestens 10 Ampere belastet werden. Ansonsten fliegt einem wenn man Pech hat die Netzteil-Regelung um die Ohren.

Bei Lüftern und anderen Kleinverbrauchern geht das idR gut, man hat ja üblicherweise eine gewisse Grundlast auf der 5V-Leitung. Für grössere Energiemengen ist's einfach zu unsicher, und macht auch in der Energiebilanz keinen grossen Sinn. Die Begrenzung beim Molex lautet nunmal 5A pro Pin (Steckerspezifikation), und 12V*5A=60W (oder gar bei entsprechender Reglerschaltung 12V*5A+5V*5A=85W) ist besser als 7V*5A=35W. Einen Schaltregler braucht man so oder so, weil aktuelle Chips mit solcherlei "Hochspannung" einfach nicht umgehen können.

Wenn man 7V "bastelt", hat man direkt beide "heissen" Leitungen belegt (dafür läuft dann über die Molex-Masse keinerlei Strom mehr). Kein Gewinn ggü der direkten Speisung mit 12 Volt.

Demirug
2004-04-11, 18:54:39
Original geschrieben von AMC
Hmm, dass habe ich jetzt ehrlich gesagt nicht so ganz verstanden! Wieso macht das für, sagen wir mal, nVidia, keinen Sinn, den r420 mit grösserem Abstand zu verkloppen? Wenn die gesamte Produktlinie das jeweilige Konkurrenzprodukt um Längen schlägt, kann das doch wirtschaftlich nur sehr gut sein und wer würde in so einem Fall noch zu ATI´s Karten greifen? Das gilt andersrum natürlich auch. Kläre er mich doch bitte auf. :)

Fangen wir mal mit einem Monopol an. Wie erreicht man in einer Monopolsituation den grössten Gewinn? Indem man den Preis findet bei dem das Produkt aus den Leuten die bereit sind zu kaufen mal dem Gewinn pro Produkt am grössten ist. Deswegen werden auch bei Monopolstellungen die Sachen nie zu Mondpreisen verkuaft weil dann nämlich keiner mehr kaufen würde. Es gilt also diesen Punkt zu finden.

Nun bringen wir noch einen zweiten Spieler auf das Feld. Nun wird ein zweiter Preis interesant. Es gibt für jedes Produkt einen Preis den man nicht unterschreiten darf weil man sonst nicht einmal die selbstkosten für das Produkt decken kann. Es geht dabei rein um die Produktionskosten die Entwicklungskosten sind da nicht verrechnet. Egal wie viel besser mein Produkt ist mein Mitspieler wird nicht unter diesen Preis gehen. Ein grösserer Unterschied erlaubt mir nun zwar das ich meinen Preis höher setzten kann nur setzten dann wieder zwei Gegenströmungen ein. Als erstes verliere ich die Käufer deren festes Limit ich überschritten haben zum anderen sind mehr Käufer dazu geneigt das biligere Produkt mit weniger Leistung zu kaufen je grösser der Preisunterschied ist. Erschwerend kommt noch hinzu das wenn man seinen Konkurenten im Preis nach unten drückt dieser der eigenen Marke in darunter liegenden Preissegment nahe kommt. Zur Gewinnmaximierung ist es am besten wenn mein Produkt genauso viel kostet wie das des Mitbewerbers und ich minimal besser bin. In dem Fall schalte ich das "Ich bekomme auch etwas billigeres was nicht ganz so gut ist" Kaufverhalten vollkommen aus. Dieses Verhalten versucht der schwächerer aber auszunutzten indem er seinen Preis unter meinen setzt. Ab diesem Punkt fangen die Käufer dann schon an abzuwandern.

zeckensack
2004-04-11, 19:03:00
Original geschrieben von tokugawa
Vielleicht sind meine Ansprüche niedriger, aber ich freue mich bei OpenGL 2.0 vor allen auf die seperaten independent Index Arrays für die Vertex Arrays... dass ein Index Array (etwa für VBO/glDraw(Range)Elements) in OpenGL <2.0 sowohl Vertizes, Normals, und TexCoord Arrays ansprechen (vielleicht gibt's ja eine Extension die das löst, aber mir wäre nichts dergleichen aufgefallen), mag ich nicht... Das ist eher ein Problem der Hardware-Architekturen. IMO macht's keinen grossen Sinn, hier mehr zu fordern. Einige altertümliche Modelling-Programme bestehen darauf, solche Features haben zu wollen, aber bis jetzt ist mir noch kein "gesundes" Beispiel zu Ohren gekommen, wo das einen wirklichen Mehrwert gebracht hätte.

Das klassische Beispiel ist der Würfel mit 8 Eckpunkten und 6 Normalen. Peanuts. Bei "richtigen" Modellen mit mehreren Tausend Vertices sinkt das Einsparpotential gegen Null.

Wenn ein Vertex-Attribut sich nur sehr selten ändert, dann ist es kein Attribut, sondern eine Konstante. Man kann durchaus relativ schmerzfrei ein grosses Modell in mehrere Sub-Modelle aufteilen.

Gast
2004-04-11, 19:13:05
Zeckensack: So isses, Klasse!
Dann könnten ja Spekulationen stimmen, zu einer Extra-Rail für die Graka?

It seems each of those connectors will need to be plugged into a separate power rail, and nothing else can be plugged into that rail. OK, they will let you put a fan into it, but anything more is strictly forbidden. You can just hear the good folk at Antec doing the happy dance. Power supply upgrade time people.
Quelle (http://www.theinquirer.net/?article=15210)

up

tokugawa
2004-04-11, 19:34:30
Original geschrieben von zeckensack
Das ist eher ein Problem der Hardware-Architekturen. IMO macht's keinen grossen Sinn, hier mehr zu fordern. Einige altertümliche Modelling-Programme bestehen darauf, solche Features haben zu wollen, aber bis jetzt ist mir noch kein "gesundes" Beispiel zu Ohren gekommen, wo das einen wirklichen Mehrwert gebracht hätte.

Das klassische Beispiel ist der Würfel mit 8 Eckpunkten und 6 Normalen. Peanuts. Bei "richtigen" Modellen mit mehreren Tausend Vertices sinkt das Einsparpotential gegen Null.

Wenn ein Vertex-Attribut sich nur sehr selten ändert, dann ist es kein Attribut, sondern eine Konstante. Man kann durchaus relativ schmerzfrei ein grosses Modell in mehrere Sub-Modelle aufteilen.

Naja... kommt auf das Modell an... bei recht eckigen Mech-Modellen oder so ist auf jeden Fall mehr Einsparpotential da als bei "organischen" smoothen Models.

Im Übrigen steh ich bei diesem Problem eigentlich deswegen:

Ich verwende Skeletal Animation. Derzeit mit "entkoppelten" Vertizes (die in einem Gesamtpool) und TexCoords/Normalen gespeichert in der Trianglestruktur (die auch den Index in das Vertexarray speichert). Das funkt im Immediate Mode... aber ich möchte den Immediate Mode mit VBOs austauschen.

Aufgrund der Methode (Animationsalgorithmen sind relativ neu für mich) wie ich Skeletal Animation implementiere wende ich die Joint-Transformation auf die zugehörigen Vertizes an... in Software. Mit anderen Worten ich gehe alle Vertizes zu und wende die zugehörige Joint-Transformation an.

Wenn ich jetzt VBOs verwende, erhöht sich die Anzahl der Vertizes (da ja anstatt beim Indexifyen anstatt nur "unique Vertexkoordinaten" ein "unique Tuplet <Koordinaten, TexCoords, Normale>" benötigt wird - da es nur ein Indexarray gibt). Ich hab es noch nicht geprofilt, aber ich befürchte eben, dass (dadurch, dass ich die Jointtransformation in Software durchführe), der Performancevorteil der VBOs aufgefressen wird - sehr wahrscheinlich wird es sowieso CPU-limitiert.

Vertex-Programs kommen im Übrigen später... ich will das erstmal ohne implementiert haben.

EDIT: sorry, das ist jetzt vermutlich offtopic... wollte nicht den Thread hier noch weiter aufblähen...

Gast
2004-04-11, 20:53:00
Original geschrieben von zeckensack
Nein. OpenGL2 war ein Konzept, aus dem einige interessante Dinge hervorgegangen sind (GLslang, Superbuffers, async GL).
GL2 als ganzes ist weder "fertig", noch wird es das in absehbarer Zeit werden.




Hää...

Ich dachte OpenGL 2.0 wird im August 2004 auf der Siggraph offiziell vorgestellt.

Quelle : http://www.3dlabs.com/support/developer/ogl2/presentations/GLSLMasterClass2004.pdf Seite 33; Achtung 9.3MB groß

betasilie
2004-04-11, 22:13:36
Original geschrieben von zeckensack
"Compliance" ist ein Begriff der nur bei DXG überhaupt jemals Sinn ergab. Ich bitte darum, an GL nicht mit solch absurden Begriffen heranzugehen.
GLslang setzt keine harten Limits (so wie der DXG-Texturmanager zB auch keine harten Limits setzt). Es ist alleine von daher schonmal unmöglich "GLslang compliant" überhaupt festzustellen. Das heisst nicht, dass es nicht trotzdem funktioniert (der DXG-Texturmanager funktioniert ja auch).

Es ist im Grunde ganz einfach:
NV40 kann Shader-Programme mit maximal xyz Instruktionen verwalten und letztlich ausführen. Unabhängig von der API und der benutzten Syntax, ergo auch via GLslang. Mehr braucht man nicht zu wissen.
Ok, die Diskussion gab es aber schon mal das eine oder andere mal, deshalb meine Frage. Es verwundert mich aber auch nicht, dass ihr mit solchen DX-Begrifflichkeiten nichts zu tun haben wollt. :D

Also ist OpenGL2 eher so zu verstehen, dass es zwar irgendwann kommt, aber im Grunde genommen die Developer weiterhin das technolgische Minimum in den Renderpfaden selber definieren? Dann frage ich mich, wieso man so ein Tarah aus der Verionsnummer macht.

zeckensack
2004-04-11, 22:46:25
Original geschrieben von Gast
Hää...

Ich dachte OpenGL 2.0 wird im August 2004 auf der Siggraph offiziell vorgestellt.

Quelle : http://www.3dlabs.com/support/developer/ogl2/presentations/GLSLMasterClass2004.pdf Seite 33; Achtung 9.3MB groß Öhh :|
Das überrascht mich jetzt doch ein wenig.
Wenn GL2=GL1.5+GLslang sein soll (worum es in der Präsentation ja hauptsächlich geht), dann könnte man es ebensogut GL1.6 nennen. Aber da muss ich nochmal nachforschen =)

Exxtreme
2004-04-11, 22:55:30
Original geschrieben von betareverse
Dann frage ich mich, wieso man so ein Tarah aus der Verionsnummer macht.
Naja, grobe Anhaltspunkte sind immer gut. Die Versionsnummer von OpenGL eignet sich sehr viel weniger dazu ein "Techlevel" festzulegen da die "Übergänge" sehr fließend sind.

zeckensack
2004-04-11, 23:05:58
Original geschrieben von betareverse
Ok, die Diskussion gab es aber schon mal das eine oder andere mal, deshalb meine Frage. Es verwundert mich aber auch nicht, dass ihr mit solchen DX-Begrifflichkeiten nichts zu tun haben wollt. :D

Also ist OpenGL2 eher so zu verstehen, dass es zwar irgendwann kommt, aber im Grunde genommen die Developer weiterhin das technolgische Minimum in den Renderpfaden selber definieren? Dann frage ich mich, wieso man so ein Tarah aus der Verionsnummer macht. GL2 ist/war so zu verstehen, dass irgendjemand (3DLabs) mal einen ziemlich radikalen Rundum-Modernisierungsvorschlag für OpenGL machen wollte, der dann im Zweifel auch zum Brechen der Abwärtskompatibilität geführt hätte. Die Rede war damals von "GL2" und "pure GL2". Ersteres wäre ein erweitertes GL1 gewesen, letzteres hätte man dann nur noch mit Hochsprachenshadern befeuern können. Dafür brauchte man einen möglichst visionären Namen :)

Wie der Gast aufgezeigt hat, stehe ich bzgl der aktuellen Entwicklung dieser Pläne auch etwas auf dem Schlauch. Ich lese die ARB Meeting Notes, aber dass GL2 jetzt doch offiziell kommen soll, war mir neu :|

Das mit dem "technologischen Minimum" habe ich jetzt nicht so ganz verstanden*. Versionsnummern sind bei OpenGL generell eher unwichtig, weil die API ja den Extension-Mechanismus unterstützt.

Wenn DX Graphics eine neue Funktion erhalten soll, dann muss Microsoft eine neue Version herausbringen. Die IHVs können neue Features - egal welcher Art - nicht ohne Mitwirkung von Microsoft nutzbar machen. Deswegen sind bei DXG Versionsnummern weiterhin sehr wichtig. Bei OpenGL sind sie im Grunde egal.
Es ist nur so, dass "der Markt" gerne mit Versionsnummern arbeitet. Die vielen Jahre der Diskussion über DirectX haben Endnutzern wie Journalisten in gewisser Weise die Gehirne weichgeschliffen. Man ist eben gewohnt, Fortschritt nur in Verbindung mit höherer Versionsnummer zu erhalten.

Einem durchschnittlichen Mediamarkt-Kunden kann man "GL1.5 ist aber besser als GL1.3" eher vermitteln als "ARB_vertex_program, ARB_occlusion_query, ARB_vertex_buffer_object etc pp blabla". Marketing ahoi.

Es gibt ja sogar Leute, die immer mal wieder stolz darauf sind, herauszufinden dass Spiel xyz auch auf 'ner MX lauffähig ist, und die dann ihre bahnbrechende Erkenntnis in Revolverblattschlagzeilen ala "UT2k3 ist nur ein DX7-Spiel" packen müssen. Keine Ahnung warum Menschen so funktionieren :|

edit:
*doch, jetzt hab ich's verstanden. Richtig, man wählt sich eine oder mehrere Technologiestufen aus, und schreibt Code für diese Stufe(n). Durch GL2 ändert sich daran nichts grundlegendes. GLslang ist schon jetzt nutzbar (obwohl man es IMO noch nicht auf Kunden loslassen sollte). Einzig ein "pure GL2" wäre hier noch zu berücksichtigen, weil die für "kleinere" Techlevels unterhalb GLslang geschriebene Code-Pfade auf "pure GL2"-Treibern überhaupt nicht mehr lauffähig wären. Ich glaube nicht dass das momentan erstrebenswert ist.

betasilie
2004-04-11, 23:54:19
Jo, danke für die ausführliche Antwort, wobei ich nicht ganz verstanden, ob es ein "pure GL2" geben wird oder ob es ein Vorschlag war, der nicht mehr zur Diskussion steht.

GLslang sollte dann übrigens "final" sein, wenn GL2 im August vorgestellt wird, und ich schließe mich dem mal an, dass GL1.5+GLslang eher den Namen GL1.x tragen sollte, aber scheinbar machen einige Leute ihren Einfluss geltend, da sie die "2.0" vermarkten wollen.

marco42
2004-04-12, 01:55:48
Original geschrieben von zeckensack
Wie der Gast aufgezeigt hat, stehe ich bzgl der aktuellen Entwicklung dieser Pläne auch etwas auf dem Schlauch. Ich lese die ARB Meeting Notes, aber dass GL2 jetzt doch offiziell kommen soll, war mir neu :|


Gibt es leider noch die vom Maerz, obwohl Cass meinte sie waere fertig.

Auf der NVidia Page steht, dass es OpenGL 2.0 geben soll. Da stand dann auch drin, dass es GLSlang, PBOs, non_power_of_two und keine Superbuffers darin geben soll. Nach dem letzten Posting von Mark Kilgard ueber GLSlang wird mir aber schon wieder seltsam mulmig. Sie scheinen immer noch nicht verdaut zu haben, dass das ARB das Cg nicht genommen hat.

NVidia scheint mir EXT_render_target ja mal wirklich ein Wurf gelungen zu sein. Das einzige was mich jetzt noch stoert, ist dass es zwei Object Systeme gibt, das von TO, VBO etc und das von Shadern.

Apropos GLSlang, der NV40 wird noise wohl auch nicht in hardware haben. :-(

Gast
2004-04-12, 02:45:05
Gerade gefunden:
http://hard.zol.com.cn/2004/0408/images/154446.jpg

http://hard.zol.com.cn/2004/0408/images/154447.jpg

up

thop
2004-04-12, 02:50:06
Wurde irgendwo hier schon als Fake entlarvt.

thop
2004-04-12, 02:54:34
http://www.nvidiot.com/nv40.jpg

CrazyIvan
2004-04-12, 03:06:21
Na hallo,

das ist schon eher die Art Kühlung, die mir für so nen Chip vorschwebte. Wobei mir der Radiallüfter lautstärkemäßig jetzt schon Angst macht.

Aber so wie es aussieht, geht die Heatpipe in Richtung Lüfter und nicht, wie gemunkelt, auf die Hinterseite des PCBs. So wie es auf dem Foto im allgemeinen aussieht, scheint es auf der Rückseite keinerlei Kühlkörper zu geben.

Frage mich jetzt nur, was dann die früheren Bilder mit dem mickrigen Kühler zeigten...

@ thop

Woher?

thop
2004-04-12, 03:11:25
Wenn man sich mal anguckt dass die Kühlfins relativ dicht beieinander liegen dann denke ich wird man da ordentlich Druck brauchen um da was durchzupusten damits was bringt. Ich hoffe nicht dass der doch eher kleine Quirl zu laut sein wird, befürchte ich aber schon.

http://www.nvnews.net/vbulletin/showthread.php?t=27208

Was man aus dem Winkel auch nicht so gut erkennen kann ist dass das Kühlsystem wohl doch ziemlich hoch ist, von ~1,5 Slots ist die Rede.

kalle1111
2004-04-12, 03:20:45
Der Kühler erinnert mich irgendwie an den Silencer

thop
2004-04-12, 03:21:40
Jo nur verkehrt herum ;)

tokugawa
2004-04-12, 03:23:15
Man sollte allerdings unbedingt bedenken dass niemand exakt diese Kühlung im Retail bekommen wird.


Den exakten kritisiertem NV30-Fön hat auch niemand tatsächlich auf einer verkauften Karte bekommen; denn die Preview-Boards waren nämlich noch lauter als die verkauften (ja, sie haben nachgebessert; beim Launch wurde aber natürlich genau jene Kühlung so kritisiert, in welcher Form sie dann eh keiner gekriegt hat da sie leicht nachgebesser wurde - ok sie war trotzdem laut, aber nicht mehr SO arg).


Mal abgesehen davon dass Hersteller wie MSI, wie ich vermute, wieder ihre patentierten leisen Kühllösungen draufschrauben werden - hoffentlich zumindest.

Nach dem NV30-Fön denke allerdings nicht dass sich NVIDIA nochmal ein (extremes) Kühler-Getöse erlaubt.

Quasar
2004-04-12, 08:52:01
Doch, die FX5800 Ultra wurde mit extakt dem "Fön" ausgeliefert, der auch auf den Preview-Karten verbaut war.

LovesuckZ
2004-04-12, 10:20:24
Der Kühler siehtso aus wie der Referenzkühler der NV30 non Ultra Karten. Beachtlich, wenn man annehmen kann, dass die Karten mehr Strom brauch und mehr Wärme abgegeben werden muss.
Ausserdem ist die Karte irgenwie webiger kompakt wie die NV30/35 Katren.

Quasar
2004-04-12, 10:28:14
Original geschrieben von LovesuckZ
Der Kühler siehtso aus wie der Referenzkühler der NV30 non Ultra Karten. Beachtlich, wenn man annehmen kann, dass die Karten mehr Strom brauch und mehr Wärme abgegeben werden muss.
Ausserdem ist die Karte irgenwie webiger kompakt wie die NV30/35 Katren.

Neenee, hier hat man sich schon ein bissel mehr Gedanken gemacht. Der Lüfter hat einen deutliche größeren Durchmesser und wie man auf dem anderen Bild sehen konnte, auch größere Schaufeln.
Weiterhin ist die Luftströmung jetzt nicht mehr so diffus nach recht und oben, sondern sehr gerichtet direkt nach hinten aus der Karte raus, deshalb auch die Heatpipe über den oberen RAMs, da diese nicht mehr vom Luftstrom erfasst werden.
Dafür wird die Spannungsregulierung mitbelüftet, allerdings würde die Warme Luft (z.B. in meinem PC) direkt bei den ohnehin schon oftmals vernachlässigten Festplatten ankommen.

Gast
2004-04-12, 10:36:35
und wenn eine gute luftzirkulation im gehäuse herrscht, blasen die Lüfter gegeneinander.
also isses praktisch nutzlos

StefanV
2004-04-12, 10:38:16
Original geschrieben von LovesuckZ
Der Kühler siehtso aus wie der Referenzkühler der NV30 non Ultra Karten. Beachtlich, wenn man annehmen kann, dass die Karten mehr Strom brauch und mehr Wärme abgegeben werden muss.
Ausserdem ist die Karte irgenwie webiger kompakt wie die NV30/35 Katren.

Nein, der sieht ganz anders aus!

1. ist der Quirl auf den NV30/35 Karten deutlich kleiner im Durchmesser, 2. ist das Design des Kühlers etwas anders und eher weniger mit diesem zu vergleichen.

Wirklich besser find ich diesen nV40U Quirl auch nicht...

LovesuckZ
2004-04-12, 10:44:52
I've been testing with an Antec True430 and haven't run across any problems so far.
This model has five peripheral power connectors that connect to devices like a HDD or CD/DVD. Two of the power supply leads have one connector on each lead. Neither one of them is shared with any other device, which is very important, and are connected directly to the NV40.
NVIDIA recommends the Antec True550, Antec True480 or NEO480, or Enermax EG475P-VE SFMA.

MikeC

Original geschrieben von Stefan Payne
Wirklich besser find ich diesen nV40U Quirl auch nicht...

Wen wundert es...

Ailuros
2004-04-12, 10:49:11
Was die 3dmark scores betrifft: ob es nun ein Fake ist oder nicht sollte wohl egal sein. Diese Raten sind durchaus erreichbar und machen mir persoenlich auch keinen besonderen Eindruck.

Da ich hauptsaechlich heutzutage in 1280*960 spiele, interessiert mich hier die Leistung hauptsaechlich und mit AA/AF natuerlich.

Winter[Raven]
2004-04-12, 10:55:41
Macht euch keine Sorgen .... der Lüfter ist nicht so Laut wie er aussieht ^^, vergleichbar mit einem NV35.

StefanV
2004-04-12, 10:55:59
Original geschrieben von LovesuckZ
Wen wundert es...

Tjo, ich bin halt kein Fan von Radiall lüftern :P

Die sind zwar theoretisch ganz brauchbar, in der Praxis eher weniger, da man lieber irgendwelche 'Sparversionen' dieser Lüfter einsetzt, die keine wirklich große Oberfläche, um Luft zu bewegen, besitzen.


Lieber einen großen Axiallüfter nehmen, unten noch ein paar 'einkerbungen' und schon hat man einen recht guten Kühler, der sehr leise ist, siehe MSI...

LovesuckZ
2004-04-12, 11:01:55
http://www.bigsmedia.de/specs.jpg (http://www.digit-life.com/news.html?103799#103799)

Vorallen der Preis scheint entweder a) zu optimistisch oder b) Nvidia weiß, dass ATi schneller sein werde.
Wobei, mir b) dann doch besser gefällt :D

Winter[Raven]
2004-04-12, 11:09:34
@ Love

NV 40 vs ATI xxxx

UT2k3 asbestos Map @ 1600 @ 4xaa

NV40 ~ 175 fps

ATI xxxx ~ 95 fps

Bei der ATI muss man annehmen es handle sich um die 9800XT.

@ Tabelle

Ne, NIMMALS! Da hat Digi-life was falsches reingeschriben.

Ailuros
2004-04-12, 11:11:39
Original geschrieben von LovesuckZ
http://www.bigsmedia.de/specs.jpg (http://www.digit-life.com/news.html?103799#103799)

Vorallen der Preis scheint entweder a) zu optimistisch oder b) Nvidia weiß, dass ATi schneller sein werde.
Wobei, mir b) dann doch besser gefällt :D

Hast Du daran gedacht dass die Ultra vielleicht mit mehr als 256MB verpackt sein koennte oder dass es zwei Varianten gibt? (keine Ahnung nur ne logische Frage).

Ansonsten kein Einwand zur Tabelle :)

Ailuros
2004-04-12, 11:15:17
Original geschrieben von Winter[Raven]
@ Love

NV 40 vs ATI xxxx

UT2k3 asbestos Map @ 1600 @ 4xaa

NV40 ~ 175 fps

ATI xxxx ~ 95 fps

Bei der ATI muss man annehmen es handle sich um die 9800XT.

@ Tabelle

Ne, NIMMALS! Da hat Digi-life was falsches reingeschriben.

Mit AF oder ohne?

a) Mir sind flyby scores schnuppe
b) Gleiches gilt fuer nur MSAA ohne AF
c) UT2k3 ist ein Spiel wo man unter normalen high end Spielverhaeltnissen (1280 + AA/AF) eine Leistungssteigerung erwarten sollte die analog zum Unterschied der Bandbreite zwischen Karten sein sollte. Je mehr natuerlich desto besser.

LovesuckZ
2004-04-12, 11:17:44
Original geschrieben von Ailuros
Hast Du daran gedacht dass die Ultra vielleicht mit mehr als 256MB verpackt sein koennte oder dass es zwei Varianten gibt? (keine Ahnung nur ne logische Frage).

Könnte natuerlich alles sein.
Ich rechne aber erst mit 512MB im nächsten Halbjahr von Nvidia.

Ansonsten kein Einwand zur Tabelle :)

Also stimmt der Preis? Und kann man ihn auch für die ganze Welt übernehmen? Ich meine, 399$ bzw. € für das High End Geraet ist doch ein wenig, aeh, wenig...

Demirug
2004-04-12, 11:18:30
Original geschrieben von LovesuckZ
http://www.bigsmedia.de/specs.jpg (http://www.digit-life.com/news.html?103799#103799)

Vorallen der Preis scheint entweder a) zu optimistisch oder b) Nvidia weiß, dass ATi schneller sein werde.
Wobei, mir b) dann doch besser gefällt :D

c) es fehlt rechts noch eine Spalte.

LovesuckZ
2004-04-12, 11:19:42
Original geschrieben von Demirug
c) es fehlt rechts noch eine Spalte.

Warum sollte Digit-life.com diese, aeh, wegschnippeln. Aber du kannst gerne so frei sein ... aeh, ich meine mein Postfach steht dir jeder Zeit offen :)

Ailuros
2004-04-12, 11:24:38
Original geschrieben von LovesuckZ
Könnte natuerlich alles sein.
Ich rechne aber erst mit 512MB im nächsten Halbjahr von Nvidia.



Also stimmt der Preis? Und kann man ihn auch für die ganze Welt übernehmen? Ich meine, 399$ bzw. € für das High End Geraet ist doch ein wenig, aeh, wenig...

Ich hab wirklich keine Ahnung ob jetzt oder spaeter 512MB boards geplant sind. Aber wenn der maximale Preis fuer NV40U tatsaechlich bei 499 liegt und das mit 512MB, dann sind 399 fuer 256MB eigentlich normal.

Und ja NVIDIA weiss genau wie es mit Leistung bei der Konkurrenz aussieht.

BvB123
2004-04-12, 11:29:52
Original geschrieben von Gast
Gerade gefunden:
http://hard.zol.com.cn/2004/0408/images/154446.jpg

http://hard.zol.com.cn/2004/0408/images/154447.jpg

up



warum sollte das ein fake sein
das mit dem test 1 kann sein
weil die haben dsoch auch mit einem 3 ghz a64 getestet hab ich irgendwo gelesen

Winter[Raven]
2004-04-12, 11:34:05
Ich könnte mir vorstellen, dass Nvidia jetzt was die Preisgestalltung ähnlich ihrer PR sien wird, den sie haben mit dem NV3ß+NV35 Desaster ~10% ihrer Marktanteile an ATi verloren, und ich dneke die werden sich diese durch die bessere Preisgestalltung auch erreichen. Wird ne spannender zweikampf ^^.

Gast
2004-04-12, 11:34:20
Ich gerade so ne Idee: Könnte es sein, dass das/der kleine Mikrofon/Lautsprecher zur Messung der Lautstärke des Lüfters dient?

dildo4u
2004-04-12, 11:36:11
Original geschrieben von BvB123
warum sollte das ein fake sein
das mit dem test 1 kann sein
weil die haben dsoch auch mit einem 3 ghz a64 getestet hab ich irgendwo gelesen http://service.futuremark.com/compare?2k3=2068578 so hier ein A64FX mit 3071mhz der kommt auf 343fps beim 1test der sher cpu lastig ist für 450fps müsste man so mindesttens 3.8ghz haben und das ist mit einem A64 unmöglich also fake

Ailuros
2004-04-12, 11:38:27
Original geschrieben von Winter[Raven]
Ich könnte mir vorstellen, dass Nvidia jetzt was die Preisgestalltung ähnlich ihrer PR sien wird, den sie haben mit dem NV3ß+NV35 Desaster ~10% ihrer Marktanteile an ATi verloren, und ich dneke die werden sich diese durch die bessere Preisgestalltung auch erreichen. Wird ne spannender zweikampf ^^.

Was heisst besser? 400-500$ kosten high end boards schon seit einer Ewigkeit und ich bezweifle dass ATI die Preise ihrer Produktlinie anders gestalten wird.

400$ ist das Preisniveau an dass wir uns gewoehnt haben mit den Jahren; alles darueber hat meistens mit einer Uebermenge von Speicher zu tun.

Ailuros
2004-04-12, 11:40:25
Original geschrieben von dildo4u
http://service.futuremark.com/compare?2k3=2068578 so hier ein A64FX mit 3071mhz der kommt auf 343fps beim 1test der sher cpu lastig ist für 450fps müsste man so mindesttens 3.8ghz haben und das ist mit einem A64 unmöglich also fake

12K Punkte sind normal fuer diese Karten, egal ob das Bildchen oben ein fake ist oder nicht. Ich sehe nichts falsches an den scores; der erste Test beruht sehr stark auf single-texturing. Ein bisschen schaerfer nachdenken vielleicht?

LovesuckZ
2004-04-12, 11:41:02
Original geschrieben von Ailuros
400$ ist das Preisniveau an dass wir uns gewoehnt haben mit den Jahren; alles darueber hat meistens mit einer Uebermenge von Speicher zu tun.

Naja, 400$ war früher das Niveau der "kleineren" High End Karte. Egal ob 9700, 5800, 5900.
Und wenn man sieht, dass die hersteller am Anfang selbst für karten wie 5950 oder 9800XT 500$ nehmen wollten, verwundert es mich jetzt, dass Nvidia mit 399$ und 256MB kommen wolle...

Feuerteufel
2004-04-12, 11:43:56
Original geschrieben von Gast
Ich gerade so ne Idee: Könnte es sein, dass das/der kleine Mikrofon/Lautsprecher zur Messung der Lautstärke des Lüfters dient?

Nö, man würde ja alle vorhanden Lärmquellen innerhalb des Gehäuses mitmessen.

ironMonkey
2004-04-12, 11:44:29
Hmm...Na wenn NV mit 400$ ins Rennen geht dann scheint es so als sei ATI ein stückchen schneller und der direkte Gegener für die 6800Ultra ist die X800pro, wenn NV siehts das ihr Chip schneller ist dann wollen die auch ordentlich Kohle dafür, so war es zumindestens in der Vergangenheit.



Gruß

Ailuros
2004-04-12, 11:44:41
Original geschrieben von LovesuckZ
Naja, 400$ war früher das Niveau der "kleineren" High End Karte. Egal ob 9700, 5800, 5900.
Und wenn man sieht, dass die hersteller am Anfang selbst für karten wie 5950 oder 9800XT 500$ nehmen wollten, verwundert es mich jetzt, dass Nvidia mit 399$ und 256MB kommen wolle...

Nein wieso auch? Ich meine Preise fuer einen gewissen Zeitraum.

9700PRO war das absolute high end fuer Ende 2002. Was nach 6 Monaten veroeffentlicht wurde hat wohl nichts damit zu tun.

9800XT hatte auch 256MB onboard ram und uebrigens wird Speicher mit der Zeit normalerweise billiger und nicht teurer. Es heisst wohl eher dass fuer 2003 ultra high end boards mit 256MB ram und in 2004 mit 512MB ram verpackt werden.

Was ist hier anders als in der Vergangenheit?

Demirug
2004-04-12, 11:46:20
Original geschrieben von LovesuckZ
Warum sollte Digit-life.com diese, aeh, wegschnippeln. Aber du kannst gerne so frei sein ... aeh, ich meine mein Postfach steht dir jeder Zeit offen :)

Ich habe die Spalte nicht. Es war eben nur eine überlegung das nVidia da noch etwas plannt was rechts von der 6800U sitzt. Vielleicht eine 6850U?

Ailuros
2004-04-12, 11:49:35
Original geschrieben von ironMonkey
Hmm...Na wenn NV mit 400$ ins Rennen geht dann scheint es so als sei ATI ein stückchen schneller und der direkte Gegener für die 6800Ultra ist die X800pro, wenn NV siehts das ihr Chip schneller ist dann wollen die auch ordentlich Kohle dafür, so war es zumindestens in der Vergangenheit.



Gruß

Also dieser Logik kann ich beim bestem Willen nicht folgen. 400$ ist die logische obrige Grenze momentan fuer 256MB boards; der Rest den ihr hier auftischt macht keinen Sinn.

Angenommen ATI weiss dass sie um 20% schneller als Beispiel sein koennten, glaubt hier jemand allen Ernstes dass sie dann 256MB boards fuer 500$ verkaufen wuerde, gerade weil sie schneller sind?

Der finale Preis ist direkt mit den Unkosten verbunden. Sollte es einen Fall geben dass ATI leicht teurer sein sollte, dann muesste zumindest hoeher spezifizierter und daher teurer Speicher auf den Dingern stecken. Da aber die Verfuegbarkeit extremes turnen ueber 600MHz GDDR3 momentan nicht erlaubt, hilft die Theorie auch nicht.

LovesuckZ
2004-04-12, 11:52:59
Original geschrieben von ironMonkey
Hmm...Na wenn NV mit 400$ ins Rennen geht dann scheint es so als sei ATI ein stückchen schneller und der direkte Gegener für die 6800Ultra ist die X800pro, wenn NV siehts das ihr Chip schneller ist dann wollen die auch ordentlich Kohle dafür, so war es zumindestens in der Vergangenheit.


Hm, wenn es wirklich sein koennte, dass neben der Ultra noch eine andere Karte stehen könnte, dann waere das Nvidia's Gegenschlag zu ATi's Produktlinie.
Wenn man sich anguckt, dass Nvidia für 299$ eventuell die 6800 anbietet, hat ATi hier nur eine X800SE zu bieten.
Im gegensatz dazu könnten sie bei der "6850Ultra" den Takt gleichzeitig zu der Speichermenge erhöhen, wodurch sie sich alle Option offen halten. Vielleicht wird das auch der NV45 -> PCI-E, hoeher Takt und mehr Speicher.

aths
2004-04-12, 12:13:09
Original geschrieben von Ailuros
Und ja NVIDIA weiss genau wie es mit Leistung bei der Konkurrenz aussieht. Nur bei Produkten, die man bereits kaufen kann.

Gast
2004-04-12, 12:20:15
Original geschrieben von aths
Nur bei Produkten, die man bereits kaufen kann. Das glaubst nur du. ATI und nVidia haben mit 100%iger Sicherheit zuverlässige Informationsquellen über den aktuellen Entwicklungsstand beim Konkurrenten. Wenn du als Redakteur eines Onlinemagazins ein NDA unterschreibst sind die Informationen schon seit Monaten beim Konkurrenzunternehmen und wurden dort ausführlichst strategisch ausgewertet. Du glaubst wirklich dass du geheime brandaktuelle Informationen quasi exklusiv bekommst, wenn du kurz vor dem Launch ein NDA für Pressesamples unterschreibst und die Karten bei der CeBit im Hinterzimmer praktisch fertig rumlungern? :lolaway:

ironMonkey
2004-04-12, 12:24:21
Original geschrieben von Ailuros
Also dieser Logik kann ich beim bestem Willen nicht folgen. 400$ ist die logische obrige Grenze momentan fuer 256MB boards; der Rest den ihr hier auftischt macht keinen Sinn.

Angenommen ATI weiss dass sie um 20% schneller als Beispiel sein koennten, glaubt hier jemand allen Ernstes dass sie dann 256MB boards fuer 500$ verkaufen wuerde, gerade weil sie schneller sind?

Der finale Preis ist direkt mit den Unkosten verbunden. Sollte es einen Fall geben dass ATI leicht teurer sein sollte, dann muesste zumindest hoeher spezifizierter und daher teurer Speicher auf den Dingern stecken. Da aber die Verfuegbarkeit extremes turnen ueber 600MHz GDDR3 momentan nicht erlaubt, hilft die Theorie auch nicht.


Es geht um Geld, Geld und nochmals Geld der Rest ist mal völlig unintressant, oh doch wie sich der Name verkauft ist auch wichtig weil das hat auch wieder direkt mit Kohle zu tun.


Wenn man das schnellste bzw. beste Produkt hat dann wird man auch ordentlich Geld dafür verlangen, wenn man aber kein Land sieht gegen andere Hersteller dann hilft es nur den Preis runter zu drücken.


Gruß

LovesuckZ
2004-04-12, 12:29:50
Eine Frage habe ich: Kann man davon ausgehen, dass IBM in der Lage ist beim NV40 hoehere Taktraten als die 400MHz jetzt schon zu schaffen?
Ich meine, die Vorführkarten wurden mit 475MHz getaktet, kann es sein, dass die jetzigen ebenfalls diesen Takt schaffen koennten?
Hm, koennte nen kleines Übertakterwunder werden..

Gast
2004-04-12, 12:31:03
Original geschrieben von Gast
Ich gerade so ne Idee: Könnte es sein, dass das/der kleine Mikrofon/Lautsprecher zur Messung der Lautstärke des Lüfters dient? LOL nein. Ein 3D-Spielebeschleuniger dient zur Grafikausgabe, nicht als Mikrofon. Was für ein seltsamer Gedankengang ist das? Den Lärm des Lüfters muss man nicht mit Primitivmethoden auf der Karte abschätzen, dafür gibt es Datenblätter beim Zulieferer oder man stellt in der Entwicklungsabteilung ein Mikrofon + leistungsfähiges Speicheroszilloskop vor die laufende Karte, wenn's denn überhaupt interessiert.

Die Idee ist ebenso sinnig wie ein Hygrometer, ein Geigerzähler oder ein Beschleunigungssensor auf einer Grafikkarte.

ironMonkey
2004-04-12, 12:37:41
Original geschrieben von LovesuckZ
Eine Frage habe ich: Kann man davon ausgehen, dass IBM in der Lage ist beim NV40 hoehere Taktraten als die 400MHz jetzt schon zu schaffen?
Ich meine, die Vorführkarten wurden mit 475MHz getaktet, kann es sein, dass die jetzigen ebenfalls diesen Takt schaffen koennten?
Hm, koennte nen kleines Übertakterwunder werden..

Die non Ultra 400mhz und die Ultra über 400mhz, also ich hab nichts davon gelesen das es bei der Ultra 400mhz sein sollen sondern mehr als 400mhz und wenn die non Ultra mit 400 taktet dann dürfte die Ultra so bei 450mhz rumfliegen denke ich mal.



Gruß

LovesuckZ
2004-04-12, 12:39:56
Es kann wohl davon ausgegangen werden, dass die ultra Karten mit 400MHz kommen und die nicht nicht ultra Karten wohl mit 350MHz, vielleicht sogar noch weniger.
Denn wie ich schonmal sagte, man schickte jetzt die Ultra Karte zu den testern, es ergibt daher keinen Sinn, diese Karte nachtraeglich nochmal im Takt zu steigern!

tokugawa
2004-04-12, 12:40:06
Original geschrieben von Gast
LOL nein. Ein 3D-Spielebeschleuniger dient zur Grafikausgabe, nicht als Mikrofon. Was für ein seltsamer Gedankengang ist das? Den Lärm des Lüfters muss man nicht mit Primitivmethoden auf der Karte abschätzen, dafür gibt es Datenblätter beim Zulieferer oder man stellt in der Entwicklungsabteilung ein Mikrofon + leistungsfähiges Speicheroszilloskop vor die laufende Karte, wenn's denn überhaupt interessiert.

Die Idee ist ebenso sinnig wie ein Hygrometer, ein Geigerzähler oder ein Beschleunigungssensor auf einer Grafikkarte.


Vielleicht eine Erweiterung von TCG/TCPA: jetzt loggen diesbezüglich unverdächtige Hardwarekomponenten schon Gespräche mit. Wanzen auf einer Grafikkarte vermutet ja niemand! Und man könnte es als "Support-Tool" verkaufen. Man kann dann über die Grafikkarte direkt mit dem Hersteller kommunizieren. Vermutlich auch ohne den Rechner zu booten (denn der NV40 dient auch gleich als USV - das frißt dann halt die 150W während des Betriebs, da es sich auflädt)...

Naja, ok, ich hör schon auf :P morgen/übermorgen werden wir ja eh mehr wissen...

Gast
2004-04-12, 12:50:01
Original geschrieben von Ailuros
a) Mir sind flyby scores schnuppe Und wieso? Flyby ist die einzige Methode bei UTx, wenn man die Grafikkartenleistung benchmarken möchte und den potenziellen Leistungseinfluss einer Grafikkarte auf das Spiel untersuchen will. Wenn du CPU-Benchmarks machen willst kannst du ja Botmatches laufen lassen. Aber auch die sind praktisch irrelevant: wer kauft sich ein Multiplayerspiel um damit nur gegen Bots zu spielen? Und ist diese Spielsituation wirklich der allgemeine Anwendungsfall von UT, wo es auf jeden Frame pro Sekunde ankommt?

In der Praxis wird UTx vor allem online oder im LAN mit menschlichen Spielern zusammen gespielt. Da ist dann die Grafikkarte nur ein Coprozessor von vielen. Die CPU muss dann die Physik in Echtzeit berechnen, mit dem Netcode die Gegner positionieren und die Interaktion der Mitspieler aus den UDP-Paketen vom Server (Netzwerkkarte/Netzwerkstack) rekonstruieren. Sound muss passend dazu ausgegeben und positioniert werden (DSP). Steuerbefehle von Eingabegeräten müssen ausgewertet, umgesetzt und die Informationen an den Server weitergegeben werden (wieder Netzwerk, UDP/IP etc.). Und du meinst ernsthaft, dass es sinnvoll für die Untersuchung des Einflusses der Grafikkartenperformance auf das allgemeine praktische Spielerlebnis ist, wenn du ein Botmatchdemo ablaufen lässt? :lol:

Wenn man den Einfluss der Grafikkarte testen will testet man sinnvollerweise nur diesen Teil und nimmt nicht ziellos eine weitere Last aus dem großen möglichen Pool für die CPU dazu, weil die fps-Anzeige dann nach unten geht und scheinbar in realistischere Bereiche für die Praxis kommt. Die Ergebnisse von Botmatches sind theoretisch und irrelevant für die Praxis. Niemand kauft sich eine 200+ EUR Grafikkarte um damit Botmatches so schnell wie möglich ablaufen zu lassen. Wenn man dagegen den möglichen (!) Einfluss einer Grafikkarte als Teil des Gesamtsystems auf das Gesamtspielerlebnis untersuchen möchte testet man sinnvollerweise auch die Leistung der Grafikausgabe isoliert vom Rest.

Ich beobachte hier öfters die Tendenz, dass vor lauter 3D-Beschleunigungsverrücktheit vergessen wird, dass die Grafikkarte nur ein Coprozessor-ASIC von vielen im Gesamtsystem des Rechners ist.

Quasar
2004-04-12, 13:01:11
Original geschrieben von Gast
Und wieso?

Ich vermute mal, eben weil man damit nicht die Game-Performance rausbekommt, sondern die reine Grafikleistung hat. Das ist zum rumprollen zwar toll, aber hilft niemandem wirklich weiter.

In-Game Multiplayer Demos sind das, was hier zählt.

Ailuros
2004-04-12, 13:01:54
Original geschrieben von Gast
Und wieso? Flyby ist die einzige Methode bei UTx, wenn man die Grafikkartenleistung benchmarken möchte und den potenziellen Leistungseinfluss einer Grafikkarte auf das Spiel untersuchen will.

Wobei mir aber diese theoretische Leistung in Echtzeit nichts bringt. Fuellraten kann ich auch mit anderen Programmen messen.


Wenn du CPU-Benchmarks machen willst kannst du ja Botmatches laufen lassen. Aber auch die sind praktisch irrelevant: wer kauft sich ein Multiplayerspiel um damit nur gegen Bots zu spielen? Und ist diese Spielsituation wirklich der allgemeine Anwendungsfall von UT, wo es auf jeden Frame pro Sekunde ankommt?

Es gibt auch custom demos danke.

In der Praxis wird UTx vor allem online oder im LAN mit menschlichen Spielern zusammen gespielt. Da ist dann die Grafikkarte nur ein Coprozessor von vielen. Die CPU muss dann die Physik in Echtzeit berechnen, mit dem Netcode die Gegner positionieren und die Interaktion der Mitspieler aus den UDP-Paketen vom Server (Netzwerkkarte/Netzwerkstack) rekonstruieren. Sound muss passend dazu ausgegeben und positioniert werden (DSP). Steuerbefehle von Eingabegeräten müssen ausgewertet, umgesetzt und die Informationen an den Server weitergegeben werden (wieder Netzwerk, UDP/IP etc.). Und du meinst ernsthaft, dass es sinnvoll für die Untersuchung des Einflusses der Grafikkartenperformance auf das allgemeine praktische Spielerlebnis ist, wenn du ein Botmatchdemo ablaufen lässt? :lol:

Die Zeit und Muehe haettest Du Dir sparen koennen.

Wenn man den Einfluss der Grafikkarte testen will testet man sinnvollerweise nur diesen Teil und nimmt nicht ziellos eine weitere Last aus dem großen möglichen Pool für die CPU dazu, weil die fps-Anzeige dann nach unten geht und scheinbar in realistischere Bereiche für die Praxis kommt. Die Ergebnisse von Botmatches sind theoretisch und irrelevant für die Praxis. Niemand kauft sich eine 200+ EUR Grafikkarte um damit Botmatches so schnell wie möglich ablaufen zu lassen. Wenn man dagegen den möglichen (!) Einfluss einer Grafikkarte als Teil des Gesamtsystems auf das Gesamtspielerlebnis untersuchen möchte testet man sinnvollerweise auch die Leistung der Grafikausgabe isoliert vom Rest.

Hat Dir schon jemand gesagt dass Du zu schreibfreudig bist?

Ich beobachte hier öfters die Tendenz, dass vor lauter 3D-Beschleunigungsverrücktheit vergessen wird, dass die Grafikkarte nur ein Coprozessor-ASIC von vielen im Gesamtsystem des Rechners ist.

So ich darf wohl annehmen dass die Lernstunde fuer heute vorueber ist oder? :D

Es ging um XYZ fps in gewisser Aufloesung mit gewissen settings in UT2k3/flyby. Zeigt dieses Resultat die Spielbarkeit an, ja oder nein? Dazu braucht man weder Roman-lange Antworten weder sich im Klugscheisser-modus zu bewegen. Ganz einfache Frage auf die ich auch eine ganz einfach Antwort erwarte.

Uebrigens sagte ich klipp und klar "fuer mich persoenlich"; tu mir einen Gefallen und versuche in dem Sinn Deine Meinung jemand anders aufzuzwingen. ;)

PS:

Kannst Dir gerne flyby scores dieser Acceleratoren mit dem hier vergleichen:

http://www.3dcenter.de/artikel/r9800xt_vs_gffx5950u/index19.php

Gast
2004-04-12, 13:03:25
Ach ja, es kommt sogar noch schlimmer: Bot - Match. Was impliziert dieses Wort? Einen Kampf der KI gegen sich selbst. Toll, wir benchmarken also den Fall dass die KI gegen sich selbst kämpft und man an diesen Kampf vor dem Rechner mit verschränkten Armen sitzend als Zuschauer teilnimmt. Ganz klar, es kaufen sich Leute Multiplayerspiele und 200+ EUR Grafikkarten, um dann Botmatchdemos möglichst schnell ablaufen zu lassen und sich diese am PC anzugucken, wie die Bots sich zerfleischen. ;D Und bei diesem "Anwendungsfall" kommt es natürlich ganz entscheidend darauf an, dass das Geschehen auch möglichst mit 120 fps abläuft, damit der Zuschauer niemals auch nur eine Daumenbewegung eines Bots verpasst. :D

Sry,
aber
X-D

Ailuros
2004-04-12, 13:06:43
Original geschrieben von Gast
Ach ja, es kommt sogar noch schlimmer: Bot - Match. Was impliziert dieses Wort? Einen Kampf der KI gegen sich selbst. Toll, wir benchmarken also den Fall dass die KI gegen sich selbst kämpft und man an diesen Kampf vor dem Rechner mit verschränkten Armen sitzend als Zuschauer teilnimmt. Ganz klar, es kaufen sich Leute Multiplayerspiele und 200+ EUR Grafikkarten, um dann Botmatchdemos möglichst schnell ablaufen zu lassen und sich diese am PC anzugucken, wie die Bots sich zerfleischen. ;D Und bei diesem "Anwendungsfall" kommt es natürlich ganz entscheidend darauf an, dass das Geschehen auch möglichst mit 120 fps abläuft, damit der Zuschauer niemals auch nur eine Daumenbewegung eines Bots verpasst. :D

Sry,
aber
X-D

Du kannst wohl lesen oder?

Wo zum Teufel hab ich botmatches erwaehnt?

thop
2004-04-12, 13:06:48
Original geschrieben von Gast (???)
Sry
X-D :verd:


Übrigens ist UT2003 eh für die Wurst, die sollen mal aktuellere Engines benchen. Aber ich sehs schon kommen, vermutlich werden die hälfte der Reviewer auch noch Q3 benchen :eyes:

Gast
2004-04-12, 13:08:05
Original geschrieben von Quasar
In-Game Multiplayer Demos sind das, was hier zählt. ACK. Damit kann man den Einfluss der Grafikkartenleistung einigermassen sinnvoll isoliert testen. Aber doch nicht mit Botmatches.

Ailuros
2004-04-12, 13:11:00
Original geschrieben von thop
:verd:


Übrigens ist UT2003 eh für die Wurst, die sollen mal aktuellere Engines benchen. Aber ich sehs schon kommen, vermutlich werden die hälfte der Reviewer auch noch Q3 benchen :eyes:

R360/NV38 sind IMHO gerade noch spielbar in 1280/4xAA-8xAF, obwohl es oft auch hier eng sein wird. Das naechster Generation Karten dann wohl spielbar in 1600 mit gleichen settings sein koennen, ist wohl nicht auszuschliessen aber nicht mal nahe an irgendwelches 190+ fps Niveau.

Dass ich in der Zwischenzeit UT2k4 installiert und UT2k3 dafuer de-installiert habe, ist nur ein unverstaendlicher Nebeneffekt :P

Ailuros
2004-04-12, 13:12:10
Original geschrieben von Gast
ACK. Damit kann man den Einfluss der Grafikkartenleistung einigermassen sinnvoll isoliert testen. Aber doch nicht mit Botmatches.

WO SAG MIR NUR WO ERWAEHNTE ICH BOTMATCHES?. Lies oben nochmal genau durch.

Gast
2004-04-12, 13:15:32
Original geschrieben von Ailuros
WO SAG MIR NUR WO ERWAEHNTE ICH BOTMATCHES?. Lies oben nochmal genau durch. Nirgends. Wenn jemand aber Flybys kategorisch ablehnt sagt er damit indirekt, dass er die überall veröffentlichten Botmatchresultate für tauglicher hält. Tests im Web von UT2003 bestehen üblicherweise entweder aus Flybys oder Botmatches, custom-Timedemos muss man mit der Lupe suchen. Sonst hättest du gesagt dass du UT2003 als Benchmark ablehnst, da üblicherweise nur die schnell zusammenklickbaren Flybys oder Botmatches getestet werden. Die Anmerkung von Customtimedemos kam erst später.

Winter[Raven]
2004-04-12, 13:16:01
Junx, bleibt mal beim Thema und schweifft bitte nicht ab ... :)

thop
2004-04-12, 13:17:54
Also ich kann mit ner 9600pro UT2004 ohne Probleme in 1280x960 spielen, ohne AA/AF allerdings. Durschnittliche Frames gehen von ~35 (Assault) bis ~70 (kleine DM maps).

Also von den NV40/R420 erwarte ich 1600x1200 mit deutlich über 100FPS. AA/AF sind mir nicht so wichtig, sind dann aber wohl auch noch locker drin.

Ailuros
2004-04-12, 13:27:56
Original geschrieben von Gast
Nirgends. Wenn jemand aber Flybys kategorisch ablehnt sagt er damit indirekt, dass er die überall veröffentlichten Botmatchresultate für tauglicher hält. Tests im Web von UT2003 bestehen üblicherweise entweder aus Flybys oder Botmatches, custom-Timedemos muss man mit der Lupe suchen. Sonst hättest du gesagt dass du UT2003 als Benchmark ablehnst, da üblicherweise nur die schnell zusammenklickbaren Flybys oder Botmatches getestet werden. Die Anmerkung von Customtimedemos kam erst später.

Mir ist egal was bei Dir normal ist oder nicht. Und erlaube mir freundlicherweise meine eigene persoenliche Meinung zu haben und meine Spiele wie auch Hardware danach zu messen und einzuschaetzen.

Das naechste Mal versuche ganz einfach den anderen zu fragen was genau er meinte, anstatt zu vorzeitigen Schlussvolgerungen zu kommen oder Zeit mit ueberflussigem Zeug zu verschwenden.

Nun tu mir einen Gefallen und versuche einen unerfahrenen 8-jaehrigen zu belehren. Ich hab wichtigeres zu tun als den Thread so weit OT zu jagen, weil Du aus unerklaerlichen Gruenden Dich mit Kindergarten-Material beschaeftigen willst.

Ailuros
2004-04-12, 13:31:16
Original geschrieben von thop
Also ich kann mit ner 9600pro UT2004 ohne Probleme in 1280x960 spielen, ohne AA/AF allerdings. Durschnittliche Frames gehen von ~35 (Assault) bis ~70 (kleine DM maps).

Also von den NV40/R420 erwarte ich 1600x1200 mit deutlich über 100FPS. AA/AF sind mir nicht so wichtig, sind dann aber wohl auch noch locker drin.

Geschmacksache. Ich wuerde keine 400+ $ VPU kaufen um ohne AA/AF auf dem Ding zu spielen.

Dass es einen wesentlichen Unterschied zwischen 1280+ AA/AF und 1600 ohne AA/AF (was Bildqualitaet betrifft) gibt, sollte wohl klar sein.

tokugawa
2004-04-12, 13:32:25
Original geschrieben von Gast
Ach ja, es kommt sogar noch schlimmer: Bot - Match. Was impliziert dieses Wort? Einen Kampf der KI gegen sich selbst. Toll, wir benchmarken also den Fall dass die KI gegen sich selbst kämpft und man an diesen Kampf vor dem Rechner mit verschränkten Armen sitzend als Zuschauer teilnimmt. Ganz klar, es kaufen sich Leute Multiplayerspiele und 200+ EUR Grafikkarten, um dann Botmatchdemos möglichst schnell ablaufen zu lassen und sich diese am PC anzugucken, wie die Bots sich zerfleischen. ;D Und bei diesem "Anwendungsfall" kommt es natürlich ganz entscheidend darauf an, dass das Geschehen auch möglichst mit 120 fps abläuft, damit der Zuschauer niemals auch nur eine Daumenbewegung eines Bots verpasst. :D

Sry,
aber
X-D

Ich kenn Leute, die "spielen" FIFA oder so, indem sie KI Mannschaft gegen KI Mannschaft antreten lassen. Und zwar nicht nur EIN Spiel, sondern gleich eine ganze Meisterschaft/Liga.

Manche übertreiben's echt...

Aber vielleicht setzt der Typ sie ein für Sportwetten :D

thop
2004-04-12, 13:35:01
Original geschrieben von Ailuros
Dass es einen wesentlichen Unterschied zwischen 1280+ AA/AF und 1600 ohne AA/AF (was Bildqualitaet betrifft) gibt, sollte wohl klar sein.
Nicht auf einem 1600x1200 TFT ;)

CrazyIvan
2004-04-12, 14:05:56
Original geschrieben von Quasar
Neenee, hier hat man sich schon ein bissel mehr Gedanken gemacht. Der Lüfter hat einen deutliche größeren Durchmesser und wie man auf dem anderen Bild sehen konnte, auch größere Schaufeln.

Wo siehst Du da größere Schaufeln? Das größte an dem Lüfter sind die 5 Aufhängungen für selbige. Die Schaufeln an sich sind genauso winzig wie nei allen anderen NV-Fönen vorher. Hat schonmal jemand nen Prescott mit nem 60x60mm Radiallüfter in erträglicher Lautstärke gekühlt? Vielleicht ist der Chip aber auch bis max. 120° C spezifiziert, dann wärs wohl kein Problem ;)


Weiterhin ist die Luftströmung jetzt nicht mehr so diffus nach recht und oben, sondern sehr gerichtet direkt nach hinten aus der Karte raus, deshalb auch die Heatpipe über den oberen RAMs, da diese nicht mehr vom Luftstrom erfasst werden.
Dafür wird die Spannungsregulierung mitbelüftet, allerdings würde die Warme Luft (z.B. in meinem PC) direkt bei den ohnehin schon oftmals vernachlässigten Festplatten ankommen.

Ich möchte ja wirklich gern glauben, dass sich nV diesmal mehr gedacht hat bei der Konstruktion, aber mir kommen da beim Anblick des Photos doch so meine Zweifel. Das Ding is Murks, weil es in die falsche Richtung bläst. Und das tut es nur, weil nV nichts besseres eingefallen ist, die Spannungswandler zu kühlen. Das führt zu ner Unmenge an warmer Luft im Gehäuse - halleluja...
Außerdem bin ich der Meinung, dass die Heatpipe oberhalb der Speicherkühler verläuft. Frage mich zwar nach dem Sinn, aber das wär' ja net die erste sinnentleerte Kühlkonstruktion am Markt.

Ich leg mich fest: Das Ding wird 'n Brüller;D

Quasar
2004-04-12, 14:31:14
Original geschrieben von CrazyIvan
Wo siehst Du da größere Schaufeln?[/SIZE]

Auf dem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=136360) Bild kann man's recht gut erkennen. Erst recht in höherer Auflösung. X-D

Wenn ich mich nicht verzählt habe, sind's 29 Schaufelblätter, beim nV38 auf meinem Schreibtisch komme ich damit knapp mehr als "halbrum".

betasilie
2004-04-12, 14:32:45
Ich verstehe auch nicht, dass man einfach eine 2Slot-Karte macht, die die warme Luft nach draußen bläßt. Dass so ein Konzept gefragt ist, zeigt der Erfolg des Silencers und der Slot unter der Graka muss so oder so frei sein.

Ich finde den Preis aber mal ganz gut. 400$ für die Ultra? Also entweder die Karte ist nicht so toll oder NV merkt langsam, dass man die Karte nicht teurer verkaufen kann als ATI, nur weil NV drauf steht, auch wenn das bei eingen Fanboys so sein mag.

betasilie
2004-04-12, 14:34:14
Original geschrieben von Quasar
Auf dem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=136360) Bild kann man's recht gut erkennen. Erst recht in höherer Auflösung. X-D

Wenn ich mich nicht verzählt habe, sind's 29 Schaufelblätter, beim nV38 auf meinem Schreibtisch komme ich damit knapp mehr als "halbrum".
Mehr Rotorblätter machen auch mehr Lärm, dass sollte dir klar sein. Außerdem steigt das Fördervolumen nicht linear mit der Blattanzahl im Rotor, von daher mal abwarten, ob das Lautstärke-/Leistungsverhältniss wirklich gut ist.

CrazyIvan
2004-04-12, 14:52:36
Original geschrieben von Quasar
Auf dem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=136360) Bild kann man's recht gut erkennen. Erst recht in höherer Auflösung. X-D

Wenn ich mich nicht verzählt habe, sind's 29 Schaufelblätter, beim nV38 auf meinem Schreibtisch komme ich damit knapp mehr als "halbrum".

Nunja, aber Du redest ja auch von der 1-Slot Version. Ich redete eher von dem neuen Pic, welches IMHO eher glaubwürdig erscheint als ersteres. Und da sieht der Lüfter aus, wie jeder vorherige auch. Bin aber wirklich gespannt, mit welcher Lösung die finalen Karten an den Start gehen und wie laut sie sein werden.

robbitop
2004-04-12, 14:58:35
falls ihr es noch nicht gemerkt habt (denkt euch ma den Aufkleber weg und vergrößert das Bild) der Kühler ist derselbe...nur die Perspektive ist eine andere.
Ich glaube aber der Radiallüfter ist ein anderer.

€dit:
also irgendwie ist er auf dem neuen Pic Spiegelverkehrt und der Lüfter hat ein paar mehr Schaufeln

LovesuckZ
2004-04-12, 14:58:50
Die 1-Slot-Lösung soll für die normale Version sein. Diese Kühlung da oben ist die Referenzkühlung von nvidia für die Ultra Variante.

(del676)
2004-04-12, 15:01:26
eine "normale" neue karte kommt mir sowieso ned ins haus, wenn schon dann ultra :)

diesmal wirds aber spannend, da nv den nv40 ultra gleich vorstellen wird und ati nur mit einer mittelklasse karte dagegenhalten (und klar) verlieren wird

ich hoffe man kann die performance zur 16pipes XT variante dann schön extrapolieren, damit ich gleich weiss ob sich das warten auf die XT lohnt oder ned :)

robbitop
2004-04-12, 15:02:51
@LS
und warum steht auf der "1 Slot Lösung" Geforce 6800 ULTRA drauf?

ausserdem wirkt die andere nur höher, ist sie jedoch nicht. Ich denke mal bis auf ein paar kleinere Unterschiede wird eine davon lediglich ne neue Revision sein.

CrazyIvan
2004-04-12, 15:05:08
@ robbi

Wohl gestern zu tief ins Glas geschaut? ;D

Selbst mit meinem morgendlich vernebelten Blick sehe ich bei der einen Karte Unmengen an Lamellen vor den Spannungswandlern, die einfach mal beim 1 - Slot Design net vorhanden sind.
Außerdem kann man trotz der recht ungünstigen Perspektive gut erkennen, dass das neuere Bild einen weitaus höher bauenden Kühler zeigt, als das erste Bild...

@ LS

Wieso steht dann auf der 1-Slot Lösung "GeForce 6800 Ultra"?

LovesuckZ
2004-04-12, 15:05:15
Original geschrieben von robbitop
@LS
und warum steht auf der "1 Slot Lösung" Geforce 6800 ULTRA drauf?


Weil die Bilder nachbearbeitet sind?
Jedenfalls schickt Nvidia die Karten mit 400MHz mit diesem "Blech" da oben raus. Und leise sollen diese laut Digitalwanderer auch nicht sein, was nichts heißen muss (he = Fanatiker).

CrazyIvan
2004-04-12, 15:07:00
Mist, Robbi war schneller. Halte das erste Bild für FUD. ATi soll wohl Angst gemacht werden mit den geringen Ausmaßen des Kühlers.

robbitop
2004-04-12, 15:09:35
naja was heisst bitte leise??

für mich als Silent freak ist die MSI FX5900 "leise".

Radeon9800SE hab ich hier zum Testen, eine 9800XT hatte ich mal Gainward 5900 und Sparkle 5900 alle waren nicht "leise"
Habe noch keine leise 9800 gesehen ehrlich gesagt, das ist eben subjektiv. Und die Referenzkühlung muss ja auch nicht "leise" sein sondern nur nicht störend laut.
Alles andere können die Hersteller selbst machen.
In 2D kann man die schön "leise" machen in 3D stört das eigentlich nicht.

("leise" also im übertriebenen Sinne)

dildo4u
2004-04-12, 15:22:53
Original geschrieben von robbitop
naja was heisst bitte leise??

für mich als Silent freak ist die MSI FX5900 "leise".

Radeon9800SE hab ich hier zum Testen, eine 9800XT hatte ich mal Gainward 5900 und Sparkle 5900 alle waren nicht "leise"
Habe noch keine leise 9800 gesehen ehrlich gesagt, das ist eben subjektiv. Und die Referenzkühlung muss ja auch nicht "leise" sein sondern nur nicht störend laut.
Alles andere können die Hersteller selbst machen.
In 2D kann man die schön "leise" machen in 3D stört das eigentlich nicht.

("leise" also im übertriebenen Sinne)

http://www.alltests.de/hardware/reviews_04/sapphire_9800pro_ut/sapphire_ut_1.php

http://www.alltests.de/hardware/reviews_04/sapphire_9800pro_ut/graka_oben1.jpg Gibt sowas auch mit na 5900? eher nicht;-)

reunion
2004-04-12, 15:23:40
Original geschrieben von Ulukay
diesmal wirds aber spannend, da nv den nv40 ultra gleich vorstellen wird und ati nur mit einer mittelklasse karte dagegenhalten (und klar) verlieren wird


Der grund warum der 16piper später kommt ist wohl die einfach nicht verfügbare Bandbreite, nicht umsonst taktet NV den NV40 mit nur 400mhz. Da wird sicherlich später auch noch eine Version mit deutlich mehr Chip- und vorallem mehr Speichertakt rauskommen. Ein Chip mit 12pipes und 500mhz Chiptakt würde zB beinahe dieselbe Füllrate wie ein 16piper mit 400mhz haben, deshalb glaube ich nicht dass sich die beiden Karten leistungsmäßig viel nehmen werden, da einfach die Bandbreite limitiert...

//Edit:
Also so:
X800SE vs. 6800
X800Pro vs. 6800U
X800XT vs. 6850U(?)

robbitop
2004-04-12, 15:23:54
ja solche sondereditionen mit fremden Kühlkörpern (Zalman und Artic Cooling) mal ausgeschlossen.

tokugawa
2004-04-12, 15:24:28
Original geschrieben von Ulukay
eine "normale" neue karte kommt mir sowieso ned ins haus, wenn schon dann ultra :)

diesmal wirds aber spannend, da nv den nv40 ultra gleich vorstellen wird und ati nur mit einer mittelklasse karte dagegenhalten (und klar) verlieren wird

ich hoffe man kann die performance zur 16pipes XT variante dann schön extrapolieren, damit ich gleich weiss ob sich das warten auf die XT lohnt oder ned :)

Ich glaub nicht dass die "PRO" als eine Mittelklasse Karte anzusehen ist. Die 9700 non-pro und 9800 non-pro, waren ja auch lower High-End und nicht Mittelklasse.

Wobei ich "Mittelklasse" als Mainstream-Segment definiere.

tokugawa
2004-04-12, 15:27:12
Original geschrieben von dildo4u
http://www.alltests.de/hardware/reviews_04/sapphire_9800pro_ut/sapphire_ut_1.php

http://www.alltests.de/hardware/reviews_04/sapphire_9800pro_ut/graka_oben1.jpg Gibt sowas auch mit na 5900? eher nicht;-)

Brauchen die 9800er Ultimate Editions nicht zusätzlich noch einen Lüfter? Zumindest die XT auf jeden Fall.

Obwohl der Zalman-Lüfter vermutlich eh ziemlich leise ist.


EDIT: Im Übrigen empfielt Zalman bei der Heatpipe ja ein gut zirkuliertes Gehäuse... also richtig lüfterfrei ist die Lösung in Summe auch nicht.

dildo4u
2004-04-12, 15:28:37
Original geschrieben von tokugawa
Brauchen die 9800er Ultimate Editions nicht zusätzlich noch einen Lüfter? Zumindest die XT auf jeden Fall.

Obwohl der Zalman-Lüfter vermutlich eh ziemlich leise ist. jo die xt braucht den lüfter die normale 9800pro kommt ohne aus jedenfalls im standard takt der zalman wurde auch noch mal für die 9800pro geändert die kühlfläche wurde vergössert die rippen auch aber es reicht um diese high end karte zu kühlen einfach genial wird man whol mit den zukünftigen karten ohne wakü whol nie wieder erreichen hammer power mit 0dB

tokugawa
2004-04-12, 15:33:55
Original geschrieben von dildo4u
jo die xt braucht den lüfter die normale 9800pro kommt ohne aus jedenfalls im standart takt


Bei genügender Gehäuselüftung, versteht sich. Obwohl genügende Gehäuselüftung heutzutage sowieso fast Pflicht ist; aber ich denke diese Passivkarten benötigen noch mehr Gehäusezirkulation als aktiv gekühlte Karten.

Die MSI Lösung für die FX5900 ist ja nicht nur leise, sondern angeblich auch richtig kühl.


btw: "Standard"

robbitop
2004-04-12, 15:46:03
wie gesagt ...bisher habe ich noch keine "leise" NICHT Fremdhersteller Kühllösung für 9800 gesehn.
Die Fremdherstellerteile kosten ja gleich irre viel mehr Geld.

dildo4u
2004-04-12, 15:56:43
Original geschrieben von robbitop
wie gesagt ...bisher habe ich noch keine "leise" NICHT Fremdhersteller Kühllösung für 9800 gesehn.
Die Fremdherstellerteile kosten ja gleich irre viel mehr Geld. nich mehr die 9800pro ultimate gibts jetzt für 240€ find den preis mher als fair

LovesuckZ
2004-04-12, 15:58:29
Original geschrieben von dildo4u
nich mehr die 9800pro ultimate gibts jetzt für 240€ find den preis mher als fair

40€ mehr als man für die normale Karte bezahlt.

StefanV
2004-04-12, 16:00:59
Ich will mich ja nicht einmischen, aber die MSI 9800 mit VIA VT1622 TV Encoder könnte auch noch ganz gut sein, welche es für ~230€ gibt...

dildo4u
2004-04-12, 16:01:01
Original geschrieben von LovesuckZ
40€ mehr als man für die normale Karte bezahlt. jo sicher aber wenn man ein bissel basteln nicht scheut kann man sich für 200 die karte und für 18€ den zalman hohlen hab ja selber ein zalman auf der 9700pro bin sehr zu frieden.Würde mich auch interresieren die 9800 von msi wie die so von der lautstärke her is

Black-Scorpion
2004-04-12, 16:04:22
Original geschrieben von LovesuckZ
40€ mehr als man für die normale Karte bezahlt.
Dafür hast du aber Garantie.
Du kannst das Geld auch sparen und selber den Kühler wechseln, dafür ist die Garantie weg.
Muß jeder selbst entscheiden was ihm wichtiger ist.

StefanV
2004-04-12, 16:07:54
Original geschrieben von dildo4u
jo sicher aber wenn man ein bissel basteln nicht scheut kann man sich für 200 die karte und für 18€ den zalman hohlen hab ja selber ein zalman auf der 9700pro bin sehr zu frieden.Würde mich auch interresieren die 9800 von msi wie die so von der lautstärke her is

Geht auch günstiger, mit dem VGA Silencer, den es momentan ab 7,50€ gibt, lt Geizhals, exklusive Versand...

dildo4u
2004-04-12, 16:08:39
Original geschrieben von Stefan Payne
Geht auch günstiger, mit dem VGA Silencer, den es momentan ab 7,50€ gibt, lt Geizhals, exklusive Versand... geht der auch passiv?

Ailuros
2004-04-12, 16:10:27
Original geschrieben von thop
Nicht auf einem 1600x1200 TFT ;)

Gerade auf einem TFT, da hier die "Definierung" um einiges besser ist und aliasing sichtbarer ist als auf einem CRT.

Texturenschaerfe muss ich hier gar nicht erwaehnen, ausser Du druckst Deine Nase staendig an eine Wand beim spielen, was anti-aliasing betrifft so ist die EER (edge equivalent resolution) bei 4x sparse in 1280*960 = 5120*3840.

Ich kann Dir gerne einen Screenshot mit AA/AF in 1280*960 hochladen und einen ohne AA/AF in 2048*1536. Dann kannst Du ja die beiden auf dem TFT untersuchen, wie die Unterschiede aussehen.

Ailuros
2004-04-12, 16:13:39
Original geschrieben von reunion
Der grund warum der 16piper später kommt ist wohl die einfach nicht verfügbare Bandbreite, nicht umsonst taktet NV den NV40 mit nur 400mhz. Da wird sicherlich später auch noch eine Version mit deutlich mehr Chip- und vorallem mehr Speichertakt rauskommen. Ein Chip mit 12pipes und 500mhz Chiptakt würde zB beinahe dieselbe Füllrate wie ein 16piper mit 400mhz haben, deshalb glaube ich nicht dass sich die beiden Karten leistungsmäßig viel nehmen werden, da einfach die Bandbreite limitiert...

//Edit:
Also so:
X800SE vs. 6800
X800Pro vs. 6800U
X800XT vs. 6850U(?)

Das ist mir noch zu gewagt als Vorsage. Nur IMHO.

BvB123
2004-04-12, 16:19:34
wann wird der nv40 nochmal vorgestellt ?

war das 13. in usa
und 14. hier?

seahawk
2004-04-12, 16:21:56
Original geschrieben von LovesuckZ
http://www.bigsmedia.de/specs.jpg (http://www.digit-life.com/news.html?103799#103799)

Vorallen der Preis scheint entweder a) zu optimistisch oder b) Nvidia weiß, dass ATi schneller sein werde.
Wobei, mir b) dann doch besser gefällt :D

Da gibt es noch die 6850, wenn schnellerer Speicher verfügbar ist. :D

Börk
2004-04-12, 16:35:46
Original geschrieben von BvB123
wann wird der nv40 nochmal vorgestellt ?

war das 13. in usa
und 14. hier?
japps so wirds wohl aussehen.

reunion
2004-04-12, 16:39:13
Original geschrieben von Ailuros
Das ist mir noch zu gewagt als Vorsage. Nur IMHO.

Ist natürlich von mir auch nur reine Spekulation ;)

mayo
2004-04-12, 16:39:31
Original geschrieben von BvB123
wann wird der nv40 nochmal vorgestellt ?

war das 13. in usa
und 14. hier?

Du musst die Zeitdifferenzen beachten.

Ich denke die NDA wird überall gleichzeitig fallen.

BvB123
2004-04-12, 16:40:25
kommen dann heute nacht schon benches raus oder dauert das noch länger??

dildo4u
2004-04-12, 16:45:37
Original geschrieben von BvB123
kommen dann heute nacht schon benches raus oder dauert das noch länger?? bei uns wirds eher mittwoch morgen wie gesagt 13 umd 8 uhr abend in den usa die sind 9 stunden hinten als bei uns 5 uhr morgen am 14mittwoch

BvB123
2004-04-12, 16:46:39
ja ich meine auf ner amerikanischen seite

LovesuckZ
2004-04-12, 16:47:09
Original geschrieben von BvB123
kommen dann heute nacht schon benches raus oder dauert das noch länger??

Nein, außer jemand bricht absichtlich das NDA (also schau desöfteren mal bei Chip.de vorbei *eg*)

dildo4u
2004-04-12, 16:47:44
Original geschrieben von BvB123
ja ich meine auf ner amerikanischen seite noch mal zeit verschiebung beachten

BvB123
2004-04-12, 16:48:42
um wieviel uhr deutsche zeit haben wir den den 13.4 in USA?

Winter[Raven]
2004-04-12, 16:51:31
Also die Vorstellung von de mNV40 beginnt am 13.04.2004 um ca. 20 Uhr, ihr rechnet jetzt +9 Stunden dazu dann haben den 14.04.2004 und ca. 5.00 Uhr Morgens.

BvB123
2004-04-12, 16:59:14
also dürften morgen früh auf amerikanischen seiten erste tests da sein oder?

dildo4u
2004-04-12, 17:03:59
Original geschrieben von BvB123
also dürften morgen früh auf amerikanischen seiten erste tests da sein oder? nein

robbitop
2004-04-12, 17:04:23
ui da hab ich ja ne Diskussion losgetreten wegen der Kühlung.
Naja die beste Kühlung für Grafikkarten sollte der silencer sein. Der ist so gut wie lautlos und sein extrem leises Laufgeräusch geht allein schon beim laufgeräusch einer leisen HDD unter im System.

Garantie habe ich nie Probleme gehabt, orig Kühler drauf und gut war. :)

deekey777
2004-04-12, 17:04:43
Original geschrieben von BvB123
also dürften morgen früh auf amerikanischen seiten erste tests da sein oder?

Übermorgen oder?

BodyLove
2004-04-12, 17:06:54
Jepp erst übermorgen. Die amis sind etwas hinter uns. Die Japaner sind vorne.;)

WEGA
2004-04-12, 17:13:44
würde mal sagen morgen abend ...

BodyLove
2004-04-12, 17:19:23
20 Uhr Dienstag dort, ist 4 ~ 5 Uhr Mittwoch hier.

reunion
2004-04-12, 17:26:43
Original geschrieben von BvB123
kommen dann heute nacht schon benches raus oder dauert das noch länger??

Ich schätze mal das morgen schon die ersten Benchs zu lesen sein werden, irgendwer Bricht schon seine NDA, war noch immer so :D

BodyLove
2004-04-12, 17:30:19
Ich hoffe du bist einer der ersten, der dann die Quellen ins Forum postet.;)

deekey777
2004-04-12, 17:40:14
Original geschrieben von reunion
Ich schätze mal das morgen schon die ersten Benchs zu lesen sein werden, irgendwer Bricht schon seine NDA, war noch immer so :D

Der Inquirer - mal wieder... ;D

Börk
2004-04-12, 17:44:38
Original geschrieben von deekey777
Der Inquirer - mal wieder... ;D
Die haben keine Karte bekommen, ergo kein NDA und auch keine echten Infos...

LovesuckZ
2004-04-12, 17:47:06
Original geschrieben von burk23
Die haben keine Karte bekommen, ergo kein NDA und auch keine echten Infos...

Sie haben kein NDA unterschrieben, daher keine karte bekommen und haben deswegen auch keine echten Infos :)

Gast
2004-04-12, 17:52:13
Original geschrieben von thop
Nicht auf einem 1600x1200 TFT ;)

Dann viel Spaß mit dem Nachzieh-Geschmiere... :rolleyes:

BvB123
2004-04-12, 17:55:47
warum sollte er nachziehen???
gibt doch tfts mit 16ms oder weniger

Börk
2004-04-12, 18:00:17
Original geschrieben von LovesuckZ
Sie haben kein NDA unterschrieben, daher keine karte bekommen und haben deswegen auch keine echten Infos :)
Nein, die haben keine Karte bekommen, weil sie keine Review Seite sind. Ein Karte haben sie schon gewollt und hätten dann wohl auch ein NDA unterschrieben, aber NV hat ihnen einfach keine Karte gegeben...

reunion
2004-04-12, 18:02:58
Original geschrieben von deekey777
Der Inquirer - mal wieder... ;D

Ne, ich glaube chip.de, die bringen immer so schlechte Reviews das sie die NDA fast brechen müssen um ein paar klicks abzubekommen ;)

deekey777
2004-04-12, 18:08:26
Das mit dem Inquirer sollte nur ein dummer Witz sein und keine Dislussion entfachen. Aber: Bisher kamen die ersten Reviews immer 2-3 Stunden vor dem NDA Ende. Die erste Review, die ich lesen werde, wird die von THG sein - was zum Lachen.:D
(Wieviele von uns zählen schon die Minuten?)

betasilie
2004-04-12, 18:18:27
Original geschrieben von deekey777
(Wieviele von uns zählen schon die Minuten?)
Ich, ich! ... ´Kann´s kaum noch abwarten. =)

VooDoo7mx
2004-04-12, 18:30:31
Original geschrieben von betareverse
Ich, ich! ... ´Kann´s kaum noch abwarten. =)

ich freu mich auch schon wie ein frisch paniertes Schnitzel ;D

WEGA
2004-04-12, 18:39:37
Original geschrieben von BodyLove
20 Uhr Dienstag dort, ist 4 ~ 5 Uhr Mittwoch hier.

20 uhr in USA (8:00PM) is bei uns 2 uhr in der früh ...

LovesuckZ
2004-04-12, 18:44:41
Um nagus schonmal den Wind aus den Segeln zu nehmen:
So wie es aussieht, scheint die AF Optimierung" softwaremäßig zu sein. Denn es gibt in den Treibern zwei neue Filter Einstellungen (Quality und High Quality), jedoch HigH Quality scheint noch nicht funktionieren.
Ausserdem wirkt sich die Filterungseinstellung auch nicht in den Spielen aus, in welchen es "spezielle Anpassungen" gibt.

http://www.beyond3d.com/forum/viewtopic.php?p=254860#254860

dildo4u
2004-04-12, 18:45:27
Original geschrieben von WEGA
20 uhr in USA (8:00PM) is bei uns 2 uhr in der früh ... usa is groß hat mehrer zeit zonen und nvidia sitzt in san fransico das ist von uns aus gesehen am weitesten weg

WEGA
2004-04-12, 18:49:37
stimmt ...

Winter[Raven]
2004-04-12, 19:03:09
Hab ich doch 2 mal gepostet ... 9 Stunden vorrechnen müsst ihr. Nicht 6, den das wäre OSTKÜSTE.

TheGood
2004-04-12, 19:14:17
scheint mir so dass Demirug´s AF Filter Tester sich bei vielen Reviewern curchgesetzt hat und inzwischen auch bei allen eingesetzt wird. Ist doch nur positiv zu bewerten :)

Demirug
2004-04-12, 19:22:59
Wie die kleinen Kinder vor Weihnachten. :D

Ihr könnt ja mal Amarok fragen ob er euch sein Endoskop leit damit ihr in die Pakete reinschauen könnt.

gast
2004-04-12, 19:33:20
Kann aths nicht wieder nen Timer programmieren?

Den von 3DMark 03 hab ich noch irgendwo ;)

n0trix
2004-04-12, 19:37:03
GeForce 6800 Ultra

http://www.gzeasy.com/newsphoto/y2k4/04/12/nv40.jpg

details:

http://www.gzeasy.com/itnewsdetail.asp?nID=14962

source:www.gzeasy.com www.darkcrow.co.kr

Karümel
2004-04-12, 19:37:41
Öhm, mal eben eine doofe Frage zur der Tabelle von Digit-Live.
Dort steht bei Pipelint: „16x 1 or 32 x 0“
Was bedeuten die „32 x 0“?
Könnte einer von euch, mir als jemand der net so viel Ahnung hat, bitte das erkären?
Danke.

Demirug
2004-04-12, 19:45:19
Original geschrieben von Karümel
Öhm, mal eben eine doofe Frage zur der Tabelle von Digit-Live.
Dort steht bei Pipelint: „16x 1 or 32 x 0“
Was bedeuten die „32 x 0“?
Könnte einer von euch, mir als jemand der net so viel Ahnung hat, bitte das erkären?
Danke.

32x0 steht für 32 Pixel bei denen nur Z und/oder Stencil Operationen durchgeführt werden. Der Z-Pass sowie die Schatten passes bei DOOM 3 sind dafür ein Beispiel.

robbitop
2004-04-12, 19:52:37
Original geschrieben von Demirug
..
Ihr könnt ja mal Amarok fragen ob er euch sein Endoskop leit damit ihr in die Pakete reinschauen könnt.

wieso hat jmd die Pakete verspeist?
Mit nem Endoskop kann man (afaik) Magen und Darm sondieren (habe ein paar mal zugesehn und das Teil mal in Aktion halten dürfn)

@LS
nv hat in einem Interview erwähnt, dass man einige Beschwerden wegen Brilinear hatte und man wolle das AF per coolbit für Leute mit Verstand und Qualitäts bedürfnissen freischalten. Dumme Reviewer können dann die stark adaptive Variante nehmen, da es ihnen ja nur um FPS geht

betasilie
2004-04-12, 19:55:26
Kann mir mal jemand verraten, wo bei der Karte eine Heatpipe zu sehen sein soll. Irgendwer hat doch davon gesprochen, aber ich seh da keine Heatpipe.

ironMonkey
2004-04-12, 19:57:39
Original geschrieben von n0trix
GeForce 6800 Ultra

http://www.gzeasy.com/newsphoto/y2k4/04/12/nv40.jpg

details:

http://www.gzeasy.com/itnewsdetail.asp?nID=14962

source:www.gzeasy.com www.darkcrow.co.kr


Lüfter : DC 12Volt 0.25A also Silent ist das zu 100% nicht.


Gruß

Karümel
2004-04-12, 20:05:45
Danke Demirug

robbitop
2004-04-12, 20:09:39
http://www.pixum.de/int/img.php?u=robbitop&t=2&i3=2yccgl12o2gkgppo2p1pnpskg1komkko&ts=12520&np=1
Der Rote Pfeil zeigt den Verlauf der HP

StefanV
2004-04-12, 20:09:49
Original geschrieben von ironMonkey
Lüfter : DC 12Volt 0.25A also Silent ist das zu 100% nicht.

Gruß

Hm, stimmt, 3W klingen eher nach viel Radau, pi mal Daumen 40dB (a la FX5800)...

tokugawa
2004-04-12, 20:14:27
Original geschrieben von BvB123
warum sollte er nachziehen???
gibt doch tfts mit 16ms oder weniger

die 16ms (bzw alle Herstellerangaben) betreffen meistens das Umschalten zwischen komplett weiß und komplett schwarz.

Das ist ein eher irrelevanter Spezialfall... der praxisnähere Fall, das umschalten zwischen Graustufen, liegt im Normalfall bei ca. dem Doppelten, bei manchen sogar höher.


Schon von daher vertraue ich den Response Time Angaben von TFTs nicht, sondern schaue mir die Teile vor Ort an (wenn der Händler sich weigert -> zu einem anderen gehen), und nehme mir dann das Teil mit das ich begutachtet hab.

Es kann nämlich sein dass gerade bei den wichtigen Graustufenumschaltungen ein mit 25 ms spezifizierter besser ist als ein mit 16 ms spezifizierter (da die Spezifikation den nur den "Idealfall" schwarz/weiß-Umschaltung betrifft).

Im Übrigen find ich die "Schlierenhysterie" übertrieben... ich geb zu ich spiele nicht "professionell" (also auf LAN-Parties), und all zu schnelle Spiele gefallen mir sowieso nicht (lieber gemächlichere wie Splinter Cell wo ich auch mal die Umgebung bewundern kann), aber trotzdem halte ich viele TFTs für absolut spieletauglich.

robbitop
2004-04-12, 20:15:49
@iron
woher hast du die Daten?

naja so lange er im 2D Betrieb leise ist, ist das absolut okay imo. Es sei denn jmd von euch spielt ohne Sound =)

zumal die Hersteller kühlertechnisch eh wieder ihr eigenes Süppchen kochen und zur Not gibts ja noch Arctic Cooling mit dem Silencer für NV.

ironMonkey
2004-04-12, 20:17:23
Steht doch aufm Lüfter drauf.


Gruß

LovesuckZ
2004-04-12, 20:17:42
Original geschrieben von robbitop
@iron
woher hast du die Daten?


Steht auf dem Lüfter.

robbitop
2004-04-12, 20:20:13
hmm
ich kann mich irren aber ist schwarz nicht alle Farbwerte RGB = 0 und weiss nicht alle Farbwerte RGB = 1 (also maximum)?
Demzufolge wäre weiss-schwarz-weiss ein "Worst Case" Fall und kein "Best Case" Fall. Somit wären 2 Graustufen recht schnell hergestellt. Also schneller als 16ms.
Sowas habe ich bisher zumindist auch in der Praxis bewundern dürfn. Sobald stärkere Kontraste da waren gab es schlieren sonst nicht.
Heutige 16ms BenQ oder Iiyama TFTs ab 400EUR sind absolut Spieletauglich.

robbitop
2004-04-12, 20:23:19
Original geschrieben von ironMonkey
Steht doch aufm Lüfter drauf.


Gruß

ahh achso =)

naja bei 12V mag das stimmen, so weit ich weiss war die NV30NU und NV35 nie auf 12V selbst in Games nicht. Waren 7 oder 8V in Games in Windows weniger.
Die 12V hörte man wenn der PC gestartet hat ganz kurz, oder kurz vorm Abbrennen der Karte ;)

Ich denke mal es sollte vA im 2D stimmen von der Lautstärke.

Solang man nicht weiss wie NV den Lüfter ansteuert (Spannungen) kann man soziemlich nichts über die UPR sagen.

tokugawa
2004-04-12, 20:43:06
Original geschrieben von robbitop
hmm
ich kann mich irren aber ist schwarz nicht alle Farbwerte RGB = 0 und weiss nicht alle Farbwerte RGB = 1 (also maximum)?
Demzufolge wäre weiss-schwarz-weiss ein "Worst Case" Fall und kein "Best Case" Fall. Somit wären 2 Graustufen recht schnell hergestellt. Also schneller als 16ms.
Sowas habe ich bisher zumindist auch in der Praxis bewundern dürfn. Sobald stärkere Kontraste da waren gab es schlieren sonst nicht.
Heutige 16ms BenQ oder Iiyama TFTs ab 400EUR sind absolut Spieletauglich.

Schlieren gibt es, wenn ein Pixel von einer Graustufe in eine andere nicht schnell genug umschaltet. Der Fall "Schwarz zu Weiß" und umgekehrt kommt (von einem Pixel aus betrachtet) selten vor, und ist auch schneller (je nach verwendeter Paneltechnik). Quelle: c't und leider nicht gebookmarkte Internet-Seiten.

tokugawa
2004-04-12, 20:45:10
Original geschrieben von robbitop
ahh achso =)

naja bei 12V mag das stimmen, so weit ich weiss war die NV30NU und NV35 nie auf 12V selbst in Games nicht. Waren 7 oder 8V in Games in Windows weniger.
Die 12V hörte man wenn der PC gestartet hat ganz kurz, oder kurz vorm Abbrennen der Karte ;)

Ich denke mal es sollte vA im 2D stimmen von der Lautstärke.

Solang man nicht weiss wie NV den Lüfter ansteuert (Spannungen) kann man soziemlich nichts über die UPR sagen.

Ich bin mir sicher dass NV wieder einen geregelten Lüfter hat.

Hat ja beim NV3x sehr gut funktioniert, im 2D Betrieb war die Karte ja geräuschlos. Bei "Höchstleistung" ist eine etwas höhere Lautstärke durchaus akzeptabel (zumindest für mich ist es das), in einem gewissen Rahmen halt :)

Nur wenn der Rechner (bzw die Grafik) nicht so stark beansprucht wird, hätt ich's gern leise.

Gast
2004-04-12, 20:51:10
Original geschrieben von LovesuckZ

So wie es aussieht, scheint die AF Optimierung" softwaremäßig zu sein. Denn es gibt in den Treibern zwei neue Filter Einstellungen (Quality und High Quality), jedoch HigH Quality scheint noch nicht funktionieren.
Ausserdem wirkt sich die Filterungseinstellung auch nicht in den Spielen aus, in welchen es "spezielle Anpassungen" gibt.



SoSo "HighQuality" funktioniert also nicht....

Warum wohl? Die NV40 ist dann wohl viel langsamer als mit "Quality", und Nvidia will nicht das mit "HighQuality" gebencht wird, damit die DAU-Reviewer die Karte "in bestem Licht" zeigen.

Typisch Nvidia.

LovesuckZ
2004-04-12, 20:57:21
Original geschrieben von Gast
Warum wohl? Die NV40 ist dann wohl viel langsamer als mit "Quality", und Nvidia will nicht das mit "HighQuality" gebencht wird, damit die DAU-Reviewer die Karte "in bestem Licht" zeigen.
Typisch Nvidia.

typisch Nvidia, echt. Da schreiben sie ins Planel, dass es einen "High Quality" Modus gaebe, und dann funktioniert der nicht. Die wollen bestimmt, dass ihn niemand sieht.
Ohman, lieber Gast. Denkst du wirklich, dass man es sich so umstaendlich macht? Dann haette man ihn auch gleich rauslassen können, wenn man die reviewer "blenden" möchte. Ausserdem, welche Konkurenzkarte soll dann zum jetzigen Zeitpunkt besser sein?

robbitop
2004-04-12, 21:10:16
1. der Treiber ist nicht offiziell
2. High Quality AF soll nur für Leute sein, die es auch wollen und wissen, dass es Leistung kostet
3. dumme Redakteure die kA von Tuten und Blasen haben und nur FPS Diagramme malen sollen diesen Modus eben diesmal NICHT benutzen, damit eine Vergleichbarkeit zum Konkurrenten gegeben ist.
Bisher hat niemand die bessere AF Qualität von den großen Redaktionen besonders hervorgehoben, aber es kostete halt den ein oder anderen Sieg. Davon kann man sich nichts kaufen, man muss mit der Zeit gehen.

Und wer eben bewusst drauf achtet, soll das coolbit laden und sich zurücklehen und volle Qualli geniessen.

Meine Interpretation.

tokugawa
2004-04-12, 21:14:24
Original geschrieben von Gast
SoSo "HighQuality" funktioniert also nicht....

Warum wohl? Die NV40 ist dann wohl viel langsamer als mit "Quality", und Nvidia will nicht das mit "HighQuality" gebencht wird, damit die DAU-Reviewer die Karte "in bestem Licht" zeigen.

Typisch Nvidia.

Schon mal was vom Begriff "Alpha-" oder "Beta-Version" gehört?

reunion
2004-04-12, 21:37:39
Original geschrieben von tokugawa
Schon mal was vom Begriff "Alpha-" oder "Beta-Version" gehört?

Ziemlich schwache Ausrede ;)
Es wäre ein leichtes für NV die "high quality" eintragung im CP mit der Registry zu verknüpfen. Ich glaube das ist auch bei einer "Beta-Version" kein Problem =)

reunion
2004-04-12, 21:41:31
Original geschrieben von n0trix
GeForce 6800 Ultra

http://www.gzeasy.com/newsphoto/y2k4/04/12/nv40.jpg

details:

http://www.gzeasy.com/itnewsdetail.asp?nID=14962

source:www.gzeasy.com www.darkcrow.co.kr

Warum ist der Lüfter bei diesem Bild auf der anderen Seite im Vergleich zu den früheren Bildern?

robbitop
2004-04-12, 21:41:33
ich finde es aufgrund dem Fehlverhalten der Redakteure mehr als legitim. Aber habe ich alles schon gesagt

@reunion
neue Revision oder so
ist einfach ein neuer Kühlkörper (auch etw höher)

reunion
2004-04-12, 21:44:12
Original geschrieben von robbitop
@reunion
neue Revision oder so
ist einfach ein neuer Kühlkörper (auch etw höher)

Also ist dass der 2 Slot Kühler für die Ultra Version?

betasilie
2004-04-12, 21:50:12
Original geschrieben von robbitop
http://www.pixum.de/int/img.php?u=robbitop&t=2&i3=2yccgl12o2gkgppo2p1pnpskg1komkko&ts=12520&np=1
Der Rote Pfeil zeigt den Verlauf der HP
Ui, danke. Die habe echt nicht gesehen. ...

Ich denke aber mal die macht dann einen U-Turn zur GPU, um die Wärme über der GPU schneller abzuführen.

robbitop
2004-04-12, 21:50:55
bin mir nicht sicher aber er sieht höher aus als 1 Slot.
Ich denke diese Lösung wird auf den NV40 U verbraut sein.

Leo hat den NV40 zum Testen und er sagt, er läuft problemlos auf seinem 300W NT.

robbitop
2004-04-12, 21:52:19
@beta
IMO nein. der Teil des Kühlkörper bekommt kaum Luftstrom ab und soll deshalb vom kühlen Teil nahe des Lüfters gekühlt werden (direkt über dem GDDR3)

reunion
2004-04-12, 21:54:11
Original geschrieben von robbitop
Leo hat den NV40 zum Testen und er sagt, er läuft problemlos auf seinem 300W NT.

Echt?
Dann können wir uns ja auf ein ordentliches Review freuen...
Hat er auch den R420?

tokugawa
2004-04-12, 21:54:18
Original geschrieben von reunion
Ziemlich schwache Ausrede ;)
Es wäre ein leichtes für NV die "high quality" eintragung im CP mit der Registry zu verknüpfen. Ich glaube das ist auch bei einer "Beta-Version" kein Problem =)

Ich meinte damit dass der High Quality Modus überhaupt noch nicht funktioniert, auch nicht mit Registry Einträgen.

Von den Registry Einträgen war ja nur in einem Interview die Rede, dass die das so machen wollen.

Ich hab das mit dem High Quality Modus so verstanden, dass er überhaupt noch nicht funktioniert (also eventuell noch nicht mal im Treiber implementiert ist).

betasilie
2004-04-12, 21:54:57
Original geschrieben von robbitop
Leo hat den NV40 zum Testen und er sagt, er läuft problemlos auf seinem 300W NT.
Jetzt echt? Was hat er denn für eins? Das muss dann aber schon eine hec oder enermax sein.

reunion
2004-04-12, 22:04:27
Original geschrieben von tokugawa
Ich meinte damit dass der High Quality Modus überhaupt noch nicht funktioniert, auch nicht mit Registry Einträgen.

Von den Registry Einträgen war ja nur in einem Interview die Rede, dass die das so machen wollen.

Ich hab das mit dem High Quality Modus so verstanden, dass er überhaupt noch nicht funktioniert (also eventuell noch nicht mal im Treiber implementiert ist).

Ums kurz zu machen, äußerst unrealistisch...

robbitop
2004-04-12, 22:05:45
wenigstens eines - vieleicht 2 Gute (b3d würd ichs noch zutrauen computerbase bekommt leider keines sonst könnten wir evl auch dort ein Gutes erwarten)
R420? hat er nich gesagt...

@beta
is nicht dein Ernst oder?
Enermax ist nicht soo dolle ...scheiss 5V Leitung
Hec ist auch nur Mittelklasse.
Zalman, FSP, Antec, Chieftech sind da eher brauchbar

LovesuckZ
2004-04-12, 22:06:01
Original geschrieben von reunion
Ums kurz zu machen, äußerst unrealistisch...

Dann erklaere, was dieser "Modus" da zu suche hat?

tokugawa
2004-04-12, 22:09:19
Original geschrieben von reunion
Ums kurz zu machen, äußerst unrealistisch...

Was ist unrealistisch?

Das (komplette, also auch implementationstechnische) Fehlen des High Quality Modus in den Treibern?

Die Existenz des High Quality Modus in finalen Treibern?

Meine Argumentation?

Irgendeine andere Argumentation?


Bitte genauer sein!

Und bitte auch selbst argumentieren anstatt einfach nur was in den Raum zu werfen was _nur deiner Ansicht nach_ "unrealistisch" ist.

reunion
2004-04-12, 22:13:51
Original geschrieben von LovesuckZ
Dann erklaere, was dieser "Modus" da zu suche hat?

Naja, so wie ich das sehe versucht man damit "nicht so interligente" Reviewern ein Bein zu stellen, die "High Quality" auswählen aber nur "Quality" bekommen, da der Treiber das ja vermutlich zurückstellt. Wenn man das nicht mehr kontrolliert glaubt man man hat mit "high quality" gebencht...

Außerdem das der Modus noch nicht funktioniert ist ja wohl der größte Blödsinn, glaubst du wirklich NV hat noch keinen Treiber mit dem man "High Quality" auswählen kann, das ist ja wohl eine kleinigkeit.

tokugawa
2004-04-12, 22:23:28
Original geschrieben von reunion
Naja, so wie ich das sehe versucht man damit "nicht so interligente" Reviewern ein Bein zu stellen, die "High Quality" auswählen aber nur "Quality" bekommen, da der Treiber das ja vermutlich zurückstellt. Wenn man das nicht mehr kontrolliert glaubt man man hat mit "high quality" gebencht...

Außerdem das der Modus noch nicht funktioniert ist ja wohl der größte Blödsinn, glaubst du wirklich NV hat noch keinen Treiber mit dem man "High Quality" auswählen kann, das ist ja wohl eine kleinigkeit.

In den nightly Builds ist das schon wahrscheinlich. Vielleicht ist der erwähnte Treiber aber noch "zu früh".

Außerdem hat derjenige, der darüber gepostet hat, nicht genau spezifiziert, _was_ nun nicht funktioniert:

A) es funktioniert nur das Setting im User Interface nicht. Plausibler Grund: das User Interface und der zugrundeliegende Code werden nicht von derselben Person gemacht. Ist Software-Engineering-mäßig durchaus üblich. Dadurch kann ein Teil bereits im UI "drin" sein, das noch nicht mit dem Rest verbunden ist.

B) es funktioniert weder das Setting noch der Modus überhaupt, in jener Treiberversion (wir wissen ja nicht, wie früh es war; und es ist zumindest klar dass die Nightly Builds nicht verteilt werden (und in Umlauf gebracht werden), sondern nur Milestones). Plausible Erklärung: es war einfach noch eine zu frühe Version.


Daran ist nichts was ich als "Blödsinn" erkennen könnte. Beides im Bereich des möglichen.

Dass NVidia mit einer Nicht-einmal-Beta Reviewer auf's Glatteis führen will, liegt meiner Ansicht nach eher im Reich der Fantasien...

Außerdem weiß NVidia sehr wohl, dass sie und auch deren Treiber derzeit mit Argusaugen beobachtet werden...

reunion
2004-04-12, 22:30:14
Original geschrieben von tokugawa
In den nightly Builds ist das schon wahrscheinlich. Vielleicht ist der erwähnte Treiber aber noch "zu früh".

Außerdem hat derjenige, der darüber gepostet hat, nicht genau spezifiziert, _was_ nun nicht funktioniert:

A) es funktioniert nur das Setting im User Interface nicht. Plausibler Grund: das User Interface und der zugrundeliegende Code werden nicht von derselben Person gemacht. Ist Software-Engineering-mäßig durchaus üblich. Dadurch kann ein Teil bereits im UI "drin" sein, das noch nicht mit dem Rest verbunden ist.

B) es funktioniert weder das Setting noch der Modus überhaupt, in jener Treiberversion (wir wissen ja nicht, wie früh es war; und es ist zumindest klar dass die Nightly Builds nicht verteilt werden (und in Umlauf gebracht werden), sondern nur Milestones). Plausible Erklärung: es war einfach noch eine zu frühe Version.


Daran ist nichts was ich als "Blödsinn" erkennen könnte. Beides im Bereich des möglichen.

Dass NVidia mit einer Nicht-einmal-Beta Reviewer auf's Glatteis führen will, liegt meiner Ansicht nach eher im Reich der Fantasien...

Außerdem weiß NVidia sehr wohl, dass sie und auch deren Treiber derzeit mit Argusaugen beobachtet werden...

Naja, die Aussage "it stays at Quality when you select High Quality" hört sich für mich ziemlich eindeutig an.
Falls es wirklich ein Mißgeschick sein sollte wie du es beschreibst dann stellt sich die Frage warum außgerechnet der "high quality" modus nicht funktioniert und alles andere anscheined schon...

robbitop
2004-04-12, 22:33:22
vieleicht wird der HQ Mode erst mit Coolbits freigeschaltet??? Die Reviewer können dann unbeirtt schöne balken malen =)

tokugawa
2004-04-12, 22:33:52
Original geschrieben von reunion
Naja, die Aussage "it stays at Quality when you select High Quality" hört sich für mich ziemlich eindeutig an.
Falls es wirklich ein Mißgeschick sein sollte wie du es beschreibst dann stellt sich die Frage warum außgerechnet der "high quality" modus nicht funktioniert und alles andere anscheined schon...

Die Aussage "it stays at Quality when you select High Quality" heißt implementationstechnisch eben genau entweder mein ausgeführtes A oder B. Es heißt nicht mal "Bei Quality selektiert der Code _aus reiner Absicht_ High Quality". Es kommt darauf an wie die UI implementiert ist. Es kann ja sein dass einfach den Slider oder was auch immer auf "High Quality Setting" stellen den vorigen Modus beibehält. Es kann auch ein einfaches "if (i > SETTING_QUALITY) i = SETTING_QUALITY;" um einen Überlauf zu verhindern. Nix genaues wissen wir nicht!)

Es wäre nicht mal als Mißgeschick zu verstehen; das noch-Fehlen von Features im User-Interface ist einfach üblich bei Frühversionen!

Und dass nur der High Quality Modus nicht funktioniert ist noch kein Indiz auf irgendetwas.

Gast
2004-04-12, 22:48:23
Original geschrieben von robbitop
wenigstens eines - vieleicht 2 Gute (b3d würd ichs noch zutrauen computerbase bekommt leider keines sonst könnten wir evl auch dort ein Gutes erwarten)
R420? hat er nich gesagt...

@beta
is nicht dein Ernst oder?
Enermax ist nicht soo dolle ...scheiss 5V Leitung
Hec ist auch nur Mittelklasse.
Zalman, FSP, Antec, Chieftech sind da eher brauchbar


Das Preview von Beyond3D hat schon 25 Seiten und ist immer noch nicht fertig !!

Bin gespannt ob aths und Leo da mithalten können ;)

betasilie
2004-04-12, 22:59:10
Original geschrieben von robbitop
@beta
is nicht dein Ernst oder?
Enermax ist nicht soo dolle ...scheiss 5V Leitung
Hec ist auch nur Mittelklasse.
Zalman, FSP, Antec, Chieftech sind da eher brauchbar
Zu 300Watt-NT-Zeiten waren imo HEC und Enermax schon ganz gut. Heute würde ich natürlich auch weder HEC noch Enermax kaufen. ;)

robbitop
2004-04-12, 23:07:44
ich denke schon, besonders Leo macht viele Benches und dank aths stimmt der Technik Teil auf jeden Fall.
Wenn 3dc Karten reviewt dann ist es bisher immer oberste Klasse gewesen. Je nach verfügbarer Zeit mit der Karte eben.

Demirug
2004-04-12, 23:12:27
Original geschrieben von Gast
Das Preview von Beyond3D hat schon 25 Seiten und ist immer noch nicht fertig !!

Bin gespannt ob aths und Leo da mithalten können ;)

Eine übliche Sünde wenn der Platz nichts kostet. Einfach nicht auf den Punkt kommen.

Aber wenn man genügend Spiele bencht sind 25 Seiten schnell gefüllt.

BodyLove
2004-04-13, 00:11:18
Gibst noch keinen, der das NDA bricht? Und ich hatte mir solche Hoffnungen bei Chip.de gamacht. Mist.

Gast
2004-04-13, 00:17:39
Die bei Chip.de sind noch in den osterferien ;-)
Denke aber , das bald irgendjemand das schweigen bricht und n bischen was erzählen wird.....naja, zumindest hoffe ich das........mein gott....irgendjemandem muss dieser spaß doch die strafsumme wert sein!

betasilie
2004-04-13, 00:23:47
*knabber an den fingernägeln* :jump4:

Ich hoffe wir bekommen gleich noch Futter.

Gast
2004-04-13, 00:31:31
Ich suche schon ;-).....aber NOCH findet sich nix....scheinen sich alle dran zu halten......am besten morgen um die selbe zeit nochmal gucken
Gab ja schon ein paar äußerungen von manchen testern....(ja nich zu viel sagen)....
Beschrenkt sich das NDA eigendlich nur auf den "Tag" oder ist
es auf die minute genau geregelt...oder bekommen die tester eine email in welcher steht "so, nun könnt ihr eure Previews/reviews posten"?

Demirug
2004-04-13, 00:33:35
Original geschrieben von Gast
Ich suche schon ;-).....aber NOCH findet sich nix....scheinen sich alle dran zu halten......am besten morgen um die selbe zeit nochmal gucken
Gab ja schon ein paar äußerungen von manchen testern....(ja nich zu viel sagen)....
Beschrenkt sich das NDA eigendlich nur auf den "Tag" oder ist
es auf die minute genau geregelt...oder bekommen die tester eine email in welcher steht "so, nun könnt ihr eure Previews/reviews posten"?

Das steht alles in den Dokumenten welche der NDA unterliegen. :D

(del676)
2004-04-13, 00:35:23
Original geschrieben von Demirug
Das steht alles in den Dokumenten welche der NDA unterliegen. :D

LOL

NDA is ja schlimmer als verheiratet sein :D :D

Gast
2004-04-13, 00:36:40
na pupa ......;-)
wenn es sich nämlich nur auf den tag beziehen würde, dann würde man ja schon vor dieser vorstellung (welche erst abends ist, aber bekanntlich dauert ein tag länger als ein abend ;-)) erste test sehen, ohne das die endsprechenden Seiten gegen die NDA verstoßen!

Gast
2004-04-13, 00:55:17
Das sind solche momente, in welchen man sich wünscht, Hardware-tester zu sein !
Aber naja, Teoretisch würde das NDA ja morgen früh um 9 uhr (In DE) ablaufen, denn dann is in amiland der 13.4 (teoretisch!!!) . Aber dann würde die vorstellung von Nvidia keinen sinn machen......es traut sich aber auch keiner mal was zu sagen...die sitzen nu alle zuhause und zocken NFSU und FarCry bis zum abwinken !;-)! , und kommen beim mitzählen der frames nicht mehr hinterher...und wir sitzen hir und warten uns föllig kirre....aber hat was...! .....wir könnten ja alle zusammenlegen und mal n paar leute bestechen ;-) *lol*

thop
2004-04-13, 01:00:59
Original geschrieben von Ailuros
Gerade auf einem TFT, da hier die "Definierung" um einiges besser ist und aliasing sichtbarer ist als auf einem CRT.
Was du hier aber vergisst ist dass der TFT von 1280x960 auf 1600x1200 hochrechnen muss, da hilft selbt das allerbeste AA auf der Welt nichts ums dort Unschärfe zu vermeiden. Bei 1600x1200 gibt es sowas nicht, da 1:1 Auflösung.

PS. Aber das wird jetzt wie dei 16ms Diskussion zu sehr OT :)

CrazyIvan
2004-04-13, 01:03:19
Original geschrieben von reunion
Echt?
Dann können wir uns ja auf ein ordentliches Review freuen...
Hat er auch den R420?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1712769#post1712769

Ist leider in nem kleinen Flamewar ein wenig untergegangen ;D

thop
2004-04-13, 01:11:21
Os bisjetzt noch nix zu sehen am Review Himmel. Ich hoffe ja immer noch auf die Russen von xbitlabs. Wann veröffentlicht Leo eigentlich sein Review?

BvB123
2004-04-13, 01:13:07
wahrscheinlich dann wenn er darf

Gast
2004-04-13, 01:13:22
Tja leute, Vorfreude: schönste Freude! =)
In 24 stunden sind wir schlauer...
Aber mal ganz ehrlich; wie wurde Futuremark gescholten vonwegen Slideshow und so =)
Und jetzt gibt es wahrscheinlich Karten die das 'einigermaßen hinkriegen' - Klasse!

up

thop
2004-04-13, 01:13:59
Ja aber wann darf er?

Hellfire-Torrod
2004-04-13, 01:17:17
Ich glaub , das er das selbst nicht weiß, oder nicht sagen darf, oder es eine überraschung wird.....

Aso, will mich kurz vorstellen: Hellfire-Torrod
(eben noch gast....zwei threads hintereinander...eben gerade...guckst du oben)

CrazyIvan
2004-04-13, 01:28:46
@ H-T

Herzlich willkomen und viel Spaß hier :)

@ thop

Tippe auf übermorgen früh um 7. Dann ist es in den USA 22.00 und die nVidia Präsentation dürfte vorbei sein. Vorher wird das NDA wohl eher net ablaufen.

betasilie
2004-04-13, 01:39:15
Original geschrieben von Hellfire-Torrod
Ich glaub , das er das selbst nicht weiß, oder nicht sagen darf, oder es eine überraschung wird.....

Aso, will mich kurz vorstellen: Hellfire-Torrod
(eben noch gast....zwei threads hintereinander...eben gerade...guckst du oben)
Willkommen. :)

Er darf es nicht sagen, weil das genaue expiration date ebenfalls zum NDA gehört.

thop
2004-04-13, 01:40:10
Also heute Nacht wirds wohl dann mit Sicherheit nix werden oder?

betasilie
2004-04-13, 01:44:01
Demirug - lohnt es sich noch aufzubleiben? Gibt´s noch was gutes im Fernsehen? :)

CrazyIvan
2004-04-13, 01:48:20
Gute nacht, Jungs.

Wenn Ihr Pech habt, gibts noch nichtmal in 24h was zu lesen (s.o.).

WEGA
2004-04-13, 01:48:56
Original geschrieben von betareverse
Demirug - lohnt es sich noch aufzubleiben? Gibt´s noch was gutes im Fernsehen? :)

mittwoch nachm aufstehen hast du die reviews ;)

Ailuros
2004-04-13, 02:31:42
Original geschrieben von thop
Was du hier aber vergisst ist dass der TFT von 1280x960 auf 1600x1200 hochrechnen muss, da hilft selbt das allerbeste AA auf der Welt nichts ums dort Unschärfe zu vermeiden. Bei 1600x1200 gibt es sowas nicht, da 1:1 Auflösung.

PS. Aber das wird jetzt wie dei 16ms Diskussion zu sehr OT :)

Ich hab zwar keine Ahnung worauf Du mit dem obrigen hinauswillst, aber wenn Du mir wahrmachen willst dass 1280*960 (oder *1024) mit AA/AF nicht um einiges besser aussieht als 1600*1200 ohne jegliches AA/AF und das unabhaengig vom benutzten Bildschirm, dann hat es sowieso keinen Sinn eine solche Debatte weiterzufuehren.

Gast
2004-04-13, 03:05:17
Original geschrieben von robbitop
Heutige 16ms BenQ oder Iiyama TFTs ab 400EUR sind absolut Spieletauglich.

Ich habe noch keine einzigen TFT zu Gesicht bekommen, auf denen nicht mindestens die Texturen selber verwischen.

Ein CRT ist noch immer das Maß aller Dinge, nur leider fallen zuviele DAUS auf das TFT-Gelaber herein, weshalb die CRTs langsam aber sich aus den Regalen verschwinden...traurig.

Auch DVDs lassen sich noch immer besser auf CRTs genießen und sind auf manchen Panels sogar eine Zumutung.

thop
2004-04-13, 03:07:44
Ailuros ich glaube das hat eh keinen Zweck da du einfach ignorierst dass wir von TFTs mit einer fixen Auflösung von 1600x1200 sprechen. Wenn du da nicht versteht warum 1280x960 da schlechter ausschaut als 1600x1200 kann ich auch nicht mehr helfen. Ist eh OT.

Ich bitte auch den TFT-Basher Gast das Thema in einen anderen Thread zu verlagern. Hier gehts um NV40.

MadManniMan
2004-04-13, 03:38:09
/me hats grad nochma getestet(ACER AL 1721hm / 17" / 16ms):

1024/4*AA/16*QAF - schaut nich übel aus, in etwa die Bildquali meiner 1998er Billigröhre. Da ich aber seit nem vierteljahr fast nur noch vor nem TFT sitze, wirkt das alles in etwa wie Quincunx.

1280/noAA/noAF - Texturenquali schien kaum schlechter, dafür war Quincunx endlich aus. Lieber dies scharfen Kanten, als der Matsch bei dem Kram da oben.

1280/2*AA/2*PAF - ich fahr wirklich lieber die native Auflösung mit weniger AA/AF ;)


Gruß, der hibbelige Manni

PP
2004-04-13, 08:18:52
Gigabyte hat den NV40 angekuendigt.
HardOCP (http://www.hardocp.com/)
http://www.hardocp.com/images/news/1081819095xDxNGnqwG1_1_2_l.gif

Tyler_Durden
2004-04-13, 08:21:54
Mann bin ich nervös auf den ersten Test! :D

Gast
2004-04-13, 08:24:15
Original geschrieben von Tyler_Durden
Mann bin ich nervös auf den ersten Test! :D Es ist doch schon alles bekannt. Es ist doch wie immer: grosser Hype und dann Ernüchterung wegen der völlig überzogenen Wunschvorstellungen.

Funkyman
2004-04-13, 08:41:49
hab keine zeit mir das jetzt durch zu lesen, hab auch keine Ahnung ob das hier schon gepostet wurde oder ob das stimmt was da steht oder nicht

http://www.rojakpot.com/(lyqvpqfsrft5sczmpom050m2)/default.aspx?location=3&var1=89&var2=0

Gast
2004-04-13, 08:47:05
700 MHz GDDR3 von Samsung, Leistungssteigerungen von 40 - 100% ggü. NV38/R360XT durch die gesteigerte Füllrate. Nix neues also, der ganze Hype umsonst...

Gast
2004-04-13, 08:47:44
Cons

* It's April Fool's Day!

Phobos
2004-04-13, 09:44:05
Boah ich muss heut Mittag auf ne Lan - ich brauch ein Review - schnell =)

Gast
2004-04-13, 10:17:26
Original geschrieben von flobos
Boah ich muss heut Mittag auf ne Lan - ich brauch ein Review - schnell =) Wozu? Es ist doch bereits alles bekannt. Weltbewegend neue Erkenntnisse können die Reviews gar nicht mehr bringen.

LovesuckZ
2004-04-13, 10:21:06
Original geschrieben von Gast
Wozu? Es ist doch bereits alles bekannt. Weltbewegend neue Erkenntnisse können die Reviews gar nicht mehr bringen.

Was ist denn alles bekannt?

ironMonkey
2004-04-13, 10:21:39
Was ein Rennwagen leistet sieht man auch erst richtig auf der Strecke.


Gruß

ShadowXX
2004-04-13, 10:31:43
Original geschrieben von Gast
Wozu? Es ist doch bereits alles bekannt. Weltbewegend neue Erkenntnisse können die Reviews gar nicht mehr bringen.

Bekannt ist ausserdem gar nix....was wir haben sind Spekus, die unzwischen "nur" als ziemlich gesichert gelten.

Und wie meine Vorredner schon bemerkten:
Nur von den technischen Daten her (wenn SIe dann nicht doch noch etwas anders aussehen sollten), kann man heutzutage nicht mehr auf die Leistung schliessen.

Beim r420 mag das noch halbwegs hinkommen, da er wohl sehr stark auf dem r360 basiert, aber beim nv40 hängt man doch etwas in einem schwarzen Loch, da man nicht genau weiss, wie nV das ganze zum schluss realisiert hat (die änderungen vom nv38 zum nv40 sind grösser als die vom 360 zum r420...und selbst das sind spekus....).

Spätestens Morgen Abend wissen wir zumindest vom nv40 mehr...

reunion
2004-04-13, 10:55:12
Original geschrieben von PP
Gigabyte hat den NV40 angekuendigt.
HardOCP (http://www.hardocp.com/)
http://www.hardocp.com/images/news/1081819095xDxNGnqwG1_1_2_l.gif

Hm, die nonU nur mit 128mb?

Gast
2004-04-13, 10:55:35
Original geschrieben von ironMonkey
Was ein Rennwagen leistet sieht man auch erst richtig auf der Strecke. Ob ein Handy wirklich runterfällt wenn ich es loslasse weiss ich auch erst, wenn ich es tatsächlich mal im stehen loslasse. -.-

LovesuckZ
2004-04-13, 10:58:37
Original geschrieben von reunion
Hm, die nonU nur mit 128mb?

Gigabyte's ja :)
Das erklaere dann auch Preis. Heute bekommt man 256MB Karten auch erst für ca. 330€, wenn diese ein jahr alt sind (9800pro|5900U).

Gast
2004-04-13, 11:05:25
Original geschrieben von LovesuckZ
Was ist denn alles bekannt? Alles was man braucht um die resultierende Leistung im Bereich von ±10% abzuschätzen. Der NV40 wird hauptsächlich durch die massiv ggü. den Vorgängern gesteigerte Füllrate profitieren. Im Spiel kommt dann bestenfalls die doppelte Framerate bei raus. Noch ein paar Tweaks an AA/AF und das wars. Die Referenzkarten haben wir auch schon gesehen. Was ausser der Ernüchterung dass vorher schon alles relevante bekannt war erwartest du denn von den Reviews? Die bieten auch nur Text und ein paar bunte Bildchen, die nur bestätigen was hier schon alle wissen.

Es ist doch jedes Mal das gleiche. Hype -> Ernüchterung. Lernt denn niemand aus den Ereignissen der Vergangenheit?

Gast
2004-04-13, 11:08:50
ack...

und dann noch diesmal ein richtig fetter stromverbrauch... :((

seahawk
2004-04-13, 11:11:23
Man was soll der Hype. Der NV40 wird bestimmt die Erwartungen die man nach dem NV30 hat erfüllen.

Spannend wird es erst Ende Mai.

Ailuros
2004-04-13, 11:22:04
Original geschrieben von thop
Ailuros ich glaube das hat eh keinen Zweck da du einfach ignorierst dass wir von TFTs mit einer fixen Auflösung von 1600x1200 sprechen. Wenn du da nicht versteht warum 1280x960 da schlechter ausschaut als 1600x1200 kann ich auch nicht mehr helfen. Ist eh OT.

Ich bitte auch den TFT-Basher Gast das Thema in einen anderen Thread zu verlagern. Hier gehts um NV40.

Sicher das folgende ist ja optimale Bildqualitaet fuer Dich.

http://users.otenet.gr/~ailuros/1600noAAaf.jpg

Ailuros
2004-04-13, 11:26:12
Original geschrieben von seahawk
Man was soll der Hype. Der NV40 wird bestimmt die Erwartungen die man nach dem NV30 hat erfüllen.

Spannend wird es erst Ende Mai.

Welche Erwartungen genau? Ich koennte leicht an Erwartungen von manchen denken, die sich nach dem NV3x etwas wuenschten, was die Konkurrenz gnadenlos in den Boden stampft.

Gast
2004-04-13, 11:38:19
Original geschrieben von Ailuros
Sicher das folgende ist ja optimale Bildqualitaet fuer Dich.

http://users.otenet.gr/~ailuros/1600noAAaf.jpg Was gemeint war: 1600*1200 stellt real einfach mehr Bildinformationen als 1280*960 dar, egal aus wie vielen Subpixeln bei niedrigeren Auflösungen gerastert wurde. Eine höhere Rasterauflösung ist durch nichts zu ersetzen, nur durch eine noch höhere Rasterauflösung. AA mildert nur Symptome, Rasterauflösungserhöhung bekämpft Aliasingursachen. Das weisst du aber selbst, du reitest nur trotz besserem Wissen auf der EER-Welle wie aths ;).

Quasar
2004-04-13, 11:40:14
Original geschrieben von Gast
Was gemeint war: 1600*1200 stellt real einfach mehr Bildinformationen als 1280*960 dar, egal aus wie vielen Subpixeln bei niedrigeren Auflösungen gerastert wurde. Eine höhere Rasterauflösung ist durch nichts zu ersetzen, nur durch eine noch höhere Rasterauflösung. AA mildert nur Symptome, Rasterauflösungserhöhung bekämpft Aliasingursachen.

Yeah! Ein Gast nach meinem Geschmack. X-D

Ailuros
2004-04-13, 11:44:06
Original geschrieben von Gast
Was gemeint war: 1600*1200 stellt real einfach mehr Bildinformationen als 1280*960 dar, egal aus wie vielen Subpixeln bei niedrigeren Auflösungen gerastert wurde. Eine höhere Rasterauflösung ist durch nichts zu ersetzen, nur durch eine noch höhere Rasterauflösung. AA mildert nur Symptome, Rasterauflösungserhöhung bekämpft Aliasingursachen. Das weisst du aber selbst, du reitest nur trotz besserem Wissen auf der EER-Welle wie aths ;).

Nein und Du kannst offensichtlich auch nicht genau lesen. Haette er nur AA gesagt, dann gaebe es diese Debatte gar nicht. Nun schau Dir nochmal genau den shot an und sag mir was ausser AA dem shot noch fehlen koennte.

Merkt keiner was an der Texturenmatsche oder was?

Gast
2004-04-13, 11:44:33
<ot>
Original geschrieben von Quasar
Yeah! Ein Gast nach meinem Geschmack. X-D Manche Gäste sollen auch registriert, aber zu faul zum einloggen sein hab ich mal gehört ;).

Zudem ist's auch manchmal ganz praktisch, wenn der Diskussionspartner nicht gleich voreingenommen an die eigenen Postings herangeht. Ich glaub, ich lösche meinen Account. X-D
</ot>
Sry für OT :sulkoff:.

ShadowXX
2004-04-13, 11:44:45
Original geschrieben von Gast
Was gemeint war: 1600*1200 stellt real einfach mehr Bildinformationen als 1280*960 dar, egal aus wie vielen Subpixeln bei niedrigeren Auflösungen gerastert wurde. Eine höhere Rasterauflösung ist durch nichts zu ersetzen, nur durch eine noch höhere Rasterauflösung. AA mildert nur Symptome, Rasterauflösungserhöhung bekämpft Aliasingursachen. Das weisst du aber selbst, du reitest nur trotz besserem Wissen auf der EER-Welle wie aths ;).

Dir ist aber klar, das bei AA ebenfalls das Bild in einer höheren Auflösung berechnet wird und er erst dann runtergerechnet wird....??

So wie du es beschreibst, hört es sich nämlich so an, als würde er sich die zusätzlichen Bildinformationen aus den Fingern saugen, was definitiv nicht der Fall ist...

reunion
2004-04-13, 11:45:25
Oh man, ich schau schon jede 5min auf chip.de ob man da nicht einen Test findet. X-D
Warum bricht niemand seine NDA? ;(

Gast
2004-04-13, 11:46:32
Original geschrieben von Ailuros
Merkt keiner was an der Texturenmatsche oder was? Klar. AF hat aber nichts mit der Rasterauflösung zu tun. Texturen sind auch in niedrigen Auflösungen Matsch, wenn sie es in hohen sind, um dir deine Aussage im Mund umzudrehen :D.

BodyLove
2004-04-13, 11:47:05
@re

genauso wie ich. Ich schau auch mal kurz bei tomshardware.com vorbei.Man weiss ja nie.

Ailuros
2004-04-13, 11:48:04
Original geschrieben von ShadowXX
Dir ist aber klar, das bei AA ebenfalls das Bild in einer höheren Auflösung berechnet wird und er erst dann runtergerechnet wird....??

So wie du es beschreibst, hört es sich nämlich so an, als würde er sich die zusätzlichen Bildinformationen aus den Fingern saugen, was definitiv nicht der Fall ist...

Shadow im gegebenen Fall wo es wohl um Multisampling ging, betrifft das up-/downsampling aber nur poly-edges, was nicht gut genug ist als Gegenbeispiel zu 1600/native.

Anisotropische Filterung aber hingegen nicht.

LovesuckZ
2004-04-13, 11:50:16
GeForce 6 Series Tech Article (http://hardocp.com/article.html?art=NjA1)

GeForce 6800Ultra Preview (http://hardocp.com/article.html?art=NjA2)

http://www.beyond3d.com/forum/viewtopic.php?p=255649#255649

Viel Spass :D

Ailuros
2004-04-13, 11:50:25
Original geschrieben von Gast
Klar. AF hat aber nichts mit der Rasterauflösung zu tun. Texturen sind auch in niedrigen Auflösungen Matsch, wenn sie es in hohen sind, um dir deine Aussage im Mund umzudrehen :D.

Nur ist die eine Matsche mit der anderen nicht zu vergleichen.

Er sagte klipp und klar noAA/AF, verdrehen koennt ihr Euer Zeug auch lange.