PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : 1 2 3 4 5 6 7 [8] 9

Gast
2006-11-06, 06:29:44
Der peformance hit soll angeblich 20% sein von 16af zu 16hq-af in Oblivion

AnarchX
2006-11-06, 07:03:22
[All 8800GTX Cards Being Recalled]

We have received news that all the 8800GTX cards out in the channel are being recalled due to manufacturing defect. We heard it is probably due to a transistor controlling 2D/3D switching. However, the defect doesn't affect the 8800GTS cards. This issue probably could delay the launch, if not, there could be no availablity of 8800GTX cards at launch but just GTS.

Update #1 : No affect on launch date as yet
Update #2 : NVIDIA will handle the necessary hardware changes
http://www.vr-zone.com/?i=4253

Sunrise
2006-11-06, 07:05:12
Ich als Grieche hab dann noch mehr Grund zum lachen.
Bzw. dann garkeinen mehr. :P :biggrin:

@Gast: Siehe Quasars Antwort. G80 ist wie gesagt wirklich erst der Anfang, Potential ist bei diesem Design wohl unglaublich viel vorhanden, zusammen mit der Flexibilität, der wohl extrem guten Skalierbarkeit (inkl. des Interfaces) und den aktuell (bekannten) Daten, inkl. des AAs/AFs, bin ich da mehr als nur begeistert. Ich habe mir sogar ernsthaft überlegt, privat - nach nun über 5 Jahren - mal wieder einen neuen Rechner zuzulegen, werde das aber wohl auf den Zeitraum des Refreshes verschieben. Worauf ich noch gespannt bin, ist die Implementation von NVs (Pure)Video-Teil, darüber liest und hört man leider aber überhaupt nichts.

Gast
2006-11-06, 07:10:44
http://www.vr-zone.com/?i=4253

hauptsache wir sehen am Mittwoch benches

AnarchX
2006-11-06, 07:16:19
[All 8800GTX Cards Being Recalled]
[...]

Update #3 : Only some 8800GTX cards are affected due to wrong resistor value by a contract manufacturer but to be safe, all the card makers are recalling their cards
http://vr-zone.com/index.php?i=4253

Gast
2006-11-06, 07:22:32
alle Karten werden zürück gerufen. soso

Ailuros
2006-11-06, 07:24:20
Der peformance hit soll angeblich 20% sein von 16af zu 16hq-af in Oblivion

Klingt mir viel zu viel im Vergleich zu den Serious Sam2 Resultaten die ich gesehen habe.

Ailuros
2006-11-06, 07:28:32
alle Karten werden zürück gerufen. soso

Von den Herstellern ja; d.h. aber dann um einiges groessere Verfuegbarkeit bei der erneuten Auflage ;)

Krustovsky
2006-11-06, 09:33:46
Was ist das denn für eine Horrormeldung:eek: Ist da tatsächlich was Wahres dran?

Die gelbe Eule
2006-11-06, 09:40:23
Habe mal bei einem Distributor angefragt, Verfügbarkeit wäre eh erst ab dem 14.11. geplant gewesen, auch wenn es vereinzelt hier und da am Mittwoch Karten gibt. Ein Hardlaunch wird es trotzdem.

MikBach
2006-11-06, 09:42:59
Erschreckend ist hingegen die Leistungsaufnahme im idle-Modus: 45W (!) mehr, während die Karte eigentlich nichts tut... Erinnert irgendwie an das Leckstrom-Desaster beim Prescott...
:eek:

Sind die verrückt geworden??? :mad:

In 3d ist die Verlustleistung noch angemessen, aber in 2D???
Horror!

Wenn sich jemand so eine Karte zulegt, dann schädigt er imo bewusst die Umwelt. ;(

Also jetzt ist das Mass voll. Spitze gemacht Nvidia! *kotz*

Gruß M_B

Gast
2006-11-06, 09:43:09
Na toll. Wahrscheinlich gibts dann die GTX erst kurz vor Weihnachten.

[Verschwörungstheorie]
Wahrschenilich konnten sie von Anfang an nicht genug produzieren und nutzen das als Ausrede
[/Verschwörungstheorie]

Gast
2006-11-06, 09:49:48
Die theoretische Pixelshader-Leistung der GeForce 8800 GTX bei MADD-Operationen liegt bei 345,6 GFLOPS, die der GeForce 7900 GTX bei 249,6 GFLOPS und die der GeForce 7950 GX2 bei 384 GFLOPS.

Das ist aber garnichtmal so toll, angesichts der 374 GFLOPS der X1900XTX.

Ailuros
2006-11-06, 10:02:22
Das ist aber garnichtmal so toll, angesichts der 374 GFLOPS der X1900XTX.

Nur leider haettest Du noch ein Stueckchen weiterlesen sollen:

128 * 3 FLOPs * 1.35GHz = 518 GFLOPs

Ailuros
2006-11-06, 10:19:31
Na toll. Wahrscheinlich gibts dann die GTX erst kurz vor Weihnachten.

[Verschwörungstheorie]
Wahrschenilich konnten sie von Anfang an nicht genug produzieren und nutzen das als Ausrede
[/Verschwörungstheorie]

Wenn die Redaktionen von grossen Seiten schon eine handvoll an GPUs gleich mitgeschenkt bekommen, dann sieht das nicht nach begrenzter Verfuegbarkeit aus. Man kann's ja auch an den endlosen leaks von zahllosen Quellen sehen.

Es wurde immer noch nicht geklaert wo genau der Fehler liegt; da die Dailytech idle/2D Stromverbrauchszahlen schon ziemlich hoch waren will ich nichts ausschliessen. Da es sich um aber hoechstwahrscheinlich nur um einen resistor handelt werden normalerweise solche Kleinigkeiten ziemlich schnell behoben.

Man muss ja den Herren die weiter oben nur Grund zum meckern suchen auch einen Grund geben dass sie ihren Mecker-lebenszweck vollfuellen koennen LOL :biggrin:

Die gelbe Eule
2006-11-06, 10:24:11
Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.

Ronin2k
2006-11-06, 10:25:03
naja die meldung das alle 8800GTX zurückgerufen werden ist net so doll :frown: die GTS ist aber net davon betroffen.

MikBach
2006-11-06, 10:26:14
Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.
Und?

Bei dieser extremen Verlustleistung unter 2D muss man schon fast ein Depp sein sich so eine Karte zu holen.

Gruß M_B

Ronin2k
2006-11-06, 10:29:57
öhm da liegt nen fehler vor und deshalb werden die ganzen GTX zurückgerufen ;)

Die gelbe Eule
2006-11-06, 10:30:57
Und was wenn es ein Bug war, was wenn es behoben wird, was wenn unter 80nm die Verlustleistung um 20% sinkt?

Manche geilen sich an Dingen auf ...

Was macht denn 45W aus? Vielleicht 1€ im Monat. Wer 550€ für eine Karte ausgibt, dessen Wertverlust nach einem Jahr bereits 40% beträgt, der kann auch 45W mehr Verlustsleistung pro Stunde verkraften.

Ailuros
2006-11-06, 10:33:25
Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.

http://www.beyond3d.com/forum/showpost.php?p=866803&postcount=2498

http://www.beyond3d.com/forum/showthread.php?t=35343

Ailuros
2006-11-06, 10:36:40
Und?

Bei dieser extremen Verlustleistung unter 2D muss man schon fast ein Depp sein sich so eine Karte zu holen.

Gruß M_B

Obwohl die hohe Verlustleistung unter 2D locker ein Resultat des Problems sein koennte, wuerde ich mir selbst dann noch die Karte holen und dabei waere es mir gleichgueltig ob ich dann fast ein Depp sein sollte oder nicht. Wenn ich dann in der Zukunft Vista installiere bleibt der Stromverbrauch sowieso nicht mehr so niedrig im "dreidimensonalen 2D".

Sonst noch ein Grund zum meckern? :biggrin:

MikBach
2006-11-06, 10:39:03
Und was wenn es ein Bug war, was wenn es behoben wird, was wenn unter 80nm die Verlustleistung um 20% sinkt?

Manche geilen sich an Dingen auf ...

Was macht denn 45W aus? Vielleicht 1€ im Monat. Wer 550€ für eine Karte ausgibt, dessen Wertverlust nach einem Jahr bereits 40% beträgt, der kann auch 45W mehr Verlustsleistung pro Stunde verkraften.
Gegen die eh schon horrende Verlustleistung unter 3D sage ich auch nichts, obwohl es schon zuviel ist.

Aber warum zum Geier muss eine 3D-Karte unter 2D so viel verbrauchen?
Kannst du mir das irgendwie plausibel erklären?

Für 2D sollten unter 10 Watt ausreichen.

Ich finde einige hier gehen einfach zu lässig mit ihrer Umwelt um. :mad:

Gruß M_B

MartinRiggs
2006-11-06, 10:39:58
Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.

und du schwätzt so grün das man es schon nicht mehr aushält.
Klar werden die 8800er gute Karten, bezweifel ich auch gar nicht.
Aber tu doch bitte nicht so als sein NV ein Samariter und würde immer alles richtig machen, da drehen sich einem die zehennägel hoch.

Ailuros
2006-11-06, 10:41:38
Senior MikBach,

Weil es vielleicht der Grund eines kleinen Defekts sein koennte und darum die GTX kurz zurueckgezogen werden?

Und da wir schon beim meckern sind Dir werden sowieso keine ultra high end GPUs der naechsten Generation stehen weil der Gegner in etwa 50W unter Last mehr verbraten wird.

Gast
2006-11-06, 10:46:01
Gegen die eh schon horrende Verlustleistung unter 3D sage ich auch nichts, obwohl es schon zuviel ist.

Aber warum zum Geier muss eine 3D-Karte unter 2D so viel verbrauchen?
Kannst du mir das irgendwie plausibel erklären?

Für 2D sollten unter 10 Watt ausreichen.

Ich finde einige hier gehen einfach zu lässig mit ihrer Umwelt um. :mad:

Gruß M_B
Genau! Bitte werft auch sofort eure sämtlichen X1900-Karten, eure X1800 XT und XL, eure 7900 GTX und 7950 GTs weg - alles über dem Verbrauch einer 7900 GT/ X1800 GTO ist qua unfehlbarem Edikt von Mik Bach eine Sünde an der Natur und wird euch der ewigen Verdammnis und dem Fegefeuer anheimfallen lassen.[/sarkasmus]

Wie war das nochmal beim X1800-Launch?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch
Mein Gott!!! 33 Watt zuviel.

Ich würde sagen: Abwarten. Wenn sich das mit einer neuen Treiberrevision nicht besser, kann man berechtigte Kritik üben.


Q

Die gelbe Eule
2006-11-06, 10:46:57
und du schwätzt so grün das man es schon nicht mehr aushält.
Klar werden die 8800er gute Karten, bezweifel ich auch gar nicht.
Aber tu doch bitte nicht so als sein NV ein Samariter und würde immer alles richtig machen, da drehen sich einem die zehennägel hoch.

Ich hatte ein Jahr lang ATis, 4 Stück an der Zahl alles High End zu dem Zeitpunkt. Zufrieden war ich immer, davon ab. Kann es nur nicht mehr lesen, das wenn NV nun die "beste" Karte am Markt hat, das man sich an Kleinigkeiten aufgeilt, welche völlig irrelevant sind für High End User.
Man muss auch mal anerkennen das sich Zeiten ändern können ...

Ailuros
2006-11-06, 10:47:34
Ich muss zugeben dass es zunehmend schwerer wird extremem Sarkasmus zu entgehen.

MartinRiggs
2006-11-06, 10:49:15
ok, das lässt dein Posting wieder anders erscheinen.
Ich hoffe das G80 und R600 fast genau gleich schnell sind damit wieder schön über den Preis gerangelt wird.
Hatte seit Geforce 4 keine NV mehr, aber ne 8800er könnte ganz nett sein.
Schaun mer mal:biggrin:
Obwohl die 8800er GTX so lang ist das ich sie nicht ins gehäuse bekomme:mad:

LovesuckZ
2006-11-06, 10:50:29
Für 2D sollten unter 10 Watt ausreichen.

Dann entwickel eine Technik, melde sie zum Patent an und verdiene damit Geld.
Leider höre ich von den ganzen "grünen" Jungs keinen Lösungsansatz sondern nur: Weniger Aufnahme sollte möglich sein.


Ich finde einige hier gehen einfach zu lässig mit ihrer Umwelt um. :mad:


Das von dir, welcher eine X1950pro gekauft hat, die einen deutlichen höheren Stromverbrauch als die 7900gs hat...

Langsam nervt die Stromverbrauchsdiskussion. Wer mit dem Ergebnis nicht zu frieden, kauft die Karte nicht.
Fertig. Ende. Aus.
Es handelt sich in dieser Sache immernoch um ein Luxusgut, welches zum Leben und Arbeiten nicht benötigt wird. Im Gegensatz zu Öl oder Strom.

Coda
2006-11-06, 10:50:57
Gegen die eh schon horrende Verlustleistung unter 3D sage ich auch nichts, obwohl es schon zuviel ist.

Aber warum zum Geier muss eine 3D-Karte unter 2D so viel verbrauchen?
Kannst du mir das irgendwie plausibel erklären?

Für 2D sollten unter 10 Watt ausreichen.

Ich finde einige hier gehen einfach zu lässig mit ihrer Umwelt um. :mad:

Gruß M_B

Meine Güte. Wartet doch erstmal ab was Xbit misst. Vorher ist das Rumgeschreie echt so was von daneben.

Wieviele Leute haben denn bitte so ne Karte? Ich denke die Umwelt hat definitiv viel größere Probleme im Moment.

Wenn ich dann in der Zukunft Vista installiere bleibt der Stromverbrauch sowieso nicht mehr so niedrig im "dreidimensonalen 2D".

Blödsinn. Die Karten bleiben im 2D-Takt und das bisschen was da gezeichnet wird (nicht ständig sondern nur on purpose) verbraucht evtl. 5W mehr, wenns überhaupt messbar sein wird.

Ailuros
2006-11-06, 10:51:45
Die Laenge macht mir keine grossen Sorgen; ich will nur hoffen dass es mit der Breite (dual slot) nicht zu eng wird bei mir. Weil eben der bescheuerte Mobo-Hersteller einen zu grossen heatsink installieren musste :mad:

deekey777
2006-11-06, 10:52:07
Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.
Wäre es möglich aufs Flaming zu verzichten? Danke.

Dass die 8800er jetzt mindestens ebenbürtige oder bessere Bildqualität liefern wird, liegt daran, dass beim Design des G80 die TMUs und die Shader nicht mehr aneinander gekoppelt sind. Und die "Fanatiker" kennen diese Entkopplung seit dem R300, schade nur, dass bis zum R520 die Transistoren eingespart werden mussten.

Die gelbe Eule
2006-11-06, 10:52:54
Naja wenn es im Zyklus 1Mio Karte gibt und alle werden abgesetzt, ist es dann nicht egal wer den Strom verbraucht? Gekauft werden sie alle, nur von wem, das steht noch aus ...

MikBach
2006-11-06, 10:53:45
Genau! Bitte werft auch sofort eure sämtlichen X1900-Karten, eure X1800 XT und XL, eure 7900 GTX und 7950 GTs weg - alles über dem Verbrauch einer 7900 GT/ X1800 GTO ist qua unfehlbarem Edikt von Mik Bach eine Sünde an der Natur und wird euch der ewigen Verdammnis und dem Fegefeuer anheimfallen lassen.[/sarkasmus]

Wie war das nochmal beim X1800-Launch?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch
Mein Gott!!! 33 Watt zuviel.

Ich würde sagen: Abwarten. Wenn sich das mit einer neuen Treiberrevision nicht besser, kann man berechtigte Kritik üben.


Q
Quasar,

es geht um die Verlustleistung unter 2D.
Es sollte ohne Probleme möglich sein die Verlustleistung unter 2d deutlich zu drosseln.

Falls es ein Fehler ist, ok. Falls nicht werde ich immer von dieser Karte abraten, kapische?

Gruß M_B

Coda
2006-11-06, 10:54:16
Es sollte ohne Probleme möglich sein die Verlustleistung unter 2d deutlich zu drosseln.

Wenn es "ohne Probleme möglich wäre" würde man es machen.

Falls es ein Fehler ist, ok. Falls nicht werde ich immer von dieser Karte abraten, kapische?

Es wird nur leider keinen kratzen.

Die gelbe Eule
2006-11-06, 10:56:57
Ganz ehrlich, warum muss eine Karte die 100% schneller rennt als die alte, weniger Strom verbrauchen? Wir sind noch nicht bei 65nm, wo man vielleicht darüber nachdenken kann ...

mapel110
2006-11-06, 10:58:55
In welchem Prozess wird G80 denn gefertigt? (Ehrliche Frage, ich hab darüber noch nix gelesen)

AnarchX
2006-11-06, 11:00:55
In welchem Prozess wird G80 denn gefertigt? (Ehrliche Frage, ich hab darüber noch nix gelesen)
Ist noch nicht so sicher, es gibt nun auch viele Stimmen, dass es doch schon 80nm ist...

WEGA
2006-11-06, 11:01:01
80nm glaube ich

LovesuckZ
2006-11-06, 11:01:38
In welchem Prozess wird G80 denn gefertigt? (Ehrliche Frage, ich hab darüber noch nix gelesen)

Werf eine Münze:
Zahl -> 80nm
Kopf -> 90nm

Es gibt bis jetzt keine gesicherten Angaben.

Coda
2006-11-06, 11:03:05
Ich tippe auf 80nm - aber ich hab keine Ahnung :)

deekey777
2006-11-06, 11:03:06
In welchem Prozess wird G80 denn gefertigt? (Ehrliche Frage, ich hab darüber noch nix gelesen)
Das ist so eine lustige Geschichte. Eigentlich hieß es in 90 nm, dann kam Digitimes (http://www.digitimes.com/bits_chips/a20061103PB208.html) und hat für Verwirrung gestiftet:
The revised versions of G73 (codenamed G73-B1) and G72, along with the highly anticipated G80, will be targeted to compete with ATI solutions from mid-range to high-end market segments, the paper noted
:|

mapel110
2006-11-06, 11:03:47
681 mio Transistoren bei 90nm sind aber sicher arg viel. Müsste dann doch wohl 80nm sein?!

Bei den 380mio des R580 haben ja schon viele gestaunt.

AnarchX
2006-11-06, 11:06:49
Das ist so eine lustige Geschichte. Eigentlich hieß es in 90 nm, dann kam Digitimes (http://www.digitimes.com/bits_chips/a20061103PB208.html) und hat für Verwirrung gestiftet:

:|
Bei vr-zone gabe es schon eher eine Andeutung in diese Richtung:
NVIDIA too will roll out its 80nm chip in November
http://www.vr-zone.com/index.php?i=4195
;)

Die gelbe Eule
2006-11-06, 11:10:33
90nm soll es jetzt sein, 80nm rennt gerade an.

Riplex
2006-11-06, 11:12:20
Also ich find garnicht so schlecht das die GTX ein paar Wochen später erscheint.
Bekomm erst am 25.11. Weihnachtsgeld ;)

Wie lang wird das dauern bis Nvidia das im Griff hat ? 1 Monat vielleicht ?

Gast
2006-11-06, 11:13:18
Also ich find garnicht so schlecht das die GTX ein paar Wochen später erscheint.

Es ändert sich rein gar nichts am Launch-Termin.

AnarchX
2006-11-06, 11:13:28
90nm soll es jetzt sein, 80nm rennt gerade an.
nV hat schon seit fast 2 Monaten 80nm GPUs am Markt(G73-B1)...;)

Ailuros
2006-11-06, 11:16:30
1 Monat ist zu viel (falls sie tatsaechlich zurueckgezogen werden). Ich hab bis jetzt noch keine Antwort bekommen und vrzone ist ja auch nicht unbedingt die zuverlaessichste Quelle.

MikBach
2006-11-06, 11:24:37
Wenn es "ohne Probleme möglich wäre" würde man es machen.

GPU-Spannung absenken und die Taktraten noch mehr verringern.

Coda
2006-11-06, 11:26:21
Weißt du ob das so einfach möglich ist bei den vielen Taktbereichen der GPU?

Es ist auf jeden Fall nicht trivial.

AnarchX
2006-11-06, 11:26:50
European Geforce 8800 GTX costs €560+
Asus, Gigabyte, Sparkle spotted

IN THE END, it seems Nvidia's Geforce 8800 GTX and GTS won't end up overly expensive in Europe. It looks like it will settle at a price of just less than €600, including VAT.[...]
http://www.theinquirer.net/default.aspx?article=35547

LovesuckZ
2006-11-06, 11:29:06
http://www.theinquirer.net/default.aspx?article=35547

Das ist so lächerlich.
Er schaut sich geizhals an und denkt, dass wären die "richtigen" Preise.
Ob die vielleicht ein Bot haben, welcher solche einfachen Sachen schreibt? :rolleyes:

Coda
2006-11-06, 11:31:18
Hmmm 560€ klingt doch aber eigentlich ganz vernünftig. Glaubst du es wird mehr?

Frank1974
2006-11-06, 11:36:43
Bei MF sind 2 GTS für je 529€, und eine GTX für 679€, Stand war 11UHR, ab Lager lieferbar.

/edit
Die GTX hat sich schon einer weggeschnappt :smile:.

mfg
Frank

incurable_nli
2006-11-06, 11:47:35
Was ist dir lieber: "gedownloaded" oder "heruntergeladen"?
Downgeloaded. Wenn schon Denglisch, dann bitte vernünftig konjugiert!

LovesuckZ
2006-11-06, 11:51:14
Hmmm 560€ klingt doch aber eigentlich ganz vernünftig. Glaubst du es wird mehr?

Zur Zeit haben nur Läden die Karten gelistet, welche sehr wenig oder eine schlechte Gesamtbewertung haben.
Sie profilieren sich einfach über die "Exklusiviität". Ob die Preise am Mittwoch stimmen, ist ungewiss.

X.Perry_Mental
2006-11-06, 11:55:37
90nm soll es jetzt sein, 80nm rennt gerade an.
Das würde doch dann bedeuten, dass sämtliche Testmuster im Moment noch 90nm wären, oder? Wenn man die Menge an Transistoren, die Taktraten und die vermutliche Verlustleistung bedenkt, wäre das bei 90nm schon extrem beachtlich. Der 80nm-Prozess sollte dann nochmal gesenkte Verlustleistung und/ oder höhere Taktraten ermöglichen - sehr schön.

Blaire
2006-11-06, 12:02:40
Bei MF sind 2 GTS für je 529€, und eine GTX für 679€, Stand war 11UHR, ab Lager lieferbar.

/edit
Die GTX hat sich schon einer weggeschnappt :smile:.

mfg
Frank

Wieviele GTX waren denn verfügbar? :)

MartinRiggs
2006-11-06, 12:03:03
ja aber bei so einem Transistorcount müsste ja die Verlustleistung in 90nm jenseits allem heiligen sein. Noch viel schlimmer als bisher angenommen oder????

Blaire
2006-11-06, 12:06:16
Ich hab gerade von Mindfactory Email das mein Paket mit 2x8800GTX unterwegs. :biggrin:
Und das 2 Tage vorm Launch sehr nett.

MikBach
2006-11-06, 12:07:34
Weißt du ob das so einfach möglich ist bei den vielen Taktbereichen der GPU?
Wissen tue ich es nicht, meine aber, dass es schon möglich wäre.


Es ist auf jeden Fall nicht trivial.
Da hast du recht.

AnarchX
2006-11-06, 12:08:23
Ich hab gerade von Mindfactory Email das mein Paket mit 2x8800GTX unterwegs. :biggrin:
Und das 2 Tage vorm Launch sehr nett.

Na dann hoffe mal, dass vr-zone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4954564&postcount=1752) nicht recht hat...;)

Blaire
2006-11-06, 12:10:21
Na dann hoffe mal, dass vr-zone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4954564&postcount=1752) nicht recht hat...;)

Egal dann gehen die Dinger zurück kein Thema.

AnarchX
2006-11-06, 12:22:05
Offizielle Stellungsnahme von nV zum Widerstand-Problem bei der 8800GTX:
NVIDIA has issued us with an official statement regarding the problems:

"Some GeForce 8800 GTX boards that were built through our contract manufacturer had a simple BOM error - wrong resistor value. GeForce 8800 GTS boards are not effected by this.

These GeForce 8800 GTX boards were shipped to our Add-In-Card partners.

We have been working with them to pull these back and change the resistor to the correct value.

We believe we will still be able to hit our hard launch this week (Nov 8th) with the new GeForce 8800 GTX boards.

This is a testament to our execution as well as the execution of our Add-In-Card partners.

Adam Foat, Product PR Manger, Northern Europe."[...]
http://www.bit-tech.net/news/2006/11/06/nvidia_recalls_geforce_8800_gtx_batch/

Also wohl kein Problem für den Hardlaunch der GTX... ;)

Frank1974
2006-11-06, 12:36:44
Wieviele GTX waren denn verfügbar? :)

Hmm ka, um 11 UHR stand da eine ab Lager, ich kann leider keine vor nächsten Monat holen, die Umrüstung auf C2D vor kurzem hat mich schon einiges gekostet, naja werde es mit meiner 1900er auch noch bis nächsten Monat überleben :D, wenn du deine Karten hast kannst ja mal berichten, wie die BQ ist und der Speed, ich hoffe du hast jetzt auch einen C2D nicht das deine AMD Gurke alles ausbremst :tongue:.

mfg
Frank

The_Invisible
2006-11-06, 12:37:18
Ich hab gerade von Mindfactory Email das mein Paket mit 2x8800GTX unterwegs. :biggrin:
Und das 2 Tage vorm Launch sehr nett.

hehe, freak ;)

mfg

Zapat
2006-11-06, 12:46:20
Ich hab gerade von Mindfactory Email das mein Paket mit 2x8800GTX unterwegs. :biggrin:
Und das 2 Tage vorm Launch sehr nett.

Mit welchen Prozi wirst du deine 2+GTX befeuern?Noch immer mit denn AMD64 4000?

Anarchy-HWLUXX
2006-11-06, 13:08:31
Offizielle Stellungsnahme von nV zum Widerstand-Problem bei der 8800GTX:

http://www.bit-tech.net/news/2006/11/06/nvidia_recalls_geforce_8800_gtx_batch/

Also wohl kein Problem für den Hardlaunch der GTX... ;)


Dann gibbet bald doch ne ladung "Handgelötete" GTX ;D

Ailuros
2006-11-06, 13:09:22
Ich helf beim loeten; bekomm ich eine dann umsonst? :biggrin:

SentinelBorg
2006-11-06, 13:14:42
Da werden heute einige Überstunden mit dem Lötkolben schieben. ^^
Aber mit dem richtigen Equip, dürfte das Austauschen des Widerstandes selbst weniger Zeit beanspruchen, als das Ent- und Verpacken.

Sentinel

Gast
2006-11-06, 13:19:17
http://www.beyond3d.com/forum/showthread.php?t=35343

Hm, brilinear.

up¦²
2006-11-06, 13:27:52
I have had the 8800GTX here in Aus for 3 days now, I can confirm that there is a problem from my experiences. sometimes when launching a 3D game or benchmark the card seems to go into a slow mode, about 1/3 of it's usuall speed and there is grafix corruption associated with this slow down in games and 3D benchmarks. It's like the card gets stuck in 2D mode.

The only way I have found to pull it out of it's slow mode is to uninstall/re install the drivers and then it seems to work fine again for a while. In the 3 days I have had the card this problem has happened 6 times so far.

Aside from this when the card is working correctly in 3D the in game preformance is very very good.

Will be getting this card replaced asap with a non broken model for sure.
http://www.xtremesystems.org/forums/showthread.php?t=122081

dargo
2006-11-06, 13:44:46
Wenn ich dann in der Zukunft Vista installiere bleibt der Stromverbrauch sowieso nicht mehr so niedrig im "dreidimensonalen 2D".

Sonst noch ein Grund zum meckern? :biggrin:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4954226&postcount=146
:rolleyes:

Coda
2006-11-06, 15:24:40
Hab ich doch gesagt ;)

Blaire
2006-11-06, 16:29:27
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx

Gast
2006-11-06, 16:34:18
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx

Hiess es nicht vorher gerade noch, dass die Karten ohnehin (also auch ohne Rückrufaktion) erst ab 14. November verfügbar gewesen wären? Und jetzt sollen sie doch schon zur Vorstellung am 8. verfügbar sein? Wär schön!

dargo
2006-11-06, 16:34:45
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx
Da haben wir es doch, die getestete GTX ist einfach im 3D Modus geblieben. Das erklärt den Verbrauch von ~70W in Idle.

Gast
2006-11-06, 16:43:25
Da haben wir es doch, die getestete GTX ist einfach im 3D Modus geblieben. Das erklärt den Verbrauch von ~70W in Idle.

Hoffentlich. AFAIK war das Problem eher, dass die Karte manchmal nicht in den 3D Modus umschalten wollte, weswegen die dann Performance tw. viel zu niedrig war.

Gast
2006-11-06, 16:45:38
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx

NV is wie EA,egal wie das Produkt ausschaut einfach raus damit,Qualität is egal hauptsache Kohle vor X-Mas

Slipknot79
2006-11-06, 16:49:22
Wenn ich dann in der Zukunft Vista installiere bleibt der Stromverbrauch sowieso nicht mehr so niedrig im "dreidimensonalen 2D".

Sonst noch ein Grund zum meckern? :biggrin:



Unter Vista hatte ich im Desktopbetrieb 15W weniger Leistung gemessen als unter Win XP.

Gast
2006-11-06, 16:52:32
Unter Vista hatte ich im Desktopbetrieb 15W weniger Leistung gemessen als unter Win XP.

Wie soll denn das gehen?

Gast
2006-11-06, 16:56:43
Hm, brilinear.
Hm,
wie meinen?

Gast
2006-11-06, 16:57:41
NV is wie EA,egal wie das Produkt ausschaut einfach raus damit,Qualität is egal hauptsache Kohle vor X-Mas

Schon klar, darum wird die auch zurückgerufen und ausgebessert, damit keine kaputten Karten in den Handel kommen.

Vor dem Flamen bitte erst Gehirn einschalten.


Q

SentinelBorg
2006-11-06, 17:03:45
Hiess es nicht vorher gerade noch, dass die Karten ohnehin (also auch ohne Rückrufaktion) erst ab 14. November verfügbar gewesen wären? Und jetzt sollen sie doch schon zur Vorstellung am 8. verfügbar sein? Wär schön!
So wie es aussieht gibt es wohl zwei Lieferungen. Am 8. erstmal eine recht geringe Anzahl an die sogenannten Launchpartner und am 14. dann die erste größere Lieferung an alle Händler.

Sentinel

Slipknot79
2006-11-06, 17:08:43
Wie soll denn das gehen?


Da bin ich auch überfragt.

Wer kein Wattmeter hat: Notebooklaufzeit beobachten.

Gast
2006-11-06, 17:08:54
Quasar,

es geht um die Verlustleistung unter 2D.
Es sollte ohne Probleme möglich sein die Verlustleistung unter 2d deutlich zu drosseln.

Falls es ein Fehler ist, ok. Falls nicht werde ich immer von dieser Karte abraten, kapische?

Gruß M_B

Mik Bach,

Das ist mir alles klar - wenn du gelesen, statt geflamed hättest, wärest du da sicherlich auch drauf gekommen. :)
Natürlich sollte die Verlustleistung in 2D gering ausfallen, schließlich werden selbst die meisten Spiele-PCs überwiegend unter der Windows-Oberfläche betrieben. :) Nur warum du jetzt, vor dem Launch diese Panik schiebst wundert mich - damals, als dasselbe bei Ati geschah, warst du interessanterweise recht still.


Q

Gast
2006-11-06, 17:10:36
Da bin ich auch überfragt.

Wer kein Wattmeter hat: Notebooklaufzeit beobachten.

Das kann damit zusammenhängen, dass der Vista-Desktop mit Aero Glass in der Grafikkarte gebuffert wird und nur neu gezeichnet, wenn sich etwas ändert. Da dürften, wenn es gescheit funktioniert, einige Komponenten im PC entlastet werden.


Q

Nightspider
2006-11-06, 17:17:50
Sorry for Offtopic...

Warum ist Vista dann runde 15% langsamer unter DirectX9 Spielen, wenn die Desktop Oberwfläche weniger verbrauchen soll, als die von XP ?

Gast
2006-11-06, 17:19:12
Warum ist Vista dann runde 15% langsamer unter DirectX9 Spielen, wenn die Desktop Oberwfläche weniger verbrauchen soll, als die von XP ?Weil die aktuellen Treiber von NV und ATI wohl noch alles andere als optimal sind. Das wird sich aber nach dem offiziellen Vista-Release recht schnell ändern.

Gast
2006-11-06, 17:20:23
Hm,
wie meinen?

Die trilineare Interpolation scheint ungenauer zu sein, als bei ATi.

G80 (Settings?):
http://www.velo-hosting.co.uk/gladiatorforum/userimages/5/aniso-8800-angle.jpg

R580 (LOD -0.4):
http://666kb.com/i/aj0lm44hn5yshcrau.png

(LOD 0.0)
http://666kb.com/i/aj0lpezijpcve67na.png

Gast
2006-11-06, 17:30:52
sind zwei verschiedene tools

Grestorn
2006-11-06, 17:31:58
Die trilineare Interpolation scheint ungenauer zu sein, als bei ATi.

Das einzige was ich da sehe, ist ein Bri-Filter bei der ATI.

Gast
2006-11-06, 17:34:20
sind zwei verschiedene tools
Nö, nur verschiedene Versionen.

Das einzige was ich da sehe, ist ein Bri-Filter bei der ATI.
Leg die Pics mal übereinander...

StefanV
2006-11-06, 17:36:37
sind zwei verschiedene tools
Nein, 2 verschiedene Versionen, das Tool ist das gleiche, vom gleichen 'Hersteller'...

Gast
2006-11-06, 17:37:22
Nö, nur verschiedene Versionen.


Leg die Pics mal übereinander...

Ne das eine ist von Xmas das andere von Gerog Kolling

SentinelBorg
2006-11-06, 17:40:17
Ne das eine ist von Xmas das andere von Gerog Kolling
Xmas = Gerog Kolling ?!

Gast
2006-11-06, 17:40:26
Ne das eine ist von Xmas das andere von Gerog Kolling

Frag mal unseren Xmas wie der wirklich heisst ;)

Moralelastix
2006-11-06, 17:40:42
@Nightspider

Ähh.....!

Du siehst einen Zusammenhang zwischen dem Stomverbrauch und der FPS Leistung???

Grestorn
2006-11-06, 17:46:45
Leg die Pics mal übereinander...

Das macht den Bri-Streifen nur noch deutlicher. Das 8800er Bild scheint hinten abgeschnitten zu sein, kann aber auch an der anderen Version liegen.

Razor
2006-11-06, 17:47:29
In welchem Prozess wird G80 denn gefertigt? (Ehrliche Frage, ich hab darüber noch nix gelesen)

Soll bei TMSC in 80nm gefertigt werden.

Bekommen die FanATiker eben noch eine Woche mehr, nur wenn am Mittwoch die ersten WuAF Blumen auftauchen die besser aussehen, verblasst auch das letzte Argument ...

Schon läääängst passiert!
:D

http://forums.guru3d.com/showthread.php?t=202966
(Post18)

Fakt ist, die Karte wird von der BQ besser sein, als alles andere jemals zuvor, die vorherige Generation um 100% schlagen, wieder schneller als ATi im Markt zu sein und einen Hardlaunch nach dem anderen präsentieren.

Na ja... die AF-Qualität gab es zuletzt bei den FX'en.
(begonnen mit der GeForce3 seinerzeit ;-)

Aber gut, dass sie wieder da ist und die ATI-Nachahmungs-Blamage endlich vorbei ist!
:up:

Auf den oben verlinkten Thread bin ich im übrigen in diesem Thread aufmerksam geworden:
http://www.nvnews.net/vbulletin/showthread.php?t=79612

Titel: "Picked up a 8800GTS"

Zitat: "Did I mention that this thing is dead silent?"

DAS finde ich hochgradig interessant!
:up:

Razor

Die gelbe Eule
2006-11-06, 17:50:57
NV is wie EA,egal wie das Produkt ausschaut einfach raus damit,Qualität is egal hauptsache Kohle vor X-Mas

Du hast schon mitgelesen das es nur die Testkarten betroffen hat oder? Der Endkunde bekommt davon gar nichts mit ...

Razor
2006-11-06, 17:51:10
Schon läääängst passiert!
:D

http://forums.guru3d.com/showthread.php?t=202966
(Post18)

Hier dann mal die Pics...

7900GTX:

http://img295.imageshack.us/img295/5103/af7800gtxxt9.jpg

ATI "HQ"-AF:
(leider kein AF mit AI on/low ;-)

http://img172.imageshack.us/img172/2626/afatidw8.jpg

8800GTX/S "HQ"-AF:

http://img97.imageshack.us/img97/746/af8800gtxgc8.jpg

Jaaaaaaaa........
Ich glaub', das Teil ist mein!
:biggrin:

Razor

Moralelastix
2006-11-06, 17:52:23
Immer dieses blöde Geschwätz das Radiallüfter laut sein müssen.

@Razor
Wieso ist denn die AF Blume vom G80 am Rand aussen net gleich ganz rund?

Die gelbe Eule
2006-11-06, 17:54:11
Heftiges AF, das sieht mal geil aus ;)

Übrigens Razor:

Driver Version 6.14.10.9689

Es scheint noch keinen neuen G80er zu geben, außer diesem hier und wir wissen ja wie besch ..... eiden er war ;)

Slipknot79
2006-11-06, 17:54:12
Das kann damit zusammenhängen, dass der Vista-Desktop mit Aero Glass in der Grafikkarte gebuffert wird und nur neu gezeichnet, wenn sich etwas ändert. Da dürften, wenn es gescheit funktioniert, einige Komponenten im PC entlastet werden.


Q

Weiß ned so recht, als ich zwischen den Tasks geswitcht bin mit STRG+TAB hat sich da auch ned viel getan am Wattmeter oO

dargo
2006-11-06, 17:55:48
Titel: "Picked up a 8800GTS"

Zitat: "Did I mention that this thing is dead silent?"

DAS finde ich hochgradig interessant!
:up:

Die Frage ist nur was er unter leise versteht.

gguru
2006-11-06, 17:57:08
Die Frage ist nur was er unter leise versteht.

So leise wie ein Grab. ;)

Die gelbe Eule
2006-11-06, 17:57:11
Eine passiv Karte wirds wohl kaum sein ^^

dargo
2006-11-06, 18:00:39
Eine passiv Karte wirds wohl kaum sein ^^
Das wäre auch übertrieben bei so einem "Monster". Mir wäre halt nur wichtig, dass sie in 2D nahezu unhörbar ist. In 3D darf sie etwas wahrnehmbar sein.
Verdammt, ich kann es kaum erwarten die ersten User-Berichte hier im Forum zu lesen. :conf:

Die gelbe Eule
2006-11-06, 18:05:25
Nicht vergessen, er hat eine GTS, die kann, muss aber nicht leiser sein.

Razor
2006-11-06, 18:06:36
Immer dieses blöde Geschwätz das Radiallüfter laut sein müssen.

Jup... und die 8800 scheint dieser Mär endlich ein Ende zu setzen!

Wieso ist denn die AF Blume vom G80 am Rand aussen net gleich ganz rund?

Sonst wäre es ja keine "Blume" mehr, sondern ein Kreis.
Im Ernst: "kreisrund" war die Blume noch nie...

Viel interessanter ist aber die Tatsache, dass 16xAF bei der 8800 offenbar die gleiche 'Qualität' der Blume an den Tag legt, wie seinerzeit die FX'en mit 8xAF, bzw. 6x00/7x00 nur noch unter 2xAF. Bin mal gespannt, wie sich das performance-seitig verhält...

Driver Version 6.14.10.9689

Es scheint noch keinen neuen G80er zu geben, außer diesem hier und wir wissen ja wie besch ..... eiden er war ;)

Für die 'vorherige' Generation... ja.
Muss sich mit den 8'ern ja nicht unbedingt so verhalten...

Aber seien wir mal ehrlich... "out-of-the-box" waren neue Generationen Treiber-seitig noch nie 'perfekt' bestückt. Da wird sicher noch das eine oder andere zu fixen sein... ist im übrigen auch der Grund, warum ich definitiv die ersten 'echen' User-Erfahrungen abwarten möchte...

...Blaire?
;)

Razor

Die gelbe Eule
2006-11-06, 18:08:29
Blaire bekommt erst morgen ^^

Raff
2006-11-06, 18:11:27
Und dann auch noch SLI. Auf die Werte bin ich sehr gespannt. Das AF scheint definitiv schwer zu rocken ... =)

MfG,
Raff

Gast
2006-11-06, 18:15:47
Fehlt nur noch die Bestätigung, ob xS-FSAA und viel wichtiger, Supersampling-AA, noch unterstützt werden. Reine MSAA-Karten können mir privat gestohlen bleiben.


Q

The_Invisible
2006-11-06, 18:17:49
Fehlt nur noch die Bestätigung, ob xS-FSAA und viel wichtiger, Supersampling-AA, noch unterstützt werden. Reine MSAA-Karten können mir privat gestohlen bleiben.


Q

welchen grund soll es geben das dies nicht mehr der fall sein soll?

mfg

Raff
2006-11-06, 18:18:24
Gute Einstellung. ;) Aber solltest du das nicht mit am besten wissen?

MfG,
Raff

AnarchX
2006-11-06, 18:18:36
Fehlt nur noch die Bestätigung, ob xS-FSAA und viel wichtiger, Supersampling-AA, noch unterstützt werden. Reine MSAA-Karten können mir privat gestohlen bleiben.


Schau mal hier rein:
23441 1240x1024, 16s and 16AF via Nhancer http://service.futuremark.com/compare?2k1=9083700
http://www.nvnews.net/vbulletin/showthread.php?t=79612
:wink:

MadManniMan
2006-11-06, 18:20:00
Sonst wäre es ja keine "Blume" mehr, sondern ein Kreis.
Im Ernst: "kreisrund" war die Blume noch nie...

Die Unterschiede zwischen ATis HQ-AF und dem Q-AF vom G8X wird man in der Praxis wohl überhaupt gar nicht mehr wahrnehmen - und trotzdem hätte ich mir aus Prinzip gewünscht, daß beim 16*AF keine kleinen "8*AF"-Häkchen übrig bleiben...

...seis drum, die Vorfreude wächst.

Gast
2006-11-06, 18:24:27
Schau mal hier rein:

http://www.nvnews.net/vbulletin/showthread.php?t=79612
:wink:
Ich habe den Eindruck, der Nhancer will nicht überall gleich...


Q

dargo
2006-11-06, 18:32:52
Schau mal hier rein:

http://www.nvnews.net/vbulletin/showthread.php?t=79612
:wink:
Ich habe mir mal die Benches von NowayDude angesehen um mit meiner X1900XT zu vergleichen. Der bencht aber mit Vsync on. :|

Die Unterschiede zwischen ATis HQ-AF und dem Q-AF vom G8X wird man in der Praxis wohl überhaupt gar nicht mehr wahrnehmen ...
Das habe ich mir auch gedacht als ich die AF Blumen gesehen habe. Aber jeder BQ Verbesserung ist willkommen solange die Performance nicht stark dabei einbricht.

dildo4u
2006-11-06, 18:38:56
"Finally in CPU power magazine DEC issue a review for Cyper power gamer pc
Specs
2.66GHZ core 2 extreme @ 3.2 GHZ Quad Core
Dual 8800GTX SLI
Nvidia 680i mobo"

http://img289.imageshack.us/img289/5729/s2fa1.png

Angeblich sind die 15500 im 06 auch in 1600*1200 mit 4XAA 8XAF. :eek:

"That is 1600X1200 4XAA , 8X AF

Probably 18-20K in default test

Well I have been reading that magazine for more than a year and they usually run the 3Dmark @ same settings as games and I am 80% sure that this is 1600X1200"

http://www.xtremesystems.org/forums/showthread.php?t=122117

AnarchX
2006-11-06, 18:41:45
Das GTX-SLI scheint ja irgendwie nicht so gut zu skalieren im 3DM06, wohl die CPU hier noch der limitierende Faktor.

dargo
2006-11-06, 18:44:38
Das GTX-SLI scheint ja irgendwie nicht so gut zu skalieren im 3DM06, wohl die CPU hier noch der limitierende Faktor.
Mit Sicherheit nicht. :wink:

d2kx
2006-11-06, 18:45:14
Eben, anscheinend reicht die CPU gerade für eine Karte.

dildo4u
2006-11-06, 18:46:24
Das GTX-SLI scheint ja irgendwie nicht so gut zu skalieren im 3DM06, wohl die CPU hier noch der limitierende Faktor.Siehe Edit.

Undertaker
2006-11-06, 18:48:29
Mit Sicherheit nicht. :wink:

warum? außer im cpu test ist der quadcore witzlos, und in den gametests langweilt sich ein g80 sli in 1280x1024 ohne aa/af...

edit: ok, wenn in den settings^^...

dargo
2006-11-06, 18:52:27
warum? außer im cpu test ist der quadcore witzlos, und in den gametests langweilt sich ein g80 sli in 1280x1024 ohne aa/af...

Weil die SM2.0 und SM3.0 Scores kaum an der CPU "hängen".

LovesuckZ
2006-11-06, 18:57:14
Weil die SM2.0 und SM3.0 Scores kaum an der CPU "hängen".

Ist das bewiesen? :wink:

Die gelbe Eule
2006-11-06, 19:13:35
Da hat NV aber derbe vorgelegt und wird auch noch mit GDDR4 nachlegen. Endlich eine Generation die Quantensprünge mit sich bringt.

cl55amg
2006-11-06, 19:15:09
Ist das bewiesen? :wink:

Ja...

LovesuckZ
2006-11-06, 19:16:51
Ja...

Und mit welchen Karten?

Undertaker
2006-11-06, 19:21:08
Weil die SM2.0 und SM3.0 Scores kaum an der CPU "hängen".

bei einem g80 sli in standardeinstellungen glaube ich das nicht ;) aber da muss man tests abwarten

cl55amg
2006-11-06, 19:24:31
Und mit welchen Karten?

Definiere deine Frage bitte genauer.

LovesuckZ
2006-11-06, 19:25:47
Definiere deine Frage bitte genauer.

Mit welchen Grafikkarten die These aufgestellt wurde.

dargo
2006-11-06, 19:32:17
@LovesuckZ

Bitte schön ...

E6400@1,86Ghz Singlecore, Speicher 266Mhz
29430

E6400@1,86Ghz Dualcore, Speicher 266Mhz
29431

E6400@3,296Ghz Dualcore, Speicher 412mhz
29432

Grafikkarte ist eine X1900XT 512MB.

cl55amg
2006-11-06, 19:34:36
Mit welchen Grafikkarten die These aufgestellt wurde.

Das die pseudo "Game" Tests des 3DMark06 kaum auf CPU Leistung reagieren?
(inkl. Multicore logischwerweise)
Die 8800GTX (und 7900er) reagiert auch kaum darauf, 8800 SLI ist leider mit den aktuellen Treibern nicht wirklich aussagekräftig.

@dargo

Wie schon mal gesagt, super benches:-)

dildo4u
2006-11-06, 19:36:22
@LovesuckZ

Bitte schön ...

E6400@1,86Ghz Singlecore, Speicher 266Mhz
29430

E6400@1,86Ghz Dualcore, Speicher 266Mhz
29431

E6400@3,296Ghz Dualcore, Speicher 412mhz
29432

Grafikkarte ist eine X1900XT 512MB.Schick nur ist ein G80 SLI ca 3-4Mal schneller als eine 1900XT. ;)

MadManniMan
2006-11-06, 19:36:50
Das habe ich mir auch gedacht als ich die AF Blumen gesehen habe. Aber jeder BQ Verbesserung ist willkommen solange die Performance nicht stark dabei einbricht.

Drum sagt ich ja auch (...) - und trotzdem hätte ich mir aus Prinzip gewünscht, daß beim 16*AF keine kleinen "8*AF"-Häkchen übrig bleiben...

Zu wissen nicht das Optimum (für mich der Kreis und keine Blume - so minimal die Blüten auch sind) zu haben kränkt ein wenig den Stolz :D

dargo
2006-11-06, 19:36:52
Die 8800GTX (und 7900er) reagiert auch kaum darauf, 8800 SLI ist leider mit den aktuellen Treibern nicht wirklich aussagekräftig.

Das wäre auch meine Vermutung. SLI ist mit aktuellen Treibern wohl noch nicht "optimiert".

dildo4u
2006-11-06, 19:39:10
Das wäre auch meine Vermutung. SLI ist mit aktuellen Treibern wohl noch nicht "optimiert".Drago wie gesagt die 15500 Punkte des G80 SLI sind in 1600*1200 4XAA 8XAF vieleicht hast du das übersehen. ;) @Default sinds whol locker 19000.

cl55amg
2006-11-06, 19:39:41
Das wäre auch meine Vermutung. SLI ist mit aktuellen Treibern wohl noch nicht "optimiert".

Es bringt in 3Dmark nur 3k mehr mehr mit einem C2D @ 3,6Ghz.
Hoffe das baldmöglich ein neuer Treiber kommt.


Drago wie gesagt die 15500 Punkte der G80 SLI sind in 1600*1200 4XAA 8XAF vieleicht hast du das übersehen. ;) @Default sinds whol locker 19000.

In 3DMark 06?

dargo
2006-11-06, 19:40:54
Schick nur ist ein G80 SLI ca 3-4Mal schneller als eine 1900XT. ;)
Oje, du hast nichts verstanden. Schau dir nochmal meine Benches an.
Der 1,86Ghz Singlecore verliert knapp 6% obwohl die CPU ca. 70-75% langsamer ist als der ~3,3Ghz Dualcore.

dildo4u
2006-11-06, 19:42:39
In 3DMark 06?
Jup

dildo4u
2006-11-06, 19:44:23
Oje, du hast nichts verstanden. Schau dir nochmal meine Benches an.
Der 1,86Ghz Singlecore verliert knapp 6% obwohl die CPU ca. 70-75% langsamer ist als der ~3,3Ghz Dualcore.Ja und das weißt auf eine totale GPU Limitierung hin aber wer weiß ob beim 3-4 Fachen Speed einer 1900XT die Tests nicht doch CPU limitiert werden.

dargo
2006-11-06, 19:45:35
Drago wie gesagt die 15500 Punkte des G80 SLI sind in 1600*1200 4XAA 8XAF vieleicht hast du das übersehen. ;) @Default sinds whol locker 19000.
Das mag schon sein, aber bitte erzähl mir nicht ein Quadcore @3,2Ghz würde ein G80 SLI Gespann bei den SM2.0 und SM3.0 ausbremsen.

Die 15500 oder auch 19000 Punkte interessieren sowieso keinen da die CPU Leistung im 3DMark06 stark ins Endergebnis reinfliesst. Wichtig sind nur die 3D Benches.

Ja und das weißt auf eine totale GPU Limitierung hin aber wer weiß ob beim 3-4 Fachen Speed einer 1900XT die Tests nicht doch CPU limitiert werden.
Im Test wurde ein Quadcore @3,2Ghz genutzt.

cl55amg
2006-11-06, 19:47:32
Drago wie gesagt die 15500 Punkte des G80 SLI sind in 1600*1200 4XAA 8XAF vieleicht hast du das übersehen. ;) @Default sinds whol locker 19000.

Das stimmt nicht, das Ergebnis konnten wir mit unseren 8800GTX SLI nicht errreichen. Auch die Jungs von XS nicht.



Die 15500 oder auch 19000 Punkte interessieren sowieso keinen da die CPU Leistung im 3DMark06 stark ins Endergebnis reinfliesst. Wichtig sind nur die 3D Benches.

Stimmt!

dildo4u
2006-11-06, 19:50:24
Das stimmt nicht, das ergebnis konnten wir mit unseren 8800GTX SLI nicht errreichen. Auch die Jungs von XS nicht.Hmm ich hab bis jetzt fast nur 8800GTX im Singel Modus geshen die meisten haben ja kein Nvidia Intel 680 Board die anderen alten Intel SLI Boards scheinen beim G80 SLI eher einzubrechen.

cl55amg
2006-11-06, 19:54:17
Hmm ich hab bis jetzt fast nur 8800GTX im Singel Modus geshen die meisten haben ja kein Nvidia Intel 680 Board die anderen alten Intel SLI Boards scheinen beim G80 SLI eher einzubrechen.

Das liegt nicht an den Boards. Mit SLI hat man in manchen Games Bildfehler usw...Der Treiber hat sich auch ein paar mal verabschiedet.

Was will man erwarten? Komplett neue Architektur und beta Treiber?
Schon beeindruckend das eine Single Karte so schnell ist mit dem Treiber...

dildo4u
2006-11-06, 19:57:27
OK könnten wirklich noch Treiber Probs sein Coolaler kommt auf 14000 mit einer Karte da wäre alles unter 20000 schon eine Entäuchung im SLI.Nur wie kommt dann der Komplett PC auf 15500 im SLI in 1600*1200 4XAA der hat ja das neue 680 Board.


Single 8800GTX 660/2200

In den 3D Tests 2.2-2.5mal so schnell wie eine 1900XT.

http://www.iamxtreme.net/coolaler/8800GTX/19.gif

http://www.xtremesystems.org/forums/showpost.php?p=1819743&postcount=66

Undertaker
2006-11-06, 20:03:01
Das mag schon sein, aber bitte erzähl mir nicht ein Quadcore @3,2Ghz würde ein G80 SLI Gespann bei den SM2.0 und SM3.0 ausbremsen.

Die 15500 oder auch 19000 Punkte interessieren sowieso keinen da die CPU Leistung im 3DMark06 stark ins Endergebnis reinfliesst. Wichtig sind nur die 3D Benches.


Im Test wurde ein Quadcore @3,2Ghz genutzt.

du verstehst nicht, in den gametests ist die coreanzahl wurst! ergo ist der kentsfield dort kaum flotter als dein e6400, das g80 sli aber um den faktor 4 oder mehr -> gpu limit wird zu cpu limit...

dargo
2006-11-06, 20:04:32
Ach du sche..., ein Quadcore@4Ghz. :eek: :O

Weiß eigendlich jemand wie die prozentuale Aufteilung bei den 3 Benches ist, also wie genau das Gesamtergebnis zustande kommt?

cl55amg
2006-11-06, 20:05:41
Anscheinend verstehst du es nicht.

Coolaler hat die 14k mit einer OC 8800GTX und einem OC Quadcore erreicht.
in das Endergebnis wird der CPU Score reingerechnet. Das erweckt den Eindruck als ob dieser Effekt auch bei Spielen eintritt, was aber nicht der Fall ist.

Die SLI Tests von Coolaler sind auf einem AMD Board mit X2 gemacht worden.
Verlink mir mal bitte den Bench mit einem 680er Board und 15 @ 1600x1200!
Den kenne ich nicht, abgesehen davon stimmt es nicht. Wir haben 15K @ Default erreicht mit SLI.

dargo
2006-11-06, 20:07:57
du verstehst nicht, in den gametests ist die coreanzahl wurst!
Quelle?
Ich bin jetzt davon ausgegangen, dass die 3D Benches multicore-optimiert sind.

cl55amg
2006-11-06, 20:09:14
Quelle?
Ich bin jetzt davon ausgegangen, dass die 3D Benches multicore-optimiert sind.

Nein. Technisch nicht möglich. (CPU kann der Graka keine Arbeit abnehmen;-) )
Die game Benches bleiben genauso auf einem Punkt stehen wie bei dir.

Gast
2006-11-06, 20:11:15
Quelle?
Ich bin jetzt davon ausgegangen, dass die 3D Benches multicore-optimiert sind.Nein. Wie cl55amg schon sagte, profitieren ausschließlich die CPU-Tests massiv von mehreren CPUs.

dildo4u
2006-11-06, 20:11:40
Die SLI Tests von Coolaler sind auf einem AMD Board mit X2 gemacht worden.
Verlink mir mal bitte den Bench mit einem 680er Board und 15 @ 1600x1200!
Den kenne ich nicht, abgesehen davon stimmt es nicht. Wir haben 15K @ Default erreicht mit SLI.

http://img289.imageshack.us/img289/5729/s2fa1.png

Auf XS war der Poster der Meinung und er hat die Zeitung mit dem Test im Abo das der 3Dmark auch in 1600*1200 4XAA 8XAF getestet wurde sowie die Games.Wer ist eigentlich wir?Hattet ihr auch ein 680 Board zur Verfügung?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4956762&postcount=1873

dargo
2006-11-06, 20:15:38
Nein. Technisch nicht möglich. (CPU kann der Graka keine Arbeit abnehmen;-) )
Die game Benches bleiben genauso auf einem Punkt stehen wie bei dir.
Dann erkläre mir mal wieso die Ergebnisse mit Siglecore geringer sind als mit Dualcore @1,86Ghz, auch wenns ganz wenig ist?

cl55amg
2006-11-06, 20:16:10
Diese Tabellen zweifle ich an...

Wir = Eine kleine Seite die ich mit ein paar Freunden betreibe.
http://www.awardfabrik.de/forum/showpost.php?p=10921&postcount=466


Dann erkläre mir mal wieso die Ergebnisse mit Siglecore geringer sind als mit Dualcore @1,86Ghz, auch wenns ganz wenig ist?

Was heisst ganz wenig? 1%? Können durch eine bessere Verteilung von Renderbefehlen an die GPU entstehen.
Da frag lieber mal aths oder demirug, die kennen sich weitaus besser aus...

dargo
2006-11-06, 20:18:56
Was heisst ganz wenig? 1%?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4956949&postcount=1887

cl55amg
2006-11-06, 20:21:33
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4956949&postcount=1887

Rechne das mal in % um, und überleg was diese angebliche Optimierung in einem Game das @15fps average läuft bewirkt.

Gast
2006-11-06, 20:21:41
Diese Tabellen zweifle ich an...

Wir = Eine kleine Seite die ich mit ein paar Freunden betreibe.
http://www.awardfabrik.de/forum/showpost.php?p=10921&postcount=466



ja dann mach doch mal nen test mit dieser auflösung und dann rechner wir es grob hoch.... auf 2 karten mit min 80% effiziens

cl55amg
2006-11-06, 20:24:23
ja dann mach doch mal nen test mit dieser auflösung und dann rechner wir es grob hoch.... auf 2 karten mit min 80% effiziens

Ab Mittwoch wird es dazu einen Artikel von No_Name auf unserer Page geben, eventuell sogar mit Wasserkühlung, falls die Kühler rechtzeitig eintreffen.

Ich freue mich aber sehr auf den 3DCenter Test von aths:-) (hoffe man geht tiefer in die Materie als die PCGH)

dildo4u
2006-11-06, 20:28:32
@cl55AMG No_Name schreibt ja selber das das SLI 590 nix taugt und SLI eher langsammer macht.


"jep das richtige Board fehlt auf jedem Fall noch!
Bei dem Asus P5N32sli bekommt man echt Bauchweh.

Bestes Beispiel, mit ner Singlekarte 8800GTX auf dem P5WDH
CPU bei 3600MHz kommen 195000 im Aquamark raus.

Auf dem P5N32SLI kommen bei gleichem Prozessortakt mit
zwei Karten im SLI (8800GTX) noch 184000 Punkte raus"

http://www.awardfabrik.de/forum/showpost.php?p=11037&postcount=505

Vieleicht liegts ja nicht nur am Treibern sondern halt auch am Board zu wenig Bandbreite für die beiden Monster?

Gast
2006-11-06, 20:28:35
Benches mit 4xAA wollen wir doch gar nicht, wir wollen 16xCSAA und dazu nen Vergleich zu 4xAA. Wenn die Karte das schon kann muss das auch gefahren werden ;)
Hoffentlich gibts dazu auch Erläuterungen was genau der High AA Modus ist. 8xAA auf allen Kanten und wo die neue Technik appliziert werden kann 16xAA? Wäre cool, und n Screenshot vom AA Panel wäre mal sehr hilfreich anstelle dauernd 3DMark Ergebnisse die nix sagen.

cl55amg
2006-11-06, 20:30:54
Das ist ein Sonderfall bei Aquamark...

Die gelbe Eule
2006-11-06, 20:35:49
Benches mit 4xAA wollen wir doch gar nicht, wir wollen 16xCSAA und dazu nen Vergleich zu 4xAA. Wenn die Karte das schon kann muss das auch gefahren werden ;)
Hoffentlich gibts dazu auch Erläuterungen was genau der High AA Modus ist. 8xAA auf allen Kanten und wo die neue Technik appliziert werden kann 16xAA? Wäre cool, und n Screenshot vom AA Panel wäre mal sehr hilfreich anstelle dauernd 3DMark Ergebnisse die nix sagen.

Sag das dann mal Computerbase, wie was gefahren werden muss ;)
Weil hier wird ein Problem auftauchen, etwas das NV kann, muss gegen etwas das ATi nicht kann herhalten.

Wenn der R600 dann da ist, wird hoffentlich A.I. off standard werden, sonst sehe ich schwarz.

Quasar
2006-11-06, 20:37:41
Ich freue mich aber sehr auf den 3DCenter Test von aths:-) (hoffe man geht tiefer in die Materie als die PCGH)

Bestimmt. Das 3DCenter hat ja auch eine ganz andere Zielgruppe. :)

IceLord
2006-11-06, 20:38:04
Wäre cool, und n Screenshot vom AA Panel wäre mal sehr hilfreich anstelle dauernd 3DMark Ergebnisse die nix sagen.
Bitte;)
http://img64.imageshack.us/img64/7166/newaaku1.jpg

Gast
2006-11-06, 20:39:33
Wenn der R600 dann da ist, wird hoffentlich A.I. off standard werden, sonst sehe ich schwarz.

Wieso?

DerRob
2006-11-06, 20:40:51
Oje, du hast nichts verstanden. Schau dir nochmal meine Benches an.
Der 1,86Ghz Singlecore verliert knapp 6% obwohl die CPU ca. 70-75% langsamer ist als der ~3,3Ghz Dualcore.
der 1,86ghz singlecore reicht wahrscheinlich noch gerade so aus, um die karte voll auszulasten. das kannst du allerdings nicht verallgemeinern.
ich hab meine cpu mal kurz heruntergetaktet und das ebenfalls verglichen, und bei mir sieht das schon ganz anders aus:

a64 x2 @ 800mhz, gf7900gto@gtx:
http://img65.imageshack.us/img65/8346/3dmark06a64x23800800mhzeu1.png

a64 x2 @ 2,2ghz, gf7900gto@gtx:
http://img511.imageshack.us/img511/5259/3dmark06a64x238002200mhli7.png

besonders der 2. sm3-test scheint extrem an der cpu zu hängen...

Spasstiger
2006-11-06, 20:41:05
Weiß eigendlich jemand wie die prozentuale Aufteilung bei den 3 Benches ist, also wie genau das Gesamtergebnis zustande kommt?
Steht in der Readme von 3DMark06. Hier hab ich das mal für den Fall Quad-Core+ G80-SLI visualisiert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4949367&postcount=1458

http://img513.imageshack.us/img513/9297/3dm06g80aj9.th.png (http://img513.imageshack.us/my.php?image=3dm06g80aj9.png)

Hm, mit G80 SLI und einem Kentsfield @ 3,5 GHz sollten die 20k in 3DMark06 zu knacken sein.
Hier mal ein Diagramm, welche 3DMarks resultieren würden, wenn die CPU-Score zwischen 4000 und 5000 Punkten und der Durchschnitt aus SM2- und SM3-Score zwischen 8000 und 10.000 Punkten liegt:
[...]

Gast
2006-11-06, 20:44:42
Die Unterschiede zwischen ATis HQ-AF und dem Q-AF vom G8X wird man in der Praxis wohl überhaupt gar nicht mehr wahrnehmen -

zumindest bei 16x denke ich schon dass es hin und wieder sichtbare unterschiede geben wird, immerhin gibt es bei ati ~4x30° die eine deutlich reduzierte qualität zeigen.

schon komisch dass man bei "alten" AF es schafft bei 45°-winkeln vollständig zu filtern, bei area-AF aber nicht ;)

Die gelbe Eule
2006-11-06, 20:44:57
Wieso?

Weil man nun beste BQ ohne Optimierungen bei NV bietet und A.I. standard optimiert sich einen zurecht. A.I. off würde besser aussehen, aber Performance kosten und gerade da macht CB gerne Ihre tolle Aussage, daß es so sein muss. Hier wird man später dann die Meßlatte setzen müssen, gerade dann wenn alles mit bester BQ 50%-100% schneller ist als vorher.

*Übrigens*

Die GTS ist schon bei Geizhals 8€ günstiger als gestern, hoffentlich kommen die anderen Hersteller schnell dazu und der Preis orientiert sich weiter nach unten ;)

cl55amg
2006-11-06, 20:47:29
der 1,86ghz singlecore reicht wahrscheinlich noch gerade so aus, um die karte voll auszulasten. das kannst du allerdings nicht verallgemeinern.
ich hab meine cpu mal kurz heruntergetaktet und das ebenfalls verglichen, und bei mir sieht das schon ganz anders aus:

a64 x2 @ 800mhz, gf7900gto@gtx:
http://img65.imageshack.us/img65/8346/3dmark06a64x23800800mhzeu1.png

a64 x2 @ 2,2ghz, gf7900gto@gtx:
http://img511.imageshack.us/img511/5259/3dmark06a64x238002200mhli7.png

besonders der 2. sm3-test scheint extrem an der cpu zu hängen...

Der Vergleich ist schon extrem. Es ging uns eher darum das man in einem gewissen Bereich nicht an die CPU denken braucht.

Gast
2006-11-06, 20:47:44
Warten wir besser erstmal ab, wie gut NVs Defaulteinstellungen wirklich sind.

Die gelbe Eule
2006-11-06, 20:51:24
Default auf High End? Ist ungefähr so als würdest einen Formel 1 Wagen ohne Feintuning fahren wollen ...
Default ist alles Application controlled, war es immer, wird es immer bleiben.

Gast
2006-11-06, 20:55:12
Dann erkläre mir mal wieso die Ergebnisse mit Siglecore geringer sind als mit Dualcore @1,86Ghz, auch wenns ganz wenig ist?

weil hintergrundanwendungen auf dem 2. core laufen können und evtl. die dual-core-optimierung im treiber ein wenig bringt.

Gast
2006-11-06, 20:55:16
Bitte;)
http://img64.imageshack.us/img64/7166/newaaku1.jpg

Coole Sache, danke IceLord!
Wahrscheinlich wirds dann Vergleiche zwischen 16x und 16xQ geben und die Tester werden keine Unterschiede sehen, aber 16x wird mehr Leistung fressen hrhr.
Hoffentlich macht jmd pics mim AA Tester, ob man da das CSAA sehen kann?

Und den ominöse Schalter der WU an/abschaltet gibts wohl auch nicht. Es sei denn Quality beim Texture Filter aktiviert dies.

Gast
2006-11-06, 21:06:44
Weil man nun beste BQ ohne Optimierungen bei NV bietet und A.I. standard optimiert sich einen zurecht. A.I. off würde besser aussehen, aber Performance kosten...

Muss man halt 2x Testen ganz einfach, die Karten sind ja lang genug im Handel da kann man mit AI und ohne Testen.

AnarchX
2006-11-06, 21:14:41
http://we.pcinlife.com/attachments/forumid_206/zrTDMP7_vlqCRqTmPpx2.jpg
http://we.pcinlife.com/attachments/forumid_206/Snap0_ooIO0jYsVaPq.jpg
http://we.pcinlife.com/attachments/forumid_206/Snap1_YSQnna166JDW.jpg
http://we.pcinlife.com/attachments/forumid_206/Snap2_rfhZHcQ4kxwu.jpg
http://we.pcinlife.com/attachments/forumid_206/Snap3_rmVpnc3KUzFC.jpg
http://we.pcinlife.com/attachments/forumid_206/Snap5_GytJTbunwz98.jpg
http://we.pcinlife.com/thread-649381-1-1.html

dargo
2006-11-06, 21:29:45
Ok, ich habe mal einen neuen Versuch gestartet. Wie wir wissen erreicht eine G8800GTX mit einem C2D@~3Ghz ca. 4000-4500 Punkte im SM3.0 Score. Habe versucht da dran zu kommen. Dazu war bei meiner X1900XT 512MB die Auflösung 512x384 mit einem C2D@~3,3Ghz nötig.

E6400@1,86Ghz (Dualcore)
29434

E6400@3,296Ghz (Dualcore)
29435

Immer noch eine deutliche GPU-Limitierung bei ~4000 Punkten in den 3D Benches, auch wenn es schon weniger sind wie in 1280x1024. Vorher war ein Vorteil mit dem C2D@3,3Ghz bei ~6%, diesmal bei ~12%. Bei 2x G8800GTX kann man also vom (im besten Fall) ~24%-igen Vorteil ausgehen, was immer noch eine deutliche GPU-Limitierung bedeutet (wie gesagt bei einem C2D@3,3Ghz).

Spasstiger
2006-11-06, 21:30:32
Das Blockdiagramm war auch schon in der PC Games Hardware abgebildet.
Die 8 großen Blöcke oben enthalten die Shader-ALUs und die TMUs+TAs, die 6 unteren kleineren Blöcke stellen die ROP-Cluster dar.

Gast
2006-11-06, 21:37:51
das neue AA is garnicht überzeugend auf dem bild. gibs auch vergleichsbilder zum neuen AF ?

dargo
2006-11-06, 21:38:25
Was hat es mit dem 16x CSAA genau auch sich? Kann es sein, dass es winkelabhängig arbeitet?
Auf dem Bild oben sehe ich zumindest keinen/kaum einen Unterschied bei dem vertikalen Streifen.

Spasstiger
2006-11-06, 21:41:07
Auf dem Bild oben sehe ich zumindest keinen/kaum einen Unterschied bei dem vertikalen Streifen.
Geht ja auch schlecht besser in diesem 45°-Winkel, wenn man keine zusätzliche Unschärfe wünscht. Da begrenzt dann einfach die Bildauflösung.

Gast
2006-11-06, 21:45:10
http://img231.imageshack.us/img231/9577/snap2ih6.th.jpg (http://img231.imageshack.us/my.php?image=snap2ih6.jpg)

Schaut mal genauer auf die Horizontalen Streifen die sind viel feiner abgestuft. Frage is nur, ist das der 16xHQ Modus? Dann will ich mal den "normalen" 16x als vergleich sehen.

Gast
2006-11-06, 21:48:14
Hier dann mal die Pics...

7900GTX:

http://img295.imageshack.us/img295/5103/af7800gtxxt9.jpg

ATI "HQ"-AF:
(leider kein AF mit AI on/low ;-)

http://img172.imageshack.us/img172/2626/afatidw8.jpg

8800GTX/S "HQ"-AF:

http://img97.imageshack.us/img97/746/af8800gtxgc8.jpg

Jaaaaaaaa........
Ich glaub', das Teil ist mein!
:biggrin:

Razor

hm der test überzeugt euch bitte warum ?
ich find man muß es an ingamebildern sehn

dargo
2006-11-06, 21:48:18
Geht ja auch schlecht besser in diesem 45°-Winkel, wenn man keine zusätzliche Unschärfe wünscht. Da begrenzt dann einfach die Bildauflösung.
Ach, jetzt habe ich es verstanden. :tongue:
Dann gefällt mir das neue CSAA schonmal sehr gut. :up:
Jetzt müsste ich nur wissen wie stark die Performance in 1280x1024 im Vergleich zum 4xMSAA einbricht. :naughty:

So kann man den Unterschied zwischen den beiden Modis schon besser erkennen (halbe Größe):

29436

Gast
2006-11-06, 21:48:25
Was hat es mit dem 16x CSAA genau auch sich? Kann es sein, dass es winkelabhängig arbeitet?


winkelabhängig ist es sicher nicht, es wird anstatt die farbe für jedes AA-sample zu speichern die farbe nur 1x gespeichert und zusätzlich, welche samples von jenem polygon bedeckt sind.

Gast
2006-11-06, 21:52:38
Ach, jetzt habe ich es verstanden. :tongue:
Dann gefällt mir das neue CSAA schonmal sehr gut. :up:
Jetzt müsste ich nur wissen wie stark die Performance in 1280x1024 im Vergleich zum 4xMSAA einbricht. :naughty:

So kann man den Unterschied zwischen den beiden Modis schon besser erkennen (halbe Größe):

29436

sorry aber das msaa schaut klar besser aus

dargo
2006-11-06, 21:55:44
sorry aber das msaa schaut klar besser aus
Augenproblem? :)

Edit:
Hier nochmal mit 35% Größe:

29437

Bei welchem Modi sieht man mehr Aliasing? :rolleyes:

Grestorn
2006-11-06, 21:56:16
sorry aber das msaa schaut klar besser aus

Hast Du was an den Augen?

Gast
2006-11-06, 22:01:53
find das msaa klar atraktiver,im neuen modus fallenstufen zur sehr ins auge

The_Invisible
2006-11-06, 22:02:13
sorry aber das msaa schaut klar besser aus

wenn du auf treppchen stehst -> ja

mfg

Spasstiger
2006-11-06, 22:02:45
find das msaa klar atraktiver,im neuen modus fallenstufen zur sehr ins auge
Die Abstufungen fallen doch viel weniger ins Auge. Die Glättungswirkung ist deutlich besser. Und dass im 45°-Winkel nicht besser geglättet wird, liegt an der Bildauflösung. Da hilft kein AA der Welt weiter. Man könnte höchstens eine höhere Auflösung verwenden, insofern der Bildschirm das mitmacht. Aber falls schon die Maximalauflösung zum Einsatz kommt, sind die Pixel meist eh so klein, dass sie nicht weiter auffallen.
Und alles, was Kanten von 45°-Winkeln über ein Randpixel hinaus glättet, kann kein AA mehr sein, sondern wäre ein Unschärfefilter.

Slipknot79
2006-11-06, 22:08:14
Coolaler scheint ja echt der Chief und Styler zu sein, wieso bekommt der die gute Hardware? Hat der Connections?

dildo4u
2006-11-06, 22:10:58
Coolaler scheint ja echt der Chief und Styler zu sein, wieso bekommt der die gute Hardware? Hat der Connections?Sicher außerdem wohnt er im "richtigen" Land um früh an neue Hardware zu kommen. ;)

cl55amg
2006-11-06, 22:41:28
Hier Fotos des Silenx Wasserkühlers für die 8800GTX.

Am Mittwoch gibt es bei der Awardfabrik ein Review dazu.

http://www.awardfabrik.de/forum/showthread.php?p=11338&posted=1#post11338

LovesuckZ
2006-11-06, 22:42:37
Hier Fotos des Silenx Wasserkühlers dür die 8800GTX.
Am Mittwoch gibte bei Awardfabrik ein Review dazu.
http://www.awardfabrik.de/forum/showpost.php?p=11339&postcount=601

Ihr spoilert ganz schön. :wink:

cl55amg
2006-11-06, 22:46:38
Ihr spoilert ganz schön. :wink:

Wir können auch Bilder von Uraltkühlern posten, aber wen interessiert das?:-)

Was verstehst du unter "spoiler"?

tombman
2006-11-06, 22:51:51
Bei dieser extremen Verlustleistung unter 2D muss man schon fast ein Depp sein sich so eine Karte zu holen.

Genau, dann hol dir mal schnell Kippen für 4€ pro Tag, lohnt sich mehr .. :rolleyes:

sorry, aber andauernd dieses blödsinnige Centzählen beim Stromverbrauch von HW ist pathologisch...

Die gelbe Eule
2006-11-06, 22:53:57
Und wehe der MikBach hat jemals eine Karte im Rechner, die mehr als 75W verbraucht ^^

Superheld
2006-11-06, 23:08:14
das steht doch schon weiter oben, bitte vorher lesen;)

StefanV
2006-11-06, 23:18:02
Hm, kanns sein, das das 16x nur OG ist?

Xmas
2006-11-06, 23:27:36
Hm, kanns sein, das das 16x nur OG ist?
Nein, dafür gibt es an der fast horizontalen Kante viel zu viele Zwischenstufen.

tombman
2006-11-06, 23:51:01
Wegen den Defekten...

http://www.dailytech.com/article.aspx?newsid=4819

Quasar
2006-11-06, 23:55:10
Wegen den Defekten...

http://www.dailytech.com/article.aspx?newsid=4819

Klingt nicht sehr glaubwürdig, da angeblich nur Hersteller, die sich nicht ans Referenzdesign hielten, betroffen sind. Aber, frage ich mich, hat zum Launch schon sein eigenes Design fertig und die Produktion am Rollen?

Omnicron
2006-11-07, 00:41:19
Klingt nicht sehr glaubwürdig, da angeblich nur Hersteller, die sich nicht ans Referenzdesign hielten, betroffen sind. Aber, frage ich mich, hat zum Launch schon sein eigenes Design fertig und die Produktion am Rollen?

Vielleicht nicht eigenes Design sondern eigene Produktion? Wenn es ein generelles G80 Problem wäre, wieso wurden dann nicht die Karten aller Hersteller zurückgerufen.

Gast
2006-11-07, 03:54:48
4xSGSSAA erzeugt 4xAF, weil das EER höher ist.Wundert mich ehrlich, daß das noch nicht richtiggestellt wurde. 4xSGSSAA ist von der möglichen Verschiebung des LODs 2x2 OGSSAA unterlegen. Während bei 2x2 OGSSAA eine Verschiebung des LODs um -1.0 (ca.=2xAF) möglich ist, ist dies bei 4xSGSSAA, je nach Muster, ca. -0.9 (weiß nicht mehr, wer das vor Urzeiten geschrieben hat und wie er auf die Zahl für 4xSGSSAA gekommen ist, war jedenfalls hier im 3dc und wahrscheinlich auf dem Muster von 4xSGMSAA basierend). Was SGSSAA für Texturen besser macht als OGSSAA ist nicht das LOD, sondern daß es besser dafür geeignet ist Moire zu bekämpfen.

Razor
2006-11-07, 04:10:36
hm der test überzeugt euch bitte warum ?
ich find man muß es an ingamebildern sehn

Ich sehe das nicht als "Test", sondern als Hinweis.
Selbstverständlich will ich RW-Screens sehen, aber als Hinweis auf wiederkehrendes wuAF reicht das vollkommen!

Die Unterschiede zwischen ATis HQ-AF und dem Q-AF vom G8X wird man in der Praxis wohl überhaupt gar nicht mehr wahrnehmen - und trotzdem hätte ich mir aus Prinzip gewünscht, daß beim 16*AF keine kleinen "8*AF"-Häkchen übrig bleiben...

Hi Manni,

öhm... den Unterschied zwischen FX "Q"-AF und ATIs HQ-AF habe ich wahr genommen... leider.
Auch glaube ich kaum, dass nVidia sein "Q"-AF mit der Deaktivierung sämtlicher Optimierungen/Bugfixes einher gehen läßt.

Und eine "kreisrunde" AF-Blume gab es noch nie... das, was FX seinerzeit und 8800 evtl. jetzt bieten/boten, war der Perfektion schon recht nahe. Und wenn Du meinst, dass dem nicht so ist, dann zeige mir bitte etwas auch nur annähernd vergleichbares!

Razor

P.S.: Und wenn hier nochmal irgendwelche Leute mit CPU-gefakten Schnuller06-"Werten" kommen, den trete ich persönlich in den Ar...! Wenn, dann bitte ausschließlich die 3D-Werte und dann - der Vergleichbarkeit wegen - in den Default-Einstellungen... OHNE AA und in 1280x1024. Alles andere ist Muckefuk und Kaffeesatz-Leserei...

Ailuros
2006-11-07, 05:13:39
Wundert mich ehrlich, daß das noch nicht richtiggestellt wurde. 4xSGSSAA ist von der möglichen Verschiebung des LODs 2x2 OGSSAA unterlegen. Während bei 2x2 OGSSAA eine Verschiebung des LODs um -1.0 (ca.=2xAF) möglich ist, ist dies bei 4xSGSSAA, je nach Muster, ca. -0.9 (weiß nicht mehr, wer das vor Urzeiten geschrieben hat und wie er auf die Zahl für 4xSGSSAA gekommen ist, war jedenfalls hier im 3dc und wahrscheinlich auf dem Muster von 4xSGMSAA basierend). Was SGSSAA für Texturen besser macht als OGSSAA ist nicht das LOD, sondern daß es besser dafür geeignet ist Moire zu bekämpfen.

Manchmal hoere ich einfach auf wenn mir etwas zu bunt wird. Man braucht nur einen AF Tester und eine V4/5 um das nachzuvollziehen mit RGSS eingeschaltet und nein um das -0.1 Unterschied geht es mir gar nicht, eher darum dass RGSS in einem theoretischen hybriden modus besser sein sollte als OGSS.

Und das RG oder sparse sampled SS fuer moire besser ist, ist auch keine absolute Regel. Es kommt auf viel zu viele Faktoren an und in diesem rein theoretischem Fall mit richtig eingestelltem Gamma ist RGSS nicht unbedingt besser als ordered grid:

http://web.onetel.net.uk/~simonnihal/assorted3d/samppat.html

Ailuros
2006-11-07, 05:17:03
Der einfache 16x modus (der "schnellere") verliert weniger Leistung als 4xAA auf G7x; man sollte aber auch mitberechnen um wieviel schneller 4xAA auf G80 erstmal ist.

Ganz nebenbei liefern coverage mask Algorithmen fuer N samples ein N*N grid (ergo sparse sampled).

Gast
2006-11-07, 05:36:49
Danke für den Link Ailuros, interessant. 16xSGSSAA sollte demnach völlig ausreichend sein zur Vermeidung von Moire und auf G80 über eine TSSAA-Variante, welche die Adaptivität über Bord wirft, problemlos implementierbar sein. Schon 4xSGSSAA ist ja um Welten besser als 2x2 OGSSAA. Allerdings scheinen die Bilder entweder auf Poligonkreisen zu basieren oder auf Texturen, welche nur mit Pointsampling abgetastet werden, beides etwas praxisfremd. Dennoch wüsste ich gerne, welches von beidem der Fall ist.

AnarchX
2006-11-07, 07:07:39
3dmark05 at 1600x1200, with 4xAA and HQ 16xAF:
http://img179.imageshack.us/img179/7141/3d05bw0.jpg
http://www.hardforum.com/showthread.php?t=1116603&page=34&pp=20

Hier mal ein Vergleich zu aktuellen Karten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/6/#abschnitt_3dmark05

1600x1200, 16xS AA, HQ 16xAF
http://img218.imageshack.us/img218/2904/1600td7.jpg

Ist das nun 16x CSAA oder wirklich 16xS? :|

AnarchX
2006-11-07, 07:16:12
Coolaler mit 8800GTX SLI
my friend share this Intel platform
NF590 8800 GTX SLI default
3D06@17024pts

http://www.iamxtreme.net/coolaler/8800GTX/590isli.jpg
http://www.xtremesystems.org/forums/showthread.php?t=121980&page=4

Sogar nur mit nF590 IE...;)

r@w.
2006-11-07, 08:33:25
Mal 'ne andere Frage...
Wann fällt eigentlich das NDA?
:confused:

Oder steht das auch unter NDA?
:D

Razor

Ailuros
2006-11-07, 08:39:10
Danke für den Link Ailuros, interessant. 16xSGSSAA sollte demnach völlig ausreichend sein zur Vermeidung von Moire und auf G80 über eine TSSAA-Variante, welche die Adaptivität über Bord wirft, problemlos implementierbar sein. Schon 4xSGSSAA ist ja um Welten besser als 2x2 OGSSAA. Allerdings scheinen die Bilder entweder auf Poligonkreisen zu basieren oder auf Texturen, welche nur mit Pointsampling abgetastet werden, beides etwas praxisfremd. Dennoch wüsste ich gerne, welches von beidem der Fall ist.

Simon Fenney ist der Algorithmen Experte von Imagination Technologies und einer der hoechsttalentierten "alten Hasen" der Industrie. Es war lediglich ein altes Experiment wobei "many samples" fuer 10.000x steht LOL.

Das Bildchen gibt es in einem alten FSAA tester demo dass man bei einem der B3D Artikel herunterladen konnte. Such mal Kristof's Artikel ueber FSAA und/oder T-buffer durch. Man kann dort zwischen RG und OGSS waehlen und einer Quake3 Szene oder diesem Kreis-Bildchen.

Momentan ist noch kein SS verfuegbar auf G80 afaik. Ich wuerde aber denken dass es noch nachgeladen wird. Ob sie sich wirklich die Muehe geben werden etwas anderes als OGSS zu liefern steht noch in den Sternen. Fuer SLi-AA dann wohl schon eher und hoffentlich mit weit besserer Sample-Distribution als die eher unglueckliche wie mit G7x SLi-AA.

Ailuros
2006-11-07, 08:40:31
Ist das nun 16x CSAA oder wirklich 16xS? :|

Bei dem Leistungsverlust ist die Antwort wohl mehr als nur offensichtlich heh ;)

Gast
2006-11-07, 09:33:15
Das Bildchen gibt es in einem alten FSAA tester demo dass man bei einem der B3D Artikel herunterladen konnte. Such mal Kristof's Artikel ueber FSAA und/oder T-buffer durch. Man kann dort zwischen RG und OGSS waehlen und einer Quake3 Szene oder diesem Kreis-Bildchen.Als ich letztens dort in älteren Artikeln stöberte wurde ich vom Server mit Fehlermeldungen bombardiert. Hoffentlich nur ein temporäres Problem, muss ich demnächst nochmal probieren. Zur Not mit der Waybackmachine, so leicht gebe ich nicht auf.
Momentan ist noch kein SS verfuegbar auf G80 afaik. Ich wuerde aber denken dass es noch nachgeladen wird. Ob sie sich wirklich die Muehe geben werden etwas anderes als OGSS zu liefern steht noch in den Sternen. Fuer SLi-AA dann wohl schon eher und hoffentlich mit weit besserer Sample-Distribution als die eher unglueckliche wie mit G7x SLi-AA.OGSSAA liegt im Implementationsaufwand ja recht nahe Null (hat man ja schon für alle anderen Geforce), SGSSAA auch. Man muss ja nur den Code für TSSAA kopieren, den für die Adaptivität nötigen Code entfernen (bzw. was auch immer für das Anspringen des SSAA nötig ist global auf true setzen) und dem ganzen einen Eintrag in der Registry zuordnen. Sollte für jemanden, der sich im Code des Treibers auskennt, vielleicht eine halbe Stunde Arbeit sein, und zwar inklusive der Benachrichtigung der Progger von 3rd-Party-Tools wie (Riv)atuner und nhancer, welcher Eintrag in der Registry vorzunehmen sei.
Ob die Begeisterung und der Hype darüber, daß ENDLICH in jeder Hinsicht besseres FSAA als damals mit der Voodoo5 6000 möglich wäre diesen minimalen Aufwand wert wäre, das beantwortet sich denke ich von selbst. Mal ganz davon abgesehen, daß einer Geforce ohne SSAA ein erhebliches kaufentscheidendes Feature fehlen würde, welches so manchen bislang von der Konkurrenz ferngehalten hat.

Ailuros
2006-11-07, 09:47:44
NVIDIA hat IMHO hauptsaechlich Supersampling weiterhin unterstuetzt fuer die professionellen Maerkte und daher sieht es mir eher unwahrscheinlich aus dass sie kein SSAA mehr unterstuetzen werden.

Rivatuner laeuft ja nicht momentan mit dem Ding, aber ich sehe nicht ein warum im allerschlimmsten Fall all die reinen Supersampling und hybriden modi nicht auch auf G80 gehen sollten.

Sie sprechen selber von hoeheren Moeglichkeiten mit hybriden modi, was auch Sinn macht wenn man denkt dass diesmal 8x MSAA moeglich ist.

Ailuros
2006-11-07, 09:54:02
Als ich letztens dort in älteren Artikeln stöberte wurde ich vom Server mit Fehlermeldungen bombardiert. Hoffentlich nur ein temporäres Problem, muss ich demnächst nochmal probieren. Zur Not mit der Waybackmachine, so leicht gebe ich nicht auf.

http://www.beyond3d.com/articles/v5_5500_IQ/FSAA-demo.zip

http://www.beyond3d.com/articles/v5_5500_IQ/index4.php

eXistence
2006-11-07, 10:24:28
Ist eigentlich bekannt, obs sowas wie nen Launch-Titel geben wird?
Ich erinner mich nur grad daran, dass es damals auf der NV40-Präsentation erste Bilder der UE3 gab...

Gast
2006-11-07, 10:30:25
Ist eigentlich bekannt, obs sowas wie nen Launch-Titel geben wird?
Ich erinner mich nur grad daran, dass es damals auf der NV40-Präsentation erste Bilder der UE3 gab...

Könnte mir gut vorstellen das sie Crysis zeigen.

sulak
2006-11-07, 10:48:32
Was sollen sie von Crysis schon zeigen was net schon bekannt wäre. Das neue NV Modell wird sicher die Präsentation auf der NV-LAN anführen mit ein paar Trailern von Alan Wake, Crysis, UT und sonst gibts ja nichts auser dem FLightsimulator X was "D3D10" sein soll.

Ein paar Techdemos zum Geometrieshader und zur Physikmöglichkeit sollte es geben aber es gibt ja nicht sooviel was jetzt speziell an Effekten mit D3D10 kommen soll. Da eignen sich aktuelle Spiele in 1600+*1200+ in 16xQ wohl eher um zu zeigen was Grafik ist.

p.s.: Wobei UE3 ein Schuss zuviel Ironie wäre, wann kam der nv40 raus *g

Gast
2006-11-07, 11:00:21
Nochmals danke.
Sie sprechen selber von hoeheren Moeglichkeiten mit hybriden modi, was auch Sinn macht wenn man denkt dass diesmal 8x MSAA moeglich ist.Sicher das "nur" 8xMSAA drin ist? Dann wäre der andere 16xModus neben dem komprimierten ja sowas wie 16xS (und das bisher bekannte 16xS ginge den Weg seines Vorgängers 8xS (was zu 8xS old wurde) und würde zu 16xS old). Ich dachte bisher auch 16xMSAA wäre möglich. Naja, bald wissen wirs definitiv.

DER Launchtitel ist doch bekannt:
Ein echtzeitgerendertes Playmaid :naughty:
Scherz beiseite, wir reden von einer GPU, keiner Konsole. GPUs haben keine Launchtitel.

Ailuros
2006-11-07, 11:04:07
Nochmals danke.
Sicher das "nur" 8xMSAA drin ist? Dann wäre der andere 16xModus neben dem komprimierten ja sowas wie 16xS (und das bisher bekannte 16xS ginge den Weg seines Vorgängers 8xS (was zu 8xS old wurde) und würde zu 16xS old). Ich dachte bisher auch 16xMSAA wäre möglich. Naja, bald wissen wirs definitiv.

DER Launchtitel ist doch bekannt:
Ein echtzeitgerendertes Playmaid :naughty:
Scherz beiseite, wir reden von einer GPU, keiner Konsole. GPUs haben keine Launchtitel.

16x AA ist coverage mask AA.

Gast
2006-11-07, 11:04:09
Vielleicht wird die neue id-Engine gezeigt?!
die arbeiten ja an einem neuen Spiel..

Gast
2006-11-07, 11:06:30
Mal 'ne andere Frage...
Wann fällt eigentlich das NDA?
:confused:

Oder steht das auch unter NDA?
:D

Razor

Ja, das solltest du mittlerweile aber wissen.

Steve1
2006-11-07, 11:20:54
Wann fällt denn das NDA?
Wird die Präsentation auch als Live Stream übertragen?

Gast
2006-11-07, 11:22:38
16x AA ist coverage mask AA.Das meinte ich mit "komprimiert", weil der in worst-case-szenarios ja nur 4x entspricht. Aber was ist der andere? Ein neuer 16xS oder 16xMSAA?

Ronny145
2006-11-07, 11:38:26
Wann fällt denn das NDA?




Wenn mich nicht alles täuscht, war das sonst immer 15:00 Uhr unserer Zeit.

Gast
2006-11-07, 12:05:04
Wenn mich nicht alles täuscht, war das sonst immer 15:00 Uhr unserer Zeit.

Ja hab auch sowas in Erinnerung, aber wahrscheinlich gibts die ersten Reviews schon heute Abend/Nacht.

Riplex
2006-11-07, 12:14:24
Wann fällt denn das NDA?
Wird die Präsentation auch als Live Stream übertragen?

Würde mich auch sehr interessieren. Auf der Website von NV kann man ja zum G80 noch nichts sehen/lesen.
Der letzte Livestream war die Präsentation von der FX 5800 glaub ich.

Krustovsky
2006-11-07, 13:23:04
Hier ist eine der wenigen mindfa***y Karten

http://www.forumdeluxx.de/forum/showthread.php?t=287250

@Blaire

Sind deine ebenfalls schon da? - Ich denke Du hättest es uns schon mitgeteilt;)


€: OMG, leider in der Hand von Ahnungslosen:confused:

Ailuros
2006-11-07, 13:44:59
Das meinte ich mit "komprimiert", weil der in worst-case-szenarios ja nur 4x entspricht. Aber was ist der andere? Ein neuer 16xS oder 16xMSAA?

Nicht unbedingt worst-case scenarios ;) Wenn ich die Definierung "komprimiert" akzeptiere, dann denk einfach an zwei Stufen von "Komprimierung". Einmal 4 und einmal doppelt so viel.

Blaire
2006-11-07, 14:02:40
@Blaire
Sind deine ebenfalls schon da? - Ich denke Du hättest es uns schon mitgeteilt;)


Noch nix nein aber bevor ich keine Rückmeldung habe, das es sich um einwandfrei fehlerfreie Exemplare handelt verweiger ich die Annahme. ;)

misterh
2006-11-07, 14:03:35
Noch nix nein aber bevor ich keine Rückmeldung habe, das es sich um einwandfrei fehlerfreie Exemplare handelt verweiger ich die Annahme. ;)

go online.

Die gelbe Eule
2006-11-07, 14:13:09
Noch nix nein aber bevor ich keine Rückmeldung habe, das es sich um einwandfrei fehlerfreie Exemplare handelt verweiger ich die Annahme. ;)

NV machte doch deutlich das Endkunden nicht betroffen sind, sondern nur die Testexemplare der Reviewer.

Coda
2006-11-07, 14:16:28
Wundert mich ehrlich, daß das noch nicht richtiggestellt wurde. 4xSGSSAA ist von der möglichen Verschiebung des LODs 2x2 OGSSAA unterlegen. Während bei 2x2 OGSSAA eine Verschiebung des LODs um -1.0 (ca.=2xAF) möglich ist, ist dies bei 4xSGSSAA, je nach Muster, ca. -0.9 (weiß nicht mehr, wer das vor Urzeiten geschrieben hat und wie er auf die Zahl für 4xSGSSAA gekommen ist, war jedenfalls hier im 3dc und wahrscheinlich auf dem Muster von 4xSGMSAA basierend). Was SGSSAA für Texturen besser macht als OGSSAA ist nicht das LOD, sondern daß es besser dafür geeignet ist Moire zu bekämpfen.

Hast recht, warn Denkfehler.

Blaire
2006-11-07, 14:17:48
NV machte doch deutlich das Endkunden nicht betroffen sind, sondern nur die Testexemplare der Reviewer.

Das ist aber nur die halbe Wahrheit und die Meldungen sind höchst widersprüchlich.

LovesuckZ
2006-11-07, 14:21:37
Noch nix nein aber bevor ich keine Rückmeldung habe, das es sich um einwandfrei fehlerfreie Exemplare handelt verweiger ich die Annahme. ;)

Ziemlich egostische Einstellung.

StefanV
2006-11-07, 14:26:44
Ziemlich egostische Einstellung.
Und was wenn er das Packerl annimmt und da 2 kaputte drin sind?!

Dann ist er nämlicz ziemlich gearscht, weil Geld futsch und er darf Monatelang auf ein Ersatzexemplar warten bzw aufs Geld...

Scose
2006-11-07, 14:27:53
Warum egoistisch? :confused:

Imho das einzig richtige wenn man sich zwei solcher Kärtchen für einen diesen Preis bestellt... es gibt Leute die verdienen weniger im Monat als die beiden Karten zusammen kosten.

MikBach
2006-11-07, 14:28:15
NV machte doch deutlich das Endkunden nicht betroffen sind, sondern nur die Testexemplare der Reviewer.
Die IHVs erzählen viel wenn der Tag lang ist.

Es müssen Nachtests her.

Behaupten kann man viel.

Gruß M_B

Die gelbe Eule
2006-11-07, 14:28:25
Das ist aber nur die halbe Wahrheit und die Meldungen sind höchst widersprüchlich.

Also wenn NV dies höchstpersönlich herausgibt, Karten so noch nicht im freien Handel erhätlich waren zu dem Zeitpunkt, es garantiert schon länger bekannt ist, wer soll dann mehr Wahrheit verbreiten können? INQ vielleicht? Bitte ...

*edit*

Widersprüchliche Aussagen gibt es immer, jeder möchte gerade jetzt der erste sein, um darüber erzählen zu können. Und die ATi Fanbase Seiten sind natürlich mit vorne dabei, um das Geschrei anzufeuern.

@MikBach:

NV hat als einzige Quelle Plan, die müssen nichts behaupten, der Rest kann nur vermuten und nicht mal etwas behaupten.

xL|Sonic
2006-11-07, 14:31:34
Es ist aber auch nicht gerade so, dass Nvidia was solche Dinge angeht ein unbeschriebens Blatt ist...ich sag nur NV40 und defekte "Videochips".
Von daher würde ich da auch erstmal abwarten. Ist ja nicht gerade wenig Geld, was man dafür hinlegt.

Gast
2006-11-07, 14:33:45
Es ist aber auch nicht gerade so, dass Nvidia was solche Dinge angeht ein unbeschriebens Blatt ist...ich sag nur NV40 und defekte "Videochips".

Also das hat mal garnix mit nem defekten Widerstand aufm PCB zu tun...

Die gelbe Eule
2006-11-07, 14:34:03
Und es ist auch nicht gerade neu, das die, welche hier niemals eine Karte dieser Bauart anfassen oder besitzen werden, am meisten empört sind. Sowas nennt man Trolling und sollte mal verwarnt werden.