PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT: (P)Review-Thread


Seiten : 1 2 3 [4] 5 6

Gast
2007-11-04, 03:39:40
Ich hab mal CMD mit der 8800GT gzockt und mußte bei dem Pickup Rennen mit mehren Fahrzeugen in der 2. Runde mit starken kurzzeitigen droops hinnehmen.
Von 45 fps ging es auf 15fps mal runter infolge eines stockens (wie Standbild)
Ich schätze da war der Speicher am ende.
Mit der hd2900xt hatte ich das niicht.

Gamesettings 1920er 4xAA, High, Schatten Medium

beos
2007-11-04, 03:48:41
Ich hab mal CMD mit der 8800GT gzockt und mußte bei dem Pickup Rennen mit mehren Fahrzeugen in der 2. Runde mit starken kurzzeitigen droops hinnehmen.
Von 45 fps ging es auf 15fps mal runter infolge eines stockens (wie Standbild)
Ich schätze da war der Speicher am ende.
Mit der hd2900xt hatte ich das niicht.

Gamesettings 1920er 4xAA, High, Schatten Medium

Die 2900Xt hat aber auch "nur" 512 MB Speicher ;)

Spasstiger
2007-11-04, 04:11:34
Ist Colin Mc Rae Dirt eigentlich echt so VRAM-lastig?
In 1600x1200 mit 4xAA bringen im Computerbase-Test nur die Karten mit mehr als 512 MB Grafikspeicher eine ordentliche Performance, die anderen brechnen weg.
Und in 2560x1600 mit 4xAA fallen dann alle Karten total in den Keller.

GanjaBob
2007-11-04, 04:26:52
Die 2900Xt hat aber auch "nur" 512 MB Speicher ;)
es gibt auch r600 mit 1GB ;)

dargo
2007-11-04, 09:44:18
Ist Colin Mc Rae Dirt eigentlich echt so VRAM-lastig?

Ist er. Zumindest mit max. Details mit Ultra Schatten und AA. Die Ultra Schatten fressen viel Vram. Seit dem Patch 1.1 gbts aber als max. nur noch hohe Schatten. Somit wird auch weniger Vram benötigt.

8800GT (SLI) Test bei Computerbase endlich online:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/

Nichts neues: Fast GTX-Niveau, nur in hohen Auflösungen mit AA geht ihr etwas die Puste aus. Auch auffällig, dass die 2900XT mit 8XAA derart aufholt.
Ich hoffe, ihr vergesst hier nicht, dass der G92 mit einem anderen Treiber als die G80 Karten gebencht wurde. :rolleyes:

Gast
2007-11-04, 09:55:06
Ich hoffe, ihr vergesst hier nicht, dass der G92 mit einem anderen Treiber als die G80 Karten gebencht wurde. :rolleyes:
Ja zur Not solls der Treiber richten. :rolleyes:

Ein Tipp: Wenn im Dezember ein neuer Treiber kommt, dann beschleunigt er den G92 stärker als den G80.

dargo
2007-11-04, 09:56:02
Ein Tipp: Wenn im Dezember ein neuer Treiber kommt, dann beschleunigt er den G92 stärker als den G80.
Ja, der G92 ist vom Aufbau her auch so unterschiedlich zum G80. :rolleyes:

Edit:
Der Abstand zwischen einer G8800GTS/GTX/Ultra und der G8800GT ist in der Praxis anders als die Benches mit unterschiedlichen Treibern es zeigen wollen. Darum gehts. Man könnte glatt behaupten, die G8800GT wird etwas schöngeredet.

Gast
2007-11-04, 09:59:19
Und dann fallen mir sofort die fehlenden Details in der Crysis Demo ein...mit den Beta 169.xTreibern....die mit den G80 (163.69) Treibern nicht fehlen....alles Beschiß?

dargo
2007-11-04, 10:01:08
Crysis Demo ist irrelevant. Crysis erscheint erst in ~2 Wochen. Bis dahin gibts locker mehrere neue Beta Treiber.

Gast
2007-11-04, 10:02:05
Man könnte glatt behaupten, die G8800GT wird etwas schöngeredet.
Und man könnte behaupten, dass die Probleme des G80 verschwiegen werden.
VP0 ....
...

Gast
2007-11-04, 10:03:01
Crysis Demo ist irrelevant.
Auch das finale Crysis ist wayne.

Die Crysis Hype ist zum kotzen.

dargo
2007-11-04, 10:05:07
Wen interessiert der VPO? Einen Zocker mit Sicherheit nicht.

Gast
2007-11-04, 10:05:23
Crysis Demo ist irrelevant. Crysis erscheint erst in ~2 Wochen. Bis dahin gibts locker mehrere neue Beta Treiber.
ach ja?
Für mich sieht es ganz danach aus das die GT gnadenlos gepuscht werden soll oder soll man sagen gefuscht?Denn was anderes ist es nicht>die Treiber wurden extra für Crysis vorort entwickelt oder?

dargo
2007-11-04, 10:06:02
Auch das finale Crysis ist wayne.

Die Crysis Hype ist zum kotzen.
Naja, ich finde den Hype berechtigt.

ach ja?
Für mich sieht es ganz danach aus das die GT gnadenlos gepuscht werden soll oder soll man sagen gefuscht?Denn was anderes ist es nicht>die Treiber wurden extra für Crysis vorort entwickelt oder?
Nochmal! Wo gibts die finale Version von Crysis?

4711
2007-11-04, 10:08:58
kannste oder willste nicht lesen?
Mit den "alten" Treibern fehlen keine Details mit den "speziell entwickelten sehrwohl!
Für mich ist das Beschiß!

dargo
2007-11-04, 10:13:08
kannste oder willste nicht lesen?
Mit den "alten" Treibern fehlen keine Details mit den "speziell entwickelten sehrwohl!
Für mich ist das Beschiß!
Kannst du lesen oder wenigstens ein wenig nachdenken?

Beta Treiber!

Wo gibt es die 169-er Treiber Serie als Final? Ich hoffe du hast den Sinn von Beta Treibern verstanden.

4711
2007-11-04, 10:20:15
Sach mal gehts noch?
MIT DEN ALTEN TREIBERN GIBT ES KEINE FEHLENDEN TEXTUREN!!!!!!!!!!!!!!!
Mit den neuen Beta Treibern sehr wohl,natürlich in Verbindung mit einem kräftiger Performance Schub.

dargo
2007-11-04, 10:34:34
Du sagst mir nichts Neues. Lese dir einfach nochmal die letzten Posts durch.

Gast
2007-11-04, 10:40:15
Sach mal gehts noch?
MIT DEN ALTEN TREIBERN GIBT ES KEINE FEHLENDEN TEXTUREN!!!!!!!!!!!!!!!
Mit den neuen Beta Treibern sehr wohl,natürlich in Verbindung mit einem kräftiger Performance Schub.

LOL! Leider muss ich Dargo Recht geben. Du kapierst es nicht oder 4711?

4711
2007-11-04, 10:40:54
das brauch ich nicht das solltest du machen und den Sinn mal verstehen was NV da gerade dreht....oder glaubste das ist Zufall....naja egal..sollte sich da was nicht ändern...auch vorallem mit den takten das die G80 Reihe wieder anständig unterstützt wird wars das entgültig für mich,da steck ich mir lieber ne lahme Gurke in den Rechner und muß mich nicht als beschissen fühlen.
Servus

4711
2007-11-04, 10:44:48
LOL! Leider muss ich Dargo Recht geben. Du kapierst es nicht oder 4711?
jaja "LOL" das sagt alles....ich habe aber keine Fanbrille auf...und sehe das,um Performance zu kommen an den Details geknausert wird....das dies mit Beta Treibern die Wochen später kommen und bei "Crysis" :D vor Ort entwickelt worden passiert,doch einen sehr üblen Nachgeschmack hat.

Gast
2007-11-04, 10:48:16
Reiner Zufall, das. Hehe :)

dargo
2007-11-04, 10:48:25
das brauch ich nicht das solltest du machen und den Sinn mal verstehen was NV da gerade dreht....oder glaubste das ist Zufall....naja egal..sollte sich da was nicht ändern...auch vorallem mit den takten das die G80 Reihe wieder anständig unterstützt wird wars das entgültig für mich,da steck ich mir lieber ne lahme Gurke in den Rechner und muß mich nicht als beschissen fühlen.
Servus
Ich hatte dir schon mal gesagt, verkaufe deinen G80. Und verschone uns somit mit deinem Gebashe/Spam. Danke...

PS: es interessiert hier niemanden was du dir kaufst oder nicht.

Gast
2007-11-04, 10:49:37
du bist einfach nur lächerlich mit Deinen Aussagen vorallem passen sie sehrgut zum Thema....

The_Invisible
2007-11-04, 11:01:29
Die 2900Xt hat aber auch "nur" 512 MB Speicher ;)

die 2900xt hat aber fast doppelt soviel speicherbandbreite. aber man sieht schön das gtx/ultra in hohen settings durchaus noch eine berechtigung haben.

@4711
gottseidank muss nicht jeder wissen was beta heißt, gell?

mfg

Gast
2007-11-04, 11:02:12
Ja, der G92 ist vom Aufbau her auch so unterschiedlich zum G80. :rolleyes:

Oh doch, oh ich vergaß du hast den G92 mitentwickelt.
Wenn dann ähnelt der G92 dem G86 viel mehr.

Wen interessiert der VPO? Einen Zocker mit Sicherheit nicht.
Deine Meinung interessiert nicht!
Mit VP0 meine ich, dass der G80 keinen hat!
Und mich als Zocker interessiert der VP sehr wohl, den ich möchte nicht auf Funktionen verzichten, die ich schon seit Jahren habe.
Und genau der VP steht nicht in der Balkenlänge!
(genauso wie de VRAM-Bug, den du nicht glauben willst)
Der hohe Stromverbrauch steht zum Glück in den Balken.

jaja "LOL" das sagt alles....ich habe aber keine Fanbrille auf...und sehe das,um Performance zu kommen an den Details geknausert wird....das dies mit Beta Treibern die Wochen später kommen und bei "Crysis" :D vor Ort entwickelt worden passiert,doch einen sehr üblen Nachgeschmack hat.
Hast du ein paar Vergleichs Pics? :smile:

dargo
2007-11-04, 11:16:02
Oh doch, oh ich vergaß du hast den G92 mitentwickelt.

Oh entschuldige. Ich habe nicht damit gerechnet, dass sich hier im Forum ein NV-Ingenieur zu Wort meldet.


Wenn dann ähnelt der G92 dem G86 viel mehr.

Und was ändert das am "Ansprechverhalten" des Treibers jetzt genau nochmal im Vergleich zum G80? Jetzt bin ich mal gespannt.


Deine Meinung interessiert nicht!

Sollen wir mal eine Umfrage bei den 3DC Zockern starten wer einen VPO, gerade mit einem DC/QC braucht? :tongue:


Und genau der VP steht nicht in der Balkenlänge!
(genauso wie de VRAM-Bug, den du nicht glauben willst)

Ach, jetzt kommt die Vram-Bug-Geschichte wieder. Keine Sorge, den hat der G92 zum jetzigen Stand auch. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/10/

Oder wie willst du mir erklären, dass die G8800GT in 1600x1200 4xAA/16xAF langsamer ist als der G71? ;)

Gast
2007-11-04, 11:55:39
Hi, ich nochmal mit dem CMD-Test

Die 2900Xt hat aber auch "nur" 512 MB Speicher ;)
Ja ich hab die 512mb XT da

Ist Colin Mc Rae Dirt eigentlich echt so VRAM-lastig?
In 1600x1200 mit 4xAA bringen im Computerbase-Test nur die Karten mit mehr als 512 MB Grafikspeicher eine ordentliche Performance, die anderen brechnen weg.
Und in 2560x1600 mit 4xAA fallen dann alle Karten total in den Keller.

Ja CMD ist sehr Vram lastig




Ach, jetzt kommt die Vram-Bug-Geschichte wieder. Keine Sorge, den hat der G92 zum jetzigen Stand auch. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/10/

Oder wie willst du mir erklären, dass die G8800GT in 1600x1200 4xAA/16xAF langsamer ist als der G71? ;)

Ich hab eine Seite vorher schon geschrieben das es nach kurzer Zeit ein stocken gibt, sieht man am CB Test auch. Würde nicht Vram Bug sagen sondern die 512mb sind voll.
Obwohl bei der 2900xt mit 512mb keine Probleme gibt in dem Game.
(nur mit dem 7.9, 7.10 gibt es den AF-Bug der die Performance sehr runterzieht) sieht man auch hier in dem Treibertest--> http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/5/#abschnitt_colin_mcrae_dirt

Hauwech
2007-11-04, 11:59:50
Wenn ich mich nicht irre, hat die 2900XT auch keinen VP, oder?

LovesuckZ
2007-11-04, 12:02:52
Doch hat sie.

dargo
2007-11-04, 12:04:02
Ich hab eine Seite vorher schon geschrieben das es nach kurzer Zeit ein stocken gibt, sieht man am CB Test auch. Würde nicht Vram Bug sagen sondern die 512mb sind voll.
Obwohl bei der 2900xt mit 512mb keine Probleme gibt in dem Game.

Ein G71 (zb. die G7900GTX) hat auch "nur" 512MB Vram. ;)

Nein, im Ernst. Seit dem G80 muss sich was beim Speichermanagment verändert haben. Und du hast recht, bei dem CB Test ist einfach der Vram schon lange voll. Der G71 bricht halt nur etwas weniger ein. Beides ist aber trotzdem unspielbar.

Hauwech
2007-11-04, 12:10:36
Doch hat sie.

Hat sie? Dachte das wäre nur diese Durchschleifgeschichte gewesen?

Gast
2007-11-04, 12:12:13
Crysis habe ich auch verglichen 2900xt mit der 8800gt

Settings 1920, high, Shadow und PP medium, mit Schattentweak,AA+AF aus unter XP

8800gt non OC 36,04fps

2900xt 825/925 37,12fps

robbitop
2007-11-04, 12:17:52
Wenn ich mich nicht irre, hat die 2900XT auch keinen VP, oder?
R600 hat nur das normale AVIVO der R5xx Serie. Den UVD haben bisher nur die RV6xx.

Gast
2007-11-04, 12:21:35
Ein G71 (zb. die G7900GTX) hat auch "nur" 512MB Vram. ;)

Nein, im Ernst. Seit dem G80 muss sich was beim Speichermanagment verändert haben. Und du hast recht, bei dem CB Test ist einfach der Vram schon lange voll. Der G71 bricht halt nur etwas weniger ein. Beides ist aber trotzdem unspielbar.

Ich habe mich wirklich erschrocken bei CMD, in anderen Games ist mir nichts aufgefallen hab aber auch nur ein paar getestet.

Ansonsten ist die Leistung sehr gut bei der 8800gt für das Geld.
Ich würde die einsetzen wenn ich einen 19" hätte,
Aber die Kühlung und Verarbeitung (Phasengeschichte) haben mir nicht so gefallen , ich hab die Karte mit 20€ Gewinn gleich wieder verkauft.
Die 2900xt geht jetzt auch weg, ich warte auf die neue Gts oder Hd3870xt erstmal und wenn mir davon keine zusagt schieß ich mir eine 8800gtx günstig (was bei dem 8800GT Hype nicht schwer sein sollte)

reunion
2007-11-04, 12:25:35
Hat sie? Dachte das wäre nur diese Durchschleifgeschichte gewesen?

Den Xilleon SoC haben nur die RV6x0 Chips und der zukünftige RV670. Ein R600 besitzt keinen eigenen Decodeprozessor, allerdings arbeiten AFAIK die ALUs bei HD-Material mit, was aber nicht sonderlich gut zu funktionieren scheint.

Gast
2007-11-04, 12:44:22
4711
gottseidank muss nicht jeder wissen was beta heißt, gell?


manman Beta Treiber die Wochen später kommen und schlechter sind...gerade zum Zeitpunkt der GT....jaja und NV ist zu blöde obwohl sie bei Crysis vorort sind und merken das nicht..schon klar....und außerdem ist der GT Treiber WHQL und keine Beta mehr,soviel dazu...und Scheiben hats trotzdem keine...und die ATI ist mit Scheiben trotzdem schneller....hat wohl nicht geklappt mit dem pfuschen...

4711
2007-11-04, 12:46:49
4711
gottseidank muss nicht jeder wissen was beta heißt, gell?


manman Beta Treiber die Wochen später kommen und schlechter sind...gerade zum Zeitpunkt der GT....jaja und NV ist zu blöde obwohl sie bei Crysis vorort sind und merken das nicht..schon klar....und außerdem ist der GT Treiber WHQL und keine Beta mehr,soviel dazu...und Scheiben hats trotzdem keine...und die ATI ist mit Scheiben trotzdem schneller....hat wohl nicht geklappt mit dem pfuschen...

Das war ich

4711
2007-11-04, 12:47:49
Zitat:
Zitat von 4711 Beitrag anzeigen
jaja "LOL" das sagt alles....ich habe aber keine Fanbrille auf...und sehe das,um Performance zu kommen an den Details geknausert wird....das dies mit Beta Treibern die Wochen später kommen und bei "Crysis" vor Ort entwickelt worden passiert,doch einen sehr üblen Nachgeschmack hat.
Hast du ein paar Vergleichs Pics?

alten Treiber inst.selbst schauen.

Gast
2007-11-04, 12:48:27
jaja "LOL" das sagt alles....ich habe aber keine Fanbrille auf...und sehe das,um Performance zu kommen an den Details geknausert wird....das dies mit Beta Treibern die Wochen später kommen und bei "Crysis" :D vor Ort entwickelt worden passiert,doch einen sehr üblen Nachgeschmack hat.
Hast du ein paar Vergleichs Pics? :smile:
Die Frage steht noch im Raum. :)

Gast
2007-11-04, 12:48:29
Warum müssen registrierte User immer als Gäste trollen?

4711
2007-11-04, 12:49:36
ne der FF spinnt manchmal auf einer Seite ist man eingl und auf der nächsten nicht..keine Absicht.

Gast
2007-11-04, 12:49:39
alten Treiber inst.selbst schauen.
Dazu bräuchte ich aber:
-Die Crysis Demo
-eine 8800

4711
2007-11-04, 12:50:07
Die Frage steht noch im Raum. :)
steht eins über dir was du machen kannst.

4711
2007-11-04, 12:52:00
Dazu bräuchte ich aber:
-Die Crysis Demo
-eine 8800
Pech gehabt ,frag die Cracks hier,die haben doch alle Fraps inst.ich nicht.

Hvoralek
2007-11-04, 13:01:30
alten Treiber inst.selbst schauen.Wie einfallsreich, andere Leute aufzufordern, die von Dir in den Raum gestellten Behauptungen doch selbst zu überprüfen :|

Pech gehabt ,frag die Cracks hier,die haben doch alle Fraps inst.ich nicht.Die zwei Minuten für die Installation würden Dich bestimmt umbringen. Dir muss ja wirklich viel an der ganzen Sache liegen.

Naja, immerhin kam nicht ein Kommentar wie "Dann kauf Dir doch einen G80" ;D

Hauwech
2007-11-04, 13:02:41
Den Xilleon SoC haben nur die RV6x0 Chips und der zukünftige RV670. Ein R600 besitzt keinen eigenen Decodeprozessor, allerdings arbeiten AFAIK die ALUs bei HD-Material mit, was aber nicht sonderlich gut zu funktionieren scheint.

Na also, wozu wird dann rumgetrollt das der G80 keinen "richtigen" VP besitzt und das als Mangel abgetan wird? Bei einer 2900 XT regt sich auch keiner auf, das dort kein VP/UVD/insertnamehere im klassischen Sinne vorhanden ist.

Gast
2007-11-04, 13:06:24
Na also, wozu wird dann rumgetrollt das der G80 keinen "richtigen" VP besitzt und das als Mangel abgetan wird? Bei einer 2900 XT regt sich auch keiner auf, das dort kein VP/UVD/insertnamehere im klassischen Sinne vorhanden ist.
Weil der r600 für viel eh wurst ist.

Das ein VP schon länger zu einer Grafikkarte dazugehört habe ich schon öfter geschrieben. Ja ich meine mein 3,3Ghz C2D kann ich besser beschäftigen als mit solchen Mist.

Sahas
2007-11-04, 13:10:32
Sach mal gehts noch?
MIT DEN ALTEN TREIBERN GIBT ES KEINE FEHLENDEN TEXTUREN!!!!!!!!!!!!!!!
Mit den neuen Beta Treibern sehr wohl,natürlich in Verbindung mit einem kräftiger Performance Schub.
Junge, B E T A!!! Klingelts? ;D

4711
2007-11-04, 13:11:46
Wie einfallsreich, andere Leute aufzufordern, die von Dir in den Raum gestellten Behauptungen doch selbst zu überprüfen :|

Die zwei Minuten für die Installation würden Dich bestimmt umbringen. Dir muss ja wirklich viel an der ganzen Sache liegen.

Naja, immerhin kam nicht ein Kommentar wie "Dann kauf Dir doch einen G80" ;D

ach weiste..ich habs hier schon lange aufgegeben gegen Windmühlen zu rennen,wenn ein neues Spielzeug da ist..sind so kleinigkeiten doch egal...viel wichtiger als die "Scheibe" für mich ist das,das OC mit den "alten" Treibern wieder richtig geht...mein Kärtchen mag das neue Gewurstel garnett...ich glaub Grestorn hat die Treiber auch schon lange nicht mehr drauf.

4711
2007-11-04, 13:12:49
Junge, B E T A!!! Klingelts? ;D
ja schon klar noch eine Leuchte im NV Land...der GT Treiber ist WHQL...hat aber damit nichts zutun..oder bei NV sind sie blöde....was ich bezweifle..Wochen später....

Sahas
2007-11-04, 13:15:53
Ohne Kommentar:

http://www.tomshardware.com/2007/10/29/geforce_8800_gt/index.html

http://media.tomshardware.com/2007/10/29/geforce_8800_gt/benchj.png



Die GT scheint extra für Crysis entwickelt worden zu sein.^^

Ne, schaut man sich den Crysis-Benchmark an, nur ihn alleine halt, dann spricht nichts mehr für eine GTX. Das ist schon böse.

4711
2007-11-04, 13:18:23
oha ich gehe jetzt reichts ;D

Gast
2007-11-04, 13:19:08
oha ich gehe jetzt reichts ;D
Gut.

Danke noch für die Vergleichsbilder. :smile:

schoppi
2007-11-04, 13:19:48
Die GT scheint extra für Crysis entwickelt worden zu sein.^^Ich glaube wirklich das es so ist.

Deathcrush
2007-11-04, 13:26:59
Die GT scheint extra für Crysis entwickelt worden zu sein.^^

Ne, schaut man sich den Crysis-Benchmark an, nur ihn alleine halt, dann spricht nichts mehr für eine GTX. Das ist schon böse.


Ahja ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/

Mit AA kannst du die GT in die Tonne kloppen. Und vergiss nicht, das die Treiber der GTX älter sind als wie für die GT. Sprich die GTX ist noch mal ein stück scheller mit den Betatreibern. Die GTX hat genauso Vor -und Nachteile wie eine GT. Beide haben ihr darseinsberechtigung.

Spasstiger
2007-11-04, 13:28:50
Ahja ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/

Mit AA kannst du die GT in die Tonne kloppen. Und vergiss nicht, das die Treiber der GTX älter sind als wie für die GT. Sprich die GTX ist noch mal ein stück scheller mit den Betatreibern.
Die GTS genauso. Spielbar bleibts nur mit der wesentlich teureren GTX. Es ist halt so wie immer, wer höhere Ansprüche hat, muss auch mehr Geld ausgeben.

Gast
2007-11-04, 13:32:41
Schade das CB immer nur mit 4xAA + 16xAF testet.

So weiß man nicht wie es bei nur 8xAA oder nur 16xAF aussieht.
Ich meine viele verschiedene Kombinationen. :)

4711
2007-11-04, 13:33:37
da hätt die GT keinen Balken mehr....Leute Leute....echt

Deathcrush
2007-11-04, 13:34:01
Die GTS genauso. Spielbar bleibts nur mit der wesentlich teureren GTX. Es ist halt so wie immer, wer höhere Ansprüche hat, muss auch mehr Geld ausgeben.

Wo habe ich was von der GTS geschrieben, es ging einzig und allein um die GTX und das sie keinen Sinn machen würde, laut aussagen einiger Leute. Also nichts dazu dichten ;)

4711
2007-11-04, 13:34:48
nana :tongue: so hatt er das ja garnicht gemeint......

Gast
2007-11-04, 13:42:47
da hätt die GT keinen Balken mehr....Leute Leute....echt
Denk mal nach!

Ich meine zb.: (Auflösung ist nicht so wichtig)
8xAA + 16xAF
4xAA + 16xAF
2xAA + 16xAF
8xAA + 8xAF
...
4xAA + 8xAF
4xAA + 8xAF
...

Jetzt verstanden?

Gast
2007-11-04, 13:44:36
Und irgendwann Weihnachten 2009 wären sie dann fertig mit Testen?

dargo
2007-11-04, 13:53:24
Denk mal nach!

Ich meine zb.: (Auflösung ist nicht so wichtig)
8xAA + 16xAF
4xAA + 16xAF
2xAA + 16xAF
8xAA + 8xAF
...
4xAA + 8xAF
4xAA + 8xAF
...

Jetzt verstanden?
Zumindest diese Settings wären (bei gleicher Auflösung) unnötige Arbeit.

Und irgendwann Weihnachten 2009 wären sie dann fertig mit Testen?
Jo. ;D

Gast
2007-11-04, 13:57:59
Ich will doch nur wissen, wie sich die FPS durch AA Aktivierung verändern und wie durch AF und wie durch beides.
CB bencht nur die Realitätsfremden 4xAA +16xAF.
Wenn ich jetzt wüsste wie viel AF an Leistung braucht, könnte ich zb AF herunterdrehen oder auch nicht, wenn es quasi for free ist.

dargo
2007-11-04, 14:03:11
Ich will doch nur wissen, wie sich die FPS durch AA Aktivierung verändern und wie durch AF und wie durch beides.
CB bencht nur die Realitätsfremden 4xAA +16xAF.

Seit wann ist das praxisfremd? :|


Wenn ich jetzt wüsste wie viel AF an Leistung braucht, könnte ich zb AF herunterdrehen oder auch nicht, wenn es quasi for free ist.
For free ist schon mal gar nichts.

Gast
2007-11-04, 14:06:37
Seit wann ist das praxisfremd? :|

Seit dem jeder User entweder mehr auf FPS oder auf AA oder auf AF steht.
Ich persönlich würde lieber am AF deutlich sparen um mehr AA zu haben. :)

For free ist schon mal gar nichts.

Richtig.
Aber wenn es nur geringe Unterschiede gibt dann ist es quasi for free.
Wenn sich die Fps halbieren, logisch dann nicht mehr.

dargo
2007-11-04, 14:13:24
Richtig.
Aber wenn es nur geringe Unterschiede gibt dann ist es quasi for free.
Wenn sich die Fps halbieren, logisch dann nicht mehr.
Schau dir einfach die entsprechenden CB Tests an wo die AA/AF Skalierung separat behandelt wird. :)

Hvoralek
2007-11-04, 14:19:52
ach weiste..ich habs hier schon lange aufgegeben gegen Windmühlen zu rennen,wenn ein neues Spielzeug da ist..Wenn Du Behauptungen aufstellst, die nicht jeder selbst überprüfen kann, und Dich aber anschließend weigerst, sie mit geringem Aufwand auch zu belegen, baust Du Dir Deine Windmühlen doch gerade selbst :|

JaDz
2007-11-04, 15:04:44
… Wo gibt es die 169-er Treiber Serie als Final? …
Na bei Nvidia natürlich, wo sonst?

http://www.nvidia.com/object/winvista_x86_169.02.html

dargo
2007-11-04, 18:05:32
Na bei Nvidia natürlich, wo sonst?

http://www.nvidia.com/object/winvista_x86_169.02.html
Für einen G80 sehe ich aber da keinen finalen 169-er. ;)

4711
2007-11-04, 18:07:48
Siehste überhaupt noch was ?
Die Scheuklappen müssen ja mittlerweile rundrum gehen...meine Herren.
So leid mirs tut du kommt auf die igno.das ist ja nicht mehr zum aushalten.

Hvoralek
2007-11-04, 19:08:20
"Products Supported: GeForce 8800 GT"

Unterstützt offiziell keinen G80, sondern nur diese eine Karte.

Gast
2007-11-04, 19:13:27
Und inoffiziell, geht der Treiber auch mit ner G80, hats schon jemand probiert?

Sahas
2007-11-04, 19:58:01
Ahja ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/

Mit AA kannst du die GT in die Tonne kloppen. Und vergiss nicht, das die Treiber der GTX älter sind als wie für die GT. Sprich die GTX ist noch mal ein stück scheller mit den Betatreibern. Die GTX hat genauso Vor -und Nachteile wie eine GT. Beide haben ihr darseinsberechtigung.
Das stimmt schon, was du da schreibst, allerdings überzeugt die GTX mit 17FPS bei 4xAA/16xAF und 1600x1200 auch nicht. Bei 1280x1024 und AA ist sie der GT aber starke 10FPS voraus, was mich doch ebbes wundert.
Aber man muß mal schauen, was die Gold von Crysis letztendlich noch alles optimiert hat, da bekommen wir schon noch einen Leistungszuwachs von 5-10Fps, ganz bestimmt.

Gast
2007-11-04, 20:07:10
Wobei ich sagen muß das ich den ganzen Hype um Crysis nicht so recht verstehe. Die Demo sieht zwar besser aus als Far Cry, aber die optischen Aufwertungen rechtfertigen doch keinen solchen Frameeinbruch. Vielleicht wäre hier "weniger mal wieder mehr" gewesen, sprich etwas weniger neue Effekte und dafür spielbare Frameraten auf Highend-Hardware. Wenn ich selbst mit einer 8800er Karte nicht weit über 20 Fps komme dann finde ist das suboptimal.

Das einzige was mich zum Kauf des Spieles bewegen könnte ist, daß die Story wieder im SciFi-Bereich angesiedelt ist und mir Egoshooter in diesem Scenario am besten gefallen.

Gast
2007-11-04, 20:11:05
Ich kauf mir das Spiel sowieso erst als Budgettitel, bis dahin läuft das auf der dann aktuellen Hardware mit 80fps+ :)

JaDz
2007-11-04, 21:03:57
Für einen G80 sehe ich aber da keinen finalen 169-er. ;)
4711 sprach auch vom speziell entwickelten G92-Treiber, mit dem es anscheinend diese Anzeigefehler geben soll, und nach dessen Final-Status du fragtest. Oder habe ich da etwas falsch verstanden?

Majestic
2007-11-04, 21:13:29
Wobei ich sagen muß das ich den ganzen Hype um Crysis nicht so recht verstehe. Die Demo sieht zwar besser aus als Far Cry, aber die optischen Aufwertungen rechtfertigen doch keinen solchen Frameeinbruch. Vielleicht wäre hier "weniger mal wieder mehr" gewesen, sprich etwas weniger neue Effekte und dafür spielbare Frameraten auf Highend-Hardware. Wenn ich selbst mit einer 8800er Karte nicht weit über 20 Fps komme dann finde ist das suboptimal.

Das einzige was mich zum Kauf des Spieles bewegen könnte ist, daß die Story wieder im SciFi-Bereich angesiedelt ist und mir Egoshooter in diesem Scenario am besten gefallen.

Wundert mich das für eine solche Aussage nicht gleich wieder das "Wir verhauen alle die ein kritisches Wort gegen Crysis sagen"-Rollkommando kommt und dich in der Luft zerfetzt..;D
Ich sehe das übrigens genauso. Wäre Crysis storytechnisch (SciFi) nicht so interessant, käme es mir genau aus diesem Grund nicht auf die Platte.

Hvoralek
2007-11-04, 21:16:51
Die Demo sieht zwar besser aus als Far Cry, aber die optischen Aufwertungen rechtfertigen doch keinen solchen Frameeinbruch. Vielleicht wäre hier "weniger mal wieder mehr" gewesen, sprich etwas weniger neue Effekte und dafür spielbare Frameraten auf Highend-Hardware. Wenn ich selbst mit einer 8800er Karte nicht weit über 20 Fps komme dann finde ist das suboptimal.Wenn Du die Details runterdrehst, hast Du doch mehr fps bei weniger überragender Grafik. "High" statt "Very High" scheint ja auf High- End- Hardware schon für gute Spielbarkeit zu genügen.

Adam D.
2007-11-04, 22:19:48
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29&limit=1&limitstart=2

7% ist nicht die Welt, aber Cheat ist Cheat ;)

4711
2007-11-04, 22:27:31
Ich find das Game schon richtig gut..nachdem ich die "V" Taste gefunden hatte,ansonsten Päng Päng ist Päng Päng...irgendwann wirds ja auch in voller Pracht laufen...vieleicht mit nem R680 :tongue:

robbitop
2007-11-04, 22:34:47
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29&limit=1&limitstart=2

7% ist nicht die Welt, aber Cheat ist Cheat ;)
Das muss nicht unbedingt ein Cheat sein. Das kann auch eine Anwendungsspezifische Optimierung oder sogar Fix sein.
Bei Far Cry hat man damals damit EarlyZ wieder reaktiviert.

4711
2007-11-04, 22:36:45
Optimierung trifft es auf den Punkt :up:

laser114
2007-11-04, 22:39:42
But, there you have it - While renaming the Crysis single-player demo executable fixes the image quality issues with all of NVIDIA's ForceWare 169.0x drivers, it also reduces performance by around 7% on average.

Komische Optimierung.

=Floi=
2007-11-04, 22:40:18
eher bug, wenn texturen abgehen...

Adam D.
2007-11-04, 22:44:06
Man, ich muss lernen, dass " ;) " nicht ausreicht, um Ironie anzuzeigen :usad:

Ich find den Test irgendwie lächerlich. Natürlich sitzt im Treiber noch 'n Arsch voller Arbeit und Optimierungen, die man mit dem Umbennen deaktiviert. Kein Wunder, dass man da Leistung verliert.

4711
2007-11-04, 22:46:49
;D ach Leute echt...

Gast
2007-11-04, 22:47:56
eher bug, wenn texturen abgehen...
Komischer Cheat Bug.
http://www.pcgameshardware.de/?article_id=619816
Ist 169.04

laser114
2007-11-04, 22:48:23
Man, ich muss lernen, dass " ;) " nicht ausreicht, um Ironie anzuzeigen :usad:

Stimmt, ist nicht immer ersichtlich. ;)

Ich find den Test irgendwie lächerlich. Natürlich sitzt im Treiber noch 'n Arsch voller Arbeit und Optimierungen, die man mit dem Umbennen deaktiviert. Kein Wunder, dass man da Leistung verliert.

Dass man da Leistung verliert wenn man Optimierungen ausschaltet, ist verständlich. Aber wieso soll dabei dann die Bildqualität besser - od. auch gefixt - werden?

Adam D.
2007-11-04, 22:52:34
Dass man da Leistung verliert wenn man Optimierungen ausschaltet, ist verständlich. Aber wieso soll dabei dann die Bildqualität besser - od. auch gefixt - werden?
Ich glaub, das kommt auf die Formulierung an. Die Seite sieht die Probleme als reduzierte Bildqualität, die mit dem 169.04 auftreten. Mit dem Umbennen der .exe wird alles perfekt, aber man verliert Leistung.

4711
2007-11-04, 22:53:45
nicht besser schneller ;) war das jetzt der richtige?

4711
2007-11-04, 22:55:17
reduzierte Bildqualität, die mit dem 169.04 auftreten...mit allen 169.xx oder...zumindest bei mir..den WHQL bekomm ich allerdings nicht inst...

K4mPFwUr$t
2007-11-04, 23:17:07
der 169.04WHQL ist ja auch nur für die 88GT. die anderen 169.xx sind ja nur die betas von em WHQL.

=Floi=
2007-11-04, 23:25:35
warten wir mal 1-3 treiberversionen ab und dann sehen wir weiter, ob der "bug" gefixt wird

AnarchX
2007-11-05, 11:50:31
Expreview (http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Fnews%2Fhard%2F2007-11-05%2F1194258126d6796.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) hat Bilder von einer weiteren passiven 8800 GT, die laut ihnen von Gainward ist:
http://img205.imageshack.us/img205/660/8800gt3f24624fjn2.jpg

Endorphine
2007-11-05, 12:15:39
Expreview (http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Fnews%2Fhard%2F2007-11-05%2F1194258126d6796.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) hat Bilder von einer weiteren passiven 8800 GT, die laut ihnen von Gainward ist:
http://img205.imageshack.us/img205/660/8800gt3f24624fjn2.jpg :love2:

Das bitte jetzt noch mit 1 GB normal schnellem GDDR-3 und die Karte ist gekauft. :) Gegen einen 3-phasigen Spannungswandler wäre natürlich auch nichts einzuwenden. :D

Der Kühlerteil direkt auf der Karte sieht aus wie ein Pentium-2 Slotkühler. ;)

Gast
2007-11-05, 12:21:12
Jetzt da nen 80er Lüfter drauf und die Karte ist brauchbar.

Anarchy-HWLUXX
2007-11-05, 12:27:33
:love2:

Das bitte jetzt noch mit 1 GB normal schnellem GDDR-3 und die Karte ist gekauft. :) Gegen einen 3-phasigen Spannungswandler wäre natürlich auch nichts einzuwenden. :D

Der Kühlerteil direkt auf der Karte sieht aus wie ein Pentium-2 Slotkühler. ;)

Ömmm, also auf den pics der referenzversion (CB) hat die doch 3-phasen ? SpaWas angeordnent in 3*3 und noch platz für ne 4. gruppe :|

Endorphine
2007-11-05, 12:29:40
Ömmm, also auf den pics der referenzversion (CB) hat die doch 3-phasen ? SpaWas angeordnent in 3*3 und noch platz für ne 4. gruppe :| Ich meinte Vollausbau des Referenz-Spannungswandlers.

Ritter Sport Nugat
2007-11-05, 12:41:43
lol, das teil sieht ja ulkig aus :biggrin:

http://img155.imageshack.us/img155/3150/8800gt2ez3.jpg

dargo
2007-11-05, 12:44:57
lol, das teil sieht ja ulkig aus :biggrin:

http://img155.imageshack.us/img155/3150/8800gt2ez3.jpg
Ach du Schreck. :eek:
Geile Hebelwirkung für den PCIe Slot. X-D

Ritter Sport Nugat
2007-11-05, 12:56:45
Ach du Schreck. :eek:
Geile Hebelwirkung für den PCIe Slot. X-D

der sicherheit wegen wurde die karte gleich von 2 personen während dem test in position gehalten :D
http://img87.imageshack.us/img87/7259/8800gt1iq6.jpg

seahawk
2007-11-05, 12:58:52
Naja, bin mal gespannt was wir in 2-3 Wochen so bei den Händlern finden. Ich glaube den Referenzkühler wird es nur noch selten geben.

dropback
2007-11-05, 13:05:00
Ach du Schreck. :eek:
Geile Hebelwirkung für den PCIe Slot. X-D
Und wie breit soll denn dann erst das Case sein, 30 Zentimeter vielleicht?:D
Also ne passive GT, ich weis ja nicht.
Die aktive wird ja schon recht flott 90 Grad warm, klar, der Lüfter hat sich bis dahin kaum hoch bewegt und somit ist da noch ordentlich Luft.
Aber bei einer passiven bräuchte man imho so viele Gehäuselüfter dass der Vorteil der passiven/lautlosen Kühlung dahin ist.

KinGGoliAth
2007-11-05, 13:41:18
also der kühler ist auch nicht für jedes gehäuse geeignet. X-D

warum machen die sich son stress? kühler der 7900 gtx / gto drauf und gut is. oder ist das wie in der mode: das gleiche design darf nicht doppelt verwendet werden. :(

Anarchy-HWLUXX
2007-11-05, 13:50:20
Ich meinte Vollausbau des Referenz-Spannungswandlers.

Wärn des net 4 phasen dann ... grübel ...

K4mPFwUr$t
2007-11-05, 13:58:17
@Anarchy-HOCP
das wäre dann 3x1 spawa. 1phase für den VRAM sollte hier reichen.
es wurden ja schon bilder von der galaxy mit 3x1 spawa gesichtet, also perfekte eigenschaften für hardcore OC :uup:

Gast
2007-11-05, 14:01:17
also der kühler ist auch nicht für jedes gehäuse geeignet. X-D

warum machen die sich son stress? kühler der 7900 gtx / gto drauf und gut is. oder ist das wie in der mode: das gleiche design darf nicht doppelt verwendet werden. :(

Warum überhaupt ein anderer Kühler? Will ich passiv kühlen, muss ich für eine gute Luftzirkulation sorgen. Und wenn diese sowieso schon vorhanden ist, reicht auch der STandardkühler für eine nicht hörbare Kühlung.

Gast
2007-11-05, 14:11:00
Marketing-Gimmick. Jedem mit ein klein wenig physikalischem Verständnis ist sowieso klar dass 100W immer 100W bleiben, egal ob sie "passiv" oder "aktiv" abgeführt werden. Die müssen aus dem Gehäuse raus, also braucht es in jedem Fall ein gut durchlüftetes Gehäuse, egal ob die GraKa passiv oder aktiv gekühlt wird.

Endorphine
2007-11-05, 14:34:40
Marketing-Gimmick. Jedem mit ein klein wenig physikalischem Verständnis ist sowieso klar dass 100W immer 100W bleiben, egal ob sie "passiv" oder "aktiv" abgeführt werden. Die müssen aus dem Gehäuse raus, also braucht es in jedem Fall ein gut durchlüftetes Gehäuse, egal ob die GraKa passiv oder aktiv gekühlt wird. Mit einem passiven Grafikkartenkühler kann man
# langsam drehende, zuverlässige, langlebige und für den Menschen sehr leise großvolumige Lüfter verwenden, statt die Systemzuverlässigkeit einem winzigen Miniaturlüfter mit Hochdrehzahlkonzept anzuvertrauen
# sollte die Gehäusedurchlüftung aus irgend einem Grund ausfallen oder abnehmen hat man durch den deutlich stärkeren Passivkühler viel höhere Kühlleistungsreserven
# die Luftstromgeschwindigkeit kann bei Passivkühlern deutlich kleiner ausfallen als bei kleinen Aktivkühlern - das ist der Hauptgrund, warum Passivkühlungen leiser sein können
# und auch für Übertakter-Spielereien lohnt es sich: ein von einem kräftigen Frischluftstrom durchspülter Passivkühler kühlt deutlich mehr als andere Standardkühler

Gast
2007-11-05, 15:03:07
Ohne Kommentar:

But, regardless of this, there are two important points to take away from this article. Firstly, to enjoy the Crysis single-player demo in its full glory on NVIDIA's GeForce 8 hardware, you'll need to either drop to an older driver version than the ForceWare 169.0x releases, or rename the crysis.exe in your game folder to something else (not the name of another game) to remove the offending broken optimisation, and thus allow in-game water reflections to be rendered correctly. Secondly, if you've read any reviews of NVIDIA graphics boards using this combination of driver release and the Crysis single-player demo, you should be aware that any performance metrics shown are quite likely to be inaccurate and slightly inflated.

http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Wer eine gute Bildqualität will, sollte also lieber von FW 169.0X in Crysis Abstand nehmen.

reunion

Ritter Sport Nugat
2007-11-05, 15:32:54
Ohne Kommentar:



http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Wer eine gute Bildqualität will, sollte also lieber von FW 169.0X in Crysis Abstand nehmen.

reunion

oder einfach die crysis.exe umbenennen.
aber die review benchmarks die mit crysis und dem treiber gemacht wurden sind wohl fürn popo?

Gast
2007-11-05, 15:34:08
oder einfach die crysis.exe umbenennen.
aber die benchmarks die mit crysis und dem treiber gemacht wurden sind wohl fürn popo?

Da die Bildqualität anscheinend gesenkt wurde sind sie zumindest nicht vergleichbar.

Henroldus
2007-11-05, 15:53:59
geht die Besch**sserei mit Filteroptimierungen also schon wieder los? :mad:

wann lernen die IHVs es endlich, dass sie damit nicht durchkommen?

sollte das im finalen WHQL Treiber immernoch so sein, wird 3Dcenter dies hoffentlich wieder mit einem schönen Artikel würdigen :biggrin:

mich wundert sowieso immer wieder wie man einen treiber speziell für ein spiel ohne abstriche beschleunigen will :|
Leistungsteigerung schön und gut aber bitte nicht auf Kosten der Bildqualität!

Gast
2007-11-05, 16:03:36
geht die Besch**sserei mit Filteroptimierungen also schon wieder los? :mad:



Hört die Leseunfähigkeit denn nie auf? Wo hat jemand etwas von Filteroptimierungen geschrieben?

Gast
2007-11-05, 16:18:54
der sicherheit wegen wurde die karte gleich von 2 personen während dem test in position gehalten :D
http://img87.imageshack.us/img87/7259/8800gt1iq6.jpg
also der kühler auf der front sieht geil aus, schön massiv
aber die hätten lieber die heatpipes weiter rumbiegen sollen und auf der rückseite ein paar schmale lammellen anbringen sollen

Henroldus
2007-11-05, 16:33:24
Hört die Leseunfähigkeit denn nie auf? Wo hat jemand etwas von Filteroptimierungen geschrieben?
"showing how you can work around the problem to restore the correct level of image quality to your own Crysis gaming experience"
umbennen der exe ändert also die Bildqualität.
Kann aber auch ein bug sein :wink:
allerdings ist der treiber speziell für crysis(bzw höhere fps im spiel)

Gast
2007-11-05, 16:40:11
"to remove the offending broken optimisation, and thus allow in-game water reflections to be rendered correctly"

Wo steht da was von Filteroptimierungen? Da steht was von kaputtem Rendering.

Henroldus
2007-11-05, 16:43:18
"to remove the offending broken optimisation, and thus allow in-game water reflections to be rendered correctly"

Wo steht da was von Filteroptimierungen? Da steht was von kaputtem Rendering.
und wer sagt, dass da kein zusammenhang besteht?
warten wir es ab.
ich weiss ja nicht mal mit welchem gast ich hier spreche.

robbitop
2007-11-05, 17:13:44
Eine Filteroptimierung wird das nicht sein. Grund: Bei so einem riesen Batzen an Füllrate (verglichem mit allem anderen) kann man auch ein nahezu kompromisslose Texturfilterung bieten ohne groß dafür zahlen zu müssen.

Blaire
2007-11-05, 17:33:28
Gears of War PC Performance and IQ

http://enthusiast.hardocp.com/article.html?art=MTQxNiwxLCxoZW50aHVzaWFzdA==

Kann man sicher auch hier mal posten schließlich wurde die GT mitgetestet

Gast
2007-11-05, 17:38:27
Eine Filteroptimierung wird das nicht sein. Grund: Bei so einem riesen Batzen an Füllrate (verglichem mit allem anderen) kann man auch ein nahezu kompromisslose Texturfilterung bieten ohne groß dafür zahlen zu müssen.
Es ist entweder wirklich ein Cheat (ein Cheat ist es erst dann, wenn man erwischt wird!) oder nur eine zu aggressive applikationsspezifische Optimierung. Das zweite hatten wir zigmal, aus eigener Erfahrung war es "Dark Water" in HL2.

Gast
2007-11-05, 17:41:38
Es kann natürlich auch nur ein Bug sein.

Lolman
2007-11-05, 17:48:05
Eine Filteroptimierung wird das nicht sein. Grund: Bei so einem riesen Batzen an Füllrate (verglichem mit allem anderen) kann man auch ein nahezu kompromisslose Texturfilterung bieten ohne groß dafür zahlen zu müssen.

Die Betonung liegt auf nahezu. Ein G84 filtert in Q3a auf Q (ohne Opts) sichtbar schlechter als ein R580. Und zwar ab nem gewissen Mipübergang.

(ist mir letztens beim Q3a-spielen aufgefallen)

Gast
2007-11-05, 17:50:07
geht die Besch**sserei mit Filteroptimierungen also schon wieder los? :mad:

wann lernen die IHVs es endlich, dass sie damit nicht durchkommen?

sollte das im finalen WHQL Treiber immernoch so sein, wird 3Dcenter dies hoffentlich wieder mit einem schönen Artikel würdigen :biggrin:

mich wundert sowieso immer wieder wie man einen treiber speziell für ein spiel ohne abstriche beschleunigen will :|
Leistungsteigerung schön und gut aber bitte nicht auf Kosten der Bildqualität!

Sehe ich anders. bitte Nvidia, nicht alle haben High end, sonder nutzen Mainstream-Karten. Deswegen sollte die Treiber speziell auf Mainstream ausgelegt sein. Wer High-End unbedingt brauch, soll doch die nötigen "Einstellungen" für eine Pseudo-bessere-Bildqualität selbsst vornehmen.

Henroldus
2007-11-05, 18:00:39
Deswegen sollte die Treiber speziell auf Mainstream ausgelegt sein.
:| wie soll dass denn gehen? hauptsache schnell, Bildqualli egal?
welchem Benchmark sollte man dann noch glauben?


Wer High-End unbedingt brauch, soll doch die nötigen "Einstellungen" für eine Pseudo-bessere-Bildqualität selbsst vornehmen.
solange ich die "Optimierungen" im Treiber alle abschalten kann ist das ok ja, aber der User sollte die Wahl haben

reunion
2007-11-05, 18:23:24
"to remove the offending broken optimisation, and thus allow in-game water reflections to be rendered correctly"

Wo steht da was von Filteroptimierungen? Da steht was von kaputtem Rendering.

"Kaputtes Rendering" sieht IMO anders aus. "Kaputtes Rendering" äußert sich mit Bildfehler, aber nicht mit fehlenden Spiegelungen oder sonstigen Dingen. Und wenn dieses "kaputte Rendering" dann auch noch Leistung bringt, liegt der Verdacht zumindest nahe, dass dieses Rendering nicht ganz unabsichtlich kaputt ist.

Adam D.
2007-11-05, 18:38:04
Und wenn dieses "kaputte Rendering" dann auch noch Leistung bringt, liegt der Verdacht zumindest nahe, dass dieses Rendering nicht ganz unabsichtlich kaputt ist.
Mit dem kaputten Rendering gehen auch alle anderen Optimierungen flöten, kein Wunder, dass da Leistung verloren geht. Als ob Nvidia das jetzt im Moment nötig hätte, gegen seine Konkurrenten durch so billige Cheats 5% dazu zu gewinnen :rolleyes:

Gast
2007-11-05, 18:59:50
Als ob Nvidia das jetzt im Moment nötig hätte, gegen seine Konkurrenten durch so billige Cheats 5% dazu zu gewinnen :rolleyes:
5% sind immer gut.
Irgendwann wird sie nv auf jeden Fall brauchen. Spätestens um gegen den RV670 gut dazustehen.

Gast
2007-11-05, 19:02:20
Muhar, der war gut ;D ;D ;D

Matrix316
2007-11-05, 19:40:23
Gears of War PC Performance and IQ

http://enthusiast.hardocp.com/article.html?art=MTQxNiwxLCxoZW50aHVzaWFzdA==

Kann man sicher auch hier mal posten schließlich wurde die GT mitgetestet
Gears of War für den PC und keiner sagt was? Wos???? Wo gibts das? Wann gibts das hier? Das ist ja noch interessanter als die GF8800 GT...;)

dildo4u
2007-11-05, 19:44:45
Gears of War für den PC und keiner sagt was? Wos???? Wo gibts das? Wann gibts das hier? Das ist ja noch interessanter als die GF8800 GT...;)
Wenn man bei der Spielegrotte oder Okaysoft für FSK 18 freigeschaltet ist kann man es bestellen soll noch diese Woche kommen.(9.11.)

robbitop
2007-11-05, 19:46:56
Zumal man deutlich vorn liegt. Einige sind wirklich paranoid.

Mr. Lolman
2007-11-05, 20:13:07
HardOCP ist nach der "kurzzeitig böse auf NV" - Geschichte imo keine vertrauenswürdige Quelle mehr. Außerdem wär GOW das erste UE3 Spiel was auf den Radeons vglw. mies performen würde.

Besser andere Performancereports abwarten...

Gast
2007-11-05, 20:18:46
HardOCP ist nach der "kurzzeitig böse auf NV" - Geschichte imo keine vertrauenswürdige Quelle mehr. Außerdem wär GOW das erste UE3 Spiel was auf den Radeons vglw. mies performen würde.

Besser andere Performancereports abwarten...


Ist mir schon immer aufgefallen das die NV Karten auf der Seite besser abschneiden....

Blaire
2007-11-05, 20:20:24
HardOCP ist nach der "kurzzeitig böse auf NV" - Geschichte imo keine vertrauenswürdige Quelle mehr. Außerdem wär GOW das erste UE3 Spiel was auf den Radeons vglw. mies performen würde.


Begründung? Welche Art von Quellen sind denn für dich vertrauenwürdig? Ich kann mich jedenfalls nicht erinnern das hardocp jemals falsche Ergebnisse gebracht hätte. Seit dem Doom3 Performance Review hat sich das fast immer mit meinen Resultaten gedeckt.

Gast
2007-11-05, 20:28:03
Begründung? Welche Art von Quellen sind denn für dich vertrauenwürdig? Ich kann mich jedenfalls nicht erinnern das hardocp jemals falsche Ergebnisse gebracht hätte. Seit dem Doom3 Performance Review hat sich das fast immer mit meinen Resultaten gedeckt.

Deine Resultate sind also glaubwürdig?seitwann das..

Mr. Lolman
2007-11-05, 20:32:01
Begründung? Welche Art von Quellen sind denn für dich vertrauenwürdig? Ich kann mich jedenfalls nicht erinnern das hardocp jemals falsche Ergebnisse gebracht hätte. Seit dem Doom3 Performance Review hat sich das fast immer mit meinen Resultaten gedeckt.

Woher will man denn Wissen, dass die Ergebnisse falsch sind (nachbenchen ist ja bei HardOCP wohl kaum möglich)? Jedenfalls lagen sie vor ein paar Jahren (iirc 2004) mal im (öffentlichen) Clinch mit NV und interessanterweise gewann ab da ATi die meisten Benchmarks. Irgendwann hat sich das Blatt wieder massiv gewendet. (Das fiel hauptsächlich dadurch auf, dass die Ausreisser in beide Richtungen bei HardOCP immer deutlich extremer waren als bei allen anderen HW-Seiten.)

Vertrauenswürdig ist für mich primär

digit-life
xbitlabs
behardware



Bei den meisten Anderen gibts (mehr oder weniger) Vorbehalte - auch wenns tw. nur an der Kompetenz scheitert

reunion
2007-11-05, 20:33:24
Zumal man deutlich vorn liegt. Einige sind wirklich paranoid.

Einige sind sich hoffentlich nicht mal annähernd über die Tragweite ihrer Anschuldigungen bewusst. Ich kannte mal eine Person flüchtig, die an Paranoia erkrankt war, und das ist nicht mehr lustig. Paranoia ist eine schwere Geistesstörung; eine paranoide Person glaubt z. B. völlig unbegründet, dass andere darauf aus sind, sie zu töten. Die Behandlung paranoider Störungen ist äußerst schwierig, da dem Erkrankten gewöhnlich die Krankheitseinsicht fehlt und er für psychotherapeutische wie medikamentöse Maßnahmen nur sehr begrenzt zugänglich ist. Nicht wenige der Erkrankten enden daher in den geschlossenen Abteilungen psychiatrischer Anstalten.

Blaire
2007-11-05, 20:48:32
Woher will man denn Wissen, dass die Ergebnisse falsch sind (nachbenchen ist ja bei HardOCP wohl kaum möglich)?

Es geht um spielbare Settings in erster Linie, über die Art und Weise kann man sicher streiten , aber sowas ist auch sehr interessant und für mich glaubwürdiger als irgendwelche Benchmarkbalken. Dafür schau ich mir Computerbase an , da kann ich auch sehr viele Übereinstimmungen finden.

Jedenfalls lagen sie vor ein paar Jahren (iirc 2004) mal im (öffentlichen) Clinch mit NV und interessanterweise gewann ab da ATi die meisten Benchmarks. Irgendwann hat sich das Blatt wieder massiv gewendet. (Das fiel hauptsächlich dadurch auf, dass die Ausreisser in beide Richtungen bei HardOCP immer deutlich extremer waren als bei allen anderen HW-Seiten.)

Nur weil das vieleicht mal so war sind sie bereits abgestempelt? Damit machst es dir ziemlich einfach und wenn die dort einen schlechten Job machen würden wieso bekommen sie von Ati überhaupt Testkarten zur Verfügung gestellt wenn eh alles nur NV Propaganda ist? Nene so einfach ist es nicht.


digit-life
xbitlabs
behardware

Schau ich mir an , aber nehme ich nicht als Maßstab. Da gab es ebenso viele merkwürdige Ergebnisse z.b. zuletzt Juarez DX10 1GB X2900XT Test mit uralten NVidia Treibern vs. neuesten Ati Treibern das ist genauso Blödsinn so zu testen. Ich brauch mir nur Computerbase durchlesen und ich weiss die Ergebnisse entsprechen der Realität, um Spielbarkeitssettings zu erhalten genügt ein Blick auf hardocp.com mehr brauch ich nicht. Ist aber nur meine Meinung.

Sahas
2007-11-05, 21:49:10
Einige sind sich hoffentlich nicht mal annähernd über die Tragweite ihrer Anschuldigungen bewusst. Ich kannte mal eine Person flüchtig, die an Paranoia erkrankt war, und das ist nicht mehr lustig. Paranoia ist eine schwere Geistesstörung; eine paranoide Person glaubt z. B. völlig unbegründet, dass andere darauf aus sind, sie zu töten. Die Behandlung paranoider Störungen ist äußerst schwierig, da dem Erkrankten gewöhnlich die Krankheitseinsicht fehlt und er für psychotherapeutische wie medikamentöse Maßnahmen nur sehr begrenzt zugänglich ist. Nicht wenige der Erkrankten enden daher in den geschlossenen Abteilungen psychiatrischer Anstalten.
Schreibe diese Art der Beiträge doch bitte in Zukunft in ein medizinisches Forum. :comfort:

desert
2007-11-05, 22:19:13
HardOCP ist nach der "kurzzeitig böse auf NV" - Geschichte imo keine vertrauenswürdige Quelle mehr. Außerdem wär GOW das erste UE3 Spiel was auf den Radeons vglw. mies performen würde.

Besser andere Performancereports abwarten...

mal wieder selektive wahrnehmung lolli?

komisch, mies performen aha, und unterstellst denen parteilichkeit.

ich glaube es sollte sich langsam herumgesprochen haben, das die hd 2900 xt nicht so der burner unter dx 10 ist. aber du vermutest mal wieder betrug.

hmm unter dx9 ist sie schneller als 8800 gts, wie erwartet.

wahrscheinlich betrügt computerbase auch,testen auch eine ue3 engine und auch da liegt die gtx vorne, diesmal 36 %. Wahrscheinlich auch wieder betrug, weil lolli sagt das ue3 engines dem r600 viiieeelll besser schmecken als dem g80/g92 die ue3 engines.

Das du vielleicht einfach mal drauf kommst das der r600 unter dx10 einfach versagt. Der gedanke kommt dir nicht? Nein warum auch, ist schliesslich ati die unter dx10 einbrechen, und es darf nicht sein, was sich lolli nicht vorstellen kann.

reunion
2007-11-05, 22:22:45
Schreibe diese Art der Beiträge doch bitte in Zukunft in ein medizinisches Forum. :comfort:

Wenn hier so leichtfertig mit derartigen Begriffen herumgeschmissen wird, dann schadet so ein Beitrag sicher nicht.

dargo
2007-11-06, 00:02:21
der sicherheit wegen wurde die karte gleich von 2 personen während dem test in position gehalten :D
http://img87.imageshack.us/img87/7259/8800gt1iq6.jpg
Naja, ohne Gehäuse macht das auch Sinn. :D

4711
2007-11-06, 00:05:04
der 169.04WHQL ist ja auch nur für die 88GT. die anderen 169.xx sind ja nur die betas von em WHQL.
Falsch>`04 Beta für alle Karten>1x`02 Beta für alle Karten>1x`02 WHQL nur für die GT...

Lolman@work
2007-11-06, 08:06:42
ich glaube es sollte sich langsam herumgesprochen haben, das die hd 2900 xt nicht so der burner unter dx 10 ist. aber du vermutest mal wieder betrug.

Ich meinte die DX9 Performance.


hmm unter dx9 ist sie schneller als 8800 gts, wie erwartet.


Ist sie nicht. Schau dir mal die Einstellungen an.

Gast
2007-11-06, 09:00:26
Ich habe eine NVIDIA 6800LE mit 16pp,6vp nur 128MB Ram bei 256Bit Speicherinterface mit 350MHz Core und IIRC 450MHz Ramtakt. Das ist GT zich mal schneller ist, ist klar aber wo liegt dieses alte Dinge noch? Auf Niveau einer 7600GT oder wieviel drunter?

Versuche im CB Test eine Einordnung (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet) meiner Karte zu bekommen.

seahawk
2007-11-06, 09:25:55
Mit Glück auf 8500GT Level. Eher darunter.

Gast
2007-11-06, 09:35:57
Ich habe eine NVIDIA 6800LE mit 16pp,6vp nur 128MB Ram bei 256Bit Speicherinterface mit 350MHz Core und IIRC 450MHz Ramtakt.
Was limitiert bei der heute mehr:
-Die VRAM-Menge
-Speichebandbreite?
-GPU-Leistung?
-Shaderpower?

AnarchX
2007-11-06, 09:41:24
Wegen nur 128MiB dürfte sie heute teils deutlich hinter einer 7600GT liegen, würde im guten Schnitt mit halber Performance rechnen.

Gast
2007-11-06, 09:42:32
Wegen nur 128MiB dürfte sie heute teils deutlich hinter einer 7600GT liegen, würde im guten Schnitt mit halber Performance rechnen.
Ungemodet war eine 6800LE afaik auch kaum schneller als eine 6600GT.

Gast
2007-11-06, 09:43:04
Die 7600GT jedoch schneller als eine 6800GT.

-/\-CruNcher-/\-
2007-11-06, 10:15:24
Für alle Nvidialer das habt ihr euch doch auch gewünscht oder nicht ?

http://www.sapphiretech.com/en/productfiles/198specimage.jpg

K4mPFwUr$t
2007-11-06, 10:17:04
@-/\-CruNcher-/\-
dein posting kann man schon als flame sehen, was willst du damit erreichen?;)

Gast
2007-11-06, 10:17:18
Für alle Nvidialer das habt ihr euch doch auch gewünscht oder nicht ?

http://www.sapphiretech.com/en/productfiles/198specimage.jpg
Falscher Fred?
Zusammenhang?
Hä?

-/\-CruNcher-/\-
2007-11-06, 10:19:32
Naja den Dual-Slot Kühler anstelle der Singleslot Heizung ;)

Gast
2007-11-06, 10:20:51
Naja den Dual-Slot Kühler anstelle der Singleslot Heizung ;)
Oh nur zur Info:
Deine ATI ist die Heizung.

Die NV wird lediglich nicht sehr kühl gehalten, dafür ist sie leise.

K4mPFwUr$t
2007-11-06, 10:27:53
@-/\-CruNcher-/\-
der stock cooler der 3870 ist doch fast 1:1 mit dem der X1950XTX? :|
der war schon etwas leiser als die vergleichbaren turbinen von der X850XT oder der X1900XT.
trozdem sind sie recht laut gwesen.

das problem bei dem 88GT kühler liegt darin das man um jeden preis eine sehr leise karte anbieten will. dafür ist man dem anschein nach auch bereit die karte sehr warm werden zu lassen. zumal die lüftersteuerungsabstände imens groß sind.
würde man die lüftersteuerung so konfigurieren, so das sie auf niveau der 3870 läge, wäre die karte gut 10°C kühler aus der vermutung heraus. abgesehen davon was möglich wäre bei besserer WLP, besonders bei nVidia :rolleyes:

Gast
2007-11-06, 10:32:13
Dual-Slot-Kühlung steht ja bei ATi generell für leise und kühl ... Haha :ulol:

Sorry, aber was sollen solche Posts?

Adam D. @ work

robbitop
2007-11-06, 10:58:29
Einige sind sich hoffentlich nicht mal annähernd über die Tragweite ihrer Anschuldigungen bewusst. Ich kannte mal eine Person flüchtig, die an Paranoia erkrankt war, und das ist nicht mehr lustig. Paranoia ist eine schwere Geistesstörung; eine paranoide Person glaubt z. B. völlig unbegründet, dass andere darauf aus sind, sie zu töten. Die Behandlung paranoider Störungen ist äußerst schwierig, da dem Erkrankten gewöhnlich die Krankheitseinsicht fehlt und er für psychotherapeutische wie medikamentöse Maßnahmen nur sehr begrenzt zugänglich ist. Nicht wenige der Erkrankten enden daher in den geschlossenen Abteilungen psychiatrischer Anstalten.
Du weißt, dass das nicht so gemeint war. ;(
Tut mir leid, wenn ich damit bei dir schlimme Erinnerungen geweckt habe.

-/\-CruNcher-/\-
2007-11-06, 11:14:05
@-/\-CruNcher-/\-
der stock cooler der 3870 ist doch fast 1:1 mit dem der X1950XTX? :|
der war schon etwas leiser als die vergleichbaren turbinen von der X850XT oder der X1900XT.
trozdem sind sie recht laut gwesen.

das problem bei dem 88GT kühler liegt darin das man um jeden preis eine sehr leise karte anbieten will. dafür ist man dem anschein nach auch bereit die karte sehr warm werden zu lassen. zumal die lüftersteuerungsabstände imens groß sind.
würde man die lüftersteuerung so konfigurieren, so das sie auf niveau der 3870 läge, wäre die karte gut 10°C kühler aus der vermutung heraus. abgesehen davon was möglich wäre bei besserer WLP, besonders bei nVidia :rolleyes:

WLP macht keinen großen unterschied also AS5 jedenfalls würde da auch nix bringen das einzige was effektiver sein sollte wäre Flüssigmetall.
Also ich bin mir sicher der Kühler wird leise schon allein durchs Powerplay (55nm), es geht hier mehr um das Overclocking man brauch sich hier nicht gleich sofort einen neuen Kühler zu holen und Spart Geld das ist wieder ein Mehrwert den die Karte bietet Nvidia war das anscheinend zu teuer.

seahawk
2007-11-06, 11:16:56
Dies ist nicht der RV670 Thread. Also bitte. Sowas führt nur zu sinnlosen und unnötigen Flames.

Popeljoe
2007-11-06, 11:50:02
Dies ist nicht der RV670 Thread. Also bitte. Sowas führt nur zu sinnlosen und unnötigen Flames.
Da muss ich ihm Recht geben!
@Cruncher: Mach doch einen Fred zur Kühlung der 3870 auf, sowas führt ansonsten nur zu bösem Blut und nicht zu einer konstruktiven Diskussion! ;)

LovesuckZ
2007-11-06, 12:28:01
Für alle Nvidialer das habt ihr euch doch auch gewünscht oder nicht ?
http://www.sapphiretech.com/en/productfiles/198specimage.jpg

Nein, eine AMD Karte wollte ich nicht. :rolleyes:

Also ich bin mir sicher der Kühler wird leise schon allein durchs Powerplay (55nm), es geht hier mehr um das Overclocking man brauch sich hier nicht gleich sofort einen neuen Kühler zu holen und Spart Geld das ist wieder ein Mehrwert den die Karte bietet Nvidia war das anscheinend zu teuer.

Zwei Fragen:
1. Äh?!
2. Wieso ist meine Karte leise und lässt sich übertakten?

Ritter Sport Nugat
2007-11-06, 13:40:40
der nachschub rollt an
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4044&Itemid=1

Popeljoe
2007-11-06, 15:14:34
So Leute: wer jetzt hier weiter auf der NV gegen ATI Klampfe spielen will kriegt echt Stunk! @ Lovesuckz: wenn ich was reinschreibe ohne Modtext, impliziert das nicht, dass du das einfach ignorieren kannst! Also: bleibt jetzt beim Thema, sonst Keule!!!!!

PCGH_Carsten
2007-11-06, 15:41:02
Die HD3870 verspricht IMO AMDs bestes Produkt in diesem Jahr zu werden. Da wird die GF8800 GT sicher nochmals neu evaluiert werden müssen.

MartinRiggs
2007-11-06, 15:43:10
willst du damit andeuten ihr habt die karte schon auf dem Prüfstand und sie rockt?

Toppas:-)
2007-11-06, 15:47:17
willst du damit andeuten ihr habt die karte schon auf dem Prüfstand und sie rockt?

Ich gehe schon davon aus das die Hardware-Magazine schon Karten haben werden, leider aber unter NDA stehen @ PCGH_Carsten
Ich gehe auch davon aus, das die beiden neuen Chips AMD/Nvidia ungefähr gleichauf sein werden, mit dem einen oder anderen Vorteil für beide Chips (RV370/G92)
Ich warte jedenfalls mit dem Neukauf bis ich mir ein vernünftiges Bild über das Angebot machen kann...ich denke da kommt noch was Anfang/Mitte Januar-Februar

Gast
2007-11-06, 15:57:27
der nachschub rollt an
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4044&Itemid=1

Das wird bestimmt lustig wenn keiner weiss was genau nun in der Schachtel ist :)

dropback
2007-11-06, 16:11:23
Denke ich auch.
Das gibt dann so eine Panik wie bei den Samsung 226BW mit den unterschiedlichen Panels.
Ich freu mich schon:biggrin:

Ritter Sport Nugat
2007-11-06, 16:15:29
Das wird bestimmt lustig wenn keiner weiss was genau nun in der Schachtel ist :)

wird wohl wie beim überraschungsei - in jeder 7 packung ist eine von flextronics drin.

K4mPFwUr$t
2007-11-06, 16:25:37
@Ritter Sport Nugat
wenn alle 50.000 samples verkauft wurden und die RMA fälle eingeschmolzen wurden, kann davon ausgegangen werden das die chance auf flextronics PCB steigt ;D

Gast
2007-11-06, 16:27:22
Wieso, Foxconn baut doch auch weiterhin welche...

K4mPFwUr$t
2007-11-06, 16:31:17
hieß es denn nicht das foxconn die erste lieferung übernahm, weil auf die schnelle kein anderer die PCBs liefern konnte?

edit:

Therefore, the next batch of cards will come from Flextronics but it will be mixed with the cards that comes from Foxconn and PC partner and it will be almost impossible to recognize which one you are getting. Rabbit in the box, of course.

Gast
2007-11-06, 17:49:21
Woran erkennt man denn eine Karte von Foxconn? Steht das irgendwo auf der Platine drauf?

K4mPFwUr$t
2007-11-06, 18:03:55
auf den bildern der foxconn PCB ist leider nichts ersichtlich. es wird also wie mit dem ü ei.

mitte november sollen dann 3 verschiedene PCB versionen verfürbar sein

- foxconn
- flextronic
- PC Partners inc.

robbitop
2007-11-06, 18:21:41
Laut Geizhals kommen die Dinger erst Ende November an. Verfügbarkeit der Shops ist zwischen dem 21.11. und 27.11. angekündigt. Plus 2-3 Tage Versand. Also man kann derzeit wirklich von Ende November sprechen.

Godmode
2007-11-06, 18:25:57
Laut Geizhals kommen die Dinger erst Ende November an. Verfügbarkeit der Shops ist zwischen dem 21.11. und 27.11. angekündigt. Plus 2-3 Tage Versand. Also man kann derzeit wirklich von Ende November sprechen.

Habe heute nochmal bei meinem Shop angerufen und sie bestätigten mir, dass die Karten erst am 27.11 wieder verfügbar sind. Leider habe ich per Vorkasse bestellt und muss nun warten :(

seahawk
2007-11-06, 18:28:32
auf den bildern der foxconn PCB ist leider nichts ersichtlich. es wird also wie mit dem ü ei.

mitte november sollen dann 3 verschiedene PCB versionen verfürbar sein

- foxconn
- flextronic
- PC Partners inc.

Nein, 1 PCB von 3 Herstellern, sofern kein IHV ein eigenes Boarddesign einsetzt. (was z.B. Pallit tut)

K4mPFwUr$t
2007-11-06, 18:43:01
@seahawk
also wird man nicht davon ausgehen können das es änderungen am design geben wird.
besonders im hinblick auf die spawa.

Gast
2007-11-06, 18:46:05
Wenn das PCB gleich ist, nur von verschiedenen Herstellern, warum sollten dann Foxconn Karten schlechter sein als welche von Flextronics? Nimmt Foxconn schlechtere Bauteile?

Hvoralek
2007-11-06, 19:07:28
Das wird bestimmt lustig wenn keiner weiss was genau nun in der Schachtel ist :)Dazu kommen ja noch die zwei Versionen der 640er- GTS. Braucht Nvidia nicht allmählich eine Lizenz zum Betrieb eines Glücksspielunternehmens? ;D

Nakai
2007-11-06, 19:47:02
willst du damit andeuten ihr habt die karte schon auf dem Prüfstand und sie rockt?

Das hat er niemals behauptet. AMD wird die Karte an den derzeitigen G92 natürlich anpassen.

Habe heute nochmal bei meinem Shop angerufen und sie bestätigten mir, dass die Karten erst am 27.11 wieder verfügbar sind. Leider habe ich per Vorkasse bestellt und muss nun warten

Klingt schlecht, hat wohl NV einiges daran gesetzt genug Samples für den Launch zu produzieren.


mfg Nakai

seahawk
2007-11-06, 20:29:42
@seahawk
also wird man nicht davon ausgehen können das es änderungen am design geben wird.
besonders im hinblick auf die spawa.

Am Referenz - nein. Allerdings kann das Referenzboard ja auch 3phasig bestückt werden. Zusätzlich haben einige Hersteller eigenen PCBs entwicklet afaik.

Es ist halt nicht so, dass 1 Boardhersteller nur 3-phasig baut und die anderen nicht. Foxconn kann durchaus Standard-PCBs bauen ubnd Flextronic 3-phasig oder umgekehrt, dass hängt allein vom Auftrag des IHVs ab. Man dürfte es sagen können, wenn man die neuen Rev. sieht. Wie gesagt, bei Pallit ist es gegenwärtig sicher.

Gibt aber imho auch genug andere Kandidaten, die gerne vom Referenzdesign abweichen. und OC Versionen anbieten. EVGA wäre eine Kadidat. Kann ich aber noch nicht sicher sagen, auch wenn deren neue Rev. anders als die erste Lieferung aussehen soll.

Hvoralek
2007-11-06, 20:42:12
Das hat er niemals behauptet. AMD wird die Karte an den derzeitigen G92 natürlich anpassen.Wo soll ATI groß etwas angepasst haben? Abgesehen vom Preis natürlich :D

Aber gut, die Aussage, RV670 sei voraussichtlich das beste ATI- Produkt dieses Jahres, heißt wirklich nicht allzu viel.

-/\-CruNcher-/\-
2007-11-06, 20:44:05
Also was mich ja brenend intressiert ist wo das AVG Overclocking mit den 1 Batch boards liegt (stock cooler) so wie man das überall liest müsste das irgendwo bei 660-700 liegen, weil bei Hwluxx hat jemand beim Zotac support wegen dem PCB angefragt und die Antwort ist intressant diesbezüglich.


Hello Zotac-Team!

I just read about the rumors about the new nvidia 8800GT and its
"beta"-Foxconn PCB-Layout with just 2 Phase Power-Supply. I read about a
few fume-offs even with non-overclocked 8800GT cards. Yesterday i ordered a Zotac 8800GT, which is already on its way to me. What do you suggest? Are these rumors just fanboy-writings or is it better to wait for the forecast
new PCB-Layout of the 8800Gt by Flextronics with a 3 Phase Power-Supply?
Im about to send my 8800GT back to the distributor.
What do you suggest? Please, Zotac-Team, be honest, should i wait for the updateted Flextronic-PCB-Layout?

Cheers!
xxx


Dear Sir,

The Zotac card is designed by PC Partner Limited, not Foxconn. Normally,
the Overclock is not a guaranteed feature, excepts the "AMP series".
There are two models for the 8800GT series.
GeForce 8800GT - 512MB GDDR3, AMP! Edition (SKU#: ZT-88TES2P-FCP)
GeForce 8800GT - 512MB GDDR3 (SKU#: ZT- 88TES2P-FSP)
If you need overclock version, please select the AMP version. The AMP
version is overclocked. If you are going to overclock by yourself, the
overclock margin should be not much (or no more).

For the cards information, you could refer
http://www.zotac.com/gf8800GT.htm

B.rgds
Peter Tang


Wird hier etwa versucht nur der höhere Preis für die übertakteten Karten zu rechtfertigen, indem man den Kunden sagt er soll es vergessen zu übertakten lol, passt irgendwie nicht zu Nvidias Shaderclock Freigabe Strategie :D


If you are going to overclock by yourself, the
overclock margin should be not much (or no more).

Das stimmt jedenfalls nicht ein Stück, gegenüber was man so alles in Foren liest stellt dies ein ganz anderes Bild da.

und mit Overvolt gehts da schon in die 850er bereiche bei manchen.

Allerdings könnte man sich auch vorstellen das Nvidia 50.000 sehr gute Chips anfangs rausgehauen hat um die 8800 GT sehr gut aussehn zu lassen hehe wird intressant mit dem nächsten batch zu vergleichen :)

seahawk
2007-11-06, 20:50:19
Was ist daran interessant ? Sie raten zur ab Werk OC Version und versprechen kein OC für die normale Version. Was solle nsie auch sonst sagen ??

-/\-CruNcher-/\-
2007-11-06, 21:07:01
Also ich hab noch keinen gesehen der nicht über 650 gekommen ist und ergo mehr als 660*2.5=1650 lohnt sich nicht wirklick mehr mit Stock cooler.
Das sind schon 2 fps mehr im Vergleich ist die Zotac mit 4 fps mehr nicht wirklich Wirtschaftlich und zu überteuert.

seahawk
2007-11-06, 21:10:50
Und ? Das ist die Preispolitk von Zotac, was hat es mit der Karte ansich zu tun ? Ich vermute mal, dass Dir der grundsätzliche Unterschied eines Werks OC mit voller Garantie und einem selbstgemachten OC, schon bewußt ist.

-/\-CruNcher-/\-
2007-11-06, 21:16:49
Naja aber Nvidia garantiert das Overclocking den AIBs ja, wieso dann noch eine Overclockkarte wie die Zotac AMP kaufen ? (Den AIBs ist freigestellt den Overclock selbst zu bestimmen) das bedeutet doch wohl das Nvidia sich diesbezüglich ihrer Qualität sicher ist was das (sichere) Overclocking angeht (wo man aufpassen sollte ist beim Speicher da ist keine sicherheit mehr) auf den im Handel erhältlichen SKUs, also für micht ist das die reinste Veräppelung aber naja was der Kunde nicht weiss ;)

LovesuckZ
2007-11-06, 21:18:32
Also ich hab noch keinen gesehen der nicht über 650 gekommen ist und ergo mehr als 660*2.5=1650 lohnt sich nicht wirklick mehr mit Stock cooler.


Äh?

-/\-CruNcher-/\-
2007-11-06, 21:25:34
Ja dadrüber lohnt sich doch nur noch 700mhz und dann vergleich mal den Preis zwischen der MSI OC und Zotacs AMP ;)

Henroldus
2007-11-06, 21:26:21
SLI Benchmarks vs GTX (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4059&Itemid=1) by Fudzilla

Gast
2007-11-06, 22:40:57
Laut Geizhals kommen die Dinger erst Ende November an. Verfügbarkeit der Shops ist zwischen dem 21.11. und 27.11. angekündigt. Plus 2-3 Tage Versand. Also man kann derzeit wirklich von Ende November sprechen.

Bei unserem Großhändler stehen ab 14.11. die ersten GTs als lieferbar. Ich habe jetzt leider die zugangsdaten nicht parat, werde aber bis morgen schauen. Übrigens:
224€ EK brutto

Hvoralek
2007-11-06, 23:12:44
Naja aber Nvidia garantiert das Overclocking den AIBs ja [...]Selektiert Nvidia selbst besonders gute Chips und verkauft die separat? Ich dachte immer, die Platinenhersteller würden das auf eigene Gefahr machen.

-/\-CruNcher-/\-
2007-11-06, 23:17:56
jaein es scheint so als gibt es einen Sicherheitsbuffer den Nvidia definiert und den AIBs bei gewissen SKUs versichert für nen gewissen Aufpreis, alles da drüber tragen die AIBs das Risiko. Die 256mb version scheint da hinter zu liegen und wird wohlmöglich nicht so gut übertaktbar sein.
Das Shader Overclocking ist bei allen jetzigen Karten z.b sogar von Nvidia abgesegnet den AIBs gegenüber nur die entscheiden letztendlich ob sie es an den Kunden in form von Garantie teurer verkaufen ;)
Frag mich jetzt aber nicht wie hoch dieser Sicherheitsbuffer liegt aber allem anschein nach zwischen 600mhz-660mhz. Die Karten halten ja laut Nvidia offiziel 110W TDP aus und ne Stock läuft ca mit 100W also rechnen sie mit 10W Overclock wie es aussieht (mit dem Singleslot Lüfter) die Karte hält noch mehr aus mit Overvolt wie gesagt 1.3v ist jemand schon auf 850mhz GPU/2052mhz Shader gekommen (natürlich effektiverer Kühlung). Bei den neuen Ati Karten sieht alles danach aus das es genauso laufen wird da man ja mal von einer TDP von 135W ausgegangen ist und nun liegt sie komischerweise bei 105W wo sind nur die 30W (sollten für den HD3870 stock cooler kein problem darstellen) hin (könnten die vieleicht bei Overclockkarten landen hehe bin mir da fast sicher wir werden die 825mhz in ner Special OC Edition wiederfinden) ;)

Das ne menge noch in dem Chip steckt (G92) war ja schon früh bekannt ich erinnere nochmal


We managed to learn that GPU clock has surpassed 800 MHz and that company plans to deliver the boards depending on yields they will get. So far, launch clock could be anywhere between 800 and 850 MHz, with 812/3, 824/5 and 830/5 being usual suspects. This time around, there is no hurry and Nvidia knows they can afford the launch of GTS/GTX and wait for R680 to show up and launch the Ultra version as a counter attack.

Mit mehr Volt (stabilerem PCB) und besserer Kühlung dazu noch die restlichen Shader Cluster freigeschaltet aber Hallo, natürlich wird dann auch der Stromverbrauch steigen :D
Über den RV670 weiss man garnichts wenn man das in Lastern vergleichen würde sind bei Nvidia 20 von denen geleaked und bei ATI/AMD gerade mal im Vergleich ein PKW, das ist schon etwas komisch, entweder es gibt/gab nix intressantes bei AMD/ATI zu leaken oder aber die haben alle macht der Welt angestrengt das so wenig wie möglich leaked und das was geleaked ist scheint meistens absicht gewesen zu sein zum Teil auch sehr verwirend. Was Nvidia sehr gerne leaked scheinen infos über Konter Karten zu sein die man noch im Ärmel hat (siehe 8800 GTS G92 mit 128 sp die ATI dann wiederum mit der 3870 X2 (R680) kontern wird, ein Teufelskreis)

Gast
2007-11-07, 07:54:46
Mit Glück auf 8500GT Level. Eher darunter.Danke. Crysis spiele ich mit der Karte mit Texturen auf low, Shader auf Medium und sonst alles auf High in 800x600 mit etwa ~14fps - natprlich 0xAF und 0xAA :)

K4mPFwUr$t
2007-11-07, 08:06:23
@gast
macht das denn überhaupt noch spaß?
ich hab ein paar FPS mehr mit der x1950pro, trozdem will ich mir nicht vorstellen ob man den MP vernümpftig zocken könnte.

Gast
2007-11-07, 08:27:37
@gast
macht das denn überhaupt noch spaß?
ich hab ein paar FPS mehr mit der x1950pro, trozdem will ich mir nicht vorstellen ob man den MP vernümpftig zocken könnte. Was meinst Du warum ich in diesem Thread rumfleuche? :) MP interessiert mich generell zwar nicht die Bohne und selbst mit den Settings siehts Crysis noch besser aus als vieles andere (liebe Sichtweite), aber ich will mich da einfach verbessern...

AnarchX
2007-11-07, 08:39:48
Gigabytes eigendesignte 8800 GT:
http://img209.imageshack.us/img209/2696/gigabytegvnx88t512hp2c4em8.jpg

Gast
2007-11-07, 08:43:50
Och neee. Nen Zalman VF700. Wie innovativ. :rolleyes:

=Floi=
2007-11-07, 08:43:50
rofl 3phasen spannungsversorgung und noch einen alcu vf700
ich dachte nicht, dass dieser auch noch für die 8800gt geeignet ist

Gast
2007-11-07, 08:44:42
Immerhin 3 Phasen :lol:

K4mPFwUr$t
2007-11-07, 08:48:39
warum sollte der VF700 nicht reichen, wenn ein stock cooler für paar cent auch reicht?
aber das PCB layout gefällt mir schonmal mehr als das normale, was man bisher kennt.

Gast
2007-11-07, 09:10:30
Was hat die Anzahl der Phasen mit der Qualität zu tun? Was ist besser? Habe das bei Mainboards auch schon mal gehört...

K4mPFwUr$t
2007-11-07, 09:27:27
je mehr phasen eine graka/board hat destop stabiler sind die spannungen (in der theorie). zumal das ganze sich besser übertakten sollte.

Gast
2007-11-07, 09:29:30
Soviel zur Notwendigkeit den Speicher und die SpaWas zu kühlen...

Merkor
2007-11-07, 09:37:49
Soviel zur Notwendigkeit den Speicher und die SpaWas zu kühlen...

Wieso? Der Zalman fächert denen doch fleißig Luft zu. Das reicht offenbar. Darf nur der Kühler nicht verdrecken, was bei Zalman in einem staubigen Zimmer leicht passieren kann... ;)

dargo
2007-11-07, 09:39:25
Warum verbaut Gigabyte zwei Lüfteranschlüsse? Kommt da etwa noch eine "Monsterkühlung" für zb. die zukünftige G92GTS mit diesem PCB? :D

AnarchX
2007-11-07, 09:41:39
Warum verbaut Gigabyte zwei Lüfteranschlüsse? Kommt da etwa noch eine "Monsterkühlung" für zb. die zukünftige G92GTS mit diesem PCB? :D

Das oben ist wohl eher der Anschluss für SP/DIF um dann Bild+Ton über HDMI auszugeben.

Gast
2007-11-07, 09:53:43
Die Karte ist wesentlich kürzer als die normale 8800GT...

Gast
2007-11-07, 09:54:32
Also ne, sieht einfach Banane aus. Mir gefallen die Referenzkarten mit Stockkühler rein optisch deutlich besser.

Gast
2007-11-07, 15:44:47
GigaByte hat doch selbst eigene VGA-Kühler im Programm, den V-Power z.B.

Muss man das verstehen dass die dann lieber nen Zalman nehmen und ned ihren eigenen?

http://www.pretaktovanie.sk/obr/gygaV2.jpg

JaniC
2007-11-07, 16:22:25
Wenn's da mal nicht zum Streit mit Shell kommt ;)

KinGGoliAth
2007-11-07, 16:23:16
hm. sieht irgendwie aus wie der kühler der 7900 gto.

http://img410.imageshack.us/img410/2403/7900gto15fo5.jpg

Gast
2007-11-07, 16:31:02
Was ja ned das schlechteste wäre :)

Endorphine
2007-11-07, 16:42:49
Konzeptionell ist die 7900GTX/GTO-Kühlerkonstruktion aber nicht so toll. Der Axiallüfter arbeitet nicht effizient, da die Luft radial umgelegt wird. Und da, wo die Kühlrippen am wichtigsten sind - direkt über der GPU -- sitzt der Lüfter und wird angeheizt. Und eine Hälfte des Abluftstroms wird in's Rechnerinnere geleitet, statt nach außen.

Der G80-Kühler gefällt mir irgendwie deutlich besser für ein Dualslot-Design.

KinGGoliAth
2007-11-07, 16:53:50
Und da, wo die Kühlrippen am wichtigsten sind - direkt über der GPU -- sitzt der Lüfter und wird angeheizt.

darum ja die heatpipes. ;)

zu meckern gab es bei dem kühler in der praxis aber eher wenig. auch unter last sehr leise und die temps waren auch sehr gut.

Merkor
2007-11-07, 17:44:20
Konzeptionell ist die 7900GTX/GTO-Kühlerkonstruktion aber nicht so toll. Der Axiallüfter arbeitet nicht effizient, da die Luft radial umgelegt wird. Und da, wo die Kühlrippen am wichtigsten sind - direkt über der GPU -- sitzt der Lüfter und wird angeheizt. Und eine Hälfte des Abluftstroms wird in's Rechnerinnere geleitet, statt nach außen.

Die Hitze direkt über der GPU wird über die Heatpipes an die Kühlrippen geleitet. Einzig negativer Punkt (wenn überhaupt) ist, dass die Hälfte der Abwärme im Inneren verbleibt; jedoch immer noch wesentlich besser als der Standardkühler der GT. Ich habe die 7900GTO und der Kühler ist effizient und sehr leise. Eine 8800GT mit dem Kühler würde ich definitiv kaufen.

Selber am Kühler basteln kommt für mich aus Gewährleistungs-/Garantiegründen nicht in Frage...

Sahas
2007-11-07, 23:32:46
OMG, habe gerade gelesen, daß die Zotac Amp! erst am 27.12. wieder lieferbar sein soll, so hat es cyberport jedenfalls gelistet.

Dann kann man sich auch bei den anderen Modellen auf Wartezeiten von 4-6Wochen gefasst machen.

Naja, echte Rotzkacke halt. Hätte ich ne Ersatzgraka, würde es mich ja auch gar nicht jucken, aber jetzt kommt Crysis.

Muß ich Konsole zocken gehen.

Spasstiger
2007-11-07, 23:42:29
Weiß schon jemand, welche Spielebundles den Karten bei verschiedenen Herstellern beiliegen? Crysis im Bundle wäre sehr interessant. :)

Das Auge
2007-11-08, 00:45:21
Mal ne kurze Frage: Ist eigentlich bei einem der über den Treiber einstellbaren AA-Modi einer mit SS-Anteil dabei (so wie 8xS beim G7x) oder geht das nur über den nhancer?

-/\-CruNcher-/\-
2007-11-08, 00:56:00
Es scheint so als kommt auch ne neue Zotac AMP mir ist da gerade mal was aufgefallen ;)

ZT-88TES2P-FCP (die jetzige Refernzkarte AMP)
ZT-88TES3P-FCP ( die neue 3 phasen AMP ???)

ZT-88TES2P-FSP (die jetzige Refernzkarte)
ZT-88TES3P-FSP (die neue 3phasen Refernzkarte ?)

nun also verdichtet sich die vermutung das Nvidia einfach nur schneller sein wollte als AMD/ATI deswegen mal kurz 50.000 2phasen Karten Produziert für die die einfach nicht warten können und vor allem bereit sind super preise zu zahlen, schlaue taktik somit ist man ATI voraus und macht nochmal ordentlich Umsatz um seine Reserven für den richtigen Preiskampf aufzustocken und die AIBs können ihre Karten danach billiger raushauen, die richtigen AIBs nicht die möchtegern reseler wie XFX, Bfgtech und wie sie alle heisen :D

Tigershark
2007-11-08, 01:41:07
nun also verdichtet sich die vermutung das Nvidia einfach nur schneller sein wollte als AMD/ATI deswegen mal kurz 50.000 2phasen Karten Produziert für die die einfach nicht warten können und vor allem bereit sind super preise zu zahlen, schlaue taktik somit ist man ATI voraus und macht nochmal ordentlich Umsatz um seine Reserven für den richtigen Preiskampf aufzustocken und die AIBs können ihre Karten danach billiger raushauen, die richtigen AIBs nicht die möchtegern reseler wie XFX, Bfgtech und wie sie alle heisen :D

Nur dass NV die Karten nicht baut. Die Boards kommen von Foxconn und es gibt ja auch jetzt schon welche mit 3 Phasen....alles Spekulation :)

Gast
2007-11-08, 02:04:20
Blöde Frage. Woran erkenn ich eigentlich wieviel Phasen eine Karte hat ?

-/\-CruNcher-/\-
2007-11-08, 02:42:39
http://www.pcgameshardware.de/?article_id=620298 <-soviel zu Spekulation ;)

seahawk
2007-11-08, 07:17:14
Was für ein Quatsch. In der Preisregion ist es völlig normal, dass die IHVs auf eigene PCBs und Kühllösungen setzen, nach einer gewissen Zeit mit den Referenzboards. Hier lohnt sich durch die Menge der Aufwand.

Wobei auch EVGA wohl ab jetzt 3 Phasen haben wird.

Produktbezeichnung alt : 512-P2-E801-AR
Produktbezeichnung neu : 512-P3-E801-AR

AnarchX
2007-11-08, 08:37:40
Eine 256MB Gainward mit interessantem Kühler:
http://publish.it168.com/2007/1108/20071108013101.shtml

ShinyMcShine
2007-11-08, 11:19:45
Die Gainward 8800GT (http://publish.it168.com/diy/showBigPic.asp?cDocid=20071108013101&picid=730162.jpg) hat fast die identische Kühlerkonstruktion wie die Gainward 7900GS AGP 512MB in meinem Zweitrechner. Mit der Lautstärke des Lüfters (könnte vom Aussehen her derselbe sein) bin ich sehr zufrieden. Der Kühlkörper ist auch sehr massiv!

AnarchX
2007-11-08, 12:04:42
Wenn man die sinnlose(?) Abdeckung wegnimmt, ist da ja eigentlich der gleiche Kühler wie bei der 3-Phasen Palit:
http://publish.it168.com/2007/1108/20071108013101.shtml
http://img152.imageshack.us/img152/1604/730163wa7.jpg
http://img86.imageshack.us/img86/3650/palit8800gtno2.jpg


... kein Wunder, da ja Palit und Gainward zusammengehören.;)

Aber das Teil sieht ziemlich interessant aus: massiver Kühlkörper mit Heatpipes und in der Mitte ein ziemlich großer Lüfter
http://img152.imageshack.us/img152/1005/729678wx0.jpg
http://publish.it168.com/diy/showBigPic.asp?cDocid=20071108013101&picid=729678.jpg

Hat etwas vom 7900GTX-Kühler...

Jetzt noch 1GiB, da ja Gainward für Mehrspeicher-Varianten bekannt ist und ein Preis von =< 250€. =)

jorge42
2007-11-08, 12:30:00
Die Gainward 8800GT (http://publish.it168.com/diy/showBigPic.asp?cDocid=20071108013101&picid=730162.jpg) hat fast die identische Kühlerkonstruktion wie die Gainward 7900GS AGP 512MB in meinem Zweitrechner. Mit der Lautstärke des Lüfters (könnte vom Aussehen her derselbe sein) bin ich sehr zufrieden. Der Kühlkörper ist auch sehr massiv!

na ja sinnlos ist sie nicht, weil die abdeckung die Luft zur einen Seite über die inneren Kühlrippen und zur anderen Seite nach draussen führt.

Gast
2007-11-08, 12:30:50
Hat die Gainward Karte denn auch drei Phasen?

AnarchX
2007-11-08, 12:35:20
Hat die Gainward Karte denn auch drei Phasen?

Sieht jedenfalls danach aus, wenn man sich die Karten anschaut.

K4mPFwUr$t
2007-11-08, 12:47:49
schlussfolgerung:
palit gibt ja an bei der obrigen graka eine 3 phasen spawa zu bringen. da sie bisher nicht verfürbar ist, ist es schonmal keine von den bisherigen layouts. zumal in den letzten tagen ja andere "codes" auftauchten für die gleichen grakas. jedeglich die phasenanzahl war unterschiedlich (2 zu 3).

und da gainward und palit zusamengehören, wird die gainward drei haben (die neue).

KinGGoliAth
2007-11-08, 18:11:10
wie kann der durchschnittliche nerd denn erkennen, zu welcher gruppe seine grafikkarte gehört? jetzt mal abgesehen von spielereien bei der modellbezeichnung.

€:
z.b. auf dem letzten bild von hier:
http://publish.it168.com/2007/1108/20071108013101.shtml

die dreifache ausführung = 3 phasen?
oder sogar 4? oder ist die 4. für den ram?
fragen über fragen...

GeneralHanno
2007-11-08, 19:07:45
stichwort passive GT:

Ein VGA-Hersteller, der nicht genannt werden möchte, hat uns mitgeteilt, dass eine passive Kühlung bei der Geforce 8800 GT auf Dauer definitiv nicht funktioniert, da die Hitzeentwicklung für passive Kühllösungen einfach zu groß ist. Tests mit ersten Herstellerkarten lassen uns an dieser Aussage nicht zweifeln, schließlich erreichen selbst aktiv gekühlte 8800-GT-Karten eine GPU-Temperatur von über 90 Grad Celsius. Eine passive Kühlung dieser Grafikkarte ist für mich undenkbar und für kein System empfehlenswert.

quelle: PCGH

AnarchX
2007-11-08, 19:19:43
Ist halt eine Frage der Dimensionierung der Passivkühlung. ;)

Endorphine
2007-11-08, 23:45:38
Tests mit ersten Herstellerkarten lassen uns an dieser Aussage nicht zweifeln, schließlich erreichen selbst aktiv gekühlte 8800-GT-Karten eine GPU-Temperatur von über 90 Grad Celsius. Die Schlussfolgerung ist falsch. Die 90°C der Referenzkühlerkarten sind offensichtlich eine bewusste Entscheidung Seitens nVidia, um den Lärm des Single-Slot Referenzkühlers zu minimieren. Das sagt überhaupt nichts über die elektrische Leistungsaufnahme der Karte aus. Und nur diese ist relevant für eine Passivkühlung, da diese dauerhaft zuverlässig abgeführt werden muss. Zudem ist auch überhaupt nicht bekannt, für welche maximale Kerntemperatur der G92 auf der 8800GT spezifiziert ist.

LovesuckZ
2007-11-08, 23:49:04
100° ist die Höchsttemperatur, wo die Karte noch mit voller Taktung arbeitet.

Gast
2007-11-08, 23:49:34
Und nur diese ist relevant für eine Passivkühlung, da diese dauerhaft zuverlässig abgeführt werden muss.
Du hast noch den IHS vergessen.
Ein G80 zb. dürfte auch wenn er genau soviel verheizen würde, immer noch schwerer auf die selbe Temperatur wie ein G92 zu bringen sein.

Dr.Dirt
2007-11-09, 00:34:10
Ein G80 zb. dürfte auch wenn er genau soviel verheizen würde, immer noch schwerer auf die selbe Temperatur wie ein G92 zu bringen sein.
Hmm, irgendwie unlogisch, ein G80 verheizt doch mehr. :confused:

Tigershark
2007-11-09, 01:09:53
Hmm, irgendwie unlogisch, ein G80 verheizt doch mehr. :confused:

G80 ist aber 90nm im Vergleich zu 65 beim G92 (von geringerem Takt und Transistorenzahl jetzt mal abgesehen).

Gast
2007-11-09, 11:40:25
Hmm, irgendwie unlogisch, ein G80 verheizt doch mehr. :confused:
Ich meinte auch "wenn".
In meinem Gedankenexperiment.

Vergleiche einen Chip mit IHS und den selben ohne. Du wirst sehen, das der IHS
ein kühltechnischer Nachteil ist.

Gast
2007-11-09, 11:49:59
Jetzt noch 1GiB, da ja Gainward für Mehrspeicher-Varianten bekannt ist und ein Preis von =< 250€. =)
Für 1GiB müsste doch das Boarddesign verändert werden.
Insgesamt bräuchte man dann 16 Chips, verteilt auf Vorder und Rückseite.

Bei einer 7900GT hatte eine 256MiB Variante einseitig bestückt 8 Chips.
Die 512MiB Variante (oder teilweise auch 7950GT) hatte exakt die selbe Bestückung.
(außer Palit mit dem veränderten Layout)


Also billig kann die 1GiB Version gar nicht werden. Sie muss lediglich billiger als die neue GTS werden.

AnarchX
2007-11-09, 11:53:21
Für 1GiB müsste doch das Boarddesign verändert werden.
Insgesamt bräuchte man dann 16 Chips, verteilt auf Vorder und Rückseite.


Nein:
HYB18H1G321AF-11 1Gb, 32Mx32, 900MHz, 1.8V, available 3Q07
http://www.qimonda.com/graphics-ram/gddr3/index.html

;)

Gast
2007-11-09, 11:55:45
Interessant finde ich die Preise... die 2. schnellste GT von Zotac ist mittlerweile bei fast 200€ angekommen. :eek:

Damit ist sie günstiger als die meisten Standard-GT. Wie kommt denn das zustande?

Die schnellste von EVGA ist mit 248€ aktuell auch noch ganz gut im Rahmen, es waren mal fast 300€...

Gast
2007-11-09, 11:57:17
Ist eh nirgends lieferbar, da kann ich dann auch 134,- Euro hinschreiben.

Steffko
2007-11-09, 12:36:10
Ich hab mir jetzt einfach mal so ne Zotac AMP für ~223€ inkl. Nachnahmeversand bestellt. Kann ja letztlich nicht viel schiefgehen, wenn es irgendwann heißt, dass sie ewig lange Lieferzeiten haben, wird sie halt storniert.