Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 3
Anarchy-HWLUXX
2007-11-19, 17:19:32
um mal die phasen-diskussion neu zu entfachen:
http://www.xtremesystems.org/forums/showpost.php?p=2565611&postcount=80
ich höre jetzt schon die ersten leute das massensterben bei der GTS prophezeien ;)
aber spass beseite: wenn nvidia 2 phasen für die GTS als ausreichend erachtet, wird es für die GT alle mal reichen.
Wurd scho letzte woche gezeigt ...
und dieses armselige rumgeheule der selbsternannten propheten nervt :ubash3:
Die_Allianz
2007-11-19, 17:51:04
G9x ist doch die neue Generation, im Januar/Februar wird es dann imo GF9800 mit einem voll ausgereizten G92 geben...
oder so ein 2xG92-Krüppel... wollen wir es nicht hoffen.
Anarchy-HWLUXX
2007-11-19, 18:46:05
Ömm ? G92 ist doch ausgereizt mit der G92-GTS, jedenfalls was hardware angeht ...
Ich geh jedenfalls von einer GX2 aus als konter zur AMD X2 Karte ...
Wieso ?
- Billig
- Machbar
- Schnell
- Konkurrenz setzt auch auf doppel GPU (wobei das wirklich hinten an steht -> siehe 7900GX2)
@ Alli -
Ich hab ne 7950GX2 im rechner, an der ist nix krüppeliges :P
Die_Allianz
2007-11-19, 18:51:45
@ Alli -
Ich hab ne 7950GX2 im rechner, an der ist nix krüppeliges :P
ist das nicht SLI, nur auf einer karte? so hatte ich da in erinnerung.
dann muss das game sli unterstützen, der treiber das game unterstützen, und dann soll ich man sich auch noch selbst um die config kümmern, bits setzen und hoffen das es läuft.
Edit:
und die Ruckelei nicht zu vergessen, die Tombman aufgedeckt hat.
Also bitte: lieber ne anständige single-gpu high-end karte, als sowas zusammengeklatschtes
Habe ich doch oben schon verlinkt. Geh doch einfach mal drauf und skroll runter :wink:
Bei AF skall Test.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
Naja, ein paar Spiele mehr hätten sie ruhig testen können, aus nur 3 Spielen eine Aussage über die AA-Akalierung zu machen ist schon sehr gewagt. Man sieht ja, daß der Verlust schon stark vom Spiel abhängt.
AnarchX
2007-11-19, 19:04:21
Ömm ? G92 ist doch ausgereizt mit der G92-GTS, jedenfalls was hardware angeht ...
Beim Speicher mit 970MHz sicherlich nicht, da gab es ja noch die Gerüchte mit 1.6GHz GDDR4.
Und bei der GPU bezweifele ich, dass 650/1650MHz das Maximum darstellen(denke da eher an ~800/2200MHz für eine High-End-SKU...).
Ich hab ne 7950GX2 im rechner, an der ist nix krüppeliges :P
Eine GX2 mag zwar noch gehen, aber Enthusiasten wollen aber mehr und da sind 4 oder 6 GPUs momentan eher suboptimal.
Zudem sollte man noch bedenken, dass G92 300mm² groß ist und nicht wie G71 und RV670 ~190mm².
Auch sollte die GX2 auch schon effektive 1GiB Speicher anbieten, was dann 2x1GiB bedeuten würde.
Imo würde man da wohl bei $899-999 herauskommen bei einer G92-GX2.
Wegen der ram verdopplung 600$ mehr als 2 8800gt? :D
AnarchX
2007-11-19, 19:26:54
Wegen der ram verdopplung 600$ mehr als 2 8800gt? :D
Wenn dann würde man wohl eher einen 128SP-G92 verbauen und entsprechend schnellen Speicher, wodurch die 3870 X2 deutlich übertroffen werden sollte, was man sich dann halt bezahlen lässt.
Aber ich glaube manche überschätzen die 3870 X2, selbst AMD scheint hier nicht besonders optimistisch:
http://img101.imageshack.us/img101/3521/file56f4894nn7.jpg
Imo würde dagegen ein G92(128SPs/64TMUs)@650-700(1600-1800MHz) + 1GiB Speicher reichen, alles andere wäre auch wohl nicht unbedingt förderlich für die Marge, wenn AMD hier schon $399 ansetzen will.
James Ryan
2007-11-19, 19:32:36
Wow, wahnwitzige 15% mehr Leistung als eine 1 Jahr alte Ultra... :eek: :|
MfG :cool:
sieht im Diagramm zwar viel aus aber im Moment bekleckert sich AMD wirklich nicht mit Ruhm gerade wenn man sich die Phenoms ansieht...
=Floi=
2007-11-19, 20:08:51
immerhin ist sie nur 42,5% langsamer, wenn der nachfolger dann im frühjahr nur! doppelt so schnell wie die ultra ist!!!
scnr
sklave_gottes
2007-11-19, 20:20:11
Ömm ? G92 ist doch ausgereizt mit der G92-GTS, jedenfalls was hardware angeht ...
Ich geh jedenfalls von einer GX2 aus als konter zur AMD X2 Karte ...
Wieso ?
- Billig
- Machbar
- Schnell
- Konkurrenz setzt auch auf doppel GPU (wobei das wirklich hinten an steht -> siehe 7900GX2)
@ Alli -
Ich hab ne 7950GX2 im rechner, an der ist nix krüppeliges :P
Krüppeliges ist das auch nicht, aber von Toll ist die Karte auch weit entfernt, selbst eine ATi Radeon X1950 XTX ist laut CB unter 1280x1024 4aa/16af 45% schneller. Ich halte von dual Karten auch sehr wenig wenn ich erlich bin.
Ich finde es auch alles andere als gut das ATI auf eine dual karte setzten muss, aber anscheinend gehts nicht anders. Die Grünnen haben da mehr möglichkeiten und ich Hoffe das die lieber eine sehr schnelle singel Karte raus bringen siehe AnarchX.
Zitat von Gast
Naja, ein paar Spiele mehr hätten sie ruhig testen können, aus nur 3 Spielen eine Aussage über die AA-Akalierung zu machen ist schon sehr gewagt. Man sieht ja, daß der Verlust schon stark vom Spiel abhängt.
@gast 19.00uhr
Lese den Artikel doch mal ganz durch, wenn dich das so interesiert.
Am Performancerating Qualität siehst du auch da schön, dass die ATI Karten zwischen 4aa und 8aa viel weniger leistung verlieren. Und da wurden mehr als "nur" 3 Spiele getestet. Nimms hin oder zeige mir das Gegenteil.
Zitat von AnarchX
Imo würde dagegen ein G92(128SPs/64TMUs)@650-700(1600-1800MHz) + 1GiB Speicher reichen, alles andere wäre auch wohl nicht unbedingt förderlich für die Marge, wenn AMD hier schon $399 ansetzen will.
Hmm da bin ich mir nicht so sicher. Denn gerade bei hohen Auflösungen mit 8aa kommt schon eine singel HD3870 der g80@Ultra sehr nahe (1600x1200 8xAA/16xAF), b.z.w. überholt diese ab 2560x1600.
Für mich selber wäre eine dual Karte aber so und so nie erste wahl aus bekannten Gründen.
mfg martin
reunion
2007-11-19, 20:25:31
Aber ich glaube manche überschätzen die 3870 X2, selbst AMD scheint hier nicht besonders optimistisch:
http://img101.imageshack.us/img101/3521/file56f4894nn7.jpg
Imo würde dagegen ein G92(128SPs/64TMUs)@650-700(1600-1800MHz) + 1GiB Speicher reichen, alles andere wäre auch wohl nicht unbedingt förderlich für die Marge, wenn AMD hier schon $399 ansetzen will.
Gerade bei einer solchen Dual-Karte sind irgendwelche Durchschnittswerte vollkommen wertlos. Man braucht sich ja nur aktuelle Tests anzusehen. Teilweise kommt ja schon eine Single 3870 verdammt nah an die 8800U ran. Wenn AFR richtig funktioniert, wird die X2 fast überall klar an der 8800U vorbeiziehen. Wenn nicht, wird sie geschlagen.
AnarchX
2007-11-19, 20:29:56
Gerade bei einer solchen Dual-Karte sind irgendwelche Durchschnittswerte vollkommen wertlos. Man braucht sich ja nur aktuelle Tests anzusehen. Teilweise kommt ja schon eine Single 3870 verdammt nah an die 8800U ran. Wenn AFR richtig funktioniert, wird die X2 fast überall klar an der 8800U vorbeiziehen.Wenn nicht, wird sie geschlagen.
Fragt sich nur warum AMD nicht solche Werte als Basis genommen hat... :|
"Up to 50-60%" sähen jedenfalls besser aus als 15%.
reunion
2007-11-19, 20:32:15
Beim Speicher mit 970MHz sicherlich nicht, da gab es ja noch die Gerüchte mit 1.6GHz GDDR4.
Richtig, beim Speicher wäre noch Reserven vorhanden, wobei 1.6Ghz GDDR4 doch "etwas" hoch angesetzt ist.
Zudem sollte man noch bedenken, dass G92 300mm² groß ist und nicht wie G71 und RV670 ~190mm².
Auch sollte die GX2 auch schon effektive 1GiB Speicher anbieten, was dann 2x1GiB bedeuten würde.
Imo würde man da wohl bei $899-999 herauskommen bei einer G92-GX2.
Ich geben dir recht. Eine GX2 auf G92 Basis ist verdammt unrealistisch. Zwei 315mm² Dice wären bei heute üblichen Marktpreisen ein Supergau. Natürlich könnte man so ein Ding um 999$ verkaufen, aber die Kühlung will ich auch erstmal sehen, wo schon die neue GTS bei 140W TDP liegt.
reunion
2007-11-19, 20:36:18
Fragt sich nur warum AMD nicht solche Werte als Basis genommen hat... :|
"Up to 50-60%" sähen jedenfalls besser aus als 15%.
Weil AMD das aus welchen Gründen auch immer nicht will. Schau dir die Vorabbenchs von AMD zu R600, RV630 oder RV670 an, auch da sich tw. Ergebnisse dabei, welche die eigenen Karte sehr schlecht aussehen lassen. Ich hatte mich damals schon gewundert, und deshalb auch bezweifelt, dass diese Werte von AMD kommen. Auch der CF-Skalierungstest zu RV670 auf den AMD-Folien zeigt meist nur Steigerungen von vielleicht 50% und darunter, obwohl andere User durchaus schon 80% und mehr messen konnten.
dildo4u
2007-11-19, 20:36:43
Eigentlich dürfte doch schon die neue GTS für die X2 reichen.Ca 15% schneller dürfte die ja als die Ultra sein wenn man nicht zu hohe Auflösungen fährt.
F5.Nuh
2007-11-19, 20:37:44
Nein nicht 350€, sondern bis zu $349, was dann mit passender Verfügbarkeit im Januar wohl um die 300€ sein sollten.
G9x ist doch die neue Generation, im Januar/Februar wird es dann imo GF9800 mit einem voll ausgereizten G92 geben...
aber nicht die 512 mb version oder, wäre ja extrem bitter. Dachte die 1gb Version soll ca. 300€ kosten.
Gerade bei einer solchen Dual-Karte sind irgendwelche Durchschnittswerte vollkommen wertlos. Man braucht sich ja nur aktuelle Tests anzusehen. Teilweise kommt ja schon eine Single 3870 verdammt nah an die 8800U ran. Wenn AFR richtig funktioniert, wird die X2 fast überall klar an der 8800U vorbeiziehen. Wenn nicht, wird sie geschlagen.
Bis dahin bekommt man 2x8800GTX fürs gleiche Geld was eine X2 kosten wird. Eine GX2 hat Nvidia garnicht nötig. :-)
sklave_gottes
2007-11-19, 20:53:59
Eigentlich dürfte doch schon die neue GTS für die X2 reichen.Ca 15% schneller dürfte die ja als die Ultra sein wenn man nicht zu hohe Auflösungen fährt.
Ganz sicher nicht!
dildo4u
2007-11-19, 20:57:17
Ganz sicher nicht!
Im Schnitt schon Crossfire funzt nicht immer die GTS schon kommt halt auf die Games und die Anzahl der Crossfire Profile im Treiber von ATI an.
laser114
2007-11-19, 21:10:01
"Up to 50-60%" sähen jedenfalls besser aus als 15%.
Wenn ich mir die Folien zu Spider anschaue, gibt sich AMD da generell relativ bescheiden. Scheinbar möchte man nicht mehr unnötige Hypes lostreten.
Anarchy-HWLUXX
2007-11-19, 22:15:29
Beim Speicher mit 970MHz sicherlich nicht, da gab es ja noch die Gerüchte mit 1.6GHz GDDR4.
Und bei der GPU bezweifele ich, dass 650/1650MHz das Maximum darstellen(denke da eher an ~800/2200MHz für eine High-End-SKU...).
Wenn man nur die Taktraten hochbrezelt braucht es dazu kein neues Produkt - jeder Kartenhersteller könnte eine entsprechend Hoch getaktete GTS mit schnellem RAM rausbringen ... sowas wär höchstens eine 8900 GTX, mit dem G92 dürfte es keine 9800 oder ähnliches geben, da muss nen Hardwareseitig mächtigerer Chip her.
AnarchX
2007-11-19, 22:28:44
Wenn man nur die Taktraten hochbrezelt braucht es dazu kein neues Produkt - jeder Kartenhersteller könnte eine entsprechend Hoch getaktete GTS mit schnellem RAM rausbringen ... sowas wär höchstens eine 8900 GTX, mit dem G92 dürfte es keine 9800 oder ähnliches geben, da muss nen Hardwareseitig mächtigerer Chip her.
Naja, jeder Kartenhersteller hat aber nicht Zugriff ein mögliches GDDR4-PCB.
Dazu kommt noch, dass NV entsprechend selektieren kann und somit eben nur 128SPs-G92 als G92-400 herausgehen, die nur mit größten Anstrengungen den Takt des High-End G92 schaffen.
Und schliesslich ist noch die Sache, ob der G92 wohl doch nicht nur ein 256Bit SI hat...
Wie schon gesagt ~800/2200MHz GPU und 1GiB/768MiB 1.4-1.6GHz GDDR4 würde durchaus ein nette HighEnd-SKU ergeben, die man als Monopolist auch 9800 nennen kann, immerhin sind ja schon erste GF9 im Treiber aufgetaucht, die zum Teil auch noch auf G8x-GPUs basieren.
dargo
2007-11-19, 23:59:08
Nein nicht 350€, sondern bis zu $349, was dann mit passender Verfügbarkeit im Januar wohl um die 300€ sein sollten.
Es hieß ja 299-349$. Mich würde es nicht wundern wenn Ersteres für 512MB und Zweiteres eben für das 1GB Vram Modell gelten würde.
Anarchy-HWLUXX
2007-11-20, 03:07:34
Bling bling bling :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4290&Itemid=1
Dual G92 ...
Spasstiger
2007-11-20, 04:51:37
Jetzt bin ich mal gespannt, wieviel Speicher man der Karte spendiert. Mit nur 2*512 MiB wäre sie in Crysis @high @4xAA immer noch langsamer als eine einzelne 8800 GTX.
Ailuros
2007-11-20, 05:44:32
Ich geben dir recht. Eine GX2 auf G92 Basis ist verdammt unrealistisch. Zwei 315mm² Dice wären bei heute üblichen Marktpreisen ein Supergau. Natürlich könnte man so ein Ding um 999$ verkaufen, aber die Kühlung will ich auch erstmal sehen, wo schon die neue GTS bei 140W TDP liegt.
Lass mal die alberne Die-Size Knabberei zur Seite und zeig mir wie viele chips von dem Ding 6, 7 und 8 cluster genau schaffen. 6 kommen offensichtlich in den Schlepptop-Markt, 7 und 8 sind auch nicht unbedingt notwendig.
Was genau bekommst Du mit 2*6 cluster @=/>1.7GHz?
Es ist ja nicht gerade so dass eine jegliche dual-GPU von beiden IHVs in massiven Zahlen verkauft wird. Ein heutiger 8800GTX/Ultra Besitzer wird zu so einem Ding greifen oder dann doch lieber nochmal zu einer gleichen GPU fuer SLi greifen?
Um die 512MB Speichermenge und die Bandbreite wuerde ich mir auch keine besondere Sorgen machen; wo immer die jeglichen Fuellraten eines Gx2 Gespanns um reale 1.5-1.8x Mal steigern, steigert sich die Speicher- und Bandbreiten-Verbrauch auch mit.
***edit: was jetzt den MSRP betrifft, wollen wir wetten dass wenn NV zu so einer Loesung greift der Preis nicht hoeher als bei der vorigen GX2 sein wird? ;)
Ailuros
2007-11-20, 05:49:24
Und schliesslich ist noch die Sache, ob der G92 wohl doch nicht nur ein 256Bit SI hat...
Wuerde man nicht zumindest im G92 BIOS eine versteckte Indiz finden koennen die auf deaktivierte ROP-partitions deuten wuerde? Ich persoenlich hab das "4*64bit only" direkt vom Maul des Loewen, behalte aber stets eine winzige Vorbehaltung fuer jegliches moegliche Missverstaendnis.
Ailuros
2007-11-20, 05:56:36
Jetzt bin ich mal gespannt, wieviel Speicher man der Karte spendiert. Mit nur 2*512 MiB wäre sie in Crysis @high @4xAA immer noch langsamer als eine einzelne 8800 GTX.
Nein. Wird ein gutes Prozentual beim load-balancing erreicht, hasst Du theoretisch in solch einem Fall als einfaches Beispiel:
56+GTexels/s bilerp, ~75GPixels Z@4xAA, ~922MB Speicher,
~115GB/s Bandbreite @1GHz und natuerlich ~880GFLOPs.
Legt man sich jetzt etwas konservativer mit der Skalierung fuer Crysis spezifisch an, dann sind theoretische +50% im Vergleich zur GTX durchaus erreichbar. Schneller aber als 2*8800GTX dann natuerlich nicht ;)
Spasstiger
2007-11-20, 06:39:52
Nein. Wird ein gutes Prozentual beim load-balancing erreicht, hasst Du theoretisch in solch einem Fall als einfaches Beispiel:
56+GTexels/s bilerp, ~75GPixels Z@4xAA, ~922MB Speicher,
~115GB/s Bandbreite @1GHz und natuerlich ~880GFLOPs.
Legt man sich jetzt etwas konservativer mit der Skalierung fuer Crysis spezifisch an, dann sind theoretische +50% im Vergleich zur GTX durchaus erreichbar. Schneller aber als 2*8800GTX dann natuerlich nicht ;)
Seit wann greift SLI auf einen gemeinsamen Speicher zurück? Bei der 7950 GX2 war es jedenfalls nicht so.
Und Crysis-Benchmarks zeigen bei hohen Auflösungen mit AA ein eindeutiges Resultat:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/25/#abschnitt_crysis
1600x1200 high, 4xAA, 16:1 AF
GeForce 8800 GTX: 17,5 fps
GeForce 8800 GT: 7,9 fps
2*GeForce 8800 GT: schätzungsweise ~14 fps
Ich bin grad schwer am Überlegen, nicht doch die Next-Gen abzuwarten, denn Crysis in 1680x1050 high mit 4xAA wollte ich eigentlich schon spielbar haben (und die 8800 GX2 wird das wohl eher nicht packen, zumindest nicht mit 2*512 MiB Grafikspeicher). Als Übergang die 8800 GT sollte aber auch machbar sein, der Wertverlust dürfte sich im nächsten halben Jahr in Grenzen halten.
AnarchX
2007-11-20, 07:52:21
Bling bling bling :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4290&Itemid=1
Dual G92 ...
D8E ist aber schon G80GTS/GTX/Ultra, wenn dann kommt Anfang 2008 D9E, worüber auch VR-Zone berichtet hat.
Wuerde man nicht zumindest im G92 BIOS eine versteckte Indiz finden koennen die auf deaktivierte ROP-partitions deuten wuerde?
Ja, die Sache mit dem BIOS habe ich auch schon gehört.
Zur GX2:
2x512MiB wären, wie Spasstiger schon darstellt, ziemlicher Unsinn, erst recht wenn NV ihr Speichermanagment bis dahin immer noch nicht vernünftig laufen hat.
Und was ist mit Tri-SLI? ;)
Bling bling bling :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4290&Itemid=1
Dual G92 ...
Werden Dualkarten mal mehr als Lückenfüller,ohne Unterstützung sind solche Karten reine Geldverschwendung.
CPU´s haben auch einen klaren Schritt gemacht zu 2 und 4Kerne ,warum sind die Grakahersteller zu zimperlich ?
Anarchy-HWLUXX
2007-11-20, 08:43:56
Werden Dualkarten mal mehr als Lückenfüller,ohne Unterstützung sind solche Karten reine Geldverschwendung.
CPU´s haben auch einen klaren Schritt gemacht zu 2 und 4Kerne ,warum sind die Grakahersteller zu zimperlich ?
Weil mehrere kerne für ne graka schwachfug sind - es braucht mehr Shadercluster. Dual-GPU Lösungen bringen performance ohne das man abartig teure single DIE chips bauen muss, Lückenfüller kommt scho hin aba du willst auch keine 700€ für nen komplexes Shadermonster hinlegen.
reunion
2007-11-20, 10:08:23
Lass mal die alberne Die-Size Knabberei zur Seite und zeig mir wie viele chips von dem Ding 6, 7 und 8 cluster genau schaffen. 6 kommen offensichtlich in den Schlepptop-Markt, 7 und 8 sind auch nicht unbedingt notwendig.
Was spielt das für eine Rolle? Nur weil nV anscheinend hohe Ausfallraten hat, müssen sie diese teil deaktivierten Chips verkaufen. Auch bei nur sechs aktivierten Cluster gehen 315mm² pro Core drauf, wären bei einer Dual-Karte insgesamt 630mm² - das kann doch nicht mehr wirtschaftlich sein.
Was genau bekommst Du mit 2*6 cluster @=/>1.7GHz?
Ja, close to 1TFLOP nach nVs-Zählweise. Nur das würde man auch mit 8 Cluster x 2.4 Ghz wesentlich billiger bekommen.
Um die 512MB Speichermenge und die Bandbreite wuerde ich mir auch keine besondere Sorgen machen; wo immer die jeglichen Fuellraten eines Gx2 Gespanns um reale 1.5-1.8x Mal steigern, steigert sich die Speicher- und Bandbreiten-Verbrauch auch mit.
Schon die 8800GT hat massive Probleme mit dem VRAM. Spasstiger hat ja schon ein Beispiel unter vielen gebracht. Eine Dual Karte würde bei nur 2 x 512MB vermutlich desöfteren daran verhungern, da man damit natürlich weitaus höhere Auflösungen/AA-Stufen fahren kann.
***edit: was jetzt den MSRP betrifft, wollen wir wetten dass wenn NV zu so einer Loesung greift der Preis nicht hoeher als bei der vorigen GX2 sein wird? ;)
Gerne. Ich kann das nicht glauben.
reunion
2007-11-20, 10:46:13
BTW: Der Launch der neuen GTS wurde anscheinend vom dritten auf den 13ten Dezember verschoben:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4300&Itemid=1
Anarchy-HWLUXX
2007-11-20, 10:55:26
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4301&Itemid=1
Genug GPUs - aber nicht genug bauteile für die Stromversorgung :usad:
Henroldus
2007-11-20, 11:23:20
BTW: Der Launch der neuen GTS wurde anscheinend vom dritten auf den 13ten Dezember verschoben:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4300&Itemid=1
langsam k*tzt mich diese Liefersituation an.
Da will man sein Geld für gute HW ausgeben und sie ist nirgendwo verfügbar.
ich dachte die Paperlaunches sind vorbei aber da nehmen sich beide IHVs zur Zeit nicht viel.
Ich verkaufe auch einen neuen 5er BMW für 19.999€, Lieferzeit ist aber unbestimmt :(
BTW: Der Launch der neuen GTS wurde anscheinend vom dritten auf den 13ten Dezember verschoben:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4300&Itemid=1
Ist Fudzilla eine zuverlässige Quelle? Überall sonst hat es doch geheissen, die GTS wird am 03.12. gelauncht?
Anarchy-HWLUXX
2007-11-20, 12:33:39
Das 3.12. Datum war von nem Confidential-Slide ... se können den Termin ändern soviel se wollen denn der ist nicht Offiziell oder sonstwas - die meisen User wissen eh nix davon und die einzigen die sich aufregen sind die Freaks ...
PS : Manche leute müssen mal die bedeutung von "Paperlaunch" nachschlagen.
Henroldus
2007-11-20, 13:44:00
PS : Manche leute müssen mal die bedeutung von "Paperlaunch" nachschlagen.
ein paperlaunch ist die Vorstellung eines Produkts ohne dessen Verfügbarkeit auf dem Markt.
das es die 8800 GT zum start nur in homöopathischen dosen gab und momentan einige wenige nur zu Mondpreisen verfügbar sind, ist der Vergleich durchaus angebracht.
LovesuckZ
2007-11-20, 13:45:47
Schon die 8800GT hat massive Probleme mit dem VRAM.
Noe, hat sie nicht.
ein paperlaunch ist die Vorstellung eines Produkts ohne dessen Verfügbarkeit auf dem Markt.
Deswegen war der Launch der 8800GT kein Paperlaunch. Karte sind seit fast 4 Wochen erhältlich.
Anarchy-HWLUXX
2007-11-20, 13:48:32
ein paperlaunch ist die Vorstellung eines Produkts ohne dessen Verfügbarkeit auf dem Markt.
das es die 8800 GT zum start nur in homöopathischen dosen gab und momentan einige wenige nur zu Mondpreisen verfügbar sind, ist der Vergleich durchaus angebracht.
Paperlaunch == KEINE verfügbarkeit , das Produkt gibt es also garnicht am Markt selbst wenn man Mondpreise zahlen will ... 8800GT kannst jetzt bestellen und ist lieferbar, am launch Day konnte man bestellen und hat bekommen - folglich ist der Begriff komplett Falsch.
Such dir einfach nen neuen Schimpfbegriff der dann auch noch zutreffend ist ;D
reunion
2007-11-20, 14:23:17
Noe, hat sie nicht.
Doch hat sie.
dildo4u
2007-11-20, 14:31:03
Hier gibts doch schon SLI Tests mit der 8800GT 512mb das bricht erst bei dem absolut extremen Setting bei 2560*1600 mit 8XAA zusammen wobei sich die FPS whol auf alle Systemen dort bei aktuellen Games im unspielbaren Bereichen bewegen.1600*1200 mit 8XAA ist noch deutlich schneller als das 2900XT CF mit wesentlich mher Bandbreite und angeblich besserer V-Ram Nutzung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/25/#abschnitt_performancerating_sli_cf
Leider fehlt dort 2560*1600 mit 4x AA.
Aber das ein 8800GTX/Ultra gespannt schon mehr als Doppelt bis fast 3 mal so schnell ist sagt schon genug aus;)
Und es gibt durchaus genug spiele die in diesen Settings mit SLI /CF Spielbar sind!
dildo4u
2007-11-20, 14:52:54
Wayne die Auflösung kann man für Crysis und andere DX10 und Co Games eh vergessen auch mit einem GTX oder Ultra SLI.Ich finde die 8800GT hält sich da mit den 512mb erstaunlich lange gut immer 10% hinter dem GTX SLI.
Nich vergessen was eine GT und was eine GTX kostet ATI wird sich mit ihrer 3800 x2 schwer tun gegen das GT SLI vorallem weil Nvidia immer noch massig Erfahrungsvorsprung mit den SLI Profilen hat.
Crysis hat in 2560*1600 mit einer Radeon 10FPS mit 2 Karten und ein bissl oc biste da schon bei über 20 was schon fast flüssig ist in Crysis..
http://img.techpowerup.org/071120/rating 2560.jpg
http://img.techpowerup.org/071120/rating 2560cry.jpg
übrigens wurde das noch ohne Crysis Hotfix gebenchd ;)
MadManniMan
2007-11-20, 15:06:20
Doch hat sie.
Hört auf, von Schwarz und Weiß zu reden! Es ist doch komplett selbstverständlich, daß die GT mit ihren 2/3 des Speichers einer GTX früher in Schwulitäten kommt, als Karten mit mehr und später, als Karten mit weniger Speicher.
So mag Company of Heroes die GT ab 1600*1200 gar nicht mehr - wohlgemerkt schon ohne AA/AF.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
Anregung: das 3DCenter sollte bei Verfügbarkeit mal nen ausführlichen Speicherausbau-Vergleich aktueller Karten machen! Ergo 256/512/768/1024 MB bei nV und 256/512/1024 MB bei ATi - oder auch mehr, oder eben weniger.
Angaben wie "im Schnitt is ne 512er GT 20% schneller als ne 256er GT" nutzen uns nen Scheiß - es kann sein, daß die Karte zu Lebzeiten bei so manchem nicht einmal auf die Art und Weise gefordert wird, daß sie langsamer ist, oder aber ständig kränkelt, so daß 20% spielend überschritten werden...
Undertaker
2007-11-20, 15:06:31
Doch hat sie.
hmm, nenn doch mal spielbare settings wo der 8800gt der vram ausgeht... hab auf die schnelle nix gefunden :)
reunion
2007-11-20, 15:11:15
Hört auf, von Schwarz und Weiß zu reden!
Warum sollte ich meine Antwort nochmals begründen, wenn von der Gegenseite nur ein "nö" kommt?
Es ist doch komplett selbstverständlich, daß die GT mit ihren 2/3 des Speichers einer GTX früher in Schwulitäten kommt, als Karten mit mehr und später, als Karten mit weniger Speicher.
Nur geht die Karte auch schneller in die Knie als die Konkurrenzprodukte mit der selben VRAM-Größe.
hmm, nenn doch mal spielbare settings wo der 8800gt der vram ausgeht... hab auf die schnelle nix gefunden :)
Es ging um eine fiktive GX2. Wo einer GT noch oft die Leistung vor dem VRAM ausgeht, kann es beim SLI-Gespann schon ganz anders aussehen. Spasstiger hat ja hinten schon ein Beispiel mit Crysis gebracht:
1600x1200 high, 4xAA, 16:1 AF
GeForce 8800 GTX: 17,5 fps
GeForce 8800 GT: 7,9 fps
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/25/#abschnitt_crysis
Eine GX2 auf 8800GT-Basis würde hier mangels VRAM nicht mal eine GTX schlagen. Ohne VRAM-Mangel wäre problemlos an die 30fps möglich mit einem SLI-Gespann.
Was spielt das für eine Rolle? Nur weil nV anscheinend hohe Ausfallraten hat, müssen sie diese teil deaktivierten Chips verkaufen. Auch bei nur sechs aktivierten Cluster gehen 315mm² pro Core drauf, wären bei einer Dual-Karte insgesamt 630mm² - das kann doch nicht mehr wirtschaftlich sein.
Lass die Wirtschaftlichkeit mal NVIDIAs Sorge sein...
Ständig dieses "Gehype" um NVIDIAs kaputte Margen. :rolleyes:
MfG :cool:
James@work
reunion
2007-11-20, 16:55:33
Lass die Wirtschaftlichkeit mal NVIDIAs Sorge sein...
Ständig dieses "Gehype" um NVIDIAs kaputte Margen. :rolleyes:
MfG :cool:
James@work
Niemand spricht davon, dass NVs kaputte Margen hat. Deshalb glaube ich wie schon gesagt nicht an eine GX2.
LovesuckZ
2007-11-20, 17:36:34
Warum sollte ich meine Antwort nochmals begründen, wenn von der Gegenseite nur ein "nö" kommt?
Weil du es nicht begründest. Die Karte hat keine massiven Probleme mit dem VRam. Sieht man auch sehr schön im immer einzigen von dir hervorgebrachten Computerbase.de Link.
laser114
2007-11-20, 17:59:10
Wie erklärst du dir dann das absacken in den hohen Einstellungen, in 2560*1600 8 xAA/ 16x AF sogar unter die 8800 Ultra?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/
dildo4u
2007-11-20, 18:12:45
Wie erklärst du dir dann das absacken in den hohen Einstellungen, in 2560*1600 8 xAA/ 16x AF sogar unter die 8800 Ultra?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/
Sorry aber die Einstellung ist selbst mit der Ultra unspielbar leider sieht man dort keine FPS.User die sich so ein Monitor(30Zoll TFT) kaufen der diese Auflösung schafft werden sicher nicht zu einer 200€ GT greifen es ist einfach nicht das Einsatzgebiet für die Karte.
laser114
2007-11-20, 18:37:26
Sorry aber die Einstellung ist selbst mit der Ultra unspielbar leider sieht man dort keine FPS.User die sich so ein Monitor(30Zoll TFT) kaufen der diese Auflösung schafft werden sicher nicht zu einer 200€ GT greifen es ist einfach nicht das Einsatzgebiet für die Karte.
Es ging doch hier gar nicht um eine eventuelle Spielbarkeit der Szenen, sondern um den Bug. Der lässt sich hier am besten zeigen, sichtbar ist er jedoch auch schon deutlich eher - gegenüber der 3870 verliert die 8800 GT dort meist mehr (AF ist natürlich wieder ein Ereignis in andere Richtung).
PS: Und an der Grenze des Spielbaren ist die Einstellung schon ... jedenfalls unter DirectX 9. Viele Spiele ächtzen bei rund 20 avg. fps, CoH schafft aber z. B. knapp 30 mit der 3870.
LovesuckZ
2007-11-20, 20:35:38
Wie erklärst du dir dann das absacken in den hohen Einstellungen, in 2560*1600 8 xAA/ 16x AF sogar unter die 8800 Ultra?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/
Ich habe keine Ahnung, was mit nVidia 8xMSAA Modus ist. Nur sehe ich hier keine massiven Probleme mit dem Vram. Und solange wie Leute wie Reunion dies nicht endlich beweisen, sollten sie's einfach nichtmehr ausprechen. Langsam wird's lächerlich.
Die NV Karten brechen mit AA einfach mehr ein als die ATIs bei 8xaa wird das halt noch deutlicher..
laser114
2007-11-20, 21:03:42
Ich habe keine Ahnung, was mit nVidia 8xMSAA Modus ist. Nur sehe ich hier keine massiven Probleme mit dem Vram.
:rolleyes:
Oh man, dann vergleich halt gleiche Einstellung bei gleichen Auflösungen. In 1600x1200 8xAA/16xAF liegt die 8800 Ultra 11% vor der 3870, in 2560x1600 8xAA/16xAF hingegen 11% hinter ihr. Wie gesagt, es wurde nur die Auflösung geändert.
Ich mein, das kann man jetzt natürlich mit der besseren GPU der 3870 erklären, denn mehr Speicher und Bandbreite hat doch klar die 8800 Ultra. Daran glaube ich aber nicht, sonder tippe eher auf den so schön benannten VRAM-Bug.
Dafür brauche ich keine Beweise, diese Indizien reichen mir dafür aus.
Ich glaube eher es limitiert etwas anderes. Der RV670 macht das AA komplett im Shader und die G80 Serie befeuert die ROPs? Kann es sein das es hier bei den extremen Bedingungen sein kann, das die Berechnung durch die Shader effizienter am Ende ist? Ist ja ein absoluter Worst Case Fall wo die GPUs mim Arsch auf Grundeis gehen (wobei die Skalareinheiten des G80 sicher Däumchen drehen werden, da sich die Rechenlast nicht erhöht).
dildo4u
2007-11-20, 21:09:19
Ich mein, das kann man jetzt natürlich mit der besseren GPU der 3870 erklären, denn mehr Speicher und Bandbreite hat doch klar die 8800 Ultra. Daran glaube ich aber nicht, sonder tippe eher auf den so schön benannten VRAM-Bug.
Dafür brauche ich keine Beweise, diese Indizien reichen mir dafür aus.
Hat jemand schon mal das 8XMSAA der ATI (gründlich)überprüft vieleicht ist das Verfahren bei Nvidias 8XMSAA auch aufwändiger und braucht mher Power.
:rolleyes:
, denn mehr Speicher und Bandbreite hat doch klar die 8800 Ultra. Daran glaube ich aber nicht, sonder tippe eher auf den so schön benannten VRAM-Bug.
nV hat also den VRAM-Bug vom G80 in den G92 geschleppt und AMD hat die kaputten ROPs vom R600 in den RV670 mitreingezogen?
reunion
2007-11-20, 21:15:29
Ich habe keine Ahnung, was mit nVidia 8xMSAA Modus ist. Nur sehe ich hier keine massiven Probleme mit dem Vram. Und solange wie Leute wie Reunion dies nicht endlich beweisen, sollten sie's einfach nichtmehr ausprechen. Langsam wird's lächerlich.
Lächerlich ist höchsten deine Ignoranz. Das Beispiel weiter hinten mit Crysis zeigt das gleiche Phenomän mit nur 4xMSAA. Wenn den nV-Karten der VRAM ausgeht brechen sie einfach unverständlich stark ein. Das kann man entweder akzeptieren, oder man kann bis zum geht nicht mehr nach noch mehr Beweisen fragen. Weiteres Beispiel: Fear 2560x1600 8xAA/16xAF: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/16/#abschnitt_f_e_a_r
Selbst die 8800U erreicht hier nicht viel mehr als die Hälfte der Fps einer 3870, in den anderen Vergleichssettings ist sie dieser allerdings klar überlegen. Und das trotz 50% mehr VRAM. Der Sprung von 4AA auf 8AA viertelt hier beinahe die FPS.
laser114
2007-11-20, 21:17:18
nV hat also den VRAM-Bug vom G80 in den G92 geschleppt und AMD hat die kaputten ROPs vom R600 in den RV670 mitreingezogen?
Freiwillig machen die Hersteller das garantiert nicht. ;)
Aber die Zeit reicht eben nicht aus, um das alles zu fixen. Nvidia steht auch mit dem Bug mit diesem Chip Ende 07 / Anfang 08 gut da, also wieso Zeit verschwenden und dann erst viel zu spät damit ankommen. Und AMD hat wohl auch an den ROPs nichts repariert, aber scheinbar wird da durchs Shader-Resolve etwas ausgeglichen. Frag dazu aber mal jemanden, der sich in dem Gebiet mehr auskennt. ;)
@dildo4u: Siehe reunion - tritt auch bei anderen Einstellungen auf, bei FEAR reichen 4x AA, es muss eben nur die entsprechende Last darauf anliegen.
reunion
2007-11-20, 21:20:30
Noch ein Beispiel von THG in Crysis das woanders schon gepostet wurde:
http://img135.imageshack.us/img135/246/benchj17e88byz0.png
Man beachte die FPS der 8800GT. Auch hier nur 4AA.
LovesuckZ
2007-11-20, 21:22:56
Lächerlich ist höchsten deine Ignoranz. Das Beispiel weiter hinten mit Crysis zeigt das gleiche Phenomän mit nur 4xMSAA. Wenn den nV-Karten der VRAM ausgeht brechen sie einfach unverständlich stark ein. Das kann man entweder akzeptieren, oder man kann bis zum geht nicht mehr nach noch mehr Beweisen fragen. Weiteres Beispiel: Fear 2560x1600 8xAA/16xAF: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/16/#abschnitt_f_e_a_r
Wo liegt hier ein Vram-Problem vor? Meine Ignorenz reicht soweit, dass ich erkenne, dass die Probleme anderer Natur haben. Ansonsten müsste eine 8800GT wesentlich schlechtere Durchswchnittswerte erreichen.
Du dagegen betitelst es als Vram-Problem, ohne einen Beweis zu besitzen. Schon ziemlich arrogant, anderen Ignoranz vorzuwerfen. :rolleyes:
/edit: Ja, massive Vram-Probleme. Noch andere Beispiele? :rolleyes:
Schaut euch doch die anderen Fear-Ergebnisse an: Die 8800GT ist 1600*1200 mit 8AA auf dem Niveau der 8800Ultra. Hier kann garkein Vram Problem vorliegen, sondern eine andere Limitierung der G80 Architektur.
reunion
2007-11-20, 21:27:43
Wo liegt hier ein Vram-Problem vor? Meine Ignorenz reicht soweit, dass ich erkenne, dass die Probleme anderer Natur haben. Ansonsten müsste eine 8800GT wesentlich schlechtere Durchswchnittswerte erreichen.
Du dagegen betitelst es als Vram-Problem, ohne einen Beweis zu besitzen. Schon ziemlich arrogant, anderen Ignoranz vorzuwerfen. :rolleyes:
/edit: Ja, massive Vram-Probleme. Noch andere Beispiele? :rolleyes:
Schaut euch doch die anderen Fear-Ergebnisse an: Die 8800GT ist 1600*1200 mit 8AA auf dem Niveau der 8800Ultra. Hier kann garkein Vram Problem vorliegen, sondern eine andere Limitierung der G80 Architektur.
Von mir aus liegt es an was anderem, ist doch vollkommen egal. Gemeinhin ist die Phenomän jedenfalls unter dem "VRAM-Bug" bekannt, und die Folge dessen sind ziemlich eindeutig.
LovesuckZ
2007-11-20, 21:31:02
Von mir aus liegt es an was anderem, ist doch vollkommen egal. Gemeinhin ist die Phenomän jedenfalls unter dem "VRAM-Bug" bekannt, und die Folge dessen sind ziemlich eindeutig.
Genau, dir ist es egal. Arroganz und Ignoranz... :rolleyes:
Du hast keine Beweise für deine unsinnigen Aussagen, aber immer schön weiter behaupten, gell? :rolleyes:
reunion
2007-11-20, 21:34:37
Genau, dir ist es egal. Arroganz und Ignoranz... :rolleyes:
Du hast keine Beweise für deine unsinnigen Aussagen, aber immer schön weiter behaupten, gell? :rolleyes:
Die Folgen dessen - und nur das ist für den Kunden von Relevanz - wurden dutzende male belegt. Unsinnig sind höchstens deine Behauptungen, es liege kein Problem vor. Der Grund hiefür hat nur nV Sorge zu bereiten, gemeinhin wurde dieses Problem unter dem "VRAM-Bug" bekannt, und deshalb halte ich es auch für legitim, dies so zum Umschreiben. Selbst nV gab in den Releasingnotes zu einem Treiber ein Problem mit dem VRAM indirekt zu. Zumal auch einiges dafür spricht, da es immer nur bei VRAM fordernden Settings auftritt und Karten mit weniger VRAM weitaus öfter betroffen sind.
LovesuckZ
2007-11-20, 21:46:52
Die Folgen dessen - und nur das ist für den Kunden von Relevanz - wurden dutzende male belegt.
Nein, es gibt keine Belege. Es gibt keine Auseinandersetzung mit dem Thema.
Unsinnig sind höchstens deine Behauptungen, es liege kein Problem vor.
Es liegt kein Vram Problem vor. Das Wegreden von Problemen macht niemand. Nur die Simplifizierung auf etwas, was falsch ist, kreide ich an.
Der Grund hiefür hat nur nV Sorge zu bereiten, gemeinhin wurde dieses Problem unter dem "VRAM-Bug" bekannt, und deshalb halte ich es auch für legitim, dies so zum Umschreiben.
Tja, es wurde Vram genannt, auch wenn es ROP-Problem oder sonst was sein könnte. Da es keine Untersuchung zu diesem Thema gibt, ist das dauernde Wiederholen einfach nur Trollen.
Aber ich bin fair und wir sollten auch AMDs Texturleistungs-Problem ansprechen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/21/#abschnitt_stalker
Leider kann man beim AA ja nicht so cheaten wie bei der Filterung. Sonst würde AMD noch schlechter darstehen. Daher: Pfui AMD, cheaten um die Bugs in der Architektur wegzuwischen.
reunion
2007-11-20, 21:55:28
Nein, es gibt keine Belege. Es gibt keine Auseinandersetzung mit dem Thema.
Du hast wohl u.a. die letzten paar Seiten bewusst ignoriert.
Es liegt kein Vram Problem vor. Das Wegreden von Problemen macht niemand. Nur die Simplifizierung auf etwas, was falsch ist, greide ich an.
Du hast schon desöfteren jegliche Probleme in dieser Hinsicht einfach negiert. Erst wo es nicht mehr zu verheimlichen war, kam schön langsam die Einsicht. Wo das Problem konkret liegt ist doch vollkommen wurscht. Das Problem liegt eindeutig vor.
Tja, es wurde Vram genannt, auch wenn es ROP-Problem oder sonst was sein könnte. Da es keine Untersuchung zu diesem Thema gibt, ist das dauernde Wiederholen einfach nur Trollen.
Nein, trollen ist höchstens das da, und zwar eindeutig:
Aber ich bin fair und wir sollten auch AMDs Texturleistungs-Problem ansprechen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/21/#abschnitt_stalker
Leider kann man beim AA ja nicht so cheaten wie bei der Filterung. Sonst würde AMD noch schlechter darstehen. Daher: Pfui AMD, cheaten um die Bugs in der Architektur wegzuwischen.
Das war dann auch schon definitiv der letzte Beitrag von mir zu diesem Thema. Gegen so viel Ignoranz ist kein Kraut gewachsen. Glaub doch was du willst
laser114
2007-11-20, 21:56:25
@Lovesuckz:
Wie erklärst du dir, dass sich Nvidia mehrmals dazu äußerte:
Nvidia stated that this problem is "of complex nature"
http://www.theinquirer.net/en/inquirer/news/2007/07/31/nvidia-will-fix-8800-by-mid-september
Oder:
Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/
Das Wegreden von Problemen ist auch Trollen und das verweißen auf die geringere Texturleistung bei ATI (die auf jeden Fall vorhanden ist, liegt in der Architektur begründet) ändert daran auch nichts.
Wenn du das nicht begreifen willst, bitte. Aber lass doch die anderen zumindest die Chance, festzustellen was wirklich dahinter steckt. Durch Ignorieren bekommt man das garantiert nicht raus. :mad:
sklave_gottes
2007-11-20, 21:59:16
Ich habe keine Ahnung, was mit nVidia 8xMSAA Modus ist. Nur sehe ich hier keine massiven Probleme mit dem Vram. Und solange wie Leute wie Reunion dies nicht endlich beweisen, sollten sie's einfach nichtmehr ausprechen. Langsam wird's lächerlich.
Hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/23/#abschnitt_call_of_juarez
Ab 1280x1024 4xAA/16xAF gehts los
wunderschön zu sehen an der 8800gts 320 und der 8800gt
Sehr komisch das die 8800gts 640 noch klar kommt
Ich würde anhand von Call of Juarez auch klar auf V-Ram mangel tippen.
Mir egal ob BUG oder nicht. Aufjedenfall gehen den Geforce Karten der Ram schneller Aus/Voll ! Das steht fest.
Hast du für die Beispiele eine bessere Erklärung `?
Das die ATI Karten wenig Texel Leistung haben, sollte auch dir bekannt sein.
Ob extra oder nicht, dass für einen BUG zu halten ist......
mfg martin
€dit: Spätestens mit einer 8800gts@g92@512MB und @1024 wird man es dann sehen.
So so, dann lies mal schnell DIESES (http://www.techspot.com/review/76-asus-radeon-hd-3870/) Review hier durch, wo bricht die 8800GT da stärker ein als die HD3870? Ist zwar jetzt 4x AA/16x AF, aber das sind wohl auch die Settings, die die meisten bei hohen Auflösungen noch mit diesen Karten nutzen können. Computerbase ist für mich keine Referenz.
Weitere Benches die diese Aussage widerlegen:
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=10)
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=12)
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=16)
Klick (http://www.hexus.net/content/item.php?item=10415&page=10)
[/url=http://www.legionhardware.com/document.php?id=703&p=3]Klick[/url]
Klick (http://www.legionhardware.com/document.php?id=703&p=4)
usw. usw.
Natürlich gibt es auch Ausnahmen wie Call of Juarez, wo die Ati vorn liegt, aber in 90% der Benches liegt die GT teils deutlich vorn, auch in hohen Auflösungen mit AA/AF. Hier scheinen manche mal wieder zu träumen. Die HD3870 bringt eine ihrem Preis angemessene Leistung, keine Frage. Aber an eine 8800GT kommt sie, bis auf einzelen Ausnahmen nunmal nicht ran und deshalb ist die 8800GT auch etwas teuerer. Wie sollte sie auch, ist sie doch nichts anderes bis auf einige Details veränderte HD2900XT.
sklave_gottes
2007-11-20, 22:14:25
So so, dann lies mal schnell DIESES (http://www.techspot.com/review/76-asus-radeon-hd-3870/) Review hier durch, wo bricht die 8800GT da stärker ein als die HD3870? Ist zwar jetzt 4x AA/16x AF, aber das sind wohl auch die Settings, die die meisten bei hohen Auflösungen noch mit diesen Karten nutzen können. Computerbase ist für mich keine Referenz.
Weitere Benches die diese Aussage widerlegen:
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=10)
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=12)
Klick (http://www.pcper.com/article.php?aid=482&type=expert&pid=16)
Klick (http://www.hexus.net/content/item.php?item=10415&page=10)
[/url=http://www.legionhardware.com/document.php?id=703&p=3]Klick[/url]
Klick (http://www.legionhardware.com/document.php?id=703&p=4)
usw. usw.
Natürlich gibt es auch Ausnahmen wie Call of Juarez, wo die Ati vorn liegt, aber in 90% der Benches liegt die GT teils deutlich vorn, auch in hohen Auflösungen mit AA/AF. Hier scheinen manche mal wieder zu träumen. Die HD3870 bringt eine ihrem Preis angemessene Leistung, keine Frage. Aber an eine 8800GT kommt sie, bis auf einzelen Ausnahmen nunmal nicht ran und deshalb ist die 8800GT auch etwas teuerer. Wie sollte sie auch, ist sie doch nichts anderes bis auf einige Details veränderte HD2900XT.
Du verstehst was falsch, ich sage doch nicht das die rv670 karte besser oder schneller ist. Ich sagte nur das der 8800gt der V-Ram eher aus geht! Und nur darum geht es hier.
LovesuckZ
2007-11-20, 22:28:42
Ich würde anhand von Call of Juarez auch klar auf V-Ram mangel tippen.
Mangel - du hast das richtige Wort.
Ich besitze eine 8800GT hier und betreibe diese an einem 22 Zoll TFT mit 1680x1050er Auflösung. Bisher konnte ich noch nie besagtes Vram-Problem feststellen. Treiber ist der 169.09. Neuere Spiele die ich bisher gespielt habe: Timeshift, Crysis, Call of Duty 4, Gears of War. Alles bis auf Crysis mit 4x AA/8x AF. Wenn Du mir dann bitte mitteilst wie ich den Vram-Bug provozieren kann, dann teile mir das bitte mit. Natürlich sollte dieses Scenario nicht zum generellen ausgehen des Vrams führen, egal welche 512MB Karte man hat, sprich es soll wirklich das Vram-Problem der Nvidia Karten provozieren. Wie gesagt, ich konnte bisher, trotz intensiven spielen in den letzten Tagen, keinerlei Fps-Drops bemerken. Für Experimente stehe ich zur Verfügung.
mess doch einfach mal beim zocken den vram-bedarf
dargo
2007-11-20, 23:14:49
Hier gibts doch schon SLI Tests mit der 8800GT 512mb das bricht erst bei dem absolut extremen Setting bei 2560*1600 mit 8XAA zusammen wobei sich die FPS whol auf alle Systemen dort bei aktuellen Games im unspielbaren Bereichen bewegen.1600*1200 mit 8XAA ist noch deutlich schneller als das 2900XT CF mit wesentlich mher Bandbreite und angeblich besserer V-Ram Nutzung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/25/#abschnitt_performancerating_sli_cf
Den Durchschnitt bei CB kann man vergessen. CB testet einfach zu viele alte Spiele noch. Je älter ein Spiel ist umso geringer ist der Vram Bedarf in der Regel bei diesen Games.
Schau dir mal auch einzelne Benches an. Da hätten wir CoJ in DX10:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/19/
1280x1024 4xAA/16xAF reichen schon um zu zeigen, dass die G8800GT am Vram verhungert. Beim SLI Gespann tut das doppelt weh da man bei fast doppelter Rohleistung eigendlich noch eine Auflösungsstufe höher gehen könnte.
In CoH:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/20/
sieht man übrigens auch, dass der GT schon in 1280x1024 4xAA/16xAF der Speicher in bestimmten Szenen bei der getesteten Timedemo ausgeht. Der Unterschied zur GTX ist nicht gerade klein.
Ich besitze eine 8800GT hier und betreibe diese an einem 22 Zoll TFT mit 1680x1050er Auflösung. Bisher konnte ich noch nie besagtes Vram-Problem feststellen. Treiber ist der 169.09. Neuere Spiele die ich bisher gespielt habe: Timeshift, Crysis, Call of Duty 4, Gears of War. Alles bis auf Crysis mit 4x AA/8x AF. Wenn Du mir dann bitte mitteilst wie ich den Vram-Bug provozieren kann, dann teile mir das bitte mit. Natürlich sollte dieses Scenario nicht zum generellen ausgehen des Vrams führen, egal welche 512MB Karte man hat, sprich es soll wirklich das Vram-Problem der Nvidia Karten provozieren. Wie gesagt, ich konnte bisher, trotz intensiven spielen in den letzten Tagen, keinerlei Fps-Drops bemerken. Für Experimente stehe ich zur Verfügung.
...weist du überhaupt um was es geht?
hau doch zu deiner Auflösung mal ordentlich AA dazu...4xmsaa was soll das?dazu brauch ich keine GT...das schafft auch ne 4200ti.
Ailuros
2007-11-21, 05:41:08
Was spielt das für eine Rolle? Nur weil nV anscheinend hohe Ausfallraten hat, müssen sie diese teil deaktivierten Chips verkaufen. Auch bei nur sechs aktivierten Cluster gehen 315mm² pro Core drauf, wären bei einer Dual-Karte insgesamt 630mm² - das kann doch nicht mehr wirtschaftlich sein.
Wenn man nicht grundlos clusters deaktiviert fuehrt es auch zu keinem Verlust. Bei so einem theoretischem Dingsbums wuerden sowieso nur eine sehr geringe Menge verkauft und dessen Lebenszeit waere extrem kurz.
Ja, close to 1TFLOP nach nVs-Zählweise. Nur das würde man auch mit 8 Cluster x 2.4 Ghz wesentlich billiger bekommen.
Glaubst Du dass die extremen ALU Frequenzen umsonst kommen? Es kostet an Transistoren und hier bleibt immer noch die Frage fuer mich wieso G92 so viele Transistoren hat. Eine 2.4GHz waere u.a. eine logische Erklaerung, es bleibt aber die Frage, wieso soviel Aufwand wenn G92 so schnell wie moeglich abgeloest werden soll.
Ailuros
2007-11-21, 05:56:10
Den Durchschnitt bei CB kann man vergessen. CB testet einfach zu viele alte Spiele noch. Je älter ein Spiel ist umso geringer ist der Vram Bedarf in der Regel bei diesen Games.
Schau dir mal auch einzelne Benches an. Da hätten wir CoJ in DX10:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/19/
Die 2900XT hat auch zufaelligerweise 512MB, verhungert aber komischerweise nicht so stark am angeblichen VRAM. CoJ ist ein merkwuerdiges Beispiel, dass man nur mit Vorsicht benutzen sollte, wenn man die AA Implementierung im Hinterkopf behaelt. Einer jeglichen R6x0/RV6x0 bekommt das Zeug natuerlich besser.
In CoH:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/20/
sieht man übrigens auch, dass der GT schon in 1280x1024 4xAA/16xAF der Speicher in bestimmten Szenen bei der getesteten Timedemo ausgeht. Der Unterschied zur GTX ist nicht gerade klein.
Kein Einwand hier, denn hier kann man es auch an den GTS Resultaten sehen, was hier als erstes ausgeht.
Da CB nur "high" in der Crysis demo benutzt hat:
http://www.hardware.fr/articles/693-14/dossier-amd-radeon-hd-3800.html
Schon mit "high" in 1280 ohne AA ist die Ultra gerade noch im spielbaren Bereich. Natuerlich nur ein pre-release demo, aber selbst >768MB wuerden hier den Tag nicht retten.
seahawk
2007-11-21, 07:17:33
Glaubst Du dass die extremen ALU Frequenzen umsonst kommen? Es kostet an Transistoren und hier bleibt immer noch die Frage fuer mich wieso G92 so viele Transistoren hat. Eine 2.4GHz waere u.a. eine logische Erklaerung, es bleibt aber die Frage, wieso soviel Aufwand wenn G92 so schnell wie moeglich abgeloest werden soll.
G92 abgelöst ? In welchem Bereich und von was ?
dargo
2007-11-21, 11:08:47
Die 2900XT hat auch zufaelligerweise 512MB, verhungert aber komischerweise nicht so stark am angeblichen VRAM. CoJ ist ein merkwuerdiges Beispiel, dass man nur mit Vorsicht benutzen sollte, wenn man die AA Implementierung im Hinterkopf behaelt. Einer jeglichen R6x0/RV6x0 bekommt das Zeug natuerlich besser.
Für mich gibt es nur eine Erklärung dafür. Bei NV verbrauchen die Grafikkarten seit dem G80 etwas mehr Vram (warum auch immer). Leider gibt es keine Tests die gleichzeitig den Vram Bedarf bei den getesteten Timedemos messen.
Kein Einwand hier, denn hier kann man es auch an den GTS Resultaten sehen, was hier als erstes ausgeht.
Das Problem an den ganzen Benchmarks sind im Prinzip auch die avg. Werte ohne einen Frameverlauf. Würde man einen Frameverlauf liefern könnte man die Szenen wo der Vram zu knapp wird besser erkennen.
Beispiel - eine 2 Minuten lange Timedemo. Wenn zb. eine GTX in dieser Timedemo 40fps liefert und die GT 35fps könnte man meinen die GT ist fast auf GTX Niveau. Es könnte aber passieren, dass die GT in der getesteten Timedemo 2-3 mal für sagen wir mal 1-2 Sekunden auf 20fps einbricht aus Mangel an Vram. Im Endresultat, also avg. fps sieht man es aber nicht.
Vram-Engpaß war doch laaaange bekannt...
Warum haben sich komischerweise beide Fraktioonen nicht rechtzeitig drauf eingestellt?
Jetzt warten viele sehnsüchtig auf 1k (oder mehr...) Versionen und dabei sind die VRAM-Kosten doch lächerlich gering.
Sogar ohne PCB-Mod könnte man die 1k'er raushaun... mit entsprechenden IC's
AnarchX
2007-11-21, 12:59:22
Neue G90(bzw. D9E-GTX)-Spezifikationen, die gar nicht mal so verkehrt aussehen:
65nm
160SPs/80TMUs
32 ROPs/512 Bit
850MHz TMU/ROP-Domain
2000MHz Shaderdomain
900(1800?)MHz Speichertakt
1GiB Speicher
VP3
D3D10.1
http://we.pcinlife.com/thread-850405-1-1.html
Anarchy-HWLUXX
2007-11-21, 13:01:49
4xmsaa was soll das?dazu brauch ich keine GT...das schafft auch ne 4200ti.
Es sinkt für sie : Das Niveau. :uclap:
@G90 - Mmmmmmmhhh, schaut nice aus - wenn es nur war wäre :|
AnarchX
2007-11-21, 13:14:27
@G90 - Mmmmmmmhhh, schaut nice aus - wenn es nur war wäre :|
Wird sich zeigen müssen.
Aber nun erstmal etwas zu näher greifbaren:
G98-8400GS @ 3DM06 (http://www.expreview.com/news/hard/2007-11-21/1195642516d7020.html)
http://img251.imageshack.us/img251/1977/g98sdmark06gl9.png
http://img251.imageshack.us/img251/8955/nvpdfee9.png
Warum D8M und nicht G98? D8M wird ja mehr als eine SKU bzw. GPU umfassen (D8M-SE/GS/GT/...).
GeneralHanno
2007-11-21, 13:16:55
wie man sieht nich gaming tauglich. aber das ist ja auch nicht das ziel. hauptsache der preis, stromverbrauch und videofunktionen stimmen, denn bald kommt die neue 3400 ;)
MadManniMan
2007-11-21, 13:17:07
Neue G90(bzw. D9E-GTX)-Spezifikationen, die gar nicht mal so verkehrt aussehen:
65nm
160SPs/80TMUs
32 ROPs/512 Bit
850MHz TMU/ROP-Domain
2000MHz Shaderdomain
900(1800?)MHz Speichertakt
1GiB Speicher
VP3
D3D10.1
http://we.pcinlife.com/thread-850405-1-1.html
Hui! Das Ding könnte dann locker wieder (leistungsgerechte) 500 Ocken kosten :eek:
GeneralHanno
2007-11-21, 13:18:50
ich glaube beim G90 (was bestimmt der alte G100 ist) zumindest niht an die taktraten. die sind nvidia-untypisch viel zu hoch. ein chip dieser breite taktet höchstens mit 700mhz !
AnarchX
2007-11-21, 13:27:55
NVIDIA_G92.DEV_0600.1 = “NVIDIA GeForce 8800 GTS 512″
NVIDIA_G92.DEV_061A.1 = “NVIDIA Quadro FX 3700″
NVIDIA_G98.DEV_06E2.1 = “NVIDIA GeForce 8400″
NVIDIA_G98.DEV_06E4.1 = “NVIDIA GeForce 8400 GS ”
Wie schon angedeutet wird wohl die 1GiB-Version bei der neuen GTS definitiv in den Händen der AIBs liegen.
Spasstiger
2007-11-21, 13:31:20
Hui! Das Ding könnte dann locker wieder (leistungsgerechte) 500 Ocken kosten :eek:
Das wäre es mir bei den Daten dann auch Wert. Das könnte die erste Crysis@Very-High-30fps-Karte werden. ;)
Und UT3 könnte vielleicht sogar mit 8xS-AA flüssig laufen.
(bezogen auf eine Auflösung von 1680x1050 Pixeln)
Nakai
2007-11-21, 13:41:36
Etwa 50% schneller als ne 8800Ultra.
Sieht jedenfalls lecker aus.
mfg Nakai
Gouvernator
2007-11-21, 13:48:08
Das wäre es mir bei den Daten dann auch Wert. Das könnte die erste Crysis@Very-High-30fps-Karte werden. ;)
Und UT3 könnte vielleicht sogar mit 8xS-AA flüssig laufen.
(bezogen auf eine Auflösung von 1680x1050 Pixeln)
Das ist Dir 500€ wert?! Maan...wärst du meine Frau würde ich dich lieber nicht zum Einkaufen schicken...
Das ist zwar alles nett und so aber gleich 500€? Zu wenig. Wenigstens einbisschen mehr Speicher wären angebracht bei super Low-End verbauen sie sonst vollkommen überflüssiges Speicher in Massen und hier knausern sie....
GeneralHanno
2007-11-21, 13:58:36
naja, ein speicherbaustein mit langsamen DDR2 Vram ist ja auch "etwas" günstiger als ein speicherbaustein mit schnellem GDDR3 oder GDDR4 Vram :rolleyes:
Gouvernator
2007-11-21, 14:04:23
Je schneller das Teil ist desto mehr brauche ich Speicher. Und da knausern die einfach. Zum Beispiel, jetzt könnte man locker sowas wie GTA San Andreas oder egal was unter besten Auflösungen spielen und zwar mit SSAA hier limitiert ganz klar der Speicher. Manche wollen/können nicht Crysis und das Neuste zocken sondern etwas ganz altes...
GeneralHanno
2007-11-21, 14:07:49
du hast ja nicht unrecht. aber nvidia ist ein konzern der wirtschaftlich denken muss. fakt ist, dass highest-end vram ein wichtiger kostenfaktor ist und mehr vram drückt die marge oder erhöht den preis.
leider ist es so, dass die meisten der grakakäufer (z.b. 8800) hauptsächlich für AVG-fps interessieren und weniger für super-sampling oder min-fps ;)
Gouvernator
2007-11-21, 14:18:01
du hast ja nicht unrecht. aber nvidia ist ein konzern der wirtschaftlich denken muss. fakt ist, dass highest-end vram ein wichtiger kostenfaktor ist und mehr vram drückt die marge oder erhöht den preis.
leider ist es so, dass die meisten der grakakäufer (z.b. 8800) hauptsächlich für AVG-fps interessieren und weniger für super-sampling oder min-fps ;)
Ich hoffe das das nicht so die Rolle spielt. Wenn doch dann lasse ich es einfach bleiben.
Nvidia hat zwar einen Konkurrenten weniger dafür aber gleich 2 Neue und zwar richtig grosse. Nämlich Konsolen und was die bieten muss man für 500€ weit überbieten müssen dazu gehört auch der Speicher und sämtlich theoretisch mögliche Auflösungen, AA Modi und so weiter....
ShinyMcShine
2007-11-21, 14:57:32
Neue G90(bzw. D9E-GTX)-Spezifikationen, die gar nicht mal so verkehrt aussehen:
65nm
160SPs/80TMUs
32 ROPs/512 Bit
850MHz TMU/ROP-Domain
2000MHz Shaderdomain
900(1800?)MHz Speichertakt
1GiB Speicher
VP3
D3D10.1
http://we.pcinlife.com/thread-850405-1-1.html
Auf der chin. Seite kann man so etwas wie einen Veröffentlichungstermin wohl nicht ausmachen. Weisst Du da auch schon was konkretes AnarchX?
AnarchX
2007-11-21, 15:16:07
Auf der chin. Seite kann man so etwas wie einen Veröffentlichungstermin wohl nicht ausmachen. Weisst Du da auch schon was konkretes AnarchX?
Naja, keine Ahnung ob das nur Speku oder doch Insider-Info sein soll.
D9E soll laut VR-Zone jedenfalls im Februar kommen, fragt sich nur ob es sich um oben genanntes handelt.
Aber auch interessant wäre hier die Möglichkeit einer 9800 GTS mit einem 384Bit SI.
J0ph33
2007-11-21, 15:16:21
@Governator, 512Bit ---> 512/1024MB VRAM ;) das ist doch mehr Speicher
Für mich gibt es nur eine Erklärung dafür. Bei NV verbrauchen die Grafikkarten seit dem G80 etwas mehr Vram (warum auch immer). Leider gibt es keine Tests die gleichzeitig den Vram Bedarf bei den getesteten Timedemos messen.
...
Ail meint das CFAA, welches die Entwickler in den Benchmark integriert haben (es gab gleich einen Streit), und diese Lösung schmeckt den grünen Grafikkarten nicht.
w0mbat
2007-11-21, 15:32:58
Also wenn sie den G90 jetzt auch nochmal 8800GTX/Ultra nennen wollen haben sie einen an der Waffel. Ich denke der Markt verlangt nach über einem Jahr nach einer 8900/9800 und nVidia wäre dumm dieses Verlangen zu erfüllen.
Gouvernator
2007-11-21, 15:36:38
@Governator, 512Bit ---> 512/1024MB VRAM ;) das ist doch mehr Speicher
768MB --> 1024 MB also ca. 200Mb mehr ist nicht gerade das was ich mir vorstelle. 2048Mb und ich wäre bereit 500€ auszugeben. Oder wenigstens 1500mb damit ich Crysis für Screens in 2560x1920@3xSSAA über 1 fps laufen lassen kann.
Das ist Dir 500€ wert?! Maan...wärst du meine Frau würde ich dich lieber nicht zum Einkaufen schicken...
Das ist zwar alles nett und so aber gleich 500€? Zu wenig. Wenigstens einbisschen mehr Speicher wären angebracht bei super Low-End verbauen sie sonst vollkommen überflüssiges Speicher in Massen und hier knausern sie....
Boa du schon wieder mit deinen Neidkommentaren, du raffst es nicht oder? Echt traurig.
Gouvernator
2007-11-21, 15:50:56
Wenn man bedenkt was man für 500€ so kriegt dann fällt einem das hypen ziemlich schwer. Ich bleibe bei visuellen Sachen: DSLR, Konsole. Und da hat man teilweise mehr als blos +50% Leistung einer GTX-Ultra.
Was ich nicht verstehe ist, wann gibt’s eigentlich ein Ende in der Graka Entwicklung? Oder gibt es da keine Grenzen? Irgendwie wird ich das Gefühl nicht los, dass Nvidia einfach keine 70% schnellere Ultra bauen kann. ;D
Gouvernator
2007-11-21, 16:04:35
Was ich nicht verstehe ist, wann gibt’s eigentlich ein Ende in der Graka Entwicklung? Oder gibt es da keine Grenzen? Irgendwie wird ich das Gefühl nicht los, dass Nvidia einfach keine 70% schnellere Ultra bauen kann. ;D
Falsch gedacht. Du musst ein bisschen inside Denken entwickeln... die haben nicht die Priorität irgendwas "schnelles" zu bauen, die haben einfach Bock Geld zu verdienen. Und meistens greift wohl "Ein gegebenes Ziel soll mit geringmöglichsten Einsatz erreicht werden". ;D
Falsch gedacht. Du musst ein bisschen inside Denken entwickeln... die haben nicht die Priorität irgendwas "schnelles" zu bauen, die haben einfach Bock Geld zu verdienen. Und meistens greift wohl "Ein gegebenes Ziel soll mit geringmöglichsten Einsatz erreicht werden". ;D
Alles klar. Schön gesagt.
dildo4u
2007-11-21, 16:08:57
NV wird zur Zeit ja nicht grad durch ATI gezwungen eine neue Ultra zu bringen.Deshalb läßt man sich schön Zeit bis die Yields bei 65nm noch besser sind und schraubt die Specs für die neue Ultra jeden Monat höher damit sie dann eine Karte haben die die Doppel 3870(400€) von ATI um 30-50% zerstört(Ohne den ganzen Crossfire Treiber Dreck) und für diesen Speed Bonus nimmt man dann halt wieder 100€ mher.(500€)
Hvoralek
2007-11-21, 16:55:47
Neue G90(bzw. D9E-GTX)-Spezifikationen, die gar nicht mal so verkehrt aussehen:
160SPs/80TMUs
32 ROPs/512 BitEinen eigenen Chip mit einer kaum höheren Filter-/ Shaderleistung als G92, aber der doppelten Füllrate pro Takt? Ich weiß nicht, ob man dann nicht eher dieses Ding für das gesamte High- End- und Performance- (teildeaktiviert) Segment genommen und statt D8P einen richtigen Mittelklassechip mit vlt. 5 Clustern und ~200mm² gebracht hätte.
Warum D8M und nicht G98? D8M wird ja mehr als eine SKU bzw. GPU umfassen (D8M-SE/GS/GT/...).Und v.a. warum D8M und nicht D8V? :|
Also wenn sie den G90 jetzt auch nochmal 8800GTX/Ultra nennen wollen haben sie einen an der Waffel. Ich denke der Markt verlangt nach über einem Jahr nach einer 8900/9800 und nVidia wäre dumm dieses Verlangen zu erfüllen.Da fehlt wohl noch ein "nicht", oder? :wink:
AnarchX
2007-11-21, 17:00:41
Und v.a. warum D8M und nicht D8V? :|
V sind imo wohl eher die IGPs.
Hvoralek
2007-11-21, 17:14:41
V sind imo wohl eher die IGPs.Also gibt es doch nur drei "richtige" GPUs: E (High- End), P (Mittelklasse) und M (Low- Cost)? Und was ist dann "G96"? D9M?
AnarchX
2007-11-21, 17:36:24
Also gibt es doch nur drei "richtige" GPUs: E (High- End), P (Mittelklasse) und M (Low- Cost)?
Es gibt drei Kategorien, aber in diesen befinden sich durchaus verschiedene GPUs: so ist NB8P-SE G86, während NB8P-GS G84 ist.
Und was ist dann "G96"? D9M?
Möglich, dass er die GPU dieser SKUs ist.
Nightspider
2007-11-21, 22:23:51
400-450€ wären für oben genannten G90 wohl gerechtfertigt.
Man stelle sich vor, das es nach 1,5 Jahren (!!!) nur 1024 MB GDDR3 900 auf einer neuen HighEnd Karte gibt. Dafür würde ich niemals 500€ bezahlen.
Zudem überlege man sich, das man im Frühjar für 400€ 2* 8800 GT bekommt, die eine theoretisch nochmals vllt 30% Rohleistung als eine G90 mit den oben genannten Specs hätten. Sie würde nur am Speicher bzw. dessen Geschwindigkeit verrecken.
Als dritten Punkte könnte man noch erwähnen, das zwischen Januar und Februar diesen angeblichen G90 auch in 55nm fertigen könnte. 65nm wird schon lange in Masse produziert. Somit bliebe genug Zeit 55nm zu perfektionieren.
Für eine 600€ HighEnd Grafikkarte gegen Ende des 1. Quartals würde ich eher 1,5 - 2 GB Speicher @ 1,2-1,6 Ghz sehen wollen.
Ich frage mich nur manchmal, warum die Hersteller keine HighEnd Versionen vorstellen, mit mehr VRAM zu einem entsprechenden Aufpreis !?
Zu Zeiten der 8800 ULTRA hätte man doch auch schon 1,5 GB Karten, mit den neuen großen 512Mbit (oder waren es 1Gbit ?) Chips verkaufen können, zu einem Aufpreis von 50-100 Euro. Schließlich kostet GDDR3 @ 900 Mhz auch längt nichtmehr soviel wie früher. Und die Rückseite hätte auch mit den Standart-Speicherchips bestückt werden können.
Somit wären alle zufrieden. Insbesondere die Leute, wie ich, die niemals genug VRAM, vor allem unter betracht von Crysis@VeryHigh + AA, in hohen Auflösungen gebrauchen können.
AnarchX
2007-11-21, 22:36:40
400-450€ wären für oben genannten G90 wohl gerechtfertigt.
Man stelle sich vor, das es nach 1,5 Jahren (!!!) nur 1024 MB GDDR3 900 auf einer neuen HighEnd Karte gibt. Dafür würde ich niemals 500€ bezahlen.
Sind ja nur 115GB/s. ;) ATi 3870 X2 scheint übrigens auch nur auf 900MHz GDDR3 zu setzen.
Zudem überlege man sich, das man im Frühjar für 400€ 2* 8800 GT bekommt, die eine theoretisch nochmals vllt 30% Rohleistung als eine G90 mit den oben genannten Specs hätten. Sie würde nur am Speicher bzw. dessen Geschwindigkeit verrecken.
Und an den Unzuänglichkeiten die SLI nunmal mit sich bringt.
Als dritten Punkte könnte man noch erwähnen, das zwischen Januar und Februar diesen angeblichen G90 auch in 55nm fertigen könnte. 65nm wird schon lange in Masse produziert. Somit bliebe genug Zeit 55nm zu perfektionieren.
Wie war nochmal NVs Strategie mit den Prozessen in den letzten Jahren?
Für eine 600€ HighEnd Grafikkarte gegen Ende des 1. Quartals würde ich eher 1,5 - 2 GB Speicher @ 1,2-1,6 Ghz sehen wollen.
Und ich 2-3 TFLOPs, aber realistisch ist nunmal etwas anderes
NV hat nunmal im HighEnd mehr oder weniger ein Monopol und da kann man über solche Steigerungen, falls die Specs wahr sind, sich doch freuen, immerhin mehr als sich bei ATi zwischen August 02 und Dezember 03 tat.:wink:
Ich frage mich nur manchmal, warum die Hersteller keine HighEnd Versionen vorstellen, mit mehr VRAM zu einem entsprechenden Aufpreis !?
Zu Zeiten der 8800 ULTRA hätte man doch auch schon 1,5 GB Karten, mit den neuen großen 512Mbit (oder waren es 1Gbit ?) Chips verkaufen können, zu einem Aufpreis von 50-100 Euro. Schließlich kostet GDDR3 @ 900 Mhz auch längt nichtmehr soviel wie früher. Und die Rückseite hätte auch mit den Standart-Speicherchips bestückt werden können.
1GBit Module mit 0.83ns gab es zum Ultra-Release im April sicherlich nicht und das ist nunmal das Problem an solchen Exklusiv-Versionen: nicht vorhandene Chips oder ein extra PCB mit der doppelten Menge an Speicherchips für so wohl eher weniger verkaufende SKU.
dargo
2007-11-21, 22:59:14
Neue G90(bzw. D9E-GTX)-Spezifikationen, die gar nicht mal so verkehrt aussehen:
65nm
160SPs/80TMUs
32 ROPs/512 Bit
850MHz TMU/ROP-Domain
2000MHz Shaderdomain
900(1800?)MHz Speichertakt
1GiB Speicher
VP3
D3D10.1
http://we.pcinlife.com/thread-850405-1-1.html
Zumindest diese beiden Sachen passen nicht zusammen. Diese Karte würde an Speicherbandbreite verhungern. 1GB Vram sind nur mit einem 256 und 512Bit SI möglich. Und von einem 512Bit SI ist NV afaik noch weit entfernt.
AnarchX
2007-11-21, 23:06:53
Zumindest diese beiden Sachen passen nicht zusammen. Diese Karte würde an Speicherbandbreite verhungern.
Bei 115GB/s(+leicht effizientere Nutzung) würde ich nicht unbedingt von verhungern reden.
1GB Vram sind nur mit einem 256 und 512Bit SI möglich. Und von einem 512Bit SI ist NV afaik noch weit entfernt.
Naja, 2 ROP-Partitionen auf dem Die und 4 Speicherchips auf dem PCB.
Aber wie schon gesagt, zu ernst würde ich diese Specs auch nicht nehmen.
dargo
2007-11-21, 23:09:44
Bei 115GB/s(+leicht effizientere Nutzung) würde ich nicht unbedingt von verhungern reden.
Wie kommst du mit 900Mhz und einem 256Bit SI auf 115GB/s? :confused:
AnarchX
2007-11-21, 23:12:39
Wie kommst du mit 900Mhz und einem 256Bit SI auf 115GB/s? :confused:
In den Specs stehen doch 512 Bit. :D
512bit位宽1G的显存@1800MHz
32 ROPs/512 Bit
dargo
2007-11-21, 23:16:18
In den Specs stehen doch 512 Bit. :D
Wers glaubt. :D
Ph0b0ss
2007-11-22, 04:35:43
Rechnerisch wär ein 512bit Speicherinterface sogar zwingend notwendig!
Ultra 128SPs/64TMUs @1512/612
G90 160SPs/80TMUs @2000/850
Ergibt jeweils ~65% und ~74% mehr Power und im Schnitt ~70%. Speicherseitig bräuchte es dann (ohne weitere Bandbreiten-Schonungsmaßnahmen):
~1850Mhz @384bit Bus oder ~1400Mhz @512bit Bus!
(auf 8800GTX-Leistungs/Bandbreitenverhältnis bezogen wären auch noch ~1650Mhz @384bit Bus oder ~1250Mhz @512bit Bus notwendig)
Wenn man dann noch gerne hohe Auflösungen mit viel Multisampling nutzen will, wären 1600Mhz+ Speichertakt @512bit bzw. 1066Mhz+ @768bit nicht verkehrt.:biggrin::eek:
Ailuros
2007-11-22, 05:46:26
G92 abgelöst ? In welchem Bereich und von was ?
G92 ist genauso ein Zwischenschieber wie RV670 fuer den wahren Refresh von beiden IHVs.
Ailuros
2007-11-22, 05:54:03
Für mich gibt es nur eine Erklärung dafür. Bei NV verbrauchen die Grafikkarten seit dem G80 etwas mehr Vram (warum auch immer). Leider gibt es keine Tests die gleichzeitig den Vram Bedarf bei den getesteten Timedemos messen.
Das mag zwar generell stimmen, aber keinesfalls bis zum Grad wie CoJ darstellt.
Das Problem an den ganzen Benchmarks sind im Prinzip auch die avg. Werte ohne einen Frameverlauf. Würde man einen Frameverlauf liefern könnte man die Szenen wo der Vram zu knapp wird besser erkennen.
Beispiel - eine 2 Minuten lange Timedemo. Wenn zb. eine GTX in dieser Timedemo 40fps liefert und die GT 35fps könnte man meinen die GT ist fast auf GTX Niveau. Es könnte aber passieren, dass die GT in der getesteten Timedemo 2-3 mal für sagen wir mal 1-2 Sekunden auf 20fps einbricht aus Mangel an Vram. Im Endresultat, also avg. fps sieht man es aber nicht.
Nimmt man eine gesunde Anzahl an Spielen zur Hand, liegt in einigen Faellen die 3870 Durchschnittswerte mit 4xAA naeher an den minimum framerates einer GT. 512 vs. 512MB, wobei es zwar war ist dass die GFs etwas mehr Speicher generell brauchen, dieses aber nicht zu einem gesunden Grad jeglichen Unterschied definiert oder um einen sehenswerten Wert aendert.
Ailuros
2007-11-22, 06:02:35
Einen eigenen Chip mit einer kaum höheren Filter-/ Shaderleistung als G92, aber der doppelten Füllrate pro Takt? Ich weiß nicht, ob man dann nicht eher dieses Ding für das gesamte High- End- und Performance- (teildeaktiviert) Segment genommen und statt D8P einen richtigen Mittelklassechip mit vlt. 5 Clustern und ~200mm² gebracht hätte.
Nicht dass die angeblichen 80 TMUs irgend einen Sinn machen, aber:
80*850 = 68 GTexels/s
56*600 = 33.6 GTexels/s
ALUs:
160*3*2 = 960 GFLOPs/s
112*3*1.5 = 504 GFLOPs/s
Egal ob die angeblichen specs stimmen oder nicht, was zum Henker rechnest Du gerade?
Ailuros
2007-11-22, 06:10:40
400-450€ wären für oben genannten G90 wohl gerechtfertigt.
Man stelle sich vor, das es nach 1,5 Jahren (!!!) nur 1024 MB GDDR3 900 auf einer neuen HighEnd Karte gibt. Dafür würde ich niemals 500€ bezahlen.
Zudem überlege man sich, das man im Frühjar für 400€ 2* 8800 GT bekommt, die eine theoretisch nochmals vllt 30% Rohleistung als eine G90 mit den oben genannten Specs hätten. Sie würde nur am Speicher bzw. dessen Geschwindigkeit verrecken.
Als dritten Punkte könnte man noch erwähnen, das zwischen Januar und Februar diesen angeblichen G90 auch in 55nm fertigen könnte. 65nm wird schon lange in Masse produziert. Somit bliebe genug Zeit 55nm zu perfektionieren.
Für eine 600€ HighEnd Grafikkarte gegen Ende des 1. Quartals würde ich eher 1,5 - 2 GB Speicher @ 1,2-1,6 Ghz sehen wollen.
Ich frage mich nur manchmal, warum die Hersteller keine HighEnd Versionen vorstellen, mit mehr VRAM zu einem entsprechenden Aufpreis !?
Zu Zeiten der 8800 ULTRA hätte man doch auch schon 1,5 GB Karten, mit den neuen großen 512Mbit (oder waren es 1Gbit ?) Chips verkaufen können, zu einem Aufpreis von 50-100 Euro. Schließlich kostet GDDR3 @ 900 Mhz auch längt nichtmehr soviel wie früher. Und die Rückseite hätte auch mit den Standart-Speicherchips bestückt werden können.
Somit wären alle zufrieden. Insbesondere die Leute, wie ich, die niemals genug VRAM, vor allem unter betracht von Crysis@VeryHigh + AA, in hohen Auflösungen gebrauchen können.
Egal ob die angegebenen Specs Sinn machen oder nicht, glaubst Du wirklich dass bei so einer GPU 2GB Speicher und >150GB Bandbreite den Tag retten wuerde?
Nochmal IHVs passen Speichermengen und Speicherfrequenzen einem jedem chip so an dass sie ein fast ideales Preis-/Leistungs-Verhaeltnis darstellen.
Auf einer heutigen 8800Ultra haetten Dir 1.5GB Speicher mit hoeherer Frequenz nur minimalen Unterschied gegeben.
Ailuros
2007-11-22, 06:12:39
Nebenbei ist die Shaderleistung viel zu gering fuer so ein Dingsbums; bitte weiterraten ;)
seahawk
2007-11-22, 07:13:40
G92 ist genauso ein Zwischenschieber wie RV670 fuer den wahren Refresh von beiden IHVs.
Dann habe ich Dich nur falsch verstanden, danke. :smile:
AnarchX
2007-11-22, 08:46:05
Nebenbei ist die Shaderleistung viel zu gering fuer so ein Dingsbums; bitte weiterraten ;)
Da ist natürlich etwas dran, für bis Ende 2008 würde es bei weitem nicht reichen. ;)
Aber an 3 TFLOPs (http://www.nordichardware.com/news,6911.html) glaube ich auch nicht gleich, wobei wenn man, wie Demirug schonmal angedeutet hatte, die ROPs über Board werfen wird, sicherlich mehr Platz für ALUs hätte, erst recht mit <65nm.
Ailuros
2007-11-22, 09:13:31
Da ist natürlich etwas dran, für bis Ende 2008 würde es bei weitem nicht reichen. ;)
Aber an 3 TFLOPs (http://www.nordichardware.com/news,6911.html) glaube ich auch nicht gleich, wobei wenn man, wie Demirug schonmal angedeutet hatte, die ROPs über Board werfen wird, sicherlich mehr Platz für ALUs hätte, erst recht mit <65nm.
Ich hab eher das Gefuehl dass die ROPs nicht einfach so verschwinden werden, sondern dann eher von anderen Einheiten im relativen Sinn "eingebaut". Ich bin mir aber nichtmal sicher ob man zu diesem Schritt selbst auch mit der D3D11 Generation kommt.
Ich lass mich gerne als Laie eines besseren beraten, aber ich hab das Gefuehl dass zur gleichen Zeit dann auch TMUs aufgesaugt werden koennten. In solch einem Fall werden sowohl die ALUs als auch der Speichercontroller IMHLO um einiges "fetter".
Die arithmetische Effizienz wird sich IMO in der absehbaren Zukunft etwa in gleicher Rate mit der Anzahl der Transistoren pro chip steigern.
Du glaubst doch nicht ernsthaft dass die angeblichen 3 TFLOPs aus einem einzigem chip und dazu noch schon in 2008 springen werden oder? Eine idiotische Rechenuebung waere: 320*4 (MADD+MADD) * 2.35GHz. Wieviel Transistoren denn genau fuer so ein Monster und mit welchem Herstellungsprozess genau?
dargo
2007-11-22, 11:01:43
Auf einer heutigen 8800Ultra haetten Dir 1.5GB Speicher mit hoeherer Frequenz nur minimalen Unterschied gegeben.
Da gebe ich dir recht. Bei SLI und erst recht Triple-SLI würden aber die 1,5GB bzw. >768MB durchaus Sinn machen. :)
Bin aus einem anderen Thread hier weitergeleitet worden, irgendwie blicke ich langsam nicht mehr durch.
2006: GTX/ULTRA (G80
2007: GT/neueGTS (G80 oder G92 (?) was Computerbase andeutet
2008: Spekulationen über G90 die ganz neu sein soll aber bereits G92 bereits am 3 Dezember bzw. verschoebener Termin auf Ende 07/Anfang08 ?
Klärt mich bitte auf mit den Codenamen der GPUs.
Danke
Spasstiger
2007-11-22, 16:48:28
Bin aus einem anderen Thread hier weitergeleitet worden, irgendwie blicke ich langsam nicht mehr durch.
2006: GTX/ULTRA (G80
2007: GT/neueGTS (G80 oder G92 (?) was Computerbase andeutet
2008: Spekulationen über G90 die ganz neu sein soll aber bereits G92 bereits am 3 Dezember bzw. verschoebener Termin auf Ende 07/Anfang08 ?
Klärt mich bitte auf mit den Codenamen der GPUs.
Danke
G80 = 8800 GTS 640 MiB/ 8800 GTX/ 8800 Ultra. Die 8800 GTS 640 MiB gibts gemäß Spezifikation nur in einer Version mit 6 Shader-Clustern (96 Shadereinheiten), in Eigenregie bieten irgendwelche Hersteller auch Versionen mit 7 Shader-Clustern an (112 Shadereinheiten)
G92 = 8800 GT/8800 GTS 512 MiB. Die 8800 GT hat 7 Shadercluster (112 Shadereinheiten), die 8800 GTS 512 MiB 8 Shadercluster (128 Shadereinheiten). Die 8800 GTS 512 MiB kommt vermutlich am 13. Dezember.
Karten mit G92-Chip wird es von einigen Herstellern wohl auch mit 1 GiB Grafikspeicher geben.
Hvoralek
2007-11-22, 19:36:16
G92 ist genauso ein Zwischenschieber wie RV670 fuer den wahren Refresh von beiden IHVs.Wobei dieser wahre Refresh dann wohl auch mehr als 150-250€ kosten wird, oder?
Egal ob die angeblichen specs stimmen oder nicht, was zum Henker rechnest Du gerade?Ich habe erst einmal die Unterschiede pro Takt gegenüber einem kompletten G92 betrachtet. 10 statt 8 Cluster (also 25% mehr Filter- und Arithmetikleistung bei gleichen Taktfrequenzen) und 8 statt 4 ROP- Blöcke, was pro Takt gleich die doppelte Füllrate bedeuten würde. Daran, dass die Füllrate viel kräftiger gesteigert würde als die anderen Eckdaten, ändert sich auch durch höheren Takt nichts.
F5.Nuh
2007-11-22, 22:51:06
Werden die 1gb Versionen der neuen GTS eigentlich auch gleich mit am Start sein? oder erscheinen die erst nachträglich? möchte so zimelich Anfang Dezember vorbestellen. :frown:
AnarchX
2007-11-22, 22:54:29
Werden die 1gb Versionen der neuen GTS eigentlich auch gleich mit am Start sein? oder erscheinen die erst nachträglich? möchte so zimelich Anfang Dezember vorbestellen. :frown:
Ich denke eher nicht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6046563&postcount=844
Wobei aber die 1GiB-8800GT-PCBs ja auch für die neue GTS verwendet werden könnten und die sollen noch 2007 kommen.
Razor
2007-11-23, 02:31:19
Oder das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6051796&postcount=1257
Im unteren Teil des Posts zu finden...
Ergo: Soft-Launch der 'neuen' GTS am 3.12. mit Verfügbarkeit am 17.12. - NICHT auf Basis des G92.
Razor
Ailuros
2007-11-23, 05:26:44
Wobei dieser wahre Refresh dann wohl auch mehr als 150-250€ kosten wird, oder?
Offensichtlich.
Ich habe erst einmal die Unterschiede pro Takt gegenüber einem kompletten G92 betrachtet. 10 statt 8 Cluster (also 25% mehr Filter- und Arithmetikleistung bei gleichen Taktfrequenzen) und 8 statt 4 ROP- Blöcke, was pro Takt gleich die doppelte Füllrate bedeuten würde. Daran, dass die Füllrate viel kräftiger gesteigert würde als die anderen Eckdaten, ändert sich auch durch höheren Takt nichts.
8 ROP Partitions bedeutet nicht nur doppelt so viel Z Fill sondern auch doppelt so viel Bandbreite bei gleichem Takt, im Vergleich zu einer G92.
Die vorigen spekulierten specs sind einfach der alte Kaugummi der immer wieder auftaucht, nur komischerweise diesmal ohne eDRAM LOL :D
Die Frage ist braucht NV wirklich 8 partitions bzw. ein 512bit SI, wenn man stattdessen GDDR4 benutzen kann?
James Ryan
2007-11-23, 05:51:47
Ergo: Soft-Launch der 'neuen' GTS am 3.12. mit Verfügbarkeit am 17.12. - NICHT auf Basis des G92.
Im Treiber tauchte aber schon eine G92-GTS auf!
MfG :cool:
Ailuros
2007-11-23, 06:09:12
Da gebe ich dir recht. Bei SLI und erst recht Triple-SLI würden aber die 1,5GB bzw. >768MB durchaus Sinn machen. :)
Wo immer SLi wie zu erwarten skaliert, sind die minimalen Frameraten des SLi-Gespanns zumindest gleich so gross wie die durchschnittlichen einer einzelnen GPU.
Beispiel:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/24/#abschnitt_company_of_heroes
Egal ob jetzt SLi mit dem Ding gut skaliert, ich hab CoH nur zur Hand genommen weil es besonders viel an Speicher frisst. Einen bedeutenden Unterschied wuerde hier so viel Speicher erst in 2560 mit 8xMSAA machen. Spielbar wird es aber auf jeden Fall nicht sein.
Ich will ja nicht behaupten dass es keinen Unterschied machen wird, nur eben ist der insgesamte Gewinn zu gering um so viel mehr Speicher zu gerechtfertigen, denn es gibt in extremen Faellen andere Flaschenhaelse die zuerst limitieren.
Nebenbei wie viele haben denn ueberhaupt einen 30" Bildschirm?
AnarchX
2007-11-23, 07:30:31
Ergo: Soft-Launch der 'neuen' GTS am 3.12. mit Verfügbarkeit am 17.12. - NICHT auf Basis des G92.
Natürlich basiert sie auf G92:
NVIDIA_G92.DEV_0600.1 = “NVIDIA GeForce 8800 GTS 512″
Da hat Techarp es wohl mit 112SP-G80-GTS durcheiander gebracht, die nicht offiziell vorgestellt wird und schon erhältlich ist.
Anarchy-HWLUXX
2007-11-23, 08:38:53
Natürlich basiert sie auf G92:
Da hat Techarp es wohl mit 112SP-G80-GTS durcheiander gebracht, die nicht offiziell vorgestellt wird und schon erhältlich ist.
LoL ... die neue GTS net G92 basierend ;D und dabei gibt es scho Pics / Slides von dem Teil mit, ganz klar des G92 PCB.
Na ja, a bissi verwirrend is das alles scho ...
Und die ultimative best High End Card von Nvidia wird sein…?
dargo
2007-11-23, 11:19:03
Wo immer SLi wie zu erwarten skaliert, sind die minimalen Frameraten des SLi-Gespanns zumindest gleich so gross wie die durchschnittlichen einer einzelnen GPU.
Beispiel:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/24/#abschnitt_company_of_heroes
Öhm, ich sehe hier keine SLI Werte. :confused:
Nebenbei wie viele haben denn ueberhaupt einen 30" Bildschirm?
Afaik geht das auch mit einem 24" CRT.
AnarchX
2007-11-23, 11:20:06
http://img510.imageshack.us/img510/4016/g92gtsreal77b795qj6.jpg (http://imageshack.us)
http://en.expreview.com/?p=51
http://img510.imageshack.us/img510/4016/g92gtsreal77b795qj6.jpg (http://imageshack.us)
http://en.expreview.com/?p=51
There’s lots of info about G92-8800GTS, and we would like review it again: it will out in 11 Dec, have 128 SP, using 8800GT’s PCB design, and have a upgraded dual slot cooler. The frequency will be 650/1625/1940MHz(core/shader/memory, higher than refrence 8800GT.
:smile:
Hakim
2007-11-23, 12:33:03
ne dumme frage: können die G92 mit ihrem 256 Bit Speicherinterface eigentlich 1 GB speicher vernünftig verwalten? Mir kommt 1 GB Vram etwas viel vor für 256 Bit.
Wieso hast du dann 4GB in deinem PC auf dem 128Bit Interface?
MadManniMan
2007-11-23, 12:34:57
ne dumme frage: können die G92 mit ihrem 256 Bit Speicherinterface eigentlich 1 GB speicher vernünftig verwalten? Mir kommt 1 GB Vram etwas viel vor für 256 Bit.
Die Anbindung bestimmt ja nicht die im Endeffekt zur Verfügung stehende Bandbreite, von daher ist die Breite des Interfaces nur ein Indiz für Flaschenhälse.
Oder das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6051796&postcount=1257
Im unteren Teil des Posts zu finden...
Ergo: Soft-Launch der 'neuen' GTS am 3.12. mit Verfügbarkeit am 17.12. - NICHT auf Basis des G92.
Razor
das ist typisch razor...wirft anderen ihre leichtgläubigkeit vor und dann sowas...
Nakai
2007-11-23, 13:44:01
http://img510.imageshack.us/img510/4016/g92gtsreal77b795qj6.jpg (http://imageshack.us)
http://en.expreview.com/?p=51
Naja die Hässlichkeit hat sich gebessert. ;)
The frequency will be 650/1625/1940MHz(core/shader/memory, higher than refrence 8800GT.
Kurz, die zerlegt ne Ultra ohne Probleme.
mfg Nakai
AnarchX
2007-11-23, 13:46:55
Ähmm... sie hat immer noch nur 512MB, 62GB/s und 10,4GPix/s. Ohne Probleme wird sie in höheren Settings eine Ultra kaum "zerlegen"...
Nakai
2007-11-23, 14:02:37
Ähmm... sie hat immer noch nur 512MB, 62GB/s und 10,4GPix/s. Ohne Probleme wird sie in höheren Settings eine Ultra kaum "zerlegen"...
Da kann ich dir nur teilweise zustimmen. In den meisten Fällen sollte die neue 8800GTS ziemlich auf 8800Ultra-Niveau sein. Natürlich hat sie noch das Manko der niedrigeren Bandbreite. Das NV da nicht mehr gemacht hat, finde ich dumm.
Jedoch sollte man bedenken, dass noch nicht soviele Menschen ne höhere Auflösung wie 1280*1024 haben.
mfg Nakai
AnarchX
2007-11-23, 14:14:27
Aber man sieht es ja schon bei 6C-G80-GTS auf 88GT:
so misst CB bei Rating – 1280x1024 4xAA/16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet) gerademal einen Vorsprung von 20% für die GT, obwohl diese 40% mehr Tex-Fill und 46% mehr arithmetische Leistung besitzt. (Die Ultra kann dank hoher Bandbreite und Speichermenge, ihren theoretischen Vorsprung bei Tex/ALU-Leistung hier sehr gut umsetzen, gegenüber der 6C-G80-GTS).
Die neue GTS wird wohl eher noch weniger zugewinnen, da sie offiziell auch nur 512MB hat und gerade mal 7% mehr Speicherbandbreite als die GT.
Imo wird sie auf keinen Fall ein Ultra-Killer.
Henroldus
2007-11-23, 14:42:13
http://img510.imageshack.us/img510/4016/g92gtsreal77b795qj6.jpg (http://imageshack.us)
http://en.expreview.com/?p=51
"Though source mention that G92-8800GTS will use two 6pin power connector, but the product looks only have one. the total power consumption will be as much as 140W"
ich hoffe doch nicht, denn das wäre mir ein großes Manko.
Ein Stecker sollte doch völlig ausreichen.
AnarchX
2007-11-23, 15:13:50
Wobei 2x6Pin als Puffer für OCing inkl. VMOD ja nicht verkehrt wäre.;)
Hier sehe ich aber jedenfalls nur einen 6 Pin-Stecker gelötet und auch keine Lötstellen für einen weiteren:
http://img113.imageshack.us/img113/9351/8800gts5122ck9.jpg
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6032055&postcount=678
dargo
2007-11-23, 19:48:12
Wobei 2x6Pin als Puffer für OCing inkl. VMOD ja nicht verkehrt wäre.;)
Hör bloß auf. Ich habe gehofft, dass man durch den 65nm Fertigungsprozess endlich wieder "stromsparende" High-End Grafikkarten hinbekommt. Selbst die 140W TDP der neuen GTS finde ich um ehrlich zu sein zuviel. Im Prinzip ist die neue GTS ca. 50% schneller als die Alte bei einer nahezu identischen TDP. Dh. der Stromverbrauch hat sich von 90nm auf 65nm bei gleicher Leistung nur um ~25% verringert. Finde ich ehrlich gesagt etwas mager. Wenn dieser Trend so weiter geht sind wir nicht mehr weit von 225-300W Grakas entfernt.
Edit:
Dieses fette Dingsbums:
65nm
160SPs/80TMUs
32 ROPs/512 Bit
850MHz TMU/ROP-Domain
2000MHz Shaderdomain
900(1800?)MHz Speichertakt
1GiB Speicher
VP3
D3D10.1
Könnte wieder locker die 200W TDP Grenze sprengen, bitte nicht. :usad:
AnarchX
2007-11-23, 20:13:08
Hör bloß auf. Ich habe gehofft, dass man durch den 65nm Fertigungsprozess endlich wieder "stromsparende" High-End Grafikkarten hinbekommt. Selbst die 140W TDP der neuen GTS finde ich um ehrlich zu sein zuviel. Im Prinzip ist die neue GTS ca. 50% schneller als die Alte bei einer nahezu identischen TDP. Dh. der Stromverbrauch hat sich von 90nm auf 65nm bei gleicher Leistung nur um ~25% verringert. Finde ich ehrlich gesagt etwas mager.
Man sollte halt keine Wunder erwarten, die Pro-Watt-Leistung war eben bei G80 schon ziemlich gut und mit 65nm ist sie eben nochmal etwas gestiegen:
So schlägt eine 8800 GT eine 7900GTX bei annähernd gleichem Verbrauch um den Faktor 2.5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet), was doch recht beachtlich ist.
Es ist nunmal der Markt der dieses Tempo vorgibt und damit für den stets steigenden Verbrauch sorgt.
LovesuckZ
2007-11-23, 21:43:53
Könnte wieder locker die 200W TDP Grenze sprengen, bitte nicht. :usad:
Dann müssen wir eben eine längere Periode mit der Hardware leben. Und die neue GTS kann locker 80% schneller als die alte GTS sein, nämlich dann, wenn die Rechenleistung limitiert.
Ph0b0ss
2007-11-23, 22:50:01
Und die neue GTS kann locker 80% schneller als die alte GTS sein, nämlich dann, wenn die Rechenleistung limitiert.
Mit dem Krüppel-Speicherinterface @970Mhz wird das wohl praktisch nie der Fall sein. Das Verhältnis GPU-Power zu Speicherbandbreite ist bei der neuen GTS 1,8:1, wenn man die alte GTS als 1:1 ansetzt.:eek:
Sinnvoll wären 1,1-1,2Ghz @384bit gewesen, dann hätte auch die 8800ultra nix mehr zu lachen (solange die 512MB Speicher ausreichen).:tongue:
Johnny Rico
2007-11-23, 22:51:55
Sind die 512MB ein großes Manko? Haben die das Speichermanagement endlich im Griff?
Auf Seite 1 steht was vom 19.11.? Heute ist der 23., NV soll mal hinne machen =)
mapel110
2007-11-23, 22:52:12
Mit dem Krüppel-Speicherinterface @970Mhz wird das wohl praktisch nie der Fall sein. Das Verhältnis GPU-Power zu Speicherbandbreite ist bei der neuen GTS 1,8:1, wenn man die alte GTS als 1:1 ansetzt.:eek:
Sinnvoll wären 1,1-1,2Ghz @384bit gewesen, dann hätte auch die 8800ultra nix mehr zu lachen (solange die 512MB Speicher ausreichen).:tongue:
Tja, dann gäbs das Kärtchen aber auch zu High End Preisen.
nvidia braucht was, um gegen ATI im Preiskampf anzustinken. ATI will wohl die Preise für die 3800er auch noch weiter senken innerhalb der nächsten Wochen.
Ph0b0ss
2007-11-23, 23:00:21
Tja, dann gäbs das Kärtchen aber auch zu High End Preisen.
Wenn das Teil wirklich über 300€ Kosten soll, finde ich schon, dass man ein 384bit Interface erwarten kann. Vor ~6 Monaten gabs ja die GTS mit 320bit Interface ja auch schon für knapp über 300€.
Hvoralek
2007-11-24, 01:19:39
nvidia braucht was, um gegen ATI im Preiskampf anzustinken. ATI will wohl die Preise für die 3800er auch noch weiter senken innerhalb der nächsten Wochen.Gegen was von ATI sollte man mit der GTS 512 einen Preiskampf führen wollen? Da gibt es doch nichts, mit dem man konkurrieren würde. Im Preisbereich um 150€ bräuchte Nvidia dringend etwas, das es mit der 3850 aufnehmen kann, aber um 300€ stehen sie so oder so alleine da.
Sind die 512MB ein großes Manko?
Ja
Haben die das Speichermanagement endlich im Griff?
Nein
Auf Seite 1 steht was vom 19.11.? Heute ist der 23., NV soll mal hinne machen =)
Mir ist was von Anfang Dezember bekannt.
James Ryan
2007-11-24, 09:20:18
Gegen was von ATI sollte man mit der GTS 512 einen Preiskampf führen wollen? Da gibt es doch nichts, mit dem man konkurrieren würde. Im Preisbereich um 150€ bräuchte Nvidia dringend etwas, das es mit der 3850 aufnehmen kann, aber um 300€ stehen sie so oder so alleine da.
Stimmt!
ATi ist im High-End Markt seit mehr als einem Jahr raus, einzig im Perfomance- und Mainstream-Markt können sie NVIDIA momentan Konkurrenz bieten, und da sogar sehr gute.
NVIDIA müsste eine Gf 8800 GS mit 6 Clustern rausbringen, und diese für <150€ verkaufen.
MfG :cool:
AnarchX
2007-11-24, 19:37:43
http://img135.imageshack.us/img135/9868/nv8800gtstopnp7.jpg (http://imageshack.us)
http://img135.imageshack.us/img135/7104/nv8800gtssidefy6.jpg (http://imageshack.us)
http://www.theinquirer.net/gb/inquirer/news/2007/11/24/nvidia-8800gts-pictured
Ailuros
2007-11-25, 08:10:19
Öhm, ich sehe hier keine SLI Werte. :confused:
Hab ich auch erwaehnt. Ich brauchte einen Fall wo der Speicherverbrauch relativ hoch ist fuer eine Beispiel.
Afaik geht das auch mit einem 24" CRT.
Erstens sind die Dinger extrem selten und werden nicht mehr hergestellt, zweitens erreichten nicht viele von dem was ich mich erinnern kann 2560*1600 mit anstaendiger Bildwiederholrate und drittens wuerde die Maske theoretisch so stark ueberholt dass man locker auch mit 2xMSAA auskommen koennte. Als guter letztes ist Text generell schlecht zu lesen in solch einem Fall. Mein Desktop laeuft zwar in 16*12 auf dem 21" CRT hier, aber ich hab die fonts auch um etwas vergroessern muessen damit ich meine Nase nicht auf den Bildschirm kleben muss. In 3D wo man nichts daran veraendern kann, wirds dann aeuesserst schwer jeglichen Text zu lesen bei 2560 auf nur 24".
Ailuros
2007-11-25, 08:20:12
Man sollte halt keine Wunder erwarten, die Pro-Watt-Leistung war eben bei G80 schon ziemlich gut und mit 65nm ist sie eben nochmal etwas gestiegen:
So schlägt eine 8800 GT eine 7900GTX bei annähernd gleichem Verbrauch um den Faktor 2.5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet), was doch recht beachtlich ist.
Es ist nunmal der Markt der dieses Tempo vorgibt und damit für den stets steigenden Verbrauch sorgt.
Es mag ja wohl stimmen, aber schau Dir nochmal genau das 10 cluster/8 ROP partitions Monstrum genauer an, rechne noch die paar notwendigen Kleinigkeiten fuer D3D10.1 dazu, und zeig mir wo dargo genau nicht recht hat.
Du hast mit 4 ROP partitions/8 cluster und kein 10.1 beim G92 schonmal nette ~750M Transistoren und >310mm^2; das Ganze auch nur bei relativ moderaten Frequenzen.
Jetzt zeig mir mal auf rein spekulativer Basis was ein Ding mit doppelt so vielen partitions, 25% mehr clusters, 10.1 und dazu noch um weit extravagantere Frequenzen genau wiegen und verbrauchen wuerde.
Gouvernator
2007-11-25, 08:25:38
Ich kenne nur ganz wenige Spiele die unter 2560x1920 schlecht lesbar sind das betrifft meistens nur irgendwelche RGPs wie WOW oder Titan Quest. Alles andere besitzt ausreichende Schriftgrösse um auch noch bei 2400 Zeilen lesbar zu bleiben... danach aber wirds kritisch :D
Erstens sind die Dinger extrem selten und werden nicht mehr hergestellt
Da hast du völlig Recht. Wo die guten CRTs auf den Markt kamen gabs schon nen kleineren LCD Boom. Deshalb hatte es kein Sinn damals einen 22" CRT mit 140khz zu kaufen. Ich weiss noch wie ich selbst eine laufende Bestellung für so ein 140khz CRT gecancelt hab und stattdessen nen 19" TFT kaufte.
fulgore1101
2007-11-25, 17:57:12
öhm,also wenn im dezember tatsächlich eine neue 88gts basierend auf dem g92 chip erscheinen soll,sollten dann nicht bald mal ernsthafte fakten und benchmarks erscheinen?
AnarchX
2007-11-25, 18:00:36
öhm,also wenn im dezember tatsächlich eine neue 88gts basierend auf dem g92 chip erscheinen soll,sollten dann nicht bald mal ernsthafte fakten und benchmarks erscheinen?
Die Eckdaten sind doch bekannt und Benchmarks wird es wohl dann auch Anfang Dezember geben, wenn erste Karten bei Distributoren herumliegen.;)
Je nach Launchdatum sind es ja noch gut 1-3 Wochen...
Nightspider
2007-11-25, 22:27:40
Warum hat der Kühler so eine komische Form ?-so abgeschrägt ?
Hätte man da nicht einfach noch einen größeren einbauen können, der mehr Luft schaufelt ? Irgentwie sieht die Konstruktion ineffizient aus.
K4mPFwUr$t
2007-11-25, 22:43:05
ineffizenter als der stock cooler der 88GT kann es ja nicht sein ;)
ob man noch die wahl zu einen tieferen lüfter hätte, hmm ... ich weiss nicht.
LovesuckZ
2007-11-25, 22:44:35
Warum ist der Stock-Kühler der 8800GT ineffektiv? :confused:
Nightspider
2007-11-25, 22:58:27
Warum ist der Stock-Kühler der 8800GT ineffektiv? :confused:
Sagt doch keiner. Wir reden von der GTS. Und die Form sieht einfach komisch aus. Der Lüfter ist so komisch angeschrägt, da hätte man doch einen größeren verbauen können.
reunion
2007-11-25, 23:04:34
Sagt doch keiner. Wir reden von der GTS. Und die Form sieht einfach komisch aus. Der Lüfter ist so komisch angeschrägt, da hätte man doch einen größeren verbauen können.
Um das beurteilen zu können, sollte man vorher doch mal wissen, was sich unter dem Blech verbirgt. Der Lüfter ist schräg angeordnet, bläst die Lüft also nicht waagerecht über den Kühler, sondern leicht angewinkelt Richtung Core. Das wird schon Sinn machen. Zum Spaß wählt man eine solche Anordnung wohl kaum.
Nightspider
2007-11-25, 23:17:05
Um das beurteilen zu können, sollte man vorher doch mal wissen, was sich unter dem Blech verbirgt. Der Lüfter ist schräg angeordnet, bläst die Lüft also nicht waagerecht über den Kühler, sondern leicht angewinkelt Richtung Core. Das wird schon Sinn machen. Zum Spaß wählt man eine solche Anordnung wohl kaum.
Ich sag ja nicht, das es ineffizient ist, sondern nur so aussieht. ;)
Okay ich bin still und warte geduldig :rolleyes: (was ich sowieso nicht schaffe) :wink:
Anarchy-HWLUXX
2007-11-26, 09:01:29
Wenn es nicht nach 08/15 aussieht ist es für die laien direkt mal ineffizient ... wieso kann zwar keiner sagen aba alle können es besser als die Ingineure die damit ihre Brötchen verdienen.
Was kann man auf den Pics denn nu erkennen ?
- In SLI hat der Lüfter mehr platz zum Luft ansaugen
- Die Luft wird schräg richtung Core geleitet statt oben drüber
Ergo, wenn dann ist das das gegenteil von ineffizient.
AnarchX
2007-11-26, 09:53:39
Es mag ja wohl stimmen, aber schau Dir nochmal genau das 10 cluster/8 ROP partitions Monstrum genauer an, rechne noch die paar notwendigen Kleinigkeiten fuer D3D10.1 dazu, und zeig mir wo dargo genau nicht recht hat.
Eben imo in seiner Erwartungshaltung, große Leistungszuwächse bei gleichzeitg niedrigerem Verbrauch sind nunmal bei dem aktuellen Tempo von NV/ATi eher nicht möglich.
Du hast mit 4 ROP partitions/8 cluster und kein 10.1 beim G92 schonmal nette ~750M Transistoren und >310mm^2; das Ganze auch nur bei relativ moderaten Frequenzen.
Ich habe immernoch Zweifel, warum ein 750M schwerer und 310mm² breiter Die nur ein 256Bit MC haben soll. Eigentlich müsste G92 bei 8C/4RP viel weniger Fläche einnehmen, sodass mir der Verdacht kommt, dass es eben 6 RPs sind, deren Pads sich nicht so gut mit dem Prozess skalieren.
Jetzt zeig mir mal auf rein spekulativer Basis was ein Ding mit doppelt so vielen partitions, 25% mehr clusters, 10.1 und dazu noch um weit extravagantere Frequenzen genau wiegen und verbrauchen wuerde.
~200W TDP, man setzt eben den Trend fort.
Das GX2-Ding würde aber wohl auch in einer solchen Dimension liegen und dann noch ganz andere Probleme haben. ;)
Ailuros
2007-11-26, 11:33:25
Ich habe immernoch Zweifel, warum ein 750M schwerer und 310mm² breiter Die nur ein 256Bit MC haben soll. Eigentlich müsste G92 bei 8C/4RP viel weniger Fläche einnehmen, sodass mir der Verdacht kommt, dass es eben 6 RPs sind, deren Pads sich nicht so gut mit dem Prozess skalieren.
Wie schon oefters erwaehnt ist das Ding nach meinen Infos 4*64.
~200W TDP, man setzt eben den Trend fort.
Das GX2-Ding würde aber wohl auch in einer solchen Dimension liegen und dann noch ganz andere Probleme haben. ;)
Das ist fuer mich verdammt konservativ eingeschaetzt fuer den ersten Fall und ziemlich uebertrieben fuer den zweiten Fall.
Rein von den theoretischen Spezifikations-Zahlen her, ist ein 2*G92GT GX2 Dingsbums mehr oder weniger ebenbuertig (bei bestmoeglicher SLi Skalierung) mit einem hypothetischen 8 CL/6 RP single chip mit =/>2GHz fuer die SPs. Vorsicht: Du redest hier aber von 160SPs und einem bombastischen 512bit bus , D3D10.1 und dazu noch extravagante Frequenzen. All dieses kostet viel mehr an Transistoren als einfach nur zu versuchen von einer hypothetischen Basis X hochzurechnen.
Ausserdem in welchem Fall hat sich innerhalb eines Refreshes (gleiche Generation) die Transistoren-Anzahl pro chip so stark erhoeht? Zu so einer Skalierung wird es schon noch kommen, nur hab ich das Gefuehl dass man kleinere und reifere Herstellungsprozesse als 65nm dafuer braucht und man den marketing-technischen Einschlag der naechsten Generation nicht wirklich gefaerden will.
AnarchX
2007-11-26, 12:17:17
Wie schon oefters erwaehnt ist das Ding nach meinen Infos 4*64.
Ist schon klar, auch das BIOS soll ja von nur 4 RPs sprechen, aber im Zusammenhang mit oben genannten doch etwas seltsam.
Das ist fuer mich verdammt konservativ eingeschaetzt fuer den ersten Fall und ziemlich uebertrieben fuer den zweiten Fall.
Wenn 8C@650/1625MHz mit 140W TDP auskommen, warum sollten es dann nicht 10C@850/2000MHz mit 200-225W.
Erwartetst du bei der GX2 wirklich eine TDP deutlich unter 200W? :|
Ausserdem in welchem Fall hat sich innerhalb eines Refreshes (gleiche Generation) die Transistoren-Anzahl pro chip so stark erhoeht?
Geht man von NV40->G70 aus, was ja vom Zeitrahmen auch passt für G80 auf einem möglichen G90 so könnte letzerer durchaus 1000M Transistoren haben.
Zu so einer Skalierung wird es schon noch kommen, nur hab ich das Gefuehl dass man kleinere und reifere Herstellungsprozesse als 65nm dafuer braucht und man den marketing-technischen Einschlag der naechsten Generation nicht wirklich gefaerden will.
Die nächste Generation(Ende 2008) sollte nochmal um einiges mehr an Leistung bringen, als dieser hypothetischer G90, um konkurrenzfähig zu sein. ;)
Wie schon gesagt, wirklich glaube ich diese G90-Specs eher auch nicht, aber gewisse Punkte machen sie glaubwürdiger/logischer als das was man vorher irgendwo lesen konnte.
AnarchX
2007-11-26, 12:33:44
HKEPC hat noch ein paar Infos zur 8800 GTS 512:
http://translate.google.com/translate?u=http%3A%2F%2Fhkepc.com%2F%3Fid%3D390&langpair=zh%7Cen&hl=de&ie=UTF-8
24 ROPs können wohl eher nicht stimmen, dafür klingt aber interessant das wohl die Referenz 0.83ns GDDR3 verwenden soll.
Ailuros
2007-11-26, 12:40:21
Wenn 8C@650/1625MHz mit 140W TDP auskommen, warum sollten es dann nicht 10C@850/2000MHz mit 200-225W.
Weil die vereinfachte Hochrechnung Schwachsinn ist.
Erwartetst du bei der GX2 wirklich eine TDP deutlich unter 200W? :|
Xbit hatte damals wieviel fuer eine 7900GTX und fuer eine 7950GX2 genau messen koennen und mit welchen Taktraten kamen die beide genau an?
Geht man von NV40->G70 aus, was ja vom Zeitrahmen auch passt für G80 auf einem möglichen G90 so könnte letzerer durchaus 1000M Transistoren haben.
N40 = 222M@130nm IBM
G70 = 300M@110nm TSMC
---------------------------
+35% mehr Transistoren
G92 = 734M * 35% = 991M Transistoren und nein es ist viel, nein VIEL zu wenig fuer das was Du Dir unter dem angeblichen 512bittigen Monstrum vorstellen willst.
Noch dazu dass es sich hier um andere Herstellungsprozesse handelt, wobei G92 und G9x wohl eher auf dem gleichen Herstellungsprozess hocken werden.
Die nächste Generation(Ende 2008) sollte nochmal um einiges mehr an Leistung bringen, als dieser hypothetischer G90, um konkurrenzfähig zu sein. ;)
Die naechste Generation hat erstmal gar nichts mit 2008 (nichtmal in unmittelbarer Naehe) zu tun und nein sie wird auch nicht gegen geglichen R700 antreten.
Wie schon gesagt, wirklich glaube ich diese G90-Specs eher auch nicht, aber gewisse Punkte machen sie glaubwürdiger/logischer als das was man vorher irgendwo lesen konnte.
Es ging eigentlich ueber den uebermaessigen Stromverbrauch eines solchen hypothetischem Monstrums und das sogar unter 65nm. Was daran gerade "logisch" oder sogar glaubwuerdig sein soll ist mir immer noch ein Raetsel.
Ist schon klar, auch das BIOS soll ja von nur 4 RPs sprechen, aber im Zusammenhang mit oben genannten doch etwas seltsam.
Beim G92 gab es ja auch sonst noch kleinere Verbesserungen ggü. G80.
Wenn 8C@650/1625MHz mit 140W TDP auskommen, warum sollten es dann nicht 10C@850/2000MHz mit 200-225W.
Schon ein 8 Cluster Chip mit 850Mhz (was IMHO sowieso viel zu hoch angesetzt ist) würde wohl locker die 200W sprengen, wenn man die um 30% höhere Taktraten plus entsprechende Spannungsanhebung berücksichtigt.
Erwartetst du bei der GX2 wirklich eine TDP deutlich unter 200W? :|
Bei 2 x 6 Cluster und moderaten Taktraten durchaus möglich. Sonst wohl eher um die 200W.
reunion
Ailuros
2007-11-26, 12:53:21
Schon ein 8 Cluster Chip mit 850Mhz (was IMHO sowieso viel zu hoch angesetzt ist) würde wohl locker die 200W sprengen, wenn man die um 30% höhere Taktraten plus entsprechende Spannungsanhebung berücksichtigt.
Die 850/2000 Relation ist sowieso fuer die Tonne; sonst stimme ich Dir zu.
Bei 2 x 6 Cluster und moderaten Taktraten durchaus möglich. Sonst wohl eher um die 200W.
reunion
Nicht unbedingt moderater als bei der GT; im Vergleich zur kommenden GTS dann schon. Der Stromverbrauch ist aber trotz allem um eine gesunde Portion niedriger als 2*8800GT (stets IMHLO).
Anarchy-HWLUXX
2007-11-26, 13:31:51
Bei ner GX2 wird nV sicherliech wieder Mobiles verbauen wie bei der 7950GX2 ... das senkt die TDP und ist einfacher zu kühlen.
Nightspider
2007-11-26, 15:07:39
Wenn es nicht nach 08/15 aussieht ist es für die laien direkt mal ineffizient ... wieso kann zwar keiner sagen aba alle können es besser als die Ingineure die damit ihre Brötchen verdienen.
Man Leute, kriegt euch ein. Für mich sah es halt auf den ersten Blick ineffizient aus. Ich will hier zur Spekulation anregen, schließlich sind wir hier im Speku-Forum.
Ihr braucht euch nicht immer gleich so wichtig tun...
Anstatt hier auf eine Meinung einzugehen sollten hier lieber gleich die Vor-und Nachteile einer solchen Lösung disskutiert werden !
Henroldus
2007-11-26, 15:51:13
durch die Schräglage verringert sich der Luftkanaldurchmesser Richtung Chip/Ausgang, hier nochmal veranschaulicht:
http://img135.imageshack.us/img135/7104/nv8800gtssidefy6.jpg
Dadurch erhöht sich die Strömungsgeschwindigkeit was in einer besseren Kühlung resultiert, ganz einfach
Nightspider
2007-11-26, 16:10:32
Ja aber wird dadurch nicht der Strömungswiderstand erhöht ?
Seit der GeForce 8 verbaut Nvidia einen relativ langsam drehenden Radiallüfter, ob das wirklich etwas bringt... ...da bin ich mal gespannt.
Zumindest siehts doof aus. :tongue:
PCGH vermutet übrigens auch, das es zum Vorteil von Tri-SLI dienen soll.
http://www.pcgameshardware.de/?article_id=622578
Nur das man da von Quad-SLI ausgeht, was mal wieder total aus der Luft gegriffen ist.
AnarchX
2007-11-26, 16:19:46
Weil die vereinfachte Hochrechnung Schwachsinn ist.
Sicher, aber zu behaupten, dass es nicht möglich sei ohne stichaltige Argumente, ist imo auch nicht besser...
Xbit hatte damals wieviel fuer eine 7900GTX und fuer eine 7950GX2 genau messen koennen und mit welchen Taktraten kamen die beide genau an?
Nur tritt man diesmal nicht nur gegen eine "X19x0XTX" an, sondern gegen "zwei X1900GT"...
N40 = 222M@130nm IBM
G70 = 300M@110nm TSMC
---------------------------
+35% mehr Transistoren
G92 = 734M * 35% = 991M Transistoren und nein es ist viel, nein VIEL zu wenig fuer das was Du Dir unter dem angeblichen 512bittigen Monstrum vorstellen willst.
Noch dazu dass es sich hier um andere Herstellungsprozesse handelt, wobei G92 und G9x wohl eher auf dem gleichen Herstellungsprozess hocken werden.
Ich dachte wir diskutieren über den Schritt G80 -> G90, letzterer als eben wahrhaftiger Nachfolger im High-End.
Und da stehen nunmal 13-18 Monate dazwischen und ein Fullnode-Wechsel.
In einem solche Zeitraum schaffte NV immerhin schon einen Chip mit 50% mehr PPs auszustatten, deren Shader 33% mehr Leistung hatten und ihn noch 50% höher zu takten bei gleichem Verbrauch.
Da frage ich mich warum man nicht das spekulierte "Monster" in eine TDP von 200-225W bringen sollte, was im Vergleich zu oben eine deutlich geringere Leistung wäre?
Die naechste Generation hat erstmal gar nichts mit 2008 (nichtmal in unmittelbarer Naehe) zu tun und nein sie wird auch nicht gegen geglichen R700 antreten.
Und warum sollten dann 10C/8RPs den "marketing-technischen Einschlag " dieser gefährden? :|
Es ging eigentlich ueber den uebermaessigen Stromverbrauch eines solchen hypothetischem Monstrums und das sogar unter 65nm.
Und da sollte man eben nicht überrascht sein, wenn die Messlate wiedermal erhöht wird.
Was daran gerade "logisch" oder sogar glaubwuerdig sein soll ist mir immer noch ein Raetsel.
Eben bekannte Taktraten, das 512-Bit SI, was auch nicht zum ersten Mal genannt wurde und etwas zu NVs "Scheu" vor GDDR4 passt, GDDR5 wartet ja wohl auch noch etwas auf sich.
Das waren nur so ein paar Punkte, aber 850/2000MHz klingen wiederrum auch nicht so logisch, da muss ich zustimmen.
Im Endeffekt ist es, wie schon von mir erwähnt, einfach eine weitere Spekulation, die nur diesmal etwas mehr sich an der Realität orientierte...
Nightspider
2007-11-26, 17:24:38
Wenn man bedenkt, das Samsung schon vor 21 Monaten, ja richtig, im Februar 2006, GDDR4 Speicher mit 1,6 Ghz (3200) vorgestellt hat, dann fragt man sich doch wo die gebunkert werden.
Dieser soll laut damaligen Aussagen...
http://www.computerbase.de/news/hardware/arbeitsspeicher/2006/februar/samsung_gddr4_32_ghz/
...seit dem 2. Halbjahr 2006 gefertigt werden.
Vor ein paar Monaten gab es Gerüchte, Nvidia kaufe seit gewisser Zeit diese 1,6 Ghz Module, dann könnte es gut möglich sein, das Nividia wirklich in der Lage wäre, auch in ausreichenden Mengen beim G90, im 1.Quartal 2008, die schnellere Speicherchips zu verbauen.
Welcher Release-Zeitraum wird derzeit denn am wahrscheinlichsten für den neuen HighEnd-Chip gehandelt ?
Januar, Februar oder März ? Gibt es da Neuigkeiten ?
Ailuros
2007-11-27, 06:24:49
Sicher, aber zu behaupten, dass es nicht möglich sei ohne stichaltige Argumente, ist imo auch nicht besser...
Was fuer stichhaltige Argumente genau brauchst Du hier? 1 Milliarde Transistoren sind viel zu wenig fuer so einen Brummer.
Nur tritt man diesmal nicht nur gegen eine "X19x0XTX" an, sondern gegen "zwei X1900GT"...
Das beantwortet aber nicht meine Frage. Klar hatte jeder chip auf der GX2 eine niedrigere Taktrate als auf der GTX, aber der Stromverbrauch war nicht GTX*2. Wieso sollte ein rein hypothetisches G92-GX2 Dingsbums fast zweimal so viel verbrauchen als eine 8800GT?
Ich dachte wir diskutieren über den Schritt G80 -> G90, letzterer als eben wahrhaftiger Nachfolger im High-End.
Ja und bin mir so sicher wie ich sein kann dass die Transistoren-Anzahl hier nicht fast verdoppelt wird.
Und da stehen nunmal 13-18 Monate dazwischen und ein Fullnode-Wechsel.
In einem solche Zeitraum schaffte NV immerhin schon einen Chip mit 50% mehr PPs auszustatten, deren Shader 33% mehr Leistung hatten und ihn noch 50% höher zu takten bei gleichem Verbrauch.
Die Spekulation spricht von 65nm.
Da frage ich mich warum man nicht das spekulierte "Monster" in eine TDP von 200-225W bringen sollte, was im Vergleich zu oben eine deutlich geringere Leistung wäre?
Siehe oben.
Und warum sollten dann 10C/8RPs den "marketing-technischen Einschlag " dieser gefährden? :|
Weil die naechst wahre Generation vielleicht mit etwas mehr als doppelt so viel Transistoren ankommen wird?
Im Endeffekt ist es, wie schon von mir erwähnt, einfach eine weitere Spekulation, die nur diesmal etwas mehr sich an der Realität orientierte...
Ja mit 65nm sicher.....:rolleyes:
AnarchX
2007-11-27, 08:17:34
Was fuer stichhaltige Argumente genau brauchst Du hier? 1 Milliarde Transistoren sind viel zu wenig fuer so einen Brummer.
Kann natürlich sein.
Das beantwortet aber nicht meine Frage. Klar hatte jeder chip auf der GX2 eine niedrigere Taktrate als auf der GTX, aber der Stromverbrauch war nicht GTX*2. Wieso sollte ein rein hypothetisches G92-GX2 Dingsbums fast zweimal so viel verbrauchen als eine 8800GT?
Weil es doch 2 mal 8800 GT ist oder? (Man muss ja immerhin gegen 2 x 3870 konkurrieren können bzw. diese um einiges schlagen um nicht nur $399/499 MSRP erzielen zu können)
Die GX2 verbrauchte ja auch mehr als 2x7900GT(450/660MHz) und somit passend zu ihrer Taktung(500/600MHz).
Aber lassen wir besser diese Diskussion über diese G90-Specs, ich fand sie durch gewisse Punkte durchaus realistischer als manch anderes, aber wenn du von ihnen nichts hält, dann gut.
Im Endeffekt wird es wohl eh auf etwas anderes hinauslaufen.
Weil die naechst wahre Generation vielleicht mit etwas mehr als doppelt so viel Transistoren ankommen wird?
Aber dann sicherlich mit deutlich höheren Taktraten als heutige GeForce8 und weiteren Pro-Transistor-Leistung-Verbesserungen? Ansonsten wäre das für 2009 wohl etwas wenig, da die Konkurrenz demnächst sich wieder deutlich mehr anstrengt.
Szenario21
2007-11-27, 21:39:30
Wird die neue GTS denn dann auch höhere Taktraten mitbringen? Weil sonst kann ich mir kaum vorstellen das sie sich merklich von der GT abheben kann.
AnarchX
2007-11-27, 21:41:23
Wird die neue GTS denn dann auch höhere Taktraten mitbringen? Weil sonst kann ich mir kaum vorstellen das sie sich merklich von der GT abheben kann.
In das 1. Posting hast du aber schon mal geschaut, ansonsten wird dir auch jede Newsmeldung via Google zu neuen GTS die Taktraten verraten können...;)
Anarchy-HWLUXX
2007-11-28, 09:50:03
Tweak Town hat a kärtchn :
http://www.tweaktown.com/news/8601/index.html
Ailuros
2007-11-28, 10:32:18
Weil es doch 2 mal 8800 GT ist oder? (Man muss ja immerhin gegen 2 x 3870 konkurrieren können bzw. diese um einiges schlagen um nicht nur $399/499 MSRP erzielen zu können)
Wohl eher 2*G92M ;)
Die GX2 verbrauchte ja auch mehr als 2x7900GT(450/660MHz) und somit passend zu ihrer Taktung(500/600MHz).
Aber nicht doppelt so viel.
Aber lassen wir besser diese Diskussion über diese G90-Specs, ich fand sie durch gewisse Punkte durchaus realistischer als manch anderes, aber wenn du von ihnen nichts hält, dann gut.
Im Endeffekt wird es wohl eh auf etwas anderes hinauslaufen.
Wuerde ich wissen dass NVIDIA ploetzlich Lust hat mit einem Bein auf dem Drahtseil zu wandern und noch bevor dem Auslauf dieses Jahres auf 45nm setzen wuerde (was aber nie und nimmer zu einem 2008 release fuehren wuerde), koennte ich den Unsinn vielleicht auch noch glauben.
Obwohl mir der ganze Verdrahtungs-Wirrwarr bei einem hypothetischen 8*64 bit memory controller fuer heutige Verhaeltnisse eher als ein Alptraum erscheint.
Aber dann sicherlich mit deutlich höheren Taktraten als heutige GeForce8 und weiteren Pro-Transistor-Leistung-Verbesserungen? Ansonsten wäre das für 2009 wohl etwas wenig, da die Konkurrenz demnächst sich wieder deutlich mehr anstrengt.
Den Verlauf der Pro-Transistoren und der dementsprecheden Leistungs-steigerung zwischen den bisherigen wahren Generationen kannst Du Dir ausrechnen. Radikal kann sich wohl schwer etwas an dieser steigernder Marge etwas aendern und die Konkurrenz entwickelt auch nicht mit Sternstaub .
AnarchX
2007-11-28, 10:41:22
Wohl eher 2*G92M ;)
Was aber geradeso gegen die 3870 X2 reichen sollte und damit nur für magere $399-499 verkauft werden könnte. (Du meinst doch 2x 8800M-GTX?)
Und an sich wäre es auch eher ein magerer High-End-Refresh, der in manchen Setting wohl Probleme selbst gegen die 8800Ultra hätte.
Aber nicht doppelt so viel.
Laut X-bit Labs unter Last:
7950GX2 110W
7900 GT 48.4W
Ailuros
2007-11-28, 10:58:45
Was aber geradeso gegen die 3870 X2 reichen sollte und damit nur für magere $399-499 verkauft werden könnte. (Du meinst doch 2x 8800M-GTX?)
Und an sich wäre es auch eher ein magerer High-End-Refresh, der in manchen Setting wohl Probleme selbst gegen die 8800Ultra hätte.
Ich hab aber keine 600/1500 im Hinterkopf ;)
Laut X-bit Labs unter Last:
7950GX2 110W
7900 GT 48.4W
Ooops sch***** *hust*; ich hatte total vergessen dass die GTX fast zweimal so viel verbraucht als die GT. Hier hast Du natuerlich absolut recht.
Henroldus
2007-11-28, 11:31:34
Tweak Town hat a kärtchn :
http://www.tweaktown.com/news/8601/index.html
schön, doch nur EIN 6Pin Stromanschluss :)
Benches werden ja dann bald folgen wenn sie sich wie so oft nicht ans NDA halten
dargo
2007-11-28, 11:35:01
Laut X-bit Labs unter Last:
7950GX2 110W
7900 GT 48.4W
Afaik hat die getestete G7900GT nur 256MB Vram. Die 512MB Version liegt bei ca. 60W.
AnarchX
2007-11-28, 11:50:25
Afaik hat die getestete G7900GT nur 256MB Vram. Die 512MB Version liegt bei ca. 60W.
Das war die 7950GT, die wiederrum mehr Speicher- und GPU-Takt als die GX2 hatte:
http://www.xbitlabs.com/articles/video/display/geforce7950gt_3.html#sect0
Aber im Endeffekt sieht man hier, dass bei der GX2 imo keine besonders selektierten GPUs zum Einsatz kamen und sie vom Verbrauch zu den übrigen Desktop-GF7900 passte.
Wobei wenn man 79GT->GTX heranzieht, so könnte vielleicht eine G92GX2 wohl doch von der Energieeffizienz, wenn SLI richtig funktioniert, doch einem hochgeprügelten G92 überlegen sein.
LovesuckZ
2007-11-28, 15:33:28
Ich seh keinen grund für nVidia eine GX² Karte auf Basis des G92 zubringen. Wenn der 8800GT nicht der Speicher ausgeht, liegt die Karte maximal 20% hinter 8800GTX mit 4AA - das bei nur 75% der Speicherbandbreite der 8800GTX.
Eine fiktive 8800GTX bzw. Ultra mit 750/1875/1260Mhz mit 1024mb läge ca. 40% vor der 8800GTX und wäre beim Computerbase.de Ranking 80% vor der 3870. Da das Ranking viele Spiele beinhaltet, die der AMD Architektur besser liegen, könnte der Vorsprung sogar noch wesentlich größer sein.
Und die Taktraten sollten locker machbar sein mit einer TDP unter 200Watt. Man hätte also nicht nur eine schneller Lösung als AMD, man könnte sie wohl auch günstiger Fertigen.
Szenario21
2007-11-28, 17:05:11
Ist eigentlich auch ein Refresh der aktuellen G92 Karten auf 55nm und mit DDR4 RAM denkbar, bzw. geplant? Bei ATI gab es so etwas ja zumindest schon einmal.
GeneralHanno
2007-11-28, 17:56:20
der G92 ist ja schon quasi ein refresh des G80 (90nm -> 65nm). win weiterer shrink wäre also eher seltsam.
und nvidia versucht ja allgemein GDDR4 zu meiden und auf GDDR5 zu setzten (alsbald verfügbar)
AnarchX
2007-11-28, 18:02:30
der G92 ist ja schon quasi ein refresh des G80 (90nm -> 65nm). win weiterer shrink wäre also eher seltsam.
Wäre aber ziemlich einfach machbar, da 65 auf 55nm ein optischer Shrink wäre.
GeneralHanno
2007-11-28, 18:11:16
stimmt, ist ja ein optische shrink ...
naja im märz soll angeblich der G96 vorgestellt werden. ob der in 55nm kommt?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4399&Itemid=1
Ein interessierter Gast
2007-11-28, 23:07:20
HI!
Warum ist man eigentlich wieder von der Speicherbandbreite zurück gegangen ? Warum ist man beim G92 - obwohl in 65nm gefertigt - wieder auf 256/512 MB Speicher und 256Bit-Interface zurück gegangen ? War das ausschließlich jetzt ein Kostenfaktor, damit günstiger produziert werden kann und mehr Absatz statt findet ? Oder steckte dahinter mehr; hatte dieser mysteriöse Memory-Bug damit zu tun ?
Wird es eigentlich noch eine Geforce 8800 GTX auf 65nm geben ???
MfG
- ein interessierter Gast
mapel110
2007-11-28, 23:13:25
Ich versuchs mal zusammenzufassen.
nvidia brauchte etwas im Mid Range Bereich. Der G80 als 8800 GTS zu verkaufen, dürfte wohl dafür zu teuer gewesen sein. Also hat man eben einen Shrink gemacht, 256bit Interface und relativ niedrig getakteten Ram dazu und schon gehts für 200 €.
Es wird in ein paar Wochen (mitte Dezember wohl) eine neue 8800 GTS kommen auf Basis des G92 mit etwa 20% mehr Rohperformance und etwas mehr Speicherbandbreite als die 8800 GT.
Neues High End kommt wohl nicht in den nächsten 2-3 Monaten afaik.
Der Memorybug exisiert wohl immernoch und betrifft so ziemlich alle Geforce-Chips. Er tritt aber nicht immer auf und nur unter extremen Bedingungen. Hohe Auflösung + viel AA.
nvidia hatte mal angekündigt, ein Treiberfix zu bringen, aber daraus wurde bislang nichts. Kann wohl nur so sein, dass nvidia das Problem nicht nachstellen kann oder sie das Problem als zu gering einstufen.
Die Benchmarkbalken stimmen ja meistens. ;)
LovesuckZ
2007-11-28, 23:15:28
Wenn nVidia einem "Memory Bug" hätte, hätte AMD einen AA und Texturmanagmentbug. :rolleyes:
mapel110
2007-11-28, 23:17:07
Wenn nVidia einem "Memory Bug" hätte, hätte AMD einen AA und Texturmanagmentbug. :rolleyes:
Den AF-Bug hast vergessen. ^^
Aber irgendwas an Bug hat nvidia bestätigt.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/loesung_texturproblem_geforce_8800/
LovesuckZ
2007-11-28, 23:19:43
Aber irgendwas an Bug hat nvidia bestätigt.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/loesung_texturproblem_geforce_8800/
es gab einen Hotfix für das Problem von Microsoft und nVidia hat nur die Texturkompression für Karten mit weniger als 640mb aktiviert.
Wenn sie den erhöhten Mehrverbrauch des Speichers in Kauf für Leistungssteigerung anderer Art genommen haben, dann müssen sie mit dieser Designentscheidung leben. Hier von einem Bug zureden, ist einfach nur lächerlich.
Deine Äußerungen sind es in Ihrer Art genauso. Das man derart einseitig Argumentieren kann und alles als richtig darstellt, was eine Seite macht, könnte man fast als virales Marketing in einem Forum abstempeln.
LovesuckZ
2007-11-29, 00:06:42
Deine Äußerungen sind es in Ihrer Art genauso. Das man derart einseitig Argumentieren kann und alles als richtig darstellt, was eine Seite macht, könnte man fast als virales Marketing in einem Forum abstempeln.
Der Wahrheit ist es egal, ob man bezahlt wird oder nicht. :rolleyes:
Der Memorybug exisiert wohl immernoch und betrifft so ziemlich alle Geforce-Chips. Er tritt aber nicht immer auf und nur unter extremen Bedingungen. Hohe Auflösung + viel AA.
nvidia hatte mal angekündigt, ein Treiberfix zu bringen, aber daraus wurde bislang nichts. Kann wohl nur so sein, dass nvidia das Problem nicht nachstellen kann oder sie das Problem als zu gering einstufen.
Die Benchmarkbalken stimmen ja meistens. ;)
Betrifft nur den G80/92
Wenn nVidia einem "Memory Bug" hätte, hätte AMD einen AA und Texturmanagmentbug. :rolleyes:
Was hat ATI jetzt hier bei zutun? Es geht in dem Fred um NVIDIA
LovesuckZ
2007-11-29, 01:21:43
Was hat ATI jetzt hier bei zutun? Es geht in dem Fred um NVIDIA
Ich habe verdeutlich, dass unterschiedliche Architekturen unterschiedliche Schwächen haben.
Wer beim höhreren Speicherbedarf von einem Bug redet, könnte dies in wesentlich öfteren Fällen auch bei der Konkurrenzhardware.
AnarchX
2007-11-29, 07:51:01
Tweaktown scheint NDAs wohl weniger zu interessieren:
nVidia - 8800 GTS 512MB: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=393044)
MadManniMan
2007-11-29, 08:01:40
Ich habe verdeutlich, dass unterschiedliche Architekturen unterschiedliche Schwächen haben.
Wer beim höhreren Speicherbedarf von einem Bug redet, könnte dies in wesentlich öfteren Fällen auch bei der Konkurrenzhardware.
Was ist mit dem Volllaufen des Speichers? Ist das ein übliches Problem des Speichermanagements?
Anarchy-HWLUXX
2007-11-29, 10:50:47
Tweaktown scheint NDAs wohl weniger zu interessieren:
nVidia - 8800 GTS 512MB: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=393044)
Wenn se kein NDA bezüglich der GTS unterschrieben haben kann es ihnen auch egal sein ...
ShinyMcShine
2007-11-29, 13:31:30
Leider ein meiner Meinung nach unvollständiger Test. Interessant wäre nämlich ein direkter Vergleich mit der GTX gewesen. Schade dann natürlich auch, dass die Karte nicht mit 1GB ausgestattet war. Nichtsdestotrotz ein erster Fingerzeig...
... und nVidia hat nur die Texturkompression für Karten mit weniger als 640mb aktiviert.
Hä? Was soll das heissen?
dargo
2007-11-29, 16:50:29
Hä? Was soll das heissen?
Dass die 320MB nicht mehr so schnell ans Limit kommen wie vorher.
Tweaktown scheint NDAs wohl weniger zu interessieren:
nVidia - 8800 GTS 512MB: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=393044)
BOAH!!!! Der Stromverbrauch ist extrem, da kann irgendwas ned stimmen!
Apfelmus92
2007-11-29, 19:12:40
Die 8800GTS folgt doch auch noch in der 1GB-Variante, oder? zumindest hab ich das irgendwo gelesen, denke dass diese dann im januar kommt, so ähnlich wie bei der 8800gt jetzt die 256mb variante noch dazukam.
Hm, ich find den Test ziemlich ernüchternd. Für 50-100€ Aufpreis so ein kleiner Performance-Unterschied!?
Für sowas zahl ich bestimmt keine >300€. Dann doch lieber ne GT
Anarchy-HWLUXX
2007-11-30, 11:23:41
Hm, ich find den Test ziemlich ernüchternd. Für 50-100€ Aufpreis so ein kleiner Performance-Unterschied!?
Für sowas zahl ich bestimmt keine >300€. Dann doch lieber ne GT
Die haben OC karten zum vergleich benutzt ... und eine 320MB GTS weil se meinen die 640er bringt nix ->:crazy2:
Der test ist mies, ne vergleichbarkeit ist einfach nicht gegeben.
Betrifft nur den G80/92
hat dann der 8800gt auch den bug?
crux2005
2007-11-30, 12:35:40
die GeForce 8800GT basiert halt auf dem G92 ...
aber, was für ein Bug ? wieso reden alle von einem Bug ? :|
hat dann der 8800gt auch den bug?
8800GT und 8800GTS sind G92, also ja.
die GeForce 8800GT basiert halt auf dem G92 ...
aber, was für ein Bug ? wieso reden alle von einem Bug ? :|
Dass Nvidia mehr VRAM benötigt war eine Designentscheidung, also kein Bug. Einen Bug gibt es aber sehr wohl und zwar was das leeren des VRAM betrifft. Der tritt aber nur nach längerem Spielen auf. Dabei werden nicht alle "alten" Daten aus dem VRAM entfernt ---> man verschenkt VRAM ---> VRAM schneller voll als es sein müsste. Wurde inzwischen aber abgeschwächt. Die Einbrüche die wir in den Benchmarks sehen sollten eher nicht von diesem Bug verursacht sein, sondern schlicht weil Nvidia generell mehr VRAM benötigt. Dies war im übrigen auch bei den früheren Chips der Fall, nur nicht so krass.
crux2005
2007-11-30, 12:41:32
8800GT und 8800GTS sind G92, also ja.
nicht unbedingt
es gibt ja 3 4 GeForce 8800GTS SKU´s
8800GT und 8800GTS sind G92, also ja.
Ich meine natürlich die 8800GTS 512, nicht dass Missverständnisse auftreten ;)
Hvoralek
2007-11-30, 13:11:46
nicht unbedingt
es gibt ja 3 GeForce 8800GTS SKU´sSind das nicht vier? 6C- 640, 7C- 640, 320, 512.
Februar kommt also die nächste Highend Karte,hoffe dass sie nicht nur 20% schneller ist. Also nicht nur eine getunte 8800gtx :/
AnarchX
2007-11-30, 13:21:02
Nvidia to launch GeForce 9 series in February (http://www.digitimes.com/mobos/a20071129PD216.html)
Nvidia is ready for its next-generation GPU launch. According to sources at graphics card makers, the company plans to launch its GeForce 9 series GPU after the Lunar New Year in February.
The first chip to rollout of in GeForce 9 family will be the D9E, a high-end product that adopts 65nm manufacturing. The new product will also support DirectX 10.1 and Shader Model 4.1, revealed the sources.
In addition to the D9E, Nvidia will roll out a mid-range GeForce 9 family product named D9P in June 2008. The new GPU will adopt 55nm processing, the sources pointed out.
Wegen dem D3D10.1-Support müsste es eine neue GPU sein oder schlummert es vielleicht doch im G92...
Eventuell dann doch der G90 mit 512 Bit SI und 128 SPs?
MfG :cool:
James@work
AnarchX
2007-11-30, 13:42:41
Eventuell dann doch der G90 mit 512 Bit SI und 128 SPs?
Nur 128 MADD+MUL-SPs sind es bei einem 512-Bit wohl eher nicht.
128 SPs @ 65nm mit ordentlichem Takt reichen aber auch im Jahr 2008 für die Perfomancekrone.
160 SPs mit 512 SI glaube ich nicht, das wäre Overkill in 65 nm!
Außerdem ist NVIDIA bei neuen Generationen/Refreshes eher konservativ um die Margen hoch zu halten.
MfG :cool:
James@work
GeneralHanno
2007-11-30, 13:58:25
Wegen dem D3D10.1-Support müsste es eine neue GPU sein oder schlummert es vielleicht doch im G92...
Naja der G90 muss schon was unter der Haube haben (also nix G92 ...), schließlich kommt im Jan die 3870 X2 und im Juni (???) der R700.
Und es heißt "wegen des" *klugscheiß*
LovesuckZ
2007-11-30, 14:04:05
512bit wird der G92 bestimmt nicht unterstützen, da man dafür 8 ROP-Partitionen benötigt.
Meine Vermutung liegt immer noch bei einem G92@ ca. 750/1900/1300Mhz mit 1024mb. Damit wäre man locker konkurrenzfähig und könnte im Gegensatz zur Konkurrenz die Karte billiger fertigen.
GeneralHanno
2007-11-30, 14:17:33
Um den Bandbreitenmangel des G92 (mit seinen 4 ROP-PART) auszugleichen, müsste man dann aber GDDR4 verbrauen, und das will Nvidia ja nicht. Daher tippe ich eher auf GDDR3@512bit. Und wie schon gesagt: Nvidia muss auch an die Zukunft denken. Der D9E wäre das Flaggschiff für 1 Jahr und wie oben erwähnt schläft die Konkurrenz von ATi auch nicht (R680 und R700).
€dit: Dann will ich nochmal die Moore Keule rausholen:
Seit G80 (Vor einem Jahr gelauncht) stagniert der Transistorencount bei etwa 700M. D.h. es wäre Zeit für den 1-Mrd-Transistoren chip. Dank 65nm sollte das ja machbar sein und Nvidia hat ja mit dem G80 gezeigt, dass sie vor "Riesen-Dice" nicht zurückschrecken.
LovesuckZ
2007-11-30, 14:29:16
Um den Bandbreitenmangel des G92 (mit seinen 4 ROP-PART) auszugleichen, müsste man dann aber GDDR4 verbrauen, und das will Nvidia ja nicht. Daher tippe ich eher auf GDDR3@512bit. Und wie schon gesagt: Nvidia muss auch an die Zukunft denken. Der D9E wäre das Flaggschiff für 1 Jahr und wie oben erwähnt schläft die Konkurrenz von ATi auch nicht (R680 und R700).
512bit wird - ja ich lege mich fest - nicht erscheinen. Dafür müsste der G92 über 8 ROP-Partitionen - 32!!!! ROPs - verfügen. Und ich bezweifel es, dass man soviel vorhanden hat, wenn man diese dann nicht schon früher zur Verfügung stellt. Der G92 wird wohl eher ein Übergangschip sein, der die alten 8800 Karten ersetzt und für nVidia wesentlich billiger zu fertigen ist - nicht nur Chip sondern auch die Platine. Auch mangelt es der 8800GT nicht an Bandbreite sondern am Speicher. Der Rückstand beträgt zum Beispiel nur um die 15% in 1600*1200@4aa, wenn die Speichermenge nicht limitiert.
€dit: Dann will ich nochmal die Moore Keule rausholen:
Seit G80 (Vor einem Jahr gelauncht) stagniert der Transistorencount bei etwa 700M. D.h. es wäre Zeit für den 1-Mrd-Transistoren chip. Dank 65nm sollte das ja machbar sein und Nvidia hat ja mit dem G80 gezeigt, dass sie vor "Riesen-Dice" nicht zurückschrecken.
Ich bezweifel, dass wir in absehbarer Zeit eine deutliche Steigerung sehen werden. Bei dem jetzigen Konkurrenzkampf sind Preise über 399$ kaum realisierbar und somit wird man länger auf neue Generationen warten müssen. Langfristig wird der Konkurrenzkampf eben nicht nur postive Folgen haben.
K4mPFwUr$t
2007-11-30, 14:30:21
@GeneralHanno
beim R680 handelt es sich ja nur um eine X2 version, also an sicht nichts neues. sondern ledeglich 2x R670 auf einem PCB, wenn ich nicht irre.
sowohl G90 (D9E) und R700 werden die 1mrd grenze sprengen. wobei beim R700 wohl der gesamtcount zählt. wie es beim D9E ausschaut ist ungewiss ob dieser schon auf multicore aufspringt.
GeneralHanno
2007-11-30, 14:32:36
512bit wird - ja ich lege mich fest - nicht erscheinen. Dafür müsste der G92 über 8 ROP-Partitionen
Ich habe auch nicht behauptet, dass der D9E ein G92@512bit WÄRE. Ich glaube es ist ein neuer Chip (G90 ???) mit über 1Mrd. Tans.
Naja der G90 muss schon was unter der Haube haben (also nix G92 ...), schließlich kommt im Jan die 3870 X2 und im Juni (???) der R700.
Und es heißt "wegen des" *klugscheiß*
Die HD 3870 X2 ist laut ATi selber nur ca. 15% schneller als eine Gf 8800 Ultra, also keine Konkurrenz zu einer möglichen Gf 9800 GTX.
Was der R700 bringt, muss man abwarten, ebenso wie das Releasedatum
Juni 08 klingt recht früh und zu optimistisch!
MfG :cool:
James@work
Mit Dx 10.1 stehn die Chancen ganz gut,dass der Performancesprung größer ausfällt,wegen des neuen Designs ???
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.