PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x


Seiten : 1 2 [3] 4

dargo
2007-07-26, 22:36:37
Ja und?

Den Rest kannst du dir wohl selbst denken.


Und falls Du eine hoehere Aufloesung benutzen koenntest, bremst dann die Speichermenge oder andere Flaschenhaelse? Selbst wenn die GPU 2GB an Speicher haette momentan wuerde sich nichts phaenomenal an der Leistung in hoeheren Aufloesungen aendern.
Die 512MB wären schon langsam selbst in 12x10 zum Flaschenhals. Und mit einer G92GX2 wären locker 1920x1200 4xAA/16xAF (wenn nicht mehr) drin, zumindest von der Rohleistung her.

Jein. Auf jeden Fall liegt so ein Ding nicht im Nachteil im Vergleich zu einer 768MB 8800GTX wegen der Speichermenge.
Aha, dann wäre das auch geklärt. :)
Warum nicht gleich so?

Ailuros
2007-07-26, 22:47:41
Den Rest kannst du dir wohl selbst denken.

Da zwei 8800GTS@SLi hoehere Aufloesungen oder mehr AA samples als eine 8800GTX erreichen koennen, hat wohl nichts mit den jeweiligen Speichermengen zu tun; genau das zeigte der vorher gepostete Graph.

Die 512MB wären schon langsam selbst in 12x10 zum Flaschenhals. Und mit einer G92GX2 wären locker 1920x1200 4xAA/16xAF (wenn nicht mehr) drin, zumindest von der Rohleistung her.

Vorraussetzung dass in DIRT SLi auch optimal funktioniert. Wenn nicht waeren sogar 2GB Speicher nutzlos auf solche einem Ding.


Aha, dann wäre das auch geklärt. :)
Warum nicht gleich so?

Siehe Graph auf voriger Seite.

***edit:

Denk mal an die kombinierten theoretischen maximale Zahlen eines 2*8800GTX Gespanns und schau Dir den genauen Leistungs-Unterschied zu einer einzelnen 8800GTX an.

dargo
2007-07-26, 22:59:29
Siehe Graph auf voriger Seite.

***edit:

Denk mal an die kombinierten theoretischen maximale Zahlen eines 2*8800GTX Gespanns und schau Dir den genauen Leistungs-Unterschied zu einer einzelnen 8800GTX an.
Der sagt leider nicht viel aus da keine Angaben zum Vram Bedarf dabei stehen.
Nehmen wir mal die G8800GTS 640 OC und die HD2900XT:

GTS = 40 avg. fps
XT = 40,7 avg. fps (alpha driver)

Wenn diese Szene noch in die 512MB Vram passt sehen die Ergebnisse plausibel aus, auch beim CF. Viel interessanter würde ich es aber finden wie es aussehen würde wenn diese Szene ~600MB Vram verschlingt.

Hvoralek
2007-07-26, 22:59:38
Eine bessere Schaetzung koennte Dir die genaue die-Groesse von G98 geben.Soll G98 nicht ein absoluter Low- End- Chip sein? :confused:

Gast
2007-07-26, 23:19:42
Und bei den Gamer-GPUs wäre es auch gar nicht mal so verkehrt, imo ist G80 ziemlich Pixel/Texelfüllraten-lastig, sodass da noch etwas mehr arithmetische Leistung nicht gerade ein Ungleichgewicht mit sich bringen würde.[/url]


die ALUs scheinen selbst mit 90nm noch einiges an taktreserven zu haben, 2000MHz+ halte ich mit 65nm nicht unrealistisch. daher denke ich dass man auch ohne die hardwarezusammensetzung zu ändern das gewicht leicht in richtung der arithmetischen leistung lenken kann.

Ailuros
2007-07-27, 00:57:45
Der sagt leider nicht viel aus da keine Angaben zum Vram Bedarf dabei stehen.
Nehmen wir mal die G8800GTS 640 OC und die HD2900XT:

GTS = 40 avg. fps
XT = 40,7 avg. fps (alpha driver)

Schoen und bei R600/CF hast Du dann gleich 60.8 fps obwohl jegliche R600 "nur" 512MB Speicher hat und eine 8800GTS zufaelligerweise 620MB.

Da dass Crossfire System keinen alpha driver hatte sind es 60.8 gegen 35.1 im Fall von R600 und im Gegensatz 8800GTX/SLi = 77.7 fps vs. 47.2 fps (single 8800GTX).

Im ersten Fall ist es eine Steigerung von 73% und im zweiten 63%.

Noch weiter ein 8800GTS@SLi Gespann landet um 43% hoeher als eine einzelne 8800GTX, obwohl 640MB*2 gegen 768MB.

Ein R580/CF Gespann landet hier (trotz 2*512MB) um etwa 11% niedriger als eine 8800GTX.

Erstens leidet hier die R600 sowieso durch das MSAA und zweitens sehe ich nirgends (wo immer SLi funktioniert) selbst das geringste Anzeichen dass der Speicher irgendwo bremst.

Wenn der G92 so ausfaellt wie man das Ding einschaetzt dann liegen dessen maximale theoretischen Spezifikationen nur einen Hauch unter diesen einer 8800GTX, und ja in einem GX2 Fall hat so ein Ding durchaus gute Chancen um gute 50% schneller als die G80 zu sein und ja trotz "nur" 512MB pro chip.

Wenn diese Szene noch in die 512MB Vram passt sehen die Ergebnisse plausibel aus, auch beim CF. Viel interessanter würde ich es aber finden wie es aussehen würde wenn diese Szene ~600MB Vram verschlingt.

Crysis hat stellenweise sogar bessere Leistung in 1600*1200 mit 4xAA/16xAF als in Oblivion auf einer einzelnen G80, obwohl der Speicherverbrauch um einiges hoeher ist. Erstens ein anderes Genre und zweitens zum allerletzten Mal was Dir der Treiber durch diverse Applikationen berichtet ist nie und nimmer eine Garantie und ist nichts anderes als eine zweifelhafte Indizie.

Weit entfernt von dieser Beschreibung ist ein Benchmark zwar auch nicht, aber trotz allem reichen immer noch 512MB Speicher vollkommen aus fuer eine high end GPU. Hier sind die G80-er lediglich Aussnahmen wegen ihrer merkwuerdigen Busbreite.

G92/RV670 (egal ob single oder dual-chip) werden jeweils mit 512MB ausgestattet sein und selbstverstaendlich wird es fuer deren Lebenszeit ausreichen.

seahawk
2007-07-27, 07:18:59
Soll G98 nicht ein absoluter Low- End- Chip sein? :confused:

Wenn der PureVideo 3 hat kann man sehr leicht die Größe davon schätzen. Den Rest kann man dann leicht schätzen.

Godmode
2007-07-27, 07:59:55
Wenn der G92 so ausfaellt wie man das Ding einschaetzt dann liegen dessen maximale theoretischen Spezifikationen nur einen Hauch unter diesen einer 8800GTX, und ja in einem GX2 Fall hat so ein Ding durchaus gute Chancen um gute 50% schneller als die G80 zu sein und ja trotz "nur" 512MB pro chip.

Hab mir jetzt die letzten Kommentare mal durchgelesen und nochmal etwas überlegt. Ich war Anfangs doch eher skeptisch was diese GX2-Lösung betrifft, aber mittlerweile kann ichs mir schon wieder vorstellen.

Durch 65nm kann man eine GTX schrumpfen um die Margen in die Höhe zu treiben. Zusätzlich kann wohl auch der Takt erhöht werden, daher kann der Chip noch etwas kleiner ausfallen, also weniger Funktionseinheiten aber mehr Takt.

Alles in allem wäre das wirklich eine elegante Lösung für solch ein Zwischending. Hat nVidia bisher schon Chips in 65nm hergestellt, denn wenn sie die Politk der letzten Jahre weiterverfolgen, käme ein 1.000 Mio Transitoren Chip im frischen 65nm Prozess sowiso nicht in Frage?

Henroldus
2007-07-27, 11:55:45
Zusätzlich kann wohl auch der Takt erhöht werden, daher kann der Chip noch etwas kleiner ausfallen, also weniger Funktionseinheiten aber mehr Takt.

Hä? :|
die Strukturgröße wird kleiner, warum sollte die Transistoranzahl da abnehmen?
Das musst Du mir erklären :D

Hvoralek
2007-07-27, 12:05:09
Hä? :|
die Strukturgröße wird kleiner, warum sollte die Transistoranzahl da abnehmen?
Das musst Du mir erklären :DSo kann man die gewünschte Leistung mit noch kleinren Chips erreichen --> günstiger zu fertigen.

Gaestle
2007-07-27, 12:15:28
So kann man die gewünschte Leistung mit noch kleinren Chips erreichen --> günstiger zu fertigen.


Wenn durch die geringere Strukturgröße höhere Takte möglich werden, kann man - wenn man die Leistung zum Vorgängerprodukt kostant halten will - , die Taktrate steigern und gleichzeitig Bauteile einsparen. So werden die Produktionskosten gesenkt, während der Kunde am Ende die gleiche Leistung bekommt. Außerdem könnte damit Stromverbrauch und Abwärme auch sinken.

Siehe Geforce 6800GT (16Pixelshader @350Mhz bei 130nm) vs. 6800GS (12 PS@425Mhz bei 110nm).
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_6800_gs/1/#abschnitt_einleitung

[edit:] Mist, zu spät, dafür ausführlicher ...

Godmode
2007-07-27, 14:34:43
Hä? :|
die Strukturgröße wird kleiner, warum sollte die Transistoranzahl da abnehmen?
Das musst Du mir erklären :D

Die Vorposter habens schon sehr gut erklärt, siehe Geforce 7800 GTX -> 7900 GTX. Die 800er hatte um die 300 Mio, die 900er dann nur mehr 278 Mio, bei höherer Leistung durch mehr Takt.

AnarchX
2007-07-27, 14:37:51
Naja, G70 auf G71 ist nicht das beste Beispiel, da ja hier die Einheitenzahlen gleich blieben. Die Transistorersparnis kam afaik durch ein paar Umstrukturierungen im Floorplan.

NV40 auf NV42 ist da schon ein bessere Beispiel, gleiche Leistung bei weniger Einheiten, eben durch den höheren Takt.

dargo
2007-07-27, 15:15:21
Schoen und bei R600/CF hast Du dann gleich 60.8 fps obwohl jegliche R600 "nur" 512MB Speicher hat und eine 8800GTS zufaelligerweise 620MB.

Da dass Crossfire System keinen alpha driver hatte sind es 60.8 gegen 35.1 im Fall von R600 und im Gegensatz 8800GTX/SLi = 77.7 fps vs. 47.2 fps (single 8800GTX).

Im ersten Fall ist es eine Steigerung von 73% und im zweiten 63%.

Noch weiter ein 8800GTS@SLi Gespann landet um 43% hoeher als eine einzelne 8800GTX, obwohl 640MB*2 gegen 768MB.

Das ist ja alles richtig. Nur, wie gesagt - anscheinend geht bei dieser Szene der Vram Bedarf nicht über 512MB hinaus. Interessanter würde ich es finden wenn der Vram Bedarf halt in dieser Szene bei ~600MB liegen würde. Denn, wenn wir bei einem G92 von 1x 512MB Vram ausgehen würde dieser (obwohl er von der Rohleistung nahe der G8800GTX liegen soll) total einbrechen. Eben, weil ihm der Vram ausgehen würde.


Crysis hat stellenweise sogar bessere Leistung in 1600*1200 mit 4xAA/16xAF als in Oblivion auf einer einzelnen G80, obwohl der Speicherverbrauch um einiges hoeher ist.

Ich glaube du verstehst mich nicht. :(
Das ist zwar erfreulich, dass Crysis stellenweise sehr gut performt. Ein G80 hat aber 50% mehr Vram als ein G92 zur Verfügung. Das ist nicht wenig. Die Frage ist halt ob ein G92 bei Crysis stark einbricht (weil er auslagern muss) sobald die Applikation mehr als 512MB Vram benötigt. Ich denke in Crysis wird man schnell die 512-er Marke knacken, wenn ich mir das Bildmaterial so anschaue. Oder Crytek kann zaubern. :D


Erstens ein anderes Genre und zweitens zum allerletzten Mal was Dir der Treiber durch diverse Applikationen berichtet ist nie und nimmer eine Garantie und ist nichts anderes als eine zweifelhafte Indizie.

Komischerweise trifft dieses aber genau zu bei CoD2. :wink:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137&highlight=folgen


Weit entfernt von dieser Beschreibung ist ein Benchmark zwar auch nicht, aber trotz allem reichen immer noch 512MB Speicher vollkommen aus fuer eine high end GPU.

Nunja, das sehe ich wieder anders. :)

Ailuros
2007-07-28, 19:08:23
Hab mir jetzt die letzten Kommentare mal durchgelesen und nochmal etwas überlegt. Ich war Anfangs doch eher skeptisch was diese GX2-Lösung betrifft, aber mittlerweile kann ichs mir schon wieder vorstellen.

Als ich in der Vergangenheit zum ersten Mal von der 7900GX2 hoerte, war mein erster Gedanke: "Verzweiflungsakt". Als ich dann aber die 7950GX2 deren Leistung und Preis sah, war das Ding nichtmal so uebel, nur eben eine ziemlich kurze Lebenszeit bis die G80 erschien.

Durch 65nm kann man eine GTX schrumpfen um die Margen in die Höhe zu treiben. Zusätzlich kann wohl auch der Takt erhöht werden, daher kann der Chip noch etwas kleiner ausfallen, also weniger Funktionseinheiten aber mehr Takt.

Bingo.

Alles in allem wäre das wirklich eine elegante Lösung für solch ein Zwischending. Hat nVidia bisher schon Chips in 65nm hergestellt, denn wenn sie die Politk der letzten Jahre weiterverfolgen, käme ein 1.000 Mio Transitoren Chip im frischen 65nm Prozess sowiso nicht in Frage?

Jetzt kombinier alle drei Deiner Paragraphen mit meiner Antwort oben fuer den ersten Paragraph und denk nach wie lang die Lebenszeit einer theoretischen G92/GX2 sein koennte, was genau der D3D10.1 chip sein koennte, auf welchem Herstellungsprozess und wann dieser genau ankommen koennte.

Man muss eben nur an die Sparschwein-Taktik von NV denken und dann haut es schon hin. Ich kann natuerlich auch zu 100% falsch liegen, aber anhand G90/D3D10.1 irgendwo =/>Q2 2008 macht es mir keinen Sinn fuer extravagante chips, ueberhaupt wenn AMD auch nichts aehnliches als Antwort zu bieten haben wird.

Ich will sogar wetten dass sie wieder frueher als R700 antanzen...*hust*

Ailuros
2007-07-28, 19:31:59
Das ist ja alles richtig. Nur, wie gesagt - anscheinend geht bei dieser Szene der Vram Bedarf nicht über 512MB hinaus. Interessanter würde ich es finden wenn der Vram Bedarf halt in dieser Szene bei ~600MB liegen würde. Denn, wenn wir bei einem G92 von 1x 512MB Vram ausgehen würde dieser (obwohl er von der Rohleistung nahe der G8800GTX liegen soll) total einbrechen. Eben, weil ihm der Vram ausgehen würde.

Was genau soll denn eine G92 kosten? Hallo Performance-GPU; daher wird das Preis-Leistungsverhaeltnis ausgezeichnet sein. Trotzdem.....


Ich glaube du verstehst mich nicht. :(
Das ist zwar erfreulich, dass Crysis stellenweise sehr gut performt. Ein G80 hat aber 50% mehr Vram als ein G92 zur Verfügung. Das ist nicht wenig. Die Frage ist halt ob ein G92 bei Crysis stark einbricht (weil er auslagern muss) sobald die Applikation mehr als 512MB Vram benötigt. Ich denke in Crysis wird man schnell die 512-er Marke knacken, wenn ich mir das Bildmaterial so anschaue. Oder Crytek kann zaubern. :D


Oder Du uebertreibst einfach mit Deinem Speicher-fimmel:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes

Bei 16*12 mit 4xAA verbraucht CoH genau wieviel Speicher?

Lass mich sehen die GTS320 verliert knapp 25% gegen eine GTS640, obwohl die letztere doppelt so viel Speicher hat. Am Ende des Tages und der Laecherlichkeit zuliebe sind beide nicht mehr spielbar in der Aufloesung.

Hingegen verliert eine 2900XT gegen eine 8800GTX um etwa 17% in der Aufloesung obwohl diese auch "nur" 512MB Speicher hat; das koestlichste ist natuerlich dass auch die 1024MB 2900XT hier nicht schneller sein duerfte als die 8800GTX.

Speichermengen haben zwar ihre Wichtigkeit, man darf es nur nicht uebertreiben.

Nunja, das sehe ich wieder anders. :)

Nochmal die gleiche Frage, bei nahezu idealem load balancing hat eine theoretische GX2 genau wieviel Speicher zur Verfuegung?

Winter[Raven]
2007-07-28, 20:17:33
Ich will sogar wetten dass sie wieder frueher als R700 antanzen...*hust*

Also wenn sich das bewahrheitet... Konkurrenz belebt den Markt. Aber so braucht ATI garnicht mit dem R700 anzutanzen und kann sich auf den R800 konzentrieren.

dargo
2007-07-28, 20:38:00
Was genau soll denn eine G92 kosten?

Hmm, bei nahezu gleicher Performance wie die GTX (dafür aber 65nm und 512MB Vram) würde ich mal ~399-449$ schätzen, also ca. 330-370€ Straßenpreis.


Oder Du uebertreibst einfach mit Deinem Speicher-fimmel:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes

Bei 16*12 mit 4xAA verbraucht CoH genau wieviel Speicher?

Lass mich sehen die GTS320 verliert knapp 25% gegen eine GTS640, obwohl die letztere doppelt so viel Speicher hat. Am Ende des Tages und der Laecherlichkeit zuliebe sind beide nicht mehr spielbar in der Aufloesung.

1. Du darfst hier nicht vergessen, dass CB die avg. fps angibt. Dh. wenn die 320MB GTS 25% im Durchschnitt langsamer ist, ist sie bei den min.fps deutlich mehr als 25% langsamer. Ich weiß nicht wie du das siehst, aber die Spielbarkeit hängt bei mir von den min. fps ab.

2. Dass die Frames nicht mehr im "flüßigen Bereich" sind dürfte wohl daran liegen, dass im Test TSSAA aktiv war.


Hingegen verliert eine 2900XT gegen eine 8800GTX um etwa 17% in der Aufloesung obwohl diese auch "nur" 512MB Speicher hat...

Wenn die Testsequenz nicht über 512MB lag oder nur für eine sehr geringe Zeit sind die Ergebnise plausibel.


... das koestlichste ist natuerlich dass auch die 1024MB 2900XT hier nicht schneller sein duerfte als die 8800GTX.

Die 1GB HD2900XT kann sich schlecht absätzen wenn die Testsequenz keine 768MB Vram übersteigt. Solange wir den Vram Bedarf der Testsequenz nicht kennen macht es keinen Sinn weiter darüber zu diskutieren. :)

nordic_pegasus
2007-07-28, 22:01:55
Hmm, bei nahezu gleicher Performance wie die GTX (dafür aber 65nm und 512MB Vram) würde ich mal ~399-449$ schätzen, also ca. 330-370€ Straßenpreis.


ich dachte, der G92 ist als Performance Chip zwischen High-End und Mainstream angesiedelt. Also irgendwo zwischen den Preisen einer 8600GTS und 8800GTS. Darum hab ich so mit 250Euro Einführungspreis gerechnet...

nomadhunter
2007-07-28, 23:21:48
Dürfte drauf ankommen, was ATI macht. Ich würde mir eigentlich auch <300€ vorstellen, aber wenn ATI die 2900 XT nicht im Preis senkt, kann NVIDIA auch 350€ verlangen. Und der RV670 wird wahrscheinlich erst später (2008) kommen. Bleibt noch die Hoffnung, dass NVIDIA versucht, ATI mit niedrigen Preisen unter Druck zu setzen (wie Intel derzeit bei AMD).

Nightspider
2007-07-28, 23:48:00
Dürfte drauf ankommen, was ATI macht. Ich würde mir eigentlich auch <300€ vorstellen, aber wenn ATI die 2900 XT nicht im Preis senkt, kann NVIDIA auch 350€ verlangen. Und der RV670 wird wahrscheinlich erst später (2008) kommen. Bleibt noch die Hoffnung, dass NVIDIA versucht, ATI mit niedrigen Preisen unter Druck zu setzen (wie Intel derzeit bei AMD).

Njo, und alle die mehr Leistung wollen, kaufen die gleich 2 mal. Also 600-700€ für 2*G92 mit theoretisch 3 facher 8800GTX-Leistung, wenn man gleiche Anzahl an Einheiten hat und den Takt sagen wir mal um 40% anhebt und zusätzliche Architektur-Optimierungen hinzurechnet.

Würde auch nicht schlecht klingen. Dann hätte jede Karte 768MB was durchaus reichen würde.

Gast
2007-07-28, 23:51:38
Also irgendwo zwischen den Preisen einer 8600GTS und 8800GTS. Darum hab ich so mit 250Euro Einführungspreis gerechnet...

dann würde ja 2xG92@500€ als neues highend ganz gut passen ;)

Liszca
2007-07-29, 09:27:25
Die frühen Voodoos hatten mW alle einen Pixel- und einen oder mehrere Texelchips. Und wollte 3dfx nicht auch bei VSA200/ Thor mehrere unterschiedliche Chips verwenden?

ja zuletzt wollten sie doch einen externes-vertex-dingens-da bauen für den napalm. keine ahnung obs stimmt, schon lange her.

robbitop
2007-07-29, 14:48:56
Man brauchte eh eine AGP Bridge und da der VS/TnL eh vor dem Rasterizen kommt und beide Chips zusammen ein Bild rendern, bot sich das Sage konzept an, um Redundanz zu vermeiden.

3Dfx baute diese SLI Dinger aber auch nicht, weil das Konzept so toll war, sondern weil man ganz einfach staendig klamm (Geld und R&D) war. Eine gute Moeglichkeit ist natuerlich immer, nur einen Chip zu entwickeln und diesen ueber die Anzahl zu skalieren. Dafuer wirds dann aber in der Produktion teurer und die Margen sinken.

Coda
2007-07-29, 15:33:07
Man brauchte eh eine AGP Bridge und da der VS/TnL eh vor dem Rasterizen kommt und beide Chips zusammen ein Bild rendern, bot sich das Sage konzept an, um Redundanz zu vermeiden.
Problem dabei ist, dass man für Vertexdaten wieder extra RAM braucht.

robbitop
2007-07-29, 16:31:08
Hatte das Ding nicht sogar ein paar MiB fuer Vertexdaten?
Ansonsten koennte das Ding auch ueber den Memcontroller der Rasterizer auf den VRAM zugreifen.

Coda
2007-07-29, 17:02:46
Hatte das Ding nicht sogar ein paar MiB fuer Vertexdaten?
Muss es.

Ansonsten koennte das Ding auch ueber den Memcontroller der Rasterizer auf den VRAM zugreifen.
Viel zu kompliziert. Welcher Rasterizer? Bandbreite?

AnarchX
2007-07-30, 12:24:47
G92 Single = 8800GT? (http://www.hardspell.com/english/doc/showcont.asp?news_id=1111)
http://img255.imageshack.us/img255/9154/7e751b3c66cd440d8347b34qe7.jpg

Die gute Videobeschleunigung würde ja für den VP2 sprechen.

btw.
Steht da 2900XT Pro oder 2900XT Pre?
(Die 2900Pro soll ja laut Gerüchten (http://www.chilehardware.com/foro/amd-hd-2900-t106198.html) auch auf R600 basieren -> kein UVD)

edit:

Bild in besserer Auflösung offenbart, dass es nur eine 8600GT ist:
http://www.expreview.com/img/news/070730/nvidia.jpg
Aber trotzdem erwähnt man dort eine 2900XT Pro. ;)

Godmode
2007-08-01, 14:06:30
Was ich mich noch frage: Beim G80 konnte die Shaderdomain sehr hoch getaktet werden, da die ALUs sehr hardwarenah designed wurden. Glaubt ihr dass die ALUs für G92 auch wieder neu designed werden müssen, da dieser ja wahrscheinlich im 65nm Prozess gerfertigt wird und die Bibliotheken dafür wieder anders aussehen?

Interessant wird auch der Stromverbrauch werden! Was wird ein G92 wohl brauchen? Ich denke in etwa 50-70 Watt, was bei der GX2 dann 100-140 Watt wären. Wäre natürlich ein Traum wenn die GX2 100 Watt oder weniger brauchen würde.

TSMC spricht übrigens von 30-50 % Geschwindigkeitsvorteil gegenüber dem 90nm Prozess. Ob dies so einfach auf die Taktfrequenz umgelegt werden kann?
"It features two times the 90nm gate density and boasts a speed improvement of between 30 to 50 percent."
http://www.tsmc.com/english/b_technology/b01_platform/b010101_65nm.htm

Was ich mich noch frage: wird die GX2 wieder in Sandwichform kommen, oder hat nVidia ein neues, besseres Konzept gefunden?

AnarchX
2007-08-01, 14:17:58
Interessant wird auch der Stromverbrauch werden! Was wird ein G92 wohl brauchen? Ich denke in etwa 50-70 Watt, was bei der GX2 dann 100-140 Watt wären. Wäre natürlich ein Traum wenn die GX2 100 Watt oder weniger brauchen würde.
Würde ich auch denken, immerhin muss man ja auch mal einen Ersatz für den G71 im immer wichtiger werdenden NB-Markt bringen.


Was ich mich noch frage: wird die GX2 wieder in Sandwichform kommen, oder hat nVidia ein neues, besseres Konzept gefunden?

Imo ist das doch schon ein sehr gutes Konzept, da man hier relativ einfache PCBs verwendet und bei einer "Reperatur" teilweise nur eine Teilkarte wegwerfen muss.
Einzig die Kühlung ist noch etwas optimierungswürdig, aber hier hat ASUS bei ihrer Sandwich-X1950Pro-Dual einen interessanten Ansatz mit Heatpipes und zwei 120er(?) auf dem Kühlkörper gezeigt.;)

Edit:
Wobei es vielleicht diesmal doch nur ein PCB sein könnte, man will ja immerhin auch Dualkarten für die 1U-Racklösung bei TESLA anbieten:
http://www.pcper.com/images/reviews/424/tesla_1u_angle.jpg
These 1U units will support either 4 GPUs or 8 GPUs; the 8-core version will be using dual-GPU boards that are not yet available but will be soon.
http://www.pcper.com/article.php?aid=424&type=expert
Das wäre wahrscheinlich zu eng für eine Sandwichlösung.

Godmode
2007-08-01, 16:33:22
Anscheinend soll Ende 2007 ein Produkt vorgestellt werden, das 64bit Rechengenauigkeit in den ALUs unterstützt, eben für TESLA. Das dürfte dann wohl G92 sein, weilich kann mir schwer vorstellen, dass für den Profimarkt ein eigener Chip entwickelt wird. Ich frage mich allerdings auch, ob das nicht sau teuer ist, bezogen auf die Transitoren Anzahl?

Hvoralek
2007-08-01, 16:37:16
Anscheinend soll Ende 2007 ein Produkt vorgestellt werden, das 64bit Rechengenauigkeit in den ALUs unterstützt, eben für TESLA. Das dürfte dann wohl G92 sein, weilich kann mir schwer vorstellen, dass für den Profimarkt ein eigener Chip entwickelt wird. Ich frage mich allerdings auch, ob das nicht sau teuer ist, bezogen auf die Transitoren Anzahl?Doppelte Präzision in voller Geschwindigkeit dürfte die Einheiten doppelt so teuer machen. Eine Emulation (wie etwa bei Cell) ist viel billiger, aber auch viel langsamer.

AnarchX
2007-08-01, 16:38:47
Eine Emulation (wie etwa bei Cell) ist viel billiger, aber auch viel langsamer.

Aber immernoch besser als es gar nicht anzubieten. ;)

Hvoralek
2007-08-01, 16:57:00
Aber immernoch besser als es gar nicht anzubieten. ;)Man kann höhere Genauigkeit auch per Software emulieren. Ob eine billige Hardwarevariante unbedingt schneller ist, weiß ich nicht.

deekey777
2007-08-01, 17:03:48
Doppelte Präzision in voller Geschwindigkeit dürfte die Einheiten doppelt so teuer machen. Eine Emulation (wie etwa bei Cell) ist viel billiger, aber auch viel langsamer.
Die doppelte Präzision wird vorhanden sein, aber Tesla (auch Quadro?) vorbehalten.
http://www.beyond3d.com/content/articles/77/3
However, that does not mean that there won't be Tesla-specific features. One of the problems preventing the adoption of GPU computing in some markets is the need for double precision. As we look to G92, which has been stated to be close to 1 TFlop for single precision processing as well as being capable of double precision processing, we can say that double precision on G92 will be limited to the Tesla line. While this will surely disappoint some, the need for double precision processing on a consumer GPU is questionable at best, and NVIDIA sees this as an excellent way to differentiate the two product lines. We expect that there will be other Tesla-specific features, such as ECC RAM, that simply don't make sense in the consumer market.

Zu den ALUs: Der G86 schafft schon eine SF in einem Takt (G80/G84 alle vier).

Hauwech
2007-08-01, 17:06:43
Denke ich auch. Selbst wenn es 50% Geschwindigkeitseinbuße wären, bei den GFlops dürften sie trotzdem noch in ihrem Aufgabenbereich deutlich vor CPUs liegen.

Wenn ich mir das Bild von der 1HE so ansehe, könnte man vielleicht mit ein bisschen gutem Willen sogar 6 Karten reinquetschen. :D

Hvoralek
2007-08-01, 17:14:56
Die doppelte Präzision wird vorhanden sein, aber Tesla (auch Quadro?) vorbehalten.
http://www.beyond3d.com/content/articles/77/3Die Frage ist aber, wie schnell ("G92, which has been stated to be close to 1 TFlop for single precision processing as well as being capable of double precision processing"). Wenn der G92 für Tesla derselbe ist wie der G92 für den Homeusermarkt, werden sie bestimmt nicht die Transistoren für native 64- bit- Berechnungen aufwenden.

Anarchy-HWLUXX
2007-08-02, 13:56:19
http://www.pcper.com/article.php?aid=424&type=expert
Das wäre wahrscheinlich zu eng für eine Sandwichlösung.


Passt scho - man muss nur die Luft gescheit zu den doppel PCBs befördern (Paar Plastik Formteile) - dann geht auch GX2

up¦²
2007-08-02, 14:09:10
G92 im November: mit 3 x16 SLI Mobo... :wink:
http://www.hardspell.com/english/doc/showcont.asp?news_id=1138
Fröhliche Weihnachten schon mal!

AnarchX
2007-08-02, 14:13:46
G92 im November: mit 3 x16 SLI Mobo... :wink:
http://www.hardspell.com/english/doc/showcont.asp?news_id=1138
Fröhliche Weihnachten schon mal!

Gab es schon vor zwei Wochen bei VR-Zone zu lesen und befindet sich schon längst im ersten Posting, also bitte das nächste Mal 2min investieren und schauen ob die News noch eine solche ist. ;)

Gast
2007-08-02, 14:23:54
Würdet ihr jetzt noch eine 8800gts kaufen?
Oder soll ich warten?

McGizmo
2007-08-02, 14:27:29
Du kannst grundsätzlich IMMER auf die nächste, bald erscheinende Generation warten. Wenn du die Leistung jetzt brauchst, dann kannst du auch jetzt kaufen.

Wenn du sie nicht brauchst, wieso dann überhaupt eine neue Karte.

So sehe ich das :)

Godmode
2007-08-02, 14:28:46
Würdet ihr jetzt noch eine 8800gts kaufen?
Oder soll ich warten?

Wenn ich sie jetzt schon brauchen würde, dann würde ich sie jetzt kaufen. Wenn du noch warten kannst, dann könntest du auf den G92 warten und direkt bei der Vorstellung kaufen. Es kommt darauf an was für dich JETZT wichtig ist.

Gast
2007-08-02, 14:31:44
naja ich wollte mir irgendwann dieses jahr nen neuen pc kaufen,
jetzt hab ich noch nen p4 1,7ghz mit ner 9600pro...

und bis der hp bildschirm kommt dauerts auch noch n bisschen^^


wann kommt den genau die neue karte,
und was wird sie kosten?

Godmode
2007-08-02, 14:38:58
naja ich wollte mir irgendwann dieses jahr nen neuen pc kaufen,
jetzt hab ich noch nen p4 1,7ghz mit ner 9600pro...

und bis der hp bildschirm kommt dauerts auch noch n bisschen^^


wann kommt den genau die neue karte,
und was wird sie kosten?

Voraussichtlich kommt der G92 im November. Es wird wohl zwei oder mehr Versionen geben von 200 - 500 Euro. Die 200 Euro Version könnte eine niedriger getaktete Midgrange-Performance G92 Karte sein. Um 250 - 300 Euro wäre dann eine Performance-Variante möglich und für 400 - 500 Euro eine Highend GX2-Variante.

Gast
2007-08-02, 14:49:37
Na wenn das so ist,
warte ich noch bis November und hol mir dann die 300€ Variante, danke

up¦²
2007-08-03, 12:45:14
naja ich wollte mir irgendwann dieses jahr nen neuen pc kaufen,
jetzt hab ich noch nen p4 1,7ghz mit ner 9600pro...

und bis der hp bildschirm kommt dauerts auch noch n bisschen^^


wann kommt den genau die neue karte,
und was wird sie kosten?

keiner außer wirklichen Insidern (aber halten noch dicht!) kann dir wirklich weiter helfen :wink:
Wir alle warten auf die Techdemo von Crysis - ganz einfach... lange dauert es ja nicht mehr (September) :rolleyes:

dargo
2007-08-03, 12:47:34
keiner außer wirklichen Insidern (aber halten noch dicht!) kann dir wirklich weiter helfen :wink:
Wir alle warten auf die Techdemo von Crysis - ganz einfach... lange dauert es ja nicht mehr (September) :rolleyes:
Nee, November. :(
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371636&page=23

up¦²
2007-08-03, 13:20:02
Nee, November. :(
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371636&page=23
Danke für den Hinweis, schade, ähm na endlich :redface:
aber: 16. November 2007 könnte ja Kaufdatum sein, die Techdemo erwarte ich einfach früher.

Nightspider
2007-08-03, 16:42:58
UT3 und Crysis erscheinen zum G90/92 Release :D

Gast
2007-08-03, 17:30:01
Mit der neuen Karte wird man dann wahrscheinlich auch in 1650*1080 mit maximalen Details spielen können, oder?
mit der 8800gts wird das ja knapp

Gast
2007-08-03, 18:49:38
Klar geht das ;) Schau dir doch die Crysis Gameplay Videos an, entweder sind das SLI Systeme oder es ist eine 8800GTX, und da SLI unter Vista nich sauber lief am anfang des Jahres kannst du davon ausgehen das alle Präsentationen von Crysis mit ner 8800GTX gemacht wurden.
Die Frage is eher, reicht die CPU oder musst du beim Dualcore 3GHz fahren.

Gast
2007-08-04, 14:24:07
Mit der neuen Karte wird man dann wahrscheinlich auch in 1650*1080 mit maximalen Details spielen können, oder?
mit der 8800gts wird das ja knapp


ist crysis schon erhältlich? nein! also wie sollte man das beantworten können, nichtmal crytek selbst kann heute wirklich sagen wie das spiel auf einer bestimmten hardware performen wird.

ich bin allerdings recht zuversichtlich, dass crysis nicht unbedingt die neueste hardware braucht um ordentlich zu laufen, UT erst recht.

trollkopf
2007-08-11, 11:04:44
UT3 und Crysis erscheinen zum G90/92 Release :D

denke ich auch; Crysis , vermarktet als grösstes PC Spiel der letzten Jahre, da neue Karten als cross-promotion auf den Markt zu bringen, das lässt sich NVIDIA bestimmt nicht entgehen.

AnarchX
2007-08-12, 19:59:29
"Neue" Infos: (von einem Moderator bei PCinlife, die ja bekanntlich gute Quellen haben ;))

- GeForce9 wird eine Produktfamilie sein (wer hätte das gedacht...)
- GF9 und GF8 Codenamensystem(Gx0 > Gx4 >... ) sind ähnlich aber nicht identisch

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX =)
- G92 erzielt im 3DMark06 mehr als 9k Punkte
- G92 wurde noch nicht vollständig getestet, so könnten mit Pech noch Bugs gefunden werden
- G92 hat noch keinen konkreten Termin, aber gegen Weihnachten sollte er auf jeden Fall erhältlich sein

Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2009 sollen weitere G9x GPUs erscheinen

- in der GF9-Serie soll es eine 1 TFLOP-SKU geben

http://we.pcinlife.com/thread-807684-1-1.html

Adam D.
2007-08-12, 21:46:22
Klingt ja schon echt spannend :) Dumm nur, dass ich im Oktober aufrüsten will, das liegt dann natürlich doof :(

Winter[Raven]
2007-08-12, 22:04:23
Anfang 2008 bis Ende 2009 sollen weitere G9x GPUs erscheinen

Sollte nicht G100 schon nächstes Jahr kommen?

mapel110
2007-08-12, 22:09:21
Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2009 sollen weitere G9x GPUs erscheinen

Wenn ich sowas schon lese, wirkt der Rest auf mich auch unglaubwürdig. Eine GPU wird konzepiert und auch zum Ende gebracht. Alles andere lässt sich entweder im Simmulator testen oder ist schlicht zu teuer.
Und einen Zeitraum von einem Jahr kann jeder als Erscheinungszeitraum nennen. Sogar Fuad und Fudzilla.

AnarchX
2007-08-12, 22:10:25
;5748153']Sollte nicht G100 schon nächstes Jahr kommen?

:sneak: X-D

Naja, das würde ich mittlerweile doch eher ausschliessen. Zudem solll ja vor G10x noch G2x0 kommen.:crazy:

Imo wird es wohl so sein, dass im Frühjahr(vielleicht diesmal zur Cebit) die mittleren G9x Karten kommen und vielleicht ein auf 55nm geshrinkter G92 noch als HighEnd-Refresh.

G98 wird wohl, wie damals G72, etwas eher antretten, immerhin ist NV momentan gegen den RV610 sehr schlecht positionert.


Wenn ich sowas schon lese, wirkt der Rest auf mich auch unglaubwürdig. Eine GPU wird konzepiert und auch zum Ende gebracht. Alles andere lässt sich entweder im Simmulator testen oder ist schlicht zu teuer.

Es wird ja nicht gesagt ob G90 in Silizium existiert. ;) Würde auch eher auf die Simulatorvariante tippen.

Winter[Raven]
2007-08-12, 22:10:41
Wenn ich sowas schon lese, wirkt der Rest auf mich auch unglaubwürdig. Eine GPU wird konzepiert und auch zum Ende gebracht. Alles andere lässt sich entweder im Simmulator testen oder ist schlicht zu teuer.
Und einen Zeitraum von einem Jahr kann jeder als Erscheinungszeitraum nennen. Sogar Fuad und Fudzilla.

Ahh ... es gab auch einen G71 mit 31 Pipes ;) Der aber nie rausgebracht wurde da => Leistung/Abwärme/Preis nicht stimmte.

AnarchX
2007-08-12, 22:15:35
;5748171']Ahh ... es gab auch einen G71 mit 31 Pipes ;) Der aber nie rausgebracht wurde da => Leistung/Abwärme/Preis nicht stimmte.

War nicht der 32 "Pipe" Chip, der viel zu heiß in der Simulation wurde, im Endeffekt eine ältere Version des G80?

Hvoralek
2007-08-12, 22:21:57
;5748153']Sollte nicht G100 schon nächstes Jahr kommen?Ich würde auch darauf tippen, dass 2008 noch eine mehr oder weniger neue Architektur kommen wird. Vlt. wird die mangels großer Änderungen zu G9x gezählt, oder es gibt wirklich noch eine ganze Zeit lang Chips der älteren Architektur (G78 ahoi).

deekey777
2007-08-12, 22:25:09
;5748153']Sollte nicht G100 schon nächstes Jahr kommen?
Was soll der G100 so alles können? D3D10.1?

Winter[Raven]
2007-08-12, 22:30:22
Was soll der G100 so alles können? D3D10.1?

How the Hell Should I Know?

Nvidia G9x wird D3D10.1 schon unterstützen, was der G100 kann, bleibt abzuwarten.

mapel110
2007-08-12, 22:33:11
War nicht der 32 "Pipe" Chip, der viel zu heiß in der Simulation wurde, im Endeffekt eine ältere Version des G80?
Nein, das war definitiv eine G71-Variante

deekey777
2007-08-12, 22:58:53
;5748233']How the Hell Should I Know?

Nvidia G9x wird D3D10.1 schon unterstützen, was der G100 kann, bleibt abzuwarten.
Wenn der G9x D3D10.1 unterstützen soll, warum ist der Gegner des G92 der RV670?
Der G92 scheint die Evolution der G80-Generation zu sein.

Hmhmhm, oder doch?

robbitop
2007-08-12, 23:05:20
Nein, das war definitiv eine G71-Variante
Quelle?
Das einzige, was ich darueber weiss, ist dass Ailuros mal was ueber einen 8 Quad G7x in seinen griechischen Bart gebrabbelt hat es dann aber spaeter revidiert hat mit dem Hinweis auf ein G80 Sample. (welche es ja angeblich seit Februar 2006 geben soll)

Godmode
2007-08-12, 23:11:50
Naja damit wird das bestätigt was wir auf den letzten Seiten disskutiert haben! Der G92 wird unter der 8800 GTX bleiben, aber dafür sehr viel weniger Strom verbrauchen. Als Highend Lösung werden wir mit einer GX2 bedient werden.

Die G9x Serie dient IMO der Margen-Optimierung, bzw G8x Technik im 65nm Prozess.

mapel110
2007-08-12, 23:12:27
Das wurde doch auch bei Beyond3D so breitgetreten. Und von einem damaligen G80 hab ich noch nie gehört.

Neosix
2007-08-13, 01:41:57
gibts eigentlich schon auch paar Gerüchte über den wirklichen g80 Nachfollger also dem g90? oder ist da noch nix bekannt? gx2 lehn ich aufgrund meiner Glaubensgründen ab. da würde es mich freuen endlich g90 zu sehen.
von mir aus als einen einfachen schrink in 65nm aber Hauptsache nicht schwächer.

soweit ich den thread verfolgt habe reden hier alle nur über den g92. und die tatsache das er schwäcehr als g80 sein wird.

dargo
2007-08-13, 06:28:49
- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 wird weniger verbrauchen als eine 7900GTX =)

Das finde ich verdammt beeindruckend und dieser Trend gefällt mir wieder sehr gut. =)
Weniger als G7900GTX? Was kann das wohl bedeuten? ~70W wären schon der Hammer. :eek:

seahawk
2007-08-13, 07:35:47
War nicht der 32 "Pipe" Chip, der viel zu heiß in der Simulation wurde, im Endeffekt eine ältere Version des G80?

Nein, das war schon ein echter verdoppelter G70, ich glaube nur nicht, dass es ihn mal real gab und er vielmehr nur eine Simulation war.

Ailuros
2007-08-13, 12:46:34
Was soll der G100 so alles können? D3D10.1?

D3D11 :P

Ailuros
2007-08-13, 12:47:39
Nein, das war schon ein echter verdoppelter G70, ich glaube nur nicht, dass es ihn mal real gab und er vielmehr nur eine Simulation war.

Wohl eher eine fruehe Simulation des "NV50"/G80 bei 500MHz ohne extravagante ALU Frequenzen LOL ;)

Ailuros
2007-08-13, 12:51:40
"Neue" Infos: (von einem Moderator bei PCinlife, die ja bekanntlich gute Quellen haben ;))

- GeForce9 wird eine Produktfamilie sein (wer hätte das gedacht...)
- GF9 und GF8 Codenamensystem(Gx0 > Gx4 >... ) sind ähnlich aber nicht identisch

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX =)
- G92 erzielt im 3DMark06 mehr als 9k Punkte
- G92 wurde noch nicht vollständig getestet, so könnten mit Pech noch Bugs gefunden werden
- G92 hat noch keinen konkreten Termin, aber gegen Weihnachten sollte er auf jeden Fall erhältlich sein

Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2009 sollen weitere G9x GPUs erscheinen

- in der GF9-Serie soll es eine 1 TFLOP-SKU geben

http://we.pcinlife.com/thread-807684-1-1.html

LOL zur ersten Anmerkung *kicher*

Nakai
2007-08-13, 13:34:01
LOL zur ersten Anmerkung *kicher*

Ich weiß zwar nicht, was du damit sagen willst, aber für mich sieht diese Auflistung irgendwie bescheuert aus...;D

mfg Nakau

Undertaker
2007-08-13, 14:27:57
Das finde ich verdammt beeindruckend und dieser Trend gefällt mir wieder sehr gut. =)
Weniger als G7900GTX? Was kann das wohl bedeuten? ~70W wären schon der Hammer. :eek:

wäre das wirklich so wenig? wenn die karte unterhalb der 8800gtx liegen soll, also evntl gts niveau, wären 84w (soviel zieht eine 7900gtx laut xbit) nun keine so gigantische verringerung... wenn mal wieder ein high-end chip auf den verbrauch einer 7900gtx kommt würde ich mich freuen =)

edit: wobei "unter" natürlich auch 60w bedeuten könnte... muss man halt abwarten...

Ailuros
2007-08-13, 14:41:23
Ich weiß zwar nicht, was du damit sagen willst, aber für mich sieht diese Auflistung irgendwie bescheuert aus...;D

mfg Nakau

Der Quark mit dem angeblichen 512bit G9x.

Was den Rest betrifft so nahe an der Wahrheit wie moeglich.

Ailuros
2007-08-13, 14:44:28
wäre das wirklich so wenig? wenn die karte unterhalb der 8800gtx liegen soll, also evntl gts niveau, wären 84w (soviel zieht eine 7900gtx laut xbit) nun keine so gigantische verringerung... wenn mal wieder ein high-end chip auf den verbrauch einer 7900gtx kommt würde ich mich freuen =)

edit: wobei "unter" natürlich auch 60w bedeuten könnte... muss man halt abwarten...

Die "gute theoretische" Nachricht waere hier dass eine hypothetische GX2 etwa gleich so viel als eine 7950GX2 verbrauchen koennte und gleichzeitig bis zu 50% schneller sein als eine 8800GTX.

dargo
2007-08-13, 14:44:31
wäre das wirklich so wenig? wenn die karte unterhalb der 8800gtx liegen soll, also evntl gts niveau, wären 84w (soviel zieht eine 7900gtx laut xbit) nun keine so gigantische verringerung... wenn mal wieder ein high-end chip auf den verbrauch einer 7900gtx kommt würde ich mich freuen =)

Nun, ich bin eher davon ausgegangen, dass ein G92 sich zwischen der GTS und GTX plaziert, mit der Tendenz zur GTX.


edit: wobei "unter" natürlich auch 60w bedeuten könnte... muss man halt abwarten...
Eben. :)

Undertaker
2007-08-13, 14:49:00
Der Quark mit dem angeblichen 512bit G9x.

inwiefern lässt sich soetwas schon jetzt als falsch abstempeln? ich sehe das vorallem mit blick auf die vram-menge: 768mb wären für einen kommenden high-end chip zu wenig, 1,5gb wohl zuviel... 1gb wiederum wäre optimal, aber da bleiben (realistisch gesehen) nur 256bit (imo zu wenig) oder 512bit übrig...

Die "gute theoretische" Nachricht waere hier dass eine hypothetische GX2 etwa gleich so viel als eine 7950GX2 verbrauchen koennte und gleichzeitig bis zu 50% schneller sein als eine 8800GTX.

so eine karte wäre wirklich interessant :)

Nakai
2007-08-13, 14:53:29
Der Quark mit dem angeblichen 512bit G9x.

Achso das meintest du.

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX

Irgendwie war das klar, nur der Stromverbrauch wäre mir neu.

mfg Nakai

Ailuros
2007-08-13, 14:57:18
inwiefern lässt sich soetwas schon jetzt als falsch abstempeln? ich sehe das vorallem mit blick auf die vram-menge: 768mb wären für einen kommenden high-end chip zu wenig, 1,5gb wohl zuviel... 1gb wiederum wäre optimal, aber da bleiben (realistisch gesehen) nur 256bit (imo zu wenig) oder 512bit übrig...

Ich zitier nochmal den Unsinn von pcinlife:

G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

Eine 512bit "Notloesung"? Wie soll ich das jetzt verstehen? NV werkelt ansonst an 384bit-wasauchimmer-8 cluster G9x-er rum und hat irgendwo im Hinteraermel einen 10-cluster chip mit 8 rop partitions auf Eis fuer einen Notfall?

Wenn sich NV fuer 512bits entscheidet dann heisst es dann auch dass es nicht anders geht und dass er auch absolut notwendig ist.

Coda
2007-08-13, 15:03:11
Vor allem hält man einen Chip nicht "in der Hinterhand". Entweder man macht ein Tape-Out mit allen Kosten und verkauft ihn dann fast notgedrungen auch oder man lässt es bleiben. Weil kurzfristig geht da gar nichts, das dauert mindestens 6 Monate.

reunion
2007-08-13, 16:54:02
;5748233']How the Hell Should I Know?

Nvidia G9x wird D3D10.1 schon unterstützen, was der G100 kann, bleibt abzuwarten.

Hier werden schon wieder Dinge als Fakten hingestellt, die höchst spekulativ sind.

Coda
2007-08-13, 17:26:30
D3D10.1 ist sehr wahrscheinlich, die Featureerweiterungen nötig dafür sind minimal.


TextureCube Arrays which are dynamically indexable in shader code. (kann G80 vielleicht schon, wenn die TMUs orthogonal aufgebaut sind. Edit: Er kann es, ist mit OpenGL schon möglich)
An updated shader model (shader model 4.1). (das ist nötig um die Features überhaupt zu benützen, ist also nicht relevant)
The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions. (Ich weiß nicht was mit "a palette of patterns" gemeint ist, vermutlich eher nicht frei programmierbar. Ich vermute dass ATi darauf Patente hat und es deshalb nur auswählbar sein wird.)
The ability to render to block-compressed textures. (das versteh ich nicht ganz, weil man eigentlich erst komprimieren kann wenn man einen 4x4 Block fertig hat)
More flexibility with respect to copying of resources. (dürfte eher eine Treibersache sein)
Support for blending on all unorm and snorm formats. (kann G80 schon soweit ich weiß)

Also nichts großartiges. Ich verstehe gar nicht warum dass nicht gleich in 10.0 eingeflossen ist, für eine neue D3D-Version ist das bisher der absolut kleinste Sprung.

AnarchX
2007-08-13, 17:34:34
D3D10.1 ist sehr wahrscheinlich, die Featureerweiterungen nötig dafür sind minimal.

Das scheint so zu sein:
DX10.1 is 'trivial' - What game developers are thinking (http://www.theinquirer.net/default.aspx?article=41643)

Wobei Ailuros davon sprach, dass man sich bei den IHVs mit den einfacheren GPUs - G92 und RV670 und darauf basierenden Dual-GPU-SKUs etwas an Manpower spart um sich mehr auf die DX10.1 GPUs zu konzentrieren. :|

Zudem könnte ja bis D3D10.1 veröffentlicht wird, welches zudem ja ein neues WDDM benötigt, schon der nächste Chip da sein?

Aber natürlich stehen die Chancen sicherlich gut, dass G92 schon mit D3D10.1 daherkommen könnte.

Gast
2007-08-13, 17:58:46
Wird dies (D3D 10.1) dann die HD 2900XT/ 8800xxx wieder alt aussehen lassen, oder kann man dies getrost übersehen, die 10.1 Version?
Wird es nur Marketingmässig was bringen, der Rest ist so wie schon bei der HD 2900XT, also nichts; was nicht auch dieser Chip schon kann.

Gast
2007-08-13, 19:18:32
Weniger als G7900GTX? Was kann das wohl bedeuten? ~70W wären schon der Hammer. :eek:

für einen neuen high-end-chip ja, für einen chip zwischen 8800GTX und GTS, der fürs high-end verdoppelt werden muss wohl das mindeste was man von einem neuen prozess erwarten kann.

Coda
2007-08-13, 19:22:01
Das scheint so zu sein:
DX10.1 is 'trivial' - What game developers are thinking (http://www.theinquirer.net/default.aspx?article=41643)
Ist Inq. inzw. schon glaubwürdiger als ich oder wie? Ich sagte das doch bereits.

Wird dies (D3D 10.1) dann die HD 2900XT/ 8800xxx wieder alt aussehen lassen, oder kann man dies getrost übersehen, die 10.1 Version?
Kannst übersehen.

AnarchX
2007-08-13, 19:23:41
Ist Inq. inzw. schon glaubwürdiger als ich oder wie? Ich sagte das doch bereits.

Als ich es schrieb, war deine Ausführung noch nicht da. Und der INQ Link war auch eher als Ergänzung gedacht. ;)

Gast
2007-08-13, 19:24:07
War nicht der 32 "Pipe" Chip, der viel zu heiß in der Simulation wurde, im Endeffekt eine ältere Version des G80?

glaub ich kaum, mittlerweile weiß man ja dass der G80 eigentlich schon als G70-nachfolger geplant war, aber man frühzeitig erkannt hat dass er nicht fertig werden wird.

daher blieb die option einen neuen high-end-chip mit all dem aufwand oder aber nur ein geshrinkter, optimierter chip, mit option auf eine dual-karte falls es für das high-end nicht reichen sollte.

da der G71 nur für eine kurze überbrückungsphase geplant war, hat man sich wohl für zweiteren weg entschieden, ich glaube kaum dass ein 8-quad-NV4x/G7x jemals existiert hat.

crux2005
2007-08-13, 21:38:03
D3D10.1 ist sehr wahrscheinlich, die Featureerweiterungen nötig dafür sind minimal.

....

Also nichts großartiges. Ich verstehe gar nicht warum dass nicht gleich in 10.0 eingeflossen ist, für eine neue D3D-Version ist das bisher der absolut kleinste Sprung.

und was von den D3D 10.1 specs unterstüzt der R600 ? =)

Coda
2007-08-13, 21:50:47
Das mit den programmierbaren Samplemustern mit Sicherheit (das konnte auch schon R300) - sonst kA.

Gaestle
2007-08-14, 15:29:16
- Anfang 2008 bis Ende 2009 sollen weitere G9x GPUs erscheinen

http://we.pcinlife.com/thread-807684-1-1.html


Für wann war D3D10.2 projektiert?

Gast
2007-08-14, 16:13:26
Hab ich das richtig verstanden?
Keine neue 300€ Karte im November?

nomadhunter
2007-08-14, 16:31:08
Erster Post :rolleyes::
G92:
-möglicherweise 6 Cluster und 4 ROP-Partitions(256Bit), Einsatz auf Performancekarten und einer GX2-Karte(2xG92) wahrscheinlich
-G92 soll laut NV nahe 1 TFLOP Rechenleistung besitzen und im Q4 2007 kommen
- Vorstellung im November
Da 300€ ins Performancesegment fallen: doch
Ob das genau November wird, ist natürlich noch Spekulation.

Gast
2007-08-14, 17:45:54
Und die soll nicht mal schneller sein als die 8800 gtx?
Das wäre ja sehr enttäuschend.

Das ist ja das gleiche wie wenn die 8800gts nicht mal schneller als eine 7900gtx gewesen wäre ?!?

nordic_pegasus
2007-08-14, 17:55:34
Und die soll nicht mal schneller sein als die 8800 gtx?
Das wäre ja sehr enttäuschend.

Das ist ja das gleiche wie wenn die 8800gts nicht mal schneller als eine 7900gtx gewesen wäre ?!?

der G92 ist als Performance Chip konzipiert worden zwischen High-End und Mainstream. Dafür ist die Leistung sehr gut, vorallem bekommt man endlich auch im nicht High-End Segment mehr als 128bit Speicherinterface. Wenn ich mir die riesige Lücke zwischen 8600GTS und 8800GTS ansehe, ist der G92 bitter nötig.

Neu ist nur, dass Nvidia statt einem echten neunen High-End Chip oder ergänzend dazu (kommt nun doch ein G90 oder nicht?!?!) eine Dual-Karte als High-End plant.

Vorallem die Spekulationen bzgl. der Leistungsaufnahme finde ich sehr erfreulich, fast G80 Speed mit G71 Verbrauch. Der Weg ist richtig. Falls Nvidia jetzt noch einen leisen und effektiven Referenz-Kühler baut (wie 7900GTX und 8800GTX/GTS), dann bin ich vollauf zufrieden mit dem G92.

Gast
2007-08-14, 18:23:53
Ich dachte aber diese neue Performance Karte G92 soll ~300€ kosten.

Wenn sie jetzt nichtmal deutlich schneller als eine 8800 gts ist, die ja ebenfalls gut 300€ kostet, fände ich es schon enttäuschend.

nordic_pegasus
2007-08-14, 18:27:12
Ich dachte aber diese neue Performance Karte G92 soll ~300€ kosten.

Wenn sie jetzt nichtmal deutlich schneller als eine 8800 gts ist, die ja ebenfalls gut 300€ kostet, fände ich es schon enttäuschend.

wo hast Du denn die 300Euro her? ich habe nirgends Angaben zu den Preisen gelesen. Die Karte wird aber als Performance Chip imho im preislichen Segment zwischen 8600GTS und 8800GTS (320MB) einschlagen. Ich würde den Launch-Preis bei 200-250 Euro taxieren.

Gast
2007-08-14, 19:28:14
Rechne dass der G92 ein ähnlicher Wurf wie die HD 2900XT von ATI werden wird. In der Mitte zwischen GTS / GTX und dass so schnell nichts viel besseres kommen wird als die GTX Ultra. Eine G92 Dual wird wohl zu teuer werden in der Herstellung und zu wenig Absatz finden.
Erst Anfang 2008 (Jänner/Februar) werden die 2-ten D3D10 Karten NEU gemischt werden.

dargo
2007-08-14, 19:52:21
Eine G92 Dual wird wohl zu teuer werden in der Herstellung und zu wenig Absatz finden.

Zu teuer eher weniger. Wenn ein G92 um die ~250€ kosten sollte wäre eine GX2 bei ~500-550€. Bei ~50% mehr Leistung als eine G8800GTX ist es eigendlich ok. Der geringe Absatz könnte aber stimmen, schließlich hat nicht jeder Lust sich mit SLI Profilen zu beschäftigen.

Logan
2007-08-14, 20:05:03
Habe da mal ne frage. Wollte dezember komplett neues system kaufen und als graka wollte ich die 8800gts 640 .

Nun meine frage:

Glaubt ihr das bis dahin was besseres in diesem preis segement gibt ?

dargo
2007-08-14, 20:10:08
Habe da mal ne frage. Wollte dezember komplett neues system kaufen und als graka wollte ich die 8800gts 640 .

Nun meine frage:

Glaubt ihr das bis dahin was besseres in diesem preis segement gibt ?
Bis ~300€ höchstwahrscheinlich der G92 halt. Ob der besser wie die GTS wird bleibt abzuwarten. Falls die neue GX2 aber wirklich ca. 50% mehr leistet als eine G8800GTX wäre es stark anzunehmen.

Logan
2007-08-14, 20:20:15
Bis ~300€ höchstwahrscheinlich der G92 halt. Ob der besser wie die GTS wird bleibt abzuwarten. Falls die neue GX2 aber wirklich ca. 50% mehr leistet als eine G8800GTX wäre es stark anzunehmen.


Thx für die prompte antwort :up:

mapel110
2007-08-14, 20:53:20
Bei der Leistungsaufnahme sollte er ja auf jedenfall besser dastehen. Vielleicht bringts nvidia ja nun auch fertig, den Idle-Verbrauch zu senken.
Auf einen Treiber für die alte Serie würd ich da nicht mehr hoffen.

AnarchX
2007-08-14, 21:06:20
Bei der Leistungsaufnahme sollte er ja auf jedenfall besser dastehen. Vielleicht bringts nvidia ja nun auch fertig, den Idle-Verbrauch zu senken.
Auf einen Treiber für die alte Serie würd ich da nicht mehr hoffen.

Ich denke nicht, dass man bei NV sich noch großartig um den 2D-Modus kümmern wird, immerhin will man ja auch Hybrid-SLI vermarkten.

Mal noch eine Überlegung für die Positionierung von Mid-Range und High-End im November:

Nvidia AMD
$600+ 9800GX2 x
~$500 8800Ultra x
~$400 8800GTX 2900XT
~$300 9800GTS 2900Pro
~$200 9800GT 2900GT

=Floi=
2007-08-14, 21:33:07
wäre ja schlimm wenn die 8800GTX nicht abgelöst würde

AnarchX
2007-08-14, 21:46:34
wäre ja schlimm wenn die 8800GTX nicht abgelöst würde

Ist halt eine Frage des Taktes wie nah der G92 dieser kommen kann.

Aber irgendwie erinnert die Situation auch etwas an NV42, welcher die 6800GT ersetzte, aber nicht die Ultra erreichte. Theoretisch hätte NV damals auch eine 6800 Dual bauen können, wenn es Probleme mit dem G70 gegeben hätte.

WEGA
2007-08-14, 22:08:27
sollten die dann nicht lieber 8900 statt 9800 heißen?

Ailuros
2007-08-14, 22:29:40
$300 als MSRP ist viel zu viel....

Ailuros
2007-08-14, 23:05:09
Das scheint so zu sein:
DX10.1 is 'trivial' - What game developers are thinking (http://www.theinquirer.net/default.aspx?article=41643)

Wobei Ailuros davon sprach, dass man sich bei den IHVs mit den einfacheren GPUs - G92 und RV670 und darauf basierenden Dual-GPU-SKUs etwas an Manpower spart um sich mehr auf die DX10.1 GPUs zu konzentrieren. :|

Zudem könnte ja bis D3D10.1 veröffentlicht wird, welches zudem ja ein neues WDDM benötigt, schon der nächste Chip da sein?

Aber natürlich stehen die Chancen sicherlich gut, dass G92 schon mit D3D10.1 daherkommen könnte.


Ich hab eher gesagt dass ich mit dem gesamten Codenamen-Wirrwarr auf zukuenftigen Roadmaps nicht mehr durchblicke. NV verwirrt mit Absicht und das einzige worueber ich mir sicher bin momentan ist dass solange sie fuehlen koennen dass AMD nichts besonderes auftischen wird, dass sie eben die heutige Generation bis zum geht nicht mehr auskauen werden.

D3D10.1 war fuer mich sowieso nie eine neue Generation, mir ging es nur darueber wann wir eine reine single chip high end Loesung als G80-Refresh wieder sehen werden. Fuer das Ende von 2007 sieht es wohl nicht danach aus. Die Frage ist dann eher was und fuer wann sie fuer 2008 genau planen.

So wie es Coda oben praesentiert koennten beide IHVs ihre kommenden Performance-GPUs sehr leicht als D3D10.1 verkaufen (egal ob extra Logik dazukam oder nicht), das high end Segment mit dual-chip Dingsbumsen abdecken, bis man dann endlich zu wahren Refreshes kommt.

Die Wahrheit ist aber dass selbst all die unterstuetzten D3D10 Features auf heutigen GPUs zwar vorhanden sind, aber man braucht wohl nicht unbedingt viel nachzudenken dass zukuenftige GPUs viel mehr Leistung und Flexibilitaet fuer diese bereitstellen werden. In ein paar B3D Threads die ich vor Tagen durchkaemmte, wurde sehr getroffen erwaehnt dass G80 eher einer KISS Logik folgt. Man kann es in der Zukunft natuerlich ebenso doof und einfach halten, nur eben mit um einiges mehr geballter Kraft.

dargo
2007-08-15, 06:11:54
$300 als MSRP ist viel zu viel....
Wus? 300$ immer noch zuviel :confused:
An was denkst du dann? 250$? Das wären dann ca. 210€ Strassenpreis. Wie schnell soll denn nun der G92 werden? Schneller als eine G8800GTS 640 oder nicht? Ich blicke bei dem G92 echt nicht mehr durch. :usweet:

seahawk
2007-08-15, 07:01:50
Wo liegt die 8800GTS im November bei um 250$.

Gast
2007-08-15, 08:56:32
http://www.tweakpc.de/news/12230/nvidia-geforce-9800-gtx-und-gts-schon-im-november/

seahawk
2007-08-15, 09:01:37
BS

Henroldus
2007-08-15, 09:28:41
http://www.tweakpc.de/news/12230/nvidia-geforce-9800-gtx-und-gts-schon-im-november/
449 US für eine 9800GTS wären aber auch ganz schön fett.
sind das schon die neuen Preise, die aus Mangel an Konkurrenz steigen.

die 8800GTS hängt auch schon seit Februar fest und der Preis will einfach nicht fallen

mapel110
2007-08-15, 10:55:02
449 US für eine 9800GTS wären aber auch ganz schön fett.
sind das schon die neuen Preise, die aus Mangel an Konkurrenz steigen.

die 8800GTS hängt auch schon seit Februar fest und der Preis will einfach nicht fallen
es war eigentlich schon immer so, dass die Preise bis zur nächsten Generation sehr stabil blieben. Es gibt ja auch immer wieder Gerüchte über Preisabsprachen und daran glaub ich auch bei nur zwei Herstellern.
Wozu da unnötig die Margen kaputtmachen?!

Grestorn
2007-08-15, 11:10:46
es war eigentlich schon immer so, dass die Preise bis zur nächsten Generation sehr stabil blieben. Es gibt ja auch immer wieder Gerüchte über Preisabsprachen und daran glaub ich auch bei nur zwei Herstellern.
Wozu da unnötig die Margen kaputtmachen?!

Dazu braucht man keine Absprachen. Das ist ein ganz normales Verhalten. Warum sich gegenseitig unterbieten und den Preis kaputt machen?

Letztlich hätten auch wir Konsumenten nichts davon, denn die Einnahmen gerade auch aus dem HighEnd Segment finanzieren ja die Weiterentwicklung der Karten.

MuLuNGuS
2007-08-15, 11:11:41
shice,

sollte ich mir jetzt wohl doch keine 8800GTX mehr kaufen, womit soll ich denn Bioshock spielen?!?

*schnüff*

aths
2007-08-15, 13:48:41
Ich denke nicht, dass man bei NV sich noch großartig um den 2D-Modus kümmern wird, immerhin will man ja auch Hybrid-SLI vermarkten. Ich halte es für sehr vernünftig, Highend-Boliden nur noch bei aktivem 3D-Rendering zuzuschalten welches viel Leistung erfordert. Das bisschen Vista-3D-Zeug etc. kann doch gerne eine integrierte Graka übernehmen. Notfalls eine ebenfalls in den PC eingebaute 7100 GS oder so.

seahawk
2007-08-15, 14:11:15
Die ansonsten optimaler Weise Physikberechungen übernimmt, wenn die andere "große" Graka 3D macht. Das wäre imho eine tolle Lösung.

Anarchy-HWLUXX
2007-08-15, 14:49:20
Ich halte es für sehr vernünftig, Highend-Boliden nur noch bei aktivem 3D-Rendering zuzuschalten welches viel Leistung erfordert. Das bisschen Vista-3D-Zeug etc. kann doch gerne eine integrierte Graka übernehmen. Notfalls eine ebenfalls in den PC eingebaute 7100 GS oder so.

Nur wo schliesst man dann den Monitor an ... bzw. wenn man 2 Monis hat wird es auch problematisch.

Umstöpseln ist jedenfalls keine lösung.

Ailuros
2007-08-15, 14:58:59
Also doch nix mit 10.1 fuer G92/8; beide auf dem gleichem Herstellungsprozess und es wird sogar dreistellige Tandems diesmal geben.

G92
G96 (spring 2008)
G98

Stay tuned ;)

Nakai
2007-08-15, 15:19:43
Nette Info, aber was meinst du mit 3-stelligen Tandems?^^

Da würd mir nur ne 3 Slot Graka oder 3er Sli dazu einfallen.^^

mfg Nakai

Ailuros
2007-08-15, 15:22:30
Nette Info, aber was meinst du mit 3-stelligen Tandems?^^

Da würd mir nur ne 3 Slot Graka oder 3er Sli dazu einfallen.^^

mfg Nakai

Bingo ;)

Coda
2007-08-15, 15:26:54
Ja was denn nun. 3er SLI auf einem PCB, 3er SLI in 3 Slots oder 3 Slot breite Boards?

Ailuros
2007-08-15, 15:32:26
Was waere die einfachste und billigste Loesung fuer NVIDIA?

deekey777
2007-08-15, 15:43:20
http://www.tweakpc.de/news/12230/nvidia-geforce-9800-gtx-und-gts-schon-im-november/

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5698117#post5698117
Ein Blick aufs Datum: http://www.xbitlabs.com/discussion/3953.html

dargo
2007-08-15, 15:47:01
http://www.tweakpc.de/news/12230/nvidia-geforce-9800-gtx-und-gts-schon-im-november/

- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for “FREE 4xAA”.
- Built in Audio Chip (HDMI).
- Built in tesselation unit (in the graphics core)
- Improved AA and AF quality levels

Lol, haben die da schon die GX2 zusammengezählt? :tongue:
Und eDRAM??? :|

Henroldus
2007-08-15, 15:58:27
- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for “FREE 4xAA”.
- Built in Audio Chip (HDMI).
- Built in tesselation unit (in the graphics core)
- Improved AA and AF quality levels

Lol, haben die da schon die GX2 zusammengezählt? :tongue:
Und eDRAM??? :|
one billion sind in Deutsch immer noch "nur" eine Milliarde :wink:, was von den aktuell fast 700Mio bei der 8800GTX gar nicht soweit weg ist.
in 65nm dürfte das DIE sogar kleiner ausfallen als der G80 in 90nm

dargo
2007-08-15, 16:06:00
one billion sind in Deutsch immer noch "nur" eine Milliarde :wink:, was von den aktuell fast 700Mio bei der 8800GTX gar nicht soweit weg ist.
in 65nm dürfte das DIE sogar kleiner ausfallen als der G80 in 90nm
Das ist schon klar, ich frage mich nur gerade wie man aus einem ~1 Milliarde G92 eine GX2 realisieren will. :tongue:
Ich gehe eher davon aus - es ist eine GX2 auf G92 Basis mit 256Bit SI, 512MB Vram und ~500 Millionen Transistoren (je GPU). Jetzt bleibt nur noch der "Quatsch" mit dem eDram übrig. Was braucht man nochmal für 1920x1200 4xAA for free? ~120MB? Das will ich sehen. :tongue:

Gast
2007-08-15, 16:13:21
- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for “FREE 4xAA”.
- Built in Audio Chip (HDMI).
- Built in tesselation unit (in the graphics core)
- Improved AA and AF quality levels|Die Hälfte davon ist selbstverständlich und die andere Häfte ist purer Unfug.

AnarchX
2007-08-15, 16:15:06
Also doch nix mit 10.1 fuer G92/8; beide auf dem gleichem Herstellungsprozess und es wird sogar dreistellige Tandems diesmal geben.

G92
G96 (spring 2008)
G98

Stay tuned ;)
Da G98 wohl schon recht lang existiert, war auch abzusehen, dass manche G9x noch kein DX10 sein könnten.

dreistellige Tandems
Hexa-SLI? Dass SLI auch bald drei Einzelkarten unterstützen wird, ist ja eine logische Konsequenz. Denn ATi wird mit dem RD790 auch 3-Wege-CF anbieten.

Aber wenn man bei NV an 3x 2 GPUs denkt, dann hoffe ich doch das man hier sich etwas besseres als AFR ausgedenkt hat - Mega-Lag...

mapel110
2007-08-15, 16:34:46
Letztlich hätten auch wir Konsumenten nichts davon, denn die Einnahmen gerade auch aus dem HighEnd Segment finanzieren ja die Weiterentwicklung der Karten.
Wer redet denn vom High End? Ich rede von allen Karten, die beide anbieten.
Durch das komplette Angebot zieht sich eine Preis-Starre bis zur nächsten Generation.

Sowas gibts eigentlich nur, wenn eine Technik ausgelutscht ist und man zum Selbstkostenpreis verkauft(DVD-LWs oder auch Festplatten) oder es eben wenig Anbieter gibt.
Siehe zum Beispiel auch Creative labs bei Gamersoundkarten.

reunion
2007-08-15, 17:04:33
Also doch nix mit 10.1 fuer G92/8;

Ich wusste es doch.

Hexa-SLI? Dass SLI auch bald drei Einzelkarten unterstützen wird, ist ja eine logische Konsequenz. Denn ATi wird mit dem RD790 auch 3-Wege-CF anbieten.


Eine Karte, die drei Slots benötigt muss noch lange nicht auch drei GPUs haben. Ein G92 dürfte nach aktuellen Spekulationen noch immer an die 600mio Transistoren haben, das lässt sich noch so ohne weiteres mit einem Single-Slot-Design kühlen, wenn noch dazu der Lüfter durch die zweite Karte blockiert wird. Die Taktraten dürften im Vergleich zu G80 auch nochmal deutlich zulegen.

Nakai
2007-08-15, 17:10:29
Eine Karte, die drei Slots benötigt muss noch lange nicht auch drei GPUs haben. Ein G92 dürfte nach aktuellen Spekulationen noch immer an die 600mio Transistoren haben, das lässt sich noch so ohne weiteres mit einem Single-Slot-Design kühlen, wenn noch dazu der Lüfter durch die zweite Karte blockiert wird. Die Taktraten dürften im Vergleich zu G80 auch nochmal deutlich zulegen.

65Nm ohne Probleme.
Wenn es eine 3 Slotkarte ist und diese ein 256Bit SI hat, dann könnte man den Platz für mehr Ram benutzen.
Ebenso muss eine 3 Slot Graka auch keine 3 PCBs haben. Ich könnte mir vorstellen, dass man den zusätzlichen Platz für die Kühlung verwendet.

mfg Nakai

AnarchX
2007-08-15, 17:12:36
Naja, der Referenz G92 soll laut PCinlife unter einem G71GTX liegen beim Stromverbrauch. Also würde ich hier keine Probleme für eine Singleslot-Kühlung sehen, bei der 7950GT ging es ja auch, erst recht wenn man für die G92GX2 den Takt noch etwas senkt.

Aber ich hoffe, dass man sich bei NV mal ein paar Gedanken zur Verbesserung der Kühlung der Doppeldecker-Karten gemacht hat.

So etwas wäre sicherlich besser:
http://img405.imageshack.us/img405/8582/eax1950produal3ni9.jpghttp://img405.imageshack.us/img405/9752/eax1950produal1in6.jpg
Dual X1950Pro Design von Asus

Wobei das Teil ja fast nach 3 Slots aussieht und Asus hat ja auch schon die Referenz-8800er gefertigt. :uponder:

reunion
2007-08-15, 17:13:17
Ebenso muss eine 3 Slot Graka auch keine 3 PCBs haben. Ich könnte mir vorstellen, dass man den zusätzlichen Platz für die Kühlung verwendet.


Genau so war das auch gemeint.

dargo
2007-08-15, 17:27:51
Naja, der Referenz G92 soll laut PCinlife unter einem G71GTX liegen beim Stromverbrauch. Also würde ich hier keine Probleme für eine Singleslot-Kühlung sehen, bei der 7950GT ging es ja auch, erst recht wenn man für die G92GX2 den Takt noch etwas senkt.

Aber ich hoffe, dass man sich bei NV mal ein paar Gedanken zur Verbesserung der Kühlung der Doppeldecker-Karten gemacht hat.

So etwas wäre sicherlich besser:
http://img405.imageshack.us/img405/8582/eax1950produal3ni9.jpghttp://img405.imageshack.us/img405/9752/eax1950produal1in6.jpg
Dual X1950Pro Design von Asus

Wobei das Teil ja fast nach 3 Slots aussieht und Asus hat ja auch schon die Referenz-8800er gefertigt. :uponder:
Was mir hier nicht so gefällt ist die Tatsache, dass die warme Luft im Gehäuse verbleibt. Im Prinzip könnte NV ja die G8800GTS/GTX Kühlung weiter verwenden und halt 2-3 Heatpipes zur zweiten GPU leiten. Dann hätten wir die 3 Slot G92GX2. :D

Undertaker
2007-08-15, 17:51:04
die gx2 sollte beim verbrauch keinesfalls über der 8800ultra liegen, damit problemlos leise machbar für aktuelle dualslotkühler... an ein trippleslotdesign glaub ich erst wenn ichs im laden sehe :|

dargo
2007-08-15, 18:03:04
Nun, wenn die G92GX2 das gleiche Design wie die G7950GX2 abbekommt ist man zwangsläufig mit einem Dualslotkühler beim Trippleslotdesign. Oder meinst du die G92GX2 erscheint auf einem großen PCB?

seahawk
2007-08-15, 18:11:22
Naja Tripleslot. MAn stelle sich ne GX2 nit einer zusätzliche Low-Profile Low-End-KArte vor, bei der die "großen" GPUs im 2DF abgestellt werden.

Undertaker
2007-08-15, 18:21:58
Nun, wenn die G92GX2 das gleiche Design wie die G7950GX2 abbekommt ist man zwangsläufig mit einem Dualslotkühler beim Trippleslotdesign. Oder meinst du die G92GX2 erscheint auf einem großen PCB?

jop, entweder ein dualslotkühler mit den chips hintereinander oder 2 pcbs mit singleslot - mehr als die 7950gt auf der 7900/7950gx2 soll der g92 ja nicht brauchen, insofern ist das erwiesenermaßen machbar :)

Ailuros
2007-08-15, 19:11:45
Eine Karte, die drei Slots benötigt muss noch lange nicht auch drei GPUs haben. Ein G92 dürfte nach aktuellen Spekulationen noch immer an die 600mio Transistoren haben, das lässt sich noch so ohne weiteres mit einem Single-Slot-Design kühlen, wenn noch dazu der Lüfter durch die zweite Karte blockiert wird. Die Taktraten dürften im Vergleich zu G80 auch nochmal deutlich zulegen.

600M? Um Himmels Willen....viel zu viel ;)

Hvoralek
2007-08-15, 20:37:44
600M? Um Himmels Willen....viel zu viel ;)Hmm...
G80 --> 680 M
G92 --> G80 mit 3/4 der Cluster und erweiterten Videokapazitäten
selbst 680* (3/4) wären noch 510. Es können nicht alle Teile des Chips beliebig skaliert werden, der Videokram wird ja anscheinend sogar noch aufgebohrt. Ich hatte eigentlich nicht mit unter 550 M gerechnet.

Ach so, die >= 120 MiB eDRAM kommen ja auch noch dazu ;D

Gast
2007-08-15, 21:14:40
G92 --> G80 mit 3/4 der Cluster und erweiterten Videokapazitäten
selbst 680* (3/4) wären noch 510.

und davon nochmal ~10% weniger, wegen der nicht mehr so dringend benötigten redundanztransistoren.

Henroldus
2007-08-15, 21:55:48
und davon nochmal ~10% weniger, wegen der nicht mehr so dringend benötigten redundanztransistoren.
:| das erklärst du bestimmt gleich genauer hmm?
ist der 65nm Process plötzlich leichter handhabbar?

aehmkei
2007-08-15, 22:12:06
Der G92+Andere hatten Tape Out:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/nvidia_g92_tape-out/

Winter[Raven]
2007-08-16, 08:36:31
Also doch nix mit 10.1 fuer G92/8; beide auf dem gleichem Herstellungsprozess und es wird sogar dreistellige Tandems diesmal geben.

G92
G96 (spring 2008)
G98

Stay tuned ;)

hm, dann scheint Nvidia da keinen Sinn zusehen irgendetwas in die HW einzubauen was keinen Vorteil bringt.

Da scheint jemand sich mehr auf ein größeres Update zu konzentrieren.

AnarchX
2007-08-16, 12:12:19
Wer hat schon eine Einladung? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2472&Itemid=34) ;)

A few sources have confirmed that Nvidia already sent out an invitation for November launch of G92, the next generation high end card.[...]

Jetzt wird mir auch klar, was sich im G92-Thread @ PCinlife verbergen könnte, der nur für bestimmte Member zugänglich ist...

MartinRiggs
2007-08-16, 14:30:23
die von nv sind schon geschickt, wenn die nen hardlaunch von neuen High-End-Karten zum Crysis-Launch hinbekommen gehen die Dinger bestimmt weg wie nix gutes.

seahawk
2007-08-16, 14:39:53
Ja, wenn das hinkommt und die Karten taugen (sagen wir ca. 8800GTS 640 Niveau, 75W und 220 Euro mit 512MB), dann werden die wie wahnsinnig gehen. Wenn Crysis wirklich stark auf SLI ausgelegt ist, dann braucht man über eine entsprechende GX2 auch nicht diskutieren. Quad-SLI @ 300W

Ailuros
2007-08-16, 15:17:26
Ueber die Performance G92 ist momentan schon einiges bekannt; ueber die high end G92 Loesung hab ich noch keine Ahnung.

Mir selber (und ja das wahr rein spekulativ) machte eine GX2 artige Loesung mehr Sinn als ein single chip Refresh, aber es gibt momentan noch gar nichts dass das eine oder andere ausschliesst.

Was Ihr mit leichtem Gewissem als Marketing-BS abstempeln koennt ist das fast 1 TFLOP Zeug. Man bekommt solche alberne theoretische Raten auch heute mit 2*8800GTX@SLi oder 2*2900XT@CF und dabei ist es irrelevant ob man alle 4 GPUs uebertakten muss am Ende, um selbst fuer den einfachsten Test den magischen Terraflop zu erreichen.

Falls es beruhigt der 1 TFLOP Mist hat (Gott sei Dank) nichts mit 3-way SLi zu tun ;)

MartinRiggs
2007-08-16, 16:12:40
Wenn ich schon aufrüste dann auf 1 High-End-Karte.
Sollte der G92 tatsächlich für ne GX2 sein dann können die sich das Teil an den Hut stecken, auf F... SLI hab ich kein Bock.

Ailuros
2007-08-16, 16:19:09
Wenn ich schon aufrüste dann auf 1 High-End-Karte.
Sollte der G92 tatsächlich für ne GX2 sein dann können die sich das Teil an den Hut stecken, auf F... SLI hab ich kein Bock.

Irrelevant was G92 genau sein wird, multi-chip oder multi-GPU configs werden in absehbarer Zukunft eher zur Norm werden fuer high end gaming Maschinen.

dargo
2007-08-16, 16:30:04
Irrelevant was G92 genau sein wird, multi-chip oder multi-GPU configs werden in absehbarer Zukunft eher zur Norm werden fuer high end gaming Maschinen.
Kein Wunder bei solchen Transistormonstern. Schließlich fährt man mit 2x 500 Millionen Transistort-GPUs billiger als mit einer 1 Milliarde Transistor-GPU. Was mich nur stört ist das rumhantieren mit den SLI Profilen. Kann man das nicht irgendwie standarisieren? Spiel einlegen und das Game läuft automatisch mit dem besten Profil, das wäre doch mal was. :)

mapel110
2007-08-16, 16:40:15
Kein Wunder bei solchen Transistormonstern. Schließlich fährt man mit 2x 500 Millionen Transistort-GPUs billiger als mit einer 1 Milliarde Transistor-GPU. Was mich nur stört ist das rumhantieren mit den SLI Profilen. Kann man das nicht irgendwie standarisieren? Spiel einlegen und das Game läuft automatisch mit dem besten Profil, das wäre doch mal was. :)
Die Spielehersteller können auch ingame SLI ansteuern und sind auf keinerlei Treiberprofile angewiesen.

dargo
2007-08-16, 16:48:39
Die Spielehersteller können auch ingame SLI ansteuern und sind auf keinerlei Treiberprofile angewiesen.
Dafür müsste aber SLI/CF Standard sein, wovon wir noch meilenweit entfernt sind.

PCGH_Carsten
2007-08-16, 16:55:10
Falls es beruhigt der 1 TFLOP Mist hat (Gott sei Dank) nichts mit 3-way SLi zu tun ;)
Sondern mit FLOPs in TMUs und ROPs? Immerhin - sogar eine GF3 hatte schon 76 GFLOPs - Nvidias Launch-Papers zufolge. ;)

mapel110
2007-08-16, 16:57:01
Dafür müsste aber SLI/CF Standard sein, wovon wir noch meilenweit entfernt sind.
Die Logik versteh ich jetzt nicht. Die Technik funktioniert. Einzig die Bequemlichkeit der Entwickler steht dem im Weg und bei Toptiteln sind sie idR nicht so bequem.

dargo
2007-08-16, 17:01:23
Die Logik versteh ich jetzt nicht. Die Technik funktioniert. Einzig die Bequemlichkeit der Entwickler steht dem im Weg und bei Toptiteln sind sie idR nicht so bequem.
Unter Standard verstehe ich auch SLI/CF für Mainstream. Kaum ein Hersteller wird sich die Mühe machen nur für den High-End User zu entwickeln. Ist nun mal leider so.

Hauwech
2007-08-16, 17:08:13
Die Sache mit den 1 TFlop dürfte wahrscheinlich eh nur, vielleicht in Verbindung mit der 64 bit Erweiterung?, für TESLA oder vielleicht sogar Quadrokarten interessant sein.

Was ich prima fände wäre, wenn sie von sich aus Hilfestellung für die Erstellung oder direkt Clients für diverse @home Projekte mittels CUDA anbieten würden. Könnte sich marketingtechnisch durchaus gut machen wenn man "der Welt" mitteilt, dass Grafikkarten zu mehr als nur bunten Bildern in Spielen taugt. Als netten Nebeneffekt gäbe es auf diese Weise quasi kostenlose Werbung für @home Sachen die ja durchaus einen seriösen Anspruch haben.

AnarchX
2007-08-16, 17:14:20
Sondern mit FLOPs in TMUs und ROPs? Immerhin - sogar eine GF3 hatte schon 76 GFLOPs - Nvidias Launch-Papers zufolge. ;)

Ich denke eher, wie sollen keine Angst haben, dass es drei G92 braucht um das TFLOP zu erreichen. ;)

@ SLI:
AFAIK funktioniert dies doch recht akzeptabel out-of-box, wenn es sich nicht gerade um Titel weit abseits des Mainstream handelt bzw. Titel die das Treiberteam noch nicht in die Hände bekommen hat.

Aber natürlich wird sich da in Zukunft auch noch so einiges tun, im November werden wir mit Hybrid-SLI und dessen mysteriösen Performance Mode eine weitere Evolution sehen.

Hvoralek
2007-08-16, 17:33:53
Sondern mit FLOPs in TMUs und ROPs? Immerhin - sogar eine GF3 hatte schon 76 GFLOPs - Nvidias Launch-Papers zufolge. ;)Dann wäre 1 FLOPS aber entschieden zu wenig.

Ich dachte eigentlich, das ergäbe sich aus 2x G92, wobei jeder einzelne knapp 500 GFLOPS erreicht, also etwas unter 8800 GTX.

OT: Wo hat man denn bei den NV2x- TMUs und - ROPs FLOPs gefunden? :confused:

Gast
2007-08-16, 17:50:27
:| das erklärst du bestimmt gleich genauer hmm?
ist der 65nm Process plötzlich leichter handhabbar?

siehe G70 vs. G71, die hardware ist logisch identisch, letzterer hat aber ~10% weniger transistoren. es ist eher anzunehmen dass bei einem monster wie beim G80 noch deutlich mehr reserven drinnen sind.

Gast
2007-08-16, 17:55:37
Die Sache mit den 1 TFlop dürfte wahrscheinlich eh nur, vielleicht in Verbindung mit der 64 bit Erweiterung?

wohl kaum, 64bit fullspeed wird wohl zuviel transistoren kosten, daher wird 1TFLOP wohl höchstens in 32bit erreichbar sein.

AnarchX
2007-08-16, 18:51:36
The new GeForce GF9800 will be as quiet as a mouse (http://www.theinquirer.net/default.aspx?article=41740)

And we hear in a suitably-muted whisper that Nvidia's G92 or NV55 as it it may also be known should be as quiet as a mouse.

Ever since the GeForceFX debacle, Nvidia has been producing ever quieter graphics cards, and this GeForce "9800" (truth to be told, 8900 moniker might be more appropriate) is another improvement over previous generation product. [...]

Also wohl doch kein Singleslot-Kühler...

edit:
Nvidia G92 and G98 have problems
Abandon ye all plugfests (http://theinquirer.net/?article=41739)

Hmm... scheint doch nur sich um den Displayport zu handeln.

nordic_pegasus
2007-08-16, 19:07:39
The new GeForce GF9800 will be as quiet as a mouse (http://www.theinquirer.net/default.aspx?article=41740)

Eine echte Performance Karte mit moderatem Verbrauch und nem leisen Referenz-Kühler. Für mich als nicht High-End Käufer mit Silent-Tick wird der G92 immer interessanter :)

aehmkei
2007-08-16, 19:14:10
Das kündigt sich doch ein Nachfolger für meine in die Jahre gekommene X800XL an...

:)

PCGH_Carsten
2007-08-16, 19:16:30
OT: Wo hat man denn bei den NV2x- TMUs und - ROPs FLOPs gefunden? :confused:

Möglicherweise in den Adress-Einheiten - aber die ROP/TMU hatte nicht direkt was mit NV2x zu tun, eher damit, dass man sich viele FLOPs schönrechnen kann.

PCGH_Carsten
2007-08-16, 19:20:32
The new GeForce GF9800 will be as quiet as a mouse (http://www.theinquirer.net/default.aspx?article=41740)



Also wohl doch kein Singleslot-Kühler...


Eine typische Inquirer-News - aus wenigen bis gar keinen Fakten eine Headline stricken. Es ist eigentlich nicht davon auszugehen, dass eine Karte der oberen Mittelklasse in 65nm mit einer Leistung um und bei der 8800 GTS eine lautere Kühlung als jene brauchen wird. Daraus folgt dann natürlich, dass der (gleiche) Kühler auch höchstens so schnell wie bei der 8800 GTS drehen muss und somit leiser als der der 8800 GTX und Ultra ist - wie es eben auch die 8800 GTS ist.

nordic_pegasus
2007-08-16, 19:59:36
Eine typische Inquirer-News - aus wenigen bis gar keinen Fakten eine Headline stricken. Es ist eigentlich nicht davon auszugehen, dass eine Karte der oberen Mittelklasse in 65nm mit einer Leistung um und bei der 8800 GTS eine lautere Kühlung als jene brauchen wird. Daraus folgt dann natürlich, dass der (gleiche) Kühler auch höchstens so schnell wie bei der 8800 GTS drehen muss und somit leiser als der der 8800 GTX und Ultra ist - wie es eben auch die 8800 GTS ist.

bislang hat afaik Nvidia die "guten" Referenz-Kühler nur für High-End Karten gebaut. Midrange und Performance-Bereich haben nur laute Referenz-Kühler bekommen (7600GT, 7900GT, 8600GTS,...). Darum werte ich die Information (falls die überhaupt stimmt), dass eine Performance Karte einen guten Kühler von Nvidia designed bekommt, als sehr löblich.

deekey777
2007-08-16, 20:11:04
Sondern mit FLOPs in TMUs und ROPs? Immerhin - sogar eine GF3 hatte schon 76 GFLOPs - Nvidias Launch-Papers zufolge. ;)
Die alte gute Präsentation der GF3 auf der MacExpo Tokyo, wo auch die Doom-3-Enigne in Action gezeigt wurde. :biggrin:

Ailuros
2007-08-16, 20:14:06
Dafür müsste aber SLI/CF Standard sein, wovon wir noch meilenweit entfernt sind.

Wie gross ist die Meile genau zu R700? In den kommenden Jahren wird sich mehr in dieser Richtung aendern als so manche erwarten.

Ailuros
2007-08-16, 20:18:39
Sondern mit FLOPs in TMUs und ROPs? Immerhin - sogar eine GF3 hatte schon 76 GFLOPs - Nvidias Launch-Papers zufolge. ;)


Auf Papier hat eine 8800GTX satte 512 GFLOPs; im Gegensatz eine 2900XT 475 GFLOPs. Wieviele wahre GFLOPs kann unter normalen Spiel-Umstaenden A oder B dann am Ende herausspucken?

Der Terraflop Wert ist momentan genauso viel Wert wie die unerreichbaren 512 GFLOPs einer G80. Das heisst natuerlich nicht dass sich die interne Shader-Fuellrate nicht um ein sehr gesundes Prozentual steigern wird, aber der wahre Wert ohne Marketing-Gefusel liegt wohl doch dann auf einem niedrigeren Niveau.

aths
2007-08-16, 20:21:30
Die Sache mit den 1 TFlop dürfte wahrscheinlich eh nur, vielleicht in Verbindung mit der 64 bit Erweiterung?, für TESLA oder vielleicht sogar Quadrokarten interessant sein.Eher im Gegenteil. Ich vermute, dass die ALUs für doppelte Genauigkeit mehr als einen Takt benötigen.

Auf ca. 1000 GFlops zu kommen ist gar nicht mal sooo schwer. Man kann die Rechenleistung steigern über eine breitere Architektur mit zusätzlichen ALUs "in der Tiefe" plus Taktsteigerung. Rechenbeispiel:

MAD + MAD (4 Flop) bei 192 "Shader-Pipelines" und gerade mal 1300 MHz Takt. Oder MAD + MAD bei 1560 MHz.

Ailuros
2007-08-16, 20:23:02
Die Sache mit den 1 TFlop dürfte wahrscheinlich eh nur, vielleicht in Verbindung mit der 64 bit Erweiterung?, für TESLA oder vielleicht sogar Quadrokarten interessant sein.


Eine jegliche heutige GPU muss auch irgendwo SF und/oder Interpolation durchfuehren. Die Antwort ist einfach dass jegliche high end Form des G92 fast 2x die arithmetische Kraft einer G80 haben wird und dabei ist es wurscht ob man das theoretische Maximum (3 FLOPs per SP) oder den wahren throughput (etwas >2 FLOPs) zur Hand nimmt.

Ailuros
2007-08-16, 20:24:23
MAD + MAD (4 Flop) bei 192 "Shader-Pipelines" und gerade mal 1300 MHz Takt. Oder MAD + MAD bei 1560 MHz.

Und wieso nicht 128*3*2.4 *ultragrins* ;) :P

deekey777
2007-08-16, 20:25:03
Man darf aber nicht vergessen, dass der G86 eine SF-Operation pro Takt ausführen kann, was ein ehrlicher FLOP-Punkt ist. Wenn dies auch für den G92 gilt, werden diese 1 TFLOPs auch nicht realer, aber die theoretische FLOP-Angabe wäre "ehrlicher".

dargo
2007-08-16, 20:38:16
Wie gross ist die Meile genau zu R700?

Ein R700 ist/wird immer noch High-End. Die Mainstream Version von diesem dürfte nur eine GPU besitzen. Davon gehe ich jetzt mal aus.


In den kommenden Jahren wird sich mehr in dieser Richtung aendern als so manche erwarten.
Du sagst es selber, es dauert noch Jahre. :)

seahawk
2007-08-16, 20:40:45
Und wieso nicht 128*3*2.4 *ultragrins* ;) :P

2.4 :eek: Iwe hoch soll den da der Rest takten um daran halbwegs angeglichen zu sein.

AnarchX
2007-08-16, 20:53:44
Doch nur 4 Cluster? Aber dafür die gleiche Taktik wie bei G84 und G86 - sehr hoher Shadertakt und auf 8 TAUs pro Cluster aufgebohrt?

Fragt sich nur wie da 50% mehr Performance gegenüber einer GTX herausspringen sollen bei der GX2. ;)

Ailuros
2007-08-16, 21:06:30
2.4 :eek: Iwe hoch soll den da der Rest takten um daran halbwegs angeglichen zu sein.

800/2400 nachdem was sich herumspricht.

Hvoralek
2007-08-16, 21:07:46
Fragt sich nur wie da 50% mehr Performance gegenüber einer GTX herausspringen sollen bei der GX2. ;)Über den Takt?
Okay, anscheinend wirklich über den Takt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5760038#post5760038) :biggrin:

Wobei bei nur vier Clustern auch diese Äußerung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5756669#post5756669) klar wäre :wink:

Ailuros
2007-08-16, 21:09:23
Ein R700 ist/wird immer noch High-End. Die Mainstream Version von diesem dürfte nur eine GPU besitzen. Davon gehe ich jetzt mal aus.

Es gibt SLi/CF Combis momentan in allen Markt-segmenten; egal ob und wo dieses wirklich Sinn macht.


Du sagst es selber, es dauert noch Jahre. :)

Wieviele Jahre ist die wahre Frage.

Ailuros
2007-08-16, 21:16:39
Doch nur 4 Cluster? Aber dafür die gleiche Taktik wie bei G84 und G86 - sehr hoher Shadertakt und auf 8 TAUs pro Cluster aufgebohrt?

Fragt sich nur wie da 50% mehr Performance gegenüber einer GTX herausspringen sollen bei der GX2. ;)

Wie gesagt zu 100% sicher ueber die GX2 bin ich mir immer noch nicht. Entweder diese oder einfach ein single-chip Monster mit den vorerwaehnten Frequenzen und sehr schnellem GDDR4 von Samsung.

Ich muss immer noch meine Klappe ueber einiges zuhalten, denn die AIBs wurden gerade erst ganz kurz eingeweiht.

AnarchX
2007-08-16, 21:16:46
Damit wird auch die Positionierung von VR-Zone klar...

Wobei aber mit 800/2400/2400MHz das Erreichen einer 8800GTS kein Problem sein sollte, wenn NV noch ein paar kleinere Optimierungen vorgenommen hat umso weniger.
Vielleicht ist ja auch noch OC-Potential wie bei der 8600GTS vorhanden, die trotz der 675/1450MHz noch einiges an Potential nach oben hat.

Aber bei so einem "Sparchip" will ich dann wenigstens vernünftige Preise sehen...


Wie gesagt zu 100% sicher ueber die GX2 bin ich mir immer noch nicht. Entweder diese oder einfach ein single-chip Monster mit den vorerwaehnten Frequenzen und sehr schnellem GDDR4 von Samsung.
Aber diese hohen Taktraten machen noch lang kein "Monster" aus einem 32TMUs/64SPs/16ROPs Chip. Oder waren die 128 SPs auf einen G92 bezogen und NV hat ein paar FFs rausgeworfen? :ugly:

GDDR4? Hätte nicht mehr gedacht, dass man diesen noch bei NV sieht...

Ailuros
2007-08-16, 21:18:37
Uebrigens gab es tatsaechlich kleine "Probleme" aber auch nur weil man zu mutig wahr und die Dinger auf 2.5 aufdrehen wollte.

dargo
2007-08-16, 21:23:41
Uebrigens gab es tatsaechlich kleine "Probleme" aber auch nur weil man zu mutig wahr und die Dinger auf 2.5 aufdrehen wollte.
Hmm, wenn man schon mit 2500Mhz Probleme hat warum sollte man dann 2400Mhz rausbringen? Ist das nicht ein wenig zu optimistisch? :D

Ailuros
2007-08-16, 21:29:34
Da mit wird auch die Positionierung von VR-Zone klar...

Wobei aber mit 800/2400/2400MHz das Erreichen einer 8800GTS kein Problem sein sollte, wenn NV noch ein paar kleinere Optimierungen vorgenommen hat umso weniger.
Vielleicht ist ja auch noch OC-Potential wie bei der 8600GTS vorhanden, die trotz der 675/1450MHz noch einiges an Potential nach oben hat.

Aber bei so einem "Sparchip" will ich dann wenigsten vernünftige Preise sehen...

Es gibt hier ein kleines Oxymoron dass jemand noch entdecken muss. Die Frequenzen deuten eher deutlich auf einen einzelnen high end chip.

Mit 128*3*2.4 bekommst Du ~922 GFLOPs. Waere es eine GX2, dann waeren es 64*3 pro GPU. Das dumme ist aber dass die 4 ROP partition/256bit fuer G92/Performance mehr Sinn macht.

Entweder ist es eine GX2 mit 2*96*3*1.7 oder es wird nie so ein Dingsbums geben und man geht auf single chip high end mit den vorigen Frequenzen und laesst die Performance G92 die vorige 8800GTS ersetzen.

Ailuros
2007-08-16, 21:31:58
Hmm, wenn man schon mit 2500Mhz Probleme hat warum sollte man dann 2400Mhz rausbringen? Ist das nicht ein wenig zu optimistisch? :D

Das eigentliche Ziel fuer R600 war stehts ~800MHz. Komischerweise konnte diese in finaler Form und bei eher hohem Stromverbrauch "nur" 742MHz erreichen. Was sind schon 58MHz hmmm?

Wieso sollten 2.4GHz auf 65nm unmoeglich sein, wenn auf 90nm schon bis zu 1.5GHz problemlos moeglich sind?

Nakai
2007-08-16, 22:30:40
Ich denke die 2,4 Ghz sind nur die Maximalform.
Für gute Yields wird man den Takt schon noch runterfahren.
2000 Mhz sind doch genug für die Shader und selbst 700Mhz für den Rest des Chips auch.

mfg Nakai

Ailuros
2007-08-16, 22:40:43
Ich denke die 2,4 Ghz sind nur die Maximalform.
Für gute Yields wird man den Takt schon noch runterfahren.
2000 Mhz sind doch genug für die Shader und selbst 700Mhz für den Rest des Chips auch.

mfg Nakai

Bei einem hypothetischen high end single chip muesste man aber dann entweder mehr Einheiten einbauen oder diese breiter ausstatten.

128*3*2.4
128*4*1.9
160*3*2.0

mapel110
2007-08-16, 22:43:36
Also ich habs noch nicht erlebt, dass man deutlich unter den Möglichkeiten des Designs geblieben ist. Wenn 2400 möglich sind, kommen sie auch.
Eher hat man Chips ja sogar überreizt und selektierte Chips gebracht oder man hat bestehende Designs nochmal ganz leicht überarbeitet mit dem Ziel, die Taktrate(n) zu erhöhen. (siehe Radeon 9800)

Nakai
2007-08-16, 23:10:59
Bei einem hypothetischen high end single chip muesste man aber dann entweder mehr Einheiten einbauen oder diese breiter ausstatten.

128*3*2.4
128*4*1.9
160*3*2.0

Finde ich nicht.
Wenn der G92 unter dem G80 liegt, dann wären 2Ghz oder gar 2,2 Ghz sehr annehmbar.
Du hast selbst gesagt, dass der G92 nur 4 Cluster hat, also rechnen wir mal.

64*3*2.4(2.0) = 460,4GFlops (384 GFlops)
32*800(700) = 25600MTex/s (22400MTex/s)

Wenn man das mit der 8800GTS vergleicht, dann ist ein G92 ziemlich stark, als dass er unter einer GTX liegt.
Aber da der Prozess bestimmt noch verbessert wird, sind die Angaben von 2,4 Ghz und 800Mhz mehr als glaubwürdig.

mfg Nakai

Ailuros
2007-08-17, 06:02:31
Finde ich nicht.
Wenn der G92 unter dem G80 liegt, dann wären 2Ghz oder gar 2,2 Ghz sehr annehmbar.
Du hast selbst gesagt, dass der G92 nur 4 Cluster hat, also rechnen wir mal.

Nein ich sagte dass die Performance G92 4 ROP partitions (256bit bus ahoi) hat. Was jetzt die Cluster betrifft, koennen es sowohl 6 (3/4-G80) oder auch nur 4 (1/2-G80) sein. Nichtdestominder muss auch irgendwo G96 in das ganze Puzzle passen.

High end wird entweder mit einer GX2 oder mit einem 8 cluster single chip bedient.

64*3*2.4(2.0) = 460,4GFlops (384 GFlops)
32*800(700) = 25600MTex/s (22400MTex/s)

Wenn man das mit der 8800GTS vergleicht, dann ist ein G92 ziemlich stark, als dass er unter einer GTX liegt.
Aber da der Prozess bestimmt noch verbessert wird, sind die Angaben von 2,4 Ghz und 800Mhz mehr als glaubwürdig.

mfg Nakai

Tjaaaa nur leider bekommst Du mit Deiner zweiten These (egal ob single chip high end oder GX2) leider nicht etwas ueber 900 GFLOPs oder? ;)

Ailuros
2007-08-17, 06:08:05
Also ich habs noch nicht erlebt, dass man deutlich unter den Möglichkeiten des Designs geblieben ist. Wenn 2400 möglich sind, kommen sie auch.
Eher hat man Chips ja sogar überreizt und selektierte Chips gebracht oder man hat bestehende Designs nochmal ganz leicht überarbeitet mit dem Ziel, die Taktrate(n) zu erhöhen. (siehe Radeon 9800)

Wenn NV ihre AIBs schon jetzt einweiht, bezweifle ich dass sie etwas anderes als einen Hard-Launch bereit haben.

seahawk
2007-08-17, 06:55:30
Ailuros, kannst Di etwa schon sagne wie man sich das komplette line-up um G92 vorstellen muss. High-End ist ja nett, aber spannender fände ich was man in die Lücke zwischen 8600/8800 setzen wird.

Hvoralek
2007-08-17, 10:03:02
Nein ich sagte dass die Performance G92 4 ROP partitions (256bit bus ahoi) hat. Was jetzt die Cluster betrifft, koennen es sowohl 6 (3/4-G80) oder auch nur 4 (1/2-G80) sein. Nichtdestominder muss auch irgendwo G96 in das ganze Puzzle passen.Ein 6- Cluster- G92@800/2400 würde sich aber bestimmt nicht zwischen 8800 GTS und GTX einordnen.

G96 klingt wieder nicht besonders stark. Vlt. ein geshrinkter G84?

Nakai
2007-08-17, 11:51:07
Tjaaaa nur leider bekommst Du mit Deiner zweiten These (egal ob single chip high end oder GX2) leider nicht etwas ueber 900 GFLOPs oder?

Ach du nervst...:tongue:;D ^^
Wieso muss die GX2 genausohoch getaktet sein, wie die Singleversion?

Ein 6- Cluster- G92@800/2400 würde sich aber bestimmt nicht zwischen 8800 GTS und GTX einordnen.

Es wird schon nur ein 4 Clusterchip. Das würde auch passen.
Höchstens der Coretakt müsste noch etwas höher sein um die Texelfüllrate anzupassen.

mfg Nakai

Ailuros
2007-08-17, 12:11:05
Ein 6- Cluster- G92@800/2400 würde sich aber bestimmt nicht zwischen 8800 GTS und GTX einordnen.

Entweder 64*3*2.4 oder 96*3*1.6.

AnarchX
2007-08-17, 12:19:15
Also doch nicht (4*32)*3*2.4 für einen G92? Wieviel kosten eigentlich die SPs bei G8x/G9x, so teuer dürften diese doch gar nicht sein oder?

Ailuros
2007-08-17, 12:33:20
Also doch nicht (4*32)*3*2.4 für einen G92? Wieviel kosten eigentlich die SPs bei G8x/G9x, so teuer dürften diese doch gar nicht sein oder?

Was meinst Du jetzt mit 4*32? Wir sprachen gerade von der Performance GPU, was sie fuer high end vorhaben hab ich noch keine Ahnung. Was eben gerade billiger war zu entwickeln und herzustellen.

AnarchX
2007-08-17, 12:52:18
Was meinst Du jetzt mit 4*32?

Dass der G92 eben 32 SPs pro Cluster hat und somit insgesamt 128. Damit würde die Aussage von NV, dass der nächste Chip (G92) nahe dem (theoretischen) 1 TFLOPs liegt auch stimmen.
Imo würde dem G8x/G9x-Design etwas mehr arithmetische Power für die Zukunft nicht schaden und auch in der Vergangenheit gab es ja solche Sprünge bei der aritmetischen Leistung (6800Ultra auf 7800GT = 58% und auf 7600GT = 32%).

Aber nunja, da schein ich dich missverstanden zu haben. Wobei natürlich 64 SPs @ 2.4GHz auch nicht so übel sind, bei der hohen Effizienz des Designs.


Hmm... die ~2.5GHz schwirren eigentlich schon etwas länger herum, (http://forum.beyond3d.com/showpost.php?p=979641&postcount=679) aber noch im Zusammenhang mit 192SP (oder sind es 2x96 ;)). Vielleicht hat ja NV bei dem 1 TFLOP für G92 noch die SFUs dazugezählt...

deekey777
2007-08-17, 12:59:03
32 SPs pro Cluster? Nein, nie und nimmer. Das würde die Granularität erhöhen, wenn sie parallel (nebeneinander) arbeiten (Vec32-ALU). Und seriell nacht es auch nicht viel Sinn (siehe R580).
Dass der G92 eben 32 SPs pro Cluster hat und somit insgesamt 128. Damit würde die Aussage von NV, dass der nächste Chip (G92) nahe dem (theoretischen) ...
Hmm... die ~2.5GHz schwirren eigentlich schon etwas länger herum, (http://forum.beyond3d.com/showpost.php?p=979641&postcount=679) aber noch im Zusammenhang mit 192SP (oder sind es 2x96 ;)). Vielleicht hat ja NV bei dem 1 TFLOP für G92 noch die SFUs dazugezählt...
Siehe mein vorheriges Posting: Der G86 kann eine MADD- und eine SF-Operation ausführen.

Ailuros
2007-08-17, 13:36:57
Dass der G92 eben 32 SPs pro Cluster hat und somit insgesamt 128. Damit würde die Aussage von NV, dass der nächste Chip (G92) nahe dem (theoretischen) 1 TFLOPs liegt auch stimmen.
Imo würde dem G8x/G9x-Design etwas mehr arithmetische Power für die Zukunft nicht schaden und auch in der Vergangenheit gab es ja solche Sprünge bei der aritmetischen Leistung (6800Ultra auf 7800GT = 58% und auf 7600GT = 32%).

NV wird wohl nicht einen R600 nachbauen wollen oder? ;D

4 cluster mit jeweils 32 SPs @ 2.4GHz = 922 GFLOPs
Das ganze Schlammasel jetzt mit 16 TMUs, 16 ROPs und - Gott Hilf - noch einer 256bit Busbreite? Nein warte dass Ding waere noch um vieles unbalancierter als ein R600.

Bei single chip 8 cluster/high end oder GX2 sind es dann 1.8 Terraflops.

Hmm... die ~2.5GHz schwirren eigentlich schon etwas länger herum, (http://forum.beyond3d.com/showpost.php?p=979641&postcount=679) aber noch im Zusammenhang mit 192SP (oder sind es 2x96 ;)). Vielleicht hat ja NV bei dem 1 TFLOP für G92 noch die SFUs dazugezählt...

Nein es wurden keine SFUs mitgezaehlt. 196*3*2.5 = 1.460 Terraflops, ausser der Herr stellte sich irgend eine merkwuerdige 2-FLOP Konstellation vor. Und was zum Henker wuerde das dann sein, single MADD oder ADD+MUL? Da moechte ich aber mal gerne wissen wo zum Teufel man auf so einem idiotischen Ding SF und/oder Interpolation durchfuehrte pffff.........

Gast
2007-08-17, 14:36:08
Steht eigentlich noch der November als Datum für den G92 ?

PCGH_Carsten
2007-08-17, 14:40:36
Entweder 64*3*2.4 oder 96*3*1.6.
Was spricht gegen 80?

Nakai
2007-08-17, 15:05:14
2,5 TCPs?

Ich glaube nicht, das dies geht, vorallem hätte man dann ein Problem mit den TMUs.
NV wirds wohl so einfach machen wie möglich und da sind 4 Cluster die beste Lösung.

mfg Nakai

PCGH_Carsten
2007-08-17, 16:05:31
2,5 TCPs?

Ich glaube nicht, das dies geht, vorallem hätte man dann ein Problem mit den TMUs.
NV wirds wohl so einfach machen wie möglich und da sind 4 Cluster die beste Lösung.

mfg Nakai
Was ist bei dir ein TCP und warum hat ein G86 dann auch nur einen halben davon (16 SPs)?

Nakai
2007-08-17, 16:31:10
Eh stimmt, war wieder falsch gedacht von mir.
Der G80 hat 8 Cluster, der G84 hat nur 2 Cluster und der G86 hat 1 Cluster.
Dein Vorschlag wäre, dass der G92 5 Cluster hätte.

Was ich meine, ist doch, dass in einem Cluster immer 2 Vec8-Blöcke zusammen sind und das nicht etwas problematisch

Achja vergiss was ich gesagt habe in meinem vorigen Post...:redface:

mfg Nakai

PCGH_Carsten
2007-08-17, 16:47:23
Was ich meine, ist doch, dass in einem Cluster immer 2 Vec8-Blöcke zusammen sind und das nicht etwas problematisch

Ja, 80 Shader wären 10 Vec8-Blöcke und 5 Cluster.

seahawk
2007-08-17, 18:10:49
Den Chip könnte man dann eben als GT auch als 4 cluster verkaufen.

aths
2007-08-17, 19:37:31
Man darf aber nicht vergessen, dass der G86 eine SF-Operation pro Takt ausführen kann, was ein ehrlicher FLOP-Punkt ist. Wenn dies auch für den G92 gilt, werden diese 1 TFLOPs auch nicht realer, aber die theoretische FLOP-Angabe wäre "ehrlicher".Man zählt traditionell nur frei programmierbare MADs oder getrennt MULs und ADDs.

Nein es wurden keine SFUs mitgezaehlt. 196*3*2.5 = 1.460 TerraflopsTera. Nicht Terra.

Gast
2007-08-18, 09:04:07
Tera. Nicht Terra.
Ich glaube nicht, dass du gerade Ailuros über griechische Vorsilben belehren musst, nur weil er sich mal vertippt hat.

Und löschen brauchst du (oder wer auch immer) solche Postings wie dieses auch nicht...

Hauwech
2007-08-18, 09:36:31
Eher im Gegenteil. Ich vermute, dass die ALUs für doppelte Genauigkeit mehr als einen Takt benötigen.

Auf ca. 1000 GFlops zu kommen ist gar nicht mal sooo schwer. Man kann die Rechenleistung steigern über eine breitere Architektur mit zusätzlichen ALUs "in der Tiefe" plus Taktsteigerung. Rechenbeispiel:

MAD + MAD (4 Flop) bei 192 "Shader-Pipelines" und gerade mal 1300 MHz Takt. Oder MAD + MAD bei 1560 MHz.

Eigentlich wollte ich den einen TFlop und die 64 bit eher als Marketinginstrument darstellen. :redface: Wie man an der 88GTX ja schon sehen kann sind reale und 'offizielle' Flops ja nicht das Gleiche.

Ich denke auch das für 64 bit mehr als ein Takt benötigt wird. Aber selbst wenn es auf eine Halbierung der Leistung hinausläuft, die Leistung pro Karte dürfte im geeigneten Anwendungsgebiet trotzdem immer noch deutlich über einer CPU liegen.

Ailuros
2007-08-18, 10:22:46
Ich glaube nicht, dass du gerade Ailuros über griechische Vorsilben belehren musst, nur weil er sich mal vertippt hat.


Selbst im griechischen wird es nur mit einem "r" geschrieben; demzufolge hatte er schon recht ;)

Gast
2007-08-18, 10:37:37
Selbst im griechischen wird es nur mit einem "r" geschrieben; demzufolge hatte er schon recht ;)
Ich sag' ja: Wenn du dich mal vertippt hast. Sonst rechtfertigt aths seinen Rechtschreibspam ja mit "Dauerfehlern" usw...

Hvoralek
2007-08-18, 10:48:16
Selbst im griechischen wird es nur mit einem "r" geschrieben; demzufolge hatte er schon recht ;)Ich wollte schon sagen: "terra" mit zwei "r" ist doch Latein...

Aths, diese Hinweise sind sicher gut gemeint. Aber vlt. wäre es sinnvoll, die Leute wegen so etwas per PN anzusprechen (ausgenommen vlt. wirkliche Epidemien wie "Standart" oder "Sinn machen"). Ansonsten geraten Threads leicht ins OT und manche Leute könnten sich öffentlich an den Pranger gestellt fühlen.

aths
2007-08-18, 12:26:52
Ich wollte schon sagen: "terra" mit zwei "r" ist doch Latein...

Aths, diese Hinweise sind sicher gut gemeint. Aber vlt. wäre es sinnvoll, die Leute wegen so etwas per PN anzusprechen (ausgenommen vlt. wirkliche Epidemien wie "Standart" oder "Sinn machen"). Ansonsten geraten Threads leicht ins OT und manche Leute könnten sich öffentlich an den Pranger gestellt fühlen.Bei Ail hoffe ich, dass er das nicht falsch versteht. Es wäre von mir reichlich idiotisch, Leute für Schreibfehler an den Pranger zu stellen. Das mit Tera wird meiner Erfahrung nach relativ oft falsch geschrieben, deshalb habe ich mir den öffentlichen Hinweis an dieser Stelle erlaubt. Viele sprechen "Tera" wie "Terra" und schreiben es auch so. Leider.

Eigentlich wollte ich den einen TFlop und die 64 bit eher als Marketinginstrument darstellen. :redface: Wie man an der 88GTX ja schon sehen kann sind reale und 'offizielle' Flops ja nicht das Gleiche.

Ich denke auch das für 64 bit mehr als ein Takt benötigt wird. Aber selbst wenn es auf eine Halbierung der Leistung hinausläuft, die Leistung pro Karte dürfte im geeigneten Anwendungsgebiet trotzdem immer noch deutlich über einer CPU liegen.Da rechne ich bei Multiplikationen mit bis zu vier Takten bei doppelter Genauigkeit. Trotzdem, im Single-Format macht eine 8600 GT bei den passenden Stream-GPCPU-Aufgaben jeden Quaddi (Quadcore) platt. Eine 9800 GTX oder Ultra dürfte auch in doppelter Genauigkeit noch jede Desktop-CPU abrulen. Dabei gehts nicht unbedingt nur um Rechenleistung, auch um die Bandbreite. Eine CPU könnte man so bauen dass sie bei Stream-Verarbeitung deutlich schneller wäre – wenn die Bandbreite vorhanden wäre. Die GPUs haben mit ihrem eigenen Speicher diese Probleme nicht.

toroidh
2007-08-18, 15:31:13
Ich habe gerade das Update im ersten Post dieses Threads gelesen. Wenn das stimmen sollte dann habe ich ein Problem. Meine 8800gtx läuft weder im DX10 Benchmark von WiC flüssig, noch im COJ DX10, noch ist Lost Planet komplett ruckelfrei. Womit zum Teufel soll ich Crysis/Bioshock Spielen ? Damit diese butterweich laufen wird meiner Meinung nach eine 8800gtx nicht reichen um es möglichst mit max Details und wenigstens einem vernünftigen Niveau an AF zu Zocken. Ich hoffe wirklich, daß die Vermutungen in dem Post nicht zutreffen, das wäre die Enttäuschung des Jahres und ich werde von Crysis wohl die Finger lassen müssen, bis zum Anfang des nächsten Jahres :-(.

Der Markt ist reif für eine neue High-End Karte.

Hvoralek
2007-08-18, 16:46:32
Wer sagt denn, das Crysis und Bioshock so hohe Anforderungen stellen wie diese Benchmarks (die wirklich ineffizient mit GraKaleistung umgehen)?

toroidh
2007-08-18, 16:49:23
Davon kann man bei den Videos durchaus ausgehen. Lost Planet ist übrigens nicht nur ein Benchmark.
Es kann sein, daß es im Schnitt flüssig läuft - es wird aber in der min FPS stark ruckeln. Dann macht das Spielen keine Freude, auch nicht wenn man die Details sichtbar herabsetzen muß. Ich habe fest damit gerechnet, daß entweder nVidia oder ATI es zum Herbst krachen lassen. Im November wird meine GTX 1 Jahr alt, da kann man durchaus über ein Upgrade nachdenken..

AnarchX
2007-08-18, 16:51:44
Davon kann man bei den Videos durchaus ausgehen. Lost Planet ist übrigens nicht nur ein Benchmark...

Epic und Crytek arbeiten doch mit NV zusammen, also werden sie schon wissen was das genau Performancetarget ist, damit sie nicht völlig am Markt vorbei zielen. ;)

toroidh
2007-08-18, 17:22:29
Wäre wünschenswert, allerdings wäre das nicht das erste Spiel an welchem nVidia mitarbeitet ("The Way It's Meant To Be Played" ) welches nicht durchgängig flutscht..

Gast
2007-08-18, 17:23:41
Davon kann man bei den Videos durchaus ausgehen.

kann man nicht, man kann auch mit ganz unspektakulärer grafik jeden pc überfordern oder aber mit spektakulärer grafik recht genügsam sein.

AnarchX
2007-08-18, 17:31:08
Wäre wünschenswert, allerdings wäre das nicht das erste Spiel an welchem nVidia mitarbeitet ("The Way It's Meant To Be Played" ) welches nicht durchgängig flutscht..

Naja, bei TWIMPBP gibt es auch verschieden Stufen, so bedeutet es bei vielen Games nur, dass es mit einer Vielzahl von NV-Hardware auf Kompatibilität getestet wurde. Aber bei A-Titeln wie UT3 oder Crysis, stellt ja NV bekanntlich den Devs eigene Leute zur Seite, die bei der Entwicklung Unterstützung bieten.

Aber Befürchtungen, dass keine neue HighEnd-Karte im Q4 kommt, sind imo eher fehl am Platz. NV hat schon desöfteren Andeutugen/Ankündigungen bei verschiedenen Konferenzen gemacht und die Arbeit an Dual-GPU-Boards, wenn auch bisher nur für Tesla, wurde auch angekündigt. (siehe Post #1)

toroidh
2007-08-18, 18:32:41
AnarchX, hoffen wir einfach mal das beste.
Gast, bis jetzt wurde ich bei jedem Top Spiel im Herbst mit der High-End Karte vom Vorjahr performancemässig ziemlich enttäuscht und habe dann sogleiche eine neue gekauft (wenn verfügbar) welche dann auch viel besser lief. Deswegen gibt es bei mir auch immer im Oktober/November eine neue Graka.
Wieso sollte es dieses Jahr anders sein ?

dargo
2007-08-18, 18:46:56
AnarchX, hoffen wir einfach mal das beste.
Gast, bis jetzt wurde ich bei jedem Top Spiel im Herbst mit der High-End Karte vom Vorjahr performancemässig ziemlich enttäuscht und habe dann sogleiche eine neue gekauft (wenn verfügbar) welche dann auch viel besser lief. Deswegen gibt es bei mir auch immer im Oktober/November eine neue Graka.
Wieso sollte es dieses Jahr anders sein ?
Nun, zumindest bei den Konsolenportierungen wirst du spätestens mit einem G90 keine schnellere Grafikkarte bei späteren Games mehr brauchen, behaupte ich jetzt einfach mal (zumindest bis zur nächten Konsolengeneration). Es sei denn, die Spieleentwickler "verschönern" die Portierungen.

Gast
2007-08-18, 20:30:45
Nun, zumindest bei den Konsolenportierungen wirst du spätestens mit einem G90 keine schnellere Grafikkarte bei späteren Games mehr brauchen, behaupte ich jetzt einfach mal (zumindest bis zur nächten Konsolengeneration). Es sei denn, die Spieleentwickler "verschönern" die Portierungen.
Das oder die Performance wird künstlich "gedrückt". Wenn es schnellere Karten gibt, dann werden/müssen die auch gebraucht werden. Und da wird nV zusammen mit den Devs schon dafür sorgen, egal wie das aussehen wird. Performancefressende "Verschönerungen" gibt es viele, mit den richtigen Schatten bekommt man schnell jede Grafikkarte klein. Oder ein paar Partikel hier und da mehr. Die Verbesserungen werden optisch wahrscheinlich nur marginal erkennbar sein. Aber egal, hauptsache man kann alle Regler auf Maximum knallen und alles aktivieren was geht.

toroidh
2007-08-18, 22:03:34
Naja, ich rede die ganze Zeit von "sichtbar". Keine Lust auf schöne und sichtbare Details verzichten zu müssen weil sonst das Spiel zwischen 14 und 40 FPS läuft. Das wäre der Horror.

Neosix
2007-08-19, 03:49:32
ist wohl aktuell eher der horror weil viele nicht wissen was im highend segment sich tun wird. für die meisten ist eine 88ultra keine alternative. selbst in diesem forum wo schon extrem aktuelle hardware verbaut wird. und absolut keine aussagekraft über den markt gemacht werden kann. gibts sogut wie keine ultras zu sehen. und die gtx ist schon 1 jahr alt. kann mir einfach nicht vorstellen das nvidia nicht mit einer neuen grafikkarte im highend segment sich den titel schnell UND stromsparend holen will. einfach die gtx in 65nm und allle wären glücklich. aber momentan kann man nicht mal davon was lesen :(

Steffko
2007-08-19, 12:37:31
Wenn das wirklich stimmen sollte, finde ich den G92 eigentlich absolut klasse. Die Leistung passt (knapp langsamer als die GTX, aber dann wohl schneller als die 640mb GTS), leise, stromsparend. Preislich ungefähr da, wo ich hinwollte. Klingt gut :D

Gaestle
2007-08-20, 13:10:53
Nun, zumindest bei den Konsolenportierungen wirst du spätestens mit einem G90 keine schnellere Grafikkarte bei späteren Games mehr brauchen, behaupte ich jetzt einfach mal (zumindest bis zur nächten Konsolengeneration). Es sei denn, die Spieleentwickler "verschönern" die Portierungen.

Na, ich denke schon, dass die Devs mit zunehmnder Technik-Erfahrung mit den neuen Konsolen noch ein bißchen was an Pracht rausquetschen. Du solltest auch nicht vergessen, dass PC Gamer weniger an Auflösungen gebunden sind, und große TFTs immer billiger werden. Da viele TFTs schlecht in niedrigere Auflösungen interpolieren, steigt IMHO die Nachfrage nach Leistung für hohe Auflösungen (z.B. bei 'nem 22"TFT die native Auflösung 1680 x 1050).
Gibt's auf den Konsolen auch die vielen verschiedenen AA-Modi?

AnarchX
2007-08-20, 13:19:27
Gibt's auf den Konsolen auch die vielen verschiedenen AA-Modi?

Da sie auf Desktop-Architekturen basieren ist hier MSAA bzw. OGSSAA auf jeden Fall vorhanden, nur erkennt man schnell wenn man sich die Specs anschaut (Speicherbandbreite), dass diese Lösungen nicht unbedingt für hohe Kantenglättung gemacht sind.

Dass man mit einem G92/G90 alle kommenden Konsolentitel problemlos spielen kann, halte ich auch für gewagt, dafür sind die Portierungen meist ziemlich grottig. Aber lassen wir uns überraschen...

Hvoralek
2007-08-20, 15:04:20
Da sie auf Desktop-Architekturen basieren ist hier MSAA bzw. OGSSAA auf jeden Fall vorhanden, nur erkennt man schnell wenn man sich die Specs anschaut (Speicherbandbreite), dass diese Lösungen nicht unbedingt für hohe Kantenglättung gemacht sind.Ausnahme natürlich Xenos, wenn Tiling machbar ist und genutzt wird. Oder 2xAA in einer Auflösung, die selbst damit unter 10 MiB Backbuffer bleibt :ugly:

dargo
2007-08-20, 15:51:54
Dass man mit einem G92/G90 alle kommenden Konsolentitel problemlos spielen kann, halte ich auch für gewagt, dafür sind die Portierungen meist ziemlich grottig. Aber lassen wir uns überraschen...
Naja, afaik hat der Xenos ca. 1/3 der Leistung vom G80. Beim G90 wären es dann nur noch ~16-20%. Wenn eine 1:1 Portierung immer noch nicht vernünftig läuft (selbst in 1680x1050) dann haben die Entwickler großen Mist gebaut.

LovesuckZ
2007-08-20, 16:12:22
Naja, afaik hat der Xenos ca. 1/3 der Leistung vom G80. Beim G90 wären es dann nur noch ~16-20%. Wenn eine 1:1 Portierung immer noch nicht vernünftig läuft (selbst in 1680x1050) dann haben die Entwickler großen Mist gebaut.

Und warum? Die Spiele werden auf 720p@30FPS entwickelt und optimiert. Es wird noch sehr lange dauern, bis diese Spiele in 1680*1050 vernünftig laufen - vorallen, wenn man AA und AF genießen will.

Hvoralek
2007-08-20, 16:21:11
1680*1050 ist etwa doppelt so groß wie 720p. Bei einer halbwegs ordentlichen Portierung sollte G80 das problemlos schaffen. AA kostet darauf sowieso relativ wenig Leistung und AF fast gar keine.

LovesuckZ
2007-08-20, 17:14:08
1680*1050 ist etwa doppelt so groß wie 720p. Bei einer halbwegs ordentlichen Portierung sollte G80 das problemlos schaffen. AA kostet darauf sowieso relativ wenig Leistung und AF fast gar keine.

Du vergisst die CPU. Dazu kommt noch, dass viele Xbox360 Portierungen sehr stark auf die Rechenleistung schlagen. Die Unterschiede in der Architektur zwischen Xenos und G80 sind beachtlich.
Nein, ich glaube nicht, dass der G90 oder eine sonstige zukünftige High-End Grafikkarte in 1680*1050 vernünftigen laufen werde.

Hvoralek
2007-08-20, 17:56:18
Du vergisst die CPU.Der ist die Auflösung egal.

Dazu kommt noch, dass viele Xbox360 Portierungen sehr stark auf die Rechenleistung schlagen. Die Unterschiede in der Architektur zwischen Xenos und G80 sind beachtlich.Wie gesagt, steht natürlich unter der Prämisse einigermaßen sauberer Portierungen.

Nein, ich glaube nicht, dass der G90 oder eine sonstige zukünftige High-End Grafikkarte in 1680*1050 vernünftigen laufen werde.Klar, keine zukünftige High- End- GraKa wird in der Lage sein, alle 360- Spiele in doppeltem 720p zu berechnen... Das war sicher nicht so gemeint wie gesagt, oder?

dargo
2007-08-20, 18:03:34
Du vergisst die CPU.
Wie schon Hvoralek gesagt hat kann die Auflösung und/oder AA/AF Stufe der CPU egal sein. Außerdem, mit den kommenden/vorhandenen Quadcores sind die 30fps eh Geschichte beim CPU-Limit. Ein 2,133-2,4Ghz Kentsfield liefert zb. in DIRT oder LP ~70-100fps!

aths
2007-08-20, 20:11:31
Gibt's auf den Konsolen auch die vielen verschiedenen AA-Modi?Das ist doch völlig egal. Stimmiger Content ist viel wichtiger als perfekte Kantenglättung.

Coda
2007-08-20, 20:50:05
Du vergisst die CPU.
Was ist damit? Eine Core 2 ist mit Sicherheit schneller als die Xbox-360-CPU.

boxleitnerb
2007-08-20, 20:50:49
"Viel wichtiger" würde ich nun nicht sagen. Klar ist er sehr wichtig, aber ich bin sicherlich nicht der einzige, den das Flimmern irritiert. In der aktuellen BioShock Demo fällt es nicht so arg auf, aber es gibt auch andere Fälle.

AnarchX
2007-08-20, 20:54:26
G92 mit GDDR5?
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F220%2F220147.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Das würde natürlich, dem "schmalen" 256Bit SI auf die Sprünge helfen, wobei aber GDDR5 erst 2008 in Massenproduktion geht. Naja, vielleicht beim 55nm Refresh im Frühjahr...

Gaestle
2007-08-20, 20:58:26
Das ist doch völlig egal. Stimmiger Content ist viel wichtiger als perfekte Kantenglättung.
Stimmt. Interessiert hat`s mich trotzdem.

Ailuros
2007-08-20, 21:14:17
G92 mit GDDR5?
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F220%2F220147.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Das würde natürlich, dem "schmalen" 256Bit SI auf die Sprünge helfen, wobei aber GDDR5 erst 2008 in Massenproduktion geht. Naja, vielleicht beim 55nm Refresh im Frühjahr...

4 afaik ;)