PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : 1 [2] 3 4 5 6

Gast
2008-04-22, 15:54:29
Du kannst mir gerne erklären, warum eine 4 fache Auflösung billiger als AA ist und am besten wo es solche Bildschirme gibt.
Die Bildschirme sind kein Problem, nimm einfach 3 Stück 1600x1200 TFTs und schalte sie mit Soft TH2GO zusammen dann hast du 4800x1200... das reicht glaube ich. Und dann siehst du auch das Ergebniss was besser ist. Ich hab mal aus Spass 3 CRTs zusammengeschaltet und alle drei mit 2560x1920 betrieben @7680x1920 UND dann nochmal AA dazugeschaltet. Mit 4xAA siehst du du immernoch Steigerung...

dargo
2008-04-22, 16:00:13
Aber im Vergleich zu Koryphäen wie Dargo und Dir anonymen Nixblicker natürlich nur ein winziges Licht.
Na, du musst ja natürlich den totalen Durchblick haben wenn du der selben Meinung wie JC in Bezug auf AA bist. Und natürlich hat NV & Co auch keine Ahnung und verschwenden nur ihr Geld für MSAA/TSAA/CSAA/CFAA/SSAA und Konsorten, ist ja alles nicht nötig. :rolleyes:

Gast
2008-04-22, 16:25:10
Die Bildschirme sind kein Problem, nimm einfach 3 Stück 1600x1200 TFTs
Ja toll dann ist das Bild größer, aber die Pixel sind genauso groß, wie bei einem 1600x1200 TFT, Treppchen + Flimmern bleibt sichtbar.

GeneralHanno
2008-04-22, 16:38:05
also wer etwas die sufu benutzt findet hier im 3dc 100 threads warum AA einer höheren auflösung überlegen ist.

und der G80 kann sicherlich nur aus spass 64 textursample, 192 z-pass, und 4xMSAA je cycle berechnen :rolleyes:

AnarchX
2008-04-22, 16:41:44
Die Franzosen bauen wohl einen Super-Computer auf Basis des GT-200:
http://www.google.com/translate?u=http%3A%2F%2Fwww.pcinpact.com%2Factu%2Fnews%2F43165-premier-supercalculateur-GPU-France-Tesla.htm&langpair=fr%7Cen&hl=en&ie=UTF8

dargo
2008-04-22, 16:57:21
Die Franzosen bauen wohl einen Super-Computer auf Basis des GT-200:
http://www.google.com/translate?u=http%3A%2F%2Fwww.pcinpact.com%2Factu%2Fnews%2F43165-premier-supercalculateur-GPU-France-Tesla.htm&langpair=fr%7Cen&hl=en&ie=UTF8
Eins verwirrt mich - wie bekommt man aus 48 GPUs 192 TFlops? :confused: Ich glaube kaum, dass ein GT200 4 TFlops liefert.

Edit:
Sorry, da steht später was von 96 GPUs. Dann liefert ein GT200 2 Tflops? :| :eek:

LovesuckZ
2008-04-22, 16:59:43
Es sind 96 einzelne GPUs und entweder 192Tflops oder 89.

dargo
2008-04-22, 17:02:22
Es sind 96 einzelne GPUs und entweder 192Tflops oder 89.
Wie kommst du jetzt auf die 89?

LovesuckZ
2008-04-22, 17:05:39
In this machine, all the CPU is supposed to produce a powerful theoretical 103 Tflops, up from 192 Tflops for GPU

Dumme maschinelle Übersetzung.

AnarchX
2008-04-22, 17:07:10
48 1U-Racks a 4 GPUs (http://www.nvidia.com/object/tesla_gpu_server.html)? ;) Wären ja wieder die schon bekannten ~ 1 TFLOPs.

Sie sprechen ja auch im Text von 48-GPU-"Modulen", gehen aber dümmerlichweise von 2 GPUs pro Modul aus, was man aber ja nur bei der Deskside Lösung findet, die kaum Basis eines Supercomputers sein wird:
http://www.nvidia.com/object/tesla_d870.html

LovesuckZ
2008-04-22, 17:10:40
48 Module wären aber dann keine 96GPUs - außer, sie sind im SLI-Verbund angeordnet...

dargo
2008-04-22, 17:10:40
Dumme maschinelle Übersetzung.
Ich habe das eher so verstanden, dass die 103 TFlops ausschließlich durch die CPUs zustande kommen. 89 TFlops wäre auch imho viel zu wenig für den GT200 bei 96 GPUs. Das wäre ja < 1TFlop je GPU.

Sorkalm
2008-04-22, 17:11:45
Dans cette machine, l'ensemble des CPU est censé produire une puissance théorique de 103 Tflops, contre 192 Tflops pour les GPU. Avec 96 GPU contre 1068 CPU, on voit déjà nettement la domination du GPU sur le CPU en calcul intensif, toujours grâce à ses multiples processeurs de flux parallèles.

Das sind klar 192 TFlops für die GPU, die Differenz braucht es nicht. Ansonsten täuscht mich mein Französisch ziemlich extrem. X-D
Bestätigt auch die Überschrift: "Le premier supercalculateur GPU en France : 300 TFlops"

Womit wir 96 GPUs @ 192 TFlops haben (Edit: Jedenfalls nach der Angabe unten), was dann heißen würde eine GPU = 2 TeraFlops.

LovesuckZ
2008-04-22, 17:13:45
Womit wir 96 GPUs @ 192 TFlops haben, was ziemlich klar soviel wie heißt eine GPU = 2 TeraFlops.

Nein, das kann man daraus nicht schließen. Es fehlt eindeutige Aussagen zur Anordnung in den 48 Modulen. Es könnten sich auch um 2x 48 "x2" GPUs handeln.

dargo
2008-04-22, 17:13:53
Womit wir 96 GPUs @ 192 TFlops haben, was ziemlich klar soviel wie heißt eine GPU = 2 TeraFlops.
Meine Fresse, wenn das stimmt dann fresse ich einen Besen. Aber bitte den Schoko-Besen von Ail. :D

Sorkalm
2008-04-22, 17:14:41
Nein, das kann man daraus nicht schließen. Es fehlt eindeutige Aussagen zur Anordnung in den 48 Modulen. Es könnten sich auch um 2x 48 "x2" GPUs handeln.

Habs deswegen gerade editiert.

AnarchX
2008-04-22, 17:15:26
Nochmal lesen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6450668&postcount=260
;)

dargo
2008-04-22, 17:17:44
Nochmal lesen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6450668&postcount=260
;)
Findest du ~1 TFlop für den GT200 nicht viel zu wenig? Das wäre imho ja wieder nur ein "kleiner" Aufguss was die neue GPU angeht.

Sorkalm
2008-04-22, 17:18:31
Findest du ~1 TFlop für den GT200 nicht viel zu wenig? Das wäre imho ja wieder nur ein "kleiner" Aufguss was die neue GPU angeht.

Passt aber auch zum bisherigen Diskussionsgegenstand
So könnte man GT200 mit 1500 MHz und unveränderten 240 SPs gut 1 TFlop Leistung zuschreiben.

Falls Nvidia aber doch Änderungen an den Streamprozessoren vorgenommen hat, sind auch andere Varianten möglich.

LovesuckZ
2008-04-22, 17:20:54
Findest du ~1 TFlop für den GT200 nicht viel zu wenig? Das wäre imho ja wieder nur ein "kleiner" Aufguss was die neue GPU angeht.

Und wo ist das Problem? Leute wie du, würden sich die 2TFlop Karte doch sowieso nicht kaufen.

AnarchX
2008-04-22, 17:25:12
Findest du ~1 TFlop für den GT200 nicht viel zu wenig? Das wäre imho ja wieder nur ein "kleiner" Aufguss was die neue GPU angeht.
Es ist nunmal keine neue Architektur.

Und schliesslich wird der Transistorcount wohl auch unter 1.5Mrd liegen, was dann eben neben dem fetten 512-Bit SI nicht mehr soviel Platz lässt für viele ALUs und andere Dinge (rechne einfach mal auf Basis von G9x) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6310721&postcount=619).

Und wenn GT-200 die 1 TFLOPs so effizient wie G94 seine ~300GFLOPs nutzt wäre die Performance doch auch brauchbar. ;)

Sorkalm
2008-04-22, 17:29:20
Findest du ~1 TFlop für den GT200 nicht viel zu wenig? Das wäre imho ja wieder nur ein "kleiner" Aufguss was die neue GPU angeht.

Ergänzung: Wäre auch nur eine Anpassung an das Moorsche Gesetz. Man hat es ja bisher umgangen, in dem man die Dice immer größer gemacht hat, doch das wird wohl nicht unendlich lange so möglich sein - und dann muss man sich an die Shrinks doch etwas anpassen. Die Leistungsverdopplung ist ja weiterhin in weniger als 24 Monaten möglich (G80 kam Ende 2006, Ende 2008 dürfte der GT200 aber schon einige Zeit draußen sein).

Und wo ist das Problem? Leute wie du, würden sich die 2TFlop Karte doch sowieso nicht kaufen.

Lass doch bitte die persönlichen Angriffe, die nützen keinen...

dargo
2008-04-22, 17:29:28
Und wo ist das Problem? Leute wie du, würden sich die 2TFlop Karte doch sowieso nicht kaufen.
Achso, wusste gar nicht, dass ich der einzige bin der deutlich mehr Leistung haben möchte. Dabei habe ich noch nicht mal einen 24", geschweige denn 30" TFT. :rolleyes:

Und wenn GT-200 die 1 TFLOPs so effizient wie G94 seine ~300GFLOPs nutzt wäre die Performance doch auch brauchbar. ;)
Da hast du auch wieder recht. Dann wäre das ca. Faktor 3 der G8800GTS640 und demensprechend Faktor 2 der G8800GTX, natürlich wenn alles andere außer der arithmetischen Leistung entsprechend angepasst wurde.

deekey777
2008-04-22, 17:43:40
Nur so eine Frage: Wie rechnet ihr die FLOP-Leistung im Zusammenhang mit der Meldung?

LovesuckZ
2008-04-22, 17:45:22
Achso, wusste gar nicht, dass ich der einzige bin der deutlich mehr Leistung haben möchte. Dabei habe ich noch nicht mal einen 24", geschweige denn 30" TFT. :rolleyes:

Du != 600€ 8800GTX Käufer.
Was du willst und was du kaufst, sind zwei paar Schuhe.
Deswegen sollte man endlich damit aufhören, High-End zu verlangen, wenn aber garnicht vorhat, es zu kaufen.

Nur so eine Frage: Wie rechnet ihr die FLOP-Leistung im Zusammenhang mit der Meldung?

Aufgrund von Schlagwörtern: GT200, 192TFlop GPU, 48 Module.

dargo
2008-04-22, 17:47:49
Nur so eine Frage: Wie rechnet ihr die FLOP-Leistung im Zusammenhang mit der Meldung?
Na, die gemeldeten 192 TFlops durch 192 GPUs (48 1U-Racks a 4 GPUs).

Du != 600€ 8800GTX Käufer.

Ja, ich bin ein böser Mann. Manchmal denke ich du hast echt einen an der Waffel - Kindergartenniveau.

deekey777
2008-04-22, 18:00:25
...
Aufgrund von Schlagwörtern: GT200, 192TFlop GPU, 48 Module.
GT200 wird als "probably" erwähnt.
Ich weiß nicht, was die Franzosen da rechnen, aber in der HPC-Welt rechnet man mit hoher Wahrscheinlichkeit nicht wie wir (zB 128 SPs mal 2 FLOPs mal Takt).
48 Module wären aber dann keine 96GPUs - außer, sie sind im SLI-Verbund angeordnet...
Eigentlich wären es weiterhin 96 oder 192 GPUs, so etwas wie SLI kennt CUDA nicht.

LovesuckZ
2008-04-22, 18:04:49
Ja, ich bin ein böser Mann. Manchmal denke ich du hast echt einen an der Waffel - Kindergartenniveau.

Wieso? Weil du nach etwas forderst, was du dir nicht leisten kannst oder willst?
Du wirst dir keine GT200 für 600€ kaufen - verlangst aber nach dieser. Der Markt funktioniert so nicht.


Eigentlich wären es weiterhin 96 oder 192 GPUs, so etwas wie SLI kennt CUDA nicht.

Die einzelnen GPU müssen physikalisch in den Modulen vorhanden sein, oder? ;)

dargo
2008-04-22, 18:11:03
Ich weiß nicht, was die Franzosen da rechnen, aber in der HPC-Welt rechnet man mit hoher Wahrscheinlichkeit nicht wie wir (zB 128 SPs mal 2 FLOPs mal Takt).

Hmm, diesen Rechenweg kenne ich noch gar nicht. Ich habe immer Shadertakt*3*SPs gerechnet.

AnarchX
2008-04-22, 18:14:03
Hmm, diesen Rechenweg kenne ich noch gar nicht. Ich habe immer Shadertakt*3*SPs gerechnet.
Es sind halt 1 FLOP MUL und 2 FLOPs MADD, wo hingegen letztere für wissenschaftliche Berechnungen wohl relevanter sind.

PCGH_Carsten
2008-04-22, 19:19:46
Für wissenschaftliche Berechnungen dürften eher die DP-FLOPS relevant sein. :)

Gast
2008-04-23, 00:04:34
@The_Invisible
unsinn, auch bei 1280x1024 braucht man teils 4xAA und mehr.
das hängt nicht mit der große vom display zusammen.


Ich glaube er meinte nicht die größe des Displays selbst, sondern die aus Display und Auflösung resultierende größe der Pixel. Bei einem 1920er Display, dessen Fläche nur 20 Zoll einnimmt, sind die einzelnen Pixel so klein, dass man auch keine Treppchen mehr sieht!
"Natürliches AA" durch das menschliche Auge sozusagen ;)

Alternativ kann man sich von einem 24 Zoll 1920er Display auch einfach weiter weg setzen. Am FullHD Fernseher sieht man vom Sofa aus ja auch keine Pixel mehr!

Gast
2008-04-23, 00:14:49
Na, du musst ja natürlich den totalen Durchblick haben wenn du der selben Meinung wie JC in Bezug auf AA bist. Und natürlich hat NV & Co auch keine Ahnung und verschwenden nur ihr Geld für MSAA/TSAA/CSAA/CFAA/SSAA und Konsorten, ist ja alles nicht nötig. :rolleyes:


Nicht NV sondern IHR verschwendet euer Geld für MSAA/TSAA/CSAA/CFAA/SSAA und Konsorten.
Mal ehrlich ich spiele lieber auf 1920 mit 2xAA statt auf 800x600 mit 32fach triple-schlag-mich-tot AA!

Und bei irgendwelchen Gamingzeitschriften, die auch noch bei 1920 mit 16fach AA testen und dann daraus schließen, dass man Crysis auf very high nicht vernünftig spielen kann, muss ich sowieso nur noch den Kopf schütteln!

Mr.Magic
2008-04-23, 00:16:20
Ich glaube er meinte nicht die größe des Displays selbst, sondern die aus Display und Auflösung resultierende größe der Pixel. Bei einem 1920er Display, dessen Fläche nur 20 Zoll einnimmt, sind die einzelnen Pixel so klein, dass man auch keine Treppchen mehr sieht!
"Natürliches AA" durch das menschliche Auge sozusagen ;)

Alternativ kann man sich von einem 24 Zoll 1920er Display auch einfach weiter weg setzen. Am FullHD Fernseher sieht man vom Sofa aus ja auch keine Pixel mehr!

Treppchen sehe ich bei einem 20"er und 1600x1200 ab ~1m Sitzabstand nicht mehr - von üngünstigen Kontrasten abgesehen - dunkles Auto vor strahlendem Himmel in TDU o.ä. - zumindest nicht ohne mich bewusst auf die Kanten zu konzentrieren.
Dadurch wird das Flimmern aber nicht weniger (Aliasing = Kantenflimmern).

Nicht NV sondern IHR verschwendet euer Geld für MSAA/TSAA/CSAA/CFAA/SSAA und Konsorten.
Mal ehrlich ich spiele lieber auf 1920 mit 2xAA statt auf 800x600 mit 32fach triple-schlag-mich-tot AA!

Und bei irgendwelchen Gamingzeitschriften, die auch noch bei 1920 mit 16fach AA testen und dann daraus schließen, dass man Crysis auf very high nicht vernünftig spielen kann, muss ich sowieso nur noch den Kopf schütteln!

Ich musste bei Crysis auf 1280x720 ohne AA runtergehen, damit es 100% spielbar läuft - DX10 Very High versteht sich.

Shaderflimmern kann man momentan allerdings sowieso nur durch Supersampling richtig entgegenwirken. Mal sehen, ob die GT200 Crysis mit aktivem 8xS packt (oder Shader-AA bietet).

Godmode
2008-04-23, 00:19:30
Dadurch wird das Flimmern aber nicht weniger (Aliasing = Kantenflimmern).

Genau so sehe ich das auch! Das Flimmern sagt mir immer wieder: Hey es ist doch nur ein Spiel!

Shrek und Konsorten würden ohne AA auch schrecklich aussehen!

Hvoralek
2008-04-23, 01:27:22
Shaderflimmern kann man momentan allerdings sowieso nur durch Supersampling richtig entgegenwirken. Mal sehen, ob die GT200 Crysis mit aktivem 8xS packt (oder Shader-AA bietet).Wie es im Moment aussieht, würde ich vom GT200 2- bis 2,5- fache G80- Leistung erwarten. Schafft ein G80 Crysis mit 4xMSAA? Zumal 8xS auch nur 2x1 SSAA enthält. Um Shaderalieng zumindest nennenswert zu mildern, bräuchte man schon irgendetwas mit wenigstens 2x2x SSAA - oder 2xSGSSAA. Aber daran glaube ich irgendwie nicht.

Mr.Magic
2008-04-23, 02:06:51
@Hvoralek

Ich dachte eigentlich an 8x"Q"S (2x2SS + 2xMS), aber die horizontale Glättung ist tatsächlich wichtiger (Augenanordnung).

Bei niedrigen Auflösungen schafft es der G80 Crysis mit 2xMSAA einigermaßen spielbar darzustellen. Dadurch flimmert es allerdings kaum weniger. Solange beim GT200 die komplette Karte durchgehend 2,5x schneller ist könnte das mit Supersampling durchaus was werden.
Persönlich ist mir das allerdings sowieso egal, da ich Crysis spielerisch eher durchwachsen fand (erste Hälfte hui, zweite Hälfte pfui). Mal die Addons abwarten, und sehen, ob die dann länger als ein Wochenende auf meiner Platte bleiben.

dargo
2008-04-23, 06:47:42
Nicht NV sondern IHR verschwendet euer Geld für MSAA/TSAA/CSAA/CFAA/SSAA und Konsorten.
Mal ehrlich ich spiele lieber auf 1920 mit 2xAA statt auf 800x600 mit 32fach triple-schlag-mich-tot AA!

Kannst du mir sagen was dieser Quatsch mit der zweiteren Auflösung jetzt soll? Ich kenne heute keinen TFT der nativ 800x600 bietet.


Und bei irgendwelchen Gamingzeitschriften, die auch noch bei 1920 mit 16fach AA testen und dann daraus schließen, dass man Crysis auf very high nicht vernünftig spielen kann, muss ich sowieso nur noch den Kopf schütteln!

Auch hier übertreibst du völlig.

Henroldus
2008-04-23, 07:39:41
Und bei irgendwelchen Gamingzeitschriften, die auch noch bei 1920 mit 16fach AA testen und dann daraus schließen, dass man Crysis auf very high nicht vernünftig spielen kann, muss ich sowieso nur noch den Kopf schütteln!
Crysis ist in very High auf 1680*1050 und 4AA 16AF auf keiner single Graka flüssig spielbar und das ist die auflösung der mittlerweile sehr verbreiteten billig 22" displays.
Somit braucht man schon die Leistung einer GPU vom Schlage GT200 um diese Ansprüche zu erfüllen

GeneralHanno
2008-04-23, 08:36:14
und einige alte kracher warten nur darauf mit super-sampling-(anteilen) endlich geglättet und flimmerfrei gemacht zu werden ;)

wer die leistung der GT200 nicht braucht , ihn zu teuer findet oder sonstwas muss ihn ja nicht kaufen -PUNKT-

Gast
2008-04-23, 09:14:41
Für wissenschaftliche Berechnungen dürften eher die DP-FLOPS relevant sein. :)
Es gibt für fast alles Wege bzw. Algorigthmen damit man es mit SP hinbekommt. siehe z.B. Folding@home

PCGH_Carsten
2008-04-23, 09:22:42
Es gibt für fast alles Wege bzw. Algorigthmen damit man es mit SP hinbekommt. siehe z.B. Folding@home
Jein. In der Wissenschaft wird an vielem gespart, aber nur wenn man wirklich 100.1%-ig sicher ist, an der Rechenpräzision. Zumindest die Supercomputer-Top500-Liste ist dahingehend eindeutig.

Darum besitzt der F@H-GPU2-Client ja gegenüber bsw. dem SMP-Beta-Client auch einen deutlich reduzierten Funktionsumfang.

robbitop@work
2008-04-23, 09:47:57
Nicht alle wissenschaftlichen Aufgaben benötigen Double.
Für Strömungssimulationen und FEM sollte Single genug sein.
So oder so wird Double früher oder später in allen HPC-Karten angeboten. Ich vermute aber mittelfristig mit penalty.

GeneralHanno
2008-04-23, 10:25:43
trotzdem: wenn nvidia mit den neuen fireGL karten mithalten will, dann brauchen sie einen akzeptablen DP output! und den wird nvidia auch bieten, weil GPUs immer mehr für server usw (stichwort: tegra, tesla) eingesetzt werden.

Gosh
2008-04-23, 11:51:51
Fürs mies programmierte Crysis bräuchte die Karte eher die 4fache Leistung.

Paul Brain
2008-04-23, 12:02:42
Fürs mies programmierte Crysis bräuchte die Karte eher die 4fache Leistung.
Wieso meinen hier so viele, dass Crysis mies programmiert sei?
Die Engine ist ihrer Zeit einfach nur weit voraus. Diese mit einem optischen Blender wie etwa CoD4 zu vergleichen funktioniert einfach nicht!

Ja, ich habe CoD4 gespielt, und ja, ich war begeistert. Bei dem Spiel war einfach alles stimmig. Aber nur, weil die Inszenierung über die Schlauchlevels hinwegtäuschte... Beim Multiplayer kam dann die große Ernüchterung: wofür es überhaupt eine Sniperklasse gibt, angesichts der winzigen, engen Maps, ist mir noch immer ein Rätsel. Ich dachte, daß das Spiel eine Art Battlefield 2 ohne Fahrzeuge wird, aber weit gefehlt.
Mit einem Crysis ist es technisch nicht zu vergleichen. Und wäre G80 nicht schon derart ungewöhnlich lange (1,5 Jahre!!!) aktuelles HighEnd, dann würde sich auch niemand über ein "mies programmiertes Crysis" beschweren.

AnarchX
2008-04-23, 12:30:37
The new Bull NovaScale supercomputer consists of a cluster of 1,068 8-core 'generalist' computing nodes (Intel® processors), delivering some 103 Teraflops of power, and 48 specialist 512-core GPU nodes, providing additional theoretical power of up to 192 Teraflops.
http://www.wcm.bull.com/internet/pr/rend.jsp?DocId=350329&lang=en

:|

Macht pro "core" 7.8GFLOPs:
7.8GFLOPs /3 FLOPs = 2.60GHz
7.8GFLOPs /4 FLOPs = 1.95GHz
7.8GFLOPs /6 FLOPs = 1.30GHz
:uponder:

MEDIC-on-DUTY
2008-04-23, 13:17:41
http://www.wcm.bull.com/internet/pr/rend.jsp?DocId=350329&lang=en

:|

Macht pro "core" 7.8GFLOPs:
7.8GFLOPs /3 FLOPs = 2.60GHz
7.8GFLOPs /4 FLOPs = 1.95GHz
7.8GFLOPs /6 FLOPs = 1.30GHz
:uponder:

Kannst Du das bitte noch einmal für Unwürdige wiedergeben? Was heißt das nun für den GT200? Merci.

Zum Thema Crysis - wobei das hier eigentlich das falsche Topic ist - sei gesagt, dass es eine Engine ist, die erst mit neuen Titeln zur vollen Höchstleistung auflaufen wird. Darunter auch ein noch in der Entwicklung befindliches Rollenspiel.

Godmode
2008-04-23, 13:42:35
Kannst Du das bitte noch einmal für Unwürdige wiedergeben? Was heißt das nun für den GT200? Merci.

Zum Thema Crysis - wobei das hier eigentlich das falsche Topic ist - sei gesagt, dass es eine Engine ist, die erst mit neuen Titeln zur vollen Höchstleistung auflaufen wird. Darunter auch ein noch in der Entwicklung befindliches Rollenspiel.

Man müsste schon wissen wie sie auf 512 Cores kommen. Ein Core steht wohl für eine Shader-Alu. 512 Cores auf einer Karte kann ich mir jetzt nicht vorstellen.

128 * 7,8 = 998,4
256 * 7,8 = 1996,8
512 * 7,8 = 3993,6

Ich weiß zb, das in einem Rack 4 Karten Platz haben, das würde dann den 512 Cores entsprechen. Somit hätte eine Karte 998,4 Gigaflops, was mir doch etwas wenig vorkommt, im Vergleich zur 98GTX.

deekey777
2008-04-23, 13:45:41
Man müsste schon wissen wie sie auf 512 Cores kommen. Ein Core steht wohl für eine Shader-Alu. 512 Cores könnte eine Dual-Chip-Karte sein.

128 * 7,8 = 998,4
256 * 7,8 = 1996,8
512 * 7,8 = 3993,6
Wenn der GT200 aus 10x24 SPs besteht, wie kommt man auf zB 512 oder 256?
512 gibt es bei 2x9800GX2.

Godmode
2008-04-23, 13:50:25
Wenn der GT200 aus 10x24 SPs besteht, wie kommt man auf zB 512 oder 256?
512 gibt es bei 2x9800GX2.

Gute Frage? Wo steht den eigentlich, dass der Cluster aus GT200 besteht?

AnarchX
2008-04-23, 13:54:11
In der ersten Meldung gab es ein "wahrscheinlich GT200".

Aber wenn es kein GT200 ist und sich um G80/G92-basierende Lösungen handelt, dann fragt sich wo diese 7.8GFLOPs pro SP herkommen.

deekey777
2008-04-23, 13:55:11
Gute Frage? Wo steht den eigentlich, dass der Cluster aus GT200 besteht?
Genau:
This will be in addition to a new generation of Tesla, with a very high probability of the GT200 chip controllers, and even several for each module (we imagine two, as in the current solutions Tesla NVIDIA).

Hvoralek
2008-04-23, 14:13:37
Ich dachte eigentlich an 8x"Q"S (2x2SS + 2xMS), aber die horizontale Glättung ist tatsächlich wichtiger (Augenanordnung).Seit wann und wo gibt es denn so einen Modus? Der könnte für etwas ältere Schinken wirklich interessant sein.

Bei niedrigen Auflösungen schafft es der G80 Crysis mit 2xMSAA einigermaßen spielbar darzustellen. Dadurch flimmert es allerdings kaum weniger. Solange beim GT200 die komplette Karte durchgehend 2,5x schneller ist könnte das mit Supersampling durchaus was werden.Wenn ein G80 gerade so 2x MSAA schafft, bräuchte man für 4xSS mit 2xMS grob die vierfache Leistung. Über einfaches 2x2xSSAA könnte man mal 2,5- facher wohl nachdenken. *SGSSAAwill* * grummel*

MEDIC-on-DUTY
2008-04-23, 14:17:15
Also für mich riecht das nach einem Fake - zumindest das mit dem GT200. Denn in der Bull Pressemitteilung ist nichts davon zu sehen, oder ich bin blind. Dazu kommt, dass in meheren Foren mal der GT 200 als sicher, dann wieder als möglicherweise angepriesen wird. Alles sehr verdächtig, oder besser guter Glaube schafft Tatsachen :wink:

dargo
2008-04-23, 14:20:46
Fürs mies programmierte Crysis bräuchte die Karte eher die 4fache Leistung.
Natürlich, für das (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6445232&postcount=1067), das (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6445437&postcount=1069), dieses (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6443882&postcount=1056), das (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6443889&postcount=1058) oder jenes (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6451304&postcount=1086) und sowas (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6451692&postcount=1089) braucht man überhaupt keine Rechenleistung. Das sieht auch sooo mies aus. Halt 08/15 wie jedes andere aktuelle Game. :rolleyes:
Man, man, man. Wann begreifen es noch die letzten, dass das Game bzw. die Engine anderen Games meilenweit vorraus ist. Ich wette sogar mindestens 2 Jahre.

PS: Sorry für OT.

Seit wann und wo gibt es denn so einen Modus? Der könnte für etwas ältere Schinken wirklich interessant sein.

Du hast die aktuelle Beta vom nHancer verpasst. :wink:

Fetza
2008-04-23, 14:54:06
Seit wann und wo gibt es denn so einen Modus? Der könnte für etwas ältere Schinken wirklich interessant sein.

Wenn ein G80 gerade so 2x MSAA schafft, bräuchte man für 4xSS mit 2xMS grob die vierfache Leistung. Über einfaches 2x2xSSAA könnte man mal 2,5- facher wohl nachdenken. *SGSSAAwill* * grummel*

Naja, ssaa halte ich für überzogen. Sind wir nicht erstmal froh, wenn wir mit 4xaa plus transparenz-aa wirklich flüssig zocken können? Ich meine da wir aktuell dafür eine gtx-sli kombo brauchen, scheint mir das eher realistisch.

Also ich wäre damit zumindest schon sehr zufrieden dann, denn mit meiner übertakteten gts kann ich crysis knicken, auch unter 2xaa - denn wirklich flüssig ist was anderes.

Hvoralek
2008-04-23, 15:20:38
Naja, ssaa halte ich für überzogen. Sind wir nicht erstmal froh, wenn wir mit 4xaa plus transparenz-aa wirklich flüssig zocken können?Damit tust Du nichts gegen Shader- Aliasing. Das scheint mir allerdings in Crysis auch nicht das große Problem zu sein (Wobei TSAA bei der Masse an AT- Texturen oft auch nicht weit von FSSSAA entfernt sein dürfte). Anders sieht es z.B. in UE3- Spielen aus. Da dürfte dieser (2x2)*2- Modus mit GT200 aber auch gut nutzbar sein.

GeneralHanno
2008-04-23, 18:03:31
computerbase berechnet 1,1 GFLOP pro GT200 ...

AnarchX
2008-04-23, 18:08:51
Weil der gute Theo GPU-FLOPs mit CPU-FLOPs verwechselt hat und CB auf dieser Basis rechnet und das Ergebnis in der falschen Einheit angegeben. X-D

Das ist die beste Quelle:
http://www.wcm.bull.com/internet/pr/rend.jsp?DocId=350329&lang=en
... immerhin wollen sie den Super-Computer bauen. ;)

Nakai
2008-04-23, 19:57:39
Naja es handelt sich um 48 solcher GPU-Nodes.
In jedem Node werden wohl 4 solcher GT200 drin werkeln.
1 TFLOPs pro GT200, macht dann 196 GFLOPs.

Ich denke man hat nur die gesamte Leistung miteinberechnet, also MAD+MUL.

240*3*1,5 = 1080 GFLOPs

Falls nicht MUL dazu:

240*2*2,25 = 1080 GFLOPs

Mit MUL dann etwa 1620 GFLOPs.

Milchmädchenrechnung ahoi...


mfg Nakai

Hvoralek
2008-04-23, 20:26:04
Es gibt zwei Fehler: Erst einmal erzählt Theo etwas von 103 TFLOPS GPU und 192 TFLOPS CPU (Es ist aber umgekehrt) und geht aus irgendeinem Grund von 96 GPUs aus (statt den offiziellen 48 "512- Kernern"). Mit diesen verkehrten Daten berechnet er dann knapp 1,1 TFLOPS pro GPU. Entweder hat TGDaily das mittlerweile korrigiert und dort standen früher mal GFLOPS oder CB hat das auch noch falsch abgeschrieben.

Die Aussagekraft des ganzen ist sowieso gering, solange nicht klar ist, durch was für eine GPU- Konfiguration diese 192 TFLOPS genau zustande kommen. "512- Kerner" klingt eigentlich nach 4*G92. Wenn das GT200 sind, haben sie sich wohl vertan und meinen entweder "480- Kerner" (2*GT200) oder gehen davon aus, dass auch GT200 über 128 "Kerne" verfügen wird (Dann bestünde eine "GPU" aus vier davon). Je nachdem kommt man auf 1 TFLOPS oder 2 TFLOPS pro GT200.

Godmode
2008-04-23, 23:26:09
1 Teraflop/s wäre IMO wirklich nicht der Wahnsinn, wenn man bedenkt, dass man mit einer 8800 GTX/S schon 700 - 800 Gigaflops erreichen kann.

Hvoralek
2008-04-23, 23:48:41
1 Teraflop/s wäre IMO wirklich nicht der Wahnsinn, wenn man bedenkt, dass man mit einer 8800 GTX/S schon 700 - 800 Gigaflops erreichen kann.Wenn man sie übertaktet (die GTX sogar kräftig). Was sollen ständig solche Gagavergleiche (Nicht speziell auf Dich bezogen)?

Gast
2008-04-23, 23:57:09
Allerdings.
Faktisch ist das mehr als eine Verdoppelung des 8800GTX Niveau.

Coda
2008-04-24, 00:32:48
Kommt drauf an ob man das Mul mitrechnet und wie es mit der Effizienz aussieht. Flop-Werte sind nicht aussagekräftig.

Godmode
2008-04-24, 10:11:26
Wenn man sie übertaktet (die GTX sogar kräftig). Was sollen ständig solche Gagavergleiche (Nicht speziell auf Dich bezogen)?

Im meinte natürlich nur die G92 GTS und GTX. Aber es stimmt schon das solche vergleiche nicht das tollste sind. Ich weis jetzt wie hoch die stärkste kaufbare OC 9800 GTX taktet, aber recht weit dürfte sie von den 700 GFlops nicht weg sein. Und ich habe natürlich das MUL dazu addiert.

AnarchX
2008-04-24, 17:22:28
Es scheint wohl das Gerücht umzugehen, dass der GT200 im 3DMark Vantage 3-mal so schnell ist wie eine 8800 GTX. :D

AnarchX
2008-04-24, 18:32:45
GeForce 9900 GTX & GTS Slated For July Launch (http://www.vr-zone.com/articles/GeForce_9900_GTX_%26_GTS_Slated_For_July_Launch/5718.html)
Our sources are suggesting a 512-bit memory interface with GDDR3 memories for GeForce 9900 GTX using P651 PCB and a 448-bit memory interface for the GeForce 9900 GTS.

Hoffentlich tut sich bis zum Juli aber auch noch etwas im Bezug auf die Endkundennamen.:|

Sorkalm
2008-04-24, 18:37:12
Das passt aber zur Q3-Aufstellung, die ein VR-Zone Admin gestern postete. Da waren für das dritte Quartal GT200, G92b, G94b und G96b genannt...

Gast
2008-04-24, 18:52:04
Klingt ja doch sehr interessant... Aber warum pushen die das jetzt unter Geforce 9900 ??

Hast du da mal einen Link zu Sorkalm ?

Fetza
2008-04-24, 20:13:21
Es scheint wohl das Gerücht umzugehen, dass der GT200 im 3DMark Vantage 3-mal so schnell ist wie eine 8800 GTX. :D

Wayne interessierts? Echte game-benches wären aussagekräftig bzw interessant, oder zockt wer 3dmark? ;)

Gast
2008-04-24, 20:48:32
Den neuen Vantage sollte man nicht unterschätzen, zum Release waren 3DMarks stets sehr fordernd was aktuelle Grafikkarten angeht. 3fache Leistung kann jedoch immer noch unter 30FPS bedeuten ^^.

Raff
2008-04-24, 20:51:32
Es scheint wohl das Gerücht umzugehen, dass der GT200 im 3DMark Vantage 3-mal so schnell ist wie eine 8800 GTX. :D

Und in wievielen D3D10.1-only-Tests kann der uralte G80 nicht punkten? ;)

MfG,
Raff

Adam D.
2008-04-24, 20:58:32
GeForce 9900 GTX & GTS Slated For July Launch (http://www.vr-zone.com/articles/GeForce_9900_GTX_%26_GTS_Slated_For_July_Launch/5718.html)


Hoffentlich tut sich bis zum Juli aber auch noch etwas im Bezug auf die Endkundennamen.:|
Wenn man mal den Unterschied zwischen der 8-Reihe und der 9-Reihe sieht (bezogen auf die Performance), dann wäre es gerade zu lächerlich, eine GT200-basierte Grafikkarte ebenfalls in die 9er-Reihe einzureihen.

MikBach
2008-04-24, 21:02:13
Und in wievielen D3D10.1-only-Tests kann der uralte G80 nicht punkten? ;)

MfG,
Raff
War auch mein erster Gedanke. :D

Sorkalm
2008-04-24, 21:03:35
Hast du da mal einen Link zu Sorkalm ?

Klar:
http://forums.vr-zone.com/showpost.php?p=5201619&postcount=28

Gast
2008-04-24, 21:04:40
Und in wievielen D3D10.1-only-Tests kann der uralte G80 nicht punkten? ;)

MfG,
Raff

In keinem.

Raff
2008-04-24, 21:05:57
In keinem.

Hast du denn auf die schnelle auch eine Kwelle für diese kühne Behauptung?

MfG,
Raff

Sorkalm
2008-04-24, 21:12:50
Ihr habt doch sicher nen NDA unterschrieben, Raff. Aber verspielen kannst du dich gut, falls du die Informationen direkt von Futuremark schon hast. ;)

Henroldus
2008-04-24, 21:42:17
Wenn man mal den Unterschied zwischen der 8-Reihe und der 9-Reihe sieht (bezogen auf die Performance), dann wäre es gerade zu lächerlich, eine GT200-basierte Grafikkarte ebenfalls in die 9er-Reihe einzureihen.
durchaus eine bemerkenswerte Politik der Namensvergabe.
von der 8800GTS 512MB zur 9800GTX war der sprung verdammt klein bei der Suggestion es handele sich hier um eine komplett neue(9er) Reihe.

Nun erwarten wir eine massive Leistungssteigerung und es ändert sich nur die "Nachkommastelle" :|
klar ist, das nvidia weg von der teueren 90nm Fertigung hin zu 65 bzw 55nm will.

Gast
2008-04-24, 22:14:37
Hast du denn auf die schnelle auch eine Kwelle für diese kühne Behauptung?

MfG,
Raff


Minimum requirement:

Intel Pentium D 3.2GHz

D3D10/SM4.0 GFX card, 256MB graphic memory

1GB System memory

2GB HDD

Win Vista

Recommended:

Intel Core 2 Duo E6600 or better

D3D10/SM4.0 GFX card with 512MB or more.

2GB memory

2GB HDD

WinVista

http://en.expreview.com/2008/04/24/3dmark-vantage-launch-time-set-on-april-28/

w0mbat
2008-04-24, 22:20:48
Und nun?

deekey777
2008-04-24, 22:24:28
Hast du denn auf die schnelle auch eine Kwelle für diese kühne Behauptung?

MfG,
Raff
Das wäre jetzt aber fies, wenn ähnlich wie bei 3DMark 2006 mit SM2- und SM3-Tests verfahren wird.
Ich hätte D3D10.1-Tests als Feature-Tests gesehen, aber nicht als Game-Tests, die in das Endergebnis miteinfließen. Aber andererseits: Wenn NV auch D3D10.1 mit dem GT200 unterstützen wird und AMD schon über solche Hardware verfügt, spricht nichts dagegen diese zu Unrecht im besseren Licht darstellen zu lassen.

Gast
2008-04-24, 22:25:44
Vieleicht kommt ein Patch ja später, wenn der GT200 aufschlägt :-)

ShadowXX
2008-04-24, 22:38:46
Das wäre jetzt aber fies, wenn ähnlich wie bei 3DMark 2006 mit SM2- und SM3-Tests verfahren wird.
Ich hätte D3D10.1-Tests als Feature-Tests gesehen, aber nicht als Game-Tests, die in das Endergebnis miteinfließen. Aber andererseits: Wenn NV auch D3D10.1 mit dem GT200 unterstützen wird und AMD schon über solche Hardware verfügt, spricht nichts dagegen diese zu Unrecht im besseren Licht darstellen zu lassen.
Ich glaube nicht das die 10.1-Test mit in die Wertung eingehen, das werden reine Featuretests sein (so wie damals bei PS1.3 / PS1.4).

Wenn denn überhaupt 10.1 Sachen mit drinne sind.....

Gast
2008-04-24, 22:43:05
Und nun?

Siehst du hier irgendwo ein DX10.1/SM4.1?

deekey777
2008-04-24, 22:53:28
Siehst du hier irgendwo ein DX10.1/SM4.1?
Für 3D2006 reicht eine Grafikkarte, die SM2 beherrscht. Darauf bezeiht sich sein "Und nun?".

Gast
2008-04-24, 22:58:58
Für 3D2006 reicht eine Grafikkarte, die SM2 beherrscht. Darauf bezeiht sich sein "Und nun?".

Bitte richtig lesen: Weder bei der Grundvorraussetzung noch bei der Empfehlung wird von einer 10.1 Karte gesprochen. Wenn also Futuremark sie nicht als Empfehlung nimmt, wieso sollte es hier einen 10.1 Test geben?

Achja, das sagt Futuremark zum 06er:


Minimum System Recommendation

* Single-core Intel® or AMD® compatible processor 2.5GHz or higher
* DirectX® 9 compatible graphics adapter with Pixel Shader 2.0 support or later, and graphics memory of 256MB*
* 1GB of system RAM or more
* 1.5GB of free hard disk space
* Windows® XP 32bit or Windows Vista™ 32bit operating system with latest Service Packs and updates installed
* DirectX® 9.0c December 2005 or later
* Visual C++ 2005 Redist
* Microsoft Excel® 2003/XP or later for some 3DMark functionality
* Microsoft Internet Explorer 6 or later for some 3DMark functionality
* Microsoft DirectX 9.0c (December 2005) System Development Kit is required to run the image quality test using the reference rasterizer.

Recommended System

* Multi-core Intel® or AMD® compatible processor 2.0GHz or higher
* DirectX® 9 compatible graphics adapter with Pixel Shader 3.0 support or later, and graphics memory of 512MB*
* 2GB of system RAM or more
* 1.5GB of free hard disk space
* Windows® XP 32bit or Windows Vista™ 32bit operating system with latest Service Packs and updates installed
* DirectX® 9.0c December 2005 or later
* Visual C++ 2005 Redist
* Microsoft Excel® 2003/XP or later for some 3DMark functionality
* Microsoft Internet Explorer 6 or later for some 3DMark functionality
* Microsoft DirectX 9.0c (December 2005) System Development Kit is required to run the image quality test using the reference rasterizer.

* To run the HDR/SM3.0 graphics tests, a DirectX 9 compatible graphics adapter with support for Pixel Shader 3.0, 16 bit floating point textures and 16 bit floating point blending is required.

http://www.futuremark.com/products/3dmark06/minreq/

Gast
2008-04-24, 23:08:04
Und das sagt Futuremark zu meiner 8800 Karte:

Display Card: Fully D3D10/SM4.0 compliant graphics card, 512MB
Comparing your display card NVIDIA GeForce 8800 GTS with the requirement NVIDIA GeForce 8800 GT
• Your display card is about as powerful in raw performance
• Your display card has all the required features

Gast
2008-04-24, 23:08:32
8800GT natürlich.

Coda
2008-04-24, 23:13:49
Und in wievielen D3D10.1-only-Tests kann der uralte G80 nicht punkten? ;)

MfG,
Raff
Ich sag mal so: Wenn ATi es schafft mit RV770 doppelt so schnell wie 8800GTX zu sein - was durchaus sein kann bei den Daten, dann wäre für einen 512-Bit-SI-Chip alles andere als mindestens 3x8800GTX-Leistung etwas komisch.

Aber ich lass mich mal überraschen.

MikBach
2008-04-25, 08:19:35
Ich sag mal so: Wenn ATi es schafft mit RV770 doppelt so schnell wie 8800GTX zu sein - was durchaus sein kann bei den Daten, dann wäre für einen 512-Bit-SI-Chip alles andere als mindestens 3x8800GTX-Leistung etwas komisch.

Aber nur in Extremfällen (hohe Auflösung und mächtig AA).

mapel110
2008-04-25, 08:41:01
Da der G80/G92 große Probleme bei 8xAA bekommt, sollte das machbar sein für den Nachfolger von RV670.
Aber auch für den GT200.

Gast
2008-04-25, 09:24:39
Ich sag mal so: Wenn ATi es schafft mit RV770 doppelt so schnell wie 8800GTX zu sein -

Der RV770 wird etwa so schnell wie eine 8800GTX.

Gast
2008-04-25, 09:40:32
"The cluster's performance confirms that GT200 will be rated at 1TFlop."

Quelle: http://www.beyond3d.com/content/news/632

Somit ist der GT200 etwa gleich schnell wie der RV770 mit angeblich 1008 Gflops.

GeneralHanno
2008-04-25, 09:50:53
die theoretische ALU-leistung sagt doch rein gar nicht aus :rolleyes:

MikBach
2008-04-25, 09:56:47
Der RV770 wird etwa so schnell wie eine 8800GTX.
Das glaube ich kaum, der RV770 wird aller Wahrscheinlichkeit nach schon deutlich schneller sein.

BTW du sagst es mit so einer Überzeugung, als ob du Quellen oder Insiderwissen hättest...:|

AnarchX
2008-04-25, 10:26:26
"The cluster's performance confirms that GT200 will be rated at 1TFlop."

Quelle: http://www.beyond3d.com/content/news/632

Somit ist der GT200 etwa gleich schnell wie der RV770 mit angeblich 1008 Gflops.

Nicht wenn für den Cluster hier nur die reine MADD-Leistung gezählt wurde und die 1 TFLOPs muss der RV770 auch erstmal erreichen. ;)

DrumDub
2008-04-25, 10:36:56
Das glaube ich kaum, der RV770 wird aller Wahrscheinlichkeit nach schon deutlich schneller sein.
wenn die rops limitieren sicherlich nicht.

AnarchX
2008-04-25, 10:40:20
wenn die rops limitieren sicherlich nicht.
... oder auch die TMUs, wo G80/G92 schliesslich immernoch doppelt soviel haben werden. Und je nach Game kann ATi ihre Filteroptimierungen nicht so agressiv fahren.

MEDIC-on-DUTY
2008-04-25, 10:45:52
Der RV770 wird etwa so schnell wie eine 8800GTX.

Das wäre aber mehr als bescheiden, wenn die bestehende X2 schon mehr Power an den Tag legt, auf Basis der alten Chip-Generation.

Stellt sich nur die Frage, ob ATI mit dem RV770 die Lücke unterhalb der X2 oder oberhalb zum GT200 schließen möchte?
Oder aber dann wieder eine Ablöse der X2 durch zwei RV770 und weiterhin keine neue HighEnd-Karte ala GT200?

Gast
2008-04-25, 10:46:44
Das glaube ich kaum, der RV770 wird aller Wahrscheinlichkeit nach schon deutlich schneller sein.

BTW du sagst es mit so einer Überzeugung, als ob du Quellen oder Insiderwissen hättest...:|
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6721&Itemid=1
http://img355.imageshack.us/img355/6827/20080415459dd0965cb9948ar2.jpg

50% schneller als RV670 ist unter G80 Niveau.
Die 800 Millionen Transistoren lassen auch kein Monster vermuten. R600 ist mit 700 Millionen Transistoren auch deutlich lahmer als G80.

Gast
2008-04-25, 10:48:26
Und je nach Game kann ATi ihre Filteroptimierungen nicht so agressiv fahren.
Also ein Ende der Filtertrickserei ist bei AMD nicht in Sicht?
Schade das so an den TMUs gespart wird.

deekey777
2008-04-25, 11:01:02
wenn die rops limitieren sicherlich nicht.
Ich glaube kaum, dass ROPs limitieren können.
... oder auch die TMUs, wo G80/G92 schliesslich immernoch doppelt soviel haben werden. Und je nach Game kann ATi ihre Filteroptimierungen nicht so agressiv fahren.
Wenn der RV770 mit 32 TMUs kommt (jetzt mal unabhängig davon, wie diese angeordnet sind), würde ich man blind sagen, dass das mehr als genug ist.
Je höher die TEX-Leistung bei der R600-Architektur ist, um so schneller bekommen die entsprechenden Shader-Cluster ihre Daten und die anderen Shader-Cluster werden weniger warten müssen. Es gibt so eine Meinung, dass es beim R600/RV660 zu einem gewissen Stalling kommt, denn so rechnerisch aufwendig sind die Shader heutiger Spiele nicht.

Gast
2008-04-25, 11:33:18
Wenn der RV770 mit 32 TMUs kommt
Ist das ein feuchter Dreck im Vergleich zu den 64 des G92, von GT200 her erst recht.

AMD könnte am Filter noch mehr optimieren, dürfte ja nach deiner Logik viel bringen. Freuen wir uns auf einen noch schlimmeren Filter.

deekey777
2008-04-25, 11:36:00
Ist das ein feuchter Dreck im Vergleich zu den 64 des G92, von GT200 her erst recht.

AMD könnte am Filter noch mehr optimieren, dürfte ja nach deiner Logik viel bringen. Freuen wir uns auf einen noch schlimmeren Filter.
:uclap:

Wo habe ich etwas von "Filteroptimierungen" geschrieben? Was für "meine Logik"?

mapel110
2008-04-25, 11:38:20
Ist das ein feuchter Dreck im Vergleich zu den 64 des G92

Es ist doppelt so viel wie ATI bisher hat. Also sollte das garniert mit ein wenig Taktsteigerung mehr als genug sein. Zumal nvidia sicher nicht ihre TMU-Anzahl verdoppeln wird.

deekey777
2008-04-25, 11:43:30
Es ist doppelt so viel wie ATI bisher hat. Also sollte das garniert mit ein wenig Taktsteigerung mehr als genug sein. Zumal nvidia sicher nicht ihre TMU-Anzahl verdoppeln wird.
Es werden wohl 80 TMUs sein (10 mal 8 TMUs).

Gast
2008-04-25, 13:01:10
Die bisher bekannt gewordenen Daten des RV770 sind alle falsch und wurden von ATI selbst in Umlauf gebracht. Der RV770 hat eine komplett neue Architektur (sagt schon die Bezeichnung), die von einem anderen Designteam als der R600 entwickelt wurde.

Gast
2008-04-25, 13:04:05
Die bisher bekannt gewordenen Daten des RV770 sind alle falsch und wurden von ATI selbst in Umlauf gebracht. Der RV770 hat eine komplett neue Architektur (sagt schon die Bezeichnung), die von einem anderen Designteam als der R600 entwickelt wurde.
Ah ja und dann noch Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA. :ugly:
Wovon träumst du nachts?

The_Silent_One
2008-04-25, 13:16:40
wär ja schon klasse, wenn ati mit der R(V)7xx generation das selbe macht, wie nv mit dem g80, was informationen im vorfeld angeht und dann nen totalen performance-kracher auf den markt bringt. aber ich halte das für sehr unwahrscheinlich, da mit ein paar fixes (TMU's) schon was schönes aus der R(V)6xx generation entstehen könnte. vor allem in bezug auf den stromverbrauch im idle.

Cpl. Dwayne Hicks
2008-04-25, 13:27:43
Ich denke auch mal dass 32 TMUs mehr als genug sind für ATi.. ist ja eigentlich schon ein kleines Wunder dass z.B. der R(V)6xx mit seiner popeligen 13000 Mtexel überhaupt mithalten kann.

reunion
2008-04-25, 13:33:57
http://resources.vr-zone.com//newspics/Apr08/25/nvgpulineup.gif

http://www.vr-zone.com/articles/Nvidia_Upcoming_GPUs_Line-Up_For_Q2Q3/5738.html

Also wenn man den Chip tatsächlich nur GF9900 nennt, spricht das wohl nicht unbedingt für D3D10.1-Support.

James Ryan
2008-04-25, 13:35:20
http://resources.vr-zone.com//newspics/Apr08/25/nvgpulineup.gif

http://www.vr-zone.com/articles/Nvidia_Upcoming_GPUs_Line-Up_For_Q2Q3/5738.html

Also wenn man den Chip tatsächlich nur GF9900 nennt, spricht das wohl nicht unbedingt für D3D10.1-Support.

Ergibt gar keinen Sinn, was meinst du wofür das "T" in "GT200" steht? ;)

MfG :cool:

Gast
2008-04-25, 13:38:05
Ich denke auch mal dass 32 TMUs mehr als genug sind für ATi.. ist ja eigentlich schon ein kleines Wunder dass z.B. der R(V)6xx mit seiner popeligen 13000 Mtexel überhaupt mithalten kann.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=406464&highlight=16x+af
Filteroptimierungen machen es möglich, außerdem verliert AMD durchaus mehr FPS durch AF.

san.salvador
2008-04-25, 13:38:57
Ergibt gar keinen Sinn, was meinst du wofür das "T" in "GT200" steht? ;)

MfG :cool:
Ich weiß es nicht, sags uns doch bitte.

Gast
2008-04-25, 13:41:46
T = Ten, Geforce Ten würde sich blöde anhören (D3D10.1 inbegriffen). Bleibt abzuwarten wofür die Codenamen G2x0 und G1x0 stehen. Eventuell ist GT200 wie G80 ein Solo Chip, der geschrumpft einen anderen Codenamen bekommt. Die Mainstreamvariante der Architektur wird ja im Frühjahr 09 erwartet und sicher in 55nm kommen.

Gast
2008-04-25, 13:42:52
Ergibt gar keinen Sinn, was meinst du wofür das "T" in "GT200" steht? ;)
Überleg mal was GT im Gesamten bedeuted.

GT ist nicht das schnellste, also ist GT200 noch lange nicht der große Hammer, sondern nur der kleine um AMD platt zu drücken. ;D

James Ryan
2008-04-25, 13:45:28
Überleg mal was GT im Gesamten bedeuted.

GT ist nicht das schnellste, also ist GT200 noch lange nicht der große Hammer, sondern nur der kleine um AMD platt zu drücken. ;D

Codenamen != Verkaufsnamen! :rolleyes:

MfG :cool:

Gast
2008-04-25, 13:47:06
Codenamen != Verkaufsnamen! :rolleyes:

Ja fühl dich toll dabei, weiß ich doch.

Cpl. Dwayne Hicks
2008-04-25, 14:29:01
GT ist nicht das schnellste, also ist GT200 noch lange nicht der große Hammer, sondern nur der kleine um AMD platt zu drücken. ;D

Nun wollen wir mal nicht so zynisch sein! :tongue:

Sorkalm
2008-04-25, 14:29:27
Vielleicht hält Nvidia DX10.1 auch einfach für nicht so wichtig.

Geforce 9 als Verkaufsname wo sich sonst G9x-GPUs befinden (also rein DX10-Grafikkarten) spricht jedenfalls wirklich nicht für den Support von DirectX 10.1.

Gast
2008-04-25, 14:32:42
Vielleicht hält Nvidia DX10.1 auch einfach für nicht so wichtig.
Ist es auch nicht.

Nur fürs Marketing oder für den Kundenfang.

Sorkalm
2008-04-25, 14:41:00
Naja, nen gewisser Fortschritt ist DX10.1 schon. Der wird zwar nicht ankommen, wenn sich dem Nvidia dem grundsätzlich verweigert, aber eine Entschuldigung ist das nicht.

Paul Brain
2008-04-25, 14:41:11
Geforce 9 als Verkaufsname wo sich sonst G9x-GPUs befinden (also rein DX10-Grafikkarten) spricht jedenfalls wirklich nicht für den Support von DirectX 10.1.
Dass Verkaufsnamen absolut keine Bedeutung (mehr) haben, sieht man doch bereits an der aktuellen GeForce 9... :rolleyes:

Adam D.
2008-04-25, 14:41:48
Ist es auch nicht.

Nur fürs Marketing oder für den Kundenfang.
AC hat ja wohl mehr als deutlich gezeigt, dass deine Aussage einfach falsch ist.

Sorkalm
2008-04-25, 14:42:33
Dass Verkaufsnamen absolut keine Bedeutung (mehr) haben, sieht man doch bereits an der aktuellen GeForce 9... :rolleyes:

Das man nichts neues trotzdem unter neuen Namen verkauft ist ja aus Marketing-Sicht verständlich. Was Neues aber unter alten Namen zu verkaufen ist nicht so sinnvoll (aber gut, es gab auch die 8800 GT/GTS 512)...

Gast
2008-04-25, 14:46:34
AC hat ja wohl mehr als deutlich gezeigt, dass deine Aussage einfach falsch ist.
Oh ein Beispiel.
Da werden Fehler einfach beseitigt, in dem man eine D3D10.1 Api einbaut, wird dafür sogar in den Himmel gelobt.

Du hast damals NV nicht für SM3.0 gelobt, obwohl Far Cry damit besser lief.

Fakt ist: Es wird keine D3D10.1 only Spiele geben.

w0mbat
2008-04-25, 14:50:40
Ist es auch nicht.

Nur fürs Marketing oder für den Kundenfang.

Nö, besseres AA bei guter Performance ist gar nicht wichtig :|

Sorkalm
2008-04-25, 14:58:54
Da werden Fehler einfach beseitigt, in dem man eine D3D10.1 Api einbaut, wird dafür sogar in den Himmel gelobt.

DirectX 10.1 bietet eben diese Funktionen.

Fakt ist: Es wird keine D3D10.1 only Spiele geben.

Du scheinst ja in die Zukunft blicken zu können. :|

GeneralHanno
2008-04-25, 15:01:50
die wahrscheinlichkeit für ein dx10.1-only-spiel ist in der tat relativ gering!

Sorkalm
2008-04-25, 15:07:25
die wahrscheinlichkeit für ein dx10.1-only-spiel ist in der tat relativ gering!

Da hast du ja recjt, aber dieser nette Gast weiß immer alles 100%ig. Das nervt (mich).

anderer Gast
2008-04-25, 15:07:51
Warum füttert ihr den Troll?!

Gast
2008-04-25, 15:12:33
Nö, besseres AA bei guter Performance ist gar nicht wichtig :|
Seit wann verbessert D3D10.1 das AA?

Ist dich nur beim verbugten AC so.

Coda
2008-04-25, 15:16:05
Der RV770 wird etwa so schnell wie eine 8800GTX.
Bei 1,5x so viel ALUs wie RV660 die zudem noch mit höherem Takt laufen und doppelt so vielen TMUs wenn RV670 sagen wir grob geschätzt ungefähr so 75% der Leistung bringt? Das Ding sollte mindestens 50% schneller sein, wenn nicht mehr.

wenn die rops limitieren sicherlich nicht.
Das passiert praktisch nie außer du machst Z-First-Passes und jede Menge Stencil-Shadows. Das soll außerdem auch aufgebohrt worden sein.

Sorkalm
2008-04-25, 15:21:00
Seit wann verbessert D3D10.1 das AA?

Seit dem es DirectX 10.1 gibt. Siehe Whitepaper, Seite 3.

Gast
2008-04-25, 15:33:40
Nö, besseres AA bei guter Performance ist gar nicht wichtig :|

Das gibt es auch mit D3D10. :|

LovesuckZ
2008-04-25, 15:43:24
Seit dem es DirectX 10.1 gibt. Siehe Whitepaper, Seite 3.

Es verbessert nicht das AA, es ermöglicht es in mehr Fällen.
Wenn die Engine AA vernünftig unter 10.0 ermöglicht, wird es auch keine Besserung unter 10.1 geben.

Sorkalm
2008-04-25, 15:56:55
Es verbessert nicht das AA, es ermöglicht es in mehr Fällen.

Das führt doch auch zu einer klaren Verbesserung der Bildqualität.

LovesuckZ
2008-04-25, 16:02:30
Das führt doch auch zu einer klaren Verbesserung der Bildqualität.

Ja. Aber es kein besseres AA - sondern es ist erstmal AA.

Gast
2008-04-25, 16:21:45
Ja. Aber es kein besseres AA - sondern es ist erstmal AA.

Das ist doch die Hauptsache, ich kauf doch keine teure Graka 8800/9800er und zock ohne AA oder nur mit AA was nur teilweise funktioniert :rolleyes:

LovesuckZ
2008-04-25, 16:28:22
Das ist doch die Hauptsache, ich kauf doch keine teure Graka 8800/9800er und zock ohne AA oder nur mit AA was nur teilweise funktioniert :rolleyes:

Und wenn nVidia wie in anderen U3 Games einen Hack anbietet? :rolleyes:

Gast
2008-04-25, 16:44:13
Der Hack geht bei AC nicht, bei ATI geht AA auch bei UE3 und sogar Virtua Tennis und PES usw.

san.salvador
2008-04-25, 16:46:22
Der Hack geht bei AC nicht, bei ATI geht AA auch bei UE3 und sogar Virtua Tennis und PES usw.
Das AA meiner 8800 GTS in Virtua Tennis und PES sieht auch sehr gut aus... :rolleyes:

Hvoralek
2008-04-25, 17:37:15
Ich denke auch, die AA- Kompatibilität von G8x ist insgesamt noch etwas besser. Oder hat AMD inzwischen Hacks für Stalker und Gothic 3 hinbekommen?

deekey777
2008-04-25, 17:50:15
Ich denke auch, die AA- Kompatibilität von G8x ist insgesamt noch etwas besser. Oder hat AMD inzwischen Hacks für Stalker und Gothic 3 hinbekommen?
Wie kann sie besser sein, wenn adaptives AA nicht fehlerfrei funktioniert? Zwar hat NV einen gewissen Vorsprung, was die Anzahl der unterstützten Spiele angeht, aber nicht bei der bestmöglichen Bildqualität.

Hvoralek
2008-04-25, 18:00:13
Wie kann sie besser sein, wenn adaptives AA nicht fehlerfrei funktioniert? Zwar hat NV einen gewissen Vorsprung, was die Anzahl der unterstützten Spiele angeht, aber nicht bei der bestmöglichen Bildqualität.Ich habe bewusst von der Kompatibilität gesprochen :wink:

Grestorn
2008-04-25, 18:00:31
Was genau soll da nicht fehlerfrei funktionieren?

deekey777
2008-04-25, 18:07:13
Was genau soll da nicht fehlerfrei funktionieren?
http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml
GoW D3D9, AA 4x, TAA SS oder UT3 D3D9, AA 8x, TAA SS

Gast
2008-04-25, 18:08:18
Nö, besseres AA bei guter Performance ist gar nicht wichtig :|

Entweder geht AA oder es geht nicht, was dazwischen gibts denn noch?
Das besser AA ist 4xMSAA gegenüber 2xMSAA oder ?^^

MikBach
2008-04-25, 18:11:22
Entweder geht AA oder es geht nicht, was dazwischen gibts denn noch?
Das besser AA ist 4xMSAA gegenüber 2xMSAA oder ?^^
Falsch, einige Bildbereiche werden mit 10.0 bei AC nicht geglättet, die mit 10.1 geglättet werden.

w0mbat
2008-04-25, 18:11:55
Entweder geht AA oder es geht nicht, was dazwischen gibts denn noch?
Das besser AA ist 4xMSAA gegenüber 2xMSAA oder ?^^

Natürlich gibts da was dazwischen. Es gibt Spiele, zB Assassin´s Creed, wo man ohne DX10.1 das AA zwar anstellen kann, es aber nicht überall angewendet wird.

Gast
2008-04-25, 18:31:06
Persönlich geht mir das aber ganz gehörig gegen den Zeiger. Dauernd kommt was neues dazu was eventuell funktioniert oder nicht. Ists denn so schwer ein Verfahren zu entwicklen das immer funktioniert?
Oder ist man gezwungen einfach SSAA drüber zu bügeln damit ruhe ist, falls man ein gewisses Teklvl nicht erreicht? Naja bei der bisherigen Leistung der Gakas ist 2xSSAA ja quasi umsonst bis zu 1900er Auflösung.

Zum GT200 zurück, ist er wirklich "neu" oder ein breiter G92, der bald abgelöst wird? Vor 3 Monaten hieß es ja noch, im Oktober/November kommt erst die neue nV Generation. Und nun soll es schon im July soweit seit? Seehr seltsam...

Gast
2008-04-25, 18:32:21
Und das AA in Assasines Creed unter D3D10.1 soll nicht richtig funktionieren bzw. is die Performance unterirdisch, eventuell wird AA per "Software" emuliert. Deswegen wirds ja rausgepatcht ^^

dargo
2008-04-25, 18:32:58
Naja bei der bisherigen Leistung der Gakas ist 2xSSAA ja quasi umsonst bis zu 1900er Auflösung.

Wo hast du diesen Unsinn her?

MikBach
2008-04-25, 19:30:36
Und das AA in Assasines Creed unter D3D10.1 soll nicht richtig funktionieren bzw. is die Performance unterirdisch
Was?
Eben mit D3D10.1 ist die Performance besser als mit D3D10.0 und das AA funktioniert auch besser als mit D3D10.0.

, eventuell wird AA per "Software" emuliert. Deswegen wirds ja rausgepatcht ^^
LOL

Hvoralek
2008-04-25, 19:39:01
Wo hast du diesen Unsinn her?Wahrscheinlich von einem P- II- Celeron oder so :biggrin:

Gast
2008-04-25, 21:03:12
Was?
Eben mit D3D10.1 ist die Performance besser als mit D3D10.0 und das AA funktioniert auch besser als mit D3D10.0.


Aber die Performance ist und bleibt zu lahm. Egal ob .1 oder .0

MikBach
2008-04-25, 21:46:30
Aber die Performance ist und bleibt zu lahm. Egal ob .1 oder .0
Wenn man keine Ahnung hat...
Benchmarks gibts hier:
http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG
Mit 10.1 30% schneller als mit 10.1.
Dabei noch die bessere AA-Qualität.
Na wenn das mal nichts ist...

dargo
2008-04-25, 21:51:34
Wenn man keine Ahnung hat...
Benchmarks gibts hier:
http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG
Mit 10.1 30% schneller als mit 10.1.
Dabei noch die bessere AA-Qualität.
Na wenn das mal nichts ist...
Ist es nicht so, dass diese Benchmarks eh nichts sagend sind da an Rechenaufwand gespart wurde?

MikBach
2008-04-25, 21:58:59
Ist es nicht so, dass diese Benchmarks eh nichts sagend sind da an Rechenaufwand gespart wurde?
Eigentlich schon, da die 8800GT nicht alle Kanten glättet, müsste also lagsamer sein.

Sorkalm
2008-04-25, 21:59:16
Ist es nicht so, dass diese Benchmarks eh nichts sagend sind da an Rechenaufwand gespart wurde?

Zumindest die BQ hatte sich gesteigert durch die neuen AA-Verfahren, während keiner der Tester eine Verschlechterung bemerkt hatte...

Gast
2008-04-25, 22:04:44
Wenn man keine Ahnung hat...
Benchmarks gibts hier:
http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG
Mit 10.1 30% schneller als mit 10.1.
Dabei noch die bessere AA-Qualität.
Na wenn das mal nichts ist...

Ich spiele in HD Auflösungen...nachdenken bevor du sowas postest.

MikBach
2008-04-25, 22:51:40
Ich spiele in HD Auflösungen...nachdenken bevor du sowas postest.
Bin ich Hellseher oder was? :lol:
Wenn du member wärest und eine Sig mit deinem System hättest, dan wäre die Aussage berechtigt.
Sonst ist es nur ein billiger Flameversuch ohne Chancen auf Erfolg.
Ausserdem bist du nicht der Massstab.
1680x1050 dürfte zur Zeit die gebrächlichste Auflösung sein.
Deswegen repäsentativ.

Hvoralek
2008-04-25, 23:05:01
Wenn man keine Ahnung hat...
Benchmarks gibts hier:
http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG
Mit 10.1 30% schneller als mit 10.1.
Dabei noch die bessere AA-Qualität.
Na wenn das mal nichts ist...Du meinst mir 10.1 30% schneller als mit 10.0, oder? Der Gast hat allerdings insoweit recht, als eine 8800 GT in D3D10 immer noch um 30% schneller ist als eine 3870 in 10.1. Eigentlich ist die 3870 nicht in 10.1 besonders schnell, sondern in 10.0 besonders langsam. Dort liegt die GT um fast 75% vorne, was selbst mit 16x AF außerordentlich viel ist.

Gibt es eigentlich irgendwo Geschwindigkeitsvergleiche zwischen 9 und 10.1?

Ist es nicht so, dass diese Benchmarks eh nichts sagend sind da an Rechenaufwand gespart wurde?Wenn man Rechenaufwand einsparen kann, ohne dass sich das auf das Ergebnis auswirkt (was es hier wohl nicht tut), ist das doch nur positiv.

LovesuckZ
2008-04-25, 23:28:56
Inwieweit funktioniert denn AA un AC? Nur über das Spiel oder auch über den Treiber?

Grestorn
2008-04-25, 23:32:27
Nur über's Spiel.

MikBach
2008-04-26, 11:40:55
Du meinst mir 10.1 30% schneller als mit 10.0, oder? Der Gast hat allerdings insoweit recht, als eine 8800 GT in D3D10 immer noch um 30% schneller ist als eine 3870 in 10.1.
Die 8800GT glättet aber nicht alle Kanten, so wie die AMD es mit 10.1 macht, somit werden mehr fps ermogelt.

Gast
2008-04-26, 11:55:22
Unter D3D10 is die 8800GT aber schneller als eine 3870 ebenfalls in D3D10... dein Argument zieht also nicht wirklich.

MikBach
2008-04-26, 12:29:17
Unter D3D10 is die 8800GT aber schneller als eine 3870 ebenfalls in D3D10... dein Argument zieht also nicht wirklich.
Doch.
Würde man unter 10.0 korrektes (vollständiges) AA bieten, wäre mehr Rechenleistung nötig und so würde die 8800GT, aber auch die 3870 an fps einbüßen.
Somit bringt der 10.1 Modus logischerweise noch mehr Speed.

Hvoralek
2008-04-26, 12:50:54
Würde man unter 10.0 korrektes (vollständiges) AA bieten, wäre mehr Rechenleistung nötig und so würde die 8800GT, aber auch die 3870 an fps einbüßen.
Somit bringt der 10.1 Modus logischerweise noch mehr Speed.Bist Du sicher, dass im 3D310-0- Pfad nicht bei allen Kanten "versucht" wird, sie zu glätten? Dass das nicht funktioniert, muss nicht zwingend bedeuten, dass Aufwand eingespart wird.

Im Übrigen ist das wohl eher eine Frage der Bildqualität und nicht der Geschwindigkeit.

Die gelbe Eule
2008-04-26, 13:16:57
Also bevor mehr Speed kommt, wäre eine Beseitigung der Microruckler für SLi ein gewichtigeres Argument.

LovesuckZ
2008-04-26, 15:51:24
Nur über's Spiel.

Dann scheint es wohl eher ein Softwarefehler zu sein, dass die Leistung im 10.0 Pfad stark einbricht.
Wird unter DX9 alles geglättet?

MikBach
2008-04-26, 15:53:27
Bist Du sicher, dass im 3D310-0- Pfad nicht bei allen Kanten "versucht" wird, sie zu glätten?
Nein, bin ich nicht, ich weiss nur dass es nicht funktioniert.

Dass das nicht funktioniert, muss nicht zwingend bedeuten, dass Aufwand eingespart wird.
Da hast du recht.

Im Übrigen ist das wohl eher eine Frage der Bildqualität und nicht der Geschwindigkeit.
Jain. Wenn keine Glättung angefordert wird, dann hätte es doch was mit Performance zu tun.

w0mbat
2008-04-26, 15:54:27
Nein, weder unter DX9 noch unter DX10.0 wird alles komplett geglättet. Nur unter DX10.1, also Vista SP1 & HD3k, werden alle Kanten erfasst.

LovesuckZ
2008-04-26, 15:57:39
Nein, weder unter DX9 noch unter DX10.0 wird alles komplett geglättet. Nur unter DX10.1, also Vista SP1 & HD3k, werden alle Kanten erfasst.

Ist der Leistungseinbruch unter DX9 genauso groß wie unter D3D10?

AnarchX
2008-04-27, 13:31:13
http://img401.imageshack.us/img401/3510/2008042753a048d725f2f92xh6.jpg (http://imageshack.us)

Laut W1zzard ist ja GT200-Erkennung ab 0.1.9 vorhanden.

Und hier hätten wir auch wieder die 1 TFLOPs MADD....

Nakai
2008-04-27, 13:33:46
http://img401.imageshack.us/img401/3510/2008042753a048d725f2f92xh6.jpg (http://imageshack.us)

Laut W1zzard ist ja GT200-Erkennung ab 0.1.9 vorhanden.

Und hier hätten wir auch 1 TFLOPs MADD....

Die Diesize is ja nicht sonderlich groß.;)
Für das was gegeben wird.


mfg Nakai

dargo
2008-04-27, 13:33:54
http://img401.imageshack.us/img401/3510/2008042753a048d725f2f92xh6.jpg (http://imageshack.us)

Laut W1zzard ist ja GT200-Erkennung ab 0.1.9 vorhanden.

Und hier hätten wir auch 1 TFLOPs MADD....
Ui, 1250Mhz beim GDDR3? Da geht man aber in die Vollen. :D
Die 432mm² Die-Size kann aber nicht stimmen oder?

PS: also doch DX10.1.

PPS: sehe ich das richtig? 1,6TFlops? :eek:

Hvoralek
2008-04-27, 13:39:29
Die 432mm² Die-Size kann aber nicht stimmen oder?Widerspricht zum einen den bisherigen Angaben und wäre zudem mMn zu wenig ggü. G92.

Irgendwie finde ich die Angabe von 64 ROPs auch etwas seltsam.

/edit: 1,6 TFLOPS, wenn es weiterhin MADD+MUL sind.

/edit 2: Interessant, dass man den Shadertakt deutlich angehoben hat, auf mehr als den dreifachen Kerntakt. Zusammen mit 3*Vec8 pro Cluster ergibt das eine erhebliche Verschiebung von TEX zu ALU.

dargo
2008-04-27, 13:41:49
Irgendwie finde ich die Angabe von 64 ROPs auch etwas seltsam.

Ups, das ist mir gar nicht aufgefallen. Naja, das Tool wird wohl noch nicht ganz korrekt den GT200 erkennen. Die 160GB/s Bandbreite (falls es stimmt) finde ich aber auch nicht ohne. Ich hätte mit ~140 gerechnet.

LovesuckZ
2008-04-27, 13:42:44
Aus meiner Sicht sieht es wie ein Fake aus. Zu hoher Shadertakt - 2,2GHz ist nichtmal mit einer 9600GT erreichbar - und die 64ROPs in der Anzeige.

Nakai
2008-04-27, 13:43:50
ES?
Die Taktraten werden wohl noch gedrosselt werden.

Um die 600Mhz Coretakt und 1,8 Ghz Shadertakt.


mfg Nakai

Gast
2008-04-27, 13:44:24
Ui, 1250Mhz beim GDDR3? Da geht man aber in die Vollen. :D
Das kann nicht ganz stimmen, entweder jemand hat das Ding übertaktet oder flasch ausglesen. ;)

AnarchX
2008-04-27, 13:44:32
Die Die-Size ist in der Tat etwas seltsam, eigentlich müsste da etwas knapp unter der 600 stehen.

Aber so treffen die Daten aber nahezu alle Spekulationen, wenn auch die Taktraten etwas optimistisch wirken.
Wobei Arun@B3D schon vermutet hatte, dass es wohl 1 TFLOPs MADD sein könnten, die durch ein höheres Shader:TMU-Takt-Verhältnis erreicht werden könnten.



Irgendwie finde ich die Angabe von 64 ROPs auch etwas seltsam.

Naja, 8 ROPs pro Partition sind imo doch gar nicht so verkehrt, vorallem wenn das Teil wirklich wie hier suggeriert mit 160GB/s daherkommt und langfristig wäre es auch nötigt für einen Shrink der mit 256-Bit und GDDR5 daherkommt und dann ohne diese Erweiterung wohl zu wenig ROP-Leistung hätte.
Vielleicht ist es ja auch NVs "Fix" für das 8xMSAA-Problem.;D

w0mbat
2008-04-27, 13:46:22
Wenn das stimmt oO

4 Vitamins
2008-04-27, 13:49:13
PS: also doch DX10.1.

:

Nein.
Das ist nur ein marketingtrick um die leute von dem kauf der kommenden ati grakas abzuhalten.
Das bildchen ist klar ein fake. Man sagt später das tool hat die karte nicht richtig erkannt deswegen steht da 10.1.


gruss

dargo
2008-04-27, 13:51:25
Nein.
Das ist nur ein marketingtrick um die leute von dem kauf der kommenden ati grakas abzuhalten.
Das bildchen ist klar ein fake. Man sagt später das tool hat die karte nicht richtig erkannt deswegen steht da 10.1.

Beweise? Oder bist du nur einer dem sein Herz für ATI schlägt? :D

Gast
2008-04-27, 13:51:51
Vielleicht ist es ja auch NVs "Fix" für das 8xMSAA-Problem.;D
4 fache ROP Leistung?
Dann limitiert fast doch die Bandbreite. :D

Hvoralek
2008-04-27, 13:56:33
Naja, 8 ROPs pro Partition sind imo doch gar nicht so verkehrt, vorallem wenn das Teil wirklich wie hier suggeriert mit 160GB/s daherkommt und langfristig wäre es auch nötigt für einen Shrink der mit 256-Bit und GDDR5 daherkommt und dann ohne diese Erweiterung wohl zu wenig ROP-Leistung hätte.Das wären 512 z/Takt, mit der Taktrate über 350 GZixel/s. Entschuldige, aber auch mit 160 GiB/s ("nur" rund 60% über einer 8800 Ultra) wäre das Overkill.

Vielleicht ist es ja auch NVs "Fix" für das 8xMSAA-Problem.;DNaja, helfen würde es wahrscheinlich. Wäre allerdings eine teure "Lösung".

dargo
2008-04-27, 13:56:51
4 fache ROP Leistung?

Naja, im Vergleich zum G80 wäre es ja "nur" ein Faktor von ~2,67. Trotzdem glaube ich auch nicht an 64 ROPs.


Dann limitiert fast doch die Bandbreite. :D
Ach, irgendwas limitiert doch immer. :D

Sorkalm
2008-04-27, 13:57:25
Ich gehe schon davon aus, dass die DirectX-10.1-Angabe stimmt. Der Support für GT200 wurde schließlich in der genannten Version hinzugefügt, und so langsam könnte dieses Techlevel wirklich in alle High-End-Karten einziehen.

Gast
2008-04-27, 13:58:13
Wie wärs mit 32 ROPs, die besser zum 512bit SI passen und verdoppelter z-Takt?

Hvoralek
2008-04-27, 14:02:53
Wie wärs mit 32 ROPs, die besser zum 512bit SI passen und verdoppelter z-Takt?32 16-z-ROPs wären fast genauso Overkill. Außerdem wird die Anzahl der ROPs wohl nicht anhand der z- Füllrate ermittelt, sondern entweder anhand der Anzahl der Einheiten oder (wahrscheinlicher) der Pixelfüllrate. 32 ROPs à 2 Farbwerte pro Takt wären aber auch Unsinn.

Gast
2008-04-27, 15:40:21
http://forums.vr-zone.com/showthread.php?t=268177

Hvoralek
2008-04-27, 15:46:22
http://forums.vr-zone.com/showthread.php?t=268177Dort hat w0mbat kurze Zeit später dasselbe gepostet. Was bringt uns das jetzt?

Snoopy1978
2008-04-27, 16:02:26
Holla,wenn ich die Spezis sehe die da stehen,64 Rops sind ja eine recht hohe Menge wenn man bedenkt das wir bisher bei 24 bzw.32 Rops waren und Nivdia mal behauptet hatte 16 Stück wären genug.

GeneralHanno
2008-04-27, 16:08:53
Holla,wenn ich die Spezis sehe die da stehen,64 Rops sind ja eine recht hohe Menge wenn man bedenkt das wir bisher bei 24 bzw.32 Rops waren und Nivdia mal behauptet hatte 16 Stück wären genug.

naja es gibt 3 möglichkeiten:
1. der screen ist echt und der GT200 hat tatsächlich 64ROPs
2. der screen ist echt, aber es liegt ein auslesefehler von GPUz vor
3. es ist ein fake

Snoopy1978
2008-04-27, 16:49:27
Ich tendiere eher dazu das es ein Fake ist(also zu drittens),wie gesagt 64 ROPs sind sehr viel.

Gast
2008-04-27, 17:06:06
Mit 64 ROPs bleibt kaum noch Platz für ALUs. -> falsche Daten

LovesuckZ
2008-04-27, 17:11:47
64 ROPs bzw. 16 ROP Partitionen stünden heutzutage für 1024bit Speicherinterface.
64 ROPs könnten stimmen, wenn sich jeweils 8 ROPs in einer Partition befinden würde. Es bleibt daher offen, ob wirklich die ROPs viel Platz benötigen oder die Anbindung an den Speicher. Wäre es zweitens, könnten 64 ROPs möglich sein - wenn die Partitionen vergrößert würden.

Gast
2008-04-27, 17:18:55
Gibt es eigentlich Die Shots von G92/G80?

Gast
2008-04-27, 17:21:34
Geil Nvidia hat mal wieder ganze Arbeit geleistet.

w0mbat
2008-04-27, 19:11:40
Der Screen ist wohl Fake, oder seit wann gibt es GTixel/s? Außerdem ist der Abstand bei der Die-Size Angabe zwischen der 4 & der 3 zu groß.

http://www.abload.de/img/gt200_fakekxm.jpg

MikBach
2008-04-27, 19:23:19
Geil Nvidia hat mal wieder ganze Arbeit geleistet.
Ja?
Inwiefern?
Lass uns doch an deinem Wissen teilhaben. Zur Zeit haben wir Unwissenden leider nur Spekulationen. :D

@ w0mbat
war doch klar, dass es ein Fake ist.

Gast
2008-04-27, 19:44:47
Was wird die karte den ca. kosten? Lohnt es sich nur wegen farcry 2 auf diese umzusteigen? oder reicht da meine 88gtx noch aus??

Don Vito
2008-04-27, 19:47:47
Was wird die karte den ca. kosten? Lohnt es sich nur wegen farcry 2 auf diese umzusteigen? oder reicht da meine 88gtx noch aus??


Habe gerade mit meiner Glasakugel gesproochen...
Die Karte wird wohl soviel wenn nicht mehr kosten.

Nur mal so am Rande...
Du fragst ob eine noch nicht erhältliche Grafikkarte für ein noch nicht erhältliches Spiel reicht....
Ich muß da wohl nochmal meine Glaskugel fragen:rolleyes:

Gast
2008-04-27, 19:50:07
Was wird die karte den ca. kosten?
Was haben die letzten echten High-End Karten gekostet? :rolleyes:

Mr.Magic
2008-04-27, 19:50:53
Was wird die karte den ca. kosten? Lohnt es sich nur wegen farcry 2 auf diese umzusteigen? oder reicht da meine 88gtx noch aus??

Ein Schuss ins Blaue: 500-600€

Ach was, FC2 läuft selbst auf meinem ollen Laptop mit 5000FPS...

tombman
2008-04-27, 19:53:24
fake...

Gast
2008-04-27, 19:54:56
Egal das meiste stimmt ja trotzdem :-)

MikBach
2008-04-27, 20:09:54
Egal das meiste stimmt ja trotzdem :-)
Was denn?

Gast
2008-04-27, 20:48:42
Was denn?
GT20, 512bit, 65nm, PCIe 16x 2.0, GDDR3, 1024MiB, 240 ALUs

LovesuckZ
2008-04-27, 20:52:46
Das sind alles Informationen, die schon vorher bekannt waren. ;)

/edit: Bzw: Wer sagt, dass diese richtig wären?

Gast
2008-04-27, 20:56:40
Mein Gefühl. ;)

AnarchX
2008-04-27, 20:57:06
Sicherlich sind in diesen Fake einige bekannte Infos/Spekulationen eingeflossen, aber vielleicht sind auch einige neue Dinge dabei, die sehr nah an der Realität sind, z.B. die Taktraten wirken nichtmal auf die schnelle ausgedacht aus.

Und wenn schon sollte GT200 diese Specs auffahren, damit er die 25k 3DM06 und die E6k 3DMV schafft, die ihm nachgesagt werden. :D

LovesuckZ
2008-04-27, 21:08:57
Woher kommen denn die 25k 06 Ergebnisse?

tombman
2008-04-27, 21:30:12
Also wenn der GT200 nicht mindestens 8800GTX SLI Leistung erreicht, ist es IMO ein Fehlschlag...

Gast
2008-04-27, 22:00:33
Meint ihr ein 1kW Netzteil reicht aus?

tombman
2008-04-27, 22:01:46
Meint ihr ein 1kW Netzteil reicht aus?
Für dich? Nein.

Nightspider
2008-04-27, 22:03:04
Meint ihr ein 1kW Netzteil reicht aus?

Müsste für 2 GT200-Karten reichen :D

Slipknot79
2008-04-27, 22:16:53
Also wenn der GT200 nicht mindestens 8800GTX SLI Leistung erreicht, ist es IMO ein Fehlschlag...


Die Bezeichnung 9900 deutet irgendwie ned auf was Orges hin :(

san.salvador
2008-04-27, 22:18:53
Die Bezeichnung 9900 deutet irgendwie ned auf was Orges hin :(
Die Bezeichnung 9800GTX hat aber auf was Orges hingedeutet, vielleicht sind einfach nur unsere Erwartungen auf den Kopf gestellt. :D

tombman
2008-04-27, 22:41:31
Die Bezeichnung 9900 deutet irgendwie ned auf was Orges hin :(
Also es würde mich doch schon sehr wundern, wenn ein "verbreiteter" G80 nicht mindestens 50% "mehr Druck" hat ;)
ATI packt beim RV770 ja auch 50% mehr drauf, also muß Nvidia eigentlich mitziehen...

MikBach
2008-04-27, 22:44:36
ATI packt beim RV770 ja auch 50% mehr drauf, also muß Nvidia eigentlich mitziehen...
Was meinst du mit 50%?

Gast
2008-04-27, 22:50:12
Also wenn der GT200 nicht mindestens 8800GTX SLI Leistung erreicht, ist es IMO ein Fehlschlag...
Das wären gerade mal 180% 8800GTX Leistung, nicht so abwegig.

Slipknot79
2008-04-27, 23:33:35
Das wären gerade mal 180% 8800GTX Leistung, nicht so abwegig.


Dann sollten die auch ne Bezeichnung nehmen die 180% von "8800GTX" entfernt liegt. :tongue:

Also ne "15840GTX" (8800 x 1,8) sollte da schon drin sein. :redface:

Gast
2008-04-27, 23:51:07
"15840GTX"
Klingt einleuchtend. ;)

Ich sehe es als Problem, das AMD schon wieder eine neue Generation rausbringt und Nvidia erst beim aufstellen der GF9 ist.

Auf jeden Fall steht Nvidia im schlechten Licht da, alle meckern das die GF9 existiert, aber faktisch müssten sie die GF10 einführen, um mit AMD mitzuhalten.

LovesuckZ
2008-04-27, 23:52:05
Aber AMD benötigt drei Generationen um mit nVidia mithalten zu können. Ist das nicht tragischer?

Gast
2008-04-27, 23:53:05
Klingt einleuchtend. ;)

Ich sehe es als Problem, das AMD schon wieder eine neue Generation rausbringt und Nvidia erst beim aufstellen der GF9 ist.

Auf jeden Fall steht Nvidia im schlechten Licht da, alle meckern das die GF9 existiert, aber faktisch müssten sie die GF10 einführen, um mit AMD mitzuhalten.

Wovon träumst du nachts? Wenn dann wohl Ati...

gamingforce
2008-04-28, 00:09:58
Aber AMD benötigt drei Generationen um mit nVidia mithalten zu können. Ist das nicht tragischer?

nö ist es nicht, weil keine Sau (ausser paar Freaks) Highend juckt.
Die Leute kaufen nach P/L und da steht der HD3870/3850 eigentlich nichts im Weg wie ich das so sehen, ok jetzt die 9600GT vieleicht.
Ich hab selber SLI, aber das was AMD/ATI anbietet ist in jeder hinsicht besser und fängt sofort bei der Stromaufnahme an und endet bei DX10.1 (was noch keiner brauch aber trotzdem).

wenn ich sehe das 2x HD 3870 +X2 60 Watt IDLE verbauchen und mein SLI fürs nichts tun 3x soviel, mach ich mir langsamer gedanken.

Ich hoffe bloss das Nvidia auch mal so ein Stromsparmodus einbaut mit nem anständigen 2D Takt wo Spannung+Takt gesenkt werden.

LovesuckZ
2008-04-28, 00:13:53
Die 8800GTX verkaufte sich besser als die 3870. Okay, es gibt sie auch wesentlich länger, aber der Preis ist eben nicht immer der entscheidenste Punkt bei einem Kauf.

Gast
2008-04-28, 00:16:12
Wovon träumst du nachts? Wenn dann wohl Ati...
AMD haut die HD3000 raus, alle übeln.
NV haut die GF9 mit 3 Modellen raus, der Rest kommt später, alle meckern.
AMD haut HD4000 raus, im Vorfeld Riesenfreude, erinnert mich an die Zeit kurz vor HD2000.
Wenn NV jetzt mit GF10 kommt, dann sind die Massen an Dummen aufgebraucht.

Gast
2008-04-28, 00:17:08
Ich hoffe bloss das Nvidia auch mal so ein Stromsparmodus einbaut mit nem anständigen 2D Takt wo Spannung+Takt gesenkt werden.
Hybrid SLI.

gamingforce
2008-04-28, 00:21:17
Ich glaub nicht dass das soviel taugt geauso wie Hybrdi CF.
Ich hab selber ein ASUS M3A-HT Deluxe mit nem 780a (8300GT Onboard), und der Chipsatz frisst schon soviel da kann man drauf ******.

Gast
2008-04-28, 00:23:09
Ich glaub nicht dass das soviel taugt geauso wie Hybrdi CF.
Warum?
Du nennst den 780a, verglichen mit welchen AMD Chipsatz, der die selben Features und Menge an PCIe Lanes hat?

gamingforce
2008-04-28, 00:25:29
Die 8800GTX verkaufte sich besser als die 3870. Okay, es gibt sie auch wesentlich länger, aber der Preis ist eben nicht immer der entscheidenste Punkt bei einem Kauf.

mhh doch, für uns spielt Geld vieleicht keine Rolle oder steht an zweiter Stelle, aber für Leute die einfach nur los zocken wollen und sowenig wie möglich ausgeben wollen kaufen sich keine GTX (ok doch jetzt zu dem Preis).
Meine Stad hat 30 k einwohner ich kenn sehr viele die nen PC haben und immer zocken und soll ich dir sagen was sie zuerst fragen wenn sie ne neuen Graka suchen ? kosta quanta ?

Dann sag ich den 220 für die GTX die sagen ne HD 3870 kostet die hälfte und ist nur 20% langsamer.
Das Interessiert die Leute überhaupt nicht, einer hat sich ne GX2 gekauft für 1280x1024 und zockt ohne AA und AF er sagt sieht kein unterschied ;D

gamingforce
2008-04-28, 00:26:45
Warum?
Du nennst den 780a, verglichen mit welchen AMD Chipsatz, der die selben Features und Menge an PCIe Lanes hat?

ASUS M3A32 MVP Deluxe ;)
Das hab ich selber hier und frisst satte 35 Watt weniger Strom wie das M3N-HT Deluxe.

Gast
2008-04-28, 00:29:57
ASUS M3A32 MVP Deluxe ;)
Das hab ich selber hier und frisst satte 35 Watt weniger Strom wie das M3N-HT Deluxe.
Hast du nicht zufällig 2 Nicht Asus Bretter da? Die sollen ja auch unterschiedlich verschwenderisch sein.

gamingforce
2008-04-28, 00:31:44
nein leider nicht:(

Gast
2008-04-28, 00:32:36
Dann sag ich den 220 für die GTX die sagen ne HD 3870 kostet die hälfte und ist nur 20% langsamer.
Das ist schon seeehr großzügig. Wo ist dazwischen noch Platz für 8800GT und 9600GT?

Das Interessiert die Leute überhaupt nicht, einer hat sich ne GX2 gekauft für 1280x1024 und zockt ohne AA und AF er sagt sieht kein unterschied
Ja so einen kenne ich leider auch.
Mini Auflösung, dafür 2 8800GTX, womöglich nicht mal SLI aktiviert.

AA und AF schon mal gehört, aber nicht verstanden: "Ne das zieht zuviel Performance"

gamingforce
2008-04-28, 00:34:33
AA und AF schon mal gehört, aber nicht verstanden: "Ne das zieht zuviel Performance"
;D;D;D

jawolllll, genauso einer ist das auch mit der GX2 den ich kenne :uattack4:


8800GT= 149 €
3870 =119 €
9600GT= 113€

tombman
2008-04-28, 01:50:11
Dann sag ich den 220 für die GTX die sagen ne HD 3870 kostet die hälfte und ist nur 20% langsamer.
Stimmt nur ned ;) Zeig diesen Typen dann das da:

http://img501.imageshack.us/img501/8213/ghitrhbietruhbtrubvu4trda6.jpg (http://imageshack.us)

Gast
2008-04-28, 01:56:10
AMD haut die HD3000 raus, alle übeln.
NV haut die GF9 mit 3 Modellen raus, der Rest kommt später, alle meckern.
AMD haut HD4000 raus, im Vorfeld Riesenfreude, erinnert mich an die Zeit kurz vor HD2000.
Wenn NV jetzt mit GF10 kommt, dann sind die Massen an Dummen aufgebraucht.

Die Dummen waren die , die eine X2900XT kauften (zu laut und lahm kurz gesagt FLOP!) um kurz später von der 3870 abgelöst zu werden...so wird ein Schuh draus...Die 3870 konnte nur durch den Preis punkten aber nicht durch viel mehr Leistung. Gegen eine uralte 8800GTX hatte sie jedenfalls klar das Nachsehen in jeder Beziehung.

Gast
2008-04-28, 03:55:09
Die 3870 konnte nur durch den Preis punkten aber nicht durch viel mehr Leistung. Gegen eine uralte 8800GTX hatte sie jedenfalls klar das Nachsehen in jeder Beziehung.

In jeder Beziehung ist glatt gelogen

:rolleyes:

Botcruscher
2008-04-28, 08:23:41
Stimmt nur ned ;) Zeig diesen Typen dann das da:


Och nö nicht schon wieder CB mit ihrem Treiberchaos. Schon das die 9600GT 13% schneller ist sollte dich stutzig machen.

AnarchX
2008-04-28, 08:29:31
Och nö nicht schon wieder CB mit ihrem Treiberchaos. Schon das die 9600GT 13% schneller ist sollte dich stutzig machen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/5/#abschnitt_testsystem
Treiberversionen

* Nvidia ForceWare 174.16
* Nvidia ForceWare 174.53 (9800 GX2, 9800 GTX)
* ATi Catalyst 8.3


Chaos?

Und warum sollte es jemanden stutzig machen, dass eine 9600GT mit ihrem mächtigen ROPs und 32 TMUs unter 4xAA/16xAF 13% schneller ist als eine 3870, die in diesen Bereichen nunmal deutliche Schwächen aufweist?

Ailuros
2008-04-28, 10:28:49
Wie lange genau muss jemand auf das daemliche Bildchen genau glotzen bis man sieht dass es ein ziemlich schlechte Faelschung ist?

Zum restlichen Unsinn kein Kommentar momentan....

Gast
2008-04-28, 15:04:55
In jeder Beziehung ist glatt gelogen

:rolleyes:
Ja? Kär uns auf.
Anfangs war der Preis der 3870 ok, bis zum auftreten der 9600GT, die die ganze HD3000 überflüssig macht.
Langsamer als 8800GTX stimmt auch.

Stimmt nur ned ;) Zeig diesen Typen dann das da:

http://img501.imageshack.us/img501/8213/ghitrhbietruhbtrubvu4trda6.jpg (http://imageshack.us)
Da kommt meist der Kommentar:
Ach all die Spiele sind NV optimiert, AMD wird extra gebremst1111!!!! :rolleyes: