Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Dural
2010-01-15, 18:18:57
hehe das wird schon wider von Videos aus die Leistung mit irgend einem anderem System verglichen ;D

auch ja, FC2 ist brutal CPU/Speicher limitierent... da bei über 80FPS irgend eine einschätzung zu wagen wenn man nicht mal weis was das für ein system ist, ist das einfach brutal lächerlich...

könnte genau so gut langsamer aber auch schneller sein, es ist schlicht unmöglich das so festzulegen...

Gast
2010-01-15, 18:30:16
hmhm... fermi schneller als 5970er ... klar. und ich bin der kaiser von china.
also sorry. aber wer diesen schwachsinn jetzt glaubt, basierend auf einen chinesischen foreneintrag und ein paar videos bei denen mann überhaupt nicht gesischert sagen kann was da in den pcs gesteckt ist... ähmm.... tja. selber schuld sag ich da nur.


Wenn an den 280W TDP etwas dran ist, ist es sogar sehr wahrscheinlich dass Fermi von den gefühlten FPS zumindest in 5970er-Regionen kommt und in Einzelfällen auch schneller ist.

Gast
2010-01-15, 18:34:01
Da gibt es noch mehr Videos:
http://vimeo.com/8754848
http://vimeo.com/8754676
http://vimeo.com/8754728
http://vimeo.com/8754813
http://vimeo.com/8754874
:D

0.63 FPS GF100 vs 0.23 FPS (GTX 285?) bei Raytracing.

Funktioniert kein einziges von...Gibts noch andere Mirrors?

Gast
2010-01-15, 18:34:11
Nicht zu vergessen, im Raytracing ist der GF100 sogar 3x so schnell wie der GT200 :P
Na herzlichen Glühstrumpf, das sagt aber auch mal echt viel aus bei der eklatanten DP-Schwäche des GT200. Selbst die Z80 CPU eines Sinclair Spectrum wäre bei Raytracing gefühl schneller als ein GT200.

Gast
2010-01-15, 18:37:34
Na herzlichen Glühstrumpf, das sagt aber auch mal echt viel aus bei der eklatanten DP-Schwäche des GT200. Selbst die Z80 CPU eines Sinclair Spectrum wäre bei Raytracing gefühl schneller als ein GT200.
Welche Raytracer nutzt bitte schön DP? Das wird alles in SP gerechnet :stupid:

AnarchX
2010-01-15, 18:40:45
oder haben die 2560*1600 8aa als setting genommen,mit 1,5gb ram vorstellbar weil die anderen einbrechen:wink:
1920x1200 4xAA:
http://i47.tinypic.com/53u4h5.jpg
...bei 2560x1600 und 8xAA könnte die Distanz zur GTX 285 dann wohl wirklich noch um einiges anwachsen, durch den deutlich verbesserten Geometrie-Durchsatz und die 1,5GiB Speicher.

derguru
2010-01-15, 18:43:38
Deswegen hab ich auch schon lange ein Enermax 1250W Revolution mit 80+ Silber und über 100 Ampere auf 12V ;)
Warst wohl nicht auf dem neuestem Stand, was? :tongue:
ja wird wohl so sein.:biggrin:

ich vertrau da huddys worten das amd die meiste zeit dieses jahr in führung sein soll,der hat ja auch beim verbessertem af und aa wort gehalten.

denn eine 60-80% vorsprung in warhead wäre so dermaßen in your face für amd das sie dieses jahr gar nicht mehr kontern könnten.

1920x1200 4xAA:
http://i47.tinypic.com/53u4h5.jpg
...bei 2560x1600 und 8xAA könnte die Distanz zur GTX 285 dann wohl wirklich noch um einiges anwachsen, durch den deutlich verbesserten Geometrie-Durchsatz und die 1,5GiB Speicher.

ich meinte warhead wegen dem 60-80% vorsprung.

Gast
2010-01-15, 18:51:15
Welche Raytracer nutzt bitte schön DP?
Jeder vernünftige.
Wirf doch einfach mal einen Blick in z.B. den POV-Ray Source. Da ich aber Grund zur Annahme habe, dass dir der ebenso wenig sagen dürfte wie altägyptische Hieroglyphen, hier ein kleiner Ausschnitt aus dem POV-Wiki:
3DNow uses single precision numbers while POV-Ray needs (yes, it needs) double precision numbers. Single precision is not enough (this has been tested in practice).
(Aus der Antwort, wieso sie 3DNow nicht nutzen.)

Ronny145
2010-01-15, 18:51:34
Hier mal in besserer Qualität.

http://www.abload.de/img/1byeq.png
http://www.abload.de/img/29alb.png

RoNsOn Xs
2010-01-15, 18:55:54
das sind doch die pics der 285 :confused:

MorPheuZ
2010-01-15, 18:58:39
ja wird wohl so sein.:biggrin:

denn eine 60-80% vorsprung in warhead wäre so dermaßen in your face


hehe, schön gesagt:biggrin: Warten wirs ab

tombman
2010-01-15, 19:06:00
ich vertrau da huddys worten das amd die meiste zeit dieses jahr in führung sein soll
Mit ner 5970 dürfen sie gerne in Führung sein ;)
In H2 kommt dann Dual-Fermi- und dann isses auch mit der Führung vorbei ;)

Wobei: wenn Fermi nah an die 5970 herankommt, wird wohl jeder E. Fermi kaufen und nicht Hemlock:
1.) kein MR -> daher Spielgefühl ähnlich oder sogar besser
2.) keine Profile notwendig, da single gpu IMMER rennt
3.) Phys-X gibts auch
4.) Cuda gibts auch

Armaq
2010-01-15, 19:11:00
Mit ner 5970 dürfen sie gerne in Führung sein ;)
In H2 kommt dann Dual-Fermi- und dann isses auch mit der Führung vorbei ;)

Wobei: wenn Fermi nah an die 5970 herankommt, wird wohl jeder E. Fermi kaufen und nicht Hemlock:
1.) kein MR -> daher Spielgefühl ähnlich oder sogar besser
2.) keine Profile notwendig, da single gpu IMMER rennt
3.) Phys-X gibts auch
4.) Cuda gibts auch
Cuda darfst du für Gamer aber bitte streichen, denn das ist kein echter Vorteil. DX11 ist ja dann eh verbindlich.

derguru
2010-01-15, 19:11:45
Mit ner 5970 dürfen sie gerne in Führung sein ;)
In H2 kommt dann Dual-Fermi- und dann isses auch mit der Führung vorbei

wenn die 5970 in führung sein soll sind die warhead werte nur ein feuchter traum,darum gings mir.

naja egal,was so einer dämlicher far cry2 bench für ein theater fabriziert.:anonym:

y33H@
2010-01-15, 19:15:11
Das auf den Videos sieht nicht nur nach Lars Weinand aus, sondern klingt auch so :ulol:

Gast
2010-01-15, 19:24:31
ich vertrau da huddys worten das amd die meiste zeit dieses jahr in führung sein soll,der hat ja auch beim verbessertem af und aa wort gehalten.

Das sollte sich auch recht leicht ausgehen.

Zumindest auf dem Papier wird die 5970 Single-Fermi locker schlagen. Bis Dual-Fermi kommt um die 5970 zu schlagen sind wir schon im 2. Halbjahr, damit hätte ATI schon die Performancekrone für den überwiegenden Teil des Jahres.

mapel110
2010-01-15, 19:34:27
März Single Fermi
Mai Dual Fermi
Juni/Juli ATI Single Chip Refresh >5870, nix Dual
August/September ATI Dual Chip Refresh

Für Kunden jedenfalls endlich mal wieder ein Jahr der Bewegung auf dem Markt.

tombman
2010-01-15, 19:52:07
wenn die 5970 in führung sein soll sind die warhead werte nur ein feuchter traum,darum gings mir.

Wieso? Einzelwerte können durchaus ausbrechen, ändert nix am Durchschnitt.

ZÜNDELholz
2010-01-15, 19:53:10
März Single Fermi
Mai Dual Fermi
Juni/Juli ATI Single Chip Refresh >5870, nix Dual
August/September ATI Dual Chip Refresh

Für Kunden jedenfalls endlich mal wieder ein Jahr der Bewegung auf dem Markt.

Das ist für mich die härteste Geduldsprobe , seit Warten auf das Thälmannpionierhalstuch! :D

Gast
2010-01-15, 19:58:10
Cuda darfst du für Gamer aber bitte streichen, denn das ist kein echter Vorteil. DX11 ist ja dann eh verbindlich.
Warum dürfen Gamer nichts anderes tun als gamen?

Armaq
2010-01-15, 20:04:43
Warum dürfen Gamer nichts anderes tun als gamen?
Dürfen sie, aber der Großteil nimmt das nicht wahr.

Gast
2010-01-15, 20:07:04
Dürfen sie, aber der Großteil nimmt das nicht wahr.

Vielleicht wenn der Browser oder Pronloader beschleunigt wird:P

igg
2010-01-15, 20:13:57
Ich finde die 448 SPs immer noch verwirrend. Irgendwas passt da nicht so ganz.

Andere Karte, Missverständnis oder die letzten Gerüchte zu den 512 Cores waren falsch für die GTX380.

mapel110
2010-01-15, 20:17:12
Ich finde die 448 SPs immer noch verwirrend. Irgendwas passt da nicht so ganz.

Andere Karte, Missverständnis oder die letzten Gerüchte zu den 512 Cores waren falsch für die GTX380.
448 SPs Tesla 225 Watt
512 SPs GTX380 280 Watt

Sorkalm
2010-01-15, 20:18:45
Die 448er Karte könnte auch eine Art GTX 360 werden.

igg
2010-01-15, 20:20:32
448 SPs Tesla 225 Watt
512 SPs GTX380 280 Watt
Das wär schon bisschen viel, ich finde die angeblichen 60 % Mehrleistung in Crysis Warhead jetzt schon schmeichelnd, wenn das dann nur eine deutlich langsamere Tesla war...

Ein User namens fellix hat neue Zahlen (kann man dem trauen)?
Average Framerate - 73.92 vs. 84.18, Fermi wins by 12.2%
Maximum Framerate - 111.01 vs. 125.84, Fermi wins by 12.8%
Minimum Framerate - 54.55 vs. 65.21, Fermi wins by 16.4%
http://forum.beyond3d.com/showpost.php?p=1380703&postcount=268

Passt im Prinzip zu den 1.2 von dem chinesischen Leak.

Knuddelbearli
2010-01-15, 20:37:11
kein Wunder ich wette auch sonstwas das die eh nur voneinander abschreiben und jeder dichtet ne Kleinigkeit dazu

Gast
2010-01-15, 20:39:16
Jeder vernünftige.
Wirf doch einfach mal einen Blick in z.B. den POV-Ray Source. Da ich aber Grund zur Annahme habe, dass dir der ebenso wenig sagen dürfte wie altägyptische Hieroglyphen, hier ein kleiner Ausschnitt aus dem POV-Wiki:

(Aus der Antwort, wieso sie 3DNow nicht nutzen.)
Und wer sagt jetzt, dass das bei der verwendeten Raytracingsoftware auch der Fall ist? Vielleicht schaffen die es ja mit SP hinzukommen und dafür deutlich mehr Performance zu haben?

Wobei: wenn Fermi nah an die 5970 herankommt, wird wohl jeder E. Fermi kaufen und nicht Hemlock:
1.) kein MR -> daher Spielgefühl ähnlich oder sogar besser
2.) keine Profile notwendig, da single gpu IMMER rennt
3.) Phys-X gibts auch
4.) Cuda gibts auch
5.) Besseres Tessellation

Gast
2010-01-15, 20:52:42
Ein User namens fellix hat neue Zahlen (kann man dem trauen)?

http://forum.beyond3d.com/showpost.php?p=1380703&postcount=268

Passt im Prinzip zu den 1.2 von dem chinesischen Leak.

Nicht die selben Rechner, daher nicht vergleichbar. ;)

mapel110
2010-01-15, 20:53:11
Das wär schon bisschen viel, ich finde die angeblichen 60 % Mehrleistung in Crysis Warhead jetzt schon schmeichelnd, wenn das dann nur eine deutlich langsamere Tesla war...

Ein User namens fellix hat neue Zahlen (kann man dem trauen)?

http://forum.beyond3d.com/showpost.php?p=1380703&postcount=268

Passt im Prinzip zu den 1.2 von dem chinesischen Leak.
http://www.youtube.com/watch?v=jcXmV5Je_gc
Die Fermi-Zahlen sind aus diesem Video und das ist wohl echt.

igg
2010-01-15, 21:08:49
So wie es aussieht, bemüht Nvidia Youtube die Videos rauszunehmen:
http://forum.beyond3d.com/showpost.php?p=1380747&postcount=274
http://forum.beyond3d.com/showpost.php?p=1380751&postcount=275

Gast
2010-01-15, 21:24:05
So wie es aussieht, bemüht Nvidia Youtube die Videos rauszunehmen:
http://forum.beyond3d.com/showpost.php?p=1380747&postcount=274
http://forum.beyond3d.com/showpost.php?p=1380751&postcount=275

lol, wenn nvidia wirklich wollte wären die videos schon weg ...
ausser es ist der übliche fake kram, wonach es jetzt meiner meinung aussieht

Odal
2010-01-15, 21:29:18
also "echt" scheinen die videos schonmal zu sein
wenn sie nicht gerade von nvidia ausgestreut wurden, scheint zumindest bei der cry2 engine die GTX380 ziemlich davon zu rennen

alles seltsam imho

aber ich erinner mich noch an den G80 da wars ähnlich, keiner wusste wirklich was vorher und es wurde viel spekuliert

Ronny145
2010-01-15, 21:30:16
lol, wenn nvidia wirklich wollte wären die videos schon weg ...
ausser es ist der übliche fake kram, wonach es jetzt meiner meinung aussieht


Wie sollte NVIDIA die Videos so schnell verschwinden lassen? Nächster Schritt wäre youtube zu kontaktieren, aber das geht auch nicht innerhalb von Minuten, bis die reagieren. Das ist bei anderem Zeug das gleiche. Wobei NVIDIA vielleicht gar kein Recht drauf hat, die Videos von youtube verschwinden zu lassen.

Gast
2010-01-15, 22:08:10
Wie sollte NVIDIA die Videos so schnell verschwinden lassen? Nächster Schritt wäre youtube zu kontaktieren, aber das geht auch nicht innerhalb von Minuten, bis die reagieren. Das ist bei anderem Zeug das gleiche. Wobei NVIDIA vielleicht gar kein Recht drauf hat, die Videos von youtube verschwinden zu lassen.

Na sicher haben sie das Recht die Videos verschwinden zu lassen, da jeder der bereits eine Karte hat mit Sicherheit einen Vertrag unterzeichnen musste...

Sorkalm
2010-01-15, 22:10:21
Na sicher haben sie das Recht die Videos verschwinden zu lassen, da jeder der bereits eine Karte hat mit Sicherheit einen Vertrag unterzeichnen musste...

Deswegen haben sie aber noch kein Recht, einem Dritten, mit dem sie keinen Vertrag haben (Youtube), etwas zu entfernen. Vielmehr dürften sich jetzt Schandesansatzsprüche gegen den Leaker aus den Vertrag ergeben.

Das Recht zur Entfernung o. ä. könnte sich vielleicht noch aus dem Urheberrecht ergeben, wenn sie den Film gedreht haben. Das wäre dann etwas anderes. Müsste man aber auch erstmal nachweisen, dass das Uhrberrecht wirklich bei Nvidia liegt.

Ronny145
2010-01-15, 22:12:41
Na sicher haben sie das Recht die Videos verschwinden zu lassen, da jeder der bereits eine Karte hat mit Sicherheit einen Vertrag unterzeichnen musste...

Die Videos auf youtube sind von Leuten hochgeladen, die mit Sicherheit nichts unterschrieben haben.

Gast
2010-01-15, 22:23:09
Tja, Fake oder inszenierter Leak, das ist hier die Frage ... alles andere ist IMHO total uninteressant. Über die Performance kann man so oder so noch keine Aussage machen. Und selbst wenn man sie kennen würde, würde das noch keine Rückschlüsse aufs Gesamtpaket zulassen. Stromverbrauch und Lautstärke sind für mich relevanter als Frames die ich nicht sehen kann.

Chris2CB
2010-01-15, 22:32:23
Die Videos auf youtube sind von Leuten hochgeladen, die mit Sicherheit nichts unterschrieben haben.

Nur keine Werbung ist schlechte Werbung.

Der Markt für den dieses Produkt ist, verlangt solche Wege ein zu schlagen.

Gast
2010-01-15, 22:35:38
Tja, Fake oder inszenierter Leak, das ist hier die Frage ... alles andere ist IMHO total uninteressant. Über die Performance kann man so oder so noch keine Aussage machen.

Zumindest bei Farcry2 erreicht man locker die Werte einer HD5970. Das ist schonmal ne Hausnummer.

Gast
2010-01-15, 22:39:34
Zumindest bei Farcry2 erreicht man locker die Werte einer HD5970. Das ist schonmal ne Hausnummer.

Was aber noch nicht gesichert ist.;)

][immy
2010-01-15, 22:40:16
nur mal so als frage, warum sollte man die dinger mit nvidia-karten oder sonstnochwas in zusammenhang bringen?
habe in dem video absolut nichts gehört was irgendwie auf irgendeinen grafikkartenhersteller schließen lässt.

Gast
2010-01-15, 22:45:01
Was aber noch nicht gesichert ist.;)

Ein Fake ist es ganz sicher nicht, falls du das meinst.

derguru
2010-01-15, 22:45:21
[immy;7784043']nur mal so als frage, warum sollte man die dinger mit nvidia-karten oder sonstnochwas in zusammenhang bringen?
habe in dem video absolut nichts gehört was irgendwie auf irgendeinen grafikkartenhersteller schließen lässt.
youtube video wurde ein bissel gekürzt,eigentlich kommt am ende noch eine einblende um welche karten es ging,bedeutet auch nichts aber trotzdem.:)

Gast
2010-01-15, 22:48:49
Ein Fake ist es ganz sicher nicht, falls du das meinst.

Doch, ist ganz sicher ein Fake.

tombman
2010-01-15, 22:49:32
Außerdem fällt ca 100x das Wort "GF100" ;D

y33H@
2010-01-15, 22:50:14
Und der Mann vor dem Monitor ist Lars Weinand, NVs Marketing Manager für EMEA. Und das der da nicht vor einer GT 240 sitzt, ist recht wahrscheinlich.

EDIT
Und er sagt eindeutig "Fermi".

tombman
2010-01-15, 22:53:57
Hat die vimeo vids wer gespeichert? Ich habe sie zwar gesehen, will sie aber haben :D

Kann irgendwer alle uppen?

Gast
2010-01-15, 22:54:31
Blöde Frage. Warum kriegen Privatpersonen (Member von xtremesystem oder weiß ich nicht wer) überhaupt Engineering Samples von Grafikkarten (oder CPUs etc.)? Wenn es sowieso eine NDA gibt und diese ausgesuchten Personen ohnenicht nichts veröffentlichen dürfen, verstehe ich es erst recht nicht. Aber selbst wenn sie es dürften: Warum?

Odal
2010-01-15, 22:56:23
die sind irgendwo in asien vom laster gefallen ;)

y33H@
2010-01-15, 22:57:37
XS usw. läuft meist über die Asien, die - banal ausgedrückt - fischen das Zeug vom Fließband. Und wenn OCer "zufällig" Samples erhalten und damit Rekorde aufstellen, freuts den Hersteller. Das ist weder neu noch ungewöhnlich, nur selten schafft (oder will) das ein IHV nicht.

Gast
2010-01-16, 00:36:41
@y33h@:

werden wir zu dem Leak heute ne News auf PCGH lesen? ;)

Oder würdet ihr falls ihr das als News bringt riskieren von den grünen ordentlich aufs Maul zu bekommen? :ugly:

y33H@
2010-01-16, 00:52:49
Ich habe mit PCGH nichts zu schaffen :ulol:

Im Ernst, ich hab WE und stress mich wegen Fermi sicher nicht. Zumindest nicht die nexten 15h *g*

Raff
2010-01-16, 00:57:49
y33H@ schreibt keine News, da musst du schon PCGH_BenchMarc fragen. ;) Die Zeit für Furby-News kommt indes von selbst.

MfG,
Raff

mapel110
2010-01-16, 06:32:52
y33H@ schreibt keine News, da musst du schon PCGH_BenchMarc fragen. ;) Die Zeit für Furby-News kommt indes von selbst.

MfG,
Raff
Du meinst, den einen Tag kann man auch noch warten. ;)

Ailuros
2010-01-16, 08:10:57
Nicht zu vergessen ist, Nvidia kann im Vergleich zu ATI die Einheiten besser auslasten.
Daher wenn wenn wenn Fermi wirklich eine TDP von 280 Watt hat, könnte sie mit der selben GT200(b)-Einheiten-Auslastung/Effizienz in Spielen dann ca. 240 Watt verbrauchen, was ca. 50% mehr als HD4870 wäre.

Wirklich aylano wie oft muss man es sagen dass neue Architekturen schwer zu vergleichen sind dank ihrer Differenzen bis es jemand schnallt?

Die Tatsache dass es 512SPs hat ist lediglich eine sterile Nummer. Realitaet wird Dir sagen dass der typische 24 SIMD Prozessor des GT200 zu einem 32 SIMD Prozessor aufgepumpt wurde (ja das ist keine besonders fundamentale Aenderung) und da gerade dazugeschoben wo es auf GT200 schwaechelte.

Es gibt jetzt pro SM Hilfe fuer Tesselation und je vier SMs einen raster. Zaehl nach wieviel rasters es sind und zur Erinnerung Cypress hat zwar 2 rasterizers behandelt aber nicht mehr als 1 Dreieck pro Takt. Den Rest des Raetsels ueberlasse ich Deiner Phantasie.

Da wir aber nur existierende Spiele haben, wird sich jeglicher dem obrigen entsprechenden Vorteil nur da ausspielen wo Geometrie auch heftig auf die Pauke haut. Und es ist lediglich nur ein Beispiel. Es kommt noch eine Reihe an anderen Verbesserungen dazu die auch bei heutigen Applikationen helfen.

Damit es ein bisschen klarer wird: http://forum.beyond3d.com/showpost.php?p=1380924&postcount=308

If those Chinese numbers are right for HAWX, then I think it's very likely that Fermi sets up and rasterizes multiple triangles per clock, as Razor1 alluded to a little while ago. That game is heavily setup limited.

This also bodes well for tesselation performance.

Ich schätze nicht, dass Fermi 50% & 280 TDP schneller ist als HD5870.
Denn Fermi würde dann mit "15%" weniger Takt & "15%" weniger Performance eben besser aussehen
Denn mit 35% Vorsprung und ohne Spannungserhöhung wäre Fermi Stromverbrauchs effizienter.

Aus dieser Überlegung würde ich Fermi bei 20%-40%
(20% bei Worst Case und 40% wenn Nvidia ein RV870-Refresh berücksichtigt) mehr Performance sehen, falls die 280 TDP stimmen würden.

Ich hab selber noch keine Ahnung ueber Frequenzen und noch wichtiger wie diese diesmal genau verteilt wurden. Denn es kann durchaus sein dass diesmal viel mehr auf hot clock lauft als man einschaetzen kann. Dieses beinflusst dann auch den Stromverbrauch.

Nichtdestominder ohne zu wissen wie die Frequenzen genau aussehen bei welchem realen Stromverbrauch ist dieses +/- 15% von der Frequenz fuer die Muelltonne.

Ja natuerlich waren die angeblichen internen Infos fuer eine lange Zeit dass der Stromverbrauch irgendwo auf 285 Nivaeu liegt, aber da nur GT200 erwaehnt wurde kann sich jederman stets umdrehen und folgendes behaupten:

1. Ich meinte GTX360.
2. GTX295 gehoert auch zur GT200 Familie

"Wir haben uns falsch eingeschaetzt" gehoert dann eben nicht zu den Moeglichkeiten weiter Erlaeuterungen. Und nein um ca. 40% schaetzt sich ein so erfahrener IHV normalerweise auch nicht ein. Es ist stets das Problem wie zwielichtig die originale Behauptung mit Absicht vermittelt wurde.

Ein ziemlich wichtiges Wettrennen fuer die Zukunft fuer NV ist wie die Entwickler GF100 annehmen werden fuer die Entwicklung zukuenftiger Spiele. Ja natuerlich hat hier ATI einen ziemlich grossen Vorsprung, aber in dem Fall ist der Stromverbrauch dem Entwickler erstmal nicht wichtig, sondern eher die Moeglichkeit dass sie etwas in der Hand haben dass heute vielleicht in existierenden Spielen der Unterschied zu einer GTX295 irgendwo um die 30+% liegt aber in zukuenftigen Projekten ein weit hoeheres Potential und Leistung vorweisst.

Und das eben genau ist der wichtige Knackpunkt einer jeglichen neuen Generation den man bei einem normalen refresh (GT200 vs. G80) eben nicht sieht. Wenn jetzt GF100 als Architektur auch noch einen gesunden Vorsprung fuer zukuenftige Spiele gegen Cypress vorzeigen sollte, dann wird AMD selbstverstaendlich schon am nachladen sein was zukuenftige hw betrifft, wobei aber solche Sachen nicht unbedingt etwas mit dem Verlauf der Dinge durch 2010 zu tun haben wird.

Was sich Entwickler generell fuer DX11 gewuenscht haben wurde schon seit geraumer Zeit erwaehnt. U.a. mehr rasterizing Effizienz und mehr Geometrie (u.a. fuer adaptive Tesselation). Jetzt bleibt abzusehen wie jegliche der beide Architekturen genau aussieht und wie jegliche von Entwicklern aufgenommen wird. Und ja fuer den Endverbraucher durch 2010 wird die 5870 trotz allem gerechtfertigt eine ausgezeichnete Loesung sein.

tombman
2010-01-16, 08:44:08
Sprich, Fermi wird ein Tess. und Poly. Monster? :D

Hmm, Crysis hat oft 3 Mio. Polys pro Frame -> Crüsis-Monster as well? :D

Ailuros
2010-01-16, 09:02:15
Sprich, Fermi wird ein Tess. und Poly. Monster? :D

Ja. Die Frage bleibt wie sich dieses in heutigen Spielen umsetzen wird.

Hmm, Crysis hat oft 3 Mio. Polys pro Frame -> Crüsis-Monster as well? :D

Wo immer es stellenweise setup limitiert ist wohl schon. Nur hab ich Angst dass so wie die cryengine mit den CPU resourcen umgeht, dass es keinen besonderen Unterschied machen koennte.

tombman
2010-01-16, 09:09:22
Goil- ich steh auf Polys :) (und Weiber- bevor wieder der übliche Schmäh kommt :))

Das water tess. video von vimeo war :eek:

Ailuros
2010-01-16, 09:16:11
Goil- ich steh auf Polys :) (und Weiber- bevor wieder der übliche Schmäh kommt :))

Das water tess. video von vimeo war :eek:

....langweilig (und entschuldige dass ich den Satz nachfuelle). Wurde schnell von NV in letzter Minute zusammengekratzt und koennte selbst nach NV um einiges besser sein.

***edit: Weiber haben Kurven ;)

igg
2010-01-16, 09:27:10
Was für ein Launch steht eigentlich unmittelbar vor uns (vermutlich mal Mo->Di)? Wirds auch Benchmark-Zahlen geben oder eher nur massenweise Feature und Architekturartikel?

Edit: Und wieso ist Charly verstummt???

tombman
2010-01-16, 09:30:04
....langweilig (und entschuldige dass ich den Satz nachfuelle). Wurde schnell von NV in letzter Minute zusammengekratzt und koennte selbst nach NV um einiges besser sein.
Ich fands goil :) Man stelle sich das in Crysis 2 vor :)

***edit: Weiber haben Kurven ;)
...und je mehr davon, desto besser- wie bei Polys ;)

Ailuros
2010-01-16, 09:30:09
Was für ein Launch steht eigentlich unmittelbar vor uns (vermutlich mal Mo->Di)? Wirds auch Benchmark-Zahlen geben oder eher nur massenweise Feature und Architekturartikel?

Welcher Launch? Kann sein dass irgendwelches Architekturmaterial veroeffentlicht wird aber das komplette Paket kommt wohl erst im Maerz.

tombman
2010-01-16, 09:35:16
Btw, für alle, die es ned mitbekommen haben:
http://www.youtube.com/results?uploaded=d&search_query=gf100&search_type=videos&suggested_categories=28%2C2%2C20&uni=3&search_sort=video_date_uploaded

Ansehen solange es noch geht :)

Ailuros
2010-01-16, 09:43:21
http://www.fudzilla.com/content/view/17259/1/

Hmmmm........ :rolleyes:

igg
2010-01-16, 09:48:40
Btw, für alle, die es ned mitbekommen haben:
http://www.youtube.com/results?uploaded=d&search_query=gf100&search_type=videos&suggested_categories=28%2C2%2C20&uni=3&search_sort=video_date_uploaded
Ich finde es schade, dass es fast zu 100 % Techdemos sind und nicht schön präsentiert werden. Hätte man sich etwas Mühe gegeben, zb bei den Texturen, wäre das Zeugs total beeindruckend.
Welcher Launch? Kann sein dass irgendwelches Architekturmaterial veroeffentlicht wird aber das komplette Paket kommt wohl erst im Maerz.
Bis dahin wird dann vermutlich aber alles schon geleaked sein, wenn es sogar 2 Monate schon vorher welchr gibt... NV sollte bisschen aufpassen, dass es nicht ähnlich geht wie bei ATIs 4850.
http://www.fudzilla.com/content/view/17259/1/

Hmmmm........ :rolleyes:
AMD geht nicht zu GF? (denke mal, dass es sich nicht auf einen GF Launch im März/April beziehen kann, da zu kurzfristig)

AnarchX
2010-01-16, 09:51:27
Hoffentlich gibt es dann zum Fall des NDAs nochmal bessere Bilder/Videos des FPS-Counters der Hair-Demo.
Denn dort kann man wohl lesen, um welche SKU es sich handelt. Auf dem aktuellen Video ist aber nur "Hardware D12U (x0) zu erkennen.
Bleibt die Frage, ob es nun D12U-20 (~ GeForce 360) oder D12U-30 (~GeForce 380) ist (siehe SKU-Codenamen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788&highlight=Back+school#post7238788)).

igg
2010-01-16, 09:53:34
Bleibt die Frage, ob es nun D12U-20 (~ GeForce 360) oder D12U-30 (~GeForce 380) ist (siehe SKU-Codenamen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788&highlight=Back+school#post7238788)).
Ich ging aufgrund der ständig genannten 448 SPs von GTX360 aus.

MoC
2010-01-16, 11:14:04
Vll ne ganz dumme Frage, aber wo steht denn das die 360er die ist mit 448 SPs und das es überhaupt ne Version geben wird mit 512 SPs (zum Launch).

Wenn die Benchmark-Videos recht haben, würde es doch reichen eine Chip mit 448 als derzeitigen Highend zu verkaufen und man könnte die 512er Version für den ATI-Refresh aufheben ^^

Black-Scorpion
2010-01-16, 11:24:02
448SP mit dem Verbrauch. Wie soll der bei einer 512SP Karte sein?

AnarchX
2010-01-16, 11:37:14
Wie schon von mehreren Quellen genannt, eine TDP von 250-300W bzw. 280W für die 512SPs, 384-Bit Karte.
Die 448SPs, 320-Bit Karte soll bei 225W liegen.

Wenn die Leistung sich für die 448SPs-Karte bewahrheit , wäre das im Rahmen einer vernünftigen Pro-Watt-Leistung.
Die Dual-GF100-Karte kann man dann wohl eher als rare Machbarkeitsstudie sehen, um die HD 5970 auch in jeder Situation zu schlagen.

btw.
PHK behauptet (http://bbs.expreview.com/thread-26715-1-1.html), Core zu SP-Frequenz läge bei 1:2.
Dadurch ergäbe sich bei >=1.4GHz SPs bei angenommenen 8TFs pro Cluster doch eine brauchbare Texelfüllrate.

Gast
2010-01-16, 11:40:51
Ja. Die Frage bleibt wie sich dieses in heutigen Spielen umsetzen wird.
Viel wichtiger sind doch kommenden Spiele. Wenn man bei Tessellation einen großen Vorsprung gegenüber ATI hat, ist das doch DAS verkaufsargument für die Karte. So in Richtung Zukunftssicherheit und so....

derguru
2010-01-16, 11:49:32
Wie schon von mehreren Quellen genannt, eine TDP von 250-300W bzw. 280W für die 512SPs, 384-Bit Karte.
Die 448SPs, 320-Bit Karte soll bei 225W liegen.
werden eigentlich im märz beide varianten erwartet oder nur die kleinere?

igg
2010-01-16, 11:53:38
Viel wichtiger sind doch kommenden Spiele. Wenn man bei Tessellation einen großen Vorsprung gegenüber ATI hat, ist das doch DAS verkaufsargument für die Karte.
Sehe ich auch so, ist quasi höhere Qualität / mehr Details geschenkt

Lu
2010-01-16, 11:54:58
Ich vermute sie bringen erstmal den direkten Konkurrenten der 5870 nämlich die GTX 360 und ein paar Wochen später lassen sie die Katze ( GTX 380 ) aus dem Sack :D

igg
2010-01-16, 12:03:11
Ich vermute sie bringen erstmal den direkten Konkurrenten der 5870 nämlich die GTX 360 und ein paar Wochen später lassen sie die Katze ( GTX 380 ) aus dem Sack :D
Das würde mich wundern und sollte das eintreten, würde ich die Ursache eher in einer geringen Ausbeute vermuten. Aber ich denke schon, dass NV zum Launch die Muskeln spielen lassen wird und sich nicht mit einem geringen Abstand zu ATI abfinden wird

Lu
2010-01-16, 12:07:01
Du kannst meine Aussage auch auf die Verfügbarkeit beziehen.

Gast
2010-01-16, 12:18:08
Viel wichtiger sind doch kommenden Spiele. Wenn man bei Tessellation einen großen Vorsprung gegenüber ATI hat, ist das doch DAS verkaufsargument für die Karte. So in Richtung Zukunftssicherheit und so....

Ergo muss die Karte die Tesselation noch nicht einmal beherrschen.

Gast
2010-01-16, 12:19:01
Geringe Verfügbarkeit wird kein Hindernis für einen Launch sein.
Wird erst nur GTX 360 gelauncht, so ist es aus für GTX 380, die kann dann noch so gut sein, der erste Auftritt zählt.

Der Nachträgliche Hammerschlag wird Dual GF100 sein.

Majestic
2010-01-16, 12:37:11
Bin schon sehr gespannt auf die die GTX380. Das wird meine Kaufentscheidung gerade in Anbetracht auf den meiner meiner Meinung nach zu hohen Preis für die HD5870 maßgeblich beeinflussen. Soll heißen ich würde abwarten bis entweder die ATI deutlich im Preis fällt oder auf die Nvidia warten wenn die Leistung deutlich besser ist (>30%).

Gast
2010-01-16, 12:39:19
Bin schon sehr gespannt auf die die GTX380. Das wird meine Kaufentscheidung gerade in Anbetracht auf den meiner meiner Meinung nach zu hohen Preis für die HD5870 maßgeblich beeinflussen. Soll heißen ich würde abwarten bis entweder die ATI deutlich im Preis fällt oder auf die Nvidia warten wenn die Leistung deutlich besser ist (>30%).

Im Vergleich zur letzten Generation kann die Neue nur teuer erscheinen...

Gast
2010-01-16, 12:49:08
Es gibt jetzt pro SM Hilfe fuer Tesselation und je vier SMs einen raster. Zaehl nach wieviel rasters es sind und zur Erinnerung Cypress hat zwar 2 rasterizers behandelt aber nicht mehr als 1 Dreieck pro Takt. Den Rest des Raetsels ueberlasse ich Deiner Phantasie.
Cypress kann unter gewissen Voraussetzungen 2 Dreicke parallel behandeln.

MuLuNGuS
2010-01-16, 12:54:52
Wie schon von mehreren Quellen genannt, eine TDP von 250-300W bzw. 280W für die 512SPs, 384-Bit Karte.
Die 448SPs, 320-Bit Karte soll bei 225W liegen.

Wenn die Leistung sich für die 448SPs-Karte bewahrheit , wäre das im Rahmen einer vernünftigen Pro-Watt-Leistung.
Die Dual-GF100-Karte kann man dann wohl eher als rare Machbarkeitsstudie sehen, um die HD 5970 auch in jeder Situation zu schlagen.

btw.
PHK behauptet (http://bbs.expreview.com/thread-26715-1-1.html), Core zu SP-Frequenz läge bei 1:2.
Dadurch ergäbe sich bei >=1.4GHz SPs bei angenommenen 8TFs pro Cluster doch eine brauchbare Texelfüllrate.

bei der kackseite meldet Antvir sofort 'nen virus ^^

V2.0
2010-01-16, 13:33:44
Wie schon von mehreren Quellen genannt, eine TDP von 250-300W bzw. 280W für die 512SPs, 384-Bit Karte.
Die 448SPs, 320-Bit Karte soll bei 225W liegen.

Wenn die Leistung sich für die 448SPs-Karte bewahrheit , wäre das im Rahmen einer vernünftigen Pro-Watt-Leistung.
Die Dual-GF100-Karte kann man dann wohl eher als rare Machbarkeitsstudie sehen, um die HD 5970 auch in jeder Situation zu schlagen.



Wobeo RDP eben eine Designvorgabe ist. Die große Version braucht 6+8Pin und der Kühler sollte bis zu 280W abführen können. Ob er das wirklich muss, oder ob da auch Spielraum für OC-Versionen der IHVs oder auch Reserven für eine leisere Kühlung drinne sind, ist mehr als anzunehmen.

TDP 225 für die kleiner Version beduetet ja auch 2x6Pin oder 1x8Pin und einen Kühler der eben bis zu 225W abführen kann.

Ich habe schon von unterschiedlichen Stellen gehört, dass NV bei diesen Angaben wieder ehr konservative Angaben macht, da zu knappe Vorgaben in der Vergangenheit zu Problemen führten.

Ailuros
2010-01-16, 13:46:23
Viel wichtiger sind doch kommenden Spiele. Wenn man bei Tessellation einen großen Vorsprung gegenüber ATI hat, ist das doch DAS verkaufsargument für die Karte. So in Richtung Zukunftssicherheit und so....

Ja nur wird jetzt langsam die ATI Fraktion sich um 180 Grad drehen muessen denn Tesselation kann nicht wirklich so wichtig sein oder?

Cypress kann unter gewissen Voraussetzungen 2 Dreicke parallel behandeln.

G8x/9x/2xx koennen auch unter gewissen Vorraussetzungen 1 Tri/clock bearbeiten, obwohl Realitaet und in der Mehrzahl der Faelle eher in Richtung 1Tri/2 clocks liegt.

Ich vermute sie bringen erstmal den direkten Konkurrenten der 5870 nämlich die GTX 360 und ein paar Wochen später lassen sie die Katze ( GTX 380 ) aus dem Sack :D

GTX360/380 = Maerz
GTX395 = April


btw.
PHK behauptet (http://bbs.expreview.com/thread-26715-1-1.html), Core zu SP-Frequenz läge bei 1:2.
Dadurch ergäbe sich bei >=1.4GHz SPs bei angenommenen 8TFs pro Cluster doch eine brauchbare Texelfüllrate.

Ich bleibe beim original vermittelten 2.2x bis mehr rauskommt. TMUs sind ein merkwuerdiges Fragezeichen fuer mich. Wenn sie aber tatsaechlich den core so hoch angelegt haben, dann erklaert es auch automatisch den hohen Stromverbrauch.

pXe
2010-01-16, 13:55:25
Ja nur wird jetzt langsam die ATI Fraktion sich um 180 Grad drehen muessen denn Tesselation kann nicht wirklich so wichtig sein oder?
...

Dafür wurde ja jetzt SSAA von den ATI Jüngern "entdeckt" und für wichtig befunden :D.

pXe

Ailuros
2010-01-16, 14:03:10
Dafür wurde ja jetzt SSAA von den ATI Jüngern "entdeckt" und für wichtig befunden :D.

pXe

RGSS ist schon eine tolle Sache. Ich will hoffen dass NV nicht so bloed ist und nicht auch TSAA auf Vollbild FSAA hacked.

Der_Korken
2010-01-16, 14:40:09
Dass Nvidia in Sachen Tesselation plötzlich überlegen zu sein scheint, obwohl ATI damit über 2 Jahren wirbt, ist schon lustig. Erinnert mich ein wenig an Shader 3.0 und die Geforce 6. Da wurde das auch von Nvidia als zukunftsweisend angeprisen und man war 1,5 Jahre früher dran als ATI. Als dann aber ATIs X1k-Serie kam, hat plötzlich ATI die SM3-Anwendungen dominiert (die Spiele, die davon massiv Gebrauch machten, liefen auf der Geforce 7 im Nachhinein sehr schlecht im Gegensatz zur X1900).

Es ist doch immer so, dass ein Hersteller versucht, sich in ein gutes Licht zu rücken. Jetzt hat ATI RGSSAA und wird natürlich auch dessen Vorteile breit treten.

dildo4u
2010-01-16, 14:43:01
Ich denke nicht das NV gerade bei Tesslation besonders gut ist,sondern das ist eher so mit das Einzige wo man die Karte mal ohne SSAA vom CPU Limit weg bekommt.

Ailuros
2010-01-16, 14:49:37
Dass Nvidia in Sachen Tesselation plötzlich überlegen zu sein scheint, obwohl ATI damit über 2 Jahren wirbt, ist schon lustig.

Vor Evergreen gab es nur ff Tesselations-Einheiten in Radeons und nicht die volle DX11 Version mit hull und domain shader Zusatz. Nur in DX11 geht's um echte adaptive und programmierbare Tesselation.

Diese mythische ff Tesselations-Einheit ist so oder so eine relativ kleine Einheit. Es wuerde mich verdammt wundern wenn diese selbst auf RV870 mehr als 3-4% der insgesamten die area einnimmt.

Erinnert mich ein wenig an Shader 3.0 und die Geforce 6. Da wurde das auch von Nvidia als zukunftsweisend angeprisen und man war 1,5 Jahre früher dran als ATI. Als dann aber ATIs X1k-Serie kam, hat plötzlich ATI die SM3-Anwendungen dominiert (die Spiele, die davon massiv Gebrauch machten, liefen auf der Geforce 7 im Nachhinein sehr schlecht im Gegensatz zur X1900).

Ach R5x0 war nicht rein zufaellig schneller bzw. effizienter weil bei ihnen texturing von den ALUs total entkoppelt war oder dass ihre SIMDs in einer MIMD Logik miteinander verbunden waren?

Im Zweifelsfall erklaer mir sonst warum G80 dann spaeter den Hintern von jeglicher G7x so radikal versohlt hat. Die beiden Aenderungen waren auch rein zufaellig u.a. in G80 drin.

Es ist doch immer so, dass ein Hersteller versucht, sich in ein gutes Licht zu rücken. Jetzt hat ATI RGSSAA und wird natürlich auch dessen Vorteile breit treten.

Es ist ein einfacher Treiberhack in dem ATI mit Transparenz-Supersampling es einfach auf Vollbild erweitert. Beide IHVs haben schon seit Jahren rotated grid Transparenz-Supersampling.

Ich denke nicht das NV gerade bei Tesslation besonders gut ist,sondern das ist eher so mit das Einzige wo man die Karte mal ohne SSAA vom CPU Limit weg bekommt.

Ausser das obrige ist Sarkasmus, schmecken Dir Besen?

Gast
2010-01-16, 14:59:58
G8x/9x/2xx koennen auch unter gewissen Vorraussetzungen 1 Tri/clock bearbeiten, obwohl Realitaet und in der Mehrzahl der Faelle eher in Richtung 1Tri/2 clocks liegt.
Nur das bei RV870 das öfters der Fall sein sollte. Man beachte das Konjunktiv, ob da im Treiber oder gar auf Hardwareebene was im Argen liegt ist halt die Frage.

Gipsel
2010-01-16, 15:00:42
G8x/9x/2xx koennen auch unter gewissen Vorraussetzungen 1 Tri/clock bearbeiten, obwohl Realitaet und in der Mehrzahl der Faelle eher in Richtung 1Tri/2 clocks liegt.
Bei Cypress ist die Bedingung wohl, daß die Dreiecke mehr als 16 Pixel haben müssen, damit es mit den 2 Rasterizern wirklich gut funktioniert. Damit entschärfen die sich zum Großteil selbst, wenn durch hohe Geometrielast die Dreiecke klein werden. Da müßte also wirklich ein Setup mit 2 Tri/clock her. Keine Ahnung, warum Cypress das nicht hat, denn so verpufft das doch ziemlich.
Ich bleibe beim original vermittelten 2.2x bis mehr rauskommt. TMUs sind ein merkwuerdiges Fragezeichen fuer mich. Wenn sie aber tatsaechlich den core so hoch angelegt haben, dann erklaert es auch automatisch den hohen Stromverbrauch.
Nun, wenn die Gerüchte mit den lediglich 64 TMUs stimmen, ist eigentlich sicher, daß die mit hot clock laufen.
Man kann sich der Sache auch von der anderen Seite nähern. Es ist bekannt, daß ein SM ganze 16 Werte pro Takt über die L/S-Einheiten aus dem L1 laden kann. Der L1 ist praktisch identisch mit dem shared memory, der sogar noch eine größere Bandbreite aufweist. Die Latenz ist nicht wesentlich höher als die Register, so daß ich bezweifle, daß da eine Taktdomäne gekreuzt wird (allerhöchstens läuft der L1/shared memory mit halber hot clock). Da der L1 jetzt so dicht an den Ausführungseinheiten sitzt, können die Texturfilter nicht weiter weg sein (sitzen ja noch zwischen L1/shared memory und dem SM). Insofern können die TMUs praktisch gar nicht mit der Core-Frequenz laufen.

Übrigens, In die Richtung hat Coda auch schon bei B3D gedacht, 16 Werte pro Takt (was die L/S-Einheiten können) sind genau genug für 4 bilinear gefilterte Texel (in FP32). Dabei wird allerdings noch nicht mal ausgenutzt, daß man meist ein paar davon für die benachbarten Pixel mitbenutzen kann. Ich denke natürlich nicht, das Fermi das Filtering in den ALUs macht, aber eventuell hat man (oder zumindest nv über den Treiber) ja wirklich Zugriff auf die Filteralgorithmen, könnte also tatsächlich eine neue Welt für allerart von Optimierungen dort eröffnen.

Gast
2010-01-16, 15:01:21
Es ist ein einfacher Treiberhack in dem ATI mit Transparenz-Supersampling es einfach auf Vollbild erweitert. Beide IHVs haben schon seit Jahren rotated grid Transparenz-Supersampling.
Rotated-Grid != Sparse-Grid!

Gast
2010-01-16, 15:27:36
Goil- ich steh auf Polys :) (und Weiber- bevor wieder der übliche Schmäh kommt :))

Weiber mit schönen durch Tesselation erzeugten Rundungen?

Gast
2010-01-16, 15:43:11
Rotated-Grid != Sparse-Grid!

Falsch, ein Rotated-Grid kann ein Sparse Grid sein

Gast
2010-01-16, 15:44:08
Ja nur wird jetzt langsam die ATI Fraktion sich um 180 Grad drehen muessen denn Tesselation kann nicht wirklich so wichtig sein oder?


Unnötig reißerisch geschrieben. Zudem habe ich auch eine ATI und nie den Tesselations-Gaul geritten. Verallgemeinerungen sind generell etwas einfältig, wenn ich das anmerken darf.
Wichtig wird das ganze DX11 Paket vermutlich gar nie werden, da es schlicht an entsprechender Software mangeln wird. Oder sieht jemand einen Grund, warum die Spieleentwickler nun wieder den PC als Hauptplattform einspannen sollten? Mehr als aufgesetzte DX11 Schmankerl wird's größtenteils kaum geben. Karten oberhalb der 5770 sind nur mit massig AA/AF kleinzukriegen, für alles andere reicht heute jede 70€ Grafikkarte. So gesehen ist es völlig wurscht, was NV bringen wird, da der Spieleentwickler ohnehin keine Rücksicht darauf nehmen wird.

deekey777
2010-01-16, 15:44:51
RGSS ist schon eine tolle Sache. Ich will hoffen dass NV nicht so bloed ist und nicht auch TSAA auf Vollbild FSAA hacked.
Rotated-Grid != Sparse-Grid!
Ail hat wohl übersehen, dass es sich bei AAA um SGSSAA handeln soll.

Falsch, ein Rotated-Grid kann ein Sparse Grid sein
Die Muster bei vierfachem AA sollen tatsächlich gleich sein.

Gast
2010-01-16, 16:33:35
Mehr als aufgesetzte DX11 Schmankerl wird's größtenteils kaum geben.

Allerdings ist es gerade Tesselation die sehr einfach umsetzbar ist und man auch wunderbar auf Screenshots vorzeigen kann, weshalb es wohl eines der häufigsten DX11-Schmankerl werden wird ;)

Der_Korken
2010-01-16, 16:37:53
Ach R5x0 war nicht rein zufaellig schneller bzw. effizienter weil bei ihnen texturing von den ALUs total entkoppelt war oder dass ihre SIMDs in einer MIMD Logik miteinander verbunden waren?

Im Zweifelsfall erklaer mir sonst warum G80 dann spaeter den Hintern von jeglicher G7x so radikal versohlt hat. Die beiden Aenderungen waren auch rein zufaellig u.a. in G80 drin.


Woran es lag, dass R5x0 schneller als G7x war, ist mir bei dem Vergleich nicht wichtig. Es geht darum, dass Nvidia vorher kundgetan hat, sie hätten wegen SM3.0 den zukunftsweisenderen Chip. ATI hat dann allerdings mit ihrem ersten SM3-Chip alle vorherigen Nvidia-Chips getoppt, besonders was die SM3-Leistung angeht. Zum Launchzeitpunkt waren die beiden IHVs etwa gleichauf im Highend-Bereich, aber je neuer die Spiele, desto mehr haben die Nvidia-Chips vor dem G80 an Boden verloren. Dass das jetzt an entkoppelten TMUs, etc. lag, darauf will ich nicht hinaus, sondern darauf, dass Nvidia SM3 lange vor ATI hatte, aber keinen Nutzen davon hatten.

So, und genauso ist es imho mit der Tesselation. Da hat ATI immer gesagt, Tesselation sei die Zukunft und ihre Chips wären darauf schon vorbereitet. Und nun bringt Nvidia einen Chip, der viel besser Tesselation beherrscht als alle ATI-Karten. Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.

(Eigentlich wollte ich das nicht so weit ausführen, da OT.)

Gast
2010-01-16, 16:41:06
Woran es lag, dass R5x0 schneller als G7x war, ist mir bei dem Vergleich nicht wichtig. Es geht darum, dass Nvidia vorher kundgetan hat, sie hätten wegen SM3.0 den zukunftsweisenderen Chip. ATI hat dann allerdings mit ihrem ersten SM3-Chip alle vorherigen Nvidia-Chips getoppt, besonders was die SM3-Leistung angeht. Zum Launchzeitpunkt waren die beiden IHVs etwa gleichauf im Highend-Bereich, aber je neuer die Spiele, desto mehr haben die Nvidia-Chips vor dem G80 an Boden verloren. Dass das jetzt an entkoppelten TMUs, etc. lag, darauf will ich nicht hinaus, sondern darauf, dass Nvidia SM3 lange vor ATI hatte, aber keinen Nutzen davon hatten.

So, und genauso ist es imho mit der Tesselation. Da hat ATI immer gesagt, Tesselation sei die Zukunft und ihre Chips wären darauf schon vorbereitet. Und nun bringt Nvidia einen Chip, der viel besser Tesselation beherrscht als alle ATI-Karten. Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.

(Eigentlich wollte ich das nicht so weit ausführen, da OT.)

jetzt wart ma erstmal was fermi wirklich kann bevor hier medallien vergeben werden.

Gast
2010-01-16, 16:48:29
Allerdings ist es gerade Tesselation die sehr einfach umsetzbar ist und man auch wunderbar auf Screenshots vorzeigen kann, weshalb es wohl eines der häufigsten DX11-Schmankerl werden wird ;)

1.) Stimmt das nicht, die Modelle müssen aufwändig dafür angepasst werden.
2.) Ist die Tesselationsunit der Radeons alles andere als schwach. Hier keimte lediglich das Gerücht auf, jene von Fermi sei schnell, gleichzeitig wurde die der Radeon langsam. Warum auch immer.

Gast
2010-01-16, 16:52:51
Und nun bringt Nvidia einen Chip, der viel besser Tesselation beherrscht als alle ATI-Karten. Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.


Woher bitteschön willst Du das wissen? Anhand von welchen Indikatoren machst Du fest, dass die von Fermi schnell und jene der Radeon langsam sei? Anhand der Größe der Protuberanzen?

=Floi=
2010-01-16, 16:59:19
zumindest scheinen sich die wolken zu lichten.

es wäre schon faszinierend, wenn es bei crysis "nur" am tri setup scheitern würde und man dadurch dann ausgerechnet bei diesem spiel eine überproportionale steigerung im vergleich zum GT200 hätte.

Dural
2010-01-16, 17:00:35
Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.


genau genommen doch seit R5xx / 360er GPU

deekey777
2010-01-16, 17:09:03
zumindest scheinen sich die wolken zu lichten.

es wäre schon faszinierend, wenn es bei crysis "nur" am tri setup scheitern würde und man dadurch dann ausgerechnet bei diesem spiel eine überproportionale steigerung im vergleich zum GT200 hätte.
Milchmädchenrechnung: 3 Mio Polys/Bild sind bei 60 FPS 180 MPolys/s...
So einfach ist das aber nicht, schließlich spuckt eine Radeon seit dem R600 ein Dreieck pro Takt aus. Es höheres Tri-Setup bringt zunächst nichts, wenn es eh auf den Rest der Pipeline ankommt (insbesondere die Pixelshader-Leistung). Es wäre interessant zu sehen, wenn die Tester die Grafik so herunterschraubt, dass es keinen Abfall an Polys/s gibt, und dann den Fermi gegen den GT200 testet.

AnarchX
2010-01-16, 17:33:17
Fermi GF-100 NDA Ends Tomorrow at 9 PM – Sunday, 1/17/201 (http://alienbabeltech.com/main/?p=14549)

Also wohl wie üblich 15 Uhr MEZ.

Der_Korken
2010-01-16, 17:37:33
Woher bitteschön willst Du das wissen? Anhand von welchen Indikatoren machst Du fest, dass die von Fermi schnell und jene der Radeon langsam sei? Anhand der Größe der Protuberanzen?

Irgendwo im Thread wurde diesbezüglich eine Vermutung angestellt. Natürlich kann ich das nicht genau wissen und ich weiß, dass es wohl falsch rübergekommen ist. Mein erster Beitrag bezog sich auf folgenden Satz:

Ja nur wird jetzt langsam die ATI Fraktion sich um 180 Grad drehen muessen denn Tesselation kann nicht wirklich so wichtig sein oder?


Darauf hab ich nur angemerkt, dass man - falls es kommen sollte - Parallelen zur SM3-Unterstützung und der Geforce 6/7 sehen kann.

pXe
2010-01-16, 17:47:37
Fermi GF-100 NDA Ends Tomorrow at 9 PM – Sunday, 1/17/201 (http://alienbabeltech.com/main/?p=14549)

Also wohl wie üblich 15 Uhr MEZ.

Aber erstmal gibs nur Folienbilder/Infos und keine unabhängigen (sprich selbst getesteten) Benchmarks oder?

pXe

Gast
2010-01-16, 17:54:18
Fermi GF-100 NDA Ends Tomorrow at 9 PM – Sunday, 1/17/201 (http://alienbabeltech.com/main/?p=14549)

Also wohl wie üblich 15 Uhr MEZ.

Aber wäre 1/17/2010, 9 PM nicht Montag 03:00 unserer Zeit?

AnarchX
2010-01-16, 18:00:07
Das stimmt natürlich und nicht gerade die beste Zeit für die Europäer.

Gast
2010-01-16, 18:00:44
Fermi GF-100 NDA Ends Tomorrow at 9 PM – Sunday, 1/17/201 (http://alienbabeltech.com/main/?p=14549)

Also wohl wie üblich 15 Uhr MEZ.


An einem Sonntag ?! Wie komisch ist das denn ?

Gast
2010-01-16, 18:01:07
So, und genauso ist es imho mit der Tesselation. Da hat ATI immer gesagt, Tesselation sei die Zukunft und ihre Chips wären darauf schon vorbereitet. Und nun bringt Nvidia einen Chip, der viel besser Tesselation beherrscht als alle ATI-Karten. Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.
Die von ATI vorher entwickelten/benutzen Tessellationeinheiten hatten auch mit denen dann für DX11 wirklich benötigten Einheiten bis auf das grundsätliche Funktionsprinzip nicht mehr viel zu tun.

Die Tessellationeinheiten vor RV870 hätte sich ATI einfach sparen können.

2.) Ist die Tesselationsunit der Radeons alles andere als schwach. Hier keimte lediglich das Gerücht auf, jene von Fermi sei schnell, gleichzeitig wurde die der Radeon langsam. Warum auch immer.
Weil es eben Leute gibt die mehr wissen, aber umso weniger verraten dürfen ;)

Woher bitteschön willst Du das wissen? Anhand von welchen Indikatoren machst Du fest, dass die von Fermi schnell und jene der Radeon langsam sei? Anhand der Größe der Protuberanzen?
s.o. :)

Gast
2010-01-16, 18:06:55
Falsch, ein Rotated-Grid kann ein Sparse Grid sein
Richtig, aber hier gehts aber um Sparse-Grid, daher ist Verallgemeinerung falsch ;)

deekey777
2010-01-16, 18:15:02
...

Die Tessellationeinheiten vor RV870 hätte sich ATI einfach sparen können.

...


s.o. :)
Die TU ist fester Bestandteil des R400-Designs, auf dem der Xenos und alles ab R600 basieren, und ließ sich nicht so einfach entfernen.

Gast
2010-01-16, 18:20:43
Die TU ist fester Bestandteil des R400-Designs, auf dem der Xenos und alles ab R600 basieren, und ließ sich nicht so einfach entfernen.
Mag sein, war dennoch unsinnig, alles in allem.

Gast
2010-01-16, 18:53:44
Mag sein, war dennoch unsinnig, alles in allem.

Das einzige was unsinnig ist, sind deine Beiträge.

tombman
2010-01-16, 18:53:50
Aber wäre 1/17/2010, 9 PM nicht Montag 03:00 unserer Zeit?
Nur wenns Ostküste ist. Bei Westküste wäre es Montag, 6 Uhr Früh bei uns :(

Gast
2010-01-16, 18:59:16
Das einzige was unsinnig ist, sind deine Beiträge.
Hui und das auch noch so dermaßen sachlich untermauert :D

Was hatten die Tessellationeinheiten vor dem RV870 denn jetzt für einen Sinn? Außer nen paar Techdemos gab es da doch gar nix.

Gast
2010-01-16, 19:05:56
es ist voraussetzung für dx11.

Gast
2010-01-16, 19:10:15
Hui und das auch noch so dermaßen sachlich untermauert :D

Was hatten die Tessellationeinheiten vor dem RV870 denn jetzt für einen Sinn? Außer nen paar Techdemos gab es da doch gar nix.

Wie kommt MS überhaupt auf die Idee eine Technik in DX zu implementieren, die niemand entwickelt hat?

AnarchX
2010-01-16, 19:19:51
Was hatten die Tessellationeinheiten vor dem RV870 denn jetzt für einen Sinn? Außer nen paar Techdemos gab es da doch gar nix.
Bei Xenos wird sie in einigen wenigen Titeln genutzt.

btw.
Hier ein Beispiel, wie Cypress wohl von einem besseren Setup bzw. 2 Tri/Clock profitieren könnten:
http://www.xbitlabs.com/misc/picture/?src=/images/video/radeon-hd5770-hd5750-crossfirex/diagr/23_57vs58aa_big.png&1=1
Trotzt AFR-Verlusten kann sich das 5770-Crossfire bis zu 26% von der HD 5870 absetzen.

Gast
2010-01-16, 19:23:28
Nur wenns Ostküste ist. Bei Westküste wäre es Montag, 6 Uhr Früh bei uns :(

Und da Nvidias HQ und die CES sich in der PT/PST befinden, ist es ziemlich wahrscheinlich, dass es um 0600 CET (des darauf folgenden Tages, also am Montag) "stattfindet". ;)

Gast
2010-01-16, 19:26:08
es ist voraussetzung für dx11.
Und RV6* und RV7* können DX11 und benötigen daher einen Tessellator? ;)

Naitsabes
2010-01-16, 19:32:10
Tesselation war bereits für DX10 geplant, wurde dann aber recht früh verworfen.
Vermutlich war es da aber schon zu spät, um die TU wieder zu entfernen --> sie blieb in R6** und RV7** enthalten

Tesseract
2010-01-16, 19:37:56
Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.
seit dem R200 um genau zu sein.

Gast
2010-01-16, 19:43:44
trueform hat aber mit der heutigen tesselation nicht mehr wirklich viel zu tun.

Gast
2010-01-16, 19:48:22
trueform hat aber mit der heutigen tesselation nicht mehr wirklich viel zu tun.

Es hieß Truform

Gast
2010-01-16, 19:51:50
Es hieß Truform
Es heißt ja auch tessellation - mit zwei S und zwei L ;)

deekey777
2010-01-16, 19:53:05
trueform hat aber mit der heutigen tesselation nicht mehr wirklich viel zu tun.
Geht es wirklich um die Tessellation?

Der R200 ist die Basis für den R300 und aufwärts. Der R400 dagegen für den R600 und den Xenos.

Gast
2010-01-16, 20:02:50
Die GTX 360 wird aber wohl kaum 250 € kosten, oder? Eher 299 €? Oder anders gefragt: Wenn selbst die GTX 360 auf HD 5870-Niveau sein sollte, wo bleibt die HD 5850-Konkurrenz?

Gast
2010-01-16, 20:23:32
Die GTX 360 wird aber wohl kaum 250 € kosten, oder? Eher 299 €? Oder anders gefragt: Wenn selbst die GTX 360 auf HD 5870-Niveau sein sollte, wo bleibt die HD 5850-Konkurrenz?

Oder die Konkurrenz zur 5770, 5750, 5670, 5650,... und die ganzen Mobile Konkurrenz auf Fermi Basis. Das wir wohl nichts vor ende 2010 oder 2011... mit DX11 von NV für alle.

Selbst wenn der Fermi Top wird ist der Rest der Produktpalette Hoffnungslos veraltet und unattraktiv.

Dann gibt es nochmals eine Umbenennen Aktion und alle nv- Fanboys sind glücklich, weil nv ja die schnellste Single- Karte hat, das ist ja das wichtigste.

Ich hoffe die OEMs zeigen nv mal wo es lang geht, denn sonst wird das nichts mehr mit nv.

Dimon
2010-01-16, 20:25:59
Ich denke das Nvidia die Mainsteam Grakas 2-3 Monate später bringen wird.... Das ganze auf Fermi basis versteht sich..

Gast
2010-01-16, 20:27:36
Oder die Konkurrenz zur 5770, 5750, 5670, 5650,... und die ganzen Mobile Konkurrenz auf Fermi Basis. Das wir wohl nichts vor ende 2010 oder 2011... mit DX11 von NV für alle.
Ich denk die ersten Mainstreamprodukte gibt es im Sommer 2010.

Und OEMs verbauen besonders gern die ganz kleinen Modelle, wen interessiert da ob DX11 oder 10.1?

Lu
2010-01-16, 20:29:44
Bei einer möglichen umbennenungs Aktion könnten die ganzen Oem´s aber nicht mit DX 11 werben und dadurch würden die ganzen MM Dau´s zu den Rechnern mit Ati´s greifen also denke ich wird das nur in einem kleinen Rahmen ablaufen (Nvidia Umlabellung).

Noebbie
2010-01-16, 20:30:20
da ob DX11 oder 10.1?

Der klassische Blödmarkt Kunde der auf dem Prospekt nun eine 11 und keine 10 mehr sieht. Ist dann halt toller unzo... :rolleyes:

fdk
2010-01-16, 20:30:36
Das interessiert alle die von ihrem MM/Saturn "Berater" erzählt bekommen das die neue dx11 Karte mit 64bit SI zukunftssicher sei:freak:.

3 Dumme, 1 Gedanke^^

Gast
2010-01-16, 20:31:24
Der klassische Blödmarkt Kunde der auf dem Prospekt nun eine 11 und keine 10 mehr sieht. Ist dann halt toller unzo... :rolleyes:
Die interessiert vorallem so ein blöder "Win 7"-Aufkleber, den es auch mit DX10.1 gibt. Als ob irgendein Blödmarktkunde weiß, was DX ist ;)

Ronny145
2010-01-16, 20:31:35
Und OEMs verbauen besonders gern die ganz kleinen Modelle, wen interessiert da ob DX11 oder 10.1?

Oh doch, gerade da zählen Features. Nutzen ist erstmal zweitrangig, hauptsache man kann mit DX11 werben.

Gast
2010-01-16, 20:32:47
Der Verkäufer erzählt aber auch notfalls warum die 1000Mhz oder 1GiB wichtiger sind als D3D11.

Ronny145
2010-01-16, 20:35:42
Die Speichergröße ist natürlich auch wichtig, am besten 2 GB.

Gast
2010-01-16, 20:35:46
Der Verkäufer erzählt aber auch notfalls warum die 1000Mhz oder 1GiB wichtiger sind als D3D11.

Klar aber wenn die Karte alle 3 Dinge besitzt ist es doch viel überzeugender;)

Gast
2010-01-16, 20:40:06
lol :D, jetzt hört mal auf damit. Ich wollt doch nur wissen, ob es sich noch lohnt, auf Fermi zu warten. Mein Budget liegt bei 230 € max. Sofern die GTX 360 aber schon 300 € kosten sollte, würde ich sicherlich nicht mehr warten. Wenn sie erst ab April erhältlich sein sollte, sowieso nicht.

Gast
2010-01-16, 20:46:48
Ich denke das Nvidia die Mainsteam Grakas 2-3 Monate später bringen wird.... Das ganze auf Fermi basis versteht sich..

Daraus wird wohl nichts werden dann im Mobilenbereich sind die 200er Serie bereits umgelabelt worden. Ergo wird es keinen Fermi Mobile geben genauso wie es der GT200(b) nicht gibt/geben wird.

Vor allem die kleinen (GT310- GT350) brauchen kein GPGPU und ECC somit ist das Chipdesign entweder teuer oder benötigt ein längeres Redesign... ergo dauert es wohl länger als 2- 3 Monate. Zudem sind bisher noch keine Info's aufgetaucht, also existieren bisher offiziell auch noch keine.

Der Fermi wird noch zeigen in welchem Schlamassel nv steckt, ein Monsterchipdesign ist und beleibt ineffizent/teuer. Auch wenn einige drauf schwören, aber die 20% mehr Performance ist der Preis den man Zahlt (im Sinne von Yield, Stromverbrauch, Wärme und Kosten für den Kunden) nicht Wert.

Der Fermi ist der letzte seiner Art. nv wird das Konzept von ATI übernehmen (müssen), sonst werden sie nur verlieren können. nv Pokert mit diese Strategie langfristig immer hoch, hohes Risiko und wenig Gewinnchancen.

Jetzt werden wieder einige User meckern sie wollen Performance um jeden Preis, aber die Wii hat es vorgemacht Ihr seit die Minderheit und die Mehrheit gibt die Marschrichtung vor.

Gast
2010-01-16, 20:53:29
lol :D, jetzt hört mal auf damit. Ich wollt doch nur wissen, ob es sich noch lohnt, auf Fermi zu warten. Mein Budget liegt bei 230 € max. Sofern die GTX 360 aber schon 300 € kosten sollte, würde ich sicherlich nicht mehr warten. Wenn sie erst ab April erhältlich sein sollte, sowieso nicht.

Ein Fermi in der Preisklasse 230€ kannst du (vorerst) vergessen, du kannst nur hoffen das die 5850er billiger wird. Wenn der Fermi der Oberhammer werden sollte, was ich nicht glaube, dann könnte die 5870er evt. unter 250€ fallen.

Ich bin auch den Fermi gespannt und die 5890er, zum Release der Fermi wird ATI bestimmt noch ein Treiber raus hauen der noch in dem eine oder anderem Game eine Schub bringt.

fizzo
2010-01-16, 20:53:37
lol :D, jetzt hört mal auf damit. Ich wollt doch nur wissen, ob es sich noch lohnt, auf Fermi zu warten. Mein Budget liegt bei 230 € max. Sofern die GTX 360 aber schon 300 € kosten sollte, würde ich sicherlich nicht mehr warten. Wenn sie erst ab April erhältlich sein sollte, sowieso nicht.

Da sind wir schon zwei, meine Schmergrenze liegt jedoch bei 200 €!

=Floi=
2010-01-16, 20:54:50
@gast
vergiss deine gedanken einfach. datriffts nichts zu und die hoax mit dem wundertreiber kannst du auch vergessen. immer der gleiche mist. :rolleyes:

Gast
2010-01-16, 20:55:08
Da sind wir schon zwei, meine Schmergrenze liegt jedoch bei 200 €!

lol! worauf wartest du dann noch ?

Gast
2010-01-16, 20:55:23
Klar aber wenn die Karte alle 3 Dinge besitzt ist es doch viel überzeugender;)5670 hat nur 512MiB. ;)

fizzo
2010-01-16, 21:00:06
lol! worauf wartest du dann noch ?

Auf den den Releas des Fermi, damit endlich eine Art von Preiskampf stattfindent und man mehr Leistung für seine Euros bekommt?

Edit: Sollte zeitnah eine potente GT350 erscheinen wäre diese natürlich auch eine Option!

Ailuros
2010-01-16, 21:42:29
Bei Cypress ist die Bedingung wohl, daß die Dreiecke mehr als 16 Pixel haben müssen, damit es mit den 2 Rasterizern wirklich gut funktioniert. Damit entschärfen die sich zum Großteil selbst, wenn durch hohe Geometrielast die Dreiecke klein werden. Da müßte also wirklich ein Setup mit 2 Tri/clock her. Keine Ahnung, warum Cypress das nicht hat, denn so verpufft das doch ziemlich.

Bei Fermi sind es 4r <--> 12p/r.

Nun, wenn die Gerüchte mit den lediglich 64 TMUs stimmen, ist eigentlich sicher, daß die mit hot clock laufen.

Nicht unbedingt. Wenn ALU:TMU tatsaechlich auf 2:1 liegt koennte die Core-Frequenz locker bei =/>700MHz liegen.

Man kann sich der Sache auch von der anderen Seite nähern. Es ist bekannt, daß ein SM ganze 16 Werte pro Takt über die L/S-Einheiten aus dem L1 laden kann. Der L1 ist praktisch identisch mit dem shared memory, der sogar noch eine größere Bandbreite aufweist. Die Latenz ist nicht wesentlich höher als die Register, so daß ich bezweifle, daß da eine Taktdomäne gekreuzt wird (allerhöchstens läuft der L1/shared memory mit halber hot clock). Da der L1 jetzt so dicht an den Ausführungseinheiten sitzt, können die Texturfilter nicht weiter weg sein (sitzen ja noch zwischen L1/shared memory und dem SM). Insofern können die TMUs praktisch gar nicht mit der Core-Frequenz laufen.

Bist Du sicher dass bei der Bandbreite es ein Problem sein koennte?

Übrigens, In die Richtung hat Coda auch schon bei B3D gedacht, 16 Werte pro Takt (was die L/S-Einheiten können) sind genau genug für 4 bilinear gefilterte Texel (in FP32). Dabei wird allerdings noch nicht mal ausgenutzt, daß man meist ein paar davon für die benachbarten Pixel mitbenutzen kann. Ich denke natürlich nicht, das Fermi das Filtering in den ALUs macht, aber eventuell hat man (oder zumindest nv über den Treiber) ja wirklich Zugriff auf die Filteralgorithmen, könnte also tatsächlich eine neue Welt für allerart von Optimierungen dort eröffnen.

Argghhhh nein danke.

Unnötig reißerisch geschrieben. Zudem habe ich auch eine ATI und nie den Tesselations-Gaul geritten. Verallgemeinerungen sind generell etwas einfältig, wenn ich das anmerken darf.

Natuerlich darfst Du es anmerken und ich hab auch nichts dagegen. Wenn ich nicht schon eine Tendenz in anderen Foren sehen wuerde, haette ich es nicht erwaehnt. Da ich persoenlich Tesselation nie untermauert habe, goenne ich mir aber auch den Kommentar.


Wichtig wird das ganze DX11 Paket vermutlich gar nie werden, da es schlicht an entsprechender Software mangeln wird. Oder sieht jemand einen Grund, warum die Spieleentwickler nun wieder den PC als Hauptplattform einspannen sollten? Mehr als aufgesetzte DX11 Schmankerl wird's größtenteils kaum geben. Karten oberhalb der 5770 sind nur mit massig AA/AF kleinzukriegen, für alles andere reicht heute jede 70€ Grafikkarte. So gesehen ist es völlig wurscht, was NV bringen wird, da der Spieleentwickler ohnehin keine Rücksicht darauf nehmen wird.

Der PC ist anderen Platformen stets technisch voraus. Was jetzt zukuenftige Konsolen beinhalten werden ueberlasse ich Deiner Phantasie. IHVs richten sich nachdem was erstmal das API vorausetzt und hoeren auf Entwickler was diese haben wollen.

Gast
2010-01-16, 21:45:47
Nvidia muss sich anstrengen, viel werden Sie nicht mehr aus dem G80 rausholen können, der GT200 war damals auch kein Monster! Ich denke Nvidia geht den falschen weg, Sie brauchen was neues kleines, das bei kleiner Fläche schneller als das große ist.

Zu AMD/ATI
Vielleicht kommt noch ein Refresh mit mehr Streamprozessoren?
der RV670 & RV770 sind beide in 55nm, bei den RV770 hat man die SP verdoppelt, vielleicht kann man den RV870 zu RV970 auch die SP nochmals verdoppeln bei ähnlicher Chipgröße? Dann hätte man wieder ein neues Design, aber stärkere Leistung. Was haltet ihr von 3200 SPs für den RV970 in 40nm?

Auch wenn Roadmaps für 2011 eine neue Generation sprechen, ist ein Refresh nicht ausgeschlossen oder

nagus
2010-01-16, 21:54:50
GF100 Vantage score ~P22K, 104 ~P15K (http://www.xtremesystems.org/forums/showpost.php?p=4201888&postcount=1034)

... laut "neliz" im xtremesystems forum.

btw, eine 5870er mit 8800für füsiks hat 20500. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7722886&postcount=583)

danke @derguru

LuXon
2010-01-16, 21:56:37
der RV670 & RV770 sind beide in 55nm, bei den RV770 hat man die SP verdoppelt, vielleicht kann man den RV870 zu RV970 auch die SP nochmals verdoppeln bei ähnlicher Chipgröße? Dann hätte man wieder ein neues Design, aber stärkere Leistung. Was haltet ihr von 3200 SPs für den RV970 in 40nm?

Und der Chip wäre grösser als der Fermi.....
In 28nm so ein Chip möglich (ist aber erst ab 2011 verfügbar). Unter 40nm können die den Chip nicht noch grösser machen.

Ailuros
2010-01-16, 22:00:10
Woran es lag, dass R5x0 schneller als G7x war, ist mir bei dem Vergleich nicht wichtig.

Mir aber schon denn ich vergleiche nicht gerne Aepfel mit Birnen.

Es geht darum, dass Nvidia vorher kundgetan hat, sie hätten wegen SM3.0 den zukunftsweisenderen Chip. ATI hat dann allerdings mit ihrem ersten SM3-Chip alle vorherigen Nvidia-Chips getoppt, besonders was die SM3-Leistung angeht.

R5x0 war eben nicht schneller weil sie irgend ein merkwuerdiges "besseres" SM3.0 hatten, sondern andere architektur-bedingte Vorspruenge die NV spaeter nachholen musste. Wenn man dieses nicht verstehen kann, dann wird der eigentliche Grund auch "irrelevant".

Zum Launchzeitpunkt waren die beiden IHVs etwa gleichauf im Highend-Bereich, aber je neuer die Spiele, desto mehr haben die Nvidia-Chips vor dem G80 an Boden verloren. Dass das jetzt an entkoppelten TMUs, etc. lag, darauf will ich nicht hinaus, sondern darauf, dass Nvidia SM3 lange vor ATI hatte, aber keinen Nutzen davon hatten.

Siehe oben.

So, und genauso ist es imho mit der Tesselation. Da hat ATI immer gesagt, Tesselation sei die Zukunft und ihre Chips wären darauf schon vorbereitet.

Fixed function Tesselation steckt selbst im Xenos drin. DX11 Tesselation hatte vor der Evergreen Familie keine Radeon.

Und nun bringt Nvidia einen Chip, der viel besser Tesselation beherrscht als alle ATI-Karten. Auch hier hat ATI nichts davon gehabt, seit R600 damit rumzuexperimentieren.

Zum Zeitpunkt wo die DX10 drafts angefangen haben steckte zuerst Tesselation drin. Diese wurde mit der Zeit immer weniger programmierbarer und stand am Ende nur noch als optionale ff Tesselations-Einheit drin bis man das Ding total beim finalen DX10 gestrichen hat. Nichtdestominder gab es IHVs wie ATI die das Ding schon in ihren zukuenftigen Architekturen hatten (dank der vorerwaehnten drafts) und es waere teurer gewesen das Zeug zu entfernen als es drinnen zu lassen.

Es wurde schon zich Male erwaehnt von ATI fans dass ATI angeblich schon langjaehrige Erfahrung mit Tesselation hat. Das dieses natuerlich Bloedsinn ist muss ich wohl nicht erwaehnen.

AnarchX
2010-01-16, 22:01:30
GF100 Vantage score ~P22K, 104 ~P15K (http://www.xtremesystems.org/forums/showpost.php?p=4201888&postcount=1034)

... laut "neliz" im xtremesystems forum.

Noch ein paar andere interessante Behauptungen:
64 Quad TMU's (GT200 has 80 dual TMUs I THINK, RV870 has 80 Quad TMUs)
Die 80 Quad-TMUs bei RV870 sind zwar falsch, da es entweder 20 Quad-TMUs oder 80 TFs sind. Aber vielleicht meint er GF100 hat 64 TAs und 256TFs? ;D


There's a bigger difference between GF104 and GF100 than beteween Cypress XT and Cypress Pro.


Zu den Taktraten:
one is 725, one is 750 (i hope I'm not reading fake fact sheets now btw)

Ailuros
2010-01-16, 22:04:57
Wenn er recht hat dann ist GF104 wohl eher die halbe GF100 die schon ihren tape out hatte. Wenn ja dann ist das Ding glaube ich 375mm2 gross (8 cluster glaub ich).

Den Quark mit den quad/dual TMUs versteht er aber wohl auch nur selber (muss ihn mal an die Leine nehmen...)

750/1500 (falls das 1:2 Zeug stimmt) ist aber verdammt anstaendig als Frequenz wenn es stimmt.

AnarchX
2010-01-16, 22:10:49
Wenn er recht hat dann ist GF104 wohl eher die halbe GF100 die schon ihren tape out hatte. Wenn ja dann ist das Ding glaube ich 375mm2 gross (8 cluster glaub ich).

Bei 375mm² für 8 Cluster 256-Bit müsste ja der gesamte Block zwischen den beiden Clusterblöcken bestehen bleiben, was imo nicht wirklich sein kann.
Bei 375mm² sind es eher 4x 3 Cluster also 384SPs, wofür auch der Unterschied von P15 zu P22 für den 512SP GF100 sprechen würde.

Ailuros
2010-01-16, 22:24:40
Nachdem was ich hoerte sollte sich der quasi halbe GF100 zwischen Juniper und Cypress plazieren. Ein 8 cluster chip wird garantiert nicht 550/2 am Ende sein und fuer 12 sind die 375 viel zu wenig IMO.

AnarchX
2010-01-16, 22:34:12
Wenn er gar nur 192-Bit GDDR5 hat, wären 375mm² ausgehend von ~550mm² eine extrem bescheidene Skalierung.
Die perfekte Skalierung von Cypress (334mm²) zu Juniper (166mm²) zu erreichen dürfte natürlich schwer sein. Aber 68% wären doch nicht gerade rühmend für eine neue Architektur, deren Bestandteile(Rasterizer, Caches,...) noch viel mehr mit den Einheiten skalieren sollten und die Grundbestandteile noch viel weniger am Gesamttransitorcount ausmachen sollten, als bei vorherigen GPUs.

Ailuros
2010-01-16, 22:36:14
Ich hab nichts von Busbreite gesagt. Wieso kann man theoretisch 24 ROPs nicht an einen 256bit Bus schnallen?

Wie dem auch sei 750 steht fuer's kleinere Dingsbums. Mehr bei seiner naechsten Antwort.

***edit: ich sah gerade dass er einen seiner posts bei B3D editierte. Trinib hat ihn aber noch zitieren koennen und seine Schaetzung fuer 384SPs/32TMUs hakt schon mal an der Anzahl der TMUs, ergo wohl nur pure Spekulation.

aths
2010-01-16, 22:58:58
Nvidia muss sich anstrengen, viel werden Sie nicht mehr aus dem G80 rausholen können, der GT200 war damals auch kein Monster!Eben doch – in 65 nm hergestellt, sehr teuer, aber auch recht viel Leistung.

Ich denke Nvidia geht den falschen weg, Sie brauchen was neues kleines, das bei kleiner Fläche schneller als das große ist.Das bieten dann später die kleineren Ableger.


btw.
PHK behauptet (http://bbs.expreview.com/thread-26715-1-1.html), Core zu SP-Frequenz läge bei 1:2.
Dadurch ergäbe sich bei >=1.4GHz SPs bei angenommenen 8TFs pro Cluster doch eine brauchbare Texelfüllrate.Wenn Nvidia bisher etwas nicht vernachlässigt hat, ist das die Texelfüllrate.

Dural
2010-01-17, 00:21:06
Zu AMD/ATI
Vielleicht kommt noch ein Refresh mit mehr Streamprozessoren?
der RV670 & RV770 sind beide in 55nm, bei den RV770 hat man die SP verdoppelt


Rechnen ist schon schwer he? 320 vs 800 SP verdoppelt :freak:

GF100 Vantage score ~P22K, 104 ~P15K (http://www.xtremesystems.org/forums/showpost.php?p=4201888&postcount=1034)

... laut "neliz" im xtremesystems forum.

btw, eine 5870er mit 8800für füsiks hat 20500. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7722886&postcount=583)

danke @derguru

wann hört ihr den jetzt endlich mit disem blödsinn von vergleichen auf??? jeder der diesen vergleich da oben erst nimmt ist ja nicht ganz beisammen (sorry ist aber die wahrheit!!!)

Gipsel
2010-01-17, 00:26:45
Bei Fermi sind es 4r <--> 12p/r.
Sicher mit den 12p/r? Wäre ein wenig eigenartig damit 32er Warps füllen zu wollen.
Nicht unbedingt. Wenn ALU:TMU tatsaechlich auf 2:1 liegt koennte die Core-Frequenz locker bei =/>700MHz liegen.2:1 wäre wie gesagt die einzige Alternative, wobei das dann ziemlich sicher 128 statt nur 64 wären. Das wäre dann auch ein sehr sicheres Zeichen, daß shared memory/L1 auch nur mit halber hot clock laufen.
Bist Du sicher dass bei der Bandbreite es ein Problem sein koennte?Da hast Du mich mißverstanden. Bandbreite ist überhaupt kein Problem, die ist dank des schnellen und großen L1 im Überfluß da. Es geht eher um die Frage, wieviel Hardware bei welchem Takt nvidias Transistoren- und Powerbudget hergibt. Nur 64 TMUs auf hotclock, 128 TMUs auf halber hotclock oder was ganz Verrücktes, 128 bilineare Filtereinheiten auf hotclock, das würde die L1-Bandbreite nämlich auch hergeben.
Argghhhh nein danke.Das war kein Wunsch, das war eine Mischung aus Befürchtung vor Filter"optimierungen" und der Neugier, ob sich irgendwer mal an (in Grenzen) programmierbare TMUs traut.
Noch ein paar andere interessante Behauptungen:

Die 80 Quad-TMUs bei RV870 sind zwar falsch, da es entweder 20 Quad-TMUs oder 80 TFs sind. Aber vielleicht meint er GF100 hat 64 TAs und 256TFs? ;D
Fermi hat 256 TAs (L/S-Einheiten). Und dazu wahrscheinlich entweder 64 TFs auf hotclock oder eben 128 TFs auf halber hotclock (eventuell identisch zum Coretakt). Die Steigerung des TA/TF Verhältnisses kann man wohl mit GPGPU begründen, da dort deutlich häufiger ungefilterte Daten geladen werden müssen. Aber ein wenig sieht das für mich nach Overkill aus, zumindest wenn man es mal mit Cypress vergleicht ;). Mal sehen, was es genau ist und was es dann bringt.

Gipsel
2010-01-17, 00:40:20
Vielleicht kommt noch ein Refresh mit mehr Streamprozessoren?
Ich wäre ja dafür, noch mal 800 SPs mitsamt drittem Rasterizer ranzuklatschen, das Setup auf 3 Tris/clock aufzubohren, das Ganze mit einem 384bit Interface aufpeppen und im September bei GF auf 260mm² in 28nm zu backen :freak:
vielleicht kann man den RV870 zu RV970 auch die SP nochmals verdoppeln bei ähnlicher Chipgröße? Dann hätte man wieder ein neues Design, aber stärkere Leistung. Was haltet ihr von 3200 SPs für den RV970 in 40nm?
Northern Islands wird größere Veränderungen haben. Anscheinend bleibt man prinzipiell beim VLIW-Aufbau, allerdings wird die 5. Einheit stärker entkoppelt und ähnelt dann eher den SFUs von nvidia. Sie wird wohl deutlich weniger von den normalen Instruktionen der Vektoreinheiten ausführen können.
Ich hab nichts von Busbreite gesagt. Wieso kann man theoretisch 24 ROPs nicht an einen 256bit Bus schnallen?Weil die ROPs ziemlich stark mit dem Speichercontroller und dem L2 verwoben sind. Die Zuordnung zu den ROPs erfolgt üblicherweise (genau wie der L2) über die Speicheradresse, so daß bei Verkleinerung des Speicherinterfaces notgedrungen auch die zugehörigen ROPs wegfallen. Theoretisch kann man das natürlich auch anders machen, das ist dann aber aufwendiger.

Coda
2010-01-17, 01:21:15
Ich wäre ja dafür, noch mal 800 SPs mitsamt drittem Rasterizer ranzuklatschen, das Setup auf 3 Tris/clock aufzubohren, das Ganze mit einem 384bit Interface aufpeppen und im September bei GF auf 260mm² in 28nm zu backen :freak:
Und es dann noch schlechter skaliert als jetzt schon. Das mag für GPGPU funktionieren, aber nicht für 3D-Apps.

Für wirklich mehr Leistung muss ATi seine Architektur gründlich überarbeiten und nicht einfach nur mehr Rechenleistung reinschütten.

tombman
2010-01-17, 01:27:46
Gibts am Montag endlich performance Werte, oder wieder nur, Achtung Reizwort (;)): Architekturmüll?

Gipsel
2010-01-17, 01:45:20
Und es dann noch schlechter skaliert als jetzt schon. Das mag für GPGPU funktionieren, aber nicht für 3D-Apps.
Daß das ein nicht ganz ernst gemeinter Kommentar zum Vorschlag einen RV870 Refresh mit mehr SPs zu bringen war, hast Du mitbekommen?
Außerdem habe ich mit verdreifachtem Setup und zusätzlichem Rasterizer doch für eine gute Skalierung gesorgt, da das Setup doch gerade so heiß diskutiert wird ;)

Coda
2010-01-17, 01:46:45
Ich glaube nicht, dass das Problem einfach mit mehr Rasterizern erschlagen werden kann. Also zumindest nicht mit der Brute-Force-Methode.

mapel110
2010-01-17, 05:00:32
Hat das eigentlich irgendwas mit GF100 zu tun, dass es seit 5 Wochen keinen neuen 195er Treiber gibt(abgesehen von einem XP32-Treiber)? Schon sehr ungewöhnlich für nvidia.

Nightspider
2010-01-17, 05:07:47
Davon kann man schon ausgehen...

Mit einer neuen Architektur gibts genug am Treiber und auch andere Dinge zu programmieren...

tombman
2010-01-17, 06:01:59
Könnte mir vielleicht jemand antworten, ob es auch fps-Werte nach Ablauf der NDA gibt, oder nur Architekturinfos?

Ailuros
2010-01-17, 07:43:57
Sicher mit den 12p/r? Wäre ein wenig eigenartig damit 32er Warps füllen zu wollen.

Wie teilt man sonst 4 raster auf 48 pixel genau auf? Bei 16 pixel hockt einer dann stets nur bloed rum, oder anders passt es nicht in meinen Schaedel.

2:1 wäre wie gesagt die einzige Alternative, wobei das dann ziemlich sicher 128 statt nur 64 wären. Das wäre dann auch ein sehr sicheres Zeichen, daß shared memory/L1 auch nur mit halber hot clock laufen.
Da hast Du mich mißverstanden. Bandbreite ist überhaupt kein Problem, die ist dank des schnellen und großen L1 im Überfluß da. Es geht eher um die Frage, wieviel Hardware bei welchem Takt nvidias Transistoren- und Powerbudget hergibt. Nur 64 TMUs auf hotclock, 128 TMUs auf halber hotclock oder was ganz Verrücktes, 128 bilineare Filtereinheiten auf hotclock, das würde die L1-Bandbreite nämlich auch hergeben.

Es sind 4 TMUs pro SM; jemand erzaehlt hier (von einem AIB Datensheet abspekuliert...) von angeblichen "quad TMUs" wie auf RV870, wobei GT200 angeblich "dual TMUs" hatte. Ich versteh nur Bahnhof von dem Kauderwelsch.

Was die Bandbreite betrifft ich meinte lediglich dass bei der Bandbreite trotz der 16 L/S 8 bilinear moeglich sein sollte (nicht TF) zumindest theoretisch.

Das war kein Wunsch, das war eine Mischung aus Befürchtung vor Filter"optimierungen" und der Neugier, ob sich irgendwer mal an (in Grenzen) programmierbare TMUs traut.

Pfeif drauf wegen einem Tag...LOL. Das Maul des Loewen behauptet 1.4-1.7x hoehere texturing Rate auf einer GF100 TMU im Vergleich zu einer GT200 TMU. Und ja das koennte leider auch in Richtung Optimierungen gehen, ausser es steckt irgend etwas hinter den angeblichen "quad TMUs" und es kann mir der jemand nicht richtig vermitteln.

Bloede Blitzidee: koennte es mit gather4 zu tun haben? Wenn ja ist Fermi hier verdammt effizient; nur fehlt mir jetzt noch der Zusammenhang. Irgend eine Idee?

Fermi hat 256 TAs (L/S-Einheiten). Und dazu wahrscheinlich entweder 64 TFs auf hotclock oder eben 128 TFs auf halber hotclock (eventuell identisch zum Coretakt). Die Steigerung des TA/TF Verhältnisses kann man wohl mit GPGPU begründen, da dort deutlich häufiger ungefilterte Daten geladen werden müssen. Aber ein wenig sieht das für mich nach Overkill aus, zumindest wenn man es mal mit Cypress vergleicht ;). Mal sehen, was es genau ist und was es dann bringt.

L2 r/w sollen sehr gut GPGPU helfen. Bei der Groesse von L2 dachte ich zuerst WTF? aber man kann auch nicht alles in einem Tag herausfinden ;)

Ich wäre ja dafür, noch mal 800 SPs mitsamt drittem Rasterizer ranzuklatschen, das Setup auf 3 Tris/clock aufzubohren, das Ganze mit einem 384bit Interface aufpeppen und im September bei GF auf 260mm² in 28nm zu backen :freak:

Spaetestens Juni kommt ein refresh unter 40G. Falls es mehr cluster haben sollte dann nicht mehr als 5 IMO. Unter GF kommt dann angeblich eine umgekrempelte Architektur; ob man zwischen den beiden noch etwas dazwischen schieben wuerde will ich bezweifeln.

Northern Islands wird größere Veränderungen haben. Anscheinend bleibt man prinzipiell beim VLIW-Aufbau, allerdings wird die 5. Einheit stärker entkoppelt und ähnelt dann eher den SFUs von nvidia. Sie wird wohl deutlich weniger von den normalen Instruktionen der Vektoreinheiten ausführen können.

Ich habs oben weggelassen; ausser AMD's roadmaps sind uralt steht norther islands auf 32nm@GF und nicht 28nm.

Weil die ROPs ziemlich stark mit dem Speichercontroller und dem L2 verwoben sind. Die Zuordnung zu den ROPs erfolgt üblicherweise (genau wie der L2) über die Speicheradresse, so daß bei Verkleinerung des Speicherinterfaces notgedrungen auch die zugehörigen ROPs wegfallen. Theoretisch kann man das natürlich auch anders machen, das ist dann aber aufwendiger.

War ne ehrliche Frage. Dann sind es wohl doch sicher nur 192bits.

nagus
2010-01-17, 09:46:20
wann hört ihr den jetzt endlich mit disem blödsinn von vergleichen auf??? jeder der diesen vergleich da oben erst nimmt ist ja nicht ganz beisammen (sorry ist aber die wahrheit!!!)


ja stimmt, vergleichbar ist das natürlich nicht. zumal eine fermi garantiert viel viel besser in den physics tests abschneidet als eine 3 jahre alte 8800gt. woraus man spekulieren könnte (wir sind ja im speku-thread ;) dass eine fermi ohne physics wesentlich schlechter abschneidet. immerhin bringt eine relativ langsame 8800gt schon fast 4000 pluspunkte bei vantage.

und noch eine überlegung zu den angeblichen crysis 2 und avp3 benchmarks: wieso wohl nimmt man keine aktuell kaufbaren spiele? wieso muss hier nvidia (oder jemand) werte (erfinden?) die keiner nachprüfen kann und keiner sagen kann wie aktuell kaufbare karten wirklich abschneiden würden?

Gast
2010-01-17, 09:56:38
Nö es ist schlicht unfair, die 5870 durch die 8800 zu beschleunigen und die GTX 380 nicht.

Entweder beide oder das Ding ohne PhysX testen.
Das wär fair.

nagus
2010-01-17, 09:58:50
Nö es ist schlicht unfair, die 5870 durch die 8800 zu beschleunigen und die GTX 380 nicht.

Entweder beide oder das Ding ohne PhysX testen.
Das wär fair.

das siehst du glaub ich falsch: die physics testes sind eigenständige testabläufe. und ich glaube schon, dass eine fermi hier DEUTLICH schneller abschneidet als eine uralt 8800gt!

unfair ist es nur dahingehend, dass der 5870er keine fermi zur seite steht um die physics testes zu beschleunigen.

boxleitnerb
2010-01-17, 10:03:21
So ein Unsinn, nagus. Gleiche Testbedingungen. Entweder beide mit Zusatzkarte oder beide ohne. Ist doch ganz einfach. Alles andere ist Schwachsinn hoch drei.

AnarchX
2010-01-17, 10:04:35
Wer sagt, dass diese P22k, sofern sie überhaupt stimmen, kein ORB-konformes Ergebnis ohne GPU-PhysX sind?

Menace
2010-01-17, 10:05:14
So ein Unsinn, nagus. Gleiche Testbedingungen. Entweder beide mit Zusatzkarte oder beide ohne. Ist doch ganz einfach. Alles andere ist Schwachsinn hoch drei.

Nicht wenn es, wie nagus sagt, unabhängige Testläufe wären:

Fermi macht also AUCH den PhysicX test, auch wenn kein zweiter Fermi dazugeschaltet ist. Oder verstand ich das falsch?

nagus
2010-01-17, 10:08:34
So ein Unsinn, nagus. Gleiche Testbedingungen. Entweder beide mit Zusatzkarte oder beide ohne. Ist doch ganz einfach. Alles andere ist Schwachsinn hoch drei.

ich hab weiter oben geschrieben, dass es nicht vergleichbar ist. aber ich denke doch, dass das einen anhaltspunkt geben kann.

aber es ist garantiert unsinniger eine 5870er OHNE phsysics zu benchen, die fermi aber mit. also bitte. außedem ist wie ebenfalls weiter oben beschrieben die 8800 in den physics tests ganz sicher langsamer als eine 8800! also woruber regt ihr euch jetzt auf?

... falls die P22t überhaupt stimmen.

nagus
2010-01-17, 10:11:21
Wer sagt, dass diese P22k, sofern sie überhaupt stimmen, kein ORB-konformes Ergebnis ohne GPU-PhysX sind?

wer spekuliert, verliert. oder wie meinst du das? ;)

ich hab KEINE AHNUNG. ich würde aber auch nicht darauf wetten, dass nvidia ohne physics bencht.

Gast
2010-01-17, 10:31:37
ich hab weiter oben geschrieben, dass es nicht vergleichbar ist. aber ich denke doch, dass das einen anhaltspunkt geben kann.
Die Zahlen sind wenn sie nicht vergleichbar sind völlig wertlos.


aber es ist garantiert unsinniger eine 5870er OHNE phsysics zu benchen, die fermi aber mit. also bitte. außedem ist wie ebenfalls weiter oben beschrieben die 8800 in den physics tests ganz sicher langsamer als eine 8800! also woruber regt ihr euch jetzt auf?

Richtig, wie ich geschrieben habe:
Beide mit 8800 und PhysX
oder
beide ohne 8800 und ohne PhysX

Mischmasch ist Unfug.

tombman
2010-01-17, 10:32:25
3DMV P-Scores sind eh fürn Arsch, nur X interessiert...

Gast
2010-01-17, 10:33:54
Fermi macht also AUCH den PhysicX test, auch wenn kein zweiter Fermi dazugeschaltet ist. Oder verstand ich das falsch?
Und die dazugehörige Grafik darf Fermi gleich mitmachen.
Echt super fair, wie es sich nagus wünscht.

Tarkin
2010-01-17, 11:01:38
Und die dazugehörige Grafik darf Fermi gleich mitmachen.
Echt super fair, wie es sich nagus wünscht.

Ich glaub du hast es nicht ganz begriffen...

Wenn eine GF100 im Vantage auf 22T kommt (nehmen wir mal an es wurde MIT PhysX erzielt) dann wäre JEDER Vergleich mit 5870er Werten für A und Friedrich... es sei denn, man würde der 5870er eine GF100 (alleine für die PhysX Tests) zur Seite stellen.

Wenn eine 5870 + 8800GT auf 20T kommt, dann wäre der Score mit einer GF100 statt 8800GT wohl noch um einen Zacken höher....

Darauf wollte nagus hinaus!

reunion
2010-01-17, 11:12:49
Könnte mir vielleicht jemand antworten, ob es auch fps-Werte nach Ablauf der NDA gibt, oder nur Architekturinfos?

Es gibt offensichtlich Performancezahlen. Allerdings nur "cherry picked" Benchs von NV und keine unabhängigen Tests.

Gast
2010-01-17, 11:19:11
Ich glaub du hast es nicht ganz begriffen...

Ich glaube, alle haben es noch nicht ganz zusammen..... ;)

Fair wäre:

5870 + 8800GT (Phys-X)
GF100 + 8800GT (Phys-X)

oder sogar

5870 + GF100 (Phys-X)
GF100 + GF100 (Phys-X)

Gast
2010-01-17, 11:20:55
Wenn eine GF100 im Vantage auf 22T kommt (nehmen wir mal an es wurde MIT PhysX erzielt) dann wäre JEDER Vergleich mit 5870er Werten für A und Friedrich... es sei denn, man würde der 5870er eine GF100 (alleine für die PhysX Tests) zur Seite stellen.
Sein Vegleich bleibt also Unfug. Ich meine übrigens weiterhin, das irgendwer die Grafik im PhysX Test berechnen muss.

Spekulationen über wenn wenn sind Schwachsinn. Entweder man testet es so wie es nötig ist und hat die echten Zahlen oder nicht.
In dem Fall nicht, man hat nur unbrauchbare Zahlen, die man sich in die gewünschte Richtung schönreden kann, so wie du z.b. "aber die 5870 wäre xx schneller mit Fermi als PhysX Karte"

derguru
2010-01-17, 11:26:35
Und die dazugehörige Grafik darf Fermi gleich mitmachen.
Echt super fair, wie es sich nagus wünscht.
soll ich dir sagen was passieren würde wenn die gf100 auch eine 8800gt als zusatzkarte hätte aber psst nicht weiter sagen,die wäre langsamer als die 22k;)

sofern die 22k mit physX sind sind die werte jedenfalls nicht berrausschend vom fermi.

Gast
2010-01-17, 11:33:27
soll ich dir sagen was passieren würde wenn die gf100 auch eine 8800gt als zusatzkarte hätte aber psst nicht weiter sagen,die wäre langsamer als die 22k;)

Du hast es nicht begriffen, unfair bleibt unfair, egal wer profitiert.

derguru
2010-01-17, 11:39:47
nein du hast nichts begriffen,man versucht mit jedem kleinen was man zum fermi bekommt rauszukriegen was sie nun leisten wird oder auch nicht,nur darum gehts.also fang nicht gleich an zu heulen,heißt ja trotzdem nicht viel.

AnarchX
2010-01-17, 11:42:45
3DMV P-Scores sind eh fürn Arsch, nur X interessiert...
Neliz zum X-Score:
100 = 360/380 104 = 350
X score was 15K

but it seems bogus anyway
http://www.xtremesystems.org/forums/showpost.php?p=4202604&postcount=1119

Würde zu den X13k für A1 passen.

derguru
2010-01-17, 11:48:22
15k bei x ist natürlich knaller,das ist knapp2*5870 karten.:eek:

AnarchX
2010-01-17, 11:53:56
Wobei das X-Preset eigentlich ziemlich gut mit der vorhandenen Rohleistung skaliert und hier reine Effizienzsteigerungen kaum soviel ausmachen können.
Vielleicht handelt es sich um einen Teaser für Dual-GF100.

Gast
2010-01-17, 11:57:02
nein du hast nichts begriffen,man versucht mit jedem kleinen was man zum fermi bekommt rauszukriegen was sie nun leisten wird oder auch nicht,nur darum gehts,also fang nicht gleich an zu heulen,heißt ja trotzdem nicht viel.
Du musst nicht gleich beleidgend werden, nur weil die nicht vorhandene Vergleichbarkeit bemängelt wird.
Jedenfalls wirds nicht besser dadurch, das man davon noch xx% abziehen oder xx% draufsetzen will, um seine Firma zu stellen, unter dem Deckmantel der besseren Vergleichbarkeit.

Entweder vergleichbare Ergebnisse vergleichen oder unvergleichbare als unvergleichbar aktzeptieren und sehr vorsichtig betrachten.

derguru
2010-01-17, 12:09:13
Wobei das X-Preset eigentlich ziemlich gut mit der vorhandenen Rohleistung skaliert und hier reine Effizienzsteigerungen kaum soviel ausmachen können.
Vielleicht handelt es sich um einen Teaser für Dual-GF100.

so wäre der abstand zum x13 doch viel zuklein,also wenn das stimmt mit den 15k dann sollte warhead mit 60-80% schneller doch kein märchen sein..:biggrin:

tombman
2010-01-17, 12:29:06
X15K glaub ich nicht- das wäre eine totale ATI Vernichtung ;D

X10K bis X11K würd ich glauben...X15K dann eher für DualFermi.

mapel110
2010-01-17, 13:14:13
Wobei das X-Preset eigentlich ziemlich gut mit der vorhandenen Rohleistung skaliert und hier reine Effizienzsteigerungen kaum soviel ausmachen können.
Vielleicht handelt es sich um einen Teaser für Dual-GF100.
Ich würds einfach als Blödsinn und Wichtigtuerei abtun. Zumindest bis Montag. ;D

nagus
2010-01-17, 13:51:17
15k bei x ist natürlich knaller,das ist knapp2*5870 karten.:eek:

ja das schaut sehr schnell aus! wäre intressant was eine 5870er mit einer zusätzlichen physix karte hat.

dildo4u
2010-01-17, 13:54:20
ja das schaut sehr schnell aus! wäre intressant was eine 5870er mit einer zusätzlichen physix karte hat.
Bei na X Score macht das kaum noch was aus ist gut GPU limitiert.5870 37% vor GTX 285.Selbe Auflösung Games 23%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage

Schlammsau
2010-01-17, 13:56:38
X15K bei 499$..........sorry aber :nono: ;D

Was denkt ihr für wieviel nVidia dann ihre GTX200 Serie verschenken müsste? Ne GTX285 für unter 200$????? Wie soll das funktionieren?
Die wird ja höchstwahrscheinlich auch noch weiter produziert, wie bei ATi die HD4000 Serie.

Es gibt zwei Möglichkeiten....entweder Single-Fermi ist wirklich so schnell, kostet dann aber 800$ aufwärts oder der Vantage Score ist ein Fake.

Gast
2010-01-17, 14:08:06
Was denkt ihr für wieviel nVidia dann ihre GTX200 Serie verschenken müsste? Ne GTX285 für 150€????? Wie soll das funktionieren?
Das wär weniger das Problem. Könnte auch relativ zeitnah durch eine GTX 350 ersetzt werden.

Das Problem ist die Lücke zur GTS 250 und GT 240.
Befüllt werden muss diese weiterhin mit GTX 260 oder GTX 275. GTX 275 hat gute Überlebenschanchen, billig zu produzieren holt sie noch einiges aus GT200b raus.
GTX 260 wird zu billig und ist eher das Problem.

Schlammsau
2010-01-17, 14:25:55
Das wär weniger das Problem. Könnte auch relativ zeitnah durch eine GTX 350 ersetzt werden.

Das Problem ist die Lücke zur GTS 250 und GT 240.
Befüllt werden muss diese weiterhin mit GTX 260 oder GTX 275. GTX 275 hat gute Überlebenschanchen, billig zu produzieren holt sie noch einiges aus GT200b raus.
GTX 260 wird zu billig und ist eher das Problem.

Glaub ich nicht.....die GTX200 Serie wird nach dem Fermi Release noch mindestens ein halbes Jahr weiter produziert und verkauft. Wenn Fermi tatsächlich so schnell ist und so günstig verkauft werden kann, würde jegliche langsamere Hardware (ATi und nVidia) nicht mehr kostendeckend herstellbar sein. Das würde für einen noch nie dagewesenen Ruck bei den Preisen der Grafikkarten auslösen.

Als Beispiel mit den dann angemessenen Preisen:
GTX300 = ~15000XMarks = 499$ (die schnellste Hardware ist immer deutlich teurer)
HD5970 = ~12200XMarks = 300$
HD5870 = ~8200XMarks = 150$
HD5850 = ~6700XMarks = 100$
GTX285 = ~6000XMarks = 80$
usw..........

Wie soll das gehen?

Gipsel
2010-01-17, 14:32:12
Wie teilt man sonst 4 raster auf 48 pixel genau auf? Bei 16 pixel hockt einer dann stets nur bloed rum, oder anders passt es nicht in meinen Schaedel.
Die 48 Pixel kommen aber nicht von den ROPs, oder? Die bestimmen ja wie viele Pixel untern rauskommen können, nicht wieviele oben reinpassen. Da gibt es öfter auch mal größere Unterschiede. Man kann ja auch für die Peaks vorbereitet sein ;)
Was die Bandbreite betrifft ich meinte lediglich dass bei der Bandbreite trotz der 16 L/S 8 bilinear moeglich sein sollte (nicht TF) zumindest theoretisch.Dann meinen wir ja das Gleiche ;)
Pfeif drauf wegen einem Tag...LOL. Das Maul des Loewen behauptet 1.4-1.7x hoehere texturing Rate auf einer GF100 TMU im Vergleich zu einer GT200 TMU. Und ja das koennte leider auch in Richtung Optimierungen gehen, ausser es steckt irgend etwas hinter den angeblichen "quad TMUs" und es kann mir der jemand nicht richtig vermitteln.Filtereinheiten können auch trilinear oder zumindest den halben Weg dahin?
Das mit den Quad-TMUs läuft im Prinzip darauf hinaus, daß immer 4 benachbarte Pixel (2x2, eben ein Quad) gleichzeitig texturiert werden. Dabei ist es extrem wahrscheinlich, daß ein doch beträchtlicher Teil der Texture-Fetches mehrfach verwendet werden kann. Das dient also lediglich der effizienteren Bandbreitennutzung. Fermi hat allerdings soviele TAs (und auch Bandbreite zum L1), daß er für bilineares Filtering sogar locker darauf verzichten könnte. Also entweder löst nvidia die Quad-Struktur auf (für GPGPU sowieso nicht so perfekt), die Filtereinheiten können noch ein wenig mehr als bilinear oder nv fand die potentielle Leistungssteigerung für den Aufwand nicht gerechtfertigt.
Bloede Blitzidee: koennte es mit gather4 zu tun haben? Wenn ja ist Fermi hier verdammt effizient; nur fehlt mir jetzt noch der Zusammenhang. Irgend eine Idee?Fermi wird wohl insgesamt bei jeglichem Gather gut aussehen. Kann wie gesagt bei GPGPU für einen datenintensiven Algorithmus ziemlich gut sein, wenn die Daten im L1 liegen. Aber da benötigt man ja meist ungefilterte Daten, also die reine Anzahl der TAs und die Bandbreite zum L1. Gather4 ist ja nur eine Art Trick, um effizient eine Komponente von den 4 umgebenden Texeln (wieder 2x2 Muster) zu fetchen. Das funktioniert auch mit Quad-TMUs gut, das ist ja ab DX10.1 Pflicht.
L2 r/w sollen sehr gut GPGPU helfen. Bei der Groesse von L2 dachte ich zuerst WTF? aber man kann auch nicht alles in einem Tag herausfinden ;)
Wieso? 768kB R/W L2 sind doch schon mal ganz ordentlich. Sind 128kB pro 64Bit Speicher-Controller. Soviel hat Cypress als reinen Lese-Cache (Texturen) und dazu noch 32kB R/W Cache pro Controller (128kB insgesamt). Die Fermi-Variante sollte auch aufgrund der höheren Bandbreite beim Vergleich zum R/W-Cache des Cypress schon Vorteile in entsprechenden Anwendungen haben.
Spaetestens Juni kommt ein refresh unter 40G. Falls es mehr cluster haben sollte dann nicht mehr als 5 IMO.Womit wir wieder bei der krummen 25er SIMD-Zahl wären.

Sorkalm
2010-01-17, 14:42:18
Womit wir wieder bei der krummen 25er SIMD-Zahl wären.

Redwood hat aber auch krumme "5" SIMDs.

Gast
2010-01-17, 14:57:45
Ich erwarte von NVIDIA

GTX380 in 3DMark Vantage @4Ghz Qaud >>> 27000-30000 Punkte
GTX360 in 3DMark Vantage @4Ghz Qaud >>> 24000-27000 Punkte

GTX380 >>> 30% mehr Leistung als GTX295
GTX360 >>> 10% mehr Leistung als GTX295

Wenn die das nicht schaffen ist Nvidia für mich eine schwäche Alternative für AMD/ATI

deekey777
2010-01-17, 15:01:39
Redwood hat aber auch krumme "5" SIMDs.
Hat der RV830 auch zwei Dispatcher und zwei Rasterizer?

Lu
2010-01-17, 15:07:16
3DMark Vantage - 1280x1024 Performance-Preset:

ATi Radeon HD 5970 21.758

Nvidia GeForce GTX 295 19.689

ATi Radeon HD 5870 17.563

ATi Radeon HD 5850 14.844

Nvidia GeForce GTX 285 13.699

Nvidia GeForce GTX 275 12.858

ATi Radeon HD 4890 12.127

ATi Radeon HD 4870 11.056

Nvidia GeForce GTX 260 10.838

ATi Radeon HD 5770 10.358

ATi Radeon HD 4770 8.337

Nvidia GeForce GTS 250 8.105

ATi Radeon HD 5750 7.175

Nvidia GeForce 9800 GT 6.662

( Core i 7 965 @ 3,87Ghz )

Und jetzt erzähl nochmal wie viel Punkte du erwartest?
Troll?

Gast
2010-01-17, 15:36:19
Glaub ich nicht.....die GTX200 Serie wird nach dem Fermi Release noch mindestens ein halbes Jahr weiter produziert und verkauft. Wenn Fermi tatsächlich so schnell ist und so günstig verkauft werden kann, würde jegliche langsamere Hardware (ATi und nVidia) nicht mehr kostendeckend herstellbar sein. Das würde für einen noch nie dagewesenen Ruck bei den Preisen der Grafikkarten auslösen.
Wie gesagt, die GTX 285 kann ersetzt werden durch eine weitere beschnittene GF100 Karte.
Ist lediglich schade um die vollfunktionsfähigen GT200b, aber wenn man entsprechend am PCB und VRAM sparen kann, so macht man das.


Als Beispiel mit den dann angemessenen Preisen:
GTX300 = ~15000XMarks = 499$ (die schnellste Hardware ist immer deutlich teurer)
HD5970 = ~12200XMarks = 300$
HD5870 = ~8200XMarks = 150$
HD5850 = ~6700XMarks = 100$
GTX285 = ~6000XMarks = 80$
usw..........

Wie soll das gehen?Seltsame Preisvorstellung.
Speziell bei der 5970 fängts seltsam an, das ist Unsinn. Diese wird höchstens auf unter 400-499$ fallen. Doppelt so teuer wie 5870 wird sie nicht sein, ist sie jetzt als "Topmodell" schon nicht, also in Zukunft noch viel weniger.

Single Fermi kann dank Dual Fermi nicht so teuer wie üblich angeboten werden und dank 5970.
Du siehst, 5970 macht die Musik. Nvidia greift direkt mit dem Preis an, um ihrem Kind einen guten Eindruck auf dem Weg zu geben.

Entsprechen obiger 5970 Angabe landen die Preise bei:
5870 = 300$
5850 = 250$
GTX 285 = 200-250$
GTX 275 = 150-200$
GTX 260 = 80 - 150$

Man sieht, GTX 260 muss weg, der Rest ist kein Thema.
Alternativen zur GTX 260 sind eine GTS 260 mit heftig hochgeprügeltem GT215 oder G92b oder ein Dualfüller.

V2.0
2010-01-17, 15:40:16
Die 15000 XMarks sind evtl. Fermi-SLI.

MR2
2010-01-17, 16:01:12
Jep, würd ich auch denken. 15000 xMarks klingt nach FermiSLI.

Welche Vantagewerte bringt eigentlich eine 1Ghz 5870 wie die kommende Gigabyte?

Gast
2010-01-17, 16:26:45
Die 15000 XMarks sind evtl. Fermi-SLI.


Lassen wir uns doch überraschen;) Glaube auch, dass es Fermi-SLI ist, könnte aber auch ne Single Karte sein...


mfg

Burgard
2010-01-17, 17:08:18
Jep, würd ich auch denken. 15000 xMarks klingt nach FermiSLI.

Welche Vantagewerte bringt eigentlich eine 1Ghz 5870 wie die kommende Gigabyte?

HD 5870 1122/1300Mhz Xtreme Vantage

http://www.abload.de/thumb/x3hena.png (http://www.abload.de/image.php?img=x3hena.png)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413653&page=30



ALs Orientierung

Slipknot79
2010-01-17, 17:12:29
Aus dem FC2 Video, wie ist das zu bewerten? Oo Angeblich ne GTX 360.

http://www.abload.de/img/clipboard0295ws.jpg

RoNsOn Xs
2010-01-17, 17:21:10
ich denke die 51fps waren ne gtx285 und die >80fps ne fermi

nagus
2010-01-17, 17:22:29
grob 20% schneller als ne 5870er. aber wer weiß schon was da in dem rechner steckte und welche treiber installiert waren...

MR2
2010-01-17, 17:52:24
Hemlock kommt da auf 102FPS, GTX285 auf 52 Bilder und die 5870 auf 65FPS mit dem Launchtreiber.

y33H@
2010-01-17, 17:58:36
+29% auf HD5870 (v8.66 RC6) um genau zu sein. Bleibt die Frage welcher Fermi-Ausbau mit welchen Taktfrequenzen.

Für GTX360 wäre es enorm, für GTX380 im Rahmen dessen, was man erwarten würde imo.

Spasstiger
2010-01-17, 18:00:46
Ich gehe davon aus, dass Fermi bei gleichen Taktraten (Speichertakt = Befehlstakt) um 70% schneller ist als der GT200(b).

y33H@
2010-01-17, 18:10:50
Also 512 ALUs mit voller TMU/ROP/whatever-Anzahl bei 602-648 MHz und 1.296-1.476 MHz sowie GDDR5 mit über 1,2 GHz?

Spasstiger
2010-01-17, 18:19:47
Genau. Eine GTX 380 mit 648 MHz ROP/TMU-Domäne, 1476 MHz Shaderdomäne und 1242 MHz schnellem GDDR5-Speicher (5 Gbps Datenrate) und voller Einheitenzahl dürfte auf knapp X10k 3DMarks in 3DMark Vantage kommen.
Wenn die TMUs höher takten, sind vielleicht auch X11k drin.
Da Fermi-Tesla mit sehr konservativen Taktraten angekündigt wurde, gehe ich auch nicht davon aus, dass die GTX 380 deutlich höher taktet als eine GTX 285. 15k im Extreme-Preset von 3DMark Vantage passen imo zu Fermi-Dual-GPU, aber nicht zu Single-GPU.

AnarchX
2010-01-17, 18:23:37
Wenn man Neliz und PHK glaubt und dann noch die Ausführungen von Gispel mit einbezieht, könnten wohl die Frequenzen bei 1:2 liegen. Genauer bei 725/1450MHz.

Spasstiger
2010-01-17, 18:33:31
Beim Speicher hat Nvidia inzwischen auch die Option auf 6 Gbps, entsprechende Chips sind bei Hynix verfügbar. Allerdings braucht der Speicher 1,6 Volt statt den GDDR5- und DDR3-üblichen 1,5 Volt, was für eine gute Energieeffizienz nicht gerade förderlich ist.

Coda
2010-01-17, 18:34:41
Ich gehe davon aus, dass Fermi bei gleichen Taktraten (Speichertakt = Befehlstakt) um 70% schneller ist als der GT200(b).
Wie kommst du darauf?

pest
2010-01-17, 18:35:16
Wie kommst du darauf?

Modell (c) by Spasstiger?

Coda
2010-01-17, 18:35:51
Bei einer neuen Architektur natürlich sehr sinnvolll...

Spasstiger
2010-01-17, 18:35:58
Wie kommst du darauf?
Doppelte MADD-Rechenleistung, 50% mehr Speicherbandbreite, 60% mehr Texelfüllrate. Dürfte grob für 70% Mehrleistung in Spielen reichen.

Coda
2010-01-17, 18:36:37
Doppelte MADD-Rechenleistung, 50% mehr Speicherbandbreite, 60% mehr Texelfüllrate. Dürfte grob für 70% Mehrleistung in Spielen reichen.
Jo, dann wart's mal ab. Ich hab dir schon zig mal gesagt, dass diese Zahlen nichts aussagen.

derguru
2010-01-17, 18:38:29
eben coda hat ja schon infos von bestimmten redakteuren bekommen,der wird es wissen;)

reunion
2010-01-17, 18:39:05
Mein Tipp: Morgen wird es Werte von NV geben wonach die GTX380 ~10% unter der 5970 liegt plus einiger theoretischer Messwerte wo man tw. mehrere Faktoren vorne ist. Wie authentisch das dann ist erfährt man wohl erst im März. Das nennt man dann wohl klassisch Paperlaunch.

fdk
2010-01-17, 18:39:25
btw wer sich fragt wann die 300er lowcostlösungen kommen: siehe Mediamarkt-Prospekt Seite 6.
rebrand ahoi :facepalm:

http://www.abload.de/img/untitledbxev.png (http://www.abload.de/image.php?img=untitledbxev.png)

boxleitnerb
2010-01-17, 18:47:57
OMG was für eine müllige Werbung ist das denn bitte? Sorry für OT, aber da wird einem ja schlecht.

Spasstiger
2010-01-17, 18:51:49
Der Vergleich mit der HD 5970 interessiert mich eigentlich nicht wirklich, Single-GPU vs. Dual-GPU ist immer ein schwieriger Vergleich.
Ich frage mich vor allem, was sich gegenüber dem GT200 getan hat. Evtl. ist der Vorteil auch größer als 70%, genauso gut könnte er geringer sein, weil die Peak-Rechenleistung (MADD/FMA + MUL) bei gleicher Taktrate nur um 42% steigt.

Ein anderer Gedankengang lässt den Fermi dagegen sehr gut dastehen: In den letzten Jahren hat sich die Transistorzahl immer recht gut für die zu erwartende Leistungssteigerung bei gleichen Taktraten bewährt. Höchstens der GT200 fällt gegenüber dem G80 ein wenig aus dem Rahmen.
Jedenfalls hat Fermi rund 3 Mrd. Transistoren, der GT200 nur 1,4 Mrd. Das spricht für eine Leistungssteigerung um mehr als 100%. Und gegenüber dem G80 (z.B. GeForce 8800 Ultra) müsste man sogar mit einem Faktor 4-5 rechnen.
In 3DMark Vantage @ Extreme-Preset gesprochen heißt das: Die GTX 380 schafft 10-13k 3DMarks je nach Taktraten.
Ich persönlich tendiere eher zu 10k. ;)

igg
2010-01-17, 18:55:53
Wenn im März unabhängige Benchmarks kommen erwarte ich 30-40 % Vorsprung ggü. 5870. Alle anderen Werte scheinen mir geschönt bzw. basieren auf bevorzugten Benchmarks. Die GPGPU Funktionen verlangen ihren Tribut, auch wenn Nvidia die Rohleistung erhöht und Architektur verbessert hat.

mapel110
2010-01-17, 18:57:19
Transistorzahlenspielereien sind immer so eine Sache. ATI hat von 956 Mio auf 2,15 Milliarden aufgestockt und es kamen gerade mal 60-70 Prozent mehr raus. DX11 frisst sicher einiges an Transistorbudget auf.

Gast
2010-01-17, 19:22:09
Transistorzahlenspielereien sind immer so eine Sache. ATI hat von 956 Mio auf 2,15 Milliarden aufgestockt und es kamen gerade mal 60-70 Prozent mehr raus. DX11 frisst sicher einiges an Transistorbudget auf.
Allerdings ist die R600-Architektur auch einfach scheinbar am Anschlag.

chemistry
2010-01-17, 19:24:47
Hat das schon wer gepostet??

Bjorn3d.com (http://www.bjorn3d.com/forum/showpost.php?p=215717&postcount=8)

Design Article releases tomorrow 7PM CST with complete Whitepaper info.

New Features, new cache, new Memory setup, and yes it's about 100% performance increase over GTX-2xx so figure single GTX-285 vs 5870 then double the GTX-285 performance.

Then it handles triangles different, triangles on any given frame can number in the hundreds of thousands so that's very important.

It will fold a lot better.

Increased efficiency in several areas.

It's a revolutionary new design oriented toward tessellation (those pesky triangles) and geometric programming. Problem being every wire frame is made up of triangles, tessellation takes those triangle and breaks them down into many smaller triangles. This core is uniquely designed to handle that so geometric and shader heavy games you will see more than the 100% raw power increase.

520USD might handle it. At 2x GTX-285 performance that puts it above GTX-295 performance and it's DX11 ready and designed for that specifically. Current ATI offerings are really good but basically a double the hardware on the same core design to provide more raw power. GF100 is a core design to take advantage of what the industry needs today and for some time in the future.

Read the article tomorro cause that's about all I can say tonight.

derguru
2010-01-17, 19:48:12
vom preis her kann man schon mal nicht meckern,hab da mindestens 599 erwartet.

Blaire
2010-01-17, 19:52:57
vom preis her kann man schon mal nicht meckern,hab da mindestens 599 erwartet.

Kann ja noch kommen...bei schlechter Verfügbarkeit

Gast
2010-01-17, 20:06:44
WEnn man bedenkt das eine 5870 schon auf 295 GTx nivou ist dann ist das ergebniss nicht überaschend.Somit wär man gut 20 % vor der 5870.Insgesamt also nicht neg-positives eher magerkost.

holland.

MR2
2010-01-17, 20:09:20
Asso, die 85FPS in FarCry2 sind wohl von der GTX360....Das wäre ordentlich.

dildo4u
2010-01-17, 20:12:27
WEnn man bedenkt das eine 5870 schon auf 295 GTx nivou ist dann ist das ergebniss nicht überaschend.Somit wär man gut 20 % vor der 5870.Insgesamt also nicht neg-positives eher magerkost.

holland.
GTX295 ist 20% schneller als eine 5870.

Gast
2010-01-17, 20:16:04
GTX295 ist 20% schneller als eine 5870.
Nicht mehr.;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

Deswegen könnten auch die vermuteten 20 % stimmen die oft beschrieben worden sind.
holland

mapel110
2010-01-17, 20:16:07
GTX295 ist 20% schneller als eine 5870.
Aber auch nur beim Strom verbrauchen. O_o

Ronny145
2010-01-17, 20:16:14
GTX295 ist 20% schneller als eine 5870.


Weder in der PCGH noch auf computerbase. Wo welchem Test sprichst du?

dildo4u
2010-01-17, 20:22:02
Weder in der PCGH noch auf computerbase. Wo welchem Test sprichst du?
1900*1200 4XAA
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet

boxleitnerb
2010-01-17, 20:23:35
Ein Setting, alter Test und damit womöglich alte Treiber. Subba...

dildo4u
2010-01-17, 20:25:24
Ein Setting, alter Test und damit womöglich alte Treiber. Subba...
Glaub kaum das ATI schon 20% nur durch den Treiber optemiert hat das Meiste waren Bugfixes bis jetzt.

derguru
2010-01-17, 20:26:36
das ließt sich schon wie eine ausrede.
Current ATI offerings are really good but basically a double the hardware on the same core design to provide more raw power. GF100 is a core design to take advantage of what the industry needs today and for some time in the future

wieso nimmt man nicht den aktuellen cb test,dildo4u vergessen wah.:wink:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

y33H@
2010-01-17, 20:28:14
Bei CB fließt BF mit DX11 und Stalker CoP mit DX11 aber ohne HWT ins Ranking ein. Unter DX9/10 ist die GTX295 freilich meist schneller.

Gast
2010-01-17, 20:30:45
Bei CB fließt BF mit DX11 und Stalker CoP mit DX11 aber ohne HWT ins Ranking ein. Unter DX9/10 ist die GTX295 freilich meist schneller.
Richtig, der Performanceunterschied kommt nur durch DX11, nicht durch die Karte und/oder Treiber zustande.