PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : [1] 2 3 4 5 6 7 8 9 10 11

Ailuros
2010-03-23, 11:10:40
Ueber den Q2 Launch bin ich mir keineswegs sicher. Wie dem auch sei sieht es so aus als ob NV aber trotz allem etwas wie die GF104 so dringend wie moeglich braucht.

Nichts von den folgenden Daten ist gesichert, kann also durchaus sein dass ich irgendetwas falsch aufgeschnappt habe.

Die area: >G92@65nm
GPCs = 2
SMs = 8
TMUs/SM = 8
SI = 4*64 (8 ROPs/partition)
DP= 0?
Frequenz (im besten Fall) = 725/1500MHz

Salvage Part/GF104= 192SP/192bits

Update Juni 2010:

neue SMs (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_gf100_technische_details/4/#abschnitt_streaming_multiprocessor_sm) mit je 8 TMUs und 48SPs (GF100 4 + 32)
GF104: 384SPs 64 TMUs 256-Bit 32 ROPs (336SPs 56 TMUs 192-Bit 24 ROPs @ GTX 460 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8047453#post8047453))
GF106: 192SPs 32 TMUs 192-Bit 24 ROPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8062037#post8062037)
GF108: 96SPs 16 TMUs 128-Bit 16 ROPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8064939#post8064939)

Tarkin
2010-03-23, 12:10:24
Ueber den Q2 Launch bin ich mir keineswegs sicher. Wie dem auch sei sieht es so aus als ob NV aber trotz allem etwas wie die GF104 so dringend wie moeglich braucht.

Nichts von den folgenden Daten ist gesichert, kann also durchaus sein dass ich irgendetwas falsch aufgeschnappt habe.

Die area: >G92@65nm
GPCs = 2
SMs = 8
TMUs/SM = 8
SI = 4*64 (8 ROPs/partition)
DP= 0?
Frequenz (im besten Fall) = 725/1500MHz

Salvage Part/GF104= 192SP/192bits

Also ... wenn eine GTX 470 schon mit einer 5850 zu kämpfen hat... dann ist der GF104 wohl leistungstechnisch im Bereich zwischen 5770 und 5830 einzuordnen. Bei ~ 330mm^2 sehe ich es als schwierig an für nVidia sich in diesem Preis/Leistungsbereich zu positionieren.

So ein Chip wird zwar dringend benötigt.. ob er nVidia "hilft" ist eine andere Frage (das Ding wird einfach zu groß, falls die Gerüchte stimmen).

Godmode
2010-03-23, 12:33:05
Vielleicht konnten sie bei GF104 noch einiges Verbessern, was bei GF100 zu den bekannten Problemen führt.

Ailuros
2010-03-23, 12:37:23
Also ... wenn eine GTX 470 schon mit einer 5850 zu kämpfen hat... dann ist der GF104 wohl leistungstechnisch im Bereich zwischen 5770 und 5830 einzuordnen. Bei ~ 330mm^2 sehe ich es als schwierig an für nVidia sich in diesem Preis/Leistungsbereich zu positionieren.

Wenn die Daten stimmen dann ist GF104 erstmal in manchen Stellen im Vorteil gegenueber der 470.

1. <30% weniger die area, ergo kleinere Herstellungskosten.
2. 470 hat wohl 4 rasters und 8 zusaetzliche ROPs, waehrend GF104 wohl 2 rasters und 16 zusaetzliche ROPs; wo immer die Bandbreite nicht limitiert kann es sein dass die 104 sogar besser mit hohen AA sample Anzahlen umgehen kann.
3. 470 hat 56 TMUs@600+MHz und die GF104 scheint 64TMUs@725MHz zu haben. Man tauscht computing power mit Texelfuellrate aus falls es stimmt.

Das soll jetzt nicht heissen dass eine 104 eine GTX470 schlagen wird. Nur dass das Ding vielleicht besser positioniert sein wird gegen jegliche Konkurrenz als die 470 selber; auch natuerlich unter dem Licht dass die 104 wohl um einiges billiger sein wird als die 470.

So ein Chip wird zwar dringend benötigt.. ob er nVidia "hilft" ist eine andere Frage (das Ding wird einfach zu groß, falls die Gerüchte stimmen).

Definier zu gross wenn ich etwas ueber G92@65nm die area angebe.

Amboss
2010-03-23, 12:43:53
die GF104 könnte in der Tat besser werden für den normalen PC Nutzer, als die 470. Komisch das so wenig darüber berichtet wird, Nvidia will wohl die Reaktionen zum Fermi Launch abwarten?

Ailuros
2010-03-23, 12:50:10
die GF104 könnte in der Tat besser werden für den normalen PC Nutzer, als die 470. Komisch das so wenig darüber berichtet wird, Nvidia will wohl die Reaktionen zum Fermi Launch abwarten?

Eher die ersten GF100 Verkaeufe (hauptsaechlich 470) nicht versauen IMO.

LovesuckZ
2010-03-23, 12:50:17
64 TMUs machen keinen Sinn. Entweder verfügt GF100 wie G80 über doppelte soviele Filtereinheiten, oder das Gerücht ist unsinn.
GF104 müsste mit 33% weniger Bandbreite genauso viele Textureinheiten füttern. GF104 hätte nur die halbe Rechenleistung für die selbe Anzahl an TMUs. Das ist unausgeglichen und bringt genau 0% Leistungsvorteil als wenn sie nur 32 TMUs hätten.

mboeller
2010-03-23, 12:54:15
Ueber den Q2 Launch bin ich mir keineswegs sicher. Wie dem auch sei sieht es so aus als ob NV aber trotz allem etwas wie die GF104 so dringend wie moeglich braucht.

Nichts von den folgenden Daten ist gesichert, kann also durchaus sein dass ich irgendetwas falsch aufgeschnappt habe.

Die area: >G92@65nm
GPCs = 2
SMs = 8
TMUs/SM = 8
SI = 4*64 (8 ROPs/partition)
DP= 0?
Frequenz (im besten Fall) = 725/1500MHz

Salvage Part/GF104= 192SP/192bits


Ich hätte gehofft, das sie 850/1700 MHz schaffen. ~Wie bei der G92.

Mit 64TMUs @850 und 256 Shader @ 1700 wären dann ~90% der GTX470 Leistung möglich (bei Texturlastigen Sachen sogar >GTX470). Bandbreite sollte auch kein Problem sein. 256bit @ 1200MHz sind besser als 320bit @ ~800MHz.

Gast
2010-03-23, 12:59:50
64 TMUs machen keinen Sinn. Entweder verfügt GF100 wie G80 über doppelte soviele Filtereinheiten, oder das Gerücht ist unsinn.
GF104 müsste mit 33% weniger Bandbreite genauso viele Textureinheiten füttern. GF104 hätte nur die halbe Rechenleistung für die selbe Anzahl an TMUs. Das ist unausgeglichen und bringt genau 0% Leistungsvorteil als wenn sie nur 32 TMUs hätten.

Unausgeglichen ist wohl eher GF100 mit 512SPs bei nur 64TMUs. Da passen 256SPs wohl deutlich besser zu 64TMUs, das ist noch immer ein deutlich höheren Verhältnis als bei GT200 mit 240SPs/80TMUs. GF100 ist für professional-market, da zählt nur Rechenleistung.

Ailuros
2010-03-23, 13:03:15
Ich hätte gehofft, das sie 850/1700 MHz schaffen. ~Wie bei der G92.

Bei der G92 liefen die TMUs selbst unter 55nm nicht auf 850MHz oder?

Mit 64TMUs @850 und 256 Shader @ 1700 wären dann ~90% der GTX470 Leistung möglich (bei Texturlastigen Sachen sogar >GTX470). Bandbreite sollte auch kein Problem sein. 256bit @ 1200MHz sind besser als 320bit @ ~800MHz.

Hoehere Speicherfrequenz erhoeht den finalen Preis aus zwei Gruenden:

1. Bessere Kuehlungsloesung da der Stromverbrauch steigt.
2. Schnellerer Speicher ist teurer.

Mehr als mit sagen wir mal 900MHz rechne ich persoenlich nicht.

Spasstiger
2010-03-23, 13:06:19
Das scheint ja auf ungefähr die Eckdaten (Shaderleistung, Texelfüllrate, Pixelfüllrate, Speicherbandbreite) einer GeForce GTX 285 rauszulaufen, nur mit verdoppelter Rasterizer-Performance. Könnte mit den Taktraten durchaus für HD-5850-Niveau reichen.

Ailuros
2010-03-23, 13:07:56
Das scheint ja auf ungefähr die Eckdaten (Shaderleistung, Texelfüllrate, Pixelfüllrate, Speicherbandbreite) einer GeForce GTX 285 rauszulaufen, nur mit verdoppelter Rasterizer-Performance. Könnte mit den Taktraten durchaus auf HD-5850-Performance rauslaufen.

Das wird wohl eine der Ausnahmen sein wo ich mit Deinen sterliren Zahlenrechnungen uebereinstimme. Aber auch nur weil es angeblich NV's tatsaechliches Leistungsziel ist. Stets aber wenn alles nach Plan laeuft blah blah blah :wink:

Spasstiger
2010-03-23, 13:10:22
Also Performance von GTX 285 bis HD 5850 je nach Anwendung?
Der "salvage part" könnte dann die GTX 260 beerben und direkt gegen die HD 5770 gestellt werden.

2. Schnellerer Speicher ist teurer.
Warum verbaut man dann auf der Radeon HD 5770 5 Gbps (http://www.radeon3d.org/img/artikel/grafikkarten/sapphire_radeon_hd_5770/sapphire_radeon_hd_5770_12.jpg) schnellen Speicher (http://www.hynix.com/datasheet/eng/graphics/details/graphics_26_H5GQ1H24AFR.jsp?searchType=2&menuNo=1&m=3&s=3&RK=26&RAM_NAME=)? Die HD 5770 ist ja nicht unbedingt eine teure Karte.

Gast
2010-03-23, 13:17:39
Bei der G92 liefen die TMUs selbst unter 55nm nicht auf 850MHz oder?

meine 8800gts g92 läuft mit 650. die 9800gtx lief mit 675 und die 9800gtx+ dann mit 738.

Ailuros
2010-03-23, 13:19:56
Also Performance von GTX 285 bis HD 5850 je nach Anwendung?
Der "salvage part" könnte dann die GTX 260 beerben und direkt gegen die HD 5770 gestellt werden.

neliz war eine der Kerle der mich auf den 64TMU Gedanken brachte und erwaehnte es auch gerade bei B3D. Stromverbrauch soll aber auch hier ein Problem sein, ergo muss man auch hier wieder um einen Schnitt jeglichen "Optimismus" reduzieren.

Gast
2010-03-23, 13:20:43
letztere war im übrigen der g92b in 55nm. vom "stromsparmodus" identisch mit der gts250

AnarchX
2010-03-23, 13:25:35
Also Performance von GTX 285 bis HD 5850 je nach Anwendung?
Der "salvage part" könnte dann die GTX 260 beerben und direkt gegen die HD 5770 gestellt werden.

Was dann bei >330mm² und 192-Bit GDDR5 nicht wirklich überzeugend wirkt, wenn man die 5770 mit 166mm² und 128-Bit gegenüberstellt.
Laut Samsung Page ist wohl schon der 0.33ns Speicher in Produktion, vielleicht Basis einer möglichen HD5790 (~950/1400MHz).

64 TMUs machen keinen Sinn. Entweder verfügt GF100 wie G80 über doppelte soviele Filtereinheiten, oder das Gerücht ist unsinn.
GF104 müsste mit 33% weniger Bandbreite genauso viele Textureinheiten füttern. GF104 hätte nur die halbe Rechenleistung für die selbe Anzahl an TMUs. Das ist unausgeglichen und bringt genau 0% Leistungsvorteil als wenn sie nur 32 TMUs hätten.
Mit 64 TMUs hätte ein GF104 immernoch mehr MADD-Flops pro Texel als G200 und wenn ein GF100 mehr PhysX und ähnliche Co-Processing-Aufgaben bekommt als die kleineren Karten, dann würde ein entsprechendes Verhältnis auch Sinn machen.
Und wenn bei GF104 nicht, dann wäre es auf jeden Fall sinnvoll bei GF108/106 über 8 TMUs pro SM nachzudenken.

Ailuros
2010-03-23, 13:27:42
letztere war im übrigen der g92b in 55nm. vom "stromsparmodus" identisch mit der gts250

Kommt auf den gleichen Punkt den ich eigentlich meinte; TMUs sind verdammt heikel was Frequenzen und Stromverbrauch betrifft. Deshalb ist 850MHz auch sehr optimistisch fuer meinen Geschmack. Wie wir jetzt auch bei GF100 gesehen haben erlaubt 40G wohl nicht hoehere Frequenzen als bei 55nm (trotz doppelter Chipkomplexitaet) sondern eher im Notfall Gleichstand (siehe RV790@850MHz vs. RV870@850MHz).

Spasstiger
2010-03-23, 13:34:01
Was dann bei >330mm² und 192-Bit GDDR5 nicht wirklich überzeugend wirkt, wenn man die 5770 mit 166mm² und 128-Bit gegenüberstellt.
Die Version mit 192 SPs und 192 Bit wäre ja die Resteverwertung zur Yieldsteigerung. Entsprechende Chips werden wohl kaum teurer sein als Juniper-Chips im Vollausbau.

mboeller
2010-03-23, 16:13:11
Kommt auf den gleichen Punkt den ich eigentlich meinte; TMUs sind verdammt heikel was Frequenzen und Stromverbrauch betrifft. Deshalb ist 850MHz auch sehr optimistisch fuer meinen Geschmack. Wie wir jetzt auch bei GF100 gesehen haben erlaubt 40G wohl nicht hoehere Frequenzen als bei 55nm (trotz doppelter Chipkomplexitaet) sondern eher im Notfall Gleichstand (siehe RV790@850MHz vs. RV870@850MHz).

Meine 850MHz sind einerseits "Prinzip Hoffnung" gewesen und andererseits glaube ich einfach nicht, das Nvidia für den GF100 ursprünglich mal wirklich mit einer Texturingleistung < GTX285 gerechnet hat.

Bei 64 TMUs (ich denke die Idee von Neliz ist falsch) bräuchte Nvidia nun mal min. 810 MHz um die gleiche Roh-Leistung zu erreichen. + 10% als minimal angestrebte Verbesserung; dann kommt man zu den ~~1GHz die Arun mal eingeworfen hat.

Und übrigens: S3 und AMD haben auch TMUs mit 800-850MHz ohne das es zu einem exzessiven Verbrauch kommt.

Gast
2010-03-23, 20:33:05
Hatte GF104 schon sein Tapeout? War doch zwischen den Verspätungen gemunkelt worden das dieser ebenso wie das B1 von GF100 im März auf die Wafer gebacken wird.

Gast
2010-03-23, 21:01:59
Die area: >G92@65nm
GPCs = 2
SMs = 8
TMUs/SM = 8
SI = 4*64 (8 ROPs/partition)
DP= 0?
Frequenz (im besten Fall) = 725/1500MHz

Salvage Part/GF104= 192SP/192bits

Lese ich das richtig? 8TMUs/SM*8SMs wären ja 64 TMUs, also gleich viel wie beim GF100?

Sehr seltsam, war GF100 ursprünglich vielleicht doch auf 128TMUs ausgelegt?

Wenn das stimmt ist wohl auch was dran, wenn auch etwas unfreiwillig, dass GF100 wohl mehr der Compute-Chip und GF104 die eigentliche Gamerkarte sein wird.

Ailuros
2010-03-23, 21:59:45
Meine 850MHz sind einerseits "Prinzip Hoffnung" gewesen und andererseits glaube ich einfach nicht, das Nvidia für den GF100 ursprünglich mal wirklich mit einer Texturingleistung < GTX285 gerechnet hat.

Mehr als 3 Mrd Transistoren haette sich wohl schwer jemand vorstellen koennen bei der Konzeption von GF100. Und nein jegliche These die auf Entscheidungen der letzten Minute deutet a la "raus mit 64 TMUs" ist Bloedsinn.

Bei 64 TMUs (ich denke die Idee von Neliz ist falsch)

Es ist eben nicht neliz' Idee sondern etwas das von mehreren Seiten hinter den Kulissen herumschwirrt.

bräuchte Nvidia nun mal min. 810 MHz um die gleiche Roh-Leistung zu erreichen. + 10% als minimal angestrebte Verbesserung; dann kommt man zu den ~~1GHz die Arun mal eingeworfen hat.

Und übrigens: S3 und AMD haben auch TMUs mit 800-850MHz ohne das es zu einem exzessiven Verbrauch kommt.

Welcher dieser Designs hat hot clocks und wie viele dieser laesst den groessten Teil des chips auf 1/2 hot clock laufen keiner? NV hat ihre ALUs auf hot clock gesetzt, weil es die einzigen Einheiten sind wo sich durch die Frequenzerhoehung die benoetigte die area nicht erhoeht.

Zwischen dem obrigen Stuss und der eigentlichen Realitaet haette es NV mehr als 2x Mal so viel die area gekostet die TMUs auf hot clock zu treiben und da waere es Bloedsinn gewesen nicht gleich an 128TMUs im GF100 zu denken.

Nochmal wenn die 64TMU These stimmt dann hat NV lediglich computing power mit Texel fuellrate ersetzt. U.a. ist es auch kein Zufall dass ich keine DP Faehigkeiten mehr auf 104 erwarte.

Lese ich das richtig? 8TMUs/SM*8SMs wären ja 64 TMUs, also gleich viel wie beim GF100?

Ja. Bitte alle Beitraege durchlesen; wie schon 2x Mal erwaehnt wenn es stimmt tauscht NV computing power mit Fuellrate aus.

Sehr seltsam, war GF100 ursprünglich vielleicht doch auf 128TMUs ausgelegt?

Nein.

Wenn das stimmt ist wohl auch was dran, wenn auch etwas unfreiwillig, dass GF100 wohl mehr der Compute-Chip und GF104 die eigentliche Gamerkarte sein wird.

Wenn GF104 ihr originales Ziel erreicht dann hast Du im besten Fall ~GTX285 Leistung.

Gast
2010-03-23, 22:15:28
Mehr als 3 Mrd Transistoren haette sich wohl schwer jemand vorstellen koennen bei der Konzeption von GF100. Und nein jegliche These die auf Entscheidungen der letzten Minute deutet a la "raus mit 64 TMUs" ist Bloedsinn.


In letzter Minute sicher nicht, aber sagen wir mal im letzten Jahr.

Ich kann mir jedenfalls nicht Vorstellen, dass GF100 mit so wenig Texelleistung geplant war, wie es zumindest jetzt den Anschein hat.

Ich kann mir nur eines der folgenden Szenarien vorstellen:

1. GF100 war mit 128TMUs geplant, wurde damit aber viel zu groß und wurde reduziert. Das geht natürlich nicht in letzter Minute, die Entscheidung muss mindestens 1 Jahr vor dem geplanten Start im Herbst 09 stattgefunden haben. (Zur Erinnerung, auch ATI hat RV870 in diesem Zeitraum massiv reduziert)

2. Für die TMUs waren wesentlich höhere Taktfrequenzen geplant, die aber aufgrund der Stromaufnahme nicht erreichbar sind.

3. Wir haben wie beim G80 ein 2:1 TF:TA-Verhältnis, was man uns bis jetzt verheimlicht hat, und setzt wie schon damals bei den Ablegern wieder auf 1:1. Wenn an den bisher geleakten Benches aber nur ein Fünkchen Wahrheit vorhanden ist deutet es nicht wirklich darauf hin.


Weiteres Indiz ist imo der für GDDR5-Verhältnisse ziemlich gemächliche Speichertakt bei 470/480GTX. Dafür hätte man wirklich nicht das breite Interface gebraucht, da hätte es höher getakteter GDDR5 auch getan und man hätte gleichzeitig wohl DIE-Size und Strom gespart.


Wenn an den Gerüchten etwas dran ist wird es für die 470GTX jedenfalls ziemlich ungemütlich. Mit mehr TMUs und gleichzeitig mehr Takt wird der GF104 jedenfalls ziemlich knapp dran sein. Das Speicherinterface ist mit 256bit auch nicht so viel kleiner, dass man das ganze nicht über höheren Takt wettmachen könnte.

LovesuckZ
2010-03-23, 22:21:31
Nicht vergessen: nVidia's L2 Cache ist abhängig von den ROP-partitionen /Speichercontroller. Die Bandbreite ist nur ein Nebeneffekt. Dadurch, dass sie nun mehr und vorallem unterschiedlichere Daten auf den Chip halten können und mit 250GB/s umherschicken, benötigen sie erstmal keinen hochgetakteten GDDR5 Speicher.

Ailuros
2010-03-23, 22:29:59
In letzter Minute sicher nicht, aber sagen wir mal im letzten Jahr.

Nein.
Ich kann mir jedenfalls nicht Vorstellen, dass GF100 mit so wenig Texelleistung geplant war, wie es zumindest jetzt den Anschein hat.
Ich kann mir auch nicht vieles vorstellen und deshalb bin ich auch kein hw Designer. Nebenbei fuer GF100 gibt es einen Mega-Thread. Der Thread hier ist ueber GF104 und sollte auch beim Thema bleiben bitte.

Wenn an den Gerüchten etwas dran ist wird es für die 470GTX jedenfalls ziemlich ungemütlich. Mit mehr TMUs und gleichzeitig mehr Takt wird der GF104 jedenfalls ziemlich knapp dran sein.

Weil Fuellrate das alpha und omega heutzutage bei 3D ist? Weil Du schon ausfuehrliche Leistungsanalysen fuer GF100 hast der Dir die angebliche Fuellraten-Knappheit bestaetigt oder weil Du einfach nicht verstehen kannst dass wenn man von 448SPs auf 256SPs schrumpft man irgendwo doch den Unterschied machen muss?

Ja der GF104 wird erstmal sehr gute Pixelfuellraten haben fuer sein Segment und womoeglich auch sehr gute Texelfuellraten, aber wie oben schon angedeutet Fuellrate ist nicht alles und nebenbei braucht Fuellrate auch zufaelligerweise Bandbreite.

Wie dem auch sei wo immer Bandbreite nicht limitierte positionierte sich auch G92 ausgezeichnet zu G80.

Das Speicherinterface ist mit 256bit auch nicht so viel kleiner, dass man das ganze nicht über höheren Takt wettmachen könnte.

Tu mir den Gefallen und lies die vorigen Beitraege zumindest einmal durch. Es nervt wenn man das gleiche immer und immer wieder wiederholen muss. Wenn es Stromverbrauchprobleme wie auf GF100 geben sollte dann leidet darunter als erstes wieder die Speicherfrequenz. Sei froh wenn es ueberhaupt 900MHz sein werden.

Gast
2010-03-23, 22:55:53
Nicht vergessen: nVidia's L2 Cache ist abhängig von den ROP-partitionen /Speichercontroller. Die Bandbreite ist nur ein Nebeneffekt. Dadurch, dass sie nun mehr und vorallem unterschiedlichere Daten auf den Chip halten können und mit 250GB/s umherschicken, benötigen sie erstmal keinen hochgetakteten GDDR5 Speicher.


Das Design sollte hier eigentlich entsprechend aufeinander abgestimmt werden. Wenn man von vornherein nur die relativ niedrige Bandbreite benötigt hätte, dann hätte man genauso den L2-Cache mit 256bit entsprechend dimensionieren können. Da man das aber nicht getan hat, ist man wohl von einem höheren Bandbreitenbedarf ausgegangen, den man jetzt, warum auch immer, nicht benötigt.

LovesuckZ
2010-03-23, 23:04:16
Das Design sollte hier eigentlich entsprechend aufeinander abgestimmt werden. Wenn man von vornherein nur die relativ niedrige Bandbreite benötigt hätte, dann hätte man genauso den L2-Cache mit 256bit entsprechend dimensionieren können. Da man das aber nicht getan hat, ist man wohl von einem höheren Bandbreitenbedarf ausgegangen, den man jetzt, warum auch immer, nicht benötigt.

Nö. 256bit Anbindung bei 4 Partitionen entspreche 1MB L2 Cache. Gleichzeitig hätte man ca. 1440MHz GDDR5 Ram benötigt, um die selbe Bandbreite zu erreichen und hätte nur 1 oder gleich 2 GB Speicher unterstützt. Wobei ersteres zuwenig und zweites als Standard fast schon overkill ist.
GF104 hätte dann auch nur ein Interface von 128bit haben dürfen, um einen entsprechenden Abstand zu bewahren.
Nein, das jetzige System ist abgestimmt. AMD benötigt eine hohen Speichertakt, um eine hohe Bandbreite zu genieren. nVidia geht den Weg über mehr Controller, AMD über Takt.

Gast
2010-03-23, 23:22:47
Nebenbei fuer GF100 gibt es einen Mega-Thread. Der Thread hier ist ueber GF104 und sollte auch beim Thema bleiben bitte.

Der ist allerdings ziemlich unübersichtlich, da würde so ein Posting ziemlich untergehen, deshalb habe ich bewusst diesen Thread gewählt.



Weil Fuellrate das alpha und omega heutzutage bei 3D ist? Weil Du schon ausfuehrliche Leistungsanalysen fuer GF100 hast der Dir die angebliche Fuellraten-Knappheit bestaetigt

Nein, aber zumindest einige Indizien:

1. G200 hat deutlich mehr Füllrate und profitiert trotzdem deutlich mehr durch Core-Übertaktung als durch Shaderübertaktung. Das könnte natürlich auch an den ROPs, oder etwas anderem liegen, zeigt aber eindeutig dass die Shaderleistung zumindest in heutigen Games nicht unterdimensioniert ist, und das ist der einzige Punkt in dem GF100 (vor allem in Form der 470er) deutlich mehr hat.

2. 16x HQ-AF kostet Leistung, zwar nicht sehr viel aber doch bemerkbar. Hätte G200 dermaßen viel Überschuss an Füllrate und würde ständig die Shaderleistung limitieren müsste der Verlust im Bereich der Messungenauigkeit sein.

3. GF100 erreicht (zumindest laut Spekulationen) in etwa die Taktfrequenzen von G200. Hätte er 128TMUs und 512 ALUs müsste er selbst ohne zusätzliche interne Verbesserungen sehr deutlich schneller als G200 und damit auch deutlich schneller als RV870 sein. Zumindest die bisherigen (und teilweise auch von dir bestätigten) Gerüchte deuten auf einen eher geringen Vorsprung der 480GTX in heutigen Spielen hin.


oder weil Du einfach nicht verstehen kannst dass wenn man von 448SPs auf 256SPs schrumpft man irgendwo doch den Unterschied machen muss?

Natürlich macht es irgendwo einen Unterschied, aber nicht in einem Großteil der heutigen Spiele. GF100 wird sicher mit viel Tesselation, PhysX und CS und natürlich auch mit CUDA seine Muskeln zeigen und dann auch deutlich vor GF104 liegen. In den meisten heutigen Spielen aber kaum.

Je nach Taktfrequenz von GF104 auch der Unterschied in der Rechenleistung jetzt nicht so wahnsinnig hoch.
Mit 1500MHz erreicht man immerhin 71% der 470, mit 1600MHz 76%.

Tu mir den Gefallen und lies die vorigen Beitraege zumindest einmal durch.

Hab ich schon.

Wenn es Stromverbrauchprobleme wie auf GF100 geben sollte dann leidet darunter als erstes wieder die Speicherfrequenz.

Naja, geringer als bei GF100 wird er wohl sein ;)




Vermutlich wird man aber die Frequenzen niedrig genug wählen, um einen gesunden Abstand zur 470 zu halten, irgendwie wollen sie die nicht voll funktionstüchtigen GF100-Chips verkaufen.
Für Übertakter dürfte GF104 aber wohl nicht schlecht werden, vor allem wenn man an der Spannung fummeln darf. 470er-Leistung dürfte da wohl drinnen sein, bei geringerem Stromverbrauch.

Gast
2010-03-24, 00:08:31
Ich verstehe diese niedrigen Speichertakte rein gar nicht.
Alle Welt verbaut GDDR5 mit 0,4ns. Selbst wenn der dann doch nur mit 2000MHz getaktet wird. Ne Preissache kann es nicht sein.

Wärmeproblem? Der Speicher ist doch da das geringeste Problem, da kannste vielleicht 10-15W einsparen.
Da kann man gleich nen kleineres Speicherinterface nehmen. Weniger Transistoren führen auch zu weniger Wärme.
Das will mir auch beim GF100 nicht in den Kopf, mit 256bit und GDDR5 mit 5Ggbps hätte man die gleiche Speicherbandbreite.

Ailuros
2010-03-24, 00:08:38
Der ist allerdings ziemlich unübersichtlich, da würde so ein Posting ziemlich untergehen, deshalb habe ich bewusst diesen Thread gewählt.

Der GF100 wurde unuebersichtlich genau weil leider es viel zu oft zu OT kam. Ist nicht direkt der Fall hier aber Du wirst wohl verstehen dass ich mir nicht unbedingt eine Wiederholung auch fuer diesen Thread wuensche. Ist ja auch nicht boes gemeint ;)

Nein, aber zumindest einige Indizien:

1. G200 hat deutlich mehr Füllrate und profitiert trotzdem deutlich mehr durch Core-Übertaktung als durch Shaderübertaktung. Das könnte natürlich auch an den ROPs, oder etwas anderem liegen, zeigt aber eindeutig dass die Shaderleistung zumindest in heutigen Games nicht unterdimensioniert ist, und das ist der einzige Punkt in dem GF100 (vor allem in Form der 470er) deutlich mehr hat.

Uebertaktungen sind aber zwischen GT200 und GF100 schwer vergleichbar eben weil beim letzteren core nur noch ROPs/L2 cache betreffen. TMUs sind beim GF100 verschachtelt, benutzen texture cache anders und laufen auf 1/2 hot clock.

Ganz nebenbei TMU!=TMU zwischen den beiden Architekturen.

2. 16x HQ-AF kostet Leistung, zwar nicht sehr viel aber doch bemerkbar. Hätte G200 dermaßen viel Überschuss an Füllrate und würde ständig die Shaderleistung limitieren müsste der Verlust im Bereich der Messungenauigkeit sein.

Der Verlust mit HQ AF ist nach wie vor relativ gering. Da ich aber noch keine Ahnung habe wie sich GF100 in HQ vs. Q was die Leistung betrifft verhaelt, wage ich auch noch keine Vergleiche.

3. GF100 erreicht (zumindest laut Spekulationen) in etwa die Taktfrequenzen von G200.

700/1400MHz fuer 1/2 hot clock und hot clock sind sicher. Anders 700*60= 42.0 GTexels/s

Hätte er 128TMUs und 512 ALUs müsste er selbst ohne zusätzliche interne Verbesserungen sehr deutlich schneller als G200 und damit auch deutlich schneller als RV870 sein. Zumindest die bisherigen (und teilweise auch von dir bestätigten) Gerüchte deuten auf einen eher geringen Vorsprung der 480GTX in heutigen Spielen hin.

Der Vorsprung den ich erwarte liegt nicht ausserhalb meiner originalen Erwartungen minus 1SM, minus etwas niedrigere Frequenzen und minus ~13% Bandbreite.

Wer sagt dass sich sowohl die 470 als auch die 480 nicht deutlich von einer GT200 absetzen koennen? Wie genau dieses erreicht wird ist die brennende Frage, aber ich warte auch aus gutem Grund auf die ersten ausfuehrlichen Analysen.

Natürlich macht es irgendwo einen Unterschied, aber nicht in einem Großteil der heutigen Spiele. GF100 wird sicher mit viel Tesselation, PhysX und CS und natürlich auch mit CUDA seine Muskeln zeigen und dann auch deutlich vor GF104 liegen. In den meisten heutigen Spielen aber kaum.

470/480 legt sich in heutigen Spielen dort ab wo z.B. trisetup limitiert. CUDA bzw. GPGPU hat offensichtlich nichts mit 3D zu tun.

Je nach Taktfrequenz von GF104 auch der Unterschied in der Rechenleistung jetzt nicht so wahnsinnig hoch.
Mit 1500MHz erreicht man immerhin 71% der 470, mit 1600MHz 76%.

Siehe oben und schau Dir folgendes an:

GF104 = 2 raster/trisetups * 750MHz = 1500 MTris/clock
GTX470 = 4 raster/trisetups * 607MHz = 2428 MTris/clock
GTX285 = 1 Tri/2clocks * 648MHz = 324 MTris/clock

Der theoretische Humbug steht nur dafuer da dass eine jegliche GPU eine Kollektion von diversen Faktoren ist und man sollte so gut wie moeglich alle mitberechnen.

Frequenzen sind anders, Datenfluss ist anders bei GF100 und eine ziemlich lange Liste. Anders und noch grober vereinfacht: jegliche GF10x ist eben nicht eine aufgemoebelte GT200 mit mehr SPs, weniger TMUs pro SM und mehr ROPs.

Naja, geringer als bei GF100 wird er wohl sein ;)

Und Du weisst das woher?

Vermutlich wird man aber die Frequenzen niedrig genug wählen, um einen gesunden Abstand zur 470 zu halten, irgendwie wollen sie die nicht voll funktionstüchtigen GF100-Chips verkaufen.
Für Übertakter dürfte GF104 aber wohl nicht schlecht werden, vor allem wenn man an der Spannung fummeln darf. 470er-Leistung dürfte da wohl drinnen sein, bei geringerem Stromverbrauch.

Wie gesagt das originale Ziel war fuer GF100 725MHz und fuer GF104 750MHz (und ja stets 1/2 hot clocks).

Und warum sollte NV technisch die 104 Frequenzen so niedrig wie moeglich halten? Glaubst Du dass sie es lieber haben mehr GF104 oder GTX470 zu verkaufen am Ende, ueberhaupt da der 104 schaetzungweise ca. =/>60% der GF100 Herstellungskosten betragen wird? Und nein es wird so oder so keine 470-er im Ueberfluss geben; wenn dann verschelpeln sie diesen gleich im Quadro Markt, wobei die Fermi Quadros noch gar nicht angekuendigt wurden.

V2.0
2010-03-24, 07:26:17
Gf104 ist mehr auf den Massenmarkt ausgelegt. Das ist ne Karte, die auch noch für DX9 Nutzer ein interessante Aufrüstoption sein wird.

LovesuckZ
2010-03-24, 10:43:48
Ich verstehe diese niedrigen Speichertakte rein gar nicht.
Alle Welt verbaut GDDR5 mit 0,4ns. Selbst wenn der dann doch nur mit 2000MHz getaktet wird. Ne Preissache kann es nicht sein.

Wärmeproblem? Der Speicher ist doch da das geringeste Problem, da kannste vielleicht 10-15W einsparen.
Da kann man gleich nen kleineres Speicherinterface nehmen. Weniger Transistoren führen auch zu weniger Wärme.
Das will mir auch beim GF100 nicht in den Kopf, mit 256bit und GDDR5 mit 5Ggbps hätte man die gleiche Speicherbandbreite.

nVidia verbaut 0,4ns Speicher. Wahrscheinlich kommt die niedrige Taktung aus zwei Gründen: Stromverbrauch und OC-Versionen der Partner. Würde mich nicht wundern, wenn wir solche Versionen sehen, die mit >1100MHz kommen.

Odal
2010-03-24, 12:44:18
Nö. 256bit Anbindung bei 4 Partitionen entspreche 1MB L2 Cache. Gleichzeitig hätte man ca. 1440MHz GDDR5 Ram benötigt, um die selbe Bandbreite zu erreichen und hätte nur 1 oder gleich 2 GB Speicher unterstützt. Wobei ersteres zuwenig und zweites als Standard fast schon overkill ist.
GF104 hätte dann auch nur ein Interface von 128bit haben dürfen, um einen entsprechenden Abstand zu bewahren.
Nein, das jetzige System ist abgestimmt. AMD benötigt eine hohen Speichertakt, um eine hohe Bandbreite zu genieren. nVidia geht den Weg über mehr Controller, AMD über Takt.


wenn der GF104 nicht gerade mit sehr hohem shaderclock kommt ist das eher eine art 9600GT variante des G100 und da würden 1024 MB sehr wohl ausreichend sein

entweder hoher takt oder man darf sich vom GF104 nicht zuviel versprechen imho

AnarchX
2010-03-24, 14:40:01
[General] In fact, it is worth looking gf104
Price 1200, Power 100w or so, the performance is about 30% higher than 5770, complete cuda 3.0 ........
For the nv is not difficult it is said to be out in July, there are a few months to optimize it, that time is certainly the main force in the end. Provided that amd continue to 5830 with a go cup
http://we.pcinlife.com/thread-1383896-1-1.html

$175 wären für heutige Verhältnisse durchaus ein Kampfpreis, aber in 4 Monaten kann man da wohl schon für umgerechnet 160€ eher eine Referenz 5850 erwarten, wenn AMD in den Preiskampf übergeht.

Gast
2010-03-24, 14:42:53
http://we.pcinlife.com/thread-1383896-1-1.html

$175 wären für heutige Verhältnisse durchaus ein Kampfpreis, aber in 4 Monaten kann man da wohl schon für umgerechnet 160€ eher eine Referenz 5850 erwarten, wenn AMD in den Preiskampf übergeht.

AMD hat gar nicht die Stückzahlen um einen Preiskampf zu starten. Die paar Chips die man bekommt werden ihnen auch so aus den Händen gerissen. Ein Preiskampf würde keinen Sinn machen sondern nur die Margen senken.

Sorkalm
2010-03-24, 15:37:12
$175 wären für heutige Verhältnisse durchaus ein Kampfpreis, aber in 4 Monaten kann man da wohl schon für umgerechnet 160€ eher eine Referenz 5850 erwarten, wenn AMD in den Preiskampf übergeht.

Ist da vielleicht der Salvage-Part mit gemeint?

Weil 175$ für das volle Modell kann ich mit den spekulierten Daten mir absolut
nicht vorstellen. Damit macht man sich ja die ganze Preisgestaltung der High-End-Modelle kaputt. Gut, wird müssen erstmal sehen was das alles genau für eine Performance abliefert, aber halt ausgehend von den bisher bekannten Daten. Und wenn ich mir mal die Kostenseite anschaue, würde ich das auch nicht für so schlau halten, mit einem doch recht großen 40nm-Die gleich in solchen Preisregionen einzusteigen, wo AMD ja auch reagieren müsste.
Wie gesagt, 40 nm muss auch erstmal in den Massen lieferbar werden.

V2.0
2010-03-24, 16:54:52
July - im besten Falle - ist nahe an dem Start von FAB14 und dann geht der Preiskampf los.

Botcruscher
2010-03-24, 17:32:27
http://we.pcinlife.com/thread-1383896-1-1.html

$175 wären für heutige Verhältnisse durchaus ein Kampfpreis, aber in 4 Monaten kann man da wohl schon für umgerechnet 160€ eher eine Referenz 5850 erwarten, wenn AMD in den Preiskampf übergeht.

Performance is about 30% higher than 5770 - das wäre fast 5850. Die 470 soll zwischen 5850 und 70 liegen. Von daher: Ich glaube nicht Tim.

V2.0
2010-03-24, 17:40:31
Du gehst om A3 GF100 aus. Im Juli könnte B1 B2 bereit sein.

Botcruscher
2010-03-24, 17:46:54
Das soll auch nur die Yields verbessern. Mit Glück springen noch ein paar MHz raus aber das war es dann schon.

Dural
2010-03-24, 18:07:57
so lange die 40nm fertigung so schlecht läuft wird auch ein GF104 nicht wirklich viel bringen...

siehe auch RV870 da sieht man auch OC takt von 1000-1200MHz

V2.0
2010-03-24, 19:23:51
Das soll auch nur die Yields verbessern. Mit Glück springen noch ein paar MHz raus aber das war es dann schon.

Die Yields verbessern und Probleme lösen, so dass auch die 512SP Version kommen wird und man hofft sicherlich auchetwas näher an den ursprünglichen Zieltakt zu kommen.

Gast
2010-03-24, 22:22:01
Wie hoch soll überhaupt der effektive Speichertakt des GF104 ca. werden?

Also wenn Ailuros schreibt dass der maximal Speichertakt 900Mhz, dann meint er sicherlich dass der effektive Speichertakt 1800Mhz beträgt, oder nicht?
Denn nur 900Mhz effektiver Speichertakt wär für Karte deutlich unterdimensioniert. Oder rechnet man bei DDR5 anders als bei DDR3?

(900*256)/4=57,6GB/s

(1800*256)/4=115,2GB/s

Spasstiger
2010-03-24, 23:02:54
Oder rechnet man bei DDR5 anders als bei DDR3?
Bei GDDR5 gibts zwei verschiedene Taktsignale. Ailuros bezieht sich mit den 900 MHz auf den Befehlstakt. Der I/O-Takt liegt dann bei 1800 MHz, die Datenrate bei 3600 Mbps.

Ailuros
2010-03-24, 23:03:53
Wie hoch soll überhaupt der effektive Speichertakt des GF104 ca. werden?

Also wenn Ailuros schreibt dass der maximal Speichertakt 900Mhz, dann meint er sicherlich dass der effektive Speichertakt 1800Mhz beträgt, oder nicht?
Denn nur 900Mhz effektiver Speichertakt wär für Karte deutlich unterdimensioniert. Oder rechnet man bei DDR5 anders als bei DDR3?

(900*256)/4=57,6GB/s

(1800*256)/4=115,2GB/s

MHz stehen bei mir fuer die eigentliche Frequenz und nicht fuer double data rates. Natuerlich sind es bei "meinen" 900MHz dann theoretisch auch 115GB/s Bandbreite.

Gast
2010-03-25, 14:23:13
Was soll denn die eigentliche Frequenz sein? Bisher hat man immer den IO-Takt angegeben. Ob DDR2, GDDR3 oder sonstwas. Was soll das mit DoubleDataRate zu tun haben?

nVidia verbaut 0,4ns Speicher. Wahrscheinlich kommt die niedrige Taktung aus zwei Gründen: Stromverbrauch und OC-Versionen der Partner. Würde mich nicht wundern, wenn wir solche Versionen sehen, die mit >1100MHz kommen.
Naja wenn der Chip die Bandbreite benötigen würde, dann würde man die nicht nur wegen OC Version beschneiden. Und wegen dem Stromverbrauch würde man auch nicht den Speichertakt so sehr absenken wenn die Performance dadurch in Mitleidenschaft gezogen würde.
Warum also kein 256bit SI?
Vielleicht war der Chip schneller angedacht und mit 512SP und entsprechendem Takt wären 2,5GHz @ 256bit SI zu knapp geworden.

Gast23
2010-03-25, 20:29:58
Was soll denn die eigentliche Frequenz sein? Bisher hat man immer den IO-Takt angegeben. Ob DDR2, GDDR3 oder sonstwas. Was soll das mit DoubleDataRate zu tun haben?



http://de.wikipedia.org/wiki/GDDR5

Die höhere Geschwindigkeit des GDDR5 gegenüber GDDR3 erigbt sich aus der Verdoppelung des Prefetch von 4Bit auf 8Bit pro Pin und höheren Taktraten.

Gast
2010-03-25, 20:57:18
Ich glaube ihr verwechselt hier alle etwas. Das was hier geschreiben wird past eher zu GF106 oder GF108

Der GF104 wird ein Refresh des GF100 und logischer Weise in allen Bereichen besser als GF100.

Ailuros
2010-03-25, 21:06:49
Ich glaube ihr verwechselt hier alle etwas. Das was hier geschreiben wird past eher zu GF106 oder GF108

Oder GF101, GF102, GF103, GF105, GF107, GF109... :rolleyes:

GF108 ist nebenbei ein single SM chip afaik.

Der GF104 wird ein Refresh des GF100 und logischer Weise in allen Bereichen besser als GF100.

Roadmap details or it didn't happen :P

Gast von vorhin
2010-03-25, 21:16:26
http://www.3dcenter.org/artikel/details-zu-nvidias-performance-chip-gf104
Nun kommt es offenbar zu dieser 4-Chip-Strategie, bei welcher der GF104-Chip in den Performance-Bereich (130 bis 230 Euro) geht, der GF106-Chip den Mainstream-Bereich (60-100 Euro) für sich allein hat und der GF108-Chip wie gehabt den LowCost-Part (30-40 Euro) bildet

http://www.hardware-infos.com/news.php?news=3483
Parallel arbeitet Nvidia auch noch am Mainstream-Chip GF106 und Performance-Chip GF104. Letzterer soll gerüchteweise auch für ein relativ schnelles Erbe des GF100 sorgen, der aufgrund seiner großen Chipfläche und schlechten Ausbeute mittelfristig unrentabel erscheint und daher wohl auch nur auf 10.000 Stück begrenzt sein soll.

V2.0
2010-03-25, 21:23:01
Nv hat heute schon mehr als 10.000 GF100 produziert.

Gast
2010-03-25, 21:31:53
Wenn die Gerüchte stimmen könnte vielleicht wirklich was dran sein, dass der GF104 für die Dual-Karte verwendet wird.

128TMUs+512 ALUs wären ja nicht so schlecht, und bis man GF100 so weit abspeckt, dass man 2 davon in 300W unterbringen kann ist man mit 2x GF104 wohl schneller.

Rampage 2
2010-03-25, 22:12:20
Nochmal wenn die 64TMU These stimmt dann hat NV lediglich computing power mit Texel fuellrate ersetzt. U.a. ist es auch kein Zufall dass ich keine DP Faehigkeiten mehr auf 104 erwarte.

Wenn GF104 ihr originales Ziel erreicht dann hast Du im besten Fall ~GTX285 Leistung.

Mit "DP" meinst du bestimmt "Double Precision" oder? Was ist das? Ich glaube, es hat was mit der HDR-Qualität zu tun - also SinglePrecision = 64Bit-HDR (FP16) und DoublePrecision = 128Bit-HDR (FP32). Soll das heissen, der GF104 wird kein FullPrecision-HDR mehr ausführen können?

Zum Zweiten (GTX285-Leistung): Das heisst, Nvidia hat überhaupt keine Effizienzoptimierung beim GF100-Chip vorgenommen? Was erhoffen sie sich dann von diesem Chip??? :mad:

R2

Coda
2010-03-25, 22:17:18
DP ist für Spiele völlig bums.

Rampage 2
2010-03-25, 22:19:57
DP ist für Spiele völlig bums.

Ich will wenigstens wissen, was es ist und ob es etwas mit der Renderinggenauigkeit zu tun hat?

Selbiges mit der Frage über die Effizienz des GF100-Chips

R2

Spasstiger
2010-03-25, 22:42:49
DP bedeutet, dass mit 64 Bit breiten Floating-Point-Datentypen gerechnet wird (fp64).

Coda
2010-03-26, 01:44:58
Ich will wenigstens wissen, was es ist und ob es etwas mit der Renderinggenauigkeit zu tun hat?
Hat es, aber Spiele verwenden ausschließlich Single-Precision.

Selbiges mit der Frage über die Effizienz des GF100-Chips
Fermi basierte Chips sollten schon sichtbar effizienter sein als solche mit der G80-Architektur. Wieviel wirklich wird sich mit der Zeit herausstellen, wenn die Treiber gereift und die kleinen Karten draußen sind.

Ailuros
2010-03-26, 07:19:37
Mit "DP" meinst du bestimmt "Double Precision" oder? Was ist das? Ich glaube, es hat was mit der HDR-Qualität zu tun - also SinglePrecision = 64Bit-HDR (FP16) und DoublePrecision = 128Bit-HDR (FP32). Soll das heissen, der GF104 wird kein FullPrecision-HDR mehr ausführen können?

Wie schon weiter oben erklaert es geht um Rechengenauigkeit in den ALUs FP64 dass nur fuer GPGPU nutzvoll ist. Auch AMD hat ihre eigenen mainstream und abwaerts von double precision kastriert. HDR wird bei beiden IHVs von top to bottom bis auf FP32 moeglich sein.

Zum Zweiten (GTX285-Leistung): Das heisst, Nvidia hat überhaupt keine Effizienzoptimierung beim GF100-Chip vorgenommen? Was erhoffen sie sich dann von diesem Chip??? :mad:

R2

Da wir nichts ueber die Speicherfrequenz wissen, kann ich Dir den Bandbreiten-Unterschied auch nicht genauer einschaetzen aber Du solltest zwei Einzelheiten in der Zwischenzeit im Hinterkopf behalten:

1. GT200=512bit/GDDR3, GF104=256bit/GDDR5; wenn der Bandbreiten-Unterschied bei </=50% liegt macht es schon einen Unterschied.

2. GT200 = 1 raster/1 trisetup, 32 pixels/clock rasterizing, 32 ROPs
GF104 = 2 raster/2 trisetup, 16 pixels/clock rasterizing, 32 ROPs

Wenn der 104 nun wirklich so ausgelegt ist, dann heisst es dass er 16 ROPs in relativem Sinn im "Ueberfluss" hat fuer zusaetzliche AA Effizienz. Genau aus dem Grund sagte ich dass der 104 sogar gegen eine GTX470 einen leichten Vorteil haben koennte mit 8xMSAA als Beispiel wo immer die Bandbreite der 104 nicht begrenzt. Im Vergleich zur 285 duerfte der Unterschied noch groesser sein, da GF10x erstmal A2C FB Kompression fuer 8xMSAA benutzen und natuerlich die jeweiligen zusaetzlichen ROPs die nicht von den raster units benutzt werden. Bei der GTX480 sind es 16 im Ueberfluss (32 pixels/clock rasterizing, 48 ROPs), bei der GTX470 sind es 8 im Ueberfluss (32 pixels/clock rasterizing, 40 ROPs) und dann GF104 dann eben 16 (16 pixels/clock, 32 ROPs).

Im Vergleich zur GTX470 sieht die GF104 in etwa wie die G92 im Vergleich zur G80 aus, wenn seine Frequenzen auch ueber die der GTX480 liegen werden.

Nakai
2010-03-26, 14:20:36
Ich gehe mal davon aus, dass der GF104 bei starker Tesselation den RV870 ziemlich stark konkurrieren wird. Tesselationsleistung sollte da etwa gleich sein.
Man wird wohl etwas langsamer als eine GTX285 sein und damit HD5830 und HD5770 ziemlich stark ärgern.

Wenn die Gerüchte stimmen könnte vielleicht wirklich was dran sein, dass der GF104 für die Dual-Karte verwendet wird.

Also das glaube ich nicht. Fermi reicht da schon um Hemlock zu ärgern.
NV muss da ansetzen, wo ATi ordentlich verdient und das ist im unteren Segment. NV liegt da fast 6 Monate hinten dran.


mfg

Ailuros
2010-03-26, 14:42:15
Ich gehe mal davon aus, dass der GF104 bei starker Tesselation den RV870 ziemlich stark konkurrieren wird. Tesselationsleistung sollte da etwa gleich sein.

Wenn Tessellation in Spielen irgendwelche groessere Hoehen erreichen wird, wird IMO sogar GF100 nicht mehr besonders relevant sein. Wie dem auch sei in Spielen wo der trisetup limitiert, hat der 104 einen theoretischen maessigen Vorteil.

Man wird wohl etwas langsamer als eine GTX285 sein und damit HD5830 und HD5770 ziemlich stark ärgern.

Langsamer oder schneller haengt von den finalen Frequenzen einer GF104 ab.

Also das glaube ich nicht. Fermi reicht da schon um Hemlock zu ärgern.
NV muss da ansetzen, wo ATi ordentlich verdient und das ist im unteren Segment. NV liegt da fast 6 Monate hinten dran.


mfg

AMD erwartet aber komischerweise einen Doppeldecker und das eigentlich nur wegen der albernen Leistungskrone. Etwas an den Haaren gezogen ist die 2*GF104 These schon, aber total unmoeglich ist es auch nicht. Vorraussetzung waere dass sie zumindest 1500 mit dem Ding erreichen koennen ohne zu hohen Stromverbrauch.

GTX480=

480SPs@1.4GHz
60TMUs@700MHz
48ROPs@610MHz (?)
1.5GB GDDR5

2*GF104=

512SPs@1.5GHz
128TMUs@750MHz
64ROPs@660MHz (?)
2GB GDDR5

Einen deutlichen Vorsprung in Bumsfallera DX9 Konsolen-Ports gegen die 480 sollte das zweite schon schaffen. Bandbreite waere auch genug da um die 64ROPs zu fuettern fuer irgend einen langweiligen AA modus ("ich hab die hoechste Sample-Anzahl aber einen irrsinnigen grid").

Es schwirrt noch eine weitere hoechstinteressante Einzelheit fuer das rein hypothetische Dual-Gespann herum, aber ich will es erstmal von einer ernsthaften Quelle oder von NV selber bestaetigt bekommen. Wenn ja koennte es das erste Mal sein dass ich mir aus Interesse persoenlich den Kopf drehe zu einer mGPU Loesung.

Leonidas
2010-03-26, 15:47:43
Schon möglich, daß man die Dual-Lösung auf Basis des GF104 macht - wäre einfacher zu bauen. Aber bei solchen Projekten geht es eigentlich weniger um Gewinn, Machbarkeit oder Marktaussichten - es geht um Demonstration, daß man besser ist (klarer gesagt: Schwanzlängenvergleich). Und da wäre eine DualChip-Lösung auf Basis des GF100 doch besser, gerade angesichts der 5970-4GB mit den vollen 5870-Taktraten. Ich erwarte ja keine 2x512SE-Lösung von nVidia, eher so was wie eine Dual-470.

Gast
2010-03-26, 15:54:38
Ich gehe mal davon aus, dass der GF104 bei starker Tesselation den RV870 ziemlich stark konkurrieren wird. Tesselationsleistung sollte da etwa gleich sein.

GF104 hat immer noch 2 GPCs und damit 2 Tri-Setups, sollte also bei starker Tesselation durchaus etwas stärker einzuschätzen sein als RV870


Man wird wohl etwas langsamer als eine GTX285 sein und damit HD5830 und HD5770 ziemlich stark ärgern.

Es hängt natürlich von den Taktfrequenzen aber von den Daten her sollte die GTX285 eigentlich knapp geschlagen werden.

TMUs haben wir 80 vs 64, das sollte aber durch den höheren Takt ausgeglichen werden.

ALUs 256 vs 240, vermutlich mit leicht höherem Takt

32 vs 32 ROPs, sind also gleich auf.

Speicherinterface 256bit vs 512bit, kann aber mit GDDR5 zu einem großen Teil ausgeglichen werden.

Dazu kommen noch die wahrscheinlichen Effizienzsteigerungen der GF100-Architektur, also 285GTX-Leistung sollte auf jeden Fall drinnen sein.

Interessant wird auch die Leistung/Transistor. Mit den genannten Zahlen dürften es in etwa um die 2 Mrd. Transistoren werden (+-10%), also in etwa RV870-Niveau.

Da könnte es dann auch bei der Leistung nicht unähnlich sein, zumindest die 5850 könnte für den Vollausbau in Reichweite sein.


Also das glaube ich nicht. Fermi reicht da schon um Hemlock zu ärgern.
NV muss da ansetzen, wo ATi ordentlich verdient und das ist im unteren Segment.

NV will auch wenn es unsinnig ist wohl unbedingt die Leistungskrone. Da man wohl innerhalb der PCIe-Specs bleiben will ist nun die Frage wie man es leichter erreicht. Da selbst die 470GTX wohl eine TDP über 200W haben wird, scheint es mit GF100 jedenfalls relativ schwer, wenn man die Taktfrequenzen nicht sehr stark reduzieren will.

Da könnte es sein, dass man mit 2x GF104 mit dem Ziel unter 300W zu bleiben die höhere Leistung erziehlt.


mfg[/QUOTE]

Nakai
2010-03-26, 16:27:41
Langsamer oder schneller haengt von den finalen Frequenzen einer GF104 ab.

Es hängt in erster Linie von GF100 ab. GF104 sollte im Dreh etwa die gleiche Texturleistung, dafür nur die halbe Shader, Tesselations und Rasterizierungsleistung haben. Man wird im Schnitt wohl etwa 2/3 GTX480-Leistung haben, bei vielen Texturen sogar deutlich näher(mit AF wird man vll sogar nahe an GTX470 rankommen).

2*GF104=

512SPs@1.5GHz
128TMUs@750MHz
64ROPs@660MHz (?)
2GB GDDR5

Eigentlich hätte ich mir Fermi so vorgestellt. Naja man sollte sich unter bestimmten Bedingungen doch schon etwas absetzen können.

AMD erwartet aber komischerweise einen Doppeldecker und das eigentlich nur wegen der albernen Leistungskrone. Etwas an den Haaren gezogen ist die 2*GF104 These schon, aber total unmoeglich ist es auch nicht. Vorraussetzung waere dass sie zumindest 1500 mit dem Ding erreichen koennen ohne zu hohen Stromverbrauch.

Wenn Fermi die Krone haben will, dann wird ein MGPU-Gespann kommen.

Es schwirrt noch eine weitere hoechstinteressante Einzelheit fuer das rein hypothetische Dual-Gespann herum, aber ich will es erstmal von einer ernsthaften Quelle oder von NV selber bestaetigt bekommen. Wenn ja koennte es das erste Mal sein dass ich mir aus Interesse persoenlich den Kopf drehe zu einer mGPU Loesung.


Imhomogenes SLI?;)
GF100 mit Unterstützung von GF104?
Wenn ich auf Lucid Hydra schiele(wo doch NV eine Aussage dazu gemacht hat?), dann wäre das eine Möglichkeit.


mfg

BlackBirdSR
2010-03-26, 16:33:41
Wenn es keine Infos gibt, dann macht man eben aus Spekulationen harte Fakten :D

http://www.fudzilla.com/content/view/18243/1/

AnarchX
2010-03-26, 16:37:08
Wobei man es Fudo bzw. seiner Crew nicht verübeln kann, immerhin schreibt Leo folgendes:
Vorab kurz etwas zu Sicherheit der nachfolgend genannten Daten: Diese wurden von einer vertrauenswürdigen und technisch versierten Quelle aus verschiedenen Informationen aus Hersteller-nahen Kreisen zusammengetragen. Es handelt es sich also nicht um Spekulationen oder Vermutungen, sondern reale Informationen.
http://www.3dcenter.org/artikel/details-zu-nvidias-performance-chip-gf104

Naja, wenigstens gibt es dafür wohl ein paar zusätzliche Besucher für die Hauptseite.

Ailuros
2010-03-26, 19:05:19
Es hängt in erster Linie von GF100 ab. GF104 sollte im Dreh etwa die gleiche Texturleistung, dafür nur die halbe Shader, Tesselations und Rasterizierungsleistung haben. Man wird im Schnitt wohl etwa 2/3 GTX480-Leistung haben, bei vielen Texturen sogar deutlich näher(mit AF wird man vll sogar nahe an GTX470 rankommen).

Machen wir es einfacher: wenn das Ding mehr als die Haelfte der Leistung einer 480 bietet aber mit dem halben Preis wird sich schwer jemand darueber beschweren.


Wenn Fermi die Krone haben will, dann wird ein MGPU-Gespann kommen.

Wir wissen doch wie NV denkt.

Imhomogenes SLI?;)
GF100 mit Unterstützung von GF104?
Wenn ich auf Lucid Hydra schiele(wo doch NV eine Aussage dazu gemacht hat?), dann wäre das eine Möglichkeit.


mfg

Ich warte ab bis ich eine anstaendige Antwort bekomme. Ein Geruecht von einer unzuverlaessigen Quelle sagt mir gar nichts.

Coda
2010-03-26, 23:42:52
Ich gehe mal davon aus, dass der GF104 bei starker Tesselation den RV870 ziemlich stark konkurrieren wird. Tesselationsleistung sollte da etwa gleich sein.
Woraus schließt du das? Man kann das nicht anhand der Anzahl der Einheiten vergleichen. Nichtmal ansatzweise.

Nakai
2010-03-27, 10:55:30
Woraus schließt du das? Man kann das nicht anhand der Anzahl der Einheiten vergleichen. Nichtmal ansatzweise.

Natürlich nicht. ;)

Aber wenn ich mir Heaven anschaue, kann man parallelen ziehen. GF104 wird mit 64TMUs da deutlich besser sein, da ihm bei hoher Tesselation auch die Füllrate nicht so ausgeht. Okay, a aritmethischer Leistungs mangelts es ein bisschen. Aber der Aufbau vom GF104 ist da schon deutlich ausgewogener.

Bei Heaven sieht man sehr gut, dass ATIs HD5870 bei starker Tesselation etwa nur halb soviele FPS wie Fermi anzeigen kann. Fermi bricht da nicht ein.
Wo die Highs sind, da ist die Tesselationsleistung der HD5870 ausreichend um viele FPS rauszufeuern, teilweise sogar mehr als Fermi.

GF104 wird da schon genug bieten.


mfg

AnarchX
2010-03-27, 10:56:25
Ob sich GF104 von den elektrischen Eigenschaften so massiv von GF100 unterscheiden wird?
Sind es wirklich 256-Bit, 256SPs/64TMUs @750/1500MHz sähe ich da momentan wohl >=150W bei hoher Last, also fast das Verbrauchsniveau einer 5870.

Gast
2010-03-27, 11:06:05
Würde die Leistung des GF104 in der Nähe der 5870 sein, hieße das dass GF100 schlecht über die Einheitenzahl skaliert.
Das halte ich für unwahrscheinlich.

Gast
2010-03-27, 11:14:09
Ob sich GF104 von den elektrischen Eigenschaften so massiv von GF100 unterscheiden wird?
Sind es wirklich 256-Bit, 256SPs/64TMUs @750/1500MHz sähe ich da momentan wohl >=150W bei hoher Last, also fast das Verbrauchsniveau einer 5870.

Das ist aber schon deutlich niedriger als die 250W vom GF100.

DIE-Size und Transistormenge dürften ja mit RV870 vergleichbar sein, weshalb man wohl auch beim Stromverbrauch keine so großen Unterschiede erwarten sollte.

Mit 2 ~150W GPUs sollte man auf jeden Fall durch Selektion einfacher innerhalb der 300W bleiben können, als mit 2 250W GPUs.

Wobei sich natürlich 2 Fragen stellen:

1. Kann die Dual-GPU mit der 5970 mithalten? Ansonsten ist das ganze natürlich sinnlos. Da die 5970 in etwa so schnell wie 2 5850 ist sollte das imo möglich sein, man braucht allerdings volle Chips mit recht ordentlichen Taktraten, man kann also nur nach Chips selektieren, welche die notwendigen Taktraten auch mit geringer Spannung schaffen.

2. Interessiert sich NV überhaupt für die 300W? Für die 480GTX gibt man ja offensichtlich die TDP schon zu gering an und schießt auch teilweise über die 300W hinaus. 2 GF100-Chips mit offiziellen 300W und real in Extremfällen um die 400W sollten das 2x GF104-Gespann nochmal merklich überflügeln und diverse Dual-Grafikkarten haben mittlerweile ja auch schon gezeigt, dass ein deutliches Überschreiten der PCIe-Spezifikationen nicht wirklich ein Problem darstellt.

Gast
2010-03-27, 11:22:19
Würde die Leistung des GF104 in der Nähe der 5870 sein, hieße das dass GF100 schlecht über die Einheitenzahl skaliert.



Das ist zumindest bei den meisten aktuellen Spielen auch garantiert der Fall.

Die Situation ist ähnlich wie bei den Radeons zu X1800 und X1900-Zeiten.

Die X1900 konnte sich trotz 3-facher Shaderpower anfangs kaum absetzen.

GF100 hat gegenüber GF104 in erster Linie die doppelte Shaderpower als Vorteil.
Zusätzlich natürlich noch die doppelten Rasterizer, aber ohne Tessellation wird das keinen großen Unterschied machen.


5870-Leistung halte ich im Schnitt auch für sehr unwahrscheinlich, die 5850 sollte aber zu schaffen sein.

aths
2010-03-27, 13:07:26
Ich. glaube. nicht. an. 64. TMUS. im. GF104.


Die Karte hätte je nach Takt etwa gleiche TMU-Leistung wie GT200, aber weniger Shader-Leistung. (256*2 < 240*3.)

G80/GT200 mussten vor allem für DX9-Spiele ausbalanciert sein. Das ist auch gelungen. GF100 muss vor allem für DX10/11-Spiele ausgewogen sein. Da käme man mit dem Ansatz 64 TMUs bei nur 256 SP nicht weit.

AnarchX
2010-03-27, 13:12:03
Das MUL darf man aber wohl kaum so zählen, siehe auch GTX 480 1,3TFLOPs vs GTX 285 1,0TFLOPs.

64 TMUs sind sicher zu viel, aber 32 TMUs sind auf der anderen Seite doch schon wieder etwas wenig.

Gast
2010-03-27, 13:24:57
Das ist zumindest bei den meisten aktuellen Spielen auch garantiert der Fall.

Die Situation ist ähnlich wie bei den Radeons zu X1800 und X1900-Zeiten.

Die X1900 konnte sich trotz 3-facher Shaderpower anfangs kaum absetzen.

GF100 hat gegenüber GF104 in erster Linie die doppelte Shaderpower als Vorteil.
Zusätzlich natürlich noch die doppelten Rasterizer, aber ohne Tessellation wird das keinen großen Unterschied machen.


5870-Leistung halte ich im Schnitt auch für sehr unwahrscheinlich, die 5850 sollte aber zu schaffen sein.

Das klingt so als würde der GF104 nur weniger Shader haben.
Es werden ganz sicher Funktionsblöcke ausgespart, nicht nur Shader (das dürfte auch nicht möglich sein).
Meiner Ansicht nach wird der GF104 aufgrund von Papierdaten genauso überschätzt, wie der GF100.

V2.0
2010-03-27, 13:54:58
Ich. glaube. nicht. an. 64. TMUS. im. GF104.


Die Karte hätte je nach Takt etwa gleiche TMU-Leistung wie GT200, aber weniger Shader-Leistung. (256*2 < 240*3.)

G80/GT200 mussten vor allem für DX9-Spiele ausbalanciert sein. Das ist auch gelungen. GF100 muss vor allem für DX10/11-Spiele ausgewogen sein. Da käme man mit dem Ansatz 64 TMUs bei nur 256 SP nicht weit.

Wobei es durchaus Sinn macht, wenn man den GF104 als Nachfolger von G92 auf dem Leistungsniveau einer GT200 sieht. Für den Käuferkreis dürfte die DX9 leistung ebenso relevant sein wie die DX10/11 Leistung.

Gast
2010-03-27, 15:53:57
GF100 muss vor allem für DX10/11-Spiele ausgewogen sein. Da käme man mit dem Ansatz 64 TMUs bei nur 256 SP nicht weit.

Es ist fraglich, aber denkbar, dass GF100 für "richtige" DX11-Spiele noch ausreichend Power hat. Bei GF104 kann man aber sicher davon ausgehen, dass er dafür zu langsam sein wird. GF104 muss jetzt und heute ausreichend Leistung bieten und das in erster Linie mit DX9 und DX10-Spielen.

Gast
2010-03-27, 16:03:55
Es werden ganz sicher Funktionsblöcke ausgespart, nicht nur Shader (das dürfte auch nicht möglich sein).


Es sind 2 statt 4 GPCs, jeder GPC bekommt aber die doppelte Anzahl an TMUs.

Zusätzlich sind es 4 statt 6 Speichercontroller/ROP-Paritions/L2-Cache-Blöcke.


Bei heutigen Spielen spielen aber fast nur die Shader eine nennenswerte Rolle.
4 Rasterizer helfen gegenüber 2 sicherlich beispielsweise bei Metro, sonst aber nirgends (und 2 sind immer noch doppelt so viel wie bei G200 oder RV870)



Meiner Ansicht nach wird der GF104 aufgrund von Papierdaten genauso überschätzt, wie der GF100.

Die Leistung wurde überschätzt als man noch von 128 TMUs ausgegangen ist und genau die fehlen um sich breitflächig von der Vorgängergeneration stark absetzen zu können.

Herr Doktor Klöbner
2010-03-28, 11:44:36
Ich bin ja nur Laie auf dem Gebiet, aber wenn man im selben Prozess die gleiche Chipröße wie der Cypress hat, die selbe TDP Klasse, gleichbreites Speicherinterface, dann liegen die Fertigungskosten einer GF104 Karte ziemlich auf dem Niveau einer 5870 Karte, zumindestens in voller Ausbaustufe.
Daher sollte man entweder die Leistung einer 5870 ereichen, oder man hat ein großes Problem denn Preiskampf fällt flach.

AnarchX
2010-03-28, 11:54:54
Neben dem Die gehören zu einer Karte aber auch noch ein PCB, Speicher und ein Kühler.

Und wenn man nur 0.5ns GDDR5 bei 900MHz einsetzt, kann man hier schon mal sparen gegenüber den 0.4ns 1000/1200MHz bei den HD5800.
Dieser niedrigere Speichertakt senkt auch die Ansprüche an das PCB, wo Nvidia wohl auch versuchen wird mit möglichst wenigen Layern und günstigen Komponenten aufzukommen. Was dann aber auch das Risiko von Spulenfiepen bedeutet.

Und eine niedrigere Marge als beim Konkurrenzprodukt ist auch kein K.O.-Kriterium, wenn man entsprechende Stückzahlen erreicht wird das in Kauf genommen, z.B. bei der GTX 260.

Gast
2010-03-28, 13:02:55
Deswegen ja wird GF104 wohl den Weg einer G92 gehen. Ordentlich Rohleistung unter der Haube, aber spätestens mit 1920*1200/8xAA is die Fahnenstange erreicht. Inwieweit die Fermi-Architektur Modular aufgebaut ist, kann man nichtmal vermuten. Gesichert ist nur der günstige Speicher in Verbindung mit 256Bit SI-Interface und dem "wegfall" von Balllast aka DP-Einheiten.
Spart nicht viel, aber beim Fermimonster bringt eben alles etwas um den Stromhunger zu senken.
Bei GF100 laufen doch die TMUs mit halber Hotclock, das ist bei der GTX470 schon ein anderes Niveau mit nur 600MHz.
Waren die ROPs auch mit 600MHz? Dachte die GPU hat 3 Taktdomänen...

Gast
2010-03-28, 14:13:14
Waren die ROPs auch mit 600MHz? Dachte die GPU hat 3 Taktdomänen...

Es waren immer 2 Taktdomänen, halber Takt ist keine eigene Domäne.

Wie es aussieht ist der Kerntakt zufällig genau halber Hotclock.

Alternativ wäre natürlich möglich, dass es überhaupt nur mehr eine Taktdomäne gibt, teile des Chips aber nur jeden 2. Takt arbeiten.

mapel110
2010-04-05, 22:19:41
http://www.semiaccurate.com/2010/04/05/new-nvidia-code-names-pop/
The short story is that when you have a chip that is too large, too hot, and badly underperforming, cutting it in half will still put you at the same ratio disadvantage against your competition's 'half' chip. GF104 is unlikely to change the game, either in performance or revenues.

Sorkalm
2010-04-05, 22:23:21
Das hieße, dass sie GF104 im wesentlichen gegen Juniper stellen müssten. Kann ich mir nicht wirklich vorstellen, zum einem dürfte GF104 ja doch vollausgebaut etwas mehr haben als ein 1/2 GF100 (8 SMs, 256 Bit), zum anderen wäre das Ding dafür doch ziemlich teuer in der Produktion.

Tja, ist die Frage wie neu hier Charlies Infos sind. Spekuliert er einfach mal nen bisschen rum? Dann würde mich so eine Aussage ja nicht wundern...

Spasstiger
2010-04-05, 22:55:42
Den GF104 wird man eher zwischen Juniper und Cypress stellen, wenn das Performanceziel von Nvidia GTX 285 lautet.

numb
2010-04-06, 02:25:12
Hier wärs für Charlie echt nicht so schwer gewesen mal richtig zu "spekulieren"...

Bekanntlich soll ja GF 104 teils 100% GF 100 (TMUS), teils 2/3 GF 100 (SI), teils 50% GF 100 (SC) sein.

V2.0
2010-04-06, 07:24:09
Im Grundsatz hat er ja Recht. Ist das gesamte Design für den Popo dann kann man auch von den kleinen Chips keine Wunder erwarten.

Psychopat
2010-04-06, 10:46:13
Naja, der GF100 scheint ja hauptsächlich an Leckströmen zu kranken (Spannung ist schon niedrig). Das hat erst mal nichts mit der Architektur zu tun, sondern mit deren Umsetzung. Die nVidia Ingenieure werden mit der Zeit wohl gelernt haben wo der TSMC 40nm Prozess so seine Macken hat und können entsprechend nachbessern. Cypress zeigt ja das prinzipiell stromsparende Chips mit TSMC 40nm möglich sind.

Ailuros
2010-04-06, 10:46:35
TMUs von ROPs wird man wohl unterscheiden koennen...:rolleyes:

Gast
2010-04-06, 11:13:04
Tja, ist die Frage wie neu hier Charlies Infos sind. Spekuliert er einfach mal nen bisschen rum?

Klar, was den sonst? Noch dazu einen ziemlichen Schwachsinn, GF104 wird deutlich mehr als 1/2 GF100 sein.

Sorkalm
2010-04-06, 12:18:06
Klar, was den sonst? Noch dazu einen ziemlichen Schwachsinn, GF104 wird deutlich mehr als 1/2 GF100 sein.

Er hatte durchaus auch schon korrekte Infos, die ihm zugetragen wurden. Daher die Frage.

Ailuros
2010-04-06, 12:48:24
Er hatte durchaus auch schon korrekte Infos, die ihm zugetragen wurden. Daher die Frage.

Wie z.B. das hier?

http://www.semiaccurate.com/2010/03/17/nvidia-tapes-out-gf108/

NVIDIA HAS FINALLY taped out a Fermi GF100 derivative, but it is not what you might think.

SemiAccurate moles are saying that plans are in the works to tape out a GF104 and a GF106 in short order as well, but they haven't left Dear Leader's workers' paradise yet.

17/03/2010

Am 05/04/2010:

SemiAccurate has confirmed that the GF104 did tape out a few months ago.

Ergo hatte Mitte Maerz GF108 schon seit tape out (was eigentlich fuer die kleinste GF10x Variante steht) und dazu noch vor dem GF104 der immer noch nicht angeblich zur FAB verschickt wurde und innerhalb zwei Wochen hatte GF104 schon einige Monate frueher seinen tape out.... *grunz*

GF100 is horribly weak in pixel ops. It has only 64 ROPs (Render Output Units), and that lack of pixel power shows up at higher resolutions.

48 ROPs und 64 TMUs fuer GF100 und hoechstwahrscheinlich 32 ROPs und 64 TMUs fuer GF104.

If Nvidia cuts GF100 cleanly in half to get GF104, it will also suffer from the same handicap. If the GF104 has more than half the GF100's uncore, the price is paid in die area and power instead of performance.

Ich wuerde zwar von ihm erwarten dass er pixels von texels bzw. ROPs von TMUs unterscheiden koennte, aber uebersehen wir es mal: schon mit 64TMUs ergo 8 TMUs pro SM ist es keinesfalls GF104 != 1/2 GF100 sondern um einiges mehr.

The GF104 looks to be about the size of AMD's Cypress HD5870, consume around the same power, and sit between the HD5770 and HD5830 in performance.

Vielleicht sogar einen Schnitt groesser was die die area betrifft; was den Rest betrifft haengt es von eher von den finalen Frequenzen ab, ergo ist es wohl noch zu frueh jegliche Leistung einzuschaetzen. NV's Ziel ist afaik fuer die groesste Variante irgendwo GTX285 Leistung, ergo wenn alles nach Plan laufen sollte blah blah blah +/- 5850 Nivaeu. Bei leicht reduzierten Frequenzen dann wohl schon <5850.

Dass er zunehmend in letzter Zeit spekuliert klingt am wahrscheinlichsten. Nichts schlechtes daran, frueher oder spaeter musste er auch ueber GF104 berichten da die Geruechte hinter den Kulissen konstant zunehmen.

V2.0
2010-04-06, 13:16:48
So wie er diese News schreibt, sagt imho einiges. Denn Fehler macht er nie unberwußt.

Ailuros
2010-04-06, 13:27:09
So wie er diese News schreibt, sagt imho einiges. Denn Fehler macht er nie unberwußt.

Na dann zeig mir doch die 64 ROPs auf GF100. Denn ich kann fuer mein Leben lang nachzaehlen aber es sind stets 6*8=48.

V2.0
2010-04-06, 13:45:26
Das ist absolut durchdacht. Die Verwechselung von TMU und ROP ist kein Zufall imho. Sieh Dir den Kontext an. Natürlich ist die Zahl falsch, aber sie ist imho absichtlich falsch.

Coda
2010-04-06, 13:45:41
Im Grundsatz hat er ja Recht. Ist das gesamte Design für den Popo dann kann man auch von den kleinen Chips keine Wunder erwarten.
Die Frage ist nunmal ob das Design "für den Popo" ist oder einfach nur die Ausführung ziemlich schlecht lief.

Aus R600 gigen auch RV770 und RV870 hervor - und bei dem war die Situation noch viel schlimmer.

AnarchX
2010-04-06, 13:53:34
Was wären denn denkbare Verbesserungen um die GF10x-ALUs auf eine vernünftige Pro-Watt- und Pro-Die-Size-Leistung zu bringen?

Gast
2010-04-06, 13:59:55
Was wären denn denkbare Verbesserungen um die GF10x-ALUs auf eine vernünftige Pro-Watt- und Pro-Die-Size-Leistung zu bringen?

Und genau hier liegt auch schon das Problem. Bei R600 war das völlig klar. Ein teures 512-bit SI mit viel zu aufwändigen Ringbus, FP16-TMUs und keine berauschende Packdichte. Alleine durch ausmerzen der überflüssigen Dinge konnte man schon einen brauchbaren RV670 bauen mit zusätzlichen Feature und weniger Transistoren - und durch eine deutliche Steigerung der Packdichte eine sehr guten RV770.

mapel110
2010-04-06, 14:01:51
Was wären denn denkbare Verbesserungen um die GF10x-ALUs auf eine vernünftige Pro-Watt- und Pro-Die-Size-Leistung zu bringen?
Mehr TMUs. Aber das geht bei dem Design wohl nicht so einfach, weil alles aneinander gekoppelt ist. ->Arschkarte bis zum nächsten Fertigungsprozess.

Dural
2010-04-06, 14:13:52
Mehr TMUs. Aber das geht bei dem Design wohl nicht so einfach, weil alles aneinander gekoppelt ist. ->Arschkarte bis zum nächsten Fertigungsprozess.

wie so sollte das nicht gehen?!? der GF104 zeigt ja wenn er wirklich 64TMUs hat das man die ohne Probleme erweitern kann...

und die TMU sind immer noch nicht wirklich ein GF100 "problem" klar 128TMUs würden sicher noch was bringen aber die frage ist doch immer zu welchem Preis! GF100 hat nur ein Problem und das ist die Grosse Verlustleistung und die müssen sie in den griff bekommen, alles andere ist schon fast egal! den der GF100 steht schon jetzt in sachen Leistung hervoragent da!

Klar ein GF100 mit 128TMUs wäre nett... aber zu welchem Preis ist da die frage.... und NV wird sich mit den 64TMUs schon was überlegt haben...

deekey777
2010-04-06, 14:29:27
wie so sollte das nicht gehen?!? der GF104 zeigt ja wenn er wirklich 64TMUs hat das man die ohne Probleme erweitern kann...


Wirklich ohne Probleme? L1 und Shared Memory bilden eine Einheit, wenn die Anzahl der TMUs erweitert wird, muss auch hier was verändert werden. Oder habe ich da nicht aufgepasst?

Ailuros
2010-04-06, 14:33:07
Das ist absolut durchdacht. Die Verwechselung von TMU und ROP ist kein Zufall imho. Sieh Dir den Kontext an. Natürlich ist die Zahl falsch, aber sie ist imho absichtlich falsch.

Und wozu soll die Verwechslung genau dienen? Egal wie ich es verdrehe kann ich keinen Sinn daraus machen, noch mehr wenn er von render output units schreibt und sogar auf die relevante wikipedia Erlaeuterung verlinkt.

Und genau hier liegt auch schon das Problem. Bei R600 war das völlig klar. Ein teures 512-bit SI mit viel zu aufwändigen Ringbus,

Zwar ist es verdammt OT aber man kann die Sache mit dem ringbus nicht so stehen lassen. Er ist billiger und nicht teurer als eine crossbar.

FP16-TMUs und keine berauschende Packdichte. Alleine durch ausmerzen der überflüssigen Dinge konnte man schon einen brauchbaren RV670 bauen mit zusätzlichen Feature und weniger Transistoren - und durch eine deutliche Steigerung der Packdichte eine sehr guten RV770.

RV770 hatte viel mehr und viel wichtigere Aenderungen im Vergleich zu RV670. Es wurde seit R600 sowohl entfernt als auch dazugefuegt.

V2.0
2010-04-06, 14:38:44
Und wozu soll die Verwechslung genau dienen? Egal wie ich es verdrehe kann ich keinen Sinn daraus machen, noch mehr wenn er von render output units schreibt und sogar auf die relevante wikipedia Erlaeuterung verlinkt.

Sagen wir der Zeitl der News war es, FUD zu verbreiten und zwar so, dass GF104 irgendwo unter 5830 eingeordnet wird. Gleichzetig muss er groß und heiss werden. Spreche über Veränderungen an den TMUs und diie News wird unsinnig. Veränderungen an den ROPs hingegen....

Man muss sich da nichts vor machen. Seine Quelle hat ihm endlich den Tape-Out von GF104 bestätigt und ihm ne gefärbete Leistungseinschätzung gegeben.

Ailuros
2010-04-06, 14:45:09
Mehr TMUs. Aber das geht bei dem Design wohl nicht so einfach, weil alles aneinander gekoppelt ist. ->Arschkarte bis zum nächsten Fertigungsprozess.

Den Gedanken hab ich mir auch schon gemacht, aber es ist im relativen Sinn genauso aufwendig das Ganze anzupassen als zusaetzliche Logik fuer DP zu entfernen. So wie man mir GF104 beschrieben hat ist die ganze Logik hinter dem Ding einfach ein relativer Austausch von Rechen-power mit Texelfuellrate. Im Gegenfall haetten sie auf irgend ein 12 cluster Ding gehen koennen, aber die die area haette dann hoechstwahrscheinlich auch theoretisch anders ausgesehen.

Die ALUs auf hot clock zu jagen kostet zwar weniger als die ALUs zu verdoppeln aber ganz umsonst kommt das Theater nun auch wieder nicht. Das Ganze ist eine merkwuerdige +/- Geschichte die erst mit dem Lauf der Zeit klarer werden wird.

Sagen wir der Zeitl der News war es, FUD zu verbreiten und zwar so, dass GF104 irgendwo unter 5830 eingeordnet wird. Gleichzetig muss er groß und heiss werden.

GF104 wird >G92@65nm angegeben, ergo besteht die Moeglichkeit dass es tatsaechlich leicht groesser ist als Cypress. Ueber die original geplanten Frequenzen von 750/1500 will ich auch noch keine Wette eingehen, da ich erst glaube dass sie diese erreichen wenn ich es sehe. Ergo alles zusammengefasst trotz Uebertreibungen kann ich hier nicht sagen dass er nicht recht haben koennte.

Spreche über Veränderungen an den TMUs und diie News wird unsinnig. Veränderungen an den ROPs hingegen....

Nochmal GF100 hat keine 64 ROPs. Und da ich ihn oefters mit aehnlichen total ungewollten Fehlern bis jetzt erwischt habe, glaube ich nicht so leicht dass er sich hier nicht ins Bein geschossen hat. Ich weiss sogar wer ihm das Zeug zugesteckt hat wenn's helfen sollte und nein so stark weiss die "Quelle" auch nicht um was es sich handelt ;)

Man muss sich da nichts vor machen. Seine Quelle hat ihm endlich den Tape-Out von GF104 bestätigt und ihm ne gefärbete Leistungseinschätzung gegeben.

Ich hab zunehmend das Gefuehl dass seine eigentlichen internen NV Quellen so langsam dicht gemacht haben. Irgendwann haette NV oder sollte falls es nicht schon passiert ist Massnahmen gegen solche blamierende Phaenomene vornehmen. Wenn man seinen eigenen Arbeitgeber so stark hasst um fast jegliche peinliche Einzelheit nach aussen leaken laesst, dann stinkt etwas hochhaus im inneren von NV.

V2.0
2010-04-06, 15:04:31
Der Zeitpunkt der Tape-Out-Bestätigung legt mir den Verdacht sehr nahe, dass es keine Quelle bei NV war.
Und natürlich hat Gf104 keine 64ROPs, aber ob es für die Message der News sinnig gewesen wäre von 64TMUs zu schreiben?

Gast
2010-04-06, 15:07:49
Was wären denn denkbare Verbesserungen um die GF10x-ALUs auf eine vernünftige Pro-Watt- und Pro-Die-Size-Leistung zu bringen?

Langsameres oder noch besser gar kein DP.

aths
2010-04-06, 15:43:18
Was wären denn denkbare Verbesserungen um die GF10x-ALUs auf eine vernünftige Pro-Watt- und Pro-Die-Size-Leistung zu bringen?Bessere Fertigungstechnologie in 40 nm. Wir sind an dem Punkt wo Fertigungstechnologie limitiert. Die Chips können erst mal nicht mehr beliebig weiter wachsen. ATI hat mit nur 2 Mrd. Tranistoren noch nicht ganz das Problem, NV mit 3 Mrd. schon. Der Yield ist beschissen.

Ailuros
2010-04-07, 07:26:11
Der Zeitpunkt der Tape-Out-Bestätigung legt mir den Verdacht sehr nahe, dass es keine Quelle bei NV war.
Und natürlich hat Gf104 keine 64ROPs, aber ob es für die Message der News sinnig gewesen wäre von 64TMUs zu schreiben?

Weder die "Quelle" noch Charlie selber weiss wann der tape out wirklich stattfand sonst wuerde er auch nicht vor ein paar Monaten sagen. Bis zum GF100 war er ziemlich genau mit seinen tape-out Schaetzungen.

Wieso waere es nicht sinnvoll gewesen? Auf nur 64 TMUs zu trommeln beweisst ja seine Behauptungen dass GF100 ein Fehlschlag ist.

V2.0
2010-04-07, 07:36:14
Es würde aber nicht seine Schlussfolgerung belegen, dass alle GF10X ein Fehlschlag sind. Wenn NV wirklich TMUs hinzufügen kann und DP-Fähigkeiten entfernen kann, dann wird die ganze Leistungsspekualtion unsinnig und entscheidend für seine News war, dass GF104 größer, heisser und langsamer als 5830 sein soll.

svenw
2010-04-07, 08:46:03
Es würde aber nicht seine Schlussfolgerung belegen, dass alle GF10X ein Fehlschlag sind. Wenn NV wirklich TMUs hinzufügen kann und DP-Fähigkeiten entfernen kann, dann wird die ganze Leistungsspekualtion unsinnig und entscheidend für seine News war, dass GF104 größer, heisser und langsamer als 5830 sein soll.
Das der GF104 im Bereich der 5830 liegt ist IMHO Blödsinn. Zumindestens als Ziel dürfte die 5850 angepeilt werden, denn ansonsten hat NV dort ne riesen Lücke , da die 470 im bereich der 5870 liegt. Auch das der 104 thermal im Bereich der 5870 liegt könnte im Vergleich zur 470 hinkommen, wäre aber immer noch sehr hoch für die Rechenleistung. Es kommt darauf an, wieviele Verbesserungen NV in Bezug auf den tollen 40nm Prozeß von TSMC hinzugefügt hat.

Wied er Yield von Fermi-Chips ist, wird sich erst demnächst zeigen. Es kann sein das der Fermi ein kompletter Schuß in den Ofen ist und NV nur versucht so gut wie möglich über die Zeit zu kommen, bis sie ein angepaßtes Design herrausbringen können. Dazu würden sie sicher auch Verluste in Kauf nehmen, aber dann natürlich die Stückzahl so klein wie möglich halten.

IMHO hat NV bei der Abstimmung der Fermi Designs auf den 40er Prozeß tief ins Klo gegriffen, wobei das prinzipielle Design gut ist. Über kurz oder lang wird es eh auf sowas wie ein Multi-Chip Design mit einem Controllerchip hinauslaufen müssen, denn mit der Verkleinerung der Chips steigt automatisch auf die Empfindlichkeit des Prozesses und da wird es immer kritischer solch großen Chips zu fertigen wie NV mit dem Fermi. Kleine billige Chips einem Controller werden sicher ein paar Prozente Effektivität liegen lassen, aber von der Herstellung generell billiger sein als sensible Monsterchips.

Hugo
2010-04-07, 21:32:27
Wieso waere es nicht sinnvoll gewesen? Auf nur 64 TMUs zu trommeln beweisst ja seine Behauptungen dass GF100 ein Fehlschlag ist.

findest du dass GF100 ein Fehlschlag ist?

Ailuros
2010-04-08, 07:18:53
findest du dass GF100 ein Fehlschlag ist?

Von der Architektur her insgesamt nicht; aber verdammt vereinfacht ist die erste Umsetzung fuer 40G verdammt schlampig. Alles stets IMHO.

mapel110
2010-04-08, 14:25:14
http://www.fudzilla.com/content/view/18390/34/
Vorstellung vielleicht Anfang Juni.

Ailuros
2010-04-08, 14:32:27
http://www.fudzilla.com/content/view/18390/34/
Vorstellung vielleicht Anfang Juni.

http://en.expreview.com/2010/04/08/geforce-gtx-460-to-arrive-in-early-june/7014.html

Botcruscher
2010-04-08, 14:52:30
Mit GF104 hat das doch aber gar nichts gemein und das ist nur ein Abfallchip. Oder vertausche ich gerade was? Oder ist es doch schon 1/2 Fermi?

mapel110
2010-04-08, 14:54:25
Mit GF104 hat das doch aber gar nichts gemein und das ist nur ein Abfallchip. Oder vertausche ich gerade was?
Scheinbar ja. Von GF100 wirds aller Wahrscheinlichkeit nach keine weiteren Produkte mehr geben. Und GTX460 sollte auf GF104 basieren.

Botcruscher
2010-04-08, 15:00:36
Zumindest sollte man den Newsschreiber für das Bild der 470 unendlich schlagen.

Ailuros
2010-04-08, 15:00:46
Scheinbar ja. Von GF100 wirds aller Wahrscheinlichkeit nach keine weiteren Produkte mehr geben. Und GTX460 sollte auf GF104 basieren.

Waere auch Bloedsinn bei der die-Groesse. Wenn GF104 so aussehen wird wie er bis jetzt beschrieben wird waere ein theoretischer 12SM nicht unbedingt schneller gewesen aber dann eben mit <40% mehr die area.

Nakai
2010-04-08, 15:02:31
Das der GF104 im Bereich der 5830 liegt ist IMHO Blödsinn. Zumindestens als Ziel dürfte die 5850 angepeilt werden, denn ansonsten hat NV dort ne riesen Lücke , da die 470 im bereich der 5870 liegt. Auch das der 104 thermal im Bereich der 5870 liegt könnte im Vergleich zur 470 hinkommen, wäre aber immer noch sehr hoch für die Rechenleistung. Es kommt darauf an, wieviele Verbesserungen NV in Bezug auf den tollen 40nm Prozeß von TSMC hinzugefügt hat.

Ohne Tesselation liegt die 470 an und ab mal eher auf HD5850-Niveau. Okay, bei 64 TMUs verschenkt man wenigstens keine wertvolle Texturfüllrate. Aber bei "nur" 256SPs und wohl "nur" 2 GPCs, halbiert sich praktisch die aritmethische Rechenleistung. Wenn man aber den Takt deutlich besser setzen kann, dann wird man wohl etwa GTX285-Niveau erreichen. IMO ist das wohl das angepeilte Ziel der GF104 als Midrange-Chip. Und damit konkurriert man eher mit der HD5830, als mit der HD5850.


mfg

mapel110
2010-04-08, 15:02:48
Waere auch Bloedsinn bei der die-Groesse.
Wie groß ist die denn nun? Hats endlich jemand gemessen? sry4offtopic

Ailuros
2010-04-08, 15:07:42
Zumindest sollte man den Newsschreiber für das Bild der 470 unendlich schlagen.

Es wird drunter erwaehnt dass es sich um ein 470-er PCB handelt. Dass Du jetzt darauf geschlossen hast dass 460 immer noch ein GF100 Ableger sein wird ist wohl nicht das Problem des Author's oder?

Nebenbei da die trash tabloid Seiten diesmal relativ langsam sind: 2*6pin.

Wie groß ist die denn nun? Hats endlich jemand gemessen? sry4offtopic

nUltraGummiedie (tm) :biggrin: zwischen 474 und 529mm2. Es wird sich auch keiner so leicht wagen eine GPU die man zurueckschicken muss zu zerlegen. Und errr kaufen wenn man ueberhaupt eine haben will bzw. erstmal eine findet. Bei uns wird von online retailers die Verfuegbarkeit fuer den 30/4 angelegt :rolleyes:

Wie dem auch sei nimm einfach 530 gegen 340mm2; ob es jetzt 33 oder 40% Unterschied sind ist doch wurscht, denn es aendert den Sinn von dem was ich sagen wollte wohl nicht.

Botcruscher
2010-04-08, 15:13:10
Es wird drunter erwaehnt dass es sich um ein 470-er PCB handelt. Dass Du jetzt darauf geschlossen hast dass 460 immer noch ein GF100 Ableger sein wird ist wohl nicht das Problem des Author's oder?

Natürlich impliziert der Leser bei einem Foto in der News das Produkt. Es ist einfach redaktionell Unsinn. Die Bildunterschrift sollte eh nur bestätigen und nicht "Ach übrigens hätten wir auch was total anderes hinmachen können".

Ailuros
2010-04-08, 22:50:09
Natürlich impliziert der Leser bei einem Foto in der News das Produkt. Es ist einfach redaktionell Unsinn. Die Bildunterschrift sollte eh nur bestätigen und nicht "Ach übrigens hätten wir auch was total anderes hinmachen können".

Wenn bei einem 470 PCB Bild drunter 470 steht dann hat es auch nichts mit einer "460" oder weiss der Geier noch was zu tun. Das Bild zeigt ein PCB mit 10 128MB Speichersteinen und dieses passen eben leider nur zu einem 320bit Bus und entsprechen auch insgesamt 1280MB.

Aus dem Link:

The third Fermi-based consumer-class model will employ the P1025 reference PCB design, and feature 1GB of GDDR5 memory as well as 256-bit of memory interface.

Wie waere es mit 8 Speicherbausteinen stattdessen fuer eine "460"?

Hugo
2010-04-10, 07:28:21
Von der Architektur her insgesamt nicht; aber verdammt vereinfacht ist die erste Umsetzung fuer 40G verdammt schlampig. Alles stets IMHO.

Ich denk auch dass 40G für ordentlich Kopfschmerzen bei NV sorgt. Leistungsmäßig kann man bei den Taktraten eigentlich nicht meckern.

Gast
2010-04-10, 11:07:06
Ich denk auch dass 40G für ordentlich Kopfschmerzen bei NV sorgt. Leistungsmäßig kann man bei den Taktraten eigentlich nicht meckern.


Ein wenig schon. 750/1500MHz waren ja angeblich das Ziel, das hat man nicht weit verfehlt und für die Chipgröße setzt man sich von G200 und RV870 in vielen Fällen einfach zu wenig ab.

Für heutige Software ist die GPU einfach zu unausgewogen, deshalb auch die großen Leistungssprünge, mal setzt man sich stark ab, anderswo hat man mühe die 5870 zu halten.

Gipsel
2010-04-10, 18:56:34
nUltraGummiedie (tm) :biggrin: zwischen 474 und 529mm2.Ich glaube, die 550mm² sind auch noch nicht vollkommen aus dem Rennen, oder? Die 529mm² kommen ja einfach vom 23x23 mm², wenn man sich die Die-Shots mal ansieht, bemerkt man, daß es nicht ganz quadratisch ist. Dazu paßt ja auch, daß anfangs von 23,?x23,? die Rede war, was später dann auf 23,0x23,? und schlußendlich auf 23,0x23,8 mm² = 547mm² präzisiert wurde. Bei B3D hatte ja vor einiger Zeit fellix anhand der Speichercontroller ~550mm² geschätzt, auch wenn es Argumente gab, daß das nicht optimal ist und besser das PCI-Express-Interface benutzt werden sollte. Wie auch immer, mehr als 500 mm² werden es schon sein.

Ailuros
2010-04-11, 09:59:34
Ich glaube, die 550mm² sind auch noch nicht vollkommen aus dem Rennen, oder? Die 529mm² kommen ja einfach vom 23x23 mm², wenn man sich die Die-Shots mal ansieht, bemerkt man, daß es nicht ganz quadratisch ist. Dazu paßt ja auch, daß anfangs von 23,?x23,? die Rede war, was später dann auf 23,0x23,? und schlußendlich auf 23,0x23,8 mm² = 547mm² präzisiert wurde. Bei B3D hatte ja vor einiger Zeit fellix anhand der Speichercontroller ~550mm² geschätzt, auch wenn es Argumente gab, daß das nicht optimal ist und besser das PCI-Express-Interface benutzt werden sollte. Wie auch immer, mehr als 500 mm² werden es schon sein.

http://forum.beyond3d.com/showpost.php?p=1407602&postcount=3591

http://we.pcinlife.com/attachments/forumid_206/1003151816089e48b731dd356c.png.thumb.jpg

http://img138.imageshack.us/img138/2917/gpun.png

Wenn der die quadratisch ist dann 23*23 = 529mm2. Da er aber wohl doch rechteckig ist, bleibt die Frage wie breit genau das Ding ist.

Gast
2010-04-11, 11:17:25
Wenn der die quadratisch ist dann 23*23 = 529mm2. Da er aber wohl doch rechteckig ist, bleibt die Frage wie breit genau das Ding ist.

Wenn das Foto und die 23mm für die eine Seite stimmen wären es ~23,3mm.

Ich halte es allerdings fraglich ob das ganze stimmt, jedenfalls ist es ziemlich unwahrscheinlich, dass bei einem Foto die DPI-Einstellungen rein zufällig genau so passen, dass absolute Maße passen.

Zusätzlich können je nach Kamera auch noch Objektivverzeichnungen, meist gepaart mit entsprechender Korrektur die Ergebnisse verzerren.

Gipsel
2010-04-11, 22:14:57
Wenn das Foto und die 23mm für die eine Seite stimmen wären es ~23,3mm.

Ich halte es allerdings fraglich ob das ganze stimmt, jedenfalls ist es ziemlich unwahrscheinlich, dass bei einem Foto die DPI-Einstellungen rein zufällig genau so passen, dass absolute Maße passen.

Zusätzlich können je nach Kamera auch noch Objektivverzeichnungen, meist gepaart mit entsprechender Korrektur die Ergebnisse verzerren.
Das Foto ist so unscharf, da kann man gar nichts genau sagen. Bevor das nicht einer mit 'nem Meßschieber vermessen hat oder was Offizielles von nv kommt, bleibt das einfach offen. Wie gesagt, größer als 500mm² wird es schon sein (sonst hätte sich nv wahrscheinlich mit der kleinen Die-Size gebrüstet, allein schon wegen Charlie :rolleyes:).

Ailuros
2010-04-12, 06:55:56
Das Foto ist so unscharf, da kann man gar nichts genau sagen. Bevor das nicht einer mit 'nem Meßschieber vermessen hat oder was Offizielles von nv kommt, bleibt das einfach offen. Wie gesagt, größer als 500mm² wird es schon sein (sonst hätte sich nv wahrscheinlich mit der kleinen Die-Size gebrüstet, allein schon wegen Charlie :rolleyes:).

Man kann auf jeden Fall sagen dass H>W. Von dem abgesehen ist es generell fuer NVIDIA - stets IMHO - besser wenn der die >500mm2 ist. Eine zu grosse Packdichte waere eine totale Schnappsidee bei den hotclocks.

Uebrigens kann ich mich nicht erinnern ob ich es schon erwaehnt habe, obwohl sie pro Generationen analysieren welche Einheiten wirklich Sinn machen fuer hotclocking bleibt es momentan dabei dass es nur fuer ALUs geeignet ist. Als ich fragte warum sie TF als Beispiel nicht auf hotclock laufen lassen, sagten sie dass es Bloedsinn ist fuer Einheiten wie TMUs (oder deren Anteile) weil es >2x Mal so viel die area bedeuten wuerde und man dann gleich eher die Einheiten verdoppelt haette.

Rampage 2
2010-04-22, 00:28:13
Scheinbar ja. Von GF100 wirds aller Wahrscheinlichkeit nach keine weiteren Produkte mehr geben. Und GTX460 sollte auf GF104 basieren.

@Ailuros:

GF104:

- 32 ROP's
- 64 TMU's
- 256 SP's
- 256Bit Memory Interface
- 1024MB GDDR5-RAM

Sind diese Werte jetzt schon (mehr oder weniger) wahrscheinlich? Und sind diese Werte die sinnvollste Vermutung für den GF104-Chip?

Wie hoch könnten die maximalen Taktraten (nicht OC, sondern Referenz) sein? Wenn die GTX480 schon 700MHz schafft, dann musste ein solcher Chip viel viel mehr schaffen, oder?

Wie hoch schätzt du die Performance eines solchen Chips ein? (Bei angenommen 750/1500/1750MHz Referenz-Takt - das müsste ja wohl der Minimum-Referenztakt für so einen Chip sein)

Wird der Stromverbrauch/Hitze *im Verhältnis* weniger sein als GF100-Chips (GTX470, GTX480)?

Hältst Juni als Erscheinungstermin für sinnvoll/wahrscheinlich?

@mapel110:

Wird es denn keinen GTX485 geben? Also mit vollen Chipeinheiten (512SP's, 64TMU's) und höherem Takt (800MHz/2000MHz/2000MHz)? Wenn ja, wird es noch lange dauern, bis ein solcher Chip in den Handel kommt?

Thx,

R2

mapel110
2010-04-22, 00:31:24
@mapel110:

Wird es denn keinen GTX485 geben? Also mit vollen Chipeinheiten (512SP's, 64TMU's) und höherem Takt (800MHz/2000MHz/2000MHz)? Wenn ja, wird es noch lange dauern, bis ein solcher Chip in den Handel kommt?

Thx,

R2
Auf Basis des A3 vom GF100 wirds sicher keine GTX485(512SPs) geben. Dazu kommt dann B1 oder B2-Stepping.

Ich hab meine Zweifel an den 64TMUs für GF104. Der Chip wäre damit einfach zu gut.

Rampage 2
2010-04-22, 00:40:13
Auf Basis des A3 vom GF100 wirds sicher keine GTX485(512SPs) geben. Dazu kommt dann B1 oder B2-Stepping.

Ich hab meine Zweifel an den 64TMUs für GF104. Der Chip wäre damit einfach zu gut.

Zu gut?:eek::|

Ähem, hast dir schon meinen Post im Technologie-Forum angeschaut ("GF100 - Crysis-Performance")?

Für mich ist der GF100 definitiv eine Enttäuschung (sowohl die Rohleistung als auch die Praxisperformance - Tesselation abgesehen). Kein Flop, aber definitiv eine Enttäuschung. Und zum Stromverbrauch brauche ich wohl auch nichts zu sagen:freak:

Diese Steppings, die du genannt hast: Werden diese den Stromverbrauch und die Wärmeentwicklung deutlich senken?

Wie sieht es eigentlich mit den Yields zum GF100-Chip aus? Irgendwann muss Nvidia dieses Problem doch in den Griff kriegen, oder?

R2

Spasstiger
2010-04-22, 02:22:34
Ein halber GF100 wäre nicht so wirklich konkurrenzfähig. Die Diesize läge bei rund 260-270 mm², was deutlich größer wäre als ATIs Juniper (166 mm², Radeon HD 5770). Die Performance läge aber kaum darüber, weil man im Gegensatz zu ATI auch das Tri-Setup und die Tessellationseinheiten halbieren würde. D.h. der Vorteil mit Tessellation wäre gegenüber der HD 5770 nicht so stark ausgeprägt wie bei der GTX 480 gegenüber der HD 5870.
Und in den meisten Fällen wäre der Vorteil gegenüber der HD 5770 ohnehin nicht sehr groß (~10%), sofern man die Taktraten nicht wesentlich höher bekommt als bei der GTX 480. Durch eine stärke Gewichtung der Speicherbandbreite und Texelfüllrate könnte man sich bei "klassischen" Games klar vor die HD 5770 setzen und ca. das Verhalten der GTX 285 erreichen. Und mit Tessellation wäre man der HD 5770 auch klar überlegen. Natürlich wächst dann auch die Diesize in die Region des Cypress von ATI, aber immer noch besser als mit einem unwesentlich kleineren Chip mit einem wesentlich kleineren Chip konkurrieren zu müssen. So hätte NV dann ein Produkt, das sich eher an der Radeon HD 5850 als an der Radeon HD 5770 orientieren kann.

N0Thing
2010-04-22, 02:51:45
Die Performance läge aber kaum darüber, weil man im Gegensatz zu ATI auch das Tri-Setup und die Tessellationseinheiten halbieren würde. D.h. der Vorteil mit Tessellation wäre gegenüber der HD 5770 nicht so stark ausgeprägt wie bei der GTX 480 gegenüber der HD 5870.

Ist das in dem Bereich denn wichtig? Wenn selbst eine HD5870/GTX4x0 so gerade eben spielbare FPS in einem Spiel wie Metro schaffen, wird man mit einer kleineren Karte zur Zeit wohl sowieso auf solche rechenintensiven Features wie Tessellation verzichten.


Und in den meisten Fällen wäre der Vorteil gegenüber der HD 5770 ohnehin nicht sehr groß (~10%), sofern man die Taktraten nicht wesentlich höher bekommt als bei der GTX 480.

Wenn man davon ausgeht, daß die Taktraten der GTX480 unter anderem der sonst zu hohen Leistungsaufnahme geschuldet sind, bedeutet ein halber GF100 nicht zwangsläufig niedrige Taktraten. Der GF100 scheint ja weder mit den Hardwareeinheiten, noch mit den Taktraten auf den Markt gekommen zu sein, die Nvidia ursprünglich angepeilt hat. Bei einem kleineren Chip könnte das viel besser aussehen.

Spasstiger
2010-04-22, 03:18:05
700 MHz Core-Takt sind eigentlich schon sehr gut, mehr als ich erwartet hätte. Beim Shadertakt hatte ich auf 1400-1600 MHz gehofft, da ist man ja auch hingekommen. Die Taktraten der GTX 480 sind nicht wirklich schlecht, nach der Tesla-Vorstellung hab ich Schlimmeres erwartet.
Und der GF104 soll ja gerüchteweise nichtmal 10% höher takten als der GF100.

Ein halber GF100 wäre auf jeden Fall nicht ausgewogen fürs angepeilte Segment. Du schreibst ja schon selbst, dass in der Region die Geometrieleistung nicht so wichtig ist, weil man die Tessellation nur begrenzt einsetzen kann. Warum sollte man dann also die Gewichtung wie beim GF100 gestalten? Im Prinzip stimmst du mir ja zu. NV gestaltet den Chip so um, dass er im angepeilten Segment (150€-250€) konkurrenzfähig ist. Du darfst nicht vergessen, dass die Konkurrenz für den GF104 bei einer Diesize von 300 mm² +/- 40 mm² auf keinen Fall der Juniper-Chip von ATI sein darf. Man muss sich näher am Cypress orientieren.

Übrigens: Die Radeon HD 5770 ist trotz halbierten Eckdaten mehr als halb so schnell wie eine Radeon HD 5870. Das liegt daran, dass einige Dinge eben nicht halbiert wurden (z.B. das Trisetup und die Tessellationseinheit). Mit Tessellation ist die HD 5870 gar nur 66% schneller als die HD 5770 trotz doppelter Chipgröße, doppelt sovielen Ausführungseinheiten und doppelter Speicherbandbreite.
Ein halber GF100 wäre ziemlich genau halb so schnell wie der GF100, weil man aufgrund der GPCs wirklich so gut wie alles halbieren kann, auch das Setup.
Deswegen kann es sein, dass ein halbierter GF100 bei GTX480-Taktraten im Mittel erstmal nur auf die Performance einer Radeon HD 5770 kommt.

Ailuros
2010-04-22, 07:50:29
Spasstiger,

Mit der bis jetzt vorgeschlagenen Konstellation sollte bei 750MHz (originale Zielfrequenz) schon die Leistungs-landing zone von ~GTX285 moeglich sein. Die Frequenzen werden aber hoechstwahrscheinlich wohl doch nicht erreicht ergo ein Stueck weniger.

Vor langer Zeit sagte ich dass 3dfart Vantage performance landing zone fuer das groesste Modell 22k sein soll. Das heutige Resultat mit der richtigen CPU liegt auch nur einen Schnitt darunter. Ja natuerlich irrelevantes synthetisches Zeug usw und so fort aber die Landezone fuer 104 ist hier bei 15k.

Ob NV's Stromverbrauch Probleme am Design selber liegen oder ob 40G wie verrueckt leaked kann ich nicht wissen. NV's originales Ziel war den groessten GF100 mit etwas mehr Stromverbrauch als GTX280 zu veroeffentlichen (deshalb wohl auch das durchaus gelogene 250W TDP fuer die 480) und 104 war anfangs fuer 1*6pin als Ziel. Die letztere wird wohl mit 2*6pin ankommen weil 1*6pin viel zu eng wird fuer das Ding.

Zu gut?:eek::|

Ähem, hast dir schon meinen Post im Technologie-Forum angeschaut ("GF100 - Crysis-Performance")?

Für mich ist der GF100 definitiv eine Enttäuschung (sowohl die Rohleistung als auch die Praxisperformance - Tesselation abgesehen). Kein Flop, aber definitiv eine Enttäuschung. Und zum Stromverbrauch brauche ich wohl auch nichts zu sagen:freak:

Wuerde der Stromverbrauch wirklich einem echten 250W TDP entsprechen haette ich persoenlich auch nichts mit GF100 auszusetzen. In der Mehrzahl der Faelle plaziert sich eine 480 etwas ueber der GTX295 Leistung und kommt zu einem 70% Unterschied wenn man mit 8xMSAA auf 2560 geht.

Das ist aber nicht mein eigentliches Problem; mein Problem ist dass der Stromverbrauch einer 480 erstmal eines der Kaufargumente fuer single chip high end GPUs entfernt. Warum sollte ich als Verbraucher bei dem Preis der 480 nicht alternativ zu einer HD5970 greifen? Strom verballert die letztere stellenweise sogar weniger und wo immer AFR gar nichts bringt ist man sowieso auch nicht bei einem besonderen Nachteil. Wo immer AFR zulegt hab ich einen sehr gesunden Leistungszusatz bei einer 5970.

Wenn NV wirklich ihre single chip high end Strategie behalten will, kann es NICHT so weitergehen. Zu spaet, zu heiss, zu laut und der insgesamte Mehrwert zur Konkurrenz ist in mehreren Stellen zweifelhaft beim Preis/Leistungs-Niveau.

Diese Steppings, die du genannt hast: Werden diese den Stromverbrauch und die Wärmeentwicklung deutlich senken?

A1 ist fuer NV stets tape out. Alles Ax danach sind metal spins mit denen man kleinere Wehwehchen bzw. bugs beseitigen kann aber nichts besonderes. So wie es aussieht hat GF100 ein Design-Problem und deshalb konnten sie wohl auch nicht alle 16SMs schaffen. Dafuer brauchen sie jetzt einen vollen re-spin (ergo vereinfacht es werden alle layers ueberkrempelt) in Form von B1, B2 oder was auch immer. Re-spins kosten aber gewaltig Zeit und vor Ende Sommer sollte man nichts davon auf Regalen erwarten, wenn alles nach Plan laeuft.

Zur eigentlichen Frage oben: wenn NV mit dem re-spin ihr eigentliches Problem beseitigen kann dann haengt es davon ab ob die zukuenftige 16SM Variante wieder auf 700MHz getaktet sein wird oder etwas mehr. Wunder wuerde ich aber keine erwarten. Wenn sie es schaffen sollten einen 512SP chip mit 750MHz und echtem 250W TDP auf die Regale zu bringen waere ich persoenlich erstmal zufrieden damit.

Wie sieht es eigentlich mit den Yields zum GF100-Chip aus? Irgendwann muss Nvidia dieses Problem doch in den Griff kriegen, oder?

R2

IMHO hat NV kein eigentliches yield Problem mehr. Nach Geruechten soll NV mit jeglicher 470/480 Bestellung ihren Partnern auch einen fetten Batzen an GT21x GPUs andrehen wollen und ich hab auch keine Zweifel dass dem so ist. Ich weiss nicht wie Du es siehst aber mit Aussnahme von einer handvoll "bevorzugten" Vendors, waere ich persoenlich an der Stelle der anderen (und da sie auch ziemlich gut bedient sind mit Evergreen GPUs) wuerde ich NV den Mittelfinger zeigen.

Rampage 2
2010-04-22, 09:13:26
Mit der bis jetzt vorgeschlagenen Konstellation sollte bei 750MHz (originale Zielfrequenz) schon die Leistungs-landing zone von ~GTX285 moeglich sein. Die Frequenzen werden aber hoechstwahrscheinlich wohl doch nicht erreicht ergo ein Stueck weniger.

Ob NV's Stromverbrauch Probleme am Design selber liegen oder ob 40G wie verrueckt leaked kann ich nicht wissen. NV's originales Ziel war den groessten GF100 mit etwas mehr Stromverbrauch als GTX280 zu veroeffentlichen (deshalb wohl auch das durchaus gelogene 250W TDP fuer die 480) und 104 war anfangs fuer 1*6pin als Ziel. Die letztere wird wohl mit 2*6pin ankommen weil 1*6pin viel zu eng wird fuer das Ding.

Es war doch bisher immer so gewesen, dass Mainstream-Chips, die weniger Einheiten (ROP's, TMU's, SP', SI's) hatten (und infolgedessen weniger Stromverbrauch/Wärmeentwicklung), deutlich höhere Taktraten schaffen - 9600XT als Extrembespiel (diese war ja auch nur ein halber R360;)). Das war/ist der eigentliche Grund für meine Annahme. 800-850MHz sollte ein halber GF100 doch schaffen können... - die RV870 schafft doch auch fast 900MHz... und das ist ein HighEnd-Chip mit voller Einheitenzahl.


Wuerde der Stromverbrauch wirklich einem echten 250W TDP entsprechen haette ich persoenlich auch nichts mit GF100 auszusetzen. In der Mehrzahl der Faelle plaziert sich eine 480 etwas ueber der GTX295 Leistung und kommt zu einem 70% Unterschied wenn man mit 8xMSAA auf 2560 geht.

Ja toll... 8xAA bei 2560er-AuflösungX-D Da ist es doch klar, dass ein High-End-Chip sich absetzt - und selbst da sind es nur 70%. Man kauft doch keinen High-End-Chip nur um damit in ultrahohen Settings zu punkten, sondern um leistungsfordernde Spiele wie Crysis oder STALKER bei normal hohen Auflösungen (1680 - 1920er Auflösung) mit vernünftigen Framerates spielen zu können. Was nützt es einen, wenn ein neuer High-End-Chip sich nur in extremen Settings von der Vorgängergeneration absetzen kann, dort aber nur 30fps schafft, statt bei niedrigeren Auflösungen bei gleich hohen BQ-Settings 60fps oder noch mehr zu liefern:|

Nochmal zu "70% Vorsprung": Eine 6800Ultra erreichte in CoD1 bei 1600x1200 mit 4xAA+16xAF doppelt so viele Frames wie eine 9800XT - und letztere war bis Frühjahr 2004 der absolute Traum-HighEnd-Chip...


Wenn NV wirklich ihre single chip high end Strategie behalten will, kann es NICHT so weitergehen. Zu spaet, zu heiss, zu laut und der insgesamte Mehrwert zur Konkurrenz ist in mehreren Stellen zweifelhaft beim Preis/Leistungs-Niveau.

Vor allem muss Nvidia unbedingt wieder die Rohleistung auf ein vernünftiges Niveau bringen. Der (Roh-)Leistungssprung der GTX280 zur 8800GTX war durchaus beeindruckend. Ich hatte erwartet, dass Nvidia durch den GT200-Chip die Probleme bei 512Bit-Designs (Fertigung, Design, etc.) analysiert und dann einen 512Bit-Nachfolger bringt OHNE dass diese Probleme entstehen und der Chip dann wieder einen kräftigen (Roh-)Leistungsschub bringt - durch höhere Taktraten und höhere Effizienz. Das wäre doch der sinnvollste Weg gewesen, oder? Ich hatte 128TMUs und 250+ GB/sec. Speicherbandbreite beim GF100 erwartet...

Wird es überhaupt noch deiner Meinung nach je wieder einen 512Bit-Chip von Nvidia geben?


A1 ist fuer NV stets tape out. Alles Ax danach sind metal spins mit denen man kleinere Wehwehchen bzw. bugs beseitigen kann aber nichts besonderes. So wie es aussieht hat GF100 ein Design-Problem und deshalb konnten sie wohl auch nicht alle 16SMs schaffen. Dafuer brauchen sie jetzt einen vollen re-spin (ergo vereinfacht es werden alle layers ueberkrempelt) in Form von B1, B2 oder was auch immer. Re-spins kosten aber gewaltig Zeit und vor Ende Sommer sollte man nichts davon auf Regalen erwarten, wenn alles nach Plan laeuft.

Zur eigentlichen Frage oben: wenn NV mit dem re-spin ihr eigentliches Problem beseitigen kann dann haengt es davon ab ob die zukuenftige 16SM Variante wieder auf 700MHz getaktet sein wird oder etwas mehr. Wunder wuerde ich aber keine erwarten. Wenn sie es schaffen sollten einen 512SP chip mit 750MHz und echtem 250W TDP auf die Regale zu bringen waere ich persoenlich erstmal zufrieden damit.

Jo, ich meinte ja quasi auch diese "Re-Spins" - ähnlich wie bei den Steppings bei Prozessoren. Wenn die Respins die technischen Probleme beseitigen, sollten 750MHz doch locker möglich sein, oder?

BTW: Wäre denn ein nachträglicher GF104-"Respin" im Herbst möglich? Für höhere Taktraten und weniger Stromverbrauch...

Zur HD5970: Mikroruckler? Verlust der VRAM-Effizienz? :|

R2

Ailuros
2010-04-22, 10:22:41
Es war doch bisher immer so gewesen, dass Mainstream-Chips, die weniger Einheiten (ROP's, TMU's, SP', SI's) hatten (und infolgedessen weniger Stromverbrauch/Wärmeentwicklung), deutlich höhere Taktraten schaffen - 9600XT als Extrembespiel (diese war ja auch nur ein halber R360;)). Das war/ist der eigentliche Grund für meine Annahme. 800-850MHz sollte ein halber GF100 doch schaffen können... - die RV870 schafft doch auch fast 900MHz... und das ist ein HighEnd-Chip mit voller Einheitenzahl.

Wie gesagt ich weiss nicht ob Gf10x ein generelles Design-Problem hat oder ob 40G einfach zu stark leaked. Wie dem auch sei egal ob der eine oder andere Fall kann es durchaus die Frequenzen eines 104 beinflussen.

Ja natuerlich ist Cypress auf 850MHz getaktet, aber das Ding hat auch keine hot-clocks. 800-850MHz fuer 104 wurde dann automatisch 1600-1700MHz bedeuten. Moeglich ist es vielleicht schon, aber bleibt dann natuerlich die Frage wieviel Strom das Ding verbraten wuerde, was fuer eine extravagentere Kuehlungsloesung so ein Ding brauchen wuerde usw. Alles Sachen die den finalen Strassenpreis beinflussen werden und das Ding soll auch mit einem mittleren Preis ankommen.


Ja toll... 8xAA bei 2560er-AuflösungX-D Da ist es doch klar, dass ein High-End-Chip sich absetzt - und selbst da sind es nur 70%.

Was heisst "nur" 70%? Eine GTX295 hat 480SPs, 160 TMUs, 56 ROPs und 224GB/s Bandbreite.

Man kauft doch keinen High-End-Chip nur um damit in ultrahohen Settings zu punkten, sondern um leistungsfordernde Spiele wie Crysis oder STALKER bei normal hohen Auflösungen (1680 - 1920er Auflösung) mit vernünftigen Framerates spielen zu können. Was nützt es einen, wenn ein neuer High-End-Chip sich nur in extremen Settings von der Vorgängergeneration absetzen kann, dort aber nur 30fps schafft, statt bei niedrigeren Auflösungen bei gleich hohen BQ-Settings 60fps oder noch mehr zu liefern:|

Man kauft aber auch keine high end GPU (egal ob single or mGPU) um generell in 1280*1024 ohne AA/AF zu spielen. Im Gegensatz kauft ein enthusiast gamer genau aus dem Grund eine high end GPU um auf die hoechstmoeglichen settings und Aufloesung setzen zu koennen.

Nochmal zu "70% Vorsprung": Eine 6800Ultra erreichte in CoD1 bei 1600x1200 mit 4xAA+16xAF doppelt so viele Frames wie eine 9800XT - und letztere war bis Frühjahr 2004 der absolute Traum-HighEnd-Chip...

http://www.computerbase.de/artikel/grafikkarten/2004/test_x800_pro_xt_pe_geforce_6800_gt_ultra/17/#abschnitt_call_of_duty

NV40 war ein R420 Konkurrent und nicht R3x0. Blaetter den gesamten Review nochmal durch und Du wirst leicht sehen koennen dass die 6800Ultra nicht wirklich die schnellste GPU der Zeit war. Ganz nebenbei andere Zeiten, andere Preise und auch niedrigere Aufloesungen.

Ich war uebrigens ziemlich klar in meiner originalen Aussage: In der Mehrzahl der Faelle plaziert sich eine 480 etwas ueber der GTX295 Leistung und kommt zu einem 70% Unterschied wenn man mit 8xMSAA auf 2560 geht.

Ergo bitte den ersten Teil des Satzes nicht uebersehen. Vergleichsmaterial:

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/#abschnitt_einleitung

Handausgesuchter Fall: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/14/#abschnitt_battleforge

1920*1200/4xAA:

480 vs. 295 = +68%
480 vs. 285 = +159%

2560*1600/4xAA:

480 vs. 295 = +85%
480 vs. 285 = +247%

Insgesamt:

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet

1920*1200/4xAA

480 vs. 295 = +22%
480 vs. 285 = +63%

2560*1600/4xAA

480 vs. 295 = +23%
480 vs. 285 = +64%

2560*1600/8xAA

480 vs. 295 = +71%
480 vs. 285 = +133%



Vor allem muss Nvidia unbedingt wieder die Rohleistung auf ein vernünftiges Niveau bringen. Der (Roh-)Leistungssprung der GTX280 zur 8800GTX war durchaus beeindruckend.

Was genau war daran beindruckend?

http://www.computerbase.de/artikel/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet

1600*1200/4xAA

GTX280 vs. 9800GX2 = +12%

2560*1600/4xAA

GTX280 vs. 9800GX2 = +21%

2560*1600/8xAA

GTX280 vs. 8800Ultra = +133%

Ich hab mit Absicht die 9800GX2 Resultate benutzt. Die 8800GTX Resultate kannst Du Dir raussuchen.

Ich hatte erwartet, dass Nvidia durch den GT200-Chip die Probleme bei 512Bit-Designs (Fertigung, Design, etc.) analysiert und dann einen 512Bit-Nachfolger bringt OHNE dass diese Probleme entstehen und der Chip dann wieder einen kräftigen (Roh-)Leistungsschub bringt - durch höhere Taktraten und höhere Effizienz. Das wäre doch der sinnvollste Weg gewesen, oder? Ich hatte 128TMUs und 250+ GB/sec. Speicherbandbreite beim GF100 erwartet...

Mit GDDR5 macht mehr als ein 384bit SI keinen Sinn fuer NV. Dass sie die Speicherfrequenz dank zu hohem Stromverbrauch reduzieren mussten ist dann ein anderes Kapitel. Wie dem auch sei IHVs passen die Bandbreite durch Simulationen jeglicher Architektur an. Kein IHV wird so bloed sein und verpasst einem chip mehr Bandbreite als er eigentlich braucht. Original war GF100 fuer 1000-1050MHz GDDR5 angesetzt afaik fuer 725/1450MHz. Ergo maximal knapp ueber 200GB/s und nicht mehr.

Wird es überhaupt noch deiner Meinung nach je wieder einen 512Bit-Chip von Nvidia geben?

Das haengt vom insgesamten Design ab. GF100 hat insgesamt 48 ROPs (8 pro 64bit Kanal), wobei aber nur 32 pixels/clock fuer rasterizing benutzt werden. Dein hypothetischer 512bit Bus wuerde theoretisch 64 ROPs unter dieser Logik bedeuten und ergo 32 ROPs im "Ueberfluss" wozu man eigentlich besoffen sein muesste um daran zu denken. NV hat eben Pech dass sie fuer bessere 8xMSAA bzw. 32xCSAA/TMAA Effizienz den eher bloeden Weg der zusaetzlichen ROPs gegangen sind.

Bei Cypress (58x0) gibt es trotz 32 ROPs keine Probleme mit der 8xMSAA Effizienz. Und es geht deren Bandbreite auch nicht aus trotz 256bit bus.

Noch besser es ist um einiges wichtiger wie jegliche Architektur mir der vorhandenen Bandbreite umgeht, als wieviel rohe Bandbreite insgesamt auf Papier steht. Die GTX480 hat wohl nicht die anfangs projezierten bis zu 200GB/s Bandbreite, sieht aber selbst mit ihren knapp 178GB/s danach aus als ob sie mit dieser besser umgehen kann als eine GTX285 mit 166GB/s.

Jo, ich meinte ja quasi auch diese "Re-Spins" - ähnlich wie bei den Steppings bei Prozessoren. Wenn die Respins die technischen Probleme beseitigen, sollten 750MHz doch locker möglich sein, oder?

Und was genau soll es bringen? Im besten Fall sind es irgendwo 15% mehr Leistung bei hoffentlich anstaendigerem Stromverbrauch.

BTW: Wäre denn ein nachträglicher GF104-"Respin" im Herbst möglich? Für höhere Taktraten und weniger Stromverbrauch...

Ein re-spin ist teuer und wird nur in Notfaellen benutzt. Wenn 104 tatsaechlich irgendwo Anfang Juni ankommt, dann koennten sie zwar auf einen re-spin theoretisch gehen falls etwas mit dem Ding auch nicht stimmt, aber vor Weihnachten bzw. Anfang 2011 siehst Du von dem Ding dann auch nichts auf Regalen.

Zur HD5970: Mikroruckler? Verlust der VRAM-Effizienz? :|

R2

Ich hab bis jetzt noch nichts sehen koennen dass mir vorschlaegt dass Radeons nach wie vor mit weniger Speicher auskommen koennen. Micro-ruckler ja, aber man kann auch nie alles haben. Mir kommt so wie es aussieht weder noch ins Haus; wenn ich aber ein Dilemma zwischen 480 und 5970 heute haette, dann punktet mir leider die 480 nicht so gut wie ich es von einer single chip high end GPU erwarten wuerde.

Gast
2010-04-23, 08:52:07
Laut Heise 384SPs bei der GTX 460:
http://www.heise.de/newsticker/meldung/Grafik-Geruechte-GeForce-GTX-460-mit-384-Shader-Rechenkernen-984640.html
Vielleicht doch eine weitere GF100-SKU?

Leonidas
2010-04-23, 10:38:35
Was heisst vielleicht? War eigentlich von Anfang an klar. GF104 kommt auch erst später als 1. Juni, insofern konnte die GTX460 niemals GF104-basiert sein.

V2.0
2010-04-23, 10:39:42
Restverwertung GF100. GF104 kommt als 450.

Ailuros
2010-04-23, 10:45:28
Restverwertung GF100. GF104 kommt als 450.

Wird aber ein verdammt nutzloses Produkt sein ueberhaupt im Vergleich zu GF104.

Spasstiger
2010-04-23, 11:01:56
Die Radeon HD 5830 ist auch ein ziemlich nutzloses Produkt gegenüber der Radeon HD 5770. Und die Radeon HD 4830 war sogar langsamer als die Radeon HD 4770.
Aber wenn man zuviele Chips hat, die nicht für eine GTX 470 reichen, für eine GTX 460 dagegen schon, dann macht die GTX 460 auch Sinn.
Und wenn sich der GF104 verspätet, kann man mit der GTX 460 ganz gut Marktanteile erobern.

Botcruscher
2010-04-23, 11:11:59
Abfallverwertung ist nie nutzlos.

Iruwen
2010-04-23, 12:00:56
Verlustminimierung ;) Und die Dinger werden sich wahrscheinlich trotzdem verkaufen wie geschnitten Brot...

Ailuros
2010-04-23, 12:48:55
Abfallverwertung ist nie nutzlos.

Fuer die IHVs selber sicher nicht.


Und wenn sich der GF104 verspätet, kann man mit der GTX 460 ganz gut Marktanteile erobern.

Verlustminimierung ;) Und die Dinger werden sich wahrscheinlich trotzdem verkaufen wie geschnitten Brot...

Uhmmm es dauert wohl noch eine gute Weile bis wir fuer alles GF100 von irgend einem Marktanteil und gute Verkaufszahlen reden koennen.

V2.0
2010-04-23, 13:33:04
Wird aber ein verdammt nutzloses Produkt sein ueberhaupt im Vergleich zu GF104.

Absolut. Die wird sowieso maximal 2 Monate Marktrelevanz haben.

Iruwen
2010-04-23, 14:13:11
Uhmmm es dauert wohl noch eine gute Weile bis wir fuer alles GF100 von irgend einem Marktanteil und gute Verkaufszahlen reden koennen.

Weil die Verfügbarkeit schlecht ist ja, aber selbst eine Crapkarte wie die GTX 460 wird sich verkaufen. Läuft bei der 5830 jawohl auch.

Ailuros
2010-04-23, 14:30:46
Weil die Verfügbarkeit schlecht ist ja, aber selbst eine Crapkarte wie die GTX 460 wird sich verkaufen. Läuft bei der 5830 jawohl auch.

Wenn die generelle Verfuegbarkeit nicht erstmal sinnvol bergauf geht, dann ist es egal ob vom gleichen chip A, B oder C entstehen koennen. Das 5830 Beispiel ist ja schoen und gut aber mit verkauften 6Mio GPUs hapert der Vergleich schon mordsmaessig ;)

Iruwen
2010-04-23, 15:03:02
Klar, sollte auch kein absoluter Vergleich sein :) Ging halt nur darum dass sich auch im Prinzip sinnlose bzw. vom Preis-/Leistungsverhältnis her schlechte Chips verkaufen.

Gaestle
2010-04-23, 17:14:42
Naja, eine GTX460 auf GF100-Basis würde die PCB-Bilder mit nur einem Stromanschluss aber GF100-PIN-Anzahl erklären. Außerdem ist es bei den Yield-Gerüchten der Vergangenheit auch naheliegend, egal wie nahe die an der Wahrheit sind. Vielleicht wird diese GTX460 nach kurzer Zeit durch eine GTX465 mit GF104-Basis abgelöst.

AnarchX
2010-04-23, 17:22:35
Ich denke nicht, dass diese Custom-PCBs aus China etwas mit einer GTX 460 zu tun haben.
Eher erwarte ich bei eine Resteverwertungskarte 2x 6Pin, wie auch bei der HD 5830. Damit kann man die brauchbaren Dies maximieren.

Leonidas
2010-04-23, 17:30:51
Exakt. Da werden nicht nur fehlerhafte Chips drunter sein, sondern auch solche, die zu viel Spannung benötigen, um noch als 470/480 durchgehen zu können. Kann sein, daß die 460 wie die 5830 gar nicht weniger (lt. TDP) verbraucht als die größeren Karten, weil sich NV hier Spielraum für solche Fälle läßt.

Gast
2010-04-23, 21:49:58
Exakt. Da werden nicht nur fehlerhafte Chips drunter sein, sondern auch solche, die zu viel Spannung benötigen, um noch als 470/480 durchgehen zu können.


Und wie sollen die dann als 460 durchgehen? Dafür müsste die TDP zumindest über der 470 liegen und dann wird es schon mit 6+6 Pin eng.

Da halte ich es doch für wahrscheinlicher, dass man Takt+Spannung reduziert um das PCB und die Kühlung möglichst günstig zu bekommen.

AnarchX
2010-04-23, 21:59:15
Und wie sollen die dann als 460 durchgehen? Dafür müsste die TDP zumindest über der 470 liegen und dann wird es schon mit 6+6 Pin eng.

Deshalb sind es auch nur 384SPs und 256-Bit, damit eben bei höherer Spannung die TDP <=470 liegt.

mapel110
2010-05-04, 14:08:28
http://www.digitimes.com/news/a20100504PD217.html
GF106 July/August

http://www.xbitlabs.com/news/video/display/20100503063457_Nvidia_May_Launch_Mobile_Fermi_Generation_Graphics_Product_in_Jun e_PC_Maker.html
Mobile Kram im Juni. 100 Watt TDP (GTX285M 75 Watt)

Gast
2010-05-04, 14:15:51
Da wird die GTX 460 als GF104 bezeichnet. Das ist doch aber eine Karte mit GF100 Chip... (GeForce GTX 460 (GF104) in early June)

Oder wie oder was *verwirrt*

mapel110
2010-05-04, 14:19:02
Ich blicke da auch nicht so ganz durch. GF100 könnte noch als GTX 465 kommen und dann eben GF104 als GTX 460 oder GTX 450. Mal schauen.

Sorkalm
2010-05-04, 14:39:14
Die Quellen mit mehr Infos zu GTX 460/465, sprich die bisher irgendwelche Daten geliefert habe, haben eigtl. immer von GF100 gesprochen, und ~384 SPs sprechen auch dafür. Und die Zahl kam als erstes von Heise, die ja nun eigtl. nicht dafür bekannt sind, wild herumzuspekulieren. Also tippe auch mal auf eine weitere GF100-SKU. Auch der Termin Anfang Juni passt dazu besser.

Gast
2010-05-04, 17:34:34
Da wird die GTX 460 als GF104 bezeichnet. Das ist doch aber eine Karte mit GF100 Chip... (GeForce GTX 460 (GF104) in early June)



GF104 als GTX 460?

Wäre zumindest ungewöhnlich, nach dem bisherigen Namensschema sollte GF104 eigentlich eher ein GTS-Kürzel bekommen.

Sorkalm
2010-05-04, 19:29:15
VR-Zones meint jetzt, dass die GTX 465 gar nur 352 "CUDA Cores", sprich 11 SM-Cluster bekommt. Core-Taktraten identisch zur 470, Speichertakt etwas niedriger:
http://vr-zone.com/articles/nvidia-geforce-gtx-465-launch--computex-2010/9028.html

Sonst wie bisher...


EDIT: Heise meldets auch, und deren Tabelle scheint sogar direkt aus Nvidia-Unterlagen zu stammen:
http://www.heise.de/newsticker/meldung/Grafik-Geruechte-GeForce-GTX-465-mit-352-Rechenkernen-993153.html

Gast
2010-05-04, 20:30:16
EDIT: Heise meldets auch, und deren Tabelle scheint sogar direkt aus Nvidia-Unterlagen zu stammen:
http://www.heise.de/newsticker/meldung/Grafik-Geruechte-GeForce-GTX-465-mit-352-Rechenkernen-993153.html

Heise war mit den Specs sogar etwas früher dran. NV scheint die GTX 460 über den Haufen geschmissen zu haben und die "sichere" Variante mit bloß 352 Shadern zu fahren. Eventuell kann man dann tatsächlich noch welche freischalten, wie Heise in der GTX460-Nachricht schon schrieb.

Spasstiger
2010-05-04, 21:15:03
352 SPs passen zumindest zum Speicherinterface. So hat man jeweils rund 2/3 an SM-Clustern und SI-Partitionen gegenüber dem GF100 im Vollausbau. Aber so derb abgespeckt gab es afaik noch nie eine High-End-GPU.
Interessant wäre noch zu wissen, ob man auch ein ganzes GPC deaktiviert oder ob das Setup genauso potent wie bei der GTX 470 ausfallen wird.

Gast
2010-05-04, 21:57:38
Interessant wäre noch zu wissen, ob man auch ein ganzes GPC deaktiviert oder ob das Setup genauso potent wie bei der GTX 470 ausfallen wird.

Sollte zumindest aus Performancesicht ziemlich egal sein. Der Chip hätte gar nicht genug Power in der Pixelverarbeitung um das volle Geo-Setup auszunutzen.

KonKorT
2010-05-05, 12:44:58
Laut Digitimes (http://www.digitimes.com/news/a20100504PD217.html) wird sie als GTX 460 und nicht GTX 465 Anfang Juni kommen, und zwar auf Basis des GF104. Ist aber relativ unwahrscheinlich meiner Meinung nach.

Sorkalm
2010-05-05, 13:04:13
Vielleicht gibts auch eine GTX 465 auf GF100-Basis und eine GTX 460 auf GF104. Bei der Namensgebung müsste dann GF104 langsamer sein, als der angespeckte Chip auf der GF100, das klingt auch nicht so berauschend. Also hoffen wir mal, dass das lieber nicht so ist.

Gast
2010-05-05, 14:35:34
Wahrscheinlich auch unter der Leistung einer Radeon 5770 aber ähnlich teuer oder teurer.

Mmh, denke so langsam, dass diese Geforce-Generation nicht so ein Bringer ist.

Ailuros
2010-05-05, 15:18:15
Laut Digitimes (http://www.digitimes.com/news/a20100504PD217.html) wird sie als GTX 460 und nicht GTX 465 Anfang Juni kommen, und zwar auf Basis des GF104. Ist aber relativ unwahrscheinlich meiner Meinung nach.

Die Tabelle von heise.de http://www.heise.de/newsticker/meldung/Grafik-Geruechte-GeForce-GTX-465-mit-352-Rechenkernen-993153.html?view=zoom;zoom=1 duerfte echt sein.

Gast
2010-05-05, 16:38:36
Wahrscheinlich auch unter der Leistung einer Radeon 5770 aber ähnlich teuer oder teurer.

Mmh, denke so langsam, dass diese Geforce-Generation nicht so ein Bringer ist.

Das Gefühl hab ich auch. Ich hatte gehofft das die GTX 460 zwar schwächer ist als die 470 aber im P/L und was den Stromverbrauch angeht der hit wird. Aber wenn ich mir die Specs der GTX 465 so ansehe erwarte ich vom GF104 Chip nicht mehr viel.

Aber mal abwarten und Tee trinken.

Rampage 2
2010-05-06, 01:14:27
Die Tabelle von heise.de http://www.heise.de/newsticker/meldung/Grafik-Geruechte-GeForce-GTX-465-mit-352-Rechenkernen-993153.html?view=zoom;zoom=1 duerfte echt sein.

100GB/sec. Bandbreite, 1200MHz Shadertakt und 600MHz Coretakt bei 44TMU's - das kann doch alles nicht wahr sein, oder? Was erhofft sich NV mit solch einem Bullshit? (Dumme) Käufer verarschen oder (erfahrene) Käufer bloßstellen???

Was mich jetzt noch interessiert, ist, ob dieses Abfallprodukt auf dem GF100 basiert oder auf dem GF104... wenns letzteres ist, dann werde ich mir Nvidia wohl abschminken müssen - bis sie endlich etwas vernünftiges rausbringen anstatt solche Epic Fails...

R2

Edit: die Pixelfüllrate von diesem Chip dürfte wohl gerade bei 20GPixel liegen - die GTX480 hat fast 70% mehr. Einfach unglaublich...

Ailuros
2010-05-06, 09:33:57
100GB/sec. Bandbreite, 1200MHz Shadertakt und 600MHz Coretakt bei 44TMU's - das kann doch alles nicht wahr sein, oder? Was erhofft sich NV mit solch einem Bullshit? (Dumme) Käufer verarschen oder (erfahrene) Käufer bloßstellen???

Bei einem $249 MSRP sollte man mehr erwarten im Vergleich zu den anderen Varianten?

Was mich jetzt noch interessiert, ist, ob dieses Abfallprodukt auf dem GF100 basiert oder auf dem GF104... wenns letzteres ist, dann werde ich mir Nvidia wohl abschminken müssen - bis sie endlich etwas vernünftiges rausbringen anstatt solche Epic Fails...

Nach allen Indizien sieht es nach GF100 aus und ja natuerlich ist es alles andere als optimal falls es tatsaechlich stimmen sollte.


Edit: die Pixelfüllrate von diesem Chip dürfte wohl gerade bei 20GPixel liegen - die GTX480 hat fast 70% mehr. Einfach unglaublich...

32 * 607MHz = 19424
Eine GTX480 kostet auch leider fast doppelt so viel.

Aber nebenbei:

GTX480 ($499)=
15SMs * 2 pixels = 30 pixels/clock rasterizing, 18 zusaetzliche ROPs
GTX470 ($349)=
14SMs * 2 pixels = 28 pixels/clock rasterizing, 12 zusaetzliche ROPs
GTX465 ($249)=
11SMs * 2 pixels = 22 Pixels/clock rasterizing, 10 zusaetzliche ROPs

Die 465 sollte sich eigentlich mit der 5830 schlagen muessen bei dem MSRP. Das beide aber durchaus sinnlose Produkte (ausser fuer die IHVs selber) sind fuer den Verbraucher ist wirklich nichts Neues.

Gast
2010-05-06, 09:38:16
Ja, mittlerweile kann man die komplette aktuelle Geforce-Generation als misslungen bezeichnen.
Sie ist einfach zu teuer für ihre Leistung.

Bei den kleineren Grafikkarten wird sich NVidia nicht im Ansatz vom AMD absetzen können und ich wollte eigentlich meine aktuelle mit einer GF104-Karte ersetzen.
Da warte ich lieber noch etwas.

LovesuckZ
2010-05-06, 10:23:40
Laut dem CB.de Rating ist die GTX470 ca. 50% schneller als die 5830. Die jetzige GTX46x wird maximal 27% langsamer sein. Wird also ca. 20-25% schneller als die 5830 werden.

Ja, mittlerweile kann man die komplette aktuelle Geforce-Generation als misslungen bezeichnen.
Sie ist einfach zu teuer für ihre Leistung.

In Anbetracht der Tatsache, dass die Konkurrenz weniger Leistung erbringt, sind die Karten weder zu teuer noch zu billig.

Spasstiger
2010-05-06, 10:33:10
Die HD 5830 wird imo gegen eine GTX 46x klar den Kürzeren ziehen, sobald Antialiasing ins Spiel kommt. Denn die HD 5830 hat Messungen zufolge in Teilbereichen nur ein Viertel Drittel der Pixelfüllrate einer HD 5870 *). Bei der GTX 46x werden wir wohl nicht solche Überraschungen gegenüber der GTX 480 erleben, d.h. keine überproportional starken Einbrüche mit AA.

*) Quelle: http://www.hardware.fr/articles/783-3/preview-radeon-hd-5830.html

Gast
2010-05-06, 10:37:00
Laut dem CB.de Rating ist die GTX470 ca. 50% schneller als die 5830. Die jetzige GTX46x wird maximal 27% langsamer sein. Wird also ca. 20-25% schneller als die 5830 werden.


Prozentrechnen ist wohl nicht deine Stärke.

5830= 100
470= 150 +50%
465= 109,5 -27%

Spasstiger
2010-05-06, 10:43:33
@Gast: 1,5/1,27 = 1,18 Du hast natürlich recht, 1,5*(1-0,27)=1,095. Aber die GTX 465 hat nicht max. 27% weniger Leistung als die GTX 470. Es ist umgekehrt, die GTX 470 hat max. 27% mehr Leistung als die GTX 465. Ergo passt meine gestrichene Rechnung durchaus in diese Argumentationskette. 1,5/1,27=1,18.
Außerdem schreibt LovesuckZ "maximal 27%". Der Unterschied in der Praxis wird aber geringer sein, weil noch nie die Rechenleistung und Texelfüllrate alleine die Performance eines Rasterizers bestimmt haben.
Ergo wird die GTX 465 mit AA wohl 20-25% schneller sein als die HD 5830.
Eine HD 5850 ist mit AA übrigens 30-40% schneller als eine HD 5830.

LovesuckZ
2010-05-06, 10:44:42
Prozentrechnen ist wohl nicht deine Stärke.

5830= 100
470= 150 +50%
465= 109,5 -27%

Jap. Denn dieses Prozentrechnen kann ich wirklich nicht. Ist dir eigentlich aufgefallen, das 150/109,5 nicht 27% sind?

Gast
2010-05-06, 10:55:00
@Gast: 1,5/1,27 = 1,18


Wie? LS sagt die 465 wird bis zu 27% langsamer als die 470. Wenn die 470 bei "150" liegt, dann sind 27% weniger als 150 ganz klar 109,5!

Sorkalm
2010-05-06, 10:56:09
Jap. Denn dieses Prozentrechnen kann ich wirklich nicht. Ist dir eigentlich aufgefallen, das 150/109,5 nicht 27% sind?

150 -27% sind aber 109,5. :P
Sollteste dir vielleicht noch mal angucken.^^

Gast
2010-05-06, 11:02:39
Laut dem CB.de Rating ist die GTX470 ca. 50% schneller als die 5830. Die jetzige GTX46x wird maximal 27% langsamer sein. Wird also ca. 20-25% schneller als die 5830 werden.



In Anbetracht der Tatsache, dass die Konkurrenz weniger Leistung erbringt, sind die Karten weder zu teuer noch zu billig.

Die Karte soll soviel kosten wqie eine 5850 und da kann sich nicht mithalten => zu teuer.

Und die GF104 und GF106-Karten werden noch schlechter abschneiden. => miesestes PL ever!

Spasstiger
2010-05-06, 11:03:21
Ihr habt natürlich recht. 150*0,73=109,5.
Und die GTX 465 hat auch wirklich nur 73% der Rechenleistung und Texelfüllrate einer GTX 470, also 27% weniger.
Ne, quatsch. Die GTX 465 hat die gleichen Taktraten wie die GTX 470. 352/448 = 0,79. Umgekehrt: 448/352 = 1,27.
Also hab ich doch intuitiv die richtige Annahme gemacht im Posting davor. LovesuckZ hat lediglich aus den "27% mehr" ein "27% weniger" im Umkehrschluss gemacht, was falsch war.

Gast
2010-05-06, 11:06:20
Jap. Denn dieses Prozentrechnen kann ich wirklich nicht. Ist dir eigentlich aufgefallen, das 150/109,5 nicht 27% sind?

Wurde ja inzwischen schon aufgelöst. Wenn man also annimmt das die GTX470 50% schneller als die 5830 ist, dann wird die GTX465 9,5% schneller als die 5830.

Gast
2010-05-06, 11:10:42
Ihr habt natürlich recht. 150*0,73=109,5.
Und die GTX 465 hat auch wirklich nur 73% der Rechenleistung und Texelfüllrate einer GTX 470, also 27% weniger.
Ne, quatsch. Die GTX 465 hat die gleichen Taktraten wie die GTX 470. 352/448 = 0,79. Umgekehrt: 448/352 = 1,27.
Also hab ich doch intuitiv die richtige Annahme gemacht im Posting davor. LovesuckZ hat lediglich aus den "27% mehr" ein "27% weniger" im Umkehrschluss gemacht, was falsch war.

Urgl, wenn natürlich die Annahme falsch war, kann der Schluss nicht stimmen. Die Annahme habe ich nicht überprüft.

Spasstiger
2010-05-06, 11:14:05
Trotz dem ganzen Brainfuck kann man wohl LovesuckZ' Schluss als korrekt ansehen. Die GTX 465 wird (mit AA) 20-25% schneller sein als die HD 5830, wenn die Spekulationen zu Taktraten und Einheitenzahl stimmen (11 SMs, 4 ROP-SI-Partitionen, 607/1215/837 MHz).

V2.0
2010-05-06, 11:17:47
Sie stellt sich preislich aber gegen die 5850, daher ist die 5830 nicht relevant.

LovesuckZ
2010-05-06, 11:20:04
Wurde ja inzwischen schon aufgelöst. Wenn man also annimmt das die GTX470 50% schneller als die 5830 ist, dann wird die GTX465 9,5% schneller als die 5830.

Nein. Ich rede von langsamer, nicht von Leistungserreichung. 50% von 100% ist die Hälfte und nicht 3/4. Wenn die GTX470 100FPS erreicht, dann erreicht eine Karte, die 27% weniger Leistung hat, ca 79 FPS.

Gast
2010-05-06, 11:26:29
Nein. Ich rede von langsamer, nicht von Leistungserreichung. 50% von 100% ist die Hälfte und nicht 3/4. Wenn die GTX470 100FPS erreicht, dann erreicht eine Karte, die 27% weniger Leistung hat, ca 79 FPS.

Das ist schon klar. Du hast es aber ursprünglich falsch erklärt, und darauf stützte sich meine Rechnung.

Spasstiger
2010-05-06, 11:33:38
Sie stellt sich preislich aber gegen die 5850, daher ist die 5830 nicht relevant.
Ailuros nennt eine MSRP von 249$. Die HD 5850 hat eine MSRP von 279-299$ (weiß jemand die genaue, aktuelle Zahl?), die HD 5830 eine MSRP von 239$. Wenn die 249$ für eine GTX 465 stimmen, dann passt zwar das P/L-Verhältniss gegenüber der HD 5850, die HD 5830 wäre aber eindeutig zu teuer (ist sie ja jetzt schon).

LovesuckZ
2010-05-06, 11:37:01
Das ist schon klar. Du hast es aber ursprünglich falsch erklärt, und darauf stützte sich meine Rechnung.

Nö, auch nicht. Ich habe geschrieben, dass die Karte 27% langsamer als die GTX470 sein wird. Nicht, dass die Karte 73% der Leistung erreicht. Denn dies bedeute, dass die GTX470 37% schneller wäre.

LovesuckZ
2010-05-06, 11:41:48
Das ist schon klar. Du hast es aber ursprünglich falsch erklärt, und darauf stützte sich meine Rechnung.

Nö, auch nicht. Ich habe geschrieben, dass die Karte 27% langsamer als die GTX470 sein wird. Nicht, dass die Karte 73% der Leistung erreicht. Denn dies bedeute, dass die GTX470 37% schneller wäre.

Spasstiger
2010-05-06, 11:52:04
27% langsamer als 100% sind 73%.
50% langsamer als 100% wären die Hälfte, also 50%.
Und bei 100% langsamer als 100% bleibt nix mehr übrig, also 0%.

Formel: "x Prozent langsamer als y" sind (100-x) Prozent von y.

Gast
2010-05-06, 11:56:17
Nö, auch nicht. Ich habe geschrieben, dass die Karte 27% langsamer als die GTX470 sein wird. Nicht, dass die Karte 73% der Leistung erreicht. Denn dies bedeute, dass die GTX470 37% schneller wäre.

Du verstehst es wirklich nicht. 27% langsamer = 73% der Leistung einer GTX470.

Botcruscher
2010-05-06, 12:35:49
Mit der 5830 sollte man eh nicht vergleichen. Das Ding ist einfach eine Schweinekarte mit beschissenem P/L. Wenn da Konkurrenz aufkommt wird die ganz schnell neu eingepreist.

Gast
2010-05-06, 17:32:03
Wieso wird dann mit der schwächeren Karte verglichen?

Das wird eine schlechte Grafikkarte wenn sie zu diesem Preis auf den Markt kommt.

Userxy
2010-05-06, 22:42:07
Weil 249$ dichter an 239$ als an 279$ ist?

Iruwen
2010-05-07, 00:52:45
Das wird eine schlechte Grafikkarte wenn sie zu diesem Preis auf den Markt kommt.

Die 5870 wäre dann auch eine schlechte Grafikkarte, die wird (oder wurde) schließlich deutlich über UVP und damit zu teuer verkauft.

Gast
2010-05-07, 22:21:13
Jap. Denn dieses Prozentrechnen kann ich wirklich nicht. Ist dir eigentlich aufgefallen, das 150/109,5 nicht 27% sind?

109,5 /150 = 0.73
(Lies: die 460er erreicht 73% der 470er)


150 - 109.5 = 150/100*27 oder 150 - 150/100*27 (das sind 27%) = 109.5
(Lies: 27% leistungsverlust gegenüber der 470er)


150/109.5 ~= 1.37
(Lies: die 470er hat eine 37% höhere Leistung als die 460er )



Nö, auch nicht. Ich habe geschrieben, dass die Karte 27% langsamer als die GTX470 sein wird. Nicht, dass die Karte 73% der Leistung erreicht. Denn dies bedeute, dass die GTX470 37% schneller wäre.

Ich meine: die 3 oben genannten Aussagen sind äquivalent. (trivialerweise)
Du sagst: Eine zu einer wahren Aussage äquivalente Aussage ist falsch.

Ein Tip: lern Prozentrechnen

Ailuros
2010-05-08, 08:10:49
Es reicht so langsam mit der Prozent-Werkelei.

hq-hq
2010-05-08, 14:26:25
vielleicht sollten wir auf die balkendiagramme warten hehe.

schätze die gtx460 wirds nicht leicht gegen die 5850 haben...
man kann nur hoffen das es nicht noch ein abgespecktes pcb gibt, noch kleiner und kaum mehr grosse oc aussichten...

hier noch was zum runterkommen: http://www.youtube.com/watch?v=XwAJXV070OY

Ailuros
2010-05-09, 09:44:56
http://forum.beyond3d.com/showpost.php?p=1427763&postcount=5627

First of all, be very sure to tell you, GF104 silicon has been taped out......NV will be May 19 to AIC to provide GPU samples Computex heard there will be presentations with GF104 DEMO machine, as listed I guess the earliest by the end of June to July.

http://forum.beyond3d.com/showpost.php?p=1427956&postcount=5630

(GF104 it is said will be around 10% larger
Cho to say GF104 is anonymous of reason, is because of GTX460 and is not complete version of GF104 and at once is to follow closely 5830 and toy with it)

http://forum.beyond3d.com/showpost.php?p=1428550&postcount=5646

There won't be a Fermi II before 28nm, but it seems that there will be a GX2 based on a 256-bit chip before then. Whether that chip is GF104 or not, I don't know. But certainly given the time between GF100 and GF104 tape-out, you'd expect architectural tweaks. I could be horribly wrong, but I seem to remember the tape-out time between NV30 and NV35 to be equivalent to this; not that I expect changes anywhere near as drastic or as domain-focused as that, of course.

Leonidas
2010-05-10, 15:36:13
10% größer als was? Größer als die GF104-Planung oder größer als GF100?


Update: Hat sich erledigt, 10% größer als RV870 ist gemeint. Das man damit aber nur in Konkurrenz zur 5830 gehen will/kann ...

Spasstiger
2010-05-10, 15:51:01
NV hatte seit der GeForce 8 immer die größeren GPUs in den einzelnen Segmenten. Der GF104 macht da halt keine Ausnahme.
Zudem dürfte die HD 5830 mehr als schlagbar sein, denn mit AA fällt sie deutlich hinter eine GTX 285. Der GF104 wird vermutlich durchweg auf GTX-285-Niveau landen mit evtl. leichten Vorteilen bei 8xMSAA und logischerweise großen Vorteilen bei DX11-Titeln.

Sorkalm
2010-05-10, 15:59:26
So krass war der Unterschied aber noch nie. Natürlich müssen wir erstmal abwarten wie schnell der GF104 wirklich wird, aber bisher war es so, dass wenn man Chips im Vollausbau verglichen hat, dass der größere immer schneller war (im gleichen Prozess). Hier könnte sich das erstmals umdrehen, und zwar sogar deutlich.

Und wenns nötig wäre, könnte AMD sicher noch einen beschnittenen RV870 mit voller ROP-Anzahl bringen...

Spasstiger
2010-05-10, 16:02:24
Und wenns nötig wäre, könnte AMD sicher noch einen beschnittenen RV870 mit voller ROP-Anzahl bringen...
AMD muss das Portfolio nicht erweitern. Mit der HD 5850 ist man für alle Eventualitäten gerüstet, man muss nur den Preis senken.

Sorkalm
2010-05-10, 16:24:58
AMD muss das Portfolio nicht erweitern. Mit der HD 5850 ist man für alle Eventualitäten gerüstet, man muss nur den Preis senken.

Naja, eine Grafikkarte würde da schon noch reinpassen. Ich wär mir noch nicht so sicher, dass man direkt mit der 5850 gegen den GF104 geht, wenns nicht wirklich nötig ist.

Was kommt, hängt dann sicher a) von Nvidia ab, wie und wann GF104 genau kommt - und b) von der Ausbeute des RV870 in neueren Zeiten.

LovesuckZ
2010-05-10, 18:43:16
So krass war der Unterschied aber noch nie. Natürlich müssen wir erstmal abwarten wie schnell der GF104 wirklich wird, aber bisher war es so, dass wenn man Chips im Vollausbau verglichen hat, dass der größere immer schneller war (im gleichen Prozess). Hier könnte sich das erstmals umdrehen, und zwar sogar deutlich.


GF100 wäre deutlich schneller. Man wäre durchschnittlich wohl nur knapp 10% langsamer als eine 5970. Beachtlich für eine Single-Chip Lösung.
Ansonsten ist das Verhältnis mit GF100 geringer als zwischen G92 <> r670, GT200 <> rv770 und GT200b <> rv770/rv790.
Man muss einfach bedenken, dass die Architekturen komplett andere Schwerpunkte haben. Dafür hält sich GF100 sehr wacker.

Gast
2010-05-10, 19:45:01
GF100 wäre deutlich schneller. Man wäre durchschnittlich wohl nur knapp 10% langsamer als eine 5970. Beachtlich für eine Single-Chip Lösung.
Ansonsten ist das Verhältnis mit GF100 geringer als zwischen G92 <> r670, GT200 <> rv770 und GT200b <> rv770/rv790.
Man muss einfach bedenken, dass die Architekturen komplett andere Schwerpunkte haben. Dafür hält sich GF100 sehr wacker.

Welche Ausrede bringst du eigentlich wenn AMD auch die Geometrieleistung im Herbst stark anhebt? Die Architektur ist einfach ineffizient, auch beim Stromverbrauch. Das einzige was sie noch rettet ist die schiere Masse an Transistoren. Aber AMD hat Blut gerochen und die nächstens Chips werden wohl auch deutlich größer.

V2.0
2010-05-10, 19:50:47
AMD hat nicht Blut gerochen, sie haben keine andere Wahl wenn sie einen Chip bringen wollen der schneller ist als die 5870.

Abgesehen davon ist GF100 ein Nischenprodukt. Für NV entscheidend ist GF104, aber das sagte ich schon vor Monaten.

Iruwen
2010-05-10, 20:00:52
Und damit steigt sicherlich auch der Stromverbrauch deutlich, erstmal abwarten was AMD fabriziert. Kann genauso gut ein neuer R600 werden.

Coda
2010-05-10, 21:01:26
Die RV870-Architektur ist auch nicht gerade der König der Effizienz, das sollte man nicht vergessen.

Gast
2010-05-10, 21:18:45
Die RV870-Architektur ist auch nicht gerade der König der Effizienz, das sollte man nicht vergessen.

Im Vergleich zu was? Entscheidend ist die Konkurrenz. Zumal mal mit einem neuen Uncore im Herbst wohl noch deutlich mehr Leistung und damit Effizienz heraus holen wird können. Bei GF100 sind die Recheneinheiten einfach ineffizient, das ist wesentlich problematischer. Vor 28nm steht NV mit herunter gelassener Hose da.

deekey777
2010-05-10, 22:36:46
Was ist Effizienz?
Effizient ist man, wenn es keine Alternative gibt, die den gleichen Output bei weniger Input erreicht oder beim gleichen Input mehr Output liefert. Problem: Werden alle Faktoren des Inputs berücksichtigt oder nur bestimmte?

Man kann sich einen Spaß erlauben: Wie ist die Performance einer GTX480, wenn sie maximal das verbrauchen darf, was auch eine HD5870 verbraucht.

LovesuckZ
2010-05-10, 22:39:09
GF100's Problem sind die Leckströme. Eine Takterhöhung von 19% sowie eine Spannungserhöhung von 3,8% resultiert in maximal 20% mehr Verbrauch. Meisten ist es genauso viel wie die Leistungssteigerung.

Welche Ausrede bringst du eigentlich wenn AMD auch die Geometrieleistung im Herbst stark anhebt? Die Architektur ist einfach ineffizient, auch beim Stromverbrauch. Das einzige was sie noch rettet ist die schiere Masse an Transistoren. Aber AMD hat Blut gerochen und die nächstens Chips werden wohl auch deutlich größer.

Wenn es so einfach wäre, hätten sie es getan. Sie brauchten auch mehr als 1 1/2 Jahre um die 8800GTX von der Leistung zu schlagen. Außerdem zeigten sie mit Cypress, dass sie nichtmal annährend sich dem Problem der Geometrieleistung annehmen konnten. Wieso das mit irgendeinem Refresh auf dem selben Prozeß besser werden sollte, ist fragwürdig.

Bucklew
2010-05-11, 01:05:45
Man kann sich einen Spaß erlauben: Wie ist die Performance einer GTX480, wenn sie maximal das verbrauchen darf, was auch eine HD5870 verbraucht.
Wie wäre die Performance einer HD5870, wenn endlich mal die ganzen AF-Chea....Verzeihung!...Optimierungen abgeschaltet wären?

Ailuros
2010-05-11, 09:18:18
Update: Hat sich erledigt, 10% größer als RV870 ist gemeint.

Die originalen Infos sprachen von mehr die area als G92@65nm, welches auch mit dem obrigen uebereinstimmt. AMD sagte mir irgendwo im Dezember 2009 dass sie ~375mm2 einschaetzen.

Das man damit aber nur in Konkurrenz zur 5830 gehen will/kann ...

Wenn alles andere stimmen sollte (wobei ich fuer den Stromverbrauch immer noch einige Zweifel habe), dann ist die verbrauchte die area eventuell sogar wurscht (siehe auch G92@65nm= 324mm2, G92b@55nm=231mm2 vs. RV670@55nm= 190mm2).

Damit NV den G92 Erfolg wiederholen kann (auch ueber 28nm in 2011 gezogen, die shrinks unendliches renaming etc.) muss GF104 vergleichbaren Stromverbrauch zur 5830 haben und einen sehenswerten Leistungsunterschied.

Die brennende Frage ist ob GF100 nur ein Design-Problem hat die zu zu hohem Stromverbrauch fuerht oder ob es sich bis zu einem gewissen Grad ueber die gesamte GF10x zieht.

V2.0
2010-05-11, 09:25:34
Gerüchte sagen ja, dass GF104 schon einige Erkenntnisse aus den ersten Produktionsversuchen des GF100 in sein Desgin übernommen hat.

Gast
2010-05-11, 09:29:25
Die originalen Infos sprachen von mehr die area als G92@65nm, welches auch mit dem obrigen uebereinstimmt. AMD sagte mir irgendwo im Dezember 2009 dass sie ~375mm2 einschaetzen.



Wenn alles andere stimmen sollte (wobei ich fuer den Stromverbrauch immer noch einige Zweifel habe), dann ist die verbrauchte die area eventuell sogar wurscht (siehe auch G92@65nm= 324mm2, G92b@55nm=231mm2 vs. RV670@55nm= 190mm2).

Damit NV den G92 Erfolg wiederholen kann (auch ueber 28nm in 2011 gezogen, die shrinks unendliches renaming etc.) muss GF104 vergleichbaren Stromverbrauch zur 5830 haben und einen sehenswerten Leistungsunterschied.

Die brennende Frage ist ob GF100 nur ein Design-Problem hat die zu zu hohem Stromverbrauch fuerht oder ob es sich bis zu einem gewissen Grad ueber die gesamte GF10x zieht.

Die 5830 braucht so viel Strom wie die 5870 und ist noch dazu sehr stark beschnitten. NV muss mindestens die 5850 angreifen wenn sie eine Chance haben wollen. Eigentlich müssten die die 5870 schlagen mit einem größeren Die, aber davon sind sie mir ihrer ineffizienten Architektur weit entfernt. Eine Preissenkung können sie sich auch nicht leisten mit einem solchen Die. Ich hoffe das wenigstens der Stromverbrauch konkurrenzfähig ist. Aber wenn sie mehr als eine 5870 verbrauchen und dabei gerade mal die Leistung einer 5830 erreichen dann gute Nacht.

Ailuros
2010-05-11, 09:38:27
Wie wäre die Performance einer HD5870, wenn endlich mal die ganzen AF-Chea....Verzeihung!...Optimierungen abgeschaltet wären?

Nach seiner Logik wenn man eine GTX480 auf 188W (wahre) TDP reduzieren wuerde, kannst Du von mir aus konstant auf einer 5870 mit AI off spielen (und alle nicht AF relevanten Optimierungen ausgeschaltet). Wenn der angegebene maximale Verbrauch von 250W fuer die GTX480 stimmen wuerde, waere das Ganze auch ein ganz anderes Kapitel. Im Gegensatz bewegt sich der echte maximale Stromverbrauch wohl doch eher irgendwo um die 290W und 100W Unterschied ist alles andere als klein.

Komischerweise koennen sie eben Tesla-Kunden nicht so brutal anluegen. Eine C2050 hat 575/1150/750MHz und einen 247W TDP: http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

Viel Spass nochmal die Frequenzen um so viel zu reduzieren dass nochmal 59W runter bis zu 188W TDP abfallen.

Die 5830 braucht so viel Strom wie die 5870 und ist noch dazu sehr stark beschnitten. NV muss mindestens die 5850 angreifen wenn sie eine Chance haben wollen.

Wohl eher naeher am 5850 Stromverbrauch aber es ist auch nebensaechlich:

http://www.xbitlabs.com/images/video/xfx-radeon-hd5830/xfx5830_power.png

http://www.xbitlabs.com/articles/video/display/xfx-radeon-hd5830_4.html#sect0

Eigentlich müssten die die 5870 schlagen mit einem größeren Die, aber davon sind sie mir ihrer ineffizienten Architektur weit entfernt.

Nochmal verbrauchte die area ist relativ wurscht wenn alles andere stimmen sollte. Wenn das obrige ueberhaupt irgend eine Logik haette, dann muesste G92b@55nm nur ein Haar unter der Leistung von RV770 liegen. Ohne Transistoren-Anzahl bzw. Packdichte ist eine sterile mm2 Zahl wertlos. Hot-clocked ALUs brauchen eine konservativere Packdichte und dieses ist auch nichts Neues seit G80. Koennte sogar sein dass sie fuer GF100 die Packdichte zu dicht angelegt haben falls der die tatsaechlich um die 520mm2 gross ist.

Eine Preissenkung können sie sich auch nicht leisten mit einem solchen Die.

Wenn die Mehrzahl der ~520mm2 GF100 dies GTX470 bzw. 460 schaffen koennen bei deren MSRPs, dann sehe ich bei einem <30% kleinerem die kein besonderes Problem. Ueberhaupt da ich bezweifle dass NV die GF104 bis zum geht nicht mehr ausreizen koennte (wie gesagt siehe zukuenftige die shrinks, Umbenennungen und weiss der Geier was noch). Sie machen von dem ausgelatschten G92b im GT330 (OEM) immer noch Gewinn.

Natuerlich braucht GF104 einige wichtige Vorraussetzungen um ein wuerdiger Nachfolger fuer G92 zu sein, aber selbst wenn der insgesamte Erfolg kleiner sein sollte als bei G92 sieht es nicht miserabel fuer sie aus. Wie schon oben erwaehnt unter 65nm ging G92 mit 324mm2 an die Startloecher mit einem RV670@55nm und 190mm2 als Gegner. Selbst unter 55nm war G92b immer noch groesser als RV670 und ATI hatte in der Zwischenzeit den letzteren mit RV7x0 abgeloest was fuer diese Marktsparte noch weniger die area bedeutete.

Die area alleine von sich aus sagt gar nichts aus.


Ich hoffe das wenigstens der Stromverbrauch konkurrenzfähig ist. Aber wenn sie mehr als eine 5870 verbrauchen und dabei gerade mal die Leistung einer 5830 erreichen dann gute Nacht.

Ich weiss lediglich dass GF104 hoechstwahrscheinlich ein 2*6pin design sein wird. Ohne weitere Details sagt dieses aber gleich gar nichts aus.

Gerüchte sagen ja, dass GF104 schon einige Erkenntnisse aus den ersten Produktionsversuchen des GF100 in sein Desgin übernommen hat.

Duerfte aber in die "somewhat better power consumption" Sparte fallen die NV engineering selber off the record fuer zukuentige chips angegeben hat. Ich bezweifle dass sie fuer einen re-spin fuer 104 genug Zeit hatten.

Dural
2010-05-11, 10:32:46
ich glaube eh nicht mehr das es nur an der grösse des GF100 liegt...

es wird viel eher eine kombi aus hot clock und 40nm und die damit verbundenen leckströme sein, klar die GF100 grösse macht das Problem dann zu deutlich/ersichtlich

NV hat bei 40nm einfach einen gewaltigen Nachteil wegen ihres hot clockes, anscheinend kommt 40nm damit nicht zu recht oder was auch immer... auch die ATi Chips "leiden" darunter, man sieht es stock einfach nur nicht!

Lange reden kurzer sinn, glaube nicht das es mit GF104 besser wird, sicher villeicht etwas optimierter und durch die kleinere grösse nicht so schlimm... aber das urproblem wird man auch beim GF104 sehen...

Rampage 2
2010-05-12, 16:46:03
Eine sehr wichtige Frage:

Kann der GF104-Chip kein HQ-AF durchführen!?!? Ich habe nämlich gerade die aktuellen 3DC-News gelesen. Irgendwie verstand ich das Ganze so, dass die "NV-exklusiven" Features nur den GF100-Chips vorbehalten sind...

Hoffe, dass das keine blöde Frage ist...

R2

mapel110
2010-05-12, 16:48:18
Innerhalb einer Architektur hat sich das AF glaube bisher nur einmal geändert und das war bei ATI vor etlichen Jahren (nicht abschaltbare TriOpt).

LuXon
2010-05-12, 17:23:46
Die GTX465 wird eine Krüppelkarte werden, wenn sie einen GF100 @ 11SM nehmen. Der hätte dann viel zu wenig TMU's. HQ-AF wird deshalb denke ich mal sehr viel kosten.

Spasstiger
2010-05-12, 17:30:39
@Rampage2: Dann hast du was falsch verstanden. Das einzige, auf was beim GF104 vielleicht verzichtet wird, ist die Double-Precision-Unterstützung, die für Spieler aber ohnehin irrelevant ist.

@LuXon: GTX 465 = GF104 (256 SPs, 64 TMUs), GTX 460 = GF100 (352 SPs, 44 TMUs)
Beide Lösungen haben zudem ein 256 Bit breites GDDR5-Speicherinterface. Die Performance dürfte ungefähr gleichauf liegen (GeForce-GTX-285-Level mit DX9/DX10 und 4xAA).

Gast
2010-05-12, 17:34:55
@Rampage2: Dann hast du was falsch verstanden. Das einzige, auf was beim GF104 vielleicht verzichtet wird, ist die Double-Precision-Unterstützung, die für Spieler aber ohnehin irrelevant ist.

ECC wohl auch, daneben könnte auch der Cache auf 64KiB pro ROP-Partition verringert werden, also 256KiB für GF104 (GF100 768KiB).

Rampage 2
2010-05-12, 17:36:41
Die GTX465 wird eine Krüppelkarte werden, wenn sie einen GF100 @ 11SM nehmen. Der hätte dann viel zu wenig TMU's. HQ-AF wird deshalb denke ich mal sehr viel kosten.

Ich dachte, die Spec's der GTX465 (= GF104) stehen weitgehend fest?:

- 32ROP's (8xMSAA in einem Pass, erhöhte Effizienz bei 8xMSAA)
- 64TMU's (-> annähernd die Rohleistung einer GTX285)
- 256SP's (8SM's) (mehr SP's als GTX285, 75% von dessen Shaderleistung)
- 256Bit Memory Interface
- 1024MB GDDR5-RAM

Taktraten (sinnvollste Möglichkeiten):

Chip: 750-800MHz
Shader: 1500-1600MHz
Memory: 1.8 - 2.0GHz

Was soll daran so schlecht sein?

LuXon
2010-05-12, 17:51:53
Ach, dann bin ich nicht auf dem neusten Stand. Denn ich meinte die Karte, die auf dem GF100 basiert. In diesem Fall ist es die GTX460 und nicht die GTX465. Ich dachte, wäre umgekehrt^^

Spasstiger
2010-05-12, 17:52:56
ECC wohl auch
Es geht nur um GeForce-Karten. Keine GeForce beherrscht ECC.

Taktraten (sinnvollste Möglichkeiten):

Chip: 750-800MHz
Shader: 1500-1600MHz
Memory: 1.8 - 2.0GHz
Wahrscheinlich 725 MHz Chip- und 1450 MHz Shadertakt.

mapel110
2010-05-12, 17:54:45
Es geht nur um GeForce-Karten. Keine GeForce beherrscht ECC.


Wahrscheinlich 725 MHz Chip- und 1450 MHz Shadertakt.
Geforce und Tesla sind baugleich, also beherrschen auch GF100-Chips ECC. Bei GF104 könnte man da vielleicht wirklich auf Hardwareseite etwas weglassen.

Rampage 2
2010-05-12, 18:02:24
Wahrscheinlich 725 MHz Chip- und 1450 MHz Shadertakt.

Das ist doch viel zu wenig für einen halben GF100 (genauer gesagt einem GF104-Chip mit differierender Architektur und der halben Einheitenzahl eines GF100). Was ich bis jetzt seit vielen Jahren beobachte, ist, dass Mainstream-Chips viel höhere Taktraten besitzen - wahrscheinlich wegen weniger Recheneinheiten und (deswegen) weniger Wärmeentwicklung. Und der GF104 soll ja eine veränderte Architektur haben - ich schätze, dass das die Effizienz weiter steigen lässt.

Ich persönlich halte 800/1600MHz für das Mindeste wozu ein GF104-Chip fähig ist.

R2

Spasstiger
2010-05-12, 18:04:33
Geforce und Tesla sind baugleich, also beherrschen auch GF100-Chips ECC.
Die Tesla C2070 ist zu keiner GeForce baugleich (448 SPs + 384 Bit SI + ECC-GDDR5-SDRAM und nur ein DVI-Out). Und die Tesla-S2070-Racks können es formfaktorbedingt schon gar nicht sein.
Der GF100 beherrscht zwar prinzipiell ECC, aber es wird von der GTX 470/480 trotzdem nicht unterstützt. ECC kann kein exklusives Feature der GTX 470/480 sein, wenn diese es nichtmal unterstützen.

mapel110
2010-05-12, 18:35:04
Kann deiner Logik nicht folgen, sry. Dass GTX470/480 (der chip selbst, nicht der Rest auf dem PCB) kein ECC können, kann nur eine reine Softwaregeschichte sein.

Spasstiger
2010-05-12, 18:38:08
ECC ist kein Feature der GTX 470/480, was ist daran so schwer zu verstehen? Ganz egal, ob ECC theoretisch auch mit dem verbauten Non-ECC-Speicher laufen würde, wenn man nur ein geeignetes Bios aufspielt und den Treiber anpasst. *) Wer eine GTX 465 statt einer GTX 460 kauft, hat keine Nachteile in Bezug auf ECC, denn auch die GF100-GeForces unterstützen kein ECC.
NV-exklusive Features der GF100-GeForce sind z.B. das HQ-AF, PhysX und CUDA. Das wird mit Sicherheit auch alles von den GF104-GeForces unterstützt werden.

*) Einem Formel-1-Wagen schreibt man auch keine Flugeigenschaft zu, nur weil er fliegen könnte, wenn man andere Flügel dranbaut.

Coda
2010-05-12, 18:42:46
Es gibt kein ECC GDDR5.

Spasstiger
2010-05-12, 18:50:15
Es gibt kein ECC GDDR5.
Irgendwo hab ich mal gelesen, dass Samsung eine spezielle Serie von ECC-GDDR5-Speicher fertigt (oder selektiert), der auf ECC-typische Zugriffe besser optimiert ist.

Coda
2010-05-12, 18:54:16
Das halte ich für ein Gerücht.

Es gibt überhaupt keinen ECC-Speicher, nur ECC-Speichermodule, deren einziger Unterschied eine höhere Kapazität und Interface-Breite ist. Es ist nichtmal gesagt, dass zwei verschiedene Chipsätze die selben Korrektur-Codes verwenden.

Fermi interleaved die ECC-Daten irgendwie mit den normalen Daten, aber verwendet dabei ganz sicher stinknormalen GDDR5-Speicher - weshalb auch die Kapazität sinkt.

Aber du hast natürlich recht, dass die Consumer-GeForces es einfach nicht einsetzen - es braucht aber Die-Space.

Klingone mit Klampfe
2010-05-12, 19:20:45
HQ-AF wird deshalb denke ich mal sehr viel kosten.

Wann hat denn HQAF jemals soviel gekostet, dass ein Spiel allein dadurch unspielbar wurde? Seit meiner 7900GS verwende ich immer 16xHQAF und der höchste Verlust gegenüber 8xQAF waren hier und da 2-4 FPS.

Spasstiger
2010-05-12, 19:21:18
Fermi interleaved die ECC-Daten irgendwie mit den normalen Daten, aber verwendet dabei ganz sicher stinknormalen GDDR5-Speicher - weshalb auch die Kapazität sinkt.
Dass die Kapazität sinkt, ist klar. Und mir ist auch klar, dass die Speicherchips selbst nichts davon wissen, ob ein ECC-Zugriffsverfahren erfolgt oder nicht.
Aber die Teslas nutzen wohl anderen GDDR5-Speicher als die GeForces und irgendwo wurde er als ECC-GDDR5-SDRAM bezeichnet. Also evtl. eine zuverlässigere Selektion mit geringerer Bitfehlerrate, die dort Sinn macht, wo auch ECC Sinn macht.

Ailuros
2010-05-13, 07:16:24
Das ist doch viel zu wenig für einen halben GF100 (genauer gesagt einem GF104-Chip mit differierender Architektur und der halben Einheitenzahl eines GF100). Was ich bis jetzt seit vielen Jahren beobachte, ist, dass Mainstream-Chips viel höhere Taktraten besitzen - wahrscheinlich wegen weniger Recheneinheiten und (deswegen) weniger Wärmeentwicklung. Und der GF104 soll ja eine veränderte Architektur haben - ich schätze, dass das die Effizienz weiter steigen lässt.

Ich persönlich halte 800/1600MHz für das Mindeste wozu ein GF104-Chip fähig ist.

R2

Wenn IHVs Sachen wie Abwaerme, Stromverbrauch, Kosten fuer extravagante Kuehlungsloesungen egal waeren, waeren um einiges hoehere Frequenzen moeglich. Ich weiss zwar nicht wie viel Strom 104 verballern koennte aber nochmal bevor GF100 finalisiert wurde waren die groben Ziele wie folgend:

GF100 top dog = 725/1450/1050 3dfart P Vantage landing zone 21k
GF104 top dog = 750/1500/??? 3dfart P Vantage landing zone 15k

Da die 480 Frequenzen fast in letzter Minute auf 700/1400 reduziert wurden, ist eine Einschaetzung von 725/1500 gar nicht so absurd.

Wenn Du jetzt das Ding auf 800/1600 hochjagen willst, musst Du mir auch erklaeren wie der Stromverbrauch im Vergleich zur direkten Konkurrenz aussehen wird und was es auch noch kosten soll, denn umsonst kommen die Frequenzen garantiert nicht. 28nm wird in 2011 fuer so ein Ding natuerlich eine ganz andere Geschichte sein (siehe auch G92@65nm vs. G92b@55nm Frequenzen).

8800GTX (G80/A2) = 128SPs@1.35GHz
8800Ultra (G80/A3) = 128SPs@1.5GHz
8800GT (G92/A2) = 112SPs@1.5GHz
8800GTS (G92/A3) = 128SPs@1.625GHz
9800GTX (G92b/A2) = 128SPs@1.688GHz
9800GTX+(G92b/x3) = 128SPs@1.836GHz

(GTS2x0 und GT330 aus Langeweile mal weggelassen)

Bleibt also die Frage nach der obrigen timeline was Du genau in Erinnerung hast was Frequenzen betrifft und wie gross der zeitliche Unterschied zwischen 8800GT und 9800GTX+ genau ist (der die shrink mal ganz zur Seite).

Ailuros
2010-05-13, 17:07:23
http://translate.google.com/translate?js=y&prev=_t&hl=en&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fwww.enet.com.cn%2Farticle%2F2010%2F0512%2FA20100512652722.shtml&sl=zh-CN&tl=en

Say hello to GTX465 (GF100/A3):

http://images.enet.com.cn/2010/0512/23/6749916.jpg

*gaehn*

Dural
2010-05-13, 20:34:32
Dachte die 465 soll GF104 haben und die 460 GF100???


9800GTX+(G92b/x3) = 128SPs@1.836GHz


x3? 9800GTX+ hatte B1 obwohl ja auch immer wider behauptet wird das es auch A2 gab... einen beweis dazu (Foto der DIE) einer Referenz 9800+ mit A2 hab ich jedoch nie gesehen... Meine 9800GTX+ aus der ersten Auslieferung der Karten hatte B1, da kann ich mir auch kaum vorstellen das später noch welche mit A2 nach gereicht wurden, es sei den die Board Partner haben einfach 9800GTX unbenannt und höher getaktet...

LovesuckZ
2010-05-13, 20:35:21
Von den Werten wird die Karte auf dem Niveau der GTX285 sein - mal schneller, mal langsamer. Ziemlich beachtlich für eine Karte mit 50% der Texturleistung, 75% der Pixelleistung, geringere Bandbreite und nur 30% mehr Rechenleistung als die GTX285. Stromverbrauch sollte auf dem selben Niveau sein.

Gast
2010-05-13, 20:42:04
Von den Werten wird die Karte auf dem Niveau der GTX285 sein - mal schneller, mal langsamer. Ziemlich beachtlich für eine Karte mit 50% der Texturleistung, 75% der Pixelleistung, geringere Bandbreite und nur 30% mehr Rechenleistung als die GTX285. Stromverbrauch sollte auf dem selben Niveau sein.

Das zeigt nur das die GTX285 nicht ausbalanciert war. Rechenleistung is King.

Spasstiger
2010-05-13, 20:52:02
Die GTX 285 hat 1/4 mehr theoretische Rechenleistung als die GF100-basierende GTX 460/465 (wie auch immer sie heißen mag).
Das vierfache Setup des GF100 ist der Schlüssel zum Erfolg.

LovesuckZ
2010-05-13, 20:58:46
Das zeigt nur das die GTX285 nicht ausbalanciert war. Rechenleistung is King.

Das war doch schon immer klar. Deswegen hat nVidia doch diesen krassen Cut gemacht: Von 3:1 auf 8:1 das ALU:TMU Verhältnis.

aths
2010-05-13, 21:09:27
Die GTX 285 hat 1/4 mehr theoretische Rechenleistung als die GF100-basierende GTX 460/465 (wie auch immer sie heißen mag).
Das vierfache Setup des GF100 ist der Schlüssel zum Erfolg.Dreifach bei der GTX 465.

Das zeigt nur das die GTX285 nicht ausbalanciert war. Rechenleistung is King.Die GTX 285 ist für DX9-Spiele sehr gut ausbalanciert. (ATI-Karten hatten für meinen Geschmack zu wenig TMU-Leistung in Bezug auf die arithmetische Rechenleistung.)

In DX10/11-Spielen sollten die TMUs der 285 leerlaufen weil die Rechenleistung limitiert. Nun sind DX9-Spiele auch auf kleineren Karten schnell genug – dafür kann man sich krasse Supersampling-Modi leisten. Ich bin trotzdem überrascht, dass jetzt Performance-Karten kommen die deutlich weniger Texturleistung bieten als die alten Highend-Modelle.

Spasstiger
2010-05-13, 21:29:04
Dreifach bei der GTX 465.
Ist das inzwischen bestätigt? Vier GPCs wären ja theoretisch auch denkbar.

aths
2010-05-13, 23:02:52
Ist das inzwischen bestätigt?Es ist naheliegend.

Coda
2010-05-13, 23:36:25
Ich finde nicht. Die Punktdefekte sind ja zufällig über den ganzen Chip gestreut, deshalb würde das abschalten eines kompletten GPC die Yields wohl sogar schlechter werden lassen als wenn man einen SM in drei und zwei SMs in einem GPC deaktiviert.