PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11

Gast
2010-07-27, 09:38:18
In den Unternehmensbilanzen von TSMC finden sich einige Zahlen.
40nm hat im abgelaufenen Quartal 14% Umsatzanteil, alle Computer-bezogenen Auftraggeber (unabhängig vom Fertigungsprozess) liegen bei 32%.

Da kann man sich leicht ausrechnen, wie groß die Anteile eines einzelnen IHVs in einem bestimmten Prozess am Gesamtvolumen sind.

-carsten

AwesomeSauce
2010-07-28, 01:40:58
Nvidia plans to launch a GF104 card with all eight cluster and 384 shaders enabled as long as it sells what’s left of the Geforce GTX 470 cards.
http://www.fudzilla.com/graphics/graphics/nvidia-gf104-has-384-shaders

Dürfte wohl auch eher unter der Kategorie "Spekulation" eingeordnet werden, auch wenn die Infos angeblich "confirmed" sein sollen. Ich möchte ein Datum für die Karte sehen...

ShinyMcShine
2010-07-28, 09:06:49
Ich möchte ein Datum für die Karte sehen...

Ich auch! ;)

Spasstiger
2010-07-28, 19:15:19
Die Gerüchte sprechen sich ja für ein 128-Bit-SI bei der GTS 450 auf GF106-Basis aus. Was ist das dann für eine Karte mit dem 192-Bit-SI auf den Bildern? GTS 455 auf GF104-Basis (kann ja eigentlich nicht sein wegen der anderen Dieform)? Oder evtl. gar eine GTS 450 768 MiB, die mit DDR3-Speicher statt GDDR5-Speicher bestückt wird?
Am meisten Sinn macht ja, dass der GF106 einfach ein 192-Bit-SI hat und die Karte auf den Bildern eine GTS 455 auf GF106-Basis ist. Aber über das 128-Bit-SI beim GF106 scheinen sich zumindest die News-Seiten ja einig zu sein.

/EDIT: Was haltet ihr von dieser Spinnerei:
- GTS 455: 1024 MiB GDDR5, 128-Bit-SI, sonst voller GF106 -> HD-5770-Konkurrent
- GTS 450: 768 MiB DDR3, 192-Bit-SI, sonst abgespeckter GF106 -> HD-5750-Konkurrent
Und evtl. kommt die GTS 455 noch als Herstellervariante mit 1536 MiB GDDR5 und 192-Bit-SI.
Der Grund für das 192-Bit-SI beim GF106 wäre dann die mögliche Verwendung von günstigem DDR3-Speicher.

Rampage 2
2010-07-28, 19:19:35
Dürfte wohl auch eher unter der Kategorie "Spekulation" eingeordnet werden, auch wenn die Infos angeblich "confirmed" sein sollen. Ich möchte ein Datum für die Karte sehen...

Wann wird die volle GF104 denn (ungefähr) erscheinen? Ende August? Mitte September? Welches wäre der wahrscheinlichste Zeitpunkt?

R2

Gast
2010-07-28, 19:48:15
ich kann mir nicht vorstellen, dass man ein Release von dem vollen chip solange hinaus zögern kann. irgendwann sind die Lager doch voll. Zwischen 8800 GT und 8800 GTS waren es auch nur 5 Wochen.

y33H@
2010-07-28, 20:18:03
Da war der G80 in Form der 8800 GTX aber bereits über ein Jahr auf dem Markt. NV wird die GF100 noch ein bisschen abstoßen, der volle GF104 kommt dann wohl im September samt Dual-GF104.

Odal
2010-07-28, 21:50:47
naja den Vollausbau können sie sich dann ja fast sparen wenn AMD im Oktober SI vorstellen sollte

dargo
2010-07-28, 22:52:46
naja den Vollausbau können sie sich dann ja fast sparen wenn AMD im Oktober SI vorstellen sollte
Warum denn? Eventuell ist dann der volle GF104 sehr gut gegen den schwächsten High-End Chip von AMD positioniert. Zb. HD6850 oder wie die heißen mag.

dildo4u
2010-07-28, 22:52:48
naja den Vollausbau können sie sich dann ja fast sparen wenn AMD im Oktober SI vorstellen sollte
NV richtet sich garantiert nicht nach AMD aus genau so wenig wie es Intel macht wenn man über 2/3 des jeweiligen Marktes besitzt.

Odal
2010-07-29, 00:21:32
Warum denn? Eventuell ist dann der volle GF104 sehr gut gegen den schwächsten High-End Chip von AMD positioniert. Zb. HD6850 oder wie die heißen mag.

die 1GB GTX460 schafft nichtmal ganz die 5850 einzuholen da wird der Vollausbau mit gutem willen an die 5870 rankommen

ich geh mal davon aus wo es beim RV870 schon wenig performancesteigerung zum vorgänger gab, das diesmal da ein wenig mehr zu erwarten ist (neue architektur keine auslastungsprobleme mehr etc.)

die RV870 mit dem das ding dann vielleicht konkurieren kann werden dann verrammscht (also <=170€ sag ich mal)

wo soll das ding dann preislich noch platz finden?

nix gegen die GTX460 bzw. GTX"475?" aber der Zug könnte im Oktober abgefahren sein

Gast
2010-07-29, 01:39:20
Erstens steht es noch in den Sternen ob SI dieses Jahr noch kommt, da wurde auch schon gemunkelt das wird nichts mehr bis zum ersten Quartal 2011. Und dann wird Ati bestimmt keine 5870 für 170 Euro verkaufen, Nvidia verkauft ja auch keine GTX470 zu dem Preis um die Lager für die GTX475 leer zu räumen, man will ja schließlich nicht noch drauflegen um die Karten los zu werden. Und da der GF104 sehr gut zu übertakten ist wird das Teil die 5870 hinter sich lassen.

Und zu guter letzt: bei NV bekomme ich noch Physx und HQ-AF sowie stabile Treiber für mein Geld. Bei meiner Ati läuft jetzt seit dem 10.4 Call of Duty UO nicht mehr. Sowas gibt es bei NV nicht.

Konami
2010-07-29, 01:51:04
Und zu guter Letzt ist doch SI gar keine neue Architektur, sondern eher eine Art Refresh...? :|
Ich denke, das dürfte gut zu schaffen sein für einen vollen GF104 mit ausgeschöpftem Taktpotenzial.

Fetza
2010-07-29, 02:53:39
Und zu guter Letzt ist doch SI gar keine neue Architektur, sondern eher eine Art Refresh...? :|
Ich denke, das dürfte gut zu schaffen sein für einen vollen GF104 mit ausgeschöpftem Taktpotenzial.

Du glaubst doch nicht ernsthaft, das der vollausbau des gf104 an eine gtx 480 herankommt? Und da ich das mal annehme, frage ich mich, wie du darauf kommst, das der vollausbau dieser karte dann einen si schlagen können sollte, welcher aktuell bei ungefähr 30% mehrleistung in bezug zu einer gtx 480 eingeschätzt wird?

Konami
2010-07-29, 03:08:46
Du glaubst doch nicht ernsthaft, das der vollausbau des gf104 an eine gtx 480 herankommt? Und da ich das mal annehme, frage ich mich, wie du darauf kommst, das der vollausbau dieser karte dann einen si schlagen können sollte, welcher aktuell bei ungefähr 30% mehrleistung in bezug zu einer gtx 480 eingeschätzt wird?
30% über GTX 480? Wirklich?
Mein letzter Wissensstand ist: Da die neue Fertigungstechnologie flachgefallen ist, kann man nur mäßige Leistungssteigerungen erwarten.
Ist das nun überholt oder wie? :|

Ansonsten war das bezogen auf dargos Aussage von der letzten Seite - also gemessen an der schwächsten Highend-SI-Karte, à la 5850.

V2.0
2010-07-29, 07:30:52
naja den Vollausbau können sie sich dann ja fast sparen wenn AMD im Oktober SI vorstellen sollte

Wieso?

Gf100b vs. 6870
Gf104 full vs. 6850
GTX 460 vs 6830

Odal
2010-07-29, 07:53:04
das würde implizieren das RV970 nur 20% zulegt das wäre nochmal deutlich geringer als die steigerung RV770->870

ich bleib dabei falls SI tatsächlich im oktober gezeigt werden soll sieht nvidia mit dem lineup reichlich alt aus

V2.0
2010-07-29, 08:01:49
Naja, ich würde mich auch eher an RV770 -> RV790 orientieren und da ist 20% im Schnitt ein gutes Ergebnis.

Eine solche Erhöhrung derTransistoranzahl wie von RV770 zu RV870 halte ich für den gleichen Fertigungsprozess für sehr unwahrscheinlich. Ergo wird es wohl eher ein "Facelift" sein, dass bei geringfügig steigender Chipgröße mehr Effizienz erzielen soll.

James Ryan
2010-07-29, 08:41:46
das würde implizieren das RV970 nur 20% zulegt das wäre nochmal deutlich geringer als die steigerung RV770->870


Da AMD bei 40nm bleiben muss sind 20% mehr Leistung als RV870 bei Southern Islands realistisch.
Southern Islands ist nur eine Übergangslösung bis Northern Islands kommt, sind drastische Perfomancesprünge unrealistisch, man möchte den wirklichen neuen GPUs ja nicht die Show stehlen. ;)

MfG :cool:

AnarchX
2010-07-29, 09:30:56
GTS 450:

Launch erst am 13. September (http://www.donanimhaber.com/GeForce_GTS_450nin_cikisi_gecikiyor-21329.html)
Leistung zwischen HD 5750 und 5770 bei 85W TDP (http://we.pcinlife.com/thread-1477227-1-1.html)


Bei PCinlife gibt es später noch diesen Post:
4组SM,GF106为192SP,192/128Bit,初定789/1579/3760MHz(最终频率未定案)
Group 4 SM, GF106 for the 192SP, 192/128Bit, initially for 789/1579/3760MHz (final frequency of the draft)

Gerade bei der Speicherbandbreite (@128-Bit) ist man da den HD 5700 doch unterlegen.
Wobei die GPU-Leistung mit 66% einer GTX 460 auch etwas knapp sein könnte.

Bleibt die Frage nach der GTS 455, denn bei 85W TDP hat man noch etwas Luft nach oben.

edit:
GF106 Die:
http://img826.imageshack.us/img826/3280/4bd4c59f6d9c15dd.jpg
http://translate.google.de/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2010%2F0729%2F1083%2F000001083639.shtm l&sl=zh-CN&tl=en&hl=&ie=UTF-8

260-270mm²? Rein gefühlmäßig wirkt dieser Die auch so groß wie G92b.

Gast
2010-07-29, 10:06:58
260-270mm²? Rein gefühlmäßig wirkt dieser Die auch so groß wie G92b.

Angesichts der Positionierung gegen Juniper wäre das fast schon ein Supergau. Das zeigt wieviel Glück NV hat das Cypress am Frontend hängt, wie vermutet ist man gegen Juniper hoffnungslos unterlegen.

Sorkalm
2010-07-29, 10:19:24
260-270mm²? Rein gefühlmäßig wirkt dieser Die auch so groß wie G92b.

Ich hoffe, das ist eine Fehleinschätzung (oder ein falsches Die). Für 192 SP und einer maximal möglichen 192-Bit-Anbindung wäre das mal verdammt viel...

Aber immerhin scheint auch der Chip taktfreudig zu sein, wenn das da Standard-Frequenzen sind. :)

AnarchX
2010-07-29, 10:23:13
Angesichts der Positionierung gegen Juniper wäre das fast schon ein Supergau. Das zeigt wieviel Glück NV hat das Cypress am Frontend hängt, wie vermutet ist man gegen Juniper hoffnungslos unterlegen.

Mit 85W liegt die TDP eben noch sehr niedrig, im Verhältnis zu den anderen GeForce 4000 müsste man wohl den Chip noch auf ~120W TDP prügeln, ausgehend von einer HD 5770 bei 106W.

Der Die-Size-Unterschied ist sicherlich erheblich, aber absolut gesehen sollte das wohl nur ein Unterschied von $10-15 sein, den man schon durch bessere Verträge noch weiter minimieren kann.

Ich hoffe, das ist eine Fehleinschätzung (oder ein falsches Die). Für 192 SP und einer maximal möglichen 192-Bit-Anbindung wäre das mal verdammt viel...

Aber immerhin scheint auch der Chip taktfreudig zu sein, wenn das da Standard-Frequenzen sind. :)

Deutlich über 200mm² sind wohl auf jeden Fall, was man auch am PCB sieht.

Gast
2010-07-29, 10:26:15
Der Die-Size-Unterschied ist sicherlich erheblich, aber absolut gesehen sollte das wohl nur ein Unterschied von $10-15 sein, den man schon durch bessere Verträge noch weiter minimieren kann.

Anscheinend nicht: http://forum.beyond3d.com/showthread.php?t=58105

AnarchX
2010-07-29, 10:40:58
Diskussion Marktanteile: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=488343

Dural
2010-07-29, 12:16:52
NV verfolgt seit dem Fermi auch eine andere strategie, sie platzieren ihre Karten immer zwischen zwei ATi Karten, was sie früher nie gemacht haben! zb.

GTS250 - 4850
GTX260 - 4870
GTX275 - 4890
GTX285 - nix
GTX295 - 4870X2

GTS450 zwischen 5750 und 5770
GTX460 zwischen 5830 und 5850
GTX470 zwischen 5850 und 5870
GTX480 zwischen 5870 und 5970

So geht man seiner konkurenz "aus dem weg" mit dem GF100 müssen sie das auch so machen, jetzt mit den GF104 und GF106 könnten sie ohne Probleme ein gegen produkt zu ATi aufstellen, sie machen es aber nicht... wie so auch immer, der GF100 macht halt sorgen ;-) die 470 eifach so einzustellen geht wohl gar nicht, es wäre aber sicher das klügste da der GF104 in diesem bereich viel besser aufgestellt wäre...

Spasstiger
2010-07-29, 13:46:19
Die GTS 450 hat ja dann nur noch 4 Polymorph-Engines und einen GPC, wenn ich das richtig verstehe. Damit liegt die Geometrieleistung nur noch marginal über der Radeon HD 5770.
Hier kann man die GTX 460 (7 SMs, 2 GPCs, 675 MHz) und die GTX 470 (14 SMs, 4 GPCs, 607 MHz) in der theoretischen Geometrieleistung vergleichen:
http://www.hardware.fr/articles/795-5/dossier-nvidia-geforce-gtx-460.html.
Bei "Adaptive Tessellation Ultra + DM" aus dem DX11-SDK bringt die GTX 460 1 GiB noch 63% der Framerate einer GTX 470. Die theoretische Geometrieleistung der GTX 460 1 GiB liegt bei 56% der GTX 470.
Die GTS 455 hat 58-67% der Geometrieleistung einer GTX 460, deshalb denke ich, dass die GTS 450 in diesem Benchmark noch rund 70-75% der Framerate einer GTX 460 liefert.
Die Radeon HD 5770 schafft hier 77% einer GTX 460. D.h. die Radeon HD 5770 könnte hier in einem sehr geometrielastigen Tessellations-Benchmark vor der GeForce GTS 450 liegen. Somit fällt der Vorteil "Tessellation" abseits von reinen Geometriedruchsatztests ohne Praxisrelevanz in der Mittelklasse wahrscheinlich flach.

Gast
2010-07-29, 13:56:34
Die Pixelfüllrate sollte mit 4 SMs, also 8 Pixel/Takt auch ziemlich niedrig sein:
http://www.hardware.fr/articles/795-4/dossier-nvidia-geforce-gtx-460.html

Da sind die verbauten 24 ROPs ziemlich fraglich. Aber man wird wohl einfach nicht die 1,2GHz GDDR5 einer HD 5000 erreichen, sodass man hier eine 192-Bit Option braucht.

Gast
2010-07-29, 13:58:23
Ich hab gerade keine Lust den ganzen Thread zu lesen.
Wie schnell wäre denn ein voller GF104? Schneller als eine HD 5870?

Dural
2010-07-29, 13:59:53
mit 750MHz ca. GTX470
mit 800MHz ca. 5870

Edit:
nach computerbase benchmark in 1920x1200 4xAA/16xAF würden schon GF104 @ 384SP @ ca. 710MHz für die GTX470 und ca. 770MHz für die 5870 reichen... und am rande, für die GTX480 wären ca. 890MHz nötig! aber da dürfte es wohl eher am Speicher scheitern, obwohl die Fermi Architektur keine grossen bandbreiten für gute Leistung braucht.

Bis ca. 800MHz wären stock für NV sicher irgend wie möglich, mehr einfach durch werks OC oder manuelles OC...

Gast
2010-07-29, 14:08:13
Der hat dann doch sicherlich auch nen gefixten idle verbrauch, oder?

Den sollten die echt bringen, denn auf sowas wartet die Welt... und nicht auf Stromschleudern wie 470/480.

Dural
2010-07-29, 14:21:16
schon der GF100 hat einen relativ nidrigen Idle verbrauch!

der GF104 setzt da wohl neue massstäbe in dem die Karten auch die Speicher Spannung runter nehmen, obwohl das ja nicht viel mit dem Chip selber zutun hat.

Gast
2010-07-29, 14:40:37
mit 750MHz ca. GTX470
mit 800MHz ca. 5870

Edit:
nach computerbase benchmark in 1920x1200 4xAA/16xAF würden schon GF104 @ 384SP @ ca. 710MHz für die GTX470 und ca. 770MHz für die 5870 reichen... und am rande, für die GTX480 wären ca. 890MHz nötig! aber da dürfte es wohl eher am Speicher scheitern, obwohl die Fermi Architektur keine grossen bandbreiten für gute Leistung braucht.

Bis ca. 800MHz wären stock für NV sicher irgend wie möglich, mehr einfach durch werks OC oder manuelles OC...

Du kannst das leider nicht linear hochrechnen. Erstens gibt es noch immer einzelnen fps die CPU-Limitiert sind und außerdem wird man die Speicherbandbreite nicht so weit skalieren können. Eine 5870 ist ja auch nicht 30% schneller als eine 5850 obwohl sie das theoretisch sein müsste.

Gast
2010-07-29, 14:49:44
Eine 5870 ist ja auch nicht 30% schneller als eine 5850 obwohl sie das theoretisch sein müsste.
Cypress hat auch einen Rasterizer-Bottleneck, den es bei GF104 mit 2 GPCs nicht gibt.

Dural
2010-07-29, 14:55:08
die fermi architektur skaliert fast 1:1 mit mehr takt!

cpu limit??? wenn grafikkarte a theoretisch 20% schneller als karte b ist, wären die beiden karten bei einem cpu limit logischerweis näher zusammen oder sogar gleich schnell! mit anderen worten es wäre sogar weniger takt für einen gleichstand nötig... ;)

und welche cpu limite bei 1920x1200 4AA 16AF? ;)

bei der bandbreite ist noch viel luft nach oben, der speicher der GTX460 taktet ja auch nur mit 900MHz und die typischen GF100 probleme scheint es hier auch nicht mehr zu geben.

und schau dir doch nur mal die GTX470 vs GTX480 an...

LovesuckZ
2010-07-29, 15:25:20
Die GTS 450 hat ja dann nur noch 4 Polymorph-Engines und einen GPC, wenn ich das richtig verstehe. Damit liegt die Geometrieleistung nur noch marginal über der Radeon HD 5770.
Hier kann man die GTX 460 (7 SMs, 2 GPCs, 675 MHz) und die GTX 470 (14 SMs, 4 GPCs, 607 MHz) in der theoretischen Geometrieleistung vergleichen:
http://www.hardware.fr/articles/795-5/dossier-nvidia-geforce-gtx-460.html.
Bei "Adaptive Tessellation Ultra + DM" aus dem DX11-SDK bringt die GTX 460 1 GiB noch 63% der Framerate einer GTX 470. Die theoretische Geometrieleistung der GTX 460 1 GiB liegt bei 56% der GTX 470.
Die GTS 455 hat 58-67% der Geometrieleistung einer GTX 460, deshalb denke ich, dass die GTS 450 in diesem Benchmark noch rund 70-75% der Framerate einer GTX 460 liefert.
Die Radeon HD 5770 schafft hier 77% einer GTX 460. D.h. die Radeon HD 5770 könnte hier in einem sehr geometrielastigen Tessellations-Benchmark vor der GeForce GTS 450 liegen. Somit fällt der Vorteil "Tessellation" abseits von reinen Geometriedruchsatztests ohne Praxisrelevanz in der Mittelklasse wahrscheinlich flach.

Eine GF106 kann mit Tessellation 526 Dreiecke/Takt durchpumpen, bei Juniper sind es ca. 284 Dreiecke/Takt. Nein, Juniper wird nicht vor einer GF106 liegen, wenn ein "sehr geometrielastiger Tessellation-Benchmark" verwendet wird.

Dural
2010-07-29, 16:46:52
das ist doch eh nur Theoretisch für Benchmarks gut, Praktisch dürfte das in dieser Leistungs-Klasse egal sein...

LovesuckZ
2010-07-29, 16:50:23
das ist doch eh nur Theoretisch für Benchmarks gut, Praktisch dürfte das in dieser Leistungs-Klasse egal sein...

Eine GTX460 hat auch nur 50% mehr Rohleistung als die GTS450. In Stone Giant erreicht die GTX460 50 FPS und die 5870 ca. 35 fps. Eine GTS450 könnte also ca. 33 FPS mit Tessellation auf high erreichen und wäre somit auf Cypress Niveau.

Spasstiger
2010-07-30, 12:19:16
Eine GF106 kann mit Tessellation 526 Dreiecke/Takt durchpumpen, bei Juniper sind es ca. 284 Dreiecke/Takt.
Das muss der GF106 erstmal auf die Straße bringen. Bei praxisrelevanten Benchmarks mit Tessellation wird auch die Rechenleistung ausschlaggebend sein.

Nein, Juniper wird nicht vor einer GF106 liegen, wenn ein "sehr geometrielastiger Tessellation-Benchmark" verwendet wird.
Ich hab doch vorgerechnet, dass die Radeon HD 5770 in der Tessellations-Demo aus dem DX11-SDK vor einer GTS 450 liegen könnte (Adaptive Tessellation Ultra + Displacement Mapping). Ich kann mir vorstellen, dass die GTS 450 die erste fermi-basierende Karte wird, die sich auch in Tessellations-Benchmarks im Bereich der direkten Gegner bleibt (hier Radeon HD 5750 bis Radeon HD 5770).
Btw. eine Radeon HD 5770 hat ungefähr dieselbe Geometrieleistung wie eine Radeon HD 5870. Das Verhältnis von Geometrieleistung zu Rechenleistung ist bei der HD 5770 deutlich besser als bei der HD 5870.

Bucklew
2010-07-30, 12:30:58
Ich hab doch vorgerechnet, dass die Radeon HD 5770 in der Tessellations-Demo aus dem DX11-SDK vor einer GTS 450 liegen könnte (Adaptive Tessellation Ultra + Displacement Mapping). Ich kann mir vorstellen, dass die GTS 450 die erste fermi-basierende Karte wird, die sich auch in Tessellations-Benchmarks im Bereich der direkten Gegner bleibt (hier Radeon HD 5750 bis Radeon HD 5770).
Damit hast du zwar grundsätzlich Recht, ich denke allerdings nciht, dass irgendeine dieser Karten bei diesen Benchmarks auch nur annäherend in die Richtung von spielbaren Frameraten kommt. Technisch zwar korrekt, Praktisch allerdings egal.

Gipsel
2010-07-30, 14:18:07
Eine GF106 kann mit Tessellation 526 Dreiecke/Takt durchpumpen, bei Juniper sind es ca. 284 Dreiecke/Takt.
Das rechne mal vor ;)

Sicher meinst Du 526 MTri/s bzw. 284 MTri/s, oder?

AnarchX
2010-07-31, 13:19:02
http://img85.imageshack.us/img85/9950/05490593.jpg

http://we.pcinlife.com/thread-1479351-1-1.html

Dort im Thread meint man, dass es wohl nur 330mm2 wären.

edit:
Hier ist die ganze Geschichte: http://news.mydrivers.com/1/171/171023.htm

=Floi=
2010-07-31, 20:53:33
so langsam sind die 450er und 5770er auch wieder nicht. nebenbei ist man wieder ein einem halbierten chip und drittelt nicht mehr das highend.

ich bin gespannt, was noch aus dem GF100 wird. entweder die bringen das teil noch auf 900mhz oder begraben ihn. ein voller GF104 dürfte schon beeindruckend werden und zeigt wie viel in der architektur doch steckt, wenn auch der takt hoch ist.

Botcruscher
2010-07-31, 21:07:12
GF 100 wird für den Profimarkt benötigt, so schnell kann man den nicht verscharren.

master_blaster
2010-07-31, 22:42:23
ich bin gespannt, was noch aus dem GF100 wird. entweder die bringen das teil noch auf 900mhz oder begraben ihn. ein voller GF104 dürfte schon beeindruckend werden und zeigt wie viel in der architektur doch steckt, wenn auch der takt hoch ist.
Naja, bis jetzt hatten wir ja nichtmal 'n GF100 im Vollausbau. Mit Fertigungsoptimierungen kann man den Takt vllt. 20% steigern, dazu noch die abgeschalteten Hardwareeinheiten aktivieren und man hat schon einen potentiellen Gegner für SI.

Hugo
2010-08-01, 09:39:49
Naja, bis jetzt hatten wir ja nichtmal 'n GF100 im Vollausbau. Mit Fertigungsoptimierungen kann man den Takt vllt. 20% steigern, dazu noch die abgeschalteten Hardwareeinheiten aktivieren und man hat schon einen potentiellen Gegner für SI.

Die Leistung könnte man bei GF100 bestimmt mit mehr Takt und allen 512 CudaCores deutlich steigern um mit SI mitzuhalten. Die Frage ist nur was dadurch mit dem Stromverbrauch wird?
Ich glaube nicht, dass GF100b stromsparender wird?

Coda
2010-08-01, 17:28:31
Dort im Thread meint man, dass es wohl nur 330mm2 wären.
http://mental-asylum.de/files2/gf104measure2.jpg

http://mental-asylum.de/files2/gf104measure.jpg

Der PCIe-Connector ist 85mm lang:
http://www.interfacebus.com/PCIe_16x_Connector.gif

Alles zusammengerechnet komm ich so auf 364mm². Charlies 367mm² können also durchaus stimmen, wenn man die Ungenauigkeiten berücksichtigt.

Spasstiger
2010-08-01, 17:50:47
Wobei ich der Flächenbestimmung aus diesen Bildern maximal eine Genauigkeit von +/-5% zusprechen würde. Die Auflösung der Bilder ist begrenzt und die Rundungsfehler summieren sich. Irgendwo im Bereich von 345-380 mm² liegt die Fläche aber, 330 mm² sind zu wenig.

Coda
2010-08-01, 17:52:39
367mm² passt aber sehr gut dazu, deshalb glaub ich Charlie da einfach mal.

Ailuros
2010-08-03, 09:30:41
367mm² passt aber sehr gut dazu, deshalb glaub ich Charlie da einfach mal.

AMD sagte vor geraumer Zeit ca. 25*15; irgendwo zwischen 360 und 370mm2 duerfte der chip schon liegen, was aber sowieso egal sein sollte. Sowohl G92 und G92b waren groesser als RV670.

AnarchX
2010-08-03, 09:42:57
http://img638.imageshack.us/img638/8849/cetzy0igwjzwg.jpg

http://vga.zol.com.cn/189/1897979.html

Auf Basis des Frontal-Fotos und der PCB-Zeichnung, sind es wohl geschätzte 230-240mm².

Die KA-Makierung auf dem Die deutet eindeutig darauf hin, dass es wieder teildeaktiverte ROP-Partitionen gibt. Demensprechend sind wohl die 128-Bit für die GTS 450 korrekt. Das volle SI wird wohl bei der GTX 460M zum Einsatz kommen.

Tarkin
2010-08-03, 11:27:06
zum Vergleich... Juniper (RV840 aka Radeon 5770) ist nur 166mm^2 "groß"

Da liegen ja Welten dazwischen, Wahnsinn! Wenn 450er nur etwas so schnell werden sollte wie Juniper, dann bahnt sich der nächste Fehlschlag an... das Ding kann unmöglich konkurrenzfähig sein.

AnarchX
2010-08-03, 11:33:04
Mit dem 330mm² G92 war man es auch gegen einen 192mm² RV670, insofern dürfte der Unterschied nicht so tragisch sein.
Das größere Problem ist wohl hier eher, dass man 11 Monate später kommt.

Laut Text kommen wohl auf GF106-Basis noch eine GTS 445 und eine GTS 440, die dann wohl gegen den 100mm² Redwood positioniert werden könnten.

aylano
2010-08-03, 13:39:33
Mit dem 330mm² G92 war man es auch gegen einen 192mm² RV670, insofern dürfte der Unterschied nicht so tragisch sein.
Nicht so tragisch würde ich nicht sagen.
Schau dir mal Umsatz & Gewinn ab, wie der ab RV670 ordentlich und kontenuierlich zurückgeganen ist.

Und wenn man die gesamte RV6x0-Famlie betrachtet, ist RV6x0-Mobile erst im 2Q 2008 breitflächig verfügbar gewesen und führte bei Nvidia einen erheblichen Einbruch (-30%-Umsatz) im GPU-Markt.
AFAIK konnten die mobilen RV6x0er die Marktanteile im Mobilen Markt bis zur breitflächigen 4000er-Verfügung so um 10-15% steigern (25/30 bis 40% oder so).

Ganz vergleichen kann man es nicht, da hingegen zu G92 diesmal das Image momentan völlig anders bei AMD sowie Nvidia.


Laut Text kommen wohl auf GF106-Basis noch eine GTS 445 und eine GTS 440, die dann wohl gegen den 100mm² Redwood positioniert werden könnten.
Verstehe ich das richtig, es sollen immer noch keine vollständigen GPUs kommen?
Das wäre ja ziemlich heftig.

AnarchX
2010-08-03, 13:42:55
Verstehe ich das richtig, es sollen immer noch keine vollständigen GPUs kommen?
Das wäre ja ziemlich heftig.
Den vollen GF106 wird es als GTX 460M geben, vielleicht auch als GTS 455.

Gast
2010-08-03, 14:11:46
Auf Basis des Frontal-Fotos und der PCB-Zeichnung, sind es wohl geschätzte 230-240mm².
Also ungefähr auf G94 Niveau.

Ist doch ganz ordentlich, ich kann mich nicht erinnern, das die 9600 GT als Topmodell mit G94 ein finanzieller Fehlschlag gewesen ist oder nicht mit der Konkurrenz mithalten konnte.
Mit RV670 hat man gut mitgehalten und wir wissen immer noch, die Größe alleine sagt gar nichts.
Entscheidend sind auch andere Kostenfaktoren oder die Kapazität bei TSMC. Oder in welcher Liga man spielt.

Desti
2010-08-03, 17:02:14
Alles zusammengerechnet komm ich so auf 364mm². Charlies 367mm² können also durchaus stimmen, wenn man die Ungenauigkeiten berücksichtigt.


Wenn man die Perspektive des Fotos korrigiert kommt man auf etwa 370 mm².

http://planet64bit.de/NVIDIA_Geforce_GTX_460_GPU_naked

Coda
2010-08-03, 17:27:35
Ich hab die Perspektive bereits bei den Messungen berücksichtigt gehabt.

AnarchX
2010-08-04, 12:38:57
GT 425M:
http://img576.imageshack.us/img576/5570/166332d1280640283infogt.png
http://forum.notebookreview.com/hardware-components-aftermarket-upgrades/506312-nvidia-geforce-gt-425m-benchmark.html

Wohl GF108 mit nur einem aktiven SM (was GPU-Z ohne hinterlegte Daten als 1 aktive ROP erkennt), wozu auch die Leistung passt.

Spasstiger
2010-08-04, 13:11:26
Von der Leistung her wohl eine GT 330M mit DX11. Wird sicherlich eines der weiter verbreiteten Modelle werden bei Notebooks zwischen 500€ und 1000€.

Im Vollausbau hat der GF108 wohl 2 SMs, oder? Damit ließe sich ein Konkurrent zur Radeon HD 5670 aufstellen, wenn die Taktraten vernünftig ausfallen (800/1600/1000) und GDDR5-Speicher verwendet wird. Die HD 5670 erreicht ja grob 35-50% der Performance einer GTX 460 256 Bit.

Gast
2010-08-04, 18:09:39
Nachdem nun GF106 fast 240mm2 groß sein soll, dürfte wohl GF108 auch nicht gerade klein ausfallen.

Mit 96SPs + 128-Bit ist der Schritt zu GF108 von GF106 wohl ähnlich wie der von GF104 zu GF106, jedoch bleibt die Zahl der GPC gleich.
Wenn da NV nicht noch andere Reduzierungen vorgenommen hat: weniger Cache oder 4 statt 8 ROPs pro Partition, dürfte man wohl fast bei 150mm2 landen.

Gast
2010-08-05, 08:17:33
Von der Leistung her wohl eine GT 330M mit DX11.


Oder auch nicht....WAS ZUR HÖLLE.....(war zumindest mein erster Gedanke, sorry for being rude):

http://www.semiaccurate.com/2010/08/03/nvidia-gt-425m-tips-listings/

das erste Bild ist da am wichtigsten.

Bucklew
2010-08-05, 08:25:56
Also hier steht bezüglich 425M was leicht anderes:
http://www.notebookcheck.net/NVIDIA-Geforce-GT-425M.34152.0.html

Gast
2010-08-05, 09:21:52
"Beware, the following information is partly based on leaks and rumors!"

Die "eine" ROP in GPU-Z ist da eher ein Anhaltspunkt und auch das Ergebnis deutet auf 48SPs hin, immerhin wurde hier nur mit 1366x768 gestetet, mit 1280x1024 wäre das Ergebnis wohl nochmal ~20% niedriger.

96SPs wird es wohl eher als GT 43xM geben. Vielleicht kommt auch noch eine 48SPs + 64-Bit Version für Low-End.
Die GTS 400M wird man wohl mit teildeaktiverten GF106 besetzen, der volle GF106 erscheint als GTX 460M. GF104 wohl als GTX 470M und später als GTX 485M.

AnarchX
2010-08-05, 16:53:06
GF108:
http://img225.imageshack.us/img225/4554/1zdp3xx.jpg
http://www.xtremesystems.org/forums/showpost.php?p=4498865&postcount=19
~130mm².

Nightspider
2010-08-05, 17:51:53
Wenn ich das Bild so sehe kommt mir eine Frage auf, dir mir mit Sicherheit keiner genau beantworten kann, höchstens schätzen.

Der Nvidia Chip ist von der Fläche ja ähnlich groß wie einer der VRAM Chips.

Wie ist denn geschätzt das Preis/Fläche Verhältnis bei VRAM im Gegensatz zur GPU?

GPU hat ja sicher mehr Layer etc. und ist komplexer (daher auch mind. eine Fertigungsstufe über den VRAM Chips) aber am meisten macht ja noch die Fläche, die auf dem Wafer verbraucht wird, den Preis aus oder doch das Dotieren/Bedampfen/Beschichten/Lasern der Layer?

Gast
2010-08-05, 18:06:04
Ein Speicherchip besteht noch aus einem entsprechend großen Gehäuse für Pin-Out und Wärmeabgabe.

Coda
2010-08-05, 18:12:50
Eben, das tatsächliche Speicher-Die wird wohl 1/4 der Fläche der GPU haben.

Gast
2010-08-05, 18:16:45
Wenn ich das Bild so sehe kommt mir eine Frage auf, dir mir mit Sicherheit keiner genau beantworten kann, höchstens schätzen.

Der Nvidia Chip ist von der Fläche ja ähnlich groß wie einer der VRAM Chips.

Wie ist denn geschätzt das Preis/Fläche Verhältnis bei VRAM im Gegensatz zur GPU?

GPU hat ja sicher mehr Layer etc. und ist komplexer (daher auch mind. eine Fertigungsstufe über den VRAM Chips) aber am meisten macht ja noch die Fläche, die auf dem Wafer verbraucht wird, den Preis aus oder doch das Dotieren/Bedampfen/Beschichten/Lasern der Layer?

Speicher ist um ein Vielfaches kleiner als das was wir sehen. Wie willst du sonst die ganzen Anschluß PINs unterbringen :)

Nightspider
2010-08-05, 18:20:28
Stimmt schon, daran habe ich gerade nicht gedacht. Danke.

Leider findet man kaum Bilder von aktuellen Chips, ob Flash, GPU, CPU oder Ram Chips vor dem Kunststoff-Guss mit Bonding Drähten.

Hat jemand Bilder oder weiß wo es welche gibt?

Gipsel
2010-08-05, 19:26:11
Stimmt schon, daran habe ich gerade nicht gedacht. Danke.

Leider findet man kaum Bilder von aktuellen Chips, ob Flash, GPU, CPU oder Ram Chips vor dem Kunststoff-Guss mit Bonding Drähten.

Hat jemand Bilder oder weiß wo es welche gibt?
Du kannst Dir ja einen alten DDR1 TwinMOS Twister Riegel besorgen. Die haben damals die Dies direkt im FlipChip-Verfahren auf den Träger gelötet und die ganze Verpackung einfach weggelassen (die sollte man nicht ohne Heat-Spreader betreiben). Aber sehen wirst Du da auch nicht viel. Sieht genauso aus wie jeder andere Die von der Rückseite. Ist ja auch nur pures Silizium, die Strukturen sind sowieso auf der anderen Seite, die zudem im Zweifelsfall von ein paar Metal-Layern praktisch unkenntlich gemacht sind (für die Die-Photos werden keine vollständig prozessierten Wafer genommen).

AnarchX
2010-08-06, 09:08:49
GTS 450 Vantage:
http://img718.imageshack.us/img718/5289/cegvxairfy5a.jpg

http://img217.imageshack.us/img217/9080/cevzks9sjecjo.jpg

http://vga.zol.com.cn/190/1903529.html

Der GPU-Score liegt wohl knapp unter dem einer HD 5770.

Geht man davon aus, dass Vantage den GeForce 400 im Vergleich zu HD 5000 generell nicht so liegt, könnte die GTS 450 im Gesamt-Rating doch knapp über der HD 5770 landen.

Gast
2010-08-07, 19:38:53
Wobei mMn der Juniper im Vergleich zum Cypress schon der sexiere Chip ist, da nicht so oft durch irgendwas limitiert, dabei aber sehr sparsam. Und DP braucht eh kaum jemand im Endkundenbereich.

Gegen das „gefühlte Gesamtpaket” wird's Nvidia mMn schwer haben.

-carsten

AHF
2010-08-07, 20:27:29
Warten wir die Verbrauchswerte ab.

AnarchX
2010-08-07, 20:54:05
Genau, da gab es vor kurzen 85W als Spekulation und auf einer alten Roadmap 75W: http://www.3dcenter.org/artikel/neue-informationen-zu-nvidias-gf104-gf106-und-gf108
... was deutlich weniger als die >100W der 5770 wären.

Im Endeffekt wird AMD ihr Gesamtpaket wohl mit einer Preissenkung aufwerten, ~100€ für eine 5770 1G werden wohl kein Problem sein.

Gast
2010-08-07, 20:57:46
Genau, da gab es vor kurzen 85W als Spekulation und auf einer alten Roadmap 75W: http://www.3dcenter.org/artikel/neue-informationen-zu-nvidias-gf104-gf106-und-gf108
... was deutlich weniger als die >100W der 5770 wären.

Im Endeffekt wird AMD ihr Gesamtpaket wohl mit einer Preissenkung aufwerten, ~100€ für eine 5770 1G werden wohl kein Problem sein.

Halte ich für unrealistisch wenn man sich die anderen Fermi-Chips ansieht. Woher soll die tolle Perf/Watt denn auf einmal kommen? Noch dazu wo Juniper noch mal eine Schnippe drauf legt gegenüber Cypress.

AHF
2010-08-07, 21:28:35
Selbst knapp unter 100 W wäre noch sehr gut.

Iruwen
2010-08-07, 21:59:20
Halte ich für unrealistisch wenn man sich die anderen Fermi-Chips ansieht. Woher soll die tolle Perf/Watt denn auf einmal kommen? Noch dazu wo Juniper noch mal eine Schnippe drauf legt gegenüber Cypress.
GF100 weit drüber, GF104 gleichauf, die kleineren drunter - passt doch :biggrin:

Gast
2010-08-07, 22:12:31
GF100 weit drüber, GF104 gleichauf, die kleineren drunter - passt doch :biggrin:

GF104 ist nicht gleich auf, es sei denn du vergleichst ausgerechnet mit der ineffizienten 5830. Die 5850 ist schneller und sparsamer.

Dural
2010-08-08, 01:10:04
GF104 ist nicht gleich auf, es sei denn du vergleichst ausgerechnet mit der ineffizienten 5830. Die 5850 ist schneller und sparsamer.

der verbrauch zwischen GTX460 und 5850 ist nahezu gleich! RV870 und GF104 nehmen sich da nicht viel, sind ja etwa auch gleich gross!

Man müsste aber auch ehner zwei volle GPUs miteinander vergleichen, da es dies vom GF104 noch nicht gibt heist es abwarten.

Gast
2010-08-08, 09:16:10
Verbrauch != Energieeffizienz

Eine HD5850 ist bei gleichem Verbrauch noch einen Tick leistungsfähiger. Allerdings muss man sagen, dass Leistung auch nicht gleich Leistung ist, die Radeon filtert beispielsweise anders.

So oder so, die HD5850 bleibt die etwas energieeffizientere Karte, aber mit GF104 hat Nvidia eine deutliche Kehrtwende eingeläutet und "the trend is your friend".

ShinyMcShine
2010-08-12, 09:35:19
Wurde das schon gepostet (Daten der GTS 450)?

LINK (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/geforce_gts_450_anzahl_shader/)

VG
Shiny

Dural
2010-08-12, 09:57:31
http://www.brightsideofnews.com/news/2010/8/9/nvidia-fermi-geforce-die-sizes-exposed.aspx

GF100 529.17mm2 vs nix / oder Hemlock 674mm2 (2x 337mm2)

GF104 331.54mm2 vs 337mm2 RV870

GF106 238.60mm2 vs 166mm2 RV840 ?!? (Passt nicht ins schema, GF106 müsste rein von der DIE grösse her schneller sein! vileicht doch 240SP)

GF108 126.51mm2 vs 104mm2 RV830

Gast
2010-08-12, 10:02:32
Die 331mm2 für GF104 stimmen ganz bestimmt nicht oder sind ein Wert, der nicht mit den anderen hier gegebenen vergleichbar ist, nämlich ohne die 0,5mm Randmantel.

Dural
2010-08-12, 10:04:06
der stimmt sicher, die chinesen die nach gemessen haben sagen ja auch 330mm2

und ich glaube lieber solche werte als irgend welche FOTOs DIE Vergleichs Messungen lol...

Gipsel
2010-08-12, 10:07:26
der stimmt sicher, die chinesen die nach gemessen haben sagen ja auch 330mm2

und ich glaube lieber solche werte als irgend welche FOTOs DIE Vergleichs Messungen lol...
Die ~330mm² (13,7 x 24,2) von BullShitNews (die vorgetäuschte Präzision durch die Angabe von 331,54mm² ist schon hart :rolleyes:) kommen direkt aus dem Photo-Vergleich bei PCinlife (http://we.pcinlife.com/thread-1479351-1-1.html), der nicht nur hier im Forum schon längst als definitv falsch entlarvt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8182255#post8182255) wurde. Alle halbwegs vertrauenswürdigen Angaben kommen irgendwo bei 365mm² an.

Gast
2010-08-12, 10:08:43
der stimmt sicher, die chinesen die nach gemessen haben sagen ja auch 330mm2

Das war auch nur ein Vergleich auf Basis des Fotos.
Coda hat es genauer gemacht: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8182255#post8182255

Wenn dann ist der GF104-Wert von BSN direkt vom Wafer gemessen und nicht vom Chip auf dem Package.

Dural
2010-08-12, 10:13:38
halle der hat die Die vor seinen augen:

http://we.pcinlife.com/thread-1479351-1-1.html

Gipsel
2010-08-12, 11:06:00
halle der hat die Die vor seinen augen:

http://we.pcinlife.com/thread-1479351-1-1.html
Was soll uns das jetzt sagen? Genau den Thread habe ich oben auch verlinkt, da hat BSNews seine Zahlen her. Hier und bei B3D wurden die wie gesagt als falsch erkannt. Sogar dort im Thread schreibt einer von ~360mm², ein zweiter (slr) von 368mm² :rolleyes:

Gast
2010-08-13, 14:05:11
Wo wäre denn ein voller GF104 mitunter einzuordnen von der Leistung her ? Zwischen einer GTX 470 und einer GTX 480 ?

Henroldus
2010-08-13, 15:01:48
Wo wäre denn ein voller GF104 mitunter einzuordnen von der Leistung her ? Zwischen einer GTX 470 und einer GTX 480 ?
depends on Taktrate ;)
eine GTX 460@800MHz kratzt ja jetzt schon an der GTX470

Gast
2010-08-26, 16:51:02
Heise hat die finalen Specs zum GTS 450 heute Mittag gepostet...

http://www.heise.de/newsticker/meldung/GeForce-GTS-450-kommt-am-13-September-1067321.html

AnarchX
2010-08-26, 18:21:27
Der Bandbreiten-Nachteil gegenüber der 5770 ist ja ziemlich deutlich. Die $129 MRSRP deuten wohl auch darauf hin, dass der Leistungsvorteil nicht bzw. nur sehr gering vorhanden ist. Mit 106W TDP dürfe man bei vergleichbarem Verbrauch liegen.
Vielleicht hat GF106 wenigsten ein OC-Potential für >900MHz Core und >1GHz Speicher...

Gast
2010-08-26, 18:52:00
Der Bandbreiten-Nachteil gegenüber der 5770 ist ja ziemlich deutlich. Die $129 MRSRP deuten wohl auch darauf hin, dass der Leistungsvorteil nicht bzw. nur sehr gering vorhanden ist. Mit 106W TDP dürfe man bei vergleichbarem Verbrauch liegen.
Vielleicht hat GF106 wenigsten ein OC-Potential für >900MHz Core und >1GHz Speicher...

Leistungsvorteil? Heise schreibt doch sie langsamer ist. Bei einem Preis von $129 ist die Karte wohl klar gegen die 5750 gerichtet mit demselben Preis. Die 5770 liegt bei $159, leider liegt die TDP auch bei der 5770. OC-Potential würde ich auch nicht viel erwarten bei dem ohnehin schon hohen Takt.

Ailuros
2010-08-27, 12:01:10
Was soll uns das jetzt sagen? Genau den Thread habe ich oben auch verlinkt, da hat BSNews seine Zahlen her. Hier und bei B3D wurden die wie gesagt als falsch erkannt. Sogar dort im Thread schreibt einer von ~360mm², ein zweiter (slr) von 368mm² :rolleyes:

Deiner Unterschrift nochmal zu folge, twitscherte mir jemand von AMD im Oktober 2009 zu dass sie von 104 einen ca. 25*15mm die erwarten. Zuerst dachte ich es ist ein alberner Scherz denn ein so rechteckiger die machte mir damals keinen Sinn.

Wie dem auch sei, ist es ziemlich wurscht ob der 104 die jetzt 330 oder irgendwo um die 360 qmm ist. Was ich persoenlich wissen moechte ist WARUM der die ueberhaupt so rechteckig ist, da ich auch erst vor kurzer Zeit herausgefunden habe dass sie weder mehr noch weniger dies vom wafer bekommen als ob der die "quadratischer" gewesen waere.

Gaestle
2010-08-27, 12:13:12
Was ich persoenlich wissen moechte ist WARUM der die ueberhaupt so rechteckig ist, da ich auch erst vor kurzer Zeit herausgefunden habe dass sie weder mehr noch weniger dies vom wafer bekommen als ob der die "quadratischer" gewesen waere.

Wie wichtig könnte die Möglichkeit sein, zwei Dies auf einen Tray unter einen Heatspreader und unter einen Kühlkörper zu bringen?

Ailuros
2010-08-27, 12:33:14
Wie wichtig könnte die Möglichkeit sein, zwei Dies auf einen Tray unter einen Heatspreader und unter einen Kühlkörper zu bringen?

Kein schlechter Gedanke, aber ich bezweifle dass die Kuehlungs-hersteller sich beschwert haben damit NV die die-Flaeche anpasst. Sie bekommen sowieso Monate vor dem release genaue PCB Spezifikationen damit sie ihre Dinger entwicklen koennen.

Gaestle
2010-08-27, 14:24:22
Das meinte ich nicht, ich meinte, dass zwei rechteckige Dies nebeneinander zusammen möglicherweise eine günstigere Oberfläche (im Sinne von besser zu kühlen) geben, als zwei quadatische Dies nebeneinander.

http://img831.imageshack.us/img831/9996/check.gif

Ailuros
2010-08-27, 15:02:27
Das Bild hilft aber nicht gerade einen moeglichen Vorteil zu zeigen LOL. Rein theoretische Zahlen waeren 19.x * 19.x vs. 24.x * 14.x.

http://www.guru3d.com/article/geforce-gtx-295-single-pcb-review/2

http://www.guru3d.com/imageview.php?image=18766

Hier hast Du eine nackte single PCB GTX295; vergiss nicht dass die GT200 bei ungefaehr 583mm2 lagen und im Vergleich zum GF104 ein Riesen-chip ist. Je groesser der Abstand zwischen den chips, desto besser fuer Sachen wie Abwaerme.

Im gegebenen Fall oben gewinnt NV (egal wie die chips angelegt werden koennten) im Vergleich zu quadratischeren dies etwas um die 5mm2. Ob jetzt dieser Gewinn etwas fuer ein kleineres PCB (egal ob Breite oder Hoehe) und noch weiter eine kleinere Kuehlungsloesung wirklich einen nenneswerten Unterschied machen koennte weiss ich nicht. Es bleibt aber nach wie vor eine interessante Idee.

Coda
2010-08-27, 15:03:01
Das erschließt sich mir nicht. Für den Kühler ist eigentlich nur die Oberfläche relevant, oder was meinst du?

Ailuros
2010-08-27, 15:04:55
Das erschließt sich mir nicht. Für den Kühler ist eigentlich nur die Oberfläche relevant, oder was meinst du?

Noch bloedere Idee: kann es irgend etwas mit dem Abstand zwischen den chips und den Speichermodulen zu tun haben? (aber bitte nicht hauen; ist ne ehrliche Frage).

Coda
2010-08-27, 15:05:58
Ich glaub einfach es hat gar nichts damit zu tun und GF104 ist einfach aus Chip-Layout-Gründen so rechteckig.

Ailuros
2010-08-27, 15:17:56
Ich glaub einfach es hat gar nichts damit zu tun und GF104 ist einfach aus Chip-Layout-Gründen so rechteckig.

Das waere die einfachste Theorie.

Thesen zum Rechteck:

1. Um Abwaerme bzw. Stromverbrauch besser zu kontrollieren. Nur kann ich mir nicht vorstellen warum.

2. Charlie und auch zufaelligerweise AMD blubbern von einem einfachen copy/paste job zwischen GF100 und GF104. Nur warte ich immer noch auf eine Antwort wieso zufaelligerweise (u.a.) GF104 3*16 und nicht 2*16 (plus anderem scheduler im ersten) hat und auch 8 anstatt 4 TMUs pro SM.

Oder noch besser keiner der GF100 Seite ist ~25mm, damit man eine noch bloedere These auf die Beine stellen koennte dass sie den GF100 einfach durchgeschnitten haben... :biggrin:

Coda
2010-08-27, 15:18:35
Copy-Paste passt aber nicht weil sie sowieso extrem viel an den SMs geändert haben.

Die Shots or it didn't happen.

Gast
2010-08-27, 15:34:54
Vielleicht sitzt an einer einer der 25mm Seiten ein fetter Highspeed-Interconnect? ;D

Hugo
2010-08-27, 15:44:00
vielleicht will NV wirklich 2 Die's unter einem Heatspreader platzieren?
War der Erste Pentium-D nicht auch so aufgebaut?

von der Ausbeute ist es auch besser wenn einer defekt ist kann man immer noch den anderen als Singlechip verkaufen.
Ist vielleicht ein neues denken um einen "großen" Single-Highendchip aus zwei nebeneinanderliegenden zu produzieren.

oder bin ich auf'm Holzweg??

Gast
2010-08-27, 15:57:15
dumme idee (sehr wahrscheinlich falsch):

MCM - Modul für 2 GF104. Da könnte das rechteckige Die was bringen.

+ kein AFR mehr (wie hier mal geblubbert wurde)

Hugo78
2010-08-27, 19:29:03
Nur warte ich immer noch auf eine Antwort wieso zufaelligerweise (u.a.) GF104 3*16 und nicht 2*16 (plus anderem scheduler im ersten) hat und auch 8 anstatt 4 TMUs pro SM.

Soll das ne rhetorische Frage sein?!

Wenn nicht, frag dich einfach wie "toll" die Pixelleistung noch wäre mit nur noch 40 TMUs, wenn wir annehmen das die 460 nochmal 32 SMs weniger hätte als die 465.

Gast
2010-08-28, 10:22:05
NVIDIA_DEV.0DC0.01 = "NVIDIA GeForce GT 440"
NVIDIA_DEV.0DC1.01 = "NVIDIA D12-P1-35"
NVIDIA_DEV.0DC4.01 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DC5.01 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DD1.01 = "NVIDIA GeForce GTX 460M"
NVIDIA_DEV.0DD2.01 = "NVIDIA GeForce GT 445M"
NVIDIA_DEV.0DD3.01 = "NVIDIA GeForce GT 435M"
NVIDIA_DEV.0DD8.01 = "NVIDIA Quadro 2000"
NVIDIA_DEV.0DDF.01 = "NVIDIA GF106-INT"
NVIDIA_DEV.0DE1.01 = "NVIDIA GeForce GT 430"
NVIDIA_DEV.0DE2.01 = "NVIDIA GeForce GT 420"
NVIDIA_DEV.0DEE.01 = "NVIDIA GeForce GT 415M"
NVIDIA_DEV.0DF0.01 = "NVIDIA GeForce GT 425M"
NVIDIA_DEV.0DF1.01 = "NVIDIA GeForce GT 420M"
NVIDIA_DEV.0DF2.01 = "NVIDIA GeForce GT 435M"
NVIDIA_DEV.0DF3.01 = "NVIDIA GeForce GT 420M"
NVIDIA_DEV.0DF8.01 = "NVIDIA Quadro 600"
NVIDIA_DEV.0DFF.01 = "NVIDIA GF108 INT"
NVIDIA_DEV.0E21.01 = "NVIDIA D12U-25"
NVIDIA_DEV.0E22.01 = "NVIDIA GeForce GTX 460"
NVIDIA_DEV.0E23.01 = "NVIDIA GeForce GTS 455"
NVIDIA_DEV.0E24.01 = "NVIDIA GeForce GTX 460"
NVIDIA_DEV.0E30.01 = "NVIDIA GeForce GTX 470M"


Zur 445M gab es schon einen Test: http://nb.zol.com.cn/193/1930934.html
GF106 mit 144SPs und GDDR5

LovesuckZ
2010-08-28, 16:09:15
Hier gib's Bilder der GTS450:
http://www.xtremesystems.org/forums/showpost.php?p=4528286&postcount=35

Sieht nach dem GTX460 Kühler aus. Damit sollte die Karte wohl unhörbar sein.

Coda
2010-08-28, 16:42:46
Viel interessanter ist doch, dass es scheinbar auch eine 128-Bit-SI-Version gibt.

Also wohl 768 oder 512 MiB.

Gast
2010-08-28, 16:45:03
Aber kein Hinweis auf eine GTX475/GTX485 oder GTX490. Offensichtlich scheint sich NV erst einmal um den Mainstream,LowEnd und Mobile Bereich zu kümmern, da haben sie ja auch gewaltigen Nachholbedarf.

Hugo78
2010-08-28, 16:52:08
Hier gib's Bilder der GTS450:
http://www.xtremesystems.org/forums/showpost.php?p=4528286&postcount=35

Sieht nach dem GTX460 Kühler aus. Damit sollte die Karte wohl unhörbar sein.

Na ja, an den Heatpipes wird hier gespart, auf der anderen Seite liegt die TDP weit unter 150W, so what.
Das sollte für eine leise Karte reichen.

Viel interessanter ist doch, dass es scheinbar auch eine 128-Bit-SI-Version gibt.

Also wohl 768 oder 512 MiB.

Die 512er dürfe wohl eher ne 1GB werden.
Ich kann mir nicht vorstellen, dass man heute noch ne 512mb Version als GTS verkaufen wird.

Coda
2010-08-28, 16:56:09
Wohl kaum, dann würde die Karte mit größeren SI weniger Speicher haben. So fucked up ist nichtmal NVIDIA.

Gast
2010-08-28, 16:58:45
Viel interessanter ist doch, dass es scheinbar auch eine 128-Bit-SI-Version gibt.


Auch? NUR!

Gast
2010-08-28, 17:00:38
Wohl kaum, dann würde die Karte mit größeren SI weniger Speicher haben. So fucked up ist nichtmal NVIDIA.

Specs siehe hier:
http://www.heise.de/newsticker/meldung/GeForce-GTS-450-kommt-am-13-September-1067321.html

Gast
2010-08-28, 17:20:17
Hier gib's Bilder der GTS450:
http://www.xtremesystems.org/forums/showpost.php?p=4528286&postcount=35

Ob das wohl schon vier 2048MBit Module sind? Alternativ ist die Karte rückseitig bestückt oder nur eine 512MiB Version.

Die 192-Bit wird es wohl nur für die mobile Version geben.

Die GTS 455 scheint laut Treiber-Inf eine GF104 SKU zu sein:
NVIDIA_DEV.0E22.01 = "NVIDIA GeForce GTX 460"
NVIDIA_DEV.0E23.01 = "NVIDIA GeForce GTS 455"
NVIDIA_DEV.0E24.01 = "NVIDIA GeForce GTX 460"

Und diese SKU könnte wohl der volle GF104 sein:
NVIDIA_DEV.0E21.01 = "NVIDIA D12U-25"

Coda
2010-08-28, 17:27:41
Specs siehe hier:
http://www.heise.de/newsticker/meldung/GeForce-GTS-450-kommt-am-13-September-1067321.html
Da ist aber keine Rede von einer 192-Bit-SI-Karte.

Gut, wenn die 128er 1GiB hat, dann werden die 192er wohl 1,5GiB erhalten.

Gast
2010-08-28, 17:30:47
Da ist aber keine Rede von einer 192-Bit-SI-Karte.

Gut, wenn die 128er 1GiB hat, dann werden die 192er wohl 1,5GiB erhalten.

ES GIBT KEINE 192BIT KARTE!!!!!!!

Gast
2010-08-28, 17:38:47
ES GIBT KEINE 192BIT KARTE!!!!!!!
Es gibt ein 1,5GiB 192-Bit MXM-Modul - GTX 460M. ;)

Gast
2010-08-28, 17:38:58
Da ist aber keine Rede von einer 192-Bit-SI-Karte.

Gut, wenn die 128er 1GiB hat, dann werden die 192er wohl 1,5GiB erhalten.

Wie kommst du darauf das der Chip mehr als ein 128-bit SI hat? Es gibt nicht den geringsten Beweis dafür.

Gast
2010-08-28, 17:39:37
Es gibt ein 1,5GiB 192-Bit MXM-Modul - GTX 460M. ;)

Basierend auf GF104.

dildo4u
2010-08-28, 17:40:39
Basierend auf GF104.
Nö.
http://www.notebookcheck.com/NVIDIA-GeForce-GTX-460M.33610.0.html

Gast
2010-08-28, 17:44:10
Nö.
http://www.notebookcheck.com/NVIDIA-GeForce-GTX-460M.33610.0.html

Toller Beweis. LOL. Die verweisen dann direkt auf 3DCenter als Quelle und Leo hat sich die Daten von einer chinesische Seite geholt. Wie vertrauenerweckend. Die aktuellen Treibereinträge sprechen klar gegen 192bit auf Gf104 basierend.

Gast
2010-08-28, 17:45:08
Toller Beweis. LOL. Die verweisen dann direkt auf 3DCenter als Quelle und Leo hat sich die Daten von einer chinesische Seite geholt. Wie vertrauenerweckend. Die aktuellen Treibereinträge sprechen klar gegen 192bit auf Gf104 basierend.

Sollte natürlich GF106 basierend heißen.

Gast
2010-08-28, 17:45:11
Nö.
http://www.notebookcheck.com/NVIDIA-GeForce-GTX-460M.33610.0.html
Hier sieht man es auch:

NVIDIA_DEV.0DC4.01 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DC5.01 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DD1.01 = "NVIDIA GeForce GTX 460M"
NVIDIA_DEV.0DD2.01 = "NVIDIA GeForce GT 445M"
NVIDIA_DEV.0DD3.01 = "NVIDIA GeForce GT 435M"

Dural
2010-08-28, 22:36:43
ES GIBT KEINE 192BIT KARTE!!!!!!!

wie so hat den das PCB der GTS450 192Bit ;)

es ist zu offensichtlich das der GF106 192Bit hat...

Leonidas
2010-08-29, 14:13:05
Denke ich auch. Es ist total klar, daß der GF104 192Bit hat, das PCB beweist es. Ich vermute sogar, das Standard-PCB der GTS450 wird auf 192Bit vorbereitet sein, da NV somit für zwei Karten dasselbe PCB verwenden kann.

LovesuckZ
2010-08-29, 18:02:44
Bilder und Link zu Youtube zu einer GTS450 von Asus: http://www.xtremesystems.org/forums/showpost.php?p=4529905&postcount=55

Soll wohl auch mit 925Mhz angeboten werden, was ca. 18% Mehrtakt ist...

Gast
2010-08-29, 18:07:00
Bilder und Link zu Youtube zu einer GTS450 von Asus: http://www.xtremesystems.org/forums/showpost.php?p=4529905&postcount=55

Soll wohl auch mit 925Mhz angeboten werden, was ca. 18% Mehrtakt ist...

Das Problem ist das die Dinger Mitte September niemanden mehr vorm Ofen hervor locken, wo Juniper schon fast ein Jahr auf dem Markt ist und der Nachfolger vor der Tür steht. Von GF108 weiß man noch immer nichts genaueres, wird wohl Oktober. NV muss dringend etwas machen um ihre Chips früher auf den Markt zu bekommen.

Gast
2010-08-29, 18:11:06
Besteht eigentlich die Chance das NV auch mal wieder eine Karte bringt ohne Chip bei dem man die Hälfte der Einheiten deaktivieren muss? :ugly:

Wenn die GTS450 jetzt wieder nur mit 128bit statt 192bit kommt wäre das schon eine Enttäuschung. Von einem vollen GF104 oder GF100 fehlt auch weiterhin jede Spur. Schön langsam glaube ich wirklich das es da ein größeres Problem gibt.

LovesuckZ
2010-08-29, 18:12:11
Es wird von AMD keinen GF106 Konkurrenten als 6xxx geben. GF106 soll für $129 angeboten werden, was etwas 100€ entspricht. Dort wird AMD wohl Juniper weiterverkaufen.

Gast
2010-08-29, 18:14:04
Es wird von AMD keinen GF106 Konkurrenten als 6xxx geben. GF106 soll für $129 angeboten werden, was etwas 100€ entspricht. Dort wird AMD wohl Juniper weiterverkaufen.

Natürlich. Die vier neue Chips sind durch den Treiber schon bestätigt.

LovesuckZ
2010-08-29, 18:16:32
Ist bei nVidia nicht anders. Und trotzdem werden wir GF108 nicht im September sehen.
Und wenn die kleinen Chips bei AMD schon fertig wären, hätten wie längst Leaks gesehen, da dieses schon längst bei den OEM sein müssten. So wie es bei GF106 und GF108 auf der Computex war oder bei den GT216/8 Karten.

MadManniMan
2010-08-30, 11:36:01
GTS 450 mit ersten Listungen (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/erste-geforce-gts-450-im-handel-gesichtet/)

Dural
2010-08-30, 18:03:34
mittlerweilen ist es ja zu offensichtlich das NV bewusst nicht alle einheiten freischaltet... das war beim GF100 sicher noch nicht der fall, aber auf jeden fall bei den GF104 / GF106 / GF108 chips!

wie so ist ja logisch, gegen die 5xxx serie braucht es nicht mehr leistung dafür kann NV jederzeit neue Karten mit ca. 20% mehr leistung als 5xx serie nachschiben ;)

und ich wette ja schon fast das der GF106 240SP hat!

Coda
2010-08-30, 18:06:26
Bestimmt nicht. Ein GPC hat nunmal vier SMs.

Dural
2010-08-30, 18:09:40
jetzt wo du es sagst... :rolleyes:

hmm die DIE ist aber im vergleich zum GF104/GF108 zu gross für nur 192SP und GF108 muss ja nur zwei cluster haben mit den 96SP...

Coda
2010-08-30, 18:13:06
Dann hängt man halt zwei SMs in einen GPC. Fünf ist einfach zu ungerade. Die kleinen Chips sind relativ immer groß, weil bestimmte Dinge nicht weggelassen werden können (Videoprozessor, Speicherinterface, etc.).

"Die" ist immer noch keine Abkürzung

Gast
2010-08-30, 18:45:08
Warum wartet NV mit den vollaktivierten Chips auf AMD? Wenn die Karten jetzt verfügbar wären, würden sehr viele schon jetzt kaufen, die nicht bis November warten wollen. Meiner Meinung nach unterläuft NV hier ein Denkfehler.

Gast
2010-08-30, 18:48:36
Warum wartet NV mit den vollaktivierten Chips auf AMD? Wenn die Karten jetzt verfügbar wären, würden sehr viele schon jetzt kaufen, die nicht bis November warten wollen. Meiner Meinung nach unterläuft NV hier ein Denkfehler.

Das macht NV ja nicht deswegen, Dural unser NV-Fanboy träumt sich da halt wieder mal was zusammen. NV hat mit sehr hoher Wahrscheinlichkeit ein gewaltiges Yieldproblem mit ihrem Design. Es gibt bis dato noch immer keinen vollwertigen Chip. Und GF106 kommt auch teildeaktiviert.

san.salvador
2010-08-30, 18:50:50
GF104 ist seit Release in großen zahlen verfügbar. Ich kann mir nicht vorstellen, dass da nicht der eine oder andere volle Chip rausfällt.

Gast
2010-08-30, 18:54:20
GF104 ist seit Release in großen zahlen verfügbar. Ich kann mir nicht vorstellen, dass da nicht der eine oder andere volle Chip rausfällt.

Offensichtlich zu wenig. Und da selbst GF106 teildeaktiviert kommt glaube ich wirklich nicht mehr an einem Zufall.

san.salvador
2010-08-30, 18:56:40
Offensichtlich zu wenig. Und da selbst GF106 teildeaktiviert kommt glaube ich wirklich nicht mehr an einem Zufall.
Wieso zu wenig? Wozu sollte nV jetzt den Vollausbau bringen? Damit überhaupt niemand mehr die 470 kauft?
Die werden warten, bis sich 465 und 470 verabschiedet haben und dann den Vollausbau bringen. Derweil macht man mit der 460 mächtig Boden gut.

Coda
2010-08-30, 18:58:47
Offensichtlich zu wenig. Und da selbst GF106 teildeaktiviert kommt glaube ich wirklich nicht mehr an einem Zufall.
Was ist an GF106 denn teildeaktiviert?

Gast
2010-08-30, 18:59:59
Wieso zu wenig? Wozu sollte nV jetzt den Vollausbau bringen? Damit überhaupt niemand mehr die 470 kauft?
Die werden warten, bis sich 465 und 470 verabschiedet haben und dann den Vollausbau bringen. Derweil macht man mit der 460 mächtig Boden gut.

Nach der Logik hätte man auch keine GTX460 bringen dürfen, denn die macht die GTX465 auch überflüssig. Und die GTS450 ist bestimmt auch nicht ohne Grund teildeaktiviert. Auch das es keinen vollen GF100 gibt kann nur einen Grund haben.

LovesuckZ
2010-08-30, 19:01:00
Was ist an GF106 denn teildeaktiviert?

Garnichts, da die 192bit Versionen wohl in die Notebooks gehen.

Gast
2010-08-30, 19:01:01
Was ist an GF106 denn teildeaktiviert?

GTS450 bekommt nur 128-bit SI. Also die ROPs.

san.salvador
2010-08-30, 19:01:29
Nach der Logik hätte man auch keine GTX460 bringen dürfen, denn die macht die GTX465 auch überflüssig. Und die GTS450 ist bestimmt auch nicht ohne Grund teildeaktiviert. Auch das es keinen vollen GF100 gibt kann nur einen Grund haben.
Du schmeisst da die verschiedensten Indizien in einen Topf, rührst kräftig um und servierst einen Argmuentationsbrei. Das funktioniert so nicht.

Coda
2010-08-30, 19:02:50
GTS450 bekommt nur 128-bit SI. Also die ROPs.
Die ROPs können gar keine Yield-Probleme erzeugen, denn die sind selbst bei GF100 und GF104 vollständig vorhanden.

Bei GF100 mag es ein Yield-Problem geben, aber bei den kleineren Chips halte ich das für äußerst unwahrscheinlich.

Gast
2010-08-30, 19:41:45
Das Problem ist das die Dinger Mitte September niemanden mehr vorm Ofen hervor locken, wo Juniper schon fast ein Jahr auf dem Markt ist und der Nachfolger vor der Tür steht. Von GF108 weiß man noch immer nichts genaueres, wird wohl Oktober. NV muss dringend etwas machen um ihre Chips früher auf den Markt zu bekommen.


Jep, die GTS 450 kommt ein Jahr zu spät.

Die Leistung einer GTS 450 mit 192SP und 128bit SI ist im Preisbereich von 100 - 150 Euro ist nicht mehr zeitgemäß, aber wenigstens müssen sie nicht mehr den uralten g92 umlabeln. Die ATI 5770 ist aber auch nicht mehr zeitgemäß.

Leonidas
2010-08-31, 06:24:08
Mag sein, ich gehe aber davon aus, daß beide Produkte noch lange leben werden, die 5700er Serie auch nach SI-Release. Der neue Performance-Chip von AMD scheint deutlich schneller zu werden, ergo hat AMD Platz im Portfolio, um die 5700er Serie zu behalten.

Gast
2010-08-31, 12:11:47
GTS 450 Benchmarks:

anscheinend incl. OC-Version ASUS ENGTS450TOP:

http://overclockzone.com/tor_za/year_2010/08/asus_engts450_top/index5.htm

=> inzwischen wieder OFFLINE!

Deshalb hier zumindest die Bilder:
http://forum.beyond3d.com/showpost.php?p=1466912&postcount=6478

http://forum.beyond3d.com/showpost.php?p=1466913&postcount=6479
+

GTS450 draws 40W more than HD5770 under load in overclockzone's benchmark.

mehr hier auf der Seite:
http://forum.beyond3d.com/showthread.php?t=56155&page=260

Gast
2010-08-31, 12:17:31
GTS 450 Benchmarks:

anscheinend incl. OC-Version ASUS ENGTS450TOP:

http://overclockzone.com/tor_za/year_2010/08/asus_engts450_top/index5.htm

=> inzwischen wieder OFFLINE!

Deshalb hier zumindest die Bilder:
http://forum.beyond3d.com/showpost.php?p=1466912&postcount=6478

http://forum.beyond3d.com/showpost.php?p=1466913&postcount=6479
+

GTS450 draws 40W more than HD5770 under load in overclockzone's benchmark.

mehr hier auf der Seite:
http://forum.beyond3d.com/showthread.php?t=56155&page=260

Sieht schwer nach FAIL aus. Weniger Leistung als 5770 aber deutlich mehr Verbrauch. Und das alles ein sattes Jahr zu spät. Völlig uninteressant.

Raff
2010-08-31, 12:19:37
40 Watt mehr? Glaube ich nicht. Warum? Weil die GTS 450 dann genauso viel saugen würde wie die GTX 460/768. Glaube keiner dubiosen China-Seite. ;)

MfG,
Raff

Gast
2010-08-31, 12:20:06
Sieht schwer nach FAIL aus. Weniger Leistung als 5770 aber deutlich mehr Verbrauch. Und das alles ein sattes Jahr zu spät. Völlig uninteressant.

Es war klar das sie es gegen Juniper noch schwerer haben. Denn im Gegensatz zum Cypress hängt der nicht am Frontend. Der Tesslationsvorteil ist auch weg, sieht wirklich nicht besonders aus.

Gast
2010-08-31, 12:21:48
40 Watt mehr? Glaube ich nicht. Warum? Weil die GTS 450 dann genauso viel saugen würde wie die GTX 460/768. Glaube keiner dubiosen China-Seite. ;)

MfG,
Raff

40W mehr für eine OC Version hinterm Netzteil.

Gast
2010-08-31, 15:38:39
40W mehr für eine OC Version hinterm Netzteil.

http://forum.beyond3d.com/showthread.php?t=56155&page=260

asus top 925/1850/4000 instead of 783/1566/3600

Deshalb wohl der hohe Verbrauch

Gast
2010-08-31, 15:54:18
Die GTS 450 scheint sich gut übertakten zu lassen.
Die Asus Taktfrequenzen sehen aber schon ziemlich hoch aus, deshalb wird man wohl auch mit einem besseren Kühler nicht auf deutlich höhere Werte kommen wird.

Die Speicherbandbreite und die Texturefillrate sehen bescheiden aus.

davidzo
2010-08-31, 16:02:26
angeblich hat man aber wohl zumindest den takt auf das normale nivau abgesenkt für die messung, die übertaktete karte soll 60W mehr als juniper verbraucht haben. allein die voltage bringt aber keine 40Watt, also wird die Karte mit Sicherheit @default Spannung immer noch mehr als Juniper unter Last verbrauchen. Interessant wird dagegen der idlestromverbrauch, da war ja gf104 bereits besser als juniper.

was die TDP angeht sollte man nicht vergessen, dass gf104 auch einen geringeren takt und vermutlich auch voltage hat, während gf106 durch den kleinen chip ohne große spannungsversorgungsengpässe oder kühlaufwand höher takten kann. daher ist der stromverbrauch von einer übertakteten gf106 sku relativ nahe der kleinsten gf104 varianten garnichtmal unwahrscheinlich...

dildo4u
2010-08-31, 16:07:18
TDP liegt 55Watt auseinander deshalb ist es Unsinn was du schreibst.OEM's müssen sich auf diese Angaben verlassen wen sie diese Karten verbauen.

Hugo78
2010-08-31, 16:15:07
angeblich hat man aber wohl zumindest den takt auf das normale nivau abgesenkt für die messung, die übertaktete karte soll 60W mehr als juniper verbraucht haben

Wie Raff schon sagt, wenn eine 450 @ default, 40W mehr als ne 5770 verbraucht, wäre sie auf dem Level einer 460.
Dann braucht man auch keine GF106 bauen, sondern verkloppt lieber teildefekte GF104, als GTS 450.
Und das eine 450 OC Version nochmal 20 W mehr nimmt, also 60W, ist völliger Quark.
Denn sogar ne 460 AMP! verbaucht grad mal 10W mehr als ne 460 @ default.
Und die 460 hat deutlich mehr Transistoren.

LovesuckZ
2010-08-31, 18:44:10
Da GF108 angeblich am 12. Oktober für den Retail-Markt veröffentlicht wird, hat nVidia pünktlich zur angeblichen Einführung von AMD's neuster Generation ihr DX11 Line Up komplett.

Gast
2010-08-31, 19:11:32
Da GF108 angeblich am 12. Oktober für den Retail-Markt veröffentlicht wird, hat nVidia pünktlich zur angeblichen Einführung von AMD's neuster Generation ihr DX11 Line Up komplett.

Starke Leistung. NICHT.

LovesuckZ
2010-08-31, 19:57:23
Starke Leistung. NICHT.

Und wieder schreibt ein AMD FanboyGast. Wird echt langweilig.

Deinorius
2010-08-31, 20:34:41
Ist aber nicht unberechtigt. Kaum vervollständigt nvidia sein DX11 Lineup, kommt schon von AMD möglicherweise die nächste Serie.

Coda
2010-08-31, 20:36:12
Und wieder schreibt ein AMD FanboyGast. Wird echt langweilig.
Er hat doch recht.

Gast
2010-08-31, 20:37:47
Highend Serie, einen "neuen" GF106 Konkurrent hat AMD doch garnicht geplant, und selbst wenn auf SI Basis etwas kommen sollte, bis dahin ists Q2/2011 und dann werkeln aber beide schon an den 32nm Refreshs.

Gast
2010-08-31, 21:12:40
Highend Serie, einen "neuen" GF106 Konkurrent hat AMD doch garnicht geplant, und selbst wenn auf SI Basis etwas kommen sollte, bis dahin ists Q2/2011 und 8b]dann werkeln aber beide schon an den 32nm Refreshs[/b].


Wie kommst du denn auf das dünne Brett?

LovesuckZ
2010-08-31, 21:19:37
Er hat doch recht.

Trotzdem interessiert es niemanden. Oder sollen wir anfangen die Tage zu zählen, bis Tessellation auf AMD Hardware in brauchbarer Geschwindigkeit abgearbeitet werden kann?
Oder wenn AMD User in den Genuss von GPU-Physik kommen, das von AMD seit über zwei Jahren versprochen wird und mit OpenPhysic bald ihr einjähriges feiert, ohne auch nur eine nutzbare Anwendung?

Black-Scorpion
2010-08-31, 21:25:59
Und schon bist du wieder bei deinem Lieblingsthema angekommen.
Dir ist auch kein Argument zu peinlich und wenn die Argumente noch so lächerlich sind.

BlackBirdSR
2010-08-31, 21:46:40
Trotzdem interessiert es niemanden. Oder sollen wir anfangen die Tage zu zählen, bis Tessellation auf AMD Hardware in brauchbarer Geschwindigkeit abgearbeitet werden kann?
Oder wenn AMD User in den Genuss von GPU-Physik kommen, das von AMD seit über zwei Jahren versprochen wird und mit OpenPhysic bald ihr einjähriges feiert, ohne auch nur eine nutzbare Anwendung?

Viel Spass beim Zählen.... wird keinen interessieren.
ich zähle lieber auf Sachen wie ordentliches AF.

Und der Gast hat halt recht. Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung :(

LovesuckZ
2010-08-31, 21:53:37
Und der Gast hat halt recht. Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung :(

AMD's letzte Karten wurden auch erst im Februar veröffentlicht. Es sind also 8 Monate.
Und AMD Karten sind zwar DX11, aber für Tessellation auch unbrauchbar. Wie man schön in Lost Planet 2 sieht.

Gast
2010-08-31, 22:03:10
AMD's letzte Karten wurden auch erst im Februar veröffentlicht. Es sind also 8 Monate.
Und AMD Karten sind zwar DX11, aber für Tessellation auch unbrauchbar. Wie man schön in Lost Planet 2 sieht.

Die GTS450 verliert auch mit Tesslation gegen eine 5770. Der Vorteil ist also nur im High-End vorhanden. Und die kleinen AMD-Karte kamen in Januar. Juniper im Oktober.

BlackBirdSR
2010-08-31, 22:04:06
AMD's letzte Karten wurden auch erst im Februar veröffentlicht. Es sind also 8 Monate.
Und AMD Karten sind zwar DX11, aber für Tessellation auch unbrauchbar. Wie man schön in Lost Planet 2 sieht.

Zusammenhang?

Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung

Gast
2010-08-31, 22:04:49
Und wieder schreibt ein AMD FanboyGast. Wird echt langweilig.

Sorry, aber ein Jahr nach der Konkurrenz und kurz bevor AMD schon die nächste Gen bringt und du tust so als wäre das irgendwie eine tolle Leistung. Das war einfach nur schwach.

Coda
2010-08-31, 22:05:12
Die GTS450 verliert auch mit Tesslation gegen eine 5770
Ist das schon sicher? Es gibt doch noch gar keine verlässlichen Benchmarks.

Gast
2010-08-31, 22:08:59
Ist das schon sicher? Es gibt doch noch gar keine verlässlichen Benchmarks.

Die Benchs die es gibt sagen das. Siehe den Unigine-Wert. Aber warten wir ab.

BlackBirdSR
2010-08-31, 22:10:24
Ist das schon sicher? Es gibt doch noch gar keine verlässlichen Benchmarks.

Ich hätte auf Gleichstand geschätzt, mit Vorteil für die ATI in den üblichen Situationen. Allerdings habe ich noch keine einzige Quelle gesehen, die dies oder das belegen würde.

Hugo78
2010-08-31, 22:14:09
Die 450 tritt gegen die 5750 an.
Die 455 gegen die 5770.

LovesuckZ
2010-08-31, 22:14:26
Zusammenhang?

Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung

Und? Die kleinen GT21x Karten bieten mit der Copy-Engine ein Feature an, dass es bei AMD seit über einem Jahr nicht gibt. Da macht komischerweise niemand ein Aufstand. Aber DX11 ist ja so wichtig bei Karten unterhalb von GF104 und Cypress. :freak:
Lustig ist ja, dass die GT21x und GF10x auch den deutlich besseren Videoprozessor bzgl. Auslastung und Stromverbrauch besitzen. Ist natürlich auch uninteressant. Da nimmt man liebers DX11 für so eine HTPC Karte...

Ist das schon sicher? Es gibt doch noch gar keine verlässlichen Benchmarks.

Ist auch blödsinn. Eine GTS450 erreicht 66% der Geometrieleistung einer GTX460. Ist somit also ca. doppelt so schnell.

Und dann gibt es ja noch die tollen Heaven 2.0 Benches von der Seite: http://gpudesign.bafree.net/asus-gts-450-top-full-review (Speicherung des Reviews)

BlackBirdSR
2010-08-31, 22:19:20
Und? Die kleinen GT21x Karten bieten mit der Copy-Engine ein Feature an, dass es bei AMD seit über einem Jahr nicht gibt. Da macht komischerweise niemand ein Aufstand. Aber DX11 ist ja so wichtig bei Karten unterhalb von GF104 und Cypress. :freak:
Lustig ist ja, dass die GT21x und GF10x auch den deutlich besseren Videoprozessor bzgl. Auslastung und Stromverbrauch besitzen. Ist natürlich auch uninteressant. Da nimmt man liebers DX11 für so eine HTPC Karte...


Erneut frage ich dich zum Zusammenhang zum aktuellen Thema:
Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung

So langsam kommt wirklich jeder ins Grübeln, ob solche Aktionen nicht völlig gegen die Art des Forums agieren. Zusammenhangslosen Überleitungen auf alten Kamellen, die keiner im Forum mehr hören will und kann, sind sicherlich nicht der richtige weg (ja ich weiss, aber Nvidia hat bessere Tess.). Daher bitte ich Dich noch einmal, wenn Du etwas von mir oder anderen zitierst, erstelle auch einen Zusammenhang. Danke

LovesuckZ
2010-08-31, 22:23:45
Erneut frage ich dich zum Zusammenhang zum aktuellen Thema:
Hätte so vor dem Release der ersten DX11-Karten sicherlich niemand erwartet, dass Nvidia das Lineup erst jetzt vervollständigen kann. Das ist alles andere als eine gute Leistung

So langsam kommt wirklich jeder ins Grübeln, ob solche Aktionen nicht völlig gegen die Art des Forums agieren. Zusammenhangslosen Überleitungen auf alten Kamellen, die keiner im Forum mehr hören will und kann, sind sicherlich nicht der richtige weg (ja ich weiss, aber Nvidia hat bessere Tess.). Daher bitte ich Dich noch einmal, wenn Du etwas von mir oder anderen zitierst, erstelle auch einen Zusammenhang. Danke

Zusammenhang? nVidia kommt später mit DX11. AMD Fanboys trollen, weil sie ja 8 Monate später dran sind.
Dagegen bietet AMD ein Jahr später ebenfalls keine gleichwertigen Features. Wo ist die Optimus Alternative? Wo ist GPU-Physik?
Komisch ist ja, dass DX11 so toll ist, selbst wenn es unbrauchbar ist. Siehe Lost Planet 2 oder Metro2033. Wo erstes nur AMD Hardware und zweites die ganze Palette betrift.
Was bringt es einem also, dass AMD 1 Jahr früher schon DX11 Hardware auf dem Markt hatte, dieses aber nur dann ein Vorteil ist, wenn es leicht dosiert eingesetzt wird?

Es ist eine wirklich starke Leistung von AMD, DX11 unbrauchbar ein Jahr vorher anzubieten. :up:

/edit: Und ich finde es ebenfalls erstaunlich, dass dich Tessellation nervt. Ist ja nicht so, dass es in keinem Zusammenhang mit DX11 (und OpenGL 4.x) steht. Aber wahrscheinlich kann man es auch isoliert betrachten. Dann hat AMD eine wirklich starke Leistung geboten...

Deinorius
2010-08-31, 22:49:26
nvidia Fanboys trollen nicht minder. :P

Eine Optimus Alternative für den Desktop gibts auch von nvidia nicht und wir reden hier immer noch von Desktop Grafikkarten.
Wo die GPU-Physik ist? Ja richtig, wo ist denn nun die offene Variante, die herstellerunabhängig läuft? Soll AMD etwa eine eigene Suppe kochen, die dann unter nvidia nicht läuft? Nein danke! Da kann man genauso gut auch nvidia Vorwürfe machen, dass sie was herstellerabhängiges anbieten.

DX11 ist unbrauchbar? Gabs solch ähnliche Diskussionen nicht auch bei DX10? Ich sehe vorwiegend leistungsfähige Grafikkarten bei geringem Verbrauch. Bei Erscheinen von DX10 wars ja nicht gerade anders.

Was bringt es also 1 Jahr vorher DX11 rauszubringen. Ganz einfach, DX11 kommt an den Mann und es gibt eine Hardwarebasis auf die die Entwickler bauen können. Somit kommt DX11 in Spielen auf breiter Basis eher als wenn AMD gewartet hätte. Das bringt es!

Coda
2010-08-31, 22:51:51
Vor allem sind die Compute Shader auch ein wichtiger Bestandteil von D3D11 und da ist ATI sogar deutlich schneller.

Man könnte das Argument auch durchaus umdrehen.

Fetza
2010-08-31, 23:00:38
AMD Fanboys trollen, weil sie ja 8 Monate später dran sind.

Es ist eine wirklich starke Leistung von AMD, DX11 unbrauchbar ein Jahr vorher anzubieten. :up:


Wenn ein nv fanboy trollt ist das aber auch nicht besser, vor allem auch nicht richtiger. ;)

LovesuckZ
2010-08-31, 23:00:40
Eine Optimus Alternative für den Desktop gibts auch von nvidia nicht und wir reden hier immer noch von Desktop Grafikkarten.

Seit wann bietet AMD keine DX11 GPUs in Notebooks an? Wieso gibt es hier keine Alternative?


Wo die GPU-Physik ist? Ja richtig, wo ist denn nun die offene Variante, die herstellerunabhängig läuft? Soll AMD etwa eine eigene Suppe kochen, die dann unter nvidia nicht läuft? Nein danke! Da kann man genauso gut auch nvidia Vorwürfe machen, dass sie was herstellerabhängiges anbieten.

AMD predigt es seit Sommer 2008. Deren OpenSource Initiative jährt sich in 3 Wochen zum ersten mal. Anwendungen? 0. Aber wenigsten waren sie mit DX11 als erstes auf dem Markt. nVidia bietet dagegen GPU-Physik fähige Hardware seit November 2006 an und erste Anwendungen seit Sommer 2008. Dafür benötigt man nichtmal DX11...


DX11 ist unbrauchbar? Gabs solch ähnliche Diskussionen nicht auch bei DX10? Ich sehe vorwiegend leistungsfähige Grafikkarten bei geringem Verbrauch. Bei Erscheinen von DX10 wars ja nicht gerade anders.

Nicht DX11 ist unbrauchbar, sondern die Implementierung von AMD. Einzig DC5.0 ist wirklich nutzbar auf ihrer Hardware. Tessellation darf nur dosiert und dezent eingesetzt werden, um vorallem das Mid-Range und deren High-End nicht zu überfordern.


Was bringt es also 1 Jahr vorher DX11 rauszubringen. Ganz einfach, DX11 kommt an den Mann und es gibt eine Hardwarebasis auf die die Entwickler bauen können. Somit kommt DX11 in Spielen auf breiter Basis eher als wenn AMD gewartet hätte. Das bringt es!

Ich sehe davon nichts. Metro2033 und Lost Planet 2 sind in Unterstützung mit nVidia entstanden, die 7 Monate später erste DX11 im Retailmarkt hatten. Ironischerweise scheint AMD auch seit dem mit ihren "DX11 verbreitet sich ja so schnell" aufgehört zu haben. BF: Bad Company 2 war das letzte Spiel, wo AMD wohl auch mitgeholfen hat.

BlackBirdSR
2010-08-31, 23:15:01
Als Moderator weise ich dezent darauf hin, dass es gerade nicht um Tesselation und nicht um "copy" und nicht um Bad Company2 und nicht um PhysX oder AMD Physik geht und vorhin ging.

Wer trotzdem darüber reden will, soll sich melden, dann bekommt er nen extra thread.

Tarkin
2010-09-01, 09:03:08
Jetzt mal langsam ... zu diesem Zeitpunkt AMD wegen etwas schwächerer Tessellation zu kritisieren (wo dieses Feature gerade mal bei drei, vier Games genutzt wird ... mehr schlecht als recht noch dazu) ist höchst grotesk/pervers, tut mir leid (unbrauchbares DX11 - MEGALOL!). Was hat denn bitteschön nVidia besser gemacht, hm? Ach, die kommen gerade einmal 8 bis 10 Monate später mit Chips die gerade mal so konkurrieren können... mehr oder weniger.

Und dann noch mit diesem absoluten Schrott-Game Lost Planet 2 daherkommen... Dieses Game sieht aus, als hätte es ein debiler Schimpanse programmiert (abgesehen davon, dass es diesen Mist noch überhaupt nicht zu kaufen gibt) ist dieses Stück Software als "Benchmark" völlig unbrauchbar - das interessiert wirklich keinen.

Ich bin schon gespannt mit welchen Argumenten die nVidia Trolls dann ab Oktober daherkommen, aber ich kanns mir denken:

PhyX, PhysX, PhysX, PhysX und noch mehr PhysX ... und Cuda und Mafia 2 und Lost Planet 2 und ... ach ja, PhysX hätte ich fast vergessen :rolleyes:

Schlammsau
2010-09-01, 09:22:57
Zumal noch gar nicht bewiesen ist, dass das relativ schlechte Abschneiden der Radeons unter LP2@DX11, an der Tesselation liegt. Ich bin immernoch der Meinung, dass ATi hier einen HF nachschieben wird, wenn das Game released wird.

Naja in 2 Monaten hat LZ halt ein Argument weniger, dann kann er das Wort Tesselation aus seinem Wortschatz streichen. Weil dann ist auf einmal eine Radeon schneller.... :comfort2:

Aber ich bin guter Dinge, LZ wird mit Sicherheit noch was anderes finden, was ihm nicht passt.
Ich tippe auf.......PhysX! Darauf wird er mindestens das nächste halbe Jahr rumreiten.....wenn nicht noch länger. Ich will euch nur gewarnt haben.

Raff
2010-09-01, 09:26:56
Jetzt mal langsam ... zu diesem Zeitpunkt AMD wegen etwas schwächerer Tessellation zu kritisieren (wo dieses Feature gerade mal bei drei, vier Games genutzt wird ... mehr schlecht als recht noch dazu) ist höchst grotesk/pervers, tut mir leid (unbrauchbares DX11 - MEGALOL!). Was hat denn bitteschön nVidia besser gemacht, hm?

Sie haben ihre Architektur schon 2010 auf Polygonmengen von 2012 ausgelegt. Die Sinnhaftigkeit kann man in Frage stellen, richtig. Ein KO-Argument gegen Evergreen-Karten ist es auf keinen Fall. Dennoch bleibt diese Architekturstärke ein Vorteil. Genau wie GPU-PhysX. Beide sind keine Must-Have-Killerfeatures, doch werten sie eine GeForce im Vergleich mit einer Radeon auf. Und sobald Southern Islands bei Tessellation einen vollen Fermi klatscht, werden die AMD-Anhänger jubeln. Jubelnd das Feature vorheben, das drei Tage zuvor noch unnötig war. Wetten? ;)

MfG,
Raff

Schlammsau
2010-09-01, 09:28:10
Sie haben ihre Architektur schon 2010 auf Polygonmengen von 2012 ausgelegt. Die Sinnhaftigkeit kann man in Frage stellen, richtig. Ein KO-Argument gegen Evergreen-Karten ist es auf keinen Fall. Dennoch bleibt diese Architekturstärke ein Vorteil. Genau wie GPU-PhysX. Beide sind keine Must-Have-Killerfeatures, doch werten sie eine GeForce im Vergleich mit einer Radeon auf. Und sobald Southern Islands bei Tessellation einen vollen Fermi klatscht, werden die AMD-Anhänger jubeln. Jubelnd das Feature vorheben, das drei Tage zuvor noch unnötig war. Wetten? ;)

MfG,
Raff

Ich werde nicht jubeln, ich würde nur dann gerne LZs Gesicht sehen......

MadManniMan
2010-09-01, 09:29:48
Jetzt mal langsam ... zu diesem Zeitpunkt AMD wegen etwas schwächerer Tessellation zu kritisieren (wo dieses Feature gerade mal bei drei, vier Games genutzt wird ... mehr schlecht als recht noch dazu) ist höchst grotesk/pervers, tut mir leid (unbrauchbares DX11 - MEGALOL!). Was hat denn bitteschön nVidia besser gemacht, hm? Ach, die kommen gerade einmal 8 bis 10 Monate später mit Chips die gerade mal so konkurrieren können... mehr oder weniger.

Weißt Du eigentlich noch, was die Wörter "grotesk" und "pervers" eigentlich beschreiben? Im Zusammenhang mit Grafikkarten derart zu reden ist schon höchst seltsam.


Und dann noch mit diesem absoluten Schrott-Game Lost Planet 2 daherkommen... Dieses Game sieht aus, als hätte es ein debiler Schimpanse programmiert (abgesehen davon, dass es diesen Mist noch überhaupt nicht zu kaufen gibt) ist dieses Stück Software als "Benchmark" völlig unbrauchbar - das interessiert wirklich keinen.

Meine Güte - redet man bei Dir zu Hause auch so?

Deinorius
2010-09-01, 09:37:26
Sie haben ihre Architektur schon 2010 auf Polygonmengen von 2012 ausgelegt. Die Sinnhaftigkeit kann man in Frage stellen, richtig.


Die Sinnhaftigkeit könnte man wenigstens dann beantworten, sobald man in 4 Jahren die Grafikkarten nochmal mit für diese Zeit aktuellen Spielen durchtestet, so wie es 3DC schon einmal mit der X19xx/GF7xx Reihe getan hat und festgestellt wurde, dass ATI zukunftssicherer war. Ich kann es mit meiner X1950 Pro bezeugen. :)

Das ist dann jetzt mit dem Fermi umso interessanter, da es quasi aktiv beworben wird. Ich bin gespannt, wer besser sein wird. Die höhere Rechenleistung bietet immer noch AMD.

Raff
2010-09-01, 09:42:59
Ich werde nicht jubeln, ich würde nur dann gerne LZs Gesicht sehen......

Dann wirst du eben jubeln, dass die HD 6870 bei gleicher Leistungsaufnahme 10 Prozent schneller ist als die GTX 480. Die Leistungsaufnahme wird plötzlich nebensächlich sein, weil das Ding schnell ist. Oder so. Werden wir dann sehen. ;)

Die Sinnhaftigkeit könnte man wenigstens dann beantworten, sobald man in 4 Jahren die Grafikkarten nochmal mit für diese Zeit aktuellen Spielen durchtestet, so wie es 3DC schon einmal mit der X19xx/GF7xx Reihe getan hat und festgestellt wurde, dass ATI zukunftssicherer war. Ich kann es mit meiner X1950 Pro bezeugen. :)

Das ist dann jetzt mit dem Fermi umso interessanter, da es quasi aktiv beworben wird. Ich bin gespannt, wer besser sein wird. Die höhere Rechenleistung bietet immer noch AMD.

Die Zukunftssicherheit des Furby hängt ganz davon ab, wie viele Tessellation-Spiele in den nächsten Jahren erscheinen – und wie viele Polygone von den Entwicklern verwendet werden. Bei moderaten Mengen kann Evergreen ja noch mithalten, bei "Overkill" à la Unigine oder Stone Giant verstopft die Pipe schon an der Startlinie.

MfG,
Raff

Gast
2010-09-01, 09:45:37
Ich werde nicht jubeln, ich würde nur dann gerne LZs Gesicht sehen......

Warum? Ich gehe mal davon aus, dass ATI dort aufholen wird. Das ändert aber nichts an der mieserablen Leistung der aktuellen ATI Karten auf dem Gebiet.

Sehr gespannt bin ich auf das AF bei der SI Generation. Hier ist Nachbesserung auf jeden Fall Pflicht. Falls nicht, erwarte ich mir von den Reviewern, dass hier ganz massiv kritisiert wird. Das kann einfach nicht sein, dass wir nach so vielen Jahren bei Grafikkarten in so eine Preisregion wie die 5850 und 5870 bei ATI noch immer so ein mieserables AF sehen. Das können Sie von mir aus bei einem 100 Euro Produkt machen aber nicht im Performance und High End Segment.
Da wird ganz bewusst Performance mit schlechterer Bildqualität erkauft.

Schlammsau
2010-09-01, 09:50:50
Dann wirst du eben jubeln, dass die HD 6870 bei gleicher Leistungsaufnahme 10 Prozent schneller ist als die GTX 480. Die Leistungsaufnahme wird plötzlich nebensächlich sein, weil das Ding schnell ist. Oder so. Werden wir dann sehen. ;)
Erstmal glaube ich, dass die 6870 deutlich weniger Strom brauchen wird als eine 480.
Und zweitens liegt meine Grenze bei 200 Watt TDP, alles andere ist für mich absolut uninteressant, da nicht leise und günstig kühlbar! Ich hab einfach keine Möglichkeit, die warme Luft aus meinem Gehäuse zu befördern.

Aber trotzdem bleibe ich bei meinem Standpunkt, dass eine TDP von unter 250W, bei einem gleichzeitigen Leistungsplus von 10-20% gegenüber der GTX480, absolut im Rahmen liegen. Dadurch würde die 6870 keine schlechte Karte werden, wenngleich sie für mich keine Option darstellt.

Spasstiger
2010-09-01, 09:57:54
SI wird noch nicht an den Polygondurchsatz bei Tessellation von NV rankommen, weil nur das Frontend geändert wird und die SIMDs bestehen bleiben. Und ich denke nicht, dass ATI 16 Tessellationseinheiten oder mehr ins Frontend klatscht. Der Verdrahtungsaufwand zu den SIMDs wäre imo zu groß.
Bei NV sitzen die Tessellationseinheiten in den SMs und man führt die Daten stufenweise zu (GigaThread Engine -> GPC -> SM).

Die GTS 450 dürfte wohl ein direkter GTS-250-Nachfolger sein. Etwas schneller + DX11. Die HD 5770 wird man abseits von Tessellation aber imo aber nicht schlagen können.

Tarkin
2010-09-01, 11:06:02
Weißt Du eigentlich noch, was die Wörter "grotesk" und "pervers" eigentlich beschreiben? Im Zusammenhang mit Grafikkarten derart zu reden ist schon höchst seltsam.

Nicht in Zusammenhang mit Grafikkarten, sondern im Zusammenhang mit dem Geisteszustand von Trollen hier.

Meine Güte - redet man bei Dir zu Hause auch so?

Tschuldige, aber das Game ist IMO Mist und es ist idiotisch an sowas auch noch ein Etikett "Argument pro nvidia" zu kleben. Warum sollte ich versuchen es schöner auszudrücken?

Abgesehen davon finde ich solche Kommentare heuchlerisch.

Hugo78
2010-09-01, 11:08:39
@Spasstiger

Bei der GTS 450 werden wir uns eh erstmal überraschen lassen müssen,
wo die Leistung der Version mit 128bit SI steht und wo das Modell mit 192bit SI.
Im aktuellen Treiber tauchen ja 2 Versionen auf.
Schätze das ganz wird so ablaufen.
GTS 450 128bit SI ~ 5750
GTS 450 192bit SI ~ 5770

Letztlich ist es egal ob die 5770 jetzt knapp geschlagen wird oder nicht.
In der Preisklasse kaufen doch kaum mehr Leute ein, die wirklich aktuelle Spiele zocken wollen.
Denn im Vergleich zur Vorgänger Generation, kommt auch eine 5770 nicht über eine 4870 hinaus.

Und es kommt ja nochmal die GTS 455 (laut Treiber), wobei die ja aller Wahrscheinlichkeit nach, starke Restverwertung der GF104 ist,
und damit später kommt, zumindest hat man bei der HD 5830 und GTX 465 auch erstmal Chips gesammelt für einen Release.

Ob die GTS 455 jetzt aber eine mögliche Antwort zur 6750/70 sein wird,
oder wie ich mir das denke, eher die GTX 460 768mb, bleibt abzuwarten.

MadManniMan
2010-09-01, 11:13:01
Abgesehen davon finde ich solche Kommentare heuchlerisch.

Wieso heuchlerisch? Nur, weil ich Deine Ausdrucksweise anmahne? :confused:

Ailuros
2010-09-01, 11:15:56
Da Eure Meinungsverschiedenheit NICHTS mit dem Thread zu tun hat, moechte ich freuntlichst bitten dass Ihr diese privat loest. Danke.

N0Thing
2010-09-01, 12:12:18
und wie viele Polygone von den Entwicklern verwendet werden. Bei moderaten Mengen kann Evergreen ja noch mithalten, bei "Overkill" à la Unigine oder Stone Giant verstopft die Pipe schon an der Startlinie.

Es gab auch nicht so viele Entwickler, die sich ein Beispiel an 3DMark genommen haben, um eine Grafikengine zu entwickeln. Warum sollte das ein Entwickler nun bei Unigine oder Stone Giant nachmachen? Vor allem wenn er ja auch wissen sollte, wie du geschrieben hast, daß dann bei Karten, die keine GTX470/480 sind, Probleme auftreten. ;)

=Floi=
2010-09-02, 02:38:01
kann man sich einen vollen GF104@ 800 oder gar 900 mhz vorstellen? damit hätte man sicherlich eine zeit lange luft und könnte auch am markt eine längere zeit gut bestehen.

Ailuros
2010-09-02, 08:01:03
kann man sich einen vollen GF104@ 800 oder gar 900 mhz vorstellen? damit hätte man sicherlich eine zeit lange luft und könnte auch am markt eine längere zeit gut bestehen.

Unter 28nm durchaus.

Gast
2010-09-02, 09:44:27
kann man sich einen vollen GF104@ 800 oder gar 900 mhz vorstellen? damit hätte man sicherlich eine zeit lange luft und könnte auch am markt eine längere zeit gut bestehen.

Na klar, ist doch nur ein SM mehr.
800-850 sollten gehen, zur Not nimmt man etwas mehr Spannung.

Gast
2010-09-02, 10:41:08
Es wird mMn viel zu viel von GF104 erwartet/verlangt. GF104 ist eine gute GPU und liefert als GTX460 das einzigste gute und ausgeglichene Gesamtpaket der bisherigen Fermi-Grakas. Es ist aber keine Über-GPU die nun alles zum Guten richten kann, denn auf keinen Gebiet werden irgendwelche herausragenden Leistungen erreicht.

Im HighEnd-Bereich ist mit GF104 einfach kein Blumentopf zu gewinnen, weder als Vollausbau als SGPU noch als MGPU macht GF104 wirklich Sinn, da in beiden Bereichen die mögliche Leistung einfach nicht reichen wird vorallendingen angesichts von AMD SI.

NV braucht einen kräftig überarbeiteten GF100. Nur damit werden sie AMD zumindest im SGPU-HighEnd Parolie bieten können. Ich glaube dieses Jahr wird nichts mehr von NV im oberen Leistungssegment kommen. Sie scheinen sich doch jetzt erst einmal auf den viel wichtigeren LowEnd und Mainstream-Markt zu konzentrieren wo man ja schon gefühlte Jahre zurückhängt.

Ailuros
2010-09-02, 11:05:49
Es wird mMn viel zu viel von GF104 erwartet/verlangt. GF104 ist eine gute GPU und liefert als GTX460 das einzigste gute und ausgeglichene Gesamtpaket der bisherigen Fermi-Grakas. Es ist aber keine Über-GPU die nun alles zum Guten richten kann, denn auf keinen Gebiet werden irgendwelche herausragenden Leistungen erreicht.

Im HighEnd-Bereich ist mit GF104 einfach kein Blumentopf zu gewinnen, weder als Vollausbau als SGPU noch als MGPU macht GF104 wirklich Sinn, da in beiden Bereichen die mögliche Leistung einfach nicht reichen wird vorallendingen angesichts von AMD SI.

http://www.xbitlabs.com/articles/video/display/gf-gtx460-sli_6.html#sect1

Selbst kastrierte 104@675MHz@SLi stehen alles anderes als schlecht generell einer 5970 gegenueber. Wie die chips auf der 5970 getaktet sind wirst Du wohl wissen obwohl der TDP einer 5870 bei nur 189W liegt. Bei 68x0 ist der TDP um einen Schnitt hoeher, ergo wirst Du wohl auch fuehlen koennen wie es danach weitergehen koennte. Und nein ich erwarte keineswegs dass ein 104 mGPU Gespann einem SI mGPU nahe kommen koennte, aber es geht dann auch mehr um das Preis/Leistungs-verhaeltnis.

NV braucht einen kräftig überarbeiteten GF100. Nur damit werden sie AMD zumindest im SGPU-HighEnd Parolie bieten können. Ich glaube dieses Jahr wird nichts mehr von NV im oberen Leistungssegment kommen. Sie scheinen sich doch jetzt erst einmal auf den viel wichtigeren LowEnd und Mainstream-Markt zu konzentrieren wo man ja schon gefühlte Jahre zurückhängt.

Da es aber tatsaechlich nicht danach aussieht dass ein GF100-b oder was auch immer kommen koennte mit vergleichbarem Stromverbrauch eines mGPU 104 und mit vergleichbarer Leistung, sieht es eher nach einer Sackgasse fuer NV aus. Die hypothetische 104/mGPU wird ihnen zumindest eine wuerdigere high end Loesung geben als zu versuchen mit dem GTX480-Kaese SI single chip zu schlagen.

Anders: unter normalen Umstaenden duerfte bei 750MHz pro GF104 der TDP einer mGPU nicht ueber 225W ausfallen. Anders 6pin+8pin welches ich persoenlich auch fuer den 5870 Nachfolger erwarte.

=Floi=
2010-09-02, 14:02:35
beim G92b ging es auch von 650mhz rauf bis auf 775mhz+ Wenn es jetzt schon 460er karten mit 850mhz+ gibt, dann erwarte ich beim GF104 schon noch kleine steigerungen. Der chip ist vor allem günstig in der herstellung und ermöglicht so viel umsatz für NV. Ich erwarte dadurch schon noch eine breite vermarktung und gegen bestimmte ati karten von ati könnte er dadurch auch bestehen.
Featureseitig ist er aktuell und und von der performance, taktbarkeit und beim stromverbauch auch spitze. Für NV ist das sicherlich eine sehr gewinnbringende GPU und bei einer geschätzten lebendauer von über 2 jahren sicherlich auch wieder ein dauerbrenner wie der G92.

Ailuros
2010-09-02, 14:26:51
Ich gehe nur von den Referenz-GPUs und dessen Frequenzen aus. Wenn heute ein Hersteller mit eigener Haftung von 675MHz auf ueber 850MHz taktet, dann stell Dir vor wo die Frequenz in der Zukunft von Herstellern liegen koennte wenn die Referenz-GPU bei irgendwo 800MHz anfaengt.

Hersteller-uebertaktete Varianten gibt es von beiden IHVs und diese kommen auch selbstverstaendlich mit einem hoeheren Preis an als die normalen Varianten.

Und ja natuerlich kann man spekulieren dass NV die GF104 Kuh ziemlich lange melken wird ebenso wie bei G92.

san.salvador
2010-09-02, 14:28:07
Solange die Milch schmeckt... ;)

Henroldus
2010-09-02, 14:45:43
Ich gehe nur von den Referenz-GPUs und dessen Frequenzen aus. Wenn heute ein Hersteller mit eigener Haftung von 675MHz auf ueber 850MHz taktet, dann stell Dir vor wo die Frequenz in der Zukunft von Herstellern liegen koennte wenn die Referenz-GPU bei irgendwo 800MHz anfaengt.

Hersteller-uebertaktete Varianten gibt es von beiden IHVs und diese kommen auch selbstverstaendlich mit einem hoeheren Preis an als die normalen Varianten.

Und ja natuerlich kann man spekulieren dass NV die GF104 Kuh ziemlich lange melken wird ebenso wie bei G92.
wir sind schon bei 900 angekommen :eek:
GeForce GTX 460 mit 900 MHz (http://hartware.de/news_49903.html)

Dural
2010-09-02, 17:46:47
der GF104 ist eh einer der grössten würfe die es in letzter zeit auf dem GPU markt gegeben hat... und wenn man bedenkt das der erst im A1 ist...

Bei der GPU stimmt schon im A1 schlicht alles :)

Gast
2010-09-02, 17:50:44
Dann wird zu Weihnachten ggf. schon die B1 Version mit einem vollen GF104 kommen der vieleicht GeForce GTX 475 sich nennt?
GF104 mit hoher Taktrate und teildeaktivierten Einheiten erreicht aus dem Stand eine GF470, warum diese nicht ablösen.
Oder wartet nV ab, bis die SI Radeon 6770 sich zeigt :)

Dural
2010-09-02, 17:54:19
es gibt doch keinen grund für einen Bx GF104, vieleicht mit 28nm im nächsten jahr ja...

wie so NV nicht über die GTX460 leistung hinaus geht ist klar, es wäre eine konkurenz im eigenen haus und das wäre für die GF100 fatal, da sie schlicht mit einem schlag wohl zu wenig GF100 GPUs absetzten würden!

ich sag ja schon lange, NV könnte mit dem GF104 locker eine direkte Konkurenz zur 5870 stellen, sie machen es aber nicht... jedenfalls jetzt noch nicht

Gast
2010-09-02, 17:57:52
Und ja natuerlich kann man spekulieren dass NV die GF104 Kuh ziemlich lange melken wird ebenso wie bei G92.

Es wird Nvidia auch gar nichts anderes übrigbleiben, sie haben ja sonst keine attraktiven Chips im Angebot.
Aber über so einen großen Zeitraum wie der g92 wird sie der gf104 wohl nicht im Markt halten können, denn die Leistung des gf104 ist Ende 2010 nichts besonderes mehr.
Wenn die AMD 6700er Serie rauskommt und deutlich mehr Leistung als die bisherige 5700er Serie bietet, dann müsste Nvidia den gf104 schon aggressiv anpreisen damit die Karte für Kunden attraktiv bleibt.

Gast
2010-09-02, 18:03:27
der GF104 ist eh einer der grössten würfe die es in letzter zeit auf dem GPU markt gegeben hat... und wenn man bedenkt das der erst im A1 ist...

Bei der GPU stimmt schon im A1 schlicht alles :)

Das einzige was stimmt ist der billige Preis den NV verlangt. Alles andere kann ein Cypress besser.

Dural
2010-09-02, 18:08:49
Das einzige was stimmt ist der billige Preis den NV verlangt. Alles andere kann ein Cypress besser.

zb.?

DeadMeat
2010-09-02, 18:15:18
wir sind schon bei 900 angekommen :eek:
GeForce GTX 460 mit 900 MHz (http://hartware.de/news_49903.html)

Ich glaub da kann man unabhängig behaupten das der 104 wirklich das mit Abstand beste dieser Generation ist. Hätt ich nicht vor einem Jahr schon ne 5850 gekauft wärs wohl jetzt das geworden. Leider nurn bissl spät dran.
Würde ATI den Preis anpassen wäre der GF104er wohl nicht so extrem ansprechend. Aber so steht er Quasi ganz allein da für alle die nicht unbedingt nur Benchmarks Spielen und 3 von jeder Karte haben müssen :P

Toller Chip, tolle Karten.

Gast
2010-09-02, 22:02:36
Naja mir wird der Gf104/GTX460 eindeutig zu viel gehyped. Also wenn das jetzt schon ein tolle Leistung von NV ist Monate nach der Konkurrenz eine im Verhältnis zum Rest der Fermi-Familie vernünftige Graka rauszubringen, dann müsste AMD ja mit Lob und Anerkennung überschüttet werden.

Gute GPU aber nicht mehr.

Gast
2010-09-02, 22:18:38
Naja mir wird der Gf104/GTX460 eindeutig zu viel gehyped. Also wenn das jetzt schon ein tolle Leistung von NV ist Monate nach der Konkurrenz eine im Verhältnis zum Rest der Fermi-Familie vernünftige Graka rauszubringen, dann müsste AMD ja mit Lob und Anerkennung überschüttet werden.

Gute GPU aber nicht mehr.

Eben. Die Karte macht nicht besser als eine 5850, sie wird nur von NV billiger verscherbelt.

Hugo78
2010-09-02, 22:22:01
Es ist halt so, wenn das P/L stimmt.

Damals bei der 4890 hat sich auch kein Schwein über ihre Schwächen beschwert.
Es gab kaum gejammer, dass das Teil überdurchschnittlich oft ein RMA Fall war oder unter Last laut wie ein Staubsauger oder
das die 4890 sogar noch 15-30W mehr als eine 480 heute, im Idle saugte.

Alles egal, weil man für ~200€ beinah die Leistung (Frames) einer 300€ GTX 285 bekommen hatte.

=Floi=
2010-09-03, 04:52:22
imho braucht man aber auch die 800 mhz, weil man sonst untergehen würde. Gerade die gute leistung durch das OC macht die karten so attraktiv!

Fetza
2010-09-03, 08:21:22
Wird nv eigentlich noch zeitnah den vollausbau des gf104 bringen? Die 470 müsste sich ja so langsam abverkaufen und sie verspielen sonst die einzige kontermöglichkeit, die sie gegen si haben werden.

=Floi=
2010-09-03, 08:43:11
eventuell hebt man sich den chip noch auf, um später die 180-200€ niesche damit besetzen zu können und man platziert dann die 460er im 130-160€ bereich.

was macht NV mit den schlechten GF100? Wird der GF100 ein reiner professioneller grafikchip?

Gast
2010-09-03, 10:14:19
wir sind schon bei 900 angekommen :eek:
GeForce GTX 460 mit 900 MHz (http://hartware.de/news_49903.html)


Um mal die Lobhudelei ein wenig einzubremsen ;)

Man sieht an den extremen Übertakungen (bis +33%) auch sehr schön wie verzweifelt die Kartenhersteller sind.

Die GTX470 und GTX480 müssen ja anscheinend wie Blei in den Regalen liegen, das sie Kartenhersteller zu soll massiven OC greifen müssen um Umsatz zu generieren. Wenn die größeren Karten wirklich verkauft würden dürften die Kartenhersteller das nämlich nicht so ohne weiteres, Nvidia würde ihnen da ziemlich auch die Finger klopfen. Und sie selbst hätten auch kein Interesse daran, weil man mit den großen Karten normalerweise mehr Gewinn macht.

Gott sei Dank hat Nvidia mit der GF104 wirklich einen Gewinner im Sortiment.

Gast
2010-09-03, 10:24:03
So siehts aus. Nochmal GF104 ist kein HighEnd. Man klammert sich momentan verzweifelt an den GF104, aber NV braucht auch weiterhin einen GF100 bzw. eher einen deutlich verbesserten GF100 (GF102?). So wie es jetzt aussieht schein jedenfalls dieses Jahr nichts neues mehr von NV im HighEnd zu kommen und deshalb muss man wohl den GF104 bis zum Anschlag ausquetschen. Außerdem verliert der GF104 bei einer derartigen Werksübertaktung nicht alle seine positiven Vorteile gegenüber GF100 (Leistungsaufnahme,Preis)? So wie ich das sehe werden diese krassen OC-Modelle mind. so teuer wenn nicht teilweise sogar teurer als die stetig im Preis fallende GTX470 und die GTX470 ist aus reiner Performancesicht definitiv die bessere Karte.

Dural
2010-09-03, 10:27:09
hmm ist RV870 High-End? ;-)


Um mal die Lobhudelei ein wenig einzubremsen ;)

Man sieht an den extremen Übertakungen (bis +33%) auch sehr schön wie verzweifelt die Kartenhersteller sind.

Die GTX470 und GTX480 müssen ja anscheinend wie Blei in den Regalen liegen, das sie Kartenhersteller zu soll massiven OC greifen müssen um Umsatz zu generieren. Wenn die größeren Karten wirklich verkauft würden dürften die Kartenhersteller das nämlich nicht so ohne weiteres, Nvidia würde ihnen da ziemlich auch die Finger klopfen. Und sie selbst hätten auch kein Interesse daran, weil man mit den großen Karten normalerweise mehr Gewinn macht.



die logik von dir tut schon fast weh...

klar man taktet die GTX460 so hoch das man erst recht die verkäufe der GTX470 in den keller treibt, weil die eben keiner will ROLFT!

es gibt zwei gründe wie so man die GTX460/Grafikkarten ab werk übertaktet:

1. die hersteller verdienen so mehr als mit normalen default karten!
2. speziell auf den GF104 bezogen, weil es für die GPU anscheinend ohne probleme möglich ist, solche grossen takt steigerungen zu fahren!

es gibt übrigens auch OC versionen von den GTX470/480 ;) und es ist ein märchen das man an high-end karten mehr verdient, die stückzahlen sind viel zu gering! das grosse geld wird eben gerade mit karten wie GTX460 und darunter gemacht!

Gast
2010-09-03, 10:35:16
Nein da hast du ihn wohl nicht verstanden/verstehen wollen. Die Verkäufe der GTX470 treibt man damit nicht in den Keller, sondern die sind schon lange im Keller. NV bzw. die Boardpartner konzentrieren sich einfach darauf was sich verkaufen lässt und das ist die GTX460.

Dural
2010-09-03, 10:43:18
die GTX470 ist nach wie vor die bessere karte (auf die Leistung bezogen) und nur so als Info, der GF100 lässt sich auch ganz gut takten zb. GTX470 600 @ 800MHz sind keine seltenheiten sondern die regel! das problem beim GF100 ist einfach der stromverbauch und das ist eben beim GF104 so nicht vorhanden.

und klar werden wir von NV dieses jahr noch neues High-End sehen entweder GF100b (eher nicht) oder eine GTX490 mit dual GF104! NV wartet da einfach noch ab, wie so auch immer...

ich könnte mir sogar vorstellen das der GF100 für den Gamer Markt sogar komplett gestrichen wird, die GPU verbraucht einfach schlicht zu viel (auch wegen den 40nm problemen) um in diesem Markt bestehen zu können und sollte NV das mit einem GF100b nicht ändern können... ist der GF104 sicher die bessere wahl!

übrigens wird die GTX470 sicher bald EOL gehen ;)

Ideal wäre für NV das sie die GF100 GPU so hinbekommen das zb. eine 512SP @ 800MHz Karte und 448SP @ 700MHz Karte möglich wären, das würde dann auch gut mit dem GF104 harmonieren! das alles entscheindende wird der verbrauch beim GF100b für NV sein!

Gast
2010-09-03, 10:58:53
Gibt es auch nur einen einzigen offiziellen Fetzen an Information über eine GTX468/GTX475/GTX485 oder GTX490? Der letzte Treiber hat eine Menge an LowEnd,Mainstream und Mobile-GPUs offenbart, aber keinen einzigen Hinweis auf irgendwas im HighEnd-Bereich und es gibt auch von NV keinerlei Aussagen in diese Richtung.

Eine MGPU-Karte auf GF104 Basis macht einfach keinen Sinn. Zwar könnte man sich evt. leicht vor die HD5970 setzen, aber gegen die noch dieses jahr erscheinende HD6970 hätte man keine Chance. War in den letzten Tagen sogar hier auf der Startseite zu lesen. Die HD6970 wird vorraussichtlich im Nov. erscheinen und selbst wenn man es schaffen sollte eine mutmaßliche GTX490 noch davor zu releasen, würde man schon wenige Tage später wieder geschlagen werden und stünde erneut als Verlierer dar.

Gast
2010-09-03, 11:03:52
Gibt es auch nur einen einzigen offiziellen Fetzen an Information über eine GTX468/GTX475/GTX485 oder GTX490? Der letzte Treiber hat eine Menge an LowEnd,Mainstream und Mobile-GPUs offenbart, aber keinen einzigen Hinweis auf irgendwas im HighEnd-Bereich und es gibt auch von NV keinerlei Aussagen in diese Richtung.

Eine MGPU-Karte auf GF104 Basis macht einfach keinen Sinn. Zwar könnte man sich evt. leicht vor die HD5970 setzen, aber gegen die noch dieses jahr erscheinende HD6970 hätte man keine Chance. War in den letzten Tagen sogar hier auf der Startseite zu lesen. Die HD6970 wird vorraussichtlich im Nov. erscheinen und selbst wenn man es schaffen sollte eine mutmaßliche GTX490 noch davor zu releasen, würde man schon wenige Tage später wieder geschlagen werden und stünde erneut als Verlierer dar.

Es wird auch keine GF104 GX2 geben. Bei diesen Karten wird die Leistung einzig und alleine durch die Energieeffizienz bestimmt, und hier ist AMD nach wie vor im Vorteil. Eine GX2 macht nur Sinn wenn man schnellster ist.

AMD hat bei der 5970 die Spannung stark gesenkt sodass die Karte für ihre zwei GPUs noch deutlich stromsparender sind als eine 5850 trotz vollwertiger Chips. NV ist aber jetzt schon sehr weit her unten mit der Spannung, ich bezweifle das man auch nur annähernd die Leistung einer 5970 erreichen würde wenn man unter 300W bleibt.

Dural
2010-09-03, 11:05:17
NV war schon immer viel tiefer als AMD mit der Spannung... ;) und wie um alles in der welt willst DU beurteilen können wie Effizients der GF104 mit vollen SP sein kann? hast du so eine Karte? ;)

als vergleich die GTX285 hatte ca. 1,15Volt die GTX295 um die ca. 1,05Volt, GTX460 hat 1,0Volt da könnte man bei einem selektierten GF104 schon um die ca. 0,95Volt erwarten! erst recht wenn man bedenkt das der GF100 auch um die 1Volt hat.

Gibt es auch nur einen einzigen offiziellen Fetzen an Information über eine GTX468/GTX475/GTX485 oder GTX490? Der letzte Treiber hat eine Menge an LowEnd,Mainstream und Mobile-GPUs offenbart, aber keinen einzigen Hinweis auf irgendwas im HighEnd-Bereich und es gibt auch von NV keinerlei Aussagen in diese Richtung.

Eine MGPU-Karte auf GF104 Basis macht einfach keinen Sinn. Zwar könnte man sich evt. leicht vor die HD5970 setzen, aber gegen die noch dieses jahr erscheinende HD6970 hätte man keine Chance. War in den letzten Tagen sogar hier auf der Startseite zu lesen. Die HD6970 wird vorraussichtlich im Nov. erscheinen und selbst wenn man es schaffen sollte eine mutmaßliche GTX490 noch davor zu releasen, würde man schon wenige Tage später wieder geschlagen werden und stünde erneut als Verlierer dar.

nö gibt es nicht, wie ich schon sagte NV wartet wie so auch immer ab...

NV wäre sicher mittlerweilen jederzeit bereit eine dual GF104 auf den markt zu werfen, die GF104 GPU ist ja sicher auch schon gut 3 monate in der herstellung...

vieleicht wartet NV auf die 6xxx Serie, gut möglich ich weis es nicht...

Gast
2010-09-03, 11:18:30
NV war schon immer viel tiefer als AMD mit der Spannung... ;) und wie um alles in der welt willst DU beurteilen können wie Effizients der GF104 mit vollen SP sein kann? hast du so eine Karte? ;)


Glaubst du das durch die zwei zusätzlichen SPs irgend ein Wundermechanismus in Gang gesetzte wird? Die GTX460 kann die 5850 bei der Energieeffizienz nicht erreichen, ein voller GF104 wird die 5870 bei der Energieeffizienz nicht erreichen. Noch dazu konnte AMD bei der 5970 sehr stark mit der Spannung runter.

Daraus folgt: Sie werden die 5970 nicht erreichen wenn sie unter 300W bleiben. Sie könnten natürlich auf die 300W scheißen, aber da hat AMD schon ihre 5970 Sonderversionen mit 2x2GB und 5870-Taktraten platziert.

Ergo keine GF104 GX2. Denn wenn man nicht gewinnen kann macht es keinen Sinn eine solche Karte zu bringen. Eine andere Erklärung gibt es dafür nicht. Ansonsten hätte man sie schon längst gebracht.

Dural
2010-09-03, 11:23:28
schon zwei GTX460 schlagen eine 5970 und sind nahe an den 5970 4GB karten...

ein voller GF104 hat ca. 15% mehr leistung das ganze mal 2 ergibt ca. 30% minus Effizient / SLI zeug sagen wir also mal ca. 20% schneller als zwei GTX460! (die rechnung kann man natürlich nicht so ernst nehmen...)

Das reicht locker um eine 5970 unter 300Watt zu schlagen... eine GTX460 verbraucht so um die 120-140Watt max mit einer TDP von 160Watt, zusätliche ALUs kosten so gut wie nichts in sachen Verbrauch ;)

mit etwas selektion ist es auf jeden fall möglich ;)

Gast
2010-09-03, 11:29:12
Man released eine MGPU-Karte nur wenn man sicher ist damit auch die Leistungskrone zu erreichen und diese auch eine absehbare Zeit zu behalten und das kann man mit GF104 nicht sicherstellen. Nächste Frage was passiert im Single-GPU HighEnd-Bereich? Eine GF100 512SP wird es nicht richten können schon garnicht mit nochmals erhöhten Takt. Wohin das führt hat ja schon der Test eines vollen GF100 gezeigt, auch wenn es sich dabei sicherlich um ein ES-Sample handelte und der Stromverbrauch deshalb überproportional hoch war.

Gast
2010-09-03, 11:29:21
schon zwei GTX460 schlagen eine 5970 und sind nahe an den 5970 4GB karten...


Das ist Blödsinn und das weißt du auch. Eine GTX460 schlägt nicht mal eine 5850 und die 5970 hat vollwertige GPUs, jede GPU ist also schneller als eine 5850.

Wenn du jetzt den xbitlabs Test verlinkst kann ich dir gleich sagen dass das unfair ist da zwei Karten doppelt so viele Lanes zur Verfügung haben was bei Multi-GPU einiges bringt.

Dural
2010-09-03, 11:34:31
kann man jetzt sehen wie man will, SLI skaliert halt nach wie vor besser als CF gerade in den neuen Games und da nützt die theoretische mehr leistung rein gar nichts und deswegen dürften die zwei GTX460 auch schneller sein

Das 2x16lans im durchschnitt merklich schneller sind als 2x8lans halte ich für ein gerücht, beweis?

Gast
2010-09-03, 11:34:35
Ein voller GF104 verbraucht aber auch einiges mehr an Strom. Ich glaube nicht das es möglich ist mit 2 vollen GF104 unter 300W zu bleiben.

Dural
2010-09-03, 11:37:51
und das weist du weil du ein voller GF104 zuhause hast nicht war? ;)

und NEIN die SP brauchen kaum mehr strom, ist bei AMD und bei NV so! das hat AMD letztes jahr sogar selber gesagt!

Der grund ist ganz einfach, den laut AMD werden die deaktivirten SP nicht komplett vom strom getrennt. der effekt sieht man ja auch ganz gut an karten wie die 5830 usw.

aber interessant das die leute die ganze zeit auf die tollen selektierten GPUs auf der 5970 rum reiten nur weil das AMD zum ersten mal gemacht hat... NV hat ihre GPUs für die GX2 schon immer selektiert egal ob 7950GX2, 9800GX2 oder GTX295 ;)

Gast
2010-09-03, 11:52:58
Naja man wird sehen, aber du scheinst mir da doch etwas zu optimistisch zu sein. Ich jedenfalls glaube weder an eine GTX485 (GF100 512SP) noch an eine GTX490 (GF104x2). Natürlich kann es aber gut sein das ein Boardpartner solche Karten bringt, aber von NV selber erwarte ich dies nicht.

Ailuros
2010-09-03, 11:57:52
Ein voller GF104 verbraucht aber auch einiges mehr an Strom. Ich glaube nicht das es möglich ist mit 2 vollen GF104 unter 300W zu bleiben.

Deaktivierte cluster beinflussen minimal bis gar nicht den Stromverbrauch eines chips. Der Stromverbrauch variiert in solchen Faellen hauptsaechlich dank anderen Frequenzen und/oder anderer Speichermenge.

Wenn sich bei mGPU der Stromverbrauch so radikal erhoehen wuerde wie Du Dir vorstellst waeren alle solche Loesungen von beiden IHVs ziemlich problematisch. Wenn sich bei 2 chips/SKU der Stromverbrauch fast verdoppeln wuerde, dann muesste auch eine 5970 ueber stolze 360W herdonnern.


aber interessant das die leute die ganze zeit auf die tollen selektierten GPUs auf der 5970 rum reiten nur weil das AMD zum ersten mal gemacht hat... NV hat ihre GPUs für die GX2 schon immer selektiert egal ob 7950GX2, 9800GX2 oder GTX295 ;)


Beim GT200b waren die GTX285 chips handausgesucht. Diese hatte einen TDP von 204W trotz hoeherer Frequenz als die GTX260 mit andererseits 219W TDP. Von den letzteren enstand dann die GTX295 mit 289W TDP.

Gast
2010-09-03, 12:04:39
kann man jetzt sehen wie man will, SLI skaliert halt nach wie vor besser als CF gerade in den neuen Games und da nützt die theoretische mehr leistung rein gar nichts und deswegen dürften die zwei GTX460 auch schneller sein

Das war vielleicht vor zehn Jahren noch richtig, heute skalieren beiden im Schnitt annähernd gleich.


Das 2x16lans im durchschnitt merklich schneller sind als 2x8lans halte ich für ein gerücht, beweis?

Stell dich doch nicht blöd. Es gibt dutzende Tests im Netz wo eine Lynnfield-Plattform mit 2x8Lanes aber sowas von abloost gegen eine X58-Plattform mit 2x 16 Lanes. Nicht umsonst empfiehlt man für Multi-GPU dringend X58. Der Vergleich ist für die Katz und das weißt du auch.

Gast
2010-09-03, 12:19:13
Ein voller GF104 verbraucht aber auch einiges mehr an Strom. Ich glaube nicht das es möglich ist mit 2 vollen GF104 unter 300W zu bleiben.

Darf er ja auch. Er bietet ja auch mehr Features und die bessere Bildqualität.
Von dem besseren Softwaresupport und der allgemein besseren Kompatibilität mal ganz zu schweigen.

Black-Scorpion
2010-09-03, 17:17:14
Frei nach der Devise "Ich baue einen Schalter mehr ein und schon kann ich 50W mehr Verbraten". :confused:

Und nein, er darf es nicht.

Coda
2010-09-03, 17:28:53
Deaktivierte cluster beinflussen minimal bis gar nicht den Stromverbrauch eines chips.
Das kommt auf die Art der Deaktivierung an. Wenn man wirklich Power abklemmt, dann heizt auch nix mehr.

Gast
2010-09-03, 18:44:25
Das ist Blödsinn und das weißt du auch. Eine GTX460 schlägt nicht mal eine 5850 und die 5970 hat vollwertige GPUs, jede GPU ist also schneller als eine 5850.

Wenn du jetzt den xbitlabs Test verlinkst kann ich dir gleich sagen dass das unfair ist da zwei Karten doppelt so viele Lanes zur Verfügung haben was bei Multi-GPU einiges bringt.

Er schrieb zwei GTX460...

Das sagt glaub alles, Techpowerup SLI Benchmarks (bitte selbstr Cherry picken, gibt genug Benchmarks auf der Seite): http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_460_SLI/23.html
Eine 5970 kann man gleich einem GTX460 SLI sehen, da hat Dural recht.

Vollausbau GF104 als Dualkarte wird nur von einem GTX480 SLI geschlagen oder wenn der VRAM ausgeht .)

Gast
2010-09-03, 18:53:20
Eine 5970 kann man gleich einem GTX460 SLI sehen, da hat Dural recht.


Nein, kann man nicht, da wie der andere Gast schon oben erwähnt die halbierte Zahl an PCIe-Lanes ein klarer Nachteil ist der sich deutlich auswirkt. Auf gut Deutsch: 2x GTX460 SLi wird immer schneller sein als wenn man das ganze als Dual-GPU Karte baut. Deshalb ist ein solcher Vergleich für die 5970 ungerecht. Aber wir werden es eh bald sehen sofern eine GX2 überhaupt kommt.

davidzo
2010-09-03, 21:52:35
Das kommt auf die Art der Deaktivierung an. Wenn man wirklich Power abklemmt, dann heizt auch nix mehr.
voll abklemmen hieße auf layerebene zu operieren oder per laser rauszuschneiden, sowas ist nicht möglich.

deaktivierte teile ziehen immer noch etwas strom, jedoch weniger als die aktiven teile des chips trotz clock gating. allerdings erhöht sich damit nur der idle stromverbrauch, unter Last verbrauchen die deaktivierten Teile des chips natürlich nicht mehr, da sie immer noch nur däumchen drehen, also quasi permanent im idle bleiben.

Coda
2010-09-03, 21:59:53
Es gibt heutzutage Power-Gating mit großen Transistoren die dafür eingebaut werden, d.h. die Stromversorgung kann unterbrochen werden, wenn man den Chip darauf auslegt.

Das macht Intel ja sogar schon im Betrieb in den Deep-Sleep-Modes.