PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF11x - GeForce-500-Serie (Q4 2010 - Q2 2011)


Seiten : 1 2 3 [4] 5

ShinyMcShine
2011-01-25, 11:10:59
Wenn man sieht was für Werte sonst noch umherschwirren (von 950 über 1000 bis 1070 MHz), denke ich schon, dass da noch Potential vorhanden ist.

VG
Shiny

mironicus
2011-01-25, 11:12:11
Also die Gigabyte-Version bei Alternate ist 36% teurer, hat jedoch 43% mehr (theoretische) Leistung als das Vorgängermodell.

Und wieviel mehr Stromverbrauch...?

LovesuckZ
2011-01-25, 11:16:44
Und wieviel mehr Stromverbrauch...?

180 Watt zu 160 Watt. ;)

fondness
2011-01-25, 11:17:44
Cool Bro. Das hat zwar überhaupt nichts mit meinem Text zu tun (seit wann interessiert einem das mögliche OC-Ergebnis beim "Stock"-Vergleich?), aber wenigsten man kann negative Stimmung betreiben, gell?


Das passt exakt zu deinem Text, wenn du es nicht verstehst ist das nicht meine Schuld. Der zweiten Teil deines Textes vom Ober-Fanboy schlechthin zu hören kann wohl nur ein Scherz sein. Das waren nichts als Tatsachen, aber wenn du es nötig hast mich gleich persönlich anzumachen bitte. Immerhin habe ich positive Stimmung für die GTX460 gemacht, müsste dir doch gefallen. :D

Wenn man sieht was für Werte sonst noch umherschwirren (von 950 über 1000 bis 1070 MHz), denke ich schon, dass da noch Potential vorhanden ist.

VG
Shiny

Möglich, das wird man abwarten müssen. Interessant wird vorallem ob NV auch die Verbesserungen beim Culling wie bei GF110 eingebaut hat, das sollte dann auch mehr Leistung bei gleichen Takt/SIMD-Anzahl bringen.

LovesuckZ
2011-01-25, 11:24:36
Das passt exakt zu deinem Text, wenn du es nicht verstehst ist das nicht meine Schuld. Der zweiten Teil deines Textes vom Ober-Fanboy schlechthin zu hören kann wohl nur ein Scherz sein. Das waren nichts als Tatsachen. Aber immerhin habe ich positive Stimmung für die GTX460 gemacht, müsste dir doch gefallen. :D


Hä? Oben wurde gesagt, dass der Mehrpreis nicht in Relation zur Leistung stünde. Dein Text ist also sowas von sinnlos an der Stelle gewesen.

Aber wie man sieht: Sobald man die Wahrheit sagt, kommt das Trolling. :freak:

Dural
2011-01-25, 11:25:29
Wer sagt das man dann nicht mehr übertakten kann? Vorallem um +15% mit einer GTX560 zu erreichen bräuchtest du selbst bei perfekter Skalierung 950Mhz. Real wohl eher ein Ghz, je nach dem wie gut sich der VRAM mitübertakten lässt.



Weil die 6950 ein 200Watt limit hat und da kann man noch grosses OC vergessen, zudem die 880MHz für die meisten Cayman chips schon recht ortentlich ist, ich habe selber eine 6970 da und die macht stabil keine 920MHz !!!

Zudem es schon einige 6950 gab die nicht mal den 6970 takt mit gemacht haben (stabil!) AMD hat seit R600 / 80nm bis heute so gut wie keine Takt steigerung geschaft, wohl gemerkt schon der R600 lief mit 1300MHz+ (LN2), hab da sogar eine R600PRO @ XT die mit Wakü auf 1000MHz läuft!!! Es wird mal langsam zeit für was neues bei den roten, nur einheiten verkleinern und reinstopfen endet am schluss in einer sackgasse wie man schön am RV870 und RV970 sieht.


Die 560 braucht für die 15% um die 950MHz (Fermi skaliert exelent mitem Takt) und das dürfte wohl jede 560 machen so wie es derzeit ausschaut...

jetzt muss nur noch geklärt werden wie es zwischen den beiden Karten genau steht.

fondness
2011-01-25, 11:30:14
Hä? Oben wurde gesagt, dass der Mehrpreis nicht in Relation zur Leistung stünde.


Und ich habe deinen Text noch ergänzt, da du bedeutende Umstände ignoriert hast.

Aber wie man sieht: Sobald man die Wahrheit sagt, kommt das Trolling. :freak:

Sobald man dich auf deine beschränkte Sichtweise hinweist kommt das üblichen Fanboygequatsche und deine völlig absurden Verstrickungen auf irgend welche Belanglosigkeiten. Das ganze natürlich gepaart mit persönlichen Beleidigungen von Beginn an, wirklich lächerlich.

Screemer
2011-01-25, 11:37:15
Du hast von Freischalten zur HD 6970 geredet und das geht mit der HD 6950 1 GiB nicht.
gibts da schon belege für?

LovesuckZ
2011-01-25, 11:40:56
Und ich habe deinen Text noch ergänzt, da du bedeutende Umstände ignoriert hast.

Gucken wir mal:

Das es von Anfang an schon so viele alternative Kühldesigns am Start gibt, ist natürlich toll!

Allerdings finde ich den Mehrpreis gegenüber einer GTX 460 nicht so toll. Die Karte ist ja auch "nur" schneller und hat ansonsten keine neuen Features. Mehr Speicher wäre auch nicht verkehrt.

Für den Preis (230 Euro) und bei der Entscheidung zwischen GTX 560 und der 6950 würde ich jetzt immer noch die 6950 wählen.
Also die Gigabyte-Version bei Alternate ist 36% teurer, hat jedoch 43% mehr (theoretische) Leistung als das Vorgängermodell. Bietet also im Grunde ein besseres P/L-Verhältnis, wenn man bei Alternate.de kauft.

Und mit den 900Mhz bietet man sogar mehr @Stock als bei ihrem GTX460 Verkaufshit...

Du hast nichts beigetragen, weil niemand über OC oder sonstigen Eigenschaften gesprochen hat.


Sobald man dich auf deine beschränkte Sichtweise hinweist kommt das üblichen Fanboygequatsche und deine völlig absurden Verstrickungen auf irgend welche Belanglosigkeiten. Das ganze natürlich gepaart mit persönlichen Beleidigungen von Beginn am, wirklich arm.

Finde ich wiedermal erstaunlich. Denn dieser Text stammt nun wahrlich nicht von mir:

Der Punkt ist das man eine GTX460 ohne Mühe fast auf den selben Takt bringen kann. Bleiben nur noch die zwei zusätzlichen SIMDs. Ein GTX460-Käufer hat hier defintiv nichts falsch gemacht. Wie viel Potential eine 900Mhz GTX560 noch hat ist ungewiss, vermutlich nicht mehr viel.

Und du hast überhaupt keine Ahnung, wieviel Potential in GF114 steckt, wie sich die einzelnen Karten übertaktet lassen. Aber uns mitzuteilen, dass man die GTX460 auf "den selben takt bringen kann", dafür reicht wohl deine Zeit. Davon abgesehen kommt die Gigabyte-Version schon mit 900MHz. Die mit einer GTX460 zu erreichen ist fast unmöglich. Aber das, ist dann wohl ein "unbedeutender Umstand", der ignoriert werden kann.

Ich habe solche Postings von dir hier schon so oft gemeldet und es passiert nichts. Deshalb Troll woanders oder trage etwas bei.

Calypso
2011-01-25, 11:48:23
Ich habe solche Postings von dir hier schon so oft gemeldet und es passiert nichts. Deshalb Troll woanders oder trage etwas bei.


also warum ausgerechnet Du Postings von anderen meldest, das frag ich mich gerade echt... (vor allem wenn ich an die ganzen Postings in AMD Threads zurückdenke - der Name LovesuckZ brennt sich da schnell ins Gedächtnis ein...)



so, und nun noch ein paar Stunden warten, dann weiß man mehr...

fondness
2011-01-25, 11:51:56
Ich habe solche Postings von dir hier schon so oft gemeldet und es passiert nichts. Deshalb Troll woanders oder trage etwas bei.

Man passt sich eben dem Niveau an. Warum sollte ich sachlich bleiben wenn von dir gleich zu beginn eine Diffamierung kommt? Wenn eine solche Aussage zu einem Bann führen würde wärst du schon lange weg. Also freu dich darüber. Ansonsten, was sagst du mit deinem Beitrag jetzt aus? Nichts. Ja so war es und nichts daran war falsch. Im diesem Sinne, Friede Herr LovesuckZ. :)

Und noch schnell zur Klarstellung:


Aber uns mitzuteilen, dass man die GTX460 auf "den selben takt bringen kann", dafür reicht wohl deine Zeit.


Falsch zitiert: Ich sagte fast, aber das weißt du.


Davon abgesehen kommt die Gigabyte-Version schon mit 900MHz. Die mit einer GTX460 zu erreichen ist fast unmöglich.

Mit etwas mehr Spannung schaffen das die meisten.

[dzp]Viper
2011-01-25, 11:53:54
Streitet euch bitte per PN.. Danke!

fondness
2011-01-25, 11:56:49
Viper;8528214']Streitet euch bitte per PN.. Danke!

Keine Angst, ich schreibe nichts mehr dazu. Es ist mir nur unverständlich wie er deswegen so aufgehen kann.

LovesuckZ
2011-01-25, 12:03:01
Falsch zitiert: Ich sagte fast, aber das weißt du.
Mit etwas mehr Spannung schaffen das die meisten.


So ein Unsinn. 900Mhz sind für viele GTX460 selbst mit mehr Spannung nicht machbar. Und sollte eine mit mehr Spannung soweit gehen, verbraucht sie mehr als eine GTX470.

Die Gigabyte-Version kommt Standardmäßig mit 900Mhz. Das sind alleine schon 5,8% mehr Takt als die sinvolleren 850Mhz. Mit dem zusätzlichen SM sind es also 21% mehr Leistung bei 34% mehr Anschaffungskosten. Das bei 850Mhz der Stromverbrauch über den 900Mhz des GF114 liegt, macht das ganze zum Nullargument.

Das die GTX560 kaum die Leute ansprechen soll, die schon GTX460@850Mhz Versionen haben, ist für jeden ersichtlich.

Es ist schade, dass man in diesem Forum nicht mehr neutral über Dinge sprechen kann, weil man für jeden Furz dumm angemacht wird.

Undertaker
2011-01-25, 12:06:38
Bevor ich hier die Karten zücken muss, ein letzter Aufruf zur Mäßigung. :)

ShinyMcShine
2011-01-25, 12:08:29
Um wieder was zum in 3h stattfindenden Launch beizutragen:

HIER (http://www.alternate.de/html/summaryListing.html?navId=10780&searchCriteria=gtx560nv&concat=OR&tn=HARDWARE&l1=Grafikkarten&l2=PCIe-Karten+NVIDIA&l3=GeForce+GTX&description=NVIDIA%20GeForce%20GTX%20560%20Ti&baseId=) die GTX 560 Übersichtsseite eines populären Onlineshops. ;)

VG
Shiny

mironicus
2011-01-25, 12:13:59
Wie lange bleibt der Warenkorb bei Alternate eigentlich "aktiv"...? :D

ShinyMcShine
2011-01-25, 12:18:30
Keine Ahnung, ich klicke alle 30 Minuten auf "Warenkorb aktualisieren"... ;) Just to be safe!

Ich muss mich echt zurückhalten um nicht doch heute schon die MSI-Karte zu bestellen. Wenn ich den CB-Test in ca. 162 Minuten + Lesezeit gelesen habe, hoffe ich, dass die Karte noch drin ist... Mal schauen, was ich dann mache ("Zur Kasse gehen...")?

Eigentlich wollte ich noch warten mit dem Kauf! Argh!

VG
Shiny

Spasstiger
2011-01-25, 12:28:48
Bestell doch einfach, du kannst die Karte bei Nichtgefallen (;)) ja wieder innerhalb von zwei Wochen zurückschicken.

airbag
2011-01-25, 12:29:47
noch keine Leaks ?:| Wir haben doch nur noch 2,5h bis zum Launch.
edit:
Weitere Bilder der DirectCU2
http://www.xtremesystems.org/forums/showthread.php?p=4719384

Raver
2011-01-25, 12:37:19
Habe die MSI bestellt. :D

Und bevor sprüche kommen, du hast doch ne 460er hawk macht kein Sinn. Ich sehe das auch so wie Lovesuckz. Ab 850Mhz Core wurde die Sache bei den 460er doch zu heiß. Spekulliere auf die 1000MHz GPU.

[dzp]Viper
2011-01-25, 12:38:41
Da mein Geld von der Steuererklärung erst Ende Februar bzw. Anfang März kommt, muss ich mit dem Kauf eh warten. Mal schauen ob sie dann schon merklich im Preis gefallen sind :D

[dzp]Viper
2011-01-25, 12:39:39
Weitere Bilder der DirectCU2
http://www.xtremesystems.org/forums/showthread.php?p=4719384

Joar OC 1060 Mhz für GPU :eek::eek:

ShinyMcShine
2011-01-25, 12:42:22
Das wäre schon der zweite Wert wo es weit über 1GHz geht!
;)

Wie ist das mit dem zweiwöchigen Zurückschicken (noch nie gemacht). Kostet das was extra? Oder trägt der Händler die Kosten?

VG
Shiny

Edit: Bei der ASUS gehen die Stromstecker nach oben weg, und nicht nach hinten! Mag ja für den einen oder anderen relevant sein!

airbag
2011-01-25, 12:43:25
Das wäre schon der zweite Wert wo es weit über 1GHz geht!
;)

Wie ist das mit dem zweiwöchigen Zurückschicken (noch nie gemacht). Kostet das was extra? Oder trägt der Händler die Kosten?

VG
Shiny
In die AGB gucken. In der Regel trägt der Händler Produkten über 40Euro die Versandkosten.

[dzp]Viper
2011-01-25, 12:43:34
Das wäre schon der zweite Wert wo es weit über 1GHz geht!
Jup scheint so als wäre mit diesen besseren Kühlern die 1 GHz meist kein Problem. Das ist schon erstaunlich....
Bin auf weitere Reviews gespannt

kleeBa
2011-01-25, 12:45:54
Kann man jetzt schon abschätzen wie viel mehr (wenn überhaupt) Watt eine GTX 560 im Vergleich zu einer GTX 260 braucht?
Hab "nur" ein BenQ 450 Watt NT und will in der Hinsicht noch nicht aufrüsten.

airbag
2011-01-25, 12:48:13
Wird wohl ungefähr genauso viel schlucken, wie die HD5870. Also etwas merh als die 260

ShinyMcShine
2011-01-25, 12:50:43
GTX 260 @ 65nm (GT200) hat 182W TDP
GTX 260 @ 55nm (GT200b) hat 171W TDP

Fazit: GTX 560 holen! ;)

VG
Shiny

Ri*g*g*er
2011-01-25, 12:55:02
Hi all,

was meint Ihr:

Hab jetzt GTX 260 mit 216 Shadern und den Taktraten:

GPU - 700
Shader - 1400
Speicher - 1200

Display 24 Zoll - 1920 - 1200

würde ich bei einer GTX 560 Ti einen Leistungsschub bemerken können ?
oder muss man dafür höher gehen (GTX 570 etc.) ?

Was ich schade finde das die Print und Internetmedien nicht mal einen Upgradetest machen:

von 8800 GT/GTX
oder 260/280 GTX
etc.

auf die neuen Grafikkarten da würde man auch mal sehen was die Teile wirklich bringen.

Gruss
Ri*g*g*er

Spasstiger
2011-01-25, 12:57:23
Viper;8528339']Joar OC 1060 Mhz für GPU :eek::eek:
Wobei das 3D-Mark-Resultat nicht so prall ist. Bei den Game-Tests etwas schwächer als eine Radeon HD 6970 trotz 29% GPU-Übertaktung gegenüber der Referenz. Dementsprechend müsste die GTX 560 ohne Übertaktung in 3DMark 11 deutlich unter der HD 6950 liegen.

kleeBa
2011-01-25, 12:58:38
OK,steht dem ja nichts mehr im Wege,Tests um abzuschätzen wie viel mehr Leistung eine GTX 560 gegenüber meiner jetzigen Karte hat sind eigentlich überflüssig. :D
Liebäugle auch mit der MSI obwohl ich eine Kühllösung,die die warme Luft hinten aus dem Gehäuse bläst bevorzugen würde.

[dzp]Viper
2011-01-25, 12:58:40
Klar ist der Sprung bemerkbar. Bandbreite, Taktraten von GPU und Speicher, ... alles ist merklich erhöht.

Ich werde auch von einer GTX 275 auf die GTX 560 umsteigen...

Wobei das 3D-Mark-Resultat nicht so prall ist. Bei den Game-Tests etwas schwächer als eine Radeon HD 6970 trotz 29% GPU-Übertaktung gegenüber der Referenz. Dementsprechend müsste die GTX 560 ohne Übertaktung in 3DMark 11 deutlich unter der HD 6950 liegen.
3D Murks interessiert mich absolut Null.. sry die Werte da haben oftmals nicht wirklich viel mit der Spieleperformance zu tun.

ShinyMcShine
2011-01-25, 13:05:56
Den Sprung merkst Du! ;D

805 GFLOPs -> 1.263 GFLOPs
16.128 MPix/s -> 26.320 MPix/s
41.472 MTex/s -> 52.640 MTex/s
896 MB GDDR3 -> 1 GB GDDR5
111.888 MB/s -> 128.256 MB/s

GTX 260 vs. GTX 560

CB hat doch immer ziemlich viele (auch ältere) Grafikkarten in den Balkendiagrammen drin. Da hast Du dann schon einen Anhaltspunkt!

VG
Shiny

Ri*g*g*er
2011-01-25, 13:09:42
Viper;8528386']Klar ist der Sprung bemerkbar. Bandbreite, Taktraten von GPU und Speicher, ... alles ist merklich erhöht.
Ich werde auch von einer GTX 275 auf die GTX 560 umsteigen.

Also meine Bandbreite ist z.b. höher bei der GTX 260 dank breiterem SI

es unterscheiden sich die ROP´s

GTX 260
Rop´s 28 \ Speicher 896 \ Shader 216

GTX 560
32 \ Speicher 1024 \ Shader 384

die Texture Fillrate kann ich leider keinem bisherigem GPU-Z Screen
entlocken.

Klar liegen die Mhz für GPU/Speicher/Shader auch höher
aber wie weit wirkt sich das aus.
Anhand von GPU-Z Screens sehe ich keine weltbewegenden Unterschiede.

Mfg
Ri*g*g*er

[dzp]Viper
2011-01-25, 13:20:31
Auswirkungen? Die GTX 560 mit ca. 900 MHz GPU sollte in etwa 30-40% schneller sein als eine GTX 260....

Auf genaue Werte musst du noch warten. Das NDA fällt erst in 2 1/2 Stunden und dann wirds auch richtige Reviews geben.

Spasstiger
2011-01-25, 13:22:12
Aus dem Thread zur ASUS GeForce GTX 560 Ti DirectCU II TOP @ Xtremesystems ist inzwischen ein richtiges Review geworden:
http://www.xtremesystems.org/forums/showthread.php?p=4719384

Es wir die GeForce GTX 560 mit 820/1000 MHz gegen eine Radeon HD 5870 @ 850/1200 in 3DMark 11, 3D Mark Vantage, Crysis Warhead, Call of Juarez und Devil May Cry 4 gebencht. Überall außer in DMC4 hat die Radeon HD 5870 die Nase vorn. In DMC4 ist es ungefähr ein Gleichstand.

Crysis Warhead, DX10 Enthusiast, 1680x1050, 4xAA
---
HD 5870: 38,47 fps
GTX 560: 36,07 fps

Call of Juarez, DX10, 1680x1050, 4xAA
---
HD 5870: 47,3 fps
GTX 560: 41,3 fps

Devil May Cry 4, DX10 Super High, 1680x1050, 4xAA
---
HD 5870: 211,17/151,78/263,52/143,14 fps
GTX 560: 212,68/153,81/236,49/162,37 fps

3DMark Vantage Performance
---
HD 5870: 58,91/50,54 fps
GTX 560: 54,28/50,38 fps

3DMark 11 Performance
---
HD 5870: 22,02/20,78/24,82/10,19 fps
GTX 560: 17,88/18,44/23,74/11,45 fps

Ich hab die jeweils schnelleren Resultate fett markiert. Die HD 5870 ist hier im Schnitt um 6% schneller als die GTX 560.

Screemer
2011-01-25, 13:24:46
Viper;8528339']Joar OC 1060 Mhz für GPU :eek::eek:
gut, da bleib ich doch bei meiner 6950. bei 1060MHz oc ist die 5870@standard nicht genackt, dann muss ich mir auch keine sorgen machen preislich das falsche gekauft zu haben.

€dit: hab nicht bemerkt, dass die karten nur beim ersten 11er test mit 1060MHz lief. sonst lief sie wohl mit 820 und bei wh mit 850. muss ich doch noch warten bis ich aufatme oder fluche :)

dildo4u
2011-01-25, 13:28:18
gut, da bleib ich doch bei meiner 6950. bei 1060MHz oc ist die 5870@standard nicht genackt, dann muss ich mir auch keine sorgen machen preislich das falsche gekauft zu haben.
Die Benches sind mit 820 nicht mit 1060mhz.Nur 3DMark 11 wurde mit OC getestet.Die Karte wurde sogar untertaktet die hat normal 900mhz worst Review of all Time von einem AMD Lover.

Screemer
2011-01-25, 13:31:19
hatte ich bei der zweiten betrachtung auch bemerkt.

Spasstiger
2011-01-25, 13:33:24
Die Karte wurde sogar untertaktet die hat normal 900mhz worst Review of all Time von einem AMD Lover.
Er hat auch die Radeon untertaktet. Das Ziel: Ein Vergleich bei Referenztakt. Aber vielleicht sieht man das durch die grüne Brille nicht so gut. ;)

Btw.: http://www.sparkle.com.tw/product.asp?id=119

dildo4u
2011-01-25, 13:37:27
Er hat auch die Radeon untertaktet. Das Ziel: Ein Vergleich bei Referenztakt. Aber vielleicht sieht man das durch die grüne Brille nicht so gut. ;)
Niemand wird die 820mhz Version kaufen war das Selbe Spiel wie bei der GTX 460 auch dort holt sich fast jeder die Gigabyte OC.Auch hier wird es nich anders sein da die 900mhz Version kaum Aufpreis kostet und die Kühlung wohl wieder besser ist.

Spasstiger
2011-01-25, 13:42:22
@dildo4u: Du wirst dich wundern, wieviele Reviews bald auftauchen, die die GTX 560 mit Referenztakt testen. Aber wenn ein Xtremesystems-User das macht, dann kann das natürlich nur ein AMD-Lover sein. :freak:
Und dazu einer, der sich die teuerste Intel-Consumer-CPU kauft.

[dzp]Viper
2011-01-25, 13:43:19
Es wäre dem Thread sehr hilfreich wenn ihr eure "NV-AMD-Fanboy-Keulen-Todschlagargument" mal stecken lasst... danke ;)

dildo4u
2011-01-25, 13:45:09
@dildo4u: Du wirst dich wundern, wieviele Reviews bald auftauchen, die die GTX 560 mit Referenztakt testen.
Jo alle unbrauchbar wie bei der GTX 460 aber diesmal sind die ganzen OC Versionen schon lieferbar deshalb hoffe ich das einige 900mhz Version mit in den Reviews sind.

Spasstiger
2011-01-25, 13:51:20
Aber wenn man ab Werk übertaktete Radeons mittesten würde, hättest du wieder ein Problem, oder? Es gibt z.B. die Powercolor Radeon HD 6870 PCS+, ist in den Computerbase-Benchmarks um 4-5% schneller als die Referenzversion und ist sogar eine der günstigsten 6870er (ab 196€). Wäre ja deiner Theorie nach nur fair, die in Zukunft als 6870 mitzutesten.

LovesuckZ
2011-01-25, 13:52:41
Aus dem Thread zur ASUS GeForce GTX 560 Ti DirectCU II TOP @ Xtremesystems ist inzwischen ein richtiges Review geworden:
http://www.xtremesystems.org/forums/showthread.php?p=4719384

Es wir die GeForce GTX 560 mit 820/1000 MHz gegen eine Radeon HD 5870 @ 850/1200 in 3DMark 11, 3D Mark Vantage, Crysis Warhead, Call of Juarez und Devil May Cry 4 gebencht. Überall außer in DMC4 hat die Radeon HD 5870 die Nase vorn. In DMC4 ist es ungefähr ein Gleichstand.

Crysis Warhead, DX10 Enthusiast, 1680x1050, 4xAA
---
HD 5870: 38,47 fps
GTX 560: 36,07 fps

Call of Juarez, DX10, 1680x1050, 4xAA
---
HD 5870: 47,3 fps
GTX 560: 41,3 fps

Devil May Cry 4, DX10 Super High, 1680x1050, 4xAA
---
HD 5870: 211,17/151,78/263,52/143,14 fps
GTX 560: 212,68/153,81/236,49/162,37 fps

3DMark Vantage Performance
---
HD 5870: 58,91/50,54 fps
GTX 560: 54,28/50,38 fps

3DMark 11 Performance
---
HD 5870: 22,02/20,78/24,82/10,19 fps
GTX 560: 17,88/18,44/23,74/11,45 fps

Ich hab die jeweils schnelleren Resultate fett markiert. Die HD 5870 ist hier im Schnitt um 6% schneller als die GTX 560.

Sieht doch vollkommen in Ordnung aus. Wenn man überlegt, dass die Karte genauso viel Strom benötigt, ist es ein gutes Ergebnis. Und im Grunde liegt man damit auch nur leicht unter der 6950 - die schafft in Crysis z.B. auch nicht mehr als eine 5870.

airbag
2011-01-25, 13:54:22
Mit den 900Mhz wie sie die Gigabyte hat, ist Gleichstand.

Spasstiger
2011-01-25, 13:57:18
Jopp, evtl. hat die GTX 560 mit 900 MHz auch schon einen leichten Vorteil gegenüber der HD 5870. Entsprechendes gilt dann auch im Vergleich zur HD 6950 1 GiB.
Eine HD 6870 OC wie die Powercolor PCS+ ist von der HD 6950 übrigens auch nicht weit weg: http://www.computerbase.de/artikel/grafikkarten/2011/test-2-x-radeon-hd-6870/4/#abschnitt_benchmarks
In den nicht VRAM-beeinflußten Benchmarks sind es unter 10% Unterschied. Entsprechend fällt auch der Unterschied zwischen einer HD 6870 OC (200€) und einer GTX 560 OC (230€) aus.

y33H@
2011-01-25, 14:11:22
Ich hab schon bei GF104 gesagt, mit 384 ALUs @ 800 MHz ist man auf Höhe der HD 5870 und ich hatte Recht. Die HD 6950 ist etwas schneller.

igg
2011-01-25, 14:13:08
So wies aussieht könnte die Karte sogar Crysis in 1920x1200 füttern...

Spasstiger
2011-01-25, 14:13:51
Es scheinen eher 900 MHz für einen Gleichstand mit der HD 5870 nötig zu sein.

fondness
2011-01-25, 14:14:01
Ich hab schon bei GF104 gesagt, mit 384 ALUs @ 800 MHz ist man auf Höhe der HD 5870 und ich hatte Recht. Die HD 6950 ist etwas schneller.

Da zeigen die Benchs von Spasstiger aber selbst mit 820Mhz was anderes, eher 900Mhz. Die 6950 ist aber auch nur minimal schneller als eine 5870.

Spasstiger
2011-01-25, 14:15:16
Die 6950 ist in den Benches nur wegen dem größeren VRAM schneller als die HD 5870. Im Vergleich HD 5870 1 GiB vs. HD 6950 1 GiB gibt es vermutlich keinen klaren Sieger.
Auf jeden Fall sollte man auch die HD 6870 im Auge behalten, denn die könnte das Feld von unten aufmischen. Eine Powercolor Radeon HD 6870 PCS+ gibts für 200€ und scheint einer GTX 560 mit Referenztakt (derzeit gelistet ab 216€) fast ebenbürtig zu sein.

LovesuckZ
2011-01-25, 14:15:45
Es scheinen eher 900 MHz für einen Gleichstand mit der HD 5870 nötig zu sein.

Das ist abhängig von der Spieleauswahl. Nimmt man die DX11-Spieleauswahl von Computerbase aus dem Caymantest, reichen die 820Mhz um hier auf einen Gleichstand zu kommen.

Hugo78
2011-01-25, 14:20:32
Wurden die 2GB 5870 und die 1GB 560 auch mit gleichwertiger BQ getestet?
Nein? .. na dann kein Wunder das die 5870 ein paar Prozente vorn ist.

Auf in "hardware coded" Bugwellen, sollte man ohnehin verzichten.

y33H@
2011-01-25, 14:22:12
Die 6950 ist in den Benches nur wegen dem größeren VRAM schneller als die HD 5870. Auch eine 2G-5870 ist zB in den PCGH-Benches nicht schneller als die 1G. Also nein, zumindest hier liegt es nicht am VRAM.

fondness
2011-01-25, 14:27:23
Auch eine 2G-5870 ist zB in den PCGH-Benches nicht schneller als die 1G. Also nein, zumindest hier liegt es nicht am VRAM.

Die Benchs von euch sind wohl mehr TEX-lastig, deshalb liegt Cayman besser. Spasstiger geht wohl von CB-Ranking aus.

y33H@
2011-01-25, 14:35:26
Hat CB mal 1G/2G getestet?

Evil Ash
2011-01-25, 15:01:00
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/

urbi
2011-01-25, 15:03:14
~ mindestens 30% schneller als eine GTX 460 @ Stock. Nicht schlecht!

w0mbat
2011-01-25, 15:03:24
lecker, bis auch den last-verbrauch. zieht da mehr als eine hd5870 :(

ShinyMcShine
2011-01-25, 15:04:54
Der Kauf der MSI muss dann erstmal warten. Anscheinend ist die Lüftersteuerung wohl eher suboptimal (laut CB)...

VG
Shiny

TheBrother
2011-01-25, 15:06:33
...und sie taktet im Multi-Monitor Betrieb runter - sehr nett :)

Raff
2011-01-25, 15:07:30
Nicht mehr als andere Fermis auch.

MfG,
Raff

[dzp]Viper
2011-01-25, 15:08:03
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/
Wieder keine GTX 260 oder GTX 275 mit im Vergleich drin... die Karten die die meisten Leute im Rechner haben

Tolle Wurst CB :udown:

kleeBa
2011-01-25, 15:10:40
Der Kauf der MSI muss dann erstmal warten. Anscheinend ist die Lüftersteuerung wohl eher suboptimal (laut CB)...

VG
Shiny
Gleiches Fazit bei ht4u.net (http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index32.php) in Bezug auf auf den/die Lüfter(steuerung).
Schade,aber die wird es wohl nicht bei mir.

fondness
2011-01-25, 15:12:17
...und sie taktet im Multi-Monitor Betrieb runter - sehr nett :)

Nur bei exakt gleicher Auflösung und hz-Anzahl, wie die anderen Fermi-Karten auch.

airbag
2011-01-25, 15:14:33
Viper;8528736']Wieder keine GTX 260 oder GTX 275 mit im Vergleich drin... die Karten die die meisten Leute im Rechner haben

Tolle Wurst CB :udown:

ist doch egal. Es gibt ja HT4U

Evil Ash
2011-01-25, 15:16:16
Viper;8528736']Wieder keine GTX 260 oder GTX 275 mit im Vergleich drin... die Karten die die meisten Leute im Rechner haben

Tolle Wurst CB :udown:

Ja, sehr schade. Ich habe ja auch noch eine GTX 260. Mal schauen, wo es direkte Vergleiche gibt.

TheBrother
2011-01-25, 15:32:00
Nur bei exakt gleicher Auflösung und hz-Anzahl, wie die anderen Fermi-Karten auch.

Schade. Computerbase stellt das Alleinstellungsmerkmal raus.

Viper;8528736']Wieder keine GTX 260 oder GTX 275 mit im Vergleich drin... die Karten die die meisten Leute im Rechner haben

Tolle Wurst CB :udown:

ja und meine GeForce 4 ist auch nicht mehr dabei...:freak: :freak:

kleeBa
2011-01-25, 15:38:49
Ich glaub ich bestelle mir die GigaByte 560 OC.
Anscheinend gleicher Kühler wie bei der 460er Variante und soll da gut sein.
Wieder 2 Axiallüftern und kein Referenzdesign aber mir (fast :freak: ) auch egal.

w0mbat
2011-01-25, 15:40:38
würde ich nicht machen, wenn das referenzdesing besser ist.

kleeBa
2011-01-25, 15:46:25
Aber...der...Kaufdrang...wird...immer...stärker...

Sehe ich das richtig und Palit will eine GTX 560 mit 2GB (http://www.palit.biz/enews/event/worldwide/GTX560Ti/Palit-GTX560Ti_Newsletter-en.php) rausbringen?

ShinyMcShine
2011-01-25, 16:47:58
Krass wie die Preise bereits gefallen (http://www.alternate.de/html/product/Grafikkarte/GigaByte/GV-N560OC-1GI/807550/?showTecData=true#tabberBox) sind. Jetzt muss noch ein Review von der Karte her (GigaByte GV-N560OC-1GI)!

VG
Shiny

Samtener Untergrund
2011-01-25, 16:53:27
Hardwareluxx hat bereits einen Test mit OC-Karten draußen. Es ist zwar nicht genau das Modell bei, aber eine MSI (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17521-test-nvidia-geforce-gtx-560-ti.html?start=4) mit den Taktraten 880/1050/1760. Und die schnellere Gigabyte ist auch dabei mit 1000/1145/2000.

kleeBa
2011-01-25, 16:53:52
Hoppla,hier stand Unsinn.

dildo4u
2011-01-25, 16:58:32
Hoppla,hier stand Unsinn.
Die 1ghz Karte hat ein anderen Kühler.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17521.html?start=3

900mjhz
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/januar/zwei-uebertaktete-geforce-gtx-560-ti-von-gigabyte/

ShinyMcShine
2011-01-25, 17:13:35
Aufgrund der Temperaturen sollte man wohl wirklich eine Karte mit passivem Kühlkörper auf den SpaWa kaufen.

Die MSI N560GTX-Ti Twin Frozr II/OC fällt hier also schonmal raus.
Interessant wäre noch die GigaByte GV-N560OC-1GI (900MHz), Gainward GTX560 Ti Golden Sample (900MHz) und die ASUS ENGTX560 Ti DCII TOP/2DI (900MHz). Leider gibt es hiervon noch keine Tests und/oder Bilder welche die SpaWa bei abgenommenem Kühler zeigen.

Wenn jemand was findet bitte posten! Danke!

VG
Shiny

Edit: Gainward ebenfalls mit einer GeForce GTX 560 Ti Phantom 2GB! KLICK! (http://www.tcmagazine.com/tcm/news/hardware/34725/gainward-develops-four-geforce-gtx-560-ti-cards-one-has-2gb-memory)

Hugo78
2011-01-25, 17:48:13
Die Gigabyte hat welche.
- http://www.techspot.com/review/359-nvidia-geforce-gtx-560ti/page1.html
http://static.techspot.com/articles-info/359/images/Image_05S.jpg

kleeBa
2011-01-25, 17:52:39
Zumindest die dort abgebildete SO,bleibt die Frage ob die billigere OC auch welche hat.

Deinorius
2011-01-25, 17:58:13
Sogar in Österreich kriegt man die Gigabyte mit 900 MHz für 210 € (http://geizhals.at/a610466.html)??? O__O

Ich bin sooo froh, bis jetzt gewartet zu haben. X-D

Hugo78
2011-01-25, 17:59:03
@Sterni
Stimmt, aber Gigabyte hat auch bei ihrer kleinen 460 OC, die keine 160€ mehr kostet, welche drauf.
Und die läuft grad mal mit 715Mhz.

[dzp]Viper
2011-01-25, 17:59:11
Zumindest die dort abgebildete SO,bleibt die Frage ob die billigere OC auch welche hat.
Das auf dem Bild ist nicht die SO sondern die Standard Gigabyte GTX 560 Ti mit 822 MHz Core (nicht mal die OC noch die SOC-Version!)

kleeBa
2011-01-25, 18:01:47
OK,ich habe jetzt vom Kühler auf die SO geschlossen (siehe auch Post von dildo4u).
Wie verwirrend....

edit/
OK klar,im Text stehen ja auch die Taktraten einer Standard GTX 560 und somit ist das weder eine SO noch eine OC.
Lässt zumindest darauf hoffen das auch die OC passive Spannungswandler-Kühler verbaut hat.

[dzp]Viper
2011-01-25, 18:04:01
OK,ich habe jetzt vom Kühler auf die SO geschlossen (siehe auch Post von dildo4u).
Wie verwirrend....

Die OC und Standard-Gigabyte Karte haben den selben Kühler (wie es scheint).

Die SOC hat nochmal einen anderen.

kleeBa
2011-01-25, 18:19:27
Standard
http://www.imagebanana.com/view/hmrcojey/st.jpg

OC
http://www.imagebanana.com/code/lu8abyn7/oc.jpg

SO
http://www.imagebanana.com/code/08zqi2ba/so.jpg

Für mich sehen ja Standard und SO ähnlich aus während OC aus dem Rahmen fällt.
Na mal sehen wenn meine OC hier ankommt.

ShinyMcShine
2011-01-25, 18:37:30
Du hast die OC (900MHz) von GigaByte bestellt? Bitte dann posten, ob die OC auch die passiven Kühlkörper auf den SpaWa hat! Danke im Voraus! Diese Info ist momentan noch das Einzige, was mich von einer Bestellung abhält! ;D

VG
Shiny

Hugo78
2011-01-25, 22:14:40
So, warten auf GTX 560 hat sich erledingt und auch gelohnt.

Wann kommt die GTS 550?
Ich behaupte mal 15. März. (Bauchgefühl)

Wer bietet mehr, wer weniger? :D

ShinyMcShine
2011-01-26, 07:27:44
Gainward und Palit (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/januar/gainward-und-palit-bringen-gtx-560-ti-mit-2-gbyte/) bieten 2GiB Version der GTX 560 an.

VG
Shiny

Ailuros
2011-01-26, 07:30:27
Gainward und Palit (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/januar/gainward-und-palit-bringen-gtx-560-ti-mit-2-gbyte/) bieten 2GiB Version der GTX 560 an.

VG
Shiny

Na ich will hoffen dass die dort angegebenen 370 Euro nicht stimmen.

------------------------------------------------------------------------

Uebrigens zwar mehr oder weniger bekannt, aber ein paar Kleinigkeiten zu leakage transistors auf GF11x von Anand:

http://www.anandtech.com/show/4135/nvidias-geforce-gtx-560-ti-upsetting-the-250-market/2

For GF110 NVIDIA focused on better matching the types of transistors they used with what a block needed, allowing them to reduce leakage on parts of the chip that didn’t require such fast & leaky transistors. This meant not only replacing fast leaky transistors with slower, less leaky transistors in parts of the chip that didn’t require such fast transistors, but also introducing a 3rd mid-grade transistor that could bridge the gap between fast/slow transistors. With 3 speed grades of transistors, NVIDIA was able to get away with only using the leakiest transistors where they needed to, and could conserve power elsewhere.

GF110 wasn’t the only chip to see this kind of optimization however, and the rest of the GF11x line is getting the same treatment. GF114 is in a particularly interesting position since as a smaller GPU, its predecessor GF104 wasn’t as badly affected. Though we can’t speak with respect to enabling additional functional units, at the clockspeeds and voltages NVIDIA was targeting we did not have any issues with the stock voltage. In short while GF100 suffered notably from leakage, GF104 either didn’t suffer from it or did a good job of hiding it. For this reason GF114 doesn’t necessarily stand to gain the same benefit.

ShinyMcShine
2011-01-26, 08:01:01
Kann ich mir eigentlich auch nicht vorstellen, wenn man den preislichen Unterschied der HD 6950 bei 1 GiB und 2 GiB betrachtet! ;)

Und weil gestern ein paar Mal nach Vergleichen mit Grafikkarten von älteren Generationen gefragt wurde:
Bei Hartware.net (http://hartware.net/review_1236.html) gibt es Benchmarkdiagramme mit z.B. 8800 GT und GTX 260.

VG
Shiny (der immer noch nach Tests sucht, bei denen man eindeutig sehen kann, welche Custom-GTX 560er Karten passive Kühlung auf den SpaWa bieten :()

Ailuros
2011-01-26, 08:03:09
370 kann nicht stimmen. Wie dem auch sei ich persoenlich wuerde gerne =/<300 Euronen auf den Ladentisch legen fuer eine OC 560Ti 2GB. Vielleicht klappt es mit etwas Geduld.

mapel110
2011-01-26, 09:08:41
aber ein paar Kleinigkeiten zu leakage transistors auf GF11x von Anand:

Und wie sieht das im Vergleich zu ATI aus? Benutzt ATI auch mehrere Arten von Transistoren? oder sind diese nicht notwendig, weil ATI ja afaik keine Taktdomains hat?

Ailuros
2011-01-26, 09:22:16
Und wie sieht das im Vergleich zu ATI aus? Benutzt ATI auch mehrere Arten von Transistoren? oder sind diese nicht notwendig, weil ATI ja afaik keine Taktdomains hat?

Takt-domaine haben alle GPUs, nur eben kein hot-clocking von ALUs (sorry fuer die Haarspalterei); ich kann mir aber nicht vorstellen wieso hot-clocking hier relevant sein sollte. Brutal vereinfacht NV hat am Anfang (G80) etwas Handarbeit in die ALUs fuer hot-clocking gesetzt und seither wird das Resultat quasi kopiert und auf die neuen Architekturen bzw. Herstellungsprozess angepasst/weiterentwickelt.

For GF110 NVIDIA focused on better matching the types of transistors they used with what a block needed, allowing them to reduce leakage on parts of the chip that didn’t require such fast & leaky transistors. This meant not only replacing fast leaky transistors with slower, less leaky transistors in parts of the chip that didn’t require such fast transistors, but also introducing a 3rd mid-grade transistor that could bridge the gap between fast/slow transistors. With 3 speed grades of transistors, NVIDIA was able to get away with only using the leakiest transistors where they needed to, and could conserve power elsewhere.

Ich verstehe zwar dass "faster transistors" beim ersten Blick auf hot-clocking deuten koennte, aber liess mal das fettgedruckte nochmal durch.

Haette uebrigens NV die Zeit gehabt alle Transistoren zu ueberarbeiten haette sich vielleicht der Stromverbrauch noch weiter reduziert.

Ich weiss nicht wie AMD ihre Transistoren unter 40G angelegt hat, aber so oder so bis zu N-Chipkomplexitaet ist es offensichtlich auch kein besonderes Problem. Wenn es stimmt dass AMD anfangs vorhatte einen single high end chip unter 40G zu veroeffentlichen und dann irgendwo >1 Jahr vor der Veroeffentlichung auf Cypress zurueck-schraubte, ist der Grund eher offensichtlich.

Raver
2011-01-26, 09:46:11
(der immer noch nach Tests sucht, bei denen man eindeutig sehen kann, welche Custom-GTX 560er Karten passive Kühlung auf den SpaWa bieten :()

Suche ich auch, besonders die Gigabyte OC. Mitlerweile leider bei alternate vergriffen.

AnarchX
2011-01-26, 09:48:39
Zur Diskussion über die GTX 560 Ti bitte die vorhandenen Threads nutzen:
GeForce GTX 560 Ti: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=501571)
GeForce GTX 560 Ti lieferbar (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=501552)

Thema hier sind weitere unveröffentlichte Karten auf GF11x-Basis.

AnarchX
2011-01-26, 09:51:41
Uebrigens zwar mehr oder weniger bekannt, aber ein paar Kleinigkeiten zu leakage transistors auf GF11x von Anand:

http://www.anandtech.com/show/4135/nvidias-geforce-gtx-560-ti-upsetting-the-250-market/2

Da kann man wohl für GF117/116 >900MHz Referenztakt erwarten.

Ailuros
2011-01-26, 11:12:47
Da kann man wohl für GF117/116 >900MHz Referenztakt erwarten.

Koennte durchaus moeglich sein. Ich bin aber eher neugierig wie GF11x@28nm aussehen koennte.

AnarchX
2011-01-26, 12:49:50
Koennte durchaus moeglich sein. Ich bin aber eher neugierig wie GF11x@28nm aussehen koennte.

Also kann man wohl annehmen, das "GK100" noch mehr in Richtung HPC rückt und ein paar GF1xx@28nm zur Seite gestellt bekommt, für die übrigen Märkte.

Für 256-Bit >4,8Gbps braucht es wohl ein Pad mit >300mm², sodass ein "GF124" mit entsprechender Fläche wohl >=512SPs besitzen könnte.

LovesuckZ
2011-01-26, 14:08:56
Für 28nm wird es jedenfalls ein neues Back-End geben. Wenn sie dort genauso einen großen Schritt machen wie beim Front-End, könnte dies eine ziemlich große Überraschung werden.
Auch kann man sich fragen, ob sie die Geometrieleistung erhöhen werden oder auf dem Stand bleiben. Mit 2,060 Mrd Dreiecke/s unter Anwendung von Tessellation sind sie meilenweit der Zeit voraus. Eine "Pause" würde nicht im geringsten Schaden und die Wahrscheinlichkeit ist sehr hoch, dass AMD auch beim Nachfolger von Cayman nicht auf dem selben Niveau liegen wird.

AnarchX
2011-01-26, 14:14:24
Für 28nm wird es jedenfalls ein neues Back-End geben. Wenn sie dort genauso einen großen Schritt machen wie beim Front-End, könnte dies eine ziemlich große Überraschung werden.

Aber ob das gleich mit dem ersten Line-up an 28nm GPUs passieren wird, ist wohl etwas zweifelhaft.
Mit GF11x könnte man zeitnah eine vernünftige Architektur mit den Vorteilen von 28nm launchen.
Im zweiten Anlauf könnte man dann die Konzepte aus Kepler verarbeiten, sofern das überhaupt Sinn macht für Consumer-GPUs.

LovesuckZ
2011-01-26, 15:01:05
Aber ob das gleich mit dem ersten Line-up an 28nm GPUs passieren wird, ist wohl etwas zweifelhaft.
Mit GF11x könnte man zeitnah eine vernünftige Architektur mit den Vorteilen von 28nm launchen.
Im zweiten Anlauf könnte man dann die Konzepte aus Kepler verarbeiten, sofern das überhaupt Sinn macht für Consumer-GPUs.

Huh? Keplar wird für alle Bereiche verwendet werden. Wie stark sich diesmal High-End/HPC vom Midrange- unterscheiden wird, ist ungewiss. Aber nVidia weiß, dass sie auch bzgl. HPC immer auch mit dem HPC-Chip sofort auf die kleineren Fertigungsprozesse gehen müssen. Denn hier zählt vorallem Speed und dann erst Stromverbrauch. Denn Zeit bindet wesentlich mehr Ressourcen als der benötigte Strom.

Wahrscheinlich wird es die kleineren Ableger als erste 28nm Chips geben, um im Q4 für OEM Produkte zu haben. Aber mehr werden sie nicht shrinken.

Hugo
2011-01-26, 20:14:55
mein ihr GF11x wird auch in 28nm kommen? ist da nicht längst Kepler aufm Plan?

LovesuckZ
2011-01-26, 20:49:17
Maximal das Low-End bis GF106. Alles andere wird man mit Kepler bedienen. Macht auch mehr sinn, da nVidia unbedingt ein neues Back-End benötigt.

G A S T
2011-01-27, 03:41:23
Wann kommt die GTS 550?

Jawohl! Endlich einer der mal die richtige Frage stellt. (y)

Ich behaupte mal 15. März. (Bauchgefühl)

Wer bietet mehr, wer weniger? :D

Minimum 1. März - alles andere wäre sehr überraschend und daher ebenso unwarscheinlich. Noch ist ja nirgends was durchgesickert. Nichtmal die allseits beliebten "Phantombildchen"...

Betrachten wir mal die Möglichkeiten bei den Spezifikationen einer solchen Karte im einzig denkbaren Format - dem Vollausbau.

Gehen wir also davon aus, dass die GTS 550 auf einem neuen GF116-Chip basiert, wäre folgende Konfiguration +/- denkbar und vor allem sinnvoll;

Chiptakt: 900 MHz, Shadertakt: 1700 MHz;
6 Shader Cluster mit 288 SUs und 48 TMUs,
24 ROPs, 192-Bit-SI, 1536 MB GDDR5 @ 2100 MHz,
Verbrauch: deutlich < 150 Watt
Preis (langfristig): 100 €
Einstiegspreis: ~ 115-120 €

Es bleibt also durchaus noch spannend...

Ailuros
2011-01-27, 08:38:07
Maximal das Low-End bis GF106. Alles andere wird man mit Kepler bedienen. Macht auch mehr sinn, da nVidia unbedingt ein neues Back-End benötigt.

Unter TSMC 28nm kommen zuerst die LP/T3 SoCs, gefolgt von low end GF11x.

Ich hab zwar noch nichts ueber 28nm@TSMC hoeren koennen, aber oefters ist "no news = good news".

Es ist noch etwas zu frueh um zu wissen in welchem Stadium sich genau Kepler befindet. Irgendwo Mitte Mai 2009 hiess es hinter den Kulissen dass Fermi "fertig" ist. Wenn alles bei TSMC nach Plan gelaufen waere haetten sie auch noch bis Q3/4 zur Produktion geschafft.

Die Frage ist eher wenn sie mit Kepler "fertig" sind (man muss das "fertig" nur richtig interpretieren) fuer wann sie dann genau projezieren und ob sie AMD diesmal wieder den Vorsprung bei der Vorstellung ueberlassen wollen.

Ein 28nm Fermi koennte NV helfen vor AMD vorzustellen, sollte aber auch einen halbwegs gesunden zeitlichen Abstand zu Kepler haben. Auf jeden Fall ist auf einem neuem Prozess ein hypothetischer 28nm Fermi (hoehere Frequenzen eben) um zich Male leichter herzustellen als Kepler. Ueberhaupt wenn 28nm mal wieder nicht so laeuft wie es TSMC zu versprechen mag.

Eine "Pause" würde nicht im geringsten Schaden und die Wahrscheinlichkeit ist sehr hoch, dass AMD auch beim Nachfolger von Cayman nicht auf dem selben Niveau liegen wird.

Zwar OT, aber nein.

Samtener Untergrund
2011-01-27, 16:50:13
Ich erwarte noch eine Umbenennung der jetzigen GTX 460er-Modelle. nVidia wird kaum beide Chips, GF104 und 114 weiter bauen lassen. Und dann würde das Ti nämlich einen tieferen Sinn ergeben, eine normale GTX 560 1024MB, identisch zur bisherigen 460 mit abgeschaltetem Cluster, nur höher getaktet und eine GTX 560 768MB, ebenfalls nur höher getaktet.

LovesuckZ
2011-01-27, 16:57:56
Ein 28nm Fermi koennte NV helfen vor AMD vorzustellen, sollte aber auch einen halbwegs gesunden zeitlichen Abstand zu Kepler haben. Auf jeden Fall ist auf einem neuem Prozess ein hypothetischer 28nm Fermi (hoehere Frequenzen eben) um zich Male leichter herzustellen als Kepler. Ueberhaupt wenn 28nm mal wieder nicht so laeuft wie es TSMC zu versprechen mag.


nVidia's Problem mit 40nm war nicht nur die Schuld von TSMC.
nVidia hat ein vollkommen anderes Front-End und eine komplett neue Kommunikationsstruktur. Etwas, dass AMD selbst mit Cayman nichtmal ansatzsweise in Angriff genommen hat. Die Probleme von GF100 wären in ähnlicher Form auch bei einem problemloseren Prozess aufgetreten.

Die Frage lautet daher: Wird es bei der Umgestaltung des Back-Ends, und das müssen sie machen um auf die knapp 6DP Flops/watt zu kommen, ebenfalls zu solch einem Bruch kommen? Denn könnte es wieder Verzögerungen geben.

Außerdem sollte man erstmal abwarten, ob AMD überhaupt ihre Probleme ebenfalls in Angriff nehmen. Deren Architektur ist in Bezug auf Tessellation komplett am Ende. Es wird also interessant werden, was AMD und nVidia in Bezug auf ihre Schwächen unternehmen werden.

AnarchX
2011-01-27, 17:01:17
Verwende doch Shadercore oder Rechencluster, Back-End ist missdeutig und bezieht sich eher auf die ROPs. ;)

Ich erwarte noch eine Umbenennung der jetzigen GTX 460er-Modelle. nVidia wird kaum beide Chips, GF104 und 114 weiter bauen lassen. Und dann würde das Ti nämlich einen tieferen Sinn ergeben, eine normale GTX 560 1024MB, identisch zur bisherigen 460 mit abgeschaltetem Cluster, nur höher getaktet und eine GTX 560 768MB, ebenfalls nur höher getaktet.
Ob man wirklich noch eine 768MiB Karte 2011 bringt, ist imo etwas zweifelhaft.
Aber eine GTX 560 Non-Ti mit wohl möglich nur 1x 6-Pin, für eine bessere Kompatibilität und zur Begrenzung des OCings ;) wäre durchaus denkbar.
Im Endeffekt braucht es eine Karte knapp über der 6850 positioniert.

Gegen die HD 6770 sollte ein >900MHz GF116/GF117 passend positioniert sein. Mit diesem tritt man vielleicht auch gegen den ~120mm² Turks an oder eben eine GF108 mit mehr Takt und GDDR5.

LovesuckZ
2011-01-27, 17:03:41
Verwende doch Shadercore oder Rechencluster, Back-End ist missdeutig und bezieht sich eher auf die ROPs. ;)

Kann ich gerne machen.
Wobei, übernimmt bei Tegra2 der Pixelshader nicht die Aufgaben der ROPs? ;)

G A S T
2011-02-01, 23:00:05
Nvidia stellt GeForce GT 440 für Endkunden vor (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/februar/nvidia-stellt-geforce-gt-440-fuer-endkunden-vor/)

? ? ?

:uponder:

Warum das jetzt?
Ich befürchte das bedeutet nicht Gutes in Bezug auf die Abrundung der 500er-Serie nach unten.
Kommt die GTS 550 nun doch erst Ende März oder gar noch später?

Hugo78
2011-02-02, 00:29:07
Och, gibts die GT 440 nicht schon seit 6 Monaten im OEM Bereich?!
Eventuell ist die Freigabe für den Retailmarkt sogar ne Maßnahme um den Abverkauf der kleinen 400er zu beschleunigen... who knows.

Ailuros
2011-02-02, 08:55:54
Kann ich gerne machen.
Wobei, übernimmt bei Tegra2 der Pixelshader nicht die Aufgaben der ROPs? ;)

Zwar OT: aber auf jeden Fall nicht alle. Eine programmierbare blend Einheit ist nichts Neues in embedded designs und wenn kein blending vorgeht bekommst Du aus dem Ding noch eine zusaetzliche FLOP (MUL oder ADD je nach Fall). Das theoretische Maximum ist pro PS ALU auf T2 nicht auf 8 sondern auf 9 FLOPs/s, ist aber auch ziemlich Bloedsinn es zu vermarkten aus verstaendlichen Gruenden, ausser man agiert mit GPGPU was aber auch mit FP20 eine Sackgasse auf T2 ist.

Bei T3 gehen die ALUs dann sowieso in eine ganz andere Richtung; erstens USC ALUs (ergo FP32) und zweitens da triple gate oxide zur Verfuegung steht spricht gar nichts gegen hot-clocks (wobei der tradeoff dann auch heiheres leakage sein wird aber wohl kein Beinbruch).

Machen wir es einfacher: warum unterstuetzt Tegra2 nur 5xCSAA und kein multisampling? (gehoert alles in den Tegra Thread; ich wuerde vorschlagen falls es Dich interessiert dass wird dort darueber weitermachen).

nVidia's Problem mit 40nm war nicht nur die Schuld von TSMC.
nVidia hat ein vollkommen anderes Front-End und eine komplett neue Kommunikationsstruktur. Etwas, dass AMD selbst mit Cayman nichtmal ansatzsweise in Angriff genommen hat. Die Probleme von GF100 wären in ähnlicher Form auch bei einem problemloseren Prozess aufgetreten.

TSMC's 40G war auch fuer AMD nicht komplett problemlos. Bis Cayman in die Startloecher ging war AMD's binning zwar besser als bei GF100, aber weit entfernt von dem was man "ideal" nennen koennte egal was manche behaupten moegen.

Die Frage lautet daher: Wird es bei der Umgestaltung des Back-Ends, und das müssen sie machen um auf die knapp 6DP Flops/watt zu kommen, ebenfalls zu solch einem Bruch kommen? Denn könnte es wieder Verzögerungen geben.

Zwar anders zeitlich verteilt, aber schon bevor Fermi in die Startloecher ging arbeiteten die jeweiligen dedizierten teams parallel an Kepler und Maxwell.

Wie sie in Kepler auf ihr angegebenes Ziel kommen bleibt abzusehen, aber ich wuerde auch nicht versuchen irgendwelche Parallelen mit dem embedded Bereich ziehen. Schon gar nicht da momentan in T2 vector (oder VLiW damit keiner mit Haarspalterei hier meckert) ALUs hat und es beim naechsten Schlag auf "skalare" ALUs geht.

Ich sehe keinen besonderen Grund zur Verzoegerung von Kepler, wenn ich bedenke wie kompliziert Fermi war im Vergleich zu G80/GT200 und dieses auf Design Ebene schon voll fertig war in Q2 2009.

Wenn jetzt aber 28nm wieder bei zu hoher chip-Komplexitaet Probleme vorweissen sollte, dann ist es nicht besonders absurd daran zu denken dass NV vielleicht nicht wieder mit "leehren" Haenden gegenueber der Konkurrenz dastehen will. Ausser natuerlich sie haben ihre R&D Strategie geaendert und es ist nicht notwendig zuerst auf den top dog chip warten zu muessen wie es bisher der Fall war.

Außerdem sollte man erstmal abwarten, ob AMD überhaupt ihre Probleme ebenfalls in Angriff nehmen. Deren Architektur ist in Bezug auf Tessellation komplett am Ende. Es wird also interessant werden, was AMD und nVidia in Bezug auf ihre Schwächen unternehmen werden.

Insgesamt klingt mir aber eine bessere Tessellations-pipeline fuer AMD leichter IMHO, als der Kopfschmerz fuer NVIDIA eine sehr hohe Chip-komplexitaet auf einem neuen Prozess wieder unterzubringen. Eben aus dem Grund weil das erste eher Design-bedingt ist und das zweite nicht absolut in NV's Kontrolle sein wird wenn TSMC's 28nm nicht problemlos sein sollte. Es "sollte" zwar diesmal keine Probleme geben, aber nach 40G und der 32nm Stornierung sind jegliche Vorbehalte nicht unbedingt ungerechtfertigt. Es ist ja auch so dass NV zwischen NV30 und GF100 beim letzteren erst auf den neuesten Herstellungsprozess setzte und heutzutage gibt es wohl keinen anderen Ausweg mehr.

aylano
2011-02-10, 16:06:47
@AnarchX
Weißt du schon, ob die AFAIK GF119 native 48 Shader hat und somit eine kleinere Die oder wie die GF108 mit 96-Cores immer noch 114mm² hat, was ziemlich groß wäre.

AnarchX
2011-02-16, 14:25:55
Erste Andeutungen zur GTS/GTX 550: http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-39632-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Der 15. März könnte als Launch-Datum in Frage kommen und der Takt soll bei >900MHz liegen. Die 1GiB und das 192-Bit MC passen aber nicht ganz zusammen.

Hugo78
2011-02-16, 14:46:45
Ja 1,5GB VRam würd sich sicher auch im Retailmarkt gut verkaufen, nicht nur bei OEMs.

AnarchX
2011-02-16, 21:39:37
NVIDIA_DEV.1244.01 = "NVIDIA GeForce GTX 550 Ti"
http://vr-zone.com/articles/geforce-gtx-590-and-gtx-550-ti-surfaced-in-beta-drivers/11215.html

Sieht nach einer GF114-Device-ID aus, wenn auch VR-Zone auf GF116-400 tippt.

Spasstiger
2011-02-16, 21:45:32
Das Kürzel "GTX" am Anfang spricht auch meiner Meinung nach eher für einen GF114 als einen GF116. GF116 ist doch GTS-Stoff.

AnarchX
2011-02-16, 21:47:28
Das "Ti" wirkt nach Nvidias Erläuterung für das Kürzel auch etwas deplatziert. :|

Wohl möglich ist der Name nicht final. Aus der GTS 455 wurde auch die GTX 460 SE.

G A S T
2011-02-17, 11:48:41
Warum wirkt dieses Kürzel deplaziert?

Mich beschleicht nämlich langsam das Gefühl, dass das nicht die Karte wird, mit der wir an der Stelle ursprünglich gerechnet hatten.
Nachzuvollziehen ist es dieser Schritt, da NVidia Preis- und Leistungslücken schließen muss, weil die Abstände durch das neue AMD-Portfolio zu groß geworden sind.

NVIDIA_DEV.1244.01 = "NVIDIA GeForce GTX 550 Ti"

Soviel ist schon mal sicher, das wird garantiert nicht der erhoffte Launch des GF116.
Zum einen der Hinweis auf die Device ID, und zum anderen dann noch der Name GTX 550 Ti?
Egal ob der Name nun "final" ist oder nicht - eine solche vorläufige Bezeichnung vergibt man nicht an Karten mit 192-Bit SI und 240 Shadern...
Außerdem würde diese Bandbreite nicht ausreichen um den AMD-Karten Paroli zu bieten und die Gesamtleistung ist auch zu schwach.

Das kann im Minimalfall nur ein Neuaufguss der GTX 460 SE (256-Bit/288 Shader) auf GF114-Basis sein. Alles andere wäre ein sinnloses Unterfangen.

Der GF116 und damit eine GTS 550 ohne Ti in der Tradition GTS 250 + GTS 450 kommt wohl erst zu einem späteren Zeitpunkt oder vielleicht sogar überhaupt nicht mehr, wenn die 28nm-Chips tatsächlich bis Ende des Jahres verfügbar sein sollten.

AnarchX
2011-02-17, 14:47:41
Warum wirkt dieses Kürzel deplaziert?

Weil das Ti(tanium) der Assoziation diente, dass eine GraKa mit geringer Die-Size und PCB-Länge die Leistung der High-End-GPUs fast erreicht. Eben wie sich auch Titan als Metall verhält.

Eine weitere Ti-GPU wäre da etwas unverständlich, da die GTX 550 wohl ein gutes Stück unter der GTX 560 Ti platziert wird.

AnarchX
2011-02-17, 18:14:52
Noch ein paar diffuse Details zur GTX 550 Ti:
http://vr-zone.com/articles/nvidia-geforce-gtx-550-ti-to-launch-on-march-15/11229.html

According to leaked material, the new GeForce GTX 550 Ti will be (up to) about 35% faster than the AMD Radeon HD 5770 in DirectX 11, and about 20% faster in DirectX 10

Das schafft man wohl kaum mit 192SPs, es sei denn der Takt liegt bei >1GHz.
Und $200 sind viel zu teuer im Vergleich zu einer GTX 460 SE bzw. der 5770 als Konkurrenzkarte.

Hugo78
2011-02-17, 18:51:36
Sollte GF116 nicht 240-288 Cores bekommen?

Also 288 Cores @ 900Mhz wäre 460 Level.
Natürlich wären auch ein beschnittener GF114 mit 336 @ 675 Mhz, 460 Level... :D

AnarchX
2011-02-17, 18:56:28
Was will man wieder mit so einem gigantischen >200mm² Die.

Wenn dann brauch Nvidia etwas gegen die HD 5770 @ 166mm² bzw. HD 6670 @ 112mm² in kastrierter Form.

Hugo78
2011-02-17, 20:39:47
Hmm tja, was wäre denn wenn NV den Speicherkontoller auf die Sprünge helfen konnte.
Wenn man also nur ein 128Bit SI verwendet (nativ).

Gäbe es da Potential bei 240 Cores oder gar auch 288 Cores unter 200mm² zukommen?

Bei 240 Cores müsste man zwar immernoch 1Ghz bringen um die 5770 tatsächlich um 35% zuschlagen, aber ganz unrealistisch ist das ja nicht.

Spasstiger
2011-02-17, 21:35:42
Das Speicherinterface nimmt nicht viel Diefläche ein, sondern bestimmt im Wesentlichen nur den Verdrahtungsaufwand nach außen.

AnarchX
2011-02-19, 18:53:12
http://image20.it168.com/201102_500x375/481/207e3c0e5b592ce4.jpg

http://vga.it168.com/a2011/0217/1158/000001158360.shtml

Wohl keine beim Speicherinterface deaktivierte Version bzw. unterscheidet man nicht mehr. Bei der GTS 450 gab es noch drei verschiedene Versionen: http://www.computerbase.de/bildstrecke/30727/17/ (KA, KB und KC). Weshalb auch die Hersteller 192-Bit PCBs verbauen mussten. Vielleicht will das NV bei der GTX 550/GTS 550 ersparen.

Fragt sich ob die GPU vielleicht in der Lage ist Speicherkanäle mit unterschiedlicher Speichermenge zu verwalten, sodass man hier 4x 512MBit verbaut und 2x 1024MBit, sodass es 1GiB@192-Bit sind.

Aber mit den 192SPs@900MHz laut IT168 hat man imo trotzdem zu wenig GPU-Leistung für eine "GTX 550".

Hugo78
2011-02-20, 11:21:00
Wenn die Daten so korrekt sind, würde die 550 knapp unterhalb der 460 SE landen.

Na ja nicht grad der Hit, aber immernoch schneller als eine HD 6770 *g*.

Aber klar ist damit auch, dass hier zwischen GTX 550 Ti und GTX 560 Ti, noch eine "Non Ti" 560 kommen muss.
Der Ersatz für die 460 1GB, GF114 @ 336SPs.

Thunder99
2011-02-20, 11:34:49
Wenn es stimmt ist es schade, dass das Marketing bei nvidia die Namen so ausschlachtet und "missbraucht"

Nach meiner Meinung wäre es sehr viel sinnvoller, aber wahrscheinlich verkaufstechnisch nicht anregend genug für den "Media Markt" Käufer/nicht informierten Käufer, :

Low Cost = nichts
unteres Mainstream = G
Mainstream/oberes M = GT
Performace = GTS
High End = GTX

Wenn es der GF116 wird und er ebenso Taktreudig ist, sehen wir bestimmt Modelle mit 1Ghz + :freak:

VooDoo7mx
2011-02-23, 00:33:04
Aber mit den 192SPs@900MHz laut IT168 hat man imo trotzdem zu wenig GPU-Leistung für eine "GTX 550".

Mit 900MHz hätte man ja nur 15% mehr Leistung gegenüber einer einer GTS450, selbst mit einen 192Bit Speicherinterface dürfte man nicht wirklich an eine 5770/6770 rankommen.
Eine GTS 450 tut sich ja schon an einer 5750/6750 schwer. :ugly:
Wenn das Teil wirklich 20-30% schneller als eine 5770/6770 sein soll, muss das Ding weit mehr als 1GHz Takt haben wenn GF116 nur ein GF106RevB ist.
Oder es gibt vielleicht wirklich mehr Hardwareeinheiten, es gibt auch ältere Gerüchte im Netz wo eine GTS550 angeblich 240 Shadereinheiten haben soll.

G A S T
2011-02-24, 00:17:47
Mit 900MHz hätte man ja nur 15% mehr Leistung gegenüber einer einer GTS450, selbst mit einen 192Bit Speicherinterface dürfte man nicht wirklich an eine 5770/6770 rankommen.
Eine GTS 450 tut sich ja schon an einer 5750/6750 schwer. :ugly:
Wenn das Teil wirklich 20-30% schneller als eine 5770/6770 sein soll, muss das Ding weit mehr als 1GHz Takt haben wenn GF116 nur ein GF106RevB ist.
Oder es gibt vielleicht wirklich mehr Hardwareeinheiten, es gibt auch ältere Gerüchte im Netz wo eine GTS550 angeblich 240 Shadereinheiten haben soll.

Eben. Das kann und wird einfach nicht reichen. Deswegen schrub ich ja schon vor einer Weile;


Gehen wir also davon aus, dass die GTS 550 auf einem neuen GF116-Chip basiert, wäre folgende Konfiguration +/- denkbar und vor allem sinnvoll;

Chiptakt: 900 MHz, Shadertakt: 1700 MHz;
6 Shader Cluster mit 288 SUs und 48 TMUs,
24 ROPs, 192-Bit-SI, 1536 MB GDDR5 @ 2100 MHz,
Verbrauch: deutlich < 150 Watt
Preis (langfristig): 100 €
Einstiegspreis: ~ 115-120 €

Es bleibt also durchaus noch spannend...

Mal völlig abgesehen davon wie die Karte genau am Ende heißt und ob sie nun auf GF114 oder GF116 basiert - etwas großartig anderes kann Nvidia doch gar nicht bringen Angesichts der AMD-Konkurrenz.

Klar ist jetzt schon, dass die notwendigen Leistungssteigerung eben nicht nur mit gesteigerten Taktraten erreicht werden können.
Die GTS 450 mit 192 SU/ 128-Bit war nicht gerade der "Burner" - um es mal gelinde auszudrücken.
Es sind also definitiv mehr Shader notwendig. Die Zahl 240 wäre wirklich das absolute Minimum! Und auch Bezüglich der Bandbreite ist eigentlich klar, dass 128-Bit trotz schnellem GDDR5 eigentlich nicht ausreichen kann. Man muss sich mal überlegen auf welche absurden Taktraten man RAM hochpeitschen müsste um ein gutes Stück von den lächerlichen 57,7 GB/s von der GTS 450 (@Stock) weg zu bekommen.

So sparsam darf & muss man in dieser Preisklasse jedenfalls nicht mit dem SI sein. Bei der GTS 250 hat das Nvidia schon bewiesen.

G A S T
2011-02-26, 15:03:52
heise.de sagt
Chiptakt: 900MHz, Speichertakt: keine Angabe, Shadertakt: 1800MHz • Chip: GF116 • Speicherinterface: 128-bit • Stream-Prozessoren: 192 • Textureinheiten: 32 • Fertigung: 40nm • Maximaler Verbrauch: 110W • ...

Ein Shop aus Plauen;

http://www.n1shop.de/shop.php?mode=deep_link&partner=geizhals.at&id=966053

GEFORCEGTX550TI1GB
Grafik-Karte, intern, NVIDIA-Grafik GeForce GTX550 Ti, DirectX 11, 900 MHz Taktfrequenz, 1.024 MB Speicher, 4.100 MHz Speichertaktung, aktiv gekühlt, HDTV fähig, Schnittstellen: PCI-E, Anschlüsse: DUAL DVI, HDMI, Software Treiber & Utilities



Die Specs lassen allerdings sehr zu wünschen übrig.
Sieht eher nach einer GTS 450 mit höheren Taktraten aus. Labelt Nvidia also doch nur um?

Edit:
Muss wohl so sein. PNY führt nur eine einzige GTS 450 (http://www3.pny.com/GTS-450-1024MB-PCIe--P2932C447.aspx). Und die hat andere Spezifikationen... :usad:

Hugo78
2011-02-26, 16:20:01
Wenn die 900Mhz und 192 SPs stimmen, fragt sich wie VrZone auf 20-35% mehr Speed gegenüber einer 5770 (6770) kommt.
http://vr-zone.com/articles/nvidia-geforce-gtx-550-ti-to-launch-on-march-15/11229.html

AnarchX
2011-02-26, 17:42:35
Im Shop gibt es keine Infos über die Zahl der SPs.

Bei dem Preis sollte die Karte aber schneller sein als eine GTX 460 1G:
http://uk.insight.com/apps/productpresentation/index.php?src=wbg1&product_id=PNYOA07U1Y&utm_source=affiliate&utm_medium=feed&utm_campaign=webgains&src=wbg1&siteid=60210&cm_mmc=Feed-_-Affiliate-_-Webgains-_-60210
http://www.trusthardware.co.uk/products.asp?partno=GMGX55TN2H1IZPB#tab2
http://skinflint.co.uk/eu/a618236.html

Dural
2011-02-26, 18:47:29
was ist für euch wieder ein umlabeln?

meiner einnerung zufolge gab es bei NV bis heute nur eine einzige Retail Desktop Karte die einen anderen Namen bekamm, nämlich die 8800GT zu 9800GT! aber auch da hatte man auch andere Chip Revisonen... :rolleyes:

alle anderen Karten hatten immer kleine änderung in sachen takt und sonstigen kleinigkeiten! von umlabeln kann man da kaum sprechen, da ist AMD mittlerweilen viel schlimmer oder auch der OEM Markt...


Die GTX550 kommt mit einem GF116 @ 192SP @ 900MHz und das ergibt ca. ein plus von 15% zur GTS450 und nein mehr leistung ist für diese karte auch gar nicht nötig, für was auch... es wird so wie so noch eine GF114 karte mit 336SP oder sogar weniger kommen ;)

Raff
2011-02-26, 18:54:32
Fragwürdig ist das X. Warum nicht GTS 550? X = schnell. 550 = lahm. Wenigstens nicht MX oder sonstiger Kram, wenn sie schon das Ti wiederbelebt haben ... X-D

MfG,
Raff

LovesuckZ
2011-02-26, 18:55:23
Warum gibt es bei der GTS560 ein TI? Mein Gott, dass ist wieder künstliche Aufregung.

Raff
2011-02-26, 18:56:24
Es ist einfach nicht stringent.

MfG,
Raff

LovesuckZ
2011-02-26, 18:59:56
Hä? Es gibt zZ nur eine einzige Karte mit den Suffix TI - und die ist nichtmal die schnellste im Portfolio.

Dural
2011-02-26, 19:00:27
du gibst dir die antwort ja gleich selber: x = schnell, s = lahm

na welcher name lässt sich besser verkaufen? ;)

Raff
2011-02-26, 19:05:04
Hä? Es gibt zZ nur eine einzige Karte mit den Suffix TI - und die ist nichtmal die schnellste im Portfolio.

Richtig. Eben nicht stringent.

du gibst dir die antwort ja gleich selber: x = schnell, s = lahm

na welcher name lässt sich besser verkaufen? ;)

G, GT, GTS, GTX war in letzter Zeit eigentlich gut einzuordnen. Bis einschließlich zur GTS gab's solide Leistung, aber erst mit einer GTX ordentlich Bums zum Zocken. Nun folgt eine vermutlich 10-20 Prozent schnellere GTS 450 und nennt sich dann mal eben GTX 550. Ist das gut? Wo ist die Grenze, bei der das X zum Einsatz kommt? Andererseits ist das Spekulation. Eventuell ist sie ja auch 30 Prozent schneller ... man weiß es nicht.

MfG,
Raff

Hugo78
2011-02-26, 19:19:59
Also da die Zahlen, bis auf 1-2 Ausnahmen bisher immer ausreichten um den Speed einzuordnen, könnte NV auch ganz auf G/T/S/X verzichten.

Aber das klingt halt nicht so geil. Geforce 580 oder Geforce GTX 580.
"GTX" und Co. ist ein Marketingding, die Einordnung der Leistung kann der Kunde unabhänig davon über die Zahl erfahren.

G A S T
2011-02-26, 20:58:52
Wenn die 900Mhz und 192 SPs stimmen, fragt sich wie VrZone auf 20-35% mehr Speed gegenüber einer 5770 (6770) kommt.
http://vr-zone.com/articles/nvidia-geforce-gtx-550-ti-to-launch-on-march-15/11229.html

Meine Rede.

Aber ob nun "umgelabelt" oder nicht. Der Name für diese Karte ist ein tiefer Griff in die Kloschüssel.

Ab 116 € bekommt man von Gainward oder Gigabyte entsprechende GTS 450-Modelle. (http://www.heise.de/preisvergleich/?cat=gra16_512&sort=p&bpmax=&asuch=GTS%20450&v=e&plz=&dist=&filter=%20Liste%20aktualisieren%20&xf=1439_GTS+450~140_900~138_1000#xf_top)

Der einzige Unterschied ist, dass der Chip sich jetzt GF116 statt 106 schimpft. :uclap:

Nvidia, Nvidia... so macht man das nicht. :udown:

Edit:
@ Raff:
20 % ??? - nie im Leben!

Schauen wir mal wie viel sie für die neue Karte verlangen wollen.
Ich bezweifle stark, dass das ein gutes Angebot wird.

Hugo78
2011-02-26, 21:08:14
Ich sag nicht das die 192 SPs stimmen.
Und btw, aber wenn doch, na ja wenigstens hätte der GF116 mehr Takt und Bandbreite.
Die HD 6770 dagegen, entspricht 1:1 der HD 5770.

Wenn jetzt der GF116 wirklich nur ein, auf mehr Speed bei gleicher oder besserer Ausbeute, optimierter GF106 wäre, wäre das sogar logisch.
Man schlägt die "neue" HD 6770, Minimalziel erreicht.
Denn mit 900Mhz und eventuell nochmal 150-200Mhz OC potential, kommt man immer über die HD 6770.

Wobei natürlich das Speedloch zwischen 560 Ti und 550 Ti nicht ohne ist, und es dann nach einer "non Ti" 560 (336 SPs) und möglicherweise sogar nochmal einer "MX" (288 SPs) riecht.

Tarkin
2011-02-27, 18:44:41
man schlägt die 6/5770? wohl kaum ...

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest-3-x-nvidia-geforce-gts-450/5/#abschnitt_benchmarks

Hugo78
2011-02-27, 20:56:14
Dann zieht man ebend bei den Balken gleich.

Solang NV mit dem GF116 mehr OC Potential rausholt und eventuell eine noch bessere Ausbeute einfährt,
können sie die "neue" HD 6770 ja im Preis unterbieten.

In Sachen Lautstärke war die 450 ja schon ein Sahnestück, dass wird sich auch mit der 550 nicht ändern.

Und wenn alles so kommt, wird die GTX 550 das insgesamt bessere Paket und schlägt die 6770 dann doch. :tongue:

=Floi=
2011-02-27, 21:11:48
die 550er mit dem GF116 hat keine daseinsberechtigung. die 460er ist viel schneller und günstiger. der stromverbrauch des GF116 ist auch zu hoch.
Bei der 550GTX hätte man mehr erwarten können, aber hier ist einfach das preisgefüge kaputt.

dildo4u
2011-02-27, 21:15:23
die 550er mit dem GF116 hat keine daseinsberechtigung. die 460er ist viel schneller und günstiger. der stromverbrauch des GF116 ist auch zu hoch.

Sieht eher danach aus der die 550 das bessere Leistung/Watt Verhältniss hat gegenüber der 460,so sinnlos ist die imo nicht.Gibt viele die wollen keine Karte die 2X6 Pin braucht bzw sie wollen mit einem Wechsel nicht auch ein neues NT kaufen.

y33H@
2011-02-27, 21:16:23
Adapter?!

dildo4u
2011-02-27, 21:21:53
Adapter?!
Hatte ich auch schon öfter in der Kaufberatung vorgeschlagen,gab aber einige die trotzdem deswegen eine 6850 einer 460 vorziehen.

Tarkin
2011-02-27, 21:41:06
Dann zieht man ebend bei den Balken gleich.

Solang NV mit dem GF116 mehr OC Potential rausholt und eventuell eine noch bessere Ausbeute einfährt,
können sie die "neue" HD 6770 ja im Preis unterbieten.

In Sachen Lautstärke war die 450 ja schon ein Sahnestück, dass wird sich auch mit der 550 nicht ändern.

Und wenn alles so kommt, wird die GTX 550 das insgesamt bessere Paket und schlägt die 6770 dann doch. :tongue:

was rauchst du? das hätte ich auch gerne....

aktuell ist die 550 für > 150 Euro gelistet. 6/5770 gibts für < 100 Euro.

Eine 6870 mit +50% Performance bekommt man schon ab ca. 155 Euro.

So wie es momentan aussieht, ist nvidia LICHTJAHRE davon entfernt das "bessere Paket" anzubieten.

und bzgl Ausbeute... gf116 aka Geforce 550 GTX hat ca. 240mm2 - sage und schreibe 50% größer als Juniker (6/5770). Barts (6870) hat ca. 255mm2

"bessere Ausbeute" als bei Juniper (166mm2) möchte ich sehen :freak: Wenn nvidia eine 6/5770 im Preis unterbieten möchte, wünscht ich ihnen viel Glück dabei. Das wird NIE passieren - das gebietet die Logik. 1. Weil gf116 viel größer ist als Juniper und 2. weil nvidias Karten meist teurer sind als vergleichbar schnelle von AMDs.

Calypso
2011-02-27, 22:03:06
hat jemand den Artikel "gtx-550-ti-vs.-hd-6870-in-gut-zwei-wochen" bei Computerbase gelesen, bevor er wieder gelöscht wurde? Stand da etwas interessantes drin?

y33H@
2011-02-27, 22:09:10
Die ersten Preisangaben für Nvidias kommende GeForce GTX 550 Ti deuten darauf hin, dass sich die Grafikkarte in der gehobenen Mittelklasse und damit im Revier der Radeon HD 6870 von AMD einordnen wird. Der jüngste Preisrutsch letzterer ist ein weiteres Indiz für einen bevorstehenden Schlagabtausch in diesem Segment.Mehr gibt mein Feed nicht her.

AffenJack
2011-02-27, 22:15:20
hat jemand den Artikel "gtx-550-ti-vs.-hd-6870-in-gut-zwei-wochen" bei Computerbase gelesen, bevor er wieder gelöscht wurde? Stand da etwas interessantes drin?

Nicht dass ich wüsste, die News war eigentlich ziemlich schlecht. Es wurde die Leistung angenommen wie 6870 aufgrund des Preises und 192Sp mit den gemunkelten Taktraten wurden genannt. Das das auf keinen Fall hinkommt, da ist man nicht drauf gekommen.

Hugo78
2011-02-28, 00:03:09
aktuell ist die 550 für > 150 Euro gelistet. 6/5770 gibts für < 100 Euro.

Über den Preis kannst du dir in der Woche nach Release nochmal Gedanken machen.
Die 550 1G wird die 450 1G ersetzen, auch preislich und die 450 1G liegt aktuell bei 90€.

Und das Chipgröße kein Hindernis darstellt, hat schon die GTX 470 gezeigt, die war lange Zeit lang, deutlich günstiger als eine 5850.

Oder auch eine 460 bekommt man aktuell auch schon ab 117€.
http://geizhals.at/deutschland/a604806.html
Dabei dürfte ein GF104 gut doppelt soviel Fläche einnehmen im Vergleich zu Barts.

AnarchX
2011-02-28, 08:56:28
Dabei dürfte ein GF104 gut doppelt soviel Fläche einnehmen im Vergleich zu Barts.
~370 vs 250mm². Und die 768MB Version ist schon massiv Yield-optimiert mit ihren Deaktivierungen.

Hugo78
2011-02-28, 09:20:58
Bei der Fläche hatte ich auch Juniper im Hinterkopf mit seinen 166mm².
Ist aber auch egal ob jetzt 50% oder 100%, meine Kernaussage war, die Chipgröße hindert NV nicht daran günstig zusein.

Dafür gab es in der jünsten Vergangenheit ausreichend Beispiele.
Die GTS 450 1G ist genauso teuer wie ne HD 6750 (~90€), des Preis entspricht also dem Balkenverhältnis.

Und die 550 wird, sobald die Erstkäufer befriedigt sind, auch entsprechend ihrer Leistung positioniert werden, was dann ~100€ werden, nach Stand der Gerüchte.

Und Prerelease Preise irgendwelcher Onlineshops von denen man noch nie vorher was gehört hat, sind schlicht Werbung in eigener Sache für die Shops, das kennt man doch.

AnarchX
2011-02-28, 10:43:58
Und Prerelease Preise irgendwelcher Onlineshops von dennen man noch nie vorher was gehört hat, sind schlicht Werbung in eigener Sache für die Shops, das kennt doch.
Die Preise und Daten kommen wohl eher aus dem System eines Distributors und werden automatisch in den Shop eingepflegt.

Und diese Preisempfehlung nannte auch VR-Zone vor einiger Zeit. Aber zum Preis als auch zum Namen GTX 550 Ti passen 192SPs und 128-Bit nicht wirklich.

Hugo78
2011-02-28, 13:26:24
Es gab auch 450er die für 140-160€ gelistet waren (zb. Asus (http://geizhals.at/deutschland/?phist=568090&age=2000), PNY (http://geizhals.at/deutschland/?phist=568909&age=2000)), wobei kaum ein Model diesen Preis länger als eine Woche nach Release durchgehalten hat.
Die ersten waren ja schon nach den ersten 1-2 Tagen bei 115-120€ und z.Zeit ebend bei 90-100€.

Aber ja ich hoffe selber immernoch auf mindestens 240-288SPs @ 900Mhz, dann wäre die 550 ne eindeutige Sache und nicht nur so 10-15% schneller.

AnarchX
2011-02-28, 17:42:21
MSI "bestätigt" 192SPs und 1GiB@192-Bit :| : http://www.pcgameshardware.de/aid,813951/MSI-kuendigt-verdeckt-Geforce-GTX-550-Ti-an/Grafikkarte/News/

Vielleicht doch eine Bestückung mit verschiedenen Speicherchipgrößen möglich? Wobei 192SPs trotzdem zu wenig Leistungspotential bieten.

=Floi=
2011-02-28, 18:45:24
Sieht eher danach aus der die 550 das bessere Leistung/Watt Verhältniss hat gegenüber der 460,so sinnlos ist die imo nicht.Gibt viele die wollen keine Karte die 2X6 Pin braucht bzw sie wollen mit einem Wechsel nicht auch ein neues NT kaufen.


was nützt mir leistung pro watt, wenn ich für den gleichen preis die doppelte leistung bekomme?! :freak:

das problem am GF106 war der relativ hohe verbrauch für seine leistung. der GF104 bot da auf ganzer line mehr. (ähnlicher verbrauch, ähnlicher preis und doppelte leistung!)
bei den paar € mehr gibt es um den preis und dem hohen verbrauch keine daseinsberechtigung für den GF106.

VooDoo7mx
2011-02-28, 20:09:34
Sieht eher danach aus der die 550 das bessere Leistung/Watt Verhältniss hat gegenüber der 460,so sinnlos ist die imo nicht.Gibt viele die wollen keine Karte die 2X6 Pin braucht bzw sie wollen mit einem Wechsel nicht auch ein neues NT kaufen.

Ja und genau so eine Karte möchte ich haben. Nicht weil ich keine Adapter oder ähnliches habe, sondern weil ich einfach nicht mehr solche riesigen stromschluckenden Monsterkarten wie meine jetzige GTX260 haben möchte und nicht bei jeder Neuanschaffung son Batzen Geld ausgeben will.
Die 6850 wäre für mich die ideale Karte, deutlich schneller als meine jetzige GTX260, relativ genügsam was Stromverbrauch angeht und mit 140€ relativ Preisgünstig immerhin 60€ günstiger als eine GTX560.
Ich war schon kurz davor so eine Karte zu bestellen, hab es aber doch sein gelassen, da ich diese ganzen ATi Nachteile nicht haben will. Die nächst kleiner Karte wäre eine GTS 450, doch dieser Krüppel wäre schon wieder viel zu lahm und sogar deutlich langsamer als meine GTX260.

Ich hab gehofft das nVidia mit der 550er was ähnliches wie die 6850 bringt was Performance per Watt angeht oder eben nur leicht drüber liegt aber so wie es aussieht bringt nVidia nur eine weitere lahme Krüppelkarte die weder den Namen GTX noch 550 verdient.
Bei 10-15% Mehrperfomance gegenüber der GTS450 ist die Karte immer noch langsamer als eine 6770.
Und warum nVidia nicht wenigstens diesmal das volle Speicherinterface bringt ist mir auch schleierhaft.

Was ich auch nicht verstehe zwischen der GTX 550 Ti und GTX 560Ti wird so ein riesges Loch sein was den Leistungsunterschied angeht, das ist nicht mehr feierlich. GTX 560, 570 und 580 sind von der Leistung her genau dort wo man es bei ihren Namen erwarten kann.

So wie es aussieht muss ich doch die bittere Pille schlucken und mir eine GTX 560 Ti besorgen. Alles andere darunter ist für Spieler die einigermaßen Wert auf Bildqualität legen nicht wirklich praktikabel.

LovesuckZ
2011-02-28, 20:46:24
So wie es aussieht muss ich doch die bittere Pille schlucken und mir eine GTX 560 Ti besorgen. Alles andere darunter ist für Spieler die einigermaßen Wert auf Bildqualität legen nicht wirklich praktikabel.

Nunja - Bildqualität ist doch der Punkt, warum AMD so weitvorne liegt. Eine 6870 mit vernünftiger Filterung wäre eben deutlich näher an einer 550 whatever als einer GTX460. Aber das wird einfach immer ignoriert.

Knuddelbearli
2011-02-28, 21:11:56
und eine 480 die nicht soviel saufen würde wäre deutlich näher an der 5950

dean
2011-02-28, 21:55:42
Wie auch immer, tut was ihr nicht lassen könnt (oder aufgrund eurer Verträge nicht anderst könnt).

Mich würde vielmehr interiessieren, ob man diese pure (theoretische) Leistung auch in BQ umsetzen kann, sprich SLIAA oder CFAA (inkl. DX11). Andernfalls kommt dieser M-GPU-Müll für mich eh nicht in Frage.

Und wo mir gerade dabei sind: Peinlich, peinlich, für alle Firmen in diesem Métier. Seit Oktober 2009 (und dem bravoreusen Release der 5870) ist fast nix mehr passiert. Diese paar Prozent sind wirklich lächrlich. Schämt euch !!!

deLuxX`
2011-02-28, 22:04:03
Und wo mir gerade dabei sind: Peinlich, peinlich, für alle Firmen in diesem Métier. Seit Oktober 2009 (und dem bravoreusen Release der 5870) ist fast nix mehr passiert. Diese paar Prozent sind wirklich lächrlich. Schämt euch !!!
Die Schuld würde ich aber eher auf der Seite von TSMC suchen.

G A S T
2011-02-28, 22:06:34
Ich hab gehofft das nVidia mit der 550er was ähnliches wie die 6850 bringt was Performance per Watt angeht oder eben nur leicht drüber liegt aber so wie es aussieht bringt nVidia nur eine weitere lahme Krüppelkarte die weder den Namen GTX noch 550 verdient.
Bei 10-15% Mehrperfomance gegenüber der GTS450 ist die Karte immer noch langsamer als eine 6770.
Und warum nVidia nicht wenigstens diesmal das volle Speicherinterface bringt ist mir auch schleierhaft.

Glaub mir, das geht nicht nur dir so. Ich hatte die selbe Hoffnung bzw. eigentlich schon längst recht verfestigte Erwartungshaltung an NVidia.
Ich hoffte ja beim GF106 bereits auf solch eine ordentliche Karte zwischen Mainstream und Performance...
Und dann kam die große Lachnummer GTS 450, die jetzt als 550 auch noch zu allem Überdruss mit "GTX" & "Ti" vollkommen pervertiert wird.

Was ich auch nicht verstehe zwischen der GTX 550 Ti und GTX 560Ti wird so ein riesges Loch sein was den Leistungsunterschied angeht, das ist nicht mehr feierlich. GTX 560, 570 und 580 sind von der Leistung her genau dort wo man es bei ihren Namen erwarten kann.


Das Versteht - glaube ich - niemand. Völlig abstrus. Was will man da jetzt vor allem noch dazwischen quetschen? "GTX 555 Ti", GTX 560 Mx". :uconf3:

So wie es aussieht muss ich doch die bittere Pille schlucken und mir eine GTX 560 Ti besorgen. Alles andere darunter ist für Spieler die einigermaßen Wert auf Bildqualität legen nicht wirklich praktikabel.
Genau das würde ich an deiner Stelle aber nicht tun. Mangels Alternativen bleibe ich jetzt jedenfalls weiterhin bei meiner GTS 250. Alles andere andere wäre reine Geldverschwendung. In ein paar Monaten wird garantiert sowieso wieder 'ne neue Generation auf den Markt gerotzt (ob nun in 40nm oder 28nm).
Vll. ist da dann was "passendes" dabei.

Hugo78
2011-02-28, 22:14:04
In ein paar Monaten wird garantiert sowieso wieder 'ne neue Generation auf den Markt gerotzt (ob nun in 40nm oder 28nm).
Vll. ist da dann was "passendes" dabei.

Na ja, nach Lage der Dinge, wird 2011 ein ruhiges Jahr in 40nm.
Ich würd nicht drauf wetten.

dean
2011-02-28, 22:26:24
Die Schuld würde ich aber eher auf der Seite von TSMC suchen.


Klar, die Stornierung von 32nm hat AMD ganz schön getroffen. Aber trotzdem, das ist einfach peinlich. Auf beiden Seiten...

davidzo
2011-02-28, 23:16:26
Ja und genau so eine Karte möchte ich haben. Nicht weil ich keine Adapter oder ähnliches habe, sondern weil ich einfach nicht mehr solche riesigen stromschluckenden Monsterkarten wie meine jetzige GTX260 haben möchte und nicht bei jeder Neuanschaffung son Batzen Geld ausgeben will.

die gtx460 768 ist ebenfalls sehr effizient. bei mir habe ich ausgerechnet dass die gut 90% idlet und daher effizienter ist als eine 6850. Denn im idle verbraucht die 460 768 nur 14Watt, die 6850 aber 20.

Nunja - Bildqualität ist doch der Punkt, warum AMD so weitvorne liegt. Eine 6870 mit vernünftiger Filterung wäre eben deutlich näher an einer 550 whatever als einer GTX460. Aber das wird einfach immer ignoriert.
Du ignorierst dass die Filterung sehr gut ist, nur ein hardwarebug das Flimmern verursacht. Das hat also nichts mit weniger aufwändigen Berechnungen (Softwarebug) zutun. Wer weiß, vielleicht ist ATIs überschärfe Filterung mit der Flimmerneigung sogar rechenintensiver?


Genau das würde ich an deiner Stelle aber nicht tun. Mangels Alternativen bleibe ich jetzt jedenfalls weiterhin bei meiner GTS 250. Alles andere andere wäre reine Geldverschwendung. In ein paar Monaten wird garantiert sowieso wieder 'ne neue Generation auf den Markt gerotzt (ob nun in 40nm oder 28nm).
Vll. ist da dann was "passendes" dabei.

Schon bei der zweiten 40nm Generation sieht man dass da performance/watttechnisch nichts besseres bei rauskommt. Nvidia hat immerhin 10% wett machen können, welche allerdings durch die höheren taktraten wieder aufgefressen werden. AMD hat sich sogar verschlechtert.
Vor 2012 kommt da nichts besseres mehr.

=Floi=
2011-03-01, 00:00:49
was soll an der 560er schlecht sein? so eine gute karte kommt die nächsten 2 jahre nicht mehr zu dem preis. Die ist jeden € wert und was man heute mehr zahlt kann man morgen länger nutzen...

AnarchX
2011-03-02, 08:53:04
http://ht4u.net//news2/news_images//nvidia_geforce_gtx_550_spec.jpg

http://ht4u.net/news/23469_cebit_nvidia-vorabinformationen_zur_geforce_gtx_550_ti/

Tatsächlich 1GiB@192-Bit. :|

Aber hing GF106 wirklich so an der Bandbreite? 28% Leistung bei 14% mehr Tex/ALU-Leistung?

Hugo78
2011-03-02, 10:48:53
Das wäre wirklich seltsam, zumal es doch die Option gab die 450 gleich mit +50 % mehr Bandbreite in den Retailmarkt zuentlassen.
Die PCB Kosten hatte man ja so oder so.

Aber egal, wenn die "bis 28%" tatsächlich erreicht werden, ist es widererwarten doch ein guter Sprung.

AnarchX
2011-03-02, 11:23:56
Das wäre wirklich seltsam, zumal es doch die Option gab die 450 gleich mit +50 % mehr Bandbreite in den Retailmarkt zuentlassen.
Die PCB Kosten hatte man ja so oder so.

Die 2048MBit Chips gab es damals nicht. Da hätte man per Clamshell 8 Speicherchips verbauen müssen: 4 + 2x2.

Vielleicht sind die 1GiB nur Kosmetik und sinnvoll nutzen kann der Chip weiterhin nur 768MiB. ;)

Raff
2011-03-02, 11:27:59
Aber egal, wenn die "bis 28%" tatsächlich erreicht werden, ist es widererwarten doch ein guter Sprung.

Das Problem ist genau dieses kleine "bis". ;) Im Schnitt 15-20, aber bis zu 28 Prozent (Best-Case-Selektion) dürften realistisch sein.

MfG,
Raff

Hugo78
2011-03-02, 11:48:11
Die 2048MBit Chips gab es damals nicht. Da hätte man per Clamshell 8 Speicherchips verbauen müssen: 4 + 2x2.

Vielleicht sind die 1GiB nur Kosmetik und sinnvoll nutzen kann der Chip weiterhin nur 768MiB. ;)

Bahnhof?! :biggrin:
Jetzt noch mal für DAUs wie mich bitte.
Also im OEM gabs ja eine 450 mit 192bit SI und 1,5GB VRam, konnte die davon nur die Hälfte effektiv nutzen?! :confused:
http://www.nvidia.de/object/product-geforce-gts-450-oem-de.html

Ansonst halt das PCB der Retail 450 ... wäre ja 192bit fähig gewesen...
http://pics.computerbase.de/3/0/7/2/7/13.jpg

Das Problem ist genau dieses kleine "bis". ;) Im Schnitt 15-20, aber bis zu 28 Prozent (Best-Case-Selektion) dürften realistisch sein.

MfG,
Raff

Ja schon klar, aber immernoch besser als nur 10-15%, wovon man ja in den letzten Tagen ausgehen musste. :smile:

Ich hoffe aber das der Preis dennoch schnell auf unter 120€ fällt, nach den ersten zwei Wochen, grade mit Blick auf die doch sehr günstigen 460er wäre das der richtige Preis aktuell.

AnarchX
2011-03-02, 11:57:59
Bahnhof?! :biggrin:
Jetzt noch mal für DAUs wie mich bitte.
Also im OEM gabs ja eine 450 mit 192bit SI und 1,5GB VRam, konnte die davon nur die Hälfte effektiv nutzen?! :confused:
http://www.nvidia.de/object/product-geforce-gts-450-oem-de.html

Ansonst halt der PCB der Retail 450 ... wäre ja 192bit fähig gewesen...
http://pics.computerbase.de/3/0/7/2/7/13.jpg

Es ist die Frage wie man 1GiB an 192-Bit anbinden kann. Ich gehe von 4 Chips je 128MiB und 2 Chips je 256MiB aus. Letzere Chips gab es bei GTS 450 Launch noch nicht. Sodass man hier die 8x 128MiB, welche die GTS 450 schon verbaut hatte, als 4 + 2*2 (Clamshell) hätte verbauen müssen um 192-Bit zu erreichen. Bei der GTS 450 waren es 128-Bit mit je 2 zwei Chips pro 32-Bit Kanal (4*2).

Weiterhin stellt sich die Frage, wie die GPU damit umgehen kann, dass nun wohl zwei Speicherkanäle die doppelte Speichermenge besitzen. Deswegen die wage Vermutung, dass vielleicht nur 768MiB angesprochen werden können, während man die Karte mit 1GiB bewirbt.

Spasstiger
2011-03-02, 12:12:45
Das Problem ist genau dieses kleine "bis". ;)

MfG,
Raff
Die "bis"-Angaben erreichen 50%: http://ht4u.net//news2/news_images//nvidia_geforce_gtx_550_perf.jpg.
Die "28%" sind wohl als Mittelwert von diesen Benchmarks zu verstehen.

AnarchX
2011-03-02, 12:13:30
Die 28% beziehen sich auf die GTS 450 (ganz unten). Die Benchmarks vergleichen die 550 Ti mit der HD 5770.

Spasstiger
2011-03-02, 12:20:26
Ah, ok. Aber das wäre ja dann total verrückt, der Vorteil gegenüber der HD 5770 soll größer sein als gegenüber der GTS 450? Wo doch stets die HD 5770 schneller als die GTS 450 ist?

AnarchX
2011-03-02, 15:26:59
3DMark 11

GTS 450 P2100
GTX 550 Ti P2400
HD 5770 P P2600

http://vr-zone.com/articles/nvidia-geforce-gtx-550-ti-benchmark-leak-/11420.html

Das passt schon eher zu 192SPs @ 900/1800MHz.

Da wird wohL NV massiv selektiert haben bei den Benchmarks und für die 28% ein stark ROP-limitiertes Szenario gewählt haben. 32xCSAA?
Da wird wohl Kritik für diese "GeForce GTX" absehbar sein.

LovesuckZ
2011-03-02, 15:39:18
Da wird wohL NV massiv selektiert haben bei den Benchmarks und für die 28% ein stark ROP-limitiertes Szenario gewählt haben. 32xCSAA?
Da wird wohl Kritik für diese "GeForce GTX" absehbar sein.

Sie müssen doch garnicht "massiv" selektieren. Die Karte hat mehr ROPs und eine 70% höhrere Bandbreite, was sich vorallen beim Einsatz von AA auswirken wird. Das Performance Preset von 3DMark11 nutzt dagegen kein AA - hier benötigt man mehr Rohleistung in Form von Rechenleistung.

dildo4u
2011-03-02, 15:42:31
Sie müssen doch garnicht "massiv" selektieren. Die Karte hat mehr ROPs und eine 70% höhrere Bandbreite, was sich vorallen beim Einsatz von AA auswirken wird. Das Performance Preset von 3DMark11 nutzt dagegen kein AA - hier benötigt man mehr Rohleistung in Form von Rechenleistung.
Jup Epic Fail von Futuremark 4XAA wäre für das Standard Setting ein muss gewesen.

Hugo78
2011-03-02, 16:09:22
Es ist die Frage wie man 1GiB an 192-Bit anbinden kann. Ich gehe von 4 Chips je 128MiB und 2 Chips je 256MiB aus.

Ah ok. Habs gerafft *g* :redface:

Spasstiger
2011-03-02, 16:30:56
Schon die OC-Varianten der GTS 450 mit Taktraten jenseits der 900 MHz können der HD 5770 Paroli bieten. Ich gehe davon aus, dass die GTX 550 Ti sich mit der um 50% höheren Speicherbandbreite schon einen Vorsprung gegenüber der HD 5770 erarbeiten kann, sobald MSAA ins Spiel kommt.
Merkwürdig ist nur die Kombination von 1 GiB VRAM und einem 192-Bit-SI. Entweder stimmt die Angabe nicht oder NV geht hier einen sehr unorthodoxen Weg, bei dem die volle Speicherbandbreite nur einem Teil des Speichers zur Verfügung steht.

dildo4u
2011-03-03, 16:08:57
Nvidia aktiviert im GF116-Chip bei der GTX 550 Ti auch die letzte der drei vorhandenen ROP-Partitionen und ermöglicht so pro Takt 50 Prozent zusätzliche Speichertransfers und auch die für die Antialiasing-Leistung wichtigen Z- und Alpha-Blending-Durchsatzraten steigen durch die zusätzliche ROP-Partition. War man - wie auch wir - bislang davon ausgegangen, dass die Anzahl der Speicherchips fest an die aktiven ROPs gekoppelt ist, stellt sich dies nun als überholt heraus. Nvidia hat - ohne bislang Details zu nennen - die Kombination von 1,0 GiByte Videospeicher und 192 Bit Speicherbus bestätigt. Man habe mit den neuen Chips flexiblere Möglichkeiten, Speicherausbau und ROP-Partitionen zu kombineren und so auch mit drei 64-Bit-Partitionen vier bzw. acht GDDR-Chips anzusteuern.

http://www.pcgameshardware.de/aid,814284/Geforce-GTX-550-Ti-Nvidia-verraet-auf-der-Cebit-weitere-Details-Update/Grafikkarte/News/

Spasstiger
2011-03-03, 16:25:35
Ergo steht nicht für jeden Speicherbereich die volle Speicherbandbreite zur Verfügung.

=Floi=
2011-03-03, 16:30:38
http://www.pcgameshardware.de/aid,814284/Geforce-GTX-550-Ti-Nvidia-verraet-auf-der-Cebit-weitere-Details-Update/Grafikkarte/News/

dann müsste ja auch eine 580er mit 2 gb möglich sein :rolleyes::eek:

Spasstiger
2011-03-03, 16:40:22
dann müsste ja auch eine 580er mit 2 gb möglich sein :rolleyes::eek:
Würde wohl gehen. Der Zugriff auf die letzten 512 MiB wäre dann aber nur mit 128 Bit statt 384 Bit Datenbreite möglich. Bei der GTX 550 Ti sollten die ersten 768 MiB mit 192 Bit Datenbreite und die letzten 256 MiB mit 64 Bit Datenbreite erreichbar sein.

dildo4u
2011-03-03, 16:42:29
Würde wohl gehen. Der Zugriff auf die letzten 512 MiB wäre dann aber nur mit 128 Bit statt 384 Bit Datenbreite möglich.
Deshalb beschränkt man das wohl auf den Midrange Bereich,denke nicht das Enthusiasten in dem Segment sowas beschnittenes kaufen wollen.Im Midrange wird ja gerne mal mehr Speicher als "Daufang" genommen,dort achten wohl wenige drauf wie der angebunden ist.

Spasstiger
2011-03-03, 16:52:38
Deshalb beschränkt man das wohl auf den Midrange Bereich,denke nicht das Enthusiasten in dem Segment sowas beschnittenes kaufen wollen.
Vielleicht geht es auch erst ab dem GF116.
Schneller als eine GTX 580 1,5 GiB wäre so eine GTX 580 2 GiB ja trotzdem.
Ich bin mal auf die Benchmarks gespannt, wie stark die GTX 550 Ti in den Fällen einbricht, in denen eine GTX 460 768 MiB gegenüber einer GTX 460 1024 MiB deutlich Federn lassen muss.

Hugo78
2011-03-03, 18:40:12
Im Midrange wird ja gerne mal mehr Speicher als "Daufang" genommen,

Ja, und da hätte man doch einfach 1,5GB nehmen können, wie schon bei der OEM 450 und die 2GB Freigabe für die 560 gleich dazu, bisher hat ja nur Palit/Gainward eine 2GB 560 im Program ...

Spasstiger
2011-03-03, 18:49:37
1,5 GiB kosten mehr als 1 GiB. Die Billigkarten können nur deshalb mit massenhaft Speicher ausgestattet werden, weil man dort auch zu sehr billigem Speicher (z.B. DDR3) greifen kann. Die GTX 550 Ti dagegen kommt mit demselben GDDR5-Speicher wie eine GTX 580 daher.
Man nimmt 1 GiB statt 768 MiB, weil die 1 GiB eine wichtige psychologische Schwelle darstellen. Man ist dann eben im Gigabytebereich und nicht mehr im Megabytebereich. Die GTX 460 SE hat man ja auch mit 1 GiB und nicht mit 768 MiB ausgestattet, obwohl sie sich unterhalb der GTX 460 768 MiB ansiedelt.

Ich kann mir allerdings vorstellen, dass es OEM-Varianten der GTX 550 mit 1,5 GiB DDR3-Speicher geben wird.
Varianten mit weniger als 1 GiB scheinen dagegen allmählich aus der Mode zu kommen und das in allen Segmenten.

Hugo78
2011-03-03, 19:21:45
1,5 GiB kosten mehr als 1 GiB. Die Billigkarten können nur deshalb mit massenhaft Speicher ausgestattet werden, weil man dort auch zu sehr billigem Speicher (z.B. DDR3) greifen kann.

Na moment, bei der OEM der 450 gab es ja auch 1,5GB GDDR5.

Aber die 450 OEM war eh ganz komisch, hat sie doch nicht nur mehr, sondern auch schnelleren VRAM,
zusätzlich zum 50% breiterem SI und dafür aber weniger SPs mit etwas mehr Takt.
http://www.nvidia.de/object/product-geforce-gts-450-de.html
http://www.nvidia.de/object/product-geforce-gts-450-oem-de.html

Wenn beide Versionen (OEM / Retail) am ende den selben Speed haben, wäre es schon ein deutlicher Hinweis darauf, wie sehr die 450 (retail) an der Bandbreite hing.
Leider gibts dazu keine Benches...

Und man muss sich dann fragen, warum es die 450 als Retail nicht gleich mit breiterm SI gab, wenns bei der OEM soviel ausmacht (jetzt spekulativ betrachtet).
So hätte man die 5770 gepackt, statt nur die 5750.

Spasstiger
2011-03-03, 19:31:23
Aber die 450 OEM war eh ganz komisch, hat sie doch nicht nur mehr, sondern auch schnelleren VRAM,
zusätzlich zum 50% breiterem SI und dafür aber weniger SPs mit etwas mehr Takt.
http://www.nvidia.de/object/product-geforce-gts-450-de.html
http://www.nvidia.de/object/product-geforce-gts-450-oem-de.html
Es gibt aber auch die GeForce GT 555M mit 1,5 GiB DDR3: http://www.nvidia.de/object/product-geforce-gt-555m-de.html.
http://www.notebookcheck.com/NVIDIA-GeForce-GT-555M.41925.0.html

P.S.: Wenn man sich diese Variantenvielfalt anschaut, fragt man sich, warum NV nicht gleich frei konfigurierbare Grafiklösungen in Kooperation mit den Partnern anbietet. ;)

AnarchX
2011-03-03, 20:27:16
Würde wohl gehen. Der Zugriff auf die letzten 512 MiB wäre dann aber nur mit 128 Bit statt 384 Bit Datenbreite möglich. Bei der GTX 550 Ti sollten die ersten 768 MiB mit 192 Bit Datenbreite und die letzten 256 MiB mit 64 Bit Datenbreite erreichbar sein.

Wohl eher:
512MiB (4 Speicherchips) @ 128-Bit + 512MiB(2 Speicherchips) @ 64-Bit bei der GTX 550 Ti.

Alternativ wäre auch Clamshell möglich, aber 12 Speicherchips für eine solche Einsteigerkarte dürften die PCB-Kosten anheben.

Spasstiger
2011-03-03, 20:57:52
Wohl eher:
512MiB (4 Speicherchips) @ 128-Bit + 512MiB(2 Speicherchips) @ 64-Bit bei der GTX 550 Ti.
Man greift ja auf alle Speicherchips gleichzeitig zu, soweit möglich, ergo mit 192 Bit Datenbreite. D.h. auf jeden Speicherchip wird bei einem Schreibzugriff die gleiche Datenmenge geschrieben. Natürlich bleiben dabei von den zwei größeren Speicherchips jeweils 128 MiB übrig. Diese insgesamt 256 MiB können nur mit 64 Bit Datenbreite erreicht werden.
Es sind natürlich auch andere Zugriffsmuster denkbar, bei denen die Daten nicht gleichmäßig über alle Chips verteilt werden. Das hat aber den Nachteil, dass man nur selten die volle Speicherbandbreite erreicht.

Clamshell ändert am prinzipiellen Problem übrigens überhaupt nix. Es macht keinen Unterschied, ob man an einem 64-Bit-Speichercontroller vier Speicherchips zu je 1024 MiBit Größe mit je 16 Bit Datenbreite anbindet, oder ob man nur zwei Speicherchips zu je 2048 MiBit mit je 32 Bit Datenbreite nutzt. Und asymetrisches Clamshell ist nicht möglich. Clamshell macht ja nix anderes, als ein 32-Bit-Interface auf zwei Speicherchips mit je 16 Bit Datenbreite zu verteilen (ein 32-Bit-Chip wird dann als 16-Bit-Chip konfiguriert). Es können keine getrennten Zugriffe auf die im Clamshell verbundenen Chips erfolgen, nach außen wirken sie wie ein Chip.

=Floi=
2011-03-03, 21:24:51
mal wieder totaler oem mist und man kann och weniger solche karten kaufen und es verwirrt noch mehr. toll!

LovesuckZ
2011-03-08, 20:04:12
Laut nVidia wird der Preis der GTX550 TI bei ca. $150 liegen. Also wohl ca. 129€ bei uns.

Duplex
2011-03-08, 20:09:13
Das wäre Preislich aber hoch angesetzt

dargo
2011-03-09, 11:23:25
Ich wollte jetzt keinen extra Thread dafür aufmachen.

Wann wird es die nächste Generation bei NV geben? Ich finde die 500-er Serie sowas von langweilig wenn man schon eine GTX470/480 besitzt. Also wann ist wieder bei einer Single-GPU mit der doppelten Leistung einer GTX480/GTX580 zu rechnen?

Spasstiger
2011-03-09, 11:56:02
Also wann ist wieder bei einer Single-GPU mit der doppelten Leistung einer GTX480/GTX580 zu rechnen?
Erst 2012, da TSMC erst im dritten Quartal mit der 28-nm-Produktion startet und vom ersten Tapeout einer GPU bis zum Marktrelease oft ein halbes Jahr vergeht. Erst recht bei einem noch unbekannten Fertigungsprozess.

Undertaker
2011-03-09, 11:56:59
Das wird stark davon abhängen, ob sich ähnliche Probleme wie die TSMCs in 40nm auch bei 28nm erneut wiederholen. Wenn alles wie geplant läuft, ist der Prozess hoffentlich Anfang 2012 mit guten Yields auch bei komplexen Dies verfügbar. Dieses Jahr dürfte vorallem im High-End Bereich der Single-GPUs weitestgehend Stillstand herrschen.

dargo
2011-03-09, 12:06:47
Oh man... doch noch ein ganzes Jahr Stillstand? :usad:

Spasstiger
2011-03-09, 12:09:19
Bei den Anforderungen herrscht seit Crysis auch Stillstand, also kein Beinbruch. Wir brauchen erst eine DX11-Killerapp.

dargo
2011-03-09, 12:14:15
Nee, eigentlich hatte ich noch dieses Jahr auf eine Karte gehofft die genug Power für 3840x2160 4xMSAA hat. Und das müsste schon was @GTX470*2 sein. Natürlich dann auch am besten gleich mit 2GB Vram. Naja, dann muss ich halt länger warten.

Knuddelbearli
2011-03-09, 14:07:57
6990 ? ^^ aber bitte nur mit wakü

Raff
2011-03-09, 14:28:47
Eine GTX 580 OC mit 3 GiB läuft deiner GTX 470 schon sehr deutlich davon und macht beim Downsampeln richtig Spaß. =)

MfG,
Raff

dargo
2011-03-09, 15:52:07
Eine GTX 580 OC mit 3 GiB läuft deiner GTX 470 schon sehr deutlich davon und macht beim Downsampeln richtig Spaß. =)

Nee Raff. Da muss schon einiges mehr kommen. Eine GTX580 ist in etwa nur 50% schneller als die GTX470. Übertakten kann ich auch die GTX470, was ich auch tue. Wenn ich meine Graka verkaufe kann ich dafür ca. 130€ (wenn überhaupt) verlangen. Bedeutet 50% mehr Leistung für 270€ Aufpreis. Das ist imo zuviel. Außerdem möchte ich beim Wechsel die Leistung wenns geht immer verdoppeln. Für eine Verdoppelung wäre ich bereit 250€ auszugeben. Die GTX580 wäre für mich nur eine Option bei einem Aufpreis von max. 120€.

Raff
2011-03-09, 16:09:45
Hast schon Recht. Mir ist eine GTX 580 (OC) ebenfalls nicht schnell genug, bin eben Cypress-OC-verwöhnt :biggrin: – HD-6990-Leistung in einem Chip, das wäre soo gut. Ich werde der 580 aber vermutlich trotzdem eine Chance geben und sie möglichst weit prügeln. Um 950 MHz ist so eine Kiste angenehm schnell, wobei selbst die keinen Stich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8608108&postcount=3) gegen die hier thematisierte GTX 590 bzw. HD 6990 sieht.

MfG,
Raff

=Floi=
2011-03-09, 17:29:07
du vergleichst hier einen chip gegen SLI/CF
was soll der mist?

kauf dir hald zwei karten und gib ruh. ein wenig lächerlich, was du von dir gibst, weil du eigentlich kapiert haben solltest wie eine dual-gpu karte aufgebaut ist. zz gibt es keine schnelleren chips und wer mehr will, der muß eben zwei+x karten kaufen.

Schrotti
2011-03-09, 17:39:23
Das macht er hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8608108#post8608108) auch schon.

Interessiert es ihn? Nö.

Raff
2011-03-09, 17:40:11
Jungs, was habt ihr für ein Problem? :confused:

MfG,
Raff

Hugo78
2011-03-14, 13:49:38
*push*
Morgen, 15 Uhr, GTX 550 Ti Bench(mark)s?

Ja oder Ja?

AnarchX
2011-03-29, 16:48:37
GTX 560 Non-Ti: http://www.heise.de/newsticker/meldung/Nvidia-bringt-GeForce-GTX-560-ohne-Ti-1216760.html 336SPs 256-Bit mit >675MHz.

Launch soll Mitte April bis Anfang Mai geplant sein.

AnarchX
2011-04-20, 15:08:56
Eine GF110-basierende "GTX 560 Ti"?

NVIDIA_DEV.1080.01 = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.1081.01 = "NVIDIA GeForce GTX 570"
NVIDIA_DEV.1082.01 = "NVIDIA GeForce GTX 560 Ti"
NVIDIA_DEV.1086.01 = "NVIDIA GeForce GTX 570 "
NVIDIA_DEV.1088.01 = "NVIDIA GeForce GTX 590"
[...]
NVIDIA_DEV.1200.01 = "NVIDIA GeForce GTX 560 Ti "


Von der GTS 450 gibt es wohl auch Versionen mit GF116 GPU:

NVIDIA_DEV.0DC4.01 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DC5.01 = "NVIDIA GeForce GTS 450 "
NVIDIA_DEV.0DC6.01 = "NVIDIA GeForce GTS 450 "
[...]

NVIDIA_DEV.1244.01 = "NVIDIA GeForce GTX 550 Ti"
NVIDIA_DEV.1245.01 = "NVIDIA GeForce GTS 450 "

Hugo78
2011-04-20, 17:29:07
Eine 450 mit GF116 statt GF106 ist ja ok, ist ja quasi ne "non Ti" 550.
Aber ne 560 Ti mit GF110, klingt eher nach Resteverwertung und sollte man anderes nennen.

GTX 565 "ultra" :biggrin: ...
(416 cores @ 770 Mhz, 256bit SI, 1GB) mit Freischaltoption auf (beinah) GTX 570... wäre ok.

harzer_knaller
2011-04-20, 23:30:14
Das wär' nich nur okay, sondern für <220€ sogar recht cool.
Da wäre mir der Mehrverbrauch auch relativ egal. :D

LovesuckZ
2011-05-13, 09:29:20
Sneak Peak der GTX560:
http://www.youtube.com/watch?v=5EAtlMy6Dcg
http://www.geforce.com/#/News/articles/560-game-previews

AnarchX
2011-05-27, 11:30:59
Eine GF110-basierende "GTX 560 Ti"?

Wohl eine Medion/Aldi Version:

erstklassige Gaming Performance

MSI NVIDIA® GeForce® GTX560 DirectX® 11 Grafikkarte mit 1.280 MB DDR5 Speicher sowie digitalem HDMI-Audio-/Video und DVI-I-Ausgang

http://aldi.medion.com/md8891/at/?refPage=aldi

LovesuckZ
2011-05-27, 11:33:00
Hoffen wir, dass die normalen Treiber von nVidia funktionieren. Nicht wie bei den GT240 mit 9800gt, die nicht von den normalen Treibern unterstützt wurde...

Hugo78
2011-05-27, 15:06:17
Was wohl die Daten von dieser GF110 560er sind?
Ich würd ja mal spontan auf 416 SPs und ~ 760Mhz Takt tippen.

Dural
2011-05-27, 15:15:02
bei medion steht aber nirgends "Ti" :wink:

Hugo78
2011-05-27, 15:18:27
Oh ja, na dann totale Restverwertung.
352SPs @ 772Mhz.

Raff
2011-05-27, 15:22:34
Oder es ist schlicht und ergreifend ein (marketingfailiger) Vertipper. ;) Wenn nicht, dann ist das wohl gerade für Übertakter eine sehr interessante Grafikkarte.

MfG,
Raff

AnarchX
2011-05-27, 16:14:03
bei medion steht aber nirgends "Ti" :wink:
Der 270.61 ist nun schon ein paar Tage alt. ;)

AnarchX
2011-05-30, 11:34:58
GTX 560 Ti OEM:
http://www.geforce.com/#/Hardware/GPUs/geforce-gtx-560-ti-oem/specifications

352SPs @ 732MHz und 320-Bit @ 3,8Gbps

AnarchX
2011-06-22, 12:47:16
GTX 560 OEM:
http://www.geforce.com/#/Hardware/GPUs/geforce-gtx-560-oem/specifications

384SPs @ 552MHz und 320-Bit @ 3,2Gbps, ein 6-Pin.

Spasstiger
2011-06-22, 12:50:05
Die GTX 560 OEM sieht nach einer Energiesparvariante mit sattem OC-Potential aus. Könnte interessant werden, wenn die zu vernünftigen Preisen den Retail-Markt erreicht.

deekey777
2011-08-18, 18:17:19
NVIDIA GeForce 600 Series: 28nm, OEM-only Fermi Refresh? (http://www.brightsideofnews.com/news/2011/8/18/nvidia-geforce-600-series-28nm2c-oem-only-fermi-refresh.aspx)
According to our sources, the company will repeat the strategy from previous architectures (G80-G9x, GT200-GT21X) and introduce a limited number of die-shrunk Fermi-based parts which are to be used for process optimization.

As such, the low-numbered GeForce 600 parts will target OEM and SI vendors, but we expect some parts to appear in e-tail/retail as well, as the box-business (Add-In-Board Vendors) companies usually get their share of parts which are worth seeing in discrete end of business.
Warum sollte Nvidia das tun?
Andererseits warum nicht? Klar, das kostet Geld, aber so kann man andererseits die Zeit bis Mini-Keplers überwinden.

LovesuckZ
2011-08-18, 18:31:44
NVIDIA GeForce 600 Series: 28nm, OEM-only Fermi Refresh? (http://www.brightsideofnews.com/news/2011/8/18/nvidia-geforce-600-series-28nm2c-oem-only-fermi-refresh.aspx)

Warum sollte Nvidia das tun?
Andererseits warum nicht? Klar, das kostet Geld, aber so kann man andererseits die Zeit bis Mini-Keplers überwinden.

Ist das eine rhetorische Frage? :confused:

Das sind die Testchips, die man für Kepler und Co. als Versuchsobjekte verwendet. Und wenn man sie entsprechend als gut empfindet, wird man den ein oder anderen zum Ramping bringen, um sich die Designs für Herbst->Frühling im Notebookmarkt zu sichern.

Ich bezweifel, dass dort irgendwas dabei ist, dass größer als 150mm^2 ist.

boxleitnerb
2011-08-18, 19:01:25
Heißt dann Kepler GTX 700?

Spasstiger
2011-08-18, 19:02:53
Heißt dann Kepler GTX 700?
Möglich, die 300 hat man ja auch für OEM reserviert. /EDIT: Und die 100 ebenso.

LovesuckZ
2011-08-18, 19:03:52
Heißt dann Kepler GTX 700?

Hoffentlich. Dann hätte man wenigsten aus dem 40nm Debakel gelernt, wo man 40nm, Optimus, 10.1 etc. als GT2xx bezeichnet hat... :rolleyes:

Spasstiger
2011-08-18, 19:11:33
Dann hätte man wenigsten aus dem 40nm Debakel gelernt, wo man 40nm, Optimus, 10.1 etc. als GT2xx bezeichnet hat... :rolleyes:
Kann man so und so sehen. Im OEM-Bereich wurden die DX10.1-GPUs von NV als 300er-Serie verkauft. Außerdem gibts ja das Kürzel "GTX", um die wirklich interessanten Karten der neuen Generation zu kennzeichnen. OEM-Kram hat ja meist ein GT im Namen.
Rein vom Featureset her dürften auch GTX-600-Kepler gemeinsam GT-600-Fermis im Portfolio in Ordnung gehen. Architekturänderungen, die der Performance oder der Bildqualität dienen, kann man durch das Kürzel GTX statt GT würdigen.
Letztlich ist es dem Käufer ja egal, welche Architektur hinter seiner DX11-Grafikkarte steckt. Wer das volle Paket will, holt sich eine GTX, wem bewährte Standardkost reicht, nimmt die GT. Unbedarften PC-Usern sag ich inzwischen auch nur noch, dass sie auf das GTX achten sollen. Das ist ein halbwegs brauchbares Merkmal bei NV, wenn es darum geht, Gaming-Karten zu identifizieren.

boxleitnerb
2011-08-18, 19:19:48
Nur ein Buchstabe Unterschied? Ne, das wäre in meinen Augen "ungeschickt". Eine Geforce 4 MX wollen wir doch nicht nochmal haben - auch wenn die wohl größere Unterschiede zur Geforce 4 Ti aufwies als es GT600 zu Kepler tun wird.

LovesuckZ
2011-08-18, 19:20:51
Also die 40nm Chips wurden am Anfang als GT2xxx im Mobile-Markt verkauft, gleich mit den g92 Varianten, die noch in 55nm, mit DX10, ohne Optimus, hne neueren Videodekoder... daherkamen. Erst später hat man sie in GT3xx umbezeichnet.
Man hätte von anfang diesen Schritt gehen sollen. Selbst wenn sich nur die Fertigung ändert, ist Transparenz immer besser für den Kunden.

Ailuros
2011-08-19, 11:12:43
Ist das eine rhetorische Frage? :confused:

Das sind die Testchips, die man für Kepler und Co. als Versuchsobjekte verwendet. Und wenn man sie entsprechend als gut empfindet, wird man den ein oder anderen zum Ramping bringen, um sich die Designs für Herbst->Frühling im Notebookmarkt zu sichern.

Ich bezweifel, dass dort irgendwas dabei ist, dass größer als 150mm^2 ist.

Von dem was ich gehoert habe soll auch ein voller Fermi@28nm unter den Testchips gelegen haben, eben damit sie auch mit der hoechstmoeglichen Komplexitaet experimentieren konnten. Wird aber wohl nie das Tageslicht sehen.

-----------------------------------------------------------

Sonst: natuerlich wird es auch Fermi basierende 28nm chips geben. Das hat aber nichts mit Kepler zu tun.

Duplex
2011-08-19, 11:16:33
Wie groß wäre ein GF110 @28nm ?
Mit 300-350mm² könnte man den im Mainstream als GTX560 Nachfolger platzieren.

Ailuros
2011-08-19, 11:18:20
Wie groß wäre ein GF110 @28nm ?

Schaetzungsweise =/<350mm2 wenn sie nichts an den Frequenzen geaendert haben und es ein einfacher shrink war.

Duplex
2011-08-19, 11:29:53
Schaetzungsweise =/<350mm2 wenn sie nichts an den Frequenzen geaendert haben und es ein einfacher shrink war.
Das wäre doch ein guter Ersatz als GTX560 Nachfolger oder nicht?

Ailuros
2011-08-19, 11:40:27
Das wäre doch ein guter Ersatz als GTX560 Nachfolger oder nicht?

Und warum nicht gleich einen "halben" Kepler der auch ein paar Erweiterungen mit sich bringen wird? Einfaches Beispiel waere die hw megatexturing Unterstuetzung fuer Carmack's naechste engine. Waere eine Schande wenn es nur im high end unterstuetzt wird oder?

N0Thing
2011-08-19, 11:49:37
Einfaches Beispiel waere die hw megatexturing Unterstuetzung fuer Carmack's naechste engine.

Was kann man sich darunter vorstellen und wie könnte sich das im Vergleich zu zum GF100 auswirken?

LovesuckZ
2011-08-19, 11:51:35
ID ist so tot, niemand wird mehr irgendwelche Features einbauen, weil Carmack sie als überzeugend empfindet.

Ailuros
2011-08-19, 11:54:01
Was kann man sich darunter vorstellen und wie könnte sich das im Vergleich zu zum GF100 auswirken?

Dedizierte hw Unterstuetzung soll es fuers megatexturing sowohl in AMD's GCN (SI) als auch in Kepler geben. Wenn IHVs extra Logik fuer so etwas einbauen wird es wohl schon etwas bringen, wieviel keine Ahnung da ich nicht mal mit Sicherheit weiss was und wo genau implementiert wurde.

Gipsel
2011-08-19, 12:00:26
Dedizierte hw Unterstuetzung soll es fuers megatexturing sowohl in AMD's GCN (SI) als auch in Kepler geben. Wenn IHVs extra Logik fuer so etwas einbauen wird es wohl schon etwas bringen, wieviel keine Ahnung da ich nicht mal mit Sicherheit weiss was und wo genau implementiert wurde.
Ist höchstwahrscheinlich ein "Abfallprodukt" der Unterstützung virtuellen Speichers. Wie gut das ins OS bzw. DX/OGL integriert wird, ist allerdings auch noch so eine Frage.
Ansonsten ist das natürlich durchaus wünschenswert, unabhängig davon daß die Einzelperson John Carmack das überzeugend findet oder nicht. Andere wünschen sich das nämlich auch ;)

Ailuros
2011-08-19, 12:13:06
Andere wünschen sich das nämlich auch ;)

Im naechsten Post werden diese "anderen" aber genauso als "unwichtig" abgestempelt wie Carmack :D

Screemer
2011-08-19, 13:38:16
ich glaub lz ist auf gipsels ignore liste und er hats nicht gesehen ;)

Gipsel
2011-08-19, 13:42:47
ich glaub lz ist auf gipsels ignore liste und er hats nicht gesehen ;)
Eine Ignorelist ist für Mods recht kontraproduktiv. :rolleyes:

Und um meiner Aufgabe gerecht zu werden, muß ich erwähnen, daß man den Thread bitte besser von sowas frei hält. ;)