PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 6 7 8 9 10 [11]

aths
2010-10-14, 10:45:52
Wenn der 512bit bus stimmen sollte, dann ist wohl doch nicht ganz die eleganteste Loesung. Ihre Idee erstmal anstaendigere 8xMSAA Leistung aus einer zusaetzlichen Menge von ROPs zu schoepfen ist alles andere als ideal und wenn man X Bandbreite erreichen will auf GF110 waere ein 384bit mit schnellerem Speicher rundum besser gewesen.

Wie gesagt wenn es stimmt dann ist es eben NV's typische verschwenderische brute force Masche. Ganz nebenbei bei hypothetischen 2GB framebuffer koennen sie in extremen Faellen mit den 25% mehr Speicher auch noch ein bisschen dazupunkten.33 1/3 Prozent mehr Speicher.

Gast
2010-10-14, 12:56:10
Kommt dieses Jahr noch etwas flottes von Nvidia? GTX500-Serie? Ich will so langsam mal meine 4870 ersetzen, aber ATI bringt ja auch nur noch Gurken auf den Markt. Die HD5000 und GTX400 sind mir im Vergleich noch etwas zu langsam.

Gast
2010-10-14, 14:07:34
Damien's Geometrie-Tests:

http://www.behardware.com/articles/795-5/report-nvidia-geforce-gtx-460.html

Bei 3GPCs ist man dann wo genau hypothetisch? Etwas ueber der GTX465? Na gute Nacht fuer jegliche Tessellation-Benchmarks gegen die Konkurrenz. AMD macht einen kleinen Schritt vorwaerts was Tessellation betrifft und NV mit dem stark vermarkteten Tessellations-Zeug einen netten Schritt rueckwaerts?

Interessant finde ich vor allem das hier:

We are, however, quite some distance from the theoretical maximums of 4 triangles per cycle for the GF100 and 2 triangles per cycle for the GF104. Something is limiting them but we don’t exactly know what. We do know however that this limitation doesn’t exist on the GF100 Quadro derivatives

Also eine Software-Bremse für GeForces? Es deutet zumindest stark darauf hin, und diese könnte man ja noch lösen, falls die Konkurrenz überraschenderweise zu stark wird.

LovesuckZ
2010-10-14, 14:09:02
Nein, das ist gewollt. Genauso wie mit dem DP Durchsatz.

AnarchX
2010-10-14, 14:12:15
Carsten Spille meint wohl auch das GeForce-GF100 beim Geometrie-Durchsatz gegenüber Quadro-GF100 beschränkt wurde:

Now, compared to the professional Tesla and Quadro line-ups, the Geforce products based on the Fermi architecture are severly limited in real world applications not only in double precision throughput (which is cut in half two times, i.e. 1/8th throughput), the triangle performance is also somewhat limited for drawn triangles. That's obviously for reasons of product differentiation, mind you.

http://www.gpu-tech.org/content.php/138-GF100-vs.-Archmark-3-51-Triangles-per-clock

Da wäre Potential für GF110, wenn er Vollgas geben darf, sodass er mit weniger GPC auskommen könnte, bei gleicher Leistung.


Wenn denn ~450mm2 für 128 TMUs, 64 ROPs, 512SPs und 512-Bit stimmen sollte, wäre meine Vermutung 8 neue SMs (4x 16 SPs, 4x 4 TMUs) und 3 GPCs.

Fetza
2010-10-14, 14:17:05
Carsten Spille meint wohl auch das GeForce-GF100 beim Geometrie-Durchsatz gegenüber Quadro-GF100 beschränkt wurde:



http://www.gpu-tech.org/content.php/138-GF100-vs.-Archmark-3-51-Triangles-per-clock

Da wäre Potential für GF110, wenn er Vollgas geben darf, sodass er mit weniger GPC auskommen könnte, bei gleicher Leistung.

Soll das heißen, nvidia beschränkt mit absicht künstlich die performance ihrer consumerkarten in consumerrelevanten dingen (geometrie)?

AnarchX
2010-10-14, 14:20:51
Offensichtlich ja:

http://img409.imageshack.us/img409/1457/img0029675.png

http://www.behardware.com/articles/800-7/roundup-10-workstation-graphics-cards.html

Besonders kritisch sollte das nicht sein. Wie schon oben geschrieben, könnte das eher für einen reinen Consumer-Fermi interessant sein, um Transistoren zu sparen.

Bucklew
2010-10-14, 14:52:07
Soll das heißen, nvidia beschränkt mit absicht künstlich die performance ihrer consumerkarten in consumerrelevanten dingen (geometrie)?
Ja. Wobei dieses Geometriemaß nicht bei Consumersoftware auftritt.

=Floi=
2010-10-14, 15:03:54
auf der anderen seite bedeuten ein 512bit SI, 2gb GDDR5 und mehr ROPs auch mehr power bei den extreme settings und bei SLi.
Gerade da scheiterte es immer und warum soll man hier nicht mal nachlegen. wer dann den GDDR5 speicher übertaktet wird sicherlich noch erhebliche mehrleistung rauskitzeln können.

Betrifft 100% culled nicht "ingame" und die zwei oberen normales wireframe? (0 ahnung davon)

Wer weiß was NV noch alles eingebaut oder umgebaut hat. ~600mm² sind die grenze und alles was sich darin bewegt ist möglich. Vielleicht lagert man wieder das IO zeug in einen eigenen chip aus oder reduziert andere bereiche ein wenig. möglichkeiten gäbe es aber genug!
Mir als kunde ist vor allem wichtig, was hinten rauskommt. Da lesen sich 2gb vram 512bit SI und die anderen sachen ganz gut.
Nur halte ich es nicht für unmöglich! Ich sehe es eben einfach als sehr wichtig an alle bereiche mit einem chip abzudecken, weil es sich sonst nicht rechnet! Selbst intel macht larrabee spieletauglich!
Bei diesem thema haben wir einfach zwei verschiedene sichtweisen. NV hat auch in der vergangenheit gezeigt, zu was sie im stande sein können.

Gast
2010-10-14, 15:12:55
Soll das heißen, nvidia beschränkt mit absicht künstlich die performance ihrer consumerkarten in consumerrelevanten dingen (geometrie)?

Zitat c't 18/2010, S. 53 "Fermi für Profis"
Nvidia reguliert die Performence also klar über den Workstation-Treiber und läßt sich den Entwicklungsaufwand für diesen gut bezahlen...

Ailuros
2010-10-14, 15:29:04
auf der anderen seite bedeuten ein 512bit SI, 2gb GDDR5 und mehr ROPs auch mehr power bei den extreme settings und bei SLi.

Fuer NV's Massstaebe durchaus. Wenn man aber dann zu AMD rueberschielt und sieht was die mit nur 32ROPs und einem 256bit anrichten koennen, frage ich mich was der Stuss soll.

Gerade da scheiterte es immer und warum soll man hier nicht mal nachlegen. wer dann den GDDR5 speicher übertaktet wird sicherlich noch erhebliche mehrleistung rauskitzeln können.

Gilt fuer jegliche Loesung.


Wer weiß was NV noch alles eingebaut oder umgebaut hat. ~600mm² sind die grenze und alles was sich darin bewegt ist möglich. Vielleicht lagert man wieder das IO zeug in einen eigenen chip aus oder reduziert andere bereiche ein wenig. möglichkeiten gäbe es aber genug!

Was zum Henker soll IO hier noch retten? Oder besser hast Du ueberhaupt eine realistische Vorstellung wieso es nur beim G80 einen IO gab und aus was er genau bestand?

Selbst intel macht larrabee spieletauglich!

Falls der Satz nicht sarkastisch gemeint war nagel ihn Dir an die Wand dass selbst Deine Enkelkinder darueber kichern koennen.

Bei diesem thema haben wir einfach zwei verschiedene sichtweisen. NV hat auch in der vergangenheit gezeigt, zu was sie im stande sein können.

Aus den Socken reissen koennten Dich unter normalen Umstaenden sowohl bei ATI als auch bei NVIDIA Beispiele die man mit den Fingern einer Hand zaehlen koennte.

Zu was sie im Stand genau sind? Versuch einen sehr fetten Batzen an Arroganz; es hilft LOL.

AnarchX
2010-10-14, 15:33:46
Fuer NV's Massstaebe durchaus. Wenn man aber dann zu AMD rueberschielt und sieht was die mit nur 32ROPs und einem 256bit anrichten koennen, frage ich mich was der Stuss soll.

Wohl gemerkt 32 ROPs mit 128Z. Ein GF100 hat schon 384Z, unser hypothetischer GF110 512Z.

Aber wenn Nvidia wirklich 4 Quad-ROP in einen Cluster stecken sollte, dann kommt da wohl praktisch die Leistung von 12 GF100-ROPs heraus. Insofern könnte die praktische Leistung balanced sein.

Ailuros
2010-10-14, 17:00:06
Wohl gemerkt 32 ROPs mit 128Z. Ein GF100 hat schon 384Z, unser hypothetischer GF110 512Z.

Deshalb frag ich mich auch werum NV so brutal uebertreiben muss fuer bessere 8xMSAA Leistung oder eben andersrum was ATI hier genau anstellt.

AnarchX
2010-10-14, 17:07:59
Was am Ende heraus kommt ist eben leider nicht der Faktor ~3:
http://img177.imageshack.us/img177/6484/img0028403.gif (http://img177.imageshack.us/i/img0028403.gif/)
http://www.behardware.com/articles/787-7/report-nvidia-geforce-gtx-480-470.html (die 1. 480 ist die 470)

Vielleicht eine mögliche Baustelle für GK200.

Gast
2010-10-14, 17:13:00
nVidia's Z-Samples hängen ebenfalls an den SM. Es sind also nur 240 Z-Samples/Takt bei der GTX480.

AnarchX
2010-10-14, 17:14:45
nVidia's Z-Samples hängen ebenfalls an den SM. Es sind also nur 240 Z-Samples/Takt bei der GTX480.
Sicher? Spätestens bei MSAA sollte der Flaschenhals der 2 Pixel pro SM doch keine Rolle mehr spielen.

Fetza
2010-10-14, 19:38:28
Offensichtlich ja:

http://img409.imageshack.us/img409/1457/img0029675.png

http://www.behardware.com/articles/800-7/roundup-10-workstation-graphics-cards.html

Besonders kritisch sollte das nicht sein. Wie schon oben geschrieben, könnte das eher für einen reinen Consumer-Fermi interessant sein, um Transistoren zu sparen.
Ja. Wobei dieses Geometriemaß nicht bei Consumersoftware auftritt.
Zitat c't 18/2010, S. 53 "Fermi für Profis"

Naja, ok - aber selbst wenn, diese künstlichen beschneidungen - mal abgesehen von dem dp-kram - finde ich schlecht. Da hat man dann immer im hinterkopf, das die karte irgendwie künstlich ausgebremst wird.

AnarchX
2010-10-14, 20:01:18
GF104 mit 384SPs im Dezember?
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fdiy.pconline.com.cn%2Fguide%2Fscfx%2F1010%2F2237980_3.html
Fragt sich ob das nur (logische) Vermutungen des Autors sind.

Hugo78
2010-10-14, 21:53:27
Na wie schon mal jemand richtig bemerkt hatte, wenn auch nur 10% der bisher produzierten GF104 als Vollausbau funktionstüchtig wären,
dann sollte man bis jetzt doch ausreichend selektiert haben, um eine 468 / 475 zubringen.

AnarchX
2010-10-14, 23:39:19
Mal eine Spekulation, warum GF110 vielleicht 128 TMUs braucht.

Nvidia hat vor einiger Zeit davon gehört, vielleicht Ende 2008, dass AMD in einem kommenden Chip wieder FP16 auf voller Geschwindigkeit berechnen wird. Daraus folgte erstmal für GF104 und Co., dass diese auch FP16-Fullspeed brauchen. GF100s TMUs waren da aber schon fertig.

Etwas später in der Zeitlinie hörte Nvidia davon, dass AMD ihre Textureinheiten neben den FP16 deutlich überarbeitet und der Durchsatz steigt. Die Vermutung kam auf, dass AMD den Durchsatz von GF100 erreicht, der erheblich höher ist als AMDs bisheriger und auch das HQ-AF erlaubt.

Als man nun GF110 konfigurierte hörte man, dass AMD wohl 60 TMUs in Cayman verbauen würde und man wusste das AMD wieder beim Basistakt einen Vorteil haben würde.

In Zahlen ausgedrückt:

60 Cayman TMUs @ GF100 Durchsatz @ 900MHz = 100%
128 GF110 TMUs @ GF104-Durchsatz (85% GF100) @ ~750MHz = 148%

Ein gesunder Vorsprung, den man wohl benötigt um sich gegen AMD zu behaupten, wenn diese bei erhöhtem Durchsatz weiter einen Sparfilter einsetzen.

LovesuckZ
2010-10-14, 23:56:32
GF104 hat jetzt schon 64 TMUs mit vollem FP16 Speed. Das müsste auch das erste mal in der Geschichte von nVidia sein. Man sieht also, dass nVidia sich bewusst war, dass ein 8:1 Verhältnis nicht ausgewogen ist. Mit 128TMUs bei 512SPs ginge man einen radikalen Schritt zurück, wohl vollkommen unabhängig von AMD, die zZ bei 5:1 liegen.
Ich bezweifel, dass die das gemacht haben, weil sie von irgendwelchen Gerüchten gehört haben. Wäre das der Fall, hätte GF100 mindesten ebenfalls 64 TMUs mit vollem FP16 Speed.

Coda
2010-10-15, 01:42:19
Konzentrier dich auf die Anzahl, FP16 ist völlig unerheblich.

AnarchX
2010-10-15, 09:57:21
Irgendwo her muss ja diese sonderbare Entscheidung für Fullspeed-FP16 gekommen sein. Wenn nicht als Reaktion auf AMD, worauf sonst?

Gast
2010-10-15, 10:14:21
Mal eine Spekulation, warum GF110 vielleicht 128 TMUs braucht.

Nvidia hat vor einiger Zeit davon gehört, vielleicht Ende 2008, dass AMD in einem kommenden Chip wieder FP16 auf voller Geschwindigkeit berechnen wird. Daraus folgte erstmal für GF104 und Co., dass diese auch FP16-Fullspeed brauchen. GF100s TMUs waren da aber schon fertig.

Etwas später in der Zeitlinie hörte Nvidia davon, dass AMD ihre Textureinheiten neben den FP16 deutlich überarbeitet und der Durchsatz steigt. Die Vermutung kam auf, dass AMD den Durchsatz von GF100 erreicht, der erheblich höher ist als AMDs bisheriger und auch das HQ-AF erlaubt.

Als man nun GF110 konfigurierte hörte man, dass AMD wohl 60 TMUs in Cayman verbauen würde und man wusste das AMD wieder beim Basistakt einen Vorteil haben würde.

In Zahlen ausgedrückt:

60 Cayman TMUs @ GF100 Durchsatz @ 900MHz = 100%
128 GF110 TMUs @ GF104-Durchsatz (85% GF100) @ ~750MHz = 148%

Ein gesunder Vorsprung, den man wohl benötigt um sich gegen AMD zu behaupten, wenn diese bei erhöhtem Durchsatz weiter einen Sparfilter einsetzen.

Solche Infos braucht man nicht mal von irgendwo "hören". Man kann solche Entwicklungen sehr schön an den jeweiligen Patenten welche AMD und NV anmelden schon Jahre vorher verfolgen. Bei AMD und NV gibt es da sicherlich einige Leute welche nichts anderes machen als die Patente der Konkurrenz zu analysieren und sich entsprechend darauf einzustellen.

Und ja, es gibt einige interessante TMU-Patente von AMD welche bei B3D ja schon gezeigt wurden, NV kann also zumindest davon ausgehen das AMD hier deutlich überarbeiten wird, solche Detailfragen wie full oder half-Speed werden da natürlich nicht beantwortet, zumals AMD ja schon bei R600 FP16 full-speed hatte,

Fetza
2010-10-15, 11:10:10
GF104 mit 384SPs im Dezember?
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fdiy.pconline.com.cn%2Fguide%2Fscfx%2F1010%2F2237980_3.html
Fragt sich ob das nur (logische) Vermutungen des Autors sind.

Das wäre aber viel zu spät, die müssten doch schon im november kommen, um barts zu kontern.

Bucklew
2010-10-15, 11:14:00
Irgendwo her muss ja diese sonderbare Entscheidung für Fullspeed-FP16 gekommen sein. Wenn nicht als Reaktion auf AMD, worauf sonst?
technischer Fortschritt? ;)

deekey777
2010-10-15, 11:15:13
technischer Fortschritt? ;)
Kannst du das näher ausführen? Insbesondere im Hinblick auf den R600.

AnarchX
2010-10-15, 11:15:37
Mal eine Sammlung diverser Überlegungen wie ein GF110 128 TMUs, 512 SPs, 64 ROPs und 512 Bit in ~450mm² packen könnte.

GF110 Streaming Multiprozessoren:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=37464&stc=1&d=1287132976


2x Quad-TMUs um eine für Gaming benötigte Texturierleistung zu erreichen
nur noch 1 Warp-Sheduler mit zwei Dispatch Units, die beiden Vec16 ALUs arbeiten nun superskalar, was bei Spielen mit langen Shadern kein Problem darstellt (siehe dazu die Untersuchung von Carsten (http://www.gpu-tech.org/content.php/139-Is-GF104-106s-superscalar-design-really-an-improvement))
keine der beiden Vec16 ALUs ist DP-fähig, es wird wie bei GF104 in einer der Vec16 emuliert (DP-Durchsatz ist 1/8 SP-Durchsatz)
Geo- und Tess-Leistung bleibt auf dem hohen Niveau des GF100


GF110 GPCs:

3 GPCs wären für einen 512SPs Chip wohl ausreichend
GPCs können bekanntlich mit unbalancierten Mengen an SMs arbeiten
Nvidia drosselt den Dreiecksdurchsatz auf GeForce (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8326775#post8326775), sodass GF110 mit geringerer Drosselung vor GeForce GF100 mit 4 GPCs liegen könnte


GF110 ROP-Partitionen:

ROP-Partitionen mit 64KiB statt 128KiB L2-Cache sind wohl für einen Gamer-Chip ausreichend
GT 430 (GF108) besitzt auch nur 64KiB L2 laut Nvidia
GTX 460 768MiB kommt mit ihren 384KiB auf 336SPs wie man sieht hervoragend aus


GF110 als Gesamtchip:

16 neue SMs: 512SPs und 128 TMUs
8 neue ROP-Partitionen: 512-Bit 512KiB L2-Cache 64 ROPs
Geo&Tess: maximal 3 Dreiecke pro Takt, 16 Tessellatoren


GF110s strategische Ausrichtung im Portfolio von Nvidia:

Gamer-Flagschiff bis Kepler Anfang 2012
mögliche Basis für eine Dual-GPU-Karte
GF100 wird weiter als Quadro und Tesla verkauft, eventuell ein Respin um mehr als 448SPs und 1,15GHz hot-clock zu erlauben

y33H@
2010-10-15, 11:25:53
Schön. Und gut ;)

V2.0
2010-10-15, 11:33:23
512Bit ist lächerlich. Was sollen sie mit dieser Bandbreite anfangen?

AnarchX
2010-10-15, 11:39:15
512Bit ist lächerlich. Was sollen sie mit dieser Bandbreite anfangen?
Wenn es so kommt, dann hat das Teil 64 ROPs, die gefüttet werden müssen.
Ausserdem weniger L2-Cache wo ein entsprechend schneller Speicher etwas helfen könnte, wenn der L2 überläuft.

Cayman XT wird wohl 256-Bit 1450MHz GDDR5 bieten (188,8GB/s), wenn man da gesunde 15-20% darüber liegen will, braucht es ~220GB/s => 1150MHz @384-Bit GDDR5.
Bei dem bisher gezeigten GDDR5-Verhalten von GF10x habe ich Zweifel, dass man das erreicht.
Deswegen geht man eben wohl konservativ vor und setzt auf 0,5ns GDDR5, auf 900MHz @ 512-Bit erreicht man damit 230GB/s.

Dank kostengünstigem 0,5ns GDDR5 kann man dann auch werbewirksame 2GiB RAM auf die Karte verbauen, wo AMD sich bei Cayman nur 1GiB 0,3ns GDDR5 leisten kann. ;)

Ailuros
2010-10-15, 12:19:57
512Bit ist lächerlich. Was sollen sie mit dieser Bandbreite anfangen?

Bei der hypothetischen Texel- (+>100%) und Pixel- (+>30%) fuellraten Steigerung brauchen sie sehr wohl mehr Bandbreite. Nur wird die benoetigte Bandbreite im Fall von 512bit durch die umstaendlichste Art erreicht. Sind es z.B. 230GB/s koennten es entweder 900MHz@512bit oder 1200MHz@384bit sein.

Unter normalen Umstaenden ist der 384bit Bus billiger, aber da es bei NV nie besonders extravagante Speicherfrequenzen gab und sie doch lieber eher auf den breiteren Bus steigen ist unter NV's typischer Logik ein 512bit bus gar nicht so absurd. Es ist eher absurd in solch einem Fall an 1800MHz@256bit zu denken.

V2.0
2010-10-15, 12:58:08
Ich dachte auch nicht an 256bit, eher an 384bit. Wenn die Ram-Kontroller immer noch so versaut ist, dass er keine 1200Mhz verdauen kann, dann wäre das schon arg dämlich diesen Fehler in einem Refesh nicht zu fixen.

Man muss auch die Nachteile sehen. 2GB gehen direkt auf die TDP der Karte.

Coda
2010-10-15, 13:08:52
Irgendwo her muss ja diese sonderbare Entscheidung für Fullspeed-FP16 gekommen sein. Wenn nicht als Reaktion auf AMD, worauf sonst?
Ich kann es mir nur mit zukünftige D3D11 Apps/Benchmarks erklären. Strategische Entscheidung um da in Benchmarks besser dazustehen. Erst D3D11 hat FP16-Kompression.

Wirklich niemand verwendet derzeit FP16-Texturen. DXT1-Texturen brauchen pro Texel 4 Bit, unkomprimierte FP16-Texturen 64 Bit, also das 16 fache. Das steht in keinerlei Verhältnis. Dann pfuscht man lieber was mit zwei DXT1-Texturen, oder speichert Farbe+Exponent in DXT5.

Mancko
2010-10-15, 13:10:11
Ich dachte auch nicht an 256bit, eher an 384bit. Wenn die Ram-Kontroller immer noch so versaut ist, dass er keine 1200Mhz verdauen kann, dann wäre das schon arg dämlich diesen Fehler in einem Refesh nicht zu fixen.

Man muss auch die Nachteile sehen. 2GB gehen direkt auf die TDP der Karte.

Das dürfte aber untergehen. Die Werbewirksamkeit von sowas ist schon enorm.

V2.0
2010-10-15, 13:37:54
Das kann AMD nur zu einfach gegenhalten, wenn sie ne Karte mit 2GB @ 256bit bringen. Gegenwärtig ist natürlich AMD da im Nachteil, dass sie 2GB teuren RAM verbauen müssen während NV 2 GB saubilligem 0,5ns RAM verbauen könnte, aber auf der anderen Seite steht ein komplexeres PCB und ein größerer Chip. Und wie sich so ein dicker Kontroller auf die Taktbarkeit des Gesamtchips auswirkt, ist eine offene Frage.

Dural
2010-10-15, 13:53:00
ich wette das 512Bit / 900MHz gegen 256Bit / 1500MHz mit je 2GB billiger ist!

Der Speicher ist auf einer Grafikkarte neben der GPU die teurste komponete, die mehr kosten für ein 512Bit PCB überschätzten einige aber gewaltig.

zudem nimmt man auch mehr Bandbreite mit und hat erst noch 64ROPs, für NV sicher die richtige entscheidung! und ich hoffe das es auch so kommt, habe da noch bedenken... könnte mir durchaus auch gut 384Bit vorstellen...

dildo4u
2010-10-15, 13:53:24
Das kann AMD nur zu einfach gegenhalten, wenn sie ne Karte mit 2GB @ 256bit bringen. Gegenwärtig ist natürlich AMD da im Nachteil, dass sie 2GB teuren RAM verbauen müssen während NV 2 GB saubilligem 0,5ns RAM verbauen könnte, aber auf der anderen Seite steht ein komplexeres PCB und ein größerer Chip. Und wie sich so ein dicker Kontroller auf die Taktbarkeit des Gesamtchips auswirkt, ist eine offene Frage.
In dem Segment hat man bei Preise um 400-500€ noch bissel Spielraum solche Überlegungen sind um den Bereich unter 250€ wichtiger.

Gast
2010-10-15, 14:48:27
ich wette das 512Bit / 900MHz gegen 256Bit / 1500MHz mit je 2GB billiger ist!

Der Speicher ist auf einer Grafikkarte neben der GPU die teurste komponete, die mehr kosten für ein 512Bit PCB überschätzten einige aber gewaltig.

zudem nimmt man auch mehr Bandbreite mit und hat erst noch 64ROPs, für NV sicher die richtige entscheidung! und ich hoffe das es auch so kommt, habe da noch bedenken... könnte mir durchaus auch gut 384Bit vorstellen...

In your dreams! ;)
Ein breiterer Bus hat viele entscheidende Nachteile:

-Zum einen braucht man die doppelte Anzahl an Speichercontrollern, doppelt so viel Pinout, etc. - der Chip wird also deutlich größer und komplexer in der Verdrahtung. -> Erhöht Stromverbrauch und Kosten.

- Mit einem 256-bit Bus komme ich mit 8 Speicherchips aus, für 512-bit benötige ich auf jeden Fall 16. AMD spart hier also deutlich kosten und Strom. 2048 bit GDDR5 ist schon in Massenproduktion, damit kann man 2GiB mit 8 Speicherchips realisieren.

- Dazu kommt noch der Zeitfaktor. Speicher wird immer billiger, Verdrahtung ist und bleibt teuer. Ergo auch wenn 6Gbps GDDR5 zu beginn teuer sein wird, werden die Preise schnell deutlich sinken wenn schnellerer Speicher verfügbar ist. Einen 512-bit Bus zu verdrahten wird nicht billiger.

- Dann noch die Platine an sich. Mehr Busbreite bedeutet mehr Layer, mehr Speicherchips, also höhere kosten.

Nicht umsonst versucht man in allen Bereichen von einem parallelen Bus weg zu kommen hin zu einem hoch getakteten seriellen Bus. Einzig der Speicherbus bereitet hier noch Probleme.

Leonidas
2010-10-15, 15:00:24
Zum Thema Speicherpreise verweise ich mal auf einen älteren Artikel von uns:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten

Da kann man ungefähr ermitteln, daß schnell getaktete GDDR5 ca. 50% mehr kostet als Standardtaktraten von GDDR5. Die konkreten Daten sind zwar alt, die Relationen dürften heute aber ähnlich sein. D.h. 1,5 GB schneller GDDR5 kosten NV geringfügig mehr als 2GB normaler GDDR5. Allerdings sollte der größere Chip und das etwas aufwendigere Boardlayout das wieder auffressen, so daß die Rechnung im Endeffekt für beide Fälle ziemlich gleich ausgehen sollte.

V2.0
2010-10-15, 16:31:32
In dem Segment hat man bei Preise um 400-500€ noch bissel Spielraum solche Überlegungen sind um den Bereich unter 250€ wichtiger.

400 euro wäre Launchpreis für das Topmodell man muss aber bedenken,dass teilweise deaktivierte Versionen den Bereich bis zum Vollausbau des GF104 abdecken müssen. Langsamerer Speicher wäre kaum eine Ersparnis, man würde nur über die Menge sparen können.

Weiterhin muss man Bedenken, dass sie wohl zumindest die Option auf eine Dual-GPU-Karte haben wollen und da wird das Board bei 512Bit doch schon sehr komplex.

Nicht das ich das NV nicht zutraue, aber die Idee eine Refresh zu machen ohne den RAM-Controller zu fixen und lieber den BUS zu verbreitern ist so bescheuert, dass ich es nicht glauben mag. Was will man den bei GF11X machen? Abgesehen davon gibt es ja auch die Gedanken, dass im RAM-Controller der Hauptgrund für den niedrigen Takt des GF100 liegt. Ergo wird man den wohl angefasst haben müssen und dabei sollte er auch gelernt haben 1200mhz GDDR5 zu fressen.

AnarchX
2010-10-15, 16:33:28
Weiterhin muss man Bedenken, dass sie wohl zumindest die Option auf eine Dual-GPU-Karte haben wollen und da wird das Board bei 512Bit doch schon sehr komplex.

Nvidia hat schon 2x 448-Bit auf ein PCB verbaut, wenn auch das GDDR3 war.

Und für eine Dual-Karte würde ich eher an 2x 384-Bit und 2x 1,5GiB GDDR5 denken.

davidzo
2010-10-15, 18:04:02
ich weiß nicht wie man auf die abenteuerliche vermutung kommt wie man mit 512sp /128tmu/512bit @ 40nm kleiner und kühler werden kann als mit den bisherigen 512/64/384. Und wer schreibt für den Unsinn dann auch noch eine News?
Nicht nur dass es eine ziemliche inbalance wäre soviele TMUs in ein shaderschwaches konstrukt zu bauen, es ist ein völlig anderer weg als der von GF104. GF110 wird sicherlich schon parallel zu GF104 geplant worden sein, highendchips dauern länger. Wieso sollte man also bei GF104 eine weniger effizientere aufteilung verwenden als man gerade entwickelt? gerade in diesem hochgefragten bereich sind die margen ungeheuer wichtig, wichtiger als im highend. Denke daher dass die GF104 Aufteilung schon den sweet spot innerhalb der GF1xx Reihe besetzt, neue designs leiten sich klar danach ab (siehe gf106&108).

384bit aufzugeben hieße einen großen vorteil den man gegenüber gt200 hat wieder auf zu geben, dabei hapert es bei Gf10x doch offensichtlich nicht an der Bandbreite.
Ich denke eher das GF110 pinkompatibel zu GF100 wird, aber eben auf GF104 aufsetzt und alternativ auch mit niedriger gepowerten neuen boards kommt. das würde mehr sinn machen...

AnarchX
2010-10-15, 18:15:29
Wenn Ailuros' Hinweis zur Die-Size mit ~450mm2 stimmt, also ~20% mehr als bei GF104, wäre das für 33% mehr ALUs, 100% mehr TMUs, 100% mehr Tessellatoren, 100% mehr SI+ROPs alles andere als eine schlechte Leistung.

Wohl möglich wäre eine solche Architektur auch bitter nötig, wenn AMD mit 230mm² plötzlich in dem Leistungsbereich einer HD 5870/GTX 470 auftaucht. ;)

Über 2011 hinweg wird man dann wohl auch die anderen Marktsegmente damit refreshen, nach GF110 kommt wohl GF119 (~64SPs+64-Bit), der schon als N12M im Treiber auftauchte.
Wenn Kepler Ende 2011 erscheint, dann werden die kleinen Ableger wohl auch erst gegen Mitte 2012 in den Läden stehen.

Gast
2010-10-15, 18:17:08
Der Aufbau der Fermi Architektur erfordert aber ein größeres Speicherinterface, wenn du die Anzahl der ROP Einheiten erhöhst.

=Floi=
2010-10-15, 22:07:05
warum soll man GF104 +20% die size bringen, wenn man die probleme mit dem großen GF100 auch beseitigt hat? warum sollte man solch einen rückschritt gehen und sich auch noch mit ATI rumplagen?
huang würde nie solch eine strategie fahren. ich tippe auf über 550mm² und "volle power" ohne kompromisse.

aths
2010-10-15, 22:17:26
ich weiß nicht wie man auf die abenteuerliche vermutung kommt wie man mit 512sp /128tmu/512bit @ 40nm kleiner und kühler werden kann als mit den bisherigen 512/64/384. Und wer schreibt für den Unsinn dann auch noch eine News?Nicht alles was du für unwahrscheinlich hälst ist auch Unsinn.

LovesuckZ
2010-10-16, 02:39:39
Aus China - wohl nur persönliche Spekulation:
Nvidia seems to release new products, AMD is not very cold, the latest Geforce GTX 580 has been tested in the lab began, I believe we will see the end of the year this card. In addition there are another 1.5 generation of Nvidia Fermi product worthy of our expectations.
http://translate.google.de/translate?u=http%3A%2F%2Ftech.sina.com.cn%2Fh%2F2010-10-16%2F06171529120.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

Dural
2010-10-16, 09:35:27
-Zum einen braucht man die doppelte Anzahl an Speichercontrollern, doppelt so viel Pinout, etc. - der Chip wird also deutlich größer und komplexer in der Verdrahtung. -> Erhöht Stromverbrauch und Kosten.



wie man bei einem 400mm2+ Chip nicht genügend platz dazu hätte, zudem die verdopplung der Speicherkontroller von 256Bit auf 512Bit wohl kaum mehr platz benötigt, wir reden da immerhin von einem ca. 3Miliarden Transistoren Chip... Klar die 32ROPs benötigen sicher einiges an platz, aber die bringen auch deutliche mehr leistung!



- Mit einem 256-bit Bus komme ich mit 8 Speicherchips aus, für 512-bit benötige ich auf jeden Fall 16. AMD spart hier also deutlich kosten und Strom. 2048 bit GDDR5 ist schon in Massenproduktion, damit kann man 2GiB mit 8 Speicherchips realisieren.



Bei 2GB müsste man aufjedenfall 16 chips verbauen... siehe auch 5870 2GB!



- Dazu kommt noch der Zeitfaktor. Speicher wird immer billiger, Verdrahtung ist und bleibt teuer. Ergo auch wenn 6Gbps GDDR5 zu beginn teuer sein wird, werden die Preise schnell deutlich sinken wenn schnellerer Speicher verfügbar ist. Einen 512-bit Bus zu verdrahten wird nicht billiger.

- Dann noch die Platine an sich. Mehr Busbreite bedeutet mehr Layer, mehr Speicherchips, also höhere kosten.



Der billigere Speicher wird erst recht billiger...

Das ist ja der Witz an der sachen, Verdrahtung/PCB ist eben NICHT viel teuer, ein GTX280 PCB kostet ca. 10Doller die mehr kosten von 256Bit auf 512Bit sind faktisch bei einer 400.- Euro Karte nicht zu spüren!

Geschätzt kostet ein 512Bit PCB ca. 3 US Doller mehr als ein 256Bit, dazu steht aber im gegensatz die deutlich teureren Speicher Preise von min. ca. 10 US Doller, wie gesagt Speicher kostet auf solchen Karten fast so viel wie die GPU selber!

Nachteile hat 512Bit sicher auch, aber die Vorteile die NV damit hat sind nicht zu leugnen erst recht wenn man bedenkt das die ROPs direkt an dem SI hängen und NV nur so die ROP Leistung deutlich erhöhen kann.

Zudem was verbraucht wohl mehr strom? 2GB 1500MHz oder die 2GB 900MHz die antwort dürfte sonnen klar sein!


Aber seit ATi nur noch 256Bit bietet sind plötzlich bei gewissen User alles darüber nur noch "sinnlos" und "viel zu teuer" obwohl das alles schon mehrfach deutlich widerlegt wurde... schon klar...


Nicht umsonst versucht man in allen Bereichen von einem parallelen Bus weg zu kommen hin zu einem hoch getakteten seriellen Bus.


ach ja? ist intel nicht vor "kurzem" mit ihrem RAM im die breite gegangen...

die breite wird immer effektiver und besser sein, jedenfalls in diesem bereich

Übrigens macht AMD gerade das selbe, Barts kommt mit 256Bit und weniger Speicher takt als der vorgänger 5770 mit 128Bit


Nicht das ich das NV nicht zutraue, aber die Idee eine Refresh zu machen ohne den RAM-Controller zu fixen und lieber den BUS zu verbreitern ist so bescheuert, dass ich es nicht glauben mag.


wer sagt den das man überhaupt was Fixen kann? wir wissen nur das die GF100 probleme damit hat, aber wir wissen nicht wie so!

Wir wissen zb. nur das der max Speichertakt von GPU zu GPU unterschidlich ist und auf VGPU erhöhung reagiert, das alles sagt mir das es nicht nur an den Speicherkontroller scheitern kann, so ein verhalten hab ich in 15Jahren erfahrung noch nie beobwachtet, da muss deutlich mehr dahinter stehen als man denkt.

Was ich damit sagen will, vileicht kann NV da gar nichts "Fixen" und die Wahl auf 512Bit somit schon deswegen für NV einfach Fix ist

Botcruscher
2010-10-16, 09:59:25
Da bin ich ja gespannt. Im Moment reicht es ja nichtmal für volle Chips und nun sollen diese auch noch größer werden.:freak:

AnarchX
2010-10-16, 10:11:02
Bei 2GB müsste man aufjedenfall 16 chips verbauen... siehe auch 5870 2GB!

Weil es da keine 2GBit (256MiB) Chips gab, wenn es die für 0,3ns Speicher gibt kann AMD auch 2GiB mit 8 Chips erreichen.

Dural
2010-10-16, 10:22:19
gibt es den 256MB 1,5GHz Speicher und ist er lieferbar? hab auf die schnelle nichts gefunden

AnarchX
2010-10-16, 10:22:31
Laut PHK kann wohl das aktuelle Stepping des GF110 für die Produktion verwendet werden bzw. wurde verwendet:
http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-37213-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

November bis Dezember wäre ein Launch möglich. Man soll wohl der HD 6990 gefährlich werden. ;D

512-Bit war wohl möglich doch nur ein Fake:
Somebody has been swindled, the official GTX 580 information I saw, above was writing GTX 580, MC 384,1536MB, other were writing TBA
http://bbs.expreview.com/thread-37155-2-1.html

Da bin ich ja mal gespannt, was NV am MC gemacht hat, um vielleicht 512SPs mit bis zu 850M/1700MHz mit genügend Bandbreite zu versorgen.

Gast
2010-10-16, 12:47:39
Der Aufbau der Fermi Architektur erfordert aber ein größeres Speicherinterface, wenn du die Anzahl der ROP Einheiten erhöhst.

Warum? Wenn man eh schon einen neuen Chip designt sollte es keine Schwierigkeit sein die ROP-Konfiguration pro Speichercontroller zu ändern (wurde glaub ich doch auch beim kleinsten Fermi-Abkömling auch gemacht, nur in die andere Richtung)

Hugo78
2010-10-16, 12:49:30
Da bin ich ja mal gespannt, was NV am MC gemacht hat, um vielleicht 512SPs mit bis zu 850M/1700MHz mit genügend Bandbreite zu versorgen.

Na sagen wir mal so, wenn Nvidia es zumindest geschaft hätte, auf 2400MHz Ramtakt zukommen,
also was akutell auf der 5870 verbaut ist, dann hätte man +30%. Sollte doch reichen oder?

Dieser Ram sollte ja auch mittlerweile günstiger zubekommen sein, als der neue GDDR5 6gb/s.
Wenn also eine Steigerung um 30% ausreichend wäre, so müsste man den MC nur soweit fixen, dass der zumindest die 2,4Ghz packt,
und hätte hier die vernüftigste Alternative aus P/L Sicht.

Und wahrscheinlich auch von Verbauch her.

AnarchX
2010-10-16, 12:50:18
Warum? Wenn man eh schon einen neuen Chip designt sollte es keine Schwierigkeit sein die ROP-Konfiguration pro Speichercontroller zu ändern (wurde glaub ich doch auch beim kleinsten Fermi-Abkömling auch gemacht, nur in die andere Richtung)

Die ROPs von 8 auf 4 pro Partition zu reduzieren, sollte kein Problem sein.
Rein theoretisch müssten 32 8Z-ROPs mehr als genug für einen solchen Chip sein.

Aber wenn es nun doch bei 384-Bit bleibt, wird man die ROPs nicht anfassen, da man dann weniger ROPs als Pixel durch SMs hätte (16 SMs => 32 Pixel).

Dural
2010-10-16, 13:14:39
am ende ist es halt doch nur ein 12x48sp/8tmu chip :rolleyes:

das würde auch gut zu den ca. 450mm2 passen...

LovesuckZ
2010-10-16, 13:20:49
Laut PHK kann wohl das aktuelle Stepping des GF110 für die Produktion verwendet werden bzw. wurde verwendet:
http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-37213-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

November bis Dezember wäre ein Launch möglich. Man soll wohl der HD 6990 gefährlich werden. ;D


nVidia hat ja letztes Jahr einige Meldungen veröffentlichen lassen, dass sie auf Tools setzen, um schneller auf dem Markt zu sein. So auch vor ein paar Tagen: http://www.marketwatch.com/story/nvidia-uses-mentors-olympus-soc-place-and-route-system-for-leading-edge-graphics-processors-2010-10-15?reflink=MW_news_stmp

Es scheint, dass sie alles daran setzen in Zukunft mit A1 auf dem Markt zu kommen, was die Zeit vom Tape-Out zum Launch auf 4 Monate verkürzt, statt den üblichen 6-7.

igg
2010-10-16, 13:55:40
Laut PHK kann wohl das aktuelle Stepping des GF110 für die Produktion verwendet werden bzw. wurde verwendet
...
November bis Dezember wäre ein Launch möglich. Man soll wohl der HD 6990 gefährlich werden. ;D
Ich frage mich eher, woher PHK die Leistung kennen will...

AnarchX
2010-10-16, 13:59:04
Ich frage mich eher, woher PHK die Leistung kennen will...
Vielleicht gibt es eine ähnliche Produkt Positionsgrafik, wie bei den AMD Slides, wo GF110 neben Antilles positioniert ist?

Gast
2010-10-16, 14:24:46
nVidia hat ja letztes Jahr einige Meldungen veröffentlichen lassen, dass sie auf Tools setzen, um schneller auf dem Markt zu sein. So auch vor ein paar Tagen: http://www.marketwatch.com/story/nvidia-uses-mentors-olympus-soc-place-and-route-system-for-leading-edge-graphics-processors-2010-10-15?reflink=MW_news_stmp

Es scheint, dass sie alles daran setzen in Zukunft mit A1 auf dem Markt zu kommen, was die Zeit vom Tape-Out zum Launch auf 4 Monate verkürzt, statt den üblichen 6-7.

Wurde ja auch höchste Zeit. AMD schaffst das seit RV670 fast immer.

dildo4u
2010-10-16, 14:26:50
Wurde ja auch höchste Zeit. AMD schaffst das seit RV670 fast immer.
Das sind auch kleinere Chips bei AMD. ;) GF104 ging auch sofort in Produktion.

Gast
2010-10-16, 14:35:16
Das sind auch kleinere Chips bei AMD. ;) GF104 ging auch sofort in Produktion.

Und bis heute gibt es keinen vollen GF104. Zumal ein Ableger eh kein Problem sein sollte. Problematisch sind neue Generationen.

Dural
2010-10-16, 14:53:14
AMD startet auch mit A0 und nicht so wie NV mit A1

AnarchX
2010-10-16, 17:20:26
4Gamer hat auch wieder mal eine Roadmap:

http://img843.imageshack.us/img843/2199/001bmn.jpg (http://img843.imageshack.us/i/001bmn.jpg/)

http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20101015013%2F

Man will das wohl von diversen Industrie-Quellen gehört haben.

Wobei 4Gamer auch schon mal eine Roadmap mit 40nm GTX 260 Ersatz publizierte.
Das kann wohl der gecancelte GT212 gewesen sen, insofern kann manches hier auf der Roadmap auch schon gecancelt sein.
So ein 768SPs 512-Bit Chip stand vielleicht mal auf der 32nm Roadmap.

Sorkalm
2010-10-16, 17:30:12
Man will das wohl von diversen Industrie-Quellen gehört haben.

Wobei 4Gamer auch schon mal eine Roadmap mit 40nm GTX 260 Ersatz publizierte.
Das kann wohl der gecancelte GT212 gewesen sen, insofern kann manches hier auf der Roadmap auch schon gecancelt sein.
So ein 768SPs 512-Bit Chip stand vielleicht mal auf der 32nm Roadmap.

Ich würde die Namen der Chips und vllt. noch deren Positionierung nehmen, das wusste 4Gamer bisher immer recht gut, und die Spezifikationen ins Reich der Spekulation zuordnen.

Dural
2010-10-16, 18:42:39
vorallem gf112 mit 320bit und 384sp ;D

V2.0
2010-10-16, 19:05:57
Jo, der hatte wohl einer keine Ahnung, dass Gf104 auf der 460 teildeaktiviert ist.

Dural
2010-10-16, 19:10:14
GT440 OEM mit GF106 / 144SP / GDDR3 / 56Watt TDP @ 594MHz

http://www.nvidia.com/object/product-geforce-gt-440-oem-us.html

Quadro 2000 mit GF106 / 192SP / GDDR5 / 62Watt TDP @ 607MHz

http://www.nvidia.com/object/product-quadro-2000-us.html


GTS450 mit GF106 / 192SP / GDDR5 / 106Watt TDP @ 783MHz

http://www.nvidia.com/object/product-geforce-gts-450-us.html

so was lernen wir mal wider, ein SM mehr oder weniger ist bei Chips wie GF104 in sachen Verbrauch völlig egal, was zählt ist nur der Takt / VGPU

Gast
2010-10-16, 19:42:08
Aber warum gibt es dann keinen vollen GF104 wenn es am TDP vieleicht 10Watt ausmacht?

y33H@
2010-10-16, 19:46:01
Weil NV das bisher nicht für erforderlich hielt? Ein voller GF104 mit 800 MHz ist imo auf Höhe einer HD 5870/6870. Wenn, dann kommt der in den nächsten Wochen.

LovesuckZ
2010-10-16, 19:46:04
Aber warum gibt es dann keinen vollen GF104 wenn es am TDP vieleicht 10Watt ausmacht?

Weil man dann GF100 komplett vom Consumermarkt verdrängen würde.
Eine GTX460 mit 8 SM wäre 14,5% schneller. Damit wäre die GTX470 noch knapp 5% und die GTX460 ca. 30% schneller. Und das bei deutlich höherem Stromverbrauch.

AnarchX
2010-10-16, 19:46:24
Das Yield wäre wohl auch zu niedrig für einen Preis deutlich unter 300€.

Nicht ohne Grund gibt es bei GF104-192-Bit verschiedene Chip-Versionen, je nach deaktiviertem SI/ROP. Bei G92-192-Bit gab es wohl nur eine Version, die native 192-Bit PCBs erlaubte.

=Floi=
2010-10-16, 20:26:53
das ist doch nur eine intelligente möglichkeit mehr chips zu verwerten. warum sollte man das nicht machen? (in diesem hart umkämpften segment)
es spricht aber nicht für oder gegen die yield rate! beim GF100 mancht man es imho auch nicht. (da gibt es ja sogar vollwertige 465er die als 470er laufen. )

Gast
2010-10-16, 20:35:11
Also ersetzt GF110 den GF100 und GF104 bekommt vieleicht ein A3 oder B1 Stepping für bessere Yields und das wars mit "Refresh" für 2011?

V2.0
2010-10-16, 22:37:36
Es gibt afaik überhaupt keine Aussagen zu den Yields. Es ist vermessen zu glauben, dass die Fermikrankheit alle GF10X befallen hat und man wenige voll funktionierende Chips bekam. GF104 wird schon sehr lange produziert und ich bin mir sicher,dass NV sich den Vollausbau liefern könnte, man aber Barts abwarten wollte. Wäre man damit früher auf den Markt gegangen wäre nur die 470 beschädigt worden und man hätte für die 460 weniger Geld bekommen.

Leonidas
2010-10-17, 17:37:38
4Gamer hat auch wieder mal eine Roadmap:

http://img843.imageshack.us/img843/2199/001bmn.jpg (http://img843.imageshack.us/i/001bmn.jpg/)

http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20101015013%2F

Man will das wohl von diversen Industrie-Quellen gehört haben.

Wobei 4Gamer auch schon mal eine Roadmap mit 40nm GTX 260 Ersatz publizierte.
Das kann wohl der gecancelte GT212 gewesen sen, insofern kann manches hier auf der Roadmap auch schon gecancelt sein.
So ein 768SPs 512-Bit Chip stand vielleicht mal auf der 32nm Roadmap.



GF112 mit der gleichen HW wie GF104 (nur etwas größeres Speicherinterface) macht für mich keinen Sinn. Die Leute sollten abgehen, von einer Karte (GTX460) und deren Daten (336SP) auszugehen - wenn dort der Chip (GF104) und dessen Daten (384SP) dastehen würden, würde es sofort auffallen, das GF112 gleich dazu ist.

Und GF119 mit 96SP und 64 Bit? Da spart NV am Chip so gut wie gar nichts zum GF108 /(96SP, 128SI). Wenn dann als 16/32/48SP und 64 Bit.





Es gibt afaik überhaupt keine Aussagen zu den Yields. Es ist vermessen zu glauben, dass die Fermikrankheit alle GF10X befallen hat und man wenige voll funktionierende Chips bekam. GF104 wird schon sehr lange produziert und ich bin mir sicher,dass NV sich den Vollausbau liefern könnte, man aber Barts abwarten wollte. Wäre man damit früher auf den Markt gegangen wäre nur die 470 beschädigt worden und man hätte für die 460 weniger Geld bekommen.


Es ist immer wieder das alte Spiel: Liefere die Lösung, die aktuell benötigt wird - und nicht die, die du maximal machen könntest. Und wenn du weisst, daß die Konkurrenz was neues macht und du nicht unter Zugzwang bist, warte ab, lass sich die Konkurrenz zuerst offenbaren. Weil niemand ständig neue Versionen herausbringt, wenn er mal um 5 oder 10% geschlagen ist, deswegen ist es immer besser, zuletzt herauszukommen (was nicht bedeutet, daß man Monate wie mit Fermi warten sollte).

AnarchX
2010-10-17, 18:19:53
Und GF119 mit 96SP und 64 Bit? Da spart NV am Chip so gut wie gar nichts zum GF108 /(96SP, 128SI). Wenn dann als 16/32/48SP und 64 Bit.

Die Specs kann man wohl vergessen, aber der Codename dürfte existieren. N12M gab es auch schon im Treiber, N111M ist GF108.

Mein Tipp wäre ein 48-64SPs Chip mit 64-Bit, der mindestens 4 Displayports unterstützt.

AwesomeSauce
2010-10-18, 18:38:37
Nvidia GTX580 to paper launch next month
http://www.semiaccurate.com/2010/10/18/nvidia-gtx580-paper-launch-next-month/

Wurden Charlies angebliche Maulwürfe entlarvt oder warum wärmt er nur allseits bekannte Forenkost mit zahlreichen obligatorischen Seitenhieben ins grüne Lager auf?

Und die Shaderrechnung ist ja mal;D

MadManniMan
2010-10-18, 18:45:12
OMG, ich habe gerade zum ertsten Mal Charlie selbst gelesen - entweder hat der Typ ordentlich einen laufen oder aber er profitiert finanziell von seinem Schmarrn.

Schön und gut, dass er hier und da wohl mal die eine oder andere Information aufgabeln mag, aber freiwillig würde ich die Backpflaume nur ungern wieder lesen.

LovesuckZ
2010-10-18, 18:47:37
Ich liebe das: Wenn du nichts hast, spin rum.
Das passt so perfekt auf dem Typen. Klingt wie bei der GTX295 - die nicht kommen sollte und auch überhaupt nicht möglich war - oder der GTX275 - die nie kommen sollte und wenn, dann wären es irgendwelche Partnerkarten.

Bucklew
2010-10-18, 19:14:43
Nvidia GTX580 to paper launch next month
http://www.semiaccurate.com/2010/10/18/nvidia-gtx580-paper-launch-next-month/
Mag mir grad mal einer diese Gelaber um die Die sizes erklären? Er zählt da die die size von GF10x auf, aber wo ist da nun der Zusammenhang zu GF110?

Und all in all sagt er, dass GF110 einfach nur ein Respin von GF100 ist, versteh ich das richtig?

S940
2010-10-18, 20:11:08
Ich liebe das: Wenn du nichts hast, spin rum.
Das passt so perfekt auf dem Typen. Klingt wie bei der GTX295 - die nicht kommen sollte und auch überhaupt nicht möglich war - oder der GTX275 - die nie kommen sollte und wenn, dann wären es irgendwelche Partnerkarten.Tja, oder es klingt so wie beim Fermidebakel, das sich bewahrheitet hat :freak:
Wundere mich ja, dass Du die alten 275 / 295er Stories noch auf Lager, aber Holzschrauben-Fermi schon verdrängt hast ... :freak:

LovesuckZ
2010-10-18, 20:55:31
Tja, oder es klingt so wie beim Fermidebakel, das sich bewahrheitet hat :freak:
Wundere mich ja, dass Du die alten 275 / 295er Stories noch auf Lager, aber Holzschrauben-Fermi schon verdrängt hast ... :freak:

Aha. Du meinst das Debakel, das Fermi in DX11 deutlich langsamer sein wird als Cypress? Ja, das Debakel hat sich wirklich bewahrheitet.
Oder meinst du seine Laier über den hohen Stromverbrauch? Die wiederholt er konsequent seit G80. :freak:

Iruwen
2010-10-18, 21:00:26
Wenn ich nichts besseres zu tun hätte als den ganzen Tag Blödsinn über jemanden zu erzählen würde irgendwas davon sicher auch mal zutreffen.
Leider weiß man nie so genau wann er tatsächlich gute Quellen hatte und wann er sich einfach was zusammenspinnt, deshalb ist er selbst eine miese Quelle. Er liegt ja mit manchen Details auch immer mal wieder erstaunlich richtig wie sich dann rückblickend zeigt. Mit vielen dann aber halt auch wieder nicht :\

Mancko
2010-10-18, 23:30:42
Aha. Du meinst das Debakel, das Fermi in DX11 deutlich langsamer sein wird als Cypress? Ja, das Debakel hat sich wirklich bewahrheitet.
Oder meinst du seine Laier über den hohen Stromverbrauch? Die wiederholt er konsequent seit G80. :freak:

Er meint wahrscheinlich das Debakel, dass AMD mit seinen Produkten bis heute im profitträchtigen Geschäftskundenbereich eine 0 Nummer ist. Statt dessen investiert man lieber in Massenprodukte mit hohen Stückzahlen. Erinnert mich an deren CPUs. Da waren sie auch nur selten dort mal interessant. Aktuell wirds da aber wieder besser. Und naja Geld hat AMD über die Jahre noch nie verdient. Warum sieht man ja.

LovesuckZ
2010-10-18, 23:32:56
Der Messiah predigte, dass nVidia in Q3 massiv im Quadro-Business verlieren werde. Lassen wir uns überraschen.

davidzo
2010-10-18, 23:36:42
naja, fermi ist ein halbdefekter chip. deaktivierte einheiten, exorbitant hohe leckströme und die konkurrenz schafft das mit einer extrem peinlichen sinnlosmethode wie zwei chips zusammenzuschmeißen sogar noch in effizienz UND leistung zu schlagen.
Da würde ich als kunde schon ein komisches gefühl haben. energieeffizienz schlechter las das topmodell vom letzten mal, das kanns doch alles irgendwie nicht sein? Was, wenn zwei drei monate der echte fermi kommt, sowas kaputtes kann doch nicht das sein was die geplant haben? Sowas empfindet man da als kunde wenn man ein highendprodukt möchte. Und bei AMD? Naja, da muss man sich eben sowieso damit abfinden dass AMD nur mittelmaß ist, aber eben ein rundes produkt ohne so scharfe ecken und kanten wie fermi.

das ganze passiert dann nicht mal auf augenhöhe, sondern mit nem guten halben jahr abstand. die gesamte fermiserie ist 6-10monate zu spät!
es muss sich dringen was tun im grünen camp.

AwesomeSauce
2010-10-19, 00:05:28
@davidzo
Und wie immer von dir oberflächliche, nichtssagende Worte, die sowieso nur die eh schon erhitzten Gemüter erröten lassen. Ist es so schwer, bei einer zumindest ansatzweise sachlichen Diskussion zu bleiben?:down:

S940
2010-10-19, 02:00:20
Oder meinst du seine Laier über den hohen Stromverbrauch? Die wiederholt er konsequent seit G80. :freak:
Was kann er dann dafür, wenn nvidia immer die gleiche Laier produziert ? :freak:

san.salvador
2010-10-19, 02:05:16
Was bitteschön ist eine "Laier"?

V2.0
2010-10-19, 07:13:59
Hört sich alles sehr richtig an was Charlie da schreibt.

MadManniMan
2010-10-19, 07:44:40
Du hast in letzter Zeit auch Deine Chaostage :D

Dural
2010-10-19, 12:59:41
GTX 590 = GF110 2x512SP vs 6990 (GTX 580 und 6970 dürften in jedemfall zu bevorzugen sein!)
GTX 580 = GF110 512SP vs 6970
GTX 570 = GF110 480SP vs 6950

GTX 560 = GF104 384SP vs 6870
GTX 550 = GF104 336SP vs 6850

GTS 540 = GF106 192SP vs 6770

usw. es sei den es gibt wirklich auch GF11x ableger...

GTX 590 @ ca. 600MHz / 300Watt
GTX 580 @ ca. 750MHz / 250Watt
GTX 570 @ ca. 650MHz / 200Watt

GTX 560 @ ca. 750MHz / 170Watt
GTX 550 @ ca. 700MHz / 150Watt

GTS 540 @ ca. 800MHz / 100Watt

AnarchX
2010-10-20, 13:40:24
Auch wenn die 512-Bit Spekulation sich wohl mittlerweile erledigt hat.

http://geizhals.at/deutschland/a548292.html
http://geizhals.at/deutschland/a555494.html

Keine 30€ Unterschied im Handelspreis für zusätzliche 8 1024MBit-Chips 0,5ns GDDR5.

AnarchX
2010-10-20, 18:54:57
http://img413.imageshack.us/img413/5271/captureyut.png

GF110
GF117 (imo 128-144SPs@128-Bit GDDR5 <200mm²)
GF119 (imo 48-64SPs@64-Bit DDR3 <80mm²)

http://forum.beyond3d.com/showpost.php?p=1484516&postcount=6921

Und der verschollene GT206 taucht auch auf. ;D

LovesuckZ
2010-10-20, 21:43:14
http://www.xtremesystems.org/forums/showpost.php?p=4593196&postcount=240

Real oder fake? :biggrin:

y33H@
2010-10-20, 21:44:49
Schlechtes Fake.

AnarchX
2010-10-20, 21:48:08
Das Teil kam ursprünglich von PHK.

y33H@
2010-10-20, 21:50:27
Auch der erlaubt sich mal einen Spaß ;D

AnarchX
2010-10-21, 10:53:20
Nvidia is preparing to launch its GF110-based GeForce GTX 580 by the end of November or early December 2010 with performance 20% faster than its current GeForce GTX 480, according to sources from graphics card makers.
http://www.digitimes.com/news/a20101020PD223.html

AffenJack
2010-10-21, 11:06:45
dann müsste a1 ja wirklich schon in produktion gehen und das bei sonem riesenchip, ich bin gespannt.
Ob wir dann wohl den vollen gf104 als gtx560 sehen?;)

derguru
2010-10-21, 11:10:48
http://www.digitimes.com/news/a20101020PD223.html
bei 20% schneller würde der name 490gtx besser passen,hab performancemäßig deutlich mehr erwartet aber ist ja alles noch nicht fix.:biggrin:

Hugo78
2010-10-21, 11:17:35
bei 20% schneller würde der name 490gtx besser passen,hab performancemäßig deutlich mehr erwartet aber ist ja alles noch nicht fix.:biggrin:

Die letzte AMD Folie sieht Cayman nur knapp über der 480.
Ausgehend davon dürften 20% mehr für die 580 reichen im Kampf Cayman vs. GF110.
Wenn das Design dann noch eher dem GF104 folgt und nicht der GF100, kommt am ende auch ein mainstreamtauglicher Verbrauch bei rum.

igg
2010-10-21, 11:19:52
bei 20% schneller würde der name 490gtx besser passen,hab performancemäßig deutlich mehr erwartet
Naja, man sollte bedenken, dass der GF100 auch nicht gerade eine Performanceente ist und hier beim GF110 Geschwindigkeitsgewinn durch die beliebte Combo kleinerer Fertigungsprozess+mehr Einheiten erfolgt. Insofern sind 20 % schon gut, wenn gleichzeitig noch an anderen Stellschrauben gearbeitet wird.

Dural
2010-10-21, 11:26:35
bei 20% schneller würde der name 490gtx besser passen,hab performancemäßig deutlich mehr erwartet aber ist ja alles noch nicht fix.:biggrin:

aha und bei der 6870 ist es OK, alles klar!

derguru
2010-10-21, 11:32:44
Die letzte AMD Folie sieht Cayman nur knapp über der 480.
Ausgehend davon dürften 20% mehr für die 580 reichen im Kampf Cayman vs. GF110.
Wenn das Design dann noch eher dem GF104 folgt und nicht der GF100, kommt am ende auch ein mainstreamtauglicher Verbrauch bei rum.
so knapp ist der folienabstand nicht,wäre jetzt auch lächerlich daraus % zahl zuerraten.ich geh von 20% beim cayman aus deshalb habe ich beim 580 ein wenig mehr erwartet.
aha und bei der 6870 ist es OK, alles klar!
ja passend vor allem wenn man sich die letzen benchs anschaut.

igg
2010-10-21, 11:49:36
ich geh von 20% beim cayman aus deshalb habe ich beim 580 ein wenig mehr erwartet.
hm? der cayman soll doch in der die-size einen großen sprung machen, den kann nvidia nicht mehr machen.

AnarchX
2010-10-21, 11:53:33
Wenn die GTX 580 für $449/380€ startet, sind 20% doch nicht so schlecht.
Man wird wohl momentan mit 512SPs @ ~800/1600/1100MHz spekulieren.

V2.0
2010-10-21, 12:07:34
Keiner der beiden Hersteller kann zaubern und 20% finde ich für NV gut, denn mit GF100 war man eigentlich bereits an den Grenzen des Prozesses. Mehr war von einem Refresh im gleichen Prozess nicht zu erwarten. Und so sollte es für GDF110 reichen sich knapp hinter Cayman Pro einzuordnen.

Iruwen
2010-10-21, 12:18:27
Naja, man sollte bedenken, dass der GF100 auch nicht gerade eine Performanceente ist und hier beim GF110 Geschwindigkeitsgewinn durch die beliebte Combo kleinerer Fertigungsprozess+mehr Einheiten erfolgt. Insofern sind 20 % schon gut, wenn gleichzeitig noch an anderen Stellschrauben gearbeitet wird.
Was für ein kleinerer Fertigungsprozess?

Dural
2010-10-21, 12:21:00
ja passend vor allem wenn man sich die letzen benchs anschaut.

aha bei der 580 ist es nicht OK weil sie nur 20% schneller als 480 ist aber bei der 6870 ist es OK obwohl die karte sehr wahrscheinlich nicht mal an die 5870 ran kommt, noch mal alles klar!

Man wird wohl momentan mit 512SPs @ ~800/1600/1100MHz spekulieren.

das wären aber mehr als die 20% von der GTX480 aus ;) mit den 128TMUs wäre man sicher schon an den 30%

AffenJack
2010-10-21, 12:21:28
Und so sollte es für GDF110 reichen sich knapp hinter Cayman Pro einzuordnen.

Knapp hinter CaymanPro? du überschätzt Cayman aber ziemlich. CaymanPro dürfte maximal knapp über GTX480 Niveau landen, mehr wird das aber sicher nicht. Da wird GF110 auf jeden fall schneller. Nur gegen CaymanXT wirds spannend.

y33H@
2010-10-21, 12:22:30
Cayman Pro ist eher langsamer als eine GTX 480 ... und damit hinter GF110.

LovesuckZ
2010-10-21, 12:27:32
Lol, hier wird schon über Cayman geredet als ob man weiß, was Cayman abliefern wird. Solange wie AMD ihre Tessellationleistung nicht erheblich verbessert, kann Cayman auch deutlich langsamer sein. eine GTX480 ist doppelt so schnell als Barts im Extreme Setting von Heaven.
Und wie man sah, können fast ausnahmelos alle Gerüchte einer Küche daneben liegen, wie bei Barts.

boxleitnerb
2010-10-21, 12:27:49
aha bei der 580 ist es nicht OK weil sie nur 20% schneller als 480 ist aber bei der 6870 ist es OK obwohl die karte sehr wahrscheinlich nicht mal an die 5870 ran kommt, noch mal alles klar!


Barts ist NICHT Cypressnachfolger, sondern etwas darunter angeordnet. So kannst du nicht rechnen. Versteh das endlich mal.

Dural
2010-10-21, 13:16:20
Barts ist NICHT Cypressnachfolger, sondern etwas darunter angeordnet. So kannst du nicht rechnen. Versteh das endlich mal.

aha barts ist nicht RV870 nachfolger, deswegen ist der 6870 name gerechtfertigt, verstehe alles klar!

Macht euch doch noch komplett lächerlich, entweder 6870 + GTX580 OK oder beides NICHT OK!!!

boxleitnerb
2010-10-21, 13:26:07
Richtig. Beide Namen sind ok. Sinnlose Diskussion, weil du genau weißt, die die Karten einzuordnen sind.

igg
2010-10-21, 13:26:49
Was für ein kleinerer Fertigungsprozess?
Wollte damit sagen, dass GF110 eben nicht von einem kleineren Fertigungsprozess profitieren kann, wie sonst bei anderen refreshes.

LovesuckZ
2010-10-21, 13:30:21
GF110 kann aber vom GF104 profitieren. Was wiederrum bedeutet, dass man auf dem selben Prozeß bei schnellere Leistung weniger Strom benötigen könnte.
Eine GF104 auf 850MHz mit angepasster VCore ist schneller als eine GTX470, verbraucht dabei weniger Strom und lässt sich wesentlich, wesentlich leiser und mit niedriger Temperatur kühlen.
Eine GTX580 mit 20% mehr Leistung und einem Stromverbrauch einer GTX470 kann machbar sein.

V2.0
2010-10-21, 14:17:12
Niemand kümmern irgendwelche theoretischen *piep* Benchmarks. T*piep* ist schlicht irrelevant für die Leistung einer Grafikkarte, wenn die Software T*piep* sinnvoll nutzt und sich nicht in Minidreiecken tot rechnet.

hmx
2010-10-21, 14:54:34
Niemand kümmern irgendwelche theoretischen *piep* Benchmarks. T*piep* ist schlicht irrelevant für die Leistung einer Grafikkarte, wenn die Software T*piep* sinnvoll nutzt und sich nicht in Minidreiecken tot rechnet.

Es kümmern auch niemand Benches ohne AA. Am einigen Spielen ist jetzt schon abzusehen, dass die Radeons zwar gute Frameraten mit tesselation erreichen, da auch andere Faktoren eine Rolle spielen, aber eben dann gegenüber den GTXen nicht mehr so gut aussehen. Tesselation auf normal ist keineswegs sinnlos, sondern eben noch moderat, auch wenn es dir nicht gefällt. Mal ganz abgesehen davon, dass in in dem Benchmark nur auf Durchschnitte Wert gelegt wird, wenn man von der Tesselation mal was sieht, dann schaut es anders aus.
Da sist hier ähnlich sinnlos wie damals mit den FXen, wo viele am Anfang darauf beharrten, dass die theoretischen Shaderbenches nicht aussagekräftig sind. So extrem ist es hier zwar nicht, aber es ist schon abzusehen, dass die Radeons eben in der Hinsicht einen Nachteil haben, der eben in Spielen dann ein wenig zu spüren sein wird. Nicht so, dass die Karten da komplett einbrechen, da ja auch andere Dinge eine Rolle spielen. Man wird aber schon einige Prozente auf die jeweilige Konkurrenz verlieren. War ja bei dem rv770 gegen den gt200 auch so, irgendwann konnte ersterer dann seine Shaderleistung eben ausspielen.

AwesomeSauce
2010-10-21, 15:55:07
V2.0 ist das lebende Beispiel, dass Richard FUDdys PR-Bullshit ankommt. Traurig.

Schnitzl
2010-10-21, 15:59:16
Sorry, aber ich blick nicht mehr durch. Das sind zuviele Seiten...
Kommt jetzt der GF110? Wenn ja wie und wann (ungefähr)?

MfG

Hugo78
2010-10-21, 16:07:29
GF110 soll sein tapout schon hinter sich haben und wenn das A1 Stepping passt, könnte es ab ende Dezember Karten geben.

MadManniMan
2010-10-21, 16:07:54
V2.0 ist das lebende Beispiel, dass Richard FUDdys PR-Bullshit ankommt. Traurig.

V2.0 hat grad Spaß am Trollen: wenn man die Gesamtheit seiner Posts betrachtet, fällt der beißende Sarkasmus auf - manchmal ist er Öl ins Feuer ...

AwesomeSauce
2010-10-21, 16:22:06
Wie der Grossteil der User hier habe ich keine Zeit, die persönliche Post-History aller Nutzer nachzuchecken, um eventuelle Ironie/Sarkasmus zu finden. Dass es wirklich Leute gibt, die so denken, kommt erschwerend hinzu. Sorry.

@Hugo78
Die finalen Frequenzen stehen schon fest. Das Ding muss also in Produktion sein. Wenn das wirklich A1 sein sollte - dann alle Achtung! Neues Place and Route System FTW?

MadManniMan
2010-10-21, 16:35:42
Wie der Grossteil der User hier habe ich keine Zeit, die persönliche Post-History aller Nutzer nachzuchecken, um eventuelle Ironie/Sarkasmus zu finden. Dass es wirklich Leute gibt, die so denken, kommt erschwerend hinzu. Sorry.

Ja, das dachte ich mir auch schon die ganze Zeit - aber in Anbetracht der sowieso schon vorhandenen Trolle tut der eine oder andere "unechte" eigentlich auch nichts mehr zur Sache.
Berufen wir uns einfach weiterhin möglichst objektiv auf kritische und vor allem unparteiische Erkenntnisse und wir können das Getrolle vekraften.

igg
2010-10-21, 16:40:40
Wenn das wirklich A1 sein sollte - dann alle Achtung! Neues Place and Route System FTW?
A1 bei ATI entspricht A2 bei Nvidia

LovesuckZ
2010-10-21, 16:44:55
@Hugo78
Die finalen Frequenzen stehen schon fest. Das Ding muss also in Produktion sein. Wenn das wirklich A1 sein sollte - dann alle Achtung! Neues Place and Route System FTW?

Also laut den Pressmitteillungen investieren sie massiv in schnellere Migration auf kleinere Prozesse und schnelleres Produktionsilizium (=A1).
Barts soll ageblich sein Tape-Out Ende März gehabt haben. Das wäre zeitnah mit GF104 gewesen. Wenn AMD ein Respin benötigt hätte, zeigt sich, dass nVidia, trotz gegenteiliger Meinung, eben die Prioritäten stark geändert haben.

Schnitzl
2010-10-21, 16:46:49
Wie der Grossteil der User hier habe ich keine Zeit, die persönliche Post-History aller Nutzer nachzuchecken, um eventuelle Ironie/Sarkasmus zu finden. Dass es wirklich Leute gibt, die so denken, kommt erschwerend hinzu. Sorry.

@Hugo78
Die finalen Frequenzen stehen schon fest. Das Ding muss also in Produktion sein. Wenn das wirklich A1 sein sollte - dann alle Achtung! Neues Place and Route System FTW?
Das wäre optimal, je früher das Ding kommt je besser! :up:

V2.0
2010-10-21, 17:00:12
Wie der Grossteil der User hier habe ich keine Zeit, die persönliche Post-History aller Nutzer nachzuchecken, um eventuelle Ironie/Sarkasmus zu finden. Dass es wirklich Leute gibt, die so denken, kommt erschwerend hinzu. Sorry.

@Hugo78
Die finalen Frequenzen stehen schon fest. Das Ding muss also in Produktion sein. Wenn das wirklich A1 sein sollte - dann alle Achtung! Neues Place and Route System FTW?

Ich dachte das wäre klar. Es gibt hier einen User der Tesselation zum wichtigsten Merkmal macht und einen der die Wichtigkeit in Abrede stellt. Und es gibt eine PR Huddy, der fehlende Leistung der Hardware als Fehler der Software verkauft. Ich denke wir werden sehen was der richtige Weg ist, denn ich glaube die Antwort liegt in der Mitte. 3x3 Tesselation und kleiner erscheint mir auch eher wie Verschwendung, aber wo die sinnvolle Grenze ist werden wir erst in der Zukunft sehen.

Aber trotzdem ist die Leistung in dem Bereich nur ein Teil der Betrachtung, einer heute erscheinenden Karte. Denn wirklich flächig werden wir Tesselation wohl wirklich frühstens zu Lebzeiten der nächsten Generation sehen.

LovesuckZ
2010-10-21, 17:19:18
Schlechte Tessellation Leistung ist für Karten, die ende 2010 verkauft werden ein Makel. AMD verkauft Barts nicht gegen GTS450 sondern gegen die GTX460. Und wie sich zwar nur von Heaven zZ beweisen lässt, ist eine GTX460 deutlich schneller als eine 6850, die zum ähnlichen, wenn nicht identischen Preis verkauft wird. Und wer nach 365 Tagen eben nicht wegen maximal 10€ vor der Insolvenz steht, dem wird eine höhere Tessellationleistung wohl wichtiger bei der Kaufentscheidung sein als 37 Watt weniger verbrauch. Denn viele Unterscheidungsmerkmale wird es wohl nicht geben.

N0Thing
2010-10-21, 17:27:20
Vielleicht ist einem MLAA noch etwas wichtiger, falls es in der Praxis nutzbar ist und einen optischen Mehrwert bietet.

LovesuckZ
2010-10-21, 17:32:53
Vielleicht ist einem MLAA noch etwas wichtiger, falls es in der Praxis nutzbar ist und einen optischen Mehrwert bietet.

Oder SGSSAA unter allen APIs, oder Hybride-Modi, oder TSSAA, weil man kein Bock auf Blur und/oder 50% Leistungsverlust für 2% mehr BQ hat...
Ich rede hier nicht von Einstellungen, die zuviele Trade-Offs haben. Und MLAA soll bluren und die Leistung stark fallen lassen. Da könnte man auch CSAA als Alternative heranführen...

X.Perry_Mental
2010-10-21, 17:33:46
Schlechte Tessellation Leistung ist für Karten, die ende 2010 verkauft werden ein Makel.
Bitte sprich hier nur für Dich - was Andere als Makel empfinden, solltest Du auch den Anderen überlassen.

AnarchX
2010-10-21, 17:45:39
http://img264.imageshack.us/img264/4770/gtx580.png (http://img264.imageshack.us/i/gtx580.png/)

http://www.nvidia.com/object/3d-vision-requirements.html

Wohl nicht ganz unbeabsichtigt. ;)

LovesuckZ
2010-10-21, 17:46:11
Bitte sprich hier nur für Dich - was Andere als Makel empfinden, solltest Du auch den Anderen überlassen.

Gott, dieses Deutsch-auf-alles getue ist ziemlich nervig.
Eine schlechtere Leistung in Heaven@normal aufgrund der schlechteren Tessellationimplementierung ist ein Nachteil einer Karte, die preislich gegen eine Karte gestellt wird, die in DX8/9/10/einigen DX11 Spielen ähnlich schnell ist und ein ähnliches Featureset bietet.
Ob es für dich ein Makel ist, ist dann deine Sache.

http://img264.imageshack.us/img264/4770/gtx580.png (http://img264.imageshack.us/i/gtx580.png/)

http://www.nvidia.com/object/3d-vision-requirements.html

Wohl nicht ganz unbeabsichtigt. ;)

Okay, i lol'd. Das ist wirklich überraschend. :freak:

igg
2010-10-21, 17:48:22
Wohl nicht ganz unbeabsichtigt. ;)
Interessant auch, dass da keine kleineren Ableger genannt sind.

Hugo78
2010-10-21, 17:54:02
Interessant auch, dass da keine kleineren Ableger genannt sind.

Eventuell ist der Evaluierungsprozess noch im Gange.
Kommt halt auf die Ausbeute an, wo und wie man sinnvoll kleinere Ableger platziert.

X.Perry_Mental
2010-10-21, 17:54:40
Eine schlechtere Leistung in Heaven@normal aufgrund der schlechteren Tessellationimplementierung ist ein Nachteil einer Karte, die preislich gegen eine Karte gestellt wird, die in DX8/9/10/einigen DX11 Spielen ähnlich schnell ist und ein ähnliches Featureset bietet.
Ob es für dich ein Makel ist, ist dann deine Sache.
Gut, dann halt deutlicher: Sowohl ein Makel als auch ein Nachteil hängen von der jeweiligen Perspektive, den Ansprüchen und Einsatzgebieten ab. Für Dich ist es ein Nachteil und ein Makel. Bitte versuch nicht, für mich zu sprechen.
X.Perry_Mental

LovesuckZ
2010-10-21, 17:58:05
Gut, dann halt deutlicher: Sowohl ein Makel als auch ein Nachteil hängen von der jeweiligen Perspektive, den Ansprüchen und Einsatzgebieten ab. Für Dich ist es ein Nachteil und ein Makel. Bitte versuch nicht, für mich zu sprechen.
X.Perry_Mental

Ich habe oben den höhreren Verbrauch gegen die bessere Tessellationleistung gestellt und dargelegt, welche Auswirkung es hat, wenn man eine GTX460 statt einer 6850 im normalen Lastbetrieb über das Jahr hat.
Anscheinend liest du aber weder die Postings richtig, noch scheinst du begriffen zu haben, dass hier die bessere Tessellation bei zwei zu 95% gleichwertigen Karten als unwichtig eingestuft wurde.

DrFreaK666
2010-10-21, 18:05:08
Ich habe oben den höhreren Verbrauch gegen die bessere Tessellationleistung gestellt und dargelegt, welche Auswirkung es hat, wenn man eine GTX460 statt einer 6850 im normalen Lastbetrieb über das Jahr hat.
Anscheinend liest du aber weder die Postings richtig, noch scheinst du begriffen zu haben, dass hier die bessere Tessellation bei zwei zu 95% gleichwertigen Karten als unwichtig eingestuft wurde.

Du hast einen Benchmark gesehen und sagst, dass die GTX460 besser ist :rolleyes:

X.Perry_Mental
2010-10-21, 18:21:42
... noch scheinst du begriffen zu haben, dass hier die bessere Tessellation bei zwei zu 95% gleichwertigen Karten als unwichtig eingestuft wurde.
Für mich ist die Tesselation-Leistung ebenfalls kein Kaufkriterium. Ich weiß, dass es für Dich anders ist und respektiere das - ich bitte Dich lediglich darum, keine haltlosen, verallgemeinerten Thesen aufzustellen.
Noch ein kleiner Tipp am Rande: man wird Deinen Argumenten gegenüber offener sein, wenn Du Dich um einen etwas höflicheren Ton bemühst.
X.Perry_Mental

aths
2010-10-22, 10:04:57
Niemand kümmern irgendwelche theoretischen *piep* Benchmarks. T*piep* ist schlicht irrelevant für die Leistung einer Grafikkarte, wenn die Software T*piep* sinnvoll nutzt und sich nicht in Minidreiecken tot rechnet.Wieso niemand? Einige interessiert es schon, Praxisnutzen hin oder her. Einige wird auch ATIs MLAA-Implementierung interessieren obwohl die Zeit des Blurrens seit GeForce3 eigentlich vorbei sein sollte (das GeForce-3-Quincunx hatte wenigstens noch teilweise echtes AA integriert) und obwohl ATI mit Tent/Edge-Detection auch einen vernünftigen Filter im Angebot hat, der leistet, was MLAA nicht leisten kann. Einige wird es interessieren. Und einige interessiert auch Tesselationsleistung in synthetischen Benchmarks die keinerlei Relevanz für Spiele haben.

AnarchX
2010-10-22, 10:07:33
MLAA wird wohl Nvidia zeitnah nachliefern. Wenn man da genügend Rechenleistung investiert, ist das weit mehr als ein dummer Blur-Filter.

AnarchX
2010-10-22, 10:39:55
Das könnte im Bezug auf Nvidia und GDDR5 >1GHz auch interessant sein:

Along with selectively reducing functional blocks from Cypress and removing FP64 support, AMD made one other major change to improve efficiency for Barts: they’re using Redwood’s memory controller. In the past we’ve talked about the inherent complexities of driving GDDR5 at high speeds, but until now we’ve never known just how complex it is. It turns out that Cypress’s memory controller is nearly twice as big as Redwood’s! By reducing their desired memory speeds from 4.8GHz to 4.2GHz, AMD was able to reduce the size of their memory controller by nearly 50%. Admittedly we don’t know just how much space this design choice saved AMD, but from our discussions with them it’s clearly significant. And it also perfectly highlights just how hard it is to drive GDDR5 at 5GHz and beyond, and why both AMD and NVIDIA cited their memory controllers as some of their biggest issues when bringing up Cypress and GF100 respectively.
http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/2

AnarchX
2010-10-22, 11:58:49
Geforce „475“ is GF114 based

The „475“card is codenamed GT114 and it is likely to become the new Geforce GTX 560. Nvidia believes that their new cards deserve GTX 5x0 names, and this is what is supposed to happen.

http://fudzilla.com/graphics/item/20588-geforce-„475“-is-gf114-based

Wenn man GF104 durch "GF11x-Optimierungen" auf unter 300mm² bringt macht wohl ein neuer Chip durchaus Sinn.

Sinnvollerweise sollte Nvidia gleich noch ähnliche Display-Features wie bei HD 6800 verbauen.


GF11x Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8342116#post8342116

aths
2010-10-22, 12:35:03
MLAA wird wohl Nvidia zeitnah nachliefern. Wenn man da genügend Rechenleistung investiert, ist das weit mehr als ein dummer Blur-Filter.MLAA kann versuchen, aus Strukturen die größer als ein Pixel sind, den wahren Verlauf zu erraten. MLAA kann kein Aliasing senken welches durch zu kleine Details entsteht. Das ist aber der Sinn vom Antialiasing, der Treppeneffekt ist nur die bekannteste Auswirkung des Antialiasings. Wenn man unterbrochene dünne Kontraste hat, zum Beispiel helle Linien (dünner als ein Pixel) durch Specular Lighting, hilft nicht mal Multisampling, dann muss Supersampling ran. Die immer stärkere Rechenleistung sollte für immer besseres Antialiasing genutz werden, nicht für neue Methoden die noch weniger kosten und noch weniger bringen. MLAA als Antialiasing zu bezeichnen wäre in etwa so, das "HDR-ish Smartshader"-Postprocessing als leistungseffiziente HDR-Rendering-Methode zu vermarkten.

Fetza
2010-10-22, 20:34:01
Wenn die GTX 580 für $449/380€ startet, sind 20% doch nicht so schlecht.
Man wird wohl momentan mit 512SPs @ ~800/1600/1100MHz spekulieren.

Dann wird es wohl wieder zu so einem perversen ausverkauf der gtx 480 kommen, wie damals zu gtx 280>285 zeiten. :)

MLAA wird wohl Nvidia zeitnah nachliefern. Wenn man da genügend Rechenleistung investiert, ist das weit mehr als ein dummer Blur-Filter.

Ist amds shaderarchitektur eigentlich im vorteil für mlaa?

mapel110
2010-10-22, 21:40:46
Ist amds shaderarchitektur eigentlich im vorteil für mlaa?
Wenn man sich den kleinen Performance-Hit bei Metro2033 anschaut, sollte das nicht der Fall sein.

Hugo
2010-10-26, 14:28:25
doch eine Dual-GTX460?

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16857-bilder-einer-zotac-nvidia-geforce-gtx-460-x2-aufgetaucht.html

AnarchX
2010-10-26, 14:29:32
Das ist nur ein Projekt von Zotac, damit hat Nvidia wohl nichts zu tun.

Fetza
2010-10-26, 20:51:04
Das ist nur ein Projekt von Zotac, damit hat Nvidia wohl nichts zu tun.

Wer das macht ist doch egal, hauptsache sie kommt. :)

AnarchX
2010-10-26, 21:24:17
Eine echte 2x 384SPs "GTX 490" wäre dem hier wohl vorzuziehen. Im Endeffekt könnte die Zotac Karte ein Prestigeprojekt sein, was niemals wirklich an den Markt kommt.

Fetza
2010-10-27, 03:21:35
Eine echte 2x 384SPs "GTX 490" wäre dem hier wohl vorzuziehen. Im Endeffekt könnte die Zotac Karte ein Prestigeprojekt sein, was niemals wirklich an den Markt kommt.

Klar, nur wird die verlustleistung wohl nicht zu bändigen sein.

=Floi=
2010-10-27, 03:41:28
immer das gleiche nicht haltbare argument!

hauptsache 384 SPs UND volle chips. wenn dann die taktrate geringer ist, dann passt es ja auch.

Fetza
2010-10-27, 06:15:11
immer das gleiche nicht haltbare argument!

hauptsache 384 SPs UND volle chips. wenn dann die taktrate geringer ist, dann passt es ja auch.

Ich spreche natürlich von gleichen taktraten und damit ist das nur ein logische schlussfolgerung. Natürlich ist keine kunst, das man die chips auch von der verbrauchsleistung her angleichen kann, wenn man über den takt geht. Die frage ist nur, wieviel schneller wäre eine solche lösung dann gegenüber eine beschnitte, dafür aber schneller getaktete version?

Dural
2010-10-27, 09:01:16
nö ist es nicht, weil es schon xxxxxxxxxx andere GPUs vor her belegt haben das eine kleine teil deaktivierung so gut wie rein gar nichts am verbrauch ändert.

dazu gibt es sogar aussagen von AMD!

entscheidend ist takt + spannung und gerade da hat GF104 extreme grosse vorteile, eine "GTX490" 384SP 700MHz GPU würde sogar sicher weniger verbrauchen als eine GTX460 336SP 675MHz massenmarkt GPU...

ich frag mich wie oft man das noch diskutieren muss... ich glaub ich pack das jetzt langsam in meine sig ;)


und du tust ja gerade so als die GTX460 viel verbrauchen würde... es sind gemessen ca. 120-135Watt! eine 300Watt TDP GX2 karte wäre somit locker mit über 700MHz möglich.

Sorkalm
2010-11-04, 13:30:00
Laut Heise (http://www.heise.de/newsticker/meldung/GeForce-GTX-460-SE-kommt-Mitte-November-1130579.html) kommt jetzt noch eine GTX 460 SE am 15. November:

http://s10.directupload.net/images/101104/k6xq975p.jpg

fondness
2010-11-04, 13:33:06
Laut Heise (http://www.heise.de/newsticker/meldung/GeForce-GTX-460-SE-kommt-Mitte-November-1130579.html) kommt jetzt noch eine GTX 460 SE am 15. November:

http://s10.directupload.net/images/101104/k6xq975p.jpg

Noch weniger Cores statt eines vollen Chips? Damit wird immer deutlicher das GF104 auch den GF100-Bug geerbt hat, auch wenn es manche noch immer nicht einsehen wollen.

Raff
2010-11-04, 13:34:29
Volles Interface, aber weniger ALUs und Takt: Da möchte man wohl den GF104-"Abfall" unters Volk bringen. Nun, interessant ist das Ding durch (interessanter als die 768M-Version), sofern Sie preislich nah an der GTX 460/768M ist. Noch ein OC-Wunder, diesmal mit 1 GiByte um 130 Euro?

MfG,
Raff

mapel110
2010-11-04, 13:34:56
Noch weniger Cores statt eines vollen Chips? Damit wird immer deutlicher das GF104 auch den GF100-Bug geerbt hat.
Nö, damit wird deutlicher, dass eine weitere Lücke im Angebot bei nvidia geschlossen wird. Ein voller GF104 würde der GTX 470 zu stark das Wasser abgraben. Deswegen kommt das Teil nicht.

fondness
2010-11-04, 13:36:46
Nö, damit wird deutlicher, dass eine weitere Lücke im Angebot bei nvidia geschlossen wird. Ein voller GF104 würde der GTX 470 zu stark das Wasser abgraben. Deswegen kommt das Teil nicht.

Ich bin gespannt welche Ausrede kommt wenn GF110 vorgestellt wurde.

Die GTX460 grub auch der GTX465 das Wasser ab, und der GTX470 durch die OC-Versionen defacto auch. Macht ja auch Sinn, da GF104 wesentlich billiger herzustellen ist.
NV wusste sicherlich auch vorher wie schnell ihre Chips werden, alleine schon deshalb ist dieses Argument nonsens. :)

Dural
2010-11-04, 13:51:05
gar keine da GF110 zuerst mit 512SP im A1 kommt und deine super "theorie" getrost in den Eimer werfen kannst... :wink:

wer bist du eigentlich, ich habe ja schon langsam einen verdacht...



Die 460 SE dürfte wahrlich ein OC Monster werden, dazu mit 32ROPs WOW! 40% OC sind wohl schon fast "sicher" drin

fondness
2010-11-04, 13:53:11
gar keine da GF110 zuerst mit 512SP im A1 kommt und deine super "theorie" getrost in den Eimer werfen kannst... :wink:

Denke mal etwas weiter. Die GTX570 wird sicherlich auch diese ~15% schneller als die GTX470. Ergo wäre Platz für einen vollen GF104. :)

wer bist du eigentlich, ich habe ja schon langsam einen verdacht...

Wer bist leicht du das du das fragst?

Ailuros
2010-11-04, 14:02:30
Wenn Ihr beiden Euch vorstellen wollt macht es gefaelligst privat via PM. Bleiben wir bitte sachlich beim Thema.

Dural
2010-11-04, 14:23:39
Denke mal etwas weiter. Die GTX570 wird sicherlich auch diese ~15% schneller als die GTX470. Ergo wäre Platz für einen vollen GF104. :)



...der doch sicher auch in der 500 Serie kommen wird, villeicht auch als GF114 wer weis...

NV wird garantiert so was in der 400 Serie nicht mehr bringen :)

ShinyMcShine
2010-11-05, 12:09:36
...der doch sicher auch in der 500 Serie kommen wird, villeicht auch als GF114 wer weis...

NV wird garantiert so was in der 400 Serie nicht mehr bringen :)

In der 400er nicht mehr, so viel scheint mit der (angeblichen) Vorstellung der GTX 580 nächste Woche klar.

Allerdings bin ich mir sicher, dass nVidia ohne Probleme sofort eine GTX 560 parallel zur GTX 580 vorstellen könnte. Schliesslich wird die 500er Serie wohl nur ein Performance-Upgrade darstellen und kein Plus an aussergewöhlichen (neuen) Features enthalten. Daher:

Man nehme den GF104, verpasse ihm mind. 775 MHz (ca. 15% mehr, was problemlos möglich sein sollte) und ein wenig mehr Speicherbandbreite à la 2.050 MHz (ca. 14% mehr, was auch kein Problem ist), fertig wäre eine GTX 560 mit dem aktuellen GF 104.

Wenn man dann noch alle Einheiten freischaltet (genug volle Chips dürfte nVidia wohl mittlerweile auch zusammenhaben, bzw. die Herstellung abwerfen), kommt man noch problemloser auf einen Nachfolger der GTX 460 und kann sogar wieder mit dem Chiptakt nach unten gehen. :cool:

Ich hoffe nur dass sich auf dem Performancefeld dieses Jahr mit dem GTX 560 noch was tut. Ich habe schliesslich schon bei der 460er Serie auf den vollen GF 104 gewartet und jetzt kommt schon die 500er Serie raus! ;D

VG
Shiny

AnarchX
2010-11-06, 15:57:17
Die SE deutet wohl darauf hin, dass es doch eine größere Zahl an GF104 Dies mit weniger als 7 funktionierenden Clustern gibt, ansonsten hätte man nur die Taktraten gesenkt und das Design auf 1x 6-Pin reduziert. Aber da wird man wohl auch gleich noch die GF104 mit hohen Spannungsanforderungen unterbringen.

Da die Bandbreite schon bei den aktuellen Version kein großer Faktor, war wird sich die SE wohl entsprechend der verringerten Einheiten und Taktraten verhalten.
Viel mehr als 100€ darf eine solche Karte dann wohl nicht mehr kosten.

RainingBlood
2010-11-06, 22:24:33
oh mann, dann warte ich also vollkommen umsonst auf eine 475?

Fetza
2010-11-07, 11:15:21
oh mann, dann warte ich also vollkommen umsonst auf eine 475?

Jup, das was du meinst wird als gtx 560 firmieren. Kommt frühestens dezember, spätestens februar - so sagt man. ;)

Thunder99
2010-11-07, 11:50:38
oh mann, dann warte ich also vollkommen umsonst auf eine 475?
Hab so was geahnt + dass ich nicht mehr länger warten konnte ist es bei mir eine GTX470 geworden. Aber eine Version die schneller und leiser ist las das Referenz Design :)

OT: Ich gehe davon aus, dass die GTX560 in etwa gleich schnell wie die GTX470 wird

AnarchX
2010-11-09, 09:19:28
460SE VS 460-768

http://image20.it168.com/201011_0x0/325/b61e4273d515c45f.jpg

http://vga.it168.com/a2010/1109/1123/000001123754.shtml

MadManniMan
2010-11-09, 10:25:26
Das wäre eine - für mich - überraschend starke Vorstellung. Jedoch würde ich zu gern auch wissen, was AA und AF für Auswirkungen haben ...

AnarchX
2010-11-09, 11:21:39
Wobei die SE auf 650/1300/850MHz laut Nvidia takten sollte, aber da werden wohl wieder nahezu alle Hersteller einen leichen OC mitbringen, wenn es eh 2x 6-Pin sind.

Fetza
2010-11-09, 13:50:43
Ich find diese extrem kastrierte SE ziemlich daneben, könnte mich nicht dafür begeistern.

AnarchX
2010-11-15, 08:39:04
Laut HT4u soll die SE nun eine 256-Bit 336SPs 180W Karte sein:
http://ht4u.net/news/22967_und_hier_die_naechste_neuvorstellung_nvidia_geforce_gtx_460_se/

:|


Zudem gibt es eine offzielle 512MiB Version der GTS 450: http://en.expreview.com/2010/11/15/nvidia-to-unveil-geforce-gts-450-512mb/11859.html

Dural
2010-11-15, 09:14:35
das ist doch sicher ein MSI fehler? die SE wird nie schneller als eine GTX sein!

Edit:
obwohl das ding soll ja GTX SE heisen, sehr komisch wegen 25MHz mehr GPU takt eine "neue" karte zu bringen...

Edit2:
das dürfte wohl wirklich eine preis optimierte (180Watt TDP lässt sicher mehr chips zu...) 6850 gegner sein.

YfOrU
2010-11-15, 09:16:34
Zudem gibt es eine offzielle 512MiB Version der GTS 450: http://en.expreview.com/2010/11/15/nvidia-to-unveil-geforce-gts-450-512mb/11859.html


Mit dem GF106 hat Nvidia eine richtig flexible GPU auf den Markt gebracht.

128/192Bit Speicherinterface (2 / 3 ROP Partitionen) mit DDR3 / GDDR5

144/192 CUDA Cores und damit 24 / 32 TMUs.

Über Notebooks und Desktop ergibt sich damit eine ordentliche Bandbreite an Produkten. Dummerweise gibt es damit auch so Späße wie 3GB DDR3 im aktuellen Dell Studio XPS 17 und das ist einfach leicht daneben.

AnarchX
2010-11-15, 09:25:23
Mit dem GF106 hat Nvidia eine richtig flexible GPU auf den Markt gebracht.

128/192Bit Speicherinterface (2 / 3 ROP Partitionen) mit DDR3 / GDDR5

144/192 CUDA Cores und damit 24 / 32 TMUs.

Imo hätte man wohl aber die ROP-Partitionen auf 4 ROPs und den halben L2-Cache reduzieren können. Bei der GT 430 hat das keine Performance gekostet.
Und so hätte eine 192-Bit DDR3 GT 440 mit nur 144SPs nicht die gleiche Zahl wie ROPs und L2 Cache wie eine 192-Bit GTX 460. :freak:


Über Notebooks und Desktop ergibt sich damit eine ordentliche Bandbreite an Produkten. Dummerweise gibt es damit auch so Späße wie 3GB DDR3 im aktuellen Dell Studio XPS 17 und das ist einfach leicht daneben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=493869

YfOrU
2010-11-15, 09:46:24
Na da werden sie bestimmt die 10 Jahre alten Fillrate Sticker wieder auspacken und auf die Kartons kleben :D

Was die Pixelfüllrate betrifft ist auch die 460M (GF106) der 470M (GF104) aufgrund der höheren Taktfrequenz leicht überlegen.

AnarchX
2010-11-15, 10:04:11
So ein monströses Back-End nützt aber nahezu nichts, wenn GF106 maximal 8 Pixel produzieren kann in seinen SMs.
Und die Z-Leistung braucht man wohl auch nicht, da der Rest von GF106 zu langsam für z.B 32x CSSAA wäre.

Wenn die Blockschemas stimmen, hat Nvidia hier imo einige Transistoren verschwendet. Selbst wenn es ein Pad-Limit gewesen ist, hätte man noch ein paar Massetransistoren für Taktbarkeit verbauen können, anstatt 24 ROPs und 384KiB L2.

YfOrU
2010-11-15, 10:15:42
Natürlich ist das nicht gerade effizient aber der GF106 ist wohl eine schnelle und billige Auskopplung aus dem GF104.

Auf der Habenseite und darum ging es wohl auch steht das 192Bit Interface und damit lässt sich dank DDR3 auch wieder einiges (Herstellungskosten) kompensieren.

Gerade für die OEMs und den mobilen Markt ist das ein netter Bonus denn der GF106 sollte selbst mit DDR3 (bei 192Bit) etwas schneller sein als eine 5850M mit GDDR5.

AnarchX
2010-11-15, 10:24:35
Die Mobility Radeons (~4Gbps) nutzen anders als die Mobilen GeForce (~2,4Gbps) den GDDR5-Takt nahezu voll aus, sodass hier 192-Bit DDR3 etwas weniger Bandbreite ermöglichen.

Imo wird es die GT 440 schon nicht einfach gegen die HD 5670 bei mehr als doppelter Die-Size haben.

Dural
2010-11-15, 10:41:23
ich würde viel lieber entlich mal eine GF106 desktop karte mit 24ROP sehen!

mit 768MB Speicher und 192SP wäre das ein super 8800GTX "nachfolger" in billig ;)

Dural
2010-11-15, 17:37:20
doch 288SP:

Zotac und Asus stellen GeForce GTX 460 SE vor


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/zotac-und-asus-stellen-geforce-gtx-460-se-vor/


http://www.nvidia.com/object/product-geforce-gtx-460-us.html

hät mich jetzt auch mega stark verwundert wenn die auch mit 336SP gekommen wäre...

Rampage 2
2010-11-26, 17:23:30
Jup, das was du meinst wird als gtx 560 firmieren. Kommt frühestens dezember, spätestens februar - so sagt man. ;)

Und die wird dann 32 ROPs, 64 TMUs, 384 SPs, 256Bit SI und 1GB GDDR5-RAM haben, oder? Nvidia hatte doch gesagt, dass sie eine volle GF104 veröffentlichen werden, wenn es sich lohnt - und lohnen wird sich das auf jeden Fall...

Bleibt dann nur noch die Frage der Taktrate - ich erwarte 800+/1600+/2000+ MHz

Ailuros?

R2

=Floi=
2010-12-12, 09:04:02
vor allem WANN sollen die karten denn endlich kommen? langsam wirds lächerlich. die sollen das teil einfach raushauen und gut ists. so kauft sich der normale kunde doch einfach eine olle 460er für ~130€ und lacht sich eins, weil nv keine besseren karten bringt, welche auch ein wenig mehr kosten.
eine 2gb 560er für 200€ wäre ja ok.

AnarchX
2010-12-12, 11:31:34
So lange GF100 noch als GTX 470 gut verkauft wird und man Lagerbestände hat, wird man wohl auch keine gleichwertige GF104-Karte vorstellen.

Für den 24. Januar wird die GTX 560 spekuliert. Fragt sich nur ob GF104 oder GF114.

aths
2010-12-12, 14:27:56
So ein monströses Back-End nützt aber nahezu nichts, wenn GF106 maximal 8 Pixel produzieren kann in seinen SMs.
Und die Z-Leistung braucht man wohl auch nicht, da der Rest von GF106 zu langsam für z.B 32x CSSAA wäre.Dafür müssten 2x und 4x MSAA recht flott gehen. Ich finde es schade, dass Nvidia nicht mit einem vollen GF106 angreift, 192-Bit mit DDR5, 192 Cuda-Cores: Klar, in normalen Settings wohl maximal auf GTS-250-Niveau, aber mit Anti-Aliasing müsste sie deutlich vorne liegen.

Mich wurmt es, dass die mit 192 Bit nur so eine OEM-Version bringen die gerade mal 144 Cuda-Cores hat.

aths
2010-12-12, 14:29:49
vor allem WANN sollen die karten denn endlich kommen? langsam wirds lächerlich. die sollen das teil einfach raushauen und gut ists. so kauft sich der normale kunde doch einfach eine olle 460er für ~130€ und lacht sich eins, weil nv keine besseren karten bringt, welche auch ein wenig mehr kosten.
eine 2gb 560er für 200€ wäre ja ok.Nvidia bringt neue Modelle leider nicht, um uns Gamer glücklich zu machen. Mit anderen Worten: Die Karte kommt dann, wenn Nvidia mehr daran verdient als mit anderen Modellen.

Mancko
2010-12-12, 15:04:32
Nvidia bringt neue Modelle leider nicht, um uns Gamer glücklich zu machen. Mit anderen Worten: Die Karte kommt dann, wenn Nvidia mehr daran verdient als mit anderen Modellen.

Irgendwo ja auch nachvollziehbar oder? :) Inventory Management ist schon ein ganz wichtiger Punkt im Halbleitergeschäft. Wenn man da nicht aufpasst muss man ordentlich abschreiben. Das hat Nvidia schon erlebt und AMD erlebt das fast einmal im Jahr.

=Floi=
2010-12-12, 16:58:54
Nvidia bringt neue Modelle leider nicht, um uns Gamer glücklich zu machen. Mit anderen Worten: Die Karte kommt dann, wenn Nvidia mehr daran verdient als mit anderen Modellen.

wo verdient man mit der 460er mehr wie mit der 560er? kommt mir nicht mit der 470 oder der 465er, weil sich die keiner mehr kauft. das teil ist zu laut und mit nachgerüstetem kühler auch ein eck teurer. die 130€ und die gute übertaktbarkeit der 460er sind hier unschlagbar!

dildo4u
2010-12-12, 17:10:46
wo verdient man mit der 460er mehr wie mit der 560er? kommt mir nicht mit der 470 oder der 465er, weil sich die keiner mehr kauft. das teil ist zu laut und mit nachgerüstetem kühler auch ein eck teurer. die 130€ und die gute übertaktbarkeit der 460er sind hier unschlagbar!
Die 470 von gigabyte wird in Masse gekauft siehe geizhals Top 10.

http://geizhals.at/deutschland/?o=8

Deinorius
2010-12-12, 17:20:42
Das sind doch nur die Top10 der meisten Zugriffe auf die Produktlistungen.

Botcruscher
2010-12-12, 18:52:21
Sie wurden angeklickt, nicht gekauft. Der Unterschied ist gigantisch. Da hätte ich ja zwei mal die Woche jede menge neue Karten.

AnarchX
2010-12-12, 18:57:04
Dafür müssten 2x und 4x MSAA recht flott gehen. Ich finde es schade, dass Nvidia nicht mit einem vollen GF106 angreift, 192-Bit mit DDR5, 192 Cuda-Cores: Klar, in normalen Settings wohl maximal auf GTS-250-Niveau, aber mit Anti-Aliasing müsste sie deutlich vorne liegen.
Vielleicht kommt die GTS 550/540 mit 1,5GiB GDDR5, wenn die 2GBit Chips in großen Mengen lieferbar sind und man so nur ein Design mit 6 Speicherchips benötigt.

Aber viel Leistung wird diese Änderung wohl eher nicht bringen.

VooDoo7mx
2010-12-13, 21:24:52
ich würde viel lieber entlich mal eine GF106 desktop karte mit 24ROP sehen!

mit 768MB Speicher und 192SP wäre das ein super 8800GTX "nachfolger" in billig ;)

Ich könnte mir eine GTS 550 so gut vorstellen. Nur eben mit 1,5GiB Speicher. 768MiB macht sich bei solchen Karten nicht so gut.