Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich ...
Leonidas
2012-05-16, 11:32:01
Link zur News:
http://www.3dcenter.org/news/nvidias-gk110-chip-mit-2880-shader-einheiten-im-gamer-bereich-aber-erst-im-jahr-2013
Booby
2012-05-16, 12:23:14
naja doppelte Chipfläche bei 30-40% Mehrleistung ist weiß nicht, wirklich effizient wird er fürs Gaming sicherlich nicht sein. Tahiti-refresh sollte ins selbe Performancemilieu kommen.
Selbst mir "nur" 2688 Shadereinheiten (+75%) und 20% weniger Taktrate (175% *0.8 = 140%) wären 40% Mehrleistung zur GTX680 drin.
Wobei man wohl ziemlich sicher davon ausgehen kann, das die Gamer-Karten und spätestens die ab Werk übertakteten Modelle mit 900 Mhz auf den Markt kommen werden.
Das wären dann schon +57,5% zur 680.
Geht man nun doch davon aus, das die HighEnd Modelle mit vollen 2880 Shadereinheiten erscheint, wovon man eigentlich ausgehen kann, da Nvidia sich genug Zeit mit dem Release des GK110 lässt (und diesen nicht überstürtzt auf den Markt wirft wie mit Fermi alias GTX480), dann wären bei 900 Mhz noch knapp +70% Mehrleistung drin.
Mit einem deutlich breiteren SI von 50% sollte die Bandbreite nicht mehr limitieren.
Schließlich stieg die Bandbreite von GTX580 zur GTX 680 gar nicht, sondern wurde sogar minimal kleiner.
Siehe hier:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/2/#abschnitt_technische_eckdaten
So eine GK110 Karte unter Wasser mit ~1Ghz sollte eine dicke Staubwolke hinter sich lassen.
AnarchX
2012-05-16, 12:29:04
naja doppelte Chipfläche bei 30-40% Mehrleistung ist weiß nicht, wirklich effizient wird er fürs Gaming sicherlich nicht sein. Tahiti-refresh sollte ins selbe Performancemilieu kommen.
Da GK110 auch als HPC-Chip für einige tausend Euro verkauft wird, ist die Gaming-Leistung pro mm² nicht so wichtig.
Aber je nachdem wie gut die Rohleistung hier umgesetzt wird, hat man das Potential für deutlich über 50%.
Und ein Gleichstand für AMD wäre zu hoffen, aber Refreshes wie Cayman brachten bei weitem nicht solche deutlichen Steigerungen.
In der News und im 680 Thread wurde geschrieben, das die Verfügbarkeit der 680 kaum gegeben ist, weil die Ausbeute an "kompletten" Chips gering ist bzw. beim GK110 noch geringer sein wird.
Jedoch wurde nirgends von Nvidia behauptet, das viele fehlerhafte Chips produziert werden.
Im Gegenteil, es wurde gesagt das die Ausbeute sehr gut ist und das die Kapazitäten nur zu gering sind.
Möglich ist auch das derzeit viele volle GK104 Chips in die Dual-Tesla Karte und damit in den Serverbereich wandern.
Bisher spricht noch nichts dagegen, das der GK110 sofort mit max. Anzahl an Shaderunits erscheint.
DarknessFalls
2012-05-16, 13:12:29
Und ein Gleichstand für AMD wäre zu hoffen, aber Refreshes wie Cayman brachten bei weitem nicht solche deutlichen Steigerungen.
...Steigerungen sogar größer als das sah man aber z.B. bei HD3870 vs. HD4870, also von RV670 auf RV770. Gerade bei der doch sehr frischen GCN-Architektur halte ich das zumindest nicht für unmöglich.
Knuddelbearli
2012-05-16, 14:12:13
na also ist scheinbar doch GK104 high end da der gk110 scheinbar aktuell kaum ( nur mit Deaktivierung ) Fertigbar ist
boxleitnerb
2012-05-16, 14:34:48
Nö, schau dir das PCB der 670 an und sag das nochmal ;)
Die Diskussion hatten wir doch schon zur Genüge - es gibt eben Leute, die nicht nur nach der Performance gehen, sondern noch andere Kriterien dazunehmen. Ich glaub dich störts nur, dass manche sagen, Nvidias Performancekarte schlägt AMDs Highend-GPU. Wobei selbst das falsch ist, Tahiti ist in meinen Augen auch kein wirkliches Highend.
Spasstiger
2012-05-16, 14:40:08
Bei der Speichermenge würde ich 3-6 GiB schreiben, da die Tesla-Varianten sicherlich nicht nur 3 GiB haben. Evtl. sind bis 2013 auch 12 GiB an einem 384-Bit-SI möglich.
y33H@
2012-05-16, 14:41:01
Tahiti wie GK104 sind Performance, GK110 High-End. Ganz simpel ;-)
1.)
Selbst mir "nur" 2688 Shadereinheiten (+75%) und 20% weniger Taktrate (175% *0.8 = 140%) wären 40% Mehrleistung zur GTX680 drin.
Wobei man wohl ziemlich sicher davon ausgehen kann, das die Gamer-Karten und spätestens die ab Werk übertakteten Modelle mit 900 Mhz auf den Markt kommen werden.
Das wären dann schon +57,5% zur 680.
Geht man nun doch davon aus, das die HighEnd Modelle mit vollen 2880 Shadereinheiten erscheint, wovon man eigentlich ausgehen kann, da Nvidia sich genug Zeit mit dem Release des GK110 lässt (und diesen nicht überstürtzt auf den Markt wirft wie mit Fermi alias GTX480), dann wären bei 900 Mhz noch knapp +70% Mehrleistung drin.
Mit einem deutlich breiteren SI von 50% sollte die Bandbreite nicht mehr limitieren.
Schließlich stieg die Bandbreite von GTX580 zur GTX 680 gar nicht, sondern wurde sogar minimal kleiner.
Siehe hier:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/2/#abschnitt_technische_eckdaten
So eine GK110 Karte unter Wasser mit ~1Ghz sollte eine dicke Staubwolke hinter sich lassen.
Die GTX 680 skaliert jetzt schon deutlich stärker mit der Speichertakt, als dem Chiptakt:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/26/#abschnitt_taktskalierung
Das ist neben dem Turbo auch mit ein Grund, warum die GTX 670 so gut abschneidet (nur 9% weniger Leistung bei 10% weniger Takt und 14% weniger Shader).
Die Frage ist hier also weniger, wieviele Shader jetzt verbaut sind bzw. mit welchem Takt diese betrieben werden, sondern in erster Linie wie sich die Verbreiterung des Speicherinterface auswirkt. Selbst wenn Nvidia volle 1GHz bei 15 Clustern liefern kann (+87,5%), so wird immer noch der Speicher limitieren (noch stärker als jetzt) und es kommen vielleicht 60% mehr Leistung raus.
2.) Bei der aktuellen Ausbeute liegt der Preis einer Karte wie der GTX 680 um die 400 Euro. Diese Karte würde dann auf dem Niveau einer GTX 690 liegen und hier ist der Absatz so gering, dass es sich nicht auszahlt, hier extra ein neues Chipdesign in Auftrag zu geben. Bei der GTX 690 ist es einfach. Da werden einfach ein paar Karten aus zwei normalen Chips zusammengeschustert und fertig.
3.) Ich denke die Karte wird in 2013 der Refresh der aktuellen Generation sein, wo wieder ein Leistungsschub der ganzen Generation kommt d.h. GTX 680 auf 200-250 Euro, die neue Karte um die 400-500.
Iterator
2012-05-16, 19:03:20
Von der Leistung ist Karte für Ihren Einsatzzweck natürlich mal wieder ein Vorzeigeprodukt
für Nvidia und man wird bestimmt in der Zukunft den einen oder anderen Cluster mit den
Karten finden.
Was die kommende Gamer Variante angeht(GK110), sind die prognostizierten 40 bis circa +-50
Prozent auch ein fantastischer Wert im Vergleich zur 680.Ob das allerdings zum Release 2013 im
Vergleich zur Konkurrenz immer noch so Tolle Werte sind, muss man abwarten, da geht noch viel
Zeit den Bach runter.
OBrian
2012-05-16, 19:08:27
Diese ganzen Einstufungen sind doch nur Marketingblasen, beliebig hingebogen wie es gerade paßt. Wichtig ist doch letztlich, wieviel Leistung bekommt man pro Euro, oder wieviel Leistung ist überhaupt kaufbar.
Da GK110 Karten deutlich nach den GK104 Karten erscheinen und in dieser Zeit auch die Preise für schnellen GDDR5 Speicher sinken und das SI nicht auf extreme 512 Bit aufgeblasen wurde (und somit weniger teurer Speicher verbaut werden muss) ist es wahrscheinlich das bei GK110 Karten genau so schneller Speicher verbaut wird, wie bei der GTX680 und vieleicht wird sogar noch etwas schnellerer Speicher verbaut. (10% schnelleren GDDR5 könnte ich mir vorstellen)
Woher stammen die Informationen eigentlich? Hat 3DCenter sich das ausgedacht?
Spasstiger
2012-05-17, 11:35:53
240 TMUs sind mittlerweile von Nvidia bestätigt: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf.
DP:SP ist 1:3, d.h. die DP-Rechenleistung wird wohl irgendwo zwischen 1,5 und 1,8 TFlops liegen (Tesla) und die SP-Rechenleistung bei ~5 TFlops (GeForce).
Bei 240 TMUs könnte Nvidia ja nen 32*AF Modus integrieren.
Was will man sonst mit soviel Texturpower anfangen?
looking glass
2012-05-17, 15:07:20
Ähh, wie würde so ein Monster gekühlt werden (ginge das überhaupt noch vernünftig mit Lüfter, oder muss man da schon 3 Slots und 120iger ran) und wie mit Strom versorgt? Der TDP Wert dürfte doch alles bisherige locker wegbuxen oder nicht?
dildo4u
2012-05-17, 15:16:51
Ähh, wie würde so ein Monster gekühlt werden (ginge das überhaupt noch vernünftig mit Lüfter, oder muss man da schon 3 Slots und 120iger ran) und wie mit Strom versorgt? Der TDP Wert dürfte doch alles bisherige locker wegbuxen oder nicht?
Nein Performance per Watt wurde in der Theorie um den Faktor 3 erhöht,selbst wenn nur 2X bei Gamecode rauskommt kann man so bei Rund 250Watt bleiben,die 690 verbraucht ca 260Watt und kommt auf den Faktor 2.3 zur GTX 580.
http://www.abload.de/img/gtx690e2uaf.jpg
Nightspider
2012-05-17, 22:33:12
Ähh, wie würde so ein Monster gekühlt werden (ginge das überhaupt noch vernünftig mit Lüfter, oder muss man da schon 3 Slots und 120iger ran) und wie mit Strom versorgt? Der TDP Wert dürfte doch alles bisherige locker wegbuxen oder nicht?
Der Chip wird wahrscheinlich minimal kleiner sein als der von der GTX280.
Monster ist da vielleicht das falsche Wort in Anbetracht der Effizienz der Kepler Architektur.
Von Monster kann man da eher in Bezug auf die Leistung sprechen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.