Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
13
14
15
16
TurricanM3
2013-02-12, 21:14:23
Wenn nvidia schon die Karte als exklusiv Karte außerhalb der eigentlichen Serie verkaufen möchte wäre es armselig und das Marketing total daneben nur 3GB zu bringen.
Zumal es immer noch eine Menge Leute gibt die glauben viel RAM = viel Leistung.
Gipsel
2013-02-12, 21:31:46
Übrigens, ist vielleicht ein wenig spät, aber die Diskussion über die Performanceunterschiede zwischen OGSSAA/Downsampling bzw. höherer Auflösung und SGSSAA im Vergleich von AMD und nV habe ich mal in einen Technologiethread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9651934#post9651934) ausgelagert.
Schaffe89
2013-02-12, 22:44:09
Die Werte sind zu gut, über 1000mhz Takt sind bei 235 Watt TDP doch gar nicht realisierbar.
Das müssen OC Werte sein mit einem erhöhten Boost, höher drehendem Lüfter oder sonstwas oder es ist halt immernoch falsch.
Ich bleibe bei 35 bis 50%, mehr als 60% im Schnitt nie im Leben., das wärer schon ultrafett.
dildo4u
2013-02-12, 22:56:27
Kepler scalt von der 650Ti zur 680 ziemlich ideal.(100% Mehr Shader Core's 100% mehr Leistung)
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/6/
Da bei Titan die Bandbreite massiv erhört wird passt das mit den 60% schon,selbst wenn der Takt nur um 900 liegt.(1536 vs 2688 Cores)Die 2688 sind nich mal der volle Chip also noch Konservativ gerechnet.
Blediator16
2013-02-12, 23:15:35
Nur wie wollen die es schaffen die "Compute" Karte noch effizienter als den schon effizienten 104er zu machen? Anfangs ging man von eher niedrigen Taktraten aus. Mittlerweile geht man schon von 1ghz Boost aus. Das will nicht in meinen Schädel. Auch wenn die "Kleinen" gut skalieren kann man das nicht ganz so einfach auf den Großen übertragen. Dafür dürften sie viel zu unterschiedlich sein.
dargo
2013-02-12, 23:18:14
Da bei Titan die Bandbreite massiv erhört wird passt das mit den 60% schon,selbst wenn der Takt nur um 900 liegt.
Wo wird da massiv Speicherbandbreite erhöht? Diese steigt bei gleichen Chips um 50%. Sollte die Rechenleistung um 60% gegenüber GK104 steigen verhungert GK110 noch mehr an der Bandbreite.
Timbaloo
2013-02-12, 23:28:16
Nur wie wollen die es schaffen die "Compute" Karte noch effizienter als den schon effizienten 104er zu machen? Anfangs ging man von eher niedrigen Taktraten aus. Mittlerweile geht man schon von 1ghz Boost aus. Das will nicht in meinen Schädel. Auch wenn die "Kleinen" gut skalieren kann man das nicht ganz so einfach auf den Großen übertragen. Dafür dürften sie viel zu unterschiedlich sein.
Die "Compute"-Karten sind doch schon längst raus? Die haben 732/706MHz für K20x/K20. Und soweit ich mich erinnern kann erreichen sie die geplanten Ziele für DP-Performance/Watt.
Blediator16
2013-02-13, 01:36:55
Die "Compute"-Karten sind doch schon längst raus? Die haben 732/706MHz für K20x/K20. Und soweit ich mich erinnern kann erreichen sie die geplanten Ziele für DP-Performance/Watt.
Ja eben, aber mit 235 tdp. Wie man bei 1ghz Boost bei 250tdp bleiben kann ist mir ein rätsel. zwar haben die compute karten "nur" 732mhz taktungen, aber wie sich das bei titan auf spiele auswirkt wissen wir auch nicht.
OgrEGT
2013-02-13, 06:25:45
Ja eben, aber mit 235 tdp. Wie man bei 1ghz Boost bei 250tdp bleiben kann ist mir ein rätsel. zwar haben die compute karten "nur" 732mhz taktungen, aber wie sich das bei titan auf spiele auswirkt wissen wir auch nicht.
Möglicherweise stimmt das ein oder andere nicht...
Edgecrusher86
2013-02-13, 07:39:27
Wo wird da massiv Speicherbandbreite erhöht? Diese steigt bei gleichen Chips um 50%. Sollte die Rechenleistung um 60% gegenüber GK104 steigen verhungert GK110 noch mehr an der Bandbreite.
Sofern man denselben VRAM wie bei GK104 verwendet, sollte per OC ja um die 1700 - 1750 MHz drin sein. Letzteres wär dann immerhin 336 GB/s bei einem 384 Bit SI. Das sollte doch eigentlich reichen. :)
Schon aus der Tatsache, sind die Angaben des australischen Shops mit 915 MHz Baseclock und 1020 MHz Max. unter Boost nicht realistisch. Würde man die Karte jetzt mit der Brechstange auf 265W+ auslegen, dann würde das passen, so aber nicht. Aber dort hat ja eh das ein oder andere nicht gepasst - siehe das 512 Bit SI kombiniert mit 6GB oder der Preis von ~ 1,2k US Dollar - von daher sollte man da nicht zuviel drauf geben. ;)
Realistisch wär eher, wenn man Titan in etwa auf die TDPs von GF100/GF110 auslegt - was mit 8xx MHz Baseclock möglich sein sollte. :)
Ailuros
2013-02-13, 09:04:28
Absurd klingen 900+/1500MHz nicht als Frequenzen, da wo es bei meiner Vorstellung hapert ist es mit den angeblichen =/>240 TDPs. Noch schlimmer kombiniert mit den angeblichen 502mm2 bzw. 14,1M Transistoren/mm2.
Ich kann zwar meine Hand nicht ins Feuer legen aber die letzte indirekte Kommunikation mit NV engineering fuer die areas war kurz vor dem GK104 launch wo sie 294 fuer 104 bestaetigten und 110 bei ~550 angaben.
Kurz 900MHz, ~550mm2 und >250W TDP (mit Tendenz zu ~270) passen mir schon in den Topf.
Nur wie wollen die es schaffen die "Compute" Karte noch effizienter als den schon effizienten 104er zu machen? Anfangs ging man von eher niedrigen Taktraten aus. Mittlerweile geht man schon von 1ghz Boost aus. Das will nicht in meinen Schädel. Auch wenn die "Kleinen" gut skalieren kann man das nicht ganz so einfach auf den Großen übertragen. Dafür dürften sie viel zu unterschiedlich sein.
Teslas haben keinen boost clock. Sonst war bei frueheren Generationen der Unterschied zwischen Tesla und GeForce meistens im <20% Nivaeu. Tesla K20X liegt bei 732MHz und bei rein theoretischem core clock von 915MHz beim Titan waeren es 25% Unterschied; turbo haetten sie so oder so in die desktop Variante gesteckt eben weil sie fuer desktop nicht unter 240W TDP wie bei Teslas bleiben muessen. Meine erste Einschaetzung fuer GK110 desktop war ungefaehr in der 850MHz Region, aber es kann durchaus sein dass den Unterschied in der Zwischenzeit ein metal spin gemacht hat.
So lange sich das alles in der <100MHz Region bewegt, ist es durchaus im Raum des moeglichen und auch keine besondere Ueberraschung. Bedenke auch dass bisher desktop top dogs nie so spaet ankamen nach Teslas wie diesmal.
Hübie
2013-02-13, 09:19:54
Herrjeminee. Hört auf mit 512 Bit SI :rolleyes:
@Gipsel: Ich glaube Knuddelbearli meinte zusätzlich noch mehr cache, dynamic paralism und eben HyperQ. Wobei seine Aussage Raum zum Interpretieren lässt (welche GTX 560 Ti?, GF110 250 Watt - ja ne is klar ;D)...
Zu den Taktraten: Ich hatte 860/933 "gesteckt" bekommen. Klingt für mich nicht sehr abwegig, aber 73 MHz Boost? Und vor allem hat nVidia bei den topdogs immer krumme Taktraten. 575/612@G80, 738@G92, 772@GF110 und dann soll GK110 glatte Zahlen haben? Never ever ;D Sag ich mal so aus dem Bauch heraus.
Ich bin nach wie vor für den Vollausbau :naughty:
robbitop
2013-02-13, 09:28:27
Ich könnte mir gut vorstellen, dass GK110 etwas weniger an der Bandbreite hängt als GK104 - bedingt durch deutlich größere Caches.
Dural
2013-02-13, 09:29:51
die Tesla Karten waren schon immer "ineffizienter" als die vergleichbaren GeForce Karten.
Im Profi Bereich kann man nicht einfach mal eine TDP aus der Hand schütteln, da darf man sich keine Fehler leisten, ein nicht einhalten der TDP könnte fatale Auswirkungen haben. Die 235Watt sind so mit sicher ein Wert der Theoretisch machbar ist, in der Praxis Wahrscheinlich aber nie eintreten wird.
So mit hören sich rund 250Watt TDP bei 900MHz gar nicht mal so unrealistisch an.
dargo
2013-02-13, 09:33:10
Sofern man denselben VRAM wie bei GK104 verwendet, sollte per OC ja um die 1700 - 1750 MHz drin sein. Letzteres wär dann immerhin 336 GB/s bei einem 384 Bit SI. Das sollte doch eigentlich reichen. :)
OC ist irrelevant. Es zählt der Takt mit dem die Karten ausgeliefert werden. Wie realistisch ist es eigentlich, dass es schon 1750Mhz Speicherchips werden?
Nightspider
2013-02-13, 09:33:21
Ich könnte mir gut vorstellen, dass GK110 etwas weniger an der Bandbreite hängt als GK104 - bedingt durch deutlich größere Caches.
Gibts hier einen Spezi, der abschätzen könnte, wieviel Bandbreite man dadurch sparen könnte?
Oder kennst du Beispiele aus der Vergangenheit wo man durch größere interne Caches mehr Bandbreite gespart hat?
Dural
2013-02-13, 09:38:29
warte die benchmarks ab, danch kannst du es ja ausrechnen ;)
Godmode
2013-02-13, 09:39:15
Also wenn die Karte bei 300-350W bleibt und dabei so leise wie eine GTX 690 ist, hab ich absolut kein Problem.
Hübie
2013-02-13, 09:40:34
Also wenn die Karte bei 300-350W bleibt und dabei so leise wie eine GTX 690 ist, hab ich absolut kein Problem.
:freak: wtf? Wohnst du am Bahnhof / Flughafen? :biggrin:
Godmode
2013-02-13, 09:46:45
:freak: wtf? Wohnst du am Bahnhof / Flughafen? :biggrin:
Zwar Offtopic, aber:
Im idle hört man das Teil nicht wirklich und unter Last gehen die Lüfter auch nicht bis ans Maximum. Ich glaub bis 70%. Außerdem Spiele ich mit Kopfhörer, von daher..
Als ich zwei Karten drinnen hatte, waren sie sogar leiser, da die Last besser verteilt war.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/10/
Ailuros
2013-02-13, 09:55:12
Gibts hier einen Spezi, der abschätzen könnte, wieviel Bandbreite man dadurch sparen könnte?
Ich wage mir vorzustellen dass es Daten-bedingt ist bzw. auch wie eine jegliche Architektur Daten bearbeitet, ergo duerfte die Antwort nicht besonders einfach sein. Aber Gipsel z.B. koennte vielleicht schon etwas dazu sagen wenn er es liesst.
Oder kennst du Beispiele aus der Vergangenheit wo man durch größere interne Caches mehr Bandbreite gespart hat?
Zwar eine verdammt grobe Vereinfachung, aber generell je mehr Daten on chip bleiben koennen desto weniger reads/writes und ergo weniger Bandbreiten-Verbrauch.
Zu den Taktraten: Ich hatte 860/933 "gesteckt" bekommen. Klingt für mich nicht sehr abwegig, aber 73 MHz Boost? Und vor allem hat nVidia bei den topdogs immer krumme Taktraten. 575/612@G80, 738@G92, 772@GF110 und dann soll GK110 glatte Zahlen haben? Never ever ;D Sag ich mal so aus dem Bauch heraus.
Ich bin nach wie vor für den Vollausbau :naughty:
Ja die Frage ist nur "wann"; denn die Schaetzung von =/>850MHz ist auch verdammt alt.
Angiesan
2013-02-13, 09:57:10
@ Hubie
Erinnere dich mal an GK 104 dort findest du bei der 680er 1006MHZ und einen Boost auf 1058 was ja nur 3 Steps sind. dank dem großzügig ausgelegten PT takten viele 680 aber schon etwas höher im Boost.
Bei der 670 will ich erst gar nicht anfangen, da findet man ja alles aber soviel kann mann glaube ich sagen, von 915/980 ausgehend wirst du keine Karte finden die nicht 1084 Mhz macht:wink: so und die hat 6 Steps genau wie jetzt Titan ist also schon möglich, dass wenn man das Ding nicht vorheizt man diese Werte beim 3D Mark bekommt und die Karte deutlich höher boostet wenn sie noch nicht die maximale Temperatur erreicht hat das hängt sicherlich davon ab wie eng Nvidia das PT bei dieser Karte auslegt und was sie einem erlauben Oben drauf zu legen.
Auch glaube ich, dass der Titan mit einer etwas niedrigeren Spannung antritt da der Chip ja eher über die Breite arbeitet und nicht so hohe Boostclocks fahren muss was sicherlich das PT etwas entspannt.
Wenn man von einem PT von 235 Watt ausgehen würde könnte das Maximum durchaus bei 125% liegen damit die Karte dann knapp 300 Watt ziehen kann und dann sehe ich Boosttaktraten von 1000+ zumindest kurzfristig nicht für unmöglich an.
Ich würde das so machen wenn das mein Business wäre denn wenn ich ein Graka schon Titan nenne muss er das auch zeigen das er dem Namen gerecht wird:wink:
BigKid
2013-02-13, 10:48:44
Ich greife nochmal meine Frage auf... Ist ja das Spekulationsforum :-)
Frage: Wenn sie ein ähnliches Lüfterkonzept wie bei der GTX690 nutzen - was meint ihr wie sich das im Vergleich zum Asus DC2 Lüfter schlagen würde ?
Also IDLE und Last-Lautstärke...
Was mir an Titan nämlich nicht gefällt ist, dass NV wohl alles vorgibt (wenn aktuellen Infos hier zutreffen).
Das ist für mich sogar fast Kauf-Entscheindend... Wenn es später Custom Designs geben sollte, dann warte ich.
Wenn es nie Custom Designs geben wird und der Lüfter mir nicht passt, dann kommt mir eher doch noch eine zweite GTX670 DC2 ins Haus und ich muss mich halt doch mit SLI rummärgern...
Skysnake
2013-02-13, 11:01:53
Gibts hier einen Spezi, der abschätzen könnte, wieviel Bandbreite man dadurch sparen könnte?
Na wie IMMER bei Caches. Zwischen 0 und 100% :ugly:
Genauer kann man es nicht sagen. Es kommt halt IMMER! auf GENAU! das spezifische Problem UND! wie es Programmiert wurde drauf an.
Und genau das ist eben schon ein Knackpunkt. Man muss die Software anpassen, um den optimalen Gewinn daraus zu ziehen. Die 100% sind auch ziemlich unrealistisch. Man dürfte dann nämlich nur ~1,5 MB Daten verwenden ;D
GK110 hat 1,5 MB L2 bei 2688 ALUs. Also ~585 Byte/ALU
GK104 hat 512 kB L2 bei 2496 ALUs. Also ~210 Byte/ALU 1536 ALUs. Also ~341 Byte/ALU
GF110 hat 768 kB L2 bei 512 (x2 wegen Hotclock) ALUs. Also ~768 Byte/ALU (clocks/instructions)
Wenn Code auf GK104 optimiert ist, sollte man also bis zu einem weniger als einen Faktor 2 einsparen können. Realistisch ist deutlich weniger. 10-30% im Schnitt?
Man kann nur noch den Vorteil daraus ziehen, das Daten nochmals verwendet werden. Da man aber nicht doppelt so viel hat, sinkt die Wahrscheinlichkeit. Komplett neue Warps nehmen oft ja komplett andere Daten (GPGPU)
Bei auf GF110 optimierter Software siehts viel schwieriger aus. Da hat sich nämlich das Shared/L1 Verhältnis verbessert, das L2 aber "verschlechtert".
Da kommts halt echt drauf an, ob man eben überall mehr oder weniger die gleichen Daten nur jeweils anders verarbeitet, oder ob man jeweils andere Daten verarbeitet.
Da kann man fast nichts mehr dazu sagen im Allgemeinen.
Oder kennst du Beispiele aus der Vergangenheit wo man durch größere interne Caches mehr Bandbreite gespart hat?
Schau dir CPUs an.
EDIT:
Es bleibt halt beim altbekannten Problem von Caches. Ihr Nutzen hängt immer expliziet vom Problem ab, und bei Multi"cores" auch noch davon, WIE GENAU ein Problem abgearbeitet wird. Allein schon eine andere Reihenfolge kann große Auswirkungen haben...
Hübie
2013-02-13, 11:04:07
@ Hubie
Erinnere dich mal an GK 104 dort findest du bei der 680er 1006MHZ und einen Boost auf 1058 was ja nur 3 Steps sind. dank dem großzügig ausgelegten PT takten viele 680 aber schon etwas höher im Boost.
Bei der 670 will ich erst gar nicht anfangen, da findet man ja alles aber soviel kann mann glaube ich sagen, von 915/980 ausgehend wirst du keine Karte finden die nicht 1084 Mhz macht:wink: so und die hat 6 Steps genau wie jetzt Titan ist also schon möglich, dass wenn man das Ding nicht vorheizt man diese Werte beim 3D Mark bekommt und die Karte deutlich höher boostet wenn sie noch nicht die maximale Temperatur erreicht hat das hängt sicherlich davon ab wie eng Nvidia das PT bei dieser Karte auslegt und was sie einem erlauben Oben drauf zu legen.
Auch glaube ich, dass der Titan mit einer etwas niedrigeren Spannung antritt da der Chip ja eher über die Breite arbeitet und nicht so hohe Boostclocks fahren muss was sicherlich das PT etwas entspannt.
Wenn man von einem PT von 235 Watt ausgehen würde könnte das Maximum durchaus bei 125% liegen damit die Karte dann knapp 300 Watt ziehen kann und dann sehe ich Boosttaktraten von 1000+ zumindest kurzfristig nicht für unmöglich an.
Ich würde das so machen wenn das mein Business wäre denn wenn ich ein Graka schon Titan nenne muss er das auch zeigen das er dem Namen gerecht wird:wink:
A) Habe ich keine Ahnung was du mit "steps" meinst :redface:
B) Wird es keine eigenen Titan-Modelle geben (und das steht fest)
C) Ist PT nicht nur Temp-abhängig
D) P = U * I Also ist Spannung eine Variable von insgesamt drei ;)
E) Ist die maximale Boost-Frequenz eh immer anders (ASIC, güte der Kühlermontage, Bauteile wie MOSFETs etc beeinflussen das schon)
und F) Was genau wolltest du mir mit deinem Post sagen :| :D
Titan hat sicher keine 235 Watt Leistungsaufnahme.
Edit: Ah skysnake. Gut das du da bist: Was wird mit CL_DEVICE_MEM_BASE_ADDR_ALIGN ausgelesen? Ich beziehe mich auf diesen screenshot vom CL-Benchmark.
Skysnake
2013-02-13, 11:24:15
CL_DEVICE_MEM_BASE_ADDR_ALIGN:
Return type: cl_uint
Describes the alignment in bits of the base address of any allocated memory object.
http://www.khronos.org/registry/cl/sdk/1.0/docs/man/xhtml/clGetDeviceInfo.html
Auf "Deutsch" also das alignment (Ausrichtung :ugly:) der Speicherallocationen im RAM der GPU.
Das sind halt die 4k Pages. Man richtet an diesen eben die Buffer aus (alignment). Keine Ahnung, wie das jetzt GANZ genau gemacht wird von nVidia, aber man kann wohl davon ausgehen, dass das auch die Granularität beim Allignment ist.
So was gibt es btw auch für die Register, wenn ich mich recht erinnere.
[Gipsel, falls ich mich gerade vertan habe, bitte korrigieren ;)]
Hübie
2013-02-13, 11:28:41
Ding dong. Da hätte ich selber nachsehen können. Gar nciht dran gedacht. Danke :)
GK104 hat 512 kB L2 bei 2496 ALUs. Also ~210 Byte/ALU
Sollten das nicht 1536 ALUs sein? Oder bin ich grad verwirrt?
Skysnake
2013-02-13, 11:41:46
Sollten das nicht 1536 ALUs sein? Oder bin ich grad verwirrt?
Äh ja :ugly:
ich korrigiers kurz -.-
Ich brauch KAFFEE!!!!!!
Macht wirklich Spaß hier mitzulesen:wink:
Bei PCGH (http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Geforce-GTX-Titan-Launch-Termin-1055026/)gibts News zum Titan.
Angiesan
2013-02-13, 12:59:16
A) Habe ich keine Ahnung was du mit "steps" meinst :redface:
B) Wird es keine eigenen Titan-Modelle geben (und das steht fest)
C) Ist PT nicht nur Temp-abhängig
D) P = U * I Also ist Spannung eine Variable von insgesamt drei ;)
E) Ist die maximale Boost-Frequenz eh immer anders (ASIC, güte der Kühlermontage, Bauteile wie MOSFETs etc beeinflussen das schon)
und F) Was genau wolltest du mir mit deinem Post sagen :| :D
Titan hat sicher keine 235 Watt Leistungsaufnahme.
Edit: Ah skysnake. Gut das du da bist: Was wird mit CL_DEVICE_MEM_BASE_ADDR_ALIGN ausgelesen? Ich beziehe mich auf diesen screenshot vom CL-Benchmark.
A:Mit steps meine ich die Schritte die dem Boost zur Verfügung stehen i.d.R. ist ein Step oder wie man das auch immer nennen will 13Mhz zumindest bei den kleinen Keplers.
B:Ja das mag ja sein, aber noch wissen wir nicht wie sich der Boost verhalten wird da gibt es in den 3 am Markt verfügbaren Keplerableger ja nun mal doch Unterschiede im Boostverhalten.
C:Nein natürlich nicht wollte ich so auch nicht ausdrücken.
D: und nun wenn ich eine verändere, was dann ? ;-) Ich habe ja auch mal unterstellt, dass P = 235 Watt ist.
E: nein das ist nicht so auch wenn es gerne so hingestellt wird ;-) bei weiteren Übertaktungen spielt es vielleicht eine Rolle.Du kannst mir nicht eine Kartemodell zeigen das mit gleichem Bios und unterschiedlicher ASIC-Qualität ein unterschiedliches Boostverhalten aufzeigt,gerne lass ich mich hier belehren.
F: Das man auf das was man sieht nicht immer setzen kann, der Boost ist nur das was immer unter allen erdenklichen Umständen mindestens geboten wird und in der Realität oft höher ist da du dich ja vielleicht an den niedrigen Boost-Taktraten störst es gibt bis heute keinen Kepler der offiziell mehr Steps boostet. Der Titan liegt damit auf einer Ebene mit der GTX 660 Ti und der GTX 670. Vielleicht habe ich das aber auch falsch interpretiert mit dem ? hinter dem Boost in deinem Post. :biggrin:
Knuddelbearli
2013-02-13, 14:55:27
@Gipsel: Ich glaube Knuddelbearli meinte zusätzlich noch mehr cache, dynamic paralism und eben HyperQ. Wobei seine Aussage Raum zum Interpretieren lässt (welche GTX 560 Ti?, GF110 250 Watt - ja ne is klar ;D)...
jup genau und was soll an 250W lol sein? alle werte sind von HT4u. 246,85W
und 560TI im Vollausbau natürlich, 680 ist ja auch vollausbau
Ailuros
2013-02-13, 15:09:54
Äh ja :ugly:
ich korrigiers kurz -.-
Ich brauch KAFFEE!!!!!!
Na dann sorg dafuer dass der Kaffee auch besonders starkt ist, wenn Du mir schon stream processors als ALUs betitelst :P
Gipsel
2013-02-13, 15:12:01
@Gipsel: Ich glaube Knuddelbearli meinte zusätzlich noch mehr cache, dynamic paralism und eben HyperQ.Wie gesagt, Kleinkram. ;)
GK104 hat 512kB Cache, GK110 ist grob doppelt so groß und hat 1,5 MB. Wenn man sich mal ansieht, daß auf Tahiti 8 MB an Registern (das ist auch SRAM) verbaut ist, fällt das überhaupt nicht ins Gewicht. 1MB SRAM in 28nm TSMC messen vielleicht 3mm².
Dynamic Parallelism kann auch nicht viel kosten, schließlich bietet GCN auf allen GPUs (nicht nur Tahiti, auch CapeVerde und Pitcairn) diese Funktionalität.
Bleibt noch HyperQ, was am besten vielleicht mit den ACEs vergleichbar sind, die bei GCN auch auf den kleinsten GPUs verbaut sind. HyperQ bieten im Prinzip die Funktionalität wie mehr ACEs. Die ACEs können eigentlich ziemlich viel, davon 32 zu verbauen, wäre absoluter Overkill. NV dupliziert nur die eigentlichen Queues (die ziemlich mickrig sein dürften), die Logik zur Erzeugung der Workgroups und Dispatch der Warps übernimmt ja die sogenannte "Grid Management Unit", die sich dann wieder alle Queues teilen. Bei AMD enthält dagegen jede ACE offenbar ein eigenes (kleineres) "Grid Management Unit"-Äquivalent (eine ACE kann durchaus mehrere Tasks handhaben). Es ist also anders aufgeteilt, für sehr viele parallele Queues ist nV's Teilung weniger aufwendig. Man muß die Scheduling-Kapazitäten ja selbst bei vielen parallelen Queues nicht mitskalieren, da die Hardware davon auch nicht schneller wird. Letztendlich muß ja immer noch alles durch die CUs/SMX'. Eine ACE kann eine Workgroup/Takt erzeugen bzw. eine Wavefront pro Takt an das Shaderarray geben, Compute-Shader werden also mit den 2 ACEs bereits etwa 4 mal so schnell durchgereicht wie Pixelshader, so viel schneller muß das eigentlich nicht unbedingt werden. Eine Skalierung über 4 ACEs erscheint aus diesem Gesichtspunkt wenig sinnvoll.
Egal, ich bin etwas abgeschweift. Was ich damit sagen will, ist daß das alles kaum Unmengen an Platz und Transistoren kostet. Wenn das so wäre, würde CapeVerde wohl nur mit einer einzigen ACE (oder gar komplett ohne) kommen.
Knuddelbearli
2013-02-13, 15:22:51
naja Gipsel hat 680 aber im vergleich zu titan nicht weniger HPC an Bord wie 560TI vs 580?
Ailuros
2013-02-13, 15:23:24
http://forum.beyond3d.com/showpost.php?p=1706436&postcount=796
Und hier kommt Theo: http://www.brightsideofnews.com/news/2013/2/13/nvidia-geforce-titan-launches-february-18th2c-2013-loses-to-gtx-6902c-amd-hd-7990.aspx
Noch ein paar uebersehbare Schoenheitsfehler insgesamt, aber waermer als alles andere.
Gipsel
2013-02-13, 15:50:01
naja Gipsel hat 680 aber im vergleich zu titan nicht weniger HPC an Bord wie 560TI vs 580?
Das hatte ich ja gerade angezweifelt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9651655#post9651655). ;)
Ailuros
2013-02-13, 16:08:28
ROFL wenn Theo im BSN Link oben recht haben sollte:
Allegedly, less than 10,000 will be made. In any case - we'll know more next week.
Wie stark muss man sich genau um den Titan pruegeln? Und falls man keine landen sollte darf man dann zumindest fuer 10 Euro Sonderangebot die Schachtel beruehren? :biggrin::P
dildo4u
2013-02-13, 16:10:20
NV kann dank der 690 sicherlich ganz gut abschätzen wie groß der Markt für 900€ Karten sind denke das passt dann schon.
Ailuros
2013-02-13, 16:14:38
NV kann dank der 690 sicherlich ganz gut abschätzen wie groß der Markt für 900€ Karten sind denke das passt dann schon.
Ausser natuerlich dass es sich zu einem albernen Marketing-stunt entwickelt.
kunibätt
2013-02-13, 16:16:04
Wieviel weniger wären denn 10K Einheiten grob gegenüber normalem (alten) High-End ala GTX480 ?
Ailuros
2013-02-13, 16:18:19
Wieviel weniger wären denn 10K Einheiten grob gegenüber normalem (alten) High-End ala GTX480 ?
War die 480 die einzige SKU mit dem GF100 chip?
***edit: da ich schon erahnen kann worauf Du hinaus willst, dildo4u hat schon recht in seinem letzten Post oben. Sie machen lediglich einen sehr begrenzten wafer run fuer GK110 desktop. Ob es mehr mit der Zeit werden bleibt abzusehen.
Knuddelbearli
2013-02-13, 16:34:51
10k sind nichts ... fast 1k dürfte ja schon fast für die reviewer draufgehen
dildo4u
2013-02-13, 16:37:27
10k sind nichts ... fast 1k dürfte ja schon fast für die reviewer draufgehen
Wie kommst du denn auf die Idee die ganzen Spezial 1000€ Karten(Mars,Ares) waren immer auf 1000 Stück limitiert.10K sind massig für ne 900€ Karte.
Gaestle
2013-02-13, 16:38:54
10k sind nichts ... fast 1k dürfte ja schon fast für die reviewer draufgehen
Bleiben noch 9k Bekloppte, die 1k Euro hinlegen.
Womit aber auch klar wäre, dass in absehbarer Zeit keine Preise fallen werden, und GK204 (oder wie auch immer) dann ebenfalls mit 0.65k Euro anfangen wird.
Wird langsam Zeit, sich intensiver mit AMD-Karten zu befassen.
Knuddelbearli
2013-02-13, 16:41:18
Wie kommst du denn auf die Idee die ganzen Spezial 1000€ Karten(Mars,Ares) waren immer auf 1000 Stück limitiert.10K sind massig für ne 900€ Karte.
und wieviele Tests gab es von Mars und co bei erscheinen ? meist keinen einzigen im deutschen Raum sondern erst paar Wochen später dann paar Wochen später ne andere Seite usw
dildo4u
2013-02-13, 16:44:18
Es gibt vielleicht 20-30 wichtige Hardware Seiten im Netz und ein paar PC Magazine sicherlich verschickt NV keine 1000 Karten an Reviewer.
850 würde ich mir entlocken lassen. 1000? Pfff, da bleibe ich bei 3 Fermis.
Gaestle
2013-02-13, 16:45:40
Es gibt vielleicht 20-30 wichtige Hardware Seiten im Netz und ein paar PC Magazine sicherlich verschickt NV keine 1000 Karten an Reviewer.
Und die Reviewexemplare können mehrfach verwendet werden. Erst die Online-Kandidaten, dann die Papier-Kandidaten.
Skysnake
2013-02-13, 16:50:59
Egal, ich bin etwas abgeschweift. Was ich damit sagen will, ist daß das alles kaum Unmengen an Platz und Transistoren kostet. Wenn das so wäre, würde CapeVerde wohl nur mit einer einzigen ACE (oder gar komplett ohne) kommen.
Naja, die VLIWs hatten das ja meines Wissens nach alles im Compiler geregelt. Es ist also schon mehr als nichts, aber eben auch nicht dramatisch viel.
Wie du ja schon gesagt hast. Die queues an sich sind mikrig.
War die 480 die einzige SKU mit dem GF100 chip?
***edit: da ich schon erahnen kann worauf Du hinaus willst, dildo4u hat schon recht in seinem letzten Post oben. Sie machen lediglich einen sehr begrenzten wafer run fuer GK110 desktop. Ob es mehr mit der Zeit werden bleibt abzusehen.
Oder man hat X runs für die HPC Deals gemacht, und es sind dann doch mehr gute Chips abgefallen als man erwartet hat.
Wie auch immer. nVidia begibt sich damit auf dünnes Eis. Wenns bei der Karte wirklich zu Lieferschwierigkeiten kommt, müssen Sie sich sicherlich einiges anhören
@ALUs
Und jeder 1D Streamprozessor hat jeweils ne ALU, welche halt die entsprechenden Int/Float usw kann. Da gibts ja keine Superskalarität.
Mir gings dabei auch nicht um eine bis ins Detail aufgedröselte Erklärung, sondern nur ne ganz einfache Betrachtung. Pro Streamprozessor musst du ja x Workunits inflight haben, damit man die Latenzen überbrücken kann. Die Daten dafür muss man ja irgendwo vorrätig halten. Zum einen eben in den Registern, und zum anderen eben in den Caches und abschließend dann im RAM. Wenn ich aber mehr Ausführungseinheiten habe, dann habe ich logischerweise auch mehr Workunits inflight, muss also die Daten dafür parat halten. Man nutzt ja die gleichen Daten ein paar mal. Ohne Caches+Register kommt man ja nie auf die nötige Bandbreite, um die Streamprozessoren nicht leer laufen zu lassen.
Wenn ich aber weniger Byte an Caches (+ Register eigentlich, aber das vernachlässigen wir jetzt mal, weil dann wirds noch viel komplizierter...) habe pro Stremprozessor, und davon ausgehe, dass die Anzahl an Workunits inflight gleich bleibt, um die Hardware aus zu lasten, dann muss eben die Datenlokalität steigen. Ansonsten flash ich mir den Cache einfach, weil zu viele Daten eigentlich vorgehalten werden müssten.
Deswegen ist es schon ein gewisser Nachteil, wenn der Cache/Streamprozessor kleiner wird. Kepler gleicht das zwar durch das größere Register wieder teilweise aus, aber ohne Codeanpassungen wird man da wohl eher weniger einen Vorteil draus ziehen. Müsste man sich aber die LLVM anschauen, um das "genau" zu sagen, das kann man aber nicht, da man sowas nie anschauen darf.
PS:
So, jetzt hab ich mal nur Streamprozessor geschrieben, aber ich kürz das auch in Zukunft wieder mit ALU ab, obwohl nicht ganz richtig ist, aber jeder weiß was gemeint ist, und ich bin schreibfaul, zumal Streamprozessor sich echt scheise schnell schreiben lässt.
Godmode
2013-02-13, 17:08:26
Oder man hat X runs für die HPC Deals gemacht, und es sind dann doch mehr gute Chips abgefallen als man erwartet hat.
Wie auch immer. nVidia begibt sich damit auf dünnes Eis. Wenns bei der Karte wirklich zu Lieferschwierigkeiten kommt, müssen Sie sich sicherlich einiges anhören
Ich frage mich für was der ganze Aufwand überhaupt betrieben wird?
10.000 Karten je 1.000 € macht gerade mal 10 Mio. Umsatz, was bei 4.000 Mio Jahresumsatz ein feuchter Dreck ist.
Tesseract
2013-02-13, 17:13:33
Ich frage mich für was der ganze Aufwand überhaupt betrieben wird?
10.000 Karten je 1.000 € macht gerade mal 10 Mio. Umsatz, was bei 4.000 Mio Jahresumsatz ein feuchter Dreck ist.
high-end ist im umsatz immer feuchter dreck, selbst die 400€-karten. die werden aus image-gründen verkauft. die 80€-krüppelkarten verkaufen sich halt besser wenn die selbe firma für 800€ den dicksten hobel am markt hat.
Iruwen
2013-02-13, 17:14:17
Prestige? Und man muss die Reste nicht in den Müll hauen.
Godmode
2013-02-13, 17:16:17
Aber ich dachte immer, gerade die Entwicklung der High-End-SKUs verschlingt Unsummen?
Die Entwicklung der Architektur kostet viel Geld, einzelne Chips an sich weniger, da skalierbar.
Nightspider
2013-02-13, 17:21:55
10k für welchen Zeitraum? Die erste Charge? Die erste Woche? Den ersten Monat?
Die werden doch eh am laufenden Band produziert. Ich kenne höchstens eine Person die so viel Geld für eine Grafikkarte ausgeben würde, neben mir.
Als ob sich jetzt jeder Mainstream-Gamer auf den heiligen Gral stürzen würde. :rolleyes:
Und in 2-3 Monaten werden sicherlich auch deutlich mehr als 10k geliefert,wenn denn Bedarf besteht.
dildo4u
2013-02-13, 17:21:58
Aber ich dachte immer, gerade die Entwicklung der High-End-SKUs verschlingt Unsummen?
Jo aber der Chip wird neben Titan auch für 3000€ verkauft(Tesla) das wird sich schon rechnen.
Ailuros
2013-02-13, 17:23:48
Aber ich dachte immer, gerade die Entwicklung der High-End-SKUs verschlingt Unsummen?
Weiss der Teufel um wie viel zusaetzlichen Umsatz sie von GK10x SKUs bei den Wucherpreisen geschaufelt haben in der Zwischenzeit und es kann auch durchaus sein dass sie mehr als erwartet von den HPC deals geschaufelt haben.
Gegenfrage dachtest Du auch immer dass NV von einer GTX680 jeweils bei 500, 400 oder weniger Euros Strassenpreis nur geringen Gewinn davon macht?
Es mag klingen dass ich konstant Mist verdrehe, aber je mehr Einzelheiten zum Vorschein kommen desto deutlicher koennten die Stuecke von einem puzzle werden. Wir wissen ja stets nichtmal die Haelfte von was im Hintergrund wirklich vorgeht.
Nightspider
2013-02-13, 17:26:54
Wer weiß wie prall die Taschen bei NV derzeit sind.
Wenn die Tegra Zukunft nicht so unsicher wäre würde ich glatt paar Aktien kaufen. :D
Ailuros
2013-02-13, 17:28:38
10k für welchen Zeitraum? Die erste Charge? Die erste Woche? Den ersten Monat?
Die werden doch eh am laufenden Band produziert. Ich kenne höchstens eine Person die so viel Geld für eine Grafikkarte ausgeben würde, neben mir.
Als ob sich jetzt jeder Mainstream-Gamer auf den heiligen Gral stürzen würde. :rolleyes:
Und in 2-3 Monaten werden sicherlich auch deutlich mehr als 10k geliefert,wenn denn Bedarf besteht.
Ist es nur mein Gefuehl oder widerspricht sich der vorletzte mit dem letzten Satz brutal? :rolleyes:
Skysnake
2013-02-13, 17:28:42
Die Marge bei der GTX680 könnte am Ende noch immer im gleichen Rahmen liegen wie die der GTX Titan. GK110 ist ja fast doppelt so groß die GK104.
Und zu dem "am laufenden Band produziert"
Normal hat man bei TSMC nen Slot zugeteilt, und dann wird eben Anzahl X an Wafern produziert, und das wars dann. Dann wird "einfach" nur noch die benötigte Menge abgerufen. Das macht auch durchaus Sinn, da man eben lieber etwas größere Slots hat, dann muss man nicht so oft umrüsten.
Nightspider
2013-02-13, 17:30:16
Letzter Satz bezieht sich darauf, das NV die Menge sicher nicht bei 10k belassen würde, falls denn wirklich alle Karten nach einer Woche verkauft wären. ;)
Schließlich wurden früher auch schon oft nach dem Release die virtuellen Regale leer gekauft. Nur waren die Preise damals nicht so würzig.
Godmode
2013-02-13, 17:31:53
Weiss der Teufel um wie viel zusaetzlichen Umsatz sie von GK10x SKUs bei den Wucherpreisen geschaufelt haben in der Zwischenzeit und es kann auch durchaus sein dass sie mehr als erwartet von den HPC deals geschaufelt haben.
Gegenfrage dachtest Du auch immer dass NV von einer GTX680 jeweils bei 500, 400 oder weniger Euros Strassenpreis nur geringen Gewinn davon macht?
Es mag klingen dass ich konstant Mist verdrehe, aber je mehr Einzelheiten zum Vorschein kommen desto deutlicher koennten die Stuecke von einem puzzle werden. Wir wissen ja stets nichtmal die Haelfte von was im Hintergrund wirklich vorgeht.
Natürlich machen sie weniger Gewinn wenn sie nur 400 € dafür verlangen? Ich finde deine Frage komisch. Oder willst du sagen: Der Break Even Punkt liegt für die Karte bei 250 Euro?
Ailuros
2013-02-13, 17:43:01
Natürlich machen sie weniger Gewinn wenn sie nur 400 € dafür verlangen? Ich finde deine Frage komisch. Oder willst du sagen: Der Break Even Punkt liegt für die Karte bei 250 Euro?
Je laenger ein chip in der Herstellung liegt desto geringer die Herstellungskosten. Da der MSRP zwischen der GTX580 und GTX680 bei genau $499 fuer beide waeren, faellt es mir verdammt schwer zu schlucken dass ein 294mm2 die@28HP genauso viel in Herstellung kostet als ein 530mm2 die@40G. Klar ist die 28nm Herstellung teurer geworden, aber dass es um so viel mehr sein sollte kann ich verdammt schwer schlucken.
Im Gegenfall muesste AMD die heutigen 7950-er mit ziemlich grossem Verlust verkaufen.
Nightspider
2013-02-13, 17:45:37
Es ist doch bekannt das Nvidia gut am 28nm Prozess verdient hat, wenn man sich die letzten Quartalsergebnisse anschaut.
Ailuros
2013-02-13, 17:48:21
Letzter Satz bezieht sich darauf, das NV die Menge sicher nicht bei 10k belassen würde, falls denn wirklich alle Karten nach einer Woche verkauft wären. ;)
Je hoeher der Preis desto weniger die Interressierten.
Schließlich wurden früher auch schon oft nach dem Release die virtuellen Regale leer gekauft. Nur waren die Preise damals nicht so würzig.
No shit sherlock :wink:
Skysnake
2013-02-13, 17:51:35
Letzter Satz bezieht sich darauf, das NV die Menge sicher nicht bei 10k belassen würde, falls denn wirklich alle Karten nach einer Woche verkauft wären. ;)
Schließlich wurden früher auch schon oft nach dem Release die virtuellen Regale leer gekauft. Nur waren die Preise damals nicht so würzig.
Dafür muss es aber eben auch Nachschub geben!
Wenn die funktionstüchtigen Chips sonst in die Tesla wandern, und man auch nicht mehr genug Nachfrage für nen neuen Produktionsslot hat, oder eben die Wafer noch immer begrenzt sind, und man mit GK104 usw schlicht mehr Kohle macht, dann lässt man es einfach stecken, und die Leute müssen sich halt um die Karten schlagen...
nVidia ist nicht die Heilsarmee. Die wollen nur maximal viel Geld machen.
Ailuros
2013-02-13, 17:53:27
Es ist doch bekannt das Nvidia gut am 28nm Prozess verdient hat, wenn man sich die letzten Quartalsergebnisse anschaut.
Schoen. Und angenommen sie schaffen es mit allen Maerkten kombiniert (GeForce/Quadro/Tesla) GK10x und GK20x alles mitberechnet bis zu Maxwell die GK110 R&D Kosten zu decken, warum genau sollten sie sich in eine erweiterte GK110 Massenproduktion stuerzen mit salvage parts und allem drum und dran wenn sonst die Rechnung stimmen koennte?
Hübie
2013-02-13, 19:44:38
Wie gesagt, Kleinkram. ;)
GK104 hat 512kB Cache, GK110 ist grob doppelt so groß und hat 1,5 MB. Wenn man sich mal ansieht, daß auf Tahiti 8 MB an Registern (das ist auch SRAM) verbaut ist, fällt das überhaupt nicht ins Gewicht. 1MB SRAM in 28nm TSMC messen vielleicht 3mm².
Dynamic Parallelism kann auch nicht viel kosten, schließlich bietet GCN auf allen GPUs (nicht nur Tahiti, auch CapeVerde und Pitcairn) diese Funktionalität.
Bleibt noch HyperQ, was am besten vielleicht mit den ACEs vergleichbar sind, die bei GCN auch auf den kleinsten GPUs verbaut sind. HyperQ bieten im Prinzip die Funktionalität wie mehr ACEs. Die ACEs können eigentlich ziemlich viel, davon 32 zu verbauen, wäre absoluter Overkill. NV dupliziert nur die eigentlichen Queues (die ziemlich mickrig sein dürften), die Logik zur Erzeugung der Workgroups und Dispatch der Warps übernimmt ja die sogenannte "Grid Management Unit", die sich dann wieder alle Queues teilen. Bei AMD enthält dagegen jede ACE offenbar ein eigenes (kleineres) "Grid Management Unit"-Äquivalent (eine ACE kann durchaus mehrere Tasks handhaben). Es ist also anders aufgeteilt, für sehr viele parallele Queues ist nV's Teilung weniger aufwendig. Man muß die Scheduling-Kapazitäten ja selbst bei vielen parallelen Queues nicht mitskalieren, da die Hardware davon auch nicht schneller wird. Letztendlich muß ja immer noch alles durch die CUs/SMX'. Eine ACE kann eine Workgroup/Takt erzeugen bzw. eine Wavefront pro Takt an das Shaderarray geben, Compute-Shader werden also mit den 2 ACEs bereits etwa 4 mal so schnell durchgereicht wie Pixelshader, so viel schneller muß das eigentlich nicht unbedingt werden. Eine Skalierung über 4 ACEs erscheint aus diesem Gesichtspunkt wenig sinnvoll.
Egal, ich bin etwas abgeschweift. Was ich damit sagen will, ist daß das alles kaum Unmengen an Platz und Transistoren kostet. Wenn das so wäre, würde CapeVerde wohl nur mit einer einzigen ACE (oder gar komplett ohne) kommen.
Wir können da gerne mal im Schweinske bei einem Steak weiter drüber schnacken :wink: Ich verneige mich vor deinem Wissen. Ich musste schon wieder nachsehen was jetzt ACE ist! :biggrin: (Asynchronous Command Engines).
Da ich auf die-shots immer nur die groben Dinge wie command-processor, PCIe-Anbindung etc. identifizieren kann, bin ich nicht in der Position Aussagen zu größenordnungen abzugeben ;) Woher weißt du das mit dem 1 MB SRAM = 3mm²?
@Ailuros: Aber irgendwie gibt es ja doch genug "Bekloppte" die interessiert sind :redface:
Ailuros
2013-02-13, 19:50:13
@Ailuros: Aber irgendwie gibt es ja doch genug "Bekloppte" die interessiert sind :redface:
Wenn ein Schub eines begrenzten wafer runs nicht ausreichen sollte, dann macht man halt noch einen zweiten um im Notfall noch einen dritten. Die Frage hier ist ob NV Titan nur aus seltenen Aussenseiter halten will, oder ob in ein paar Monaten es bessere Verfuegbarkeit mit niedrigeren Preisen und sogar salvage parts geben wird? Welches der beiden passt besser ins insgesamte heutige Bild?
Hübie
2013-02-13, 20:16:29
Kommt drauf an ob Titan im Vollausbau daher kommt oder nicht. Wenn Vollausbau dann kannst man die salvage parts gut in den Profi-Bereich "abschieben" und dort ausreichend Geld generieren während nVidia sich mit Titan das Prestige sicherst. GK110 ist so oder so gefragt.
Wenn Titan mit 14 SMx kommt dann zockst du halt die armen sabbernden "bencher" und "quaker" ab während du den gleichen Kram ohne Magnesium-bling-bling im Profi-Segment weiter verbreitest. Ist der Profi-Markt gedeckt ist GK110 EOL. Eine bessere Verfügbarkeit werden wir wohl bei Titan nicht erleben. Schon gar nicht wenn 15 SMx kommen.
Skysnake
2013-02-13, 20:17:08
Da ich auf die-shots immer nur die groben Dinge wie command-processor, PCIe-Anbindung etc. identifizieren kann, bin ich nicht in der Position Aussagen zu größenordnungen abzugeben ;) Woher weißt du das mit dem 1 MB SRAM = 3mm²?
Naja, das ist eigentlich ziemlich einfach ;)
Um 1 Bit SRAM zu realisieren, brauchst du 6 oder 8 Transistoren.
1MB sind 1024 kB sind 1.048.576 Byte sind 8.388.608 Bit
Macht also 50331648 bzw 67108864 Transistoren bei 6T bzw. 8T-SRAM
SRAM hat die höchste Packdichte allgemein. SRAM Zellen sind EXTREM optimiert aufgrund ihrer sehr großen Häufigkeit. Ich hab mal die Implementierung in glaub 90nm waren es gesehen. Das erkennt man ohne geschultes Auge gar nichts mehr ;D Mit "raten" haben wir das in der Vorlesung dann rausbekommen, das es ein SRAM ist. Ich tat mir auch extrem schwer, das zu erkennen. Da es ein Grundbaustein sein sollte, ist mir nichts anders eingefallen, was auch nur so ähnlich hätte aussehen können.
Jetzt aber wieder BTT. Bei 28nm Gatelänge, macht ein SRAM Transistor ~784*10^-18 m² aus.
So jetzt nur noch miteinander multiplizieren und wir kommen auf 0,04-0,05mm². Da hast du dann aber noch 0 Ansteuerunglogik drin, und auch 0 Leitungen.
hmmm... entweder Gipsel hat sich grad vertan, weil sooo viel sollte die Ansteuerunglogik auch nicht ausmachen. Wenn ich mir Chips aber anschaue, also gerade CPUs, dann passt das mit dem 1mm²/MB eigentlich schon.
Wenn ein Schub eines begrenzten wafer runs nicht ausreichen sollte, dann macht man halt noch einen zweiten um im Notfall noch einen dritten. Die Frage hier ist ob NV Titan nur aus seltenen Aussenseiter halten will, oder ob in ein paar Monaten es bessere Verfuegbarkeit mit niedrigeren Preisen und sogar salvage parts geben wird? Welches der beiden passt besser ins insgesamte heutige Bild?
Vorausgesetzt, man hat freie Kapazitäten
Gipsel
2013-02-13, 20:20:01
Woher weißt du das mit dem 1 MB SRAM = 3mm²?Das kannst Du auf Dieshots nachmessen, 3mm² ist schon aufgerundet. Die eigentliche Zellengröße (die Werte für TSMCs Standardzellen sind ja bekannt) für den HD-SRAM ergibt sogar noch Werte darunter (~1 mm² nur für die Zellen), der Rest ist Overhead beim Zusammenbau der Zellen zu einem funktionsfähigen Array. Oder da ich Tahiti erwähnt hatte, die 8MB Vektor-Register auf einem Tahiti sind nur so ungefähr 23mm² groß. Und das sind ziemlich viele kleine Bänke, wodurch der Overhead (aber auch die Bandbreite, sind 32 kB pro Takt [:freak:] oder über 30TB/s) steigt.
Edit:
@Skysnake: Ein Transistor ist erheblich größer als die Gatelänge. Näher dran ist so eine Größe wie der contacted gate pitch als minimaler Abstand zweier kontaktierter Gates (ist bei TSMC's 28nm Prozessen wohl 117nm).
Eine HD-6T-SRAM-Zelle von TSMC in 28nm mißt wohl irgendwas zwischen 0,12 und 0,13 µm². Ist zumindest der Bereich, den ich gefunden habe (unterscheidet sich leicht für HKMG oder Poly-Gates). Für 40nm hatte ich mal eine Tabelle gesehen in der für alle angebotenene Zellen von HD-SRAM (0,202µm²) bis HC-DP-SRAM (HC=high current=schnell, DP=dual ported, irgendwas um 0,4µm²) alle Standardtypen drinstanden.
Godmode
2013-02-13, 20:20:20
Zusammenfassend: Die Situation ist für uns Kunden nicht sehr wünschenswert, aber anscheinend ist es uns auch egal. Viele von uns haben durch das wachsende Alter mehr Geld zur Verfügung, daher wird das alles nicht mehr so kritisch gesehen. Ich hätte mir vor drei Jahre nie im Leben eine Graka um 1.000€ gekauft. Ich hab nicht mal eine um 500€ gekauft. Es war für mich zu dieser Zeit nicht leistbar.
Jetzt sieht das ganze völlig anders aus. Vernünftiges Einkommen und sonst kein anderes teures Hobby. Auch wenn ich jetzt sagen könnte, lieber das Geld sparen und für was besseres aufheben, aber wozu? Ich hab schon mein Polster für Notfälle, falls einmal länger kein Einkommen da ist, Krankheit, etc...
Es ist auch nicht so, dass ich jetzt auf irgendwas anderes wichtiges verzichte nur um eine überteuerte Highend Karte zu kaufen. Ich kaufe die Dinger weil sie mir Freude bereiten. Auch wenn ich dann oft gar nicht soviel damit Spiele, aber das Testen, Einstellen, Benchmarken, Spekulieren etc. finde ich einfach interessant.
Ich finde Nvidia treibt es momentan zu bunt was die Preise angeht. Viele hier sind mit Schuld, genau so wie auch ich. Sollte AMD mit der nächsten Gen ein für mich interessantes Produkt bringen, fliegen die grünen sofort raus. Generell bin ich gespannt, wie es langfristig am PC Highend GPU Markt aussehen wird.
Ailuros
2013-02-13, 20:22:36
Kommt drauf an ob Titan im Vollausbau daher kommt oder nicht. Wenn Vollausbau dann kannst man die salvage parts gut in den Profi-Bereich "abschieben" und dort ausreichend Geld generieren während nVidia sich mit Titan das Prestige sicherst. GK110 ist so oder so gefragt.
Wenn Titan mit 14 SMx kommt dann zockst du halt die armen sabbernden "bencher" und "quaker" ab während du den gleichen Kram ohne Magnesium-bling-bling im Profi-Segment weiter verbreitest. Ist der Profi-Markt gedeckt ist GK110 EOL. Eine bessere Verfügbarkeit werden wir wohl bei Titan nicht erleben. Schon gar nicht wenn 15 SMx kommen.
Du hast immer noch Zweifel dass es nicht nur 14 SMXs sind?
Vorausgesetzt, man hat freie Kapazitäten
Wenn man GK104 chips in der Form von GTX680 immer noch um ein gutes Stueck hoeher als 400 Euro verkaufen kann, wohl nicht.
Kommt drauf an ob Titan im Vollausbau daher kommt oder nicht. Wenn Vollausbau dann kannst man die salvage parts gut in den Profi-Bereich "abschieben" und dort ausreichend Geld generieren während nVidia sich mit Titan das Prestige sicherst. GK110 ist so oder so gefragt.
Wenn Titan mit 14 SMx kommt dann zockst du halt die armen sabbernden "bencher" und "quaker" ab während du den gleichen Kram ohne Magnesium-bling-bling im Profi-Segment weiter verbreitest. Ist der Profi-Markt gedeckt ist GK110 EOL. Eine bessere Verfügbarkeit werden wir wohl bei Titan nicht erleben. Schon gar nicht wenn 15 SMx kommen.
Wer gibt denn die kolportierten 800+ Euro aus, wenn das Ding nur 14 von 15 SMX mitbringt? Ein kastriertes Biest für so viel Geld und die "Angst", dass beispielsweise zu Weihnachten der Vollausbau kommt, subba. IMO sollte Nvidia gleich in die Vollen gehen, wenn sie wirklich so viel Geld wollen.
MfG,
Raff
Hübie
2013-02-13, 20:25:42
Du hast immer noch Zweifel dass es nicht nur 14 SMXs sind?
Ja und jetzt lass mich in Ruhe :freak:
@Raff: Na ja. Das ist ja auch meine Sicht der Dinge, aber hat ja nix zu sagen. Bin kein Marketing-Fuzzie sondern am anderen Ende der Nahrungskette. So oder so wird das Biest jedoch zu teuer für mich. Nachwuchs ist im Anmarsch - aber auch sonst wäre mir das Geld höchstwahrscheinlich für etwas Kupfersulfit, Aluminium, Silizium und Magnesium zu schade.
Edit: Wenn man GK104 chips in der Form von GTX680 immer noch um ein gutes Stueck hoeher als 400 Euro verkaufen kann, wohl nicht.
Deswegen wird GK110 wohl auch EOL sobald die Nachfrage einknickt. Hollywood ist aber noch lange nicht gedeckt ;D
@Skysnake: Sehr ausführlich. Das muss ich mal eben nachrechnen ;) Jetzt weiß ich aber nur wieviel Transistoren das in etwa wären, nicht wieviel Oberfläche das frisst.
Godmode
2013-02-13, 20:26:29
Schoen. Und angenommen sie schaffen es mit allen Maerkten kombiniert (GeForce/Quadro/Tesla) GK10x und GK20x alles mitberechnet bis zu Maxwell die GK110 R&D Kosten zu decken, warum genau sollten sie sich in eine erweiterte GK110 Massenproduktion stuerzen mit salvage parts und allem drum und dran wenn sonst die Rechnung stimmen koennte?
Im Prinzip geht es um die Preiselastizität. Sie sind durch die verschiedenen Modelle ja schon nach unten hin begrenzt. Also eine Highendkarte kann nie 300€ Kosten, sonst stoßen wir mit den Mainstreamkarten zusammen. Nach oben hin ist aber viel Platz, bis zu einem Punkt wo ich meine Kunden vergraule. Irgendwo in der Mitte ist der Sweetspot, aber ich denke die wissen genau warum sie für einen GTX 680 soviel verlangen können.
4Fighting
2013-02-13, 20:28:40
Ich finde Nvidia treibt es momentan zu bunt was die Preise angeht. Viele hier sind mit Schuld, genau so wie auch ich. Sollte AMD mit der nächsten Gen ein für mich interessantes Produkt bringen, fliegen die grünen sofort raus. Generell bin ich gespannt, wie es langfristig am PC Highend GPU Markt aussehen wird.
True...
Hab meine 670er vorsorglich mal verkauft. Ist Titan nicht ganz meins, dann wirds eben eine 7970er und mit dem Spielebundle habe ich eine 10%ige bessere performance für das geld, das ich für meine 670er erhalten habe.:freak:
Und ich kann wieder neu mit der 7970 "spielen"...OC, Settings rumprobieren etc...
Godmode
2013-02-13, 20:30:40
Wer gibt denn die kolportierten 800+ Euro aus, wenn das Ding nur 14 von 15 SMX mitbringt? Ein kastriertes Biest für so viel Geld und die "Angst", dass beispielsweise zu Weihnachten der Vollausbau kommt, subba. IMO sollte Nvidia gleich in die Vollen gehen, wenn sie wirklich so viel Geld wollen.
MfG,
Raff
Bzw. die GTX 680 im März durch ne 780 für 500€ ersetzt wird. Somit würde Titan ein recht starker Ausreißer sein, was den Preis angeht. Eventuell kommt ja dann sogar noch ne 790 im Mai, also eine Wiederholung von 2012. Wirtschaftlich sehe ich viel Potenzial in solch ein Aktion, also leicht verbesserte 28nm Refreshes. Eine 790 würde dann sogar über Titan sehen, wenn man mal von mGPU absieht.
aufkrawall
2013-02-13, 20:50:52
Und ich kann wieder neu mit der 7970 "spielen"...OC, Settings rumprobieren etc...
Was du spielen nennst... :D
Weder funktionierte bei mir Afterburner richtig (3D-Takt aufm Desktop, 2D in Spielen...), noch war mit anderen Tools, etwa dem vom Asus, das Takt-Unlocking im CCC stabil (User-Logon scheiterte gerne mal etc.).
Da kann man mit testen, ansonsten muss man aber flashen. Und das kannst du bei GK104 doch auch. Wenn auch natürlich nicht so viel Leistung bei rumkommt.
Ich sehs mit 670 SLI etwas entspannter. Falls Titan für nicht geisteskranke Preise verfügbar sein wird, verkauf ich die vielleicht einzeln. Denke, da wird man bei mit Gewährleistung ebay noch ordentlich was für bekommen, evtl. wird der Listenpreis auch erstmal nicht niedriger.
Falls Titan absolut utopisch sein wird, kann ich weiter mit den Karten Spaß haben.
Schaffe89
2013-02-13, 22:03:32
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=955&page=5
Geile Schätzung.
Wie sehend denn eure Schätzungen jetzt so aus? :)
horn 12
2013-02-13, 22:06:06
@Raff
Du weiss sicherlich schon mehr,- und laut deinen Postings bist nicht sonderlich begeistert vom Titan,- oder irre ich mich da mal wieder ?
boxleitnerb
2013-02-13, 22:07:41
50% schneller als eine 680 wenn es auf Bandbreite ankommt, 60% wenn es eher auf Rechenleistung geht. Wäre so meine Schätzung.
Schaffe89
2013-02-13, 22:07:50
Mal sehen was so kommt ich bleibe dabei und Tippe immernoch m Mittel nur + 40% zur GTX 680 bei 240 WATT tdp:
Wenns 260 Oder gar an die 300 Watt TDP werden, dann von mir aus auch 60 bis 70%.
Im HWL gehts richtig ab, da lecken sich schon alle die Finger.
Ich bin aufgrund des Preises und der Tatsache dass die Karten spätestens nach dem AMD Launch eh gewaltig an Wert einbußen eher weniger begeistert eine zu kaufen.
boxleitnerb
2013-02-13, 22:14:44
240W ist zu wenig, ich rechne schon mit ca. 270W.
875MHz bedeutet gut 50% mehr Rechenleistung zur 680 bezogen auf den Basistakt. Kommt halt jetzt drauf an, wie hoch man den Boost bei der 680 ansieht.
Duplex
2013-02-13, 22:32:06
Ich bin aufgrund des Preises und der Tatsache dass die Karten spätestens nach dem AMD Launch eh gewaltig an Wert einbußen eher weniger begeistert eine zu kaufen.
Was für ein Launch soll das sein?
Dafür müsste AMD mind. 3072 Shader + 512 Bit SI haben damit die Geforce Titan Karten gewaltig an Wert verlieren so wie du es dir vorstellst...
Freu dich nicht zu früh & erwarte nicht zuviel von AMD. Wenn sich beim Frontend nicht stark was ändern tut, dann bringt selbst eine 2560 Shader Karte nicht viel, bei Pitcairn > Tahiti (Game skalierung) sieht man das Frontend ist beschissen schwach.
Godmode
2013-02-13, 22:37:24
Ich bin aufgrund des Preises und der Tatsache dass die Karten spätestens nach dem AMD Launch eh gewaltig an Wert einbußen eher weniger begeistert eine zu kaufen.
Dann sollen sie uns bitte einen Hinweis geben, wenn bald was kommt.
Allerdings gehe ich davon aus, dass ihnen der Enthusiast Markt sowieso am Arsch vorbeigeht. Wenn ihnen was daran gelegen wäre, hätten sie selber einen 7990 gebracht.
Zergra
2013-02-13, 22:37:50
Was für ein Launch soll das Design?
Dafür müsste AMD mind. 3072 Shader + 512 Bit SI haben damit die Geforce Titan Karten gewaltig an Wert verlieren so wie du es dir vorstellst...
Freu dich nicht zu früh & erwarte nicht zuviel von AMD. Wenn sich beim Frontend nicht stark was ändern tut, dann bringt selbst eine 2560 Shader Karte nicht viel, bei Pitcairn > Tahiti (Game skalierung) sieht man das Frontend ist beschissen schwach.
AMD würde ja einen ähnlichen Preis veranschlagen ;)
Schaffe89
2013-02-13, 22:41:53
Was für ein Launch soll das sein?
Du glaubst doch nicht ernthaft dass sich der hohe Preis so lange halten wird?
AMD launcht womöglich irgendwann Q3 ne neue Serie, die vielleicht 25% schneller wird.
Dann ist GK110 noch 20% in Front, wer soll da 850 Euro für blechen, wenn AMD mit 400 um die Ecke kommt.
Ich werde mir das jetzt mal genügsam angucken, was AMD diese Woche noch so klären wird.
Wenns das Teil für 700 Euronen gibt, schlag ich gleich zu.
Allerdings gehe ich davon aus, dass ihnen der Enthusiast Markt sowieso am Arsch vorbeigeht. Wenn ihnen was daran gelegen wäre, hätten sie selber einen 7990 gebracht.
DAs kommt drauf an ob die "Manager" sich einen Nutzen aus dem Prestige ausrechnen.
Jedenfalls wäre es keine schlechte Idee erstmal Nvidia launchen zu lassen, in dem Glauben sie hätten für lange Zeit nen 40% Vorsprung und dann ne HD 8970 mit +25% zur HD 7970 ghz zu launchen und da mal ordentlich mit den Preisen zu kontern.
Damas zu HD 4870 Zeiten hatts auch niemand erwartet.
Ronny145
2013-02-13, 22:43:46
Du glaubst doch nicht ernthaft dass sich der hohe Preis so lange halten wird?
AMD launcht womöglich irgendwann Q3 ne neue Serie, die vielleicht 25% schneller wird.
Wie kommst du auf Q3? Die Roadmap spricht dagegen. Vor Q4 kannst du neues von AMD knicken.
Duplex
2013-02-13, 22:45:05
Möglicherweise wird GCN2 nur 15% schneller als die 7970 Ghz Editon und die Leistungsaufnahme wird höher ausfallen, also nichts mit niedrig Preise.
dildo4u
2013-02-13, 22:45:19
AMD hat schon gezeigt was sie mit 250Watt abliefern können,ohne neue Fertigung wirds keinen große Steigerung geben.
Schaffe89
2013-02-13, 22:51:41
Wie kommst du auf Q3? Die Roadmap spricht dagegen. Vor Q4 kannst du neues von AMD knicken.
Die Roadmap ist ja scheinbar nicht ganz so "gemeint".
Hat AMD den Conference Call schon gemacht?
AMD hat schon gezeigt was sie mit 250Watt abliefern können,ohne neue Fertigung wirds keinen große Steigerung geben.
Naja ich würds nicht so negativ sehen.
Die Ghz Edition war einfach der Holzhammer. Mit weniger Spannung, dafür aber mehr Einheiten, geht sicherlich noch etwas, ich schätze mal 25% bei 220 Watt TDP, etwas weniger wie der HD 7970 ghz, aber das hier ist eh weniger der Topic.
Duplex
2013-02-13, 22:52:17
Damas zu HD 4870 Zeiten hatts auch niemand erwartet.
R600 > 320 Shader (80nm) fail
RV670 > 320 Shader (55nm) fail
RV770 > 800 Shader (55nm)
Merkste jetzt etwas? RV670 wurde nicht aufgebohrt, das war nur ein R600 Shrink mit minimalen verbesserungen (+ Leistungsaufnahme), AMD hätte Problemlos ein RV670 mit 640 Shader bauen können, dann hätte der RV770 keinen großen Sprung machen können.
Sry für offtopic.
boxleitnerb
2013-02-13, 22:55:43
15% werden schon gehen, und wenn es nur besseres Binning ist. So arg negativ sehe ich das nicht.
Schaffe89
2013-02-13, 22:56:04
Sry, aber du bist auch schon auf dem Nvidia = Top AMD = Flop Tripp Duplex, redet ihr euch nur den Preis schön und tut so als ob der ewig Bestand hätte.
Früher oder später senkt AMD die Preise, da find ichs besser mit dem Kauf n bisschen zu warten.
M4xw0lf
2013-02-13, 22:56:28
AMD hat schon gezeigt was sie mit 250Watt abliefern können,ohne neue Fertigung wirds keinen große Steigerung geben.
Mehr Einheiten bei nierdrigerem Takt auf einem etwas größeren Die könnte AMD auch immer noch abliefern.
Duplex
2013-02-13, 22:57:16
15% werden schon gehen, und wenn es nur besseres Binning ist. So arg negativ sehe ich das nicht.
Der mögliche GK104 Refresh mit 384 Bit SI & 1920 Shader könnte GCN2 ohne Probleme hinter sich lassen, dann wird Geforce Titan sowieso nicht mehr günstiger!
Cayman war 20% größer als Cypress, lieferte nur 15% mehr Performance & verbrauchte 30% mehr Strom :rolleyes: macht euch keine hoffnungen von GCN2.
boxleitnerb
2013-02-13, 23:02:49
Der mögliche GK104 Refresh mit 384 Bit SI & 1920 Shader könnte GCN2 ohne Probleme hinter sich lassen, dann wird Geforce Titan sowieso nicht mehr günstiger!
Cayman ist 20% größer als Cypress, liefert nur 15% mehr Performance & verbraucht 30% mehr Strom :rolleyes:
Würde eher auf einen Gleichstand tippen, wenn es so kommt mit den Specs. Die schlechte Effizienz bei Cayman bezieht sich eher auf die 6970, und dort musste man auch Compute aufbohren. Das hat man bei Tahiti schon hinter sich.
LSSJBroly
2013-02-13, 23:11:54
Der mögliche GK104 Refresh mit 384 Bit SI & 1920 Shader könnte GCN2 ohne Probleme hinter sich lassen, dann wird Geforce Titan sowieso nicht mehr günstiger!
Damit könnte man aber auch wohl dem Titan recht nahe kommen (nur noch 15% differenz?) Schließlich verhungert GK104 schon an der Bandbreite, GK110 wohl ähnlich wie GK104, solange der größere Cache nichts bringt. Aber ein GK204 mit 1920 Shader, 48 ROPs und eben 384Bit sowie hohem Takt wäre wohl auch rund 30% schneller als die GTX 680, also auch nicht all zu schlecht;)
AMDs Toplösung wäre daraufhin (ebenfalls mit einem + von 15% auf dem selben niveau) und beides wieder für rund 500€... (selbe situation wie HD 7970 und GTX 680) Da wüsste ich schon, was ich mir anstatt des GK110 wohl kaufen würde...
AMD sollte es mit einem aufgepumpten Pitcairn probieren, GK104 ist schließlich auch der "Gamer"-Chip. Ein verdoppelter Pitcairn mit 2.560 ALUs @ 1 GHz (und passend dazu mindestens einem verdoppelten Frontend) wäre gewiss mächtig und wohl nicht größer als Tahiti XT. Aber diese Speku-Geschichten kennen wir ja schon alle; was wurde doch über einen verdoppelten GF104 mit 768 ALUs gegenüber GF110 spekuliert. Eine dicke "Non-Gamer-GPU" richtet's ja doch wieder.
Btw: Wie kommt ihr darauf, dass Titan weniger an der Transferrate klebt als GK104? Ich sehe das in den aktuell umhergehenden Spex (http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Geforce-GTX-Titan-Launch-Termin-1055026/) nicht. 384 Bit und GDDR5. Keine Hexerei. Aber die Leistung der GPU ist ohnehin interessanter – Tahiti kann sich von Pitcairn auch nur selten wegen seiner Transferrate besser in Szene setzen.
MfG,
Raff
dildo4u
2013-02-13, 23:20:54
Mehr Einheiten bei nierdrigerem Takt auf einem etwas größeren Die könnte AMD auch immer noch abliefern.
Für AMD Verhältnisse ist Tahiti schon ein Monster ziemlich unwahrscheinlich das sie noch größer gehen.
boxleitnerb
2013-02-13, 23:26:40
Aber die Leistung der GPU ist ohnehin interessanter – Tahiti kann sich von Pitcairn auch nur selten wegen seiner Transferrate besser in Szene setzen.
MfG,
Raff
Dachte ich auch, aber bei den ht4u Benchmarks sehe ich desöfteren mal 60% zwischen 7870 und 7970 GHz - was exakt dem Plus an Einheiten entspricht.
Duplex
2013-02-13, 23:27:35
Damit könnte man aber auch wohl dem Titan recht nahe kommen (nur noch 15% differenz?).
Wenn man davon ausgeht das Titan 60% schneller als die GTX680 wird, dann liegen zwischen GK204 & GK110 immer noch 30% unterschied, die Preise zwischen GCN2 & GK204 könnten tatsächlich wie aktuell ähnlich GK104 vs. Tahiti ausfallen.
AMD sollte es mit einem aufgepumpten Pitcairn probieren, GK104 ist schließlich auch der "Gamer"-Chip. Ein verdoppelter Pitcairn mit 2.560 ALUs @ 1 GHz (und passend dazu mindestens einem verdoppelten Frontend) wäre gewiss mächtig und wohl nicht größer als Tahiti XT.
Wie kommst du darauf das der Chip nicht größer als Tahiti ausfällt?
Pitcairn = 212mm²
Tahiti = 365mm²
Ein doppelter Pitcairn mit Enhanced Frontend wäre locker 450mm2 groß :rolleyes: Dann kannste gleich ein 3072 Shader Chip mit 512 Bit SI, 48 ROPS @500mm² bauen.
Dachte ich auch, aber bei den ht4u Benchmarks sehe ich desöfteren mal 60% zwischen 7870 und 7970 GHz - was exakt dem Plus an Einheiten entspricht.
Ich sehe da jetzt nichts, was ich nicht auch meinte. :D Ich wollte damit sagen, dass Tahiti beispielsweise nicht die Überkiste mit 8x MSAA ist, nur weil viel Transferrate herumliegt. :)
Wie kommst du darauf das der Chip nicht größer als Tahiti ausfällt?
Pitcairn = 212mm²
Tahiti = 365mm²
Ein doppelter Pitcairn mit Enhanced Frontend wäre locker 450mm2 groß :rolleyes:
Wenn die Ati-Leute etwas können, dann dicht besiedeln (Packdichte). Letztendlich spekulieren wir beide nur. :)
MfG,
Raff
derguru
2013-02-13, 23:31:56
die frage ist ob sich ein titan lohnt falls es wirklich eine oc-sperre gibt.wenn man von den 40% gegenüber einer 7970 im schnitt ausgeht ohne oc möglichkeiten ist mir die günstigere variante 7970+30% oc lieber und vorallem günstiger.:biggrin:
Ich bin vor allem gespannt, ob es titanische Custom Designs geben wird oder ob Nvidia wie bei der GTX 690 einen Riegel vorschiebt. Nun ja, besser als beim grützigen 7970-Kühler kann's fast nur sein. X-D AMD hat Glück, dass es hier ordentliche Lösungen gibt, das Referenzdesign kann man nicht ernsthaft empfehlen.
MfG,
Raff
LSSJBroly
2013-02-13, 23:34:30
Wenn man davon ausgeht das Titan 60% schneller als die GTX680 wird, dann liegen zwischen GK204 & GK110 immer noch 30% unterschied, die Preise zwischen GCN2 & GK204 könnten tatsächlich wie aktuell ähnlich GK104 vs. Tahiti ausfallen.
Falls GK110 60% schneller als die GTX 680 wird, was ich im übrigen eher nicht glaube (eher 40-50%) dann wäre ein GK110 dennoch nur 23% schneller als der GK204, denn 1,6 (GK110):1,3 (GK204)=1,231
Duplex
2013-02-13, 23:37:22
Falls GK110 60% schneller als die GTX 680 wird, was ich im übrigen eher nicht glaube (eher 40-50%) dann wäre ein GK110 dennoch nur 23% schneller als der GK204, denn 1,6 (GK110):1,3 (GK204)=1,231
Wenn der Unterschied so klein ausfällt, dann würde ich an Nvidia´s stelle bei GK204 ein OC Limit einbauen, sonst gibt es für Titan keinen Kaufgrund.
Sollte Nvidia bei Titan auch so eine sperre einbauen, dann sollte man bewusst keine Karten mehr von denen kaufen, bei so einem hohen Preis erwartet man keine Sperren, das wäre sonst echt dreist!
Screemer
2013-02-13, 23:41:16
Da würden andere redundante teile aber noch wegfallen.
LSSJBroly
2013-02-13, 23:45:45
Sollte Nvidia bei Titan auch so eine sperre einbauen, dann sollte man bewusst keine Karten mehr von denen kaufen, bei so einem hohen Preis erwartet man keine Sperren, das wäre sonst echt dreist!
Bei so einem hohem Preis erwarte ich ein plus von 70 und mehr Prozent im vergleich zur GTX 680 und HD 7970, also leistung die Kreise um die Konkurenz zieht ->ergo wie 800GTX. Natürlich auch einen vollen 15SMX Chip, da geht es mir allein ums Prinzip. Leider sehe ich bisher noch nichts davon... Ich bin da ganz klar wie @Ailuros der Meinung, dass die Preise niemals gerechtfertig wären und sind, (egal) was da kommen mag. Das Ding ist das Geld einfach nicht Wert.
Ich werde nicht mehr als 650€ ausgeben. Da kaufe ich mir lieber ne zweite GTX 680 und warte auf nächstes Jahr. Soetwas unterstütze ich ganz sicher nicht.
Duplex
2013-02-13, 23:53:46
Klar vernünftiger wäre in deinem fall wohl eine 2. Karte (SLI)
Die Preise werden nur dann attraktiv wenn GCN2 +40% zulegen kann, wenn man bedenkt das Tahiti bereits 365mm² groß ist, dann ist das ziemlich unwahrscheinlich mit den +40%, es werden eher +15% auf die Ghz Edition sein, GTX680 +30%.
Blaire
2013-02-13, 23:56:05
die frage ist ob sich ein titan lohnt falls es wirklich eine oc-sperre gibt.wenn man von den 40% gegenüber einer 7970 im schnitt ausgeht ohne oc möglichkeiten ist mir die günstigere variante 7970+30% oc lieber und vorallem günstiger.:biggrin:
6GB HD7970 sind aber nicht günstig ;) Logisch, das man dafür schon knapp 200€ an Mehrkosten einplanen muss.
Duplex
2013-02-13, 23:57:23
Als ob 6GB für ein Kaufargument sprechen...
Kann mich noch errinern als viele der Meinung waren das Tahiti mit 3GB zuviel Speicher habe.
LSSJBroly
2013-02-14, 00:00:03
Klar vernünftiger wäre in deinem fall wohl eine 2. Karte (SLI)
Die Preise werden nur dann attraktiv wenn GCN2 +40% zulegen kann, wenn man bedenkt das Tahiti bereits 365mm² groß ist, dann ist das ziemlich unwahrscheinlich mit den +40%, es werden eher +15% auf die Ghz Edition sein, GTX680 +30%.
Naja, bis 650/700€ wäre ich noch mitgegangen (hab noch ne GTX 580 hier rumliegen; zusammen mit der 680 sind das auch nochmal rund 500€). Aber 800-900€? Für 40% mehr Leistung? Dann lieber MR, die ich mit nem FPS limiter oder Vsync smooth bekämpfen kann und hab immer noch 80% mehr Leistung. Gut, zwar keine 3GiB Vram aber dennoch genug Power für SGSSAA...
Blaire
2013-02-14, 00:03:51
Als ob 6GB für ein Kaufargument sprechen...
Kann mich noch errinern als viele der Meinung waren das Tahiti mit 3GB zuviel Speicher habe.
NV ist nicht AMD, da lässt sich schon einiges mehr an Bildqualität (AA-Bits, Downsampling) rausholen. Fakt ist auch, daß 3 GB nicht für lau zu haben sind, dies gern übersehen wird. Darum gehts.
Naja, bis 650/700€ wäre ich noch mitgegangen (hab noch ne GTX 580 hier rumliegen; zusammen mit der 680 sind das auch nochmal rund 500€). Aber 800-900€? Für 40% mehr Leistung? Dann lieber MR, die ich mit nem FPS limiter oder Vsync smooth bekämpfen kann und hab immer noch 80% mehr Leistung. Gut, zwar keine 3GiB Vram aber dennoch genug Power für SGSSAA...
Mit einer zweiten GTX680 kannst nix falsch machen, SGSSAA skaliert super, du müsstest schon Unmengen an Textur-Mods verwenden wo die 2GB geknackt bzw. es von Relevanz wäre.
derguru
2013-02-14, 00:11:07
6GB HD7970 sind aber nicht günstig ;) Logisch, das man dafür schon knapp 200€ an Mehrkosten einplanen muss.
6gb interessiert mich null und ich bin nativ auf 1440p.bei amd sind 6gb genauso uninteressant aber da gibt es die wahl.;)
als ob der hohe preis an den 6gb liegt.;D
VooDoo7mx
2013-02-14, 00:39:59
Falls GK110 60% schneller als die GTX 680 wird, was ich im übrigen eher nicht glaube (eher 40-50%) dann wäre ein GK110 dennoch nur 23% schneller als der GK204, denn 1,6 (GK110):1,3 (GK204)=1,231
Solche Spekulationen sind mal sowas von für den Arsch, da man über eine GK204 oder den daraus resultierenden Karten rein gar nichts weiß.
dargo
2013-02-14, 01:04:06
Dachte ich auch, aber bei den ht4u Benchmarks sehe ich desöfteren mal 60% zwischen 7870 und 7970 GHz - was exakt dem Plus an Einheiten entspricht.
Gut, dass du das sagst weil hier wieder das Märchen aufkam vonwegen das Frontend wäre grausam bei Tahiti. :rolleyes:
6GB HD7970 sind aber nicht günstig ;) Logisch, das man dafür schon knapp 200€ an Mehrkosten einplanen muss.
Wenn ich danach (http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7970+GHz+Edition~545_Sapphire#xf_top) gehe sinds eigentlich ~145€. Wobei ich 6GB Vram für einen ziemlichen Overkill momentan halte.
Felixxz2
2013-02-14, 03:26:12
GK110 kann garnicht >50% schneller als GK104 werden, denn die Bandbreite ist nur 50% höher als beim bandbreitenlimitierten GK104. Ergo maximal die 50% mehr die das 384 Bit SI mitbringt. Dafür sprechen auch die vermuteten 4-4,5 TFLOP/s.
@Dargo
Das Front-End IST grausam. Stichwort 2x7850 ist 25% schneller als 1x7970 GE. ;)
Knuddelbearli
2013-02-14, 04:50:54
frontend ist extrem spiele abhängig
und bessere frontend heisst auch höhere auslastung und dadurch höherer verbrauch
boxleitnerb
2013-02-14, 08:04:33
Gut, dass du das sagst weil hier wieder das Märchen aufkam vonwegen das Frontend wäre grausam bei Tahiti. :rolleyes:
Naja aber nicht immer ;)
fondness
2013-02-14, 08:28:36
Für AMD Verhältnisse ist Tahiti schon ein Monster ziemlich unwahrscheinlich das sie noch größer gehen.
Kleiner Tipp: Schau dir mal die Mars-GPU an. ;)
Gaestle
2013-02-14, 08:51:16
Bzw. die GTX 680 im März durch ne 780 für 500€ ersetzt wird. Somit würde Titan ein recht starker Ausreißer sein, was den Preis angeht. Eventuell kommt ja dann sogar noch ne 790 im Mai, also eine Wiederholung von 2012. Wirtschaftlich sehe ich viel Potenzial in solch ein Aktion, also leicht verbesserte 28nm Refreshes. Eine 790 würde dann sogar über Titan sehen, wenn man mal von mGPU absieht.
Es wird keine 780 im März geben. Und wenn sie dann mal kommt, dann wird sie nicht nur 500€ kosten. Die 780 (bzw. GK204 oder whatever) wird zeitigstens Q4/2013 kommen und dann schön bei 650€ starten.
Ansonsten würde der Titan-Launch völlig überflüssig sein. Keine Firma ist ein Wohltäter für den Kunden, auch NV nicht. NV (und alle anderen) Scheffeln wie es der Markt zulässt.
robbitop
2013-02-14, 09:17:58
Der mögliche GK104 Refresh mit 384 Bit SI & 1920 Shader könnte GCN2 ohne Probleme hinter sich lassen, dann wird Geforce Titan sowieso nicht mehr günstiger!
Cayman war 20% größer als Cypress, lieferte nur 15% mehr Performance & verbrauchte 30% mehr Strom :rolleyes: macht euch keine hoffnungen von GCN2.
Ich gehe nicht davon aus, dass GK114 ein 384 bit SI + so viel mehr Ausführungseinheiten haben wird. Das Ding würde Titan fast obsolet machen und die Preise stark purzeln lassen.
Für AMD braucht man doch aktuell nur +15 % mehr Leistung. Eine neue Maske mit ein paar Optimierungen und schnellere GDDR5 Bausteine und schon bist du bei Gleichstand. AMD möchte offensichtlich keinen Refresh bringen - oder wenn dann erst deutlich später. 2014 (oder Ende 2013).
@Front End Diskussion
Tahiti wird erst deutlichst schneller als Pitcairn, wenn sehr hohe Auflösungen (Dreiecks/Pixelverhältnis) auftreten oder eine sehr hohe Shaderlast auftritt. Beides nimmt diesen Flaschenhals raus. SGSSAA bspw. tut das nicht.
Wenn man die Skalierung von Cape Verde, Pitcairn und Tahiti Rechenleistung/Leistung auf der Straße betrachtet, sieht man, dass da mit steigender Anzahl von Recheneinheiten ein Flaschenhals immer weiter zunimmt. Nur in den Fällen, wo Pixel/Geometrieverhältnisse günstig sind, sieht es wieder besser aus.
Eine 3 oder 4 fache Cape Verde mit 3 oder vierfachem Frontend würde vermutlich die SPs richtig gut auslasten und somit sicherlich auch eine gute Endleistung auf die Straße bringen.
3 fach inkl Tahiti Compute Features sollte in ~ 370 sqmm gehen. Das Ding würde bei ~ gleicher SP Anzahl wie Tahiti sicherlich oftmals schon 10..20 % schneller sein.
Ein 4 facher Cape Verde (oder doppelter Pitcairn) sind schon eher bei 450 sqmm. Das würde AMD gar nicht ähnlich sehen. In diese Größenordnungen stößt AMD schon lange nicht mehr vor. Sowas wäre dann sicherlich auch ähnlich schnell wie ein Titan.
Ich sehe aber im Moment keinerlei Anzeichen für so eine Karte. AMD spart im Moment offenbar überall Ressourcen. Offenbar ist kein Geld für High End da.
Edgecrusher86
2013-02-14, 09:22:19
Das ist dann wohl die Karte - schade, dass sie nicht etwas mehr GTX 690-Optik (also das Design der Abdeckung - natürlich mit Radial- statt Axiallüfter) aufweist - auch wenn der Look trotzdem edel ausfällt. ;)
http://www.abload.de/img/876554433b5k9gbzaot.gif
Quelle: irgendwo bei PCInlife - das Foto wurde ohne Quellenangabe gerade im Luxx geposted. ;)
http://we.pcinlife.com/
E: Ok, ist doch Tesla -> GF100 zur CES. ;D
http://www.abload.de/img/nvidia-fermi-g300-tes4klnj.jpg
MfG
Edge
PCGH_Carsten
2013-02-14, 09:23:56
Tesla fängt auch mit „T“ an.
Godmode
2013-02-14, 09:25:08
Das ist dann wohl die Karte - schade, dass sie nicht etwas mehr GTX 690-Optik (also das Design der Abdeckung - natürlich mit Radial- statt Axiallüfter) aufweist - auch wenn der Look trotzdem edel ausfällt. ;)
http://www.abload.de/img/876554433b5k9gbzaot.gif
Quelle: irgendwo bei PCInlife - das Foto wurde ohne Quellenangabe gerade im Luxx geposted. ;)
http://we.pcinlife.com/
MfG
Edge
Sieht hier nach billig Plastik Optik aus, aber das kann man anhand der schlechten Bildqualität nicht beurteilen.
edit: Sieht nach Tesla aus:
http://www.titanuscomputers.com/NVIDIA-Tesla-C2070-Computing-Processor-6GB-GDDR5-p/c2070.htm
AnarchX
2013-02-14, 09:27:17
Tesla fängt auch mit „T“ an.
Zumal da auch nur ein DVI-Anschluss zu sehen ist.
Ist eine GF100 Tesla ES Version: http://www.pcgameshardware.com/?menu=browser&article_id=702452&image_id=1201061
Edgecrusher86
2013-02-14, 09:59:28
Ja, sie hatten mich auch kurz. Ich glaube, die haben zu viel Zeit jetzt während dem Neujahrsfest. Stimmt das wäre einfach nur Plastik mit einem Aufkleber - die Verarbeitung soll ja auch laut Theo Richtung GTX 690 gehen, ja sogar besser aussehen. ;)
dargo
2013-02-14, 10:03:55
Naja aber nicht immer ;)
Natürlich nicht immer, wie denn auch? Nicht jedes Spiel hängt gleichermaßen stark an der Shaderleistung. Völlig normale Sache.
Ailuros
2013-02-14, 10:34:58
6GB HD7970 sind aber nicht günstig ;) Logisch, das man dafür schon knapp 200€ an Mehrkosten einplanen muss.
Ich bin so frech und behaupte dass selbst die GTX680 nie in rote Zahlen geringen waere oder wird falls es einen 4GB framebuffer gehabt haette. Anders muesste AMD jegliche 7970 wenn nicht sogar 7950 mit 3GB framebuffer bei einem ziemlich grossen Verlust ueberhaupt heute verkaufen, und dabei ist der Tahiti die um einiges groesser als GK104 :rolleyes:
Klar muss man einen fetten Batzen an Mehrkosten mitberechnen als Endverbraucher, aber nur weil marketing von top to bottom es so stark wie moeglich ausnutzt. Seit wann ist heutzutage Speicher so suendhaft teuer dass es wirklich einen 200 Euro Aufpreis auf einer 7970 wirklich wert ist?
boxleitnerb
2013-02-14, 10:47:01
Natürlich nicht immer, wie denn auch? Nicht jedes Spiel hängt gleichermaßen stark an der Shaderleistung. Völlig normale Sache.
Die 7970 GHz hat aber auch 60% mehr Texelfüllrate und Bandbreite. Da würde ich schon erwarten, dass sie immer diese 60% schneller ist. Oder limitiert die Pixelfüllrate heute überhaupt noch?
box und ail,
wie erwartet Ihr Titans Leistung in fordernden Settings (z.B. 4xSGSSAA, 4/8 AA+4xOGSSAA) bezogen auf 1080p in üblichen Titeln (C3 und Metro mal ausgenommen)?
Skysnake
2013-02-14, 12:40:05
Ich gehe nicht davon aus, dass GK114 ein 384 bit SI + so viel mehr Ausführungseinheiten haben wird. Das Ding würde Titan fast obsolet machen und die Preise stark purzeln lassen.
Für AMD braucht man doch aktuell nur +15 % mehr Leistung. Eine neue Maske mit ein paar Optimierungen und schnellere GDDR5 Bausteine und schon bist du bei Gleichstand. AMD möchte offensichtlich keinen Refresh bringen - oder wenn dann erst deutlich später. 2014 (oder Ende 2013).
GKxx4 wird aber 100% sicher kein 384 Bit Interface haben. Das bläht den Chip viel zu sehr auf, und macht ihn damit uninteressant für kleine Ableger. Und genau dafür braucht nVidia ihn eben!
nVidia hat sich auf die Gesamtsicht der 28nm Produktion mit GK104, so wie er gelauncht wurde halt echt einen Bärendienst geleistet. Der Sprung(Perspektive) für den Refresh ist nicht sonderlich groß, man lässt GK110 nicht so viel Luft, wie man es gerne hätte, da über GK110 nur schwerlich nochmals ein Refresh kommen kann bis zu 20nm. Man hat sich halt am Anfang in eine sehr gute Position gebracht, die aber beim Refresh eher ungünstiger werden wird. (Meine Einschätzung)
Vor Maxwell (in 28nm?) wird es definitiv nochmal einen Refresh geben, und bei GK110 wird das wohl nur der Vollausbau mit noch einigen Verbesserungen sein. Damit wird man aber nicht mehr sonderlich viel drauflegen können. Wirklich breiter kann man eben nicht werden, und GK110 kam schon auf einem 3/4 Jahr alten Prozess, auf dem man auch bereits die ersten Erfahrungen hatte. Mehr als 15% Leistungssteigerung sollte man da nicht erwarten.
AMD ist da in der konfortablen Situation, eben noch nichts größere als Tahiti zu haben, welche mit 365mm² noch Luft nach oben lässt, und ich glaube schon das AMD in Zukunft auch wieder ~500mm² Chips bringen wird. Das müssen Sie einfach, da die Nodes länger halten als früher.
@Front End Diskussion
Tahiti wird erst deutlichst schneller als Pitcairn, wenn sehr hohe Auflösungen (Dreiecks/Pixelverhältnis) auftreten oder eine sehr hohe Shaderlast auftritt. Beides nimmt diesen Flaschenhals raus. SGSSAA bspw. tut das nicht.
Wenn man die Skalierung von Cape Verde, Pitcairn und Tahiti Rechenleistung/Leistung auf der Straße betrachtet, sieht man, dass da mit steigender Anzahl von Recheneinheiten ein Flaschenhals immer weiter zunimmt. Nur in den Fällen, wo Pixel/Geometrieverhältnisse günstig sind, sieht es wieder besser aus.
Eine 3 oder 4 fache Cape Verde mit 3 oder vierfachem Frontend würde vermutlich die SPs richtig gut auslasten und somit sicherlich auch eine gute Endleistung auf die Straße bringen.
3 fach inkl Tahiti Compute Features sollte in ~ 370 sqmm gehen. Das Ding würde bei ~ gleicher SP Anzahl wie Tahiti sicherlich oftmals schon 10..20 % schneller sein.
Ein 4 facher Cape Verde (oder doppelter Pitcairn) sind schon eher bei 450 sqmm. Das würde AMD gar nicht ähnlich sehen. In diese Größenordnungen stößt AMD schon lange nicht mehr vor. Sowas wäre dann sicherlich auch ähnlich schnell wie ein Titan.
Ich sehe aber im Moment keinerlei Anzeichen für so eine Karte. AMD spart im Moment offenbar überall Ressourcen. Offenbar ist kein Geld für High End da.
Eigentlich würde es völlig ausreichen, wenn man bei Tahiti auf 36-40 CUs hoch geht mit 6-8 128 kB L2 Blöcke und eben einem doppelten Frontend. Damit sollte der Chip eigentlich völlig ausreichend sein. Wenn man dann noch 1:2 SP:DP rein packt, dann wäre das Ding zumindest im GPGPU-Markt extrem fett.
Ich könnte mir sogar 32 CUs mit doppeltem Frontend, mehr L2 usw. und 1:2 SP:DP vorstellen, und dafür eben Pitcairn etwas aufbohren. Das würde zwar den Tahiti-Nachfolger für 3D-Gameing uninteressanter machen, man würde aber mit beiden Chips relativ klein bleiben, und eben beide Nischen recht optimal versorgen. Diesen Tahiti-Nachfolger könnte man ja noch immer als eine Spezial-Edition für die 3D Gamer bringen.
Wie auch immer. AMD hat da viel Platz für viele unterschiedliche Variationen. Fragt sich nur, was wir am Ende wirklich sehen werden.
starfish
2013-02-14, 13:20:12
Im September kommen übrigens die neuen Quadros mit 12 GB Speicher.
Aber natürlich hat das im professionellen Bereich deutlich mehr bzw. eine ganz andere Bedeutung.
Wir rendern ja dann quasi komplett auf der GPU.
Quelle ist Nvidia direkt.
Ich arbeite bei einem sehr großen Visualisierungsunternehmen und arbeiten sehr eng mit Nvidia zusammen.
|MatMan|
2013-02-14, 13:33:44
nVidia hat sich auf die Gesamtsicht der 28nm Produktion mit GK104, so wie er gelauncht wurde halt echt einen Bärendienst geleistet. Der Sprung(Perspektive) für den Refresh ist nicht sonderlich groß, man lässt GK110 nicht so viel Luft, wie man es gerne hätte, da über GK110 nur schwerlich nochmals ein Refresh kommen kann bis zu 20nm. Man hat sich halt am Anfang in eine sehr gute Position gebracht, die aber beim Refresh eher ungünstiger werden wird. (Meine Einschätzung)
Wie man mit der kleineren GPU, die auch noch schneller war als die erste Tahiti-Version in einer schlechten Ausgangspostion sein soll, versteht man wohl nur mit seiner eigenen Logik. Noch dazu wenn man einen Marktanteil von ~60% damit erreicht :rolleyes:
Zwischen 300mm² und 500-550mm² ist ja wohl jede Menge Platz für einen GKxx4. Falls dieser wirklich zu nah an GK110 heranrücken sollte dann umso besser, da ja viel billiger zu produzieren. Wobei ich nicht glaube dass es so eng wird, da einfach die Speicherbandbreite fehlt. Ist aber auch nicht das Problem, dann optimiert man eben in Richtung Stromverbrauch und Produktionskosten.
Skysnake
2013-02-14, 13:56:42
Du hast schon alles gelesen oder?
nVidia darf GK110 keine Konkurrenz mit dem kleinen Chip machen, ansonsten kannste GK110 gleich komplett streichen.
DAS limitiert. Genau wie bei AMD eben Tahiti Pitcairn limitiert, bzw der Nachfolger. Man will die Chips immer in beiden Märkten absetzen.
Damit limitiert der GPGPU Chip aber den reinen Gamerchip.
Klar, GK104 auf 500mm² aufgebohrt, wäre göttlich für Gamer, genau wie Pitcairn auf 500mm² aufgebohrt. Das wird aber nicht kommen. Ansonsten würde keiner mehr die Chips mit Auslegung auf GPGPU kaufen...
Und bei nVidia bedeutet das, das man mit GK110 limitiert ist. Bei AMD hat man noch völlig freie Hand (die Entwicklung ist natürlich schon durch, aber wir wissen eben NOCH nicht, wie die Designentscheidung ausgefallen ist)
Da ist von doppeltem Frontend ohne mehr Einheiten, bis hin zu mehr Einheiten/1:2 DP:SP/usw alles drin.
Man wird halt schauen müssen, was AMD genau gemacht hat. Interessant wäre auf jeden Fall 1,5 facher Pitcairn und dazu ein Tahiti mit 1:2 SP:DP und eventuell noch ein paar mehr CUs, aber eben das Frontend 1:1 so lassen wie aktuell. Wobei das schon eine sehr starke GPGPU Fokusierung wäre.
Aktuell kann man das aber 0 abschätzen, was man da machen wird. Seid GK110 raus ist, ist halt auch schon wieder verdammt viel Zeit vergangen. In nem 3/4 Jahr lässt sich einiges noch anpassen... Wenn man bei AMD sogar wirklich erst in Q4 etwas neues Bringt, könnte man sogar wirklich ein ziemlich genau angepasstes Konkurrenzprodukt bringen.
nVidia hat halt das 28nm Pulver schon verschossen. Mehr als GK110 wird in 28nm wohl nicht mehr gehen, es sei denn man bringt eine neue Architektur, wobei die dann am Besten gleich etwas wie eDRAM mitbringen sollte, damit man wirklich gute Leistungssteigerungen erwarten kann. Einfach größer geht ja nach GK110 nicht mehr.
mironicus
2013-02-14, 14:26:16
Ich bin gespannt wie sich die Titan in besonders hohen Auflösungen schlagen wird, die 6 GB sind da vorteilhaft.
derguru
2013-02-14, 14:27:40
kein schnitte aber gefühlt um längen besser.:biggrin:
robbitop
2013-02-14, 14:36:36
Naja ein paar % mehr als Titan gehen schon noch. 15 SMX statt 14 und etwas mehr Takt. Bei 1 GHz und 15 SMX hätte man ~20% Mehrleistung für einen Titanrefresh.
Ausgegangen von der jetzigen Grundleistung des Titans (wenn das was aktuell geschätzt wird, hinkommt) ist das schon wirklich gut. Da braucht NV sich in 28 nm keine Sorgen zu machen.
AMD geht sowieso nicht so nah an's Limit wie NV. Dort ist jetzt sparen angesagt.
Ich bin gespannt wie sich die Titan in besonders hohen Auflösungen schlagen wird, die 6 GB sind da vorteilhaft.
Es ist sehr schwierig, 3 GiB ohne kontruierte Einstellungen zum Platzen zu bringen.
MfG,
Raff
mironicus
2013-02-14, 14:42:04
Benchmarks in Ultra HD-Auflösung wären nett. :D
Bei so einer Kiste eher Pflicht. ;)
MfG,
Raff
|MatMan|
2013-02-14, 15:04:51
Du hast schon alles gelesen oder?
nVidia darf GK110 keine Konkurrenz mit dem kleinen Chip machen, ansonsten kannste GK110 gleich komplett streichen.
Ja ich hatte den Rest gelesen, hatte mich ja teilweise auch darauf bezogen. Anscheinend will nVidia GK110 gar nicht in den Desktop (Massen-) Markt drücken. Falls doch irgendwann, sollte, wie robbitop schon geschrieben hat, genug Grundleistung da sein, die man mit Salvage-Parts auch je nach Bedarf herunterbrechen kann. AMD müsste erstmal die vergleichbare Leistung liefern können - das würde ich als schlechtere Ausgangslage bezeichnen.
Wenn GKxx4 kein 384bit Interface bekommt, kann er gar nicht zu dicht zu GK110 aufschließen. Selbst wenn GKxx4 ein dickeres Interface bekommt, wird er sicher deutlich unter 400 mm² bleiben. Also wo soll das Problem sein?
Eine GPU, die zu schnell für ihr Designziel ist und (zu) teuer verkauft wird, konnte ich einfach nicht als Bärendienst sehen sorry :freak:
Tesseract
2013-02-14, 15:17:03
salvage parts kommen sicher irgendwann weil das keine frage ist ob man die haben will oder nicht - die fallen sowieso an und wenn man sie nicht verkauft muss man sie wegwerfen.
eventuell kommen die aber nur im OEM-markt.
M4xw0lf
2013-02-14, 15:20:53
Möglicherweise ist die Titan selbst ja nur ein GK110-salvage part ^^
Tesseract
2013-02-14, 15:24:38
unwahrscheinlich da titan ja im prinzip ein reiner prestige-release ist bei dem es nicht wirklich um umsatz geht. tendenziell sind die eher besser als die professionellen gegenstücke, siehe fermi.
M4xw0lf
2013-02-14, 15:27:23
Es gab ja jetzt schon vermehrt Leaks die von nur 14 aktiven SMX sprechen...
Tesseract
2013-02-14, 15:30:04
ausgeschlossen ist das natürlich nicht aber nvidia würde wohl eher gute chips als titan auflegen und falls es wirklich so viele salvage parts gibt die eher als "680-OEM" oder ähnliches unter der hand an die OEMs weitergeben.
|MatMan|
2013-02-14, 15:33:00
salvage parts kommen sicher irgendwann weil das keine frage ist ob man die haben will oder nicht - die fallen sowieso an und wenn man sie nicht verkauft muss man sie wegwerfen.
eventuell kommen die aber nur im OEM-markt.
Salvage-Parts verkauft man doch schon als Tesla ;D und später sicher auch wieder als Quadro. Vielleicht läd man ja auch, wie zu Fermi Zeiten, wieder die fast ganz kaputten Dies ab...
dildo4u
2013-02-14, 15:34:30
Ein voller Chip könnten Ende 2013 als Ersatz für eine 790 kommen.
Ailuros
2013-02-14, 16:42:26
Salvage-Parts verkauft man doch schon als Tesla ;D und später sicher auch wieder als Quadro. Vielleicht läd man ja auch, wie zu Fermi Zeiten, wieder die fast ganz kaputten Dies ab...
In Quadros kommt regelrecht der letzte Dreck von einem chip. GF100 ist zwar ein problematisches Beispiel, aber um den chip-Abfall dort loszuwerden gab es damals sogar 8 SM GF100 Quadros. GK110 ist nirgends in der Region, obwohl mich z.B. eine 12 SMX Quadro auch nicht wundern wuerde.
Naja ein paar % mehr als Titan gehen schon noch. 15 SMX statt 14 und etwas mehr Takt. Bei 1 GHz und 15 SMX hätte man ~20% Mehrleistung für einen Titanrefresh.
Ausgegangen von der jetzigen Grundleistung des Titans (wenn das was aktuell geschätzt wird, hinkommt) ist das schon wirklich gut. Da braucht NV sich in 28 nm keine Sorgen zu machen.
AMD geht sowieso nicht so nah an's Limit wie NV. Dort ist jetzt sparen angesagt.
Bei theoretisch vergleichbarem TDP nicht mehr als 15% insgesamt fuer einen refresh. NV hat auch keinen Zauberstab wenn es zum Stromvebrauch kommt.
Iruwen
2013-02-14, 16:49:32
Huang hat einen Zauberstab :naughty:
aufkrawall
2013-02-14, 16:50:10
Der ist doch nur aus Plasktik. :frown:
robbitop
2013-02-14, 16:53:43
Ich dachte aus Holz? :|
aufkrawall
2013-02-14, 16:56:21
Mea culpa...
Nicht voll aktiviert, omg? Wie Raff schon anmerkte, bin ich doch nicht bescheuert und hol mir das Ding mit der Unsicherheit, dass es Monate später auf einmal niemand mehr haben will.
Ailuros
2013-02-14, 17:00:56
Huang hat einen Zauberstab :naughty:
Sicher; vor Jahren hatte er eine alberne Tafel im Buero mit einer Liste fuer wie viele IHVs NVIDIA (und wohl auch er selber) ein "killing" schaffte. Falls er die Tafel noch haben sollte und es gibt noch Platz im unteren Rand kann er beruhigt "GPU Markt" hinzufuegen. :naughty: :naughty: :naughty:
BigKid
2013-02-14, 17:01:09
Mea culpa...
Nicht voll aktiviert, omg? Wie Raff schon anmerkte, bin ich doch nicht bescheuert und hol mir das Ding mit der Unsicherheit, dass es Monate später auf einmal niemand mehr haben will.
Öhmm... Sagmal kauft ihr wirklich solche Monster auf Werterhalt ?
Ist man da mit einer Geforce X60 oder Geforce X70 nicht besser beraten ?
Und den PreisBonus für die Performance-Krone gibts halt auch nur solange das Ding die Performance Krone hat... Ob die nun von ner GTX790 oder einer GeForce Thor vom Sockel geholt wird - ob das nun in 6 Monaten passiert oder in 10... Pff...
Ist doch wie beim Auto oder ? Einmal drinn gesessen 25% Wertverlust...
Ich versteh übrigens immer noch nicht wieso NV die voll funktionsfähigen Chips nicht als Teslas raushauen sollte, wenn man da viel mehr Kohle für bekommen kann...
Ist doch für NV cool wenn man nun das Prestige-Projekt Single-Chip-Krone mit salvage Parts holen kann... Reicht doch... Ist doch eh nur ein "Steckenpferd"...
Wirklich Druck hat NV doch gar nicht - GTX680 verkauft sich doch gut...
Knuddelbearli
2013-02-14, 17:02:37
Mea culpa...
Nicht voll aktiviert, omg? Wie Raff schon anmerkte, bin ich doch nicht bescheuert und hol mir das Ding mit der Unsicherheit, dass es Monate später auf einmal niemand mehr haben will.
für 400e kauf ich sie dir zu weihnachten ab ok? ^^
aufkrawall
2013-02-14, 17:23:02
Öhmm... Sagmal kauft ihr wirklich solche Monster auf Werterhalt ?
"So ein Monster" gabs jetzt längere Zeit nicht, zumindest nicht für den Preis.
Die 580 war ja recht wertbeständig.
Bei 1080p ohne Mods braucht man den ganzen VRAM eh nicht und Texturen lassen sich streamen (Crysis 2 mit Maldo läuft auf noch bei 4k mit 2GB).
Verkauf ich meine 670s halt erst in 6 Monaten oder später, was solls...
robbitop
2013-02-14, 17:29:14
Monster? Das ist im Gegensatz zur 680 seit Fermi mal wieder eine ganz normale High End Karte. Nur, dass sie diesmal vermutlich überteuert sein dürfte...
Ailuros
2013-02-14, 17:30:10
Die 580 war ja recht wertbeständig.
Verdammt wertbestaendig. Ich hab eine gebrauchte von einem Freund mit 2 Jahre uebriger Garantie fuer 300 Euro abgekauft.
aufkrawall
2013-02-14, 17:34:26
Monster? Das ist im Gegensatz zur 680 seit Fermi mal wieder eine ganz normale High End Karte. Nur, dass sie diesmal vermutlich überteuert sein dürfte...
So in etwa meinte ich das. :)
Verdammt wertbestaendig. Ich hab eine gebrauchte von einem Freund mit 2 Jahre uebriger Garantie fuer 300 Euro abgekauft.
War die da noch das Flaggschiff? Erscheint mir dann auch angemessen.
War ja ein jeder Hinsicht ne gute Karte. Hach ja, Thermi. Konnte man so schön ocen. :redface:
Ailuros
2013-02-14, 17:51:00
Thermi war auf GF100 gezielt als Witz.
aufkrawall
2013-02-14, 17:54:07
Im Vergleich mit GK104 oder undervoltetem Tahiti trifft das doch auch ohne Abstriche auf GF110 zu.
Skysnake
2013-02-14, 17:58:53
Ähm... NEIN
GF100 war schon eine Ausnahmeerscheinung! Vor allem auch weil die 5870 eben so effizient zu Werke gegangen ist!
GF110 kann man wahrlich nicht mehr als Thermi verschreien!
Ailuros
2013-02-14, 18:04:56
Im Vergleich mit GK104 oder undervoltetem Tahiti trifft das doch auch ohne Abstriche auf GF110 zu.
Eine neue Generation fuer beide IHVs ist besser als die vorige welch Wunder :rolleyes:
GF100 = 15SMs@700MHz = 250W TDP
GF110 = 16SMs@772MHz = 244W TDP
So und wenn wir schon so weit OT gehen muessen, erklaer mir nochmal genau wie der TDP auf Cayman aussah oder noch besser seine Leistung und ueberhaupt im Vergleich zu Cypress. Alles innerhalb der gleichen Generation.
BigKid
2013-02-14, 18:20:07
Monster? Das ist im Gegensatz zur 680 seit Fermi mal wieder eine ganz normale High End Karte. Nur, dass sie diesmal vermutlich überteuert sein dürfte...
Für mich ist alles >GTX X70 ein Preismonster bei erscheinen gewesen und vermutlich auch das wo man den größten Wertverlust eingefahren hat... Ohne jetzt auf Chipfläche oder Rechnleistung zu schauen...
Unter der Annahme, dass man innerhalb einer Generation nicht 2mal Aufrüstet... Meine GTX460 bin ich damals für 4 Euro mehr als ich neu gezahlt hatte bei eBay losgeworden als dann die GTX570 her kam... DAS ist Wertstabil...
Das sich beide Hersteller (AMD und NVIDIA) gerade darauf ausruhen, dass der Herstellungsprozess ja so schlecht/kompliziert ist und mal ordentlich abkassieren ist mir auch ein Dorn im Auge... Ein Ende nicht im Sicht...
Hat mal jemand überlget das Kartellamt einzuschalten ?
Bzw. was ist eigentlich aus der Klage von 2008 geworden ?
Rente
2013-02-14, 18:24:22
Du hast einen Dummen bei Ebay gefunden, das hat nichts mit Wertstabilität zu tun. Darüber hinaus sehe ich nicht so richtig wo der Wertverlust bei GTX670-690 höher als bei der Vorgängergeneration ist.
€: Kartellamt? Srsly?
BigKid
2013-02-14, 18:27:13
Du hast einen Dummen bei Ebay gefunden, das hat nichts mit Wertstabilität zu tun. Darüber hinaus sehe ich nicht so richtig wo der Wertverlust bei GTX670-690 höher als bei der Vorgängergeneration ist.
€: Kartellamt? Srsly?
Preisabsprache ? Siehe Klage von 2008... Finde nur grad nicht was daraus eigentlich geworden ist...
EDIT: Ahh.. Siehe da Strafe von 1,7 Mio $ ...
tomshardware.com ('http://www.tomshardware.com/de/Nvidia-Ati-Preisabsprache-Klage,news-241704.html')
aufkrawall
2013-02-14, 18:59:05
Eine neue Generation fuer beide IHVs ist besser als die vorige welch Wunder :rolleyes:
Geschenkt. ;)
So und wenn wir schon so weit OT gehen muessen, erklaer mir nochmal genau wie der TDP auf Cayman aussah oder noch besser seine Leistung und ueberhaupt im Vergleich zu Cypress. Alles innerhalb der gleichen Generation.
Cayman war aber schlechter bei Perf/W gegenüber seinem Vorgänger, GK110 voraussichtlich nicht.
Ailuros
2013-02-14, 21:06:28
Cayman war aber schlechter bei Perf/W gegenüber seinem Vorgänger, GK110 voraussichtlich nicht.
Cayman war auch schlechter mit perf/W gegenueber GF110, welche beide direkt gegenseitig konkurrierten. Was soll jetzt GK110 genau mit den beiden genau zu tun haben? Nicht in der gleichen Generation und auch nicht auf dem gleichen Herstellungsprozess.
Unter der Logik wird auch Kepler im Vergleich zu Maxwell ein quasi "Thermi" sein.
Botcruscher
2013-02-14, 21:18:22
Verbrauch und Preis sind doch nur die eine Seite. Ich wüste nicht mal auf welches Spiel ich mich mit der Karte freuen sollte. Crysis 3 womöglich und dann!? Neben ein paar exotischen AA-Modi ist der Bedarf einfach nicht da. Jede Generation wird irgendwie unbedeutender.
y33H@
2013-02-14, 21:28:48
Crysis 3 und Metro Last Light =)
dildo4u
2013-02-14, 21:33:37
Verbrauch und Preis sind doch nur die eine Seite. Ich wüste nicht mal auf welches Spiel ich mich mit der Karte freuen sollte. Crysis 3 womöglich und dann!? Neben ein paar exotischen AA-Modi ist der Bedarf einfach nicht da. Jede Generation wird irgendwie unbedeutender.
Star Wars 1313,Watchdogs.Das Problem ist das Vieles nicht gezeigt werden kann bis MS und Sony ihre neuen Konsolen zeigen.
Schaffe89
2013-02-14, 23:01:57
Cayman war aber schlechter bei Perf/W gegenüber seinem Vorgänger, GK110 voraussichtlich nicht.
Die HD 6950 war besser was Performance/Watt angeht.
Knacki99
2013-02-15, 08:03:53
Titan ist sicher die schnellste sgpu. Aber das p/l verhältnis in bezug auf den realen nutzen sehe ich nicht.
850+€ dafür das ich die 5h Kampagne von crysis3 @ ultra spielen kann? Zu 99% wird die leistung der karte nie gebraucht.
Sicher eine technische meisterleistung aber sonst?
boxleitnerb
2013-02-15, 08:13:59
Die HD 6950 war besser was Performance/Watt angeht.
Grad so, 5% vielleicht.
kunibätt
2013-02-15, 08:21:55
Ist primär eine Frage der Auflösung und (SGSS)AA-Settings.
Und ich spiele (was verdammt selten geworden ist) nichts Flimmriges am PC mehr - sonst könnte ich gleich bei der PS3 bleiben. Und auch die Karte wirst du problemlos in die Knie kriegen- da muss man keine Szenarien kreieren.
(del676)
2013-02-15, 08:26:49
Alles ueber 600€ Einfuehrungspreis ist pure Abzocke.
Damals gabs noch 90-130% mehr Speed pro Generation. Und da hat sich der Preis auch nicht verdoppelt.
kunibätt
2013-02-15, 08:59:29
Damals war der Desktopmarkt auch noch größer und die Fertigung leichter.
Wenn jemand nicht bereit ist den Preis dafür zu bezahlen, ist das seine individuelle Entscheidung.
desert
2013-02-15, 09:05:41
Titan ist sicher die schnellste sgpu. Aber das p/l verhältnis in bezug auf den realen nutzen sehe ich nicht.
850+€ dafür das ich die 5h Kampagne von crysis3 @ ultra spielen kann? Zu 99% wird die leistung der karte nie gebraucht.
Sicher eine technische meisterleistung aber sonst?
Mit SGSSAA, Texturmods etc. wird die Leistung immer gebraucht. Meine gtx670 reicht für viele Modi in 1920 x 1200 nicht aus, da fehlt noch wumms für flüssige 60 fps bei hohen AA-modi. Titan wird sie liefern :)
Spasstiger
2013-02-15, 09:12:51
Grad so, 5% vielleicht.
Die HD 6950 war mit am Besten aus der 40-nm-Generation, was Perf/Watt angeht.
P.S.: Warum kommt Titan wohl offenbar nicht im Vollausbau und mit GK104-artigen Taktraten? ;) Mit 15 SMX und 1058 MHz Boost-Takt wäre Titan wahrscheinlich weniger energieeffizient als die GTX 680.
Ailuros
2013-02-15, 09:19:39
Die HD 6950 war besser was Performance/Watt angeht.
Innerhalb der 40G desktop GPU Generation hatte Cayman generell nicht das bessere perf/W ratio, aber wir muessen wohl noch lange Bandbreite darueber verschwenden um AMD zu verteidigen oder?
Die HD 6950 war mit am Besten aus der 40-nm-Generation, was Perf/Watt angeht.
Ja natuerlich wenn man Frequenz fuer X chip reduziert sieht es natuerlich immer besser aus. Cayman war unveraendert fuer 32nm anfangs geplant.
P.S.: Warum kommt Titan wohl offenbar nicht im Vollausbau und mit GK104-artigen Taktraten? ;) Mit 15 SMX und 1058 MHz Boost-Takt wäre Titan wahrscheinlich weniger energieeffizient als die GTX 680.
Und einen salvage part von X chip mit dem Fall oben zu parallelisieren macht Sinn oder? Bei hoeherer Chip-komplexitaet ist es normal das niedrigere Frequenzen ankommen als mit einem 294mm2 die und der Stromverbrauch fuer den 15-en SMX wuerde sich nicht fundamental aendern.
robbitop
2013-02-15, 09:23:24
Damals war der Desktopmarkt auch noch größer und die Fertigung leichter.
Wenn jemand nicht bereit ist den Preis dafür zu bezahlen, ist das seine individuelle Entscheidung.
Ausreden. Bis GF1xx ging das noch. Und schlagartig ein Node weiter soll alles Faktor 1,5-2 teurer werden?
Ich nehme eher an, dass dieser Effekt schleichend kommt. NV sieht, dass AMD finanziell und Ressourcenmäßig am Limit ist und man nicht mehr so viel tun braucht. Man kann mit weniger Aufwand größere Gewinnspannen einfahren. Das sieht man auch an deren Quartalsergebnissen seit Kepler.
Das ist nunmal der Effekt, wenn es nicht mindestens 2 gleichstarke Spieler in einem Markt gibt. Der Markt kippt dann um - es gibt keinen harten Wettbewerb mehr und der Kunde darf mehr pro Leistung zahlen.
Hätte AMD jetzt auch eine 5xx sqmm Karte, würde Titan deutlich weniger kosten.
15 SMX + 1 GHz sind der Joker bzw. der Refresh. Das kann aber auch beim jetzigen Silizium noch thermische/Ausbeute Probleme geben.
M4xw0lf
2013-02-15, 09:27:53
Innerhalb der 40G desktop GPU Generation hatte Cayman generell nicht das bessere perf/W ratio, aber wir muessen wohl noch lange Bandbreite darueber verschwenden um AMD zu verteidigen oder?
Schlechter als GF110 war Cayman aber auch nicht.
AnarchX
2013-02-15, 09:28:44
http://www.extremetech.com/computing/123529-nvidia-deeply-unhappy-with-tsmc-claims-22nm-essentially-worthless
Laut diesen Diagrammen könnte wohl GK110 etwa 60% teurer sein als ein GF110.
Ein Preis jenseits von $649-699 für eine 6GiB Version ist in der Tat wohl reiner Gewinn (jenseits der üblichen Marge) für NV.
robbitop
2013-02-15, 09:36:23
Die Diagramme stammen von NV selbst und sind schon recht alt. Der Effekt ist sicherlich da - aber nicht so plötzlich und nicht so stark, wie geschätzt. Die letzten Quartale zeigen eindeutig, dass NV wirklich deutlich höhere Gewinnspannen einzieht.
Ailuros
2013-02-15, 09:48:01
Schlechter als GF110 war Cayman aber auch nicht.
Es war auch nicht besser wenn man alle Faktoren wirklich mitberechnet.
Die Diagramme stammen von NV selbst und sind schon recht alt. Der Effekt ist sicherlich da - aber nicht so plötzlich und nicht so stark, wie geschätzt. Die letzten Quartale zeigen eindeutig, dass NV wirklich deutlich höhere Gewinnspannen einzieht.
Das daemliche an finanziellen Resultaten ist eben dass Volumen-Anzahlen eine ganz andere Perspektive auf die Affaere werfen wuerde. Ich sagte gestern bei B3D dass desktop GPUs schneller stagnieren als dass Tegra zunimmt und ich bekam prompt die Quartalszahlen als Antwort, dass sie diese Behauptung nicht unterstuetzen wuerden. Da ich dagegen nach Volumen-Anzahlen fuer GPUs vs. Tegra anfragte muss ich wohl ziemlich lange auf die relevante Antwort warten.
fondness
2013-02-15, 11:34:47
Ausreden. Bis GF1xx ging das noch. Und schlagartig ein Node weiter soll alles Faktor 1,5-2 teurer werden?
Ich nehme eher an, dass dieser Effekt schleichend kommt. NV sieht, dass AMD finanziell und Ressourcenmäßig am Limit ist und man nicht mehr so viel tun braucht. Man kann mit weniger Aufwand größere Gewinnspannen einfahren. Das sieht man auch an deren Quartalsergebnissen seit Kepler.
Das ist nunmal der Effekt, wenn es nicht mindestens 2 gleichstarke Spieler in einem Markt gibt. Der Markt kippt dann um - es gibt keinen harten Wettbewerb mehr und der Kunde darf mehr pro Leistung zahlen.
Hätte AMD jetzt auch eine 5xx sqmm Karte, würde Titan deutlich weniger kosten.
15 SMX + 1 GHz sind der Joker bzw. der Refresh. Das kann aber auch beim jetzigen Silizium noch thermische/Ausbeute Probleme geben.
NV hat verhältnismäßig wenige Mitarbeiter/Ressourcen und will jetzt custom CPUs vom Tegra, über den Desktop bis zum Servermarkt entwickeln. Das ist ein ganz anderes Kaliber als GPUs wo man verhältnismäßig simple Einheiten entwickelt und diese x-fach dupliziert. Nicht umsonst hat Huang angekündigt massiv Mitarbeiter einzustellen. Die sind froh über jeden fähigen Ing. den sie vom GPU Team abziehen können und der wo anders mit arbeiten kann. Das NV eine solche Lage gerne annimmt und ebenfalls einen Gang zurück schaltet im GPU-Markt ist klar.
Im umgekehrten Fall wo man nicht selbst Ressourcenprobleme hätte, wäre jetzt die einmalige Gelegenheit aufs Gas zu drücken und endgültig ein quasi Monopol wie Intel aufzubauen. Doch sowohl AMD als auch NV haben gute Gründe einen Gang zurück zu schalten, deshalb würde es mich auch absolut nicht überraschen wenn es hier zu eines Absprache gekommen ist.
Sunrise
2013-02-15, 12:07:25
Alles ueber 600€ Einfuehrungspreis ist pure Abzocke.
Damals gabs noch 90-130% mehr Speed pro Generation. Und da hat sich der Preis auch nicht verdoppelt.
Kommt darauf an, was du mit "damals" genau meinst. Ja, meine Geforce256 DDR habe ich damals für 550 DM gekauft. Die Zeiten der Geforce 2 Ultra sollte man aber deshalb nicht vergessen. Wenn kaum/keine Konkurrenz da ist, kann man die Preise eben bestimmen wie man lustig ist.
Der Preis ist natürlich trotzdem ein schlechter Witz. Der ergibt sich aber auch dadurch, weil GK110 wohl sehr nahe an die GTX690 angrenzt und NV diese eben bereits so teuer gemacht hat. Klar, dual vs. single ist nicht das beste Beispiel in diesem Fall.
Aber auch hier wird es Käufer geben. Das Hobby PC war schon immer teuer, wenn man es in die Extreme getrieben hat. 3000 DM für einen PC mit Pentium 200 MMX mit 8GB EDO-RAM waren doch was feines, den würde ich immer wieder kaufen. Und erst mein Pentium 3 (Coppermine) mit 650MHz default der mich 1100 DM gekostet hat, obwohl es die Celerons gab.
Alles eine Frage, wie sehr ich etwas will und ob ich bereit bin, dafür zu zahlen. Es zwingt uns ja keiner. ;)
Wenn der echt 8 GB EDO-RAM hatte. war das ein krass futuristisches Schnäppchen. :biggrin:
MfG,
Raff
Lowkey
2013-02-15, 12:10:56
Ich habe noch ein paar 200er MMX im Schrank - relativ unbenutzt. Wieviel DM zahlst du? :D
boxleitnerb
2013-02-15, 12:11:16
Die 690 ist aber an der Leistung absolut angemessen bepreist. Wo gibt es das sonst, dass du ein fast lineares Verhältnis zwischen Preis und Leistung hast im Ultrahighend? Ja Leistung != fps bei AFR, aber ihr wisst, was ich meine.
fondness
2013-02-15, 12:15:13
Die 690 ist aber an der Leistung absolut angemessen bepreist. Wo gibt es das sonst, dass du ein fast lineares Verhältnis zwischen Preis und Leistung hast im Ultrahighend? Ja Leistung != fps bei AFR, aber ihr wisst, was ich meine.
Naja das hast du mit jedem Multi-GPU-System, aber eben nur theoretisch. ;)
Sunrise
2013-02-15, 12:17:39
Wenn der echt 8 GB EDO-RAM hatte. war das ein krass futuristisches Schnäppchen. :biggrin:
MfG,
Raff
Zefix, es war natürlich SDRAM (12ns), wie komme ich bitte auf EDO. Waren dafür sogar insgesamt 32MB, nochmal in meine Rechnungen geschaut.
aufkrawall
2013-02-15, 12:18:04
Naja das hast du mit jedem Multi-GPU-System, aber eben nur theoretisch. ;)
Weiß ja nicht, was in verdoppelten min-fps theoretisch sein soll.
Gefühlt ist's nicht verdoppelt. Punkt. Nur annähernd. Punkt zwei. ;)
MfG,
Raff
fondness
2013-02-15, 12:20:07
Weiß ja nicht, was in verdoppelten min-fps theoretisch sein soll.
Nein, ich werde hier keine AFR-Diskussion führen, aber die Probleme sind bekannt. Ich verstehe nicht wie man das immer wieder klein reden kann.
derguru
2013-02-15, 12:21:47
gerade die min. fps verdoppelt sich öfter mal nicht.;)
aufkrawall
2013-02-15, 12:22:47
gerade die min. fps verdoppelt sich öfter mal nicht.;)
Pöses CPU-Limit, oder was zum Bleistift?
derguru
2013-02-15, 12:32:46
es gibt immer bereiche in spielen wo die cpu mit einfließt,selbst bei titeln die augenscheinlich nur im gpulimit sein sollten wie z.b. metro und dann hat man meist sogar weniger min.fps als bei einer singlegpu.
aufkrawall
2013-02-15, 12:37:54
es gibt immer bereiche in spielen wo die cpu mit einfließt,selbst bei titeln die augenscheinlich nur im gpulimit sein sollten wie z.b. metro und dann hat man meist sogar weniger min.fps als bei einer singlegpu.
Konkretes Beispiel?
Beim Hitman-Bench im CPU-Limit hab ich mit und ohne SLI nicht mal ein fps Unterschied.
Im GPU-Limit verdoppeln sich mit SLI normalerweise ganz klar die min-fps:
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Beta-Test-Erste-Benchmarks-1046328/
Und das mit einem pösen Deferred Renderer. ;)
boxleitnerb
2013-02-15, 12:39:03
AFR kostet etwas CPU-Leistung. Kann im CPU-Limit schon vorkommen, dass die fps bis zu 10% niedriger sind. Lässt sich z.B. mit dem Shogun 2 CPU-Benchmark prima feststellen.
robbitop
2013-02-15, 12:46:13
NV hat verhältnismäßig wenige Mitarbeiter/Ressourcen und will jetzt custom CPUs vom Tegra, über den Desktop bis zum Servermarkt entwickeln. Das ist ein ganz anderes Kaliber als GPUs wo man verhältnismäßig simple Einheiten entwickelt und diese x-fach dupliziert. Nicht umsonst hat Huang angekündigt massiv Mitarbeiter einzustellen. Die sind froh über jeden fähigen Ing. den sie vom GPU Team abziehen können und der wo anders mit arbeiten kann. Das NV eine solche Lage gerne annimmt und ebenfalls einen Gang zurück schaltet im GPU-Markt ist klar.
Im umgekehrten Fall wo man nicht selbst Ressourcenprobleme hätte, wäre jetzt die einmalige Gelegenheit aufs Gas zu drücken und endgültig ein quasi Monopol wie Intel aufzubauen. Doch sowohl AMD als auch NV haben gute Gründe einen Gang zurück zu schalten, deshalb würde es mich auch absolut nicht überraschen wenn es hier zu eines Absprache gekommen ist.
So oder so leidet der Endkunde. Insofern kann ich Titan und GK104 für ihren jeweiligen Preis nicht gutheißen. Ich würde von der Presse allgemein mehr Skepsis erwarten und diese Situation auch deutlich anzusprechen und ggf. anzuprangern.
aufkrawall
2013-02-15, 12:57:39
AFR kostet etwas CPU-Leistung. Kann im CPU-Limit schon vorkommen, dass die fps bis zu 10% niedriger sind. Lässt sich z.B. mit dem Shogun 2 CPU-Benchmark prima feststellen.
Habs auch noch mal kurz mit BF3 64 Spieler Gulf of Oman angetestet:
Sowohl mit als auch ohne AFR kackten die fps im CPU-Limit gerne mal auf ca. 65 ein.
Sehe da bei 2-Way echt kein Handicap.
boxleitnerb
2013-02-15, 13:01:12
Habs auch noch mal kurz mit BF3 64 Spieler Gulf of Oman angetestet:
Sowohl mit als auch ohne AFR kackten die fps im CPU-Limit gerne mal auf ca. 65 ein.
Sehe da bei 2-Way echt kein Handicap.
Du kannst nicht verallgemeinern. In Spiel A ist es so, in Spiel B halt nicht. Vielleicht mackt Kepler auch was anders als Fermi.
aufkrawall
2013-02-15, 13:06:26
Du kannst nicht verallgemeinern. In Spiel A ist es so, in Spiel B halt nicht. Vielleicht mackt Kepler auch was anders als Fermi.
Deswegen wären aussagekräftige Benchmarks ja auch gut.
3DMark und Catzilla nerven mit Restriktionen, hm...
boxleitnerb
2013-02-15, 13:07:39
Naja ist eh OT hier. Kannst ja einen neuen Thread dafür aufmachen :)
BigKid
2013-02-15, 14:03:25
Die 690 ist aber an der Leistung absolut angemessen bepreist. Wo gibt es das sonst, dass du ein fast lineares Verhältnis zwischen Preis und Leistung hast im Ultrahighend? Ja Leistung != fps bei AFR, aber ihr wisst, was ich meine.
Öhm... Nein... Das Ding kostet genau soviel wie NV glaubt, dass der Markt her gibt. Da kannst du dich auch hinstellen und sagen ein 20.000 Euro designer Handy (Nokia Stangenware von Vorletzem Jahr aber mit Strass Steinchen von Hugo Boss persönlich beklebt) sei angemessen bepreist - (an)gemessen an was ?!? Am Geldbeutel der Zielgruppe...
Die Preise für die aktuelle Grafikkarten Genearation (hüben wie drüben) hat IMHO abgehoben... Aber solange es noch genug Leute bezahlen können verkauft es sich...
Kapitalismus eben... Gewinnmaximierung über alles...
boxleitnerb
2013-02-15, 14:06:49
Ausgehend von der 680 natürlich, also relativ gesehen. Nicht absolut. Hab ja extra "lineares Verhältnis" (zwischen 680 und 690) dazugesagt ;)
Ailuros
2013-02-15, 15:12:59
Öhm... Nein... Das Ding kostet genau soviel wie NV glaubt, dass der Markt her gibt. Da kannst du dich auch hinstellen und sagen ein 20.000 Euro designer Handy (Nokia Stangenware von Vorletzem Jahr aber mit Strass Steinchen von Hugo Boss persönlich beklebt) sei angemessen bepreist - (an)gemessen an was ?!? Am Geldbeutel der Zielgruppe...
Die Preise für die aktuelle Grafikkarten Genearation (hüben wie drüben) hat IMHO abgehoben... Aber solange es noch genug Leute bezahlen können verkauft es sich...
Kapitalismus eben... Gewinnmaximierung über alles...
Es wird den IHVs wohl nicht entgangen sein dass GPUs zwar mit hoeheren Preisen nach wie vor verkauft werden, aber eben nicht in gleichen Volumen wie in der Vergangenheit. Weder CPUs noch SoCs sind in der Zwischenzeit teurer geworden, welches mir persoenlich nur sagt dass sowohl AMD als auch NVIDIA wissen dass sich standalone GPUs Schritt fuer Schritt in Boutique-Produkte entwickeln werden. Es faengt halt langsam oben beim high end an, aber in dem Fall ist es natuerlich logischer bei fetteren Preisen zu verkaufen damit sich am Umsatz vorruebergehend nichts schlagartiges aendert. Bei NVIDIA ist es natuerlich ein Stueck radikaler da erstens ihr Umsatz im letzten Jahr gestiegen ist und zweitens Tegra eben immer noch nicht so viel Volumen liefern kann wie AMD APUs.
Die Unterschiede beim letzten werden sich dann irgendwann vielleicht schon ausbalancieren wenn NV mit auch ihre eigenen desktop/notebook SoCs vorstellt und AMD vielleicht irgendwann doch in den SFF mobile Markt aggressiver einsteigt.
Thunder99
2013-02-15, 18:03:01
Auf der Startseite hat ja Leo die News von letztem mal ein wenig korrigiert.
Dabei ist mir aufgefallen das es ja schon möglich sein kann, das Titan mit einer Effizienz mind. wie GF110 daherkommen kann und daher prozentual stärker zulegt als der HW Vergleich her macht. Kepler 1 war ja in der Disziplin schlechter was den Output von der Rohleistung her angeblangt
Gipsel
2013-02-15, 18:50:30
Dabei ist mir aufgefallen das es ja schon möglich sein kann, das Titan mit einer Effizienz mind. wie GF110 daherkommen kann und daher prozentual stärker zulegt als der HW Vergleich her macht. Kepler 1 war ja in der Disziplin schlechter was den Output von der Rohleistung her angeblangtUnd wieso sollte das so sein? Das bißchen mehr L2 wird von dem beinahe gar nicht aufgebohrtem Frontend (wenn wir mal von 5 Setup-/Rasterpipelines bei niedrigerem Takt ausgehen, auch wenn das eher selten limitieren sollte) und der eher weniger als die Rechenleistung steigenden Speicherbandbreite und ROP-Leistung wohl wieder zunichte gemacht.
Schaffe89
2013-02-15, 20:04:01
Warum sollte bitte überhaupt bei gesteigerten Einheiten irgendetwas überproportional skalieren?
Wann gab es so etwas innerhalb der gleichen Architektur?
Ailuros
2013-02-15, 20:14:18
Warum sollte bitte überhaupt bei gesteigerten Einheiten irgendetwas überproportional skalieren?
Wann gab es so etwas innerhalb der gleichen Architektur?
Ich wuerde lieber selber gerne wissen wieso erstmal GK104 als "Kepler1" bezeichnet wird und wieso manche die alberne Angewohnheit nicht loswerden einen heutigen performance chip mit einem high end chip von gestern zu vergleichen. Eine GTX680 ist heutzutage nach etwas Treiberfummelei in der Zwischenzeit etwas weniger als 2x Mal so schnell als eine GTX560Ti. Mehr kann man einfach nicht erwarten von einer neuen Generation heutzutage.
GF110 ist um =/>40% schneller als GF114 und GK110 soll nach allen Indizien um ca. 40-50% schneller sein als GK104. Haette NV natuerlich nicht auf den Takthebel gedrueckt um auf Tahiti Nivaeu zu kommen, waere der Unterschied zwischen performance und high end Kepler schon um ein gutes Stueck groesser gewesen.
Thunder99
2013-02-16, 01:09:55
Kann man ja mal bezeichnen als Kepler "1" wenn es die 1.Generation der Architektur ist :D . Habs mal frei erfunden, daher auch nicht weiter beachtenswert. Habt scho Recht die Dinge beim richtigen Namen zu nenen :redface:
Warum was überproportional besser skalieren soll kam mir nur in den Sinn, da es 1x Wunschdenken ist :D und 2. ja mehr drin steckt im GK110 als im GK104. Ob sich das positiv auswirkt wird sich zeigen müssen.
Und das man GF und GK nicht direkt vergleichen kann ist mir bewusst, aber irgendein Anhaltspunkt braucht man ja.
john carmack
2013-02-16, 08:33:00
wisst ihr vielleicht ob auch eine 770 und 760 geplant ist?
Konami
2013-02-16, 08:47:37
wisst ihr vielleicht ob auch eine 770 und 760 geplant ist?
Würde ich stark davon ausgehen – aber erst, wenn die 780 kommt, also evtl. Q4 2013. ;)
Titan heißt einfach nur Titan.
=Floi=
2013-02-16, 09:00:22
was limitiert denn die 680er bei physx? die 580er hat halb so viel rechenleistung und ist aber nur ~30% langsamer. das müsste viel klarer für die 680er ausgehen.
boxleitnerb
2013-02-16, 15:39:43
Btw:
http://www.abload.de/thumb/titan47po9.jpg (http://www.abload.de/image.php?img=titan47po9.jpg)
Könnte ein Fehler sein, aber die 100% könnten auch Titan sein, wenn Computerbase Titan schon mitgebencht hat. Würde Sinn machen, alles in einem Rutsch zu erledigen, speziell weil es ein neuer Parcour ist. Würde auch in etwa zu den von OBR geleakten 3DMark-Werten passen.
4Fighting
2013-02-16, 15:44:09
Btw:
Könnte ein Fehler sein, aber die 100% könnten auch Titan sein, wenn Computerbase Titan schon mitgebencht hat. Würde Sinn machen, alles in einem Rutsch zu erledigen, speziell weil es ein neuer Parcour ist.
Wenn dem so wäre, wäre ja Titan 10% schneller als die 690 oder hab ich da einen Denkfehler ?!
AnarchX
2013-02-16, 15:45:25
75% schneller als eine GTX 680 in 2560x1600 4xSSAA/16xAF. Aber vielleicht auch GTX 680 SLI Werte?
Spasstiger
2013-02-16, 15:45:47
100% sind da wohl eher zwei HD 7970 im Crossfire, vielleicht die Ares II.
dildo4u
2013-02-16, 15:45:48
Könnte passen vorallem da sie mit mehr V-Ram in 2560*1600 besser liegt als unter 1080p.
y33H@
2013-02-16, 15:47:34
Titan in 1080p mit SSAA +70 % auf eine HD 7970m GHz Edition? Das halte ich bei den gemunkelten Specs für völlig unrealistisch.
boxleitnerb
2013-02-16, 15:48:20
100% sind da wohl eher zwei HD 7970 im Crossfire, vielleicht die Ares II.
Computerbase testet nur Referenzdesigns, deshalb ist laut Volker die 7990 auch nicht mit dabei. Wäre es 7970 CF, wäre auch 680 SLI mit dabei mMn.
Titan in 1080p mit SSAA +70 % auf eine HD 7970m GHz Edition? Das halte ich bei den gemunkelten Specs für völlig unrealistisch.
GCN bricht mit SGSSAA in den meisten Titeln recht stark ein im Vergleich zu GK104. GK110 könnte da noch deutlich was drauflegen.
75% schneller als eine GTX 680 in 2560x1600 4xSSAA/16xAF. Aber vielleicht auch GTX 680 SLI Werte?
SLI skaliert besser als 75% bei SSAA im Schnitt. Gut, der Parcours wurde geändert, aber das sollte den Schnitt nicht gleich um 10% verschieben:
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/5/
Zu den gemunkelten Specs:
Laut phk gabs neue Treiber, weshalb man nochmal neu testen und Überstunden schieben musste. Erinnert ihr euch an die frühen Infos, die Kepler nur Taktraten um die 7xx MHz zuwiesen? Vielleicht wieder sowas.
Lowkey
2013-02-16, 15:56:25
Computerbase testet nur Referenzdesigns, deshalb ist laut Volker die 7990 auch nicht mit dabei. Wäre es 7970 CF, wäre auch 680 SLI mit dabei mMn.
Die 660 und 660ti sind wohl custom: "*Simuliert durch Heruntertakten der Asus GeForce GTX 660 (Ti)"
Und die Asus ist eine laaaaange Karte, also meilenweit von einer Referenzkarte entfernt.
boxleitnerb
2013-02-16, 16:02:08
Stimmt schon, allerdings gibt es die Karten im Referenzdesign. Man hatte wohl einfach keine zur Hand. Die 7990 hatte man sicher wieder zurückgeben müssen, die waren ja recht selten.
Popopinsel
2013-02-16, 16:02:14
Btw:
http://www.abload.de/thumb/titan47po9.jpg (http://www.abload.de/image.php?img=titan47po9.jpg)
Könnte ein Fehler sein, aber die 100% könnten auch Titan sein, wenn Computerbase Titan schon mitgebencht hat. Würde Sinn machen, alles in einem Rutsch zu erledigen, speziell weil es ein neuer Parcour ist. Würde auch in etwa zu den von OBR geleakten 3DMark-Werten passen.
Das sind keine Prozent-Angaben, das sind die Durchschnitts-FPS des Testparcours. Die Prozentangaben werden erst beim Mouse-Over angezeigt. ;)
AnarchX
2013-02-16, 16:05:11
Das sind keine Prozent-Angaben, das sind die Durchschnitts-FPS des Testparcours. Die Prozentangaben werden erst beim Mouse-Over angezeigt. ;)
Nein, die Diagramme sprechen eindeutig von Prozent.
Oder steigen die FPS der HD 7970 von 1.920 × 1.080 4xAA/16xAF auf 5.760 × 1.080 8xAA/16xAF an? ;)
Popopinsel
2013-02-16, 16:07:49
Nein, die Diagramme sprechen eindeutig von Prozent.
Oder steigen die FPS der HD 7970 von 1.920 × 1.080 4xAA/16xAF auf 5.760 × 1.080 8xAA/16xAF an? ;)
Oh, da hast Du natürlich recht! Aber Prozent kann es doch auch nicht sein, sonst macht der Mouse-Over keinen Sinn und und ohne Mouse-Over gibt es ja keine 100%-Referenz.
AnarchX
2013-02-16, 16:09:49
Deshalb auch die Spekulation, dass die unsichtbare Referenz mit 100% der Titan ist. Die Basis-Werte kommen ja aus einem Skript, die Mouse-Over-Funktion arbeitet auf den vorhandenen Werten.
Match-Maker
2013-02-16, 16:10:23
Also ich vermute auch, dass die GTX Titan nur ca. 50% schneller als die GTX 680 sein wird, einfach weil die Speicherbandbreite wahrscheinlich nur um 50% steigt und da ja die GTX 680 schon ziemlich bandbreitenlimitiert ist, würde die GTX Titan bei einer um mehr als 50% gesteigerten Rohleistung wahrscheinlich noch stärker bandbreitenlimitiert sein.
boxleitnerb
2013-02-16, 16:11:07
Das sind keine Prozent-Angaben, das sind die Durchschnitts-FPS des Testparcours. Die Prozentangaben werden erst beim Mouse-Over angezeigt. ;)
Nö, denn dann müssten die Werte mit fordernderen Settings kleiner werden. Mouseover verändert nur den Ausgangspunkt (100%). Standardmäßig liegt dieser bei der schnellsten Karte im Testfeld.
Mist, AnarchX war schneller.
AnarchX
2013-02-16, 16:13:36
Nö, denn dann müssten die Werte mit fordernderen Settings kleiner werden. Mouseover verändert nur den Ausgangspunkt (100%). Standardmäßig liegt dieser bei der schnellsten Karte im Testfeld.
Nicht unbedingt bei der schnellsten Karte: http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/4/
Aber die Vermutung liegt nah, dass man hier einfach einen Teil eines anderen Tests schon publiziert hat, der vielleicht nächste Woche kommt: GTX Titan oder HD 7990.
Popopinsel
2013-02-16, 16:15:15
Ein CB-Redakteur hat es in den Kommentaren zum Artikel erklärt:
Öhm... nur fürs Verständnis, aber müssten beim Leistungsindex die Werte für die GTX 690 nicht bei 100% anstatt bei 92 - 94% liegen?
Es gibt keine 100 Prozent Referenz, darum auch nicht zangsweise 100 Prozent in den DIagrammen. Diese können nur erreicht werden, wenn eine Karte immer (100 Prozent) vorne liegt.
Hat also nix mit Titan zu tun.
Edit: Quelle (http://www.computerbase.de/forum/showthread.php?t=1175550&page=3&p=13508653#post13508653)
boxleitnerb
2013-02-16, 16:16:42
Nicht unbedingt bei der schnellsten Karte: http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/4/
Aber die Vermutung liegt nah, dass man hier einfach einen Teil eines anderen Tests schon publiziert hat, der vielleicht nächste Woche kommt: GTX Titan oder HD 7990.
Ja, das machen die aber nur anders, wenn es um einzelne Karten geht, nicht um so eine Übersicht. Deshalb auch das andere Farbschema.
Für die 7990 wäre es zu schwach wie gesagt, da muss man sich nur die 7970 CF Ergebnisse vom letzten Test anschauen.
Edit:
Hm, schade :)
War in alten Tests auch so. Ich find die Indexerstellung dann aber unsinnig in dieser Form.
AnarchX
2013-02-16, 16:20:24
Hier hat man ähnliche Werte ohne Referenz: http://www.computerbase.de/artikel/grafikkarten/2012/test-grafikkarten-2012/4/
Also wohl doch nur ein seltsames Rating.
Knuddelbearli
2013-02-16, 16:24:07
Btw:
http://www.abload.de/thumb/titan47po9.jpg (http://www.abload.de/image.php?img=titan47po9.jpg)
Könnte ein Fehler sein, aber die 100% könnten auch Titan sein, wenn Computerbase Titan schon mitgebencht hat. Würde Sinn machen, alles in einem Rutsch zu erledigen, speziell weil es ein neuer Parcour ist. Würde auch in etwa zu den von OBR geleakten 3DMark-Werten passen.
das kommt daher das die 690 nicht immer am schnellsten ist
Popopinsel
2013-02-16, 16:24:55
Also wohl doch nur ein seltsames Rating.
Ziemlich, ich rall's noch immer nicht. Worauf beziehen sich die Prozentangaben bitte? :confused:
boxleitnerb
2013-02-16, 16:27:30
Kapier ich auch nicht.
Knuddelbearli
2013-02-16, 16:30:02
3 tests 690 vs 7970 rein theoretische werte:
690: 100% 100% 70%
7970: 85% 85% 100%
690 hat am ende dann 90% ebenso die 7970
boxleitnerb
2013-02-16, 16:32:42
Das macht Sinn. Thx.
Popopinsel
2013-02-16, 16:35:22
3 tests 690 vs 7970 rein theoretische werte:
690: 100% 100% 70%
7970: 85% 85% 100%
690 hat am ende dann 90% ebenso die 7970
Prozent worauf bezogen? Das sind keine Werte, sondern Prozentangaben!
M4xw0lf
2013-02-16, 16:38:11
Prozent worauf bezogen? Das sind keine Werte, sondern Prozentangaben!
Immer auf den maximalen Wert jedes Benchmarks bezogen.
Das macht Sinn. Thx.
Das finde ich wiederum nicht ^^ - Es wäre ja echt kein Aufwand das Gesatmergebnis nochmal zu normieren, damit da kein so verwirrendes, kontraintuitives Zeug rauskommt.
Knuddelbearli
2013-02-16, 16:40:34
M4xw0lf wozu dazu hast du ja das mausover und kannst selber den referenzwert bestimmen
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.