Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
15
16
VooDoo7mx
2012-12-17, 01:10:11
Je nachdem was AMD bringt könnte die GTX780 deutlich teurer als die bisherigen GTX680 sein. GTX280 ging auch mit $649 MSRP an den Start.
Sowas könnte auch hier auch passieren.
Ehrlich gesagt würde ich so einen Preis auch für gerechtfertigt halten wenn wirklich auch entsprechend Performance bei rum kommt. So um 50% von GTX 680 ausgehend.
Hübie
2012-12-17, 02:08:13
Ich gehe auch von 649$ aus ;) Braucht man ja nur mal eins und eins zusammen zählen...
Ailuros
2012-12-17, 07:54:17
Es ist nicht das erste mal das Nvidia mit ihren Riesenchips auf die Schnauze fällt. Und was lernen sie daraus? Wie man sieht nichts. Sie probieren es immer wieder. Und da kann TMSC genau was dafür? Und natürlich ist schön reden wenn man jetzt die aktuelle gegen die nächste GPU des anderen stellt. Sie sind hinterher und da gibt es nichts zu beschönigen.
Hinterher im Vergleich zu was genau? Tahiti hat als direkten Gegner GK104 und AMD hat nichtmal selber eine Tahiti mGPU diesmal aufgelegt um die enthusiast Sparte selber zu bedienen.
Mag sein dass es nicht in Deine Vorstellung passt dass GK110 mit absoluter Absicht nicht als erster entwickelt und veroeffentlicht wurde, aber komischerweise wurde mir dieser Plan schon lange vor diesem Jahr vermittelt.
TSMC kann gar nichts dafuer, denn Herstellungsprozesse werden zunehmend problematischer egal bei welcher foundry. In solchen Faellen sind ALLE IHVs dazu gezwungen sich Alternativen zu suchen um eine wirtschaftlichere Strategie zu finden bis sich jeglicher zukuenftige Prozess ausgebuegelt hat.
Wuerde es Dich ueberraschen wenn z.B. auch AMD ihre wahre naechste Generation die alle unter 20nm erwarten doch am Ende nur unter 28nm kommt? Mich persoenlich nicht. Im gegebenen Fall ist das letztere ein logische Design-Entscheidung anstatt ewig auf die Ausreifung eines jeglichen Prozesses zu warten.
Tatsache ist dass NV unter 28nm fuer jegliche AMD 28nm SKU einen direkten Gegner veroeffentlich hat; von dem Punkt und aufwaerts kann man sich vieles vorstellen oder glauben dass weil GK110 fehlt fuer desktop momentan es ein absoluter fail sein muss oder etwas an der chip-Entwicklung nicht stimmt so lange es existierende hw davon gibt.
Schoen reden ist die eine Perspektive; die andere eben es blindlings schwarz zu reden weil man N topic einfach zu emotionell behandelt ohne die eigentliche Entwicklung je ausfuehrlich verfolgt zu haben. Pick your poison.
Beim GF100 sind Sie auf die Schnauze gefallen, GF110 war dann TOP (bzw eher der Chip, den man sich von GF100 versprochen hatte) und GK110 ist eben noch immer nicht im Consumer-Bereich auf dem Markt und selbst im Profimarkt NUR! als maximal 14 SMX Version, und die auch nur im HPC markt, und da auch NUR wieder in einem kleinen Bereich. Die "große" Masse (:freak:hier von groß reden WTF) bekommt aber ne 13 SMX Version, welche nicht mal das volle Speicherinterface hat....
Das ist jetzt nichts, wo ich in Jubelstürme ausbreche. Wenn man kritisch ist, kann man das schon als "auf die Schnauze gefallen" bezeichnen. Man bekommt halt keine voll funktionsfähigen Chip auf den Markt. Nicht mal als total überteuertes Nieschenprodukt für Prestige-Projekte.
Da es mir irgendwie zu bunt wird die gleichen Punkte ewig zu wiederholen:
Die jeweiligen Verkaufszahlen bzw. Marktanteile beider Seiten zeigen sehr genau wer von den beiden genau "auf die Schnauze gefallen" ist. Bei 20% mehr Umsatz wuerde ich mich an Deiner Stelle erstmal fragen wie sie das Ganze herausgezaubert haben. Ich hab weder Interessen in NV noch schone ich sie wenn es zu Kritik in anderen Punkten kommt. Wenn aber eine insgesamte Strategie in allen bedienten Maerkten mehr Marktanteile und hoeheren Umsatz bzw. Gewinn bringt, ist es irgendwie uebertrieben darueber zu noergeln.
Black-Scorpion
2012-12-17, 11:04:10
Es geht nicht darum das sie den nicht als erstes veröffentlicht haben. Sondern darum das einige hier den GK110 als Gegner der neuen AMD Karten sehen und spekulieren wie gut er dagegen steht. Und genau hier hinkt er hinterher weil er gar nicht da stehen soll. Und das bei den bekannten auf einmal DX11.1 wieder keine Rolle spielt ist ja auch nichts neues. Wissen wir ja alle. Nur was die Grünen machen ist wichtig. Scheiß auf Standards und stellen wir eben zum zweiten mal eine DX11 GPU gegen die zweite DX11.1 Reihe des anderen. Das ist schön reden. Genauso das sie es nicht auf die Reihe bekommen endlich das Ding im Vollausbau zu veröffentlichen. Wann der nun gebracht werden sollte ist egal. Sie haben es noch nicht geschafft und fertig. Was Umsatz damit zu tun hat weißt du wohl selber nicht. Wenn ich abgespeckte GPUs Im OEM Segment mit horrenden Preisen Verkaufe sollte es wohl nicht überraschen. Ändert an den anderen Aussagen aber rein gar nichts.
dildo4u
2012-12-17, 11:18:09
Die Ressourcen werden halt in Zukunftsträchtige Produkte geleitet.Für Nvidia dürfte der Tegra 4 Start deutlich wichtiger sein,als einer Hand voll Kunden 600$ Karten zu verkaufen.AMD hat dort absolut nix und ist Jahre hinterher.
GK110 ist konkurrenzlos, Punkt. Es wäre böse falsch zu glauben, dass NV nur GK110 gegen Sea Island stellen will, denn das wollen sie nicht, zumindest nicht im Consumerbereich und in den anderen Bereichen muss man den Konkurrenzdruck durch AMD als lächerlich bezeichnen.
Die Ressourcen werden halt in Zukunftsträchtige Produkte geleitet.Für Nvidia dürfte der Tegra 4 Start deutlich wichtiger sein,als einer Hand voll Kunden 600$ Karten zu verkaufen.AMD hat dort absolut nix und ist Jahre hinterher.
GK110 ist groß, GK110 ist komplex und die Wafer sind immern och teuer. Es existiert überhaupt keine dringende Notwendigkeit GK110 in den Consumerbereich zu launchen.
Ailuros
2012-12-17, 11:52:33
Es geht nicht darum das sie den nicht als erstes veröffentlicht haben. Sondern darum das einige hier den GK110 als Gegner der neuen AMD Karten sehen und spekulieren wie gut er dagegen steht.
Was soll daran merkwuerdig sein? Merkwuerdig sind eher daemliche Fragen auf anderen Fora z.B. wo manche Fragen wie sich iPadX gegen N desktop GPU vergleicht.
Und genau hier hinkt er hinterher weil er gar nicht da stehen soll. Und das bei den bekannten auf einmal DX11.1 wieder keine Rolle spielt ist ja auch nichts neues. Wissen wir ja alle. Nur was die Grünen machen ist wichtig. Scheiß auf Standards und stellen wir eben zum zweiten mal eine DX11 GPU gegen die zweite DX11.1 Reihe des anderen. Das ist schön reden.
Es gibt keine Gerechtfertigung dass NV die paar fehlenden Einzelheiten fuer DX11.1 ueberflogen hat und ich hab in anderen threads meine eigene These dafuer aufgestellt welche aber auch nichts direkt mit desktop bzw. high end zu tun hat. Mir persoenlich ist momentan DX11.1 so wurscht wie es nur sein kann. Ich spar heute ueber 100 Euros wenn ich mir eine vanilla 7970 gegen eine 680 hole und es wuerde auch nichts daran aendern wenn nur die GTX680 DX11.1 waere.
Genauso das sie es nicht auf die Reihe bekommen endlich das Ding im Vollausbau zu veröffentlichen. Wann der nun gebracht werden sollte ist egal.
Um genau zu sein sie haben es fuer den Normalverbraucher ie fuer den desktop noch gar nicht veroeffentlicht.
Sie haben es noch nicht geschafft und fertig. Was Umsatz damit zu tun hat weißt du wohl selber nicht. Wenn ich abgespeckte GPUs Im OEM Segment mit horrenden Preisen Verkaufe sollte es wohl nicht überraschen.
Entweder ist Umsatz relevant oder nicht. Irgendwo muss Du selber entscheiden fuer welche Faelle bzw. Perspektive es nur relevant sein darf und warum. Nebenbei erzaehl welche direkt konkurrierende HPC Loesung genau nicht "abgespeckt" ist.
Ändert an den anderen Aussagen aber rein gar nichts.
An Deinen sicher nicht :P
Die Ressourcen werden halt in Zukunftsträchtige Produkte geleitet.Für Nvidia dürfte der Tegra 4 Start deutlich wichtiger sein,als einer Hand voll Kunden 600$ Karten zu verkaufen.AMD hat dort absolut nix und ist Jahre hinterher.
Dann schau mal in den Tegra thread rein wo es selbst aus NV's Resultaten deutlich zu sehen ist dass Tegra bis jetzt immer noch keinen Gewinn geliefert hat. Um fair zu sein ohne desktop wird nur mit Tesla/Quadros die GK110 Kosten auch nicht wieder reinholen und eben genau hier liegt das Oxymoron oben. Denk mal etwas schaerfer nach was NV pro high end GPU netto gewinnen koennte und wieviel von einem winzigem SoC der im Durchschnitt nicht mehr als $15 pro Stueck verkauft wird. AMD hat desktop/notebook SoCs im Gegensatz die NV noch nicht hat und hat alle 3 Konsolen-deals kassiert. Vom letzteren verdienen sie zwar keine Uebermengen aber nach einem Punkt sind die royalties davon reiner Gewinn. Im besten Fall schafft NV mit T4 doppelt so viel Volumen wie mit T3, wobei das statistische Prozentual wohl dann immer noch einstellig sein wird und noch ein gutes Stueck entfernt von dem ersten 10% Martanteil im SFF.
Ailuros
2012-12-18, 08:55:04
http://www.nvidia.com/docs/IO/122874/K20-and-K20X-application-performance-technical-brief.pdf
Ist das Ding neu oder hab ich es bis jetzt uebersehen? Typischer marketing-Firlefanz mit handausgesuchten best case scenarios und CPU Vergleichen; koennte aber fuer manche interessant sein.
Skysnake
2012-12-18, 10:15:53
Naja, Marketing blabla, das stimmt so. Zum Teil ist der Performancegewinn zu M2090 aber schon sehr klein.
Ailuros
2012-12-18, 11:03:10
Naja, Marketing blabla, das stimmt so. Zum Teil ist der Performancegewinn zu M2090 aber schon sehr klein.
Sicher Marketing-blah blah, aber DGEMM, SGEMM und die anderen 3 Vergleichsresultate mitberechnet komm ich auf eine durchschnittliche Zusatzleistung von 121% oder 2.21x.
Skysnake
2012-12-18, 11:37:55
Nur auf den Durchschnitt zu schauen ist aber nicht shr geschickt an dieser Stelle.
SGEMM sieht sehr gut aus, und auch DGEMM. Aber die Welt besteht nicht nur daraus. Klar, wer nen Problem hat, das hauptsächlich damit zu bewältigen ist, für den ist das richtig gut, aber das Bild muss halt differenzierter betrachtet werden, denn es gibt eben auch "243x128 Lattice Volume, BiCSTAB s olver", wo an nur ~23% schneller ist als mit M2090, oder "256x128 3D Spatial Discretization" wo es auch "nur" ~37% Mehrleistung sind. Beides mal mit 2 Karten. Bei nur einer Karte siehts etwas besser aus, aber halt auch weit von dem Weg, was man bei xGEMM erreicht.
Was ich persönlich viel viel spannender finde ist das Diagramm zu QuickSort. Das ist nämlich ziemlich representativ für rekursive Algorithmen, welche gar nicht soooo ungewöhnlich sind. Da ist die Leistungssteigerung schon dramatisch, vor allem halt auf der gleichen! Hardware, also wirklich nur durch "Dynamic Parallelism". Das wird wirklich viele freuen, und eröffnet auch ein komplett neues Einsatzgebiet für GPUs. Bis jetzt waren die nämlich dafür eher ungeeignet. Nen Faktor 3,5 in der Performance ist schon relevant.
Ailuros
2012-12-18, 11:46:33
Nur auf den Durchschnitt zu schauen ist aber nicht shr geschickt an dieser Stelle.
SGEMM sieht sehr gut aus, und auch DGEMM. Aber die Welt besteht nicht nur daraus. Klar, wer nen Problem hat, das hauptsächlich damit zu bewältigen ist, für den ist das richtig gut, aber das Bild muss halt differenzierter betrachtet werden, denn es gibt eben auch "243x128 Lattice Volume, BiCSTAB s olver", wo an nur ~23% schneller ist als mit M2090, oder "256x128 3D Spatial Discretization" wo es auch "nur" ~37% Mehrleistung sind. Beides mal mit 2 Karten. Bei nur einer Karte siehts etwas besser aus, aber halt auch weit von dem Weg, was man bei xGEMM erreicht.
Ich hab jeweils nur die single GPU configs verglichen. Es wird wohl einen Grund geben weil ich "vermute" dass IHVs irgendwann etwas in Richtung hw fuer anstaendigere Skalierung bei mGPUs anstellen werden.
Was ich persönlich viel viel spannender finde ist das Diagramm zu QuickSort. Das ist nämlich ziemlich representativ für rekursive Algorithmen, welche gar nicht soooo ungewöhnlich sind. Da ist die Leistungssteigerung schon dramatisch, vor allem halt auf der gleichen! Hardware, also wirklich nur durch "Dynamic Parallelism". Das wird wirklich viele freuen, und eröffnet auch ein komplett neues Einsatzgebiet für GPUs. Bis jetzt waren die nämlich dafür eher ungeeignet. Nen Faktor 3,5 in der Performance ist schon relevant.
Ist zwar alles schoen und gut aber mich interessiert als Otto-Normalvebraucher ob man von dynamic parallelism bzw. HyperQ auch etwas unter 3D gewinnt.
Skysnake
2012-12-18, 11:58:44
Kommt drauf an. Für dynamisch generierte Bäume, Sträucher und Felsbrocken/Splitter, sollte das durchaus was bringen. Meines Wissens nach werden solche Sachen nämlich im Allgemeinen eben durch rekursive Algorithmen gerne beschrieben. Man kann natürlich jede Endrekursion in eine iterative Form umschreiben, aber Rekursionen sind halt manchmal/oft einfach elegant. Also schnell hingeschrieben.
Bzgl der Skalierung mit 2 GPUs, ist es aber doch sehr verwunderlich! Daher habe ich das auch expliziet angeschaut. K20 hat PCI-E 3.0 M2090 nur 2.0 Da hat man also schon mal nen kleinen Performancegewinn, da man schneller die Daten transfertiert hat, wenn man die Latenz nicht ganz verstecken kann, oder eben gleich ganz ignoriert hat, was dann etwas unfair im Vergleich zu CPU ist...
K20 sollte auch Verbesserungen bzgl GPUDirect haben, also den Zugriff direkt auf den Speicher der anderen GPU.
Eventuell ist das Problem einfach zu klein für K20, aber so recht kann ich nicht daran glauben. Es ist eine Marketingfolie, da sucht man sich schon die süßesten Kirschen raus...
Ich befürchte, dass das schon eher auf ein generelles Problem hindeutet.
Ailuros
2012-12-18, 12:07:23
Interessant waeren vielleicht zum Vergleich Tesla K10 Messungen in den gleichen benchmarks im Notfall gegen eine GTX680 (und man rechnet halt den Taktunterschied aus).
boxleitnerb
2012-12-20, 20:36:01
Wann kann man denn endlich mit konkreteren Infos bzw. Gerüchten bzgl. der GTX780 rechnen, welcher Chip da auch immer drauf sein mag?
Man wusste im Januar ja z.B. schon den Launchpreis von GTX680 (auch wenn er falsch war :D), aber besser als nichts, weil ganz ausgedacht war das ja nicht, wurde halt geändert.
Exxtreme
2012-12-25, 16:36:31
Bahhh, GTX 680 kaufen oder auf den Nachfolger warten? Sowas hasse ich jedes Mal! Vor allem dann wenn der Nachfolger bald[TM] erscheinen könnte.
HarryHirsch
2012-12-25, 16:38:52
kaufen! günstiger werden die auch dann nicht.
Exxtreme
2012-12-25, 16:45:03
Ja, aber wenn der Nachfolger viel besser ist? ;)
Kauf dir jetzt eine GTX 670. Die tut im Geldbeutel nicht ganz so dolle weh und ist fast genauso schnell wie die 680.
MfG,
Raff
LSSJBroly
2012-12-25, 17:28:53
Kauf dir jetzt eine GTX 670. Die tut im Geldbeutel nicht ganz so dolle weh und ist fast genauso schnell wie die 680.
MfG,
Raff
Würde ich auch so machen, wenn ich nicht ne GTX 680 für 300€ bekommen hätte :D
HarryHirsch
2012-12-25, 17:32:54
jup, eine gebrauchte 670er für nen schmalen taler wäre wohl das richtige.
Godmode
2012-12-25, 17:33:50
Jetzt kaufen und wenn GK110 erscheint und nach mehr Leistung verlangt wird, nochmal kaufen und die alte Karte wieder weiterverkaufen.
Felixxz2
2012-12-25, 17:36:04
Oder ne 7950, die ist nochmal billiger und lässt sich sehr gut Ocen, IMO >680 Niveau.
HarryHirsch
2012-12-25, 17:37:34
nach alternativen (radeon) oder oc wurde ja nicht gefragt. ;)
Felixxz2
2012-12-25, 17:41:40
Ich weiß....billiger und schneller kommste trotzdem weg :P
Aber total OT, deswegen B2T
HarryHirsch
2012-12-25, 17:45:30
ich auch... gerade weil die kepler mit oc an der bandbreite verhungern.
eventuell verschiebt ein mod das ja. ;)
Godmode
2012-12-26, 21:45:13
Ich baue meinen GTX690 Bestand schön langsam ab, das Platz da ist für was neues. Lange dauerts ja nicht mehr, wenn man März als Release Termin nimmt. Ich bin aber optimistisch und sage die Karten kommen früher, da jetzt doch schon einiges an Zeit verstrichen ist, seit dem K20 Launch.
Exxtreme
2012-12-26, 21:57:39
Ich weiß....billiger und schneller kommste trotzdem weg :P
Aber total OT, deswegen B2T
Mein Problem mit den Radeons ist, man weiss nie wie lange es AMD noch gibt. Und ohne Treibersupport ist's dann echt blöd. Bei CPUs ist das mir egal und ich hole mir auch einen Vishera.
Thunder99
2012-12-26, 22:19:56
Die Grafiksparte wird weiterleben, auch aus Wettbewerbsgründen.
Skysnake
2012-12-26, 22:34:15
Ich baue meinen GTX690 Bestand schön langsam ab, das Platz da ist für was neues. Lange dauerts ja nicht mehr, wenn man März als Release Termin nimmt. Ich bin aber optimistisch und sage die Karten kommen früher, da jetzt doch schon einiges an Zeit verstrichen ist, seit dem K20 Launch.
Na dann viel Spaß beim warten.
In Q1 musst du nicht mit der GTX800er rechnen.
Hübie
2012-12-27, 01:41:37
Paperlaunch ftw :freak: ;D
Felixxz2
2012-12-27, 03:00:45
Mein Problem mit den Radeons ist, man weiss nie wie lange es AMD noch gibt. Und ohne Treibersupport ist's dann echt blöd. Bei CPUs ist das mir egal und ich hole mir auch einen Vishera.
Das glaubste doch selber nich. Als ob du dir jetzt ne AMD Karte kaufst, AMD in einem Jahr pleite geht, die Firma sofort verschwindet (und nicht gekauft wird), es keine neuen Treiber mehr gibt und du die Karte aber bitte noch 2 Jahre weiternutzen möchtest :freak:
OBrian
2012-12-27, 03:19:04
Die Frage ist doch immer, besteht Bedarf? Und zwar nicht für Euch Hardcore-Performance-Süchlinge ;) sondern für die jeweilige Firma. Nvidia dürfte aber vor dem Erscheinen der Radeon 8900 keinen Bedarf haben, irgendwas zu ändern, immerhin machen sie eine Affenkohle mit einem relativ günstigen Chip. Und die neuen Radeons soll ja auch erst im 2. Quartal kommen. Erst dann muß Nvidia den High-End-Chip, den sie für viele tausend Euro in Profikarten verscherbeln können, für ein paar hundert in Gamerkarten verbraten. Oder einen ganz neuen präsentieren.
Godmode
2012-12-27, 16:18:52
Na dann viel Spaß beim warten.
In Q1 musst du nicht mit der GTX800er rechnen.
Ich hab ja keinen Stress, eine 690 behalte ich ja noch. Warum denkt ihr das die Karten so spät erscheinen, gibts irgendwelche Indizien dafür?
aufkrawall
2012-12-27, 16:59:21
Mir wärs lieber, die kommen später, aber dafür voll aktiviert und mit 384 Bit.
Cubitus
2012-12-27, 18:52:22
Ich baue meinen GTX690 Bestand schön langsam ab, das Platz da ist für was neues. Lange dauerts ja nicht mehr, wenn man März als Release Termin nimmt. Ich bin aber optimistisch und sage die Karten kommen früher, da jetzt doch schon einiges an Zeit verstrichen ist, seit dem K20 Launch.
Also ich hoffe auch drauf! Neues Jahr neues Glück!
Leonidas
2012-12-27, 19:30:58
Ist doch eine gute Strategie: Dann wenn das Geschäft sowieso gut läuft - Q4+Q1 - nichts neues vorstellen und mit den Altteilen gut Kohle machen. Das neue dann im Q2 vorstellen, so daß das ansonsten schwache Q2+Q3 etwas belebt wird.
Godmode
2012-12-27, 19:32:44
Ist doch eine gute Strategie: Dann wenn das Geschäft sowieso gut läuft - Q4+Q1 - nichts neues vorstellen und mit den Altteilen gut Kohle machen. Das neue dann im Q2 vorstellen, so daß das ansonsten schwache Q2+Q3 etwas belebt wird.
Naja die GTX 680 gibts jetzt für unter 400 Euro, daher glaube ich das doch bald was neues kommt. Mit GK110 machen sie IMO eh nicht soviel Umsatz, außer sie stellen damit eine ganze Reihe an neuen Refreshchips vor.
Timbaloo
2012-12-27, 19:35:36
Die Frage ist auch wann NV gedenkt die Kepler refreshes zu releasen.
Hugo78
2012-12-27, 19:41:55
@Godmode
Mein Bauchgefühl geht von frühestens April aus.
Tegra 4 wird so einige 28nm Wafer belegen, allgemein hat NV auch keinen Druck, wenn man sich den stagnierenden Markt anschaut.
Und AMD soll ja auch nicht früher kommen.
Kleinere 700er werden sich sicher früher zeigen, aber GK110 basierte Geforces oder was auch immer Top Dog im Desktop wird, erst irgendwann ab Q2.
Mir wärs lieber, die kommen später, aber dafür voll aktiviert und mit 384 Bit.
Geht mir ebenfalls so.
Aktuell zock ich eh nur Planetside 2 und da langweilt sich meine GTX 670 zu Tode.
Godmode
2012-12-27, 21:03:54
Wenn es Jänner wäre, hätten wir wohl schon Bilder, da gebe ich euch recht. Naja bis März ist es ja auch nicht mehr so lange hin. Könnte mir vorstellen, das GK110 wieder was ist, was man längere Zeit im Rechner hat.
Ailuros
2012-12-28, 16:31:26
@Godmode
Mein Bauchgefühl geht von frühestens April aus.
Tegra 4 wird so einige 28nm Wafer belegen, allgemin hat NV auch keinen Druck, wenn man sich den stagnierenden Markt anschaut.
Und AMD soll ja auch nicht früher kommen.
Kleinere 700er werden sich sicher früher zeigen, aber GK110 basierte Geforces oder was auch immer Top Dog im Desktop wird, erst irgendwann ab Q2.
Wayne wird nicht unter 28HP hergestellt. NVIDIA oder jeglicher andere IHV waere schoen bloed wenn sie ALLE Wafer-Vorbestellungen in dem gleichen Topf haetten bzw. unter dem gleichen Vertrag.
Naja die GTX 680 gibts jetzt für unter 400 Euro, daher glaube ich das doch bald was neues kommt. Mit GK110 machen sie IMO eh nicht soviel Umsatz, außer sie stellen damit eine ganze Reihe an neuen Refreshchips vor.
Also in meiner Ecke hat sich leider preislich immer noch nichts geaendert, ist aber wohl nur die typische Schweinerei der retailer hier. Wohl ja zum zweiten Satz und ich wuerde tippen dass NV wohl sichert wann AMD Sea Islands ankuendigen wird und wenn alles nach Plan gelaufen ist sie kurz davor ankuendigen.
Hugo78
2012-12-28, 16:45:04
Wayne wird nicht unter 28HP hergestellt. NVIDIA oder jeglicher andere IHV waere schoen bloed wenn sie ALLE Wafer-Vorbestellungen in dem gleichen Topf haetten bzw. unter dem gleichen Vertrag.
28nm HP und 28nm HPL Kapazitäten, kauft man also definitiv in unterschiedlichen TSMC Fabs ein und nicht einfach "nur" eine Anzahl X von Waffern,
die man dann flexibel je nach Auftragslage, mit einem Prozess nach Wahl fahren kann?
john carmack
2012-12-28, 16:50:57
@Godmode
Mein Bauchgefühl geht von frühestens April aus.
Und AMD soll ja auch nicht früher kommen.
Tode.
wer sagt das?
meinst du die HD8000 für Desktop?
hab ich gar nicht mitbekommen...
Hugo78
2012-12-28, 16:58:44
wer sagt das?
meinst du die HD8000 für Desktop?
1. Gerüchteküche,
2. Genau,
Godmode
2013-01-02, 11:17:59
Die CES ist ja in ein paar Tagen, gibts da vielleicht Neuigkeiten bzgl. GK110 oder werden wir wieder nur den üblichem Mobilekram präsentiert bekommen?
Hübie
2013-01-02, 11:26:31
Am Rande wird man sicher den unwichtigen Desktopmarkt behandeln, aber es wird wohl genau wie letztes Jahr nicht viel bei rauskommen ;) Was soll man auch groß berichten??? Vielleicht gibt's ja doch einen GK112 und vielleicht gibt's auch XDR2 RAM. Wer weiß? ;D
boxleitnerb
2013-01-02, 16:57:50
Wird GK110 eigentlich die ROPs mit vollen 48 Pixeln pro Takt betreiben können oder erbt man das Problem mit der Teilauslastung von Fermi?
Zusatz:
Hat jemand zufällig die c't 02/2013? Dort wurden angeblich W9000, Xeon Phi 5110P und K20 gegeneinander getestet, S. 76-81.
Godmode
2013-01-03, 00:00:58
Am Rande wird man sicher den unwichtigen Desktopmarkt behandeln, aber es wird wohl genau wie letztes Jahr nicht viel bei rauskommen ;) Was soll man auch groß berichten??? Vielleicht gibt's ja doch einen GK112 und vielleicht gibt's auch XDR2 RAM. Wer weiß? ;D
Mal sehn, XDR2 ist ja wenigstens lustig. ;D
Was mich so wundert ist, dass es so extrem ruhig um GK110 geworden ist. Hab immer einen Google Alert drauf und in den letzten Wochen ist immer weniger reingekommen, also noch im Oktober oder November. Nvidia hat die seine Leaks anscheinend wirklich gut im Griff, weil wenn die Karten im März kommen, dann müssen die ja schon längst in Produktion sein, oder?
Timbaloo
2013-01-03, 00:15:55
Zusatz:
Hat jemand zufällig die c't 02/2013? Dort wurden angeblich W9000, Xeon Phi 5110P und K20 gegeneinander getestet, S. 76-81.
wir schauten uns die Features der Konkurrenten und ihre Leistung bei einem der wichtigsten Aspekte für das High-Performance Computing an: der Matrixmultiplikation
Wollte mir eigentlich mal wieder ein c't holen und schauen ob sie wieder was taugt, aber das hört sich schon etwas arg oberflächlich an, und das schon in der Kurzbeschreibung...
ich hab die c't 02/2013 :) aber steht nix besonderes drin
Ailuros
2013-01-03, 09:58:43
28nm HP und 28nm HPL Kapazitäten, kauft man also definitiv in unterschiedlichen TSMC Fabs ein und nicht einfach "nur" eine Anzahl X von Waffern,
die man dann flexibel je nach Auftragslage, mit einem Prozess nach Wahl fahren kann?
Ich lass mich gerne eines besseren belehren aber 28nm sind 28nm fabs. Meine Vorbehalte bzw. Zweifel liegen lediglich im Bereich dass es absurd waere hochkomplizierte GPU chips und relativ winzige SoCs unter einer einzigen Vereinbahrung bzw. Vertrag zu fahren.
Selbst intern bei NV muss das Ganze dementsprechend aufgeteilt sein, denn wenn man z.B. 10k wafer fuer 28HP fuer timeframe X gebucht hat muss man wohl auch fuer timeframe Y N wafer fuer 28HPL buchen.
Waere alles in einem Topf sozusagen waere es weder in NV's noch in TSMC's bester Interesse. Wie soll das ueberhaupt klappen? Hallo ich hab 10k 28HP wafer gebucht, ab morgen gehen 2k davon weg und ich will dafuer 2k 28HPL wafer?
Natürlich "bucht" man Kapazität pro Prozess. Jede andere Lösung wäre für beide Seiten unpraktikabel.
Spasstiger
2013-01-03, 11:14:13
Mal sehn, XDR2 ist ja wenigstens lustig. ;D
Was mich so wundert ist, dass es so extrem ruhig um GK110 geworden ist. Hab immer einen Google Alert drauf und in den letzten Wochen ist immer weniger reingekommen, also noch im Oktober oder November. Nvidia hat die seine Leaks anscheinend wirklich gut im Griff, weil wenn die Karten im März kommen, dann müssen die ja schon längst in Produktion sein, oder?
GK110 ist doch schon am Markt, kannst kaufen: http://geizhals.de/872319.
Die Spezifikationen von GK110 sind auch weitestgehend bekannt.
Nur die Spezifikationen der entsprechenden GeForces stehen noch aus.
Godmode
2013-01-03, 11:40:45
GK110 ist doch schon am Markt, kannst kaufen: http://geizhals.de/872319.
Die Spezifikationen von GK110 sind auch weitestgehend bekannt.
Nur die Spezifikationen der entsprechenden GeForces stehen noch aus.
Da ist leider kein Monitorausgang drauf und Treiber wirds wohl zum spielen auch keinen Geben. Außerdem kann ich um das Geld 6 Stück GTX 680 kaufen, was allerdings auch nicht viel Sinn macht. :wink:
Spasstiger
2013-01-03, 12:41:35
Die Tesla K20 für Gaming zu benutzen, scheint wohl echt ein größeres Problem zu sein.
Virtualisierung (z.B. VDI, RemoteFX) wird von der Tesla K20 wohl nicht unterstützt, dafür bietet Nvidia spezielle Karten an (diverse Quadros, die Tesla S2070Q sowie die VGX K1 und K2) (http://www.nvidia.de/object/vgx-vdi-graphics-cards-de.html).
Geht evtl. was mit Lucid Virtu?
Godmode
2013-01-03, 12:45:03
Die Tesla K20 für Gaming zu benutzen, scheint wohl echt ein größeres Problem zu sein.
Virtualisierung (z.B. VDI, RemoteFX) wird von der Tesla K20 wohl nicht unterstützt, dafür bietet Nvidia spezielle Karten an (diverse Quadros, die Tesla S2070Q sowie die VGX K1 und K2) (http://www.nvidia.de/object/vgx-vdi-graphics-cards-de.html).
Geht evtl. was mit Lucid Virtu?
Es gibt ja auch keinen Geforce Treiber dafür, also ist das ganze Unterfangen wohl ziemlich sinnlos. Ich denke nicht das in den aktuellen Treibern schon was drinnen ist, weil das hätte schon jemand entdeckt.
Ronny145
2013-01-03, 20:52:51
ich hab die c't 02/2013 :) aber steht nix besonderes drin
Das fand ich dann doch wieder typisch:
Und bei AMD ist - wie so oft - die Hardware zwar leistungsfähig, aber die Treiber und Bibliotheken können diese nicht wirklich ausreizen.
Die Messwerte waren spärlich. Im Luxmark sieht Nvidia keinen Stich, was an der stiefmütterlichen OpenCL Implementierung liegt, Xeon Phi fehlt dort gleich ganz. Bei der Matrixmultiplikation im Optimalbereich liegt K20 vorne, Xeon Phi 20-30% dahinter, W9000 abgeschlagen wegen der oben erwähnten Probleme. Beim Verbrauch in dem Bench sieht es so aus: Xeon Phi 200 Watt, K20 215 Watt, W9000 260 Watt. Die Rechenleistung ist stark schwankend je nach Matrixgröße. Bei ungünstigen Größen verliert verliert K20 einiges an Leistung. So ein Test muss viel umfangreicher ausfallen, um richtige Rückschlüsse draus ziehen zu können.
Gipsel
2013-01-04, 01:28:25
Das fand ich dann doch wieder typisch:
Die Messwerte waren spärlich. Im Luxmark sieht Nvidia keinen Stich, was an der stiefmütterlichen OpenCL Implementierung liegt, Xeon Phi fehlt dort gleich ganz. Bei der Matrixmultiplikation im Optimalbereich liegt K20 vorne, Xeon Phi 20-30% dahinter, W9000 abgeschlagen wegen der oben erwähnten Probleme. Beim Verbrauch in dem Bench sieht es so aus: Xeon Phi 200 Watt, K20 215 Watt, W9000 260 Watt. Die Rechenleistung ist stark schwankend je nach Matrixgröße. Bei ungünstigen Größen verliert verliert K20 einiges an Leistung. So ein Test muss viel umfangreicher ausfallen, um richtige Rückschlüsse draus ziehen zu können.
Was hat die ct denn da genau gemacht/gemessen? Die APPML von AMD ist sicher nicht ganz optimal (es gibt auch 30+% schnellere Codes), aber die liefert auf einer W9000 out of the Box über die Matrixgröße üblicherweise recht konstante ~640-650 GFlop/s bei DGEMM (ab so etwa 1500-2000er Matrixgröße). Wenn der Phi dort 20-30% hinter einem K20 liegt (ist ja noch nicht mal K20X), dann kann das gar nicht so weit abgeschlagen sein in der Disziplin.
Hübie
2013-01-04, 04:01:20
Auch wenn das jetzt etwas OT wird:
Ich habe in etlichen Gesprächen, Interviews, Magazinen und Foren eines herausgelesen/-gehört: Keiner legt Wert auf pure Performance. Was allen wichtig ist sind Perf/Watt und vor allem der Software-Support. Besonders Animations- oder Designstudios fühlen sich bei nVidia sehr gut aufgehoben. Auch wenn denen mal mehr Geld aus der Tasche gezogen wird. Viele der Unternehmen stehen in direktem Kontakt zu Entwicklern bei nVidia. Das kannst du nicht in einen Benchmark der c´t darstellen oder in eine Matrix reinquetschen.
AMD wird es nach wie vor schwer haben dort Fuß zu fassen wenn die nicht mal ihre Entwicklungsabteilung umkrempeln und den Vertrieb/das Marketing vorantreiben. So wie ich das mitbekommen habe sind die aber schon seit gut einem Jahr dabei neue Strukturen da reinzubringen. Leistungstechnisch ist die W9000 locker konkurrenzfähig aber Perf/W und vor allem beim Support haperts sicher noch. Da steht Intel sogar besser da. Nur ist dort wohl alles eher unpersönlich. Mir fällt auch gerade niemand ein der eine AMD-Karte in seiner Workstation verwendet.
AMD wird es zunehmend schwerer haben. Intel macht sich ganz gut in dem Bereich.
Skysnake
2013-01-04, 09:44:07
Auch wenn das jetzt etwas OT wird:
Ich habe in etlichen Gesprächen, Interviews, Magazinen und Foren eines herausgelesen/-gehört: Keiner legt Wert auf pure Performance. Was allen wichtig ist sind Perf/Watt und vor allem der Software-Support. Besonders Animations- oder Designstudios fühlen sich bei nVidia sehr gut aufgehoben. Auch wenn denen mal mehr Geld aus der Tasche gezogen wird. Viele der Unternehmen stehen in direktem Kontakt zu Entwicklern bei nVidia. Das kannst du nicht in einen Benchmark der c´t darstellen oder in eine Matrix reinquetschen.
AMD wird es nach wie vor schwer haben dort Fuß zu fassen wenn die nicht mal ihre Entwicklungsabteilung umkrempeln und den Vertrieb/das Marketing vorantreiben. So wie ich das mitbekommen habe sind die aber schon seit gut einem Jahr dabei neue Strukturen da reinzubringen. Leistungstechnisch ist die W9000 locker konkurrenzfähig aber Perf/W und vor allem beim Support haperts sicher noch. Da steht Intel sogar besser da. Nur ist dort wohl alles eher unpersönlich. Mir fällt auch gerade niemand ein der eine AMD-Karte in seiner Workstation verwendet.
Also wenn man auf die Green500 schaut, dann ist AMD und Intel effizienter als nVidia.
Den Leuten gehts auch so langsam bei nVidia aufn Sack, dass Sie eins versprechen und was anderes dann wirklich bringen...
AMD müsste nur mal ihren Softwaresupport auf die Reihe bekommen -.-
Die haben so was ähnliches wie DynamicParallelism in GNC drin, aber weder promoten Sie es, noch stellen Sie eine einfache Schnittstelle/Api für Entwickler bereit... DAS ist echt zum kotzen...
Und bzgl niemand. Ich kenn einige, die haben sich nen 6-8xHD7970 Numbercruncher hingestellt für die Arbeit/Forschung ;)
fondness
2013-01-04, 09:53:02
AMD wird es zunehmend schwerer haben. Intel macht sich ganz gut in dem Bereich.
Warum sollte es AMD schwerer haben? AMD hat nichts zu verlieren in dem Bereich, da sie praktisch nicht präsent sind. Wenn dann wird es NV schwerer haben, wenn sich Intel Marktanteile holt geht das zu 90% auf kosten von Nvidia. Umsonst kommt GK110 nicht deutlich zuerst im Tesla-Bereich, man will Intel natürlich nicht den Markt überlassen.
Hübie
2013-01-04, 09:55:33
Ich rede von Flugzeugentwicklung, Materialanalytik und Astronomie. Filmanimation und Geologie sind auch vertreten. Also vielleicht ist das eben vom Einsatzfeld abhängig. Das ist halt nicht mein Gebiet ;-) Du darfst nicht vergessen das die meisten Supercomputer immer noch ohne GPUs gelistet werden.
Warum sollte es AMD schwerer haben? AMD hat nichts zu verlieren in dem Bereich, da sie praktisch nicht präsent sind. Wenn dann wird es NV schwerer haben, wenn sich Intel Marktanteile holt geht das zu 90% auf kosten von Nvidia. Umsonst kommt GK110 nicht deutlich zuerst im Tesla-Bereich, man will Intel natürlich nicht den Markt überlassen.
Einfache Antwort: Support (in jeder Form)
NV sehr ordentlich
Intel es wird
AMD Chaos
Natürlich wird Intel hauptsächlich auf Kosten von NV gewinnen, weil NV heute dominant ist, aber AMD sehe ich in dem Markt als defakto tot an.
Skysnake
2013-01-04, 10:23:35
Das mit dem Chaos bei AMD stimmt ;D
Bzgl Intel Support kann ich nur sagen, das es ganz drauf ankommt, wer man ist. Intel bietet tendenziell genau so guten Support wie nVidia. Intel ist halt nur verdammt! groß, was dazu führt, das man selbst schnell verdammt unbedeutend wird... Die können sich halt auch nicht um jeden "Pups" kümmern, wobei deren Pupse wohl bei nvidia Orkane sind :ugly:
AMD als in dem Markt "tot" zu bezeichnen ist fahrlässig. Es gibt genug Leute, die AMD wirklich SEHR genau im Auge behalten, da die zugrundeliegende Hardware wirklich was kann. Der Softwaresupport ist halt nur nicht so gut wie bei nVidia mit CUDA. Mit der nächsten OpenCL Version soll sich da aber auch wieder einiges tun.
Betonug liegt aber auf SOLL! Wirklich glauben tu ich es erst, wenn ich es seh. Wenn Sie da aber wirklich mal auf die Tube drücken, dann ist das sehr positiv! Bei offenen Standards wie OpenCL dauert es halt immer etwas länger als wenn man seine eigene propritäre Suppe kocht. Der offene Standard ist aber dennoch eine GUTE! Sache.
Dural
2013-01-04, 10:32:51
wenn GK104 nicht so gut wäre, hätten wir sicher schon GeForce karten mit GK110 in den läden! vielleicht nicht volle versionen, aber sicher karten mit GK110
aber ich verstehe das verhalten von NV auch nicht wirklich, man hätte auf weihnachten wenigstens eine art GeForce Ultra mit geringen stückzahlen auflegen können, so nach dem motto was derzeit alles möglich ist. so eine "tech karte" gab es ja schon einmal: Geforce 7800 GTX 512
Skysnake
2013-01-04, 11:05:16
...
fängt das jetzt schon WIEDER an oder was.....
Schon mal dran gedacht, das es nicht technisch/wirtschaftlich machbar war/ist?
Das mit dem Chaos bei AMD stimmt ;D
Bzgl Intel Support kann ich nur sagen, das es ganz drauf ankommt, wer man ist. Intel bietet tendenziell genau so guten Support wie nVidia. Intel ist halt nur verdammt! groß, was dazu führt, das man selbst schnell verdammt unbedeutend wird... Die können sich halt auch nicht um jeden "Pups" kümmern, wobei deren Pupse wohl bei nvidia Orkane sind :ugly:
AMD als in dem Markt "tot" zu bezeichnen ist fahrlässig. Es gibt genug Leute, die AMD wirklich SEHR genau im Auge behalten, da die zugrundeliegende Hardware wirklich was kann. Der Softwaresupport ist halt nur nicht so gut wie bei nVidia mit CUDA. Mit der nächsten OpenCL Version soll sich da aber auch wieder einiges tun.
Betonug liegt aber auf SOLL! Wirklich glauben tu ich es erst, wenn ich es seh. Wenn Sie da aber wirklich mal auf die Tube drücken, dann ist das sehr positiv! Bei offenen Standards wie OpenCL dauert es halt immer etwas länger als wenn man seine eigene propritäre Suppe kocht. Der offene Standard ist aber dennoch eine GUTE! Sache.
Klar die Hardware ist klasse und wenn man eine Sache machen möchte von der man vorher sicher sagen kann, dass die AMD Karten funktionieren werden, dann sind sie super. Wechseln hingegen die Anwendungen und Projekte würde ich davon dringend Abstand halten. An eine Verbesserung bei AMD glaube ich nicht mehr. Zu einem versprechen sie das seit den ersten Fires, zum anderen haben die gerade Sparzwang, was Personal kostet. Und Personal brauchen sie nun wieder um im Support auf Augenhöhe zu kommen.
boxleitnerb
2013-01-04, 12:04:19
Also wenn man auf die Green500 schaut, dann ist AMD und Intel effizienter als nVidia.
Dieser Käse wieder...die Vergleichbarkeit bezogen auf die Karten ist damit nicht gegeben. Die zitierte Aussage ist auch völlig falsch, sie müsste lauten "dann ist das System A in dieser Konfiguration effizienter als System B." Dummerweise besteht ein System aus mehr als nur GPUs.
Man geht doch auch nicht her, paart eine GTX680 mit einem FX8150, einem Highendboard, 10 Festplatten und eine HD7970 mit einem 2500K, einem Mittelklasseboard und 4 Festplatten, misst das ganze System inkl. Kühlung und Peripherie und behauptet dann, die 7970 sei um Welten effizienter. Es wird gemessen, was die Karten allein leisten (GPU-Limit) und dann der Verbrauch nur der Karte während des Benchmarks gemessen. So und nicht anders.
horn 12
2013-01-04, 14:16:46
Nun, NV und AMD geben sich derzeit kaum etwas.
Würde von Gleichstand sprechen,- denn alles andere ist nicht der Wahrheit entsprechend.
Hoffe ein aktueller Test im Jänner schafft endlich Klarheit.
Ronny145
2013-01-04, 15:15:51
Was hat die ct denn da genau gemacht/gemessen? Die APPML von AMD ist sicher nicht ganz optimal (es gibt auch 30+% schnellere Codes), aber die liefert auf einer W9000 out of the Box über die Matrixgröße üblicherweise recht konstante ~640-650 GFlop/s bei DGEMM (ab so etwa 1500-2000er Matrixgröße). Wenn der Phi dort 20-30% hinter einem K20 liegt (ist ja noch nicht mal K20X), dann kann das gar nicht so weit abgeschlagen sein in der Disziplin.
Ct hat herstellereigene "hochoptimierte Bilbiotheken" verwendet, die im Falle von AMD mehr als bescheiden funktionieren. Größere Matrizen konnten nicht vermessen werden oder legten längere Pausen ein. Im Digramm von DGEMM etwas unter 600 GFlops im Maximum.
Dural
2013-01-04, 18:00:14
...
fängt das jetzt schon WIEDER an oder was.....
Schon mal dran gedacht, das es nicht technisch/wirtschaftlich machbar war/ist?
ja wäre bestimmt nicht möglich bei den x tausend von Tesla GPU die schon ausgeliefert wurden ;D
wirtschaftlich finanziell gesehen wäre es bestimmt nicht, ich würde das eher unter marketing abrechnen... und wie schon gesagt, exakt das selbe hat NV schon mal mit der GeForce 7800GTX 512 gmacht, die karte hat extrem viel gekostet und war quasi nicht lieferbar.
Timbaloo
2013-01-04, 18:41:15
Und wahrscheinlich hat NV gemerkt, dass der Marketingeffekt einer extrem teuren, quasie nicht lieferbaren Karte extrem gering, quasie nicht vorhanden ist :weg:
Godmode
2013-01-04, 18:46:31
ja wäre bestimmt nicht möglich bei den x tausend von Tesla GPU die schon ausgeliefert wurden ;D
wirtschaftlich finanziell gesehen wäre es bestimmt nicht, ich würde das eher unter marketing abrechnen... und wie schon gesagt, exakt das selbe hat NV schon mal mit der GeForce 7800GTX 512 gmacht, die karte hat extrem viel gekostet und war quasi nicht lieferbar.
Im Endeffekt haben sie gesehn das genug 680er verkauft werden zu 500€ bzw. sogar um 1000€ die 690. Also warum die Marge dieser Karten mit einem GK110 kaputtmachen?
Die Kuh wird gemolken bis sie keine Milch mehr gibt, unabhängig ob ihr schnellere HW wollt oder nicht
aufkrawall
2013-01-04, 19:42:02
Wenn man vor AMD die bessere Lösung rausbringt, wär das doch schon gute PR.
Skysnake
2013-01-04, 19:47:06
Dieser Käse wieder...die Vergleichbarkeit bezogen auf die Karten ist damit nicht gegeben. Die zitierte Aussage ist auch völlig falsch, sie müsste lauten "dann ist das System A in dieser Konfiguration effizienter als System B." Dummerweise besteht ein System aus mehr als nur GPUs.
Man geht doch auch nicht her, paart eine GTX680 mit einem FX8150, einem Highendboard, 10 Festplatten und eine HD7970 mit einem 2500K, einem Mittelklasseboard und 4 Festplatten, misst das ganze System inkl. Kühlung und Peripherie und behauptet dann, die 7970 sei um Welten effizienter. Es wird gemessen, was die Karten allein leisten (GPU-Limit) und dann der Verbrauch nur der Karte während des Benchmarks gemessen. So und nicht anders.
Du vergisst allerdings, das bei all diesen Systeme der Großteil der Rechenleistung von den Acceleratorn kommt. Klar kann man das Ergebnis etwas pushen in die eine oder andere Richtung, es ist aber schon interessant, das eben kein nVidia System Effizienter ist als ein AMD System...
AMD soll ja nach deiner Logik sooo dermaßen schlecht sein, das es keine Alternative ist. Intel genau das Gleiche, und eben dies ist falsch.
Die spielen alle auf Augenhöhe, und das ist für nVidia ein gewaltiger Schritt nach hinten. Waren Sie bisher doch unangefochten an der Spitze.
boxleitnerb
2013-01-04, 20:01:36
Also bitte, leg mir doch keine Worte in den Mund! "Sooo dermaßen schlecht" hab ich nichtmal ansatzweise erwähnt.
Ich lass mich auf die Diskussion gar nicht erst ein, du kannst das so nicht beurteilen, Punkt.
Skysnake
2013-01-04, 20:49:47
Nein, natürlich kann ich das nicht mal im Ansatz betrachten. Ich hab ja auch noch nie ne K20 und nen KNC in der Hand gehabt ;D
Was hast du denn bitte sonst mit deiner Aussage gemeint? Die K20 Systeme sind hinter denen von Intel und AMD. Das ist nunmal Fakt. Wenn K20 aber nur durch den Rest so dermaßen schlecht ist, die Hauptleistung aber von Ihnen kommt (und wir reden ja über Perf/W), dann muss ja K20 eigentlich um welten besser sein als die anderen, die sind ja nur durch ihr weiteres System besser als K20 :rolleyes:
Sorry, aber nVidia hat so dermaßen auf die Kacke gehauen, wie toll ihr neuer Chip sei, nur sehen kann ich davon noch nicht wirklich etwas. Für mich sieht das eben wie schon gesagt alles auf Augenhöhe aus.
Und zudem, ich weiß jetzt nicht ob Ct nur ne einzelne Karte getestet hat oder nicht, aber zwischen SingleGPU und MultiGPU liegen Welten.
Ronny145
2013-01-04, 21:32:04
Also wenn man auf die Green500 schaut, dann ist AMD und Intel effizienter als nVidia.
Das interessiert mich jetzt doch. Woher kommt die Annahme? Am besten du verlinkst die entsprechenden K20, Xeon Phi, FirePro Systeme und lässt uns an deiner Effizienzrechnung teilhaben. Vielleicht lässt sich das dann nachvollziehen.
Skysnake
2013-01-05, 02:11:55
Guckst du hier: http://extreme.pcgameshardware.de/user-news/246033-wer-hat-den-gruensten-hpc-daumen.html
Die Diagramme aus Post 9 kannst du bzgl den FirePro VERGESSEN! die Werte sind falsch, da die Daten/Werte aus der Green500 falsch sind! Das konnte im Verlauf des Topics, insbesondere der Diskussion hier im Forum dazu geklärt werden. In dem Topic sollte auch die Pressemitteilung auftauchen, aus der Hervorgeht, dass die Werte der Green500 Liste bzgl der theoretischen Rechenleistung usw falsch sind...
An der Effizienz, als Perf/W, ändern die falschen Angaben aber nichts. Und wie man sieht, sind die K20x!!! Systeme, und der normalsterbliche bekommt ja nicht mal die, sondern nur die K20, eben schlechter als die mit XeonPhi und der AMD S10000. Vor allem ist eben sogar das kleinste K20x System kleiner als das AMD/XeonPhi System. Von sich verschlechtender Skalierung usw kann man also auch nicht sprechen, bzw. als Ausrede hernehmen.
OgrEGT
2013-01-05, 07:04:19
Guckst du hier: http://extreme.pcgameshardware.de/user-news/246033-wer-hat-den-gruensten-hpc-daumen.html
(...)
An der Effizienz, als Perf/W, ändern die falschen Angaben aber nichts. Und wie man sieht, sind die K20x!!! Systeme, und der normalsterbliche bekommt ja nicht mal die, sondern nur die K20, eben schlechter als die mit XeonPhi und der AMD S10000. Vor allem ist eben sogar das kleinste K20x System kleiner als das AMD/XeonPhi System. Von sich verschlechtender Skalierung usw kann man also auch nicht sprechen, bzw. als Ausrede hernehmen.
Wie Du sehr richtig im verlinkten und von Dir verfassten Beitrag erwähnst, spielen andere Dinge ebenfalls eine sehr große Rolle, wenn man derart große Gesamtsysteme in Bezug auf Effizienz (Perf/W) vergleicht. Insbesondere sind Kühlung und Netzwerk als auch die Größe des Clusters und die erreichte Skalierbarkeit in Bezug auf den Gesamtverbrauch und Perf/W entscheidend.
Von AMD sind z.B. im Diagramm nur 2 Systeme vertreten mit Gesamtverbrauch von max. 180kW. Niemand weiß wie das Perf/W aussieht bei 2000kW oder 4000kW...
Aus diesen wenigen Daten absolute Aussagen in Bezug auf die Effizienz der GPUs der jeweiligen Hersteller zu machen halte ich nicht für sinnvoll.
Du könntest allenfalls unter Vorbehalt des o.g. sagen, dass sich die mit den GPUs der 3 Hersteller unterschiedlich bestückten Systeme bei einem Gesamtverbrauch von ca. 200kW in Bezug auf Perf/W relativ ähnlich verhalten.
boxleitnerb
2013-01-05, 09:42:18
Die GTX680 Phantom ist grade massiv im Preis gefallen, gibts ab 329 Euro (non-geizhals) bzw. 338 Euro (geizhals). Ein Vorbote oder Zufall/Preisfehler?
Black-Scorpion
2013-01-05, 10:23:37
Nein Wunschdenken.
Skysnake
2013-01-05, 10:32:07
Wie Du sehr richtig im verlinkten und von Dir verfassten Beitrag erwähnst, spielen andere Dinge ebenfalls eine sehr große Rolle, wenn man derart große Gesamtsysteme in Bezug auf Effizienz (Perf/W) vergleicht. Insbesondere sind Kühlung und Netzwerk als auch die Größe des Clusters und die erreichte Skalierbarkeit in Bezug auf den Gesamtverbrauch und Perf/W entscheidend.
Von AMD sind z.B. im Diagramm nur 2 Systeme vertreten mit Gesamtverbrauch von max. 180kW. Niemand weiß wie das Perf/W aussieht bei 2000kW oder 4000kW...
Aus diesen wenigen Daten absolute Aussagen in Bezug auf die Effizienz der GPUs der jeweiligen Hersteller zu machen halte ich nicht für sinnvoll.
Du könntest allenfalls unter Vorbehalt des o.g. sagen, dass sich die mit den GPUs der 3 Hersteller unterschiedlich bestückten Systeme bei einem Gesamtverbrauch von ca. 200kW in Bezug auf Perf/W relativ ähnlich verhalten.
Natürlich, nichts anderes habe ich doch gesagt. nVidia ist damit eben nur Meilen weit weg von dem, was propagiert wird, also der Alternativlosigkeit, wenn man denn HPC machen will, wo Perf/W wichtig ist.
Btw. wie bin ich darauf eigentlich gekommen....? Ach ja richtig, der Ct-Bericht, in dem die AMD so "abgekackt" hat. Der Effizienzvergleich zeigt halt, dass das im "realen" Einsatz eben nicht so sein muss.
bloub
2013-01-05, 11:49:59
dein "effizienzvergleich" ist leider nur für die tonne zu gebrauchen. cray hat im vergleich je gpu eine cpu verbaut, während die amd kiste für je 2 gpus eine cpu verbaut hat. und das cpus die perf/w runterziehen muss dir wohl keiner erklären?
Godmode
2013-01-05, 11:52:12
Die GTX680 Phantom ist grade massiv im Preis gefallen, gibts ab 329 Euro (non-geizhals) bzw. 338 Euro (geizhals). Ein Vorbote oder Zufall/Preisfehler?
Ich denke die Preise werden jetzt bis März deutlich fallen, schließlich müssen die Lager geräumt werden, die neue Generation ist ja nicht mehr weit weg. Bin echt gespannt ob die 680 dann als 760er verkauft wird, für 250-300 Euro.
boxleitnerb
2013-01-05, 12:00:12
Denke ich auch. Selbst wenn das jetzt ein vereinzelter Fehler sein sollte. Eine Preissenkung ist eh überfällig, da AMD momentan das bessere Preisleistungsverhältnis bietet.
Ich frage mich übrigens, ob Nvidia Kepler v1 GPUs umlabeln und parallel weiterverkaufen oder die gesamte Palette refreshen wird. Würden sie Ersteres tun, dürfte es im Lineup recht eng werden, schließlich muss es genug Lücken geben, um alte Chips dazwischenzustopfen. Bei Fermi haben sie es nicht gemacht, höchstens ganz vereinzelt im unteren Bereich oder bei den OEMs.
Godmode
2013-01-05, 12:11:22
Denke ich auch. Selbst wenn das jetzt ein vereinzelter Fehler sein sollte. Eine Preissenkung ist eh überfällig, da AMD momentan das bessere Preisleistungsverhältnis bietet.
Ich frage mich übrigens, ob Nvidia Kepler v1 GPUs umlabeln und parallel weiterverkaufen oder die gesamte Palette refreshen wird. Würden sie Ersteres tun, dürfte es im Lineup recht eng werden, schließlich muss es genug Lücken geben, um alte Chips dazwischenzustopfen. Bei Fermi haben sie es nicht gemacht, höchstens ganz vereinzelt im unteren Bereich oder bei den OEMs.
Ich denke nicht das es ein Fehler ist, da es schon bei mehreren Händlern passiert ist. Ich kann mir vorstellen das es die 680er auf einem kleineren Board mit weniger Takt geben wird und dass dann die 760er wird oder so.
boxleitnerb
2013-01-05, 12:30:56
Hm, und was machst du dann mit GK114? Davon gibt es dann auch 2-4 SKUs. Gibts dann für +5-10% immer ne neue Karte?
Abgesehen davon: Wenn die geleakten Specs zu Oland auch nur halbwegs stimmen, kann Nvidia mit GK104 da nicht mehr mithalten, der wird liegenbleiben. Stillstand verkauft keine Karten, wenn der Mitbewerber sich weiterentwickelt und bessere Lösungen präsentiert.
Godmode
2013-01-05, 12:56:22
Hm, und was machst du dann mit GK114? Davon gibt es dann auch 2-4 SKUs. Gibts dann für +5-10% immer ne neue Karte?
Abgesehen davon: Wenn die geleakten Specs zu Oland auch nur halbwegs stimmen, kann Nvidia mit GK104 da nicht mehr mithalten, der wird liegenbleiben. Stillstand verkauft keine Karten, wenn der Mitbewerber sich weiterentwickelt und bessere Lösungen präsentiert.
Vielleicht wird der GK104 einfach eingestellt. Ich hab mir über das gesamte 7xx Portfolio aber keine Gedanken gemacht, sondern nur über GK110 bzw. mGPU GK110.
Hugo78
2013-01-05, 14:02:02
Hm, und was machst du dann mit GK114? Davon gibt es dann auch 2-4 SKUs. Gibts dann für +5-10% immer ne neue Karte?
Gibt doch genug Luft nach oben...
... wenn ein 14SMX GK110 @ 850MHz als GTX 780 kommt, ergo 42% (+X) mehr ggü. der GTX 680.
Das breite SI wird neben der reinen extra Rechenleistung, hier und da sicherlich für >50% Vorsprung sorgen.
Dazu ein 13 SMX GK110 @ 850MHz als GTX 770 => 32% mehr ggü. der GTX 680.
Der GK204 Topdog wird dann 5-15% schneller bei gleicher Perf./W, ggü. der GTX 680.
Und zum Jahresende kommen dann überarbeitete 15 SMX GK210er @ 950MHz...
boxleitnerb
2013-01-05, 15:41:25
Das ist ja alles schön und gut, aber was machst du mit dem GK204 salvage part? Der liegt dann wohl genau da, wo GK104 im Vollausbau liegt. Oder die schwächste GK204 SKU könnte mit der zweitschwächsten GK104 SKU konkurrieren usw usf. Ich sehe wie gesagt keine Lücken für noch mehr SKUs - außer unten wo gerade die 660 SE erscheint. Nvidia bzw. die Boardpartner haben vermutlich eh keine Probleme, die alten Karten noch loszukriegen, auch wenn die neuen schon draußen sind. Gibt genug Lemminge :D
Jemand bei Computerbase hat in dem Shop übrigens angerufen: Die 338 Euro für die 680 Phantom sind kein Fehler. Da beginnt bestimmt der Abverkauf so langsam.
Dural
2013-01-05, 16:44:52
die SE karten kommen immer kurz bevor die neuen karten kommen.
geht nicht mehr lange, im märz/april werden wir vermutlich die ersten GeForce 7xx sehen.
N0Thing
2013-01-05, 17:07:39
Nvidia bzw. die Boardpartner haben vermutlich eh keine Probleme, die alten Karten noch loszukriegen, auch wenn die neuen schon draußen sind. Gibt genug Lemminge :D
Bei einem Preis von 200€ für eine GTX 670 oder gar 680 kann auch jeder zufrieden sein, selbst wenn dann schon die neue Reihe auf dem Markt ist. :)
Skysnake
2013-01-05, 18:09:00
dein "effizienzvergleich" ist leider nur für die tonne zu gebrauchen. cray hat im vergleich je gpu eine cpu verbaut, während die amd kiste für je 2 gpus eine cpu verbaut hat. und das cpus die perf/w runterziehen muss dir wohl keiner erklären?
Nö, da ist auch eine Grafikkarte pro CPU drin. Die hat halt nur zwei Chips drauf. Zudem kann GK110 halt kein PCI-E 3.0 die S10000 schon. Ganz zu schweigen davon, dass deine Aussage eh für die Tonne ist. Schau dir mal die BlueGenes an....
Wieviele GPUs, oder allgemein Accelerators, haben denn die Kisten? Merkste was?
Zudem besteht nen Supercomputer noch aus mehr als CPU und Accelerator. Nämlich dem Interconnect, und der ist bei Cray schon ziemlich gut.
Godmode
2013-01-05, 18:42:52
Zudem kann GK110 halt kein PCI-E 3.0 die S10000 schon.
Ist das schon fix oder nur auf die Tesla Serie bezogen? Weil wenn das stimmt, dürfte das wohl ein Problem der gesamten Kepler Serie sein. GTX 690 ist da ne Ausnahme, weil die nen PCIe-Bridge Chip drauf hat.
Hugo78
2013-01-05, 19:26:15
Ist das schon fix oder nur auf die Tesla Serie bezogen? Weil wenn das stimmt, dürfte das wohl ein Problem der gesamten Kepler Serie sein. GTX 690 ist da ne Ausnahme, weil die nen PCIe-Bridge Chip drauf hat.
PCIe 3.0 kann jeder Kepler in Verbindung mit IVB.
In Verbindung mit SB-E ist es nicht freigegeben aber möglich.
Na und in Verbindung mit Opterons ist es nicht möglich, da AMD hier kein PCIe 3.0 bietet.
Logisch das man für den Profibereich nur PCIe 2.0 angibt.
Maggolos
2013-01-05, 19:46:46
Vielleicht wird sie ja heute Nacht/Morgen angekündigt hehe =)
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Geforce-GTX-780-Tegra-4-Nvidia-Pressekonferenz-CES-live-Internet-1042609/
Haben da ja ihre Pressekonfi.
Dural
2013-01-05, 19:54:06
Tegra4 ja, GeForce 780 eher nicht.
boxleitnerb
2013-01-05, 19:59:10
Ich kann Tegra langsam nicht mehr hören. Jedesmal, wenn man sich auf ne Geforce freut, kommt der Huang und erzählt was anderes :D
Godmode
2013-01-05, 20:21:19
Ich kann Tegra langsam nicht mehr hören. Jedesmal, wenn man sich auf ne Geforce freut, kommt der Huang und erzählt was anderes :D
Ich kann das auch nicht mehr hören, der ganze Mobilekram, sowas von uninteressant. Aber klar dort sehen sie neue Märkte und die wollen sie erschließen.
Eventuell gibts kleine Häppchen zu Desktop GK110, mehr sicher nicht, sonst hätten wir ja schon Bilder aus diversen Asia Seiten. Ail ist die letzten Seiten recht ruhig worden, ob er was weiß?
bloub
2013-01-05, 20:53:28
Nö, da ist auch eine Grafikkarte pro CPU drin. Die hat halt nur zwei Chips drauf.
ja eben, damit verändert sich das verhältnis cpu/gpu ganz schön. kannst oder willst du das nicht merken?
boxleitnerb
2013-01-05, 21:02:54
ja eben, damit verändert sich das verhältnis cpu/gpu ganz schön. kannst oder willst du das nicht merken?
Nvidia erreicht dieselbe Rechenleistung halt mit weniger GPUs, wenn man nach den theoretischen Werten geht. Das hat eben den Haken, dass es automatisch den CPU-Anteil erhöht, wenn man dieselbe Gesamtrechenleistung als Maßstab anlegt. Der Vorteil ist zugleich auch der Nachteil.
Rampage 2
2013-01-05, 21:35:57
Wie viel langsamer darf die GTX770 als die GTX780 sein?
Und ist es möglich, dass eine GTX760 Ti mit derselben oder höherer Hardware-Bestückung (8 SMX, 32ROPs, 128TMUs, 1536SPs, 256Bit @ 3GHz GDDR5) als eine GTX680 für unter 250€ angeboten wird?
Knuddelbearli
2013-01-05, 22:14:47
nein dazu ist das die viel zu groß
das konnte man zu zeiten der GTX 260 machen inzwischen dürfte ein gleich großer chip aber auch bei jetzt gut laufender 28nm fertigung 3-4 mal soviel kosten
und erst recht wenn es jetzt gut läuft ( 28nm für gpu ist dann gut 18 Monate alt ) wird man es auch nicht mehr tun müssen da nicht mehr soviel defekt ist
Blaire
2013-01-05, 22:52:10
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Geforce-GTX-780-Tegra-4-Nvidia-Pressekonferenz-CES-live-Internet-1042609/
Haben da ja ihre Pressekonfi.
Sollte man jedenfalls nicht verpassen. :)
boxleitnerb
2013-01-06, 00:54:40
Hat eigentlich jemand hier eine grobe Vorstellung davon, wieviel Nvidia pro GPU (die größte) normalerweise verdient und vor allem wieviel es kostet, z.B. GK110 zu entwickeln und zur Massenfertigungsreife zu bringen?
In Q3 2011 hat ein GF110 $120 gekostet laut Mercury Research (mir ist unklar, ob das der Preis ist, den die AIBs an Nvidia zahlen mussten oder die Summe, die Nvidia TMSC zahlte).
Maggolos
2013-01-06, 16:05:12
Wir werden es heute um 5 Sehen, aber vieles spricht dafür Gainward senkt z.B. seine Preise für die Gtx 680 auf 330€ und es ist kein Schreibfehler usw.
http://www.mindfactory.de/product_info.php/info/p795944_2048MB-Gainward-GeForce-GTX-680-Phantom-Aktiv-PCIe-3-0-x16--Retail-.html
Timbaloo
2013-01-06, 16:11:59
Interessant, aber mich wundert dass die anderen nicht mitziehen. Das sind ja fast 100€ zur nächstteureren... und das ist mit Sparkle jetzt weissgott nicht die Premium-Marke :freak:
Und Kepler hat NV auch nicht auf einer Messe veröffentlicht.
boxleitnerb
2013-01-06, 16:13:07
Wir haben Wochenende, im Laufe der nächsten 1-2 Wochen dürfte sich da auch bei den anderen Herstellern was tun.
Die Konferenz ist morgen früh um 5 Uhr, nicht heute. Leider :(
Ailuros
2013-01-06, 16:49:21
Tegra4 ja, GeForce 780 eher nicht.
Gift drauf nehmen wuerde ich nicht; nichtdestominder schmeckt es abscheulich :P
Ronny145
2013-01-06, 17:07:13
Vielleicht gibt es eine Vorankündigung. Wenn GK100 im März kommt, wäre es nicht so unwahrscheinlich, dass Nvidia in guter Voraussicht die GTX 680 Preise senkt. Die kleineren müssten eigentlich auch eine Anpassung bekommen. Die GTX 670 Phantom kostet jetzt mehr als die 680 Phantom. :freak:
Ailuros
2013-01-06, 17:15:23
Eine weitere quasi "Vorankuendigung" fuer GK110 wuerde sie nur laecherlich machen. Wie dem auch sei, wenn sie nicht wie letztes Jahr bei der CES ihre Meinung in der letzten Minute aendern, wird der "GTX780" release sowieso in den Schatten von Tegra4/Wayne fallen. Es wird auch ehrlich gesagt um einiges amuesanter sein.
boxleitnerb
2013-01-06, 17:53:22
Vorankündigung muss es ja nicht unbedingt sein. Sie können einfach Crysis 3 oder den neuen 3DMark 2012 auf einem GTX780 SLI laufen lassen, ohne fps counter, einfach um zu zeigen dass da eben schon was läuft und dass es Karten gibt (wenn es welche gibt, Samples womöglich schon).
Timbaloo
2013-01-06, 18:00:52
Das wäre ja angesichts der Tatsache dass der Chip bereits verkauft wird total albern.
Ailuros
2013-01-06, 18:02:02
Vorankündigung muss es ja nicht unbedingt sein. Sie können einfach Crysis 3 oder den neuen 3DMark 2012 auf einem GTX780 SLI laufen lassen, ohne fps counter, einfach um zu zeigen dass da eben schon was läuft und dass es Karten gibt (wenn es welche gibt, Samples womöglich schon).
Sind wohl alles nette "Ideen" fuer NV wie man die Nerven der Enthusiast Users noch ein Stueck weiter kitzeln koennte. Fuehle ich etwas Masochismus hier? :D
boxleitnerb
2013-01-06, 18:04:17
Jaaa :D
Ich will irgendwas sehen, selbst wenn ich es noch nicht haben kann.
Timbaloo
2013-01-06, 18:04:48
http://semiaccurate.com/2013/01/04/amds-hd8000-might-not-make-q1/
Vielleicht ist auch das ein Grund für die purzelnden 680er Preise?
Ailuros
2013-01-06, 18:08:43
http://semiaccurate.com/2013/01/04/amds-hd8000-might-not-make-q1/
Vielleicht ist auch das ein Grund für die purzelnden 680er Preise?
Was soll fuer SA da gerade Neues dran sein? Ich dachte wir "wussten" schon dass Sea Islands eben nicht in Q1 antanzen will. Es wird so oder so verdammt Zeit dass 680er Preise konstant weiterpurzeln.
Godmode
2013-01-06, 18:16:54
Eine weitere quasi "Vorankuendigung" fuer GK110 wuerde sie nur laecherlich machen. Wie dem auch sei, wenn sie nicht wie letztes Jahr bei der CES ihre Meinung in der letzten Minute aendern, wird der "GTX780" release sowieso in den Schatten von Tegra4/Wayne fallen. Es wird auch ehrlich gesagt um einiges amuesanter sein.
Was sollt an Tegra4 amüsant sein? Interessiert uns hier doch absolut gar nicht.
gnahr
2013-01-06, 18:48:49
warum 680er günstig werden? weil weihnachten vorbei ist.
macht euch mal nicht zu sehr ins hemd morgen könne schon ne über-gtx780 für 500usd auftauchen.
es drehen also wieder alle durch wie üblich wenn mal 14tage kein bullshit durch die medien geht.
Maggolos
2013-01-06, 18:49:09
Smartphone/Tabletmarkt = Zukunft Tegra 4= Zukunft
Uns interessiert das zwar nicht, aber viele andere^^
Es wurde auch langsam Zeit das die Preise für die Gtx 680 sinken (Weihnachten ist ja nu auch vorbei :)), denn wer ist echt so blöd (bis auf "grüne Propheten") das man die sich kauft, besonders wenn die hd 7970 gleich schnell/schneller ist und gut 40-120€ billiger ist.
Ich hoffe nur die Gtx 780 macht genug FPS im Grafikbenchmark Crysis 3^^ Denn die hd 7970 und Gtx 680 sind schätze ich damit überfordert.
Ronny145
2013-01-06, 19:12:36
warum 680er günstig werden? weil weihnachten vorbei ist.
macht euch mal nicht zu sehr ins hemd morgen könne schon ne über-gtx780 für 500usd auftauchen.
es drehen also wieder alle durch wie üblich wenn mal 14tage kein bullshit durch die medien geht.
Ein plötzlicher Preisverfall von 100€ hat nichts mit Weihnachten zu tun.
gnahr
2013-01-06, 19:14:00
Ein plötzlicher Preisverfall von 100€ hat nichts mit Weihnachten zu tun.
und ne schwalbe macht noch keinen sommer... in mehrerlei hinsicht. :cool:
Maggolos
2013-01-06, 19:20:02
Das sinken des Preises der Gtx 680 zeigt eine Tendenz, dass bald die neuen kommen.
Ronny145
2013-01-06, 19:22:30
und ne schwalbe macht noch keinen sommer... in mehrerlei hinsicht. :cool:
Deine Schwalben können die Preise leider nicht senken.
gnahr
2013-01-06, 19:51:16
Das sinken des Preises der Gtx 680 zeigt eine Tendenz, dass bald die neuen kommen.
ja, je mehr zeit verstreicht, um so wahrscheinlicher kommt ein nachfolger. wie beim großen warten auf fermi einst.
aber 1 reduzierte gtx680 in der mitte des traditionell toten januars... ist kein guter qualitativer indikator.
mit der 1 schwalbe meinte ich auch wirklich die eine karte und wofür der sommer steht... vielleicht ne jahreszeit, ob es da nen grund gibt, dass die 680 günstig bis gar nicht mehr gefragt sind... :P
M4xw0lf
2013-01-06, 20:11:41
Deine Schwalben können die Preise leider nicht senken.
Afrikanische oder europäische Schwalben? ;D
Ailuros
2013-01-06, 20:31:31
Was sollt an Tegra4 amüsant sein? Interessiert uns hier doch absolut gar nicht.
Kann sein dass es nichts mit dem thread hier zu tun hat oder dass es in diesem thread weniger interessiert, aber NV's hauptsaechlicher Marketing-wirbel wird in der Richtung sein.
Sonst da die anderen Herren ploetzlich einen Koller mit Voegeln scheinen zu haben, mal sehen in welche Richtung sie diesmal fliegen werden :wink:
Godmode
2013-01-06, 21:21:54
Kann sein dass es nichts mit dem thread hier zu tun hat oder dass es in diesem thread weniger interessiert, aber NV's hauptsaechlicher Marketing-wirbel wird in der Richtung sein.
Sonst da die anderen Herren ploetzlich einen Koller mit Voegeln scheinen zu haben, mal sehen in welche Richtung sie diesmal fliegen werden :wink:
Ok, ist verständlich das NV bei den Mobiles dabei sein will. Solange sie uns nicht vernachlässigen.
Zu der Preissenkung eine mögliche These: Die Grafikkarten sind deshalb so stark im Preis gesunken, weil irgend jemand weiß dass morgen etwas angekündigt wird, dass den Verkäufen der aktuellen Serie nicht gut tut. Durch die starke Preissenkung wird eine Welle an Bestellungen ausgelöst und die anderen Hersteller können gar nicht mehr mitziehen, da die jetzige Preissenkung den Großteil der wartenden unschlüssigen Kundschaft abschöpft.
Blediator16
2013-01-06, 22:00:41
Ok, ist verständlich das NV bei den Mobiles dabei sein will. Solange sie uns nicht vernachlässigen.
Zu der Preissenkung eine mögliche These: Die Grafikkarten sind deshalb so stark im Preis gesunken, weil irgend jemand weiß dass morgen etwas angekündigt wird, dass den Verkäufen der aktuellen Serie nicht gut tut. Durch die starke Preissenkung wird eine Welle an Bestellungen ausgelöst und die anderen Hersteller können gar nicht mehr mitziehen, da die jetzige Preissenkung den Großteil der wartenden unschlüssigen Kundschaft abschöpft.
Naja es ist eine einzige Grafikkarte gesunken und das um direkt 100€ das ist nicht wirklich normal.
Godmode
2013-01-06, 23:42:57
Naja es ist eine einzige Grafikkarte gesunken und das um direkt 100€ das ist nicht wirklich normal.
Damit hast auch wieder recht. In etwa 5h wissen wir hoffentlich mehr.
Skysnake
2013-01-06, 23:51:13
Kann sein dass es nichts mit dem thread hier zu tun hat oder dass es in diesem thread weniger interessiert, aber NV's hauptsaechlicher Marketing-wirbel wird in der Richtung sein.
Sonst da die anderen Herren ploetzlich einen Koller mit Voegeln scheinen zu haben, mal sehen in welche Richtung sie diesmal fliegen werden :wink:
Meinst du so was wie die Sache mit dem Audi "Deal" (oder wars BMW?), wo sich jetzt vor kurzem rausgestellt hat, dass das so ziemlich nen fettes Luftschloss war, und nur sehr wenige nVidia Tegras verbaut wurden? ;D
Ich tippe aber eher auf ne Forführung von ihrer "tollen" Streamingidee bzgl K20 usw usw. Da muss doch noch was richtig "fettes" kommen. Immerhin haben die ja letztes Jahr damit so dermaßen auf die Kacke gehauen, und selbst Mr. XY war ja so happy über streaming mit dem Konsolenpad zocken zu dürfen... :ufail:
Bis jetzt sieht man davon aber eben noch GAR NICHTS... Da muss doch mal wieder was gezeigt werden und nachgeholt werden. Vor allem könnte man sich dann wieder in den einschlägigen Foren mit viel Popcorn der Tag versüßt werden ;D
Timbaloo
2013-01-07, 07:48:17
Satz mit x, das war wohl nix.
Godmode
2013-01-07, 08:37:52
Satz mit x, das war wohl nix.
Dann heißt es wieder warten bis die ersten Informationen aus Asien auftauchen. War bis jetzt ja immer so, sobald die was hatten es nicht mehr all zu lange dauert bis dass das zeug erscheint.
Skysnake
2013-01-07, 09:37:38
Hach bin ich gut, das war ja so ziemlich nen Treffer voll ins Schwarze ;D
gnahr
2013-01-07, 10:48:56
skysnake legt es aber auch drauf an den vornamen charlie zu bekommen.
wo war project shield in deiner vorraussage? sich wegen des offensichtlichen abzufeiern...;)
und warum eine gk104 billiger wurde... schwalbe. gk110 bleibt für spieler immer noch ein buch mit 7 siegel. man muss schon fast angst bekommen, dass der nachfolger der erwarteten karte dann im weihnachtlichen konsolengewimmel der neuen xbox und playstation untergeht. leistungsmäßig stinkt der pc dann ja wieder kurzzeitig ab.
Hugo78
2013-01-07, 10:55:08
Jeder Vollidiot hat mittlerweile begiffen, dass Nvidia Grafikkarten nicht mehr auf Cebit und Co. präsentiert.
Wenn überhaupt stellt man Grakas im Rahmen von Core-Gaming Events vor.
Siehe GTX 690 auf dem hauseignen Geforce LAN/Nvidia Gaming Festival in Shanghai letztes Jahr,
oder siehe GTX 680, da vermied man die Cebit und veröffentlichte lieber 14 Tage später, mit entsprechend viel Aufmerksamkeit von der Fachpresse.
Godmode
2013-01-07, 11:00:11
Jeder Vollidiot hat mittlerweile begiffen, dass Nvidia Grafikkarten nicht mehr auf Cebit und Co. präsentiert.
Wenn überhaupt stellt man Grakas im Rahmen von Core-Gaming Events vor.
Siehe GTX 690 auf dem hauseignen Geforce LAN/Nvidia Gaming Festival in Shanghai letztes Jahr,
oder siehe GTX 680, da vermied man die Cebit und veröffentlichte lieber 14 Tage später, mit entsprechend viel Aufmerksamkeit von der Fachpresse.
Man hofft halt als Vollidiot auf den lang ersehnten großen Chip. ;D
Von einer Vorstellung ging ja niemand aus sondern eventuell von kleinen Happen, was weiß ich. Wann ist dann deiner Meinung nach der nächste mögliche Termin für GK110 Desktop?
Skysnake
2013-01-07, 11:02:47
:P
Lasst mir doch nen bischen Spass :rolleyes:
EDIT:
@Godmode:
Der naechste Termin ist dann eigentlich erst wieder zur CeBit, wobei ich daran nicht glaube. Wenn wirds wohl wieder die Hausmesse. Das ist dann aber wieder Q2, wenn ich es richtig im Kopf habe.
Nachdem man die erste HD6950 listung in nem OEM PC fuer Juni (oder wars juli?) gesehen hat, wird man wohl bei AMD wieder einen ticken frueher kommen. Wahrscheinlich aber insgesamt schon deutlich dichter beieinander als bei der aktuellen Generation.
Hübie
2013-01-07, 11:36:41
Hab doch gesagt dass es erst Ende Januar Häppchen geben wird ;)
Ich gönn dir den Spaß skysnake ;D
Ailuros
2013-01-07, 14:04:11
Meinst du so was wie die Sache mit dem Audi "Deal" (oder wars BMW?), wo sich jetzt vor kurzem rausgestellt hat, dass das so ziemlich nen fettes Luftschloss war, und nur sehr wenige nVidia Tegras verbaut wurden? ;D
Was heisst Luftschloss? Ich fragte ja schon damals wieviele Autos Audi jaehrlich weltweit verkaufen kann. Es sollte wohl klar sein dass bei so ueberteuren Produkten die Volumen nur gering sein koennen.
BigKid
2013-01-07, 14:26:21
Was heisst Luftschloss? Ich fragte ja schon damals wieviele Autos Audi jaehrlich weltweit verkaufen kann. Es sollte wohl klar sein dass bei so ueberteuren Produkten die Volumen nur gering sein koennen.
Ich nehm das jetzt einfach mal so wie es da steht und sage auch wenns OT ist:
Die traurige Wahrheit ist doch, dass es eine zunehmende Menge von Leuten gibt, die so viel Kohle haben, dass sie geradezu nach Gelegenheiten lechzen für etwas, dass als etwas Besonderes angepriesen wird zuviel Kohle auszugeben. Also Audi hat keine Absatzprobleme... Hauptsache die Karre schreit in Q-Breitwand "eure Armut kotzt mich an..."
Bei Klein- und untererer Mitteklasse-Autos sinkt der Absatz, bei oberer Mitteklasse und Oberklasse steigt er. Aber nö is klar - wir alle sitzen ja im selben Boot und die Kriese trifft uns gleich - glaubt der Presse - eine Umverteilung von Unten nach Oben findet nicht statt das ist nur Neid...
OT-Ende und Sorry...Und sollte ein Mod das Löschen wollen würde ich ihn verstehen aber das musste mal kurz raus...
Skysnake
2013-01-07, 15:31:28
Was heisst Luftschloss? Ich fragte ja schon damals wieviele Autos Audi jaehrlich weltweit verkaufen kann. Es sollte wohl klar sein dass bei so ueberteuren Produkten die Volumen nur gering sein koennen.
Luftschloss deswegen, weil Tegra3 eben in viel viel viel weniger Modellen drin sein soll als urspruenglich verkuendet.
Aber frag mch jetzt bitte nicht, wer das geschrieben hatte. Die Meldung ist schon einige Monate her.
Ailuros
2013-01-07, 17:21:18
Luftschloss deswegen, weil Tegra3 eben in viel viel viel weniger Modellen drin sein soll als urspruenglich verkuendet.
Aber frag mch jetzt bitte nicht, wer das geschrieben hatte. Die Meldung ist schon einige Monate her.
Es war der Kaugummi von jedem NV fan zum T3 launch; aber man wird wohl so viel Grips haben zu verstehen dass Audi eben nicht (im Gegensatz z.B. zu smartphones) dutzende von Autos weltweit pro Jahr verkaufen kann. Selbst wenn der gesamte Volkswagen Konzern N SoC in alle verkauften Autos einbauen wuerde ist das insgesamte Volumen immer noch laecherlich klein.
Aber genug mit dem OT.
Godmode
2013-01-07, 18:31:50
Aber genug mit dem OT.
Hast du sonst irgendwelche Neuigkeiten die uns helfen könnten die nächsten Wochen mit interessanten Disskussionen zu überbrücken?
Hübie
2013-01-07, 20:02:35
Audi, Lamborghini, Skoda, Tesla und VW (http://www.notebookcheck.com/Nvidia-Das-neue-Infotainmentsystem-des-VW-Golf-7-arbeitet-mit-Tegra-3.82579.0.html) setzen Tegra 3 ein. Das Volumen ist gering aber der Marketingeffekt ist hier eher ausschlaggebend. Oder wisst ihr welche SoC in Volvo verbaut werden? Nö? Also. ;D
Maniac007
2013-01-07, 21:21:25
Na toll, das war es dann schon wieder mit der günstigen 680GTX - die Preise sind wieder beim Alten. Und ich war so kurz davor zuzuschnappen. Ich glaube auch nicht, dass sich da der Launch der nächste Generation angekündigt hat. Da hätte die Preissenkung auch andere Modelle und Händler betroffen.
MaxMax
2013-01-07, 22:24:33
ja, ich wollte mir auch 2 günstige Gainwards GTX 680 bei mindfactory holen, mir wurde die bestellung zwar bestätigt, und bezahlt hatte ich auch, aber jetzt am abend kam die email: "vom hersteller gemeldetes Lieferdatum 28. März 2013"
naja, wenigstens weiss ich jetzt, wann die GTX780 serie gelaunchst wird...ich schätz mal um den 28. März herum ;)
und man kann annehmen, dass die GTX 680 dann auf ~330euro fallen wird....d.h. wohl auch, die GTX 7xx sich wohl bei 400 - 600euro bewegen werden?! was meint ihr?
lg
Na toll, das war es dann schon wieder mit der günstigen 680GTX - die Preise sind wieder beim Alten. Und ich war so kurz davor zuzuschnappen. Ich glaube auch nicht, dass sich da der Launch der nächste Generation angekündigt hat. Da hätte die Preissenkung auch andere Modelle und Händler betroffen.
Godmode
2013-01-07, 23:21:15
ja, ich wollte mir auch 2 günstige Gainwards GTX 680 bei mindfactory holen, mir wurde die bestellung zwar bestätigt, und bezahlt hatte ich auch, aber jetzt am abend kam die email: "vom hersteller gemeldetes Lieferdatum 28. März 2013"
naja, wenigstens weiss ich jetzt, wann die GTX780 serie gelaunchst wird...ich schätz mal um den 28. März herum ;)
und man kann annehmen, dass die GTX 680 dann auf ~330euro fallen wird....d.h. wohl auch, die GTX 7xx sich wohl bei 400 - 600euro bewegen werden?! was meint ihr?
lg
Gutes Datum, irgendwo in dem Bereich schätze ich die 7xx Serie nach heute auch ein.
Was anderes: Könnte es aus betriebswirtschaflicher Sicht irgend einen Sinn machen, den Konsumenten 15 SMXer und den Profis nur 13er und 14er zu verkaufen? Die Frage ist ja, was passiert mit den funktionierenden 15ern die Seit September produziert wurden und nicht in eine Tesla gewandert sind? Werden die vielleicht trotzdem als 14er verkauft, oder werden gesammelt um eine Geforce GTX 780 aufzulegen? Welcher Markt wird den größer sein, Highend Desktop oder Highend Server? Kenne nicht viele Leute mit GTX680 oder drüber.
Wenn sie eine K20x mit 15 SMX angeboten hätten, wäre wohl die Nachfrage sehr groß gewesen und niemand hätte mehr K20 mit 13 bestellt. Über den Preis hätte die Nachfrage natürlich geregelt werden können, aber warum dann überhaupt auflegen, wenn ich eh nicht liefern kann? Oder sind die 15er überhaupt kaputt wie schon bei der GTX 480? Wir hätten dann die selbe Situation, dass später noch sowas die die GTX 580 kommt mit voller Anzahl Einheiten und noch etwas mehr Takt, quasi Wiederholung von Fermi zu Fermi Refresh.
Das geht mir momentan durch den Kopf.:confused:
VooDoo7mx
2013-01-07, 23:24:06
Na toll, das war es dann schon wieder mit der günstigen 680GTX - die Preise sind wieder beim Alten. Und ich war so kurz davor zuzuschnappen. Ich glaube auch nicht, dass sich da der Launch der nächste Generation angekündigt hat. Da hätte die Preissenkung auch andere Modelle und Händler betroffen.
Tja ich hab jetzt ne GTX 680 schon fast nen Jahr, andere Rennen immer noch den vermeintlichen Schnäppchen hinterher.
Einfach sich mal was gönnen und sone Kiste kaufen. Fertig
Wirklich billig werden die Karten erst wenn die Nachfolger länger am Markt sind, das war bisher immer so.
Gutes Datum, irgendwo in dem Bereich schätze die 7xx Serie nach heute auch.
Was anderes: Könnte es aus betriebswirtschaflicher Sicht irgend einen Sinn machen, den Konsumenten 15 SMXer und den Profis nur 13er und 14er zu verkaufen? Die Frage ist ja, was passiert mit den funktionierenden 15ern die Seit September produziert wurden und nicht in eine Tesla gewandert sind? Werden die vielleicht trotzdem als 14er verkauft, oder werden gesammelt um eine Geforce GTX 780 aufzulegen? Welcher Markt wird den größer sein, Highend Desktop oder Highend Server? Kenne nicht viele Leute mit GTX680 oder drüber.
Wenn sie eine K20x mit 15 SMX angeboten hätten, wäre wohl die Nachfrage sehr groß gewesen und niemand hätte mehr K20 mit 13 bestellt. Über den Preis hätte die Nachfrage natürlich geregelt werden können, aber warum dann überhaupt auflegen, wenn ich eh nicht liefern kann? Oder sind die 15er überhaupt kaputt wie schon bei der GTX 480? Wir hätten dann die selbe Situation, dass später noch sowas die die GTX 580 kommt mit voller Anzahl Einheiten und noch etwas mehr Takt, quasi Wiederholung von Fermi zu Fermi Refresh.
Das geht mir momentan durch den Kopf.:confused:
Vielleicht gibt es auch bisher kaum Chips die zufriedenstellend mit 15SMX laufen? Beim GF100 gab es weder bei Quadro,Tesla und GeForce Varianten mit Vollausbau. Selbst der K20X scheint es nur in sehr geringen Stückzahlen zu geben da dieser nur an einen Kunden ausgeliefert wird.
-------------------------------------------------------------
Kann es sein das vielleicht GK110 Consumer Produkte auf der GPU Technology Conference (http://www.gputechconf.com/page/registration-pricing.html) am 18-21.03.2013 vorgestellt werden? Vom Datum her könnte es ja passen...
Godmode
2013-01-07, 23:30:14
Tja ich hab jetzt ne GTX 680 schon fast nen Jahr, andere Rennen immer noch den vermeintlichen Schnäppchen hinterher.
Einfach sich mal was gönnen und sone Kiste kaufen. Fertig
Wirklich billig werden die Karten erst wenn die Nachfolger länger am Markt sind, das war bisher immer so.
-------------------------------------------------------------
Kann es sein das vielleicht GK110 Consumer Produkte auf der GPU Technology Conference (http://www.gputechconf.com/page/registration-pricing.html) am 18-21.03.2013 vorgestellt werden? Vom Datum her könnte es ja passen...
@1 volle Zustimmung. Kaufen wenn mans braucht und freuen. Hardware und warten führt meistens zu Ärgernis.
@2 haben sie zu dieser Zeit nicht letztes Jahr auch GTX 680 vorgestellt? Edit: War am 22.03.2011.
Hübie
2013-01-08, 01:33:55
Die ersten drei Shops dieser Listung gehören eh unter ein Dach. Sitzen alle in der Preußenstraße oben in Wilhelmshaven. Lieferbar war auch keines dieser Angebote. Also irgendwie klar oder? Da bestellt man nicht und zahlt schon gar nicht im Vorraus :rolleyes:
@VooDoo7mx: Also direkt auf der Konferenz wird wohl nix veröffentlicht. Entweder davor (wahrscheinlich) oder danach (unwahrscheinlich).
LG Hübie
Ailuros
2013-01-08, 11:52:12
Vielleicht gibt es auch bisher kaum Chips die zufriedenstellend mit 15SMX laufen? Beim GF100 gab es weder bei Quadro,Tesla und GeForce Varianten mit Vollausbau. Selbst der K20X scheint es nur in sehr geringen Stückzahlen zu geben da dieser nur an einen Kunden ausgeliefert wird.
Die erste Frage kann ich leider noch nicht beantworten, aber wie schon etliche Male erwaehnt lasst mir bitte die daemliche Parallele mit problematischer hw wie GF100 weg. Der interdie connect war kapputt und wurde innerhalb von Monaten schon im GF110 korrigiert. GF100 kam in Teslas nur mit 14 SMs an, desktop 15 SMs und GF110 Tesla/GeForce 16 SMs mit A1 tape out Silizium.
Es gibt keine einzelne Indizie dass es irgend einen hw bug in irgendwelchen Keplers gibt.
Hübie
2013-01-08, 12:03:39
Und noch einmal möchte ich betonen dass nVidia gerne Zusatzbezeichnungen ala Ultra wieder einführen würde. Eine GTX 780 Ultra wäre wieder mal so ein Prestigeobjekt mit vollem Ausbau und hohem Takt welches das NerdEnthusiasten-Lager mit den geringen Mengen die bei den yields abfallen dürften sicher gut abdeckt.
Wenn es keine vollwertigen Chips gibt hat nVidia einiges an Entwicklungsarbeit umsonst gemacht und TSMC scheiß gebaut.
Neurosphere
2013-01-08, 14:08:58
Liegt wohl auch daran weil AMD mit der GHz-Edition wieder was ähnliches gebracht hat.
Persönlich würde ich nicht erwarten das was ala "Ultra" kommt, aber evtl hast du einfach besseren Input.
boxleitnerb
2013-01-08, 14:11:00
Wobei AMD's "Ultra" im Schnitt gerade mal 50% vor einer GTX580 liegt. Wenn Nvidia das Ultra wieder auspackt, sollte die Leistung dahinter auch stimmen, sonst ist es peinlich :D
Hübie
2013-01-08, 14:43:03
Wenn ich so die Effizienzsteigerungen mit den neuen Kepler-Architekturen im wissenschaftlichen Bereich beobachte wäre es bei entsprechendem Takt nicht peinlich. Aber wie immer: Eine Frage der Kompromissbereitschaft.
Edit: @boxleitnerb: die Frage ist ja wo bei dir 50% sind? Meine Prozentdiskussion auf hwl hast du sicher bemerkt? ;) Laut ht4u sind es in 1440p 37% Differenz.
http://www.abload.de/img/performanceindex_ht4u7luk3.png (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index41.php)
Knuddelbearli
2013-01-08, 15:10:23
was dann 60% schneller bedeutet ^^
boxleitnerb
2013-01-08, 15:14:39
Computerbaserating, Techpoweruprating, techspot Artikel mit Cat. 12.11. ht4u fällt etwas aus der Reihe, wenn man sich die meisten anderen Artikel so anschaut.
Die Prozentdiskussion ist mir zu doof.
Palpatin
2013-01-08, 15:16:19
Wenn ich so die Effizienzsteigerungen mit den neuen Kepler-Architekturen im wissenschaftlichen Bereich beobachte wäre es bei entsprechendem Takt nicht peinlich. Aber wie immer: Eine Frage der Kompromissbereitschaft.
Edit: @boxleitnerb: die Frage ist ja wo bei dir 50% sind? Meine Prozentdiskussion auf hwl hast du sicher bemerkt? ;) Laut ht4u sind es in 1440p 37% Differenz.
http://www.abload.de/img/performanceindex_ht4u7luk3.png (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index41.php)
Ganz einfach die GTX 580 ist 37% langsamer als die 7970 GHZ, was im umkehrschluss bedeutet die 7970 ist um 58,7% schneller als die GTX 580.
Im PCGH-Index (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Grafikkarten-Tests-Bestenliste-Radeon-und-Geforce-678322/) über drei Auflösungen ist die HD 7970 GHz Edition übrigens nur ~40 Prozent schneller als die GTX 580 (entspricht dort ziemlich genau der 660 Ti) – das liegt aber am Einfluss von 1.680x1.050 und Full-HD, in 2.560x1.600 sind's ~56 Prozent.
MfG,
Raff
Knuddelbearli
2013-01-08, 15:25:10
und wenn man 1024*768 dazunimmt sinds noch weniger ;-) ^^
boxleitnerb
2013-01-08, 15:26:04
Fast doppelt so schnell sollte es schon sein, um Ultra draufzuschreiben. Das hier war noch was:
http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/24/
und wenn man 1024*768 dazunimmt sinds noch weniger ;-) ^^
Das hängt übrigens nur minimal an einem CPU-Limit – in Low-Res stinkt GCN nun mal, während Fermi und Kepler sprinten.
MfG,
Raff
Skysnake
2013-01-08, 15:34:55
Wobei ich mich schon frage, welche Relevanz heutzutage noch die Werte einer derartigen Karte bei <FullHD haben. So was setzt doch wirklich keiner mehr bei solch einer Karte ein, und selbst wenn macht es doch praktisch absolut keinen Unterschied mehr, ob da jetzt paar Prozent unterschied sind oder nicht.
DavChrFen
2013-01-08, 15:47:35
Und noch einmal möchte ich betonen dass nVidia gerne Zusatzbezeichnungen ala Ultra wieder einführen würde. Eine GTX 780 Ultra wäre wieder mal so ein Prestigeobjekt mit vollem Ausbau und hohem Takt welches das NerdEnthusiasten-Lager mit den geringen Mengen die bei den yields abfallen dürften sicher gut abdeckt.
Wenn es keine vollwertigen Chips gibt hat nVidia einiges an Entwicklungsarbeit umsonst gemacht und TSMC scheiß gebaut.
Eine Ultra wäre auch mal wieder was. Aber der Prozess und damit die Yields werden auch immer besser und damit hätte man IMHO zu viele voll funktionsfähige Kepler für die par Ultra-Karten. Auf der anderen Seite heißt voll funktionsfähig nicht, dass die Chips einen für Ultra angemessenen Takt mitmachen. OK, doch zuerst Ultra und dann, wenn zuviele voll funktionsfähige Chips rumliegen, eine TI mit weniger Takt als die Ultra rausbringen?
Hübie
2013-01-08, 16:02:26
Im PCGH-Index (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Grafikkarten-Tests-Bestenliste-Radeon-und-Geforce-678322/) über drei Auflösungen ist die HD 7970 GHz Edition übrigens nur ~40 Prozent schneller als die GTX 580 (entspricht dort ziemlich genau der 660 Ti) – das liegt aber am Einfluss von 1.680x1.050 und Full-HD, in 2.560x1.600 sind's ~56 Prozent.
MfG,
Raff
1920x1080 sowie 2560x1440 sind aber häufiger vertreten als 1680x1050 und 2560x1600 :P
Für mich sind 100% immer das was ganz oben steht. Mathematik hat nichts mit Standpunkt zu tun.
@Palpatin: Korrekt.
@Skysnake: Ja selbst der letzte Lude hat nun verstanden dass man kein Bullauge mehr als Guckloch haben braucht um SGSSAA voll auszufahren :D
Die meistgenutzte Auflösung ist jedoch 1366×768. Man mag es nicht glauben ;D Tablets/Notebooks sei dank. Bei Zockern dürften es aber FullHD & 1440p sein.
Knuddelbearli
2013-01-08, 20:18:33
Das hängt übrigens nur minimal an einem CPU-Limit – in Low-Res stinkt GCN nun mal, während Fermi und Kepler sprinten.
MfG,
Raff
war ja klar das du das so siehst und nicht das AMD unter hires rockt ^^
M4xw0lf
2013-01-08, 21:29:37
war ja klar das du das so siehst und nicht das AMD unter hires rockt ^^
Deshalb schafft Raff sicher auch noch eine GTX680 für schickes low-res-gaming an (Stichwort "Upsampling"! :freak:), für alles andere hat er eine 7970 :tongue:
Knuddelbearli
2013-01-08, 21:52:43
^^ so war es auch wieder nicht gemeint ^^
fällt mir in letzter zeit nur massiv auf das auch bei neutralen leuten amd sachen eher negativ klingen und nv eher positiv
aufkrawall
2013-01-08, 22:02:39
Ich finde nicht, dass SI bei PCGH schlecht wegkommt.
M4xw0lf
2013-01-08, 22:04:19
fällt mir in letzter zeit nur massiv auf das auch bei neutralen leuten amd sachen eher negativ klingen und nv eher positivDas liegt hier wohl eher an deiner Wahrnehmung ;)
aufkrawall
2013-01-08, 22:06:44
Das liegt hier wohl eher an deiner Wahrnehmung ;)
Nö. ;)
Wenn z.B. beschrieben wird, wie man auf Radeons bei Dishonored SGSSAA einschalten kann, und außen vor lässt, wie das bei Nvidia geht (halt inoffiziell, aber dafür besser), dann finde ich das nicht sonderlich unfair für AMD.
Knuddelbearli
2013-01-08, 22:30:58
Das liegt hier wohl eher an deiner Wahrnehmung ;)
ich bin sicher nicht neutral ^^
sogar leicht pro amd, hat aber reine rationale gründe da ich am liebsten eine 50:50 aufgeteilten markt hätte ^^
und das was ich da schreib fiel halt zuletzt ziemlich auf. Was ist zB der Grund dafür das amd angeblich unter low res schlechter ist anstatt unter hires einfach besser?
trotzdem liest man immer von einer low ress schwäche statt einer hires stärke. Und solche Kleinigkeiten haben auf den unbedarften user eine menge Auswirkung!
aufkrawall
2013-01-08, 22:33:39
Gibt doch kaum lowres Benches, hires schon.
Godmode
2013-01-08, 23:07:53
Gibt doch kaum lowres Benches, hires schon.
Vor allem sieht sich das eh fast kein Mensch an. Ich denke FullHD ist momentan Standard.
Knuddelbearli
2013-01-08, 23:10:33
naja für Konsolen wäre es interessant :freak:
boxleitnerb
2013-01-09, 08:51:14
^^ so war es auch wieder nicht gemeint ^^
fällt mir in letzter zeit nur massiv auf das auch bei neutralen leuten amd sachen eher negativ klingen und nv eher positiv
Les mal die Erklärung von fondness im HD8000 Thread, da haben wir kürzlich drüber diskutiert.
aufkrawall
2013-01-09, 15:40:25
Les mal die Erklärung von fondness im HD8000 Thread, da haben wir kürzlich drüber diskutiert.
Ja, dass AMD eine lowres-Schwäche hat, ist halt eher eine technische Formulierung.
Damit muss man in einem Forum wie 3DCenter aber rechnen, kann ja nicht jede Äußerung unmissverständlich für Nicht-Cracks umgeschrieben werden.
Aus pragmatischer Sicht ist klar, dass AMD eine Stärke bei hohen Auflösungen hat.
Godmode
2013-01-14, 11:25:03
Überall im Netz ist es recht ruhig um GK110 geworden, wann gibt es endlich Neuigkeiten? :confused:
M4xw0lf
2013-01-14, 11:55:52
When it's done. :tongue:
Godmode
2013-01-14, 12:18:04
When it's done. :tongue:
Ok dann lasst uns etwas rechnen bis das schöne Ding fertig ist. ;D
Hab mir gerade angesehen wie sich die Tesla zu den Geforces im Takt unterscheiden:
!Achtung: Die dortigen Werte für K20 stimmen nicht. Tabelle ist nur für das Verhältnis 690/K10 nützlich.
http://technewspedia.com/wp-content/uploads/2012/05/GK110-especs-CHW.jpg
690 = 915 MHz
K10 = 788 MHz
690/K10 = 1.161 dh. die 690 hat den 1.161 fachen Takt von der K10
Wird wohl so sein, weil bei den Profilösungen eine viel höhere Rechenzuverlässigkeit erreicht werden muss, bzw. die TDP mehr beschränkt ist.
Den Takt von GK110 für Teslas, also K20 haben wir auch schon. Ich nehme hier K20x weil das die schnellste erhältliche Lösung ist:
K20x = 732 MHz
Auf diesen Takt wenden wir jetzt den oben berechneten Faktor an:
732 Mhz * 1.161 = 850 MHz
Interessant oder? Das ist genau der Takt, der schon seit fast Anfang an im 1. Post steht. Mit dieser Frequenz würden wir folgenden GK110 erhalten:
http://www.abload.de/img/screenshot2013-01-14asnebn.png
Damit haben wir wieder eine Grundlage und können nun über die Leistung diskutieren.
edit:
DP in der Tabelle kann man ignorieren, die werden bei der Desktopvariante sicher beschränkt werden. Aber Bandbreite, SP Leistung und Bandbreite steigen im Schnitt um 50% was dann auch in 50% mehr Leistung enden sollte.
Oder mehr oder weniger. GK110 ist einfach kein aufgepumpter GK104, er ist anders. Wie sich das in Spielen auswirkt wage ich nicht zu beurteilen. Einfach auhc weil ich nicht sagen kann wie weit NV die Möglichkeiten bei der TDP ausreizen wird.
Godmode
2013-01-14, 13:09:22
Oder mehr oder weniger. GK110 ist einfach kein aufgepumpter GK104, er ist anders. Wie sich das in Spielen auswirkt wage ich nicht zu beurteilen. Einfach auhc weil ich nicht sagen kann wie weit NV die Möglichkeiten bei der TDP ausreizen wird.
Natürlich, das ist oben gar nicht berücksichtigt (größere Caches, allgemeine Verbesserungen, ...). Es wird sicher "Szenarien" geben wo GK110 viel schneller ist als nur 50%.
Gaestle
2013-01-14, 13:12:06
Die 50% (+/-) Mehrleistung würden ja auch Marktsegmenttechnisch passen.
Diese Erwartung wurde aber schon seit Anfang 2012 von verschiedenen Usern fomuliert und zwischenzeitlich auch immer wieder ohne Widerspruch verwendet.
In manchen Szenarien werden es etwas weniger als 50% sein, in anderen Szenarien deutlich mehr. Aber insgesamt sind sicher im Schnitt 50% zu erwarten.
Edit: Mist, zu langsam getippt.
boxleitnerb
2013-01-14, 13:18:27
Da wohl nichts mehr vor Maxwell kommt außer eben GK110, sollte er im Schnitt die Verdopplung zur 580 gut schaffen können. Das wäre dann echtes Highend, nicht sowas Halbgares wie die 680 oder was Viertelgares wie die 7970 GHz.
Gaestle
2013-01-14, 13:25:00
Genau. Und dann wären es eben auch ca. 50% (+/-) über der 680GTX.
Timbaloo
2013-01-14, 13:31:39
690/K10 = 1.161 dh. die 690 hat den 1.161 fachen Takt von der K10
Wird wohl so sein, weil bei den Profilösungen eine viel höhere Rechenzuverlässigkeit erreicht werden muss, bzw. die TDP mehr beschränkt ist.
Den Takt von GK110 für Teslas, also K20 haben wir auch schon. Ich nehme hier K20x weil das die schnellste erhältliche Lösung ist:
K20x = 732 MHz
Auf diesen Takt wenden wir jetzt den oben berechneten Faktor an:
732 Mhz * 1.161 = 850 MHz
Würde aber auch heissen, dass man die 300W tdp deutlich reisst. Und das kann ich mir nicht so ganz vorstellen.
Godmode
2013-01-14, 13:34:08
Würde aber auch heissen, dass man die 300W tdp deutlich reisst. Und das kann ich mir nicht so ganz vorstellen.
Das ist die Frage, aber da wir deutlich weniger Speicher auf dem Desktop haben, könnte alles noch innerhalb von 300W liegen.
boxleitnerb
2013-01-14, 13:43:25
Geht doch von K20(X) aus, MultiGPU mit SingleGPU zu vergleichen ist weniger hilfreich. Mit 3GB dürfte K20X wohl bei 210W liegen in etwa, da 40W drauf für höheren Takt und passt. Mehr wie 250 wirds mMn nicht.
Godmode
2013-01-14, 13:59:45
Geht doch von K20(X) aus, MultiGPU mit SingleGPU zu vergleichen ist weniger hilfreich. Mit 3GB dürfte K20X wohl bei 210W liegen in etwa, da 40W drauf für höheren Takt und passt. Mehr wie 250 wirds mMn nicht.
Wo vergleichen wir den MultiGPU mit SingleGPU?
boxleitnerb
2013-01-14, 14:04:48
Achso du hast das nur für den Faktor genommen. Dann gehts. Wie timbaloo auf die 300+W kommt, weiß ich dann nicht.
Timbaloo
2013-01-14, 14:09:51
Ich hab die 300W für K20 aus der Tabelle von godmode gelesen. Wobei das ja schon nicht stimmen kann.
Godmode
2013-01-14, 14:11:39
Ich hab die 300W für K20 aus der Tabelle von godmode gelesen. Wobei das ja schon nicht stimmen kann.
Die Tabelle wurde nur für das Verhältnis 690/K10 verwendet. K20X Daten hab ich von Anandtech:
http://www.anandtech.com/show/6446/nvidia-launches-tesla-k20-k20x-gk110-arrives-at-last
boxleitnerb
2013-01-14, 14:16:18
Schon beeindruckend. Ggü. der M2090 hat man die SP-Leistung verdreifacht, die Bandbreite um 40% erhöht und auch deutlich mehr Texelfüllrate. Und die TDP ist sogar gesunken um 15W. Sieht also sehr gut aus - jetzt müssen nur endlich mal Infos kommen :D
Godmode
2013-01-14, 14:18:15
Schon beeindruckend. Ggü. der M2090 hat man die SP-Leistung verdreifacht, die Bandbreite um 40% erhöht und auch deutlich mehr Texelfüllrate. Und die TDP ist sogar gesunken um 15W. Sieht also sehr gut aus - jetzt müssen nur endlich mal Infos kommen :D
Ja verdammt nochmal, mich regt das furchtbar auf.
http://www.geekzenith.com/wp-content/uploads/2012/08/shut-up-and-take-my-money.jpeg
boxleitnerb
2013-01-14, 14:27:29
Wie könnte sich denn der vergrößerte L2-Cache auf die Performance in Spielen auswirken? Gibt es noch andere interne Caches, die vergrößert wurden?
Godmode
2013-01-14, 14:30:06
Wie könnte sich denn der vergrößerte L2-Cache auf die Performance in Spielen auswirken? Gibt es noch andere interne Caches, die vergrößert wurden?
Was die anderen Caches angeht bin ich mir nicht sicher, aber L2 müsste das SI weiter entlasten, oder?
boxleitnerb
2013-01-14, 14:37:49
Schon möglich, hängt ja direkt an den ROPs.
Was mich interessieren würde ist, wie hoch die effektive Pixelfüllrate bei GK110 ist. Gehen 32 Farbsamples/Takt oder die vollen 48? Bei Fermi waren es nur 32.
Gipsel
2013-01-14, 16:24:28
Schon möglich, hängt ja direkt an den ROPs.
Was mich interessieren würde ist, wie hoch die effektive Pixelfüllrate bei GK110 ist. Gehen 32 Farbsamples/Takt oder die vollen 48? Bei Fermi waren es nur 32.
Die Export-Beschraenkung auf zwei Pixel pro SM und Takt bei Fermi (allerdings nur bei 32bit pro Pixel Farbformat, bei 64bit pro Pixel und sogar auch bei RGBA 10/10/10/2 ging nur noch eines pro Takt, bei 32bit pro Kanal [128 bit pro Pixel] nur noch alle zwei Takte eins) wurde bei Kepler offenbar mindestens verdoppelt (sonst haette man bei GK104 mit nur 7 oder 8 SMXs das deutlich gemerkt). Insofern koennte ein voller GK110 mit 15 SMXs wohl mindestens 60 32bit-Pixel an die ROPs durchreichen (was mehr ist, als 48 ROPs verarbeiten koennen). Es sollte also keine Einschraenkung mehr darstellen (falls der Export aus den SMX und die Anbindung der ROPs bei Kepler nicht sowieso anders aussehen).
Uebrigens muessen die ROPs nicht unbedingt am L2 haengen. Bei AMD haben die ROPs vollkommen eigene, zusaetzliche Caches (die L2-Groesse skaliert auch nicht mit der ROP-Anzahl, sondern mit der Groesse des Speicherinterfaces, das ist ja bekanntlich bei AMD unabhaengig).
Hübie
2013-01-14, 18:56:37
Wann/wo sind denn 128 bpp der Fall? :|
Nightspider
2013-01-14, 21:41:32
Hoffentlich kommt GK110 gut mit 4K Auflösungen zurecht. Bei mir wird garantiert innerhalb der Lebensdauer vom GK110 ein 4K Display angeschafft.
boxleitnerb
2013-01-14, 21:47:37
Wozu, macht die Grafik auch nicht besser ;)
Dieser 4K-Wahn sollte endlich mal aufhören. Downsampling als Notnagel für fehlendes AA ist ja noch ok, aber abgesehen davon macht 4K erstmal keinen Sinn. Wir bekommen dadurch nicht mehr Polygone, bessere Texturen oder schönere Effekte. Im Gegenteil: Es kostet dermaßen viel Performance, dass man soviel abschalten muss, dass die Spiele dann viel schlechter aussehen als vorher. Nicht die Auflösung macht gute Grafik, sondern das, was dargestellt wird. Ich kann schließlich einen hässlichen Kerl in Ultraschießmichtot-HD fotografieren, er bleibt trotzdem hässlich ;D
aufkrawall
2013-01-14, 21:48:16
Hoffentlich kommt GK110 gut mit 4K Auflösungen zurecht. Bei mir wird garantiert innerhalb der Lebensdauer vom GK110 ein 4K Display angeschafft.
Ail hatte schon mal angedeutet, dass dort, wo GK104 schwächelt, wohl die größten Steigerungen zu erwarten sein werden.
Für Spiele mit 4k wirst du aber garantiert trotzdem Multi-GPU brauchen, um nicht auf zu viel Eyecandy verzichten zu müssen.
Edit: boxleitnerb, die Texturen werden ja schon detailreicher und weniger Aliasing gibts durch höhere Pixeldichte auch.
Aber niedrigere Auflösung und vernünftiges AA wären sicher besser, jo.
boxleitnerb
2013-01-14, 21:52:49
Das kommt auf die Texturen an, die haben ja auch nur eine endliche Auflösung. Den direkten Vergleich hab ich aber zugegebenermaßen nicht. Soweit das hier im Forum diskutiert wurde, braucht man auch bei hohen Pixeldichten immer noch AA. Höchst ineffizient ist diese Methode sowieso.
Nightspider
2013-01-14, 21:53:46
Wozu, macht die Grafik auch nicht besser ;)
Dieser 4K-Wahn sollte endlich mal aufhören. Downsampling als Notnagel für fehlendes AA ist ja noch ok, aber abgesehen davon macht 4K erstmal keinen Sinn. Wir bekommen dadurch nicht mehr Polygone, bessere Texturen oder schönere Effekte. Im Gegenteil: Es kostet dermaßen viel Performance, dass man soviel abschalten muss, dass die Spiele dann viel schlechter aussehen als vorher. Nicht die Auflösung macht gute Grafik, sondern das, was dargestellt wird. Ich kann schließlich einen hässlichen Kerl in Ultraschießmichtot-HD fotografieren, er bleibt trotzdem hässlich ;D
Blödsinn. Die Detailfülle ist viel höher in 4K, gerade auf Entfernung siehst du deutlich besser und scharf.
Der Unterschied ist riesig. Wenn du das nicht siehst solltest du zum Optiker.
Und mit zwei GK110 braucht man auch keine Details runterschrauben und kann alles @ maxed max genießen.
boxleitnerb
2013-01-14, 21:57:34
Kein Blödsinn. Spiel mal Quake 3 in 4K und vergleiche das mit aktuellen Spielen in 1080p. Du drittelst mit 4K die Performance ggü. 1080p. Mit soviel Reserve könnte man schon Next-Next-Gen Grafik flüssig darstellen. Auf Entfernung mag es Unterschiede geben, aber die stehen in keinem Verhältnis zum Leistungsverlust. Ich weiß ja nicht, wie andere spielen, aber ich schaue eher auf das, was ich vor der Nase habe. Und wenn die Felsenmauer platt (Skyrim) und die Texturen matschig (Rage) sind oder die Umgebung weiterhin statisch ist, ändert 4K auch nix dran.
Was meinst du, warum ein Film auf Bluray noch um Welten besser aussieht als das beste Spiel? Trotz nur 1080p? Dorthin wollen wir, nicht mittelmäßige Grafik mit PPI aufpumpen. Höhere Auflösungen sind auf lange Sicht natürlich gut, aber dafür muss auch der Content stimmen, damit sich das richtig lohnt.
fondness
2013-01-14, 22:09:25
Wozu, macht die Grafik auch nicht besser ;)
Dieser 4K-Wahn sollte endlich mal aufhören. Downsampling als Notnagel für fehlendes AA ist ja noch ok, aber abgesehen davon macht 4K erstmal keinen Sinn. Wir bekommen dadurch nicht mehr Polygone, bessere Texturen oder schönere Effekte. Im Gegenteil: Es kostet dermaßen viel Performance, dass man soviel abschalten muss, dass die Spiele dann viel schlechter aussehen als vorher. Nicht die Auflösung macht gute Grafik, sondern das, was dargestellt wird. Ich kann schließlich einen hässlichen Kerl in Ultraschießmichtot-HD fotografieren, er bleibt trotzdem hässlich ;D
Es macht einen gigantischen Unterschied. Und nein bei solchen Pixeldichten braucht man IMO zwingend kein AA mehr. Mein Zenbook Prime ist ein Traum mit den full-hd auf 13", wenn ich da auf meinen Desktop mit derselben Auflösung bei fast doppelten Diagonale Wechsle kann man plötzlich Pixel zählen. Alleine schon aufgrund der 2D Darstellung, für Spiele ist das NB leider größtenteils zu schwach.
aufkrawall
2013-01-14, 22:10:51
Es macht einen gigantischen Unterschied. Und nein bei solchen Pixeldichten braucht man IMO zwingend kein AA mehr. Mein Zenbook Prime ist ein Traum mit den full-hd auf 13", wenn ich da auf meinen Desktop mit derselben Auflösung bei fast doppelten Diagonale Wechsle kann man plötzlich Pixel zählen.
Gegen Geflimmer braucht man trotzdem noch SGSSAA, wenn natürlich auch weniger.
Sieht man etwa bei einigen UE3-Spielen auf Smartphones.
fondness
2013-01-14, 22:13:21
Gegen Geflimmer braucht man trotzdem noch SGSSAA, wenn natürlich auch weniger.
Sieht man etwa bei einigen UE3-Spielen auf Smartphones.
SSAA macht auch nichts anderes als mehr Pixel zu verrechnen, das erreiche ich genau so mit höherer Auflösung (OG-SSAA ist im Grunde auch nichts anderes als höhere Auflösung). Kann natürlich in manchen fällen sein das 4K immer noch nicht genug sind, das entspricht aber immerhin eine doppelten so feinen Abtastung in beiden Richtungen ggü. heutigen Displays, also faktisch 2x2 OG-SSAA.
boxleitnerb
2013-01-14, 22:14:37
Es macht einen gigantischen Unterschied. Und nein bei solchen Pixeldichten braucht man IMO zwingend kein AA mehr. Mein Zenbook Prime ist ein Traum mit den full-hd auf 13", wenn ich da auf meinen Desktop mit derselben Auflösung bei fast doppelten Diagonale Wechsle kann man plötzlich Pixel zählen. Alleine schon aufgrund der 2D Darstellung, für Spiele ist das NB leider größtenteils zu schwach.
Wir reden hier über Spiele, ich jedenfalls. Da sehe ich keinen "gigantischen" Unterschied. Ich hab ja auch erklärt warum. Und natürlich braucht man noch AA. Beim Standbild magst du Recht haben, aber in Bewegung kannst du Artefakte nicht verhindern. Haben wir hier im Forum doch schonmal durchgenudelt vor einiger Zeit, einfach mal suchen.
SGSSAA != OGSSAA. SGSSAA ist immer besser, das EER ist höher. Und OGSSAA ist auch nicht eine höhere Auflösung. Bei einer höheren Auflösung ist die Pixeldichte einfach höher, bei OGSSAA wird dagegen gefiltert, was Aliasing besser bekämpft.
@Diablo 3:
Das ist nun auch kein Spiel, das von Haus aus sonderlich viel flimmert. Da gibt es ganz andere Kandidaten ;)
fondness
2013-01-14, 22:17:20
Wir reden hier über Spiele, ich jedenfalls. Da sehe ich keinen "gigantischen" Unterschied. Ich hab ja auch erklärt warum. Und natürlich braucht man noch AA. Beim Standbild magst du Recht haben, aber in Bewegung kannst du Artefakte nicht verhindern. Haben wir hier im Forum doch schonmal durchgenudelt vor einiger Zeit, einfach mal suchen.
Ich habe auf meinen NB nur Diablo 3 installiert aber wenn ich das in full-hd spiele benötige ich definitiv kein AA mehr. Aber okay ist nicht jeder gleich sensibel bei solchen Dingen.
y33H@
2013-01-14, 22:21:02
Eine höhere Pixeldichte ist absolut kein Argument gegen Aliasing.
aufkrawall
2013-01-14, 22:21:56
@Diablo 3:
Das ist nun auch kein Spiel, das von Haus aus sonderlich viel flimmert. Da gibt es ganz andere Kandidaten ;)
Crysis 1 & 2 dürften ziemlich hardcore sein. :D
fondness
2013-01-14, 22:23:57
Eine höhere Pixeldichte ist absolut kein Argument gegen Aliasing.
Natürlich ist es ein Argument. Je feiner ich Abtaste umso eher kann ich Aliasing verhindern. Wenn ich unendlich fein Abtaste kann ich kein Aliasing mehr haben, egal bei welcher Frequenz.
Ein ordentlicher Filter für ein "perfektes" Bild in der Praxis natürlich wichtig, nur da fällt der Boxfilter eigentlich auch schon durch.
Nightspider
2013-01-14, 22:31:03
Um der sinnfreien Diskussion mal etwas Wind aus den Segeln zu nehmen:
Mit zwei GK110 hast du jetzt (bald) die Möglichkeit in 4K deine Optik aufzuwerten.
Aber du kannst nicht mit GK110 Karten mehr Details bei BF3 zuschalten.
Ultra bleibt Ultra, höher gehen die Settings nicht. Aber mit 4K kannst du die Leistung sinnvoll verbraten, die dir mit GK110 Karten zur Verfügung steht und hast dadurch spielerische Vorteile, da du auf Distanz besser Gegner ausmachen kannst und weil eben alles viel knackiger aussieht.
Hast du schon mal 4K ausprobiert? Alleine bei DS mit 4K ist der Unterschied schon riesig bei Spielen wie Crysis, Battlefield oder Anno. Die Detaildichte steigt extrem.
aufkrawall
2013-01-14, 22:33:48
Aber mit 4K kannst du die Leistung sinnvoll verbraten, die dir mit GK110 Karten zur Verfügung steht und hast dadurch spielerische Vorteile, da du auf Distanz besser Gegner ausmachen kannst und weil eben alles viel knackiger aussieht.
Das kannst du bei BF3 leider vergessen, denn die unfähigen Entwickler lassen das HUD nicht mitskalieren.
Dann sieht man auf der Minimap nichts mehr und auch das Spawnen dürfte schon eine kleine Herausforderung werden. :freak:
Nightspider
2013-01-14, 22:53:43
Naja ganz unspielbar ist es nun nicht. Die Minimap kannst du durch die große Map ersetzen, welche hinterher nur wenig größer ist als die normale Minimap.
Zudem werden viele nervige Symbole im Spiel deutlich kleiner was auch angenehm ist.
Natürlich hast du aber recht das andere wichtige Anzeigen dann zu klein sind aber vllt kommt dafür mal nen Mod oder Patch. ;)
aufkrawall
2013-01-14, 22:58:17
Natürlich hast du aber recht das andere wichtige Anzeigen dann zu klein sind aber vllt kommt dafür mal nen Mod oder Patch. ;)
Der wird kostenpflichtig und heißt BF4. :freak:
Die haben bis heute noch so gut wie nichts an der kaputten Grafik im MP gefixt und da gäbe es wirklich einiges zu tun.
/OT
Diese "Meisterleistung" kann man aber einfach nicht genug bashen. :(
Gipsel
2013-01-15, 00:55:37
Wann/wo sind denn 128 bpp der Fall? :|
Bei (richtigem) HDR-Rendering. Die 64Bit pro Pixel (16 Bit pro Komponente) sind ja eher Medium Dynamic Range statt High Dynamic Range ;). Die Shader rechnen sowieso praktisch alles mit 32 Bit Fliesskomma. Wenn man das direkt so in einen Frambuffer mit der Farbaufloesung rausschreibt, hat man 128bit pro Pixel.
del_4901
2013-01-15, 01:57:29
Bei (richtigem) HDR-Rendering. Die 64Bit pro Pixel (16 Bit pro Komponente) sind ja eher Medium Dynamic Range statt High Dynamic Range ;). Die Shader rechnen sowieso praktisch alles mit 32 Bit Fliesskomma. Wenn man das direkt so in einen Frambuffer mit der Farbaufloesung rausschreibt, hat man 128bit pro Pixel.
ARGB16F wuerde ich schon als HDR bezeichen. Das ist mehr als genug, solange Art-Department richtig arbeitet. Unter MDR fallen so Sachen wie RGB10A2 Formate oder LogLUV, RGBM. ARGB32 benutzt eigentlich niemand, ausser fuer single channel Depth.
Hübie
2013-01-15, 02:30:01
Bei (richtigem) HDR-Rendering. Die 64Bit pro Pixel (16 Bit pro Komponente) sind ja eher Medium Dynamic Range statt High Dynamic Range ;). Die Shader rechnen sowieso praktisch alles mit 32 Bit Fliesskomma. Wenn man das direkt so in einen Frambuffer mit der Farbaufloesung rausschreibt, hat man 128bit pro Pixel.
Also eigentlich nicht Praxis-relevant. Ich kenne halt nur das "medium" (;D) dynamic range. 48 ROPs wären für GK110 also theoretisch ausreichend um eine konstante Auslastung zu erreichen?
@Art-Department: Was bitte ist Art-Department? :confused:
Screemer
2013-01-15, 02:44:33
die texturbastler ;)
Hübie
2013-01-15, 02:46:20
Ding-Dong. Keiner zuhause ;D Also manchmal frag ich mich auch was bei mir im Kopf los ist ;D Danke! Bei Deus Ex: Human Revolution wars ja nicht so der Fall.
del_4901
2013-01-15, 03:06:50
die texturbastler ;)
Besonders die Textur- und Shader-Bastler. Wenn sie dann anfangen in einer HDR Pipeline die unteren und oberen 10-25% im Histogramm einer Textur zu benutzen beim Colorgrading noch irgendwelche Faxen machen. Und sich dann noch ueber Banding beschweren koennte ich jedesmal schreien. Schwarz wird auch gern verwendet denn es muss ja im Maya Viewport schon aussehen wie in der Engine.
Wenn man dann noch Ihnen einen Node basierten Material Editor in die Hand gibt, faengt der Spass erst richtig an. Da gibt es dann gern mal kaputte Normalen (Null ist mein ganz persoehnlicher Favorit) etc. und fragen wie: "Warum bewegt sich die Textur wenn ich die Kamera bewege?".
Naja immerhin kann ich noch drueber lachen, so schlimm kann es also noch nicht sein.
Hübie
2013-01-15, 03:53:17
Schwingt da Sarkasmus mit? ;)
Gipsel
2013-01-15, 05:40:11
Also eigentlich nicht Praxis-relevant. Ich kenne halt nur das "medium" (;D) dynamic range. 48 ROPs wären für GK110 also theoretisch ausreichend um eine konstante Auslastung zu erreichen?Zur Praxisrelevanz: Ich wollte nur vollstaendig mit den Angaben sein. Die GPUs unterstuetzen halt auch 128bit pro Pixel. Dass das kaum verwendet wird, steht ja auf einem anderen Blatt.
Und zur ROP-Anzahl: Andersrum wird ein Schuh draus. Fermi konnte die 48 ROPs wegen der Exportbeschraenkung nur recht selten wirklich gut ausnutzen, die ROPs haben also eigentlich immer Daeumchen gedreht. Da diese Beschraenkung bei Kepler keine Rolle mehr spielt, koennte GK110 wohl bis zu ~60 ROPs versorgen (vorausgesetzt, die Exportbeschraenkung existiert noch in aehnlicher Weise wie bei Fermi). GK110 kann also vermutlich 48 ROPs ohne groessere Probleme auslasten.
@AlphaTier:
Der Smiley hinter medium dynamic range stand nicht umsonst da ;). Allerdings nutzen einige HDR-Formate wie pfm/pbm allerdings sehr wohl 32Bit floats pro Komponente. Und die Probleme von denen Du sprachst, treten erst sehr viel spaeter auf.
boxleitnerb
2013-01-15, 06:31:18
Um der sinnfreien Diskussion mal etwas Wind aus den Segeln zu nehmen:
Mit zwei GK110 hast du jetzt (bald) die Möglichkeit in 4K deine Optik aufzuwerten.
Aber du kannst nicht mit GK110 Karten mehr Details bei BF3 zuschalten.
Ultra bleibt Ultra, höher gehen die Settings nicht. Aber mit 4K kannst du die Leistung sinnvoll verbraten, die dir mit GK110 Karten zur Verfügung steht und hast dadurch spielerische Vorteile, da du auf Distanz besser Gegner ausmachen kannst und weil eben alles viel knackiger aussieht.
Hast du schon mal 4K ausprobiert? Alleine bei DS mit 4K ist der Unterschied schon riesig bei Spielen wie Crysis, Battlefield oder Anno. Die Detaildichte steigt extrem.
Es werden ja hoffentlich noch besser aussehende Spiele kommen, die dann wieder höhere Anforderungen haben. Und nochmal: Downsampling ist nicht gleicht 4K. Dein Monitor kann damit nicht mehr Pixel darstellen, durch das Filtern gehen viele Informationen wieder verloren. Wenn ein Gegner auf Entfernung 30 Pixel hoch ist, ist er das auch mit Downsampling noch.
Nightspider
2013-01-15, 06:40:52
Ich habe auch nichts anderes behauptet.
boxleitnerb
2013-01-15, 07:10:34
Wie kann etwas "knackiger" aussehen, wenn die zusätzlichen Details in der Renderauflösung weggefiltert und nicht angezeigt werden? Und die Detaildichte kann auch nicht "extrem" ansteigen, wenn diese Details einfach nicht dargestellt werden können. Das hast du aber behauptet.
Bei nativ 4K sieht das natürlich anders aus, wobei es wie gesagt bei aktueller Grafik nur auf höhere Entfernung einen richtigen Unterschied machen würde und die Effekte und Modelle natürlich nicht besser macht. Mir wäre es lieber, wenn die Anforderungen zuerst durch bessere Grafik ansteigen, nicht durch besser dargestellte unveränderte Grafik. Die Auflösung kann man später immer noch erhöhen, wenn der Content das rechtfertigt.
del_4901
2013-01-15, 08:46:59
Der Smiley hinter medium dynamic range stand nicht umsonst da ;). Allerdings nutzen einige HDR-Formate wie pfm/pbm allerdings sehr wohl 32Bit floats pro Komponente. Und die Probleme von denen Du sprachst, treten erst sehr viel spaeter auf.
HDR Photographie/Bildbearbeitung hat mit HDR Rendering eigentlich nichts gemeinsam, das ist mit einer der Gruende warum Artits die Dinge manchmal so machen wie sie es "gewohnt" sind.
robbitop
2013-01-15, 08:58:37
Also Raff ist von 4K extremst begeistert (schaut mal bei youtube in den PCGH Channel) - und der ist eine Grafikhure, wie wir wissen. :D
Schaut euch die Videos mal an - sehen tut man es halt nicht (wie auch?) - aber er scheint aus dem Staunen kaum rauszukommen. Auflösung ist schon was Feines.
Godmode
2013-01-15, 09:08:57
Also Raff ist von 4K extremst begeistert (schaut mal bei youtube in den PCGH Channel) - und der ist eine Grafikhure, wie wir wissen. :D
Schaut euch die Videos mal an - sehen tut man es halt nicht (wie auch?) - aber er scheint aus dem Staunen kaum rauszukommen. Auflösung ist schon was Feines.
Ist wohl das selbe wie die Epic Citadel Demo von Epic auf nem iPhone 4 oder anderwertigem Gerät mit hoher PPI. Als ich das das erste Mal gesehen hab, sind mir die Augen ziemlich rausgefallen.
fondness
2013-01-15, 09:13:39
Also Raff ist von 4K extremst begeistert (schaut mal bei youtube in den PCGH Channel) - und der ist eine Grafikhure, wie wir wissen. :D
Schaut euch die Videos mal an - sehen tut man es halt nicht (wie auch?) - aber er scheint aus dem Staunen kaum rauszukommen. Auflösung ist schon was Feines.
Wundert mich nicht. Eine zu geringe Samplerate ist der Grund für Aliasing und flimmernde Texturen, das versucht man zwar mit allen möglichen Tricks zu kompensieren, aber nichts geht über eine höhere Abtastrate (die ich dann auch darstellen kann) um das Originalsignal zu rekonstruieren.
robbitop
2013-01-15, 09:13:59
Das wird aber ein riesiger Sprung werden, den die Anforderungen an die Grafikkarten dann stellen werden. Mit 4K hat man ggü. FullHD nur noch 25 % seiner FPS. Die 7970 6GiB @1200 MHz von der PCGH war oftmals ziemlich überfordert. In Metro bräuchte es schon >3x der Leistung. Unter GK110 wird da nichts sinnvoll sein. In Anbetracht der neuen Konsolen, wird es für die ersten Jahre auf dem PC schwer mit 4 K werden. Denn die Konsolen heben nochmal das Grafiklevel an. Bisher hatte der PC aufgrund der hohen Differenz an Leistung so viel Performanceüberschuss, dass Späße wie 8xSGSSAA locker drin waren. Das wird die ersten Jahre erstmal wieder ein wenig zurück gehen.
Andererseits wird es sicher noch ein paar Jahre dauern, bis 4K Displays gut bezahlbar sind. (32" 4K TV als PC Monitor für 500 € ...)
Bis dahin muss es dann noch einen Übertragungsstandard geben, der 4K @>60Hz ausgeben kann.
Der Monitor bei der PCGH tut das über 2x DP und ist auf 30 Hz begrenzt...
fondness
2013-01-15, 09:18:24
Das wird aber ein riesiger Sprung werden, den die Anforderungen an die Grafikkarten dann stellen werden. Mit 4K hat man ggü. FullHD nur noch 25 % seiner FPS. Die 7970 6GiB @1200 MHz von der PCGH war oftmals ziemlich überfordert. In Metro bräuchte es schon >3x der Leistung. Unter GK110 wird da nichts sinnvoll sein. In Anbetracht der neuen Konsolen, wird es für die ersten Jahre auf dem PC schwer mit 4 K werden. Denn die Konsolen heben nochmal das Grafiklevel an. Bisher hatte der PC aufgrund der hohen Differenz an Leistung so viel Performanceüberschuss, dass Späße wie 8xSGSSAA locker drin waren. Das wird die ersten Jahre erstmal wieder ein wenig zurück gehen.
Andererseits wird es sicher noch ein paar Jahre dauern, bis 4K Displays gut bezahlbar sind. (32" 4K TV als PC Monitor für 500 € ...)
Bis dahin muss es dann noch einen Übertragungsstandard geben, der 4K @>60Hz ausgeben kann.
Der Monitor bei der PCGH tut das über 2x DP und ist auf 30 Hz begrenzt...
Naja was ich bei den Videos so gesehen habe hat er wirklich überall max. Details mit 8xAA eingestellt. Zumindest bei den AA-Stufen könnte man deutlich sparen. Außerdem werden die ALUs bei höherer Pixeldichte pro Dreieck (speziell bei AMD) besser ausgelastet. Wenn Späße wie 8xSGSSAA drin sind ist eine Vervielfachung der Pixel allemal drinnen.
Nightspider
2013-01-15, 09:28:18
Wie kann etwas "knackiger" aussehen, wenn die zusätzlichen Details in der Renderauflösung weggefiltert und nicht angezeigt werden? Und die Detaildichte kann auch nicht "extrem" ansteigen, wenn diese Details einfach nicht dargestellt werden können. Das hast du aber behauptet.
Ohne DS verschwinden Details im Pixelbrei aufgrund fehlender scharfer Kanten, da sich die Pixeltreppen überlappen. Mit anderen Worten fehlt es ohne DS und gutem AA an Details die im Pixelbrei untergehen. Dieses Mehr an Details sieht man eben mit DS.
Klar kann DS kein Monitor mit gleicher nativer Auflösung ersetzen aber der Mehrgewinn ist definitiv vorhanden.
Zumal DS eben auch Texturen filtert und schärfer aussehen lässt.
Ob der Gewinn für dich ersichtlich oder sinnvoll scheint ist eine andere Frage.
Und die ersten NextGen Games sind wahrscheinlich max. 1 Jahr auf dem Markt bis schon wieder der Nachfolger vom Gk110 in 20nm erscheint.
Solang kann man alte Perlen in 4K genießen und neue, leistungsfressende Games in FullHD spielen bzw. mit einem bunten Mix der Details und Auflösungen.
Neurosphere
2013-01-15, 09:56:22
Der Monitor bei der PCGH tut das über 2x DP und ist auf 30 Hz begrenzt...
Weiß eigentlich jemand was das für nen Monitor war? Eizo?
Evtl. wird es so für AMD und Nvidia wesentlich wichtiger zu erreichen, das die GPUs bei hohen Auflöungen nicht so stark einbrechen. Natürlich sind die Möglichkeit begrenzt, aber vielleicht könnte das ein Kaufgrund für Maxwell werden, wenn man schon einen GK110 besitzt.
robbitop
2013-01-15, 10:44:43
Naja was ich bei den Videos so gesehen habe hat er wirklich überall max. Details mit 8xAA eingestellt. Zumindest bei den AA-Stufen könnte man deutlich sparen. Außerdem werden die ALUs bei höherer Pixeldichte pro Dreieck (speziell bei AMD) besser ausgelastet. Wenn Späße wie 8xSGSSAA drin sind ist eine Vervielfachung der Pixel allemal drinnen.
In Metro bspw. nicht. Das war eine Diashow. Auch bei NFS beschwerte er sich über die Frames. Skyrim lief sehr gut.
Maximale Details sollte man IMO prinzipiell immer anhaben. Am AA kann man aber sparen. Oft war aber auch nur FXAA an.
Wobei es hin und wieder Settings gibt, die extrem viel kosten und nicht so viel mehr BQ bringen. Das muss man je nach Spiel herausfinden.
Weiß eigentlich jemand was das für nen Monitor war? Eizo?
Evtl. wird es so für AMD und Nvidia wesentlich wichtiger zu erreichen, das die GPUs bei hohen Auflöungen nicht so stark einbrechen. Natürlich sind die Möglichkeit begrenzt, aber vielleicht könnte das ein Kaufgrund für Maxwell werden, wenn man schon einen GK110 besitzt.
Da hilft nur (Pixel-)Rohleistung.
Wenn man dann noch Ihnen einen Node basierten Material Editor in die Hand gibt, faengt der Spass erst richtig an. Da gibt es dann gern mal kaputte Normalen (Null ist mein ganz persoehnlicher Favorit) etc. und fragen wie: "Warum bewegt sich die Textur wenn ich die Kamera bewege?".
Das ist eh der Teufel. Hört sich theoretisch immer super an, aber praktisch macht's nur Probleme.
Iruwen
2013-01-15, 16:54:11
Ohne DS verschwinden Details im Pixelbrei aufgrund fehlender scharfer Kanten, da sich die Pixeltreppen überlappen. Mit anderen Worten fehlt es ohne DS und gutem AA an Details die im Pixelbrei untergehen. Dieses Mehr an Details sieht man eben mit DS.
Klar kann DS kein Monitor mit gleicher nativer Auflösung ersetzen aber der Mehrgewinn ist definitiv vorhanden.
Zumal DS eben auch Texturen filtert und schärfer aussehen lässt.
In GW2 kann man on the fly von nativem Sampling auf Supersampling umschalten, das hab ich mal mit zusätzlichem Downsampling kombiniert:
http://i.imgur.com/TBhLK.jpg
http://i.imgur.com/CwA1P.jpg
Sieht man beim Gras recht deutlich.
del_4901
2013-01-15, 16:58:09
Das ist eh der Teufel. Hört sich theoretisch immer super an, aber praktisch macht's nur Probleme.
Naja kommt drauf an. Ich lasse Sie Ihre Bugs selber fixen. Und wenn offene Fragen sind bin ich auch immer fuer die Leute da. Meisstens lernen Sie dann von selbst was Sie sich zutrauen koennen, und was (noch) nicht.
Hübie
2013-01-15, 18:54:36
Das ist eh der Teufel. Hört sich theoretisch immer super an, aber praktisch macht's nur Probleme.
Naja kommt drauf an. Ich lasse Sie Ihre Bugs selber fixen. Und wenn offene Fragen sind bin ich auch immer fuer die Leute da. Meisstens lernen Sie dann von selbst was Sie sich zutrauen koennen, und was (noch) nicht.
Ihr habt nicht zufällig den gleichen Arbeitgeber? ;D
@Gipsel: 60 ROPs sind aber halt extrem unwahrscheinlich. Zumal dieses dann sicher nicht sinnvoll ausgelastet werden (also praktisch betrachtet). 48, 52 oder 56 wären also die engste Wahl. Ich tippe auf 48 weil z.B. die Busbandbreite ggü. GF110 konstant geblieben ist. Die ROPs und I/O nimmt ja auch noch mal einiges an die-area ein.
Edit: Notiz an mich: aths´ Artikel über HDR mal wieder lesen. ;D Da gilt ja noch alles als aktuell oder? Natürlich meinte ich abseits der dort beschriebenen Hardware.
Gipsel
2013-01-15, 21:19:37
@Gipsel: 60 ROPs sind aber halt extrem unwahrscheinlich. Zumal dieses dann sicher nicht sinnvoll ausgelastet werden (also praktisch betrachtet). 48, 52 oder 56 wären also die engste Wahl. Ich tippe auf 48 weil z.B. die Busbandbreite ggü. GF110 konstant geblieben ist.Ich dachte, die 48 ROPs waeren gesetzt. Die 60 kamen ja nur von der Exportbeschraenkung. Dass die nicht verbaut werden, ist ja klar.
boxleitnerb
2013-01-15, 21:22:33
Hat diese Exportbeschränkung jemals Performance gekostet auf Fermi?
Gipsel
2013-01-15, 21:48:56
Hat diese Exportbeschränkung jemals Performance gekostet auf Fermi?Nun, sagen wir mal so: Die 48 ROPs von Fermi waren bestimmt nicht langsamer, als hätte GF100/110 nur 32 gehabt (an einem 384 Bit Interface wie Tahiti). ;)
Aber um Deine Frage zu beantworten: In praktisch jeder durch die Füllrate limitierten Situation, in der man nicht hart im Bandbreitenlimit hängt, sieht man im Prinzip die Exportbeschränkung bei Fermi.
boxleitnerb
2013-01-15, 21:52:41
Und wie oft kamen diese Füllratenlimits in der Praxis so vor? Ich mein, die 560 Ti hatte demnach immer mehr Füllrate als 570 oder 580 und war nie schneller, nichtmal annähernd gleichschnell.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.