Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
Hugo78
2011-12-16, 20:05:44
Na ja, da gehts ja erstmal nur um die Güte der Releasetreiber.
30% wäre im Mittel nicht mal 10% vor der GTX 580.
Wobei für AMDs Bitschubser dürfte die HD7k ja eh Hölle sein, wenn man für gleich 3 Architekturen (GCN, VLIW4 & 5) Treiber schreiben muss.
fnnor
2011-12-16, 20:07:05
da gehts aber primär um die 3dmark11 performance
die spiele performance soll ja höher liegen so wie es auch da steht
aufkrawall
2011-12-16, 20:07:26
Wobei für AMDs Bitschubser dürfte die HD7k ja eh Hölle sein, wenn man für gleich 3 Architekturen (GCN, VLIW4 & 5) Treiber schreiben muss.
Wenn man massenhaft Leute rausschmeißt, hat man dafür bestimmt nicht zu viele Ressourcen.
HarryHirsch
2011-12-16, 20:07:44
Die können ja nichtmal zählen. 30% schneller als die 6970 und dann soll die neue Karte gleichauf mit der 6990 sein, die ohne CPU-Limit 80-85% flotter ist? Genau...
cf skalliert halt so schlecht. ist doch bekannt. :freak:
dildo4u
2011-12-16, 20:09:20
Das vorziehen kann sich ja nur so auswirken,das alle Review's mit nem echten Beta Treiber gemacht werden,vieleicht nicht grad AMDs bester PR Stunt.Aber vieleicht leakt NV dann näste Woche was,dann wäre es zumindest dafür gut. *g*
Motörhead_for_ever
2011-12-16, 20:09:38
Ich werde mir eine 7970 kaufen wenn es sich lohnt von meinen zwei 570 umzusteigen, bin mal auf Benchmarks in Spielen (Tests) gespannt.
aufkrawall
2011-12-16, 20:18:09
Ich werde mir eine 7970 kaufen wenn es sich lohnt von meinen zwei 570 umzusteigen, bin mal auf Benchmarks in Spielen (Tests) gespannt.
Ich prophezeie dir, dass es sich nicht lohnen wird, außer dir reichen niedrigste zweistellige FPS-Zuwächse. Bei Tesselation hast du dann womöglich sogar eine schlechtere Performance.
Warte lieber auf Kepler oder den Tahiti-Refresh.
Zumindest würd ich es so machen.
Knuddelbearli
2011-12-16, 20:21:18
jup habe auch atm eine 480 aber werde wechseln, der idle unterschied dürfte einfach zu enorm sein.
PC läuft fast 24/7 und dadurch wohl über 90% idle.
Motörhead_for_ever
2011-12-16, 20:24:48
Ich möchte nachdem was ich mit dem aktuellen Nv Treiber erlebt hab runter vom SLI und dafür eine Karte wo es sich lohnt zu wechseln, dann warte ich ebend ab.
Hugo78
2011-12-16, 20:31:26
PC läuft fast 24/7 und dadurch wohl über 90% idle.
Nur mal so, da hättest du schon vor 8 Monaten umsteigen können.
Eine 560Ti @ 950 ist nah dran an der 480 und hat mit ca. 16W im Idle, nur ein Drittel des Verbrauchs.
boxleitnerb
2011-12-16, 20:35:48
Ein Drittel? Die 580 braucht 25W, 20 wenn man sie undervoltet.
Hugo78
2011-12-16, 20:39:41
Ein Drittel? Die 580 braucht 25W, 20 wenn man sie undervoltet.
Er schrieb von der 480. ;)
LovesuckZ
2011-12-16, 20:40:29
jup habe auch atm eine 480 aber werde wechseln, der idle unterschied dürfte einfach zu enorm sein.
PC läuft fast 24/7 und dadurch wohl über 90% idle.
Geht man von 50 Watt unterschied bei 0,22€ pro KW aus, musst du die 7970 nur ganze 5 Jahre behalten, um die Investition von mindesten 250€ rauszuholen. ;)
Radeon HD 7970 is around 30 percent faster vs 6970
http://www.fudzilla.com/graphics/item/25248-radeon-hd-7970-is-around-30-percent-faster
30% steht im Einklang mit der Aussage von OBR, dass die 7970 nur 15% schneller als die GTX580 im P-Set wäre.
Dural
2011-12-16, 20:46:40
Rating – 1600x1200 4xAA/16xAF
4870 <--> 8800Ultra 24%
http://www.computerbase.de/artikel/grafikkarten/2008/test-radeon-hd-4870-cf-vs.-geforce-gtx-260-sli/23/#abschnitt_performancerating_qualitaet
soll ich noch weiter fahren? ;)
20-30% vor der GTX580 im schnitt, wer was anderes erwartet kann entäuscht werden, Punkt.
Ich halte mich jetzt raus, wird hier ja immer wie schlimmer... :P
Ailuros
2011-12-16, 21:02:13
Es wird schlimmer weil keine der beiden Seiten die ersten unabhaengigen reviews bzw. Messungen abwarten will.
Sonst sagt mir ein relativ veralteter 3dfurz gar nichts aus, eben genauso wenig wie die Tessellations-graphs die genau ans andere Marketing-Ufer kommen.
Blediator16
2011-12-16, 21:21:47
Ich verstehe diese Aufregung im Moment nicht so ganz. AMD will scheinbar ab anfang Jan. die Karten liefern und ist dann erstmal, scheinbar, konkurenzlos. Ob sie noch mehr für später planen wissen wir doch nicht. Scheinbar haben sie noch Luft nach oben über die TDP.
Ailuros
2011-12-16, 21:24:56
Nach Geruechten kommt der erste sehr begrenzte Schub im Januar und dann geht es wieder ab Anfang Maerz los, wenn natuerlich alles wie ausgerechnet bei TSMC laeuft.
aufkrawall
2011-12-16, 21:27:42
Ich verstehe diese Aufregung im Moment nicht so ganz. AMD will scheinbar ab anfang Jan. die Karten liefern und ist dann erstmal, scheinbar, konkurenzlos.
Konkurrenzfähigkeit hat immer was mit Marktwirtschaftlichkeit zu tun.
Wie schon gesagt, geht es AMD wohl vorerst eher um Prestige, als ums wirkliche Geldverdienen.
Wobei man natürlich Prestige als Werbung und somit gewinnbringende Investition in die Zukunft verstehen kann. :)
Ailuros
2011-12-16, 21:39:38
Konkurrenzfähigkeit hat immer was mit Marktwirtschaftlichkeit zu tun.
Wie schon gesagt, geht es AMD wohl vorerst eher um Prestige, als ums wirkliche Geldverdienen.
Wobei man natürlich Prestige als Werbung und somit gewinnbringende Investition in die Zukunft verstehen kann. :)
Dann ist es wohl eine "Investition" die ich bei bestem Willen nicht verstehen kann. Ueberhaupt falls AMD in ein paar Monaten sich gezwungen sieht die Preise radikal zu reduzieren.
Zergra
2011-12-16, 21:46:18
Dann ist es wohl eine "Investition" die ich bei bestem Willen nicht verstehen kann. Ueberhaupt falls AMD in ein paar Monaten sich gezwungen sieht die Preise radikal zu reduzieren.
Ich weiß Garnicht wie du darauf kommst das sie die Senken müssen? nur weil du an NV glaubst heißt das noch lange nicht das es zu deinem Vorteil wird.... bzw zu AMDs nachteil... ein Großteil der Slides sind doch gefaket... die anderen meisten schlecht gemacht... es weiß noch keiner was da wirklich abläuft vorallem weil sich AMD sehr bedeckt hält mit Infos... und dort viel müll im Umlauf ist
Ailuros
2011-12-16, 22:01:20
Ich weiß Garnicht wie du darauf kommst das sie die Senken müssen?
Weil Performance GPUs schon seit einer Ewigkeit nicht mehr so viel gekostet haben vielleicht und das dank ATI/AMD zufaelligerweise?
nur weil du an NV glaubst heißt das noch lange nicht das es zu deinem Vorteil wird....
NV bekommt genauso viel von mir aufs Dach falls sie dem Preistrend folgen sollten. Es sind zwei sehr gute Quellen mit genau gleichem Material.
bzw zu AMDs nachteil... ein Großteil der Slides sind doch gefaket... die anderen meisten schlecht gemacht... es weiß noch keiner was da wirklich abläuft vorallem weil sich AMD sehr bedeckt hält mit Infos... und dort viel müll im Umlauf ist
Die Spezifikationen stimmen aber und mir geht es eher um die hohen Preise als den restlichen Inhalt der slides.
OgrEGT
2011-12-16, 22:36:34
Weil Performance GPUs schon seit einer Ewigkeit nicht mehr so viel gekostet haben vielleicht und das dank ATI/AMD zufaelligerweise?
HD7970 = Performance GPU :confused:
derguru
2011-12-16, 22:45:51
schon merkwürdig mit den preisen,kurz vor launch einer neuen generation fallen die bis dahin aktuellen karten um fast 50% um platz für die neuen zu machen aber leider sind die preise so was von fest gefahren siehe z.b. 6970 oder 6950,die liegen immer noch fast genau wie zu launchzeiten.
Knuddelbearli
2011-12-16, 22:49:17
@ hugo
ist unter wakü da lohnt ein sidewechsel nicht
außerdem möchte ich auf 3 Monitore umsteigen ( 2 ist doof wegen fadenkreuz in der mitte ... )
aufkrawall
2011-12-16, 23:41:50
schon merkwürdig mit den preisen,kurz vor launch einer neuen generation fallen die bis dahin aktuellen karten um fast 50% um platz für die neuen zu machen aber leider sind die preise so was von fest gefahren siehe z.b. 6970 oder 6950,die liegen immer noch fast genau wie zu launchzeiten.
http://de.wikipedia.org/wiki/Preisbildung#Oligopol
;)
PS. Until Bruno Murzyn leaves AMD, i WILL sabotage any AMD product launch in future, like Bulldozer + HD 7900! Rory, if you 'd like to prevent such a thing in the future, fire that homoguy ... then i will sign NDA again and will stick to it! Marry Christmas Bruno ...
Das ist ja mal grausam; falls das ein 1:1 von OBR sein soll.
Ich habs mal abgeändert, wie ICH es VERSTANDEN habe ... richtig soweit?
btw: Hier scheint ja jemand genaueres zu wissen, was soll den dieser Murzyn gemacht haben um OBRs Homoguy verdient zu haben?
Hübie
2011-12-17, 04:28:10
Geht man von 50 Watt unterschied bei 0,22€ pro KW aus, musst du die 7970 nur ganze 5 Jahre behalten, um die Investition von mindesten 250€ rauszuholen. ;)
30% steht im Einklang mit der Aussage von OBR, dass die 7970 nur 15% schneller als die GTX580 im P-Set wäre.
Vor allem müsste die ja nur im Leerlauf dümpeln ;D
Ich verstehe diese Aufregung im Moment nicht so ganz. AMD will scheinbar ab anfang Jan. die Karten liefern und ist dann erstmal, scheinbar, konkurenzlos. Ob sie noch mehr für später planen wissen wir doch nicht. Scheinbar haben sie noch Luft nach oben über die TDP.
Bei den Preisen ist das glaub ich nicht mal so konkurrenzlos wie es scheint. Aber vllt. sind das auch nur Mondpreise (was ich nicht glaube).
Gipsel
2011-12-17, 09:20:38
Übrigens scheint es sich herumgesprochen zu haben (http://semiaccurate.com/2011/12/16/low-end-radeon-hd-7000-series-rebrands/), daß wirklich drei GCN-Chips kommen und der Rest für das LowEnd (alte) VLIW5-Karten sind. Keine VLIW4 (außer in Trinity), wie ich gesagt habe.
OgrEGT
2011-12-17, 09:25:04
Übrigens scheint es sich herumgesprochen zu haben (http://semiaccurate.com/2011/12/16/low-end-radeon-hd-7000-series-rebrands/), daß wirklich drei GCN-Chips kommen und der Rest für das LowEnd (alte) VLIW5-Karten sind. Keine VLIW4 (außer in Trinity), wie ich gesagt habe.
Macht ja auch irgendwie Sinn. Bei 2048Sp's im Vollausbau ist viel Raum für teildeaktivierte Chips, was die Gesamtausbeute an funktionsfähigen (Edit: vermarktungsfähigen) 28nm Chips ziemlich erhöht. Aus wirtschaftlicher Sicht sinnvoll, zumal wie ja schon mehrfach hier spekuliert wurde, die Produktionskosten sowieso schon recht hoch sind.
Skysnake
2011-12-17, 09:30:33
Naja Gipsel, das wissen wir doch schon seit Wochen.
Oder hat jemand daran wirklich gezweifelt? ;)
AffenJack
2011-12-17, 09:35:17
Die 3 GCN Chips wussten wir hier dank Gipsel ja schon lange, aber mich verwundert, dass die kleinen Vliw5 Chips nicht 28nm Chips werden. Das könnte zb mit ein Grund sein, wieso Apple teilweise wieder auf Nv Chips setzt und Nv auch meinte, man hat mehr Designwins diesmal. Amd hat einfach keinen 28nm Chip gehabt, während NV Gk107 versprochen hat und dadurch natürlich nen deutlichen Vorteil hat. So richtig sinnig find ich das ja nicht von Amd.
OgrEGT
2011-12-17, 09:48:54
Die 3 GCN Chips wussten wir hier dank Gipsel ja schon lange, aber mich verwundert, dass die kleinen nicht 28nm Chips werden. Das könnte zb mit ein Grund sein, wieso Apple teilweise wieder auf Nv Chips setzt und Nv auch meinte, man hat mehr Designwins diesmal. Amd hat einfach keinen 28nm Chip gehabt, während NV Gk107 versprochen hat und dadurch natürlich nen deutlichen Vorteil hat. So richtig sinnig find ich das ja nicht von Amd.
Die 3 GCN GPUs sind nicht all 28nm :confused: Oder meinst Du die ge-rebrandeten VLIW5 GPU's?
Ich dachte der Move von Apple zu nVidia sei eher vom Fakt aus, dass AMD keine Garantie geben konnte, dass sie die Stückzahlen die Apple forderte auch liefern können.
Die 3 GCN GPUs sind nicht all 28nm :confused: Oder meinst Du die ge-rebrandeten VLIW5 GPU's?
Gemäss Semiaccurate sind die neuen GCN Karten (77xx - 79xx) auf 28nm und die unteren (73xx - 76xx) umgenannte VLIW5 40nm Versionen was dann technisch zur AMD 5000er Series gehört.
Hugo78
2011-12-17, 09:59:51
Oder hat jemand daran wirklich gezweifelt? ;)
Das 60% der HD7k Chips nichts weiter Rebrands werden/sind?
Hmm...
AffenJack
2011-12-17, 10:01:17
Die 3 GCN GPUs sind nicht all 28nm :confused: Oder meinst Du die ge-rebrandeten VLIW5 GPU's?
Die rebrandet VLIW5 natürlich, bissl unklar formuliert gehabt.
Ich hätte da auf einfache Shrinks gehofft und nicht 40nm Rebrand.
Ich dachte der Move von Apple zu nVidia sei eher vom Fakt aus, dass AMD keine Garantie geben konnte, dass sie die Stückzahlen die Apple forderte auch liefern können.
In 40nm hätte Amd die Stückzahlen sicher liefern können, machen sie jetzt doch auch. In 28nm ist das ne andere Sache, aber wenn man gar keinen Chip hat, kann man auch nicht liefern.
Warten wir ab, ob Charlies Infos wirklich richtig sind, aber oft ist da ja schon etwas dran, vor allem wenns um Amd geht.
Ich hätte da auf einfache Shrinks gehofft und nicht 40nm Rebrand.
/Sign
Normalerweise kann man so die Shrinks am besten auf Funktionalität testen. Denke mal AMD macht die Rebrands weil GF und TSMC viele freie 40nm Kapazitäten haben oder AMD vielleicht noch Verträge die sie zwingt in diesem Prozess zu fertigen.
Ailuros
2011-12-17, 10:27:26
HD7970 = Performance GPU :confused:
New Zealand wird es ab Maerz geben.
Ist Tahiti ein single high end chip und es wird danach keine mGPU notwendig sein? Nein.
Wird Tahiti der groesste single chip in 2012 sein? Nein.
Gibt es eine Moeglichkeit dass sie die Preise radikal reduzieren muessen? Hoffentlich.
Wenn es nach einer anderen Logik ginge und IHVs wuerden keine 40nm chips mehr herstellen und nur low end/mainstream GPUs herstellen, waere eine GK106 z.B. ploetzlich "high end". Kommt natuerlich darauf an wie diagonal mal in einem parallelem Universum parken will.
Ich dachte der Move von Apple zu nVidia sei eher vom Fakt aus, dass AMD keine Garantie geben konnte, dass sie die Stückzahlen die Apple forderte auch liefern können.
Es wird keiner leicht haben Apple voll und zeitig auszuliefern.
OgrEGT
2011-12-17, 10:39:04
New Zealand wird es ab Maerz geben.
Ist Tahiti ein single high end chip und es wird danach keine mGPU notwendig sein? Nein.
Wird Tahiti der groesste single chip in 2012 sein? Nein.
Gibt es eine Moeglichkeit dass sie die Preise radikal reduzieren muessen? Hoffentlich.
mMn ist Tahiti durchaus klar Highend, etwas in der Art HD7990 ist Enthusiast. Die Performance GPUs sind wohl eher HD7870, HD7770 Mainstream.
Nur weil Tahiti nicht der größte Chip in 2012 sein wird, heißt das noch lange nicht, dass es kein Highend Chip ist. Oder meinst Du dass das Highend Siegel nur von dem IHV beansprucht werden darf, wer den größten Chip hat? Wohl eher nicht.
Tahiti ist Highend und wird auch Highend Preise kosten. Nichts ungewöhnliches dran. Wenn dann NV nachzieht, wird sich der Preis lediglich nach dem orientieren, was von NV wann zu welchem Preis geboten wird. Immer wird sich beschwert (nicht Du persönlich), AMD würde mit Ramschpreisen den Markt kaputt machen. Jetzt werden sie wieder einige Zeit lang den schnellsten Chip haben, dann sollen sie auch entsprechende Preise verlangen dürfen. Bei NV beschwert sich auch niemand darüber.
Edit:
Ne GTX 580 (1.5Gb) kostet derzeit auch noch um 400EUR. Wenn die HD7970 um 500EUR kosten wird, ist das (vorläufig) nicht abwegig. Endgültig kann man das aber erst nach dem offiziellen Launch beurteilen, wenn alle Fakten auf dem Tisch liegen (Perf/W, Features, etc.)
Edit2:
Wird Tahiti der groesste single chip in 2012 sein? Nein.
Oder meinst Du nicht der größte Chip von AMD in 2012 :) Dann klär uns mal auf :D
Skysnake
2011-12-17, 11:09:30
New Zealand wird es ab Maerz geben.
New Zealand war doch die mGPU-Version von Tahiti oder?
März hört sich gut an. Da wird nVidia wohl noch keine mGPU liefern können.
Ist Tahiti ein single high end chip und es wird danach keine mGPU notwendig sein? Nein.
Wird Tahiti der groesste single chip in 2012 sein? Nein.
Gibt es eine Moeglichkeit dass sie die Preise radikal reduzieren muessen? Hoffentlich.
Der GK100 wird ja wohl der größte sein. Das sollte aber recht klar sein, oder meintest du, das es eventuell einen größeren auch von AMD gibt? :biggrin:
Wenn wir grad dabei sind, könnte New Zealand nicht auch wie wohl der "m"GPU Chip von nVidia eventuell auch auf einen Interposer setzen? Also quasi "ein" riesen Chip?
(Ich könnts mir vorstellen, das die das auch bringen, wenn nVidia es verwendet.)
New Zealand war doch die mGPU-Version von Tahiti oder?
März hört sich gut an. Da wird nVidia wohl noch keine mGPU liefern können.
Ich würde davon ausgehen, das NV im März noch keine GPU in 28nm liefert.
Ailuros
2011-12-17, 11:35:13
mMn ist Tahiti durchaus klar Highend, etwas in der Art HD7990 ist Enthusiast. Die Performance GPUs sind wohl eher HD7870, HD7770 Mainstream.
Nur weil Tahiti nicht der größte Chip in 2012 sein wird, heißt das noch lange nicht, dass es kein Highend Chip ist. Oder meinst Du dass das Highend Siegel nur von dem IHV beansprucht werden darf, wer den größten Chip hat? Wohl eher nicht.
Och man kann vieles so verdrehen wie es einem geraden passt nur um den durchaus absurden MSRP zu gerechtfertigen. Fuer die heutigen Verhaeltnisse ist ein 210W <400mm2 28nm chip noch lange nicht echtes high end. In meinem Buch waere high end fuer AMD wenn sie sich mGPU diesmal gespart haetten und stattdessen einen single high end chip entwickelt.
Tahiti ist Highend und wird auch Highend Preise kosten.
Ja natuerlich wird es high end Preise tragen, aber genau in dem Bereich liegt die eigentliche Verbraucher-Bescheissung weil es eben keine groessere Loesung fuer eine Zeit lang geben wird.
Nichts ungewöhnliches dran. Wenn dann NV nachzieht, wird sich der Preis lediglich nach dem orientieren, was von NV wann zu welchem Preis geboten wird. Immer wird sich beschwert (nicht Du persönlich), AMD würde mit Ramschpreisen den Markt kaputt machen. Jetzt werden sie wieder einige Zeit lang den schnellsten Chip haben, dann sollen sie auch entsprechende Preise verlangen dürfen. Bei NV beschwert sich auch niemand darüber.
Es ist wohl eher Masochismus wenn einem Verbraucher es gefallen wuerde dass sich Preise generell fuer eine Kategorie von Produkten steigern,
Ich bin und wahr froh dass ATI/AMD es schaffte die Preise im GPU Markt generell zu reduzieren. Und ich wuerde es auch begruessen dass es bitte dabei bleibt und es ist im eigentlichen Interesse aller Verbraucher und nicht nur meinem.
Edit:
Ne GTX 580 (1.5Gb) kostet derzeit auch noch um 400EUR. Wenn die HD7970 um 500EUR kosten wird, ist das (vorläufig) nicht abwegig. Endgültig kann man das aber erst nach dem offiziellen Launch beurteilen, wenn alle Fakten auf dem Tisch liegen (Perf/W, Features, etc.)
Glaubst Du wirklich ich meckere ohne Grund und ohne etwas mehr zu wissen von dem was ich schon rausgespuckt habe?
500 Euro sind erstmal sogar wenig; in manchen EU Regionen (je nach Steurn) wird es sogar =/>600 Euros. Verbraucher ruesten auf wenn sie sich fuehlen dass sie aufruesten muessen (und wir sind auch kein Kaufsberatungs-forum hier...), aber ich wuerde persoenlich NIEMAND heute =/>400 Euro fuer eine 580 befuerworten. Weder von der TahitiPRO noch von der GK104 Perskeptive.
Uebrigens wird NV bald gezwungen sein die GF110 Preise zu reduzieren. Eine 580 wird aber sofort erhaeltlich sein waehrend es eher pre-order Warteschlangen fuer Tahiti am Anfang sein wird. Kommt eben dann darauf an wer etwas Geduld haben kann. Unter dieser Perspektive ja natuerlich kann man den Preis so hoch ansetzen und wie die Katzen im Sand den eigenen Dreck decken.
--------------------------------------------------------------------------
Mal was anderes und etwas food for thought fuer diejenigen die mit Prozenten und 3dfurz Mist herumspielen wollen: http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf
Eine 8800GTX war bei ihrem launch garantiert nicht 585% schneller als eine 7900GTX mit AA/AF. Sonst kann man leicht sehen wie gering die Leistungssteigerung beider IHVs vom ersten zum zweiten 40G Schub war. Sonst kann man auch sehen wo im absoluten Durschnitt pro IHV vom einem zum anderen Herstellungsprozess mehr oder weniger liegen kann. Es kochen tatsaechlich alle nur mit Wasser.
New Zealand war doch die mGPU-Version von Tahiti oder?
März hört sich gut an. Da wird nVidia wohl noch keine mGPU liefern können.
Ja fuer die Presse werden die Exemplare wohl schon ausreichen. IMHO wird es eine mGPU erst mit dem zweiten 28nm Schub von NV geben.
Der GK100 wird ja wohl der größte sein. Das sollte aber recht klar sein, oder meintest du, das es eventuell einen größeren auch von AMD gibt? :biggrin:
GK110; und er wird wohl offensichtlich groesser sein, sonst kann ich mir nicht vorstellen woher die zusaetzliche Leistung ueber Tahiti herkommen soll.
Wenn wir grad dabei sind, könnte New Zealand nicht auch wie wohl der "m"GPU Chip von nVidia eventuell auch auf einen Interposer setzen? Also quasi "ein" riesen Chip?
(Ich könnts mir vorstellen, das die das auch bringen, wenn nVidia es verwendet.)
Moeglich schon aber IMHO nicht schon fuer New Zealand. Wird es etwas an dem albernen AFR-hack aendern fuer mGPUs? Wenn nicht ist es ziemlich wurscht wie es ein IHV realisiert.
Ich würde davon ausgehen, das NV im März noch keine GPU in 28nm liefert.
Du kannst mir ja gerne erzaehlen wie die bisher projezierte road-map genau aussieht und in welchen Stadium die jeweiligen chips sind. Und da ich offensichtlich die meisten Infos dafuer nicht von NV selber ziehe, ist man selbst dort nicht so pessimistisch ausser der Name von jemand faengt mit einem C an :wink:
Skysnake
2011-12-17, 11:45:18
und hört mit harlie auf :D
OgrEGT
2011-12-17, 11:56:24
Och man kann vieles so verdrehen wie es einem geraden passt nur um den durchaus absurden MSRP zu gerechtfertigen. Fuer die heutigen Verhaeltnisse ist ein 210W <400mm2 28nm chip noch lange nicht echtes high end. In meinem Buch waere high end fuer AMD wenn sie sich mGPU diesmal gespart haetten und stattdessen einen single high end chip entwickelt.
Ja natuerlich wird es high end Preise tragen, aber genau in dem Bereich liegt die eigentliche Verbraucher-Bescheissung weil es eben keine groessere Loesung fuer eine Zeit lang geben wird.
Ich verdrehe doch gar nichts. Ich will lediglich darauf hinweisen, dass die Größe des GPU-Dies nicht (allein) darüber befindet ob Highend oder nicht. Außerdem gibt es auch noch das Enthusiast Segment, welches Du hier vergisst und mit Highend gleichsetzt.
Vielmehr muss die Leistung und die gebotenen Features angemessen sein.
Zudem, Die-Fläche kannst Du nicht über Prozesse hinweg vergleichen. 400m2 in 28nm kosten zum jetzigen Zeitpunkt einfach mehr als 400m2 in 40nm. Die Fertigung ist brandneu, es sind irrwitzige Investitionen getätigt worden, die sich auch wieder rechnen müssen. Hinzu kommt noch, dass die Ausbeute anfangs niedrig ist. Mir erscheinen manchmal die Erwartungen zu hoch. Klar wollen wir alle viel Leistung aber nix bezahlen dafür. Das ist aber nicht realistisch. Zudem ist es nicht so, dass AMD die Preise total am Markt vorbei diktieren könnte. Wenn die Karten zu teuer sind in Bezug auf Leistung, dann wird der Preis sinken. Aber noch bevor alle Infos auf dem Tisch sind hier von Verarschung zu sprechen ist nicht angemessen.
Es ist wohl eher Masochismus wenn einem Verbraucher es gefallen wuerde dass sich Preise generell fuer eine Kategorie von Produkten steigern,
Ich nehme mal an Du meinst nicht mich damit. Mir gefällt das auch nicht
Ich bin und wahr froh dass ATI/AMD es schaffte die Preise im GPU Markt generell zu reduzieren. Und ich wuerde es auch begruessen dass es bitte dabei bleibt und es ist im eigentlichen Interesse aller Verbraucher und nicht nur meinem.
Das wird sich mMn aber auf lange Sicht ändern. Die Lebenszyklen der Produkte werden sich zwangsläufig verlängern müssen, da sich die Fertigungssprünge ebenfalls verlangsamen werden. Die Kosten für neue Fertigungstechnologien werden zunehmend steigen, und sofern die Produktlebenszyklen so bleiben sollen, dass wir jedes Jahr zu Weihnachten 100% Mehrleistung haben wollen, werden die Preise ansteigen.
Glaubst Du wirklich ich meckere ohne Grund und ohne etwas mehr zu wissen von dem was ich schon rausgespuckt habe?
Du glaubst also die HD7970 wird ihren Preis nicht wert sein? Wieviel wäre sie denn wert Deiner Meinung nach?
OgrEGT
2011-12-17, 12:01:02
Außerdem wollen wir mal abwarten was denn so ein GK100 oder GK110 je nachdem wie er heißen soll kosten wird, wenn das Ding überhaupt vernünftig herstellbar ist. Es kochen alle nur mit Wasser, in diesem Fall alle mit dem gleichen Fertigungsprozess.
Gaestle
2011-12-17, 12:10:41
Ich vermute mal, dass ihr lediglich unterschiedliche Bezugsrahmen habt.
Während einer im Zeitpunkt-Bezugsrahmen derzeit aktuelle Generation (2011) und im Kontext von 6870 und 580GTX argumentiert, wo Tahiti durchaus Single Chip High-End ist, argumentiert der andere im Chipgenerations-Bezugsrahmen der nächsten Genration (2012) im Kontext von 780GTX und Co, wo Tahiti wahrscheinlich nicht (mehr) HighEnd sein wird.
Ailuros
2011-12-17, 12:16:39
Ich verdrehe doch gar nichts. Ich will lediglich darauf hinweisen, dass die Größe des GPU-Dies nicht (allein) darüber befindet ob Highend oder nicht. Außerdem gibt es auch noch das Enthusiast Segment, welches Du hier vergisst und mit Highend gleichsetzt.
Noe. High end ist unter enthusiast (mGPUs). GTX580 ob es passt oder nicht ist eine Kategorie fuer sich. Und um meine Perspektive noch besser zu erklaeren, mit der Vorstellung von Tahiti rutscht die 580 sofort in das untere performance Segment und sollte nicht mehr als 300 Euro kosten.
Vielmehr muss die Leistung und die gebotenen Features angemessen sein.
Zudem, Die-Fläche kannst Du nicht über Prozesse hinweg vergleichen. 400m2 in 28nm kosten zum jetzigen Zeitpunkt einfach mehr als 400m2 in 40nm. Die Fertigung ist brandneu, es sind irrwitzige Investitionen getätigt worden, die sich auch wieder rechnen müssen. Hinzu kommt noch, dass die Ausbeute anfangs niedrig ist. Mir erscheinen manchmal die Erwartungen zu hoch. Klar wollen wir alle viel Leistung aber nix bezahlen dafür. Das ist aber nicht realistisch. Zudem ist es nicht so, dass AMD die Preise total am Markt vorbei diktieren könnte. Wenn die Karten zu teuer sind in Bezug auf Leistung, dann wird der Preis sinken. Aber noch bevor alle Infos auf dem Tisch sind hier von Verarschung zu sprechen ist nicht angemessen.
Sie ist angemessen wenn man ein breiteres Bild hat.
Ich nehme mal an Du meinst nicht mich damit. Mir gefällt das auch nicht.
Natuerlich nicht.
Du glaubst also die HD7970 wird ihren Preis nicht wert sein? Wieviel wäre sie denn wert Deiner Meinung nach?
Nicht mehr als $400-420 MSRP. Falls die Herstellung zu teuer ist und auf den Preis drueckt, haetten sie auf ihrem Hintern sitzen bleiben sollen und etwas warten. Beim naechsten Mal soll hat Marketing gefaelligst die Klappe halten und nicht vorzeitig einen 2011 launch versprechen ueberhaupt bei einem neuem Herstellungsprozess.
Mal anders ich und Du werden wohl nicht so viel dafuer bezahlen aber angenommen eine 7970 wird im Januar ~550 Euro kosten und ungefaehr im April spaetestens sieht sich AMD gezwungen auf ~380-400 zu reduzieren.
1. Wird in dem Fall bei so kurzer Zeit nicht der eigentliche "Wert" fraglich?
2. Zufaelligerweise wird am Anfang die Verfuegbarkeit extrem begrenzt sein und es wieder im Maerz hoffentlich einen leichten Aufschwung geben.
Ich vermute mal, dass ihr lediglich unterschiedliche Bezugsrahmen habt.
Während einer im Zeitpunkt-Bezugsrahmen derzeit aktuelle Generation (2011) und im Kontext von 6870 und 580GTX argumentiert, wo Tahiti durchaus Single Chip High-End ist, argumentiert der andere im Chipgenerations-Bezugsrahmen der nächsten Genration (2012) im Kontext von 780GTX und Co, wo Tahiti wahrscheinlich nicht (mehr) HighEnd sein wird.
Generationen zu vermischen ist doch die groesste Albernheit ueberhaupt.
Außerdem wollen wir mal abwarten was denn so ein GK100 oder GK110 je nachdem wie er heißen soll kosten wird, wenn das Ding überhaupt vernünftig herstellbar ist. Es kochen alle nur mit Wasser, in diesem Fall alle mit dem gleichen Fertigungsprozess.
NV koennte AMDs Masche auszutzen und die Preise generell steigern aber langfristig wenn sich Verfuegbarkeit normalisiert bleiben eben dann beide auf ihren >mainstream GPUs sitzen.
Unter normalen Umstaenden duerfte sich nichts an den bisherigen Preisen aendern sonst gehen dann mGPUs am Ende in die =/>900 Euro Region.
Gaestle
2011-12-17, 12:23:09
Generationen zu vermischen ist doch die groesste Albernheit ueberhaupt.
Vom technologischen Standpunkt her sicherlich.
Aber vom Konsumenten-Standpunkt zählt das, was zu einem bestimmten Zeitpunkt im Regal liegt bzw. (wenn man Verfügbarkeiten ignoriert) was im Regal liegen könnte. Auch wenn der Zeitpunkt nur zwei-drei Monate dauert.
aber angenommen eine 7970 wird im Januar ~550 Euro kosten und ungefaehr im April spaetestens sieht sich AMD gezwungen auf ~380-400 zu reduzieren.
1. Wird in dem Fall bei so kurzer Zeit nicht der eigentliche "Wert" fraglich?
Guter Punkt, Gute Frage.
aylano
2011-12-17, 12:27:33
Wobei man natürlich Prestige als Werbung und somit gewinnbringende Investition in die Zukunft verstehen kann. :)
Subventionierter Prestige wie bei HD 4870 und HD 5870 ist nicht mehr nötig, weil sie mittlerweile so 50% Marktantiel haben und sich AMD-GPUs schon einen ziemlich guten Namen eingefahren hat.
Eine schnelle Marktdurchdringung von HD 7970 ist ja auch deshalb wichtig, damit die Thaiti auch recht früh in den Supercomputer-Markt einsteigen kannn und das dauert auch noch einige Quartale, wodurch eine frühe HD 7970-Einführung wichitg ist.
Konkurrenzfähigkeit hat immer was mit Marktwirtschaftlichkeit zu tun.
Wie schon gesagt, geht es AMD wohl vorerst eher um Prestige, als ums wirkliche Geldverdienen.
Und von wo kommt die Weisheit?
Nvidia konnte im Einführungsquartal von 8800GTX kaum (wenn überhaupt) mehr Gewinn machen als in der 8800GTX-Vor-Ära.
Der Höhepunkt am Nvidia-Gewinn war 1 Jahr nach der 8800GTX-Einführung. Und da gab es keinen Gewinn, sondern einen recht stetigen konteniuierlichen anstieg.
Marktwirtschaftlich sind hohe bzw. Überhöhte Preise bei gerinten 28nm-Kapazitäten am Sinnvollsten.
Schließlich gibts noch die 40nm-AMD-GPUs, die auch noch verkauftr werden können. Genau dieser langsame Ramp erklärt eben, warum Nvidia damals zu 8800GTX nicht am Einführungsquartal sondern quartale später die großen Gewinne machte.
Und dann bleibt abzuwarten, wann Nvidia mit ihren 28nm-GPUs daherkommt.
Mit 65nm war Nvidia noch 2,5 Monate vor AMD
Mit 55nm war Nvidia noch 0,5 Monate vor AMD
Mit 40nm war AMD zwar mit RV740 schon 2,0 Monate vor Nvidia, aber anders als GT218 & GT216 war er kein Verkaufsschlager und nur ein Probe-Chip.
Sonst war bei 40nm GT218 & GT216 wieder 2 Monate vor HD 5870-High-End-350mm²-Chip.
Dass jetzt AMDs HD 7970-High-End-350mm²-Chip schon vor Nvidias Low-End & Mainstream-28nm-Chip kommt, ist schon mal ein interessantes Zeichen, was für AMD für die nächsten paar Quartale sehr wirtschaftlich sein kann
Dural
2011-12-17, 13:07:37
wenn man schon so komische auflistungen macht, sollte man wenigstens schauen das sie korrekt sind ;)
wie kommst du auf 0,5 monate zwischen NV und AMD bei 55nm?!?
es waren eher über 6 monate, erste NV GPU in 55nm war der G92b und der kam im Juni 2008 auf der GeForce 9800GTX+. Erste AMD GPU
in 55nm war der RV670 und der kam im November 2007.
(wenn ich das Datum es noch richtig im Kopf habe)
NV wollte 55nm eigentlich auslassen, deswegen kamen die 55nm GPUs auch so spät.
Einen zeitlichen Fertigungs Vorteil gibt es übrigens nicht, NV hat mehr fach schon betont das sie nicht GPUs auf den Markt hauen die nicht vernünftig Herstellbar sind, kosten+menge+preis muss einfach stimmen. AMD hat das aber bis jetzt schon öfter gmacht zb. mit RV740 oder RV870 oder bald wohl auch R1000.
Selbst die GT216 waren am anfang kaum zu bekommen und NV hat die am anfang NUR an die OEMs verkauft weil es für die Retail nicht gerreicht hat.
OgrEGT
2011-12-17, 13:16:07
Vom technologischen Standpunkt her sicherlich.
Aber vom Konsumenten-Standpunkt zählt das, was zu einem bestimmten Zeitpunkt im Regal liegt bzw. (wenn man Verfügbarkeiten ignoriert) was im Regal liegen könnte. Auch wenn der Zeitpunkt nur zwei-drei Monate dauert.
Guter Punkt, Gute Frage.
Ailuros und ich unterscheiden uns prinzipiell in der Tatsache, dass ich sage, dass es ein innerhalb der AMD Produktreihe ein Highend Segment gibt (derzeit HD6970, Tahiti als Nachfolger) gleichwohl bei NV (derzeit GTX580). Ailuros meint aber eine IHV unabhängige Produktreihe, die dann das Segment definiert. Demzufolge kann es seiner Ansicht nach Highend immer nur von einem Hersteller geben, der gerade die schnellere Karte hat. Wenn Tahiti da ist, und schneller als GTX580, dann kann GTX 580 automatisch kein Highend mehr sein.
Von der "AMD Masche" überhöhte Preise zu sprechen ist im Hinblick auf die Vergangenheit ebenfalls unkorrekt. Diese "Masche" hat immer NV gefahren (bei GTX280 damit auch zum ersten mal richtig bauchgelandet). AMD war es doch die angefangen haben mit HD3870, HD4870 richtig Preisdruck aufzubauen, was Ihnen Marktanteile verschafft hat, ihre Margen allerdings verringert hat. Eine Masche ist eine "überraschende, schlaue Vorgehensweise". AMD kann man sicherlich nicht vorwerfen dies erfunden zu haben. Wer weiß, vielleicht sehen die endgültigen Preise anders aus. MSRP wohlgemerkt. Preisaufschläge durch Produktknappheit nicht miteinbezogen. Diese werden auch nicht von AMD sonderrn weiter hinten in der Wertschöpfungskette erzeugt.
Skysnake
2011-12-17, 14:14:53
Naja, ich hör das mit AMDs Preisen auch nicht gern, denn wenn man sich überlegt, wie groß der Chip ist, dann wird das ein zu hoher Preis sein, der eben nur durch die frühe Einführung gerechtfertigt werden kann. Dann MUSS! der Preis aber massiv fallen, spätestens wen nVidia die GeForce Karten bringt.
Einen Preis/mm² der höher ist als aktuell sehe ich als nicht angebracht an.
reaperrr
2011-12-17, 14:40:09
Naja, ich hör das mit AMDs Preisen auch nicht gern, denn wenn man sich überlegt, wie groß der Chip ist, dann wird das ein zu hoher Preis sein, der eben nur durch die frühe Einführung gerechtfertigt werden kann. Dann MUSS! der Preis aber massiv fallen, spätestens wen nVidia die GeForce Karten bringt.
Einen Preis/mm² der höher ist als aktuell sehe ich als nicht angebracht an.
Meiner Meinung nach sollte man aber nicht unterschätzen, wieviel mehr TSMC möglicherweise für 28nm-Wafer verlangt. Wenn der Preis für einen 28nm-Wafer ungefähr doppelt so hoch und gleichzeitig vielleicht die Yieldrate etwas niedriger ist, können die Herstellungskosten pro mm² gut und gern doppelt so hoch sein. Da ist ein hoher Anfangspreis schon nachvollziehbar, zumal die Nachfrage das Angebot wohl trotzdem weit übersteigen wird.
Spasstiger
2011-12-17, 14:42:53
Weiß eigentlich Jemand, welches Tess-Setting AMD bei Unigine Heaven für die diese Tess-Folien nutzt?
http://www.abload.de/thumb/tessellationbyrjp6.jpg (http://www.abload.de/image.php?img=tessellationbyrjp6.jpg) http://www.abload.de/thumb/slajd2rvkkyhuj8a.png (http://www.abload.de/image.php?img=slajd2rvkkyhuj8a.png)
Vermutlich "Extreme", oder?
Unter der Annahme eines hohen Tessellationsfaktors konnte ich anhand beider Folien berechnen, dass die HD 7970 hier möglicherweise auch ohne Tessellation 70% schneller ist als die HD 6970. Ich verwende dabei ein Modell, in dem die Frametime eine Linearkombination aus zwei Anteilen darstellt, einem Tessellations-Anteil, der exakt mit den linken Graphen in den Folien skaliert, und einem Non-Tessellations-Anteil, der mit der Performance ohne Nutzung von Tessellation skaliert. Diese Linearkombination wiederum skaliert mit den rechten Graphen in den Folien.
Also nach dem Schema t_ges = t1/p1 + t2/p2.
Bei Stalker CoP wäre nach diesem Modell die HD 7970 ohne Tessellation bis zu 45% schneller als die HD 6970, falls AMD hier niedrige Tessellationsfaktoren genutzt, und nur 30% schneller, wenn AMD hohe Tessellationsfaktoren genutzt hat.
Zockerfrettchen
2011-12-17, 14:44:03
Sehr interessant das es rebrands im unteren Bereich geben wird... Passt aber ganz klar ins Programm von AMD, unten rum gibt es Fusion APUs und man will sich nicht mit den eigenen Produkten konkurrieren, deswegen geht man langsfristig bei den GPUs eher in Richtung Highend bzw. nutzt nur hier die neuesten Technologien. Fusion bekommt auch modernere Technik (Trinity) als das untere Preisegment der Grafikkarten. Das lustige ist doch, das es um Nvidia ständig Gerüchte gibt, das man zuerst das Mobile-Lineup starten wird und erst späther Highend, hat sich also irgendwie alles um 180 Grad gedreht. Verrückte Welt.....
Mfg Zockerfrettchen
Skysnake
2011-12-17, 15:07:25
ja schon ^^
Wobei nVidia da ja keinen Deut besser ist mit dem rebranding. AMD hat da eher LEIDER abgekupfert und fährt inzwischen die gleiche Schiene.... Leider -.-
LovesuckZ
2011-12-17, 15:09:35
Weiß eigentlich Jemand, welches Tess-Setting AMD bei Unigine Heaven für die diese Tess-Folien nutzt?
http://www.abload.de/thumb/tessellationbyrjp6.jpg (http://www.abload.de/image.php?img=tessellationbyrjp6.jpg) http://www.abload.de/thumb/slajd2rvkkyhuj8a.png (http://www.abload.de/image.php?img=slajd2rvkkyhuj8a.png)
Vermutlich "Extreme", oder?
Unter der Annahme eines hohen Tessellationsfaktors konnte ich anhand beider Folien berechnen, dass die HD 7970 hier möglicherweise auch ohne Tessellation 70% schneller ist als die HD 6970. Ich verwende dabei ein Modell, in dem die Frametime eine Linearkombination aus zwei Anteilen darstellt, einem Tessellations-Anteil, der exakt mit den linken Graphen in den Folien skaliert, und einem Non-Tessellations-Anteil, der mit der Performance ohne Nutzung von Tessellation skaliert. Diese Linearkombination wiederum skaliert mit den rechten Graphen in den Folien.
Also nach dem Schema t_ges = t1/p1 + t2/p2.
Bei Stalker CoP wäre nach diesem Modell die HD 7970 ohne Tessellation bis zu 45% schneller als die HD 6970, falls AMD hier niedrige Tessellationsfaktoren genutzt, und nur 30% schneller, wenn AMD hohe Tessellationsfaktoren genutzt hat.
Man wird sich Szenen suchen, wo viel Geometrie erzeugt wird. Die Zahlen beziehen sich nicht auf einem gesamten Durchlauf oder einen ganzen Benchmark.
Skysnake
2011-12-17, 15:11:20
Was halt auch wieder eine Vermutung ist, die Stimmen kann oder nicht.
In ein paar Tagen werden wir es sehen.
derguru
2011-12-17, 15:15:25
wenn stellen ausgesucht wurden wo viel geometrie erzeugt wird verwundert mich die LP2 skalierung,da hätte ich ähnliches erwartet wie bei heaven .
LovesuckZ
2011-12-17, 15:17:56
Einfach nur die Aussagen zu Cayman (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9080469#post9080469) mit ermittelten Werten (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/#abschnitt_einleitung) vergleichen.
Man ist überall deutlich unter den angegebenen Werten. Wie gesagt, dass sind Szenen, woviel Geometrie zum Einsatz kommt.
dildo4u
2011-12-17, 15:19:01
wenn stellen ausgesucht wurden wo viel geometrie erzeugt wird verwundert mich die LP2 skalierung,da hätte ich ähnliches erwartet wie bei der heaven .
Wie soll das gehen LP2 wird lange nich so krass durch Tesselation limitiert wie Heaven2.5@Extreme.
http://www.tomshardware.de/radeon-hd-6990-antilles-crossfire,testberichte-240739-7.html
Gipsel
2011-12-17, 15:25:09
Einfach nur die Aussagen zu Cayman (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9080469#post9080469) mit ermittelten Werten (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/#abschnitt_einleitung) vergleichen.
Man ist überall deutlich unter den angegebenen Werten. Wie gesagt, dass sind Szenen, woviel Geometrie zum Einsatz kommt.
Hmm, gerade mal Metro2033 aus Deinen Links angesehen. AMD behauptete 35% mehr, in den Tests kommt CB mit 4xAA/16xAF auf jeweils +42% in 1650x1080 und in 1920x1080, und in 2540x1600 gar auf + 2573% (also mehr als 26x so schnell, liegt wohl an den 2GB). Da waren die +35% von der Marketing-Folie ja wohl sogar eher konservativ.
Und jetzt sage nicht, man sollte doch die Werte ohne AF und AA vergleichen! :rolleyes:
Edit:
Stalker CoP zeigt ein ähnlichs Bild. Marketing behauptete +44%, CB mißt mit 4xAA +45%, +50% und +63% in der 1650er, 1920er und der 2540er-Auflösung.
LovesuckZ
2011-12-17, 15:27:53
Es macht natürlich Sinn, bei der Frage nach der Tessellation-Leistungssteigerung Gebiete in die Betrachtung einzubeziehen, die von der Überarbeitung der ROPs profitieren...
Oder anders gesagt: man sollte doch die Werte ohne AF und AA vergleichen!
derguru
2011-12-17, 15:28:34
Wie soll das gehen LP2 wird lange nich so krass durch Tesselation limitiert wie Heaven2.5@Extreme.
http://www.tomshardware.de/radeon-hd-6990-antilles-crossfire,testberichte-240739-7.html
ja sicher nicht so heftig aber schon mehr als in stalker.beim bench 2 von lp2 halbiert sich der fpswert von dx9 zu dx11 bei amd.nv hat ein verlust von 10% zwischen den pfaden und ich dacht das wäre der tesselationsschwäche amd´s geschuldet.
Gipsel
2011-12-17, 15:34:14
Es macht natürlich Sinn, bei der Frage nach der Tessellation-Leistungssteigerung Gebiete in die Betrachtung einzubeziehen, die von der Überarbeitung der ROPs profitieren...Wurden die bei Tahiti überhaupt überarbeitet?
Oder anders gesagt: man sollte doch die Werte ohne AF und AA vergleichen!;D
Du kannst mir ja gerne erzaehlen wie die bisher projezierte road-map genau aussieht und in welchen Stadium die jeweiligen chips sind. Und da ich offensichtlich die meisten Infos dafuer nicht von NV selber ziehe, ist man selbst dort nicht so pessimistisch ausser der Name von jemand faengt mit einem C an :wink:
GK107 - Plan war afaik solide in Q4/11. - wohl nicht
GK104 - 1-2 Monate nach GK107
GK110 - 3-4 Monate nach GK104 (optimal Q2)
Heute:
GK107M Q1
GK107 Q1(spät)
GK104 Q2
GK110 Q3
Verzögerung liegt afaik primär an Prozessproblemen (die AMD auch hat) und man muss warten bis ein konkurrenzfähige Preis möglich ist.
LovesuckZ
2011-12-17, 16:21:28
http://www.bouweenpc.nl/wp-content/uploads/2011/12/southern-islands-575x298.png
http://www.bouweenpc.nl/nieuws/hardware/hele-high-end-en-mid-range-segment-amd-radeon-hd-7000-reeks-op-de-nieuwe-architectuur
Und WinZip wird per OpenCL beschleunigt:
http://forum.beyond3d.com/showpost.php?p=1606658&postcount=1426
Skysnake
2011-12-17, 16:21:36
Was halt zum Nachteil des Kunden ist, da er mehr zahlt als eigentlich nötig.
Hoffen wir nur mal, das es mit dem GK1x0 kein Problem gibt. Das wäre nämlich ziemlich Kacke, wenn nVidia noch länger dann nichts bringt, was AMD richtig unter Druck setzt. Die können den Preis dann nämlich schön oben halten, und darauf hab ich keine Lust...
Naja, bei AMD solls ja auch erst im Januar/Februar dann ne zweite Lieferung geben, vielleicht haben wir im März dann wirklich breite Verfügbarkeit. Dann ist es nicht eine all zu lange Zeit, bis nVidia nachlegt.
Weiß eigentlich jemand, ob die schon GK1x0 Samples von TSMC zurück bekommen haben???
Hab ja irgendwie doch angst vor Fermi2.0, wird ja wohl wieder nen Monsterchip :(
Ich hoffe echt, an der Sache mit dem auf einem Träger zusammengefügten DIEs ist was dran. Das ist sicherlich deutlich unkritischer in der Fertigung im Vergleich zu einem großen Monster-DIE.
EDIT:
Wau nicht schlecht! Aber jetzt mal ganz im Ernst, hängt man bei WinZip nicht eh am Bandbreitenlimit vom Speicherinterface? :ugly:
mapel110
2011-12-17, 16:33:23
OpenCL und dann nur Radeon-Only. :unono: Böses ATI!
Sunrise
2011-12-17, 16:37:57
Und WinZip wird per OpenCL beschleunigt:
http://forum.beyond3d.com/showpost.php?p=1606658&postcount=1426
Ach du scheisse, habe ich gerade WinZip gelesen? :facepalm: :ucrazy:
Die obere Folie ist auch interessant (Pitcairn):
The "sweet spot" for hardcore gamers. Ja aber sicher doch.
Ich glaube jetzt verstehe ich Ailuros ein wenig mehr.
LovesuckZ
2011-12-17, 16:40:44
Und das kommt aus China:
GTX580 gegen 7970 oder doch nur gegen Cayman?
It's not GTX 580.. Tahiti vs Cayman (2.64b transistors vs 4.3b)..
12%
35%
20%
n / a
n / a
-8%
17%
31% (mapping error)
19%
-5%
33%
n / a
http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5017500&viewfull=1#post5017500
AnarchX
2011-12-17, 16:41:11
http://www.bouweenpc.nl/wp-content/uploads/2011/12/southern-islands-575x298.png
http://www.bouweenpc.nl/nieuws/hardware/hele-high-end-en-mid-range-segment-amd-radeon-hd-7000-reeks-op-de-nieuwe-architectuur
Ob nach RV770 jemals ein neuer GPU-Die-Shot von AMD kommen wird? ;D
Sofern man da einen Maßstab beachtet hat: Pitcain ~250mm², Cap-Verde ~165mm², ausgehend von einem 365mm² Tahiti.
Man From Atlantis
2011-12-17, 16:47:11
Und das kommt aus China:
GTX580 gegen 7970
http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5017500&viewfull=1#post5017500
It's not GTX 580.. Tahiti vs Cayman (2.64b transistors vs 4.3b)..
LovesuckZ
2011-12-17, 16:48:07
It's not GTX 580.. Tahiti vs Cayman (2.64b transistors vs 4.3b)..
Oh... :(
Thx for correction.
Ronny145
2011-12-17, 16:49:50
Die Ergebnisse schwanken ziemlich, von leicht langsamer bis 30% schneller. Im Schnitt 15-20% vor der GTX580. Nach den letzten Infos ist das ein durchaus mögliches Szenario.
It's not GTX 580.. Tahiti vs Cayman (2.64b transistors vs 4.3b)..
Hopefully a Fake or something wrong...
Die Ergebnisse schwanken ziemlich, von leicht langsamer bis 30% schneller. Im Schnitt 15-20% vor der GTX580. Nach den letzten Infos ist das ein durchaus mögliches Szenario.
Es wird, wie bei jedem Launch, sowohl nach links als auch nach rechts ein paar Auf-die-Fresse-Resultate geben.
MfG,
Raff
LovesuckZ
2011-12-17, 16:54:03
Es wird, wie bei jedem Launch, sowohl nach links als auch nach rechts ein paar Auf-die-Fresse-Resultate geben.
MfG,
Raff
Aber nicht gegen die Vorgängergeneration...
Wobei, lag r600 nicht aufgrund der AA-Problematik auch manchmal hinter r580?!
Ronny145
2011-12-17, 16:58:09
Es wird, wie bei jedem Launch, sowohl nach links als auch nach rechts ein paar Auf-die-Fresse-Resultate geben.
MfG,
Raff
Ein Schnitt von nur +20% gegenüber Cayman wäre in der Gesamtheit ein Fresse-Resultat. Vor Monaten wurde von Faktor 2 schwadroniert. Vor ein paar Tagen ging es runter auf 50%, jetzt sind wir bei +20% angekommen. Als nächstes 0%? ;D
Aber nicht gegen die Vorgängergeneration...
Wobei, lag r600 nicht aufgrund der AA-Problematik auch manchmal hinter r580?!
Der Shader-Resolve bereitet Probleme, ja. Ohne MSAA sieht R600 besser aus. Tahiti ist aber nicht R600 :)
Ein Schnitt von nur +20% gegenüber Cayman wäre in der Gesamtheit ein Fresse-Resultat. Vor Monaten wurde von Faktor 2 schwadroniert. Vor ein paar Tagen ging es runter auf 50%, jetzt sind wir bei +20% angekommen. Als nächstes 0%? ;D
Es kommt, wie immer, auf den Spiele-Parcours an. Sowohl +20 als auch +40 Prozent oder mehr sind denkbar. ;)
MfG,
Raff
HarryHirsch
2011-12-17, 17:01:20
Ein Schnitt von nur +20% gegenüber Cayman wäre in der Gesamtheit ein Fresse-Resultat. Vor Monaten wurde von Faktor 2 schwadroniert. Vor ein paar Tagen ging es runter auf 50%, jetzt sind wir bei +20% angekommen. Als nächstes 0%? ;D
war es nicht vor cayman release genauso?
also gibt es wohl gtx580 performance mit weniger verbrauch.
OgrEGT
2011-12-17, 17:04:39
Und das kommt aus China:
GTX580 gegen 7970 oder doch nur gegen Cayman?
http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5017500&viewfull=1#post5017500
Ursprünglich stammen die Werte von hier:
http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1803805-1-1.html
Dort ist einmal 4.3b vs. 2.64b (Post-Title) und 4.3b vs. 3b die Rede :confused:
LovesuckZ
2011-12-17, 17:07:06
Ursprünglich stammen die Werte von hier:
http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1803805-1-1.html
Dort ist einmal 4.3b vs. 2.64b (Post-Title) und 4.3b vs. 3b die Rede :confused:
Ja und ich ging vom letzten Satz aus, dass dies auf Fermi bezogen war.
Aber es kann auch sein, dass dies auch so etwas wie "und jetzt lasst uns das auf 4.3b vs. 3b übertragen :rolleyes:" heißen kann.
OgrEGT
2011-12-17, 17:07:38
Na wenn das mal stimmt... Das wäre in der Tat entäuschend...und (wink an Ailuros) die 500 Kröten nicht wert :freak:
OgrEGT
2011-12-17, 17:09:16
Ja und ich ging vom letzten Satz aus, dass dies auf Fermi bezogen war.
Aber es kann auch sein, dass dies auch so etwas wie "und jetzt lasst uns das auf 4.3b vs. 3b übertragen :rolleyes:" heißen kann.
Oder achte mal auf die Farben. Die -8% und -5% sind genauso rot und fett wie 4.3b vs. 3b. Der Rest bezieht sich dann vlt. auf HD6970 und diese beiden Werte auf die GTX580 :eek:
derguru
2011-12-17, 17:12:34
wo bleibt eigentlich die effektivität von der neuen architektur,die hätten ja gleich beim RV870 bleiben können,20-30% über cayman ist erbärmlich und das auch noch für über 500€ wenn es stimmen sollte.
boxleitnerb
2011-12-17, 17:14:10
Das halte ich für FUD. So ein schlechtes Ergebnis kann das gar nicht sein.
Zergra
2011-12-17, 17:14:23
Naja alles theorien.... wahrscheinlich kommt doch eh alles anders..
LovesuckZ
2011-12-17, 17:19:11
wo bleibt eigentlich die effektivität von der neuen architektur,die hätten ja gleich beim RV870 bleiben können,20-30% über cayman ist erbärmlich und das auch noch für über 500€ wenn es stimmen sollte.
Eventuell tritt hier das selbe Problem ein wie bei Cayman. Nachdem Schaubild scheint AMD immer noch ein starres Front-End zu haben. Das könnte für "graphics" weiterhin limiteren, da man nun 32 SIMDs statt 24 SIMDs hat. Somit verliert man den Effizienzgewinn durch die neuen SIMDs.
Screemer
2011-12-17, 17:23:27
ich will ocl für 7zip. hoffentlich wird gcn nicht so ein griff in die schüssel wie bd.
OgrEGT
2011-12-17, 17:26:08
Das halte ich für FUD. So ein schlechtes Ergebnis kann das gar nicht sein.
Hoffe ich auch. Habe ich aber auch bei BD gehofft...
Gipsel
2011-12-17, 17:26:15
OpenCL und dann nur Radeon-Only. :unono: Böses ATI!Sicher?
mapel110
2011-12-17, 17:30:56
Sicher?
Für mich liest sich das Marketing-GEblubber so. Kannst du was anderes rauslesen?
Gipsel
2011-12-17, 17:48:40
Für mich liest sich das Marketing-GEblubber so. Kannst du was anderes rauslesen?
Ich lese auf jeden Fall nichts von einem Vendor-Lock. Daß etwas "optimiert" für die Radeons ist (das müssen sie auf einer AMD-Marketing-Folie ja behaupten), heißt nicht, daß es woanders nicht läuft. Da die Folie betont, daß sowohl die CPU, eine integrierte Grafik und auch eine diskrete Grafik über OpenCL genutzt werden können, wird der Support vielleicht einfach nur OpenCL 1.0 oder 1.1 erfordern, eventuell noch eine optionale Erweiterung (wie z.B. die für Bitmanipulationen). Sobald das gegeben ist, kann das dann durchaus auf allen kompatiblen Geräten mit OpenCL-Treiber laufen, also z.B auch intel-CPUs und entsprechende nv-GPUs.
Hugo78
2011-12-17, 17:49:29
Das halte ich für FUD. So ein schlechtes Ergebnis kann das gar nicht sein.
Hab ich bei Bulli auch immer gedacht.
AnarchX
2011-12-17, 18:06:23
Hier kann man für ~700€ eine HD 7970 vorbestellen: http://www.salland.eu/product/1082713/asus-radeon-hd-7970-3072-mb-hd7970-3gd5.html
deekey777
2011-12-17, 18:09:19
OBR ist aus dem Schlaf erwacht:
http://1.bp.blogspot.com/-WieU8waLVCI/Tutcj_809YI/AAAAAAAABkM/6NgXAFpMJqQ/s1600/slajdek.png
Also vorher war der L2-Cache auf vier 64-bit-MCs verteilt, also 4x128 KB. Jetzt sind 6 MCs, also 6x128 KB.
Bis zu 768 KB bedeutet dann, dass die kleineren HD7900 weniger Memorycontroller haben und somit ein kleineres Speicherinterface, aber davon ist kein Wort auf der Folie.
Superheld
2011-12-17, 18:10:14
Hier kann man für ~700€ eine HD 7970 vorbestellen: http://www.salland.eu/product/1082713/asus-radeon-hd-7970-3072-mb-hd7970-3gd5.html
1000Mhz..
derguru
2011-12-17, 18:10:16
Hier kann man für ~700€ eine HD 7970 vorbestellen: http://www.salland.eu/product/1082713/asus-radeon-hd-7970-3072-mb-hd7970-3gd5.html
auch wenn man den preis noch nicht für voll nehmen kann aber die richtung über 500€ ist wohl wahr und dann nur bissel schneller als ein cayman? ich glaubs nicht!
AnarchX
2011-12-17, 18:11:59
Also vorher war der L2-Cache auf vier 64-bit-MCs verteilt, also 4x128 KB. Jetzt sind 6 MCs, also 6x128 KB.
Bis zu 768 KB bedeutet dann, dass die kleineren HD7900 weniger Memorycontroller haben und somit ein kleineres Speicherinterface, aber davon ist kein Wort auf der Folie.
http://we.pcinlife.com/thread-1803470-1-1.html
7950 mit 1792SPs@TBD und 384-Bit@5Gbps.
Da könnte wohl noch eine 7930 kommen, mit weniger als 384-Bits. Ansonsten sollte man da "up to" wohl nicht so ernst nehmen.
boxleitnerb
2011-12-17, 18:32:06
AMD hat da ein heißes Eisen im Feuer mit dem Powermanagement. Alle Karten abschalten in CF bis auf die aktive...und die bei 3W. Wow!
LovesuckZ
2011-12-17, 18:40:15
auch wenn man den preis noch nicht für voll nehmen kann aber die richtung über 500€ ist wohl wahr und dann nur bissel schneller als ein cayman? ich glaubs nicht!
Warum nicht? 8150 kostet auch 235€ gegenüber den 168€ des 1100T.
AMD wird ihre Preisschiene einfach ändern. Wenn die Liefermenge sowieso gering sein sollte, werden die paar Karten für 500€+ erkaufen.
Superheld
2011-12-17, 18:41:06
Übersetzt..
Anisotrope Filterung ist grundsätzlich und 6900, aber die neue, verbesserte Hochfrequenz-Textur-Flimmern Probleme.
AnarchX
2011-12-17, 18:46:08
Overklokresultaten intern bij AMD:
1,2GHz GPU
6500MHz GDDR5
http://gathering.tweakers.net/forum/list_message/37343474#37343474
Hoffentlicht mit WaKü, besser Luft und nicht LN2.
LovesuckZ
2011-12-17, 18:49:39
Aus dem Forum mit den Daten:
asdfjkl at 2011-12-17 14:45
Will Tahiti architecture, DP: SP's ratio? 1:2 or 1:4?
1:4.
GCN full-length may be 1:2.
Doch kein 1:2 für Tahiti und erst in Zukunft auf 1:2?!
Nakai
2011-12-17, 18:57:51
Doch kein 1:2 für Tahiti und erst in Zukunft auf 1:2?!
Wohl Beschneidung für Consumerkarten, wie bei NV(wenn ich mich recht entsinne).
Anisotrope Filterung ist grundsätzlich und 6900, aber die neue, verbesserte Hochfrequenz-Textur-Flimmern Probleme.
Mhh, was könnte das zu bedeuten haben?
Ich denke, Texturfilterung wie 6900 aber neue verbesserte Filterung für hochfrequente Texturen.
fondness
2011-12-17, 18:58:57
Aus dem Forum mit den Daten:
Doch kein 1:2 für Tahiti und erst in Zukunft auf 1:2?!
Am Desktop gibt es vermutlich nur gebremste 1:4, am professionellen Bereich dann aber 1:2, man hat ja die gute Skalierbarkeit bei der Präsentation extra betont. Ansonsten sehe ich wenig Gründe warum man von VLIW umgestiegen ist, dort hatte man schließlich auch schon 1:4.
Gipsel
2011-12-17, 19:02:41
Da könnte wohl noch eine 7930 kommen, mit weniger als 384-Bits. Ansonsten sollte man da "up to" wohl nicht so ernst nehmen.
Die können auch einfach auf 64kB pro L2-Slice gehen.
Blediator16
2011-12-17, 19:04:56
Am Desktop gibt es vermutlich nur gebremste 1:4, am professionellen Bereich dann aber 1:2, man hat ja die gute Skalierbarkeit bei der Präsentation extra betont. Ansonsten sehe ich wenig Gründe warum man von VLIW umgestiegen ist, dort hatte man schließlich auch schon 1:4.
Vll. wegen Trinity/Vishera:confused:
AnarchX
2011-12-17, 19:14:36
Die können auch einfach auf 64kB pro L2-Slice gehen.
Wäre das nicht zu wenig für einen (sinnvoll) teildeaktiven Tahiti?
Ich denke, Texturfilterung wie 6900 aber neue verbesserte Filterung für hochfrequente Texturen.
Eben das Problem in der Berechnung der Samples, was man mit Codas Hilfe erkannt und gelöst hat.
Mal sehen ob man diese Filterqualität zum Treiberstandard macht und somit NV auch zu HQ-Default zwingen könnte.
Am Desktop gibt es vermutlich nur gebremste 1:4, am professionellen Bereich dann aber 1:2, man hat ja die gute Skalierbarkeit bei der Präsentation extra betont. Ansonsten sehe ich wenig Gründe warum man von VLIW umgestiegen ist, dort hatte man schließlich auch schon 1:4.
GCN ist wohl doch einiges mehr als die Fähigkeit zu 1:2 DP. ;)
Gipsel
2011-12-17, 19:17:01
Wäre das nicht zu wenig für einen (sinnvoll) teildeaktiven Tahiti?Für eine 7930 bestimmt nicht, siehe 5830.
GCN ist wohl doch einiges mehr als 1:2 DP.Falls 1:2 nicht erst mit GCN v2 kommt...
AnarchX
2011-12-17, 19:26:17
Falls 1:2 nicht erst mit GCN v2 kommt...
Was gäbe es eigentlich für Gründe, dass man bei Tahiti auf 1:2 verzichtet hat?
Die DP-Krone an NV oder Intel abzugeben und das wohl mit nicht gerade geringem Vorsprung, wäre nicht gerade an positives Signal...
Gipsel
2011-12-17, 19:32:48
Was gäbe es eigentlich für Gründe, dass man bei Tahiti auf 1:2 verzichtet hat?Transistoren sparen.
Die DP-Krone an NV oder Intel abzugeben und das wohl mit nicht gerade geringem Vorsprung, wäre nicht gerade an positives Signal...Soo groß ist der Abstand jetzt ja nun auch nicht. KnightsCorner steht irgendwo bei maximal 1,2 TFlop/s, Tahiti mit 1:4 bei ~0,95 TFlop/s. Wo Kepler aufschlägt, ist ja noch nicht hundertprozentig klar (aktuelle Vermutungen gehen von 1,4+ TFlop/s aus). Cayman lag ja sogar in DP vor den Fermi-Teslas, geholfen hat es trotzdem nicht viel. Es kommt also offensichtlich auch auf andere Qualitäten an.
LovesuckZ
2011-12-17, 19:34:49
Ich dachte ja, dass das 128kb Register File nicht ausreichend wäre bei Fermi, um DP in einem Takt zu gewährleisten. AMD gibt ihren Vec16 Einheiten nur 64kb, daher meine Vermutung, dass man 4 Takte bräuchte und ein Ratio von 1:4 erreicht.
Mal sehen, da auch der Front-End Aufbau ein bisschen überraschend ist, warte ich gespannt auf Donnerstag.
Gipsel
2011-12-17, 19:45:52
Ich dachte ja, dass das 128kb Register File nicht ausreichend wäre bei Fermi, um DP in einem Takt zu gewährleisten. AMD gibt ihren Vec16 Einheiten nur 64kb, daher meine Vermutung, dass man 4 Takte bräuchte und ein Ratio von 1:4 erreicht.Die Größe des Regfiles hat damit gar nichts zu tun.
Bei der Größe mußt Du sehen, wie viele Threads damit auskommen müssen. Bei GF1xx versorgen die 128 kB im Prinzip drei Vec16/Vec32-ALUs (plus SFUs+L/S), die eine sehr lange Pipeline haben und deswegen notgedrungen auch viele Threads in Flight halten müssen. GCN hat eine wesentlich kürzere Pipeline und 64kB pro Vec16/Vec64-ALU.
aylano
2011-12-17, 21:20:22
wenn man schon so komische auflistungen macht, sollte man wenigstens schauen das sie korrekt sind ;)
wie kommst du auf 0,5 monate zwischen NV und AMD bei 55nm?!?
es waren eher über 6 monate, erste NV GPU in 55nm war der G92b und der kam im Juni 2008 auf der GeForce 9800GTX+. Erste AMD GPU
in 55nm war der RV670 und der kam im November 2007.
(wenn ich das Datum es noch richtig im Kopf habe)
NV wollte 55nm eigentlich auslassen, deswegen kamen die 55nm GPUs auch so spät.
Sorry, hatte 65nm mit 55nm verwechselt.
Die großen Abstände deutet auch für mich auch an, dass es Nvidia nicht wichtig war und somit auch mir eigentlich in der Auflistung nicht wichtig sind.
Wichtig ist der Sprung über Full-Node. Und da war es mit GT200 (Taktziele nicht erreicht, hätte früher kommen sollen) sowie später mit GT200b nicht unproblematisch.
Einen zeitlichen Fertigungs Vorteil gibt es übrigens nicht,
Sicher gabs einen Vorsprung. Man muss nur die gleichen Die-Größen vergleichen.
NV hat mehr fach schon betont das sie nicht GPUs auf den Markt hauen die nicht vernünftig Herstellbar sind, kosten+menge+preis muss einfach stimmen. AMD hat das aber bis jetzt schon öfter gmacht zb. mit RV740 oder RV870 oder bald wohl auch R1000.
Selbst die GT216 waren am anfang kaum zu bekommen und NV hat die am anfang NUR an die OEMs verkauft weil es für die Retail nicht gerreicht hat.
Deshalb ist der Momentan Start sogar besser als mit HD 5870, weil AMD diesesmal nicht nur den ersten 28nm-Chip draußen hat, sondern gleichzeitig als erster einen "High-End"-28nm-Chip.
Nvidia war eben damals trotz GF100-Verspätung recht gut positioniert (und somit AMD ungegünstiger als es den Anschein hatte) weil sie GT216 & GT218 draußen hatten, wo AMD lange keine 40nm-GPUs hatte.
RV740 war einfach nur fehlplatziert.
Damals hatte GT216 & GT218 eben auch schon eine Gewinn & Marktanteilsteigerung bewirkt.
Warum die 28nm-Low-end & Mainstraim noch nicht draußen sind, ist schon etwas merkwürdig.
Man weiß ja, dass Nvidia schon fertige hat.
Es wird spannend, was nach Thaiti kommt.
Die Kleineren Modelle von AMD oder Nivdia?
Aber dass es mit den kleinen Modellen nicht rosig aussieht, dachte ich mir sofort, nachdem Nvidia & AMD ihren 600er & 7000er-Label-40nm-GPUs vor kurzem einführten.
Es sieht stark danach aus, ass die das wegen der Ive-Bridge-Einführung.
D. h. da Ive-Bridge erst in April kommen sollte, dürfte die Low-End & Mainstream-GPU-Ramp auch in April bei beiden ziemlich schwach werden.
deekey777
2011-12-17, 23:06:18
Für eine 7930 bestimmt nicht, siehe 5830.
Falls 1:2 nicht erst mit GCN v2 kommt...
Die HD5830 hatte (auch?) nur 16 ROPs. War da der L2-Cache wirklich teildeaktiviert?
Gipsel
2011-12-18, 00:47:27
Die HD5830 hatte (auch?) nur 16 ROPs. War da der L2-Cache wirklich teildeaktiviert?
Keine Ahnung, die ROPs haben ja nochmal einen getrennten spezialisierten Cache (der bei der 5830 dann entsprechend mit deaktiviert wird). Ich wollte bloß darauf hinaus, daß die 16 ROPs bei der 5830 eine ziemlich heftige Deaktivierung waren. Die kleineren GPUs (<Juniper) haben ja von Anfang an nur einen 64kB L2-Cache pro Memory-Controller gehabt (Turks hat z.B. nur 128kB L2, die Architektur-Präsentationen für die R800-Reihe sagen afaik 64-128kB L2 pro Mem-Controller). Diese GPUs sterben ja nun auch nicht gerade wegen fehlender L2-Größe (Bandbreite skaliert mit der Anzahl der Slices, nicht mit der Größe pro Slice), das geht also auch.
Ailuros
2011-12-18, 07:38:28
Transistoren sparen.
Soo groß ist der Abstand jetzt ja nun auch nicht. KnightsCorner steht irgendwo bei maximal 1,2 TFlop/s, Tahiti mit 1:4 bei ~0,95 TFlop/s. Wo Kepler aufschlägt, ist ja noch nicht hundertprozentig klar (aktuelle Vermutungen gehen von 1,4+ TFlop/s aus). Cayman lag ja sogar in DP vor den Fermi-Teslas, geholfen hat es trotzdem nicht viel. Es kommt also offensichtlich auch auf andere Qualitäten an.
U.a. Unterstuetzung.
Wichtig ist der Sprung über Full-Node. Und da war es mit GT200 (Taktziele nicht erreicht, hätte früher kommen sollen) sowie später mit GT200b nicht unproblematisch.
Ja und? Wer erzaehlt denn gerade dass Tahiti AMD's eigentliche Taktziele erreicht hat?
Sicher gabs einen Vorsprung. Man muss nur die gleichen Die-Größen vergleichen.
Wir werden spaetestens bis Ostern sehen um was es sich genau handelte.
Deshalb ist der Momentan Start sogar besser als mit HD 5870, weil AMD diesesmal nicht nur den ersten 28nm-Chip draußen hat, sondern gleichzeitig als erster einen "High-End"-28nm-Chip.
Es ist beschissener als mit Cypress, aber ich erwarte auch nicht dass es die AMD Juenger einsehen wollen. "High end" selbst mit Anfuehrungsstrichen ist es nur was den Preis betrifft am Anfang mit high end Warteschlangen fuer Verfuegbarkeit eben weil es "besser" sein wird als mit Cypress.
Nvidia war eben damals trotz GF100-Verspätung recht gut positioniert (und somit AMD ungegünstiger als es den Anschein hatte) weil sie GT216 & GT218 draußen hatten, wo AMD lange keine 40nm-GPUs hatte.
RV740 war einfach nur fehlplatziert.
Damals hatte GT216 & GT218 eben auch schon eine Gewinn & Marktanteilsteigerung bewirkt.
Dir und Dural sollte es mal klingeln dass NV noch keine desktop/notebook SoCs hat.
Warum die 28nm-Low-end & Mainstraim noch nicht draußen sind, ist schon etwas merkwürdig.
Man weiß ja, dass Nvidia schon fertige hat.
Dann schick mal "Man" liebe Gruesse wenn er so gut informiert ist. In Q2 11' entschied sich NV dass GK107 fuer Q1' 12 angeschlagen wird. Grund: ultra-beschissene yields.
Es wird spannend, was nach Thaiti kommt.
Die Kleineren Modelle von AMD oder Nivdia?
Wieso auch nicht fast gleichzeitig? Zwar nichts besonderes, aber wenn es schon losgeht bei beiden erwartet man auch dass innerhalb N Zeitspanne beide die von top to bottom (oder auch andersrum) Luecken zu fuellen.
Aber dass es mit den kleinen Modellen nicht rosig aussieht, dachte ich mir sofort, nachdem Nvidia & AMD ihren 600er & 7000er-Label-40nm-GPUs vor kurzem einführten.
Nach wem denn? Charlie?
Es sieht stark danach aus, ass die das wegen der Ive-Bridge-Einführung.
D. h. da Ive-Bridge erst in April kommen sollte, dürfte die Low-End & Mainstream-GPU-Ramp auch in April bei beiden ziemlich schwach werden.
Lass Dir doch Zeit; erstmal kommen Weihnachten mit einem kunterbunten paper launch seitens AMD nur damit man behaupten kann dass sie ihren Marketing-Scheiss eingehalten haben und dann "brutale" Verfuegbarkeit in der 2. Januar Woche. Sonst liegst Du auf dem komplett falschen Bein was low end beider IHVs betrifft.
OgrEGT
2011-12-18, 09:02:22
Es ist beschissener als mit Cypress, aber ich erwarte auch nicht dass es die AMD Juenger einsehen wollen. "High end" selbst mit Anfuehrungsstrichen ist es nur was den Preis betrifft am Anfang mit high end Warteschlangen fuer Verfuegbarkeit eben weil es "besser" sein wird als mit Cypress.
Du kannst es drehen und wenden wie Du willst, selbst wenn sich nach Paperlaunch (deshalb freue ich mich auch über den Paperlaunch, da dann die die Karten auf den Tisch [wenn auch nicht der Ladentisch :D] gelegt werden) zeigt, dass Tahiti weitaus weniger Leistung haben sollte als ursprünglich hier spekuliert (+30% über GTX580) für AMD ist und bleibt es dann erstmal deren Highend GPU. Mit "Jüngerschaft" so wie Du es nennst hat das nichts zu tun. Nachdem die Informationen aus China gestern eine deutlich niedrigere Leistung prognostizieren (lediglich GTX580 Niveau im Durchschnitt) kann man wohl sicher entäuscht sein, sofern es so kommen sollte. Deinen Andeutungen nach entnehme ich genau das. Und wenn schon... so what... davon geht die Welt auch nicht unter... Zudem ist es AMDs erste Auflage der neuen Architektur, warten wir's ab, was da in Zukunft rauszuholen ist. Sollte Tahiti wirklich so schlecht sein wie Du sagst, dann brauchst Du Dir mittel/langfristig keine Sorgen über einen zu hohen Preis machen. Der Markt wird das mit Sicherheit regulieren.
Kinman
2011-12-18, 10:11:36
Die Preisdebatte finde ich ehrlich gesagt ein wenig lächerlich. Selbst bei einen Preis von 500€ finde ich nicht übertrieben. Wenn man auch die Geldentwertung betrachtet, so finde ich Grafikkarten nicht (zu) teuer. Natürlich wäre es mir auch recht, wenn sie günstiger wären, aber ich habe noch immer die Zeiten im kopf, wo eine Geforce 2 Ultra umgerechnet 1000€ gekostet hat - ganz ohne die Geldentwertung zu beachten (mit wären es ungefähr 1200€).
Bis zu 500€ für neue High-End Chips (ich zähle, was zum Zeitpunkt erhältlich ist, nicht in Generationen) finde ich somit in Ordnung.
Außerdem gehe ich davon aus, dass AMD ganz genau weiß, wieviel sie für eine Grafikkarte verlangen dürfen. Ist ja nicht so, als würden sie einen Preis einfach aus dem Himmel heraus raten.
lg Kinman
AnarchX
2011-12-18, 10:22:50
Im Endeffekt könnte es wohl auf Skimming hinauslaufen und die 7970 liegt gegen Ende 2012 deutlich unter 300€.
btw.
Die GF2 Ultra hatte einen MSRP von ~$500. ;)
Kinman
2011-12-18, 10:25:11
Ändert nichts daran, dass ich sie niergendwo für unter 13.000 Schilling haben konnte. Aber gut, wir wollen MSRP vergleichen. Macht noch immer ca. 100€ Inflation aus.
lg Kinman
Skysnake
2011-12-18, 11:29:58
Transistoren sparen.
Soo groß ist der Abstand jetzt ja nun auch nicht. KnightsCorner steht irgendwo bei maximal 1,2 TFlop/s, Tahiti mit 1:4 bei ~0,95 TFlop/s. Wo Kepler aufschlägt, ist ja noch nicht hundertprozentig klar (aktuelle Vermutungen gehen von 1,4+ TFlop/s aus). Cayman lag ja sogar in DP vor den Fermi-Teslas, geholfen hat es trotzdem nicht viel. Es kommt also offensichtlich auch auf andere Qualitäten an.
Du vergisst dabei aber das MIC wohl deutlich leichter seinen theoretischen Peakwert erreicht, als Die GPUs, die das praktisch nie erreichen. So lange die GPUs nicht >40% Leistungsvorsprung haben, bin ich da ziemlich skeptisch.
@Ailuros:
Redest du eigentlich nur über Gaming, oder über den gesamten Querschnitt der Karten, also auch GPGPU?
Da gibt's ja auch eine Folie mit Mandelbrot drauf und die Balken sahen teils fett aus! Leider gibt es die nur in klein wo man fast nichts sieht -.-
Wenn der Leistungsschub in GPGPU passt, dann bin ich zufrieden, und es deckt sich mit dem was ich schon lange erwartet habe. Eine deutliche Fokussierung auf GPGPU für diese Generation mit nur einer kleinen Leistungssteigerung für Gamer. Die kaufen überspitzt gesagt ja auch den letzten Dreck, Hauptsache etwas schneller als aktuell, und wenn dann noch das AA/AF jetzt passt halten die bestimmt den Rand und sind zufrieden mit dem was Sie haben.
Damit hätte man eben Luft um zu nVidia auf zu schließen und nicht gleich von MIC überrollt zu werden. Würde zumindest auch zu deinen Andeutungen passen, wäre für mich aber durchaus positiv, wenn auch für die restlichen 99% nicht. Nvidia wird aber sicherlich eine ähnliche Schiene fahren. Die reiten ja auch extrem das Effizienz-Pferd.
Ailuros
2011-12-18, 11:38:25
Du kannst es drehen und wenden wie Du willst, selbst wenn sich nach Paperlaunch (deshalb freue ich mich auch über den Paperlaunch, da dann die die Karten auf den Tisch [wenn auch nicht der Ladentisch :D] gelegt werden) zeigt, dass Tahiti weitaus weniger Leistung haben sollte als ursprünglich hier spekuliert (+30% über GTX580) für AMD ist und bleibt es dann erstmal deren Highend GPU. Mit "Jüngerschaft" so wie Du es nennst hat das nichts zu tun. Nachdem die Informationen aus China gestern eine deutlich niedrigere Leistung prognostizieren (lediglich GTX580 Niveau im Durchschnitt) kann man wohl sicher entäuscht sein, sofern es so kommen sollte. Deinen Andeutungen nach entnehme ich genau das. Und wenn schon... so what... davon geht die Welt auch nicht unter... Zudem ist es AMDs erste Auflage der neuen Architektur, warten wir's ab, was da in Zukunft rauszuholen ist. Sollte Tahiti wirklich so schlecht sein wie Du sagst, dann brauchst Du Dir mittel/langfristig keine Sorgen über einen zu hohen Preis machen. Der Markt wird das mit Sicherheit regulieren.
Tahiti PRO sollte irgendwo bei 580+30% liegen und XT einen Schnitt unter der 6990, hab es von Anfang behauptet und werde auch nichts daran aendern. Welches beides nichts ausserhalb des erwarteten liegt fuer den Umstieg von 40 auf 28nm. Die Leistungs-einschaetzung hab ich von Anfang an vertreten und dabei ist es mir wurscht was jede Bums-seite behauptet oder nach irgendwelchem veralteten synthetischen Resultaten geht.
AMD haette eine kurze Zeit warten koennen um mit normaleren Preisen anzukommen.
Wenn man etwas gegen AMD sagt hat man sofort die AMD Juengerschaft am Hals und andersrum ebenso wenn man sich erlaubt NVIDIA zu kritisieren. Der ganze vorzeitige Launch ist Bloedsinn und genauso der zu hohe Preisanschlag und dabei ist es mir egal ob die Meinung manchen nicht passen sollte. Ich hab nach wie vor das Recht sie zu aeussern und ja manchmal schmerzt eben die Wahrheit.
Ja natuerlich wird der Markt das Ganze regeln und ich will auch ernsthaft hoffen fuer AMD dass die Verbraucher es ziemlich gleichgueltig aufnehmen.
@Ailuros:
Redest du eigentlich nur über Gaming, oder über den gesamten Querschnitt der Karten, also auch GPGPU?
Klinge ich nach jemand der etwas mit HPC zu tun haben koennte?
Wenn der Leistungsschub in GPGPU passt, dann bin ich zufrieden, und es deckt sich mit dem was ich schon lange erwartet habe. Eine deutliche Fokussierung auf GPGPU für diese Generation mit nur einer kleinen Leistungssteigerung für Gamer. Die kaufen überspitzt gesagt ja auch den letzten Dreck, Hauptsache etwas schneller als aktuell, und wenn dann noch das AA/AF jetzt passt halten die bestimmt den Rand und sind zufrieden mit dem was Sie haben.
Damit hätte man eben Luft um zu nVidia auf zu schließen und nicht gleich von MIC überrollt zu werden. Würde zumindest auch zu deinen Andeutungen passen, wäre für mich aber durchaus positiv, wenn auch für die restlichen 99% nicht. Nvidia wird aber sicherlich eine ähnliche Schiene fahren. Die reiten ja auch extrem das Effizienz-Pferd.
Innerhalb logischen Grenzen werden beide IHVs das liefern was man von 40 auf 28nm liefern koennten. Nichts enttaeuschendes und nichts absolut ausserordentliches egal was das Marketing jeder Seite verkaufen will.
Skysnake
2011-12-18, 11:48:01
Na dann bleibt für mich ja noch einiges an Hoffnung bestehen, wenn ich an die Vorschau der GPGPU-Folie denke :biggrin:
Hat die nicht irgendwer rum liegen? :(
Botcruscher
2011-12-18, 12:04:38
Ja natuerlich wird der Markt das Ganze regeln und ich will auch ernsthaft hoffen fuer AMD dass die Verbraucher es ziemlich gleichgueltig aufnehmen.
Trotzdem verstehen einige hier diene Kritik nicht. Mit AMD-Jüngerschaft hat das nichts zu tun. AMD hat die Wahl zu warten und nichts zu verkaufen oder die Preise an den Fertigungskosten aus zu richten. Kurz: Zu Anfang kaum lieferbar, bei saftigen Preisen und irgendwann Richtung März(oder später,wir kennen ja TSMC) entspannt sich alles. Early adaptor wird nicht umsonst mit Deppenaufschlag übersetzt.
Neon3D
2011-12-18, 12:24:10
ich hoffe da geht noch was mit der performance :/
der chinese versprüht aber nicht gerade viel hoffnung.
Measured a total of 12 games, including a sub-run software, but can not play 3, a mapping error.
Name of the game is not being said, the resolution is 1920x1200 all max
12%
35%
20%
n / a
n / a
-8%
17%
31% (mapping error)
19%
-5%
33%
n / a
As 4.3b vs 3b we can estimate their own
-> also hat er 7970 vs 6970 verglichen. na dann kann man auch bei candyman bleiben und 200€ für die paar % sparen.
Zergra
2011-12-18, 12:25:11
ich hoffe da geht noch was mit der performance :/
der chinese versprüht aber nicht gerade viel hoffnung.
Measured a total of 12 games, including a sub-run software, but can not play 3, a mapping error.
Name of the game is not being said, the resolution is 1920x1200 all max
12%
35%
20%
n / a
n / a
-8%
17%
31% (mapping error)
19%
-5%
33%
n / a
As 4.3b vs 3b we can estimate their own
-> also hat er 7970 vs 6970 verglichen. na dann kann man auch bei candyman bleiben und 200€ für die paar % sparen.
wurde weiter oben schon gepostet...
OgrEGT
2011-12-18, 12:34:06
Tahiti PRO sollte irgendwo bei 580+30% liegen und XT einen Schnitt unter der 6990, hab es von Anfang behauptet und werde auch nichts daran aendern. Welches beides nichts ausserhalb des erwarteten liegt fuer den Umstieg von 40 auf 28nm. Die Leistungs-einschaetzung hab ich von Anfang an vertreten und dabei ist es mir wurscht was jede Bums-seite behauptet oder nach irgendwelchem veralteten synthetischen Resultaten geht.
AMD haette eine kurze Zeit warten koennen um mit normaleren Preisen anzukommen.
Na also ehrlich, Du machst es einem nicht leicht Dich und Deine Preisvorstellungen zu verstehen.
Wenn man etwas gegen AMD sagt hat man sofort die AMD Juengerschaft am Hals und andersrum ebenso wenn man sich erlaubt NVIDIA zu kritisieren. Der ganze vorzeitige Launch ist Bloedsinn und genauso der zu hohe Preisanschlag und dabei ist es mir egal ob die Meinung manchen nicht passen sollte. Ich hab nach wie vor das Recht sie zu aeussern und ja manchmal schmerzt eben die Wahrheit.
Hier geht es nicht um Fanboy-Gehabe, auch wenn Du es noch so oft unterstellst. Was Du von Dir gibst hinsichtlich Deiner Preisvorstellungen passt überhaupt nicht damit zusammen, was Du hinsichtlich der Leistung erwartest. Kritik ist immer willkommen, sie muss aber auch Sinn machen. Und wenn Du meinst dass Tahiti-XT mit einer Leistung bei HD6990 keine 500-600EUR wert ist, dann weiß ich auch nicht. Das ist einfach nicht plausibel. Allein das ist es was ich nicht nachvollziehen kann. Und diese Meinung werde ich wohl auch noch vertreten dürfen, ohne von Dir beschimpft zu werden. Und damit ist für mich hier jetzt EOD.
Ronny145
2011-12-18, 12:45:23
http://www.donanimhaber.com/ekran-karti/haberleri/iste-AMD-Radeon-HD-7900-serisi-icin-alti-cizilen-ana-ozellikler.htm
Müsste neu sein die Folie.
Zergra
2011-12-18, 12:56:32
naja vllt. liegen die Ergebnisse auch soweit unten weil PCi 2.0 limitiert... wer weiß vllt bringt die erst die Volle leistung mit Sandy -E ( der ja 3.0 unterstütz).... fällt mir grade nur so auf kann sein das die 3.0 Schnittstelle einfach nur schlecht abwärtskompatibel sein... wir warten :D und die vermutung gibt viel neue Hoffnung
22 Aralık'ta lanse edilmesi beklenen ekran kartlarına,
22 Dezember hmmm :D mal schauen was da kommt.. das wäre ja schon in 4 Tagen :P
Gipsel
2011-12-18, 12:58:09
naja vllt. liegen die Ergebnisse auch soweit unten weil PCi 2.0 limitiert... wer weiß vllt bringt die erst die Volle leistung mit Sandy -E ( der ja 3.0 unterstütz)....Das glaubst Du jetzt nicht wirklich, oder? :freak:
Zergra
2011-12-18, 12:59:29
Das glaubst Du jetzt nicht wirklich, oder? :freak:
wer weiß... wer weiß.... ich glaube bis jetzt wurde die noch nicht mit Sandy E getestet.... und vllt hat amd ja an der Schnittstelle gespart..
OgrEGT
2011-12-18, 13:09:10
Das glaubst Du jetzt nicht wirklich, oder? :freak:
Wenns die Karte wirklich für den alten PCI Steckplatz geben sollte, dann vlt. ja...
:ulol4:
aufkrawall
2011-12-18, 13:18:22
"Custom resolutions"
Wär ja nett, wenn damit Downsampling ginge.
wer weiß... wer weiß.... ich glaube bis jetzt wurde die noch nicht mit Sandy E getestet.... und vllt hat amd ja an der Schnittstelle gespart..
Zur Erinnerung: Die AMD-Chipsätze unterstützen alle noch kein PCIe3. Glaubst du wirklich, sie versuchen nicht das Maximum aus ihrer eigenen Plattform rauszuholen?
OgrEGT
2011-12-18, 13:30:30
Also insgesamt, von dem was hier herumschwirrt könnte Tahiti recht interessant werden:
- Spekulierte Leistung GTX580+30% (Pro) vlt. bis zu HD6990 (XT) (?)
- TDP spekuliert bei 210W bei 925MHz
- OC bis >1GHz möglich
- AMD ZeroPower
- Gefixtes AF
- Downsampling möglich (?)
- DX 11.1
- PCIe 3.0
- Tesselation Leistung auf Höhe von GF110
Zergra
2011-12-18, 13:31:42
Zur Erinnerung: Die AMD-Chipsätze unterstützen alle noch kein PCIe3. Glaubst du wirklich, sie versuchen nicht das Maximum aus ihrer eigenen Plattform rauszuholen?
Neben der Bestätigung der bereits bekannten Spezifikationen wird dort auch PCI Express 3.0, die Unterstützung für DirectX 11.1 und weitere Dinge offenbart.
Quelle (http://www.computerbase.de/news/2011-12/komplette-spezifikationen-zur-hd-7970-aufgetaucht/)
wenn und was steht da?
mironicus
2011-12-18, 13:36:08
Erste Listungen für eine Asus 7970 in den Niederlande: 625 Euro.
http://www.hartware.net/news_53565.html
Gipsel
2011-12-18, 13:37:00
- Tesselation Leistung auf Höhe von GF110Nein, die liegen noch drunter. Die Idee ist aber, daß das außerhalb von Techdemos (in Spielen) nicht mehr wesentlich bremst.
Zergra
2011-12-18, 13:40:16
Launch auf den 22. Dezember vorgezogen haben.
erst im Januar soll eine breite Verfügbarkeit gewärhleistet sein.
also doch alles etwas anders als erwartet...
und naja der preis hier wird ja noch anders werden als in den Niederlanden...
Knuddelbearli
2011-12-18, 13:49:56
also ich persönlich habe nichts gegen paperlaunch von mir aus darf NV auch am 23ten seinen GK104 Paperlaunchen. Dann sind die Karten auf dem Tisch. Auch wenn spekulieren irgendwie Spass amcht ^^
Quelle (http://www.computerbase.de/news/2011-12/komplette-spezifikationen-zur-hd-7970-aufgetaucht/)
wenn und was steht da?
Mit "eigene Plattform" meinte ich die AM3-Boards, welche nur PCIe2 unterstützen.
Zergra
2011-12-18, 13:55:15
Mit "eigene Plattform" meinte ich die AM3-Boards, welche nur PCIe2 unterstützen.
Aso... ja klar aber vllt wollen sie das nachreichen ..... und bringen dann neue Boards raus... oder so kann ja auch sein
naja vllt. liegen die Ergebnisse auch soweit unten weil PCi 2.0 limitiert... wer weiß vllt bringt die erst die Volle leistung mit Sandy -E ( der ja 3.0 unterstütz).... fällt mir grade nur so auf kann sein das die 3.0 Schnittstelle einfach nur schlecht abwärtskompatibel sein... wir warten :D und die vermutung gibt viel neue Hoffnung
[...]
Ein Wort: Quatsch. PCIe limitiert 100%ig garnichts. PCIe3 ist wie die Upgrades davor purer Luxus für die ersten Generationen mit dieser neuen Schnittstelle. Selbst heute merkt man nicht, ob eine PCIe2-Karte in einem PCIe1 PEG läuft, die Bandbreite ist einfach nicht das Problem. Dafür haben die Teile 16 Lanes, das reicht dicke.
Zergra
2011-12-18, 14:00:26
Ein Wort: Quatsch. PCIe limitiert 100%ig garnichts. PCIe3 ist wie die Upgrades davor purer Luxus für die ersten Generationen mit dieser neuen Schnittstelle. Selbst heute merkt man nicht, ob eine PCIe2-Karte in einem PCIe1 PEG läuft, die Bandbreite ist einfach nicht das Problem. Dafür haben die Teile 16 Lanes, das reicht dicke.
du weißt ja garnicht wie start PCIe abwärtskompatibel ist... das war von mir auch nur eine vermutung... also steht wieder aussage geben aussage...
wir warten es ab..
mironicus
2011-12-18, 14:03:03
Meint ihr der Idle-Verbrauch von nur 3 Watt bezieht sich darauf, dass sich die Grafikkarte einfach komplett abschaltet, während der PC aber trotzdem noch weiterarbeiten kann z.B. mit der Onboard-GPU?
Zergra
2011-12-18, 14:05:42
Meint ihr der Idle-Verbrauch bezieht sich darauf, dass sich die Grafikkarte einfach komplett abschaltet, während der PC aber trotzdem noch weiterarbeiten kann z.B. mit der Onboard-GPU?
soweit wurde es erklärt ja... wird warscheinlich so sein....
LovesuckZ
2011-12-18, 14:06:16
Soweit ich das sehe, muss der Monitor dafür ausgeschaltet sein. Demnach sollte ein weiterarbeiten möglich sein.
mironicus
2011-12-18, 14:07:55
Ist das Feature eventuell limitiert auf AMD-CPUs/AMD-Mainboards?
y33H@
2011-12-18, 14:18:57
Unwahrscheinlich, ebenso wie der Gedanke, dass Tahiti nur mit einer CPU, die PCI-E 3.0 beherrscht ihr Potenzial voll ausspielen kann. idR limitiert alles mögliche, aber nicht die Slot-Anbindung.
Spasstiger
2011-12-18, 14:19:18
Nein, die liegen noch drunter.
In den theoretischen Tessellations-Benchmarks (DirectX-SDK) von hardware.fr ist die GTX 580 im besten Fall etwas mehr als doppelt so schnell wie die Radeon HD 6970. Könnte schon sein, dass es der HD 7970 in diesen Benchmarks zu einem Sieg gegenüber der GTX 580 reicht. Aber gegen Kepler wirds wohl wieder eine deutliche Niederlage (32 Tessellatoren @ >1 GHz).
LovesuckZ
2011-12-18, 14:57:37
donanimhaber hat die Folien zum IDLE-Verbrauch veröffentlicht:
http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fekran-karti%2Fhaberleri%2FAMDden-Nvidiaya-gonderme-Coklu-GPU-enerji-verimliliginde-acik-ara-ondeyiz.htm
Zergra
2011-12-18, 15:02:54
donanimhaber hat die Folien zum IDLE-Verbrauch veröffentlicht:
http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fekran-karti%2Fhaberleri%2FAMDden-Nvidiaya-gonderme-Coklu-GPU-enerji-verimliliginde-acik-ara-ondeyiz.htm
also doch eher für Multi Gpus... war ja soweit bekannt... die frage ist halt ob das mit der onboard karte auch geht warscheinlich ja... aber ob man dann strom spart? denn dir karte braucht auch strom... es würde mich mal die reale Idle angabe interressieren
LovesuckZ
2011-12-18, 15:04:18
Die reale Angabe sieht man auf der Crossfire-Folie. Sind wohl 25 - 30 Watt. Also alles wie gehabt.
Mal sehn: Quad CF und grad idle: 3 Karten gehen die Lichter aus für <9 W. Die übrige Karte säuft in einem halbwegs niedrigen lower Power Modus weiter. -> Goil.
Im SGPU geht die ATI aber erst in diesen Scheintot-Modus wenn sich der Monitor abschaltet (aufgrund längerer inaktivität zB), säuft sonnst aber weiter? goil für Server (wobei Zitat: lieber 100 W 24/7 als erschrecken weil man nicht auf den ersten Blick sieht ob alles läuft. ;D ) und den einen oder andren Desktop aber etwas mager für NB bei denen dann die Umschaltung zur IGP doch noch mehr bringen sollte. Weil ich will ja surfen Und strom sparen; nicht auf den schwarzen BS starren und mich freuen das die Graka nur <3 W verbraucht .....
Gipsel
2011-12-18, 15:11:09
In den theoretischen Tessellations-Benchmarks (DirectX-SDK) von hardware.fr ist die GTX 580 im besten Fall etwas mehr als doppelt so schnell wie die Radeon HD 6970.Der Abstand ist größer. Die Tests dort haben noch eine nicht zu vernachlässigende Shaderlast, die den Abstand kleiner aussehen lassen, von der reinen Tess-Performance liegt deutlich mehr dazwischen (hiermal runterscrollen zu den Ergebnissen mit dem DX11-SDK-Subdivision Sample (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=12), die Werte davon nimmt AMD übrigens afaik auch zum Erstellen ihrer Tess-Performancegrafiken).
Käsetoast
2011-12-18, 15:11:12
Wenn die's schaffen, dass das auch mit Lucid Virtu funktioniert (also iGPU an, Grafikkarte aus) wäre das echt ne feine Sache (dann kann sich auch niemand mehr über die Lautstärke der Grafikkarte im Idle beschweren, da die Grafikkarte und deren Lüfter dann aus sind)...
Zumindest käme das mir sehr entgegen, da ich Wert auf ein leises System lege - so bräuchte ich dann keinen Alternativkühler mehr zu kaufen und unter Garantieverlust draufzusetzen, da ich dann einfach ein Modell à la Asus DirectCU II kaufe wo ein ganz passabler Kühler drauf ist was dann reichen würde (kritisch ist für mich die Lautstärke beim Surfen etc. und da sind solche Kühler immer noch nicht so der Hit weil die Drehzahlen sich meist nicht sehr weit runterdrücken lassen)...
Wenn man die 7000er Serie also nicht nur beim Crossfire, sondern auch beim Einsatz einer integrierten GPU abschalten kann, wäre das für mich ein nicht zu vernachlässigender Kaufanreiz...
OgrEGT
2011-12-18, 15:26:56
Der Abstand ist größer. Die Tests dort haben noch eine nicht zu vernachlässigende Shaderlast, die den Abstand kleiner aussehen lassen, von der reinen Tess-Performance liegt deutlich mehr dazwischen (hiermal runterscrollen zu den Ergebnissen mit dem DX11-SDK-Subdivision Sample (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=12), die Werte davon nimmt AMD übrigens afaik auch zum Erstellen ihrer Tess-Performancegrafiken).
OK. Aber die Tesselation Leistung sollte wie Du schon sagst für alles ausreichen, wofür man dieses Feature sinnvollerweise benötigt. In Spielen auf Höhe der Zeit. Stonegiant und Heaven kann man nicht wirklich gut spielen :freak:
OgrEGT
2011-12-18, 15:29:19
Wenn die's schaffen, dass das auch mit Lucid Virtu funktioniert (also iGPU an, Grafikkarte aus) wäre das echt ne feine Sache (dann kann sich auch niemand mehr über die Lautstärke der Grafikkarte im Idle beschweren, da die Grafikkarte und deren Lüfter dann aus sind)...
Zumindest käme das mir sehr entgegen, da ich Wert auf ein leises System lege - so bräuchte ich dann keinen Alternativkühler mehr zu kaufen und unter Garantieverlust draufzusetzen, da ich dann einfach ein Modell à la Asus DirectCU II kaufe wo ein ganz passabler Kühler drauf ist was dann reichen würde (kritisch ist für mich die Lautstärke beim Surfen etc. und da sind solche Kühler immer noch nicht so der Hit weil die Drehzahlen sich meist nicht sehr weit runterdrücken lassen)...
Wenn man die 7000er Serie also nicht nur beim Crossfire, sondern auch beim Einsatz einer integrierten GPU abschalten kann, wäre das für mich ein nicht zu vernachlässigender Kaufanreiz...
Sehe ich genauso. :up:
Knuddelbearli
2011-12-18, 15:32:31
OK. Aber die Tesselation Leistung sollte wie Du schon sagst für alles ausreichen, wofür man dieses Feature sinnvollerweise benötigt. In Spielen auf Höhe der Zeit. Stonegiant und Heaven kann man nicht wirklich gut spielen :freak:
Prinzipiel geeb ich dir recht, doch mit der 7970 ist das eine Komplett neue Architektur die weider 4-6 jahre halten sollte.
Die 7970 kommt sicher niemals in die predolie sowas wie stone gigant zu rendern aber die, nenne wir sie mal 11970(14nm ), dann aber eventuell schon
OgrEGT
2011-12-18, 15:40:58
Prinzipiel geeb ich dir recht, doch mit der 7970 ist das eine Komplett neue Architektur die weider 4-6 jahre halten sollte.
Die 7970 kommt sicher niemals in die predolieBredoullie sowas wie stone gigant zu rendern aber die, nenne wir sie mal 11970(14nm ), dann aber eventuell schon
Die Architektur wird möglicherweise so lange "halten". Eine Grafikkarte wohl eher nicht. War doch immer schon so. Zukunftsicherheit über eine so lange Zeit will nicht sagen gibt es nicht, ist aber wohl eher unwahrscheinlich. Wo kämen wir denn da hin? Wir sind Konsumenten, und der Rubel muss rollen in der freien Marktwirtschaft.:freak:
OgrEGT
2011-12-18, 15:41:58
http://forum.beyond3d.com/showpost.php?p=1606845&postcount=1480
Eyefinity 2.0 Folien.
Edit: Taskbar Positioning...Cool
Spasstiger
2011-12-18, 15:55:23
Der Abstand ist größer. Die Tests dort haben noch eine nicht zu vernachlässigende Shaderlast, die den Abstand kleiner aussehen lassen, von der reinen Tess-Performance liegt deutlich mehr dazwischen (hiermal runterscrollen zu den Ergebnissen mit dem DX11-SDK-Subdivision Sample (http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=12), die Werte davon nimmt AMD übrigens afaik auch zum Erstellen ihrer Tess-Performancegrafiken).
Ok, da klafft tatsächlich noch eine riesige Lücke, bei hohen Tessellationsfaktoren (>20) ist die GTX 580 dort knapp siebenmal so schnell wie die Radeon HD 6970 (gefixte AMD-Treiber bereits berücksichtigt). Das entspricht ziemlich genau dem theoretischen Unterschied (16 Tessellatoren @ 772 MHz vs. 2 Tessellatoren @ 880 MHz => Faktor 7 zugunsten der GTX 580). In diesem Szenario verhilft dann auch eine Verbesserung mit dem Faktor 3,5 AMD nicht zum Sieg.
Allerdings fällt auf, dass schon die Radeon HD 6970 bei den niedrigen Tessellationsfaktoren bis Faktor 4 schneller ist als die GTX 580. Möglicherweise kann die HD 7970 eine so große Schippe drauflegen, dass die Tessellationsleistung der HD 7970 im praxisrelevanten Bereich von ~Faktor 8 auch höher ist als die der GTX 580. Zusammen mit der höheren Shaderleistung würde das einen klaren Sieg in allen Spielebenchmarks mit Tessellation bringen (was man von einer neuen High-End-Generation auch erwartet).
LovesuckZ
2011-12-18, 16:05:01
Lasse doch bitte Begriffe wie "praxisrelevant" raus. Es gibt kein praxisrelevant, da der Tessellationfaktor abhängig ist vom LoD, dem Ausgangsmaterial und Endergebnis ist. Davon abgesehen, ist Faktor 8 bestimmt nicht der "relevanteste" Faktor, wenn man bis zu 64 definiert hat. Und selbst der noch in einigen Bereichen zu gering ist.
uweskw
2011-12-18, 16:11:25
@LS
hast du ein Beispiel wo Faktor 64 nicht ausreicht? Wie definierst du das?
Knuddelbearli
2011-12-18, 16:16:44
Die Architektur wird möglicherweise so lange "halten". Eine Grafikkarte wohl eher nicht. War doch immer schon so. Zukunftsicherheit über eine so lange Zeit will nicht sagen gibt es nicht, ist aber wohl eher unwahrscheinlich. Wo kämen wir denn da hin? Wir sind Konsumenten, und der Rubel muss rollen in der freien Marktwirtschaft.:freak:
genau das meinte ich ja, die architektur sollte so lange halten, die grafikkarte nicht
Ps ich hasse französisch ...
Ronny145
2011-12-18, 16:18:57
Ob mit der Einführung von Custom Resolutions jetzt vielleicht Downsampling inoffiziell ermöglicht wird?
LovesuckZ
2011-12-18, 16:19:36
@LS
hast du ein Beispiel wo Faktor 64 nicht ausreicht? Wie definierst du das?
HAWX2. nVidia hat über die Terrain-Tessellation-Lösung glaube vor einem Jahr darüber geredet, dass 64x nicht fein genug wäre für das LoD.
Ob mit der Einführung von Custom Resolutions jetzt vielleicht Downsampling inoffiziell ermöglicht wird?
Naja, es kann auch sein, dass man eben neue Auflösungen hinzufügen kann, die vorgegeben sind. Downsampling geht darüber ja noch hinaus.
uweskw
2011-12-18, 16:27:26
HAWX2. nVidia hat über die Terrain-Tessellation-Lösung glaube vor einem Jahr darüber geredet, dass 64x nicht fein genug wäre für das LoD.
.....
hab schon gesucht aber nichts gefunden.
Gibts irgendwo Screenshots von HAWX2 bei denen man sieht dass Faktor 32 im Vergleich zu 64 limitiert? Daraus könnte man evtl ableiten wie sehr 64 limitiert.
edit:
Hier ein Vergleich mit/ohne Tessellation. Sind schon Uterschiede entdeckbar. Welche mit den verschiedenen Graden finde ich nicht.
http://hothardware.com/cs/forums/t/51448.aspx
Gipsel
2011-12-18, 16:48:15
Bei der Terrain-Tessellation in HAWX2 ist das mehr eine Designentscheidung beim Entwerfen des Algorithmuss, als eine Limitierung. Man könnte auch argumentieren, daß sehr hohe Faktoren suboptimal sind, da dann riesige Patches mit einem festen Tess-Faktor erzeugt werden, innerhalb dessen kein LOD möglich ist.
Aber ich glaube, wir kommen vom Thema ab.
M4xw0lf
2011-12-18, 16:53:35
PCGH ist offenbar fleißig am Benchen und Testen. Lucky Bastards :D
OgrEGT
2011-12-18, 16:54:47
genau das meinte ich ja, die architektur sollte so lange halten, die grafikkarte nicht
Ps ich hasse französisch ...
:freak:
Die Architektur ist jetzt GCN. Das heisst nicht, dass man nicht ein oder 2 "refreshes" später die Tesselationsleistung weiter erhöhen kann, oder weitere Updates in das Design einführen könnte.
Schau mal ATI(AMD) hat im Grund die gleiche Architektur bis heute HD6k eingesetzt (ca. 4,5 Jahre).
OgrEGT
2011-12-18, 16:56:34
PCGH ist offenbar fleißig am Benchen und Testen. Lucky Bastards :D
Die könnten ruhig mal (auch ohne das NDA zu verletzen) kurz zum Besten geben, was sie von den neuen Karten halten. So im Sinne von "Hammer" bis "Schau mer mal..." :D
M4xw0lf
2011-12-18, 16:58:19
Die könnten ruhig mal (auch ohne das NDA zu verletzen) kurz zum Besten geben, was sie von den neuen Karten halten. So im Sinne von "Hammer" bis "Schau mer mal..." :D
Von PCGH:
Und noch etwas für alle Neugierigen: Der 3D-Beschleuniger, dessen Namen hier nicht genannt werden darf, hat Raffs Bildverbesserungstests mit Bravour bestanden. Das freut unseren Experten.
AnarchX
2011-12-18, 17:00:40
Cape Verde?
http://kepfeltoltes.hu/111216/7994716175_www.kepfeltoltes.hu_.jpg
http://kepfeltoltes.hu/111216/12661894412_www.kepfeltoltes.hu_.jpg
http://forum.beyond3d.com/showthread.php?p=1606862#post1606862
128-Bit ~150mm².
Das ist wohl die GPU, die AMD schonmal öffentlich gezeigt hatte: http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F135%2FG013536%2F20111005028%2F
OgrEGT
2011-12-18, 17:01:14
Von PCGH:
Oookay...:smile: Das hört sich ja schon mal gut an.:cool:
Screemer
2011-12-18, 17:13:20
Edit: Taskbar Positioning...Cool
viel besser find ich die drei unterschiedlich großen panels.
AnarchX
2011-12-18, 17:25:59
Cape Verde?
http://kepfeltoltes.hu/111216/7994716175_www.kepfeltoltes.hu_.jpg
http://kepfeltoltes.hu/111216/12661894412_www.kepfeltoltes.hu_.jpg
http://forum.beyond3d.com/showthread.php?p=1606862#post1606862
128-Bit ~150mm².
Das ist wohl die GPU, die AMD schonmal öffentlich gezeigt hatte: http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F135%2FG013536%2F20111005028%2F
Wohl doch ein ganzes Stück kleiner als 150mm², laut fellix eher ~125mm².
Damit dürfte man wohl nicht soweit vor Juniper liegen.
Ich würde auf ~10 SIMDs (40 TMUs, 640SPs) bei wohl 1GHz schätzen. Gerade die geringe Die-Size dürfte wohl auch keinen 6Gbps GDDR5 erlauben, sodass man eher zwischen 4 und 5Gbps liegen sollte.
Im Endeffekt wohl etwas über 5770 Leistung mit deutlicheren Vorteilen unter D3D11 und natürlich eine große Menge an neuen Features. Wenn man das Gesamtpaket zu angemessenen 100€ verkaufen würde, wäre das wohl nicht so verkehrt.
Knuddelbearli
2011-12-18, 17:36:45
:freak:
Die Architektur ist jetzt GCN. Das heisst nicht, dass man nicht ein oder 2 "refreshes" später die Tesselationsleistung weiter erhöhen kann, oder weitere Updates in das Design einführen könnte.
Schau mal ATI(AMD) hat im Grund die gleiche Architektur bis heute HD6k eingesetzt (ca. 4,5 Jahre).
ich glaub wir verstehen uns einfach nicht ^^
genau das meine ich ja, also sollte stone gigant jetzt auch schon halbwegs überzeugen. Auch wenn für die 7970 niemals so ein spiel kommen wird ( ok außer vielleicht ein von nvidia gesponsortes falls tess leistung immer noch mies ist )
mboeller
2011-12-18, 17:37:27
die Kuna-Münze hat einen Durchmesser von 22,5mm (siehe: http://www.ferienwohnungen-kroatien.net/kroatien/geld/1kuna-muenze.shtml)
das Die ist damit IMHO ca. 13,1 x 9,8 mm² groß also ~128 - 130 mm²
Zergra
2011-12-18, 17:42:19
Cape Verde?
http://kepfeltoltes.hu/111216/7994716175_www.kepfeltoltes.hu_.jpg
http://kepfeltoltes.hu/111216/12661894412_www.kepfeltoltes.hu_.jpg
http://forum.beyond3d.com/showthread.php?p=1606862#post1606862
128-Bit ~150mm².
Das ist wohl die GPU, die AMD schonmal öffentlich gezeigt hatte: http://translate.google.com/translate?langpair=auto|en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F135%2FG013536%2F20111005028%2F
mhh aber das schein keine 7970 zu sein sondern eher ein 78XX modell oder noch kleiner...
AnarchX
2011-12-18, 17:44:33
mhh aber das schein keine 7970 zu sein sondern eher ein 78XX modell oder noch kleiner...
Ja, wahrscheinlich eine HD 7770.
Pitcairne, die "Sweet Spot"-GPU ~ HD 7800-Serie dürfte wohl eher bei ~250mm² liegen und auch ein 256-Bit SI haben.
M4xw0lf
2011-12-18, 17:45:48
mhh aber das schein keine 7970 zu sein sondern eher ein 78XX modell oder noch kleiner...
Niemand hier hält das für eine 7970 :freak:
Cape Verde ist im Mainstream angesiedelt.
Edit: zu langsam ;)
mironicus
2011-12-18, 17:49:33
Was würden eigentlich die Redaktionen die sich an die NDA halten am liebsten mit denen machen, die ständig die ganzen Infos leaken? :D
http://images.wikia.com/onepiece/de/images/d/dc/Helmeppo_droht_damit_Coby_zu_erschie%C3%9Fen.jpg
aylano
2011-12-18, 17:49:56
Ja und? Wer erzaehlt denn gerade dass Tahiti AMD's eigentliche Taktziele erreicht hat?
Grundsätzlich keiner (außer der AMD-Mitarbeiter vor kurzen, wenn wenn wenn das Gerücht stimmt).
In der Vergangenheit waren die Takte bei der Einführung immer gut, was die späteren geringen Taktsteigerungne dann zeigten.
Mit 925Mhz wäre das mit 45Mhz ziemlich gering. Da könnte das eintreten was ich schon ansprach.
Nähmlich, dass man 1 Quartal früher am Markt geht und dabei den Takt etwas senkt und die Spannung etwas höher hält als im ausgereiften späteren Refresh-Zustand.
Also, statt alle 2 Jahre bzw. im Fertigungs-Rythmus auf einmal +100% zu erreichen, kann man auch jedes Jahr mit +40% erreichen.
Mit problematischen Fertigungen könnte man die GPUs im ersten Jahr auch mit +(40-15%) und zweiten +(40+15%) einführen, wo die 10-15% geringere Effizienz mit einer schwächeren Fertigung (HPL statt HP) oder mit etwas geringeren Takt & höheren Volt erreicht wird.
Und kann sehrwohl planmäßig sein.
Schließlich dürfte es unwirtschaftlich sein, nur zu warten bis die Volle Effizienzsteigerung von 40% oder 100%-Die-Verkleinerung erreicht wird, anstatt schon früher die neue Fertigung mit etwas geringeren geplanter Effizenz (aber besseren Effizienz (Performance*Watt*Waferpreis zum Vorgänger) zu nutzen.
Wir werden spaetestens bis Ostern sehen um was es sich genau handelte.
Was hat das mit der Vergangenheit zu tun?
Es ist beschissener als mit Cypress, aber ich erwarte auch nicht dass es die AMD Juenger einsehen wollen.
Beschissener als mit Cypress?
Mit welcher Nvidia-Maßnahmen wird AMD in Kürze 5-10% Marktanteil verlieren?
Was ist jetzt die Definition mit schlimm?
Große GPU-Geldverluste statt ein Null-Summenspiel-GPU-Gewinn-Spiel für AMD oder dass in kürze keine 350mm²-Massen-GPUs für alle AMD-Jünger um 300 Euro gibt?
Mir ist es schon lange bewusst, wie schlecht 28nm ist, wenn Nvidia mit GT218 & GT216 trotz Katastrophalen 40nm-Qualitäte (weil es 3 Monate später katastrophale 350mm²-Yields bei AMD gab.) schon deutlichen Gewinn & Marktanteil-Steigerungen genießen konnte!!!
... am Anfang mit high end Warteschlangen fuer Verfuegbarkeit eben weil es "besser" sein wird als mit Cypress.
Ich sprach nicht umsonst von AMD-Start und nicht der Warteschlange von AMD-Jünger.
Das ist ein großer Unterschied.
"High end" selbst mit Anfuehrungsstrichen ist es nur was den Preis betrifft
Das ist deine Definition.
High-End ist das, was am Meisten Performance (wirtschaftlich) bringen kann.
(oder so ähnlich)
800mm²-40nm-High-End-GPUs ist genauso nicht möglich, wie jetzt 500mm²-28nm-High-End-GPUs.
Wenn HD 7970 kein High-End ist und so schnell ist wie GTX580 (Annahme bzw. meinetwegen Worst-Case), dann ist auch GTX580 kein High-End.
Und wann war dann der Punkt, wo GTX580 von High-End zum Performance-Chips wurde?
Dir und Dural sollte es mal klingeln dass NV noch keine desktop/notebook SoCs hat.
Was hat das mit dGPUs zu tun?
Oder ist es nicht logisch, dass wir im einem dGPU-Forum über dezentierte GPUs sprechen?
Dann schick mal "Man" liebe Gruesse wenn er so gut informiert ist. In Q2 11' entschied sich NV dass GK107 fuer Q1' 12 angeschlagen wird. Grund: ultra-beschissene yields.
Was soll ich den eventuellen offiziellen Aussagen grüßen?
Wenn der Grund nur die voll-beschissenen Yields sind, müsste doch das Die fertig sein?
Fertig sind sie, nur können sie aufgrund der Yield noch nicht (hoch) Wirtschaftlich und großer Verfügbarkeit produziert weden.
Wieso auch nicht fast gleichzeitig? Zwar nichts besonderes, aber wenn es schon losgeht bei beiden erwartet man auch dass innerhalb N Zeitspanne beide die von top to bottom (oder auch andersrum) Luecken zu fuellen.
Erwarten ist noch ein Unterschied zur Realität.
GF108 & GF106 kam auch erst unerwartet 6 Monate nach GF100 und nicht wie erwartet 3 Monate.
Ich finde die Nvidia-Gerüchte-Küche äußerst still, sowie die Verzögerung vom kleinsten Kepler dürfte eine schlechtere Qualität bei 28nm jetzt hindeuten, als damals 40nm Mitte 2008 (also zur GT218 & 216) einführung war.
Nach wem denn? Charlie?
Text nochmal lesen
Lass Dir doch Zeit;
Was hast du am Spekulations-Forum nicht verstanden?
erstmal kommen Weihnachten mit einem kunterbunten paper launch seitens AMD nur damit man behaupten kann dass sie ihren Marketing-Scheiss eingehalten haben und dann "brutale" Verfuegbarkeit in der 2. Januar Woche.
Schön und?
Wo habe ich von Marketing erwähnt?
Nur zu Info.
Bei 40nm hat der Zeitraum der 40nm-Probleme über ein Jahr gedauert. Da interessiert mich nicht die ein oder andere Woche.
Und 1-2 Monate vor dem geplanten Fermi-GF100-Start, war der Optimismus über eine Super-Karte auch noch sehr groß.
Gleiches habe ich mit Low-End & Mainstream-Fermi in Erinnerung.
Sonst liegst Du auf dem komplett falschen Bein was low end beider IHVs betrifft.
Und warum solltest du es richtig wissen?
GF108 kam ja auch unerwarte 1 Quartal später als erwartet.
y33H@
2011-12-18, 18:01:41
@ aylano
Kannst du bitte aufhören, nach JEDEM Satz eine neue Zeile anzufangen?! Das macht deine Posts total unleserlich ...
Superheld
2011-12-18, 18:02:16
Von PCGH:
Und noch etwas für alle Neugierigen: Der 3D-Beschleuniger, dessen Namen hier nicht genannt werden darf, hat Raffs Bildverbesserungstests mit Bravour bestanden. Das freut unseren Experten.
Super:cool:
M4xw0lf
2011-12-18, 18:14:28
Anwesende PCGH-Redakteure dürfen auch gerne hier auf meinen Post aus dem PCGH-Forum Antworten :wave2: : "die geheimnisvolle Karte hat die Bilverbesserungstests mit Bravour bestanden... Downsampling an Bord, gefixtes AF, SGSSAA unter allen APIs? (gebt mir einfach einen Smiley pro Treffer :D )"
y33H@
2011-12-18, 18:18:55
;( =) ;(
;( ;( =)
=) =) ;(
mapel110
2011-12-18, 18:19:48
Dürfte sich nur um das gefixte AF drehen. Alles andere halte ich bei dem Tempo des Treiberteams für unwahrscheinlich.
AnarchX
2011-12-18, 18:22:08
Für ein "mit Bravour" sollte wohl in der Tat etwas mehr herauskommen, als das gefixte AF, was schon länger bekannt war.
Ich würde auf ~10 SIMDs (40 TMUs, 640SPs) bei wohl 1GHz schätzen. Gerade die geringe Die-Size dürfte wohl auch keinen 6Gbps GDDR5 erlauben, sodass man eher zwischen 4 und 5Gbps liegen sollte.
GCN skaliert wohl mit 4 CUs(256SPs), sodass es wohl 12CUs auf Cape Verde sein könnten: 768SPs, 48 TMUs. Mit 1GHz wäre man von der Rohleistung oberhalb der HD 6850. Fragt sich nur wie die wahrscheinlich eher knappe Bandbreite sich auswirken könnte. Mit 125mm² läge man bei der Pad-Größe die man für den ~4Gbps 128-Bit IMC angab.
reaperrr
2011-12-18, 18:22:49
Ich würde auf ~10 SIMDs (40 TMUs, 640SPs) bei wohl 1GHz schätzen. Gerade die geringe Die-Size dürfte wohl auch keinen 6Gbps GDDR5 erlauben, sodass man eher zwischen 4 und 5Gbps liegen sollte.
Ich würde eher auf 12 CUs tippen (48 TMU, 768 SP), dafür aber möglicherweise auch nur 12 ROPs. Performance-technisch wird das aber so oder so keinen gewaltigen Unterschied ausmachen machen, da die Bandbreite wohl eh etwas limitieren wird (hat sie ja schon bei der 5770, da sind von den 36% mehr Shader-Power gegenüber der 5750 auch nur ca. die Hälfte in Spielen angekommen, hauptsächlich weil die Speicherbandbreite fast die selbe war).
Edit: Da war ich wohl etwas zu langsam ^^
Ronny145
2011-12-18, 18:23:19
Das gefixte AF kann man ja wohl mal annehmen. Ob es an HQ Nvidia ranreicht, ist natürlich eine andere Frage. Ich verstehe die letzte Smilie Reihe nicht. Zwei positive sind es da.
AnarchX
2011-12-18, 18:25:04
Das gefixte AF kann man ja wohl mal annehmen. Ob es an HQ Nvidia ranreicht, ist natürlich eine andere Frage.
Wenn man wieder einen nicht optimierten HQ-Modus anbietet, sollte nichts dagegen sprechen.
Nett wäre natürlich eine Qualitätsoffensive mit HQ@Treiberstandard.
Downsampling: D3D9:;(D3D10: =)D3D11: ;(
gefixtes AF Performance: ;( Quality: ;( High Quality: =)
SGSSAA: D3D9:=) D3D10: =)D3D11: ;(
;D
Zergra
2011-12-18, 18:25:40
;( =) ;(
;( ;( =)
=) =) ;(
das wären 4 Smilies :D die Positive kucken :P das heißt ja mhhhh das alle sachen stimmen `? irgentwie kann ich die net interpretieren :P
M4xw0lf
2011-12-18, 18:25:44
;( =) ;(
;( ;( =)
=) =) ;(
oooookay - ich interpretiere mal:
Downsampling-Möglichkeiten verbessert, aber nicht einfach per Treiber einstellbar.
AF verbessert (/völlig gefixt).
SGSSAA unter DX9 und DX10, immer noch kein DX11.
Es sei denn du spamst mir hier böswillig eine völlig willkürliche Smiley-Abfolge hin ;D
Superheld
2011-12-18, 18:43:48
SGSSAA unter DX9 und DX10, immer noch kein DX11.
um SGSSAA kümmern die sich nicht mehr vermute ich mal, die lassens so wie es ist;(
Ailuros
2011-12-18, 18:48:14
Grundsätzlich keiner (außer der AMD-Mitarbeiter vor kurzen, wenn wenn wenn das Gerücht stimmt).
In der Vergangenheit waren die Takte bei der Einführung immer gut, was die späteren geringen Taktsteigerungne dann zeigten.
Mit 925Mhz wäre das mit 45Mhz ziemlich gering. Da könnte das eintreten was ich schon ansprach.
Nähmlich, dass man 1 Quartal früher am Markt geht und dabei den Takt etwas senkt und die Spannung etwas höher hält als im ausgereiften späteren Refresh-Zustand.
Das Ziel war zumindest 1GHz fuer XT, ergo klapper mir nicht mit anderen aelteren GPUs herum die ihre Takt-ziele verpasst haben. Tahiti XT hat sein Taktziel nicht erreicht, bei aber nur 75MHz weniger kein eigentliches Problem. Lieber 925MHz dass den overclockers noch ein gutes Stueck uebrig bleibt.
Was hat das mit der Vergangenheit zu tun?
Gar nichts. Es ging um Tahiti vs. GK104.
Beschissener als mit Cypress?
Mit welcher Nvidia-Maßnahmen wird AMD in Kürze 5-10% Marktanteil verlieren?
Frag doch AMD.
Was ist jetzt die Definition mit schlimm?
Große GPU-Geldverluste statt ein Null-Summenspiel-GPU-Gewinn-Spiel für AMD oder dass in kürze keine 350mm²-Massen-GPUs für alle AMD-Jünger um 300 Euro gibt?
Mir ist es schon lange bewusst, wie schlecht 28nm ist, wenn Nvidia mit GT218 & GT216 trotz Katastrophalen 40nm-Qualitäte (weil es 3 Monate später katastrophale 350mm²-Yields bei AMD gab.) schon deutlichen Gewinn & Marktanteil-Steigerungen genießen konnte!!!
Kannst Du vielleicht verstehen warum sich y33H@ ueber Deinen Diskussionstil beschwert?
Das ist deine Definition.
Wenn der Preis in 3-4 Monaten um einiges purzeln sollte, wird es das kuerzeste moechtegern high end werden dass es vielleicht je gab.
High-End ist das, was am Meisten Performance (wirtschaftlich) bringen kann.
(oder so ähnlich)
Dann waere auch ein <100mm2 28nm chip "high end" wenn es fuer Zeitspanne X nichts konkurrierendes geben wuerde oder?
Wenn HD 7970 kein High-End ist und so schnell ist wie GTX580 (Annahme bzw. meinetwegen Worst-Case), dann ist auch GTX580 kein High-End.
Du wirst wohl zumindest so viel Logik haben nicht verschiedene Generatione miteinander zu mischen.
Und wann war dann der Punkt, wo GTX580 von High-End zum Performance-Chips wurde?
Mit dem Anklang der 28nm Generation beider Seiten werden die Karten fuer die GPUs neu vermischt.
Was hat das mit dGPUs zu tun?
Oder ist es nicht logisch, dass wir im einem dGPU-Forum über dezentierte GPUs sprechen?
SoCs haben auch GPU Bloecke. NVIDIA fehlen vorruebergehend desktop/notebook SoCs.
Was soll ich den eventuellen offiziellen Aussagen grüßen?
Wenn der Grund nur die voll-beschissenen Yields sind, müsste doch das Die fertig sein?
Fertig sind sie, nur können sie aufgrund der Yield noch nicht (hoch) Wirtschaftlich und großer Verfügbarkeit produziert weden.
Was hast Du nicht verstanden dass Du danach fragts und die eigentliche Antwort noch dazufuegst?
Erwarten ist noch ein Unterschied zur Realität.
Man sieht es an AMD's Tahiti selber; keine GPUs fuer 2011.
GF108 & GF106 kam auch erst unerwartet 6 Monate nach GF100 und nicht wie erwartet 3 Monate.
Ich sagte GK107. Kepler hat gar nichts mit Fermi zu tun.
Text nochmal lesen
Nein Du solltest nochmal nachlesen. :P
Was hast du am Spekulations-Forum nicht verstanden?
Das was Du sowieso nie verstanden hast.
Schön und?
Wo habe ich von Marketing erwähnt?
Es geht nicht um Dich sondern AMD.
Nur zu Info.
Bei 40nm hat der Zeitraum der 40nm-Probleme über ein Jahr gedauert. Da interessiert mich nicht die ein oder andere Woche.
Und 1-2 Monate vor dem geplanten Fermi-GF100-Start, war der Optimismus über eine Super-Karte auch noch sehr groß.
Gleiches habe ich mit Low-End & Mainstream-Fermi in Erinnerung.
Nur zur Info: ich rede die ganze ausschliesslich ueber kommende 28nm Produkte. Was jetzt das Ganze mit Fermi zu tun hat, weisst nur Du.
Aber wenn es schon sein muss: bis zu Fermi musste NV zuerst auf den top dog warten um weitermachen zu koennen. Kepler ist fundamental anders ausgelegt von Anfang fuer's bessere oder schlimmere.
Und warum solltest du es richtig wissen?
Weil nie einen einzelnen Fetzen an insider Infos in die Haende bekam bis jetzt /sarcasm mode off.
Tu mir einen Gefallen und spar mir die unendliche nervende QUOTE-ORGIE. So kann keiner richtig diskuttieren (ausser Du hast es auch nicht vor) und es wird auch keiner mitlesen weil es schlicht und einfach nervt. Es ist nicht das erste Mal dass ich Dich darueber aufmerksam mache.
Trotzdem verstehen einige hier diene Kritik nicht. Mit AMD-Jüngerschaft hat das nichts zu tun. AMD hat die Wahl zu warten und nichts zu verkaufen oder die Preise an den Fertigungskosten aus zu richten. Kurz: Zu Anfang kaum lieferbar, bei saftigen Preisen und irgendwann Richtung März(oder später,wir kennen ja TSMC) entspannt sich alles. Early adaptor wird nicht umsonst mit Deppenaufschlag übersetzt.
Mein eigentliches "Problem" ist dass die fruehe Vorstellung nicht unbedingt notwendig war/ist. Fuer mich hat es AMD einfach nicht notwendig, da sie so oder so wieder mal gute Hausaufgaben geleistet haben.
Ravenhearth
2011-12-18, 18:49:20
Es sei denn du spamst mir hier böswillig eine völlig willkürliche Smiley-Abfolge hin ;D
Was denn sonst?:rolleyes:
Eggcake
2011-12-18, 18:49:21
oooookay - ich interpretiere mal:
Downsampling-Möglichkeiten verbessert, aber nicht einfach per Treiber einstellbar.
AF verbessert (/völlig gefixt).
SGSSAA unter DX9 und DX10, immer noch kein DX11.
Es sei denn du spamst mir hier böswillig eine völlig willkürliche Smiley-Abfolge hin ;D
Ich würde sagen, es sind drei Möglichkeiten. Dass AF gefixt ist, nehme ich mal an - also entweder nur AF gefixt oder AF + Downsampling. Ich schätze nur AF :biggrin:
Rischtisch? :>
Ailuros
2011-12-18, 19:00:29
Na also ehrlich, Du machst es einem nicht leicht Dich und Deine Preisvorstellungen zu verstehen.
HD5870 hatte einen MSRP unter $380, war die erste DX11 GPU, kam um 6 Monate frueher als GF100 an, die zufaelligerweise auch nicht mehr als =/>15% schneller war.
Hier geht es nicht um Fanboy-Gehabe, auch wenn Du es noch so oft unterstellst. Was Du von Dir gibst hinsichtlich Deiner Preisvorstellungen passt überhaupt nicht damit zusammen, was Du hinsichtlich der Leistung erwartest. Kritik ist immer willkommen, sie muss aber auch Sinn machen.
Vielleicht hilft die obrige Relativierung, obwohl ich es schon zich Male in Erklaerungen in diesem Thread ueber den genau gleichen Punkt schon erwaehnt habe. Und nein AMD machte keinen Verlust mit Cypress, egal was jederman fuer Maerchen erzaehlen moechte.
Und wenn Du meinst dass Tahiti-XT mit einer Leistung bei HD6990 keine 500-600EUR wert ist, dann weiß ich auch nicht. Das ist einfach nicht plausibel. Allein das ist es was ich nicht nachvollziehen kann. Und diese Meinung werde ich wohl auch noch vertreten dürfen, ohne von Dir beschimpft zu werden. Und damit ist für mich hier jetzt EOD.
Ich darf offensichtlich auch nicht meine Meinung selber vertreten, da sie von mehreren Usern hier als absurd abgestempelt wurde. Der Ironie zu Liebe bestehen mehr Chancen dass die Mehrzahl der "Widersprecher" nicht in den sauren Apfel des zu hohen Preises beissen werden sondern so oder so warten werden wie ich und jeder andere auch.
N0Thing
2011-12-18, 19:17:39
du weißt ja garnicht wie start PCIe abwärtskompatibel ist... das war von mir auch nur eine vermutung... also steht wieder aussage geben aussage...
wir warten es ab..
PCIe 3 ist komplett abwärtskompatibel zu PCIe 2 und PCIe 1, wie auch schon PCIe 2 abwärtskompatibel zu PCIe 1 war.
http://www.golem.de/1011/79531.html
reaperrr
2011-12-18, 20:11:06
HD5870 hatte einen MSRP unter $380, war die erste DX11 GPU, kam um 6 Monate frueher als GF100 an, die zufaelligerweise auch nicht mehr als =/>15% schneller war.
Meiner Meinung nach hat AMD die Preise damals, gemessen an Verfügbarkeit und Marktsituation, zu niedrig angesetzt. 329$ für die 5850 und 429-449$ für die 5870 wären sinnvoller gewesen.
Ich glaube, AMD hatte damals zu viel Angst, dass die Gerüchte über Fermi (Launch Okt/Nov 09, 512 SP, 750/1500 MHz Chip/Shader-Takt) stimmen könnten, und hat deshalb die Preise so niedrig angesetzt damit unentschlossene Kunden gleich zu einer Radeon greifen anstatt auf Fermi zu warten.
Letztlich ist der Schuss aber eher nach hinten losgegangen, AMD hat sich damit die Margen verhagelt und zudem auch noch für massenhaft frustrierte potentielle Kunden gesorgt, die mangels Verfügbarkeit keine Karten bekamen.
deekey777
2011-12-18, 22:16:23
Tahiti als Schema (größer als vorher, aber ohne die vielen Beschriftungen):
http://i39.tinypic.com/2ihurzc.jpg
http://gathering.tweakers.net/forum/list_message/37347598#37347598
Felixxz2
2011-12-18, 22:39:52
Komisch, dass sie nur 2 Rasterizer eingebaut haben. Dachte eher so an 4 Stück, da die Architektur ja jetzt freie Skalierbarkeit der einzelnen Chipteile zulässt. Ich könnt mir zumindest vorstellen, dass die niedrige Rasterizerpower vor allem bei Tesselation bremst.
aufkrawall
2011-12-18, 22:47:09
Wie sehen eigentlich die offiziellen Vorgaben von Microsoft bei DX10+ aus?
Darf bzw. dürfte der Treiber überhaupt noch irgendwas bestimmen?
Skysnake
2011-12-18, 23:02:25
"Custom resolutions"
Wär ja nett, wenn damit Downsampling ginge.
Ist mir auch gleich in den Kopf gekommen, als ich das gelesen habe :D
So noch was zu dem Blockschaltbild für GCN.
Hat jemand gerade die Folien für die HD5/6k Serie zur Hand? Ist es neu, dass das PCI-E Interface über den Hub mit dem L2 und den ALUs verbunden ist?
Sieht für mich wie so ne Art Beipass aus. Wenn ich mich recht erinnere gab es das noch nicht, bisher musste immer in den GlobalMem geschrieben werden, wenn ich mich jetzt nicht täusche.
Wäre cool wenn sich das noch jemand anschauen könnte.
deekey777
2011-12-18, 23:16:19
Ist mir auch gleich in den Kopf gekommen, als ich das gelesen habe :D
So noch was zu dem Blockschaltbild für GCN.
Hat jemand gerade die Folien für die HD5/6k Serie zur Hand? Ist es neu, dass das PCI-E Interface über den Hub mit dem L2 und den ALUs verbunden ist?
Sieht für mich wie so ne Art Beipass aus. Wenn ich mich recht erinnere gab es das noch nicht, bisher musste immer in den GlobalMem geschrieben werden, wenn ich mich jetzt nicht täusche.
Wäre cool wenn sich das noch jemand anschauen könnte.
http://www.ixbt.com/video2/spravka-r9xx.shtml#rv970
(Nach unten scrollen).
Sieht in etwa gleich aus.
Skysnake
2011-12-18, 23:35:39
Ok danke, dann scheint sich nichts geändert zu haben.
marc-05
2011-12-18, 23:50:24
Die Anordnung der ROPs hat sich geändert,bleibt aber wie bei "Cayman" bei 32ROPs
-> http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/2.html
deekey777
2011-12-18, 23:55:38
Die Anordnung der ROPs hat sich geändert,bleibt aber wie bei "Cayman" bei 32ROPs
-> http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/2.html
Eher wurde anders gezeichnet, da 6*128 KB nicht schön auf 8 RBEs verteilen lassen.
uweskw
2011-12-19, 00:11:54
Was würden eigentlich die Redaktionen die sich an die NDA halten am liebsten mit denen machen, die ständig die ganzen Infos leaken? :D
http://images.wikia.com/onepiece/de/images/d/dc/Helmeppo_droht_damit_Coby_zu_erschie%C3%9Fen.jpg
Keine Ahnung von PR !!!
Ohne Leaks kein Hype!!
übrigens von der Main:
http://www.3dcenter.org/dateien/abbildungen/2011-12Dez-18b.jpg
sieht für mich eindeutig nach Fake aus. 3x das selbe Bild für den Chip. Anzahl und Anordnung der Einheiten ist auf allen drei Bildern identisch.
Greetz
U.S.
Screemer
2011-12-19, 01:03:03
schau mal 7 seiten zurück. da gibts folgendes zitat:
Ob nach RV770 jemals ein neuer GPU-Die-Shot von AMD kommen wird? ;D
uweskw
2011-12-19, 01:40:40
schau mal 7 seiten zurück. da gibts folgendes zitat:
wie? seit der 4000er Serie zeigen die immer den gleichen Die-shot?
Blediator16
2011-12-19, 02:50:23
Ist doch nur symbolisch gemeint und auch nur eine PR Folie.
MadManniMan
2011-12-19, 09:20:56
übrigens von der Main:
http://www.3dcenter.org/dateien/abbildungen/2011-12Dez-18b.jpg
sieht für mich eindeutig nach Fake aus. 3x das selbe Bild für den Chip. Anzahl und Anordnung der Einheiten ist auf allen drei Bildern identisch.
Als Gestaltungsmensch in der Werbeabteilung eines HW-Unternehmens kann ich dazu sagen: natürlich möchte man möglichst authentisch sein und so etwas fällt den meisten Skeptikern auf, aber in der Praxis hast Du einfach nicht die Zeit, für eine Folie mehr als 15 Minuten zu verwenden ;(
M4xw0lf
2011-12-19, 09:31:29
Ist doch auch völlig egal welches Die sie da abbilden, es geht da ja nicht um Architekturdetails oder irgendwas.
K4mPFwUr$t
2011-12-19, 10:02:05
wenn die leute sonst keine probleme haben, als sich über nicht authentische DIE shots zu beschweren
deekey777
2011-12-19, 11:20:53
New UVD features! :shock:
http://www.expreview.com/17928.html
http://www.expreview.com/img/news/2011/12/19/HD%207970-005.jpg
http://www.expreview.com/img/news/2011/12/19/HD%207970-009.jpg
http://www.expreview.com/img/news/2011/12/19/HD%207970-013.jpg
http://www.expreview.com/img/news/2011/12/19/HD%207970-014.jpg
http://www.expreview.com/img/news/2011/12/19/HD%207970-017.jpg
http://forum.beyond3d.com/showpost.php?p=1607005&postcount=1525
Was AnarchX meinte:
AMD veröffentlicht seit dem RV770 keine GPU-Shots mehr, so dass es nicht mehr möglich ist, genau zu sagen, ob zB alle Einheiten aktiviert sind, Teile redundant sind usw.
Hugo78
2011-12-19, 12:02:24
"Power Efficient HD Encode" .. aber kein Wort zur größten Baustelle, dem "HD Decode".
- http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index23.php
- http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/32/#abschnitt_bluraymultimonitorverbrauch
Knuddelbearli
2011-12-19, 12:10:19
"Power Efficient HD Encode" .. aber kein Wort zur größten Baustelle, dem "HD Decode".
- http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index23.php
- http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/32/#abschnitt_bluraymultimonitorverbrauch
nana jetzt übertreib mal nicht, NV ist dafür durchwegs bei Dual Monitor schlechter was insgesamt deutlich mehr Zeit ausmacht.
Kann das Discrete Multi Point Audio bei mehreren Bildschirme auch eine Art Surround Funktion mit Kanaltrennung? Wäre bei Games interessant damit man Links / Rechts Geräusche gut unterscheiden kann bei Shootern z.B.
y33H@
2011-12-19, 12:32:41
nana jetzt übertreib mal nicht, NV ist dafür durchwegs bei Dual Monitor schlechter was insgesamt deutlich mehr Zeit ausmacht.Das ist falsch - mit zwei identischen Monitoren sowie gleichen Timings bleibt eine Geforce im kleinsten P-State und ist ergo weitaus sparsamer als eine Radeon an diesen beiden Bildschirmen.
Hugo78
2011-12-19, 12:35:51
nana jetzt übertreib mal nicht,
Wat?... :confused:
Die HD6970 verbraucht nun mal 70W, wo eine GTX 570 nur 30W nimmt.
Palpatin
2011-12-19, 12:44:54
Das ist falsch - mit zwei identischen Monitoren sowie gleichen Timings bleibt eine Geforce im kleinsten P-State und ist ergo weitaus sparsamer als eine Radeon an diesen beiden Bildschirmen.
Intressant, aber die wenigsten werden wohl zwei gleich Monitore dran hängen haben. Normal kauft man sich ja nen neuen geilen und nutzt den alten als 2. Monitor. Oder man hängt halt einen TV mit dazu.
boxleitnerb
2011-12-19, 12:54:39
Es gibt immer noch den MDPS vom NV Inspector. Gibts sowas auch für AMD?
@ UVD-Features: Will mir jetzt ATI erzählen die Leute haben 3 BS stehen, aber nicht das Geld für Souround Boxen die nicht klingen wie hingerotzt = dieser Souround per Monitor. :uconf3::uwoot: ja ne ist klar ... da noch eher 100 € Logitech 5.1 Boxen und über die integrierte Realtek verbinden ...:usweet:
CompuJoe
2011-12-19, 13:12:00
Stell mir das Praktisch vor, wenn sowas geht.
Links den Browser und nur dessen Soundeffekte auf dem linken Bildschirm, rechts Messenger und co. nur dessen Soundeffekte auf dem Bildschirm z.B.
Es gibt immer noch den MDPS vom NV Inspector. Gibts sowas auch für AMD?
Imo sollte dies für ATI-gpus mit den ATTs sehr leicht zu konfigurieren sein.
Vidiaboy
2011-12-19, 13:13:52
@ UVD-Features: Will mir jetzt ATI erzählen die Leute haben 3 BS stehen, aber nicht das Geld für Souround Boxen die nicht klingen wie hingerotzt = dieser Souround per Monitor. :uconf3::uwoot: ja ne ist klar ... da noch eher 100 € Logitech 5.1 Boxen und über die integrierte Realtek verbinden ...:usweet:
Für Sound hatte ich kein Euro mehr, da schon alles für meine GTX580 ausgegeben :(
deekey777
2011-12-19, 13:14:46
@ UVD-Features: Will mir jetzt ATI erzählen die Leute haben 3 BS stehen, aber nicht das Geld für Souround Boxen die nicht klingen wie hingerotzt = dieser Souround per Monitor. ja ne ist klar ... da noch eher 100 € Logitech 5.1 Boxen und über die integrierte Realtek verbinden ...
ATi will dir erzählen, dass aus allen drei Bildschirmen Ton aus jeweils eigener Quelle kommt.
Bildlich: Du machst eine Videokonferenz mit Mami, Papi und Omi. Jedes Videobild verteilst du auf einen eigenen Bildschrim und aus jedem Bildschirm spricht dann entweder Mami oder Papi oder Omi und nicht alle auf allen drei.
Alle bisherigen UVD-/Eyefinity-Bildchen aufeinmal:
http://www.abload.de/thumb/hd7970-0019aqqs.jpg (http://www.abload.de/image.php?img=hd7970-0019aqqs.jpg) http://www.abload.de/thumb/hd7970-00301q5r.jpg (http://www.abload.de/image.php?img=hd7970-00301q5r.jpg) http://www.abload.de/thumb/hd7970-012oypqv.jpg (http://www.abload.de/image.php?img=hd7970-012oypqv.jpg) http://www.abload.de/thumb/hd7970-013nxq7m.jpg (http://www.abload.de/image.php?img=hd7970-013nxq7m.jpg) http://www.abload.de/thumb/hd7970-014k8r26.jpg (http://www.abload.de/image.php?img=hd7970-014k8r26.jpg) http://www.abload.de/thumb/hd7970-017m7px4.jpg (http://www.abload.de/image.php?img=hd7970-017m7px4.jpg) http://www.abload.de/thumb/hd7970-004qbq70.jpg (http://www.abload.de/image.php?img=hd7970-004qbq70.jpg) http://www.abload.de/thumb/hd7970-005h0qkz.jpg (http://www.abload.de/image.php?img=hd7970-005h0qkz.jpg) http://www.abload.de/thumb/hd7970-006rdqct.jpg (http://www.abload.de/image.php?img=hd7970-006rdqct.jpg) http://www.abload.de/thumb/hd7970-007vyq6d.jpg (http://www.abload.de/image.php?img=hd7970-007vyq6d.jpg) http://www.abload.de/thumb/hd7970-008xiptb.jpg (http://www.abload.de/image.php?img=hd7970-008xiptb.jpg) http://www.abload.de/thumb/hd7970-0091oo5h.jpg (http://www.abload.de/image.php?img=hd7970-0091oo5h.jpg) http://www.abload.de/thumb/hd7970-010n2q78.jpg (http://www.abload.de/image.php?img=hd7970-010n2q78.jpg) http://www.abload.de/thumb/hd7970-011i4rpq.jpg (http://www.abload.de/image.php?img=hd7970-011i4rpq.jpg)
Spasstiger
2011-12-19, 13:23:28
Kann die Radeon HD 7970 auch H.264 in 1080p60 von entsprechenden, neuen Camcordern ohne Framedrops per DXVA wiedergeben? Meine Radeon HD 6630M im Notebook kann das nicht, die bricht dabei auf 30-40 fps ein, wobei die Wiedergabe stottert.
Die Intel HD 3000 dagegen haut flüssige 60 fps über DXVA raus.
Getestet mit Media Player Classic Home Cinema.
Split bzgl. aktueller GPUs: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9086228#post9086228
Dural
2011-12-19, 13:25:31
ich habe noch nie in meinem Leben die Lautsprecher eines Monitor verwendet, die Qualität ist einfach "bescheiden" und kaufe generell nur Monitoren ohne Lautsprecher ;)
Ich müsste also für jeden Monitor ein eigenen Lautsprecher System anschlissen :freak:
Aber ja nette funkion die einige sicher mal verwenden werden (0,1%?) ;)
AnarchX
2011-12-19, 13:38:21
http://img1.imagehousing.com/25/9bccf6e31bc3f7ddaf4658263e4f81bd.jpg
http://tweakers.net/ext/f/rW3iDVY7bUPoKnIKkKzchKST/full.png
http://gathering.tweakers.net/forum/list_messages/1467521/17
Aber ja nette funkion die einige sicher mal verwenden werden (0,1%?) ;)
eher 0,1^5 %;D
Aber wie deekey aufzeigt hat es auch eine ... mögliche ..... Anwendung und wir können uns freuen das ATI den Wunschkorb der letzten 5 Jahre abgearbeitet hat und nun angefangen Features mit solch grandiosen Anwendungsmöglichkeiten und Dringlichkeit zu liefern.
Man kann das sogar ganz leicht selber basteln: 3 Fenster/Monitore + 5.1 Boxen. Ein Fenster wird auf nur links eines auf nur rechts (Balance) gestellt und das letzte ist auf Center. (Beinahe) selber Effekt und beim hypothetischen dureinanderquacken (das einzige wo mehre Chans/Lautsprecher sinnmachen) kann man eh keinen Unterschied höhren und die boxen sind immernoch besser (egal welche) als die Monitorquäcken.
(Vielleicht hat auch der typ. ATI/FPS-ist-geil-User nach Jahre langem G70 und R600+ AF und damit einhergehender Augenschwäche als Ausgleich den akustischen Sinn entwickelt, und braucht nun sowas *scnr* ;D )
deekey777
2011-12-19, 13:47:28
ich habe noch nie in meinem Leben die Lautsprecher eines Monitor verwendet, die Qualität ist einfach "bescheiden" und kaufe generell nur Monitoren ohne Lautsprecher ;)
Ich müsste also für jeden Monitor ein eigenen Lautsprecher System anschlissen :freak:
Aber ja nette funkion die einige sicher mal verwenden werden (0,1%?) ;)
Es geht doch gar nicht um Bildschirmlautsprecher.
Natürlich kann man es nur dann sinnvoll verwenden, wenn man zB in Skype mehr als einen Kontakt hat.
Da du deine Lautsprecher über HDMI angeschlossen hast und das Videosignal über deinen HDMI-Receiver durchschleifst, wirst du für jeden Bildschirm jetzt weitere entsprechende Lautsprecher-Sets mit HDMI-in/-out erwerben müssen.
Oder wir bleiben bei Dieter Nuhr.
derguru
2011-12-19, 13:49:51
http://img1.imagehousing.com/25/9bccf6e31bc3f7ddaf4658263e4f81bd.jpg
http://tweakers.net/ext/f/rW3iDVY7bUPoKnIKkKzchKST/full.png
http://gathering.tweakers.net/forum/list_messages/1467521/17
wenn die werte stimmen ist es doch schon mehr als ganz nett auch ohne zu wissen welche settings aufgefahren wurden.vor allem ist battleforge interessant,da gab es normalerweise heftige abreibungen für amd.
AnarchX
2011-12-19, 13:51:22
Für ein Mehrplatzsystem wäre Multi-Point-Audio sicherlich ein nette Sache.
Duplex
2011-12-19, 13:52:13
Wenn die Werte stimmen braucht Nvidia gegen Tahiti auf jeden fall GK100 !
Aber geht man nach den balken sind das bis 80% mehr als Cayman...Fake?
Edit:
Was bringt ein Test ohne AA? Wofür soll das gut sein?
LovesuckZ
2011-12-19, 13:52:37
wenn die werte stimmen ist es doch schon mehr als ganz nett auch ohne zu wissen welche settings aufgefahren wurden.vor allem ist battleforge interessant,da gab es normalerweise heftige abreibungen für amd.
Ja ohne AA. Das hatten wir auch schon letztes Jahr. ;)
Screemer
2011-12-19, 13:52:39
"Power Efficient HD Encode" .. aber kein Wort zur größten Baustelle, dem "HD Decode".
- http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index23.php
- http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/32/#abschnitt_bluraymultimonitorverbrauch
da sollte ein weiterer powerstate wohl einfach abhilfe schaffen.
Ich müsste also für jeden Monitor ein eigenen Lautsprecher System anschlissen :freak:
Aber ja nette funkion die einige sicher mal verwenden werden (0,1%?) ;)
du solltest von dir nicht voreilig auf andere schließen. in meinem bekanntenkreis gibt es genügend, die sich ihre monitore danach aussuchen ob sie boxen haben oder nicht. ohne fällt in der regel flach. von uns hier im board auf den sonstigen markt zu schließen, führt oft mals in die irre.
derguru
2011-12-19, 13:54:19
Ja ohne AA. Das hatten wir auch schon letztes Jahr. ;)
trotzdem ein sehr guter wert,eine 6970 ist ohne aa/af um 15% langsamer als die gtx580.
AnarchX
2011-12-19, 13:55:32
Wenn die Werte stimmen braucht Nvidia gegen Tahiti auf jeden fall GK100 !
Aber geht man nach den balken sind das bis 80% mehr als Cayman...Fake?
neliz von MSI ist schon eine relative gute Quelle. Und unter Tessellation sind wohl 80% gegenüber Cayman durchaus möglich.
In einem weniger selektierten Parkour wird man wohl 30-40% vor der GTX 580 liegen.
LovesuckZ
2011-12-19, 13:55:34
trotzdem ein sehr guter wert,eine 6970 ist ohne aa/af um 15% langsamer als die gtx580.
Aber nicht nach AMD ;)
http://bbs.expreview.com/data/attachment/forum/201012/13/020639x2fkn7k8dmf8d42x.jpg
Superheld
2011-12-19, 13:56:37
Was bringt ein Test ohne AA? Wofür soll das gut sein?
also ich sehe da MSAA manchmal:)
aber warum hat man die zweite Folie nachgemacht:confused:
Stell mir das Praktisch vor, wenn sowas geht.
Links den Browser und nur dessen Soundeffekte auf dem linken Bildschirm, rechts Messenger und co. nur dessen Soundeffekte auf dem Bildschirm z.B.
Oder noch weiter getrennt: Einen einzigen Rechner als TV-Zuspieler und gleichzeitig Arbeits-/Zockrechner. Im Wohnzimmer wird ein Film geguckt und woanders gezockt. Und keiner hört was von dem anderen.
derguru
2011-12-19, 14:03:58
Aber nicht nach AMD ;)
http://bbs.expreview.com/data/attachment/forum/201012/13/020639x2fkn7k8dmf8d42x.jpg
ja komm,bei pr folien versucht man halt überall ein wenig zutricksen.trotzdem, wenn die werte sich bewahrheiten ist das schon mehr als erwartet und der spekulierte preis gerechtfertigt.
Henroldus
2011-12-19, 14:05:11
Aber nicht nach AMD ;)
http://bbs.expreview.com/data/attachment/forum/201012/13/020639x2fkn7k8dmf8d42x.jpg
LOL, das ist die GTX480 ;)
LovesuckZ
2011-12-19, 14:05:31
ja komm,bei pr folien versucht man überall ein wenig zutricksen.trotzdem wenn die werte sich bewahrheiten ist das schon mehr als erwartet und der spekulierte preis gerechtfertigt.
Es sind 40% im Durchschnitt bei PR. Ziehen wir 15-20% ab, dann sind wir bei einem Vorsprung von ganzen 20-25% gegenüber der GTX580. Die 6970 war auch nicht im Schnitt 14% vor der GTX480/GTX570.
LOL, das ist die GTX480 ;)
Ich weiß. Aber laut AMD wäre die 6970 12% schneller gegenüber der GTX480 in Battleforge. Das wäre wiederrum nur ein paar % langsamer als die GTX580. Das trifft nicht im internen Benchmark ein.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.