PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Cayman - HD 6950/6970 - November 2010


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Gipsel
2010-11-11, 20:02:20
Habe ich oben noch reineditiert. Ist mir erst danach aufgefallen das ich den Teil vergessen hatte.Du meinst aber nicht den Teil hier, oder?
Zumal es Nvidia momentan herzlich egal sein dürfte, ob sie nun Geld verdienen oder nicht. Die haben 10 Jahre lang Geld verdient. Die werden alles tun um Marktanteile zurückzubekommen und das Geld verdienen auf die Zeit danach legen.Die Aktionäre werden es nicht so gut finden, wenn mit einem Mal das Geldverdienen irgendwie auf "später" verschoben wird. Sowas ist denen bestimmt nicht egal ;)
Das mit Marktanteilen zu begründen geht auch nur bis zu einem gewissen Punkt. Ab diesem ist es dann besser, Marktanteile zu verlieren als dafür zu bezahlen, daß die eigenen Produkte gekauft werden.

Bucklew
2010-11-11, 20:04:01
und genauso ist das,ein kid schaut sich die balken an und kauft danach oder lässt es sich von papi zu weihnachten schenken
erzähl ruhig mehr aus deiner jugend :)

und das thema mikroruckler ect. ist hautsächlich ein thema in deutschland und selbst da meist nur in nerdforen.
Ich sag ja: Für den Laien mag die 5970 durchaus die schnellste Karte sein, jeder mit Ahnung sieht das eben ganz Anders.

mit was?2*460iger:confused: :lol:
Lass dich überraschen ;)

das billige flamen ist dein metier wie man wieder deutlich sieht.;)
schlechter konter, sogar für deine verhältnisse :)

da von dir also nichts mehr sachliches zu erwarten ist: e.o.d.

Letzteres kann sehr gut stimmen. Aber wie kommst Du darauf, daß nv sich so einen "Preiskrieg" bei größerer Die-Fläche einfach mal leisten wird? Die haben auch ein Schmerzgrenze.
Nur das die Schmerzgrenze deutlich höher liegt als bei ATI, wenn wir uns mal die Finanzzahlen anschauen.

Heute sieht das anders aus, da AMD ebenso DX11-Karten auf dem Markt hat, also noch durchaus up to date ist und sogar alle Marktsegmente mit DX11-Karten abdeckt, was NV bis heute nicht gelungen ist.
Welches Marktsegment deckt Nvidia denn nicht mit DX11-Karten ab?

AMD hat einfach den Druck nicht, also lassen sie erstmal die **** baumeln.
Quatsch, wenn AMD könnte, wären die Karten eher Heute als Morgen erhältlich. Alles andere ist wirtschaftlich gesehen Unfug.

Wenn der Cyman noch vor Weihnachten kommt, dann wird es AMD wohl wenig schmerzen.
Wenn der 13.12. So ein Hardlaunch wie bei Cypresse wird ist das Weihnachtsgeschäft vorbei ;)

Irgendwann ist auch bei Nvidia Schluss mit Quersubventionieren.
Lass doch das billige Geflame :rolleyes:

Gipsel
2010-11-11, 20:08:10
nVidia kann einen 367mm^2 Die 3 Monate vor AMD im "Sweet Spot" platzieren. nVidia muss keine Transistoren im Bereich DX11 Implementierung, BQ und für die Erhöhung der Ausbeute einsparen. nVidia muss nur 7/8 des Chips aktivieren, um einem hochgezüchteten Barts Chip mithalten zu können.Ich glaube, ich brauche mehr Platz in meiner Signatur. :lol:

Ja, wenn ich ordentlich trainiert hätte und somit meine volle Leistungsfähigkeit abrufen könnte, würde ich doch glatt um den Sieg beim New-York-Marathon mitlaufen können. Aber so reicht es eben mit reduzierter Leistungsfähigkeit nur zu einem Platz im Mittelfeld. Bin ich gut, daß ich sogar ohne Ausschöpfen meiner vollen Leistungsfähigkeit mit den 12-jährigen Kindern mithalten kann! ;D

N0rG
2010-11-11, 20:09:18
Also ich werd nicht nochmal den Fehler machen mir eine dual GPU-Karte zu kaufen, egal wie lang der Balken ist. Ich hoffe diese Erkenntnis wird irgentwann auch mal die breite Masse erreichen.

Bezüglich single GPU-Karten tendiere ich z.Z. zu NV, einfach weil es ein rundes Produkt ist, das außer dem Stromverbrauch eigentlich keine Nachteile hat.

Sollte der Cayman nicht min. 10-15% schneller sein als die 580er ODER ordentliches AF und SSAA bieten wirds eng für AMD.
Würd ihnen den R300-V2.0 wirklich gönnen, aber da ich Pessimist bin gehe ich eher von 3-7% schneller als die 580er aus, bei dem gleichen grottigen AF wie bisher. SSAA im CCC sehen wir mmn. frühestens in 3 Jahren.

mfg

LovesuckZ
2010-11-11, 20:11:01
Ich glaube, ich brauche mehr Platz in meiner Signatur. :lol:

Ja, wenn ich ordentlich trainiert hätte und somit meine volle Leistungsfähigkeit abrufen könnte, würde ich doch glatt um den Sieg beim New-York-Marathon mitlaufen können. Aber so reicht es eben mit reduzierter Leistungsfähigkeit nur zu einem Platz im Mittelfeld. Bin ich gut, daß ich sogar ohne Ausschöpfen meiner vollen Leistungsfähigkeit mit den 12-jährigen Kindern mithalten kann! ;D

Tja, und schon wieder spamt Gipsel, wenn er keine Argumente mehr hat.
Wie gesagt, als Marketingmann bist du toll, als Spammer unerträglich. ;)

Schlammsau
2010-11-11, 20:14:07
Also ich werd nicht nochmal den Fehler machen mir eine dual GPU-Karte zu kaufen, egal wie lang der Balken ist. Ich hoffe diese Erkenntnis wird irgentwann auch mal die breite Masse erreichen.

Bezüglich single GPU-Karten tendiere ich z.Z. zu NV, einfach weil es ein rundes Produkt ist, das außer dem Stromverbrauch eigentlich keine Nachteile hat.

Sollte der Cayman nicht min. 10-15% schneller sein als die 580er ODER ordentliches AF und SSAA bieten wirds eng für AMD.
Würd ihnen den R300-V2.0 wirklich gönnen, aber da ich Pessimist bin gehe ich eher von 3-7% schneller als die 580er aus, bei dem gleichen grottigen AF wie bisher. SSAA im CCC sehen wir mmn. frühestens in 3 Jahren.

mfg

SSAA im CCC?

Das gibt es doch bei AMD schon länger als bei nVidia.

Schlammsau
2010-11-11, 20:15:54
Tja, und schon wieder spamt Gipsel, wenn er keine Argumente mehr hat.
Wie gesagt, als Marketingmann bist du toll, als Spammer unerträglich. ;)

Alter Schwede, schau dich doch mal selber an.
Wenn Gipsel ein Marketingman AMDs ist, dann bist du Huang höchstpersönlich.

Ich kanns nimma lesen....... :frown:

PulsarS
2010-11-11, 20:26:51
Welches Marktsegment deckt Nvidia denn nicht mit DX11-Karten ab?
Low End?
Also das Segment 5450/5550 bei AMD.

Quatsch, wenn AMD könnte, wären die Karten eher Heute als Morgen erhältlich. Alles andere ist wirtschaftlich gesehen Unfug.
Nicht von der Hand zu weisen.
Ich habe da aber eher an was anderes gedacht.
Die wissen jetzt wie stark die GTX 580 ist (kein kluger Schachzug von NV IMO die GTX 580 vor dem Cayman zu bringen), also können sie noch was "optimieren", was immer das auch sein sollte.

Wenn der 13.12. So ein Hardlaunch wie bei Cypresse wird ist das Weihnachtsgeschäft vorbei ;)
Wobei... dies könnte auch ein Grund sein.
Vielleicht möchte man keinen Softlaunch wie beim RV870, sondern einen richtigen Hardlaunch.
Sowas wird man aber wahrscheinlich nie erfahren...

edit:
Tja, und schon wieder spamt Gipsel, wenn er keine Argumente mehr hat.
Wie gesagt, als Marketingmann bist du toll, als Spammer unerträglich. ;)
Einen Marketingmenschen, der so viel Ahnung von Technik hat, wie Gipsel, habe ich noch nie gesehen.
Der Typ ist doch voll der Technikfanatiker und kein Marketingmensch.

SSAA im CCC sehen wir mmn. frühestens in 3 Jahren.

:confused:

aylano
2010-11-11, 20:26:57
t
Neue Architekturen machen IMMER Probleme. Sieht man jetzt ja auch auf einmal bei ATI.

Dann erklär uns, welche Architektonische Probleme AMD in einem Monat denn lösen kann???????????

Es ist ja auch kein 100B ;)
Stimmt, das Bug-Feature ist ja ausgebaut. Und es ist ja auch ein anderer Kühler & Farben drauf, deshalb kann der Chip ja nicht gleich ein.

Nun, du hattest "immer" geschrieben. Wenn du nächstes Mal über heute schreiben will, dann schreib halt "aktuell". Aber wäre wohl zu einfach :)
Das war eine Redewende und da bezog sich immer nicht auf Zeit sondern auf das Zurechtmachen der welt. Immer wenn ich mir die Welt zurecht mache, dann sieht die Welt halt immer besser aus;)

[/QUOTE]Auf R600 haben sie auch aufgebaut.[/QUOTE]
Verstehts du auch den Sinn den du sagst??
Nein, Caymann wird nicht auf das Orientieren, was im R600 nicht bzw. schlecht funktionierte. Seh das doch bitte ein.

Nur das du es verstehst und mir wieder nicht falsches Vorwirfst AMD könnte was neues einbauen/orientieren/machen, was dann nicht so gut funktioniert. Aber das war dann nicht im R600 vorhanden !!!

N0rG
2010-11-11, 20:27:15
SSAA im CCC?

Das gibt es doch bei AMD schon länger als bei nVidia.

meinst du das Adaptive AA? Auf "Performance" ist das alles aber kein SSAA und "Quality" als einzige Einstellung ist mir zu wenig. Brauch da schon nen Regler den ich verschieben kann.

Oder hab ich da was verpasst?

mfg

Gestrandet
2010-11-11, 20:29:11
Würd ihnen den R300-V2.0 wirklich gönnen, aber da ich Pessimist bin gehe ich eher von 3-7% schneller als die 580er aus, bei dem gleichen grottigen AF wie bisher. SSAA im CCC sehen wir mmn. frühestens in 3 Jahren.
Warum gehen so viele davon aus, dass der 5970 schneller wird als die 580?
Das Gegenteil wird der Fall sein, dafür wird er ja auch deutlich günstiger sein.
Nicht neues unter der Preis-Leistungs-Sonne.
Die Vorstellung, dass AMD nach der Single-GPU-Krone greift und gleichzeitig noch eine mGPU-Lösung für die ganz unersättlichen auf den Markt wirft, ist doch ... ja, weiß ich auch nicht.

airbag
2010-11-11, 20:29:40
SGSSAA gibt es ab HD5k wieder. ;) --> ergo mit einer HD4k kann man es vergessen außer mit einem Treiber unter OpenGL.

Schlammsau
2010-11-11, 20:29:54
meinst du das Adaptive AA? Auf "Performance" ist das alles aber kein SSAA und "Quality" als einzige Einstellung ist mir zu wenig. Brauch da schon nen Regler den ich verschieben kann.

Oder hab ich da was verpasst?

mfg

Seit der HD5000 Serie bietet AMD/ATi "Supersampling AA" (SGSSAA), also seit 13 Monaten, offiziell im Treiber an.
Das ist auch das beste SSAA ist was du bekommen kannst.

Ich denke du hast wirklich was verpasst.

Dural
2010-11-11, 20:32:36
habt ihr eigentlich nichts besseres zu tun...

wartet doch einfach bis auf mitte dezember ab...

ich zocke min. bis dahin mit der GTX580 :freak:

Gipsel
2010-11-11, 20:33:46
Tja, und schon wieder spamt Gipsel, wenn er keine Argumente mehr hat.Also wenn Du die Analogie meines Beispiels zu der geradezu irrsinnigen Wortfolge Deinerseits (irgendwelchen validen Argumente sehe ich da keine) nicht erkennst, kann ich Dir wirklich nicht helfen.
Ich habe ja wirklich mit beinahe allen Mitteln versucht, eine Diskussion mit logischen Argumenten zu führen bzw. Dich bei Abwesenheit von ebensolchen darauf aufmerksam zu machen. Dem versagst Du Dich aber sowas von vollständig, daß ich da wie jeder andere hier im Forum wohl aufgeben werde.

Also lebe einfach weiter in Deiner Parallelwelt, in der es offensichtlich ein Vorteil ist, daß ein IHV ein 40% größeres Die bei dem zudem maximal 7/8 der Einheiten aktiviert sind (werden können?) mal so gegen das Angebot vom Mitbewerber stellt und es damit noch nicht mal schlagen kann. So wie Du das beschreibst, hört sich das ja bald nach Absicht an. Nvidia will gar nicht alle Einheiten des GF104 aktivieren, man will gar keine bessere Leistung/Transistor erreichen. Ja sicher! :rolleyes:

Also gegen so eine "Argumentation" komme ich natürlich nicht an. Ich bin raus!

derguru
2010-11-11, 20:34:14
erzähl ruhig mehr aus deiner jugend :)
träum weiter aber positiv ist das es dich zu meiner jugend noch nicht gab.;)

Ich sag ja: Für den Laien mag die 5970 durchaus die schnellste Karte sein, jeder mit Ahnung sieht das eben ganz Anders.
für den laien und die marketingabteilung.;)

habt ihr eigentlich nichts besseres zu tun...

wartet doch einfach bis auf mitte dezember ab...

ich zocke min. bis dahin mit der GTX580 :freak:
bist du nicht der,der seit tagen die cayman-performance aus der folie rauslesen versucht:confused::freak:

Dural
2010-11-11, 20:38:38
was raus lesen? die wird unter 5970 sein das sagt ja AMD selber und somit schon jetzt völlig uninteressant es sei den das AMD entlich was am AF gedreht hat, natürlich ins positive aber ich erwarte genau das selbe wie bei der 6800... unterschidliches AF in einer "generation" wäre sonst schon sehr komisch...

Edit:

hmm genau genommen hat die 6000 serie schon jetzt verschidenes AF, dank unbenennung der 5000 serie zur 6000er, naja da schadet ein dritte stuffe ja auch nicht mehr :freak:

Bucklew
2010-11-11, 20:43:38
Low End?
Also das Segment 5450/5550 bei AMD.
GT420

Nicht von der Hand zu weisen.
Ich habe da aber eher an was anderes gedacht.
Die wissen jetzt wie stark die GTX 580 ist (kein kluger Schachzug von NV IMO die GTX 580 vor dem Cayman zu bringen), also können sie noch was "optimieren", was immer das auch sein sollte.
Für Optimierungen ist es im Grunde zu spät. Vielleicht ein bisschen in Software, aber was will man jetzt an der Hardware basteln? Die ist Fix, da kann man jetzt schlecht 10% mehr rausholen (wenn, dann hätte man sie sofort rausgeholt).

Wobei... dies könnte auch ein Grund sein.
Vielleicht möchte man keinen Softlaunch wie beim RV870, sondern einen richtigen Hardlaunch.
Sowas wird man aber wahrscheinlich nie erfahren...
Also, mal ehrlich: So die News von Fudzilla (?) mit den Yields <10% richtig sind, wäre ein "Hardlaunch" wohl eher sowas wie beim Cypresse. Auch wenn ich mir das mit den niedrigen Yields irgendwie nicht vorstellen kann, aber warum sonst sollte ATI den Release so spät noch verzögern?

Dann erklär uns, welche Architektonische Probleme AMD in einem Monat denn lösen kann???????????
Die Probleme werden sie wohl gelöst haben, scheint sich eben nur länger hingezogen zu haben die GPUs fertig zu haben, als das vorher angedacht war.

Stimmt, das Bug-Feature ist ja ausgebaut. Und es ist ja auch ein anderer Kühler & Farben drauf, deshalb kann der Chip ja nicht gleich ein.
Der Chip ist ja auch nicht gleich :rolleyes:

Oder sind RV770 und 790 jetzt auch die gleichen Chips? :rolleyes:

Verstehts du auch den Sinn den du sagst??
Nein, Caymann wird nicht auf das Orientieren, was im R600 nicht bzw. schlecht funktionierte. Seh das doch bitte ein.
Ich glaube der Einzige der den Sinn von dem was du selbst schreibst nicht versteht bist du ;D

ATI hat sehr wohl auf schlechten Produkten (aka R600) aufgebaut, bis schließlich am Ende der RV870 kam und jetzt kommt was neues. Es geht auch gar nicht anders, weil die Produktionszyklen viel zu lang sind, als das man auf schlechten Produkten NICHT aufbauen müsste. Man muss dann halt gezielt die Schwachpunkte ausmerzen und weiterentwickeln. Siehe GF110.

träum weiter aber positiv ist das es dich zu meiner jugend noch nicht gab.;)
Ja das waren noch Zeiten, als niemand deinen Bullshit durchschaut hat, ne? ;D

für den laien und die marketingabteilung.;)
Ist mir sowas von egal.

davidzo
2010-11-11, 20:43:40
es lohnt sich echt zu warten.

die gtx580 hat ja ein deutlich schlechteres preis/leistungsverhältnis als die gtx480 ohne dass der Preis von letzterer durch den launch deutlich gefallen ist. das kann irgendwie nicht angehen, normalerweise purzeln die preise mit einer neuen generation, zumal die gtx580 für nvidia durch yields und layoutoptimierungen eher billiger in der herstellung sein sollte als die 480 es war.
das kann nur wegen der fehlenden konkurenz sein.
die 580 ist ca. 40% schneller als eine 6870, wenn das derselbe bereich ist den auch camyn anpeilt wird AMD sich hüten für eine so geringe mehrperformance 220% des preises zu verlangen.

Sobald die Konkurrenzsituation wieder hergestellt ist purzeln die Preise.

Dural
2010-11-11, 20:46:10
ja der preis der GTX580 wird sicher etwas fallen, davon gehe ich auch aus! aber die par euro sind mir persöndlich komplett egal.

fondness
2010-11-11, 21:11:53
Am Ende zählt nur das Produkt im "Sweet Spot". Und da war nVidia diesmal 3 Monate früher auf dem Markt und bietet selbst nach Barts das attraktivere Produkt. Und das ist für den Kunden am wichtigsten. Und nicht dein marketingtechnischer Die-Size Schachzug.


Seit wann plapperst du die ATi-Marketingabteilung nach? Time to Markt, Sweet Spot, seit Jahren sagt AMD nichts anderes als das dies entscheidend sei.

Deshalb kam auch bereits im Oktober 2009 Cypress. Das dieser etwas teurer war lag nicht zuletzt an der nicht vorhandenen Konkurrenz und an den Lieferschwierigkeiten. Aber wenn du der Meinung bist das GF104 den Sweet-Spot trifft, dann tut dies Cypress allemal. Die Verkaufszahlen bewiesen dies eindrucksvoll.

Alles andere regelt der Markt. Das NV ihren GF104 sehr billig verkaufen muss weil sie die Nachfrage überschätzt haben und zu viele Wafer bestellt haben wie man bei der Präsentation der Quartalszahlen gehört hat ist eine andere Geschichte.

LovesuckZ
2010-11-11, 21:21:27
Seit wann plapperst du die ATi-Marketingabteilung nach? Time to Markt, Sweet Spot, seit Jahren sagt AMD nichts anderes als das dies entscheidend sei.
Deshalb kam auch bereits im Oktober 2009 Cypress. Das dieser etwas teurer war lag nicht zuletzt an der nicht vorhandenen Konkurrenz und an den Lieferschwierigkeiten. Aber wenn du der Meinung bist das GF104 den Sweet-Spot trifft, dann tut dies Cypress allemal. Die Verkaufszahlen bewiesen dies eindrucksvoll.

Aha. Cool für Cypress. Dabei dachte ich, dass Barts doch im "Sweet Spot" wäre. Aber man kann den "Sweet Spot" sowieso jährlich umdefinieren. Scheint ihm nicht zu stören.


Alles andere regelt der Markt. Das NV ihren GF104 sehr billig verkaufen muss weil sie die Nachfrage überschätzt haben und zu viele Wafer bestellt haben wie man bei der Präsentation der Quartalszahlen gehört hat ist eine andere Geschichte.

Tja, wenn man wie Gipsel nur die Hälfte zitiert, stimmt das. Das die Yields ihrer 40nm Produkte über den Erwartungen lagen, kann man auch ignorieren. Stört ja nur bei der Argumentation. Und billig verkaufen ist die eine Sache, billig verkaufen und dabei eine Marge von 45%+ zu erreichen eine andere. Aber das kann man auch ignorieren. :freak:

Schlammsau
2010-11-11, 21:30:31
Die Quartalszahlen nVidias werdens zeigen. :)

OgrEGT
2010-11-11, 21:38:30
Wär mal wieder an der Zeit zum Thema zurück zu kehren.

Und das hat überhaupt nichts mit dieser seit mehreren Seiten andauernden feindseligen und zynischen Art und Weise zu tun, in welcher ihr versucht eure Lieblingsfirmen zu propagieren.

Gestrandet
2010-11-11, 21:47:58
Meine Lieblingsfirma ist Commodore und wird es auch immer bleiben. Gegen Paula, Agnes und Denise stinken GF110 und RV970 einfach nur ab - wahre Chips tragen Frauennamen! (Dann hätte LS auch keinen PC und überhaupt wäre die Welt ein viel besserer Platz ;) )

Gipsel
2010-11-11, 21:56:15
Aha. Cool für Cypress. Dabei dachte ich, dass Barts doch im "Sweet Spot" wäre. Aber man kann den "Sweet Spot" sowieso jährlich umdefinieren. Scheint ihm nicht zu stören.Nur mal so am Rande:
AMD sagt, Cypress war etwas zu groß für den "sweet spot" (den angeblich RV770 und Barts darstellen). Weiterhin ist GF104 noch einen Tick größer als Cypress, kam ~9 Monate später und ist klar langsamer. Wer definiert hier also was um und biegt es sich zurecht?

Zum Thema:
Cayman, 360 oder 430 mm²? Zwei Graphics-Engines oder doch sogar drei? Teilen sich zwei SIMD-Engines die TMUs (dann müßten wohl immer zwei zusammen deaktiviert werden) oder sogar alle SIMD-Engines innerhalb einer kompletten Graphics Engine? 2x12 SIMDs oder 3x10 für XT? und 2x10 oder 3x8 oder 3x9 für Pro? Das sind die Fragen, die uns hier beschäftigen sollten.

LovesuckZ
2010-11-11, 21:56:46
Wär mal wieder an der Zeit zum Thema zurück zu kehren.

Und das hat überhaupt nichts mit dieser seit mehreren Seiten andauernden feindseligen und zynischen Art und Weise zu tun, in welcher ihr versucht eure Lieblingsfirmen zu propagieren.

Ist das OnTopic?


I can confirm too that the HD 6900s are now officially delayed. For the detail, 1h prior to the GTX 580 launch, AMD called to reaffirm us that the launch would go as expected on the 22nd and to give us a date for the press samples. Glad to see that 48h after they suddenly realize that the HD 5800 are selling well and that the HD 5970 is faster than a board they didn’t expect to see on the market when they planned the Nov 22nd launch…
http://forum.beyond3d.com/showpost.php?p=1492969&postcount=4852

Nur mal so am Rande:
AMD sagt, Cypress war etwas zu groß für den "sweet spot" (den angeblich RV770 und Barts darstellen). Weiterhin ist GF104 noch einen Tick größer als Cypress, kam ~9 Monate später und ist klar langsamer. Wer definiert hier also was um und biegt es sich zurecht?

Wem interessiert den Die-Size für die Positionierung eines Produktes im "Sweet Spot" nach AMD's Definition? Sry, aber AMD definiert ihn zwischen $150 und $250. Dem Kunden ist es egal, wie groß die GPUs sind. Wenn AMD meint, dass Cypress nicht dort positioniert werden kann und man den "Sweet Spot" 3x Monate nVidia überlässt, dann kannst du noch so gerne und so oft mit dem Die-Size kommen. Das interessiert weder nVidia, den Kunden noch AMD selbst. Selbst Barts mit seinen 255mm^2 ist nicht in der Stückzahl produzierbar, dass man UVP erreichen kann. AMD hat einfach nicht mit nVidia's Entwicklungtempo gerechnet. Passiert eben.

Bucklew
2010-11-11, 22:16:38
Die Quartalszahlen nVidias werdens zeigen. :)
Die werden (wie immer) im Vergleich zu ATI sehr gut sein. Und trotzdem wird zwei Sekundne später wieder die alte Leier von den großen Nvidia Chips, die ja so teuer sind und die sie so billig verkaufen müssen - blabla

Wo ist eigentlich der Konkursantrag von Nvidia, den das große immer richtig liegende Orakel Charlie vorher gesagt hat?

horn 12
2010-11-11, 22:18:34
Another rumor.
KitGuru says: "AMD HD6970 guaranteed to beat GTX580, according to sources."
They also promised to have more info in less than 12 hours

Schlammsau
2010-11-11, 22:21:34
Die werden (wie immer) im Vergleich zu ATI sehr gut sein. Und trotzdem wird zwei Sekundne später wieder die alte Leier von den großen Nvidia Chips, die ja so teuer sind und die sie so billig verkaufen müssen - blabla

Wo ist eigentlich der Konkursantrag von Nvidia, den das große immer richtig liegende Orakel Charlie vorher gesagt hat?

;D so wie der letzte Quartalsbericht, der unterirdisch im Desktop-Segment war?
nVidia hatte letztes Quartal nur relativ gute Zahlen, weil der profesionelle Bereich sehr gut lief bzw läuft.

Ich bin nach wie vor der Meinung, dass bei der GTX460 gedumpt wird um der Konkurrenz Marktanteile abzuschwatzen.

Bucklew
2010-11-11, 22:22:04
KitGuru says: "AMD HD6970 guaranteed to beat GTX580, according to sources."
Das waren doch die mit dem fehlenden CUDA bei der GTX465? Dann kann man das ziemlich in die Tonne treten.

;D so wie der letzte Quartalsbericht, der unterirdisch im Desktop-Segment war?
nVidia hatte letztes Quartal nur relativ gute Zahlen, weil der profesionelle Bereich sehr gut lief bzw läuft.
Ach so, wir zählen also nur die Geschäftsbereiche, die uns in den Kram passen, damit das ganze besser aussieht ;D

Ein typischer Schlammsau :D

Ich bin nach wie vor der Meinung, dass bei der GTX460 gedumpt wird um der Konkurrenz Marktanteile abzuschwatzen.
Na und?

aylano
2010-11-11, 22:27:07
Die Probleme werden sie wohl gelöst haben, scheint sich eben nur länger hingezogen zu haben die GPUs fertig zu haben, als das vorher angedacht war.

Ja ja, da kommt man erst vor kurzem drauf, dass man vor einigen Monaten Architektonische Probleme hatte bzw. sie gelöst hatte.


Der Chip ist ja auch nicht gleich :rolleyes:

Oder sind RV770 und 790 jetzt auch die gleichen Chips? :rolleyes:

Dann erzähl doch, was der große Unterschied ist?

Ich glaube der Einzige der den Sinn von dem was du selbst schreibst nicht versteht bist du ;D

ATI hat sehr wohl auf schlechten Produkten (aka R600) aufgebaut, bis schließlich am Ende der RV870 kam und jetzt kommt was neues.

Richtig, aber du glaubtest mir nicht, dass jenes ineffiziente Architektur-Teils beim RV970 nicht nochmal kommt, welches schon beim RV670/RV770 oder RV870 rausgegeben wurdest.
Deshalb sind deine Vergleiche mit den alten Zeiten falsch;)


Es geht auch gar nicht anders, weil die Produktionszyklen viel zu lang sind, als das man auf schlechten Produkten NICHT aufbauen müsste. Man muss dann halt gezielt die Schwachpunkte ausmerzen und weiterentwickeln. Siehe GF110.
Tja, wenn man den Unterschied zwischen Architektonischen Schwachstellen und Probleme mit der Fertigung nicht verstehen, ...

LovesuckZ
2010-11-11, 22:30:58
;D so wie der letzte Quartalsbericht, der unterirdisch im Desktop-Segment war?
nVidia hatte letztes Quartal nur relativ gute Zahlen, weil der profesionelle Bereich sehr gut lief bzw läuft.

Ich bin nach wie vor der Meinung, dass bei der GTX460 gedumpt wird um der Konkurrenz Marktanteile abzuschwatzen.

Tja, leider falsch: Gross Margin für's Q3 2011 ist 46,5%. Mehr als AMD als komplette Firma.

Mancko
2010-11-11, 22:32:40
LS hat aber nicht von Kunden geredet, sondern das auf die Architektur zurückgeführt. Deswegen habe ich mich auch auf dies bezogen, da es LS ja offensichtlich nicht scheißegal und bei einer Diskussion der Architektur durchaus von Interesse ist. ;)

Naja dann sollte man aber mal erwähnen, dass der Größenunterschied hier nicht unbedingt AMD's toller Ingeneursleistung geschuldet ist sondern größten Teils der Tatsache, dass dort diverse Dinge die die Konkurenz hat nicht enthalten sind. Ob davon der Gamer alles braucht ist dabei egal, da hier wie gesagt die Geschäftsmodelle unterschiedlich sind. Nvidia will eben Geld in anderen Geschäftszweigen verdienen und zwar in Zukunft sehr viel Geld. Deswegen lagen die Prioritäten dort einfach anders.

Mancko
2010-11-11, 22:34:44
GF100 bzw 110 sind für den Pro Sektor gedacht mit entsprechender Auslegung der Einheiten, da braucht man keine GF104, von daher hat Gipsel absolut recht.
GF104 ist aber daraus abgeleitet. Demzufolge erbt er gewisse Dinge mit. Vollständig seperate Entwicklungen kosten eine Menge R&D Geld. Dem wollte Nvidia hier wohl etwas aus dem Weg gehen.

Bucklew
2010-11-11, 22:35:29
Ja ja, da kommt man erst vor kurzem drauf, dass man vor einigen Monaten Architektonische Probleme hatte bzw. sie gelöst hatte.
Soll es durchaus mal gegeben haben...

Dann erzähl doch, was der große Unterschied ist?
Unterschiede gibt es mehr als genug und die kennst du eh, von daher werde ich die sicherlich nicht zum 20. Mal wiederholen. Ich denke, dass alleine die Änderung der TMUs was deutlich anderes sind als ein reines b-Stepping.

Richtig, aber du glaubtest mir nicht, dass jenes ineffiziente Architektur-Teils beim RV970 nicht nochmal kommt, welches schon beim RV670/RV770 oder RV870 rausgegeben wurdest.
Deshalb sind deine Vergleiche mit den alten Zeiten falsch;)
Nö, denn das neue Architekturen immer holprig sind, zeigt die Vergangenheit nunmal mehr als deutlich. Da wäre ein R600 ja nur ein Beispiel, man könnte auch den FX nennen.

Tja, wenn man den Unterschied zwischen Architektonischen Schwachstellen und Probleme mit der Fertigung nicht verstehen, ...
Also ist die Fertigung schuld an der Verzögerung?

Mancko
2010-11-11, 22:37:07
Irgendwann ist auch bei Nvidia Schluss mit Quersubventionieren.
Da kannst noch lange warten. Das Unternehmen hat über 10 Jahre sehr viel Geld verdient und ist schuldenfrei.
Von AMD kann man das nun wirklich nicht behaupten. Die sind für alles mögliche bekannt aber sicherlich nicht fürs Geld verdienen. Den Konzern assoziiert man im GPU Bereich nicht nur mit rot weil sie ATI gekauft haben sondern weil der Laden (AMD) in Summe permanent in den Miesen ist und das seit Dekaden bereits.

fondness
2010-11-11, 22:37:54
Naja dann sollte man aber mal erwähnen, dass der Größenunterschied hier nicht unbedingt AMD's toller Ingeneursleistung geschuldet ist sondern größten Teils der Tatsache, dass dort diverse Dinge die die Konkurenz hat nicht enthalten sind. Ob davon der Gamer alles braucht ist dabei egal, da hier wie gesagt die Geschäftsmodelle unterschiedlich sind. Nvidia will eben Geld in anderen Geschäftszweigen verdienen und zwar in Zukunft sehr viel Geld. Deswegen lagen die Prioritäten dort einfach anders.

Das stimmt faktisch einfach nicht. Schon gar nicht für GF104. Ati hat sogar für so mache Funktionen dezidierte Hardware die Nv simulieren muss. GF100 hat natürlich schon Vorteile, aber damit kann man den eklatanten Die-Size Unterschied sicherlich nicht begründen. NVs großer Pluspunkt ist die Software, nicht die Hardware.

Bucklew
2010-11-11, 22:39:56
Das stimmt faktisch einfach nicht. Schon gar nicht für GF104. Ati hat sogar für so mache Funktionen dezidierte Hardware die Nv simulieren muss.
Was muss Nv simulieren?

Mancko
2010-11-11, 22:40:13
Du meinst aber nicht den Teil hier, oder?
Die Aktionäre werden es nicht so gut finden, wenn mit einem Mal das Geldverdienen irgendwie auf "später" verschoben wird. Sowas ist denen bestimmt nicht egal ;)
Das mit Marktanteilen zu begründen geht auch nur bis zu einem gewissen Punkt. Ab diesem ist es dann besser, Marktanteile zu verlieren als dafür zu bezahlen, daß die eigenen Produkte gekauft werden.

Also ganz ehrlich. AMDs Aktionäre haben kaum schwarze Zahlen gesehen. Der Laden verdient unterm Strich nichts. Nvidia hat lange genug deftigst verdient und die werden auch wieder Geld verdienen. Das Unternehmen ist zudem schuldenfrei. Das macht sicherlich keinem Aktionär Spass aber man kann es für eine gewisse Dauer akzeptieren, damit das Unternehmen erstmal mehr Marktanteile bekommt. Jede Wette das Nvidia bis zur 28nm Generation hier preislich volle Breitseite geben wird und das durchhält.

_flx
2010-11-11, 22:40:17
und was genau hat all das mit Cayman zu tun?

fondness
2010-11-11, 22:43:29
Tja, leider falsch: Gross Margin für's Q3 2011 ist 46,5%. Mehr als AMD als komplette Firma.

Man muss schon ziemlich Ignorant sein wenn man mit der Gross Margin kommt, wo gerade dargelegt wurde das man die Kohlen mit dem professionellen Märkten aus dem Feuer holt und sich Schlammsau explizit auf die anderen Märkte beziehen wollte. Die Gross Margin in den professionellen Märkten liegt bei NV üblicherweise zwischen 70 und 80%. Du kannst dir ja ungefähr ausrechnen wieviel dann bei den anderen Märkten erzielt wird. ;)

Mancko
2010-11-11, 22:44:40
;D so wie der letzte Quartalsbericht, der unterirdisch im Desktop-Segment war?
nVidia hatte letztes Quartal nur relativ gute Zahlen, weil der profesionelle Bereich sehr gut lief bzw läuft.

Ich bin nach wie vor der Meinung, dass bei der GTX460 gedumpt wird um der Konkurrenz Marktanteile abzuschwatzen.

Mein Reden die ganze Zeit. Aber was interessiert das den Kunden? Dem muss man doch ganz klar eine 460 empfehlen und definitiv kein AMD Produkt. Er bekommt dort einfach mehr fürs gleiche oder teils sogar kleinere Geld. Gut für den Kunden und schlecht für Nvidia und AMD.
Und was meinst Du wird wohl mit dem professionellen Segment über die nächsten Monate passieren? Also ich tippe auf wachsen und du? Wie schaut es dann mit den Dumpingmöglichkeiten im Consumer Segment aus - werden die besser oder schlechter? Also ich tippe auf besser und zwar aus zwei Gründen:

1) professionelle Segment wird wachsen ->heisst mehr finanzieller Spielraum.
2) Consumer Produkte werden günstiger in der Herstellung dank Designoptimierung und Yield Verbesserung.

Eigentlich doch keine schlechte Ausgangsposition für ein ordentliches Comeback oder? :)

Bucklew
2010-11-11, 22:48:54
Man muss schon ziemlich Ignorant sein wenn man mit der Gross Margin kommt, wo gerade dargelegt wurde das man die Kohlen mit dem professionellen Märkten aus dem Feuer holt und sich Schlammsau explizit auf die anderen Märkte beziehen wollte. Die Gross Margin in den professionellen Märkten liegt bei NV üblicherweise zwischen 70 und 80%. Du kannst dir ja ungefähr ausrechnen wieviel dann bei den anderen Märkten erzielt wird. ;)
Selbst ohne die Profimärkte verdient Nvidia mit 580 Millionen deutlich mehr als ATI insgesamt mit 390 Millionen (und da sind die Profimärkte sogar mit drin).

Es ist also Quatsch, dass Nvidia nur dort mehr verdient und die normalen Produkte überhaupt. Und selbst wenn dem so wäre: Was wäre so verkehrt daran? Der GF100/110 ist ja u.A. auch deshalb so "schlecht" bei Games, weil er viel mitschleppt, was genau für diesen Markt gedacht ist. Und offensichtlich, wenn wir auf die Finanzzahlen schauen, geht die Taktik wunderbar auf.

Gipsel
2010-11-11, 22:51:48
Naja dann sollte man aber mal erwähnen, dass der Größenunterschied hier nicht unbedingt AMD's toller Ingeneursleistung geschuldet ist sondern größten Teils der Tatsache, dass dort diverse Dinge die die Konkurenz hat nicht enthalten sind.Welche denn?
Bedenke, das ging um die GF104-Konkurrenz, also Barts und evtl. noch Cypress.

Mancko
2010-11-11, 22:55:44
Selbst ohne die Profimärkte verdient Nvidia mit 580 Millionen deutlich mehr als ATI insgesamt mit 390 Millionen (und da sind die Profimärkte sogar mit drin).

Es ist also Quatsch, dass Nvidia nur dort mehr verdient und die normalen Produkte überhaupt. Und selbst wenn dem so wäre: Was wäre so verkehrt daran? Der GF100/110 ist ja u.A. auch deshalb so "schlecht" bei Games, weil er viel mitschleppt, was genau für diesen Markt gedacht ist. Und offensichtlich, wenn wir auf die Finanzzahlen schauen, geht die Taktik wunderbar auf.

Naja man muss schon festhalten, das Nvidia mal besser vedient hat. Sie befinden sich in einer Umstellungsphase und es hätte sicherlich besser sein können. Ohne die massive Verspätung hätten sie 2010 sicherlich bessere Zeiten gehabt und ich denke, dass die das schon mächtig wurmt.
Aber so ist das im Halbleitergeschäft. Das ist Risiko behaftet und da läuft eben nicht immer alles nach Plan.
Für den Moment wird es Nvidia jedoch erstmal nur um Marktanteile gehen und um das Zurückholen der Reputation als unangefochtener Leader. Von daher denke ich schon, dass die aktuell rote Zahlen sehr bewusst auch einkalkulieren und damit kommen wir dann wieder zurück zu den Produkten.

Dem Endverbraucher kann das wurscht sein. Hauptsache er bekommt eine super Leistung, sehr viel Bildqualität, Features und einen super Softwaresupport zu einem guten Preis und da kann er sich aktuell nicht beklagen. Die 460 und 470 rocken zu den Preisen. Die 480 eigentlich auch. Die 580 wird noch runter kommen aber aktuell ist dafür noch kein Bedarf, da AMD noch nicht soweit ist. Im High End spielt der Preis auch nicht die größte Rolle.

Bucklew
2010-11-11, 22:59:03
Für den Moment wird es Nvidia jedoch erstmal nur um Marktanteile gehen und um das Zurückholen der Reputation als unangefochtener Leader. Von daher denke ich schon, dass die aktuell rote Zahlen sehr bewusst auch einkalkulieren und damit kommen wir dann wieder zurück zu den Produkten.
Welche roten Zahlen? Das Q3 war mit gut 90 Millionen Gewinn ausgegangen und auch das Q2 war eigentlich mit 50 Millionen im Plus, das wurde nur von 190 Millionen Einmalzahlungen wegen der defekten Chips ins Rot gedrückt.

Mancko
2010-11-11, 22:59:51
Und wo wir gerade dabei sind - sorry ist zwar der Cayman Thread aber um die Diskussion dazu jetzt hier zu beenden aktuell die Zahlen von Nvidia:

http://www.reuters.com/article/idCNN114679720101111?rpc=44


UPDATE 1-Nvidia posts quarterly results in line with Street

Thu Nov 11, 2010 4:45pm EST

* Q3 EPS 15 cents, vs 14 cent expectation

* Quarterly revenue in line with Street

* Chipmaker says sales to rise in current quarter

* Shares edge up after hours

SAN FRANCISCO, Nov 11 (Reuters) - Graphics chipmaker Nvidia (NVDA.O) posted quarterly results in line with expectations and said revenue in the current quarter would rise between 3 percent and 5 percent sequentially.

The company, which competes with Advanced Micro Devices (AMD.N), reported net earnings of $85 million, or 15 cents a share, for its fiscal third quarter, ended Oct 31, compared with a net profit of $108 million, or 19 cents a share, in the year-ago period.

That slightly exceeded analysts average expectation of 14 cents a share, according to Thomson Reuters I/B/E/S.

Shares of Santa Clara-based Nvidia rose 0.71 percent in after-hours trade after closing down 1 percent at $12.61.

The chipmaker said revenue in the third quarter was $844 million, down from $903 million in the year-ago period and in line with estimates of $844 million. (Reporting by Noel Randewich; Editing by Steve Orlofsky)



AMD hat 1 Mio in der GPU Abteilung verdient im abgelaufenen Quartal.

LovesuckZ
2010-11-11, 23:01:26
Hier ist der Thread für die Diskussion um das Q3 Ergebnis: http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=495527

Mancko
2010-11-11, 23:01:52
Welche roten Zahlen? Das Q3 war mit gut 90 Millionen Gewinn ausgegangen und auch das Q2 war eigentlich mit 50 Millionen im Plus, das wurde nur von 190 Millionen Einmalzahlungen wegen der defekten Chips ins Rot gedrückt.

Jop sorry hatte ich auch gerade erst gesehen. Sind gerade frisch raus. Das ist deutlich besser als ich erwartet habe und Zeit für einen Einstieg bei denen würde ich sagen. Es kann nur besser werden, da die 5x Produkte sicherlich besser sind als die 4x Produkte und zwar was Releasepünktlichkeit, Konkurenzfähigkeit und Herstellungskosten angeht. Das dürfte AMD gar nicht gefallen.

Höre mir jetzt erstmal den Conference call an.

derguru
2010-11-11, 23:14:38
kann hier mal ein mod einschreiten,hier geht es um cayman und nicht um quartalsergebnisse von nv,noch taschengeld beziehen aber über quartalsergebnisse diskutieren.:freak:

=Floi=
2010-11-11, 23:18:14
Die Quartalszahlen nVidias werdens zeigen. :)

wir sind ja nicht bei AMD, da geht dein flame nach hinten los! ;D
nv hat selbst da wo es niemand mehr erwartet hat noch gewinn gemacht.

Bucklew
2010-11-11, 23:21:43
kann hier mal ein mod einschreiten,hier geht es um cayman und nicht um quartalsergebnisse von nv,noch taschengeld beziehen aber über quartalsergebnisse diskutieren.:freak:
Sag das doch deinem Kollegen Schlammsau ;)

Wir können doch nichts dafür wenn er sich (so wie du) immer in so aussichtslose Argumentationen verstrickt ;D

DeadMeat
2010-11-11, 23:38:27
Macht euch doch nen eigenen thread auf, wo buckle, LZ, schlammi und co sich den ganzen tag antrollen koennen. Die threads zu neuen karten werden mit jeder Gen lächerlicher.
Könnte man die posts einfach loeschen (inkls diesen)?
Hier sollte es einzig um die beiden Karten gehen, und absolut nicht NV oder deren gewinn.

aylano
2010-11-11, 23:39:39
Unterschiede gibt es mehr als genug und die kennst du eh, von daher werde ich die sicherlich nicht zum 20. Mal wiederholen. Ich denke, dass alleine die Änderung der TMUs was deutlich anderes sind als ein reines b-Stepping.
Nein, ich kenne keine Unterschiede und du hast bist jetzt noch nichts gesagt.
nix da 20mal.
Ich hatte nähmlich nicht stundenlang verzweifelt nach Veränderungen gesucht.

Aber anscheinend gibts du dich schon mit winzigen Änderungen zufrieden, die kaum/keine Auswirkungen haben.
Die Performance & Stromverbrauch ist so gestiegen bzw. gesunken wie man es von einem bereinigten GF100 erwartet hat.

Du tust ja so, als ob ein GF100B mit selben aktivierten Cores & Selben Takt deutlich (5-10%) weniger Performancezuwachs bei gleicher Stromverbrauchsreduktion hätte.

Nö, denn das neue Architekturen immer holprig sind, zeigt die Vergangenheit nunmal mehr als deutlich. Da wäre ein R600 ja nur ein Beispiel, man könnte auch den FX nennen.
Richtig, aber nicht, weil sie die Fehler von vorigen schlechten Produkten wiederholt haben, die währenddessen bei Weiterentwicklungen schon gelöst wurden;)

1 Monat Verspätung ist im Vergleich zum Fermi lächerlich.
Nvidia brauchte 1 Jahr bis sie endlich einen 512-Core-Fermi rausbringen konnten.

Entweder hat Caymann-GPU keine/kaum Probleme und kommt in Dezember oder es hat schwere Probleme.
Denn AMD hat auch ein Jahr gebraucht, bis R600 in Form einer RV670 vernünftig rauskam.


Also ist die Fertigung schuld an der Verzögerung?
Welche Schuld hatte den sonst GF110 gehabt?

RV970 soll ja laut dir Architektonische Probleme haben, die du ja sowieso nicht erklären kannst.

tombman
2010-11-11, 23:39:41
Ok, nachdem AMD wiederholt hat, daß die 5970 die "schnellste" Karte bleiben wird, ist klar, daß Nvidia schon wieder gewonnen hat. Praktisch auf 5970 Niveau vom speed her, dafür ohne MR, mit HQAF, Phys-X und mehr nutzbarem Ram ;)

http://www.abload.de/img/blooo06np.png (http://www.abload.de/image.php?img=blooo06np.png)

Nicht umsonst wollen die Händler die 5970er schnell loswerden...

Gipsel
2010-11-11, 23:50:00
Hier sollte es einzig um die beiden Karten gehen, und absolut nicht NV oder deren gewinn.
Genau!
Da das ja offensichtlich als Gesprächsanreger etwas unbeachtet geblieben ist hier nochmal:
Cayman, 360 oder 430 mm²? Zwei Graphics-Engines oder doch sogar drei? Teilen sich zwei SIMD-Engines die TMUs (dann müßten wohl immer zwei zusammen deaktiviert werden) oder sogar alle SIMD-Engines innerhalb einer kompletten Graphics Engine? 2x12 SIMDs oder 3x10 für XT? Und 2x10 oder 3x8 oder 3x9 für Pro? Das sind die Fragen, die uns hier beschäftigen sollten.

Mancko
2010-11-11, 23:56:37
Ok, nachdem AMD wiederholt hat, daß die 5970 die "schnellste" Karte bleiben wird, ist klar, daß Nvidia schon wieder gewonnen hat. Praktisch auf 5970 Niveau vom speed her, dafür ohne MR, mit HQAF, Phys-X und mehr nutzbarem Ram ;)

http://www.abload.de/img/blooo06np.png (http://www.abload.de/image.php?img=blooo06np.png)

Nicht umsonst wollen die Händler die 5970er schnell loswerden...

Ich denke das von Cayman zu viel erwartet wird. Ich denke er wird schneller werden als die 5870 - ist auch nicht schwer.
Wird er schneller als die GTX580? Vielleicht aber nicht viel und wohl auch nur bei alten Games. In neuen vor allem DX11 Games wird sich AMD schwer gegen die 580 tun. Bei der Bildqualität bin ich auch nicht überzeugt, dass es dort lange fällige Verbesserungen geben wird.

In Summe wird das Produkt sicher in Ordnung sein aber wird das Jahr 2011 besser für AMD's GPU Buisness als 2010? Ich denke nicht. Nvidia wird mächtig Druck machen. Das größte Problem im Consumerbereich ist eigentlich Barts. Das sieht doch ein Blinder, dass AMD nicht zufrieden damit sein kann. Das Produkt bietet viel zu viele Angriffsmöglichkeiten für die Konkurenz.

Insofern ist AMD sicherlich konkurenzfähig im High End, wird aber meiner Meinung nach Kunden abgeben müssen an Nvidia. Die wirklichen Enthusiasten kaufen bei gleicher Performance und der gewohnten Überlegenheit seitens Nvidia in anderen Punkten einfach lieber Nvidia als AMD und das liegt vor allem daran, dass AMD häufig zu konservativ ist. Da ist einfach nicht so die Storry dahinter.

Bucklew
2010-11-11, 23:56:53
Aber anscheinend gibts du dich schon mit winzigen Änderungen zufrieden, die kaum/keine Auswirkungen haben.
Die Performance & Stromverbrauch ist so gestiegen bzw. gesunken wie man es von einem bereinigten GF100 erwartet hat.
Für mich gehen die Änderungen beim GF110 auf jeden fall deutlich über das hinaus, was man bisher so an b Varianten getan hat. Von daher halte ich die Umbennenung für ok. Mir zumindest ist kein Chip bekannt, der vom A zum B Stepping solch weitreichende Änderungen hatte.

Du tust ja so, als ob ein GF100B mit selben aktivierten Cores & Selben Takt deutlich (5-10%) weniger Performancezuwachs bei gleicher Stromverbrauchsreduktion hätte.
Bezogen auf die TMUs auf jeden Fall.

Richtig, aber nicht, weil sie die Fehler von vorigen schlechten Produkten wiederholt haben, die währenddessen bei Weiterentwicklungen schon gelöst wurden;)
Habe ich nie behauptet. Lesen bildet. Es ändert aber nichts daran, dass neue Architekturen nunmal immer heikel sind und oft Probleme auftauchen, die erst in der nächsten Chipiteration gelöst werden können. War bei Fermi so, mal sehen wies beim Cayman sein wird.

1 Monat Verspätung ist im Vergleich zum Fermi lächerlich.
Nvidia brauchte 1 Jahr bis sie endlich einen 512-Core-Fermi rausbringen konnten.
Das eine Jahr ist lächerlich im Vergleich dazu, dass man vor ATI die erste "richtige" DX11-Grafikkarte im oberen Segment hat.

Entweder hat Caymann-GPU keine/kaum Probleme und kommt in Dezember oder es hat schwere Probleme.
Denn AMD hat auch ein Jahr gebraucht, bis R600 in Form einer RV670 vernünftig rauskam.
Cayman kann auch schwere Probleme haben und dennoch im Dezember erscheinen. Einfach weils keine andere Möglichkeit gibt. So wie es beim R600 der Fall war.

Welche Schuld hatte den sonst GF110 gehabt?
Woran soll GF110 jetzt auf einmal Schuld sein?

RV970 soll ja laut dir Architektonische Probleme haben, die du ja sowieso nicht erklären kannst.
Ich merk schon, deine Lesekompetenz ist genauso mies wie deine Rechtschreibung :rolleyes:

Dural
2010-11-11, 23:57:02
der aufbau ist mir komplett egal, was mich interessiert ist:

grösse
spannung
takt
verbrauch
oc
leistung

also heist es abwarten...

aylano
2010-11-12, 00:34:57
Für mich gehen die Änderungen beim GF110 auf jeden fall deutlich über das hinaus, was man bisher so an b Varianten getan hat. Von daher halte ich die Umbennenung für ok. Mir zumindest ist kein Chip bekannt, der vom A zum B Stepping solch weitreichende Änderungen hatte.

Die Änderungen sind so weitreichend, dass du nach Mehrmaligen Auffordrung immer noch nichts sagen kannst.
Ist ja auch kein Wunder, da es in Bechmarks eben keine Auswirkungen hatte.

Und wie lange hat Nvidia an der Änderung gearbeitet, dass nichteinmal in der Messtoleranz etwas rauskommt??;-) Sehr effektiv und sehr innovativ.

Interessant, wie leichtgläubig die Leute sind und sich in theoretischen Dingen die postiven Vorteile suchen, wenn praktisch nichts rauskommt.

Tja, deine Aussage werde ich mir merken, wenn AMD wieder mal ihre GPUs Unbenennen oder um AMDs Grafik-Qualität oder was auch immer...


Habe ich nie behauptet. Lesen bildet.
Es reicht nicht den Text zu lesen. Man muss den Inhalt auch verstehen. Ich habe nicht Lust für dich jedesmal extra Erklärungen zu machen, damit du es auch verstehst.


Es ändert aber nichts daran, dass neue Architekturen nunmal immer heikel sind und oft Probleme auftauchen, die erst in der nächsten Chipiteration gelöst werden können. War bei Fermi so, mal sehen wies beim Cayman sein wird.

Ich warte nur auch die Erklärung wie man grobe Probleme (=Architektur-Prolbeme) in einem Monate lösen kann.
Das hast ja du gesagt.

Entweder es gibt kein Problem in der GPU oder Caymann verspätet sich deutlich.


Das eine Jahr ist lächerlich im Vergleich dazu, dass man vor ATI die erste "richtige" DX11-Grafikkarte im oberen Segment hat.

Typische verzeifelte Aussage, wenn man nicht mit der Realität klarkommt bzw schönredet.

Woran soll GF110 jetzt auf einmal Schuld sein?
Wenn du dich selber nicht entscheiden kannst, was jetzt Architektonische und was Fertigungstechnischde Probleme sind, verstehe ich wenn du dich selber nicht mehr auskennst.


Ich merk schon, deine Lesekompetenz ist genauso mies wie deine Rechtschreibung :rolleyes:
Klar, wenn man trotz mehrmaligen Auffordungen nichts mehr Fachlich-Erklären kann, dann muss man mit solchen Nebensächlichkeiten ablenken.
Immer das selbe.

RoNsOn Xs
2010-11-12, 00:39:19
http://bonius.com/gallery2/d/5145-1/picard.jpg
seit 3 seiten...

Screemer
2010-11-12, 00:45:01
Höre mir jetzt erstmal den Conference call an.
da kann man doch nur sagen: danke gott! endlich sind die kasper fort.

gibts das auch noch? wie zum geier kann es die moderation von 3dc zulassen, dass ein thread so zum spielball von fanboys wird wie dieser hier? das kann ja wohl nicht sein. ich habe jetzt 5 seiten biasten bullshit von allen seiten und 0, zero, nada, niente, rien, null information zum eigentlichen thread-thema gelesen. könnte ja irgendwo ne interessante info versteckt sein. jedoch ist dem nicht so.

kann hier bitte mal einer zumachen? infos können von mir aus ja mods posten, aber obiges geht bestimmt nicht nur mir auf die nerven.

Fetza
2010-11-12, 00:57:02
http://bonius.com/gallery2/d/5145-1/picard.jpg
seid 3 seiten...

Lass sie doch rumspammen, so lange es keine relevanten infos gibt stört das blabla doch kaum. :freak:

da kann man doch nur sagen: danke gott! endlich sind die kasper fort.

gibts das auch noch? wie zum geier kann es die moderation von 3dc zulassen, dass ein thread so zum spielball von fanboys wird wie dieser hier? das kann ja wohl nicht sein. ich habe jetzt 5 seiten biasten bullshit von allen seiten und 0, zero, nada, niente, rien, null information zum eigentlichen thread-thema gelesen. könnte ja irgendwo ne interessante info versteckt sein. jedoch ist dem nicht so.

kann hier bitte mal einer zumachen? infos können von mir aus ja mods posten, aber obiges geht bestimmt nicht nur mir auf die nerven.

Naja, man gewöhnt sich an alles - das ist im 3dcenter quasi ein ritual zu jedem graka-launch, auch wenns traurig ist.

Bucklew
2010-11-12, 00:59:09
Die Änderungen sind so weitreichend, dass du nach Mehrmaligen Auffordrung immer noch nichts sagen kannst.
Ist ja auch kein Wunder, da es in Bechmarks eben keine Auswirkungen hatte.
Ach so, merkt man gar nicht. Schon komisch, dass dann so eine Karte, die ja eigentlich nichtmal 20% schneller ist (http://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-580) (theoretisch ohne die Tweaks), dann auf einmal 30% schneller ist (http://www.bit-tech.net/hardware/graphics/2010/11/09/nvidia-geforce-gtx-580-review/9). Aber stimmt, merkt man nicht ;)

Und wie lange hat Nvidia an der Änderung gearbeitet, dass nichteinmal in der Messtoleranz etwas rauskommt??;-) Sehr effektiv und sehr innovativ.
Insgesamt kürzer als es ATI geschafft hat, ein wirkliches DX11-Pendant herauszubringen. Und ein B-Stepping wäre auch nicht deutlich schneller gewesen. ATI hat gute 9 Monate gebraucht für RV770->RV790 und die Änderungen waren geringer als zwischen GF100 und 110.

Tja, deine Aussage werde ich mir merken, wenn AMD wieder mal ihre GPUs Unbenennen oder um AMDs Grafik-Qualität oder was auch immer...
Na dann fang schonmal an:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/november/radeon-hd-5550-in-radeon-hd-6390-umbenannt/

Es reicht nicht den Text zu lesen. Man muss den Inhalt auch verstehen. Ich habe nicht Lust für dich jedesmal extra Erklärungen zu machen, damit du es auch verstehst.
Na dann zitier doch mal, wo ich behauptet habe, dass ATI bei Cayman dieselben Architekturfehler wie beim R600 machen wird.

Ich warte nur auch die Erklärung wie man grobe Probleme (=Architektur-Prolbeme) in einem Monate lösen kann.
Das hast ja du gesagt.
Nö. Hör auf rumzulügen.

Entweder es gibt kein Problem in der GPU oder Caymann verspätet sich deutlich.
Definiere "deutlich".

Typische verzeifelte Aussage, wenn man nicht mit der Realität klarkommt bzw schönredet.
Ist die Frage durch welche Brille man das ganze sieht. Mit einer tiefroten sicherlich, wenn man sich die Fakten anschaut sieht das ganze anders aus.

Wenn du dich selber nicht entscheiden kannst, was jetzt Architektonische und was Fertigungstechnischde Probleme sind, verstehe ich wenn du dich selber nicht mehr auskennst.
Beantworte doch einfach mein Frage. Du schriebst:
"Welche Schuld hatte den sonst GF110 gehabt?"
WORAN soll den GF110 denn nun schuld gehabt haben? Besonders in hinblick auf Cayman?

LovesuckZ
2010-11-12, 01:01:55
Lass sie doch rumspammen, so lange es keine relevanten infos gibt stört das blabla doch kaum. :freak:



Naja, man gewöhnt sich an alles - das ist im 3dcenter quasi ein ritual zu jedem graka-launch, auch wenns traurig ist.

Wieso fragt niemand von euch im "Forum und Welt" Bereich nach, ob man hier nicht einem "News" Sticky für AMD und nVidia errichten könnte.
Dann könntet ihr dort gucken und müsstet nicht in einem DISKUSSION-Forum Diskussionen überlesen. :rolleyes:

Gluckstaler
2010-11-12, 01:03:12
Zum Thema:
Cayman, 360 oder 430 mm²? Zwei Graphics-Engines oder doch sogar drei? Teilen sich zwei SIMD-Engines die TMUs (dann müßten wohl immer zwei zusammen deaktiviert werden) oder sogar alle SIMD-Engines innerhalb einer kompletten Graphics Engine? 2x12 SIMDs oder 3x10 für XT? und 2x10 oder 3x8 oder 3x9 für Pro? Das sind die Fragen, die uns hier beschäftigen sollten.

Ja! Dies sollte das Thema sein.

Gemäss alter ATI-Definition hat eine 900er Serie Karte eine DIE-Grösse von mindestens 400 mm2.

Wieso 360 ODER 430 mm2? und nicht 400mm2?

SIMD-Engines: Wieso 2x12 ODER 3x10 und nicht 2x14 oder 3x9 für XT?

Wenn ich die 3D-Center Artikel anschaue, dann wurde bei Barts immer von 960 ODER 1280 geredet, aber nie von 1120.

Wieso kam Barts als 1120er raus? Wenn der 32nm-Prozess nicht gecancelt worden wäre, hätte man auf der gleichen Fläche (der 700er Serie) 1.4x mehr Stream-Processors unterbringen können.

Welche Gerüchte/Fakten/Argumente sprechen für 3 Engines und welche für 2 Engines? Müsste es im Fall von 3-Engines nicht 50% mehr ROPs haben?

Bezüglich der Meldung dass AMD Probleme mit DrMOS Chips hat, scheint was dran zu sein, mein chinesischer Kistenschieber, der direkt ab Fabrik kauft, hat sehr wenige Barts (6850: 200$; ohne MwSt) und gleichzeitig hat er gerade die Preise für 5850er gesenkt (210$; ohne MwSt)

Dies sollte jedoch niemanden dazu veranlassen, ernsthaft zu glauben, dass Cayman wegen eines DrMOS-Chips verspätet ist. Ich freue mich schon riesig auf Charlie's Artikel, ;D, bezüglich Cayman und 580er natürlich, hi hi.

fnnor
2010-11-12, 01:22:34
Kitguru rudert wieder zurück und meint nun das die 6970 nicht auf das preisegment der GTX580 zielt btw deren performance level,
sie soll wohl "nur" preis/leistung attraktiv sein, der author meint auch noch das seine quelle angeblich 100% sicher sei... naja

fänd ich sehr schade wenn cayman der GTX580 keine paroli bieten kann...
und noch schlimmer find ich es das ich jezze vieleicht noch 4 wochen warten muss um dann entäuscht zu werden...

http://www.kitguru.net/components/graphic-cards/zardon/amd-hd6970-update-and-performance-indicators/

LovesuckZ
2010-11-12, 01:25:03
Kitguru eben. Einfach ignorieren. Die schreiben nur Schrott, um Hits zu bekommen.

Fetza
2010-11-12, 01:35:36
Wieso fragt niemand von euch im "Forum und Welt" Bereich nach, ob man hier nicht einem "News" Sticky für AMD und nVidia errichten könnte.
Dann könntet ihr dort gucken und müsstet nicht in einem DISKUSSION-Forum Diskussionen überlesen. :rolleyes:

Weil das hier ein informationsthread sein sollte, der sich ganz spezifisch um cayman kümmert. Stattdessen wirkt es wie eine fanboy spielwiese. Ihr redet hier die letzten seiten über alles, aber nicht konkret über cayman - gibt ja auch aktuell keine konkreten infos.

Mir ist das letztlich übrigends wirklich egal, ich meinte das schon ganz ehrlich - ist halt "business as usual" hier. Wenn eine neue hardware releast wird, bringen sich rote und grüne in stellung. ;)

LovesuckZ
2010-11-12, 01:38:03
Weil das hier ein informationsthread sein sollte, der sich ganz spezifisch um cayman kümmert. Stattdessen wirkt es wie eine fanboy spielwiese. Ihr redet hier die letzten seiten über alles, aber nicht konkret über cayman - gibt ja auch aktuell keine konkreten infos.

Mir ist das letztlich übrigends wirklich egal, ich meinte das schon ganz ehrlich - ist halt "business as usual" hier. Wenn eine neue hardware releast wird, bringen sich rote und grüne in stellung. ;)

Das ist kein Informationsthread. Das ist ein Spekulationsthread im Diskussionsbereich. Wie gesagt: Wenn du nur Informationen haben willst, frage nach, ob es nicht die Möglichkeit gibt einen reinen Informationsthread als Sticky einzurichten. Ansonsten könnte man das Spekulationsforum auch gleich dichtmachen. Ist ja sowieso sinnlos über die neuen Chips zu spekulieren, weil 90% von dem nicht stimmt.

Screemer
2010-11-12, 01:38:45
Weil das hier ein informationsthread sein sollte, der sich ganz spezifisch um cayman kümmert.
genau darum geht es. um spekulationen zum cayman und nicht um stockrates, sweetspot, quarterlyresults oder cashflow der einen oder anderen firma. das ist für das thema völlig irrelevant. dir scheint das aber nicht einzugehen.

Ansonsten könnte man das Spekulationsforum auch gleich dichtmachen. Ist ja sowieso sinnlos über die neuen Chips zu spekulieren, weil 90% von dem nicht stimmt.
es wird hier aber seitenweise eben nicht über das angesprochene thema spekuliert. das sogar du nennst: Chips. damit sind nicht die essbaren gemeint.

aylano
2010-11-12, 02:21:46
Ach so, merkt man gar nicht. Schon komisch, dass dann so eine Karte, die ja eigentlich nichtmal 20% schneller ist (http://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-580) (theoretisch ohne die Tweaks), dann auf einmal 30% schneller ist (http://www.bit-tech.net/hardware/graphics/2010/11/09/nvidia-geforce-gtx-580-review/9). Aber stimmt, merkt man nicht ;)

GTX580 ist genau in Sachen Performnace gesteigen, wie es mit Shaderanzahl & Takt im Schnitt zu erwarten war.

Schön, dass es in einem Spiel etwas mehr Performance gab. Da kann man hoffen, dass da nicht der Treiber verbessert wurde.


Insgesamt kürzer als es ATI geschafft hat, ein wirkliches DX11-Pendant herauszubringen. Und ein B-Stepping wäre auch nicht deutlich schneller gewesen. ATI hat gute 9 Monate gebraucht für RV770->RV790 und die Änderungen waren geringer als zwischen GF100 und 110.

Es ist einfach lächerlich, dass du dir GF110 mit RV770-->RV790 schönredest.
RV790 ist laut Ail nur wegen den 40nm-Problemen (=Verspätungen) gekommen und man hat den RV770 mit Entstörungstransistoren nochmal mit höheren Takten aufgepimmt. Kein Mensch hat es interessiert und dementsprechend aufgeregt, ob der jetzt RV790 oder RV770B genannt wurde.
Ersteres hatte halt zu folge, dass manche größere Verbessungen für möglich hielten bzw. lenkte davon ab, dass es "nur" ein gepimmter RV770 ist.

Übrigens, RV790 wurde dann noch mit der aktuellen Architektur benannt und nicht als 5870.

Außerdem schrieb ich nicht, dass ein GF100B-Stepping schneller wäre, sondern, dass ein GF100B kaum weniger Langsamer wäre als der GF110;)
Damit meine ich, nicht nur im Cherry-Picking sondern im Schnitt aller (getesteten) Games.

Na dann zitier doch mal, wo ich behauptet habe, dass ATI bei Cayman dieselben Architekturfehler wie beim R600 machen wird.
Gerne
Ich

Ich bezweifel, dass AMD in ihren zukünftigen GPUs an früheren schlechten Zeiten orientiert bzw. auf damals schlechten Produkten aufbaut.
Du
Auf R600 haben sie auch aufgebaut.

Also, beim RV970 will man eben nicht auf die Schächen des R600 aufbauen. Sondern auf die Stärken des RV770 bzw. RV870.

Man baut nur auf guten Produkte auf. Schlechte Produkte versucht man so schnell wie möglich zu korriegieren und muss eine Zeit lang damit Leben;)

Definiere "deutlich".
Das du dir selber nichts erdenken kannst ist krampfhaft.
Überleg mal, wie lange ein Respinn dauert oder soll ich dir das jetzt auch noch sagen.
Wie glaubst du, wie das gelöst werden soll, wenn es Architektur-Probleme geben soll.


Ist die Frage durch welche Brille man das ganze sieht. Mit einer tiefroten sicherlich, wenn man sich die Fakten anschaut sieht das ganze anders aus.
Schon schwer zu verstehen, dass RV8x0 eine DX11-Karte ist.


Beantworte doch einfach mein Frage. Du schriebst:
"Welche Schuld hatte den sonst GF110 gehabt?"
WORAN soll den GF110 denn nun schuld gehabt haben?
Ich meinte die GF100.

Es war ja sowieso witzige, wie du die R600-Architektur-Probleme mit (den Fertigungsproblemen?) des GF100 verglichen hast.

Gipsel
2010-11-12, 03:10:04
Na dann fang schonmal an:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/november/radeon-hd-5550-in-radeon-hd-6390-umbenannt/
Sehe ich das richtig, daß Geeks3D ein Argument daraus baut, daß ihr eigenes Tool (GPUCapsViewer) in der neuesten Version, mit einem Mal für ein und die gleiche Grafikkarte (eine HD5550), eine andere Bezeichnung anzeigt? Die haben doch einfach für die neue Version die Liste mit den DeviceIDs geändert, angezeigt wird das, was da drin steht.

Da bastel ich mir doch auch gleich mal ein Tool, was für nvidia-Grafikkarten mit einem mal "Intel Geforce" anzeigt und behaupte, das beweise die baldige Fusion von intel mit nv. ;D

Mag ja sein, daß da wirklich was umbenannt werden soll, aber die Begründung mit dem Screenshot ist schon ziemlich daneben.

Bucklew
2010-11-12, 03:21:04
GTX580 ist genau in Sachen Performnace gesteigen, wie es mit Shaderanzahl & Takt im Schnitt zu erwarten war.

Schön, dass es in einem Spiel etwas mehr Performance gab. Da kann man hoffen, dass da nicht der Treiber verbessert wurde.
Erwischt :)

Ersteres hatte halt zu folge, dass manche größere Verbessungen für möglich hielten bzw. lenkte davon ab, dass es "nur" ein gepimmter RV770 ist.
Eben.

Übrigens, RV790 wurde dann noch mit der aktuellen Architektur benannt und nicht als 5870.
Das ist richtig, allerdings war die 5000er Reihe als Gesamtes auch deutlich weiter weg (zeitlich) als das es die 500er Reihe jetzt ist ;)

Außerdem schrieb ich nicht, dass ein GF100B-Stepping schneller wäre, sondern, dass ein GF100B kaum weniger Langsamer wäre als der GF110;)
Aber eben langsamer. Ob das nun ein "B" oder einen neuen Codenamen rechtfertigt, darüber kann man herzlich diskutieren.

Gerne
Ich

Ich bezweifel, dass AMD in ihren zukünftigen GPUs an früheren schlechten Zeiten orientiert bzw. auf damals schlechten Produkten aufbaut.
Du
Auf R600 haben sie auch aufgebaut.

Also, beim RV970 will man eben nicht auf die Schächen des R600 aufbauen. Sondern auf die Stärken des RV770 bzw. RV870.
Das fett gedruckte ist interessant. Denn sie haben ja genau auf schlechten Produkten aufgebaut. Eben R600. Das sie natürlich nicht die Schwächen intensiviert und die Stärken minimiert haben sondern andersherum sollte jawohl klar sein :rolleyes:

Man baut nur auf guten Produkte auf. Schlechte Produkte versucht man so schnell wie möglich zu korriegieren und muss eine Zeit lang damit Leben;)
Demzufolge hätte man dann ja alles, was auf R600 einstampfen müssen und von vorne anfangen müssen. Das das Quatsch ist, wissen wir wohl beide.

Das du dir selber nichts erdenken kannst ist krampfhaft.
Überleg mal, wie lange ein Respinn dauert oder soll ich dir das jetzt auch noch sagen.
Wie glaubst du, wie das gelöst werden soll, wenn es Architektur-Probleme geben soll.
Warum sollte ich mir irgendwas ausdenken? Sag mir doch einfach klar, was du für eine "deutliche" Verspätung hälst. Das sollte doch kein Problem sein.

Schon schwer zu verstehen, dass RV8x0 eine DX11-Karte ist.
Eigentlich ist es ein DX10-Chip, an dem die DX11-Features nachträglich hinzugefügt wurden. Das ist was anderes.

Ich meinte die GF100.
Dann schreib das doch einfach :rolleyes:

Es war ja sowieso witzige, wie du die R600-Architektur-Probleme mit (den Fertigungsproblemen?) des GF100 verglichen hast.
Aha, jetzt habe ich also die R600 Architekturprobleme schon mit den Fertigungsproblemen des GF100 verglichen, interessant. Machst du das immer, das du dir irgendwelche Lügen über die Aussagen anderer ausdenkst um besser da zu stehen oder kannst du einfach nicht besser lesen?

Sehe ich das richtig, daß Geeks3D ein Argument daraus baut, daß ihr eigenes Tool (GPUCapsViewer) in der neuesten Version, mit einem Mal für ein und die gleiche Grafikkarte (eine HD5550), eine andere Bezeichnung anzeigt? Die haben doch einfach für die neue Version die Liste mit den DeviceIDs geändert, angezeigt wird das, was da drin steht.
Ich wage mal zu behaupten, dass dieses GPUCapsViewer einfach nur den aus dem Treiber-Inf übernommenen Devicestring übernimmt und nicht eine extra PCI-ID Datenbank mit sich herumschleppt. Wäre irgendwie bisschen arg unsinnig, oder?

Gipsel
2010-11-12, 03:28:00
Gemäss alter ATI-Definition hat eine 900er Serie Karte eine DIE-Grösse von mindestens 400 mm2.Hmm, man kan die Grenze auch bei 350mm² setzen, da Cypress die bisher größte x800er-GPU war.
Wieso 360 ODER 430 mm2? und nicht 400mm2?Zwei mehr oder weniger zufällig ausgewählte zahlen, die gerade modern sind.
SIMD-Engines: Wieso 2x12 ODER 3x10 und nicht 2x14 oder 3x9 für XT?Um näher an den Gerüchten zu bleiben, die momentan 24 oder 30 SIMDs sagen. 2x15 SIMDs habe ich aber vergessen. Obwohl 2x14, also 448 SIMD-Einheiten/1792 SPs irgendwie auch lustig wären. 4x7 oder gar 4x8 sieht ein wenig doll nach Overkill aus und wäre an einem 256Bit Speichercontroller mit 32 ROPs wohl auch ein wenig limitiert.
Wenn ich die 3D-Center Artikel anschaue, dann wurde bei Barts immer von 960 ODER 1280 geredet, aber nie von 1120.

Wieso kam Barts als 1120er raus?Vielleicht dachte AMD ja, man muß noch nicht alles aktivieren und stellt die 1280 SP-Version später gegen die GTX560? Könnte genau so ein Mythos werden wie die volle GF104, außer das die GF104 wirklich 384 SPs in Hardware verbaut hat :rolleyes:
Welche Gerüchte/Fakten/Argumente sprechen für 3 Engines und welche für 2 Engines? Müsste es im Fall von 3-Engines nicht 50% mehr ROPs haben?Für 3 Engines spricht das Gerücht der 1920 SPs, was bei der bisherigen maximalen Enginegröße von 10 SIMDs sehr gut zu 3x10 zusammenpaßt. Auch das Gerücht der Pro-Variante mit 24 SIMDs (3x8) paßt eventuell dazu, wenn sich wirklich jeweils 2 SIMDs die TMUs teilen. Dann müßten nämlich immer zwei SIMDs zusammen deaktiviert werden.
Und die ROPs sitzen bei AMD außerhalb der Graphics Engines (würden am ehesten nvidias GPCs entsprechen), die Anzahlen sind also unabhängig, wenn die ROPS nicht mit da hinein wandern (halte ich für unwahrscheinlich, da daß auch ein paar Nachteile bringt).

Gipsel
2010-11-12, 03:33:49
Ich wage mal zu behaupten, dass dieses GPUCapsViewer einfach nur den aus dem Treiber-Inf übernommenen Devicestring übernimmt und nicht eine extra PCI-ID Datenbank mit sich herumschleppt. Wäre irgendwie bisschen arg unsinnig, oder?
Wage mal nicht zu viel! Genau so machen das die meisten. Was glaubst Du, warum solche Tools dafür immer wieder Updates brauchen? ;)

Hast Du übrigens den Screenshot gesehen? Da wurden auf dem gleichen System mit einer HD5550 gleichzeitig alte und neue Version des Tools gestartet und die neue Version zeigt einfach einen falschen Namen an (im System steckt definitiv eine Sapphire HD5550, das sagt der Aufkleber auf der Karte und übrigens auch Furmark).

horn 12
2010-11-12, 07:36:22
Jawohl:eek::wink::eek:


Da kommt was GEWALTIGES von AMD daher
ca. HD6870 CF soll die HDS6970 erreichen und somit die GTX schlagen.:cool:

Seht:
http://www.kitguru.net/components/graphic-cards/zardon/amd-hd6970-update-and-performance-indicators/

boxleitnerb
2010-11-12, 07:43:25
Mann, Horn, liest du überhaupt den Kram, den du verlinkst???

Just to clarify for our readers: The HD6970 is not aimed at the GTX580 price point and therefore will not perform to the same levels. We are fairly certain that it will be a stunning value for money solution however.

Gutes P/L klingt nicht gerade nach Enthusiastsegment. Natürlich könnte es auch heißen, dass Cayman schneller als die 580 aber deutlich billiger ist. Nur wie wahrscheinlich ist das?

mboeller
2010-11-12, 07:44:13
Ja! Dies sollte das Thema sein.

Gemäss alter ATI-Definition hat eine 900er Serie Karte eine DIE-Grösse von mindestens 400 mm2.

Wieso 360 ODER 430 mm2? und nicht 400mm2?



Neliz scheint der Meinung zu sein, das Cayman >430mm² wird.



Wieso kam Barts als 1120er raus? Wenn der 32nm-Prozess nicht gecancelt worden wäre, hätte man auf der gleichen Fläche (der 700er Serie) 1.4x mehr Stream-Processors unterbringen können.


IMHO ähnliche Strategie wie bei Nvidia. 2 SIMD-Einheiten sind sehr wahrscheinlich deaktiviert. Ein vollwertiger Barts wäre also, je nach Takt nochmals um 8 - 15% schneller, da laut AMD die ROPs bei weitem nicht ausgelastet sind.



Welche Gerüchte/Fakten/Argumente sprechen für 3 Engines und welche für 2 Engines? Müsste es im Fall von 3-Engines nicht 50% mehr ROPs haben?


Das Gerücht mit den 3 Einheiten ist alt. Gab es schon zu Zeiten der HD5870 (Aug./Sept. 2009).

mboeller
2010-11-12, 08:00:08
Mag ja sein, daß da wirklich was umbenannt werden soll, aber die Begründung mit dem Screenshot ist schon ziemlich daneben.


das mit dem umbenennen stimmt aber IMHO leider:

http://www.semiaccurate.com/2010/11/09/amd-talks-new-mobile-parts/

Es soll 6 neue Notebook GPUs geben, aber nur 3 davon sind "second generation" (rot hinterlegt); 3 weitere sind gelb hinterlegt und wahrscheinlich nur umbenannte mHD5xxxx. Das einzige neue Features dieser Karten (nur Robson) scheint das "Dynamic SG" (was auch immer das ist) zu sein; und das kann eine einfache Treibersache sein.

Gluckstaler
2010-11-12, 08:31:16
Für 3 Engines spricht das Gerücht der 1920 SPs, was bei der bisherigen maximalen Enginegröße von 10 SIMDs sehr gut zu 3x10 zusammenpaßt. Auch das Gerücht der Pro-Variante mit 24 SIMDs (3x8) paßt eventuell dazu, wenn sich wirklich jeweils 2 SIMDs die TMUs teilen. Dann müßten nämlich immer zwei SIMDs zusammen deaktiviert werden.
Und die ROPs sitzen bei AMD außerhalb der Graphics Engines (würden am ehesten nvidias GPCs entsprechen), die Anzahlen sind also unabhängig, wenn die ROPS nicht mit da hinein wandern (halte ich für unwahrscheinlich, da daß auch ein paar Nachteile bringt).

Falls sich zwei SIMDs eine TMU teilen, spricht das dann nicht klar gegen drei Engines, sondern für zwei?

Und widersprichst du dir nicht selbst wenn du einerseits sagst die maximale Engine-Grösse sei 10 SIMDs aber dann doch Varianten mit mir SIMDs in den Raum stellst?

:biggrin: Okay, okay, ich habe schon lange nicht mehr so gut gelacht (und nicht über dich), ich hab's Gefühl, dass AMD keinen 430 mm2 grossen Chip rausbringen wird (und deshalb bin ich ja enttäuscht), ein 1920 SP 4-D-Chip müsste jedoch eine solche Grösse haben.

Für Theorie A (430 mm2) spricht die TDP-Spezifikation gemäss AMD-Folie am Thread-Anfang.

Für Theorie B (360 mm2) spricht das Argument, dass Cayman konsistent in allen Folien unter dem 5970er platziert wird. Es ist für mich schwer vorzustellen, dass Cayman eine TDP gemäss Theorie A hat, weil man sonst keine 2-Chip-Karte Antilles mit 300 W bauen könnte.

Es ist vollkommen unlogisch anzunehmen, dass der Unterschied zwischen Pro und XT 6!!!-SIMD-Einheiten beträgt (20% Verlust). Das ist ökonomischer Wahnsinn und würde jedem Chip-Designer vom CFO verboten :wink:.

1536 SP für die XT ist PR-technischer Schwachsinn weil die 5870er 1600 SP hat und Leute erwarten, dass die SP-Zahl nach oben und nicht nach unten geht. IMHO ist 1536 eine Zahl, die für die Pro-Variante Sinn macht.

Die XT-Variante hätte dann 2-3 SIMDs mehr. Die SP-Zahl wäre dann bei 1664 oder 1728.

Um nochmals alle Fakten und Spekulationen zusammenzufassen, die meisten Gerüchte weisen in Richtung Theorie B, ausser der Fakt dass AMD für Cayman eine höhere TDP spezifiziert hat, weiss da einer mehr?

Hugo
2010-11-12, 08:49:51
ich weiß nicht ob's schon gepostet wurde, die letzten Seiten sind ja eher weniger zum Thema da hab ich den Überblick verloren.

verschoben auf Mitte Dezember
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16985-offiziell-amd-radeon-hd-6900-serie-erst-mitte-dezember.html

AnarchX
2010-11-12, 09:01:56
Da ist Cayman wohl auch "unmanufacturable". In Asien spekuliert (http://we.pcinlife.com/thread-1551445-1-1.html)man schon, dass Cayman XT aus Yield-Gründen auch deaktivierte Cluster hat. ;D

Dural
2010-11-12, 09:08:11
habs schon mal gesagt, aber es war wirklich sonnenklar so wie charlie auf die GTX580 reagiert hat, das mit cayman etwas nicht OK ist ;) und schon einen tag nach der GTX580 kommt schon die offiziele verschiebung ;D

charlie könnte wenigstens immer noch "powered by AMD" hinschreiben, dann wärs wenigstens nicht so verlogen ;)


die zweite 400mm2 DIE und es fängt schon wider an....

ich wette das wir nächstes jahr von der AMD marketing abteilung hören werden wie toll doch so kleine DIEs sind, wir machen nur noch solche ;D

_flx
2010-11-12, 09:12:10
Ich wollte mit meiner Anspielung auf R600 eigentlich nur einige Leute wieder zurück auf den Teppich holen....

Hoffentlich hatte ich damit nicht recht :usad:

Dural
2010-11-12, 09:14:48
denke nicht das es so schlimm kommt wie mit R600...


am ende werden wir eine 6970 sehen mit etwas weniger verbrauch als eine GTX580 und etwas weniger leistung als diese...

viele vergessen halt auch immer wider das cayman eigentlich für 32nm vorgesehen war und man recht kurzfristig auf 40nm gewechselt hat, das kann ganz schlimm nach hinten los gehen...


AMD wird jetzt versuchen ihr Produkt so gut wie möglich auf den GF110 in sachen Leistung/Takt/Verbrauch/Preis abzustimmen! das ist natürlich ein gewaltiger vorteil für AMD, kostet aber halt auch etwas zeit :)

Aber ich bin sicher das sie einen guten platz finden werden :)

Botcruscher
2010-11-12, 09:35:45
AMD stimmt gar nichts ab. Dafür ist es lange zu spät. Maximal geht es da noch um 25 bis 50MHz. Das ist eine Entscheidung von Stunden.

Dural
2010-11-12, 09:40:36
naja +/- 50MHz sind schon einiges zudem kann man natürlich noch die einheiten runterfahren wenn es sein müsste um so die Herstellungskosten zu senken, je nach Yield kann das schon einiges bringen...

Das alles geht jetzt noch wunderbar, AMD hat sich eh noch nicht festgeleht

Gestrandet
2010-11-12, 10:01:56
Ist doch offensichtlich, dass es ein Softwareproblem gibt, BIOS oder Treiber. Hardware würde eine viel längere Verzögerung bedeuten. Aber wenigsten muss man dank Gipsel keine Sorge haben, dass vergessen wurde, das Treiberteam von 4D zu unterrichten (AMD würde ich so einen Lapsus durchaus zutrauen :D).
Damit fügt sich 69xx immerhin harmonisch in den restlichen 6k-Launch ein. Ich sehe mich in meiner Annahme bestätigt, dass längst nicht alle ATIaner glücklich sind über das Ende "ihrer" Marke und dass auf "ihren" Karten demnächst ein grüner Aufkleber pappt. Sowas muss ja Identitätkrisen und -konflikte auslösen, wie soll man da noch normal seine Arbeit machen ...

edit: Vielleicht sahen sie sich angesichts des massiven Drucks von PCGH et.al auch kurzfristig gezwungen, die ARNU per Lasercut zu deaktivieren (Add Random Noise Unit, sorgt für ein realistischeres, life-likeres Bild, ähnlich den verwackelten Handkamerabildern bei allen wirklich großen Filmen. Leider wissen nur echte Gourmets sowas zu schätzen, die breite Masse der Banausen bevorzugt rauschfreie Plastikbilder, die es an Sterilität mit jedem Operationssaal aufnehmen können :( )

deekey777
2010-11-12, 10:17:51
Bzgl. Bucklew: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8355724#post8355724

Ihr seht doch, dass ihn nichts interessiert, was ihm nicht passt.

Bzgl. Umbennenung: http://www.cnews.ru/news/top/index.shtml?2010/10/21/413140
http://translate.google.de/translate?js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&sl=ru&tl=en&u=http%3A%2F%2Fwww.cnews.ru%2Fnews%2Ftop%2Findex.shtml%3F2010%2F10%2F21%2F413140

Falls sich zwei SIMDs eine TMU teilen, spricht das dann nicht klar gegen drei Engines, sondern für zwei?
Nein?
In einer Engine sind 10 SIMDs und zehn lässt sich prima durch zwei teilen.

Und widersprichst du dir nicht selbst wenn du einerseits sagst die maximale Engine-Grösse sei 10 SIMDs aber dann doch Varianten mit mir SIMDs in den Raum stellst?
Was verstehst du eigentlich unter einem SIMD?

mironicus
2010-11-12, 10:24:53
Was wäre, wenn es sich bei Cayman einfach nur um einen vergrößerten Barts handeln würde? Also z.B. mit 1920SPs - wie groß wäre der theoretisch und wie schnell?

Eggcake
2010-11-12, 10:28:19
zudem kann man natürlich noch die einheiten runterfahren wenn es sein müsste um so die Herstellungskosten zu senken, je nach Yield kann das schon einiges bringen...


Dsa glaube ich nicht. Für das ist es doch viel zu spät. Taktschraube, ja, aber physisch noch was am Chip herumwursteln wohl kaum - dafür reicht doch ein knapper Monat niemals.

mironicus
2010-11-12, 10:36:08
Das Verwirrspiel geht weiter:

6950 1536 sp
6970 1792 sp

Ups: Wurde ja schon über mir gepostet. :D

Bucklew
2010-11-12, 10:42:56
Bzgl. Bucklew: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8355724#post8355724

Ihr seht doch, dass ihn nichts interessiert, was ihm nicht passt.
Warum sollte ich auf irgendwelche Behauptungen ohne Beleg eingehen?

deekey777
2010-11-12, 10:45:16
Warum sollte ich auf irgendwelche Behauptungen ohne Beleg eingehen?
;D

Der ultimative Beweis, dass eine Diskussion mit dir so sinnlos ist.

Bucklew
2010-11-12, 10:50:30
;D

Der ultimative Beweis, dass eine Diskussion mit dir so sinnlos ist.
Jopp, wenn man einfach was behauptet ohne es ansatzweise nachweisen zu können, hast du absolut Recht.

Irgendwelche feuchten Träume kannst du mit anderen ausleben ;)

S940
2010-11-12, 11:31:16
Jopp, wenn man einfach was behauptet ohne es ansatzweise nachweisen zu können, hast du absolut Recht.
Du weisst schon, dass wir hier im Speku Forum sind ? Da gibts *nie* Belege. Wenn Dir das so wichtig wäre, dann wäre es nur folgerichtig, wenn Du dem Forum hier fernbleiben würdest ;-)
WENN ...

Da ist Cayman wohl auch "unmanufacturable". In Asien spekuliert man schon, dass Cayman XT aus Yield-Gründen auch deaktivierte Cluster hat. Interessant ... hat AMD diesmal was übersehen, was nVidia richtig gemacht hat ? Der Prozess ansich sollte ja jetzt "Ok" sein, wenn nVidia nen vollen Chip liefern kann.

Es sei denn Cayman wäre größer als ein GF1x0 :freak:

deekey777
2010-11-12, 11:44:23
Du weisst schon, dass wir hier im Speku Forum sind ? Da gibts *nie* Belege. Wenn Dir das so wichtig wäre, dann wäre es nur folgerichtig, wenn Du dem Forum hier fernbleiben würdest ;-)
...:
Moment: Das, was ich in die Diskussion brachte, ist aus dem Technologieforum Bucklew bestreitet eine Tatsache und meint, ich muss ihm Belege liefern, um seine Behauptung zu widerlegen.

davidzo
2010-11-12, 11:44:56
edit: Vielleicht sahen sie sich angesichts des massiven Drucks von PCGH et.al auch kurzfristig gezwungen, die ARNU per Lasercut zu deaktivieren (Add Random Noise Unit, sorgt für ein realistischeres, life-likeres Bild, ähnlich den verwackelten Handkamerabildern bei allen wirklich großen Filmen. Leider wissen nur echte Gourmets sowas zu schätzen, die breite Masse der Banausen bevorzugt rauschfreie Plastikbilder, die es an Sterilität mit jedem Operationssaal aufnehmen können :( )

Ne, ich glaube eher dass es probleme beim UPAI (Universal Propability Axis Interpolator) und dem PB (Picture Predictor) gibt, der die gerade nicht voll ausgelasteten Alus schonmal mit Bildern auslastet, die entlang der Wahrscheinlichkeitsachse liegen und also eventuell noch kommen könnten.

ShadowXX
2010-11-12, 11:57:10
Dsa glaube ich nicht. Für das ist es doch viel zu spät. Taktschraube, ja, aber physisch noch was am Chip herumwursteln wohl kaum - dafür reicht doch ein knapper Monat niemals.
Es ist relativ einfach bei den Chips Einheiten/Blöcke zu deaktivieren, das kann man auch noch im letzten Monat machen wenn man bemerkt das es mit allen Einheiten an Board nicht gut geht.
Und das meinte er wohl mit "Einheiten runterfahren".

Dural
2010-11-12, 12:03:08
Dsa glaube ich nicht. Für das ist es doch viel zu spät. Taktschraube, ja, aber physisch noch was am Chip herumwursteln wohl kaum - dafür reicht doch ein knapper Monat niemals.

das kann AMD locker über das Bios tätigen, ob die per laser wirklich getrennt sind oder nicht spielt da keine rolle.

es gab in der vergangenheit immer wider Karten die real mehr einheiten zur verfügung hatten als eben aktive.

LovesuckZ
2010-11-12, 12:11:52
Solange wie man nicht weiß, ob AMD schon in Produktion ist, können sie noch so einiges machen. Man verschiebt keinen Launch um 3 Wochen innerhalb von 48h, wenn man schon genug Presse-Samples hätte. Imo gibt es noch keine fertigen Karten - vielleicht auch nur Cayman Pro.

BlackBirdSR
2010-11-12, 12:25:51
das kann AMD locker über das Bios tätigen, ob die per laser wirklich getrennt sind oder nicht spielt da keine rolle.




Ja bitte nicht! Die sollen das Bios sein lassen, sonst haben wir wieder schnellere Karten im Review, als dann wirklich ausgeliefert werden oder anders herum.

IMO schon verdächtig, dass AMD nach dem GTX580 Launch keine Spoiler frei gibt....

Dural
2010-11-12, 12:31:25
hat jetzt zwar nicht direkt was mit dem thema zu tun, aber die ersten GF110 sind älter als die Barts GPUs, viel mir gestern beim blick auf meine GPUs auf!

GF110 ist somit eigentlich schon recht lange in der Produktion, AMD müsste früh genug davon was erfahren haben.

dildo4u
2010-11-12, 12:34:49
AMD hat das Problem das sie 2GB des schnellste und teuersten GDDR5 verbauen um auf Bandbreite zu kommen,nur wenn die Performance nicht stimmt müssen sie bei 350€ einsteigen,was zum Problem wird bzw da ist die Gewinnspanne nicht mehr so dolle.

LovesuckZ
2010-11-12, 12:35:42
GF110 ist somit eigentlich schon recht lange in der Produktion, AMD müsste früh genug davon was erfahren haben.

Keine Chance. Niemand wusste von GF110. Es gab bis vor 3-4 Wochen keine wirklich brauchbaren Gerüchte.
Nur weil beide bei TSMC fertigen, bekommen sie jedoch nicht alles mit. ;)

BlackBirdSR
2010-11-12, 12:39:04
Also bei einem Kundenaudit wird eigentlich immer darauf geachtet, dass man keinerlei Konkurrenzprodukte zu Gesicht bekommt. Der Kunde nimmt dahingehend aber meist auch Rücksicht.. denn nicht jedes Audit und jede Stelle im Reinraum kann vorbereitet sein. Muss halt mal kurz gewartet werden, bis der andere Wafer/Los us der Anlage ausgeworfen wurde.

Bei GF sieht das IMO etwas anders aus. Da hat man ja teilweise Freunde und Bekannte in 2 Unternehmen getrennt, die treffen sich Abends immernoch auf ein Bier. Da kann schneller was durchsickern.

fondness
2010-11-12, 12:43:22
Solange wie man nicht weiß, ob AMD schon in Produktion ist, können sie noch so einiges machen. Man verschiebt keinen Launch um 3 Wochen innerhalb von 48h, wenn man schon genug Presse-Samples hätte. Imo gibt es noch keine fertigen Karten - vielleicht auch nur Cayman Pro.

Das ergibt absolut keinen Sinn. Wenn man jetzt noch nicht in Produktion wäre gibt es definitiv keine Karten vor Februar.

Viel sinniger ist der Umkehrschluss: Man verschiebt keinen Launch um drei Wochen wenn man Probleme mit dem Chip hat, denn dann benötigt man ein neues Tapeout und das dauert mindestens ein Quartal. Also bleiben nur kleinere Dinge wie Probleme bei Zulieferern, z.B. könnte der 6Gbps 2048Mbit GDDR5 Speicher noch sehr knapp sein, oder auch der von VR-Zone ins Spiel gebrachte Spannungswandler ist nicht weniger unwahrscheinlich. Vielleicht liefert auch TSMC mal wieder zu wenige Chips und man wartet einfach noch bis man eine ausreichende Menge zusammen hat.

Dural
2010-11-12, 12:44:23
es wurden aber alle Cayman von 6950 über 6970 bis hin zu 6990 verschoben, da dürfte die verzögerung schon was mit der GPU zu tun haben... das ist nämlich das wohl einzigste was alle drei karten gemeinsam haben!




naja das problem ist wohl das man GF100 und GF110 so einfach gar nicht unterscheiden kann ;) optisch ist es die selbe GPU.

keine ahnung was da durchsickert, fand es einfach interessant das man von GF110 rein gar nichts gehört hat, aber offensichtlich schon recht "lange" in produktion ist.

fondness
2010-11-12, 12:47:17
Keine Chance. Niemand wusste von GF110. Es gab bis vor 3-4 Wochen keine wirklich brauchbaren Gerüchte.
Nur weil beide bei TSMC fertigen, bekommen sie jedoch nicht alles mit. ;)

Nachdem sie von GF100 und dessen Problemen schon sehr früh wussten sehe ich keinen Grund warum es bei GF110 anders gewesen sein sollte. Warum sollte AMD auch etwas leaken wenn GF110 problemlos läuft? Das macht ja auch nur Sinn wenn es Probleme gibt.

fondness
2010-11-12, 12:49:43
es wurden aber alle Cayman von 6950 über 6970 bis hin zu 6990 verschoben, da dürfte die verzögerung schon was mit der GPU zu tun haben... das ist nämlich das wohl einzigste was alle drei karten gemeinsam haben!


Wie schon gesagt, in drei Wochen kannst du nichts am Chip ändern. -> Fakt.
Das es alle drei Karten betrifft bedeutet nur das es sich um ein Bauteil handelt das auf allen dreien verbaut wird. Und hier bietet sich eben Lieferschwierigkeiten bei Speicher, Spannungswandler oder eben Chip an.

Dural
2010-11-12, 12:52:50
es geht ja auch nicht um chip interne änderungen, das sagt kein mensch!

aber man kann etwas "optimieren" und zb. die produkte neu einordnen und man hat drei wochen mehr zeit für die produktion falls die nicht so rund läuft usw.

und wenn man was wie oben erwähnt ändert braucht man dazu neue tests und neue unterlagen usw. da macht man sicher nicht innert "stunden"

wir wissen ja nicht genau wo das problem liegt nur das es ein problem gibt! sonst gäbe es keine verzögerung ;)


und mit diesen "änderungen" (falls es überhaupt welche gibt) hat AMD ja nicht erst seit gestern angefangen, obwohl es erst seit gestern offiziel bekannt wurde, das sollte ja klar sein! es kann gut sein das AMD den "neuen" weg schon vor einem monat eingeschlagen hat...

DrumDub
2010-11-12, 13:01:45
ich versteh die ganze aufregung nicht. der link wurde hier doch schon gepostet: AMD Radeon HD 6970 delay due to component shortage, launch date to be re-confirmed (http://vr-zone.com/articles/amd-radeon-hd-6970-delay-due-to-component-shortage-launch-date-to-be-re-confirmed/10276.html)

fondness
2010-11-12, 13:04:06
ich versteh die ganze aufregung nicht. der link wurde hier doch schon gepostet: AMD Radeon HD 6970 delay due to component shortage, launch date to be re-confirmed (http://vr-zone.com/articles/amd-radeon-hd-6970-delay-due-to-component-shortage-launch-date-to-be-re-confirmed/10276.html)

Eben. Das ist auch so ziemlich das einzige was Sinn macht. Aber wie man sieht wollen das halt manche aus persönlichen Gründen nicht akzeptieren.

LovesuckZ
2010-11-12, 13:09:29
Natürlich. nVidia ist in der Lage massenweise GF104 Karten fertigen zu können und bringt einen Chip 5 Wochen früher in den Markt, von dem man vor kurzem noch nie was hörte. Aber AMD strauchelt an einer Komponente für die Platine bei zwei Kartenserien, die im Massen hergestellt wird und deren Knappheit man schon hätte längst korrigieren können durch ein anderes Produkt?
Vorallem: Wenn AMD nichtmal in der Lage ist 50 Presse-Samples herstellen zu können, muss die Knappheit wirklich sehr bedrohlich sein und das hätte man schon vor Wochen gewusst...

fondness
2010-11-12, 13:15:01
Natürlich. nVidia ist in der Lage massenweise GF104 Karten fertigen zu können und bringt einen Chip 5 Wochen früher in den Markt, von dem man vor kurzem noch nie was hörte. Aber AMD strauchelt an einer Komponente für die Platine bei zwei Kartenserien, die im Massen hergestellt wird und deren Knappheit man schon hätte längst korrigieren können durch ein anderes Produkt?

Viel Spaß dabei das habe Platinenlayout über den Haufen zu werfen und womöglich schon längst produzierte PCBs wegzuwerfen. Also ich würde da auch ein paar Wochen warten.


Vorallem: Wenn AMD nichtmal in der Lage ist 50 Presse-Samples herstellen zu können, muss die Knappheit wirklich sehr bedrohlich sein und das hätte man schon vor Wochen gewusst...

Das schließt du woraus? Man will offensichtlich einen Launch mit ausreichenden Stückzahlen im Handel.

davidzo
2010-11-12, 13:36:43
Viel Spaß dabei das habe Platinenlayout über den Haufen zu werfen und womöglich schon längst produzierte PCBs wegzuwerfen. Also ich würde da auch ein paar Wochen warten.

naja, nur weil eine komponente fehlt/fehlerhaft ist/nicht den erwartungen enspricht muss man meistens noch lange nicht das pcb wegschmeißen. zudem gibt es ja reperaturmöglichkeiten auch mittlerer pcbfehler die durchaus auch in kleinserie möglich wären, drahtbrücken und kabel etwa. durchaus nichts was man nicht schoneinmal in der vergangenheit bei einigen auslieferungskarten gesehen hätte (voodoo5?)


Möglicherweise ist der Ti Chip auch zu knapp ausgelegt, auf den niedrig taktenden camynakarten mit prelaunch BIOS und deaktivierten einheiten läuft alles prima und rein rechnerisch auch bei den lauchkarten. praktisch ist das bauteil aber vielleicht zu schwach und muss also durch belastbarere teile mit geringer toleranz ersetzt werden, die man eventuell durch selektion bei TI aus der serie abzweigt. sowas kann dauern.
Dafür sprächen die gerüchte dass der verbrauch bei cayman höher liegt als geplant und dass man über die taktschraube auf jeden fall die 580 überholen möchte.

igg
2010-11-12, 13:38:48
Das schließt du woraus? Man will offensichtlich einen Launch mit ausreichenden Stückzahlen im Handel.
Offensichtlich? Woraus schließt du das?

S940
2010-11-12, 13:40:06
Moment: Das, was ich in die Diskussion brachte, ist aus dem Technologieforum Bucklew bestreitet eine Tatsache und meint, ich muss ihm Belege liefern, um seine Behauptung zu widerlegen.Ah ok, ich gestehe, dass ich die ursprüngliche "Diskussion" erfolgreich ignorierte ^^

"Früher"? Ich errinnere mich jetzt nur an zwei Fälle, wo nVidia ein "b" an den Codenamen gesetzt hat: g92b und GT200b. Beides waren Shrinks auf 55nm ohne Verbesserungen an der Architektur. Jo eben, was wird dann bei GF110 verbessert ? Das ist nichtmal ein Shrink und anstatt "b" bekommt er gleich ne neue Nummer :freak:

Das sieht mal wieder nach Pionierarbeit an vorderster Front aus. Nachdem nvidia dem Markt schon durch das Umlabeln von Kartennamen revolutionierte, betritt man man nun durch das Umlabeln von Chipcodenamen wiederum absolutes Neuland. Respekt- das muss Ihnen erstmal jemand nachmachen.


Hä? Das macht null Sinn. AMD's Refresh war Cypress und ihre angeblich neue Architektur soll Cayman sein.
Aso ... na dann bin ich ja beruhigt, dann sind wir uns einig. War wohl verwirrt, weil irgendjemand da von einem "Refresh von Cypress" sprach. Da dachte ich, dass Cayman gemeint gewesen sei:
GF110 ist nur ein typischer Refresh. Und ironischerweise konnte nVidia diesen eher auf den Markt bringen als AMD ihren Refresh von Cypress.

"refresh" bedeutet "erneuern". GF110 ist ein erneuerter GF100. Also ein Refresh.Na da sind wir wieder bei obiger Frage. Ist er wirklich "neu", oder hat nV nur am Rad gedreht und die Nummern etwas erhöht? Was ist denn neu ? Ich würde sogar behaupten, dass die neuen Textureinheiten schon im ursprünglichen Design enthalten waren und nur aufgrund eines Bugs nicht im GF100 liefen ;-)

Da das aber wohl weder Du noch ich beweisen kann, müssen wir das offen lassen. Die beiden Behauptungen bleiben so stehen.

Bin ja mal gespannt ob wirklich ein GF114 kommt, wenn sie das machen und nichts Neues dabei ist, wirds wirklich lustig. Aber dafür gibts den GF Thread.
IMO schon verdächtig, dass AMD nach dem GTX580 Launch keine Spoiler frei gibt....
Jo, glaub ich auch, entweder einfach noch nicht fertig, oder irgehdwas im Busch.

fondness
2010-11-12, 13:44:36
Offensichtlich? Woraus schließt du das?


Willst du mich veräppeln? Aus der Verschiebung des Launches und aus der Meldung mit der Knappheit besagter TI-Bauteile. Das sollte eigentlich auf der Hand liegen. Das LovesuckZ hingegen einfach mal so behauptet man könne keine 50 Karte für einen Launch fertigen kann höchstens seinem Wunschdenken entspringen.

Dural
2010-11-12, 13:47:11
naja das mit den MosFet, wie soll ich sagen, hört sich ziemlich unglaubwürdig an... ;)

ist einfach eine ausrede... das dürfte die 6990 übrigens ja gar nicht betreffen, die wurde aber auch auf nächstes jahr verschoben ;)

LovesuckZ
2010-11-12, 13:47:36
Jo eben, was wird dann bei GF110 verbessert ? Das ist nichtmal ein Shrink und anstatt "b" bekommt er gleich ne neue Nummer :freak:

Merkst du eigentlich wie selten dämlich es ist über einen Codename zu reden?
Wieviel Hass muss man daher gegenüber einer Firma haben, wenn man schon die Bezeichnung ihrer Codenames kritisiert. :eek:

Willst du mich veräppeln? Aus der Verschiebung des Launches und aus der Meldung mit der Knappheit besagter TI-Bauteile. Das sollte eigentlich auf der Hand liegen. Das LovesuckZ hingegen einfach mal so behauptet man könne keine 50 Karte für einen Launch fertigen kann höchstens seinem Wunschdenken entspringen.

Laut Tridam von Hardware.fr hat AMD noch am 8. November behauptet, der Launch am 22. sei gesichert und man erhalte wie vereinbart in den nächsten Tagen die Presse-Samples. Zwei tage später gibt man gegenüber den Journalisten zu, dass der Launch um 3 Wochen verschoben wird. Es liegt nicht an der Knappheit irgendwelcher PCB Komponenten.

ShadowXX
2010-11-12, 13:55:10
Laut Tridam von Hardware.fr hat AMD noch am 8. November behauptet, der Launch am 22. sei gesichert und man erhalte wie vereinbart in den nächsten Tagen die Presse-Samples. Zwei tage später gibt man gegenüber den Journalisten zu, dass der Launch um 3 Wochen verschoben wird. Es liegt nicht an der Knappheit irgendwelcher PCB Komponenten.
Sehe ich ähnlich, denn genug von diesen DrMos-Dinger von TI für ein paar Pressekarten sollte durchaus vorhanden sind.

Da ist wohl tatsächlich was anderes im Busch und wenn es nur das ist, dass Sie den Cayman nicht so hoch getaktet bekommen wie Sie es ursprünglich geplant hatten und deshalb die Taktik und die PR ändern müssen.

Schlammsau
2010-11-12, 14:01:18
Ich glaube nicht, dass AMD so kurz vor dem geplanten Launch mal feststellt, dass die Karte Probleme macht. Da wird irgendwas anderes im Busch sein.

Herrlich diese Verschwörungstheorien hier. ;D

fondness
2010-11-12, 14:01:19
Sehe ich ähnlich, denn genug von diesen DrMos-Dinger von TI für ein paar Pressekarten sollte durchaus vorhanden sind.


Offensichtlich rede ich gegen eine Wand. Es geht nicht um ein paar Pressekarten, nur warum sollte man eine Launch veranstalten wenn man eh kaum Karten liefern könnte? Wenn man deshalb den Launch verschiebt gibt es natürlich auch keine Karten für die Presse.

fondness
2010-11-12, 14:03:37
Es liegt nicht an der Knappheit irgendwelcher PCB Komponenten.

Auch hier ist leider wieder mal nicht ersichtlich woraus du das schließt. :)
Gerade das der Launch so kurz vorher verschoben wird macht es doch sehr wahrscheinlich das es bei irgend einem Zulieferer zu wenig Stückzahlen gibt. Aber okay, das bringt hier eh nichts, ich bin raus.

Dural
2010-11-12, 14:04:50
wartet doch einfach ab.... ;)

Schlammsau
2010-11-12, 14:06:16
Auch hier ist leider wieder mal nicht ersichtlich woraus du das schließt. :)
Gerade das der Launch so kurz vorher verschoben wird macht es doch sehr wahrscheinlich das es bei irgend einem Zulieferer zu wenig Stückzahlen gibt. Aber okay, das bringt hier eh nichts, ich bin raus.

LZ will mit aller Gewalt seine vorgegebene Meinung durchdrücken. Sinnlos dagegegen anzukämpfen.

Machs wie ich, schreib 1 bis 2 Comments zu seinen Posts und lass ihn dann "verhungern". Irgendwann hört er dann mal von alleine auf, wenn keiner mehr auf seinen Mist reagiert.

Das wirkt!

ShadowXX
2010-11-12, 14:08:11
Offensichtlich rede ich gegen eine Wand. Es geht nicht um ein paar Pressekarten, nur warum sollte man eine Launch veranstalten wenn man eh kaum Karten liefern könnte? Wenn man deshalb den Launch verschiebt gibt es natürlich auch keine Karten für die Presse.
Warum sollte man nicht einen Paperlaunch machen, speziell wenn die direkte Konkurrenz einen Tag vorher gelauncht hat.
Das macht keinen Sinn.
Speziell da du mir nicht erzählen kannst das es so wenig von diese DrMos-Dingern gibt das man nicht mindestens 5000 Karten zum Launch zusammenbekommen würde (eher mehr).
Ich mein ATI hat vor über 3 Wochen noch gesagt das es keine Probs mit dem Launchtermin gibt und nun sollen eben diese 3 Wochen plötzlich ausreichen um aus keinen Karten 20000 verfügbare Karten zu machen....

Nebenbei hätte man den Pressleuten selbst bei der Verschiebung des Launches die Karte zukommen lassen können, damit Sie schon mal Ihre Test schreiben können...

igg
2010-11-12, 14:09:00
Ganz klar, AMD macht keinen Paperlaunch weil sie hard launchen wollen. Man denke nur an Cypress und Co zurück. JETZT haben sie allen Grund paper zu launchen, wenn sie der 580 was entgegenzusetzen haben.

sklave_gottes
2010-11-12, 14:51:59
Ok gehen wir mal kurz ein paar möglichkeiten durch:

1.Es fehlen irgendwelche Bauteile vom Zulieferer fürs PCB
Soll zwar so von AMD kommen ist aber meiner Meinung nach zur Kurzfristig b.z.w. auch auffäulig direkt nach dem GTX580 launch. Es sollte also eher damit zusammen hängen.

2.Man ist von der Neuen Kühllösung der GTX580 so überrascht und will jetzt noch schnell selber eine gute ref Kühlung presentieren. Da diese sehr gut bei den Test angekommen ist.
Ich finde das Passt sehr gut Zeitlich, weil direkt nach dem GTX580 launch.

3.Die Leistung der GTX580 ist niedriger als erwartet.
Niedriger hört sich nicht so plausibel an, weil man dann einfach schnell die eigenen Kartenpreise erhöhen würde. Anderseits will man vieleicht lieber die Margen erhöhen und Taktet niedriger/deaktiviert einheiten.

4.Die Leistung der GTX580 ist höher als erwartet.
Man ist mit der Aktuellen version der HD69xx reihe nicht schnell genug. Ergo mann muss auf Margen verzichten und Taktet die GPUs höher b.z.w. aktiviert mehr Einheiten(6950).

All diese Optionen sind kurzfristig möglich wobei ich selber auf 2 oder 4 Tippe. Auch eine Kombination aus 2 und 4 oder 2 und 3 ist möglich.

bin aufjedenfall gespannt wie die Karte am ende Vorgestellt wird.

mfg martin

SamLombardo
2010-11-12, 15:14:22
3.Die Leistung der GTX580 ist niedriger als erwartet.
Niedriger hört sich nicht so plausibel an, weil man dann einfach schnell die eigenen Kartenpreise erhöhen würde. Anderseits will man vieleicht lieber die Margen erhöhen und Taktet niedriger/deaktiviert einheiten.

4.Die Leistung der GTX580 ist höher als erwartet.
Man ist mit der Aktuellen version der HD69xx reihe nicht schnell genug. Ergo mann muss auf Margen verzichten und Taktet die GPUs höher b.z.w. aktiviert mehr Einheiten(6950).


mfg martin
Diese beiden Punkte kann ich mir eigentlich nicht so richtig vorstellen. Die 20 Prozent Mehrleistung von 580 zu 480 gingen schon seit Wochen als Gerücht um, eigentlch seit der Ankündigung der 580. Sooo überrascht kann AMD von der Leistung der GTX 580 also nicht gewesen sein egal ob nun im positiven oder negativem Sinn;)

aylano
2010-11-12, 15:17:41
Erwischt :)
Dachte ich mir, dass du den Schnitt nicht verstehst und dich mit Rosinen zufrieden gibts.

Tja, wenn man laufend nach Ausrutschern/Rosinen sucht, dann verliert man halt mal den Überblick.


Das ist richtig, allerdings war die 5000er Reihe als Gesamtes auch deutlich weiter weg (zeitlich) als das es die 500er Reihe jetzt ist ;)

Ist immer das selbe, du versuchts immer verzweifelt dein Produkt schön zu reden, indem du immer mit einem Spezielen Vergleich herkommst.
Wobei das höchstwahrscheinlich nicht stimmt, wenn man es formal richtig betrachtet. Praktisch ist der Vergleich es falsch.


Eben

Und, was willst mit deiner nonsens Aussage sagen?
Etwa dass Nvidia mit der GF110 eben einen den GF100B zu tuschen versucht.?!! :; bzw. einen gewaltigen Fortschritt vortäuschen will?


Das fett gedruckte ist interessant. Denn sie haben ja genau auf schlechten Produkten aufgebaut. Eben R600. Das sie natürlich nicht die Schwächen intensiviert und die Stärken minimiert haben sondern andersherum sollte jawohl klar sein :rolleyes:

Ich hatte extra "an frühere schlechten Zeiten Orierentiert" ja auch hingeschrieben, damit die Leute die nur Formal verstehen können, es hoffentlich auch verstehen

Da muss ich wohl für dich extra noch mehr Zusatz-Erklärungen anbringen.

Warum sollte ich mir irgendwas ausdenken? Sag mir doch einfach klar, was du für eine "deutliche" Verspätung hälst. Das sollte doch kein Problem sein.
Wenn du sagst, dass die GPU sich wegen der GPU-Architektur bzw. GPU-Chip verspätet, dann muss du des begründen können.;) Und zwar logisch. ( Also, ein Respinn eines GPU-Chips inkl Ausbesserungen z.B. nicht;) )

Eigentlich ist es ein DX10-Chip, an dem die DX11-Features nachträglich hinzugefügt wurden. Das ist was anderes.
Richtig, eigentlich ist GF100 eine Heizung, wo man nachträglich noch DX11-Features eingebaut hat. Ja ja, träum weiter.

RV8x0 ist eine DX11 Karte.

Aha, jetzt habe ich also die R600 Architekturprobleme schon mit den Fertigungsproblemen des GF100 verglichen, interessant. Machst du das immer, das du dir irgendwelche Lügen über die Aussagen anderer ausdenkst um besser da zu stehen oder kannst du einfach nicht besser lesen?
Wenn du schon verzweifelt versucht, dein Produkt mit anderen Produkten schönzureden, dann mach es richtig!!! Deine Vergleiche nerven, weil sie oft falsch sind !!!! (siehe Oben, da ist es genauso;))

I

aylano
2010-11-12, 15:19:08
Erwischt :)
Dachte ich mir, dass du den Schnitt nicht verstehst und dich mit Rosinen zufrieden gibts.

Tja, wenn man laufend nach Ausrutschern/Rosinen sucht, dann verliert man halt mal den Überblick.


Das ist richtig, allerdings war die 5000er Reihe als Gesamtes auch deutlich weiter weg (zeitlich) als das es die 500er Reihe jetzt ist ;)

Ist immer das selbe, du versuchts immer verzweifelt dein Produkt schön zu reden, indem du immer mit einem Spezielen Vergleich herkommst.
Wobei das höchstwahrscheinlich nicht stimmt, wenn man es formal richtig betrachtet. Praktisch ist der Vergleich es falsch.


Eben

Und, was willst mit deiner nonsens Aussage sagen?
Etwa dass Nvidia mit der GF110 eben einen den GF100B zu tuschen versucht.?!! :; bzw. einen gewaltigen Fortschritt vortäuschen will?


Das fett gedruckte ist interessant. Denn sie haben ja genau auf schlechten Produkten aufgebaut. Eben R600. Das sie natürlich nicht die Schwächen intensiviert und die Stärken minimiert haben sondern andersherum sollte jawohl klar sein :rolleyes:

Ich hatte extra "an frühere schlechten Zeiten Orierentiert" ja auch hingeschrieben, damit die Leute die nur Formal verstehen können, es hoffentlich auch verstehen

Da muss ich wohl für dich extra noch mehr Zusatz-Erklärungen anbringen.

Warum sollte ich mir irgendwas ausdenken? Sag mir doch einfach klar, was du für eine "deutliche" Verspätung hälst. Das sollte doch kein Problem sein.
Wenn du sagst, dass die GPU sich wegen der GPU-Architektur bzw. GPU-Chip verspätet, dann muss du des begründen können.;) Und zwar logisch. ( Also, ein Respinn eines GPU-Chips inkl Ausbesserungen z.B. nicht;) )

Eigentlich ist es ein DX10-Chip, an dem die DX11-Features nachträglich hinzugefügt wurden. Das ist was anderes.
Richtig, eigentlich ist GF100 eine Heizung, wo man nachträglich noch DX11-Features eingebaut hat. Ja ja, träum weiter.

RV8x0 ist eine DX11 Karte.

Aha, jetzt habe ich also die R600 Architekturprobleme schon mit den Fertigungsproblemen des GF100 verglichen, interessant. Machst du das immer, das du dir irgendwelche Lügen über die Aussagen anderer ausdenkst um besser da zu stehen oder kannst du einfach nicht besser lesen?
Wenn du schon verzweifelt versucht, dein Produkt mit anderen Produkten schönzureden, dann mach es richtig!!! Deine Vergleiche nerven, weil sie oft falsch sind !!!! (siehe Oben, da ist es genauso;))

Schlammsau
2010-11-12, 15:29:09
Ich weiss den Grund für die Verschiebung......sie überarbeiten das AF, die Kritik seitens des 3DC hat gewirkt.

Iruwen
2010-11-12, 15:29:41
Also zweimal muss man den Blödsinn jetzt wirklich nicht lesen :\

SamLombardo
2010-11-12, 15:33:58
Richtig, eigentlich ist GF100 eine Heizung, wo man nachträglich noch DX11-Features eingebaut hat. Ja ja, träum weiter.

RV8x0 ist eine DX11 Karte.


Im ersten Northern Islands Spekulationsthread quotete AnarchX folgende Ankündigung
Northern Island...release of first "native" DirectX 11 architecture by AMD, not the "Radeon HD 4890 with DirectX 11".

Da ist schon was dran. Während GF100 von Anfang an auf DX11 ausgelgt war, ist RV8.. die DX10 Architektur mit DX11 "Aufsatz". Dieser erfüllt zwar nominell die DX Spezifikationen aber auch nicht mehr! (was ja zugegeben zu der Zeit auch nicht nötig war). Mit Cayman soll das ja wie gesagt anders sein;)

Kalmar
2010-11-12, 15:34:15
ich würde 4 ausschließen weil man ja ungefähr wusste das 15-20% drauf kommen und so überrascht kann man nicht sein ...

denke ehr bessere kühlung, abverkauf der 58x0 karten sind wahrscheinlicher

Dural
2010-11-12, 15:53:13
Ich weiss den Grund für die Verschiebung......sie überarbeiten das AF, die Kritik seitens des 3DC hat gewirkt.

na das wär doch mal was :)

ShadowXX
2010-11-12, 16:02:35
Ok gehen wir mal kurz ein paar möglichkeiten durch:

1.Es fehlen irgendwelche Bauteile vom Zulieferer fürs PCB
Soll zwar so von AMD kommen ist aber meiner Meinung nach zur Kurzfristig b.z.w. auch auffäulig direkt nach dem GTX580 launch. Es sollte also eher damit zusammen hängen.

2.Man ist von der Neuen Kühllösung der GTX580 so überrascht und will jetzt noch schnell selber eine gute ref Kühlung presentieren. Da diese sehr gut bei den Test angekommen ist.
Ich finde das Passt sehr gut Zeitlich, weil direkt nach dem GTX580 launch.

3.Die Leistung der GTX580 ist niedriger als erwartet.
Niedriger hört sich nicht so plausibel an, weil man dann einfach schnell die eigenen Kartenpreise erhöhen würde. Anderseits will man vieleicht lieber die Margen erhöhen und Taktet niedriger/deaktiviert einheiten.

4.Die Leistung der GTX580 ist höher als erwartet.
Man ist mit der Aktuellen version der HD69xx reihe nicht schnell genug. Ergo mann muss auf Margen verzichten und Taktet die GPUs höher b.z.w. aktiviert mehr Einheiten(6950).

All diese Optionen sind kurzfristig möglich wobei ich selber auf 2 oder 4 Tippe. Auch eine Kombination aus 2 und 4 oder 2 und 3 ist möglich.

bin aufjedenfall gespannt wie die Karte am ende Vorgestellt wird.

mfg martin
Du hast Option 5 vergessen: der Cayman läuft nicht so rund wie erwartet (Taktprobleme oder Hitzeprobleme oder beides).

Und in den 3 Wochen wollen Sie jetzt austesten wie hoch sie insgesamt gehen können mit dem Takt wo der beste Punkt Ausbeute vs. Takt/Hitze ist.

fondness
2010-11-12, 16:19:28
Du hast Option 5 vergessen: der Cayman läuft nicht so rund wie erwartet (Taktprobleme oder Hitzeprobleme oder beides).

Und in den 3 Wochen wollen Sie jetzt austesten wie hoch sie insgesamt gehen können mit dem Takt wo der beste Punkt Ausbeute vs. Takt/Hitze ist.

Und du glaubst das man da ein paar Tage vor dem Launch urplötzlich draufkommt und jetzt drei Wochen benötigt um das auszutesten? ;D

Erstens ist das das erste was man nach der Bug Detection macht und zweitens gibt es dafür heutzutage aufwändige Algorithmen die das innerhalb kürzester Zeit sehr präzise für jeglichen Takt/Spannung/Leistungsaufnahme, etc nähern können.

Raff
2010-11-12, 16:21:57
Ich weiss den Grund für die Verschiebung......sie überarbeiten das AF, die Kritik seitens des 3DC hat gewirkt.

Laut Dave Baumann entspricht HQ "Native Texturing", was sich als "Die Hardware filtert vom Treiber unbeeinflusst (mit max. Qualität)" deuten lässt. Nun ist HQ aber scheiße – dann sind es die TMUs wohl auch. Hat Cayman die Barts-TMUs, wird's nicht so einfach mit "Ups, die haben's gemerkt, also lassen wir jetzt mal wieder filtern wie beim R580, der gefällt denen."

MfG,
Raff

Bucklew
2010-11-12, 16:33:58
Dachte ich mir, dass du den Schnitt nicht verstehst und dich mit Rosinen zufrieden gibts.

Tja, wenn man laufend nach Ausrutschern/Rosinen sucht, dann verliert man halt mal den Überblick.
Was gibt es da zu verstehen? Du hast behauptet, dass GF110 außer Shader/Takt-Steigerungen keine Steigerung erzielt hat und das ist (wie ich nachgewiesen habe) falsch. Ergo hattest du Unrecht. Außer du beweißt das Gegenteil.

Ist immer das selbe, du versuchts immer verzweifelt dein Produkt schön zu reden, indem du immer mit einem Spezielen Vergleich herkommst.
Wobei das höchstwahrscheinlich nicht stimmt, wenn man es formal richtig betrachtet. Praktisch ist der Vergleich es falsch.
Aha. Also erschien die HD5000 Reihe zeitlich näher an RV790 als das die noch fehlenden GeForce500-Chips tun? Du behauptest also, dass wir in frühestens 5 Monaten (RV790->HD5000) die Nachfolger von GF104 & Co sehen? Na da bin ich mal gespannt ;D

Und, was willst mit deiner nonsens Aussage sagen?
Etwa dass Nvidia mit der GF110 eben einen den GF100B zu tuschen versucht.?!! :; bzw. einen gewaltigen Fortschritt vortäuschen will?
Eine GF110 nach GF100 deutet keinen gewaltigen Fortschritt an, das tut z.B. GF100 nach GT200. Und das war ja auch so. Das was GF110 andeutet ist einfach nur ein Refresh. Wie es bisher auch immer so war.

Ich hatte extra "an frühere schlechten Zeiten Orierentiert" ja auch hingeschrieben, damit die Leute die nur Formal verstehen können, es hoffentlich auch verstehen
Du hattest ein "bzw." dazwischen stehen, was IMMER eine logische Trennung und Unterschied darstellst. Wenn du nicht fähig bist die richtig auszudrücken, kann ich dafür auch nichts.

Wenn du sagst, dass die GPU sich wegen der GPU-Architektur bzw. GPU-Chip verspätet, dann muss du des begründen können.;) Und zwar logisch. ( Also, ein Respinn eines GPU-Chips inkl Ausbesserungen z.B. nicht;) )
Cayman wird nicht als A1 auf den Markt kommen. Da hast du deine Begründung ;)

Richtig, eigentlich ist GF100 eine Heizung, wo man nachträglich noch DX11-Features eingebaut hat. Ja ja, träum weiter.
Fehlenden die Argumente, wird man halt polemisch. Süß ;D

RV8x0 ist eine DX11 Karte.
Nein, die HD5000 Reihe sind ursprünglich DX10-Karten, denen nachträglich DX11-Features verpasst wurde. Das ist was völlig anderes als ein Fermi, der von vorne herein als DX11-Karte entwickelt wurde.

Wenn du schon verzweifelt versucht, dein Produkt mit anderen Produkten schönzureden, dann mach es richtig!!! Deine Vergleiche nerven, weil sie oft falsch sind !!!! (siehe Oben, da ist es genauso;))
Ich rede gar nichts schön, da bist du nur verzweifelt dran. Und deshalb so absolut krude Verbiegungen, wie du sie schon die ganze Zeit machst.

Moment: Das, was ich in die Diskussion brachte, ist aus dem Technologieforum Bucklew bestreitet eine Tatsache und meint, ich muss ihm Belege liefern, um seine Behauptung zu widerlegen.
Ich habe nichts behauptet, das warst du. Daher musst du das natürlich auch belegen. Aber das du von solchen Diskussionsbasics nichts verstehst, wundert mich gar nicht.

S940
2010-11-12, 17:20:05
Merkst du eigentlich wie selten dämlich es ist über einen Codename zu reden?
Danke für die aufschlussreiche Antwort auf meine Frage, was denn alles bei GF110 neu ist. ;D
Wieviel Hass muss man daher gegenüber einer Firma haben, wenn man schon die Bezeichnung ihrer Codenames kritisiert. :eek:
Oh mein lieber Gott, wieviel ist in Deinem Leben hier denn falsch gelaufen, wenn Du bei ner kleinen Kritik an Codenamen gleich mit der Hass Keule kommst ?? Jetzt hab ich echt Mitleid mit Dir. Das läßt ja auf dunkelste Abgründe in Deinem Seelenleben schließen, wenn Du so depri drauf bist. Geh mal raus an die frische Luft, und wenn das nicht hilft, geh zu nem vertrauensvollen Arzt.

Ich glaube nicht, dass AMD so kurz vor dem geplanten Launch mal feststellt, dass die Karte Probleme macht. Da wird irgendwas anderes im Busch sein.

Herrlich diese Verschwörungstheorien hier.
Lol, naja, irgendwas muss es ja sein, die Verschiebung ist ja offiziell. Hoffen wir das es nur ein Komponentenengpass ist, und nix schlimmeres. In nem halben Jahr oder so gibts dann hoffentlich die Auflösung bei anandtech ^^

ciao

Alex

LovesuckZ
2010-11-12, 17:22:59
Danke für die aufschlussreiche Antwort auf meine Frage, was denn alles bei GF110 neu ist. ;D
Oh mein lieber Gott, wieviel ist in Deinem Leben hier denn falsch gelaufen, wenn Du bei ner kleinen Kritik an Codenamen gleich mit der Hass Keule kommst ?? Jetzt hab ich echt Mitleid mit Dir. Das läßt ja auf dunkelste Abgründe in Deinem Seelenleben schließen, wenn Du so depri drauf bist. Geh mal raus an die frische Luft, und wenn das nicht hilft, geh zu nem vertrauensvollen Arzt.


Du glaubst in meinem Leben lief was schief, wenn ich es absurd finde, dass Leute sich über CODENAMEN von GRAFIKKARTENCHIPS auskotzen, weil die nicht so betitelt werden, wie man es gerne haben möchte? ;D

Achso: Eine Vielzahl der Transistoren sind neu. Tiefer kann man kaum gehen. :P

AnarchX
2010-11-12, 17:50:12
Powercolor: HD 6900 ist 30-50% schneller als HD 5800 (http://www.donanimhaber.com/ekran-karti/haberleri/powercolor-ile-radeon-hd-6900-serisinin-performansini-ve-fusion-islemcilerini-konustuk.htm)

Raff
2010-11-12, 17:52:02
Powercolor: HD 6900 ist 30-50% schneller als HD 5800 (http://www.donanimhaber.com/ekran-karti/haberleri/powercolor-ile-radeon-hd-6900-serisinin-performansini-ve-fusion-islemcilerini-konustuk.htm)

Die Zahlen stehen wo? Wir brauchen Dolmetscher! :biggrin:

MfG,
Raff

AnarchX
2010-11-12, 17:53:59
Die Zahlen stehen wo? Wir brauchen Dolmetscher! :biggrin:

Im Interview werden diese in Englisch genannt.

LovesuckZ
2010-11-12, 18:00:45
Ohne Kontext ist es sinnlos darüber zu reden. 50% in Crysis wäre ziemlich viel. 50% in Lost Planet 2 als Best Case eher schlecht.

fnnor
2010-11-12, 18:05:32
genau zuhören !!! sie sagt 30-50% besser als die 6800er serie, nicht 5800er

wobei das englisch von beiden eher unter aller sau ist vom aktzent/aussprache her xD

Eggcake
2010-11-12, 18:07:09
Powercolor: HD 6900 ist 30-50% schneller als HD 5800 (http://www.donanimhaber.com/ekran-karti/haberleri/powercolor-ile-radeon-hd-6900-serisinin-performansini-ve-fusion-islemcilerini-konustuk.htm)

Falsch, sie sagt
"Beijsikali, we belif tat nju generation of 6000-series the performance will be more than 30 or 50% better than 68-series right now."
So in etwa. ~2:55


Gut, viel geb' ich nicht auf solche Aussagen - zudem ist's auch ziemlich im Rahmen der Erwartungen. Also nix neues.
Bzw. eher unter den Erwartungen, wenn sie sich auf 6850 und 6870 beziehen. Generell war bisher ja von 5870 +~40% die Rede. Wenn 6850 +50% und 6870 +30% ist, dann wär's aber ziemlich "mäh".

AwesomeSauce
2010-11-12, 18:18:12
Ein Refresh eben, wies Ail schon immer gesagt hat...

"Beijsikali, we belif tat nju generation of 6000-series the performance will be more than 30 or 50% better than 68-series right now."
Und das ist noch gnädig transkribiert:ulol: Deren Englisch(-Aussprache) geht ja mal gar nicht...

S940
2010-11-12, 18:27:52
Du glaubst in meinem Leben lief was schief, wenn ich es absurd finde, dass Leute sich über CODENAMEN von GRAFIKKARTENCHIPS auskotzen, weil die nicht so betitelt werden, wie man es gerne haben möchte? ;D
Schon wieder: "auskotzen" .. wer kotzt denn ? Ich nicht .. mir und meinem Mageninhalt gehts blenden .. Dir aber anscheinend leider nicht ... traurig ;(
Achso: Eine Vielzahl der Transistoren sind neu. Tiefer kann man kaum gehen. :PGibts dafür ne Quelle oder ist das nur Deine :love2:Privatbehauptung ?

Black-Scorpion
2010-11-12, 18:32:26
Man was geht denn hier die letzten Seiten ab. Eigentlich wundert es ja nicht das die grüne Riege unbehelligt Seitenlang den Thread zu spammen kann. Wehe es wäre ein Nvidia Thread da wäre der Forenpolizist aber Ganz schnell beim löschen und Kartenverteilen. Zumal er hier auch noch schreibt und sich das Schauspiel ohne Reaktion ansieht.

AwesomeSauce
2010-11-12, 18:37:53
Es geht hier sowieso nur noch ums denunzieren und diffamieren von irgendwelchen Forenmitgliedern. Auf eine informative Diskussion wird keinen Wert mehr gelegt. Silly Season, wieder einmal. Damit muss man sich wohl abfinden.

Hoffe aber auch, dass bald mal der Sperr-Hammer geschwungen wird...

Schlammsau
2010-11-12, 18:39:15
30 und 50% heisst, 6950 auf GTX480 und 6970 auf GTX580 Niveau. :biggrin:

LovesuckZ
2010-11-12, 18:42:18
Nö, heißt es nicht. Das hängt von den Spielen ab.

boxleitnerb
2010-11-12, 18:47:07
Ich denke auch, dass es höchstens für ältere Spiele zu einem Gleichstand bzw. leichtem Vorsprung reicht. In DX11 Games wird die 580 wohl weiterhin führen.

derguru
2010-11-12, 18:52:28
das kann man doch eh nicht für voll nehmen aber im november hat die alte gesagt oder?

Blaire
2010-11-12, 18:57:20
Ich denke auch, dass es höchstens für ältere Spiele zu einem Gleichstand bzw. leichtem Vorsprung reicht. In DX11 Games wird die 580 wohl weiterhin führen.

Das wäre enttäuschend, andererseits können sie dann nicht soviel verlangen. :)

Mancko
2010-11-12, 18:58:11
Ok gehen wir mal kurz ein paar möglichkeiten durch:

1.Es fehlen irgendwelche Bauteile vom Zulieferer fürs PCB
Soll zwar so von AMD kommen ist aber meiner Meinung nach zur Kurzfristig b.z.w. auch auffäulig direkt nach dem GTX580 launch. Es sollte also eher damit zusammen hängen.



Den Grund kann man definitiv ausschliessen. Sowas zeichnet sich früher ab. Der ist von AMD vorgeschoben und zwar zu 100%!


2.Man ist von der Neuen Kühllösung der GTX580 so überrascht und will jetzt noch schnell selber eine gute ref Kühlung presentieren. Da diese sehr gut bei den Test angekommen ist.
Ich finde das Passt sehr gut Zeitlich, weil direkt nach dem GTX580 launch.


Das ist mein Favorit. Ich denke, dass AMD bei Lautstärke und Leistungsaufnahme mächtig zugelegt hat im negativen Sinne, da im Bereich der 3D Leistung - vor allem der DX11 Leistung - sehr viel aufzuholen war. Dadurch wird der Chip größer und musste auch entsprechend getaktet werden. Der hochgetaktete RAM tut sein übriges. AMD hat sehr wahrscheinlich damit gerechnet, dass der 480 Nachfolger sich hier nur marginal verbessert. Ich denke da wurden sie von Nvidia überrascht und müssen nun nachbessern.


3.Die Leistung der GTX580 ist niedriger als erwartet.
Niedriger hört sich nicht so plausibel an, weil man dann einfach schnell die eigenen Kartenpreise erhöhen würde. Anderseits will man vieleicht lieber die Margen erhöhen und Taktet niedriger/deaktiviert einheiten.


Den Grund kann man definitiv ausschließen genauso wie Grund Nummer 1. AMD hat im letzten Quartal nur 1 Mio operativen Gewinn gemacht. Wenn beim Cayman alles glatt läuft, launchst Du den und setzt die Preise hoch. Das lässt sich einfach verargumentieren, da du ja besser als die Konkurenz bist. Somit hätte man schön kassieren können, vor allem im Weihnachtsgeschäft wo das Geld eh locker sitzt.


4.Die Leistung der GTX580 ist höher als erwartet.
Man ist mit der Aktuellen version der HD69xx reihe nicht schnell genug. Ergo mann muss auf Margen verzichten und Taktet die GPUs höher b.z.w. aktiviert mehr Einheiten(6950).


Sehr gut möglich. In DX11 packt die 580 nochmal ein ordentliches Stück drauf. Das ist mein Favorit Nummer zwei in der Rangfolge. Unter Umständen liegt die ursprünglich geplante Version der 6970 und 6950 zu weit zurück. AMD ist ja nicht dumm und kann von der 580 auf die 570 runterrechnen, gegen die sich wahrscheinlich die 6950 behaupten muss.

So richtig zum Favorit Nummer zwei wird der Punkt aber erst durch den schnellen Launch. Wenn AMD von der Performance nicht überrascht war, dann in jedem Fall von dem zügigen Launch. Ich denke die sind davon ausgegangen, dass Nvidia irgendwann im Dezember/Januar launcht aber nicht so dreist ist und das auf den November vorzieht.


Favorit Nummer 1 bleibt aber für mich der Punkt Kühllösung.

Schlammsau
2010-11-12, 18:58:18
Nö, heißt es nicht. Das hängt von den Spielen ab.

Na gut, dann wird sie mal schneller und mal langsamer als die 580 sein. :smile:

Wie immer halt....es gibt Games die mögen eher nVidia und Games die mögen eher ATi/AMD.

fondness
2010-11-12, 18:59:09
Ich denke auch, dass es höchstens für ältere Spiele zu einem Gleichstand bzw. leichtem Vorsprung reicht. In DX11 Games wird die 580 wohl weiterhin führen.

Woran machst du das fest? Mit zweiten Setup-Engine inkl. zweiten Tesslator sollte man diesen Flaschenhals ausreichend erweitern können. Ansonsten hat eine aktuelle Radeon keinesfalls einen DX11-Nachteil. In isolierten DirectCompute-Benchmarks z.B. schlägt man NV nicht selten deutlich.

boxleitnerb
2010-11-12, 19:02:45
Woran machst du das fest? Mit zweiten Setup-Engine inkl. zweiten Tesslator sollte man diesen Flaschenhals ausreichend erweitern können. Ansonsten hat eine aktuelle Radeon keinesfalls einen DX11-Nachteil. In isolierten DirectCompute-Benchmarks z.B. schlägt man NV nicht selten deutlich.

Das ist meine Einschätzung. Im CB Performancerating unter DX11 ist eine 580 40-50% schneller als eine 6870. Ich traue Cayman nicht zu, das aufzuholen anhand der bisherigen spekulierten Zahlen.
Kein Nachteil...sehe ich nicht so. Aktuelle DX11-Spiele wie Hawx 2, Civ5, Lost Planet 2 sehen die Radeons deutlich hinten.

Schlammsau
2010-11-12, 19:03:15
Das ist meine Einschätzung. Im CB Performancerating unter DX11 ist eine 580 40-50% schneller als eine 6870. Ich traue Cayman nicht zu, das aufzuholen anhand der bisherigen spekulierten Zahlen.

Ich schon!

derguru
2010-11-12, 19:07:19
und das liegt sogut wie nur an battleforge der ja so mit viel tesselation geschmückt ist aber klar dx11 schwäche. X-D

LovesuckZ
2010-11-12, 19:11:33
und das liegt sogut wie nur an battleforge der ja so mit viel tesselation geschmückt ist aber klar dx11 schwäche. X-D

Naja, AMD hat Probleme mit AA bei DX11 Spielen. Der einzige Fall, wo dies nicht eintritt ist Battlefield. Aber bei Metro, Stalker, Battleforge und AvP brechen sie immer stärker ein als nVidia. Eine erklärung habe ich dafür bis heute nicht.

derguru
2010-11-12, 19:18:47
Naja, AMD hat Probleme mit AA bei DX11 Spielen. Der einzige Fall, wo dies nicht eintritt ist Battlefield. Aber bei Metro, Stalker, Battleforge und AvP brechen sie immer stärker ein als nVidia. Eine erklärung habe ich dafür bis heute nicht.
ja aber das ist jetzt nicht die welt,gerade in metro,stalker und AvP und stalkerwerte von cb sind eh merkwürdig,wieso gibts denn hier im benchfred nicht so gravierende unterschiede?

LovesuckZ
2010-11-12, 19:21:43
ja aber das ist jetzt nicht die welt,gerade in metro,stalker und AvP und stalkerwerte von cb sind eh merkwürdig,wieso gibts denn hier im benchfred nicht so gravierende unterschiede?

Alles Gameplay und keine Benchmarks. Der AvP Benchmark ist ja auch nur Indoor. Vorallem außerhalb sollen AMD Karten mächtig einbrechen mit AA.

S940
2010-11-12, 19:22:02
In DX11 Games wird die 580 wohl weiterhin führen.Hmm,also wenn Du DX11 Benches meinen würdest, da wär ich dabei ;-)
Spiele ... kA - abwarten.

boxleitnerb
2010-11-12, 19:27:07
Ich hab nicht Unigine, Stonegiant o.ä. genannt. Es sind schon Spiele - auch bei CB.

Ailuros
2010-11-12, 20:13:27
Ich hab nur 2 Seiten zurueckgelesen und mir wurde schwindlich...

1. Evergreen GPUs sind reine DX11 GPUs; wer diese Tatsache nicht verdauen kann, sollte sich besser informieren.

2. Was zum Teufel macht es fuer AMD einen Unterschied ob Cayman XT jetzt 10% langsamer ist als die 580, gleich schnell oder sogar 10% schneller? Es gibt ueberhalb Cayman immer noch Antilles fuer den wahren high end. Und damit ich nicht falsch verstanden werde: wenn Cayman XT selbst schon 10-15% langsamer sein sollte als GTX580 dann braucht sich AMD vor niemand und schon gar nicht von NV und der 580 verstecken. Nicht zumindest bei der Cayman die area.

3. Im schlimmsten Fall von (2) oben haben sie genau das wiederholt was sie auch mit der 5870 vs. GTX480 erreicht haben. Die Welt geht nicht unter und AMD kann weiterhin getroestet ihre Markanteile erhoehen ueberhaupt im mobilen Markt der konstant an Wichtigkeit zunimmt.

Diese kindische Selbstbefriedigung mit dem letzten beschissenen fps von A vs. B muss irgend wann mal ein Ende nehmen. Die Menge an Mist die ich rechts und links im Netz in letzter Zeit lese ist ja kaum noch mehr zu ertragen. Wo anders sagte jemand dass ihm die GTX580 Leistung viel zu gering waere; er braeuchte fuer heutige Verhaeltnisse etwa 2*580@SLi Leistung von einer einzelnen GPU. Na gute Nacht bis zur zweiten Generation unter 28nm. Und wer mir jetzt sagt der Typ spinnt, sollte lieber gleich nochmal bedenken wie realistich die Erwartungen fuer Cayman von manchen genau sind.

Wenn bei manchen von Euch die Bezeichnung refresh nicht klingeln sollte und dazu noch unter dem gleichem miesem Herstellungsprozess, dann kann ich leider nur mit einer weissen Fahne wedeln.

Raff
2010-11-12, 20:24:58
2. Was zum Teufel macht es fuer AMD einen Unterschied ob Cayman XT jetzt 10% langsamer ist als die 580, gleich schnell oder sogar 10% schneller?

Für AMD ist es vermutlich egal ("nice to have"), für die Anhängerschar aber nicht. Ich sehe schon wieder Fanboys allerorten Tests oder Auszüge aus diesen selektieren, die die eigene Wahrnehmung des Gewinners widerspiegeln ... Unfassbar nervig. Dabei wird nämlich immer vergessen, dass der Balken nicht alles ist.

Es gibt ueberhalb Cayman immer noch Antilles fuer den wahren high end.

"Wahrer High-End" ist also, zwei GPUs extrem restriktiv zusammenzukleben, nur um den längsten Balken zu haben? Das mag die Definition der Hersteller sein. In Wahrheit ist das heutige Multi-GPU nur der verzweifelte, beachtlich lange fehlschlagende Versuch, das langsame Wachstum der Leistungsfähigkeit zu umgehen.

MfG,
Raff

HarryHirsch
2010-11-12, 20:28:45
"Wahrer High-End" ist also, zwei GPUs extrem restriktiv zusammenzukleben, nur um den längsten Balken zu haben? Das mag die Definition der Hersteller sein. In Wahrheit ist das heutige Multi-GPU nur der verzweifelte, beachtlich lange fehlschlagende Versuch, das langsame Wachstum der Leistungsfähigkeit zu umgehen.

MfG,
Raff

Wenn man damit überall 16xSGSSAA flüssig darstellen kann, dann ist das sicher "Wahrer High-End". :freak:

boxleitnerb
2010-11-12, 20:33:42
Wenn es genauso langsam ist wie 8xSGSSAA mit einer Karte, dann naja. Wenn die IHVs endlich mal ihre MGPU-Systeme gescheit supporten und CF/SLI-SSAA, das mit zwei Karten dann auch in neuen Titeln gescheit läuft, einführen würden, wäre schonmal die Mikrorucklerproblematik aus der Welt.

Wäre doch DER Kaufgrund für MGPU. Ob ich jetzt 100 oder 200 fps hab, wayne. Aber wenn man auch die kleinen (benutzbaren) Modi (8x, 4x SGSSAA) bei praktisch perfekter Skalierung auf beide Karten splitten könnte, das wär was!

Ailuros
2010-11-12, 20:34:41
"Wahrer High-End" ist also, zwei GPUs extrem restriktiv zusammenzukleben, nur um den längsten Balken zu haben? Das mag die Definition der Hersteller sein. In Wahrheit ist das heutige Multi-GPU nur der verzweifelte, beachtlich lange fehlschlagende Versuch, das langsame Wachstum der Leistungsfähigkeit zu umgehen.

MfG,
Raff

Mir egal welche Perskeptive Du hier fuer high end benutzen willst; die Platzierung nach dem Preis waere eine von vielen Perspektiven. Es ist einfach das schnellste und teuerste desktop Produkt von AMD. Was es jetzt in Realitaet ist hier nebenwichtig.

Ich frag aber trotzem nochmal nach ohne die Hoffnung eine halbwegs logische Antwort zu bekommen: wenn Cayman XT wirklich um ein sehr gutes Prozentual schneller sein sollte als GF110, warum zum Geier brauchen sie genau nochmal Antilles fuer?.

Botcruscher
2010-11-12, 20:39:05
Weil es geht und man damit Geld/Marktanteile verdienen kann. Wie schnell das Ding wird ist ja eigentlich egal. TSMC hat mit 32nm eh alles durcheinander gewirbelt. Deswegen ergibt sich ja erst die Situation, das beide ungefähr gleich schnell werden. Es ist schlicht ein "Unfall".

PS: Oder aus welchem Grund hat man die Fehlentwicklung mGPU überhaupt wieder ausgebuttelt?! Weil halt (billig)mehr Balken möglich war und Balken ist immer gut.

Bucklew
2010-11-12, 22:07:47
Ich frag aber trotzem nochmal nach ohne die Hoffnung eine halbwegs logische Antwort zu bekommen: wenn Cayman XT wirklich um ein sehr gutes Prozentual schneller sein sollte als GF110, warum zum Geier brauchen sie genau nochmal Antilles fuer?.
Irgendwie ein ziemlich schlagendes Argument....

mboeller
2010-11-12, 22:11:53
analysiert mal die Folie:

http://www.nordichardware.com/images/labswedish/nyhetsartiklar/Grafik/hd6000/largethumbnails/hd6000.4.jpg

Der Vorsprung von Cayman gegenüber der GTX480 ist größer als der Vorsprung von Barts gegenüber der normalen GTX460..... ;)

Bucklew
2010-11-12, 22:15:55
Der Vorsprung von Cayman gegenüber der GTX480 ist größer als der Vorsprung von Barts gegenüber der normalen GTX460..... ;)
Ist ja auch noch vom August. Und deckt sich ungefähr mit der vorher von ATI verwendeten Folie.

Gestrandet
2010-11-12, 22:49:07
Wann wird Folienanalyse endlich ordentliches Studienfach? :D

DeadMeat
2010-11-12, 23:13:09
Wenn Marketing Folien als Wissenschaftliche Quellen zugelassen werden !

Gluckstaler
2010-11-13, 05:15:07
Ich hab nur 2 Seiten zurueckgelesen und mir wurde schwindlich...

...

Wenn bei manchen von Euch die Bezeichnung refresh nicht klingeln sollte und dazu noch unter dem gleichem miesem Herstellungsprozess, dann kann ich leider nur mit einer weissen Fahne wedeln.

With all due respect, Ailuros, wenn Cayman wirklich 4-D ist, dann ist das IMHO ziemlich nah an 'neue Architektur'.

Zu den Gründen der Launch-Verschiebung:

1. Fehlende Bauteile, das könnte schon zutreffen, aber deswegen verschiebt man nicht den Launch des High-Margin-Products, sondern produziert weniger Barts und mehr Cypress.

2. Kühllösung, das könnte auch zutreffen, aber wie gesagt, da verschiebt man nicht den Launch, sondern schiebt so schnell wie möglich Partner-Karten mit Custom-Cooling nach.

3. & 4. Leistung in Bezug zur 580. Life's a bitch, get over it!

Persönlich würde ich jedoch auf 5 oder 6 tippen:

5. Mangelhafter Treiber in Verbindung mit
6. Chip-Fehler (ähnliche wie beim GF100er, die dazu führten, dass mehrere Steppings nötig waren, wie schon in diesem Thread erwähnt, Cayman wird sicher nicht im A1 oder A2-Stepping erscheinen.

Zum Chip selbst, denke ich, dass man 1536 SP für die Pro-Version als gesetzt annehmen könnte, weil höchstwahrscheinlich alle Board-Partner diese Information bekommen haben.

Da die XT-Version komplett MBA ist hier alles offen.

tombman
2010-11-13, 06:08:13
analysiert mal die Folie:

http://www.nordichardware.com/images/labswedish/nyhetsartiklar/Grafik/hd6000/largethumbnails/hd6000.4.jpg

Der Vorsprung von Cayman gegenüber der GTX480 ist größer als der Vorsprung von Barts gegenüber der normalen GTX460..... ;)
Das ist doch ziemlich genau auf 580 Niveau :) Und dann hätte AMD verloren ;)

OgrEGT
2010-11-13, 08:33:50
Das ist doch ziemlich genau auf 580 Niveau :) Und dann hätte AMD verloren ;)

Was genau meinst Du mit verloren? Der Trend GT200 vs HD4870, GTX480 vs HD5870 würde mit GTX580 = HD6970 fortgeführt. Die single GPUs von AMD nähern sich leistungsmäßig denen von NV kontinuierlich seit g80 vs R600. Ich werte das als Erfolg.

Sollte Cayman XT am Ende doch vor GTX 580 liegen, dann nicht besonders viel. Je nach Benchmark wäre mal die eine oder andere Karte vorne.

Entscheidender wird sein, ob AMD auch in anderen Bereichen wie BQ zu NV aufschließen wird können. Leistung ist im Bereich GTX580/HD6970 doch so oder so genug vorhanden. (Außer für jemand wie dich, der an mGPU nicht vorbeikommt :smile:)

Edit: Interessant wird es dann in jedem Fall mit der nächsten Generation in 28nm. Sollte AMD den oben beschriebenen Trend weiter fortsetzen können, gerät NV weiter unter Druck.

R.I.P.
2010-11-13, 08:43:06
Stimme OgrEGT zu. Was soll "verloren" heißen? :freak:
Für mich und sicherlich für andere ist es sicherlich nicht ausschlaggebend ob die 580 jetzt 60FPS hat und die 6970 hypothetische 56 FPS auf die Waage bringt. Verbrauch, Lautheit, Temperatur, Multimonitosupport, etc. sind für mich genausowichtig und könnten die paar FPS weniger aufwiegen.

Sollte die 6970 wirklich nur wenig langsamer als die 580 sein, dann hat AMD eindeutig gewonnen, weil sie mit einer neuen Architektur und mit einem viel größeren Chip (was sie nicht gewohnt sind) eine sehr gute Arbeit gemacht haben und den Lesitungsabbstand verringert haben, mMn

horn 12
2010-11-13, 10:25:48
Auch die alten HD5850/ 5870 Karten werden weiter abverkauft und die Lager der Händler leeren sich,- auch vielleicht ein Mitgrund der Verschiebung.

Zudem hoffe ich dass Cayman Pro knapp an GTX 580 rankommt, vielleicht 5-10% langsamer, die XT Version HD6970 gute 10-15% über der GTX 580darüber.
Denn sie sagten ja dass die Karte auf P/L setzt und somit wäre die HD6950 sicherlich unter 300 Euro, max. 320 Euro kaufbar,- und nur miniaml langsamer als GTX580 (Spekulation!!)

Somit würde man die NV Konkrrenz extrem unter Druck setzen.:wink:

boxleitnerb
2010-11-13, 10:40:06
P/L und der Enthusiastbereich beißen sich ein bisschen. P/L interpretiere ich so, dass Cayman langsamer als GF110 aber überproportional günstiger wird.

K4mPFwUr$t
2010-11-13, 10:42:24
hoffentlich wird die 69xx dann auch wirklich schneller wie das vorgänger model und nicht ein rückschritt wie bei der 68xx. am ende kann man sich gleich eine 59xx/58xx kaufen und fährt damit günstiger und schneller.

Ailuros
2010-11-13, 11:01:37
With all due respect, Ailuros, wenn Cayman wirklich 4-D ist, dann ist das IMHO ziemlich nah an 'neue Architektur'.

Dann waere unter der Logik GF104 auch eine "neue" Architektur im Vergleich zu GF100.

Ich hab nicht die blasseste Ahnung was jeglicher der beiden IHVs original fuer 32nm geplant hatten, aber dass momentan nichts ausserhalb 40G erhaeltlich ist hat die roadmaps beider IHVs beeinflusst.

Wuerde es Indizien geben dass Cayman ein sehr grosses Prozentual an Transistoren bzw. die area im Vergleich zu Cypress dazulegt koennte ich es noch verstehen, aber es waere immer noch ein Refresh.

Zu den Gründen der Launch-Verschiebung:

1. Fehlende Bauteile, das könnte schon zutreffen, aber deswegen verschiebt man nicht den Launch des High-Margin-Products, sondern produziert weniger Barts und mehr Cypress.

2. Kühllösung, das könnte auch zutreffen, aber wie gesagt, da verschiebt man nicht den Launch, sondern schiebt so schnell wie möglich Partner-Karten mit Custom-Cooling nach.

3. & 4. Leistung in Bezug zur 580. Life's a bitch, get over it!

Persönlich würde ich jedoch auf 5 oder 6 tippen:

5. Mangelhafter Treiber in Verbindung mit
6. Chip-Fehler (ähnliche wie beim GF100er, die dazu führten, dass mehrere Steppings nötig waren, wie schon in diesem Thread erwähnt, Cayman wird sicher nicht im A1 oder A2-Stepping erscheinen.

Zum Chip selbst, denke ich, dass man 1536 SP für die Pro-Version als gesetzt annehmen könnte, weil höchstwahrscheinlich alle Board-Partner diese Information bekommen haben.

Da die XT-Version komplett MBA ist hier alles offen.

Wie waere es mit Nummer 7: TSMC's Kapazitaeten erlauben keinen realen hard launch fuer 6950/6970 und etwas spaeter 6990 da alle drei auf dem gleichen chip basieren?

http://www.xbitlabs.com/news/video/display/20101029232022_ATI_Still_Suffers_from_TSMC_s_40nm_Problems_Company.html

Es ist schon das dritte Mal dass ich darauf verlinke:

It should be noted that while AMD does not expect to meet demand on its newest chip this quarter, it does not blame TSMC for that.

"We have just launched a new product. With the launch of every new product the demand often outstrips supply as we ramp up production. I do not see it as a 40nm capacity issue, but it is an normal issue during the ramp up process. There could be issues with availability of our new products, but those may not be capacity issues," added Mr. Skynner.

Mit TSMC's bloeden Versprechungen kann sich jeder IHV etwas verzetteln. Uebrigens nochmal NVIDIA hat "off the record" zugegeben dass sie den GTX580 vorgezogen haben.

Botcruscher
2010-11-13, 11:11:25
Was ist eigentlich mit der zweiten TSMC Fab?

Dural
2010-11-13, 11:44:54
Die single GPUs von AMD nähern sich leistungsmäßig denen von NV kontinuierlich seit g80 vs R600.



nähert sich??? hab ich was verpasst oder was??? zwischen GF110 und RV870 liegen im schnitt 30-50%

und der GF110 ist eigentlich nichts anderes als ein GF100B, der abstand zwischen AMD und NV ist derzeit so gross wie schon lange nicht mehr!

und was Cayman bringt würde ich mal abwarten... aber von einem annähern kann überhaupt nicht gesprochen werden, NV hat die letzten jahre immer etwa gleich grosse DIEs um die 500mm2 und konnte sich so von AMD aktuell deutlich absetzten, ganz im gegensatz zu AMD die von 400mm2 auf 200mm2 auf 260mm2 und jetzt 340mm2 gegangen sind.

Cayman wird bei um die 450mm2 vermutet, also wider eine deutlich ansteigerung, ich sehe bei besstem willen kein annähern, ganz im gegenteil AMD fahrt immer wie mehr in eine sackgasse mit ihrer Architektur, man erinnere sich nur mal an RV870 vs RV790 satte 130% mehr transistoren für lächerliche 55% mehr leistung im schnitt, NV hat mit 110% transistoren satte ca. 100% im schitt mehr leistung rausgeholt!!!

wenn man das jetzt mal hochrechnet von 1Miliarde 260mm2 RV790 zu einem Cayman mit ca. 2,5Miliarde transistoren und ca. 450mm2 sind das über satte 150% mehr (je nach dem wie gross das teil ist...) für im schnitt sehr warscheinlich nicht mal 100% mehr leistung als RV790.

Da gibt es weit und breit kein annähern, ganz im gegenteil AMD verschlechtert sich immer wie mehr in dem bereich!

DeadMeat
2010-11-13, 11:56:12
Dir ist aber schon klar das du GF110 in dem Fall nicht mit Cypress vergleichen darfst?
Und gleich wären sie wenn sie bei gleicher Chipgröße und gleichvielen Einheiten gleichschnell wären. Erst wenn sie dann langsamer wären könnte man vom falschen Weg reden.
Etwas biased deine Aussage oder?

fondness
2010-11-13, 12:00:32
nähert sich??? hab ich was verpasst oder was???

Nein, du bastelst dir nur mal wieder deine Realität zusammen. OgrEGT hat mit seiner Analyse vollkommen Recht. Wenn AMD den schnellsten Chip haben wollte, würden sie ein >500mm² Die bauen. So bauen sie weiter Chips für die Volumenmärkte, achten auf eine gute time-to-market, können ihre Marktanteile weiter ausbauen und basteln für das High-End wie üblich eine Dual-GPU. Man hält - trotz erheblicher Lieferschwierigkeiten - 90% des DX11-Marktes, da kann sich NV gerne das eine Prozent Ultra-High-End schnappen.

Dural
2010-11-13, 12:04:31
AMD und 500mm2 chip bauen wenn sie schon jetzt wider mit einem 400mm2+ probleme haben hahaha der war gut!!!


ist das wirklich so schwer zu verstehen?

RV790 mit 260mm2 vs GT200b mit 500mm2 liegen 10% im schnitt

jetzt haben wir im besstenfall:

GF110 mit 520mm2 vs Cayman mit ca. 430mm2 (die zahl ist schon seit monaten im gespräch) und im bessten fall gleich schnell! (mehr wird es nie)


TDP GTX580 244Watt
TDP 6970 angebliche 252Watt ("bestätigung" durch 8-Phasen PCB)


Das sind (derzeitigen) Fakten und wenn ihr aktuell in der schule aufpasst könntet ihr das sogar selber ausrechnen ;)

fondness
2010-11-13, 12:10:28
AMD und 500mm2 chip bauen wenn sie schon jetzt wider mit einem 400mm2+ wider probleme haben hahaha der war gut!!!


ist das wirklich so schwer zu verstehne?

RV790 mit 260mm2 vs GT200b mit 500mm2 liegen 10% im schnitt

jetzt haben wir im besstenfall:

GF110 mit 520mm2 vs Cayman mit ca. 430mm2 (die zahl ist schon seit monaten im gespräch) und im bessten fall gleich schnell! (mehr wird es nie)


TDP GTX580 244Watt
TDP 6970 angebliche 252Watt ("bestätigung" durch 8-Phasen PCB)


Das sind (derzeitigen) Fakten und wenn ihr aktuell in der schule aufpasst könntet ihr das sogar selber ausrechnen ;)

Danke das du mir immer wieder beweist das eine Diskussion mit dir keinen Sinn hat. Da werden wie üblich deine Phantasien als Fakten dargestellt, absolut grauenhafter Diskussionsstil. Glaubst du wirklich ich mache mir jetzt die Mühe und bessere das alles aus? Nein sorry, dafür ist mir meine Zeit zu schade. Da denke ich mir lieber meinen Teil.

Nakai
2010-11-13, 12:28:51
Es ist unglaublich, wieviele Leute hier mit dämlichen Halbwissen und Halbwahrheiten Fakten und Theorien zusammenbasteln. Vor allem gewisse IHV-Huldiger sollten einfach mal die Klappe halten, da sonst eh nur totaler Mist aus ihrer Fresse kommt.

Nur ein paar Leute haben hier das Niveau hier eigentlich was posten zu dürfen. Seit mehreren Seiten bekommt man hier nur noch geistigen Durchfall zu Gesicht.
Da bekommt man einfach nur noch das Kotzen.

...



Wuerde es Indizien geben dass Cayman ein sehr grosses Prozentual an Transistoren bzw. die area im Vergleich zu Cypress dazulegt koennte ich es noch verstehen, aber es waere immer noch ein Refresh.

Mhh, die Definition eines Refreshs is dann aber ziemlich zweideutig. Mir ist es ziemlich egal, was genau ein Refresh genannt wird. Neue Architekturen(kein Refresh) klassifizieren sich aber meistens durch Performance und Features.

Wie waere es mit Nummer 7: TSMC's Kapazitaeten erlauben keinen realen hard launch fuer 6950/6970 und etwas spaeter 6990 da alle drei auf dem gleichen chip basieren?

Das würde ich auch fast glauben. Ich denke eher noch, dass AMD auch erstmal Lagerbestände entsorgen will. Vor allem wenn man bedenkt, dass man noch viele ältere Chips mitproduzieren will.


mfg

Bucklew
2010-11-13, 12:36:22
Entscheidender wird sein, ob AMD auch in anderen Bereichen wie BQ zu NV aufschließen wird können.
Seit den letzten "Verbesserungen" in Sachen BQ bei ATI, glaubt doch da jetzt nicht mehr wirklich jemand dran, oder? Solange nicht (ala G70) fett neben jedem Geizhals-Artikel auf diese Cheats hingewiesen werden und sie bei jedem Review groß erwähnt werden, wird sich gar nix ändern. Es wird sich eher noch verschlimmern (siehe Barts).

Traurig aber wahr.

Mit TSMC's bloeden Versprechungen kann sich jeder IHV etwas verzetteln. Uebrigens nochmal NVIDIA hat "off the record" zugegeben dass sie den GTX580 vorgezogen haben.
Hast du dafür einen weiterführenden Link? Rein Interessehalber ;)

DeadMeat
2010-11-13, 12:46:32
Seit den letzten "Verbesserungen" in Sachen BQ bei ATI, glaubt doch da jetzt nicht mehr wirklich jemand dran, oder? Solange nicht (ala G70) fett neben jedem Geizhals-Artikel auf diese Cheats hingewiesen werden und sie bei jedem Review groß erwähnt werden, wird sich gar nix ändern. Es wird sich eher noch verschlimmern (siehe Barts).


Das Problem musst du auf Seiten der Nutzer sehen, ich behaupte mal fast alle sehen nichtmal Unterschiede in den Punkten, die meisten benutzen nichtmal AA/AF, von NV HQ AF haben die meisten bisher auch nichts gehört.
Wenn sie die Grundsätzlichen Funktionen nicht benutzen oder nicht kennen, bringen Detail verbesserungen dort auch nichts. Dazu kommen halt dann sachen wie bei den CoD Spielen , da möchte man die Texturen am liebsten gar nicht scharf sehen ;(

OgrEGT
2010-11-13, 12:47:41
nähert sich??? hab ich was verpasst oder was??? zwischen GF110 und RV870 liegen im schnitt 30-50%

und der GF110 ist eigentlich nichts anderes als ein GF100B, der abstand zwischen AMD und NV ist derzeit so gross wie schon lange nicht mehr!

Den Vergleich GF110 und RV870 hatte ich auch nicht gezogen. Man muss innerhalb einer Generation vergleichen.

GT200(b) - RV770 (129 vs 100%) (1920 4AA 16AF computerbase)
GF100 - RV870 (115 vs 100% (1920 4AA 16AF computerbase)
GF110 - RV970 (spekulierter Gleichstand)

Und gerade das Delta verringert sich zusehends, und das bei stets kleinerem Chip und geringerem Stromverbrauch. Das ist ein klar positiver Trend.


Cayman wird bei um die 450mm2 vermutet, also wider eine deutlich ansteigerung, ich sehe bei besstem willen kein annähern, ganz im gegenteil AMD fahrt immer wie mehr in eine sackgasse mit ihrer Architektur, man erinnere sich nur mal an RV870 vs RV790 satte 130% mehr transistoren für lächerliche 55% mehr leistung im schnitt, NV hat mit 110% transistoren satte ca. 100% im schitt mehr leistung rausgeholt!!!

Kein Grund sich aufzuregen. Barts hat gezeigt, dass man an Bottlenecks gearbeitet hat, und fast (ca. 90%) der Leistung einer 5870 aus wesentlich weniger VLIW Einheiten (1600 vs 1120) herausholen kann.

Bucklew
2010-11-13, 12:48:36
Das Problem musst du auf Seiten der Nutzer sehen, ich behaupte mal fast alle sehen nichtmal Unterschiede in den Punkten, die meisten benutzen nichtmal AA/AF, von NV HQ AF haben die meisten bisher auch nichts gehört.
Genau deswegen muss es halt überall stehen. Hat beim G70 ja auch geklappt.

OgrEGT
2010-11-13, 12:55:00
Den Vergleich GF110 und RV870 hatte ich auch nicht gezogen. Man muss innerhalb einer Generation vergleichen.

GT200(b) - RV770 (129 vs 100%) (1920 4AA 16AF computerbase)
GF100 - RV870 (115 vs 100% (1920 4AA 16AF computerbase)
GF110 - RV970 (spekulierter Gleichstand)

Und gerade das Delta verringert sich zusehends, und das bei stets kleinerem Chip und geringerem Stromverbrauch. Das ist ein klar positiver Trend.

Ich gebe zu, dass der Aufwand bzgl. Perf/W und Perf/mm2 ebenfalls bei AMD steigt. Niemand glaubt an Zauberei. Wie das Verhätnis dann schlussendlich bei Cayman aussieht, können wir nur nach offiziellen Tests sagen. Ob dieser Trend auch noch bei der Folgegeneration in 28nm anhält wird sich zeigen. Gerade Perf/W wird zu einem großen Teil vom zukünftgen Fertigungsprozess abhängen. Also GF vs TSMC Prozess.

DeadMeat
2010-11-13, 12:59:49
Mit ausnahme von den nicht representativen Foren wie das hier, würde es auch niemandem Auffallen wenn sie es zurückschrauben.
Klar wäre es besser wenn es überall stehen würde, aber dann wird doch eh wieder nur auf die Balken gesehen.
Ich hab da keine Hoffnung, micht stört es jetzt allerdings auch nicht so stark das ich keine ATIs mehr benutzen würde.

igg
2010-11-13, 14:21:03
2. Was zum Teufel macht es fuer AMD einen Unterschied ob Cayman XT jetzt 10% langsamer ist als die 580, gleich schnell oder sogar 10% schneller?
Das ist einfach: Wenn Cayman schneller als GF110 ist, können sie mit Antilles vermutlich auch die erwartete Dual-Karte von NV schlagen. Andernfalls verlieren sie 2x.

ChaosTM
2010-11-13, 14:30:49
Das ganze wird ein Patt.
DX9/10 wird knapp an AMD gehen und DX11 an Nvidia.
Und beide werden sich rühmen, die schnellste Karte zu haben. ;)
Verkauft wird dann über den Preis und die, jeweils für den einzelnen, wichtigeren Features.

davidzo
2010-11-13, 14:31:38
Das ist einfach: Wenn Cayman schneller als GF110 ist, können sie mit Antilles vermutlich auch die erwartete Dual-Karte von NV schlagen. Andernfalls verlieren sie 2x.

die erwartete dualkarte basiert aber nicht auf gf110 sondern auf dem gf104 nachfolger (gf112/114?). da würde man wohl sogar mit zweimal barts XT gleichziehen können.

Wenn Cayman also 10% langsamer als die 580 ist würde das für Antilles immer noch locker reichen. zwei GF110 sehen wir so schnell nicht auf einem PCB (außer evtl. von asus un homöopathischen mengen).

Mancko
2010-11-13, 15:13:36
die erwartete dualkarte basiert aber nicht auf gf110 sondern auf dem gf104 nachfolger (gf112/114?). da würde man wohl sogar mit zweimal barts XT gleichziehen können.

Wenn Cayman also 10% langsamer als die 580 ist würde das für Antilles immer noch locker reichen. zwei GF110 sehen wir so schnell nicht auf einem PCB (außer evtl. von asus un homöopathischen mengen).

Also wenn die Dual Karte nicht auf GF110 basiert dann auf dem Chip der für die GTX560 genutzt wird und der wird Barts aus dem Performance / Midrange segment wegblasen. Barts XT ist ja nichtmal in der Lage die 460OC Produkte zu schlagen. Barts ist eine ganz ganz schwache Vorstellung von AMD seit langem. Cayman wird so schwach nicht werden aber Barts ist wirklich mittelfristig ein Fail und das sehen wir spätestens im Januar.

fondness
2010-11-13, 15:28:35
Also wenn die Dual Karte nicht auf GF110 basiert dann auf dem Chip der für die GTX560 genutzt wird und der wird Barts aus dem Performance / Midrange segment wegblasen. Barts XT ist ja nichtmal in der Lage die 460OC Produkte zu schlagen. Barts ist eine ganz ganz schwache Vorstellung von AMD seit langem. Cayman wird so schwach nicht werden aber Barts ist wirklich mittelfristig ein Fail und das sehen wir spätestens im Januar.

Warum sollte Barts einen vollen GF104 schlagen? Barts ist kaum größer als GF106. Schwach ist daran gar nichts, das nennt man Marktausrichtung.

y33H@
2010-11-13, 15:37:12
Schwach ist die Tessellation-Leistung, schwach sind die TMUs ;) Ansonsten ist Barts von Performance/mm² eine Hausnummer.

Satchmo90
2010-11-13, 15:41:15
Aber nur mal so eine Anmerkung, was intressiert mich die Performance/mm². Wie viel Gewinn die Firma macht ist mir völlig egal, wichtig ist die Leistung, Featuers und der Verbrauch. Der Preis wird sowieso nach Konkurenz und Nachfrage gebildet.
==> Die Die-Größe kann mir als Kunde doch völlig egal sein oder nicht? Vielleicht sehe ich das auch falsch aber so ist mein Eindruck

fondness
2010-11-13, 15:47:08
Aber nur mal so eine Anmerkung, was intressiert mich die Performance/mm². Wie viel Gewinn die Firma macht ist mir völlig egal, wichtig ist die Leistung, Featuers und der Verbrauch. Der Preis wird sowieso nach Konkurenz und Nachfrage gebildet.
==> Die Die-Größe kann mir als Kunde doch völlig egal sein oder nicht? Vielleicht sehe ich das auch falsch aber so ist mein Eindruck

Natürlich hast du recht. Aber es zeigt trotzdem wieviel Spielraum man hat. Nachdem man die ersten early-adopter abgezockt hat dürfte der Preis relativ rasch unter 100EUR fallen. Und dann sieht die Sache schon wieder anders aus, auch was die Tesslationsleistung betrifft. Nur die bescheidenen TMUs sind leider unkaputtbar.

Chris2CB
2010-11-13, 16:18:33
Natürlich hast du recht. Aber es zeigt trotzdem wieviel Spielraum man hat. Nachdem man die ersten early-adopter abgezockt hat dürfte der Preis relativ rasch unter 100EUR fallen. Und dann sieht die Sache schon wieder anders aus, auch was die Tesslationsleistung betrifft. Nur die bescheidenen TMUs sind leider unkaputtbar.


Die wenigsten Nutzer dieses Forums haben Ahnung vom Chipaufbau, was dann dazu führt das Nutzer wie LovesuckZ oder Dural den Thread hier mit ihren (wie man es von besoffenen Fussball Fans gewohnt ist) Parolen zu müllen, aber über die Leistung, Verbrauch, Feature nichts bekannt ist.

Für jemand der Lust hat sich eine GTX580 zu kaufen auch Interessant ist, weil die würde bei einem schnellen Chip seitens AMD ein gutes Stück günstiger werden.

LovesuckZ
2010-11-13, 16:23:15
Die wenigsten Nutzer dieses Forums haben Ahnung vom Chipaufbau, was dann dazu führt das Nutzer wie LovesuckZ oder Dural den Thread hier mit ihren (wie man es von besoffenen Fussball Fans gewohnt ist) Parolen zu müllen, aber über die Leistung, Verbrauch, Feature nichts bekannt ist.

Für jemand der Lust hat sich eine GTX580 zu kaufen auch Interessant ist, weil die würde bei einem schnellen Chip seitens AMD ein gutes Stück günstiger werden.

Stimmt. Sieht man ja wie billig Barts ist. Ganze... Ach nein, AMD verkauft Barts erheblich teurer als nVidia GF104.
Zum Glück kann man mit Unsinn das Internet zu müllen und sich dabei noch ganz toll fühlen.:lol:

Aber nur mal so eine Anmerkung, was intressiert mich die Performance/mm². Wie viel Gewinn die Firma macht ist mir völlig egal, wichtig ist die Leistung, Featuers und der Verbrauch. Der Preis wird sowieso nach Konkurenz und Nachfrage gebildet.
==> Die Die-Größe kann mir als Kunde doch völlig egal sein oder nicht? Vielleicht sehe ich das auch falsch aber so ist mein Eindruck

Richtig. Dieses ganze Die-Size Gequatsche ist reines Marketing, weil für den Kunden komplett uninteressant.

OgrEGT
2010-11-13, 16:48:56
Richtig. Dieses ganze Die-Size Gequatsche ist reines Marketing, weil für den Kunden komplett uninteressant.

Wenn überhaupt ist das indirekt interessant auch für den Kunden, da wesentlich größere (Edit: nicht teildeaktivierte) GPUs i.d.R. auch höhere Leistungsaufnahmen haben, was indirekt über den Kühlungsaufwand und somit über die Lautstärke der Kühllösung direkt sichtbar wird.

Manchen Kunden (auch von Highend Grafikkarten) ist das nicht unwichtig.

Generell jedoch, wenn es um die reine Preisgestaltung geht, und die Kosten einer größeren GPU (weil möglicherweise höhere Herstellungskosten) vom Hersteller nicht direkt an die Kunden weitergegeben wird, hast Du recht.

Wichtig ist am Ende immer auch der Preis.

LovesuckZ
2010-11-13, 16:54:09
Wenn überhaupt ist das indirekt interessant auch für den Kunden, da wesentlich größere GPUs i.d.R. auch höhere Leistungsaufnahmen haben, was indirekt über den Kühlungsaufwand und somit über die Lautstärke der Kühllösung direkt sichtbar wird.

Manchen Kunden (auch von Highend Grafikkarten) ist das nicht unwichtig.

Stromverbrauch ist auch nicht abhängig vom Die-Size. So benötigt eine 6870 knapp mehr Strom als eine 5850, trotz dem der Chip nur 76% so groß ist.

OgrEGT
2010-11-13, 17:11:33
Stromverbrauch ist auch nicht abhängig vom Die-Size. So benötigt eine 6870 knapp mehr Strom als eine 5850, trotz dem der Chip nur 76% so groß ist.

OK, bei teildeaktivierten Chips kann das natürlich sein. Meine Aussage bezog sich auf nicht-teildeaktivierte Chips.

Edit:
Habs oben editiert.

LovesuckZ
2010-11-13, 17:14:11
OK, bei teildeaktivierten Chips kann das natürlich sein. Meine Aussage bezog sich auf nicht-teildeaktivierte Chips.

Eine 6870 erreicht leider nicht die Leistung einer 5870. Man müsste also den Chip höher takten, wozu man dann auch wieder eine höhere Spannung benötigt. Das zeigt, dass der Stromverbrauch nicht vom Die-Size abhängig ist, sondern eine Vielzahl anderer Faktoren - Transistorenanzahl, Anzahl an gleichzeitig schaltenen Transistoren, Taktrate, Spannung...

OgrEGT
2010-11-13, 17:33:48
Eine 6870 erreicht leider nicht die Leistung einer 5870. Man müsste also den Chip höher takten, wozu man dann auch wieder eine höhere Spannung benötigt. Das zeigt, dass der Stromverbrauch nicht vom Die-Size abhängig ist, sondern eine Vielzahl anderer Faktoren - Transistorenanzahl, Anzahl an gleichzeitig schaltenen Transistoren, Taktrate, Spannung...

Ja klar, der RV870 ist auch größer :)
Perf/mm2 ist sogar leicht besser als bei HD5870.

Die anderen Faktoren wie Taktrate und Spannung haben logischerweise ebenfalls Einfluss auf die Verlustleistung, ebenso der Fertigungsprozess und das darauf abgestimmte Design.

mboeller
2010-11-13, 17:35:13
Also wenn die Dual Karte nicht auf GF110 basiert dann auf dem Chip der für die GTX560 genutzt wird und der wird Barts aus dem Performance / Midrange segment wegblasen. Barts XT ist ja nichtmal in der Lage die 460OC Produkte zu schlagen. Barts ist eine ganz ganz schwache Vorstellung von AMD seit langem. Cayman wird so schwach nicht werden aber Barts ist wirklich mittelfristig ein Fail und das sehen wir spätestens im Januar.

[ ] du weist wie schnell eine HD6870 ist....

Wenn man sich das Performance-Rating auf Computerbase anschaut sieht man, das @ 1920x1200 4xAA 16AF eine HD6870 ca. 22% schneller ist als eine GTX460 mit 1GB Speicher. Eine GTX560 mit vollen 16 Shaderblöcken müsste also, um gleich schnell wie eine HD6870 zu sein mit ca. (1,22 x 675 x 7/8= ) 720MHz laufen (Basetakt). Erwartest du wirklich, das die GTX560 mit >800 MHz kommen wird um wie du dich ausdrückst die HD6870 "wegzublasen". Nur dann wäre sie nämlich ca. 10% schneller als eine HD6870. Ansonsten sind die Unterschiede zwischen einer HD6870 und einer immer noch hypothetischen GTX560 marginal.


http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_ratings

LovesuckZ
2010-11-13, 17:40:17
Man sollte schon das richtige Performancerating von Computerbase.de verlinken:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating

18% Vorsprung trotz schlechterer Grundfilterung.

Botcruscher
2010-11-13, 17:44:51
Unter wegblasen verstehe ich etwas anderes. Die Dinger werden gleichauf sein und dann nach bedarf der Preis angepasst.

Gluckstaler
2010-11-13, 18:28:12
[ ] du weist wie schnell eine HD6870 ist....

Wenn man sich das Performance-Rating auf Computerbase anschaut sieht man, das @ 1920x1200 4xAA 16AF eine HD6870 ca. 22% schneller ist als eine GTX460 mit 1GB Speicher. Eine GTX560 mit vollen 16 Shaderblöcken müsste also, um gleich schnell wie eine HD6870 zu sein mit ca. (1,22 x 675 x 15/16= ) 772MHz laufen (Basetakt). Erwartest du wirklich, das die GTX560 mit >850 MHz kommen wird um wie du dich ausdrückst die HD6870 "wegzublasen". Nur dann wäre sie nämlich ca. 10% schneller als eine HD6870. Ansonsten sind die Unterschiede zwischen einer HD6870 und einer immer noch hypothetischen GTX560 marginal.


http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_ratings


ATI wird seid Juli von NVidia 'weggeblasen' ganz einfach weil die Speedbin (800+Mhz) 460er im Retail das beste Preis-Leistungsverhältnis hat.

Ums laut und deutlich auszudrücken: Die Speedbin 460er und die 6870er haben die gleiche Performance, nur ist ist die 6870er:

- teurer
- & mit nem Scheiss-Fön (Blower)

ausgestattet. Niemand kratzt's welcher Chip die grösste Performance / mm2 hat.

Und ja, ich erwarte beinem einem Base-Layer-Respin, dass der Chip etwa 50 Mhz zulegt. Das haben wir ja bei Barts auch gesehen.

Das was zurzeit als 460er bezeichnet wird, wird dann mit 750 Mhz getaktet sein, und somit zwischen 6850 und 6870 liegen.

Locuza
2010-11-13, 18:29:41
Ich habe da mal eine Frage bezüglich der AF-Qualität von der 5000-Serie. Sind die TMU's und ihre Filterqualität nicht das beste was AMD/ ATI jemals dem Kunden bieten konnte?

Ich lese hin und wieder, dass einige meinen die Filterqualität vom R580 war besser als die vom R600, wobei in den Reviews darüber berichtet wurde das die Filterqualität vom R600 ein Tick besser ist, als von der X1900-Serie.

y33H@
2010-11-13, 18:40:01
R58x filtert besser als R600 bis heute.

crux2005
2010-11-13, 18:47:04
Du darfst die Angle-Independence nicht vergessen ;D

y33H@
2010-11-13, 18:48:37
Area-AF reicht *SCNR*

Raff
2010-11-13, 18:50:22
Du darfst die Angle-Independence nicht vergessen ;D

... sprach der Dave. ;) Die Gradientenberechung via Area-AF ist bei 16:1 gut genug, um nicht zu merken, dass der Chip da pfuscht. Ist A.I. aus, filtert ein R5x0 besser als jede Radeon danach – mit A.I. Standard nicht unbedingt.

MfG,
Raff

airbag
2010-11-13, 18:51:00
Ich habe da mal eine Frage bezüglich der AF-Qualität von der 5000-Serie. Sind die TMU's und ihre Filterqualität nicht das beste was AMD/ ATI jemals dem Kunden bieten konnte?


Das Beste. Mhh nicht ganz;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8362448&postcount=1677
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8374813&postcount=1686
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8383575&postcount=1704
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8385526&postcount=1728 --> zum Verlgleich mti #1704
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8383736&postcount=1711 --> sogar schlechter als HP von Nvidia, aber gut mit Clamp

Locuza
2010-11-13, 19:14:49
Mhh dann war es damals wohl falsch, eine leichte Verbesserung diagnostiziert zu haben. In den Artikeln von Computerbase und 3DCenter.

Ich bin da etwas verwirrt, denn wenn A.I- OFF auf einer 58X0 die Native Filterung, ohne Treiber-Hacks darstellen muss, dann müssen die TMU's auf einer R5X ja besser sein?

Wie hoch schätzt ihr die Wahrscheinlichkeit, dass AMD bei der neuen 6900 Serie die TMU's benützt, in dem Verfahren, welches sie patentiert haben?

Oft ist ja so das die Patente, welche man findet, gar nicht in zukünftige Produkte einfließen und wirklich lange auf sich warten lassen können. Hier hofft wohl jeder das AMD endlich eine angemessene Filterung für einem High-End Produkt bietet. Ich hoffe AMD verzichtet auf ein paar % - Punkte. Ich bete das die TMU's leistungsfähiger ausfallen, damit selbst mit besserer Qualität, AMD keine all zu geringere Balken bekommt.

Wenn die dadurch 10% Perfomance verlieren, werden sie das niemals tun. S
Sicherlich nicht einmal bei 5%. Wobei gute AF- Filterung auf einem GF100 keine 3% Leistung kostet und auch auf der 68XX-Serie kostet besseres AF im schnitt wohl nur 6%.

Ich hoffe ja, selbst wenn die 69XX Serie bessere TMU's bekommt, sich AMD nicht genötigt fühlt da solche Treiberhacks reinzuknallen, dass die Qualität der neuen Generation ungefähr gleichwertig zu der alten ist, nur für paar % - Punkte mehr.

Hoffentlich wird das AMD aufgrund der schlechten deutschen Presse nicht tun. Leider haben die Amerikanischen Magazine fast gar nichts zum Thema schlechter Filterung gesagt.


@ airbag
Die Links sind wirklich sehr gut.

airbag
2010-11-13, 19:18:53
Ich denke mal, dass die Artikel von damals R600 vs. R580 mit AI. Standard getestet haben. Deswegen das verfälschte Fazit

Mancko
2010-11-13, 22:17:15
Warum sollte Barts einen vollen GF104 schlagen? Barts ist kaum größer als GF106. Schwach ist daran gar nichts, das nennt man Marktausrichtung.

Das scheint AMD aber anders zu sehen als du :) Die haben doch glatt gegenüber Analysten zugegeben, dass GF104 sehr erfolgreich ist. Ich wette das die das tierisch nervt. Barts war schon zu weit fortgeschritten in der Entwicklung um da noch großartig zu reagieren und die haben 100% nicht damit gerechnet, dass Nvidia so dreist ist den GF104 an der Grenze zwischen Mid-Range und Performance Segment preislich zu plazieren. Die werden im Januar noch viel größere Augen machen, wenn dann in der Preiskategorie die GTX560 als fully enabled GF104 mit kleinen minimalen Überarbeitungen antritt mit natürlich gewohnt hohen Taktraten. Da hat die HD6870 und auch 6850 ganz schlechte Karten.

Ailuros
2010-11-13, 22:30:42
Das ist einfach: Wenn Cayman schneller als GF110 ist, können sie mit Antilles vermutlich auch die erwartete Dual-Karte von NV schlagen. Andernfalls verlieren sie 2x.

Aus was genau soll denn die NV GX2 genau bestehen? Mit einem TDP von 244W pro GF110 chip wohl nicht. Das letzte Mal dass NV eine GX2 baute hatte jeder GTX275 chip auf GTX260 Frequenzen einen TDP von 170W um im Dualgespann dann noch auf 289W zu liegen.

Nun reduzier mal einen GF110 damit er nur =/>170W TDP hat und dann koennen wir davon die Leistung besprechen.

horn 12
2010-11-13, 22:41:02
@Ailuros

BITTE um Deine werte! Einschätzung bezüglich der Performance und des Preises bei der HD6950 und HD6970 ?

Kann ich denn soo
Kann ich denn sooo daneben liegen ?:wink:;D

Dank!:smile:

Ailuros
2010-11-13, 22:47:23
Mhh, die Definition eines Refreshs is dann aber ziemlich zweideutig. Mir ist es ziemlich egal, was genau ein Refresh genannt wird. Neue Architekturen(kein Refresh) klassifizieren sich aber meistens durch Performance und Features.

Eine "wahre" neue Generation ist eher eine neue Technologie-Generation die von einer neueren API Revision bestimmt.

Was soll denn Cayman genau tolles an Leistung oder features im Vergleich zu Cypress genau bieten? Sie sagten selber dass es sie nur minimal Transistoren gekostet hat die Tessellations-Leistung aufzupfuschen und ja obwohl die paar Stellen die in Evergreen stockten beseitigt sind, heisst es immer noch dass nichts fundamentales an der Architektur geaendert wurde. Fuer heute ist es aber trotz allem gut genug.

Wenn der ganze Radau jetzt ueber 4D sein sollte, Gott im Himmel wie viel Unterschied glaubt Ihr ueberhaupt dass das Ganze wirklich machen wird?

Nochmal bei RV770 kam es zu durchschnittlichen 60% Mehrleistung mit 4xMSAA im Vergleich zu RV670 weil eben erstmal shader resolve weg vom Fenster war beim 770 und die Z-Faehigkeiten der ROPs aufgepumpt wurden. Ohne MSAA war der durchschnittliche Unterschied zum RV670 um einiges bescheidener. Die paar Aenderungen fuer Tessellation auf Cayman gerechtfertigen keinesfalls eine ebenbuertige Steigerung im Durchschnitt wie beim 770, ergo werden wohl doch einige mit einer um einiges bescheidener Realitaet am Ende nach dem launch leben muessen.

Wenn es zu Tessellation kommt ist Cayman ein quasi "RV670" und erst die 28nm ist der "RV770" der Tessellation. Der Grund heisst ZEITMANGEL und dieses verstaerkt auch mehr als ALLES andere die Bezeichnung "refresh".

Das würde ich auch fast glauben. Ich denke eher noch, dass AMD auch erstmal Lagerbestände entsorgen will. Vor allem wenn man bedenkt, dass man noch viele ältere Chips mitproduzieren will.


mfg

Mein voriger Link bestand aus einigen Aussagen von AMD Angestellten diesbezueglich. Klarer koennen Ihre Aussagen gar nicht sein. Es ist ja auch nicht so dass die GTX580er den Markt ueberschwemmt haben, egal was einige glauben wollen. Bei den eh zu hohen Preisen wird das Interesse sowieso nicht ueberragend gross sein.

@Ailuros

BITTE um Deine werte! Einschätzung bezüglich der Performance und des Preises bei der HD6950 und HD6970 ?

Ich hab mich dazu mehr als nur einmal geaeussert.

Kann ich denn soo
Kann ich denn sooo daneben liegen ?:wink:;D

Dank!:smile:

Zeig mir einen einzigen ATI bzw. AMD GPU launch wo Du persoenlich nicht zu optimistisch warst. Leute AMD kocht auch nur mit Wasser, im gegebenen Fall heisst es 40G@TSMC.

horn 12
2010-11-13, 22:51:44
@Ailuros

Da hast auch wieder Recht.:smile:
Bin oft viel zu optimistisch was AMD/ ATI anging/ angeht.

Dennoch, die Preise wo setzt du diese fest bei der HD6950 / 6970 ?

VinD
2010-11-14, 00:03:15
In Verbindung mit der Launchverschiebung und mögliche Dinge die man in der Zeit noch verändern kann, frage ich mich wie weit der Treiber der Hardware vorschreiben kann, was sie wie machen soll. Zum Beispiel in Sachen TMU/ALU/CACHE/ROPs/Tess =)

Gluckstaler
2010-11-14, 02:52:35
Eine "wahre" neue Generation ist eher eine neue Technologie-Generation die von einer neueren API Revision bestimmt.

Was soll denn Cayman genau tolles an Leistung oder features im Vergleich zu Cypress genau bieten? Sie sagten selber dass es sie nur minimal Transistoren gekostet hat die Tessellations-Leistung aufzupfuschen und ja obwohl die paar Stellen die in Evergreen stockten beseitigt sind, heisst es immer noch dass nichts fundamentales an der Architektur geaendert wurde. Fuer heute ist es aber trotz allem gut genug.

Wenn der ganze Radau jetzt ueber 4D sein sollte, Gott im Himmel wie viel Unterschied glaubt Ihr ueberhaupt dass das Ganze wirklich machen wird?


Du sagst also der Unterschied zwischen dem Cayman und dem Cypress ist kleiner als zwischen 3870 und 4870? Und zwischen 2870 und 3870? Das glaubst du ja selber nur teilweise.

IMHO ist der Unterschied zwischen Cayman und Cypress genauso gross wie zwischen Mac OsX Snowleopard (10.6) und Mac OsX Leopard (10.5).

Die 6000er Generation als ganzes kann man sehr wohl als Refresh bezeichnen, weil alles ausser Cayman nichts wirklich neues ist.


Mein voriger Link bestand aus einigen Aussagen von AMD Angestellten diesbezueglich. Klarer koennen Ihre Aussagen gar nicht sein. Es ist ja auch nicht so dass die GTX580er den Markt ueberschwemmt haben, egal was einige glauben wollen. Bei den eh zu hohen Preisen wird das Interesse sowieso nicht ueberragend gross sein.

Zeig mir einen einzigen ATI bzw. AMD GPU launch wo Du persoenlich nicht zu optimistisch warst. Leute AMD kocht auch nur mit Wasser, im gegebenen Fall heisst es 40G@TSMC.

Wenn NVidia schon wenig Chips zur Verfügung hat, dann verkauft man diese zu dem Preis wo sich Angebot und Nachfrage decken. Das nennt man funktionierende Marktpreise.

Ailuros, es würde mich trotzdem interessieren wo du die Performance von Cayman ansetzt.

Ich habe das Gefühl, dass ATI und NVidia sich die Performance-Punkte untereinander aufteilen:

6850 -> 460 (refresh) -> 6870 -> 560 -> 6950 -> 570 -> 6970 -> 580.

Ums noch genauer auszudrücken: IMHO, 6970 schafft 12'000-13'000 Punkte im Vantage, siehe:

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/5/#abschnitt_3dmark_vantage

Die Preise hängen davon ab,
- bis in welche Regionen das rote und das grüne Team einen Preiskrieg führen möchten.
- Wieviele Wafer AMD bei TSMC bekommt, die fertigen ja zurzeit wie wild auch noch Bobcat APUs. Und 5 Bobcat APUs haben eine weit höhere Gewinnmarge als eine Cayman GPU.

Bobcat ist aber nicht der Grund für die Verschiebung des Launches von Cayman. Bobcat führt nur dazu, dass AMD mit NVidia in den meisten Segmenten teurer ist.

Der Grund für die Verschiebung von Cayman ist eben, dass Cayman kein Refresh ist. Die meisten neuen Architekturen sind late. Refreshs sind ontime:

GF100 -> late
GF110 -> ontime
Barts -> ontime
Vista -> late
Win7 -> ontime

OgrEGT
2010-11-14, 05:07:02
Du sagst also der Unterschied zwischen dem Cayman und dem Cypress ist kleiner als zwischen 3870 und 4870? Und zwischen 2870 und 3870? Das glaubst du ja selber nur teilweise.

IMHO ist der Unterschied zwischen Cayman und Cypress genauso gross wie zwischen Mac OsX Snowleopard (10.6) und Mac OsX Leopard (10.5).

Die 6000er Generation als ganzes kann man sehr wohl als Refresh bezeichnen, weil alles ausser Cayman nichts wirklich neues ist.



Wenn NVidia schon wenig Chips zur Verfügung hat, dann verkauft man diese zu dem Preis wo sich Angebot und Nachfrage decken. Das nennt man funktionierende Marktpreise.

Ailuros, es würde mich trotzdem interessieren wo du die Performance von Cayman ansetzt.

Ich habe das Gefühl, dass ATI und NVidia sich die Performance-Punkte untereinander aufteilen:

6850 -> 460 (refresh) -> 6870 -> 560 -> 6950 -> 570 -> 6970 -> 580.

Ums noch genauer auszudrücken: IMHO, 6970 schafft 12'000-13'000 Punkte im Vantage, siehe:

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/5/#abschnitt_3dmark_vantage

Die Preise hängen davon ab,
- bis in welche Regionen das rote und das grüne Team einen Preiskrieg führen möchten.
- Wieviele Wafer AMD bei TSMC bekommt, die fertigen ja zurzeit wie wild auch noch Bobcat APUs. Und 5 Bobcat APUs haben eine weit höhere Gewinnmarge als eine Cayman GPU.

Bobcat ist aber nicht der Grund für die Verschiebung des Launches von Cayman. Bobcat führt nur dazu, dass AMD mit NVidia in den meisten Segmenten teurer ist.

Der Grund für die Verschiebung von Cayman ist eben, dass Cayman kein Refresh ist. Die meisten neuen Architekturen sind late. Refreshs sind ontime:

GF100 -> late
GF110 -> ontime
Barts -> ontime
Vista -> late
Win7 -> ontime

- Agree. 68x Serie ganz klar Refresh, 69x Serie Next-Gen auf altem Prozess mMn.
- HD 2870 ?:freak:
- Man sieht wieder mal, wie nutzlos 3dMurks ist. Im X-Score liegt die GTX580 >30% vor GTX480, was in Spielebenchmarks im Durchschnitt nicht der Fall ist.
- Klar sind neue Archtikturen bzw. tiefergreifende Erneuerungen egal ob im Software oder Hardwarebereich meistens nicht acc. to schedule, da weniger Erfahrung damit vorhanden ist, als bei einfachen Refreshes.

Ich persönlich freue mich auf die neuen Highend GPUs von AMD. Sie bringen vor allem eines mit, und zwar neuen Wind in diesem Segment, was durch mehr Wettbewerb uns den Kunden nur zugute kommen wird.

Ailuros
2010-11-14, 09:46:16
Du sagst also der Unterschied zwischen dem Cayman und dem Cypress ist kleiner als zwischen 3870 und 4870?

Der Unterschied der beiden mit 4xMSAA war im Durchschnitt bei 60%. Und nein ich glaube nicht dass der durchschnittliche Unterschied so gross sein wird.


Die 6000er Generation als ganzes kann man sehr wohl als Refresh bezeichnen, weil alles ausser Cayman nichts wirklich neues ist.

Es hat sich an der Architektur selber nichts fundamentales geaendert, aber so etwas ist wohl nicht so leicht zum verdauen.


Ailuros, es würde mich trotzdem interessieren wo du die Performance von Cayman ansetzt.

=/>30% je nach finaler Frequenz von XT.


Ums noch genauer auszudrücken: IMHO, 6970 schafft 12'000-13'000 Punkte im Vantage, siehe:

Mich interessieren 3dfart Resultate kein bisschen.


- Wieviele Wafer AMD bei TSMC bekommt, die fertigen ja zurzeit wie wild auch noch Bobcat APUs. Und 5 Bobcat APUs haben eine weit höhere Gewinnmarge als eine Cayman GPU.

NV hat mehr wafer zur Verfuegung als AMD fuer GPUs. Selbst Charlie wird es Dir bestaetigen. Zwar kein grandioser Unterschied aber immerhin.


Der Grund für die Verschiebung von Cayman ist eben, dass Cayman kein Refresh ist. Die meisten neuen Architekturen sind late. Refreshs sind ontime:

GF100 -> late
GF110 -> ontime
Barts -> ontime
Vista -> late
Win7 -> ontime

Wie zum Teufel kann man so ein Ding eine neue Generation nennen, wenn es weder irgendwelche "neue Features" hinzufuegt noch sich die Transistoren-Anzahl bzw. die area besonders steigert? Es muss sich jemand von Euch mal hinsetzen und mir eine halbwegs logische Erklaerung geben WOHER genau die angeblich so hohe zusaetzliche Leistung genau kommen soll.

Noch wichtiger waere der Zeitmangel, aber ich sehe es schon kommen dass mir jemand auf den Buckel binden will dass Cayman ein halbes Jahrzehnt unter Entwicklung lag. Sobald die IHVs davon Wind bekamen dass TSMC 32nm stornieren wird, aenderten sich auch automatisch Ihre roadmaps. Und ja beide wussten gut genug wie weit der Konkurrent unter 40G noch gehen kann.

Theoretisch wer noch vieles mehr "machbar" bei Cayman, nur hapert es dann eben irgendwann beim Stromverbrauch.

Agree. 68x Serie ganz klar Refresh, 69x Serie Next-Gen auf altem Prozess mMn.

Sicher Cayman ist ja wie bekannt DX11.666 kompliant :rolleyes:

horn 12
2010-11-14, 10:27:35
Es wird verdammt eng werden mit dem Weihnachtsgeschäft für AMD, würden sie bereits in der ersten Dezember Woche mit etwas weniger Karten Hardlaunchen wäre es um Welten besser, (Für die Insider allemal)
denn vom 13. bis 19 Dez. und dann noch die Karte unter dem Baum... ich weiss nicht so Recht.:mad:

Vielleicht überlegt sich dies ja AMD nochmals.:confused:

OgrEGT
2010-11-14, 12:14:52
Wie zum Teufel kann man so ein Ding eine neue Generation nennen, wenn es weder irgendwelche "neue Features" hinzufuegt noch sich die Transistoren-Anzahl bzw. die area besonders steigert? Es muss sich jemand von Euch mal hinsetzen und mir eine halbwegs logische Erklaerung geben WOHER genau die angeblich so hohe zusaetzliche Leistung genau kommen soll.

Sicher Cayman ist ja wie bekannt DX11.666 kompliant :rolleyes:

Das habe ich nie gesagt. Muss denn eine "neue Architektur" Deiner Meinung nach gleich ein neues DX Level mitbringen?

Der Umbau der 5D VLIWs in 4D VLIWs + Frontend + TMUs (sofern die Spekus recht behalten) rechtfertigt mMn schon von einer neuen Architektur zu sprechen. Vielleicht nicht gleich neue Philosophie, aber das hat auch niemand behauptet.

Ich weiß nicht ob Du mit dem falschen Fuß aufgestanden bist, jedenfalls würde mich interessieren, was Du genau als neue Architektur bezeichnen würdest?

S940
2010-11-14, 12:38:04
Wenn der ganze Radau jetzt ueber 4D sein sollte, Gott im Himmel wie viel Unterschied glaubt Ihr ueberhaupt dass das Ganze wirklich machen wird?

Wenn es zu Tessellation kommt ist Cayman ein quasi "RV670" und erst die 28nm ist der "RV770" der Tessellation. Der Grund heisst ZEITMANGEL und dieses verstaerkt auch mehr als ALLES andere die Bezeichnung "refresh".

Hmm .. also wie jetzt Cayman ist für Dich nur ein refresh, oder nur der Tesselation Teil ?
Falls Du den komplette Chip meinen solltest versteh ich das Argument nicht, dass Du keinen "Radau" über 4D machen willst. Egal wieviel am Ende leistungsmäßig rauskommt 5D != 4D. Nach dem gleichen Argument kannst Du behaupten, dass der PPro nur ein Pentium Refresh war, da er ja nicht viel schneller war ...

Dural
2010-11-14, 13:03:16
beim cayman kann man schon von einer "neuen" architektur sprechen, aber das wurde jetzt nach der langen R600 zeit auch entlich mal zeit!

die änderungen sind jetzt aber sicher nicht so mega gross, von dem her. von 5D auf 4D dürften es den AMD leute sicher nicht kopfschmerzen bereitet haben ;)

die frage ist was 4D genau bringt und ob sich damit wirklich auch deutlich platz einsparen lässt natürlich bei selber leistung, das muss cayman erst noch beweisen... und nein ich denke nicht das wir ein wirklich deutlicher fortschritt mit cayman sehen werden... nicht um sonst verwendet barts weiterhin 5D...

die erwähnte mehrleistung gegenüber barts ist viel zu gering für das...

AwesomeSauce
2010-11-14, 13:13:14
Die Transcendentials müllen jetzt gleichzeitig x,y und z zu, bei 5D konnte das afair die t-Unit alleine bewältigen. Hat also ein Shader-Programm viele derartige Instruktionen, sinkt der Durchsatz doch gewaltig. Den (durchschnittlichen) Anteil dieser Transcendentials in einem alltäglichen Shader kenne ich allerdings nicht.

4D wird hier von vielen als heiliger Gral der Effizienz hingestellt, es gibt aber wie überall zwei Seiten der Medaille, das darf man nicht vergessen...

Gestrandet
2010-11-14, 13:36:32
Transcendentials?

deekey777
2010-11-14, 13:41:56
Transcendentials?
Special Functions. X-D

sklave_gottes
2010-11-14, 13:54:06
Der Unterschied der beiden(HD4870 zu HD3870) mit 4xMSAA war im Durchschnitt bei 60%. Und nein ich glaube nicht dass der durchschnittliche Unterschied so gross sein wird.


Ich wollte das mal kurz richtigstellen:
Der Lag und liegt bei fast 100% :
http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-4770/19/#abschnitt_performancerating_qualitaet

Sind die 4D jetzt 100% sicher ? Vorallem bin ich echt gespannt ob sie wirklich nichts an den ROPs gemacht haben.

mfg marin

airbag
2010-11-14, 14:01:21
Dafür ist die Leistung von 2900xtx auf HD3870 stagniert. Also kein Wunder das der Leistungsunterschied so hoch ist.
Von daher wird es mit Cayman definitiv nicht so stark ausfallen, außer wenn der VRAM von Cypress limitiert.

derguru
2010-11-14, 14:47:52
Sind die 4D jetzt 100% sicher ? Vorallem bin ich echt gespannt ob sie wirklich nichts an den ROPs gemacht haben.

mfg marin
wenn die folien nicht lügen und davon sollte man ausgehen ist es sicher, siehe seite 1.