Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12
Seiten :
1
2
3
[
4]
5
6
7
8
9
10
11
Ronny145
2011-11-13, 16:42:32
http://obrovsky.blogspot.com/2011/11/radeons-hd7000-launch-dates.html
Wenn das stimmen sollte, wären nur die 79xx GPUs basierend auf GCN und Pitcairn VLIW4.
Pitcairn und CapeVerde.
Ist Pitcairn eine Spekulation gewesen? Laut OBR nur VLIW4. Wäre nicht so toll, dann bekäme nur die 79xx Serie ein gefixtes AF.
edit: Die Original Quelle stammt wohl von hier: http://messages.finance.yahoo.com/Stocks_%28A_to_Z%29/Stocks_A/threadview?m=tm&bn=893&tid=1917491&mid=1917491&tof=7&frt=2
Könnte stimmen, könnte aber auch völlig frei erfunden sein.
Käsetoast
2011-11-13, 16:56:42
Wäre nicht so toll, dann bekäme nur die 79xx Serie ein gefixtes AF.
Das AF ist doch wohl unabhängig von GCN zu sehen. Es geistert doch schon seit einer gefühlten Ewigkeit diese Aussage rum, dass man den "Fehler" gefunden und ausgemerzt hätte. So gesehen denke ich, dass wir bei einem VLIW4 Aufguss - egal in welcher Leistungsklasse er uns nun begegnen wird - ein besseres AF sehen werden...
Ronny145
2011-11-13, 17:00:44
Das AF ist doch wohl unabhängig von GCN zu sehen. Es geistert doch schon seit einer gefühlten Ewigkeit diese Aussage rum, dass man den "Fehler" gefunden und ausgemerzt hätte. So gesehen denke ich, dass wir bei einem VLIW4 Aufguss - egal in welcher Leistungsklasse er uns nun begegnen wird - ein besseres AF sehen werden...
Gefunden ja. Ich bin immer von ausgegangen, dass dies nur für AMDs neue Architektur zutrifft. Wäre natürlich schön wenn auch der VLIW4 refresh den Bugfix spendiert bekommt.
Das bleibt zu hoffen und abzuwarten. Barts wurde auch mit "AF-Fix" beworben. Das stimmte zwar, aber das Evergreen-Banding nebst guter Bildruhe wurde gegen Flimmergrütze getauscht. Es wäre toll, auch bei Ati endlich "Lehrbuch"-AF zu haben. :) Und/oder SSAA in jeder API. :naughty:
MfG,
Raff
Käsetoast
2011-11-13, 17:10:12
Und/oder SSAA in jeder API. :naughty:
Daran glaube ich nicht. Es ist in DX10 bzw. 11 ja sozusagen "verboten" wenn ich das richtig sehe. Ich glaube daher nicht, dass SSAA auch hier eingeführt wird - da wird man Microsoft konform bleiben denke ich...
Um aber beim Thema zu bleiben:
Ich fänd's schick wenn es die 7850 und 7870 noch im Dezember schaffen würden - dann könnten die Weihnachtsferien (also quasi die einzigen Ferien die die Uni mir übrig lässt) für BF3 und SS3 genutzt werden. Habe mir die Anschaffugn eines neuen Systems mit einer 6870 verkniffen, da es ja nur noch ein paar Wochen sind und die Aussicht auf deutlich mehr Leistung, gefixtes AF, sowie evtl. sogar GCN mit zusätzlichen Vorteilen (wie evtl. Tesselation-Leistung auf NVIDIA-Niveau) das Warten wert sind wie ich finde... :smile:
Dir ist schon klar, dass es all das schon ewig gibt? Dafür musst du eben eine (stromfressende) GeForce kaufen. X-D Ich hab's auch fast nur wegen der Features getan, zu langsam ist die GTX 580 OC immer noch. ;(
MfG,
Raff
AnarchX
2011-11-13, 17:11:57
Daran glaube ich nicht. Es ist in DX10 bzw. 11 ja sozusagen "verboten" wenn ich das richtig sehe. Ich glaube daher nicht, dass SSAA auch hier eingeführt wird - da wird man Microsoft konform bleiben denke ich...
Treiberdefault muss WHQL-konform sein, was irgendwelche tief vesteckten Einstellungen oder Zusatztools machen, ist wohl dafür nicht relevant.
Ist Pitcairn eine Spekulation gewesen? Laut OBR nur VLIW4. Wäre nicht so toll, dann bekäme nur die 79xx Serie ein gefixtes AF.
edit: Die Original Quelle stammt wohl von hier: http://messages.finance.yahoo.com/Stocks_%28A_to_Z%29/Stocks_A/threadview?m=tm&bn=893&tid=1917491&mid=1917491&tof=7&frt=2
Könnte stimmen, könnte aber auch völlig frei erfunden sein.
Pitcairn gehört laut Treiber wohl eher zu Tahiti-Familie: http://forum.beyond3d.com/showpost.php?p=1590996&postcount=825
Vielleicht ist an den Chiphell-Gerüchten etwas dran und die HD 7800er sind einfach nur Renamings der HD 6900. ;D
Käsetoast
2011-11-13, 17:14:29
Dir ist schon klar, dass es all das schon ewig gibt? Dafür musst du eben eine (stromfressende) GeForce kaufen. X-D
Das gibt es da aber auch nicht Offiziell und von dem was ich im Kopf habe, kann SSAA durchaus auch zu "Fehlern" in der Grafik führen (weshalb das "Verbot" von SSAA wohl ganz sinnvoll ist). Zugegeben - diese Fehler scheinen relativ selten zu sein, weswegen eine inoffizielle Möglichkeit ganz nett wäre...
Aber wie gesagt: Da das nicht in der DirectX Spezifikation vorgesehen ist glaube ich nicht daran, dass AMD das integrieren wird...
Ronny145
2011-11-13, 17:16:05
Inoffiziell wäre ein Anfang. Irgendwas Neues muss AMD bieten. Entweder Downsampling inoffiziell (wenn schon nicht offiziell) oder SSAA in DX10/11. Mit einer inoffiziellen Unterstützung würde ich mich abfinden. SSAA mit Treiberdefault läuft ja meist mit AMD besser, weil weniger Blur.
Käsetoast
2011-11-13, 17:19:20
Irgendwas Neues muss AMD bieten.
Also ich denke GCN wird genug "Neues" liefern... :smile:
Black-Scorpion
2011-11-13, 17:29:38
Und/oder SSAA in jeder API. :naughty:
MfG,
Raff
Das hatten wir doch schon. Nur weil ein Hersteller darauf scheißt was er selbst mit verbockt hat müssen es nicht alle machen. Aber logisch das dir das gefällt.
boxleitnerb
2011-11-13, 17:37:16
So eine Einstellung ist für mich völlig unverständlich. Anstatt, dass man sich neue Features wünscht, die die Bildqualität beträchtlich steigern können, wird gemeckert. Bloß nicht zugeben, dass Nvidia etwas "hat", was man auch gerne hätte, da würde einem ja ein Zacken aus der Krone fallen. So eine Einstellung bringt AMD bei den Enthusiasten (für die HD7950 aufwärts bzw. CF attraktiv sein soll) definitiv nicht voran.
Bei Nvidia hat man ebenfalls SGSSAA gefordert nach dem HD5000 Launch und wir haben es bekommen. An einen Bug glaube ich nicht. Und da hat auch keiner gemeckert, sondern man hat sich gefreut.
Black basht mich eben gern, weil ihm Bildqualität anscheinend egal ist. ;) Eine beneidenswerte Einstellung, die ich ebenfalls nicht verstehe.
MfG,
Raff
deekey777
2011-11-13, 17:57:27
Also wer SGSSAA in allen APIs für überflüssig hält, ist schon Klasse.
derguru
2011-11-13, 18:03:03
ein inoffizielles sgssaa wird aber auch nicht kommen sonst hätte man es schon lange anbieten können,ich mach mir da null hoffnung.
Ronny145
2011-11-13, 18:06:12
ein inoffizielles sgssaa wird aber auch nicht kommen sonst hätte man es schon lange anbieten können,ich mach mir da null hoffnung.
Wenn AMD etwas Neues bieten will und in Planung hat, dann macht es größten Sinn erst mit dem Launch der neuen GPUs die Neuerung einzuführen. Vorher passiert da nichts. Mit Downsampling das gleiche. Als ob AMD das vorm Launch der neuen Generation anbietet (falls es überhaupt kommt).
derguru
2011-11-13, 18:11:34
amd bietet mMn nur offiziell mögliche feature an,alles andere ist imo wunschvorstellung.inoffizielles ist nicht werbewirksam also lässt man es gleich bleiben,so denken die anscheinend.
af-fix und ende gelände und alles andere wäre eine überraschung.
Black-Scorpion
2011-11-13, 18:41:38
Wo habe ich geschrieben das ich es für überflüssig halte?
Mir geht es nicht darum das ich es nicht haben will und es befürworten würde wenn es irgendwann mal kommt. Aber nicht auf die Art wie hier alle Hurra schreien wenn ein von Nvidia mit getragener Standard durch die Hintertür von eben dieser Firma wie es ihr gerade einfällt wieder aufgeweicht wird.
Gipsel
2011-11-13, 18:44:20
Ich bin immer noch der Meinung, dass die Reihen bis 7870 auf der alten VLIW4 Architektur sein werden wie bei der 6000er Reihe und am Anfang nur die HighEnd Chips 7950-7990 auf GCN basieren werden. Ab Ende Jahr / Januar werden wir es dann genau sehen.
Wundere Dich nicht, falls (außer der iGPU in Trinity) nachher gar keine neuen GPUs mit VLIW4 kommen. :rolleyes:
http://obrovsky.blogspot.com/2011/11/radeons-hd7000-launch-dates.html
Wenn das stimmen sollte, wären nur die 79xx GPUs basierend auf GCN und Pitcairn VLIW4.
Ist Pitcairn eine Spekulation gewesen? Laut OBR nur VLIW4.OBR hat keine Ahnung, was das angeht. Und Pitcairn und CapeVerde tauchten zwischenzeitlich auch im Treiber auf. Außerdem paßt es zu den drei GCN-IDs für den Shadercompiler.
edit: Die Original Quelle stammt wohl von hier: http://messages.finance.yahoo.com/Stocks_%28A_to_Z%29/Stocks_A/threadview?m=tm&bn=893&tid=1917491&mid=1917491&tof=7&frt=2
Könnte stimmen, könnte aber auch völlig frei erfunden sein.
Es ist frei erfunden.
Iruwen
2011-11-13, 19:58:02
Vielleicht ist an den Chiphell-Gerüchten etwas dran und die HD 7800er sind einfach nur Renamings der HD 6900. ;D
Ob AMD sich den Shitstorm geben möchte? Wobei...
Hugo78
2011-11-13, 20:44:32
Das ganze Kleinzeug bis hin hoch zu Barts der HD6k ist doch immernoch VLIW5, da jammert doch auch keiner rum.
Wenn Barts als 6800er mit VLIW5 durchgeht, dann geht auch ein 7800er mit VLIW4 durch.
Aber ich will Gispel nicht nochmal nötigen, hier auf den Treibereintrag hinzuweisen,
der dem entgegen spricht, wonach auch die 7800er wohl GCN haben werden. ;)
Ronny145
2011-11-13, 21:40:33
GCN wird sicherlich größere Änderungen bringen. Dagegen ist VLIW4 oder VLIW5 Jacke wie Hose. Da 78xx anscheinend auf GCN basiert, erübrigt sich das eh.
horn 12
2011-11-13, 22:59:19
http://www.pcgameshardware.de/aid,854336/AMD-Radeon-7000-Launch-Termine-geleaked/Grafikkarte/News/
Ronny145
2011-11-13, 23:03:57
http://www.pcgameshardware.de/aid,854336/AMD-Radeon-7000-Launch-Termine-geleaked/Grafikkarte/News/
Hatten wir schon die letzte Seite. Außerdem ein Fake (sehr wahrscheinlich).
Dural
2011-11-14, 09:23:47
ne kein Fake, NV und AMD werden im Dezember das bringen was sie bringen können und da gehört Kepler und GNC sicher nicht dazu :wink:
Es ist einfach ein Wunsch denken das AMD eine Komplett neue Architektur in einem Komplett neuem Herstellungs-Prozess ohne "test" Chip wie zb. RV740 damals ausliefern wird.
Ich bin so wie so nach wie vor überzeugt das AMD damals auch gar keinen GNC Chip gezeigt hat... alles nur VLIW ramsch ;)
naja AMD muss halt ihr Ego etwas aufpolieren in dem sie den ersten 28nm Chip zeigen, ich werde dann lachen falls NV sogar die ersten 28nm Chips vor AMD ausliefern wird, man weis ja nie ;)
Ronny145
2011-11-14, 12:55:43
ne kein Fake, NV und AMD werden im Dezember das bringen was sie bringen können und da gehört Kepler und GNC sicher nicht dazu :wink:
Doch es ist ein Fake. Lies die letzten Beiträge. Ich habe mich außerdem mal erkundigt was von dem user zu halten ist. Der hat vorm Bulldozer Launch surreale Bulldozer Benchmarkwerte gepostet. Wer es dennoch ernst nimmt, kann das ruhig machen. Was Du ansprichst hat, ob Fake oder nicht Fake, keiner angezweifelt. Es ging primär um die Frage, ob 78xx auf GCN oder VLIW4 basiert. Da 78xx offenbar auf GCN basiert, kann es nur ein Fake sein. Den Rest kann man somit automatisch vergessen.
Käsetoast
2011-11-14, 14:59:06
Ich denke ebenfalls, dass man aus den Einträgen in den Treibern recht gut ableiten kann wieviele GCN Chips es geben wird und das sind nunmal mehr als nur die 7900er Reihe...
Dural
2011-11-14, 15:08:00
also an die 78xx mit VLIW glaub ich auch nicht, aber an kleine VLIW Chips sicher.
Wenn man einen neuen Prozess herstellt, dann ist es doch einfacher wenn man eine bestehende Architektur nimmt, da man am besten Vergleiche ziehen kann.
Die 78xx ist ja die obere Mittelklasse aber wenn die mit GCN kommt, dann gräbt AMD ihren HighEnd 79xx die Butter vom Brot es sei den sie limitieren die 78xx mit Bandbreite / Core's so aus, dass ein grosser Unterschied bleibt.
Käsetoast
2011-11-14, 16:01:30
Die 78xx ist ja die obere Mittelklasse aber wenn die mit GCN kommt, dann gräbt AMD ihren HighEnd 79xx die Butter vom Brot es sei den sie limitieren die 78xx mit Bandbreite / Core's so aus, dass ein grosser Unterschied bleibt.
Genau das ist doch business as usual?!
Nur durch die Architektur alleine wird eine 7800er Karte doch nicht zum schnellsten Produkt am Markt - das entscheidet die Ausbaustufe bzw. die Anzahl an Recheneinheiten. Das eine 7900er Karte hier mehr zu bieten haben wird als eine 7800er Karte sollte dabei doch selbstverständlich sein. Das wird im Endeffekt einfach über die Leistungsaufnahme geregelt werden. Ich tippe, dass eine 7850 wieder irgendwo im 120W Bereich liegt, eine 7870 irgendwo bei 150W und die 7900er dann darüber. Also quasi dasselbe Spiel wie jetzt auch...
AnarchX
2011-11-14, 18:12:27
http://twitter.com/#!/AMDRadeon/status/135036137763913728
;D
Wohl aber nur ein automatisches Antwort-Script.
Ailuros
2011-11-14, 18:31:55
http://twitter.com/#!/AMDRadeon/status/135036137763913728
;D
Wohl aber nur ein automatisches Antwort-Script.
*reisst sich die letzten paar Haare aus* :freak::rolleyes:
YfOrU
2011-11-16, 14:44:17
HP's Winter Refresh:
http://www.anandtech.com/show/5115/hps-winter-refresh-with-businessclass-ultrabook
The review units were all using the next generation of AMD Radeon HD mobile graphics but unfortunately I don't have any more details than that.
All ENVY notebooks are expected to be available on December 7th.
Im Envy 17 wird sich ein 5850M/6850M (Broadway/Granville, 160 5D) Nachfolger einfinden ("Enthusiast Level"). Auf dem Desktop ist der gleiche, alte Chip (Juniper, 160 5D) als Radeon 57x0/67x0 vertreten.
Das Speicherinterface sieht mir nach 128Bit aus (da HP 1GB GDDR5 angibt). Übrigens genauso wie beim Envy 15 welches im Gegensatz dazu aber eine "Performance Level" GPU bekommt - also einen Nachfolger der 66x0M/67x0M (Whistler, 96 5D). Desktop: Radeon 66x0 (Turks).
Damit kommt dieses Jahr zumindest noch der größte und wichtigste Teils des Notebook Lineups (74x0M bis ~78x0M) womit AMD dieses mal zu IvyBridge auf jeden Fall besser aufgestellt sein sollte als bei der letzten großen Runde (Einführung der SB Notebooks).
boxleitnerb
2011-11-16, 14:45:53
*reisst sich die letzten paar Haare aus* :freak::rolleyes:
War das jetzt auf den XDR2 Eintrag bezogen? Zwischenzeitlich war der twitter Kanal ja ganz unten.
Ailuros
2011-11-16, 15:59:05
War das jetzt auf den XDR2 Eintrag bezogen? Zwischenzeitlich war der twitter Kanal ja ganz unten.
Selbstverstaendlich.
Knuddelbearli
2011-11-16, 23:07:54
notebook chips noch dieses jahr ? ideal für mich will anfang jänner mein P8500 + GT 9600M ablösen da neuer job als nachtwächter ( zur studium Finanzierung ) ansteht und ich dort während der arbeit gamen kann ^^
horn 12
2011-11-16, 23:28:23
Produktname
GPU-Codename
Architektur
Release-Datum
AMD Radeon HD 7990
New Zealand
GCN
März 2012
AMD Radeon HD 7970
Tahiti XT
GCN
Januar 2012
AMD Radeon HD 7950
Tahiti Pro
GCN
Januar 2012
AMD Radeon HD 7870
Pitcairn XT
VLIW4
Dezember 2011
AMD Radeon HD 7850
Pitcairn Pro
VLIW4
Dezember 2011
AMD Radeon HD 7770
Cape Verde XTX
VLIW4
-
AMD Radeon HD 7670
Cape Verde XT
VLIW4
-
AMD Radeon HD 7570
Cape Verde Pro
VLIW4
-
AMD Fusion 7550
Devastator
VLIW4
-
AMD Fusion 7450
Devastator Lite
VLIW4
-
AMD Fusion 7350
Scrapper
VLIW4
-
AND Fusion 7200
-
-
-
AMD Fusion 7100
Wichita
VLIW4
2. Quartal 2012
http://obrovsky.blogspot.com/
Gipsel
2011-11-17, 01:24:23
Alt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9032758#post9032758) und sehr sicher falsch.
Spasstiger
2011-11-17, 01:46:54
Wenn im Dezember tatsächlich die HD-7800-Modell in den Läden stehen würden, wären schon die Specs durchgesickert, aufgrund der ganzen Produktions-, Vetriebs- und Marketingstruktur, die hinter einem Produktlaunch steht. Denn bei sovielen Mitwissern gibt es immer ein paar, die nicht schweigen können. Bleibt höchstens die Möglichkeit eines Paperlaunchs seitens AMDs (im Stil einer Techpreview).
YfOrU
2011-11-17, 11:37:03
Da wär ich mir nicht so sicher denn die Chips unterhalb der (Desktop) 7800er Serie müssen bereits seit längeren verfügbar sein. Ansonsten wäre es für HP kaum möglich im Dezember Notebooks mit entsprechenden Chips (7470M - 78x0M) auszuliefern.
Bisher gab es einfach keine Leaks, wobei ich trotzdem nicht davon ausgehe das die Desktop Varianten noch dieses Jahr in den Handel kommen. Der Fokus liegt bei AMD momentan voll auf den mobilen Produkten. Lange wird man aber wohl nicht mehr warten müssen denn die offizielle Vorstellung der mobilen Ableger wird spätestens am 7. Dezember erfolgen, vermutlich eher früher.
LovesuckZ
2011-11-17, 11:37:57
7470m sieht doch eher nach Rebranding aus. Deswegen wird es wohl auch direkt von HP genannt.
deekey777
2011-11-17, 11:50:20
Die denkbare Alternative wäre, dass es um geschrinkte VLIW5-Mobilitys handelt. Schließlich hat AMD schon vor Monaten damit angegeben.
YfOrU
2011-11-17, 12:07:17
7470m sieht doch eher nach Rebranding aus. Deswegen wird es wohl auch direkt von HP genannt.
Kann schon sein das hier ein alter Chip verwertet wird - der Name alleine genügt mir für den Verdacht aber nicht denn das Schema ist sowieso bekannt. Bleiben aber immer noch zwei GPUs bei denen ein Rebranding unrealistisch ist (Envy 15 und 17).
Sollte es sich bei der 7470M wirklich um ein Rebranding handeln kann es nur Whistler-LP (6630M etc.) mit evtl. reduzierten Frequenzen sein denn alles darunter wäre im Vergleich zum Sprung von 40 zu 28nm viel zu wenig.
Es gibt allerdings ein paar Punkte die dafür sprechen:
Fast jeder NB Hersteller verfügt über entsprechende Designs, der Chip hat eine akzeptable Leistung bei niedrigerer Leistungsaufnahme (als die alten Nvidia GF 108 Produkte) und ist günstig. Wenn man sich die Lebensdauer des GF108 ansieht glaube ich ehrlich gesagt nicht daran das Whistler nach so kurzer Zeit beerdigt wird denn dafür ist das Produkt einfach zu gut. Andererseits wäre natürlich auch eine Einordnung als 7530M möglich. Kommt eben ganz drauf an wie groß der Leistungssprung bei den mobilen Chips ausfallen wird.
Für Produkte mit deutlich weniger Leistung als die alte Mainstream Generation (6630M/540M) wird wahrscheinlich kaum noch ein Markt vorhanden sein denn selbst IvyBridge wird eher mehr bieten als das alte Low End (520M/6470M).
Die denkbare Alternative wäre, dass es um geschrinkte VLIW5-Mobilitys handelt. Schließlich hat AMD schon vor Monaten damit angegeben.
Desktop und Mobil werden immer mit identischen Chips abgedeckt (Beispiel: Turks - Whistler). Bei einer Neuauflage in 28nm weiter VLIW5 einzusetzen macht wenig Sinn wenn selbst Trinity vom aktuellen Entwicklungsstand (Cayman) abgeleitet wurde und dementsprechend VLIW4 ist.
Gipsel
2011-11-17, 17:02:40
Desktop und Mobil werden immer mit identischen Chips abgedeckt (Beispiel: Turks - Whistler).Das ist aber nicht zwingend.
YfOrU
2011-11-17, 18:01:42
Das ist aber nicht zwingend.
Aus den letzten Jahren ist mir kein einziges Gegenbeispiel bekannt. Alle mobilen GPUs von Nvidia/AMD (x86 Plattform) sind in der ein oder anderen Form (teildeaktiviert/OEM only) in Desktops zu finden. Schlussendlich ist das Power Management der Schlüsselfaktor und das wird heute bei Desktop Produkten genauso benötigt bzw. vom Kunden vorausgesetzt.
boxleitnerb
2011-11-18, 00:40:23
Will AMD mal wieder die SingleGPU Performancekrone haben?
384bit, 3GB, 500 Dollar für den Top Dog?
http://semiaccurate.com/2011/11/17/more-bits-on-hd7000northern-islandsgcn-leak/
fondness
2011-11-18, 08:42:41
Will AMD mal wieder die SingleGPU Performancekrone haben?
384bit, 3GB, 500 Dollar für den Top Dog?
http://semiaccurate.com/2011/11/17/more-bits-on-hd7000northern-islandsgcn-leak/
Man hat eben aus den Fehlern der 5870 gelernt. Wenn man der einzige am Markt ist und wohl eh wieder nicht viel liefern kann, macht es keinen Sinn die Karten um $300 zu verkaufen. 384-bit erscheint mir auch logisch, es gibt keinen wesentlich schnelleren GDDR5, und durch 28nm kann man theoretisch mehr als doppelt so viele Transistoren pro mm² unter bringen, die wollen auch gefüttert werden.
Undertaker
2011-11-18, 09:22:03
Ist denn im Moment überhaupt klar, wer als erster auf den Markt kommt? Die Gerüchte schießen zumindest in alle möglichen Richtungen (http://www.computerbase.de/news/2011-11/nvidias-kepler-generation-frueher-als-erwartet/). Deine Begründung kann ich aber so nicht ganz nachvollziehen: Gerade wenn die Fertigung schlecht läuft und die Kapazitäten sehr begrenzt sind, wäre ein größerer Die das Allerdümmste, was man machen kann. Die kleine HD5870 hätte man auch gleich teurer verkaufen können, als die Händler die Marge einstecken zu lassen.
Angeblich soll im 28nm Prozess laut TSMC ja jetzt alles besser laufen. Mal abwarten...
Da AMD und nV an ihren Launch Termine Anfang Dezember festhalten (in 3 Wochen), wird die Ausbeute genug gross sein um auch Liefern zu können.
Ailuros
2011-11-18, 11:52:15
Will AMD mal wieder die SingleGPU Performancekrone haben?
384bit, 3GB, 500 Dollar für den Top Dog?
http://semiaccurate.com/2011/11/17/more-bits-on-hd7000northern-islandsgcn-leak/
Wenn der Preis stimmen sollte hat dann AMD gegenueber NV genau welchen Vorteil? Bis jetzt waren ihre Performance GPUs verdammt nahe an Leistung mit NV's high end single chip aber auch mit um einiges niedrigeren Preis.
Groesserer die als zuvor und daher groessere Herstellungskosten?
boxleitnerb
2011-11-18, 22:25:47
Wenn der Preis stimmen sollte hat dann AMD gegenueber NV genau welchen Vorteil? Bis jetzt waren ihre Performance GPUs verdammt nahe an Leistung mit NV's high end single chip aber auch mit um einiges niedrigeren Preis.
Groesserer die als zuvor und daher groessere Herstellungskosten?
Wenn Kepler 650 Dollar kosten würde, würde sich das Gefüge nur nach oben verschieben.
Hugo78
2011-11-18, 22:45:15
SA ist AMDs Propaganda Mittel, vergesst das nicht.
Wenn die SA schreibt, das AMD Mondpreise für Graka XY haben will, dann ist das nichts weiter als FUD by AMD PR.
Damit werden Erwartungen an die Leistung geweckt.
Das kann stimmen, aber ich glaub dem Char_LIE kein Wort.
Erst Recht nicht, wenn er versucht 3GB VRAM als überflüssig darzustellen, um plötzlich nicht irgendwie AMD-affin zu wirken.
Dafür ist es bei dem Typen zuspät.
w0mbat
2011-11-19, 01:58:41
charlie ist bestimmt nicht AMDs PR. und er hatt leider viel zu oft recht.
charlie ist bestimmt nicht AMDs PR.
;D Ne AMDs PR-Vertretung ist doch Lovesuckz :ulol3:
und er hatt leider viel zu oft recht.
Oft rect höchstens im Vergleich zu nie recht ....
Nichts gegen dich, aber das konnte man nicht so/unkommentiert stehen lassen.
Dural
2011-11-19, 09:16:52
also ich weis ja nicht was ihr habt, aber an dieser "news" ist jetzt wirklich nichts besonderes dran :rolleyes:
3GB ist bei 384Bit doch ziemlich klar, wenn man bei der Vorgänger Generation schon 256Bit mit 2GB hatte :rolleyes:
Und betreffent Preise, bis jetzt hat AMD doch vor jeder neuen Generation mit Preisen um sich geworfen die sie gar nicht einhalten konnten / der Markt die Preise
nicht bezahlt hat, beziehungsweisse NV mehr für Ihre Produkte verlangen konnte (da besser)
Zudem glaub ich kaum das die Preise schon Fix sind, dazu ist es viel zu früh...
Wenn der Preis stimmen sollte hat dann AMD gegenueber NV genau welchen Vorteil? Bis jetzt waren ihre Performance GPUs verdammt nahe an Leistung mit NV's high end single chip aber auch mit um einiges niedrigeren Preis.
Groesserer die als zuvor und daher groessere Herstellungskosten?
Ist es Aktuell nicht gerade anders rum, NV GF114 in Form der GTX 560 Ti kommt sehr sehr nahe an AMDs RV970 / 6970 und diese Karte hat fast 250Watt TDP...
der GF114 braucht rund ca. 15% mehr Takt (zb. 880MHz + 15% = 1012MHz) als RV970 um auf ca. Gleichstand zu kommen :)
Skysnake
2011-11-19, 09:36:03
Naja, AMD war aber auch gar nicht gezwungen, so hohe Preise wie nVidia zu verlangen. Schau dir doch nur mal den DIE einer 5870 (Cypress/RV870) oder 6970 (Caymann/RV970) an. Die sind im Falle des Cypress 334 mm² und beim Caymann mit 389mm² nur unwesentlich mehr. Schauen wir uns jetzt mal dagegen den GF1x0 an. Der hat satte 526 (GF100) bzw. 520mm² (GF110). Alles laut Wikipedia. Damit ist im direkten Vergleich der Generationen der nVidia chip, mit 57,5% (RV870vsGF100) bzw. 33,7% (RV970vsGF110), immer wesentlich größer als der von AMD. Gut, der Chip macht nicht 100% der Herstellungskosten aus, aber doch einen ganz erkläglichen Anteil. Ich denke mal so 50% round about. Weiß hier aber sicherlich jemand genauer ;)
Auf jeden Fall sind die Karten wohl etwa in dem Maße billiger im Verkauf, in dem Sie auch billiger in der Herstellung sind. Wie sich aber die Yeald-Raten dann aufs Ergebnis auswirken ist halt die entscheidende Frage. AMD wird hier sicherlich dank dem sehr kleinen Chips besser dastehen als nVidia.
Ich sehs halt so. AMD liegt zwar hinter nVidia, aber nicht in dem Maße, in dem Sie einen kleineren Chip haben. AMD hat also ohne Probleme die Möglichkeit, die Leistung ihrer Chips einfach dadurch zu erhöhen, das Sie die Chips größer machen. Damit steigt zwar auch die Leistungsaufnahme bei gleichem Takt, aber man kann diesen ja etwas absenken. Man hat ja noch viel Spielraum, was DIE-Size anbelangt. nVidia hat diese Chance nicht. Die sind schon am Anschlag mit ihrem Chip. Mehr is nich!
Die müssen sich also wirklich richtig einen Kopf machen, wie Sie ihre Leistungsfähigkeit steigern. AMD bleibt noch die Brechstande, und ich denke diese werden Sie bei dieser Generation auch teilweise einsetzen. Gerade bei den Caches erhoffe ich mir einen sehr viel großzügigeren Einsatz als bisher, damit man die ALUs auch besser auslasten kann.
Mir würde ne 6970 mit doppelt so großen Caches und einem doppelten Speicherinterface schon sehr gut gefallen. Das würde es nämlich deutlich einfacher machen, die Rohleistung der Karte auch wirklich mal auf den Boden zu bekommen.
boxleitnerb
2011-11-19, 09:43:09
Also bei einer GTX285 hat die GPU so 90 Dollar gekostet. MSRP war 350 Dollar. http://www.3dcenter.org/abbildungsverzeichnisse/artikel/herstellungspreise-aktueller-grafikkarten
Das zieht sich auch durch andere Karten in der Tabelle durch. 25% sind jetzt nicht soviel und ich denke, Nvidia hat auch noch gute Deals mit TMSC. Am Preis für den Chip liegt es also eher nicht allein. Stromversorgung und Kühlung muss auch größer dimensioniert werden, wobei AMD im Highend bei der Effizienz keinen Vorteil mehr hat (HD6970 vs. GTX570).
OgrEGT
2011-11-19, 09:51:00
AMD wird hier sicherlich dank dem sehr kleinen Chips besser dastehen als nVidia.
Ist aber wenn ich mich an die entsprechenden Threads erinnere kein Riesenunterschied gewesen. Anfangs zur 40nm Fertigung war die Ausbeute bei AMD besser, später dann war der Unterschied nicht mehr so groß. Weiß jemand wie die Ausbeuten aktuell liegen?
Ich sehs halt so. AMD liegt zwar hinter nVidia, aber nicht in dem Maße, in dem Sie einen kleineren Chip haben. AMD hat also ohne Probleme die Möglichkeit, die Leistung ihrer Chips einfach dadurch zu erhöhen, das Sie die Chips größer machen.
Das mag bei den VLIWx Chips so gewesen sein. Ist zu den GCN Chips bzgl. der Die Größe etwas bekannt? Könnte gut sein, dass die Chips allein durch die Architektur größer werden. Die nächste Unbekannte ist der neue Fertigungsprozess. Niemand weiß (oder doch?) wie die Packungsdichten sein werden, welche Chipgrößen bei vernünftigen Ausbeuten mit wieviel Leckstrom und Verlustleistung möglich sind. Weder AMD noch NV können zaubern.
Mir würde ne 6970 mit doppelt so großen Caches und einem doppelten Speicherinterface schon sehr gut gefallen. Das würde es nämlich deutlich einfacher machen, die Rohleistung der Karte auch wirklich mal auf den Boden zu bekommen.
Noch viel wichtiger finde ich in dieser Runde die BQ. Hier muss AMD aufholen und mit NV gleichziehen. Leistungsmäßig spielt bei der erwarteten absoluten Leistung eine Differenz von +/- 10% eher eine kleine Rolle.
Dural
2011-11-19, 09:56:24
Leute bitte nicht schon wieder diese mm2 Diskussionen, schaut euch die Zahlen von AMD und NV Aktuell an und da wird man sehen das NV bis jetzt immer mehr an ihren Chips verdient hat als eben AMD.
Wie das NV zustande bringt ist (vorerst) ja komplett egal, das gesamt Ergebnis muss stimmen und das stimmt bei NV derzeit einfach.
Skysnake
2011-11-19, 10:03:41
Ist aber wenn ich mich an die entsprechenden Threads erinnere kein Riesenunterschied gewesen. Anfangs zur 40nm Fertigung war die Ausbeute bei AMD besser, später dann war der Unterschied nicht mehr so groß. Weiß jemand wie die Ausbeuten aktuell liegen?
Man produziert aber nicht nur jetzt, sondern über den gesamten Produktzyklus hinweg, und da hat AMD halt am Anfang SEHR große Vorteile gehabt. Das sind halt so Zeitpunkte, wo man richtig Geld gut macht im Vergleich zur Konkurrenz. In wie weit nVidia dies durch bessere Preise für die Wafer ausgleichen kann ist halt die Frage. Sooo viel erwarte ich da aber nicht. Die Ausbeute ist ja nochmals schlechter als der reine Größenunterschied, weil man mehr Verschnitt hat bei nem größeren DIE.
Das mag bei den VLIWx Chips so gewesen sein. Ist zu den GCN Chips bzgl. der Die Größe etwas bekannt? Könnte gut sein, dass die Chips allein durch die Architektur größer werden. Die nächste Unbekannte ist der neue Fertigungsprozess. Niemand weiß (oder doch?) wie die Packungsdichten sein werden, welche Chipgrößen bei vernünftigen Ausbeuten mit wieviel Leckstrom und Verlustleistung möglich sind. Weder AMD noch NV können zaubern.
Nicht das ich wüsste. Nach dem gesamten Konzept, was ich von GCN gesehen habe, erwarte ich aber einen deutlich größeren Chip. Die von mir erhofften größeren Caches kommen halt schon mal :D. Dazu wird wohl so einiges für GPGPU verbraten werden. Man muss halt eine Marktlücke zu nVidia schließen, und kann dies wie gesagt eben sehr einfach durch schlichtes Aufblähen erledigen, was ja wie gesagt nVidia nicht mehr kann.
Daher erwarte ich bei AMD auch einen größeren Leistungssprung als bei nVidia. Die entscheidende Frage ist halt nur, ob AMD es mit der Brechstange versuchen will, und auch auf ~500mm² DIEs geht, oder ob Sie wieder eher einen kleineren DIE anstreben, und dann einen eventuellen Leistungsrückstand in kauf nehmen. Ich tendiere eher zu ersterem, wobei das auch ganz klar mit eine Hoffnung ist.
Noch viel wichtiger finde ich in dieser Runde die BQ. Hier muss AMD aufholen und mit NV gleichziehen. Leistungsmäßig spielt bei der erwarteten absoluten Leistung eine Differenz von +/- 10% eher eine kleine Rolle.
Was aber für 95%+ der Leute völlig Banane ist. Die wissen noch nicht mal, das es da Unterschiede gibt, geschweige denn, das da nVidia besser ist. Wenn wissen sehr viele Leute es nur aus irgendwelchen Zeitschriften/Foren etc. wo das hoch gekocht wird. Ich kann nur für mich sprechen, aber mir ist bei meiner 5870 nie etwas negativ aufgefallen, was mich gestört hätte. Wenn ich einen 1:1 Vergleich hätte würde es mir eventuell auffallen, aber ich glaube nicht, das mehr als 0,1% der Leute mit 90% Trefferquote eine GPU allein durch die Sequenz eines stinknormalen Games nennen könnten. Mit irgendwelchen Testbildern etc. ja ok, da sicherlich mehr, aber in ner ganz normalen Spielsituation von mir aus eine Minute lang, ne sicherlich nicht, und schon gleich 10 mal nicht, wenn Sie diese auch noch selbst zocken müssen.
PS: Jetzt werden bestimmt SEHR viele aufschreien, und das Gegenteil behaupten, was auch legitim ist, aber weiß jemand, ob es so einen (doppelten) Blindtest schon gegeben hat?
@Dural: Es geht auch mehr darum, welche Möglichkeiten zur weiteren Leistungssteigerung die beide Hersteller haben, und da hat nVidia eben ein Ass weniger im Ärmel als AMD.
boxleitnerb
2011-11-19, 10:08:37
Beim Thema Bildqualität wird leider oft was verwechselt. Es geht nicht um kleinere Unterschiede wie Schärfe, Farbgebung oder sowas. Sondern um SGSSAA, das AF und generell AA-Kompatibilität. Klar, für 95% der Leute ist das nicht wichtig, aber AMD will ja auch ihre CF Lösungen verkaufen. Was soll man da mit 200fps spielen? Nicht jeder hat drei Monitore oder einen 30 Zöller. Bei 500 Dollar erwartet man einfach, dass das Gesamtpaket stimmt, bei 1000+ Dollar (2-4 Karten) erst recht.
Skysnake
2011-11-19, 10:16:04
Ja klar, aber wie gesagt, das Thema beeinflusst die Kaufentscheidung von kaum jemanden, und noch sehr viel weniger können da einen Unterschied feststellen.
Ganz klar, ich erwarte auch, das AMD das Problem behebt, aber so lange ICH es NICHT sehen kann, ist es für meine Kaufentscheidung irrelevant. Ist doch das gleiche, wie wenn ich irgendwas in Farbe XY kaufen will, und dann ist es nicht XY, sondern ein oder zwei Farbtöne daneben. So lange ich nicht etwas mit GENAU dem gleichen Farbton habe, werde ich das als Normalsterblicher nie erfahren.
Auch hier ganz klar, dass der Hersteller den Fehler nicht wieder machen darf, aber für 99% der Käufer absolut belanglos und kein Grund nicht zu kaufen, wenn einem der Rest zusagt.
Dural
2011-11-19, 10:19:32
dazu würde ich mal die Architektur von AMD abwarten, Rückschlüsse von der vorherigen Architektur seitens AMD lässt sich da nämlich kaum tätigen.
Bei NV ist man da "sicherer" den ich glaube nicht das man da deutliche änderungen gegenüber Fermi sehen werden, eher nur ein "Update"
OgrEGT
2011-11-19, 10:21:10
Man produziert aber nicht nur jetzt, sondern über den gesamten Produktzyklus hinweg, und da hat AMD halt am Anfang SEHR große Vorteile gehabt. Das sind halt so Zeitpunkte, wo man richtig Geld gut macht im Vergleich zur Konkurrenz. In wie weit nVidia dies durch bessere Preise für die Wafer ausgleichen kann ist halt die Frage. Sooo viel erwarte ich da aber nicht. Die Ausbeute ist ja nochmals schlechter als der reine Größenunterschied, weil man mehr Verschnitt hat bei nem größeren DIE.
Mag sein, aber jetzt steht ein neuer Fertigungsprozess an. Die KArten werden wieder neu gemischt.
Was aber für 95%+ der Leute völlig Banane ist. Die wissen noch nicht mal, das es da Unterschiede gibt, geschweige denn, das da nVidia besser ist. Wenn wissen sehr viele Leute es nur aus irgendwelchen Zeitschriften/Foren etc. wo das hoch gekocht wird. Ich kann nur für mich sprechen, aber mir ist bei meiner 5870 nie etwas negativ aufgefallen, was mich gestört hätte. Wenn ich einen 1:1 Vergleich hätte würde es mir eventuell auffallen, aber ich glaube nicht, das mehr als 0,1% der Leute mit 90% Trefferquote eine GPU allein durch die Sequenz eines stinknormalen Games nennen könnten. Mit irgendwelchen Testbildern etc. ja ok, da sicherlich mehr, aber in ner ganz normalen Spielsituation von mir aus eine Minute lang, ne sicherlich nicht, und schon gleich 10 mal nicht, wenn Sie diese auch noch selbst zocken müssen.
Ich hatte auch ne 5870. War absolut zufrieden mit der Karte. Jetzt hab ich ne GTX570. Der Unterschied ist sichtbar, vor allem was das Bildflimmern betrifft. Zugegeben, so riesig ist der Unterschied nicht (manche sprechen von Augenkrebs bei AMD... was mMn viel zu übertrieben ist) das Bild ist aber sichtbar ruhiger. Auch die Möglichkeit SGSSAA in allen API's nutzen zu können ist ein Vorteil, den ich nicht mehr missen möchte. Vielleicht musst Du wirklich mal einen direkten Vergleich machen.
OgrEGT
2011-11-19, 10:22:19
Ja klar, aber wie gesagt, das Thema beeinflusst die Kaufentscheidung von kaum jemanden, und noch sehr viel weniger können da einen Unterschied feststellen.
Ganz klar, ich erwarte auch, das AMD das Problem behebt, aber so lange ICH es NICHT sehen kann, ist es für meine Kaufentscheidung irrelevant. Ist doch das gleiche, wie wenn ich irgendwas in Farbe XY kaufen will, und dann ist es nicht XY, sondern ein oder zwei Farbtöne daneben. So lange ich nicht etwas mit GENAU dem gleichen Farbton habe, werde ich das als Normalsterblicher nie erfahren.
Glaub mir, Du kannst den Unterschied sehen.
boxleitnerb
2011-11-19, 10:24:08
Ja klar, aber wie gesagt, das Thema beeinflusst die Kaufentscheidung von kaum jemanden, und noch sehr viel weniger können da einen Unterschied feststellen.
Ganz klar, ich erwarte auch, das AMD das Problem behebt, aber so lange ICH es NICHT sehen kann, ist es für meine Kaufentscheidung irrelevant. Ist doch das gleiche, wie wenn ich irgendwas in Farbe XY kaufen will, und dann ist es nicht XY, sondern ein oder zwei Farbtöne daneben. So lange ich nicht etwas mit GENAU dem gleichen Farbton habe, werde ich das als Normalsterblicher nie erfahren.
Auch hier ganz klar, dass der Hersteller den Fehler nicht wieder machen darf, aber für 99% der Käufer absolut belanglos und kein Grund nicht zu kaufen, wenn einem der Rest zusagt.
Also zwischen AA und kein AA bzw. MSAA und SGSSAA sieht selbst ein Blinder einen Unterschied, das kann es ja wohl nicht sein.
Bilde ich mir jedenfalls ein :wink:
OgrEGT
2011-11-19, 10:29:31
Auch hier ganz klar, dass der Hersteller den Fehler nicht wieder machen darf, aber für 99% der Käufer absolut belanglos und kein Grund nicht zu kaufen, wenn einem der Rest zusagt.
Da wir über Karten im gehobenen Segment also Performance bis Highend sprechen, sind die potentiellen Käufer i.d.R. besser informiert, da man sich bei den Preisen schon besser informiert und Produkte vergleicht. Ich würde aber auch sagen, dass falls Du recht hast, und die Masse keine Notiz von BQ Features nehmen sollte, die Wirkung, die positive Berichterstattung (Hardwareseiten, Foren, Printmedien) in der Richtung hat, schon zu einer Beeinflussung des Kaufverhaltens der Masse führen kann.
Edit:
Man sollte die Menschen nicht grundlos unterschätzen. Es gibt nicht zur absolute Nerds und auch nicht nur MM Kunden.
deekey777
2011-11-19, 10:41:47
Man produziert aber nicht nur jetzt, sondern über den gesamten Produktzyklus hinweg, und da hat AMD halt am Anfang SEHR große Vorteile gehabt. Das sind halt so Zeitpunkte, wo man richtig Geld gut macht im Vergleich zur Konkurrenz. In wie weit nVidia dies durch bessere Preise für die Wafer ausgleichen kann ist halt die Frage. Sooo viel erwarte ich da aber nicht. Die Ausbeute ist ja nochmals schlechter als der reine Größenunterschied, weil man mehr Verschnitt hat bei nem größeren DIE.
...
Natürlich hat AMD einen Vorteil: Sie tweaken seit (fast) einem Jahrzehnt den seligen R400 und passen das Design an die jeweilige DirectX-Version an...
Die Entwicklungskosten müssen ja irgendwie eingefahren werden, daher kann/muss Nvidia höhere Preise pro Chip verlangen. Wobei in jedem verkauften Chip auch die Kosten eines kaputten Chips sein sollten. Auch das ganze Cuda-Zeug liegt nicht einfach auf der Straße.
Zum SI:
Wenn man bedenkt, dass das 256bit breite SI seit dem R300 mit einer unglücklichen Unterbrechung im Angebot ist, muss es nicht zwangsläufig der Fall sein, dass der Tahiti jetzt ein breiteres SI bekommt. Scheint aber sehr wahrscheinlich zu sein.
Skysnake
2011-11-19, 10:42:20
Schau dir doch einfach mal an, was die meisten Leute kaufen, da ist mit BQ eh nicht soo viel los. Oder Sie kommen von was ganz asbach uraltem und sind eh mehr als happy über die neue Karte.
Die wenigsten Leute haben ne GTX400/HD5k und steigen dann auf die GTX500/HD6k oder auf die GTX600/HD7k um. Das sind wirklich nur ein winziger Prozentsatz. Die interessieren sich auch für BQ sehr etc.
Ich bestreite ja auch nicht, das man es durchaus sehen kann, also z.B. Testszenen, Direktvergleich oder das einem auch einfach jemand sagt:"Da schau dort in die Ecke, dann siehst du es."
Aber rein vom vorm Bildschirm sitzen, nicht wissen, was eingestellt ist, und man noch nicht mal weiß welche Karte drin ist, und einfach eine normale Spielszene läuft, werden wohl die wenigsten das sehen können.
Wie gesagt, doppelter Blindtest machen, und die Ergebnisse auswerten, alles andere ist nicht aussagekräftig. Unser Gehirn bescheist uns einfach zu gern bei dem was wir sehen.
Genau so die Sache mit dem AA. Klat zwischen keinem AA und max AA sieht man klar nen Unterschied, aber ob man im Spielverlauf einen großen Unterschied zwischen Max und fast Max sieht, weiß ich nicht. Also auch wieder in einem doppelten Blindtest.
Wie gesagt, wenn das noch Nie getestet wurde, wäre es wirklich mal an der Zeit, dies zu tun. Will die PCGH nicht mal diesen Mythos ein für allemal aufklären ob man nun die Sachen sieht oder nicht?
Die könnten doch mal 5 rnd ausgewählte User und 5 HardcoreBQfestischisten zu sich holen, und das testen. Wenn dann eine Trefferquote von unter 60-70% raus kommt, dann kann man wohl sagen, das man es einfach nicht sieht.
Der Testaufbau wäre ja ziemlich einfach. 2 Rechner, einen Monitor und einen Monitorswitch dazwischen. Dazu ne Spielszene aus einem von 3 Games, Shooter(BF2/3/MW3), Rennspiel(Dirt, NFS etc) Sim(Anno etc) und noch irgendwas rnd, kann auch gern ne Testszene sein dann wo man es besonders gut sieht. Damit man mal ne Referenz hat, was die Leute überhaupt sehen.
EDIT:
@deekey777: Das Problem ist doch aber, das man für GPGPU Sachen sehr oft einfach gar nicht die Leistung der GPUs ausfahren kann, weil man nicht schnell genug die Daten zu den ALUs bringen kann. Da hilft ein breiteres Speicherinterface und mehr Caches, um die Datenlokalität zu erhöhen einfach weiter. Es bringt doch nichts, wenn ich 100% mehr Rechenleistung habe, am Ende aber nur 20% Mehrleistung real im Vergleich zum Vorgänger bekomme, einfach weil ich nicht genug Daten habe, oder im schlimmsten Fall auch 0% Mehrleistung, einfach weil ich nur durch das Speicherinterface beschränkt bin.
Für mich ist Effizienzsteigerung sehr viel wichtiger, als stur mehr Rohleistung in die Karten zu bringen. GPUs müssen leichter einen guten Teil ihrer Leistung auf die Straße bekommen. Allein 20-40% der Rohleistung einer GPU zu erreichen bei so was simplen wie ner Matrix-Martix-Multiplikation ist schon verdammt viel Arbeit. Das muss einfach gehen. Es ist wirklich nicht zweckdienlich, das man nur dann wirklich schnell ordentliche Leistungswerte erreicht, wenn man fertige Bibliotheken nutzt. Das muss flexibler werden. Insbesondere wenn ich da an Intels MIC denke.... Wenn nVidia und AMD nichts an ihrer Effizienz und Programmierbarkeit ändern, und Intel dort trotz geringerer theoretischer LEistung real im Einsatz aber davon zieht, dann können die auf kurze/lange Sicht einpacken. Keiner tut sich den Stress freiwillig an, auf GPUs zu programmieren. Im Moment ist der Vorteil aber einfach sehr groß im Vergleich zu ner CPU trotz des Aufwandes. Wenn mit MIC man aber 90% der Leistung mit 10-30% des Aufwands erreicht, dann ist wohl recht klar, was sehr vielen Leuten sehr gut gefallen wird.
deekey777
2011-11-19, 10:51:50
Das Problem ist, dass seit Jahren über "alternative" Methoden berichtet wird. Sprich: Man hat die User (insbesodnere die Konsolenspieler) für Treppchenbildung an den Kanten sensibilisiert.
Es ist alles andere als ein Zufall, dass AMD und Nvidia auch alternative Modi wie MLAA und ähnliches anbieten. Auch Spieleentwickler bieten andere Wege an, weil sie es nicht schaffen, echtes MSAA in ihre Spiele einzubauen (siehe Crysis 2).
Um einfacher zu sagen: Es gibt heute viel mehr Leute, die auf Kantenglättung achten und ggf. ihre Kaufentscheidung darauf stützen. Leider wissen nur wenige, dass hier Alternativen gibt, die besser sind, aber auch mehr Leistung kosten.
OgrEGT
2011-11-19, 10:57:10
Schau dir doch einfach mal an, was die meisten Leute kaufen, da ist mit BQ eh nicht soo viel los. Oder Sie kommen von was ganz asbach uraltem und sind eh mehr als happy über die neue Karte.
Die wenigsten Leute haben ne GTX400/HD5k und steigen dann auf die GTX500/HD6k oder auf die GTX600/HD7k um. Das sind wirklich nur ein winziger Prozentsatz. Die interessieren sich auch für BQ sehr etc.
Ich bestreite ja auch nicht, das man es durchaus sehen kann, also z.B. Testszenen, Direktvergleich oder das einem auch einfach jemand sagt:"Da schau dort in die Ecke, dann siehst du es."
Aber rein vom vorm Bildschirm sitzen, nicht wissen, was eingestellt ist, und man noch nicht mal weiß welche Karte drin ist, und einfach eine normale Spielszene läuft, werden wohl die wenigsten das sehen können.
Wie gesagt, doppelter Blindtest machen, und die Ergebnisse auswerten, alles andere ist nicht aussagekräftig. Unser Gehirn bescheist uns einfach zu gern bei dem was wir sehen.
Genau so die Sache mit dem AA. Klat zwischen keinem AA und max AA sieht man klar nen Unterschied, aber ob man im Spielverlauf einen großen Unterschied zwischen Max und fast Max sieht, weiß ich nicht. Also auch wieder in einem doppelten Blindtest.
Wie gesagt, wenn das noch Nie getestet wurde, wäre es wirklich mal an der Zeit, dies zu tun. Will die PCGH nicht mal diesen Mythos ein für allemal aufklären ob man nun die Sachen sieht oder nicht?
Die könnten doch mal 5 rnd ausgewählte User und 5 HardcoreBQfestischisten zu sich holen, und das testen. Wenn dann eine Trefferquote von unter 60-70% raus kommt, dann kann man wohl sagen, das man es einfach nicht sieht.
Der Testaufbau wäre ja ziemlich einfach. 2 Rechner, einen Monitor und einen Monitorswitch dazwischen. Dazu ne Spielszene aus einem von 3 Games, Shooter(BF2/3/MW3), Rennspiel(Dirt, NFS etc) Sim(Anno etc) und noch irgendwas rnd, kann auch gern ne Testszene sein dann wo man es besonders gut sieht. Damit man mal ne Referenz hat, was die Leute überhaupt sehen.
Du hast selbst gesagt, dass Du keinen direkten Vergleich hast. Also hast Du es Dir noch nicht mal selbst angesehen. Ich schon, und ich sehe einen Unterschied, da brauche ich keine doppel-verblindete, randomisierte Studie dazu um das statistisch signifikant nachzuweisen.
Wie gesagt die AMD Karten (HD5870) sind nicht schlecht, die BQ von NV ist aber doch (für mich) sichtbar besser. Mir Wurscht, ob das andere auch sehen oder nicht. Ich will niemand in seinen Entscheidungen beeinflussen.
Skysnake
2011-11-19, 10:59:02
Klar, aber die meisten Leute wollen einfach, dass das Game bei ihnen auf dem Rechner überhaupt läuft, dann will ein etwas kleinerer Anteil, dass das Game fast auf vollen Einstellungen (kein AA/AF etc) läuft und dann will bereits ein deutlich kleinerer Teil der Käufer, dass das Game mit vollem Detailumfang etc. bei Ihnen läuft. So und erst dann kommt irgendwann die Käuferschicht, die sich dafür interessiert, ob das jetzt 4fach AA/AF oder doch 16 Fach ist, oder sogar SGSSAAS whot ever oder doch nur MLAA.
Schau mal, ich kann dir auch nicht sagen, ob jetzt 8 Fach AA/AF besser ist, oder MLAA. Ich würde eher zu AA/AF tendieren, da MLAA die Sachen doch ziemlich blurt, und ich das nicht mag. Aber ob ich bei einem doppelten Blindtest mich auch für AA/AF entscheiden würde, kann ich dir nicht sagen.
@OgrEgt:
Ich hab nicht gesagt, das ich mich nicht damit beschäftigt habe, aber ich hab bis heute noch nichts gesehen, wo ich für mich sagen kann, ja das würde ich sehen, wenn ich nicht weiß, welche Karte im Rechner steckt, und ich den einfach an mach und anfang zu zocken.
Das ist ja die Sache, warum ein doppelter Blindtest, entscheidend ist. Das hab ich ja mit dem Farbenbeispiel auch versucht zu verdeutlichen. Wenn du die Dinger direkt nebeneinander hälst und den Leuten sagst, da schau das sind 2 Farben, dann werden das wohl >90% der Leute bestätigen. Halt jetzt aber nur einfach erst die eine und dann die andere Farbkarte hin, und frag, ob das die gleiche Farbe ist, und dir werden wohl >>50% bestätigen, dass das die gleiche Farbe ist.
Das ist hat der Unterschied zwischen, etwas überhaupt unterscheiden zu können, und einen Unterschied direkt ohne Vergleichsmuster erkennen zu können.
Und die Vergangenheit hat immer wieder gezeigt, dass die Leute nicht wirklich gut darin sind, Unterschied ohne Vergleich erkennen zu können.
Schau mal, das beste Beispiel ist meine Freundin als Synonym für den 0815 Käufer. Als wir uns nen BD Player gekauft haben, hab ich Sie gefragt, ob das Bild der BD nicht total geil wäre. Weiste was ihre Antwort war?
Ich seh da keinen Unterschied. Und das ist jetzt wirklich etwas, was man recht deutlich sehen kann. Nach dem ich ihr erzählt habe, auf was Sie achten muss und was die Unterschiede sind, hat Sie es verstanden, was anders ist. Es ist aber noch immer so, das Sie oft eben keinen Mangel erkennt, wenn Sie nur ne DVD vorgesetzt bekommt.
Und das sind jetzt wirklich offensichtliche Unterschiede, wo man denkt, ja klar, das muss man ohne Probleme mit nur einem Blick oder einer kurzen Seqzenz eines Films erkennen. Bei dem Geflimmer blablub ist es aber doch schon schwer, überhaupt die Sache zu erkennen, oder warum wurde darüber so lange diskutiert etc. Das war NICHTS, was einem direkt offensichtlich aufgefallen ist, und was die Leute auch reproduzieren und sehen konnten. Und da soll jetzt ein signifikanter Anteil der normalen Käufer einfach in der Lage sein, das zu erkennen? Selbst bei den Leuten, die von der Problematik wissen halte ich es für fraglich, ob die es dann auch wirklich im Blindtest sicher differenzieren können.
Ich für meinen Teil hab da einfach aus der allgemeinen Erfahrung doch so meine Zweifel.
Ich hab auch den Unterschied zwischen 500€ und 15k€ Boxen gehört im Direktvergleich, jetzt wo ich aber nur noch die 500€ Boxen zum hören habe, fällt es mir extrem schwer, die "Mängel" zu erkennen. Eigentlich unmöglich. Ich hab nur keine Referenz mehr, mit der ich einen direkten Vergleich machen kann.
DrFreaK666
2011-11-19, 11:18:05
Manche sind ja froh, dass sie ein Bild haben ^^
Mir ist aber seit über 10 Jahren (Voodoo 5 sei Dank) AA wichtig.
Daher hatte ich vor meine jetzigen GTX480 eine HD5850 (SGSSAA bei fast jedem DX9-Game), bin jetzt aber wieder bei NV gelandet weil hier mehr Möglichkeiten hab.
Mir sind AA und AF wichtig.
Auch beim AF gibts Unterschieder. Viele sehen sie nicht, mir fallen sie jedoch auf)
Spasstiger
2011-11-19, 11:33:33
Was soll eigentlich an 500$ für das neue Single-GPU-Flaggschiff von AMD so abwegig sein? Die Radeon HD 6990 hat eine MSRP von 699$ und wenn die Radeon HD 7970 in derselben Performanceregion spielt, hätte AMD doch den Preis für das High-End-Produkt effektiv gesenkt.
boxleitnerb
2011-11-19, 11:37:42
Weil das der Strategie von AMD zuwiderlaufen würde. Seit der X1900XT hat man keine so hohen Preise mehr verlangt für eine Singlechipkarte. Und das ist ca. 6 Jahre her.
AffenJack
2011-11-19, 11:51:08
Das war aber auch der Konkurenzsituation geschuldet und der Strategie kleine Chips zu bauen. Aber mittlerweile ist man bei 400mm² angekommen und ich wette GCN wird noch größer.
Ich denke es ist auch kein Zufall, dass Killebrew als einer der Urheber der Small-Chips Strategie gehen musste.
boxleitnerb
2011-11-19, 11:52:53
Ja, glaub ich auch. So richtig aufgegangen ist das nicht, die Preise waren im Keller und man hat immer noch weniger verdient als NV. Ich kann es nur begrüßen, wenn AMD jetzt wieder ganz oben mitspielen will.
Duplex
2011-11-19, 12:11:15
Größere Chips haben mehr Potential, aber was möchte AMD damit verdienen?
AMD verdient nichtmal 3% vom Umsatz in der GPU Sparte, wenn das so weitergeht hat man langfristig kein gutes Geschäft mit ATI gemacht.
deekey777
2011-11-19, 13:35:23
Ich glaube nicht, dass AMD ein Problem damit hätte, wenn 10.000e von Tahitis als FirePros oder FireStreams abgesetzt werden.
Skysnake
2011-11-19, 13:45:26
Jup, aber dafür müssen eben einige Sachen wie ECC etc. kommen.
Eyefinity war ja gar kein schlechter Schachzug. Soweit ich das überblicken kann, wird das doch recht gerne eingesetzt, und hat Matrox mit ihren Multimonitorlösungen durchaus unter Druck gesetzt.
Naja, und Sie sollten sich mal auf ihren Hosenboden setzen und die Linux-Treiber auf Vordermann bringen..... Unter Windows läuft das Zeug ja ohne Probleme, aber unter Linux wohl leider immer noch nicht. Das ist natürlich der overkill, wenn man z.B. nur 500 MB vom RAM nutzen kann, weil Sie die OpenCL Implementierung diesbezüglich noch nicht auf die Reihe bekommen haben, und so geht es wohl gerade weiter. Das führt halt dazu, dass die Leute eben lieber zu ner nVidia greifen, weil es weniger Probleme gibt. Betonung liegt auf weniger!
Aber so ruiniert man sich halt seinen Ruf... Leider. Unser Dozent z.B. ist diesbezüglich ziemlich pissed mit AMD, und setzt daher auf nVidia, obwohl er jetzt bewusst OpenCL mit uns macht und KEIN! CUDA. Hat am Anfang CUDA selbst gemacht, ist jetzt aber teilweise umgestiegen.
Die Leute wollen also durchaus etwas anderes als nVidia und CUDA, nur solche Fails darf man sich eben nicht erlauben. Vor allem, der Dozent meinte selbst, als ich davon sprach, das ich unter Windows keine Probleme habe sinngemäß: "Ja unter Windows, aber wir arbeiten mit Linux, und da läuft es eben nicht, und das schon sehr lange. Probleme bestehen und werden nicht gelöst."
DARAN sollte AMD auf jeden Fall auch arbeiten. Da nützt auch die beste Hardware am Ende nichts....
john carmack
2011-11-19, 14:20:53
Glaubt ihr daran? Ist schon ein paar tage alt...
http://www.hartware.de/news_53194.html
"TSMC: 45 % mehr Leistung durch 28 nm"
Hört sich zumindest plausibel an wenn man bedenkt das man in den letzten Jahren die Mehrleistung nicht nur durch die Verkleinerung der Strukturen sondern auch durch zunehmenden Stromverbrauch erkauft hat.
Oder glaubt jemand das AMD/Nvidia das TDP weiter in die höhe treibt um die "gewohnten" 70% - 80% Mehrleistung bei einer neuen Generation zu gewährleisten?
Gipsel
2011-11-19, 14:43:02
Glaubt ihr daran? Ist schon ein paar tage alt...
http://www.hartware.de/news_53194.html
"TSMC: 45 % mehr Leistung durch 28 nm"Die Aussage von TSMC ist schon 2 Jahre alt. ;)
Die bezieht sich auf die reine Transistorperformance bei gleicher Leakage pro Transistor. Bei verdoppelter Transistoranzahl in der GPU (also nur noch die Hälfte an Leakage erlaubt) und zusätzlichen Limitierungen durch die Interconnects (das wird ja nicht schneller), kann man sich überlegen, daß da maximal 20% von übrig bleiben, eher weniger. Aber man kann natürlich auch am Design der GPUs drehen ...
YfOrU
2011-11-19, 15:17:52
Glaubt ihr daran? Ist schon ein paar tage alt..
Bei den mobilen Ablegern wird die Leistung im Vergleich zu vorherigen Generation eher noch höher ausfallen. Im Desktop wurde der Stagnation (40nm) eine Erhöhung der Leistungsaufnahme entgegengesetzt. Bei den mobilen Produkten ist das aufgrund der engen (thermischen) Grenzen nicht möglich.
Als Beispiel herrscht seit GT 335M deshalb gerade im Mainstream/Performance Segment ziemlicher Stillstand denn auch eine GT 540M ist davon nicht weit entfernt - gilt natürlich für AMD ebenfalls, auch wenn mit Whistler im direkten Vergleich zumindest etwas mehr aus der 40nm Fertigung herausgeholt wurde. Das grundlegende Problem vieler, momentan aktueller Produkte im mobilen Markt ist nicht nur die Fertigung alleine, ein nicht unwesentlicher Teil (wie 540M / 6850M etc.) basiert auf recht alten Produkten (unter neuem Label).
Der logische Nachfolger (Heathrow) der 5850M/6850M (wie im alten HP Envy) sollte bei geringerer bis gleicher Leistungsaufnahme die Performance der 6970M erreichen können. Die Einschätzung deckt sich auch ungefähr mit den von SA angegebenen Vantage Werten. Das sind um die 50% mehr Leistung und das wird sich auch im Mainstream/Performance Segment so fortsetzen.
Diese beiden Kategorien (Mainstream/Performance und Enthusiast) sind auch mit die wichtigsten denn alles darüber eignet sich aufgrund der hohen Verlustleistung praktisch nur für reine Gaming Notebooks (seltene Ausnahmen sind manche Workstation Modelle).
Hugo78
2011-11-20, 10:06:50
Gabs das hier schon?
http://www7.pic-upload.de/20.11.11/nzt7w7nkbi.jpg (http://www.pic-upload.de/view-12046029/chiphell_lowend_midrange_rebranding.jpg.html)
AnarchX
2011-11-20, 10:17:59
Alt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9008423#post9008423
horn 12
2011-11-20, 10:37:31
Wann kommen mal Neue Details zur HD7970/7950 ?
Anfang Dezember ... oder doch erst später.
Adam D.
2011-11-20, 11:02:56
Wann kommen mal Neue Details zur HD7970/7950 ?
Anfang Dezember ... oder doch erst später.
Glaskugel anyone? Je näher wie zum Release kommen, umso höher die Wahrscheinlichkeit, dass Informationshäppchen durchsickern. Kennt man doch inzwischen.
Gipsel
2011-11-20, 13:00:44
Jup, aber dafür müssen eben einige Sachen wie ECC etc. kommen.
Zumindest Tahiti kann das. AMD hat beim AFDS angekündigt, daß bei GCN alle internen SRAMs und auch der externe DRAM ECC geschützt sind, bzw. geschützt werden können.
deekey777
2011-11-20, 13:16:40
J...
Naja, und Sie sollten sich mal auf ihren Hosenboden setzen und die Linux-Treiber auf Vordermann bringen..... Unter Windows läuft das Zeug ja ohne Probleme, aber unter Linux wohl leider immer noch nicht. Das ist natürlich der overkill, wenn man z.B. nur 500 MB vom RAM nutzen kann, weil Sie die OpenCL Implementierung diesbezüglich noch nicht auf die Reihe bekommen haben, und so geht es wohl gerade weiter. Das führt halt dazu, dass die Leute eben lieber zu ner nVidia greifen, weil es weniger Probleme gibt. Betonung liegt auf weniger!
...
Vielleicht bin ich jetzt auf dem falschen Weg, aber das mit dem VRAM für GPGPU-Sachen ist anscheinend ein Running Gag bei AMD. Wenn ich mich nicht irre, war selbst mit SDK < 2.0 (alos noch mit Brook+) nicht möglich, den vollen VRAM zu nutzen, sondern nur die Hälfte oder gar ein Viertel. Also gab es von AMD (unter Windows) mit Umgebungsvariablen diese Grenze zu umgehen, wobei nicht gewährleitstet wurde, dass die Programme dann auch stabil laufen.
Auf meiner HD4850 1024 MB können offenbar immernoch nur 256 MB benutzt werden.
Skysnake
2011-11-20, 13:50:42
fragt sich halt nur, warum die das nicht gebacken bekommen …
Hugo78
2011-11-21, 11:45:02
neue 28nm und alte 40nm als HD7000M
http://www.computerbase.de/news/2011-11/details-zu-anstehenden-28-nm-grafikloesungen-von-amd/
was ist denn nun dran an der XDR2 Theorie?
gibt ja die wildesten Spekulationen
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/2170-rambus-amds-neue-geheimwaffe-gegen-nvidia
deekey777
2011-11-21, 18:31:22
In dem Gedankenspiel fehlt etwas: Kosten.
Rambus ist auch nicht gerade der beste Kumpel in der Industrie. Das sind eigentlich größtenteils Patent-Trolle.
mir is klar wer Rambus ist.
Wie wäre denn der Preisliche Unterschied zw XDR2 und GDDR5?
Das kann dir hier keiner beantworten.
Ich kann mir das aber nicht vorstellen, allein aus dem Grund, weil AMD bei der Entwicklung von GDDR5 maßgeblich beteiligt war. Warum soll sich da jetzt was ändern? Es hat bisher glaube ich auch noch niemand XDR2 produziert, es gibt also auch keine Erfahrungswerte.
was ist denn nun dran an der XDR2 Theorie?
gibt ja die wildesten Spekulationen
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/2170-rambus-amds-neue-geheimwaffe-gegen-nvidia
War auch ein XDR2-Gerüchte-Fan, immerhin zahlt AMD ja für die Patente. Aber aller spätestens, seit Charlie von nem 384bit Bus berichtete, kann man das begraben.
nen XDR2 FAN bin ich nicht ;)
ich bin seit dem P4 Ramus "geschädigt" ;) obwohl das Sys echt flott war :)
Dural
2011-11-21, 19:40:50
die komentare bei der "news" finde ich ja genial ;D :freak:
Blediator16
2011-11-21, 19:56:23
die komentare bei der "news" finde ich ja genial ;D :freak:
Wären in jedem herstellerspezifischem Forum so :D
deekey777
2011-11-21, 23:17:38
Aus dem 11.11 aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa:
AMD6742.1 = "AMD Radeon HD 7500/7600 Series"
Entspricht:
"%AMD6742.1%" = ati2mtag_Vancouver, PCI\VEN_1002&DEV_6742
Zum Vergleich:
"%AMD6741.1%" = ati2mtag_VancouverA, PCI\VEN_1002&DEV_6741
"%AMD6763.1%" = ati2mtag_Vancouver, PCI\VEN_1002&DEV_6763
"%AMD6743.1%" = ati2mtag_Vancouver, PCI\VEN_1002&DEV_6743
=
AMD6741.1 = "AMD Radeon 6600M and 6700M Series"
AMD6763.1 = "AMD Radeon E6460"
AMD6743.1 = "AMD Radeon E6760"
Also werden die "neuen" wenigsten einen Hunderter runtergestuft.
Spasstiger
2011-11-22, 15:28:54
Aus dem 11.11 aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa:
Entspricht:
Zum Vergleich:
=
Also werden die "neuen" wenigsten einen Hunderter runtergestuft.
Eigentlich nicht, denn 7500M/7600M haben die Device-ID 6841.
Die Desktop-Radeons auf Turks-Basis tragen bisher die Bezeichnungen Radeon HD 6500/6600.
Mal schauen ob die Topklasse ein 256Bit GDDR5 Speicherinterface oder ein 384/512Bit XDR2 bekommt?
Spasstiger
2011-11-24, 00:05:08
Bis heute hat kein Speicherhersteller XDR2-Speicher angekündigt. Wenn die Radeon-HD-7900-Serie im ersten Quartal 2012 erscheinen soll, kann sie nur auf GDDR5 setzen. Denn lauffähige Samples müsste es in diesem Fall bereits seit einiger Zeit geben.
Ailuros
2011-11-24, 00:05:37
Was soll eigentlich an 500$ für das neue Single-GPU-Flaggschiff von AMD so abwegig sein? Die Radeon HD 6990 hat eine MSRP von 699$ und wenn die Radeon HD 7970 in derselben Performanceregion spielt, hätte AMD doch den Preis für das High-End-Produkt effektiv gesenkt.
Was soll jetzt dieser Vergleich nun schon wieder? Wie sahen die MSRPs fuer Performance GPUs nach R600 genau aus? Auch anders: die 6990 besteht aus 2 cores und hat auch doppelt so viel Speicher als eine 6970, was auch erstmal den Preis der 6990 gerechtfertigt.
Sicher ist zwar nichts, aber ein guter Grund fuer den angeblichen pfiffigen Preis von Tahiti koennte durchaus u.a. in den Herstellungskosten liegen. Wenn Charlie ueberhaupt Recht hat, dann liegt der eigentliche Grund fuer die Preissteigerung wohl nicht hauptsaechlich im hypothetischen 384bit bus bzw. 3GB Speicher. TSMC 28nm yields bzw. Kapazitaeten hin und her, AMD lag im September 2009 schon in der Massenproduktion mit Cypress unter 40G. Ich will zwar noch keine Wetten eingehen aber das Ganze schreit nach einem groesserem als erwarteten die. Mit groesseren Herstellungskosten und auch begrenzten Herstellungsmoeglichkeiten frueh in der 28nm "pipeline". Wenn ja riecht Januar nichtmal nach einem wirklichem "hard launch" mit normaler Verfuegbarkeit.
Ich denek die Differenz der Diegrößen bei vergleichbarer Leistung zwischen Keppler und CGN wird geringer sein als bei VLIW4/5 zu Fermi.
Dural
2011-11-24, 10:00:57
Die Differenz ist schon bei Fermi quasi nicht mehr vorhanden.
GF110 hat einfach sachen drin die RV970 in diesem Ausmass einfach nicht hat und wenn Anwendungen die Möglichkeiten des GF110 voll ausnützen sieht RV970 kein Land mehr...
Bester Vergleich meiner Meinung nach ist GF114 vs RV970, letztere GPU ist nur etwas schneller aber auch grösser ( 330mm2 vs 380mm2 ) und verwendet deutlich mehr Transistoren ( 2Mi. vs 2,6Mi. )
NV steht mit Fermi in High-End Bereich extrem gut da, einzig die kleinen Mainstream Chips stehen (noch?!) im Hintertreffen, Wahrscheinlich ist einfach der Uncore Bereich des Fermi (zu) gross. :confused:
Übrigens könnt ihr mal mit dem Märchen Aufhören das AMD angeblich mehr Spielraum nach oben hat? Das liest man ja immer wieder... RV970 hat 2,65Mi. Transistoren bei 250Watt, da gibt es in 40nm kein nach oben ohne wenn und aber! Wie auch man ist schon an der Grenze des halbwegs Vernünftigen... Ein "AMD" Die hätte bei 500mm2 sicher schon 3,5Mi. Transistoren und mit den Werten die es Aktuell RV970 hat, wäre diese GPU nie vernünftig in 40nm Herstellbar. 300Watt+ ;D zudem hat AMD seit dem RV770 Effizients Probleme, so eine GPU würde in keinem Verhältnis zur Leistung die sie am ende auf die "Strasse" bringt stehen! Das alles ist natürlich auf VLIW4/5 bezogen, mit GNC ist derzeit eh noch kein Vergleich möglich und die Karten werden für AMD komplett neu gemischt.
Übrigens könnt ihr mal mit dem Märchen Aufhören das AMD angeblich mehr Spielraum nach oben hat? Das liest man ja immer wieder... RV970 hat 2,65Mi. Transistoren bei 250Watt, da gibt es in 40nm kein nach oben ohne wenn und aber! Wie auch man ist schon an der Grenze des halbwegs Vernünftigen... Ein "AMD" Die hätte bei 500mm2 sicher schon 3,5Mi. Transistoren und mit den Werten die es Aktuell RV970 hat, wäre diese GPU nie vernünftig in 40nm Herstellbar. 300Watt+ ;D zudem hat AMD seit dem RV770 Effizients Probleme, so eine GPU würde in keinem Verhältnis zur Leistung die sie am ende auf die "Strasse" bringt stehen! Das alles ist natürlich auf VLIW4/5 bezogen, mit GNC ist derzeit eh noch kein Vergleich möglich und die Karten werden für AMD komplett neu gemischt.
Sehe ich anders. Wenn man Takt reduziert und dafür den Chip "breiter" auslegt, bringt das mehr Leistung bei weniger Verbrauch. So, wie es bei mobile-GPUs gemacht wird. Natürlich gehen dann die Kosten auch nach oben, aber das war ja jetzt nicht das Thema.
Duplex
2011-11-24, 11:17:59
Wenn Tahiti´s Größe um die 500mm² ausfallen sollte & der Chip z.b. 80% schneller als Cayman wird, dann sehe ich kein Problem, die Single Karten werden dann einfach zwischen 350-450 € verkauft.
Ich bin gespannt ob das AF Problem gefixt wurde, am besten noch DX11 SGSSAA und die Karten könnten interessant werden.
An einem 384 Bit SI glaube ich nicht, wenn dann wird man wie beim R600 oder GT200 auf 512 Bit setzen.
deekey777
2011-11-24, 19:09:51
Signs of early radeon 7xxx support in ATI drivers (http://netkas.org/?p=1009)
As you might have heard, Tahiti is a nickname for next amd video cards, probably 79×0.
And guess what, there is some info about it in 10.7.3 beta drivers, in ATIRadeonX3000.kext: ...
Wäre für AMD schon ein Riesenvorteil, wenn Apple weiterhin die Radeons nutzt. Der Mac Pro nutzt immernoch die Evergreens. Für mich ein Anzeichen dafür, dass bald eine neue Generation des Mac Pro kommt und dazu mit den kommenden HD700.
Skysnake
2011-11-24, 19:30:36
wäre schon gut, wenn AMD Apple als Kunden halten könnte.
OgrEGT
2011-11-24, 19:35:32
zudem hat AMD seit dem RV770 Effizients Probleme, so eine GPU würde in keinem Verhältnis zur Leistung die sie am ende auf die "Strasse" bringt stehen! Das alles ist natürlich auf VLIW4/5 bezogen, mit GNC ist derzeit eh noch kein Vergleich möglich und die Karten werden für AMD komplett neu gemischt.
Effizienzprobleme bei der HD5870 (RV870)?
Idle 20,8W
Last 158,3W (Spiele)
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index13.php
Höhere Leistung als eine GTX285 und niedriger Verbrauch.
HD6970 (RV970)
Idle 21,8W
Last 205,2W (Spiele)
http://ht4u.net/reviews/2011/powercolor_radeon_hd_6970_pcs_plus_test/index12.php
Effizienz (Leistung/W) zwar gesunken, aber i.V. zu GTX570 und GTX580 (20%mehr Leistung, 20% mehr Stromaufnahme) auf Augenhöhe.
Effizienzproblem kann man das mMn auch nicht nennen.
Ansonsten hast Du recht, zu GCN kann man derzeit noch nichts sagen, hinsichtlich Die-Größe, Packdichte, Energieeffizienz, etc.
(oder anyone? :wink:)
boxleitnerb
2011-11-24, 20:05:40
Wenn AMD an die Leistung der 580 rangewollt hätte, wäre der Verbrauch ähnlich ausgefallen. Letztes MHz rausquetschen -> Spannung hoch. Im Highend hat AMD den Effizienzvorteil, den man mit HD5000 hatte, fast vollständig aufgegeben.
Und einen 55nm Chip mit einem 40nm Chip bzgl. Effizienz zu vergleichen ist...interessant.
OgrEGT
2011-11-24, 20:46:58
Wenn AMD an die Leistung der 580 rangewollt hätte, wäre der Verbrauch ähnlich ausgefallen. Letztes MHz rausquetschen -> Spannung hoch. Im Highend hat AMD den Effizienzvorteil, den man mit HD5000 hatte, fast vollständig aufgegeben.
Und einen 55nm Chip mit einem 40nm Chip bzgl. Effizienz zu vergleichen ist...interessant.
Gegen welchen Chip würdest Du denn die HD5870 vergleichen?
boxleitnerb
2011-11-24, 20:58:00
Gegen welchen Chip würdest Du denn die HD5870 vergleichen?
Gegen einen im selben Prozess bzw. in derselben DX-Generation. Ich sag da jetzt auch nix Spezifisches, das artet dann wieder in Haarspalterei und Prozentfeilscherei aus :freak:
Außerdem ist es müßig, über die Vergangenheit zu diskutieren. Dass Nvidia da keine Effizienzwunder vollbracht hat mit Fermi ist wohlbekannt. Aktuell ist man nur noch wenig hintendran bzw. auf Augenhöhe. AMD steht der Schritt, ihre Chips konsequent auch auf HPC zu trimmen, noch bevor. Nvidia macht dies seit G80 und zahlt dafür natürlich in anderen Bereichen drauf. Das Duell Kepler/SI wird eines der interessantesten der letzten 5 Jahre finde ich.
OgrEGT
2011-11-24, 21:49:20
Gegen einen im selben Prozess bzw. in derselben DX-Generation. Ich sag da jetzt auch nix Spezifisches, das artet dann wieder in Haarspalterei und Prozentfeilscherei aus :freak:
Keine Sorge. Bin nicht so fanatisch... Aber trotzdem, ich habe gegen die GTX285 verglichen, weil es nix vergleichbareres gegeben hat damals. Höhere Leistung in 40nm bei NV gab es damals dann in Form von Fermi1...
Außerdem ist es müßig, über die Vergangenheit zu diskutieren. Dass Nvidia da keine Effizienzwunder vollbracht hat mit Fermi ist wohlbekannt. Aktuell ist man nur noch wenig hintendran bzw. auf Augenhöhe. AMD steht der Schritt, ihre Chips konsequent auch auf HPC zu trimmen, noch bevor. Nvidia macht dies seit G80 und zahlt dafür natürlich in anderen Bereichen drauf. Das Duell Kepler/SI wird eines der interessantesten der letzten 5 Jahre finde ich.
Ich bin auch gesapnnt :cool:
Die mobile Chips von beiden Herstellern sind relativ kurz beieinander angekündigt, sieht Prozess-mäßig ziemlich pari aus. Interessant wird, wie die neue Architektur bei AMD laufen wird. NV's Ankündigungen hinsichtlich der guten Effizienz von Kepler lässt auf einen guten Prozess hoffen (auf beiden Seiten).
Das Duell Kepler/SI wird eines der interessantesten der letzten 5 Jahre finde ich.
Es scheint vor allem mal wieder ein richtiger BÄM in Sachen Leistung drin zu sein (Faktor 2), das macht die Geschichte so nerdig-spannend. :D Der Fertigungssprung ist deutlich. Wenn Ati das AF endlich ins 21. Jahrhundert hievt und eventuell noch irgendetwas in Sachen Supersampling schraubt, gehöre ich vielleicht auch mal zu den Early Adopters. Die Radeon HD 5870 war vor 2 Jahren eigentlich viel zu geil, um sie ein halbes Jahr reifen zu lassen, das möchte ich diesmal vermeiden. Noch sind aber viel zu viele Parameter (Feinheiten!) offen.
MfG,
Raff
boxleitnerb
2011-11-24, 23:52:33
Wann ist eigentlich der nächste PCGH-Themenabend mit Nvidia/AMD? Wenn wir demnächst noch mehr Power haben, darf die obligatorische Frage der BQ-Nazis nicht fehlen, ob da nochwas kommt, um selbige auch umsetzen zu können.
Nightspider
2011-11-25, 00:08:09
Es scheint vor allem mal wieder ein richtiger BÄM in Sachen Leistung drin zu sein (Faktor 2), das macht die Geschichte so nerdig-spannend. :D Der Fertigungssprung ist deutlich. Wenn Ati das AF endlich ins 21. Jahrhundert hievt und eventuell noch irgendetwas in Sachen Supersampling schraubt, gehöre ich vielleicht auch mal zu den Early Adopters. Die Radeon HD 5870 war vor 2 Jahren eigentlich viel zu geil, um sie ein halbes Jahr reifen zu lassen, das möchte ich diesmal vermeiden. Noch sind aber viel zu viele Parameter (Feinheiten!) offen.
MfG,
Raff
Same here. :)
Ich guck schon auf die Finanzen um mir eine schöne 28nm HighEnd GPU in den PC bauen zu können.
Die würde ich dann sogar gleich mit Wakü quälen wollen. :D
MiamiNice
2011-11-25, 00:12:34
Jo, das wird ein netter Showdown. Und es könnte sogar sein das nach Jahren das erste mal Hardware von AMD in meinem Gehäuse Platz findet. Das wäre schon eine kleine Revolution :biggrin:
Gerade in der Generation mache ich mir eher Sorgen um AMD. NV mit Design Wins im Mobilbereich, ist sicher kein gutes Zeichen.
john carmack
2011-11-25, 10:47:12
Komisch das das hier so ziemlich die einzigen Spekulationen sind die ich finden konnte...
http://s7.directupload.net/images/111027/temp/adnbcr9y.jpg (http://s7.directupload.net/file/d/2690/adnbcr9y_jpg.htm)
Gibts denn keine anderen Seiten die wild Rumspekulieren oder glauben zu wissen was die HardwareSpecs angeht? :D
Was am XDR2 Gerücht dran ist kann wohl keiner beantworten. Hört sich aber lecker an.
Da niemand XDR2-Speicher prodiziert (außer es wird geheimgehalten), kann man das eigentlich schon beantworten: Nein.
Da niemand XDR2-Speicher prodiziert (außer es wird geheimgehalten), kann man das eigentlich schon beantworten: Nein.
Kann AMD das nicht für sich bei GF oder TSMC in Auftrag geben? Wenn es nicht für den freien Mark produziert wird, weiss doch niemand was so alles aus den Fabs kommt.
Spasstiger
2011-11-25, 13:52:23
Warum sollte AMD ohne Note eigenen XDR2-Speicher entwickeln und fertigen? Wenn es ein Speicherbandbreitenproblem bei Tahiti gibt, kann man das recht konventionell durch ein breiteres Speicherinterface (im Sinne von mehr Kanäle) und GDDR5-Speicher lösen.
An die AIB-Partner muss man dabei auch denken, schließlich fertigt AMD nicht selbst die Grafikkarten, sondern verkauft lediglich die GPUs. Die AIB-Partner wären nicht gerade glücklich darüber, wenn sie Speicher exklusiv bei AMD beziehen müssten und nicht vom Wettbewerb der Speicherhersteller profitieren können.
LovesuckZ
2011-11-25, 13:54:35
AMD und nVidia verkaufen neben den GPUs natürlich auch den Speicher. Nur in einigen Ausnahmefällen kümmern sich AIBs selbst darum. Das ist auch der sinnvollste Weg, da die Abnahmemenge von nVidia und AMD um ein vielfaches höher ist als der von den einzelnen AIBs.
Spasstiger
2011-11-25, 14:09:59
Wenn fiktiver XDR2-Speicher von AMD in keinem Wettbewerb zu Speicher von anderen Herstellern steht, ist er trotzdem tendentiell zu teuer, was sich negativ auf die Grafikkartenpreise und die Absätze auswirkt. AMD müsste auch erstmal die Entwicklungskosten für den Speicher reinbekommen, was bei den vergleichsweise geringen Absatzmengen (nur High-End) einen erheblichen Kostenfaktor darstellen kann.
Hast du übrigens Quellen dafür, dass die IHVs den Speicher einkaufen und an die AIB-Partner vermitteln? Ich hab schon in DRAM-Handelsforen Angebote für mittlere Mengen (z.B. 10.000 Stück) an GDDR5-Chips gefunden. Das wäre ja nicht nötig, wenn die AIB-Partner immer die passenden Mengen von AMD und NVidia beziehen.
Gipsel
2011-11-25, 14:20:03
DRAM wird übrigens mit deutlich anderen Prozessen gefertigt als Logik. GF oder TSMC könnten gar nicht mal so eben DRAM bauen (oder nur sehr schlechten), selbst wenn sie es wollten.
LovesuckZ
2011-11-25, 14:23:17
Wenn fiktiver XDR2-Speicher von AMD in keinem Wettbewerb zu Speicher von anderen Herstellern steht, ist er trotzdem tendentiell zu teuer, was sich negativ auf die Grafikkartenpreise und die Absätze auswirkt. AMD müsste auch erstmal die Entwicklungskosten für den Speicher reinbekommen, was bei den vergleichsweise geringen Absatzmengen (nur High-End) einen erheblichen Kostenfaktor darstellen kann.
Da solcher Speicher sowieso nur von einer Firma kommen würde, spielt "Konkurrenz" keine Rolle.
Hast du übrigens Quellen dafür, dass die IHVs den Speicher einkaufen und an die AIB-Partner vermitteln? Ich hab schon in DRAM-Handelsforen Angebote für mittlere Mengen (z.B. 10.000 Stück) an GDDR5-Chips gefunden. Das wäre ja nicht nötig, wenn die AIB-Partner immer die passenden Mengen von AMD und NVidia beziehen.
Es hindert doch niemanden daran Speicher an AIBs zu verkaufen. Nur ist für einen AIB unsinnig sich selbst den Aufwand aufzuerlegen: Immerhin muss er dann Chip, Platine und Speicher auf Kompartibilität testen. Und im Gegensatz zu früher, gibt es heute - vorallem im High-End - kein Bedarf mehr an Eigenentwicklungen.
nVidia führt "Memory" in ihren Finanzposten auf. Das bezieht sich direkt auf Grafikkarten.
Ailuros
2011-11-25, 14:26:33
Wenn Tahiti´s Größe um die 500mm² ausfallen sollte & der Chip z.b. 80% schneller als Cayman wird, dann sehe ich kein Problem, die Single Karten werden dann einfach zwischen 350-450 € verkauft.
Wenn der chip tatsaechlich ~500mm2 gross sein sollte dann kostet die finale GPU garantiert nicht weniger als 450 Euro beim Start.
An einem 384 Bit SI glaube ich nicht, wenn dann wird man wie beim R600 oder GT200 auf 512 Bit setzen.
Sicher; denn wenn man hypothetisch einen ohnehin schon relativ grossen Die hat, hat man ja wohl auch den Luxus mit Busbreiten frei herumzuspielen da Kosten ja kein Kopfschmerz mehr sind :rolleyes:
Hmm, Verzögerungen bei 28- und 22-Nanometer-Halbleiterchips
http://www.heise.de/newsticker/meldung/Verzoegerungen-bei-28-und-22-Nanometer-Halbleiterchips-1385599.html
DRAM wird übrigens mit deutlich anderen Prozessen gefertigt als Logik. GF oder TSMC könnten gar nicht mal so eben DRAM bauen (oder nur sehr schlechten), selbst wenn sie es wollten.
Wollt's grad sagen.
M4xw0lf
2011-11-25, 17:44:45
Wer fertigt denn überhaupt XDR bzw XDR2, niemand aktuell?
Black-Scorpion
2011-11-25, 17:55:38
Wieso aktuell? Hat der XDR2 überhaupt schon einmal das Licht der Welt gesehen.
Nur Test-Samples, wenn überhaupt.
Wer fertigt denn überhaupt XDR bzw XDR2, niemand aktuell?XDR gibts in der PS3, von Samsung. XDR2 .. keine Ahnung.
Wann ist eigentlich der nächste PCGH-Themenabend mit Nvidia/AMD? Wenn wir demnächst noch mehr Power haben, darf die obligatorische Frage der BQ-Nazis nicht fehlen, ob da nochwas kommt, um selbige auch umsetzen zu können.
Ich fürchte, da ist kaum mehr jemand (deutschsprachiges) zum Fragen ... Aber Launch-Events sind großartig zum Nerven der richtigen Leute. :naughty:
MfG,
Raff
Hugo78
2011-11-26, 00:38:38
Sorry fürs OT:
Wenn wir demnächst noch mehr Power haben, darf die obligatorische Frage der BQ-Nazis nicht fehlen, ob da nochwas kommt, um selbige auch umsetzen zu können.
Mach den Amis keine Angst. :D
http://www.youtube.com/watch?v=LXhvdHrC1RM&feature=related
horn 12
2011-11-27, 09:25:05
Also falls es am 6. bis 8.ten Dezember wirklich losgeht müssten doch endlich mal Infos bezüglich der Vorstellung (Ort + Uhrzeit) durchsickern, oder überrascht uns diesesmal AMD vollkommen?
AffenJack
2011-11-27, 09:35:58
Es gibt kein große Vorstellung weil da nix großes kommt. Entweder nur Renaming oder im besten Fall kleine 28nm Notebookchips. Das ist doch schon lange klar.
mironicus
2011-11-29, 11:30:44
http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&layout=2&eotf=1&u=http://www.nordichardware.se/nyheter/71-graphics/44765-radeon-hd-7000-presenteras-i-london-5-december-extra.html
Wird wohl nur eine Ankündigung.
Wenn Sie bei der Ankündigung wenigstens lauffähige Versionen haben, dann wär das schon was.
AnarchX
2011-12-01, 08:16:22
[...]AMD kept the unified clock concept and given that Radeon HD 7970 is based on fully configured "Tahiti XT" GPU, 2048 cores (32 Compute Units) operate at 1GHz clock. 3GB of GDDR5 memory operates in Quad Data Rate mode i.e. 1.37GHz ODR ("effective 5.5GHz"). This results with record video memory bandwidth for a single GPU - 264GB/s.
The HD7950 is based on "Tahiti Pro" and packs 30 Compute Units for 1920 cores operating at 900MHz. The number of ROPs decreased to 60, while Texture units naturally reduced to 120 (as every CU connects to 2 ROPs and 4 TMUs). Our sources did not disclose if the memory controller is still 384-bit or a 256-bit one, but the memory clock was decreased to 1.25GHz, i.e. the same clock as previous gen models. Should 384-bit controller stay, the clock should be good for 240GB/s of bandwidth.
Both products are expected to be released on CES 2012 in Las Vegas, NV, occupying the $349-449 price bracket. Those additional gigabytes of memory (and processing cores) will certainly cost a lot of $$$.
[...]
http://www.brightsideofnews.com/news/2011/11/30/radeon-hd-7000-revealed-amd-to-mix-gcn-with-vliw4--vliw5-architectures.aspx
Klingt aber eher nach einem Repost mit der 384-Bit GDDR5 Anpassung, dieser Meldung: http://www.nordichardware.com/news/71-graphics/44072-radeon-hd-7900-series-gets-new-architecture-and-xdr2-rambus-memory.html
robbitop
2011-12-01, 09:22:17
Rein von der Rohleistung bei gleichem Takt nur ca. 30 % mehr ggü. R900 (oder RV970??). Die gesteigerte Effizienz der ALUs wird da nochmal ordentlich was drauflegen. Vieleicht nochmal + 30 %. + 13 % Mehr Takt. Dann käme man immerhin auf effektiv bis zu ~90 % mehr Rechenleistung. Das ist OK.
Bandbreite steigt auch nochmal um 50 % durch breiteres SI.
Das ließ sich möglicherweise nicht vermeiden, da die verfügbaren GDDR5-Taktraten seit RV870/R900 kaum zunahmen, aber der Bandbreitenbedarf dank höherer Rohleistung deutlich stieg.
Um die Mehrleistung auf die Straße bringen zu können, hat man hoffentlich diesemal wirklich richtig was am Front-End getan.
Alles in allem klingt das nicht unrealistisch.
deekey777
2011-12-01, 11:49:44
Cayman hat 32 ROPs, wie soll die ROP-Zahl gesunken sein?
Der_Korken
2011-12-01, 13:00:28
Cayman hat 32 ROPs, wie soll die ROP-Zahl gesunken sein?
Das bezieht sich bestimmt auf die 7970, die dann wohl 64 ROPs hat. Zumindest würde dann das Verhältnis zum Rest wieder passen.
john carmack
2011-12-01, 13:31:45
ist eigentlich schon irgendetwas zu einem NDA bekannt?
robbitop
2011-12-01, 13:39:12
Die Anzahl von ROPs sagt doch gar nicht unbedingt alles aus. Eine ROP eine variable Anzahl an Z-Test Einheiten beinhalten.
IMO wird R1000 einen ordentlichen Sprung ggü R900 hinlegen. Sicher nicht ganz Faktor 2. Aber ähnlich dem Sprung zwischen RV770 zu RV870.
Wann hatten wir schon das letzte Mal einen Sprung von Faktor 2? G80 und RV770 ... schon 'ne Weile her... ;)
Ronny145
2011-12-01, 13:57:05
ist eigentlich schon irgendetwas zu einem NDA bekannt?
Die Presse wird am 5./8. Dezember gebrieft, da wird es sicher ein Maulkorb-NDA geben.
Dural
2011-12-01, 14:06:37
Aber ähnlich dem Sprung zwischen RV770 zu RV870.
das waren ziemlich genau 50% bei 100% mehr Einheiten.
robbitop
2011-12-01, 15:53:06
das waren ziemlich genau 50% bei 100% mehr Einheiten.
Aber nicht bei Pixellimitierung (Downsampling, SGSSAA). Da sind es deutlich mehr als 50 %.
Diese 50 % kamen, wenn das Front-End limitierte.
Da sie das bei R1000 sicher ordentlich aufbohren, sollte die erhöhte Rohleistung auch fast voll durchschlagen.
john carmack
2011-12-01, 15:59:50
Die Presse wird am 5./8. Dezember gebrieft, da wird es sicher ein Maulkorb-NDA geben.
uups... ich muss mich korrigieren...
Ich meinte eigentlich ab wann das NDA NICHT meht gilt...
kruemelmonster
2011-12-01, 16:12:06
Diese Information ist idR mit Bestandteil des NDA.
Ailuros
2011-12-01, 16:26:45
Cayman hat 32 ROPs, wie soll die ROP-Zahl gesunken sein?
Ich weiss zwar nicht wieviele ROPs SI haben wird, aber die Anzahl jeglicher Einheiten ist ziemlich nutzlos so lange man nicht weiss wie effizient jegliche Einheit ist und ueber was sie genau faehig ist.
Das bezieht sich bestimmt auf die 7970, die dann wohl 64 ROPs hat. Zumindest würde dann das Verhältnis zum Rest wieder passen.
Ausser ich hab mal wieder einen brainfart und verpasse etwas:
384bit bus / 64bits = 6 ROP partitions
64 / 6 = 10.6666666666666.........
:rolleyes:
john carmack
2011-12-01, 16:26:52
Der R1000 ist übrigenz auch die 10 Gen. :D
Jubiläum :D
Das waren noch Zeiten...
Radeon 7000
http://www.ixbt.com/video2/images/r9700-5/r7500-scan-front.jpg
Jahr: 2001
GPU: R100 @ 167Mhz @ 180nm Struckturbreite @ ich glaube irgendwas zwischen 25Mio und 50Mio Transistoren
32MB - 64MB DDR1 @ 183Mhz
64Bit - 128Bit SI @ ~3GB/s
DX7
Lang, lang ist´s her... :)
Damals musste ich mich zwischen einer Radeon 7000 @ 64MB und einer GeForce 2GTS @ 32MB entscheiden. Hab mich für die GTS entschieden weil sie etwas schneller war :)
PS. Da fällt mir grad auf das der R300-Core alias Radeon 9700 ein 256Bit SI hatte und das bei nur 107 Mio Transistoren.
So viele Transistoren kann doch ein 512Bit SI bei aktuellen oder in den nächsten Generationen gar nicht verbrauchen oder? GDDR3 - GDDR5 sei mal dahingestellt...
Ailuros
2011-12-01, 16:28:24
Koennen wir bitte beim Thema bleiben? Danke.
AnarchX
2011-12-01, 16:35:30
384bit bus / 64bits = 6 ROP partitions
64 / 6 = 10.6666666666666.........
Warum müssen bei GCN die Speicherkontroller mit den ROPs gekoppelt sein?
Ailuros
2011-12-01, 16:50:09
Warum müssen bei GCN die Speicherkontroller mit den ROPs gekoppelt sein?
Muessen ist relativ. Anders gefragt was gewinnen sie davon wenn die ROPs vom MC entkoppelt sind und noch besser mit 64 anstatt 48 ROPs?
Mir ist kein Fall bewusst wo heutige Radeons das Nachsehen haben mit ihren 32 ROPs im Vergleich zu 48 der Konkurrenz. Falls die Antwort irgend etwas in der Richtung von single cycle 8xMSAA lauten sollte, erlaube ich mir gleich es als hw Verschwendung abzustempeln.
Gipsel
2011-12-01, 17:05:34
PS. Da fällt mir grad auf das der R300-Core alias Radeon 9700 ein 256Bit SI hatte und das bei nur 107 Mio Transistoren.
So viele Transistoren kann doch ein 512Bit SI bei aktuellen oder in den nächsten Generationen gar nicht verbrauchen oder? GDDR3 - GDDR5 sei mal dahingestellt...
Externe Interfaces benötigen nicht viele Transistoren, sondern sehr große (die auch bei Prozeßwechseln praktisch nicht kleiner werden), da erhebliche Ströme (und auch höhere Spannungen) über größere Entfernungen (bis zum Speicherchip und nicht nur einen halben Millimeter bis zur benachbarten Einheit auf dem Die) getrieben werden müssen.
robbitop
2011-12-02, 10:15:15
384bit bus / 64bits = 6 ROP partitions
64 / 6 = 10.6666666666666.........
Speicherinterface und ROPs müssen IMO nicht zwingend in der Anzahl fixiert sein. Die ROPs und die Speicherkanäle sollten auch über ein Crossbar verbindbar sein. Schon ist die ROP Anzahl unabhängig.
Muessen ist relativ. Anders gefragt was gewinnen sie davon wenn die ROPs vom MC entkoppelt sind ...?
Der Wirkungsgrad steigt, weil die ROPs nicht auf jeweilige Speicherkanalpartner fixiert sind, sondern unabhängig sind. Aber natürlich kostet eine entsprechende Crossbarverbindung inkl. Kontrolllogik für die effiziente Nutzung unabhängiger ROPs natürlich auch wieder.
Ailuros
2011-12-02, 15:19:11
Schoen und fuer was genau braucht GCN gleich 64 ROPs und dazu sogar bei angelichen 1GHz? Der BSN Artikel ist so oder so nicht ernst zu nehmen denn es ist lediglich eine Sammlung offizieller slides mit einer bunten Mischung aus falschen Bumsgeruechten die links und rechts im Netz kursieren. Gott Theo hat halt XDR2 weggelassen aber sonst hat sich nicht viel in der angeblichen "Produktlinie" geaendert.
Fuer Tahiti PRO schneidet dann die idiotische moechtegern Liste 4 ROPs ab, weil 2 CUs weniger als ob es irgend eine Rolle spielen wuerde. Mein eigentlicher Punkt ist dass es sich leider wieder lediglich um BullShitNews handelt.
Ailuros
2011-12-02, 16:15:38
http://www.fudzilla.com/graphics/item/25089-amd-radeon-hd-7000-series-priced
$550 fuer die 7970? :rolleyes:
AnarchX
2011-12-02, 16:38:25
:rolleyes:@ Fudo oder :rolleyes: @ AMDs Preisgestaltung? :D
Ailuros
2011-12-02, 16:55:36
:rolleyes:@ Fudo oder :rolleyes: @ AMDs Preisgestaltung? :D
Ausser es handelt sich NICHT um eine Performance sondern high end GPU bei TahitiXT/7970, ist 550 verdammt viel dafuer. Rolleyes fuer AMDs Preisgestaltgung wenn's stimmt.
Ich hab's schlecht in Erinnerung: wie hoch war denn der 6970 MSRP?
LovesuckZ
2011-12-02, 16:56:44
Die 6970 ist auch ein falscher Vergleich, weil sie nach der GTX570 auf dem Markt kam.
Der MSRP der 5870 lag bei $379.
deekey777
2011-12-02, 16:57:53
Oder: :cop:fuad:cop:
(Hatten wir schon lange nicht)
Niedrig sind die Preise keineswegs, aber warum nicht? Das sind doch die Preise aus den guten alten Zeiten von vor zehn Jahren für absolute Topprodukte.
Andererseits ist das wohl der Preis für die XDR2-Edition.
AnarchX
2011-12-02, 17:05:08
Die 6970 ist auch ein falscher Vergleich, weil sie nach der GTX570 auf dem Markt kam.
Der MSRP der 5870 lag bei $379.
Und der Marktpreis wegen Knappheit um einiges darüber.
Vielleicht gibt es da eine Absprache mit NV im Bezug auf die High-End-GPUs... ;D
Ailuros
2011-12-02, 17:06:09
Oder: :cop:fuad:cop:
(Hatten wir schon lange nicht)
Zufaelligerweise berichtete auch Charlie ueber 384bit und einen $500 Preis.
Niedrig sind die Preise keineswegs, aber warum nicht? Das sind doch die Preise aus den guten alten Zeiten von vor zehn Jahren für absolute Topprodukte.
Eben genau machen sie auch absolut keinen Sinn unter den heutigen Verhaeltnissen.
Andererseits ist das wohl der Preis für die XDR2-Edition.
Gibt's einen smiley wo sich der Kopf in Exorcist-style um 360 Grad dreht?
LovesuckZ
2011-12-02, 17:06:22
Na, vielleicht setzt man deswegen gleich auf $550. Man schrüpft die, die sowieso die Karte wollen, wenn man schon nicht 10 Stück oder so liefern kann.
Damit hätte man aus dem Cypress-Launch gelernt.
Hugo78
2011-12-02, 17:14:14
Bei der voraussichtlich geringen Verfügbarkeit in Q1, kann AMD auch mit 700€ einsteigen.
Selbst als "Greenwing" kann ich das nur begrüßen, denn so machen sich die Hersteller die Preise nicht gegenseitig kaputt.
Beide bekommen noch die Lager leer bis anfang Q2 2012, was dann hoffentlich der Zeitpunkt ist ab dem TSMC bessere Yields liefern kann.
Ailuros
2011-12-02, 17:14:55
Na, vielleicht setzt man deswegen gleich auf $550. Man schrüpft die, die sowieso die Karte wollen, wenn man schon nicht 10 Stück oder so liefern kann.
Damit hätte man aus dem Cypress-Launch gelernt.
Alles angenommen dass der Preis auch stimmt, aber AMD hatte nur mit den 5850-ern ein Herstellungskosten-Problem und deshalb kam nachtraeglich nochmal das $20 premium auf dessen Preis drauf. Der 5870 Preis wurde nicht beruehrt.
Wenn man nur so verdammt begrenzt liefern kann wie Du andeutest, dann reicht selbst ein $550 Preis nicht die insgesamten Kosten zu decken.
LovesuckZ
2011-12-02, 17:19:34
Ja, aber wahrscheinlich will man es nicht sofort übertreiben. $500-$550 liegen im Einklang mit dem, was man auch heutzutage vom High-End gewöhnt ist. Außerdem entlastet es die Angebotssituation. Wenn AMD aber genausowenig liefern kann wie bei Cypress über die ersten 3 Monate, dann ist das ganze sowieso belanglos.
Ailuros
2011-12-02, 17:35:16
Ja, aber wahrscheinlich will man es nicht sofort übertreiben.
Wenn die Herstellungskosten zu hoch sind, dann stellt unter normalen Umstaenden (wie auch NV) ein IHV nichts her. Mein Verdacht ist lediglich dass der die diesmal groesser und die Herstellungskosten auch dementsprechend hoeher. AMD waere schoen bloed wenn sie chips mit Verlust zur Produktion schicken wuerden.
In der momentanen finanziellen Situation von AMD hat man nicht den Luxus zu irgendwelchen solchen Turnereien. Lediglich Intel waere es theoretisch wurscht; theoretisch weil sie es auch nicht machen.
Wenn's stimmt wuerde es eher Sinn machen sich auf mainstream und co zu konzentrieren und die begrenzten Tahiti dies in Profi-Maerkten zu verkaufen.
$500-$550 liegen im Einklang mit dem, was man auch heutzutage vom High-End gewöhnt ist. Außerdem entlastet es die Angebotssituation. Wenn AMD aber genausowenig liefern kann wie bei Cypress über die ersten 3 Monate, dann ist das ganze sowieso belanglos.
Und nach 3 Monaten wird dann das mGPU Monster angekuendigt mit welchem Preis genau?
500$ geht locker, wenn man in der Leistungsklasse konkurrenzlos ist.
LovesuckZ
2011-12-02, 18:42:07
Und nach 3 Monaten wird dann das mGPU Monster angekuendigt mit welchem Preis genau?
$800-$1000 sind doch in Ordnung. Bei diesen Karten handelt es sich nicht um Massenware. Solange Reviewer genug haben, hat man ja die schnellste Karte. :D
Ailuros
2011-12-02, 19:28:31
500$ geht locker, wenn man in der Leistungsklasse konkurrenzlos ist.
Schlechte Zeiten fuer solche Logik.
$800-$1000 sind doch in Ordnung. Bei diesen Karten handelt es sich nicht um Massenware. Solange Reviewer genug haben, hat man ja die schnellste Karte. :D
Der Vorteil dass sie keine single high end chips mehr entwickelt haben seit R600 war dass sich durch die Zeit die Preise selbst fuer high end single GPU um einiges reduziert haben. Psychologisch bleibt es beim Otto-Normalverbraucher auch so eingepraegt. Wendet man jetzt das Blatt ueber Nacht, kann es generell nichts gutes heissen was den ersten Eindruck betrifft. Ich persoenlich als Verbraucher lass mir solchen Bloedsinn nicht gefallen.
Es geht auch wenn der Konkurrent den gleichen Fertiger nutzt, einen min. ebenso komplexen Chip baut und schlechtere Yields fährt.
Ailuros
2011-12-02, 19:39:23
Es geht auch wenn der Konkurrent den gleichen Fertiger nutzt, einen min. ebenso komplexen Chip baut und schlechtere Yields fährt.
Wer genau soll schlechtere yields haben?
horn 12
2011-12-02, 19:55:33
Dennoch rechne ich nicht mit mehr als 350 Euro für HD7950 und 450-500 Euro für HD7970
Auch die HD6950 / 6970 kostete zu Release 260 / 330 Euro und spiele Performance mässig sich eine andere Liga.
Dies lasst man sich halt locker bezahlen!
Ailuros
2011-12-02, 19:56:54
Dennoch rechne ich nicht mit mehr als 350 Euro für HD7950 und 450-500 Euro für HD7970
Auch die HD6950 / 6970 kostete zu Release 260 / 330 Euro und spiele Performance mässig sich eine andere Liga.
Dies lasst man sich halt locker bezahlen!
Fuer eine 2*6pin GPU? Nein danke.
Screemer
2011-12-02, 20:46:38
du hast wohl die "guten" alten zeiten vergessen? 1000DM warn mal "normal" bzw. nicht so außergewöhnlich.
Ailuros
2011-12-02, 20:53:13
du hast wohl die "guten" alten zeiten vergessen? 1000DM warn mal "normal" bzw. nicht so außergewöhnlich.
Ich hab mich sehr wohl daran erinnern, denn ich hab selber auch solche Preise bezahlt damals. Was Du oder die meisten hier zu vergessen scheint, ist dass es damals keine finanzielle Krise gab.
Knuddelbearli
2011-12-02, 21:13:52
na seit damals hat alleine die Inflation aber auch mit über 55% zugeschlagen
mir ist ein guter Wettbewerb ( beiden Unternehmen geht es gut ) lieber als möglichst geringe Preise.
Käsetoast
2011-12-02, 21:18:08
Ich denke auch nicht, dass die neuen Karten bedeutend teurer werden als die 5000er / 6000er Serie bei ihrer Einführung. Zumindest nicht unter der Voraussetzung, dass die Chips ähnlich groß sind. Ich sehe keinen Grund, dass man "von heute auf morgen" mehr zahlen sollte als nur einen Preis, der die Produktionskosten für die Fläche an Chip abdeckt (und natürlich dessen Entwicklung & Co) plus einem kleinen Bonus den man als Erstkäufer halt zu zahlen hat...
Vergleiche mit den 1000DM Karten von damals finde ich schon dahingehend müßig, da der Absatzmarkt damals doch noch deutlich anders und kleiner war als heute. Klar - man könnte sicherlich eine 500 € Karte anbieten, aber höchstwahrscheinlich verdient man beim Absetzen von 300-400 € Karten einfach mehr Geld - die Menge macht's (und außerdem dürfen ja die Dual-Chip Karten in der 500-600 € Region wildern)...
Ich sehe keinen Grund, dass man "von heute auf morgen" mehr zahlen sollte als nur einen Preis, der die Produktionskosten für die Fläche an Chip abdeckt (und natürlich dessen Entwicklung & Co) plus einem kleinen Bonus den man als Erstkäufer halt zu zahlen hat...
.
Ich hoffe du hast keinen Sandybridge bzw. planst mit einem Ivy. ;D ;)
Aber nein plötzlich Mondpreise ist nicht zu kommunizieren. Das ginge nur wenn die Leistung plötzlich durch die Decke gingen; woher soll das kommen, von TDP und Diefläche mal ganz zu schweigen.
Selbst kurzfristige übertriebene Abzockpreise sind nicht drin. Man denke an die Entschädigungsaktion von NV als ATI HD 4 brachte und einige Karten an eine Halbierung ihres Preises kratzten ....
Blediator16
2011-12-02, 21:37:44
Wenn sie zu teuer werden, dann werden die Hersteller es schon merken^^
Ich denke auch nicht, dass die neuen Karten bedeutend teurer werden als die 5000er / 6000er Serie bei ihrer Einführung. Zumindest nicht unter der Voraussetzung, dass die Chips ähnlich groß sind. Ich sehe keinen Grund, dass man "von heute auf morgen" mehr zahlen sollte als nur einen Preis, der die Produktionskosten für die Fläche an Chip abdeckt (und natürlich dessen Entwicklung & Co) plus einem kleinen Bonus den man als Erstkäufer halt zu zahlen hat...
Vergleiche mit den 1000DM Karten von damals finde ich schon dahingehend müßig, da der Absatzmarkt damals doch noch deutlich anders und kleiner war als heute. Klar - man könnte sicherlich eine 500 € Karte anbieten, aber höchstwahrscheinlich verdient man beim Absetzen von 300-400 € Karten einfach mehr Geld - die Menge macht's (und außerdem dürfen ja die Dual-Chip Karten in der 500-600 € Region wildern)...
Hätte ich eine Mörderkarte, wissend, dass ich davon sowieso nur wenige fertigen kann, würde ich die auch superteuer verkaufen. Warum auch nicht, keine Firma hat etwas zu verschenken. Ultra-High-Klopper kosten unverhältnismäßig mehr als das Zeux darunter. Enthusiasten, die das kaufen, finden sich mit Gewissheit.
MfG,
Raff
john carmack
2011-12-02, 22:03:25
Gibt es eigentlich schon irgendwelche Benchmarks aus China? :D
Die 7970 kann alles rausreißen (eine zweite 9700er) oder auch alles verlieren (eine zweite 2900XT)... Papiertiger gab es in den letzten Jahren ja genug!
Wäre ja schon ein SuperGAU für AMD wenn sie nach dem BD auch noch mit der 7000er Serie auch noch unter gehen.
Das hier...
http://www.hartware.de/news_53194.html
...hört sich schon sehr plausiebel an, wie ich finde, also die Sache mit dem Strom meine ich. Das würde wieder für XDR2 (also weniger Strom Verbrauch) sprechen wenn man den wirklich 70%-90% mehr Leistung aus der neuen Architektur raus holen will.
Ich meine mich zu erinnern das mal jemand gesagt hat das eine neue Architektur auch wieder viele Probleme mit sich bringe -> siehe HD2900XT oder FX5900 (der Laubsauger :D)
Also ich sag mal das von 40% - 90% mehr Leistung drinne ist.
Und da lege ich mich jetzt fest! Irgendwo da mitten drin wird die 7970 auch landen :D
(wenn ich da mal nicht zu 100% richtig liege :D)
AnarchX
2011-12-02, 23:46:03
Die VCE (Video Compression Engine) auch auf den kommenden GPUs? (http://www.semiaccurate.com/forums/showpost.php?p=144286&postcount=1782)
Hier deutet neliz noch an (http://gathering.tweakers.net/forum/list_message/37249529#37249529), dass der Stromverbrauch von Tahiti eine Überraschung sein könnte, niedriger als das bisherigen Niveau, etwa auf dem Level einer GTX 560.
Das würde dann aber eher weniger zu absoluten High-End-Lösung für >$500 passen...
LovesuckZ
2011-12-02, 23:53:26
Wenn hinter VCE ein dedizierter Videoencoder steckt, dann zeigt es, dass GPGPU im Consumermarkt sogut wie tot ist.
Gipsel
2011-12-03, 02:41:40
Was Du oder die meisten hier zu vergessen scheint, ist dass es damals keine finanzielle Krise gab.Ach komm, hier in Deutschland spüren wir die Auswirkungen noch nicht ganz so stark wie Du in Griechenland. :D
Wenn hinter VCE ein dedizierter Videoencoder steckt, dann zeigt es, dass GPGPU im Consumermarkt sogut wie tot ist.
Soll ich Dir wirklich darlegen, daß es noch deutlich mehr Möglichkeiten für GPGPU als Videoencoding gibt und für Letzteres ein paar dedizierte Transistoren wahrscheinlich wirklich besser sind? Spätestens seit intel in seine Prozessoren eine entsprechende Engine einbaut, ist eigentlich klar, daß das nichts für die Shadereinheiten einer GPU ist, zumindest wenn man auf hohe Performance pro Stromverbrauch aus ist. ;)
deekey777
2011-12-03, 10:37:38
Wenn hinter VCE ein dedizierter Videoencoder steckt, dann zeigt es, dass GPGPU im Consumermarkt sogut wie tot ist.
Gilt aber natürlich nicht für PhysX@GPU, das ist ja was ganz anderes.
...
Soll ich Dir wirklich darlegen, daß es noch deutlich mehr Möglichkeiten für GPGPU als Videoencoding gibt und für Letzteres ein paar dedizierte Transistoren wahrscheinlich wirklich besser sind? Spätestens seit intel in seine Prozessoren eine entsprechende Engine einbaut, ist eigentlich klar, daß das nichts für die Shadereinheiten einer GPU ist, zumindest wenn man auf hohe Performance pro Stromverbrauch aus ist. ;)
Videoencoding auf GPUs ist einfach schwer umzusetzen und keiner hat die Lust einen vernünftigen Encoder zu entwickeln, zumindest so einen, der einen Teil der Aufgaben auf die GPU auslagert.
(Nur so eine Speku: Auch Trinity wird einen dedizierten Videoencoder haben.)
Skysnake
2011-12-03, 10:41:08
Ja man muss schon schauen, wo es Sinn macht Transistoren zu verbraten und wo nicht. Muss man halt immer im Einzelfall prüfen. Wegen so etwas ein Ende von etwas zu verkünden ist aber schon sehr weit aus dem Fenster gelehnt.
Was die ganzen Leistungsspekulationen anbelangt, so steht eigentlich ziemlich klar fest, was AMD und nVidia bringen/schlagen müssen. Nämlich MIC mit 1 TFlop/s bei DGEMM und gerade einmal 150W Leistungsaufnahme. Das müssen beide einfach übertreffen, denn das ist eigentlich ein recht gutartiges Problem, das aber in vielen Abwandlungen sehr häufig vor kommt. Wenn Sie das nicht schaffen, kann sich insbesondere nVidia warm anziehen im GPGPU Bereich, da davon aus zu gehen ist, das mit MIC einfach mit viel weniger Aufwand eine ganz passable Leistung erreicht wird. Naja und nVidia hat viel zu verlieren im Gegensatz zu AMD, die sind ja einfach nicht so stark vertreten bis jetzt...
Ich Frage mich allerdings wirklich, wie Intel das geschafft hat, und wie nVidia/AMD das schaffen wollen. Das wäre ja immerhin rund die 3 Fache Rechenleistung der aktuellen Karten bei rund 50-70% des aktuellen Stromverbrauchs. :ugly:
Ich bin mal wirklich gespannt. Aber es werden sehr große Sachen kommen müssen. :D
Hugo78
2011-12-03, 10:52:13
Gilt aber natürlich nicht für PhysX@GPU, das ist ja was ganz anderes.
Richtig, ist es auch.
Denn es gibt bis heute keine GPGPU Physik die allgemein verwendet wird.
Erst Recht keine "open" Geschichten.
Somit gibt es hier kein allgemein gültigen GPGPU Fall im Consumermarkt.
Ailuros
2011-12-03, 11:29:01
Ach komm, hier in Deutschland spüren wir die Auswirkungen noch nicht ganz so stark wie Du in Griechenland. :D
Ist zwar verdammt OT, aber den Einwohnern angepasst hasst Du mehr Chancen dass solche Dinger in groesseren Massen gekauft werden, eben weil viel mehr schwarzes Geld kursiert.
Und nein ich hab es durchaus nicht so kleinpolitisch angenommen wie Du. Es gibt global eine Tendenz zu billigeren Produkten deshalb werden PC/notebook SoCs weiterhin im Aufschwung sein. Wenn es keinen substanten Grund fuer AMD gibt den Preis so hoch anzuschlagen, werde ich sie wie auch jeden anderen IHV nicht dafuer gerechtfertigen. Mir ist durchaus klar dass sie so oder so jeglichen Gewinn eigentlich von den GPUs bzw. SoCs erwarten; und genau das ist was mich dann stoert. Haetten das Management keinen Scheiss gebaut haette es auch keine Gurke wie BD gegeben; aber jetzt wenden sie sich wieder bei AMD und die engineers behaupten oeffentlich nun dass BD ein zukunftsicherer Design waere und Intel nichts besonderes auftischt. Ich hab zwar meine naiven/bloenden Momente aber bloed bin ich nicht.
AnarchX,
Was neliz' Kommentar betrifft es gibt eine 560 mit 150W TDP und eine 560Ti 448 cores mit 210W TDP. Bleiben wir mal dabei dass es sich erstmal um einen 2*6pin Faktor handelt und genau das ist es was ich vor einigen Posts schon behauptet habe. Wenn der core relativ klein sein sollte und sogar weniger verbrauchen sollte als performance Vorgaenger und AMD verlangt dann =/>$500 dafuer dann ist wirklich der Fall wo ich den Kopf schuettle. In jedem anderen Fall wie z.B. groesserer als erwatet die, gilt das vorige natuerlich nicht.
deekey777
2011-12-03, 11:38:43
Richtig, ist es auch.
Denn es gibt bis heute keine GPGPU Physik die allgemein verwendet wird.
Erst Recht keine "open" Geschichten.
Somit gibt es hier kein allgemein gültigen GPGPU Fall im Consumermarkt.
Das ist eine interessante Logik: Da es nur zwei Videoencoder (für den Consumersektor) gibt (einen von AMD für Radeons, dann einen von Nvidia für Geforces), gehört Videoencoding nicht zu GPGPU, da es eben keinen allgemeinen Videoencoder gibt.
Und was es nicht gibt, kann auch nicht sterben.
Hugo78
2011-12-03, 12:21:54
Ja eine GPU an sich mag ja heute "general purpose" sein, aber es mangelt ebend an Anwendungsfällen für "Ottonormal" und
wenn dann "special purpose processors/units" die selben Aufgaben nochmal 100mal schneller erledigen können, wirds auch unsinnig.
AnarchX
2011-12-03, 12:33:24
Das ist eine interessante Logik: Da es nur zwei Videoencoder (für den Consumersektor) gibt (einen von AMD für Radeons, dann einen von Nvidia für Geforces), gehört Videoencoding nicht zu GPGPU, da es eben keinen allgemeinen Videoencoder gibt.
Und was es nicht gibt, kann auch nicht sterben.
Was verbirgt sich eigentlich hinter dem Encoding für mobile Geräte unter Windows 7? War das nicht eine Direct Compute Anwendung?
AnarchX,
Was neliz' Kommentar betrifft es gibt eine 560 mit 150W TDP und eine 560Ti 448 cores mit 210W TDP. Bleiben wir mal dabei dass es sich erstmal um einen 2*6pin Faktor handelt und genau das ist es was ich vor einigen Posts schon behauptet habe. Wenn der core relativ klein sein sollte und sogar weniger verbrauchen sollte als performance Vorgaenger und AMD verlangt dann =/>$500 dafuer dann ist wirklich der Fall wo ich den Kopf schuettle. In jedem anderen Fall wie z.B. groesserer als erwatet die, gilt das vorige natuerlich nicht.
Wenn man ein gutes Stück über der 6990 läge, könnte man sich das wohl erlauben. Gibt es denn keine weiteren Andeutungen, dass GCN vielleicht ein Pro-Watt-Wunder vollbringt?
Leonidas
2011-12-03, 13:05:51
Schoen und fuer was genau braucht GCN gleich 64 ROPs und dazu sogar bei angelichen 1GHz? Der BSN Artikel ist so oder so nicht ernst zu nehmen denn es ist lediglich eine Sammlung offizieller slides mit einer bunten Mischung aus falschen Bumsgeruechten die links und rechts im Netz kursieren. Gott Theo hat halt XDR2 weggelassen aber sonst hat sich nicht viel in der angeblichen "Produktlinie" geaendert.
Fuer Tahiti PRO schneidet dann die idiotische moechtegern Liste 4 ROPs ab, weil 2 CUs weniger als ob es irgend eine Rolle spielen wuerde. Mein eigentlicher Punkt ist dass es sich leider wieder lediglich um BullShitNews handelt.
... und ich bin erstaunt, wie viele da wieder drauf eingestiegen sind. Ich verbreite ja selber gern und häufig Gerüchte, aber ein wenig Hand und Fuß sollten sie schon haben.
... und ich bin erstaunt, wie viele da wieder drauf eingestiegen sind. Ich verbreite ja selber gern und häufig Gerüchte, aber ein wenig Hand und Fuß sollten sie schon haben.
Naja, gibt halt ein paar mehr PCGH News-Leser, als Mitleser hier im Thread. So einfach ist das.
horn 12
2011-12-03, 15:02:35
449 Dollar für die HD7950 wären wohl knappe 400 Euro,
für die HD7950 wohl in etwa gerade 500 Euro
für die Launchpreise gleich bei Verfügbarkeit/ HARDLAUNCH...
Bei guter Verfügbarkeit sollten es wohl 350 / 450 Euro werden, rechne ich mal stark!
w0mbat
2011-12-03, 15:23:37
ich würde jetzt noch nicht über die preise spekulieren bzw. was diese über die performance aussagen.
Duplex
2011-12-03, 15:38:32
Genau macht keinen sinn über Preise zu spekulieren, der FX8150 kostet über 230 € und ist schlechter als ein i5-2500 der nur 170 € kostet ;)
Der_Korken
2011-12-03, 19:03:33
Hm, naja, falls Intel es irgendwie schafft, einen hochspezialisierten Chip zu bauen, der die AMD und Nvidida-GPUs in solchen reinen Rechenanwendungen schlägt, find ich das noch nicht so überraschend. Man muss ja bedenken, dass dieses Teil vermutlich schon mit dem 22nm-Prozess läuft, während die jetzigen GPUs mit 40nm ja fast 2 Full-Nodes hinterherhinken. Außerdem besteht eine GPU nicht nur aus ALUs, das macht natürlich auch noch mal viel aus.
Knuddelbearli
2011-12-03, 20:34:47
http://geizhals.at/eu/?cat=nb&xf=883_Radeon+HD+7#xf_top
also wenn 1 Woche stimmt dann oO
http://geizhals.at/eu/?cat=nb&xf=883_Radeon+HD+7#xf_top
also wenn 1 Woche stimmt dann oO
Das HP Envy?
Im GH Link: AMD Radeon HD 7690M XT 1024MB
Im Shop dann: Karta graficzna AMD Radeon HD 6770M (DirectX11, SM 5.0, OpenGL 4.1)
P.S.:..... Karta graficzna verstehe sogar ich. ;D
Knuddelbearli
2011-12-03, 21:33:42
ne das asus
ne das asus
Hm stimmt hab nach AMD A6 3420M nicht weitergelesen; denn das ist ein bekannter Geselle.
Eine hyp. ATI 7er mit einem Liano? Hat AMD für seine Fusion Chips eigentlich wie NV Optimus eine Möglichkeitkeit/Technologie zwischen MXM Graka und IGP zu wechseln?
Blediator16
2011-12-03, 21:45:30
http://www.amd.com/de/products/technologies/switchable-graphics/Pages/switchable-graphics.aspx
Das wäre dann das, was du suchst.
horn 12
2011-12-04, 13:52:33
Nun gut, in 2-4 Tagen maximal wissen wir Bescheid wann und zu welchen Preisen die Karten,- sprich die Palette daherkommt.
Kann gut sein dass die HD7850 / 7870 die HD6950/6970 leicht überflügelt und zu Preisen von 220/ 280 Euro bekanntgemacht werden.
Meine Annahme:
Somit sollten die HD6950 unter 180 Euro fallen
die HD6970 wohl unter 250 Euro.
AnarchX
2011-12-04, 13:55:49
Diskussion zum 22nm LRB: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9062589#post9062589
AnarchX
2011-12-04, 14:46:51
http://img269.imageshack.us/img269/8872/7970bench.jpg
whatever it isTake it with a pinch of salt
http://forums.overclockers.co.uk/showthread.php?t=18347617
Knuddelbearli
2011-12-04, 15:01:36
hmm sieht nicht so übel aus
Skysnake
2011-12-04, 16:51:47
Ja, nicht übel, aber mehr auch nicht. Eigentlich müsste man sogar sagen, es sieht sogar richtig gut aus, wenn da nicht der massive Shrink von 40 auf 28nm wäre. Da fehlt einfach die Zwischenstufe, und wenn man das berücksichtigt, dann ist der Leistungszuwachs eventuell sogar zu gering.
Mal schauen, was nVidia bringt...
Blediator16
2011-12-04, 16:53:39
http://i.imgur.com/Xumz6.jpg
Den find ich aber besser :freak:
boxleitnerb
2011-12-04, 17:01:15
Mensch Kinners, das postet Charlie doch morgen :D
seaFs
2011-12-04, 17:07:13
http://i.imgur.com/Xumz6.jpg
Den find ich aber besser :freak:
Selbstgemacht? 32xAF ist toll :D Oder da schwingt jemand die SSAA-Keule.
http://forums.overclockers.co.uk/showthread.php?t=18347617
Das deckt sich mit den Erwartungen – deswegen ist's aber noch lange nicht authentisch.
MfG,
Raff
MadManniMan
2011-12-04, 17:11:39
Eben.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41343&d=1323015076
LOL, Voodoo Rush. :biggrin: Vergiss den Rampage alias Spectre (am besten 3000) nicht. Der stellt nur DX8-Details dar und hat daher den längsten Balken.
MfG,
Raff
MadManniMan
2011-12-04, 17:24:42
LOL, Voodoo Rush. :biggrin: Vergiss den Rampage alias Spectre (am besten 3000) nicht. Der stellt nur DX8-Details dar und hat daher den längsten Balken.
Ja, dem zollt ja der Battlefield-Duty-Balken Tribut: da ergänzen sich DX5- (für den Call-of-Duty-Anteil), DX9- (Battlefield) und DX11-Karten (für die Geometry-Shader, die auf die zweifach multitexturierten Holzkisten angewandt werden) zu einem FPS-Konstrukt.
Die neue Radeon kann das natürlich alles über den CPU-Shader, weil man mit dem geringeren Platz ja noch nen ARM unterbringen konnte. Ich glaube von Qualcomm.
Quatsch, natürlich ein Tegra 5!
Botcruscher
2011-12-04, 18:18:08
Eben.
Hm ich lege das mal als Grafikfehler unter Crysis und Mikroruckler unter Skyrim aus. Aber schön das die Zeit der lustigen Balken wieder los geht. Endlich wieder was zu lachen.
Gipsel
2011-12-04, 19:01:17
Trotzdem würde ich Euch bitten, den Thread nicht mit lustigen Bildchen zuzuspammen. Wir sind hier nicht in der Lounge.
Ailuros
2011-12-05, 16:09:55
Ja, nicht übel, aber mehr auch nicht. Eigentlich müsste man sogar sagen, es sieht sogar richtig gut aus, wenn da nicht der massive Shrink von 40 auf 28nm wäre. Da fehlt einfach die Zwischenstufe, und wenn man das berücksichtigt, dann ist der Leistungszuwachs eventuell sogar zu gering.
Mal schauen, was nVidia bringt...
Es schwirrt schon einige Zeit herum dass Tahiti XT nur einen Schnitt in Leistung unter der 6990 liegen sollte. Unter normalen Umstaenden wuerde man auch nicht weniger erwarten, denn es ist nicht so dass die 6990 wirklich 2x Mal schneller ist als eine 6970 im Durschnitt.
Die Zwischenstufe existiert unter der 6xxx Familie; dass AMD gezwungen war sie am Ende auch auf 40nm herzustellen, beinflusste lediglich den Stromverbrauch. Bei der 6990 sogar brutal.
AnarchX
2011-12-05, 18:25:45
Radeon HD 7000 Leak-storm soon!
http://3.bp.blogspot.com/-i7POGbdE-3o/Ttx02kSmOZI/AAAAAAAABgY/NlEuebwc_-Q/s1600/7000.png
http://www.obr-hardware.com/2011/12/radeon-hd-7000-leak-o-rama-soon.html
Das R79xx und das Design sieht etwas nach MSI aus.
boxleitnerb
2011-12-05, 18:35:55
Was das wohl für Units sind? Es wäre komisch, die Textureinheiten anzugeben und nicht die ROPs. Doch weniger als 2000 Shadereinheiten?
horn 12
2011-12-05, 18:38:08
Dann ist die HD7970 gleich lang wie die HD6970 / 6950
oder wie lang sind diese nochmals, knappe 270mm oder doch gar etwas darüber?
Wird nimmer lang dauern, denke 20 Uhr ist es soweit!
AnarchX
2011-12-05, 18:39:09
Eine Vergleichbare Tabelle von MSI:
http://www.tweakpc.de/gallery/data/533/medium/msi_r6970_r6950.png
http://www.tweakpc.de/news/20100/msi-praesentiert-neue-r6950-und-r6970-grafikkarten/
Dürften wohl die SPs sein. 1920SPs @ GCN dürfte auch genügend Rechenleistung liefern.
y33H@
2011-12-05, 18:41:37
Die HD 7950 hat ja auch unter 2k ALUs ;-)
boxleitnerb
2011-12-05, 18:44:16
Ist heute NDA-Fall?
Ronny145
2011-12-05, 18:55:06
Ist heute NDA-Fall?
Wohl eher NDA Start. Am 5./8. Dezember ist Presse Briefing. Die Chance auf Leaks erhöht sich immerhin.
y33H@
2011-12-05, 18:58:48
Ist heute NDA-Fall?Nein ... aber die Specs sind bereits (angeblich) geleakt und abseits von XDR2 bin ich geneigt diese als realistisch zu betrachten. Dieser Tage kann ich noch spekulieren, also tue ich es ;D
davidzo
2011-12-05, 18:59:52
das briefing bezieht sich aber angeblich nur auf neue Features/architektur. nicht auf die Leistungsdaten der tatsächlichen SKUs. Kann sein dass nichtmal Speicherbusbreite, SPcount, TMUs, Taktraten, etc. verraten werden.
w0mbat
2011-12-05, 19:00:44
überraschend könnte das TDP sein.
y33H@
2011-12-05, 19:02:13
Bei Cayman wurden ja damals auch keine Specs genannt und wenn off the record. Daher auch das Gerücht eines "Super Croc" mit 1.920 ALUs.
Ja, nicht übel, aber mehr auch nicht. Eigentlich müsste man sogar sagen, es sieht sogar richtig gut aus, wenn da nicht der massive Shrink von 40 auf 28nm wäre. Da fehlt einfach die Zwischenstufe, und wenn man das berücksichtigt, dann ist der Leistungszuwachs eventuell sogar zu gering.
Mal schauen, was nVidia bringt...
Massiver Shrink? Ist doch etwa Faktor zwei wie sonst auch.
davidzo
2011-12-05, 19:34:41
theoretisch 2,040816327
praktisch in der ersten generation weniger, da man sich nicht trauen wird gleich das ganze potential auszunutzen, das wird erst mit der nächsten 28nm Generation erreicht.
+ 80% an Transistoren sind realistisch, was davon in Leistung umgesetzt werden kann werden wir ja sehen. Speicherbandbreite spielt dann plötzlich wieder eine sehr große Rolle, wenn wir die Busbreite wissen können wir den Rest schon ziemlich genau eingrenzen...
Spasstiger
2011-12-05, 20:01:02
Massiver Shrink? Ist doch etwa Faktor zwei wie sonst auch.
Faktor 2 bei der Integrationsdichte ist nicht der Normalfall. Bei AMDs/ATIs High-End-GPUs:
150 nm -> 130 nm -> 110 nm -> 90 nm -> 80 nm -> 55 nm -> 40 nm -> 28 nm
Einen gleich großen Sprung bei der theoretischen Integrationsdichte gabs nur vom R600 zum RV670 (80 nm -> 55 nm), wobei man dort kein größeres Transistorbudget ausschöpfte, sondern das alte Design weitgehend schrumpfte. Wenn man den R600 (80 nm) mit dem RV770 (55 nm) vergleicht, ist der Performanceunterschied aber schon sehr deutlich (Faktor 2 bei z.B. Crysis), obwohl der RV770 nur rund 2/3 der Diefläche des R600 belegt.
Man kann schon die Hoffnung haben, dass die Kombination aus einer neuen Architektur und dem großen Fertigungssprung in einer deutlichen Performancesteigerung von Faktor 2 oder mehr resultiert.
Kann aber natürlich auch sein, dass AMD erstmal konservativ die Diesize reduziert, um Spielraum für die nächsten 2 Jahre zu haben. Neue Fertigungsprozesse werden mit immer größeren Abständen marktreif.
davidzo
2011-12-05, 20:34:41
die ausgangslage ist völlig anders als von r600 zu rv670.
weder ist cayman zu langsam, noch zu groß, noch zu stromhungrig.
man könnte die chipfläche sogar ohne probleme vergrößern, kaum jedoch die leistungsaufnahme.
Kann aber natürlich auch sein, dass AMD erstmal konservativ die Diesize reduziert, um Spielraum für die nächsten 2 Jahre zu haben. Neue Fertigungsprozesse werden mit immer größeren Abständen marktreif.
diesmal gehe ich trotz den bisherigen gerüchten davon aus, dass eher nv diesmal diese strategie fährt (verkleinerung der chipfläche) und amd nur die waage hält, platz für größere chips waren bei AMD unter 40nm ja immer noch, bei nvidia dagegen nicht. beide werden da ziemlich einvernehmlich den spielraum offen halten. lieber verliert man im schlimmsten Falle etwas marktanteile als dass man den markt zerstört...
wo bleiben die leaks?
Vermutlich wurden die ganzen personifizierten China- und Tschechen-Lecks nicht eingeladen. ;)
MfG,
Raff
w0mbat
2011-12-05, 21:46:26
ich sag nur "tight grip" :P
boxleitnerb
2011-12-05, 21:55:10
Sag mehr :D
Du scheinst ja mehr zu wissen.
Da fällt mir grad auf das der R300-Core alias Radeon 9700 ein 256Bit SI hatte und das bei nur 107 Mio Transistoren.
So viele Transistoren kann doch ein 512Bit SI bei aktuellen oder in den nächsten Generationen gar nicht verbrauchen oder? GDDR3 - GDDR5 sei mal dahingestellt...
Da geht es um das Pinout. Und doch, ein GDDR5-SI ist viel viel größer als ein GDDR-SI.
w0mbat
2011-12-05, 21:56:35
Sag mehr :D
Du scheinst ja mehr zu wissen.
naja. tight grip bedeutet auch need-to-know. und ich muss leider nicht viel wissen :(
Motörhead_for_ever
2011-12-05, 22:45:50
Da ich meine zwei MSI 570 Twin Frozr III morgen wieder zurückschicke bin ich ab jetzt auch ohne Karte,
ich werde mir hoher Wahrscheinlichkeit eine 7970 bei Release kaufen,
ich hoff das die Karte nicht nur schneller als 580 wird sondern auch stabiler.
Ich hatte damals zwei 5970 und ich kann ein Liedchen von den Treibern singen.
Das waren aber beides Einzelkarten die Asus hatte geklackert was eine Fehlkonstrucktion des eingebauten Lüfters war,
die zweite 5970 Sapphire mit 2x2 GB stürzte bei bc2 in jedem Treiber ab der nach 10.4 kam.
Ich hoff ganz klar auf Stabilität in den Treibern, sowie Funktionalität beim Treiberwechel,
und natürlich wäre es gut wenn sie die 580 locker von der Performance überholen würde.
deekey777
2011-12-05, 23:56:26
Vermutlich wurden die ganzen personifizierten China- und Tschechen-Lecks nicht eingeladen. ;)
MfG,
Raff
Es findet sich immer einer, der eine Grafikkarte mit aufs Klo nimmt. :devil:
R.I.P.
2011-12-06, 07:55:48
Da ich meine zwei MSI 570 Twin Frozr III morgen wieder zurückschicke bin ich ab jetzt auch ohne Karte,
ich werde mir hoher Wahrscheinlichkeit eine 7970 bei Release kaufen,
ich hoff das die Karte nicht nur schneller als 580 wird sondern auch stabiler.
Ich hatte damals zwei 5970 und ich kann ein Liedchen von den Treibern singen.
Das waren aber beides Einzelkarten die Asus hatte geklackert was eine Fehlkonstrucktion des eingebauten Lüfters war,
die zweite 5970 Sapphire mit 2x2 GB stürzte bei bc2 in jedem Treiber ab der nach 10.4 kam.
Ich hoff ganz klar auf Stabilität in den Treibern, sowie Funktionalität beim Treiberwechel,
und natürlich wäre es gut wenn sie die 580 locker von der Performance überholen würde.
Scheinbar wirst du mindestens bis Jänner warten müssen, um eine 7970 zu bestellen.
Zweitens verstehe ich nicht, warum du eine dualchip-Karte wie die 5970 mit einer single-chip Karte vergleichen willst/mußt. Hatte mit einer einzelnen Karte noch nie irgendwelche Treiberunstabilitäten, mit CF hingegen, manchmal, die üblichen Probleme. Was hat Treiberstabilität mit klackernden Lüfter zu tun? :confused:
AnarchX
2011-12-06, 09:54:59
PHK streut wohl das Gerücht, dass Tahiti die größe GPU in H1 2012 wäre, mit mehr als 600mm²: http://bbs.expreview.com/thread-48730-1-1.html
Das würde zu den $549 passen. ;) Wird wohl wieder Zeit für MCM-Gerüchte.:D
boxleitnerb
2011-12-06, 11:05:32
600+ ??? Großer Gott, so groß war bisher kein Grafikchip. Wenn da mal nicht die TDP ordentlich in die Höhe geht...
Dural
2011-12-06, 11:09:06
meint er damit nicht Kepler?
den eine X2 mit 600mm2 pro Die... ich weis nicht so recht :freak:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.