Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Malta (war: New Zealand) - Dual-GPU-High-End - Southern Islands - GCN
AnarchX
2011-12-22, 08:50:18
http://img12.imageshack.us/img12/2639/productplacement.jpg (http://imageshack.us/photo/my-images/12/productplacement.jpg/)
http://img528.imageshack.us/img528/9446/008wi.jpg (http://imageshack.us/photo/my-images/528/008wi.jpg/)
http://www.4gamer.net/games/135/G013536/20111221078/screenshot.html?num=008 -> http://de.wikipedia.org/w/index.php?title=Datei:New_zealand_map.png&filetimestamp=20100723134922
AnarchX
2011-12-22, 10:33:21
Wohl möglich wird New Zealand relativ zeitnah gelauncht:
http://img528.imageshack.us/img528/9446/008wi.jpg (http://imageshack.us/photo/my-images/528/008wi.jpg/)
http://www.4gamer.net/games/135/G013536/20111221078/screenshot.html?num=008
Skysnake
2011-12-22, 11:54:49
Wenn man sich ansieht, wieviel Taktpotenzial die 7970 anscheinend hat, und wie wenig Sie verbraucht, sollte das kein Problem sein, das ale Ref-Design leicht um zu arbeiten und ne neue Dual-GPU raus zu knallen.
Der limitierende Faktor für einen Launch wird wohl eher die Verfügbarkeit von Chips sein.
Screemer
2011-12-23, 16:07:31
was mich wundert ist, warum die XT mit woviel spannung kommt. bei dem oc-potential wäre da weitaus weniger drin gewesen. erinnert mich irgendwie an llano. der kann auch mal gut 40% weniger verbrauchen, wenn man die spannung manuell anpasst.
Zergra
2011-12-23, 16:36:56
was mich wundert ist, warum die XT mit woviel spannung kommt. bei dem oc-potential wäre da weitaus weniger drin gewesen. erinnert mich irgendwie an llano. der kann auch mal gut 40% weniger verbrauchen, wenn man die spannung manuell anpasst.
vllt damit die Menschen leichter Ocen können ? so brauchen die Selber keine Spannungserhöhung machen
Virtual
2011-12-23, 16:50:56
vllt damit die Menschen leichter Ocen können ? so brauchen die Selber keine Spannungserhöhung machen ... und um dann auf Kiwi-Land zwei Tahitis bei deutlich gesenkter Spannung mit 925 MHz rennen lassen zu können.
M4xw0lf
2011-12-23, 17:09:21
... und um dann auf Kiwi-Land zwei Tahitis bei deutlich gesenkter Spannung mit 925 MHz rennen lassen zu können.
Vermutlich muss AMD dann nicht mal krass selektieren um genug taugliche Chips für New Zealand zusammen zu bekommen. Wenn sie dann auch noch statt dem Radial-Föhn auch einen Axiallüfter verbauen würden, dann wäre New Zealand vermutlich dank der neuen Stromsparmechanismen die vernünftigste DualGPU-Karte seit langem.
Nakai
2011-12-23, 17:24:38
Wer das Verhältnis von New Zealand zum GK100 begutachten will, sollte mal die alten HD3870 X2 Reviews betrachten. Tahiti wird gegen einen GK100 eher ein RV670 sein(nur nicht so krass).
GK104 wird eher auf Tahiti-Niveau sein, mit ähnlichem Verbrauch(außer NV haut erst teildeaktivierte Versionen auf dem Markt). GK100 wird etwa 30-40% vor GK104 liegen(und dementsprechend in etwa auch vor Tahiti).
New Zealand wird natürlich etwa 50% vor Tahiti sein.
mfg
M4xw0lf
2011-12-23, 17:45:59
Wer das Verhältnis von New Zealand zum GK100 begutachten will, sollte mal die alten HD3870 X2 Reviews betrachten. Tahiti wird gegen einen GK100 eher ein RV670 sein(nur nicht so krass).
GK104 wird eher auf Tahiti-Niveau sein, mit ähnlichem Verbrauch(außer NV haut erst teildeaktivierte Versionen auf dem Markt). GK100 wird etwa 30-40% vor GK104 liegen(und dementsprechend in etwa auch vor Tahiti).
mfg
Oder halt nicht. :tongue:
Nvidia kann ja auch nicht beliebig große Chips basteln, 28nm-Fertigung hin oder her. Angenommen, GK104 hat +50% Rechenwerke, also 768 statt Fermis 512, dann wäre das in 40 nm grob geschätzt ein 700mm² großes Die. In 28 nm bleiben davon noch 350mm². Mit +100% der Rechenwerke bei GK100 (oder 110) wäre man wieder bei ~500mm² wie bei Fermi und könnte wieder die gleichen Fertigungsprobleme bekommen - 28nm soll ja bei TSMC auch noch nicht richtig gute Yields liefern. Auch wenn ein Fermi +50% schon reichen würde, um Tahiti zu schlagen, muss Nvidia bzw. TSMC ihn erstmal fertigen.
aylano
2011-12-23, 20:57:35
was mich wundert ist, warum die XT mit woviel spannung kommt. bei dem oc-potential wäre da weitaus weniger drin gewesen. erinnert mich irgendwie an llano. der kann auch mal gut 40% weniger verbrauchen, wenn man die spannung manuell anpasst.
Das ist genau das, was ich letztens meinte.
Und zwar für einen frühen gesicherten 28nm-Start bzw. eventuell früheren 28nm-Start die Einplanung "des Plan Bs" (wenn nicht sogar etwas planmäßig) mittels einer ca. 5-10% Takt-Senkung sowie 5-10% Spannungssteigerung um dann trotz dieser ungünstigen Maßnahmen einen gesunden/deutlichen Sprung mit 25-30% (= +40-10% = 30%) Performance-Steigerung bei gleichen Stromverbrauch zu erreichen.
So sieht das Gesamt-Paket ganz vernünftig aus, wo dann die Dual-Karte mit gleichen Stromverbrauchs-"Problematik" wie die 6970er gelöst werden kann.
Insgesamt eine Vernünftige Lösung, da der erfahrene Gamer jetzt bzw. in Kürze schon eine 28nm-"High-End"-Karte kaufen kann sowie bei Bedarf ja sowieso Übertakten und/oder Undervolten kann, anstatt länger warten zu müssen.
Es macht einen großen Unterschied, ob sagen-wir-mal GK104 April oder Juli 2012 (6 statt 3 Monate) sowie GK100 im Juli oder Oktober (9 statt 6 Monate) kommt.
Ob AMD den relativen Fertigungsvorsprung ausbauen konnte oder (etwas) verloren hat, werden wir in den nächsten Monaten sehen.
Hugo78
2011-12-23, 22:15:12
Ob AMD den relativen Fertigungsvorsprung ausbauen konnte oder (etwas) verloren hat, werden wir in den nächsten Monaten sehen.
Welchen Fertigungsvorsprung?
Einen Paperlaunch für einen $550 Performancechip zustarten, ist kein Vorsprung.
Knuddelbearli
2011-12-23, 22:46:59
aktuell ist die 7970 high end und die GTX 580 performance.
zum ersten teil gebe ich dir aber recht
Hugo78
2011-12-23, 23:09:11
Ok, das aktuell Schnellste ist zu jenem Zeitpunkt immer High End.
Doch zur Die-Größe und seinen Lang- bzw. Kurzzeit Implikationen muss ich kein Wort verlieren.
Zumal wenn selbst diese moderate Größe nicht lieferbar ist und auch noch mit einer höheren Spannung betrieben werden muss als die Vorgänger in 40nm.
Knuddelbearli
2011-12-23, 23:34:28
wenn die 6970 mit mm² durch ein wunder bei amd doppelt soschnell wei die 580 wäre würdest sie auch performance nennen un die 580 wegend em größeren die high end ?
Leistung ( eventuell noch leistung pro Watt ) ist das einzige woran man sie einordnen kann, vor allem wenn die konkurenz soviel später kommt... ( mir wärs ja selber liebr wenn es nicht so lange dauern würde damit ich vergleichen kann, aber bis zu 8 monate sind einfach zu lange ... )
Hugo78
2011-12-23, 23:56:37
wenn die 6970 mit mm² durch ein wunder bei amd doppelt soschnell wei die 580 wäre würdest sie auch performance nennen un die 580 wegend em größeren die high end ?
Leistung ( eventuell noch leistung pro Watt ) ist das einzige woran man sie einordnen kann, vor allem wenn die konkurenz soviel später kommt... ( mir wärs ja selber liebr wenn es nicht so lange dauern würde damit ich vergleichen kann, aber bis zu 8 monate sind einfach zu lange ... )
zu 1.
Diesen Fall gibt es ebend nicht.
Wenn es ihn geben würden, dann hätte Nvidia was grundlegend falsch gemacht und die Die-Größe des Cayman wäre "immernoch nur" Performance, weil -> ausbaufähig.
High End, setze ich begrifflich gleich mit "Ultra" und "Ultra" steht für "mehr als nötig".
Die 7970 ist vielleicht das was aktuell nötig ist, aber die Reserven sind nicht "High End", nicht "Ultra".
zu 2.
Na es werden keine 8 Monate werden, TSMC wird seine Kapazitäten schon noch aubauen können.
GK104 wird zwar nicht schneller als die 7970, aber doch schneller als GF110 und nicht all zu weit unter der 7970 landen.
Man muss sich ja fragen wo sie preisgünstigere 7950 landen wird, wenn die 7970 schon bei $550 einsteigt.
Da bliebe also für GK 104 viel, viel Raum um allein über den Preis und das Versprechen auf noch mehr Leistung durch GK100/GK110, frühzeitig für Druck zusorgen.
Zumal Tesla und Quadrochips, bisher immer 3-6 Monate "Geforce-vorlauf" hatten.
Wenn Nvidia Q3 für Tesla halten will, müssen sie spätestens im Q2 mir GK100/GK110 kommen.
Ausser natürlich die eigenen Simulationen, sind dank Fermi mittlerweile so gut, dass sie sich hier die Probezeit sparen können. :D
M4xw0lf
2011-12-24, 00:05:22
Welchen Fertigungsvorsprung?
Einen Paperlaunch für einen $550 Performancechip zustarten, ist kein Vorsprung.
Bei der Fertigung selbst, also Transistoren und Performance pro Fläche, lag AMD/ATI in den letzten Generationen z.T. deutlich vorne. Da wirds also schon auch interessant zu sehen, ob Nvidia da aufschließt.
Knuddelbearli
2011-12-24, 00:48:10
naja wenns Q2 wäre sagen wir mal huni sind es 6 Monate +1 Monat bis Preise halbwegs passen sind schonmal 7 Monate ...
7950 wird wohl ca 300€ kosten also knapp wenigr als dei 580 bei gleicher Leistung und deutlich weniger Verbrauch. Wenn NV wollten könnten sie auch jetzt einfach den GTX 580 Preis senken um AMD bisschen unter Druck zu bringen ( egal ob 500€ oder 400€ AMD wird im Jäner wegen Lieferengpass genau gleichviele Karten verkaufen )
aylano
2011-12-24, 00:54:54
Welchen Fertigungsvorsprung?
Einen Paperlaunch für einen $550 Performancechip zustarten, ist kein Vorsprung.
Wenn man die 65nm-->55nm und 55nm-->40nm nicht berücksichtigt, dann stimme ich dir zu.
Nur konnte Damals Nvidia mit G92-65nm vs RV670 als 8800GT schneller sein, trotzdem er deaktiviert & Co rauskommt.
Genauso wie beim GT200b, der als GTX285 erst mit GT200b-B3 kam, weil 1 Jahr nach RV670-55nm der GT200b-B2 nicht alle Ansprüche erfüllte.
Aber das ging bei 55nm--> 40nm eben nicht mehr (so einfach)
Bestes Beispiel am "AMD-Fertigungs-Vorsprung" ist RV740 (140mm²) die im September mit guter Verfügbarkeit & Yield vorhanden war, während GT215 (detto 140mm²) erst mit Mitte November veröffentlich wurde (was bei Nvidia meist gute Yields & Verfügbarkeit bedeutet).
Grundsätzlich ist zu sagen, dass die Schwierigkeit von Nvidia nicht automatisch große (Eigen-)Fehler bedeuten, aber nach bisherigen Erfahrungen es besteht einfach die Gefahr auf lange Verzögerungen und/oder sonstige Fehler.
Dazu wissen wird nicht, ob AMDs neue Architektur wieder frühe Einführungen möglich macht oder eben nicht.
Es ist vieles Spekulativ, aber wenn Nvidia als erstes ihre Low-End & Mainstream-GPUs "umlabeln muss" und Nvidias GK107 (100-120mm² keine Ahnung wie viel genau) erst nach AMds 350mm²-GPU-Papierlaunch kommt, heißt es auch nichts gutes.
Wer weiß, vielleicht überrascht uns Nvidia in April mit GK100, aber man sollte nicht vergessen, dass praktisch alle 2 Monate vor dem eigentlichen GF100-Start noch an eine 750Mhz-512SP-215TDP-Grafikkarte als quasi sicher sahen.
Und April ist erst in 4 Monaten!
zu 2.
Na es werden keine 8 Monate werden, TSMC wird seine Kapazitäten schon noch aubauen können.
Seit 40nm sollte man wissen, dass es 1. Fabrik (so 20.000-30.000 Wafer pro Monat) nicht mehr ausreicht, um Nvidia & AMD vollständig mit GPUs zu versorgen, die schlechte Yields haben.
Zusätzlich hat es von Low-End bis High-End @ 40nm länger als 8 Monate gedauert (sowohl AMD als auch Nvidia), bis die Yield & Verfügbarkeit @ High-End ganz gut waren.
Und was passiert dann, wenn 28nm noch schlechter als 40nm?
(28nm ist jetzt schon fast 3 Jahr nach 40nm!)
Screemer
2011-12-24, 01:18:24
April ist in knapp 3 Monaten ;)
Man sollte auch nicht vergessen, dass gpus nicht das einzige 28nm Produkt ist welches nv bei tsmc fertigen lässt. Die Kapazitäten sind eh nicht hoch und mehr Produkte machen das ganz nicht besser.
Hugo78
2011-12-24, 01:27:12
@aylano
Ist sicher alles richtig, aber ich sehe ja die vermeindlichen Vorteile zum Großteil in den niedrigen Frequenzen bei den Radeons
und auch das AMD schon seit 1969 Chips baut und noch bis vor "Kurzem" eine eigene Fertigung hatte.
Da gabs fertigungstechnisch sicher viel Erfahrung und Manpower, die Nvidia mit grad mal 1/3 der Mitarbeiter fehlt.
Zumal Nvidia auch erst seit einer Dekade erfolgreich ist, nach dem NV1 hatte man iirc grad noch ~ 30 Mitarbeiter.
Also ich seh nicht, dass AMD irgendwo vermeindliche Vorteile ausbauen könnte in Zukunft.
Eher noch holt NV auch hier auf.
Der zb. spätere Marktstart der kommenden Kepler Chips lässt sich auch mit der benötigten Masse an Notebookchips erklären, sollte NV hier wirklich schon der Art viele Bestellungen haben.
davidzo
2011-12-24, 02:20:39
was mich wundert ist, warum die XT mit woviel spannung kommt. bei dem oc-potential wäre da weitaus weniger drin gewesen. erinnert mich irgendwie an llano. der kann auch mal gut 40% weniger verbrauchen, wenn man die spannung manuell anpasst.
die streuung scheint enorm zu sein. auch was die verbrauchswerte und temps angeht lese ich überall andere zahlen. damit geht man in der industrie dann sehr konservativ um, es ist im zweifelsfalle vorzuziehen etwas weniger beeindruckende benches hinzulegen als dass man nach ein paar monaten eine rückläuferrate im mehrstelligen prozentbereich hat...
dann wäre das in 40 nm grob geschätzt ein 700mm² großes Die. In 28 nm bleiben davon noch 350mm².
Das ist noch zu optimistisch. 2x ist der optimalfall. AMD hat gerade eine skalierung von etwa 1,7 geschafft, bei 768 SPs nach fermischema müsste man also mit über 400mm² rechnen es sei denn nvidia hat einen trick gefunden um massiv einzusparen wie amd damals beim rv770.
Zumal wenn selbst diese moderate Größe nicht lieferbar ist und auch noch mit einer höheren Spannung betrieben werden muss als die Vorgänger in 40nm.
Das ist dann der Wink mit dem Zaunpfahl was GK104 angeht, schließlich ist der Prozess identisch, ich denke die nvidia-Ingenuere müssen jetzt ganz ähnliche Entscheidungen treffen vor denen AMD vor wenigen Monaten stand. Ich glaube kaum dass 28nm bei nvidia so richtig anders läuft...
@aylano
Ist sicher alles richtig, aber ich sehe ja die vermeindlichen Vorteile zum Großteil in den niedrigen Frequenzen bei den Radeons
Nette entschuldigung die du da versuchst, aber letzendlich zählt was herauskommt. Und wenn ein Design viele Transistoren schluckt und hohe Leckströme verursacht (wie das Hotclock-design), dann kann man durchaus von einem Rückstand sprechen.
und auch das AMD schon seit 1969 Chips baut und noch bis vor "Kurzem" eine eigene Fertigung hatte.
Da gabs fertigungstechnisch sicher viel Erfahrung und Manpower, die Nvidia mit grad mal 1/3 der Mitarbeiter fehlt.
Zumal Nvidia auch erst seit einer Dekade erfolgreich ist, nach dem NV1 hatte man iirc grad noch ~ 30 Mitarbeiter.
Also dass du den Fertigungsvorsprung jetzt auf AMD Erfahrungen schiebst und erklärst Nvidia würde aufholen ist ja immerhin ein Eingeständnis dass dieser Vorsprung existiert (damit widersprichst du deiner ersten Aussage gerade). Allerdings halte ich die Erklärungn wie die Situation zustande kommt für ein bisschen oberflächlich.
Vorsicht, nicht AMD mit ATI verwechseln. Das sind immernoch unterschiedliche Büros in verschiedenen Ländern und die Grafikchips kommen nach wie vor aus Kanada. Einzig LLano sehe ich derzeit als eine art joint Venture an. Und AMD hat überhaupt keine aktuellen Erfahrungen im bulk-Prozess, nach den ganzen Layoffs im engineeringdesign und dem desaster von Bulldozer haben die AMD Ingenieure sicherlich anderes zutun als den ATIleuten die alles im Griff haben den Berater zu spielen. Solche Synergien, die dauern lange, viel länger noch als der verschmelzungsprozess der Firmenstruktur selber und nicht mal das ist bis jetzt vernünftig geglückt.
aylano
2011-12-24, 02:24:05
Man sollte auch nicht vergessen, dass gpus nicht das einzige 28nm Produkt ist welches nv bei tsmc fertigen lässt. Die Kapazitäten sind eh nicht hoch und mehr Produkte machen das ganz nicht besser.
Was eben das ganze mit eventuell geringeren GPU-Kapazitäten (wegen ARM-Produkte) noch interessanter macht als mit 40nm. Eventuell wird es da mit schlechten Yields noch schwieriger hochzufahren als mit 40nm, da bei 28nm AFAIK mehr ARM-Produkte von Anfang an drängen.
Da gabs fertigungstechnisch sicher viel Erfahrung und Manpower, die Nvidia mit grad mal 1/3 der Mitarbeiter fehlt.
Zumal Nvidia auch erst seit einer Dekade erfolgreich ist, nach dem NV1 hatte man iirc grad noch ~ 30 Mitarbeiter.
Also ich seh nicht, dass AMD irgendwo vermeindliche Vorteile ausbauen könnte in Zukunft.
Eher noch holt NV auch hier auf.
Ansichts-Sache.
Wo war vor einer Decade dar jetztig profitableste & einflussreichste Alltagstechnik-Hersteller ala Apple?
Zeiten können sich etwas ändern. Das Licht sicht bei AMD eben ganz anders aus, wo sie vor 1. Decade mit K7 dem Intel überlegen war sowie sich in den letzten Paar Jahren im GPU-Markt zurückkämpften mussten.
Während man vor 1. Decade noch gut mit CPU-Only (AMD) oder GPU-Only (Nvidia, ATI) leben konnte, geht das heute nicht mehr (Nvidia--> ARM-Tegra, AMD-->ATI-Kauf, Intel--> Larrabee & PowerVR, ARM--> XXX?-Grafiks)
Momentan tut sich viel und große Rückschläge kann man sich kaum leisten.
Die früheren Einführung müssen nicht durch die AMD-Fabriken begründet sein.
Es kann auch andere Gründe haben.
Der zb. spätere Marktstart der kommenden Kepler Chips lässt sich auch mit der benötigten Masse an Notebookchips erklären, sollte NV hier wirklich schon der Art viele Bestellungen haben.
Klar, könnte es so möglich sein.
Nur sollten diese GPUs erstmals schon längst produziert werden müssen, was man AFAIK noch nicht hörte.
Und wenn es schon paar Wochen produziert werden, wäre der Ramp für die Flut an Ive-Brdige-Designs viel zu gering, um diese abdecken zu können.
Dafür mussten sie mindestens schon 1-2 Monate a la November mit dem Ramp beginnen. Ich kann mich niergends erinnern beim Geschäftsbericht irgendein Produktions-Beginn gelesen zu haben.
(siehe 40nm: Nur Nivida konnte die ganzen Westmere-Desgins versorgen und AMD nicht. Aber das lag eben daran, weil Nvidia mit 6 Monate davor sehr früh den Markt mit 40nm-GPUs versorgen & rampen konnte, während AMD da mit paar Tagen davor zu spät kam)
Rekord-Design-Wins ist sicher ein gutes & gewichtiges Argument.
Aber andererseits gab es in den letzten Jahren immer mehr Modelle bzw. Desings.
Zusätzlich gab es jetztes Jahr noch etliche Desings mit Nvidia-Chipsätze. Es kann auch durchaus möglich sein, dass einige Modell von Nvidia-Chipsätze auf Nvidia-GPUs gewechselt wurden, weil man in dieser Modell-Serie weiter auf Nvidia-Video/OpenCL(Cuda)/PhsX setzen will, was ebenfalls zu Rekord-Desing-Wins führt.
Am Schluss müssen die Desgin-Wins auch versorgt werden. Und wenn da Nvidia zu viel versprochen hat, ...
Ja, AMD weiß zu gut, wo und wie sie was vermasselt haben.
Aber wie gesagt, das ist alles Spekulativ.
Mehr werden wird "wissen" und einschätzen können, wenn der erste Kepler kommt, der auch ein 28nm-Chip sein sollte/müsste.
aktuell ist die 7970 high end und die GTX 580 performance.
Aktuell gibt es noch keine 7970er zu kaufen, 580er hingegen schon.
Das heisst:
Aktuell ist die GTX 580 die schnellste Single-GPU Karte auf dem Markt.
Wenn die 7970 am Markt angekommen ist, dann darf sie sich auch, sofern es dann noch gilt, die schnellste Single-GPU Karte auf dem Markt nennen.
Hugo78
2011-12-24, 11:51:40
Nette entschuldigung die du da versuchst, aber letzendlich zählt was herauskommt. Und wenn ein Design viele Transistoren schluckt und hohe Leckströme verursacht (wie das Hotclock-design), dann kann man durchaus von einem Rückstand sprechen.
Hat alles seine Vor und Nachteile.
Die Frage ist, ob AMD genauso easy ein Hot Clock Design hinbekommen hätte, wie ihr VLIW.
Wenn ja, hatten sie auch einen echten Fertigungsvorsprung, aber das werden wir nie wissen.
Ausserdem, wo stehen wir heute?
Und darauf bezog sich meine Frage nach dem vermeindlichen Fertigungsvorsprung.
Also dass du den Fertigungsvorsprung jetzt auf AMD Erfahrungen schiebst und erklärst Nvidia würde aufholen ist ja immerhin ein Eingeständnis dass dieser Vorsprung existiert (damit widersprichst du deiner ersten Aussage gerade).
Ich hab nie bestritten, dass AMD früher, schneller neue Fertigungen genutzt hat.
Die Frage war nach dem Stand heut zu Tage.
Könnte AMD massenhaft 7970 & 7950 liefern, dann bitte.
Aber aktuell haben wir einen Paplerlaunch und der spricht nicht für einen Fertigungsvorsprung.
Das ist erstmal PR, nichts weiter.
Vorsicht, nicht AMD mit ATI verwechseln. Das sind immernoch unterschiedliche Büros in verschiedenen Ländern und die Grafikchips kommen nach wie vor aus Kanada. Einzig LLano sehe ich derzeit als eine art joint Venture an. Und AMD hat überhaupt keine aktuellen Erfahrungen im bulk-Prozess, nach den ganzen Layoffs im engineeringdesign und dem desaster von Bulldozer haben die AMD Ingenieure sicherlich anderes zutun als den ATIleuten die alles im Griff haben den Berater zu spielen. Solche Synergien, die dauern lange, viel länger noch als der verschmelzungsprozess der Firmenstruktur selber und nicht mal das ist bis jetzt vernünftig geglückt.
Selbstverständlich wird man Ingenieure gleicher Disziplinen nicht weiter unabhänig von einander arbeiten lassen.
Das ist doch grade das Hauptziel bei einer Fusion, sich neben Patenten, die richtigen Leute einzukaufen.
Räumliche Trennung ist dabei ja nur auch kein Hinderniss, wir nutzen ja keine Brieftauben mehr. ;)
dildo4u
2011-12-24, 22:01:21
http://www.abload.de/img/r1j35ee.jpg
http://www.abload.de/img/r2ymvb2.jpg
http://www.abload.de/img/r31yv3d.jpg
http://lenzfire.com/2011/12/entire-gcn-lineup-hd-7000-series-specs-and-price-revealed-60538/
849 US-Dollar für Neuseeland. :ulol:
MfG,
Raff
dildo4u
2011-12-24, 22:23:06
Könnte aber hinkommen wenn man sich den Abstand 6970 280€ zu 6990 540€ anguckt.
Botcruscher
2011-12-24, 22:27:35
Für quasi zwei Tahiti ist das doch regelrecht günstig.:D
Es könnte wirklich so kommen, immerhin werden hier zwei 28-nm-GPUs und abartige 6 GiByte GDDR5-RAM verballert. Damit hat AMD mit einem riesigen Abstand den längsten Paynix und könnte sich diesen vergolden lassen. Aber ich finde diese Vorstellung ekelhaft – also dass AMD jeweils die Zutaten für zwei coole HD 7970er verbläst, um damit eines dieser nutzlosen AFR-Ungetüme zu bauen. ;(
MfG,
Raff
boxleitnerb
2011-12-25, 09:52:35
849 Dollar, uiuiui. Wann war eine Grafikkarte zuletzt so teuer?
boxleitnerb
2011-12-25, 09:54:40
Es könnte wirklich so kommen, immerhin werden hier zwei 28-nm-GPUs und abartige 6 GiByte GDDR5-RAM verballert. Damit hat AMD mit einem riesigen Abstand den längsten Paynix und könnte sich diesen vergolden lassen. Aber ich finde diese Vorstellung ekelhaft – also dass AMD jeweils die Zutaten für zwei coole HD 7970er verbläst, um damit eines dieser nutzlosen AFR-Ungetüme zu bauen. ;(
MfG,
Raff
Deine Meinung in allen Ehren (und frohe Weihnachten! :smile:) aber musst du so immer so heftig gegen MGPU angehen? Wirkt wie ein Kreuzzug manchmal. Dabei ist es nicht so schlimm, wie immer getan wird - wenn man weiß, wie man damit umgehen muss bzw. die richtigen Anwendungsszenarien kennt.
Knuddelbearli
2011-12-25, 10:11:08
wenn man Inflation mit reinnimmt
gtx 280 vor der 4870. und das als single chip
ansonsten ohne Inflation die GTX 7900 GX2 mit 1k€ damals
AnarchX
2011-12-25, 10:12:27
849 Dollar, uiuiui. Wann war eine Grafikkarte zuletzt so teuer?
8800 Ultra und die hatte nur eine GPU und nicht mal besonders viel Speicher.
y33H@
2011-12-25, 10:59:31
Dann kommt schon das "wenn und aber", merkst du es? ;)
Ich verstehe Raff, denn MGPU hat einfach viel zu viele Einschränkungen ... alleine wenn ich mich als Vorbesteller von Skyrim daran erinnere, dass Crossfire in diesem Spiel erst überhaupt nicht ging - bei mit DEM Titel des Jahres -, dann von AMD deaktiviert wurde und nun scheint's läuft es, dann ist das einfach nur sehr sehr traurig und ich frage mich, warum ich das Doppelte (2x Radeon) zahlen soll, wenn mir der Hersteller weniger als die Hälfte biete (CF läuft, aber CPU-Limit = weniger Fps als Single-Radeon) oder mir gar die Hälfte meiner Investition abschaltet!
Bei NV mag es nicht ganz so schlimm sein, wobei ich zugegeben nicht im Kopf habe, wann welche Spiele wie gut CF/SLI unterstützen, Skyrim blieb halt im Gedächtnis.
derguru
2011-12-25, 11:02:30
die preise werden doch nicht so bleiben bis zum märz,ich hoff mal das zealand tahiti xt´s jetzigen preis übernommen wird,erst recht wenn der kepler bis dahin auftaucht.
Richtig! Und wie beim AF gilt: Ich bin als großer Kritiker einer der ersten, der jubelt, wenn es endlich "funktionierende" Dual-GPU-Karten gibt. Die Idee ist sehr gut, aber die Umsetzung nicht ... sechs Jahre nach der Vorstellung von Crossfire und sieben nach SLI. Die werden übrigens nie etwas verbessern, wenn es Leute gibt, die das Zeug trotzdem kaufen und den Beta-Test selbst durchfrickeln. Also: Selbst wenn du dein SLI magst, mecker mal ein bisschen. Als Premium-Kunde, der ständig Steine in den Weg gelegt bekommt, darfst du das. :D
MfG,
Raff
derguru
2011-12-25, 12:25:47
an ein multigpu-umsetzung ohne nachteile glaube ich auch in zukunft nicht weil mMn da nur der balken zählt und nur aus prestigezwecken überhaupt die karten auf den markt kommen oder glaubt einer das man mit der 6990 oder 590 gewinn macht?
ich persönlich habe mich auch von cf/sli verabschiedet,die karten werden immer leistungstärker demzufolge auch immer größer werdende kühler und ab spätestens dieser generation auch nicht mehr vernünftig kühlbar ohne einigermaßen leise zu sein siehe die ganzen 3.slot dinger.(wasser kommt für für mich nicht in frage)
und um ehrlich zu sein,von der leistung her ist eine 7970 oc völlig ausreichend und bei den meisten konsolenports ist selbst in 1440p sgssaa drin.
[...]
Der zb. spätere Marktstart der kommenden Kepler Chips lässt sich auch mit der benötigten Masse an Notebookchips erklären, sollte NV hier wirklich schon der Art viele Bestellungen haben.
NV wird im OEM-Segment total abstinken 2012 und 2013. Wer braucht angesichts Trinity und Ivy-Bridge bzw. Kaveri und Haswell noch kleine NV-Chips? AMD bringt ja erst garkeine... das hat seine Gründe. Auch Intels Grafik halte ich beim Ivy für so tauglich, dass externe GPUs zum großen Teil wirklich überflüssig werden. Das war beim Sandy nicht so, aber das ändert sich. NV kann erst ab Mainstream punkten. Ich kann da keine "Masse an Notebookchips" erkennen.
[...]
Vorsicht, nicht AMD mit ATI verwechseln. Das sind immernoch unterschiedliche Büros in verschiedenen Ländern und die Grafikchips kommen nach wie vor aus Kanada. Einzig LLano sehe ich derzeit als eine art joint Venture an. Und AMD hat überhaupt keine aktuellen Erfahrungen im bulk-Prozess, nach den ganzen Layoffs im engineeringdesign und dem desaster von Bulldozer haben die AMD Ingenieure sicherlich anderes zutun als den ATIleuten die alles im Griff haben den Berater zu spielen. Solche Synergien, die dauern lange, viel länger noch als der verschmelzungsprozess der Firmenstruktur selber und nicht mal das ist bis jetzt vernünftig geglückt.
So ist das mit Sicherheit nicht, man wird schon Synergien nutzen. Und wer SOI beherrscht beherrscht Bulk im Schlaf... das ist mit Sicherheit kein Ausschlusskriterium.
boxleitnerb
2011-12-25, 15:32:13
Also bei fast allen Titeln gibts doch keine Probleme mit SLI. CF gut das würde ich mir eher nicht antun. Klar, hin und wieder gibts ein Ärgernis wie kein SLI (Siedler 7), Grafikfehler (Crysis 2 vor Patch). Ansonsten...Skalierung fast 100%, Kosten +100% (also P/L super eigentlich im Vergleich zu normalem Highend :D). Für Lautstärke gibts Wakü, für Stromverbrauch VSync bzw. Limiter, für MR Limiter (vorrangig für BQ-Nazis sinnvoll, zu denen ich mich zähle). Inputlag geht gefühlt eh im Inputlag von VSync unter. Mit Limiter auf 59/60Hz ist auch das eigentlich kein Thema mehr.
Quintessenz: Ich kann mit hervorragender BQ mit sehr geringem Inputlag, ohne Tearing mit 60fps zocken oder mit Mörder-BQ mit ruckelfreien 30-50, je nach Bedarf. Einziges Totschlagargument: Es ist nichts für Noobs, es will halt gepflegt werden.
Ach ja, was das Meckern angeht:
Das bringt doch nichts. Technisch ist es mit AFR nicht machbar, dass sich zwei GPUs wie eine verhalten. Wenn die Bandbreitenanforderungen für die interchip-Kommunikation mit wachsender Chipleistung nicht zunehmen sollten, könnte man irgendwann an einen Punkt kommen, wo man da eine dauerhafte Lösung finden kann (Interposer, zwei GPUs direkt nebeneinanderklatschen, fertig).
Hugo78
2011-12-25, 16:15:44
NV wird im OEM-Segment total abstinken 2012 und 2013. Wer braucht angesichts Trinity und Ivy-Bridge bzw. Kaveri und Haswell noch kleine NV-Chips?
Wer redet denn von kleinen Chips?
Es geht um zukünftigen mobilen Midrange, Performance und High-End Bereich.
Leistung vergleichbar einer heutigen Desktop GTX 550Ti bis GTX 570.
Zergra
2011-12-25, 16:23:45
vllt solltet ihr mal zum Thema zurückkommen... ihr schweift hier richtig ab... sonst einfach wechseln :P
Zergra
2011-12-28, 21:31:38
http://www.computerbase.de/news/2011-12/amd-radeon-hd-7990-ab-maerz-fuer-849-us-dollar/
für 849 $
CB beruft sich auch nur auf Fudzilla.
MfG,
Raff
Ailuros
2011-12-29, 17:33:29
http://www.computerbase.de/news/2011-12/amd-radeon-hd-7990-ab-maerz-fuer-849-us-dollar/
für 849 $
ROFL :biggrin:
Leonidas
2011-12-29, 21:43:42
Da das alles am Ende doch von LenzFire kommt, würde ich es als wilde Spekulation ansehen und mich nicht mehr auf diese 849 Dollar versteifen.
Zudem: Wenn die Karte im März herauskommt, erwarte ich, daß 7970 schon beim Preis hat nachgeben müssen, womit die 849 Dollar / 780 Euro dann schon nicht mehr realisierbar sind. Der Preis würde nur dann gehen, wenn die Karte *jetzt* rauskommt.
AnarchX
2012-03-06, 11:10:41
New Zealand ist wohl wirklich verschwunden?
http://img.hexus.net/v2/graphics_cards/amd/r37j3/7750/Roadmap.jpg
http://hexus.net/tech/reviews/graphics/36125-amd-radeon-hd-7870-hd-7850-graphics-cards/
... bzw. wird die Karte wohl frühestens im Mai vorgestellt.
Duplex
2012-03-06, 11:18:19
Bei der Folie geht es doch nur um 99-399$ Karten?
N0Thing
2012-03-06, 11:20:34
Vielleicht hat man New Zealand auf einen Zeitpunkt verschoben, der mit dem Release des GK110 zusammenfällt.
Falls die Folie zu Tenerife kein Fake ist, will AMD vielleicht auch mit einer Single-GPU Lösung den Abstand zu einer Gk110-Karte verringern und nicht mit einer Dual-GPU Karte auf Teufel komm raus die Leistungskrone behalten.
boxleitnerb
2012-03-20, 14:41:50
vr-zone spricht von einer Verdopplung von Tahiti und 850 MHz für den Core und 5 Gbps für den VRAM:
AMD is preparing to release the Southern Islands / HD 7000 flagship, codenamed New Zealand, to be branded Radeon HD 7990. As expected, the 7990 will be a dual-GPU card, based on 2 x Tahiti.
In essence, HD 7990 will be 2 x HD 7970 downclocked, Crossfire'd and cramped into a single GPU. There will be a total of 48 CU covering 4096 SP and 256 TMU. HD 7990 will feature a total of 6GB GDDR5, 3GB per GPU. The clock speeds are down mildly from the HD 7970, settling at 850 MHz core and 5 GHz memory. Judging by these clock speeds, it is likely the HD 7990 will ship with a ~375W TDP and the same non-standard 2 x 8-pin power connectors configuration featured in HD 6990 and GTX 590.
The 7990 is expected to release in early April, following shortly after the release of GeForce GTX 680 later this week. On release, HD 7990 will take over the fastest graphics card crown, at least until NVIDIA challenges with a dual-GK104 chip, possibly GTX 690. HD 7990 will be in with a fighting chance of becoming the most expensive reference gaming/consumer graphics card at release, eclipsing GeForce 8800 Ultra's $829.
Read more: http://vr-zone.com/articles/report-amd-radeon-hd-7990-specifications/15285.html#ixzz1pfFEDNW8
Originalquelle:
http://www.inpai.com.cn/doc/hard/169592.htm
Zergra
2012-05-25, 16:27:42
7970 x2 ? (http://www.computerbase.de/news/2012-05/radeon-hd-7970-x2-in-vorbereitung-durch-bordpartner/)
Könnte passieren, ist auch logisch da AMD wohl an der HD7990 noch bastelt damit die Mikroruckler besser werden :D
AnarchX
2012-05-28, 17:22:23
Bilder zur Powercolor Radeon HD 7970 X2 Devil 13:
http://www.donanimhaber.com/ekran-karti/haberleri/PowerColordan-GeForce-GTX-690a-rakip-Cift-GPUlu-Radeon-HD-7970-X2-Devil-13.htm
M4xw0lf
2012-05-28, 17:47:33
Da sieht man auf der Rückseite des PCBs auch eindeutig, dass tatsächlich GPU und Ram doppelt vorhanden sind.
Skysnake
2012-05-28, 18:41:48
Sieht schon ziemlich fett aus mit dem 3 Slot Kühler und den 3x8Pin :ugly:
Stellt sich nur die Frage, ob die 7970 X2 eine "Notlösung" der Boardpartner ist, oder ober die 7990 eben doch ein größerer Single-GPU Chip ist, welcher mit ausgereifterer Produktion die Leistungskrone sichern soll.
Ich fänd ja ne 7990 als 2x7970 mit Interposer geil :biggrin:
Auch wenns nicht kommen wird :(
M4xw0lf
2012-05-28, 18:48:32
Sieht schon ziemlich fett aus mit dem 3 Slot Kühler und den 2x8Pin :ugly:
Zähl lieber nochmal nach :tongue:
Skysnake
2012-05-28, 18:51:47
Äh 3 ;D
OMFG hab ich mich doch echt noch vertippt ;D
Dabei hab ich extra nochmal drauf geschaut ^^
Duplex
2012-05-28, 19:13:31
Stellt sich nur die Frage, ob die 7970 X2 eine "Notlösung" der Boardpartner ist, oder ober die 7990 eben doch ein größerer Single-GPU Chip ist, welcher mit ausgereifterer Produktion die Leistungskrone sichern soll.
Ein etwas größerer Chip mit z.b. 2560 Shader macht keinen sinn wenn das Frontend nicht verbessert wird, ein gutes Beispiel wäre Pitcairn > Tahiti "Games skalierung" ;)
2560 Shader wäre ein doppelter Pitcairn, ich könnte mir vorstellen das DIE wäre nicht größer als Cayman, aber wie möchte man durch 25% mehr Recheneinheiten spürbar schneller als Tahiti XT werden, den GPU Takt muss man auch berücksichtigen, der darf auf keinen Fall kleiner als 900MHz ausfallen, aber mir stinkt die Sache zu sehr, selektierte Tahiti Chips mit 1,2Ghz sind eig. sinnvoller.
Skysnake
2012-05-28, 20:03:46
1:2 SP-DP Ratio wären z.B. so ne Sache. Tahiti kann ja angeblich nur 1:4. Eine 100% sichere Aussage von AMD hab ich dazu bis heute nicht gesehen... :down:
Die theoretische 7990 könnte ja nen verbessertes Frontend gleich mitgeliefert bekommen :P
Mir kommt es auf jeden Fall sehr spanisch vor, das man von einer 7970X2 spricht. Warum sollte man so etwas machen? Sehr komish auf jeden Fall. Eventuell aber auch nur Schall und Rauch, und es ist einfach die 7990 :ugly:
mironicus
2012-05-28, 20:31:34
Die hat bestimmt mehr als ein 1 GHz Takt pro Chip. Mit 3x8 Pin wird man die auch schön übertakten können. Vielleicht steht die 13 ja auch für 1,3 GHz. Ausgesuchte Chips könnten bestimmt 1,3 GHz erreichen. Das Ding wird aber wohl sehr viel lauter als die GTX 690 sein.
Dural
2012-05-28, 20:35:29
Weil keine 7990 mehr offiziel kommen wird, wag ich jetzt mal zu behaupten ;)
Das ding wurde eingestellt und den partner jetzt einfach erlaubt zwei 7970 auf eine karte zu basteln, 400watt und keiner kann AMD
einen vorwurf machen, da es ja keine offiziele karte ist, so einfach geht das ;)
aufkrawall
2012-05-28, 20:38:07
Kann man an so etwas überhaupt verdienen?
Kauft doch eh so gut wie niemand und bei so nem Brocken könnte man auch einfach 2 7970 einbauen.
Mancko
2012-05-28, 20:53:44
Weil keine 7990 mehr offiziel kommen wird, wag ich jetzt mal zu behaupten ;)
Das ding wurde eingestellt und den partner jetzt einfach erlaubt zwei 7970 auf eine karte zu basteln, 400watt und keiner kann AMD
einen vorwurf machen, da es ja keine offiziele karte ist, so einfach geht das ;)
Heißt dann aber auch, dass man sich mit Platz 2 begnügen muss.
Knuddelbearli
2012-05-28, 22:01:16
Kann man an so etwas überhaupt verdienen?
Kauft doch eh so gut wie niemand und bei so nem Brocken könnte man auch einfach 2 7970 einbauen.
och mann muss nur einen wakü kühler dafür kaufen ^^
M4xw0lf
2012-05-28, 22:04:36
och mann muss nur einen wakü kühler dafür kaufen ^^
Den es für diesen Exoten nur leider wohl nie geben wird :wink:
AnarchX
2012-05-28, 22:06:44
Die hat bestimmt mehr als ein 1 GHz Takt pro Chip. Mit 3x8 Pin wird man die auch schön übertakten können. Vielleicht steht die 13 ja auch für 1,3 GHz. Ausgesuchte Chips könnten bestimmt 1,3 GHz erreichen. Das Ding wird aber wohl sehr viel lauter als die GTX 690 sein.
Eine "Devil 13 (http://www.powercolor.com/event/Devil13/)" Version gab es schon von der 6970, mit der Taktrate hat das nichts zu tun.
Die hat bestimmt mehr als ein 1 GHz Takt pro Chip. Mit 3x8 Pin wird man die auch schön übertakten können. Vielleicht steht die 13 ja auch für 1,3 GHz. Ausgesuchte Chips könnten bestimmt 1,3 GHz erreichen. Das Ding wird aber wohl sehr viel lauter als die GTX 690 sein.
Vergiss das mit den 1,3 GHz schnell wieder. Auch auf einer Solo-Karte.
MfG,
Raff
HarryHirsch
2012-05-28, 23:13:41
Vergiss das mit den 1,3 GHz schnell wieder. Auch auf einer Solo-Karte.
MfG,
Raff
pff
Das ist einfach nicht realistisch. Leider. ;) Erinnert sich noch jemand an die gefälschte "Sapphire-Präsentation", bei der einer Atomic WTFOMG-Version mit 1.335 MHz drinstand? Ende 2011. Ich gebe Tahiti im jetzigen Status maximal eine limitierte 1,2-GHz-Paynix-Edition, aber nicht mehr. 1,3 GHz stemmt kein derzeitiges Exemplar rockstable mit Luft. Pitcairn hingegen ... nun ja, das wird eng. :biggrin:
MfG,
Raff
Zergra
2012-05-28, 23:39:35
Kann man an so etwas überhaupt verdienen?
Kauft doch eh so gut wie niemand und bei so nem Brocken könnte man auch einfach 2 7970 einbauen.
Verdienen ? Ich glaube die Freuen sich wenn sie die entwicklungkosten wieder rausbekommen, die großen Karten sind doch nur für die Werbung da. Die kleinen Füllen die Tasche. Könnte natürlich sein das AMD sich das diesmal spart und das Geld lieber in die Tahiti XT Entwicklung steckt um dort das Frontend zu verbessern ? :D
Knuddelbearli
2012-05-29, 00:19:35
ja wundere mich es wieso das AMD noch nicht amcht obwohl das genau in deren Konzept passt.
Bei neuer Fertigung nur einen mittelgroßen Chip dazu höchstens eine Dualkarte, bei dem refresh in der selben Struktur dann einen 500mm²+ Chip. Das wäre eine echte Sweet spot Strategie!
550mm²
3072 Shader
348 Bit mit 3Ghz
1,05Ghz
3x Front end ( eventuell sogar 4x je nachdem wie stark das bei der 7970 limitiert und wie sehr man es verbessert, da die 7870 ja recht nahe rankommt )
man wird ja noch träumen dürfen ^^
mboeller
2012-05-29, 15:52:22
550mm²
3072 Shader
348 Bit mit 3Ghz
1,05Ghz
3x Front end ( eventuell sogar 4x je nachdem wie stark das bei der 7970 limitiert und wie sehr man es verbessert, da die 7870 ja recht nahe rankommt )
man wird ja noch träumen dürfen ^^
Du hast die 48 oder gar 64 ROP's vergessen. :)
Dural
2012-05-31, 14:38:32
da kommt schon die erste X2...
http://www.computerbase.de/news/2012-05/powercolors-radeon-monster-eine-erste-hd-7970-x2/
Ailuros
2012-05-31, 14:46:50
da kommt schon die erste X2...
http://www.computerbase.de/news/2012-05/powercolors-radeon-monster-eine-erste-hd-7970-x2/
Ich dachte das Ding ist eine Vendor-Initiative?
Zergra
2012-06-05, 14:33:03
http://www.computerbase.de/news/2012-06/genauere-details-zur-powercolor-hd-7970-x2-devil-13/
sieht nicht schlecht aus :D Dual-Bios und auf dem zweiten sind 1.1Ghz :D
Man_In_Blue
2012-06-05, 16:36:26
Bei den Preisen sehe ich einfach keinen Vorteil gegenüber einer herkömmlichen CrossFire Lösung... glaube das thema wird mir ewig unverständlich bleiben. ;)
AnarchX
2012-06-05, 16:46:15
Mit Wasserkühlung auf Single-Slot reduziert und schon passen einige von den Karten in einen akademischen Cluster. ;)
Ansonsten ist natürlich ein Prestigeobjekt, was wohl aber trotzdem seine Kunden findet.
aufkrawall
2012-06-05, 16:50:38
Ansonsten ist natürlich ein Prestigeobjekt, was wohl aber trotzdem seine Kunden findet.
Als Spieler muss man schon ein Depp sein, wenn man sich auf Crossfire einlässt.
Schaffe89
2012-06-05, 17:12:08
Framlimiter drüber und gut. Die aktuelle Crossfireskalierung ist aber nicht so dicke.
boxleitnerb
2012-06-05, 17:14:52
Nicht "gut". Ich hab anfangs auch einen FL benutzt, aber wenn die min fps und die avg fps weit auseinanderliegen, verschenkt man einen Haufen Performance. Deshalb wäre es besser, wenn die Karten gleich aus dem Stegreif weniger mikrorucklen würden.
Zergra
2012-06-05, 22:00:08
Nicht "gut". Ich hab anfangs auch einen FL benutzt, aber wenn die min fps und die avg fps weit auseinanderliegen, verschenkt man einen Haufen Performance. Deshalb wäre es besser, wenn die Karten gleich aus dem Stegreif weniger mikrorucklen würden.
Die Entwicklungszeit war ja relativ lange und vllt. gibt es ja mal einen Fortschritt gegenüber CF :)
Mancko
2012-06-05, 22:33:18
Kann es sein, dass die Werte in Bezug auf Leistungsaufnahme und Geräuschkulisse nicht so prall sind, so dass AMD sich nicht traut selber das Teil vorzustellen? Der direkte Vergleich zur GTX690 wäre da schon sehr interessant. Letztere hat ja - m.E. zu Recht - extrem gute Reviews bekommen, was bisher für Dual GPU Karten ja nun nicht unbedingt immer der Fall war.
AnarchX
2012-06-06, 16:12:30
HIS auch mit einer: 7970 X2: http://www.hardware.fr/news/12373/computex-his-radeon-hd-7970-x-x2-bi-gpu.html (ganz unten)
AnarchX
2012-06-15, 08:38:54
New Zealand ES:
http://www.4gamer.net/games/135/G013536/20120615004/TN/002.jpg
http://www.4gamer.net/games/135/G013536/20120615004/TN/005.jpg
http://www.4gamer.net/games/135/G013536/20120615004/
robbitop
2012-06-15, 08:42:40
Ich frage mich ganz ehrlich, warum man so lange damit gewartet hat...
fondness
2012-06-15, 10:32:46
Ich frage mich ganz ehrlich, warum man so lange damit gewartet hat...
Weil man vielleicht ein neues Stepping hat das man auch für die Ghz-Edition verwendet? Die Tests der Ghz Edition zeigen ja trotz höherer Spannung und mehr Takt teilweise sogar weniger Leistungsaufnahme.
robbitop
2012-06-15, 10:45:16
Ist das mit dem Stepping offiziell? Also dass auf der GPU jetzt ein neues Stepping draufsteht?
Soweit ich weiß, waren die Tahitis allesamt extrem gut übertaktbar bzw. undervolt-bar. Ein bisschen binnig hätte dafür doch sicher genügt.
w0mbat
2012-06-15, 12:47:54
Also das eine GHz Edition kommt wissen wir ja schon sehr lange. Und meine Vögle zwitschern mir auch, dass diese ein neues Stepping haben soll, das einiges verbessert. Aber wie immer: ohne Schiessgewähr!
Hübie
2012-07-31, 05:22:04
Das ist binning... nicht mehr und wohl nicht weniger ;) So eine unsinnige Karte jetzt noch zu bringen ist ja fast schon mutig.
Ailuros
2012-07-31, 12:13:29
Das ist binning... nicht mehr und wohl nicht weniger ;) So eine unsinnige Karte jetzt noch zu bringen ist ja fast schon mutig.
http://www.anandtech.com/show/6122/radeon-hd-7970-ghz-edition-finally-available-sapphire-toxic-hd-7970-ghz-edition-6gb
Instead of shipping straightforward reference and semi-custom 7970GE cards, partners have chosen to integrate the binned Tahiti GPU into their existing high-end product lineups.
;)
AnarchX
2013-03-27, 08:46:02
AMD zeigt mal wieder ihre Dual-GPU-Karte: http://www.hardware.fr/news/13012/gdc-radeon-hd-7990-amd-approche.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Fnews+%28HardWare.fr+-+News%29
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.