Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 28. Januar 2011
Leonidas
2011-01-29, 14:02:06
Link zur News:
http://www.3dcenter.org/news/2011-01-28
Update 15:00
Forum-News hinzugefügt
Nevermore4ever
2011-01-29, 16:44:44
Zunächst muss ich mir was von der Seele reden:
... egal ungeachtet der Stromanschlüsse ...
... und, allerdings ohne ...
Das ist nicht alles, aber es fällt am meisten auf.
Nun zum Thema: Wir hatten vor nicht allzu langer Zeit hier einen Beitrag über gefälschte Präsentationen. Der Artikel auf NordicHardware spricht von nicht näher genannten "verlässlichen" Quellen, aber mich würde interessieren, ob irgendwelche Informationen zur kommenden Dual-GPU-Karte wirklich feststehen.
Auch wenn die Jagd nach der höchsten 3D-Leistung immer etwas irrationale Auswüchse hervorbringt, erscheint es mir doch seltsam, dass nVidia so viel Silizium für so wenig Mehrperformance aufwenden soll. Angesichts der guten Effizienz und des Stromverbrauchs-/Wärmebudgets erscheint eine GF114-basierte Dual-GPU-Karte einfach so viel logischer.
Edit: Ok, es gibt ja einen Thread dazu (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8531004#post8531004) (der auch noch keine abschließende Antwort enthält).
Knuddelbearli
2011-01-29, 22:29:26
schon interessant zur 69x0 schaffen sie es nicht mal richtig dicke ausführungen ( eyefinity ) zu testen bei 580 kommt sowas bevor man sie normal kaufen kann ....
und die wollen eine GTX 590 mit Gf 110 mit vollbestückung der fast 300W brauch bei nur minimal gesenktem Takt ? ich glaube die glauben auch noch an den Weihnachtshasen
schon interessant zur 69x0 schaffen sie es nicht mal richtig dicke ausführungen ( eyefinity ) zu testen bei 580 kommt sowas bevor man sie normal kaufen kann ....Allerdings auf ne total unsinnige Art. Auflösung hoch bei gleichbleibendem AA? Klar, dass sich die 3GB-Version dann kaum absetzen kann, weil der Berechnungsaufwand gleich stark ansteigt wie der VRAM-Verbrauch. Eigentlich korrekt würde man die Vorteile des Speichermonsters erst sehen, wenn man bei gleichbleibender Auflösung zuerst das AA hochschraubt bis zum Maximum und dann den gleichen Spaß nochmal mit aktiviertem 3D. Denn ein Druck aufs Knöpfchen an der 3D-Vision-Pyramide kann den Speicherverbrauch fast verdoppeln! Naja, jedenfalls mit 32xS und eigentlich nicht sonderlich VRAM-hungriger SW. Ging trotzdem von etwas über 850 auf über 1,5 Gigs hoch - bei grad mal 1680x1050 :usweet:
In FullHD könnte die 2GB 285 vielleicht gar ne Standard580 abhängen :naughty:
Leonidas
2011-01-30, 19:00:34
Zunächst muss ich mir was von der Seele reden:
... egal ungeachtet der Stromanschlüsse ...
... und, allerdings ohne ...
Das ist nicht alles, aber es fällt am meisten auf.
Nun zum Thema: Wir hatten vor nicht allzu langer Zeit hier einen Beitrag über gefälschte Präsentationen. Der Artikel auf NordicHardware spricht von nicht näher genannten "verlässlichen" Quellen, aber mich würde interessieren, ob irgendwelche Informationen zur kommenden Dual-GPU-Karte wirklich feststehen.
Interessanter Einwand. Auch eine nicht sichtbare Präsentation kann natürlich gefälscht sein. Andererseits waren die letzten Meldungen eigentlich deutlich in Richtung Dual-GF110.
Schreibfehler gefixt, Danke.
mironicus
2011-01-31, 11:29:20
Könnte AMD es wohl schaffen, einen voll freigeschalteten Chip (1536) mit 6950-Taktraten und etwas niedriger Spannung (z.B. 1,05 Volt) als 6990 zu bringen? Die 6950 verbraucht schon recht wenig Strom, untervolten sollte auch noch mal 20-30 Watt bringen, dann sollte die 300 Watt TDP locker zu halten sein mit etwas Reserve.
Straputsky
2011-01-31, 16:22:29
Ich denke AMD wird hier einen Kniff anwenden und die maximale Leistungsaufnahme der Karte in der Hardware beschränken. Somit sollte sich ein Setup aus zwei 6950-Chips machen lassen. In Spielen dürfte die Grenze kaum auftreten und bei intensiven Anwendungen wie Furmark wird dann halt gedrosselt.
Für einen unbeschnittenen Chip wird es allerdings nicht mehr reichen. Die Einsparungen durch das gemeinsame PCB dürften zu niedrig sein und das separate Testen mit einer niedrigeren Spannung nicht wirklich wirtschaftlich sein. Also verbaut man Chips, welche sich per BIOS-Update vollständig freischalten lassen (warum tritt das ja auch gerade wieder bei dieser Generation auf? Ein Schelm wer Böses dabei denkt ^^) und wälzt das Problem der hohen Verbrauchswerte auf den Nutzer ab. Zugleich lässt man es den Herstellern offen, zwei 8-PIN Stecker zu verbauen (und die Verbrauchslimitierung zu beeinflussen) und schon hat man inoffiziell wieder eine Dual-Karte, welche einem 6970 Crossfire entsprechen und muss offiziell nicht die Spezifikationen durchbrechen.
Die Referenz ist selbst mit "nur" einem Crossfire aus zwei 6950 immer noch vorzeigbar schnell.
seaFs
2011-01-31, 16:33:47
Hab da mal zwei Fragen:
1.) Eyefinity war ja laut dieses Interviews (http://www.anandtech.com/show/2937/10) ein Geheimprojekt. Ob Carrell Killebrew diesmal wieder die gleiche Show abzieht?
2.) Kann man denn einfach anstelle eines 6-Pin-Anschlusses einen 8-Pin-Anschluss einlöten? Also, klar, geht immer, aber bringt das dann auch mehr Stabilität/Stromfluss mit sich?
Nevermore4ever
2011-01-31, 18:09:05
...
2.) Kann man denn einfach anstelle eines 6-Pin-Anschlusses einen 8-Pin-Anschluss einlöten? Also, klar, geht immer, aber bringt das dann auch mehr Stabilität/Stromfluss mit sich?
Das hängt davon ab, ob auf der Karte selbst die zusätzlichen Leitungen für die 2 zusätzlichen Pins drauf sind - und warum sollten sie da sein, wenn sie nicht gebraucht werden?
Vorstellen kann ich mir, einen Adapter zu bauen, der die Kabel von einem 8-Pin- auf einen 6-Pin-Anschluss zusammenführt. Ob das wirklich was bringt? Es hängt ja hauptsächlich vom Netzteil ab, ob es genug Saft liefern und trotzdem stabil arbeiten kann.
Damit kannst du aber immer noch nicht die Leitungen auf der Karte verändern, die ja auch nur auf einen begrenzten Stromfluss ausgelegt sind. Ich würde also auf ein gutes Netzteil setzen und den Lötkolben liegen lassen.
y33H@
2011-01-31, 19:52:29
Ein 6+2 Pin hat eh 3x 12V und liefert damit 150W. Die beiden Masse-Pins sind "Fake".
Leonidas
2011-02-01, 09:56:11
Korrekt. Die Stecker (selbst die 6poligen) schaffen selber sogar 200 Watt. Sie sind halt nur von der PCI-Sig nur bis 75W (6pol) und 150W (8pol) spezifiziert.
Deswegen kann eine 5970 unter Furmark in der Praxis bis zu 370 Watt ziehen, obwohl sie nur einen 6pol und einen 8pol hat - die HW kann in diesem Fall deutlich mehr als die Spezifizierung aussagt. Aber für die Hersteller sind Specs wichtig, um an gewisse Kunden verkaufen zu können. Im professionellen Bereich dürfte man nichts absetzen können, was nicht der PCI-Sig entspricht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.