Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Auch Nvidia muss für Fermi einen Mindestpreis haben.
Da spielt der Profimarkt erstmal keine Rolle.
Natürlich. Man erweitert durch Fermi den Profimarkt massiv. Man kann ihn in Bereiche verkaufen, die früher nicht möglich waren und auch zu Preisen, die vorher nicht möglich waren. Da kann man den Aufpreis pro Chip (den niemand bis heute weiß, nur so btw) verschmerzen.
Schau dir die Finanzzahlen an, wo ATI es mal geschafft hat 12 Millionen zu verdienen, während Nvidia irgendwo beim Faktor 10 drüber lag - das sagt im Endeffekt alles. Noch dazu, wo Nvidia anfängt seine Produktpalette auszuweiten (Tegra, Tesla) und ATI immer noch auf der Gamerschiene festhängt. Ja, ATI BRAUCHT und MUSS billige und kleine Chips bauen, anders überleben sie nicht, weil sie zu über 90% im Gamermarkt hocken. Bei NVidia schaut das anders aus.
Auch NVidia kann es sich nicht leisten die Karten mit dem Profimarkt zu subventionieren.
Warum nicht?
Wenn ich im Gamermarkt 100 Millionen $ weniger verdiene, dafür aber im Profimarkt 200 Millionen mehr, macht das unterm Strich für die Firma 100 Millionen mehr. Ob nun vom Profi oder vom Gamermarkt interessiert doch keinen.
Es lohnt sich aber immer noch nicht einen Chip für Gamer und einen für Profis zu entwickeln ;)
N0Thing
2010-01-08, 12:19:50
Ah so ist das. Und ATI bejubelt 2 Mio Chips in 4 Monaten und hat keine Kopfschmerzen wegen den Yields. Will sagen, ATI krebst seit über 3 Monaten mit miesen Yields bei RV870 umher und da solls ganz anders aussehen mit Yields und Kosten?!
Von den 2 Millionen Chips ist aber auch keiner so groß wie der GF100, die letzte Zahl die man über den nicht teildeaktivierten Cypress gehört hat, war 300.000 Stück. Für AMD scheint es sich trotz der schlechten Ausbeute gelohnt zu haben, in die Produktion zu gehen, bei Nvidia sprachen offensichtlich Gründe dagegen.
mapel110
2010-01-08, 12:23:08
Von den 2 Millionen Chips ist aber auch keiner so groß wie der GF100, die letzte Zahl die man über den nicht teildeaktivierten Cypress gehört hat, war 300.000 Stück. Für AMD scheint es sich trotz der schlechten Ausbeute gelohnt zu haben, in die Produktion zu gehen, bei Nvidia sprachen offensichtlich Gründe dagegen.
Du verwechselst da was. 300.000 zu 500.000 war Cypress zu Juniper, nicht 5870 zu 5850.
Cubitus
2010-01-08, 12:23:29
NVIDIA GF100 Fermi Video Card Triple SLI Rocket Sled Demo Video:
http://www.legitreviews.com/news/7137/
Das Tri-SLI läuft wohl wassergekühlt:
http://www.hwupgrade.it/news/skvideo/nvidia-fermi-alcune-nuove-informazioni_31216.html
Tolle Techdemo :eek:
N0Thing
2010-01-08, 12:25:10
Man sprach kurz vor Ende 2009 immer noch von quasi rohen Treibern. Je mehr hw zur Verfuegung steht desto schneller geht es aufwaerts mit der Treiberentwicklung. Es handelt sich wohl nicht im Treiberteam um 5 Herren die in einem Tassenschrank hocken.
D.h. Nvidia hatte bis Ende 2009 nichtmal genug funktionsfähige Chips, die wenigstens mit niedrigen Taktraten liefen, um ihre eigene Entwicklungsabteilung zu versorgen? :eek:
Von den 2 Millionen Chips ist aber auch keiner so groß wie der GF100, die letzte Zahl die man über den nicht teildeaktivierten Cypress gehört hat, war 300.000 Stück. Für AMD scheint es sich trotz der schlechten Ausbeute gelohnt zu haben, in die Produktion zu gehen, bei Nvidia sprachen offensichtlich Gründe dagegen.
Ich denke für AMD wäre es besser gewesen den RV870 zu Beginn für ein halbes Jahr o.ä. in 55nm zu fertigen. Der Stromverbrauch wäre zwar etwas höher gewesen, die Spieleleistung unterm Strich vielleicht auch, dafür hätte man aber WIRKLICH karten absetzen können. Die 2 Millionen sind doch ein Tropfen auf den heißen Stein angesichts des Gesamtmarktes.
N0Thing
2010-01-08, 12:26:43
Du verwechselst da was. 300.000 zu 500.000 war Cypress zu Juniper, nicht 5870 zu 5850.
Ah, OK. Gibt meiner Aussage dann aber noch mehr Gewicht, wenn in den 300.000 beide Cypress-Versionen drin stecken. :wink:
D.h. Nvidia hatte bis Ende 2009 nichtmal genug funktionsfähige Chips, die wenigstens mit niedrigen Taktraten liefen, um ihre eigene Entwicklungsabteilung zu versorgen? :eek:
Jedenfalls nicht genug, nach dieser Aussage.
Ist auch eine Strategie, warum unnütz Kohle für Testmuster ausgeben, wenn noch so viel Zeit ist.
Es besteht kein Grund die Treiber deutlich früher als sonst fertig zu haben.
Ailuros
2010-01-08, 12:41:02
D.h. Nvidia hatte bis Ende 2009 nichtmal genug funktionsfähige Chips, die wenigstens mit niedrigen Taktraten liefen, um ihre eigene Entwicklungsabteilung zu versorgen? :eek:
Ab A2 ging es so langsam aufwaerts. Wann ist denn A2 funktionsfaehig zurueckgekommen vom fab? Eben.
Von den 2 Millionen Chips ist aber auch keiner so groß wie der GF100, die letzte Zahl die man über den nicht teildeaktivierten Cypress gehört hat, war 300.000 Stück. Für AMD scheint es sich trotz der schlechten Ausbeute gelohnt zu haben, in die Produktion zu gehen, bei Nvidia sprachen offensichtlich Gründe dagegen.
Tja so lange es sich aber um 2Mio DX11 Einheiten handelt wuerde mich anstelle NV die Anzahl schon beunruhigen. Aus dem selben xbit labs link:
"Being first to market with new technology and initiatives gives a company a strong lead, and if properly managed, a sustainable advantage. AMD has been first to market with DirectX 11 graphics products, and as a result, all of the new DirectX 11 games have used those products as the basis for their development. This gives AMD a substantial advantage,” said Dr. Jon Peddie, founder and president of Jon Peddie Research.
Peddie sagt zwar "if properly managed" aber man muss schon einsehen koennen dass es sich nicht nur um unwichtige Erbsen handelt.
Wobei L wie Leistung für weit mehr steht als nur für Fps. U.a. Features, BQ, Treiber, Kompatibilität usw.
Für uns Freaks ja.
Die meisten sehen aber eh nur die Balken ;)
Ah so ist das. Und ATI bejubelt 2 Mio Chips in 4 Monaten und hat keine Kopfschmerzen wegen den Yields. Will sagen, ATI krebst seit über 3 Monaten mit miesen Yields bei RV870 umher und da solls ganz anders aussehen mit Yields und Kosten?!
Wenn man allein am Markt ist, bezahlt der Kunde auch die zusätzlichen Kosten, nicht der Hersteller (siehe 5850 Preiserhöhung)
Wenn man allein am Markt ist, bezahlt der Kunde auch die zusätzlichen Kosten, nicht der Hersteller (siehe 5850 Preiserhöhung)
Der der sich freut ist der Händler, nicht der Hersteller oder Kunde.
Siehe 5870 Preiserhöhung der Händler und siehe konstante 5870 Preise seitens AMD.
MorPheuZ
2010-01-08, 13:16:41
Solange sie weggehen freuts auch AMD
Eben, der Einstiegspreis bleibt konstant beim kalkulierten Preis...keine Anzeichen einer sonst üblichen Preissenkung, da AMD alleine aufm markt ist.
MorPheuZ
2010-01-08, 13:18:51
Es lohnt sich aber immer noch nicht einen Chip für Gamer und einen für Profis zu entwickeln ;)
Und doch zeichnet sich langsam ab dass sich nv die Märkte aufteilt auf spezifizierte Produkte. ECC und Modulare "Chipfertigung" sind da nur zwei Punkte vom ganzen Kuchen.
mapel110
2010-01-08, 14:06:59
http://www.pcworld.fr/2010/01/08/materiel/carte-graphique/ces-2010-nvidia-fermi-dissipation-thermique-tres-importante/468101/
Angeblich nahe 300 Watt Leistungsaufnahme und Performance eher auf 5870-Niveau als auf 5970-Niveau, wenn ich das richtig deute, was der Online-Übersetzer ausspuckt.
RoNsOn Xs
2010-01-08, 14:10:16
dann wären die altbekannten hier ausm forum mal wieder auf den boden geholt :smile: (wenn das stimmt)
Ich glaube und hoffe nicht, dass das stimmt - das wäre für uns Käufer der worst case.
reunion
2010-01-08, 14:14:46
Übersetzung:
If we have not learned much about Fermi NVIDIA, we have learned more from Thermaltake and Cooler Master. The subject was discussed: the heat release of future Nvidia cards ...
Fermi was present at the stand since Nvidia's case contained many card GF100, we have verified by the transparent side door, without taking photos, the green minions on guard. Beyond this brief appearance, we were able to discuss future Nvidia cards with manufacturers boxes .... And the least we can say is that we were somewhat surprised at what we have learned. At Thermaltake example, we could see a box with colors Nvidia, Element V will be certified to the Fermi GeForce 100. Why certify? Because this case has a cooling system dedicated to SLI the future map of the firm to the chameleon. It is an additional module to put in place once the graphics cards installed. It is then covered much of the map after a fan of 120 mm. This system has been validated by Nvidia after many copies sent to the Santa Clara company have returned with the notation "failed." The cause? Insufficient cooling to remove heat generated by Fermi two cards in SLI.
Same story at Cooler Master where we could see the future housing HAF X, unfortunately under NDA, which also will be certified Nvidia Fermi. Why? Because he also is able to participate actively in the dissipation of heat generated by Fermi. The engineer has also given Fermi consumption: 300 watts! This is the limit allowed by the PCI-Express 2.0 and recall that Fermi is equipped with a single GPU! Delay, power consumption of 300 watts, heats important, all of which we are told that Fermi'm a technological marvel, it seems already born evil. He also whispers that the most powerful Fermi also a Radeon HD 5870 but not 5970. To go beyond 5870, should increase the frequency ... and then exceed the limit of 300 watts. Life Fermi could therefore be short and the new generation happen much more quickly ... be confirmed in the coming months.
Dort wird sogar angezweifelt das man die 5870 schlägt. Um sie zu schlagen würde man laut dem Text die 300W sprengen. Also das wäre wirklich "worst case", kann ich mir (noch) nicht vorstellen.
Burgard
2010-01-08, 14:19:15
ALso mit der Dual-GPU-Lösung ist dann wohl Essig.
Der letzte Satz ist der wohl Wichtigste:
Der Fermi-Zyklus könnte sehr kurz werden.
Dann wird es wohl zum Herbst den Fermi II geben und der Fermi I hat mehr mit dem R600 gemein als man gedacht hätte.
2B-Maverick
2010-01-08, 14:21:40
ALso mit der Dual-GPU-Lösung ist dann wohl Essig.
Der letzte Satz ist der wohl Wichtigste:
Der Fermi-Zyklus könnte sehr kurz werden.
Dann wird es wohl zum Herbst den Fermi II geben und der Fermi I hat mehr mit dem R600 gemein als man gedacht hätte.
Das wäre ja sowieso logisch (der schnelle "FermiII") - die Entwicklung des Nachfolgers bleibt ja nicht stehen, bloss weil es eine Verspätung gibt.
[fu]121ah@work
2010-01-08, 14:22:26
blabla... übersetzung:
für sli-label werden gehäuse speziell zertifiziert - die meisten kamen mit einem FAIL zurück. Zusätzliche kühlung ala 120er lüfter ist notwendig.
die 300w sollen verbraucht werden (allerdings wird nicht erwähnt ob im GPGPU modus mit was weis ich wie viel last oder unter std. bedingungen.
die 5870 wird egalisiert, um sie zu schlagen müssen die clocks hoch was die 300w sprengen soll.
derguru
2010-01-08, 14:22:46
Übersetzung:
Dort wird sogar angezweifelt das man die 5870 schlägt. Um sie zu schlagen würde man laut dem Text die 300W sprengen. Also das wäre wirklich "worst case", kann ich mir (noch) nicht vorstellen.
dann muss die neue architektur ja total in hose gegangen sein,ich glaub das so nicht.
deswegen wollte huang in der pressekonferenz die brille gar nicht mehr ausziehen,schäm-faktor;D
Burgard
2010-01-08, 14:25:10
Das wäre ja sowieso logisch (der schnelle "FermiII") - die Entwicklung des Nachfolgers bleibt ja nicht stehen, bloss weil es eine Verspätung gibt.
Schon, aber wenn die ARchitektur einen Fehler bzw ineffektiv ist, dann reicht eine blosse Erhöhung des Takes nicht und dann wird es eben eine Veränderung der Grundkonstruktion geben, eben ähnlich wie beim R600.
ABer Gerüchte sind ja ziemlich geduldig.
san.salvador
2010-01-08, 14:25:20
Hier wird andauernd mit Absatzzahlen von ATI gespielt.
Ich kann die absolut nicht einordnen. Hat jemand ein paar Absatzzahlen (4870 pro Monat, Jahrevolumen nV, Absatz G80 im ersten Jahr - egal, einfach irgendwas) für mich, an denen ich mich orientieren könnte?
Tolle Techdemo :eek:
mir gefällt vor allem das video, in dem die demo am schluss abkackt ;) -> http://www.legitreviews.com/news/7137/
bei den gerüchten aus frankreich kann man nur hoffen, dass es nicht komplett bewahrheiten.
Das Nvidia mal wieder mal mehr auf 3D setzt finde ich gut.
3D liegt voll im Trend, jeder der in Avatar 3D war, kann dies bestätigen ;)
Aber leider lässt sich mit den "kleinen" 22 Zoll Monitoren trotz
3D Vision Surround nix reißen. Da müssen einfach 24+ Zoll TFTs her.
Sorry, aber NV 3D ist der totale Rotz. Kopfschmerzen und schlechte BQ sind garantiert. Dazu eine schwere Shutterbrille mit extra Stromquelle. Dann benötigt man einen Monitor mit 120Hz.
Die Zukunft gehört der Polarisationstechnik, da sie Hz unabhängig ist und man keine Shutterbrille braucht, sondern eine saubillige polarisierte Brille und einen Monitor mit Polarisatsonsaufsatz.
Ich hoffe zwar auch das der G300 super wird aber sowohl PysikX als auch 3D Vision von NV sind reine Bauernfänger und nicht Massenmarkttauglich!
Möglich, dass man sich die bloße Funktion der Chips (auch) durch Erhöhung der Kernspannung erkauft hat->Leckströme
Auf der anderen Seite steht das Versprechen von NV, die VCore auch noch anheben zu können für höheren Takt. Natürlich kann NV nix dafür, wenn ihr Produkt durch OC außerhalb der Spezifikationen laufen würde...durchaus plausibel das ganze, wenn auch ebenso erschreckend:/
mapel110
2010-01-08, 14:35:33
Hier wird andauernd mit Absatzzahlen von ATI gespielt.
Ich kann die absolut nicht einordnen. Hat jemand ein paar Absatzzahlen (4870 pro Monat, Jahrevolumen nV, Absatz G80 im ersten Jahr - egal, einfach irgendwas) für mich, an denen ich mich orientieren könnte?
Wollt ich auch schon als googlen. Auf die Schnelle diese Zahlen aus 2007.
http://www.heise.de/newsticker/meldung/Nvidia-rueckt-dichter-an-die-Spitze-des-Grafikchipmarktes-157196.html
pro Quartal also etwa 15-20 Millionen GPUs gesamt von AMD, würde ich sagen. Da sind dann aber auch die Notebookchips mit dabei und auch integrierte GPUs. 2 Millionen dürften damit relativ gut sein für die neuen Radeons, vielleicht wären 1-2 Millionen mehr drin gewesen bei guter Verfügbarkeit?!
aylano
2010-01-08, 14:37:49
Hier wird andauernd mit Absatzzahlen von ATI gespielt.
Ich kann die absolut nicht einordnen. Hat jemand ein paar Absatzzahlen (4870 pro Monat, Jahrevolumen nV, Absatz G80 im ersten Jahr - egal, einfach irgendwas) für mich, an denen ich mich orientieren könnte?
In Fudzilla gibts welche.
Die fand ich vor kurzem, als ich in der Fudzilla-News-Archiv nachschaute.
Da wurden nach ca. 4 Monate ca. 2 Mio. Stück 48x0-Serie verkauft.
Angeblich nahe 300 Watt Leistungsaufnahme und Performance eher auf 5870-Niveau als auf 5970-Niveau, wenn ich das richtig deute, was der Online-Übersetzer ausspuckt.
Wenn sowas kommt, dann braucht man ja garnicht drüber diskutieren, ob das gut ist bzw. wie es & kleine Brüder im Markt ankommt.
Glaub ich auch nicht (noch) ganz, wobei das sich eben auch nach 10-15% & 275Wattt-TDP anhört, wenn man daran etwas glauben schenken will.
Einfach abwarten, ich kann mir auch noch nicht vorstellen, dass es so schlimm wird, (auch wenn gestern die "Fermi-Präsentation" mit den 3 Monitoren mit keiner/kaum Bewegung drinnen schon an die Larrabee-Demo mit kaum Bewegung erinnerte)
Sorkalm
2010-01-08, 14:42:58
Ich kann die absolut nicht einordnen. Hat jemand ein paar Absatzzahlen (4870 pro Monat, Jahrevolumen nV, Absatz G80 im ersten Jahr - egal, einfach irgendwas) für mich, an denen ich mich orientieren könnte?
Das einzige was ich weiß: G80 nach ~ 5 Monaten 500.000 Stück, kam glaub ich per Nvidia Pressemitteilung. Davon aber natürlich nur rund 2 Monate mit einer 8800 GTS 320 im niedrigeren Preissegment.
Das würde bedeuten das man bei doppelt so viel Transistoren und neuer Architektur weitaus weniger ereicht hat als AMD mit doppelt so vielen Transistoren und alter Architektur.
Naja, wer glaubt.
Das würde bedeuten das man bei doppelt so viel Transistoren und neuer Architektur weitaus weniger ereicht hat als AMD mit doppelt so vielen Transistoren und alter Architektur.
Naja, wer glaubt.
kannst du dich noch an den r600 erinnern?
san.salvador
2010-01-08, 14:48:40
Danke für die Zahlen.
Da versteh ich jetzt nicht mehr, wie manch einer die bisherigen ATI-Verkäufe als lächerlich hinstellen kann.
Gestrandet
2010-01-08, 14:56:46
Das ist doch ganz einfach: überall wo ATI draufsteht = lächerlich; überall wo nvidia draufsteht = großartig (gibt's natürlich auch anders rum und ist auch nicht besser).
2 Millionen dürften damit relativ gut sein für die neuen Radeons, vielleicht wären 1-2 Millionen mehr drin gewesen bei guter Verfügbarkeit?!
Die entscheidende Frage ist doch: Wer sagt, dass diese Zahlen richtig sind?
Erst schaffen sie es innerhalb von 3 Monaten gerade mal 800.000 Karten zu verkaufen, dann heißt es selbst im Dezember noch, dass TSMC Probleme hat und 3 Wochen später sollen es plötzlich doppelt soviele sein? Riecht ziemlich nach Fake ;)
Sorry, aber NV 3D ist der totale Rotz. Kopfschmerzen und schlechte BQ sind garantiert. Dazu eine schwere Shutterbrille mit extra Stromquelle. Dann benötigt man einen Monitor mit 120Hz.
"garantiert"? Das kommt davon, wenn man über etwas redet, was man noch nie benutzt hat... Peinlich!
Da versteh ich jetzt nicht mehr, wie manch einer die bisherigen ATI-Verkäufe als lächerlich hinstellen kann.
Macht niemand, aber angesichts der 500.000 G80 ist es einfach lächerlich die 300.000 RV870 als nie dagewesene Leistung darzustellen.
Danke für die Zahlen.
Da versteh ich jetzt nicht mehr.
Fanboys verstehen ???.
Hätte AMD statt 2.000.000 nur 500.000 verkauft wärs von den AMD Fanboys hier trozdem auch als riesen Erfolg gefeiert worden, hätten sie statt 2.000.000 ganze 5.000.000 verkauft wärs von den NV Fanboys trozdem als lächerlich wenig hingestellt worden :).
Nazar
2010-01-08, 15:00:01
Wenn Tarkin folgendes sagt:
Naja, die Verzögerungen lassen zumindest den Schluß zu, dass nvidia diesmal (Yield-)Schwierigkeiten mit einem 500mm^2+ Chip hat (anders als bei der 65 bzw 55nm Fertigung).
Es macht einen gewaltigen Unterschied wenn nvidia nur sagen wir statt 1/2 an Chips pro Wafer plötzlich nur noch 1/4 herausbekommt... da explodieren ihnen die Kosten im Gesicht.
Antwortest Du mit:
Ah so ist das. Und ATI bejubelt 2 Mio Chips in 4 Monaten und hat keine Kopfschmerzen wegen den Yields. Will sagen, ATI krebst seit über 3 Monaten mit miesen Yields bei RV870 umher und da solls ganz anders aussehen mit Yields und Kosten?!
Noch kindischer ging es nicht mehr?
Immer schön mit dem Finger auf andere zeigen, wenn jemand auf einen Fehler aufmerksam macht, das kommt umheimlich gut :rolleyes:
Was schon erstaunlich ist, dass nV seit Jahren mal davon absehen soll ATI NICHT aufs Brot zu schmieren, dass der aktuelle Chip von nV die Leistungskrone inne haben wird und dies mit fetten Zahlen untermauert.
Warum sollte nV gerade jetzt, wo veröffentlichte Zahlen (FPS Werte) unentschlossene vom Kauf einer ATI abhalten könnten, nicht mit diesen Werten nur so um sich schmeißen?
Aus Sicht des Marketings wäre es fatal, jetzt, wo ATI schon so einen Vorsprung hat, auf die Möglichkeit zu verzichten, Käufer noch umzustimmen oder weiter auf den Release des G300 warten lassen.
Welche logischen Gründe soll es denn geben, mit den Benchmarkwerten hinter dem Berg zu halten, ausser dass sie so schlecht sind, dass man sich nicht traut diese zu veröffentlichen?
Selbst wenn man ATI nicht vorzeitig Informationen geben möchte, sollte klar sein, das die 6 Monate mehr an Optimierungszeit für ATI reichen, um ggf. schnell einen Refresh "auszuspucken".
Diese Geheimiskrämerei ist untypisch für nV und passt so gar nicht zum Marketing der vorherigen Neuerscheinungen.
aylano
2010-01-08, 15:00:31
Das einzige was ich weiß: G80 nach ~ 5 Monaten 500.000 Stück, kam glaub ich per Nvidia Pressemitteilung. Davon aber natürlich nur rund 2 Monate mit einer 8800 GTS 320 im niedrigeren Preissegment.
Wobei das ganz große Geld nach R600 und somit mit Low-End & Mainstream gemacht wurde.
3Q 2006 ... 503 Mio. $ im GPU-Bereich (=ohne Profi-Markt)
4Q 2007 ... ??? Mio $
1Q 2007 ... 483 Mio. $
2Q 2007 ... 580 Mio. $
3Q 2007 ... 690 Mio. $
4Q 2007 ... 766 Mio. $ .. Dann gibts wegen RV7x0-Serie bergab
Was ist eigentlich der aktuelle Stand zum Fermi Perfomance/Mainstream Chip von nvidia - gibts da irgendwelche Informationen ?
Meine nächste Graka sollte eigtl die schnellste DX11 Karte mit TDP < 150 Watt werden und die HD 5770 haut mich nicht gerade vom Hocker leider...
Die Zukunft gehört der Polarisationstechnik, da sie Hz unabhängig ist und man keine Shutterbrille braucht, sondern eine saubillige polarisierte Brille und einen Monitor mit Polarisatsonsaufsatz.
Polarisationstechnik wird mit LCDs nicht so einfach funktionieren, LCDs strahlen ja bereits polarisiertes Licht ab.
Um eine Kanaltrennung zu erreichen gibt es nur 2 Möglichkeiten:
Entweder jede Pixelzeile wird unterschiedlich polarisiert. Damit verlierst du aber in 3D die halbe Auflösung und bekommst Zeilenflimmern.
Die zweite Möglichkeit wäre ein Monitor bei dem sich die Polarisation ändern lässt. Damit brauchst du aber wieder hohe Frequenzen um ein Flimmerfreies Bild zu erhalten. Im Endeffekt hast du genau das gleiche wie mit der Shutterbrille, nur dass der "Shutter" im Monitor und nicht in der Brille sitzt. Zusätzlich hast du noch den Nachteil, dass das ganze nicht mehr Funktioniert wenn du den Kopf schräg haltest.
Und wenn ich mir die Preise für Polfilter ansehe dürften die entsprechenden Brillen auch nicht gerade günstig sein.
Was ist eigentlich der aktuelle Stand zum Fermi Perfomance/Mainstream Chip von nvidia - gibts da irgendwelche Informationen ?
Meine nächste Graka sollte eigtl die schnellste DX11 Karte mit TDP < 150 Watt werden und die HD 5770 haut mich nicht gerade vom Hocker leider...
Dann nimm halt die 5850. Was zählt ist doch der reale verbrauch und da liegt sie mit 149 Furmark und 100-110 bei Games recht gut.
Egal wieviele Karten ATI jetzt genau verkauft hat - Entwickler die bereits an DX11-Titeln arbeiten haben derzeit "nur" ATI-Hardware zur Verfügung. Das könnte sich in Zukunft durchaus bemerkbar machen (Kompatibilität, Optimierungen).
@Fermi: Selbst wenn der erste Anlauf durchwachsen werden sollte (Leistung, Preis, Verfügbarkeit) hat die Architektur sicherlich Zukunft (Stichwort: "Reifung" à la R600). 2011 könnte somit ein spannendes Jahr werden, wenn dann auch die HD6K-Serie das Licht der Welt erblickt.
Botcruscher
2010-01-08, 15:10:57
Die Preise der Polarisationsaufsätze sind so hoch weil der Profimarkt klein ist. Wer mal damit arbeiten durfte will aber sicher nicht zu den jetzigen Billigsystemen zurück. Alleine die Farbverfälschungen machen schon alle kaputt. Bei den Profisystemen sind diese nicht vorhanden.
PS: Und was die Verkäufe angeht. Am 14.1 gibt es neue Lowend/Mobil Chips. Die bügeln dann die kleinen GT2X0 Varianten. Das schlägt NV wesentlich mehr ins Kontor.
aylano
2010-01-08, 15:13:22
Die entscheidende Frage ist doch: Wer sagt, dass diese Zahlen richtig sind?
Diese Zahl kam AFAIK von deiner Finanz-Pressemittelung.
Und wenn diese Zahl Falsch ist, wird man da AFAIK Gerichtlich verfolgt.
Manager dürfen da nicht über die Finanzen bzw. Auslieferungen/Bestellungen ihrer Firma lügen, daher sagt man meistens nichts, wenn man es nicht muss.
Erst schaffen sie es innerhalb von 3 Monaten gerade mal 800.000 Karten zu verkaufen, dann heißt es selbst im Dezember noch, dass TSMC Probleme hat und 3 Wochen später sollen es plötzlich doppelt soviele sein? Riecht ziemlich nach Fake ;)
Nvidia hat im 3Q 2009 schon 20% ihres GPU-Umsatzes mit 40nm-GPUs gemacht.
Und es werden schon mehrere Mio. GPUs pro Quartal verkauft.
Jetzt verkauft AMD RV810 & RV830 (& RV840 RV870), die schon im Dezember ausgeliefert werden mussten, wodurch dieser Sprung durchaus realistisch ist.
tombman
2010-01-08, 15:14:00
http://www.pcworld.fr/2010/01/08/materiel/carte-graphique/ces-2010-nvidia-fermi-dissipation-thermique-tres-importante/468101/
Angeblich nahe 300 Watt Leistungsaufnahme und Performance eher auf 5870-Niveau als auf 5970-Niveau, wenn ich das richtig deute, was der Online-Übersetzer ausspuckt.
Oh Mann: ich kann frz., und dort steht, daß die STÄRKSTE Fermi-Karte so schnell wie HD5870 ist, und, falls man schneller sein will, die 300W Grenze sprengen müßte :eek:
Was für ein Epic Fail :(
Hoffen wir mal, daß das nicht stimmt...
Gestrandet
2010-01-08, 15:14:12
Macht niemand, aber angesichts der 500.000 G80 ist es einfach lächerlich die 300.000 RV870 als nie dagewesene Leistung darzustellen.
Du schaust dir vlt nochmal die Zeiträume an ...
2B-Maverick
2010-01-08, 15:15:36
Die Preise der Polarisationsaufsätze sind so hoch weil der Profimarkt klein ist. Wer mal damit arbeiten durfte will aber sicher nicht zu den jetzigen Billigsystemen zurück. Alleine die Farbverfälschungen machen schon alle kaputt. Bei den Profisystemen sind diese nicht vorhanden.
Da Du ja schon damit gearbeitet hast: wie ist das denn nun mit dem "Kopf schräghalten". Das sollte doch bei Polarisation Probleme geben, oder?
Botcruscher
2010-01-08, 15:20:13
Da Du ja schon damit gearbeitet hast: wie ist das denn nun mit dem "Kopf schräghalten". Das sollte doch bei Polarisation Probleme geben, oder?
Die normalen Kopfbewegungen fallen überhaupt nicht ins Gewicht. Innerhalb der Übungen ist mir nichts negatives aufgefallen. Edit: es wird dann halt bis zu einem gewissen Punkt etwas dunkler und dann ist irgendwann Schluss.
Dann nimm halt die 5850. Was zählt ist doch der reale verbrauch und da liegt sie mit 149 Furmark und 100-110 bei Games recht gut.
Danke für den Tipp, wusste nich, dass die 5850 so sparsam ist ;)
Aber zum "Mainstream"-Fermi gibts keine weiteren Informationen ? Kommt der überhaupt als GT 100 Variante ?
Lenon
2010-01-08, 15:23:04
Oh Mann: ich kann frz., und dort steht, daß die STÄRKSTE Fermi-Karte so schnell wie HD5870 ist, und, falls man schneller sein will, die 300W Grenze sprengen müßte :eek:
Was für ein Epic Fail :(
Hoffen wir mal, daß das nicht stimmt...
Ist denn diese Seite bekannt ? Welchen Ruf "geniesst" die denn ???
Diese Zahl kam AFAIK von deiner Finanz-Pressemittelung.
Und wenn diese Zahl Falsch ist, wird man da AFAIK Gerichtlich verfolgt.
Manager dürfen da nicht über die Finanzen bzw. Auslieferungen/Bestellungen ihrer Firma lügen, daher sagt man meistens nichts, wenn man es nicht muss.
Wo sollte das eine Finanz-Pressemitteilung sein? Die erste News (mit den 800.000) findet sich überhaupt nicht im Pressearchiv, nur die mit den 2 Millionen. Und die ist eine ganz normale Pressemeldung, das hat keinerlei rechtliche Bewandnis. Da können sie auch reinschreiben, dass sie jetzt Toilettensitze fertigen.
Nvidia hat im 3Q 2009 schon 20% ihres GPU-Umsatzes mit 40nm-GPUs gemacht.
Und es werden schon mehrere Mio. GPUs pro Quartal verkauft.
Die deutlich kleiner und leichter zu fertigen sind als die ATI-Karten, um die es geht - und daher im Endeffekt nichts damit zu tun.
Jetzt verkauft AMD RV810 & RV830 (& RV840 RV870), die schon im Dezember ausgeliefert werden mussten, wodurch dieser Sprung durchaus realistisch ist.
Eigentlich noch unrealistischer, wo es ja im Dezember noch hieß es gibt Probleme. Und dann auf einmal 4x soviele Karten verkauft wie vorher? Klingt nach nem Märchen...
Oh Mann: ich kann frz., und dort steht, daß die STÄRKSTE Fermi-Karte so schnell wie HD5870 ist, und, falls man schneller sein will, die 300W Grenze sprengen müßte :eek:
Nein, das steht da nicht.
Ailuros
2010-01-08, 15:44:05
Ich lass mich nicht einreden dass ATI's bisherigen Verkaeufe in irgend einer Art unwichtig sind und bei der franzoesischen Seite handelt es sich wohl um einen harmlosen Tippfehler.
Sorkalm
2010-01-08, 15:45:16
Ich lass mich nicht einreden dass ATI's bisherigen Verkaeufe in irgend einer Art unwichtig sind und bei der franzoesischen Seite handelt es sich wohl um einen harmlosen Tippfehler.
Auf 5970?
Oh Mann: ich kann frz., und dort steht, daß die STÄRKSTE Fermi-Karte so schnell wie HD5870 ist, und, falls man schneller sein will, die 300W Grenze sprengen müßte :eek:
Was für ein Epic Fail :(
Hoffen wir mal, daß das nicht stimmt...
weisst du wie genüsslich ich deinen Post 3x gelesen hab und zu gern dein Gesicht sehen würde :ugly:
aylano
2010-01-08, 15:48:31
Dann zeig mir basierend auf oeffentlichen Daten wo und warum sie rote Zahlen hatten. Eben ohne die kritischen Daten die sie nie im Leben bereitstellen werden kann man nichts dergleichen ausrechnen. Anders verdreht muesste sich jemand hinsetzen und sich mit unendlichen Zahlen zu verwuschteln um am Ende immer noch nicht zu wissen woher zum Henker jeglicher Gewinn herkommt fuer's ganze 2009 und das bei ziemlich hohen R&D Kosten.
Zwar bin ich nicht gemeint.
Aber die Zahlen in Geschäftsbericht sprechen deutlich, dass Nvidia mit GT200-Geforce kaum Gewinn macht, falls sie überhaupt was als Geforce damit verdienten.
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-reportsOther
Auf Seite 20-25 kann man dann nachlesen, wie viel Umsatz & op. Gewinn Nvidia beim GPU & Profi-GPU & MCP (Chipsätze) & CBP (=Tegra) & Sonstiges macht.
Schon alleine, wenn man GPU-Absatz + Profi-Markt-Absatz betrachtet, machte Nvidia im 3Q 2008 mit GT200 weniger Umsatz als im 2Q 2008.
Der Gewinn ist könnte wegen GT200 leicht gestiegen sein, oder eben nicht.
Wegen der Abschreibung von fast 200 Mio. $ wurde ca. die Hälfte im MCP- und die andere im GPU-Markt abgeschrieben, wodurch man die leichte Gewinnsteigerung nicht ganz genau sagen kann.
Also, der GPU+Profi-Markt hat im 3Q 2008 10-20 Mio. $ mehr Gewinn gehabt, als im 2Q, der meiste das schwächere Quartal ist.
Und wenn man nur den GPU-Markt betrachtet, sieht es weniger gut aus, wo es dann im 4Q 2008 & 1Q 2009 Verluste gab.
Im 2Q 2009 auch, aber ich weiß jetzt nicht, ob da die Abschreibung größer als der Verlust war.
Im Vergleich dazu explotierte AMD-GPUs-Umsatz & Gewinn um 60% von 212 auf 360 Mio. Euro. Der GPU-Gewinn stieg von ca. 0 auf 50 Mio. $.
Also, ein ganz anderes Bild als zu Nvidia.
------
Ein Weiteres Zeichen dafür, dass der GT200 als Geforce nach der Preissenkung mit kaum/nicht Gewinn verkauft wurde, war in Geizhals wo es wegen P/L & Co kaum interesse für die GT200-Karten gab
Also, die 10 bzw. 9 meistgesuchten GPUs waren ATI-Karten.
Mit GT200b änderte das sich dramatisch.
weisst du wie genüsslich ich deinen Post 3x gelesen hab und zu gern dein Gesicht sehen würde :ugly:
Tombman hätte kein Problem damit 2 5970 zu holen, allerdings halten ihn wohl die 1GiB VRAM und die Tatsache das AMD immer noch kein 16xAF bietet davon ab.
Suchanfragen bei Geizhals sind aber bestenfalls ein Indiz. Deutlich sinnvoller (aber auch mit Vorsicht zu genießen) sind die Topseller (d.h. tatsächliche Verkäufe) bei Newegg.com, einem der größten Shops in den USA.
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=2010380048%204802&name=Top%20Sellers
Hier dominiert zwar derzeit auch ATI die Charts, dafür mischen sich mehr Nvidia-Karten dazu, was mir realistisch erscheint.
Tombman hätte kein Problem damit 2 5970 zu holen, allerdings halten ihn wohl die 1GiB VRAM und die Tatsache das AMD immer noch kein 16xAF bietet davon ab.
bist du sein Sekretär?
Tombman hätte kein Problem damit 2 5970 zu holen, allerdings halten ihn wohl die 1GiB VRAM und die Tatsache das AMD immer noch kein 16xAF bietet davon ab.
1. 1GB ATI VRAm sind nicht gleich 1GB VRAm von Nvidia
2. ATi hat kein 16xAF? aber sonst gehts dir gut oder?
Dural
2010-01-08, 16:02:31
hei könnt ihr mal aufhören über irgend welche kosten oder verkaufszahlen zu diskutieren, es nerft gewaltig!!!
und es fürht eh zu rein gar nichts, da hier keiner irgend einen einblick auf genaue zahlen hat... also lasst es doch sein!
und intressieren tuts eh keiner, mir ist es sowas von komplett egal was eine grafikkarte in der herstellung kostet und wie offt die verkauft wurde...
das einzige was zählt ist eine gute GPU, der rest ist (für mich) doch komplett egal!
und 5970 sind sowieso für noobis, ist doch Pseudo Crossfire für Kiddis und für die benchmark Liste sonst nix.
Wenn Crossfire dann richtig, also 4x5870/50er die 5970 kannst klemmen.
bist du sein Sekretär?
tombamans Anliegen sind klar.
Unklar ist, warum du ihn so anfahren musst.
Doch nur weil du meinst er wäre nicht IHV neutral, doch in Wirklichkeit bist du derjenige mit der roten Brille.
1. 1GB ATI VRAm sind nicht gleich 1GB VRAm von Nvidia
2. ATi hat kein 16xAF? aber sonst gehts dir gut oder?
1. 1GiB sind 1GiB. Aber du hast Recht, die Karten verhalten sich unterschiedlich. Was du nicht bedacht hast, das 1GiB in einer Quad RV870 Konfiguration zu wenig sind. Für 1200€ kann man mehr erwarten, z.b. so viel wie man seit Monaten für einen Bruchteil bekommt.
2. Nö, AMD hat nur einen Modus der 16xAF genannt wird. Echtes 16xAF ist das jedenfalls nicht, scheint irgendein optimierter Kram zu sein.
aylano
2010-01-08, 16:09:19
Die deutlich kleiner und leichter zu fertigen sind als die ATI-Karten, um die es geht - und daher im Endeffekt nichts damit zu tun.
Dann sind RV810 & RV830 noch einfacher zu fertigen.
Eigentlich noch unrealistischer, wo es ja im Dezember noch hieß es gibt Probleme. Und dann auf einmal 4x soviele Karten verkauft wie vorher? Klingt nach nem Märchen...
RV810 & RV830 hat wegen Notebooks einen doppelt so großen Markt wie RV870, der eben nur auf desktops verkauft wird.
Zwar hat RV840 auch den Notebook-Markt, aber der wird dort nie in diesen Massen verkauft wie im Desktop-Markt.
Und 1 Mio. Stück in Monat ist auch nicht so viel.
AMD verkauft ca. 30 Mio. GPUs pro Quartal was 10 Mio. Stück im Monat ausmacht.
Zwar ist vieles onboard-GPU, aber einige Mio. werden sicher dezentierte GPUs pro Monat sein.
Dural
2010-01-08, 16:11:48
auch ja, was ich noch mal erwähnen wollte, alle gehen zuerst von einer GTX380 aus... aber ich denke wir werden zuerst eine GTX360 im laden vorfinden...
nach denn gerüchten wäre das für mich ein sehr logischer schritt seitens NV
auch ja, was ich noch mal erwähnen wollte, alle gehen zuerst von einer GTX380 aus... aber ich denke wir werden zuerst eine GTX360 im laden vorfinden...
nach denn gerüchten wäre das für mich ein sehr logischer schritt seitens NV
Meinst du wirklich die erste gelaunchte Fermi Karte wird eine GTX360 seien, die voraussichtlich langsamer als eine HD 5870/5890 seien wird ? Oder gehst du nur von einer anderen Namenskonvention aus ?
Dural
2010-01-08, 16:18:12
die GTX360 wird +/- sicher auf der höher der 5870 liegen, muss sie ja auch...
auch ja, was ich noch mal erwähnen wollte, alle gehen zuerst von einer GTX380 aus... aber ich denke wir werden zuerst eine GTX360 im laden vorfinden...
nach denn gerüchten wäre das für mich ein sehr logischer schritt seitens NV
Im Laden magst du Recht haben, aber was spricht gegen einen Paperlaunch der GTX 380?
aylano
2010-01-08, 16:25:23
Suchanfragen bei Geizhals sind aber bestenfalls ein Indiz. Deutlich sinnvoller (aber auch mit Vorsicht zu genießen) sind die Topseller (d.h. tatsächliche Verkäufe) bei Newegg.com, einem der größten Shops in den USA.
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=2010380048%204802&name=Top%20Sellers
Hier dominiert zwar derzeit auch ATI die Charts, dafür mischen sich mehr Nvidia-Karten dazu, was mir realistisch erscheint.
Richtig, man muss immer Vorsichtig sein.
Denn in Geizhals schaut man jetzt nicht nur eine RV870 an, sondern mehrere um zu schauen, ob andere überhaupt lieferbar sind.
Bei deinem Link, weiß ich jetzt nicht, ob sie nicht schon deutlich mehr verkaufen könnte.
Aber in Herbst 2008 gab es bei Geizhals keine Lieferengpasse, wo das Interesse (=nicht Verkäufe) enorm war.
Vielleicht liegt die Wahrheit irgendwo dazwischen, aber in Geizhals & und andere wenn man sie einzehln betrachtet, kann man zumindestens den Wandel an Interesse zwischen ATI & Nvidia Garten sehen, wenn eine neue Generation rauskommt.
Jake Dunn
2010-01-08, 16:26:36
NVIDIA GF100 Fermi Video Card Triple SLI Rocket Sled Demo Video:
http://www.legitreviews.com/news/7137/
Augsburger Puppenkiste für arme :lol:
reunion
2010-01-08, 16:31:08
Auf 5970?
Never. Lies dir den Kontext durch. Entweder die Infos sind ganz einfach falsch oder nicht. Einen Tippfehler kann man definitiv ausschließen.
wa doch zu erwarten das Fermi nich soviel reissen wird.
StefanV
2010-01-08, 16:45:27
wa doch zu erwarten das Fermi nich soviel reissen wird.
Anhand nVidias Verhaltens kann man das durchaus so sehen, ja.
Aber mal abwarten, wie es wirklich sein wird, ob man so schlecht dastehen wird, wie die Franzosen behaupten oder ob man etwas besser sein wird...
Und vorallen: wie wird AMD kontern?!
Was haben die noch in irgendwelchen geheimen Hinterzimmern??
Die Gerüchte, dass der RV890 kein höher getakteter RV870 ist, haben sich ja (mehr oder minder) bestätigt...
derguru
2010-01-08, 16:47:40
theoretisch muss amd nicht mal kontern wenn das stimmen würde was die franz. behaupten.
Viel Spiel hat AMD bei der 5970 nicht, um zu "kontern".
Minimaler Mehrtakt und 2GiB VRAM sind das Höchste der Gefühle.
Viel Spiel hat AMD bei der 5970 nicht, um zu "kontern".
Minimaler Mehrtakt und 2GiB VRAM sind das Höchste der Gefühle.
Der imaginäre RV890 wird garantiert ein Singlechip.
Die brauchen bloss ne 5875 (oder sowas ) raus hauen mit 1000 Mhz GPU Takt (was kein problem darstellt) und der Karte 2Gb VRAM verpasst.
Der imaginäre RV890 wird garantiert ein Singlechip.
Damit hat AMD keinerlei Chance die 5970 zu schlagen.
Damit hat AMD keinerlei Chance die 5970 zu schlagen.
sollen die garnicht, 5970=Dual GPU will doch keiner (oder wenige).
Damit hat AMD keinerlei Chance die 5970 zu schlagen.
Wozu sollten sie das müssen?
Abseits der FPS Balken wird Karte in jeder Hinsicht besser sein.
Das war doch beim rv790 und rv770x2 auch nicht anderst.
Da oben stand antworten.
Als Antwort verstehe ich nunmal ein noch bessere Produkt.
5890 wäre das nicht, 5890 macht nur die 5970 Verkäufe kaputt.
StefanV
2010-01-08, 17:07:05
Damit hat AMD keinerlei Chance die 5970 zu schlagen.
Warum sollten die keine Chance haben, den zu schlagen?!
Warum sollten die keine Chance haben, den zu schlagen?!
Ja ne ist klar, AMD skaliert RV870 in derart in die Größe und prügelt den Takt so hoch das 2 RV870 geschlagen werden.
Und das ganze noch unter 300W.
:lol:
san.salvador
2010-01-08, 17:09:19
Wieso schnapsts ihr euch das nicht in einem passenden Thread aus - hier hats nicht viel verloren.
Dural
2010-01-08, 17:12:56
ja klar einen breiteren RV870... derzeit ist ja nicht mal der RV870 vernünftig herstellbar und Fermi wohl gar nicht richtig...
und eine besserung ist ja auch nicht wirklich in sicht, siehe TESLA im Sommer mit 448SP...
reunion
2010-01-08, 17:17:37
ja klar einen breiteren RV870... derzeit ist ja nicht mal der RV870 vernünftig herstellbar und Fermi wohl gar nicht richtig...
Es redet auch niemand von derzeit. Solange Fermi "nicht herstellbar" ist braucht sich AMD ohnehin keine Sorgen machen und wenn Fermi machbar ist dann ist es ein breiterer RV870 allemal.
Dural
2010-01-08, 17:25:26
ja, aber beim punkt wo es mit der skalierung beim RV870 mit noch mehr einheiten anfängt wird man einsehen müssen das ein takt optimierter RV870 die deutlich billigere und bessere alternative ist...
theoretisch muss amd nicht mal kontern wenn das stimmen würde was die franz. behaupten.
Nur welche Belege haben die? Wohl kaum mehr als alle anderen Seiten, wo das deutlich anders klingt (bis auf die üblichen Ausnahmen, die wohl sogar eine 8800GTX als Schrottkarte bezeichnen würden :P)
Und abgesehen davon, wer weiß was für Karten da verwendet werden bie der CES? Wohl noch A2 und vllt auch mehr Spannung um mehr Chips zum laufen zu bekommen und wen interessierts ob die bei irgendwelchen Programmieren/Ingenieuren ein wenig lauter/wärmer sind?
ja klar einen breiteren RV870... derzeit ist ja nicht mal der RV870 vernünftig herstellbar und Fermi wohl gar nicht richtig...
und eine besserung ist ja auch nicht wirklich in sicht, siehe TESLA im Sommer mit 448SP...
ähm *hüstl* "nicht vernünftig herstellbar".... diese message wird rein zufällig gerade von einer 5870er aus geschrieben... und ich komme grad von einem bekannten der rein zufällig auch eine 5870er hat... seit wochen.
was hast du für ein problem? kannst du das seelisch nicht verkraften?
von "nicht herstellbar" kann (zu keinem zeitpunkt) die rede gewesen sein. http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&xf=132_512~142_11&sort=p auch wenn vor wochen die verfügbarkeit schlecht war... hergestellt wurden die dinger, und ausgeliefert auch, sonst hätten die leute nämlich noch keine. geht das in dein hirn?
Tesseract
2010-01-08, 17:40:46
ähm *hüstl* "nicht vernünftig herstellbar".... diese message wird rein zufällig gerade von einer 5870er aus geschrieben... und ich komme grad von einem bekannten der rein zufällig auch eine 5870er hat... seit wochen.
bevor du sinnlos drauf los trollst schlag lieber den begriff "yield" nach.
tombman
2010-01-08, 17:42:12
Nein, das steht da nicht.
Il se susurre d’ailleurs que la plus puissante des Fermi égalerait une Radeon HD 5870 mais pas la 5970. Pour aller au-delà de la 5870, il faudrait augmenter les fréquences et… dépasser alors la limite des 300 watts.
Er murmelte übrigens, daß die Mächtigste der Fermis eine HD5870 egalisieren würde, nicht jedoch eine 5970. Um über die 5870 zu gehen, wäre es notwendig die Frequenzen zu erhöhen...und damit das Limit von 300 Watt zu überschreiten.
Falsch übersetzt?
weisst du wie genüsslich ich deinen Post 3x gelesen hab und zu gern dein Gesicht sehen würde :ugly:
Das steht deine Antwort ;) -v
tombamans Anliegen sind klar.
Unklar ist, warum du ihn so anfahren musst.
Doch nur weil du meinst er wäre nicht IHV neutral, doch in Wirklichkeit bist du derjenige mit der roten Brille.
:up: ;)
Dural
2010-01-08, 17:46:05
ähm *hüstl* "nicht vernünftig herstellbar".... diese message wird rein zufällig gerade von einer 5870er aus geschrieben... und ich komme grad von einem bekannten der rein zufällig auch eine 5870er hat... seit wochen.
was hast du für ein problem? kannst du das seelisch nicht verkraften?
von "nicht herstellbar" kann (zu keinem zeitpunkt) die rede gewesen sein. http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&xf=132_512~142_11&sort=p auch wenn vor wochen die verfügbarkeit schlecht war... hergestellt wurden die dinger, und ausgeliefert auch, sonst hätten die leute nämlich noch keine. geht das in dein hirn?
toll ich habe seit september eine 5870, was willst du mir damit sagen? das du nicht verstehst auf was ich hinaus will?
Er murmelte übrigens, daß die Mächtigste der Fermis eine HD5870 egalisieren würde, nicht jedoch eine 5970. Um über die 5870 zu gehen, wäre es notwendig die Frequenzen zu erhöhen...und damit das Limit von 300 Watt zu überschreiten.
Falsch übersetzt?
Was denn jetzt? Egalisiert die Fermi die 5870 oder nicht? Genau deswegen passt der Zusammenhang nicht. Ich denke der zweite Satz ist ein Tippfehler und es ist die 5970 gemeint.
Abgesehen davon steht vorher, dass die Gehäuse bei Nvidia selbst zertifiziert wurden und das impliziert somit, dass diese Leute niemals eine Fermi gehabt habne - woher sollen sie es also wissen? ;)
reunion
2010-01-08, 18:01:31
Du weißt was egalisieren bedeutet?
maximus_hertus
2010-01-08, 18:09:23
Nochmal zum mitschreiben ^^
5870 = 100%
der größte Fermi schafft ebenfalls 100%. Um ÜBER 100% zu kommen (ergo schneller als 5870), müsste man den Takt erhöhen, was die Leistungsaufnahme auf über 300W wachsen lassen würde.
Das wird mMn so jedoch nicht passieren. Dafür ist die 5870 nicht so weit von einer GTX285 weg und auch wenn Fermi eine kopmplett neue Architektur ist, sollten sie die 5870 dann doch schlagen (auch wenn es "nur" 10 - 20% sind). Ob die 20% dann einen deutlich höheren Strombedarf und / oder Preis rechtfertigen, wird man dann sehen müssen.
Im Prinzip sieht es doch so aus, dass wir eigentlich fast nix wissen.
Du weißt was egalisieren bedeutet?
aufheben = schlagen
reunion
2010-01-08, 18:12:08
aufheben = schlagen
Kommt vom französischen égalité = "Gleichheit". Gerade da es eine französische Quelle ist.
Gestrandet
2010-01-08, 18:14:49
Wie geil ... das fiel mir neulich auf cb auch schon auf, dass die Leutz einfach nit wissen was egalisieren bedeutet. Die verwenden das wie eine Steigerung zu "völlig vernichten" :D
Ich erklär mir das so: Wahrscheinlich interpretieren die egelisieren als "egal machen" im Sinne von "überflüssig machen".
Suchanfragen bei Geizhals sind aber bestenfalls ein Indiz. Deutlich sinnvoller (aber auch mit Vorsicht zu genießen) sind die Topseller (d.h. tatsächliche Verkäufe) bei Newegg.com, einem der größten Shops in den USA.
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=2010380048%204802&name=Top%20Sellers
Hier dominiert zwar derzeit auch ATI die Charts, dafür mischen sich mehr Nvidia-Karten dazu, was mir realistisch erscheint.
die topseller bei amazon sind auch total ati dominiert: http://www.amazon.de/Grafikkarten-Computer-Zubeh%C3%B6r-Express/b/ref=amb_link_20391165_17?ie=UTF8&node=712988&pf_rd_m=A3JWKAKR8XB7XF&pf_rd_s=browse&pf_rd_r=1BM41XG55ZYHZ1QQJHNQ&pf_rd_t=101&pf_rd_p=472313433&pf_rd_i=700962
Kommt vom französischen égalité = "Gleichheit". Gerade da es eine französische Quelle ist.
Egalite kann auch in den von mir genannten Zusammenhang auftreten.
Zu behaupten, dass die stärkste Fermikarte irgendwo bei ~300W rumkriecht und
dann gerade so eine HD5870 schlägt, kann man wohl nur als absoluter ATI-Fanboy oder als 5870-Käufer ;)
Daher kann man sich die bedeutung auch da herleiten.
san.salvador
2010-01-08, 18:16:36
Wenn wir uns jetzt über sprachliche Fehlleistungen dieses Kalibers hermachen, haben wir allein in diesem Thread Arbeit für die nächsten zwei Jahre. :usad:
die topseller bei amazon sind auch total ati dominiert: http://www.amazon.de/Grafikkarten-Computer-Zubeh%C3%B6r-Express/b/ref=amb_link_20391165_17?ie=UTF8&node=712988&pf_rd_m=A3JWKAKR8XB7XF&pf_rd_s=browse&pf_rd_r=1BM41XG55ZYHZ1QQJHNQ&pf_rd_t=101&pf_rd_p=472313433&pf_rd_i=700962
Wow, 3xHD4x-Reihe, dann ne 9400, ne 6600GT und der 3D Vision Kit - der muss ja ein wahrer Verkaufsknüller sein :D
tombman
2010-01-08, 18:16:52
Kommt vom französischen égalité = "Gleichheit". Gerade da es eine französische Quelle ist.
Genau, denn
"égaler" = jemandem oder eine Sache GLEICHkommen
Andernfalls würde es "surpasser" (übertreffen) heißen, oder "battre" (schlagen) oder "vaincre" ((be)siegen) ;)
Gestrandet
2010-01-08, 18:19:18
Egalite kann auch in den von mir genannten Zusammenhang auftreten.
Ja - z.B. hier oder im cb Forum LOL
Zu behaupten, dass die stärkste Fermikarte irgendwo bei ~300W rumkriecht und
dann gerade so eine HD5870 schlägt, kann man wohl nur als absoluter ATI-Fanboy oder als 5870-Käufer ;)
Daher kann man sich die bedeutung auch da herleiten.
Genau, was interessiert uns die lexikalische Semantik, wir verstehen einfach alles so wie es uns grad am besten in den Kram passt, das passt dann schon :D
edit: Ich halte den frz. Artikel für Stuss, trotzdem ist er in seiner (mutmaßlich falschen) Aussage eindeutig!
tombman
2010-01-08, 18:24:27
Jo, sagt ja keiner, daß man es glauben muß. Aber die Funkstille zur CES deute zumindest ich als schlechtes Zeichen :(
Andererseits: selbst, wenn Fermi nur so schnell wie 5870 wird- kaufe ich trotzdem NV- dann werdens eben 3 Stück, statt 2 :) (dafür aber ohne Wakü, wegen vermutlich kurzer Lebenszeit...)
edit: Ich halte den frz. Artikel für Stuss, trotzdem ist er in seiner (mutmaßlich falschen) Aussage eindeutig!
in meiner interpretation ist er dafür kein stuss mehr - ich glaube halt an das gute im menschen, auch in franzosen :D
Ich hab damals auch 2x 2900XT gekauft trotz dem besseren G80, Fanboy rulez ;ugly:
Jo, sagt ja keiner, daß man es glauben muß. Aber die Funkstille zur CES deute zumindest ich als schlechtes Zeichen :(
Andererseits: selbst, wenn Fermi nur so schnell wie 5870 wird- kaufe ich trotzdem NV- dann werdens eben 3 Stück, statt 2 :) (dafür aber ohne Wakü, wegen vermutlich kurzer Lebenszeit...)
Denke ich auch :(
Würde mich nicht wundern wenn NV den Fermi für den Consumermarkt noch komplett cancelt - es sind imo zuviel Parallelen zum NV30 erkennbar.
Würde mich nicht wundern wenn NV den Fermi für den Consumermarkt noch komplett cancelt - es sind imo zuviel Parallelen zum NV30 erkennbar.
Wenn wir vom realistischen Fall ausgehen, also ein Leistungsvorsprung irgendwo im Bereich von 30-40%, ist das überhaupt nicht nötig. Der Vorsprung ist ca. auf dem Niveau von den Vorgängern mit dem großen Vorteil, dass man schon eine neue Architektur hat und diese verfeinern kann - und selbst der so gern kaputt geredete NV30 war die Basis für G60 + G70. Und selbst der RV600 ist ja inzwischen zu was ganz gutem geworden (wenn auch inzwischen am Anschlag). Von der Grundlage aus, wäre der Fermi für eine neue Architektur schon sehr gelungen.
Botcruscher
2010-01-08, 18:54:21
Da wird nichts gecancelt. Die Idee alleine ist absurd.
reunion
2010-01-08, 18:58:19
Egalite kann auch in den von mir genannten Zusammenhang auftreten.
Nein.
Zu behaupten, dass die stärkste Fermikarte irgendwo bei ~300W rumkriecht und
dann gerade so eine HD5870 schlägt, kann man wohl nur als absoluter ATI-Fanboy oder als 5870-Käufer ;)
Daher kann man sich die bedeutung auch da herleiten.
Ich habe nirgends behauptet das die Aussagen richtig ist, sie ist aber eindeutig.
Burgard
2010-01-08, 19:02:31
Eine parallele Entwicklung:
Nach den ersten Planungen von AMD sollte die Radeon-HD-2000-Serie noch vor Weihnachten 2006 veröffentlicht werden. Dieser Termin konnte allerdings nicht gehalten werden, tatsächlich wurde sie sowohl nach Windows Vista (mit welchem DirectX 10 eingeführt wurde) als auch nach Nvidias Konkurrenzserie GeForce 8 eingeführt. Nvidia schaffte es sogar, nicht nur die High-End-Modelle vor AMD zu präsentieren, sondern auch die Mainstream-Karten wurden im April 2007, und somit noch vor dem Erscheinen der HD-2000-Serie, vorgestellt und verkauft.
AnarchX
2010-01-08, 19:07:08
Dann hört es aber schon auf: GF100 hat auf dem Papier deutlich bessere Chancen als ein R600 die Leistungskrone zu holen und seine Ableger werden wohl deutlich später als die RV6xx gelauncht.
Dann hört es aber schon auf: GF100 hat auf dem Papier deutlich bessere Chancen als ein R600 die Leistungskrone zu holen und seine Ableger werden wohl deutlich später als die RV6xx gelauncht.
Was ist jetzt daran besser, dass die Mainstreamprodukte noch später als bei R600 gelauncht werden?
Dural
2010-01-08, 19:14:12
er hat nicht gesagt das dies besser ist...
Burgard
2010-01-08, 19:14:28
Dann hört es aber schon auf: GF100 hat auf dem Papier deutlich bessere Chancen als ein R600 die Leistungskrone zu holen und seine Ableger werden wohl deutlich später als die RV6xx gelauncht.
Ich war auch nur sehr verwundert, dass man einfach die Namen tauschen muss, damit man die jetige Situation hat.
Was die Geschwindigkeit angeht, bezogen auf die 5870, so haben wir ja eine Palette von -10% bis hinauf zu + 50%, wobei ich jetzt die AUsreisser nicht berücksichtigen will.
Bin mal gespannt wie es tatsächlich aussieht.
Sorkalm
2010-01-08, 19:15:30
Was ist jetzt daran besser, dass die Mainstreamprodukte noch später als bei R600 gelauncht werden?
Er hat bessere Chancen auf die Leistungskrone. Das die kleinen Vertreter nicht kurz danach kommen, ist für Nvidia natürlich schlechter, da sie noch länger in den OEM-Rechner die "tollen DX11-Angebote" nicht bedienen können.
Burgard
2010-01-08, 19:19:56
Er hat bessere Chancen auf die Leistungskrone. Das die kleinen Vertreter nicht kurz danach kommen, ist für Nvidia natürlich schlechter, da sie noch länger in den OEM-Rechner die "tollen DX11-Angebote" nicht bedienen können.
Der OEM-Markt wird auch nicht in absehbarer Zeit mit einem Little-Fermi bereichert.
Dafür gibt es ja die 210 usw.
Hauptsache 40nm und geringer STromverbrauch.
Du kannst dir sicher sein, dass NVIDIA lieber heute als morgen D3D11 in den OEM-Markt bringen würde.
Da zählen Features (und RAM) mehr als alles andere.
Sorkalm
2010-01-08, 19:25:50
Da zählen Features (und RAM) mehr als alles andere.
Jop, eben. Eine HD 5450 (oder wie sie heißen wird) mit 2 GiB RAM wird bestimmt wieder so ein Topseller wie die 8400 GS oder 8500 GT.
Denke ich auch :(
Würde mich nicht wundern wenn NV den Fermi für den Consumermarkt noch komplett cancelt - es sind imo zuviel Parallelen zum NV30 erkennbar.
nee der NV30 wurde damals mit grossen Trommelwirbel immer wieder in die Schlagzeilen gebracht wie sehr der doch regeln wird.
Das ist jetzt ein bisschen anders da man sich bedeckt hält.
Derzeit sieht die Situation leider sehr undurchschaubar aus, es kann uns alles erwarten.
Am besten wäre Dev Support und Treiberteam von NV gepart mit AMD GPUs um dann die eierlegende Wollmilchsau zu haben.
Derzeit hat man leider nur die Wahl zw. "überteuerten" aber stromsparenden performanten ATI Karten mit crap Treibern und schlechtem DEV support, oder dem Ungewissen d.h. keine Hardware und wenn dann vermutlich Stromfressend mit sehr guten Treibern und super Dev Support.
Burgard
2010-01-08, 19:26:49
Du kannst dir sicher sein, dass NVIDIA lieber heute als morgen D3D11 in den OEM-Markt bringen würde.
Da zählen Features (und RAM) mehr als alles andere.
Ups, hab das Ironiezeichen vergessen.
Das schlimme ist ja, dass der OEM-Markt für NV der wichtigste Markt ist oder ist doch der Pro-Markt mittlerweile der umsatzstärkste?
Ups, hab das Ironiezeichen vergessen.
Das schlimme ist ja, dass der OEM-Markt für NV der wichtigste Markt ist oder ist doch der Pro-Markt mittlerweile der umsatzstärkste?
Wen du mit Pro Tesla etc. meinst dann ein klares Nein.
...
Derzeit hat man leider nur die Wahl zw. "überteuerten" aber stromsparenden performanten ATI Karten mit crap Treibern und schlechtem DEV support, oder dem Ungewissen d.h. keine Hardware und wenn dann vermutlich Stromfressend mit sehr guten Treibern und super Dev Support.
sag mal hast du noch alle tassen im schrank? "ati crap treiber" und schlechter dev support... wenn ich das schon höre!!!!!!
wieviel DX11 spiele gibts nach dem win7 start + evergreen im vergleich zu vista/dx10 + geforce 8800?
und zu den schlechten treibern: WAS GENAU ist da jetzt "crapy"? oder wieso kommst du zu dem schluss??
Burgard
2010-01-08, 19:37:27
Wen du mit Pro Tesla etc. meinst dann ein klares Nein.
Ja, meinte ich.
Allerdings beim Gewinn sollte die Situation so sein, oder?
Dann könnte man auch auf den Gedanken kommen, dass erst die Teslakarten auf den Markt kommen oder aber dass die grössere Marge eben in die Teslas eingebaut wird.
und zu den schlechten treibern: WAS GENAU ist da jetzt "crapy"? oder wieso kommst du zu dem schluss??
Probleme mit alten SPielen...Artefaktbildung usw.
Das vermute ich mal.
Burgard
2010-01-08, 19:38:46
löschen bitte
Black-Scorpion
2010-01-08, 19:42:08
Immer wieder die selben Argumente.
Und weil die Nvidia Treiber so hervorragend sind, stapeln sich zu jedem neuen Treiber die Threads im Nvidia Forum.
san.salvador
2010-01-08, 19:44:43
Immer wieder die selben Argumente.
Und weil die Nvidia Treiber so hervorragend sind, stapeln sich zu jedem neuen Treiber die Threads im Nvidia Forum.
Ich hoffe du weißt selbst, dass die "Argumentation" völliger bullshit ist.
Dural
2010-01-08, 19:47:23
naja hoher strom verbrauch... breitere Chips werden immer effizienter sein siehe auch:
R580 vs G71
G80 vs R600
G92 vs RV670
GT200 vs RV770/RV790
mboeller
2010-01-08, 19:48:26
Jo, sagt ja keiner, daß man es glauben muß. Aber die Funkstille zur CES deute zumindest ich als schlechtes Zeichen :(
Andererseits: selbst, wenn Fermi nur so schnell wie 5870 wird- kaufe ich trotzdem NV- dann werdens eben 3 Stück, statt 2 :) (dafür aber ohne Wakü, wegen vermutlich kurzer Lebenszeit...)
...dafür dann mit Ohrenschützern, oder?
Wenn der Artikel stimmt, dann wird eine Fermi-Karte bestimmt nicht leise. Eine 300 Watt GPU mit Luft effizient und leise zu kühlen wird schwierig oder gar unmöglich.
reunion
2010-01-08, 19:49:56
naja hoher strom verbrauch... breitere Chips werden immer effizienter sein siehe auch:
R580 vs G71
G80 vs R600
G92 vs RV670
GT200 vs RV770/RV790
Bei gleicher Architektur sicherlich. Und R600 war breiter als G80.
Ja, meinte ich.
Allerdings beim Gewinn sollte die Situation so sein, oder?
Dann könnte man auch auf den Gedanken kommen, dass erst die Teslakarten auf den Markt kommen oder aber dass die grössere Marge eben in die Teslas eingebaut wird.
.
Die Margen sind natürlich um Welten besser als bei den Desktopversionen.
Allerdings muss man sehen wie Nvidia gedenkt in Zukunft einen Mehrwert der Profikarten im Hinblick auf HPC-Systeme darzustellen.
Bisher waren es ja die hervorragend optimierten und unterstützten Treiber, vor allem für CAD-Programme, die Nvidia eine fast Monopolstelllung eingebracht hat.
Wie das ganze dann bei HPC aussehen wird und ob der Aufpreis gegenüber der Desktopvariante noch gerechtfertigt ist, wird man erst in Zukunft beobachten können.
Black-Scorpion
2010-01-08, 19:51:47
Ich hoffe du weißt selbst, dass die "Argumentation" völliger bullshit ist.
In die eine Richtung stimmt sie und in die andere Richtung ist sie Bullshit?
Die Logik sei dir gegönnt, aber wundere dich nicht wenn du der einzige bist der sie versteht.
san.salvador
2010-01-08, 19:51:48
nein das ist sie nicht. nur leider verstehst du es nicht.
Wow, dein Beitrag hilft mir ungemein, eine Quelle der Erkenntnis. :up:
Dural
2010-01-08, 19:52:01
ah hört mir jetzt endlich mit diesem franz zeug auf, das es blödsinn ist hat man ja wohl an der lauffähigen GF100 karte auf der CES gesehen... und auf den videos ist übrigens auch keine laute karte zu hören...
es gibt jetzt zwei quellen die sagen ca. 30% schneller in dem Bench als eine 5870 und was das für fermi karten sind weis man nicht einmal, ob alle einheiten aktiv sind takt usw.
mboeller
2010-01-08, 19:56:06
falsch;
Fudzilla hat die laute Fermi Karte sogar in ihrem Bericht erwähnt. Die anderen Karten im 2. Rechner mit 3xSLi wurden ja mit Wasserkühlung "zum Schweigen gebracht".
http://www.fudzilla.com/content/view/17122/65/
falsch;
Fudzilla hat die laute Fermi Karte sogar in ihrem Bericht erwähnt. Die anderen Karten im 2. Rechner mit 3xSLi wurden ja mit Wasserkühlung "zum Schweigen gebracht".
http://www.fudzilla.com/content/view/17122/65/
... wobei die demo am schluss des videos trotzdem abstürzt > MEGALOL
Dural
2010-01-08, 19:59:56
falsch;
Fudzilla hat die laute Fermi Karte sogar in ihrem Bericht erwähnt. Die anderen Karten im 2. Rechner mit 3xSLi wurden ja mit Wasserkühlung "zum Schweigen gebracht".
http://www.fudzilla.com/content/view/17122/65/
gut möglich, aber auf dem video hört man von der karte rein gar nichts und das gehäuse ist ja sogar offen!
Ronny145
2010-01-08, 20:01:51
Das es einfach am Monitor und seinem Treiber liegen kann wird schlicht vergessen.
Es ist ausgegraut. Die 3 Optionen dafür lassen sich nicht auswählen. Unter Win XP stellte das kein Problem dar.
Bei gleicher Architektur sicherlich. Und R600 war breiter als G80.
Naja, um wieviel? 5% oder so....
ok... dieser link ist extra für dich: "Nvidia sorgt für 30 Prozent aller Vista-Abstürze": http://www.chip.de/news/Nvidia-sorgt-fuer-30-Prozent-aller-Vista-Abstuerze_31307017.html
Nur weil der Grafiktreiber crasht, muss er daran noch lange nicht schuld sein. Und ATI auf Platz 2 sagt ja schon alles ;)
Dural
2010-01-08, 20:06:09
Bei gleicher Architektur sicherlich. Und R600 war breiter als G80.
naja etwa gleich breit würd ich sagen, aber ja ist eh ein blöder vergleich da der R600 eh eine baustelle für sich war ;)
Es ist ausgegraut. Die 3 Optionen dafür lassen sich nicht auswählen. Unter Win XP stellte das kein Problem dar.
http://forums.guru3d.com/showthread.php?t=312794
catamaran
2010-01-08, 20:18:17
Es ist ausgegraut. Die 3 Optionen dafür lassen sich nicht auswählen. Unter Win XP stellte das kein Problem dar.Als ich das letzte Mal GPU-Skalierung mit meiner 800GT ausprobiert habe bekam ich nur Grütze auf dem Monitor.
Ich habe erstaunlicherweise ein verkehrtes Treiberbild bezüglich ATI un nVidia, aber ich bin aktuell trotzdem zufrieden.
OnTopic:
Ist doch egal wie Fermi performen wird. Wird die Hardware wider erwarten gut, dann ists toll und wenn nicht, dann bekommt ATI etwas Höhenluft zu schnuppern. Konkurrenz belebt das Geschäft.
Und R600 war breiter als G80.
Was ist an R600 breiter?
Mir fällt nur der 512bit Ringbus ein, der eher unnötig war.
Oder nach AMDs Zählung mehr SPs.
reunion
2010-01-08, 20:41:23
Was ist an R600 breiter?
Mir fällt nur der 512bit Ringbus ein, der eher unnötig war.
Oder nach AMDs Zählung mehr SPs.
Breiter ist hier natürlich ein Synonym für den komplexeren Chip, also die Transistorenanzahl. Einen breiteren Chip kann ich bei gleicher Leistung niedriger takten und mit weniger Spannung betreiben wie einen kleinen, hochgetakteten. Deshalb ist es bei gleicher Ausgangsbasis deutlich energieeffizienter.
Was ist an R600 breiter?
Mir fällt nur der 512bit Ringbus ein, der eher unnötig war.
Oder nach AMDs Zählung mehr SPs.
Hätte R600 so funktioniert wie geplant wär der 512bit Bus auch van nöten gewesen.
Jetzt gibt es Neue Gerüchte zum Fermi und hier steht seitenweise OT Zeug drinne - schade.
Gestrandet
2010-01-08, 21:38:43
Was sind das für Gerüchte?
3D-Vision soll wohl nur mit einer SLI-Konfig möglich sein. Damit wird es wohl für den Großteil der Käufer keine Kopfschmerzen zu befürchten geben^^
dildo4u
2010-01-08, 21:42:19
3D-Vision soll wohl nur mit einer SLI-Konfig möglich sein. Damit wird es wohl für den Großteil der Käufer keine Kopfschmerzen zu befürchten geben^^
3D Vision Surround,3D Vision geht natürlich auch mit einer Karte.
Gestrandet
2010-01-08, 21:43:55
Vlt. ein neues Geschäftsmodell - für jede Dimension eine Karte, damit kann man den Absatz gleich mal mindestens verdoppeln ;)
(Obwohl die Monitore ja immer niedriger / breiter werden, irgendwann isses auch in 1D schön)
3D Vision Surround,3D Vision geht natürlich auch mit einer Karte.
Jo, hast Recht...bin nur eben grad drüber gestolpert und hab net richtig gelesen;)
Burgard
2010-01-08, 21:52:41
Fermi wird hot, hot, hot.
5970???
A rep from one manufacturer said that Fermi-based cards will run hotter than the hottest ATI Radeon HD 5000 series.
http://www.tomshardware.com/news/nvidia-fermi-gpu-graphics,9384.html
reunion
2010-01-08, 21:58:01
Eine Dual-GPU-Karte ist für mich mit diesen jetzt schon mehrmals bestätigten Meldungen und angesichts des 6+8Pin Stromanschlusses definitiv gestorben.
Dural
2010-01-08, 21:58:03
so wie es keine GTX285 GX2 geben kann? oder so wie es NV ja noch nicht bestätigt hat das eine GX2 mit fermi möglich ist???
wie schon die 8800GTX / 2900XT / 9800GX2 / GTX280 / GTX295 / X2 usw.
da hiss es im vorfeld auch immer "hot" ist übrigens die regel das eine gafikkarte warm/heiss wird und nicht kalt... ;)
und was hat die bedeutung "hot" kann man das in Watt ausrechnen oder was...
ja wie schon die 8800GTX / 2900XT / 9800GX2 / GTX280 / GTX295 / X2 usw.
da hiss es im vorfeld auch immer "hot" ist übrigens die regel das eine gafikkarte warm/heiss wird und nicht kalt... ;)
Auch heißer als die dual GPU des Kokurrenten?;)
derguru
2010-01-08, 22:00:20
triple sli lief nicht umsonst unter wasser;)
Aber "hotter than the hottest" ist schon ziemlich heiß;)
Dabei ist wohl auch die 5970 im Vergleich gemeint und der Satz stammt wohl von den Gehäusebauern, die auch schon die 300W rausgehauen haben...passt auch
merfu
2010-01-08, 22:03:32
Zu dem Thema Quaddros und bessere Dev Support.
Ich werde mit meiner 770m im Regen stehen gelassen von Nvidia.
Stichpunkt kauf ne neue wenn du Support und oder neue Treiber willst.
Bei einer FireGL (4 Jahre Alt) gibts noch Support und Treiber, und ich kenne noch einige die mit solchen Karten arbeiten.
Aber mal Back2Topic.
Angenommen Fermi kommt gerade so an eine HD5870 ran und ein wenig davor. Wie würden den die Chancen im Performance oder Mainstream Segment aussehen? Lassen sie die aktuelle Architektur ran oder machen sie es wie bei dem letzten Chip, wo es keine Performance und Mainstream ableger gab?
So long
merfu
Dural
2010-01-08, 22:04:43
Auch heißer als die dual GPU des Kokurrenten?;)
wie kann man beurteilen wie heiss Produkt A oder B wird???? in dem man mit der hand fühlt (gemessen hat auf der CES wohl keiner ;)) wie "hot" das teil ist oder was?
reunion
2010-01-08, 22:06:40
triple sli lief nicht umsonst unter wasser;)
So ist es.
Speaking to several case vendors at CES, we were told that while running one Fermi card alone or two single-GPU cards is fine, going any higher may introduce thermal issues. Though no firm temperatures were revealed, manufacturers said that users need to be extra careful about how they setup the innards of their gaming chassis.
Drei Karten kann man offenbar gar nicht mehr kühlen. Das erklärt dann auch warum man die Dinger mit Wasser gekühlt hat.
wie kann man beurteilen wie heiss Produkt A oder B wird???? in dem man mit der hand fühlt (gemessen hat auf der CES wohl keiner ;)) wie "hot" das teil ist oder was?
Die Gerüchte sollen ja aus der Gehäuse-/Kühlerentwicklerecke kommen.
P.S ;) :)
Dural
2010-01-08, 22:09:11
aha und was sagen die aus? das Fermi heisser wird als RV870? Die GPU ist 50% grösser...
für diese schlussfolgerung brauch ich jedenfalls keine hersteller nahen quellen... da die doch von anfang an klar war...
am ende zählt doch nur was man pro watt erreicht...
boxleitnerb
2010-01-08, 22:09:16
Sag mal Dural, kommt von dir auch etwas, das nicht eingefärbt ist? Die Aussage ist ja wohl klar negativ, da gibts gar keine Haarspalterei zu betreiben. Ist doch scheißegal auf was das genau bezogen ist, der Schreiberling wollte einfach einen groben Anhaltspunkt nennen.
Ich freue mich ja auch auf Fermi und hoffe, dass er der Knüller wird, aber das, was du meist schreibst, ist ja nicht mehr feierlich.
StefanV
2010-01-08, 22:10:00
Ich hoffe du weißt selbst, dass die "Argumentation" völliger bullshit ist.
Nein, ists nicht, zumal nVIdia auch einige richtige knaller verbrochen hat.
z.B. die Geschichte mit dem Lüfter der 9800GTX(+), der nach 3D nicht runterregelt, oder die Geschichte mit dem Takt, der auf 'Video Takt' zurückfällt, bei Spielen.
€dit: des weiteren sind die Lüfter bei AMD Karten schon seit einiger Zeit von der Karte selbst bzw der Hardware gesteuert, nicht vom Treiber!
Der Lüfter meiner GTS250 ist (mal wieder) nur Treiber gesteuert...
tombman
2010-01-08, 22:15:00
...dafür dann mit Ohrenschützern, oder?
Wenn der Artikel stimmt, dann wird eine Fermi-Karte bestimmt nicht leise. Eine 300 Watt GPU mit Luft effizient und leise zu kühlen wird schwierig oder gar unmöglich.
Lautstärke ist mir egal, da mein Rechner in einem anderen Raum steht ;)
Dural
2010-01-08, 22:15:30
Sag mal Dural, kommt von dir auch etwas, das nicht eingefärbt ist? Die Aussage ist ja wohl klar negativ, da gibts gar keine Haarspalterei zu betreiben. Ist doch scheißegal auf was das genau bezogen ist, der Schreiberling wollte einfach einen groben Anhaltspunkt nennen.
Ich freue mich ja auch auf Fermi und hoffe, dass er der Knüller wird, aber das, was du meist schreibst, ist ja nicht mehr feierlich.
HOT ist KEIN anhaltspunkt, da es kein fester wert ist... es steh ja nicht mal zu genau zu welchen Produkt da verglichen wird... sehr wahrscheinlich die 5870 mit 190W TDP, das die GTX380 mehr als die 190Watt haben wird war von anfang an klar, siehe 8Pin plus 6Pin stecker...
also noch mal, was sagt die meldung neues aus? doch rein gar nichts...
reunion
2010-01-08, 22:16:56
aha und was sagen die aus? das Fermi heisser wird als RV870? Die GPU ist 50% grösser...
Die "hottest 5000 Series" ist halt eindeutig die 5970. "Hotter than the hottest" ist nochmal eine Steigerung davon. Und das man hier "hot" nicht nur im Sinne von heiß übersetzen darf wenn im selben Atemzug von thermischen Problemen berichtet wird und Gehäusehersteller von extremen Anforderungen berichten sollte auch offensichtlich sein.
mboeller
2010-01-08, 22:18:08
3D-Vision soll wohl nur mit einer SLI-Konfig möglich sein. Damit wird es wohl für den Großteil der Käufer keine Kopfschmerzen zu befürchten geben^^
Wenn ich die Meldungen richtig verstanden habe brauchst du für SLI ein spezielles zertifiziertes Gehäuse.
SLI geht also nicht einfach so.
Burgard
2010-01-08, 22:19:51
Zumindest macht dann solch eine Nachricht auch Sinn.
Speziell zertifiziertes Gehäuse für Nvidias „Fermi“ (http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/dezember/speziell_gehaeuse_nvidias_fermi/)
@mboeller
hehe, siehe Link
boxleitnerb
2010-01-08, 22:20:19
Glaub doch was du willst. Hotter than the hottest...wenn du nach der TDP gehst, was ist wohl die "hotteste" 5000er Karte? Richtig, die 5970...
Das mit der TDP ist aber Quatsch. Glaubt ja kein Mensch, dass Fermi soviel wie Hemlock verbrauchen wird. Aber deutlich mehr als 5870 kann man wohl annehmen. Und das ist nicht gut. Es wurde schließlich mal von ca. GTX285 Niveau gesprochen...
Wenn ich die Meldungen richtig verstanden habe brauchst du für SLI ein spezielles zertifiziertes Gehäuse.
Nee, hatte sich doch schon erledigt. Für 3d-Vision mit 3 Monitoren brauchts SLI. Ob es mit SLI generell in normalen Gehäusen zu Problemen kommen kann und ob es vielleicht ratsam wäre, immer einen Feuerlöscher bereit zu halten, darum geht es jetzt und hier.
@topic
Leute, mal ehrlich, wenn Gehäuseentwickler und Kühlungsspezialisten die Hände über der Wärmeentwicklung der Karte überm Kopf zusammenschlagen, wird sie nicht nur ein wenig heißer als die 5870 sein.
Hauwech
2010-01-08, 22:25:39
Naja, wer sich 3 Grafikkarten egal welcher Farbe in den Rechner steckt, der kann sich wohl auch ein Spezialgehäuse leisten, eine Wasserkühlung einbauen die entsprechend leise ist oder die Kiste in einen anderen Raum stellen. Alternative dürfte Selbstbau sein...
Dural
2010-01-08, 22:26:10
ja klar jetzt ist Hot = hohe TDP :rolleyes:
ja klar jetzt ist Hot = hohe TDP :rolleyes:
"hotter than hottest ATI (5970)" klingt nunmal sehr nach der 300W-Theorie;)
Burgard
2010-01-08, 22:32:18
wer sagt das die 5970 die "hottest ATI Radeon HD 5000 series" ist???
Ist ein Scherz, oder? :confused:
Temperatur-Tabelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/20/#abschnitt_temperatur)
Bitteschön
Dural
2010-01-08, 22:33:54
das war eigentlich auf was anders bezogen... es könnte genau so gut eine kleine 5000 mit zb. passiv kühler sein........
OK GF100 hat eine höhere TDP/Verbrauch als die 5970, geb mich geschlagen ;D
boxleitnerb
2010-01-08, 22:36:00
Gegenfrage: Wo ist für dich in der Meldung jetzt was Positives? Wie man es dreht und wendet, toll klingt es nicht!
Natürlich ist nicht TDP=hot, so ein Schwachsinn! Aber die Aussage lässt eine grobe Vermutung zu. Und ich glaube, dem Author ist wohl bewusst, dass man auch einen 300W Chip mit Kokü un"hot" aka cool kriegt :rolleyes:
Er hätte es wohl kaum geschrieben, wenn man aus der Aussage nicht irgendwas ableiten könnte, oder?
Dural
2010-01-08, 22:39:05
ich hab nie gesagt das die meldung positiv ist... ich habe gesagt das sie im grunde genommen rein gar nichts aussagt, jedenfalls nichts neues...
mictasm
2010-01-08, 22:39:11
Zumindest macht dann solch eine Nachricht auch Sinn.
Speziell zertifiziertes Gehäuse für Nvidias „Fermi“ (http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/dezember/speziell_gehaeuse_nvidias_fermi/)
@mboeller
hehe, siehe Link
Ist das nicht derselbe Marketing-Bla, wie es ihn früher schon mit speziellen Nvidia-Gehäusen (war das CoolerMaster?) gab?
Wird immer lustiger.
Keine Daten zur Hand aber mal fröhlich Dinge in den Raum stellen.
Als ob eine GTX 380 mehr ziehen würde als andere Karten, die man auch mehrfach verbauen kann.
Mal einen Blick auf den langsam allseits bekannten CPU Kühler der Fermivorstellungen geworfen?
Das Ding nennt sich Wasserkühlung, ist nicht direkt billig, aber hat kühlleistungsmäßig gegen einen ähnlich teurern High-End Luftkühler nichtmal den Hauch einer Chance.
So, warum hat man die CPU so gekühlt?
Show oder der Kühlerhersteller hatte Finger im Spiel sag ich nur, einen anderen Grund kann es nicht geben so einen Müll zu verbauen.
Burgard
2010-01-08, 22:40:36
Ist das nicht derselbe Marketing-Bla, wie es ihn früher schon mit speziellen Nvidia-Gehäusen (war das CoolerMaster?) gab?
Leider nicht, hier geht es eher um die besondere Belüftung.
Hierfür hat man besonderes Augenmerk auf den Luftstrom im Gehäuse gelegt.
Burgard
2010-01-08, 22:45:52
Mal einen Blick auf den langsam allseits bekannten CPU Kühler der Fermivorstellungen geworfen?
Das Ding nennt sich Wasserkühlung, ist nicht direkt billig, aber hat kühlleistungsmäßig gegen einen ähnlich teurern High-End Luftkühler nichtmal den Hauch einer Chance.
So, warum hat man die CPU so gekühlt?
Show oder der Kühlerhersteller hatte Finger im Spiel sag ich nur, einen anderen Grund kann es nicht geben so einen Müll zu verbauen.
Du willst hier allen Ernstes behaupten, dass eine Luftkühlung besser ist als eine Wasserkühlung???
WOW
derguru
2010-01-08, 22:46:46
erinnert mich immer mehr an alte zeiten,
http://www.abload.de/img/blower2hzpt.jpg
y33H@
2010-01-08, 22:54:07
Hat Fud nicht bei der GTX280 gesagt, die sei sooo heiß? Man sollte sein Griffel halt von einer metallenen Backplate lassen ;D
StefanV
2010-01-08, 22:56:19
Du willst hier allen Ernstes behaupten, dass eine Luftkühlung besser ist als eine Wasserkühlung???
WOW
Eine Wasserkühlung ist am Ende auch nur eine Luftkühlung...
Aquaschaf
2010-01-08, 23:05:20
Hätte R600 so funktioniert wie geplant wär der 512bit Bus auch vOn nöten gewesen.
Wofür denn? Um die 16 TMUs zu füttern ;)? Aber das ist OT..
derguru
2010-01-08, 23:10:51
Hat Fud nicht bei der GTX280 gesagt, die sei sooo heiß? Man sollte sein Griffel halt von einer metallenen Backplate lassen ;D
fermi hat aber keine backplate.:biggrin:
Du willst hier allen Ernstes behaupten, dass eine Luftkühlung besser ist als eine Wasserkühlung???
WOWNein, les dir die Quote nochmal durch.
Diese spezielle CPU Wakü ist Müll.
Nur viel effizienter du nap
Die nicht, die ist wie ich erwähnte Müll gegen einen guten Lüftkühler.
Gegen einen guten Wasserkühler natürlich noch mehr, aber darum gings nicht.
Diese Wasserkühling ist schlicht ineffizient. Hoher Aufwand für nichts, das Resultat ist vernichtend schlecht.
Wofür denn? Um die 16 TMUs zu füttern ;)? Aber das ist OT..
Dem Anschein nach haben ja nicht alle Einheiten das getan was sie sollen.
Der 512MB Ringbus war bestimmt nicht umsonst vorhanden.
erinnert mich immer mehr an alte zeiten,
http://www.abload.de/img/blower2hzpt.jpg
Lustig, das NV30 so gut in Erinnerung bleibt.
Wo es doch hinterher kaum mehr als ein warmes Lüftchen ist, was sie erzeugt.
Gegen heutige 400W Strahler, bzw 400W Strahler im MGPU Verbund ist das Ding nichts.
Lautstärke mäßig siehts auch nicht so mies aus, leise sind die 400W Strahler auch nicht.
Ersetzte 400W Strahler mit einer MGPU Karte deiner Wahl.
Dem Anschein nach haben ja nicht alle Einheiten das getan was sie sollen.
Der 512MB Ringbus war bestimmt nicht umsonst vorhanden.
Die TMUs liefen sicher auf Hochtouren, Filtercheats hin oder her.
erinnert mich immer mehr an alte zeiten,
http://www.abload.de/img/blower2hzpt.jpg
Kommt von dir auch noch was produktives?
Das Tri Sli System wurde offensichtlich nur zu Showzwecken wassergekühlt.
Und wenn sie schon einen Rechner mit lufgekühltem Fermi zeigen wieso zur Hölle soll das dann bei einem Tri Sli Sys nicht auch gehen?
derguru
2010-01-08, 23:25:55
das war doch sowas von produktiv oder nicht Lulu;)
y33H@
2010-01-08, 23:27:04
@ derguru
Dafür ein Luftloch :eek:
y33H@
2010-01-08, 23:51:51
Eine HD5970, eine HD4870 X2 und eine HD4890 sind im Furmark so laut wie eine FX5800 Ultra. Fakt.
derguru
2010-01-08, 23:54:06
vollkommen unwichtig wie laut die unter furmark sind oder hat schonmal jemand seine lüfterdrehzahl auf max in spielen gehabt oder ansatzweise in der nähe?
StefanV
2010-01-08, 23:59:02
Eine HD5970, eine HD4870 X2 und eine HD4890 sind im Furmark so laut wie eine FX5800 Ultra. Fakt.
Ui, supi, toll....
Die FX5800 Ultra verbrät etwa 50W, die Radons etwas mehr, so um die 200-300W mehr, super, alda, echt, ey...
Und genau das ist ja auch der Punkt, der Kühler vom FX5800U war einfach nur ein übelster brainfart, der Gedanke war schon nicht verkehrt, die Ausführung aber einfach nur schlecht.
z.B. nur winziger, 45-50mm Yen Sun Radiallüfterlein, eine fast nicht vorhandene Kühleroberfläche, dazu noch ein Lufttunnel, der für die eigentlichen Geräusche verantwortlich ist (ist wie bei der alten Playstation 2: der Lüfter an sich ist sehr leise, erst das drumherum macht den Kracht).
Und so ein winziger GF4 TI4600 Lüfter ist von der Leistungsfähigkeit her deutlich über dem was der CrapFX Kühler schafft, hier wär sogar ein single Slot Kühler möglich...
Sorkalm
2010-01-09, 00:01:20
Eine HD5970, eine HD4870 X2 und eine HD4890 sind im Furmark so laut wie eine FX5800 Ultra. Fakt.
Der große Unterschied ist aber noch, dass die FX 5800 damals in Spielen so laut war. Und das weißt du auch.
Ist aber auch Offtopic.
Botcruscher
2010-01-09, 00:04:55
Eine HD5970, eine HD4870 X2 und eine HD4890 sind im Furmark so laut wie eine FX5800 Ultra. Fakt.
Ich glaube nicht Tim.
Mit einer Lautheit von 16 Sone erobert die FX5800 Ultra-TD von MSI den zweifelhaften Spitzenplatz aller jemals im CHIP Online-Labor gemessenen Grafikkarten.
http://www.chip.de/artikel/MSI-Geforce-FX5800-Ultra-TD_12820327.html
Im Furemark erreicht eine 5970 7,6
http://ht4u.net/reviews/2009/xfx_radeon_hd5750_512mb/index10.php
PS: Und das ist jetzt wirklich OT.
EDIT: Link gefixt.
StefanV
2010-01-09, 00:06:04
Meinst du man sollte die heutige MGPU Heizer dafür beloben das sie ein vielfaches einer 5800 Ultra ziehen, bzw mehr als als ein komplettes damaliges System ziehen?
Im Verbund wirds sogar noch heftiger. Aber egal, tolle neue Welt, hauen wir auf NV30 weiter rum.
Eben genau deswegen ja.
300W sind mit Luft nicht einfach leise zu kühlen, 50W sind kein nennenswertes Problem, das bekommt heut jeder halbwegs leise hin.
Mit dem Arctic Accelero OEM wie er auf meiner HD4670 und 5750 drauf ist, würd dazu führen, dass der nV30 aufgrund von erfrierung stirbt...
Und der wär eher billiger als teurer als der Cine FX...
Natürlich kann man auch die beiden GPUs der Dual Karten leise kühlen, das ist aber sehr aufwändig, da man einerseits Oberfläche braucht und zweitens Luftdurchsatz (bei wenig Lautstärke bedingt das zwangsläufig einen großen Lüfter), was aber abseits jeglicher Spezifikation ist!
Eben genau deswegen ja.
300W sind mit Luft nicht einfach leise zu kühlen, 50W sind kein nennenswertes Problem, das bekommt heut jeder halbwegs leise hin.
Es sind doch ein Stück über 50W, soviel zieht fast schon eine 5700 Ultra. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439931
Ändert nichts daran das du weiterhin die Heizer gut stellst.
400W sind weitaus mehr als 60W oder 80W. Jetzt will man ernsthaft NV30 als Bösen Heizer hinstellen und GTX 380 damit vergleichen.
Gut, dann wissen wir jetzt: GTX 380 zieht weniger als eine GTS 250. GTX 380 wird ein Stück lauter als einer der letzten 400W Strahler.
=Floi=
2010-01-09, 00:40:28
Eine Wasserkühlung ist am Ende auch nur eine Luftkühlung...
quatsch! eine wsserkühlung ist eine wasserkühlung.
1. nennt man das auch beim auto so
2. kann ich das wasser auchaustauschen und mit neuem kühleren wasser kühlen. (boot)
man baut nur deshalb den wärmetauscher ein, weil man so sehr klein und effizient kühlen kann. da man keine 400l wasser neben dem pc stehen hat. Der kühler hat auch eine bessere einbaulage und eine größere oberfäche, inclusive besserem material.
damals gab es noch keine heatpipes! was soll denn as schon wieder?
dank der pipes konnte man die luftkühlung sehr viel effizienter machen. Ohne die pipes und der noch besseren vakuum-kammern wären wir wohl heute schon bei flächendeckender wasserkühlung.
----
diese wakü sagt gar nichts über fermi aus. Die cpu verbraucht ja auch keine 300 watt. :rolleyes:
8+6 pin stromversorgung und 6+X phasen geben mir eher die sicherheit für eine gute stromversorgung und nicht, dass die karte zu viel strom verbraucht. (siehe 1156er sockel und die abgerauchten phasen)
wenn man das ganze an der grenze betreibt, dann kommt man da auch sehr leicht darüber oder das ganze wird instabil. so gesehen fährt hier ati eindeutig schlechter! Wenn der GT300 auch nur bei 200watt wäre, dann ist diese 225 watt grenze schon sehr sehr nahe.
StefanV
2010-01-09, 00:45:07
quatsch! eine wsserkühlung ist eine wasserkühlung.
Nein, denn du klemmst deine Wasserkühlung nicht an einen Wasserhahn und lässt laufen, der Luftaustausch findet am Ende mit der Luft statt, Wasser transportiert die Wärme nur zu einem größeren Kühler, das ist auch der Grund, warum Wasserkühler besser sind...
Nein, denn du klemmst deine Wasserkühlung nicht an einen Wasserhahn und lässt laufen, der Luftaustausch findet am Ende mit der Luft statt, Wasser transportiert die Wärme nur zu einem größeren Kühler, das ist auch der Grund, warum Wasserkühler besser sind...
Eben und das Ding was da für die CPU genutzt wurde hat keine größere Oberfläche.
Es hat nur eine laute Pumpe, einen weiteren Wärmeübergang, eine kleine Kühloberfläche und daraus folgernd eine beschissene Kühlleistung. Eventuell wird letzteres durch einen höllisch lauten Lüfter verschleiert.
Diese Wakü ist Show und gar nichts zu sagen, außer das Nvidia irgendwas mit Thermaltake am Hut hat. Veträge oder ähnliches.
StefanV
2010-01-09, 00:56:15
Öhm, nee, da Wasser ein weitaus besserer Wärmeleiter ist und auch mehr Wärme aufnehmen kann.
Siehst ja auch gerade draußen, 0°C kalte Luft ist kein Problem, auch nackt (für ~10sekunden), bei dem Schnee schauts anders aus...
Öhm, nee, da Wasser ein weitaus besserer Wärmeleiter ist und auch mehr Wärme aufnehmen kann.
Siehst ja auch gerade draußen, 0°C kalte Luft ist kein Problem, auch nackt (für ~10sekunden), bei dem Schnee schauts anders aus...
Wasser ist ein sehr mieser Wärmeleiter, deshalb die Pumpe.
Dagegen kann es toll Wärme speichern.
Das Problem ist jetzt, das dieser mickrige Radiator vollkommen unterdimensioniert ist um die Wärme wieder abzugeben.
RoNsOn Xs
2010-01-09, 01:13:57
omg jeder depp hat im physik-unterricht gelernt das wasser als flüssigkeit eine sehr gute wärmeleitfähigkeit besitzt.
daran ist nix zu rütteln. oder sollte man motoren auch nur mit luft kühlen und das wasser ganz weg lassen?
wiki und diverse lehrbücher bestätigen dies.
Den Unterschied zwischen Wärmeleitfähigkeit und Wärmekapazität solltest du nochmal lernen.
RoNsOn Xs
2010-01-09, 01:27:33
http://de.wikipedia.org/wiki/W%C3%A4rmeleitf%C3%A4higkeit
und nu? eigene nase und so..
und jetzt schaust du noch mal wie gut die wärmeleistfähigkeit von wasser im vergleich zu anderen stoffen wie kupfer, eisen, etc. ist:
http://de.wikipedia.org/wiki/W%C3%A4rmeleitf%C3%A4higkeit#Beispiele_f.C3.BCr_die_W.C3.A4rmeleitf.C3.A4higkeit
dafür kann wasser wesentlich mehr wärme speichern als diese stoffe, hat also eine höhere wärmekapazität.
was lernen wir daraus? hirn an vor dem posten.
Warum wird hier die Kühllösung der 5800 Ultra mit Fermi verglichen? 2002/2003 hatte man nichtmal annährend soviel Erfahrung 80, 90 Watt abzuführen als heute > 250 Watt. Wenn Fermi über >250 Watt benötigen wird, dann bekommt die Karte eben den Kühler der Single-PCB GTX295 verpasst. Da das aber anscheinend nicht passiert, wird die Karte wohl irgemdwo bei 240 Watt liegen. Also auf GTX280 Niveau.
Langsam wird der Mob ungemütlich habe ich das Gefühl ;)
Gestrandet
2010-01-09, 01:42:48
Ich glaube, den Thread hier kann man langsam schließen.
(Randnotiz: Dass die Diskussion sich so sehr in Richtung 5800 verlagert, lässt für Fermi wirklich nichts gutes ahnen *grusel* )
RoNsOn Xs
2010-01-09, 01:43:58
und jetzt schaust du noch mal wie gut die wärmeleistfähigkeit von wasser im vergleich zu anderen stoffen wie kupfer, eisen, etc. ist:
http://de.wikipedia.org/wiki/W%C3%A4rmeleitf%C3%A4higkeit#Beispiele_f.C3.BCr_die_W.C3.A4rmeleitf.C3.A4higkeit
dafür kann wasser wesentlich mehr wärme speichern als diese stoffe, hat also eine höhere wärmekapazität.
was lernen wir daraus? hirn an vor dem posten.
war wohl nix oder?
lies nochmal meinen beitrag vor der seite. was haben feste stoffe mit flüssigkeiten zu tun? eigene nase und so again.
tombman
2010-01-09, 01:53:59
Habe mir gerade die press conference angesehen. Was ein Epic Fail...
Was will Jensen uns da verkaufen? Daß wir alle mit A5 (!!!) großen Tablets rumrennen um unterwegs (!!!) Unreal Tournament (:facepalm:) zu zocken? Na, aber SICHER NICHT. Egal wie schnell die Dinger sind- derzeitige Smartphonegröße ist das Maximum!
Oder wie geil es ist in 100k€ Autos sich mit Tegra spielen zu können? WAYNE interessierts?
Diese Steve-Jobs-für-Arme Nummer paßt nicht zu Jensen, das können andere besser.
Oder, frei nach Nuhr: Wenn man nix Neues zu Fermi hat- einfach mal die Fresse halten!
(gilt nicht für mich ;))
:mad:
Ich glaube, den Thread hier kann man langsam schließen.
(Randnotiz: Dass die Diskussion sich so sehr in Richtung 5800 verlagert, lässt für Fermi wirklich nichts gutes ahnen *grusel* )
Deine Stimmungsmache kannst du dir echt mal sparen.
war wohl nix oder?
lies nochmal meinen beitrag vor der seite. was haben feste stoffe mit flüssigkeiten zu tun? eigene nase und so again.
Der Gast hat recht. Durch den hohen Durchfluss und große Kontaktoberfläche ist die effektive Wärmeleitfähigkeit bei einer Wasserkühlung ziemlich egal, weil Delta T immer hoch ist. Die Kapazität aber nicht, und die ist bei Wasser sehr hoch.
Nicht ohne Grund wird in Kraftwerken größtenteils Wasser als Energieträger verwendet. Die Diskussion hat hier aber absolut nichts verloren.
Das Wasser muss nichts leiten, deshalb ist die Wärmeleitfähigkeit bei Wasserkühlung nicht relevant. Bei Festen Heatpipes uns Kühlrippen ist das anderst, die müssen sehr gut Wärme leiten, Wasser dagegen wird umgewälzt in dem Kühlsystem. Allerdings sollte der Radiator schon auch die Wärme abgeben können.
Cubitus
2010-01-09, 03:21:35
Habe mir gerade die press conference angesehen. Was ein Epic Fail...
Was will Jensen uns da verkaufen? Daß wir alle mit A5 (!!!) großen Tablets rumrennen um unterwegs (!!!) Unreal Tournament (:facepalm:) zu zocken? Na, aber SICHER NICHT. Egal wie schnell die Dinger sind- derzeitige Smartphonegröße ist das Maximum!
Der Tablett-Trend an sich ist schon die Zukunft!
Nur sollten diese Teile perfektes Text-Editing beherrschen, sowohl mit der eigenen Handschrift + verschiedenen Funktionen wie z.b Bunte Marker und natürlich die Textverarbeitung mit Word und Co. Dazu noch eine gute Touch-Tastatur und ein schnelles WLAN Modul bieten.
Z.b ließen sich mit der Zeigefingerkuppe und der damit verbundenen Dicke verschiedene Schlagwörter markieren.
Oder mit einer guten Struktur schnell durch die Seiten blättern.
Wäre die touch Technik ausgereifter ließe sich sich sogar die Seite an verschieden Bereichen packen und nach oben oder zur Seite blättern lassen wie bei einem College Block, den man obendrein auch noch emulieren könnte ;)
Ich denke in den nächsten 10 Jahren wird auch so etwas in der Art kommen!
Ich hätte kein Problem damit solch ein A5,
besser sogar noch ein A4 Pad mit meinen sämtlichen Fachbüchern oder sonstigen Dokumenten zu füllen.
Ist doch viel praktischer so einen relativ kompakten Gegenstand mit sich zu schleppen als die komplette Laptop, Schul- bzw. Aktentasche!
PS: die Präsentation empfand ich auch als peinlich,
besonders als mal wieder der obligatorische Wink zu Intel folgte und dann noch das rechte Bild total verschwommen dargestellt wurde ;D
Slipknot79
2010-01-09, 03:38:19
Ich hätte kein Problem damit solch ein A5,
besser sogar noch ein A4 Pad mit meinen sämtlichen Fachbüchern oder sonstigen Dokumenten zu füllen.
Ist doch viel praktischer so einen relativ kompakten Gegenstand mit sich zu schleppen als die komplette Laptop, Schul- bzw. Aktentasche!
Es geht einfach nix über nen ordentlichen PC zu Hause. Was kann A5 oder A4 wenn man zu Hause min 24" haben kann, zum Arbeiten gleich 2 davon.
Tablett PC? Wehe du willst mal in mehr als 1 "Buch" blättern, 2, 3, 4, 5, ... Bücher -> 2, 3, 4, 5... Tablett PCs? Geht nix über dicke Tischplatte zu Hause wo 5 Bücher darauf liegen. Wie soll ich am Tablett PC Buch lesen und gleichzeitig UT gamen? Zu Hause: 2 TFTs, einer für Crysis, anderer fürs Tittenmagazin und gut ist.
Ich sehe es schon, ist wohl für Konsolenspieler gedacht, die sich naturgemäß mit weniger zufrieden geben. Daher wird der Markt boomen. :rolleyes:
Cubitus
2010-01-09, 03:41:26
Es geht einfach nix über nen ordentlichen PC zu Hause. Was kann A5 oder A4 wenn man zu Hause min 24" haben kann, zum Arbeiten gleich 2 davon.
Tablet PC? Wehe du willst mal in mehr als 1 "Buch" blättern, 2, 3, 4, 5, ... Bücher -> 2, 3, 4, 5... Tablet PCs?
Ich seh schon, ist wohl für Konsolenspieler gedacht, die sich naturgemäß mit weniger zufrieden geben. Daher wird der Markt boomen. :rolleyes:
Moment mal ich denke an das Ultimative Arbeitsgerät!
Die Multimedia Kacke interessiert mich weniger.
Auf diesen Bereich hätte Nvidia stärker den Fokus werfen sollen, als auf alte Spiele und seichte Filmchen.
Kann auch sein das ich zu weit abgeschweift bin :redface:
mapel110
2010-01-09, 04:50:51
Eigentlich auch nix neues.
http://www.xbitlabs.com/news/video/display/20100108193417_Nvidia_s_Next_Generation_Graphics_Processor_in_Volume_Production_ Company.html
GF104 könnte High End Chip sein und soll Q2 kommen
Launchdate von GF100 10. März
tombman
2010-01-09, 05:24:36
Idee:
GF100 = 448 SP Müll
GF104 = 512 SP :)
Oder: GF104 = GX2?
Oder: GF104 = GF100 + mehr Takt?
=Floi=
2010-01-09, 08:00:49
ausgerechnet ihr beschwert euch über zu viel leistung? warum?
ich finde es toll, dass die U3 engine auch dort läuft und es auch in diesen bereichen endlich mehr 3d-leistung gibt. diese kann man dann auch für andere sachen nützen und ältere spiele darauf spielen. immerhin geht es dann. so funktioniert es gar nicht. (siehe intel igp)
das iphone zeigt ja eindrucksvoll was dort alles geht (siedler, simcity, c&c, doom und noch genug andere nette spiele)
cubi warum ein schnelleres wlan bei einem tablet?
selbst große pdfs sind mit 50mbit schnell übertragen?!
@tombman
was, du hast keine 100k€ (für ein auto) auf dem konto? :ugly:
zuerst kommt es im A8 und dann versetzt in die kleineren modelle. bei bmw gibt es mittlerweile auch 1280x720 pixel navis im 3er bmw. ich finde auch dort die entwicklung super und dort ist die 3d und rechenleistung genau richtig. Es ist doch genial wenn die route in 3d dargestellt wird und auch in wenigen sekunden berechnet wird. gerade bei den preisen der autohersteller sollte hier mehr geboten werden wie bei den mobilen geräten. sonst willst du doch auch highend und es kann gar nicht teuer genug sein und hier kritisierst du den fortschritt?
----
http://www.pc-cooling.de/VGA-Chipset-Ram/VGA-Kuehler/Arctic-Cooling/100700184/Arctic+Accelero+Xtreme+GTX+pro.html
bis 250 watt (!) und die der kühler sollte entsprechend leise sein.
das design finde ich ebenfalls sehr beeindruckend, weil man nur 2 slots braucht. einziges problem sehe ich an den ~250watt die dann im gehäuse landen und nicht rausgeblasen werden...
so viel zu unkühlbaren lauten 250watt kühlern.
Nazar
2010-01-09, 08:10:55
Eine HD5970, eine HD4870 X2 und eine HD4890 sind im Furmark so laut wie eine FX5800 Ultra. Fakt.
Puh.. schwein gehabt!
Man gut das der Furmark sich als Spiel so schlecht verkauft. Echt jetzt.. stellt Euch mal vor 3 Stunden Furmark zocken, das würde ja keine der Karten überleben und alle Anwender wären taub ;D
Scheiße nur das die FX5800 auch ohne Furmark so laut ist.
Aber wenn keine Äpfel mehr da sind, reichen auch Birnen :freak:
=Floi=
2010-01-09, 08:38:23
es ist nur eine frage der zeit, bis der erste fur-fellshader in einem spiel eingebaut wird. für G3 war so etwas ja schon angedacht und wenn auch genug leistung vorhanden ist, dann wird man das sicherlich auch mal in einem spiel sehen. so theoretisch ist ja der fur-fellshader jetzt (leider) nicht.
http://www.youtube.com/watch?v=JCo9HSXwBww
Simon Moon
2010-01-09, 09:06:25
Wie soll ich am Tablett PC Buch lesen und gleichzeitig UT gamen?
Du liest Bücher während du UT spielst? :freak:
Schlammsau
2010-01-09, 09:25:10
es ist nur eine frage der zeit, bis der erste fur-fellshader in einem spiel eingebaut wird. für G3 war so etwas ja schon angedacht und wenn auch genug leistung vorhanden ist, dann wird man das sicherlich auch mal in einem spiel sehen. so theoretisch ist ja der fur-fellshader jetzt (leider) nicht.
http://www.youtube.com/watch?v=JCo9HSXwBww
Es gibt keine praktische Applikation, die eine reine 100%ige Auslastung der Shader verursacht! Auch der angedachte Wolf aus G3 nicht. Es wird immer andere Dinge geben, die zuerst am Limit laufen.
Ailuros
2010-01-09, 09:25:58
Langsam wird der Mob ungemütlich habe ich das Gefühl ;)
Wenn ich anfange zu zaehlen wie viele Posts die anderen Mods ueber die letzten paar Seiten loeschen mussten, ja klar :D
--------------------------------------------------------------
Floi,
Wie war es nochmal dass Stromverbrauch bzw. Abwaerme "egal" waere wenn die Leistung stimmt? Die Reaktionen des Publikums kann man sehr leicht ueber die letzten paar Seiten sehen. Ich wiederhole nochmal dass NV keinen Bock hat den Stromverbrauch einer 285 zu uebertreffen (und falls es so sein sollte haben sie sich so verdammt falsch eingeschaetzt dass es nicht mehr schoen ist) und nein sie werden nicht so bloed sein einen ueberlauten Megabrummer zu bauen nur um einer 5970 die Faust zu zeigen.
----------------------------------------------------------------
aylano,
Was soll ich jetzt genau auf die merkwuerdige Finanz-analyse vor einigen Seiten genau antworten? Ein Uebermass an Annahmen und es fehlen nach wie vor die kritischen Informationen die zu einer halbwegs logischen Schlussvolgerung fuehren wuerden.
Wie dem auch sei wenn NV's bisherige Strategie auf die Nase fallen sollte, ist auch nie etwas in Stein gemetzelt und sie koennen ihre Strategie jederzeit aendern. NVIDIA's momentanes Problem ist nach wie vor execution und nochmal execution. Wenn Du Dir Deinen eigenen Post nochmal durchliest koennte man sich eher fragen warum GT200 von Anfang nicht fuer 55nm geplant war und NV hat derartige Fehler oeffentlich eingestanden.
GF100@40nm war eine Wendung denn sie sind zum ersten Mal seit NV30 auf den kleinsten und neuesten Herstellungsprozess mit einer neuen Architektur gestiegen. Dass es aber keinen "Plan B" gab fuer den Fall wo TSMC's 40G Probleme vorzeigen wuerde ist NV's eigenes Problem und hier ist es genauso mit Sachen wie "execution" und Reaktionszeiten verbunden. Wenn man schon den Grips hat einen GT212@40nm zu stornieren weil man spuert dass 40G ziemlich problematisch sein wird, dann hat man auch einen "Plan B" parat.
Wenn AMD so klug war zwei dies (der eine mit doppelt so hoher Komplexitaet) ins Labor zu schicken um diese parallel uebersehen zu koennen, dann sehe ich nicht ein warum es bei NV nicht moeglich gewesen waere.
reunion
2010-01-09, 10:00:41
Wie war es nochmal dass Stromverbrauch bzw. Abwaerme "egal" waere wenn die Leistung stimmt? Die Reaktionen des Publikums kann man sehr leicht ueber die letzten paar Seiten sehen. Ich wiederhole nochmal dass NV keinen Bock hat den Stromverbrauch einer 285 zu uebertreffen (und falls es so sein sollte haben sie sich so verdammt falsch eingeschaetzt dass es nicht mehr schoen ist) und nein sie werden nicht so bloed sein einen ueberlauten Megabrummer zu bauen nur um einer 5970 die Faust zu zeigen.
Alleine der 6+8-Pin Stecker beweist doch schon das die TDP >225W liegt. Die Aussagen der Gehäusehersteller hören sich auch nicht gerade positiv an. Und wer sagt das man der 5970 um jeden Preis die Faust zeigt? Wenn man sowas macht dann höchstens um sich leistungsmäßig nicht komplett zu blamieren. Eigentlich beweisen ja schon die Tesla-Karten, wo man zwei Cluster deaktiviert und niedrige Taktraten ansetzt um <=225W zu bleiben das man den Verbrauch der GTX285 niemals halten wird können. Aber bald muss die Katze eh aus dem Sack, dann reden wir weiter.
=Floi=
2010-01-09, 10:07:40
ich wollte damit doch nur zeigen, dass sich die kühltechnik weiterentwickelt hat und man auch 250 watt leise bekommt.
diese 8+6 pin stecker und 6 phasen stromversorgung finde ich auch nicht schlecht, weil sie einfach eine reserve darstellt. egal wie viel die karte jetzt verbraucht. imho hast du und nv schon deutlich gemacht, dass man die alten werte anpeilt/unterbieten will.
edit
der stecker beweist gar nichts!
nv könnte auch die 225 watt aus den steckern ziehen um den pcie slot zu entlasten. das war schon immer ein gängiges mittel, weil die 75 watt aus dem slot zu instabilitäten bei billigen boards geführt hat! Wenn die karte einen guten stromsparmodus hat, dann springt die karte mal von 15 watt auf 215 watt und belastet das netzteil extremst.
AnarchX
2010-01-09, 10:08:14
Im XSF wird behauptet, dass ein GeForce NDA kurz nach dem 14. auslaufen soll und heute wohl schon Presse-Briefings abgehalten werden sollen: http://www.xtremesystems.org/forums/showthread.php?p=4191129#post4191129
reunion
2010-01-09, 10:13:23
Ein User mit 7 Postings ist halt nicht gerade Vertrauenserweckend, ein Launch am 14. wäre wohl längst durchgesickert und ist auch unrealistisch wenn es nicht ein reiner Paper-Launch werden soll.
Weil die Stecker grad mal wieder erwähnt wurden: jemand mal gezählt, wieviele Adern tatsächlich in den 8-Pin-Stecker gehen? Das sind paar mehr als die normalen 8, schaut mal genau hin
http://www.hwupgrade.it/immagini/fermi_geforce_triple_sli.jpg
http://www.legitreviews.com/images/reviews/1175/nvidia_geforce_100_2.jpg
was soll man dazu noch weiter sagen?
=Floi=
2010-01-09, 10:17:34
das täuscht. zähl oben die löststellen...
reunion
2010-01-09, 10:18:43
Mhm stimmt, da gehen tatsächlich zwei Kabeln zu dem einen 8-Pin Stecker. Auch sehr ungewöhnlich.
das täuscht. zähl oben die löststellen...
Schau dir mal das untere Bild an.
Da wurden in einen Schacht für eine Ader zwei gequetscht.
Praktisch nochmal ein 6 Pin in einen 8 Pin.
Auf die Anzahl der Lötstellen hat das keinen Einfluss.
=Floi=
2010-01-09, 10:31:20
das sind so doppelstecker für 2 x 8pin und die anderen kabel gehen einfach in die andere karte:
http://www.enermax.de/produkte/netzteile/revolution85.html
http://www.enermax.de/fileadmin/enermax/content/produkte/netzteile/kabel_und_anschluesse/cable_emc014.gif
das netzteil ist ja leider ein oem-teil...
man hat das kabel wohl nur nicht in die anderen karten eingesteckt, weil genug 8er frei waren.
Es ist auch offensichtlich das es eine einmalige Modifikation ist, da die Adern vom Hersteller getrennt wurden (Gummiband).
Irgendwie lässt das nur den Schluss zu, dass Fermi mehr als die 4870X2 verbraucht, was ich mir geade selbst nicht glaube XD.
das sind so doppelstecker für 2 x 8pin und die anderen kabel gehen einfach in die andere karte:
http://www.enermax.de/produkte/netzteile/revolution85.html
http://www.enermax.de/fileadmin/enermax/content/produkte/netzteile/kabel_und_anschluesse/cable_emc014.gif
das netzteil ist ja leider ein oem-teil...
man hat das kabel wohl nur nicht in die anderen karten eingesteckt, weil genug 8er frei waren.
Wo steht auf der Enermaxseite was?
Ich finde dazu überhaupt nichts und es sieht auch nicht so aus als wären auf dem Foto die Grafikkarten über einen 6 Pin verbunden.
Wozu auch?
mapel110
2010-01-09, 10:39:28
Die Aussagen der Gehäusehersteller hören sich auch nicht gerade positiv an.
Was gabs denn alles für Äußerungen bezüglich Fermi von Gehäuse-Herstellern? Ich weiß nur von der einen Ankündigung für ein Triple/Quad-Sli-Gehäuse von vor ein paar Tagen.
reunion
2010-01-09, 10:42:41
Was gabs denn alles für Äußerungen bezüglich Fermi von Gehäuse-Herstellern? Ich weiß nur von der einen Ankündigung für ein Triple/Quad-Sli-Gehäuse von vor ein paar Tagen.
Speaking to several case vendors at CES, we were told that while running one Fermi card alone or two single-GPU cards is fine, going any higher may introduce thermal issues. Though no firm temperatures were revealed, manufacturers said that users need to be extra careful about how they setup the innards of their gaming chassis.
A rep from one manufacturer said that Fermi-based cards will run hotter than the hottest ATI Radeon HD 5000 series.
http://www.tomshardware.com/news/nvidia-fermi-gpu-graphics,9384.html
Und die schon vorne von dir zitierte französische Quelle bezieht sich ja auch auf Gehäusehersteller.
reunion
2010-01-09, 10:54:51
edit
der stecker beweist gar nichts!
nv könnte auch die 225 watt aus den steckern ziehen um den pcie slot zu entlasten. das war schon immer ein gängiges mittel, weil die 75 watt aus dem slot zu instabilitäten bei billigen boards geführt hat! Wenn die karte einen guten stromsparmodus hat, dann springt die karte mal von 15 watt auf 215 watt und belastet das netzteil extremst.
Das war bei allen bis jetzt verkauften Karten auch nicht üblich, warum soll man es ausgerechnet bei Fermi machen? Die GTX295 hat fast 300W TDP und kommt auch mit 6+8Pin aus, die GTX275 AFAIK 214W und hat 2x6-Pin. Für das Netzteil ist es egal von wo der Strom gezogen wird.
Für das Netzteil ist es egal von wo der Strom gezogen wird.
Für das Mainboard nicht.
reunion
2010-01-09, 11:03:31
Für das Mainboard nicht.
Es bezog sich beim letzten Satz eindeutig auf das Netzteil. Und die 75W über den Slot sind spezifiziert, wenn ein Mainboard das nicht schafft dann ist es Müll. Zumal es bis jetzt ja auch ging.
=Floi=
2010-01-09, 11:08:44
klick auf der enermax seite auf: "modulare kabel"
http://www.enermax.de/produkte/netzteile/revolution85.html
wenn die karte so einen krassen stromsparmodus hat, dann könnte es schon sinn machen. es stand ja auch eine spannungserhöhung durch den treiber im raum etc. Vielelicht kommt er auch noch weg wie bei der 8800GTX. Dort gab es auch prototypen für spieleentwickler, die 8+6 pin hatten. zumindest ist es kein direktes zeichen für eine 225< watt theorie. Die 6 phasen deuten auch nicht direkt darauf hin, weil die 285er auch 6 phasen hatte, aber die 295er ebenfalls.
aha und was sagen die aus? das Fermi heisser wird als RV870? Die GPU ist 50% grösser...
für diese schlussfolgerung brauch ich jedenfalls keine hersteller nahen quellen... da die doch von anfang an klar war...
am ende zählt doch nur was man pro watt erreicht...
korrekt. aber glaubst du ernsthaft, dass die leistung/watt gut wird, wenn jetzt vermeldet wird, dass EINE firme heißer wird als die DUAL 5870er und die leistung aber nur an EINE 5870er herankommen soll?
also die dual fermi (wenns nicht was kastriertes, runtergetaktetes wird...) kann sich nvidia jedenfalls mittelfristig in die haare schmieren. ich glaub auch kaum, dass es so eine karte offiziell von nvidia geben wird. ich glaube eher stecken die alle kraft in einen leistungsfähigen refresh als sich jetzt mit diesem "heißen" eisen herumzuschlagen. ... vorausgesetzt die gerüchte mit den 300 watt pro single gpu treffen auch für die finale karte zu. wobei man da auch wieder sagen muss, dass dies wahrscheinlich bedeutet, dass sich das teil weiter verschieben könnte.
meiner meinung nach schauts noch schlimmer aus als damals mit dem NV30. das wird ein desastet, das sag ich euch.
reunion
2010-01-09, 11:20:47
zumindest ist es kein zeichen für eine 225< watt theorie.
Ein Zeichen für eine Theorie ist es allemal. Ob es wirklich so ist werden wir bald wissen. Und sorry Floi, aber es passt halt alles zusammen: Die Tesla-Karten mit zwei deaktivierten Clustern und niedrigen Taktraten bei einer TDP-Angabe von <=225W, die Berichte von Gehäusehersteller über heiße Karten und thermische Probleme, die Angaben von Fuad über die heiße und laute Fermi-Karte, der 6+8-Pin Stromanschluss. Fix ist nix, aber es würde mich mittlerweile schon sehr wundern wenn sich Fermi plötzlich als Stromsparwunder präsentieren würde.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.