PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28

Schlammsau
2010-05-15, 15:53:26
Sie wurde generell gehypt, natürlich nicht wegen der Leistungsaufnahme - die wurde unter den Tisch gekehrt mit eben der Aussage "takte halt den VRAM runter". Die 60W im Auslieferungszustand aber bleiben - so wie die 50W der GTX480. Die HD4890 macht übrigens Peaks von über 220W, eine GTX480 ist da "nur" gut 40% drüber mit rund 320W - aber mal gepflegt satte 80% schneller. Ergo @ stock (deutlich) energieeffizienter in 2D wie 3D, ergo würde ich in Relation die Radeon als "abartig" und die Geforce als "unschön" abtun.

Absolut gesehen ist eine Asus Mars abartig - die kommt auf kranke 470W.

Abartig finde ich, dass du eine 2 Jahre alte Grafikkarte mit einer 6 Wochen jungen vergleichst! Und wie hoch ist der Stromverbrauch einer 4870 mit mehr als einem Monitor.....richtig auch "nur" 60 Watt. Sorry aber ich vergleiche auch nicht die 8800Ultra mit der 4890!
Eigentlich wurde die 4890 nie wirklich gehypt, sie waren zu laut und auch zu stromhungrig. Und ihr beide (Du und Raff) habt nahezu jede Möglichkeit genutzt die Karte wegen ihrer "TDP-Lüge" in der Luft zu zerreissen.

boxleitnerb
2010-05-15, 16:04:46
Da musste ich aber auch grad lachen. Und auch noch 2 unterschiedliche Herstellungsprozesse, die Chipgröße ist deutlich unterschiedlich. Wie man das vergleichen kann, geht mir grad nicht in die Birne.

AYAlf_2
2010-05-15, 16:08:04
Sie wurde generell gehypt, natürlich nicht wegen der Leistungsaufnahme - die wurde unter den Tisch gekehrt mit eben der Aussage "takte halt den VRAM runter". Die 60W im Auslieferungszustand aber bleiben - so wie die 50W der GTX480. Die HD4890 macht übrigens Peaks von über 220W, eine GTX480 ist da "nur" gut 40% drüber mit rund 320W - aber mal gepflegt satte 80% schneller. Ergo @ stock (deutlich) energieeffizienter in 2D wie 3D, ergo würde ich in Relation die Radeon als "abartig" und die Geforce als "unschön" abtun.

Absolut gesehen ist eine Asus Mars abartig - die kommt auf kranke 470W.
ein nicht ganz fairer vergleich .. wie ich finde.. :rolleyes:

boxleitnerb
2010-05-15, 16:12:30
Ich bin übrigens verdammt gespannt, wie die Verbrauchswerte der Nachfolger aussehen. Anhand dessen, was man momentan weiß, hat SI eine TDP ähnlich der GTX470. Eine unschöne Entwicklung, wie ich finde, sieht man hier doch wieder einen leichten Trend aufwärts.

Botcruscher
2010-05-15, 16:16:15
Performance pro Watt ist eh einen Marketingbullshit-Einheit.


Absolut gesehen ist eine Asus Mars abartig - die kommt auf kranke 470W.

Dualkarte. Die stehen eh in einer (zweifelaften) anderen Liga.

Gast
2010-05-15, 16:20:06
Ich bin übrigens verdammt gespannt, wie die Verbrauchswerte der Nachfolger aussehen. Anhand dessen, was man momentan weiß, hat SI eine TDP ähnlich der GTX470. Eine unschöne Entwicklung, wie ich finde, sieht man hier doch wieder einen leichten Trend aufwärts.

Wie soll Es auch anders sein?
Gleicher Fertigungsprozess + mehr Transistoren + ähnlicher Takt(Spekulation) = höherer Verbrauch.

boxleitnerb
2010-05-15, 16:21:40
Performance pro Watt ist eh einen Marketingbullshit-Einheit.

Warum? Energieeffizienz ist doch ein aussagekräftiges Kriterium. Ist vielleicht nicht für jeden wichtig (Highend), für manchen aber schon.

@Gast:
So ein Prozess reift ja auch etwas mit der Zeit. Mal sehn :)

Gast
2010-05-15, 16:31:23
@Gast:
So ein Prozess reift ja auch etwas mit der Zeit. Mal sehn :)
Ohne großartige Änderungen am Prozess(wie aktuell beim 45 nm von GF), dürften da großartige Fortschritte ausbleiben.

Gast
2010-05-15, 16:35:29
Abartig finde ich, dass du eine 2 Jahre alte Grafikkarte mit einer 6 Wochen jungen vergleichst! Und wie hoch ist der Stromverbrauch einer 4870 mit mehr als einem Monitor.....richtig auch "nur" 60 Watt. Sorry aber ich vergleiche auch nicht die 8800Ultra mit der 4890!
Eigentlich wurde die 4890 nie wirklich gehypt, sie waren zu laut und auch zu stromhungrig. Und ihr beide (Du und Raff) habt nahezu jede Möglichkeit genutzt die Karte wegen ihrer "TDP-Lüge" in der Luft zu zerreissen.

Muss man auch nicht, wenn man die GTX480 zur HD5870 in Relation setzt, ist diese deutlich hungriger nach Energie.
Um jedoch die gleiche Leistung (durchgängig) wie die der GTX480 zu erreichen, muss der Takt der HD5870 deutlich erhöhrt werden und somit auch mit einen deutlichen Spannnugsanstieg(1Ghz GPUtakt mit ungefähr 1,5V), womit sie dann sogar ähnlihc vile oder mehr als die GTX säuft

Gast
2010-05-15, 16:41:44
Muss man auch nicht, wenn man die GTX480 zur HD5870 in Relation setzt, ist diese deutlich hungriger nach Energie.
Um jedoch die gleiche Leistung (durchgängig) wie die der GTX480 zu erreichen, muss der Takt der HD5870 deutlich erhöhrt werden und somit auch mit einen deutlichen Spannnugsanstieg(1Ghz GPUtakt mit ungefähr 1,5V), womit sie dann sogar ähnlihc vile oder mehr als die GTX säuft

Klar! :facepalm:

Gast
2010-05-15, 16:48:18
Es war ein Schreibfehler. (man kann ja nicht editieren, wenn man nicht registriert ist. )
Meine 1,35V

Botcruscher
2010-05-15, 16:50:29
Warum? Energieeffizienz ist doch ein aussagekräftiges Kriterium. Ist vielleicht nicht für jeden wichtig (Highend), für manchen aber schon.


-Weil die Einheit absolut keinen Aussagegehalt haben. Lowend-Karten haben einen super P/W (Performace/Watt) und sogar P/L(Preis/Leistung. Deswegen sind sie trotzdem zu langsam.
-Vergleiche mit der Vorgängergeneration verbieten sich ebenso. Das die Geschwindigkeit schneller als der Verbrauch wächst ist Gesetz.
- Kann man damit wunderbar zu langsame oder zu stromhungrige Produkte schön reden. Man sucht sich halt die passenden Vergleichspartner...

boxleitnerb
2010-05-15, 16:56:13
Das stimmt alles, was du sagst. Man darf halt nur die direkten Gegenspieler vergleichen. Da hat man allerdings den Vorteil, verschiedene Größen gleich direkt miteinander in Verbindung zu bringen. Fermi verbraucht viel, leistet aber auch viel. So kann man abschätzen, welche Karte letztendlich effizienter arbeitet.
Natürlich steht man vor dem Problem, das im Prinzip für jedes einzelne Spiel gesondert machen zu müssen, der Verbrauch und die Leistung schwanken ja.

PCGH hat bei ihrem Fermi-Review ja schon ein paar Verbrauchswerte von Spielen gemessen, wenn ich mich richtig erinnere. Das könnte man doch prima mit den fps zusammenwurschteln.

Gast
2010-05-15, 17:16:25
FPS sind keine Meßgröße für Leistung.

boxleitnerb
2010-05-15, 17:22:00
Man kann es auch alles kaputtverkomplizieren, wenn man will :rolleyes:

Raff
2010-05-15, 17:24:16
DMC 4 Benchmark DX10 mit 8xSGSAA: 80°C bei 68% Lüftersteuerung. Fordernste nach Furmark.

Das sind 4,8 Sone.

MfG,
Raff

Gast
2010-05-15, 17:26:54
Man kann es auch alles kaputtverkomplizieren, wenn man will :rolleyes:
Man kann es sich auch einfach nehmen und nur 3DMark bzw das vercheateten Crysis hernehmen.
Am besten noch mit den Settings, mit den uns die Presse seit Jahren qualt, sprich kein TAA, 8xMSAA und 16xLQAF.

y33H@
2010-05-15, 17:31:06
8x MSAA kam erst mit den HD4k auf - damit auch mal schneller sind *SCNR* Praktisch ist reines 8x MSAA imo fürn A****.

Aber offenbar war das Geschrei groß genug, dass NV beim GF100 einzig für 8x MSAA Transistor-Ressourcen verpulvert hat :usad:

Fetter Fettsack
2010-05-15, 17:54:23
Praktisch ist reines 8x MSAA imo fürn A****.

Also ich hab schon einen merklichen Unterschied zwischen 4xMSAA und 8xMSAA gesehen (BF2 etwa sehr markant).
Dass sowas gerade von dir als ausgewiesenen BQ-Freund kommt, nun, das wundert mich schon ein bissl ;D .

Gast
2010-05-15, 17:59:41
Aber offenbar war das Geschrei groß genug, dass NV beim GF100 einzig für 8x MSAA Transistor-Ressourcen verpulvert hat :usad:
Und das kann ich der Meute nicht verzeihen. Ebenso das man an TMUs gespart, das hat den selben Hintergrund.

Fetter Fettsack
2010-05-15, 18:11:54
Ebenso das man an TMUs gespart, das hat den selben Hintergrund.

Könntest du mir das bitte näher erläutern? Ich kann das nämlich nicht wirklich nachvollziehen und habe bis jetzt gedacht, dass das auch aufgrund der Größenregulierung des Chips erfolgte.

Bucklew
2010-05-15, 18:17:43
Performance pro Watt ist eh einen Marketingbullshit-Einheit.
Technisch recht interessant, nur wen interessiert es bei einer Karte für um die 500€? Ich denke mal die Wahl ob Porsche oder Ferrari fällt man sicherlich nicht wegen des Benzinverbrauchs, bei Grafikkarten interessiert es doch genauso wenig jemanden.

Und natürlich das übliche Problem: Es schreien eh die am lautesten, die sich so eine Karte eh nie kaufen würden ;)

Gast
2010-05-15, 18:18:55
AF im Allgemeinen kostet mehr % als beim Vorgänger.
Ich nehme an es liegt an den wenigen TMUs, auch wenn eine einzelne besser als beim Vorgänger arbeitet.
Scheint mir zumindest der plausibelste Grund und wenns nicht so ist, so bleibt das teurere AF dennoch teurer, sprich mich wiedern die die dafür mitverantwortlich weiterhin an.

y33H@
2010-05-15, 18:27:15
@ Fetter Fettsack

Was soll ich mit reinem 8x MSAA, wenn ich optisch höherwertiges 4x TAA für den gleichen "Preis" erhalte?

Fetter Fettsack
2010-05-15, 19:04:54
@ y33H@

Für mich als 4670 User macht 8xMSAA durchaus Sinn (in älteren Games halt :ulol:), denn entweder gibt es TSAA nur bei nVidia oder ich bin zu blöd den Schalter dafür zu finden.

Sprich: in der Wüste kommt einem nach 100km Marsch eine noch so verkommene Wasserlache wie der Garten Eden vor.

EDIT: Insofern habe ich deine Aussage von meinem subjektiven Blickwinkel aus bewertet, der außer MSAA nichts anderes kennt (spärliche SSAA Erfahrungen ausgenommen).

derguru
2010-05-15, 19:07:29
@Fetter Fettsack

wie wärs mal mit adaptive AA?

Gast
2010-05-15, 19:09:24
Für mich als 4670 User macht 8xMSAA durchaus Sinn (in älteren Games halt :ulol:), denn entweder gibt es TSAA nur bei nVidia oder ich bin zu blöd den Schalter dafür zu finden.
Heisst auch AAA.
Bedank dich bei der Presse, bzw einigigen Querköpfen hier, das du eine Karte erworben hast, deren Potential dir nie klar geworden ist.

Raff
2010-05-15, 19:16:26
Äh, auch eine HD 4670 beherrscht 24x ED-CFAA (8x MSAA plus Edge-Detect-Downfilter), 8x MSAA ist dort also nicht das Ende der FAAhnenstange. Und das genannte Adaptive-AA (AAA). Hilft aber beides 'nen Scheiß gegen Textur-/Shaderflimmern. :ulol:

MfG,
Raff

Fetter Fettsack
2010-05-15, 19:17:08
Oha, AAA hab ich schon seit dem ersten Tag aktiviert. Dass es Sachen wie Zäune "schöner, weil durchsichtiger/transparenter" macht, war mir auch klar, aber dass das Ganze dann TSAA heißt, das wusste ich nicht.

Ich habe immer 8xMSAA und AAA gefahren, was immer das jetzt genau sein mag und habe, um mich wieder einmal zu wiederholen, einen merkbaren Unterschied zu 4xMSAA + AAA festgestellt. Sofern ich mir da jetzt nicht unbemerkt einen Widerspruch geleistet habe, bleibe ich bei meiner mit Screens belegbaren Ansicht, dass 8xMSAA nicht völlig unnötig ist.

EDIT:

Danke Raff, jetzt sind mir plötzlich auch die Samplesanzahl-Anzeigen bei der Filterauswahl aufgefallen. Hab mich schon Ewigkeiten gefragt, wie die Leute das alles mit der HD4XXX Serie hinbekommen haben. Mein Gott, wie blamabel :ulol: . Naja, wenigstens kenn' ich mich jetzt mit dem CCC aus.^^

Raff
2010-05-15, 19:20:49
Wir sind zwar völlig themenfern, aber 8x MSAA ist natürlich nicht völlig sinnlos. Es gibt einige Spiele (oder Szenen), in denen harte Kontraste mehr als vier AA-Samples klar sichtbar machen. Das sind aber Ausnahmen. Ob eine braune Wand auf schwarzem Hintergrund nun 4x oder 8x MSAA abbekommt, kommt gerade in steilen Winkeln ohne gescheiten "Pixelplatz" aufs gleiche raus. Der geringe Leistungseinbruch auf Radeons erlaubt 8x MSAA seit Jahren zu einem vernünftigen Verhältnis: winzig mehr BQ zu einem winzigen Fps-Preis. Das passt. Hat man dann aber SSAA oder eben AAA gesehen, ist 8x MSAA plötzlich wenig erstrebenswert.

Danke Raff, jetzt sind mir plötzlich auch die Samplesanzahl-Anzeigen bei der Filterauswahl aufgefallen. Hab mich schon Ewigkeiten gefragt, wie die Leute das alles mit der HD4XXX Serie hinbekommen haben. Mein Gott, wie blamabel :ulol: . Naja, wenigstens kenn' ich mich jetzt mit dem CCC aus.^^

:biggrin:

MfG,
Raff

derguru
2010-05-15, 19:23:04
@Fetter Fettsack
ähm,welche spiele kannst du eigentlich mit 8xmsaa+aaa spielen?mit der karte sollten es nicht viele sein.

Hilft aber beides 'nen Scheiß gegen Textur-/Shaderflimmern. :ulol:
AAA ist besser als nichts.

Fetter Fettsack
2010-05-15, 19:31:17
Hauptsächlich BF2 im Singleplayer. Da habe ich mich stundenlang mit Vergleichen ausgetobt. Ging eigentlich fast nie unter 23 fps (zuerst schon, bis ich bemerkte, dass ich mit F9 nicht nur die Fahrzeugansicht gewechselt habe sondern auch Fraps begonnen hat mitzufilmen^^). Einzig bei Maps mit enorm vielen Baugerüsten und Kränen hatte ich beim Draufschauen Framedrops auf 16 fps gehabt (und ich hab mit über 100 Bots gespielt, die, wenn sie im Blickfeld waren, auch Leistung gebraucht haben [und den RAM immer überlaufen haben lassen :ulol:]).

EDIT: Allerdings, wenn ich jetzt meine neuen Erkenntnisse anwenden und der armen Karte 24x ED-CFAA reinwürge würde, wäre das Ergebnis wohl eine Diashow. Wobei, da stört es nicht, wenn die Reflexe langsam sind.^^

Vielleicht probier ich das extra noch aus.

EDIT: Gothic3 (so es die Einstellungen aus dem Treiber überhaupt übernimmt), Doom3 und Quake4 waren auch dabei. Die beiden letzteren auf Auflösungen wie 1024x768 bzw 1440x900, G3 und BF2 jeweils auf 1680x1050.

Gast
2010-05-15, 19:50:38
Hilft aber beides 'nen Scheiß gegen Textur-/Shaderflimmern. :ulol:
AA ist dazu da Texturen zu filtern. ;)

Raff
2010-05-15, 19:56:57
EDIT: Gothic3 (so es die Einstellungen aus dem Treiber überhaupt übernimmt), Doom3 und Quake4 waren auch dabei. Die beiden letzteren auf Auflösungen wie 1024x768 bzw 1440x900, G3 und BF2 jeweils auf 1680x1050.

Du scheinst recht leidensfähig zu sein. BF: BC2 auf einer HD 4670 mit 8x AAA? Uah. :D Erinnert mich an einen Kumpel, der nach der Jahrtausendwende mit einem Pentium II und Riva TNT von grandiosen "Zeitlupeneffekten" erzählte, die ihm einen Spiel-/Reaktionsvorteil verschafften. ;)

AA ist nicht dazu da Texturen zu filtern. ;)

Pfuschen Texturfilter und Spielinhalt, muss eben Supersampling ran.

MfG,
Raff

Fetter Fettsack
2010-05-15, 20:02:48
Du scheinst recht leidensfähig zu sein. BF: BC2 auf einer HD 4670 mit 8x AAA? Uah.

So schlimm ist es auch wieder nicht, wenn ich BF2 schreibe, dann meine ich es auch.^^

BF BC2 verweigert mir auf Vista aufgrund der Tatsache, dass ich einfach den Ordner von der XP Installation rüberkopiert habe (viel zu lahme Internet-Verbindung, daher keine Lust auf unnötiges Patches laden), das Einstellen von AA. Naja, so verrückt bin ich auch wieder nicht, dass ich einen Onlineshooter auf meiner Karte mit solchen Einstellungen spielen würde. Andererseits, was tut man nicht alles für BQ :D.

Raff
2010-05-15, 20:10:35
Oh, sorry. X-D Na gut, BF2 geht wohl.

Tipp: Kauf dir eine HD 5750 oder 5770 (stets mit 1.024 MiB!) und wirf 'nen Blick auf SGSSAA. Du wirst es lieben.

Und nun bitte wieder zurück zu Furby! Ich warte ja immer noch gespannt auf die Designs von Palit/Gainward, nachdem Galaxy/KFA² wohl eher nicht hierzulande aufschlägt ...

MfG,
Raff

Fetter Fettsack
2010-05-15, 20:24:53
Steht schon seit Monaten auf der Einkaufliste, trotzdem danke für den Vorschlag. :-)

Gibt es denn schon Custom Designs von Zotac? Die sind doch nVidias Leibpartner.

Gast
2010-05-15, 23:00:30
GTX 470 im Single-Slot-Design:
http://img641.imageshack.us/img641/7578/003twh.jpg (http://img641.imageshack.us/i/003twh.jpg/)

http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20100515005%2F

Wie da wohl die Last-Lautstärke aussieht? :ugly:

Fetter Fettsack
2010-05-15, 23:49:51
Und erst die Temperatur. Wenn man den GF100 als Single Slot will, dann ist eigentlich nur eine Wasserkühlung wirklich brauchbar (zumindest kann ich mir nichts anderes vorstellen).

Gast
2010-05-15, 23:52:14
GTX 470 im Single-Slot-Design:
http://img641.imageshack.us/img641/7578/003twh.jpg (http://img641.imageshack.us/i/003twh.jpg/)

http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20100515005%2F

Wie da wohl die Last-Lautstärke aussieht? :ugly:
Da müssens aber an der Spannung massiv nach unten rumgedreht haben. Mit default VCore bekommt der Kühler und der Lüfter das nie im Leben gebacken. Der Lüfter ist für niedrigere Drehzahlen im Vergleich zum Stock-Lüfterkonstruiert. Ist garantiert leiser.

Megamember
2010-05-16, 00:37:50
Das Ding sieht aus wie von irgend nem SChlosser mal schnell zusammengebastelt.:)

hq-hq
2010-05-16, 00:52:06
immerhin wärs schonmal das grosse pcb und wahrscheinlich is besserer ram verbaut damit die vcore auf vielleicht 0,900v in 3d liegen kann... oder es is eigentlich ne gtx460 ^^

OC_Burner
2010-05-16, 03:48:12
Eine rein theoretische Frage: Wenn man die GTX480 fleißig undervoltet und auch mit dem Takt etwas zurückfährt, würde die dann im Referenzdesign in einem akzeptablen Lautstärkerahmen laufen?

Wenn man die Taktraten vom GPU/Speicher der GTX480 um 21% senkt und die Spannung auf 0.825V setzt verbraucht die Karte nur noch noch ca. 140-150W. Theoretisch wäre so auch eine DualFermi realisierbar. Bei 100%'er SLI-Skalierung fast 80% schneller wie eine Single GTX480.

Fetter Fettsack
2010-05-16, 08:47:35
Theoretisch wäre so auch eine DualFermi realisierbar. Bei 100%'er SLI-Skalierung fast 80% schneller wie eine Single GTX480.

Also wäre es fast naheliegend, dass man solches Konstrukt irgendwann erwarten kann, da nVidia, so man von deinen Werten ausgeht, ja dann die momentan ultimativste Rutenschwellkörper-Prothese im Angebot hätte.

Gast
2010-05-16, 10:13:15
So eine Konstruktion wäre bei Peakleistungen von 600W aufwärts. Das ist mal locker das doppelte der Spezifikation. Mars war schon mit wesentlich weniger kaum stabil zu bekommen.

Gast
2010-05-16, 12:37:34
Steht schon seit Monaten auf der Einkaufliste, trotzdem danke für den Vorschlag. :-)

Gibt es denn schon Custom Designs von Zotac? Die sind doch nVidias Leibpartner.
Es wäre mit neu das es von Zotac überhaupt Custom Designs gibt ?

@Singleslot
Mhh naja, wenn eine HD4850SingleSlot schon mehr asl 4Sone erreicht, vermute ich hier wohl 120Sone. :D

Skinner
2010-05-16, 12:51:32
Was ihr immer mit der UVP habt.....keiner Weiss genau wie hoch, die jeweilige UVP ist. Es gibt mittlerweile so viele Custom HD5000. Eine Tatsache ist, die HD5870 zB kostet nach wie vor um die 350€, während die GTX400 Serie fast täglich einige €uros verliert. Beide Serien sind mehr als gut verfügbar, also daran kanns nicht liegen!


Die GTX 4x0 Karten sind erst wirklich gut seit knapp einer Woche verfügbar. Aktuell schaut es so aus das ein überangebot bei den Karte da ist (Karten sind in größeren Stückzahlen in der Distribution lagernd). Bei den 5870 Karten schaut es dort ganz anders aus. Sapphire z.B. kann im moment gar nicht liefern.

Gast
2010-05-16, 12:52:00
So eine Konstruktion wäre bei Peakleistungen von 600W aufwärts. Das ist mal locker das doppelte der Spezifikation. Mars war schon mit wesentlich weniger kaum stabil zu bekommen.
Eine normale 470 braucht keine 300W. Diese noch weniger. Eine Dual muss nicht aus aus 2 470er bestehen.

Dural
2010-05-16, 14:23:38
Nvidias CEO Jen-Hsun Huang sagte, dass eine hohe Nachfrage seitens der Konsumenten für die neuen Chips existiere und bereits einige 100.000 Exemplare ausgeliefert wurden.

http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2010/mai/nvidia_gute_quartalszahlen_fermi/

hey charli wo sind den jetzt deine max 10.000 stück hahaha :P

Gast
2010-05-16, 14:25:36
http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2010/mai/nvidia_gute_quartalszahlen_fermi/

hey charli wo sind den jetzt deine max 10.000 stück hahaha :P
löl, und beide sind gleichermaßen unglaubwürdig.

Iruwen
2010-05-16, 14:45:49
Nvidia kann zumindest mehr als überzeugende Quartalszahlen auf den Tisch legen.

Gast
2010-05-16, 14:48:50
Der CEO des Marktführers ist glaubwürdiger als irgendein Hinterhof Newsschreiber, der ganz offensichtlich von einer anderen Firma für News bezahlt wird.

Gast
2010-05-16, 15:00:48
Nvidia kann zumindest mehr als überzeugende Quartalszahlen auf den Tisch legen.

137mio Gewinn war nicht gerade überzeugend. Selbst AMD hat fast das doppelte gemacht im Q1.

=Floi=
2010-05-16, 15:05:19
Nvidia kann zumindest mehr als überzeugende Quartalszahlen auf den Tisch legen.
die gehörten aber nicht dazu. bei dem missmanagement auch kein wunder. die normalen 40nm karten sind ein witz und sonst gibt es auch noch genug kritikpunkte an deren aktueller strategie.

Schlammsau
2010-05-16, 15:10:44
Nvidia kann zumindest mehr als überzeugende Quartalszahlen auf den Tisch legen.

Die guten Quartalszahlen beweisen einmal mehr, wie klein und unwichtig der dedizierte Grafikkartenmarkt ist. Die halbjährige Verzögerung und das noch nicht einmal vorhandene Low End und Mainstream Portfolio, haben keinerlei Auswirkung auf die Bilanz des Unternehmens.

Schon krass irgendwie ..... sie wären auch ohne Fermi noch gut in den schwarzen Zahlen. Wo macht nVidia eigentlich das meiste Geschäft?

Gast
2010-05-16, 15:16:15
Die guten Quartalszahlen beweisen einmal mehr, wie klein und unwichtig der dedizierte Grafikkartenmarkt ist. Die halbjährige Verzögerung und das noch nicht einmal vorhandene Low End und Mainstream Portfolio, haben keinerlei Auswirkung auf die Bilanz des Unternehmens.

Schon krass irgendwie ..... sie wären auch ohne Fermi noch gut in den schwarzen Zahlen. Wo macht nVidia eigentlich das meiste Geschäft?

Alleine >300mio $ Umsatz und fast genau so viel Gewinn kommt vom Quadro-Segment. Ohne dem hätte NV ein gewaltiges Problem, doch dank dieser Cash-Cow haben sie gut lachen.

Sven77
2010-05-16, 15:19:46
Alleine >300mio $ Umsatz und fast genau so viel Gewinn kommt vom Quadro-Segment. Ohne dem hätte NV ein gewaltiges Problem, doch dank dieser Cash-Cow haben sie gut lachen.

In dem Bereich ist nVidia quasi Monopolist..

AYAlf_2
2010-05-16, 15:49:10
Die guten Quartalszahlen beweisen einmal mehr, wie klein und unwichtig der dedizierte Grafikkartenmarkt ist. Die halbjährige Verzögerung und das noch nicht einmal vorhandene Low End und Mainstream Portfolio, haben keinerlei Auswirkung auf die Bilanz des Unternehmens.

Schon krass irgendwie ..... sie wären auch ohne Fermi noch gut in den schwarzen Zahlen. Wo macht nVidia eigentlich das meiste Geschäft?

das sehe ich anders ... warum hat wohl nvidia ihre uralt chips (dx10) noch mal umgelabelt? genau, damit der kunde auch diese als vermeintlich neue einkauft. und da die meisten kunden keine ahnung haben was, wie, wo, wann und warum, kaufen sie auch umgelabelten nvidia ausschuss. :rolleyes:

Sven77
2010-05-16, 15:56:40
das sehe ich anders ... warum hat wohl nvidia ihre uralt chips (dx10) noch mal umgelabelt? genau, damit der kunde auch diese als vermeintlich neue einkauft. und da die meisten kunden keine ahnung haben was, wie, wo, wann und warum, kaufen sie auch umgelabelten nvidia ausschuss. :rolleyes:

Jo, musst nur ganz fest dran glauben das sie damit ein Quartalsplus gemacht haben :rolleyes:

LovesuckZ
2010-05-16, 16:02:08
Cool, das virale Marketingteam von AMD ist wieder unterwegs. :lol:
Dabei sind die Zahlen doch für jeden öffentlich einsehbar. Aber mit der Wahrheit hat's man ja so nicht beim viralen Marketing bei AMD.

hq-hq
2010-05-16, 18:15:18
um nvidia muss man sich keine sorgen machen und seit einiger zeit, zum glück, auch nicht mehr um amd - sind ja auch wieder im plus und hoffentlich noch gut mit kohle eingedeckt dank intel hihi

Mancko
2010-05-16, 20:06:18
137mio Gewinn war nicht gerade überzeugend. Selbst AMD hat fast das doppelte gemacht im Q1.

Äh irgendwie scheinst du hier aber AMD's CPU, Chipsatz und Grafikgeschäft zusammenzulegen.
Im Bereich Grafik liegen sie von der Profitabilität aber sowas von deutlich hinter Nvidia.

In jedem Fall ist der CEO glaubwürdiger als irgendein News Schreiber im Netz, vor allem wenn es um Quartalszahlen geht, deren Richtigkeit von Wirtschaftsprüfern abgenommen wird und die auch von der SEC überwacht werden. Also wird er da nicht irgendeinen Mist labern.

Dural
2010-05-16, 20:35:28
ich finde die Zahlen beindruckent!

Trotz den ganze rissen Problemen die sie derzeit mit Fermi haben und dann solche Zahlen auf den Tisch zu legen... Einfach WOW da sieht man einfach die WELTEN bei der Geschäftführung/Marketing zwischen AMD und NV... und das sich "Software" (Cude/PhysX/Treiber/Quadro usw.) halt DOCH ausbezahlen ;)

Ich denke aber das gerade die GT21x noch mächtig gut laufen gerade bei den OEMs und so die Zahlen hoch heben...

Gast
2010-05-16, 23:16:25
NVidia hat eben bei der breiten Masse immer noch einen größeren Namen als Ati. AMD mag zwar das bessere Design und die bessere Produktlinie haben, aber bis das bei den OEM-Käufern angeht vergeht eine Weile. Die meisten OEM-Käufer greifen zu einer Marke, weil sie von irgendeinem Bekannten vor ein paar Jahren mal gehört haben, dass diese Marke besser sein soll. Nur ein kleiner Teil ist wirklich up-to-date und weiß, wie die Lage im Moment ausschaut. Das ist auch irgendwie verständlich - nicht alle sind solche Geeks wie die meisten hier. Die Umbenennung von alten Produkten tut da ihr Übriges. Die meisten Leute wissen eben nicht, was sie da kaufen und verlassen sich auf den Namen.

So lässt sich erklären, warum NVidia in letzter Zeit kaum Federn lassen musste. Wenn sie aber so weiter machen, wird ihr Image irgendwann darunter Leiden und dann können sie sich nicht mehr auf ihren Namen verlassen. Zumindest aber haben sie noch das Quadro-Segment als relativ stabiles Standbein. Solange sie dort keine ernsthafte Konkurrenz bekommen, kann ihnen wenig passieren.

LovesuckZ
2010-05-16, 23:27:34
Die Lage im Moment ist so, dass DX11 laut AMD Fanboys und Viral Marketingler von AMD sehr nutzbeschränkt ist. Und somit verliert den größten Vorteil gegenüber nVidia. Im Low-End bietet nVidia mit der konkurrenzlosen 3D Unterstützung etwas, dass AMD nicht im entfernsten hat. Diese Investition scheint sich mehr als zu lohnen. Im Notebookbereich kann man mit Optimus selbst in kleinere Books eine diskrete Karte einbauen und ION 1 ersetzen. Auch ein Bereich, wo AMD nichts hat.
Einzig Juniper ist konkurrenzlos. Ansonsten bietet nVidia das, was der Markt will. Und dies wird eben auch in Form von Käufen belohnt.

hq-hq
2010-05-16, 23:28:01
lol, is halt schwer mit dem langsameren design, keinen werbewirksamen features und der unter druck geratenden produktlinie ... da muss man halt jetzt wieder ordentlich marktanteile im high-end segment abgeben und bald auch im performance...

hab ich eigentlich schon erwähnt wie geil ich das geniale super cuda wasser in just cause 2 finde ? :freak:

Mancko
2010-05-16, 23:28:34
So lässt sich erklären, warum NVidia in letzter Zeit kaum Federn lassen musste. Wenn sie aber so weiter machen, wird ihr Image irgendwann darunter Leiden und dann können sie sich nicht mehr auf ihren Namen verlassen. Zumindest aber haben sie noch das Quadro-Segment als relativ stabiles Standbein. Solange sie dort keine ernsthafte Konkurrenz bekommen, kann ihnen wenig passieren.

Man muss aber auch bedenken, dass Nvidia mittlerweile auch ein gutes Stück Softwarefirma ist. Der ganze Developer Support und die Tools die so um den Bereich Gaming und professionelle Berechnungen gebaut werden.
Da sieht AMD einfach schwach aus. Es reicht eben nicht einfach nur gute Hardware zu bauen. Die Software gehört mittlerweile mindestens genauso dazu. Genau aus diesen Gründen sind sie auch quasi Monopolist im Quadro und Tesla bereich. Solange das so ist, können die es sich auch leisten die größeren DIE's als die Konkurenz zu bauen. Da wird dann eben hübsch quersubventioniert.

Gast
2010-05-17, 01:38:43
Man muss aber auch bedenken, dass Nvidia mittlerweile auch ein gutes Stück Softwarefirma ist. Der ganze Developer Support und die Tools die so um den Bereich Gaming und professionelle Berechnungen gebaut werden.
Da sieht AMD einfach schwach aus. Es reicht eben nicht einfach nur gute Hardware zu bauen. Die Software gehört mittlerweile mindestens genauso dazu. Genau aus diesen Gründen sind sie auch quasi Monopolist im Quadro und Tesla bereich. Solange das so ist, können die es sich auch leisten die größeren DIE's als die Konkurenz zu bauen. Da wird dann eben hübsch quersubventioniert.

Du hast Recht, da ist Nvidia wirklich vorraus. Ich denke Ati sollte in dem Bereich auch etwas investieren. Die entsprechende Hardware haben sie ja. Wäre schade, wenn sie sich so ein umsatzstarkes Geschäft wegen fehlender Softwareunterstützung durch die Lappen gehen lassen.

aths
2010-05-17, 09:32:47
Man muss aber auch bedenken, dass Nvidia mittlerweile auch ein gutes Stück Softwarefirma ist. Der ganze Developer Support und die Tools die so um den Bereich Gaming und professionelle Berechnungen gebaut werden.Nvidia ist seit einigen Jahren, rein von den Ausgaben betrachtet, mehr Softwareentwickler als Hardwareentwickler.

Bucklew
2010-05-17, 09:59:22
137mio Gewinn war nicht gerade überzeugend. Selbst AMD hat fast das doppelte gemacht im Q1.
AMD hat auch ungefähr dreimal soviele angestellte

Gast
2010-05-17, 10:02:03
Die Lage im Moment ist so, dass DX11 laut AMD Fanboys und Viral Marketingler von AMD sehr nutzbeschränkt ist. Und somit verliert den größten Vorteil gegenüber nVidia. Im Low-End bietet nVidia mit der konkurrenzlosen 3D Unterstützung etwas, dass AMD nicht im entfernsten hat. Diese Investition scheint sich mehr als zu lohnen. Im Notebookbereich kann man mit Optimus selbst in kleinere Books eine diskrete Karte einbauen und ION 1 ersetzen. Auch ein Bereich, wo AMD nichts hat.
Einzig Juniper ist konkurrenzlos. Ansonsten bietet nVidia das, was der Markt will. Und dies wird eben auch in Form von Käufen belohnt.

Bei dir scheint das Virale Marketing von NV ja wie immer voll zu fruchten. 3D ist sowas von belanglos, das auch nur zu erwähnen ist schon lächerlich. Da ist die Möglichkeit bei AMD mit mehr als zwei Monitoren mit Sicherheit höher einzustufen.

Gast
2010-05-17, 10:06:50
Die Lage im Moment ist so, dass DX11 laut AMD Fanboys und Viral Marketingler von AMD sehr nutzbeschränkt ist.

Wer ist hier Marktschreier Nummero Uno ?
Mir fallen da sofort 5 Namen ein ! Deiner ganz Oben auf der Liste !

Wer hinkt über 6 Monate hinterher und macht jetzt den grossen Zampano ?


Im Low-End bietet nVidia mit der konkurrenzlosen 3D Unterstützung etwas, dass AMD nicht im entfernsten hat.

....

Einzig Juniper ist konkurrenzlos.
Im eigenen Selben Satz sich selbst Widersprochen ! RESPEKT !
Konkurrenzlos !! ;-)


lol, is halt schwer mit dem langsameren design, keinen werbewirksamen features und der unter druck geratenden produktlinie ... da muss man halt jetzt wieder ordentlich marktanteile im high-end segment abgeben und bald auch im performance...

Marktschreier Nummero 3 - zu Hülf ! zu Hülf !


hab ich eigentlich schon erwähnt wie geil ich das geniale super cuda wasser in just cause 2 finde ? :freak:

Agent Provokateur ! ist das nicht so ein Parfüm (-Gestank) ?
Immer schön austeilen und wenn man(n) selbst dran ist die Leberwurst "Hoilen"

Langasam könnte sich die Moderation aber dem Thema "Marktschreier" annehmen !

Megamember
2010-05-17, 10:28:23
Oh Mann, so langsam sollte man wirklich mal über ne Regpflicht hier im Grafikchipsbereich nachdenken. Diese Ati Fanboys sind ja unerträglich.

Gast
2010-05-17, 10:28:24
Die GTX 480 ist eine sehr schlechte Grafikkarte, bei den Temperaturen wird sie im Sommer bei vielen Leuten kaputt gehen.
Außerdem braucht man oft ein neues Netzteil, was den Preis in die höhe treibt und die kleineren Nvidia-Ableger werden wahrscheinlich auch nicht der Brenner.
Ich denke hier hat Nvidia gewaltigen Mist gebaut und von mir gibt es deshalb keine Kaufempfehlung!

-heiß
-uneffektiv
-teuer
-stromfressend
-langsam bei Nutzung von AF
-langsam in DX9
-laut
-Lebenszeit wahrscheinlich sehr gering
-schlechte Verfügbarkeit
-schlechtes PL-Verhältnis

Ich bleibe erstmal bei meiner Grafikkarte und warte auf die nächste Gen. von Nvidia. Ich hoffe, dass sie dieses bescheurte Monster-Chip-Design aufgeben und endlich mal etwas Vernünftigeres entwickeln.

Fetter Fettsack
2010-05-17, 10:35:34
Der Vorschlag, dass schlichtweg beide Seiten "mal stecken lassen" wird hier wohl auf taube Ohren stoßen, oder?

Vertigo
2010-05-17, 10:45:36
Der Vorschlag, dass schlichtweg beide Seiten "mal stecken lassen" wird hier wohl auf taube Ohren stoßen, oder?
Schau dir mal an, wie und was hier vor >9 Jahren diskutiert wurde. Du wirst sehen, dass da teils die selben Leute mit den selben "Argumenten" aufeinander losgingen. Allein die Namen der diskutierten Grafikkarten/-chips waren seinerzeit anders.

Fetter Fettsack
2010-05-17, 10:53:06
Was die Sache nicht unbedingt besser macht. :-)

RoNsOn Xs
2010-05-17, 11:28:00
ich lese hier nicht mehr oft mit.
das was ich aber sagen kann: ich sehe das problem viel eher in nv-pro-eingestellte-user, da kann man es den gästen nicht verübeln, dass zB. LZ gebasht wird.
es wird leider manches von ihm umgedreht und dann trotzdem gut für nv dargestellt, wo sich schon so manch einer gedacht hat - WTF? schon vor monaten in dem speku-thread.
hier sind meiner meinung nach nicht mehr die gäste schuld. -> ursache - wirkung...

airbag
2010-05-17, 11:35:15
Naja Meinungen sind ja generell immer richtig nur die Art der Argumentation und der unbedingte Siegeswille gegenüber den Anderen von LoveSuckZ ist ein bisschen übertrieben. ^^

Gast
2010-05-17, 11:46:56
Das Problem ist doch, dass es immer wieder Leute geben, die auf seine Kommentare eingehen. Das beste wäre einfach ignorieren.

Reneeeeeee
2010-05-17, 11:50:16
Ich lese den seine Beiträge gar nicht mehr, sollten vielleicht mal paar mehr machen . ;)

Mancko
2010-05-17, 12:46:13
Also fakt ist mal, dass es in diesem Thread um die GTX 480 und 470 geht und nicht um irgendwelche ATI Produkte.
Fakt ist auch, dass die GTX 480 die schnellste Single Chip Karte ist, dass sie viel Strom frisst und auch recht warm wird (was hoffentlich einige Custom Designs verbessern) und dass diese zwei Punkte für die meissten Enthusiasten zweitrangig ist.
Die GTX 470 wiederum wird etwas weniger warm und frisst auch etwas weniger Strom. Leistung liegt bei alten Spielen unterhalb der 5870 und bei neueren meisst gleich auf oder eben bei DX11 oberhalb. Preislich ist sie jedoch sehr attraktiv.
Was Features und Softwaresupport angeht sind beide Nvidia Produkte besser als ATI. Bei AA und AF gibt es die bekannten Unterschiede mit wechselnden Vorteilen.

Wenn ich Enthusiast bin und Geld keine Rolle spielt ist die GTX 480 momentan die Karte der Wahl - SLI Setups für die ganz Verrückten inklusive. Wenn ich etwas weniger ausgeben will muss ich mich zwischen HD 5870 und GTX470 entscheiden. Aufgrund der aktuellen Preislage würde ich mich für die GTX470 entscheiden, wobei ich persönlich für mich entschieden habe noch auf die ersten Custom Designs zu warten.

hq-hq
2010-05-17, 12:57:54
-heiß
-uneffektiv
-teuer
-stromfressend
-langsam bei Nutzung von AF
-langsam in DX9
-laut
-Lebenszeit wahrscheinlich sehr gering
-schlechte Verfügbarkeit
-schlechtes PL-Verhältnis


lol, dx9 - schau dir doch mal dirt2 in dx9 an, oder z.b. wow... oder oder... quatsch
uneffektiv bzgl was
langsam bei der nutzung von af ... wo hastn das her

1. laaber net
2. du bist eine nase

Gast
2010-05-17, 13:10:03
lol, dx9 - schau dir doch mal dirt2 in dx9 an, oder z.b. wow... oder oder... quatsch
uneffektiv bzgl was
langsam bei der nutzung von af ... wo hastn das her

1. laaber net
2. du bist eine nase
Uhhh, 1 von 9 Punkten angezweifelt und das nur mit einem einzigen Spiel. Ja, steinigt den Gast er hat unrecht.

kruemelmonster
2010-05-17, 13:40:22
Agent Provokateur ! ist das nicht so ein Parfüm (-Gestank) ?


Nicht ganz (http://www.agentprovocateur.com/) ;)

Ansonsten ists hier wieder herrlichster Kindergarten,...mein Lutscher ist leckerer als deiner, meine Sandburg größer bla bla bla...., das Ganze bei vielen dann noch garniert mit einer Rechtschreibung wie aus der Biotonne.

Es ist auch immer wieder interessant welch' magische Anziehungskraft das NV-Subforum auf die Roten auszustrahlen scheint. Mir als Grüner geht das ATI-Subforum meterweit sonstwo vorbei, gucke gelegentlich mal aus Interesse rein aber i.d.R. lass ich die Jungs da in Ruhe.
Also, was beschwert ihr euch ausgerechnet in einem GF-Thread darüber, das mal 2 Vorteile von NV-Produkten nacheinander genannt werden ohne einen Nachteil zum "Ausgleich" dazwischen zu schieben? Das ist dann gleich wieder Schön-reden, ja?

-----

und IMO: die künftige Nutzung von Tesselation steht in den Sternen. Ich hab dann aber lieber gleich ne Karte die auch n paar mehr Dreiecke aushält als mich in nem halben Jahr nach nem Nachfolger für eine Radeon umzuschauen nur weil Spiel XYZ den Fortschritt doch schneller bringt als heute noch gedacht.
Btw, GTX-Käufer bedeutet nicht automatisch dass in einem Jahr eh ne neue Karte kommt, gerade vor dem Hintergrund (der eh nicht vorhandenen, jajaja) Zukunftssicherheit schien mir die 470er das wesentlich bessere Angebot als eine 5870 zu sein (neben den üblichen NV-Goodies natürlich). Multimonitor hab ich quasi nie, ergo ist der Idle-Verbauch für mich ok, und unter Last zieht die Karte auch nicht mehr als meine alte 285, ergo kein neues NT.

Und um mal zur allgemeinen Abwechselung etwas zum Thema beizutragen; ich hab letzte Woche meine 470er Zotac vom Auslieferungsbios 1A auf das 21er Release geflasht und bemerkt, dass die Karte merkbar leiser & kühler bleibt. Hab jetzt keine Lust wieder hin- und herzuflashen und Screen zu basteln, aber falls jemand ebenfalls flashen will wärs toll wenn das dokumentiert werden würde. Mit dem 21er komm ich übrigens mit knapp 120 mv weniger aus für gegebene Taktraten als mit dem 1A Bios.

Gast
2010-05-17, 14:12:23
Uhhh, 1 von 9 Punkten angezweifelt und das nur mit einem einzigen Spiel. Ja, steinigt den Gast er hat unrecht.

Er hat 3 Punkte angezweifelt und 2 Spiele angeführt, wer lesen kann ist klar im Vorteil! Aber für dich können wir auch gleich mal alle Punkte unter die Lupe nehmen:

Zu: -heiß -stromfressend -laut -uneffektiv
Diese Punkte gehören alle zum selben Problem, wie schlimm die einzelnen Faktoren wirklich sind, muss jeder Käufer für sich selbst entscheiden. Man sollte sich aber eine Sache vor Augen führen, taktet man eine GTX480 so weit herunter, dass sie nur noch die durchschnittliche Leistung einer HD5870 hat, und passt auch die Voltage entsprechend an, so verbraucht sie kaum mehr Strom als die HD5870. Außerdem muss man hier auch noch bedenken, dass die GTX480 512MB mehr Speicher hat. Der Punkt "uneffektiv" ist somit totaler schwachsinn und die Punkte "heiß", "stromfressend" und "laut" treten nun einmal bei absoluten High-End-Modellen häufig auf.

Zu: -langsam bei Nutzung von AF
Also langsam ist halt ein relativer Begriff und da stellt sich nun die Frage, im Vergleich zu welcher Karte, ist die GTX480 langsam bei AF? Da wirst du nun leider keine Karte finden, denn die Ati-Karten beherrschen ja seit einigen Generationen kein AF mehr.

Zu: -teuer -schlechtes PL-Verhältnis
Also laut 3D-Center ist die GTX470 5% langsamer als die HD5870, aber wir sind mal großzügig und rechnen mit 10%. Nun ist die GTX470 aber mehr als 10% günstiger als die HD5870 und in vielen Shops sogar 15% und mehr. Dafür bekommt man noch ein echtes AF, viel mehr Einstellungsmöglichkeiten bei den AA-Modi, PhysX und

Zu: -langsam in DX9
Wieder einmal eine sehr relative Aussage. Die GTX4xx skalieren in DX10 und DX11 zwar noch besser, aber wieso ist das schlimm? Schließlich sind sie in DX9 trozdem der HD5xxx Serie überlegen.

Zu: -Lebenszeit wahrscheinlich sehr gering
Also raten wir jedem davon ab diese Karten zu kaufen, der sie länger als 15 Jahre nutzen möchte. :facepalm:

Zu: -schlechte Verfügbarkeit
:confused: GTX480 und GTX470 sind beide bei Alternate verfügbar. OK, nicht von jedem Hersteller, aber wen interessiert das schon, schließlich sind alle Karten 100% baugleich.


Fazit: 6 von 9 Punkten sind freche Lügen und 3 von 9 Punkten treffen teilweise zu (wobei sie für die GTX470 meist auch falsch sind), da NV sich dadurch etwas mehr Leistung erkauft hat. :rolleyes:

Gast
2010-05-17, 14:20:13
Oh Mann, so langsam sollte man wirklich mal über ne Regpflicht hier im Grafikchipsbereich nachdenken. Diese Ati Fanboys sind ja unerträglich.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8030371&postcount=2541

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8031224&postcount=2598


Jo, du hast recht , Nur die Atifraktion spammt !
Blinded by the Light !

Und Mr. Lolman ist ein pöser pöser Roter , der Nvidia nur zerstören will
( PS @Bucklew ja das soll "pöser" heisen ;-)

Pferft den Purschen zu Poden !
MfG Schwanzus Longus
( Warum muss ich jetzt an Benchmarks denken - hmmmmm )

Gast
2010-05-17, 14:26:53
taktet man eine GTX480 so weit herunter, dass sie nur noch die durchschnittliche Leistung einer HD5870 hat

denn die Ati-Karten beherrschen ja seit einigen Generationen kein AF mehr.
( Höööö ???????????)

ein echtes AF
(gibts den falsches , so wie falscher Hase ?)

, viel mehr Einstellungsmöglichkeiten bei den AA-Modi
(Its not a Bug - its a Feature !)

PhysX
(Gääähhhn - PhysX keeps the World go around !)

:confused: GTX480 und GTX470 sind beide bei Alternate verfügbar. OK, nicht von jedem Hersteller, aber wen interessiert das schon, schließlich sind alle Karten 100% baugleich.
(Einheitsbrei ? , Besser Kühlung von Haus aus ? )

da NV sich dadurch etwas mehr Leistung erkauft hat.
(Der erste sinnvolle Teilsatz ! )


Für das nächste mal einfach mal vorher "Aqua - Barbir Girl" anhören

Gast
2010-05-17, 14:34:23
Hier mal etwas offizielles aus dem NV-Blog:
Our first 256 based driver is planned to post to nvidia.com on May 24th and will enable new SLI setup controls and improve performance on several key applications for GTX 400 GPUs.

Ich bin echt mal gespannt, was der neue Treiber bringt.

@Post vom Gast vor mir:
Lerne erstmal wie man Zitiert. :facepalm:

Gast
2010-05-17, 14:37:24
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8030371&postcount=2541

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8031224&postcount=2598


Jo, du hast recht , Nur die Atifraktion spammt !
Blinded by the Light !

Und Mr. Lolman ist ein pöser pöser Roter , der Nvidia nur zerstören will
( PS @Bucklew ja das soll "pöser" heisen ;-)

Pferft den Purschen zu Poden !
MfG Schwanzus Longus
( Warum muss ich jetzt an Benchmarks denken - hmmmmm )

Was heisst hier eigentlich ATI Fraktion? Es gibt nur Nvidia-Gläubige und die ganzen Anderen, die dann automatisch zur ATI-Fraktion gehören?
Zumindest hier in diesem Forum.

Gast
2010-05-17, 15:04:32
Was heisst hier eigentlich ATI Fraktion? Es gibt nur Nvidia-Gläubige und die ganzen Anderen, die dann automatisch zur ATI-Fraktion gehören?
Zumindest hier in diesem Forum.

Das bestätige ich, das Forum hier ist extremst biased.

Iruwen
2010-05-17, 15:13:01
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8030371&postcount=2541

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8031224&postcount=2598

Jo, du hast recht , Nur die Atifraktion spammt !

Die Posts stehen da aber nicht ganz zusammenhanglos sondern als Antworten auf vorherige Posts, und gerade beim zweiten Beispiel sieht man mal wieder wunderschön wie sich Schlammsau ins roterechte Licht rückt.

Botcruscher
2010-05-17, 15:20:21
Ich weiß nicht was ihr habt. Wenn der Ton zwischen Kindergarten und Sommerloch schwankt funktioniert der Markt.

Schlammsau
2010-05-17, 15:35:55
Die Posts stehen da aber nicht ganz zusammenhanglos sondern als Antworten auf vorherige Posts, und gerade beim zweiten Beispiel sieht man mal wieder wunderschön wie sich Schlammsau ins roterechte Licht rückt.

Natürlich....jeder weiss hier doch welche Farbe mir mehr zusagt.
Und ich habe auch nicht gelogen, mit meiner Ausführung!

LovesuckZ
2010-05-17, 15:49:47
Nein, natürlich nicht. Der virale Marketingmann von AMD lügt natürlich nicht. Nein, nie im Leben. Er sagt nur die uneingeschränkte Wahrheit. Die Wahrheit des Geldscheins. :lol:
Man, ich find das Forum echt knuffig.

Gast
2010-05-17, 16:04:50
Im Vergleich zu LovesuckZ ist einem Schlammsau direkt sympathisch.

Eine ganz ernst gemeinte Frage an die Moderation:

Die permanenten persönlichen Anfeindungen, der Tonfall und vor allem die mittlerweile zu einem halben Dutzend getätigten Unterstellungen des Gekauftseins diverser Diskussionspartner...wird das nicht endlich mal geahndet?

Oder hat dieser Kerl hier einen Freifahrschein?

Gast
2010-05-17, 16:08:38
Im Vergleich zu LovesuckZ ist einem Schlammsau direkt sympathisch.

Eine ganz ernst gemeinte Frage an die Moderation:

Die permanenten persönlichen Anfeindungen, der Tonfall und vor allem die mittlerweile zu einem halben Dutzend getätigten Unterstellungen des Gekauftseins diverser Diskussionspartner...wird das nicht endlich mal geahndet?

Oder hat dieser Kerl hier einen Freifahrschein?

Wenn Schlammsau für Nvidia sprechen würde, könnte er sich auch mehr rausnehmen ohne gebannt zu werden.

Gast
2010-05-17, 16:51:19
Grundsätzlich hat man als Gast in diesem Forum keine Rechte, dafür ist man anonym, was der Glaubwürdigkeit nicht zuträglich ist.

Gegen Leute wie Lovesuckz, Grestorn und Bucklew kann man auch nicht viel tun, sie sind anerkannte hochrangige Member.
Man kann deshalb die Tendenz erkennen, dass grünextremistische Beitrag eher
geduldet werden als die von der Gegenseite. Ähnliches sieht man auch bei den Artikeln und Kolumnen hier, die über teilweise extreme Färbungen verfügen.

Iruwen
2010-05-17, 17:00:17
Die Betroffenen müsste man danach fairerweise gleich mitbannen, das Persönliche kommt ja nicht von ungefähr. Zumal die einzigen die sich darüber beschweren dürften die Betroffenen selbst sind, außerdem gibt es einen Post melden Button (den ich auch häufig und meist erfolgreich bemühe). Viel störender als LZ sind die mosernden Gäste die wahrscheinlich eine Minute später an andere Stelle selbst wieder persönlich werden. Wenn einem eine Meinung einer Person nicht passt und so sehr stört dass man damit nicht umgehen kann sollte man sie ignorieren. Am besten einfach registrieren und ignorieren, zwei Fliegen mit einer Klappe geschlagen.

/e: wenn die "grünen Extrimisten" hier bevorzugt behandelt würden würde Lolman keine Benchmarks für das kommende Review durchführen und Leute wie Schlammsau wären auch schon gesperrt.

Gast
2010-05-17, 17:05:51
Die Betroffenen müsste man danach fairerweise gleich mitbannen, das Persönliche kommt ja nicht von ungefähr. Zumal die einzigen die sich darüber beschweren dürften die Betroffenen selbst sind, außerdem gibt es einen Post melden Button (den ich auch häufig und meist erfolgreich bemühe). Viel störender als LZ sind die mosernden Gäste die wahrscheinlich eine Minute später an andere Stelle selbst wieder persönlich werden. Wenn einem eine Meinung einer Person nicht passt und so sehr stört dass man damit nicht umgehen kann sollte man sie ignorieren. Am besten einfach registrieren und ignorieren, zwei Fliegen mit einer Klappe geschlagen.

/e: wenn die "grünen Extrimisten" hier bevorzugt behandelt würden würde Lolman keine Benchmarks für das kommende Review durchführen und Leute wie Schlammsau wären auch schon gesperrt.

Und der letzte Artikel an dem Lovesucks mitgewirkt hat, endete direkt in einem Eklat?
Wenn hier bewertet wird dann extrem Nvidia-freundlich.
Wenn es an AMD nichts zu meckern gibt wird etwas an den Haaren herbeigezogen, deswegen ist die Behauptung 3DCenter wäre eine neutrale Plattform ein schlechter Scherz.

Gast
2010-05-17, 17:10:25
Die Betroffenen müsste man danach fairerweise gleich mitbannen, das Persönliche kommt ja nicht von ungefähr. Zumal die einzigen die sich darüber beschweren dürften die Betroffenen selbst sind, außerdem gibt es einen Post melden Button (den ich auch häufig und meist erfolgreich bemühe). Viel störender als LZ sind die mosernden Gäste die wahrscheinlich eine Minute später an andere Stelle selbst wieder persönlich werden. Wenn einem eine Meinung einer Person nicht passt und so sehr stört dass man damit nicht umgehen kann sollte man sie ignorieren. Am besten einfach registrieren und ignorieren, zwei Fliegen mit einer Klappe geschlagen.

/e: wenn die "grünen Extrimisten" hier bevorzugt behandelt würden würde Lolman keine Benchmarks für das kommende Review durchführen und Leute wie Schlammsau wären auch schon gesperrt.Schlammsau sagt vielleicht unbequemes, greift aber nicht direkt Personen an. Mir geht es nicht um den Inhalt der Aussagen, sondern eher um die Art und Weise.

LovesuckZ
2010-05-17, 17:13:52
Schlammsau sagt vielleicht unbequemes, greift aber nicht direkt Personen an. Mir geht es nicht um den Inhalt der Aussagen, sondern eher um die Art und Weise.

Stimmt. Das tut er nicht. Überhaupt nicht:

Das Problem ist doch, die meisten Fermi Besitzer bzw Interessierten, wissen ja um die vergleichsweise schlechte Performance.
Sieht man auch sehr gut an den ganzen Benchthreads, wo wenn überhaupt sich nur SLi bzw. TSLi Nutzer tummeln, und ganz stolz ihren Stromverbaruch von 1,4kw präsentieren.

An den Reaktionen sieht man schon sehr deutlich, wie der grünen Fraktion, der Arsch auf Grundeis geht. :)


Ich finds immer wieder erstaunlich wie du immer und immer wieder was findest, um ATi schlecht zu machen. Selbst bei dieser grandiosen HD5000 Serie, die sich blendend verkauft, gönnst du den Entwicklern nicht einen einzigen Cent.

Man möchte fast meinen ATi hätte dir persönlich, dein Leben versaut und du möchtest dich dafür rächen.

Erzähl uns von deinen persönlichen Problemen mit ATi.....ich denke ich spreche hier für alle, dass wir gemeinsam eine Lösung für deine Probleme finden können. Du musst uns nur mehr von dir Erzählen. Vielleicht hattest du mal ein traumatisches Erlebniss in Markham/Canada!?

Ich finde es ja erstaunlich, dass ein Gast hier den Retter spielt und Monologe mit sich selbst führt. Wenn da nichtmal eine Verschwörung dahinter steckt.

Iruwen
2010-05-17, 17:17:12
Exakt das wäre auch mein nächster Post gewesen ;)

Popeljoe
2010-05-17, 17:18:47
So ihr Lieben!
Es ist mal wieder so weit: die Modkeule droht in alle Richtungen!
Nebenbei: wir diskutieren grade intern, wie wir fürderhin mit den Fanboypostings und persönlichen Beleidigungen umgehen sollen.
Die Tendenz geht momentan in Richtung: plattmachen!
Wir haben echt geschlossen die Fresse voll von dümmlichen und persönlichen Anmachen, wie wir alle sie momentan hier en masse erleben dürfen.
Es hakt immer wieder an einigen ganz speziellen Leuten hier und die Masse der Leute leidet darunter, dass Diskussionen immer wieder von denselben Schwachköpfen gekapert und geshreddert werden!
"Information: mir scheißegal, Hauptsache meiner ist länger, weil ich hab Recht!"
Dieselben Leute diskutieren dann noch tagelang über die Ungerechtigkeit der Moderation im 3DC. Schlichtweg zum kotzen!

Popeljoe
2010-05-17, 19:50:57
Weitere OT Diskussionen gehen hier nicht unter 3 Tagen Auszeit ab, wer schon mehrere Punkte auf seinem Konto hat, kann sich seine Auszeit selber ausrechnen!

Gast
2010-05-17, 20:49:33
Ich schreib zwar auch nur selten als Gast, aber von mir aus könnt ihr ruhig Regpflicht einführen wenn dann die üblichen Verdächtigen auch mal 30 Tage- oder Permabans kriegen für den Mist der hier oft fabriziert wird.
Sonst schreiben diese Leute einfach ausgeloggt als Gast, da sie wissen dass sie so nicht gebannt werden können (ist ja bereits schonmal so geschehen). Es sei denn die Mods haben Spaß dran permanent IPs zu vergleichen und dann den Account zu bannen (was den Gastpostings aber keinen Abbruch tut).

Gast
2010-05-17, 20:50:38
@Popeljoe:
Sorry, dein Post war noch nicht da als ich begonnen habe zu schreiben ;)

hq-hq
2010-05-17, 21:03:59
Er hat 3 Punkte angezweifelt und 2 Spiele angeführt, wer lesen kann ist klar im Vorteil! Aber für dich können wir auch gleich mal alle Punkte unter die Lupe nehmen: ...


danke, ich musste gleich nach der mittagspause in eine besprechung und konnte nur gebrochen antworten:freak:

Megamember
2010-05-18, 11:48:34
Kleine Vorschau zum 256, allerdings mit versch. Betriebssystemen. Die beiden DX11 Games(Stalker und Dirt 2) geben ordentlich Gas :D

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

dildo4u
2010-05-18, 12:01:56
Kleine Vorschau zum 256, allerdings mit versch. Betriebssystemen. Die beiden DX11 Games(Stalker und Dirt 2) geben ordentlich Gas :D

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435
Besonders die Min FPS sind überall besser. :up:

Gast
2010-05-18, 12:02:43
Kleine Vorschau zum 256, allerdings mit versch. Betriebssystemen. Stalker und Dirt 2 geben ordentlich Gas :D

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

Besonders interessant finde ich die Tatsache, dass die Min Fps mit dem 256ger Treiber noch stabiler werden. Da die GTX4xx kaum Framedrops haben, muss eine Ati-Karte schon mind. 20% schneller sein bei den Avg. Fps um das Spiel genauso flüssig darzustellen. :cool:

boxleitnerb
2010-05-18, 12:11:21
Dirt und Stalker :eek:
Haut richtig rein! Bin gespannt auf ausführlichere Tests.

Dr. Cox
2010-05-18, 12:40:50
Wann kommen eigentlich die Benchmarks von Lolman?

hq-hq
2010-05-18, 12:45:18
Wann kommen eigentlich die Benchmarks von Lolman?
glaub er meinte so eins-zwei wochen noch damit er alles gscheit zammschreiben kann.

wenn die 256er wirklich so viel bei den min fps bringen wirds bestimmt interessant sein einige von lolmans runs damit erneut laufen zu lassen :)

Schlammsau
2010-05-18, 12:46:44
Ich würd nicht allzu viel auf die Benchmarks der Beta geben.

Es wurde mit 2 verschiedenen Betriebssystemen (x86 vs x64) gebencht. ;)

dildo4u
2010-05-18, 12:49:30
Ich würd nicht allzu viel auf die Benchmarks der Beta geben.

Es wurde mit 2 verschiedenen Betriebssystemen (x86 vs x64) gebencht. ;)
Das macht bei Games in Grafik limitierten Setting's so gut wie nix aus.

Schlammsau
2010-05-18, 12:51:42
Das macht bei Games in Grafik limitierten Setting's so gut wie nix aus.

Die min. fps sind in der Regel nicht unbedingt Grafiklimitiert. Da spielen noch viele andere Faktoren mit eine Rolle.

Gast
2010-05-18, 12:52:23
Das macht bei Games in Grafik limitierten Setting's so gut wie nix aus.

Eventuell schon, aber wenn dann liegen die Vorteile natürlich beim 64bit System und damit beim 197.75 Treiber.

hq-hq
2010-05-18, 12:54:31
ihr hab recht, lieber erstmal gar keine hoffnungen machen und sich dann um jedes fps freuen;) bald ist der 24ste - ist ja fast wie weihnachten hrhr

Iruwen
2010-05-18, 20:05:56
Eventuell schon, aber wenn dann liegen die Vorteile natürlich beim 64bit System und damit beim 197.75 Treiber.
Andersrum. Aber der Unterschied ist vernachlässigbar.

Gast
2010-05-18, 20:33:49
Andersrum. Aber der Unterschied ist vernachlässigbar.

Also bei so einem Highend-System und Win7 mit aktuellen Patches gewinnt die 64bit Version immer. Bei den ersten Vista Versionen oder wenn man Lowend-Systeme hat mag es vieleicht anders aussehen. Aber wie du schon sagst ist es eh minimal, also wen interessierts. Auf jeden Fall wird dieser Umstand Schlammsau's kleine HD5850 nicht retten. :biggrin: Die Zukunft gehört erstmal der GTX4xx-Serie bis Ati nachlegen kann.

Jake Dunn
2010-05-18, 21:23:47
Kleine Vorschau zum 256, allerdings mit versch. Betriebssystemen. Die beiden DX11 Games(Stalker und Dirt 2) geben ordentlich Gas :D

http://forum.amtech.com.vn/overclocking-benchmark/71313-first-review-driver-nvidia-256-76-32bit.html#post689435

Beim Benchmark in der Demo ist wohl kein DX11 aktiv.


Uns fiel auf, dass die Karten mit GF100-GPU im direkten Vergleich mit den Karten der Radeon-HD-5000-Serie wirklich hohe Frameraten ablieferten. Das erschien uns mehr als nur ein bisschen merkwürdig, da beide Architekturen den Benchmark im DiretX-11-Modus durchlaufen können. Wie sich herausstellte, werden die GeForce GTX 470 und 480 aber von der Demo nicht korrekt als DX11-Karten erkannt. Dieser Fehler ist in der Vollversion behoben worden. Um vergleichbare Werte zu erhalten, zwangen wir alle Karten in den DirectX-9-Modus, anstatt DiRT 2 komplett auszurangieren.
http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-9.html

hq-hq
2010-05-18, 21:25:30
hm, irgendwie glaub ich nicht das 64bit einen vorteil bringt. zumindest beim 64bit xp war's eher gar keiner.
mit der gtx470 ist es übrigens das erste mal so, das zumindest benchmarks unter windoof xp ein bisserl langsamer sind als unter windows7. mit meiner gtx260 wars noch genau anderstrum.
wobei vista das allerletzte war (ohne sp)

Gast
2010-05-19, 09:25:24
Update zur Leistungsaufnahme bei BD-Wiedergabe bei HT4u:
http://ht4u.net/news/22133_leitstungsaufnahme_der_gtx-400-serie_unter_blu-ray_deutlich_besser_als_beschrieben/

Bucklew
2010-05-19, 10:31:10
Update zur Leistungsaufnahme bei BD-Wiedergabe bei HT4u:
http://ht4u.net/news/22133_leitstungsaufnahme_der_gtx-400-serie_unter_blu-ray_deutlich_besser_als_beschrieben/
Wie kann man sowas mit Peak messen? Könnte einem ja mal in den Sinn kommen, dass die Karte einmal viel zieht und dann erst runter geht :rolleyes:

Gast
2010-05-19, 10:32:23
Was bedeutet da kurze Zeit (wie lange?) und wurde das Verhalten auch länger beobachtet(eventuell periodisches Hochtakten)?

Ich kann mir nicht vorstellen, dass die anderen Reviewer die BD-Widergabe nur wenige Sekunden untersucht haben.

Botcruscher
2010-05-19, 10:40:00
Es scheint so zu sein? Eine Weile?!? Äh Jungs, macht doch einfach mal eine Zeitachse...

Gast
2010-05-19, 10:48:26
Einfach mal lesen. 20 bis 40 Sekunden.

Gast
2010-05-19, 10:50:19
Update zur Leistungsaufnahme bei BD-Wiedergabe bei HT4u:
http://ht4u.net/news/22133_leitstungsaufnahme_der_gtx-400-serie_unter_blu-ray_deutlich_besser_als_beschrieben/

Die Karten takten sich ohnehin wegen jedem Scheiß hoch. Schon alleine bei Internet surfen hat man immer wieder vollen 3D-Takt anliegen. Die idle-Werte gelten wirklich nur wenn man absolut nichts macht und auch nichts offen hat.

Gast
2010-05-19, 10:51:58
Einfach mal lesen. 20 bis 40 Sekunden.

Ich kann da nirgends eine Zeitangabe finden.

Gast
2010-05-19, 10:52:56
Ich kann da nirgends eine Zeitangabe finden.
ok, jetzt gefunden.

desert
2010-05-19, 11:16:13
Die Karten takten sich ohnehin wegen jedem Scheiß hoch. Schon alleine bei Internet surfen hat man immer wieder vollen 3D-Takt anliegen. Die idle-Werte gelten wirklich nur wenn man absolut nichts macht und auch nichts offen hat.

Komisch macht meine gtx nicht, aber naja was weiss ich schon. du hast bestimmt eine ganze batterie von gtx´en zuhause und hast das alles durchgetestet.

y33H@
2010-05-19, 13:23:30
Es gibt auch nach wie vor Leute, die behaupten, eine GTX 2xx/4xx würde in 3D gehen, wenn Steam als Tray rumdümpelt ...

Bucklew
2010-05-19, 23:17:16
Gainward Custom Design:

http://www.brightsideofnews.com/news/2010/5/7/gainwards-new-gtx-470-is-a-dead-ringer-to-atis-hd-5870.aspx

Sven77
2010-05-19, 23:59:48
Es gibt auch nach wie vor Leute, die behaupten, eine GTX 2xx/4xx würde in 3D gehen, wenn Steam als Tray rumdümpelt ...

Hat ich auch schon.. Karte war im 3D-Modus, bis ich Steam gekillt habe. War aber nur einmal, seither taktet sie einwandfrei..

fulgore1101
2010-05-20, 18:15:04
Die 470er Karten sind ja nun breitflächig zu guten Preisen verfügbar und die Preise fallen immer noch weiter. Verkauft sich die Karte so schlecht oder kommt Nvidia inzwischen deutlich besser mit der Fertigung klar?

LovesuckZ
2010-05-20, 18:17:20
400k Karten in den ersten vier Wochen. Tendenz deutlich steigernd.

fulgore1101
2010-05-20, 18:29:59
400k Karten in den ersten vier Wochen. Tendenz deutlich steigernd.

Gibts denn glaubhafte Verkaufszahlen? Ich erinnere mich, dass es anfangs ja sogar hieß, Nvidia würde keine 2. Charge mehr produzieren lassen da zu kompliziert und zu unwirtschaftlich.

Bucklew
2010-05-20, 18:33:36
Gibts denn glaubhafte Verkaufszahlen?
Die Zahlen sind von einem unabhängigen Analysten. Also glaubhaft (mindestens deutlich glaubhafter als die von AMD veröffentlichten Zahlen).

N0Thing
2010-05-20, 18:37:56
Warum sollte man die Zahlen von Nvidia oder AMD anzweifeln, bzw. warum sollten deren Zahlen weniger glaubhaft sein, als die von deinem Analysten?

Schlammsau
2010-05-20, 18:47:56
400k Karten in den ersten vier Wochen. Tendenz deutlich steigernd.

400'000 GPUs! ;)

fulgore1101
2010-05-20, 18:50:33
Die Zahlen sind von einem unabhängigen Analysten. Also glaubhaft (mindestens deutlich glaubhafter als die von AMD veröffentlichten Zahlen).

Wie lauten denn die aktuellen Zahlen? Und wieviel 470er hat NV inzwischen produziert?

Bucklew
2010-05-20, 18:51:07
Wie lauten denn die aktuellen Zahlen? Und wieviel 470er hat NV inzwischen produziert?
400.000 Fermichips so far.

airbag
2010-05-20, 18:52:27
Vielleicht sind es ja auch 300k davon bereits vorbestellte und angezahlte Teslas. ^^

Schlammsau
2010-05-20, 18:56:42
Diese Zahlen sind eh trügerisch.

nVidia meint sie haben bis jetzt 400`000 GPUs abgesetzt. Die Frage ist nur in welchem Zeitraum?
Sie haben mit Sicherheit bereits vor Monaten mit der Auslieferung der Chips begonnen. Wie lange genau weiss aber wohl nur nVidia.

Deswegen ist die einzige vergleichbare/akzeptable Grösse nur die Anzahl der verkauften Karten über einen gewissen Zeitraum.

Bucklew
2010-05-20, 19:00:21
nVidia meint sie haben bis jetzt 400`000 GPUs abgesetzt. Die Frage ist nur in welchem Zeitraum?
Sie haben mit Sicherheit bereits vor Monaten mit der Auslieferung der Chips begonnen. Wie lange genau weiss aber wohl nur nVidia.
1. War das immer noch nciht Nvidia sondern ein unabhängiger Analyst
2. Bezieht sich die Zahl bis auf Mitte Mai, also 6 Wochen nach dem Launch

http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Deswegen ist die einzige vergleichbare/akzeptable Grösse nur die Anzahl der verkauften Karten über einen gewissen Zeitraum.
Diese Zahlen hast du WEDER von Nvidia, NOCH von ATI. Also was willst du da vergleichen?

hq-hq
2010-05-20, 19:00:35
glaube die haben anfangs gar keine gpus vertickert nur ihre fertigen karten. chipsletten allein werden wohl erst seit kurzem - paar wochen - in grösseren mengen verkauft.

Schlammsau
2010-05-20, 19:04:03
1. War das immer noch nciht Nvidia sondern ein unabhängiger Analyst
2. Bezieht sich die Zahl bis auf Mitte Mai, also 6 Wochen nach dem Launch

http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html


Diese Zahlen hast du WEDER von Nvidia, NOCH von ATI. Also was willst du da vergleichen?

Ist doch sch**** egal, wer das sagt. Ich bezweifle die Zahlen ja nicht!

Aber nochmal, wann hat nVidia mit dem Verkauf der GPUs angefangen? Vor 3 oder gar 5 Monaten? Richtig, wir wissen es nicht, es gibt nicht mal Indizien dafür, und deswegen sind deine 4:1 Vergleiche für die Tonne!

Gast
2010-05-20, 19:05:48
1. War das immer noch nciht Nvidia sondern ein unabhängiger Analyst


Schade das du nicht Englisch kannst, dann wüstest du nämlich das er die Zahl nur schätzt auf Basis der Aussagen von NV "hundrets of tousands GPUs" geliefert zu haben. JPR kann gar nicht wissen wie viele Karten NV geliefert hat.

Schlammsau
2010-05-20, 19:07:38
Schade das du nicht Englisch kannst, dann wüstest du nämlich das er die Zahl nur schätzt auf Basis der Aussagen von NV "hundrets of tousands GPUs" geliefert zu haben. JPR kann gar nicht wissen wie viele Karten NV geliefert hat.

Danke.
“My estimate is Nvidia has shipped over 400 thousand [Fermi processors] as Tesla and Gefore units. The shipment numbers ‘to date’. Nvidia shipped a lot to OEMs, loads of Tesla versions since the announcement in Boston in March,” said Jon Peddie in a conversation with X-bit labs.

Jetzt seh ich die Geschichte schon anders. Die geschätzten 400'000 beziehen sich ja auf den Gesamtmarkt mit Tesla!

Wieviel % macht der Profi Markt bei nVidia aus?

LovesuckZ
2010-05-20, 19:10:48
Schade das du nicht Englisch kannst, dann wüstest du nämlich das er die Zahl nur schätzt auf Basis der Aussagen von NV "hundrets of tousands GPUs" geliefert zu haben. JPR kann gar nicht wissen wie viele Karten NV geliefert hat.

Jon Peddie's Beruf ist das Schätzen von Verkaufen. Dafür wird seine Firma bezahlt und verkauft genau diese Werte, die von nVidia und AMD sogar als Marketingzwecke verwendet werden.

Schlammsau
2010-05-20, 19:19:33
Jon Peddie's Beruf ist das Schätzen von Verkaufen. Dafür wird seine Firma bezahlt und verkauft genau diese Werte, die von nVidia und AMD sogar als Marketingzwecke verwendet werden.
Falsch, JPR schätzt Marktanteile der einzelnen Firmen.

Ihre eigenen Verkäufe müssten die jeweiligen Firmen doch am besten wissen, oder nicht!?

LovesuckZ
2010-05-20, 19:20:56
Wie schätzt man Marktanteile ohne Verkäufe? :rolleyes:

Schlammsau
2010-05-20, 19:24:17
Wie schätzt man Marktanteile ohne Verkäufe? :rolleyes:

Evtl in dem er die Zahlen von den Firmen (Sapphire, Asus, BFG, etc) selber bekommt!?

LovesuckZ
2010-05-20, 19:30:41
Soso. Er erhält also Informationen von denen, die GF100 direkt von nVidia kaufen.
Jetzt also die 1 Millionen Schlammsaufrage: Wenn er absolute Zahlen hat - wieso zweifelst du diese absoluten Zahlen an?

Schlammsau
2010-05-20, 19:36:39
Soso. Er erhält also Informationen von denen, die GF100 direkt von nVidia kaufen.
Jetzt also die 1 Millionen Schlammsaufrage: Wenn er absolute Zahlen hat - wieso zweifelst du diese absoluten Zahlen an?

Ich hab doch "evtl" geschrieben oder?

Ich zweifel die 400000 verkauften GPUs doch auch gar nicht an, nur das sie nach deiner Meinung, auf Grafikkarten schon in heimischen Rechnern wergeln. ;)
JPR hat eine Schätzung basierend auf den von nVidia verkauften GPUs, die auf Teslas und GeForces verbaut werden gemacht. Zu sagen, das schon 400000 GeForces an den Mann gebracht wurden, halte ich für sehr gewagt von dir und basiert auf keiner Grundlage!

Wie hoch ist der Tesla Anteil aller Fermi basierten Grafikkarten? 30%? Wie lange werden die Teslas mit Fermi schon hergestellt und verkauft?

Gast
2010-05-20, 20:24:37
Wie hoch ist der Tesla Anteil aller Fermi basierten Grafikkarten? 30%? Wie lange werden die Teslas mit Fermi schon hergestellt und verkauft?

Die Teslas auf Fermi Basis werden doch überhaupt noch nicht vertrieben. Daher schätze ich mal ganz gewagt, dass der Anteil der GTX470 /GTX480 100% beträgt.

Schlammsau
2010-05-20, 20:27:02
Die Teslas auf Fermi Basis werden doch überhaupt noch nicht vertrieben. Daher schätze ich mal ganz gewagt, dass der Anteil der GTX470 /GTX480 100% beträgt.

Hab ich auch gerade gelesen.
http://www.hardwareboard.eu/threads/16470-Nvidia-cancelt-Tesla-Fermi-schon-wieder-Komplette-Tesla-Fermi-Reihe-ein-Witz
Während ursprünglich auf der GDC 2009 Tesla Fermi mit 512 CUDA Cores vorgestellt wurde, musste Nvidia diese nachträglich auf 448 CUDA Cores bei Tesla korrigieren. Die Taktfrequenzen mussten ebenfalls nach unten korrigiert werden und betrugen nur noch 1400 Mhz bei den Shadern und 2000 Mhz beim Speicher.

In einem aktualisierten Nvidia .pdf vom April 2010 konnte man aber wieder neues in Sachen techn. Daten zu Tesla C2050 / C2070 sehen. Nvidia musste wohl wieder wieder canceln. Zwar bleiben die CUDA Cores unberührt, nicht aber die Taktfrequenzen. Anstelle der 1400 Mhz sind es jetzt nur noch 1150 Mhz bei den Shadern sowie nur noch 1500 Mhz beim Speicher.
Der Grund dürfte die TDP wohl sein, denn Nvidia will hier unter 250 Watt bleiben.

Warum sagt dann Jon Paddy was von Teslas!?

Bucklew
2010-05-21, 00:28:50
Jetzt seh ich die Geschichte schon anders. Die geschätzten 400'000 beziehen sich ja auf den Gesamtmarkt mit Tesla!

Wieviel % macht der Profi Markt bei nVidia aus?
In Stückzahlen einstellige %-Bereiche. Die kleine Fermi-Tesla kostet 2499$. Du kannst dir gern selbst ausrechnen was das für einen Umsatz ausmachen müsste, wenn die Teslakarten einen signifikant großen Anteil an den Gesamtkarten hätten. Selbst bei 50.000 Teslakarten hätte es einen Umsatzpeak von 75 Millionen geben müssen, der blieb aber defakto aus. Die Nachfrage im Profibereich ist zwar wieder fast auf dem Höchststand von vor einigen Monaten, aber noch nicht ganz.

Ist zwar (erneut) eine nette Ausrede von dir, aber mehr nicht ;)

Schade das du nicht Englisch kannst, dann wüstest du nämlich das er die Zahl nur schätzt auf Basis der Aussagen von NV "hundrets of tousands GPUs" geliefert zu haben. JPR kann gar nicht wissen wie viele Karten NV geliefert hat.
Stellt sich die Frage wer Englisch kann, wenn er "tousands" und "hundrets" schreibt ;D

Hab ich auch gerade gelesen.
http://www.hardwareboard.eu/threads/16470-Nvidia-cancelt-Tesla-Fermi-schon-wieder-Komplette-Tesla-Fermi-Reihe-ein-Witz

Warum sagt dann Jon Paddy was von Teslas!?
Mein Gott, die Karten werden bereits seit Wochen verkauft, es gibt bereits die ersten OEM-Produkte (http://www.heise.de/newsticker/meldung/IBM-packt-Nvidia-Fermi-Karten-in-Supercomputer-1003501.html)

Langsam wird es wirklich peinlich wie du versuchst Nvidia immer und immer wieder schlecht zu reden und das mit nichtmal dem Hauch eines Faktes.

BlackBirdSR
2010-05-21, 09:03:15
Wer seine Posts mit zu viel Talkshow-Inhalt sucht, findet ihn z.B. hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484079

Dural
2010-05-21, 12:56:02
vorallem wäre es mir ganz neu das NV im Mai 2009 eine Fermi Telsa mit 512SP und 175Watt angekündigt hätte, von wo hat charli diesen blödsinn??? selber ausgedacht oder was???

und diese 1400MHz stimmen so auch nicht, NV hat im November 2009 gesagt max 1400MHz und irgend was zwischen ca. 1100-1400MHz Angegeben (weis die genau zahl jetzt nicht mehr auswendig...)

charli ist nur für eins gut, um verblödete lügen zuverbreiten die wohl direkt von einigen AMDboys oder AMD selber kommen, traurig das sows überhaupt noch verlinkt wird (natürlich nur von den bekannten user...)

Die TDP wurde hingegen wirklich nach oben hin angepasst... von max 225Watt im November 2009 auf 250Watt jetzt!

deekey777
2010-05-21, 13:18:41
Die Teslas auf Fermi Basis werden doch überhaupt noch nicht vertrieben. Daher schätze ich mal ganz gewagt, dass der Anteil der GTX470 /GTX480 100% beträgt.
Nein?
Nvidia liefert GPUs, und diese GPUs sind für alle Produkte gemacht: für GTX, Teslas und Quadros. Nur weil es jetzt keine Teslas mit dem GF100 gibt, bedeutet das nicht, dass dafür keine GF100 aussortiert werden.

Nur so zum Spaß:
http://ixbtlabs.com/articles3/video/gf100-2-p5.html
On a side note, the markings on the GPU indicate the 4th week of 2010, e.g. the end of January.
Der Launch der GTX400-Generation war Ende März, die GPUs wurde mindestens drei Monate vorher produziert. Der Spruch, dass Nvidia in sechs Wochen nach der Vorstellung der GTX400 mehr GF100 geliefert hat als AMD nach dem Launch des Cypress wird umso mehr wahnwitziger.

LovesuckZ
2010-05-21, 13:30:56
Und AMD hat Samples von Anfang August verschickt: http://www.computerbase.de/bildstrecke/26939/2/

Was will uns der liebe Herr "ich steh ja so auf AMD's Seite" also sagen?

Schlammsau
2010-05-21, 13:57:34
Und AMD hat Samples von Anfang August verschickt: http://www.computerbase.de/bildstrecke/26939/2/

Was will uns der liebe Herr "ich steh ja so auf AMD's Seite" also sagen?

Er will dir nur sagen, dass deine 400'000 verkauften GPUs, absolut gar nichts über die realen Verkäufe der Geforce 400 Karten aussagen. ;)
Weil weder bekannt ist, wieviele in Teslas geflossen sind noch über welchen Zeitraum sie verkauft wurden. Man hat gar keinen Anhaltspunkt, nicht im geringsten. Es steht nur eine Aussage im Raum, 400'000 verkaufte GPUs bis jetzt.

Das werter "ich steh ja so auf nVidia´s Seite" Herr, was ich und noch viele andere, dir auch schon seit Tagen runterpredigen. ;D

Bucklew
2010-05-21, 13:57:50
Der Launch der GTX400-Generation war Ende März, die GPUs wurde mindestens drei Monate vorher produziert. Der Spruch, dass Nvidia in sechs Wochen nach der Vorstellung der GTX400 mehr GF100 geliefert hat als AMD nach dem Launch des Cypress wird umso mehr wahnwitziger.
Ach so und ATI hat erst Ende September mit der Fertigung der Cypresschips begonnen, ist klar :rolleyes:

Er will dir nur sagen, dass deine 400'000 verkauften GPUs, absolut gar nichts über die realen Verkäufe der Geforce 400 Karten aussagen. ;)
Ebenso wie bei den ATI-Zahlen....

Schlammsau
2010-05-21, 14:01:43
Ach so und ATI hat erst Ende September mit der Fertigung der Cypresschips begonnen, ist klar :rolleyes:
Ebenso wie bei den ATI-Zahlen....
Mich interessieren die Zahlen von ATi nicht, die können genauso gut erstunken und erlogen sein. Was mich interessiert, sind die realen Marktanteile.
Ihr behaart immer auf euren 4:1. Nur ihr beide! Zeig mir einen Post von mir, wo ich mich zu den Zahlen positiv geäussert habe.

LovesuckZ
2010-05-21, 14:08:49
Ihr behaart immer auf euren 4:1. Nur ihr beide! Zeig mir einen Post von mir, wo ich mich zu den Zahlen positiv geäussert habe.

Das sprichtwörtliche Fähnchen im Wind:

Ich finds immer wieder erstaunlich wie du immer und immer wieder was findest, um ATi schlecht zu machen. Selbst bei dieser grandiosen HD5000 Serie, die sich blendend verkauft, gönnst du den Entwicklern nicht einen einzigen Cent.

Man möchte fast meinen ATi hätte dir persönlich, dein Leben versaut und du möchtest dich dafür rächen.

Erzähl uns von deinen persönlichen Problemen mit ATi.....ich denke ich spreche hier für alle, dass wir gemeinsam eine Lösung für deine Probleme finden können. Du musst uns nur mehr von dir Erzählen. Vielleicht hattest du mal ein traumatisches Erlebniss in Markham/Canada!?

Lass es. Es ist doch schon nicht mehr unauffällig, dass deine Meinung einem monetären Grund hat.

deekey777
2010-05-21, 14:16:12
Ach so und ATI hat erst Ende September mit der Fertigung der Cypresschips begonnen, ist klar :rolleyes:


Das liebe ich an euch beiden: Wenn man euch mit bestimmten Tatsachen konfrontiert, antwortet ihr gleich mit ":rolleyes:".

Die Fertigung des Cypress-Chips fing bei TSMC zu einem Zeitpunkt an, als weder Kapazitäten in ausreichender Menge vorhanden waren noch der Prozess überhaupt im Griff war. Also konnte AMD in den ersten Monaten nach dem Start des Cypress wenige Cypresses liefern.
Wenn man die vierte Januarwoche als Fertigungsstart des GF100 nimmt, so sind das nicht nur drei Monate vor dem eigentlichen Launch, sondern hat sich die Lage bei TSMC seit September 2009 gebessert. Auch werden nur kaputte GF100 geliefert, von einem vollen GF100 fehlt jede Spur*, was die Ausbeute alles andere als verschlechtert.
Aber hey, das interessiert euch nicht. Es geht nur um absolute Zahlen.




*Ich wette, jetzt kommt einer und sagt, dass das einzig und allein an GreenIT liegt, da ein vollausgebauter GF100 noch mehr Saft braucht als kaputter GF100 auf einer GTX480.

Bucklew
2010-05-21, 14:17:08
Was mich interessiert, sind die realen Marktanteile.
Wie war das noch? Da hatte doch Nvidia im letzten Quartal zugelegt, ATI nicht, oder irre ich mich da?! ;D

Schlammsau
2010-05-21, 14:17:17
Das sprichtwörtliche Fähnchen im Wind:
Lass es. Es ist doch schon nicht mehr unauffällig, dass deine Meinung einem monetären Grund hat.
Ich habs endgültig satt, immer wieder von dir beleidigt zu werden und deswegen habe ich deinen Beitrag gemeldet!

Wie war das noch? Da hatte doch Nvidia im letzten Quartal zugelegt, ATI nicht, oder irre ich mich da?! ;D
Ja das stimmt! Was aber nicht an Fermi liegt, weil er im 1Q noch gar nicht zu erwerben war. ;)
Hab ich, verdammt noch mal, irgendwas zu den gesamten Marktanteilen gesagt? Es geht hier nur um GF100 vs Cypress!
Und das nVidia im OEM schon immer Vorteile hatte (daher kommen nämlich die höheren Stückzahlen), genauso wie Intel, hab ich dir auch schon x mal gesagt!

:mad:

LovesuckZ
2010-05-21, 14:24:08
Das liebe ich an euch beiden: Wenn man euch mit bestimmten Tatsachen konfrontiert, antwortet ihr gleich mit ":rolleyes:".


Der Launch der GTX400-Generation war Ende März, die GPUs wurde mindestens drei Monate vorher produziert. Der Spruch, dass Nvidia in sechs Wochen nach der Vorstellung der GTX400 mehr GF100 geliefert hat als AMD nach dem Launch des Cypress wird umso mehr wahnwitziger.

Chips der Reviews-Samples bei Computerbase.de wurden beide ca. 7 Wochen vorher gefertigt. Abgesehen davon, dass dies ein normaler Vorgang ist, die Chips aus den Hot Lots zu nehmen, scheint doch der eigentliche Sinn deines Postings zu sein, nVidia schlecht zu machen.
Hier muss sich also die Frage gestellt werden, wieso du das machen willst?

deekey777
2010-05-21, 14:28:14
Chips der Reviews-Samples bei Computerbase.de wurden beide ca. 7 Wochen vorher gefertigt. Abgesehen davon, dass dies ein normaler Vorgang ist, die Chips aus den Hot Lots zu nehmen, scheint doch der eigentliche Sinn deines Postings zu sein, nVidia schlecht zu machen.
Hier muss sich also die Frage gestellt werden, wieso du das machen willst?
Wie komst du darauf, dass ich Nvidia schlecht machen will?
Kommt das von dir, oder hast du nur eine Äußerung von Nvidia übernommen:
400k? Selbst wenn es eine zu optimistische Schätzung ist, hat nVidia wohl nach 3-4 Wochen genauso viele Karten ausgeliefert wie AMD nach 3 Monaten Cypress.
Oder:
In zwei Monaten waren es nur 100.000 Cypress (da hat Nvidia bereits das 4fache in weniger zeit geliefert), im Dezember erst 300.000.

LovesuckZ
2010-05-21, 14:34:23
Das ist eine Aussage, die sich objektiv anhand von veröffentlichten Zahlen belegen lässt.
Deine Aussage ist eine reine Trollaussage zum Schlechtmachen der Zahlen von nVidia, ohne Rücksicht auf die Wahrheit. Davon abgesehen, hätte AMD nach dir auch schon 3 Monate Cypress produzieren müssen.
Und ich bleibe dabei: Welchen Grund hast du nVidia mit absichtlichen Falschaussagen schlechtzumachen?

Bucklew
2010-05-21, 14:38:43
Hab ich, verdammt noch mal, irgendwas zu den gesamten Marktanteilen gesagt? Es geht hier nur um GF100 vs Cypress!
Dann bleibt die entscheidende Frage:

Was bringt eine Zahl, die man nicht kriegt?

muelli
2010-05-21, 14:57:17
Will die "Diskussion" eigentlich nicht stören, und weiß auch nicht ob ich hier richtig poste. Aber das

GTX 470 als GTX 465 identifiziert (http://www.overclock.net/nvidia/737351-my-galaxy-gtx-470-gc-identified.html)

wurde gerade im CB-Forum gepostet. Keine Ahnung ob das ein Fake/Marketing ist.

Gruß

Schlammsau
2010-05-21, 14:58:59
Dann bleibt die entscheidende Frage:

Was bringt eine Zahl, die man nicht kriegt?

Welche Zahlen bekommt man nicht?
Die glaubwürdigsten Zahlen, natürlich nicht zu 100%ig, bekommt man vom STEAM Hardware Survey. Das spiegelt noch am ehesten die echten Marktanteile von Hardware in (Spiele)rechnern.

LovesuckZ
2010-05-21, 15:00:05
Will die "Diskussion" eigentlich nicht stören, und weiß auch nicht ob ich hier richtig post. Aber das

GTX 470 als GTX 465 identifiziert (http://www.overclock.net/nvidia/737351-my-galaxy-gtx-470-gc-identified.html)

wurde gerade im CB-Forum gepostet. Keine Ahnung ob das ein Fake/Marketing ist.

Gruß

Ha. Das ist ziemlich kurios. Da wird wohl jemand bei Galaxy einfach die falsche Verpackung verwendet haben...
Kann man nur hoffen, dass dies ein Einzelfehler war.

/edit: Ich lese gerade: Das Ding hat ein GTX470 Bios drauf. Da hat man sich eher am Kartenstand vergriffen.

Schlammsau
2010-05-21, 15:08:14
Will die "Diskussion" eigentlich nicht stören, und weiß auch nicht ob ich hier richtig poste. Aber das

GTX 470 als GTX 465 identifiziert (http://www.overclock.net/nvidia/737351-my-galaxy-gtx-470-gc-identified.html)

wurde gerade im CB-Forum gepostet. Keine Ahnung ob das ein Fake/Marketing ist.

Gruß

Eine 470 mit 470er BIOS, aber nur 1024MB VRAM und weniger Takt?

Wasn da passiert?

N0Thing
2010-05-21, 15:09:27
Wäre jetzt noch interessant zu wissen, welche der angezeigten Daten und Taktraten dieser GTX 465 richtig sind.
Bei GPU-Z und den Systeminformationen werden ja unterschiedliche Daten angezeigt.

@Schlammsau

Eher eine GTX 265 in einer falsche Schachtel.

Schlammsau
2010-05-21, 15:12:00
Wäre jetzt noch interessant zu wissen, welche der angezeigten Daten und Taktraten dieser GTX 465 richtig sind.
Bei GPU-Z und den Systeminformationen werden ja unterschiedliche Daten angezeigt.

@Schlammsau

Eher eine GTX 265 in einer falsche Schachtel.

Denk ich auch, aber wie kommt da ein 470er BIOS drauf?

Bucklew
2010-05-21, 15:18:27
Falsches BIOS reicht, sowohl Memory als auch Taktraten können davon manipuliert werden. Also wahrscheinlich eher eine GTX470 mit falschem BIOS. Aber wie man sowas verbrechen kann....

N0Thing
2010-05-21, 15:33:53
Es muß gar kein 470er BIOS sein. GPU-Z liest doch afaik keine Daten aus, sondern greift auf eine Datenbank zurück. Und links im Bild wird unter den Systemeigenschaften eine GTX465 angezeigt.
Der Besitzer sollte vielleicht mal den nvidiaInspector einsetzen, der liest doch die Daten direkt über den Treiber, bzw. die Nvidia-API aus, oder?

E:\ Ohne Bilder des PCBs kann es aber auch einfach ein Fake sein, das sollte man natürlich auch nicht ausschließen. ;)

Bucklew
2010-05-21, 15:52:27
Es muß gar kein 470er BIOS sein. GPU-Z liest doch afaik keine Daten aus, sondern greift auf eine Datenbank zurück. Und links im Bild wird unter den Systemeigenschaften eine GTX465 angezeigt.
Das wird über die PCI-IDs geregelt und das diese können wiederrum über das BIOS geändert werden.

Schlammsau
2010-05-21, 19:06:42
Spannung runter, Lautstärke runter? (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_geforce_gtx_470_gtx_480/)
Die gute Nachricht vorweg: Die Chancen stehen gut, dass die erworbene GeForce GTX 470 oder GeForce GTX 480 nicht so laut bleiben muss, wie sie es nach der Inbetriebnahme ist – und das ganz ohne einen einzigen Euro zu investieren. Bei beiden Grafikkarten besteht die Chance (keine Gewähr!), dass die GPU-Spannung manuell etwas verringert werden kann, was einen großen Einfluss hat.

mapel110
2010-05-21, 19:47:08
Unter Last nur 25 Watt Ersparnis bei der 470er und bei der 480er immerhin 50 Watt. Im Idle-Modus ist nichts mehr zu holen. Der funktioniert wohl schon so, wie er soll. Etwas ernüchternd, aber ich greif dennoch zur 470er. Das sollte mein 425 Watt Enermax-Netzteil noch abkönnen.

Schlammsau
2010-05-21, 20:01:29
Unter Last nur 25 Watt Ersparnis bei der 470er und bei der 480er immerhin 50 Watt. Im Idle-Modus ist nichts mehr zu holen. Der funktioniert wohl schon so, wie er soll. Etwas ernüchternd, aber ich greif dennoch zur 470er. Das sollte mein 425 Watt Enermax-Netzteil noch abkönnen.

Finds gar nicht mal so schlecht, was man da durch undervolten rausholen kann.

Aber mit deinem 425W NT.....wirds wohl ein bisschen eng werden, wenn du OCen willst. Dürfte gerade so für eine 470 mit Standardtakt reichen.

Undertaker
2010-05-21, 20:03:00
Nö. CB misst mit einem übertakteten i7 965 gerade einmal 370W hinter dem Netzteil. Das reicht. :)

LovesuckZ
2010-05-21, 20:04:53
Ich komm mit meinem System
X3@3400Mhz
8GB,
500GB,
XF-Soundkarte
4 Lüfter
GTX480

auf 465 Watt im Furmark. Spiele liegen meist 60 Watt dadrunter. Eine GTX470 zieht ca. 70 Watt weniger im Furmark

Schlammsau
2010-05-21, 20:06:35
Nö. CB misst mit einem übertakteten i7 965 gerade einmal 370W hinter dem Netzteil. Das reicht. :)

Beim zocken, aber wehe du startest einmal den FURMark. Dann haste locker 50-100 Watt mehr. Und das NT so am Limit laufen zu lassen, ist auch net gesund oder!?

Undertaker
2010-05-21, 20:09:45
Beim zocken, aber wehe du startest einmal den FURMark. Dann haste locker 50-100 Watt mehr. Und das NT so am Limit laufen zu lassen, ist auch net gesund oder!?

Da Furmark wiederum kaum die CPU stresst, wird das den Mehrverbrauch der Graka größtenteils wegfressen. Und: 370W am Netzteil sind nur gut 300W davor - also noch über 100W Reserve zu einem 425W Modell. Ich würde es jetzt nicht für einen Neukauf bei einem GTX470 System vorschlagen, aber reichen sollte es locker.

LovesuckZ
2010-05-21, 20:11:18
Mir ist bis jetzt keine Anwendung aufgefallen, die mehr Strom zieht als der Furmark trotz der Auslastung von nur einem Core.

Schlammsau
2010-05-21, 20:12:53
Da Furmark wiederum kaum die CPU stresst, wird das den Mehrverbrauch der Graka größtenteils wegfressen. Und: 370W am Netzteil sind nur gut 300W davor - also noch über 100W Reserve zu einem 425W Modell. Ich würde es jetzt nicht für einen Neukauf bei einem GTX470 System vorschlagen, aber reichen sollte es locker.

Trotzdem, mir wär es zu unsicher.
Und wie gesagt, eigentlich gehts mir nur darum, dass wenn er übertakten will, dass NT höchstwahrscheinlich der limitierende Faktor sein wird.

Megamember
2010-05-21, 20:13:17
Ich hab meine 480 von 0,988 STock auf 0,950 undervolted und zusätzlich noch ein 120er stehend auf den Gehäuseboden geklebt der Luft aufs Kühlblech schaufelt. Unter Last hab ich max 85 Grad bei 62% Lüfterspeed.
Die Karte ist so leise, meine Gehäuselüfter find ich viel nerviger.;)

Undertaker
2010-05-21, 20:13:25
Mir ist bis jetzt keine Anwendung aufgefallen, die mehr Strom zieht als der Furmark trotz der Auslastung von nur einem Core.

OK, bei meiner Kombination von X4 @ >1,4V und HD5770 wird das etwas anders ausfallen als bei dir. ;)

Trotzdem, mir wär es zu unsicher.
Und wie gesagt, eigentlich gehts mir nur darum, dass wenn er übertakten will, dass NT höchstwahrscheinlich der limitierende Faktor sein wird.

Also wenn wir 300W bei CB mit einem übertakteten X58-System haben, ist das bei einem üblichen LGA1156/775/AM3 Quad mit normalem OC locker nochmal 50W weniger. Jetzt rechnen wir für Furmark 100W drauf, sind 350W respektive 75W verbleibende OC-Reserve für die GPU - im worst case Furmark wohlgemerkt. Wenn es ein LC Power wäre vielleicht nicht probieren, ein Enermax sollte das aber durchstehen. ;)

mapel110
2010-05-21, 20:20:11
Ich hab ja nur einen E8400@3Ghz und den werd ich wohl erst Anfang nächsten Jahres austauschen, wenn Sandy da ist. Übertakten will ich die 470er eh nicht. Auf die 2-3 fps kann ich gerne verzichten. Bin irgendwie aus dem OC-Alter raus mit meinen 33 Jahren. ;(

Schlammsau
2010-05-21, 20:23:10
OK, bei meiner Kombination von X4 @ >1,4V und HD5770 wird das etwas anders ausfallen als bei dir. ;)



Also wenn wir 300W bei CB mit einem übertakteten X58-System haben, ist das bei einem üblichen LGA1156/775/AM3 Quad mit normalem OC locker nochmal 50W weniger. Jetzt rechnen wir für Furmark 100W drauf, sind 350W respektive 75W verbleibende OC-Reserve für die GPU - im worst case Furmark wohlgemerkt. Wenn es ein LC Power wäre vielleicht nicht probieren, ein Enermax sollte das aber durchstehen. ;)

Unterschätz mal nicht, das Übertakten mit Overvolting.
Meine 5850 zieht mit 0,1V mehr GPU-Spannung und 200Mhz mehr Speichertakt, fast 80 Watt mehr aus der Dose. :freak:
Bei GDDR5 Speicher ist der Mehrverbrauch durch übertakten immens.
Kann aber natürlich bei der 400er Serie anders sein.

Undertaker
2010-05-21, 20:23:31
Ich hab ja nur einen E8400@3Ghz und den werd ich wohl erst Anfang nächsten Jahres austauschen, wenn Sandy da ist. Übertakten will ich die 470er eh nicht. Auf die 2-3 fps kann ich gerne verzichten. Bin irgendwie aus dem OC-Alter raus mit meinen 33 Jahren. ;(

Dann keine Bedenken mit deinen 425W. :)

Raff
2010-05-22, 11:49:25
Palit Geforce GTX 470 "Own Design" im Hands-on-Test: GTX 400 endlich leise? (http://www.pcgameshardware.de/aid,748576/Palit-Geforce-GTX-470-Own-Design-im-Hands-on-Test-GTX-400-endlich-leise/Grafikkarte/Test/)

Potenziell gut, werkseitig aber zu laut eingestellt. Nun ja, wer eh die Lüfterdrehzahl anpasst und an der VGPU spielt, wird damit Spaß haben.

MfG,
Raff

Schlammsau
2010-05-22, 11:55:15
Palit Geforce GTX 470 "Own Design" im Hands-on-Test: GTX 400 endlich leise? (http://www.pcgameshardware.de/aid,748576/Palit-Geforce-GTX-470-Own-Design-im-Hands-on-Test-GTX-400-endlich-leise/Grafikkarte/Test/)

Potenziell gut, werkseitig aber zu laut eingestellt. Nun ja, wer eh die Lüfterdrehzahl anpasst und an der VGPU spielt, wird damit Spaß haben.

MfG,
Raff

Ähm....sie ist laut euch beim Gamen genauso laut, wie das Ref-Design, und sogar lauter im Idle. Einzig allein beim FUR, hat sie Vorteile.
Noch dazu verbraucht sie deutlich mehr Strom beim gamen!

Mal unter uns, was ist an der Karte besser, als am Referenzdesign?

PCGH_Raffael
2010-05-22, 12:03:15
Die werkseitige Einstellung ist klar verbesserungsfähig. Mit etwas Tweakerei an der VGPU und der Lüfterdrehzahl lässt sich die Kiste aber auch mit 2,1 bis 2,8 Sone betreiben, ohne zu überhitzen – das ist mit dem Referenzkühler nicht drin. Des Weiteren ist die Karte angenehm kompakt.

Die Leistungsaufnahme schwankt selbst zwischen zwei baugleichen Grafikkarten um 10 bis 20 Watt, von daher sagt die Messung dieser einen Karte nicht aus, dass das Palit-Design immer mehr braucht. Die VID der GPU liegt 0,975 Volt.

MfG,
Raff

Gast
2010-05-22, 12:07:26
Die Karte ist kürzer als das Referenzdesign und die Plasteabdeckung samt Lüfter kann man wohl recht einfach abnehmen, sodass man hier die Kühlung noch weiter optimieren kann. Und auch so kann man wohl, wenn man auf die Temperaturen der Referenz regelt bei der Lautstärke einiges gut machen.
Nebenbei gibt es noch einen Displayport.

Wenn die Karte sich preislich attraktiv positioniert, wie es häufig bei Palit war, sollte man ganz klar zu dieser Karte greifen.

Malabolge
2010-05-22, 12:09:40
Da Furmark wiederum kaum die CPU stresst, wird das den Mehrverbrauch der Graka größtenteils wegfressen. Und: 370W am Netzteil sind nur gut 300W davor - also noch über 100W Reserve zu einem 425W Modell. Ich würde es jetzt nicht für einen Neukauf bei einem GTX470 System vorschlagen, aber reichen sollte es locker.

Du hast soeben sämtliche Enegieprobleme der Erde gelöst !:cool:

300W in - 370W out. Das sollstest du so schnell wie möglich einen Energiekonzern anbieten !:biggrin:
Du wirst Reich werden. Sehr Reich , Sehr Schnell;D;D

Aus einem "Umformer" mehr Leistung rausholen wie man reinsteckt - Respekt !

Schlammsau
2010-05-22, 12:17:06
Die werkseitige Einstellung ist klar verbesserungsfähig. Mit etwas Tweakerei an der VGPU und der Lüfterdrehzahl lässt sich die Kiste aber auch mit 2,1 bis 2,8 Sone betreiben, ohne zu überhitzen – das ist mit dem Referenzkühler nicht drin. Des Weiteren ist die Karte angenehm kompakt.

Die Leistungsaufnahme schwankt selbst zwischen zwei baugleichen Grafikkarten um 10 bis 20 Watt, von daher sagt die Messung dieser einen Karte nicht aus, dass das Palit-Design immer mehr braucht. Die VID der GPU liegt 0,975 Volt.

MfG,
Raff

Jetzt hat man nur das Problem der Wärmeabführung aus dem Gehäuse. Diese 200Watt Verlustleistung müssen ja irgendwie ais dem Gehäuse.
Merk das auch sehr deutlich bei mir, die Karte selber ist zwar deutlichst leiser (unhörbar) aber die Wärme bleibt im Gehäuse. Leistungsfähige Gehäuselüfter sind bei so einem Design absolute Pflicht!

Gast
2010-05-22, 12:18:46
Jedenfalls zeigt uns Fermi, dass ab 200 Watt Leistungsaufnahme an keine vernünftige Kühllösung mehr zu denken ist.

Botcruscher
2010-05-22, 12:20:09
Must du wieder auf dem Energieerhaltungssatz rum reiten? 370W sind natürlich der Output. Auf der Netzseite kommt dann noch die Verlustleistung dazu.

Gast
2010-05-22, 12:31:12
Jetzt hat man nur das Problem der Wärmeabführung aus dem Gehäuse. Diese 200Watt Verlustleistung müssen ja irgendwie ais dem Gehäuse.
Merk das auch sehr deutlich bei mir, die Karte selber ist zwar deutlichst leiser (unhörbar) aber die Wärme bleibt im Gehäuse. Leistungsfähige Gehäuselüfter sind bei so einem Design absolute Pflicht!
Lustig wie du die 200W als normal abstust, während du damals die GTX 280 und später GTX 285 Leistung scharf kritisiert hast.

Ich glaub der 4890 Start war ungefähr der Zeitrahmen, in denen nicht nur Idle ohne Bedeutung war.
Ich weiß natürlich, das die MGPU Schweinereien gerne unter den Teppich gekehrt hast, um dann vollkommen verschiedene Produkte vergleichen zu können, sprich Flagschiff GTX 280 vs Performanceklasse 4870 512.

LovesuckZ
2010-05-22, 15:33:31
Die Inno3D GTX470 Hawk (http://www.cdrinfo.com/Sections/Reviews/Specific.aspx?ArticleId=27610&PageId=8) scheint besser gelungen zu sein, was man aber wohl anhand der Kühllösung auch erwarten darf:

The Inno3D GTX 470 Hawk is huge in size, it consumes much power and as such, it has to be equipped with a more efficient cooling solution than Nvidia's stock one. That's why Inno3D has introduced its own cooling system for its Fermi series of graphics cards - with a great success according to our tests. The temperature of the GPU was just 73 degrees C Celsius under full overclocking, while Nvidia's stock cooling system kept the temperature at around 90 C.

Undertaker
2010-05-22, 16:10:30
Du hast soeben sämtliche Enegieprobleme der Erde gelöst !:cool:

300W in - 370W out. Das sollstest du so schnell wie möglich einen Energiekonzern anbieten !:biggrin:
Du wirst Reich werden. Sehr Reich , Sehr Schnell;D;D

Aus einem "Umformer" mehr Leistung rausholen wie man reinsteckt - Respekt !

Ähm, nur weil ich die Kette von Hardware->Netzteil->Stromnetz gezogen habe und somit mit "davor" die Leistungsaufnahme der Hardware ohne Netzteil definiert habe (mag unüblich sein, war aber aus dem Zusammenhang klar erkennbar), brauchst du die Diskussion nichts ins lächerliche ziehen. Ich denke jedem sollte klar sein, worauf die 370W respektive 300W bezogen waren.

Gast
2010-05-22, 17:30:17
Die Inno3D GTX470 Hawk (http://www.cdrinfo.com/Sections/Reviews/Specific.aspx?ArticleId=27610&PageId=8) scheint besser gelungen zu sein, was man aber wohl anhand der Kühllösung auch erwarten darf:

Sieht ziemlich hässlich aus, aber wenn sie leise und kühl ist, kaufe ich so eine. :D

airbag
2010-05-22, 17:33:02
Mir ist bis jetzt keine Anwendung aufgefallen, die mehr Strom zieht als der Furmark trotz der Auslastung von nur einem Core.
Folding@home ?

LovesuckZ
2010-05-22, 17:36:06
Gute Frage, werd ich gleich mal ausprobieren.

Schlammsau
2010-05-22, 18:05:23
Folding@home ?
Definitiv nicht!
F@H zieht genauso viel Strom wie ein stinknormales Game.

airbag
2010-05-22, 18:09:44
Hab gerade mal das hier über google gefunden.
http://www.tomshardware.de/foren/242965-4-folding-home-furmark-stromverbrauch

Reaping_Ant
2010-05-23, 08:16:20
Gerade gefunden: Single-Slot GTX 470 von Galaxy (http://www.anandtech.com/show/3731/news-a-single-slot-gtx-470-from-galaxy)

Ich kann mir nicht vorstellen, dass diese Karte auch nur halbwegs leise zu kühlen ist, auch wenn die Kühlerkonstruktion noch so toll ist.

Mancko
2010-05-23, 12:05:54
Gerade gefunden: Single-Slot GTX 470 von Galaxy (http://www.anandtech.com/show/3731/news-a-single-slot-gtx-470-from-galaxy)

Ich kann mir nicht vorstellen, dass diese Karte auch nur halbwegs leise zu kühlen ist, auch wenn die Kühlerkonstruktion noch so toll ist.

Galaxy ist aber in Deutschland nicht vertreten oder? Habe die hier noch nie gesehen. Insofern würde mir das dann mal nix nützen.

Fetter Fettsack
2010-05-23, 13:24:45
Insofern würde mir das dann mal nix nützen.

Darf man aus dieser Formulierung schließen, dass du bereit wärst, dir eine Single-Slot luftgekühlte GTX480 in den Rechner zu bauen?

y33H@
2010-05-23, 13:28:19
Galaxy = KFA², letzteres ist der Mittlerweile-Name für Europa.

Mancko
2010-05-23, 13:50:28
Darf man aus dieser Formulierung schließen, dass du bereit wärst, dir eine Single-Slot luftgekühlte GTX480 in den Rechner zu bauen?


Äh so wie ich das sehe geht es hier um eine GTX 470 und nicht 480. Ich gebe eigentlich nicht mehr als 300 Euro alle paar Jahre für eine Graka aus. Maximal 350 Euro. Momentan habe ich noch die gute alte 8800GTS 640MB. Wenn die 480 allerdings in naher Zeit unter die 400 fallen sollte, könnte ich das nochmal überdenken :).. Normalerweise bin ich nicht bereit für paar % Mehrleistung diese exorbitanten Preisaufschläge zu bezahlen. Deshalb auch damals die 8800GTS statt der 8800GTX.
Momentan ist die GTX 470 preislich das beste Angebot. Ab 316 Euro gehts bereits los.


Galaxy = KFA², letzteres ist der Mittlerweile-Name für Europa.
Ah ok das wusste ich noch nicht. Danke für den Hinweis. KFA² ist mir natürlch ein Begriff. Mal schaun wann die ersten Custom Designs von Palit, Gainward, Inno3D und KFA² kommen.

Fetter Fettsack
2010-05-23, 14:48:56
Oje, welch blamable Fehlleistung. Ich hatte da ein Photo einer GTX480 Single Slot im Kopf, das unlängst im Forum herumgeisterte, und habe zu ungenau gelesen. Tut mir leid :-)

Wie willst du denn die zu erwartende hohe Lüfterlautstärke (die GTX470 ist ja auch nicht unbedingt kühl, wenn man nicht gerade die Kühlung wie Inno3D gestaltet) meistern?

Mancko
2010-05-23, 19:35:14
Das ist bei mir kein Problem.
Ich setze ein Yeong Yang Big Server Cube seit 2 Jahren ein. Es sind außreichend Gehäuselüfter und Platz vorhanden. Es liegen keine Kabel im Weg rum die die Luftzuführ behindern.

Hier ein Link zum Gehäuse:
http://cgi.ebay.de/Yeong-Yang-Server-Cube-YY-B0420-schwarz-YY-0420_W0QQitemZ380211288259QQcmdZViewItem?rvr_id=&rvr_id=&cguid=037434601250a0e2027362d3fec7790b

Da hätte ich auch mit einer GTX 480 kein Problem. Zu warm wird es also schonmal nicht. Lautstärke ist wie gesagt sekundär. Ich spiele ausschliesslich mit Kopfhörer und im Idle hört man die Karten sowieso kaum.

Tesseract
2010-05-24, 15:43:14
Mir ist bis jetzt keine Anwendung aufgefallen, die mehr Strom zieht als der Furmark trotz der Auslastung von nur einem Core.

furmark+prime95 mit 3 threads lässt den verbrauch gegenüber nur furmark ziemlich explodieren.
ich hab damit gut das doppelte von einem durschnittlichem spiel.

y33H@
2010-05-24, 15:44:00
CoreDamage plus Furmark :D

LovesuckZ
2010-05-24, 15:46:51
furmark+prime95 mit 3 threads lässt den verbrauch gegenüber nur furmark ziemlich explodieren.

Ist auch logisch, nur dies ist eben rein "theoretisch". In Spielen wird man nie den Fall haben, dass beide Bestandteile zu 100% ausgelastet werden können.
Das extremste was ich in die Nähe vom Furmark kam, ist der gluxMark als reiner GPU Test. Ansonsten liege ich meisten zwischen 70-100 Watt darunter mit der GTX480.

mapel110
2010-05-24, 18:17:22
http://www.tweaktown.com/reviews/3300/palit_geforce_gtx_470_dual_fan_video_card/index.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+TweaktownArticlesReviewsAndGuidesRss20+%28TweakTown+Latest+ Tech+Coverage+RSS%29
Noch ein Review der Palit Dual Fan 470

dildo4u
2010-05-25, 13:02:11
Folding@Home Client 3 für GTX4XX Karten ist da.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484319

Geht im Softwarebereich sonst ein bissel unter kann das jemand mit GTX 4XX testen.

Zotac bringt GeForce GTX 480/470 AMP! Edition

http://www.abload.de/img/1isym.jpg

Die „AMP!“-Grafikkarten sind mit einem neuen Kühlungssystem auf Basis des Zalman VF-3000 (ComputerBase-Test) ausgestattet, das sich mit deutlich besseren Kühleigenschaften bei gleichzeitiger Minimierung des Geräuschpegels auszeichnen soll

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/mai/zotac_geforce_gtx_470_480/

hq-hq
2010-05-25, 20:57:22
das folding@home "seti" geht net gescheit: "Note: The Viewer included with the Systray client is not yet working well for all video cards, and is a known bug." kann ich nur bestätigen.

die zotac amps sehen ja lustig aus, nice

Gast
2010-05-27, 10:00:47
GTX 480 AMP! im Test @ Luxx:
http://www.hardwareluxx.de/images/stories/galleries/reviews/ZotacGTX480AMP/Benches/laut2.jpg
http://www.hardwareluxx.de/images/stories/galleries/reviews/ZotacGTX480AMP/Benches/temp2.jpg
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15498-test-zotac-geforce-gtx-480-amp-edition.html?start=4

Dabei ist der Lastverbrauch durch den OC noch fast 20W höher als bei einer Referenz GTX 480.

:up:

airbag
2010-05-27, 10:03:45
Naja leiser als das Refdesign alle mal, jedoch immer noch viel zu laut.

Raff
2010-05-27, 10:08:03
Eigenartig. Die Karte ist deutlich kühler, saugt aber mehr Strom – ich hätte einen niedrigeren Verbrauch erwartet. Takt allein reißt nicht so viel Watt. Ob Zotac da mehr Spannung gibt? Das wäre IMO überflüssig, aber was tun Hersteller nicht alles für eine Sicherheitstoleranz. Strange ist auch, dass die so kurz nach der gestrigen Pressemitteilung schon einen Test haben.

MfG,
Raff

Gast
2010-05-27, 10:09:20
Naja leiser als das Refdesign alle mal, jedoch immer noch viel zu laut.
Es bleibt eben eine fast 300W Grafikkarte, wer nichts hören will, muss eine WaKü verbauen.
Aber wie man an der Temperatur sieht, hat man hier noch bei der Lautstärke Potential nach unten.

Für 40€ wohl auch eine gute Möglichkeit eine vorhandene GTX 400 leise zu machen: http://geizhals.at/deutschland/a533717.html

Hugo78
2010-05-27, 10:10:51
@airbag
Wenn eine 480 unter Last leiser als ne 5850 ist?

airbag
2010-05-27, 10:14:55
Ist immer Ansichstsache. Ich finde es immer noch zu laut. --> Wenn man zu Beispiel eine PCS+ damit in Relation gesetzt hätte, würde es deutlich zugunsten der PCS+ ausfallen.

edit:
Vor allem weil man den Zalmankühler auf der Karte auch seperat kaufen kann und die Lüfter von der Lautstärke her ein reiner FAIL sind.

Hugo78
2010-05-27, 10:21:35
Ja gut ne PCS+ ist auch unhörbar bei einem schlossenen Gehäuse und 50cm Entfernung, dagegen ist alles natürlich laut.
Aber was die Kühlung angeht, es ist besser ein Hersteller nimmt was gutes von der Stange, als was schlechtes aus eigener Produktion oder?!

Gast
2010-05-27, 10:23:53
Ist immer Ansichstsache. Ich finde es immer noch zu laut. --> Wenn man zu Beispiel eine PCS+ damit in Relation gesetzt hätte, würde es deutlich zugunsten der PCS+ ausfallen.

Eine HD5800 liegt aber in einer ganz anderen Verbrauchsklasse, sodass es klar ist das man hier mit gleichem Aufwand ein besseres Resultat erzielen kann.

Aber wenn man nun eine Referenz-GTX 480 ohne Spannungerhöhung hernimmt und den VF3000 so regelt, dass man auf die Originaltemperatur kommt, ist man subjektiv wohl nicht weit weg von einer PCS+.

Gast
2010-05-27, 10:24:19
Ist der AMP-Kühler der GTX 470 1:1 identisch mit dem AMP-Kühler der GTX 480? Wenn ja, wäre die GTX 470 damit theoretisch unhörbar.

airbag
2010-05-27, 10:25:52
Klar Custom Designs sind meiner Meinung nach immer zu favorisieren, wenn man es "einigermaßen" auf die Lautstärke anlegt.
Aber oftmals ist es dann auch besser(billiger manchmal auch) sich den Kühler selber draufzupacken , weil die Hersteller oft mals auch nur abgespeckte Versionen eines Kühlers auf den Custom Designs verbauen. Bestes Beispiel die HD5770 mit AC L2 Pro (OEM) Kühler.
Die Version auf den Karten sind lauter und der Kühler kleiner.

edit:
Eine HD5800 liegt aber in einer ganz anderen Verbrauchsklasse, sodass es klar ist das man hier mit gleichem Aufwand ein besseres Resultat erzielen kann.
Eben deswegen hat man bei einer HD5850 im Gegensatz zu den GTX4xx Karten deutlich mehr Spielraum nach unten von der Lautstärke und nach oben von den Temperaturen, weswegen eine HD5850PCS + dennoch deutlich leiser sein kann.

edit2:
. Strange ist auch, dass die so kurz nach der gestrigen Pressemitteilung schon einen Test haben.


Darf ich fragen warum es komisch ist?:D
Ist mir bei HWL in der letzten Zeit relativ häufig aufgefallen, dass die sehr schnell Test haben(wie bei der HD5970 Toxic).

Gast
2010-05-27, 10:28:22
Es bleibt eben eine fast 300W Grafikkarte, wer nichts hören will, muss eine WaKü verbauen.
Wer öfter einige Huntert $ in Grafikkarten investiert sollte eh sehr ernsthaft über eine Wakü nachdenken.

Auch wenns erstmal teurer ist und die Balken nicht anschwellen lässt, am Ende hat man ein deutlich passenderes Paket.

Unsere Pseudo Green IT Heinis müssten das besonders betonen, denn nebenbei sinkt die eletkrische Leistung ein gutes Stück.

Gast
2010-05-27, 10:30:00
Eben deswegen hat man bei einer HD5850 im Gegensatz zu den GTX4xx Karten deutlich mehr Spielraum nach unten von der Lautstärke und nach oben von den Temperaturen, weswegen eine HD5850PCS + dennoch deutlich leiser sein kann.
Warum machst du so einen Müllvergleich?
5870 vs 470 oder lass es stecken.

airbag
2010-05-27, 10:32:27
Es ist doch völlig egal. Die HD5870PCS+ hat den gleichen Kühler und die Temperatur- bzw Lautstärkedifferenz ist zwischen Karten/Hd5850/70) minimal.
Es ändert aber nach wie vor nichts daran, dass gleiches auch für die HD5870PCS+ gilt.

Gast
2010-05-27, 10:36:37
Warum machst du so einen Müllvergleich?
5870 vs 470 oder lass es stecken.

Lass du besser stecken. Die 470 hat in den meisten Games keine Chance gegen die HD5870.

Gast
2010-05-27, 10:40:00
Lass du besser stecken. Die 470 hat in den meisten Games keine Chance gegen die HD5870.Erzähl kein Blech.
Aber vermutlich gehts dir rein um FPS, geil meine 7900 GT liefert mir in Crysis auch 1000FPS wenn ich will.

Es ist doch völlig egal. Die HD5870PCS+ hat den gleichen Kühler und die Temperatur- bzw Lautstärkedifferenz ist zwischen Karten/Hd5850/70) minimal.
Es ändert aber nach wie vor nichts daran, dass gleiches auch für die HD5870PCS+ gilt.
Dann besteht für dich kein Grund die 5850 zu nennen.

Iruwen
2010-05-27, 10:51:41
Eigenartig. Die Karte ist deutlich kühler, saugt aber mehr Strom – ich hätte einen niedrigeren Verbrauch erwartet. Takt allein reißt nicht so viel Watt. Ob Zotac da mehr Spannung gibt? Das wäre IMO überflüssig, aber was tun Hersteller nicht alles für eine Sicherheitstoleranz.

Ihr hattet doch schon festgestellt dass die Serienstreuung beim Stromverbrauch enorm ist.

Iruwen
2010-05-27, 11:00:26
Aber oftmals ist es dann auch besser(billiger manchmal auch) sich den Kühler selber draufzupacken , weil die Hersteller oft mals auch nur abgespeckte Versionen eines Kühlers auf den Custom Designs verbauen.

Billiger ist es nur solange man kein Problem mit der Karte hat. Ansonsten darf man sich eine neue Karte kaufen da keine Garantie. Dann lieber ein paar Euro mehr und auf der sicheren Seite sein. U.a. deshalb ist das Produkt auch teurer als die Summe der Komponentenpreise.

derguru
2010-05-27, 11:01:02
nochmal ZOTAC GeForce GTX 480 AMP! Edition (http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/)

airbag
2010-05-27, 11:04:45
Dann besteht für dich kein Grund die 5850 zu nennen.
Meine Fresse. Es ging um die Lautstärke und Temperatur, nicht um die Leistung. Von daher ist so eine Korintherkackerei doch lächerlich.
@Iruwen
Das ist halt, dass Risiko wenn man eine richtig leise Karte haben will. Custom Designs sind aber nach wie vor gute Kompromislösungen.
Zwar verliert man bei dem Kühelrwechsel seine Garantie, jedoch hindert es viele nicht ihre Karten trotzdem einzuschicken udn auf die Garantie zu pochen . (Naja ist ja eigentlich Betrug, aber wenn man sich nicht zu doof anstellt ,kommt man damit durch, weil viele Hersteller nicht jede Karte auf Herz und NIeren prüfen)^^.

edit:
@techpowerup Test.
Irgendwas stimmt da mit der Idleangabe bei der Lautstärke nicht.
Etwa falscher Wert oder verkruppeltes BIOS, weswegen der Lüfter nicht runterdreht ?

Gast
2010-05-27, 11:09:49
nochmal ZOTAC GeForce GTX 480 AMP! Edition (http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/)
Hmmm.... :|

Zotac:
Desktop 50 MHz 68 MHz 0.99 V
Blu-Ray Playback 405 MHz 162 MHz 0.99 V
3D Load 756 MHz 950 MHz 1.10 V

Referenz:
Desktop 50 MHz 68 MHz 101 MHz 0.96 V
Blu-Ray Playback 405 MHz 162 MHz 810 MHz 0.99 V
3D Load 700 MHz 924 MHz 1400 MHz 0.99 V
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/35.html

Wie kommen dann solche Verbrauchswerte zusammen? Im Idle sind es 16W weniger und bei BD gar 35W.

Die Laustärkenmessung Last unterscheidet sich auch massiv von Luxx.

Gast
2010-05-27, 11:12:12
edit:
@techpowerup Test.
Irgendwas stimmt da mit der Idleangabe bei der Lautstärke nicht.
Etwa falscher Wert oder verkruppeltes BIOS, weswegen der Lüfter nicht runterdreht ?
Ja, das BIOS hat wohl nur einen Lüfterwert.
Deswegen wohl auch die Idle-Werte, da es dann nur 46°C Idle statt 65°C Referenz sind:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/32.html
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/35.html

airbag
2010-05-27, 11:12:17
Weniger Leckströme durch niedrigere Temps ?

BTW
Wenn mit sowas die Grundplatte ersetzt werden solll, kann man es sich ja glatt nachbauen.^^
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/images/cooler4.jpg

Iruwen
2010-05-27, 11:22:34
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/32.html

Bei 6% mehr Chip- und 9% mehr Speichertakt kommen 9,7% mehr FPS raus?

Gast
2010-05-27, 11:27:02
Meine Fresse. Es ging um die Lautstärke und Temperatur, nicht um die Leistung. Von daher ist so eine Korintherkackerei doch lächerlich.
Du bist auf dem falsche Dampfer. Wenns nicht um Leistung oder besser gesagt Bang for the Buck geht kannst du gleich eine passive 4350 herziehen.