Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Burgard
2010-01-07, 12:44:35
Die zweifle ich nach wie vor an. Auch die Karten auf der CES haben 6 plus 8-Pin Stromanschlüsse. Ergo TDP >225W. Wie man da mit kaum noch Luft zu den 300W einen zweiten Chip unter bringen will ohne diesen derart zu kastrieren und runterzutakten das es keinen Sinn mehr hat will ich sehen.
Was spricht gegen 2X8-PIN?
Der Kunde sollte dann entscheiden, ob er gewillt ist, so ein MOnster in seinen Rechner einbauen zu wollen.
Zumindest könnte auch AMd mit 2X8 reagieren und eine 5990 mit vollem Takt anbieten bzw. gar eine Lightning.
StefanV
2010-01-07, 12:48:36
2x8 Pin ist AFAIR nicht spezifiziert, da liegt das Problem.
6+8 pin sind ja auch schon 300W, ein 8pin Stecker soll etwa 150W (maximal) entsprechen, was dann 375W gesamt entsprechen würde...
Burgard
2010-01-07, 12:53:00
Das es nicht spezifiziert ist, das ist mir klar, aber technisch durchaus zu realisieren und warum also dann nicht als Spezial-Edition anbieten.
Ein PR-Sieg wäre es auf jeden Fall.
MorPheuZ
2010-01-07, 12:54:36
Wer sagt denn dass die +~30% nicht gewollt sind
Was spricht gegen 2X8-PIN?
Meines wissens die PCIe-Spezifikation
derguru
2010-01-07, 12:57:42
Die Wahrheit liegt wie üblich dazwischen. Das 36-Prozent-Plus ist eine Zahl in einem Benchmark in einer Einstellung. Ergo wird's sich wohl um etwas im Bereich "10 bis 40 Prozent schneller" drehen, mit einem Mittel um 20 Prozent. So wie GTX 285 vs. HD 5870. Wetten? ;)
MfG,
Raff
naja du bist auch der einzige der ein mittelwert von 20% sieht,kannst deine wette gar nicht gewinnen.
mapel110
2010-01-07, 13:18:19
wayne, dafür gabs die 5970 dann schon 6 Monate und der refresh steht schon am Start ;)
6 Monate, drei davon auf dem Papier. ^^
N0Thing
2010-01-07, 13:22:16
Wenn gerade die lustige Ratestunde läuft: Ich tippe auf ca. 60% schneller als eine GTX285 und das ergibt dann wohl zwischen 20% und 40% mehr Frames im Vergleich mit einer HD5870.
Damit könnte Nvidia auch auf eine mGPU-Karte verzichten und für die Leistungskrone eine 300W Ultra-Variante bringen, die dann vielleicht immer schneller ist, als eine HD5970.
Das es nicht spezifiziert ist, das ist mir klar, aber technisch durchaus zu realisieren und warum also dann nicht als Spezial-Edition anbieten.
Ein PR-Sieg wäre es auf jeden Fall.
Wenn man den Partner freie Bahn lässt dürfte es schon reichen.
Dann bringen eben nur Asus und Galaxy eine GX2 raus.
Eventuell greift man denen noch unter die Arme, damit das nicht noch ewig dauert.
Burgard
2010-01-07, 13:22:58
6 Monate, drei davon auf dem Papier. ^^
Und schon sind wir wieder bei der Verfügbarkeit des Fermi.
Die wird selbstverständlich 1000mal besser sein als bei AMD.
Wenn man den Partner freie Bahn lässt dürfte es schon reichen.
Dann bringen eben nur Asus und Galaxy eine GX2 raus.
Eventuell greift man denen noch unter die Arme, damit das nicht noch ewig dauert.
An sowas habe gedacht.
MARS EXTREM.^^
naja du bist auch der einzige der ein mittelwert von 20% sieht,kannst deine wette gar nicht gewinnen.
Es ist völlig wayne, ob's (bei 4x MSAA!) nun 20 oder 30 Prozent im Mittel sind. Die HD 5870 ist ein hübsches Stück schneller als die GTX 285. Mit 8x MSAA ist es noch mehr, aber diese Einstellung ist IMO noch "wayniger", zumal das Ding SSAA beherrscht.
Damit könnte Nvidia auch auf eine mGPU-Karte verzichten und für die Leistungskrone eine 300W Ultra-Variante bringen, die dann vielleicht immer schneller ist, als eine HD5970.
Eine Karte, die im Schnitt 30 Prozent schneller als die HD 5870 ist, hat die HD 5970 bereits geschlagen. Letztere mag zwar um bis zu 60 Prozent vor der HD 5870 liegen, aber wir wissen ja mittlerweile alle, dass das Spielgefühl in 99 Prozent der Fälle etwas anderes vermittelt.
MfG,
Raff
Leistungskrone bedeutet auch die maximale MGPU Konfiguration.
Also 3 GF100 vs 2 5970.
Das wäre aber nicht so das schlagende Argument um auf den GT100 zu warten.
Kommt immer darauf an was man aktuell hat.
Mit einer Radeon 58xx ist es logischerweise sinnlos, der Unterschied ist einfach zu gering.
Kommt man von einer Radeon 48xx ist eine 58xx auch ein schönes Upgrade, ob man da auf die Geforce warten sollte ist auch fraglich.
Hat man aber einge 28xGTX bringt imo die 58xx-Reihe zu wenig Mehrleistung um sinnvoll aufzurüsten, die einzig sinnvolle variante ist da eigentlich nur auf die neue Geforce zu warten.
6 Monate, drei davon auf dem Papier. ^^
was?
Ich hab 3x 5870 seit September, also erzähl nicht sowas, bei Geizhals sind mehr als genug gelistet davon.
MorPheuZ
2010-01-07, 13:35:52
Leistungskrone bedeutet auch die maximale MGPU Konfiguration.
Also 3 GF100 vs 2 5970.
Schwachsinn! Die Leistungsspitze ist: 1* 5870 od. 1*GF100 als Chip
y33H@
2010-01-07, 13:37:22
Also 3 GF100 vs 2 5970. Dann 3x GF.
CF mit 4 GPUs ist µRuckler-Seuche³. Wobei 3W-SLI auch nicht gerade toll ist, aber zumindest (weitaus) weniger µRuckler und einen geringeren Input-Lag, da nur 3 statt 4 GPUs rendern.
Spannend ist GTX380 vs. HD5870, alles was MGPU ist, ist eh *brrrrr* imo.
Warum kloppt ihr euch jetzt mit selbst aufgestellten "Leistungskrone"-Definitionen? Ich könnte jetzt sagen, dass Preis-Leistung viel cooler ist als absolute Zahlen und werfe die HD 5850 ins Feld. :ulol:
MfG,
Raff
eben, auch nur +1% ist schneller.
reunion
2010-01-07, 13:43:30
Eine Karte, die im Schnitt 30 Prozent schneller als die HD 5870 ist, hat die HD 5970 bereits geschlagen. Letztere mag zwar um bis zu 60 Prozent vor der HD 5870 liegen, aber wir wissen ja mittlerweile alle, dass das Spielgefühl in 99 Prozent der Fälle etwas anderes vermittelt.
MfG,
Raff
"Der Längste" ist wohl trotzdem noch immer mehr wert als man denkt. Ansonsten würde man die Multi-GPU-Karten wohl auch gar nicht bringen, denn der praktische nutzen ist zumindest zweifelhaft. Ohne Fermi Multi-GPU hätte AMD damit immerhin noch die Leistungskrone, also die schnellste Karte.
derguru
2010-01-07, 13:50:15
Es ist völlig wayne, ob's (bei 4x MSAA!) nun 20 oder 30 Prozent im Mittel sind. Die HD 5870 ist ein hübsches Stück schneller als die GTX 285. Mit 8x MSAA ist es noch mehr, aber diese Einstellung ist IMO noch "wayniger", zumal das Ding SSAA beherrscht.
es ist aber nicht wayne leistung zu unterschlagen wenn bei vielen reviews es meist bis zu 40% sind(im mittelwert wohlgemerkt) wie z.b. cb (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet)und ja auch bei 4x msaa.8x msaa muss man ja gar nicht erst erwähnen.
die 5970 ist auch nicht nur 30% schneller als eine 5870,das ist genauso schwachsinnig.
bencht mal mit ssaa und ruckzuck sind es im durschnitt mindestens 50%.ich persöhnlich hätte auch lieber eine 5870 1000/1300 mit 2gb die sicherlich auch spätestens zum fermi release kommen wird.
es ist aber nicht wayne leistung zu unterschlagen wenn bei vielen reviews es meist bis zu 40% sind(im mittelwert wohlgemerkt) wie z.b. cb (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet)und ja auch bei 4x msaa.8x msaa muss man ja gar nicht erst erwähnen.
"Bei vielen Reviews bis zu" – warum sollte man immer das obere Ende nehmen? Ein Test sagt 20, der andere 40, im Mittel sind's 30. Ich sehe das eben neutral und nicht zugunsten Atis. Gib mir einen kompetent durchgeführten Test mit 50 Spielen in 3 Auflösungen und sowohl 4x als auch 8x MSAA, dann akzeptiere ich diesen als statistisch aussagekräftiges Mittel. :)
die 5970 ist auch nicht nur 30% schneller als eine 5870,das ist genauso schwachsinnig.
Das habe ich auch nicht gesagt. Gefühlt stimmt das jedoch oft.
MfG,
Raff
y33H@
2010-01-07, 13:55:25
Ohne Fermi Multi-GPU hätte AMD damit immerhin noch die Leistungskrone, also die schnellste Karte. Deine Aussage impliziert, eine GTX380 sei langsamer als eine HD5970. Praktisch ist sie selbst wenn sie 10% weniger angezeigte Fps rendert, besser.
"Der Längste" ist wohl trotzdem noch immer mehr wert als man denkt.Offenbar sind viele Leute der Ansicht, dass alle Karten des IHVs toll sind, nur weil der gerade den "Afrocock" raushängen lässt :freak:
@ derguru
Bei CB fließen Battleforge-Werte mit DX11 ins Rating ein - das verzerrt. In BF ist eine HD5870 in 1920 + 4x MSAA kranke 97% vor der GTX285. Auch wird Stalker CoP wird mit DX11 gebencht, aber ohne HW-Tessellation, was die HD5k auch weit nach vorne katapultiert: In CoP ist eine HD5870 in 1920 + 4x MSAA heftige 74% vor der GTX285. Im Gegenzug fällt aber Batman AA raus aus dem Ranking. Soviel zu so was tollem wie Ratings ...
EDIT
http://www.abload.de/img/2010-01-07_1401320f5z.png
http://www.abload.de/img/2010-01-07_140147ffyv.png
Vergleichbarer Rechenweg - ja nee, ist klar ... die Post-Effekte werden durch Direct Compute 5.0 beschleunigt. Man hätte auch einfach mit DX10 benchen können.
Warum kloppt ihr euch jetzt mit selbst aufgestellten "Leistungskrone"-Definitionen?
Die Länge zählt, auch wenn ihr das PCGH nicht glauben wollt. ;)
Spielbarkeit ist egal, es heisst doch je länger desto besser.
Und solange die Länge mittels FPS Diagrammen verglichen wird, wird das auch so bleiben.
Gut, für Jungs wie euch bei der PCGH hat man die X2 Karten entworfen. Ist zwar der selbe Schnee, aber auf eine Quasikarte.
Geniestreich, als nächstes kommen Triple und Quadkarten, entsprechend auch mehrere Slots dick.
Spätestens dann wird 3 und 4 GPUs so behandelt wie 2 GPUs bzw 1 GPU, den dann erkennt man den MGPU Kram von außen nur noch durch die Dicke und die Anzahl der Stromanschlüsse.
reunion
2010-01-07, 13:57:13
Deine Aussage impliziert, eine GTX380 sei langsamer als eine HD5970. Praktisch ist sie selbst wenn sie 10% weniger angezeigte Fps rendert, besser.
Ich denke es war völlig unmissverständlich was ich mit "der Längste" meinte. Wer da was falsches zu verstehen glaubt der macht das absichtlich.
Offenbar sind viele Leute der Ansicht, dass alle Karten des IHVs toll sind, nur weil der gerade den "Afrocock" raushängen lässt :freak:
Was ist ein "Afrocock"?
das warten auf die 2gb versionen der hd5 wird für mich langsam unerträglich.
Deine Aussage impliziert, eine GTX380 sei langsamer als eine HD5970. Praktisch ist sie selbst wenn sie 10% weniger angezeigte Fps rendert, besser.
Leider spielt das dort draussen keine Rolle.
Die Länge zählt, auch wenn ihr das PCGH nicht glauben wollt. ;)
Spielbarkeit ist egal, es heisst doch je länger desto besser.
Und solange die Länge mittels FPS Diagrammen verglichen wird, wird das auch so bleiben.
Gut, für Jungs wie euch bei der PCGH hat man die X2 Karten entworfen. Ist zwar der selbe Schnee, aber auf eine Quasikarte.
Geniestreich, als nächstes kommen Triple und Quadkarten, entsprechend auch mehrere Slots dick.
Spätestens dann wird 3 und 4 GPUs so behandelt wie 2 GPUs bzw 1 GPU, den dann erkennt man den MGPU Kram von außen nur noch durch die Dicke und die Anzahl der Stromanschlüsse.
Die Länge zählt nur bei den Leuten, die von (Render-)Technik keine Ahnung haben bzw. es nicht wahrhaben wollen.
Was ist ein "Afrocock"?
Das Synonym für eine sehr lange Grafikkarte. ;)
MfG,
Raff
Das habe ich auch nicht gesagt. Gefühlt stimmt das jedoch oft.
MfG,
Raff
Deine Gefühle brennen eigentlich oft mit durch (wie immer).
y33H@
2010-01-07, 14:13:01
Was ist ein "Afrocock"? Kennst du nicht? :usad:
http://www.abload.de/thumb/45053_1b5d57fi6.png (http://www.abload.de/image.php?img=45053_1b5d57fi6.png)
AnarchX
2010-01-07, 14:14:28
NVIDIA shows us GF100 Fermi video card at Digital Experience: http://www.youtube.com/watch?v=gkI-ThRTrPY
Warum müssen die Fakes immer so dermaßen schlecht gemacht sein?
5min mehr Aufwand hätten sich gelohnt.
reunion
2010-01-07, 14:37:09
Bei CB fließen Battleforge-Werte mit DX11 ins Rating ein - das verzerrt. In BF ist eine HD5870 in 1920 + 4x MSAA kranke 97% vor der GTX285. Auch wird Stalker CoP wird mit DX11 gebencht, aber ohne HW-Tessellation, was die HD5k auch weit nach vorne katapultiert: In CoP ist eine HD5870 in 1920 + 4x MSAA heftige 74% vor der GTX285. Im Gegenzug fällt aber Batman AA raus aus dem Ranking. Soviel zu so was tollem wie Ratings ...
Vergleichbarer Rechenweg - ja nee, ist klar ... die Post-Effekte werden durch Direct Compute 5.0 beschleunigt. Man hätte auch einfach mit DX10 benchen können.
Wie kann so etwas verzerren? Warum sollte man bei einer DX11-Karte die Vorteile von DX11 nicht nutzen dürfen? Zumal bei Stalker der DX11-Pfad trotzdem noch mehr Effekte darstellt. Das ist die Realität mein lieber, das ist die Realität. Niemand verwendet eine DX11 Karte mit Dx10 oder 9 wenn man dadurch Vorteile hat. Und warum PhysX rausfällt ist ja wirklich mehr als offensichtlich und wird ja auch begründet. Das ein Rating immer mit Skepsis betrachtet werden muss und nie eine allgemeingültige Aussage machen kann sollte aber auch klar sein. Aber so ein Rating gibt es mittlerweile ja fast überall, es scheint offensichtlich gut anzukommen.
Das Synonym für eine sehr lange Grafikkarte. ;)
Aja, danke.
derguru
2010-01-07, 14:41:05
@y33H@
muss sich nun amd entschuldigen das sie in battleforge ca. doppelt so schnell sind?
und wenn stalker CoP sich so verhält wie stalker cs dann wird sich dort auch kaum was ändern.
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index42.php
tja batman halt:wink:
wie auch immer 20% ist bullshit mehr wollte ich nicht sagen.
aber komm hier gehts ja um den fermi.:tongue:
y33H@
2010-01-07, 14:47:40
@ reunion
Man kann nur vergleichen, was sich vergleichen lässt. Ansonsten wäre eine SM2-Karte ja auch schneller als eine SM3-Karte ... Mit vollem DX11 (sprich mit HW-Tesselation) ist eine HD5870 in CoP langsamer als eine GTX285. Als Einzelbench aufgesplittet wunderbar, aber nicht im Ranking imo. Zumal bei Stalker der DX11-Pfad trotzdem noch mehr Effekte darstellt.Die da wären?
@ derguru
aber komm hier gehts ja um den fermi.Ay. Warum lässt man bei der Präsentation die Tessellation nicht an, sondern schaltet durch die Modi? :confused:
reunion
2010-01-07, 14:51:45
Man kann nur vergleichen, was sich vergleichen lässt. Ansonsten wäre eine SM2-Karte ja auch schneller als eine SM3-Karte ... Mit vollem DX11 (sprich mit HW-Tesselation) ist eine HD5870 in CoP langsamer als eine GTX285. Als Einzelbench aufgesplittet wunderbar, aber nicht im Ranking imo.
Das Ergebnis zählt. Solange die IQ zumindest nicht schlechter wird sollte der Weg egal sein und technologische Vorteile auch nutzbar sein. Das man eine SM2-Karte nicht mit einer technologisch besseren Karten vergleichen kann wenn haufenweise Effekte fehlen und dadurch ein völlig anderes Ergebnis heraus kommt sollte einem schon der Hausverstand sagen. Das ist im übrigen genau das gleiche wie bei deinem SM2 vs. SM3 Beispiel: "...mit vollem DX11 (sprich mit HW-Tesselation) ist eine HD5870 in CoP langsamer als eine GTX285".
Die da wären?
Du hast den Text selbst verlinkt wo das eindeutig hervor geht.
y33H@
2010-01-07, 14:55:35
Das Ergebnis zählt.Daher sollte man DX11 wie auch Phsyx einzeln darstellen, da es beide IHVs "exklusiv" haben. Meine Meinung. Bei Dirt 2 wird ja auch gesplittet - bei BF und CoP kurioserweise nicht.
deekey777
2010-01-07, 14:56:17
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=473730
Macht dort weiter. Ich warte schon auf euch.
MorPheuZ
2010-01-07, 14:57:49
@reunion
Fragt sich nur WAS der Vorteil ist? Performance oder Details/Effekte.
Wie ist das nochmal bei Crysis? Ist nun DX9 oder 10 schneller? Und dazu ist nichtmal die GPU schuld dran dass man nicht DX10 druff hat^^
Die da wären?
- Tesselation -> mehr Details (Polygone).
- bessere Schatten
reunion
2010-01-07, 14:59:03
Daher sollte man DX11 wie auch Phsyx einzeln darstellen, da es beide IHVs "exklusiv" haben. Meine Meinung. Bei Dirt 2 wird ja auch gesplittet - bei BF und CoP kurioserweise nicht.
Dirt2 erzielt keine Geschwindigkeitsvorteile durch DX11, deshalb ist es gleichgültig. Hier kann man nur außer Konkurrenz die zusätzlichen Effekte testen. Rankings wo eine DX11-Karten haufenweise zusätzliche Dx11-Effekte darstellt im Vergleich zu DX10-Karten wie bei PCGH finde ich da wesentlich problematischer. Denn dadurch wird wieder der falsche Eindruck erweckt eine Karten sei zu langsam für DX-XY, was schon rein aus Prinzip Blödsinn ist. Aber okay, genug OT.
y33H@
2010-01-07, 15:04:08
Rankings wo eine DX11-Karten haufenweise zusätzliche Dx11-Effekte darstellt im Vergleich zu DX10-Karten wie bei PCGH finde ich da wesentlich problematischer.Wo ist so etwas zu finden bzw. was meinst du?
- bessere Schatten Geht in der Final nicht einfach so per Menü, nur per Ini und mit dem März-SDK. Und es reißt die Fps derbe runter.
reunion
2010-01-07, 15:07:18
Wo ist so etwas zu finden bzw. was meinst du?
Zumindest bei Dirt2 ist es mir aufgefallen das die DX11-Ergebnisse (mit allen zusätzlichen DX-11 Effekten) im selben Diagramm dargestellt wurden wie die DX10-Karten und darunter haufenweise Meldungen von Usern kamen das Karte xy "für Dx11 ohnehin zu langsam wäre". Aber genug OT, wenn du noch was wissen willst dann per PM.
Botcruscher
2010-01-07, 15:18:17
Daher sollte man DX11 wie auch Phsyx einzeln darstellen, da es beide IHVs "exklusiv" haben.
DX11 ist ein Standard und PhysX für Tests absolut unbrauchbar da NV only. Zu dem only kommt noch hinzu, dass an der CPU-Unterstützung ganz zufällig massiv gespart wird und alles über 2 Cores gar nicht benutzt wird. Wenn man die Konkurrenz massiv benachteiligt wird es natürlich einfach...
desert
2010-01-07, 15:49:37
DX11 ist ein Standard und PhysX für Tests absolut unbrauchbar da NV only. Zu dem only kommt noch hinzu, dass an der CPU-Unterstützung ganz zufällig massiv gespart wird und alles über 2 Cores gar nicht benutzt wird. Wenn man die Konkurrenz massiv benachteiligt wird es natürlich einfach...
Ach aber dann das dx 11 ergebnis mit in das rating einfliessen zu lassen ist vollkommen in ordnung? Richtig wäre es gewesen alles zu testen, natürlich auch dx 11 und vorallem auch den vergleich zu dx 10 aufzuzeigen ist ok. Aber das eine momentan spezifische mit einfliessen zulassen und das andere nicht ist doch ein bischen merkwürdig.
Burgard
2010-01-07, 15:58:47
Könnte mir mal jemand sagen, warum ihr euch über die Benches aufregt, wo es zwischen 58XX und der 200 Serie geht???
Wichtig ist doch, dass die AMd und der Fermi gleich gebencht werden.
Und beides sind nunmal DX11-Karten.
---------------
Zur STromversorgung bzgl. 2X8
Schaut mal was MSI bei der Lightning macht.
War ja mein Verdacht doch richtig.
Erstes Foto der MSI R5870 Lightning zeigt sich (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14016-erstes-foto-der-msi-r5870-lightning-zeigt-sich.html)
ALso die Fermi-MARS kann kommen.
Dural
2010-01-07, 16:07:49
Mag sein, in der Hinsicht hat er jedenfalls keine Ahnung. Er schriebt ja sogar das auch die Quadros nur in 55nmn kamen, was definitiv Blödsinn ist.
auch die quadros kammen erst mit 55nm....
aber ein NV mann ist ein warmtuscher aber mister forum user xy will es besser wissen, alles klar...
Ach aber dann das dx 11 ergebnis mit in das rating einfliessen zu lassen ist vollkommen in ordnung? Richtig wäre es gewesen alles zu testen, natürlich auch dx 11 und vorallem auch den vergleich zu dx 10 aufzuzeigen ist ok. Aber das eine momentan spezifische mit einfliessen zulassen und das andere nicht ist doch ein bischen merkwürdig.
DX11 ist ok, da offener Standard.
PhysX ist kein offener Standard, also ist ein Vergleich sinnlos.
Zur STromversorgung bzgl. 2X8
Schaut mal was MSI bei der Lightning macht.
War ja mein Verdacht doch richtig.
Erstes Foto der MSI R5870 Lightning zeigt sich (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14016-erstes-foto-der-msi-r5870-lightning-zeigt-sich.html)
ALso die Fermi-MARS kann kommen.
dann es der Fermi gern nochmal Probieren, die kommt mit 1025/1250 Mhz und 2Gb VRAM :eek:
Kennst du nicht? :usad:
http://www.abload.de/thumb/45053_1b5d57fi6.png (http://www.abload.de/image.php?img=45053_1b5d57fi6.png)
die beste ist aber immer noch die bitchinfast3d:
http://www.abload.de/thumb/bitchinfast3ddozu.jpg (http://www.abload.de/image.php?img=bitchinfast3ddozu.jpg)
dann es der Fermi gern nochmal Probieren, die kommt mit 1025/1250 Mhz und 2Gb VRAM :eek:
Woher hast du die Taktinfo (dieser sau geilen Karte)? Der Vergleich hinkt jedoch, da das kein AMD-Referenzprodukt ist, man Furby auch übertakten kann und die Hersteller das auch werden.
MfG,
Raff
Woher hast du die Taktinfo (dieser sau geilen Karte)? Der Vergleich hinkt jedoch, da das kein AMD-Referenzprodukt ist, man Furby auch übertakten kann und die Hersteller das auch werden.
MfG,
Raff
Aus dem ATO Forum, hab guten Draht dahin (wo das Bild auch her stammt).
PS: Furby :ugly:
Burgard
2010-01-07, 16:19:11
ATI*
Naja, mir ging es auch nur um die 2X8
Dural
2010-01-07, 16:24:28
auch wenn die MSI mit 1025/1250MHz taktet, viel ändern wird das ja nicht wirklich, den das wären im durchschnitt vileicht gerade mal ca. 10-15% mehr leistung als eine 5870 stock...
aber wenn der takt stimmt ist die karte doch sehr interessant!
auch wenn die MSI mit 1025/1250MHz taktet, viel ändern wird das ja nicht wirklich, den das wären im durchschnitt vileicht gerade mal ca. 10-15% mehr leistung als eine 5870 stock...
aber wenn der takt stimmt ist die karte doch sehr interessant!
was?
von 850 auf 1025 ist ne ganze Ecke mehr drin als 10%, ich glaub du lügts und hast garkeine 5870 :rolleyes:
mictasm
2010-01-07, 16:32:39
aber wenn der takt stimmt ist die karte doch sehr interessant!
Aber klar, da MSI sich das bestimmt nicht extra bezahlen lassen wird...
Es sind 20,5 Prozent (mehr GPU-Takt). Der Speicher ist aber nur um 4 Prozent übertaktet, da kommen 15 im Mittel schon hin.
MfG,
Raff
aylano
2010-01-07, 16:32:59
Für Nvidia ist es wichtig fürs Image, die schnellste Einzel-Karte zu haben.
IMO Bevor da Nivida dieses Presitige verliert, geben sie ein Ultra-Version mit 512 Shadern & Co raus und treiben die TDP auf 300 Watt.
Eigentlich ist das ja nicht so schlimm, da eine 50% größere Die mit 50% mehr Transistoren eigentlich bis zu 50% mehr verbrauchen kann.
Aber Nivida setzte im vergleich zur Konkurrenz die Spannung und Takt weiter unten an, um eine höhere Effizienz (15% oder so) zu erreichen und so die Architektur besser aussehen zu lassen, was sich dann imagemäßig auf die Mainstream & Low-End auswirkt.
Eingentlich keine schlechte Idee, wenn die Konkurrenz die Performance-Krone hohlt, denn dann können sie beim Refresh immer noch die Spannung auf bis zu Konkurrenz-Niveau sowie den Takt erhöhen um die Leistungskrone bei Einzel-GPUs zurückzuholen.
Nachteil an der Geschichte ist, sie braucht halt eine ausgereifte Fertigung und sie können somit nicht sofort auf eine neue Fertigung umsteigen.
Oh eine 375W Single RV870.
Wie ist es nur möglich das eine Dual RV870 mit 300W auskommt?
:rolleyes:
DX11 ist ok, da offener Standard.
PhysX ist kein offener Standard, also ist ein Vergleich sinnlos.
Erzähl keinen Müll, DX11 ist nicht offen.
OpenGL ist offen.
:rolleyes:
Undertaker
2010-01-07, 16:33:25
Problem könnte bei 1025/1250MHz der gerade einmal 4% höhere Speichertakt sein.
-Edit: Argh, viiel zu langsam. ;)
Dural
2010-01-07, 16:35:58
was?
von 850 auf 1025 ist ne ganze Ecke mehr drin als 10%, ich glaub du lügts und hast garkeine 5870 :rolleyes:
liss noch mal was ich geschriben habe, dann gehst du etwas benchen min. 5 games in min. 3 einstellung ok?
Problem könnte bei 1025/1250MHz der gerade einmal 4% höhere Speichertakt sein.
-Edit: Argh, viiel zu langsam. ;)
Speichertakt erhöhen bringt wenig bis garnichts, GPU takt dagegn ne ganze Menge ;) (wie immer bei ATI)
StefanV
2010-01-07, 16:37:52
Erzähl keinen Müll, DX11 ist nicht offen.
OpenGL ist offen.
:rolleyes:
Es ist insofern offen als dass jeder, der möchte, einen Chip bauen kann, der dem D3D11 Standard entspricht.
Bei PhysX ist das nicht möglich...
was?
von 850 auf 1025 ist ne ganze Ecke mehr drin als 10%, ich glaub du lügts und hast garkeine 5870 :rolleyes:
er liegt aber definitv richtig. zwischen 10-20% sind bei dem takt realistische werte. mehr ist nicht drin:
http://www.legitreviews.com/article/1090/2/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/13073-ati-radeon-hd-5870-the-game-has-changed.html?start=25
http://www.hardwareoverclock.com/Sapphire_Radeon_HD5870-11.htm
Undertaker
2010-01-07, 16:43:49
Speichertakt erhöhen bringt wenig bis garnichts, GPU takt dagegn ne ganze Menge ;) (wie immer bei ATI)
Na, wenn ich hier mal zwischen GPU-OC und GPU+Speicher-OC vergleiche, fehlt da doch einiges an Performance, wenn man den VRam nicht ebenfalls hochtaktet.
http://www.firingsquad.com/hardware/ati_radeon_5870_overclocking/page4.asp
Aber wir sind damit in dem Thread etwas OT, das gehört eher an anderer Stelle diskutiert...
Dural
2010-01-07, 16:44:18
mir wäre eine art Ultra auf jedenfall einges lieber als eine GX2 karte!
schön selektierte GF100 chips mit 3GB vom dem schnellsten speicher der derzeit zur verfügung steh und eine TDP von mir aus bis an die 300Watt, wär echt der Hammer!
reunion
2010-01-07, 16:44:29
dann es der Fermi gern nochmal Probieren, die kommt mit 1025/1250 Mhz und 2Gb VRAM :eek:
Eine solche GPU mit 15(!) Phasen Stromversorgung (Standard sind 4 Phasen) und 2x 8 Pin Stromanschlüsse auszustatten zeigt ziemlich deutlich dass das Ding eine reine Prolo-Karte ist. Das ist schon weit von sinnvoll entfernt. Es sei denn man bezeichnet es als sinnvoll neue OC-Rekorde aufzustellen, die dürften sicher sein. Alleine durch die Stromversorgung werden wohl schon 100W sinnlos verballert. :ugly:
Problem könnte bei 1025/1250MHz der gerade einmal 4% höhere Speichertakt sein.
Schnelleren Speicher gibt es nunmal nicht.
Dural
2010-01-07, 16:48:10
.... bis der preis bekannt ist, dann ist die karte zu 99% allen hier drin zu teuer im gegensatz zu einer normalen 5870... ;) wetten?
tombman
2010-01-07, 16:53:19
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5
Ich frag mich, warum das Posting vom Gast mit dem Link gelöscht wurde?!
Let me say that I suspect that through 2010 it's possible there will be moments where we don't have the fastest graphics card, but I expect that for the majority of 2010 we'll have the fastest card you can buy. I've good reason for believing that but I can't talk about unannounced products or any of the stuff we're doing to secure that.
:nono: Was soll das denn bedeuten?! Schweinereien wie nvidia mit Devs machen?!
Das heißt IMO:
Single-GPU-Fermi wird langsamer sein als HD5970, aber Dual-GPU-Fermi wird schneller sein ;)
Denn nur so stimmen die Zeiten, da Dual-GPU-Fermi erst in der zweiten Jahreshälfte erscheinen wird- und damit hätte AMD in der "majority of 2010" die schnellste Karte, nämlich besagte HD5970 ;)
Ach der Satz drüber:
RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-
zeigt mir schon, daß AMD weiß, daß Fermi schneller sein wird :cool:
Burgard
2010-01-07, 16:54:03
Schnelleren Speicher gibt es nunmal nicht.
Das ist so nicht richtig.
Vor drei Monaten hat Samsung erst den 1500 Mhz-Speicher präsentiert, der sopllte jetzt auch lieferbar sein.
Die Frage ist nur zu welchem Preis.
Es sei denn, AMd hat etwas ganz besonders mit dem Speicher vor und hat die Hersteller gebeten ihn nicht zu verbauen.
Wäre ja eine Möglichkeit, oder?
derguru
2010-01-07, 16:57:18
Das ist so nicht richtig.
Vor drei Monaten hat Samsung erst den 1500 Mhz-Speicher präsentiert, der sopllte jetzt auch lieferbar sein.
Die Frage ist nur zu welchem Preis.
Es sei denn, AMd hat etwas ganz besonders mit dem Speicher vor und hat die Hersteller gebeten ihn nicht zu verbauen.
Wäre ja eine Möglichkeit, oder?
spätestens mit dem angeblichen refresh im juni sollte und muss eigentlich der 1,5ghz speicher her aber auch das gehört hier nicht hin.:biggrin:
Noebbie
2010-01-07, 16:57:47
... gebeten ihn nicht zu verbauen.
bezahlt
Es ist insofern offen als dass jeder, der möchte, einen Chip bauen kann, der dem D3D11 Standard entspricht.
Bei PhysX ist das nicht möglich...
Bei einer solch heißen Diskussion sollte man die Worte so wählen das klar ist, was gemeint ist.
Alles andere führt nur zu unnötigen Hin und Her.
Du meinst z.b. nicht PhysX sondern GPU PhysX.
Ersteres läuft auf jeder CPU.
Burgard
2010-01-07, 17:05:22
Fängt nicht um 19 Uhr die Pressekonferenz von NV an?
Da wird es zumindest interessant, hoffentlich.
tombman
2010-01-07, 17:11:42
NVIDIA shows us GF100 Fermi video card at Digital Experience: http://www.youtube.com/watch?v=gkI-ThRTrPY
So wie ich sagte, keine FPS Nummern ...
Btw, Unigine hat mit dem Tess. Benchmark echt einen Geniestreich abgeliefert, denn spätestens JETZT kennt diese Firma jeder ;)
....[/b]
zeigt mir schon, daß AMD weiß, daß Fermi schneller sein wird :cool:
Nein, er nimmt es an. Wäre er sicher stünde dort if it was'nt faster
Mayk-Freak
2010-01-07, 17:23:56
Speichertakt erhöhen bringt wenig bis garnichts, GPU takt dagegn ne ganze Menge ;) (wie immer bei ATI)
Mehr Speichertakt bring wirklich nicht viel.
Grysis@5870 mit 1100/1350 Speichertakt
http://www.abload.de/thumb/1350mhzram2uuu.png (http://www.abload.de/image.php?img=1350mhzram2uuu.png)
Grysis@5870 mit 1100/1200 Speichertakt
http://www.abload.de/thumb/1200rami6uj.png (http://www.abload.de/image.php?img=1200rami6uj.png)
reunion
2010-01-07, 17:24:37
Nein, er nimmt es an. Wäre er sicher stünde dort if it was'nt faster
Richtig. Es sagt ganz einfach wenn sie einen 50% größeren Chip bauen der nicht schneller ist haben sie einiges falsch gemacht.
Mehr Speichertakt bring wirklich nicht viel.
Grysis@5870 mit 1100/1350 Speichertakt
http://www.abload.de/thumb/1350mhzram2uuu.png (http://www.abload.de/image.php?img=1350mhzram2uuu.png)
Grysis@5870 mit 1100/1200 Speichertakt
http://www.abload.de/thumb/1200rami6uj.png (http://www.abload.de/image.php?img=1200rami6uj.png)
Vielleicht solltest du für diese Pauschalaussage nicht unbedingt ein Spiel nehmen, das fast vollständig ALU-limitiert ist. ;)
MfG,
Raff
reunion
2010-01-07, 17:35:00
Das ist so nicht richtig.
Vor drei Monaten hat Samsung erst den 1500 Mhz-Speicher präsentiert, der sopllte jetzt auch lieferbar sein.
Die Frage ist nur zu welchem Preis.
Es sei denn, AMd hat etwas ganz besonders mit dem Speicher vor und hat die Hersteller gebeten ihn nicht zu verbauen.
Wäre ja eine Möglichkeit, oder?
Ob das "nicht richtig" ist kannst du nicht beurteilen. Man konnte ihn jedenfalls noch nirgends auf Serien-Karten bestaunen. Speicherhersteller stellen gerne Produkte lange vor der Massenfertigung vor.
Mayk-Freak
2010-01-07, 17:35:32
Vielleicht solltest du für diese Pauschalaussage nicht unbedingt ein Spiel nehmen, das fast vollständig ALU-limitiert ist. ;)
MfG,
Raff
Welches Spiel pofitiert von einer Erhöhung des Speichertakts und ist nicht AlU-limitiert?
Burgard
2010-01-07, 17:40:23
Ob das "nicht richtig" ist kannst du nicht beurteilen. Man konnte ihn jedenfalls noch nirgends auf Serien-Karten bestaunen. Speicherhersteller stellen gerne Produkte lange vor der Massenfertigung vor.
Liegt nur am Preis der Chips.
Habe ich gerade gefunden:
Laut der ComputerBase wird Elpida im ersten Quartal 2010 als dritter Speicherhersteller GDDR5-Speicher mit bis zu 6 GBit/sec/Pin anbieten, was in einer Taktrate (des Datensignals) von 3000 MHz resultiert (bei GDDR4/GDDR5-Speichern wird offiziell der Befehlstakt angegeben – in diesem Fall 1500 MHz – was aber wenig zielführend ist, da die Befehlsübertragung deutlich weniger relevant als die eigentliche Datenübertragung ist). Hynix und Samsung bieten solch schnellen Speicher schon an – ein Angebot, welches allerdings bislang noch von keinem der Grafikchip-Entwickler genutzt wird. Gut möglich, daß diese Speerspitze der aktuellen Speicherproduktion momentan einfach noch zu teuer für ein Massenprodukt ist. Dies könnte sich natürlich ändern, wenn jetzt Elpida als weiterer Wettbewerber hinzukommt – zudem werden die ganz regulären Produktionsfortschritte des Jahres 2010 diese Speichertaktfrequenzen sicherlich näher in Richtung der Bezahlbarkeit drücken.
derguru
2010-01-07, 17:42:52
Welches Spiel pofitiert von einer Erhöhung des Speichertakts und ist nicht AlU-limitiert?
zum bleistift anno
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/12/#abschnitt_part_1
tombman
2010-01-07, 17:53:50
Nein, er nimmt es an. Wäre er sicher stünde dort if it was'nt faster
Ich habe auch nur interpretiert und nicht überführt ;)
Welches Spiel pofitiert von einer Erhöhung des Speichertakts und ist nicht AlU-limitiert?
Hab grad auch nochmal gebencht, Speichertakt erhöhn bringt in DIRT2, Heaven Benchmark,FC2,RE und NFS Shift rein garnichts, vieleich 1-2 FPS was eher Messungenauigkeit ist.
(benches von 1200 auf 1300 getestet).
Aber das passt doch auch hier her, dann wirds dem Fermi auch nix bringen mit 384 bit und XXXX Mhz GDDR5 oder seh ich das falsch ?
Mayk-Freak
2010-01-07, 18:05:20
zum bleistift anno
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/12/#abschnitt_part_1
Bei Spielen mit der UT3Engine sollte mehr Speichertakt auch mehr FPS bringen.
Gestrandet
2010-01-07, 18:06:57
Kann man so nit sagen, kommt darauf an wo die GPU überall liest / schreibt, bevor sie aufs RAM zugreift (Caches). Je mehr auf dem Hauptspeicher geackert wird, desto stärker macht sich eine Geschwindigkeitsänderung bei ihm bemerkbar.
Mayk-Freak
2010-01-07, 18:20:34
Benches sagen das Spiele mit der Unreal Engine 3 von mehr Speichtakt profitieren.
Burgard
2010-01-07, 18:56:33
Um 19:30 fängt die Konferenz von NV an, mal schauen was die so zu sagen haben.
reunion
2010-01-07, 19:00:47
Um 19:30 fängt die Konferenz von NV an, mal schauen was die so zu sagen haben.
Gibts Webcast?
Burgard
2010-01-07, 19:04:56
http://ceslive2010podcast.cnettv.com
Black-Scorpion
2010-01-07, 19:15:08
Bei CB fließen Battleforge-Werte mit DX11 ins Rating ein - das verzerrt. In BF ist eine HD5870 in 1920 + 4x MSAA kranke 97% vor der GTX285. Auch wird Stalker CoP wird mit DX11 gebencht, aber ohne HW-Tessellation, was die HD5k auch weit nach vorne katapultiert: In CoP ist eine HD5870 in 1920 + 4x MSAA heftige 74% vor der GTX285. Im Gegenzug fällt aber Batman AA raus aus dem Ranking. Soviel zu so was tollem wie Ratings ...
EDIT
http://www.abload.de/img/2010-01-07_1401320f5z.png
http://www.abload.de/img/2010-01-07_140147ffyv.png
Vergleichbarer Rechenweg - ja nee, ist klar ... die Post-Effekte werden durch Direct Compute 5.0 beschleunigt. Man hätte auch einfach mit DX10 benchen können.
Du kennst den Unterschied zwischen Standard und proprietär?
Wie lange sollen die Tester noch Rücksicht auf NVidia nehmen nur weil die es nicht gebacken bekommen.
Erst sind sie so clever und bringen DX10.1 Karten raus ais AMD schon DX11 Karten am Markt hat und bis jetzt ist von DX11 Karten auch weit und breit nichts zu sehen.
dildo4u
2010-01-07, 20:46:01
Laut NV CES2010 Pressekonferenz ist GF100 "in Volume Production.."
Mr.Freemind
2010-01-07, 20:47:49
Laut NV CES2010 Pressekonferenz ist GF100 "in Volume Production.."
Gesehen hat man nix, er hat es erwähnt und dann BANG ENDE :redface:
san.salvador
2010-01-07, 20:48:53
Laut NV CES2010 Pressekonferenz ist GF100 "in Volume Production.."
Wenn ich mein Flagschiff bei meiner Show als "in Massenproduktion" beschreibe und dann rein garnichts dazu sage oder zeige - hab ich dann nicht ein Problem?
Mr.Freemind
2010-01-07, 20:51:27
Wenn ich mein Flagschiff bei meiner Show als "in Massenproduktion" beschreibe und dann rein garnichts dazu sage oder zeige - hab ich dann nicht ein Problem?
Dann habe ich ein großes Problem, ein sehr großes, wenn so ein DIng in Massenproduktion ist, dann präsentiert man solch ein Baby mit allen was man so auf dem Kasten hat, aber was ich eben gesehen habe........
einfach nur traurig!
dildo4u
2010-01-07, 20:53:43
Wenn ich mein Flagschiff bei meiner Show als "in Massenproduktion" beschreibe und dann rein garnichts dazu sage oder zeige - hab ich dann nicht ein Problem?
Die Messe ist eher eine Art IFA(TV/Mobile) keine Cebit hat also nicht 100% gepasst.Man kann aber eine Livedemo auf der CES sehen.
http://www.youtube.com/watch?v=gkI-ThRTrPY&feature=player_embedded&fmt=22
Psychopat
2010-01-07, 20:54:36
Dann habe ich ein großes Problem, ein sehr großes, wenn so ein DIng in Massenproduktion ist, dann präsentiert man solch ein Baby mit allen was man so auf dem Kasten hat, aber was ich eben gesehen habe........
einfach nur traurig!
Ich würde mal abwarten bis Berichte kommen von Leuten die am Stand waren und gesehen haben was da präsentiert wurde.
Mr.Freemind
2010-01-07, 20:57:09
Ich würde mal abwarten bis Berichte kommen von Leuten die am Stand waren und gesehen haben was da präsentiert wurde.
Genau dies ist meine Hoffnung, allerdings war bzw. bin ich erstaunt wie die ganze Thematik am Ende erwähnt wurde, mal ganz nebenbei. Aber du hast Recht, warten wir ab.
san.salvador
2010-01-07, 20:57:18
Die Messe ist eher eine Art IFA(TV/Mobile) keine Cebit hat also nicht 100% gepasst.Man kann aber eine Livedemo auf der CES sehen.
Wenn ich gerade ein Produkt mit dieser Priorität für meine Firma fabriziere, dann zeig ich das bei jeder möglichen und unmöglichen Gelegenheit herum und hau so fest auf die Werbepauke, dass es nur so scheppert. Natürlich nur, wenn das Produkt auch etwas taugt... :uponder:
Dann habe ich ein großes Problem, ein sehr großes, wenn so ein DIng in Massenproduktion ist, dann präsentiert man solch ein Baby mit allen was man so auf dem Kasten hat, aber was ich eben gesehen habe........
einfach nur traurig!
Ich hoffe, wir beide liegen völlig falsch. Ich will keinen Ati-Treiber auf meinem Rechner. ;(
Mr.Freemind
2010-01-07, 20:59:43
Wenn ich gerade ein Produkt mit dieser Priorität für meine Firma fabriziere, dann zeig ich das bei jeder möglichen und unmöglichen Gelegenheit herum und hau so fest auf die Werbepauke, dass es nur so scheppert. Natürlich nur, wenn das Produkt auch etwas taugt... :uponder:
Ich hoffe, wir beide liegen völlig falsch. Ich will keinen Ati-Treiber auf meinem Rechner. ;(
Dies hoffe ich auch, bei mir werkelt gerade ne ATI. Entweder die haben "grande cochones" oder großes Problem :D
reunion
2010-01-07, 20:59:48
Die Messe ist eher eine Art IFA(TV/Mobile) keine Cebit hat also nicht 100% gepasst.Man kann aber eine Livedemo auf der CES sehen.
http://www.youtube.com/watch?v=gkI-ThRTrPY&feature=player_embedded&fmt=22
Es ist die CES, Consumer Electronics Show, die größte Elektronikfachmesse der Welt. Was da nicht gepasst haben soll bleibt wohl dein Geheimnis. Da wird alles gezeigt was irgendwie mit Elektronik zusammen hängt. Und Fermi ist das mit Abstand wichtigste Produkt für NV und was zeigt man? Tegra, Vision, 3D.
http://hardware-infos.com/news.php?news=3374
Wie uns Vertraute vor Ort mitteilen konnten, rechnet Nvidia selber damit, dass seine High-End-Grafiklösung (GTX 380) etwa 30 bis 40 Prozent schneller als die HD 5870 ist. Dies würde bedeuten, dass auch die GTX 360 noch gut mit der HD 5870 mithalten könnte und die GTX 380 möglicherweise in dem ein oder anderen Szenario vor der Dual-GPU-Karte HD 5970 rangiert.
derguru
2010-01-07, 21:02:08
wenn 30-40% von nv kommt kannst du gleich wieder mind. 10% abziehen;)
Black-Scorpion
2010-01-07, 21:02:44
Meinst du Leute hätten sich nochmal mit der Fakekarte abspeisen lassen?
Was anderes hat man doch noch immer nicht.
Laut AIL ist A3 noch nicht da.
reunion
2010-01-07, 21:02:44
Das wurde ohnehin nur von legitreviews abgeschrieben.
Sorkalm
2010-01-07, 21:03:35
Laut AIL ist A3 noch nicht da.
Dann ist die "mass production" von der geredet wurde aber auch nicht wirklich logisch.
dildo4u
2010-01-07, 21:03:41
Es ist die CES, Consumer Electronics Show, die größte Elektronikmesse der Welt. Was da nicht gepasst haben soll bleibt wohl dein Geheimnis. Da wird alles gezeigt was irgendwie mit Elektronik zusammen hängt.
Hat ATI oder NV schon mal ne neue GPU Generation auf der CES vorgestellt?Nö.Es passt einfach nicht und Tegra scheint auch sher wichtig zu sein,sollte whol als das Thema von den Journalisten aufgenommen werden.Wenn man mit dem Chip die beste Lösung für eine komplett neue Gerätesparte hat,kann das verdammt wichtig werden siehe Atmo für Netbooks.
wenn 30-40% von nv kommt kannst du gleich wieder mind. 10% abziehen;)
Eher draufpacken, die Treiber sind im Gegensatz zu Ati sicher noch nicht marktreif. ;)
reunion
2010-01-07, 21:05:26
Hat ATI oder NV schon mal ne neue GPU Generation auf der CES vorgestellt?Nö Es passt einfach nicht und Tegra scheint auch sher wichtige zu sein sollte whol als das Thema von den Journalisten aufgenommen werden.Wenn man damit die beste Lösung für eine komplett neue Sparte hat kann das verdammt wichtig werden,siehe Atmo für Netbooks.
ATi bringt heuer die Mobility HD5000 und die kleinen Dx11-Chips auf der CES. Und erst letztes Jahr brachte NV AFAIK die GTX285/295 auf der CES. Das dort Grafikkarten vorgestellt werden ist gang und gäbe. Und Tegra verhindert nicht das man auch über Fermi berichtet, ist ja nicht so das man da zu wenig Zeit hätte.
derguru
2010-01-07, 21:05:56
Eher draufpacken, die Treiber sind im Gegensatz zu Ati sicher noch nicht marktreif. ;)
ach wirklich,ich glaub die karte wird nie marktreif:wink:
und ich dacht jetzt gibt es kasalla für amd aber das war sowas von satire.;D
dildo4u
2010-01-07, 21:10:31
ATi bringt heuer die Mobility HD5000 und die kleinen Dx11-Chips auf der CES. Und erst letztes Jahr brachte NV AFAIK die GTX285/295 auf der CES. Das dort Grafikkarten vorgestellt werden ist gang und gäbe. Und Tegra verhindert nicht das man auch über Fermi berichtet, ist ja nicht so das man da zu wenig Zeit hätte.
Vieleicht will man erst Launchen wenns Karten gibt,ein Paperlauch hilft keinem und erzeugt negative Presse.Verärgerte Partner und User.Da braucht man kein Hellseher sein,das das noch mher Gebashe erzeugen würde.
Also irgendwie wirkte der Auftritt vorhin schon erbärmlich. Da verschwendet man eine Minute, um dem Publikum klarzumachen, dass es gleich um das wichtigste und am sehnlichsten erwartete Produkt aller Zeiten geht und würgt dann verlegen gerade mal zwei drei Sätze hervor, die mehr nach Entschuldigung klingen und wohl hauptsächlich vertrösten sollen. Das sieht nicht gut aus für den Start im März^^
Black-Scorpion
2010-01-07, 21:13:34
Dann ist die "mass production" von der geredet wurde aber auch nicht wirklich logisch.
So habe ich Ail jedenfalls verstanden.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7762675#post7762675
Ganz unten in seinem Beitrag.
Und der ist von vorgestern.
Meinst du Leute hätten sich nochmal mit der Fakekarte abspeisen lassen?
Was anderes hat man doch noch immer nicht.
Laut AIL ist A3 noch nicht da.
Als ob A2 nicht lauffähig wäre. :rolleyes:
Das du nicht wahrhaben willst, das man damals bereits eine lauffähige Karte hatte, die aber nicht gezeigt hat, ist klar.
horn 12
2010-01-07, 21:25:04
:hail:
Ja, denn die Chance ATI EINES REINZUWÜRGEN WENN FERMI DAS BRINGEN WÜRDE was sich NV dazumal noch erhofft hat, diese Werbetrommeln nun an einem der letzten Atemzüge vor dem großen Knall von A/A zu rühren, ehe ATI die ganze Palette als Monopol loslässt...
NEIN, dies verheist echt nix gutes für NV, wenn die HD5870 mit 15-20% geschlagen wird, das wird aber schon Alles sein,-
Vielleicht ein zweiter R600, diesmal aber bei der Konkurrenz.
Wenn NV was passendes parat hätte, würden sie sicherlich um die Gunst der Stunde kämpfen, aber sie wollen Alles im Ungewissen lassen, denn laut dem " Hoch Zu Roß" weit besser als eine Niederlage preiszugeben,... dann halten sie die Unentschlossenen weitaus länger an der Stange... Aber/ Und der Schuss kann nun gewaltig nach hinten lostreten!
Black-Scorpion
2010-01-07, 21:26:53
Als ob A2 nicht lauffähig wäre. :rolleyes:
Das du nicht wahrhaben willst, das man damals bereits eine lauffähige Karte hatte, die aber nicht gezeigt hat, ist klar.
Du meinst das Ding das laut Aussagen wie ein Krake aussah?
Das war ganz sicher nichts was man vorzeigen konnte.
Sonst hätte man sich nicht hingestellt und Fakeprodukte gezeigt.
wenn 30-40% von nv kommt kannst du gleich wieder mind. 10% abziehen;)
Kommen die denn wirklich von Nvidia? ;)
Man weiss es nicht, vielleicht ist das nur eine hardware-infos Spekulation, die zu dem passenden Zeitpunkt gestreut wird, um glaubhaft zu wirken.
NEIN, dies verheist echt nix gutes für NV, wenn die HD5870 mit 15-20% geschlagen wird
Immer noch eins abziehen. :lo:
Oben hieß es noch GTX 360 sei auf 5870 Niveau.
Jetzt soll das Topmodell nur noch 15% vor dem Kleinen liegen. Ja ne ist klar.
Bei der 8800 GTX waren es noch 50%, bei der GTX 280 30%. Jetzt 15%. Tolle Traumwelt, als nächstes sind zweit schnellste und schnellste gleichschnell.
Dural
2010-01-07, 21:31:08
sieht das auf dem video nur so aus oder ist das GeForce logo auf der karte wirklich beleuchtet?
Menace
2010-01-07, 21:33:35
sieht das auf dem video nur so aus oder ist das GeForce logo auf der karte wirklich beleuchtet?
DAS wäre natürlich ein Killerfeature. :freak: ;)
^Fermi ist tot, Ende und Aus
reunion
2010-01-07, 21:35:02
sieht das auf dem video nur so aus oder ist das GeForce logo auf der karte wirklich beleuchtet?
Das erklärt dann auch gleich den Stromverbrauch. :ugly:
Irgendwie muss man der Plastikstaubsaugerabdeckung der HD5 kontern. :)
Das erklärt dann auch gleich den Stromverbrauch. :ugly:
Ach du kennst ihn schon? :lol:
mapel110
2010-01-07, 21:37:48
http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-GF100-Bilder-und-Youtube-Video-mit-DX11-Benchmark/Grafikkarte/News/
Nvidia bestätigte gegenüber PC Games Hardware, dass man auf der CES eine spezielle Physx-Demo namens Supersonic Sled zeigen wird. Die dort zu sehende Rakete ist nicht nur physikalisch korrekt animierte, sondern bietet auch dazu passenden Rauch; auch die zu zerstörenden Hindernisse sind realistisch modelliert. Die Demo unterstützt DirectX 11 und 3D Vision.
Sorkalm
2010-01-07, 21:39:52
Schon wieder PhysX, wie lange wollen die darauf eigentlich noch herumreiten... :usad:
Wieso nicht? Hat ja gerade erst angefangen interessant zu werden.
Dumm sind sie aber nicht. Man bewirbt immer stärker zusätzliche Features (3D), die die Konkurrenz so nunmal nicht bietet. Selbst wenn die neuen G-Kräfte performancetechnisch keine Radeonkiller sind, werden sich viele Kunden "die Brille aufsetzen lassen" und eben aufgrund dieser Dreingaben für eine GF entscheiden. Die Stammkundschaft wartet sowieso und viele werden beim Anblick der vielversprechenden Bildchen auf den Fertigrechnern wieder zu NV greifen. Abseits der wirtschaftlichen Produktion leistungsstarker GPUs könnte sich ATI durchaus mal eine Scheibe davon abschneiden;)
Da hat man tatsaächlich Tesselation genutzt obwohls doch nur per Software berechnet wird. Und dann ruckelts noch nichtmal, obwohl es das müsste.
Achja, herrlich diese Lügen die verbreitet wurden, Fermi sei eine D3D10 GPU, weil kein Hardware Tesselation.
:lol:
Ach du kennst ihn schon? :lol:
Er hätte besser "Das erklärt dann auch gleich womöglich den Stromverbrauch." geschrieben. :D
Schon wieder PhysX, wie lange wollen die darauf eigentlich noch herumreiten... :usad:
Man muss mit allem werben was man hat.
Wer das nicht tut hat Marketing nicht begriffen und sollte nicht bei größeren Firmen im Marketing arbeiten.
PhysX ist nicht schlecht, für mich als Kunden bringt es mir nur Vorteile. Warum sollte man nicht damit werben?
Das ist Quatsch, man muss damit werben.
Wieso nicht? Hat ja gerade erst angefangen interessant zu werden.
Was soll denn in Zeiten von OpenCL und CS (DX11) an PhysX noch interessant sein? :confused:
Was soll denn in Zeiten von OpenCL und CS (DX11) an PhysX noch interessant sein? :confused:
Was hat OpenCL und DX11 mit PhysX zu tun?
Was soll denn in Zeiten von OpenCL und CS (DX11) an PhysX noch interessant sein? :confused:
Ich seh dort draussen keine OpenCL Anwendungen mit GPU Physik.
Mag mehrere Gründe haben, darauf brauchen wir gar nicht eingehen, ausser auf einen vielleicht, OpenCL braucht immer noch eine Physikengine. So eine wie PhysX.
Was hat OpenCL und DX11 mit PhysX zu tun?
Vorsicht, für Anfänger:
Damit kannst Physik über die Grafikkarte für den PC programmieren.
Sind sogenannte Schnittstellen ;)
Mit OpenCL und CS programmierst du für alle, mit GPU-PhysX nur für Nvidia.
Was würde man wohl wählen, wenn man die Wahl hätte?
Als Beispiel:
50% Ertrag mit PhysX oder lieber 100% Ertrag mit CS/OpenCL.
Vorsicht, für Anfänger:
Damit kannst Physik über die Grafikkarte für den PC programmieren.
Sind sogenannte Schnittstellen ;)
Mit OpenCL und CS programmierst du für alle, mit GPU-PhysX nur für Nvidia.
Was würde man wohl wählen, wenn man die Wahl hätte?
Als Beispiel:
50% Ertrag mit PhysX oder lieber 100% Ertrag mit CS/OpenCL.
PhysX :)
sieht das auf dem video nur so aus oder ist das GeForce logo auf der karte wirklich beleuchtet?
Endlich ein Grund um bis März zu warten!!!
Die Idioten von ATI bekommen sowas nicht hin !
reunion
2010-01-07, 21:59:47
CB dazu: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/januar/geforce_gf100_fermi_volume_production/
http://www.computerbase.de/forum/showthread.php?p=7189656#post7189656
N0Thing
2010-01-07, 22:02:11
Die Messe ist eher eine Art IFA(TV/Mobile) keine Cebit hat also nicht 100% gepasst.Man kann aber eine Livedemo auf der CES sehen.
http://www.youtube.com/watch?v=gkI-ThRTrPY&feature=player_embedded&fmt=22
Was ich mich beim 3. anschauen des Videos gefragt habe: Läuft da wirklich der Benchmark auf Schleife, oder ein aufgenommenes Video?
Immerhin wird in diesem Vortrag immer wieder Tesselation aktiviert und deaktiviert, was ich recht seltsam für einen Benchmark finde. Da ich den Benchmark bei mir selber nie habe laufen lassen, kann das natürlich absolut normal sein. Ich fand es nur ungewöhnlich.
PhysX :)
Als Manager für die Finanzen würdest du aber nicht so gut taugen :)
san.salvador
2010-01-07, 22:03:38
http://www.computerbase.de/forum/showthread.php?p=7189656#post7189656
Wow, bei denen gehts ja richtig rund!
... not! :D
Dural
2010-01-07, 22:06:46
interessant ist ja die aussage das Fermi in Produktion ist, muss er ja auch wenn sie anfang märz liefern möchten... wenn A3 aber anscheinend noch nicht bereit ist kann das ja nur bedeutet das wir zuerst doch A2 sehen werden!
Was ich mich beim 3. anschauen des Videos gefragt habe: Läuft da wirklich der Benchmark auf Schleife, oder ein aufgenommenes Video?
Immerhin wird in diesem Vortrag immer wieder Tesselation aktiviert und deaktiviert, was ich recht seltsam für einen Benchmark finde. Da ich den Benchmark bei mir selber nie habe laufen lassen, kann das natürlich absolut normal sein. Ich fand es nur ungewöhnlich.
Kann man sicher so einstellen. Damit es auch jeder mitbekommt muss man es an und ausschalten.
Zusammen mit der Erzählung entseht der Eindruck das Nvidia ziemlich stolz auf ihre Tessalationhardware ist.
mapel110
2010-01-07, 22:12:56
interessant ist ja die aussage das Fermi in Produktion ist, muss er ja auch wenn sie anfang märz liefern möchten... wenn A3 aber anscheinend noch nicht bereit ist kann das ja nur bedeutet das wir zuerst doch A2 sehen werden!
Es gab Gerüchte, dass A3 kurz vor Jahreswechsel fertig war. Aber nun gut, Charlie sollte dann in den kommenden Tagen Klarheit bringen, wenn sogar Ailuros auf dessen Tape-Out-Bestätigungen setzt.
Nightspider
2010-01-07, 23:13:41
Ich Tippe mit Verfügbarkeit immernoch auf Ende Januar...
Wenn die Karten schon in Massenproduktion sind...was glaubt ihr wie lange die bis in den Handel brauchen?
2B-Maverick
2010-01-07, 23:33:54
Ich Tippe mit Verfügbarkeit immernoch auf Ende Januar...
Wenn die Karten schon in Massenproduktion sind...was glaubt ihr wie lange die bis in den Handel brauchen?
Hat irgendwer was von "Karten" gesagt? Es ging doch nur um den Chip selber...
N0Thing
2010-01-07, 23:37:01
@Nightspider:
Kommt wohl darauf an was seit wann in Massenproduktion ist. Ob das A2 Stepping, oder erst das A3 und ob sich die Aussage nur auf den Chip, oder die fertigen Grafikkarten bezieht. Damit dein Tipp mit Ende Januar aufgeht, müßte Nvidia schon das A2 Stepping in sinnvollen Mengen bei TSMC bestellt haben und an die Kartenhersteller weiter gegeben haben.
Denn wenn Nvidia um den Jahreswechsel erst die ersten A3 Samples erhalten haben sollte, dann wird es wohl noch ein paar Wochen brauchen, bis die ersten Karten fertig sind und falls sie per Schiff transportiert werden sollten, kommen nochmal 14 Tage Verzug außerhalb Asiens hinzu und dann wäre man bei Ende Februar/Anfang März, in dem die ersten Karten hier erhältlich wären.
Dural
2010-01-07, 23:37:55
bei den GPUs sind das schon min. zwei monate, bei fermi und der schlechten ausbeute dank 40nm wären sicher sogar drei monate angebracht um genügend stückzahlen zu haben... ;)
Cubitus
2010-01-07, 23:38:55
Das Nvidia mal wieder mal mehr auf 3D setzt finde ich gut.
3D liegt voll im Trend, jeder der in Avatar 3D war, kann dies bestätigen ;)
Aber leider lässt sich mit den "kleinen" 22 Zoll Monitoren trotz
3D Vision Surround nix reißen. Da müssen einfach 24+ Zoll TFTs her.
Hat doch AMD auch, hat sich ATi schön von nvidia abgeguckt mit der Brille :lol:
Vorsicht, für Anfänger:
Damit kannst Physik über die Grafikkarte für den PC programmieren.
Sind sogenannte Schnittstellen ;)
Mit OpenCL und CS programmierst du für alle, mit GPU-PhysX nur für Nvidia.
Was würde man wohl wählen, wenn man die Wahl hätte?
Als Beispiel:
50% Ertrag mit PhysX oder lieber 100% Ertrag mit CS/OpenCL.
gut das du keine ahnung hast. sorry, aber der post ist so himmelschreiend, dass es nicht mehr feierlich ist.
opencl und direct compute sind apis bzw. sprachen, wie das eben auch bei cuda der fall ist. physx ist in cuda implementiert und läuft deshalb nur auf nvidia-hardware. physx ist eine physikengine, die mit kleinen anpassungen eben auch auf gpus läuft. physx könnte genau so in opencl, dc oder stream implementiert werden und dann auch auf anderer hardware laufen. zu 98% läuft physx rein auf der cpu und es gibt keine gpu-beschleunigung. physx als physikengine ist mittlerweile die in der spieleindustrie meistverwendete physikengine. sie hat havok, bullet und anderen schon seit längerem den rang abgelaufen, da das dazugehörige toolset einfach zu nutzen und der support von nvidia erstklassig ist.
ich möchte hier kein loblied auf den nvidia-gpu-online ansatz von physx singen, jedoch ist physx mittlerweile eben die #1 in der branche. über kurz oder lang wird nvidia physx über dc oder opencl implementieren müssten, denn es stehen mit neuen havok- und bulletversionen, sehr potente physikengines ins haus, die auf jeder gpu-hardware laufen werden. allerdings dürfte weder amd noch intel den support für entwickler liefern, den nvidia derzeit für physx betreibt.
jo ich seh schon die ganze Welt mit soner Kaschperl Brille vorm TFT am zocken...nix für ungut, aber alle mal zum Psycho Doc wäre mein guter Rat.
Vorsicht, für Anfänger:
Damit kannst Physik über die Grafikkarte für den PC programmieren.
Sind sogenannte Schnittstellen ;)
Mit OpenCL und CS programmierst du für alle, mit GPU-PhysX nur für Nvidia.
Was würde man wohl wählen, wenn man die Wahl hätte?
Als Beispiel:
50% Ertrag mit PhysX oder lieber 100% Ertrag mit CS/OpenCL.
Und jetzt noch mal für blutige Anfänger:
OpenCL/CS sind Programmierschnittstellen, damit kann man wie der Name sagt Programmieren.
PhysX ist eine Engine da muss die Physik nicht mehr programmiert werden, das hat schon jemand gemacht, sondern kann direkt verwendet werden. Diese Engine ist übrigens so toll, dass sie auf vielen verschiedenen Plattformen läuft, da ist nichts mit 50% Ertrag, eine ATI-Karte die ohne CPU läuft ist nämlich noch nicht erfunden worden.
Das ganze sind völlig verschiedene Dinge, das eine hat mit dem anderen nichts zu tun, oder sagst du nun auch die Unreal-Engine ist schlecht, schließlich gibt es ja DirectX/OpenGL mit dem jeder seine eigene Engine programmieren könnte?
Dural
2010-01-08, 00:10:53
3-Way GF100 SLI System @ CES:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/januar/lauffaehiges_geforce-fermi-system/
Die kommenden Wochen werden wohl nicht nur in diesem Punkt für Klarheit sorgen müssen
ok
3-Way SLI GF100 System @ CES:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/januar/lauffaehiges_geforce-fermi-system/
Wie kommste auf den Scheiss jetzt ?
3-Way SLI GF100 System @ CES:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/januar/lauffaehiges_geforce-fermi-system/
Mit nichten 3-Way SLI nur 3 Monitore waren angeschlossen
Wohl eher soetwas wie Eyefinity
Wie kommste auf den Scheiss jetzt ?
weil er sich die bilder angeschaut hat?
weil er sich die bilder angeschaut hat?
was für Bilder bitte ?
Und wo steht das, das es 3 Way SLi war ?
Wenn ja, lol hat doch übelste geruckelt :ugly:
Bilder angucken ist schon schwer. :lol:
http://pics.computerbase.de/2/7/9/6/1/2.jpg
when Jensen says Q1 2010 he means Nvidia’s fiscal Q1 rather than real people’s Q1. Nvidia’s Q1 starts in January and ends on April 30th so the worst case scenario for Nvidia is to launch a card sometime in April
http://www.fudzilla.com/content/view/17119/1/
Dural
2010-01-08, 00:22:01
klick noch mal auf den link ;)
hatte zuerst den falschen drin...
Noebbie
2010-01-08, 00:22:33
Was dann aber auch heißt: nur 2 Monitore pro Karte!
was für Bilder bitte ?
Und wo steht das, das es 3 Way SLi war ?
Wenn ja, lol hat doch übelste geruckelt :ugly:
Stell dich nicht so an: die Bildstrecke die du anklicken kannst, wenn Du seinen geposteten Link öffnest.
Dass tatsächlich 3-way SLI läuft, hat er aber in der Tat nur aus den Bildern geschlossen, ohne dass diese das beweisen würden.
Stell dich nicht so an: die Bildstrecke die du anklicken kannst, wenn Du seinen geposteten Link öffnest.
Dass tatsächlich 3-way SLI läuft, hat er aber in der Tat nur aus den Bildern geschlossen, ohne dass diese das beweisen würden.
obwohl, man sieht sogar den SLI-Connector durch das gehäuse
Gestrandet
2010-01-08, 00:25:59
http://www.computerbase.de/bildstrecke/27962/1/
Hmmm ... bei nvidia scheint man sich noch unsicher zu sein, in welchem Maße Vokale vor einem "N" fallengelassen werden sollen.
Warum steht dort auf dem Schildchen "INTENSE GAMING - NSIST ON NVIDIA" und nicht "NTENSE GAMING - NSIST N NVIDIA" oder "NTNSE GAMNG - NSIST N NVIDIA"???
Auf jeden Fall kann ich nach einem kurzen Telefonat mit Huang hier schonmal den Launchtermin verraten, weltexklusiv im 3DCenter Forum!!!
N.N.
;)
Was dann aber auch heißt: nur 2 Monitore pro Karte!
Für mehr ist auch kein Platz.
Höchstens ein kleiner HDMI oder Displayport an der rechten Seite, kann man nicht eindeutig sehen.
Noebbie
2010-01-08, 00:36:32
Ja stimmt. Ein kompletter Slot nur mit Lamellen/Luftauslässen.
Ich hatte noch keine nVidia mit Dualslot-Kühlung. Hatte man schon mal so eine Dimension erreicht? Ich weiß jetzt auch nicht genau wie es bei der 200er Serie war/ist. Nunja, aber die 8+6 pin Eingänge, müssen ja auch irgendwo raus! :redface:
Dural
2010-01-08, 00:38:23
das logo scheint tatsächlich beleuchtet zu sein!
http://www.pcgameshardware.de/screenshots/medium/2010/01/Nvidia-Fermi-GF100-02_100107232838.jpg
interessant, da ist die errechnete marge doch nicht so klein sonst würde man so spielezug wohl kaum einbauen...
EDIT:
wann wird das wohl AMD kopieren wie sie es schon mit dem schwarzen PCB und vollverkleiderter karte getan haben ;)
Noebbie
2010-01-08, 00:42:09
wann wird das wohl AMD kopieren wie sie es schon mit dem schwarzen PCB und vollverkleiderter karte getan haben ;)
Joah. Die Cypress-Karten sehen aus wie nen Batmobil und nVidia fängt an zu leuchten! ;D
Ja stimmt. Ein kompletter Slot nur mit Lamellen/Luftauslässen.
Ich hatte noch keine nVidia mit Dualslot-Kühlung. Hatte man schon mal so eine Dimension erreicht? Ich weiß jetzt auch nicht genau wie es bei der 200er Serie war/ist. Nunja, aber die 8+6 pin Eingänge, müssen ja auch irgendwo raus! :redface:
Seit der 6800 Ultra ist das nicht mehr ungewöhnlich.
Bzw spätestens ab der 7900 GTX gabs keine Singleslot High-End Karte mehr.
Man könnte auch einen Teil dieser Schlitze mit Ausgängen kaputt machen aber ich denke das ist besser was für die Partner.
derguru
2010-01-08, 00:47:15
dolle kirmesbeleuchtung,das wollt ich schon immer haben.:rolleyes:
aber nv denkt an die prolos;)
Dural
2010-01-08, 00:47:42
Ja stimmt. Ein kompletter Slot nur mit Lamellen/Luftauslässen.
Ich hatte noch keine nVidia mit Dualslot-Kühlung. Hatte man schon mal so eine Dimension erreicht? Ich weiß jetzt auch nicht genau wie es bei der 200er Serie war/ist. Nunja, aber die 8+6 pin Eingänge, müssen ja auch irgendwo raus! :redface:
sowohl die 2900XT und auch die GTX280 (obwohl die TDP mit 225Watt auch für 2x6Pin gereich hätte) hatten 1x6 und 1x8Pin, ist also nichts neues.
Noebbie
2010-01-08, 00:47:55
Seit der 6800 Ultra ist das nicht mehr ungewöhnlich.
Bzw spätestens ab der 7900 GTX gabs keine Singleslot High-End Karte mehr.
Nunja. Der G92 (8800GT) im Referenzdesign war eine Singleslot Karte, sofern da kein alternativer Kühler seitens des Vendors verbaut wurde. Okay, der Vergleich hinkt etwas...
Blaire
2010-01-08, 00:59:09
3-Way GF100 SLI System @ CES:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/januar/lauffaehiges_geforce-fermi-system/
3Way-SLI zu solch einen frühen Zeitpunkt schon am Laufen zu haben ist durchaus erstaunlich. Das man nix über die Performance verrät deute ich als gutes Zeichen, ähnlich war es damals als die 8800GTX kam auch.
3Way-SLI zu solch einen frühen Zeitpunkt schon am Laufen zu haben ist durchaus erstaunlich. Das man nix über die Performance verrät deute ich als gutes Zeichen, ähnlich war es damals als die 8800GTX kam auch.
wohl eher anders herum, deutet auf nichts gutes hin...........
Wenn es denn lief, dann deutet dies auf gute Treiber hin.
y33H@
2010-01-08, 01:05:05
Bei der 88GTX war lange Ruhe und die taugt auch heute noch, 3 Jahre später. Abwarten und nicht zu früh urteilen.
das logo scheint tatsächlich beleuchtet zu sein!
http://www.pcgameshardware.de/screenshots/medium/2010/01/Nvidia-Fermi-GF100-02_100107232838.jpg
interessant, da ist die errechnete marge doch nicht so klein sonst würde man so spielezug wohl kaum einbauen...
Früher hat es hinten am Slot grün geleuchtet, wenn alles gut war. Nicht direkt sinnlos, aber wenns keine Probleme gab vollkommen unnötig.
Sogesehen ist das ganze nur etwas abgewandelt.
Don Vito
2010-01-08, 01:12:17
Bei der 88GTX war lange Ruhe und die taugt auch heute noch, 3 Jahre später. Abwarten und nicht zu früh urteilen.
Sehe ich auch so...
Ich werde es genießen, zur exorbitant hohen Leistung im Vergleich zur dann vernichtend geschlagenen Konkurrenz, auch noch ein strahlendes Logo meines Lieblingsherstellers im Gehäuse leuchten zu wissen.
Wozu sollte NV Leistungsdaten veröffentlichen, wenn nach dem Verkaufsstart alle RV870 in der Bucht landen und die gesamte Gamerschaft einem neuen Zeitalter der digitalen Unterhaltung entgegenblickt? Wer kauft dann noch rot, wenn deren Treiber bei 99% aller neuen Games schlichtweg versagen und keinerlei Physik geboten wird?
Für ATI wird es eine kurze Periode des Ruhmes sein und der Fall wird schmerzen wie noch nie zuvor!
I love u Jen Hsun Huang. Du durftest bereits von dieser neuen Dimension des PC-Gamings kosten, worum dich ein jeder beneidet*schwärm*
PS: Verfügbarkeit erster Consumerkarten spätestens Ende Januar, breite Verfügbarkeit und global ownage dann im März
I love u Jen Hsun Huang. Du durftest bereits von dieser neuen Dimension des PC-Gamings kosten, worum dich ein jeder beneidet*schwärm*
PS: Verfügbarkeit erster Consumerkarten spätestens Ende Januar, breite Verfügbarkeit und global ownage dann im März
Schreib doch gleich, dass Du ein Kind von ihm willst... das dann den Namen Enrico bekommt.
*kopfschüttel*
omg hat der Kindergarten noch offen ?
mapel110
2010-01-08, 01:49:31
http://tweetphoto.com/8238473
WOW! So polygonreich und dreidimensional hat man computergenerierte Grafik noch nie erleben dürfen. Vorallem die Qualität der Kantenglättung haut mich vom Hocker...auch wenn man dies von NV mittlerweile gewohnt ist:)
Tesselation tut ihr Übriges für den perfekten HD-Genuss!
Dural
2010-01-08, 02:15:10
Look at this beast! Our demo GF100 ( Fermi ) demo PC with three cards inside. Probably fastest gaming PC on CES.
:smile:
N0Thing
2010-01-08, 02:16:16
Das Nvidia mal wieder mal mehr auf 3D setzt finde ich gut.
3D liegt voll im Trend, jeder der in Avatar 3D war, kann dies bestätigen ;)
Aber leider lässt sich mit den "kleinen" 22 Zoll Monitoren trotz
3D Vision Surround nix reißen. Da müssen einfach 24+ Zoll TFTs her.
Was hat 3D mit der Größe oder der Auflösung des Displays zu tun? :|
jo ich seh schon die ganze Welt mit soner Kaschperl Brille vorm TFT am zocken...nix für ungut, aber alle mal zum Psycho Doc wäre mein guter Rat.
Nur weil etwas angeboten wird, macht noch lange nicht jeder mit. Und wenn jemand genug Geld für den entsprechenden TFT samt Shutterbrille übrig hat, kann man wohl kaum einen Vorwurf aussprechen, ohne auch vielen anderen Menschen deren Hobbys madig zu machen.
das logo scheint tatsächlich beleuchtet zu sein!
http://www.pcgameshardware.de/screenshots/medium/2010/01/Nvidia-Fermi-GF100-02_100107232838.jpg
interessant, da ist die errechnete marge doch nicht so klein sonst würde man so spielezug wohl kaum einbauen...
Was hat ein beleuchtetes Logo auf der Grafikkarte bei einer Messepräsentation mit der Marge zu tun?? :|
3Way-SLI zu solch einen frühen Zeitpunkt schon am Laufen zu haben ist durchaus erstaunlich. Das man nix über die Performance verrät deute ich als gutes Zeichen, ähnlich war es damals als die 8800GTX kam auch.
Ob es Sinn macht, daß Nvidia bei einer überlegenden Grafikkarte trotz guter erhältlicher Konkurrenzprodukte keine Details heraus rückt lasse ich mal offen, in der Vergangenheit haben sie immer sehr deutlich gemacht, daß egal was die Konkurrenz am Markt hat, die eigenen aktuellen und zukünftigen Produkte viel besser seien.
Aber daß man zu einer Messe drei Grafikkarten fertig hat sollte nicht erstaunlich sein und wenn man böse ist, kann man 3Way-SLI für einen Benchmark, den eine HD5870 alleine ruckelfrei schafft auch sehr böse interpretieren. Oder vielleicht war trotz der drei Grafikkarten kein SLI aktiv. Aufgrund von Photos einer Grafikkarte auf deren Verfügbarkeit oder Leistung zu schließen, halte ich für recht gewagt.
Wer kauft dann noch rot, wenn deren Treiber bei 99% aller neuen Games schlichtweg versagen und keinerlei Physik geboten wird?
Der Post ist ja schon fast zu trollig um drauf einzugehen, aber falls Besucher mitlesen muß man sagen, daß es in nahezu allen Spielen Physik mit ATI-Karten gibt, aber in sechs erwähnenswerten Spielen Physikeffekte nur über Nvidiagrafikkarten möglich ist.
Dural
2010-01-08, 02:19:36
gar nichts... ;) und es gibt mehr als nur drei GF100 karten auf der CES ;)
auf dem 3-Way SLI lief übrigens die neue DX11 PhysX Demo
Blaire
2010-01-08, 02:21:24
Aber daß man zu einer Messe drei Grafikkarten fertig hat sollte nicht erstaunlich sein und wenn man böse ist, kann man 3Way-SLI für einen Benchmark, den eine HD5870 alleine ruckelfrei schafft auch sehr böse interpretieren.
Doch ist es, denn in der Vergangenheit wurde 3Way-SLI erst ganz zum Schluss in die Treiber integriert, das lässt vermuten das die Treiber schon recht fortgeschritten sind bzw. der Launch garnicht mehr soweit entfernt zu sein scheint.
Gestrandet
2010-01-08, 02:27:01
das logo scheint tatsächlich beleuchtet zu sein!
Das dürfte eher das Glühen der Kühlkörper sein :rolleyes:
Cubitus
2010-01-08, 02:46:52
[QUOTE=N0Thing;7767961]Was hat 3D mit der Größe oder der Auflösung des Displays zu tun? :|
Im Prinzip nix, nur empfinde ich 22 Zoll als schon zu klein ;)
Nur weil etwas angeboten wird, macht noch lange nicht jeder mit. Und wenn jemand genug Geld für den entsprechenden TFT samt Shutterbrille übrig hat, kann man wohl kaum einen Vorwurf aussprechen, ohne auch vielen anderen Menschen deren Hobbys madig zu machen.
Seit Mai 09 gibt es auch 3D für Arme und für jeden TV ;D
klick (http://www.nvidia.com/object/3D_Vision_Discover_Main.html)
Natürlich ist 3D vision von der Qualität und Farbechtheit her um einiges besser!
@Mapel
Hmm sieht mir nach einem stink normalen TV aus,
3D-TV Geräte gibt es ja noch nicht ?!
Doch ist es, denn in der Vergangenheit wurde 3Way-SLI erst ganz zum Schluss in die Treiber integriert, das lässt vermuten das die Treiber schon recht fortgeschritten sind bzw. der Launch garnicht mehr soweit entfernt zu sein scheint.
Sehe ich genau so ;)
Dimon
2010-01-08, 07:25:49
Bei der 88GTX war lange Ruhe und die taugt auch heute noch, 3 Jahre später. Abwarten und nicht zu früh urteilen.
Denke ich auch so, zumal bei der 8800GTX bis zum launch keiner so richtig wußte wie performant die Graka wirklich war...
Abwarten und sich überraschen lassen jungens ;)
mapel110
2010-01-08, 07:31:40
@Mapel
Hmm sieht mir nach einem stink normalen TV aus,
3D-TV Geräte gibt es ja noch nicht ?!
Das ist ein Bild von der PhysX-Demo, die nvidia die Tage noch präsentieren will.
btw sehr lollig, sich den Thread hier von Anfang an durchzulesen. Ich glaub, noch nie wurde so viel Blödsinn über einen künftigen Chip gelabert. Noch nie lag man so falsch. Da hat nvidia gute Arbeit geleistet, alle aufs Glatteis zu führen.
reunion
2010-01-08, 07:44:13
Das man nix über die Performance verrät deute ich als gutes Zeichen, ähnlich war es damals als die 8800GTX kam auch.
Jetzt ist es schon ein gutes Zeichen wenn man nichts sagt. :freak:
Was ist denn dann ein schlechtes Zeichen? Also auf die Logik muss man erst mal kommen. Soll ich jetzt sagen das man bei NV30 auch nichts erfuhr oder siehst du es selber ein das man zu einen solchen Zeitpunkt, wo die Konkurrenz schon lange am Markt ist es sicherlich kein gutes Zeichen ist wenn man nichts erfährt?
mapel110
2010-01-08, 07:48:51
Jetzt ist es schon ein gutes Zeichen wenn man nichts sagt. :freak:
Was ist denn dann ein schlechtes Zeichen? Also auf die Logik muss man erst mal kommen. Soll ich jetzt sagen das man bei NV30 auch nichts erfuhr oder siehst du es selber ein das man zu einen solchen Zeitpunkt, wo die Konkurrenz schon lange am Markt ist es sicherlich kein gutes Zeichen ist wenn man nichts erfährt?
NV30? Der Chip ist doch afaik sogar 2x vor der Verfügbarkeit angepriesen worden mit "recht speziellen" Artikeln.
Menace
2010-01-08, 08:18:05
Look at this beast! Our demo GF100 ( Fermi ) demo PC with three cards inside. Probably fastest gaming PC on CES.
:smile:
Lief darüber das Tesselation Demo, ja oder nein. Und was heißt hier, "probably"? Ich dachte die sind so überlegen, dass eine Fermie eine 5890 schlägt? Bei dreifacher Menge an Fermi..... Hmm. Ne, ist klar.
reunion
2010-01-08, 08:18:37
NV30? Der Chip ist doch afaik sogar 2x vor der Verfügbarkeit angepriesen worden mit "recht speziellen" Artikeln.
Fermi wurde schon im Oktober offiziell enthüllt. Seit dem zeigt man immer wieder Karten und Demos das er läuft, aber keine Leistungsangaben. Dass das Zweifel schürt sollte offensichtlich sein. Wenn ich weiß das ich deutlich schneller bin dann würde ich das auch anpreisen, alleine schon um potentielle Käufer zum warten zu animieren. Da kann man dann auch problemlos Redakteure unabhängige Benchs laufen lassen. Bei NV30 gab es irgendwann vorher oft zitierten AnandTech-Artikel, aber auch nichts handfestes. Ähnlich bei R600. Ein anderes Beispiel ist natürlich die 8800GTX, aber da war die Notwendigkeit auch nicht unbedingt da. So oder so sollte man da vermutlich nicht zu viel hinein interpretieren, aber es als gutes Zeichen zu verkaufen das man keine Angaben macht finde ich doch eine etwas sehr verquollen Logik.
Lief darüber das Tesselation Demo, ja oder nein. Und was heißt hier, "probably"? Ich dachte die sind so überlegen, dass eine Fermie eine 5890 schlägt? Bei dreifacher Menge an Fermi..... Hmm. Ne, ist klar.
Ja, finde ich auch etwas seltsam. Wenn sie sagen das sie mit 3x Fermi "womöglich" den schnellsten Spiele-PC auf der Messe haben hört sich das nicht unbedingt überzeugend an.
James Ryan
2010-01-08, 08:25:05
Kleiner Tipp:
Abwarten und nicht zuviel erwarten, dann kann man auch nicht negativ überascht werden. ;)
MfG :cool:
Ailuros
2010-01-08, 08:53:45
Reported bin splits of the A3 silicon are not looking promising for a hard launch.
http://www.semiaccurate.com/2010/01/07/nvidia-shows-fermi-and-3-monitor-cards/
desert
2010-01-08, 08:54:55
Fermi wurde schon im Oktober offiziell enthüllt. Seit dem zeigt man immer wieder Karten und Demos das er läuft, aber keine Leistungsangaben. Dass das Zweifel schürt sollte offensichtlich sein. Wenn ich weiß das ich deutlich schneller bin dann würde ich das auch anpreisen, alleine schon um potentielle Käufer zum warten zu animieren. Da kann man dann auch problemlos Redakteure unabhängige Benchs laufen lassen. .
Aber das mache ich doch nicht wenn die vorstellung auslieferung erst in 2-3 Monaten startet. Da gibt man dem gegner zuviel zeit um zu reagieren.
Also in der Maschine, auf der die Unigine Heaven Demo lief, war (zumindest nach dem was man in dem bereits mehrfach verlinkten Youtube-Vid erkennen kann) eine Einzelkarte drin.
Ailuros
2010-01-08, 08:56:17
Aber das mache ich doch nicht wenn die vorstellung auslieferung erst in 2-3 Monaten startet. Da gibt man dem gegner zuviel zeit um zu reagieren.
Genau. Deshalb ist der Druck von der ATI-freundlichen Fraktion fuer diese Einzelheiten auch so intensiv :P
***edit: uebrigens zu den angeblichen "60 Tagen" und "kleinem" Schaden: http://www.xbitlabs.com/news/video/display/20100107144559_ATI_Ships_2_Millionth_DirectX_11_Graphics_Processor.html
Menace
2010-01-08, 09:00:20
Also in der Maschine, auf der die Unigine Heaven Demo lief, war (zumindest nach dem was man in dem bereits mehrfach verlinkten Youtube-Vid erkennen kann) eine Einzelkarte drin.
Ah, ok. Danke. Dann bin ich beruhigt. :D
Armaq
2010-01-08, 09:02:51
Ich will nur noch Ergebnisse sehen!
mapel110
2010-01-08, 09:14:49
http://www.semiaccurate.com/2010/01/07/nvidia-shows-fermi-and-3-monitor-cards/
Hälst du die Aussage für korrekt?! Wie passt das dann mit der Massenfertigung zusammen? Produziert nvidia also bereits trotz niedriger Yields?!
Ailuros
2010-01-08, 09:18:18
Hälst du die Aussage für korrekt?! Wie passt das dann mit der Massenfertigung zusammen? Produziert nvidia also bereits trotz niedriger Yields?!
Ob es stimmt keine Ahnung. Zur letzten Frage: haben sie heutzutage eine andere Wahl?
=Floi=
2010-01-08, 09:33:46
ati macht(e) es ja auch nicht anders.
ist es wirklich ein problem? durchs warten wird es auch nicht besser und immerhin ist man dann im markt. Wenn man exclusiv 1000 karten zum launch verkaufen kann, dann sollte das reichen um zumindest die freaks bedienen zu können. Dafür kann man dann auch noch entsprechende preise verlangen und die unkosten für die kleinserie puffern.
falls die taktraten wirklich gut sind, ist jeder tag ein verlorener tag.
Ailuros
2010-01-08, 09:40:38
Wenn ich alles glauben wuerde was NV hinter den Kulissen herausspuckt dann hocken sie eigentlich fast 10 Monate auf einem quasi fertigen Design. Ergo handelt es sich nicht um einen Fall wo jeder Tag zaehlt, sondern eher um einen Fall wo man endlich den Fuss in die Pampe stampft und "genug mit der bloeden Warterei" bruellt. Bei angeblich 2Mio verkauften DX11 SKUs seitens AMD gibt es keinen anderen Ausweg.
AnarchX
2010-01-08, 09:45:03
NVIDIA GF100 Fermi Video Card Triple SLI Rocket Sled Demo Video:
http://www.legitreviews.com/news/7137/
Das Tri-SLI läuft wohl wassergekühlt:
http://www.hwupgrade.it/news/skvideo/nvidia-fermi-alcune-nuove-informazioni_31216.html
http://www.semiaccurate.com/2010/01/07/nvidia-shows-fermi-and-3-monitor-cards/
So what? Sie können nicht mehr warten.
Wenn sie mit einem über 50% größeren und ein halbes Jahr später kommenden Chip nicht deutlich schneller sind dann haben sie eh einiges falsch gemacht. 6 plus 8 Pin Power Connector und damit eine TDP >225W bestätigt sich auch ein weiteres mal.
Was war dann der R600? Massive complete overload failure?
reunion
2010-01-08, 10:01:21
Was war dann der R600? Massive complete overload failure?
Was willst du jetzt mit R600? Das bei R600 einiges falsch gemacht wurde weiß wohl jeder. Willst du GF100 damit gleichsetzen? Aber R600 war zumindest nicht 50% größer als G80.
Ailuros
2010-01-08, 10:05:22
So what? Sie können nicht mehr warten.
Sage ich doch ;)
Botcruscher
2010-01-08, 10:08:14
Was war dann der R600? Massive complete overload failure?
Dank dem Speicherinterface sogar mit Sahne oben drauf.
reunion
2010-01-08, 10:09:38
Dank dem Speicherinterface sogar mit Sahne oben drauf.
Oder dank teurer aber nutzloser FP16-TMUs. Bei R600 wurde einiges vermasselt, bzw. völlig falsch eingeschätzt.
Was willst du jetzt mit R600? Das bei R600 einiges falsch gemacht wurde weiß wohl jeder. Willst du GF100 damit gleichsetzen? Aber R600 war zumindest nicht 50% größer als G80.
Damit wollte ich nur zeigen, dass so pauschale Aussage eigentlich für die Tonne sind. Der R600 selbst war Müll, war aber die Grundlage für eine rpckblickend erfolgreiche Architektur.
Solange Fermi schneller als Evergreen ist, ist er gut. Oder willst du (wenn die beide kaufen kannst), einen Evergreen kaufen, weil Fermi zwar schneller aber später am markt?
Solange Fermi schneller als Evergreen ist, ist er gut. Oder willst du (wenn die beide kaufen kannst), einen Evergreen kaufen, weil Fermi zwar schneller aber später am markt?
Das läuft so nicht.
Wer das bessere P/L Verhältnis zum gewollten Kaufzeitpunkt hat, der bekommt den Zuschlag.
So läuft das in der Regel ab.
Abgesehen von ein paar Freaks (Fanboys), die entweder immer ATI oder immer Nvidia kaufen. :)
derguru
2010-01-08, 10:31:27
na welches wird das bessere p/l verhältnis wohl haben,amd die schon ca. 6 monate auf dem markt ist oder fermi der gerade gelauncht wird?sogar bei gleichzeitigem release war es meistens amd.
y33H@
2010-01-08, 10:44:17
Wer das bessere P/L Verhältnis zum gewollten Kaufzeitpunkt hat, der bekommt den Zuschlag.Wobei L wie Leistung für weit mehr steht als nur für Fps. U.a. Features, BQ, Treiber, Kompatibilität usw.
Nvidia kann direkt auf AMDs Preise reagieren.
Die letzten Male war AMD nach Nvidia dran und konnte entsprechend reagieren.
Natürlich wird sich nvidia seine paar % Perfomanceplus des GTX 380 gegenüber dem HD 5890 fürstlich vergüten lassen - dafür baut man ja schließlich Topmodelle...
Viel interessanter wird doch die Frage, wie sich der GTX 360 Preislich positionieren wird, den ich persönlich zwischen HD 5870 und HD 5850 sehe. Aber bei Sandwichkonstellationen gibt der Markt den Preis ja meist eh schon vor - außerdem wär da ja noch Platz für eine mögliche GTX 370...
Black-Scorpion
2010-01-08, 11:04:49
Nvidia kann direkt auf AMDs Preise reagieren.
Die letzten Male war AMD nach Nvidia dran und konnte entsprechend reagieren.
Fragt sich nur wo die Schmerzgrenze ist.
Und die dürfte bei Nvidia deutlich höher sein wie bei ATI.
Fragt sich nur wo die Schmerzgrenze ist.
Und die dürfte bei Nvidia deutlich höher sein wie bei ATI.
Das hieß es schon beim GT200 und Nvidia hat ordentlich Profit gemacht.
Ailuros
2010-01-08, 11:08:10
Fragt sich nur wo die Schmerzgrenze ist.
Und die dürfte bei Nvidia deutlich höher sein wie bei ATI.
Es gibt keine Schmerzgrenze dank Quadros.
Wie wieder die alte Produktionskostendiskussion kommt, obwohl niemand die Produktionskostens kennt.
Naja, jedenfalls war damals der Größen und SI-Abstand ein gutes Stück größer, zu GT200 und RV770 Zeiten.
Black-Scorpion
2010-01-08, 11:14:27
Das hieß es schon beim GT200 und Nvidia hat ordentlich Profit gemacht.
Das kannst du natürlich auch belegen das sie den GT200 nicht unter der Schmerzgrenze anbieten mussten.
Die bieten auch noch reichlich anderes an womit man Gewinn machen kann.
Es gibt keine Schmerzgrenze dank Quadros.
Natürlich gibt es die.
Für jedes Produkt wird ein bestimmter Preis festgelegt.
Quersubventionierung mit Bereich B ändert nichts daran das Bereich A Verlust macht.
Natürlich gibt es die.
Für jedes Produkt wird ein bestimmter Preis festgelegt.
Quersubventionierung mit Bereich B ändert nichts daran das Bereich A Verlust macht.
Wenn ich mir die Finanzzahlen von Nvidia im letzten Jahr anschaue, scheint eher AMD probleme zu haben als Nvidia....
derguru
2010-01-08, 11:25:43
Das hieß es schon beim GT200 und Nvidia hat ordentlich Profit gemacht.
wie war das zum launch nochmal,gab es da nicht die geldzurück- aktion um die leute zuberuhrigen die sich verarscht fühlten weil die preise innerhalb eines monats 1/3 an wert verloren haben um gezwungenermaßen mit ati preispolitik mit zuhalten.geplant war es so sicherlich nicht von nv.
und deshalb mussten sie auch in kürzester zeit nochmal mit der fertigung von 65nm auf 55nm runter und das ist ja freihaus.:rolleyes:
nv hat gewinn gemacht aber ob es an der 200er serie lag bezweifel ich.
Armaq
2010-01-08, 11:26:02
Das kannst du natürlich auch belegen das sie den GT200 nicht unter der Schmerzgrenze anbieten mussten.
Die bieten auch noch reichlich anderes an womit man Gewinn machen kann.
Natürlich gibt es die.
Für jedes Produkt wird ein bestimmter Preis festgelegt.
Quersubventionierung mit Bereich B ändert nichts daran das Bereich A Verlust macht.
Die liegt aber sehr hoch. Mich hat das Ergebnis der Quadros gemessen an der GesamtGuV schon überrascht. Nvidia sicherlich auch, sonst hätten sie es nicht veröffentlicht.
Undertaker
2010-01-08, 11:26:19
Natürlich gibt es die.
Für jedes Produkt wird ein bestimmter Preis festgelegt.
Quersubventionierung mit Bereich B ändert nichts daran das Bereich A Verlust macht.
Extrem unwahrscheinlich das man die Preise auf ein Niveau senken muss, das unter den reinen Produktionskosten liegt. Wenn Entwicklungskosten und Gewinne über andere Fermi-Produkte hereingeholt werden können, reicht das im Notfall auch zu.
wie war das zum launch nochmal,gab es da nicht die geldzurück- aktion um die leute zuberuhrigen die sich verarscht fühlten weil die preise innerhalb eines monats 1/3 an wert verloren haben um gezwungenermaßen mit ati preispolitik mit zuhalten.geplant war es so sicherlich nicht von nv.
und deshalb mussten sie auch in kürzester zeit nochmal mit der fertigung von 65nm auf 55nm runter und das ist ja freihaus.:rolleyes:
Schon blöd wenn man absichtlich was verwechselt.
Nvidia hat die Preise angepasst richtig.
Aber was das mit den Herstellungskosten zu tun hat, naja weiss wohl niemand.
Davon ab das man nur vermuten kann das man sich diesmal bei den Kosten deutlich näher ist, aber in wie weit, weiss man nicht.
Black-Scorpion
2010-01-08, 11:28:37
Wenn ich mir die Finanzzahlen von Nvidia im letzten Jahr anschaue, scheint eher AMD probleme zu haben als Nvidia....
Wo steht was in welchem Bereich Gewinn oder Verlust eingebracht hat?
Selbst den größten Optimisten muss klar sein das GT300 teurer wie Cypress ist.
Bei wem ist die Schmerzgrenze wohl höher?
Selbst den größten Optimisten muss klar sein das GT300 teurer wie Cypress ist.
Bei wem ist die Schmerzgrenze wohl höher?
Selbst den größten Pesimisten muss klar sein, GT200 weitaus teurer im Vergleich zu RV770 als GT300 im Vergleich zu RV870 ist.
Black-Scorpion
2010-01-08, 11:43:24
Selbst den größten Pesimisten muss klar sein, GT200 weitaus teurer im Vergleich zu RV770 als GT300 im Vergleich zu RV870 ist.
Deine dämlichen Vergleiche kannst du dir in die Haare schmieren.
Wie lange ist GT300 überfällig?
Was kostet A3?
Gibt es für Nvidia natürlich alles umsonst weil es dir so schön in den Kram passt.
Das sind alles kosten die mit reingehen.
Aber sind ja nur ein paar Cent. :rolleyes:
Dir sind wohl 2 Verwarnungen zu wenig oder?
Ailuros
2010-01-08, 11:43:59
Wo steht was in welchem Bereich Gewinn oder Verlust eingebracht hat?
Selbst den größten Optimisten muss klar sein das GT300 teurer wie Cypress ist.
Bei wem ist die Schmerzgrenze wohl höher?
Es hat keiner behauptet dass GF100 nicht teurer in seiner Herstellung ist. Was ich aber sagte ist dass die hoeheren Herstellungskosten durch die Profi-Maerkte bzw. Quadro Verkaeufe verschmerzt werden. Bei dem Marktanteil den NV in diesen Maerkten hat und bei den Preisen pro SKU ist es laecherlich ueberhaupt darueber zu reden.
Ergo von welcher Schmerzgrenze reden wir hier genau nochmal?
Tarkin
2010-01-08, 11:45:27
Selbst den größten Pesimisten muss klar sein, GT200 weitaus teurer im Vergleich zu RV770 als GT300 im Vergleich zu RV870 ist.
Der Unterschied ist zwar kleiner bei rv870 vs G100 (was Chipfläche angeht)... aber wer sagt denn, dass es sich bei den Yields nicht anders verhält?
Alles reine Spekulation. Nichts desto trotz. Fakt ist aber, dass bei 50% Unterschied, nvidia (bestenfalls!) nur etwa halb so viele G100 pro Wafer bekommt wie AMD beim rv870.
Ailuros
2010-01-08, 11:48:12
Alles reine Spekulation. Nichts desto trotz. Fakt ist aber, dass bei 50% Unterschied, nvidia (bestenfalls!) nur etwa halb so viele G100 pro Wafer bekommt wie AMD beim rv870.
Ebenso ist es eine Tatsache dass NV in einem low margin/high profit Markt wie der Profi-Markt fuer jede FireGL zumindest 8 Quadros verkauft.
Der Unterschied ist zwar kleiner bei rv870 vs G100 (was Chipfläche angeht)... aber wer sagt denn, dass es sich bei den Yields nicht anders verhält?
Wer sagt wie es sich verhält?
Alles reine Spekulation. Nichts desto trotz. Fakt ist aber, dass bei 50% Unterschied, nvidia (bestenfalls!) nur etwa halb so viele G100 pro Wafer bekommt wie AMD beim rv870.
Spekulation.
Wär aber möglich.
Wie war das gleich zu GT200 und RV770 Zeiten? Schlimmer und zu allem Übel war das SI auch noch viel größer.
Deine dämlichen Vergleiche kannst du dir in die Haare schmieren.
Wie lange ist GT300 überfällig?
Was kostet A3?
Gibt es für Nvidia natürlich alles umsonst weil es dir so schön in den Kram passt.
Das sind alles kosten die mit reingehen.
Aber sind ja nur ein paar Cent. :rolleyes:Na dann erzähl uns die Lösung.
Geforce GTX 380 nicht herausbringen, sondern nur auf Quadro setzten?
Geforce GTX 380 in Preisregionen setzten in denen sie gute Gewinne abwerfern würde, sie aber niemand kauft?
Tarkin
2010-01-08, 11:51:29
Ebenso ist es eine Tatsache dass NV in einem low margin/high profit Markt wie der Profi-Markt fuer jede FireGL zumindest 8 Quadros verkauft.
bestreitet ja keiner :)
Black-Scorpion
2010-01-08, 11:51:32
Es hat keiner behauptet dass GF100 nicht teurer in seiner Herstellung ist. Was ich aber sagte ist dass die hoeheren Herstellungskosten durch die Profi-Maerkte bzw. Quadro Verkaeufe verschmerzt werden. Bei dem Marktanteil den NV in diesen Maerkten hat und bei den Preisen pro SKU ist es laecherlich ueberhaupt darueber zu reden.
Ergo von welcher Schmerzgrenze reden wir hier genau nochmal?
Auch Nvidia muss für Fermi einen Mindestpreis haben.
Da spielt der Profimarkt erstmal keine Rolle.
Das der Gewinn da riesig ist gemessen am reinen Wert steht außer Frage.
Ändert aber nichts daran das die Rechnung pro GT300 gemacht wird.
Sie wollen mit Sicherheit auch mit Fermi Gewinn machen.
Auch NVidia kann es sich nicht leisten die Karten mit dem Profimarkt zu subventionieren.
Das kann auch mal schief gehen.
_DrillSarge]I[
2010-01-08, 11:53:34
Ebenso ist es eine Tatsache dass NV in einem low margin/high profit Markt wie der Profi-Markt fuer jede FireGL zumindest 8 Quadros verkauft.
ob dies als "ausgleich" reicht, bezweifle ich mal ganz stark.
Tarkin
2010-01-08, 11:56:58
Wer sagt wie es sich verhält?
Naja, die Verzögerungen lassen zumindest den Schluß zu, dass nvidia diesmal (Yield-)Schwierigkeiten mit einem 500mm^2+ Chip hat (anders als bei der 65 bzw 55nm Fertigung).
Es macht einen gewaltigen Unterschied wenn nvidia nur sagen wir statt 1/2 an Chips pro Wafer plötzlich nur noch 1/4 herausbekommt... da explodieren ihnen die Kosten im Gesicht.
mapel110
2010-01-08, 12:01:37
Ah so ist das. Und ATI bejubelt 2 Mio Chips in 4 Monaten und hat keine Kopfschmerzen wegen den Yields. Will sagen, ATI krebst seit über 3 Monaten mit miesen Yields bei RV870 umher und da solls ganz anders aussehen mit Yields und Kosten?!
Ebenso ist es eine Tatsache dass NV in einem low margin/high profit Markt wie der Profi-Markt fuer jede FireGL zumindest 8 Quadros verkauft.
wohleher low volume
Ailuros
2010-01-08, 12:07:03
Auch Nvidia muss für Fermi einen Mindestpreis haben.
Sicher. Aber da so viele Maerchen ueber angebliche "bessere" Vertraege mit TSMC kursieren, kann ich Dich auf jeden Fall nicht aufklaeren wie ihr Vertrag genau aussieht. Und das sollte jetzt nicht als Ausrede dienen sondern zu einer logischen spekulativen Milchmaedchen-Rechnung fuer die ich erstmal einen spekulativen Mindestpreis zur Hand haben muesste um erstmal anfangen zu koennen.
Kein IHV wird Dir solche Einzelheiten je bereit legen und alles auf was man sich drauf verlassen kann sind oeffentliche finanzielle Analysen.
Da spielt der Profimarkt erstmal keine Rolle.
Wieso? Wenn ich mir ausrechnen will ob Kosten irgendwo aufgesaugt werden dann werde ich SEHR WOHL alle Maerkte dazurechnen in denen Produkt X benutzt bzw. verkauft wird. So lange fuer GeForce/Quadro/Tesla die ein die selben chips vom gleichen Herstellungslaufband benutzt werden, gibt es keine beliebige Auswahl nur das mitzuberechnen was einem gerade passt.
Das der Gewinn da riesig ist gemessen am reinen Wert steht außer Frage.
Und? Nochmal verwenden Quadros andere chips? Nein.
Ändert aber nichts daran das die Rechnung pro GT300 gemacht wird.
Aendert aber auch nichts daran dass GF100 chips fuer alle drei Varianten benutzt werden.
Sie wollen mit Sicherheit auch mit Fermi Gewinn machen.
Auch NVidia kann es sich nicht leisten die Karten mit dem Profimarkt zu subventionieren.
Das kann auch mal schief gehen.
NV wird wohl an ihrer monolithischen single chip high end Strategie nichts aendern so lange sie kein blaues Auge davon abbekommen. Sie haben erstmal ziemlich negative Nebeneffekte - die sie dank beschissenem Herstellungsprozess nicht kontrollieren koennen - was ihre zu hohe Chipkomplexitaet und generelle execution betrifft. IMHO gibt es hier moegliche zukuenftige Auswege ohne ihre generelle Strategie fundamental zu aendern.
Nichtdestominder ist ihr direktes Problem nicht IMO dass der chip zu kompliziert ist (denn wenn 40G anstaendig waere, waere das Ding auch schon auf dem Markt) sondern dass sie dank der zu hohen Chipkomplexitaet zu spaet am Markt ankommen.
wohleher low volume
Stimmt; tschuldigung fuer den typo.
I[;7768368']ob dies als "ausgleich" reicht, bezweifle ich mal ganz stark.
Dann zeig mir basierend auf oeffentlichen Daten wo und warum sie rote Zahlen hatten. Eben ohne die kritischen Daten die sie nie im Leben bereitstellen werden kann man nichts dergleichen ausrechnen. Anders verdreht muesste sich jemand hinsetzen und sich mit unendlichen Zahlen zu verwuschteln um am Ende immer noch nicht zu wissen woher zum Henker jeglicher Gewinn herkommt fuer's ganze 2009 und das bei ziemlich hohen R&D Kosten.
N0Thing
2010-01-08, 12:10:34
Doch ist es, denn in der Vergangenheit wurde 3Way-SLI erst ganz zum Schluss in die Treiber integriert, das lässt vermuten das die Treiber schon recht fortgeschritten sind bzw. der Launch garnicht mehr soweit entfernt zu sein scheint.
Der Treiber sollte ja auch schon fertig sein, immerhin sollte es den GF100 schon Ende 2009 zu kaufen geben und für die Treiberentwicklung braucht man ja kein fertiges High-End-Modell, da reicht auch ein voll funktionsfähiges Sample, das nur mit minimalen Taktraten läuft.
Wobei L wie Leistung für weit mehr steht als nur für Fps. U.a. Features, BQ, Treiber, Kompatibilität usw.
Wobei jeder Käufer selber für sich entscheidet, was für ihn wichtig ist und unter den Begriff Leistung fällt.
Es gibt ja leider mehr als genug Leute, die überhaupt nichts von den Unterschieden abseits der fps wissen und manchen ist es auch absolut egal.
Armaq
2010-01-08, 12:15:20
Auch Nvidia muss für Fermi einen Mindestpreis haben.
Da spielt der Profimarkt erstmal keine Rolle.
Das der Gewinn da riesig ist gemessen am reinen Wert steht außer Frage.
Ändert aber nichts daran das die Rechnung pro GT300 gemacht wird.
Sie wollen mit Sicherheit auch mit Fermi Gewinn machen.
Auch NVidia kann es sich nicht leisten die Karten mit dem Profimarkt zu subventionieren.
Das kann auch mal schief gehen.
Das stimmt nicht. Natürlich kann sich Nvidia das leisten. Wenn du dir in Erinnerung rufst, was Huang gesagt hat, nämlich dass die Marge fast vollständig im Profi-Segment gemacht wird, dann können sie das sogar sehr gut. Einfache Kostenstellenrechnung reicht für das Modell Nvidia nicht aus!
Ailuros
2010-01-08, 12:15:25
Der Treiber sollte ja auch schon fertig sein, immerhin sollte es den GF100 schon Ende 2009 zu kaufen geben und für die Treiberentwicklung braucht man ja kein fertiges High-End-Modell, da reicht auch ein voll funktionsfähiges Sample, das nur mit minimalen Taktraten läuft.
Man sprach kurz vor Ende 2009 immer noch von quasi rohen Treibern. Je mehr hw zur Verfuegung steht desto schneller geht es aufwaerts mit der Treiberentwicklung. Es handelt sich wohl nicht im Treiberteam um 5 Herren die in einem Tassenschrank hocken.
reunion
2010-01-08, 12:15:33
Ah so ist das. Und ATI bejubelt 2 Mio Chips in 4 Monaten und hat keine Kopfschmerzen wegen den Yields. Will sagen, ATI krebst seit über 3 Monaten mit miesen Yields bei RV870 umher und da solls ganz anders aussehen mit Yields und Kosten?!
Natürlich wirkt sich das umso stärker aus je größer das Die ist, und zwar weit stärker als nur linear. Man sieht ja das man alles an 40nm Chips <=Juniper ganz gut bekommt, auch von NV. Bei Cypress wird es jetzt schön langsam besser. GF100 ist halt da nochmal deutlich größer. Wenn es überhaupt ein reines Prozess-Problem ist, man kann eh nur spekulieren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.