Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
bloub
2010-02-05, 16:36:58
AMD verliert mit Tessellation deutlich an Leistung. Und das ist erstmal ein Fakt. Stalker ist in DX11 ohne Tessellation 40% schneller. Im Unigine Benchmark ist DX11 ohne Tessellation sind es sogar 75%. Je aufwendiger die Szenen werden, umso krasser wird der Einbruch. AMD's Tessellation Leistung reicht also mitnichten aus.
die tesselation leistung reicht wahrscheinlich aus, nur eben durch die vielen zusätzlich zu berechnenden dreiecken bricht die karte dann ein.
robbitop
2010-02-05, 16:37:17
Ist es nicht mehr aktuell, dass die LERPs mit Shadertakt laufen? (die Filterrate also doppelt so hoch ist, wie die Adressrate)
AnarchX
2010-02-05, 18:09:00
Ist es nicht mehr aktuell, dass die LERPs mit Shadertakt laufen? (die Filterrate also doppelt so hoch ist, wie die Adressrate)
Momentan sieht es eher nach Filterrate = Adressrate aus.
Damien Triolet hatte genauer nach der Leistung unter den verschiedenen Textureformaten beim Techday gefragt: http://www.behardware.com/articles/782-5/nvidia-geforce-gf100-the-geometry-revolution.html
Mit optimistischen 800MHz Hot-Clock also etwas das Niveau einer GTX 285 bei der Rohtexelleistung. Bei den App State Buckets hat man sich vielleicht Szenarien mit einem hohen Anteil an ungefilterten Zugriffen ausgesucht.
behardware.com
Was sind die Fehler?
Fängt ja schon damit an, dass man bei der GTX295 die Dreieckleistung ungefähr verdoppelt gegenüber GTX285, aber bei der HD5970 nicht. Weiß da jemand etwa nicht ob Geometrie mit AFR skaliert oder nicht? :D
Ich glaube nicht, dass Fermi den ScanOut mit Shadertakt macht. Bei mir ergibt (4x0.5)x725 nicht über 2000 Dreiecke. ;)
Davon ab schafft GT200B (in der Praxis) nur jeden zweiten Takt ein Dreieck, also nicht 648 sondern 374 Millionen pro Sekunde.
Wenn sie die 4xx-Serie dann auch nur mit GF10x-Ablegern besetzen, ist mir die Namenswahl ganz recht. Aber ich fürchte, es gibt wieder ein Mischmasch.
/EDIT: So fände ich es ganz hübsch und übersichtlich:
GTX 480: 512 SPs, 384-Bit-SI
GTX 470: 448 SPs, 320-Bit-SI
GTX 460: 384 SPs, 256-Bit-SI (kommt evtl. nur als Quadro)
GT 460: 256 SPs, 256-Bit-SI
GT 440: 128 SPs, 128-Bit-SI
GT 420: 64 SPs, 64-Bit-SI
G 410: 32 SPs, 64-Bit-SI
Und wo liegt der Sinn drin direkt die 300er zu überpringen??
Monatelang war von GTX360 und 380 die Rede und jetzt macht man eine 4 draus??
Oder will NVIDIA etwa suggerieren, die 4xxer Karten wären schon die Nachfolger oder weiterentwickelte 360/380er Karten??
AnarchX
2010-02-05, 19:12:41
Ein klare Abgrenzung von der G9x/GT21x-basierenden GeForce 300 Serie und sicherlich wird man den Effekt mitnehmen, dass es nach einem doppelten Generationsprung von GTX 200 aussieht. Letzterer wäre nicht so verkehrt, wenn man GeForce 300 auf die D3D10.1 GT21x beschränkt hätte.
Also bei diesen Zahlen
http://www.abload.de/img/gf100-estoo01.jpg (http://www.abload.de/image.php?img=gf100-estoo01.jpg)
muß NV aber um Welten effizienter sein, um ATI zu schlagen.
Sind die wirklich soviel effizienter?
Und wird NV bei herkömmlichen, texturlastigen games einfach nur auf GTX285 Niveau sein?Wenn ein Spiel wirklich texellimitiert ist, reicht GTX-285-Leistung (oder GTX-260-Leistung) ohnehin voll aus. GT200 erreicht was Texturfilterung angeht in synthetischen Tests ungefähr 90-95% von der theoretischen Maximalleistung (G80 lag bei etwa 70-80%.)
OT: Jetzt installiere ich Doom 3 mit Expansion. Mal sehen ob man da dick AA zuschalten kann. Ich weiß gar nicht, ob Doom beim GT200 eher Texel- oder Shaderlimitiert ist, vermutlich ist das Game aber CPU-limitiert.
bloub
2010-02-05, 19:36:01
Und wo liegt der Sinn drin direkt die 300er zu überpringen??
Monatelang war von GTX360 und 380 die Rede und jetzt macht man eine 4 draus??
nvidia hat selbst nie von gtx360/380 gesprochen, das waren immer nur die anderen ;).
AnarchX
2010-02-05, 19:40:36
GT200 erreicht was Texturfilterung angeht in synthetischen Tests ungefähr 90-95% von der theoretischen Maximalleistung (G80 lag bei etwa 70-80%.)
Aber auch nur weil die Interpolationsleistung bei GT200 durch die zusätzliche 8SPs je TPC gestiegen ist, abseits von den Test der bilinearen MT-Füllrate ist der Unterschied wieder passend zu Rohleistung und das dürfte auch in der Praxis mit verwendetem AF der Fall sein:
http://www.behardware.com/articles/723-5/product-review-the-nvidia-geforce-gtx-280-260.html
Und das ~50GTex/s für das Leistungsziel einer GTX 480 ohne entsprechende Optimierungen ausreichend sind, mag ich doch sehr bezweifeln.
Immerhin sah Nvidia noch vor kurzem die weitere Steigerung der Texelfüllrate als sehr wichtig an - ~1 TeraTexel/s für eine GPU in 2013-2015.
Ein klare Abgrenzung von der G9x/GT21x-basierenden GeForce 300 Serie und sicherlich wird man den Effekt mitnehmen, dass es nach einem doppelten Generationsprung von GTX 200 aussieht. Letzterer wäre nicht so verkehrt, wenn man GeForce 300 auf die D3D10.1 GT21x beschränkt hätte.
Naja, die klare Abgrenzung wären die 3xxer Benennung auch gewesen.
Glaube nicht das der Ahnungslose Kunde,der vor sich eine GTX280 und GTX380 sieht, der Meinung ist, das die Karte noch schneller, besser,neuer ist,wenn statt GTX380 dort eine GTX480 steht.
Mit der 380 hätte das auch hingehauen.
Wurde bei der 8800er Serie ja auch nicht gemacht und die Karten waren so gut, das man,wenn man die hohe Mehrleistung damit kenntlich machen wollte, mit Sicherheit viel eher eine 2er Überspringung verdient gehabt hätte.
LuXon
2010-02-05, 20:19:48
Naja, die klare Abgrenzung wären die 3xxer Benennung auch gewesen.
Eben nicht. Die bisherigen x3xx sind mit DX10.1 ausgerüstet. Die sind von einer neueren Generation, aber eben nicht von Fermi. Wenn sie das mit den 380 gemacht hätten wüsste man nicht: was ist jetzt DX10.1 oder DX11.
Momentan sieht es eher nach Filterrate = Adressrate aus.
Damien Triolet hatte genauer nach der Leistung unter den verschiedenen Textureformaten beim Techday gefragt: http://www.behardware.com/articles/782-5/nvidia-geforce-gf100-the-geometry-revolution.html
Mit optimistischen 800MHz Hot-Clock also etwas das Niveau einer GTX 285 bei der Rohtexelleistung. Bei den App State Buckets hat man sich vielleicht Szenarien mit einem hohen Anteil an ungefilterten Zugriffen ausgesucht.
Ich lese dort nur etwas von 64 TMUs (also Adressierungseinheiten) und die Abarbeitungsgeschwindigkeit der Filterung bei bestimmten Texturformaten.
Momentan sieht es eher nach Filterrate = Adressrate aus.
Damien Triolet hatte genauer nach der Leistung unter den verschiedenen Textureformaten beim Techday gefragt: http://www.behardware.com/articles/782-5/nvidia-geforce-gf100-the-geometry-revolution.html
Da steht im prinzip nichts.
Es steht nichts über die Taktraten und 4x INT8 könnte genauso trilinear meinen.
Nvidia wird garantiert nicht weniger Filterleistung als bei der Vorgängergeneration haben, damit wären die prognostizierten Leistungssteigerungen nicht möglich.
Ailuros
2010-02-06, 09:15:27
Jep, man sieht doch das die theoretischen Werte erstmal garnix aussagen, wie die GPU sich dann tatsächlich schlägt. Brachiale Shaderpower der AMD GPUs auf der einen Seite und TexturePower bei der alten NV Generation, seltsam das die GPUs aber innerhalb ihrer Klasse sich nicht viel nehmen, rein von den FPS her erstmal.
Das einzigste wo es großen abstand gab, war 8xMSAA. Mal schauen was NV sich da hat einfallen lassen.
8xMSAA bekam eine bessere FB-Kompression und es stehen auf der 16SM Variante noch "zusaetzliche" 16 ROPs "zur Seite". Jeder raster kann 8 Pixel/Takt bearbeiten ergo 32 Pixels/Takt insgesamt, genauso wie bei GT200. Nur hat eben GT200 32 ROPs und GF100 gleich 48 ROPs. Alles zusammen hilft nicht nur 8xMSAA sondern auch 32xCSAA (8xMSAA + 24xCSAA) wobei man diesmal fuer 32xCSAA auch 32x sample Transparenz AA zuschalten kann.
Fängt ja schon damit an, dass man bei der GTX295 die Dreieckleistung ungefähr verdoppelt gegenüber GTX285, aber bei der HD5970 nicht. Weiß da jemand etwa nicht ob Geometrie mit AFR skaliert oder nicht? :D
Haette 1450 sein muessen das stimmt.
Ich glaube nicht, dass Fermi den ScanOut mit Shadertakt macht. Bei mir ergibt (4x0.5)x725 nicht über 2000 Dreiecke. ;)
Es sind maximal 4 Tris/Takt wobei selber NV angibt dass sie im besten Fall bis zu 3.2 messen konnten.
Davon ab schafft GT200B (in der Praxis) nur jeden zweiten Takt ein Dreieck, also nicht 648 sondern 374 Millionen pro Sekunde.
Diesem ist sich Damien auch durchaus bewusst. Wenn Du das Ganze durchliest wirst Du bemerken dass er im Text erwaehnt dass sich die Geometrie-Leistung von GT200 auf GF100 vervierfacht hat, waehrend NV selber 8x Mal angibt.
Es ist eben leider so dass IHVs mit einer neueren Generation ueber ihre eigenen Vorgaenger ehrlicher wird. Hier hat man dann als Author das Dilemma welche marketing Verschoenerung man genau benutzen will; am Ende des Tages ist aber GF100 = ~4xGT200/Geometrie eine ziemlich nuechterne und realitaetsnaehere Betrachtung.
Hohe Geometrie-Raten und NVIDIA passten schon seit etlichen Jahren nicht in den gleichen Satz. NV hat einfach in einem Strich das nachgeholt was Geometrie betrifft dass es ihren Archiktekturen ueber etliche Generationen schuldig war. Heisst dass eine zukuenftige Geometrie-Explosion in Spielen? IMHO nein; aber zumindest werden Entwickler nicht so verdammt vorsichtig mit Geometrie sein wie bis heute um bisherige GeForces nicht zu benachteiligen. Jetzt haben sie fuer die Zukunft einen lowest common denominator der erstmal bei zumindest einem Tri/Takt anfaengt und es ist auch gut so.
Eben nicht. Die bisherigen x3xx sind mit DX10.1 ausgerüstet. Die sind von einer neueren Generation, aber eben nicht von Fermi. Wenn sie das mit den 380 gemacht hätten wüsste man nicht: was ist jetzt DX10.1 oder DX11.
Nur gibt/gab es auch x2xx Karten von Nvidia mit DX10.1.
Alles sehr inkosistent, was Nvidia in der letzten Zeit mit den Namen anstellt.
Wie man machmal so schön zu sagen pflegt:
Weniger ist manchmal doch mehr.
Und hier wären weniger Namensänderungen in der letzten Zeit deutlich kundenfreundlicher gewesen, damit man den Überblick behält.
Wie aber Coda bereits schrieb (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7818751&postcount=10847), scheint es so als ob Nvidia dieses Namenschaos absichtlich veranstaltet, um unzureichend informierte Kunden neue Produkte vorzugaukeln, wo keine neuen sind...
Für den Desktopmarkt gibt es keine 3xx Serie. Bis auf die OEM version der 310 und der Medion GT330. Dafür erhält man das fast komplette Paket im Mobilesektor - jedoch alles 10.1 Versionen.
Mit der neuen Namensgebung 4xx hat man die Möglichkeit wieder reinen Tisch zu machen.
LuXon
2010-02-06, 13:23:34
Nur gibt/gab es auch x2xx Karten von Nvidia mit DX10.1.
Alles sehr inkosistent, was Nvidia in der letzten Zeit mit den Namen anstellt.
Und das glaube ich, will nVidia ändern. Natürlich hätten sie auch GTX380 usw. machen können. Dann wäre das Chaos perfekt. Mit GTX480 geben sie sich eine neue Chance.
Wie es schon ein paarmal geschrieben wurde:
GT200: Mindestens DX10
GT300: Mindestens DX10.1
GT400: Mindestens DX11
Ich will aber auch nicht abstreiten, dass auch Marketing dahinter steckt. Aber das ganze hat sicher auch einen Sinn ausser Marketing.
MfG
LuXon
Ailuros
2010-02-06, 18:01:54
Für den Desktopmarkt gibt es keine 3xx Serie. Bis auf die OEM version der 310 und der Medion GT330. Dafür erhält man das fast komplette Paket im Mobilesektor - jedoch alles 10.1 Versionen.
Mit der neuen Namensgebung 4xx hat man die Möglichkeit wieder reinen Tisch zu machen.
Sicher ist zwar nichts aber dass sie fuer desktop noch weitere GT3x0 SKUs nachladen werden klingt eher unwahrscheinlich. Sonst haetten sie auch GT214 und 212 nicht storniert vor langer Zeit.
Ich bin mir zwar noch nicht sicher aber es koennte sein dass die 1/2 GF100 schon im April auftaucht.
mapel110
2010-02-06, 18:35:42
Ich bin mir zwar noch nicht sicher aber es koennte sein dass die 1/2 GF100 schon im April auftaucht.
Das wäre dann der vermeintliche GF104?!
Ailuros
2010-02-06, 18:46:45
Das wäre dann der vermeintliche GF104?!
Keine Ahnung; das Ding soll eine 750MHz Frequenz haben und 15k in 3dfart P Vantage erreichen und GF100 725MHz 22k.
Dural
2010-02-06, 19:22:00
hat der GF104 jetzt ein 192Bit SI? oder 256Bit? Hoffe ja auf 256Bit und 1GB GDDR5, könnte eine echt coole GPU werden!
Keine Ahnung; das Ding soll eine 750MHz Frequenz haben und 15k in 3dfart P Vantage erreichen und GF100 725MHz 22k.
Das wäre aber schon ne ordentlich Performancekarte. Fast 5850 Niveau.
22k wäre deutlich über 5970. Wers glaubt wird selig:-)
dildo4u
2010-02-06, 22:01:23
22k wäre deutlich über 5970. Wers glaubt wird selig:-)
Physx Vantage kannte vergessen wenn du ATI vs NV vergleichen willst.
mapel110
2010-02-06, 22:02:37
22k wäre deutlich über 5970. Wers glaubt wird selig:-)
Radeon 4870 11000
+60%
Radeon 5870 17500
Geforce 285 13700
+60%
Geforce 470 22000
Sofern man mal mit den Zahlen von Computerbase und dem 3.9 Ghz i7 spielen möchte.
Ich fänd die 22k sogar eher enttäuschend. Ich will hoffen, dass die mit einer schwächeren CPU zu Stande kam. :D
Stimmt, Physx....Wieso denk ich da nie dran..;-)
Das wäre aber schon ne ordentlich Performancekarte. Fast 5850 Niveau.
Sollte eigentlich hinkommen.
480GTX (zumindest nach Zahlen) etwas unter 5890, 470GTX etwas schneller als 5770 und die Performancekarte (wie auch immer die heißen wird) etwa auf 5850-Niveau (wobei wir später wohl einen GF100-Ableger auf ähnlichem Performanceniveau sehen werden um die Abfallchips zu verwerten)
y33H@
2010-02-06, 23:26:50
Huh? GTX 480 ist deutlich über HD5870, GTX 470 ähnlich flott. Den Specs bzw. angepeilten Taktraten nach.
AwesomeSauce
2010-02-06, 23:30:34
Ich vermute einen Tippfehler:smile: 5870 anstatt 5770... Sonst kann ich mir darauf auch keinen Reim machen.
Den Specs bzw. angepeilten Taktraten nach.
Gerade noch die Kurve gekriegt;)
Huh? GTX 480 ist deutlich über HD5870, GTX 470 ähnlich flott. Den Specs bzw. angepeilten Taktraten nach.
Ist bei der Hochrechnung auch schon der Tessellationabzug dabei, da nV dabei die Shader rechnen lassen muss ?
y33H@
2010-02-07, 01:03:46
Woher willst du wissen, was NV bei HWT genau über die Shader laufen lässt und was nicht im Vergleich zu AMD? Zumal es bis zum Launch von Fermi wohl nur drei (Dirt 2, Stalker CoP, AvP) Spiele mit HWT gibt. In der Unigine verkloppt Fermi eine HD5870 zumindest laut NV, ergo sehe ich aktuell keinen Tessellationabzug, den ich meine Rechnung einbeziehen müsste.
Ist bei der Hochrechnung auch schon der Tessellationabzug dabei, da nV dabei die Shader rechnen lassen muss ?
Erläutere das doch mal bitte.
deekey777
2010-02-07, 09:49:21
Ist bei der Hochrechnung auch schon der Tessellationabzug dabei, da nV dabei die Shader rechnen lassen muss ?
Wollen wir nicht langsam damit aufhören zu behaupten, dass der GF100 keinen FF-Tessellator hat, so lange das nicht bewiesen wird?
=Floi=
2010-02-07, 09:51:07
nebenbei ist es eh egal. von mir aus rechnen die das mit nem 386er, solange es schnell ist.
Wollen wir nicht langsam damit aufhören zu behaupten, dass der GF100 keinen FF-Tessellator hat, so lange das nicht bewiesen wird?
Und wie will man es beweisen? GF100 unter das Mikroskop legen und schauen, wo sich die 16 Geometrieienheiten verstecken?
nebenbei ist es eh egal. von mir aus rechnen die das mit nem 386er, solange es schnell ist.
Mal wieder ein klassischer Speku-Thread Post.
Sollte NV Tesselation nur in SW rechnen (glaub ich nicht), dann müssten sich Shaderprogramme und die Tesselation sich die Rechenleistung teilen.
Damit kann man dann mit niedriger Shaderlast die tolle Tesselationsleistung zeigen und ohne Tesselation die tolle Shaderleistung.
Wenn beides gefordert ist, könnte die Leistung wit von den (6x Tesselationleistung Matketing ftw!) deutlich weniger überig bleiben.
Aber wie gesagt halte ich für unwahrscheinlich...
Mr. Lolman
2010-02-07, 10:52:25
Physx Vantage kannte vergessen wenn du ATI vs NV vergleichen willst.
Wieviel macht den PhysX aus, beim Vantage? Bzw. gibts irgendwelche Benchmarks von ner HD5870 mit ner NV-Karte für PhysX?
Grestorn
2010-02-07, 10:57:39
Wieviel macht den PhysX aus, beim Vantage? Bzw. gibts irgendwelche Benchmarks von ner HD5870 mit ner NV-Karte für PhysX?
Man könnte bei nV Karten ja auch einfach GPU-PhysX abschalten...
Abschalten wär wirklich besser, den Radeon + Geforce vs Geforce ist auch wieder vollkommen unfair und aussagelos.
Welcher Tester schnallt das schon und testet Radeon + Geforce vs Geforce + Geforce?
Mr. Lolman
2010-02-07, 11:45:11
Abschalten wär wirklich besser, den Radeon + Geforce vs Geforce ist auch wieder vollkommen unfair und aussagelos.
Welcher Tester schnallt das schon und testet Radeon + Geforce vs Geforce + Geforce?
Hm, stimmt. Wobei beim PhysX-Test die Grafikkartenlast gegen 0 geht. Und in den anderen Tests ist ja PhysX nicht relevant (hoffentlich). Hab ein bisschen im Forum gestöbert - PhysX Support dürfte je nach PhysX-Karte und System ~3000 (+- 500) Punkte bringen. Mit ner unübertakteten HD5870 und ner 8800GT sind schon ~20000 Punkte drinnen. Im Futuremarkforum hat einer mit ner HD5870@1GHz + ner NV-Karte für PhysX ~22000 Punkte erreicht.
Ailuros
2010-02-07, 12:03:53
22k wäre deutlich über 5970. Wers glaubt wird selig:-)
Was soll so besonders sein an diesem sehr nichtaussagendem synthetischem benchmark fuer heutige Verhaeltnisse? Ich hab die 15k lediglich erwaehnt, damit jemand in etwa den Unterschied zur grossen Keule einschaetzen koennte. Ich weiss immer noch nicht ob diese 725/750 Frequenzen fuer GF100 und 1/2 GF100 fuer den core clock stehen oder 1/2 hot clock. Falls es aber der erste Fall sein sollte (best case scenario) dann liegt der hot clock auf 1.7GHz.
Und damit sich einige wieder beruhigen koennen die 5870 landet im gleichen System >17k.
Ist bei der Hochrechnung auch schon der Tessellationabzug dabei, da nV dabei die Shader rechnen lassen muss ?
Ich verweise jetzt nicht nochmal auf den GF100 Thread im Technlogie Forum oder ein paar Seiten zurueck in diesem Thread. Wer lesen kann bzw. etwas verfolgt ist selig. Es wird so langsam laecherlich den gleichen Brei zich Male zu wiederholen.
mboeller
2010-02-07, 12:47:30
Ailuros;
die 15K für die "kleine" Karte sind dann wohl auch mit PhysX, oder? Muss man dann auch bis zu 3K Punkte für PhysX abziehen, wie Lolman sagt?
Keine Ahnung; das Ding soll eine 750MHz Frequenz haben und 15k in 3dfart P Vantage erreichen und GF100 725MHz 22k.
die 15k wären zw 5850 und 5870 wenn ich mit den CB werten vergleiche. Klingt nicht schlecht
Spasstiger
2010-02-07, 13:35:04
Und wie will man es beweisen? GF100 unter das Mikroskop legen und schauen, wo sich die 16 Geometrieienheiten verstecken?
Wenn der GF100 gegenüber Cypress bei aktiver Tessellation einen größeren Vorsprung rausholt als im selben Spiel ohne Tessellation, dann hat der GF100 die bessere Tessellationslösung. Und das zählt ja letztlich.
Ailuros;
die 15K für die "kleine" Karte sind dann wohl auch mit PhysX, oder? Muss man dann auch bis zu 3K Punkte für PhysX abziehen, wie Lolman sagt?
Es sind keine Werte mit Physx. Nur weil Mr.Lolman und andere das glauben wollen, ist es nicht so. Dazu kommen die Werte von Neliz - was sie nochmal unglaubwürdiger erscheinen lassen.
Man darf nicht vergessen das die X2900 XT beim 3dmark auch total geil war.Bei SPielen sah es dann ganz anders aus.Auf diesen wert sollte man also nicht geben.;)
Mr. Lolman
2010-02-08, 01:10:41
Es sind keine Werte mit Physx. Nur weil Mr.Lolman und andere das glauben wollen, ist es nicht so. Dazu kommen die Werte von Neliz - was sie nochmal unglaubwürdiger erscheinen lassen.
PhysX ist doch automatisch aktiv, oder?
Es sind keine Werte mit Physx. Nur weil Mr.Lolman und andere das glauben wollen, ist es nicht so. Dazu kommen die Werte von Neliz - was sie nochmal unglaubwürdiger erscheinen lassen.
Neliz und unglaubwürdig?
http://www.abload.de/img/smiley_emoticons_fressbonf.gif (http://www.abload.de/image.php?img=smiley_emoticons_fressbonf.gif)
Jeder der ein wenig Ahnung hat weiß das Ausagen von neliz genau soviel Gewicht haben wie Aussagen von Ailuros!
Neliz und unglaubwürdig?
Jeder der ein wenig Ahnung hat weiß das Ausagen von neliz genau soviel Gewicht haben wie Aussagen von Ailuros!
Das unglaubwürdiger bezog sich sicher auf "Mr. Lolman und andere":
"Nur weil Mr.Lolman und andere das glauben wollen, ist es nicht so. Dazu kommen die Werte von Neliz - was sie nochmal unglaubwürdiger erscheinen lasse"
mapel110
2010-02-08, 10:20:55
http://www.xbitlabs.com/articles/video/display/evga-gtx275-coop-physx_13.html#sect1
Scheint nicht so, dass PhysX einen positiven Einfluss auf den Vantage Score hat?! Eher sogar das Gegenteil.
redpanther
2010-02-08, 10:38:19
PhysX ist doch automatisch aktiv, oder?
In Vantage schon, sagt aber nichts darüber aus ob physx per GPU oder CPU berechnet wird.
Im nVidia controlpanel kannst du jedoch eben dies einstellen.
Wenn du deinen GPU nicht mit Physx belasten willst, kannst du es dort auf die CPU legen.
Scheint nicht so, dass PhysX einen positiven Einfluss auf den Vantage Score hat?! Eher sogar das Gegenteil.
Im X-Test sicher nicht, aber im P-Test können das schon 3K sein
Neliz und unglaubwürdig?
http://www.abload.de/img/smiley_emoticons_fressbonf.gif (http://www.abload.de/image.php?img=smiley_emoticons_fressbonf.gif)
Jeder der ein wenig Ahnung hat weiß das Ausagen von neliz genau soviel Gewicht haben wie Aussagen von Ailuros!
Schon Jesus Christus sagte : "Ihr sollt nicht an mir Zweifeln !"
Neliz:
http://forum.beyond3d.com/showpost.php?p=1381382&postcount=476
X score with those P22K is 15K, as I said on XS, not sure if those numbers are legit.
I assume they're fake but show up at DH a couple of hours later..
http://www.xtremesystems.org/forums/showpost.php?p=4202603&postcount=1118
5k above a 5870, which is around 25% faster...
(5870 hat dort 17K)
Gibt es jetzt eigentlich genauere Infos,WANN wir mit Karten für die bekannten HW Seiten rechnen können,um richtige Spieletests zu sehen?
Mal wieder ein klassischer Speku-Thread Post.
Sollte NV Tesselation nur in SW rechnen (glaub ich nicht), dann müssten sich Shaderprogramme und die Tesselation sich die Rechenleistung teilen.
Damit kann man dann mit niedriger Shaderlast die tolle Tesselationsleistung zeigen und ohne Tesselation die tolle Shaderleistung.
Wenn beides gefordert ist, könnte die Leistung wit von den (6x Tesselationleistung Matketing ftw!) deutlich weniger überig bleiben.
Aber wie gesagt halte ich für unwahrscheinlich...
Muss dich leider enttäuschen. Tessellation kommt noch vor dem Pixelshading und nimmt somit keine Ressourcen des Pixelshading in Anspruch.
Muss dich leider enttäuschen. Tessellation kommt noch vor dem Pixelshading und nimmt somit keine Ressourcen des Pixelshading in Anspruch.
Vertexshading kommt auch vor dem Pixelshading und trotzdem nimmt der Vertexshader bei einer unified Architektur dem Pixelshader Leistung weg.
Vertexshading kommt auch vor dem Pixelshading und trotzdem nimmt der Vertexshader bei einer unified Architektur dem Pixelshader Leistung weg.
Hier kommt das Load Balancing ins Spiel. Somit wird immer die richtige Einteilung der Einheiten garantiert und somit entsteht kein Engpass. Deswegen limitieren Vertex-Shader auch nicht die Pixelshader.
Und das selbe würde auch passieren, wenn der Tessellationsvorgang - also das Zerlegen von großen Dreiecken in Millionen und Millionen von kleineren - über die Recheneinheiten laufen würde.
@CjayMarshall Yes it's in volume production.Sorry no freebies (not even for NV employees).But it's going to be here soon and it'll be fast!!
http://twitter.com/nvidiacc
Ich liebe Twitter.
boxleitnerb
2010-02-08, 21:21:44
Es wird lächerlich, was NV da abzieht. Verständlich, verzweifelt, aber lächerlich.
wo bleiben denn die fließbandleaks :)?
wo bleiben denn die fließbandleaks :)?
Die werden bald kommen und schnell sein ;)
ZÜNDELholz
2010-02-08, 22:02:14
Das ist ja wie zu DDR-Zeiten:
Die Kohle gehordet , aber keine Ware.
Hier kommt das Load Balancing ins Spiel. Somit wird immer die richtige Einteilung der Einheiten garantiert und somit entsteht kein Engpass. Deswegen limitieren Vertex-Shader auch nicht die Pixelshader.
Und das selbe würde auch passieren, wenn der Tessellationsvorgang - also das Zerlegen von großen Dreiecken in Millionen und Millionen von kleineren - über die Recheneinheiten laufen würde.
Irgendwo hast du einen Denkfehler. Natürlich führt zusätzliche Last für andere Dinge als Pixelshading zu einer niedrigeren Pixelshader-Leistung.
Ailuros
2010-02-08, 22:05:49
Ailuros;
die 15K für die "kleine" Karte sind dann wohl auch mit PhysX, oder? Muss man dann auch bis zu 3K Punkte für PhysX abziehen, wie Lolman sagt?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage
Und hier ist wenn ich mir den 5870 score (>17k) ansehe die CPU mit der CB testete schwaecher als das System mit dem NV angeblich getestet hat. Eine GTX285 landet oben knapp unter 13k; mit einer staerkeren CPU liegt der score noch einen Schnitt hoeher und Du hast logischerweise bei einer halben GF100 256SPs mit hoeherem hot clock als auf einer GTX285. Was ich nicht weiss ist ob der hot clock bei der GF10x bei 1.5 oder bei 1.7GHz liegt. Auf jeden Fall sehe ich nichts unmoegliches hier an dem score.
Es wird lächerlich, was NV da abzieht. Verständlich, verzweifelt, aber lächerlich.
Vor Mai wird das wohl nichts mehr werden.
Was soll da noch groß rauskommen.
Seit kurzem läuft der 40g Prozess halbwegs.
Jetzt geht die Produktion seinen Weg, die Frage ist, wann der Launch ist. Das wiederum hängt auch damit zusammen ob Hard oder Softlaunch gewünscht sind.
Mai ist eine schamlose Fanboyausage. Es geht hier nicht darum, das vor 2 Wochen ein kompletter B1 Tapeout stattgefunden hat, auf den man jetzt warten muss.
Vor Mai wird das wohl nichts mehr werden.
Mai ist das nächste März.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage
Und hier ist wenn ich mir den 5870 score (>17k) ansehe die CPU mit der CB testete schwaecher als das System mit dem NV angeblich getestet hat. Eine GTX285 landet oben knapp unter 13k; mit einer staerkeren CPU liegt der score noch einen Schnitt hoeher und Du hast logischerweise bei einer halben GF100 256SPs mit hoeherem hot clock als auf einer GTX285. Was ich nicht weiss ist ob der hot clock bei der GF10x bei 1.5 oder bei 1.7GHz liegt. Auf jeden Fall sehe ich nichts unmoegliches hier an dem score.
Reiht sich ja auch strategisch perfekt ein. GF100 als topmodell und GF104 ersetzt die GT200b Reihe. Damit braucht man nicht mit einem teildeaktvierten GF100 gegen die 5850 antreten und kann eine niedrig getaktete (teildeaktiverte Version) auch gegen 5770 laufen lassen. Somit hätte NV auch weitgehend auf 40nm umgestellt.
Ailuros
2010-02-09, 07:36:03
Reiht sich ja auch strategisch perfekt ein. GF100 als topmodell und GF104 ersetzt die GT200b Reihe. Damit braucht man nicht mit einem teildeaktvierten GF100 gegen die 5850 antreten und kann eine niedrig getaktete (teildeaktiverte Version) auch gegen 5770 laufen lassen. Somit hätte NV auch weitgehend auf 40nm umgestellt.
Ich dachte zuerst dass AMD herumulkt als sie den halben GF100 erwaehnten. Als ich aber von neliz die AIB Daten sah und sich das GF100 P Vantage Resultat mit der landing zone die NV dafuer angelegt hatte deckt (~22k), war das Ganze ausserhalb vom einfachen Zufall fuer mich.
Auf jeden Fall kommt das Ding was immer es genau ist nicht gleichzeitig mit 480/470 an sondern etwas spaeter. Die area womoeglich zwischen 350-380mm2.
Etwas später wäre völlig ok. Imho kann der halbe GF100 ein legitimer Nachfolger des G92 werden.
Ersetzten kann ein halber GF100 G92 nicht.
Die Lücke zum GT215 ist weiterhin vorhanden und muss gefüllt werden.
Ich würde da an einen viertel GF100 denken.
Ailuros
2010-02-09, 10:24:10
Ersetzten kann ein halber GF100 G92 nicht.
Die Lücke zum GT215 ist weiterhin vorhanden und muss gefüllt werden.
Ich würde da an einen viertel GF100 denken.
Ihr habt beide Recht nur benutzt V2.0 wohl eine andere Perspektive. G92 war bei seiner Vorstellung Performance. Du auf der anderen Seite denkst wo G92 platziert sein wird nach der GF100 Vorstellung.
Nvidia partners should be able to showcase the upcoming Fermi-based Geforce GTX 480 graphics card at Cebit, but we doubt that this will be the time for the official card launch.
http://www.fudzilla.com/content/view/17586/1/
Und y33H@ "is running wild" im Computerbase.de Forum bezüglich GF100. Heißt wohl, dass die Taktraten schon bekannt und unter NDA stehen. Dan sollten wohl bald de ersten Leaks auftauchen.
dann lässt diese aussage von ihm ja nichts gutes erahnen:
HDk5 kommt nach dem ich mir die aktuellen Kühler reingezogen habe, kein Bock mehr auf Fermi zu warten. HD5870 @ 1,0 GHz und silent-Kühlung, fertig.
dann lässt diese aussage von ihm ja nichts gutes erahnen:
Gibs dazu auch ein Link? Ich fühl mich nicht duch seine 20k Beiträge in 4 Jahren(!).
Es lässt nur erahnen, das er
- die Warterei satt hat und was neues will
Das schliesst GF100 als auch die 2GiB Version mit ein.
Es schliesst nicht ein, das er beim GF100 Start nicht eine GF100 holt.
Gibs dazu auch ein Link? Ich fühl mich nicht duch seine 20k Beiträge in 4 Jahren(!).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7832142&postcount=2580
Es lässt nur erahnen, das er
- die Warterei satt hat und was neues will
Das schliesst GF100 als auch die 2GiB Version mit ein.
Es schliesst nicht ein, das er beim GF100 Start nicht eine GF100 holt.
das wiederum würde darauf schließen lassen das er recht gut verdient.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7832142&postcount=2580
Nun, das heißt nur, dass GF100 laut sein wird. Nichts neues bei einer >200 Watt Karte.
das wiederum würde darauf schließen lassen das er recht gut verdient.
500€ für eine Karte hat bestimmt nichts mit "gut verdienen" zu tun.
Der Wertverlust der 360€ Karte, die nach wenigen Wochen verkauft wird, hält sich in Grenzen.
500€ für eine Karte hat bestimmt nichts mit "gut verdienen" zu tun.
also wenn die echt 500€ kosten soll dann sollte die leistung ja doch recht hoch sein.
Der Wertverlust der 360€ Karte, die nach wenigen Wochen verkauft wird, hält sich in Grenzen.
aber nicht wenn man diese nach einem "uber"fermi release verkaufen will.
mapel110
2010-02-09, 14:06:16
http://www.fudzilla.com/content/view/17586/34/
Vielleicht kein Launch auf der Cebit. Noch ein paar Wochen später?!
aber nicht wenn man diese nach einem "uber"fermi release verkaufen will.
Angenommen die GTX 470 wird nicht deutlich vor der 5870 liegen und bei 300-400€ landen, warum nochmal sollte die 5870 heftig an Wert verlieren?
Du kannst mir den Grund nicht nennen, die einzige Erklärung kommt seitens AMD, wenn die ihre Preise schnell drastisch senken, um Druck aufzubauen. So wie z.B. damals bei der HD3, die schnell nach unten geschossen ist.
Dagegen kann man als Nutzer nicht viel tun außer sich zu ärgern oder nochmehr zu ärgern, weil man sich mit dem Kauf zurück halten muss.
Angenommen die GTX 470 wird nicht deutlich vor der 5870 liegen und bei 300-400€ landen, warum nochmal sollte die 5870 heftig an Wert verlieren?
Zwei Dinge: Nachfrage lässt aufgrund von Konkurrenz nach. Und AMD wird den Preis senken, um Druck auf nVidia auszuüben. Beides führt zum Wertverlust. Wer also heute kauft, kann in 4 Wochen ziemlich dumm aus der Wäsche gucken, da es entweder die 5870 deutlich billiger wäre, zum gleichen Preis eine schnellere Variante gäbe oder aber die GTX470 zum ähnlichen Preis einfach die bessere Wahl wäre.
"However, the company does plan to finally launch its long-anticipated, single-GPU, next-generation cards in March. Despite Nvidia’s promise to have healthy availability at launch." Heisst für mich das zum Start die Verfügbarkeit gut ist. Besser als die 5870 oder 5850 zum Start.
Zwei Dinge: Nachfrage lässt aufgrund von Konkurrenz nach. Und AMD wird den Preis senken, um Druck auf nVidia auszuüben. Beides führt zum Wertverlust. Wer also heute kauft, kann in 4 Wochen ziemlich dumm aus der Wäsche gucken, da es entweder die 5870 deutlich billiger wäre, zum gleichen Preis eine schnellere Variante gäbe oder aber die GTX470 zum ähnlichen Preis einfach die bessere Wahl wäre.
Und?
Dafür kann er heute nicht mehr ruhig schlafen, weil er gerade in Situation xy gekommen ist, wo im die alte Hardware nicht mehr reicht.
Im schlimmsten Fall kostet es ~200€, für wenige Wochen Spass.
Wär mir auch zuviel, aber du willst doch nicht ernsthaft mit Vernunft ankommen, bei den Bereichen wo wir hier diskutieren.
Wer 5 Monate gewartet hat, der rennt heute nicht los und kauft sich eine ohne Benchmarks von GF100 zu sehen. Wer das macht, der wird sich in 4 Wochen nur ärgern.
Richtig. Wer jetzt 5 Monate gewartet hat kann jetzt noch auf Fermi benches warten. Und wie oben schon geschrieben, geht Nvidia davon aus zum Launch die Karten in guten Stückzahlen zu liefern. Also abwarten und Tee schlürfen.
Angenommen die GTX 470 wird nicht deutlich vor der 5870 liegen und bei 300-400€ landen, warum nochmal sollte die 5870 heftig an Wert verlieren?
Weil die Nvidia Produkte abgesehen vom P/L fast immer überlegen sind? Treiber, Profile, Stabilität, Devsupport, Performance, ...
Außerdem konnte AMD jetzt schon einige Monate hohe Preise verlangen und so die Kosten (bzw. zumindest damit beginnen) zu decken, während Nvidia erstmal mit einem großen Minus anfängt. Darüber hinaus würde niedrigere Preise auch zu mehr Absatz und höheren marktanteilen führen.
Sind das genügend Gründe?
Nein, da es stumpfe Fanboygründe sind und etwa den Nährwert der Abendzeitung von vorgestern haben.
So? Dann muss man bei CF nicht mehr auf aktuelle ATI Treiber warten? Hat einen gleichen HQ Modus wie bei Nvidia? Man kann jetzt auch im Catalyst Profile gleichwertig wie bei Nvidia anlegen? Die GT200 war nicht schneller als RV770 (oder G80 als R600?)? Nvidia investiert nicht mehr in TWIMTBP? AMD war nicht länger mit DX11 am markt um Geld zu sammeln?
Natürlich alles unter der Annahme, dass Nvidia beim Fermi die bisherige Produktpolitik beibehält.
Sind das genügend Gründe?
Die Kosten sind ein ganz schlechtes Argument.
AMDs Zahlen sind nicht rosig, mal von Intels Finanzspritze abgesehen.
AMDs Ziel muss es sein nicht möglichst viel abzusetzen, sondern möglichst viel Geld zu verdienen.
In wie weit AMD dies tun wird und nicht wieder um Marktanteile um jeden Preis kämpft kann ich nicht beurteilen.
Nvidia hat bei 400-500€ kein Kostenproblem, besonders dank Tesla und Quadro. Außerdem tust du so, als ob Nvidia ihr Zeug nicht loswerden will und lieber AMD den Markt überlässt.
Im Ursprung ging es um die 360€ Karte, die an Wert verlieren wird. Soweit so gut.
Ob jetzt 50€ mehr oder weniger, da möchte ich mich nicht festlegen. Jedenfalls wird es einen Wertverlust geben, alleine weils gebraucht ist, rechne halt noch irgendwas drauf wegen der Preissenkung. Das sind keine Welten und wenns ohne Preissenkung schon sinnfrei ist, da muss man sich nicht drüber auslassen, das es mit Preissenkung ebenfalls sinnfrei ist, das ist logisch.
y33H@
2010-02-09, 15:57:57
Und y33H@ "is running wild" im Computerbase.de Forum bezüglich GF100. Heißt wohl, dass die Taktraten schon bekannt und unter NDA stehen. Dann sollten wohl bald de ersten Leaks auftauchen.Nette Gerüchte ;D
500€ für eine Karte hat bestimmt nichts mit "gut verdienen" zu tun. Ich habe mir schon als Schüler eine 8800 Ultra gekauft ;)
N0Thing
2010-02-09, 16:04:39
"However, the company does plan to finally launch its long-anticipated, single-GPU, next-generation cards in March. Despite Nvidia’s promise to have healthy availability at launch." Heisst für mich das zum Start die Verfügbarkeit gut ist. Besser als die 5870 oder 5850 zum Start.
Das heißt für mich, daß Nvidia trotz dem Versprechen, daß zum Launch viele Grafikkarten verfügbar seien, nun trotz einer kleinen Anzahl an fertigen Grafikkarten am Lauchtermin festhält.
Das wird ja auch durch den weggelassenen Teil des Zitats untermauert, in dem die Einschätzung von Fudzilla steht: Despite Nvidia’s promise to have healthy availability at launch, we are quite sure that the products will be in short supply from its launch.
Das heißt für mich, daß Nvidia trotz dem Versprechen, daß zum Launch viele Grafikkarten verfügbar seien, nun trotz einer kleinen Anzahl an fertigen Grafikkarten am Lauchtermin festhält.
Steht dort nicht. Der Textabschnitt sagt nur aus, dass nVidia einen vernünftige Liefermenge verspricht. Du dichtest da etwas dazu, dass Fuad nicht geschrieben hat.
Volker von CB geht nicht davon aus, dass CB zur Cebit Testsamples hat: http://www.computerbase.de/forum/showpost.php?p=7369398&postcount=6
Und zum Thema Verfügbarkeit allgemein:
Was also Verfügbarkeit schlussendlich bedeutet, wird wohl an einem etwas wärmeren Frühlingstag ermittelt.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/februar/gtx_480_zur_cebit_april/
Soviel zum Thema May is the new March ;)
Das Zitat bezieht sich auf einen Abschlusssatz der Verfügbarkeit:
Letzte Gerüchte gehen von einen offiziellen Start im März aus. Sollte dies stimmen, dürfte das Gerücht für die Verfügbarkeit in größerer Stückzahl im April nicht völlig abwegig erscheinen. Doch auch dann gibt es noch diverse nicht einschätzbare Variablen, da zum Beispiel niemand sagen kann, wie hoch die effektive Ausbeute des 3-Milliarden-Transistoren-Monsters ist. Was also Verfügbarkeit schlussendlich bedeutet, wird wohl an einem etwas wärmeren Frühlingstag ermittelt.
Kalmar
2010-02-09, 16:47:10
irgendwie kenn wir das doch .. nv ist spät dran und sieht die felle davon schwimmen und versucht mit geschickt gestreuten gerüchten, "fakten" und "infos" die leute vom kauf ner 58xx abzuhalten ...
ist ja auch normales marketing und net verwerflich nur wenn sie wirklich so toll ist warum gibt es dann keine "geleakten" werte mit hinweis auf die fehlende treiberqualität ?
irgendwie kenn wir das doch .. nv ist spät dran und sieht die felle davon schwimmen und versucht mit geschickt gestreuten gerüchten, "fakten" und "infos" die leute vom kauf ner 58xx abzuhalten ...
ist ja auch normales marketing und net verwerflich nur wenn sie wirklich so toll ist warum gibt es dann keine "geleakten" werte mit hinweis auf die fehlende treiberqualität ?
Weil dein zweoter Abschnitt dann deinen ersten Abschnitt zur Folge hat?
Ist eigentlich ziemlich erstaunlich, dass einige im Paradoxonmodus verhaken: Einerseits wird nach Leaks geschriehen, andererseits werden Leaks als negativ empfunden. Man muss sich schon entscheiden: Aber beides geht nicht.
Neocroth
2010-02-09, 16:56:30
hab mal ne Frage: wenn sich Fermi seit Anfang Januar in Volume Production befindet, wie viele Dies bedeutet dies in etwa pro Monat, davon ausgehend dass Fermi gleich gute Yields wie Cypress hat und ähnlich viele Wafer wie AMD bestellt hat. Hat da jemand eine Idee?
Ich habe keine Ahnung wieviele Dies da letztendlich vom Band laufen, aber ich denke mir dass es nach fast 3 Monaten Volume Production und anschließendem Packaging / Ausliefern an AIBs usw. doch einige Karten in den Handel schaffen müssten oder?
Dural
2010-02-09, 17:07:31
schwer zusagen, da die Ausbeute wohl nicht gerade gut ist und die meisten lauffähigen DIEs sehr wahrscheinlich für die GTX460/470 drauf gehen sicher nicht so viele für die GTX480.
aber das verzögert sich natürlich alles immer bis das Produkt auch beim Kunden zuhause ist, da vergehen sicher locker 2 Monate von anfang Produktion bis zum ausliefern und Kauf des End User.
In der regel sind es so ca. 3-6Wochen vom GPU Datum bis zur Karten Auslieferung an den Handel (bei neuen Karten/GPUs!) bei Karten/GPUs die schon auf dem Markt sind kann das auch schon gut mehrere Monate sein (Lagerhaltung / Nachfrage usw.)
Also das GF100 seit Anfang Januar in Produktion ist kann ich fast nicht glauben, da ja noch nicht mal sicher ist das wir die Karte Anfang März sehen werden...
Neocroth
2010-02-09, 17:12:47
schon klar, es geht mir mehr um die Einschätzung, ob wirklich mit ausreichend Karten zum Launch gerechnet werden kann oder ob es höchstens eine Hand voll Karten geben wird.
Dural
2010-02-09, 17:21:40
Wie gesagt falls die GPUs schon seit anfang Januar in Produktion sind wird es im März sicher nicht nur eine Handvoll Karten geben.
Ich gehe aber nicht davon aus das die GPUs wirklich schon seit Anfang Januar in Massen Produkion sind, sondern viel eher der "klein" Kram wie Kühler und PCB usw. so das man sobald die GPUs kommen möglichst keine Zeit verliert bei der Fertigstellung.
N0Thing
2010-02-09, 17:31:33
Steht dort nicht. Der Textabschnitt sagt nur aus, dass nVidia einen vernünftige Liefermenge verspricht. Du dichtest da etwas dazu, dass Fuad nicht geschrieben hat.
Gleicher Gast auf den ich geantwortet habe? Oder nur die gleiche Vorliebe Zitate durch Auslassungen in ihrem Inhalt zu beschneiden?
Um es noch einmal kurz zusammen zu fassen: Im ersten Abschnitt von meinem Beitrag interpretiere ich das Zitat von Fudzilla anders als der Gast und im zweiten Abschnitt zitiere ich den fehlenden Rest von Fudzilla, der genau das besagt, was ich auch schon aus dem Zitat vom Gast heraus gelesen habe.
Daß Nvidia eine vernünftige Liefermenge verspricht habe ich übrigens nicht bestritten, ich glaube nur nicht, daß sie für den März dieses Versprechen halten können. Ich werde es mir in Zukunft wohl sparen eine Diskussion mit einem Gast zu führen, wenn man sich außer Unterstellungen nichts geboten bekommt. :)
Gleicher Gast auf den ich geantwortet habe? Oder nur die gleiche Vorliebe Zitate durch Auslassungen in ihrem Inhalt zu beschneiden?
Vielleicht vertraut der Gast Fuad's Einschätzung nicht.
Um es noch einmal kurz zusammen zu fassen: Im ersten Abschnitt von meinem Beitrag interpretiere ich das Zitat von Fudzilla anders als der Gast und im zweiten Abschnitt zitiere ich den fehlenden Rest von Fudzilla, der genau das besagt, was ich auch schon aus dem Zitat vom Gast heraus gelesen habe.
Nein, du warst nicht in der Lage die zwei Teile des Satzes auseinander zu halten. Aus diesem Grund kam es zu einer Fehlinterpretation. In der Schule wurde sowas mit einer 6 geahndet. Denn der erste Teil sagt nichts über deine Interpretation aus. Du denkst dir also deinen Teil dazu, um deiner gebildeten Meinung eine stärkere Aussagekraft zu geben. Das ist sehr frevelhaft.
Ich werde es mir in Zukunft wohl sparen eine Diskussion mit einem Gast zu führen, wenn man sich außer Unterstellungen nichts geboten bekommt. :)
Das ist irgendwie witzig: Bist du doch der jenige, der nVidia etwas unterstellt ohne etwas bieten zu können.
Das heißt für mich, daß Nvidia trotz dem Versprechen, daß zum Launch viele Grafikkarten verfügbar seien, nun trotz einer kleinen Anzahl an fertigen Grafikkarten am Lauchtermin festhält.
Das wird ja auch durch den weggelassenen Teil des Zitats untermauert, in dem die Einschätzung von Fudzilla steht: Despite Nvidia’s promise to have healthy availability at launch, we are quite sure that the products will be in short supply from its launch.
Ja nach FUD. Ich meine aber NVidia. Die gehen davon aus die Karten "Healthy" liefern zu können. Zum Launch.
Botcruscher
2010-02-09, 18:54:07
ist ja auch normales marketing und net verwerflich nur wenn sie wirklich so toll ist warum gibt es dann keine "geleakten" werte mit hinweis auf die fehlende treiberqualität ?
Weil in der "freien" Welt keine Karten existieren und das NV-Marketing vom großen Unbekannten, der Weltfrieden bringen sowie Aids heilen kann, wesentlich besser profitiert. Solange man nichts liefern kann ist es halt schlecht und der olle Restmüll muss ja auch noch aus den Lagern. Bei noch einigen Monaten Wartezeit lohnt sich das. Harte Fakten wird es bis zu Cebit ganz sicher nicht geben und was dort gezeigt wird ist auch offen. Womöglich gibts ja wieder nur Demosysteme. Who knows ...
Ist eigentlich ziemlich erstaunlich, dass einige im Paradoxonmodus verhaken: Einerseits wird nach Leaks geschriehen, andererseits werden Leaks als negativ empfunden. Man muss sich schon entscheiden: Aber beides geht nicht.
Weil man unter "Leaks" eigentlich Fakten versteht und nicht irgendwelche vom Marketing gestreuten Banalitäten. Preis, Leistung, Termin wären Dinge über die es sich lohnen würde darüber zu reden. Die Hinhaltetaktik nervt einfach. Die Zielgruppe für den Preisbereich, mit tieferem Interesse, hat sich eh schon für die eine oder andere Karte entschieden.
Sorkalm
2010-02-09, 18:54:38
Ja nach FUD. Ich meine aber NVidia. Die gehen davon aus die Karten "Healthy" liefern zu können. Zum Launch.
Alles eine Frage des Preises und damit der Nachfrage...
Kalmar
2010-02-09, 18:59:18
Weil dein zweoter Abschnitt dann deinen ersten Abschnitt zur Folge hat?
Ist eigentlich ziemlich erstaunlich, dass einige im Paradoxonmodus verhaken: Einerseits wird nach Leaks geschriehen, andererseits werden Leaks als negativ empfunden. Man muss sich schon entscheiden: Aber beides geht nicht.
da ist ne paradox dran .. das was man weiss ist zuwenig um auf die wirkliche performance schließen zu lassen, es wirdnur verkündet wir produzieren schon und die sind toll .. aber wenn sie die schon produzieren und schon so toll sind hätte ich doch ein interesse daran das auch rumzuzeigen, das die leute wirklich warten
um es vielleicht klarer zu sagen nv produziert für mich momentan nur heiße luft und ich denke ein in breiter masse verfügbarer chip wird wohl erst ab mitte april bzw. mai da sein ..
Ich denke schon zur Cebit werden wir Zahlen sehen. Was anderes kann sich NVidia jetzt nicht mehr leisten. Ich würde sagen D-Day:)
da ist ne paradox dran .. das was man weiss ist zuwenig um auf die wirkliche performance schließen zu lassen, es wirdnur verkündet wir produzieren schon und die sind toll .. aber wenn sie die schon produzieren und schon so toll sind hätte ich doch ein interesse daran das auch rumzuzeigen, das die leute wirklich warten
CES, anyone? Oder will hier jemand einen NV30? Test in Februar, kaufbare Karten Ende April...
um es vielleicht klarer zu sagen nv produziert für mich momentan nur heiße luft und ich denke ein in breiter masse verfügbarer chip wird wohl erst ab mitte april bzw. mai da sein ..
Das ist schön. Für mich produzieren sie zZ garnichts, da ich auch nichts kaufen kann.
Weil man unter "Leaks" eigentlich Fakten versteht und nicht irgendwelche vom Marketing gestreuten Banalitäten. Preis, Leistung, Termin wären Dinge über die es sich lohnen würde darüber zu reden. Die Hinhaltetaktik nervt einfach. Die Zielgruppe für den Preisbereich, mit tieferem Interesse, hat sich eh schon für die eine oder andere Karte entschieden.
Aha, Paperlaunches also. Nunja, manche würden sich bestimmt auch darüber aufregen - nicht wahr Botcruscher?
Botcruscher
2010-02-09, 20:02:09
Aha, Paperlaunches also. Nunja, manche würden sich bestimmt auch darüber aufregen - nicht wahr Botcruscher?
Dazu müsste man aber ankündigen und zum Termin nicht liefern können. ein ordentliches Preview wäre auf jeden Fall besser als die jetzigen Nebelbomben und würde auch mal eine Hausnummer setzen. Wenn das Teil zwischen März und Mai wirklich kommen soll, dann ist eh alles gegessen. Bezüglich AMD macht das Marketing eh keinen Sinn. Ein Blick auf Geizhals verrät, dass die Chips immer noch nicht in der gewünschten Menge anfallen- verkaufen könnte man wesentlich mehr. Womit man dann wieder bei dem rumgeeier von NV ankommt und dem Grund warum man sich nicht festlegen kann, will oder was auch immer.
Was die unterschwelligen Sticheleien zur Verfügbarkeit von AMD angeht- mit genug Geld war die Karte immer zu haben.
dildo4u
2010-02-09, 20:03:48
NV macht das genau richtig man hält so viele Infos zurück,das ATI den Refresh wenns gut läuft nicht mher drauf ausrichten kann.
Black-Scorpion
2010-02-09, 20:07:35
Ich schätze du kannst davon ausgehen das die mehr wissen wie wir. ;)
derguru
2010-02-09, 20:08:11
NV macht das genau richtig man hält so viele Infos zurück,das ATI den Refresh wenns gut läuft nicht mher drauf ausrichten kann.
du meinst ati ist genauso unwissend wie die forenjunkies?:rolleyes:
ach zu lahm;)
Ich schätze du kannst davon ausgehen das die mehr wissen wie wir. ;)
Die wissen genauso wenig. GF100 ist ein wahrlich gehütetes Geheimnis. Genauso wie G80.
Dazu müsste man aber ankündigen und zum Termin nicht liefern können. ein ordentliches Preview wäre auf jeden Fall besser als die jetzigen Nebelbomben und würde auch mal eine Hausnummer setzen.
Also das, was sie auf der CES gemacht haben, ja? Ich finde es erstaunlich, dass einige entweder sehr vergesslich sind oder nur trollen wollen.
Aber nunja, suchs dir aus: Preview gibt es, Leaks gibt es. Nur eben keinen Paperlaunch.
Jake Dunn
2010-02-09, 20:17:15
NV macht das genau richtig man hält so viele Infos zurück,das ATI den Refresh wenns gut läuft nicht mher drauf ausrichten kann.
ATI muß was "ausrichten"? ;D Winterschlaf oder im Knast gewesen?
NV macht das genau richtig man hält so viele Infos zurück,das ATI den Refresh wenns gut läuft nicht mher drauf ausrichten kann.
Was genau willst du denn anpassen?
dildo4u
2010-02-09, 20:20:32
Was genau willst du denn anpassen?
Takt z.b bissel mher Volt dafür mher Verbauch etc.Die Chips bei ATI haben meistens noch viel Luft wenn man die Spannung erhöt.
y33H@
2010-02-09, 20:21:05
Richard Huddy sagte mehr oder weniger, dass man bei AMD weiß, dass man dieses Jahr die Performance-Krone verliert. Entweder schon durch GTX 480 oder Dual-GF100.
Gleicher Gast auf den ich geantwortet habe? Oder nur die gleiche Vorliebe Zitate durch Auslassungen in ihrem Inhalt zu beschneiden?
Das ist kein Gast, sondern der ausgeloggte LoveSuckZ. Er will nicht dauernd gesperrt werden, daher diese "Maßnahme".
Botcruscher
2010-02-09, 20:24:32
Also das, was sie auf der CES gemacht haben, ja?
Auf der CES gab es ein paar schöne Folien aber keine wirklichen Zahlen. An den paar Daten zum Durchsatz lässt sich keine Karte bewerten. Was sich auf dem Papier toll liest, muss auf dem Platz nichts bedeuten und umgekehrt. Was die Leistungsfähigkeit angeht so sind wir nicht schlauer als im September.
Im übrigen sollte jemand der sich hinter dem Gaststatus versteckt den Ball flach halten wenn es um trollen geht. Verlässliche Zahlen hast du genau so wenig...
Richard Huddy sagte mehr oder weniger, dass man bei AMD weiß, dass man dieses Jahr die Performance-Krone verliert. Entweder schon durch GTX 480 oder Dual-GF100.
Alles andere wäre auch eine sehr große Überraschung. Bezüglich den Rohdaten "sollte" dies auch so sein.
Takt z.b bissel mher Volt dafür mher Verbauch etc.Die Chips bei ATI haben meistens noch viel Luft wenn man die Spannung erhöt.
Dafür lässt man den Herstellern genug Platz für Eigenlösungen. Spannung und Takt sind nun das letzte mit dem man wirklich reagieren kann. Oh, lasst uns die Karte doch mal 200MHz schneller machen... Ja klar.
Jake Dunn
2010-02-09, 20:26:40
Richard Huddy sagte mehr oder weniger, dass man bei AMD weiß, dass man dieses Jahr die Performance-Krone verliert. Entweder schon durch GTX 480 oder Dual-GF100.
Alles andere wäre auch richtig erbaermlich ^^
dildo4u
2010-02-09, 20:27:15
Richard Huddy sagte mehr oder weniger, dass man bei AMD weiß, dass man dieses Jahr die Performance-Krone verliert. Entweder schon durch GTX 480 oder Dual-GF100.
Klar aber es geht nicht nur darum,wenn man mit dem Refresch innerhalb von 20% zur 480GTX kommt.Werden imo schon eher welche zur ATI greifen wenn die billiger ist.
Auf der CES gab es ein paar schöne Folien aber keine wirklichen Zahlen. An den paar Daten zum Durchsatz lässt sich keine Karte bewerten. Was sich auf dem Papier toll liest, muss auf dem Platz nichts bedeuten und umgekehrt. Was die Leistungsfähigkeit angeht so sind wir nicht schlauer als im September.
Es gab Folien, es gab Demos, es gab Vergleiche mit der GTX285. Klingt alles ziemlich nach einem Preview.
Aber was soll's: Meckern gehört zu diesem Forum. Also lass dich nicht aufhalten.
Aber sagte er nicht auch, daß man die meiste Zeit diesen Jahres die Performancekrone inne hat? Außerdem sagt ATI, man werde, falls die Verkaufszahlen von Cypress nachlassen, den Preis stark reduzieren.
Das wird AMDs Trumpf sein, DER PREIS!
Somit wird die 5870 eine Performancekarte für um die 270-320Euro, also im Verkaufsträchtigsten Bereich. Relativ wenig Stromverbrauch bei guter Geschwindigkeit. Passend dazu werden 1Ghz Modelle mit 2GB VRAM in den Markt gedrückt, um den Preis relativ gesehen oben zu halten..
Ich denke ATI ist in einer guten Ausgangslage. Bis April ist es noch ein Stück und jeden Tag werden HD5800er verkauft wie warme Semmeln.
y33H@
2010-02-09, 20:41:08
Passend dazu werden 1Ghz Modelle mit 2GB VRAM in den Markt gedrückt, um den Preis relativ gesehen oben zu halten..Lustig, in jedem Forum wird von so etwas gesprochen. Mir ist nur die Lightning bekannt, die lässt aber auf sich warten. Und von der viel zitierten HD5890 ist nichts, absolut nichts zu sehen. HD5k mit 2G auch nirgends weit und breit (abgesehen von der Eye6 bei Ebay).
dildo4u
2010-02-09, 20:42:30
Lustig, in jedem Forum wird von so etwas gesprochen. Mir ist nur die Lightning bekannt, die lässt aber auf sich warten. Und von der viel zitierten HD5890 ist nichts, absolut nichts zu sehen. HD5k mit 2G auch nirgends weit und breit (abgesehen von der Eye6 bei Ebay).
http://vga.zol.com.cn/166/1665447.html
Die GTX470/480 gibt es auch noch nicht. Und bei der Verfügbarkeit derzeit würde es auch nix bringen denk ich.
http://www.techpowerup.com/img/10-01-14/105a.jpg
ATI is working on RV870, Cypress refresh
http://www.fudzilla.com/content/view/17274/1/
Botcruscher
2010-02-09, 20:47:44
Lustig, in jedem Forum wird von so etwas gesprochen. Mir ist nur die Lightning bekannt, die lässt aber auf sich warten.
AMD hat doch keine Konkurrenz. Abgesehen davon sollte es nicht so schwer sein da 2G drauf zu löten(wenn man den will). Die 5890 ist doch eh CF und Marketingmüll. Wenn man die Verbreitung betrachtet, hätte man Multigpu eh schon lange einstampfen können.
Es gab Folien, es gab Demos, es gab Vergleiche mit der GTX285.
Deine Argumentationsgrundlage ist jetzt aber nicht der ominöse FC2 Wert? Ich wüsste zumindest nicht wie man damit eine neue Architektur bewerten sollte.
http://vga.zol.com.cn/166/1665447.html
1,5V ;/
y33H@
2010-02-09, 20:47:46
@ dildo4u
:eek:
Die 5890 ist doch eh CF und Marketingmüll.HD5890 =! HD5970
Spasstiger
2010-02-09, 20:54:26
Richard Huddy sagte mehr oder weniger, dass man bei AMD weiß, dass man dieses Jahr die Performance-Krone verliert. Entweder schon durch GTX 480 oder Dual-GF100.
Vier GTX 480 auf einem EVGA Classified werden zwei HD 5970 mit an Sicherheit grenzender Wahrscheinlichkeit schlagen. ;)
Grestorn
2010-02-09, 20:56:30
4 GPUs gegen 4 GPUs... Na, dann kann man doch gleich zwei Einzelgpus gegeneinander antreten lassen und hat das selbe Ergebnis.
Botcruscher
2010-02-09, 20:59:57
HD5890 =! HD5970
Dann schreib es (für mich bitte)auch verständlich.:freak: Mit dem Refreshchip werden die Karten eh neu gemischt und bis dahin wird es zu Überbrückung schon noch einige Varianten mit mehr Takt/Speicher geben.
4 GPUs gegen 4 GPUs... Na, dann kann man doch gleich zwei Einzelgpus gegeneinander antreten lassen und hat das selbe Ergebnis.
Da gibt es nicht so geile Balken fürs Marketing. :)
Blaire
2010-02-09, 21:00:41
Vier GTX 480 auf einem EVGA Classified werden zwei HD 5970 mit an Sicherheit grenzender Wahrscheinlichkeit schlagen. ;)
Da dürften schon 3xGTX285 reichen, geht man nach den gefühlten FPS. ;)
y33H@
2010-02-09, 21:03:20
@ Botcruscher
Da sind zwei von vier (!) Ziffern unterschiedlich und stehen an einer anderen (!) Stelle :ulol: Das erkennst du doch wohl ;)
Jake Dunn
2010-02-09, 21:05:48
Da dürften schon 3xGTX285 reichen, geht man nach den gefühlten FPS. ;)
Nimm man die für den selben Preis :P
http://vga.zol.com.cn/166/1665447.html
Troll!:rolleyes:
Deine Argumentationsgrundlage ist jetzt aber nicht der ominöse FC2 Wert? Ich wüsste zumindest nicht wie man damit eine neue Architektur bewerten sollte.
1,5V ;/
Aha, dann nehmen wir die Tessellationwerte.
Abgesehen reicht der Farcry2 Wert aus, um die Architektur bewerten zu können. Sie skaliert anscheinend wesentlich besser als Cypress. Ist doch auch toll.
Blaire
2010-02-09, 21:23:17
Nimm man die für den selben Preis :P
http://vga.zol.com.cn/166/1665447.html
Was soll ich nehmen?
Troll!:rolleyes:
Hattest du TripleCrossfire? Nein? Also...
Jake Dunn
2010-02-09, 21:37:19
Was soll ich nehmen?
Hattest du TripleCrossfire? Nein? Also...
Warum Tri-CF wenn normales reicht (für 3x 285er) :confused:
Zumal der Aufbau des Gesamtsystems deutlich günstiger wäre (selbst bei 1000€ für die ASUS).;)
Außerdem sagt ATI, man werde, falls die Verkaufszahlen von Cypress nachlassen, den Preis stark reduzieren.
Das wird AMDs Trumpf sein, DER PREIS!
Sagen die das? Ich würde gern die Quelle sehen. Wenn der Fermi 550 Ocken kostet behält ATI den jetzigen Preis bei. Soweit meine Vermutung...
PulsarS
2010-02-09, 22:00:09
Sie skaliert anscheinend wesentlich besser als Cypress.
Was soll da besser skalieren?
Und woran machst du das fest, dass sie besser skaliert? :confused:
Spacedust
2010-02-09, 22:02:40
Die wissen genauso wenig. GF100 ist ein wahrlich gehütetes Geheimnis. Genauso wie G80.
Aussage NVIDIA Deutschland:
GTX 480 ab April so verfügbar, dass man ab dann Bewerbungen planen kann.
Blaire
2010-02-09, 22:12:42
Warum Tri-CF wenn normales reicht (für 3x 285er) :confused:
Da erreicht man bestenfalls einen Gleichstand, mit etwas guten Willen bei Games wie Stalker.CoP auch mal etwas darüber, was aber nicht die Regel ist. Wenn dann sollte man schon TriCF vs. TriSLI testen, zumal beides sich preislich auch kaum unterscheidet.
y33H@
2010-02-09, 22:14:04
Und woran machst du das fest, dass sie besser skaliert? HD5870 schafft in FC2 "nur" +54% gegenüber HD4890, GF100 aber knapp +100% laut NV (25x16 mit 4x MSAA).
Botcruscher
2010-02-09, 22:24:51
Zumindest "von der Presse" sollte man doch einen seriöseren Umgang mit Marketing Cherrypicking erwarten. Damit kann man echt alles zeigen und ohne Kenntnis der Flaschenhälse wäre ich mit Skalierung sehr vorsichtig.
HD5870 schafft in FC2 "nur" +54% gegenüber HD4890, GF100 aber knapp +100% laut NV (25x16 mit 4x MSAA).
Das kann schon sein, nur was hat das mit dem Wort "skaliert" zu tun?
Bezogen auf die Auflösung?
Oder worauf soll sich dieses Skalieren beziehen?
PulsarS
Was soll da besser skalieren?
Und woran machst du das fest, dass sie besser skaliert? :confused:
Das Cypress trotz der doppelten RV770 Breite oft mies skaliert ist nichts neues.
Meinst du AMD schwenkt aus Spass um und bastelt an einer neuen Architektur?
R600 ist am Ende, es braucht neue Ideen und es wird diese Ideen geben.
Oder worauf soll sich dieses Skalieren beziehen?
Doppelt so breit aber nicht doppelt so schnell -> schlecht skaliert, Architektur am Ende.
Im CF wirds noch klarer ersichtlich, bzw im Vergleich zu den kleinen HD5, die näher dran sind, als man anhand der Breite vermuten würde.
Also bei aller Liebe, aber was die Marketing-Folien bei AMD oder NV voller Stolz verkünden ist mir herzlich egal. Wenn die GTX480 2x so schnell ist wie der direkte Vorgänger GTX285, ist das ein sehr gute und respektabele Leistung.
Bleiben dann aber am Ende des Tages für die GTX480 "nur" durchschnittlich 30% Vorsprung vor der HD5870 übrig, ist das für mich zwar immer noch ein solides und gutes Ergebnis, aber alles andere als spektakulär oder überragend.
Entscheidend ist was eine aktuelle Karte für eine Performance bringt. Es ist mir vollkommen egal, ob die Architektur am Ende ist (das ist sie definitiv aber die neue ist ja schon am Horizont) oder nicht. Die HD58xx bieten ein sehr gutes Gesamtpaket und man hat halt nochmal alles aus der alten Architektur rausgeholt und was ist jetzt schlimm daran.
Das eine Graka-Gen die ca. 6 Monate später erscheint schneller ist, ist nichts außergewöhnliches sondern sollte eine Selbstverständlichkeit sein.
Das Cypress trotz der doppelten RV770 Breite oft mies skaliert ist nichts neues.
In der Tat.
Nur vergisst man auch oft, dass man noch DX11 irgendwie unterkriegen muss.
Da sich aber GF100 von GT200 in der Architektur doch mehr unterscheidet als der RV870 vom RV770, ist ein Vergleich eh sinnlos.
Man kann nur die direkte Konkurenz vergleichen.
Also wie viel Leistung man aus einer bestimmten Die-Fläche holt und wie hoch die Verlustleistung ist, denn beide verwenden den gleichen Prozess.
Das ist aber eher akademischer Natur und interresiert die meisten nicht (höchstens Hardware-Freaks).
Was uns Kunden interessiert ist doch eh P/L. :)
Meinst du AMD schwenkt aus Spass um und bastelt an einer neuen Architektur?
R600 ist am Ende, es braucht neue Ideen und es wird diese Ideen geben.
Und du meinst, dass AMD das erst mit dem Erscheinen des RV870 erkannt hat?
Nicht dein Ernst...
PulsarS
Entscheidend ist was eine aktuelle Karte für eine Performance bringt. Es ist mir vollkommen egal, ob die Architektur am Ende ist (das ist sie definitiv aber die neue ist ja schon am Horizont) oder nicht. Die HD58xx bieten ein sehr gutes Gesamtpaket und man hat halt nochmal alles aus der alten Architektur rausgeholt und was ist jetzt schlimm daran.
Nun die 58xx kam 15 Monate nach der GTX280. Da kann man ja erwarten, dass man schneller ist und ein paar neue Features bietet. Also nichts neues im Westen.
Das eine Graka-Gen die ca. 6 Monate später erscheint schneller ist, ist nichts außergewöhnliches sondern sollte eine Selbstverständlichkeit sein.
Na, sag das mal AMD. Weder die 3870 noch die 4890 war schneller als das aktuelle High-End Produkt zur damaligen Zeit. Scheint wohl doch nicht so eine Selbstverständlichkeit zu sein.
y33H@
2010-02-09, 22:55:56
@ Botcruscher
Cherry picked ist der 60 sec Ausschnitt aus der Unigine Demo, ein gewöhnlicher FC2-Run wohl kaum.
Was uns Kunden interessiert ist doch eh P/L.Nur einen Teil ;)
Mir geht es um die Übertreibungen auf beiden Seiten. Die GF100-Grakas werden schneller werden als die HD5870 (zumindest die GTX480) das steht für mich fest. Trotzdem ist und bleibt die HD5870 eine sehr gute Graka. Sie wird dadurch nicht gleich langsamer Schrott, so wie es einige wohl gerne sehen, weil es mit GF100 dann schnellere Karten gibt.
Und du meinst, dass AMD das erst mit dem Erscheinen des RV870 erkannt hat?
Nicht dein Ernst...
Habe ich nicht behauptet, also dichte mir auch nicht sowas an.
In der Tat.
Nur vergisst man auch oft, dass man noch DX11 irgendwie unterkriegen muss.In dem Fall habe ich schlicht die Einheitenzahl betrachtet, Cypress ist doppelt so breit.
Dafür war also neben den Änderungen für D3D11 Platz.
Juniper, also quasi der D3D11 RV770 ist ~übrigens gerade mal 100Mio Transistoren fetter als RV770.
Mir geht es um die Übertreibungen auf beiden Seiten. Die GF100-Grakas werden schneller werden als die HD5870 (zumindest die GTX480) das steht für mich fest. Trotzdem ist und bleibt die HD5870 eine sehr gute Graka. Sie wird dadurch nicht gleich langsamer Schrott, so wie es einige wohl gerne sehen, weil es mit GF100 dann schnellere Karten gibt.
Natürlich nicht, eine GTX 285 ist auch nicht plötzlich Müll.
Dennoch gibt es berechtige Kritikpunkte an AMDs Produkten und Produktstrategien.
Die Meisten davon schleift AMD nicht erst seit kurzem mit sich rum.
Jake Dunn
2010-02-09, 23:09:15
In dem Fall habe ich schlicht die Einheitenzahl betrachtet, Cypress ist doppelt so breit.
Die Performance einer Karte haengt ja nicht nur ausschließlich an den SPs,TMUs,ROPs ;)
Grestorn
2010-02-09, 23:11:15
Sie wird dadurch nicht gleich langsamer Schrott, so wie es einige wohl gerne sehen, weil es mit GF100 dann schnellere Karten gibt.
Das ist genau das Problem. Ich habe von niemandem hier je gelesen, dass die HD5xxx Schrott wären, sobald die GF100 auf dem Markt ist.
Aber einige, die eher ATI die Stange halten, scheinen eine richtige Paranoia zu haben. Jedes Posting, in dem etwas positives über nVidia steht, wird gleich als direkten Angriff gegen ihre Marke und damit auch gegen sie selbst empfunden.
Wie sagte Shatner schon? Get a life!
NV bietet aber ebenfalls eine ganze Reihe von Punten wo Kritik gerechtfertigt wäre. Da nehmen sich beide nicht viel. Es gibt immer Dinge die man zu recht kritisieren kann, aber die perfekte Graka wird es werder von NV noch von AMD jemals geben.
Grestorn
2010-02-09, 23:16:01
NV bietet aber ebenfalls eine ganze Reihe von Punten wo Kritik gerechtfertigt wäre. Da nehmen sich beide nicht viel. Es gibt immer Dinge die man zu recht kritisieren kann, aber die perfekte Graka wird es werder von NV noch von AMD jemals geben.
Außerdem möchte ich ganz besonders darauf hinweisen, dass Wasser tatsächlich nass ist.
Grestorn
2010-02-09, 23:18:54
:biggrin:
Das ist genau das Problem. Ich habe von niemandem hier je gelesen, dass die HD5xxx Schrott wären, sobald die GF100 auf dem Markt ist.
Aber einige, die eher ATI die Stange halten, scheinen eine richtige Paranoia zu haben. Jedes Posting, in dem etwas positives über nVidia steht, wird gleich als direkten Angriff gegen ihre Marke und damit auch gegen sie selbst empfunden.
Wie sagte Shatner schon? Get a life!
Den denkenden ATI Käufern geht es eher darum das man für eine 5870 ~ 350€ bezahlt...und wieso sollten die Leute für event. 20% mehr Leistung 500€+ zahlen......
Wie sagte Shatner schon? Get a life!
AwesomeSauce
2010-02-09, 23:37:18
Wobei +20% und die 500€ reine Spekulation sind;)
san.salvador
2010-02-09, 23:37:20
Quelle?
Auch dort, ja. ;)
Don-Roland
2010-02-09, 23:49:08
Fermi-based Geforce GTX 480 to debut at Cebit (http://www.fudzilla.com/content/view/17586/1/)
Nvidia has delayed its Fermi generation for unknown reasons, and the company does not want to discuss it at this time.
Für mich sieht das nach technischen Problemen bei der Fermi Architektur aus...
Wobei +20% und die 500€ reine Spekulation sind;)
zweimal nö wetten :D sogar bei nur 10% werden die 500€ verlangen, naja die dummen sterben eben nicht aus, gelle.
AwesomeSauce
2010-02-09, 23:54:22
500€ sind schwer tragbar für einen HD5870+10% NV100 - in diesen Preisregionen residiert atm die HD5970.
dildo4u
2010-02-09, 23:56:32
500€ sind schwer tragbar für einen HD5870+10% NV100 - in diesen Preisregionen residiert atm die HD5970.
600€
http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=132_1024~891_Radeon%20HD%205970&sort=p
AwesomeSauce
2010-02-10, 00:00:05
ab 480€ (zwar nicht lieferbar:redface:)
http://www.toppreise.ch/grp3_2375.html
N0Thing
2010-02-10, 00:05:53
Ja nach FUD. Ich meine aber NVidia. Die gehen davon aus die Karten "Healthy" liefern zu können. Zum Launch.
Falls der Launch Anfang April sein sollte, gehe ich auch davon aus, daß Nvidia bis dahin ein gewisses Polster aufgebaut hat, um nicht nach 3 Tagen alle produzierten Karten verkauft zu haben.
Fuad ist ja nicht der einzige, der bezweifelt, daß bis Anfang März genug Karten produziert wurden, um die erwartete Nachfrage decken zu können und März, bzw. afaik Anfang März galt zuletzt als wahrscheinlichster Launchtermin.
Wenn man Jensen glauben darf, daß um die CES die Massenproduktion angelaufen ist (wenn ich mich recht erinnere müßte um die CES die A3-Revision von TSMC zurück gekommen sein), dann müßte die Ausbeute schon unglaublich gut sein, damit keine deutlichen Lieferengpässe auftreten.
Ich würde mich freuen, wenn der GF100 möglichst bald erhältlich wäre, sowohl um eine Alternative zur HD58xx zu haben, als auch um wieder eine ausgeglichenere Marktsituation zu haben.
Den denkenden ATI Käufern geht es eher darum das man für eine 5870 ~ 350€ bezahlt...und wieso sollten die Leute für event. 20% mehr Leistung 500€+ zahlen......
Wozu weit über 300€ ausgeben, denkt sich der 4870 Käufer, der vor vielen Monaten gerade mal 130€ ausgeben hat.
Soviel mehr bietet die 5870 jetzt nicht, mal abgesehen davon, das viel Zeit verstrichen ist, das man heute für 130€ mehr bekommt ist eine Selbstverständlichkeit, aber man bekommt nicht soviel mehr, wie man es gewöhnt ist, dank der 130€ 4870.
Also, get a life, die 5870 stellt nicht das P/L nonplus Ultra dar, die GTX 470/480 ebenfalls nicht. Die 4870 stand sehr gut da, die GTX 260 ebenfalls.
Also, was erzählst du uns? Das teure Karten ein mieses P/L haben? Ja, wissen wir. Weit über 300€ sind übrigens auch viel, wie bereits erwähnt.
N0Thing
2010-02-10, 00:15:37
Aussage NVIDIA Deutschland:
GTX 480 ab April so verfügbar, dass man ab dann Bewerbungen planen kann.
Was bedeutet ab dann Bewerbungen planen kann.?
Mir geht es um die Übertreibungen auf beiden Seiten. Die GF100-Grakas werden schneller werden als die HD5870 (zumindest die GTX480) das steht für mich fest. Trotzdem ist und bleibt die HD5870 eine sehr gute Graka. Sie wird dadurch nicht gleich langsamer Schrott, so wie es einige wohl gerne sehen, weil es mit GF100 dann schnellere Karten gibt.
:up:
Aber einige, die eher ATI die Stange halten, scheinen eine richtige Paranoia zu haben. Jedes Posting, in dem etwas positives über nVidia steht, wird gleich als direkten Angriff gegen ihre Marke und damit auch gegen sie selbst empfunden.
Ich habe eher den Eindruck, daß es auf beiden "Seiten" Leute gibt, die auf jede noch so kleine Spitze, gar auf jede Kritik direkt die Abteilung Attacke auspacken. Da ist weder das Nvidia- noch das AMD-Lager besser. Auf beiden Seiten gibt es verblendete, die in einer sachlichen Aussage direkt einen persönlichen Angriff sehen.
Ich würde mir ja wünschen, daß das 3DCenter eine Anmeldung zur Pflicht macht, wenn man Beiträge schreiben will. Ich weiß, daß dies letzten Endes keinen Troll am trollen hindern kann und es statt dessen mehr 2nds geben wird, aber immerhin würde man für eine Diskussion wissen, mit wem man sich auseinander setzt. Für Mods gibt es ja Möglichkeiten die Doppelgänger zu finden.
mapel110
2010-02-10, 01:39:25
Reading the 29 questions AMD sent editors to FUD Fermi launch. Kind of weak. 'why did this poll say this'-really?
http://twitter.com/bburke_nvidia
Fetzen die sich schon via Twitter?!
Wieso schon? Das geht jetzt schon ne ganze Weile ;)
Grestorn
2010-02-10, 07:58:12
Den denkenden ATI Käufern geht es eher darum das man für eine 5870 ~ 350€ bezahlt...und wieso sollten die Leute für event. 20% mehr Leistung 500€+ zahlen......
Dieser Preisunterschied für die letzten 20% Leistung ist bei allen Produkten üblich, auch bei ATI. Oder willst Du etwa ernsthaft behaupten, dass bei ATI der Preis linear mit der Leistung steigt?
Besonders extrem ist das bei Intel.
Deswegen muss ich mich ja auch immer so über die SLI/CF Kritiker amüsieren, die sich darüber aufregen, dass man für "nur" 50-70% Leistungssteigerung bereit ist, den doppelten Preis hinzulegen. Dabei ist das ja eigentlich geradezu ein Schnäppchen.
Ailuros
2010-02-10, 08:31:35
Dieser Preisunterschied für die letzten 20% Leistung ist bei allen Produkten üblich, auch bei ATI. Oder willst Du etwa ernsthaft behaupten, dass bei ATI der Preis linear mit der Leistung steigt?
Besonders extrem ist das bei Intel.
Deswegen muss ich mich ja auch immer so über die SLI/CF Kritiker amüsieren, die sich darüber aufregen, dass man für "nur" 50-70% Leistungssteigerung bereit ist, den doppelten Preis hinzulegen. Dabei ist das ja eigentlich geradezu ein Schnäppchen.
Wie der genaue Leistungsunterschied zwischen einer 5870 und einer 480 aussehen wird weiss noch keiner, aber wenn es sich nur um 20% Unterschied handeln sollte, dann wird die 480 wohl nicht mit dem originalen GTX280 MSRP in die Startloecher gehen sondern mit dem leicht spaeter angepassten Strassenpreis der 280 (stets gegen 4870).
Damit die 480 erstmal um die 500 Euronen kostet muss sie sehr konkurrenzfaehig zum dual chip 5970 stehen. Angenommen die 480 liegt ungefaehr 10% im Durchschnitt unter der 5970 Leistung und hat auch einen analog niedrigeren MSRP: leg die Hand aufs Herz und ueberzeuge mich dass Du zu einer 5970 in solch einem Fall greifen wuerdest.
Was soll mich gerade im letzten Fall amuesieren? Dass ich mit der 480 eine zweifellos bessere Investierung mache vielleicht?
PulsarS
2010-02-10, 08:47:34
Damit die 480 erstmal um die 500 Euronen kostet muss sie sehr konkurrenzfaehig zum dual chip 5970 stehen. Angenommen die 480 liegt ungefaehr 10% im Durchschnitt unter der 5970 Leistung und hat auch einen analog niedrigeren MSRP: leg das Hand aufs Herz und ueberzeuge mich dass Du zu einer 5970 in solch einem Fall greifen wuerdest.
Was soll mich gerade im letzten Fall amuesieren? Dass ich mit der 480 eine zweifellos bessere Investierung mache vielleicht?
Keine Frage, dass bei einer solchen Konstellation die 480 klar den Vorzug bekommen würde.
Mich interessiert aber eher der Abstand zur 5870 und nicht zur 5970.
Du würdest doch auch ungern Multi-GPU gegen eine 1-GPU-Karte vergleichen, wenn man auch 1-GPU gegen 1-GPU vergleichen kann, oder?
btw die Hand :)
Ailuros
2010-02-10, 09:02:40
Keine Frage, dass bei einer solchen Konstellation die 480 klar den Vorzug bekommen würde.
Mich interessiert aber eher der Abstand zur 5870 und nicht zur 5970.
Dann ist wohl eher die 470 Dein eigentliches Preis-/Leistungsziel und nicht die 480. Eine 500 Euro GPU hat ein anderes Publikum als eine 300-400 Euro GPU.
Du würdest doch auch ungern Multi-GPU gegen eine 1-GPU-Karte vergleichen, wenn man auch 1-GPU gegen 1-GPU vergleichen kann, oder?
Hab ich in dem Fall eine andere Moeglichkeit? Es gibt von AMD nunmal keine single core high end GPU an Stelle der 5970.
btw die Hand :)
Oooops danke ;)
***edit: uebrigens: http://forum.beyond3d.com/showpost.php?p=1392402&postcount=3812
PulsarS
2010-02-10, 09:25:44
Dann ist wohl eher die 470 Dein eigentliches Preis-/Leistungsziel und nicht die 480. Eine 500 Euro GPU hat ein anderes Publikum als eine 300-400 Euro GPU.
Das leuchtet mir ein.
Hab ich in dem Fall eine andere Moeglichkeit? Es gibt von AMD nunmal keine single core high end GPU an Stelle der 5970.
Bei Deinem konstruiertem Beispiel hätte die 5970 aber gar keine Chance.
Falls die 480 bei der Leistung in die Nähe der 5970 kommen sollte, spricht eigentlich alles für die 480.
Ich nehme an, dass auch Du diese Meinung teilst, und wir ein wenig aneinander vorbeireden. :)
Wenn es so passiert, dann müsste AMD den Preis der 5970 doch recht massiv senken. Damit das Preisgefüge innerhalb der AMD-Produkte wieder stimmt, müsste man auch die Preise der 5870 usw anpassen.
Deswegen würde ich auch zur Zeit keine 58x0 mehr kaufen, bevor nicht der GF100 zeigt, was er wirklich kann.
Würde mich dann nur schwarz ärgern, wenn der GF100 eine Bombe wird. :D
edit:
***edit: uebrigens: http://forum.beyond3d.com/showpost.php?p=1392402&postcount=3812
"Launch products will be 448SP parts with 512SP parts being PE parts if shown at all. "
Was ist hier mit PE gemeint? :)
Hört sich nicht gerade nach einer guten Ausbeute an..
Ailuros
2010-02-10, 09:37:25
PE= premium edition (ala ATI XT-PE in der Vergangenheit).
Beschissene Verfuegbarkeit fuer die 480 ist die schlechte Nachricht; die gute Nachricht waere dass die vorgezeigten Fermi PCs bei CES keine 512SP GPUs installiert hatten.
@Ailuros
Was wären den deine Schätzungen auf Grundlage all deiner Informationen zur reinen Performance der beiden GF100-Karten, oder willst du dich dahingehend nicht äußern?
Da die Karten ja GTX470/GTX480 heißen und eben nicht GTX460/GTX480, könnte man ja zu der Schlussfolgerung kommen, dass sie leistungstechnisch doch dichter zusammenliegen. Wenn ich dann noch Preisspekus von 450€/550€ dazunehme, könnte ich z.B. die GTX470 schon ca. 20% vor HD5870 und für die GTX480 nochmal ca. 30% mehr erwarten.
Kannst/Willst du dazu was sagen?
Botcruscher
2010-02-10, 10:25:13
Cherry picked ist der 60 sec Ausschnitt aus der Unigine Demo, ein gewöhnlicher FC2-Run wohl kaum.
Weil? Ich bin wahrscheinlich zu viel Naturwissenschaftler um mich bei so wenig Fakten überzeugen zu lassen. DAS die Karte schnell wird ist eine andere Sache.
Der Vorwurf ich würde die Karte schlecht reden ist angesichts der Datenlage schon seltsam, da ich ja eigentlich nur gefragt habe wie schnell sie denn genau wird. Die Grabenkämpfe bezüglich ATi sind genau so seltsam. Die Firma hat vor Jahren man entschieden für eine andere Zielgruppe zu entwickeln und das High End quasi liegen zu lassen.
Neocroth
2010-02-10, 10:33:40
Beschissene Verfuegbarkeit fuer die 480 ist die schlechte Nachricht; die gute Nachricht waere dass die vorgezeigten Fermi PCs bei CES keine 512SP GPUs installiert hatten.
Naja, daraus muss man aber nicht zwingend schließen dass die verwendeten Karten bei der CES 470/460er gewesen sein müssten. Gerade wenn Fermi sich zum Zeitpunkt der CES wirklich schon in VP befand, dann müsste man doch schon einige Samples an AIB-Partner und Spieleentwickler rausgegeben haben. Das heißt für mich in weiterer Folge: für eine Präsentation auf einer prestigeträchtigen Messe hat man die paar 480er Karten auch noch zur Verfügung.
Was es für einen Trubel bedeuten kann, wenn die Karte aus dem eigenen Haus schon bei einer Messe underperformt, das konnte Intel damals auf der IDF letztes Jahr sehen. Ich denke, dass man hier sicher nicht spart - das schützt vor negativer Presse, die nVidia ja zuletzt genug hatte (Fake-Boards, Verschiebungen, Launch-Versprechungen "noch dieses Jahr", usw...)
andere Frage: hat Demirug schon ein Sample bei sich rumliegen? :biggrin: ich vermute aber mal: er wird nicht mal sagen dürfen, falls er eine Karte hat :P
Ailuros
2010-02-10, 10:47:01
Naja, daraus muss man aber nicht zwingend schließen dass die verwendeten Karten bei der CES 470/460er gewesen sein müssten.
NV besteht darauf dass es keine 480-er waren. Mehr kann ich offensichtlich nicht wissen.
Gerade wenn Fermi sich zum Zeitpunkt der CES wirklich schon in VP befand, dann müsste man doch schon einige Samples an AIB-Partner und Spieleentwickler rausgegeben haben. Das heißt für mich in weiterer Folge: für eine Präsentation auf einer prestigeträchtigen Messe hat man die paar 480er Karten auch noch zur Verfügung.
Produktion begann erst Anfang Februar. Die Fermi samples auf CES waren alle nur A2 samples. Ob es jetzt 448 oder 512SP chips waren kann ich nicht mit absoluter Sicherheit wissen; entweder 448 Varianten oder taktreduzierte 512-er.
Was es für einen Trubel bedeuten kann, wenn die Karte aus dem eigenen Haus schon bei einer Messe underperformt, das konnte Intel damals auf der IDF letztes Jahr sehen. Ich denke, dass man hier sicher nicht spart - das schützt vor negativer Presse, die nVidia ja zuletzt genug hatte (Fake-Boards, Verschiebungen, Launch-Versprechungen "noch dieses Jahr", usw...)
andere Frage: hat Demirug schon ein Sample bei sich rumliegen? :biggrin: ich vermute aber mal: er wird nicht mal sagen dürfen, falls er eine Karte hat :P
Die Presse hat auf jedenfall noch keine samples; Dev samples sind meistens reduzierte Varianten, ergo selbst wenn jemand wie Demi ein sample hat dann wird es wohl im besten Fall eine 448SP Variante sein wenn nicht sogar mit niedrigerem Takt.
@Ailuros
Was wären den deine Schätzungen auf Grundlage all deiner Informationen zur reinen Performance der beiden GF100-Karten, oder willst du dich dahingehend nicht äußern?
Wie gesagt ich erwarte dass die 480 einen Schnitt unter der 5970 liegt. Ich hab es mehr als nur einmal erwaehnt und mehr kann ich wohl momentan nicht wissen.
Da die Karten ja GTX470/GTX480 heißen und eben nicht GTX460/GTX480, könnte man ja zu der Schlussfolgerung kommen, dass sie leistungstechnisch doch dichter zusammenliegen. Wenn ich dann noch Preisspekus von 450€/550€ dazunehme, könnte ich z.B. die GTX470 schon ca. 20% vor HD5870 und für die GTX480 nochmal ca. 30% mehr erwarten.
Kannst/Willst du dazu was sagen?
Nach CB's Messungen ist die 5970 um ca. 40% (+/-) schneller als die 5870 in 1920 und/oder 2560 mit 4xAA. Mit 8xMSAA in 1920 sind es dann schon 50%.
Es klingt eher wahrscheinlicher dass die 480 ~30% ueber der 5870 liegt (und ergo ca. 10% unter der 5970) und dann vielleicht die 470 im besten Fall ~10% ueber der 5870. Damit aber die 470 nur einen ~20% Abstand von der 480 hat kann die erste wohl nicht 448SPs mit groesseren Frequenzunterschieden (zu der 480) und dazu noch einen 320bit bus mit 1.2MB Speicher haben. Anders in dem Fall hat eine 470 weniger reduziert als man von einer "460" oder "360" bisher erwartete.
mboeller
2010-02-10, 10:55:05
***edit: uebrigens: http://forum.beyond3d.com/showpost.php?p=1392402&postcount=3812
Ouch, wenn sogar XMAN26 so schlecht drauf ist.... Der Typ wäscht sich ja eigentlich nur mit Nvidia-Seife. Ansonsten lässt er nichts an seine Haut. ;) ;)
svenw
2010-02-10, 10:55:11
Wird die 480er überhaupt eine Konkurrenz zur 5870 sein? Eine 5970 liegt irgendwo bei 550 Euro, die 480 wird ungefähr im gleichen Bereich liegen vielleicht 50€ drunter. Und er ist IMHO wirtschaftlich völlig uninteressant weil es dort einfach zu wenig Umsatz gibt, selbst wenn die Margen höher sind. Bis ein ein paar "Spinner" ähhhh.... Enthusiasten :biggrin: die sich hier im Forum herumtreiben werden die Karte nur Wenige kaufen. Der Preispunkt der 5870 ist da dem Budget Vieler angemessener und darunter wird erst das Geld verdient. Für NV stellt sich also weniger die Frage ob sie die Performance-Krone bekommen (davon gehe ich aus) sondern ob es sich für sie lohnt und ob sie die kleineren Chips genauso billig anbieten können wie ATI.
In Sachen Zukunftssicherheit sehe ich Nvida vorne, aber da es erst wenige Spiele gibt die DirectX 11 wirklich nutzen, bleibt die Frage ob Nvidia nicht eher zu früh ist. ATI hat momentan ein halbes Jahr Vorsprung in der Entwicklung, Da muß man schauen wann sie mit einem wirklich neuen Design kommen. Ich sag mal für Nvida in diesem Jahr eine holperige Zeit vorraus, abhängig davon wie schnell sie die kleineren Chips bringen können.
Für mich riecht es stark nach einer Ultra-Karte, die einige Monate später mit voller Einheitenzahl und hohem Takt kommt.
Ailuros
2010-02-10, 11:17:32
Wird die 480er überhaupt eine Konkurrenz zur 5870 sein? Eine 5970 liegt irgendwo bei 550 Euro, die 480 wird ungefähr im gleichen Bereich liegen vielleicht 50€ drunter.
So ist es.
Und er ist IMHO wirtschaftlich völlig uninteressant weil es dort einfach zu wenig Umsatz gibt, selbst wenn die Margen höher sind. Bis ein ein paar "Spinner" ähhhh.... Enthusiasten :biggrin: die sich hier im Forum herumtreiben werden die Karte nur Wenige kaufen.
Wenn es das Ding wert ist, werd ich erstmal warten bis sich dessen Preis reduziert; ich hab's so oder so nicht eilig...Im Gegenfall...
Der Preispunkt der 5870 ist da dem Budget Vieler angemessener und darunter wird erst das Geld verdient. Für NV stellt sich also weniger die Frage ob sie die Performance-Krone bekommen (davon gehe ich aus) sondern ob es sich für sie lohnt und ob sie die kleineren Chips genauso billig anbieten können wie ATI.
Im Gegenfall wird es wohl eher eine 5890....Was soll NV davon abhalten die kleineren GF10x Varianten auf konkurrenz-faehigem Preis-/Leistungsniveau zu halten? Beide stellen auf dem exakt gleichen 40G her und beide haben in dem Fall vergleichbarere yields bei kleinerer Chipkomplexitaet.
In Sachen Zukunftssicherheit sehe ich Nvida vorne, aber da es erst wenige Spiele gibt die DirectX 11 wirklich nutzen, bleibt die Frage ob Nvidia nicht eher zu früh ist. ATI hat momentan ein halbes Jahr Vorsprung in der Entwicklung, Da muß man schauen wann sie mit einem wirklich neuen Design kommen. Ich sag mal für Nvida in diesem Jahr eine holperige Zeit vorraus, abhängig davon wie schnell sie die kleineren Chips bringen können.
Wo liegt denn die Zukunftssicherheit genau einer hypothetischen kleinen GF10x Variante gegen equivalente Evergreen GPUs genau? Die kleinen Evergreen GPUs ueberzeugen erstmal nicht besonders was Leistung betrifft gegenueber RV7x0 SKUs sondern eher mit dem Featureset. Einen besonders grossen Unterschied kann ich fuer die kleinen GF10x auch nicht sehen; im besten Fall leicht bessere Leistung aber dafuer muss man abwarten. Wie bei jeder neuen Technologie-Generation fressen eben die pflichtmaessigen API Zusaetze auch eine Unmenge an Transistoren.
Neocroth
2010-02-10, 11:21:42
Produktion begann erst Anfang Februar. Die Fermi samples auf CES waren alle nur A2 samples. Ob es jetzt 448 oder 512SP chips waren kann ich nicht mit absoluter Sicherheit wissen; entweder 448 Varianten oder taktreduzierte 512-er.
hab mal dieses Zitat von Huang rausgekramt:
„Everyone's dying to know when they can buy GF100. Happy to tell you that it's in volume production, ramping very hard and you can get a sneak peak of it here at CES. One of the most amazing things about GeForce GF100 is to introduce a new capability called 3D Vision Surround. Now looking at 6 Million pixels rendering at 120 Hz. 3 times the resolution of HDTV.“
Meinte er damit nur "A3 wird in Kürze in Volume Production gehen, wir sind im Ramp-Up"? Dann habe ich diese Aussage damals falsch verstanden, ich dachte es wird zu diesem Zeitpunkt bereits produziert.
Die Presse hat auf jedenfall noch keine samples; Dev samples sind meistens reduzierte Varianten, ergo selbst wenn jemand wie Demi ein sample hat dann wird es wohl im besten Fall eine 448SP Variante sein wenn nicht sogar mit niedrigerem Takt.
schon klar, da gehts ja mehr um architekturelle Aspekte. Gab ja zu RV770-Zeiten Anfang 2008 die Gerüchte mit den 1,30 Volt-A11-Samples mit 500 (?) MHz.
Da wurden irgendwie Erinnerungen an R600-A11 (300 MHz bei gleichviel Watt TDP? :freak:) wach :D
Wann dürfte die Presse Samples erhalten? Ich gehe davon aus, es wird kurz vorm Launch (2 Wochen?) ein Presse-Event geben, zu welchem die finalen Samples rausgeschickt werden, oder?
Zuerst müssen die Chips gefertigt werden, bevor Karten dran kommen. Bis die Chips aus der Fab zurück sind, dauernd es 1 1/2 Monate. Mitte bis Ende Februar sollte dann die Auslieferung an die Partner in Form ganzer Karten erfolgen.
Ailuros
2010-02-10, 11:35:04
hab mal dieses Zitat von Huang rausgekramt:
Meinte er damit nur "A3 wird in Kürze in Volume Production gehen, wir sind im Ramp-Up"? Dann habe ich diese Aussage damals falsch verstanden, ich dachte es wird zu diesem Zeitpunkt bereits produziert.
Volume production begann im Februar. Ich weiss von zumindest 2 grossen Seiten dass dem so ist und sie ihre ersten samples erst in diesem Monat bekommen sollen.
schon klar, da gehts ja mehr um architekturelle Aspekte. Gab ja zu RV770-Zeiten Anfang 2008 die Gerüchte mit den 1,30 Volt-A11-Samples mit 500 (?) MHz.
Da wurden irgendwie Erinnerungen an R600-A11 (300 MHz bei gleichviel Watt TDP? :freak:) wach :D
R600 A11 tape out bei ca. 375MHz und ~300W. Bei A12 hatte TSMC die meisten 80nm Probleme beseitigt und ATI ging nochmal zu einem metal spin A13. Die 725MHz Frequenz konnte ATI sogar mit A12 erreichen.
Wann dürfte die Presse Samples erhalten? Ich gehe davon aus, es wird kurz vorm Launch (2 Wochen?) ein Presse-Event geben, zu welchem die finalen Samples rausgeschickt werden, oder?
Siehe oben. Hoechstwahrscheinlich innerhalb dieses Monats und sie werden wohl vor dem launch nicht zwitschern koennen.
Neocroth
2010-02-10, 11:36:03
Zuerst müssen die Chips gefertigt werden, bevor Karten dran kommen. Bis die Chips aus der Fab zurück sind, dauernd es 1 1/2 Monate. Mitte bis Ende Februar sollte dann die Auslieferung an die Partner in Form ganzer Karten erfolgen.
Bedeutet das, die Presse kann vor Anfang bis Mitte März keine Karten für Reviews bekommen - davon ausgehend, dass meine Annahme mit den 2 Wochen vor dem Launch ungefähr hinkommt und wirklich noch im März gelauncht wird?
edit:
Siehe oben. Hoechstwahrscheinlich innerhalb dieses Monats und sie werden wohl vor dem launch nicht zwitschern koennen.
kk danke, das heißt ich liege mit der Einschätzung wohl eher falsch. Dann dürfte es wohl eher Ende Februar/Anfang März sein.
1.) Don't feed the trolls
2.) Mein aktueller Eindruck ist, dass in Standardsettings die Fermis wohl nicht viel (~30 %) vor den AMD Chips liegen, ihre eigentlichen Stärken jedoch bei sehr hohen Settings (Auflösung und Quality) ausspielen. Das finde ich ehrlich gesagt gut, da die meisten Spiele crossplattform entwickelt werden, gehe ich davon aus, dass für PC Gamer eher die zusätzlichen BQ-Features interessant sein werden.
Reading the 29 questions AMD sent editors to FUD Fermi launch. Kind of weak. 'why did this poll say this'-really?
http://twitter.com/bburke_nvidia
Fetzen die sich schon via Twitter?!
http://www.brightsideofnews.com/news/2010/2/10/amd-community-has-29-tough-gf100-questions-for-nvidia.aspx
Viele Fragen sind ziemlich nonsens - z.B. AMD: When will we see OpenCL based consumer applications running on your hardware?
Nunja, anscheinend steigt AMD ihre derzeitige Führung ziemlich zu Kopf. Aber bekanntlich kommt Hochmut vor dem Fall.
Ailuros
2010-02-10, 18:40:18
Wer seine Post vermissen sollte ich hab gerade auf einen Knopf gedrueckt und es wurde was aeusserst interessantes heruntergespuelt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476456&page=3
Uebrigens es gibt keine Entschuldigungen mehr; Urlaub wird der eine nach dem anderem verteilt fuer Benuzterbeleidigungen und Doppel-accounts sind auch nicht mehr so sicher wie sich ihre Inhaber denken. Es wird sich am zeitigen status quo nichts aendern; wer sich aber nicht haldwegs anstaendig verhalten kann sollte sich auch nicht ueber die Massnahmen beschweren.
Zu AMDs Verteidigung sollte man aber sagen, dass diese 29 Fragen nicht von AMD selber stammen, sondern von Usern aus verscheidenen Foren.
Zu AMDs Verteidigung sollte man aber sagen, dass diese 29 Fragen nicht von AMD selber stammen, sondern von Usern aus verscheidenen Foren.
Nun, die Frage spiegeln auch AMD wider. Und die Fragen lassen AMD nicht in einem besseren Licht erscheinen - z.B. die Frage mit GF100 und dünne und leichte Notebooks...
Ailuros
2010-02-10, 19:02:09
Zu AMDs Verteidigung sollte man aber sagen, dass diese 29 Fragen nicht von AMD selber stammen, sondern von Usern aus verscheidenen Foren.
Egal von wem sie stammen, eine grosse Anzahl ist durchaus legitim.
Dieser Preisunterschied für die letzten 20% Leistung ist bei allen Produkten üblich, auch bei ATI. Oder willst Du etwa ernsthaft behaupten, dass bei ATI der Preis linear mit der Leistung steigt?
Besonders extrem ist das bei Intel.
Deswegen muss ich mich ja auch immer so über die SLI/CF Kritiker amüsieren, die sich darüber aufregen, dass man für "nur" 50-70% Leistungssteigerung bereit ist, den doppelten Preis hinzulegen. Dabei ist das ja eigentlich geradezu ein Schnäppchen.
Ein Schnäppchen ist doch eigentlich zur Zeit 2x HD 5770 für 2x 125 € = 250 €. Immerhin ist so ein Gespann leicht schneller als eine HD 5870 (350 €) und 20 % schneller als eine HD 5850 (280 €). Der Stromverbrauch hält sich auch arg in Grenzen für 2 (!) Karten (GTX 285-Niveau). Ich weiß nur nicht, welche Probleme es bzgl. "Mikroruckler" oder "Inputlag" gibt. 90 % reden davon, vielleicht 3 % von den 90 % besitzen aber auch wirklich ein MGPU-System.
y33H@
2010-02-10, 20:02:06
2x HD5770 (bzw. Midrange-MGPU generell) ist doch echt Unfug. Selbst wenn man die µRuckler und den Inpu-Lag außen vor lässt:
Kein CF-Profil = Epic Fail (Fps entsprechen 1x HD5770)
CPU-Limit = Fail (Fps entsprechen 1x HD5770)
Skalierung = Fail (je nach Spiel weit unter HD58x0)
Leistungsaufnahme 2D = Fail (mehr als HD5870)
Leistungsaufnahme 3D = Fail (mehr als HD5870)
Lautheit 2D = Fail (beim RefDesign über 1x H5870, allerdings vom Kühler abhängig)
Lautheit 3D = Fail (beim RefDesign über 1x H5870, allerdings vom Kühler abhängig)
Platzbedarf = Fail (4 Slots)
Hab ich noch ein "Fail" vergessen? *grübel*
2x HD5770 (bzw. Midrange-MGPU generell) ist doch echt Unfug. Selbst wenn man die µRuckler und den Inpu-Lag außen vor lässt:
Kein CF-Profil = Epic Fail (Fps entsprechen 1x HD5770)
CPU-Limit = Fail (Fps entsprechen 1x HD5770)
Skalierung = Fail (je nach Spiel weit unter HD58x0)
Leistungsaufnahme 2D = Fail (mehr als HD5870)
Leistungsaufnahme 3D = Fail (mehr als HD5870)
Lautheit 2D = Fail (beim RefDesign über 1x H5870, allerdings vom Kühler abhängig)
Lautheit 3D = Fail (beim RefDesign über 1x H5870, allerdings vom Kühler abhängig)
Platzbedarf = Fail (4 Slots)
Hab ich noch ein "Fail" vergessen? *grübel*
Ja den Preis 250€ vs 360€ kein Fail;)
Egal von wem sie stammen, eine grosse Anzahl ist durchaus legitim.
Trotzdem hat FUD immer einen sehr schalen Beigeschmack.
y33H@
2010-02-10, 20:14:09
@ Gast
Diese Latte an Fails plus µRuckler und Input-Lag würde ich mir nicht antun, trotz 100€ weniger.
Aber ich weiß: Geiz ist geil und PLV die Welt :usad:
imho beides fail, da ich heutzutage eine graka lösung der preisklasse von >250€ und leistung von 5850++ mit nur 1024MB vram nicht mehr für zeitgemäß halte
ich hoffe fermis performance ableger bieten dann >1024mb ram und ati legt mal bei den "zypressen" mit mehr vram nach
@ Gast
Diese Latte an Fails plus µRuckler und Input-Lag würde ich mir nicht antun, trotz 100€ weniger.
Aber ich weiß: Geiz ist geil und PLV die Welt :usad:
Ich hab nicht gesagt, dass ich es kaufen würde, aber es ist doch unrealistisch bei einem Produkt den Preis nicht einzubeziehen.
y33H@
2010-02-10, 20:19:25
@ Odal
Lightning und Matrix kommen ja, die Frage ist nur: Wann, Preis und Verfügbarkeit? Preis ist erst mal egal, ich mache mir um die beiden anderen Punkte mehr Sorgen. Die VaporX wurde als Rev.2 imo auch "verschlimmbessert", Rev.1 gabs wohl nur zwei Handvoll ;(
@ Gast
Zwei HD5770 können nichts* besser als eine HD5870, außer billiger sein. Da interessiert mich auch der Preis nicht, zu viele "Fails".
* außer teils minimal mehr Fps in bestimmten Szenarien sowie Super-AA
Hab ich noch ein "Fail" vergessen? *grübel*
Ja, dein Posting.
Kein CF-Profil = Epic Fail (Fps entsprechen 1x HD5770)
Bei welchem aktuellen Spiel soll das vorkommen? Bei den zwei Dutzend, die CB getestet hat, war keines dabei: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5770_crossfire/19/#abschnitt_performancerating_qualitaet
CPU-Limit = Fail (Fps entsprechen 1x HD5770)
Du meinst, eine HD 58x0 ist im CPU-Limit schneller. Interessant.
Skalierung = Fail (je nach Spiel weit unter HD58x0)
Im Schnitt auf HD 5870-Niveau bzw. 81 % schneller als CF off. Siehe oben.
Leistungsaufnahme 2D = Fail (mehr als HD5870)
Leistungsaufnahme 3D = Fail (mehr als HD5870)
Nö. 30 Watt mehr unter Last. Macht, wenn ich täglich 3 Stunden spiele, ca. 5 € mehr im Jahr. Dafür spare ich beim Kauf schon 110 €.
y33H@
2010-02-10, 20:30:20
Ja, dein Posting.Süß :ulol:
Du meinst, eine HD 58x0 ist im CPU-Limit schneller. Interessant.Das ist deine Interpretation, die du mir in den Mund legst :rolleyes: Nope, CPU-Limit ist CPU-Limit.
Bei welchem aktuellen Spiel soll das vorkommen?Bei sehr vielen dauert es Tage bis Wochen nach dem Launch.
Im Schnitt auf HD 5870-Niveau bzw. 81 % schneller als CF off.Der Schnitt bringt mir bei einzelnen Spielen nichts. Vor allem wenn man Early Adopter ist, ist MGPU oft für den Ar***.
Nö. 30 Watt mehr unter LastNichts "Nö" :rolleyes: 30 Watt mehr ist mehr als eine HD5870. Punkt. Idle ist die prozentual Differenz noch weitaus größer - und idR verbringt man mehr Zeit in 2D.
Grestorn
2010-02-10, 20:31:10
Bei welchem aktuellen Spiel soll das vorkommen? Bei den zwei Dutzend, die CB getestet hat, war keines dabei: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5770_crossfire/19/#abschnitt_performancerating_qualitaet
Wenn man nicht mehr AAA Titel ansieht, sondern in die zweite Reihe guckt, schaut's ganz schnell anders aus.
Gibt es z.B. ein CF Profil für Risen? Für Ego Draconis? Drakensang? Ich weiß es selbst nicht, es würde mich nur ehrlich interessieren, wie hier der Support inzwischen bei ATI aussieht.
Dennoch verteufelt mir y33H@ MultiGPU Lösungen zu sehr. Zugegeben, eine ein-GPU Lösung ist durchaus vorzuziehen, wenn es eine solche in der gesuchten Leistungsklasse gibt und sie nicht viel zu teuer ist. Aber so schrecklich ist es nun auch wieder nicht, mit MultiGPU zu arbeiten.
y33H@
2010-02-10, 20:34:48
Ich sehe nun mal keinen Sinn darin, mit zwei Karten (teils) das nominelle Fps-Niveau einer zu erreichen und dabei einen ewig langen Rattenschwanz an Problemen und Ärgernissen hinterher zu ziehen. Das ist es mir nicht wert, d.h. auch 100€ weniger lassen mich keinesfalls zu MGPU greifen. Meine persönliche Meinung ;)
Das ist deine Interpretation, die du mir in den Mund legst :rolleyes: Nope, CPU-Limit ist CPU-Limit.
Ich lege dir nichts in den Mund. Du hast geschrieben: "CPU-Limit = Fail (Fps entsprechen 1x HD5770)". Heißt offensichtlich, dass es deiner Meinung nach also eine Rolle spielt, welche Grafikkarte man im CPU-Limit hat.
Wenn man nicht mehr AAA Titel ansieht, sondern in die zweite Reihe guckt, schaut's ganz schnell anders aus.
Für solche Spiele reicht die Leistung einer HD 5770 dann aber meistens auch aus. Natürlich ziehe ich selber auch SGPU-Systeme vor (ich hatte noch nie 2 Karten). Für 110 € weniger 2x HD 5770 ist aber schon eine Überlegung wert, denn in 90 % der Fälle funktioniert's wohl auch so wie es soll und man ist auf HD 5870-Niveau. Wobei mir SLI noch lieber wäre. Das soll ja problemloser als CF laufen.
Nichts "Nö" :rolleyes: 30 Watt mehr ist mehr als eine HD5870. Punkt. Idle ist die prozentual Differenz noch weitaus größer - und idR verbringt man mehr Zeit in 2D.
Mach dich doch nicht um jeden Preis lächerlich. Im Idle verbraten 2x HD 5770 so viel wie eine GTX 260 (unter Last wie eine GTX 275). Das Stromsparargument zieht hier nicht.
y33H@
2010-02-10, 20:59:27
Ich lege dir nichts in den Mund. Du hast geschrieben: "CPU-Limit = Fail (Fps entsprechen 1x HD5770)". Heißt offensichtlich, dass es deiner Meinung nach also eine Rolle spielt, welche Grafikkarte man im CPU-Limit hat.Das heißt offensichtlich schlicht, dass MGPU im CPU-Limit nichts bringt. Alles andere dichtest du mir an, und mir anzudichten, dass eine HD5870 im CPU-Limit schneller sei, ist Bullshit.
Das Stromsparargument zieht hier nicht.Was willst du jetzt auf einmal mit einer Geforce? Es ging um 2x HD5770 vs. 1x HD5870.
Was willst du jetzt auf einmal mit einer Geforce? Es ging um 2x HD5770 vs. 1x HD5870.
was willst du mit dem blödsinn im gf100 thread?
y33H@
2010-02-10, 21:11:13
Es ging halt wieder um MGPU, sorry ;(
Grestorn
2010-02-10, 21:58:23
Für solche Spiele reicht die Leistung einer HD 5770 dann aber meistens auch aus.
Nicht unbedingt. Es kommt darauf an, worauf man Wert legt.
PulsarS
2010-02-10, 22:28:11
Nicht unbedingt. Es kommt darauf an, worauf man Wert legt.
:up:
So sieht´s aus.
Nochmal zu den Fragen, da ist mir folgendes aufgefallen:
AMD: Why do NV drivers have to be 100MB in size? Users complain that it takes forever to download.
AMD: Why does NV keep at proprietary standards when open standards exist? Typically companies do this when they have poor products to hide.
AMD: When will we see OpenCL based consumer applications running on your hardware?
Aber jetzt kommt es:
But Hook also argued that there really was “No real point of having OpenCl in your standard driver until there’s a large volume of applications that are widely available.”
Support for OpenCL has been publicly available in Nvidia driver releases since September 2009, but Hook reckons this is a silly policy.
“When you start forcing everybody to take a huge download, that costs them money, it costs them bandwidth, so we try to package up our drivers with the most relevant features for that point in time that are available,” he explained.
“If people want to download any other bits and pieces, they still have the option to do so, but we’re not forcing them to.”
http://www.techeye.net/software/amd-defends-itself-from-nvidia-opencl-attack
So liebe Leser, was haben wir gelernt: AMD findet OpenCL so gut, dass sie es nicht komplett in den normalen Treiber packen. Weiterhin haben wir gelernt, dass nVidia sich so gegen offene Standards streubt, dass sie OpenCL aus Protest komplett in den Treiber integrieren...
Im Grunde ist es zum Schreien komisch - wenn es nicht so abartig traurig wäre.
mictasm
2010-02-11, 01:48:47
Und wir alle leben im Jahr 1998 und ärgern uns über 100MB, die wir über ISDN ziehen müssen. Lächerlich ;)
Ist trotzdem alles ziemlich off-topic hier...
Und wir alle leben im Jahr 1998 und ärgern uns über 100MB, die wir über ISDN ziehen müssen. Lächerlich ;)
Ist trotzdem alles ziemlich off-topic hier...
Es sind 29 zum GF100. Also ziemlich on-topic, wenn du mich fragst.
=Floi=
2010-02-11, 03:50:17
der nv server ist nebenbei auch sehr schnell und aktuell. Das mit den 100mb ist schon lustig. ;D
geht nv nun doch auf high power und sieger um jeden preis?! So kommt es zumindest rüber.
Ailuros
2010-02-11, 07:00:54
Trotzdem hat FUD immer einen sehr schalen Beigeschmack.
Und von wem haben sie es gelernt?
*wears devil's advocate hat*
AMD: Why are there only 64 texture units in GF100? This is a major technological set back compared to GT200. Are they running out of silicon real estate for graphics features with all the HPC compute circuitry around? Have they abandoned the gamer?
Die Faehigkeiten jeder Einheit sind wichtiger als die Anzahl dieser. Es kann aber durchaus sein dass hier NV eine falsche Design-Entscheidung getroffen hat und der chip an zu wenig Fuellrate leidet; jeglicher IHV bezahlt ziemlich teuer jegliche falsche Design-Entscheidung genauso wie ATI durch die Jahre fuer ihre eigenen Fehler blechen musste.
AMD: When will they know what clock speeds GF100 can run at? Are they running into other unanticipated problems with clock speeds due to on-chip variations with the huge die size and high power consumption?
IMHO haette NV ueberhaupt keine Daten veroeffentlichen sollen vor dem offiziellem Launch. Nichtdestominder veroeffentlicht auch AMD nicht alle Einzelheiten von noch nicht angekuendigten Produkten. Wenn sie tatsaechlich Probleme haben werden sie es fuer nicht mehr lange verstecken koennen. Wieso ueberhaupt die Unruhe?
AMD: Is it true that yields are currently just 2% due to poor engineering and lack of ‘dual redundant vias’ connecting the chip’s metal layers, and that most GF100 chips won’t even be able to hit 650MHz.
Es waren minimal 4% yields fuer beide IHVs in Q3 2009 und fuer AMD war nur eine sehr kleine Anzahl an wafers betroffen. Wie sehen heute AMD's yields genau aus ohne das angebliche dual redundant vias Problem?
AMD: Why is a 60 second snapshot of the Unigne benchmark used for performance comparison? Why not the entire benchmark or other real game performance comparisons? What are they trying to hide?
Weil es ein Tesselations-limitierter Ausschnitt eines synthetischen benchmarks ist. Der Ausschnitt dient dazu die Staerken der Tesselations-Implementierung zu zeigen und zeigt den moderadesten Vorteil dieser im Vergleich zu hauseigenen Tesselations-techdemos. Es ist die Aufgabe von PR/marketing jeglichen moeglichen Fall zu finden wo man die Konkurrenz so schlecht wie moeglich hinstellen kann. Eben auch die 29 Fragen die von AMD's PR Abteilung orchestriert wurden.
AMD: Given their past troubles with packaging, how do they deal with thermal cycling reliability issues with the huge die size and high power consumption of the GF100?
Sie brennen gerne Loecher in motherboards.....LOL. Wie soll man auf so eine Frage ernsthaft antworten?
AMD: Why are they artificially limiting the double precision performance of GeForce products to 1/4 of full capacity and make gamers pay for it in silicon and in power consumed? Why aren’t gamers allowed to use all the performance they’re paying for?
Damit die Verbraucher offensichtlich zu Tesla Loesungen greifen. AMD GPU Kaeufer bekommen auch nicht die Unterstuetzung fuer Profi-Zeug fuer die sie eigentlich bezahlt haben, ergo gibt es hier auch Grund zum meckern fuer die Gegenseite.
AMD: NV’s distributed PolyMorph Engine structure would imply that some of those functions are performed by the shaders. Will their tessellation performance scales with shader load and degrades when the shaders are busy with other tasks?
Wenn die GF100 gerade einen Pullover strickt kann sie sich natuerlich nicht mit Tesselation beschaeftigen. Der Idiot der sich die Frage ausgedacht hat kann sich gerne erstmal informieren wie und in welchen Stadium der Berechnungen eine DX11 GPU Tesselation genau ausfuehrt.
AMD: When will they be able to ship real DX11 products? AMD has complete stacks of desktop and mobile DX11 offerings.
Hoffentlich irgendwann im Maerz; in der Zwischenzeit kann sich AMD zuruecklehnen und ihren Kaba geniessen bzw. ihren guten DX11 Vorsprung weiterhin erhoehen.
AMD: Why do 48% of INQ readers think GF100 will be too hot, power hungry and expensive?
Auf jeden Fall nicht heisser, stromhungriger und teurer als AMD's zeitiges $600 Produkt.
AMD: Why does NV keep at proprietary standards when open standards exist? Typically companies do this when they have poor products to hide.
Weil AMD zu bloed ist jeglichen eigenen standard (proprietary oder open source) anstaendig zu unterstuetzen.
AMD: AMD now has top to bottom DX11. Why doesn't NV have any products to compete? What happened? The Windows 7 ship date was known well in advance.
Weil AMD eine bessere Strategie insgesamt hat. NV wird in der Zukunft entweder einiges aendern muessen oder sie werden auch in der Zukunft mit aehnlichen Problemen kaempfen muessen. NV's execution stinkt seit G92 genauso wie ATI's execution von R520 bis R600 gestunken hat.
AMD: Why do NV drivers have to be 100MB in size? Users complain that it takes forever to download.
AMD User werden gebeten im Jahr 2010 nicht mehr 56k Geschwindigkeiten zu benutzen. In dem Fall liegt das Problem zwischen dem keyboard und dem Stuhl.
AMD: Why doesn't NV release drivers on a regular and predictable way?
Weil unendliche hotfixes nerven.
AMD: I've started to see PhysX in titles, but why isn't the API running on my NV GPU? Seems to be running on the CPU. How many PhysX titles actually run on the GPU after 5 years of development by Ageia and Nvidia?
Eigentlich laeuft es ueber einen floppy disk....
AMD: In September 2009, NV claimed the new GF100 architecture would ship in November or December. What happened?
Beschissene 40G yields. Mit einem um einiges komplizierteren core als Cypress ist es selbstverstaendlich dass die Produktion mit solchen yields viel zu viel gekostet haette. Billig war es fuer AMD ja auch nicht gerade aber dank kleinerer Chipkomplexitaet eben um einiges besser als mit einem GF100. Cypress hatte im Oktober knapp 30% durchschnittliche yields.
AMD: Why are you trying to move the PC industry to a proprietary based model and limit functionality to your own products?
Weil AMD zu geizig und faul ist ihre Produkte voll und richtig zu unterstuetzen und quasi erwarten dass ihr Konkurrent ihnen alles auf einem silbernen Teller umsonst serviert.
AMD: When will we see OpenCL based consumer applications running on your hardware?
Auf jeden Fall bevor OCL Applikationen auf AMD's hw laufen werden.
AMD: Is the GF100 just NV30 all over again?
NV30 war ein ziemlich grosser FLOP. Der Vergleich hinkt an einigen Stellen.
AMD: What is NVidia’s commitment to launch quantities of GF100?
Sorgt Euch lieber ueber Eure eigene Quantitaeten denn JETZT ist die Zeit fuer AMD fett zu verdienen.
AMD: What are the power supply requirements for GF100? What about GF100 SLI or 3-Way SLI?
GTX480 = 240W max. / 280W TDP, mindestens ein gutes 550W PSU. Fuer SLi und 3-way SLi genauso gross wie fuer eine 5970 und 5970@CF.
AMD: What is the power leakage on the GF100?
Nicht hoeher als bei 5970.
AMD: Will GF100 be available in notebooks? Thin & light too?
An einem Dienstag :P
AMD: How many GF100 cards are required to power 6 screens using only 1 PC? What are the power supply requirements for such a PC?
Drei. Minimal 1000W.
AMD: Will GF100 be the single fastest graphics card in the market at launch?
Single chip high end ja.
AMD: How does it compare to ATI Radeon 5870 in terms of performance per $ and per W?
Nicht unbedingt schlechter als perf/$ und perf/W als die 5970.
AMD: Does Nvidia keep PhysX proprietary because NV is afraid that ATI Radeon would deliver a better PhysX experience? http://www.fudzilla.com/content/view/17525/1/
Weil sie keinen Bock haben ihre eigene PissX Investition mit AMD zu teilen.
AMD: How many TWIMTBP game titles [shipping or in development] are currently supporting DX11? How many Fermi boards have you sampled to game developers?
Null fuer beide Fragen aber das auch nur weil ich keine Zahlen diesbezueglich habe.
AMD: When do you expect DX11 support to be available across your entire GeForce product line?
Schaetzungsweise bis zu Q4 10'?
AMD: Why did a poll recently conducted by website www.gamestar.de conclude that 54.0% of respondents preferred DirectX 11 over PhysX (14.2%)?
Was soll mich bei dem Resultat genau wundern?
mboeller
2010-02-11, 07:36:31
Und wir alle leben im Jahr 1998 und ärgern uns über 100MB, die wir über ISDN ziehen müssen. Lächerlich ;)
Ist trotzdem alles ziemlich off-topic hier...
Es gibt auch in D noch viele die nur ISDN haben. Leider gibt es ADSL nicht überall. Auf dem Land gibt es noch große Lücken. 100MB über ISDN sind dann >4h Download.
Simon Moon
2010-02-11, 07:45:36
Ja den Preis 250€ vs 360€ kein Fail;)
Also inner Schweiz sieht das anders aus:
2x5770@169.-=339.-
5850 = 366.-
5870 = 489.-
Da gewinnt imo eindeutig die 5850.
2x 5770 hat aber imo auch seine Berechtigung. Die Karten werden bestimmt noch 12 Monate leben, d.h. jetzt eine 5770 und in einem Jahr nochmal eine 5770. Spielt man eh nur in 1280*1024 hätte man momentan mit einer 58x0 wohl sowieso zuviel Rechenleistung - so käme man mit ~ 250CHF (50% Preisabschlag für die 2. Karte gerechnet) durchaus 2 jahre aus...
chetigol
2010-02-11, 07:58:51
@ Odal
Lightning und Matrix kommen ja, die Frage ist nur: Wann, Preis und Verfügbarkeit? Preis ist erst mal egal, ich mache mir um die beiden anderen Punkte mehr Sorgen. Die VaporX wurde als Rev.2 imo auch "verschlimmbessert", Rev.1 gabs wohl nur zwei Handvoll ;(
AA[/SIZE]
Sorry für OT:
wieso wurde die VaporX Rev2 verschlimmbessert? wollte mir diese zulegen! Was ist schlechter als an der Rev1?
mapel110
2010-02-11, 08:02:22
Sorry für OT:
wieso wurde die VaporX Rev2 verschlimmbessert? wollte mir diese zulegen! Was ist schlechter als an der Rev1?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7811438#post7811438
Ailuros
2010-02-11, 08:22:08
Ich moechte bitten dass wir uns von dem Crossfire/Evergreen Zeug abhalten und zurueck zum Thema kommen.
Und ja mir ist bewusst dass mein letzter Beitrag oben wieder Oel ins Feuer schuettet, aber wie gesagt marketing FUD ist nichts Neues ueberhaupt fuer NVIDIA. Obwohl ich bezweifle dass NV darauf antworten wird, waere es trotz allem schoen falls es so etwas geben wuerde es auch zerreissen zu koennen.
Es gibt auch in D noch viele die nur ISDN haben. Leider gibt es ADSL nicht überall. Auf dem Land gibt es noch große Lücken. 100MB über ISDN sind dann >4h Download.
Und was soll mir das jetzt genau aussagen? Es ist in solchen Faellen genau das gleiche Problem fuer alle moeglichen downloads (wie z.B. windows update, bei einem service pack um einiges radikaler oder anderen Treiber downloads). Das volle Treiber/SW Paket eines HP all in one ist ~197MB gross.
Also das hört sich ja schon fast wie Theo an. Ich verstehe nicht wieso du als Moderator so pampige Kommentare abgibst, wo doch der Thread sowieso ein 600 seitiger Flame War ist ...
Man könte die Fragen ja auch sachlich betrachten und beantworten. Außerdem sollte man nicht jeden offensichtlichen Fehler mit einem Fehler der konkurenz ausgleichen - das nütz dem betrachteten Produkt(Fermi) doch auch nichts und beantwortet die Fragen nicht.
Ich finde einige Fragen sehr angebracht, und auch wenn billige Fangfragen dabei sind würde ich mich schon gerne über konkrete offizielle Antworten freuen - am besten nicht von der PR Abteilung von NV sondern von den Architekten.
Die FUD Aktion hat aber auch so einen ähnlichen Angstgeruch, wie NV Aktionen als sich abzeichnete, dass GF100 spät kommt.
Ailuros
2010-02-11, 08:41:05
Also das hört sich ja schon fast wie Theo an. Ich verstehe nicht wieso du als Moderator so pampige Kommentare abgibst, wo doch der Thread sowieso ein 600 seitiger Flame War ist ...
Ich hab nach wie vor das Recht meine Meinung zu aeussern. Ich raeume hier sowieso fast tagtaeglich auf; ein paar Mal mehr ist sowieso zu erwarten.
Man könte die Fragen ja auch sachlich betrachten und beantworten. Außerdem sollte man nicht jeden offensichtlichen Fehler mit einem Fehler der konkurenz ausgleichen - das nütz dem betrachteten Produkt(Fermi) doch auch nichts und beantwortet die Fragen nicht.
Das Podium ist frei und Du kannst es gerne selber versuchen.
Ich finde einige Fragen sehr angebracht, und auch wenn billige Fangfragen dabei sind würde ich mich schon gerne über konkrete offizielle Antworten freuen - am besten nicht von der PR Abteilung von NV sondern von den Architekten.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7835543&postcount=11203
Also einige Fragen da oben sind ganz schön frech. Die Fragen dienen eigentlich nur zur Provokation seitens ATI. Ich bin mal gespannt ob sich NVidia aufs selbe Niveau begiebt und wie zurückgeschossen wird;)
Botcruscher
2010-02-11, 09:01:03
Für die Kundschaft beider Anbieter wäre so ein kleiner PR-War womöglich gar nicht schlecht. Nichts zwingt mehr zum Handeln als schlechte Presse. Ein bisschen Druck könnte auf beiden Seiten also nicht schaden.:cool:
PS: Und unterhaltsam wäre es alle mal...
Ailuros
2010-02-11, 09:14:17
Ich darf wohl die Unterhaltung kurz unterbrechen....so wie es aussieht pro wafer nur ein 512SP chip. Das schreit dann tatsaechlich an Design-bedingten Problemen und wenn XMAN26 recht hat und ein B respin kommt erst im April zur fab verschickt, gute Nacht fuer anstaendige Verfuegbarkeit fuer diese fuer zumindest bis Mitte Sommer.
Ein 512SP Chip pro Wafer WTF? Wenn das stimmen sollte gute Nacht. Dann soll NVidia halt die 448er auf den Markt schmeissen, performancetechnisch dürfte das auch zur Leistungskrone reichen.
Ronny145
2010-02-11, 09:20:48
Oh weh, klingt nicht gut. Ich sehs schon kommen, bis weit ins Jahr rein kein Fermi in Sicht.
Was mir aber noch Hoffnung macht ist die Quelle. Er wird das wohl nicht so genau wissen.
Undertaker
2010-02-11, 09:29:59
Könnte das dazu führen, dass der Mainstreamchip (oder wo immer man einen halben GF100 auch einordnen will) noch vor dem vollen GF100 erscheint? Oder wäre dieser dann auch von einer zusätzlichen Verzögerung betroffen?
Rein wirtschaftlich dürfte dieser Chip, vielleicht auf Niveau einer HD5830 angesiedelt, wohl auch klar der bedeutsamere sein.
Ailuros
2010-02-11, 09:31:45
Ein 512SP Chip pro Wafer WTF? Wenn das stimmen sollte gute Nacht. Dann soll NVidia halt die 448er auf den Markt schmeissen, performancetechnisch dürfte das auch zur Leistungskrone reichen.
Sie schmeissen wohl sowohl 480 als auch 470 gleichzeitig auf den Markt. Das Problem ist eben dann dass man eher ohne ein Schwein Trueffel im Wald finden koennte als eine 480.
Wenn, dann ist anzunehmen, das die GTX 480 in minimaler Stückzahl gelauncht wird, zeitgleich mit der GTX 470 und angenehmen Stückzahlen.
Um den bis dahin unschön gewordenen GTX 480 Namen loszuwerden wird gitbs dann statt 480 später die 485 mit dem B Chip und etwas mehr Takt.
Das wird aber schwer dem Kunden zu vermitteln sein wenn wenig später ne bessere Version rauskommt die billiger ist. Also am besten abwarten...damn
Ne wird nicht schwer.
Erstens kommt B1 nicht über Nacht hereingeflattert.
Zweitens, wer außer den Magazinen und ein paar Glücklichen wird eine 480 bekommen?
Da ist es wichtiger den Namen, der inzwischen negativ belegt sein wird abzustreifen.
svenw
2010-02-11, 09:51:41
Das große Problem für Nvidia dürfte sein, das sie der 470er Chip in der Production genausoviel kostet wie der 480er, den man aber zu einem wesentlich besseren Preis verkaufen kann. Die Aufschläge die NV gegenüber den Preisen eines Cyress nehmen kann dürften gering sein und die wesentlich höheren Produktionskosten nicht ausgleichen. Vor allem da ATI wahrscheinlich in nächster Zeit mit einer 5890 kommen wird (zumindestens sollten sie nach ca. 6 Monaten Produktion so weit sein, das zu versuchen).
Nur nebenbei: Ich bin bisher immer davon ausgegangen das Nvidia die Performance Krone bekommt. Wenn die 480 aber unterhalb der 5970 liegt wird das wohl nichts, denn dann wird NV massive Schwierigkeiten haben eine X2 Karte zu produzieren die sich an die Standarts (300 Watt Verbrauch) hält. Die schnellste Single-Chip Karte werden sie immer noch haben nur spielen 480 und 5870 preislich in ganz anderen Ligen.Nur wenn sie auf die 300W pfeifen werden sie es schaffen, die Frage ist nur wieviel sie noch vorne sind wenn ATI das gleiche tut.
Ailuros
2010-02-11, 09:52:03
Das wird aber schwer dem Kunden zu vermitteln sein wenn wenig später ne bessere Version rauskommt die billiger ist. Also am besten abwarten...damn
Billiger hoert sich schwer bis unmoeglich an. Ein winziges 512SP Prozentual heisst fuer NV erstmal dass es in die Herstellungskosten beisst, denn man kann die 470-er wohl nicht bei 480 Preisen verkaufen.
Hat AMD ihre 5800-er Preise in letzter Zeit gesenkt?
Nazar
2010-02-11, 10:15:06
Und von wem haben sie es gelernt?
*wears devil's advocate hat*
Die Faehigkeiten jeder Einheit sind wichtiger als die Anzahl dieser. Es kann aber durchaus sein dass hier NV eine falsche Design-Entscheidung getroffen hat und der chip an zu wenig Fuellrate leidet; jeglicher IHV bezahlt ziemlich teuer jegliche falsche Design-Entscheidung genauso wie ATI durch die Jahre fuer ihre eigenen Fehler blechen musste.
IMHO haette NV ueberhaupt keine Daten veroeffentlichen sollen vor dem offiziellem Launch. Nichtdestominder veroeffentlicht auch AMD nicht alle Einzelheiten von noch nicht angekuendigten Produkten. Wenn sie tatsaechlich Probleme haben werden sie es fuer nicht mehr lange verstecken koennen. Wieso ueberhaupt die Unruhe?
Es waren minimal 4% yields fuer beide IHVs in Q3 2009 und fuer AMD war nur eine sehr kleine Anzahl an wafers betroffen. Wie sehen heute AMD's yields genau aus ohne das angebliche dual redundant vias Problem?
Weil es ein Tesselations-limitierter Ausschnitt eines synthetischen benchmarks ist. Der Ausschnitt dient dazu die Staerken der Tesselations-Implementierung zu zeigen und zeigt den moderadesten Vorteil dieser im Vergleich zu hauseigenen Tesselations-techdemos. Es ist die Aufgabe von PR/marketing jeglichen moeglichen Fall zu finden wo man die Konkurrenz so schlecht wie moeglich hinstellen kann. Eben auch die 29 Fragen die von AMD's PR Abteilung orchestriert wurden.
Sie brennen gerne Loecher in motherboards.....LOL. Wie soll man auf so eine Frage ernsthaft antworten?
Damit die Verbraucher offensichtlich zu Tesla Loesungen greifen. AMD GPU Kaeufer bekommen auch nicht die Unterstuetzung fuer Profi-Zeug fuer die sie eigentlich bezahlt haben, ergo gibt es hier auch Grund zum meckern fuer die Gegenseite.
Wenn die GF100 gerade einen Pullover strickt kann sie sich natuerlich nicht mit Tesselation beschaeftigen. Der Idiot der sich die Frage ausgedacht hat kann sich gerne erstmal informieren wie und in welchen Stadium der Berechnungen eine DX11 GPU Tesselation genau ausfuehrt.
Hoffentlich irgendwann im Maerz; in der Zwischenzeit kann sich AMD zuruecklehnen und ihren Kaba geniessen bzw. ihren guten DX11 Vorsprung weiterhin erhoehen.
Auf jeden Fall nicht heisser, stromhungriger und teurer als AMD's zeitiges $600 Produkt.
Weil AMD zu bloed ist jeglichen eigenen standard (proprietary oder open source) anstaendig zu unterstuetzen.
Weil AMD eine bessere Strategie insgesamt hat. NV wird in der Zukunft entweder einiges aendern muessen oder sie werden auch in der Zukunft mit aehnlichen Problemen kaempfen muessen. NV's execution stinkt seit G92 genauso wie ATI's execution von R520 bis R600 gestunken hat.
AMD User werden gebeten im Jahr 2010 nicht mehr 56k Geschwindigkeiten zu benutzen. In dem Fall liegt das Problem zwischen dem keyboard und dem Stuhl.
Weil unendliche hotfixes nerven.
Eigentlich laeuft es ueber einen floppy disk....
Beschissene 40G yields. Mit einem um einiges komplizierteren core als Cypress ist es selbstverstaendlich dass die Produktion mit solchen yields viel zu viel gekostet haette. Billig war es fuer AMD ja auch nicht gerade aber dank kleinerer Chipkomplexitaet eben um einiges besser als mit einem GF100. Cypress hatte im Oktober knapp 30% durchschnittliche yields.
Weil AMD zu geizig und faul ist ihre Produkte voll und richtig zu unterstuetzen und quasi erwarten dass ihr Konkurrent ihnen alles auf einem silbernen Teller umsonst serviert.
Auf jeden Fall bevor OCL Applikationen auf AMD's hw laufen werden.
NV30 war ein ziemlich grosser FLOP. Der Vergleich hinkt an einigen Stellen.
Sorgt Euch lieber ueber Eure eigene Quantitaeten denn JETZT ist die Zeit fuer AMD fett zu verdienen.
GTX480 = 240W max. / 280W TDP, mindestens ein gutes 550W PSU. Fuer SLi und 3-way SLi genauso gross wie fuer eine 5970 und 5970@CF.
Nicht hoeher als bei 5970.
An einem Dienstag :P
Drei. Minimal 1000W.
Single chip high end ja.
Nicht unbedingt schlechter als perf/$ und perf/W als die 5970.
Weil sie keinen Bock haben ihre eigene PissX Investition mit AMD zu teilen.
Null fuer beide Fragen aber das auch nur weil ich keine Zahlen diesbezueglich habe.
Schaetzungsweise bis zu Q4 10'?
Was soll mich bei dem Resultat genau wundern?
Man kann sich aber auch vieles schön reden.
Es sieht immer bescheiden aus, wenn beim Aufzeigen eigener Fehler, schnell auf die Fehler anderer verwiesen wird.
Das hilft keinem. Davon werden die Fehler nicht weniger relevant.
Deine ganze Aufzählung erinnert an einen Konflikt zwischen Mann und Frau, wo beim Aufzeigen NEUER Problem, schnell Alte hervorgekramt werden. Das hat aber für das JETZIGE Problem 0,0 Relevanz.
Atme doch erst mal wieder durch Junge ;)
Deine Antwort auf dieses Zitat, finde ich schon wieder Lustig.
Zitat:
AMD: Why is a 60 second snapshot of the Unigne benchmark used for performance comparison? Why not the entire benchmark or other real game performance comparisons? What are they trying to hide?
Weil es ein Tesselations-limitierter Ausschnitt eines synthetischen benchmarks ist. Der Ausschnitt dient dazu die Staerken der Tesselations-Implementierung zu zeigen und zeigt den moderadesten Vorteil dieser im Vergleich zu hauseigenen Tesselations-techdemos. Es ist die Aufgabe von PR/marketing jeglichen moeglichen Fall zu finden wo man die Konkurrenz so schlecht wie moeglich hinstellen kann. Eben auch die 29 Fragen die von AMD's PR Abteilung orchestriert wurden.
Dass das so ist, ist schon klar ABER die Frage geht in eine ganz andere Richtung!
Weshalb wird gerade nur dieser Teil gezeigt? Ist der Rest so schlecht?
Genau das ist die Frage seitens AMD UND vieler User.
Das nun PR Marketing dahinter steckt, macht die Sache nicht besser.
Die Frage ist also durchaus berechtigt.
Wenn man das Produkt auf Laufen hat, weshalb nicht alles zeigen?
Gerade für NV ein ungewohntes Bild, da sie ganz gerne auf die "Kacke" hauen, wenn sie denn wirklich den passenden Hammer dafür haben.
Ich persönlich würde mich freuen, wenn der Fermi richtig gut wird und nur knapp unter der 5970 liegen würde, damit ich endlich die CF Lösung los werde, die, ähnlich SLi, bei manchen Spielen nicht ihre Vorteile zeigen kann.
Allerdings verlieren deshalb wichtige Fragen nicht an relevanz und einige "scheinheiligen" Aussagen der PR Abteilung, werden als solche erkannt und nicht "schön" geredet.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.