PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 [49] 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Fetter Fettsack
2010-02-20, 15:51:33
IHVs haben Preisanpassungen fuer yields und die rand-chips die Du gerade erwaehnst werden da mitberechnet afaik. Anders diese werden zu den nicht operativen chips mitberechnet. Wenn's nur so einfach waere einen chip in der Mitte durchzuschneiden....


Was darf ich mir unter den "operativen" Chips vorstellen? Die Dice, die mit ihrer (vorgesehenen) Fläche völlig auf dem Wafer liegen?

Dass man Chips nicht so einfach nach belieben auseinanderschnipseln kann, ist mir klar, allerdings kann man vermehrt von Sätzen wie "ein Juniper ist ein halber Cypress" lesen, was zumindest bei der RV870 Architektur eine "einfachere" Zerkleinerbarkeit vermuten ließe. Da der GF100 außerdem in seiner Struktur redunant ausgelegt sein soll, hielt ich es für durchaus möglich, das eine ähnliche Vorgehensweise angewandt wird. Oder hast du deine Aussage auf das Zerschneiden an sich bezogen?

Im Übrigen muss ich eingestehen, dass ich trotz Recherche noch immer nicht genau weiß, was ich mir unter "IHV" vorstellen soll. Wenn du es mir also bitte erläutern könntest. :)

AwesomeSauce
2010-02-20, 16:27:31
IHV = Independent Hardware Vendor (z.B ATi oder Nvidia)

J0ph33
2010-02-20, 18:01:05
habe das ganze hier länger nicht mehr verfolgt, aber warum heißt das Ding nun GT400, entsprechend die Derivate GTX 4xx?

...erinnert etwas an X2900XT --> HD2900XT

Gast
2010-02-20, 18:05:04
habe das ganze hier länger nicht mehr verfolgt, aber warum heißt das Ding nun GT400, entsprechend die Derivate GTX 4xx?

Die GPU heißt GF100, die Generation GeForce 400 und die konkreten GF100-Karten GTX 480/470.

GeForce 400 weil es schon GeForce 300 für die OEMs gibt und man die DX11-Karten abgrenzen will: http://www.nvidia.com/object/geforce_family.html

Spasstiger
2010-02-20, 18:06:22
Was das Namenschaos angeht, sollte eh mal eine Redaktion den Mumm haben, bei NV nachzufragen, was die Marketingabteilung zu rauchen bekommt.

Nighthawk13
2010-02-20, 18:35:09
Warum hört man nur von 448SP oder 512SP?
480SP wäre doch auch eine denkbare Konfiguration(15 von 16 SM aktiv).

mapel110
2010-02-20, 18:36:17
Warum hört man nur von 448SP oder 512SP?
480SP wäre doch auch eine denkbare Konfiguration(15 von 16 SM aktiv).
Dann wäre der Leistungsunterschied wohl zu gering.

Raff
2010-02-20, 18:38:56
Dann wäre der Leistungsunterschied wohl zu gering.

Den Takt kann man auch anpassen. Allerdings wäre die Ausbeute an 480SP-Chips wohl kaum höher als bei 512-ern.

MfG,
Raff

Nighthawk13
2010-02-20, 18:49:55
Den Takt kann man auch anpassen. Allerdings wäre die Ausbeute an 480SP-Chips wohl kaum höher als bei 512-ern.
Der Schritt von "makellos" auf "kleine Fehler erlaubt" dürfte den yield schon deutlich verbessern(imho).
Oder alternativ eine höhere Taktfrequenz erlauben. 15@750Mhz statt 16@700Mhz dürfte unterm Strich ca. gleich schnell sein.

mapel110
2010-02-20, 18:52:43
Den Takt kann man auch anpassen.
MfG,
Raff
Das macht man ja noch zusätzlich.

Ailuros
2010-02-20, 19:19:30
Was darf ich mir unter den "operativen" Chips vorstellen? Die Dice, die mit ihrer (vorgesehenen) Fläche völlig auf dem Wafer liegen?

Mit yield pro wafer meint man vereinfacht das Prozentual an operativen chips (ergo chips die keine Prozess-bedingte Fehler vorzeigen). Wenn Dir ein wafer z.B. insgesamt 100 chips geben maximal und Du hast ein 10% yield dann hast Du 10 operative chips und 90 chips die k.o. sind dank Prozess-bedingten Fehlern.

Dass man Chips nicht so einfach nach belieben auseinanderschnipseln kann, ist mir klar, allerdings kann man vermehrt von Sätzen wie "ein Juniper ist ein halber Cypress" lesen, was zumindest bei der RV870 Architektur eine "einfachere" Zerkleinerbarkeit vermuten ließe. Da der GF100 außerdem in seiner Struktur redunant ausgelegt sein soll, hielt ich es für durchaus möglich, das eine ähnliche Vorgehensweise angewandt wird. Oder hast du deine Aussage auf das Zerschneiden an sich bezogen?

Cypress und Juniper wurden parallel entwickelt. Cypress hatte eine Woche frueher seinen tape out und wurde auch ein bisschen frueher angekuendigt.

Fetter Fettsack
2010-02-20, 19:45:06
Mit dem Begriff "Yield" konnte ich schon etwas anfangen, einzig die Bezeichnung "operativ" war mir nicht geläufig. Trotzdem danke. :)


Cypress und Juniper wurden parallel entwickelt. Cypress hatte eine Woche frueher seinen tape out und wurde auch ein bisschen frueher angekuendigt.

Hat sich geklärt. Ich bin anscheinend der Irrmeinung aufgesessen, dass man die nicht ganz auf den Wafer passenden Chips auf einen Juniper beschnitten hat (aus einem 3/4 Cypress einen Juniper [1/2 Cypress]). Der scheint aber mit einer eigenen Fertigung produziert zu werden. Allerdings frage ich mich immer noch, was man mit den Chips macht, die nicht einmal zu einer 5830 taugen. Die sollten sich doch größtenteils als Juniper einer Verwendung zuführen lassen, so keine "Zurechtschneidsprobleme" auftreten bzw. dies aus Gründen der Chiparchitektur nicht machbar ist.

Beim GF100 wäre dies ja der Wirtschaftlichkeit zuliebe meiner Ansicht nach ebenso sinnig, so die schon genannten Möglichkeiten dem nicht im Wege stehen.

mapel110
2010-02-20, 19:57:44
Allerdings frage ich mich immer noch, was man mit den Chips macht, die nicht einmal zu einer 5830 taugen. Die sollten sich doch größtenteils als Juniper einer Verwendung zuführen lassen, so keine "Zurechtschneidsprobleme" auftreten bzw. dies aus Gründen der Chiparchitektur nicht machbar ist.

Beim GF100 wäre dies ja der Wirtschaftlichkeit zuliebe meiner Ansicht nach ebenso sinnig, so die schon genannten Möglichkeiten dem nicht im Wege stehen.
Die guten Chips sollten schon zu Beginn der Produktion >50% eher 60 und mehr Prozent ausmachen. Im Verlauf der Produktion sollte die Ausbeute noch weiter steigen.
Man würde also solch ein Produkt gar nicht längerfristig anbieten können. Außerdem muss so ein Produkt auch ins eigene Preisschema passen. Man darf durch solch ein Transistormonster nicht den Markt für die billiger zu produzierenden Chips abgraben.

Bei ATIs 5830 ist es wohl so, dass man diese "Abfallchips" ja innerhalb von 5 Monaten produziert hat. Ich hab irgendwie meine Zweifel, dass sie diese Variante hätten bringen können, wenn nvidia bereits am Markt wäre und das Preisgefüge dafür nicht mehr da wäre.

Gast
2010-02-20, 20:37:04
LS,

Den durchschnittlichen Leser interessieren tatsaechlich nicht immer alle Einzelheiten. Verspaetung ueber Verspaetung der Verspaetung und dann auch noch irgendwelche Knappheit nach all der Zeit generiert gerechtfertigt gemischte Gefuehle.


Der "durchschnittliche Lese" sollte eigentlich auch immer den Mut haben nach Quellen zu fragen. Leider wird viel zu schnell unsinnge Dinge als Wirklichkeit angesehen. Siehe das "DX11 doesn't matter" oder aber die verzerrte Wiedergaben der Aussagen von Huang aus der CC.
Das GF100 ein 512SP Problem haben wird, geht nur auf einem Internetuser zurück. Es gibt dafür keine anderen Quellen. Und trotzdem wird jetzt schon der Teufel an die Wand gemalt.

LovesuckZ

mboeller
2010-02-20, 21:05:55
Wenn das Bin der GTX 470 ausreichend lieferbar sein wird, dann wäre es wohl denkbar, dass die Hersteller hier selbst Premium-Versionen auflegen, die einer potentiellen GTX 480 gleichkommen. Design-Kits haben diese wohl schon seit 2009 und dann dürfte einem 6+8-Pin PCB nichts im Wege stehen.

Wie läuft das jetzt bei der GF100?

Letztes Jahr hat es ja mal geheißen, das Nvidia die Board-Hersteller nicht mehr unterstützt beim Design, bzw. das es von Nvidia kein Referenz-Design mehr gibt.

Gibt es dazu jetzt schon von den Board-Herstellern Informationen? Hat das Auswirkungen auf die Verfügbarkeit? Wie lange brauchen/brauchten die Board-Hersteller, um die ersten Boards zu designen? Der GF100 war ja ziemlich spät und anscheinend nur in geringer Stückzahl verfügbar.

Ailuros
2010-02-20, 22:00:32
Der "durchschnittliche Lese" sollte eigentlich auch immer den Mut haben nach Quellen zu fragen. Leider wird viel zu schnell unsinnge Dinge als Wirklichkeit angesehen. Siehe das "DX11 doesn't matter" oder aber die verzerrte Wiedergaben der Aussagen von Huang aus der CC.

Point taken aber....

Das GF100 ein 512SP Problem haben wird, geht nur auf einem Internetuser zurück. Es gibt dafür keine anderen Quellen. Und trotzdem wird jetzt schon der Teufel an die Wand gemalt.

LovesuckZ

...glaubst Du ernsthaft dass ich nur auf XMAN's Aussage beruhe? Glaubst Du wirklich dass ich nicht weitergefragt habe? Und ja natuerlich hat NV Schiss vor der Presse denn durch die Knappheit wird ihnen jeder 2 moechtegern Redakteur auf dem Nacken hocken.

Wenn's nicht stimmt koennen wir alle froh sein; wenn's aber stimmen sollte wofuer ich momentan keinen einzigen Zweifel habe moechte ich sehen wie manche ein Unzahl an Strichen an die Wand mahlen um die Wochen begrenzter Verfuegbarkeit zaehlen zu koennen.

http://users.otenet.gr/~ailuros/Introduction.pdf ....erinnerst Du Dich an die Wette noch? Ich soll diesmal keine Wette eingehen weil ich sie gewinnen wuerde.

Gast
2010-02-20, 22:07:24
Charlie ist einer der dümmsten Personen auf der Welt. Wie kann man eine Webside betreiben und sowas machen. Sensationspopulismus, wer das nicht rafft hat keine Ahnung. Bild Zeitung ist seriöser. Ich mag den Typen nicht, er sollte im dunkeln aufpassen. MfG

Fetter Fettsack
2010-02-20, 22:09:08
Man würde also solch ein Produkt gar nicht längerfristig anbieten können. Außerdem muss so ein Produkt auch ins eigene Preisschema passen. Man darf durch solch ein Transistormonster nicht den Markt für die billiger zu produzierenden Chips abgraben.

Warum abgraben? Bevor man die für einen vollen GF100 nicht verwendbaren Dice wegwirft, kann man sie noch als beschnittene Version verkaufen. Ich sehe das eher als sinnvolle Maßnahme an.



Bei ATIs 5830 ist es wohl so, dass man diese "Abfallchips" ja innerhalb von 5 Monaten produziert hat. Ich hab irgendwie meine Zweifel, dass sie diese Variante hätten bringen können, wenn nvidia bereits am Markt wäre und das Preisgefüge dafür nicht mehr da wäre.

Warum hätte AMD/ATi die Lücke zwischen 5770 und 5850 nicht schließen wollen, wenn nVidia schon auf dem Markte wäre? Die verkappten Cypress wären ja trotzdem da.

Wenn die Yields für den Cypress immer besser werden, bedeutet dies denn nicht eigentlich, dass eine 5830 dann zwangsläufig mit Chips bestückt ist, deren funktionierende Shadereinheiten man mit Lasercut beschnitten oder per BIOS deaktivieren werden muss, um eine 5830 statt eine 5850 zu erhalten?

Ailuros
2010-02-20, 22:11:08
Charlie ist einer der dümmsten Personen auf der Welt. Wie kann man eine Webside betreiben und sowas machen. Sensationspopulismus, wer das nicht rafft hat keine Ahnung. Bild Zeitung ist seriöser. Ich mag den Typen nicht, er sollte im dunkeln aufpassen. MfG

Hab ich was verpasst? Es wurde nirgends auf den letzten paar Seiten Charlie erwaehnt.


Warum hätte AMD/ATi die Lücke zwischen 5770 und 5850 nicht schließen wollen, wenn nVidia schon auf dem Markte wäre? Die verkappten Cypress wären ja trotzdem da.

Wenn die Yields für den Cypress immer besser werden, bedeutet dies denn nicht eigentlich, dass eine 5830 dann zwangsläufig mit Chips bestückt ist, deren funktionierende Shadereinheiten man mit Lasercut beschnitten oder per BIOS deaktivieren werden muss, um eine 5830 statt eine 5850 zu erhalten?

Nein. Es gibt eine ziemlich verrueckte These darueber die trotz allem stimmen koennte, aber es ist nicht der richtige Thread dafuer.

Gast
2010-02-20, 22:13:03
@Ailuros

Ich weiss ich weiss. Aber Gamestar (Eigentliche gute Spielezeitschrift), Computerbase labern über den beschissenen Charlie. Ich wollte das mal gesagt haben.

S940
2010-02-20, 22:24:21
@Ailuros

Ich weiss ich weiss. Aber Gamestar (Eigentliche gute Spielezeitschrift), Computerbase labern über den beschissenen Charlie. Ich wollte das mal gesagt haben.
Dann mach bitte Deinen eigenen "das muss mal gesagt Thread auf", und spam bitte nicht andere Threads sinnlos voll ...

Warum hätte AMD/ATi die Lücke zwischen 5770 und 5850 nicht schließen wollen, wenn nVidia schon auf dem Markte wäre? Die verkappten Cypress wären ja trotzdem da.
Um den Leuten, dies nicht erwarten können ersteinmal das Geld mit den teuren Karten aus der Tasche zu ziehen ;-)
Ist doch immer so. Z.B: bei den CPUs, bis vor kurzem gabs keine billigen Nehalems, obwohl die Architektur schon Ende 2008 präsentiert wurde.

Die 5770er etc. kamen ja auch etwas später. Gegen die 5830 könnten noch Altlagerbestände von 4870/4890 gesprochen haben.
Wenn die OEMs da ATi recht nett fragen, verschieben die schon mal was.

Danke

Alex

Fetter Fettsack
2010-02-20, 22:58:49
Um den Leuten, dies nicht erwarten können ersteinmal das Geld mit den teuren Karten aus der Tasche zu ziehen ;-)
Ist doch immer so. Z.B: bei den CPUs, bis vor kurzem gabs keine billigen Nehalems, obwohl die Architektur schon Ende 2008 präsentiert wurde.

Die 5770er etc. kamen ja auch etwas später. Gegen die 5830 könnten noch Altlagerbestände von 4870/4890 gesprochen haben.
Wenn die OEMs da ATi recht nett fragen, verschieben die schon mal was.


Das mag seine Richtigkeit haben, jedoch ging es mir darum, dass ich es für unwahrscheinlich hielt und halte, dass die 5830 bei einem früheren Auftauchen von nVidia-Karten gar nicht erschienen wäre, denn wie schon erwähnt, die fehlerhaften, für 5850 und 5870 nicht tauglichen Chips wären trotzdem da. Dies wäre meiner Ansicht nach eine "immense" Verschwendung.

CrazyIvan
2010-02-20, 23:41:51
Puuh, Charlie hat angeblich ein paar Performancewerte:
480er mit 600/625 : 1200/1250Mhz Hot Clock ca. 5% schneller als eine 5870 im Mittel.
Das wäre warlich eine Kathastrophe.

http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

mapel110
2010-02-20, 23:50:49
Er schreibt tatsächlich etwas positives zu GF100. Jetzt fall ich vom Glauben ab. ;D

but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock.

Gast
2010-02-20, 23:56:14
Er schreibt tatsächlich etwas positives zu GF100. Jetzt fall ich vom Glauben ab. ;D

but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock.

Was er schreibt macht überhaupt keinen Sinn:

There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock. The sources said that this lead was most definitely not reflected in any game or test they ran, it was only in tessellation limited situations where the shaders don't need to be used for 'real work'.

GF100/GTX480 was not meant to be a GPU, it was a GPGPU chip pulled into service for graphics when the other plans at Nvidia failed. It is far too math/DP FP heavy to be a good graphics chip, but roping shaders into doing tessellation is the one place where there is synergy. This is the only place where the GTX480 stood out from a HD5870. The benchmarks that Nvidia showed off at CES were hand picked for a good reason, they were the only ones that Nvidia could show a win on, something they really need to capture sales for this card.

Er hat überhaupt keine Ahnung. Unigine ist kein Wireframe Benchmark. Dazu finde ich es höchst lächerlich von ihm, seine Meinung plötzlich um 180° zu drehen:

In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.

Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.

The same should hold true for all DX11 features, ATI has dedicated hardware where applicable, Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.

AwesomeSauce
2010-02-21, 00:08:33
Vielleicht war das Ailuros' kleines "Experiment":)

Fetter Fettsack
2010-02-21, 00:26:26
Es ist aber von zwei Quellen die Rede.

G!ZMo
2010-02-21, 00:30:17
Es ist aber von zwei Quellen die Rede.
Quelle 1: ATi
Quelle 2: Ail :freak:

AwesomeSauce
2010-02-21, 00:33:28
Ich frage mich nur, wo die Antwort von NVIDIA ist (Twitter). Bisher waren sie immer schnell in "denial" gegenüber den "Artikeln". Pacific Time wäre ja ca 15:30, am pennen sind die also (hoffentlich) nicht;) Wo ist Ailuros, wenn man ihn braucht?:D

Blaire
2010-02-21, 00:45:15
Puuh, Charlie hat angeblich ein paar Performancewerte:
480er mit 600/625 : 1200/1250Mhz Hot Clock ca. 5% schneller als eine 5870 im Mittel.
Das wäre warlich eine Kathastrophe.


20-30% würde man schon erwarten, ich denke auch das wird zu schaffen sein sonst würde man den Kram gleich canceln. 5% schneller würde ich eher von einer GTX470 erwarten.

Ailuros
2010-02-21, 08:25:42
Vielleicht war das Ailuros' kleines "Experiment":)

Hahaha nein. Ich wuerde es nur machen wenn ihr es alle schon vergessen haettet.

Ich hab bis jetzt nichts gehoert; aber wenn er Recht haben sollte und die 1/2 core clock liegt bei der 480 nur bei 625MHz, ergo 1250 hot clock dann sieht's tatsaechlich grau aus.

Er schreibt tatsächlich etwas positives zu GF100. Jetzt fall ich vom Glauben ab. ;D

but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock.

Er beharrt aber weiterhin auf seiner oeden "sw These":

http://www.semiaccurate.com/forums/showpost.php?p=28232&postcount=82

Nice straw man, but that is the same sleaze that Nvidia is trying to pull with physx on 3DMark. Tessellation heavily uses shaders for the first and last steps. If you are using the shaders for raw tessellation, you can't use them for other things in gaming.

Erster und letzter Schritt fuer Tessellation sind hull und domain shader. Was macht eine Evergreen GPU in dem Fall anders bei DX11 Tessellation?

If you can get me a game, DX11 or not, where the only object is to tessellate as much as you can, then yes, GTX480 is going to rock. If those shaders have to be used for, oh, say, the rest of the game, then not so much.

Wenn man nicht weiss in welchem Stadium der Bearbeitung tesselliert wird und auch wie eine Radeon damit vorgeht sollte man sich von solchem Humbug fernhalten. Bis gestern war es eine reine "sw pipeline" und man hoerte immer und immer wieder wieso NV nur eine cutscene aus in Heaven benutzte. Die Tatsache dass sie die cutscene benutzte war der "Beweis" dass GF100 im gesamten demo langsamer ist als 58x0. Jetzt ist es ploetzlich insgesamt 2x Mal so schnell?

Realitaet wird Dir zeigen dass nur die 60 sec der Drachen-Szene am Tessellations-limitierten ist. Wenn sie jetzt also tatsaechlich insgesamt 2x Mal so schnell ist, dann beruht dieses Resultat mit Sicherheit NICHT nur auf Tesselation.

Armaq
2010-02-21, 11:41:13
5% über 5870 wäre eine absolute Katastrophe.

AwesomeSauce
2010-02-21, 13:05:33
@Ailuros
Was war noch mal die geschätzte Taktrate der C2050/2070? Glaube kaum, dass die GeForces darunter liegen werden... War doch irgendwas mit 700/1400...

AnarchX
2010-02-21, 13:19:39
Die Projektion sagt 1.25-1.4GHz:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7020417&postcount=1 (ganz unten)

Charlies 5870+5% würden zu den 299€ MSRP passen, die man bei Tweakers von einem Partner-Dokument erfahren haben will.

Auf der anderen Seite bringt Charlie vielleicht auch den Zusammenhang ROP/L2-Takt und Hot-Clock durcheinander und die 5% beziehen sich auf die GTX 470.

Odal
2010-02-21, 13:20:07
Er schreibt tatsächlich etwas positives zu GF100. Jetzt fall ich vom Glauben ab. ;D

but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock.

der schreibt nicht was positives der spinnt sich nur ne Erklärung für die guten Ergebnisse in dem Tesslationsbench wo ja sogar livevideos in umlauf sind

Puuh, Charlie hat angeblich ein paar Performancewerte:
480er mit 600/625 : 1200/1250Mhz Hot Clock ca. 5% schneller als eine 5870 im Mittel.
Das wäre warlich eine Kathastrophe.

http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

wer nimmt denn den überhaubt noch ernst? ;D

Triskaine
2010-02-21, 13:21:31
@Ailuros
Was war noch mal die geschätzte Taktrate der C2050/2070? Glaube kaum, dass die GeForces darunter liegen werden... War doch irgendwas mit 700/1400...

In dem Tesla Paper das auf der ersten Seite dieses Threads zu sehen ist, werden 1,25-1,4 GHz Hotclock bei 448 SP's angegeben. In der Präsentation der Teslas stehen 520-630 Gigaflops DP, das ergibt einen Hotclock von 1,02-1.23 GHz. Mit 1,25 GHz würde Charlie also in einem realistischen Bereich liegen, der durchaus zu dem was wir schon wissen, passt.

AwesomeSauce
2010-02-21, 13:31:34
@Triskaine
Was hast du gerechnet?
630 GFLOPs / (224 ops * 2 (FMA)) = 1.4 GHz
http://www.siliconmadness.com/2009/12/nvidia-tesla-c2050-c2070-cut-down-to.html

Triskaine
2010-02-21, 13:38:58
@Triskaine
Was hast du gerechnet?

http://www.siliconmadness.com/2009/12/nvidia-tesla-c2050-c2070-cut-down-to.html

Oops. :biggrin:
Ich habe in meinem jugendlichen Optimismus mit 512 SP's gerechnet. Da war der Wunsch der Vater des Gedanken. ^^

V2.0
2010-02-21, 13:39:41
Da man schon Werte der Tesal kennt kann man den möglichen Berich abgrenzen. Und ja, Charlies Annahme ist nicht unrealistisch. -> für die 470

Gast
2010-02-21, 13:56:44
Der Abstand von 470 zu 480 ist deshalb nicht so groß, da es keine 480 geben wird. Die 480 wird es geben um zu sagen das man ja eine hat, aber nicht das sie einer kaufen kann :)
Und das wusste NV auch die ganze Zeit, aber man muss ja sagen können, wir haben dx11 im Sortiment (und einen Chip der für 2011 geplant ist).

AwesomeSauce
2010-02-21, 14:00:51
[bla]da es keine 480 geben wird. Die 480 wird es geben[blabla]
Danach habe ich aufgehört zu lesen:rolleyes:

Gast
2010-02-21, 14:02:44
ich glaube eher hier wurde aufgehört zu denken nach dem 2 post LOL
Das ist keine Speku das ist Wunschkonzert.
Seelig sind die geistig armenm das zuhause haben sie ja schon :)

AwesomeSauce
2010-02-21, 14:05:13
the GTX480 having the full complement of 512 shaders
and the initial top part will have 448 shaders.
Ja was denn nun;D

mboeller
2010-02-21, 14:06:45
Die Projektion sagt 1.25-1.4GHz:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7020417&postcount=1 (ganz unten)

Charlies 5870+5% würden zu den 299€ MSRP passen, die man bei Tweakers von einem Partner-Dokument erfahren haben will.

Auf der anderen Seite bringt Charlie vielleicht auch den Zusammenhang ROP/L2-Takt und Hot-Clock durcheinander und die 5% beziehen sich auf die GTX 470.

Er schreibt ja, das die GTX470 gar nicht getestet werden durfte. Die 5% können sich also (aus der Logik des Artikels folgernd) nur auf die GTX480 beziehen.

AwesomeSauce
2010-02-21, 14:13:48
Ich habe eine direct Message von Igor (http://twitter.com/Igor_Stanek) erhalten, zwar bezüglich des anderen Artikels (448/600/1200):
I have card in my PC and believe me, Charlie specs are total bullshit. ATI fans doesn't like to heat anything positive about us.
Irgendwer lügt hier wie gedruckt:confused:

Gast
2010-02-21, 14:18:04
Ich habe eine direct Message von Igor (http://twitter.com/Igor_Stanek) erhalten, zwar bezüglich des anderen Artikels (448/600/1200):


Also schlecht Englisch kann er gut.

Gast
2010-02-21, 14:18:16
Ich habe eine direct Message von Igor (http://twitter.com/Igor_Stanek) erhalten, zwar bezüglich des anderen Artikels (448/600/1200):

Irgendwer lügt hier wie gedruckt:confused:

März wird des "Clash of the Titans". Irgendwer wird untergehen - nVidia oder Charlie.
Ich kann es mir irgendwie nicht vorstellen, dass jemand mit ein bisschen Menschenverstand sich so nah an die Abschussanlage stellen kann wie Charlie. Ihm muss doch klar sein, dass aus dieser Geschichte nur der Sieg als einzige Option hervorgeht. Sollten eine Vielzahl seiner Behauptungen nicht stimmen, wird Charlie ziemlich schnell verschwinden und nur eine Fußnote für ein paar Forumsuser darstellen.

LovesuckZ

mapel110
2010-02-21, 14:22:28
Jup, entweder kann Charlie seine Page dicht machen oder nvidia ihre Twitter- und Facebook-Accounts.

uweskw
2010-02-21, 14:27:34
War Charly nicht der erste der die deutliche Verspätung von Fermi vorhergesagt hat und dafür verspottet wurde?
Was hat er denn nun (bzgl.Fermi) gesagt was definitiv falsch ist?

CrazyIvan
2010-02-21, 14:31:53
War Charly nicht der erste der die deutliche Verspätung von Fermi vorhergesagt hat und dafür verspottet wurde?
Was hat er denn nun (bzgl.Fermi) gesagt was definitiv falsch ist?
Er hat wohl teilweise technisch Quatsch geredet. Aber seine Hauptthesen sind bisher IMHO nicht widerlegt worden. Kann aber auch sein, dass ich in der ganzen Informationssuppe irgendwas nicht mitbekommen habe...

Gast
2010-02-21, 14:33:56
War Charly nicht der erste der die deutliche Verspätung von Fermi vorhergesagt hat und dafür verspottet wurde?
Was hat er denn nun (bzgl.Fermi) gesagt was definitiv falsch ist?

Was sich heute sagen lässt:
Die Leistung mit Tessellation - generell wenn es zu DX11 kommt
Was GF100 generell für ein Chip ist
Lestungssteigerung bei AMD anhand der Anzahl der Transistoren
Das Intel im Gegensatz zum GF100 Larrabee fertigen kann
Das es einen NVIO Chip gibt
Das nVidia die Taktrate für Teslakarten verfehlt hätte (ausgehend vom Dokument im Startposting sagte er 512 SPs hervor(!))

Das fällt mir auf anhieb ein.

LovesuckZ

Gast
2010-02-21, 14:35:17
Er hat wohl teilweise technisch Quatsch geredet. Aber seine Hauptthesen sind bisher IMHO nicht widerlegt worden. Kann aber auch sein, dass ich in der ganzen Informationssuppe irgendwas nicht mitbekommen habe...

Der Rest lässt sich mit Stand heute auch nicht widerlegen.
Ist das selbe wie mit der GTX295: Er behauptete im Oktober, dass es solch eine Karte nie geben werde. Konnte zum damaligen Zeitpunkt auch niemand widerlegen.

LovesuckZ

CrazyIvan
2010-02-21, 14:38:07
Damit hast Du natürlich vollkommen recht. Da mir das High-End-Segment eh wurscht ist harre ich mal gespannt der Dinge, die da kommen mögen ;)

Kosh
2010-02-21, 15:12:57
der schreibt nicht was positives der spinnt sich nur ne Erklärung für die guten Ergebnisse in dem Tesslationsbench wo ja sogar livevideos in umlauf sind



wer nimmt denn den überhaubt noch ernst? ;D

Stimmt,Charlie hat absolut keine Ahnung, die lachnummer behauptete tatsächlich letzten August oder noch früher,das im Jahre 2009 keine Fermi Karte auf dem Markt kommt.

Da haben dann so Leute wie Du ungefähr das gleiche geschrieben,wie in deinem Posting :D

V2.0
2010-02-21, 15:27:20
Jup, entweder kann Charlie seine Page dicht machen oder nvidia ihre Twitter- und Facebook-Accounts.

Sehe ich mir NVs PR an, dann können eher die ihre Accounts dicht machen.

Odal
2010-02-21, 15:29:11
Ich habe eine direct Message von Igor (http://twitter.com/Igor_Stanek) erhalten, zwar bezüglich des anderen Artikels (448/600/1200):

Irgendwer lügt hier wie gedruckt:confused:

naja also hiernach

I'm NVIDIA EMEA PR guy, gadget man, Apple fan

wären mir seine Aussagen genauso suspekt wie die von charlie brown

Kosh
2010-02-21, 15:33:49
Sehe ich mir NVs PR an, dann können eher die ihre Accounts dicht machen.

Habe bei sowas immer den NVIDIA CEO vor mir,wie er "This is Fermi" sagt und diesen Fakemüll in die Kamera hält statt einer echten Fermi Karte. :D

Gast
2010-02-21, 15:47:07
Ich habe eine direct Message von Igor (http://twitter.com/Igor_Stanek) erhalten, zwar bezüglich des anderen Artikels (448/600/1200):

Irgendwer lügt hier wie gedruckt:confused:

Man, don't trust stupid FUD. Fermi will conquer market very fast. There will be no competition at all. 12:38 PM Oct 11th, 2009


Igor hat außerdem irgendwann letztes Jahr behauptet das Fermi Samples im November kommen würden, man die Karte im Dezember kaufen könne und das im Januar die dual Fermis (X2) kommen würden :rolleyes:

Auf Igors Aussagen würde ich noch weniger geben als auf Charlies....

LadyWhirlwind
2010-02-21, 15:48:00
also zu Igor:

wenn er jetzt zugeben würde, dass Charlie recht hat, könnte er am Montag sein Büro räumen. Was der sagt, sollte man nicht für Bare müntze nehmen. Ihr wisst doch wie PR funktioniert oder?

Gast
2010-02-21, 15:56:54
Also für einen angeblichen "NVIDIA EMEA PR guy" ist sein Englisch ganz schön bescheiden. Gibt es überhaupt irgendeinen Grund, seine Aussagen ernst zu nehmen?

Raff
2010-02-21, 16:02:49
Also für einen angeblichen "NVIDIA EMEA PR guy" ist sein Englisch ganz schön bescheiden. Gibt es überhaupt irgendeinen Grund, seine Aussagen ernst zu nehmen?

Er arbeitet definitiv bei Nvidia. Die Frage ist, für welche Aussagen er Geld bekommt. ;)

MfG,
Raff

Gast
2010-02-21, 16:05:34
Igor hat außerdem irgendwann letztes Jahr behauptet das Fermi Samples im November kommen würden, man die Karte im Dezember kaufen könne und das im Januar die dual Fermis (X2) kommen würden :rolleyes:

Auf Igors Aussagen würde ich noch weniger geben als auf Charlies....

Das las ich sogar schon Beyond3d.com Forum. Gibt es dazu auch Links?
Ist ja nicht so, dass gewisse Leute dort im Forum nicht lügen würden, wenn es um nVidia geht...

LovesuckZ

mapel110
2010-02-21, 16:05:46
Also für einen angeblichen "NVIDIA EMEA PR guy" ist sein Englisch ganz schön bescheiden. Gibt es überhaupt irgendeinen Grund, seine Aussagen ernst zu nehmen?
Gibt es einen Grund, Charlies Aussagen ernst zu nehmen?
Er hat wesentlich öfter falsch gelegen als die nvidia-Leute.

Gast
2010-02-21, 16:10:10
also im moment liegt charlie definitiv vorne. und zwar mit den korrekten aussagen. klar hat er technisch nicht gerade den super durchblick, aber seine spekus bezüglich lieferbarkeit, lieferterminen und grundfeatures waren eher korrekt als das nv geblubber.

10:3 für charlie.

Gast
2010-02-21, 16:10:13
Gibt es einen Grund, Charlies Aussagen ernst zu nehmen?
Er hat wesentlich öfter falsch gelegen als die nvidia-Leute.

Mir ging es gar nicht um die Aussagen von Charlie, sondern um Igor. Das ganze mal mir ein bisschen suspekt vor, weil ich von einem PR guy zumindest erwarten würde, einigermaßen englisch zu können. Aber, Raff scheint ihn ja zu kennen, also...

Menace
2010-02-21, 16:22:24
März wird des "Clash of the Titans". Irgendwer wird untergehen - nVidia oder Charlie.
Ich kann es mir irgendwie nicht vorstellen, dass jemand mit ein bisschen Menschenverstand sich so nah an die Abschussanlage stellen kann wie Charlie.


Wieso Abschuss? Wurde er hier einmal dafür gelobt, dass seine Spekulationen richtig waren?
Und wieso ist nvidia mit ihren Aussagen bzgl. Veröffentlichungen nicht schon lange untergegangen?

Charlie hat bei mir einige Fehlspekulationen gut, bevor da wieder ein Gleichstand mit den nvidia-Jüngern herrscht. :wink:


Jup, entweder kann Charlie seine Page dicht machen oder nvidia ihre Twitter- und Facebook-Accounts.

Ach was. Jetzt tut mal nicht so, dass das alles hier ein neues Phänomen wäre. Zumal ich glaube, dass Charlie von den nvidia-Jungs absichtlich Fehlinformationen zugetragen wird. :D

S940
2010-02-21, 16:26:38
Zumal ich glaube, dass Charlie von den nvidia-Jungs absichtlich Fehlinformationen zugetragen wird. :D

Hahaha, das wär natürlich lustig ^^

Menace
2010-02-21, 16:34:17
Die werden versuchen in unglaubwürdig zu machen. Er hatte letztes Jahr einfach zu oft Recht und hat die nvidia-Leute bloßgestellt. Das werden die sich nicht auf sich sitzen lassen.

Was mir übleres Kopfzerbrechen momentan macht ist, dass es wieder so seltsame Tests wie letztes Jahr geben wird, indem nvidia die Testbedingungen genau vorgibt. Sowas stört mich bei AMD bzw. nvidia weit aus mehr als das Geplänkel im Vorfeld.

Spasstiger
2010-02-21, 16:35:57
Vielleicht hat Charlie auch wirklich handfeste Informationen, er verbreitet aber nur die Ergebnisse von den Benchmarks, die ihm gelegen kommen. Nur 5% Vorteil gegenüber einer HD 5870 halte ich bei einigen Benchmarks mit lediglich 1200 MHz Hot Clock durchaus für realistisch. Aber ich kann mir nicht vorstellen, dass NV eine derart niedrig getaktete GTX 480 auch vorstellt. 1200 MHz sind eher die Zielrichtung für Tesla.

dildo4u
2010-02-21, 16:42:07
Vielleicht hat Charlie auch wirklich handfeste Informationen, er verbreitet aber nur die Ergebnisse von den Benchmarks, die ihm gelegen kommen. Nur 5% Vorteil gegenüber einer HD 5870 halte ich bei einigen Benchmarks mit lediglich 1200 MHz Hot Clock durchaus für realistisch. Aber ich kann mir nicht vorstellen, dass NV eine derart niedrig getaktete GTX 480 auch vorstellt. 1200 MHz sind eher die Zielrichtung für Tesla.
Kann auch sein das bis auf die Tesslations Tests alles im CPU Limit gebencht wurde.Ohne Systemangaben und die Auflösung AA etc kannste das eh vergessen besonders wenn der Benchparkour aus Konsolentiteln besteht.Außerdem hat NV im Gegensatz zu dem was Charlie behauptet nicht nur Tesslation Tests gezeigt,sondern auch Far Cry 2 kein Physx,kein DX11.

Gast
2010-02-21, 16:44:05
Vielleicht hat Charlie auch wirklich handfeste Informationen, er verbreitet aber nur die Ergebnisse von den Benchmarks, die ihm gelegen kommen. Nur 5% Vorteil gegenüber einer HD 5870 halte ich bei einigen Benchmarks mit lediglich 1200 MHz Hot Clock durchaus für realistisch. Aber ich kann mir nicht vorstellen, dass NV eine derart niedrig getaktete GTX 480 auch vorstellt. 1200 MHz sind eher die Zielrichtung für Tesla.

Vielleicht sollte man einfach nicht darüber nachdenken. Die Wahrheit kommt anscheinend doch sowieso spätesten am 31.03.2010 zum Vorschein.
Und bis dahin kann Charlie schreiben, was er will.

LovesuckZ

Tarkin
2010-02-21, 16:44:37
Kann auch sein das bis auf die Tesslationts Tests alles im CPU Limit gebencht wurde.Ohne Systemangaben und die Auflösung AA etc kannste das eh vergessen besonders wenn der Benchparkour aus Konsolentiteln besteht.Außerdem hat NV nicht nur Tesslation gezeigt sondern auch Far Cry 2 kein Physx,kein DX11.

Und wer sagt, dass die Karte nicht übertaktet war oder irgendwie sonst mit Treibern getrickst wurde? Wäre nicht das erste Mal...

Gast
2010-02-21, 16:48:52
http://vr-zone.com/articles/-rumour-geforce-gtx-480-barely-faster-than-radeon-5870/8469.html

Hier nochmal bei vr

S940
2010-02-21, 16:50:04
Kann auch sein das bis auf die Tesslations Tests alles im CPU Limit gebencht wurde.
Möglich, aber selbst ATi bencht mit i7 Systemen, um das zu umgehen ... Glaube ich also eher nicht, dafür sind sie viel zu professionell und wissen, wie sie Ihr Produkt ins optimale Scheinwerferlicht setzen.

y33H@
2010-02-21, 16:52:39
Und wer sagt, dass die Karte nicht übertaktet war oder irgendwie sonst mit Treibern getrickst wurde? Wäre nicht das erste Mal... Das gab es in den letzten Jahren nicht mehr. Gerade NV ist da sehr penibel, deren PDF-Werte kann man wie von AMD 1:1 nachstellen.

Spasstiger
2010-02-21, 16:56:32
Wenn die NV-Folien stimmen, dann kann man auch mit 30% Mehrleistung gegenüber einer HD 5870 bei GPU-limitierten Settings ohne Tesselation rechnen.

dildo4u
2010-02-21, 16:58:06
Möglich, aber selbst ATi bencht mit i7 Systemen, um das zu umgehen ... Glaube ich also eher nicht, dafür sind sie viel zu professionell und wissen, wie sie Ihr Produkt ins optimale Scheinwerferlicht setzen.
Es geht um die ominösen Unabhänigen Tests von Charlies Quelle.

Tarkin
2010-02-21, 17:07:04
Das gab es in den letzten Jahren nicht mehr. Gerade NV ist da sehr penibel, deren PDF-Werte kann man wie von AMD 1:1 nachstellen.

das mag schon sein... nur damals waren die Taktraten vielleicht noch nicht fixiert und man prügelte die Karte so hoch wie man sich das vielleicht beim finalen A3 gewünscht hätte... wäre möglich.

y33H@
2010-02-21, 17:16:25
In diesem Fall, ja. War ja wohl nur Show-Case und kein Review-Guide, in dem Werte präsentiert wurden.

Ailuros
2010-02-21, 17:22:08
@Ailuros
Was war noch mal die geschätzte Taktrate der C2050/2070? Glaube kaum, dass die GeForces darunter liegen werden... War doch irgendwas mit 700/1400...

Ich hab leider eine Schwaeche; obwohl ich die Klappe halten sollte, juckt Ihr mich meistens mit Euren Fragen in den Fingern....es ist wurscht ob Charlie's Inhalt stimmt oder nicht. Steht in den naechsten Tagen ein wichtiger Analysten-Call vor oder nicht? Man schreibt also gezielt nochmal alles schon zusammen (je langwierig und giftiger desto besser...) und dazu sogar noch auf einem Samstag Abend. Prostituierte arbeiten Gott sei Dank nicht Sonntags....

Kosh
2010-02-21, 17:23:07
Das gab es in den letzten Jahren nicht mehr. Gerade NV ist da sehr penibel, deren PDF-Werte kann man wie von AMD 1:1 nachstellen.

nun ja, in den letzten Jahren lag man Performancemässig ja eh locker vor ATI, da hätte man sowas gar nicht benötigt.

Aktuell sieht die Sache aber ganz anders aus und dann könnte (wie gesagt,könnte ), NVIDIA schon auf die Idee kommen,in gewissen Bereichen leicht zu tricksen.

Ist man eh deutlich vorne, kommt man viel weniger auf solche Ideen,wie wenn man knapp hinten liegen würde.

Botcruscher
2010-02-21, 17:23:27
Mit der richtigen Auswahl an Tests kann man alles dar- und nachstellen. Herstellerangaben sind immer mit Vorsicht zu genießen.

Ailuros
2010-02-21, 17:36:20
Leute man braucht nicht sehr viel zu sehen dass einiges nicht hinhaut in Charlie's neuestem masterpiece. Bis gestern meckerte AMD PR und deren gesamtes Entourage dass sie eine gezielte 60 Sekunden cutscene aus Unigine's Heaven demo zeigten. In diesem Mist zeigte NV einen durchschnittlichen Vorsprung von 60% in einer cutscene die Tesselations-limitiert ist..

Jetzt soll ploetzlich die 480 um ganze 2x Mal so schnell sein als die 5870 im gesamten demo-Durchlauf. Ich will zumindest eine logische Erklaerung hoeren wie das eine mit anderem zusammenpasst (und ja er fuegt bei dass render-Fehler sichtbar sind, aber das sagt mir auch nichts).

Der absolute wirkliche Vorteil in dem synthetischen Mist ist in der cutscene und die betrug noch vor kurzem 60%. Jetzt ploetzlich steigt der Unterschied im gesamten Durchlauf auf 100% und in der cutscene ist es nun was 3 oder 4x viel mal so viel?

Nochmal egal ob der Inhalt des Artikels Fehler hat oder nicht, Charlie's bzw. AMD's Zweck wurde erreicht (siehe meinen vorigen Post).

Gast
2010-02-21, 17:44:45
Mal so schnell sein als die 5870 im gesamten demo-Durchlauf. Ich will zumindest eine logische Erklaerung hoeren wie das eine mit anderem zusammenpasst (und ja er fuegt bei dass render-Fehler sichtbar sind, aber das sagt mir auch nichts).


Es gibt keine Fehler in dem Heaven Benchmark. Auf der Vorshow zur CES zeigte nVidia die Demo und man hörte keine Beschwerden...
Dazu schreibt Charlie, dass es zZ noch garkeine vernünftigen D3D11 Treiber gäbe - und im Forum behauptet er in den "5%" sind schon DX11 Spiele enthalten wären...
Aber was meinst du mit "Analysten-Call"?

LovesuckZ

AwesomeSauce
2010-02-21, 17:54:43
Warum ist er überhaupt immer noch so erpicht darauf, zu verbreiten, dass GF100 Tessellation in den Shaders berechnet? Warum basiert seine ganze Begründung immer noch auf dieser Tatsache? Ich versteh den Typen echt nicht:( Ausserdem: Der Unigine-Benchmark ist ja nicht nur ausschliesslich auf Tessellation ausgelegt, die ALUs werden da sicher auch ziemlich belastet mit SSAO etc...

Ailuros
2010-02-21, 17:58:05
Es gibt keine Fehler in dem Heaven Benchmark. Auf der Vorshow zur CES zeigte nVidia die Demo und man hörte keine Beschwerden...
Dazu schreibt Charlie, dass es zZ noch garkeine vernünftigen D3D11 Treiber gäbe - und im Forum behauptet er in den "5%" sind schon DX11 Spiele enthalten wären...
Aber was meinst du mit "Analysten-Call"?

LovesuckZ

Wart ab ueber die naechsten paar Tage.

Warum ist er überhaupt immer noch so erpicht darauf, zu verbreiten, dass GF100 Tessellation in den Shaders berechnet? Warum basiert seine ganze Begründung immer noch auf dieser Tatsache? Ich versteh den Typen echt nicht:(

Wie ich schon vorher sagte seine Behauptung (und er wird sogar noch genauer im Forum) ist dass am Anfang und am Ende der Tesselation die ALUs fuer Tessellation benutzt werden. Das stimmt auch nur ist bloederweise das genau was der hull shader (anfang) und domain shader (ende) der gesamten Tessellations-pipeline in DX11 macht egal ob es jetzt auf Evergreen oder Fermi ist. Er hat immer noch nicht geschnallt wie Tessellation in DX11 genau vorlaueft und wie ihn silent_guy gerade wieder bei B3D anmault sollte er sich auf tape out news begrenzen als sich mit Irrsinn von dem er keine Ahnung hat zu beschaeftigen.

Spasstiger
2010-02-21, 17:59:05
Warum ist er überhaupt immer noch so erpicht darauf, zu verbreiten, dass GF100 Tessellation in den Shaders berechnet? Warum basiert seine ganze Begründung immer noch auf dieser Tatsache? Ich versteh den Typen echt nicht:(
Wahrscheinlich wirft er Hull Shader und Tessellation in einen Topf. Bei MSDN steht übrigens Folgendes zur Tessellation-Stage:
Tessellator

The tessellator is a fixed-function unit whose operation is defined by declarations in the hull shader. The tessellator operates once per patch that is output by the hull shader. The hull shader generates tess factors, which are numbers that notify the tessellator how much to tessellate (generate geometry and connectivity) over the domain of the patch.

The Direct3D runtime calls the driver's CalcPrivateTessellationShaderSize function to calculate the size of the memory region for a hull or domain shader.
Quelle: http://msdn.microsoft.com/en-us/library/dd835170.aspx

V2.0
2010-02-21, 17:59:19
das mag schon sein... nur damals waren die Taktraten vielleicht noch nicht fixiert und man prügelte die Karte so hoch wie man sich das vielleicht beim finalen A3 gewünscht hätte... wäre möglich.

Oder man spielt an der Filterqualität und geht auf NV70 Niveau zurück. :biggrin:

Ailuros
2010-02-21, 18:00:58
Wahrscheinlich wirft er Hull Shader und Tessellation in einen Topf. Bei MSDN steht übrigens Folgendes zur Tessellation-Stage:

Quelle: http://msdn.microsoft.com/en-us/library/dd835170.aspx

http://forum.beyond3d.com/showpost.php?p=1397329&postcount=1627

This is just typical dumbass logic from Charlie when he doesn't know what he's talking about.

Pixel shader load is very low in segments of the scene where triangle count and tesselation is high. Cypress can only push half a tesselated vertex per clock (since each vertex generates two triangles to be set up). Even if you need 100 flops per vertex, it would take a mere 5% of Fermi's shading power to match that speed. Okay, maybe 7% including clock speed differences, but there's plenty of room for Fermi to take advantage of its 3-4x setup rate increase and smoke Cypress.

Math is not going to be a problem. Texturing very well could be, though. If they're only 20% faster than GT200 in internal testing, and RV790 was near and often faster than GT200 in texture heavy tests, it could be a real problem. I think we will find some theoretical tests where even the 9800+ beats Fermi due to its higher clock.

Mintmaster ist ein Entwickler und alles andere als ein NV fan.

***edit: uebrigens rein zum sachlichen Bereich zurueck: im B3D IRC chat ist alles besprochene normalerweise nicht nach aussen zu tragen. Wir hatten aber heute eine sehr interessante Debatte und Coda koennte recht haben und es ist zumindest technisch zu 100% moeglich dass TFs auf hot clock laufen. Ob dem so ist weiss noch keiner. Auf jeden Fall scheint technisch mit dem gesamten Architektur-Schema nichts dagegen zu sprechen.

Tarkin
2010-02-21, 18:01:04
Wart ab ueber die naechsten paar Tage.

http://twitter.com/AMDChannel

"AMD is hosting a Webcast for press/partners on 2/23 to discuss AMD graphics products and opportunities in the channel. DM for access info."

meinst du das?

Gast
2010-02-21, 18:01:50
Wart ab ueber die naechsten paar Tage.


Also ich weiß, dass sie am Mittwoch an einer Analysten-Call teilnehmen. Aber davon haben sie in den nächsten vier Wochen einige...

Warum ist er überhaupt immer noch so erpicht darauf, zu verbreiten, dass GF100 Tessellation in den Shaders berechnet? Warum basiert seine ganze Begründung immer noch auf dieser Tatsache? Ich versteh den Typen echt nicht:(

Was soll er anderes machen? Er hat sich eben letztes Jahr mehr als nur aus dem Fenster gelehnt. Und es versucht er mit fehlenden Erklärungen seine Untertanen bei Laune zu halten. Und wer eben alles glaubt, was Charlie schreibt, der glaubt eben auch, dass seine Begründung stimmt - vorallem, nachdem er sich über diesen Weg letztes Jahr mehr als ausgelassen hat...


Ausserdem: Der Unigine-Benchmark ist ja nicht nur ausschliesslich auf Tessellation ausgelegt, die ALUs werden da sicher auch ziemlich belastet mit SSAO etc...

So siehst aus. Der Heaven Benchmark ist kein Wireframe Benchmark. Die Begründung von Charlie ist also selten dämlich.

LovesuckZ

Fetter Fettsack
2010-02-21, 18:02:04
Aber was meinst du mit "Analysten-Call"?

Kleiner Tipp: nVidia ist meines Wissens nach eine AG.

EDIT:

Zumindest war das meine erste Assoziation zu diesem Wortkonglomerat.

Ailuros
2010-02-21, 18:08:16
Also ich weiß, dass sie am Mittwoch an einer Analysten-Call teilnehmen. Aber davon haben sie in den nächsten vier Wochen einige...

Komischer Zufall ja? Noch schlimmer wenn man mir am Freitag zufluestert dass AMD plant ein bisschen Oel ins Feuer diesbezueglich zu werfen oder?

Menace
2010-02-21, 18:09:49
Deshalb kommt morgen schon nvidia: "NVIDIA ARE YOU READY? Check back here on Monday morning at 9:00 a.m. PST for a major announcement!"

http://www.facebook.com/NVIDIA

Menace
2010-02-21, 18:12:14
Komischer Zufall ja? Noch schlimmer wenn man mir am Freitag zufluestert dass AMD plant ein bisschen Oel ins Feuer diesbezueglich zu werfen oder?

Ich finde es überhaupt eher traurig, wie kindisch solche Firmen vorgehen (AMD vers. Nvidia vers. Intel und zurück). Aber auf gegenseitigen Respekt kann man wohl lange warten. Ich bin gespannt, welche tolle Ankündigung diesmal nvidia hat.

Ailuros
2010-02-21, 18:17:38
http://twitter.com/AMDChannel

"AMD is hosting a Webcast for press/partners on 2/23 to discuss AMD graphics products and opportunities in the channel. DM for access info."

meinst du das?

Nein. Siehe LS' Beitrag. Ganz am Rand ich hab mich mal von meinem eigenen Masochismus treiben lassen und hab ein paar Threads im SA Forum durchgelesen. Ein so "demokratisches" Forum hab ich seit Jahren nicht mehr gesehen.....igittigitt....

Ich finde es überhaupt eher traurig, wie kindisch solche Firmen vorgehen (AMD vers. Nvidia vers. Intel und zurück). Aber auf gegenseitigen Respekt kann man wohl lange warten. Ich bin gespannt, welche tolle Ankündigung diesmal nvidia hat.

Daran ist NVIDIA der erste und letzte der daran unschuldig ist. Als AMD ATI aufnahm versuchten die ATI Kerle NV's Taktiken zu erklaeren, aber sie wollten ihnen nicht glauben das bis zu dem Punkt die Zusammenarbeit zwischen AMD und NV ausgezeichnet war. Als der Krieg dann weiter ging war AMD mit der bitteren Wahrheit konfrontiert und sie sahen schnell dass man nur mit den gleichen Mitteln auf ihre eigentliche Philosophie reagieren kann.

Intel ist um einiges schlimmer ist aber auch gleichgueltig. PR FUD gehen Hand in Hand mit dem GPU Markt ohne diesen geht es nicht mehr.

OgrEGT
2010-02-21, 18:22:31
Leute man braucht nicht sehr viel zu sehen dass einiges nicht hinhaut in Charlie's neuestem masterpiece. Bis gestern meckerte AMD PR und deren gesamtes Entourage dass sie eine gezielte 60 Sekunden cutscene aus Unigine's Heaven demo zeigten. In diesem Mist zeigte NV einen durchschnittlichen Vorsprung von 60% in einer cutscene die Tesselations-limitiert ist..

Jetzt soll ploetzlich die 480 um ganze 2x Mal so schnell sein als die 5870 im gesamten demo-Durchlauf. Ich will zumindest eine logische Erklaerung hoeren wie das eine mit anderem zusammenpasst (und ja er fuegt bei dass render-Fehler sichtbar sind, aber das sagt mir auch nichts).

Der absolute wirkliche Vorteil in dem synthetischen Mist ist in der cutscene und die betrug noch vor kurzem 60%. Jetzt ploetzlich steigt der Unterschied im gesamten Durchlauf auf 100% und in der cutscene ist es nun was 3 oder 4x viel mal so viel?

Nochmal egal ob der Inhalt des Artikels Fehler hat oder nicht, Charlie's bzw. AMD's Zweck wurde erreicht (siehe meinen vorigen Post).

Im Artikel von Charlie steht aber nichts davon, dass die GF100 im gesamten Heaven Benchmark 100% schneller sein soll als 5870:

Zitat:
There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the Cypress HD5870, and will likely beat a dual chip Hemlock HD5970.
http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

Charlie's Aussage bezog sich wohl nur auf die Tesselation Werte und nicht auf die Leistung im gesamten Benchmark.

Nicht dass ich Charlie in Schutz nehmen möchte oder ähnliches, aber man muss schon versuchen präzise zu zitieren wenn man objektiv sein möchte.

S940
2010-02-21, 18:25:41
http://forum.beyond3d.com/showpost.php?p=1397329&postcount=1627

This is just typical dumbass logic from Charlie when he doesn't know what he's talking about.

Pixel shader load is very low in segments of the scene where triangle count and tesselation is high. Cypress can only push half a tesselated vertex per clock (since each vertex generates two triangles to be set up). Even if you need 100 flops per vertex, it would take a mere 5% of Fermi's shading power to match that speed. Okay, maybe 7% including clock speed differences, but there's plenty of room for Fermi to take advantage of its 3-4x setup rate increase and smoke Cypress.

Mintmaster ist ein Entwickler und alles andere als ein NV fan.

Aha, also auf Deutsch: Die Shader Leistung, die nV wg. Tessellation zusätzlich braucht, wäre kein Problem, da in Tessellation Szenen der Rest der Szene ziemlich anspruchslos wäre, so dass die Shader Units zu (fast) nichts anderem gebraucht werden würde. Richtig ?

Klingt quadratisch, praktisch, gut :)

ciao

Alex

Gast
2010-02-21, 18:25:53
Im Artikel von Charlie steht aber nichts davon, dass die GF100 im gesamten Heaven Benchmark 100% schneller sein soll als 5870:

Zitat:
There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the Cypress HD5870, and will likely beat a dual chip Hemlock HD5970.
http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

Charlie's Aussage bezog sich wohl nur auf die Tesselation Werte und nicht auf die Leistung im gesamten Benchmark.

Nicht dass ich Charlie in Schutz nehmen möchte oder ähnliches, aber man muss schon versuchen präzise zu zitieren wenn man objektiv sein möchte.

Ähm, es gibt im HeavenBenchmark keinen "Tessellationabschnitt". Entweder ist Tessellation an oder aus. Am Ende kommt nur ein Gesamtergebnis raus.

LovesuckZ

OgrEGT
2010-02-21, 18:33:01
Ähm, es gibt im HeavenBenchmark keinen "Tessellationabschnitt". Entweder ist Tessellation an oder aus. Am Ende kommt nur ein Gesamtergebnis raus.

LovesuckZ

Vielleicht hast Du recht, aber vielleicht kann man die reine Tesselation Performance auch mit anderen Mitteln gesondert auslesen, und wenn man nur die fps Werte der besonders Tesselation-fordernden Abschnitte summiert.

Jedenfalls hörte sich das was er geschrieben hat nicht zwingend nach 100% mehr Gesamt-Performance an.

Raff
2010-02-21, 18:35:34
Ähm, es gibt im HeavenBenchmark keinen "Tessellationabschnitt". Entweder ist Tessellation an oder aus. Am Ende kommt nur ein Gesamtergebnis raus.

LovesuckZ

Es gibt aber diesen übertrieben tessellierten Drachen, der eine HD 5870 in die Knie prügelt (Knie = deutlich unter 30 Fps, in hohen Auflösungen um die 15-20 Fps). Eventuell ist das diese nebulös formulierte Szene; nur ist das eben ein einziger Abschnitt des Benchmarks, wo es so wehtut.

MfG,
Raff

Gast
2010-02-21, 18:36:32
der benchmark ist in 23 abschnitte unterteilt

Gast
2010-02-21, 18:41:40
Es gibt aber diesen übertrieben tessellierten Drachen, der eine HD 5870 in die Knie prügelt (Knie = deutlich unter 30 Fps, in hohen Auflösungen um die 15-20 Fps). Eventuell ist das diese nebulös formulierte Szene; nur ist das eben ein einziger Abschnitt des Benchmarks.

MfG,
Raff

Der übertrieben tessellierten Drache ist ja sogar auf der NV-Folie neben den fps abgebildet. Es wurde also definitiv diese Szene verwendet.

Gast
2010-02-21, 18:43:27
Es gibt aber diesen übertrieben tessellierten Drachen, der eine HD 5870 in die Knie prügelt (Knie = deutlich unter 30 Fps, in hohen Auflösungen um die 15-20 Fps). Eventuell ist das diese nebulös formulierte Szene; nur ist das eben ein einziger Abschnitt des Benchmarks, wo es so wehtut.

MfG,
Raff

Ach du meinst, die Werten kommen direkt von der Folie, ja? ;)

LovesuckZ

Gast
2010-02-21, 18:43:53
Der übertrieben tessellierten Drache ist ja sogar auf der NV-Folie neben den fps abgebildet. Es wurde also definitiv diese Szene verwendet.

sollte auf jeden fall per config änderung möglich sein.
man kann sogar die kamerafahrt ändern.

Ailuros
2010-02-21, 18:53:28
Im Artikel von Charlie steht aber nichts davon, dass die GF100 im gesamten Heaven Benchmark 100% schneller sein soll als 5870:

Zitat:
There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the Cypress HD5870, and will likely beat a dual chip Hemlock HD5970.
http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

Charlie's Aussage bezog sich wohl nur auf die Tesselation Werte und nicht auf die Leistung im gesamten Benchmark

Nicht dass ich Charlie in Schutz nehmen möchte oder ähnliches, aber man muss schon versuchen präzise zu zitieren wenn man objektiv sein möchte.

Eben nicht. Er bezieht sich klipp und klar auf durchschnittliche Werte vom gesamten Benchmark. Er wird auch oefters in seinem eigenen Forum danach gefragt weicht aber nur aus, genau eben weil es keinen besonderen Sinn macht.

***edit: uebrigens wen's interessiert GF100 Thread@B3D silent_guy ueber vias und moegliche 40G Probleme.

I've given plenty of reasons why designs can be late. You call this hand waving. I call it experience.

I don't know. I'm sure they're not happy about it. The fact that I don't know doesn't make me want to come up with theories that make me look dumb.

*ouch* LOL...

The density of standard cell designs is determined by the ability to wire the cells together. If you're going to use two via's instead of one, you necessarily take up some resources on the metal layers above and below which decreases your routing density. So you have to space cells further apart and area increases.

I didn't say anything about G8x/G9x/... vs competition. (Let alone anything about performance which is architecture related.) But if you must: G80 was 9 months earlier than R600. G84 and G86 were on the market before R600. G92 and GT200 were on the market before RV670 and before RV770, if only by a few weeks.

I'm sure their internal roadmaps were more aggressive. They are at all companies, if only to 'encourage' employees to work harder. The problem of Nvidia is that they have been facing the rare competitor that has executed to perfection with an architecture that's simply more area efficient.

Macht beim Fettgedruckten Halt. Er hat IMHO zu 100% recht und deshalb mecker ich auch ueber ihre Strategie der letzten paar Jahre.

As for the via's: that's much easier to fix than channel length variability. In that same article, TSMC was quoted as saying it was a teething problem that was solved later. I don't find that very hard to accept.

Bitte schoen das eigentliche Problem von 40G.

http://forum.beyond3d.com/showpost.php?p=1397356&postcount=1642

***edit: on 2nd thought ich hoffe Charlie hat hier in meiner Debatte mit XMAN nicht zu schlampig mitgelesen...http://forum.beyond3d.com/showpost.php?p=1394065&postcount=1290
...wenn ja war es durchaus nicht absichtlich.

Bucklew
2010-02-21, 19:25:03
Daran ist NVIDIA der erste und letzte der daran unschuldig ist. Als AMD ATI aufnahm versuchten die ATI Kerle NV's Taktiken zu erklaeren, aber sie wollten ihnen nicht glauben das bis zu dem Punkt die Zusammenarbeit zwischen AMD und NV ausgezeichnet war. Als der Krieg dann weiter ging war AMD mit der bitteren Wahrheit konfrontiert und sie sahen schnell dass man nur mit den gleichen Mitteln auf ihre eigentliche Philosophie reagieren kann.
Natürlich war das Verhältnis vor der Übernahme von ATI zu AMD sehr gut - es ging ja quasi gemeinsam gegen Intel. Der Feind meines Feindes ist mein Freund ;)

Das natürlich zwischen zwei so ähnlichen Firmen ein erbitterter PR-Krieg zwangsläufig stattfinden muss ist logisch. Das Problem ist allerdings, dass AMD in letzter Zeit doch leicht übers Ziel hinausgeschossen ist. Das ein Huddy rumläuft und jedem mit nem Block oder Mikrofon erzählt wie super toll ihr Treiber doch ist (nachdem schon einige Blockbuster auf ATI nichtmal starten wollten), ist natürlich nur das eine und defakto egal - der Fachmann schüttelt den Kopf und die Fanboys echauffieren sich in die eine und in die andere Richtung. Das man aber in Zusammenhang mit Batman AA und den zusätzlichen AA-Funktionen einen riesen PR-Rundumschlag auch in Richtung von Eidos gemacht hat, war sicherlich eher kontraproduktiv im Buisness. Eidos war da wohl nicht amused...

btw: unsere halb-ot diskussion können wir gern per PN weiterführen, wenn da noch interesse besteht, denke aber mal wir haben ansonsten den thread genug vollgespammt und alles wichtige gesagt ;)

y33H@
2010-02-21, 19:31:50
Der übertrieben tessellierten Drache ist ja sogar auf der NV-Folie neben den fps abgebildet. Es wurde also definitiv diese Szene verwendet.Da steht "Dragon, Cobblestone Road Sequence".

http://www.abload.de/thumb/nvidia_fermi_slide_0630q2.jpg (http://www.abload.de/image.php?img=nvidia_fermi_slide_0630q2.jpg)

Ergo wohl Szene in der man über das Kopfsteinplaster hin zum Drachen fliegt?

Gast
2010-02-21, 19:35:45
Da steht "Dragon, Cobblestone Road Sequence".

http://www.abload.de/thumb/nvidia_fermi_slide_0630q2.jpg (http://www.abload.de/image.php?img=nvidia_fermi_slide_0630q2.jpg)

Ergo wohl Szene in der man über das Kopfsteinplaster hin zum Drachen fliegt?

das ist die szene auf dem bild der folie, wo man durch die brücke fliegt.
auch da bricht die 5870 ganz schön ein.

V2.0
2010-02-21, 19:56:15
***edit: uebrigens wen's interessiert GF100 Thread@B3D silent_guy ueber vias und moegliche 40G Probleme.

Was sagte ich vor einigen Seiten zu den Gründen warum die Notwendigkeit für B1 nicht offensichtlich war.

Schlammsau
2010-02-21, 20:03:51
Da steht "Dragon, Cobblestone Road Sequence".

http://www.abload.de/thumb/nvidia_fermi_slide_0630q2.jpg (http://www.abload.de/image.php?img=nvidia_fermi_slide_0630q2.jpg)

Ergo wohl Szene in der man über das Kopfsteinplaster hin zum Drachen fliegt?

Also in Szenen wo extrem, fast schon ausschliesslich, viel tesseliert wird zwischen 40 und 60 Prozent schneller als eine 5870.
Ich bleib bei meinen rund 30% schneller als diese im Schnitt. Eher entäuschend nach einem halben Jahr Verspätung. ATi wird relativ leicht kontern können, mit einer "5890".

Ende März werdet ihr diesen Post rauskramen und mir zustimmen. :biggrin:

Gast
2010-02-21, 20:07:58
Ich bleib bei meinen rund 30% schneller als diese im Schnitt. Eher entäuschend nach einem halben Jahr Verspätung. ATi wird relativ leicht kontern können, mit einer "5890".


Zum Glück geht es nicht nur nach "Leistung", das müsst ihr Ati Fans endlich mal lernen.

Schlammsau
2010-02-21, 20:09:16
Zum Glück geht es nicht nur nach "Leistung", das müsst ihr Ati Fans endlich mal lernen.
Stimmt es geht auch nach dem Preis.

Aber ich bin schon weg hier, spart euch eure Kommentare!

Undertaker
2010-02-21, 20:12:33
Hmm, wieviel Prozent schneller ist die HD5870 als die GTX285? Und wieviele Monate lagen zwischen beiden? ;)

Alles über 30% wäre imho ein gutes Ergebnis, zumal im RV870 bei aller Taktfreudigkeit keine 30% Potential mehr für einen Konter ohne neuen Chip liegen. Die Frage ist, wie schnell man Stückzahlen auf den Markt bekommt. Der reale Zeitabstand zwischen beiden könnte so merklich geringer ausfallen.

Schlammsau
2010-02-21, 20:17:14
Hmm, wieviel Prozent schneller ist die HD5870 als die GTX285? Und wieviele Monate lagen zwischen beiden? ;)

Alles über 30% wäre imho ein gutes Ergebnis, zumal im RV870 bei aller Taktfreudigkeit keine 30% Potential mehr für einen Konter ohne neuen Chip liegen. Die Frage ist, wie schnell man Stückzahlen auf den Markt bekommt. Der reale Zeitabstand zwischen beiden könnte so merklich geringer ausfallen.

Natürlich sind 30% ein guter Wert! Nur wenn ich mir die feuchten Tagträume mancher hier so durchlese, wo von 50-100% gesprochen wird, hab ich nur ein müdes lächeln übrig.

Gast
2010-02-21, 20:17:15
Ende März werdet ihr diesen Post rauskramen und mir zustimmen. :biggrin:

Ich warte auf den Konter, der mindesten 31% schneller. Denn alles unter 31% ist ziemlich enttäuschend nach 6 Monaten!

LovesuckZ

Gast
2010-02-21, 20:25:13
Natürlich sind 30% ein guter Wert! Nur wenn ich mir die feuchten Tagträume mancher hier so durchlese, wo von 50-100% gesprochen wird, hab ich nur ein müdes lächeln übrig.

Zeig uns doch mal wo das jemand behauptet hat.

Bucklew
2010-02-21, 20:31:52
Natürlich sind 30% ein guter Wert! Nur wenn ich mir die feuchten Tagträume mancher hier so durchlese, wo von 50-100% gesprochen wird, hab ich nur ein müdes lächeln übrig.
Angesichts dessen, dass dieser Wert zu >90% noch auf DX9/DX10-Spielen basiert, für die im Endeffekt jede der beiden Karten auch in abnormal hohen Settings flüssig ist (darum gehts doch nunmal bei ner Grafikkarte, oder? ;)), ist das doch ein super Wert. Er wird sich in Zukunft durch die besseren Tessellation-Fähigkeiten von Fermi eher vergrößern - und das ist doch nicht unwichtig, oder?

igg
2010-02-21, 20:34:26
"NVIDIA ARE YOU READY? Check back here on Monday morning at 9:00 a.m. PST for a major announcement!"

http://www.facebook.com/NVIDIA
Weiss man schon worum es sich handeln wird?

Was wurde aus Gemini?

Fetter Fettsack
2010-02-21, 20:42:55
Was wurde aus Gemini?

http://de.wikipedia.org/wiki/Gemini-Programm :freak:

Nein, im Ernst, wäre es nicht sinniger sich völlig auf die Single-GPU Karten zu konzentrieren, um dann bei einem "gelungenen" Auftakt sich ruhigen Gewissens den Dual-GPU Lösungen widmen zu können?

Odal
2010-02-21, 20:50:00
Deshalb kommt morgen schon nvidia: "NVIDIA ARE YOU READY? Check back here on Monday morning at 9:00 a.m. PST for a major announcement!"

http://www.facebook.com/NVIDIA

lol und morgen kommt dann "Its done when its done" oder wie war der Spruch von ATI damals? (R420/R480)

mapel110
2010-02-21, 20:57:01
http://forum.beyond3d.com/showpost.php?p=1397366&postcount=1644
Wenn man die Aussagen so nimmt, dann ergibt ein Hotclock-Takt für die TFs wirklich keinen Sinn.

Und wenn ich mir als Laie eben Supersampling zurecht biege, dass dafür auch die TMUs wesentlich mehr ackern müssen, dann sind die Chancen für RGSSAA bei nvidia wohl gleich Null.
Man verliert den Kampf um SSAA-Performance erst gar nicht, weil man zu ihm gar nicht erscheint. Hoffentlich bleiben wenigstens die Hybriden verfügbar.

Gast
2010-02-21, 21:01:28
Ich warte auf den Konter, der mindesten 31% schneller. Denn alles unter 31% ist ziemlich enttäuschend nach 6 Monaten!

LovesuckZ

Bei der R600-Diskussion warst du es der genau so argumentierte wie Schlammsau heute. Das schöne an Fanboys ist ja das sie sich im Wind drehen wie eine Fahne. Heute

Gast
2010-02-21, 21:09:42
http://forum.beyond3d.com/showpost.php?p=1397366&postcount=1644
Wenn man die Aussagen so nimmt, dann ergibt ein Hotclock-Takt für die TFs wirklich keinen Sinn.

Und wenn ich mir als Laie eben Supersampling zurecht biege, dass dafür auch die TMUs wesentlich mehr ackern müssen, dann sind die Chancen für RGSSAA bei nvidia wohl gleich Null.
Man verliert den Kampf um SSAA-Performance erst gar nicht, weil man zu ihm gar nicht erscheint. Hoffentlich bleiben wenigstens die Hybriden verfügbar.

Um die SSAA-Leistung braucht man sich keine Sorgen machen. SSAA ist immer ein Ebenbild der Leistung ohne SSAA, da einfach nur die gesamten Texel erhöht werden. Er wird nicht überproportional mehr Texelleistung bei SSAA benötigt.

Mehr Sorgen würde ich mir da eher über Filteroptimierungen und dergleichen machen. ~30% schneller als eine 5870 bei min. 20% weniger Texelleistung muss auch irgendwo herkommen.

Gast
2010-02-21, 21:10:11
Bei der R600-Diskussion warst du es der genau so argumentierte wie Schlammsau heute. Das schöne an Fanboys ist ja das sie sich im Wind drehen wie eine Fahne. Heute

Nun, ich warte auf Links. :)

y33H@
2010-02-21, 21:14:52
~30% schneller als eine 5870 bei min. 20% weniger Texelleistung muss auch irgendwo herkommen. Laut NV ist man mit GF100 näher an den theoretischen Werten. Wie viel Prozent Cypress oder GT200 in der Spielepraxis macht, weiß ich aber nicht.

Gast
2010-02-21, 21:19:09
Laut NV ist man mit GF100 näher an den theoretischen Werten. Wie viel Prozent Cypress oder GT200 in der Spielepraxis macht, weiß ich aber nicht.

Man ist schon lange sehr sehr nah am theoretischen Maximum. Texeturfilterung ist simple, da kann man kaum etwas optimieren. Klar das NVs-Marketing das irgendwie zu rechtfertigen versucht, aber ich würde mir da nichts erwähnenswertes erwarten. Vielleicht ist die Cache-Hitrate etwas besser, aber das macht das Kraut nicht fett.

igg
2010-02-21, 21:46:35
morgen um 9 uhr. welche zeitzohne? bei uns um 15 uhr?

Gast
2010-02-21, 21:48:44
morgen um 9 uhr. welche zeitzohne? bei uns um 15 uhr?

15-18 Uhr.

LovesuckZ

mapel110
2010-02-21, 21:49:00
morgen um 9 uhr. welche zeitzohne? bei uns um 15 uhr?
PST
18:00 Abends bei uns

Gast
2010-02-21, 21:56:49
Wenn man sich einige Foren durchliest und sieht, was Leute sich alles für morgen wünschen, dann werden sie wohl ziemlich enttäuscht werden...

LovesuckZ

mapel110
2010-02-21, 22:00:20
Tja, morgen werden wir jedenfalls erfahren, was nvidia unter einem "major announcement" versteht.

deekey777
2010-02-21, 22:07:44
Tja, morgen werden wir jedenfalls erfahren, was nvidia unter einem "major announcement" versteht.
PhysX wird auch über DX11 umgesetzt. :freak: :ulol:

Gast
2010-02-21, 22:14:05
"Fermi kommt Ende Q2." :ulol:

igg
2010-02-21, 22:22:30
physx ueber computeshaders waer doch was

Bucklew
2010-02-21, 23:01:09
Tja, morgen werden wir jedenfalls erfahren, was nvidia unter einem "major announcement" versteht.
Ich denke der Releasetermin wird bekannt gegeben.

igg
2010-02-21, 23:10:07
das waere aber merkwuerdig... nvidias xx11 spiel metro soll ja am 16.3. kommen...

Spasstiger
2010-02-21, 23:17:23
Dann heißts halt, der D3D11-Renderer produziere Fehler, weshalb man die DX11-Unterstützung zu einem späteren Zeitpunkt per Patch nachreicht. ;)

Odal
2010-02-21, 23:17:42
Ich denke der Releasetermin wird bekannt gegeben.
"Fermi kommt Ende Q2." :ulol:


Fermi wurde eingestampft und man bringt gleich den refresh im Q2 ;)

S940
2010-02-21, 23:22:38
Tja, morgen werden wir jedenfalls erfahren, was nvidia unter einem "major announcement" versteht.
Charlie Demerjian wird neuer nV Pressesprecher und veröffentlich sogleich die neuen Standpunkte, (die Punkte in Klammern werden natürlich nicht erwähnt):
a) GF100 ist kühl (im neuen Testcenter in Alaska),
b) Takt @1Ghz / 2 GHz (im hauseigenen Windkanal bei offenen Hangartoren).
c) Alles wird prächtig in TSMCs 28nm implementierbar sein (kein Wort zu 40).
d) Tessellation ist atemberaubend, überragend und mit PhysiX splittern die vielen kleinen Trümmer umso authentischer.

Fazit: Alles ist ganz toll und es wird noch Besser werden (irgendwann) !

ciao

Alex

P.S. Mit Spannung wird die bahnbrechende neue Artikelserie einen Tag später auf Fudzilla erwartet, bisher ist nur der Titel bekannt: Die Fermi Falle - Fuad packt aus !

LovesuckZ
2010-02-21, 23:27:43
Charlie Demerjian wird neuer nV Pressesprecher und veröffentlich sogleich die neuen Standpunkte, (die Punkte in Klammern werden natürlich nicht erwähnt):
a) GF100 ist kühl (im neuen Testcenter in Alaska),
b) Takt @1Ghz / 2 GHz (im hauseigenen Windkanal bei offenen Hangartoren).
c) Alles wird prächtig in TSMCs 28nm implementierbar sein (kein Wort zu 40).
d) Tessellation ist atemberaubend, überragend und mit PhysiX splittern die vielen kleinen Trümmer umso authentischer.

Fazit: Alles ist ganz toll und es wird noch Besser werden (irgendwann) !

ciao

Alex

P.S. Mit Spannung wird die bahnbrechende neue Artikelserie einen Tag später auf Fudzilla erwartet, bisher ist nur der Titel bekannt: Die Fermi Falle - Fuad packt aus !

Verdammt... Du könntest recht haben... :eek:

It's OK, I will try to have a bigger Nvidia announcement on Monday. They keep surprising me.

http://www.semiaccurate.com/forums/showpost.php?p=28433&postcount=236

Das ist, wahrscheinlich, die beste Pre-Launch Phase in der Geschichte der GPUs. ;D

Gestrandet
2010-02-21, 23:32:15
Ich denke der Releasetermin wird bekannt gegeben.
Denk kennen wir doch schon eeeeeewig - Dienstag! :biggrin:

mapel110
2010-02-21, 23:45:55
http://www.semiaccurate.com/forums/showpost.php?p=28473&postcount=267
Jetzt hab ich mich doch glatt auch dort mal registiert. Eine Frage hätte ich ja gerne von ihm beantwortet. Bin ja mal gespannt. :)

Unterhaltsam ist diese Prelaunch-Phase allemal. Nur für meinen Geschmack etwas zu lang. ^^

Aquaschaf
2010-02-21, 23:52:04
Unterhaltsam ist diese Prelaunch-Phase allemal. Nur für meinen Geschmack etwas zu lang. ^^

Naja, das Kaffeesatzlesen zu Yields und Fertigungsproblemen ist aus meiner Sicht der bisherige Tiefpunkt an Prelaunch-Spekulationen. Es gab schon interessantere Zyklen :)

LovesuckZ
2010-02-21, 23:56:31
Naja, das Kaffeesatzlesen zu Yields und Fertigungsproblemen ist aus meiner Sicht der bisherige Tiefpunkt an Prelaunch-Spekulationen. Es gab schon interessantere Zyklen :)

Errinnert ein bisschen an die Füllfolgen von Serien. Da passiert auch nie irgendwas wichtiges und meisten wiederholen die sich. :freak:

S940
2010-02-22, 00:47:59
Errinnert ein bisschen an die Füllfolgen von Serien. Da passiert auch nie irgendwas wichtiges und meisten wiederholen die sich. :freak:
Jo, wahrscheinlich gibts morgen nur nen neuen Treiber mit allerersten Fermi Optimierungen und/oder mit irgendwelchen Features, die keinen interessieren :freak:

johnieboy
2010-02-22, 01:02:31
http://www.semiaccurate.com/forums/showpost.php?p=28473&postcount=267
Jetzt hab ich mich doch glatt auch dort mal registiert. Eine Frage hätte ich ja gerne von ihm beantwortet. Bin ja mal gespannt. :)


na dann noch viel Spaß :ugly:

ich hab mich auch kürzlich angemeldet und ne einfache harmlose Frage gestellt.

Ob sich Charlie seiner Quellen 100% sicher ist.

Was dann pasiert ist ist einfach ohne Worte http://freesmileys.smiliesuche.de/kopf-gegen-wand/banghead.gif (http://www.smiliesuche.de/kopf-gegen-wand/)

Werd noch genau einen post dort Verfassen und dann bin raus dort, hätte nicht gedacht das dort soviele gestörte rumlaufen, speziell auch Admins und Moderatoren.
("Cooper" der sich offenbar für Gott hält und "Grandma" die von sich nur in der 3. Person spricht....)

LovesuckZ
2010-02-22, 01:07:08
na dann noch viel Spaß :ugly:

ich hab mich auch kürzlich angemeldet und ne einfache harmlose Frage gestellt.

Ob sich Charlie seiner Quellen 100% sicher ist.

Was dann pasiert ist ist einfach ohne Worte http://freesmileys.smiliesuche.de/kopf-gegen-wand/banghead.gif (http://www.smiliesuche.de/kopf-gegen-wand/)

Werd noch genau einen post dort Verfassen und dann bin raus dort, hätte nicht gedacht das dort soviele gestörte rumlaufen, speziell auch Admins und Moderatoren.
("Cooper" der sich offenbar für Gott hält und "Grandma" die von sich nur in der 3. Person spricht....)

Was erwartest du von einem Forum, dass primär mit dem Bashen von nVidia beschäftigt ist und deren Member einen Typen anhimmeln, der primär damit beschäftigt ist nVidia zu bashen?
Ehrlich, dass Forum ist erbärmlich. Die Leute sind entweder voll verblendet oder Trolle, die das alles spielen. Ein Mittelding gibt es nicht...
Man kann nur hoffen, dass Charlie so richtig auf die Fresse fliegt. Dann ist dieser Personenkult schneller beendet als die Seite schließen kann.

/edit: Ich wette, dass nVidia morgen verkünden wird, dass sie am Ende vom März eine Release-Lan-Party für GF100 geben. Das selbe haben sie auch mit dem NV40 getan.

johnieboy
2010-02-22, 01:42:24
Charlie gets paid by AMD. You still haven't read that yet?
But I still want to know why he doesn't mention the dual fermi coming up.

Du willst wohl den Rekord im "am schnellsten gebannten User" gewinnen was :ugly:

Gast
2010-02-22, 01:57:54
Du willst wohl den Rekord im "am schnellsten gebannten User" gewinnen was :ugly:

ROFL. Schon geschehen.

http://s7b.directupload.net/images/100222/lehqbakl.png (http://www.directupload.net)

Ailuros
2010-02-22, 05:51:11
ROFL. Schon geschehen.

http://s7b.directupload.net/images/100222/lehqbakl.png (http://www.directupload.net)

Mapel was war Deine Frage nochmal genau? Du hast eigentlich glueck dass Du nicht gleich gebannt wurdest. Wie gesagt das Forum mit der besten "Demokratie" auf dem Netz. Jegliche Meinung ist erlaubt wenn sie sich zu 100% mit Charlie's deckt. Wenn man Glueck hat darf man sogar den Aermel seines Mantels kuessen und wenn man schoen brav ihn 50x Mal am Tag beweiraeuchert hat man gute Chancen in die Sekte aufgenommen zu werden :D

Ihr glaubt mir ja nicht wenn ich etwas sage; dann muesst Ihr es wohl erster Hand selber erleben.

Was erwartest du von einem Forum, dass primär mit dem Bashen von nVidia beschäftigt ist und deren Member einen Typen anhimmeln, der primär damit beschäftigt ist nVidia zu bashen?
Ehrlich, dass Forum ist erbärmlich. Die Leute sind entweder voll verblendet oder Trolle, die das alles spielen. Ein Mittelding gibt es nicht...
Man kann nur hoffen, dass Charlie so richtig auf die Fresse fliegt. Dann ist dieser Personenkult schneller beendet als die Seite schließen kann.

/edit: Ich wette, dass nVidia morgen verkünden wird, dass sie am Ende vom März eine Release-Lan-Party für GF100 geben. Das selbe haben sie auch mit dem NV40 getan.


Uhmmm er weiss sich zu drehen und zu wenden. Was macht Dir genau Hoffnung dass blinde Folger ploetzlich das Licht des Tages sehen werden? Schau her er ist in fast jedem Forum im Gespraech. Egal wie die agenda genau im Hintergrund ist, ist es die beste Werbung die er ueberhaupt haben koennte und wir Deppen machen auch noch mit :wink: :rolleyes: :eek:

Ailuros
2010-02-22, 05:56:32
http://forum.beyond3d.com/showpost.php?p=1397366&postcount=1644
Wenn man die Aussagen so nimmt, dann ergibt ein Hotclock-Takt für die TFs wirklich keinen Sinn.

Die Antwort erklaert nichts Neues sondern stiftet sogar noch fuer Verwirrung da wir uns bis jetzt sicher waren dass ROPs auf core clock laufen. Da traue ich techreport und hardware.fr Redakteuren die echte Engineers befragt haben, schon wohl eher. Es steht zwar nichts weiteres drin als dass TMUs = 1/2 hot clock, aber ich sagte lediglich dass es technisch moeglich ist dass TFs auf hot clock laufen (wobei aber der Stromverbrauch sofort ein weiteres Fragezeichen waere).

Gast
2010-02-22, 06:17:44
Uhmmm er weiss sich zu drehen und zu wenden.

Ähhhm, bei der Sache wieso ihn die Leute überhaupt zuhören, nämlich den Launch von Fermi, hat er genau null mal seine Meinung geändert, mit dieser hat er nämlich jetzt schon seit mehr als 9 monaten einfach nur recht. So nen Gerüchteverbreiter, bei dem die Gerüchte wahr sind, hat halt mehr aufmerksamkeit, auch wenn die technischen Erkärungen fehlerhaft sind...

Menace
2010-02-22, 07:06:45
Auch ich kann mich hier nur wiederholen. Ich würde mir eine ähnlich kritische Äußerungen bei Fuzilla oder gar bei Nvidia selbst wünschen. Was wurde da nicht alles behauptet, warum eine Fake-Karte in die Kamera gehalten wurde? Weil ansonsten AMD zuviel Informationen bekäme...

Wenn ihr wisst, dass das Forum besch*ssen ist, warum meldet ihr euch an? Doch garantiert nur, um etwas Benzin ins Feuer zu schütten. Meldet euch beim nvidia-Forum an und fragt, warum man als möglicher Kunde belogen (fake, Releasetermin) wird. :D

Tststs. Im dieses künstliche Echauffieren.

Ailuros
2010-02-22, 07:06:58
Ähhhm, bei der Sache wieso ihn die Leute überhaupt zuhören, nämlich den Launch von Fermi, hat er genau null mal seine Meinung geändert, mit dieser hat er nämlich jetzt schon seit mehr als 9 monaten einfach nur recht. So nen Gerüchteverbreiter, bei dem die Gerüchte wahr sind, hat halt mehr aufmerksamkeit, auch wenn die technischen Erkärungen fehlerhaft sind...

Charlie ist ausgezeichnet ueber tape outs, metal spins, respins zu berichten. Aus diesen kann man sogar einige zuverlaessige Vorhersagen machen. Wuerde er sich auf das Zeug begrenzen wuerde er auch einiger Kritik entgehen. Wenn ich sage dass er sich weiss zu wenden ist ein sehr gutes Beispiel dafuer die angebliche "sw Tessellation" auf der er schon seit gut 1.5 Jahr herumfranzt.

Bucklew
2010-02-22, 09:48:32
Wenn ich sage dass er sich weiss zu wenden ist ein sehr gutes Beispiel dafuer die angebliche "sw Tessellation" auf der er schon seit gut 1.5 Jahr herumfranzt.
siehe seine letzte "News" ;)

LovesuckZ
2010-02-22, 09:51:59
Wuerde er sich auf das Zeug begrenzen wuerde er auch einiger Kritik entgehen. Wenn ich sage dass er sich weiss zu wenden ist ein sehr gutes Beispiel dafuer die angebliche "sw Tessellation" auf der er schon seit gut 1.5 Jahr herumfranzt.

Er windet sich nicht - er ignoriert einfach die Vergangenheit. :freak:
Anhand der "sw Tessellation" Sache sieht man sehr schön, das er keine InsiderInformationen hat und über kein technisches Hintergrundwissen der GF100-Architektur verfügt. Wer so dermaßen daneben lag, der kann nur mit etwas punkten, dass er abschätzen kann.

igg
2010-02-22, 09:53:19
Kann mal jemand der den Rückblick präsent hat kurz seine Irrtümer und Widersprüche zu sw Tesselation zusammenfassen?

LovesuckZ
2010-02-22, 09:56:54
Kann mal jemand der den Rückblick präsent hat kurz seine Irrtümer und Widersprüche zu sw Tesselation zusammenfassen?

Gerne:
Februar 2010:

GF100/GTX480 was not meant to be a GPU, it was a GPGPU chip pulled into service for graphics when the other plans at Nvidia failed. It is far too math/DP FP heavy to be a good graphics chip, but roping shaders into doing tessellation is the one place where there is synergy.

Mai 2009:

The same should hold true for all DX11 features, ATI has dedicated hardware where applicable. Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.

Eine exakte 180° Drehung von Char-lie. Das was wirklich hervorsticht, ist die fehlende technische Erklärung. Es geht weder hervor, warum es schneller oder langsamer sein sollte. Laut ihm ist eben einfach so...

Botcruscher
2010-02-22, 10:06:04
Das ist, wahrscheinlich, die beste Pre-Launch Phase in der Geschichte der GPUs. ;D

Oder die lächerlichste.:freak: Irgendwann bekommen wir ein Werbevideo im Homeshoppingstyle zu sehen. Bitte, kaufen sie das! Immerhin ist richtig unterhaltsam.;D

Anhand der "sw Tessellation" Sache sieht man sehr schön, das er keine InsiderInformationen hat und über kein technisches Hintergrundwissen der GF100-Architektur verfügt. Wer so dermaßen daneben lag, der kann nur mit etwas punkten, dass er abschätzen kann.

Morgen ist es Software-Tessellation mit Hardwareunterstützung. ;)

Bucklew
2010-02-22, 10:16:49
Eine exakte 180° Drehung von Char-lie. Das was wirklich hervorsticht, ist die fehlende technische Erklärung. Es geht weder hervor, warum es schneller oder langsamer sein sollte. Laut ihm ist eben einfach so...
Das lustigste daran ist doch, dass Tessellation des Fermi angeblich (laut Charlie) ~ doppelt so schnell ist wie beim Cypress. Einen Beispielfall hatte Nvidia ja mit der Heaven-Demo gezeigt, dort lag man bei viel Tessellation um ca. 60% vorne. Warum jetzt laut Charlie die GESAMTE Demo (auch mit den weniger Tessellation-lastigen Szenen) plötzlich 100% schneller sein soll erstaunt dann doch sehr.

Dann müsste Fermi bei normale Szenen nämlich weitaus mehr als 100% schneller als Cypress sein ;)

Gast
2010-02-22, 10:17:29
Gerne:
Februar 2010:


Mai 2009:


Eine exakte 180° Drehung von Char-lie. Das was wirklich hervorsticht, ist die fehlende technische Erklärung. Es geht weder hervor, warum es schneller oder langsamer sein sollte. Laut ihm ist eben einfach so...

Naja dass versteh ich jetzt nicht:

...but roping shaders into doing tessellation is the one place where there is synergy.


...Nvidia has general purpose shaders roped into doing things far less efficiently.


Sagt er nicht "Tesselation wird auf den Shadern betrieben" (= nicht Teselator) und "Einige features (=Tesselation ?) werden auf den Shadern ausgeführt." ???
Wo ist die 180° Drehung ?

Ich persönlich glaube das Charlie mittlerweile schon wüsste wenn seine Behauptungen total daneben liegen würden. Und "too hot" "too slow" sagt er ja auch schon länger ...

LovesuckZ
2010-02-22, 10:25:17
Sagt er nicht "Tesselation wird auf den Shadern betrieben" (= nicht Teselator) und "Einige features (=Tesselation ?) werden auf den Shadern ausgeführt." ???
Wo ist die 180° Drehung ?

Er spricht klar vom "Tessellator", also der zweiten Stage von D3D11. Geht aus seinem Theinq.com Artikel hervor:

In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.

Contrast that with the GT300 approach. There is no dedicated tesselator, and if you , it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.
http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture


Ich persönlich glaube das Charlie mittlerweile schon wüsste wenn seine Behauptungen total daneben liegen würden. Und "too hot" "too slow" sagt er ja auch schon länger ...

Das behaupet doch schon seit dem G80 - mal mit Glück (GT200), mal mit absolutem Pech (GT200b, G80).
Wie gesagt, laut seiner Erklärung ist seine neue Meinung überhaupt nicht möglich.

AnarchX
2010-02-22, 10:34:28
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)

LovesuckZ
2010-02-22, 10:38:59
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)

Kling realistisch und läge auf dem Niveau der GTX260 nach der Preissenkung. Immerhin besser als die 5800U mit > 500€. :rolleyes:

CrazyIvan
2010-02-22, 10:39:13
Hm, 299 US-$ ist ein Wort. Die Frage ist jetzt, ob das einfach nur aggressive Preispolitik ist, oder ob der Preis aufgrund der (mangelhaften) Performance so niedrig angesetzt wurde.
Hätte nicht gedacht, dass GF100 in einer Preisregion einsteigt, die für mich interessant werden könnte.

mboeller
2010-02-22, 10:39:28
Warum jetzt laut Charlie die GESAMTE Demo (auch mit den weniger Tessellation-lastigen Szenen) plötzlich 100% schneller sein soll erstaunt dann doch sehr.


Warum ist das erstaunlich?

Fermi hat eine komplett neue Architektur mit einer IMHO völlig neuen Vertex-Verarbeitung aufgrund der 4-fachen Setup-Engine. Benötigt imho zusätzliche earlyZ ähnliche Verfahren auf Vertex-Ebene (vielleicht sowas wie Delaystreams) damit sich die einzelnen Vertex nicht in die Quere kommen.

Es ist also logisch, das die Treiber bei der Demo auf der CES noch nicht völlig ausgereift waren. Wahrscheinlich sind sie es immer noch nicht.

Die Verbesserung von +60% auf +100% erstaunt mich deshalb nicht. Alles anderes wäre IMHO sogar verwunderlich gewesen.

boxleitnerb
2010-02-22, 10:43:49
del

Botcruscher
2010-02-22, 10:46:04
Immerhin besser als die 5800U mit > 500€. :rolleyes:

Die 480 kommt ja noch... Also nicht Apfel mit Birnen.

Hm, 299 US-$ ist ein Wort. Die Frage ist jetzt, ob das einfach nur aggressive Preispolitik ist, oder ob der Preis aufgrund der (mangelhaften) Performance so niedrig angesetzt wurde.
Hätte nicht gedacht, dass GF100 in einer Preisregion einsteigt, die für mich interessant werden könnte.

Die Antwort kann imo nur beides sein. NV hat nichts zu verschenken und würde es nicht tun. Man müsste nicht aggressiv über den Preis gehen wenn die Geschwindigkeit aggressiv wäre. Ich freue mich schon auf die Kommentare wer den Markt kaputt gemacht hat.^^

V2.0
2010-02-22, 10:46:04
Hm, 299 US-$ ist ein Wort. Die Frage ist jetzt, ob das einfach nur aggressive Preispolitik ist, oder ob der Preis aufgrund der (mangelhaften) Performance so niedrig angesetzt wurde.
Hätte nicht gedacht, dass GF100 in einer Preisregion einsteigt, die für mich interessant werden könnte.

Wann hat NV schon mal einen schnellere Karte billiger verkauft als die Konkurrenz? Meinst Du man entscheidet sich diesen Monsterchip in der einzig massenverfügbaren Version preislich gegen 5850 zu stellen, wenn man nicht muss. Ein 40nm Wafer kostest Geld und selbst die den Konditionen von NV kann man es sich eigentlichn icht leisten bei den Yields dieses Monster zu verschenken, wenn man nicht muss. Geht man nach dem Preis mus eine 5830 min. gleichwertig zur 470 sein.

Tarkin
2010-02-22, 10:48:41
Hm, 299 US-$ ist ein Wort. Die Frage ist jetzt, ob das einfach nur aggressive Preispolitik ist, oder ob der Preis aufgrund der (mangelhaften) Performance so niedrig angesetzt wurde.
Hätte nicht gedacht, dass GF100 in einer Preisregion einsteigt, die für mich interessant werden könnte.

wenn das zutreffend ist, dann kann mal wohl davon ausgehen, dass die Performance wohl eher in der Nähe der 5850 liegt (das würde zur von Charlie proklamierten 480er Leistung von +5% zur 5870 passen). Welchen Grund hätte nvidia sonst, einen so teuren Chip derart billig zu verschenken? Die tun das nicht aus reiner Herzensgüte, sondern weil sie nicht mehr verlangen können - falls sich noch jemand an den r600 erinnert, damals war ATi in dieser besch. Situation.

nVidia wird gehörig Feder lassen wenn sich das bewahrheiten sollte...

Wenn man nicht mal einen 5870er Konkurrenten bis Sommer liefern kann, dann wirds SEHR übel.

Und von "kleinen" DX11 Chips weit und breit keine Spur... so etwas braucht man ja nicht. G92 tuts noch bis ~ Anfang 2011 *kopfschüttel*

LovesuckZ
2010-02-22, 10:50:08
Die 480 kommt ja noch... Also nicht Apfel mit Birnen.

Die GTX280 kostete nach der (zweiten) Preissenkung auch nur noch 449$. nVidia wird nicht nochmal sich von AMD reinlegen lassen. Die werden die Preise der Cypresskarten aufjedenfall senken.


Die Antwort kann imo nur beides sein. NV hat nichts zu verschenken und würde es nicht tun. Man müsste nicht aggressiv über den Preis gehen wenn die Geschwindigkeit aggressiv wäre. Ich freue mich schon auf die Kommentare wer den Markt kaputt gemacht hat.^^

Es gibt Konkurrenz. Es ist egal, ob die nVidia deutlich schneller wäre, wenn eine Vielzahl der Kunden dies nicht als entscheidend genug ansehen. Beispiel: Eine GTX470 ist 15% schneller als die 5870 und nVidia bringt sie für 399$ in den Markt. AMD senkt daraufhin den Preis der 5870 auf 299$. Welche Karte würde der geneigte Interessierte kaufen? Selbst wenn der Brand "Geforce" noch einen so hohen Stellenwert haben sollte, 100$ sind eine Menge Holz.

CrazyIvan
2010-02-22, 10:50:36
Braucht ihr mir nicht zu erzählen. Wollte das nur nicht so explizit ausdrücken. Sonst wird man ja gern mal geflamed hier ;)

Fetter Fettsack
2010-02-22, 10:50:46
Ich denke, dass wenn die GTX470 wirklich ausreichend Leistung aufweist und tatsächlich zu diesem Preis kommt, sich viele ATi Karten Käufer vor Wut über ihre "verfrühte" Investition in diverse Körperteile beißen werden.

Was den Vergleich 5830/GTX470 betrifft: sollte die 5830 nicht eher um die 259$ kosten?

Botcruscher
2010-02-22, 10:55:08
"reinlegen"?! ATi hat in einer Marktwirtschaft gar keine andere Wahl als die Preise zu korrigieren. Balken und die Check-Liste sind nun mal alles.

AMD senkt daraufhin den Preis der 5870 auf 299$. Welche Karte würde der geneigte Interessierte kaufen? Selbst wenn der Brand "Geforce" noch einen so hohen Stellenwert haben sollte, 100$ sind eine Menge Holz.

Markennamen sind wertlos. Im hochpreisigen Retail zählt P/L weil die Käuferschicht hier doch etwas mehr Ahnung hat. Bei 15% Leistung zahlt die Masse nicht 1/3 mehr(mich eingeschlossen). Und ob die Karte grün oder rot ist interessiert nicht, laufen muss es. Der Anteil der treuen "Markenkäufer" ist zu vernachlässigen.

nagus
2010-02-22, 10:55:21
Ich denke, dass wenn die GTX470 wirklich sehr Leistungsstark ist und wirklich zu diesem Preis kommt, sich viele ATi Karten Käufer vor Wut über ihre "verfrühte" Investition in diverse Körperteile beißen werden.

Was den Vergleich 5830/GTX470 betrifft: sollte die 5830 nicht eher um die 259$ kosten?

wenn sich jemand beißt, dann eher die, die ewig auf fermi gewartet haben und erkennen, dass sich das warten nicht gelohnt hat.

LovesuckZ
2010-02-22, 10:56:31
"reinlegen"?! ATi hat in einer Marktwirtschaft gar keine andere Wahl als die Preise zu korrigieren. Balken und die Check-Liste sind nun mal alles.

Und nVidia auch nicht. Es ist eben ein zusammenhängender Kreislauf. Hoffen wir auf Richtigkeit der Nachricht, dann gewinnt jeder. =)

Fetter Fettsack
2010-02-22, 10:57:45
wenn sich jemand beißt, dann eher die, die ewig auf fermi gewartet haben und erkennen, dass sich das warten nicht gelohnt hat.

Warum sollen die sich beißen? Sie bekommen zwar nicht die erhoffte Leistung, dafür aber die Karten günstiger. Ich würde mich da nicht beißen :freak:

Don-Roland
2010-02-22, 10:58:32
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)

Ich schätze in der GTX 470 werden sie anfangs nicht das neueste Stepping sondern die "heißen
Chips" verbauen, denn auf der langsameren Karte könnte man sie etwas kühler betreiben.
Bin schon sehr gespannt auf die ersten Reviews und die Bilder mit den Chipnummern.

Gast
2010-02-22, 10:58:44
Die GTX280 kostete nach der (zweiten) Preissenkung auch nur noch 449$. nVidia wird nicht nochmal sich von AMD reinlegen lassen. Die werden die Preise der Cypresskarten aufjedenfall senken.


In der aktuellen Situation wo beide ihre Nachfrage nicht befriedigen können werden, kann man das durchaus bezweifeln. Eine Preissenkung macht für AMD keinen Sinn wenn die Nachfrage nicht völlig weg bricht. Selbiges gilt für NV: Eine GTX470 unter Wert zu verkaufen macht wohl wenig Sinn wenn man auf absehbare Zeit nicht genügend Karten liefern kann. Ich schließe daraus zwei Dinge: Entweder ist die GTX470 langsamer als die 5870 oder der Preis ist einfach falsch.

AnarchX
2010-02-22, 10:58:55
Man müsste nicht aggressiv über den Preis gehen wenn die Geschwindigkeit aggressiv wäre. Ich freue mich schon auf die Kommentare wer den Markt kaputt gemacht hat.^^
Bis die GTX 470 vielleicht für $299 angeboten wird, haben wir es Ende März.

Mehr als dieser Preis wäre für eine zur 5870 vergleichbaren Leistung imo nicht angemessen, letztere sollte wohl dann auch auf dieses Niveau fallen.

Selbst diese wohl umgerechneten 260€ sind im langfristigen Preis-Leistungs-Trend noch viel zu hoch für die gebotene Leistung.

Ailuros
2010-02-22, 10:59:27
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)

NT Empfehlung auf GTX275 Nivaeu und der Preis ist zwar durchaus willkommen falls er stimmen sollte, aber verzeichnet nichts besonderes was die Leistung betrifft.

James Ryan
2010-02-22, 11:00:36
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)

Diese Meldung deute ich bezüglich Perfomance eher negativ.
Das gleiche Spielchen gabs bei der HD 2900 XT!
Dort wurde ein paar Wochen vor Release auch der Preis auf ~ 8800 GTS/640 Niveau angepasst, entsprechend der Leistung.
Die GTX 470 wird sich wohl leistungsmäßig also ebenfalls auf HD 5850 Niveau bewegen, was eine "etwas" bessere GTX 285 Perfomance bedeuten würden. Das wäre gelinde gesagt "schwach". :frown:
Aber gut, warten wir es ab (was anderes ist man bezüglich Fermi ja eh nicht mehr gewohnt :freak: ).

MfG :cool:

Tarkin
2010-02-22, 11:01:24
Warum sollen die sich beißen? Sie bekommen zwar nicht die erhoffte Leistung, dafür aber die Karten günstiger. Ich würde mich da nicht beißen :freak:

Wie bitte? :rolleyes:

nVidia wird mehr Leistung garantiert nicht günstiger verkaufen als AMD. Da kannst du aber so was von Gift drauf nehmen. (besonders in Anbetracht der höheren Fertigungskosten)

Und falls doch, dann hast du nach spätestens 12 Monaten so viel mehr Kwh auf deiner Stromrechnung, dass es sich nicht ausgezahlt haben wird ;)

V2.0
2010-02-22, 11:03:31
Wie bitte? :rolleyes:

nVidia wird mehr Leistung garantiert nicht günstiger verkaufen als AMD. Da kannst du aber so was von Gift drauf nehmen. (besonders in Anbetracht der höheren Fertigungskosten)

Und falls doch, dann hast du nach spätestens 12 Monaten so viel mehr Kwh auf deiner Stromrechnung, dass es sich nicht ausgezahlt haben wird ;)

Dafür sparst Du Dir den Haartrockenr und Heizkosten. ;D

mboeller
2010-02-22, 11:03:38
Mehr Sorgen würde ich mir da eher über Filteroptimierungen und dergleichen machen. ~30% schneller als eine 5870 bei min. 20% weniger Texelleistung muss auch irgendwo herkommen.

20% weniger? Von was gehst du aus?

850 x 80 = 68 GTexel

625 x 64 = 40 GTexel

=> wenn die 625MHz stimmen beträgt der Vorsprung der HD5870 70%.

Ich hoffe die 625MHz für den TMU-Takt stimmen nicht.

Botcruscher
2010-02-22, 11:05:06
Und nVidia auch nicht. Es ist eben ein zusammenhängender Kreislauf. Hoffen wir auf Richtigkeit der Nachricht, dann gewinnt jeder. =)

Ja. Wie auch immer, ich freue mich über gut Konkurrenz. Die belebt bekanntlich das Geschäft.

Gast
2010-02-22, 11:06:43
20% weniger? Von was gehst du aus?

850 x 80 = 68 GTexel

625 x 64 = 40 GTexel

=> wenn die 625MHz stimmen beträgt der Vorsprung der HD5870 70%.

Ich hoffe die 625MHz für den TMU-Takt stimmen nicht.

Ich ging von gleichen Takt aus. Es sind 20% weniger Einheiten bei Fermi. Wenn man jetzt auch noch den traditionell höheren Takt der TMUs bei AMD betrachtet kommt man schnell auf deutlich höhere Werte, richtig. Deshalb schrieb ich auch "min". Und da stellt sich dann umso mehr die Frage wie NV das zu kompensieren gedenkt. Ich freue mich schon auf die Fanboykriege wegen Flimmer-AF. ;D

Bucklew
2010-02-22, 11:09:47
Warum ist das erstaunlich?
Es ist erstaunlich im Gesamtzusammenhang.

Auf der einen Seite soll Fermi nur ~5% schneller sein, gleichzeitig rennt im im Heaven-Benchmark, auch ohne Tessellation, der Cypress auf und davon. Das passt einfach nicht zusammen.

Hm, 299 US-$ ist ein Wort. Die Frage ist jetzt, ob das einfach nur aggressive Preispolitik ist, oder ob der Preis aufgrund der (mangelhaften) Performance so niedrig angesetzt wurde.
Hätte nicht gedacht, dass GF100 in einer Preisregion einsteigt, die für mich interessant werden könnte.
Aggressive Preispolitik. Eine Grafikkarte ist nicht nur der Chip, das ist auch PCB und die dafür verwendeten Teile usw. Wenn man von Anfang an für diesen Preispunkt kalkuliert hat, um ATI unter Druck zu setzen, ist das kein Problem.

Schlammsau
2010-02-22, 11:15:14
Es ist erstaunlich im Gesamtzusammenhang.

Auf der einen Seite soll Fermi nur ~5% schneller sein, gleichzeitig rennt im im Heaven-Benchmark, auch ohne Tessellation, der Cypress auf und davon. Das passt einfach nicht zusammen.


Aggressive Preispolitik. Eine Grafikkarte ist nicht nur der Chip, das ist auch PCB und die dafür verwendeten Teile usw. Wenn man von Anfang an für diesen Preispunkt kalkuliert hat, um ATI unter Druck zu setzen, ist das kein Problem.

Hört sich jetzt wieder Fanboyhaft an, aber nVidia hat noch nie (meines Wissens nach) mehr Leistung für weniger Geld als die Konkurrenz verkauft. Zumindest nicht beim Launch!

Die Chipgrösse, das mehr an VRAM, das grössere SI sprechen nicht gerade dafür, dass sie die GTX470 gümstiger herstellen können als ATi´s HD5850.
Die Fertigungskosten sollten deutlichst höher liegen als bei der Konkurrenz!

LovesuckZ
2010-02-22, 11:18:03
Hört sich jetzt wieder Fanboyhaft an, aber nVidia hat noch nie (meines Wissens nach) mehr Leistung für weniger Geld als die Konkurrenz verkauft. Zumindest nicht beim Launch!

Sie waren auch seit Jahren nicht nach der Konkurrenz auf dem Markt. :rolleyes:
Die 9800GTX wurde auf 199$ gesenkt, also auf das Level der 4850.


Die Chipgrösse, das mehr an VRAM, das grössere SI sprechen nicht gerade dafür, dass sie die GTX470 gümstiger herstellen können als ATi´s HD5850.
Die Fertigungskosten sollten deutlichst höher liegen al bei der Konkurrenz!

Schon wieder eine Fertigungsdiskussion. Dann wird wird gleich auch noch die Marge erwähnt und der Gewinn, dann sehen wir Quartalszahlen aus dem Jahr 2008...
Eine neue Füllfolge in der Serie "GF100".

Ailuros
2010-02-22, 11:18:27
Wie bitte? :rolleyes:

nVidia wird mehr Leistung garantiert nicht günstiger verkaufen als AMD. Da kannst du aber so was von Gift drauf nehmen.

Kein besonderer Einwand wenn der Preis erstmal stimmt.

Und falls doch, dann hast du nach spätestens 12 Monaten so viel mehr Kwh auf deiner Stromrechnung, dass es sich nicht ausgezahlt haben wird ;)

Wo steht etwas zuverlaessiges fuer den Stromverbrauch der 470?

Gast
2010-02-22, 11:18:30
Aggressive Preispolitik. Eine Grafikkarte ist nicht nur der Chip, das ist auch PCB und die dafür verwendeten Teile usw. Wenn man von Anfang an für diesen Preispunkt kalkuliert hat, um ATI unter Druck zu setzen, ist das kein Problem.

Was für ein Nullargument. Zuerst wird eine Behauptung als Tatsache hingestellt. Das zweite ist auch absoluter Bullshit. Als ob irgend jemand hier unnötig Geld verschwenden würde mit dem PCB. Da wird immer sehr eng kalkuliert, unabhängig vom Verkaufspreis. Ich weiß wovon ich rede. Das PCB ist zudem weitgehend in Stein gemeistert. Denn alle Voraussetzungen werden von Chip selbst bestimmt (SI, Stromverbauch). Sparen kann man da kaum noch.

Botcruscher
2010-02-22, 11:18:35
Wenn die 5850 Richtung 200€ und die 5870 gegen 300 geht passt das schon irgendwie(immer mal von 30% ausgegangen).

Bucklew
2010-02-22, 11:18:52
Hört sich jetzt wieder Fanboyhaft an, aber nVidia hat noch nie (meines Wissens nach) mehr Leistung für weniger Geld als die Konkurrenz verkauft. Zumindest nicht beim Launch!
Richtig, im Link wird aber von der GTX470 gesprochen und die soll ja ungefähr auf dem Niveau der 5870 liegen. Von daher passt es, denn Mehrleistung und teurer wird die 480.

Gast
2010-02-22, 11:19:03
Der Dreieckdurchsatz wird hier als Killerargument schlechthin genommen. Dabei scheint man nicht zu wissen, dass es schon mal eine vergleichbare Situation gab: 9700pro vs 5800 (möglicherweise täusche ich mich und es war X800XT vs 6800 Ultra). Dort hatte die ATI den 2-3x Dreiecksdurchsatz gegenüber der Nvidia, ohne aber letztere ungespitzt in den Boden zu rammen.
Eine GPU muss eben etwas mehr können, als Dreiecke durch die Gegend zu schubsen.

catamaran
2010-02-22, 11:21:13
Sie waren auch seit Jahren nicht nach der Konkurrenz auf dem Markt. :rolleyes:
Die 9800GTX wurde auf 199$ gesenkt, also auf das Level der 4850.

*hust* das war auch kein neuer Chip *hust* :rolleyes:

LovesuckZ
2010-02-22, 11:22:03
Der Dreieckdurchsatz wird hier als Killerargument schlechthin genommen. Dabei scheint man nicht zu wissen, dass es schon mal eine vergleichbare Situation gab: 9700pro vs 5800 (möglicherweise täusche ich mich und es war X800XT vs 6800 Ultra). Dort hatte die ATI den 2-3x Dreiecksdurchsatz gegenüber der Nvidia, ohne aber letztere ungespitzt in den Boden zu rammen.
Eine GPU muss eben etwas mehr können, als Dreiecke durch die Gegend zu schubsen.

Der Dreiecksdurchsatz wird für Tessellation benötigt, weil durch Tessellation wesentlich mehr Dreiecke entstehen. Aber selbst früher war die Geometrie ein Stiefkind, wenn man überlegt wie stark die Pixelshaderleistung ab der GF3 gewachsen ist. nVidia selbst gibt von der FX 5900 bis zur GTX285 eine Steigerung von 3x an, im Gegensatz zu 155x der Pixelshaderleistung...

AnarchX
2010-02-22, 11:22:10
Was für ein Nullargument. Zuerst wird eine Behauptung als Tatsache hingestellt. Das zweite ist auch absoluter Bullshit. Als ob irgend jemand hier unnötig Geld verschwenden würde mit dem PCB. Da wird immer sehr eng kalkuliert, unabhängig vom Verkaufspreis. Ich weiß wovon ich rede. Das PCB ist zudem weitgehend in Stein gemeistert. Denn alle Voraussetzungen werden von Chip selbst bestimmt (SI, Stromverbauch). Sparen kann man da kaum noch.
Bei der 5870/5850 bestand jedenfalls noch Potential nach unten, wie die neuen AIB-Custom-Design zeigen.
Und auch bei der GTX 260 reduzierte man Anfang 2009 erheblich die PCB-Kosten mit einseitiger Speicherbestückung und Reduzierung der Layer.

Bei der GTX 470 wäre denkbar, dass diese Schritt wegen der langen Verzögerung schon hinter verschlossenen Türen passiert sind und sie damit direkt in den Markt kommt.

Gast
2010-02-22, 11:23:13
Der Dreieckdurchsatz wird hier als Killerargument schlechthin genommen. Dabei scheint man nicht zu wissen, dass es schon mal eine vergleichbare Situation gab: 9700pro vs 5800 (möglicherweise täusche ich mich und es war X800XT vs 6800 Ultra). Dort hatte die ATI den 2-3x Dreiecksdurchsatz gegenüber der Nvidia, ohne aber letztere ungespitzt in den Boden zu rammen.
Eine GPU muss eben etwas mehr können, als Dreiecke durch die Gegend zu schubsen.

Erkläre das mal einen Fanboy. Selbst der miserable R600 hatte einen deutlich höheren Dreiecksdurchsatz wie ein G80. Das nützt Fermi höchstens bei Tesslation etwas, aber das war es dann auch schon IMHO.

Bucklew
2010-02-22, 11:23:21
Was für ein Nullargument. Zuerst wird eine Behauptung als Tatsache hingestellt. Das zweite ist auch absoluter Bullshit. Als ob irgend jemand hier unnötig Geld verschwenden würde mit dem PCB. Da wird immer sehr eng kalkuliert, unabhängig vom Verkaufspreis. Ich weiß wovon ich rede. Das PCB ist zudem weitgehend in Stein gemeistert. Denn alle Voraussetzungen werden von Chip selbst bestimmt (SI, Stromverbauch). Sparen kann man da kaum noch.
Wenn man keine Ahnung hat.... :rolleyes:

Natürlich kann man ein PCB bei einer 500$ Karte deutlich hochwertiger auslegen als bei einer 300$ Karte. Das wurde so auch bei den GT200-Karten gemacht, man errinnere sich daran, dass die 65nm-Karte (GTX280) kein Spulenfiepen zeigen, die GTX285 dagegen schon. Es wurde, um auf die Preispolitik von ATI zu reagieren, auch das PCB angepasst und für billiger Produktion entwickelt. Wenn das jetzt von Anfang an geschehen ist, warum sollte der Preis unrealistisch sein?

aylano
2010-02-22, 11:24:28
Ich schätze in der GTX 470 werden sie anfangs nicht das neueste Stepping sondern die "heißen
Chips" verbauen, denn auf der langsameren Karte könnte man sie etwas kühler betreiben.
Bin schon sehr gespannt auf die ersten Reviews und die Bilder mit den Chipnummern.
Das wäre sehr Unklug und zwar aus 2 Gründen.

Wenn Nvidia seine Treusten Kunden, die jetzt schon lange auf Fermi Warten & dann am schnellsten zugreifen wollen, dann mit alten Chips versorgt, kann man damit einige Zukünftige Kunden vertreiben oder verärgern, die dann ihren Frust über Nvidia in den Foren präsent machen.

Dazu entsteht das Image einer Karte bei der Erscheinung und wenn sie da die alten, die wahrscheinlich mehr Stromverbrauch, Chips verkaufen, dann bekommt die Karte ein schlechtes Image, was dann recht lange halten wird, wenn überhaupt.

Besser wäre es später & über Wochen zu verkaufen.

Denn wenn es einer Firma schlecht geht, kann man viel mehr Image kaputt machen als durch ominösen Handlungen noch irgendwas herauszuholen.
Und da kann AMD von früher ein Liedchen siegen.

Odal
2010-02-22, 11:25:33
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)


wieder so eine Sache wo man nicht weiß wie man sie sehn soll.

1. ob da wirklich was dran ist
2. günstiege preise sind ja gut und schön, hinterlassen aber den faden Beigeschmack das sie auf Leistungsfähigkeit schliessen lassen die geringer ausfällt als erwartet
3. andererseits ist der RV870 gemessen an den Releasepreisen des RV770, sowie der nur durchwachsenen Mehrleistung (besonders im Vergleich mit günstigen RV770/790 GT200 / G92) zu hoch angesiedelt, aber das sagte ich ja schon mehrmals

also könnte es zu zwei Fällen führen:

a) der G100 ist ne Lachnummer
b) RV870 muss deutlich nach untenkorrigiert werden und early adaptor beissen sich in den Allerwertesten da sie ziemlich abgezockt wurden (von den Händlern und ATI selbst)

Schlammsau
2010-02-22, 11:25:50
Richtig, im Link wird aber von der GTX470 gesprochen und die soll ja ungefähr auf dem Niveau der 5870 liegen. Von daher passt es, denn Mehrleistung und teurer wird die 480.
Der MSRP spricht aber eher für eine Leistungsklasse leicht über der 5850!

Wie bereits gesagt, auch die GTX470 wird sich mit Sicherheit nicht günstiger fertigen lassen als eine 5870!

Gast
2010-02-22, 11:26:44
Bei der 5870/5850 bestand jedenfalls noch Potential nach unten, wie die neuen AIB-Custom-Design zeigen.
Und auch bei der GTX 260 reduzierte man Anfang 2009 erheblich die PCB-Kosten mit einseitiger Speicherbestückung und Reduzierung der Layer.

Bei der GTX 470 wäre denkbar, dass diese Schritt wegen der langen Verzögerung schon hinter verschlossenen Türen passiert sind und sie damit direkt in den Markt kommt.

Wie sprechen hier aber von Einsparungen im Centbereich. Damit kann man niemals einen $100 niedrigeren Preis erklären.

Bucklew
2010-02-22, 11:28:28
Der MSRP spricht aber eher für eine Leistungsklasse leicht über der 5850!

Wie bereits gesagt, auch die GTX470 wird sich mit Sicherheit nicht günstiger fertigen lassen als eine 5870!
Es geht auch darum Marktanteile von ATI zu klauen, dafür kann man die eine oder andere Million in fehldenen Umsatz investieren.

Gast
2010-02-22, 11:28:31
Wie sprechen hier aber von Einsparungen im Centbereich. Damit kann man niemals einen $100 niedrigeren Preis erklären.

Die AIBs sparen nur deshalb mehr da sie die Custom-Design "inhouse" fertigen.

mapel110
2010-02-22, 11:29:42
https://www.sabrepc.com/p-174-xfx-geforce-gtx-480-2gb-gddr5-pci-express-x16-retail.aspx
679 $ für die 480
Allerdings schon mal falsche VRam-Angabe mit 2GB.

Wie soll ichs nur 10 Tage ohne SemiAccurate-Forum aushalten?! *snüff*
http://www.abload.de/img/semi-banopsf.png

Schlammsau
2010-02-22, 11:30:55
Es geht auch darum Marktanteile von ATI zu klauen, dafür kann man die eine oder andere Million in fehldenen Umsatz investieren.
Das könnten sie auch jetzt schon, wenn sie die Preise der noch aktuellen Generation GTX2xxx nach unten korrigieren würden. Tun sie aber nicht, ein Blick in Geizhals genügt.

Raff
2010-02-22, 11:31:28
Aggressive Preispolitik? Bei den GT200b-Boards führte die Billigtour zu ekligem Spulenpfeifen. Hoffen wir mal, dass Nvidia wenigstens das beachtet hat, wenn sie schon niedrig starten.

MfG,
Raff

AnarchX
2010-02-22, 11:31:39
https://www.sabrepc.com/p-174-xfx-geforce-gtx-480-2gb-gddr5-pci-express-x16-retail.aspx
679 $ für die 480
Allerdings schon mal falsche VRam-Angabe mit 2GB.
Man hat auch 1GiB 512SPs 470er für $499 mit $70 Preisaufschlag im Angebot: https://www.sabrepc.com/search.aspx?SearchTerm=GeForce+GTX+4
:D

Wohl eher um etwas Aufmerksamkeit für den Shop zu bekommen bzw. ein kleiner Scherz.

Das könnten sie auch jetzt schon, wenn sie die Preise der noch aktuellen Generation GTX2xxx nach unten korrigieren würden. Tun sie aber nicht, ein Blick in Geizhals genügt.
Hier geht es wohl eher um D3D11-Marktanteile um damit Druck auf die ISV auszuüben, damit diese entsprechende Features implementieren. Der D3D10-GeForce-Marktanteil ist ohnehin groß genug und die Produktion von GT200b schon lange gedrosselt um die Lager zu leeren.

Bucklew
2010-02-22, 11:32:41
Das könnten sie auch jetzt schon, wenn sie die Preise der noch aktuellen Generation GTX2xxx nach unten korrigieren würden. Tun sie aber nicht, ein Blick in Geizhals genügt.
Dafür fehlt a) das Volumen und b) stehen diese Karten gegenüber den ATI-Karten deutlich schlechter da, was sowohl Leistung als auch Feature angeht.

Schlammsau
2010-02-22, 11:34:55
Dafür fehlt a) das Volumen und b) stehen diese Karten gegenüber den ATI-Karten deutlich schlechter da, was sowohl Leistung als auch Feature angeht.

Muss ich klar verneinen, die HD4000 Serie wird ja nachwievor auch noch verkauft. Wenn nvidia den Preis einer GTX285 auf 200-220€ senken würde, würde sie mit Sicherheit noch den einen oder anderen Abnehmer finden.
Aber nein, die liegt schön brav bei 290€, bei lieferbaren Modellen natürlich!
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX285&v=l&plz=&dist=&pixonoff=on&xf=

Sorry aber da passt was nicht!

Bucklew
2010-02-22, 11:36:55
Muss ich klar verneinen, die HD4000 Serie wird ja nachwievor auch noch verkauft. Wenn nvidia den Preis einer GTX285 auf 200-220€ senken würde, würde sie mit Sicherheit noch abnehmer finden.
Ja, nur gibt es dafür zuwenig Karten, um daraus wirklich einen Vorteil zu ziehen. Um sowas durch zu ziehen, muss man genügend Masse zu habne, um jedem zu dem Preis ne Karte in die Hand zu drücken - gibt es aber nimmer.

Schlammsau
2010-02-22, 11:38:50
Ja, nur gibt es dafür zuwenig Karten, um daraus wirklich einen Vorteil zu ziehen. Um sowas durch zu ziehen, muss man genügend Masse zu habne, um jedem zu dem Preis ne Karte in die Hand zu drücken - gibt es aber nimmer.

Meinst du eine GTX470 wird zum Release in Massen verfügbar sein? Das glaub ich nicht!

CrazyIvan
2010-02-22, 11:40:51
OT:
Ist die korrekte Verwendung der Wörter "wie" und "als" für Muttersprachler heutzutage wirklich so schwer???
http://www.wie-als.de/

Tarkin
2010-02-22, 11:41:17
Kein besonderer Einwand wenn der Preis erstmal stimmt.



Wo steht etwas zuverlaessiges fuer den Stromverbrauch der 470?

Zugegeben - wenn der Preis der Leistung entspricht, dann ist nichts dagegen einzuwenden.

Allerdings hätten sich viele User (und nicht nur die) von einem 3Mrd. Transistor-Monster etwas mehr erwartet. Und nvidias PR hat auch alles getan um diesen Eindruck zu erwecken. Offensichtlich stimmt es: Marketing und Engineering ist bei Nvidia komplett "entkoppelt".... die leben in zwei verschiedenen Welten. Das wird ein PR-Desater wenn 470 nicht oder nur wenig schneller ist als 5850! Ganz zu schweigen von den sicher nicht freundlichen Reaktionen in der Community...

Und was den Verbrauch angeht, der wird wohl kaum unter einer 5850er liegen - kann ich mir beim besten Willen nicht vorstellen. Das würde gegen alles sprechen was man in den letzten Monaten zu dem Thema gehört hat. Und nvidia hat selber zugegeben, dass Fermi "hungrig" wird/ist (wenn ich mich nicht täusche) außerdem gibts offizielle TDP Angaben zu den Fermi Tesla Karten.

Gast
2010-02-22, 11:44:12
wieder so eine Sache wo man nicht weiß wie man sie sehn soll.

1. ob da wirklich was dran ist
2. günstiege preise sind ja gut und schön, hinterlassen aber den faden Beigeschmack das sie auf Leistungsfähigkeit schliessen lassen die geringer ausfällt als erwartet
3. andererseits ist der RV870 gemessen an den Releasepreisen des RV770, sowie der nur durchwachsenen Mehrleistung (besonders im Vergleich mit günstigen RV770/790 GT200 / G92) zu hoch angesiedelt, aber das sagte ich ja schon mehrmals

also könnte es zu zwei Fällen führen:

a) der G100 ist ne Lachnummer
b) RV870 muss deutlich nach untenkorrigiert werden und early adaptor beissen sich in den Allerwertesten da sie ziemlich abgezockt wurden (von den Händlern und ATI selbst)

zu Punkt 3: Warum durchwachsene Mehrleistung - mittlerweile leicht bessere Performance als GTX295... Imo wurde dem Cypress in diesem Forum diese Leistung vor seinem Release nicht zugetraut. Von daher würde es mich auch nicht wundern, wenn sich Fermi nicht deutlich von 5850/5870 absetzen kann, da beim G80 die 8800GTX zuerst auch "nur" so permormant war wie eine GX2. Ob dies dann eine Enttäuschung wäre, muß jeder für sich selbst entscheiden, allerdings kristalisiert sich wohl heraus, dass Cypress doch eine sehr gute Single(!)-GPU darstellt.
Und zu Punkt b): Die schnellste Grafikkarte hat schon immer unverhältmäßig viel gekostet - daher empfinde ich die HD5870 in anbetracht der schlechten Verfügbarkeit, noch als günstig.

LovesuckZ
2010-02-22, 11:47:26
zu Punkt 3: Warum durchwachsene Mehrleistung - mittlerweile leicht bessere Performance als GTX295... Imo wurde dem Cypress in diesem Forum diese Leistung vor seinem Release nicht zugetraut. Von daher würde es mich auch nicht wundern, wenn sich Fermi nicht deutlich von 5850/5870 absetzen kann, da beim G80 die 8800GTX zuerst auch "nur" so permormant war wie eine GX2.

Was? (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet) Die performante vom Startweg deutlich besser. Cypress und GT280 lagen in vielen, verdammt vielen Settings unter den X2 Karten. Bitte nicht den Ruf der 8800GTX verunreihnigen!

Bucklew
2010-02-22, 11:48:34
Meinst du eine GTX470 wird zum Release in Massen verfügbar sein? Das glaub ich nicht!
Werden wir in wenigen Wochen wissen ;)

Gast
2010-02-22, 11:50:07
Also wenn sich dieser Preis für die GTX470 bestätigen sollte, gibt es für mich eigentlich nur 2 logische Gründe:

1. Leistung passt nicht
2. Preisspeku ist BS

Eine GTX470 mit einer Leistung über HD5870 Niveau + einen besseren Preis als diese, ist aber nur eine fanboyisches Wunschdenken und fernab der Realität.

Bucklew
2010-02-22, 12:01:13
Eine GTX470 mit einer Leistung über HD5870 Niveau + einen besseren Preis als diese, ist aber nur eine fanboyisches Wunschdenken und fernab der Realität.
Die GTX470 wird genau die HD5870 angreifen. Das nur reinleistungsmäßig zu machen und nicht preislich ist ziemlich dumm.

Errinnern wir uns an die HD4000-Reihe. Das einzig neue war ja, dass die Karten deutlich billiger als vorher angeboten wurden. Leistungsmäßig waren sie ungefähr im selben Abstand wie die Generationen vorher.

Mit einer GTX470 auf Niveau einer 5870 (leistungsmäßig) und relativ günstig, würde man sehr, sehr gute Reviews kassieren. Das ist Nvidia die paar Millionen sicher wert, Geld macht man eh mit dem Mainstream (s. aktuelle Quartalszahlen).

LovesuckZ
2010-02-22, 12:04:37
Also wenn sich dieser Preis für die GTX470 bestätigen sollte, gibt es für mich eigentlich nur 2 logische Gründe:

1. Leistung passt nicht
2. Preisspeku ist BS

Eine GTX470 mit einer Leistung über HD5870 Niveau + einen besseren Preis als diese, ist aber nur eine fanboyisches Wunschdenken und fernab der Realität.

nVidia setzte den Preis einer GTX260 auf 329$ (oder 339$) herunter und lag somit nur nur knapp über den der 4870 mit 512mb.
Warum Leute annehmen, dass AMD den Preis nicht senken wird, ist mir schleiferhaft. Sie haben die Karten im Markt und sind schon wesentlich länger in Produktion. Eine Preissenkung wird sehr viel Druck auf nVidia ausüben, wenn sie für 399$ starten würden.

S940
2010-02-22, 12:07:42
Wie soll ichs nur 10 Tage ohne SemiAccurate-Forum aushalten?! *snüff*
http://www.abload.de/img/semi-banopsf.png
Lol, bist ja auch ein Böser .... einfach da hinschreiben woher das Geld kommt ^^

Originally Posted by mapel110 http://www.semiaccurate.com/forums/images/buttons/viewpost.gif (http://www.semiaccurate.com/forums/showthread.php?p=28495#post28495)
Charlie gets paid by AMD. You still haven't read that yet?
Helle sind die Cops dort aber nicht, dein Ursprungsposting wurde editiert, aber das Zitat bei nem anderen nicht ...

mapel110
2010-02-22, 12:08:49
Derzeit siehts doch bei ATI so aus.
130 € 5770
250 € 5850
350 € 5870

Die 5830 muss jetzt zwischen 5770 und 5850. Da kann ATI nicht so tief runter, dass die 5830 nahe an die 5770 kommt.

Gast
2010-02-22, 12:09:35
http://www.gamestar.de/hardware/news/grafikkarten/2312855/nvidia_geforce_gtx_480.html

Wenn das stimmt, dann ist die neue GF einfach nur ein Fail.
5% schneller bei deutlich höherer Verlustleistung und damit höherer Lautstärke?
EPIC FAIL

Natürlich nur, wenn das mit den 5% stimmt. :)
Gruß

LovesuckZ
2010-02-22, 12:10:47
Derzeit siehts doch bei ATI so aus.
130 € 5770
250 € 5850
350 € 5870

Die 5830 muss jetzt zwischen 5770 und 5850. Da kann ATI nicht so tief runter, dass die 5830 nahe an die 5770 kommt.

Bei der schlechten Verfügbarkeit der 5850 kann es auch sein, dass diese Ausläuft und langfristig durch die 5830 ersetzt wird. Somit kann die 5870 den Spot der 5850 besetzen und eine "5890" den der heutigen 5870. Die 5850 kommt der 5870 einfach viel zu nahe. Potentielle Käufer könnten sich daher entweder für die 5850 oder GTX470 entscheiden. Das macht die 5870 überflüssig.

Ailuros
2010-02-22, 12:11:25
Zugegeben - wenn der Preis der Leistung entspricht, dann ist nichts dagegen einzuwenden.

Allerdings hätten sich viele User (und nicht nur die) von einem 3Mrd. Transistor-Monster etwas mehr erwartet. Und nvidias PR hat auch alles getan um diesen Eindruck zu erwecken. Offensichtlich stimmt es: Marketing und Engineering ist bei Nvidia komplett "entkoppelt".... die leben in zwei verschiedenen Welten. Das wird ein PR-Desater wenn 470 nicht oder nur wenig schneller ist als 5850! Ganz zu schweigen von den sicher nicht freundlichen Reaktionen in der Community...

Ich hab persoenlich nie ueber das Preis-/Leistungs-Verhaeltnis einer 5850 gemeckert. Ganz im Gegenteil diejenigen die von durchschnittlicher Uebertaktung nicht abscheuen, erreichen leicht fast 5870 Leistung mit einem ziemlich leckerem Preis und dabei ist es mir dann auch scheissegal ob das Ding 2.15 Mrd. Transistoren traegt oder mehr.

Was die 470 betrifft, will ich trotzdem abwarten wie sie erstmal genau aussieht was die Spezifikationen betrifft und dann natuerlich auch den Preis. Ich halte mich lieber konservativ bis ich ueber etwas vorzeitig Schlussfolgerungen ziehe bis gesicherte Daten in der Hand liegen.

Und was den Verbrauch angeht, der wird wohl kaum unter einer 5850er liegen - kann ich mir beim besten Willen nicht vorstellen. Das würde gegen alles sprechen was man in den letzten Monaten zu dem Thema gehört hat. Und nvidia hat selber zugegeben, dass Fermi "hungrig" wird/ist (wenn ich mich nicht täusche) außerdem gibts offizielle TDP Angaben zu den Fermi Tesla Karten.

Ueble Falle in Die Du Dich da herein laesst. Die C2070 mit bis zu 1.4GHz und 6GB GDDR5 soll nach NV selber noch auf dem 225W Bereich liegen. Die 470 wird IMHO weder auf 1.4GHz hot clock takten noch selbst in der Naehe von 3GB Speicher haben, von durchaus laecherlichen 6GB schon gar nicht die Rede. Ich hab vor Seiten sogar einen AMD engineer aus dem B3D Forum zitiert der Anhand der Speicherspezifikationen fuer die 6GB ca. 20W Stromverbrauch einschaetzt. Rechne es Dir selber aus.

AnarchX
2010-02-22, 12:13:12
Wenn die 550W Empfehlung stimmt, dann liegt man im Bereich GTX275/285, was doch etwas oberhalb einer 5850 ist.

derguru
2010-02-22, 12:13:21
Also wenn sich dieser Preis für die GTX470 bestätigen sollte, gibt es für mich eigentlich nur 2 logische Gründe:

1. Leistung passt nicht
2. Preisspeku ist BS

Eine GTX470 mit einer Leistung über HD5870 Niveau + einen besseren Preis als diese, ist aber nur eine fanboyisches Wunschdenken und fernab der Realität.
dito

Gast
2010-02-22, 12:15:18
Wunderbar das ihr mich mit euren Beiträgen gleich bestätigt. Ich sage ja fanboyisches Wunschdenken, aber was anderes hätte ich von euch beiden auch nicht erwartet.

Ich lese hier ständig mit und mir ist schon aufgefallen, dass ihr bereit seit jedes Gerücht als umunstößliche Wahrheit hinzunehmen, allerdings nur wenn es positiv für NV ist.

Die Möglichkeit, dass die Karte einfach nicht schnell genug ist um mehr zu verlangen, kommt euch ja garnicht in den Sinn. Ich für meinen Teil schließe auf jeden Fall kein Szenario aus, nur weil es sich nicht mit meinen Vorstellungen decken würde.

Tarkin
2010-02-22, 12:18:39
Ueble Falle in Die Du Dich da herein laesst. Die C2070 mit bis zu 1.4GHz und 6GB GDDR5 soll nach NV selber noch auf dem 225W Bereich liegen. Die 470 wird IMHO weder auf 1.4GHz hot clock takten noch selbst in der Naehe von 3GB Speicher haben, von durchaus laecherlichen 6GB schon gar nicht die Rede. Ich hab vor Seiten sogar einen AMD engineer aus dem B3D Forum zitiert der Anhand der Speicherspezifikationen fuer die 6GB ca. 20W Stromverbrauch einschaetzt. Rechne es Dir selber aus.

Ich würde sagen es ist ein Ding der Unmöglichkeit, dass die 470er auch nur in die Nähe einer 5850 kommt was Leistungsaufnahme betrifft.

http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php

Ich schätze die 470 benötigt in diesem Vergleich an die 60W mehr ... da trau ich mich sogar wetten ;)

PS: Verbrauch der 5850er ist geradezu fantastisch niedrig!

LovesuckZ
2010-02-22, 12:20:04
Wenn die 550W Empfehlung stimmt, dann liegt man im Bereich GTX275/285, was doch etwas oberhalb einer 5850 ist.

Die GTX470 wird auch nicht mit der 5850 konkurrieren. Damit wäre man lächerliche 15% schneller als die GTX285...(!)

Gast
2010-02-22, 12:22:13
Warum Leute annehmen, dass AMD den Preis nicht senken wird, ist mir schleiferhaft. Sie haben die Karten im Markt und sind schon wesentlich länger in Produktion.

Dir ist es schleierhaft warum AMD die Preise nicht senken sollte wenn man selbst zu den aktuellen Preise zu wenige Chips liefern kann?

***edit von mir: beim naechsten Mal beschwer Dich gerne ueber unerwartet strenge Massnahmen.

Ailuros
2010-02-22, 12:22:18
http://forum.beyond3d.com/showpost.php?p=1397629&postcount=1706

Hahahahaaaaaaaaa ;D

http://images.hardwareinfo.net/news/Nvidia_Fermi_prijzen_duiken_op_01.jpg

Ok alle drei haben 512SPs *grunz*, und es gibt 1 oder 2GB Speicher fuer 384bit bzw. 320bit SIs....*wischt sich die Traenen aus den Augen*....

In a separate posting, Shane is confident NVIDIA will announce their launch date for the Fermi cards within the next 12 or so hours which the rumour mill is indicating will be mid to late March. He also feels there may be an availability issue on the horizon with these cards due to the 1 year warranty that NVIDIA gives to its AIBs as opposed to a lot of the AMD cards on the market with 2 year warranties. This will make NV partners reluctant to carry a lot of stock of the cards as they know they'll need to offer 2 year warranties to stay competitive, but have fear of a lot of dead ones coming back to haunt them after the 1 year NV covered warranty period is up.

Woaahhh......:eek:

http://www.tweaktown.com/news/14302/more_details_on_nvidia_fermi_price_psu_requirements_and_more/

LovesuckZ
2010-02-22, 12:23:11
Dir ist es schleierhaft warum AMD die Preise nicht senken sollte wenn man selbst zu den aktuellen Preise zu wenige Chips liefern kann? Immer wieder lustig wie Fanboys simple Tatsachen einfach ausblenden um ihre verblendeten Ansichten irgendwie zu rechtfertigen.

Na, dann warten wir doch einfach ab. :D

Schlammsau
2010-02-22, 12:23:41
nVidia setzte den Preis einer GTX260 auf 329$ (oder 339$) herunter und lag somit nur nur knapp über den der 4870 mit 512mb.
Warum Leute annehmen, dass AMD den Preis nicht senken wird, ist mir schleiferhaft. Sie haben die Karten im Markt und sind schon wesentlich länger in Produktion. Eine Preissenkung wird sehr viel Druck auf nVidia ausüben, wenn sie für 399$ starten würden.
Der Preis ist nicht machbar für nVidia!
Wenn die 470 auf dem Niveau einer 5870 sein sollte, können sie die nicht für 299$ "verschleudern". Die GTX285 hat nen kleineren Die, weniger VRAM und wird für ungefähr das gleiche verkauft. Was meinst du was mit den noch unverkauften GTXen dieser Welt passiert? Werden die dann für 200$ verschenkt?
Angenommen eine 470 kostet beim Launch 299$...eine 5870 würde dann schlagartig auf 270$ fallen. Eine 5850 müsste für rund 220$ den Besitzer wechseln. Ich rede hier von Dollar und nicht €uro! Alles unter der 5850 müsste praktisch verschenkt werden. Das wird nicht passieren, weils nicht finanzierbar ist.

Es gibt nur 2 Möglichkeiten....der UVP ist schlichtweg falsch oder die Performance der 470 ist unter den Erwartungen!

derguru
2010-02-22, 12:24:16
Ich würde sagen es ist ein Ding der Unmöglichkeit, dass die 470er auch nur in die Nähe einer 5850 kommt was Leistungsaufnahme betrifft.

http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php

Ich schätze die 470 benötigt in diesem Vergleich an die 60W mehr ... da trau ich mich sogar wetten ;)

PS: Verbrauch der 5850er ist geradezu fantastisch niedrig!

aber schon merkwürdig das es 37% zu einer 5870 sind,beim furmark:confused:


edit:huch die preise sind aufgetaucht,genauso hab ich es erwartet gehabt.:tongue:

Botcruscher
2010-02-22, 12:27:15
Ok alle drei haben 512SPs *grunz*, und es gibt 1 oder 2GB Speicher fuer 384bit bzw. 320bit SIs....*wischt sich die Traenen aus den Augen*....


Platzhalter in der Datenbank.;D PS: You Save -$70. XD

LovesuckZ
2010-02-22, 12:28:14
Der Preis ist nicht machbar für nVidia!
Wenn die 470 auf dem Niveau einer 5870 sein sollte, können sie die nicht für 299$ "verschleudern". Die GTX285 hat nen kleineren Die, weniger VRAM und wird für ungefähr das gleiche verkauft. Was meinst du was mit den noch unverkauften GTXen dieser Welt passiert? Werden die dann für 200$ verschenkt?

Die Produktion der GT200 Chips wurde von nVidia im letzten Jahr gedrosselt - manche reden ja sogar von EOL. Es wird mit Erscheinen des GF100 kaum noch Karten im Handel geben.
Davon abgesehen hat nVidia GT200 Chips auf GTX260 Karten für ca. 170$ verkauft. Da sollen plötzlich 299$ für einen schlechten Chip eine unüberwindbare Hürde darstellen?


Angenommen eine 470 kostet beim Launch 299$...eine 5870 würde dann schlagartig auf 270$ fallen. Eine 5850 müsste für rund 220$ den Besitzer wechseln. Ich rede hier von Dollar und nicht €uro! Alles unter der 5850 müsste praktisch verschenkt werden. Das wird nicht passieren, weils nicht finanzierbar ist.


Die Dollarpreise sind ohne Steuer. Und AMD tat es mit denr rv770 Karten schon - 199$ und 299$. Also, warum sollten sie es jetzt nicht auch wieder machen?

Schlammsau
2010-02-22, 12:33:16
Die Produktion der GT200 Chips wurde von nVidia im letzten Jahr gedrosselt - manche reden ja sogar von EOL. Es wird mit Erscheinen des GF100 kaum noch Karten im Handel geben.
Davon abgesehen hat nVidia GT200 Chips auf GTX260 Karten für ca. 170$ verkauft. Da sollen plötzlich 299$ eine unüberwindbare Hürde darstellen?
Ja das denke ich, weil ich glaube nVidia hat bei der GTX260 draufgezahlt.
Und mal abgesehen davon wird die GTX285 nicht so schnell vom Markt verschwinden. Wie gesagt DX10 Karten werden auch weiterhin noch verkauft werden.


Die Dollarpreise sind ohne Steuer. Und AMD tat es mit denr rv770 Karten schon - 199$ und 299$. Also, warum sollten sie es jetzt nicht auch wieder machen?
Es geht um die grösse des Dies und den schwierigkeiten in der 40nm Fertigung.
Fermi in all seinen Variationen wird alles andere als ein günstig herzustellender Chip sein.

igg
2010-02-22, 12:39:04
Woaahhh......:eek:
He also feels there may be an availability issue on the horizon with these cards due to the 1 year warranty that NVIDIA gives to its AIBs as opposed to a lot of the AMD cards on the market with 2 year warranties. This will make NV partners reluctant to carry a lot of stock of the cards as they know they'll need to offer 2 year warranties to stay competitive, but have fear of a lot of dead ones coming back to haunt them after the 1 year NV covered warranty period is up.
http://www.tweaktown.com/news/14302/more_details_on_nvidia_fermi_price_psu_requirements_and_more/
Das ist natürlich ein Ding!

Nakai
2010-02-22, 12:40:19
:tongue:

Die Unruhevor dem Sturm...oder wieder nur eine nichtssagende Ankündigung. ;D
Ich geh eh davon aus, dass Fermi ziemlich teuer einsteigt und dann bei besserer Verfügbarkeit relativ schnell fällt.

Ich kann mir bei bestem Willen nicht vorstellen, dass NV Fermi im Spielermarkt lange halten will.


mfg

LovesuckZ
2010-02-22, 12:43:19
Ich kann mir bei bestem Willen nicht vorstellen, dass NV Fermi im Spielermarkt lange halten will.
mfg

Warum nicht? :confused:

Gestrandet
2010-02-22, 12:45:32
Falls das mit der Garantie stimmen sollte, sieht es so aus als wollte NV die Karten gar nicht verkaufen. Sehr strange.

Sefegiru
2010-02-22, 12:49:08
Wenn AMD in die Lage kommt dir Preise senken zu müssen werden sie das auch tun, warum auch nicht? Ich meine selbst wenn sie wider Erwarten in der Leistung nicht so sehr weit weg sind von Fermi (egal welcher Ausführung) so kann man doch über den Preis massiv Druck auf NV ausüben.

Da hat Lovesuckz schon Recht, sie wäre auch dumm wenn sie das nicht nutzen würden als Marktmittel und um Druck zu erzeugen.

Das mit der Garantie wirkt aber doch befremdlich auf mich.

Gast
2010-02-22, 12:49:27
Mit einer GTX470 auf Niveau einer 5870 (leistungsmäßig) und relativ günstig, würde man sehr, sehr gute Reviews kassieren. Das ist Nvidia die paar Millionen sicher wert, Geld macht man eh mit dem Mainstream (s. aktuelle Quartalszahlen).

Bei besserer Leistung (wobei die Mehrleistung unter Meßungenauigkeiten fällt, wenn überhaupt) verlangt man nicht weniger oder gleich viel und schon gar nicht wenn man GRÜN ist, da ja jeder sterbliche dann ohne jeglichen zweifel so oder so zu NV greift. das wurde ja in diesem Beitrag auch schon von vielen als FAKT dargestellt :)
Wegen den paar millionen so kann MS denken, aber an deren Kriegskasse kommt NV noch nicht "ganz" ran. Das ist Blödsinn.
Welcher Mainstream ?

Nakai
2010-02-22, 12:51:09
Warum nicht? :confused:

Weil der Profimarkt mehr abwirft ist, jedenfalls für Fermi. Natürlich bezieht sich das nur darauf, dass Fermi im Spielesektor die Konkurrenz nicht ziemlich hart schlägt.
Wenn Fermi dagegen mehr Leistung liefert als erhofft, dann sollte er nur im höheren Segment antreten. Wenn es wieder wie GT200 vs RV770 läuft, dann gibt es wieder eine Preisschlacht. Bei den derzeitigen spekulierten Problemen bei Fermi sieht das nicht toll aus.

V2.0
2010-02-22, 12:58:16
Gerade nach der Gesichte mit den G8X, ist eine verkürzte Garantie schon arg bedenklich. Kein gutes Zeichen. Wenn NV so arrogant ist, dass sie glauben sich das leisten zu können, dann ist das Management noch weiter von Schuss als man je vermuten durfte.

Gast
2010-02-22, 13:03:55
Wenn man über 70° im Idlle nachdenkt, dann sollte man eher ein 1/2 Jahr in Betracht ziehen :)