Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Coda
2009-12-24, 13:46:40
Da hilft dann treiberseitig nur Supersampling. ATI macht es vor.

Funktioniert halt in D3D10/D3D11-Titeln nicht. Und die nächsten Engines (nächste Konsolengeneration) werden ziemlich sicher alle über D3D11 gehen (auch auf D3D9/10-Hardware).

tombman
2009-12-24, 13:59:32
Wenn man es nicht forcen kann, bleibt es sinnlos.

Gast
2009-12-24, 14:04:48
Oder eine Art MLAA, wobei ich immer noch nicht als Laie geschnallt habe worueber es sich genau diesbezueglich handelt.


Was ist das?

Gast
2009-12-24, 14:05:41
Wenn man es nicht forcen kann, bleibt es sinnlos.

Bei NV gibt es auch die "erweitern"-Option, dann muss das Spiel nur irgendein FSAA unterstützen.

derguru
2009-12-24, 14:08:08
Bei NV gibt es auch die "erweitern"-Option, dann muss das Spiel nur irgendein FSAA unterstützen.
das gilt aber nicht für dx10 oder 11 titel,da bringt das erweitern notting.
das einzige was man unter dx10 und 11 forcieren kann sind die tent modis.

Redneck
2009-12-24, 14:19:54
http://forum.beyond3d.com/showpost.php?p=1372062&postcount=2442

A3 hat Besserung gebracht, aber die Ausbeute an höher getakteten Chips ist wohl unter den Erwartungen geblieben.

/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?

Soll wohl bedeuten das die Chips, die für die gaming Sparte
genutzt werden sollen einen höheren Takt benötigen um konkurrenzfähig zu sein bzw um das eigene performance Target zu erzielen. Mit 1200MHZ scheint man wohl nicht genug bieten zu koennen, was die FPS angeht.
Gruß

Burgard
2009-12-24, 15:16:21
Naja, wenn sich die Geforce nicht wirklich von der 58xx abheben kann, dann hat die Promotion-Abteilung von Nvidia eben etwas mehr zu tun, wobei vielen reicht schon 10% und sind gleichzeitig bereit 100 Euro mehr auszugeben.
Da mach ich mir weniger Sorgen.

Gast
2009-12-24, 15:20:07
Ich glaub da nicht dran, das NV die Preise so mach wie AMD jetzt, können sie garnicht.

Die dicke Karte wird bestimmt wieder 550 €>>> kosten was ganz schön krass ist wenn sie nur 10-30% schneller ist.

crux2005
2009-12-24, 16:05:07
sie ist nur 5% schneller und kostet ab 600E mehr :-(

merkt ihr selber oder?

=Floi=
2009-12-24, 16:13:07
nur 30% sind immerhin ca. so viel wie eine 8800gt fps bringt!

ich bin gespannt, wie das fertige produkt aussehen wird. ;D so heftige spekulationen gab es ja noch nie.

y33H@
2009-12-24, 16:25:00
@ aths

THX!

Burgard
2009-12-24, 16:35:31
nur 30% sind immerhin ca. so viel wie eine 8800gt fps bringt!

ich bin gespannt, wie das fertige produkt aussehen wird. ;D so heftige spekulationen gab es ja noch nie.

bis zu 30%, wenn überhaupt.
Aber spekulieren macht doch spass, oder?:biggrin:

aths
2009-12-25, 11:55:38
Vielleicht auch eine Art Edge Detection.
Ansonsten wäre vielleicht auch das 32x AA auf Basis von 16x(Q) von SLI auf einer Single-Karte möglich, in dem man bei jedem Frame die Sample leicht rotiert, was dann aus BQ-Sicht natürlich sehr sinnfrei wäre.Ich vermute eher 32x CSAA basierend auf 8x oder 16x MSAA.

/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?Sinngemäß: Wir drängen darauf dass die Taktrate angehoben wird, zumindest bei der GeForce-Reihe.

tombman
2009-12-25, 12:13:00
Sinngemäß: Wir drängen darauf dass die Taktrate angehoben wird, zumindest bei der GeForce-Reihe.
Ich würd sagen: Wir richten unser Hauptaugenmerk jetzt verstärkt auf die Taktrate, zumindest bei der Geforce-Reihe

Raff
2009-12-25, 12:28:34
Apropos "32x AA": Es ist davon auszugehen, dass Furby die Hybriden (vorerst?) kickt, oder? Neue Architektur, neue Modi. Die GeForce 8 konnte anfangs auch keine Hybriden darstellen, erst mit den 100er-Treibern ging das wieder. Andererseits hatten die Treiberteams bis zum Launch echt verdammt viel Zeit und wir werden ein derartiges Feature vorfinden ... Ich hoffe schwer, dass Nvidia irgendeine Form des Supersamplings bringt, sonst sind die für mich eh gestorben.

MfG,
Raff

reunion
2009-12-25, 12:52:18
Apropos "32x AA": Es ist davon auszugehen, dass Furby die Hybriden (vorerst?) kickt, oder?

Es ist jedenfalls davon auszugehen das NV für die DX11-Generation die Treibern von Grund auf neu schreibt, ob sie die Hybriden dann wieder integrieren wie bei G80 nachträglich wird man sehen. Aber eigentlich gehe ich von offiziellem SGSSAA aus, nachdem AMD das auch anbietet.

Gast
2009-12-25, 13:00:01
Ich glaub NV interessiert das keinen Meter ob die SGSSAA offiziel haben.

- was war mit MM in SLI= hat jahre gedauert bis die das mal in den Treiber möglich gemacht haben

-DX10.1, sie haben drauf ges***** uns sagten noch DX10.1 brauch keine Sau, jetzt bieten sie es selber an :ugly:

G!ZMo
2009-12-25, 13:03:59
-DX10.1, sie haben drauf ges***** uns sagten noch DX10.1 brauch keine Sau, jetzt bieten sie es selber an :ugly:
Was aber wohl eher eine Entscheidung von den PR-Futzies war, die HW-Engineers wollten IMHO DX10.1 integrieren.

reunion
2009-12-25, 15:35:47
2009: Fermi is the disappointment of the year

Lets continue with Fermi. We were led to believe that it will come in November, then December and early Q1 time. Now its quite obvious that this card won't come before the end of Q1 2010. The way things looks from this perspective, we would be surprised to see serious volumes of Fermi on the market before Q2 2010. At that time ATI might have a counter card, a refreshed Evergreen series but we don’t think that this can beat Fermi, of course if we ever seen Fermi launch.

http://www.fudzilla.com/content/view/16988/1/

Gast
2009-12-25, 15:59:16
2009: Fermi is the disappointment of the year



http://www.fudzilla.com/content/view/16988/1/

Disappointed bin ich, weil ich vor 2 Wochen eine HD 5850 bestellt habe, die angeblich schon im September auf den Markt kam und sie ist nach wie vor als "nicht auf Lager" gekennzeichnet.

reunion
2009-12-25, 16:01:21
Disappointed bin ich, weil ich vor 2 Wochen eine HD 5850 bestellt habe, die angeblich schon im September auf den Markt kam und sie ist nach wie vor als "nicht auf Lager" gekennzeichnet.

Dann würde ich es mal mit einer probieren die als "lagernd" gekennzeichnet ist. :)

Schlammsau
2009-12-25, 16:05:03
Disappointed bin ich, weil ich vor 2 Wochen eine HD 5850 bestellt habe, die angeblich schon im September auf den Markt kam und sie ist nach wie vor als "nicht auf Lager" gekennzeichnet.
:rolleyes: unglaublich, Geizhals ist dir wohl ein Fremdwort!?
http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=5850&v=l&plz=&dist=&pixonoff=on&xf=

B2T ..... wird Fermi ein zweiter R600?
Wenn sich nVidia wirklich noch bis zum Ende des ersten Quartals 10 Zeit nimmt, hat ATi mit Sicherheit schon die nächste Generation in den Startlöchern.

Dural
2009-12-25, 16:35:40
bevor die nächste "generation" kommt sollte mal 40nm etwas besser laufen...

Gast
2009-12-25, 16:43:18
Dann würde ich es mal mit einer probieren die als "lagernd" gekennzeichnet ist. :)

Na, zum Glück waren es auch soviele bis vor ein paar Tagen.
Aber warum sollte man auch nicht vor Weihnachten 100€ mehr als UVP bezahlen. :lol:

Gast
2009-12-25, 16:45:01
B2T ..... wird Fermi ein zweiter R600?
Wenn sich nVidia wirklich noch bis zum Ende des ersten Quartals 10 Zeit nimmt, hat ATi mit Sicherheit schon die nächste Generation in den Startlöchern.

Wieso, zwei tage später kommt doch schon die nächste nVidia Generation!
Ohman, wie kann man nur soviel Schrott schreiben. Als ob AMD innerhalb von 7 Monaten etwas neues bringen wird, nachdem rv870 für 50% Mehrleistung über 15 Monate benötigte.

Gast
2009-12-25, 16:53:29
Wieso, zwei tage später kommt doch schon die nächste nVidia Generation!
Ohman, wie kann man nur soviel Schrott schreiben. Als ob AMD innerhalb von 7 Monaten etwas neues bringen wird, nachdem rv870 für 50% Mehrleistung über 15 Monate benötigte.

Äpfel & Birnen, anyone?


btw: RV770: 19. Juni 08 <--> RV 790: 2. April 09.

...also neuneinhalb Monate. ;-)

Gast
2009-12-25, 17:49:12
Äpfel & Birnen, anyone?


btw: RV770: 19. Juni 08 <--> RV 790: 2. April 09.

...also neuneinhalb Monate. ;-)

Richtig, Äpfel und Birne. Der Typ spricht von "nächste Generation" und nicht alter Mist.

Dural
2009-12-25, 17:53:29
zudem AMD eine neue generation seit R600 erst mal bringen muss, bis jetzt hat man seit R600 höchstens nur überarbeite refresh gesehen... :wink:

HarryHirsch
2009-12-25, 17:59:30
zudem AMD eine neue generation seit R600 erst mal bringen muss, bis jetzt hat man seit R600 höchstens nur überarbeite refresh gesehen... :wink:

Da kannste mal sehen wie viel Potential in dem Design steckt.

Gast
2009-12-25, 18:20:17
etwas mehr Potential in das Treiber team wäre mehr von Nöten, so machen die dinger irgendwie keinen Sinn..mit dem treiber ist der fehler weg und 3 alte wieder drinn...usw usw. einfach unter aller Sau!

Schlammsau
2009-12-25, 18:37:42
Wieso, zwei tage später kommt doch schon die nächste nVidia Generation!
Ohman, wie kann man nur soviel Schrott schreiben. Als ob AMD innerhalb von 7 Monaten etwas neues bringen wird, nachdem rv870 für 50% Mehrleistung über 15 Monate benötigte.

Was meinst den Du, wie lange nV brauchen wird?
Im ersten Quartal 2010 wird Fermi aufschlagen, der mMn auch nur rund 50% schneller sein wird, als eine GTX285.

ATi wird mit einem RV870 Refresh kontern.

Gast
2009-12-25, 18:47:32
jo und mit ihrem Treiber Team.....

Gast
2009-12-25, 18:53:16
Was meinst den Du, wie lange nV brauchen wird?

Was hat die nicht Verfügbarkeit von Cypress zum UVP mit Fermi zu tun? Nichts, richtig.


ATi wird mit einem RV870 Refresh kontern.

Genau, mit einem Refresh. Von dem es noch keinen Tape-Out gibt, noch einen verwendbaren 28nm Prozess. Aber hey, früher glaubten die Leute auch an Magie, Zauberei und sonstige Unsinnigkeiten. Warum auch nicht heute, an Wunder? :lol:

Burgard
2009-12-25, 18:56:05
Was meinst den Du, wie lange nV brauchen wird?
Im ersten Quartal 2010 wird Fermi aufschlagen, der mMn auch nur rund 50% schneller sein wird, als eine GTX285.

ATi wird mit einem RV870 Refresh kontern.

Du meinst eine 5890 (1000/1500), dazu bedarf es aber keinem Refresh, sondern da reicht doch einfach eine Selektion der Chips.

...

In zwei Wochen fängt doch die Messe an, oder?
Spätestens dann sollte sich NV mal bequemen und den Fermi präsentieren mit allem "Drum und Dran".
A3 ist jetzt fertig und sollte Aufschluss über die finalen Spezifikationen geben.

Gast
2009-12-26, 01:14:35
Das chiphell "Geruecht" bezieht sich aber komischerweise auf die im 16/11 pdf erwaehnten Frequenzen. Entweder hat A3 gar nichts Neues auf den Tisch gebracht oder jemand zieht mit alten Daten sich ein Geruecht aus dem Hintern.


Das ist nichts weiteres wie eine Trittbreitnachricht. Die Taktraten sind im Grunde so alt, dass sie eigentlich längst geleaket hätten werden müssen, wenn man Insideinformation hätte. Das hat der Chinese nicht gehabt. Ist genauso vertrauensvoll wie die Benchmarks.

V2.0
2009-12-26, 11:21:38
Genau, mit einem Refresh. Von dem es noch keinen Tape-Out gibt, noch einen verwendbaren 28nm Prozess. Aber hey, früher glaubten die Leute auch an Magie, Zauberei und sonstige Unsinnigkeiten. Warum auch nicht heute, an Wunder? :lol:

RV770 und RV790 - da hat man den Prozess auch nicht gewechselt. Und wenn ATI so etwas plant reicht ein Tape-Out im Januar/Febrauar um zeitgleich mit NV im Laden zu sein.

Wobei die Frage eher sein muss ob ATI überhaupt etwas tun muss und ob Fermi überhauüt an RV870 rankommt.

Schlammsau
2009-12-26, 12:33:03
Wobei die Frage eher sein muss ob ATI überhaupt etwas tun muss und ob Fermi überhauüt an RV870 rankommt.

Ich denke schon, dass Fermi an den RV870 rankommt. Er wird ihn auch sicherlich schlagen.....die Frage ist nur um wieviel % er schneller sein wird!
Ich denke die bereits genannten 15% (Gerücht von 15% schneller als eine 5970) kann man auf die 5870 übertragen. Die GTX380 wird rund 15% schneller sein als die HD5870/2048MB.

ATi wird wenn Fermi released wird, eine 5890 oder XTX oder wiauchimmergenannte Karte releasen, die höchstwahrscheinlich dann auch 2GB VRAM haben, und auch deutlichst höher getaktet sein wird.

Ob das seitens ATi mit einem selektiertem RV870 oder mit einem RV890 passieren wird, kann noch keiner sagen.

Gast
2009-12-26, 12:35:34
RV770 und RV790 - da hat man den Prozess auch nicht gewechselt. Und wenn ATI so etwas plant reicht ein Tape-Out im Januar/Febrauar um zeitgleich mit NV im Laden zu sein.

Wobei die Frage eher sein muss ob ATI überhaupt etwas tun muss und ob Fermi überhauüt an RV870 rankommt.

Stimmt, AMD kommt ja vom Tape-Out zum Launch innerhalb von 2 Monaten. :lol:
Noch nehr Unsinn an diesem zweiten Weihnachtstag auf dem Lager?

Ailuros
2009-12-26, 13:12:45
Ich vermute eher 32x CSAA basierend auf 8x oder 16x MSAA.


G8x/9x/2x0 = single cycle 4xMSAA

Wuerden sie jetzt mit aehnlichen ROP Faehigkeiten auf 16xMSAA steigen, wuerden 4x cycli eine Unmenge an Speicher und Bandbreite fressen.

Natuerlich waere eventuell single cycle 8xMSAA eine Option, aber wenn ich auf die heutigen Evergreen Radeons schiele sehe ich keinen besonderen Grund dazu. Fuer mich reicht es wenn NV es schafft 8xMSAA auf zumindest das gleiche Nivaeu zu bringen wie heutige Radeons (ie das hinzubiegen welches keiner von uns weiss daran schuld ist dass dual cycle 8xMSAA so lahm auf heutigen GFs ist).

Von da ab koennen sie von mir aus x-beliebige coverage samples draufstecken; es frisst ja weder an Speicher noch an Bandbreite wie Multisampling.

Wenn sich B3D nicht geirrt hat braucht eine G80 fuer 16xQ (8xMSAA + 8xCSAA) ungefaehr 20 depth tests. Ich will nicht wissen wie genau 16xMSAA + 16xCSAA auf hypothetischen single cycle 4xMSAA ROPs genau aussieht.

Schlammsau,

AMD's Refresh ist fuer ~Juni zu erwarten. Geruechte sprechen von mehr clusters; ich persoenlich glaube eher an hoehere Frequenzen. Auf jeden Fall aber nichts mit einem sehr grossen Unterschied.

RV770 und RV790 - da hat man den Prozess auch nicht gewechselt. Und wenn ATI so etwas plant reicht ein Tape-Out im Januar/Febrauar um zeitgleich mit NV im Laden zu sein.

Wobei die Frage eher sein muss ob ATI überhaupt etwas tun muss und ob Fermi überhauüt an RV870 rankommt.

Siehe oben. AMD brauchte wieviel Monate von RV770 auf RV790 auf einem komplett problemlosen 55nm Herstellungsprozess @TSMC?

Gast
2009-12-26, 13:15:12
Wobei die Frage eher sein muss ob ATI überhaupt etwas tun muss und ob Fermi überhauüt an RV870 rankommt.

Ich glaube das steht außer Zweifel, wie der geringe Abstand zu G200 zeigt.

Es sei denn natürlich, die im Verhältnis zur Hardware relativ geringe Leistung von RV870 liegt nicht an der Hardware sondern wird absichtlich durch den Treiber zurückgehalten um die Konkurrenz zu täuschen und nach dem Release von Fermi kommt ein "Wundertreiber", der die verlorene Leistung freischaltet :D

Hört sich aber imo reichlich unwahrscheinlich an.

Ailuros
2009-12-26, 13:19:06
Ich glaube das steht außer Zweifel, wie der geringe Abstand zu G200 zeigt.

GF100 ist kein GT200 Refresh. Deshald sind solche Schlussfolgerungen noch total wertlos.

Es sei denn natürlich, die im Verhältnis zur Hardware relativ geringe Leistung von RV870 liegt nicht an der Hardware sondern wird absichtlich durch den Treiber zurückgehalten um die Konkurrenz zu täuschen und nach dem Release von Fermi kommt ein "Wundertreiber", der die verlorene Leistung freischaltet :D

Hört sich aber imo reichlich unwahrscheinlich an.

GF100 Treiber sind momentan auch noch nicht was ich praesentabel nennen wuerde. Deshalb auch nein zum obrigen.

-------------------------------------------------------------------------------

Uebrigens wurde hoechstwahrscheinlich schon erwaehnt:

Donanimhaber.com published a new video interview with Luciano Alibrandi form Nvidia.

Some highlights from video;

Alibrandi said;

- Fermi based GPUs will be fastest solutions in the market. Put up or shut up.
- We are very happy to see internal test results of Fermi. Ja und?
- Fermi architecture developing for every single segment, dual GPU is also possible for Nvidia. Uhmmm ok...
- We are very happy to work with TSMC but also we are always looking for another oppurtinies.

AHA! Wie war das nochmal mit TSMC Jensen? LOL :D
- ION 2 and Tegra 2 are very near to launch. Nichts Neues.

http://vr-zone.com/forums/526529/nvidia-fermi-will-be-fastest-dual-gpu-is-possible-and-we-are-happy-with-tsmc.html

Gast
2009-12-26, 14:21:33
GF100 ist kein GT200 Refresh. Deshald sind solche Schlussfolgerungen noch total wertlos.



Ich meine den Abstand von RV870 zu G200, Fermi sollte selbst wenn es schlecht läuft mindestens 50-70% schneller als G200 sein (mit 8xAA natürlich deutlich mehr), und damit hätte man RV870 locker geschlagen, wenn auch der Vorsprung nicht sonderlich groß wäre.

Gast
2009-12-26, 14:57:05
Ich denke schon, dass Fermi an den RV870 rankommt. Er wird ihn auch sicherlich schlagen.....die Frage ist nur um wieviel % er schneller sein wird!
Ich denke die bereits genannten 15% (Gerücht von 15% schneller als eine 5970) kann man auf die 5870 übertragen. Die GTX380 wird rund 15% schneller sein als die HD5870/2048MB.

ATi wird wenn Fermi released wird, eine 5890 oder XTX oder wiauchimmergenannte Karte releasen, die höchstwahrscheinlich dann auch 2GB VRAM haben, und auch deutlichst höher getaktet sein wird.

Ob das seitens ATi mit einem selektiertem RV870 oder mit einem RV890 passieren wird, kann noch keiner sagen.

vergiß es, wenn die Dinger jetzt schon mit 1000/1300mhz Ram laufen, kannste auf der Rückseite Eier backen.

Helmdingens kannste da komplett vergessen.

Gast
2009-12-26, 15:24:12
Ich meine den Abstand von RV870 zu G200, Fermi sollte selbst wenn es schlecht läuft mindestens 50-70% schneller als G200 sein (mit 8xAA natürlich deutlich mehr), und damit hätte man RV870 locker geschlagen, wenn auch der Vorsprung nicht sonderlich groß wäre.

Nicht unbedingt.

Wenn Fermi nur 550 MHz Basetakt erreicht dann helfen auch die 128 TMUs und 48 ROPs nicht wirklich weiter:

550 x 128 / 80 x 648 = ca. 36% schneller
550 x 48 / 32 x 648 = ca. 27% schneller

Bei den GFLOPs sieht es natürlich wesentlich besser aus, aber da hat schon ATI/AMD mit den RV770 und RV870 gezeigt, das GFLOPs nicht alles sind.

Ergo, ist der Basetakt IMHO wichtiger als der Takt für die ALUs. Wenn Nvidia hier wirklich nicht über 500MHz hinaus kommt wie die Gerüchte mal angedeutet haben kannst du die +50-70% gegenüber GT200 leider vergessen.

Gast
2009-12-26, 15:53:12
Nicht unbedingt.

Wenn Fermi nur 550 MHz Basetakt erreicht dann helfen auch die 128 TMUs und 48 ROPs nicht wirklich weiter:

550 x 128 / 80 x 648 = ca. 36% schneller
550 x 48 / 32 x 648 = ca. 27% schneller

Bei den GFLOPs sieht es natürlich wesentlich besser aus, aber da hat schon ATI/AMD mit den RV770 und RV870 gezeigt, das GFLOPs nicht alles sind.

Ergo, ist der Basetakt IMHO wichtiger als der Takt für die ALUs. Wenn Nvidia hier wirklich nicht über 500MHz hinaus kommt wie die Gerüchte mal angedeutet haben kannst du die +50-70% gegenüber GT200 leider vergessen.

Der Basetakt wird mindesten 600Mhz betragen. Denn er war nie ein Problem. Weder beim G80, beim GT200 oder bei den jetzigen 40 nm Produkten.

numb
2009-12-26, 16:47:25
Steht wohl außer Frage, dass ATi pünktlich zum Fermi-Start eine 5870 XTX/Ultra oder 5890 präsentieren wird - allein schon um nvidia nich die ganze mediale Aufmerksamkeit beim Launch zukommen zu lassen...Nvidia lässt ja Ati auch genug Zeit um sich vorzubereiten (selbst Schuld).

Meiner Meinung nach wird alles, was unter 20% Mehrperformance (GTX 380 vs Radeon 5870) seitens nvidia liegt, von ATi mit ner Takterhöhung und Verdoppelung des VRAMS gekonntert werden...

Bei den Taktferfehlungen die nvidia sich leistet, braucht Ati ja nichtmal einen Refresh um gegenzuhalten...

Gast
2009-12-26, 16:52:51
Ich freu mich schon auf eine 5890. Damit führt man zwar Hemlock in die Unsinnigkeit, aber soviel Weitsicht wird AMD bestimmt nicht haben. :lol:
Ich dachte ja eigentlich, dass man deswegen auf x2 geht - um keine hochgezüchtete Single-GPUs anbieten zu müssen. Aber wem interessiert schon das Geschwätz von gestern.

Gast
2009-12-26, 17:09:19
man geht den weg der x2 damit man keine Riesen dies braucht von hochgezüchtet war keine rede

Gast
2009-12-26, 17:32:07
man geht den weg der x2 damit man keine Riesen dies braucht von hochgezüchtet war keine rede

Natürlich, sonst macht eine x2 0 Sinn. Aber stimmt schon, wer kauft sich nicht für 15% Mehrleistung eine AFR-mGPU-Karte. Man hat ja soviele Vorteile. :lol:

Gestrandet
2009-12-26, 17:58:04
Vielleicht sollte man darüber nachdenken, Gästen das Schreibrecht zu entziehen. Die PR Fuzzis nehmen Überhand.

BlackFog
2009-12-26, 18:10:08
2nd

Don-Roland
2009-12-26, 18:13:38
Ich schätze mit dieser Grafikkarten Generation wird Nvidia ATI nicht mehr einholen können. So gut kann Fermi garnicht werden.
ATI hat schon ausreichend Stückzahl, also ein noch besseres Preis/Leistungsverhältnis als sowiso schon immer.
Und die Leistungskrone wird ATI auch eine Weile behalten dank der HD 5970.

Vielleicht sollte man darüber nachdenken, Gästen das Schreibrecht recht entziehen. Die PR Fuzzis nehmen Überhand.
Dafür würde ich mich auch einsetzen. Ich finde jemand der keine 2 Minuten Zeit hat sich zu registrieren sollte es bleiben lassen hier zu schreiben.

aths
2009-12-26, 18:25:54
Wenn sich B3D nicht geirrt hat braucht eine G80 fuer 16xQ (8xMSAA + 8xCSAA) ungefaehr 20 depth tests. Ich will nicht wissen wie genau 16xMSAA + 16xCSAA auf hypothetischen single cycle 4xMSAA ROPs genau aussieht.Für 16xQ benötigt man, da es auf 8x MSAA basiert, logischerweise 8 depth tests pro Pixel.

AnarchX
2009-12-26, 20:50:31
http://i47.tinypic.com/302xg81.jpg

http://gathering.tweakers.net/forum/list_message/33167499#33167499

mapel110
2009-12-26, 20:53:23
Wirkt auf mich sehr amateurhaft, dieses Diagramm. Aber deckt sich ja zumindest mit den kürzlichen Aussagen, dass nur 1-2 Monate nach Launch bereits die Dual-Chip-Variante kommen soll.

_DrillSarge]I[
2009-12-26, 20:58:14
^^im letzten abschinitt von q2 - "complete 40nm dx11 lineup launched"
WTF? wenn dem so: :facepalm:

AnarchX
2009-12-26, 21:04:15
Das ist das Q3, aber vielleicht meint damit auch schon einen DX11 ION3, sofern diese Roadmap überhaupt echt ist.

Black-Scorpion
2009-12-26, 21:10:24
Die Roadmap ist schon dahingehend optimistisch für Anfang erstes Quartal die GF360/380 anzugeben und am Ende des Quartals die Dual Karte.
Von wann soll die eigentlich sein?
Bis jetzt hat man nichts handfestes oder sind damit nur Pressetermine gemeint?

Gast
2009-12-26, 21:15:05
zu 99,9999999% sicher ein fake

_DrillSarge]I[
2009-12-26, 21:20:17
Das ist das Q3,
ja :D
zu 99,9999999% sicher ein fake
glaub ich auch. allein schon "preparing for fermi 2 architecture launch". was soll das sein? schon wenige monate nachdem fermi1 voll verfügbar ist? ;D

Gestrandet
2009-12-26, 21:22:06
Versteh nit warum ein Mod so einen Käse von neliz hier einschleppt :rolleyes:

Gast
2009-12-26, 21:29:07
Man man wenn ich ständig lese, dass der Fermi so gut nicht sein kann und so könnte ich kotzen. Spätestens seit dem G80 sollten die Meisten wissen, dass nichts unmöglich ist (Ok, manches ist unmöglich aber indem Falle ist es möglich). Lasst euch doch einfach mal überraschen, Nvidia wird schon was Gescheites anbieten...



mfg

AnarchX
2009-12-26, 21:29:59
I[;7737521']
glaub ich auch. allein schon "preparing for fermi 2 architecture launch". was soll das sein? schon wenige monate nachdem fermi1 voll verfügbar ist? ;D
Dass Nvidia öffentliche Architecture Launches/Previews durchführt, wie es auch Intel bei ihren CPUs macht, wäre nicht so abwegig, wenn man noch stärker in die Computing Schiene geht. Fermi 2 in 2011 muss ja nicht grundlegend Neues sein, sondern kann auch nur kleine Änderungen, wie Intels "Tocks" mitbringen.

Versteh nit warum ein Mod so einen Käse von neliz hier einschleppt :rolleyes:
Die Roadmap ist jedenfalls schlüssiger als manch andere Spekulation, die hier gepostet wird, und dass neliz über CJ durchaus an manche Information gelangt, steht außer Frage.

Raff
2009-12-26, 21:32:51
Man man wenn ich ständig lese, dass der Fermi so gut nicht sein kann und so könnte ich kotzen. Spätestens seit dem G80 sollten die Meisten wissen, dass nichts unmöglich ist (Ok, manches ist unmöglich aber indem Falle ist es möglich). Lasst euch doch einfach mal überraschen, Nvidia wird schon was Gescheites anbieten...

"Nvidia hat schon öfter überrascht" oder "Die GF8 ist legendär" sind leider keine Indikatoren für einen Erfolg. Bei Nvidia kochen auch nur Menschlein mit Wasser, da kann auch mal was in die Hose gehen (FX ahoi). Und die aktuelle Informationspolitik schürt nicht gerade Euphorie. Natürlich kann der Retail-Furby trotzdem herrschen, aber Wunder sollte niemand erwarten.

MfG,
Raff

Ailuros
2009-12-26, 21:37:21
Nicht unbedingt.

Wenn Fermi nur 550 MHz Basetakt erreicht dann helfen auch die 128 TMUs und 48 ROPs nicht wirklich weiter:

550 x 128 / 80 x 648 = ca. 36% schneller
550 x 48 / 32 x 648 = ca. 27% schneller

Bei den GFLOPs sieht es natürlich wesentlich besser aus, aber da hat schon ATI/AMD mit den RV770 und RV870 gezeigt, das GFLOPs nicht alles sind.

Ergo, ist der Basetakt IMHO wichtiger als der Takt für die ALUs. Wenn Nvidia hier wirklich nicht über 500MHz hinaus kommt wie die Gerüchte mal angedeutet haben kannst du die +50-70% gegenüber GT200 leider vergessen.

Beide haben ihre eigene Wichtigkeit je nachdem wo die groessere Last in einer Applikation faellt. Wenn es die Core-Frequenz ist die Dir Sorgen macht kann ich Dir schon jetzt sagen dass die 380 garantiert weit ueber 550MHz Core-Takt haben wird.

Und auch bitte genug mit den Milchmaedchen-Rechnungen und den sinnlosen Prozentualen.

Coda
2009-12-26, 21:38:21
Für 16xQ benötigt man, da es auf 8x MSAA basiert, logischerweise 8 depth tests pro Pixel.
16. Es sind 16 Z-Samples, aber nur 8-Color-Samples. Anders geht es nicht.

Ailuros
2009-12-26, 21:42:36
16.

Na dann werdet Euch gefaelligst einig wieviel es letztendes sind. B3D darueber (wie schon erwaehnt):

Depth tests needed for CSAA are 2 for 2x, 4 for 4x, 8 for 8x, 8 for 8xQ, 12 for 16x, and ~20 for 16xQ, but we'll discuss that in the IQ piece.

http://www.beyond3d.com/content/reviews/1/10

Coda
2009-12-26, 21:44:15
Man muss auf jeden Fall für jedes Sample Z testen und speichern, sonst wird die Überdeckung nicht korrekt berücksichtigt. 12 für 16x kann nicht sein. Und für 20 für 16xQ seh ich auch keinen Grund.

CSAA ist MSAA mit einer Indirektion in der Color Storage (16 Samples zeigen auf 8 Farbwerte), sonst nichts. Z wird dabei gar nicht berührt.

Da man Z aber ohnehin mit Abstand am besten komprimieren kann ist das nicht weiter schlimm, dass es 16 Z-Werte sind die gespeichert werden.

_DrillSarge]I[
2009-12-26, 21:44:23
(FX ahoi). Und die aktuelle Informationspolitik schürt nicht gerade Euphorie.
wenns danach geht, müsste gt300 eigentlich voll super werden. bei der gf5 kamen andauernd irgendwelche tollen specs/videos o.ä. raus. ich erinnere mich, 2002/anfang 03 gabs nen promo-video zu stalker (;D) welches auf ner fx lief (angeblich) und man irgendwas von super-duper 64bit rendering und blabla geschwafelt hatte. oder tolle shader demos ("bis zu 27387328 instruktionen pro shader!!!1111") im vorfeld. X-D

Gast
2009-12-26, 22:29:11
jo wir haben alle auf deine 17 Posts gewartet :lol:

Gast
2009-12-26, 22:32:52
Steht wohl außer Frage, dass ATi pünktlich zum Fermi-Start eine 5870 XTX/Ultra oder 5890 präsentieren wird - allein schon um nvidia nich die ganze mediale Aufmerksamkeit beim Launch zukommen zu lassen...Nvidia lässt ja Ati auch genug Zeit um sich vorzubereiten (selbst Schuld).

Meiner Meinung nach wird alles, was unter 20% Mehrperformance (GTX 380 vs Radeon 5870) seitens nvidia liegt, von ATi mit ner Takterhöhung und Verdoppelung des VRAMS gekonntert werden...

Bei den Taktferfehlungen die nvidia sich leistet, braucht Ati ja nichtmal einen Refresh um gegenzuhalten...

wie soll das Ding denn aussehen?
mit 1.30v und 1020 mhz? Und das mit nem Luftkühlerchen...von was träumt ihr Nachts?
Die Ram sind jetzt schon mit 1300 gnadenlos am Ende mit nem bissel mehr gehts jetzt schon rückwärts im Punktesammeln...

Burgard
2009-12-26, 22:46:10
wie soll das Ding denn aussehen?
mit 1.30v und 1020 mhz? Und das mit nem Luftkühlerchen...von was träumt ihr Nachts?
Die Ram sind jetzt schon mit 1300 gnadenlos am Ende mit nem bissel mehr gehts jetzt schon rückwärts im Punktesammeln...
Warum das?
Die meisten OC-Karten laufen zumeist bei ca. 1,2 Volt, plus den neuen GDDR5-Speicher von Samsung, der für 1500 Mhz spezifiziert ist.
Also wo liegt das Problem einer 5890?
Es wird mit Sicherheit auch die Möglichkeit geben, die Karte mit 1 ghz und 1,1 Volt zu bereiben, nur durch Selektion.

LovesuckZ
2009-12-26, 22:49:22
"Nvidia hat schon öfter überrascht" oder "Die GF8 ist legendär" sind leider keine Indikatoren für einen Erfolg. Bei Nvidia kochen auch nur Menschlein mit Wasser, da kann auch mal was in die Hose gehen (FX ahoi). Und die aktuelle Informationspolitik schürt nicht gerade Euphorie. Natürlich kann der Retail-Furby trotzdem herrschen, aber Wunder sollte niemand erwarten.

MfG,
Raff

Naja, war auch das einzige, was in den letzten 6 Jahren in die Hose gegangen ist. Es hat sich mit D3D11 nichts wesentlich geändert und die Stärken der Architektur bleiben weiterhin erhalten. In die Hose geht hier überhaupt nichts, dafür ist Cypress auch viel zu schwach.

Raff
2009-12-26, 22:51:27
Warum das?
Die meisten OC-Karten laufen zumeist bei ca. 1,2 Volt, plus den neuen GDDR5-Speicher von Samsung, der für 1500 Mhz spezifiziert ist.
Also wo liegt das Problem einer 5890?
Es wird mit Sicherheit auch die Möglichkeit geben, die Karte mit 1 ghz und 1,1 Volt zu bereiben, nur durch Selektion.

Ich sehe da auch kein Problem. Die Chips gehen gut, gerade wenn sie mehr Saft bekommen. Die Thermik ist auch kein großes Problem. Eine HD 5890 wäre mit demselben Kühler jedoch ziemlich laut (4+ Sone). Aber da ließe sich vielleicht noch eine Pipe unterbringen und der Lack passt.

Naja, war auch das einzige, was in den letzten 6 Jahren in die Hose gegangen ist. Es hat sich mit D3D11 nichts wesentlich geändert und die Stärken der Architektur bleiben weiterhin erhalten. In die Hose geht hier überhaupt nichts, dafür ist Cypress auch viel zu schwach.

Ich gehe ja auch davon aus, dass Furby ein starkes Teil wird. Die Frage ist nur wie stark genau – und vor allem, wie das Drumherum (Lautstärke, Verbrauch, Features, etc.) aussieht.

MfG,
Raff

Gast
2009-12-26, 22:51:45
Warum das?
Die meisten OC-Karten laufen zumeist bei ca. 1,2 Volt, plus den neuen GDDR5-Speicher von Samsung, der für 1500 Mhz spezifiziert ist.
Also wo liegt das Problem einer 5890?
Es wird mit Sicherheit auch die Möglichkeit geben, die Karte mit 1 ghz und 1,1 Volt zu bereiben, nur durch Selektion.

Genau, Selektion für die 5890 und 5970. Da geht dann das ganze Konzept langsam aber sich den bach runter.

Gestrandet
2009-12-26, 23:35:27
Wenigstens gibt es Chips, unter denen man selektieren kann ;D

Burgard
2009-12-27, 00:09:11
Genau, Selektion für die 5890 und 5970. Da geht dann das ganze Konzept langsam aber sich den bach runter.
Es ist ja auch nur eine Möglichkeit ohne grossen Aufwand eine 5890 auf den Markt zu bekommen.

Eine andere Möglichkeit ist ja die Fertigung durch ein weiteres Tapeout zu verfeinern.
Was NV mit ihrem A3 kann, dass sollte AMD doch auch machen können, allerdings läuft ja deren Produktion schon.

=Floi=
2009-12-27, 01:22:14
selektion ist imho kein so großes problem. es werden ja sowieso alle chips getestet und der rest ist auch vorhanden. die brächten nur ein anderes bios (und eine phase mehr auf dem pcb) und ggf. einen vaporx kühler. Dieser aufwand geradezu verschwindend gering.

aufgrund des geringeren preises (höhere stückzahl) und auch mehr chips pro wafer hat ati hier erhebliche vorteile und warum sollte man sich die oberen (5)% der (cypress-) chips nicht vergolden lassen?!
da hat es nv wesentlich schwerer.

auchtung wortspiel:
der GT300 kann nicht scheitern, da nv auf die mega-flop architektur setzt ;)


das drumherum um den GT300 (kühler, phasen etc.) finde ich auch wichtig. hoffentlich setzt hier nv kompromisslos auf qualität und nicht auf cost reduction!

Burgard
2009-12-27, 10:21:43
das drumherum um den GT300 (kühler, phasen etc.) finde ich auch wichtig. hoffentlich setzt hier nv kompromisslos auf qualität und nicht auf cost reduction!
Ich denke mal, dass NV aus den Fehlern der Vergangenheit gelernt hat was die Qualität angeht.
Andererseuts hat Qualität auch ihren Preis und der Fermi ist von sich aus schon teuer in der Produktion, also wo sollte man noch sparen ausser im PCB oder der Kühllösung?

Gast
2009-12-27, 13:01:19
Ich denke mal, dass NV aus den Fehlern der Vergangenheit gelernt hat was die Qualität angeht.
Andererseuts hat Qualität auch ihren Preis und der Fermi ist von sich aus schon teuer in der Produktion, also wo sollte man noch sparen ausser im PCB oder der Kühllösung?

Da hat jemand aber Ahnung. Fermi teuer in der Prodktion. Wow Insider-Alarm!

Gast
2009-12-27, 13:05:23
naja die ungefähre DIE grösse hat man ja schon der chip selber wird ca doppelt so teuer in der produktion

Gast
2009-12-27, 13:09:16
naja die ungefähre DIE grösse hat man ja schon der chip selber wird ca doppelt so teuer in der produktion

Insider-Alarm!
Wenn man keine Ahnung über Verträge hat, sollte man den Finger stillhalten.

Gast
2009-12-27, 13:14:22
wenn man keine Ahnung hat wozu ein Spekulationsunterforum da hat solltest dich ritzen gehen ;-)

Burgard
2009-12-27, 13:49:37
Ahhh, verstehe.
Grosser Chip + Probleme in der Fertigung = Superduper Preis durch Spezialverträge seitens TSMC.
Alles was ich bis jetzt gelesen habe zeugt nicht gerade von einem guten Preis/Leistungsverhältnis seitens NV und schon gar nicht von einem überragenden Produkt, wie damals der G80.
Das muss man mir mal erklären, warum MUSS der Fermi nicht automatisch teurer sein, wenn der Fermi ca. 1/3 grösser ist wie der Cypress?
Ich ignoriere jetzt mal die Gerüchte über die schlechte Yield und gehe mal von exakt der gleichen AUsbeute aus wie der 58xx.

Also bitte, erklärt es mal, wie sowas sein könnte.

EDIT:
Ohha, das wird ja immer besser.
Der Cypress besitzt ein 6 bzw. 8-Layer PCB und der Fermi soll gar ein 10-Layer-PCB besitzen.
Welchen ist wohl in der Produktion billiger?
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13914-nvidia-fermi-die-geruechtekueche-brodelt-fleissig-weiter.html

Gast
2009-12-27, 14:07:10
Ahhh, verstehe.
Alles was ich bis jetzt gelesen habe zeugt nicht gerade von einem guten Preis/Leistungsverhältnis seitens NV und schon gar nicht von einem überragenden Produkt, wie damals der G80.

Stimmt als Insider hat du natürlich mehr Informationen als wir. Komisch nur, dann der G80 im selben zeitlichen Status wie GF100 genauso tolle Spekulationen hatte. Aber sowas ignoriert man fürsterlich. :lol:


Das muss man mir mal erklären, warum MUSS der Fermi nicht automatisch teurer sein, wenn der Fermi ca. 1/3 grösser ist wie der Cypress?
Ich ignoriere jetzt mal die Gerüchte über die schlechte Yield und gehe mal von exakt der gleichen AUsbeute aus wie der 58xx.


Da du kein Plan über die Verträge hast, macht sowas null Sinn.

Dural
2009-12-27, 14:43:10
EDIT:
Ohha, das wird ja immer besser.
Der Cypress besitzt ein 6 bzw. 8-Layer PCB und der Fermi soll gar ein 10-Layer-PCB besitzen.
Welchen ist wohl in der Produktion billiger?
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13914-nvidia-fermi-die-geruechtekueche-brodelt-fleissig-weiter.html

jo und die GTX260 mit 570mm DIE und 14-Layer (waren es glaub) wurde fast zum selben Preis wie die 4870 verkauft....

noch irgend welche fragen???

Gast
2009-12-27, 14:45:08
Da du kein Plan über die Verträge hast, macht sowas null Sinn.

Egal wie die Verträge aussehen, sie ändern nichts an der Wirtschaftlichkeit von Fermi. Irgendwer muss dafür mehr Geld ausgeben als für den Cypress. Und da TSMC nichts zu verschenken hat, wird das auch NV zumindest mitbezahlen müssen.

Gast
2009-12-27, 16:29:16
Wer übernimmt den die Ausschusskosten, wenn die Yield nicht so toll ist? Ich weiß nur wie es bei uns gehändelt wird, wir produzieren Magnesiumdruckguß, auch für Kundenfirmen. Und wenn bei uns ein guter Kunde ein Produkt fertigen lässt, welches Gießtechnisch zu höheren Ausschussquoten führt, dann wird auch mal mit weniger Gewinn kalkuliert, weil man bei anderen Produkten, die man für denselben Kunden fertigt, Gewinn einfährt und man den Kunden an sich binden will.

Außerdem weiß hier keiner wie die Yields beim A3 Stepping sind. Aber bei NV ist alles Sch...e, ich kann mich noch gut an die Spekualtionen zum G80 erinnern, welcher ja auch kein D3D10 haben sollte und deshalb in Grund und Boden geredet wurde, während der R600 mit seinem tollen 512 Bit Speicherinterface ja alles wegrulen sollte. Was am Ende dabei rauskam haben wir gesehen. Ich denke NV ist vorsichtiger geworden und gibt nur Informationen raus, die dann auch haltbar sind.

Gast
2009-12-27, 18:19:28
Das muss man mir mal erklären, warum MUSS der Fermi nicht automatisch teurer sein, wenn der Fermi ca. 1/3 grösser ist wie der Cypress?


1/3??

Versuch es mal mit +64% - +65%!

550mm² zu 334mm² wie die letzten zuverlässigen Gerüchte/Messungen gezeigt haben (die 550mm² stammen aus dem Beyond3D Forum und sollen ziemlich zuverlässig sein).

Burgard
2009-12-27, 18:52:06
1/3??

Versuch es mal mit +64% - +65%!

550mm² zu 334mm² wie die letzten zuverlässigen Gerüchte/Messungen gezeigt haben (die 550mm² stammen aus dem Beyond3D Forum und sollen ziemlich zuverlässig sein).

Stimmt, es sind ja bei den Transistoren rund 1/3 mehr, hab ich doch glatt verwechselt.
Dann werden die Preise aber richtig interessant, egal ob TSMC nun NV einen besonderen Preis macht, um sie zu halten.
Auch TSMC kann nicht zaubern und einfach so ihre Produktionskosten wegdiskutieren.
Der Fermi muss schon ein extrem schneller Chip werden um im P/L-Verhältnis mit AMD mitzuhalten.

Ich glaube nicht, dass es gut ist, wenn in Testberichten steht:
"Die Geforce 385 ist zwar die schnellste SingleChip-Grafikkarte, aber...
- nur xx% schneller
- xxx Euro über der 5870

Vielleicht sind die Befürchtungen auch unbegründet, nur die Gerüchteküche deutet auf was anderes hin.

Gast
2009-12-27, 18:58:46
Ach guck an, da blendet jemand mal ganz ungeschniert die Vergangenheit aus. :lol:

Schade eigentlich, dass in diesem Forum genauso viel blödsinn geschrieben wird, wie in anderen. Aber das ist wohl der Fluch der freien Kommunikationsmöglichkeit.

Das lustige ist, AMD muss ihren Chip ja im Preiskampf teurer verkaufen als i letzten Jahr, da der rv870 gewachsen ist. Aber hey, das wird einfach mit ausgeblendet. :lol:

Neocroth
2009-12-27, 19:25:07
jo und die GTX260 mit 570mm DIE und 14-Layer (waren es glaub) wurde fast zum selben Preis wie die 4870 verkauft....

noch irgend welche fragen???

und nicht nur das, pfeifende Spannungswandler gabs gratis dazu!

Versteh mich nicht falsch, aber ich denke, dass nVidia im Preiskampf einfach an vielen Ecken und Enden gespart hat, um die GT200-Karten trotzdem noch gewinnbringend an den Mann zu bringen.

Ach guck an, da blendet jemand mal ganz ungeschniert die Vergangenheit aus. :lol:

Schade eigentlich, dass in diesem Forum genauso viel blödsinn geschrieben wird, wie in anderen. Aber das ist wohl der Fluch der freien Kommunikationsmöglichkeit.


und vieles davon ist von Gästen :rolleyes:


Das lustige ist, AMD muss ihren Chip ja im Preiskampf teurer verkaufen als i letzten Jahr, da der rv870 gewachsen ist. Aber hey, das wird einfach mit ausgeblendet. :lol:

AMD verkauft die Chips deshalb teurer, weils keine Konkurrenz gibt. Und da die Nachfrage trotz höherer Preise immer noch höher als das Angebot ist, funktioniert die Taktik.

Egal wie die Verträge aussehen, sie ändern nichts an der Wirtschaftlichkeit von Fermi. Irgendwer muss dafür mehr Geld ausgeben als für den Cypress. Und da TSMC nichts zu verschenken hat, wird das auch NV zumindest mitbezahlen müssen.

Ich habe ehrlich gesagt auch keine Ahnung, wer das letztenendes bezahlt, aber ich gehe davon aus, dass es im Vorhinein fixierte Lieferverträge mit einem festgelegten Auftragsvolumen sind. Letztendlich zahlen aber eh beide drauf: AMD, weil man mehr Chips in den Markt werfen könnte als eigentlich verfügbar sind und TSMC, weil die Menge der an AMD gelieferten Chips durch die eigenen Produktionsstraßen limitiert sind.

Undertaker
2009-12-27, 19:32:39
und nicht nur das, pfeifende Spannungswandler gabs gratis dazu!

Versteh mich nicht falsch, aber ich denke, dass nVidia im Preiskampf einfach an vielen Ecken und Enden gespart hat, um die GT200-Karten trotzdem noch gewinnbringend an den Mann zu bringen.

Die HD4870er rauchten dafür im Furmark ab, wenn sie nicht eingebremst werden. ;) Da nimmt sich die Qualität wohl nichts.

Neocroth
2009-12-27, 19:41:02
Die HD4870er rauchten dafür im Furmark ab, wenn sie nicht eingebremst werden. ;) Da nimmt sich die Qualität wohl nichts.

wobei man über die Sinnhaftigkeit des Furmarks ja bekanntlich streiten kann ;) aber du hast schon Recht, letztendlich bieten IMHO beide in etwa vergleichbare Qualität.

Gast
2009-12-27, 20:25:43
wobei man über die Sinnhaftigkeit des Furmarks ja bekanntlich streiten kann ;) aber du hast schon Recht, letztendlich bieten IMHO beide in etwa vergleichbare Qualität.
Wenn sich beide nichts in Qualität nehmen, warum dann mehr bezahlen für Nvidia?

Neocroth
2009-12-27, 21:28:40
Wenn sich beide nichts in Qualität nehmen, warum dann mehr bezahlen für Nvidia?

weil minimal besseres AF und (zu Zeiten RV770-GT200) einen Hauch schneller, nHancer usw...

StefanV
2009-12-27, 22:26:52
wie soll das Ding denn aussehen?
mit 1.30v und 1020 mhz? Und das mit nem Luftkühlerchen...von was träumt ihr Nachts?
Weiß man nicht genau, Gerüchte sprechen aber davon, dass es möglicherweise nicht nur ein übertakteter RV870 sein könnte sondern etwas anderes möglich wäre..

AMD könnte uns also durchaus mit einem breiteren Chip überraschen, naja, mal abwarten und Tee rauchen.

Der_Korken
2009-12-27, 23:19:32
AMD könnte uns also durchaus mit einem breiteren Chip überraschen, naja, mal abwarten und Tee rauchen.

Ich glaube nicht, dass AMD den RV870 noch breiter macht. Beim Launch kam ja schon die Diskussion auf, ob mehr SIMDs überhaupt noch was bringen, oder ob nicht vielleicht was anderes limitiert. Die 5850 hält sich gemessen an der Rohleistung oft sehr gut gegen eine 5870.

Aber ich denke mal, dass ATI noch irgendwas nachschiebt. Dafür lässt sich Nvidia einfach zu viel Zeit. Damals beim R600 hat Nvidia auch noch die 8800Ultra mit A3-Stepping nachgelegt (auch wenn es letztendlich völlig unnötig war).

Gast
2009-12-28, 00:20:24
denke eher er meint sowas wie RV770 und RV790 also das der chip minimal grösser = breiter wird

Dural
2009-12-28, 02:08:28
und nicht nur das, pfeifende Spannungswandler gabs gratis dazu!

Versteh mich nicht falsch, aber ich denke, dass nVidia im Preiskampf einfach an vielen Ecken und Enden gespart hat, um die GT200-Karten trotzdem noch gewinnbringend an den Mann zu bringen.


die ersten hatten kein pfeiffen, wurden dann geändert geade weil der preis runter ging, die ersten 260 hatten ja sogar das gleiche PCB wie die 280!

Neocroth
2009-12-28, 02:28:23
die ersten hatten kein pfeiffen, wurden dann geändert geade weil der preis runter ging, die ersten 260 hatten ja sogar das gleiche PCB wie die 280!

die ersten waren auch nicht so günstig wie die 4870 ;) nVidia hat offensichtlich nicht mit der RV770-Leistung zu diesem Preis gerechnet, war überrascht und hat daraufhin das Referenzdesign modifiziert, um günstiger produzieren zu können. (http://www.techpowerup.com/index.php?84409)

=Floi=
2009-12-28, 07:13:32
wobei das pcb auch nur ein kleiner kostenpunkt ist. nv hat ja auch am kühler gedreht und das neue pcb hatte auch weniger layer. der chip ist aber immer noch der gleiche (!) und 130€ sind schon ein hammerpreis für solch eine karte. das sollte man trotzdem nicht vergessen.
wir werden sehen, was nv bei der neuen GT3XX serie macht. die kleineren chips werden aber sicherlich auch arg beschnitten sein. wenn selbst ati bei der 5850er so viel wegnehmen muß dann wird es bei nv sicherlich nicht besser werden.
~350€ für eine GT300 karte mit den guten taktraten und gutem unterbau wäre schon sehr gut und würde die erwartungen voll erfüllen.

edit
nv sollte mal die werbemaschine anwerfen und mit vielen phasen, gutem pcb und leiser kühlung werben!

Gast
2009-12-28, 09:37:10
Weiß man nicht genau, Gerüchte sprechen aber davon, dass es möglicherweise nicht nur ein übertakteter RV870 sein könnte sondern etwas anderes möglich wäre..

AMD könnte uns also durchaus mit einem breiteren Chip überraschen, naja, mal abwarten und Tee rauchen.

Gerüchte wie in "HD 5870 X2 wird das Mikroruckeln endgültig begraben" oder "Der Sideport in HD 4870 wird bei der X2 zu sagenhafter Inter-Chip-Kommunikation führen"?

Ein bißchen mehr als nur "Gerüchte sprechen über XYZ" sollte da schon kommen.

Ailuros
2009-12-28, 10:01:29
Man muss auf jeden Fall für jedes Sample Z testen und speichern, sonst wird die Überdeckung nicht korrekt berücksichtigt. 12 für 16x kann nicht sein. Und für 20 für 16xQ seh ich auch keinen Grund.

CSAA ist MSAA mit einer Indirektion in der Color Storage (16 Samples zeigen auf 8 Farbwerte), sonst nichts. Z wird dabei gar nicht berührt.

Da man Z aber ohnehin mit Abstand am besten komprimieren kann ist das nicht weiter schlimm, dass es 16 Z-Werte sind die gespeichert werden.

Bis jetzt hab ich weder von NV selber noch von jemand anders eine halbswegs logische Erklaerung bekommen warum heutige GeForces so stark mit 8x MSAA einbrechen im Vergleich zu 4xMSAA.

Ergo wo es genau hapert weiss wohl keiner ausserhalb NV genau und es wurden nur Vermutungen aufgelegt die aber von Zeit zu Zeit von NV bestritten wurden. Wie dem auch sei 16xQ frisst einen gesunden Happen an Leistung selbst auf einer GTX285, wobei ich bezweifle dass der Zusatz an Bandbreite im Vergleich zu G80 etwas berauschendes geaendert hat.

Nun schoen es sind nicht 20 sondern 16 depth tests fuer 16xQ (8xMSAA + 8xCSAA); unter dieser Logik sind es dann nicht 40 sondern 32 depth tests beim hypothetischen 32x"Q" (16xMSAA + 16xCSAA) was mich aber nicht im geringsten ueberzeugt dass so etwas nicht arschlahm waere auf einer GF100. Wenn NVIDIA performantes 16xMSAA schaffen wuerde (bei nur relativ maessiger Steigerung von Speichermenge bzw. Bandbreite im Vergleich zu Gt200), dann waere CSAA erstmal ueberfluessig.

Labberlippe
2009-12-28, 11:02:52
Hi

Ich denke nVIDIA muss nicht zwingend die AMD Karten mit der Leistung ums doppelte übertrumpfen.
Es reicht wenn die Karten 20-30 Prozent schneller sind als die 58er Serie.
Preislich wird die Single karte vermutlich um eine Spur höher sein als die 5870, ich denke das reicht auch schon.

Im Midrange Bereich reicht dann wenn die Leistung und Preise gleichauf sind, dann passt das.

Gruss Labberlippe

Gast
2009-12-28, 11:15:38
Hi

Ich denke nVIDIA muss nicht zwingend die AMD Karten mit der Leistung ums doppelte übertrumpfen.


Muss nicht, aber der Vorsprung beeinflusst den Preis den man dafür verlangen kann und logischerweise möchte Nvidia so viel wie möglich verlangen.

X.Perry_Mental
2009-12-28, 11:21:05
Laut Digitimes (http://www.digitimes.com/news/a20091228PD207.html) ist der Start auf März verschoben.

Burgard
2009-12-28, 11:23:15
Am 7. sollte endlich Klarheit herrschen.

"At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps,"

Bin echt gespannt wie stark die Karte tatsächlich wird und wie nahe die Fake-Benches tatsächlich an der Realität sind.

boxleitnerb
2009-12-28, 12:00:03
Ey so langsam regen die mich auf. Am 7. Januar mit ausgewählten Spielen und Benchmarks, was keine Sau interessiert um sich wieder 2 Monate bis zu unabhängigen Reviews zu erkaufen?

Ailuros
2009-12-28, 13:45:17
Laut Digitimes (http://www.digitimes.com/news/a20091228PD207.html) ist der Start auf März verschoben.

...und hat auch hoechstwahrscheinlich recht. Keine Ahnung wer nach aussen geleakt hat, aber ich schwoerte letzte Woche es fuer mich zu behalten.

Was zum Henker jetzt GF104 sein soll weiss ich noch nicht...

Burgard
2009-12-28, 13:59:45
Was zum Henker jetzt GF104 sein soll weiss ich noch nicht...
Vermutlich das Gegenstück zur 57XX.
Das heisst dann wohl, dass es dann eine grosse Präsentation aller Karten geben wird,
angefangen bei der 340 über die 350 und die beiden grossen Karten.

Die Low-cost-Karten werden dann vermutlich alle umgelabelte Karten sein, nur eben in 40nm-Fertigung.
Wobei in diesem Bereich ist DX11 wirklich witzlos, da es mit Sicherheit keine Gamerkarten sind und für Multimediaanwendungen braucht man die DX11-Effekte nicht, zumindest sind mir keine bekannt.

Soundwave1983
2009-12-28, 14:06:36
Keine Ahnung wer nach aussen geleakt hat, aber ich schwoerte letzte Woche es fuer mich zu behalten.

Mit anderen Worten, die A3 Revision geht in die Massenproduktion und es werden bis März Karten gefertigt?
Hoffen wir mal, das man die zum Start verfügbaren Karten nicht an vier Fingern abzählen kann...

tombman
2009-12-28, 14:14:51
Lol, März :ugly:

Was'n Epic Fail...

Na hoffentlich wird man im Jänner wenigstens erfahren, ob sich das Warten überhaupt lohnt. Diese Info ist IMO wichtiger als das Warten selbst.
Warten, um dann zu erfahren, was für'n ein crap Fermi ist, würde am meisten saugen...

derguru
2009-12-28, 14:20:38
für mich bedeutet das nur eins,keine infos im januar=das wird nichts.

Burgard
2009-12-28, 14:22:08
Zumindest zeitlich wiederholt sich die Geschichte tatsächlich.
G80 zum R600
Das ist jetzt wohl amtlich.
Geschwindigkeitsmässig wird es allerdings wohl nicht so sein, zumindest gleub ich nicht dran.

EDIT:
für mich bedeutet das nur eins,keine infos im januar=das wird nichts.
Doch, zumindest auf der CES soll es weitere Infos und Benches geben, wenn auch nur aus NV-Hand.

Gast
2009-12-28, 14:43:14
...und hat auch hoechstwahrscheinlich recht. Keine Ahnung wer nach aussen geleakt hat, aber ich schwoerte letzte Woche es fuer mich zu behalten.

Was zum Henker jetzt GF104 sein soll weiss ich noch nicht...

na toll....März für die Vorstellung der GF100 Karten. Und irgendwann im Q2 (Mai-Juli 2010, wenn es ein Nvidia Quartal ist) dann die GF104 Karten....

Was mich ein wenig wundert ist folgendes:


and will launch a GF104 version in the second quarter to target the high-end market with its GeForce GTX295/285/275/260, the sources pointed out.


GTX 285 ist momentan Highend. Werden die neuen Highend-Karten also erst in Q2 kommen oder sind die GF104-Karten die neuen Performance-Karten?


ABER eigentlich sollen die alten GTS250 gegen die Performance-Karten von AMD antreten:

For performance level markets, Nvidia will allow its GeForce GTS250, GT240/220 and 9800GT/9500GT defend against AMD's Radeon HD 5770/5750, 4870/4850 and 4670/4650.



und für Mainstream schaut es auch nicht besser aus:

For the mainstream market, Nvidia will mainly push its GeForce 210.

Meanwhile, AMD will launch 40nm Radeon HD 5670/5570 (Redwood) and HD 5450 (Cedar) GPUs at the end of January or in February 2010, the sources noted.


IMHO kann man das ganze so interpretieren das Fermi GF100 gegen AMD keinen Stich macht und Nvidia dafür die GF104 GPUs braucht. Mal sehen wahrscheinlich zu schwarz gemalt, aber trotzdem eine mögliche Interpretation der News-Meldung.

Was auch auffällt. Abgesehen vom Highend (GF100+GF104) hat Nvidia keine DX11 Karten in der Pipeline (laut dieser News). Das kostet sie massiv Umsatz bei den OEMs. SCHLECHT...SEHR SCHLECHT.

=Floi=
2009-12-28, 15:01:24
die taktraten und genauen daten würden mir schon reichen.

LovesuckZ
2009-12-28, 15:04:09
Ey so langsam regen die mich auf. Am 7. Januar mit ausgewählten Spielen und Benchmarks, was keine Sau interessiert um sich wieder 2 Monate bis zu unabhängigen Reviews zu erkaufen?

Es wird am 7. Januar nichts geben.

=Floi=
2009-12-28, 15:04:12
ach was. das problem ist doch gerade überstanden. A3 wird gelauncht und nv ist wieder im rennen. wo ist die andere frage. zumindest geht es wieder bergauf und der chip kann in produktion gehen.

aylano
2009-12-28, 15:26:08
...und hat auch hoechstwahrscheinlich recht. Keine Ahnung wer nach aussen geleakt hat, aber ich schwoerte letzte Woche es fuer mich zu behalten.

Was zum Henker jetzt GF104 sein soll weiss ich noch nicht...
Und ich dachte, das ist seit über einem Monat mehr als klar, wenn sie A3 gerade noch zur CES in einer Grafikkarte zeigen können.
Wenn um diese Zeit dann die Massenprodukten startet, wird es dann eine Verfügbarkeit in März (Einführung) / April (Masse) geben.

aths
2009-12-28, 15:34:53
Bis jetzt hab ich weder von NV selber noch von jemand anders eine halbswegs logische Erklaerung bekommen warum heutige GeForces so stark mit 8x MSAA einbrechen im Vergleich zu 4xMSAA.

Ergo wo es genau hapert weiss wohl keiner ausserhalb NV genau und es wurden nur Vermutungen aufgelegt die aber von Zeit zu Zeit von NV bestritten wurden. Wie dem auch sei 16xQ frisst einen gesunden Happen an Leistung selbst auf einer GTX285, wobei ich bezweifle dass der Zusatz an Bandbreite im Vergleich zu G80 etwas berauschendes geaendert hat.

Nun schoen es sind nicht 20 sondern 16 depth tests fuer 16xQ (8xMSAA + 8xCSAA);Es sind 8 Z-Tests, da 8x Multisampling genutzt wird.

Hier gibts interessante Benchmarks zur ROP-Performance des GT200: http://www.behardware.com/articles/723-5/product-review-the-nvidia-geforce-gtx-280-260.html Bei 8x MSAA spacken die ROPs übelst ab. Aber das dürfte normalerweise kein Problem sein wenn die Berechnung des Pixels entsprechend viele Takte benötigt.

LovesuckZ
2009-12-28, 16:03:25
Doch, zumindest auf der CES soll es weitere Infos und Benches geben, wenn auch nur aus NV-Hand.

Quelle?
Und wenn es März wird, dann Cebit. Also auch nur noch rund 2 Monate und 1 Woche. Hey, dann kommt es zum Jahrestag des rv740 mobile. :lol:

Neocroth
2009-12-28, 16:08:55
Quelle?

keine offiziellen nVidia-Quellen, sondern Board-Partner (angeblich).

http://www.hardocp.com/news/2009/11/02/fermi_working_samples_for_ces63

http://tech.icrontic.com/news/nvidia-working-to-show-fermi-at-ces (im Bezug auf [H] und Driverheaven)

LovesuckZ
2009-12-28, 16:15:14
keine offiziellen nVidia-Quellen, sondern Board-Partner (angeblich).

http://www.hardocp.com/news/2009/11/02/fermi_working_samples_for_ces63

http://tech.icrontic.com/news/nvidia-working-to-show-fermi-at-ces (im Bezug auf [H] und Driverheaven)

Es wird keine (Fake-)Boards zur Ansicht geben. Wären sie soweit, kämen sie mindesten Ende Januar schon auf dem Markt.

Ich kenn nur das:
They'll demo Fermi there to press. I think both Quadro and GeForce will get a run out, too (or at least there'll be Quadro-specific demonstrations running on the same hardware, but locked to that product at launch).
http://forum.beyond3d.com/showpost.php?p=1372728&postcount=2489

Ob sie die CES nutzen, um über die "Graphics side" zu reden, steht in den Sternen. Fakt ist, sie werden die Presse über GF100 unterweisen.

mapel110
2009-12-28, 16:18:50
Golem.de und legitreviews.com schreiben jetzt auch schon von digitimes ab. Sind ja beides Webseiten, die von sich behaupten selbst Quellen zu haben. Spricht auch für die Richtigkeit von März.

Gast
2009-12-28, 16:25:32
Hab ich sogar schon im September prophzeit aber es will ja keiner der Herren hören...

Dural
2009-12-28, 16:29:37
Was zum Henker jetzt GF104 sein soll weiss ich noch nicht...

wenn man nach den typischen nummer geht die NV hat logischerweise ein halber GF100:

256SP
64TMU
32ROP
256Bit

mit etwas takt dürfe das der gegner für RV870 / 5850 und vieleicht 5870 sein. Die DIE grösse dürfte sogar in der region von RV870 sein.

Burgard
2009-12-28, 16:37:23
Quelle?
Und wenn es März wird, dann Cebit. Also auch nur noch rund 2 Monate und 1 Woche. Hey, dann kommt es zum Jahrestag des rv740 mobile. :lol:

Das Offiziellste was ich gefunde habe ist die NV-Seite selbst:
(Aber das hatte ich ja schpn gepostet, daher ist das also:biggrin:)
At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.
http://www.nvidia.com/object/ces2010.html


Das wäre doch ein riesen Witz, wenn sie nicht auch ein paar schriftliche Benches vorweisen würden, oder?

LovesuckZ
2009-12-28, 16:41:12
Weißt du, was "latest" heißt? Als Tipp: Es handelt sich hierbei nicht um "Produktvorstellung" oder "Enthüllung".

Burgard
2009-12-28, 16:44:56
Weißt du, was "latest" heißt? Als Tipp: Es handelt sich hierbei nicht um "Produktvorstellung" oder "Enthüllung".
Du denkst doch nicht an die zweihunderter Serie, oder?
Bin ich doch ein zu grosser Optimist?

Gast
2009-12-28, 16:52:36
wenn man nach den typischen nummer geht die NV hat logischerweise ein halber GF100:

256SP
64TMU
32ROP
256Bit

mit etwas takt dürfe das der gegner für RV870 / 5850 und vieleicht 5870 sein. Die DIE grösse dürfte sogar in der region von RV870 sein.


träum weiter ...

RoNsOn Xs
2009-12-28, 17:09:02
eher das pendant zur gtx 260/285

Burgard
2009-12-28, 17:31:09
Nummerierung wie beim G80?

G80 = GF100
G84 = GF104
G86 = GF106

Gestrandet
2009-12-28, 17:33:08
Weißt du, was "latest" heißt? Als Tipp: Es handelt sich hierbei nicht um "Produktvorstellung" oder "Enthüllung".
Also viel later als Fermi geht's ja gar nimmer ... der dürfte wohl die most latest nv GPU ever werden. Aber hoffentlich wird er nicht ihre last GPU ;-)

LovesuckZ
2009-12-28, 17:42:00
Also viel later als Fermi geht's ja gar nimmer ... der dürfte wohl die most latest nv GPU ever werden. Aber hoffentlich wird er nicht ihre last GPU ;-)

Bist aber echt witzig. Wärst du noch witzer, würde ich sogar schmunzeln können. :rolleyes:
Ich warte ja immer noch auf den rv740m. Immerhin wird er bald ein Jahr alt. ;D

Burgard
2009-12-28, 17:48:01
Ich warte ja immer noch auf den rv740m. Immerhin wird er bald ein Jahr alt. ;D
Fällt aus wegen Bodennebel, dafür gibt es ja jetzt die 5650M.

Coda
2009-12-28, 18:14:39
Bis jetzt hab ich weder von NV selber noch von jemand anders eine halbswegs logische Erklaerung bekommen warum heutige GeForces so stark mit 8x MSAA einbrechen im Vergleich zu 4xMSAA.
Wohl weil das Framebuffer-Format für 4 Samples optimiert ist. 8x wird wohl wie zwei mal 4x gespeichert. Das ist die einzige logischer Erklärung.

Nun schoen es sind nicht 20 sondern 16 depth tests fuer 16xQ (8xMSAA + 8xCSAA); unter dieser Logik sind es dann nicht 40 sondern 32 depth tests beim hypothetischen 32x"Q" (16xMSAA + 16xCSAA) was mich aber nicht im geringsten ueberzeugt dass so etwas nicht arschlahm waere auf einer GF100. Wenn NVIDIA performantes 16xMSAA schaffen wuerde (bei nur relativ maessiger Steigerung von Speichermenge bzw. Bandbreite im Vergleich zu Gt200), dann waere CSAA erstmal ueberfluessig.
CSAA wird immer schneller sein als MSAA, weil man weniger Color-Bandbreite braucht.

Es sind 8 Z-Tests, da 8x Multisampling genutzt wird.
Nein. Es sind 16. Ganz sicher. Du musst für jedes Coverage-Sample die Überdeckung berücksichtigen, sonst kommt einfach nur Bullshit raus.

Gast
2009-12-28, 18:34:01
CSAA ist das Multi-GPU der Antialiasing-Modi. Es wirkt auf den ersten Blick toll, aber da, wo man's wirklich braucht, versagt es.

LovesuckZ
2009-12-28, 18:35:51
CSAA ist das Multi-GPU der Antialiasing-Modi. Es wirkt auf den ersten Blick toll, aber da, wo man's wirklich braucht, versagt es.

Hm, dann nimmt man einfach einen MSAA Modus... :D

/edit: Welche Alternative hat man nochmal zu Multi-GPU?

Gestrandet
2009-12-28, 19:22:34
Bist aber echt witzig. Wärst du noch witzer, würde ich sogar schmunzeln können. :rolleyes:
Ooh, fühlt sich da jemand in seiner Fanboi-Ehre gekränkt?? Das tut mir aber leiiiiid! </lueg> :biggrin:

san.salvador
2009-12-28, 19:29:41
CSAA ist das Multi-GPU der Antialiasing-Modi. Es wirkt auf den ersten Blick toll, aber da, wo man's wirklich braucht, versagt es.
Dafür ist es quasi gratis. Wenn es nur 10% aller Kanten verbessert reicht das schon.

LovesuckZ
2009-12-28, 19:31:29
Ooh, fühlt sich da jemand in seiner Fanboi-Ehre gekränkt?? Das tut mir aber leiiiiid! </lueg> :biggrin:

Schade, da hat jemand nicht verstanden, dass er witzlos ist. :(

Labberlippe
2009-12-28, 19:58:58
Dafür ist es quasi gratis. Wenn es nur 10% aller Kanten verbessert reicht das schon.


Hi

Ahja plötzlich reichen nur noch 10%
Der Modus wird dann aber nichts für die BQ Fanatiker.

Lassen wir uns mal überraschen.

Gruss Labberlippe

boxleitnerb
2009-12-28, 20:13:32
Viel wichtiger als die Kanten NOCH besser zu glätten (minimaler Ertrag), wäre es doch, die Bildbereiche zu glätten, die bislang schön vor sich hinflimmern. Speziell Shader. Und was nützt mir der supertolle 32x Modus, wenn ich ihn gar nicht aktivieren kann (GTA4 und co.)??? Bin da sehr skeptisch. Placebo bzw. Marketing und einen auf die größte Zahl machen...

aths
2009-12-28, 20:26:48
Wohl weil das Framebuffer-Format für 4 Samples optimiert ist. 8x wird wohl wie zwei mal 4x gespeichert. Das ist die einzige logischer Erklärung.... die alleine nicht ausreicht, da die Z-Füllrate bei 8x MSAA unter der halben Füllrate von 4x MSAA liegt.
CSAA wird immer schneller sein als MSAA, weil man weniger Color-Bandbreite braucht.

Nein. Es sind 16. Ganz sicher. Du musst für jedes Coverage-Sample die Überdeckung berücksichtigen, sonst kommt einfach nur Bullshit raus.Dann könnte man gleich Multisampling-AA machen.

Der CSAA-Anteil glättet zum Beispiel keine Stencilshadow-Kanten. Das sind Polygonschnittkanten, keine Polygonaußenkanten. Würden auch pro C-Sample ein Z-Test durchgeführt, würden auch Polygonschnittkanten geglättet. Der Standard-16x-Modus (4x MSAA mit drei zusätzlichen C-Samples pro M-Sample) macht pro Pixel 4 Z-Tests.

Coda
2009-12-28, 21:34:48
Dann würde man aber def. Fälle haben an denen die Darstellung einfach falsch ist, weil man die Coverage gar nicht bestimmen kann.

Gast
2009-12-29, 00:21:03
Viel wichtiger als die Kanten NOCH besser zu glätten (minimaler Ertrag), wäre es doch, die Bildbereiche zu glätten, die bislang schön vor sich hinflimmern. Speziell Shader. Und was nützt mir der supertolle 32x Modus, wenn ich ihn gar nicht aktivieren kann (GTA4 und co.)??? Bin da sehr skeptisch. Placebo bzw. Marketing und einen auf die größte Zahl machen...

GTA4 geht überhaupt kein AA. Und SSAA ist nur für die High-End Karten zu gebrauchen. Alles ab 4xSSAA überfordert Karten ala Juniper. SSAA ist ein Goddie, aber bestimmt nicht die Lösung des Problems.

Ronny145
2009-12-29, 00:48:50
Alles ab 4xSSAA überfordert Karten ala Juniper.


Das kommt wie immer auf das Spiel drauf an. Und das größte Problem wäre die Beschränkung auf DX9 oder älter. Also kann das eh nicht die Lösung sein.

Gast
2009-12-29, 00:52:01
Das kommt wie immer auf das Spiel drauf an. Und das größte Problem wäre die Beschränkung auf DX9 oder älter. Also kann das eh nicht die Lösung sein.

Warum sollte jemand mit Junpier noch alte Spielen mit SSAA spielen, wenn er die Chance mit einer Geforce seit mindesten 3 Jahren schon gehabt hat? Die 5770 hat eine 2% höhere Texturleistung als die 8800GT. Da gibt es nicht genug Leistung für 4xSGSAA. Und wer interesse an SSAA gehabt hätte, der hätte sich schon längst für eine nVidia Karte entschieden.

Ronny145
2009-12-29, 00:56:06
Warum sollte jemand mit Junpier noch alte Spielen mit SSAA spielen, wenn er die Chance mit einer Geforce seit mindesten 3 Jahren schon gehabt hat? Die 5770 hat eine 2% höhere Texturleistung als die 8800GT. Da gibt es nicht genug Leistung für 4xSGSAA. Und wer interesse an SSAA gehabt hätte, der hätte sich schon längst für eine nVidia Karte entschieden.


Wie gesagt, die Aussage man könne mit Juniper nicht 4xSSAA benutzen ist falsch. Mehr wollte ich gar nicht sagen. Nun, warum wer und wieso eine Karte kauft, ist hier ziemlich OT. Man kauft es normalerweise auch nicht wegen einem Feature.

Gast
2009-12-29, 01:07:46
Wie gesagt, die Aussage man könne mit Juniper nicht 4xSSAA benutzen ist falsch. Mehr wollte ich gar nicht sagen. Nun, warum wer und wieso eine Karte kauft, ist hier ziemlich OT. Man kauft es normalerweise auch nicht wegen einem Feature.

Natürlich ist es nutzbar, wie es auch mit einer 8600GTS nutzbar wäre.
Nur wird es in neueren Spielen - und die will man wohl auch mit SSAA spielen wollen - entweder performanceseitig oder aber kompartibilitsseitig Probleme geben. SSAA ist also, und da stimme ich zu, nicht der helige Gral.
Daher sollte man erstmal abwarten, was nVidia mit 32xAA bringen wird, bevor man anfängt darüber zu lästern.

Raff
2009-12-29, 02:47:51
Treiberseitiges Downsampling wäre die Lösung. Es ließe sich für die Treiberteams sicher binnen weniger Stunden einrichten. Ich stelle mir das so vor, dass der Treiber den APIs vorgaukelt, dass der Monitor Vielfache seiner nativen Auflösung wiedergeben kann, welche daraufhin in Spielen anwählbar sind. Die Praxis sähe dann so aus: Ein mit einem 1.920x1.200-LCD gesegneter Spieler stellt im Grafikmenü 3.840x2.400 ein und der Treiber sorgt für das Eindampfen auf die native Auflösung – hochkompatibles 2x2 OGSSAA ahoi.

Das ginge natürlich auch mit 3x3, 4x4, etc. OGSSAA ist zwar "minderwertig", aber besser als gar nichts. Außerdem ließe es sich in MSAA-unterstützenden Spielen mit jenem MSAA kombinieren, was Hybriden zur Folge hätte. Geil wär's scho, hm?. =)

MfG,
Raff

Gast
2009-12-29, 03:02:30
QuadHD heisst das Zauberwort ;)

Reaping_Ant
2009-12-29, 08:11:16
Treiberseitiges Downsampling wäre die Lösung.

Downsampling per Treiber wäre natürlich perfekt, das müsste dann ja eigentlich - sofern das Spiel die höhere Auflösung unterstützt - unabhängig von der verwendeten DirectX Version und sonstigen Engine-Eigenheiten funktionieren.

Hoffentlich wird dabei auch an die 30" Besitzer gedacht. Bisher gibt es - soweit mir bekannt - keine Möglichkeit einem WQXGA Display Downsampling beizubringen.
Die meisten nicht allzu aktuellen Titel sollte die große Ausbaustufe von Fermi auch in 5120x3200 bewältigen können.

Ailuros
2009-12-29, 08:25:07
Und ich dachte, das ist seit über einem Monat mehr als klar, wenn sie A3 gerade noch zur CES in einer Grafikkarte zeigen können.

Eine hypothetische Vorzeigung hinter geschlossenen Tueren (wenn diese bei CES erstmal vorkommt) sagt wohl nichts zur Massenproduktion aus.

Wenn um diese Zeit dann die Massenprodukten startet, wird es dann eine Verfügbarkeit in März (Einführung) / April (Masse) geben.

NV will offensichtlich einen hard launch. Ob dieser nun erreicht wird steht noch in den Sternen.

-------------------------------------------------

Burgard,

Ja unter normalen Umstaenden duerfte ein GF104 = 1/4 GF100 entsprechen. Ergo etwas mit Juniper als Ziel; dummerweise ist aber der erwaehnte Zeitpunkt von DT viel zu spaet.

------------------------------------------------
Wohl weil das Framebuffer-Format für 4 Samples optimiert ist. 8x wird wohl wie zwei mal 4x gespeichert. Das ist die einzige logischer Erklärung.

Und das haette man bei GT200 nicht aendern koennen? Wie dem auch sei ich bezweifle dass dieses "32xAA" etwas weniger als 8xMSAA beinhalten koennte und hoffe auch dass sie die notwendigen Aenderungen getroffen haben.

CSAA wird immer schneller sein als MSAA, weil man weniger Color-Bandbreite braucht.

Deshalb spekuliere ich auch dass dieses "32xAA" lediglich ein 16xCSAA * 2 ist.

-----------------------------------------------------

Hi

Ahja plötzlich reichen nur noch 10%
Der Modus wird dann aber nichts für die BQ Fanatiker.

Lassen wir uns mal überraschen.

Gruss Labberlippe

Was man bezahlt bekommt man auch. Da die Kosten an Bandbreite und Speicher nur relativ minimal sind beim heutigen 16xCSAA im Vergleich zu 4xMSAA, meinte er dass wenn man ungefaehr so viel bessere Bildqualitaet bekommt wie zusaetzlich an Bandbreite bzw. Speicher mehr verbraucht wird gegenueber 4xMSAA ist das Resultat dann auch gut genug. So lange man weiss dass ein Anteil davon (sprich 12xCSAA von den 16x samples) coverage sampling entspricht sollte man zumindest auch nicht 8xMSAA Qualitaet fuers gesamte Bild erwarten und schon gar nicht 16xMSAA.

Im Fall wo 32xAA tatsaechlich 8xMSAA+24xCSAA entsprechen sollte, hat man dann einen modus der auf jeden Fall leicht bessere Bildqualitaet ueber 8xMSAA liefert mit aber nur minimalem Leistungsunterschied im Vergleich zu reinem 8xMSAA. Wenn man weiss dass eine gesunde Portion aus coverage sampling besteht, erwartet ein erfahrener Benutzer auch nicht 12xMSAA IQ.

=Floi=
2009-12-29, 09:26:38
32XAA wäre zumindest für rennspiele eine verbesserung. gerade die leicht geschwungenen linien (porsche form) brauchen extrem viel AA.
immherhin ist es eine verbesserung und besser wie nichts. nebenbei kann man so in älteren spielen hier die power in BQ umsetzen.

robbitop
2009-12-29, 09:39:51
Die sture Erhöhung der Sampleanzahl bringt aber nichts, wenn nicht genug Platz für Kontraststufen da ist. Da nutzt nur ein besserer Downsamplingfilter etwas (siehe edge CFAA).

Ailuros
2009-12-29, 09:41:49
Die groesse jeglicher "Verbesserung" und auch der dementsprechende Leistungsverlust haengt von der eigentlichen Natur der samples ab. 32xAA kann vieles heissen und es soll nach Angabe ein neuer Modus sein.

Die sture Erhöhung der Sampleanzahl bringt aber nichts, wenn nicht genug Platz für Kontraststufen da ist. Da nutzt nur ein besserer Downsamplingfilter etwas (siehe edge CFAA).

NV hat offensichtlich nicht nur den desktop Markt im Hinterkopf.

Undertaker
2009-12-29, 09:56:29
Downsampling per Treiber wäre natürlich perfekt, das müsste dann ja eigentlich - sofern das Spiel die höhere Auflösung unterstützt - unabhängig von der verwendeten DirectX Version und sonstigen Engine-Eigenheiten funktionieren.

So völlig ohne expliziten Support der einzelnen Spiele hat Downsampling aber auch ein riesiges Problem: Alle 2D-Elemente werden entsprechend größenskaliert, Texte u.ä. könnten winzig bis zur Unlesbarkeit werden - das lässt mich etwas an einer generellen Unterstützung per Grafiktreiber zweifeln. Die Lösung läge hier eher auf Spieleseite, wie es z.B. von AA2 ermöglicht wird.

Chris Lux
2009-12-29, 11:09:38
gnaaa!

downsampling... im treiber gibt es support dafuer, es heisst supersampling! mein gott, dieser BS zieht echt kreise. downsampling, was meint ihr passiert bei jeder art von AA?

derguru
2009-12-29, 11:22:45
gnaaa!

downsampling... im treiber gibt es support dafuer, es heisst supersampling! mein gott, dieser BS zieht echt kreise. downsampling, was meint ihr passiert bei jeder art von AA?

mit ds hat man aber aber die möglichkeit auch in spielen aa zunutzen wo es sonst nicht geht wie z.b. gta4 usw.

Raff
2009-12-29, 11:30:04
gnaaa!

downsampling... im treiber gibt es support dafuer, es heisst supersampling! mein gott, dieser BS zieht echt kreise. downsampling, was meint ihr passiert bei jeder art von AA?

Hehe, damit hast du zwar Recht, jedoch wollte ich das Kind bei seinem bekannten Namen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129) nennen.

MfG,
Raff

Chris Lux
2009-12-29, 11:39:27
Hehe, damit hast du zwar Recht, jedoch wollte ich das Kind bei seinem bekannten Namen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129) nennen.
in den thread hatte ich mich auch schon ueber den namen ausgelassen, es ist nunmal ein supersampling auf umwegen wo es nicht direkt unterstuetzt wird.

reunion
2009-12-29, 13:00:16
NV will offensichtlich einen hard launch. Ob dieser nun erreicht wird steht noch in den Sternen.


Das bezweifle ich. Den Luxus kann man sich leisten wenn die Konkurrenz noch irgendwo im Nirwana ist, aber aktuell wohl kaum. Nachdem selbst die größten Optimisten nicht mehr an einen Launch vor März glauben erwarte ich keine erwähnenswerte Anzahl an Karten vor dem Q2/2010.

Gast
2009-12-29, 13:28:12
So völlig ohne expliziten Support der einzelnen Spiele hat Downsampling aber auch ein riesiges Problem: Alle 2D-Elemente werden entsprechend größenskaliert, Texte u.ä. könnten winzig bis zur Unlesbarkeit werden - das lässt mich etwas an einer generellen Unterstützung per Grafiktreiber zweifeln.

Nein, das Spiel weiß ja in dem Fall, dass es in einer größeren Auflösung zu rendern hat und sollte deshalb auch die GUI-Elemente entsprechend skalieren.

Durch das Downsampling würden die natürlich etwas Unscharf werden, das sollte aber nicht schlimm sein.

OC_Burner
2009-12-29, 13:41:16
Nein, das Spiel weiß ja in dem Fall, dass es in einer größeren Auflösung zu rendern hat und sollte deshalb auch die GUI-Elemente entsprechend skalieren.

Durch das Downsampling würden die natürlich etwas Unscharf werden, das sollte aber nicht schlimm sein.


Kommt auf das Spiel an. Strategyspiele z.B. wissen die höhere Auflösung zu schätzen und zeigen mehr vom Spielgeschehen, belassen aber die Menüelemente bei ihrer ursprünglichen Auflösung und werden demzufolge bei höherer Monitorauflösung immer kleiner und unleserlicher wenn man "Downsampling" betreibt.

Soundwave1983
2009-12-29, 14:29:05
Laut einem Artikel auf Computerbase soll nV wohl Probleme in der Treiberentwicklung haben. Hoffen wir mal, das die das bald in den Griff bekommen.

Gibts eigentlich Infos/Spekus darüber, ob nV etwas ähnliches wie Eyefinity anbieten wird?

Dural
2009-12-29, 15:05:57
träum weiter ...

von was träumen? wenn du lesen könntest hättest du gesehen das der Chip die GT200 ersetzten sollen... GTX285 = 5850 :rolleyes:

Ailuros
2009-12-29, 16:21:39
Das bezweifle ich. Den Luxus kann man sich leisten wenn die Konkurrenz noch irgendwo im Nirwana ist, aber aktuell wohl kaum. Nachdem selbst die größten Optimisten nicht mehr an einen Launch vor März glauben erwarte ich keine erwähnenswerte Anzahl an Karten vor dem Q2/2010.

NV's Q1 geht bis zu Ende April.

NVIDIA
Guys/gals: GF100 is shipping in Q1. We haven't shifted our launch. Q1 is it.

http://www.facebook.com/permalink.php?story_fbid=225030055851&id=8409118252

NVIDIA Fun Fact of the Week: GF100 can also do 100% of the hardware decode required for Blu-ray 3D playback.

Gast
2009-12-29, 16:32:20
NV's Q1 geht bis zu Ende April.

Sie reden bei Produkten immer vom normalen Quartalsrhythmus.

Gast
2009-12-29, 16:58:32
Laut einem Artikel auf Computerbase soll nV wohl Probleme in der Treiberentwicklung haben. Hoffen wir mal, das die das bald in den Griff bekommen.

Gibts eigentlich Infos/Spekus darüber, ob nV etwas ähnliches wie Eyefinity anbieten wird?

Sie haben keine Treiberprobleme, sondern finanilizieren die Treiber. Computerbase hat mehr ein Englischübersetzungsproblem...

Gouvernator
2009-12-29, 17:19:45
Treiberseitiges Downsampling wäre die Lösung. Es ließe sich für die Treiberteams sicher binnen weniger Stunden einrichten. Ich stelle mir das so vor, dass der Treiber den APIs vorgaukelt, dass der Monitor Vielfache seiner nativen Auflösung wiedergeben kann, welche daraufhin in Spielen anwählbar sind. Die Praxis sähe dann so aus: Ein mit einem 1.920x1.200-LCD gesegneter Spieler stellt im Grafikmenü 3.840x2.400 ein und der Treiber sorgt für das Eindampfen auf die native Auflösung – hochkompatibles 2x2 OGSSAA ahoi.

Das ginge natürlich auch mit 3x3, 4x4, etc. OGSSAA ist zwar "minderwertig", aber besser als gar nichts. Außerdem ließe es sich in MSAA-unterstützenden Spielen mit jenem MSAA kombinieren, was Hybriden zur Folge hätte. Geil wär's scho, hm?. =)

MfG,
Raff
Die könnten es DX11 spezifisch, Fermi exclusiv als 6x6 SSAA verkaufen bzw. 36xAA. In dem sie einfach 16000x16000 Framebuffer zum maximalen Downsampling nutzen.
Das würde sogar auf 30 Zoll Monitoren gehen.

Gast
2009-12-29, 18:21:41
Sie haben keine Treiberprobleme, sondern finanilizieren die Treiber. Computerbase hat mehr ein Englischübersetzungsproblem...

Finanilizieren? Was'n das? Finalisieren? War wohl ein Übersetzungsproblem...

Chris Lux
2009-12-29, 20:35:48
Gibts eigentlich Infos/Spekus darüber, ob nV etwas ähnliches wie Eyefinity anbieten wird?
SLI Mosaic nennen die das. der haken ist, dass es nur fuer Quadro Plex modelle freigeschaltet ist. damit geht auch wieder twin view unter vista und 7.

Soundwave1983
2009-12-29, 21:05:44
Na hoffen wir mal, dass das auch für die normalen Karten freigeschaltet wird...sonst sehe ich da schon eine Welle der Kritik anrollen.

Chris Lux
2009-12-29, 21:36:05
wird nicht so schnell passieren.

mapel110
2009-12-30, 02:15:20
http://forum.beyond3d.com/showpost.php?p=1373507&postcount=2590
Wenn man Rys glauben schenken will, ist A3 nun also das finale Produkt.

V2.0
2009-12-30, 08:50:58
Wir werden sehen.

Ailuros
2009-12-30, 09:09:05
Wir werden sehen.

Siehe silent_guy's letzte Kommentare bei B3D: entweder A3 oder gar nichts. Ein echter respin (in Bx Form) wuerde viel zu lange dauern und fuer immer kann man das Ding auch nicht verspaeten. Mehr als eine 6-monatige Verspaetung im Vergleich zur Konkurrenz kann kein IHV schlucken, ergo muss das Ding zur Tuer raus egal wie beschissen die yields immer noch sein koennten. Und nein keiner weiss momentan wie A3 wirklich aussieht.

=Floi=
2009-12-30, 09:17:25
warum hat nv eigentlich ihre "6 monats strategie" nicht weiter gefahren? zumindest eine abwandlung davon? (9 monate?!)
die haben doch nach dem G80 nichts mehr gemacht und jetzt kommen sie nicht mehr zusammen. irgendwie ein wenig chaotisch.

reunion
2009-12-30, 09:24:29
http://forum.beyond3d.com/showpost.php?p=1373507&postcount=2590
Wenn man Rys glauben schenken will, ist A3 nun also das finale Produkt.

Rys sprach bis vor kurzem noch von einem Launch im Januar und Taktraten bei 1.7Ghz. Aber um zu wissen das A3 das finale Produkt sein wird braucht man kein Hellseher zu sein.

Siehe silent_guy's letzte Kommentare bei B3D: entweder A3 oder gar nichts. Ein echter respin (in Bx Form) wuerde viel zu lange dauern und fuer immer kann man das Ding auch nicht verspaeten. Mehr als eine 6-monatige Verspaetung im Vergleich zur Konkurrenz kann kein IHV schlucken, ergo muss das Ding zur Tuer raus egal wie beschissen die yields immer noch sein koennten. Und nein keiner weiss momentan wie A3 wirklich aussieht.

So ist es. Ein wirklich rund erneuertes B1 Stepping erfordert meist auch wieder ein B2 und das würde ewig Zeit benötigen. Entweder A3 oder man kann das Ding canceln und sich gleich auf die Nachfolger konzentrieren. War bei R600 nicht viel anders, auch da kam A13 auf den Markt obwohl man das Taktziel nicht ganz erreichte und der Stromverbrauch sehr hoch lag. Irgendwann macht eine weitere Verschiebung keinen Sinn mehr und man muss sich auf die Nachfolger konzentrieren.

Ailuros
2009-12-30, 09:29:02
warum hat nv eigentlich ihre "6 monats strategie" nicht weiter gefahren? zumindest eine abwandlung davon? (9 monate?!)
die haben doch nach dem G80 nichts mehr gemacht und jetzt kommen sie nicht mehr zusammen. irgendwie ein wenig chaotisch.

Der 6 Monate Zyklus gilt schon seit einigen Jahren nicht mehr fuer beide IHVs. Ein Nebeneffekt von steigender Chipkomplexitaet.


So ist es. Ein wirklich rund erneuertes B1 Stepping erfordert meist auch wieder ein B2 und das würde ewig Zeit benötigen. Entweder A3 oder man kann das Ding canceln und sich gleich auf die Nachfolger konzentrieren. War bei R600 nicht viel anders, auch da kam A13 auf den Markt obwohl man das Taktziel nicht ganz erreichte und der Stromverbrauch sehr hoch lag. Irgendwann macht eine weitere Verschiebung keinen Sinn mehr und man muss sich auf die Nachfolger konzentrieren.

A10 lag unter 400MHz Frequenz mit einem bombastischem Stromverbrauch, ergo ca. die Haelfte der Zielfrequenz. Die mickrigen 9% zwischen der finalen 725MHz Frequenz und dem originalen 800MHz Ziel haetten auch nicht den Tag gerettet. ATI hatte neben den 80nm@TSMC Problemen gleichzeitig mit ihren falschen Design-Entscheidungen und ein paar hw bugs zu kaempfen. Im gegebenen Fall sind nur Prozess-bedingte Probleme bekannt. Ob irgendwelche hw bugs bzw. falsche Design-Entscheidungen in der GF100 Architektur stecken bleibt zwar abzusehen, aber ich bezweifle sie auch ernsthaft egal in welche Richtung jeglicher Charlie spekulieren will (***edit: er sagte ja gerade auf B3D dass er einen "serious revamp" zwischen heute und 28nm erwartet; wie "sinnvoll" dieses ist hab ich ihm schon dort geantwortet. Und wenn Du Ihn fragst was genau sie dabei aendern wuerde kommt auch keine sinnvolle Antwort raus. Wie silent_guy ihm schon sagte, waere es besser wenn er sich darauf konzentrieren wuerde ueber tape outs zu berichten...)

Wie dem auch sei wenn die Gf100/A1 Frequenzen richtig sind, dann lag der erste tape out lediglich ~30% unter der originalen Zielfrequenz, welches erstmal ein ziemlich grosser Unterschied zu >50%/R600/A10 (375MHz@>300W) ist.

V2.0
2009-12-30, 09:36:44
Siehe silent_guy's letzte Kommentare bei B3D: entweder A3 oder gar nichts. Ein echter respin (in Bx Form) wuerde viel zu lange dauern und fuer immer kann man das Ding auch nicht verspaeten. Mehr als eine 6-monatige Verspaetung im Vergleich zur Konkurrenz kann kein IHV schlucken, ergo muss das Ding zur Tuer raus egal wie beschissen die yields immer noch sein koennten. Und nein keiner weiss momentan wie A3 wirklich aussieht.

Abwarten wie sich die kleinen Ableger entwicklen. Ein theoretischer G102 könnte ein ernste Alternative zur G100 sein, wenn es um den GeForce-Markt geht.

Ailuros
2009-12-30, 09:54:23
Abwarten wie sich die kleinen Ableger entwicklen. Ein theoretischer G102 könnte ein ernste Alternative zur G100 sein, wenn es um den GeForce-Markt geht.

Schau Dir mal das Diagramm auf der Hauptseite hier an; nichtdestominder nicht schlecht eingeschaetzt ;)

aylano
2009-12-30, 09:56:34
warum hat nv eigentlich ihre "6 monats strategie" nicht weiter gefahren? zumindest eine abwandlung davon? (9 monate?!)
die haben doch nach dem G80 nichts mehr gemacht und jetzt kommen sie nicht mehr zusammen. irgendwie ein wenig chaotisch.
Nichts getan würde ich nicht sagen.
Nvidia hat trotz Umbennungen mehr GPU-Dies & GPU-Shrinks als ATI rausgebracht.

ATI hat momentan einfach die besseren Konzepte, um schneller am Markt zu sein.

Ailuros
2009-12-30, 10:05:52
ATI hat momentan einfach die besseren Konzepte, um schneller am Markt zu sein.

+1!

V2.0
2009-12-30, 10:19:05
Wenn aber die Fermi-Architektur ein richtig guter Wurf ist, der ähnlich der G80 Serie auch gut skaliert, dann muss ATI nun wieder catch-up spielen. Und auch sie werden dann ein neue Architektur bringen müssen, die deutlicher mit der bisherigen evolutionären Entwicklung brechen muss.
Niemand kann garantieren, dass der Schritt zu 28nm schmerzfrei wird.

Ailuros
2009-12-30, 10:31:11
Wenn aber die Fermi-Architektur ein richtig guter Wurf ist, der ähnlich der G80 Serie auch gut skaliert, dann muss ATI nun wieder catch-up spielen.

Momentan ist aber NV am catch-up, da GF100 nicht um ca. 6 Monate frueher antanzt (wie G80 vs. R600).

Egal wie gut als Wurf GF100 sein koennte, vermindert sich sein Wert erstmal durch die Verspaetung und AMD ist schon am Hebel irgendwo Mitte des Jahres einen Refresh aufzutischen.

Ergo wird dem GF100 erstmal das originale G80 "halo" durch mehrere Faktoren entbehrt.

Und auch sie werden dann ein neue Architektur bringen müssen, die deutlicher mit der bisherigen evolutionären Entwicklung brechen muss.
Niemand kann garantieren, dass der Schritt zu 28nm schmerzfrei wird.

Zukuenftige Prozesstechnologie ist ein Kopfschmerz fuer beide IHVs; momentan eigentlich diametrisch groesser fuer NVIDIA, da AMD sich ihre Bude durch Globalfoundries erstmal gesichert hat.

***edit: uebrigens geht ATI doch gar nicht auf 28nm fuer den Anfang bei GF sondern zu 32nm afaik. Wie sieht es mit 32nm@TSMC genau aus?

Tarkin
2009-12-30, 11:12:05
***edit: uebrigens geht ATI doch gar nicht auf 28nm fuer den Anfang bei GF sondern zu 32nm afaik. Wie sieht es mit 32nm@TSMC genau aus?


"TSMC is rumored to have killed its 32nm node" wenn man Charlie glaubt ;)

http://www.semiaccurate.com/2009/11/20/tsmc-rumored-have-killed-their-32nm-node/

und so siehts bei GF aus:

http://www.hardware-infos.com/img/startseite/klein/globalfoundries-roadmap-2011.jpeg

http://www.hardware-infos.com/img/startseite/klein/globalfoundries-produkte.jpeg

32nm "Northern Island" wohl im Q4 2010... die Risk Production startet Ende Q2 2010. Wird knapp mit neuen Radeons im Herbst, oder?

Triskaine
2009-12-30, 11:46:23
Weder GF noch TSMC haben einen 32nm Bulk Node (mehr). Wurde beides gecancelt damit man sich stärker auf den 28nm Node konzentrieren kann. Die Super-High-Performance auf der GF Roadmap sind SOI.

reunion
2009-12-30, 11:53:41
Weder GF noch TSMC haben einen 32nm Bulk Node (mehr). Wurde beides gecancelt damit man sich stärker auf den 28nm Node konzentrieren kann. Die Super-High-Performance auf der GF Roadmap sind SOI.

32nm bulk gibt es definitiv bei GF. Wurde ja erst kürzlich vorgeführt. Wie kommst du darauf das der gecancelt wurde?

Triskaine
2009-12-30, 12:21:41
Weil es von sämtlichen Roadmaps verschwunden ist? Und ja, es existieren tatsächlich 32nm Wafer, aber auch 28nm Wafer. Der zeitliche und technische Abstand ist nicht groß genug, als das es sich lohnt zwei separate Nodes anzubieten.

nVoodoo
2009-12-30, 13:09:17
32nm bulk gibt es definitiv bei GF. Wurde ja erst kürzlich vorgeführt. Wie kommst du darauf das der gecancelt wurde?

http://www.globalfoundries.com/sites/default/files/uploads/roadmap_100609_0.jpg

Die Grafik ist die selbe wie von Tarkin nur das diese wohl aktualisiert wurde und direkt von der GF Homepage ist. Hinter den Prozessen steht jezz ob es SOI oder Bulk ist... und 32nm gibts bei GF nur mit SOI laut der Roadmap.

Dural
2009-12-30, 16:16:02
frag mich gerade was ati das ganze jahr machen wird, einen noch breiteren RV870 in 40nm wird es wohl kaum geben, 28nm ist wohl frühestens wenn alles gut geht erst ende 2010 bereit... ati will aber eigentlich mal eine neue architektur bringen und ohne serien test rv8xx in 28nm wird man das wohl kaum durch ziehen... das würde wohl frühesten Q2 2011 bedeuten für einen RV9xx in 28nm...

da bleibt ja fast nur das der RV9xx noch in 40nm kommt... naja wenigsten läuft dann 40nm sicher gut lol

bei NV ist wenisten alles "klar" für 2010, da hat man GF10x in 40nm und dann kommt sicher mal einen refresh in 28nm für 2010-2011...

Gestrandet
2009-12-30, 16:23:33
frag mich gerade was ati das ganze jahr machen wird
Vermutlich werden sie zusammen mit uns allen hier darauf warten, dass nvidfx endlich ihren legendären Fermi rausbekommt :tongue:

Knuddelbearli
2009-12-30, 16:23:40
tests wirds wohl ab anfang Q3 2010 geben und eben Risk wafer ab ende Q3 Serienprod dann aber eher erst Q1 eventuell sogar ende Q1

Burgard
2009-12-30, 16:25:28
ATI ist doch sogesehen durch.
Die haben ganz klar gesagt, dass die neue Architektur erst 2011 bzw. 2010 keine neuen GPU auf den Markt kommen.

Dural
2009-12-30, 16:31:00
ja ist so, aber wird man mit einem R6xx @ RV870 einjahr lang gegen Fermi durchhalten können???

fermi müsste ja schon ziemlich vermurkst sein wenn er den RV870 nicht stehen lässt... oder man bringt in nicht auf takt... aber das wird man ja erst noch sehen wie eine GTX380 so taktet....

und kommt jetzt nicht einen RV870 @ 1GHz wird es richten, das wären wohl nur um die 10-15% mehr leistung gegenüber 850MHz

Gast
2009-12-30, 16:31:21
tests wirds wohl ab anfang Q3 2010 geben und eben Risk wafer ab ende Q3 Serienprod dann aber eher erst Q1 eventuell sogar ende Q1

Wow, neue Sprache?

reunion
2009-12-30, 16:33:29
ATI ist doch sogesehen durch.
Die haben ganz klar gesagt, dass die neue Architektur erst 2011 bzw. 2010 keine neuen GPU auf den Markt kommen.

Evergreen stand auch erst 2010 auf der Roadmap. Ich denke man strebt durchaus wieder High-End für Q3-Q4/2010 an. Hängt dann natürlich auch davon ab ab wann man 28nm einsetzen kann. Im Q2/2010 kommt aber erst man ein Refresh noch in 40nm.

Dural
2009-12-30, 16:35:07
man wird aber wohl kaum High-End / eine neue Architektur in 28nm liefern wenn man 28nm nicht zuerst mit einem CHip getestet hat siehe zb. auch RV740 und da kam das "neue" zeugs ja auch erst ca. ein halbes jahr später...

für 2010 bleibt für die neue architektur doch fast nur 40nm übrig

Gast
2009-12-30, 16:41:36
Im Q2/2010 kommt aber erst man ein Refresh noch in 40nm.

In Q2 kommt erstmal garnichts.

Gast
2009-12-30, 16:41:45
ja ist so, aber wird man mit einem R6xx @ RV870 einjahr lang gegen Fermi durchhalten können???

fermi müsste ja schon ziemlich vermurkst sein wenn er den RV870 nicht stehen lässt... oder man bringt in nicht auf takt... aber das wird man ja erst noch sehen wie eine GTX380 so taktet....

und kommt jetzt nicht einen RV870 @ 1GHz wird es richten, das wären wohl nur um die 10-15% mehr leistung gegenüber 850MHz

Was ist das für ein Argument?
Bis die ganze neue NV Serie gelauncht ist vergeht noch locker ein halbes Jahr.
Was spielt es überhaupt für eine Rolle außer FB glaubt doch eh Niemand, dass der Fermi soviel schneller ist.(Außer halt den unumgänglichen "diekarteroxXxortallesweg"-Spekulation wie vor jedem Launch)
Jedenfalls nicht soviel als dass der rv870 nichtmal über Preissenkungen mehr attraktiv währe.
Man hat wohl dann nichtmehr den schnellsten Singlechip, aber Das wahr auch beim rv770 kein Problem.

Dural
2009-12-30, 16:44:42
laut den rohdaten müsste der GF100 schon min. 60% schneller sein als der GT200 bei selben takt + neue architektur die wohl kaum ineffizienter sein wird als die G80/GT200, oder gibt es jemanden der daran zweifelt?

Gast
2009-12-30, 16:47:46
laut den rohdaten müsste der GF100 schon min. 60% schneller sein als der GT200 bei selben takt + neue architektur die wohl kaum ineffizienter sein wird als die G80/GT200, oder gibt es jemanden der daran zweifelt?

Klar, die ganzen AMD Fanboys mit ihren unsinn in diesem Forum Aber da feiert man auch so ein Mittelding wie 5870 abgöttisch, der gerade mal im Durchschnitt 35% schneller als eine GTX285 ist. :lol:
Wenn GF100 20% schneller als die 5870 ist, dass ist man fast genauso gut. Wer brauch dann noch AMD.

Gast
2009-12-30, 16:48:04
Nein warum auch?
Hört sich doch relativ realistisch an.
Die 5870 ist jetzt ca. 30% schneller und die (imaginäre) 5890 ca. 40%.
Läuft im Endeffekt auf das Gleiche wie bei rv770 vs GT200 hinaus.

derguru
2009-12-30, 16:49:23
Wenn GF100 20% schneller als die 5870 ist, dass ist man fast genauso gut. Wer brauch dann noch AMD.

jeder der keine 500-600 euro zahlen will für die 20%.:wink:

Gast
2009-12-30, 16:53:06
jeder der keine 500-600 euro zahlen will für die 20%.:wink:

Der kauft sich dann die gleichschnell, gleichteure GF100 Karte. :lol:

Gast
2009-12-30, 16:53:23
Klar, die ganzen AMD Fanboys mit ihren unsinn in diesem Forum Aber da feiert man auch so ein Mittelding wie 5870 abgöttisch, der gerade mal im Durchschnitt 35% schneller als eine GTX285 ist. :lol:
Wenn GF100 20% schneller als die 5870 ist, dass ist man fast genauso gut. Wer brauch dann noch AMD.

Alle, die den rv770 auch gekauft haben und das waren verdammt viele kleiner Troll...

Dural
2009-12-30, 16:54:29
ja die selben 500-600Euro wie die GTX285 gekostet hat oder wie???

hört doch entlich mit diesem Preis blödsinn auf, fermi wird genau das kosten wie es die leistung es zulässt fertig.

wenn die GTX380 an die 5970 ran kommt (was wohl nicht der fall sein wird) wird die schon sicher min. 500.- plus kosten, und wenn nicht halt weniger, ist einfach so....

derguru
2009-12-30, 16:56:03
Der kauft sich dann die gleichschnell, gleichteure GF100 Karte. :lol:
jo,jo so wird es ganz sicher sein.(im august):comfort:

Gast
2009-12-30, 16:58:51
jo,jo so wird es ganz sicher sein.(im august):comfort:

Och, keine Argumente für deine Lieblingsfirma? :lol:

aylano
2009-12-30, 17:06:35
ATI ist doch sogesehen durch.
Die haben ganz klar gesagt, dass die neue Architektur erst 2011 bzw. 2010 keine neuen GPU auf den Markt kommen.
Instanbul kam auch 6 Monate früher;-)

Vermutlich werden sie zusammen mit uns allen hier darauf warten, dass nvidfx endlich ihren legendären Fermi rausbekommt
Pass auf was du sagts, das glauben ja noch einige.


Evergreen stand auch erst 2010 auf der Roadmap. Ich denke man strebt durchaus wieder High-End für Q3-Q4/2010 an. Hängt dann natürlich auch davon ab ab wann man 28nm einsetzen kann. Im Q2/2010 kommt aber erst man ein Refresh noch in 40nm.
Jupp, das dürften die wichtigstesn Meilensteine sein, sowie die Umstellung auf Globalfoundris und die Fusion GloFo mit Charterd.

Mal sehen, wie Chartered GloFo bei der Bulk-Einführung bzw. sonstigen Forschung helfen kann.

Chartered hat sogar schon 32nm-LP-Verfügbar, auch wenn es nur Low-Power ist.
http://www.charteredsemi.com/technology/32nm_available.aspx

Irgendwie ungünstig für TSMC, dass ihre Fertigung gerade etwas ungünstig läuft bzw. von 32/28nm auch noch nichts optimales zu höhren gibt.

derguru
2009-12-30, 17:13:14
Och, keine Argumente für deine Lieblingsfirma? :lol:
du hattest ja stichhaltige argumente.:rolleyes:

hier meine,
http://www.abload.de/thumb/dsci0022fc34nezu.jpg (http://www.abload.de/image.php?img=dsci0022fc34nezu.jpg)

das deine?
http://images.vizworld.com/wp-content/uploads/2009/10/nvidia-fermi-250x172.jpg

Burgard
2009-12-30, 17:14:59
Ich denke mal auch, dass das weitere Vorgehen von AMD von der Leistungsfähigkeit vom Fermi abhängt.
Warum sollte man schnellstmöglich eine neue Architektur durchdrücken, wenn es nur ein Leistungsunterschied von ca. 30 % gibt, zur 5890 wohlgemerkt.
Das kann man leicht mit einem niedrigeren Preis kompensieren, da der AMD-Chip billiger herzustellen ist.

Die ENtwicklung sollte auch mal Gewinn abwerfen, also sollte es tatsächlich erst im 1.Q 2011 losgehen, bis dahin reichen auch Refreshes.

Naja, alles steht und fällt eh mit der Leistung des Fermi.
Unterschied gering = lange warten auf einen Nachfolger
grosser Unterschied = ggf. Risk-Produktion

Gast
2009-12-30, 17:16:00
du hattest ja stichhaltige argumente.:rolleyes:

hier meine,
http://www.abload.de/thumb/dsci0022fc34nezu.jpg (http://www.abload.de/image.php?img=dsci0022fc34nezu.jpg)

das deine?
http://images.vizworld.com/wp-content/uploads/2009/10/nvidia-fermi-250x172.jpg

Oh, tolle Bilder. Leider habe ich keine von meinen GTX280 karten, aber ich kann dir versprechen, 5970 Leistung, tolles SSAA und schönes AF hatte ich schon bevor du deine 58xx Karten gekauft hast. :lol:
Aber der Sinn hinter deinen Bilder verstehe ich nicht, bis du doch der, der behauptet, es wird keine gleichteure GF100 Karte geben. Aber was solls's Fanboys sind eben nicht in der Lage ihr Gehirn für einwandfreie Konnektivität zu benutzen.

Ailuros
2009-12-30, 17:17:42
Weil es von sämtlichen Roadmaps verschwunden ist? Und ja, es existieren tatsächlich 32nm Wafer, aber auch 28nm Wafer. Der zeitliche und technische Abstand ist nicht groß genug, als das es sich lohnt zwei separate Nodes anzubieten.

http://www.brightsideofnews.com/news/2009/12/14/amd-to-launch-globalfoundries-gpu-production-in-2011.aspx

Gast
2009-12-30, 17:19:00
Ich denke mal auch, dass das weitere Vorgehen von AMD von der Leistungsfähigkeit vom Fermi abhängt.
Warum sollte man schnellstmöglich eine neue Architektur durchdrücken, wenn es nur ein Leistungsunterschied von ca. 30 % gibt, zur 5890 wohlgemerkt.
Das kann man leicht mit einem niedrigeren Preis kompensieren, da der AMD-Chip billiger herzustellen ist.

Die ENtwicklung sollte auch mal Gewinn abwerfen, also sollte es tatsächlich erst im 1.Q 2011 losgehen, bis dahin reichen auch Refreshes.

Naja, alles steht und fällt eh mit der Leistung des Fermi.
Unterschied gering = lange warten auf einen Nachfolger
grosser Unterschied = ggf. Risk-Produktion

Stimmt, klappte auch so wunderbar mit dem rv770. Wieviel Marktanteile hat man im Desktopbereich gleich nochmal gewonnen? 0? -1%? Ja, warten ist immer eine gute Strategie, wenn es dem Abgrund entgegen geht.

Burgard
2009-12-30, 17:35:52
Stimmt, klappte auch so wunderbar mit dem rv770. Wieviel Marktanteile hat man im Desktopbereich gleich nochmal gewonnen? 0? -1%? Ja, warten ist immer eine gute Strategie, wenn es dem Abgrund entgegen geht.
Wie soll eigentlich AMD auf NV reagieren, wenn der Fermi noch gar nicht auf dem Markt ist?

Es geht ja nicht um Stagnation, sondern um die Entwicklungsgeschwindigkeit um auf NV zu reagieren.

Wurde hier ja auch schon mehrfach angesprochen, aber irgendwie ist die Situation tatsächlich wie beim R600, der wurde auch erstmal gross angekündigt und nach den technischen Daten als Überchip betitelt, aber was letztendlich rauskam spricht eine andere SPrache.

Wie gesagt, jetzt ist erstmal NV am zug und muss zeigen was die Fermiarchitektur leisten kann.

Gast
2009-12-30, 17:52:22
Wurde hier ja auch schon mehrfach angesprochen, aber irgendwie ist die Situation tatsächlich wie beim R600, der wurde auch erstmal gross angekündigt und nach den technischen Daten als Überchip betitelt, aber was letztendlich rauskam spricht eine andere SPrache.

Wer hat damals eine GPU mit 16TMUs Überchip betitelt? Vor allem nachdem Nvidia gleich 32x2 zu bieten hatte.

Ailuros
2009-12-30, 17:57:25
Bitte zurueck zum Thema. Und wenn der geehrte Gast weiterhin provozieren will kann er sich eventuell eintragen und es privat ueber PMs loesen. Danke.

Gast
2009-12-30, 18:02:58
Es gibt neue Infos. Auch wenn die sechsfache Leistung sicher nur ein ausgewählter Benchmark war, die TDP von unter 45W klingt vielversprechend.


ich kenn die (aktuelle) leistung, weil ich gerade bei amd in indien bin (jetzt ueber silvester nicht direkt bei amd, hab gerade ferien). und dank meiner begeisterung fuer BD hatte ich die chance mal ein laufendes system zu begutachten d.h. ich durfte daneben sitzen und er hat mir ein paar sachen erklaert.

viele dinge kann man zb noch gar nicht starten damit es keine vorab-leaks geben kann. wenn du zb futuremark oder einen aehnlichen bench starten willst kommt nur einen fehlermeldung, jeder test muss vorher "angemeldet" werden.

das system bestand aus einem am3 board (mir unbekannt, stand amd drauf), 1gb ram (ka wieso so wenig), einer hdd und der cpu mit einem boxed kuehler. sah aus wie so ein aufbau fuer eine oc session auf einer messe.

takt war unter 2ghz. tdp unter 45w (4 BD-module). es gab einen test in dem die 4 BD-module (8 kern BD) mit unter 2ghz gegen einen x4 965 antraten und haushoch (also mehr als 7x so schnell) gewannen.

http://www.planet3dnow.de/vbulletin/showthread.php?p=4109035#post4109035

Gast
2009-12-30, 18:03:51
Es gibt neue Infos. Auch wenn die sechsfache Leistung sicher nur ein ausgewählter Benchmark war, die TDP von unter 45W klingt vielversprechend.




http://www.planet3dnow.de/vbulletin/showthread.php?p=4109035#post4109035


Bitte mal dahin verschieben: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=373646&highlight=Bulldozer

Gast
2009-12-30, 18:30:49
Wurde hier ja auch schon mehrfach angesprochen, aber irgendwie ist die Situation tatsächlich wie beim R600, der wurde auch erstmal gross angekündigt und nach den technischen Daten als Überchip betitelt, aber was letztendlich rauskam spricht eine andere SPrache.

Lol, die technischen Daten waren lächerlich im Vergleich zum G80. 64 gegen 16 TMUs, 24 gegen 16 ROPs, 8 Z Tester pro ROP gegen 2 Z Tester. Komplett überarbeitet Rechenarchitektur mit deutlich höheren Shadertakt gegen weiterhin Vec5 Einheiten, die nur auf Basetakt liefen. Das einzige, was monströs war, waren die 320 Recheneinheiten, die man als Marketinggag gegen nVidia's 128 ALUs verkaufen wollte. Okay, auch das 512bit Speicherinterface, dass die läppischen 16 TMUs füttern sollte. Ach und der tolle Ringbus, den man dann beim rv770 rausworf, genauso wie die FP TMUs, die nichts brachten. :lol:


Wie gesagt, jetzt ist erstmal NV am zug und muss zeigen was die Fermiarchitektur leisten kann.

Man weiß, wo Fermi liegen wird. Dazu muss man nichtmal ein Prophet sein. Egal wie es kommt, Gleichstand wird aufjedenfall als Minimum herrschen. Und dann wird sich ein Größteil der Kunden wieder für nVidia entscheiden, aufgrund des Namens und des Marketings.

Gestrandet
2009-12-30, 18:41:21
Und dann wird sich ein Größteil der Kunden wieder für nVidia entscheiden, aufgrund des Namens und des Marketings.
Sag mal, soll das hier Antiwerbung werden oder was? Wer bezahlt dich Clown denn?
Bitte, bitte, kein Schreibrecht mehr für Gäste ...

Burgard
2009-12-30, 19:22:35
Man weiß, wo Fermi liegen wird. Dazu muss man nichtmal ein Prophet sein. Egal wie es kommt, Gleichstand wird aufjedenfall als Minimum herrschen. Und dann wird sich ein Größteil der Kunden wieder für nVidia entscheiden, aufgrund des Namens und des Marketings.

Gleichstand wäre eine Katastrophe, das glaube ich aber nicht, selbst bei 30% wird es schon sehr schwer auf dem Consumermarkt.
Die Enthusiast-Gruppe sind wieder eswas anderes, da geht es um jedes einzelne Frame, was man gewinnen kann. :biggrin:

Image und Marketing ist nur ein Punkt für ein erfolgreiches Produkt.
Als Beispiel sei hier mal die Situation auf dem Konsolenmarkt (Verlauf Sony)zu sehen.
Der Preis ist ein viel zu gewichtiger Punkt um es mit Image wieder aufzuwiegen.
Wer kauft schon ein 500-600 Euro-Produkt, zumindest siedele ich dort die 380GTX an.
Bei der Grösse des Chips sollte der Preis schon recht hoch sein.

mapel110
2009-12-30, 19:34:22
Die Größe des Chips wird für den Verkaufspreis so gut wie keine Rolle spielen. Nur die Marge von nvidia hängt davon ab. Der Kunde bekommt davon nichts mit.

Gast
2009-12-30, 19:39:14
Was anderes kann sich NV auch nicht erlauben.
Der Preis hängt in einem dualen Markt nur von dem Konkurrenten ab und sonst von nichts.

Burgard
2009-12-30, 19:43:05
Die Größe des Chips wird für den Verkaufspreis so gut wie keine Rolle spielen. Nur die Marge von nvidia hängt davon ab. Der Kunde bekommt davon nichts mit.
Aber wie weit kann NV den Preis drücken?
Auch NV muss sich an kalkulatorische Gegebenheiten halten,
Yield, Grösse des Chip usw.

Zumindest kann man, wenn die ersten Berichte über die Yield mit A3 da sind abschätzen, wo die Reise hingeht.

Gast
2009-12-30, 19:47:53
Als ob AMD die Preise soweit senken könnte, wie sie wollen. Warum redet man über Marktverhalten und Wirtschaftlichkeit, wenn man keine Ahnung vom Käuferverhalten, Produktionskosten und sonstigen Sachen hat?
nVidia kann GF100 für den selben Preis verkaufen wie den GT200(b). Ihre Margen werden sogar höher sein als die von AMD im Vergleich zum letzten Jahr, da sie einen kleineren Chip, weniger Layer und weniger Speicher benötigen. Dagegen ist Cypress größer, hat ein aufwendigeres Board und Stromversorgung und benötigt teureren Speicher.
Also, wozu also über Dinge reden, die a) niemand weiß und b) die sowieso eintreten. nVidia schnitt letztes Jahr in ihre margen und werden es diesmal wieder machen.

StefanV
2009-12-30, 19:54:24
@Gast (#7480)
Kanns sein, das du hier irgendwas verwechselst?!

Der Fermi ist deutlich größer (um die 500mm²) als der RV870, hat ein breiteres Interface (384bit zu 256bit), entsprechend brauchen sie mehr Speicherchips und auch Layer.
Die Spannungsversorgung ist noch nicht ganz klar, hier weiß man nicht, wieviel Saft sich der Fermi genehmigt, es kann sein, dass die Spannungsregelung preisgünstiger als bei AMD sein kann, da weniger in Wärme umgesetzt wird, es kann aber auch sein, dass hier mehr Wärme umgesetzt wird...

Womit wir wieder beim Tee rauchen wären...

Gast
2009-12-30, 20:02:52
@Gast (#7480)
Kanns sein, das du hier irgendwas verwechselst?!

Der Fermi ist deutlich größer (um die 500mm²) als der RV870, hat ein breiteres Interface (384bit zu 256bit), entsprechend brauchen sie mehr Speicherchips und auch Layer.
Die Spannungsversorgung ist noch nicht ganz klar, hier weiß man nicht, wieviel Saft sich der Fermi genehmigt, es kann sein, dass die Spannungsregelung preisgünstiger als bei AMD sein kann, da weniger in Wärme umgesetzt wird, es kann aber auch sein, dass hier mehr Wärme umgesetzt wird...

Womit wir wieder beim Tee rauchen wären...

Es geht um GT200 gegen GF100 und rv770 gegen Cypress. Bei nVidia verbessert sich die Situation, bei AMD ist sie schlechter geworden.

Gast
2009-12-30, 20:36:03
Mehr als 1GiB VRAM stören mich bei einer 600€ Grafikkarte nicht besonders.
Selbst eine 300€ Karte mit nur 1GiB würde ich nicht ohne nachzudenken einkaufen.

Die mehr Speicherchips sind kein Nachteil. Damals zu GT200 Zeiten hatte Nvidia noch knapp das doppelte an VRAM, jetzt sinds eben nur noch 50% mehr.

Black-Scorpion
2009-12-30, 20:39:16
Wenn sie das Speichermanagement nicht verbessert haben sind sie auch weiter gezwungen auf Masse zu setzen.

Gestrandet
2009-12-30, 21:06:23
Wenn sie das Speichermanagement nicht verbessert haben sind sie auch weiter gezwungen auf Masse zu setzen.
Sag mal, hörst du dem Gast eigentlich garnit zu???
Bei NVIDIA wird es besser, bei AMD wird es schlechter. nv = buy, ati = sell. Is doch ganz einfach. ;D

PulsarS
2009-12-30, 21:32:39
Es geht um GT200 gegen GF100 und rv770 gegen Cypress. Bei nVidia verbessert sich die Situation, bei AMD ist sie schlechter geworden.
Und was soll dieser sinnlose Vergleich bringen?
Tritt etwa der GT200 gegen den GF100 an? Oder der RV770 gegen den RV870?

Der RV870 tritt gegen GF100 an und nur hier macht ein Vergleich Sinn.

Und hier sieht der RV870 doch nach deutlich günstiger in der Herstellung aus als der GF100.

IVN
2009-12-30, 21:47:29
Und was soll dieser sinnlose Vergleich bringen?
Tritt etwa der GT200 gegen den GF100 an? Oder der RV770 gegen den RV870?

Der RV870 tritt gegen GF100 an und nur hier macht ein Vergleich Sinn.

Und hier sieht der RV870 doch nach deutlich günstiger in der Herstellung aus als der GF100.
Er will damit zeigen, das Nv in der aktuellen Runde viel besser dasteht, als damals (gt200 vs rv770).

Gast
2009-12-30, 21:49:21
Der RV870 tritt gegen GF100 an und nur hier macht ein Vergleich Sinn.

Gegen was tratt RV770 an? :rolleyes:

PulsarS
2009-12-30, 21:53:23
Er will damit zeigen, das Nv in der aktuellen Runde viel besser dasteht, als damals (gt200 vs rv770).
Aber trotzdem schlechter als AMD.
Was soll dieser Vergleich?
Totaller Unsinn.:rolleyes:

StefanV
2009-12-30, 21:54:59
Er will damit zeigen, das Nv in der aktuellen Runde viel besser dasteht, als damals (gt200 vs rv770).
Dem ist momentan ganz und gar nicht so, denn AMD kann liefern, nV, dank des doch etwas zu großem Dies, nicht.

Gast
2009-12-30, 21:56:45
Er will damit zeigen, das Nv in der aktuellen Runde viel besser dasteht, als damals (gt200 vs rv770).

Mit einem Monate späterem Lunch(voraussichtlich) und ca. 750 mio $ mehr Entwicklungskosten steht man unglaublich gut da ja...

Coda
2009-12-30, 21:56:56
Wer wie gut oder nicht dasteht wird sich zeigen wenn NVIDIA damit auf dem Markt ist. Vorher nicht.

Mit einem Monate späterem Lunch(voraussichtlich) und ca. 750 mio $ mehr Entwicklungskosten steht man unglaublich gut da ja...
Wann's Essen gibt bestimmt nicht wie gut es ist. Der Preis oft aber schon.

IVN
2009-12-30, 21:59:18
Aber trotzdem schlechter als AMD.
Was soll dieser Vergleich?
Totaller Unsinn.:rolleyes:

Ohhh man! Bist du wirklich sooo blöd, oder tust du nur so?

Der Gast behauptet nicht, das Fermi günstiger zu fertigen ist, als das ATI-Pendant. Was er sagen will, ist, das Nv in der aktuellen Runde besser dasteht als damals.

Falls du nicht imstande bist das zu begreifen, dann geh zu nem Neurologen. :rolleyes:

Psychopat
2009-12-30, 21:59:55
...
nVidia kann GF100 für den selben Preis verkaufen wie den GT200(b). Ihre Margen werden sogar höher sein als die von AMD im Vergleich zum letzten Jahr, da sie einen kleineren Chip, weniger Layer und weniger Speicher benötigen. Dagegen ist Cypress größer, hat ein aufwendigeres Board und Stromversorgung und benötigt teureren Speicher.
...

Du hast vergessen das AMD den Cypress ein halbes Jahr lang überteuert verkaufen kann da es der einzige DX11 Chip ist. DAS sind mal tolle Margen.
Fermi dagegen wird bei erscheinen dagegen gleich von den 58xx von unten und von 5970 von oben in die Zange genommen. Da wird gleich der Preiskampf beginnen.

Gast
2009-12-30, 22:00:47
Wann's Essen gibt bestimmt nicht wie gut es ist. Der Preis oft aber schon.

Das stimmt natürlich.
Aber Papi ist schon ganz ungeduldig und die Kinder quängeln auch schon, wie man an diesem wertvollen Thread erkennen kann.:)

Burgard
2009-12-30, 22:05:34
Du hast vergessen das AMD den Cypress ein halbes Jahr lang überteuert verkaufen kann da es der einzige DX11 Chip ist. DAS sind mal tolle Margen.
Fermi dagegen wird bei erscheinen dagegen gleich von den 58xx von unten und von 5970 von oben in die Zange genommen. Da wird gleich der Preiskampf beginnen.
Das stimmt so nicht.
Der hohe Preis wird durch die Einzelhändler generiert, nicht durch AMD.
Amd sieht davon nicht einen müden Dollar.

Edit:
Ob sich der Kampfpreis für AMd rechnet wird man sehen.

PulsarS
2009-12-30, 22:08:18
Ohhh man! Bist du wirklich sooo blöd, oder tust du nur so?

Der Gast behauptet nicht, das Fermi günstiger zu fertigen ist, als das ATI-Pendant. Was er sagen will, ist, das Nv in der aktuellen Runde besser dasteht als damals.

Falls du nicht imstande bist das zu begreifen, dann geh zu nem Neurologen. :rolleyes:
Du kannst ganz locker mit dem Ton runter. :wink:
Ich habe schon alles ganz gut verstanden, was der Gast meint.
Das ändert aber 0,nichts an meiner Aussage, dass dieser Vergleich sinnlos ist.

Denn GF100 muss gegen den RV870 antreten.
Da interessiert die alte Generation 0,nichts.

Coda
2009-12-30, 22:13:46
Das stimmt so nicht.
Der hohe Preis wird durch die Einzelhändler generiert, nicht durch AMD.
Amd sieht davon nicht einen müden Dollar.
Dann wären sie aber schon ziemlich dämlich.

Burgard
2009-12-30, 22:18:23
Dann wären sie aber schon ziemlich dämlich.
Das wäre nicht das erste Mal um Marktanteile zu erhalten.
Die Quartalszahlen werden es zeigen wie wirtschaftlich die GPU gefertigt wird.

IVN
2009-12-30, 22:19:43
Du kannst ganz locker mit dem Ton runter. :wink:
Ich habe schon alles ganz gut verstanden, was der Gast meint.
Das ändert aber 0,nichts an meiner Aussage, dass dieser Vergleich sinnlos ist.

Denn GF100 muss gegen den RV870 antreten.
Da interessiert die alte Generation 0,nichts.

Wie es schein hast du entgegen deiner Bahauptung wohl doch nur "0,nix" verstanden.

Die alte generation interessiert insofern ---> G200/576mm² vs RV770/260mm²

Und jetzt wird es so sein-----> Fermi/530mm² vs. RV870/334mm²


Erkennst du was?