PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 [60] 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2010-03-09, 15:59:03
In der Zwischenzeit sind wir wieder so stark off topic dass es nicht mehr schoen ist. Die T&L Einheiten sassen alles andere als dumm rum damals auf den GFs egal ob sie nicht direkt fuer wirkliche lighting Aufgaben genutzt wurden, aber den alten Kaugummi brauchen wir jetzt nicht wieder widerholen.

Der eigentliche Punkt war dass nicht nur NV mit den Jahren falsche Design-Entscheidungen getroffen hat. Ob die Anzahl der TMUs auf GF100 wirklich ein Problem sein werden (wobei ich nicht besonders viel Hoffnung fuer angenehme Ueberraschungen habe) bleibt abzusehen. Technisch gesehen hat mit GF100 genau die gleiche Analogie wie ATI auf ihren GPUs; nur eben Pech dass es 20 cluster bei Cypress sind und "nur" 16 bei GF100.



Hier hast Du lediglich ein Beispiel wo die T&L Einheit damals doch nicht dumm herumhockte: http://www.beyond3d.com/content/articles/42/

Sonst wenn man etwas integriert dass zu stark an 3D Leistungs-Transistoren abnagt und eine Architektur dadurch generell sehenswert vernachlaessigt was ihre Effizienz betrifft dann kann's kritisch werden.

Hat auf R600 die Tessellations-Einheit den Schaden angerichtet oder dass jemand das Ding auf single cycle 2xMSAA und sogar noch durch shader resolve begrenzte? Oder anders wer zum Henker hatte nochmal die Schnappsidee fuer single cycle FP16 filterung der zum 512bit Bus genau fuehrte? Da die Tessellations-Einheit (mit Ausnahme 2-3 Spielen auf der XBox360) wirklich nur dumm herumhockte und der Platz den sie einnnimmt nicht der Rede wert ist, ist es genau IMO nebenwichtig.

Zum Thema zurueck: falls NV Texturfuellrate fuer Geometrie bzw. Tessellation opferte (und ja dass muss sich erst noch herausstellen) dann hat man fuer erste zu wenig und fuer's zweite zu viel Transistoren implementiert. Um das geht es eigentlich.
Und ich hänge noch an, dass 3dfx wohl vorallem aufgrund grosser Design-Fehlentscheide den Löffel abgab. Klar war das marketing auch kacke und die geschäftsleitung hat sich mit dem Kauf von ST blabla keinen gefallen getan - aber die groben Schnitzer sassen in entweder unnötigen Featuresets welche da waren, oder featuresets wurden nicht unterstützt welche "sinnvoll" waren.

btt - gibt es bekannte pre-launch kumpels von NV welche was rausgeben dürfen? ala ananadtech oder so`?

Coda
2010-03-09, 16:21:09
Ich bezug mich im allgemeinen auf die FF-Einheit.
Welche "FF-Einheit"?

Sie haben die Einheit in die Polymorph Einheiten "ausgelagert".
Na und? Und wieso hat sie dann auf einmal mehr Transistoren? Außer das sie mehrfach vorhanden ist?

Ich geh mal davon aus, dass ein Tesselator bei NVIDIA eher einen geringeren Durchsatz hat als das ATI-Ding.

AnarchX
2010-03-09, 16:27:46
Ich geh mal davon aus, dass ein Tesselator bei NVIDIA eher einen geringeren Durchsatz hat als das ATI-Ding.
Das kann man wohl annehmen: http://www.computerbase.de/bildstrecke/28115/17/
Im directed test (high) kommt man etwa auf 40%.

Coda
2010-03-09, 16:34:15
Wenn dann muss man mit dem "high detail"-Test rechnen.

Gast
2010-03-09, 17:00:26
Ich geh mal davon aus, dass ein Tesselator bei NVIDIA eher einen geringeren Durchsatz hat als das ATI-Ding.
Und ich gehe davon aus, dass der Hardware-Aufwand pro Tessellator bei Nv wesentlich geringer als bei Ati ist. ;)

-Carsten

Coda
2010-03-09, 17:22:47
Hab ich was anderes behauptet?

Gast
2010-03-09, 17:32:29
Hab ich was anderes behauptet?
Nein. Hab ich behauptet, dass du was anderes behauptet hast?

-Carsten

Coda
2010-03-09, 17:33:59
Kam durch den Smiley so rüber.

LovesuckZ
2010-03-09, 17:35:04
Ich seh gerade ein Posting im B3D.com Forum bezüglich der TDP der GTX470:
220 TDP - 21 Watt für den Lüfter = 199 Watt für die Karte. Cypress liegt 179 Watt. Also im Worst-Case Fall liegt man 20 Watt über Cypress mit 25% mehr Speicher.

Gast
2010-03-09, 17:38:43
Ich seh gerade ein Posting im B3D.com Forum bezüglich der TDP der GTX470:
220 TDP - 21 Watt für den Lüfter = 199 Watt für die Karte. Cypress liegt 179 Watt. Also im Worst-Case Fall liegt man 20 Watt über Cypress mit 25% mehr Speicher.

Verkauft NV die Karte auch ohne Lüfter oder was willst du mit dieser sinnlosen Rechnung bezwecken? Die zwei zusätzlichen Speicherchips machen max. 5W aus.

Coda
2010-03-09, 17:40:33
21W für den Lüfter sind vollkommen utopisch. Als ob der auf 100% laufen würde.

AnarchX
2010-03-09, 17:42:10
Also im Worst-Case Fall liegt man 20 Watt über Cypress mit 25% mehr Speicher.
Wobei man mit 4Gbps @ 3,6Gbps wohl auch noch etwas Spannung beim Speicher sparen kann. Sodass die 12 Speicherchips wohl weniger verbrauchen könnten als die 10 bei der 5870.
Aber bei diesem Verbrauchswerten bringt Nvidia hoffentlich noch etwas mehr als die 1,25GHz Hot-Clock der A2-Samples.

Gast
2010-03-09, 17:44:43
Kam durch den Smiley so rüber.
Das war nicht meine Absicht, sorry.

-Carsten

AnarchX
2010-03-09, 17:48:49
Kann mir immer noch nicht vorstellen, dass eine GTX470 mit Taktraten unterhalb der Teslas auf den Markt kommt (1400/700)...
Tesla wurde für 1250-1400MHz projiziert, wobei letzteres ein schon sehr optimistischer Wert sein könnte, den man erst im H2 liefern kann, wie auch bei Tesla 10, wo später noch auf 1,44GHz erhöht wurde.
1,35GHz wäre wohl schon ein sehr guter Wert für die 470.

Schlammsau
2010-03-09, 17:52:57
Ich habs grad mit meiner 5850 im Referenzdesign getestet.

Zwischen 0% und 100% Drehzahl liegen rund 10 Watt!

Wieviel Ampere hat der Lüfter einer 5850?

LovesuckZ
2010-03-09, 17:54:01
Ich habs grad mit meiner 5850 im Referenzdesign getestet.

Komme auf 10W Differenz, zwischen 0% und 100% Drehzahl.

Wieviel Watt hat der Lüfter einer 5850?

Wenn es der selbe ist wie auf dem Bild: 9,6 Watt.

Coda
2010-03-09, 17:54:07
Nochmal zu Klärung. Wer kommt auf das schmale Brett das der fuzzelige Lüfter über 20 Watt braucht? Das kann doch eigentlich nur aus der roten Ecke kommen...
Maximal augenscheinlich schon. Es stehen 1.8A bei 12V drauf. Eindeutiger geht es elektrotechnisch gesehen nicht ;)

Ich habs grad mit meiner 5850 im Referenzdesign getestet.

Komme auf 10W Differenz, zwischen 0% und 100% Drehzahl.

Wieviel Watt hat der Lüfter einer 5850?
Und was genau soll der Test jetzt sagen? Es kann genauso gut sein, dass der Fan-Controller der GTX 270 eben nicht bis 12V, sondern nur 6V steuert bei 100%.

Ratings auf dem Bauteil sind Maximalwerte. Die ganze Diskussion geht mir deshalb schon auf die Nerven.

Coda
2010-03-09, 18:00:03
9,6 Ampere?
Nein? P = U * I? :ugly:

Mal ganz abgesehen davon, dass Ampere die Maßeinheit für Strom ist und Watt für Leistung. Aber das sind ja nur Nebensächlichkeiten :usad:

Coda
2010-03-09, 18:02:22
Der Motor ist brushless, der läuft sogar ganz sicher noch mit <6V.

Schlammsau
2010-03-09, 18:06:20
Wie gesagt zwischen 0 und 100 Lüfterdrehzahl liegen rund 10 Watt bei einer 5850. Passt ja ganz gut zu der angegebenen Amperezahl auf dem Lüfter. Und das ist verdammt laut.

Aber der Lüfter einer GTX470 soll ja die doppelten Ampere haben.....OMG. :eek:

Coda
2010-03-09, 18:09:58
Aber der Lüfter einer GTX470 soll ja die doppelten Ampere haben.....OMG.
Liest du eigentlich auch was ich schreibe?

1. Kein GPU-Lüfter der Welt läuft selbst im 3D-Betrieb auf 100%.
2. Du weißt nicht welche Spannungen NVIDIA wirklich anlegt.

Kurz: Wir wissen *NICHTS*, bevor nicht jemand die Karte in der Hand hält.

Ich kenne hunderte solche Motoren, natürlich brushless, und die wenigstens laufen mit <7V. Aber wenn du meinst.
Ich weiß eins sicher: Die Karte braucht keinen Luftstrom, der von einer normalen 21W-Turbine erzeugt wird. Bleiben zwei Möglichkeiten:

1. Das Ding läuft mit deutlich niedrigerer Drehzahl als andere vergleichbare Lüfter bei diesen Ratings.
2. Die Spannungen sind niedriger

Nakai
2010-03-09, 18:10:52
Ich seh gerade ein Posting im B3D.com Forum bezüglich der TDP der GTX470:
220 TDP - 21 Watt für den Lüfter = 199 Watt für die Karte. Cypress liegt 179 Watt. Also im Worst-Case Fall liegt man 20 Watt über Cypress mit 25% mehr Speicher.

Nie und nimmer. Man wird wohl auf HD5870-Niveau liegen. Seit dem RV770 liegt ATI je nach Fall deutlich näher an den TDP-Angaben. NV macht da immer deutlich mehr Luftraum.

Im directed test (high) kommt man etwa auf 40%.

Wie taktet der Tesselator nochmal? Kein Hotclock oder?


mfg

Schlammsau
2010-03-09, 18:13:09
Liest du eigentlich auch was ich schreibe?

1. Kein GPU-Lüfter der Welt läuft selbst im 3D-Betrieb auf 100%.
2. Du weißt nicht welche Spannungen NVIDIA wirklich anlegt.

Kurz: Wir wissen *NICHTS*, bevor nicht jemand die Karte in der Hand hält.

Hab ich doch gar nicht gesagt oder!? :P

Aber dann stellt sich trotzdem die Frage, warum nur baut nVidia einen so starken Lüfter in den Kühler?

Coda
2010-03-09, 18:15:13
Meine Vermutung ist, dass das nächstkleinere Modell nicht genügend Luft nach oben in extremen Fälle gehabt hätte.

Sprich 10W reichen bei dem "kleinen" Radiallüfter nicht mehr um den Betrieb in jeder Situation (verstopftes Gehäuse, 30° Außentemperatur) zu gewährleisten.

Die Ansteuerung ist doch sowieso PWM soweit ich weiß, dann erledigt sich das Anlaufproblem ohnehin.

Coda
2010-03-09, 18:22:23
Ich bleibe dabei das der Lüfter nicht bei Serienkarten verbaut wird. Es würde ja auch keinen Sinn machen eine 21W-Turbine zu verbauen wenn man sie nicht braucht. Das macht die Karte ja auch nicht billiger.
Das ist natürlich auch eine Möglichkeit.

Wie dem auch sei, ich würde da auf jeden Fall keine voreiligen Schlüsse ziehen, weil eben das PCB-Design nicht gerade nach einem unglaublichen Stromschlucker als GPU aussieht.

Es gibt schon noch "einige" Modell zwischen 0.8A und 1.8A. :D
Von genau dem Radiallüfter in der Größe? Bist du dir da sicher?

The Jackal
2010-03-09, 18:35:47
Bei allen aktuellen Grafikkarten sind die Lüfter PWM. Pulsweitenmodulation.

Bedeutet der Lüfter kriegt immer 12V in die Wicklung iniziert, doch sind die Abstände unterschiedlich. Bei 100% leigt ein ununterbrochener Dauerimpuls vor. Man kann Sagen die 12V liegen permanent an.

Mit PWM ist sichergestellt das der Lüfter immer anläuft.

AnarchX
2010-03-09, 19:05:04
http://img695.imageshack.us/img695/6757/21bd86d6df914b6d8d8873b.jpg
http://img695.imageshack.us/img695/5853/b1796530ed7d4f48921da3d.jpg
http://bbs.expreview.com/thread-27852-1-1.html

Blaire
2010-03-09, 19:12:13
http://we.pcinlife.com/attachments/forumid_206/1003080032f3987bf567ef4af6.jpg

2xGTX470@SLI
Dies entspricht ca. 3xGTX285@TriSLI...

Gast
2010-03-09, 19:13:24
Ein 470er bench, oder? Damit wäre das dann der Gegner der 5870...

=Floi=
2010-03-09, 19:15:48
schon ernüchternd.

y33H@
2010-03-09, 19:16:26
@ Blaire

Da 3x GTX285 grob doppelte GTX285-Fps erzielen, wäre eine GTX470 so flott wie 1,5 x GTX285 =)

StefanV
2010-03-09, 19:34:05
Und was genau soll der Test jetzt sagen? Es kann genauso gut sein, dass der Fan-Controller der GTX 270 eben nicht bis 12V, sondern nur 6V steuert bei 100%.
Ähm, sorry, aber das wäre völlig dämlich.

Denn wenn man nur 50% der Leistung von dem Lüfter wirklich brauchen würde, würde man keinen mit 1,8A Aufnahme verbauen sondern nur einen, der mit etwas reserve reicht und nicht mal eben noch 50-100% Toleranz hat.

Zumal die 'Hochleistungslüfter' deutlich teurer sein dürften als die wesentlich schwächeren - was auch logisch ist, da die Lager z.B. wesentlich weniger aushalten müssen.

Anyway: bei einem 21,6W Lüfter auf einer Grafikkarte bekomme ich Bauchweh...
Denn wenn man sowas verbaut hat man entweder bei der Kühlerkonstruktion gewaltigen Mist gebaut, so dass man einen Quirl mit höherer Drehzahl braucht oder der Chip verbrät recht viel Leistung, die abgeführt werden muss.
Eine weitere Möglichkeit wäre, dass der Chip nur eine gewisse Temperatur (ie 70°C) im Kern nicht überschreiten darf, um stabil zu arbeiten.

Da die TDP hier nicht höher ist als bei vorherigen Karten, halte ich das sogar für am wahrscheinlichsten, gerade auch wenn man von den Ausfällen/Defekten bei AMD Radeon 5870 Karten weiß, die nach einiger Zeit nicht mehr zuverlässig arbeiten...

StefanV
2010-03-09, 19:36:44
Wir sprechen hier von einem E-Motor, da kannst du nicht beliebig herunter mit der Spannung, da er sonst nicht mehr anläuft. Bei 12V Nennspannung wird man einen solchen Lüfter kaum mit 6V oder weniger betreiben können.Das stimmt nicht.
Erstens ist er, wie Coda sagte, Bürstenlos, zum anderen ists in Netzteilen üblich, den Lüfter mit wesentlich weniger Spannung laufen zu lassen.
In meinem Falle läuft der mit etwa 3,5V, ohne PWM.

Mit mit der zusätzlichen PWM Ader kann man die Drehzahl sogar noch weiter senken.

crux2005
2010-03-09, 20:05:27
Mache mal OBR Werbung. Mehr GTX 470 Bilder: http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/16852-prvni-pohled-na-gtx-470

http://img704.imageshack.us/img704/3599/99432628.png
http://img28.imageshack.us/img28/4721/43228378.jpg
http://img717.imageshack.us/img717/9393/65694439.jpg
http://img235.imageshack.us/img235/7576/58372263.jpg
http://img251.imageshack.us/img251/7834/40787231.jpg

der GF Driver Screen ist am interessantesten: 1000MHz GDDR 5...
EDIT: Laut der News sind die 1000MHz nicht der Finale Takt des Speichers.

N0Thing
2010-03-09, 21:00:47
Und wenn die 5870/2GB nicht schneller ist? Wer jetzt noch nicht gekauft hat, der steht doch dann vor der Wahl, zwischen gleichschnell in nT und schneller in T gegen gleichschnell in nT und langsamer in T.
Was ist dann da der bessere Deal?


Kommt auf den Preis der beiden verglichenen Grafikkarten an.
Tessellation finde ich prima, könnte ein Feature werden, daß trotz Konsolenports in PC-Spielen mit der Zeit häufig Anwendung findet. Daß Tessellation entscheidend dafür ist, welche Grafikkarte man sich kauft, erwarte ich erst für die nächsten oder übernächsten Grafikchips. Nichts desto trotz finde ich es gut, daß Nvidia scheinbar eine gute Leistung beim Einsatz von Tessellation an den Tag legt, dies wird mit den nächsten Chips wohl nicht schlechter werden und falls ich mich irre, bieten ihre Karten auch schon dieses Jahr einen Pluspunkt beim Grafikkartenkauf.

Für mich ist aber weiterhin das perfekte AF wichtig und idealerweise eine Möglichkeit SSAA via Downsampling über den Treiber für jedes Spiel zu aktivieren. Das fällt mir gerade beim spielen von Dead Space besonders auf.
Deshalb ist für mich die Performance ohne Tessellation zur Zeit noch wichtiger als mit.
D.h. aber wie gesagt nicht, daß ich es nicht gut finden würde, daß der GF100 beim Einsatz von Tessellation scheinbar kaum an FPS verliert. Ich sehe es aber eher als Investition in die Zukunft.


Hauptsache PhysX wird genutzt, was man bei Havok in aktuellen Games nicht behaupten kann:D

Just Cause 2 nutzt z.B. Havok. ;)

dildo4u
2010-03-10, 02:03:54
Far Cry 2 Benches.2560*1600 8XAA 40fps GTX 470/32fps 5870.

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/bildergalerie/?iid=1257488&vollbild

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/

mapel110
2010-03-10, 02:21:12
Das dauert 2-3 Tage, bis die Zahlen aus dem asiatischen Raum zu uns kommen?! Das muss deutlich schneller gehen in Zukunft. :motz:
Tolle FC2-Zahlen, aber die gute Performance in dem Game wissen wir seit Januar.

Gast
2010-03-10, 02:24:14
Hier noch mal ein alter bench. http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html. Vom 17. Januar.

Gast
2010-03-10, 07:36:08
Far Cry 2 Benches.2560*1600 8XAA 40fps GTX 470/32fps 5870.

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/bildergalerie/?iid=1257488&vollbild

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/

Toll, wieder nur in eine Szenario in der der 5870 der VRAM ausgeht. Also das überzeugt nicht im geringsten. Ich finde den Vorsprung sogar beängstigend niedrig angesichts dieser Tatsache und angesichts dessen das NV ja schon öfter mit FarCry2 geworben hat. Das kann und wird AMD locker mit einer 2GB Version kontern. Wo bleiben Benchs aus denen man eine brauchbare Einschätzung machen kann?

Ailuros
2010-03-10, 07:57:00
Toll, wieder nur in eine Szenario in der der 5870 der VRAM ausgeht. Also das überzeugt nicht im geringsten. Ich finde den Vorsprung sogar beängstigend niedrig angesichts dieser Tatsache und angesichts dessen das NV ja schon öfter mit FarCry2 geworben hat. Das kann und wird AMD locker mit einer 2GB Version kontern. Wo bleiben Benchs aus denen man eine brauchbare Einschätzung machen kann?

Eigentlich sollte man unabhaengige Tests nach dem Launch abwarten (und nein davor wird es nichts davon geben aber es ist wohl zu schwer dass dieses nicht anders sein kann...), aber wenn man schon den gleichen Mist unendliche Male durchkauen muss ich sehe nichts an den Resultaten dass mir zeigt dass auf der 5870 erstmal der VRAM ausgeht.

Eine 470 bzw. 5870 wuerde man sowieso nicht fuer 2560-er Aufloesungen kaufen, dafuer waere man mit einer 5970 bzw. 480 besser angebracht.

Und dazu noch zum allerletzten Mal: der benutzte 196.78 ist nicht der Launchtreiber. Was mir jetzt jeglicher unzuverlaessiger bench momentan genau sagen soll ist mir zwar fremd, aber es muss natuerlich auch stets einen Grund geben um Bandbreite hier unnoetig zu verschwenden.

Und wenn die Saga mit den hypothetischen FC2 benches noch lange weitergeht, sucht dann etliche Seiten an verschwundenen Posts dann bitte wieder in der Spielwiese. Dass manche von Euch keinen Schimmer an Anstand haben ist nichts Neues.

y33H@
2010-03-10, 08:17:02
Das muss deutlich schneller gehen in Zukunft. Sir, ja Sir ;D

Aber wie Ail schon sagte - FC2 ist Spielwiese und so.

gogetta5
2010-03-10, 08:17:59
Toll, wieder nur in eine Szenario in der der 5870 der VRAM ausgeht.

Wenn der VRam ausgeht, fallen die FPS unter 20 ...

Aber ansonsten hat Ailuros recht, auf den Launchtreiber warten. So lange wirds ja nichtmehr dauern, da der andere Treiber ja ne Macke hatte wird Nvidia den vielleicht doch schneller nachschieben als gedacht.

Gast
2010-03-10, 08:21:55
Wenn der VRam ausgeht, fallen die FPS unter 20 ...


Um das beurteilen zu können bräuchte man den Frameverlauf. Es ist jedenfalls naheliegend das in dieser extremen Auflösung mit 8AA das eine GB viel zu wenig ist und da hat die GTX470 mit 25% mehr Speicher natürlich erhebliche Vorteile.

Gast
2010-03-10, 08:38:05
meine Herren...soll NV was zeigen wo sie sie sich nicht absetzen können...zieht euch das doch raus wie ihr Spielt...oder kauft ihr euch jetzt alle einen 30".

Ailuros
2010-03-10, 08:40:48
Um das beurteilen zu können bräuchte man den Frameverlauf. Es ist jedenfalls naheliegend das in dieser extremen Auflösung mit 8AA das eine GB viel zu wenig ist und da hat die GTX470 mit 25% mehr Speicher natürlich erhebliche Vorteile.

Da wir mit den neuesten Bildern wieder im Unklaren sind was die Speicherfrequenz von der 470 betrifft, sind es im schlimmsten Fall 128GB/s und im besten dann doch 160GB/s (ergo Gleichstand mit RV870 was Bandbreite betrifft).

Das ist das erste Fragezeichen und das genau naechste waere ob GF100-er diesmal sparsamer mit Speicherverbrauch sind oder ob sich in diesem Bereich nicht viel geaendert hat. Im zweiten Fall will ich bezweifeln dass eine 470 mit 280MB mehr Speicher irgend einen Vorteil haben wuerde.

Und die Liste an unbekannten Faktoren koennte natuerlich auch weitergehen. Es bleibt aber Tatsache dass jemand der mit 8xMSAA in 2560 mit einer 470 oder 5870 schlecht bedient ist, dass es sich um unzuverlaessige Messungen handelt und natuerlich auch dass der 196.78 wohl nicht der Launchtreiber sein wird.

Wieso soll ich jetzt jeglichem 0815 geleaktem Resultat ueberhaupt glauben egal ob es meiner Vorstellung von A, B oder C entspricht? Weiss der Geier was jeglicher Kerl genau anrichtet mit jeglichem System und wie viele Fehler bei jeglichen Messungen vorliegen. Diese unendliche sterile Zahlen-Onanierung muss irgendwo sein Ende nehmen. Ich will erstmal das Leistungs-/Qualitaets-ratio mit AF auf GF100 sehen und dafuer brauch ich jemand der weiss wo es langgeht. Ein timedemo kann mir jeglicher 8-jaehriger auch ablaufen lassen.

Palpatin
2010-03-10, 09:28:10
Eine 470 bzw. 5870 wuerde man sowieso nicht fuer 2560-er Aufloesungen kaufen, dafuer waere man mit einer 5970 bzw. 480 besser angebracht.
[/modtext]
Also wenn man sich keine Microruckelnde 600 Eurokarte gönnen will würd ich seit paar Monaten die 5870 für die 2560er Auflösung kaufen, zumal es nur ganz ganz wenig Fälle gibt bei denen sie für 2560 nicht reicht, auch Farcry 2 läuft wenn man auf 8x AA verzichten kann und nur 4x AA einsetzt aureichend schnell.

Nighthawk13
2010-03-10, 09:52:45
Da wir mit den neuesten Bildern wieder im Unklaren sind was die Speicherfrequenz von der 470 betrifft, sind es im schlimmsten Fall 128GB/s und im besten dann doch 160GB/s (ergo Gleichstand mit RV870 was Bandbreite betrifft).
Der Cache auf GF100 sollte dafür sorgen, das weniger Bandbreite für die gleiche Leistung gebraucht wird(im Vergleich zu RV870).
Dadurch kommt man auch früher an den Punkt, wo höhere Speicherbandbreite nur wenig Mehrperformance bringt.

Ailuros
2010-03-10, 10:05:22
Also wenn man sich keine Microruckelnde 600 Eurokarte gönnen will würd ich seit paar Monaten die 5870 für die 2560er Auflösung kaufen, zumal es nur ganz ganz wenig Fälle gibt bei denen sie für 2560 nicht reicht, auch Farcry 2 läuft wenn man auf 8x AA verzichten kann und nur 4x AA einsetzt aureichend schnell.

Was und wo fuer was ausreicht ist zwar subjektive Ansichstsache, aber es bleibt trotz allem Tatsache dass man mit einer 5970 oder einer 480 besser angelegt ist fuer 2560 als mit einer 5870/470.

Der Cache auf GF100 sollte dafür sorgen, das weniger Bandbreite für die gleiche Leistung gebraucht wird(im Vergleich zu RV870).
Dadurch kommt man auch früher an den Punkt, wo höhere Speicherbandbreite nur wenig Mehrperformance bringt.

Hast Du bis jetzt ein offizielles factsheet dass Dir anzeigt wie die genauen Speicherfrequenzen auf 470 genau aussehen? Mit dem ganzen hin und her ist jeglicher Zweifel angebracht.

***edit:

http://techpowerup.com/117181/GeForce_196.78_Beta_Driver_Runs_GeForce_GTX_470.html

Czech technology website PCTuning confirmed a few details about NVIDIA's upcoming performance graphics accelerator, the GeForce GTX 470. It was found out that a beta driver by NVIDIA, GeForce 196.78 supports GeForce 400 series accelerators, and was able run a qualification sample of GeForce GTX 470. The card was using A3 revision GF100 silicon. The driver's System Information dialog revealed that the card indeed has 448 CUDA cores (SIMD units). Further, it has 1280 MB of memory, and a 320-bit wide memory interface. NVIDIA also changed the way it represents memory clock speeds. Since it is using GDDR5 memory, while the memory has an actual clock speed of 1000 MHz, the data rate (DDR speed) is represented first, as 2000 MHz, and "effective speed" next, which is 4000 MHz.

Given these speeds, at 1000 MHz GDDR5, the GPU has a memory bandwidth of 160 GB/s. Without compromise on looks and quality, NVIDIA kept the cooler design basic. It has a matte finish. Display outputs include two DVI-D, and one mini HDMI. It supports NVIDIA 3D Vision Surround (a technology competitive to ATI Eyefinity, to span a display head across multiple physical displays), just that NVIDIA requires at least two accelerators in SLI to use it. NVIDIA's GeForce 400 series graphics accelerators will be launched on the 26th of this month.

Hmmm......

LovesuckZ
2010-03-10, 10:35:33
Da anscheinend einige Leute in Neliz glauben:

Oh, you haven't heard? the chip is going back to TSMC after the "launch" for it's first full re-spin!

Hence the no-to-limited availability etc. until June/July. It also is the basis for Charlies "handful" of chips for partners, A3 will be here for launch and B1 will be the "shipping" product.
http://forum.beyond3d.com/showpost.php?p=1401076&postcount=2280

Availability for May should be about 6 to 7 times that of Rv770/Rv870 at launch
http://forum.beyond3d.com/showpost.php?p=1404925&postcount=3143

Botcruscher
2010-03-10, 10:54:47
Juni bis Juli ist ja ganz großes Kino. Die Karte darf sich dann mit dem kurz danach anstehenden Refresh prügeln und Anfang nächsten Jahren kommt eh was neues. Wer sich nicht letztes Jahr entschieden hat sollte abwarten.;D

crux2005
2010-03-10, 10:55:00
Hmmm......

Wieso "Hmmm"? Gleiche Quelle, die ich gepostet habe und sie können a) Tschechisch b) sie haben einen Übersetzer benutzt, oder c) sie haben einfach die 1000MHz gesehen und es ist klar, das es der Speicher sein muss.

Aber da die Information, das der Speichertakt auf dem Bild nicht Final sein soll, in der News fehlt, kann ich a) und b) eigentlich ausschließen.

AnarchX
2010-03-10, 10:56:07
@LovesuckZ
Diese Infos kommen vom doch relativ glaubwürdigen "The Source" bei Tweakers:http://gathering.tweakers.net/forum/list_message/33608935#33608935

Gast
2010-03-10, 10:56:29
Da anscheinend einige Leute in Neliz glauben:


http://forum.beyond3d.com/showpost.php?p=1401076&postcount=2280


http://forum.beyond3d.com/showpost.php?p=1404925&postcount=3143

Jeder neliz, Ailuros oder sonst wer kann einer Ente aufsitzen oder mal falsch liegen. Aber es ist ja schon mehr als offensichtlich wie du versuchst jede Person die nicht pro-NV eingestellt ist mit allen Mitteln zu denunzieren.

Gast
2010-03-10, 11:00:27
@LovesuckZ
Diese Infos kommen vom doch relativ glaubwürdigen "The Source" bei Tweakers:http://gathering.tweakers.net/forum/list_message/33608935#33608935

Er schreibt im übrigen auch das Fermi nicht so stark wird wie viele erwarten.

LovesuckZ
2010-03-10, 11:03:40
Jeder neliz, Ailuros oder sonst wer kann einer Ente aufsitzen oder mal falsch liegen. Aber es ist ja schon mehr als offensichtlich wie du versuchst jede Person die nicht pro-NV eingestellt ist mit allen Mitteln zu denunzieren.

Eine Ente? Soso. Nennt sich die Ente "Unwissenheit"? :D
Er hat klar gemacht, wie die Situation doch angeblich aussehen würde. Er ist wie Char-lie: Ziemlich vergesslich. :freak:

@LovesuckZ
Diese Infos kommen vom doch relativ glaubwürdigen "The Source" bei Tweakers:http://gathering.tweakers.net/forum/list_message/33608935#33608935

Also klaut er seine Informationen? Na, das macht ihn eine Ecke unglaubwürdiger.

Gast
2010-03-10, 11:06:20
@LovesuckZ
Diese Infos kommen vom doch relativ glaubwürdigen "The Source" bei Tweakers:http://gathering.tweakers.net/forum/list_message/33608935#33608935

Natürlich. Einem mit Namen "The Source" muss man natürlich glauben schenken. Achso, nennt mich einfach Gott:D

Gast
2010-03-10, 11:10:28
Eine Ente? Soso. Nennt sich die Ente "Unwissenheit"? :D
Er hat klar gemacht, wie die Situation doch angeblich aussehen würde. Er ist wie Char-lie: Ziemlich vergesslich. :freak:


Sowohl Charlie als auch Neliz haben guten Quellen und schon viele Dinge vorzeitig gewusst, auch wenn sie sicherlich - der eine mehr, der andere weniger - pro AMD eingestellt sind. Aber ist natürlich schwer für dich zu verkraften, das glaube ich dir. :)

AnarchX
2010-03-10, 11:11:54
Natürlich. Einem mit Namen "The Source" muss man natürlich glauben schenken. Achso, nennt mich einfach Gott:D
Wenn du etwas länger mitlesen würdest, dann wäre dir der Name ein Begriff und du wüsstest, dass aus dieser Quelle schon häufig korrekte und wertungsfreie Informationen kamen.

Gast
2010-03-10, 11:14:58
Wenn du etwas länger mitlesen würdest, dann wäre dir der Name ein Begriff und du wüsstest, dass aus dieser Quelle schon häufig korrekte und wertungsfreie Informationen kamen.

Genau. Weil jeder ja rumspekuliert kann jeder mal einen Treffer landen. Aber "The Source" hat immer Recht. Er ist sogar NVidia Mitarbeiter der im Hollandforum? rumplaudert. Alles klaaaar.

LovesuckZ
2010-03-10, 11:26:36
Fuad erhielt eine Antwort auf die Frage, wieso GF100 sich verspätet habe:

“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.

We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing and faster physics performance through things like support for concurrent kernels.

Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.

Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”
http://www.fudzilla.com/content/view/18016/65/

Sowohl Charlie als auch Neliz haben guten Quellen und schon viele Dinge vorzeitig gewusst, auch wenn sie sicherlich - der eine mehr, der andere weniger - pro AMD eingestellt sind. Aber ist natürlich schwer für dich zu verkraften, das glaube ich dir. :)

Ja, die Informationen sind so gut, dass die alten Informationen einfach falsch waren.

Ailuros
2010-03-10, 11:35:43
Also klaut er seine Informationen? Na, das macht ihn eine Ecke unglaubwürdiger.

Proper research requires more than one source. Von der Verfuegbarkeit abgesehen deckt sich die B1 Geschichte (wird im April verschickt blah blah blah) mit XMAN's Zeug, mit dem was ich direkt vom Maul des Loewen habe. Das Ganze ist ausserhalb der Moeglichkeit eines reinen Zufalls nur der Grund fuer das angebliche 2SM Problem den neliz angiebt ist fuer die Muelltonne, ist aber nebenwichtig da die Beseitigung des Problems nur durch einen re-spin moeglich ist.

Fuad erhielt eine Antwort auf die Frage, wieso GF100 sich verspätet habe:


http://www.fudzilla.com/content/view/18016/65/

Was haetten sie sonst erzaehlen sollen? Waere 40G nicht so miserabel in 2009 gewesen haetten sie wohl doch noch in Q4 2009 vorstellen koennen was auf eine relativ geringe Verspaetung im Vergleich zur Konkurrenz deutet.

Was willst Du mir hier erzaehlen dass unter idealen Vorraussetzungen ca. 2 Monate etwas besonderes gewesen waeren?

Gast
2010-03-10, 11:41:12
"Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”

The best GPU ever built! Na, das hört sich vielversprechend an:)

Gast
2010-03-10, 11:47:21
"Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”

The best GPU ever built! Na, das hört sich vielversprechend an:)


Hm, also so vollmundige Versprechungen habe ich ja von Nvidia noch nie gehört. Da sie doch so für Understatement bekannt sind...

Ailuros
2010-03-10, 11:50:57
Solche PR Aussagen sind selbstverstaendlich.

Gast
2010-03-10, 11:53:12
Ich werde NVidia abolutely! mit dieser Aussage messen. Ich glaube nicht das die sich in die Nesseln setzen;)

James Ryan
2010-03-10, 11:53:36
"Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”

The best GPU ever built! Na, das hört sich vielversprechend an:)

Laut NVIDIA war NV30 auch "the best GPU ever built", das wird zu jeder neuen GPU gesagt. ;)
Marketing-Bla, nichts weiter.

Ist eigentlich schon etwas zu den Taktraten der GTX480 bekannt? Verlässliche Infos?

MfG :cool:

Ailuros
2010-03-10, 11:58:42
Ist eigentlich schon etwas zu den Taktraten der GTX480 bekannt? Verlässliche Infos?

MfG :cool:

Noch nichts ist sicher aber ich wuerde 1400-1450 fuer hot clock und 1050-1100MHz Speicher erwarten.

Gast
2010-03-10, 11:59:07
Ich werde NVidia abolutely! mit dieser Aussage messen. Ich glaube nicht das die sich in die Nesseln setzen;)

Und du wirst in jedem Fall Irgendwas finden um die Aussage wahr zu machen.
Das ist doch das tolle an windelweichen Marketingfud.
Die Fanboys spricht man an, der Rest hört eh nicht zu ;)

Gast
2010-03-10, 11:59:24
Laut NVIDIA war NV30 auch "the best GPU ever built", das wird zu jeder neuen GPU gesagt. ;)
Marketing-Bla, nichts weiter.

Ist eigentlich schon etwas zu den Taktraten der GTX480 bekannt? Verlässliche Infos?

MfG :cool:

Nope, weil = B1 Stepping kommt erst im APRIL.
Ergo gibts ne Menge GTX470 und vieleicht 1000 GTX480, im Mai kommt dann die große Welle, vieleicht sogar ne Ultra ^^

Gestrandet
2010-03-10, 12:00:56
We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing
LOOOOOOOL
Stimmt, da gabs doch neulich dieses Video wo der NV-Mann diese Raytracing vorgeführt und meint, das kommt in den nächsten Jahren in Spielen ... wo's Echtzeit wie Hund ausschaut und man dem Pathtracing zuschauen kann, wie es langsam das Bild entgrieselt. 10 Minuten / frame sind doch voll ok! Und zwischendrin bewegt sich ja auch schon was, nämlich der Gries. Ich finde eh, Shooter sollten sich viel mehr wie Angeln spielen. Diese ganze Hektik, das ist doch nix. Das fördert nur die Gewaltbereitschaft.
(Ich find das eigentlich ne tolle Technologie, aber zu behaupten es "specifically benefits gamers" erinnt doch starkst an den Pentium drölf, der das Internet beschleunigte ...)

Ailuros
2010-03-10, 12:03:04
Nope, weil = B1 Stepping kommt erst im APRIL.

B1 wird afaik erst im April nach TSMC verschickt. Was erstmal bedeutet dass es vor Juni im besten Fall nicht zurueck kommt und dann besteht die Frage wenn alles stimmt ob man damit produzieren kann oder ob noch ein B2 metal spin benoetigt wird.

Ergo gibts ne Menge GTX470 und vieleicht 1000 GTX480, im Mai kommt dann die große Welle, vieleicht sogar ne Ultra ^^

Na dann lass Dich vom "Tsunami" bloss nicht ueberschwemmen :rolleyes: Vor Ende Sommer kommt nichts vom re-spin auf Regale.

Gast
2010-03-10, 12:05:00
LOOOOOOOL
Stimmt, da gabs doch neulich dieses Video wo der NV-Mann diese Raytracing vorgeführt und meint, das kommt in den nächsten Jahren in Spielen ... wo's Echtzeit wie Hund ausschaut und man dem Pathtracing zuschauen kann, wie es langsam das Bild entgrieselt. 10 Minuten / frame sind doch voll ok! Und zwischendrin bewegt sich ja auch schon was, nämlich der Gries. Ich finde eh, Shooter sollten sich viel mehr wie Angeln spielen. Diese ganze Hektik, das ist doch nix. Das fördert nur die Gewaltbereitschaft.
(Ich find das eigentlich ne tolle Technologie, aber zu behaupten es "specifically benefits gamers" erinnt doch starkst an den Pentium drölf, der das Internet beschleunigte ...)

Das stimmt.
Ausgehend von dem traurigen Zeug, was jetzt tatsächlich machbar zu sein scheint, braucht es noch mindestens den Faktor 100 um etwas halbweges Sinnvolles produzieren zu können.
Aber Buzzwords sind halt in wie nie zu vor...

Kalmar
2010-03-10, 12:33:30
naja nv hat das geschaft was sie wollten, nämlich nen informationschaos, die leaks sind nichts wert wegen fehlendentreiber und takt und der rest ist wie topfschlagen im minenfeld ..

eigentlich könnte man den thread zu machen ..

was wegen dem preis, ich beis mir in den arsch das ich net letztes jahr (zu vernüftigen preisen) bei der 5850 zugeschlagen habe :(

sollte die tentenz zur 5850 gehen wird ati nix am preis machen oder ? und sollte die 470 die 5870 angreifen wird ati wohl im preis runter gehen oder irgendwas nachschieben...
die frage ist orientiert sich nv am straßenpreis von ati oder an der eigentlichenpreisvorgabe .. an der eigentlichen preisvorgabe sollten ja beide gleich viel kosten ..

svenw
2010-03-10, 13:01:57
Die Frage ist, ob NV für die 480 überhaupt einen großen Aufschlag gegenüber der 5870 nehmen kann. Momentan sieht es so aus, als ob die 480 auch nur mit 480 Shadern kommt was den Abstand zur 470 in der Rohleistung stark verringert. Blieben noch mehr Speicher und mehr Bandbreite, die aber nur bei sehr hohen Settings zum Tragen kommen.

Es wurde bisher immer geschätzt das die 480 irgendwas um die 20% schneller als eine 5870 ist, nur wurde da von 512 Shadern ausgegangen. Bei nur 480 Shadern dürften davon wohl nur 10% übrigbleiben und wenn dann noch die 5890 mit etwas höherem Takt kommt......... Und alles im Bereich von 5% plusminus ist eh nur was für Statistiken, in Spielen merkt man davon nichts..

Duplex
2010-03-10, 13:36:46
Eine 5890 @1050/1300 ist 20% schneller als eine 5870. (Meine 5870 @1000/1300 braucht nur 1.2v)
Nvidia wird es nicht einfach haben.

mapel110
2010-03-10, 13:40:43
Eine 5890 @1050/1300 ist 20% schneller als eine 5870. (Meine 5870 @1000/1300 braucht nur 1.2v)
Nvidia wird es nicht einfach haben.
Erstmal wird 20% mehr Takt nicht 1:1 mehr Leistung umgesetzt und zweitens ändert ein höhere Takt nichts an den Features und der Grundperformance. Tessellation@100% sucks, so Tessellation@120% sucks too.

Gast
2010-03-10, 14:00:30
Erstmal wird 20% mehr Takt nicht 1:1 mehr Leistung umgesetzt und zweitens ändert ein höhere Takt nichts an den Features und der Grundperformance. Tessellation@100% sucks, so Tessellation@120% sucks too.

Und wieder macht hier einer den Heaven-Benchmark zum Aushängeschild ... gähn. Der Tesselationsgrad in Heaven ist noch sinnloser als irgendwelche Auflösungen jenseits von 2k, wird nirgendwo von niemandem benötigt (bis auf Ausnahmen, die niemanden interessieren).

Ich bin gespannt, wie der Fermi in heute verfügbaren Spielen gegen Cypress darstehen wird.

Soundwave1983
2010-03-10, 14:32:03
Und alles im Bereich von 5% plusminus ist eh nur was für Statistiken, in Spielen merkt man davon nichts..

Ich gehe mittlerweile davon aus, das die 470/480 genau wie damals die FX5800 eine "erste Fuhre" darstellen, bis mit der 475/485/495 (siehe 285/5900) dann die "richtigen" Modelle mit bis zu 512 Shadern etc. kommen. Würde auch zu den B-Stepping Gerüchten passen. Early adopters bekommen dann eine -vielleicht sogar überraschend Günstige- aber eben nicht ganz "Kantenlose" Karte, die "voll" bestückten gibts später.

Duplex
2010-03-10, 14:36:08
und was möchte Nvidia machen

wenn AMD ein RV970 mit 3200 Streamprozessoren & besseren OpenCL Support hat?

28nm HP soll bei GF ab Q4/2010 bereit sein. 32nm läuft jetzt schon bei GF.

Wenn die HD6870 z.b. auf 5970 Niveo liegt dann hat AMD für lange Zeit die stärkste Karte!

igg
2010-03-10, 14:37:50
wenn AMD ein RV970 mit 3200 Streamprozessoren & besseren OpenCL Support hat?

28nm HP soll bei GF ab Q4/2010 bereit sein. 32nm läuft jetzt schon bei GF.
soso...

Soundwave1983
2010-03-10, 14:40:44
28nm HP soll bei GF ab Q4/2010 bereit sein. 32nm läuft jetzt schon bei GF.

Zwischen läuft schon und tauglich for 2-3 Mrd. Transistoren schwere GPUs in der Massenfertigung ist ein himmelweiter Unterschied.

Der Rest ist halt die übliche Spekulationsblase.
Mehr als "wir werden sehen" wird IMHO da nicht bei rauskommen.

pervert
2010-03-10, 14:41:07
...Niveo...
Das sind unsere Fanboys :biggrin:
Dies und Ähnliches liest man hier auch nicht zum ersten Mal.

Nakai
2010-03-10, 15:06:56
Ich gehe mittlerweile davon aus, das die 470/480 genau wie damals die FX5800 eine "erste Fuhre" darstellen, bis mit der 475/485/495 (siehe 285/5900) dann die "richtigen" Modelle mit bis zu 512 Shadern etc. kommen. Würde auch zu den B-Stepping Gerüchten passen. Early adopters bekommen dann eine -vielleicht sogar überraschend Günstige- aber eben nicht ganz "Kantenlose" Karte, die "voll" bestückten gibts später.

Dann wird die sogenannte "zweie Fuhre" gegen AMDs Refreshs antreten.

und was möchte Nvidia machen

wenn AMD ein RV970 mit 3200 Streamprozessoren & besseren OpenCL Support hat?

28nm HP soll bei GF ab Q4/2010 bereit sein. 32nm läuft jetzt schon bei GF.

Wenn die HD6870 z.b. auf 5970 Niveo liegt dann hat AMD für lange Zeit die stärkste Karte!

Da hab ich was anderes gehört. AMDs Refresh könnte kleiner ausfallen, als die meisten hier denken. Wird wohl eher etwas größer wie ein RV790-Update.
Ergo bis zum Jahresende, wird NV mit Fermi und Konsorten gut aufgestellt sein...dann geht wieder ne Preisschlacht los.


mfg

igg
2010-03-10, 16:15:19
NV currently has 80% of TSMC's 40nm production.
Na dann hält sich die Auswirkung der Verzögerung doch sehr in Grenzen.

Gast
2010-03-10, 16:17:31
Bei der derzeit kolportierten Leistung muss noch irgendwo der Wurm im Design sein, vor allem im Hinblick auf die (voraussichtliche!) Leistungsaufnahme, klingt doch alles schwer nach R600.

Weiss jemand ob das Ende Sommer kommende B1 Stepping weitere Verbesserungen erfährt? Wäre es möglich dass damit die Leistungsaufnahme auf ATI Niveau gesenkt wird? Dann wäre so eine Karte wahrscheinlich das Richtige für mich.

aylano
2010-03-10, 16:26:47
und was möchte Nvidia machen

wenn AMD ein RV970 mit 3200 Streamprozessoren & besseren OpenCL Support hat?

28nm HP soll bei GF ab Q4/2010 bereit sein. 32nm läuft jetzt schon bei GF.

Wenn die HD6870 z.b. auf 5970 Niveo liegt dann hat AMD für lange Zeit die stärkste Karte!
Na ja, gleich 3200 Shader & Co in einer neuen Fertigung zu bringen wäre schon sehr häftig.
Vorallem, weil dann AMD dann 2 Jahre auf diesen 32/28-Prozess wäre.

Besser wäre einen nichtganzzugroßen GPU zuerst zu bringen, aber dafür früh und sicher/unproblematischer in der Verfügbarkeit und später (9-12 Monate) dann in der ausgereiften Fertigung eine richtigen 3200+ Shader & Co GPU.

Aber davor soll im Sommer noch ein Refresh kommen, der ja größer als üblich für einen Refresh sein soll.
Mal sehen, vielleicht wird auch dieser so groß, wie er ursprünglich geplant und bevor er wegen den 40nm-Problemen verkleinert wurde.

Auf alle Fälle wird es für Nvidias Fermi nicht leichter, wenn ATI egal wie nachlegen kann und Nvidia nur mit einem B-Stepping daherkommt.

RoNsOn Xs
2010-03-10, 16:31:33
stand nicht iwo das ati gar keine geheimwaffe a´la 5890 mehr plant zu bringen, nachdem sie abschätzen konnten, dass fermi nicht übermäßig schneller wird? weil manche hier noch von 5890 sprechen

igg
2010-03-10, 16:32:23
Auf alle Fälle wird es nicht leichter für Nvidias Fermi, wenn ATI egal wie nachlegen kann und Nvidia nur mit einem B-Stepping daherkommt.
Beginnt die Entwicklung udn Planung des Refreshs erst nach dem Launch?

Wenn der initiale Launch verschoben wurde, verschiebt sich dann der Refresh?

B-Revision ist für mich kein Refresh...

Blaire
2010-03-10, 16:52:50
http://i100.photobucket.com/albums/m16/fsphk/others/HAWX_25_8aa.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=2205153&postcount=1

Eggcake
2010-03-10, 16:54:58
Dass muss vom gleichen Typen sein wie der FC2 Bench - er kann Catalyst immernoch nicht richtig schreiben Oo

Gast
2010-03-10, 16:55:06
http://i100.photobucket.com/albums/m16/fsphk/others/HAWX_25_8aa.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=2205153&postcount=1

An den Min-fps sieht man wieder mal schön das der 5870 der VRAm ausgeht, und dennoch ist sie schneller. Wundert mich auch das sich niemand mehr mit AF testen traut, dann würde wohl die Geforce weiter nachgeben.

Nakai
2010-03-10, 16:55:10
Bei der derzeit kolportierten Leistung muss noch irgendwo der Wurm im Design sein, vor allem im Hinblick auf die (voraussichtliche!) Leistungsaufnahme, klingt doch alles schwer nach R600.

512 FMAs gegenüber 240MADD plus MUL. Die effektive und maximale theoretische Rechenleistung ist somit pro Takt etwa um 40% gestiegen.
Effektive Texturleistung ist nicht angestiegen.

Bei R600 wars schlimmer, da is die maximale theoretische Rechenleistung pro Takt um etwa 10% angestiegen. Die Texturleistung ebenso nicht(wenn man mal den Unsinn in den Textureinheiten weglässt).
Man sollte auch zufügen, dass der G80 der Konkurrent zum R600 war, welcher ja zu der Zeit wirklich überperformt hat.

Na ja, gleich 3200 Shader & Co in einer neuen Fertigung zu bringen wäre schon sehr häftig.
Vorallem, weil dann AMD dann 2 Jahre auf diesen 32/28-Prozess wäre.

RV9xx wird die erste native DX11-Architektur von AMD sein. Vll sieht es ja ganz anders aus.



mfg

Gast
2010-03-10, 16:56:58
Intressant da, hawx mit af ja auf Nv Karten bei weiten besser läuft.

Coda
2010-03-10, 16:57:17
512 FMAs gegenüber 240MADD plus MUL.
Das MUL kannst du vergessen. Das hat bestenfalls 5% Mehrleistung gebracht, da die SFUs andere Aufgaben haben - die gibt es auch immer noch.

Es ist schlicht und einfach realistisch rund das doppelte an Rechenleistung vorhanden.

Gast
2010-03-10, 16:59:14
Das MUL kannst du vergessen. Es ist schlicht rund das doppelte.

So lol. Ständig wurde darauf bestanden, bei fast jeden neuen Chip oder Treiber betonte NV dass das MUL jetzt verwendbar sei. Jetzt kann man es plötzlich vergessen.

Coda
2010-03-10, 17:01:04
So lol. Ständig wurde darauf bestanden, bei fast jeden neuen Chip oder Treiber betonte NV dass das MUL jetzt verwendbar sei. Jetzt kann man es plötzlich vergessen.
*Ich* habe das nie behauptet.

Du kannst dir gerne ShaderPerf runterladen und dich selbst davon überzeugen.

Das MUL ist zudem immer an die SFU gekoppelt, es "fehlt" bei Fermi also nur, wenn die SFU in dem Moment nichts zu tun hätte, aber ein MUL überhaupt gebraucht würde. Die Fälle sind recht selten.

LovesuckZ
2010-03-10, 17:07:21
An den Min-fps sieht man wieder mal schön das der 5870 der VRAm ausgeht, und dennoch ist sie schneller. Wundert mich auch das sich niemand mehr mit AF testen traut, dann würde wohl die Geforce weiter nachgeben.

In HAWX? Da brechen fein säuberlich die AMD Karten ein.

dildo4u
2010-03-10, 17:07:59
http://i100.photobucket.com/albums/m16/fsphk/others/HAWX_25_8aa.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=2205153&postcount=1
Denk mal der Launch Treiber bringt noch mal so 5-10% also wird die 470 whol direkt gegen die 5870 gesetzt.Daher auch der Name NV konnte ja alles Preis/Leistung,Name auf die ATI Karten auslegen.

Gast
2010-03-10, 17:08:51
Zum Bild. Trotz 8AA wird hier die ATI-Karte in den wichtigen minimum Werten versenkt. Respekt!

ShadowXX
2010-03-10, 17:09:50
http://i100.photobucket.com/albums/m16/fsphk/others/HAWX_25_8aa.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=2205153&postcount=1
Bei ATI mit oder ohne AF;) Wohl ohne, da es nicht erwähnt wird.

(Falls es jemand nicht schnallt: mit AF brechen die ATIs bei HAWX ziemlich extrem ein, auch noch die 58x0-Reihe. Weshalb ATI HAWX auf allen offiziellen Folien auch immer ohne AF gebencht hat).

Gast
2010-03-10, 17:11:21
Haaaallooo 8AA! Hier hat Nvidia wirklich nachgebessert. Und das Spielgefühl wird auch weicher sein, da die Einbrüche nicht so stark sind;)

aylano
2010-03-10, 17:12:32
stand nicht iwo das ati gar keine geheimwaffe a´la 5890 mehr plant zu bringen, nachdem sie abschätzen konnten, dass fermi nicht übermäßig schneller wird? weil manche hier noch von 5890 sprechen
Ja, stand mal als Gerücht oder ATI-Ausage.

Ich habe es so verstanden, dass sie doch keine (etwas selektiert) RV870 @ 950+ Mhz rausbringen werdern.

Beginnt die Entwicklung udn Planung des Refreshs erst nach dem Launch?

Wenn der initiale Launch verschoben wurde, verschiebt sich dann der Refresh?

B-Revision ist für mich kein Refresh...
Ich schrieb ja nicht, dass das B-Stepping ein Refresh ist, sondern von einen (unüblen) RV8x0-Refresh von ATI.
Meiner Meinung nach wird Nvidia auch schon länger am B-Stepping arbeiten und diesesmal die 40nm-Probleme berücksichtigen. Das herausfinden der Probleme wird sicher auch seine Zeit dauern.

Fermi @ B-Stepping wird IMO auch deshalb nötig sein, weil es sicher auch nicht so einfach sein wird, einen 512-Fermi auf 32/28nm zu shrinken.

Interessanter wäre es zu wissen, ob die Nvidia Low-end & Mainstream-DX11 schon die 40nm-Probleme (etwas) berücksichtigen wie es ATI gemacht hat.
Ich denke eher schon, da das Tape-Out viel später nach Big-Fermi war/wird.

RV9xx wird die erste native DX11-Architektur von AMD sein. Vll sieht es ja ganz anders aus.
Wie meinst du das mit anders aussehen?

Gast
2010-03-10, 17:13:53
Zum Bild. Trotz 8AA wird hier die ATI-Karte in den wichtigen minimum Werten versenkt. Respekt!

Ja, schöner VRAM-Bench. Blöd das AMD eine 2GB Karte bringt.


Bei ATI mit oder ohne AF;) Wohl ohne, da es nicht erwähnt wird.

(Falls es jemand nicht schnallt: mit AF brechen die ATIs bei HAWX ziemlich extrem ein, auch noch die 58x0-Reihe. Weshalb ATI HAWX auf allen offiziellen Folien auch immer ohne AF gebencht hat).

Falls du es nicht schnallst: Fermi hat weniger Texelfüllrate als selbst der Vorgänger, es ist nicht unwahrscheinlich das es mit AF mindestens so stark nachgibt wie die Radeon.

LovesuckZ
2010-03-10, 17:15:41
Falls du es nicht schnallst: Fermi hat weniger Texelfüllrate als selbst der Vorgänger, es ist nicht unwahrscheinlich das es mit AF mindestens so stark nachgibt wie die Radeon.

Cypress bricht stärker ein als die GTX285 trotz höhrerer Texelfüllrate. Außerdem sagt nVidia, dass sie aufgrund der erhöhten Effizienz eine bessere Leistung in solchen Fällen erreichen werden.
Es gibt als sehr viele Argumente, die erstmal dafür sprechen, dass bei AMD irgendwas anderes limitiert als die Texturleistung.

Ja, schöner VRAM-Bench. Blöd das AMD eine 2GB Karte bringt.

Hoffentlich ist die 50% schneller. 6 Monate später und nicht schneller ist doch voll doof.

Nakai
2010-03-10, 17:24:10
Das MUL kannst du vergessen. Das hat bestenfalls 5% Mehrleistung gebracht, da die SFUs andere Aufgaben haben - die gibt es auch immer noch.

Es ist schlicht und einfach realistisch rund das doppelte an Rechenleistung vorhanden.

Mhh, das hast du vor ein paar Monaten aber genau andersrum gesagt.

Die MUL wurde beim G80 doch hauptsächlich für Perspective Corrections und Attribute Interpolations verwendet(wenn ich es mal so aus dem B3D-Artikel herausnehmen darf). Beim GT200 wurde es dann noch für normale Berechnungen eingesetzt.
Und klar, dass die MUL nicht sonderlich viel bringt, aber sie fehlt wohl.

Macht wie macht Fermi eigentlich die Arbeiten der MUL?
Über die FMAs? Oder einer SFU?

€: Das MUL ist zudem immer an die SFU gekoppelt, es "fehlt" bei Fermi also nur, wenn die SFU in dem Moment nichts zu tun hätte, aber ein MUL überhaupt gebraucht würde. Die Fälle sind recht selten.

Ah, okay.


mfg

boxleitnerb
2010-03-10, 17:25:49
Ich dachte, wenn der Speicher ausgeht, ist der Performancehit deutlich größer.

Eggcake
2010-03-10, 17:27:07
Naja, aber solch niedrige MinFPS sind ja schon etwas merkwürdig, oder? Wirklich VRAM Mangel scheints ja nicht zu sein, da zu hoch - lahmt die 5er Serie da einfach an einer gewissen Stelle extrem?

Gast
2010-03-10, 17:31:25
Naja, aber solch niedrige MinFPS sind ja schon etwas merkwürdig, oder? Wirklich VRAM Mangel scheints ja nicht zu sein, da zu hoch - lahmt die 5er Serie da einfach an einer gewissen Stelle extrem?

Das wird nicht am Ram liegen. Da leg ich mich fest. der kleine Ramunterschied zur 5870 macht den Hasen auch net fett;)

dildo4u
2010-03-10, 17:32:16
Naja, aber solch niedrige MinFPS sind ja schon etwas merkwürdig, oder? Wirklich VRAM Mangel scheints ja nicht zu sein, da zu hoch - lahmt die 5er Serie da einfach an einer gewissen Stelle extrem?
Der Speicher geht der 5870 auch nicht aus sind nur 8fps Verlust von 4 auf 8XAA bei der Auflösung.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/14/#abschnitt_hawx

aths
2010-03-10, 17:33:34
Die neue Geometriepipeline ist "kompromisslos aufs Gamen" ausgelegt. Als Laie sehe ich keinen Vorteil für reine GPGPU-Berechnungen. Und genau dieses Parallisieren der Geometrieberechnungen soll für die Verzögerung verantwortlich gewesen sein. Es ist der größte Schritt einer Architekturveränderung seit dem G80. Es ist vor allem ein Schritt, feinkörniger nach unten (oder auch nach oben) skalieren zu können. Seit NV40 bastelt Nvidia ständig an der Skalierbarkeit. Statt einem dicken Rasterizer mehrere einzubauen, ist jetzt ein folgerichtiger Schritt.

Schon beim GT200 bin ich mir nicht sicher, was mehr Transistoren kostet: 3D-spezifisches oder Cuda-spezifisches.

nVidia sieht den Spielebereich sich mehr und mehr in Richtung GPGPU (GPU-Physik, Fluid Berechnungen, A.I, sonstigen berechnungen für grafische Effekte) und hohe Geometrielast entwickeln. Man sah wohl eine Notwendigkeit mit der Tradition der hohen Texturleistung zu brechen, um freie Ressourcen vorallen in die Erhöhung der Geometrieleistung zu stecken. Ob man hier nicht einfach über das Ziel hinausgeschossen hat, wird die Zukunft zeigen.Der vermutliche Rückgang zumindest nominaler Texturierungsleistung ist schon komsich. Die bessere Effizienz kommt nur in Sonderfällen zum Tragen, wenn ein großer Cache benötigt wird. Möglicherweise ist die bilineare effektive Leistung beim GF100 deutlich höher, aber um rein vom Filtern her 80 TMUs mit 648 MHz zu schlagen, braucht man bei 64 TMUs schon 810 MHz.

Nvidia bastelt spätestens seit GT200 am allgemeinen Koprozessor, mit dem sich unter anderem auch eine gute Grafikkarte bauen lässt. Nvidia ist eigentlich mehr Software- denn Hardware-Entwickler, jedenfalls anbetrachts der Ausgaben. Was Nvidia heute Rückschläge bringt – kein DX 10.1 im Highend, DX 11 lange verspätet – könnte sich möglicherweise auszahlen falls sich der Trend bestärkt der weg vom reinen 3D-Spezialchip geht und hin zum Computingchip mit einigen Rasterizer-, ROP- und Tesselations-Einheiten. Dass AMD als ATI-Eigentümer keine Multicore-Konkurrenz im eigenen Haus will, sehe ich langfristig als riskante Strategie.

Bei der Texturleistung rückt Nvidia immerhin das Verhältnis gerade: GT200 bietet pro TMU drei MADs. Das wäre durch ca. doppelten Takt 6-fache Leistung. Machen wir (Shader ist > 2xCore, und es gibt noch das Extra-Mul) 8-fache Leistung draus, die jedoch für Skalare zählt. Bezogen auf 4-Kanal-Texturen wären das zwei komplette Vec4-Shader-Ops pro Tex-Sample. GF100 bietet 32 MADs bei 4 TMUs, bei doppeltem Takt wäre das 16-fache Leistung, normiert auf 4-Kanal-Texturen vier mal Aritmetik pro Tex. Das klingt für DX10-Spiele doch brauchbar. GT200 ist dort eh Shader-limitiert so dass selbst eine absolute Tex-Leistungs-Abnahme beim GF100 durch die erhöhte Shaderleistung mehr als ausgeglichen würde. GF100 ist aber der erste Versuch mit der neuen Architektur. Ich erwarte Refreshes welche den GF100 alt aussehen lassen.

Coda
2010-03-10, 17:35:26
Schon beim GT200 bin ich mir nicht sicher, was mehr Transistoren kostet: 3D-spezifisches oder Cuda-spezifisches.
Ersteres. Mit Abstand.

Dass AMD als ATI-Eigentümer keine Multicore-Konkurrenz im eigenen Haus will, sehe ich langfristig als riskante Strategie.
Sorry Aths, aber das ist völlig realitätsfern. AMD will gerade das mit ihrem Fusion-Programm erreichen.

Gast
2010-03-10, 17:38:20
Ich meine den Ramunterschied 470 zur 5870;)

Eggcake
2010-03-10, 17:38:59
Ich schreibe ja nichts anderes :ugly:

Edit: Seitenende übersehen.

Gast
2010-03-10, 17:39:55
Wie geschrieben, hier limitiert was anderes. Was genau, muss jetzt ATI analysieren:D

Dural
2010-03-10, 17:42:35
Wie die TMUs so wichtig wären... NV wird sich schon was überlegt haben...

Zudem die G92 und GT200 TMUs ja däumchen gedreht haben.. mit 16AF kaum Leistung einbruch... da werden die überarbeiteten 64TMUs dem GF100 sicher nicht das genik brechen... Zudem 64TMUs mehr bei einem 3.1Miliarden Chip wohl nicht mehr so wahnsinnig viel ausgemacht hätten... nv wird sich schon was überlegt haben!

Die TMU leistung ist jetzt wirklich das letzte was bei den G92 und GT200 gefehlt hätte!

derguru
2010-03-10, 17:42:47
komische werte beim hawx bench,die 5870 müsste deutlich schneller sein wenn die mit dem cat10.3 gebencht haben vorallem wenn es ohne af sein soll.

http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=hawx

Coda
2010-03-10, 17:44:47
Mhh, das hast du vor ein paar Monaten aber genau andersrum gesagt.
Es ist auf GT200 öfters einsetzbar als auf G80. Das ist schon richtig. Nur wirklich voll dazurechnen kann man es einfach nicht.

Selbst in optimalen synthetischen Fällen bekommt man nur etwa alle zwei Takte ein MUL zum MAD dazu. Bei Shadern hat man aber jede Menge andere Aufgaben für die SFUs, und bei denen ist die Latenz auch noch höher (16 statt 4 Takte).

Die MUL wurde beim G80 doch hauptsächlich für Perspective Corrections und Attribute Interpolations verwendet(wenn ich es mal so aus dem B3D-Artikel herausnehmen darf).
Ja, das ist ja auch die Aufgabe der SFU neben den transzendenten Funktionen.

Beim GT200 wurde es dann noch für normale Berechnungen eingesetzt.
Wurde es eigentlich auch beim G80 - zumindest war es vorgesehen.

Macht wie macht Fermi eigentlich die Arbeiten der MUL?
Über die stinknormalen ALUs halt. Also ja, die die auch FMA ausführen können.

dildo4u
2010-03-10, 17:46:13
komische werte beim hawx bench,die 5870 müsste deutlich schneller sein wenn die mit dem cat10.3 gebencht haben vorallem wenn es ohne af sein soll.

http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=hawx

Computerbase hat auch was um 30fps(mit 8XAA und AF) in der Auflösung,bei Tweak PC schon mit dem 9.11 56fps also stimmt vieleicht eher bei Tweak PC was nicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/14/#abschnitt_hawx

Blaire
2010-03-10, 17:51:31
komische werte beim hawx bench,die 5870 müsste deutlich schneller sein wenn die mit dem cat10.3 gebencht haben vorallem wenn es ohne af sein soll.


Vieleicht hat Tweakpc einfach nicht alle Details aktiviert. Da gabs glaube zwei versteckte Optionen oder es liegt einfach am Testsystem.

derguru
2010-03-10, 17:54:30
doch haben sie aber die deppen haben kein 16AF angehabt obwohl dort steht das 16af an sein soll.:mad:

aths
2010-03-10, 18:02:05
Ersteres. Mit Abstand.


Sorry Aths, aber das ist völlig realitätsfern. AMD will gerade das mit ihrem Fusion-Programm erreichen.Soweit ich Fusion verstehe ist das ungefähr sowas, was Intel mit Clarkdale schon hat.

Coda
2010-03-10, 18:03:19
Soweit ich Fusion verstehe ist das ungefähr sowas, was Intel mit Clarkdale schon hat.
Dann hast du es falsch verstanden. AMD will die Stream-Coprozessoren in die CPUs integrieren. Grafik ist nur ein Nebeneffekt.

Gast
2010-03-10, 18:04:24
Abgesehen davon ist Fusion ein Konzept und kein Prozessor.

Gast
2010-03-10, 18:04:46
Soweit ich Fusion verstehe ist das ungefähr sowas, was Intel mit Clarkdale schon hat.

Eine 480SP DX11 GPU klebt man sicherlich nicht nur als IPG-Ersatz auf die CPU.

Nighthawk13
2010-03-10, 18:08:32
Das MUL ist zudem immer an die SFU gekoppelt, es "fehlt" bei Fermi also nur, wenn die SFU in dem Moment nichts zu tun hätte, aber ein MUL überhaupt gebraucht würde. Die Fälle sind recht selten.
Für Shader beim 3D-Rendern(Direct3d, OpenGL) richtig.

Aber wie schaut's bei reinen Compute-Aufgaben aus? (Cuda, PhysX, etc.)
Da müssten die SFU doch arbeitslos sein und die MUL-Leistung zur Verfügung stellen? Oder was machen die SFUs sonst während ein Cuda-Kernel läuft?

Coda
2010-03-10, 18:12:10
Aber wie schaut's bei reinen Compute-Aufgaben aus? (Cuda, PhysX, etc.)
Theoretisch müsste es da mehr ausmachen, dafür hat Fermi dafür aber genügend andere Verbesserungen abbekommen um das mindestens auszugleichen.

Wie gesagt, auch im bestmöglichen synthethischen Fall haben sie nur 1,5 MULs/Takt bei Beyond3D gemessen - theoretisch müssten es zwei sein.

aylano
2010-03-10, 18:36:52
Soweit ich Fusion verstehe ist das ungefähr sowas, was Intel mit Clarkdale schon hat.
Fusion ist auch der Weg zum Ziel.

Das, was wir mit Fusion-32nm Anfang 2011 sehen werden, ist noch ein Zwischenschritt zum dem späteren Fusion, wo die "GPU-Einheiten" noch viel mehr mit der CPU verstrickt werden.
Was genau kommt, wissen wir nicht.

Aber da stimme ich dir zu.
AMD wäre es sicher recht, wenn Cuda & Fermi sich langsamer bzw. spter entwickelt hätte, da dies eben auf den Server-Markt anzielt, wo AMD mit Opteron vertreten ist.

Gast
2010-03-10, 19:46:26
Falls du es nicht schnallst: Fermi hat weniger Texelfüllrate als selbst der Vorgänger


NV gibt selbst an, dass die Texelleistung in der Realität um ca. 70% gestiegen ist, also sehen wir sicher wieder ein 2:1 TF/TA-Verhältnis, auf welchem weg auch immer.

AnarchX
2010-03-10, 19:51:44
Das was Nvidia zeigt, könnte wohl eher mit der höheren Adressierleistung bei ungefilterten Texeln zusammenhängen: http://www.behardware.com/articles/782-5/nvidia-geforce-gf100-the-geometry-revolution.html

Im Endeffekt wird es wohl für die Reviewer heißen, sich die Filterung ganz genau anzuschauen. Aber vielleicht konnte man den Quality-Modus bei gleich bleibender Qualität noch weiter optimieren.

Gast
2010-03-10, 19:58:51
Aber vielleicht konnte man den Quality-Modus bei gleich bleibender Qualität noch weiter optimieren.

Da gibt es nichts zu optimieren, weniger Texel bedeutet zwangsläufig weniger Bildqualität. Alles andere ist subjektiven Fanboygehabe.

mapel110
2010-03-10, 20:02:10
Da gibt es nichts zu optimieren, weniger Texel bedeutet zwangsläufig weniger Bildqualität. Alles andere ist subjektiven Fanboygehabe.
Glaube ich auch. Man spart ja schon zu viel, also sichtbar. Ich befürchte jedenfalls auch schlimmes.

AnarchX
2010-03-10, 20:06:59
Da gibt es nichts zu optimieren, weniger Texel bedeutet zwangsläufig weniger Bildqualität. Alles andere ist subjektiven Fanboygehabe.
Man muss die bei AF zu filternde Ellipse mit genügend Samples abdecken um das Abstasttheorem einzuhalten. Wie man das macht ist schlussendlich egal.

Dass du dich nicht daran erinnerst... ;)

Gast
2010-03-10, 20:09:13
Dass du dich nicht daran erinnerst... ;)

Und du glaubst man war bisher so blöd mehr als genügend Samples einzusetzen? Wie man sieht verursacht Q auch jetzt schon eine sichtbar schlechtere Qualität.

OgrEGT
2010-03-10, 20:23:51
Zum Bild. Trotz 8AA wird hier die ATI-Karte in den wichtigen minimum Werten versenkt. Respekt!

Die min/max fps geben nur den niedrigsten/höchsten gemessenen Wert an, selbst wenn dieser nur einmal pro sekunde während des gesamten Benchmarks (!) aufgetreten war.

Da man die Verteilung der Frames nicht nachvollziehen kann, läßt sich auch keine Aussage treffen, ob die Karte massiv eingebrochen ist. Weiteres Indiz hierfür ist, dass die avg fps der HD 5870 höher sind, aber weit nicht so hoch verglichen zur Differenz der beiden min fps Werte. Das bedeutet wohl, dass dieses vermeintliche Einbrechen nicht so oft geschieht im Vergleich dazu wann die GeForce bei "nur" 40 fps liegt.

Gast
2010-03-10, 20:32:27
Was und wo fuer was ausreicht ist zwar subjektive Ansichstsache, aber es bleibt trotz allem Tatsache dass man mit einer 5970 oder einer 480 besser angelegt ist fuer 2560 als mit einer 5870/470.




bekomme ich dafür eine unterschrift?

plz lieber mod

Gast
2010-03-10, 20:50:17
Und du glaubst man war bisher so blöd mehr als genügend Samples einzusetzen?

Bis zu G80 auf jeden Fall. Schwer zu sagen wie nah man beim G80 schon am Optimum ist, aber eventuell gibt es da noch Potential.

Gast
2010-03-10, 21:07:31
Da gibt es nichts zu optimieren, weniger Texel bedeutet zwangsläufig weniger Bildqualität.
Als ob man bei den neueren Spielen noch Texturflimmern sehen würde. Da kommen ordentliche Strahleffekte drauf und ab 10 Meter Entfernung ein schöner Weichspüler. :D
Genug Rechenpower für solche schönen Effekte dürfte ja jetzt vorhanden sein. Und schlechter als die Filterung bei der HD5000 Serie wird es 100 % nicht werden, höchstens zieht man gleich.

y33H@
2010-03-10, 21:13:27
Zumal der Filter unter den derbe flimmernden Shadern eh nicht mehr auffällt :ulol:

Gast
2010-03-10, 21:50:15
Das wird die Beweisprobe für die Magazine, wie Unabhängig sie sind. Zerreissen sie das neue Billig AF oder ignorieren sie den weiterhin vorhandenen HQ Schalter, der diesmal teurer ist.
Das Nvidia viel Arbeit in 8xMSAA gesteckt hat muss ich den Magazinen auf den ersten Blick sehr übel nehmen, erst auf den zweiten erkenne ich, das man das auch nebenbei gemacht haben kann.

Da gibt es nichts zu optimieren, weniger Texel bedeutet zwangsläufig weniger Bildqualität. Alles andere ist subjektiven Fanboygehabe.Die TMUs o.ä. können effektiver arbeiten.
Kennen wir doch von G70, das ein sich die Einheiten gegenseitig blockieren. Sogesehen kann man mindestens die Auslastung verbessern.

Gast
2010-03-10, 22:01:22
Die TMUs o.ä. können effektiver arbeiten.
Kennen wir doch von G70, das ein sich die Einheiten gegenseitig blockieren. Sogesehen kann man mindestens die Auslastung verbessern.
Jo, jetzt können sich 32 SMs, zwei komplette Warps um eine Quad-TMU balgen.

Gast
2010-03-10, 22:04:53
Jo, jetzt können sich 32 SMs, zwei komplette Warps um eine Quad-TMU balgen.
Die Pixelfüllrate von X1800 bis 4890 hat sich nur dank minimaler Taktveränderungen minimal verändert.

LovesuckZ
2010-03-10, 22:59:19
*SCNR*...dann wird Dir wahrscheinlich der 27.3. nicht gefallen. ;D

Schade. Hätte mir da von AMD mehr erwarten. Kann ja nicht sein, dass man sowas einfaches - also 50% Mehrleistung - nach 6 Monaten nicht schafft. :mad:

/edit: Ich schau mir gerade die Bad Company 2 Benchmarks an und hoffe, dass GF100 mehr als diese 30% bringt als Cypress gegenüber der GTX285.

Blaire
2010-03-11, 00:27:17
http://www.szgalaxy.com/Fermi/images/br.jpg
http://www.szgalaxy.com/Fermi/index_clip_image002.jpg

http://translate.google.co.in/translate?hl=en&sl=zh-CN&u=http://www.szgalaxy.com/Fermi/&ei=mvyXS6_IG4r-6QOnkKDACA&sa=X&oi=translate&ct=result&resnum=1&ved=0CAcQ7gEwAA&prev=/search%3Fq%3Dwww.szgalaxy.com%2B/%2BFermi%26hl%3Den%26client%3Dfirefox-a%26hs%3DJ87%26rls%3Dorg.mozilla:en-US:official

Coda
2010-03-11, 00:28:46
Das ist aber nicht deren Ernst?

Nachts ist's kälter als draussen. WTF?!!?!
Das ist sogar halbwegs richtig, weil alle gleich viele ROPs hatten.

Jo, jetzt können sich 32 SMs, zwei komplette Warps um eine Quad-TMU balgen.
Ich geh immer noch davon aus, dass die TMUs sich wie bei G80 ab Trilinear wie acht verhalten. Sonst ergeben die Messungen einfach keinen Sinn.

Wenn nicht wäre das schon arg enttäuschend.

dildo4u
2010-03-11, 00:29:28
Oh AMC hat recht wird ein Flop.

"NVIDIA's flagship graphics card Fermi forthcoming, it has 30 million transistors," ;D

Gast
2010-03-11, 00:54:22
An wen wende ich mich, wenn ich die erste 480 in Deutschland haben möchte. Geld spielt keine Rolle, was nicht heißt dass ich 1000.- dafür hinlegen werde!!!

Sorkalm
2010-03-11, 01:01:20
Die erste? Ordentliche Insiderkontakte. ;)

Wenn du zum Releasetag eine bestellen willst, am besten gleich morgens mal bei den größten Versendern wie Alternate vorbeigucken.

Ailuros
2010-03-11, 07:44:32
Ersteres. Mit Abstand.

Jegliche DP Einheit duerfte unter 65nm irgendwo um die 2.5mm2 liegen.

Uebrigens am Rand sind es 4 Launchpartner fuer GF100; ein voriger ist weg vom Fenster und mit einem anderen ersetzt.

***edit: da es sich um nichts strenggeheimes handelt als ich mich an NV engineering wendete und meine Sorgen fuer AF Leistung erwaehnte, war die erste Antwort ich soll mir die TMUs als "uber-TMUs" vorstellen die bis zu 4x Mal effizienter sind als bei GT200 oder anders "quad-TMUs". Es war nicht das erste Mal dass ich die Beschreibung "quad-TMUs" hoerte, aber von der Perspektive sind auch die Evergreen TMUs "quad TMUs" und das 4 offset Zeug ist in Entwickler Haenden und hat ergo nichts unmittelbar damit zu tun.

Zweite Antwort war dass 4 offset tatsaechlich Applikations-bedingt ist und dass die AF settings ein superset der GT200 AF settings sind.

Als ich dann sagte dass ich zwar unterm obrigen verstehe dass "high quality" noch existiert als Auswahl ist es nicht der Punkt der mir Sorgen macht sondern der Leistungs-unterschied zwischen HQ und Treiber default im Vergleich zu Vorgaengern und danach wurde es natuerlich todstill.

Natuerlich muss es gar nichts heissen, aber wenn ich lange vor dem 3D whitepaper ueber Tessellations-Implementierungen nachfrage und seitenlange Erklaerungen bekomme und fuer AF nur 1-2 Saetze bei jeder Antwort ist mein muerbes Gefuehl schon gerechtfertigt. Obwohl ich total im Dunkeln tappe wuerde es mich kein bisschen wundern wenn sie irgend einen aehnlichen zu "AI advanced" modus bei default eingebaut haben. Bleibt die Frage wie die Leistung unter HQ wirklich aussieht.

Es koennte durchaus sein dass es keinen Grund zur Unruhe gibt; Geometrie/Tessellation mal zur Seite, wenn man bei einem Design in Laengen geht und 16 zusaetzliche ROPs (welche alles andere als billig sind) einbaut fuer 8xMSAA und co. Effizienz als Beispiel, klingt es verdammt merkwuerdig wenn sie so radikal an Filterungsleistung am Ende gespart haben. Hier sollte man aber auch erwaehnen dass eine DX10.1 TMU schon um einiges teurer in hw sein sollte als eine 10.0 TMU.

bekomme ich dafür eine unterschrift?

plz lieber mod

Wie meinen?

******edit Nr.2:

http://forum.beyond3d.com/showpost.php?p=1405580&postcount=3297

http://forum.beyond3d.com/showpost.php?p=1405610&postcount=3306

Schlammsau
2010-03-11, 08:43:11
/edit: Ich schau mir gerade die Bad Company 2 Benchmarks an und hoffe, dass GF100 mehr als diese 30% bringt als Cypress gegenüber der GTX285.

*Hust*....das Game scheint aber auch mehr die GeForces zu bevorzugen. Schau mal wo eine 4890 steht in extremen Auflösungen. Unter einer GTX260. :freak: *hust*

Gegenüber einer 4890 ist die 5870 dort doch über 50% schneller. Eine gute Leistung, wie ich finde.....

desert
2010-03-11, 09:14:54
Jegliche DP Einheit duerfte unter 65nm irgendwo um die 2.5mm2 liegen.

Uebrigens am Rand sind es 4 Launchpartner fuer GF100; ein voriger ist weg vom Fenster und mit einem anderen ersetzt.

***edit: da es sich um nichts strenggeheimes handelt als ich mich an NV engineering wendete und meine Sorgen fuer AF Leistung erwaehnte, war die erste Antwort ich soll mir die TMUs als "uber-TMUs" vorstellen die bis zu 4x Mal effizienter sind als bei GT200 oder anders "quad-TMUs". Es war nicht das erste Mal dass ich die Beschreibung "quad-TMUs" hoerte, aber von der Perspektive sind auch die Evergreen TMUs "quad TMUs" und das 4 offset Zeug ist in Entwickler Haenden und hat ergo nichts unmittelbar damit zu tun.

Zweite Antwort war dass 4 offset tatsaechlich Applikations-bedingt ist und dass die AF settings ein superset der GT200 AF settings sind.

Als ich dann sagte dass ich zwar unterm obrigen verstehe dass "high quality" noch existiert als Auswahl ist es nicht der Punkt der mir Sorgen macht sondern der Leistungs-unterschied zwischen HQ und Treiber default im Vergleich zu Vorgaengern und danach wurde es natuerlich todstill.

Natuerlich muss es gar nichts heissen, aber wenn ich lange vor dem 3D whitepaper ueber Tessellations-Implementierungen nachfrage und seitenlange Erklaerungen bekomme und fuer AF nur 1-2 Saetze bei jeder Antwort ist mein muerbes Gefuehl schon gerechtfertigt. Obwohl ich total im Dunkeln tappe wuerde es mich kein bisschen wundern wenn sie irgend einen aehnlichen zu "AI advanced" modus bei default eingebaut haben. Bleibt die Frage wie die Leistung unter HQ wirklich aussieht.

Es koennte durchaus sein dass es keinen Grund zur Unruhe gibt; Geometrie/Tessellation mal zur Seite, wenn man bei einem Design in Laengen geht und 16 zusaetzliche ROPs (welche alles andere als billig sind) einbaut fuer 8xMSAA und co. Effizienz als Beispiel, klingt es verdammt merkwuerdig wenn sie so radikal an Filterungsleistung am Ende gespart haben. Hier sollte man aber auch erwaehnen dass eine DX10.1 TMU schon um einiges teurer in hw sein sollte als eine 10.0 TMU.



Wie meinen?

******edit Nr.2:

http://forum.beyond3d.com/showpost.php?p=1405580&postcount=3297

http://forum.beyond3d.com/showpost.php?p=1405610&postcount=3306

ich hoffe das das nicht der wahrheit entspricht und nvidia auch so einen bekloppten a.i. modus bekommt, dann wird nämlich auf lange sicht auch der hq modus wegfallen. Danke schlammsau und co. Hauptsache 8aa, ich könnte kotzen wenn das soweit kommt.

LovesuckZ
2010-03-11, 09:21:27
nVidia hat doch schon ihren "A.I" Modus - nennt sich Quality. Wieso sollten sie HQ anfassen? Das ist ein optionaler Schalter, den sowieso nur Freaks anrühren. Sie haben seit dem Fiasko mit den NV30/NV35 diesen HQ Schalter. Sie werden ihn jetzt bestimmt nicht wegschmeißen, weil sie eine schlechtere Default-Filterung haben wollen.

Ailuros
2010-03-11, 09:24:53
ich hoffe das das nicht der wahrheit entspricht und nvidia auch so einen bekloppten a.i. modus bekommt, dann wird nämlich auf lange sicht auch der hq modus wegfallen. Danke schlammsau und co. Hauptsache 8aa, ich könnte kotzen wenn das soweit kommt.

Das mit dem AI advanced modus ist natuerlich reine persoenliche Spekulation, denn ich kann mir nichts anderes momentan vorstellen unter "superset". Wie schon mal erwaent bedeutet superset alle vorigen AF settings + ein oder mehr zusaetzliche settings. Mit 4 offset hat es zu 100% nichts zu tun, denn wenn durch den Treiber so etwas auf die Applikation "forcen" wuerde, wuerde es zu "rauschen" kommen auf Texturen wo es nicht wirklich etwas verlohren hat.

Auf einer GF100 hat man offensichtlich immer noch die Auswahl fuer "high quality"; die brennende Frage ist und bleibt was die Benutzung von HQ im Vergleich zu Treiber default genau in Leistung kostet. Im Fall wo der Abstand um einiges groesser ist als bei heutigen GPUs, kann mir persoenlich auch jegliche 8xMSAA Leistungsverbesserung gestohlen bleiben. Ich hab immer noch tonnenweise mehr Texturen in jeglichem Bild als Polygon-Kanten und intersections.

Gast
2010-03-11, 09:28:02
Das mit dem AI advanced modus ist natuerlich reine persoenliche Spekulation, denn ich kann mir nichts anderes momentan vorstellen unter "superset". Wie schon mal erwaent bedeutet superset alle vorigen AF settings + ein oder mehr zusaetzliche settings. Mit 4 offset hat es zu 100% nichts zu tun, denn wenn durch den Treiber so etwas auf die Applikation "forcen" wuerde, wuerde es zu "rauschen" kommen auf Texturen wo es nicht wirklich etwas verlohren hat.

Auf einer GF100 hat man offensichtlich immer noch die Auswahl fuer "high quality"; die brennende Frage ist und bleibt was die Benutzung von HQ im Vergleich zu Treiber default genau in Leistung kostet. Im Fall wo der Abstand um einiges groesser ist als bei heutigen GPUs, kann mir persoenlich auch jegliche 8xMSAA Leistungsverbesserung gestohlen bleiben. Ich hab immer noch tonnenweise mehr Texturen in jeglichem Bild als Polygon-Kanten und intersections.

Das es einen HQ-Modus gibt glaube ich gerne. Die Frage wird sein ob diese HQ-Modi auch noch dieselbe Qualität bietet.

desert
2010-03-11, 10:00:28
echt schlammsau, pfuschst da einfach in die designentscheidungen von nvidia rein! lol

Ja durch ihr ewiges lamentieren und relativieren das hq af total unnötig ist und man das sowieso nicht sieht und a.i. on af vollkommen ausreichend ist.

Und nur 8aa in extrem hohen von 2560 x xxxx zählt, weil dort nvidia gnadenlos verloren hat in der letzten gpu-generation. Komischerweise sind es bis jetzt alles unfaire tests, weil der ati der speicher ausgehen soll und der 470nicht.

Halten wir also fest, g200 speichermangel ist völlig unerheblich, man soll immer 8aa mit extrem hohen auflösungen benchen. Jetzt hat 5870 vielleicht speichermangel und schwupps sind 8aa benches in hohen auflösungen völlig unfair. So eine selektive auffassungsgabe möchte ich auch gerne haben.

Gast
2010-03-11, 10:19:54
Schade. Hätte mir da von AMD mehr erwarten. Kann ja nicht sein, dass man sowas einfaches - also 50% Mehrleistung - nach 6 Monaten nicht schafft. :mad:


du hast Glück, die 2GB HD5870 ist sogar bis zu +200% schneller als die 1GB Variante. Nur +50%...Pah...mir sowas gibt sich AMD doch gar nicht ab.

http://www.techreport.com/r.x/radeon-hd-5830/1gb-vs-2gb.gif


;) ;)

Ailuros
2010-03-11, 10:26:41
Das Schlimme daran ist, dass der Mod solche Anfeindungen einfach stehen lässt, aber Diskussionen bezüglich des Unigine Drachen dutzendweise gelöscht hat.

Es blieb gar nichts davon stehen; und wenn Du Deinen Drachen-Sandkasten finden willst dann bitte hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476456&page=21

Sonst spam auch Du woanders rum.

Gast
2010-03-11, 10:45:56
Ja durch ihr ewiges lamentieren und relativieren das hq af total unnötig ist und man das sowieso nicht sieht und a.i. on af vollkommen ausreichend ist.

Und nur 8aa in extrem hohen von 2560 x xxxx zählt, weil dort nvidia gnadenlos verloren hat in der letzten gpu-generation. Komischerweise sind es bis jetzt alles unfaire tests, weil der ati der speicher ausgehen soll und der 470nicht.

Halten wir also fest, g200 speichermangel ist völlig unerheblich, man soll immer 8aa mit extrem hohen auflösungen benchen. Jetzt hat 5870 vielleicht speichermangel und schwupps sind 8aa benches in hohen auflösungen völlig unfair. So eine selektive auffassungsgabe möchte ich auch gerne haben.

Wo hatte der GT200 Speichermangel?
Und der GT200 war nicht in 8xAA langsamer wegen zu wenig Speicher.
Was ist jetzt eigentlich besser?
Wenn Ati FB sinnlose Settings toll finden?
oder:
Wenn NV FB sinnlose Settings toll finden?
Und dann soll ATI auch noch schuld sein, dass NV vielleicht keinen so guten Filter mehr anbietet...

James Ryan
2010-03-11, 11:08:44
Und dann soll ATI auch noch schuld sein, dass NV vielleicht keinen so guten Filter mehr anbietet...

Nicht ATi ist Schuld, sondern die Medien / Tester, die ATis Sparfilter/AI Geschrubbel nicht konsquent bemängeln!
Das hat NVIDIA zum Launch der Gf 6800 schon deutlich gemacht, das schlechtere AF (im Vergleich zur FX-Reihe) gab es als Reaktion auf ATis Krüppel-AF!

MfG :cool:

mapel110
2010-03-11, 11:22:18
Ich will mir nicht vorstellen, dass sich nvidia 50% Leistung ercheatet bei Treiberdefault. Das MUSS grausam aussehen.

LovesuckZ
2010-03-11, 11:27:11
Vorallem ist das von Quality ausgehend auch fast unmöglich. Es gibt schon kein trilinear mehr, es wird nicht auf jeder Stage voll gefiltert. Außerdem werden noch Samples eingespart. 50% wäre wohl nur noch mit aggressiver Sampleeinsparung und bilinearer Filterung möglich...

Gast
2010-03-11, 11:41:17
Nicht ATi ist Schuld, sondern die Medien / Tester, die ATis Sparfilter/AI Geschrubbel nicht konsquent bemängeln!
Das hat NVIDIA zum Launch der Gf 6800 schon deutlich gemacht, das schlechtere AF (im Vergleich zur FX-Reihe) gab es als Reaktion auf ATis Krüppel-AF!

MfG :cool:

Ich bitte dich, das sind doch bestenfalls billige Ausreden. Das waren sie schon damals und das sind sie erst recht heute. Es gibt kaum eine Seite die dazu noch nicht Stellung bezogen hat, selbst Seite wie Gamestar erwähnen das immer wieder aufs neue. Manche Seite bringen im Monatstackt neue Artikel wo immer wieder die Filterung hochstilisiert wird, man glaubt schon fast es gibt nichts anderes mehr.

Wenn NV wirklich bei der Filterung gespart haben sollte dann hat das denselben Grund wie damals bei CineFX: Die Architektur.

LovesuckZ
2010-03-11, 11:45:04
Stellung? Die Testen alle mit der Defaultfilterung. Die Werte enstehen alle mit Defaultfilterung. Welchen Wert haben denn die Ergebnisse, wenn im Satz darunter steht: Defaultfilterung ist Mist, weil alles flimmert.
Ich erwarte, sollte dies bei GF100 eintreten, dass gewisse Leute wenigsten in diesem Forum soviel Anstand und Selbstkritik besitzen, sich dann nicht über nVidia zu äußern. Denn Filterqualität war ihnen in den letzten 3 Jahren sowas von egal. Sowas ändert sich nicht von heut auf morgen.

Gast
2010-03-11, 11:49:42
Stellung? Die Testen alle mit der Defaultfilterung. Die Werte enstehen alle mit Defaultfilterung. Welchen Wert haben denn die Ergebnisse, wenn im Satz darunter steht: Defaultfilterung ist Mist, weil alles flimmert.

Man musste Settings finden die bei beiden halbwegs Vergleichbar waren. Aber jeder der sich solche Tests auch nur rudimentär durchlas stieß unweigerlich immer und immer wieder auf dieses Thema. Also hier so zu tun als hätten es die Testern kaum erwähnt ist schon ziemlich lächerlich.


Ich erwarte, sollte dies bei GF100 eintreten, dass gewisse Leute wenigsten in diesem Forum soviel Anstand und Selbstkritik besitzen, sich dann nicht über nVidia zu äußern. Denn Filterqualität war ihnen in den letzten 3 Jahren sowas von egal. Sowas ändert sich nicht von heut auf morgen.

Prinzipiell gebe ich dir Recht, das Problem ist das du um nichts besser warst. Im Umkehrschluss erwarte ich von dir das du eben so viel Energie aufbringst um NV für ihre Filterung zu kritisieren wie du das 3 Jahre bei ATi tatst. Sofern sich die Gerüchte bestätigen sollte. Aber bei einer ~ verdoppelten Rechenleistung bei ~-10% Texelfüllrate ist das wohl nicht ganz abwegig.

svenw
2010-03-11, 11:51:18
Vorallem ist das von Quality ausgehend auch fast unmöglich. Es gibt schon kein trilinear mehr, es wird nicht auf jeder Stage voll gefiltert. Außerdem werden noch Samples eingespart. 50% wäre wohl nur noch mit aggressiver Sampleeinsparung und bilinearer Filterung möglich...
Es gilt doch eh nur wer den längsten Schwan..... eh Balken hat. Das große Problem ist, das es dabei keine Einheitlichkeit gibt, man also das eine schlecht mit dem anderen vergleichen kann.
Otto Normaluser, geht eine minimal besser QL am Po vorbei wenn die Frames passen. Außerdem gibt es nun mal das Gesetz des abnehmenden Ertrags: Die Schirmfläche hat sich zuletzt massiv vergrößert, damit kostet jedes Prozent mehr QL massiv mehr Leistung. Die Frage ist, wo man die Rohleistung die man hat reinsteckt. NV ist mit Fermi wohl schon am Limit was der aktuelle 40G Prozeß hergibt, mehr Leistung, wofür auch immer, ist einfach nicht drin. Selbst ATI hat mit Cypress so seine Probleme.
Man musste Settings finden die bei beiden halbwegs Vergleichbar waren. Aber jeder der sich solche Tests auch nur rudimentär durchlas stieß unweigerlich immer und immer wieder auf dieses Thema. Also hier so zu tun als hätten es die Testern kaum erwähnt ist schon ziemlich lächerlich.
selbst minimale Unterschiede können ein paar Prozente ausmachen und 5% mehr oder weniger Leistung in den Tests können über Kauf oder Nichtkauf entscheiden. Somit wird solange runtergedreht bis es die Masse der User merkt. 80% der Unterschiede die die Leute hier sehen sehen 95% der User gar nicht.

LovesuckZ
2010-03-11, 12:01:26
Man musste Settings finden die bei beiden halbwegs Vergleichbar waren. Aber jeder der sich solche Tests auch nur rudimentär durchlas stieß unweigerlich immer und immer wieder auf dieses Thema. Also hier so zu tun als hätten es die Testern kaum erwähnt ist schon ziemlich lächerlich.

Nein. Dann können wir auch gleich wieder Point Sampling oder reine bilineare Filterung verwenden. Die sind nämlich auf beiden - hoffentlich - identisch. Oder testen Spiele ohne AA, oder ohne Tessellation oder ohne...


Prinzipiell gebe ich dir Recht, das Problem ist das du um nichts besser warst. Im Umkehrschluss erwarte ich von dir das du eben so viel Energie aufbringst um NV für ihre Filterung zu kritisieren wie du das 3 Jahre bei ATi tatst. Sofern sich die Gerüchte bestätigen sollte. Aber bei einer ~ verdoppelten Rechenleistung bei ~-10% Texelfüllrate ist das wohl nicht ganz abwegig.

Tja, solange HQ anwesend ist, ist mir die Defaultfilterung egal. :)
Ich wollte nie Tests mit Quality sehen. Aber da war ich leider einer der wenigen.

Gast
2010-03-11, 12:10:46
Nein. Dann können wir auch gleich wieder Point Sampling oder reine bilineare Filterung verwenden. Die sind nämlich auf beiden - hoffentlich - identisch. Oder testen Spiele ohne AA, oder ohne Tessellation oder ohne...

Dann eben die höchstmögliche vergleichbare Qualität. Und da ich weiß was jetzt wieder kommt: Nein, AI-off ist keine realistische Option. Oder wäre es dir lieber wenn man NV mit HQ bencht und sie dadurch ungerechtfertigt kürzere Balken bekommen? Natürlich nicht. AMD bietet nur eine realistische Option an und dadurch haben sie den Vorteil das man sich an sie anpassen muss, klar. Ich finde das auch nicht in Ordnung, aber alles andere wäre noch ungerechter.


Tja, solange HQ anwesend ist, ist mir die Defaultfilterung egal. :)
Ich wollte nie Tests mit Quality sehen. Aber da war ich leider einer der wenigen.

Das war keine Antwort auf meine Aussage, sondern nur ein Ausweichmanöver. Was ist wenn HQ nicht mehr das ist was es mal war? Ich höre dich schon schreien......nicht. Ich höre dich schon vertuschen.

LovesuckZ
2010-03-11, 12:19:09
Dann eben die höchstmögliche vergleichbare Qualität. Und da ich weiß was jetzt wieder kommt: Nein, AI-off ist keine realistische Option. Oder wäre es dir lieber wenn man NV mit HQ bencht und sie dadurch ungerechtfertigt kürzere Balken bekommen? Natürlich nicht. AMD bietet nur eine realistische Option an und dadurch haben sie den Vorteil das man sich an sie anpassen muss, klar. Ich finde das auch nicht in Ordnung, aber alles andere wäre noch ungerechter.

Wenn AMD nur eine "realistische Option" bietet, erhalten sie eben 0 FPS und eine klare "Nichtkaufempfehlung". Ich habe diesen Unsinn nie verstanden: Einerseits ist es fair 8xMSAA gegen 8xMSAA zu vergleichen, aber andererseits unfair HQ gegen A.I Off. Wenn nVidia's 8xMSAA keine "realistische Option" ist - wieso hat man es dann mit AMD's Modus verglichen?
Aber Doppelmoral ist sowieso immer existent.


Das war keine Antwort auf meine Aussage, sondern nur ein Ausweichmanöver. Was ist wenn HQ nicht mehr das ist was es mal war? Ich höre dich schon schreien......nicht. Ich höre dich schon vertuschen.

Es war eine klare, verständliche Antwort. Und HQ wird es 100pro weiterhin geben. Dann können sich andere, Doppelmoraler, über die Defaultfilter auslassen. Sehen tun sie die Unterschiede doch sowieso nicht. :freak:

Kalmar
2010-03-11, 12:24:56
diese filtersache nervt, vorallem weil sie alle 5-10 seiten immer wieder hochkommt -.-

ne schöne info seite, übersichtlich zusammengefasst, weiss net obs schon gepostet wurde ... http://www.hardwareboard.eu/showthread.php?10858-Nvidia-GF100-Fermi-Thread

btw es gibt kaum/so gut wie keine infos zur 460 .. was kann mand a so sagen 5830 niveau mit +-10% ?

Gast
2010-03-11, 12:34:22
Wenn AMD nur eine "realistische Option" bietet, erhalten sie eben 0 FPS und eine klare "Nichtkaufempfehlung". Ich habe diesen Unsinn nie verstanden: Einerseits ist es fair 8xMSAA gegen 8xMSAA zu vergleichen, aber andererseits unfair HQ gegen A.I Off. Wenn nVidia's 8xMSAA keine "realistische Option" ist - wieso hat man es dann mit AMD's Modus verglichen?
Aber Doppelmoral ist sowieso immer existent.

Ich denke du hast es sehrwohl verstanden, willst es aber nicht zugeben und gibts dich lieber Ahnungslos und wirfst mit Beschuldigungen um dich. 8xMSAA bei NV mag nicht sonderlich schnell sein im Vergleich zu ATi, aber es deaktiviert keine Treiberoptimierungen.


Es war eine klare, verständliche Antwort. Und HQ wird es 100pro weiterhin geben. Dann können sich andere, Doppelmoraler, über die Defaultfilter auslassen. Sehen tun sie die Unterschiede doch sowieso nicht. :freak:

Du hast die Frage schon wieder nicht beantwortet sondern weichst nur aus. Danke das reicht mir. Mir wird das ohnehin zu kleinlich. Nur nicht zu viel hinein steigern Love.... :)

LovesuckZ
2010-03-11, 12:41:03
8xMSAA bei NV mag nicht sonderlich schnell sein im Vergleich zu ATi, aber es deaktiviert keine Treiberoptimierungen.

Das ist weder ein Problem der Reviewer, noch von nVidia. Komisch, dass dann die Firma bestraft wird, die nicht mit solchen lächerlichen Aktionen die eigenen Architekturschwächen verheimlicht.


Du hast die Frage schon wieder nicht beantwortet sondern weichst nur aus. Danke das reicht mir. Mir wird das ohnehin zu kleinlich. Nur nicht zu viel hinein steigern Love.... :)

Doch, das habe ich. Mir ist bewusst, dass Besucher dieses Forums dazu neigen Texte nicht richtig zu lesen. Aber dann schiebe keine Anschuldigungen gegen meine Person, die durch dieses Problem entstehen:

Im Umkehrschluss erwarte ich von dir das du eben so viel Energie aufbringst um NV für ihre Filterung zu kritisieren wie du das 3 Jahre bei ATi tatst.

Tja, solange HQ anwesend ist, ist mir die Defaultfilterung egal.

Und damit beende ich diese Diskussion.

Nakai
2010-03-11, 12:48:54
Über die stinknormalen ALUs halt. Also ja, die die auch FMA ausführen können.

FMA heißt ja, A = A+BxC (MADD ist ja das gleiche nur mit geringerer Präzision). Jetzt wo das MUL fehlt, wird jede FMA-Einheit ja zusätzlich augelastet. Ich bin nur ein Leie, aber wenn ich mir das so anschaue, sind einzelne ADDs und MULs für MADDs und FMAs nicht sonderlich gut, da hierbei ein MUL oder ein ADD komplett wegfallen. Wie sich das genau auswirkt, kann ich nicht sagen, aber das ist schon bitter.

Ich denke NV hat sich was dabei gedacht eine zusätzliche MUL beim G80 und dem GT200 einzubauen...aber was weiß ich schon.


Wenn NV die Qualität des Texturfilters senkt, dann ist das, grob gesagt, einfach nur kagge. HQ wird dann mehr kosten, also vorher.
ATI hat zwar dran gearbeitet, aber das ist immer noch lange nicht perfekt. SSAA ist zwar ein Trost.

Wenn NV bei Fermi kein SSAA anbietet, dann ist das ein Brett für die technikversierten Kunden.
Ich denke, das wäre der perfekte Zeitpunkt BQ-Probleme bei beiden kritisch anzusprechen. NV soll sich da nicht auf ATIs Niveau begeben.



mfg

Blutelfchen
2010-03-11, 12:53:47
Solange für viele Leute (immer noch) nur die Länge eines Benchmarkbalkens (alleine) maßgebend sind fühlen sich nvidia und AMD scheinbar genötigt die BQ zugunsten dieser Diagramme eben zu "optimieren".
Dabei steht ATI mit der 5xxx Serie so gut da das sie eigentlich kein Flimmer AF nötig hätten. Und nvidia könnte sich mit einer guten Bildqualität abheben wenn schon keine riesigen Performancevorsprünge gegenüber einer HD5870 drin wären...

Gast
2010-03-11, 13:09:20
FMA heißt ja, A = A+BxC (MADD ist ja das gleiche nur mit geringerer Präzision). Jetzt wo das MUL fehlt, wird jede FMA-Einheit ja zusätzlich augelastet. Ich bin nur ein Leie, aber wenn ich mir das so anschaue, sind einzelne ADDs und MULs für MADDs und FMAs nicht sonderlich gut, da hierbei ein MUL oder ein ADD komplett wegfallen. Wie sich das genau auswirkt, kann ich nicht sagen, aber das ist schon bitter.

Ich denke NV hat sich was dabei gedacht eine zusätzliche MUL beim G80 und dem GT200 einzubauen...aber was weiß ich schon.

Das MUL kam aus den SFUs, die sind in den TMUs angepasster Zahl auch beim Fermi noch vorhanden. Wo ist das Problem?

-Carsten

Gast
2010-03-11, 13:09:57
Solange für viele Leute (immer noch) nur die Länge eines Benchmarkbalkens (alleine) maßgebend sind fühlen sich nvidia und AMD scheinbar genötigt die BQ zugunsten dieser Diagramme eben zu "optimieren". […]
Amen.

-Carsten

Nakai
2010-03-11, 13:17:15
Das MUL kam aus den SFUs, die sind in den TMUs angepasster Zahl auch beim Fermi noch vorhanden. Wo ist das Problem?

-Carsten

Also bei Fermi ist die noch vorhanden, aber wird nicht mitgezählt.
Gut, gut, dann hat sich das geklärt.;)


mfg

Gast
2010-03-11, 13:33:16
Ist das denn schon alles raus mit der Filterung? Nein. Also malt den Teufel nicht an die Wand. Keiner weiss bei dieser Architektur ob es wirklich so kommt. Kann alles anders kommen, remember G80!

mapel110
2010-03-11, 14:36:42
http://www.fudzilla.com/content/view/18038/34/
Dual Fermi später als gedacht, aber möglich. Dürfte imo auch mit der Ausbeute der 512SP-Variante stehen und fallen.

Ailuros
2010-03-11, 15:12:09
Ist das denn schon alles raus mit der Filterung? Nein. Also malt den Teufel nicht an die Wand. Keiner weiss bei dieser Architektur ob es wirklich so kommt. Kann alles anders kommen, remember G80!

G80 hatte 32TA/64TF Einheiten und die Vorteile dieser Konstellation brauchen wir nicht nochmal erwaehnen. Es sind auf GF100 64TA/64TF Einheiten und am wahrscheinlichsten ist dass die gesamten TMUs auf 1/2 hot clock laufen.

Dural
2010-03-11, 15:22:20
welche vorteile? dass man mit G92 auf 64/64 umgestellt hat?

ich meine schon seit R600 jammert man bei ATI wegen zu wenig TMUs rum... und jetzt wo der RV870 ganze 80TMUs @ 850MHz hat ist das eine senation... aber in wahrheit hat sich bei ATI seit dem R600 im Vergleich zur ALU Leistung rein gar nichts am verhältnis geändert...

Im schlimmsten fall wird man auf G92 mit der TMU Leistung zurückfallen, im besstenfall wird man aber 70% mehr haben laut aussage von NV, was deutlich über GT200 und RV870 ist...

Blaire
2010-03-11, 15:28:16
Laut "gdphk" der eine GTX470 besitzt, ist HighQuality und alle anderen GT200 Einstellungen im Treiber noch vorhanden. Nhancer soll aber nicht mehr funktionieren, da muss Grestorn wieder Hand anlegen...

LovesuckZ
2010-03-11, 15:32:18
Im schlimmsten fall wird man auf G92 mit der TMU Leseitung zurückfallen, im besstenfall wird man aber 70% mehr haben laut aussage von NV, was deutlich über GT200 und RV870 ist...

Je nachdem liegt man bei der Texturleistung leicht unter oder auf dem Niveau der GTX280. Das sollte für die nächsten Jahre vollkommen ausreichend sein - vorallen dann, wenn Tessellation und Compute in Spielen an Bedeutung gewinnen sollte.

James Ryan
2010-03-11, 15:32:30
Ich denke Grestorn wird von NVIDIA noch mit Infos bezüglich GF100 Kompatibilität versorgt. ;)

MfG :cool:

numb
2010-03-11, 16:28:02
wenn ati schlau wär, würden sie mit dem nächsten Catalyst HQ-Filterung ermöglichen und so dem Fermi auf die Pelle rücken (BQ und Perfomancemäßig).

Wäre quasi eine Win-Win Situation (für User und ATi) ;)

y33H@
2010-03-11, 16:35:20
Ich will nicht wissen, wie sehr Cypress mit HQ einbricht.

numb
2010-03-11, 16:37:39
Ich schon - bin ein neugieriger Mensch

Gast
2010-03-11, 16:41:18
Die Preise der beiden Karten werden Euch richtig glücklich machen :D

Gast
2010-03-11, 16:46:46
Ich will nicht wissen, wie sehr Cypress mit HQ einbricht.

Weniger als aktuell mit AI, wie man an den Texelfüllraten mit AF schön sieht.

Gast
2010-03-11, 16:53:41
Je nachdem liegt man bei der Texturleistung leicht unter oder auf dem Niveau der GTX280. Das sollte für die nächsten Jahre vollkommen ausreichend sein - vorallen dann, wenn Tessellation und Compute in Spielen an Bedeutung gewinnen sollte.

Was mit zukünftigen Spielen ist wird man sehen. Fermi muss sich in aktuellen Spielen beweisen. Und da wage ich das erst mal zu bezweifeln. Die Texturqualität wird jedenfalls auch in Zukunft nicht abnehmen.

igg
2010-03-11, 16:55:00
Noch 1 Tag, dann sollten die Pressesamples ankommen...

Gast
2010-03-11, 16:59:50
Noch 1 Tag, dann sollten die Pressesamples ankommen...

Und irgendwann hat das ganze Tohuwabohu endlich ein Ende. Dieses Spekulieren tut ja schon in den Augen weh.

LovesuckZ
2010-03-11, 17:02:40
Was mit zukünftigen Spielen ist wird man sehen. Fermi muss sich in aktuellen Spielen beweisen. Und da wage ich das erst mal zu bezweifeln. Die Texturqualität wird jedenfalls auch in Zukunft nicht abnehmen.

Für heutige Spiele hat GF100 genug Texturleistung - immerhin auf dem Niveau der GTX280. Und das Texturleistung nicht der bestimmende Faktor in heutigen Spielen ist, sieht man schön am rv870 <> rv770 Vergleich.

Kalmar
2010-03-11, 17:07:50
Noch 1 Tag, dann sollten die Pressesamples ankommen...

bringt und das was wegen dem nda ? außer ner vermutlichen flut an leaks wo man wieder net weiss stimmts oder stimms net und die fanboys werden je nach performance und lager sagen fake oder stimmt :P

igg
2010-03-11, 17:12:08
bringt und das was wegen dem nda ?
Es verzigfacht die Menge an potenziellen Leakern.

Kalmar
2010-03-11, 17:18:45
Es verzigfacht die Menge an potenziellen Leakern.

hoffentlich sind auch ein paar vernüftige bzw. vertrauenswürdige quellen dabei, wie schaut es aus mit dem treibern gibt es nen vernüftigen treiber dazu oder nur irgendwas zusammengeschustertes ?

die taktraten sollten ja auch schon finale sein aber gehört hat man da auch nix :(

Eggcake
2010-03-11, 17:22:37
Ich find's grad nicht mehr: wie lange wird die GTX470 nochmals?

Neocroth
2010-03-11, 17:34:33
Ich find's grad nicht mehr: wie lange wird die GTX470 nochmals?

War mal ein Funfact:


The GF100 board is 10.5-inches long -- the same length as GeForce GTX 200 Series graphics cards!


sind also ~26,7 Zentimeter.

LovesuckZ
2010-03-11, 17:36:34
GTX470 sollte kleiner kürzer als diese 10,5" sein. Wahrscheinlich 10"+-. (Deutlich) kleiner kürzer als die 5870.

Gast
2010-03-11, 17:44:27
GTX470 sollte kleiner als diese 10,5" sein. Wahrscheinlich 10"+-. (Deutlich) kleiner als die 5870.

Kürzerer Kühler bei höherer TDP ergibt sicher einen netten Fön.

LovesuckZ
2010-03-11, 17:55:59
Danach müsste auch der Kühler der 8800GTX ein "Föhn" gewesen sein. Der war nämlich noch kürzer als der Kühler auf der GTX470.

Schlammsau
2010-03-11, 17:59:54
Danach müsste auch der Kühler der 8800GTX ein "Föhn" gewesen sein. Der war nämlich noch kürzer als der Kühler auf der GTX470.

Welche TDP hat die 8800GTX und die GTX470?

LovesuckZ
2010-03-11, 18:00:22
Welche TDP hat die 8800GTX und die GTX470?

188Watt war die TDP der 8800GTX. GTX470 steht noch aus.

Gast
2010-03-11, 18:02:08
Ich find's grad nicht mehr: wie lange wird die GTX470 nochmals?
GTX 480: 10,5 Zoll
GTX 470: 9,5 Zoll


-Carsten

Schlammsau
2010-03-11, 18:04:24
188Watt war die TDP der 8800GTX. GTX470 steht noch aus.

Bei Wiki (http://en.wikipedia.org/wiki/GeForce_8_Series) steht was von 155Watt TDP und hier (http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/) steht übrigens was von 145Watt......aber is ja auch Wurscht, es ist davon auszugehen das die TDP der 470 deutlich über dem der 8800GTX sein wird.

Also hinkt dein Vergleich!

LovesuckZ
2010-03-11, 18:10:45
Bei Wiki (http://en.wikipedia.org/wiki/GeForce_8_Series) steht was von 155Watt TDP.....aber is ja auch Wurscht. Es ist davon auszugehen das der TDP der 470 deutlich über dem der 8800GTX sein wird.
Also hinkt dein Vergleich!

Natürlich hinkt mein Vergleich. Mister Schlammsau weiß ja sowieso alles besser. :rolleyes:
Es gibt verschiedene Angaben. Bei der Vorstellung der 8800U wurde die 8800GTX mit 188Watt von nVidia angegeben. Bei Firingsquad steht folgendes:

We asked NVIDIA why the need for two power connectors and were told that the max TDP requirement for the GeForce 8800 GTX is 177W. According to NVIDIA though, this is a worst case scenario where every functional unit on the GPU is maxed out, and doesn’t happen in typical gaming sessions where their own testing has shown GPU power usage in the 116W-120W range on average and 145W as the high point.

Hier bei der 8800U Vorstellung:
The increased clock speeds aren’t all that has changed with GeForce 8800 Ultra though, as Nvidia has been busy making efficiency improvements to the 90-nanometre manufacturing process it is using. As a result, GeForce 8800 Ultra actually uses less power than the GeForce 8800 GTX. At launch, GeForce 8800 GTX had an 185W maximum TDP and over the past seven months, Nvidia has managed to get that down to 177W. However, has gone one step further with GeForce 8800 Ultra because, despite the higher clocks, its maximum TDP is rated at 175W.
http://www.bit-tech.net/hardware/graphics/2007/05/02/nvidia_geforce_8800_ultra/1

Und ob die GTX470 (deutlich) mehr benötigen wird, steht noch vollkommen in den Sternen.

Eggcake
2010-03-11, 18:12:26
Mh also gleich wie die 5850. Gut. Kein Zentimeter mehr hat bei mir Platz ^^

Schlammsau
2010-03-11, 18:14:37
Natürlich hinkt mein Vergleich. Mister Schlammsau weiß ja sowieso alles besser. :rolleyes:
Es gibt verschiedene Angaben. Bei der Vorstellung der 8800U wurde die 8800GTX mit 188Watt von nVidia angegeben. Bei Firingsquad steht folgendes:



Hier bei der 8800U Vorstellung:

http://www.bit-tech.net/hardware/graphics/2007/05/02/nvidia_geforce_8800_ultra/1

Und ob die GTX470 (deutlich) mehr benötigen wird, steht noch vollkommen in den Sternen.

Und nen haufen Seiten schreiben was von <160 Watt.....wer hat nun Recht????
zB diese hier! http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/

LovesuckZ
2010-03-11, 18:22:05
Die TDP liegt bei 180+- Watt. Aber EoD für mich ab hier. Kannst glauben, was immer du willst.

NVIDIA tells us that the TDP of the card is around the 185W mark.
http://www.bit-tech.net/hardware/graphics/2006/11/08/nvidia_geforce_8800_gtx_g80/18

Schlammsau
2010-03-11, 18:31:58
Die TDP liegt bei 180+- Watt. Aber EoD für mich ab hier. Kannst glauben, was immer du willst.


http://www.bit-tech.net/hardware/graphics/2006/11/08/nvidia_geforce_8800_gtx_g80/18

Was hat das eine mit dem andren zu tun.

Egal wieviel nun eine 8800GTX wirklich verbraucht hat, die TDP war (deutlich) geringer als die der kommenden 470er.

Also hinkte dein Vergleich! EOD

Gaestle
2010-03-11, 18:33:35
@Schlammsau
Es gibt einen Unterschied zwischen TDP und "real World"-Verbrauch. TDP-Angaben gibts auch für ATi, Intel, und AMD.
Wahrscheinlich haben die Seiten, die was von <160W schreiben, selbst nachgemessen. Denn in der Regel liegt der "real-world" Verbrauch unter der TDP.
Außer im Furmark, wo der Stromverbauch bei allen Karten durch die Decke geht und bei (fast?) allen Karten (und auch bei ATi-Karten) über der TDP liegt.

Aber selbst wenn die TDP der 470 tatsächlich bei 230Watt liegt, finde ich (im Vgl. u 8800GTX) 25% mehr Stromhunger bei ca. 100% mehr Leistung ganz okay. Was aber natürlich nichts daran ändern würde, dass im Vergleich zu einer 470 eine 5870 offenbar für eine sehr ähnliche Balkenlänge 25% weniger Strom "verbraucht".

Schlammsau
2010-03-11, 18:37:26
Moment ich nehme alles zurück....ich seh grad, eine 5870 hat auch "nur" eine TDP von 188Watt.

Also könnte die 470 wirklich auf 8800GTX - Ultra Niveau sein.

Gast
2010-03-11, 18:47:05
http://www.fudzilla.com/content/view/18038/34/
Dual Fermi später als gedacht, aber möglich. Dürfte imo auch mit der Ausbeute der 512SP-Variante stehen und fallen.
Oh welche Überraschung... und das, wo doch dauernd getönt wurde, das DualFermi "zeitnah" nach den Single-Karten erscheinen soll...

y33H@
2010-03-11, 18:52:55
Ende März bis Anfang April ist ja fast schon Q2, ergo wäre Dual-Fermi schon "zeitnah".

aylano
2010-03-11, 19:01:35
Es ging darum, ob Dual-Fermi ein Monat nach Single-Fermi kommt.

Und bei Fudzilla wissen wir ja, er "sieht" momentan bei Nvidia nicht weiter als 3 Monate.
Siehe Fermi-Einführung, die er Monat für Monat um 1 Monat verschoben hat.

LovesuckZ
2010-03-11, 19:03:13
Oh welche Überraschung... und das, wo doch dauernd getönt wurde, das DualFermi "zeitnah" nach den Single-Karten erscheinen soll...

Und? Ende Q2 kann alles zwischen Anfang Juni und Ende Juni bedeuten. Hemlock kam auch fast 2 Monate nach Cypress auf dem Markt. GTX295 6 Monate nach dem GT200. Und die 9800GX ganze 4 Monate nach der 8800GT.

Tarkin
2010-03-11, 20:09:24
noch was von neliz bzgl. Verfügbarkeit (von heute)

"I've just heard several allocation numbers from board partners.. (real ones this time) and when someone said 5000 cards worldwide, they were more than right. it might even be a lot less than that.
Double digits for really big markets (let's say, the last two digits of the 5850 and 5870 give a really nice indication of what you might expect, tops) and if you're unlucky enough to live in an "uninteresting" area in this world you might even see single digit amounts of 470's.

No wonder AMD is not rushing anything with regards to a refresh. With another Cypress part coming out after Trillian they have enough to counter any offer from the green camp.

GF100 will have a mark-up on its MSRP that will be unbelievable."

Adam D.
2010-03-11, 20:44:26
Klingt ja fast so, als würden sich die schlimmsten Spekulationen bewahrheiten. Wäre wirklich sehr schade, ich frag mich, wann der Markt dann endlich mal in Schwung kommen soll :confused:

LovesuckZ
2010-03-11, 20:46:20
Wieso? Der Typ schreibt sowieso nur so vage, dass am Ende alles stimmen wird - was er je gesagt hat. Laut Neuschäfer sollen es 10k Chips am Start sein und ein paar Wochen später dann deutlich mehr. Das sagt auch der Neliz-Typ.
Aber wieso wartet man nicht einfach die 2 Wochen ab? Bei Cypress hätte auch niemand gedacht, dass die Karte nach dem Start 2 Monate kaum bis garnicht vorhanden war. Und die Gerüchte gab es am Anfang nicht...

/edit: Und 6 Monate nach dem Launch der Karten ist die 5850 bald ausverkauft! Von der gibt es auch kaum mehr als 5000k weltweit...

S940
2010-03-11, 20:47:03
Klingt ja fast so, als würden sich die schlimmsten Spekulationen bewahrheiten. Wäre wirklich sehr schade, ich frag mich, wann der Markt dann endlich mal in Schwung kommen soll :confused:
Spätestens mit dem ersten Shrink ... mit viel Glück auch schon mit der B1 Rev im Mai/Juni. Aber Letztere macht das Die nicht kleiner, und an der Taktrate wird sich vermutlich ebenfalls nicht viel ändern.

Gast
2010-03-11, 21:02:28
Spätestens mit dem ersten Shrink ... mit viel Glück auch schon mit der B1 Rev im Mai/Juni. Aber Letztere macht das Die nicht kleiner, und an der Taktrate wird sich vermutlich ebenfalls nicht viel ändern.
Ist mit Shrink ein kleinerer Fertigungsprozess gemeint?
Der Shrink zur besseren Verfügbarkeit kann dann aber wirklich nur die letzte Instanz sein. Denn das würde doch noch ewig dauern?!
Nach dem aktuellen Stand, fällt dann doch immer eine gehörige Menge Ausschuss an. Vielleicht kann der Mainstreambereich durch ein Chiprecycling profitieren?

Adam D.
2010-03-11, 21:13:32
Wieso? Der Typ schreibt sowieso nur so vage, dass am Ende alles stimmen wird - was er je gesagt hat. Laut Neuschäfer sollen es 10k Chips am Start sein und ein paar Wochen später dann deutlich mehr. Das sagt auch der Neliz-Typ.
Aber wieso wartet man nicht einfach die 2 Wochen ab? Bei Cypress hätte auch niemand gedacht, dass die Karte nach dem Start 2 Monate kaum bis garnicht vorhanden war. Und die Gerüchte gab es am Anfang nicht...

/edit: Und 6 Monate nach dem Launch der Karten ist die 5850 bald ausverkauft! Von der gibt es auch kaum mehr als 5000k weltweit...
Nur weil es AMD ähnlich schlecht gemacht hat, rechtfertigt das doch die ebenfalls schlechte Lage bei Nvidia nicht. Ich weiß schon, dass Nvidia und AMD da nicht die Hauptschuld dran haben, aber in den nächsten Monaten wird sich an Preis und Verfügbarkeit wohl kaum etwas ändern und das ist frustrierend. Deshalb bin ich gespannt, wann sich das bessern wird. Bestimmt nicht 2 Wochen nach Launch.

LovesuckZ
2010-03-11, 21:36:30
Nur weil es AMD ähnlich schlecht gemacht hat, rechtfertigt das doch die ebenfalls schlechte Lage bei Nvidia nicht.

Es gibt noch nichtmal einen Launch. Der ist bei AMD 6 Monate her. Und ich hörte niemanden bei AMD sagen, dass die Karten selbst nach 6 Monaten nur mäßig erhältlich sein werden. Aber hier bei nVidia wird ein Fass aufgemacht, ohne nichtmal die Veröffenlichung abzuwarten.
Und wie oft haben Neliz, Char-lie, Baumann und Co gepredigt, dass die Liefersituation besser werde? Seit November!
Nach dem Launch kann man fluchen und flamen. Aber woher ist das doch ein bisschen kindisch.

Gast
2010-03-11, 21:37:29
/edit: Und 6 Monate nach dem Launch der Karten ist die 5850 bald ausverkauft! Von der gibt es auch kaum mehr als 5000k weltweit...
Na 5 Millionen sind ja auch schon ne ganze Menge. Und trotzdem ausverkauft? Respekt! :D
Aber ich glaub, so viele sinds gar nicht. Lovesuxx übertreibt mal wieder *skeptisch*

Byteschlumpf
2010-03-11, 21:48:29
/edit: Und 6 Monate nach dem Launch der Karten ist die 5850 bald ausverkauft! Von der gibt es auch kaum mehr als 5000k weltweit...
Das hat mich auch sehr verwundert! Noch vor einer Woche sah nichts ernsthaft nach einer derartigen Verknappung aus!
Letzten Freitag konnte ich bei Amazon noch eine Sapphire HD5850 für knapp €250 abstauben! ;)

Im Laden habe ich bisher noch nie eine HD58xxer Karte gesehen! Es scheint sich in der Tat um eine überaus seltene Spezies zu handeln. Sowas habe ich, seitdem ich Zockerkarten kaufe (das sind jetzt schon 10 Jahre), noch nie erlebt!
Als der R300 rausgekommen ist, gab es recht frühzeitig schon die 9700Pro für knapp €400 im Laden und auf Computer-Messen.

Schlammsau
2010-03-11, 22:06:58
Das hat mich auch sehr verwundert! Noch vor einer Woche sah nichts ernsthaft nach einer derartigen Verknappung aus!
Letzten Freitag konnte ich bei Amazon noch eine Sapphire HD5850 für knapp €250 abstauben! ;)

Im Laden habe ich bisher noch nie eine HD58xxer Karte gesehen! Es scheint sich in der Tat um eine überaus seltene Spezies zu handeln. Sowas habe ich, seitdem ich Zockerkarten kaufe (das sind jetzt schon 10 Jahre), noch nie erlebt!
Als der R300 rausgekommen ist, gab es recht frühzeitig schon die 9700Pro für knapp €400 im Laden und auf Computer-Messen.
Das stimmt so nicht, hier sehe ich die Karten fast überall in den Regalen stehen. Sogar der MM soll welche führen.
Sind halt nur etwas teurer.....

Aber die 5850 sind in der Tat momentan auf Geizhals sehr knapp.

Anders schauts bei den 5870 aus.
http://geizhals.at/deutschland/?cat=gra16_512;asuch=5870;asd=on;v=k&sort=p

Gast
2010-03-11, 22:08:27
Es gibt noch nichtmal einen Launch. Der ist bei AMD 6 Monate her. Und ich hörte niemanden bei AMD sagen, dass die Karten selbst nach 6 Monaten nur mäßig erhältlich sein werden.

warum bauen die deppen von amd auch so eine scheiss gute grafikkarte dass kunden den händlern die regale leer räumen.
die sollen umgehend bei neuen karten den takt reduzieren damit die teile endlich verfügbar werden...

Duplex
2010-03-11, 22:18:57
verrückte hier im Thread...

das fast keine Karten Verfügbar sind liegt bei TSMC, die haben schuld und nicht AMD.

Botcruscher
2010-03-11, 22:24:38
Aber die 5850 sind in der Tat momentan auf Geizhals sehr knapp.
Die Verfügbarkeit sagt hier auch etwas über die Yields von AMD aus. Bei dem geringen Angebot scheint es kaum teildefekte Chips zu geben.

Es gibt noch nichtmal einen Launch. Der ist bei AMD 6 Monate her. Und ich hörte niemanden bei AMD sagen, dass die Karten selbst nach 6 Monaten nur mäßig erhältlich sein werden. Aber hier bei nVidia wird ein Fass aufgemacht, ohne nichtmal die Veröffenlichung abzuwarten.
Zum einen hast du Recht und zum anderen hört man von AMD aber nichts von einem B1. TSMC ist bei beiden Schuld aber bei NV ist die Lage noch verzwickter. Was da wirklich schief läuft werden wir wohl erst irgendwann in einem Nachruf zu Fermi erfahren.

Gast
2010-03-11, 22:24:44
Kann hier ein Mod mal durchwischen? Wird immer schlimmer hier.

urfaust
2010-03-11, 22:32:47
;D
da will schon jemand eine GTX 480 zu Hause haben:

http://www.gamestar.de/community/gspinboard/showthread.php?t=379506

Kalmar
2010-03-11, 22:33:54
2 mio Stück sind net wenig und ich denke ati aknn so wenig auch liefern weil der Absatz wegen nvs nicht liefern bedeuten höher ist als hätte nv ihre Karten aufn Markt ..

Gast
2010-03-11, 22:37:07
noch was von neliz bzgl. Verfügbarkeit (von heute)

[I]"I've just heard several allocation numbers from board partners.. (real ones this time) and when someone said 5000 cards worldwide, they were more than right. it might even be a lot less than that.

Nur merkwürdig, dass die Nvidia-Board-Partner auf der CeBIT diese Aussage dementiert haben und gesagt haben, dass die "5000 cards"-Aussage von Ati und deren Board-Partnern verbreitet wurden. Aber wahrscheinlich hat neliz halt einfach Ati-Board-Partner befragt. :)

G!ZMo
2010-03-11, 22:40:01
;D
da will schon jemand eine GTX 480 zu Hause haben:

http://www.gamestar.de/community/gspinboard/showthread.php?t=379506

LOL

Wieso haben immer so äußerst vertrauenswürdige Leute mit 2 Posts angeblich solche Karten? :freak:

san.salvador
2010-03-11, 22:41:16
LOL

Wieso haben immer so äußerst vertrauenswürdige Leute mit 2 Posts angeblich solche Karten? :freak:
Ich finde 2 Postings im GS-Froum deutlich vertrauenswürdiger als 2000. :D

Gast
2010-03-11, 22:42:07
2 mio Stück sind net wenig und ich denke ati aknn so wenig auch liefern weil der Absatz wegen nvs nicht liefern bedeuten höher ist als hätte nv ihre Karten aufn Markt ..

Sorry, aber hä?

Gast
2010-03-11, 22:48:05
Und zum Gamestar Typen. Wieso wollen sich Menschen immer wichtig machen? Dem platzt dann wahrscheinlich die Hose. Arm sowas, einfach arm.

Kalmar
2010-03-11, 22:50:39
Sorry, aber hä?

sry ich wollt sagen die ati dinger gehen weg wie warme semmeln wären die nv karten aufn Markt würden net so viele ati kaufen, also wären mehr über von ati und der preis geringer ..

aylano
2010-03-11, 22:54:44
Irgendwie kann ich mir vorstellen, als ob die Nachfrage nach Cypress spürbar gestiegen wäre, nachdem vor kurzem viele/alle Zeitungen von einen recht stromhungrigen Fermi mit nicht so berauschenten Vorsprung berichteten, die nur mit paar Tausend Stück am Launchtag zu Verfügung stehen.

Also, jene die auf einen Preissenkung des RV870 infolge des Fermi bzw. auf einen "billigen" Fermi hofften, dürften ziemlich enttäuscht geworden sein und gleich auf eine Karte gekauft haben, weil sie wegen der geringen Verfügbarkeit auch nicht noch Monate wie bei der RV870 warten wollten, weil sie das Warten schon satt haben.

Denn die wieder geringe Verfügbarkeit ist schon etwas komisch, da die Kapazitäten & Yield ja deutlich gesteigert worden ist.

Gast
2010-03-11, 23:27:43
Irgendwie kann ich mir vorstellen, als ob die Nachfrage nach Cypress spürbar gestiegen wäre, nachdem vor kurzem viele/alle Zeitungen von einen recht stromhungrigen Fermi mit nicht so berauschenten Vorsprung berichteten, die nur mit paar Tausend Stück am Launchtag zu Verfügung stehen.

Also, jene die auf einen Preissenkung des RV870 infolge des Fermi bzw. auf einen "billigen" Fermi hofften, dürften ziemlich enttäuscht geworden sein und gleich auf eine Karte gekauft haben, weil sie wegen der geringen Verfügbarkeit auch nicht noch Monate wie bei der RV870 warten wollten, weil sie das Warten schon satt haben.

Denn die wieder geringe Verfügbarkeit ist schon etwas komisch, da die Kapazitäten & Yield ja deutlich gesteigert worden ist.

Das Gefühl habe ich auch. Aber das stimmt schon teilweise. Ich lege mir demnächst eine HD5770 zu und kann erstmal zurückgelehnt das Geschehen am Markt beobachten ... Noch Anfang 2010 dachte ich, dass sehr bald der Preiskampf losgehen wird. Aber mittlerweile habe ich das Warten satt und allen Gerüchten zufolge geht der Preiskampf noch mindestens einen Monat in der Zukunft. Aber wenn die Verfügbarkeit bei ATI UND Nvidia nicht besser wird, bleibt auch der Preis - trotz Konkurrenz - hoch. Es sieht nach einer längeren Geschichte aus und ich will JETZT Grafikpower zu vernünftigen Preisen. Da bleibt mir kaum etwas anderes als der Kauf der HD5770 als temporäre Lösung übrig.

The Jackal
2010-03-12, 00:12:19
Ich verstehe immer noch nicht, bezüglich der HD5850, das keiner auf die Idee gekommen ist, das die Yield bei AMD/ATi so gut ist das momentan mehr 5870 taugliche Chips abfallen als für die 5850.

Die werden wohl kaum bei dem recht teuerem Silizium absichtlich teile kaputmachen um die GraKa dann als 5850 verkaufen zu können.

LadyWhirlwind
2010-03-12, 00:21:47
Ich verstehe immer noch nicht, bezüglich der HD5850, das keiner auf die Idee gekommen ist, das die Yield bei AMD/ATi so gut ist das momentan mehr 5870 taugliche Chips abfallen als für die 5850.

Die werden wohl kaum bei dem recht teuerem Silizium absichtlich teile kaputmachen um die GraKa dann als 5850 verkaufen zu können.

nicht solange sie erwarten die 5870er zu verkaufen. Sprich solange die nicht wirklich gute Verfügbarkeit hat, werden die das nicht tun.

DavChrFen
2010-03-12, 00:42:41
Also auf der einen Seite sollen es nur 5000 Karten für Fermi sein, auf der anderen Seite hat NV angeblich 80% der TSMC-Kapazität für sich. Das passt doch nicht zusammen. So viele Low-End GPUs kann man doch gar nicht absetzen, damit da keine 40nm-Kapazität mehr für Fermi übrig bleibt.

IMHO kommt am Ende doch alles anders als viele hier denken.

mapel110
2010-03-12, 01:29:36
http://www.nordichardware.com/en/component/content/article/71-graphics/363-zotac-planning-geforce-gtx-480-amp-version.html
Zotac plant übertaktete Karten der GTX480. Da frag ich mich wie das gehen soll, wenn schon die 480er selbst mies verfügbar sein wird.

y33H@
2010-03-12, 01:30:11
Was hat die Verfügbarkeit mit OC zu tun?

mapel110
2010-03-12, 01:32:08
Was hat die Verfügbarkeit mit OC zu tun?
Tut man sich einen Gefallen damit, ein weiteres Vapoware-Produkt im Portfolio zu haben?!

Nightspider
2010-03-12, 01:39:44
Und irgendwann hat das ganze Tohuwabohu endlich ein Ende. Dieses Spekulieren tut ja schon in den Augen weh.

Wieso? Der GT500 wird auch noch kommen. :D

y33H@
2010-03-12, 01:54:56
Tut man sich einen Gefallen damit, ein weiteres Vapoware-Produkt im Portfolio zu haben?Es ist PR genug, auf dem Papier OC-Karten oder die schnellste GTX480 anzukündigen.

mapel110
2010-03-12, 07:23:23
http://media.bestofmicro.com/palit-geforce-fermi-gf100-470-480,Z-R-241047-13.jpg

http://media.bestofmicro.com/palit-geforce-fermi-gf100-470-480,Z-Q-241046-13.jpg

http://www.tomshardware.com/news/palit-nvidia-geforce-fermi-gf100,9860.html

Wer sind nun eigentlich die 4 Launchparnter? Palit, Galaxy, Zotac und EVGA?

Ailuros
2010-03-12, 07:44:36
Ok....64 TMUs@1/2 hot clock zu 100% sicher und nein nichts mit TF@hot clock.

Sascha1971
2010-03-12, 08:18:26
Ich bin mal gespannt auf die ersten Leute, die 4x480er im Slibetrieb haben.
Was für Netzteile die brauchen.

Ailuros
2010-03-12, 08:27:01
Ich verstehe immer noch nicht, bezüglich der HD5850, das keiner auf die Idee gekommen ist, das die Yield bei AMD/ATi so gut ist das momentan mehr 5870 taugliche Chips abfallen als für die 5850.

Die werden wohl kaum bei dem recht teuerem Silizium absichtlich teile kaputmachen um die GraKa dann als 5850 verkaufen zu können.

Nur hapert Deine These fundamental an der Tatsache dass Cypress chips auch 5830 (14 cluster) SKUs ausstatten.

Ich verstehe immer noch nicht, bezueglich der HD5850 & HD5830, dass keiner auf die Idee gekommen ist dass die 20 cluster@850MHz chips nach wie vor das kleinste Prozentual der operativen chips darstellen. :D