PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gipsel
2009-10-10, 15:21:40
Irgend eine (zugegeben gewagte) Spekulation zum Thema "ichhabkeineffTesselationsEinheit"? Es ist ja nicht so dass wir Dich zu Verantwortung tragen werden, falls Du etwas falsch eingeschaetzt haben solltest.
Na was soll man da spekulieren? Natürlich ist es möglich, dafür praktisch einen Shader dazwischenzuschieben und den Tesselator in Software zu ersetzen. Habe aber keine Ahnung, wie schnell das wäre, könnte mir allerdings vorstellen, daß es für Fermi jetzt nicht so viel Performance kostet (außerhalb von Tech-Demos).

Coda
2009-10-10, 16:33:07
Ich bin mal gespannt wie sie das machen wollen, denn eigentlich erlaubt ja nur der Geometry-Shader überhaupt Dreiecke hinzuzufügen - und wird dabei sehr langsam wenn es viele werden.

Der Vertex-Shader könnte dann auch nur noch die Domain-Shader-Operationen machen, denn danach folgt sofort die Dreiecks-Amplifikation durch den Tesselator.

Nein, ich denke dass sie da einen Compute-Shader vor den Vertex-Shader setzen. Da müsste man den Thread-Scheduler aber zumindest etwas dafür aufmotzen.

Slipknot79
2009-10-10, 17:08:31
Ist Tesselation nur mit ATI Karten möglich? Oder ist das 100% DX11 und damit auch auf NV-GPUs rechenbar?

reunion
2009-10-10, 17:12:24
Das wird von DX11 gefordert und muss deshalb von allen DX11 Karten gesupportet werden. Die Frage ist höchstens wie schnell das bei NV läuft wenn sie das Ding nur in Software anbieten.

Dural
2009-10-10, 19:03:46
Wie so geht eignetlich alles davon aus das die Tesselation nicht in Hardware vorhanden ist? Über TMUs und ROPs wurde ja auch nichts gesagt da es halt immer noch nur eine Tesla Chip Vorstellung war... wie so sollte man dann ausgerechnet etwas über Tesselation sagen!?!

StefanV
2009-10-10, 19:54:28
Deshalb warte ich auch auf Nvidia. Da laufen die Spiele einfach von Beginn an runder. Das einzige was mich bei Ati halten könnte, wäre ein entsprechend besseres Preis/Leistungsverhältnis.
Richtig, dafür bleiben Overlays stehen, Lüfter regeln nicht runter und man geht mal vom vollen Takt runter, ist wesentlich besser...

Sisaya
2009-10-10, 21:12:54
Wenn Tessalation auf nvidia Karten eventuell langsam laufen würde, wäre es dann für Entwickler überhaupt interessant Tessalation einzusetzen?

Black-Scorpion
2009-10-10, 22:01:17
Wenn Tessalation auf nvidia Karten eventuell langsam laufen würde, wäre es dann für Entwickler überhaupt interessant Tessalation einzusetzen?
Warum sollten sie darauf Rücksicht nehmen?
Pech gehabt wenn sie es vorziehen lieber eine GPU zu bauen die Passwörter in der halben Zeit knacken kann als das einzubauen.
Aber mit genügend Kohle werden sich genug Entwickler finden die denen den Arsch küssen.

Gast
2009-10-10, 22:08:30
Warum sollten sie darauf Rücksicht nehmen?
Entwickler richten sich immer an die Hardware der Kunden. So läuft das ob du glaubst oder nicht.

Selbst Nvidia hat keine geheime Gelddruckmaschine, um alle Welt zu bestechen, so wie du es annimmst.
So etwas würde ich bei AMD erwarten, die trotz roter Zahlen nicht dran denken ION Konkurrenz zu machen oder die eigenen Grafikkarten teurer zu verkaufen.

Im Übrigen halte ich es Schwachsinn, das Tessalation nennenswert langsamer laufen soll. Das ist reine Spekulation.

tombman
2009-10-10, 22:45:32
Selbst wenn Fermi irgendwo langsamer laufen sollte- TWIMTBP wirds schon richten ;D

Gast
2009-10-11, 01:00:31
Selbst wenn Fermi irgendwo langsamer laufen sollte- TWIMTBP wirds schon richten ;D
Tja nur ist Amd diesmall vorne wasentwicklerstusios angeht die schon mit Dx 11 hantieren.Bei den neuen Stalker teil leuchtet auch ein Ati logo auf.Das hat mich schon gewundert.Das ist das erste mall das ich sowas sehe nach °will rock°.^^

=Floi=
2009-10-11, 01:17:32
das ist egal. die schnellere karte gewinnt. auch TWIMTBP games liefen in der vergangenheit teilweise besser auf der architektur von ati.

ich bin echt gespannt, wie gut der GT300 wirklich werden wird. wenn die ROPs überarbeitet worden sind, dann könnten auch diese 48 stück erheblich mehr leistung mobilisieren.

Gast
2009-10-11, 01:19:28
das ist egal. die schnellere karte gewinnt. auch TWIMTBP games liefen in der vergangenheit teilweise besser auf der architektur von ati.

Dafür mit LowDetail Schatten. :D

Gast
2009-10-11, 01:23:14
http://www.nvidia.com/content/PDF/fermi_white_papers/T.Halfhill_Looking_Beyond_Graphics.pdf

NVIDIA has already received the first sample silicon of a GPU based on the Fermi architecture. If the
project proceeds on schedule, the first Fermi GPUs could hit the market this year.

Sorkalm
2009-10-11, 01:33:19
could klingt aber alles andere als selbstüberzeugt...

Coda
2009-10-11, 01:45:59
Es kommt wohl darauf an ob A2 läuft oder nicht. Da kann man auch Pech haben, deshalb "could".

Ailuros
2009-10-11, 07:40:03
Das wird von DX11 gefordert und muss deshalb von allen DX11 Karten gesupportet werden. Die Frage ist höchstens wie schnell das bei NV läuft wenn sie das Ding nur in Software anbieten.

Es geht nirgends darum ob es in sw geloest wird, sondern wo und wieviel fixed function vs. programmable hw genutzt wird. Natuerlich kann Dir keiner sagen momentan was schneller bzw. effizienter ist, aber man sollte trotz allem im Hinterkopf behalten dass Implementierung zu Implementierung ziemlich grosse Unterschiede haben kann selbst wenn man eine fixed function Einheit mit einer anderen fixed function Einheit vergleicht.

Ailuros
2009-10-11, 08:36:37
http://www.nvidia.com/content/PDF/fermi_white_papers/T.Halfhill_Looking_Beyond_Graphics.pdf

NVIDIA has already received the first sample silicon of a GPU based on the Fermi architecture. If the
project proceeds on schedule, the first Fermi GPUs could hit the market this year.

Although Fermi has additional new features exclusively for graphics, they are not the subject of this
paper.

Verdammte teasers.... :mad:

Gast
2009-10-11, 09:13:52
"Although Fermi has additional new features exclusively for graphics, they are not the subject of this
paper" : Was könnte das sein ? Hier wird ja wohl dann vom Geforce-Ableger gesprochen, der dann auf Fermi basiert.

Gast
2009-10-11, 09:23:48
TWIMTBP wirds schon richten ;D
TWIMTBP ist in erster Linie Werbung.
Das Nvidia Entwickler entsendet ist eine andere Sache, eine Sache die dem Kunden im Endeffekt nützt.

=Floi=
2009-10-11, 14:27:51
ohne TWIMTBP wäre aber crysis sicherlich nicht das was es heute ist. Das will ich schon mal mit fug und recht behaupten und zumindest zum launch passen die treiber bei nv.

tombman
2009-10-11, 14:33:17
Im .pdf macht mir eher die Passage Angst, wo die Größe des Pro-Marktes mit der des Consumer-Marktes verglichen wird (ca 1/2)- schaut für mich so aus, als ob NV nur darauf wartet, sich endlich aus dem Con.-Markt verpissen zu können- so à la Matrox :mad:
Mit Fermi wirds vermutlich noch nicht soweit sein, aber wenn der einschlägt, garantiere ich für nix mehr...
Whereas the PC
market is maturing, GPU computing barely existed four years ago and is growing fast.

Fermi’s only vulnerability may be its attempt to combine world-class graphics performance with generalpurpose
compute performance in one chip. With three billion transistors, a Fermi GPU will be more than
twice as complex as NVIDIA’s existing GT200 chips. At some point, if not now, features intended to
boost compute performance may compromise the chip’s competitive position as an affordable graphics
processor. At that juncture, the architectures may have to diverge — especially if the professional
market grows larger than the consumer market
Hört sich ungut an...

mapel110
2009-10-11, 14:45:08
Hört sich eher so an, als ob sie getrennte Entwicklungen voran treiben wollen, falls Fermi einschlägt. Allerdings kann man doch so was nicht kurzfristig planen. Dauert doch 4 Jahre, wenn man sich "urplötzlich" für getrennte Chips entscheidet. Kann mir eher vorstellen, dass sie sich bereits dafür entschlossen haben.

Gast
2009-10-11, 15:09:03
Ich möchte bei der ganzen Tesselationeinheit in Hardware Diskussion mal einstreuen, daß man sich vor dem Launch von G80 auch sicher war, daß der Chip kein D3D10 in Hardware unterstützt. Kann mich noch mit schmunzeln an die Ati Folien erinnern, in denen sie mit D3D10 done right rumposaunten.

LovesuckZ
2009-10-11, 15:10:49
Ich möchte bei der ganzen Tesselationeinheit in Hardware Diskussion mal einstreuen, daß man sich vor dem Launch von G80 auch sicher war, daß der Chip kein D3D10 in Hardware unterstützt. Kann mich noch mit schmunzeln an die Ati Folien erinnern, in denen sie mit D3D10 done right rumposaunten.

Nein - Unified Shader. An D3D10 hat niemand gezweifelt.

=Floi=
2009-10-11, 15:22:09
getrennte wege wären sicherlich eine gute möglichkeit für nv.

Ailuros
2009-10-11, 15:53:37
Hört sich eher so an, als ob sie getrennte Entwicklungen voran treiben wollen, falls Fermi einschlägt. Allerdings kann man doch so was nicht kurzfristig planen. Dauert doch 4 Jahre, wenn man sich "urplötzlich" für getrennte Chips entscheidet. Kann mir eher vorstellen, dass sie sich bereits dafür entschlossen haben.

Dafuer muesste aber der Umsatz fuer HPC so enorm steigen dass man die dedizierte R&D Kosten fuer diesen Markt auch gewinnreich decken koennte. Das koennte noch viel mehr als nur 4 Jahre dauern.

tombman
2009-10-11, 16:02:49
getrennte wege wären sicherlich eine gute möglichkeit für nv.
Und was wäre es für uns? Die tollen Chips gibts dann nur mehr bei Quadro/Tesla und der Abfall, der mit AMD mithalten kann, dann für uns, oder wie?

Ailuros
2009-10-11, 16:06:38
Und was wäre es für uns? Die tollen Chips gibts dann nur mehr bei Quadro/Tesla und der Abfall, der mit AMD mithalten kann, dann für uns, oder wie?

Muss nicht sein. Wenn sie es mit GF100 so gemacht haetten, haettest Du wohl wieder einen 512SP chip sowohl fuer desktop als auch fuer HPC. Nur haette der desktop/3D chip eben nicht all den nutzlosen Balast den Du fuer 3D nicht gebrauchen kannst.

Slipknot79
2009-10-11, 16:08:51
Im .pdf macht mir eher die Passage Angst, wo die Größe des Pro-Marktes mit der des Consumer-Marktes verglichen wird (ca 1/2)- schaut für mich so aus, als ob NV nur darauf wartet, sich endlich aus dem Con.-Markt verpissen zu können- so à la Matrox :mad:
Mit Fermi wirds vermutlich noch nicht soweit sein, aber wenn der einschlägt, garantiere ich für nix mehr...


Hört sich ungut an...


Du kannst dann immer noch zu ATI greifen :(. Vorallem wenn sie Mods für ihre Treiber erlauben. Dann gibts nen NV-Control Panel Skin für den ATI Treiber und nHancer für ATIs Grakas :)

=Floi=
2009-10-11, 16:36:44
ich sehe es so wie ailuros. weniger (DP) power für GPGPU. (sollte trotzdem noch ausreichen) und dafür wieder kompromisslose spieleperformance. Der GT200b wäre dann wohl mit 800/2000 in der GTX285 gekommen.
Es wird wohl anders nicht mehr gehen und umgekehrt schleppt tesla auch unnötigen ballast mit sich umher. (stromverbrauch!, perf/mm²) Der jetzige weg ist sicherlich der komfortabelste und einfachste, aber nicht der effizienteste und günstigste. Nebenbei haut ATI mit ihrem design extrem auf den putz, weil die mit weniger fläche viel mehr flops rausholen. anders wird man hier ati nicht mehr ein- und überholen können! Sobald (OCL und CS) man diese auch wirklich gut nutzen kann werden die nv die rücklichter zeigen. (Die HD5870 stemmt 2,7gflop!)

AnarchX
2009-10-11, 16:37:32
Muss nicht sein. Wenn sie es mit GF100 so gemacht haetten, haettest Du wohl wieder einen 512SP chip sowohl fuer desktop als auch fuer HPC. Nur haette der desktop/3D chip eben nicht all den nutzlosen Balast den Du fuer 3D nicht gebrauchen kannst.
Die Höhe des "nutzlosen Balast" sollte man wohl nicht überschätzen, sodass NV die Tape-Outs zweier >400mm² Dies finanzieren müsste.
Wenn NV langfristig großen Erfolg im HPC-Markt hat, wäre es wohl vorstellbar, dass man hier einen HPC-Die mit höherer ALU-Leistung und Caches bringt. Aber momentan erlaubt es die Situation wohl eher noch nicht.

Ailuros
2009-10-11, 16:42:52
Die Höhe des "nutzlosen Balast" sollte man wohl nicht überschätzen, sodass NV die Tape-Outs zweier >400mm² Dies finanzieren müsste.
Wenn NV langfristig großen Erfolg im HPC-Markt hat, wäre es wohl vorstellbar, dass man hier einen HPC-Die mit höherer ALU-Leistung und Caches bringt. Aber momentan erlaubt es die Situation wohl eher noch nicht.

Eben.

Gast
2009-10-11, 16:57:21
Dafuer muesste aber der Umsatz fuer HPC so enorm steigen dass man die dedizierte R&D Kosten fuer diesen Markt auch gewinnreich decken koennte.

Steigen R&D-Kosten dadurch wirklich so unermesslich?

Ich glaube wohl kaum, es wird ja trotzdem das selbe "Grundmodell" in verschiedenen Konfigurationen sein.

Auch heute werden ja sagen wir mal 4 verschiedene Grafikchips die auf dem selben Modell basieren für die verschiedenen Marktsegmente aufgelegt.
Ich glauben kaum dass sich die R&D-Kosten so stark erhöhen würden, wenn man nun einen 5. hinzufügt.

Ailuros
2009-10-11, 20:00:56
Steigen R&D-Kosten dadurch wirklich so unermesslich?

Wenn die Unterschiede zwischen den zwei hypothetischen chips wirklich tiefgreifend waeren wohl ja. Ich kann mir vorstellen dass schon ein chip wo die cores nur ueber single precision faehig sind und einen chip wo die cores ueber single & double precision faehig sind schon genug umstaendlich waere. Die ziemlich uebrige Liste ist ja noch ziemlich lang. ECC z.B. wird's wohl auf allen grossen chips geben, wobei es dann im desktop Markt einfach deaktiviert sein wird.

Ich glaube wohl kaum, es wird ja trotzdem das selbe "Grundmodell" in verschiedenen Konfigurationen sein.

So in etwas wird es ja auch sein; aber das bedeutet auch keine zweischienige Entwicklung.

Auch heute werden ja sagen wir mal 4 verschiedene Grafikchips die auf dem selben Modell basieren für die verschiedenen Marktsegmente aufgelegt.
Ich glauben kaum dass sich die R&D-Kosten so stark erhöhen würden, wenn man nun einen 5. hinzufügt.

Profi Maerkte haben nicht nur eine Variante. Es wird hier genauso von budget zu high end Varianten skaliert. Sie haben Tesla als server GPUs und Quadros fuer workstation und Quadros fuer schlepptop workstations.

Coda
2009-10-11, 22:04:24
Die HD5870 stemmt 2,7gflop!
FLOPS sind nur leider nicht alles. Die NVIDIA-Einheiten sind weitaus effizienter, und die Auslastung wird bei Fermi noch besser werden.

Ich glaube kaum, dass da in der Praxis ein großer Unterschied festzustellen sein wird. 512 ALUs bei fast doppeltem Takt gegenüber 960-1280 bei mittlerer Auslastung sehen für mich sehr ausgewogen aus. Dazu spielt auch nicht nur die Rechenleistung eine Rolle in diesen Dingen.

Gast
2009-10-11, 23:09:20
Nachdem 5870 eindeutig eine geringere SP Auslastung als die Vorgänger aufweißt kann die Marketing FLOP Zahl noch weniger ernst genommen werden.

HarryHirsch
2009-10-11, 23:40:56
FLOPS sind nur leider nicht alles. Die NVIDIA-Einheiten sind weitaus effizienter, und die Auslastung wird bei Fermi noch besser werden.

sicher das es immer noch so ist?

Ich glaube kaum, dass da in der Praxis ein großer Unterschied festzustellen sein wird. 512 ALUs bei fast doppeltem Takt gegenüber 960-1280 bei mittlerer Auslastung sehen für mich sehr ausgewogen aus. Dazu spielt auch nicht nur die Rechenleistung eine Rolle in diesen Dingen.

ich wüsste gern woher du dein wissen nimmst. sicher sind die nvidia aktuell bei den nutzbaren flops überlegen aber wer sagt dir das es so bleibt?

tombman
2009-10-11, 23:57:50
Fermi is effizienter als GT200 etc... wurde ja auch drauf ausgelegt- whitepaper lesen :)

HarryHirsch
2009-10-12, 00:02:33
wenn ich nen scheiss flyer lesen will dann tu ich das nur ob da auch der spass drin ist der drauf steht

HarryHirsch
2009-10-12, 00:09:52
oder ist dieses "whitepaper" nur für die dev`s gedacht?
ich denk ma nich...

tombman
2009-10-12, 00:14:17
Ich habs als noob gut lesen können, und Fermi nähert sich echt einer Cpu :)

HarryHirsch
2009-10-12, 00:22:23
wozu sollte man sich denn noch eine einbauen?
ich hab mein 3d gern in hardware, is ja gut so.
naja mal gucken was daraus wird.

Coda
2009-10-12, 00:36:39
sicher das es immer noch so ist?
Ja. Bei der HD5000 hat sich da nichts gegenüber HD4000 getan.

HarryHirsch
2009-10-12, 00:39:39
Ja. Bei der HD5000 hat sich da nichts gegenüber HD4000 getan.

dann hab ich die beiträge von gibsel "oder so" falsch verstanden
sorry

S940
2009-10-12, 00:48:29
Ja. Bei der HD5000 hat sich da nichts gegenüber HD4000 getan.Hmm, wie siehts mit den größeren Caches Data Stores aus. Die könnten doch ein bisschen was bringen, oder nicht ?

Aber ok,viel wirds nicht sein.

ciao

Alex

Coda
2009-10-12, 01:19:59
dann hab ich die beiträge von gibsel "oder so" falsch verstanden
Es hat sich *ein wenig* was getan, was prinzipiell die Auslastung etwas erhöhen sollte, aber dafür müssen die ALUs jetzt die Vertex-Daten-Interpolation zusätzlich stemmen.

Ich versuche es nur etwas vereinfacht darzustellen.

HarryHirsch
2009-10-12, 01:35:44
del

Byteschlumpf
2009-10-12, 01:51:31
Lohnt es sich noch, eine GTX260 SP216 zu kaufen oder sollte man doch besser auf den Fermi-Nachfolger warten? ^^

mictasm
2009-10-12, 02:18:18
In der Preisklasse und dem Leistungsanspruch sollte man mMn nicht auf Fermi warten. Der große (oder normale) 3D-Fermi spielt wohl in einer anderen Leistungs- und Preisregion, bis es abgespeckte Versionen gibt, kann noch einiges an Zeit vergehen. Da fährt man u.U. mit einer der neuen ATIs besser. Wenn man denn eine ATI seinem System zumuten mag. *scherz*

Nightspider
2009-10-12, 02:20:01
Lohnt es sich noch, eine GTX260 SP216 zu kaufen oder sollte man doch besser auf den Fermi-Nachfolger warten? ^^

Kommt drauf an wie oft du Hardware aufrüstest. Ich würde auf jeden Fall warten bis die Fermi Karten vorgestellt werden. Dadurch könnten a) die Preise sinken und b) hast du einen besseren Überblick wann Nvidia die Mainstream ableger herausbringen will.

Gast
2009-10-12, 02:21:11
Warum nicht, für das meiste Zeug ist ne 260-16 auf nem 22" TFT immer noch mehr als ausreichend.

Und in einem Jahr kann man dann ja nochmal schauen.

Man kann natürlich auch eine von den neuen ATI kaufen. Wenn man denn wirklich will.

Ailuros
2009-10-12, 06:42:25
Jemand sollte aufruesten wenn er fuehlt dass er eine Aufruestung braucht. Wenn man anfaengt zu warten, kann man ewig warten auf den angeblichen heiligen Gral der GPUs.

Die GPUs der Evergreen Familie haben ein ausgezeichnetes Preis-/Leistungsverhaeltnis und eine high end GPU wie GF100 liegt wohl naeher an der noch nicht erhaeltlichen 5870X2/Hemlock. Andere Kategorie, hoeherer Preis.

Coda
2009-10-12, 06:49:58
Seh ich auch so, hab ich weiter oben ja auch schon geschrieben.

=Floi=
2009-10-12, 06:50:29
nur macht es jetzt absolut keinen sinn mehr das alte zeug zu kaufen, wenn demnächst die neue generation (!) kommt. siehe G71 zu G80.
man sollte schon abwägen, was man will und braucht und dann erst entscheiden.

Ailuros
2009-10-12, 07:07:41
nur macht es jetzt absolut keinen sinn mehr das alte zeug zu kaufen, wenn demnächst die neue generation (!) kommt. siehe G71 zu G80.
man sollte schon abwägen, was man will und braucht und dann erst entscheiden.

Evergreen gehoert zur naechsten Generation und sie sind heute erhaeltlich. Ich sehe nicht ein warum jemand der heute eine 5870 kaufen wuerde es spaeter bereuen wuerde. Bis zum Zeitpunkt wo NVIDIA ihre eigenen Performance GF10x GPUs veroeffentlichen wird liegt dann irgendwo auch der Refresh des RV870 seitens AMD vor. Der GPU Market bewegt sich eben mal so schnell dass sobald man etwas kauft kommt schon etwas besseres in kurzer Zeit danach um die Ecke oder die existierenden GPUs werden um einiges billiger.

reunion
2009-10-12, 08:17:38
FLOPS sind nur leider nicht alles. Die NVIDIA-Einheiten sind weitaus effizienter, und die Auslastung wird bei Fermi noch besser werden.


Wenn man Auslastung mit Effizienz gleichsetzt, das ist aber nicht wirklich die korrekte Definition.


Ich glaube kaum, dass da in der Praxis ein großer Unterschied festzustellen sein wird. 512 ALUs bei fast doppeltem Takt gegenüber 960-1280 bei mittlerer Auslastung sehen für mich sehr ausgewogen aus. Dazu spielt auch nicht nur die Rechenleistung eine Rolle in diesen Dingen.

Warum 960-1280? Ein RV870 hat 1600. Fermi dürfte es auch in der Praxis schwer fallen die 2.72TFLOPs eines RV870 mit wohl ca. 1.7TFLOPs zu erreichen.

Ich habs als noob gut lesen können, und Fermi nähert sich echt einer Cpu :)

Ist ja schön das hier gehypt wird das sich Fermi einer CPU nähern würde, aber der Unterschied zu RV870 ist durchaus überschaubar.

Gast
2009-10-12, 08:33:13
Ja. Bei der HD5000 hat sich da nichts gegenüber HD4000 getan.
Bei GPGPU-Anwendungen seh ich keinen großen Unterschied zwischen Nvidia und ATi, bei Spielen limitiert sowieso die Texturierungsleistung auf HD4, da kann kein hohe Auslastung zu Stande kommen.

Ailuros
2009-10-12, 08:49:48
Warum 960-1280? Ein RV870 hat 1600. Fermi dürfte es auch in der Praxis schwer fallen die 2.72TFLOPs eines RV870 mit wohl ca. 1.7TFLOPs zu erreichen.

So lange es nicht FLOP=FLOP ist, ist jeglicher solcher Vergleich fuer die Muelltonne. Wenn NV wirklich die 1.7TFLOPs auf GF100 erreicht dann wird die GPU insgesamt irgendwo zwischen einer 5870 und einer 5870X2 in 3D Leistung liegen.

Ist ja schön das hier gehypt wird das sich Fermi einer CPU nähern würde, aber der Unterschied zu RV870 ist durchaus überschaubar.

Inwiefern soll sich Fermi einer CPU naehern ueberhaupt? Kann sie eine CPU in einem System eventuell ersetzen? Nein. Kann sie genauso effizient sein wie eine CPU mit weniger als einer handvoll Aufgaben? Nein.

Solche Aussagen gehoeren in die gleiche Muelltonne wie manche aehnliche feuchte Traeume die Larabee betreffen. Natuerlich dauert es noch ein paar Jahre bis manche das Konzept von heterogenem computing schnallen, aber man kann solche Uebertreibungen beruhigt links liegen lassen.

tombman
2009-10-12, 09:39:20
Ich glaube, manche verwechseln "sich nähern" mit "nahe sein"...

Ailuros
2009-10-12, 09:55:47
Ich glaube, manche verwechseln "sich nähern" mit "nahe sein"...

Eine GPU setzt man vereinfacht fuer GPGPU oder heterogenes computing genau dort ein genau dort wo eine CPU schach ist, anders bei hoeherer Parallelisierung von Daten.

Die Stellen wo Fermi stark zulegt im Vergleich zu GT200 haben als eigentliches Ziel ihren Vorsprung im HPC Markt zu behalten und den Durchbruch eines zukuenftlichen Larabee (welches zufaelligerweise auch eine GPU ist) so gut wie moeglich zu erschweren.

Wenn es um double precision geht war selbst GT200 besser ausgeruestet als die heutigen CPUs.

Limit
2009-10-12, 11:31:48
Fermi ist immer noch sehr sehr weit weg von CPUs. Außer für einfachen und gut vektorisierbaren Code kann man Fermi kaum gebrauchen. Daran hat sich nichts geändert. Die Veränderungen, die bei Fermi im Vergleich zum Vorgänger vorgenommen wurden beseitigen zwar einige Schwachstellen, ändern aber nichts daran, dass die GPU Architektur einfach nicht für komplexeren Code geschaffen ist. Der Hauptkonkurrent ist also weiterhin AMD/ATI und nicht Intel oder IBM. Ich denke GPGPU Computing ist nur für einen kleinen Teil des Spektrum von HPC Aufgaben interessant. Nämlich den, in dem auch heute schon öfters mal Vektorrechner eingesetzt werden.

Für den "HPC Mainstream" sollten Larrabee und die CPU/GPU-Hybride wesentlich interessanter sein, denn diese sind bei weitem nicht so auf "reinen" Code angewiesen wie die GPU-Lösungen. IBMs Cell CPU würde ich übrigens auch in diesen Bereich einsortieren.

igg
2009-10-12, 11:39:47
Heute kommen wohl die GT200 GPUs @ 40 nm: http://www.fudzilla.com/content/view/15912/34/
In einer NV Folie heißt es: "higher frequency at lower power consumption (http://www.pcper.com/article.php?aid=794&type=expert&pid=1)"

Dachte, das wäre kein typischer 40 nm Vorteil? Auch dachte ich, dass gerade beim Fermi Nvidia daran zu knabbern hat, nicht die ursprünglich anvisierten Taktraten zu erreichen.

Ailuros
2009-10-12, 11:50:29
Heute kommen wohl die GT200 GPUs @ 40 nm: http://www.fudzilla.com/content/view/15912/34/
In einer NV Folie heißt es: "higher frequency at lower power consumption (http://www.pcper.com/article.php?aid=794&type=expert&pid=1)"

Dachte, das wäre kein typischer 40 nm Vorteil? Auch dachte ich, dass gerade beim Fermi Nvidia daran zu knabbern hat, nicht die ursprünglich anvisierten Taktraten zu erreichen.

GT21x und nicht GT200 und es gibt einen bombastischen Unterschied was Chipkomplexitaet betrifft zwischen GT21x und GF100. Wuerde es eine GT212 ergo D11P geben koennte man sie eventuell gegen eine GF102 ergo D12P (beide unter 40nm) vergleichen.

sklave_gottes
2009-10-12, 11:57:54
Heute kommen wohl die GT200 GPUs @ 40 nm: http://www.fudzilla.com/content/view/15912/34/
In einer NV Folie heißt es: "higher frequency at lower power consumption (http://www.pcper.com/article.php?aid=794&type=expert&pid=1)"

Dachte, das wäre kein typischer 40 nm Vorteil? Auch dachte ich, dass gerade beim Fermi Nvidia daran zu knabbern hat, nicht die ursprünglich anvisierten Taktraten zu erreichen.

Was für ein 40nm taktvorteil siehst du denn hier ? Beide GPU´s erreichen weder die Taktraten einer 9600gt noch diese einer 8600gts.
Auf diesen GPU´s kann man die Vorteile von 40nm gans sicher nicht sehen.

Das will auch niemand damit erreichen. Diese gpu´s sind in erster line oem.
Und hier zählen fast "nur" features, ausstatung und bilige produktion!

mfg martin


ach, nur mal so am rande, die Leistung pro Watt scheint auch nicht höher wie bei der 9600gt zu sein, laut dem ersten test.....

Aquaschaf
2009-10-12, 12:48:01
Für den "HPC Mainstream" sollten Larrabee und die CPU/GPU-Hybride wesentlich interessanter sein, denn diese sind bei weitem nicht so auf "reinen" Code angewiesen wie die GPU-Lösungen.[...]

Nein, das denke ich nicht. Larrabee ist für ordentlichen Durchsatz auch auf SIMD-Code angewiesen.

svenw
2009-10-12, 13:15:55
Die Frage ist doch ob sich ein solch komplexer Chip wie der Larrabee nur für HPC lohnt. Intel kann es sich leisten keine Frage, aber ob es lohnt? Bei den Graka Hersteller fällt dieser Bereich sozusagen als Abfallprodukt mit ab der mit relativ wenig Aufwand mit beackert werden kann, während die Chips im Graka Markt ihr Geld verdienen. Eine Graka ist mehr oder weniger per Definitionem auf massiv parrallele Berechnungen ausgelegt. Ich halte auch nicht viel von Nvidias Idee, das CPUs unwichtiger werden, denn mit der jetzigen Einteilung macht jeder das was er am Besten kann. Die CPU macht alles was komplex ist und die Graka was relativ simpel aber massiv parrallel ist. Gegner KI in Grakas zu realisieren dürfte zumindestens interessant werden.

Gast
2009-10-12, 14:11:04
Gegner KI in Grakas zu realisieren dürfte zumindestens interessant werden.

KI wird meistens über eine Art State-Machine realisiert, das bedeutet sehr viele Sprünge und damit überhaupt nicht gut für GPUs geeignet.

Gast
2009-10-12, 14:22:44
Von KI in Computerspielen habe ich wenig Ahnung, aber Zustandsautomaten scheinen etwas stumpf. In Robotern wird bspw. in vielen Fällen am besten mit "parallel, loosely coupled processes" gearbeitet. Da also wenig Interprozess-Kommunikation nötig ist und u.U. auf vielen NPCs gleichzeitig gleichartige Abläufe stattfinden, ist eine Graka vielleicht nicht soo suboptimal.

RLZ
2009-10-12, 14:23:17
KI wird meistens über eine Art State-Machine realisiert, das bedeutet sehr viele Sprünge und damit überhaupt nicht gut für GPUs geeignet.
Wenn die Statemachine Performanceprobleme verursacht, läuft eh was schief.

igg
2009-10-12, 18:37:52
Entweder der Fermi kommt bald oder einige Nvidia-Partner (und somit auch Nvidia) haben ein Problem:
Several Nvidia partners have confirmed that they had to decide to cancel GTX 285 and GTX 275 based products, as availability was simply disastrous.

We still don’t now if this is Nvidia's strategy to keep the market hungry for Fermi or they simply didn't order enough wafers, but availability of GTX260, GTX275 and GTX285 was so bad that many decided to drop these products and wait for Fermi.
http://www.fudzilla.com/content/view/15919/34/

Gast
2009-10-12, 18:56:42
Irgendwie schon blöd...

ATI könnte profitieren, kann es aber doch nicht so richtig weil ihre neuen Karten nur marginal verfügbar sind...

nV könnte trotzdem noch massig GT200 (*) verkaufen, kann es aber auch nicht weil sie nicht genug Chips liefern können...

Blöd für beide Seiten.



(*) Allein der Name nV würde schon für genug Absatz sorgen, die paar Prozent die so informiert sind wie die User hier im Forum zählen wenig.

Gast
2009-10-12, 19:04:48
Einstweilen kommen die Partner bestimmt auch mit dem Mainstream- und LowEnd-Segment aus. Ich hab da nur so im Kopf dass sich zB GTS 250 und 9500GT sehr gut verkaufen... aber auf Dauer ist das natürlich nicht gut.

Gast
2009-10-12, 21:12:05
Irgendwie schon blöd...

ATI könnte profitieren, kann es aber doch nicht so richtig weil ihre neuen Karten nur marginal verfügbar sind...

nV könnte trotzdem noch massig GT200 (*) verkaufen, kann es aber auch nicht weil sie nicht genug Chips liefern können...

Blöd für beide Seiten.


wieviel wahnsinniege hier ihr unwesen treiber ist ein "wahnsinn" im wahrsten sinne des wortes.

ich denke für amd ist es nicht ansatzweise so "blöd" wenn man einen micrometer weiter denkt: die verfügbarkeit der DX11 karten von amd steigt von tag zu tag... die verfügbarkeit der alten dx10 karten von nvidia sinkt von tag zu tag. abgesehen davon, dass nvidia noch lange nicht so weit ist überhaupt dx11 karten zu liefern.

also für wen isses jetzt blöd bzw. wer ist hier der blöde?

Black-Scorpion
2009-10-12, 21:17:44
Die Karten sind verfügbar und gehen zu einem Großteil an OEMs.
Und das ist für AMD wichtiger wie die im Verhältnis dazu geringen Zahl von Endkunden.

Tarkin
2009-10-12, 21:18:14
Entweder der Fermi kommt bald oder einige Nvidia-Partner (und somit auch Nvidia) haben ein Problem:

http://www.fudzilla.com/content/view/15919/34/

Was ich ja witzig finde ist, dass es Charlie vor ein paar Tagen schon geschrieben hatte... und die meisten haben seinen Ausführungen keinen Glauben geschenkt... oder noch besser - man hat nur EXTREM überheblich entgegnet "Na, der Idiot schon wieder... glaub dem eigentlich noch jemand?" und ein dummes Smiley hinzugefügt - das z.b. :freak:

Tja, nun wo es sich langsam als Wahrheit herausstellt (die Boardpartner müssen ganz schon angepisst sein - nach den Dementis von nVidia, dass die Karten ja nicht EOL sind) ... Stille im Wald.

Schon lustig irgendwie.

mictasm
2009-10-12, 21:26:59
Was ich ja witzig finde ist, dass es Charlie vor ein paar Tagen schon geschrieben hatte... und die meisten haben seinen Ausführungen keinen Glauben geschenkt... oder noch besser - man hat nur EXTREM überheblich entgegnet "Na, der Idiot schon wieder... glaub dem eigentlich noch jemand?" und ein dummes Smiley hinzugefügt - das z.b. :freak:

Tja, nun wo es sich langsam als Wahrheit herausstellt (die Boardpartner müssen ganz schon angepisst sein - nach den Dementis von nVidia, dass die Karten ja nicht EOL sind) ... Stille im Wald.

Schon lustig irgendwie.

Du glaubst zu 100% immer nur das, welches dir passt. Und schreibt einer ohne Angabe von Quellen etwas zur Bestätigung der Meinung, dann ist das natürlich ein Beleg für die Richtigkeit... :freak:

Dagegen bin ich ja noch objektiv.

Tarkin
2009-10-12, 21:54:48
Du glaubst zu 100% immer nur das, welches dir passt. Und schreibt einer ohne Angabe von Quellen etwas zur Bestätigung der Meinung, dann ist das natürlich ein Beleg für die Richtigkeit... :freak:

Dagegen bin ich ja noch objektiv.

ähm... nein, ich zähle nur 1+1 zusammen.

Wenn jetzt sogar Fudzilla davon schreibt (und die sind ja nicht gerade nvidia feindlich eingestellt), dann denke ich sehr wohl dass da was Wahres dran ist.

Boardpartner haben bestätigt, dass die Verfügbarkeit desaströs ist. Was heißt das? Schwierigkeiten bei der Fertigung? Wohl kaum. Es ist SEHR wahrschenlich, dass nvidia einfach keine Wafer mehr bestellt hat um einen Preiskampf zu entgehen.

Die Geizhals Listungen sprechen auch eine sehr deutliche Sprache.

Ich finde es erstaunlich wie man angesichts dieser Nachrichtenlage und der praktischen Nichtverfügbarkeit der Karten dies noch leugnen kann. Durch Schönreden wird die Lage nicht besser!

Aber wir werden ja sehen ob sich die Verfügbarkeit bis Weihnachten erholt. Mit Verlaub, ich bezweifle (falls das gestattet ist Kollege).

Menace
2009-10-12, 21:57:59
Du glaubst zu 100% immer nur das, welches dir passt. Und schreibt einer ohne Angabe von Quellen etwas zur Bestätigung der Meinung, dann ist das natürlich ein Beleg für die Richtigkeit... :freak:
Dagegen bin ich ja noch objektiv.

Ich kannte Charlie bisher nur von dieser Seite (3dcenter) und den gemachten Aussagen, die ich natürlich auch glaubte (Charlie ist gekauft, hat keine Ahnung, etc.). Ich muss leider sagen, dass im Vergleich zu vielen Aussagen hier, Charlie (den ich noch immer nicht kenne) den Kern der Sache besser getroffen hat, als die meisten (einschließlich meiner Einschätzung) hier; soviel Reflektion muss schon sein.

Manche hier sollten in Zukunft doch häufiger im Konjunktiv schreiben, als selbstsichere Behauptungen von sich geben, die sie selbst gar nicht überprüfen können. Aber auch hier gilt, wie in so viele Foren, "Was kümmert mich mein Geschwätz von gestern." :wink:

LovesuckZ
2009-10-12, 22:02:30
Was hat Charlie getroffen? Ich sehe immer noch GTX260/GTX275/GTX280/GTX285/GTX295 im Handel. Also von welchen Karten hat der liebe Charlie geredet?

Menace
2009-10-12, 22:04:44
Was hat Charlie getroffen? Ich sehe immer noch GTX260/GTX275/GTX280/GTX285/GTX295 im Handel. Also von welchen Karten hat der liebe Charlie geredet?

Wenn die Dinger nicht gekauft werden, sind die noch 10 Jahre im Handel. Ich dachte, Charlie sprach darüber, wie lange die Dinger hergestellt werden sollen, nicht wie lange sie im Handel sind, oder täusche ich mich? Falls nicht: Kausalitäten beachten.

LovesuckZ
2009-10-12, 22:09:00
Wenn die Dinger nicht gekauft werden, sind die noch 10 Jahre im Handel. Ich dachte, Charlie sprach darüber, wie lange die Dinger hergestellt werden sollen, nicht wie lange sie im Handel sind, oder täusche ich mich? Falls nicht: Kausalitäten beachten.

Und warum sollte nVidia weiter Chips produzieren, wenn die jetzige Handelsmenge nicht mal annährend abgesetzt wird? Charlie's Aussage war wieder mal unsinn, da Drosselung bzw. Stopp der Produktion kein sofortiges Verschwinden der Produkte aus dem Handel bedeutet.

Menace
2009-10-12, 22:13:11
Und warum sollte nVidia weiter Chips produzieren, wenn die jetzige Handelsmenge nicht mal annährend abgesetzt wird? Charlie's Aussage war wieder mal unsinn, da Drosselung bzw. Stopp der Produktion kein Verschwinden der Produkte aus dem Handel bedeutet.

Charlie hat doch nicht diskutiert, ob es unsinnig ist oder nicht, dass nvidia keine Chips mehr produziert (soweit ich die Diskussion richtig in Erinnerung habe), sondern dass sie EOL sind. DAS wurde heftig bestritten. Ob sie jetzt keine mehr produzieren, weil sie nicht gekauft werden oder weil Fermi rauskommt ist doch dabei gar nicht wichtig.

Aber wir sind hier mit dieser Diskussion völlig im falschen Thread, deswegen beende ich mal hier in diesem Thread von meiner Seite diese Diskussion und entschuldige mich für das offtopc.

Gast
2009-10-12, 22:35:21
Wenn die Dinger nicht gekauft werden, sind die noch 10 Jahre im Handel. Ich dachte, Charlie sprach darüber, wie lange die Dinger hergestellt werden sollen, nicht wie lange sie im Handel sind, oder täusche ich mich? Falls nicht: Kausalitäten beachten.
Ne ist klar, GTX 260, 275 und 295 und alle Tesla und Quadors bleiben in den Regalen liegen, während die preislich höher angesiedlete, mit schlechterem P/L Verhältnis GTX 285 rasend schnell verkauft wird.

tombman
2009-10-12, 22:51:54
bsn meint: alles ok
http://www.brightsideofnews.com/news/2009/10/12/nvidia-partners-claim-gt200-still-in-mass-production.aspx

mapel110
2009-10-12, 22:57:38
bsn meint: alles ok
http://www.brightsideofnews.com/news/2009/10/12/nvidia-partners-claim-gt200-still-in-mass-production.aspx
Du bist Offtopic. :P

Man, don't trust stupid FUD. Fermi will conquer market very fast. There will be no competition at all.

B2T

tombman
2009-10-12, 23:02:32
Du bist Offtopic. :P

Du lügst doch! ;)
==
In quasi jedem Interview meint ein Nvidia-Heini, daß Fermi bald kommt und alles ownen wird :biggrin:

"We are confident that when the Fermi-based GeForce products ship that we will maintain our performance crown"
http://www.tweaktown.com/articles/2958/nvidia_directx_11_questionnaire_a_response_to_amd_s_views/index2.html

S940
2009-10-12, 23:17:04
"We are confident that when the Fermi-based GeForce products ship that we will maintain our performance crown"
http://www.tweaktown.com/articles/2958/nvidia_directx_11_questionnaire_a_response_to_amd_s_views/index2.html
Es fällt auf, dass er nichts davon erzählt, wann die Fermis den nu verschickt werden ...:freak:

Der Rest von Deinem Zitat ist ebenfalls lesenswert:
We are confident that when the Fermi-based GeForce products ship that we will maintain our performance crown. Even today our GeForce GTX 285 significantly outperforms the HD 5870 in next gen games like Batman Arkham Asylum with physics. In fact, even our GeForce GTS 250 outperforms it. That's fundamentally the difference between us and AMD. We focus on graphics plus cool effects like physics and 3D stereo, whereas AMD just makes incremental changes to their graphics cards.

In dem witzigen Kontext verliert der erste Satz noch mehr an Glaubwürdigkeit.

Alles in allem wieder beste Unterhaltung von der nV Marketingabteilung :)

Alex

boxleitnerb
2009-10-12, 23:17:26
Die sollen mal hinmachen, so langsam werd ich ungeduldig :)

Meint ihr, es wird wieder offiziell SSAA geben, andere Modi und vielleicht noch besseres AF (32 oder gar 64x)? Auf welche für den Spieler interessanten Features tippt ihr?

tombman
2009-10-12, 23:28:39
Es fällt auf, dass er nichts davon erzählt, wann die Fermis den nu verschickt werden ...:freak:

Rein logisch gesehen: bevor Radeon 100 kommt ;D;D

Und mit Batman AA hat NV eine echte Keule in der Hand- da können sie AMD immer wieder reinwürgen wieviel sie für gamer tun und wie wenig AMD tut. Immerhin hat NV den AA Modus quasi im Alleingang dazugeproggt- während AMD ablehnte ;)
So nach dem Motto: "Was bringt einem eine DX11 HE Karte, wenn man damit nix anfangen kann?" ;D

Gast
2009-10-12, 23:35:46
Die sollen mal hinmachen, so langsam werd ich ungeduldig :)

Meint ihr, es wird wieder offiziell SSAA geben, andere Modi und vielleicht noch besseres AF (32 oder gar 64x)? Auf welche für den Spieler interessanten Features tippt ihr?

PhysX Plus u.a.

Gast
2009-10-12, 23:37:53
Mosaic SLI for Enthusiasts ;)

Gast
2009-10-12, 23:43:56
Meint ihr, es wird wieder offiziell SSAA geben, andere Modi und vielleicht noch besseres AF (32 oder gar 64x)? Auf welche für den Spieler interessanten Features tippt ihr?
Schwer zu sagen wie gut SSAA bei der Presse angekommen ist.

Wenns gut genug war, dann gibts definitiv offizielles SSAA und zwar kein OGSSAA.

tombman
2009-10-12, 23:46:23
Ich wär fron, wenn sie einen neuen Sli mode einführen, der KEIN AFR ist. Also, alle Gpus arbeiten an EINEM frame- mit +80% EF. :cool:

boxleitnerb
2009-10-12, 23:50:31
Wie würde sich ein solcher Modus, wie du ihn dir wünscht, von SFR unterscheiden?

san.salvador
2009-10-12, 23:52:17
Wie würde sich ein solcher Modus, wie du ihn dir wünscht, von SFR unterscheiden?
0 :D

S940
2009-10-12, 23:56:13
So nach dem Motto: "Was bringt einem eine DX11 HE Karte, wenn man damit nix anfangen kann?" ;D
Naja ... das Argument kann man leicht mit dem Totschlagsargument entschärfen, dass eine 5870 im Laden besser als eine Fermi Mockup in der Hand ist :freak:

Aber ist eh OT; will hier kein Flaming anstiften, fand nur die Bemerkung lustig, dass die 250er ja schneller als die 5870er wäre ^^

ciao

Alex

Gast
2009-10-13, 00:00:59
PhysX Plus u.a.
Interresiert so viel, wenn ein Sack Reis in China umfällt.
Da schon offene Standards in der Mache sind, wird PhysX wohl ziemlich schnell vom Markt verschwinden.

tombman
2009-10-13, 00:02:26
0 :D
Nö, SFR hat eine klare Trennlinie, davon hat aber keiner gesprochen ;)
Naja ... das Argument kann man leicht mit dem Totschlagsargument entschärfen, dass eine 5870 im Laden besser als eine Fermi Mockup in der Hand ist :freak:

Antwort:

dass die 250er ja schneller als die 5870er wäre ^^

Und mit Phys-X stimmt das ja auch ;D;D

AMD muß dringend was in Sachen dev. support machen. Sonst kommen mir die immer mehr so vor, wie jemand der ein besseres Produkt hat, es aber
nirgends verkaufen kann, weil die Schläger vom Paten "Don Nvidia" dann einem die Bude auseinandernehmen ;D

Krasse Zeiten: jetzt muß man features als HW Firma schon selbst proggn, wenn man gegenüber den Konsolen noch ein Unterscheidungsmerkmal haben will :ugly: (hmm, habe ich das nicht schon vor einiger Zeit vorgeschlagen, nur umfassender?) ;)

AMD und Nvidia sollten sich zusammentun und eine "Games Tune-Up" Firma gründen. Dort können devs Konsolenversionen hinschicken um sie für den PC aufpimpen zu lassen ;)

Gast
2009-10-13, 00:02:32
Interresiert so viel, wenn ein Sack Reis in China umfällt.
Da schon offene Standards in der Mache sind, wird PhysX wohl ziemlich schnell vom Markt verschwinden.

LOL das glaubst du doch selbst nicht. Und wo sind denn neue Standards in der Mache? Nvidia wird die Frucht bis zum letzten Tropfen ausdrücken verlass dich drauf. :)

boxleitnerb
2009-10-13, 00:03:23
0 :D

Äh lol?
Naja vielleicht kann man ja mit SFR die Effizienz nahe an AFR bringen, dann wären auch die Mikroruckler weg, oder?

Ich will super BQ, keine Optimierungen whatsoever und 2xGTX285 Performance...man darf noch träumen dürfen :)

SLI hat einen eklatanten Nachteil: Die neue Generation ist nicht mehr so eindrucksvoll, weil man die Leistung schon vorher haben kann. Echt ärgerlich :biggrin:

=Floi=
2009-10-13, 00:50:29
irgendwie klingt der abverkauf ein wenig surreal. die karten kann man so oder so noch gut verkaufen. warum sollte man in der aktuellen wirtschaftlichen situation den verkauf stoppen?
das wäre nur der fall, wenn nv die neue generation präsentieren würde.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7591886&postcount=4056
ich rede vom GT200b, welcher ein gutes p/l hat und von nv. warum sollte ich mir eine karte von ati kaufen?
wer eine ati will kann sicherlich jetzt zugreifen. die neue generation ist ganz gut geworden und hat auch viele nette verbesserungen.

Gast
2009-10-13, 00:55:50
Nö, SFR hat eine klare Trennlinie, davon hat aber keiner gesprochen ;)

Antwort:

Und mit Phys-X stimmt das ja auch ;D;D

AMD muß dringend was in Sachen dev. support machen. Sonst kommen mir die immer mehr so vor, wie jemand der ein besseres Produkt hat, es aber
nirgends verkaufen kann, weil die Schläger vom Paten "Don Nvidia" dann einem die Bude auseinandernehmen ;D

Krasse Zeiten: jetzt muß man features als HW Firma schon selbst proggn, wenn man gegenüber den Konsolen noch ein Unterscheidungsmerkmal haben will :ugly: (hmm, habe ich das nicht schon vor einiger Zeit vorgeschlagen, nur umfassender?) ;)

AMD und Nvidia sollten sich zusammentun und die eine "Games Tune-Up" Firma gründen. Dort können devs Konsolenversionen hinschicken um sie für den PC aufpimpen zu lassen ;)

Bei den neuen stalker teil leuchtet ja schon ein ATi logo auf.Vielleicht trifft das ja auch auf die anderen kommenden DX 11 Spiele zu.;)^^

=Floi=
2009-10-13, 00:58:25
würde sicher auch tombman und mich freuen. DX11 FTW!
solch ein schub wäre für jeden pc gamer gut.

Gast
2009-10-13, 01:17:20
Bei den neuen stalker teil leuchtet ja schon ein ATi logo auf.Vielleicht trifft das ja auch auf die anderen kommenden DX 11 Spiele zu.;)^^

Runs good on Ati, runs better with Nvidia.

Coda
2009-10-13, 02:59:44
Nö, SFR hat eine klare Trennlinie, davon hat aber keiner gesprochen ;)
Die Trennlinie ist aber auch nicht das Problem. Egal wie man das Bild aufteilt - man kann die prinzipiellen Probleme nicht lösen.

Naja vielleicht kann man ja mit SFR die Effizienz nahe an AFR bringen
Nein. Kann man mit der heute verwendeten Rendertechnik leider nicht.

reunion
2009-10-13, 07:01:37
Du lügst doch! ;)
==
In quasi jedem Interview meint ein Nvidia-Heini, daß Fermi bald kommt und alles ownen wird :biggrin:

"We are confident that when the Fermi-based GeForce products ship that we will maintain our performance crown"
http://www.tweaktown.com/articles/2958/nvidia_directx_11_questionnaire_a_response_to_amd_s_views/index2.html

Na das sind ja harte Worte. Er ist zuversichtlich das es Fermi packen wird. Klingt nicht gerade nach einer klaren Outperformance. Und das um wenig später zu erwähnen das ja eigentlich schon die GTX285 eine 5870 outperformt. Das macht das ganze dann gleich noch schwammiger.

V2.0
2009-10-13, 07:11:36
Ja unter Physix wird man 5870 ownen :;D

Majestic
2009-10-13, 08:21:38
Ist der Entwicklungsschritt von einer D3D10.1 GPU hin zu einer D3D11 eigendlich sehr groß? Oder mußte AMD eventuell nur ein wenig verändern vom RV7x0 zum RV870?

Ailuros
2009-10-13, 08:59:10
Na das sind ja harte Worte. Er ist zuversichtlich das es Fermi packen wird. Klingt nicht gerade nach einer klaren Outperformance. Und das um wenig später zu erwähnen das ja eigentlich schon die GTX285 eine 5870 outperformt. Das macht das ganze dann gleich noch schwammiger.

Soll ich Dich daran erinnern wer Brian Burke ist und was seine Funktion in jeglicher vergangener und heutigen Firma genau ist? :biggrin:

Aber wenn's schon sein muss alles was sie brauchen ist eine >650MHz Frequenz fuer GF100. Der "break-even" Punkt ist um etwa 200MHz niedriger.

Sorkalm
2009-10-13, 10:19:17
Aber wenn's schon sein muss alles was sie brauchen ist eine >650MHz Frequenz fuer GF100. Der "break-even" Punkt ist um etwa 200MHz niedriger.

Was für ein break-even ist das denn?

LovesuckZ
2009-10-13, 10:20:08
Wahrscheinlich Gleichstand. "Break-Even" beschreibt ja so schön die schwarze Null.

Gast
2009-10-13, 10:23:22
ergo gibt es hinter den Kulissen schon Performance-Werte oder hast du die anhand der Specs/weiteren bekannten abgeleitet? Fermi dürfte sich dann ja ~40% über Cypress einordnen..

S940
2009-10-13, 11:00:43
Und mit Phys-X stimmt das ja auch ;D;D
Jo, aber wen interessierts ...
Die 1-2 Spiele - naja muss ich Dir ja nicht sagen ;-)

AMD und Nvidia sollten sich zusammentun und eine "Games Tune-Up" Firma gründen. Dort können devs Konsolenversionen hinschicken um sie für den PC aufpimpen zu lassen ;)
Nette Idee, aber die beiden Firmen können sich nicht leiden, sowas wirds wohl nie geben.

Wäre aber ne brauchbare Geschäftsidee .. falls Du ne Gruppe oder besser 2, 3 fähiger Programmierer kennst, mach eine Firma auf und biete Outsourcingdienste an ;-)

Der "break-even" Punkt ist um etwa 200MHz niedriger.
Was ist da die Reverenz, der aktuelle Cypress Chip und der Beta Treiber ?
Dann müßte man noch hinzufügen, dass das aufgrund Catalyst Treiberoptimierungen und 5890 Gerüchten sehr wahrscheinlich ein bewegliches Ziel ist ;-)

ciao

Alex

igg
2009-10-13, 11:55:46
Was ist da die Reverenz, der aktuelle Cypress Chip und der Beta Treiber ?
Dann müßte man noch hinzufügen, dass das aufgrund Catalyst Treiberoptimierungen und 5890 Gerüchten sehr wahrscheinlich ein bewegliches Ziel ist ;-)
Der Catalyst hat ein großes Optimierungspotenzial, da stimme ich dir zu ;D.

Ob man das berücksichtigen sollte sei dahingestellt, oder denkst du die GF100 Treiber sind in diesem Stadium schon ausgereifter als die Cypress Catalyst? Wobei, wenn ichs mir genau überlege - vermutlich schon.

S940
2009-10-13, 12:10:25
Ob man das berücksichtigen sollte sei dahingestellt, oder denkst du die GF100 Treiber sind in diesem Stadium schon ausgereifter als die Cypress Catalyst? Wobei, wenn ichs mir genau überlege - vermutlich schon.Jupp, konstruktionsbedingt hat nV weniger Treiber Arbeit, ATi mehr. Dafür spart ATi Siliziumfläche ein ... ist halt eine typische Trade-Off Frage, man macht das, was einem wichtiger ist.

ciao

Alex

Gast
2009-10-13, 12:52:23
Das ist Quark.

Gast
2009-10-13, 14:02:32
ist es nicht, ati muss oder sollte den shadercode optimieren, anpassungen für spiele einbauen damit die shaders möglichst gut ausgelastet sind. beim 5D design ist das notwendig, NV's shaders funktionieren da einfacher und benötigen weniger "anpassarbeit".

tombman
2009-10-13, 14:59:42
Soll ich Dich daran erinnern wer Brian Burke ist und was seine Funktion in jeglicher vergangener und heutigen Firma genau ist? :biggrin:

Aber wenn's schon sein muss alles was sie brauchen ist eine >650MHz Frequenz fuer GF100. Der "break-even" Punkt ist um etwa 200MHz niedriger.
Also, 575 Mhz sind IMO schon mal sicher, weil drunter war ja nicht einmal die 295er :)

Gast
2009-10-13, 15:09:25
Also, 575 Mhz sind IMO schon mal sicher, weil drunter war ja nicht einmal die 295er :)

Für was, ROPs oder die TEX Units? Shader sind 1,3GHz+

Gast
2009-10-13, 15:18:43
Mal eine generelle Frage?

Warum ist Fermi überhaupt so stark auf CUDA/HPC ausgelegt?

Hätten man von den 3Mrd. Trans. ein gutes Stück mehr in die Grafikpower gesteckt, würde der R800 weit abgeschlagen sein. So wird es wohl im besten Fall nach einen 20% Plus aussehen, wobei ATI mit einer Duallösung in der gleichen Preisklasse wieder nachzieht. Der Konter von NV wird zwar wieder die Leistungsspitze werden aber auch gleichzeitig die Preisspitze. Somit wiederholt sich die Marktkonstellation anno 2008 wieder obwohl man hier hätte locker ein Zeichen setzen können.

tombman
2009-10-13, 15:24:18
Nvidia will aber in neue Märkte, was IMO auch wichtiger ist.
Die führen doch gar keinen Krieg mehr mit AMD, sondern eigentlich mit Intel ;) Nur hats AMD noch nicht mitbekommen- die glauben immer noch es geht um "billige fps" ;D
NV macht das schon richtig.

igg
2009-10-13, 15:29:05
Hätten man von den 3Mrd. Trans. ein gutes Stück mehr in die Grafikpower gesteckt, würde der R800 weit abgeschlagen sein.
Da die meisten Spiele für Konsolenspiele entwickelt werden, idlen die schnellen PC-Grafikkarten meist nur noch. Natürlich gibt es aber auch Ausnahmen.

Nvidia hat das erkannt und setzt auf neue Märkte und gute Zusatzfunktionen, wie PhysX, GPGPU usw.

AMD wird denke ich mit dem Evergreen-Nachfolger (soll angeblich Manhatten heißen?) sicher auch tun.

Gast
2009-10-13, 15:34:09
Nvidia will aber in neue Märkte, was IMO auch wichtiger ist.
Die führen doch gar keinen Krieg mehr mit AMD, sonder eigentlich mit Intel ;) Nur hats AMD noch nicht mitbekommen- die glauben immer noch es geht um "billige fps" ;D
NV macht das schon richtig.

Das mag sicher für NV der richtige Weg sein, aber ich als Spieler werde davon fast keinen Nutzen haben. Zudem unterschätzt man dann doch etwas den europäischen Pc-Gamer-Markt. "Schuster bleib bei deinen Leisten" ist ein gutes Sprichwort, denn NV pokert hier sehr hoch

Spasstiger
2009-10-13, 15:34:33
@tombman: Du als Zocker hast von der Neuorientierung seitens Nvidia aber nix. Zudem kann man nicht behaupten, dass AMD das Computing-Feld völlig vernachlässigt, die Peak-Rechenleistung des Cypress bei fp64-FMAs ist beachtlich, 544 GFlops. Fermi kommt hier auf 700-900 GFlops je nach Taktraten.

tombman
2009-10-13, 15:36:34
Was ich an NV toll finde ist, daß sie offenbar darauf hören, was die devs und Leute WOLLEN.
Die Leute wollten offenbar gute DP-Leistung, Caches, ECC, C++, ne gute IDE, global memory, schnelles switching, mehrere kernel usw... und sie bekommen es ;)
Klar MUSS das dann auch irgendwann Erfolg haben ...

Edit: @all: solange NV AMD sozusagen "im Vorbeigehen" im Bereich FPS immer noch schlägt, dürfen sie sich gerne im Bereich GPGPU austoben- damit habe ich keine Probleme ;)

Erst wenn NV die "fps-Krone" abgeben sollte, würde ich sauer werden, weil das dann IMO eine Vernachlässigung der Enthusis wäre- und das mag tombi nicht :)

reunion
2009-10-13, 15:40:36
Nvidia will aber in neue Märkte, was IMO auch wichtiger ist.
Die führen doch gar keinen Krieg mehr mit AMD, sondern eigentlich mit Intel ;) Nur hats AMD noch nicht mitbekommen- die glauben immer noch es geht um "billige fps" ;D
NV macht das schon richtig.

Das Problem ist das du dich von NVs Marketing einlullen lässt aber keine Ahnung hast. Fermi ist in zwei Punkten einem RV870 in punkto GPGPU voraus. Er hat einen konfigurierbaren Cache und einen einheitlicher Adressraum. Ersteres ist auch nur eine Kleinigkeit. Du tust hier dauernd so als würde das Ding ein neues Zeitalter einleiten. In manchen Punkten holt man damit erstmal auf ATi auf. Fermi ist nach wie vor eine GPU. Deine Kommentare sind völlig fehl am Platz.

Gast
2009-10-13, 15:40:51
Da die meisten Spiele für Konsolenspiele entwickelt werden, idlen die schnellen PC-Grafikkarten meist nur noch. Natürlich gibt es aber auch Ausnahmen.

Nvidia hat das erkannt und setzt auf neue Märkte und gute Zusatzfunktionen, wie PhysX, GPGPU usw.

AMD wird denke ich mit dem Evergreen-Nachfolger (soll angeblich Manhatten heißen?) sicher auch tun.

Mag jett etwas provokativ und überzogen von mir dargestellt, aber was bringt mir eine C-64 Grafik mit physikalisch korrekt umherfliegen grobpixeligen Fässern. Wäre Wasser drin das man ausschütten könnte, würde PyhsX es zwar schön berechnen aber die Darstellung klappt dann mit einen verkrüppelten Konsolen GPU doch nicht so toll.
GPGPU ist auch nett, aber nur eine Spielerei solange es bei SETI, Molekülberechnungen und einen kostenpflichten Encoder für Videos bleibt. Da muss mehr kommen unsbesondere für den Privatmann

tombman
2009-10-13, 15:45:43
del

tombman
2009-10-13, 15:49:41
Das Problem ist das du dich von NVs Marketing einlullen lässt aber keine Ahnung hast. Fermi ist in zwei Punkten einem RV870 in punkto GPGPU voraus. Er hat einen konfigurierbaren Cache und einen einheitlicher Adressraum. Ersteres ist auch nur eine Kleinigkeit. Du tust hier dauernd so als würde das Ding ein neues Zeitalter einleiten. In manchen Punkten holt man damit erstmal auf ATi auf. Fermi ist nach wie vor eine GPU. Deine Kommentare sind völlig fehl am Platz.
Und ECC und ne schöne IDE (Nexus) ist ganz unwichtig, gell? Devs sind auch nur Menschen, und Menschen sind faul.
Ohne ECC kommt GPGPU nicht in die großen Systeme und ohne schöne IDE macht entwickeln weniger Spaß.

Ich muß kein coder sein, um das zu kapieren ;)

Aber wir können ja gerne wetten, welche Gpus in GPGPU öfter engesetzt werden: RV870 oder Fermi ;)

p.s.: und wenn GPGPU kein neues Zeitalter wäre, würde Larrabee gar nicht existieren. Wenn Intel es sehen kann, warum du nicht?
Weil AMD hier kein Vorreiter ist? ;)

Spasstiger
2009-10-13, 15:49:47
@tombman: AMD schläft aber auch nicht. Es gibt durchaus auch einen C++-Compiler und IDEs (Rapidmind) für GPU-Computing seitens AMD:
http://ati.amd.com/technology/streamcomputing/firestream-sdk-whitepaper.pdf
Double-Precison-Support hat AMD vor Nvidia eingeführt und das bei immer noch deutlich besserer Peak-Rechenleistung. Eine Cache-Hierarchie bietet der Cypress ebenso wie Fermi, gleiches gilt für den "Global Data Share" (AMD) bzw. den "Shared Memory" (Nvidia).
Man sollte nicht so tun, als würde AMD GPU-Computing nicht ernst nehmen. Nvidia nimmt es nur einen Tick ernster als AMD. ;)

Gast
2009-10-13, 15:52:32
Was ich an NV toll finde ist, daß sie offenbar darauf hören, was die devs und Leute WOLLEN.
Die Leute wollten offenbar gute DP-Leistung, Caches, ECC, C++, ne gute IDE, global memory, schnelles switching, mehrere kernel usw... und sie bekommen es ;)
Klar MUSS das dann auch irgendwann Erfolg haben ...

Das sind aber alles Dinge, die für den Profimarkt gedacht sind und du als Privatmann keinen nutzen hast.


Edit: @all: solange NV AMD sozusagen "im Vorbeigehen" im Bereich FPS immer noch schlägt, dürfen sie sich gerne im Bereich GPGPU austoben- damit habe ich keine Probleme ;)
Erst wenn NV die "fps-Krone" abgeben sollte, würde ich sauer werden, weil das dann IMO eine Vernachlässigung der Enthusis wäre- und das mag tombi nicht :)

Eine Vernachlässigung ist aber in meinen Auge schon gegeben, wenn du mit einer GTX380 nur 5fps über einer 5780 stehst und dabei das doppelte hinlegen wirst. NV hat gefallen daran gefunden ihre Quadros/Teslas im Profimarkt für Schweinegeld loszubekommen und die Entwicklungskosten tragen aber auch die normalen GTX2xx und GTX3xx Käufer mit.

tombman
2009-10-13, 15:54:43
Fps sind nicht alles. Ich zahle für Nvidia auch mehr, wenn die fps gleich wären, weil ich Phys-X, SLi>CF, besseren support etc bekommen würde...

Coda
2009-10-13, 16:00:30
Das ist Quark.
Nein, eigentlich nicht. Wobei ab einem bestimmten Punkt der Compiler ATI auch nicht mehr weiterhilft.

Warum ist Fermi überhaupt so stark auf CUDA/HPC ausgelegt?
Wer sagt denn überhaupt, dass das was für CUDA implementiert wurde überhaupt so viele Transistoren frisst?

Die Diskussion würde ich darauf verschieben, wenn das Ding dann mal auf dem Markt ist.

@tombman: AMD schläft aber auch nicht. Es gibt durchaus auch einen C++-Compiler und IDEs (Rapidmind) für GPU-Computing seitens AMD:
Rapidmind ist etwas völlig anderes als C++-Code direkt auf der GPU laufen zu lassen - das könnte auch keine ATI-GPU. Debugger usw. gibt's auch nicht, außer per Softwareemulation.

Da ist NVIDIA mit Nexus mal wieder Lichtjahre voraus, so leid es mir tut.

Gast
2009-10-13, 16:08:50
Wer sagt denn überhaupt, dass das was für CUDA implementiert wurde überhaupt so viele Transistoren frisst?

Die Diskussion würde ich darauf verschieben, wenn das Ding dann mal auf dem Markt ist.

Ich kenne mich zugegeben nicht viel in den Innereien einer GPU aus. Nehme ich aber 2 mal GTX285 habe ich noch immer nicht den Transistor-Count erreicht und trotz der schlechten SLI Effizienz einen beinahe Ausblick auf Fermi. Und Tombman schrieb ja schon, dass wohl einige DEVS nach ECC, Caches, DP-Einheiten, IDE etc schreien.

Aber du hast recht, es ist viel Spekulation und man sollte warten bis das Teil auf dem Markt.

igg
2009-10-13, 16:10:03
Seufz, warten macht keinen Spaß :(

Coda
2009-10-13, 16:20:37
und trotz der schlechten SLI Effizienz einen beinahe Ausblick auf Fermi.
NVIDIA wird einfach nicht seit G80 auf der faulen Haut gelegen sein was R&D anging. Auf dem Markt kam davon seit G80 aber praktisch nichts mehr an, bis auf ein paar Detailverbesserungen.

Fermi scheint auch eine Grunderneuerung zu sein von dem was man bisher zu sehen bekommen hat. Da kann dann jeder selber seine Schlüsse daraus ziehen.

Ich kann mir aber einfach nicht vorstellen, dass es bei Performancesteigerung im vom bloßen Transistor-Count zu erwartetenden Rahmen bleibt.

Dural
2009-10-13, 16:27:05
Aber wenn's schon sein muss alles was sie brauchen ist eine >650MHz Frequenz fuer GF100. Der "break-even" Punkt ist um etwa 200MHz niedriger.

Ich glaube kaum das der "ROP" Takt beim Fermi ein Problem sein sollte, genau genommen war das noch nie ein Problem bei NV auch nicht beim GT200!

Viel eher dürfte der Shader Takt ein Problem sein, NV spricht ja schon von 2GHz und ich kann mir das bei einer so komplexen GPU gar nicht recht Vorstellen, es sei den der Strom Verbrauch geht wirklich in richtung 250Watt+

Coda
2009-10-13, 16:30:23
Fermi hat offenbar ein viel stärker ausgeprägtes Frequenzmanagement und Clock-Gating als jede GPU davor und lastet die Einheiten innerhalb eines Power-Budgets wohl je nach Last anders maximal aus.

2Ghz+ ALU-Takt sind deshalb evtl. gar nicht so unrealistisch, vor allem bei GPGPU wo viel andere Logik einfach nicht schält.

tombman
2009-10-13, 16:31:15
Seufz, warten macht keinen Spaß :(
Vorallem so ganz ohne leaks :(
Ich will wenigstens einen schönen "fps-leak" (Crysis oder Vatange-X) :D

Wenn man wenigstens wüßte, wielange man noch warten muß...

Gast
2009-10-13, 16:34:36
Wie lange würde man warten müssen? Frühling? :(

LovesuckZ
2009-10-13, 16:35:26
Fängt in Australien nicht bald der Frühling an? Oder haben die schon wieder Herbst?

igg
2009-10-13, 16:41:05
Vorallem so ganz ohne leaks :(
Ich will wenigstens einen schönen "fps-leak" (Crysis oder Vatange-X) :D
Wenn man wenigstens wüßte, wielange man noch warten muß...
Immerhin gabs den monatealten Leak von wegen X11.000. Aber was soll man damit auch anfangen, man weiß nicht mal Taktraten, Treiber, ....

Gast
2009-10-13, 16:41:44
Fermi ist in zwei Punkten einem RV870 in punkto GPGPU voraus. Er hat einen konfigurierbaren Cache und einen einheitlicher Adressraum.

Du vergisst die ECC-Fähigkeit des Fermi. Damit sind sämtliche GPGPU-Anwendungen für AMD tot, bei denen es drauf ankommt, daß das Ergebnis einer Rechnung auch sicher stimmt.

Spasstiger
2009-10-13, 16:44:44
ECC garantiert nicht, dass das Ergebniss einer Rechnung sicher stimmt.

tombman
2009-10-13, 16:47:07
ECC garantiert nicht, dass das Ergebniss einer Rechnung sicher stimmt.
Es verringert aber dramatisch indirekt die Zeit, bis eine Rechnung dann wirklich stimmt ;)
Oft sogar auf +0 hinunter, weil 1-Bit Fehler sofort automatisch korrigiert werden.
(wenn ichs richtig verstanden habe)

In großen Systemen kommt ja auch ECC im Hauptspeicher vor- da nubed auch keiner mit normalem Ram ,wie am Desktop, herum ;)

Gast
2009-10-13, 16:50:15
ECC garantiert nicht, dass das Ergebniss einer Rechnung sicher stimmt.

OK, auch ECC hat seine Grenzen und kann nur bei zu einer bestimmten Anzahl an Bitfehlern korrigieren, für die Praxis dürfte das aber ausreichen, denn bei mehr Bitfehlern ist der Speicher oder die GPU ohnehin Schrott und muss ersetzt werden.

Coda
2009-10-13, 16:50:51
Es korrigiert 1-Bit-Fehler und meldet 2-Bit-Fehler, ja.

In großen Rechenzentren geht ohne ECC eigentlich nirgends was.

Das Problem ist das du dich von NVs Marketing einlullen lässt aber keine Ahnung hasst.
Aber du schon? :rolleyes:

Tombman hat im Gegensatz zu dir einiges mehr begriffen, vor allem was die Anforderungen der Leute angeht. Auf dem Papier kann man vieles haben, aber im Endeffekt heißt es "put up or shut up".

Und den Vorsprung den NVIDIA inzwischen mit vollständiger Visual-Studio-Integration mit echtzeit debugging von C++-CUDA-Anwendungen hat kann AMD selbst wenn sie wollen nicht so schnell einholen. Software lässt sich nämlich nicht durch bloßes draufschütten von Manpower skalierbar schneller schreiben ;)

Und ob die ATI-GPUs überhaupt Support für realtime debugging haben ist auch nochmal so eine Sache.

Wenn ich die Wahl hätte zwischen OpenCL ohne Debugger und C++ mit Nexus, dann fällt mir die Entscheidung denkbar leicht. Und das geht sicher nicht nur mir so.

LovesuckZ
2009-10-13, 17:02:19
Ich finde es erstaunlich, dass viele sich über invesierte Transistoren für GPGPU aufregen. Wahrscheinlich haben einige hier schon den G80 vergessen. Damit hat nVidia einen riesen Schritt hin zu GPGPU unternommen und hat der Chip enttäuscht? Nein, er kann sich in die Reihe der wenigen innovativen und wegweisenden Grafikchips einreihen. Selbst wenn AMD zeitgleich mit dem r600 erschienen wäre - der G80 war einfach über 1 1/2 Jahre AMD vorraus.

Gast
2009-10-13, 17:08:21
Es verringert aber dramatisch indirekt die Zeit, bis eine Rechnung dann wirklich stimmt ;)
Oft sogar auf +0 hinunter, weil 1-Bit Fehler sofort automatisch korrigiert werden.
(wenn ichs richtig verstanden habe)

In großen Systemen kommt ja auch ECC im Hauptspeicher vor- da nubed auch keiner mit normalem Ram ,wie am Desktop, herum ;)
rumnuben würde höchstens zu eurem wissen passen. grosse rechenzentren differenzieren da immernoch zwischen schnellem non-ECC memory und datenkritischen systemen wo mit ECC gearbeitet wird. ECC ist langsamer und zwar teils extrem. aber schon ok, hauptsache eine eigenschaft in den himmel hochloben die ein endanwender wie du niemals brauchen wird.

aylano
2009-10-13, 17:10:42
Also, 575 Mhz sind IMO schon mal sicher, weil drunter war ja nicht einmal die 295er :)
Der 8800GTX & GTX280 hatten beide ungefähr 600 Mhz-Chiptakt & 1300 Mhz Shader Takt.
Obwohl GTX280 nur 65 statt 90nm hatte.

Der Unterschied zu jetzt ist, die Fertigungen waren damals ausgereift.

IMO würde ich nicht von sicher reden, da die Probleme des GT200 & GT200b jeweils der Takt war und mehrere Respin verursachte, aber gut möglich.

Gast
2009-10-13, 17:14:47
Ich finde es erstaunlich, dass viele sich über invesierte Transistoren für GPGPU aufregen. Wahrscheinlich haben einige hier schon den G80 vergessen. Damit hat nVidia einen riesen Schritt hin zu GPGPU unternommen und hat der Chip enttäuscht? Nein, er kann sich in die Reihe der wenigen innovativen und wegweisenden Grafikchips einreihen. Selbst wenn AMD zeitgleich mit dem r600 erschienen wäre - der G80 war einfach über 1 1/2 Jahre AMD vorraus.

GT200 hat enttäuschend, so zu 15-20% ;)
Und man schiebt die Schuld auf die DP Einheiten, weil dadurch der ganzer Arithmetik Block langsamer taktet, oder so ähnlich...

Coda
2009-10-13, 17:16:50
rumnuben würde höchstens zu eurem wissen passen. grosse rechenzentren differenzieren da immernoch zwischen schnellem non-ECC memory und datenkritischen systemen wo mit ECC gearbeitet wird.
Ganz bestimmt nicht. Wenn man Number-Crunching macht geht es auch um wichtige Daten, also braucht man ECC.

Ich habe noch nie ein Xeon-System gesehen in einem Rack das normalen RAM verbaut hatte.

ECC ist langsamer und zwar teils extrem.
Nein. Registered DIMMs mit ECC sind langsamer (und auch nicht "extrem"). Normales ECC besteht nur aus DIMMs mit einem zusätzlichen Speicherchip und 72- statt 64 Datenleitungen. Da ist gar nichts langsamer.

aber schon ok, hauptsache eine eigenschaft in den himmel hochloben die ein endanwender wie du niemals brauchen wird.
ECC ist wenn dann nur langsamer, weil es höhere Latenzen hat. Das ist bei Streamprozessing eh weitgehend egal. Der eine Takt spielt bei der Zugriffslatenz von hunderten Takten auch keine Rolle mehr.

Gast
2009-10-13, 17:24:09
Ganz bestimmt nicht. Wenn man Number-Crunching macht geht es auch um wichtige Daten, also braucht man ECC.

Ich habe noch nie ein Xeon-System gesehen in einem Rack das normalen RAM verbaut hatte.


Nein. Registered DIMMs mit ECC sind langsamer (und auch nicht "extrem"). Normales ECC besteht nur aus DIMMs mit einem zusätzlichen Speicherchip und 72- statt 64 Datenleitungen. Da ist gar nichts langsamer.


ECC ist wenn dann nur langsamer, weil es höhere Latenzen hat. Das ist bei Streamprozessing eh weitgehend egal. Der eine Takt spielt bei der Zugriffslatenz von hunderten Takten auch keine Rolle mehr.
FB-DIMMs werden sehr oft als Non-ECC eingebaut und eingesetzt um die 2 - 5% Leistung auch noch zu kriegen. Bei unkritischen Systemen sehe ich das sogar täglich. (z.B. DL320, DL360, DL365/385 usw.)

Was andres ist z.B. ein Integrity oder die Controller von ner EVA und DB Server usw.

Zum Numbercrunching und dessen Not an genauen Daten, da widerspreche ich Dir nicht.

Coda
2009-10-13, 17:29:13
FB-DIMMs werden sehr oft als Non-ECC eingebaut und eingesetzt um die 2 - 5% Leistung auch noch zu kriegen.
Bei FB-DIMM kostet das auch Leistung - bei dem was Fermi macht aber nicht. Da wird keine zusätzliche Bufferstufe verbaut, sondern wohl nur ein zusätzlicher GDDR5-Chip verlötet um die Parity-Infos zu speichern. CPUs sind auch um Magnituden empfindlicher was Speicherlatenz angeht.

Zum Numbercrunching und dessen Not an genauen Daten, da widerspreche ich Dir nicht.
Ich weiß ja nicht, aber wenn ich wissenschaftliche Kalkulationen durchführe auf einem Großrechner dann würde ich schon gerne wollen, dass das Ergebnis nachher auch stimmt.

Gast
2009-10-13, 17:43:08
Bei FB-DIMM kostet das auch Leistung - bei dem was Fermi macht aber nicht. Da wird keine zusätzliche Bufferstufe verbaut, sondern wohl nur ein zusätzlicher GDDR5-Chip verlötet um die Parity-Infos zu speichern. CPUs sind auch um Magnituden empfindlicher was Speicherlatenz angeht.

Ist das annahme oder wissen deinerseits? Will dich nicht diskreditieren - wills nur wissen.

Ich weiß ja nicht, aber wenn ich wissenschaftliche Kalkulationen durchführe auf einem Großrechner dann würde ich schon gerne wollen, dass das Ergebnis nachher auch stimmt.
eigentlich gings ja um tombman als endanwender, dass der liebe herr numbercrunching z.b. fürs CERN macht, nehm ich nicht an. Daher mein Einwand.

ansonsten, ack.

Coda
2009-10-13, 18:30:17
Ist das annahme oder wissen deinerseits? Will dich nicht diskreditieren - wills nur wissen.
GDDR5 hat auch extreme hohe CAS-Latenzen, dafür aber Prefetching.

Das ist bei GPUs kein Problem, da genügend Threads In-Flight sind um das zu verstecken. Solange der eine Thread wartet, werden eben 100 andere ausgeführt.

eigentlich gings ja um tombman als endanwender, dass der liebe herr numbercrunchin
Endanwender brauchen kein ECC, da stimme ich dir absolut zu.

tombman
2009-10-13, 18:41:59
Bei den Geforce Fermis wird ECC eh deaktiviert sein, was ich gehört habe...
Aber grundsätzlich nochmal: nur weil man etwas nicht nutzt, kann man es immer noch toll finden :)

Gast
2009-10-13, 19:34:07
Bei den Geforce Fermis wird ECC eh deaktiviert sein, was ich gehört habe...


Das steht zumindest so in der aktuellen c't.

aths
2009-10-13, 20:31:02
Das Problem ist das du dich von NVs Marketing einlullen lässt aber keine Ahnung hast. Fermi ist in zwei Punkten einem RV870 in punkto GPGPU voraus. Er hat einen konfigurierbaren Cache und einen einheitlicher Adressraum. Ersteres ist auch nur eine Kleinigkeit. Du tust hier dauernd so als würde das Ding ein neues Zeitalter einleiten. In manchen Punkten holt man damit erstmal auf ATi auf. Fermi ist nach wie vor eine GPU. Deine Kommentare sind völlig fehl am Platz.GT300 / GF100 ist sowohl GPU als auch "C++PU".

NVIDIA wird einfach nicht seit G80 auf der faulen Haut gelegen sein was R&D anging. Auf dem Markt kam davon seit G80 aber praktisch nichts mehr an, bis auf ein paar Detailverbesserungen.Ja, die 30 DP-FMAs im GT200 dürften mit dem Wissen integriert worden sein, dass der nächste Chip 256 solcher Einheiten haben wird. Die haben aus der G92-Architektur mit einigen Optimierungen und einer Verbreiterung um 25% der TMUs und 87,5% der Shader den GT200 gebastelt. Dass das Speicherinterface gleich auf 512 Bit verbreitert wurde, sehe ich schon fast als Ideenlosigkeit, um dem Chip im Einsatz Beine zu machen. 80 TMUs brauchen keine 512 Bit.

Gast
2009-10-13, 23:03:50
Weil hier soviel über ECC geredet wird und ich den Eindruck hab einige Wissen nciht was das ist (vereinfacht):

Wer weis wie Raid 5 geht? (Min) 3 Platten, ABC, geschrieben wird (laufend versetzt) auf 2 Platten und auf der 3ten die Paritätsinformationen mit der der Raidcontroller die Daten ggf. wiederherstellen kann.

Vereinfacht_!_ ist ECC Ram das gleiche: Zus. Ramchip mit eben mehr als den 64 übliche Leitungen angebunden und ebenfalls Paritätsinfo und der Fähigkeit Fehler zu beheben (mit hilfe der Paritätsinfo) bzw. wenigstens zu erkennen.

Ich hab in noch keinem 19" was andres als ECC Ram gesehn und der mehr als konservativ getaktet weils ja nicht blos nicht nimals nicht ausfallen oder - viel schlimmer - Fehler produzieren soll.

mictasm
2009-10-13, 23:49:55
Wer weis wie Raid 5 geht? (Min) 3 Platten, ABC, geschrieben wird (laufend versetzt) auf 2 Platten und auf der 3ten die Paritätsinformationen mit der der Raidcontroller die Daten ggf. wiederherstellen kann.

das ist Raid 4

samm
2009-10-14, 01:32:28
Ne, das ist schon RAID 5. In RAID 4 hast du ne extra Platte für die Partitätsinformationen. So oder so werden Partitätsinformationen verwendet, womit das Beispiel des Gasts sowieso mit RAID 4 RAID 5 genauso funktionieren würde ;) Aber ich sehe das nicht als guten Vergleich für ECC bei RAM, da das ganze Platten-Gestriping nicht viel Ähnlichkeit mit der Paritätsinfo des Speichers hat, wo wohl (da rate ich) eher mit Bits gearbeitet wird als mit Chunks. Zudem werden wohl genauso wenig Leute von RAID ne Ahnung haben wie von ECC.

btt plz :)

Slipknot79
2009-10-14, 02:14:20
Endanwender brauchen kein ECC, da stimme ich dir absolut zu.


Kann mangelnde ECC zu nem BSoD führen?

Coda
2009-10-14, 02:17:25
Unter Umständen schon, ja. Aber so häufig sind Speicherfehler auch nicht. Das Problem ist, dass sich die Wahrscheinlichkeit mit der Anzahl an Systemen exponenziert.

reunion
2009-10-14, 07:51:30
Aber du schon? :rolleyes:

Tombman hat im Gegensatz zu dir einiges mehr begriffen, vor allem was die Anforderungen der Leute angeht. Auf dem Papier kann man vieles haben, aber im Endeffekt heißt es "put up or shut up".

Und den Vorsprung den NVIDIA inzwischen mit vollständiger Visual-Studio-Integration mit echtzeit debugging von C++-CUDA-Anwendungen hat kann AMD selbst wenn sie wollen nicht so schnell einholen. Software lässt sich nämlich nicht durch bloßes draufschütten von Manpower skalierbar schneller schreiben ;)

Und ob die ATI-GPUs überhaupt Support für realtime debugging haben ist auch nochmal so eine Sache.

Wenn ich die Wahl hätte zwischen OpenCL ohne Debugger und C++ mit Nexus, dann fällt mir die Entscheidung denkbar leicht. Und das geht sicher nicht nur mir so.

Ja Coda, das du die Weisheit mit dem Löffel gefressen hast weiß ich eh schon lange. Ist ja schön das du mir jetzt wieder alle möglichen Dinge vorblubberst wie toll NV nicht ist, doch ich habe das weder bestritten noch sonst irgendwie angezweifelt. Wäre schön wenn du in meine Beiträge nicht immer alles mögliche hinein interpretieren würdest. Ich habe nur gesagt das ich nicht den Quantensprung aus GPGPU-Sicht in GT300 sehe. Es ist eine konstante Weiterentwicklung, die hardwaretechnisch leichte Vorteile ggü. RV870 hat, nicht mehr und nicht weniger. Und wenn tombman hier immer alles mögliche was NV macht mit dem GPGPU-Segment erklärt und so tut als würde NV hier Trillionen von Transistoren verpulvern während AMD rein auf Spiele hin entwickelt dann ist das einfach falsch. Das NV gerade beim Dev-Support enorme Vorteile hat und Softwaretechnisch hier natürlich vorbildlich agiert habe ich selbst bereits mehrmals erwähnt. Gerade hier hat AMD erheblichen Nachholbedarf.

Ailuros
2009-10-14, 08:04:25
Ja Coda, das du die Weisheit mit dem Löffel gefressen hast weiß ich eh schon lange. Ist ja schön das du mir jetzt wieder alle möglichen Dinge vorblubberst wie toll NV nicht ist, doch ich habe das weder bestritten noch sonst irgendwie angezweifelt. Wäre schön wenn du in meine Beiträge nicht immer alles mögliche hinein interpretieren würdest. Ich habe nur gesagt das ich nicht den Quantensprung aus GPGPU-Sicht in GT300 sehe. Es ist eine konstante Weiterentwicklung, die hardwaretechnisch leichte Vorteile ggü. RV870 hat, nicht mehr und nicht weniger. Und wenn tombman hier immer alles mögliche was NV macht mit dem GPGPU-Segment erklärt und so tut als würde NV hier Trillionen von Transistoren verpulvern während AMD rein auf Spiele hin entwickelt dann ist das einfach falsch. Das NV gerade beim Dev-Support enorme Vorteile hat und Softwaretechnisch hier natürlich vorbildlich agiert habe ich selbst bereits mehrmals erwähnt. Gerade hier hat AMD erheblichen Nachholbedarf.

Das fettgedruckte zeigt aber gerade nicht eine objektive Perspektive. Denn so wie es jeder lesen wird deklassierst Du es mit Absicht in den fast bedeutungslosen Bereich. Und ja um es klar zu machen fuer uns Normalverbraucher ist das Zeug tatsaechlich bedeutungslos; aber von einer reinen technologischen und Profi-Perspektive eben nicht.

Was jetzt die Anzahl der Transistoren betrifft kann es Dir, mir und jeglichem Otto-Normalverbraucher scheissegal sein ob die Komplexitaet um >40% hoeher ist auf GF100, wenn die high end GPU irgendwo bis zu 40% mehr Leistung bietet als eine 5870 und der Stromverbrauch keinen nenneswerten Unterschied zeigt. Wir wissen momentan nicht ob NV ihre Zielfrequenzen (700/1600) erreichen kann und schon gar nicht wann sie mit dem Ding fertig werden, deshalb steht noch viel zu viel offen.

Ich weiss nicht was genau los ist denn ich weigere mich NV darueber zu befragen, aber es schwirren Geruechte herum dass sie Probleme mit den Frequenzen haben. Kann war sein oder auch gezielter FUD der Konkurrenz. Die Tatsache aber dass NV sich ihren Hintern abgeluegt hat ueber angebliches tape out im April, wo es aber erst irgendwo Mitte Sommer stattfand, tendiert bei mir momentan eher jegliche herumschwirrende These zu glauben.

reunion
2009-10-14, 08:14:57
Das fettgedruckte zeigt aber gerade nicht eine objektive Perspektive. Denn so wie es jeder lesen wird deklassierst Du es mit Absicht in den fast bedeutungslosen Bereich. Und ja um es klar zu machen fuer uns Normalverbraucher ist das Zeug tatsaechlich bedeutungslos; aber von einer reinen technologischen und Profi-Perspektive eben nicht.


Nein, ich sagen nicht das es bedeutungslos ist, ich sage nur das es kein Quantensprung ist. Das ist ein erheblicher Unterschied.


Was jetzt die Anzahl der Transistoren betrifft kann es Dir, mir und jeglichem Otto-Normalverbraucher scheissegal sein ob die Komplexitaet um >40% hoeher ist auf GF100, wenn die high end GPU irgendwo bis zu 40% mehr Leistung bietet als eine 5870 und der Stromverbrauch keinen nenneswerten Unterschied zeigt. Wir wissen momentan nicht ob NV ihre Zielfrequenzen (700/1600) erreichen kann und schon gar nicht wann sie mit dem Ding fertig werden, deshalb steht noch viel zu viel offen.

Es ging um die Transistoren im GPGPU-Bereich. Was NV dann konkret leistet kann man heute ohnehin noch nicht wirklich abschätzen, deshalb abwarten. Aber das man die 5870 schlägt sollte das mindeste sein.


Ich weiss nicht was genau los ist denn ich weigere mich NV darueber zu befragen, aber es schwirren Geruechte herum dass sie Probleme mit den Frequenzen haben. Kann war sein oder auch gezielter FUD der Konkurrenz.


Ja, ich denke NV weiß selbst noch nicht mal wann sie das Ding bringen können.

Die Tatsache aber dass NV sich ihren Hintern abgeluegt hat ueber angebliches tape out im April, wo es aber erst irgendwo Mitte Sommer stattfand, tendiert bei mir momentan eher jegliche herumschwirrende These zu glauben.

Scheint ja so als ob Charly doch Recht hatte mit der Tapeout-Meldung im Juli. Wundert mich auch wenig wenn er seine Infos direkt von AMD bekommt.

igg
2009-10-14, 08:45:00
ich denke mal die naechsten leaks gibt es erst, wenn nv die a2 chips vorliegen. weiss man schon in etwa wann das sein wird?

Ailuros
2009-10-14, 08:48:04
Nein, ich sagen nicht das es bedeutungslos ist, ich sage nur das es kein Quantensprung ist. Das ist ein erheblicher Unterschied.

Jetzt musst Du aber auch definieren was fuer Dich ein Quantensprung genau waere. Die Aenderungen sind gross genug und sogar ueber dem Pegel die man von einer neuen Generation erwarten wuerde wenn man bedenkt dass immer noch sogar G80 basierende Quadros verkauft werden.

Es ging um die Transistoren im GPGPU-Bereich. Was NV dann konkret leistet kann man heute ohnehin noch nicht wirklich abschätzen, deshalb abwarten. Aber das man die 5870 schlägt sollte das mindeste sein.

Wie viele Transistoren sind es denn und fuer welche Varianten genau? Und wenn's schon sein muss ich drehe es Dir passend um: angenommen "GeForce 380" haette nicht einen einzigen Schnipsel an GPGPU Transistoren wuerde aber immer noch 3.08Mrd. Transistoren wiegen, beweiss mir dass sie bezahlbahre Bandbreite sichern koennten um die zusaetzlichen Aspekte theoretisch zu unterstuetzen.

Und wenn es schon sein muss: hoechstwahrscheinlich wird nur der high end chip den groessten zusaetzliche GPGPU Ballast tragen. Wenn die ersten tape outs der kleineren Varianten vollkommen sind, koennen wir dann erst mit spekulativer Mathe herumspielen. Es sind insgesamt 5 wenn ich mich nicht irre.

Ja, ich denke NV weiß selbst noch nicht mal wann sie das Ding bringen können.

Kein IHV in aehnlicher Situation koennte so etwas wissen bis sie A2 in der Hand haben.

Scheint ja so als ob Charly doch Recht hatte mit der Tapeout-Meldung im Juli. Wundert mich auch wenig wenn er seine Infos direkt von AMD bekommt.

Charlie geht mir persoenlich auf den Wecker weil er erstens seinen pathologischen NV Hass nicht kontrollieren kann, weil er generell ein Verhaltensproblem hat (typisches Charlie Brown Syndrom) und weil er sich ueber absolut nichts korrigieren laesst. Ich hab gestern einem seiner Erzfeinde ein e-mail geschickt und auf ein paar Fehler gedeutet und er hat diese nach weiterer Forschung sofort geaendert.

Natuerlich bekommt er seine Infos direkt von AMD. Soll ich auch noch Namen nennen oder ist es offensichtlich wen ich meinen koennte?

Wie dem auch sei es verletzt weder meinen Stolz noch mein Ego einzugestehen dass er damals womoeglich recht hatte mit dem tapeout. Ich persoenlich wurde von NV direkt an der Nase herumgefuehrt und obwohl ich ziemlich angepisst bin deswegen, werde ich von fort an keinen 16 Seiten langen Hassbrief an NV schicken oder mich von jetzt ab als "Feind" ihnen gegenueberstellen. Wenn dem so waere haette ich auch mit jeglichem anderen IHV Beziehungen aufbrechen sollen weil ich mal auf die Palme ueber X gejagt wurde oder selber etwas falsch verstanden habe.

Log Dich ein bei SA's forum und sobald Du eine Meinung positionierst die dem Administrator nicht schmecken sollte ist es eine Frage der Zeit wenn ein Ban vorliegt.

mapel110
2009-10-14, 08:49:28
ich denke mal die naechsten leaks gibt es erst, wenn nv die a2 chips vorliegen. weiss man schon in etwa wann das sein wird?
Wenn Ende Juli als Tapeout für A1 stimmt, sollte es Ende Oktober soweit sein. Wenn dann alles glatt läuft, könnte zu dem Zeitpunkt auch die Massenproduktion anlaufen.

reunion
2009-10-14, 08:55:18
Wenn Ende Juli als Tapeout für A1 stimmt, sollte es Ende Oktober soweit sein. Wenn dann alles glatt läuft, könnte zu dem Zeitpunkt auch die Massenproduktion anlaufen.

Nach dem Tapeout folgt erstmal aufwändiges debugging und wenn da alles stimmt und die erhofften Taktfrequenzen zumindest halbwegs erreicht werden sollte die Massenproduktion anlaufen können. Auch wann das Tapeout von A2 genau stattfindet hängt natürlich maßgeblich davon ab wie gut oder schlecht A1 läuft. So oder so sollte man in 2009 max. noch einen Softlaunch erwarten.

reunion
2009-10-14, 08:59:24
Natuerlich bekommt er seine Infos direkt von AMD. Soll ich auch noch Namen nennen oder ist es offensichtlich wen ich meinen koennte?

Ist mir nicht wirklich offensichtlich. Wenn du Namen hast immer her damit. :D


Wie dem auch sei es verletzt weder meinen Stolz noch mein Ego einzugestehen dass er damals womoeglich recht hatte mit dem tapeout. Ich persoenlich wurde von NV direkt an der Nase herumgefuehrt und obwohl ich ziemlich angepisst bin deswegen, werde ich von fort an keinen 16 Seiten langen Hassbrief an NV schicken oder mich von jetzt ab als "Feind" ihnen gegenueberstellen. Wenn dem so waere haette ich auch mit jeglichem anderen IHV Beziehungen aufbrechen sollen weil ich mal auf die Palme ueber X gejagt wurde oder selber etwas falsch verstanden habe.

Log Dich ein bei SA's forum und sobald Du eine Meinung positionierst die dem Administrator nicht schmecken sollte ist es eine Frage der Zeit wenn ein Ban vorliegt.

Das Charly natürlich extrem verblendet ist und seine Beiträge auch so schriebt das man in jeden Satz bemerkt das er Nv bashen will ist kein Geheimnis. Trotzdem hat er mit AMD eine sehr gute Quelle für solche Dinge, deshalb sollte man die Infos welche in dem ganzen Mist gestreut werden doch beachten.

Ailuros
2009-10-14, 09:02:49
Nach dem Tapeout folgt erstmal aufwändiges debugging und wenn da alles stimmt und die erhofften Taktfrequenzen zumindest halbwegs erreicht werden sollte die Massenproduktion anlaufen können. So oder so sollte man in 2009 max. noch einen Softlaunch erwarten.

Bei Krisen ist Jensen gnadenlos; ich koennte mir schon vorstellen dass engineers sich bis zur Ohnmacht abrackern muessen. Jensen reiste nach Taiwan um mit TSMC die Preise zu verhandeln und wohl weniger um das Entwicklungsstadium zu verfolgen. Es bleibt aber stets der "wennallesnachPlanlaeuft" Faktor.

V2.0
2009-10-14, 09:06:41
Nach dem Tapeout folgt erstmal aufwändiges debugging und wenn da alles stimmt und die erhofften Taktfrequenzen zumindest halbwegs erreicht werden sollte die Massenproduktion anlaufen können. Auch wann das Tapeout von A2 genau stattfindet hängt natürlich maßgeblich davon ab wie gut oder schlecht A1 läuft. So oder so sollte man in 2009 max. noch einen Softlaunch erwarten.

Wenn alles glatt geht. Nur was ging bisher bei der GF100 Serie glatt? Charlie und Neliz sprechen nicht ohne Grund von 2Q/10 für die reale Verfügbarkeit.

Abgesehen davon werden wir erst mit echten unabhängigen Tests erfahren was GF100 taugt. NV hat schon oft eine Revolution versprochen und dann heftig daneben gegriffen. So wie sie lügen und FUD verbreiten würde ich davon ausgehen, dass GF100 weit davon entfernt ist, das zu leisten was manche erwarten. Ohne Grund hypt man nicht PhysiX. ;D

V2.0
2009-10-14, 09:08:22
Bei Krisen ist Jensen gnadenlos; ich koennte mir schon vorstellen dass engineers sich bis zur Ohnmacht abrackern muessen. Jensen reiste nach Taiwan um mit TSMC die Preise zu verhandeln und wohl weniger um das Entwicklungsstadium zu verfolgen. Es bleibt aber stets der "wennallesnachPlanlaeuft" Faktor.

Man kann auch HotWafer riskieren, indem man produziert bevor das Debugging wirklich fertig ist. Ein Risiko, dass man gerade bei Frequenzproblem eingehen könnte. Im Notfall geht die Ladung als OEM Spezialversion mit niedrigerer Taktung weg.

Ailuros
2009-10-14, 09:21:31
Man kann auch HotWafer riskieren, indem man produziert bevor das Debugging wirklich fertig ist. Ein Risiko, dass man gerade bei Frequenzproblem eingehen könnte. Im Notfall geht die Ladung als OEM Spezialversion mit niedrigerer Taktung weg.

Ich bezweifle dass sie so stark spinnen.

Gast
2009-10-14, 10:15:25
Charlie geht mir persoenlich auf den Wecker weil er erstens seinen pathologischen NV Hass nicht kontrollieren kann, weil er generell ein Verhaltensproblem hat (typisches Charlie Brown Syndrom) und weil er sich ueber absolut nichts korrigieren laesst.

Charlie hat ADHD. Hat er zumindest selbst auf Beyond3D im Forum gesagt. Das soll keine Entschuldigung für seine Entgleisungen sein aber vielleicht eine Erklärung für sein manchmal seltsames Verhalten.

Gast_mboeller
2009-10-14, 10:24:34
So wie sie lügen und FUD verbreiten würde ich davon ausgehen, dass GF100 weit davon entfernt ist, das zu leisten was manche erwarten. Ohne Grund hypt man nicht PhysiX. ;D

Dann sind wir zumindest schon mal 2. ;)

Wenn das Nvidia-Marketing sagt, das der GF100 schneller ist wie der 5870 weil er PhysX kann, dann riecht das doch ein wenig stark nach FAIL.
Ich hoffe das das Nvidia-Marketing hier einfach mal in die Tonne gegriffen hat und der GF100 die 5870 schlägt (auch ohne PhysX) aber nach den Nvidia-Marketing Meldungen dazu bin ich mir lange nicht mehr sicher.

Ailuros
2009-10-14, 10:41:19
Charlie hat ADHD. Hat er zumindest selbst auf Beyond3D im Forum gesagt. Das soll keine Entschuldigung für seine Entgleisungen sein aber vielleicht eine Erklärung für sein manchmal seltsames Verhalten.

Aus reiner Neugierde, wofuer steht ADHD?

mapel110
2009-10-14, 10:42:53
Aus reiner Neugierde, wofuer steht ADHD?
Attention Deficit Hyperactivity Disorder
Das dürfte einiges erklären. :ugly:

Ailuros
2009-10-14, 10:43:49
Dann sind wir zumindest schon mal 2. ;)

Wenn das Nvidia-Marketing sagt, das der GF100 schneller ist wie der 5870 weil er PhysX kann, dann riecht das doch ein wenig stark nach FAIL.
Ich hoffe das das Nvidia-Marketing hier einfach mal in die Tonne gegriffen hat und der GF100 die 5870 schlägt (auch ohne PhysX) aber nach den Nvidia-Marketing Meldungen dazu bin ich mir lange nicht mehr sicher.

NVIDIA wird wohl nicht so bloed sein und den chip unter 500MHz zu takten.

Ailuros
2009-10-14, 10:46:03
Attention Deficit Hyperactivity Disorder
Das dürfte einiges erklären. :ugly:

Hab gerade danach gegoogelt; kein besonderer Unterschied zum Charlie Brown Syndrom dann ;)

Gast
2009-10-14, 11:08:27
Nach dem Tapeout folgt erstmal aufwändiges debugging und wenn da alles stimmt und die erhofften Taktfrequenzen zumindest halbwegs erreicht werden sollte die Massenproduktion anlaufen können.


Man könnte durchaus die Massenproduktion bereits mit dem TapeOut starten und das Debugging parallel machen.

Das ist natürlich ein Risiko und funktioniert nur wenn A2 fehlerfrei ist, ansonsten hat man viel Gelder verpulvert.

Funktioniert aber alle erspart man sich einige Zeit und ich kann mir durchaus vorstellen das NV in der heutigen Situation das Risiko eingeht.

Vor allem wenn es "nur" an den Taktfrequenzen scheitert ist das Risiko garnicht mal so groß. GT300 dürfte wohl auch mit niedrigen Taktfrequenzen ATI Paroli bieten können und man könnte das "echte" highend-Produkt immer noch ein paar Monate später nach dem nächsten Respin launchen.

Gaestle
2009-10-14, 11:14:58
Ich glaube auch, dass uns NV noch 4/5 Monate oder so erzählen wird, dass er "bald" bzw. "demnächst" kommt und dass er "alles umhaut" bzw. Rv870 deutlich versägt. Das werden sie nach meiner Vermutung mit gezielten "leaks" machen, die sich über die Foren und die Speku-Seiten wie ein Lauffeuer verbreiten.

Damit wird die Gerüchteküche und der Fokus entsprechend lange auf Fermi aufrecht erhalten, die tatsächlich existierende RV870 wird in den Hintergrund gedrängt und das Marketing funktioniert mal wieder perfekt.

Ailuros
2009-10-14, 11:19:30
Marketing hin und her jeglicher Normalverbraucher der heute aufruesten will wird wohl was genau kaufen?

igg
2009-10-14, 11:22:35
Ein bisschen Futter:
Nvidia partners have high hopes that GF100, Fermi chip, should end up as a good one and they are already ordering some huge quantities of it.
...
Nvidia and its partners believe that Fermi should destroy Radeon 5870 and 5850 sales, but this is only once when Fermi starts shipping and it strongly depends on the quantities of what Nvidia can deliver. Until then ATI will be making quite a lot of money on 58x0 and 57x0 series.
Fudzilla (http://www.fudzilla.com/content/view/15955/34/)
Nvidia's mainstream market version of its GT300 / Fermi chip is scheduled for a Q1 2010 launch. This is not particularly good news for the company as ATI is already shipping its mainstream card based on the Juniper chip at pricing around €130 / $169 for the more expensive parts. Of course, we are talking about the HD 5770 and HD 5750 that both started shipping yesterday.


In perspective, Fermi will be released as a performance chip card, a high-end single chip card, and a dual-GPU card that might launch a few weeks later.

When it comes to entry level and mainstream segments, we will most likely have to wait until around March, if not even later. Despite the huge flexibility of Nvidia's Fermi GF100 architecture, it still takes time to derive slower performing chips from the original design.
Fudzilla (http://www.fudzilla.com/content/view/15954/34/)

Black-Scorpion
2009-10-14, 11:24:48
Wenn ich AIL gestern richtig verstanden habe fehlen jetzt etwa 200MHz zum Gleichstand.
Da das Risiko einer Massenproduktion zu starten wäre schon ein kranker Versuch.
Da kommt man auch mit der beten und hoffen Methode nicht weit.

AnarchX
2009-10-14, 11:26:58
Wenn ich AIL gestern richtig verstanden habe fehlen jetzt etwa 200MHz zum Gleichstand.

~650MHz wären ein vernünftiges Performanceziel, bei ~450MHz wäre wohl man meist nur gleich-auf mit Cypress. Und laut den Chinesen ist man momentan wohl bei 495MHz.

Undertaker
2009-10-14, 11:27:09
War der break even nicht bei 500MHz? Dann würde man aktuell ja bei nur 300MHz herumdümpeln, dass ist doch kaum vorstellbar... :confused:

Edit: Zu spät...

igg
2009-10-14, 11:30:58
Und laut den Chinesen ist man momentan wohl bei 495MHz.
War das nicht vor einigen Monaten so?

Alternative Strategie: Man bringt im Dezember den Fermi mit 500 MHz (10 % schneller als Cypress, aber PhysX, CUDA, ...) und dann Q1/Q2 im nächsten hoffentlich besseren Stepping eine Ultra. Wäre vermutlich besser als den Markt ganzt ATI zu überlassen.

Ailuros
2009-10-14, 11:33:02
Wer zum Teufel bestellt schon jetzt noch nicht fertige chips?

reunion
2009-10-14, 11:34:28
Beim A1 Stepping wird nicht nur die Taktrate das Problem sein. Ein A2 braucht mal allemal noch um die Yields auf ein brauchbares Niveau zu hieven, um Bugs zu beseitigen und um die anstierten Taktraten eben zumindest halbwegs zu erreichen. Wenn A2 fehlerfrei ist wird man ihn sicherlich bringen, auch wenn man die Taktraten nicht erreicht um etwas gegen ATi zu haben wie du schon sagst.

reunion
2009-10-14, 11:35:34
Wer zum Teufel bestellt schon jetzt noch nicht fertige chips?

Vielleicht weil man jetzt schon weiß das es zu beginn kaum Chips gibt und wer mehr bestellt bekommt vielleicht ein größeres Stück vom Kuchen. :D

V2.0
2009-10-14, 11:48:57
Wer zum Teufel bestellt schon jetzt noch nicht fertige chips?

Die exklusiven Partner, die keine G200b mehr bekommen? :D

Ailuros
2009-10-14, 11:49:04
~650MHz wären ein vernünftiges Performanceziel, bei ~450MHz wäre wohl man meist nur gleich-auf mit Cypress. Und laut den Chinesen ist man momentan wohl bei 495MHz.

Der Chinese behauptete bei 495/1100/1000 ungefaehr 10k in 3dfart Extreme Vantage. Was die Meldung zweifelhaft macht ist dass er behauptet dass sie mit hoeheren Frequenzen das Ding nur mit Wasserkuehlung liefern koennten.

Sonst spielt mit dem ueblichen unzuverlaessigem Scheiss rum:

http://www.youtube.com/watch?v=10xKBSEEvwQ

deekey777
2009-10-14, 11:54:20
Ich verweise mal auf http://www.evga.com/forums/tm.asp?m=100960237&mpage=1.
Noch Fragen?

igg
2009-10-14, 11:59:49
Ich verweise mal auf http://www.evga.com/forums/tm.asp?m=100960237&mpage=1.
Noch Fragen?
Ja:
1. Ist der Post fake?
2. Was ist das für eine Karte die er getestet hat?

Ailuros
2009-10-14, 12:04:05
Ja:
1. Ist der Post fake?
2. Was ist das für eine Karte die er getestet hat?

Er verweisst auf einen inhaltslosen Link fuer das was er behauptet LOL.

AnarchX
2009-10-14, 12:08:41
Aber seine F@H Statistik ist real.
Entweder hat da NV für einen Marketing-Gag ~30 Teslas zu Verfügung gestellt oder es handelt sich doch um Fermi, der hier wohl ~3-mal so schnell faltet. Wobei GPU-Client 3 wohl auch generell etwas schneller ist.

Hübie
2009-10-14, 12:09:49
Bisher ist doch eh alles nur Blah Blah. Der Typ im EVGA-Forum hat auch nur einen Post. Also bitte...
Sülzen kann ich auch viel wenn der Tag lang ist. Und die Pimmelbalken im Youtube-Video kann man auch auf eine Minute zusammenstülpen. Es lebe die Pausenfunktion. Das hat man davon wenn man Fanboys Video machen läst :rolleyes:
Ich bezweifel auch nicht, dass nVidia es wieder schafft schneller zu werden, aber was spricht jetzt noch für ne nVidia die ~10% schneller ist aber wieder mal 30% teurer!?! Das Filterargument ist so gut wie beseitigt und PhysX wird wohl langsam aber sicher verschwinden.

bye Hübie

deekey777
2009-10-14, 12:09:54
Ja:
1. Ist der Post fake?
2. Was ist das für eine Karte die er getestet hat?
Ich bin mir nicht sicher, ob der Schwachsinn das Prädikat "Fake" überhaupt verdient. Denn es ist so ein Schwachsinn, was er von sich gibt. Wenn man schon etwas faken will, dann sollte man sich etwas mehr Mühe geben.

Aber hey: Wie lange wird es dauern, bis der Mist als News verkauft wird? Ich glaube, man sollte den Link an Theo V. weiterleiten, der hält sich ja für einen F@H-Experten, insbesondere wenn es darum geht, auf die schlechte Radeon-Performance hinzuweisen.

Gast
2009-10-14, 12:15:27
War das nicht vor einigen Monaten so?

Alternative Strategie: Man bringt im Dezember den Fermi mit 500 MHz (10 % schneller als Cypress, aber PhysX, CUDA, ...) und dann Q1/Q2 im nächsten hoffentlich besseren Stepping eine Ultra. Wäre vermutlich besser als den Markt ganzt ATI zu überlassen.

Toll das alle 20 Seiten die selbe Idee wieder neu aufgesuplt wird *g
Der Thread wiederholt sich nur noch...

Hübie
2009-10-14, 12:20:41
Auch schon gemerkt lieber Gast :smile:

bye Hübie

deekey777
2009-10-14, 12:45:04
Aber seine F@H Statistik ist real.
Wenn pro Machine nur sechsehn IDs vergeben werden, wie sollen dann 32 Clients auf einer Grafikkarte laufen?
Sieben Fermis in einem Rechner? Hm...
Wieso sind seine PPDs so niedrig?
Überhaupt: Die Behauptung, dass pro SM 2 Clients laufen, macht keinen Sinn.

Entweder hat da NV für einen Marketing-Gag ~30 Teslas zu Verfügung gestellt oder es handelt sich doch um Fermi, der hier wohl ~3-mal so schnell faltet. Wobei GPU-Client 3 wohl auch generell etwas schneller ist.
Oder es ist ein kleiner Wichtigtuer, der irgendwo 204 Clients (zB ein Internet-Cafe oder Schule usw) mit seinem F@H-Nick gestartet hat.

Gast
2009-10-14, 13:07:29
Das Filterargument ist so gut wie beseitigt und PhysX wird wohl langsam aber sicher verschwinden.


Das Filterargument ist überhaupt nicht beseitigt, die eh schon vernachlässigbare Winkelabhängigkeit wurde zwar nun komplett ausgebügelt, dafür flimmert es munter weiter.

PhysX lässt sich schwer abschätzen, ist aber momentan eher aufsteigend.

PulsarS
2009-10-14, 13:26:25
Das Filterargument ist überhaupt nicht beseitigt, die eh schon vernachlässigbare Winkelabhängigkeit wurde zwar nun komplett ausgebügelt, dafür flimmert es munter weiter.
Es flimmert laut den meisten Reviews weniger als vorher, also minimal und auch nicht immer. Es ist eher die Ausnahme und nicht die Regel.

btw hast du schon mal Risen (Demo) ohne Transparenz-AA gesehen?
DAS ist Flimmern :eek:
Die Vegetation meine ich ;)

PhysX lässt sich schwer abschätzen, ist aber momentan eher aufsteigend.
Das würde mich aber wundern... ich würde eher sagen, dass die Tendenz absteigend ist.

Gast
2009-10-14, 13:45:59
Es flimmert laut den meisten Reviews weniger als vorher, also minimal und auch nicht immer. Es ist eher die Ausnahme und nicht die Regel.

Schon die AF-Videos gesehen?

Der Unterschied zwischen den ATI-Generationen ist minimal, man spart wohl noch immer ähnlich viele Samples, durch das genauere LOD wirkt es sich aber weniger aus.

Der Unterschied zwischen den ATI-Karten und den Geforces ist dagegen gigantisch, da nützt die nominell schönere AF-Blume von ATI bei 16x auch nichts.

tombman
2009-10-14, 13:47:49
Sonst spielt mit dem ueblichen unzuverlaessigem Scheiss rum:

http://www.youtube.com/watch?v=10xKBSEEvwQ
Fake, 75fps in Crüsis geht bei den settings mit keiner Cpu der Welt....

w0mbat
2009-10-14, 13:48:54
Ja, die GF Karten haben die super schöne "Bugwelle" -.-

Dural
2009-10-14, 13:57:41
Fake, 75fps in Crüsis geht bei den settings mit keiner Cpu der Welt....

dazu braucht es nicht mal ein i7 :wink:

boxleitnerb
2009-10-14, 14:01:38
HQ und weg isse. Lass das Stänkern mal :)

PulsarS
2009-10-14, 14:03:54
Schon die AF-Videos gesehen?
Klar. :)

Der Unterschied zwischen den ATI-Generationen ist minimal, man spart wohl noch immer ähnlich viele Samples, durch das genauere LOD wirkt es sich aber weniger aus.

Der Unterschied zwischen den ATI-Karten und den Geforces ist dagegen gigantisch, da nützt die nominell schönere AF-Blume von ATI bei 16x auch nichts.
Aha... der Unterschied zwischen Geforce und ATI ist gigantisch?
Und von 4800er zu 5800 minimal? :rolleyes:

Für mich ist beides ein kleiner Unterschied.
Deine Wortwahl solltest du vielleicht überdenken, sonst wirkst du unglaubwürdig. Zumindest unter denen, die sich auskennen.

Aber BTT, ist hier ein wenig OT, sorry. :)

Raff
2009-10-14, 14:11:45
Ja, die GF Karten haben die super schöne "Bugwelle" -.-

Klar, immerhin wird brilinear gefiltert. Bei Ati ist's aber nach wie vor schlimmer. Die Unterschiede sind jedoch verschmerzbar. Nicht perfekt ist eben nicht perfekt. HQ FTW.

MfG,
Raff

Gast
2009-10-14, 14:21:02
http://www.google.ch/search?q=ADHD&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a

ADS/ADHD = Aufmerksamkeitsdefizitsyndrom/Hyperaktiv-blablabla

Spasstiger
2009-10-14, 14:31:17
OK, auch ECC hat seine Grenzen und kann nur bei zu einer bestimmten Anzahl an Bitfehlern korrigieren, für die Praxis dürfte das aber ausreichen, denn bei mehr Bitfehlern ist der Speicher oder die GPU ohnehin Schrott und muss ersetzt werden.
ECC kann nicht garantieren, dass die ALUs fehlerfrei arbeiten. ECC verringert nur die Wahrscheinlichkeit von Speicherfehlern.
Wenn man die Wahrscheinlichkeit von Rechenfehlern durch die ALUs reduzieren möchte, muss man die Rechnungen redundant ausführen, d.h. auf zwei ALU-Sätzen parallel. Nur wenn beide ALU-Sätze das gleiche Ergebniss liefern, ist es mit großer Wahrscheinlichkeit korrekt.

Gast
2009-10-14, 14:52:38
Wird man sicher auch so machen nur stellt euch mal die Supercomputer mit Speicher im Tera/villeicht sogar Peta Bereich vor, schön dezentralisiert, und ohne Ecc = :ugly:

Gast2
2009-10-14, 14:57:33
Toll das alle 20 Seiten die selbe Idee wieder neu aufgesuplt wird *g
Der Thread wiederholt sich nur noch...

@anderer Gast
Die letzten Seiten befasste sich mit Frequenzen und den Sinn der neuen Features von Fermi für einen Ottonormalverbraucher.
Ich selbst habe eine GTX285, aber bin trotzdem mehr als skeptisch wegen dem GT300. Sie schaffen zur Zeit nichtmal die nötigen Frequenzen um tatsächlich eine 5870 zu erreichen geschweige zu überholen. Wenn ich mir dann noch das OC-Potenzial des 5870 anschaue, ist eine 5890 reine Formsache, genauso wie Intel schon lange hätte den 4Ghz Nehalem im Portfolio haben könnte.

@Tombman
Das ganze Profizeugs das kommen wird, ist gleichzeitig auch ein Hemniss, denn Frequenzen usw. werden nach oben in Stein gemeiselt sein. Klar zum Strom sparen wird viel nach "unten" gehen. Der Profimarkt braucht keine OC-Modding-Kids sondern verlässliche Hardware.

Gast
2009-10-14, 15:21:40
Klar. :)

Aha... der Unterschied zwischen Geforce und ATI ist gigantisch?
Und von 4800er zu 5800 minimal? :rolleyes:

Sieh dir doch einfach diese Videos an (bitte unskaliert!): http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Zwischen den beiden Radeons ist mit freiem Auge nichtmal ein Unterschiede feststellbar, die Geforce ist einfach meilenweit besser.

Menace
2009-10-14, 15:36:04
Sieh dir doch einfach diese Videos an (bitte unskaliert!): http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Zwischen den beiden Radeons ist mit freiem Auge nichtmal ein Unterschiede feststellbar, die Geforce ist einfach meilenweit besser.

Allerdings hat auch ht4u gesagt, dass es als Video viel schlimmer aussieht, als wenn man live vor dem Bildschirm sitzt. Was diesen Unterschied verursacht, konnten sie sich auch (noch) nicht erklären. Und dass die Filterleistung sich gebessert hat, sagen doch alle, die nicht vom "hörensagen" reden, sondern selbst so eine Karte getestet haben. Hm, wem soll ich jetzt glauben. ;)

Gast
2009-10-14, 15:38:01
Sieh dir doch einfach diese Videos an (bitte unskaliert!): http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Zwischen den beiden Radeons ist mit freiem Auge nichtmal ein Unterschiede feststellbar, die Geforce ist einfach meilenweit besser.
du vergißt allerdings das hier http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index8.php

mapel110
2009-10-14, 15:40:23
Hm, wem soll ich jetzt glauben. ;)
Den Leuten, die Ahnung haben? zb Coda, der das Tool für die Videos geschrieben hat?!

Wer sich nach beispielsweise einer 4870 eine 5870 gekauft hat wegen DX11 und 30 % mehr Performance für 250 € Aufpreis, ist meiner Meinung nach sowieso nicht objektiv.
/edit
Falsche Zahlen im Kopf. Ignorieren bitte.

reunion
2009-10-14, 15:42:38
4870 auf 5870 30% mehr Performance?

PulsarS
2009-10-14, 15:46:03
Sieh dir doch einfach diese Videos an (bitte unskaliert!): http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Zwischen den beiden Radeons ist mit freiem Auge nichtmal ein Unterschiede feststellbar, die Geforce ist einfach meilenweit besser.
Ich habe mir diese Videos schon mal angesehen, kann es zur Zeit aber leider nicht da es hier auf der Arbeit nicht geht. :(

Aber das ist auch ein konstruiertes Beispiel, praktisch worst case.
Mich interessiert eher wie es in Spielen aussieht, deswegen finde ich folgenden Artikel besser:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/

Warst du es nicht, der die Qualität de AF-Blume als unwichtig eingestuft hat?
Aber der Filtertester ist ok?
Schöne Doppelmoral. ;)

mapel110
2009-10-14, 15:52:16
Warst du es nicht, der die Qualität de AF-Blume als unwichtig eingestuft hat?
Aber der Filtertester ist ok?
Schöne Doppelmoral. ;)
Die AF-Blume zeigt nur an, welche Textur-Samples genommen werden können, nicht wie viele tatsächlich angewendet werden. Das macht Codas Filtertester. Da ist also nix mit Doppelmoral.

Menace
2009-10-14, 15:56:58
Den Leuten, die Ahnung haben? zb Coda, der das Tool für die Videos geschrieben hat?!


Die Frage ist doch, ob der subjektive Eindruck stimmt oder ob es ein Placebo-Effekt ist. Tools können helfen, Placebo-Effekte aufzudecken, aber letztlich entscheidet eben der subjektve Eindruck (übrigens ein typisches Phänomen, in dem Kameras nach standardisierten Messmethoden positiv bewertet werden, deren subjektive Bildeindruck eine Katastrophe ist; deshalb machte ich auch schon einen schönen Fehlkauf eines Camcorders (sehr gute Test, dank vorzüglicher Werte, katastrophales wirkliches Bild). Dabei ist Subjektiv Seheindruck für das Auge meist objektiver als irgendwelche Zahlen.


Wer sich nach beispielsweise einer 4870 eine 5870 gekauft hat wegen DX11 und 30 % mehr Performance für 250 € Aufpreis, ist meiner Meinung nach sowieso nicht objektiv.

Stimmt, Du und einige andere hier sind was Ati-Karten angeht, objektiver. ;)

LovesuckZ
2009-10-14, 15:59:11
Das muss der Grund sein, warum AMD User zwar einen deutlichen Unterschied zwischen 4xMSAA und 8xMSAA in hohen Auflösungen wahrnehmen, aber bei HQ -> A.I Standard der ihnen meisten verwehrt blieb. :lol:

Coda
2009-10-14, 16:08:40
Warst du es nicht, der die Qualität de AF-Blume als unwichtig eingestuft hat?
Nö, das war ich (bzgl. 4870 ggü 5870). Und ich seh das auch nach wie vor so.

mapel110
2009-10-14, 16:12:35
Stimmt, Du und einige andere hier sind was Ati-Karten angeht, objektiver. ;)
Ich hab nie den Anspruch erhoben, objektiv zu sein. Das tut beispielsweise eher Coda. Er hat ja auch eine aktuelle ATI-Karte im Rechner.

Coda
2009-10-14, 16:14:23
Wirklich objektiv ist niemand. Schon allein die persönlichen Präferenzen was man nutzen will verzerren die Meinung immer.

Ich hab auch noch keine HD5000 live gesehen, von daher bin ich da auch vorsichtig mit Urteilen ;)

Menace
2009-10-14, 16:15:26
Nö, das war ich (bzgl. 4870 ggü 5870). Und ich seh das auch nach wie vor so.

Du hast doch eine 5870er getestet. Wie ist Dein subjektiver Bildeindruck bzgl. der Filterleistung (also was Du siehst, nicht was Du misst)?

PulsarS
2009-10-14, 16:15:41
Die AF-Blume zeigt nur an, welche Textur-Samples genommen werden können, nicht wie viele tatsächlich angewendet werden. Das macht Codas Filtertester. Da ist also nix mit Doppelmoral.
Es geht mir darum, dass beide Programme theoretisch sind und es in Spielen anders aussieht oder aussehen kann:

"Gute vier Tage haben wir (hier auch ein Dank an Coda vom 3DCenter) damit zugebracht in Spielen entsprechende Szenen herauszupicken aufzuzeichnen und auszuwerten. Dummerweise zeigten die Aufzeichnungen dann nicht mehr das, was sich im Spiel tatsächlich ereignete...

Subjektiv wollen wir aber erklären, dass unser Eindruck in den angesprochenen Tests war, dass sich das unter eine Radeon HD 4890 angetroffene Textur-Flimmern in manchen Szenen bei weitem nicht mehr so deutlich mit der Radeon HD 5870 wahrnehmen ließ"
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index8.php

Aber wie ich schon sagte, lasst Spiele sprechen und nicht irgendwelche Tools. :)

Coda
2009-10-14, 16:16:29
Du hast doch eine 5870er getestet.
Nein. Ich weiß nur, dass alle die es gesehen haben der Meinung sind, dass der Filter wohl homogener ist. Bei den 4000er gibt es nämlich bestimmte Verzerrungsgrade die besonders schlimm sind (Lustigerweise wird es mit 16x sogar oft schlimmer als mit 8x - ein Schelm der böses denkt).

Der "best case" Filter (A.I. off) ist aber auf der HD5000 nicht besser als HD4000.

Spasstiger
2009-10-14, 16:29:08
dazu braucht es nicht mal ein i7 :wink:
Beweis das mal. In den integrierten Benchmarks von Crysis erreicht keine aktuelle CPU ohne Übertaktung auf sehr hohen Details 75 fps im Schnitt.
Der Autor des Videos hat außerdem den Fake zugegeben.

Hübie
2009-10-14, 16:43:48
Ui da hab ich wohl wieder nen Troll gefüttert :( Ich habe absichtlich geschrieben dass das Filterargument so gut wie beseitigt ist. Selber in Aktion hab ichs nicht gesehen, aber wenn alle das schreiben plapper ich das doch mal nach weil ich denke dass es stimmt.
Also lieber Gast: Ich wollte mit meinem post lediglich ausdrücken, das nVidia erstmal am Arsch ist!

bye Hübie

StefanV
2009-10-14, 16:46:59
Ja:
1. Ist der Post fake?
2. Was ist das für eine Karte die er getestet hat?
1. Keine Ahnung.
2. Ev. eine EVGA Fermi Karte?
Wobei ich bezweifle das er an 7 Karten gekommen ist.

Coda
2009-10-14, 16:49:47
Ich wollte mit meinem post lediglich ausdrücken, das nVidia erstmal am Arsch ist!
Das werden wir dann sehen wenn die Karten auf dem Markt sind.

Ich halte es für unwahrscheinlich, dass es beim GT200b gegen RV770 Verhältnis bleibt was Perf/mm² angeht.

Gast
2009-10-14, 16:51:37
Hab gerade danach gegoogelt; kein besonderer Unterschied zum Charlie Brown Syndrom dann ;)

vielleicht sollten wir ihm zum Allgemeinwohl eine Priese Ritalin anbieten? ;)

Soundwave1983
2009-10-14, 17:19:17
Wobei ich bezweifle das er an 7 Karten gekommen ist.


Wo doch der 7. Chip nur als "Vorzeigeobjekt" diente und der rest mit den anderen Tintenfischen im Engineering Sample Pool schwimmt. ;D


Sollte eine einzige Person es schaffen, heute gleich sieben Fermi-Karten zu bekommen, müssten die Yields ja nicht nur traumhaft sein, sondern nV regelrecht in Karten schwimmen ( siehe oben ;D ).
Entweder das ist ein nV Mitarbeiter, oder -meine Meinung- das ganze ist ein weiterer von vielen Versuchen, das 15 Minutes of Fame Achievement zu erreichen.

tombman
2009-10-14, 17:33:23
Ich halte es für unwahrscheinlich, dass es beim GT200b gegen RV770 Verhältnis bleibt was Perf/mm² angeht.
Du meinst, es wird besser? :eek:
Kann ich mir kaum vorstellen.

Alles was besser als eine Asus Mars (= GTX285 SLI) ist, würde mich doch sehr wundern- außer es kommt erst im März, weil dann isses sowieso egal- viel zu spät.

reunion
2009-10-14, 17:44:18
Du meinst, es wird besser? :eek:
Kann ich mir kaum vorstellen.

Alles was besser als eine Asus Mars (= GTX285 SLI) ist, würde mich doch sehr wundern- außer es kommt erst im März, weil dann isses sowieso egal- viel zu spät.

Du hast nicht verstanden was er geschrieben hat. Beim Perf/mm² (Die-Fläche) Verhältnis war GT200b ggü. RV770 deutlich unterlegen. Wenn hier NV ein ähnliches Verhältnis wie RV870 hinbekommen würde wäre das schon ein Erfolg und würde reichen um einen ~40% Vorsprung auf RV870 zu erreichen. Analog zum ~40% größeren Die.

Coda
2009-10-14, 17:45:56
Du meinst, es wird besser? :eek:
Aber sicher muss sich da was tun. GT200 war da äußerst schlecht. Was laut letzten Gerüchten wohl vor allem auch an der Speicherarchitektur lag, neben dem zu geringen ALU-Takt.

Wenn hier NV ein ähnliches Verhältnis wie RV870 hinbekommen würde wäre das schon ein Erfolg und würde reichen um einen ~40% Vorsprung auf RV870 zu erreichen. Analog zum ~40% größeren Die.
Eigentlich sollte man am besten aufgrund des Investitionsaufwand in die Architektur sogar mehr hinbekommen. Aber das wird man sehen.

Als einziges Problem das sie wirklich aufhalten könnte sehe ich Takt-/Fertigungsprobleme/Nachteile. Ansonsten werden sie wohl dominieren.

tombman
2009-10-14, 17:50:26
Ähhm, das letzte quote war nicht von mir :ugly:

Coda
2009-10-14, 17:56:14
Sorry, bei >20000 Posts darf das mal passieren, oder ;)

reunion
2009-10-14, 17:59:08
Eigentlich sollte man am besten aufgrund des Investitionsaufwand in die Architektur sogar mehr hinbekommen. Aber das wird man sehen.

Als einziges Problem das sie wirklich aufhalten könnte sehe ich Takt-/Fertigungsprobleme/Nachteile. Ansonsten werden sie wohl dominieren.

NV hat schon immer deutlich mehr investiert, auch bei GT200. Sie fertigen beim selben Auftragsfertiger, in den selben Fertigungshallen, in der gleichen Strukturbreite, im exakt selben Prozess-Node. Wenn solche Probleme bestehen muss es entweder beide betreffen oder das Design ist Schuld.

Coda
2009-10-14, 18:00:50
NV hat schon immer deutlich mehr investiert, auch bei GT200.
Quelle? Das wiederholst du immer wieder, aber irgend eine Faktenlage hast du dafür nicht. So sieht das Ding nämlich überhaupt nicht aus. DP-ALUs am gleichen Port wie die anderen und sonst alles nur in die Breite gezogen. Da ist wohl kaum viel extra Verilog geschrieben worden ggü. G80.

RV770 hat dagegen überarbeitete ROPs, überarbeitete TMUs, viel bessere Compute-Density (und das erreicht man nicht nur durch anderes hinsortieren den Transistoren), neue Speichercrossbar, Local&Global Storage, direkter Support für Compute-Shader, GDDR5, etc. Die Änderungen waren viel weitreichender. RV870 dagegen ist wieder ein recht klarer Refresh.

Sie fertigen beim selben Auftragsfertiger, in den selben Fertigungshallen, in der gleichen Strukturbreite, im exakt selben Prozess-Node. Wenn solche Probleme bestehen muss es entweder beide betreffen oder das Design ist Schuld.
Habe ich etwas anderes behauptet?

reunion
2009-10-14, 18:05:42
Quelle?


Erwartest du jetzt das ich dir für jedes Quartal der letzten Jahre die Zahlen vorkaue? Die RnD Ausgaben sind öffentlich zugänglich.

Coda
2009-10-14, 18:06:22
Erwartest du jetzt das ich dir für jedes Quartal der letzten Jahre die Zahlen vorkaue? Die RnD Ausgaben sind öffentlich zugänglich.
Ja, aber nicht wofür sie ausgegeben wurden. Da floss das meiste wohl seit G80 in Fermi.

reunion
2009-10-14, 18:08:45
Ja, aber nicht wofür sie ausgegeben wurden. Da floss das meiste wohl seit G80 in Fermi.

Auch ATi hatte Rv870 zu entwickeln. Natürlich kann NV die Ressourcen anders verteilen als ATi. Aber NV investiert seit mindestens zehn Jahren konstant erheblich mehr in RnD als ATi.

Coda
2009-10-14, 18:09:28
Auch ATi hatte Rv870 zu entwickeln.
Und was tut das zur Sache?

Das GT200b rein vom Designaufwand viel weniger Arbeit erfordert hat als ein RV770 ist für jeden objektiven Beobachter offensichtlich. Wo sonst ist also das ganze Geld geflossen seither?

Wenn GT200b viel Geld gebraucht hat, dann für's Tapeout, weil der Chip so riesig ist. Das bindet aber andere Leute, als die die in Verilog oder am Reißbrett an der Logik basteln.

Und das was NVIDIA bisher gezeigt hat bestärkt mich in der Ansicht ebenso. Weder Blockdiagramm noch Die sehen so aus als wäre da ein Transistor nicht zweimal umgedreht worden. Selbst RV770 hatte da noch mehr Ähnlichkeit zu seinen Vorfahren.