PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Ailuros
2010-01-28, 13:27:27
Gab es denn schon ein Foto mit einem 6+8pin Stecker von einem Produktionssample? Bisher waren doch alles nur early engineering samples udn da ist es ja normal, dass da erstmal 6+8 drauf sind und später am Produktionsmodell nur 2*6

Nein. Wie ich schon sagte sie gehen zum pressen erst Anfang Februar. Die board design Einzelheit bzw. TDP kommt von AMD. NV hat es bis jetzt auf jeden Fall nicht bestritten. Ich muss nochmal nachfragen; aber Du solltest auch bedenken dass der Unterschied zwischen 2*6 und 6+8 ziemlich gross ist.

edit
ist "B" dann die bezeichnung beim refresh?! ich dachte beim G200b kamen intern auch noch A1, A2, A3?! damit liege ich wohl falsch.

Ich bin jetzt zu faul mir Damien Triolet's Beitrag bei B3D zu suchen wo er bei einem Besuch bei NV von einer vollen Schachtel von toter 55nm GT200 chips einen mitnehmen durfte. Wenn A1 zu starke Probleme hat geht man wohl gleich auf einen respin.

V2.0
2010-01-28, 13:42:19
Man ersetzte wohl den zweiten Stromstecker nicht mit einem 8pin aus reinem Spass auf der GF380 oder? Ich kann mir nicht vorstellen dass eine 380 auch mit 2*6pin auskommen koennte und man setzte den 8pin ein fuer verrueckte Uebertaktungen.

Da bin ich mir gar nicht sicher. Für Tesla spezifizieren sie ja auch 2x6 oder 1x8 und verbauen 6 + 8 Pin.

Ailuros
2010-01-28, 13:48:05
Da bin ich mir gar nicht sicher. Für Tesla spezifizieren sie ja auch 2x6 oder 1x8 und verbauen 6 + 8 Pin.

Ja nur gibt aber auch NV selber nur 190W (typical) fuer die Tesla 20x0 an.

***edit: nur ein bisschen ueber den Tesla 10x0 der GT200 Serie aber diese hatten wohl auch einen fast gleichen hot clock wie die 285.

mapel110
2010-01-28, 13:58:52
Kann es sein, dass die Teslas kein Overvolting haben werden und deswegen die TDP geringer ist?!

Ich stelle mir die TDP bei GF100 so vor, dass sie mit der Übertaktungsfunktion ausgelegt ist. Bei der Dualchip-Variante lässt man dann das Spannungserhöhungfeature weg und bleibt relativ im Rahmen.

Gast
2010-01-28, 14:10:46
edit
ist "B" dann die bezeichnung beim refresh?! ich dachte beim G200b kamen intern auch noch A1, A2, A3?! damit liege ich wohl falsch.


Ax=65nm und Bx=55nm (beim G200)

Ailuros
2010-01-28, 14:19:52
Kann es sein, dass die Teslas kein Overvolting haben werden und deswegen die TDP geringer ist?!

Nicht schlecht nur haben Teslas schon 1.05V http://www.semiaccurate.com/2009/12/21/nvidia-castrates-fermi-448sps/

Ich stelle mir die TDP bei GF100 so vor, dass sie mit der Übertaktungsfunktion ausgelegt ist. Bei der Dualchip-Variante lässt man dann das Spannungserhöhungfeature weg und bleibt relativ im Rahmen.

Und man steigt dafuer von 2*6pin auf 6+8pin? Mir wuerde es zwar durchaus passen es zu glauben, aber so optimistisch bin ich nicht.

Gast
2010-01-28, 14:20:29
Kann es sein, dass die Teslas kein Overvolting haben werden und deswegen die TDP geringer ist?!

Die TDP wird nie und nimmer irgendwelche Overvolting oder Overclockingresultate berücksichtigen.

Gast
2010-01-28, 14:21:54
Die TDP wird nie und nimmer irgendwelche Overvolting oder Overclockingresultate berücksichtigen.

Nachtrag: Die Teslas sind ja auch deutlich abgespeckt und niedrig getaktet und haben schon 225W TDP. Man braucht kein Hellseher zu sein um zu wissen wo eine 512SP-Version mit mehr Takt liegt.

Bucklew
2010-01-28, 14:24:06
Nein. Wie ich schon sagte sie gehen zum pressen erst Anfang Februar. Die board design Einzelheit bzw. TDP kommt von AMD. NV hat es bis jetzt auf jeden Fall nicht bestritten. Ich muss nochmal nachfragen; aber Du solltest auch bedenken dass der Unterschied zwischen 2*6 und 6+8 ziemlich gross ist.
Ich vertraue AMD jetzt nicht so wirklich, was solche Werte angeht. Wenn sie sagen, dass die Performance des Fermi sehr gut wird glaub ich ihnen das wohl, wenn sie sagen, dass er sehr warm wird eher nicht. Wird ja auch so vom AMD-FUDboy Charlie so erzählt und passt gut ins aktuell ATI-FUD ;)

Der Unterschied zwischen 2*6 und 6+8 sind 75W. 6+8 wäre eine 300W Karte, 2*6 eine 225W. Wenn die große Fermikarte wirklich 6+8pin hat rechne ich eher mit 240W TDP, als mit 280.

mapel110
2010-01-28, 14:47:26
Die TDP wird nie und nimmer irgendwelche Overvolting oder Overclockingresultate berücksichtigen.
Wieso nicht?! Wenn dieses Feature ja offenbar von der Gewährleistung betroffen ist und vom Hersteller beworben wird? nvidia hat damit jedenfalls groß rumgewedelt via Twitter/Facebook.

aylano
2010-01-28, 14:52:12
@Ailuros
Wenn GF380 wirklich 280Watt-TDP machen, dann macht eine Dual-Karte überhaupt keinen praktischen Sinn, da der TDP-Wert eben schon (fast) bei 300 Watt liegt.

ATI musste den Takt reduzieren und die Spannung um 0,1 Volt senken und das bei inoffiziellen 210Watt-TDP von HD 5870.
Damit konnten sie 30% im TDP einsparen um bei der Dual die 300 Watt-TDP zu erreichen.

Und wenn Nvidia den Takt & Spannung so reduzierte wie AMD bei RV870, dann kommen sie gearde auf 400 Watt-TDP und das ist dann nur mehr für Extrem-Freaks.

Wobei die Spannungssenkung in diesen Tiefen, in den Nvidia sich da schon bewegt, auch nicht mehr so einfach ist und angeblich soll GT300 ja so viele Hot-Clocks haben, bei den AFAIK sich die Spannungssenkungen auch nicht so wirksam ist.
Daher ist diese 30%-Watt-TDP-Einsparung schon fraglich.

Praktsich gesehen, hätte ein Fermi-Dual überhaupt keinen Sinn mehr, wenn GF 380 schon 280 Watt-TDP.
Der wäre dann so bedeutend für den Markt, wie es Mars war.

Dural
2010-01-28, 14:57:31
hier wird doch tatsächlich drüber diskutiert ob eine Dual GPU GF100 Karte weniger Einheiten haben wird wegen der TDP?!? Mal eine ernsthafte frage, sind wir hier im computerbild forum?

Wenn Dual GF100 mit weniger einheiten daher kommt gibt es dazu nur einen grund und der besteht aus kosten/ausbeute an GF100 Chips!

Eine volle GPU mit weniger Takt/Spannung wird immer effizienter sein als ein teildeaktiwierte GPU mit mehr Takt/Spannung, immer ohne ausnahme!

wenn NV eine vernünftige Dual GF100 Karte bringen wollen, dann sicher mit allen einheiten und low takt zb. auch nur 500/1000MHz und durch die besten Chips aus der Produktion (was die GX2 karten bi jetzt immer hatten) lässt man so Garantiert auch die 300TDP hinter sich...

tombman
2010-01-28, 15:04:12
Bei der GTX295 dachten auch alle, sie sei unmöglich, und trotzdem gings.
Genauso wirds auch bei der Dual-Fermi laufen...NV wird sicher keine Karte herausbringen, die nicht schneller als eine HD5970 ist...

Gast
2010-01-28, 15:08:33
Nachtrag: Die Teslas sind ja auch deutlich abgespeckt und niedrig getaktet und haben schon 225W TDP. Man braucht kein Hellseher zu sein um zu wissen wo eine 512SP-Version mit mehr Takt liegt.
6GiB statt 1,5GiB ist nicht gerade abgespeckt.
Die Dinger sind eben auf Stabilität und Zuverlässigkeit getrimmt, da fuchtelt man auch nicht wegen 0,05V mehr oder weniger rum.


Eine volle GPU mit weniger Takt/Spannung wird immer effizienter sein als ein teildeaktiwierte GPU mit mehr Takt/Spannung, immer ohne ausnahme!

Habe ich auch schon erwähnt aber das will keiner hören.
Einzig um ein paar W durch VRAM weglassen zu sparen ist es logisch ans SI gekoppelte Einheiten zu deaktivieren.

Dural
2010-01-28, 15:11:32
naja ich geh auch nicht davon aus das wir eine voll GX2 sehen werden, aber sicher nicht wegen der TDP sondern eben wegen den Kosten...

vielicht wird man es so lösen wie bei der GTX295: weniger ROPs und weniger Speicher.

Gast
2010-01-28, 15:13:58
Wieso nicht?! Wenn dieses Feature ja offenbar von der Gewährleistung betroffen ist und vom Hersteller beworben wird? nvidia hat damit jedenfalls groß rumgewedelt via Twitter/Facebook.

NV gewährleistet ein OC-Resultat? Das will ich sehen. Warum nimmt man dann nicht gleich default-mäßig diesen Takt? Und beworben wird auch von AMD schon lange jede Karte mit ihren tollen OC-Eigenschaften, es gibt von AMD sogar ein Tool um Takt und Spannung anzuheben.

Ailuros
2010-01-28, 15:23:26
hier wird doch tatsächlich drüber diskutiert ob eine Dual GPU GF100 Karte weniger Einheiten haben wird wegen der TDP?!? Mal eine ernsthafte frage, sind wir hier im computerbild forum?

Ich wuerde liebend gerne ja sagen zu Deiner letzten Frage eben weil Dein Ton u.a. eben genau auf ein solches Nivaeu degradiert.

Wenn NV Einheiten deaktivieren wuerde fuer das Ding dann eben eher weil die Verfuegbarkeit von 16 cluster chips eben nicht so hoch sein koennte, weil eben der Abstand von Februar zum hypothetischen April lediglich 2 Monate ist. 2 und nicht 1 chip auf einer SKU.

Erst die Frequenz ist tatsaechlich relevant und dann erst am Ende kann man die Bandbreite dem Resultat anpassen und noch zusaetzlich etwas Speicher sparen um die Kosten zu reduzieren.

Wenn Dual GF100 mit weniger einheiten daher kommt gibt es dazu nur einen grund und der besteht aus kosten/ausbeute an GF100 Chips!

Eine volle GPU mit weniger Takt/Spannung wird immer effizienter sein als ein teildeaktiwierte GPU mit mehr Takt/Spannung, immer ohne ausnahme!

wenn NV eine vernünftige Dual GF100 Karte bringen wollen, dann sicher mit allen einheiten und low takt zb. auch nur 500/1000MHz und durch die besten Chips aus der Produktion (was die GX2 karten bi jetzt immer hatten) lässt man so Garantiert auch die 300TDP hinter sich...

Ich hab sicherheitshalber nochmal nachgefragt wie der eigentliche TDP auf 380 aussehen wird und bekomm auch hoffentlich eine Antwort.

Uebrigens wenn's um 500/1000 ginge koennen sie sich die Muehe gleich sparen.

Dural
2010-01-28, 15:29:14
die mühle können sie sich eh gleich sparen, weil es im ende so laufen wird wie 5870 vs 5970...

Lieber Single Chip @ viel takt und von mir aus 300Watt TDP...

StefanV
2010-01-28, 15:36:49
Dem gegenüber steht die Aussage von Dave Baumann, dass Deaktivieren von Einheiten kaum Strom einspart.
Im Leerlauf sicher, aber unter Last schauts dann anders aus, IMO...

mapel110
2010-01-28, 15:38:34
Im Leerlauf sicher, aber unter Last schauts dann anders aus, IMO...
Bei seiner Aussage ging es definitiv um den Lastzustand. :rolleyes:

Gast
2010-01-28, 15:51:20
Bei der GTX295 dachten auch alle, sie sei unmöglich, und trotzdem gings.
Genauso wirds auch bei der Dual-Fermi laufen...NV wird sicher keine Karte herausbringen, die nicht schneller als eine HD5970 ist...
Wenn GTX 380 schon in die Nähe der 5970 kommt ist es sowieso ein leichtes.

Dural
2010-01-28, 16:01:52
also an die 280watt glaub ich eh nicht, dürfte wohl eher um die 250watt sein.

ist aber am ende auch egal, es zählt ja eh nur was sie wirklich verbraucht und nicht was die gtx380 für eine TDP hat, den um so höher die TDP ausglegt ist umso besser für den Kunden höhere Kühlleistung bessere Spannungsversorgung usw.

würde sagen verbrauch etwa gleich wie die gtx280, vileicht etwas mehr...

Gast
2010-01-28, 16:13:20
Vor kurzem hieß es noch das Ziel wäre maximal GTX 285 TDP.

tombman
2010-01-28, 16:20:48
Lieber Single Chip @ viel takt und von mir aus 300Watt TDP...
Das hauen wir mit OC raus ;)

Ich bin jedenfalls bald Triple-Fermi-Ready:

(noch lange nicht fertig)
http://www.abload.de/img/vorgeschmack-casemod6sbo.jpg

(http://www.abload.de/image.php?img=vorgeschmack-casemod6sbo.jpg)http://www.abload.de/img/vorgeschmack-casemod2fpif.jpg (http://www.abload.de/image.php?img=vorgeschmack-casemod2fpif.jpg)

:biggrin:

Botcruscher
2010-01-28, 16:24:14
Das letzte Bild mit Buch und Teppich hab ich gleich mal gespeichert. Neben dem Koffer ist das noch für unzählige Threads brauchbar. :freak:

mapel110
2010-01-28, 16:46:11
Metro33 wird am 16. März released. Da hat nvidia also auch rechtzeitig den passenden Vorzeigetitel. Man darf auf "Performance-Bugs" bei ATI gespannt sein. :biggrin:

aths
2010-01-28, 16:55:30
Glaubst du tatsächlich dass NV die ROPs deaktiviert hat weil Ihnen ein 2*512bit PCB für eine ~500€ Karte zu teuer war?Sicher – selbst die GTX 295 ist eine Massenkarte, in absoluten Stückzahlen gemessen. Später brachte Nvidia noch ein Lowcost-Design heraus (auf einem einzelnen PCB.)

Ailuros
2010-01-28, 20:19:12
Ich denke irgendwann werden einige schon merken dass es so nicht weiter gehen kann. Fuehrt Euren Kaffeekranz gerne weiter aber nicht mehr in diesem Thread.

Ailuros
2010-01-30, 23:11:23
Rein technische Debatte ueber die GF100 Architektur hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476133

Der Thread ist wieder offen. Der Thread im Technologie-Forum ist streng fuer architekturelle/technologische Aspekte von GF100 und wir werden auch dafuer sorgen dass er sich auch auf einem gewissen Nivaeu haelt. WENN DER THREAD HIER NOCH MAL AUSSER KONTROLLE GERATEN SOLLTE FLIEGT JEGLICHES OT/SPAM IN EINEN RELEVANTEN THREAD IN DER SPIELWIESE.

=Floi=
2010-01-31, 14:57:20
Ist die shaderleistung eigentlich ausreichend, oder ist es auch ein kompromiss im transistor-count? wenn ich mir da physx und andere rechenintensive szenarien ansehe, dann erscheinen mir diese 512 SPs doch ein bisschen wenig. je länger ich darüber nachdenke desto mehr finde ich das.

Mit der HD5870 @ 1Ghz kommt man auf 3,2GFlop und damit könnte man solche sachen wie physx und höhere shaderkomplexität sicherlich besser bewältigen.

Duplex
2010-01-31, 15:00:17
Wenn man die 5870 auf 1050/1300 taktet hat die GTX380 vielleicht nur noch 10% vorsprung
Also wenn die 5890 kommt, hat nvidia kein King mehr wie damals zu GT200 Zeiten

Gast
2010-01-31, 15:04:33
FLOPs sind eben nicht alles, man muss sie auch versorgen und auslasten. Und mehr Einheiten wären wohl auch immer schwerer hochtaktbar.
Natürlich ist es ein Kompromiss, so wie bei jedem Chip.

Gast
2010-01-31, 15:06:41
FLOPs sind eben nicht alles, man muss sie auch versorgen und auslasten. Und mehr Einheiten wären wohl auch immer schwerer hochtaktbar.
Natürlich ist es ein Kompromiss, so wie bei jedem Chip.

AMD kann die Einheiten doch ganz gut auslasten.
Das Problem ist eher, dass so gut wie Immer etwas Anderes limitiert las die Rechenleistung.

Botcruscher
2010-01-31, 15:08:54
Mit der HD5870 @ 1Ghz kommt man auf 3,2GFlop und damit könnte man solche sachen wie physx und höhere shaderkomplexität sicherlich besser bewältigen.

Ganz spekulativ wird das neben dem Marketing, auch einer der Gründe sein warum Hardware-Physx erst mal geschlossen bleibt.

Dural
2010-01-31, 15:10:35
ehm ja ATI hat die Shader Leistung um genau 100% erhöht, NV wird hingegen ca. 120% mehr Shader Leistung haben (ohne MUL) zu ihrem Vorgänger, also wie kommt man auf die Idee das NV mit GF100 zuwenig Shader Leistung hat als noch zu GT200 Zeiten? :rolleyes:

GT200: 710GFlops
RV790: 1360GFlops
GF100: ca. 1550GFlops
RV870: 2720GFlops

dildo4u
2010-01-31, 15:11:02
Ist die shaderleistung eigentlich ausreichend, oder ist es auch ein kompromiss im transistor-count? wenn ich mir da physx und andere rechenintensive szenarien ansehe, dann erscheinen mir diese 512 SPs doch ein bisschen wenig. je länger ich darüber nachdenke desto mehr finde ich das.

Mit der HD5870 @ 1Ghz kommt man auf 3,2GFlop und damit könnte man soche sachen wie physx und höhere shaderkomplexität sicherlich besser bewältigen.
Gerade bei Physx bzw Compute Shader hat Fermi whol ein Vorteil,weil neben der reinen Power das schnelle Umschalten wichtig ist.Fermi kann 10 mal(Gegenüber GTX285) so schnell zwischen Shaderberechnung,Physx und Computeshader umschalten.


"For seamless interoperation with graphics, GF100’s GigaThread engine reduces context switch time to
about 20 microseconds, making it possible to execute multiple compute and physics kernels for each
frame. For example, a game may use DirectX 11 to render the scene, switch to CUDA for selective ray
tracing, call a Direct Compute kernel for post processing, and perform fluid simulations using PhysX."

http://www.nvidia.com/object/IO_86775.html

Gast
2010-01-31, 15:18:52
ehm ja ATI hat die Shader Leistung um genau 100% erhöht, NV wird hingegen ca. 120% mehr Shader Leistung haben (ohne MUL) zu ihrem Vorgänger, also wie kommt man auf die Idee das NV mit GF100 zuwenig Shader Leistung hat als noch zu GT200 Zeiten? :rolleyes:

GT200: 710GFlops
RV790: 1360GFlops
GF100: ca. 1550GFlops
RV870: 2720GFlops

Es hat ja (glaube ich) niemand behauptet, dass es in der Vorgängergeneration besser war...

deekey777
2010-01-31, 15:35:16
Gerade bei Physx bzw Compute Shader hat Fermi whol ein Vorteil,weil neben der reinen Power das schnelle Umschalten wichtig ist.Fermi kann 10 mal(Gegenüber GTX285) so schnell zwischen Shaderberechnung, Physx und Computeshader umschalten.


"For seamless interoperation with graphics, GF100’s GigaThread engine reduces context switch time to
about 20 microseconds, making it possible to execute multiple compute and physics kernels for each
frame. For example, a game may use DirectX 11 to render the scene, switch to CUDA for selective ray
tracing, call a Direct Compute kernel for post processing, and perform fluid simulations using PhysX."

http://www.nvidia.com/object/IO_86775.html
Du tust gerade so, alsob der Evergreen die concurrent kernel execution nicht beherrscht.

mapel110
2010-01-31, 15:58:27
Du tust gerade so, alsob der Evergreen die concurrent kernel execution nicht beherrscht.
Naja, nvidia veranstaltet Techdays und präsentiert wunderbare Folien und neue technische Begriffe und von ATI hörte man in Bezug auf RV870 fast gar nichts. Da kommt man als Laie zumindest schnell auf die Idee, nvidia kann alles und ATI nur billige fps in Games.

dildo4u
2010-01-31, 16:01:51
Du tust gerade so, alsob der Evergreen die concurrent kernel execution nicht beherrscht.
Für GF100 ist es aber wichtiger ebend wegen Physx.Das ist zur Zeit das einzige Direct Compute Feature,was in Games in der Praxis wirklich genutzt wird.

Kosh
2010-01-31, 16:05:15
Gab es denn schon ein Foto mit einem 6+8pin Stecker von einem Produktionssample? Bisher waren doch alles nur early engineering samples udn da ist es ja normal, dass da erstmal 6+8 drauf sind und später am Produktionsmodell nur 2*6

Naja, bei der ersten Vorführung von der Raketendemo, hätten sie quasi auch locker die Wattanzahl von 2 8ter Anschlüssen (sogar 2 8er und ein 6er) verbrauchen können.

Denn so wie die doppelten Kabel in den einen (oder sogar beide) Pin reingingen, könnte da deutlich mehr Watt geflossen sein als die eigentliche 6+8 Pin Watt Spezifikation.

Oder gibts diese angeblichen EnermaxNetzteile mit diesen doppelten kabel Pro Pin schon offiziell zu kaufen??

Dann würde ich natürlich absolut falsch liegen, ansonsten habe und hätte ich diesbezüglich einen bitteren Nachgeschmack.

Gast
2010-01-31, 16:34:11
Naja, nvidia veranstaltet Techdays und präsentiert wunderbare Folien und neue technische Begriffe und von ATI hörte man in Bezug auf RV870 fast gar nichts. Da kommt man als Laie zumindest schnell auf die Idee, nvidia kann alles und ATI nur billige fps in Games.

Das ist halt Marketing.
Inwiefern Das überhaupt für den Laien, den "ichwilldochnurspieln:D" oder "meinSysistsoUBER"-User wichtig ist kann man schwer sagen.
Die die sich dafür interessieren informieren sich sicher nicht auf Werbeveranstaltungen oder in den einschlägigen Speku-Threads:D

BlackBirdSR
2010-01-31, 16:43:59
Ist die shaderleistung eigentlich ausreichend, oder ist es auch ein kompromiss im transistor-count? wenn ich mir da physx und andere rechenintensive szenarien ansehe, dann erscheinen mir diese 512 SPs doch ein bisschen wenig. je länger ich darüber nachdenke desto mehr finde ich das.

Mit der HD5870 @ 1Ghz kommt man auf 3,2GFlop und damit könnte man solche sachen wie physx und höhere shaderkomplexität sicherlich besser bewältigen.



Es kommt immer darauf an, wieviel dieser Leistung am Ende auch ankommt.
Das ist ähnlich wie ein Auto... was bringen dir 400PS und 600Nm Drehmoment, wenn diese erst ab 6000 Upm anliegen und davor so gut wie nachts passiert? (übertrieben)

Wenn GF100 einen Großteil der Shaderleistung auf die Matte bringen kann UND die zusätzliche Geometrieleistung sich auswirken darf, dann kann das durchaus ordentlich mehr Leistung als RV870 bedeuten. Von Letzterem ist ja bekannt, dass er nicht alles was auf dem Papier steht, auch wirklich so gut zum Tragen bringen kann.

Gerade bei PhysX kommen dann noch Thread/Content-Wechsel hinzu, bei denen GF100 Vorteile haben soll. Schließlich muss ja zwischen PhysX-Ausführung und dem D3D-Code gewechselt werden. Wie gut das RV870 kann, weiss glaube ich keiner so richtig.

Kurzum: Wir befinden uns mehr denn je in der Situation, dass die reinen Angaben zu GFlops, GPixel oder MB/s nur noch sehr wenig Anhaltspunkte liefern. Ob 512SP oder 1024SP oder 128SP ist doch egal, solange die Leistung am Ende stimmt und das hängt nicht nur von der Zahl vor dem SP ab, sondern was ein SP kann.

deekey777
2010-01-31, 16:51:53
Naja, nvidia veranstaltet Techdays und präsentiert wunderbare Folien und neue technische Begriffe und von ATI hörte man in Bezug auf RV870 fast gar nichts. Da kommt man als Laie zumindest schnell auf die Idee, nvidia kann alles und ATI nur billige fps in Games.
http://www.hardocp.com/image.html?image=MTI1NTQ3MDM3NXlvcUhUU1k4TzlfMV8xN19sLmpwZw==

Die Hardware beherrscht das definitiv. Was aber noch nicht klar ist, ob die softwareseitig alles im Lot ist. Von AMD wird CKE nirgendwo erwähnt, entweder ist es noch nicht ausgereift oder eine Selbstverständlichkeit, die man nicht hochpushen muss.
http://forums.amd.com/devforum/messageview.cfm?catid=328&threadid=120378

Der absolute Gag wäre, wenn schon der RV770 CKE hardwaremäßig beherrscht, nicht aber softwareseitig...

Gast
2010-01-31, 17:06:27
Es kommt immer darauf an, wieviel dieser Leistung am Ende auch ankommt.
Das ist ähnlich wie ein Auto... was bringen dir 400PS und 600Nm Drehmoment, wenn diese erst ab 6000 Upm anliegen und davor so gut wie nachts passiert? (übertrieben)

Wenn GF100 einen Großteil der Shaderleistung auf die Matte bringen kann UND die zusätzliche Geometrieleistung sich auswirken darf, dann kann das durchaus ordentlich mehr Leistung als RV870 bedeuten. Von Letzterem ist ja bekannt, dass er nicht alles was auf dem Papier steht, auch wirklich so gut zum Tragen bringen kann.

Gerade bei PhysX kommen dann noch Thread/Content-Wechsel hinzu, bei denen GF100 Vorteile haben soll. Schließlich muss ja zwischen PhysX-Ausführung und dem D3D-Code gewechselt werden. Wie gut das RV870 kann, weiss glaube ich keiner so richtig.

Kurzum: Wir befinden uns mehr denn je in der Situation, dass die reinen Angaben zu GFlops, GPixel oder MB/s nur noch sehr wenig Anhaltspunkte liefern. Ob 512SP oder 1024SP oder 128SP ist doch egal, solange die Leistung am Ende stimmt und das hängt nicht nur von der Zahl vor dem SP ab, sondern was ein SP kann.

Es sind sehr unterschiedliche Architekturen. Darüber zu grübeln ob PhysiX in der jetzigen Form auf AMD Karten langsamer laufen würde ist sinnlos. Natürlich läuft es langsamer es wurde für NV Architektur entwickelt.
Im Augenblick profitiert NV von der besseren Softwareunterstützung, allerdings ist eine gemeinsame Programmierebene (ala OpenCL) auf Dauer unerlässlich.
Ich finde es immer merkwürdig wenn man ohne vergleichbare Software Architektur A oder B zum Sieger kürt.
Dass AMD Karten in manchen Spielen langsamer sind als die entsprechenden NV-Pedants hat wohl eher in der reduzierten FF ihren Ursprung als in der Shaderarchiktektur.

Bucklew
2010-01-31, 17:35:32
Naja, bei der ersten Vorführung von der Raketendemo, hätten sie quasi auch locker die Wattanzahl von 2 8ter Anschlüssen (sogar 2 8er und ein 6er) verbrauchen können.

Denn so wie die doppelten Kabel in den einen (oder sogar beide) Pin reingingen, könnte da deutlich mehr Watt geflossen sein als die eigentliche 6+8 Pin Watt Spezifikation.
Die Kabel führen einfach vom 8 in einen zusätzlichen 6pin Stecker, der aber nicht angeschlossen ist. Die Bilder einfach mal genauer angucken, wenn man unbedingt Sherlock Holmes spielen will.

Dural
2010-01-31, 18:20:08
Natürlich läuft es langsamer es wurde für NV Architektur entwickelt.


PhysX wurde nicht für die G80 Architektur entwickelt, sondern wurde nur auf Cuda angepasst.

Und wie so läuft es natürlich langsamer? das kann doch gar keiner beurteilen!

aber zurrück zum GF100, kann der nicht PhysX und D3D gleichzeitig ausführen? was GT200 und co nicht können? NV hat doch sowas gesagt das es die erste GPU sei die für PhysX angepasst wurde...

Black-Scorpion
2010-01-31, 18:40:52
Und wie so läuft es natürlich langsamer? das kann doch gar keiner beurteilen!
Weil ATI Karten ganz hervorragend CUDA beherschen.
Es kann nicht so schnell wie bei NV laufen. Es läuft gar nicht.

deekey777
2010-01-31, 18:49:09
Weil ATI Karten ganz hervorragend CUDA beherschen.
Es kann nicht so schnell wie bei NV laufen. Es läuft gar nicht.
Das macht Sinn.
Ich habe noch nie eine Präsentation gesehen, auf der steht, das alles in C for Cuda programmiert ist.
Was aber viel wahrscheinlicher ist, dass PhysX selbst den PTX-Code (also Zwischensprache) ausspuckt, genau wie es CPU-Code ausspuckt. Also wäre es vorstellbar, dass derselbe PhysX-Compiler auch (optimierten) IL-Code für Radeons ausspucken könnte und die endgültige Optimierung durch den CAL-Treiber vorgenommen wird.

Gipsel
2010-01-31, 19:25:33
Du tust gerade so, alsob der Evergreen die concurrent kernel execution nicht beherrscht.
Angeblich ist Evergreen sogar in einem Aspekt flexibler als Fermi. Evergreens können laut ATI sogar Code aus verschiedenen Kernels auf der gleichen SIMD-Engine ausführen, nicht nur verschiedene Kernels auf verschiedenen SIMD-Engines (heißen bei nv SMs) wie Fermi. Allerdings ist das wohl ein eher akademischer Vorteil, zumindest bei Compute-Shadern dürfte das extrem selten zum Einsatz kommen.
http://www.hardocp.com/image.html?image=MTI1NTQ3MDM3NXlvcUhUU1k4TzlfMV8xN19sLmpwZw==

Die Hardware beherrscht das definitiv. Was aber noch nicht klar ist, ob die softwareseitig alles im Lot ist. Von AMD wird CKE nirgendwo erwähnt, entweder ist es noch nicht ausgereift oder eine Selbstverständlichkeit, die man nicht hochpushen muss.
http://forums.amd.com/devforum/messageview.cfm?catid=328&threadid=120378

Der absolute Gag wäre, wenn schon der RV770 CKE hardwaremäßig beherrscht, nicht aber softwareseitig...
Das wird schon erwähnt. Aber momentan ist das (wie einige andere Sachen auch) scheinbar noch nicht durch den Treiber freigeschaltet.

Was RV770 kann, ist verschiedene Shader-Typen (also z.B. Vertex- und Pixel-Shader) gleichzeitig auszuführen. Prinzipiell sind die concurrent Kernels nur eine einfache Erweiterung davon. Ob aber auch zwei Compute-Shader gleichzeitig auf einer RV770 laufen würden, ist meiner Meinung doch ein wenig zweifelhaft.

deekey777
2010-01-31, 19:54:02
Angeblich ist Evergreen sogar in einem Aspekt flexibler als Fermi. Evergreens können laut ATI sogar Code aus verschiedenen Kernels auf der gleichen SIMD-Engine ausführen, nicht nur verschiedene Kernels auf verschiedenen SIMD-Engines (heißen bei nv SMs) wie Fermi. Allerdings ist das wohl ein eher akademischer Vorteil, zumindest bei Compute-Shadern dürfte das extrem selten zum Einsatz kommen.
Ist das, was techreport meint?
http://techreport.com/articles.x/17670/2
(Incidentally, AMD tells us its Cypress chip can also run multiple kernels concurrently on its different SIMDs. In fact, different kernels can be interleaved on one SIMD.)

Das wird schon erwähnt. Aber momentan ist das (wie einige andere Sachen auch) scheinbar noch nicht durch den Treiber freigeschaltet.

....
anscheinend <-> scheinbar. :D

dargo
2010-01-31, 20:05:10
Ist die shaderleistung eigentlich ausreichend, oder ist es auch ein kompromiss im transistor-count? wenn ich mir da physx und andere rechenintensive szenarien ansehe, dann erscheinen mir diese 512 SPs doch ein bisschen wenig. je länger ich darüber nachdenke desto mehr finde ich das.

Mit der HD5870 @ 1Ghz kommt man auf 3,2GFlop und damit könnte man solche sachen wie physx und höhere shaderkomplexität sicherlich besser bewältigen.
Die (theoretische) arithmetische Leistung zwei unterschiedlicher GPUs sagt genauso viel aus wie die Ghz zwei unterschiedlichen CPUs. :)

=Floi=
2010-01-31, 23:42:22
Naja, bei der ersten Vorführung von der Raketendemo, hätten sie quasi auch locker die Wattanzahl von 2 8ter Anschlüssen (sogar 2 8er und ein 6er) verbrauchen können.

Denn so wie die doppelten Kabel in den einen (oder sogar beide) Pin reingingen, könnte da deutlich mehr Watt geflossen sein als die eigentliche 6+8 Pin Watt Spezifikation.

Oder gibts diese angeblichen EnermaxNetzteile mit diesen doppelten kabel Pro Pin schon offiziell zu kaufen??

Dann würde ich natürlich absolut falsch liegen, ansonsten habe und hätte ich diesbezüglich einen bitteren Nachgeschmack.

du liegst falsch. das hatten wir schon hier im thread und die kabel gehen in einen anderen STECKER!
die haben einfach nur mehr schienen angeschlossen um das netzteil zu entlasten und weil es so einfach besser und sicherer ist.

----
mir ging es eher darum, dass nv viel eher bei der shaderleistung anstehen würde. ati hat ja kein cuda und kein physx. Das reine spiel ist sicherlich nicht shaderlimitiert, aber gerade physx braucht extrem power. Ati hat so gesehen keine anwendugen diese rechenleistung zu nützen. nv schon und hier liegt dann der knackpunkt. Vor monaten standen noch 2650Gflop zur dislussion.

hat noch jemand hier einen vergleich zum G80 und dessen zeit beim switch?
anderer gedanke: braucht man den switch wirklich? wenn ich nacheinander wieder einen gleichen wert berechne, dann brauche ich nicht umschalten bzw. kann diese latenz doch recht einfach verstecken, weil kein kompletter wechsel ALLER cores nötig ist?! (das ist bestimmt wieder ein denkfehler bein mir, aber der gedanke kam mir so in den sinn)

Gipsel
2010-01-31, 23:47:27
Ist das, was techreport meint?
http://techreport.com/articles.x/17670/2

anscheinend <-> scheinbar. :D
1. Ja.
2. Okay, nicht scheinbar. Ersetze das durch anscheinend oder besser noch offensichtlich. Denn bisher hat wohl noch keiner außer irgendwo bei AMD zwei Kernel gleichzeitig auf einer GPU zum Laufen bekommen. Also momentan geht es noch nicht.
Aber es wurden ja schon Änderungen für Catalyst 10.2 und 10.3 angekündigt. Vielleicht steigt dann auch noch die Effizienz des Zusammenspiels des Setups mit den beiden Rasterizern etwas :rolleyes:. Lassen wir uns überraschen.

Gast
2010-01-31, 23:48:56
Natürlich läuft es langsamer es wurde für NV Architektur entwickelt.

Tolle Logik ;)

Der UniEngine-Benchmark wurde für die aktuelle ATI-Architektur entwickelt, trotzdem soll er angeblich auf Fermi deutlich schneller laufen.

Gipsel
2010-01-31, 23:51:10
braucht man den switch wirklich? wenn ich nacheinander wieder einen gleichen wert berechne, dann brauche ich nicht umschalten bzw. kann diese latenz doch recht einfach verstecken, weil kein kompletter wechsel ALLER cores nötig ist?! (das ist bestimmt wieder ein denkfehler bein mir, aber der gedanke kam mir so in den sinn)
Wenn die concurrent kernels nicht funktionieren, benötigt man einen Switch. Oder unter Umständen auch, wenn Du die Daten vom Compute-Shader wieder auf der CPU benötigst, weil das nicht nur für irgendwelche Effekte benutzt wird.

Gast
2010-01-31, 23:53:03
Was RV770 kann, ist verschiedene Shader-Typen (also z.B. Vertex- und Pixel-Shader) gleichzeitig auszuführen.

Natürlich kann er das. Die Hardware kennt keine X-Shader, die rechnet mit Zahlen (bzw. genauer mit Repäsentationen von Zahlen), was die nun bedeuten ist egal.

Coda
2010-01-31, 23:54:55
So natürlich ist das nicht. Da muss der Thread-Arbitter schon explizit darauf ausgelegt sein. Das Load-Balancing ist bei einer USA allgemein nicht trivial.

Gipsel
2010-01-31, 23:55:49
Natürlich kann er das. Die Hardware kennt keine X-Shader, die rechnet mit Zahlen (bzw. genauer mit Repäsentationen von Zahlen), was die nun bedeuten ist egal.
Nein. Ganz so einfach ist das nicht. Der Shader-Typ ist schon wichtig, da sich die Hardware je nach Typ auch unterschiedlich verhält.

Ailuros
2010-02-01, 07:34:29
Gipsel,

Da ich Deine Unterschrift auch unterstuetzen muss, stimmt anscheinend der von AMD original angegebene 280W TDP fuer die 380. Maximaler Lastverbrauch soll bis zu 240W reichen und ergo kann es auf keinen Fall weniger als 280 TDP sein.

Meine persoenliche Schaetzung fuer den groesser als original erwarteter Stromverbrauch duerfte sein weil erstmal die Mehrzahl der vorigen core clock Einheiten jetzt auf 1/2 hot clock getaktet sind (ausser ROPs/L2 cache), wobei die letzte tatsaechlich sogar 725MHz entsprechen koennte. Falls ja ganz grob vereinfacht: Zielfrequenz fast erreicht; Ziel-Stromverbrauch im Vergleich zum ersten eben nicht ;)

V2.0
2010-02-01, 07:47:25
Wobei 240W Last nun gar nicht soweit von der Vorgängergeneration weg ist.

Ailuros
2010-02-01, 07:55:00
Wobei 240W Last nun gar nicht soweit von der Vorgängergeneration weg ist.

Wenn's stimmt und wenn es auf gleichem Nivaeu von NV wie GTX285 abgeschaetzt ist dann 240 vs. 204 = +17,6%. Wenn jetzt die Frequenzen auch mindestens da sind wo ich sie einschaetze dann hab ich >25% mehr Frequenz fuer TMUs und co. die bisher auf core liefen und >10% mehr hot clock. Durchschnitt 17,5% ;)

Armaq
2010-02-01, 08:51:39
Wie ist denn der Verbrauch 380 gg. 5870? 30% mehr Saft für 30% mehr Leistung?

Gast
2010-02-01, 09:00:08
Tolle Logik ;)

Der UniEngine-Benchmark wurde für die aktuelle ATI-Architektur entwickelt, trotzdem soll er angeblich auf Fermi deutlich schneller laufen.

Und was hat das mit den Shadereinheiten zu tun???

Gast
2010-02-01, 10:00:44
Wobei 240W Last nun gar nicht soweit von der Vorgängergeneration weg ist.

Ich dachte eine GTX260 in 55nm landete so bei reellen 120 Watt. Das wäre schon das doppelte.

Ailuros
2010-02-01, 10:45:14
Ich dachte eine GTX260 in 55nm landete so bei reellen 120 Watt. Das wäre schon das doppelte.

NV's Angaben (maximum graphics card power). Bei www.nvidia.com nachschlagbar:

GTX260@576/1242 = 182W
GTX275@633/1404 = 219W
GTX285@648/1476 = 204W

***edit: nein ich hab nicht die blasseste Ahnung warum nach NV selber die 275 mehr Strom verbrauchen soll als die 285, trotz hoeheren Frequenzen bei der zweiten. Es besteht eher die Chance dass der Vebrauch der 285 zu niedrig von NV mit Absicht damals angelegt wurde.

Wie ist denn der Verbrauch 380 gg. 5870? 30% mehr Saft für 30% mehr Leistung?

Preislich wird sich die 380 wohl eher an einer 5970 richten. 5970=294W TDP, 380=280W TDP.

igg
2010-02-01, 11:49:07
So langsam sollte es doch ein paar seriöse Leaks geben. Keine neuen Infos von CJ, neliz, Charlie, ...?

mapel110
2010-02-01, 11:51:18
Charlie bringt wohl nichts mehr über GF100. Gibt anscheinend nichts negatives mehr. ^^ Selbts die Tapeout-Meldung zu A3 hat er sich scheinbar gespart.

Botcruscher
2010-02-01, 12:00:39
So langsam sollte es doch ein paar seriöse Leaks geben.

Die Karten sollten doch erst im Februar zu den "Testern" gehen und wenn niemand was hat, kann man auch nichts veröffentlichen. Die Markting-Cherrypicks sind eben durch. Insgesamt war diese Aktion doch erfolgreich. Das Interesse wurde geweckt und trotzdem ist man bei der Geschwindigkeit nicht schlauer als vorher.

Ailuros
2010-02-01, 12:08:45
Charlie bringt wohl nichts mehr über GF100. Gibt anscheinend nichts negatives mehr. ^^ Selbts die Tapeout-Meldung zu A3 hat er sich scheinbar gespart.

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

Reicht der Artikel nicht aus oder was?

Gast
2010-02-01, 13:01:26
***edit: nein ich hab nicht die blasseste Ahnung warum nach NV selber die 275 mehr Strom verbrauchen soll als die 285, trotz hoeheren Frequenzen bei der zweiten. Es besteht eher die Chance dass der Vebrauch der 285 zu niedrig von NV mit Absicht damals angelegt wurde.


Die 275 braucht tatsächlich oft etwas mehr Strom.

Für die 285 nimmt man wohl die "guten" Chips, bei der 275 lässt man etwas mehr Spielraum um auch die schlechteren DIEs verkaufen zu können.

Gast
2010-02-01, 13:03:06
Wobei 240W Last nun gar nicht soweit von der Vorgängergeneration weg ist.


Wenn es 240W Realverbrauch sind, ist es doch eine ordentliche Steigerung.

240W TDP wäre nur eine geringe Steigerung.

Gast
2010-02-01, 13:15:29
Die 275 braucht tatsächlich oft etwas mehr Strom.

Es gibt aber auch genug Reviews in denen die 275 weniger verbaucht als die 285...

Serienstreuung, im Mittel würde ich beide in etwa gleich einordnen. Paar Watt hin oder her spielen da keine grosse Rolle.

Gast
2010-02-01, 13:27:49
Charlie bringt wohl nichts mehr über GF100. Gibt anscheinend nichts negatives mehr. ^^ Selbts die Tapeout-Meldung zu A3 hat er sich scheinbar gespart.

Was soll er auch schreiben? Seine Meldungen hatten doch nur Tape-Out, Software Tessellation und Ich-hasse-Nvidia-vom-ganzen-Herzen Inhalte. 2 von 3 haben sich schon erledigt. Und beim Rest braucht er nur auf älteren Abfall verweisen.
Ich denke eher, dass er gerade mit viel Bammel auf seinem Po sitzt und hoft, dass neben seinen Launchzeitraum irgendwas anderes von seinem Hirngespinsten Wahrheit wird. Denn vieles was er im letzten Jahr geschrieben hat, ist einfach nicht wahrgeworden. Man köntne auch sagen: Er hat hinterfotzig gelogen.

Ailuros
2010-02-01, 14:07:34
Wenn es 240W Realverbrauch sind, ist es doch eine ordentliche Steigerung.

Wie gesagt falls es stimmt sind es 18% mehr als bei der 285. Im Fall der GTX280 sind es <2%.

240W TDP wäre nur eine geringe Steigerung.

Dann benutzt man so oder so keine 2*6pin Stecker. Die GTX280 hat 6pin+8pin: http://www.nvidia.com/object/product_geforce_gtx_280_us.html

Gast
2010-02-01, 14:25:21
Wie gesagt falls es stimmt sind es 18% mehr als bei der 285. Im Fall der GTX280 sind es <2%.


Never. Die GTX285 liegt im Bereich 150-160W, da sind 240W eine Steigerung von >50%.

Gast
2010-02-01, 14:26:18
Never. Die GTX285 liegt im Bereich 150-160W, da sind 240W eine Steigerung von >50%.

Nachtrag: 204W ist die TDP bei der GTX285.

Dural
2010-02-01, 14:50:15
240Watt ist OK, genau in dem bereich wo ich sie eingeschetzt habe (GTX280+)

MorPheuZ
2010-02-01, 15:02:51
Schon bekannt hier?

http://en.expreview.com/2010/02/01/nvidia-ceo-showcases-fermi-based-tesla-graphics-card/6582.html

Machen die -64 SP soviel aus damit nur ein 8Pin reicht ?

Gast
2010-02-01, 15:06:16
Schon bekannt hier?

http://en.expreview.com/2010/02/01/nvidia-ceo-showcases-fermi-based-tesla-graphics-card/6582.html

Machen die -64 SP soviel aus damit nur ein 8Pin reicht ?

+niedriger Takt und Spannung

Gast
2010-02-01, 15:07:25
Schon bekannt hier?

http://en.expreview.com/2010/02/01/nvidia-ceo-showcases-fermi-based-tesla-graphics-card/6582.html#comments

Machen die -64 SP soviel aus damit nur ein 8Pin reicht ?

Nein, nicht soviel. Ich bezweifel die 280 Watt für die 512 Version stimmen. Von dieser ausgehend wären < 225 Watt nicht möglich. Zwischen C1060 und GTX285 sind es ca. 18 Watt. Und jetzt es soll zwischen Tesla und GF100 55 Watt dazwischen liegen? Nene, das ist unlogisch. Vorallem, da die Teslakarte mit 6GB und 1800-2000MHz GDDR5 Speicher kommt, was wiederum deutlich näher an GF100 liegt als noch bei C1060 und GTX285 (800 <> 1200MHz).

AnarchX
2010-02-01, 15:25:59
Nein, nicht soviel. Ich bezweifel die 280 Watt für die 512 Version stimmen. Von dieser ausgehend wären < 225 Watt nicht möglich.
448SPs @1.25-1.4GHz ~ 190W typisch, 225W max.
vs
512SPs @1.5-1.6GHz ~240W typisch, 280W max.

Das passt doch, wenn man andere, ähnliche GraKa-Konstellationen im Vergleich heranzieht.

Gestrandet
2010-02-01, 15:29:01
Schon bekannt hier?

http://en.expreview.com/2010/02/01/nvidia-ceo-showcases-fermi-based-tesla-graphics-card/6582.html

Machen die -64 SP soviel aus damit nur ein 8Pin reicht ?
Wer weiß, was da noch alles an Steckverbindungen auf unsichtbaren Seiten lauert :wink:

Gast
2010-02-01, 15:32:02
448SPs @1.25-1.4GHz ~ 190W typisch, 225W max.
vs
512SPs @1.5-1.6GHz ~240W typisch, 280W max.

Das passt doch, wenn man andere, ähnliche GraKa-Konstellationen im Vergleich heranzieht.

Welche?
Beispiel vom GT200b:
GTX285: 240SP @ 1476Mhz, 1GB@ 1200Mhz => 204 Watt.
C1060: 240SP @ 1300Mhz, 4GB@ 800Mhz => 186 Watt.

GF100 müsste DEUTLICH höher getaktet werden, um die zusätzlichen 55 Watt mehr zu verbrauchen.

boxleitnerb
2010-02-01, 15:41:26
Du kennst die Spannungen nicht, die für diesen Takt notwendig sind.

Gast
2010-02-01, 15:42:43
Welche?
Beispiel vom GT200b:
GTX285: 240SP @ 1476Mhz, 1GB@ 1200Mhz => 204 Watt.
C1060: 240SP @ 1300Mhz, 4GB@ 800Mhz => 186 Watt.

GF100 müsste DEUTLICH höher getaktet werden, um die zusätzlichen 55 Watt mehr zu verbrauchen.

Es reicht doch völlig, wenn mit der Taktsteigerung eine Spannungsteigerung einhergeht.

Dural
2010-02-01, 15:44:52
wer sagt den das die Tesla weniger Spannung haben wird?
Takt dürfte ja etwa gleich sein mit 1400MHz vs ca. 1500MHz bei der GTX380... und wie wir jetzt (endlich) alle wissen sollten werden die 64SP kaum einen unterschid ausmachen...

Ich halte max Board Power mit ca. 200W und 240W für OK

James Ryan
2010-02-01, 15:46:05
Schon bekannt hier?

http://en.expreview.com/2010/02/01/nvidia-ceo-showcases-fermi-based-tesla-graphics-card/6582.html

Machen die -64 SP soviel aus damit nur ein 8Pin reicht ?

Bei der "Fake"-Karte war ein Stromstecker nach hinten gerichtet, und einer nach oben.
Eventuell bei der Finalkarte ebenso?

MfG :cool:

AnarchX
2010-02-01, 15:47:22
Welche?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7770862&postcount=8526

Und wie schon gesagt, braucht man für die >1.5GHz wohl möglich um einiges mehr als die 1.05V der Tesla.
Wenn man von 150W GPU-TDP bei der Gesamt-TDP von 225W ausgeht, kann sich durch die Steigerung der Einheiten um 15%, des Taktes um 15% und einer Spannung um ~1.1V, sehr schnell eine Erhöhung der TDP um 50W einstellen.

Bei der "Fake"-Karte war ein Stromstecker nach hinten gerichtet, und einer nach oben.
Eventuell bei der Finalkarte ebenso?

Laut Produktbrief auf jeden Fall, also 2x6Pin oder 1x8Pin.

Gast
2010-02-01, 15:48:12
Wer weiß, was da noch alles an Steckverbindungen auf unsichtbaren Seiten lauert :wink:
die karten hatten doch oben und hinten jeweils einen anschluss: http://www.abload.de/thumb/tesla_c2050-c2070_191535dd.jpg (http://www.abload.de/image.php?img=tesla_c2050-c2070_191535dd.jpg)

MorPheuZ
2010-02-01, 15:48:38
Welche?
Beispiel vom GT200b:
GTX285: 240SP @ 1476Mhz, 1GB@ 1200Mhz => 204 Watt.
C1060: 240SP @ 1300Mhz, 4GB@ 800Mhz => 186 Watt.

GF100 müsste DEUTLICH höher getaktet werden, um die zusätzlichen 55 Watt mehr zu verbrauchen.

Woher sind denn diese 204W für die GTX 285? Ich kenne da andere Werte:
http://www.pcgameshardware.de/aid,674722/TDP-Angaben-von-Grafikkarten-gegenueber-Lastmessungen/Grafikkarte/Test/

Ich lese des öftern von diesen ~183w tdp der gtx285 (genau weiss ichs auch ned), und schau dir mal die Gemessenen Lastwerte an:freak: aber daher warsch. die 280w "TDP" der "gtx380" die hier rumschwirren... was aber nichts bedenkliches an sich hätte.

Gast
2010-02-01, 15:49:45
Woher sind denn diese 204W für die GTX 285? Ich kenne da andere Werte:
http://www.pcgameshardware.de/aid,674722/TDP-Angaben-von-Grafikkarten-gegenueber-Lastmessungen/Grafikkarte/Test/

Ich lese des öftern von diesen ~183w tdp der gtx285 (genau weiss ichs auch ned), und schau dir mal die Gemessenen Lastwerte an:freak: aber daher warsch. die 280w "TDP" der "gtx380" die hier rumschwirren... was aber nichts bedenkliches an sich hätte.

Der Wert stammt direkt von nVidia. 183w hatte man wohl von den Tesla genommen oder es wurde falsch kommuniziert.

Gast
2010-02-01, 15:50:34
Wer weiß, was da noch alles an Steckverbindungen auf unsichtbaren Seiten lauert :wink:
auch hier sieht es nach hinten und oben aus:

http://www.abload.de/thumb/tesla_s2070__top-169e8rumj.jpg (http://www.abload.de/image.php?img=tesla_s2070__top-169e8rumj.jpg)

Gast
2010-02-01, 15:54:17
Scheint wohl wegen des Kühlers so zu sein...

Gast
2010-02-01, 15:56:05
Scheint wohl wegen des Kühlers so zu sein...

Das ist ein Schaubild und keine Darstellung von Fermi Karten in einem Rack.

Konami
2010-02-02, 03:04:37
nVidia hat soeben über Facebook bekanntgegeben:

NVIDIA Fun Fact of the Week: GeForce GTX 480 and GeForce GTX 470 will be the names of the first two GPUs shipped based on our new GF100 chip!

http://www.facebook.com/NVIDIA

Coda
2010-02-02, 03:09:41
Oh Mann :facepalm:

Aber offenbar funktioniert die maximale Verwirrung der Kundschaft. Intel macht es ja ähnlich.

dildo4u
2010-02-02, 03:12:48
G200 DX10
G300 DX10.1
G400 DX11

mapel110
2010-02-02, 03:12:52
Hrhr, ist ja nur konsequent. Eine neue Namensfamilie, wenn man den alten Schrott schon GT3xx nennt. :D

dildo4u
2010-02-02, 03:15:05
Hrhr, ist ja nur konsequent. Eine neue Namensfamilie, wenn man den alten Schrott schon GT3xx nennt. :D
Alter Schrott?Alle G3XX sind 40nm DX 10.1 Karten. ;)

mapel110
2010-02-02, 03:17:09
Alter Schrott?Alle G3XX sind 40nm DX 10.1 Karten. ;)
Gab es nicht auch DX10.0-Kram als GT3xx?! Mir war so.

/edit
http://www.pcper.com/comments.php?nid=8340
Well either way, get used to the names: GeForce GTX 480 and GeForce GTX 470. Makes all those suckers calling them the GeForce 300 series cards look like fools...doh.
;D

dildo4u
2010-02-02, 03:19:05
Gab es nicht auch DX10.0-Kram als GT3xx?! Mir war so.
Ich hab extra noch mal geguckt,die G310 hat DX10.1 dürfte whol die kleineste G3XX werden.

Unter Specs.
http://www.nvidia.com/object/product_geforce_310_us.html

Coda
2010-02-02, 04:50:34
Ich glaube von NVIDIA selber gibt's keine 3xx die kein 10.1 kann. So gesehen passt es schon.

Ailuros
2010-02-02, 05:29:13
Total OT aber da es sich um einen langjaehrigen Freund handelte werde ich es mir erlauben: http://www.nvnews.net/articles/chris_ray_memorial/index.shtml

RIP :frown:

tombman
2010-02-02, 06:34:55
Hrhr, ist ja nur konsequent. Eine neue Namensfamilie, wenn man den alten Schrott schon GT3xx nennt. :D
Jo, so gesehen macht es Sinn, und vielleicht soll die 4 ja auch was repräsentieren, zb

1.) Doppelt soviel wie "2" bei GTX28x, also doppelt so schnell
2.) 4 GPCs

=Floi=
2010-02-02, 06:58:39
oder GeForce FEAR ;D
---

an was ist der typ gestorben?

---
edit
diese ganze umbennerei können sie sich auch mal sparen. vor allem mit dem alten zeug. Hier in dem fall ist es nicht mal so schlimm, aber lange hällt dann diese namensgebung trotzdem nicht. Nebenbei ist diese namensgebung dann auch total für die katz, weil man nicht danach gehen kann.

Ailuros
2010-02-02, 07:00:33
H1N1 Virus bei CES erwischt.

tombman
2010-02-02, 07:15:03
H1N1 Virus bei CES erwischt.
Hatte er Vorerkrankungen? Wäre er auch bei deutschem/österreichischem Gesundheitssystem gestorben?

Ailuros
2010-02-02, 07:22:27
Hatte er Vorerkrankungen? Wäre er auch bei deutschem/österreichischem Gesundheitssystem gestorben?

Hoechstwahrscheinlich ja, sonst haette er es auch ueberlebt. Es schmerzt mich weil er eine Unmenge an persoenlichen Problem hatte. Wir hatten vor Jahren kurz die 3DEclipse Seite auf die Beine gestellt.

***edit: pneumonia... http://www.nvnews.net/articles/chris_ray_memorial/index.shtml

tombman
2010-02-02, 07:48:37
Naja, RIP :(

Ich bin der nächste ...

Gast
2010-02-02, 08:27:13
G200 DX10
G300 DX10.1
G400 DX11

Blöd das die DX10.1-Chips auch als G200 vorgestellt wurden und auch noch heute verkauft werden und nur die OEMs-Chips bis dato auf G300 umbenannt wurden.

Grestorn
2010-02-02, 08:27:49
Total OT aber da es sich um einen langjaehrigen Freund handelte werde ich es mir erlauben: http://www.nvnews.net/articles/chris_ray_memorial/index.shtml

RIP :frown:

Oh Scheiße... Ich mochte ChrisRay wirklich sehr gerne, er hat mir gerade in der Anfangszeit von nHancer einiges an Vorschlägen und Ideen gegeben.

Wirklich extrem traurig, dass er uns schon so früh verlassen musste!

Gast
2010-02-02, 08:29:19
Aber offenbar funktioniert die maximale Verwirrung der Kundschaft. Intel macht es ja ähnlich.

Intel hat nicht mal annähernd ein solches Chaos wie NV.

Ailuros
2010-02-02, 08:33:11
Intel hat nicht mal annähernd ein solches Chaos wie NV.

Brauchen sie auch nicht was deren Grafik betrifft; sie koennten locker durch die Jahre BSG-1 bis 999 vermarkten und es wird sowieso keiner den Unterschied merken.

tombman
2010-02-02, 09:50:59
Brauchen sie auch nicht was deren Grafik betrifft; sie koennten locker durch die Jahre BSG-1 bis 999 vermarkten und es wird sowieso keiner den Unterschied merken.
Battlestar Galactica?
Bullshit Graphics?

Abkürzungswahn ahoi...

Gast
2010-02-02, 10:00:57
Oh Mann :facepalm:

Aber offenbar funktioniert die maximale Verwirrung der Kundschaft. Intel macht es ja ähnlich.

Macht doch sinn. Wenn man G(T)3xx schon verwendet, kann man kaum GF100 dort positionieren. Und wenn man es gemacht hätte, wäre es genauso falsch gewesen. Ergo ist es die richtige Entscheidung. Und sie jetzt keinen alten Schrott wieder umbenennen, kommt auch ein bisschen Kontinuität in die Namensgebung.

Gast
2010-02-02, 10:04:36
Intel hat nicht mal annähernd ein solches Chaos wie NV.
Bei CPUs ist Intel schlimmer. Weitaus.
Zig verschiedene Modelle, mit minimalen Unterschieden bei Cache, Takt, FSB, Sockel, Kern.

Man muss sich nur mal diese Liste anschauen: http://de.wikipedia.org/wiki/Liste_der_Intel-Core-Prozessoren
Manche CPUs sind älter, dafür fehlen die iX komplett.
Du willst mir anhand dieser Liste nicht erzählen, das Intel ein einfaches System hat.
Man kann auch den Blick auf AMDs CPUs riskieren. Besonders zu Athlon 64 Zeiten war das extrem. Ich zähle locker 8! 3000+ Modelle: http://de.wikipedia.org/wiki/Liste_der_AMD-Athlon-64-Prozessoren


Wenn Nvidia, wie voraussehbar GF100 unter 400er bringt ist das keine Verwirrung.
Was bleibt ihnen übrig, schon gemerkt wie z.b. Medion die 300er vergewaltigt hat?

Gast
2010-02-02, 10:06:37
Macht doch sinn. Wenn man G(T)3xx schon verwendet, kann man kaum GF100 dort positionieren. Und wenn man es gemacht hätte, wäre es genauso falsch gewesen. Ergo ist es die richtige Entscheidung. Und sie jetzt keinen alten Schrott wieder umbenennen, kommt auch ein bisschen Kontinuität in die Namensgebung.
Soetwas wie die Geforce 310 könnte ich mir bei der 400 auch vorstellen.
Ist etwas normales, wenigstens das Kleinste Modell aus der Vorgängerserie zu gebären.

igg
2010-02-02, 10:28:03
Interessant finde ich eher, dass GTX480 und GTX470 veröffentlich werden, nicht 480 und 460.

D.h. eine 460 wäre wohl zu langsam für eine 5870 und der Abstand zwischen 480 und 470 wird wohl nicht so groß sein.

Botcruscher
2010-02-02, 10:29:29
Insgesamt ist der 400er Bereich ja klar abgegrenzt. Mal sehen wie lange das so bleibt...

Interessant finde ich eher, dass GTX480 und GTX470 veröffentlich werden, nicht 480 und 460.
D.h. eine 460 wäre wohl zu langsam für eine 5870 und der Abstand zwischen 480 und 470 wird wohl nicht so groß sein.
Wie kommt man von Marketinggedöns auf die Geschwindigkeit der Karten und dazu noch des Mitbewerbers? Die Schemata waren bis jetzt ja nicht mal in sich stimmig. Was Intel angeht: Ich erinnere mich noch an die lobenden Worte der Presse zu Nummernbezeichnungen. Wie einfach doch alles wird... Früher gab es 3 Kerne, 3 Marketingnamen und die Megaherzzahl, heute braucht man eine Tabelle um alleine die Kernzahl raus zu finden. Ohne geht da echt nichts mehr.

Gast
2010-02-02, 10:36:04
Interessant finde ich eher, dass GTX480 und GTX470 veröffentlich werden, nicht 480 und 460.

D.h. eine 460 wäre wohl zu langsam für eine 5870 und der Abstand zwischen 480 und 470 wird wohl nicht so groß sein.

Naja, Namen sind Schall und Rauch. AMD bezeichnet Juniper auch als 57xx und Cypress als 58xx. Und der Leistungsunterschied ist deutlich.
Die 8800GTS kam mit 50% weniger Rechenleistung als die 8800GTX. Anhand des Namens ist es eben nicht so einfach auf irgendwas zu schließen.

MorPheuZ
2010-02-02, 10:40:30
Interessant finde ich eher, dass GTX480 und GTX470 veröffentlich werden, nicht 480 und 460.

D.h. eine 460 wäre wohl zu langsam für eine 5870 und der Abstand zwischen 480 und 470 wird wohl nicht so groß sein.

Oder die 480 ist für die 5970 und die 470 zur 5870 :eek:

Die 470 wird warsch. dieselbe Ausbaustufe haben wie die 448sp Tesla.

MR2
2010-02-02, 11:56:46
Oder die 480 ist für die 5970 und die 470 zur 5870 :eek:

Die 470 wird warsch. dieselbe Ausbaustufe haben wie die 448sp Tesla.


Glaube ich nicht..Das wäre wohl eher eine GTX495, DualTermie soll ja 1 - 2 Monate später kommen..
Die 470 wird wohl leicht über der 5870 liegen und sich später mit 1Ghz Versionen messen müssen. Die GTX480 wird wohl 30% über 5870 liegen:-)

Noebbie
2010-02-02, 13:12:38
GTX4xx?

Dann hat man ja im 300er Namensbereich noch Platz für neue G92 Aufgüsse. :)

mapel110
2010-02-02, 13:30:36
nvidias Marketing greift jedenfalls voll durch. :biggrin:
http://www.anandtech.com/weblog/showpost.aspx?i=668
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/februar/nvidia_namen_gf100/
http://www.pcgameshardware.de/aid,704175/Geforce-GTX-480-und-Geforce-GTX-470-So-heissen-die-Fermi-GF100-Grafikkarten/Grafikkarte/News/
http://techreport.com/discussions.x/18404
http://vr-zone.com/articles/-rumour-gf100-to-be-branded-nvidia-geforce-gtx-480-/8385.html
http://www.semiaccurate.com/2010/02/02/nvidia-announces-fermi-retail-names/
http://www.legitreviews.com/news/7294/
http://www.brightsideofnews.com/news/2010/2/1/nvidias-next-gen-geforce-to-be-called-gtx-470-and-480.aspx
http://www.xbitlabs.com/news/video/display/20100201230541_Nvidia_s_Next_Generation_Graphics_Cards_Finally_Get_Official_Name s.html
http://www.hexus.net/content/item.php?item=22199

Gast
2010-02-02, 13:32:42
Interessant finde ich eher, dass GTX480 und GTX470 veröffentlich werden, nicht 480 und 460.

D.h. eine 460 wäre wohl zu langsam für eine 5870 und der Abstand zwischen 480 und 470 wird wohl nicht so groß sein.
Oder 460 kommt der Leistung nicht gerecht.
Oder man will unten noch etwas Platz lassen. Für die komplette Low-End und Mittelklasse und für einen noch kleineren GF100 Ableger.

Spasstiger
2010-02-02, 13:32:46
Wenn sie die 4xx-Serie dann auch nur mit GF10x-Ablegern besetzen, ist mir die Namenswahl ganz recht. Aber ich fürchte, es gibt wieder ein Mischmasch.

/EDIT: So fände ich es ganz hübsch und übersichtlich:
GTX 480: 512 SPs, 384-Bit-SI
GTX 470: 448 SPs, 320-Bit-SI
GTX 460: 384 SPs, 256-Bit-SI (kommt evtl. nur als Quadro)
GT 460: 256 SPs, 256-Bit-SI
GT 440: 128 SPs, 128-Bit-SI
GT 420: 64 SPs, 64-Bit-SI
G 410: 32 SPs, 64-Bit-SI

Botcruscher
2010-02-02, 13:38:27
nvidias Marketing greift jedenfalls voll durch. :biggrin:
In welcher Form? Das es viele Portale mit der Nachricht gibt? Bei der relativ geringen Anzahl an neuen CPU/GPU Generationen nicht verwunderlich.(und außerdem leben die ja davon) Oder hab ich irgendwo Sarkasmus verpasst?

mapel110
2010-02-02, 13:39:47
In welcher Form? Das es viele Portale mit der Nachricht gibt? Bei der relativ geringen Anzahl an neuen CPU/GPU Generationen nicht verwunderlich. Oder hab ich irgendwo Sarkasmus verpasst?
Sonst kommt das eher tröpfchenweise, erst eine Seite, dann die andere usw. Dank Facebook/Twitter gibts gleich die volle Keule.

Botcruscher
2010-02-02, 13:45:13
Da hätte ich doch gerne Vergleiche zu vorangegangenen Veröffentlichungen sonst schiebe ich das mal unter selektive Wahrnehmung ab.:biggrin: Bis auf GF100 gibt es nun mal wirklich wenig neues dieses Jahr. Im Übrigen kann der Mod den Titel aktualisieren.

V2.0
2010-02-02, 13:55:36
Wenn sie die 4xx-Serie dann auch nur mit GF10x-Ablegern besetzen, ist mir die Namenswahl ganz recht. Aber ich fürchte, es gibt wieder ein Mischmasch.

/EDIT: So fände ich es ganz hübsch und übersichtlich:
GTX 480: 512 SPs, 384-Bit-SI
GTX 470: 448 SPs, 320-Bit-SI
GTX 460: 384 SPs, 256-Bit-SI (kommt evtl. nur als Quadro)
GT 450: 256 SPs, 256-Bit-SI
GT 440: 128 SPs, 128-Bit-SI
GT 420: 64 SPs, 64-Bit-SI
G 410: 32 SPs, 64-Bit-SI

So könnte es imho sein.

MorPheuZ
2010-02-02, 14:39:26
Ich denke eher nicht dass der g92 nochmal aufgegossen wird. gf100 ist imho ne komplett neue Architektur. Aber naja, zu was nv wohl noch fähig ist:rolleyes:

Gast
2010-02-02, 15:07:36
Was soll "aufgiessen" bedeuten?

40nm GT215, GT216 und GT218 werden noch eine Weile im Rennen bleiben, die ersten beiden zumindest bis die kleinen GF100 kommen. Aber das hat ja nichts mit G92 oder aufgiessen zu tun.

Marodeur
2010-02-02, 15:14:43
Früher gab es 3 Kerne, 3 Marketingnamen und die Megaherzzahl, heute braucht man eine Tabelle um alleine die Kernzahl raus zu finden. Ohne geht da echt nichts mehr.

Und dann kommen noch depperte Firmen wie Medion und kreieren noch fluchs ganz eigene Bezeichungen wie GT330 (http://www.computerbase.de/news/hardware/komplettsysteme/2010/februar/aldi-pc_core_i3_geforce_gt_330_499_euro/) und die Verwirrung ist perfekt. :freak:

Gaestle
2010-02-02, 15:45:33
nvidias Marketing greift jedenfalls voll durch.
[...]


In welcher Form? Das es viele Portale mit der Nachricht gibt? Bei der relativ geringen Anzahl an neuen CPU/GPU Generationen nicht verwunderlich.(und außerdem leben die ja davon) Oder hab ich irgendwo Sarkasmus verpasst?


Das machen sie IMHO in Sachen GF100 doch schon mindestens ein dreiviertel Jahr. Und sie machen es ziemlich gut.

Nightspider
2010-02-02, 15:53:56
Vielleicht deutet der Name GTX480 auch nur auf die immense Lesitung hin.

Leistungssteigerung wie zwischen 2 Generationen. :D

Gast
2010-02-02, 16:02:50
Vielleicht deutet der Name GTX480 auch nur auf die immense Lesitung hin.

Leistungssteigerung wie zwischen 2 Generationen. :D
Chipgenerationen oder NV-Namesgenerationen, zwischen 8800 GTX und GTX 280 lagen ja noch mehr Namensgenerationen 9800 GTX und GTX 180 :).

MorPheuZ
2010-02-02, 17:18:40
Chipgenerationen oder NV-Namesgenerationen, zwischen 8800 GTX und GTX 280 lagen ja noch mehr Namensgenerationen 9800 GTX und GTX 180 :).

GTX180 :confused: eher nicht...

Armaq
2010-02-02, 17:24:55
Imho ist der Sprung richtig. Wenn sie wirklich so viele Änderungen vorgenommen haben, dann darf man das auch ruhig kommunizieren.

Gast
2010-02-02, 17:37:46
Vielleicht wollen sie auch nur andeuten, dass der Chip im 4. Quartal erhältlich sein wird. :D

Das Ganze ist für jemanden, der diesen Thread nicht täglich verfolgt, ziemlich undurchsichtig geworden. Wann ist denn nun mit ersten unabhängigen Benchmarks in Spielen von Fermi zu rechnen? Und kommt irgendetwas im Preisbereich bis 250 €, sagen wir bis Mai? Gibt's dazu mittlererweile Infos?

Konami
2010-02-02, 17:44:30
GTX180 :confused: eher nicht...
Eigentlich auffällig: Keine GTX 180, aber 280; jetzt keine GTX 380, sondern 480.
Vielleicht war das von Anfang an so gedacht, und auch die nächste "volle" neue Generation wird nicht etwa 5xx, sondern auch direkt 6xx heißen?

Gast
2010-02-02, 18:08:23
Geforce 100 war eine reine OEM Generation.

Geforce 300 ist bisher nur durch die 310 vertreten. Und durch die Mobile. Wenn man Mobile gleich OEM setzt, kann man die 300 ebenfalls als reine OEM bezeichnen.

Ailuros
2010-02-03, 14:52:41
According to our info, Fermi GTX 480 and GTX 470 names were a last minute change, as even partners were talking about GTX 3xx, but it looks like Nvidia decided to clear up some confusion and went with the GTX 4xx names instead.

The cards should be showcased at Cebit by various Nvidia partners which means that they might get it by the end of February, but as always since we are talking about Fermi here, nothing is certain.

Apparently, the old names for the GF100 were GTX 380 and GTX 360, something that would make sense considering the previous naming history, but as it could create a lot of confusion for the average consumer considering the fact that Nvidia rebranded some old cards as the 300 series, so we guess that this is even better.

On the other hand, we aren't sure why Nvidia decided to go with the GTX 470 and not the GTX 460 name as that would make perfect sense, but this might have something to do with the specification difference between these first cards as, performance wise, they might be quite close to each other.

Of course, the performance numbers are still blurry as Nvidia is keeping these tight under wraps and partners are yet to receive first cards, so things should start to get a bit more clear as we draw closer to the CeBIT show in March.

http://www.fudzilla.com/content/view/17524/1/

Thunder99
2010-02-03, 16:37:04
Eigentlich auffällig: Keine GTX 180, aber 280; jetzt keine GTX 380, sondern 480.
Vielleicht war das von Anfang an so gedacht, und auch die nächste "volle" neue Generation wird nicht etwa 5xx, sondern auch direkt 6xx heißen?
Wohl eher nicht, sonst bräuchten sie schnell wieder ein neues Namensschema. Aber mal schauen was NV so macht. Die überraschen ja einen immer wieder :freak:

AnarchX
2010-02-03, 16:42:58
GF100 VRAM-Management: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7820415#post7820415

tombman
2010-02-03, 16:52:39
http://www.fudzilla.com/content/view/17524/1/
Hmm, also vor der Cebit keine leaks?

mapel110
2010-02-03, 16:55:10
Ich verstehs eher so, dass EVGA(?!) erstmal alle Karten produziert und damit dann die anderen Hersteller beliefert und es dann nach und nach zu eigener Produktion der Boardhersteller kommt. Und afaik ist das doch bei jedem Launch der Fall.

Soundwave1983
2010-02-03, 17:51:08
EVGA hat doch nach meinen Infos gar keine Kartenwerke.
Wenn dann würde wohl Foxconn/Flextronix etc. die Kits bauen und EVGA und Co. klatschen ihre Sticker drauf.

Gast
2010-02-03, 18:46:18
EVGA hat doch nach meinen Infos gar keine Kartenwerke.
Wenn dann würde wohl Foxconn/Flextronix etc. die Kits bauen und EVGA und Co. klatschen ihre Sticker drauf.

Ja, Flextronix wird wohl wieder die ersten Auslieferungen komplett fertigen. Ist ja auch wesentlich sinnvoller, da so eine wesentlich schnellere Verfügbarkeit gewährleistet ist.

Gast
2010-02-04, 03:56:45
Also muss die Ausbeite für die Consumer Karten recht gut sein, wenn eine GTX460 erstmal nicht erscheint. Die Frage ist nur wie ein Teildeaktivierter Fermi aussehen kann. 320Bit SI + 448SP wie die ersten FermiKarten. Eine beschnittene GPU mit nur 256Bit SI gibts wohl nicht, was auf ne mißerable Fertigung hingewiesen hätte.

Gast
2010-02-04, 04:25:13
Also muss die Ausbeite für die Consumer Karten recht gut sein, wenn eine GTX460 erstmal nicht erscheint.Für Jubel wegen der Namensgebung ist es noch ein wenig früh, findet ihr nicht? Ich werfe mal Geforce 4200 und 5200 in den Raum und nehm die Beine in die Hand ;)

Ailuros
2010-02-04, 05:43:03
Für Jubel wegen der Namensgebung ist es noch ein wenig früh, findet ihr nicht? Ich werfe mal Geforce 4200 und 5200 in den Raum und nehm die Beine in die Hand ;)

Wenn ich beide Augen zudruecke geht die 4200 noch als Beispiel aber 5200 war dann schon low end und hat mit dem Zeug nichts zu tun.

Es werden zwei Varianten vom GF100 erscheinen am Anfang und es waren auch nie mehr geplant. Wenn sich jetzt spaeter chips anhaeufen sollten die sich weder fuer 480 noch fuer 470 qualifizieren sollten kann es durchaus noch eine weitere Variante vom GF100 chip in der Zukunft geben.

Eben nach der Masche 5870/5850 Oktober 2009, 5830 Februar 2010.

mboeller
2010-02-04, 07:22:42
[found on Beyond3D]:

es könnte schwierig werden eine GTX480 zu bekommen:

http://translate.google.com/translate?js=y&prev=_t&hl=en&ie=UTF-8&layout=1&eotf=1&u=http://diy.pconline.com.cn/graphics/news/1002/2042166.html&sl=auto&tl=en


In addition, the first listing GTX480 worldwide, only about 5000-8000 pieces, assigned to the AIC in the hands of the resources would be less.

Dagegen war die Verfügbarkeit der HD5870 ja noch hervorragend. :(

Ailuros
2010-02-04, 08:04:54
Was soll mir die halbgahre Spekulation in dem Link oben genau sagen?

According to GTX480 revealed some information I believe that its performance beyond the current item of the strongest HD5970 is still considerable difficulty, and for single-core HD5870 is about 20 percent believe that GTX480 will be the leading degree of Otherwise, NVIDIA will be difficult with AMD to compete.

Ergo nichts Neues zu dem was sehr viele andere momentan einschaetzen und das schon seit einiger Zeit.

In addition, the first listing GTX480 worldwide, only about 5000-8000 pieces, assigned to the AIC in the hands of the resources would be less.

Der Unterschied zwischen 5 und 8k ist 60%. Warum macht der Author es nicht gleich 2000-8000 damit es glaubwuerdiger klingt?

Dagegen war die Verfügbarkeit der HD5870 ja noch hervorragend.

Na dann rueck mal raus wie viele 5870 chips aus der Schmiede im letzten Oktober genau kamen.

V2.0
2010-02-04, 08:07:45
Ich behaupte mal dreist, dass die erste Lieferung an 480/470 mehr Volumen hat als die 5870/5850.

Ailuros
2010-02-04, 08:24:02
Ich behaupte mal dreist, dass die erste Lieferung an 480/470 mehr Volumen hat als die 5870/5850.

Koennte sein wenn man insgesamt GF100 chips in Q1 '10 gegen Cypress chips in Q3 09' zaehlt. Es geht ja hier eigentlich um das moegliche Volumen der 480. Ohne die finale Frequenz der 480 zu wissen kann ich das bei bestem Willen nicht einschaetzen.

Es soll auf vendor Listen eine 725MHz Frequenz aufgetaucht sein fuer GF100; angenommen es stimmt bleibt die brennende Frage ob es sich bei dieser um den core clock oder 1/2 hot clock handelt. Worst case scenario = 1450 hot clock, best case scenario = 1650 hot clock. Im zweiten Fall koennte ich eine uebermaessige Seltenheit der 480 auch durchaus einschaetzen.

MoC
2010-02-04, 10:14:38
Ich würde ja behaupten das die Anzahl der 470 ud 480er zum Launch stark von der Tesla-Nachfrage abhängt.

Weswegen es wohl vll auch keine 448SP-Fermi zum Start geben könnte, deswegen auch die umbezeichnung von 460 auf 470 o_O

Oder sie haben wirklich noch größere Probleme mit den Frequenzen weshalb die Performance-Unterschiede geringer ausfallen.

Letzteres scheint eher zu treffen zu können x-D

Ailuros
2010-02-04, 12:57:11
Wer seine letzten paar Beitraege vermissen sollte sie sind hier reingeflogen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476456 ...und dieser Thread wird auch in Zukunft weiter gefuettert werden.

mboeller
2010-02-04, 14:06:19
Danke!

Dural
2010-02-04, 14:10:19
Ich würde ja behaupten das die Anzahl der 470 ud 480er zum Launch stark von der Tesla-Nachfrage abhängt.

Weswegen es wohl vll auch keine 448SP-Fermi zum Start geben könnte, deswegen auch die umbezeichnung von 460 auf 470 o_O

Oder sie haben wirklich noch größere Probleme mit den Frequenzen weshalb die Performance-Unterschiede geringer ausfallen.

Letzteres scheint eher zu treffen zu können x-D

1. TESLA kommt erst im Sommer

2. Die Handvoll TESLA Karten sind im vergleich zu den Stückzahlen der GeForce Karten nichts

Die grosse frage ist wie die 470 jetzt genau auschaut, ich tippe ja jetzt mal auf: 480SP (448) und etwas weniger takt als 480

460 dann halt 448SP (384) und etwas weniger takt als 470

480 = nichts
470 = 5890
460 = 5870

beim SI würd ich sagen 460+470 = 320Bit an 256Bit glaub ich fast nicht

ist meine meinung / einschätzung...

N0Thing
2010-02-04, 14:31:48
480 = nichts
470 = 5890
460 = 5870

Gerade durch das Namensschema würde ich eher davon ausgehen, daß nvidia die 470 knapp oberhalb oder gleichauf mit der HD5870 positionieren wird.
Ich halte es für unwahrscheinlich, daß Nvidia beide Karten deutlich oberhalb der HD5870 positionieren kann und will.

Dural
2010-02-04, 14:36:58
da wir sehr wahrscheinlich keinen grossen sprung zwischen 5870 und 5890 sehen werden wie so nicht?

NV positioniert ihr karten immer gegen die konkurenz, siehe auch 275 vs 4890

so würde sich ja eigentlich nichts ändern, sondern wär genau so wie damals RV770/RV790 vs GT200a/b

Gast
2010-02-04, 14:53:19
Ich halte es für unwahrscheinlich, daß Nvidia beide Karten deutlich oberhalb der HD5870 positionieren kann und will.

Das taten sie schon mit G92 und GT200b.

Rampage 2
2010-02-04, 16:34:24
Also der GTX480 soll ja:

48 ROPs, 64 TMUs, 512 Shader, 384Bit GDDR5-SI besitzen.

Ist es theoretisch möglich, den Chip wie folgt zu teilen/produzieren - als billigere Variante sozusagen:

32 ROPs, 64 TMU's 256 Shader, 256Bit GDDR5-SI

Ist das möglich? Und wenn ja, wie hoch könnte man den Takt dann hochschrauben?

Thx,

R2

Gipsel
2010-02-04, 16:53:03
Also der GTX480 soll ja:

48 ROPs, 64 TMUs, 512 Shader, 384Bit GDDR5-SI besitzen.

Ist es theoretisch möglich, den Chip wie folgt zu teilen/produzieren - als billigere Variante sozusagen:

32 ROPs, 64 TMU's 256 Shader, 256Bit GDDR5-SI

Ist das möglich?
Speicherinterface und ROPs werden zusammen reduziert, aber auch Shadereinheiten und TMUs. Wenn man also die Anzahl der Shader halbiert, wird es auch nur noch halb so viel TMUs geben.

Theoretisch würde es zwar auch gehen, daß nv nur eine Hälfte eines SM deaktiviert/wegläßt (also den zweiten Scheduler und 16 der 32 ALUs bei Erhalt der vollen L/S-, SFU- und TMU-Zahl), allerdings wäre das wohl im Verhältnis ziemlich kostspielig, da sich so nicht übermäßig viel Die-Größe sparen läßt und mir zudem der Chip dann im Vergleich zum Vollausbau etwas unausgewogen erscheint.

Spasstiger
2010-02-04, 16:57:46
32 ROPs, 32 TMUs, 256 SPs und 256-Bit-GDDR5 wäre möglich und ich denke, dass die Variante auch fürs Performancesegment kommt, um den GT200b abzulösen. Optional wäre dann die Verwendung von DDR3/GDDR3-Speicher.

Sorkalm
2010-02-04, 17:04:15
32 ROPs, 32 TMUs, 256 SPs und 256-Bit-GDDR5 wäre möglich und ich denke, dass die Variante auch fürs Performancesegment kommt, um den GT200b abzulösen. Optional wäre dann die Verwendung von DDR3/GDDR3-Speicher.

Wenn man noch das ganze Zeug was man nur für Profi/Tesla-Varianten braucht wegschneidet, sofern ohne großen Aufwand machbar, dürfte man da doch bei 250-300 mm² landen, oder? Wär noch OK, denke ich, damit sollte man ja zwischen Juniper und Cypress landen, also im Optimalfall die kleineren Cypress-Varianten attackieren können, sofern die Performance-Einschätzung für die großen Modelle stimmt.

tombman
2010-02-04, 17:04:49
Also, ich glaub ja eher, daß die kleinere Karte der HD5870 gegenübergestellt wird, und die größere +X darüber.

Ich bezweifle stark, daß NV HD5970 speed erreicht.

mapel110
2010-02-04, 17:13:08
Gespannt bin ich vor allem auch auf die DX9-Performance. Da kann sich die 5870 kaum von der GTX285 absetzen. Da hoffe ich doch, dass der GF100 wesentlich stärker ist.

mapel110
2010-02-04, 17:26:34
Bei
COD5 etwa 20%
Riddick2 4xAA 20%
Fallout 3 kaum 20%
GTA4 +-0%
HL2 EP2 kaum 10%
WoW 20%

Ist jedenfalls ein Feld wo GF100 hoffentlich leichtes Spiel hat.

Gast
2010-02-04, 17:30:52
Bei
COD5 etwa 20%
Riddick2 4xAA 20%
Fallout 3 kaum 20%
GTA4 +-0%
HL2 EP2 kaum 10%
WoW 20%

Ist jedenfalls ein Feld wo GF100 hoffentlich leichtes Spiel hat.

Es wir wohl eher darauf ankommen, ob man sich mit SSAA deutlich absetzten kann.
Man wird wohl kaum einen GF100 kaufen um dann HL2 mit MSAA zu spielen.

Gast
2010-02-04, 17:32:44
Gespannt bin ich vor allem auch auf die DX9-Performance. Da kann sich die 5870 kaum von der GTX285 absetzen. Da hoffe ich doch, dass der GF100 wesentlich stärker ist.


Das ist doch wieder Quark, vergleich DX9 SSAA der beiden Karten und Du wirst mit einer 285er kräftig weinen!

Und das ist der Punkt, denn kein denkender Mensch wird mit einer 5870 in DX9 ohne SSAA spielen.

Und ich wette Fermi kann kein SSAA, dafür haben sie den neuen MSAA Modus....

Gast
2010-02-04, 17:44:36
HD4 konnte auch kein SSAA.
Auch nicht SSAAA oder HQAF.

GTX 285 Nutzer haben dennoch die genannten Dinge genutzt und in Benches wurde nur 8xMSAA und Q getestet. Wäre reichlich unfair, wenn die Presse diesmal anders agiert.
Ich bete, das diese Testmethoden fortgeführt werden, vielleicht wacht der eine oder andere irgendwann mal auf, was das früher für eine gequirlte Scheisse war.

Gast
2010-02-04, 17:47:55
genau das ist der Witz!
1. 8x MSSAA und NV
2. kein SSAA Test obwohl die Karten dies offiziell unterstützen.
und
3. und was mal wahr ist völlig wurst.

Rampage 2
2010-02-04, 18:01:09
32 ROPs, 32 TMUs, 256 SPs und 256-Bit-GDDR5 wäre möglich und ich denke, dass die Variante auch fürs Performancesegment kommt, um den GT200b abzulösen. Optional wäre dann die Verwendung von DDR3/GDDR3-Speicher.

Ich würde mich echt freuen, wenn eines der Performance-Chips exakt so geteilt wird:) - aber wenns nur 32 TMUs sind, dann müsste der TMU-Takt doppelt so hoch sein, damit es an eine GT200b rankommt. Wie hoch schätzt du den Takt bei solch einem Performance-Chip ein? Also ich würde sagen:

700MHz (ROPs), 1400MHz (TMUs), 2000MHz (Shader), 2000MHz GDDR5 (Speicher)

GDDR3??? Ähem, dann wäre höchstens 80GB/s. möglich (bei 1250MHz realem GDDR3-Takt) - das reicht doch nimmer, um an eine GT200b ranzukommen, die fast 160GB/s. hat:| - ich gehe weiterhin davon aus: 2GHz GDDR5 bei 256Bit-SI = 128GB/s. Speicherbandbreite. Mit weniger Speicherbandbreite kann sie unmöglich GT200b-Niveau erreichen.

Und ich hätte noch eine Frage zur Speicherbestückung: Angeblich soll der GTX480 ja maximal 1536MB Speicher besitzen. Dann müsste eine Karte mit oben genannten Spezifikation exakt 1024MB (1GB) Speicher haben, oder? Das wäre für mich auch ideal...

R2

Aquaschaf
2010-02-04, 18:06:05
Bei
COD5 etwa 20%
Riddick2 4xAA 20%
Fallout 3 kaum 20%
GTA4 +-0%
HL2 EP2 kaum 10%
WoW 20%

Ist jedenfalls ein Feld wo GF100 hoffentlich leichtes Spiel hat.

Könnte "vielleicht" etwas damit zu tun haben dass die Spiele die nur DX9 verwenden im Allgemeinen weniger GPU-limitiert sind, da entweder älter oder an sich nicht so grafiklastig. ;)

Gast
2010-02-04, 18:24:14
aber wenns nur 32 TMUs sind, dann müsste der TMU-Takt doppelt so hoch sein, damit es an eine GT200b rankommt.
Wurde doch schon erwähnt, das man die TMUs nicht einfach so 1zu1 vergleichen kann.
Sonst stünde GF100 mit seinen 64 TMUs auch reichlich mies da.


GDDR3??? Ähem, dann wäre höchstens 80GB/s. möglich (bei 1250MHz realem GDDR3-Takt) - das reicht doch nimmer, um an eine GT200b ranzukommen, die fast 160GB/s. hat - ich gehe weiterhin davon aus: 2GHz GDDR5 bei 256Bit-SI = 128GB/s. Speicherbandbreite. Mit weniger Speicherbandbreite kann sie unmöglich GT200b-Niveau erreichen.
Ja, GDDR3 ist Quatsch.
1200Mhz GDDR3 ist teuer und die Bandbreite ist nicht so toll.
2000Mhz GDDR5 landet schon in 1GiB auf billigen Karten, es sollte nichts dagegen sprechen diesen auch hier zu verbauen.

Coda
2010-02-04, 18:32:05
Wenn dann verbaut man normalen DDR3. Aber das ist wirklich eher was für Low-End.

Gast
2010-02-04, 18:34:52
Bei normalen GDDR3 kann man das Ding auch gleich mehr als halbieren.
Außerdem ergäbe das eine gewalitge Lücke zwischen GTX 470 und diesem Teil.

Rampage 2
2010-02-04, 18:34:56
Wurde doch schon erwähnt, das man die TMUs nicht einfach so 1zu1 vergleichen kann.
Sonst stünde GF100 mit seinen 64 TMUs auch reichlich mies da.

Ja, GDDR3 ist Quatsch.
1200Mhz GDDR3 ist teuer und die Bandbreite ist nicht so toll.
2000Mhz GDDR5 landet schon in 1GiB auf billigen Karten, es sollte nichts dagegen sprechen diesen auch hier zu verbauen.

Ok;)

Und wie sieht es mit der Speicherverteilung/bestückung aus? Es wäre echt blöd, wenn der oben genannte Fiktion-Chip nur 768MB Speicher hätte, anstatt 1024. Wie wird das berechnet/geteilt/zugeordnet (spekulativ; rein von der Logik her)?

R2

Gast
2010-02-04, 18:36:46
256bit ergibt 512/1024/2048MiB.
Ich tippe auf 1024MiB.

Rampage 2
2010-02-04, 18:42:02
256bit ergibt 512/1024/2048MiB.
Ich tippe auf 1024MiB.

Wunderbar=)

Und falls die GTX480 im März in die Läden kommt, wann kommen dann die Mainstream-Version des GT400-Chips?

Kommen die Performance (nicht Mainstream)-Chips (ungefähr) zum selben Zeitpunkt raus, wie der GTX480. Könnte man den oben genannten Fiktion-Chip als Performance-Chip bezeichnen, oder ist es eher ein Mainstream-Chip?

Und noch was: Hältst du die Taktraten, die ich für einen derartigen Chip aufgestellt habe, für realistisch/machbar?

Thx, R2

@Coda: DDR3 ist vieeel zu LANGSAM!

mapel110
2010-02-04, 18:42:35
Könnte "vielleicht" etwas damit zu tun haben dass die Spiele die nur DX9 verwenden im Allgemeinen weniger GPU-limitiert sind, da entweder älter oder an sich nicht so grafiklastig. ;)
Nö, bei allen genannten Spielen gibts noch ordentliche Einbrüche bei Erhöhen der Auflösung und AA. Und ich beziehe mich nirgends auf non-AA-Benchmarks.

Spasstiger
2010-02-04, 19:08:46
GDDR3??? Ähem, dann wäre höchstens 80GB/s. möglich (bei 1250MHz realem GDDR3-Takt) - das reicht doch nimmer, um an eine GT200b ranzukommen, die fast 160GB/s. hat:| - ich gehe weiterhin davon aus: 2GHz GDDR5 bei 256Bit-SI = 128GB/s. Speicherbandbreite. Mit weniger Speicherbandbreite kann sie unmöglich GT200b-Niveau erreichen.
Ich schreibe doch, optional DDR3-Speicher. Für abgespeckte Varianten selbstverständlich. Der Controller dürfte Beides unterstützen (DDR3 hat z.B. auch wie GDDR5 einen 8n-Prefetch).
Wenn ich schreibe 256-Bit-GDDR5-SI, dann meine ich damit, dass das Topmodell mit diesem Chip auch GDDR5-Speicher einsetzt. Dachte, das wäre so klar genug gewesen.

Wenn dann verbaut man normalen DDR3. Aber das ist wirklich eher was für Low-End.
So wie bei der GeForce GT 240 und der Mobility Radeon 5850? ;)
Die meisten Varianten davon am Markt setzen nämlich auf DDR3- statt GDDR5-Speicher.

Rampage 2
2010-02-04, 19:10:55
Ich schreibe doch, optional DDR3-Speicher. Für abgespeckte Varianten selbstverständlich. Der Controller dürfte Beides unterstützen.

hmmm...ok.

Und was sagst du zu meinen restlichen Fragen? Siehe meine letzten Postings über deinen letzten Post.

R2

BTW eine Frage zu den NV-Treibern: Funktioniert Digital Vibrance und Bildschärfe endlich wieder vernünfftig?

Thx

Spasstiger
2010-02-04, 19:19:48
Zu den Taktraten will ich mich bis zum Release nicht mehr äußern, da ich das weder einschätzen kann, noch irgendwelche verlässlichen Zahlen kenne.
Zur Speichermenge: Ja, ich gehe von standardmäßigen 1024 MiB beim Performance-Modell mit dem 256-Bit-SI aus.
Und die neuen TMUs haben möglicherweise die doppelte Füllrate bei trilinearem Filtern bzw. AF gegenüber den GT200-TMUs. Aber das muss sich erst noch zeigen.

Dural
2010-02-04, 19:28:20
und ich glaube immer noch nicht das wir 256Bit sehen werden... wäre auch ziemlich unklug wenn man schon in die breite gehen kann und dafür nicht so schnellen speicher verbauen muss wie ATI mit dem 256Bit / 1200MHz Speicher ;)

zudem wir mit GF104 sehr wahrscheinlich schon einen 256SP 192Bit GPU sehen werden

Rampage 2
2010-02-04, 19:30:55
Gut, und wie sieht es aus bzgl. der Verfügbarkeit von Mainstream- und Performance-Version der GT400 (insbesondere, ob die Performance-Versionen ungefähr zur gleichen Zeit in den Handel kommen wie die GTX480)? Und ist der von mir erdachte Fiktion-Chip als Mainstream- oder eher als Performance-Chip einzuordnen? (ist nämlich (möglicherweise) entscheidend für den Erscheinungstermin)

Ah ja, und ich wüsste gerne, ob die aktuellen NV-Treiber endlich wieder bug-free sind (korrekt funktionierendes DVC und Bildschärfung)?

Thx, R2

Gast
2010-02-04, 19:53:48
BTW eine Frage zu den NV-Treibern: Funktioniert Digital Vibrance und Bildschärfe endlich wieder vernünfftig?

DV war noch nie vernünftig und Schärfung gibt es schon seit G80 nicht mehr.

Gast
2010-02-04, 19:56:33
Also zu den NV-Treibern kann ich nichts sagen, da ich eine ATI-Graka habe, aber auf die Midrange/Mainstream-GF100 Grakas wirst du wohl noch bis frühestens Juni warten müssen, zumindest wenn man Fudzilla glauben schenken will.

http://www.fudzilla.com/content/view/17290/34/

Unknownalex
2010-02-04, 20:00:16
Fermi kann keine Tesslation in Hardware.
Tesslation nur in software geregelt?

Was für vor- und nachteile kann das bringen?
wie wird die performance in extrem situationen sein? Also highend grafik, +physx +tesslation?

http://www.tweakpc.de/news/17692/nvidias-fermi-nur-mit-software-tesselation/

mfg
Alex

dildo4u
2010-02-04, 20:04:19
Fermi kann keine Tesslation in Hardware.
Tesslation nur in software geregelt?

Was für vor- und nachteile kann das bringen?
wie wird die performance in extrem situationen sein? Also highend grafik, +physx +tesslation?

http://www.tweakpc.de/news/17692/nvidias-fermi-nur-mit-software-tesselation/

mfg
Alex
Der Chip wurde Richtung Geometrie umgebaut und wird die ATI in dem Bereich zerstören.

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/bericht_nvidia_gf100_technische_details/3/#abschnitt_polymorph_engine

tombman
2010-02-04, 20:05:02
Fermi kann keine Tesslation in Hardware.
Tesslation nur in software geregelt?

Was für vor- und nachteile kann das bringen?
wie wird die performance in extrem situationen sein? Also highend grafik, +physx +tesslation?

http://www.tweakpc.de/news/17692/nvidias-fermi-nur-mit-software-tesselation/

mfg
Alex
Die von NV veröffentlichten benchmarks zeigen eine DEUTLICHE höhere Tessellationspower als HD5870.
MIr ist scheißegal wie sie es machen ;)

HarryHirsch
2010-02-04, 20:18:48
Die von NV veröffentlichten benchmarks zeigen eine DEUTLICHE höhere Tessellationspower als HD5870.
MIr ist scheißegal wie sie es machen ;)

Wenn ich das richtig verstanden habe würde TS in SW ja bedeuten das es über die Shader läuft...
Somit könnte das in bestimmten Szenarien zu "Problemen" führen.

igg
2010-02-04, 21:08:44
Hm, ich dachte das Gerücht mit Software Tesselation hätte ich erübrigt?
Grund dafür ist die Grundstruktur des Fermi-Chips, der als reiner GPGPU-Chip ohne weitere dedizierte Grafikkomponenten entwickelt und erst nach und nach zu einem typischen Grafikkarten-Chip für den Heimanwenderbereich ausgebaut wurde.
Ailuros, stimmt das (sehe das wertfrei, sagt ja nichts über die Qualität des Chips aus)?

mapel110
2010-02-04, 21:17:53
Tweakpc beruft sich doch auf Semiaccurate. Und die "News" ist schon Monate alt. Und mittlerweile sollte sich rumgesprochen haben, dass Charlie von Semiaccurate von AMD gekauft ist.

Gast
2010-02-04, 21:18:22
Hm, ich dachte das Gerücht mit Software Tesselation hätte ich erübrigt?

Ailuros, stimmt das (sehe das wertfrei, sagt ja nichts über die Qualität des Chips aus)?

Wer schreibt denn solch ein Mist, also das zitierte?

HarryHirsch
2010-02-04, 21:24:38
Hm, ich dachte das Gerücht mit Software Tesselation hätte ich erübrigt?

Ailuros, stimmt das (sehe das wertfrei, sagt ja nichts über die Qualität des Chips aus)?

Naja ich meine ja nur wenn es so wäre...
Dran glauben tue ich auch nicht.

Gast
2010-02-04, 21:30:46
Wer schreibt denn solch ein Mist, also das zitierte?
Charlie - Ich weis der Mann ist hier nicht sehr beliebt, und auch wenn seine Aussagen gerne verdreht werden, wenn man ganz ehrlich ist hat er doch sehr oft recht:

Moving on to tessellation we said last May that Nvidia does not have dedicated hardware tessellators. Nvidia said the GF100 has hardware tessellation, even though our sources were adamant that it did not. You can say that Nvidia is either lying or splitting hairs, but there is no tessellator.

Instead, the GF100 has what Nvidia calls a 'polymorph engine', and there is one per SM. Basically it added a few features to a subset of the shaders, and that is now what it is calling a tessellator, but it is not. ATI has a single fairly small dedicated tessellator that remains unchanged up and down the Evergreen HD5xxx stack. On ATI 5xxx cards, tessellation performance takes almost no shader time other than dealing with the output just like any other triangle. On GF100, there is no real dedicated hardware, so the more you crank up the tessellation, the more shaders you co-opt.

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

igg
2010-02-04, 21:32:18
Wer schreibt denn solch ein Mist, also das zitierte?
Das schrieb TweakPC von SemiAccurate ab. Nachdem hier schon öfters angedeutet wurde, dass der ursprügnliche Konkurrent von Fermi Larrabee war und nicht RV870, würde das gut ins Puzzle passen. Und gelegentlich bekommt Charlie ja auch von AMD korrekte Infos zugesteckt (Stichwort A1).

Für mich wäre diese Information ohnehin eher rein theoretisch. Ob es nun ein angepasster GPGPU Chip ist oder nicht, solange die Leistung stimmt ist das doch egal?

Gast
2010-02-04, 21:35:43
Für mich wäre diese Information ohnehin eher rein theoretisch. Ob es nun ein angepasster GPGPU Chip ist oder nicht, solange die Leistung stimmt ist das doch egal?
Die Sache ist halt die dass ohne einen dedizierten Tesselator die Shader mehr belastet werden würden. Bei viel Tesselation würde dann die Gesamtleistung stärker einbrechen als bei ATI Karten.

Gast
2010-02-04, 21:47:45
Charlie - Ich weis der Mann ist hier nicht sehr beliebt, und auch wenn seine Aussagen gerne verdreht werden, wenn man ganz ehrlich ist hat er doch sehr oft recht:

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

Das ist komplett falsch.

bloub
2010-02-04, 21:54:58
Charlie - Ich weis der Mann ist hier nicht sehr beliebt, und auch wenn seine Aussagen gerne verdreht werden, wenn man ganz ehrlich ist hat er doch sehr oft recht:

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

moment, du behauptest, charlie würde die wahrheit sagen und verlinkst dann auf seinen eigenen schriebs, um das zu beweisen?

deekey777
2010-02-04, 21:56:02
Die Sache ist halt die dass ohne einen dedizierten Tesselator die Shader mehr belastet werden würden. Bei viel Tesselation würde dann die Gesamtleistung stärker einbrechen als bei ATI Karten.
Nur ist die Sache die, dass GF100 über dedizierte Tessellatoren verfügt.

Gast
2010-02-04, 22:15:41
Nur ist die Sache die, dass GF100 über dedizierte Tessellatoren verfügt.
quelle?

Gast
2010-02-04, 22:41:45
moment, du behauptest, charlie würde die wahrheit sagen und verlinkst dann auf seinen eigenen schriebs, um das zu beweisen?
:-)
Naja eigentlich wars eher so gemeint:
Charlie (Ich weis der Mann ist hier nicht sehr beliebt, und auch wenn seine Aussagen gerne verdreht werden, wenn man ganz ehrlich ist hat er doch sehr oft recht): ...

Hoffe so ist die Semantik eindeutiger

Spasstiger
2010-02-04, 22:41:46
Nur ist die Sache die, dass GF100 über dedizierte Tessellatoren verfügt.
Im Blockschaltbild zumindest. ;)
Eins ist jedenfalls seltsam: Im theoretischen Feature-Test soll der GF100 bei Tesselation sechsmal so schnell wie eine HD 5870 sein, im Unigine-DX11-Benchmark dagegen nur 1,6-mal so schnell. Beide Szenarien verwenden massiv Tesselation - die HD 5870 bricht auf die halbe Framerate ein, wenn Tesselation aktiv ist -, aber im DX11-Benchmark wird halt eine spieletypische Szene mit Pixelshadern, Schatten, etc. berechnet.

Gast
2010-02-04, 23:20:24
Im Blockschaltbild zumindest. ;)
Eins ist jedenfalls seltsam: Im theoretischen Feature-Test soll der GF100 bei Tesselation sechsmal so schnell wie eine HD 5870 sein, im Unigine-DX11-Benchmark dagegen nur 1,6-mal so schnell. Beide Szenarien verwenden massiv Tesselation - die HD 5870 bricht auf die halbe Framerate ein, wenn Tesselation aktiv ist -, aber im DX11-Benchmark wird halt eine spieletypische Szene mit Pixelshadern, Schatten, etc. berechnet.

Was soll daran komisch sein? Unigine-Benchmark ist nunmal kein reiner Wireframe Benchmark. nVidia's massive Geometrieleistung ermöglicht, dass man wesentlich mehr Details verwenden kann als bei AMD. Je geringer die Geometrielast, umso weniger kommt dieser Vorteil zum Tragen.
Außerdem ist GF100 in den 60 Sekunden bis zu doppelt so schnell.

Spasstiger
2010-02-04, 23:35:28
Im Prinzip müsste man noch wissen, wie der GF100 im Unigine-Benchmark ohne Tesselation abschneidet, um den Einbruch durch das Aktivieren der Tesselation abschätzen zu können. Die HD 5870 bricht z.B. von 70 fps auf 40 fps im Schnitt ein. Wenn der GF100 bei der Tesselationsleistung massiv überlegen wäre, müsste der Einbruch deutlich geringer ausfallen. Z.B. von 75 fps auf 65 fps im Schnitt. Das wiederum würde aber bedeuten, dass der GF100 ohne Tesselation nur marginal schneller wäre als die HD 5870.

dildo4u
2010-02-04, 23:37:23
Im Prinzip müsste man noch wissen, wie der GF100 im Unigine-Benchmark ohne Tesselation abschneidet, um den Einbruch durch das Aktivieren der Tesselation abschätzen zu können. Die HD 5870 bricht z.B. von 70 fps auf 40 fps im Schnitt. Wenn der GF100 bei der Tesselationsleistung massiv überlegen wäre, müsste der Einbruch deutlich geringer ausfallen. Z.B. von 75 fps auf 65 fps im Schnitt. Das wiederum würde aber bedeuten, dass der GF100 ohne Tesselation nur marginal schneller wäre als die HD 5870.
Die erhöte Geometrie Leistung bringt nicht nur bei Tesslation was.Ich erwarte ein großen Abstand bei Crysis nicht wegen der Shader sondern wegen der Geometrieleistung.

Spasstiger
2010-02-04, 23:40:12
Ich war immer noch bei der Debatte, ob der GF100 in Hardware mit dedizierten Tesselatoren oder in Software mit Hilfe der Shader-ALUs tesseliert.
Wenn es sich wirklich um eine dedizierte Hardwarelösung handelt, die immer und überall die sechsfache Tesselationsleistung einer HD 5870 liefert, dann wäre die Leistung des GF100 im Unigine-Benchmark ohne Tesseation eher bescheiden.

HarryHirsch
2010-02-04, 23:48:05
War bei dieser Vorführung eigentlich AA an?

Gast
2010-02-04, 23:54:26
Wenn es sich wirklich um eine dedizierte Hardwarelösung handelt, die immer und überall die sechsfache Tesselationsleistung einer HD 5870 liefert, dann wäre die Leistung des GF100 im Unigine-Benchmark ohne Tesseation eher bescheiden.

Auf was beziehst du dich auf die Videos die gezeigt wurden? Es soll sich ja um eine GTX470 mit 448 Shader gehandelt haben und die Treiber sind auch noch sicher nicht final das sollte man auch bedenken. ;)

Spasstiger
2010-02-05, 00:14:06
Ich beziehe mich auf den veröffentlichten Frameratenverlauf.
Mal ein Rechenbeispiel mit konkreten Zahlen. Die Radeon HD 5870 erreicht in 1680x1050 mit 4xAA im Schnitt 50,7 fps ohne Tessellation und 31,1 fps mit Tessellation (Quelle (http://www.pcgameshardware.de/aid,698039/Unigine-Heaven-mit-DirectX-11-Tessellation-Grafikkarten-Benchmarks/Grafikkarte/Test/)).

Für die Rechenzeit pro Frame bedeutet das:
HD 5870 ohne Tess.: 19,7 ms
HD 5870 mit Tess.: 32,1 ms
Differenz = Rechenzeit für Tess. @ HD 5870: 12,4 ms
Pro Frame gehen also 12,4 ms für die Tesselation drauf.
Die GF100-Karte soll nun mit Tessellation in diesem Benchmark im Schnitt 1,6-mal so schnell wie die HD 5870 sein. Für die Rechenzeit bedeutet das:
GF100 mit Tess.: 20,1 ms
Wenn der GF100 nun tatsächlich immer die sechsfache Tessellationsleistung gegenüber der HD 5870 abrufen kann, ohne dabei Streamprozessoren in Beschlag nehmen zu müssen (= Hardwarelösung), dann reduziert sich die Rechenzeit für die Tessellation von 12,4 ms auf rund 2,1 ms.
Rechenzeit für Tess. @ GF100: 2,1 ms
Und somit ergibt sich für die Rechenzeit ohne Tessellation:
GF100 ohne Tess.: 20,1 ms - 2,1 ms = 18 ms
Das entspricht einer Framerate von 55,6 fps auf dem GF100 - gegenüber 50,7 fps auf einer HD 5870.
Wenn der Heaven-Benchmark auf einem abgespeckten GF100 durchgeführt wurde, würde das natürlich die Werte erklären. Aber dann frage ich mich, warum NV diese Werte der Weltöffentlichkeit präsentiert, wenn der GF100 im Vollausbau eigentlich schneller ist.

/EDIT: Hatte mich verrechnet, ist jetzt korrekt.

Coda
2010-02-05, 00:56:21
Pro Frame gehen also 12,4 ms für die Tesselation drauf.
Die Rechnung ist kompletter Käse. Die zusätzlichen Dreiecke müssen ja auch rasterisiert werden und der Overdraw ist auch höher.

AwesomeSauce
2010-02-05, 01:21:54
Ist es nicht auch eher so, dass die Tessellation-Stage von DX11 eine ziemlich simple Aufgabe für die GPU ist (da fixed function), im Gegensatz zu den Hull- und Domain-Shader-Stages (programmable), die dann auf den Shader-Cores laufen? Die Evaluation der tessellierten Dreiecke wird wohl viel mehr Zeit in Anspruch nehmen als der eigentliche Vorgang des "Zerlegens", oder bin ich da auf dem Holzweg?

Die Hull- und Domain-Shader werden bei ATi doch ebenfalls in den Stream-Processors abgearbeitet?

Bitte hier um Aufklärung:smile:

Coda
2010-02-05, 01:23:19
Die Hull- und Domain-Shader laufen natürlich auf den Streamprozessoren. Sind ja schließlich frei programmierbar.

AwesomeSauce
2010-02-05, 01:30:51
Dann verstehe ich die ganze Aufregung um die eventuelle "Software"-Lösung von GF100 nicht. Ich dachte, das hätten wir abgehakt. Die Tesselator-Einheiten sind ja vorhanden, als dedizierte Hardware - zumindest besagen das die Blockdiagramme von Nvidia. Gibts ausser Charlies Aussagen eigentlich irgendwelche Beweise, dass die Tessellation-Stage bei GF100 in den Streamprozessoren durchgeführt werden soll?

Coda
2010-02-05, 01:58:58
Imho ging es einfach nur darum, dass Domain- und Hull-Shader (natürlich) Software sind und Charlie hat es in den falschen Hals bekommen.

AwesomeSauce
2010-02-05, 02:09:53
Genau das denke ich eben auch - gut, dass dies jetzt geklärt wurde:wink: Danke!

Ailuros
2010-02-05, 06:56:02
Ich war immer noch bei der Debatte, ob der GF100 in Hardware mit dedizierten Tesselatoren oder in Software mit Hilfe der Shader-ALUs tesseliert.
Wenn es sich wirklich um eine dedizierte Hardwarelösung handelt, die immer und überall die sechsfache Tesselationsleistung einer HD 5870 liefert, dann wäre die Leistung des GF100 im Unigine-Benchmark ohne Tesseation eher bescheiden.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7814337&postcount=9

Genauer kann ich es Dir leider nicht erklaeren. Vorsichtig den quote im Post oben durchlesen. Es gibt 4 Basis-Aufgaben die eine typische ff Tesselations-Einheiten ausfuehren wuerde. Ein Prozentual davon ist besser auf ff hw aufgehoben und ein Prozentual besser auf programmierbarer hw; das was NV IMO angestellt hat ist eben nicht eine universale ff Tesselations-Einheit einzubauen sondern in jedem SM fuer die Aufgaben die besser in ff hw aufgehoben sind eine gewisse Anzahl an Transistoren zu dedizieren und die Aufgaben die besser auf programmierbarer hw laufen in die ALUs verschleusst. Wenn Du die DX11 Tesselations-pipeline nimmst und hull shader->ff tesselation->domain shader denkst, rate Mal ob der Mittelschritt der groesste oder der kleinste insgesamt sein koennte, warum Du was beschaeftigst genau und warum.

Awesomesauce,

Der obrige Link beantwortet auch Deine Fragen. Wir sahen uns leider gezwungen die technischen Aspekte im Technologie-Forum zu verschachteln, der Rest bleibt und diesem Thread und der Kaffeesatz kommt in die Spielwiese.

Wie die wahre Effizienz der GF100 Tesselations-pipeline genau aussieht werden wir natuerlich erst einige Zeit nach dem Launch herausfinden. Es ist auf jeden Fall eine alternative Implementierung die auf jeden Fall insgesamt nicht billiger ist in Transistoren als bei Cypress. Fuer Herren wie Charlie sind im gegebenen Fall 4 rasters/trisetups wahrscheinlich auch "software" damit man erstmal zu einer Loesung a la Larabee naeher rueckt.

mboeller
2010-02-05, 08:17:29
Ist es nicht auch eher so, dass die Tessellation-Stage von DX11 eine ziemlich simple Aufgabe für die GPU ist (da fixed function), im Gegensatz zu den Hull- und Domain-Shader-Stages (programmable), die dann auf den Shader-Cores laufen?


Dann wäre es für AMD ja sehr einfach die Tesselation bei den Cypress auch auf den Shadern laufen zu lassen (und nicht nur die Hull- und Domain-shader) um damit massiv schneller zu werden. FLOPs haben die RV870 ja nun wirklich zur genüge. AMD bräuchte also "nur" ein Treiberupdate um hier mit Nvidia gleich zu ziehen. Das wäre dann nun wirklich eine Überraschung. Zumindest für mich. Ich habe bisher immer angenommen, das Tesselation ein wenig komplizierter ist.

Ailuros
2010-02-05, 08:40:14
Dann wäre es für AMD ja sehr einfach die Tesselation bei den Cypress auch auf den Shadern laufen zu lassen (und nicht nur die Hull- und Domain-shader) um damit massiv schneller zu werden. FLOPs haben die RV870 ja nun wirklich zur genüge. AMD bräuchte also "nur" ein Treiberupdate um hier mit Nvidia gleich zu ziehen. Das wäre dann nun wirklich eine Überraschung. Zumindest für mich. Ich habe bisher immer angenommen, das Tesselation ein wenig komplizierter ist.

GF100 laesst eben NICHT anscheinend alle Tesselations-Aufgaben (ausser hull/domain shader) auf programmierbarer hw laufen. Glaub mir jetzt bloss nicht dass GF100 pro SM eine Uebermenge an Transistoren fuer Tesselation gewidmet haben. Da jeglicher raster fuer 4 SMs zustaendig ist, wurde das Transistoren-budget IMO auch dem projeziertem workload pro GPC angepasst.

Und dieses unendliche hin und her ueber wie jegliche Architektur Tesselation genau behandelt ist sowieso Humbug. Nochmal zum mitlesen aus meinem obrigen Link:

Ultimately, however tessellation is done matters a lot less than the final performance achieved. Even between 2 fixed-function unit designs, the performance characteristics can be wildly different.

Falls der erste Satz nicht einleuchten sollte, hilft der zweite Satz um einiges mehr. Wie schon erwaehnt reale Effizienz werden wir erst nach dem Launch sehen koennen. Bis dahin sehen wir nur theoretische Zahlen auf Papier und diese sind genauso nutzlos wie theoretische maximale floating point oder Dreiecks-Werte.

Erst wenn wir genaue unabhaengige Leistungszahlen sehen koennen, wird es einfacher sein ueber solche Einzelheiten zu diskuttieren. Wenn aber die Tesselations-Effizienz bzw. Leistung auf GF100 am Ende stimmt, dann ist es im Grund scheissegal wie viele genau ff Transistoren sie benutzt haben. Und nein ich werde auch nicht behaupten dass ATI's Tesselations-Faehigkeiten schlecht oder zu niedrig sind, eher das Gegenteil. Es sollte aber auch nicht heissen dass eine alternative Implementierung der absolute Dreck sein sollte im Vergleich zu diesem und nein Deine Vorstellung dass man alles im Handumdrehen durch den Treiber aendern koennte bei Evergreens hat weder Haende noch Fuesse.

V2.0
2010-02-05, 08:54:01
Es ergibt sich doch praktisch aus der Geschichte der Chips. ATI hat ein bestehendes Design erweitert, NV hat des Design verändert. Der eine hat Tesselation beigefügt, der andere "integriert".

Es gibt kein besser oder schlechter. Wir werden sehen müssen wie sich die kleine GF100 Ableger gegen die kleinen RV5XXX schlagen um endgültig entscheiden zu können, was effizienter ist.

Ailuros
2010-02-05, 09:07:40
Es ergibt sich doch praktisch aus der Geschichte der Chips. ATI hat ein bestehnendes Design erweitert, NV hat des Desing verändert. Der eine hat Tesselation beigefügt, der andere "integriert".

Es gibt kein besser oder schlechter. Wir werden sehen müssen wie sich die kleine GF100 Ableger gegen die kleinen RV5XXXX schlagen um endgültig entscheidne zu können, was effizienter ist.

Wenn ich Vereinfachungen lese in der Art dass ATI mit "nur" einem Treiberupdate Tesselation insgesamt anders behandeln koennte (bzw. einige der Tesselations-Aufgaben in die ALUs zu verschleusen) wird's mir schwindlig. Die Frage ist eben dann warum RV770 und Vorgaenger nicht zufaelligerweise in den ALUs interpolierten, eben weil es so "einfach" ist....:rolleyes:

V2.0
2010-02-05, 09:35:51
vertex shader->hull shader->tesellator->domain shader->geometry shader->pixel shader


Dieser Ablauf bei ATI schient manchen einfach nicht klar.

Gast
2010-02-05, 09:39:31
Es gibt kein besser oder schlechter. Wir werden sehen müssen wie sich die kleine GF100 Ableger gegen die kleinen RV5XXX schlagen um endgültig entscheiden zu können, was effizienter ist.

Warum sollten Cypress und Ableger effizienter sein als ein 1/x GF100?

V2.0
2010-02-05, 10:10:41
Weil der Tesselator, so wie ihn ATI implemtiert hat, bei der Skalierung der Chips ja konstant bleibt und nicht mit skaliert. Bei NV hingegen skalieren die FF Tesselationeinheiten mit der Veränderung der SPs.

Gast
2010-02-05, 10:17:41
Weil der Tesselator, so wie ihn ATI implemtiert hat, bei der Skalierung der Chips ja konstant bleibt und nicht mit skaliert. Bei NV hingegen skalieren die FF Tesselationeinheiten mit der Veränderung der SPs.

nVidia hat 16 Tessellationeinheiten und 4 Setup-Engines (eben mit 4 Rasterizer). Wieso sollte also AMD's Weg der effizientere sein, wenn sie kaum skalieren können?
Mit 1/4 GF100 hat man immer noch ein Rasterizer, 4 Geometrieeinheiten mit 4 Tesselationeinheiten. Mit 400SP hat Redwood ebenfalls 1/4 der Rechenleistung von Cypress wie der 1/4 GF100 vom 1/1 GF100. Bei den kleinen Karten wird eher die geringe Rechenleistung limitieren als die Geometrieleistung. Je mehr Rechenleistung das AMD Design erfährt, umso stärker wird die Limitierung bei Tessellation zur Geometrieleistung gehen. Und dort skaliert das Design nichtmal annährend so gut wie bei nVidia.

V2.0
2010-02-05, 10:34:07
Ich sage ja wir werden es sehen, wenn wir Diegrößen und Leistung der kleinen Varianten kennen. Ich habe nie gesagt, dass AMDs Weg der effizientere sein muss.

Ailuros
2010-02-05, 10:35:03
nVidia hat 16 Tessellationeinheiten und 4 Setup-Engines (eben mit 4 Rasterizer). Wieso sollte also AMD's Weg der effizientere sein, wenn sie kaum skalieren können?
Mit 1/4 GF100 hat man immer noch ein Rasterizer, 4 Geometrieeinheiten mit 4 Tesselationeinheiten. Mit 400SP hat Redwood ebenfalls 1/4 der Rechenleistung von Cypress wie der 1/4 GF100 vom 1/1 GF100. Bei den kleinen Karten wird eher die geringe Rechenleistung limitieren als die Geometrieleistung. Je mehr Rechenleistung das AMD Design erfährt, umso stärker wird die Limitierung bei Tessellation zur Geometrieleistung gehen. Und dort skaliert das Design nichtmal annährend so gut wie bei nVidia.

Ja zum fettgedruckten. Auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7816541&postcount=35 (obwohl ich wohl mit dem trisetup Zeug auf dem falschen Bein stand).

V2.0,

Lies bitte den GF100 Thread im Technologie-Forum mal durch.

Spasstiger
2010-02-05, 13:05:01
Die reine Tessellationsleistung der Hardwaeretessellatoren ist also recht unbedeutend für die in Echtzeit darstellbaren Geometriedetails, weil die prinzipbedingte Beteiligung der Streamprozessoren, der zusätzliche Rasterisierungsaufwand und der Overdraw die Leistung in der Praxis limitiert?
Das hieße ja dann auch, dass wir kein Spieleszenario sehen werden, in dem ein GF100 sechsmal soviele Polygone wie eine HD 5870 bei gleicher Framerate rendert. Und die Leute, die darauf hoffen, dass der GF100 in Spielen mit Tesselation massiv mehr Geometriedetails als eine HD 5870 bei gleicher Framerate rendern können wird, werden unabhängig davon enttäuscht, ob die Tessellatoren als dedizierte Hardware oder als Softwarelösung in den Streamprozessoren umgesetzt sind.

bloub
2010-02-05, 13:14:42
so kommt das wohl hin, deswegen macht der schritt von nvidia, die tesselation-einheiten mit in die cluster zu schmeisen, so dass bei kleineren karten weniger zur verfügung stehen, auch sinn. die haben schlichtweg nicht mehr die power, die gleiche anzahl von tesselierten objekten zu rendern wie die high-end karten. zumindest nehme ich das mal an ;).

Coda
2010-02-05, 13:18:51
GF100 laesst eben NICHT anscheinend alle Tesselations-Aufgaben (ausser hull/domain shader) auf programmierbarer hw laufen.
Ich wüsste nur nicht was sich lohnen würde an diesem Fixed-Function-Schritt groß an die SMs auszulagern.

Ailuros
2010-02-05, 13:22:18
Die reine Tessellationsleistung der Hardwaeretessellatoren ist also recht unbedeutend für die in Echtzeit darstellbaren Geometriedetails, weil die prinzipbedingte Beteiligung der Streamprozessoren, der zusätzliche Rasterisierungsaufwand und der Overdraw die Leistung in der Praxis limitiert?
Das hieße ja dann auch, dass wir kein Spieleszenario sehen werden, in dem ein GF100 sechsmal soviele Polygone wie eine HD 5870 bei gleicher Framerate rendert.

Wer sagte ueberhaupt dass es je einen Fall geben wird wo eine GF100 um bis zu 6.5x Mal schneller sein wird als eine 5870 mit Tesselation? Du wirst wohl verstehen koennen dass ein inhouse techdemo dazu dient so stark wie moeglich die eigene hw in den Himmel zu loben und den Konkurrenten in ein so beschissenes wie moeglich Licht zu stellen oder? Es wuerde mich kein bisschen wundern wenn in dem spezifischen Test sogar noch PhysX mitspielte aber das ist so oder so gleichgueltig da es ein reiner verdrehter PR benchmark war.

Und die Leute, die darauf hoffen, dass der GF100 in Spielen mit Tesselation massiv mehr Geometriedetails als eine HD 5870 bei gleicher Framerate rendern können wird, werden unabhängig davon enttäuscht, ob die Tessellatoren als dedizierte Hardware oder als Softwarelösung in den Streamprozessoren umgesetzt sind.

Es ist zum allerletzten Mal keine sw-Loesung. Zumindest von Dir erwarte ich ein um weit besseres Verstaendnis der Affaere. Im Notfall lies folgendes durch von einem echten Redakteur der ein sehr gutes Verstaendnis von 3D hat und auch ein paar Lininen an code selber schreiben kann:

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html

http://www.behardware.com/articles/770-2/dossier-amd-radeon-hd-5870-5850.html

Was das Potenzial der Architektur betrifft ist es ein total anderes Bier als das was die Entwickler bzw. ISVs in der Zukunft anstellen werden und bis zu welchem Grad (lowest common denominator ahoi - ja trotz adaptiver Tesselation). Auf Papier ist der GF100 bei 1.4GHz hot clock bis zu 2.8 Mrd Tris/Takt faehig und bei solchen Raten ist man wohl nicht so besoffen und laesst Tesselation durch software laufen.

Ich wüsste nur nicht was sich lohnen würde an diesem Fixed-Function-Schritt groß an die SMs auszulagern.

Here NVIDIA told us that it is carried out in a dedicated unit and not in the overall SM execution units.

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html

Spasstiger
2010-02-05, 13:28:03
Es ist zum allerletzten Mal keine sw-Loesung.
Ich habs schon begriffen, hab ja auch Hardwaretessellatoren geschrieben. Die Erwähnung der Softwarelösung war so gemeint, dass das, was die GF100-Fan bei einer Softwarelösung befürchten (keine sechsfache Tess.-Leistung), auch mit der vorhandenen Hardwarelösung zutrifft.

Ailuros
2010-02-05, 13:35:36
Ich habs schon begriffen, hab ja auch Hardwaretessellatoren geschrieben. Die Erwähnung der Softwarelösung war so gemeint, dass das, was die GF100-Fan bei einer Softwarelösung befürchten (keine sechsfache Tess.-Leistung), auch mit der vorhandenen Hardwarelösung zutrifft.

Gut und welcher ISV waere so besoffen ein Spiel zu coden wo eine GF100 tatsaechlich etliche Male schneller waere als eine 5870? Wenn jeder fan nicht Begriffe wie PR oder hauseigene techdemos versteht dann ist es sein Problem.

Spasstiger
2010-02-05, 13:41:45
Gut und welcher ISV waere so besoffen ein Spiel zu coden wo eine GF100 tatsaechlich etliche Male schneller waere als eine 5870?
Das darfst du nicht mich fragen. ;)
Frag den Kollegen:
Was soll daran komisch sein? Unigine-Benchmark ist nunmal kein reiner Wireframe Benchmark. nVidia's massive Geometrieleistung ermöglicht, dass man wesentlich mehr Details verwenden kann als bei AMD. Je geringer die Geometrielast, umso weniger kommt dieser Vorteil zum Tragen.
Er geht also davon aus, dass der GF100 im Heaven-Benchmark unterfordert wird und eigentlich wesentlich mehr als 60% Vorteil gegenüber der HD 5870 drin sein müsste. Ich denke inzwischen aber, dass die 60% genau das sind, was wir bei der DX11-Spielegeneration mit Tessellation erwarten können. Ohne Tessellation beziffern Nvidia-Ings den Vorteil ja mit 30-40%.

P.S.: Mit der Rechnung auf der Vorseite hab ich ja eigentlich das gezeigt, was nun bestätigt wurde: NV kann in realen Szenarien nicht auf die sechsfache Tessellationsleistung gegenüber der HD 5870 zurückgreifen. Das liegt aber nicht daran, dass es sich um eine Softwarelösung handelt, sondern daran, dass Tessellation mehr bedeutet als nur ein paar Fixed-Function-Operationen, die einfach nebenbei laufen.
Setzt man den Vorteil des GF100 ohne Tessellation gegenüber der HD 5870 mit 30% an, dann kan der GF100 hier mit Tessellation ungefähr die doppelte Geometrie-, Tessellatons- und Rasterisierungleistung gegenüber der HD 5870 abrufen.

Ailuros
2010-02-05, 14:03:45
Er geht also davon aus, dass der GF100 im Heaven-Benchmark unterfordert wird und eigentlich wesentlich mehr als 60% Vorteil gegenüber der HD 5870 drin sein müsste. Ich denke inzwischen aber, dass die 60% genau das sind, was wir bei der DX11-Spielegeneration mit Tessellation erwarten können. Ohne Tessellation beziffern Nvidia-Ings den Vorteil ja mit 30-40%.

Ich hab mich bei B3D lange vor der GF100/3D whitepaper Veroeffentlichung stark gewehrt dass ein techdemo wie Unigine's Heaven zu irgend einem "industry standard benchmark" hochgesungen wird egal welcher IHV damit besser abschneidet. Fuer mich zaehlen nach wie vor Spiele.

Die cut scene aus Unigine's demo die NV benutzte ist selbst nach AMD ein reiner Fall wo Tesselation am meisten limitiert. Wenn ich jetzt auf jeglicher Architektur die jeweiligen Staerken oder Schwaechen fuer Tesselation messen will nehm ich mir wohl auch einen Fall wo Tesselation am meisten limitiert und nicht eventuell die Fuellrate oder die Bandbreite. Um es noch genauer zu machen es geht um den bloeden Drachen im demo der mit Tesselation auch eine um einiges hoehere Anzahl an kleinen Dreiecken hat.

Fuer mich ist aber Unigine's demo nach wie vor keinerlei Indizie fuer zukuenftige Spielentwicklung da es wohl kein bloedes Spiel geben wird wo man nur konstant um eine starre Statue rennt und auch nicht einen Fall wo hunderte von Drachen mit so feiner Tesselation den Spieler ueberfallen werden. Einen gewissen Massstab fuer alles sollte man schon mit einfacher Logik erwarten.

Dir sollte eher Sorgen machen wenn in der absehbaren Zukunft mehr und mehr setup-limitierte Spiele auftauchen sollten als das Tesselations-Zeug.

P.S.: Mit der Rechnung auf der Vorseite hab ich ja eigentlich das gezeigt, was nun bestätigt wurde: NV kann in realen Szenarien nicht auf die sechsfache Tessellationsleistung gegenüber der HD 5870 zurückgreifen. Das liegt aber nicht daran, dass es sich um eine Softwarelösung handelt, sondern daran, dass Tessellation mehr bedeutet als nur ein paar Fixed-Function-Operationen, die einfach nebenbei laufen.
Setzt man den Vorteil des GF100 ohne Tessellation gegenüber der HD 5870 mit 30% an, dann kan der GF100 hier mit Tessellation ungefähr die doppelte Geometrie-, Tessellatons- und Rasterisierungleistung gegenüber der HD 5870 abrufen.

It is interesting to note that although the triangle throughput of the GF100 has increased by a factor of 4, the rasterization rate is identical to the GT200 or the Radeon HD 5800s: 32 pixels per cycle in all or 256 samples with 4x antialiasing. If triangles consist of more than 8 pixels, they’re rasterized in several cycles. Does this boil down to the same thing? Not really because the GF100 will be up to 4x faster with small triangles. It will also automatically have a more efficient Z-Cull as smaller zones will be tested for visibility.

Improvements in efficiency with small triangles is most noticeable when tessellation is used. However it really kicks in with basic tessellation implementation which produces numerous little useless triangles. Although still there, the advantage will probably be less significant with adaptive algorithms that avoid creating too many small triangles in the background and concentrate on adding details, and then slightly larger triangles, in the foreground.

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html

Gast
2010-02-05, 14:37:44
Die reine Tessellationsleistung der Hardwaeretessellatoren ist also recht unbedeutend für die in Echtzeit darstellbaren Geometriedetails, weil die prinzipbedingte Beteiligung der Streamprozessoren, der zusätzliche Rasterisierungsaufwand und der Overdraw die Leistung in der Praxis limitiert?

Nein, sie ist nicht unbedeutend. Sie wird nur nicht in sovielen Fällen limitieren.


Das hieße ja dann auch, dass wir kein Spieleszenario sehen werden, in dem ein GF100 sechsmal soviele Polygone wie eine HD 5870 bei gleicher Framerate rendert. Und die Leute, die darauf hoffen, dass der GF100 in Spielen mit Tesselation massiv mehr Geometriedetails als eine HD 5870 bei gleicher Framerate rendern können wird, werden unabhängig davon enttäuscht, ob die Tessellatoren als dedizierte Hardware oder als Softwarelösung in den Streamprozessoren umgesetzt sind.

Natürlich ist das möglich. Der Vorteil von Tessellation ist das stufenlose Verändern der Dreiecksanzahl. Die Frage lautet jedoch, wird es je in einem Spiel möglich sein so sinnlos soviele Dreiecke verwenden zu können und dabei gleichzeitig nicht in einen anderen Bottleneck zu laufen.
nVidia gibt für die Waterdemo einen Leistungsvorsprung von 4x aus und dort erhöhten sie die Anzahl der Dreiecke um 100 oder 1000fache.

tombman
2010-02-05, 14:57:55
Also bei diesen Zahlen

http://www.abload.de/img/gf100-estoo01.jpg (http://www.abload.de/image.php?img=gf100-estoo01.jpg)

muß NV aber um Welten effizienter sein, um ATI zu schlagen.

Sind die wirklich soviel effizienter?

Und wird NV bei herkömmlichen, texturlastigen games einfach nur auf GTX285 Niveau sein?

Was nützt abartige Dreiecksleistung, wenn man es hauptsächlich mit Low-Poly-Konsolenmüll zu tun hat?

NV war ja in der Vergangenheit wegen ihrer Texturpower stark und hat ATI "ausgelacht" sowenig auf Texturleistung zu setzen- und jetzt machen sie das gleiche? Ist denn jetzt der richtige Moment für den Fokuswechsel- gerade auch wegen DX11+ Tess.?

Oder weiß NV, durch ihre guten Entwicklerbeziehungen, was künftige games wirklich brauchen und braucht sich deshalb keine Sorgen
um Texturleistung zu machen?

V2.0
2010-02-05, 15:14:00
Wer sagt, dass die Texturleistung jetzt nicht reicht. Immerhin sollten die Einheiten jetzt mit 1/2 hot clock laufen.

tombman
2010-02-05, 15:16:52
Wer sagt, dass die Texturleistung jetzt nicht reicht. Immerhin sollten die Einheiten jetzt mit 1/2 hot clock laufen.
1/2 Hotclock ist wenig, ist ja auf ~Gpu-Clock.

Gast
2010-02-05, 15:21:04
Im Schlimmsten Fall hat Nvidia noch die Möglichkeit ebenfalls auf Filtercheats zurückzugreifen. Im ersten Schritt wird wohl nur Q verschlechtert.

Bedanken können wir uns bei den Magazinen, Nvidia hat darauf Rücksicht genommen, was diese wollen: tolle 8xMSAA FPS.

Gast
2010-02-05, 15:30:18
Also bei diesen Zahlen

http://www.behardware.com/medias/photos_news/00/27/IMG0027873.png

muß NV aber um Welten effizienter sein, um ATI zu schlagen.


Das sind sie nicht. Natürlich bleibt für NV bei hoher Tesselationsleistung keinerlei Spielraum mehr für den ganzen Rest. Es ist ein Sache, ein Feature flexibel zu unterstützen. Das ist durchaus zu begrüßen! Wenn allerdings dann andere Bottlenecks limitieren, und so wird es sein, relativiert sich dieser Marketingglanzpunkt recht schnell wieder. ATI kann vielleicht nicht so schnell/viel tesselieren, aber der vorhandene Grad an Tess bleibt relativ performant darstellbar. Ich denke nicht, das NV hier jemals einen Vorteil in Spielen haben wird, zumal sich die Entwickler auch nebenbei an ATI´s überaus erfolgreicher 5x-reihe orientieren. Man darf gespannt sein, wie viel von dem ganzen Marketingquatsch von NV beim Endkunden ankommt. Momentan gibt es kaum einen Grund, keine ATI zu kaufen, wenn man auf solide Leistung aus ist.

mrt
2010-02-05, 15:31:38
@tombman
Woher kommt die Folie? Die strotzt ja nur so vor Fehlern.

Gast
2010-02-05, 15:40:46
Das sind sie nicht.

AMD's Effizienz ist mit Cypress deutlich gesunken. Daher sind solche Aussagen einfach nur falsch. Wie wissen nicht, wie effizient das GF100 Design ist. Jedoch wissen wir, dass AMD massive Probleme hat die in vielen Bereichen verdoppelte Leistung auf den Boden zu bringen.

ATI kann vielleicht nicht so schnell/viel tesselieren, aber der vorhandene Grad an Tess bleibt relativ performant darstellbar. Ich denke nicht, das NV hier jemals einen Vorteil in Spielen haben wird, zumal sich die Entwickler auch nebenbei an ATI´s überaus erfolgreicher 5x-reihe orientieren. Man darf gespannt sein, wie viel von dem ganzen Marketingquatsch von NV beim Endkunden ankommt.

AMD verliert mit Tessellation deutlich an Leistung. Und das ist erstmal ein Fakt. Stalker ist in DX11 ohne Tessellation 40% schneller. Im Unigine Benchmark ist DX11 ohne Tessellation sind es sogar 75%. Je aufwendiger die Szenen werden, umso krasser wird der Einbruch. AMD's Tessellation Leistung reicht also mitnichten aus.


Momentan gibt es kaum einen Grund, keine ATI zu kaufen, wenn man auf solide Leistung aus ist.

Momentan ist es viel zu spät. Man sollte eher den Monat noch warten und sehen, was GF100 bringt - jedenfalls wird man im März für Cypresskarten deutlich weniger bezahlen.

tombman
2010-02-05, 15:40:58
@tombman
Woher kommt die Folie? Die strotzt ja nur so vor Fehlern.
behardware.com

Was sind die Fehler?

Dural
2010-02-05, 16:23:09
Die TMU sollen ja auch komplett überarbeitet sein, also keine panic auf der titanic ;)

ich würde einfach mal abwarten, geht ja nicht mehr so lange... ;) man weis ja noch nicht mal die genauen taktraten usw. an die 725/1400 von oben glaub ich nicht...

Gast
2010-02-05, 16:29:31
Jep, man sieht doch das die theoretischen Werte erstmal garnix aussagen, wie die GPU sich dann tatsächlich schlägt. Brachiale Shaderpower der AMD GPUs auf der einen Seite und TexturePower bei der alten NV Generation, seltsam das die GPUs aber innerhalb ihrer Klasse sich nicht viel nehmen, rein von den FPS her erstmal.

Das einzigste wo es großen abstand gab, war 8xMSAA. Mal schauen was NV sich da hat einfallen lassen.