Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Wenn das kostenmässig überhaupt hinhaut bei NVIDIA. Denn der Fermi dürfte schon deutlich teurer in der Herstellung werden als der 5870er Chip.
Das habe ich auch schon beim RV770 vs. GT200 gehört, und trotzdem fährt Nvidia (immer noch!) Gewinne ein.
reunion
2009-11-07, 13:20:02
Den Gewinn macht man aber nicht im Desktop sondern wo anders.
Ailuros
2009-11-07, 13:40:25
Den Gewinn macht man aber nicht im Desktop sondern wo anders.
So lange ein IHV wie NVIDIA ihren Umsatz ausschliesslich von Grafik-prozessoren gewinnt, ist wohl eher wurscht aus welchem Markt jeglicher Gewinn genau kommt.
Es ist zwar nicht so dass Desktop keinen Gewinn macht, eher das Gegenteil aber ich hab keinen Bock jetzt Energie darueber zu verschwenden.
Woher wissen viele eigentlich,das der Fermi schneller wird als die 5870?
Ist doch gut möglich,das die Karte nichtmal 5870 Niveau erreicht in aktuellen Spielen,weil soviel auf CPU getrimmt wurde, das aktuelle Spiele damit gar nichts anfangen können.
Was genau heisst "auf CPU getrimmt"? Nebenbei gibt es tatsaechlich keine Beweise dass GF100 schneller ist als Cypress, aber auch nicht die geringste Indizie dass sie gleich so schnell sein koennte. Es wurde bis jetzt kein einziger Flecken ueber die 3D Faehigkeiten von GF100 angekuendigt sondern nur die GPGPU Faehigkeiten der Architektur und nein man nennt es nicht auf CPU getrimmt.
Und sollte sie 30% schneller sein,wird die Karte aber nicht für 330 Euro zu bekommen sein (was ja eigentlich der ATI Preis wäre,nur holen sich die Händler Extragewinne ab), sondern mindestens 500 Euro kosten, bei knapper Verfügbarkeit (wovon auszugehen ist) wahrscheinlich eher sogar 600 Euro kosten wird (auch hier lassen sich die Händler dann wohl Extragewinne bezahlen,falls die Karten nicht wie Blei in den Regalen liegen).
Wenn Du Dich dabei besser fuehlst mach doch gleich 800 daraus. Spekulationen sind sowieso umsonst. Nur so nebenbei der MSRP von der 380 ist niedriger als der einer Hemlock.
Das ist für manche Freaks zwar wurscht, weil sie halbjährlich für mindestens 1000 Euro neue Grafikkarten kaufen müssen, für die Breite Masse bedeutet das aber,das die Fermis total uninteressant sind.
Siehe oben.
Aus dem grund könnten die Fermi Karten soagr gut verfügbar sein,weil für solche Extrem hohen Preise sich kaum Käufer finden und somit die Händler immer welche parat haben.
Fermi ist erstmal ein Codename fuer HPC GPUs. Und ja die Verfuegbarkeit wird alles andere als ausreichend sein am Anfang.
Bei den 5870er Karten bekommen die Händler die Karten ja quasi direkt aus der Hand gerissen und deshalb ist die Verfügbarkeit auch sehr schlecht.
Dass die Verfuegbarkeit schlecht ist ist eine Tatsache. Aber wenn Du glaubst dass etliche hundert tausende GPUs pro Monat verkauft werden liegst Du leider auch hier auf dem falschen Bein.
Nakai@Gast
2009-11-07, 13:46:11
Und wenn die Leistung gerade mal 5870 Niveau wäre,dann ist nunmal nichts mit einer kleineren Variante für weniger Geld anbieten,da NVIDIA so wohl kaum noch was verdienen würde.
Nvidia muss die Leistung nicht so dramatisch steigern, wie ATI es tun müsste.
GT200 war ja schon schneller als der RV790 und RV770. In dem Sinne ist man hier im Vorteil.
Der G100 muss ja nur 20% schneller werden als der RV870 damit der Abstand so bleibt wie beim RV770 und damit ist NV ja gut gefahrn.
Das einzige Problem ist, dass ATI diesmal früher da war...
mfg Nakai
Ailuros
2009-11-07, 13:52:43
Nakai,
Ich warte ab bis die finalen Frequenzen im Hintergrund voll gesichert sind. Bis zu dem Zeitpunkt ist viel zu gewagt irgend etwas vorherzusagen. Wenn sie aber ihr originales Frequenz-Ziel erreicht haben, duerfte um einiges mehr als nur 20% Unterschied auf dem Tisch liegen.
tombman
2009-11-07, 14:06:20
Nur so nebenbei der MSRP von der 380 ist niedriger als der einer Hemlock.
Hemlock 599$ ?
GTX380 499$ ?
:biggrin:
Ich warte ab bis die finalen Frequenzen im Hintergrund voll gesichert sind. Bis zu dem Zeitpunkt ist viel zu gewagt irgend etwas vorherzusagen. Wenn sie aber ihr originales Frequenz-Ziel erreicht haben, duerfte um einiges mehr als nur 20% Unterschied auf dem Tisch liegen.
Was ist denn der letzte Stand der Frequenz-Gerüchte?
p.s.: ich fress nen Besen, wenn die GTX380 hierzulande für weniger als 500€ von den Abzockhändlern angeboten wird :)
reunion
2009-11-07, 15:21:46
Nochmal eine Zusammenfassung:
http://vr-zone.com/articles/nvidia-fermi-in-q1-2010/8006.html?doc=8006
mapel110
2009-11-07, 15:26:11
Was echt alle immer bei solchem Geschreibsel vergessen, dass nvidias Nachfolgeprodukte natürlich auch weiterentwickelt werden. Um so mehr sich Fermi verspätet, um so zeitnaher wird auch der Refresh kommen. Aber natürlich entwickelt nur ATI weiter und nvidia pennt auf allen Ebenen...
Es wird auch immer davon ausgegangen, dass es die gleichen Engineers sind, die das Tapeout machen wie die, die HDL schreiben.
Fermi dürfte für einen großen Haufen bei NVIDIA schon längst abgehakt sein. Funktionale Bugs findet man schon in der Simulation, also ist alles was jetzt noch übrig ist ein schaltungstechnisches Problem.
reunion
2009-11-07, 15:35:06
Wenn ursprünglich wirklich ein 2009 Launch geplant war und erst kürzlich das A2 Tapeout statt fand, dann lag es ja nicht an der Fertigung, sondern tatsächlich am zu späten fertig werden des Chips. Und das bindet dann natürlich auch die Man-Power auf allen Ebenen länger als geplant. AMD hat beim RV770 Artikel von AnandTech bsw. auch zugegeben das die Verspätung von R520 die ganze Roadmap nach hinten geworfen hat und direkt für die Verspätung von R600 verantwortlich gemacht.
tombman
2009-11-07, 15:36:38
Lol, Fermi im MAI :uhammer:
Tjo, 2x HD5870 2GB- ich komme ;) (+ ne single slot NV mit gehackten Treibern für Phys-X :ugly:)
LovesuckZ
2009-11-07, 15:43:07
Mai? Cool - dann gibt es doch kein "Fully Ramping" in Q1. :(
Denkst du, dass AMD schon ihren rv870 veröffentlicht hat? Denn "Fully Ramping" ist das wohl auch nicht...
Lol, Fermi im MAI :uhammer:
Tjo, 2x HD5870 2GB- ich komme ;) (+ ne single slot NV mit gehackten Treibern für Phys-X :ugly:)
1024MB VRAM reichen locker für 3840x1024. Was zum Henker willst du mit 2048MB?
tombman
2009-11-07, 15:51:56
Ich hab doch nur gescherzt ;)
Wobei ich als non-insider mit Ausdrücken wie "fully ramping" nix anfangen kann. Heißt für mich soviel wie "in Q1 geben wir dann Vollgas" :ugly:
Unkonkreter gehts ja wohl nicht. Als Wiener würd ich sagen "Na NONA zahns oh..., oba wuan kummt der Dreck jetz echt?" ;D
reunion
2009-11-07, 15:53:42
Mai? Cool - dann gibt es doch kein "Fully Ramping" in Q1. :(
Denkst du, dass AMD schon ihren rv870 veröffentlicht hat? Denn "Fully Ramping" ist das wohl auch nicht...
"Fully Ramping" bedeutet jedenfalls nicht volle Verfügbarkeit, sondern AFAIK das die Chips für die Massenproduktion vorbereitet werden bzw. sind.
HarryHirsch
2009-11-07, 15:57:07
"Fully Ramping" bedeutet jedenfalls nicht volle Verfügbarkeit, sondern AFAIK das die Chips für die Massenproduktion vorbereitet werden.
wie bitte? :freak:
tombman
2009-11-07, 15:57:28
"Fully Ramping" bedeutet jedenfalls nicht volle Verfügbarkeit, sondern AFAIK das die Chips für die Massenproduktion vorbereitet werden.
"Vorbereiten" kann ich aber auch bis zum Sankt-Nimmerleins-tag...
"Fully Ramping" hört sich für mich wie ein Spuch aus dem schlauen Handbuch "Talking Crap/Spin the Hype in the professional World for CEOs" an ;D
Mein Tipp: Nvidia weiß es selbst nicht ;)
Sobald die return rate von TSMC hoch genug ist werden sie releasen, und das werdens dann wissen, wenn es soweit ist.
Die_Allianz
2009-11-07, 16:03:18
fully ramping heißt für mich ganz klar, das sie kontinuierlich die Stückzahlen in der Fertigung hochfahren.
Das ganze enthält natürlich keinerlei Zeitinformation
LovesuckZ
2009-11-07, 16:06:10
wie bitte? :freak:
Ja, da schließe ich mich an: :freak:
"Fully Ramping" bedeutet, dass nVidia sich in der Massenfertigung befindet. Deswegen spricht auch Huang vom "interessanten Q1", weil sie soviele neue Produkte haben werden. Und die müssen ja von irgendjemanden abgenommen werden...
Sobald die return rate von TSMC hoch genug ist werden sie releasen, und das werdens dann wissen, wenn es soweit ist.
Deswegen launcht man auch schon ohne voller Fertigung. Denn bei "Fully Ramping" muss man überhaupt erstmal wissen, wie die Yields sind und wie sich entwickeln.
reunion
2009-11-07, 16:10:21
Ja, da schließe ich mich an: :freak:
"Fully Ramping" bedeutet, dass nVidia sich in der Massenfertigung befindet. Deswegen spricht auch Huang vom "interessanten Q1", weil sie soviele neue Produkte haben werden. Und die müssen ja von irgendjemanden abgenommen werden...
Sieht man ja am aktuellen bottleneck von verschiedensten Chips wie schnell das geht von der Foundry bis in den Handel. Aber das hat ohnehin keinen Sinn. Im Endeffekt ist eines sicher: Im 2009 wird das nichts mehr, wenn sie erst irgendwann von 26. Januar bis 26. April die Massenfertigung beginnen/hochfahren wollen. Und bevor man damit nicht begonnen hat kann man kaum launchen, auch wenn du das natürlich anders siehst.
tombman
2009-11-07, 16:18:44
Hmm, vielleicht würde TSMC ja so eine "Motivation" helfen?
http://www.youtube.com/watch?v=lqakCa-MysE
MOW! MOW!
;D
SCNR
Der soll endlich sagen, wann die ersten Karten vereinzelt bei den Händlern aufschlagen :rolleyes:
Nakai
2009-11-07, 16:59:08
Nakai,
Ich warte ab bis die finalen Frequenzen im Hintergrund voll gesichert sind. Bis zu dem Zeitpunkt ist viel zu gewagt irgend etwas vorherzusagen. Wenn sie aber ihr originales Frequenz-Ziel erreicht haben, duerfte um einiges mehr als nur 20% Unterschied auf dem Tisch liegen.
Mir gings nur um die Situation und da steht Nvidia beileibe nicht schlecht da.
Die GTX285 ist ja je nach Einstellungen 20 bis 40% langsamer als eine HD5870.
ATI hat die Performance etwa um 50% gesteigert im Vergleich zum Vorgänger. Wenn NV das auch tut, dann liegt man schon vor der HD5870.
Der soll endlich sagen, wann die ersten Karten vereinzelt bei den Händlern aufschlagen :rolleyes:
Kann er nicht machen, solange er nicht weiss, ob das kommende A2 Stepping garantiert bugfrei ist :(
ciao
Alex
Fermi ist eine Produktfamilie.
Lol, Fermi im MAI
witzig, als ich das vor ein paar wochen hier geschrieben hatte, wurd es erst lächerlich gemacht und dann gelöscht ... obwohl ich mich sehr weit aus dem fenster gelehnt und die quelle angegeben hatte. eine quelle, die charlie zumindest dem namen nach kennt, aber scheinbar keiner der experten-für-alles hier im forum :D
tombman
2009-11-07, 20:03:29
NV hat Glück, daß sie mit der GTX295 die Leistungskrone immer noch haben ;)
Erst Hemmi wird das ändern...
reunion
2009-11-07, 20:07:29
NV hat vorallem Glück das TSMC nach wie vor 40nm Chips nicht in ausreichenden Stückzahlen herstellen kann. Multi-GPU interessiert die wenigsten. Hemlock ist Prestige und kommt am 19. November.
NV hat Glück, daß sie mit der GTX295 die Leistungskrone immer noch haben ;)
Erst Hemmi wird das ändern...Auch gegen GeForce 285 Quad-SLI?
man könnte fast meinen, nv steckt hinter den neuerlichen problem bei tsmc. wenn man einen chip gebastelt hat, der sich dummerweise nicht so fertigen lässt wie man sich das gedacht hat, muss man ja irgendwie schauen dass die konkurrenz, die ihre hausaufgaben besser gemacht hat, nicht ganz davonzieht ... seit batmangate traue ich nv alles zu. nv ist das intel der grafikbranche.
*this message is not endorsed by any semiconductor manufacturer*
reunion
2009-11-07, 20:13:42
Was genau heisst "auf CPU getrimmt"? Nebenbei gibt es tatsaechlich keine Beweise dass GF100 schneller ist als Cypress, aber auch nicht die geringste Indizie dass sie gleich so schnell sein koennte. Es wurde bis jetzt kein einziger Flecken ueber die 3D Faehigkeiten von GF100 angekuendigt sondern nur die GPGPU Faehigkeiten der Architektur und nein man nennt es nicht auf CPU getrimmt.
Ich bin sogar überzeugt davon das Fermi deutlich schneller wird als eine 5870. Fermi ist NVs erste neue Architektur seit G80, worauf sich ein Großteil der Ressourcen konzentriert. Da sollte man doch einiges erwarten können. Zumal AMD diesmal nicht unbedingt ein Monster vorgelegt hat, sondern nur einen Refresh des RV770. Dafür stimmte die time-to-markt und genau hier liegt NVs Problem, denn in H2/2010 soll AMDs neue DX11 Architektur kommen.
Wenn Du Dich dabei besser fuehlst mach doch gleich 800 daraus. Spekulationen sind sowieso umsonst. Nur so nebenbei der MSRP von der 380 ist niedriger als der einer Hemlock.
Das spricht aber nicht unbedingt für die Leistung.
man könnte fast meinen, nv steckt hinter den neuerlichen problem bei tsmc. wenn man einen chip gebastelt hat, der sich dummerweise nicht so fertigen lässt wie man sich das gedacht hat, muss man ja irgendwie schauen dass die konkurrenz, die ihre hausaufgaben besser gemacht hat, nicht ganz davonzieht ... seit batmangate traue ich nv alles zu. nv ist das intel der grafikbranche.
*this message is not endorsed by any semiconductor manufacturer*
Oh man, es wird immer lächerlicher.
Woher soll Nvidia all das Geld haben?
Nvidias Marktanteil ist in diesem Quartal kaum größer als AMDs. Nvidias Bilanz ist postitiv.
Und dennoch soll am Ende Jeder bestochen werden?
Wie?
Vollkommen ausgeschlossen, das Nvidia auch nur einen Bruchteil der Mittel hat, die man ihnen andichtet.
Jetzt als Krönung noch TSMC, ein riesiger Auftragsfertiger. Ja ne ist klar.
Vergess diesen Absatz, selbst ohne TSMC ist diese Unterstellungsflut unhaltbar lächerlich.
Der 1. April ist heute noch nicht, also bitte etwas ernsthafter.
Multi-GPU interessiert die wenigsten.
Die wenigsten bei ATI.
nvidia ist laut Steam-Umfrage um den Faktor 10 erfolgreicher als ATI bei MGPU.
Und mit 2 % aller Steam-User ist SLI weiter verbreitet als es beispielsweise Eyefinity je sein wird.
Auch gegen GeForce 285 Quad-SLI?
Das ist nur ein Nischenprodukt seitens Asus, bzw EVGAs.
Kein IHV weites Produkt.
Aber selbst gegen 3 GTX 285 wirds schwer.
Ich nehme mal an, tombman meint "Pro Karte", da ist es nun Tatsächlich die GTX 295.
Dank schlechter Lieferbarkeit der 5870 steht die GTX 295 auch noch recht gut da.
So wie die langsam immer seltender werdende 4870 X2.
Multi-GPU interessiert die wenigsten.
Man könnte denken, das es zwanghaft geändert werden sollte.
Z.b. in dem man MGPU nicht nur als High-End Option anbietet, sondern als Option in allen Bereichen und als High-End Zwang.
=Floi=
2009-11-07, 20:33:49
warum nicht? wenn die karte doppelt so schnell ist wie eine 280er, dann kann man damit ati ziemlich auf die finger klopfen. 350-400€ sind schon eine hausnummer und die müssen auch gerechtfertigt sein! (um einem preiskampf aus dem weg zu gehen) die kleineren chips kümmern sich dann um den cypress und die anderen kleinen karten von ati.
edit
tsmc würde sicherlich so viele chips raushauen wie sie könnten, da in der krise jeder € zählt. Ebenso sind diese probleme für nv auch nicht gut, da dieyield raten auch noch sehr schlecht sein dürften und je länger ein prozess läuft dest besser wird er. im grunde würden so die chips von ati den weg für nv bereiten.
Jetzt als Krönung noch TSMC, ein riesiger Auftragsfertiger.
natürlich wurde TSMC nicht bestochen. keiner würde so unsinnig investieren. aber wenn man den richtigen hebel wählt, kann man mit sehr wenig sehr viel erreichen.
Ich bin sogar überzeugt davon das Fermi deutlich schneller wird als eine 5870. Fermi ist NVs erste neue Architektur seit G80, worauf sich ein Großteil der Ressourcen konzentriert.Naja so neu ist die Architektur nicht. Dass zum Beispiel das 64-Bit-FMA im GT200 eigentlich für GF100 entwickelt wurde aber dann bereits in den GT200 einfloss, dürfte zwar der Fall sein – also dass der GF100 konzipiert wurde bevor NV den G92 zum GT200 weiterentwickelte; allerdings sehe ich im GF100 im Wesentlichen eine verbreiterte und optimierte G80-Architektur.
robbitop
2009-11-07, 21:00:23
So viel schneller als RV870 wird GT300 wohl nicht werden. Schließlich liefen die ALUs vorher schon auf hoher Auslastung. Die ALUs wurden etw. mehr als verdoppelt. Der Rest wurde nur um 60 % gesteigert. Bei RV870 wurde sogar alles außer der Bandbreite verdoppelt.
AnarchX
2009-11-07, 21:04:46
Auf dem vergangenen Conference Call hat man geäußert, dass Fermi 4 Jahre in Entwicklung gewesen sei und dass man alle GPUs nach G80, als minimale Änderungen, auf dessen Basis, sieht.
Dass sich Fermi sehr an die Paradigmen von G80 hält ist natürlich nicht verwunderlich. Wohin sollte Nvidia denn sonst entwickeln? Zurück zu Vektor-ALUs und ALUs@ROP/TMU-Domain?
Im Endeffekt wird es die Aufgabe von Nvidia in Zukunft sein, die Architektur einfach entsprechend weiter zu optimieren:
Leistung pro Transistor steigern, Pro-Watt-Leistung steigern (dynamisches Taktmanagement?) und wohl langfristig leistungsfähige Steuerprozessoren (Ooo-Execution?) mit in die Chips integrieren um sie unabhängiger von den CPUs zu machen.
Was echt alle immer bei solchem Geschreibsel vergessen, dass nvidias Nachfolgeprodukte natürlich auch weiterentwickelt werden. Um so mehr sich Fermi verspätet, um so zeitnaher wird auch der Refresh kommen. Aber natürlich entwickelt nur ATI weiter und nvidia pennt auf allen Ebenen...Vom GT100 bin ich was die zu erwartende Leistung angeht nicht so beeindruckt. Zwar finde ich die Transistorzahl krass, aber damit nur 512 32-Bit-SP und gerade mal 128 TMUs aufs Gleis zu setzen ist schon etwas komisch. Allerdings dürfte es ausgehend vom GT100 relativ einfach sein, einen Chip mit zum Beispiel doppelte Shaderleistung zu konstruieren.
Naja so neu ist die Architektur nicht.
Natürlich ist sie größtenteils neu. bei den ALUs wurde so ziemlich alles verändert, genauso an der Speicherhierarchie.
So viel schneller als RV870 wird GT300 wohl nicht werden. Schließlich liefen die ALUs vorher schon auf hoher Auslastung. Die ALUs wurden etw. mehr als verdoppelt. Der Rest wurde nur um 60 % gesteigert. Bei RV870 wurde sogar alles außer der Bandbreite verdoppelt.
Ich habe schon mehrfach gesagt, dass man so nicht rechnen kann. Reine FLOPS sagen überhaupt nichts aus.
Vom GT100 bin ich was die zu erwartende Leistung angeht nicht so beeindruckt.
Könnt ihr's vielleicht mal abwarten?
Auf dem vergangenen Conference Call hat man geäußert, dass Fermi 4 Jahre in Entwicklung gewesen sei und dass man alle GPUs nach G80, als minimale Änderungen, auf dessen Basis, sieht.Als der G80 rauskam, sah ich die Architektur in erster Linie als GPU-Architektur. Auf einer CeBit erzählte mir dann ein Professor von der Uni Saarland mit leuchtenden Augen, was er und seine Studenten auf dem G80 über Cuda machen. Jetzt mit dem GT100 wird mir langsam klar, dass NV seit dem G80 nicht nur das Ziel der GPGPU verfolgt, sondern dass sie die Entwicklung eines Chips anstreben der gleichzeitig so viel Rechenkraft und Flexibilität hat, dass er sowohl als Koprozessor, als auch als GPU nutzbar ist. Man sieht ja schon an der D3D-10.1- und 11-Verspätung bei Nvidia, dass sie die reine Grafik einfach nicht mehr vorrangig interessiert. Ja einigermaßen aktuelle D3D-Versionen muss das Produkt auch beherrschen, aber die Erschließung der Shader-Rechenkraft für andere Aufgaben hat Vorrang.
Natürlich ist sie größtenteils neu. bei den ALUs wurde so ziemlich alles verändert, genauso an der Speicherhierarchie.Wahrscheinlich haben wir unterschiedliche Auffassungen von neu. Von der TNT bis zum GeForce 7900 GTX sehe hier mal ein Loop-Back, da einen neuen Port, aber nichts neues außer CineFX I. Selbst da war der Übergang fließend da NV30 noch die alten Combiner in Hardware hatte. Neu war dann der G80.
GT100 schaltet die ALUs anders und bietet mehr Double-Precision-Leistung, er hat mehr Cache der zudem konfigurierbart ist, der Scheduler kann mehr verwalten und es gibt mehr Datenpfade.
Ich habe schon mehrfach gesagt, dass man so nicht rechnen kann. Reine FLOPS sagen überhaupt nichts aus.Beim GT200 ist zumindest wenn es um 3D-Grafik geht die Auslastung schon recht hoch.
Könnt ihr's vielleicht mal abwarten?Nö, wir spekulieren.
AnarchX
2009-11-07, 21:16:15
Könnt ihr's vielleicht mal abwarten?
Seit GT200, der mit seinen 575mm² und 1.4Mrd. Transistoren auch so einiges versprach, geht man etwas kritischer an die Sache heran.;):D
Zumal Ailuros meint, dass eine GeForce 380 einen geringeren MSRP als Hemlock/HD5970 haben soll, welcher wohl eine ~50% höhere Balkenleistung als eine HD 5870 haben wird.
robbitop
2009-11-07, 21:22:17
Ich habe schon mehrfach gesagt, dass man so nicht rechnen kann. Reine FLOPS sagen überhaupt nichts aus.
Die Shaderleistung ist größer 2x. Aber der Rest nicht. ;)
Beim GT200 wollt's mir damals auch keiner glauben.
mapel110
2009-11-07, 21:22:42
Seit GT200, der mit seinen 575mm² und 1.4Mrd. Transistoren auch so einiges versprach, geht man etwas kritischer an die Sache heran.;):D
Zumal Ailuros meint, dass eine GeForce 380 einen geringeren MSRP als Hemlock/HD5970 haben soll, welcher wohl eine ~50% höhere Balkenleistung als eine HD 5870 haben wird.
nvidia muss ja auch zusehen, dass sie den DX11-Markt aufmischen. Derzeit stehts da 100% ATI zu 0% nvidia. Das gilt es mit allen Mitteln zu ändern, auch über den Preis.
btw 499 Dollar fänd ich super. Könnt ich mir endlich mal wieder richtiges High End gönnen. Dürfte in Europa dann ja etwa 450 € bedeuten. Das wäre ungefähr meine Schmerzgrenze, wenn das Gesamt-Paket stimmt.
=Floi=
2009-11-07, 21:24:13
100% = 280
130% =5870
195% = 380
passt :D
imho hat dx 10.1 nichts mit desinteresse am spieler zu tun. nv steckt genug geld in den support der firmen und bei 10.1 waren es eher andere sachen. ich vermisse es eh nicht. bei dx11 gibt es wieder gleichstand.
edit
Die Shaderleistung ist größer 2x. Aber der Rest nicht.
wie willst du das wissen? nv könnte die einheiten auch antsprechend aufbohren. diese 48 rops könnten auch wie alte 96 arbeiten ebenso könnten diese 128 TMUs entsprechenden durchsatz haben.
eine eigene taktdomäne würde hier auch helfen etc. direkt würde ich mich da nicht festlegen und ailurus hat das auch oft genug vorgetragen!
Black-Scorpion
2009-11-07, 21:29:46
10.1 hätte mit Sicherheit mehr Leute interessiert wenn nVidia mal wieder nicht einen auf sinnlos und braucht kein Mensch gemacht hätte.
Jetzt wo sie mit DX11 nicht aus dem Arsch kommen werfen sie urplötzlich 10.1 Hardware auf den Markt und DX11 ist jetzt nicht so wichtig.
Welche DX11 Games braucht es denn so extrem wichtig derzeit?
robbitop
2009-11-07, 21:31:17
Noch mehr Z-Tester? Glaub ich kaum. Bei den TMUs würd ich einen Besen fressen, wenn's mehr als Bi-TMUs wären. Und die Taktdomäne - das sind höchstens Nuancen.
Allein der Fakt, dass man eine GX2 braucht, um Hemlock zu schlagen sagt vieles. Die Grundspecs stehen auch. IMO wird das Ding lange kein 2x GTX285 sein.
Die Shaderleistung ist größer 2x. Aber der Rest nicht. ;)
Na und?
Beim GT200 wollt's mir damals auch keiner glauben.
GT200 ist auch nur ein aufgeblasener G80.
Laut Ail beginnen da einfach bestimmte Sachen massiv als Bottleneck zu wirken. Das sieht man ja auch schon bei der 9600.
Allein der Fakt, dass man eine GX2 braucht, um Hemlock zu schlagen sagt vieles.
Z.b. das RV870 weit mehr als Halb so groß ist.
reunion
2009-11-07, 21:48:16
Ich habe schon mehrfach gesagt, dass man so nicht rechnen kann. Reine FLOPS sagen überhaupt nichts aus.
Na nachdem GT200 laut dir schon auf 100% läuft ist die Sache schwer zu überbieten. Laut Gipsel scheint es ja da tw. sogar Rückschritte zu geben was die SFUs angeht und die MUL ist auch weg.
Die Shaderleistung ist größer 2x. Aber der Rest nicht. ;)
Die MADD Leistung ist größer als 2x, der Rest nicht. ;)
Und die Taktdomäne - das sind höchstens Nuancen.
Nun, die ALUs laufen mit mehr als dem doppelten Takt, wenn das Nuancen sind ...
Ich nehme an eine dritte Taktdomäne stünde irgendwo dazwischen.
robbitop
2009-11-07, 21:54:43
Nun, die ALUs laufen mit mehr als dem doppelten Takt, wenn das Nuancen sind ...
Ich nehme an eine dritte Taktdomäne stünde irgendwo dazwischen.
Das ist kaum zu vergleichen. Die TMUs bekommt man nicht umsonst nicht so hoch.
Laut Gipsel scheint es ja da tw. sogar Rückschritte zu geben was die SFUs angeht und die MUL ist auch weg.
Du kannst ja gerne mal ein Flow-Diagramm eines üblichen Instruction-Streams machen und wie das dann ausgeführt wird auf G80 und GT200 und deine eigenen Schlüsse ziehen.
Na nachdem GT200 laut dir schon auf 100% läuft ist die Sache schwer zu überbieten.
Es geht aber nicht nur um die reine Rechenleistung *facepalm*. Da gibt es noch zig andere Dinge die limitieren können.
Und wenn du mir richtig zugehört hättest, dann hättest du vielleicht auch verstanden auf was die 100% bezogen sind und warum das noch überhaupt gar nichts aussagt.
Das ist kaum zu vergleichen. Die TMUs bekommt man nicht umsonst nicht so hoch.Und den Rest ohne TMUs?
AnarchX
2009-11-07, 22:39:22
Bitte beim Thema bleiben und persönliche Sticheleien unterlassen.
Seit GT200, der mit seinen 575mm² und 1.4Mrd. Transistoren auch so einiges versprach, geht man etwas kritischer an die Sache heran.;):DAus meiner Sicht hat der GT200 die Versprechen erfüllt. Die G80-Leistung wurde natürlich nicht verdoppelt sofern man traditionelle Benchmarks nimmt, allerdings steckt der GT200 viele BQ-Features besser weg als der G80. Dann hatte Nvidia auch noch die Transistoren für 30 MADs in 64-Bit-Genauigkeit und vollem Subnorm-Support und der Unterstützung aller IEEE-Rundungsmodi. Ich will nicht wissen wie klein der Prozentsatz an GT200-Produkten ist, wo diese Units überhaupt mal genutzt werden.
Bei CineFX: "Wäre ja eigentlich ganz schön, auch im Pixelshader mit 32-Bit-Genauigkeit zu rechnen. Performance bringen wir später". Bei GT200: "Wäre ja ganz nett, 64-Bit-Genauigkeit mit Subnorm-Support zu haben. Bauen wir halt 30 Stück ein die dann auch noch jeweils einen 8-er Cluster an 32-Bit-Units blockieren."
10.1 hätte mit Sicherheit mehr Leute interessiert wenn nVidia mal wieder nicht einen auf sinnlos und braucht kein Mensch gemacht hätte.
Jetzt wo sie mit DX11 nicht aus dem Arsch kommen werfen sie urplötzlich 10.1 Hardware auf den Markt und DX11 ist jetzt nicht so wichtig.Die Betrachtungsweise hat ihre Berechtigung, was aber nicht heißt, dass alles was von dieser Ansicht abweicht, automatisch falsch ist. Nvidia hat den Markt nach vorne gebracht mit exzellenter Texturfilterung ab G80 (nach dem NV40- und G70-Desaster) und kümmert sich um 3D-Brillen-Unterstützung. G80 brachte neue Leistung welche zumindest einige wenige die Spiele-Entwickler dazu brachte, endlich mal lange und komplizierte Pixelshader-Berechnungen auszuführen.
reunion
2009-11-07, 22:44:07
Schön das es bei dir ausnahmsweise auch ohne Beleidigungen geht. Wenn auch erst im zweiten Anlauf.
Du kannst ja gerne mal ein Flow-Diagramm eines üblichen Instruction-Streams machen und wie das dann ausgeführt wird auf G80 und GT200 und deine eigenen Schlüsse ziehen.
Du weißt das ich das nicht kann, sonst würdest du das auch gar nicht schreiben. Du kannst es vermutlich genau so wenig wo der Chip noch nicht mal offiziell ist. Aber man weiß die groben technischen Daten, und anhand dessen ist ja wohl eine Spekulation erlaubt, auch wenn dir das nicht passt.
Es geht aber nicht nur um die reine Rechenleistung *facepalm*. Da gibt es noch zig andere Dinge die limitieren können.
Und wenn du mir richtig zugehört hättest, dann hättest du vielleicht auch verstanden auf was die 100% bezogen sind und warum das noch überhaupt gar nichts aussagt.
Ja, das durfte man bei GT200 auch dauernd hören bis die Katze aus dem Sack war. Vermutlich gab es auch in dieser Hinsicht Optimierungen, aber ob man sich davon Wunder erwarten kann darf zumindest bezweifelt werden. Aber natürlich bin ich auch der Meinung das GT300 schneller wird als es die reine Einheitenanzahl aussagt, sonst hätte ich das zu vorhin gar nicht geschrieben.
allerdings steckt der GT200 viele BQ-Features besser weg als der G80.
Hm? Welche denn? 8xAA ist immer noch genauso lahm wie auf G80 und das AF wurde auch nicht schneller.
Du kannst es vermutlich genau so wenig wo der Chip noch nicht mal offiziell ist.
Es gibt genügend Daten im Fermi-Paper dazu. Es bleiben Variablen, aber diese sind abzuschätzen.
Aber man weiß die groben technischen Daten, und anhand dessen ist ja wohl eine Spekulation erlaubt, auch wenn dir das nicht passt.
Mich stört die Engstirnigkeit was FLOPS angeht.
Ja, das durfte man bei GT200 auch dauernd hören bis die Katze aus dem Sack war. Vermutlich gab es auch in dieser Hinsicht Optimierungen, aber ob man sich davon Wunder erwarten kann darf zumindest bezweifelt werden.
Darf man. Ich gehe davon aus, dass wir da massive Verbesserungen sehen werden. G96 zeigt mir, dass da etwas ganz anderes limitiert als die reine Rechenleistung.
=Floi=
2009-11-07, 22:48:39
achso anarch ist mit dem besen gekommen. ich hatte gerade einen flashback, weil ich vorblättern wollte und dann gleich nochmal das gleiche gelesen hatte :ugly:
es reicht wenn man mehrere dinge nacheinander verbessert schon für beachtliche steigerungen. das wichtigste stellrädchen ist sicherlich der takt. der muß passen, sonst gibt es wieder ein desaster. eigentlich kann ati ja um den GT200a/b froh sein, weil sonst würde man nicht mal den schlagen! mit 800/2000 für die 55nm version würde die welt noch immer grün sein.
imho hat dx 10.1 nichts mit desinteresse am spieler zu tun. nv steckt genug geld in den support der firmen und bei 10.1 waren es eher andere sachen. ich vermisse es eh nicht. bei dx11 gibt es wieder gleichstand. G80 hatte schon fast alles für 10.1. Dass nicht schon der G92 dann für 10.1 erweitert wurde und der GT200 auch nicht, kann ich bis heute nicht nachvollziehen. Nvidia ist hier im 3D-Bereich Technologiebremse. Anstatt Entwicklern zu erklären wie man die 10.1-Features die G80 schon kann auch in D3D 10.0 nutzen kann, hätten sie 10.1-er Hardware ab dem G92 bringen sollen.
nv könnte die einheiten auch antsprechend aufbohren. diese 48 rops könnten auch wie alte 96 arbeitenGT200 bringt pro 64-Bit-ROP-Partition doppelte Z-Leistung wie G92 und trotzdem bedeutet 8x MSAA immernoch einen spürbaren fps-Einbruch. Wobei ich das schon beim NV40 nicht verstand, als es diese Crossbar und ebenfalls ROP-Partitionen gab: Da ein Pixel eh mehrere Takte braucht, könnte die ROP-Unit in Ruhe vor sich hinloopen. Offenbar sind die Speicherzugriffsmuster aber nicht auf hohe AA-Stufen optimiert.
ebenso könnten diese 128 TMUs entsprechenden durchsatz haben. Die haben schon beim GT200 einen Durchsatz nahe 100%.
LovesuckZ
2009-11-07, 22:53:15
G80 hatte schon fast alles für 10.1. Dass nicht schon der G92 dann für 10.1 erweitert wurde und der GT200 auch nicht, kann ich bis heute nicht nachvollziehen. Nvidia ist hier im 3D-Bereich Technologiebremse. Anstatt Entwicklern zu erklären wie man die 10.1-Features die G80 schon kann auch in D3D 10.0 nutzen kann, hätten sie 10.1-er Hardware ab dem G92 bringen sollen.
Weil man kein Budget zur Verfügung hat. Der GT200 war fast 600mm^2 groß. Die Umstrukturierung der TMUs sind wohl sehr massiv, wie man an den kleinen GT21x Chips sieht, die fast 50% Mehrtransistoren für die selbe Leistung besitzen.
/edit: Schlussendlich war es die Schuld von MS, dass sie den Teil mit dem AA nicht in D3D10 aufgenommen haben. Denn der scheint für viele am wichtigsten zu sein.
reunion
2009-11-07, 22:53:26
Es gibt genügend Daten im Fermi-Paper dazu. Es bleiben Variablen, aber diese sind abzuschätzen.
Na dann pack' mal aus.
Mich stört die Engstirnigkeit was FLOPS angeht.
Anders als zB bei G7x vs. G8x scheint ja der grobe technische Aufbau der ALUs nicht groß verändert worden zu sein, deshalb könnte die zumindest als Anhaltspunkt herhalten IMO.
Darf man. Ich gehe davon aus, dass wir da massive Verbesserungen sehen werden. G96 zeigt mir, dass da etwas ganz anderes limitiert als die reine Rechenleistung.
Das zeigt sich aber auch bei der Konkurrenz. Auch dort ist die Steigerung an fps weit geringer als es die Steigerung an Einheiten bsw. von RV670 bis RV870 andeuten würde.
Na nachdem GT200 laut dir schon auf 100% läuft ist die Sache schwer zu überbieten. Laut Gipsel scheint es ja da tw. sogar Rückschritte zu geben was die SFUs angeht und die MUL ist auch weg.Das wird mit der Architekturverbreiterung mehr als kompensiert. Natürlich geht Nvidia weg von GPU-Spezialitäten wie SFUs die man vor allem in Shadern braucht und von einem Extra-MUL, was bislang teilweise zur Perspektiv-Korrektur, teilweise für MUL-Lastige Shader genutzt wurde. Die GT100-Architektur ist mehr auf allgemeine Verwendbarkeit optimiert.
Grafik wird aber nicht vernachlässigt, da man mit bestimmten "Rückschritten" die Transistoren freibekommt, zusätzliche Cluster einzubauen. ATI hat auch im Laufe der Zeit bestimmte Sachen vereinfacht.
reunion
2009-11-07, 22:56:21
/edit: Schlussendlich war es die Schuld von MS, dass sie den Teil mit dem AA nicht in D3D10 aufgenommen haben. Denn der scheint für viele am wichtigsten zu sein.
Das ist nicht die Schuld von MS sondern von dem IHV (vermutlich Intel) der sie da nicht drin haben wollte.
PulsarS
2009-11-07, 22:56:40
Du kannst ja gerne mal ein Flow-Diagramm eines üblichen Instruction-Streams machen und wie das dann ausgeführt wird auf G80 und GT200 und deine eigenen Schlüsse ziehen.
Sorry Coda, aber was soll das werden?
Wer kennt sich besser aus?
Spar Dir demnächst solche Sprüche, vor allem wenn wir uns im Spekulationsforum befinden, wo jeder seine Meinung so äußern darf, wie es ihm gefällt. Alles klar? :)
Es geht aber nicht nur um die reine Rechenleistung *facepalm*. Da gibt es noch zig andere Dinge die limitieren können.
Wenn du schon so auf schlau tust, dann wird es für Dich sicherlich ein Leichtes sein uns alle hier zu erleuchten, oder?
Denn wir spekulieren alle nur, Du tust aber so als würdest du mehr wissen...
Es sei denn Du stehst unter NDA, dann entschuldige die persönliche Ansprache. :)
Und wenn du mir richtig zugehört hättest, dann hättest du vielleicht auch verstanden auf was die 100% bezogen sind und warum das noch überhaupt gar nichts aussagt.
Ich bin ganz Ohr.
edit: ui, das geht aber schnell hier.... :eek:
G80 hatte schon fast alles für 10.1.
Eben, wo ist das Problem?
Far Cry 2 hat gezeigt das es keins ist, es geht auch ohne den 1. Sticker.
Die G80 Techlevelverbreitung war zum HD3 Start höher als die D3D10 Verbreitung.
Dennoch hat sich keiner um G80 geschert.
Na dann pack' mal aus.
Ich kann dir schlecht meinen Kopfinhalt kopieren, und für's aufschreiben bin ich im Moment ehrlich gesagt zu faul.
Anders als zB bei G7x vs. G8x scheint ja der grobe technische Aufbau der ALUs nicht groß verändert worden zu sein, deshalb könnte die zumindest als Anhaltspunkt herhalten IMO.
Ihr fixiert euch viel zu sehr auf die ALUs. Schaut doch mal eher in Richtung Speichercontroller/crossbar und ROPs.
Das zeigt sich aber auch bei der Konkurrenz. Auch dort ist die Steigerung an fps weit geringer als es die Steigerung an Einheiten bsw. von RV670 bis RV870 andeuten würde.
Eben das ist ja der Punkt. Innerhalb einer Architektur hat man das Problem, weil die Auslastung irgendwann einen zu hohen seriellen Bottleneck hat. Deshalb braucht es ganz neue Ansätze an vielen Punkten. Und ich erwarte von Fermi da einiges nach 4 Jahren.
Sonst hätten wir ja schon seit Jahren (sprich seit der ersten GeForce) einen abnehmenden Ertrag was Rechenleistung/FPS angeht. Das ist aber so nicht beobachtbar.
ATI hat dies mit HD5870 nur an manchen Punkten getan, eine grundlegende Überarbeitung steht dort noch aus. Es kann durchaus auch sein, dass ATI mit HD6xxx einen wirklichen Paukenschlag bringt, nur halte ich HD5000 nicht für einen.
=Floi=
2009-11-07, 23:04:52
ich meinte mit durchsatz die breite der TMU an sich und nicht deren effizienz. wenn eine tmu dann doppelt so viel wie eine alte TMU durchdrückt, dann werden aus den 128 neuen TMUs quasi 256 alte. (in der theorie und nur als beispiel)
Ati hat hier ja auch angesetzt und seine ROPs beim RV770 aufgebohrt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/4/
deshalb würde ich mich nicht direkt von den reinen zahlen blenden lassen, wenn keine benchmarks veröffentlicht wurden. Ich traue auch nv nicht so eine kleine leistungssteigerung zu und die reinen zahlen klingen erst einmal ein wenig schwach.
edit
so hat man wenigstens das gleiche featureset vom G80 bis zum G200b!
ich finde das perfekt, weil so eine komplette kompatibilität gewährleistet wird. das wertet auch den G80 auf.
Anstatt Entwicklern zu erklären wie man die 10.1-Features die G80 schon kann auch in D3D 10.0 nutzen kann, hätten sie 10.1-er Hardware ab dem G92 bringen sollen.
Zumindest für G80-Besitzer ist der Weg von Nvidia der bessere ;)
Ja, das durfte man bei GT200 auch dauernd hören bis die Katze aus dem Sack war.Was durfte man hören? Zunächst erwartete man einen doppelten G92, also 256 SP und 128 TMUs bei einem 512-Bit-SI. Ich weiß noch wie ich bei der offiziellen Vorab-Präsentation für die Presse in München war: Nur 240 SP, nur 80 TMUs. Trotzdem ein 512-Bit-SI, was zum Geier?
Aber was heißt das? Dass NV schlechtere Ingenieure hat als gedacht, oder dass man selbst zu wenig über GPU-Design weiß?
Eher, dass bei GT200 von oben gekürzt wurde. Ail meinte mal, dass man eigentlich schon damals einen neuen Speichercontroller gebraucht hätte um die Performance wirklich auf die Straße zu bringen.
Hm? Welche denn? 8xAA ist immer noch genauso lahm wie auf G80 und das AF wurde auch nicht schneller.Ich habe jetzt keine Benchmarks parat, aber so wie ich das in Erinnerung habe, wurde der krasse Einbruch bei 8x AA im Vergleich zu G80 (und natürlich G92) abgemildert. Während der im Vorposting erwähnten Vorab-Vorstellung sprach ich Mr. Tamasi auf die 8x-MSAA-Performance an der mich angrinste dass ich doch mal auf dem GT200 8x MSAA probieren solle.
Das gute ab G80 ist ja, dass man zumindest bei Polygonaußenkanten sowas ähnliches wie 8x oder gar 16x zum Preis von 4x bekommt.
Eher, dass bei GT200 von oben gekürzt wurde. Wie meinst du "von oben gekürzt"?
Ail meinte mal, dass man eigentlich schon damals einen neuen Speichercontroller gebraucht hätte um die Performance wirklich auf die Straße zu bringen.Ja, das 512-Bit-SI hätten sie nicht gebracht wenns nicht notwendig gewesen wäre – rein von der Rohbandbreite her ist das SI viel zu dick. Offenbar besteht hier erhebliches Optimierungspotenzial.
PulsarS
2009-11-07, 23:08:50
Eben, wo ist das Problem?
Far Cry 2 hat gezeigt das es keins ist, es geht auch ohne den 1. Sticker.
Beim AA kannst du einen Renderpass sparen, wenn man es über die DX10.1-API anspricht ;)
reunion
2009-11-07, 23:09:40
Was durfte man hören? Zunächst erwartete man einen doppelten G92, also 256 SP und 128 TMUs bei einem 512-Bit-SI. Ich weiß noch wie ich bei der offiziellen Vorab-Präsentation für die Presse in München war: Nur 240 SP, nur 80 TMUs. Trotzdem ein 512-Bit-SI, was zum Geier?
Aber was heißt das? Dass NV schlechtere Ingenieure hat als gedacht, oder dass man selbst zu wenig über GPU-Design weiß?
Auch als schon die 240SPs/80TMUs feststanden waren viele noch der Meinung das konnte man nicht vergleichen, GT200 wäre viel schneller als es Einheitenbereinigt ggü. G8x aussah. Das meinte ich.
Beim AA kannst du einen Renderpass sparen, wenn man es über die DX10.1-API anspricht ;)
Bitte was? X-D
Wie meinst du "von oben gekürzt"?
Management.
Auch als schon die 240SPs/80TMUs feststanden waren viele noch der Meinung das konnte man nicht vergleichen, GT200 wäre viel schneller als es Einheitenbereinigt ggü. G8x aussah.
Weil man davon ausging, dass eben Verbesserungen an anderen Punkten stattgefunden hatten, was offensichtlich nicht der Fall ist. Ich war ja selber enttäuscht von dem Ergebnis.
Das wird sich nicht in der Form wiederholen bei Fermi, dafür hatte NVIDIA viel zu viel Konkurrenz in letzter Zeit.
Sorry Coda, aber was soll das werden?
Wer kennt sich besser aus?
Spar Dir demnächst solche Sprüche, vor allem wenn wir uns im Spekulationsforum befinden, wo jeder seine Meinung so äußern darf, wie es ihm gefällt. Alles klar? :)Nee. Eine Behauptung als Meinung zu titulieren und sich damit indirekt auf die Meinungsfreiheit zu berufen macht es nicht besser. Allerdings stimme ich zu, dass Codas Art zu wünschen übrig lässt. Zwar kann er sich den Tonfall leisten, aber er würde die Zahl seiner Zuhörer mindestens verdoppelt wenn er den krassen Unterton weglässt.
Auch als schon die 240SPs/80TMUs feststanden waren viele noch der Meinung das konnte man nicht vergleichen, GT200 wäre viel schneller als es Einheitenbereinigt ggü. G8x aussah.
Viele wussten noch nicht, das ein großteil der Einheiten in den völlig neuen Bereich DP gewandert ist.
Das wird sich jetzt nicht wiederholen, dieser Bereich wird im schlimmsten Fall nur massiv vergrößert.
PulsarS
2009-11-07, 23:12:43
ATI hat dies mit HD5870 nur an manchen Punkten getan, eine grundlegende Überarbeitung steht dort noch aus. Es kann durchaus auch sein, dass ATI mit HD6xxx einen wirklichen Paukenschlag bringt, nur halte ich HD5000 nicht für einen.
Das macht keinen Sinn.
Wenn ich an die HD4 einfach nur DX11 "dranklebe", dann sollte die Leistung fast die doppelte im Vergleich zum RV770 sein.
Wo geht die ganze Leistung hin?
Es sieht so aus, dass der RV870 eben nicht nur ein RV770 mit erweitertem DX11 ist.
Oder Treiber sind noch im Eimer....
LovesuckZ
2009-11-07, 23:14:28
Viele wussten noch nicht, das ein großteil der Einheiten in den völlig neuen Bereich DP gewandert ist.
Das wird sich jetzt nicht wiederholen, dieser Bereich wird im schlimmsten Fall nur massiv vergrößert.
Na, in den DP Teil ist kaum was geflossen. Die 30 DP SP machen kaum etwas aus und waren der einfachste Weg. Der GT200 scheint an anderen Bereichen zu kränken. Ein G94 hat 505 Millionen Transistoren und erreicht ca. 50% der Leistung des 1400 Millionen Transistoren Monster.
Das macht keinen Sinn.
Wenn ich an die HD4 einfach nur DX11 "dranklebe", dann sollte die Leistung fast die doppelte im Vergleich zum RV770 sein.
Wo geht die ganze Leistung hin?
Es sieht so aus, dass der RV870 eben nicht nur ein RV770 mit erweitertem DX11 ist.
Oder Treiber sind noch im Eimer....
Die Lösung ist simpel: RV870 ist kein doppelter RV770. Nicht in allen Punkten.
Weil man kein Budget zur Verfügung hat. Der GT200 war fast 600mm^2 groß. Die Umstrukturierung der TMUs sind wohl sehr massiv, wie man an den kleinen GT21x Chips sieht, die fast 50% Mehrtransistoren für die selbe Leistung besitzen.
/edit: Schlussendlich war es die Schuld von MS, dass sie den Teil mit dem AA nicht in D3D10 aufgenommen haben. Denn der scheint für viele am wichtigsten zu sein.Das war lange genug im Voraus geplant, Nvidia hat sich dagegenentschieden, dem User aktuellste D3D-Technik zu bringen. Wahrscheinlich nicht um ATI irgendwie eins auszuwischen (da der eigene Schaden größer ist) aber um Entwicklungskosten bei der Erweiterung zu sparen und den Gewinn zu maximieren.
Auch als schon die 240SPs/80TMUs feststanden waren viele noch der Meinung das konnte man nicht vergleichen, GT200 wäre viel schneller als es Einheitenbereinigt ggü. G8x aussah. Das meinte ich.G92 ist glaube ich mindestens 10% schneller pro Takt und Einheit als G80, GT200 legt noch mal eine Schippe drauf. Angesicht der nur 25% höheren Pro-Takt-TMU-Leistung bringt der GT200 insgesamt deutlich spürbare Mehrleistung. Eine GTX 260 mit nur 192 Cores zieht die 8800 Ultra schon sowas von ab ... zumindest in Crysis merke ich den Unterschied deutlich.
LovesuckZ
2009-11-07, 23:17:39
Das war lange genug im Voraus geplant, Nvidia hat sich dagegenentschieden, dem User aktuellste D3D-Technik zu bringen. Wahrscheinlich nicht um ATI irgendwie eins auszuwischen (da der eigene Schaden größer ist) aber um Entwicklungskosten bei der Erweiterung zu sparen und den Gewinn zu maximieren.
Ich bezweifel, dass man angeblichen Kleinigkeiten die Entwicklungskosten sparen will. Soweit ich es sehe, wären man deutlich größer geworden. Und dann kommt man in Bereichen, wo man über Sinn und Unsinn entscheiden muss.
PulsarS
2009-11-07, 23:19:44
Bitte was? X-D
AFAIK war es die Aussage von Demirug, kann mich aber auch täuschen.
Eben, wo ist das Problem?
Far Cry 2 hat gezeigt das es keins ist, es geht auch ohne den 1. Sticker.
edit
so hat man wenigstens das gleiche featureset vom G80 bis zum G200b!
ich finde das perfekt, weil so eine komplette kompatibilität gewährleistet wird. das wertet auch den G80 auf.Das sind keine vernünftigen Argumente, da es Argumente gibt die schwerer wiegen. D3D-10.1-Compliance ab G92 hätte viele Entwickler bewegt, die Vorteile von 10.1 gegenüber 10.0 in Spielen zu nutzen. G80 wäre vielleicht entwertet worden weil dann der NV-Sonderpfad gar nicht mehr genutzt worden wäre. Aber die Entwicklung schreitet nun mal voran.
PulsarS
2009-11-07, 23:21:40
Die Lösung ist simpel: RV870 ist kein doppelter RV770. Nicht in allen Punkten.
Und wie hilft uns deine Aussage jetzt weiter?:confused:
ich meinte mit durchsatz die breite der TMU an sich und nicht deren effizienz. wenn eine tmu dann doppelt so viel wie eine alte TMU durchdrückt, dann werden aus den 128 neuen TMUs quasi 256 alte. (in der theorie und nur als beispiel)
Ati hat hier ja auch angesetzt und seine ROPs beim RV770 aufgebohrt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/4/
deshalb würde ich mich nicht direkt von den reinen zahlen blenden lassen, wenn keine benchmarks veröffentlicht wurden. Ich traue auch nv nicht so eine kleine leistungssteigerung zu und die reinen zahlen klingen erst einmal ein wenig schwach.Eine TMU die genauso viel bringt wie zwei TMUs würde gleich als vermarktet als zwei TMUs. Nvidia spricht ab G80 auch von 128 SP obwohl der G80 tatsächlich nur 16 hat – die unter bestimmten Bedingungen von Durchsatz her wie 128 gesehen werden könnten.
Viele wussten noch nicht, das ein großteil der Einheiten in den völlig neuen Bereich DP gewandert ist.So viele Transistoren werden es nicht sein. Aber ich hatte während der Vorab-Vorstellung schon mit den Ohren geschlackert, als Nick Stam nach meiner Frage ob denn (bei den 32-Bit-Units) irgendwie Subnorms unterstützt werden, grinsend zur nächsten Folie schaltete die den Double-Precision-Support beschrieb. Subnorms, alle Rundungsmodi – in einem Takt (wenn man den Durchsatz betrachtet.) Zu dem Zeitpunkt war der GT200, obwohl angeblich Grafikchip, auch einer der besten Chips für IEE-754-2008-konforme Double-Precision-Berechnungen.
reunion
2009-11-07, 23:26:49
Ich kann dir schlecht meinen Kopfinhalt kopieren, und für's aufschreiben bin ich im Moment ehrlich gesagt zu faul.
Sorry, aber wenn du schon derart die Klappe aufreist hätte ich erwartet das zumindest irgendwas kommt.
Management.
Und das hätte welchen Sinn?
Ein G94 hat 505 Millionen Transistoren und erreicht ca. 50% der Leistung des 1400 Millionen Transistoren Monster.Aber nicht bei GPU-Limitierung.
Ich bezweifel, dass man angeblichen Kleinigkeiten die Entwicklungskosten sparen will. Soweit ich es sehe, wären man deutlich größer geworden. Und dann kommt man in Bereichen, wo man über Sinn und Unsinn entscheiden muss.Die Unterschiede sind im Feature-Set vom G80 bis zur vollen 10.1-Compliance gering; der Unterschied im Transistorverbrauch kann so groß nicht sein. Ansonsten könnte man den G80 bereits als Fehlkonzeption darstellen: Die Architektur lässt sich selbst um das Fetch4-Feature nur unter größeren Schmerzen erweitern.
reunion
2009-11-07, 23:27:52
Zu dem Zeitpunkt war der GT200, obwohl angeblich Grafikchip, auch einer der besten Chips für IEE-754-2008-konforme Double-Precision-Berechnungen.
Das konnte AFAIK schon RV670.
LovesuckZ
2009-11-07, 23:32:02
Aber nicht bei GPU-Limitierung.
Solange der Speicher nicht ausgeht, liegt man in der Nähe von 50% der Leistung - mal mehr, mal weniger.
Die Unterschiede sind im Feature-Set vom G80 bis zur vollen 10.1-Compliance gering; der Unterschied im Transistorverbrauch kann so groß nicht sein. Ansonsten könnte man den G80 bereits als Fehlkonzeption darstellen: Die Architektur lässt sich selbst um das Fetch4-Feature nur unter größeren Schmerzen erweitern.
Kann man. Fakt ist, dass die neuen GT21x Karten ein überproportionales Transistorenbudget für die Leistung aufweisen, das nicht auf den neuen Videoprozessor zurückzuführen ist.
Solange der Speicher nicht ausgeht, liegt man in der Nähe von 50% der Leistung - mal mehr, mal weniger.Höppla. Lt. Computerbase, getestet in 1680x1050 mit 8xAA (und 16x AF) erreicht die 9600 GT immerhin 35% der GTX-285-Leistung. Das ist beeindruckend. Bei 4x AA liegt die 9600-GT-Leistung bei ungefähr 43% der GTX-285-Performance.
Kann man. Fakt ist, dass die neuen GT21x Karten ein überproportionales Transistorenbudget für die Leistung aufweisen, dass nicht auf den neuen Videoprozessor zurückzuführen ist.Aus der Tatsache dass Nvidias D3D-10.1-Chips erstaunlich viele Transistoren brauchen (ca. 1/3 der Transistoren für 1/5 der Architektur des GT200) kann man nicht allzuviel in Bezug auf D3D 10.1 ableiten. Die vielen Transistoren können andere Gründe haben: Nvidia war zu faul, vernünftig zu optimieren, oder brauchte zusätzliche Schaltkreise um irgendwie die Taktbarkeit beim möglicherweise noch unzuverlässigen 40-nm-Prozess zu steigern oder irgendwas anderes.
PulsarS
2009-11-07, 23:45:04
Kann man. Fakt ist, dass die neuen GT21x Karten ein überproportionales Transistorenbudget für die Leistung aufweisen, das nicht auf den neuen Videoprozessor zurückzuführen ist.
Worauf denn dann?
Die 3D-Leistung scheint es ja nicht zu sein...
Und das hätte welchen Sinn?
Naja, offenbar hat man von ATI eben keinen RV770 erwartet.
Ailuros
2009-11-08, 06:52:41
Ich bin sogar überzeugt davon das Fermi deutlich schneller wird als eine 5870. Fermi ist NVs erste neue Architektur seit G80, worauf sich ein Großteil der Ressourcen konzentriert. Da sollte man doch einiges erwarten können. Zumal AMD diesmal nicht unbedingt ein Monster vorgelegt hat, sondern nur einen Refresh des RV770. Dafür stimmte die time-to-markt und genau hier liegt NVs Problem, denn in H2/2010 soll AMDs neue DX11 Architektur kommen.
Projektionen und realistische Erwartungen fuer einen noch nicht benutzten Prozess koennen einen Abstand haben. Wenn <40nm fertig ist dann ist es nicht nur fuer einen IHV.
Das spricht aber nicht unbedingt für die Leistung.
Damit GF100 gleich so viel kostet wie Hemlock muesste es auch zumindest gleich so schnell sein. Wie optimistisch willst Du genau sein?
Ailuros
2009-11-08, 07:16:04
Aus der Tatsache dass Nvidias D3D-10.1-Chips erstaunlich viele Transistoren brauchen (ca. 1/3 der Transistoren für 1/5 der Architektur des GT200) kann man nicht allzuviel in Bezug auf D3D 10.1 ableiten. Die vielen Transistoren können andere Gründe haben: Nvidia war zu faul, vernünftig zu optimieren, oder brauchte zusätzliche Schaltkreise um irgendwie die Taktbarkeit beim möglicherweise noch unzuverlässigen 40-nm-Prozess zu steigern oder irgendwas anderes.
Engineers wollten von Anfang 10.1 in GT200 haben; die marketing Fritzen haben es in der weiten Vergangenheit als nutzlos gehalten. Als sie ihren Fehler diesbezueglich endlich einsahen (hauptsaechlich im Bezug zu OEM deals) und es klar wurde dass 40nm nicht das gelbste vom Ei ist, nutzte man die Zwischenzeit aus und klatschte das Zeug einfach drauf.
Was die DP Einheiten auf GT200 betrifft ist jede glaube ich etwas groesser als 1qmm@40nm.
***edit: uebrigens zwar verdammt OT aber IMG entfernt einige Funktionalitaeten von der vollen SGX Grundarchitektur um die area im eingebetteten Markt zu sparen.
SGX545 = 4 Vec2 ALUs, 2 TMUs, 16 z check units, D3D10.1, OGL3.0, full OpenCL profile = 12.5mm2@65nm
SGX543 = 4 Vec4 ALUs, 2 TMUs, 16 z check units, SM3.0+, OGL2.0, embedded OpenCL profile = 8mm2@65nm
Weiss der Geier was fuer ein kompliziertes plus/minus man hier ausrechnen muesste um zu sehen wieviel 10.1 genau kostet, aber wenig ist es anscheinend wohl doch nicht.
robbitop
2009-11-08, 08:01:14
***edit: uebrigens zwar verdammt OT aber IMG entfernt einige Funktionalitaeten von der vollen SGX Grundarchitektur um die area im eingebetteten Markt zu sparen.
SGX545 = 4 Vec2 ALUs, 2 TMUs, 16 z check units, D3D10.1, OGL3.0, full OpenCL profile = 12.5mm2@65nm
SGX543 = 4 Vec4 ALUs, 2 TMUs, 16 z check units, SM3.0+, OGL2.0, embedded OpenCL profile = 8mm2@65nm
Weiss der Geier was fuer ein kompliziertes plus/minus man hier ausrechnen muesste um zu sehen wieviel 10.1 genau kostet, aber wenig ist es anscheinend wohl doch nicht.
SGX545 hatte AFAIK 4 TMUs. Und TMUs (inkl Anbindung und Cache) kosten.
Ailuros
2009-11-08, 08:06:53
SGX545 hatte AFAIK 4 TMUs. Und TMUs (inkl Anbindung und Cache) kosten.
http://www.mitrax.de/?cont=artikel&aid=35&page=4
....with the exception of 535 all cores have been 2:1 ALU:TMU.
Die letztere Quelle darfst Du Dir ausdenken.
robbitop
2009-11-08, 08:40:53
Hm bisher hieß es immer, die SGX5x5 Kerne haben ein 1:1 Verhältnis. Also 545: 4 TMUs und 4 ALUs.
535: 2 TMUs und 2 ALUs.
Das konnte AFAIK schon RV670.
"einer der besten" <-> "das"
aths Aussage habe ich so verstanden, dass nicht nur ein paar Basisfunktionen (aka checklistfeatures) geboten werden, sondern man richtig was nutzbares bekommt - wenn auch die theoretische Spitzenleistung nicht besonders hoch war.
Da Fermi ebenfalls noch ein Skalardesign haben dürfte, wird auch hier wieder der Transistor-/Platzaufwand erheblich mehr ansteigen als bei AMDs Vec5-ALUs. Es bleibt an dieser Stelle eher festzuhalten: Schuster bleib bei deinen Leisten, genau das tut NV aber nicht. Ich halte schon den G80 für ein zweifelhaftes Design. Sicher ist er gut, weil seine Auslastung immer optimal ist. Das gilt auch für den GT200. Aber: Es wird gerne vergessen, dass das verdammt teuer erkauft wird! AMD schafft mit weniger Oganisationsaufwand bessere Rechenleistung, da AMD die Stärke eben der Verkoreinheiten nutzt und NV nicht mehr. Das ist aber grade die Stärke eines solchen Grafikchips. AMD nutzt sozusagen die Brute-Force-Methode, in dem man die theoretische Rechenleistung garnicht ausnutzen kann. Das ist aber auch nicht vorgesehen und wird einfach so hingenommen und als gute Energiebilanz verkauft. Ironischerweise kostet AMDs Impelementation aber weniger Transistoren, eben weil die Organisation der ALUs eine sehr gewichtige Rolle spielt. Erschwerend hinzu kommt, dass Organisation nicht nur Transistoren sondern vor allem auch Platz braucht! Je fetter der Chip, desto fetter der Vorteil der Vec5-ALUs ggü. den Skalareinheiten. Man braucht würde ich sagen 3x mehr Transistoren für die Organisation der ALUs bei NVs Implemenation. Deshalbs sind AMDs Grafikchips recht klein und NVs so riesig...
Der GT200 steht auch nach dem 55nm-Shrink in keinem Verhältnis zum RV770/790 und der Fermi wird noch weniger in irgendein Verhältnis mit dem Cypress zu bringen sein. Erschwerend hinzu kommt, dass Cypress noch 2010 von einem 28nm-Variante abgelöst werden dürfte...
Dazu passt i.Ü. auch die Politik mit den Speichercontrollern. NVs Riesenchips bieten natürlich sehr viel Platz, um viele Speichercontroller unterzubringen. Die Dinger müssen schließlich verdrahtet werden, deswegen kann man die nicht beliebig mitschrumpfen. AMD hingegen kann garnicht anders als das Speicherinterface auf 256Bit zu beschränken, da der Platzverbrauch sonst exorbitant gross wär. Man kann müsste "in die Tiefe" gehen, weil die Ränder des Chips für das Speicherinterface >256bit bei ~300mm² zuwenig Platz bieten dürften.
Der GF100 wird sicherlich ähnlich potent wie der Cypress, aber ich bezweifle ernsthaft, dass er signifikant bessere Leistungen bringen kann. Dafür dürfte der die 400mm² wieder reißen.
Und wie hilft uns deine Aussage jetzt weiter?:confused:
Du hast die Frage in den Raum geworfen, warum RV870 nicht doppelt so schnell wie RV770 ist.
Gipsel
2009-11-08, 13:08:28
Zu dem Zeitpunkt war der GT200, obwohl angeblich Grafikchip, auch einer der besten Chips für IEE-754-2008-konforme Double-Precision-Berechnungen.
Das konnte AFAIK schon RV670.
Das Schlüsselwort hier ist IEEE-754 konform. ATI war zwar erheblich früher mit dem DP-Support dran (HD3800), aber nv hat ist mit dem GT200 zumindest vom Featureset einen Schritt weiter gegangen (Performance liegt aber noch unter einer HD3870). Die ATIs hatten zwar die deutlich höhere Leistung (HD48xx-Serie ~Faktor 3 zur GT200), allerdings fehlten einige Sachen: Denorms (die neuerdings subnorms heißen), die Rundungsmodi sowie eine FMA-Anweisung. Letztere benötigt man, um für in Iterationsverfahren berechnete Operationen auch das allerletzte Bit (einfach und schnell) korrekt zu bekommen (z.B. für die Wurzel oder auch die Division, die GPUs nicht direkt in Hardware ausführen).
RV870 hat übrigens in all den Punkten nachgezogen. Weiterhin gibt es die Features nicht mehr nur für DP wie bei GT200, sondern auch für SP.
Undertaker
2009-11-08, 13:33:13
Der GF100 wird sicherlich ähnlich potent wie der Cypress
"Ähnlich potent" könnte sich schnell als harsche Unterschätzung erweisen, auch wenn es für genaue Zahlen natürlich noch nicht reicht. Auch das Performance/mm² Verhältnis dürfte sich in der DX11 Generation deutlich annähern, Performance/Watt nahm sich schon in der letzten Generation nichts.
Benedikt
2009-11-08, 14:56:08
<...>
Danke für diesen hochinteressanten und verständlichen Post. Erklärt so einiges.
Engineers wollten von Anfang 10.1 in GT200 haben;Das wäre sinnvoll gewesen, da G92 "nur" ein netter G80-Costdown-Taktraten-Refresh und GT200 der "richtige" Refresh. GF4 Ti bekam zum Beispiel Pixelshader 1.3 spendiert obwohl abzusehen war dass es kein einziges Game geben wird, was durch 1.3 irgendwelche Vorteile hat.
die marketing Fritzen haben es in der weiten Vergangenheit als nutzlos gehalten. Als sie ihren Fehler diesbezueglich endlich einsahen (hauptsaechlich im Bezug zu OEM deals) und es klar wurde dass 40nm nicht das gelbste vom Ei ist, nutzte man die Zwischenzeit aus und klatschte das Zeug einfach drauf.Ja, eine höhere D3D-Version lässt sich dem Kunden immer besser verkaufen als eine nicht ganz so hohe. Der Kunde soll eine GTX 280 kaufen und dabei noch die Angst haben, dass er im Gegensatz zum ATI-Kunden nicht alle Regler auf Maximum stellen kann ...?
Was die DP Einheiten auf GT200 betrifft ist jede glaube ich etwas groesser als 1qmm@40nm.Gibts den GT200 in 40 nm; bzw. unterstützen Nvidias Lowend-Produkte GT 210 und GT 220 auch Doubleprecision?
Weiss der Geier was fuer ein kompliziertes plus/minus man hier ausrechnen muesste um zu sehen wieviel 10.1 genau kostet, aber wenig ist es anscheinend wohl doch nicht.Der Vergleich bezieht sich doch auf SM3 vs. SM 4.1? Schon ab SM 4 muss sRGB-korrekte Texturfilterung geboten werden, was ziemlich teuer ist.
mapel110
2009-11-08, 15:05:49
Da Fermi ebenfalls noch ein Skalardesign haben dürfte, wird auch hier wieder der Transistor-/Platzaufwand erheblich mehr ansteigen als bei AMDs Vec5-ALUs. Es bleibt an dieser Stelle eher festzuhalten: Schuster bleib bei deinen Leisten, genau das tut NV aber nicht. Ich halte schon den G80 für ein zweifelhaftes Design. Sicher ist er gut, weil seine Auslastung immer optimal ist. Das gilt auch für den GT200. Aber: Es wird gerne vergessen, dass das verdammt teuer erkauft wird! AMD schafft mit weniger Oganisationsaufwand bessere Rechenleistung, da AMD die Stärke eben der Verkoreinheiten nutzt und NV nicht mehr. Das ist aber grade die Stärke eines solchen Grafikchips. AMD nutzt sozusagen die Brute-Force-Methode, in dem man die theoretische Rechenleistung garnicht ausnutzen kann. Das ist aber auch nicht vorgesehen und wird einfach so hingenommen und als gute Energiebilanz verkauft. Ironischerweise kostet AMDs Impelementation aber weniger Transistoren, eben weil die Organisation der ALUs eine sehr gewichtige Rolle spielt. Erschwerend hinzu kommt, dass Organisation nicht nur Transistoren sondern vor allem auch Platz braucht! Je fetter der Chip, desto fetter der Vorteil der Vec5-ALUs ggü. den Skalareinheiten. Man braucht würde ich sagen 3x mehr Transistoren für die Organisation der ALUs bei NVs Implemenation. Deshalbs sind AMDs Grafikchips recht klein und NVs so riesig...
Der GT200 steht auch nach dem 55nm-Shrink in keinem Verhältnis zum RV770/790 und der Fermi wird noch weniger in irgendein Verhältnis mit dem Cypress zu bringen sein. Erschwerend hinzu kommt, dass Cypress noch 2010 von einem 28nm-Variante abgelöst werden dürfte...
Dazu passt i.Ü. auch die Politik mit den Speichercontrollern. NVs Riesenchips bieten natürlich sehr viel Platz, um viele Speichercontroller unterzubringen. Die Dinger müssen schließlich verdrahtet werden, deswegen kann man die nicht beliebig mitschrumpfen. AMD hingegen kann garnicht anders als das Speicherinterface auf 256Bit zu beschränken, da der Platzverbrauch sonst exorbitant gross wär. Man kann müsste "in die Tiefe" gehen, weil die Ränder des Chips für das Speicherinterface >256bit bei ~300mm² zuwenig Platz bieten dürften.
Der GF100 wird sicherlich ähnlich potent wie der Cypress, aber ich bezweifle ernsthaft, dass er signifikant bessere Leistungen bringen kann. Dafür dürfte der die 400mm² wieder reißen.
Vor 2011 sollte man keinen großen Chip in 32 oder 28 nm erwarten. Das ist einfach unrealistisch. 400mm² werden totsicher überschritten. Es ist eher die Frage, ob er unter 500mm² bleiben kann oder nicht. Aber ich sehe da keine Relevanz für den Kunden. nvidia verkauft derzeit auch 500mm² für unter 130 €. Da sollte es bei einem 499 Dollar MRP genug Spielraum geben.
GT200b ist ca 30% schneller als RV790. Und dann muss man dabei noch bedenken, dass ATI mehr am Filter spart. So übel ist also die ProTransistor-Leistung nicht. Obendrein wird die Luft in höheren fps-Bereichen ja auch immer dünner.
AnarchX
2009-11-08, 15:06:21
Gibts den GT200 in 40 nm; bzw. unterstützen Nvidias Lowend-Produkte GT 210 und GT 220 auch Doubleprecision?
Nein, die veröffentlichten GT21x haben keine DP-ALUs.
"einer der besten" <-> "das"
aths Aussage habe ich so verstanden, dass nicht nur ein paar Basisfunktionen (aka checklistfeatures) geboten werden, sondern man richtig was nutzbares bekommt - wenn auch die theoretische Spitzenleistung nicht besonders hoch war.Ich hatte damals kurz im Internet geschaut, was man sonst so an Double-Precision-Leistung geboten bekommt. Das ist schon eine Weile her, ich will mich da nicht zu weit aus dem Fenster lehnen; aber eine Single- oder sogar Multi-GT200-Lösung erschien mir als kostengünstige Alternative zu CPU-Clustern oder Cell-basierenden Clustern, wobei ich mir nicht sicher bin ob der Cell überhaupt Subnorms unterstützt.
Eine Uni nutzte mal ein Mainboard von MSI und vier 9800-GX2-Karten zu verbaue. Da müssten für Cuda auch vier GTX 295 laufen. Das sind 240 DP-FMAs, also 480 DP-Operationen bei 1242 MHz, also fast 600 GFlop/s bei 64-Bit-Genauigkeit. Kosten ungefähr:
1600 Euro Server-Gehäuse, Mobo, Grund-CPU, Netzteile
2400 Euro die vier Grafikkarten
------
4000 Euro
Da Fermi ebenfalls noch ein Skalardesign haben dürfte, wird auch hier wieder der Transistor-/Platzaufwand erheblich mehr ansteigen als bei AMDs Vec5-ALUs. Es bleibt an dieser Stelle eher festzuhalten: Schuster bleib bei deinen Leisten, genau das tut NV aber nicht. Ich halte schon den G80 für ein zweifelhaftes Design. Sicher ist er gut, weil seine Auslastung immer optimal ist. Das gilt auch für den GT200. Aber: Es wird gerne vergessen, dass das verdammt teuer erkauft wird! AMD schafft mit weniger Oganisationsaufwand bessere Rechenleistung, da AMD die Stärke eben der Verkoreinheiten nutzt und NV nicht mehr. Das ist aber grade die Stärke eines solchen Grafikchips. AMD nutzt sozusagen die Brute-Force-Methode, in dem man die theoretische Rechenleistung garnicht ausnutzen kann. Das ist aber auch nicht vorgesehen und wird einfach so hingenommen und als gute Energiebilanz verkauft. Ironischerweise kostet AMDs Impelementation aber weniger Transistoren, eben weil die Organisation der ALUs eine sehr gewichtige Rolle spielt.Ja im Moment bieten die Radeon-Chips die größere "effektive" Leistung pro Transistor. Trotzdem heißt das nicht, dass Nvidia auf dem falschen Weg ist. Je mehr ALUs im Chip sind, desto mehr Daten gibt es zu verteilen. Ohne die Verteilungslogik bei ALU-Verdopplung deutlich zu verbessern, sinkt die Effizienz. ALUs werden tendenziell auch größer. Die ALU-Chipfläche besser auszunutzen, steht dann im Vorteil. Nvidia hatte schon seit GeForce 2 mehr ALU-Leistung als (vernünftig) genutzt wurde. Bei CineFX 1 und 2 war es besonders schlimm, die (ohnehin wenigen) ALUs konnten nicht mit voller Auslastung laufen; auch CineFX 3 und 4 profitieren von FP16 weil die Datenverteilung (bzw. das Registerfile) noch limitieren. Daraus hat Nvidia gelernt. Ab GT200 spricht Nvidia auch davon, dass es speziell für Cuda Datenverteilungslogik gäbe, die beim 3D-Rendering gar nicht genutzt wird. Das kostet Transistoren, stellt Nvidia aber im GPGPU-Bereich besser auf.
Doch noch mal zum G80 bzw. dem Derivat G84 (8600 GTS.) 32 skalare Shader entsprechen acht traditionellen Pixelpipeline-ALUs, durch den doppelten Takt ungefähr 16 derer. (Ich mache hier eine Milchmädchenrechnung auf.) Die 8600 hat außerdem 16 TMUs. Sie zieht bei modernen Spielen eine 7900 GT gnadenlos ab obwohl sie 24 Pipelines plus einige Vertexshader hat. Es steht 289 Mio gegen 278 Mio Transistoren (G84 vs G71) wobei die 278 bereits durch Optimierung entstanden, der G70 hatte original noch 302 Mio.
Dabei darf man nicht vergessen, dass G84 bereits volle SM4-Compliance bietet und nicht nur SM3.
Weiss der Geier was fuer ein kompliziertes plus/minus man hier ausrechnen muesste um zu sehen wieviel 10.1 genau kostet, aber wenig ist es anscheinend wohl doch nicht.
Für D3D10-Unterstützung braucht man wohl mehr ggü. SM3+ als dann noch für 10.1 oben drauf.
AnarchX
2009-11-08, 15:58:13
Wenn man die GT21x-GPUs betrachtet, dann hätte man mit den 1.4Mrd. Transitoren eines GT200, wohl nur eine D3D10.1-GPU auf dem Niveau der GTX 260 192SPs erreichen können.
Bleibt natürlich die Frage ob hier D3D10.1 soviel gekostet hat oder der 40nm Prozess entsprechende Redundanz gefordert hat, wenn auch dafür die Taktraten wieder sehr niedrig sind.
mapel110
2009-11-08, 16:03:14
Ailuros hat doch gesagt, dass man sich bei diesen Modellen keine große Mühe gegeben hat. Also kann man sie schlecht als Referenz für High End nehmen.
reunion
2009-11-08, 16:25:54
Ailuros hat die Dinger nicht designt. Was heißt keine große Mühe gegeben? Man sollte sich davon lösen das Ailuros der große Manitu ist. Wir haben die GT21x-Chips und sehen das diese erheblich mehr Transistoren benötigen als ihre GT20x Pendants. Einzig neues Feature ist D3D10.1. Ein kleinerer Fertigungsprozess sollte eigentlich dazu führen das man Redundanz entfernen kann. Die Beweislast ist IMO erdrückend.
AnarchX
2009-11-08, 16:39:51
Ailuros hat doch gesagt, dass man sich bei diesen Modellen keine große Mühe gegeben hat. Also kann man sie schlecht als Referenz für High End nehmen.
Auch bei GT200 gab man sich keine große Mühe, sodass wohl die Entscheidung stand langsame D3D10.1 GPU oder etwas schnelleres D3D10-Design.
aylano
2009-11-08, 17:09:09
GT200b ist ca 30% schneller als RV790.
Wie kommst du auf +30%???
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating
Wenn ich mir diese Benches vergleiche, kommen ich auf ca. 10% (oder so), auch wenn ich die 8AA nicht berücksichtige.
Oder sind diese Benches falsch???
---------------------
Um den GT300 besser einschätzen zu können, habe ich mir mal die Entwicklung von G80 --> G92 --> GT200 paar Stunden angesehen bzw. richtige Daten rausgesucht.
Und ist mir aufgefallen, die Performance-pro-Watt (Performance aus Computerbase) ist beim G92 mit 13% recht wenig gewachsen, obwohl dieser einen 90nm--->65nm Umstieg hatte.
Aus Sicht des G92 finde ich, wenn ich es jetzt richtig rausgelesen habe, den GT200 nicht mehr enttäuschend, sondern fast schon eine lineare Entwicklung zum G92.
Aus Sicht des G80 ist der GT200 schon die enttäuschen, aber weil eben schon der G92 enttäuschend war.
Weiß jemand, was beim G92 genau passierte???
Zwar ist dieser 10% schneller, aber dementsprechend mehr Takt hat dieser auch.
Was mich verwundert ist, der G92 hat 13% mehr Transistoren.
Keine Ahnung was die zusätzlichen Transistoren brachten, aber das könnte der Grund sein, warum der Stromverbrauch vom G80 (1,30? Volt-90nm) auf G92 (1,25? Volt-65nm) kaum gesunken ist.
Und somit stieg die Perforamance-pro-Watt-Effizienz trotz 90nm-->65nm-Umsteig kaum.
Fazit:
So ein wirkliches Fazit kann ich nicht machen, da ich nicht weiß, was mit den zusätzlichen 13% an Transistoren passierte. (Vielleicht weiß es wer).
Wenn diese für GPGPU genutzt/eingebaut wurden, dann könnte auch die stärkere GPGPU-Richtung des GT300 auf kosten von Performance-pro-Watt in Games gehen.
Interessant bei diesen Performance-Rating-Computerbase-Vergleich war auch, die Performance des RV770 vs. RV670 stieg nur im High-Qualität (4AA/16AF) um fast 100%. In non-Qualität um 60%.
Interessanter Zuwachs, aber "zufällig" war der RV670 im Vergleich zum G80 im High-Qualität Modus ca. 20% schlechter als im non-HQ-Modus.
Beim HD5870 vs. HD4870 war der Zuwachs sowohl bei HQ als auch bei non-HQ bei ca. 60%
Kurz gesagt: Daumen-mal-Pi
Vielleicht sind bei 100% Mehr-Einheiten ein 60%-Gamerwachstum ziemlich normal, auch wenn die Taktraten "nicht ganz genau" die gleichen sein müssen.
Also, aus dieser Betrachtung würde mich es nicht wundern wenn GT300 (600/1300Mhz) nur um 60% schneller ist als GTX280 und somit 10-20% vor HD5870 liegt.
Interessant beim HD5870 ist die enorme Spannungsabsenkung von 1,30 auf 1,15, was den Stromverbrauch niedrig lässt.
(Und auf den Stromverbrauch des GT300 bin ich auch gespannt, was eventuell Auswirkungen auf den Takt haben könnte, siehe R600)
Ailuros hat die Dinger nicht designt. Was heißt keine große Mühe gegeben? Man sollte sich davon lösen das Ailuros der große Manitu ist. Wir haben die GT21x-Chips und sehen das diese erheblich mehr Transistoren benötigen als ihre GT20x Pendants. Einzig neues Feature ist D3D10.1. Ein kleinerer Fertigungsprozess sollte eigentlich dazu führen das man Redundanz entfernen kann. Die Beweislast ist IMO erdrückend.Es liegen nur Indizien vor. Genauer gesagt liegt nur ein Indiz vor. Wenn D3D 10.1 so viele Transistoren brauchen würde, warum benötigt ATI nicht so viele? Wer kann sagen, inwiefern die kleinen GT-Chips Einheiten möglicherweise mehrfach vorliegen haben um den Yield zu steigern? Wurden möglicherweise logische Schaltkreise mit zusätzlichen Transistoren genutzt um bei einer möglichen schlechten erwarteten Taktbarkeit im noch unausgereiften 40-nm-Prozess die Taktraten zu steigern? Denkbar, wenn auch zugegebenermaßen nicht besonders wahrscheinlich wäre auch, dass alte D3D-10-Units drin blieben (die dann nur noch Daten durchleiten) und neue D3D-10.1-Units eingefügt wurden, weil es aus irgendeinem Grunde umständlich erschien, die alten Units umzuarbeiten.
AnarchX
2009-11-08, 17:14:23
Und ist mir aufgefallen, die Performance-pro-Watt (Performance aus Computerbase) ist beim G92 mit 13% recht wenig gewachsen, obwohl dieser einen 90nm--->65nm Umstieg hatte.
Auf welcher Basis kommst du auf 13%?
Mit vergleichbarer Bandbreite sehe ich da 30% bei gleicher Leistungsaufnahme:http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet (GTS 640 vs GTS 512)
=Floi=
2009-11-08, 17:15:23
immerhin hat ail. mehr einsicht in details wie du. ;D ebenso versorgt er uns mit guten (insider) informationen und das rechne ich ihm hoch an!
solche leute machen das 3dcenter aus.
ich halte das G80-design schon für gut, weil nv eben auf mehr effizienz setzt. umgedreht wird ja auch ein schuh draus, wenn ich mit brute force die power nicht mehr auf den boden bringe und trotzdem die einheiten auf den chip verbauen muß. es wäre eben die frage ob nicht sogar ein juniper mit mehr verwaltungslogik und 1ghz reichen würde um auf 75% der leistung eines cypress zu kommen. hier schein ja ein erheblicher flaschenhals zu sein und dauerhaft kann man sowieso nicht so weiterfahren. der weg muß ja schlicht scheitern, weil auch checklistenfeatures bei einem kleineren chip teurer sind wie bei einem größeren.
ich dachte nv hatte immer weniger alu leistung wie ati?!
reunion
2009-11-08, 17:27:53
Es liegen nur Indizien vor. Genauer gesagt liegt nur ein Indiz vor. Wenn D3D 10.1 so viele Transistoren brauchen würde, warum benötigt ATI nicht so viele?
Woraus schließt du das AMD nicht so viele Transistoren benötigt?
Wer kann sagen, inwiefern die kleinen GT-Chips Einheiten möglicherweise mehrfach vorliegen haben um den Yield zu steigern? Wurden möglicherweise logische Schaltkreise mit zusätzlichen Transistoren genutzt um bei einer möglichen schlechten erwarteten Taktbarkeit im noch unausgereiften 40-nm-Prozess die Taktraten zu steigern? Denkbar, wenn auch zugegebenermaßen nicht besonders wahrscheinlich wäre auch, dass alte D3D-10-Units drin blieben (die dann nur noch Daten durchleiten) und neue D3D-10.1-Units eingefügt wurden, weil es aus irgendeinem Grunde umständlich erschien, die alten Units umzuarbeiten.
Ja, Möglichkeiten gibt es nahezu endlos, aber wenn man so argumentiert kann man alles in Abrede stellen. Beweisen kann man natürlich gar nichts, aber am naheliegendsten ist es allemal das es an D3D10.1 liegt.
Woraus schließt du das AMD nicht so viele Transistoren benötigt?Vergleich des Transistor-Counts von einigermaßen gleich leistungsstarken GPUs.
Ja, Möglichkeiten gibt es nahezu endlos, aber wenn man so argumentiert kann man alles in Abrede stellen. Beweisen kann man natürlich gar nichts, aber am naheliegendsten ist es allemal das es an D3D10.1 liegt.Das wäre der Fall, wenn einleuchtend wäre, dass Fetch4 dermaßen viele Extratransistoren bräuchte. Es geht aber nicht mal um einen vollen Sprung von 10.0 auf 10.1 – etliche 10.1-Features hat schon G80 – und selbst dann wäre der Tranistoraufschlag verwunderlich.
reunion
2009-11-08, 17:41:44
Vergleich des Transistor-Counts von einigermaßen gleich leistungsstarken GPUs.
Daraus kannst du aber nicht auf den zusätzlichen Transistor-Count zwischen D3D10 und .1 schließen, sondern nur darauf das AMDs Design weniger Transistoren bei gleicher Leistung benötigt.
Das wäre der Fall, wenn einleuchtend wäre, dass Fetch4 dermaßen viele Extratransistoren bräuchte. Es geht aber nicht mal um einen vollen Sprung von 10.0 auf 10.1 – etliche 10.1-Features hat schon G80 – und selbst dann wäre der Tranistoraufschlag verwunderlich.
Es bedarf zumindest einer wohl nicht unerheblichen Überarbeitung der TMUs. Aber ich bin kein Chipdesigner, warum/wieso/weshalb die GT21x-Chips den deutlichen Aufschlag an Transistoren benötigen kann nur spekuliert werden.
GT200b ist ca 30% schneller als RV790. Und dann muss man dabei noch bedenken, dass ATI mehr am Filter spart. So übel ist also die ProTransistor-Leistung nicht. Obendrein wird die Luft in höheren fps-Bereichen ja auch immer dünner.Aber wenn man ehrlich ist, hat Nvidia nach dem G80 tendenziell immer enttäuscht:
G84: Kein G82 mit halber Breite, nur ein G84 mit einem Viertel der Shaderarchitektur. Wenigstens Verbesserung der Texturadressierungseinheiten. Naja, der Performance-Vorgänger 7900 GT wird trotzdem knapp übertroffen.
G92: Kein D3D 10.1, Rückgang vom 384-Bit-SI auf 256-Bit-SI. Naja, als 9800 GTX wurde dann via Takt-Steigerung doch die 8800-GTX-Leistung knapp überboten.
GT200: Keine erwartete G92-Verdopplung. Noch immer kein D3D 10.1. Seltsamerweise blieb es ALU-mäßig bei MUL+MAD. Wieso wurde das nicht auf MAD+MAD erweitert? Dann hätte man zum G80/G92 auch einen vernünftigen MAD-Leistungsanstieg bekommen. Mit zwei MAD-Units pro SP wäre der GT200 auch ohne D3D 10.1 abgefeiert worden. Naja, es war ja seinerzeit trotzdem der schnellste Chip. Man hatte mehr erwartet aber was soll man gegen den King im Ring sagen ...
Insofern ist die Skepsis beim GF100 nachvollziehbar: Was sind Zahlen, was ist tatsächliche Leistung?
Wieso wurde das nicht auf MAD+MAD erweitert?
Weil das keinen Sinn ergibt. Das Mul kommt von den Spezialeinheiten und kann eh fast nie verwendet werden.
Wie kommst du auf +30%???
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating
Wenn ich mir diese Benches vergleiche, kommen ich auf ca. 10% (oder so), auch wenn ich die 8AA nicht berücksichtige.
Oder sind diese Benches falsch???
Zuerst fällt das Treiberwirrwar auf. ;)
Aber wenn man ehrlich ist, hat Nvidia nach dem G80 tendenziell immer enttäuscht:
G84: Kein G82 mit halber Breite, nur ein G84 mit einem Viertel der Shaderarchitektur. Wenigstens Verbesserung der Texturadressierungseinheiten. Naja, der Performance-Vorgänger 7900 GT wird trotzdem knapp übertroffen.
....
Wenn man das so liest, dann denkt man sich nichts böses.
Wirft man jedoch einen Blick zur HD2, dann siehts schon anders aus.
RV630 ist ein Drittel bis Viertel R600.
G84 ist ein Drittel bis ein Viertel G80.
G84 Produkte sind ein halbes Jahr vor RV630 Produkte am Markt gewesen und ihr Vater G80 war bereits die bessere GPU.
Nach dieser Untersuchung lässt du mir nur einen Schluss zu: Du willst Nvidia bashen.
Black-Scorpion
2009-11-08, 18:13:02
Und das sagst du ausgerechnet zu aths?
AnarchX
2009-11-08, 18:16:37
Wirft man jedoch einen Blick zur HD2, dann siehts schon anders aus.
RV630 ist ein Drittel bis Viertel R600.
RV630 hat mit 8 TMUs, mehr als die halbe Texelleistung von R600. Mit 8 ROPs wäre da wohl um einiges mehr an Leistung herausgekommen.
Bei G84 kann man auch die unverschämte Preisempfehlung kritisieren, für kaum mehr gab es von Nvidia eine deutlich schnellere 88 GTS 320.
Aber man kann aths zustimmen, seit G80 hat sich bei Nvidia nicht mehr viel getan und man hatte Glück, dass das R6xx-Design daneben ging.
Fragt sich nun, ob man hier umso mehr in Fermi investiert hat.
aylano
2009-11-08, 18:31:43
Auf welcher Basis kommst du auf 13%?
Mit vergleichbarer Bandbreite sehe ich da 30% bei gleicher Leistungsaufnahme:http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet (GTS 640 vs GTS 512)
Ich habe mit G92 immer 9800GTX gemeint/verglichen.
So wie ich es in Erinnerung habe, waren die Performancen-Unterschiede zwischen G80 & 9800GTX bei den Einstellung relativ konstant und nicht so wie bei deinem Link, wo mit größerer Auflösung & Einstellungen der G92 immer weiter rel. stark zurückfällt, wodurch eine durchschnittliche Performance-Steigerung zum Vorgänger schwer zu mittel ist.
Ich nahm mit 9800GTX einfach den 8800GTX-Namensnachfolger und dachte/denke, dass dieser am repräsentativsten ist.
Also, ich nach das Top-Modell und das braucht man ja, wenn man mit dem GT300 Topmodell war spekulieren will.
Es stimmt, der 8800 GTS ist noch effizienter, aber dann stellt sich eben die Frage, warum der effizienter aussah und der 9800GTX später nicht so.
Vielleicht eben aus Yieldgründen.
Trotzdem, irgendwie kommt der G92 eben nicht so effizient rüber, eben wegen 65nm.
Und für was die 13%-Mehr-Transistoren nötig waren, weiß ich immer noch nicht.
LovesuckZ
2009-11-08, 18:37:52
Der G92 soll nicht effizient sein? Der G92 in Form der 9800GTX+ ist im Schnitt 66% (und es geht bis zu doppelter Geschwindigkeit) schneller als eine 3870 - und dazu gibt es mehr Features, mehr Bildqualität. Würde man HQ gegen A.I Off testen, dann sähe es einfach nur schwarz für AMD aus. Aber zum Glück sind die Reviewer dazu nicht in der Lage gewesen.
nagus
2009-11-08, 18:48:49
Der G92 soll nicht effizient sein? Der G92 in Form der 9800GTX+ ist im Schnitt 66% (und es geht bis zu doppelter Geschwindigkeit) schneller als eine 3870 - und dazu gibt es mehr Features, mehr Bildqualität. Würde man HQ gegen A.I Off testen, dann sähe es einfach nur schwarz für AMD aus. Aber zum Glück sind die Reviewer dazu nicht in der Lage gewesen.
irgendwie vergisst du da ein paar details:
1.) die 9800+ kam ca. 6 monate nach der 3870er
2.) preislich spielen beide karten in anderen kategorien. der direkte konkurrent zur 9800+ war eher die 4850er... und da schauts schon wieder GANZ anders aus.
=Floi=
2009-11-08, 18:54:49
man hat eher mehr in die software gesteckt. dort blieb die entwicklung nicht stehen und im vergleich zu damals muß sich nv mittlerweile mit 6 apis rumschlagen. (DX9,10,11,OGL,CS,OCL,Physx)
der g84 war führ sein einsatzgebiet schon ganz brauchbar. die frage ist ja auch ob ich zukünftig für 40-50€ die leistung einer 8800Ultra brauche?!
der G92 war nur 1 chip und hatte auch noch den io-bereich integriert. die tmus (?) hat man auch ausgebaut.
Der G92 soll nicht effizient sein? Der G92 in Form der 9800GTX+ ist im Schnitt 66% (und es geht bis zu doppelter Geschwindigkeit) schneller als eine 3870 - und dazu gibt es mehr Features, mehr Bildqualität. Würde man HQ gegen A.I Off testen, dann sähe es einfach nur schwarz für AMD aus. Aber zum Glück sind die Reviewer dazu nicht in der Lage gewesen.
Was soll das AMD Bashing schon wieder :rolleyes: es um den Vergleich zum G80 bei aylano
Weil das keinen Sinn ergibt. Das Mul kommt von den Spezialeinheiten und kann eh fast nie verwendet werden.Es gibt doch nur eine SFU pro vier SP, bzw. es gibt eine SFU pro SP aber sie benötigt vier Takte für eine Special Function.
Das MUL wird soweit ich weiß zum Beispiel bei der Perspektivkorrektur benutzt. Auch wenn die anderen Shader-SF das MUL abschalten: Wann werden die schon mal genutzt? Ein ADD dürfte deutlich weniger aufwändig sein als ein MUL, ich weiß nicht warum Nvidia das MUL nicht zu MAD erweiterte. Gab es Probleme mit den Datenpfaden, immerhin hat ein MUL drei Inputs statt zwei? Hatte NV keine Lust, die auf MUL+MAD optimierten Shadercompiler umzuschreiben? Oder wären die Register zu knapp geworden um zwei MADs vernünftig auszulasten?
Bei G84 kann man auch die unverschämte Preisempfehlung kritisieren, für kaum mehr gab es von Nvidia eine deutlich schnellere 88 GTS 320.Naja, es gab zumindest was den Straßenpreis angeht schon einen spürbaren Unterschied zwischen 8600-er GTS und 8800 GTS 320. Allerdings war der Leistungsunterschied viel größer als der Preisunterschied, das stimmt. Die 8600-er GT war zum Zocken fast schon zu langsam, die GTS im Vergleich zur 8800-er GTS mit 320 MB zu teuer.
Aber man kann aths zustimmen, seit G80 hat sich bei Nvidia nicht mehr viel getan und man hatte Glück, dass das R6xx-Design daneben ging.
Fragt sich nun, ob man hier umso mehr in Fermi investiert hat.Genau.
Nicht dass G92 oder GT200 schlechte Produkte seien, aber seit G80 löste kein NV-Chip bei mir richtige Begeisterung aus. ATI hat immerhin die Zahl der SP (nach ATI-Zählung) von 320 auf 800 gesteigert und dann noch mal auf 1600. Die anisotrope Filterung erreicht noch immer nicht ganz NV-HQ-Niveau, aber wurde im Laufe der Zeit verbessert. ATI fing schlecht an (HD 2900) aber hat sich gut gesteigert. Nvidia fing gut an (Geforce 8800) aber dann war schon die Luft raus.
Der_Korken
2009-11-08, 20:07:38
Das MUL wird soweit ich weiß zum Beispiel bei der Perspektivkorrektur benutzt. Auch wenn die anderen Shader-SF das MUL abschalten: Wann werden die schon mal genutzt? Ein ADD dürfte deutlich weniger aufwändig sein als ein MUL, ich weiß nicht warum Nvidia das MUL nicht zu MAD erweiterte. Gab es Probleme mit den Datenpfaden, immerhin hat ein MUL drei Inputs statt zwei? Hatte NV keine Lust, die auf MUL+MAD optimierten Shadercompiler umzuschreiben? Oder wären die Register zu knapp geworden um zwei MADs vernünftig auszulasten?
Was ist denn eigentlich besser? Ein SP, der 2 MADs pro Takt schafft, oder 2SPs, die jeweils nur ein MAD schaffen? Soweit ich weiß stellt Nvidia bei Fermi ja komplett auf MAD und lässt das MUL weg. Quasi das Gegenteil, von dem was du sagtest.
Was ist denn eigentlich besser? Ein SP, der 2 MADs pro Takt schafft, oder 2SPs, die jeweils nur ein MAD schaffen? Soweit ich weiß stellt Nvidia bei Fermi ja komplett auf MAD und lässt das MUL weg. Quasi das Gegenteil, von dem was du sagtest.Eben nicht =) Obwohl es auf 2x 8 SP pro Cluster zurückgeht, kann ein SP in 32-Bit-Genauigkeit zwei MADs ausführen. Nvidia geht also zu ausgewogener Multiplikations-Additionsleistung.
Nicht dass G92 oder GT200 schlechte Produkte seien, aber seit G80 löste kein NV-Chip bei mir richtige Begeisterung aus. ATI hat immerhin die Zahl der SP (nach ATI-Zählung) von 320 auf 800 gesteigert und dann noch mal auf 1600. Die anisotrope Filterung erreicht noch immer nicht ganz NV-HQ-Niveau, aber wurde im Laufe der Zeit verbessert. ATI fing schlecht an (HD 2900) aber hat sich gut gesteigert. Nvidia fing gut an (Geforce 8800) aber dann war schon die Luft raus.
Also ist es schlecht, wenn gleich alles stimmt, z.b. die Filterung.
Besser erst schlechter als zuvor, um dann mit der vierten Folgegeneration minimale Presseverbesserungen zu präsentieren, anstatt gleich etwas Unerreichtes zu bieten.
Nvidia hat übrigens bisher ihre SP Zahl von 128 auf 480 gesteigert.
PulsarS
2009-11-08, 22:27:34
Also ist es schlecht, wenn gleich alles stimmt, z.b. die Filterung.
Besser erst schlechter als zuvor, um dann mit der vierten Folgegeneration minimale Presseverbesserungen zu präsentieren, anstatt gleich etwas Unerreichtes zu bieten.
Das kommt immer auf den Zeitpunkt an.
Manchmal muss man eben Kompromisse eingehen.
Mit dem AF hast du sicherlich Recht, nur wie viele von den Gamern stört das schlechtere AF?
10%?
Ich glaube es sind weniger, denn sonst würden Konsolen ja den Bach runtergehen bei der BQ...;D
Nvidia hat übrigens bisher ihre SP Zahl von 128 auf 480 gesteigert.
Meinst du jetzt die GTX 295?
Falls ja, dann hat aths Single-GPU gemeint.
Es sind schon "nur" 240 bei Nvidia.
Wobei man das Anzahl der Shader-ALUs nicht direkt mit ATI vergleichen kann.
240 wohl eher^^
GTX 295 hat 480.
4870 X2 hat die 1600, von denen aths schrieb.
MGPU ist ein fester Bestandteil des Marktes. War nicht meine Idee, aber jetzt müssen wir mit den Konsequenzen leben.
Eine 8800 GTX GX2 gab es jedenfalls nicht, also stimmt die Angabe oben.
Das kommt immer auf den Zeitpunkt an.
Manchmal muss man eben Kompromisse eingehen.
Mit dem AF hast du sicherlich Recht, nur wie viele von den Gamern stört das schlechtere AF?
10%?
Ich glaube es sind weniger, denn sonst würden Konsolen ja den Bach runtergehen bei der BQ...;DEs ging nicht darum was angeblich irgendwenn nicht stört.
Wobei man das Anzahl der Shader-ALUs nicht direkt mit ATI vergleichen kann. Machen leider dennoch viele.
Ich habe das Wachstumsverhältnis verglichen.
Auch wenn das schwer ist, die SPs sind nicht mehr die selben wie damals.
Gipsel
2009-11-08, 23:29:16
Es gibt doch nur eine SFU pro vier SP, bzw. es gibt eine SFU pro SP aber sie benötigt vier Takte für eine Special Function.Die zwei SFUs pro SM (8 ALUs) können eben nur jeden Takt eine SF ausspucken, daher die (effektiv) viermal so hohe Latenz (physisch ist man von einem oder vier Takten weit entfernt, das habe ich mit Coda schon ausführlich diskutiert). In jeder SFU sind aber mehrere Multiplier, so daß (unter günstigen Umständen) mehr MULs ausgeführt werden können als SFU-Einheiten da sind.
Auch wenn die anderen Shader-SF das MUL abschalten: Wann werden die schon mal genutzt?Nun, ganz selten ist es nun auch nicht. Es gibt schon ein paar Shader, die Divisionen, Wurzel, oder die anderen transzendenten Operationen nutzen.
Ein ADD dürfte deutlich weniger aufwändig sein als ein MUL, ich weiß nicht warum Nvidia das MUL nicht zu MAD erweiterte. Gab es Probleme mit den Datenpfaden, immerhin hat ein MUL drei Inputs statt zwei?Die Registerfiles haben nicht genügend Ports. Insofern ja.
Eben nicht =) Obwohl es auf 2x 8 SP pro Cluster zurückgeht, kann ein SP in 32-Bit-Genauigkeit zwei MADs ausführen. Nvidia geht also zu ausgewogener Multiplikations-Additionsleistung.
Ich weiß nicht, ob das Fermi-Whitepaper diese Beschreibung zuläßt ;)
Wenn man in der alten Terminologie bleiben will, besteht jetzt ein TPC aus je zwei SMs mit je 16 ALUs (SP-FMA), wobei sich jetzt nicht nur TMUs (L/S-Einheiten) geteilt werden sondern jetzt auch noch die 4 SFUs pro TPC. Dabei wurde Dual-Issue offiziell abgeschafft (also es geht genau ein Befehl entweder an die ALUs oder die SFUs oder die L/S-Einheiten). Bei DP werden die ALUs der beiden SMs in einem TPC zusammengelegt, d.h. die arbeiten kooperativ und die Abarbeitung auf dem jeweils anderen SM im TPC kurz blockiert.
In der neuen Terminologie gibt es keine TPCs mehr und ein SM hat 32 ALUs, 4 SFUs und 16 L/S-Einheiten, die von 2 Schedulern gefüttert werden. Dual Issue bezeichnet jetzt, daß beide Scheduler gleichzeitig einen Befehl (für zwei unterschiedliche Warps über 2 Takte verteilt) absetzen. Das funktioniert für die Kombinationen SP-ALU/SP-ALU, SP-ALU/SFU oder SP-ALU/LS. Für andere Kombinationen oder DP-Anweisungen aus verständlichen Gründen nicht.
Nvidia hat also die Scheduler vereinfacht und sozusagen orthogonalisiert, was bei deutlich verringertem Aufwand kaum eine Einschränkung der Auslastung ergibt. Eindeutig der richtige Weg in meinen Augen. Dieser MADD+MUL-Kram war doch nun wirklich nicht gut.
PulsarS
2009-11-08, 23:49:35
GTX 295 hat 480.
4870 X2 hat die 1600, von denen aths schrieb.
Ich glaube kaum, dass aths Äpfel mit Birnen vergleicht.
Er meinte mit den 1600SPs schon die 5870.
Alles andere würde keinen Sinn machen.
MGPU ist ein fester Bestandteil des Marktes. War nicht meine Idee, aber jetzt müssen wir mit den Konsequenzen leben.
Eine 8800 GTX GX2 gab es jedenfalls nicht, also stimmt die Angabe oben.
Wenn Hemlock also 3200 SP hat, dann stimmt die Angabe oben? :confused:
Nee, aths meinte Single-GPU.
Es ging nicht darum was angeblich irgendwenn nicht stört.
Sondern?
btw
sorry für den Schnitzer weiter oben: "Wobei man das Anzahl der Shader-ALUs... "
Sollte heißen: "Wobei man die Anzahl der Shader-ALUs... "
Ich glaube kaum, dass aths Äpfel mit Birnen vergleicht.
Er meinte mit den 1600SPs schon die 5870.
Alles andere würde keinen Sinn machen.
Gabs eine 2900XT X2?
Nein.
Ich kann nicht dafür, das High-End heute MGPU heißt.
Wenn Hemlock also 3200 SP hat, dann stimmt die Angabe oben?
Nee, aths meinte Single-GPU.
Noch gibt es kein Hemlock. Fermi auch nicht oder seine GX2.
Sondern?
Darum das AMD gelobt wird, das sie erst die AF Qualität senken, um sie dann nach 3 Generationen wieder ein minmales Stückchen nach oben, schieben.
Während Nvidia gleich am Anfang einen gewaltigen Sprung nach vorne macht, diese Qualität bei 3 Generationen unangetastet lässt und hoffentlich auch die 4. Generation nichts verändert.
Ailuros
2009-11-09, 09:24:30
Das wäre sinnvoll gewesen, da G92 "nur" ein netter G80-Costdown-Taktraten-Refresh und GT200 der "richtige" Refresh. GF4 Ti bekam zum Beispiel Pixelshader 1.3 spendiert obwohl abzusehen war dass es kein einziges Game geben wird, was durch 1.3 irgendwelche Vorteile hat.
Ja, eine höhere D3D-Version lässt sich dem Kunden immer besser verkaufen als eine nicht ganz so hohe. Der Kunde soll eine GTX 280 kaufen und dabei noch die Angst haben, dass er im Gegensatz zum ATI-Kunden nicht alle Regler auf Maximum stellen kann ...?
Haette man von Anfang an 10.1 in die GT2xx Linie eingebaut bezweifle ich dass es so viel gekostetet haette wie im Nachgedanken fuer GT21x@40nm.
Gibts den GT200 in 40 nm; bzw. unterstützen Nvidias Lowend-Produkte GT 210 und GT 220 auch Doubleprecision?
Nein. Ich weiss aber dass es 1.4mm2@40nm sind und man kann eventuell schon auf 55nm bzw. 65nm hochrechnen wenn man will.
Der Vergleich bezieht sich doch auf SM3 vs. SM 4.1? Schon ab SM 4 muss sRGB-korrekte Texturfilterung geboten werden, was ziemlich teuer ist.
>SM3.0 vs. 4.1; frag mich aber bloss nicht was im ersten Fall genau entfernt wurde da ich keine Ahnung habe.
Unser aller Lieblings-Gerüchte -Seite schreibt:
Just as it happened last year with the Geforce GTX 295, Nvidia will most likely showcase Fermi-based cards in December and will start shipping them out in January.
Nvidia cannot make it in time for a late November or early December launch as it had originally planned, and the A2 silicon that has currently taped out of the fab will not be the final silicon. Nvidia will move to A3 silicon for its final retail products. Our multiple internal sources have confirmed that Nvidia has samples but it keeps them within the company, heavily guarded and they won’t be shipping in 2009.
Nvidia did the same with GTX 295 when a few select hacks got cards and posted reviews on December 18th, 2008 while the official launch took place on January 8th, 2009. Jensen is not happy with the slight product delays, but Nvidia wants to have massive availability at launch. On another note, the fact that ATI has sold out of its Radeon HD 5870 actually works in Nvidia’s favour. For those enthusiasts who demand DirectX 11 card for the holidays, the Radeon HD 5870 is going to be the only option until CES 2010 comes around.
http://www.fudzilla.com/content/view/16342/1/
Für D bedeutet das wohl frühestens Ende Januar zu kaufen...
cu,
Korv
reunion
2009-11-09, 11:47:38
Schön wie FUAD jede Woche den Termin um eine Wochen verschiebt. Zu beginn war es noch Anfang November, dann Ende November, dann Anfang Dezember und jetzt das. In meinen Augen hat er schlicht keine Ahnung. Wenn er aber recht hat damit das NV noch ein A3 benötigt dann ist alles vor März völlig unrealistisch.
Finde ich verständlich das der Termin jede Woche, in der kein wirklicher Fortschritt bei NV zu erkennen ist, weiter nach hinten rückt (wenn ich mal ganz platt davon ausgehe das Fuad die Wahrheit sagt ;) ). Solange NV nicht mal annähernd verlässliche, eingrenzende Aussagen zum Erscheinungstermin macht wird sich das auch nicht ändern.
Da ja A2 zu funktionieren scheint wäre auch interessant zu erfahren was mit A3 denn noch verbessert werden soll (Stromverbrauch/Takt/oder doch noch Fehler ausbessern?)
cu,
Korv
Angeblich hat Nvidia mittlerweile fertige Fermi Chips (Version A2), aber diese sollen noch nicht reif für den Markt sein. Für die handelsüblichen Produkte wird man demnach auf die Revision A3 warten.
hartware.net
Tapeout 6-8 Wochen. Also Porduktion erst ab Januar 2010. Vor März wird das nichts und vor Mai würde ich keine breite Verfügbarkeit erwarten.
Tapeout 6-8 Wochen. Also Porduktion erst ab Januar 2010. Vor März wird das nichts und vor Mai würde ich keine breite Verfügbarkeit erwarten.
Lol, danke jedesmal für den Lacher des Tages! Komm, du kannst das bestimmt noch besser!! Sag doch mal Juli! Ach nu komm schon *mit zückerli wedel*
Lol, danke jedesmal für den Lacher des Tages! Komm, du kannst das bestimmt noch besser!! Sag doch mal Juli! Ach nu komm schon *mit zückerli wedel*
Juli.
Mannmannmann, ihr Fanbois .. jeder mit ein bisserl Ahnung muss doch merken, dass in Fudos Artikel von den Terminen vorne und hinten nichts zusammenpasst.
Output der Massenproduktion ist vor Mai nicht drin, Punktum. Das steht allerdings schon seit Wochen fest, kann man von TSMC hören. Wenn Fermi überhaupt jemals so kommt wie er wohl ATM noch geplant ist. Aber vielleicht entwickelt nv ja noch ne tolle Technologie zum Zeitdehnen, da könnte man dann auch mit den aktuellen Taktraten glücklich werden.
Das Problem ist übrigens nicht die Verlustleistung und zwischen nv und TSMC gehts grad hoch her ...
Es geht auch ohne jemand einen fanboy zu bezeichnen. IP markiert bis zum naechsten Mal.
Tarkin
2009-11-09, 14:21:40
http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocesso rs.html
TSMC und nVidia haben sich wohl (wieder) verliebt...
klar, AMD hat beide beleidigt... TSMC als man Globalfoundries geschaffen hat und nvidia sowieso ;-)
Schon klar was hier läuft. Jetzt sind nVidia und TSMC natürlich die dicksten Freunde... nvidia bekommt die größten 40nm Kapazitäten damit AMD möglichst wenige RV870 verkaufen kann, und schwört dafür TSMC ewige Treue.
reunion
2009-11-09, 14:24:55
Na, was habe ich gesagt? War klar das NV nicht bei GF fertigen kann/will/darf.
Armaq
2009-11-09, 14:25:56
Genau wie ich es vor ein paar Seiten geschrieben habe. GF und Nvidia kommen nicht zusammen.
Edit: Reunion, also wirklich. ;)
w0mbat
2009-11-09, 14:33:07
@reunion: Ach was, da hat doch damit gar nichts zu tun =D
Ailuros
2009-11-09, 14:38:56
Na, was habe ich gesagt? War klar das NV nicht bei GF fertigen kann/will/darf.
Ach ja? Und was schliesst die Moeglichkeit aus dass man mit Absicht schwammige Aussagen in der Vergangenheit machte um TSMC fuer noch bessere Vertraege zu erpressen?
Die nicht koennen oder duerfen Geschichte schwirrt wohl nur in Deinem Kopf rum und falls sich GF in der Zukunft als bessere foundry beweissen sollte und TSMC nochmal so abkackt wie mit 40nm, wunder Dich bloss nicht wenn sich der heutige Standpunkt nochmal um 180 Grad wendet.
Na da kann sich ja ATI genüsslich zurücklehnen und noch ein paar Monate weiter den Markt alleine mit DX11 Karten beliefern. Es sollte so auch genug Zeit bleiben um wirklich jeden mit 5870/50 bzw X2 zu versorgen (trotz derzeitigen Lieferproblemen) bevor "Fermi" endlich am Markt auftaucht... da könnte ATI dann schon fast nen Refresh-Chip fertig haben ;)
Botcruscher
2009-11-09, 14:41:25
ATI liefert erstmal garnix. Am Abfall der Yields scheint also auch was dran zu sein(oder der Frachter ist verschollen).
[...]wunder Dich bloss nicht wenn sich der heutige Standpunkt nochmal um 180 Grad wendet.
Dann wird sich seine Meinung eben auch dementsprechend ändern! das klappt schon.
Ailuros
2009-11-09, 14:44:50
Dann wird sich seine Meinung eben auch dementsprechend ändern! das klappt schon.
Fuer heute macht auch eine jegliche andere Aussage keinen Sinn. NVIDIA muss so schnell wie moeglich ihre GF1xx Produktlinie auf den Markt bringen und der einzige moegliche Weg momentan ist TSMC.
Na da kann sich ja ATI genüsslich zurücklehnen und noch ein paar Monate weiter den Markt alleine mit DX11 Karten beliefern. Es sollte so auch genug Zeit bleiben um wirklich jeden mit 5870/50 bzw X2 zu versorgen (trotz derzeitigen Lieferproblemen) bevor "Fermi" endlich am Markt auftaucht... da könnte ATI dann schon fast nen Refresh-Chip fertig haben ;)
Verspaetung von high end SKU X bedeutet erstmal dass der Zeitabstand zu den kleineren Modellen der X Familie und zum naechsten geplanten Refresh kleiner wird. Hat Dir irgend jemand erzaehlt dass alle engineers am Hintern von GF100 liegen? Ein Team arbeitet schon seit Jahren am direkten Nachfolger und ein anderes auf der uebernaechsten Generation. Nebenbei arbeitet so jeder IHV.
Botcruscher
2009-11-09, 14:52:55
Verspaetung von high end SKU X bedeutet erstmal dass der Zeitabstand zu den kleineren Modellen der X Familie und zum naechsten geplanten Refresh kleiner wird.
Gibt es davon überhaupt schon News oder sind die nur an mir vorbei gegangen?
Naja, es gibt Aussagen der Foundries wann fortgeschrittenere Prozesse verfügbar sein sollen. Nur zeigt TSMC gerade eindrucksvoll wie bedeutungslos diese Aussagen sein können. Ich würde nicht davon ausgehen dass ATI oder NV eine Refresh in 40nm TSMC planen.
Schon richtig, aber an GF100 arbeitet NV ja auch schon 4 Jahre, trotzdem zieht sichs hin wie Kaugummi. Natürlich könnte NV ab sofort alle zukünftigen Chips fehlerfrei on-time in den Markt bringen, allein der Glaube daran fehlt mir irgendwie....
Logisch hat TSMC auch ihren Teil zu der Misere beigetragen, aber auch hier gilt: Die nächste Umstellung zu kleineren Strukturen kommt bestimmt, einfacher wirds dadurch sicher nicht. Da werden auch wieder Verzögerungen kommen.
ATI scheint zur Zeit einfach mindestens 1/2-1 Jahr vor NV zu liegen was die Einführung neuer Generationen/Technologie für Gamer-Grafik betrifft. NV kann nur hoffen das mit DX11 jetzt erst mal für ein paar Jahre Ruhe ist an dieser Front und sie den Rückstand langsam wieder aufholen können (und sich dann ganz auf ihr GPGPU Zeugs konzentrieren können).
LovesuckZ
2009-11-09, 15:08:51
Schon richtig, aber an GF100 arbeitet NV ja auch schon 4 Jahre, trotzdem zieht sichs hin wie Kaugummi. Natürlich könnte NV ab sofort alle zukünftigen Chips fehlerfrei on-time in den Markt bringen, allein der Glaube daran fehlt mir irgendwie....
Logisch hat TSMC auch ihren Teil zu der Misere beigetragen, aber auch hier gilt: Die nächste Umstellung zu kleineren Strukturen kommt bestimmt, einfacher wirds dadurch sicher nicht. Da werden auch wieder Verzögerungen kommen.
ATI scheint zur Zeit einfach mindestens 1/2-1 Jahr vor NV zu liegen was die Einführung neuer Generationen/Technologie für Gamer-Grafik betrifft. NV kann nur hoffen das mit DX11 jetzt erst mal für ein paar Jahre Ruhe ist an dieser Front und sie den Rückstand langsam wieder aufholen können (und sich dann ganz auf ihr GPGPU Zeugs konzentrieren können).
Erstaunlich, dass manche nie die Vergangenheit als Beispiel nehmen, um sich ein bisschen wissen anzueignen. Denn die hat gezeigt, dass die Verzögerungen bei neuen Generationen nie Auswirkungen auf die darauffolgenden haben.
Interessant ist ja, daß nicht nur Fermi nicht erscheint, sondern auch der HD5 Strom vertrocknet ist. Offenbar kann TSMC gar nichts Komplexes mehr in 40nm fertigen.
Vielleicht sollte man mal bei Intels "40nm Drive-In" vorbeischauen- da gibt man die Pläne an Schalter 1 ab und bekommt die fertigen Chips 5 Minuten später an Schalter 2 durch die Scheibe gereicht :lol:
w0mbat
2009-11-09, 15:14:42
Erstaunlich, dass manche nie die Vergangenheit als Beispiel nehmen, um sich ein bisschen wissen anzueignen. Denn die hat gezeigt, dass die Verzögerungen bei neuen Generationen nie Auswirkungen auf die darauffolgenden haben.
Ja, deutlich zu sehen zB bei R520 -> R580. Ich denke nicht dass sich durch Fermi bei NV mehr verschieben wird.
LovesuckZ
2009-11-09, 15:15:59
Ja, deutlich zu sehen zB bei R520 -> R580. Ich denke nicht dass sich durch Fermi bei NV mehr verschieben wird.
Deutlicher beim NV30 - NV35. Der kam nichtmal 2 Monate später in den Markt.
Gegenwärtig dürfte bei beiden eher die Fertigung als die Entwicklung limitieren.
Ailuros
2009-11-09, 15:37:58
Schon richtig, aber an GF100 arbeitet NV ja auch schon 4 Jahre, trotzdem zieht sichs hin wie Kaugummi. Natürlich könnte NV ab sofort alle zukünftigen Chips fehlerfrei on-time in den Markt bringen, allein der Glaube daran fehlt mir irgendwie....
Der chip liegt tatsaechlich schon 4 Jahre in Entwicklung, nur kam das Resultat wohl erst innerhalb dieses Jahres zur foundry und nicht frueher.
Logisch hat TSMC auch ihren Teil zu der Misere beigetragen, aber auch hier gilt: Die nächste Umstellung zu kleineren Strukturen kommt bestimmt, einfacher wirds dadurch sicher nicht. Da werden auch wieder Verzögerungen kommen.
Weil irgendwo eine Garantie in den Sternen steht dass von jetzt ab jeder zukuenftige TSMC Herstellungsprozess abkacken wird? Pathologische Herstellungsprozesse bei TSMC waren seit 2002 hauptsaechlich: 130nm, 80nm und 40nm.
ATI scheint zur Zeit einfach mindestens 1/2-1 Jahr vor NV zu liegen was die Einführung neuer Generationen/Technologie für Gamer-Grafik betrifft. NV kann nur hoffen das mit DX11 jetzt erst mal für ein paar Jahre Ruhe ist an dieser Front und sie den Rückstand langsam wieder aufholen können (und sich dann ganz auf ihr GPGPU Zeugs konzentrieren können).
Wo ist das 1 Jahr dass ich es verpasst habe? Ausser Du meinst D3D10.1 welche eine ultrabloede Entscheidung von NV's marketing team war, welches aber auch Lichtjahre von einer waren Technologie Generation entfernt ist.
Zwei wichtige Faktoren fuer GF100's momentane Sitatution:
1. Sehr hohe Chipkomplexitaet
2. Problematische yields bei TSMC 40G
So und jetzt beweiss mir dass ATI heute schon GPUs auf dem Laufband haette wenn Cypress ueber 3Mrd. Transistoren wiegen wuerde. Es gibt guten Grund warum ATI ihre Design-Strategie geaendert hat, weil eben sowohl die Schlag auf Schlag R520 und R600 Verspaetungen ziemlich peinlich waren. Jetzt ist NVIDIA dran umzuplanen fuer die Zukunft und eventuell zuerst einen Performance chip entwickeln und dann erst high end nachladen (wenn sie schon auf single chip high end bleiben wollen). Von Tag auf Nacht geht es nirgends, genauso wie es bei ATI eben nicht klappte mit dem ersten Schwung ihre DX11 Effizienz zu maximalisieren.
Und all dies ist natuerlich wieder Haarspalterei. Wenn wir in Q4 2010 nochmal bis auf heute zuruecksehen, kann sich so viel was Marktanteile, Gewinne usw. aendern dass es nicht mehr schoen ist. Es wird nie ein einziger IHV eine konstante Gewinnstraene haben und wenn Dir die Geschichte der letzten Jahre etwas gezeigt hat, dann ist es dass sich das Blatt sehr schnell aendern kann; mal auf die eine und mal auf die andere Seite.
Sonst haetten wir auch nichts von der Konkurrenz zwischen den beiden.
Dural
2009-11-09, 15:38:52
ATI scheint zur Zeit einfach mindestens 1/2-1 Jahr vor NV zu liegen was die Einführung neuer Generationen/Technologie für Gamer-Grafik betrifft. NV kann nur hoffen das mit DX11 jetzt erst mal für ein paar Jahre Ruhe ist an dieser Front und sie den Rückstand langsam wieder aufholen können (und sich dann ganz auf ihr GPGPU Zeugs konzentrieren können).
Sorry aber auf was begründest du diese aussage? Nur weil NV DX10.1 ursprünglich komplett auslassen wollte oder weil sie jetzt mit DX11 etwas im verzug sind WEIL sie eine neue Architektur mit ganzen 3,1Miliarden Transistoren bringen und AMD einfach ihre Architektur etwas Erweitert hat plus deutlich kleinerer GPU?!? Dazu die ganzen 40nm Probleme... die überhaupt gegen NV sprechen und es AMD dadurch noch mal deutlich leichter gemacht haben... obwohl sie natürlich auch etwas davon betroffen sind, aber klar weniger.
Ich sehe es sogar ganz anders, NV hat die Zeit erkannt und ist Technologisch doch min. 1-2Jahre weiter als AMD!!! So sinnlose sachen wie DX11 braucht man DERZEIT nicht, klar ist gut wenn man es schon jetzt hätte aber das wird NV kaum schaden, da bin ich davon überzeugt...
reunion
2009-11-09, 15:46:00
Erstaunlich, dass manche nie die Vergangenheit als Beispiel nehmen, um sich ein bisschen wissen anzueignen. Denn die hat gezeigt, dass die Verzögerungen bei neuen Generationen nie Auswirkungen auf die darauffolgenden haben.
Direkt aus dem Maul des Löwen:
ATI was still trying to work through execution on the R520, which was the Radeon X1800, but as you may remember that part was delayed. ATI was having a problem with the chip at the time, with a particular piece of IP. The R520 delay ended up causing a ripple that affected everything in the pipeline, including the R600 which itself was delayed for other reasons as well.
[...]
ATI had hoped to ship the R520 in early summer 2005, it ended up shipping in October, almost 6 months later and as I already mentioned, it delayed the whole stack. The negative ripple effect made it all the way into the R600 family.
http://www.anandtech.com/video/showdoc.aspx?i=3469&p=5
Jeder fünf jährige sollte in der Lage sein zu verstehen das Ressourcen die bei einem Projekt aus welchen Gründen auch immer länger gebunden sind als geplant wo anders fehlen. Das diese Ressourcen dann nicht unbedingt schon beim Refresh (wird meist parallel entwickelt), sondern ev. erst bei der nächsten Generation eingespart werden müssen ändert daran genau gar nichts.
Das 10.1 irgend ein gewaltiger Technologievorsprung sein soll ist natürlich Blödsinn. Vor allem wenn man weiß, dass das G80 eigentlich fast vollständig erfüllt, bis auf ein kleines Detail.
Jeder fünf jährige sollte in der Lage sein zu verstehen das Ressourcen die bei einem Projekt auch welchen Gründen auch immer länger gebunden sind als geplant wo anders fehlen. Das diese Ressourcen dann nicht unbedingt schon beim Refresh (wird meist parallel entwickelt), sondern ev. erst bei der nächsten Generation eingespart werden müssen ändert daran genau gar nichts.
Bei NV35 hat das doch sehr gut funktioniert?
Überhaupt: Erst Ei, dann Gack. Januar wäre aus meiner Sicht kein allzu großes Problem, bei März wird es schon schmerzhafter.
LovesuckZ
2009-11-09, 15:50:55
Was soll das denn bitte für eine Logik sein? Beim Fermi werden Ressourcen für das Bring-Up zZ verwendet. Das müsste sich also direkt auf den Refresh bzw. den anderen Ablegern auswirken. Die zukünftigen Generationen sind noch Jahre von dem jetzigen Zustand entfernt.
Aber was soll's: Fünf Jährige sind sowieso die eigentlichen Genies unseres Systems.
reunion
2009-11-09, 15:51:27
Bei NV35 hat das doch sehr gut funktioniert?
Ich sehe nicht wie das meiner Aussagen widerspricht.
Ich sehe nicht wie das meiner Aussagen widerspricht.
Ich schon, weil du nicht weißt wie die internen Prozesse einer Firma X sind. Wenn ATI es nicht gebacken bekommt nach Verspätung von A, die Verspätung von B zu vermeiden, muss das noch lange nicht auch für NVIDIA gelten.
Soweit ich weiß waren zu Zeiten von R5xx nämlich auch einige Engineers mit Xenos beschäftigt.
reunion
2009-11-09, 15:53:43
Was soll das denn bitte für eine Logik sein? Beim Fermi werden Ressourcen für das Bring-Up zZ verwendet. Das müsste sich also direkt auf den Refresh bzw. den anderen Ablegern auswirken. Die zukünftigen Generationen sind noch Jahre von dem jetzigen Zustand entfernt.
Aber was soll's: Fünf Jährige sind sowieso die eigentlichen Genies unseres Systems.
Wenn es nur an der Fertigung liegen würde könnte man so argumentieren, faktisch ist aber Fermi ganz einfach zu spät fertig geworden, sonst hätte es nicht irgendwann im Sommer erst das erste Tapeout gegeben. Und wenn NV es anders geplant hat musste man dafür woanders Federn lassen, ganz einfach. Der Refresh wird meist parallel entwickelt und muss davon deshalb nicht berührt sein, habe ich ja schon gesagt.
reunion
2009-11-09, 15:57:46
Ich schon, weil du nicht weißt wie die internen Prozesse einer Firma X sind. Wenn ATI es nicht gebacken bekommt nach Verspätung von A, die Verspätung von B zu vermeiden, muss das noch lange nicht auch für NVIDIA gelten.
Soweit ich weiß waren zu Zeiten von R5xx nämlich auch einige Engineers mit Xenos beschäftigt.
Schön, das heißt auch nicht zwangsläufig das sich auch die nachfolgenden Projekte verschieben. Sinnerfassend lesen. R520/R600 kann halt sehr gut als Beispiel herhalten. Es heißt ganz einfach das die Leute woanders fehlen. Vielleicht muss man sich deshalb wenn man keine Verspätung will eben mit weniger zufrieden geben oder man schafft es wieder erwarten auch mit weniger Männer als ursprünglich geplant, etc. Aber so zu tun als ob die Leute die an einem Projekt länger gebunden sind als geplant sonst Däumchen drehen würden wenn sie früher fertig wären ist ja mehr als realitätsfern. Die würden sonst natürlich woanders eingesetzt werden.
mapel110
2009-11-09, 15:59:20
Schön, das heißt auch nicht zwangsläufig das sich auch die nachfolgenden Projekte verschieben. Sinnerfassend lesen. Es heißt ganz einfach das die Leute woanders fehlen. Vielleicht muss man sich deshalb wenn man keine Verspätung will eben mit weniger zufrieden geben oder man schafft es wieder erwarten auch mit weniger Männer als ursprünglich geplant, etc. Aber so zu tun als ob die Leute die an einem Projekt länger arbeiten müssen als geplant sonst Däumchen drehen würden wenn sie früher fertig wären ist ja mehr als realitätsfern.
Es lässt sich auch einiges mit Überstunden ausgleichen. Geht natürlich nur, wenn man genug Kohle hat, um die Überstunden zu bezahlen. Bei AMD/ATIs Geiz bezweifel ich das. :smile:
reunion
2009-11-09, 16:06:04
Es lässt sich auch einiges mit Überstunden ausgleichen. Geht natürlich nur, wenn man genug Kohle hat, um die Überstunden zu bezahlen. Bei AMD/ATIs Geiz bezweifel ich das. :smile:
Es tut mir aufrichtig Leid falls ich mit dieser nüchternen Tatsache deine Gefühle verletzt haben sollte. :smile:
Menace
2009-11-09, 16:10:14
So sinnlose sachen wie DX11 braucht man DERZEIT nicht, klar ist gut wenn man es schon jetzt hätte aber das wird NV kaum schaden, da bin ich davon überzeugt...
Stimmt, so lautet die offizielle nVidia-Aussage auch. Wenn ich dieses Jahr noch eine neue Grafikkarte kaufen möchte, nehme ich natürlich eine DX10 oder DX10.1, damit ich auch die Freude habe in einem halben Jahr schon wieder eine neue GraKa zu kaufen. ;D Und Cuda braucht jeder User an alle Ecken und Enden (soll keine Kritik an Cuda sein, welches ich toll finde, sondern an den reflektionsfreien Verallgemeinerungen um ati schlecht zu reden).
Bei AMD/ATIs Geiz bezweifel ich das. :smile:
Geizig? ;D Das nenne ich mal eine knallharte Situationsanalyse. ;D
LovesuckZ
2009-11-09, 16:11:40
Es lässt sich auch einiges mit Überstunden ausgleichen. Geht natürlich nur, wenn man genug Kohle hat, um die Überstunden zu bezahlen. Bei AMD/ATIs Geiz bezweifel ich das. :smile:
In jedem Projekt gibt es Pufferzeiten. Da muss man nichtmal mit Überstunden kommen. Verzögerungen werden bei größeren Vorhaben immer einkalkuliert. Und die Verzögerungen hätten höchsten auf nachfolggende Generationen, wenn die Entwicklung nur 0 oder 1 wäre. Entweder kann man starten oder nicht. Da es aber natürlich bei solchen Vorhaben es auch zur Arbeitsteilung der einzelnen Schritte kommt, ist die nächste Generation schon längst in Entwicklung und wird von denen vorrangetrieben, die zZ nicht mehr an Fermi werkeln.
reunion
2009-11-09, 16:15:15
In jedem Projekt gibt es Pufferzeiten. Da muss man nichtmal mit Überstunden kommen. Verzögerungen werden bei größeren Vorhaben immer einkalkuliert. Und die Verzögerungen hätten höchsten auf nachfolggende Generationen, wenn die Entwicklung nur 0 oder 1 wäre. Entweder kann man starten oder nicht. Da es aber natürlich bei solchen Vorhaben es auch zur Arbeitsteilung der einzelnen Schritte kommt, ist die nächste Generation schon längst in Entwicklung und wird von denen vorrangetrieben, die zZ nicht mehr an Fermi werkeln.
Netter Verrenkungsversuch. Und wenn die Leute die "Puffenzonen" nicht ausnützen müssten stünden sie trotzdem woanders früher zur Verfügung. Wie und ob sich das sichtbar auf die nachfolgenden Produkte auswirkt wird man sehen müssen.
Korvaun
2009-11-09, 16:44:53
So, hab mich mal registriert um nicht immer als Gast zu posten ;)
Wie sind eigentlich diese Teams aufgebaut? Wie stark ist die Verzahnung zwischen Chip-Designer/Technologie-Designer/Fertigung? Gibts überhaupt nen Unterschied zwischen den Leuten die sagen wir brauchen X cluster/ROPs/etc, die müssen Feature Y so schnell abarbeiten und den eigentlichen Hardware Designern? Oder machen die entsprechenden Leute "alles"?
BlackBirdSR
2009-11-09, 16:48:27
Die eigentliche Frage muss doch sein, ob Nvidia mit fermi und Nachfolgern so viel mehr Umsatz erwirtschaften kann, dass man den aktuell recht kleinen Rückstand in der Zukunft allein durch brachialen Einsatz von Resourcen im Bereich F&E und Design mehr als ausgleichen kann.
Wenn dem so ist, dann interessiert es in 2-3 Jahren niemanden mehr, ob Nvidia zu lange an fermi gearbeitet hat, um gleichzeitig mit ATI ein DX11-Design auf den Markt zu bringen. Es interessiert auch nicht, ob es nun 20% oder 40% mehr Performance gab und wie viel weniger Transistoren ATI für identische Leistung denn nötig hatte.
Wenn fermi das aus Absatz 1 erreichen kann, dann spielt es keine Rolle, ob und wie lange die Verspätung nun dauert, so lange es im Rahmen bleibt (also Q1 2010). Wenn fermi und Nachfolger nicht den von Nvidia propagierten Erfolg/Umsatzzuwachs bringen, dann tut der aktuelle Rückstand sicherlich weh (Ego und finanziell). Das ganze verschiebt sich weiter auf die nächste Runde, in der die Karten wieder neu gemischt werden (natürlich mit Boni/Mali aus der letzten Runde).
Kurzum: Nvidia muss im Gamerbereich nur ähnliches an Preis/Leistung liefern, das dürfte das kleinste Problem sein. Im Profisegment (nennen wir es mal so) muss man aber richtig punkten. Dort ist es auch egal, ob man das nun heute oder im März 2010 erreicht. Theoretisch wäre dem nur LRB im Weg, aber den killt man ja gerade durch Comics:tongue:
Dural
2009-11-09, 16:53:38
nix
Dural
2009-11-09, 16:56:27
Stimmt, so lautet die offizielle nVidia-Aussage auch. Wenn ich dieses Jahr noch eine neue Grafikkarte kaufen möchte, nehme ich natürlich eine DX10 oder DX10.1, damit ich auch die Freude habe in einem halben Jahr schon wieder eine neue GraKa zu kaufen. ;D Und Cuda braucht jeder User an alle Ecken und Enden (soll keine Kritik an Cuda sein, welches ich toll finde, sondern an den reflektionsfreien Verallgemeinerungen um ati schlecht zu reden).
Wie so müssen die User immer so denken? Derzeit wissen doch nicht einmal90% der Leute die eine Grafikkarte in form eines zb. PCs kaufen was DX11 ist... und erst recht können sie nichts mit DX10 vs DX10.1 was anfangen!
Dagegen ist zb. das von dir erwähnte Cude oder PhysX etwas was man anfassen kann, man sieht das MEHR auf dem Bildschirm, das hat ma bei DX11 derezit noch überhaupt nicht... zudem ist es eine rein NV only Technology, DX11 kann jeder haben wenn er möchte... Marken sind wichtig! und Cuda oder PhysX wird ganz klar als eine Marke Beworben/Verkauft!
Menace
2009-11-09, 17:05:26
Wie so müssen die User immer so denken? Derzeit wissen doch nicht einmal90% der Leute die eine Grafikkarte in form eines zb. PCs kaufen was DX11 ist... und erst recht können sie nichts mit DX10 vs DX10.1 was anfangen!
Die können dann aber auch nichts mit Cuda und PhysX anfangen. Denen reicht wahrscheinlich auch eine Onboard-Grafiklösung.
Dagegen ist zb. das von dir erwähnte Cude oder PhysX etwas was man anfassen kann, man sieht das MEHR auf dem Bildschirm, das hat ma bei DX11 derezit noch überhaupt nicht... zudem ist es eine rein NV only Technology, DX11 kann jeder haben wenn er möchte... Marken sind wichtig! und Cuda oder PhysX wird ganz klar als eine Marke Beworben/Verkauft!
Wer Cuda benötigt weiß das. Wer PhysX braucht, weiß auch welche Vorteile DX11 bieten kann. Aber das nVidia die bessere Marketingabteilung hat, da stimme ich Dir zu.
Gipsel
2009-11-09, 17:09:12
Dagegen ist zb. das von dir erwähnte Cude oder PhysX etwas was man anfassen kann, man sieht das MEHR auf dem Bildschirm, das hat ma bei DX11 derezit noch überhaupt nicht...
Schon mal die News von heute auf der Frontpage (http://www.3dcenter.org/news/2009-11-08) angeschaut? Also ich sehe da mit DX11 erheblich mehr auf dem Bildschirm ;)
LovesuckZ
2009-11-09, 17:09:30
Die eigentliche Frage muss doch sein, ob Nvidia mit fermi und Nachfolgern so viel mehr Umsatz erwirtschaften kann, dass man den aktuell recht kleinen Rückstand in der Zukunft allein durch brachialen Einsatz von Resourcen im Bereich F&E und Design mehr als ausgleichen kann.
Warum sollten sie mehr in F&E investieren? Die nächste Generation ist zZ in Entwicklung und wir somit vom aktuellen Geld bezahlt. Fermi hat also darauf überhaupt keinen Einfluss.
Wenn es nur an der Fertigung liegen würde könnte man so argumentieren, faktisch ist aber Fermi ganz einfach zu spät fertig geworden, sonst hätte es nicht irgendwann im Sommer erst das erste Tapeout gegeben. Und wenn NV es anders geplant hat musste man dafür woanders Federn lassen, ganz einfach. Der Refresh wird meist parallel entwickelt und muss davon deshalb nicht berührt sein, habe ich ja schon gesagt.
Das Tape-Out war spät, aber ob das an NV lag?. Tape-Outs kosten Geld und wenn man von den kleinen GT21X Chips weiß, dass der Prozess nicht reif ist, dann macht man kein Tape-Out das nicht funktionieren kann.
BlackBirdSR
2009-11-09, 17:17:19
Warum sollten sie mehr in F&E investieren? Die nächste Generation ist zZ in Entwicklung und wir somit vom aktuellen Geld bezahlt. Fermi hat also darauf überhaupt keinen Einfluss.
Ach Liebsaugender...
Wer mehr Geld einnimmt, kann in den folgenden Jahren mehr Geld ausgeben. Wenn fermi (+Nachfolge, siehe mein Post) verkauft wird, hat er auch darauf einfluss.
Das ist doch kinderleicht. :love4:
LovesuckZ
2009-11-09, 17:20:49
Ach Liebsaugender...
Wer mehr Geld einnimmt, kann in den folgenden Jahren mehr Geld ausgeben. Wenn fermi verkauft wird, hat er auch darauf einfluss.
Das ist doch kinderleicht. :love4:
Und wieso sollte nVidia mehr Geld ausgeben? Den angeblichen zeitlichen Nachteil durch Fermi müsste sie also jetzt ausgleichen. Und dieses Geld wird von den jetzigen Produkten erwirtschaftet. Wenn Fermi und die nachfolgenden Generationen auf den Markt kommen, haben sie also kein Finanzierungsproblem für die nächste Generation. Fermi wird also eine Generation von Hardware finanzieren, die frühsten zwei, drei Jahre später kommt.
Undertaker
2009-11-09, 17:21:09
Mal generell, dürfte Nvidias Entwicklungsbudget nicht auch so schon eine gute Stufe über dem ATIs legen? Aus Zeiten vor der Übernahme von AMD hatte ich Nvidia zumindest immer als deutlich Umsatzstärker in Errinnerung, Gewinne wirft man momentan ja ebenfalls ab.
Korvaun
2009-11-09, 17:22:19
Das Tape-Out war spät, aber ob das an NV lag?. Tape-Outs kosten Geld und wenn man von den kleinen GT21X Chips weiß, dass der Prozess nicht reif ist, dann macht man kein Tape-Out das nicht funktionieren kann.
Zur selben Zeit (Sommer) hat aber ATI ja schon Muster der 5800-Generation an Entwickler verteilt, der Prozess hat also gut genug funtioniert (ist doch der selbe 40nm Prozess?)...
LovesuckZ
2009-11-09, 17:22:23
Mal generell, dürfte Nvidias Entwicklungsbudget nicht auch so schon eine gute Stufe über dem ATIs legen? Aus Zeiten vor der Übernahme von AMD hatte ich Nvidia zumindest immer als deutlich Umsatzstärker in Errinnerung, Gewinne wirft man momentan ja ebenfalls ab.
Im letzten Quartal hatte man knapp weniger als 200 Millionen in F&E investiert - AMD ohne GF waren es um die 260 Millionen $.
Zur selben Zeit (Sommer) hat aber ATI ja schon Muster der 5800-Generation an Entwickler verteilt, der Prozess hat also gut genug funtioniert (ist doch der selbe 40nm Prozess?)...
Sie haben Juniper verteilt. Cypress kam erst später.
aylano
2009-11-09, 17:28:42
Die eigentliche Frage muss doch sein, ob Nvidia mit fermi und Nachfolgern so viel mehr Umsatz erwirtschaften kann, dass man den aktuell recht kleinen Rückstand in der Zukunft allein durch brachialen Einsatz von Resourcen im Bereich F&E und Design mehr als ausgleichen kann.
Grundsätzlich ja, aber wennn wenn ATI deutlich mehr Geld als Nvidia verdient, könnte ATI dieses Geld in bessere Treiber & OpenCL usw usw stecken und so langfristig noch stärker werden bzw. Nvidia weitere Vorteile verlieren.
[Theorie Ende]
Wenn dem so ist, dann interessiert es in 2-3 Jahren niemanden mehr, ob Nvidia zu lange an fermi gearbeitet hat, um gleichzeitig mit ATI ein DX11-Design auf den Markt zu bringen. Es interessiert auch nicht, ob es nun 20% oder 40% mehr Performance gab und wie viel weniger Transistoren ATI für identische Leistung denn nötig hatte.
Fermi @ 40nm wird es nicht 2-3 Jahre geben.
Nächstes Jahr kommt schon 32nm bzw. gar 28nm dann vielleicht noch 22nm und wenn die bei Jeder Umstellung 3 Monate hinten liegen, dann könnte es Nvidia immerwieder 1Quartal nicht so gut verdienen.
Außerdem könnte das Hinterherlaufen auch das Nvidia-Image Ankratzen, so wie es AMD in extremere Form in der CPU-Sparte hat.
Vorallem, wo jetzt Open-PhysX vs. Nvidia-PhysX im Kampf steht, könnte eine deutliche Fermi-Verspätung Auswirkungen haben.
"Warum sollte ich als Game-Entwickler eine geschlossene Software von jener Firma nehmen, die beim Fertigungs-Hinterherlaufen zeitweise deutlichen Rückstand hat?"
Sie haben Juniper verteilt. Cypress kam erst später.
Falls das so ist, kann es aber auch sein, dass sie einfach die Performance von Cypress nicht verraten wollten.
LovesuckZ
2009-11-09, 17:32:17
Falls das so ist, kann es aber auch sein, dass sie einfach die Performance von Cypress nicht verraten wollten.
Wenn ich mir die heutige Verfügbarkeit von Cypress anschaue, dann denke ich persönlich, dass AMD eher Juniper verteilte, weil man pro Wafer deutlich mehr Chips erhielt und somit eine größere Menge an Entwicklern abdecken konnte.
Fermi @ 40nm wird es nicht 2-3 Jahre geben.
Nächstes Jahr kommt schon 32nm bzw. gar 28nm dann vielleicht noch 22nm und wenn die bei Jeder Umstellung 3 Monate hinten liegen, dann könnte es Nvidia immerwieder 1Quartal nicht so gut verdienen.
Außerdem könnte das Hinterherlaufen auch das Nvidia-Image Ankratzen, so wie es AMD in extremere Form in der CPU-Sparte hat.
Nein, man liegt jetzt einmal richtig hinten seit drei jahren. Gott, über was sich manche Gedanken machen. nVidia kam immer zurück - mit Mut und Risiko.
Vorallem, wo jetzt Open-PhysX vs. Nvidia-PhysX im Kampf steht, könnte eine deutliche Fermi-Verspätung Auswirkungen haben.
"Warum sollte ich als Game-Entwickler eine geschlossene Software von jener Firma nehmen, die beim Fertigungs-Hinterherlaufen zeitweise deutlichen Rückstand hat?"
Ja, das wird wohl der prmäre Grund sein für die Entwickler. :lol:
reunion
2009-11-09, 17:33:40
Demirug hat nach eigenen Aussagen überhaupt nur Juniper erhalten. Warum sollte AMD auch Cypress verteilen?
reunion
2009-11-09, 17:34:22
Wenn ich mir die heutige Verfügbarkeit von Cypress anschaue, dann denke ich persönlich, dass AMD eher Juniper verteilte, weil man pro Wafer deutlich mehr Chips erhielt und somit eine größere Menge an Entwicklern abdecken konnte.
Wir sprechen hier aller höchstens von 100 Karten für alle wichtigen Entwicklungsstudios, daran wird es nun wirklich nicht scheitern.
Zur selben Zeit (Sommer) hat aber ATI ja schon Muster der 5800-Generation an Entwickler verteilt, der Prozess hat also gut genug funtioniert (ist doch der selbe 40nm Prozess?)...
Naja, bei der gegenwärtigen Verfügbarkeit ist gut wohl relativ.
BlackBirdSR
2009-11-09, 17:51:50
Grundsätzlich ja, aber wennn wenn ATI deutlich mehr Geld als Nvidia verdient, könnte ATI dieses Geld in bessere Treiber & OpenCL usw usw stecken und so langfristig noch stärker werden bzw. Nvidia weitere Vorteile verlieren.
[Theorie Ende]
Klar könnte AMD. Genau so könnte Nvidia mit fermi und Nachfolger auch richtig dick kassieren. Mein Punkt ist: Wenn Nvidia da hin kommt, wohin sie wollen, können sie um einiges mehr verdienen als AMD mit jedem !realistischen! Vorteil im Gamersegment erwirtschaften könnte.
Fermi @ 40nm wird es nicht 2-3 Jahre geben.
Nächstes Jahr kommt schon 32nm bzw. gar 28nm dann vielleicht noch 22nm und wenn die bei Jeder Umstellung 3 Monate hinten liegen, dann könnte es Nvidia immerwieder 1Quartal nicht so gut verdienen.
mit fermi meine ich hier nich einen Chip im 40nm Node mit Stepping XY, sondern die gesamte Architektur. Da wird es nicht bei einem Chip bleiben. fermi legt heute schon den Grundstein für das, was Nvidia mal gerne haben würde hätte ;)
Außerdem könnte das Hinterherlaufen auch das Nvidia-Image Ankratzen, so wie es AMD in extremere Form in der CPU-Sparte hat.
Natürlich, aber immer mit dem Punkt: Dahin wo Nvidia will, verdient man viel mehr als mit einem guten Image im Gamersegement, insbesondere wenn die Konsolen noch stärker werden.
Vorallem, wo jetzt Open-PhysX vs. Nvidia-PhysX im Kampf steht, könnte eine deutliche Fermi-Verspätung Auswirkungen haben.
"Warum sollte ich als Game-Entwickler eine geschlossene Software von jener Firma nehmen, die beim Fertigungs-Hinterherlaufen zeitweise deutlichen Rückstand hat?"
Du redest von Gamern, Nvidia redet von einem ganzen Industriezweig, den man ganz ehrlich gesagt, fast alleine angreifen darf.
reunion
2009-11-09, 17:56:07
Du redest von Gamern, Nvidia redet von einem ganzen Industriezweig, den man ganz ehrlich gesagt, fast alleine angreifen darf.
Aja, inwiefern?
GPGPU. Und nein, AMD hat derzeit ggü. NVIDIA nichtmal den kleinen Zehen in der Tür.
Gipsel
2009-11-09, 18:05:59
GPGPU. Und nein, AMD hat derzeit ggü. NVIDIA nichtmal den kleinen Zehen in der Tür.
Was sich aber je nach Akzeptanz von OpenCL und der Qualität, die ATI da abliefert auch ändern könnte. Die DX11 Compute-Shader laufen ja schon mal ziemlich problemlos nach dem was man so hört.
Was sich aber je nach Akzeptanz von OpenCL und der Qualität, die ATI da abliefert auch ändern könnte.
Gegenüber CUDA/C++ mit Nexus ist OpenCL-Entwicklung aber ziemlich archaisch. Das dürfte die Entwicklungsmühen ziemlich reduzieren.
http://www.youtube.com/watch?v=FLQuqXhlx40
Also für mich wäre das keine große Überlegung wert als Entscheidungsträger ob ich jetzt ATI- oder NVIDIA-Hardware kaufe.
ATIs OpenCL-SDK ist dagegen ein schlechter Witz. Ein paar Konsolen-Samples, schlechte Dokumentation und das war's.
LovesuckZ
2009-11-09, 18:09:41
Was sich aber je nach Akzeptanz von OpenCL und der Qualität, die ATI da abliefert auch ändern könnte. Die DX11 Compute-Shader laufen ja schon mal ziemlich problemlos nach dem was man so hört.
Niemand wird zu AMD greifen, wenn deren Software und Support nicht annährend an nVidia heranreicht. Sie haben es nichtmal im normalen Workstationbereich geschafft eine Konkurrenz zu werden, wieso sollte es sich im GPGPU Bereich ändern?
Und mit Fermi überholt nVidia AMD dann auch in jedem Bereich. Es ist also nicht nur ein software- sondern auch ein hardwaretechnischer Rückstand, den man nicht über Nacht aufholen kann.
BlackBirdSR
2009-11-09, 18:11:13
Ist schon jetzt so im Mittelstand:
PCs für CAD nutzen Quadro.
Wenn in Zukunft FEM, CFD und was sonst noch über GPU laufen kann, tut sich da ein riesen Absatzmarkt auf. Darauf spekuliert Nvidia. Ganz ehrlich: Wenn ich meine Strömungssimulation ums 15x beschleunigen kann und damit Ergebnisse in der Kaffeepause erhalte, ist mir das auch 5000€ Wert.
Ist schon jetzt so im Mittelstand:
PCs für CAD nutzen Quadro.
Wenn in Zukunft FEM, CFD und was sonst noch über GPU laufen kann, tut sich da ein riesen Absatzmarkt auf. Darauf spekuliert Nvidia. Ganz ehrlich: Wenn ich meine Strömungssimulation ums 15x beschleunigen kann und damit Ergebnisse in der Kaffeepause erhalte, ist mir das auch 5000€ Wert.
Natürlich oder GIS System beschleunigen. Und daran arbeitet NV.
Gipsel
2009-11-09, 18:20:51
Gegenüber CUDA/C++ mit Nexus ist OpenCL-Entwicklung aber ziemlich archaisch. Das dürfte die Entwicklungsmühen ziemlich reduzieren.
http://www.youtube.com/watch?v=FLQuqXhlx40
Das Nexus ein ziemlich großer Schritt ist, habe ich schon anhand der ersten unscharfen Screenshots gesagt ;)
ATIs OpenCL-SDK ist dagegen ein schlechter Witz. Ein paar Konsolen-Samples, schlechte Dokumentation und das war's.
Das ist auch noch gar nicht fertig (falls es das in den nächsten Monaten überhaupt wird ;)). Und die Dokumentation ist doch zum größten Teil momentan einfach nur Platzhalter ("This document is intentionally left blank.") ;D Deswegen ja auch die Bedingung, "je nachdem, was ATI abliefert".
Außerdem ist das mit den Entscheidungsträgern immer so eine Sache. Die CUDA-Umgebung muß erheblich besser sein, damit das irgendwer nutzt. Ist der Vorsprung zu klein, werden meiner Meinung nach viele Leute auf OpenCL schwenken. Und wie die Ökosysteme in einem halben Jahr aussehen, müssen wir erstmal schauen.
Wenn man NVIDIA unterstellt dass sie aus GT200 nichts gelernt haben, dann sollte man AMD aber auch vorwerfen dürfen, dass sie was Stream-Computing und Developer-Support angeht seit Jahren nur pennen. Ich bin deshalb eher pessimistisch eingestellt was das angeht.
Und solange es keine Nexus ähnliche IDE für OpenCL gibt wird diese Entscheidung für viele sehr einfach sein. NVIDIA wird deshalb OpenCL dort für sehr lange wohl auch nicht unterstützen.
LovesuckZ
2009-11-09, 18:24:48
Ist der Vorsprung zu klein, werden meiner Meinung nach viele Leute auf OpenCL schwenken.
Cuda existiert jetzt seit drei Jahren. Als Laie nehme ich mal stark an, dass deren Dokumentation jetzt schon deutlich besser ist. Dazu kommt, dass man OpenCL auch auf nVidia-Hardware nutzen kann. AMD ist also in einer Position, dass deren OpenCL Support deutlich besser als nVidia's OpenCL und Cuda sein muss. Und bis sie alleine die Lücke zu OpenCL schließen, wird bestimmt noch eine Weile vergehen.
Unterstützt denn AMD schon DP unter OpenCL? Ich habe mal gelesen, dass dies erst irgendwann im nächsten Jahr kommen soll...
Menace
2009-11-09, 18:27:01
Das ist auch noch gar nicht fertig (falls es das in den nächsten Monaten überhaupt wird ;)). Und die Dokumentation ist doch zum größten Teil momentan einfach nur Platzhalter ("This document is intentionally left blank.") ;D Deswegen ja auch die Bedingung, "je nachdem, was ATI abliefert".
Das ist das, was ich bei nVidia bewundere und mich bei Ati fassungslos werden lässt. Wäre es denn kurzfristig so eine große Mehrinvestition, wenn Ati mal dementsprechende Software schreiben würde? Langfristig wäre es ja auf jeden Fall lohnend. Und diese Information ist doch selbst in den Führungsebenen nicht so schwer zu vermitteln.
Ich sehe deshalb auch die Verzögerung vom Fermi für nVidia nicht wirklich als schlimm an; sie werden ihre Zeit für die Treiberentwicklung/Software nutzen.
Gipsel
2009-11-09, 18:27:20
Niemand wird zu AMD greifen, wenn deren Software und Support nicht annährend an nVidia heranreicht. Sie haben es nichtmal im normalen Workstationbereich geschafft eine Konkurrenz zu werden, wieso sollte es sich im GPGPU Bereich ändern?
Und mit Fermi überholt nVidia AMD dann auch in jedem Bereich. Es ist also nicht nur ein software- sondern auch ein hardwaretechnischer Rückstand, den man nicht über Nacht aufholen kann.
Blabla. Fermi muß erstmal kaufbar werden. Den Rückstand von ATI zu nvidia im Software-Bereich habe ich immer betont, der auf der Hardware-Seite war nie so gravierend (falls überhaupt vorhanden, HD4000er können auch ziemlich viel und mit Evergreen ist ATI momentan locker vorne). Und GPGPU ist nicht nur der Profi- und HPC-Markt. Vielleicht ein wenig abseitig, aber GPUGrid (Distributed-Computing Projekt) hat heute gerade eine Anwendung für ATIs für die nächten Tage angekündigt. Bisher haben sie vollständig auf PS3 und CUDA gesetzt. Aber ich vermute mal, daß sich ihre CUDA-Anwendung ziemlich einfach auf OpenCL portieren ließ ;)
Gipsel
2009-11-09, 18:31:01
Dazu kommt, dass man OpenCL auch auf nVidia-Hardware nutzen kann. AMD ist also in einer Position, dass deren OpenCL Support deutlich besser als nVidia's OpenCL und Cuda sein muss.
WTF?!?
Daß OpenCL auch von Nvida unterstützt wird, ist doch gerade ein sehr gewichtiger Grund warum man das gegenüber CUDA favorisieren könnte. Oder hast Du diese Zusammenhänge nicht begriffen?
Sobald OpenCL-Support nur halbwegs in die Regionen von CUDA kommt, wird das genutzt werden, da es eben überall läuft, auch auf Intels kommendem Larrabee.
Gipsel
2009-11-09, 18:35:24
Das ist das, was ich bei nVidia bewundere und mich bei Ati fassungslos werden lässt. Wäre es denn kurzfristig so eine große Mehrinvestition, wenn Ati mal dementsprechende Software schreiben würde? Langfristig wäre es ja auf jeden Fall lohnend. Und diese Information ist doch selbst in den Führungsebenen nicht so schwer zu vermitteln.
Wirklich kurzfristig ist das schwierig. Da würde mehr Manpower auch erst mittelfristig helfen.
Bisher hat das Management halt den Bereich und möglichen Umsatz dort nur sehr klein eingeschätzt. Dementsprechend waren die eingesetzten Resourcen auch nur sehr klein. Das über Nacht zu ändern ist kaum möglich.
Sobald OpenCL-Support nur halbwegs in die Regionen von CUDA kommt, wird das genutzt werden, da es eben überall läuft, auch auf Intels kommendem Larrabee.
Sehe ich auch so, aber CUDA hat eben den großen Vorteil, dass eine Firma wie NVIDIA extrem aufwändige Entwicklertools dafür bereit stellt.
Ich sehe das ähnlich wie bei Direct3D ggü. OpenGL. PIX ist für mich einfach ein unglaublich gewichtiges Argument, obwohl mich Direct3D an eine Platform fesselt. Entwickler sind unglaublich faul. Vergiss das nicht.
Was ihnen etwas den Arsch retten könnte ist wenn jemand eine OpenCL-IDE mit Debugging anbietet. Obwohl ich nichtmal sicher bin ob das so wie in Nexus auf ATI-Karten klappen kann. Weißt du da mehr?
Bleibt außerdem der fehlende Support für Programmiersprachen wie C++ in Hardware und Software. Weil bis OpenCL sowas kann kann auch wieder viel Zeit vergehen.
LovesuckZ
2009-11-09, 18:36:51
WTF?!?
Daß OpenCL auch von Nvida unterstützt wird, ist doch gerade ein sehr gewichtiger Grund warum man das gegenüber CUDA favorisieren könnte. Oder hast Du diese Zusammenhänge nicht begriffen?
Sobald OpenCL-Support nur halbwegs in die Regionen von CUDA kommt, wird das genutzt werden, da es eben überall läuft, auch auf Intels kommendem Larrabee.
Niemand redet hier vom Consumer GPGPU. nVidia will in dem GPGPU Markt, indem es das große Geld mit ihren Lösungen zu verdienen gibt. Das bissl OpenCL-Consumer-Zeug ist doch vollkommen egal. Denn im Gegensatz zum Consumer-Markt ist es den Käufern egal, dass deren Anwendungen nur auf nVidia's Grafikkarten läuft. Die wollen ein Problem so schnell wie möglich lösen bzw. bearbeiten.
Und solange wie AMD nichtmal eine bessere OpenCL Unterstützung wie nVidia anbietet, wird man sie eher belächeln als als wirkliche ALternative ansehen.
Gipsel
2009-11-09, 18:41:57
Was ihnen etwas den Arsch retten könnte ist wenn jemand eine OpenCL-IDE mit Debugging anbietet. Obwohl ich nichtmal sicher bin ob das so wie in Nexus auf ATI-Karten klappen kann. Weißt du da mehr?Nein, weiß ich nicht. Aber momentan weiß ja auch noch keiner, wie das mit Nexus genau gelöst ist. Wie es aussieht, läuft es ja nicht nur auf Fermi, sondern zumindest auch schon auf GT200-Karten (das von Dir verlinkte Video wurde auf einer GT200 gemacht, wenn ich mich nicht irre).
Gipsel
2009-11-09, 18:46:18
Niemand redet hier vom Consumer GPGPU. nVidia will in dem GPGPU Markt, indem es das große Geld mit ihren Lösungen zu verdienen gibt. Das bissl OpenCL-Consumer-Zeug ist doch vollkommen egal. Denn im Gegensatz zum Consumer-Markt ist es den Käufern egal, dass deren Anwendungen nur auf nVidia's Grafikkarten läuft. Die wollen ein Problem so schnell wie möglich lösen bzw. bearbeiten.
Du weißt aber schon, warum x86 so erfolgreich geworden ist? ;)
Und solange wie AMD nichtmal eine bessere OpenCL Unterstützung wie nVidia anbietet, wird man sie eher belächeln als als wirkliche ALternative ansehen.Zum letzten Mal, falls OpenCL (als ganze Plattform, nicht die Qualität der Umsetzung eines einzelnen Herstellers) qualitätsmäßig nur in die Reichweite von CUDA kommt, werden sehr viele das einsetzen, alleine wegen der größeren Universalität der Plattform. Egal ob Du das glaubst oder nicht, aber mehr gibt es dazu nicht zu sagen.
LovesuckZ
2009-11-09, 18:52:53
Du weißt aber schon, warum x86 so erfolgreich geworden ist ;)
Weil er vermehrt im Serverbereich eingesetzt wurden ist? ;)
Zum letzten Mal, falls OpenCL (als ganze Plattform, nicht die Qualität der Umsetzung eines einzelnen Herstellers) qualitätsmäßig nur in die Reichweite von CUDA kommt, werden sehr viele das einsetzen, alleine wegen der größeren Universalität der Plattform. Egal ob Du das glaubst oder nicht, aber mehr gibt es dazu nicht zu sagen.
Die Qualität von OpenCL hängt von der Herstellerplattform ab. Aber das spielt im Tesla-Markt nur eine untergeordnete Rolle, weil er wahrscheinlich wie der Workstationmarkt ist: Ein "Solutionmarket" wie ihn nVidia nennt. Den Leuten ist es komplett egal, ob ihre Lösung auch auf AMD Hardware läuft. Das spielt keine Rolle. Denn wenn dies so wäre, hätte AMD ein leichtes in den Workstationmarkt zu kommen. Und dort krebsen sie seit Jahren mit weniger als 10% Marktanteil im stationären Bereich rum.
BlackBirdSR
2009-11-09, 19:02:58
Weil er vermehrt im Serverbereich eingesetzt wurden ist? ;)
Falsch.
Weil Programmierer Arsch faul sein konnten und trotzdem die Leistung von etablierten Branchenriesen erreichen konnten. Dazu eine voll ausgebildete Infrastruktur, die auf den Consumerwurzeln aufbauen konnte und in Sachen Preis/Leistung unschlagbar war.
x86 wurde nicht erfolgreich weil es im Serverbereich eingesetzt worden ist, es ist im Server-Bereich eingesetzt worden, weil es so erfolgreich war.
Das will Nvidia nun auch. Den Sprung von Consumer zum High-End und zwar so, dass man in den nächsten Jahren alle bisherigen Lösungen verdrängt.
Ob das klappt ist ne andere Frage.
LovesuckZ
2009-11-09, 19:05:39
Falsch.
Weil Programmierer Arsch faul sein konnten und trotzdem die Leistung von etablierten Branchenriesen erreichen konnten. Dazu eine voll ausgebildete Infrastruktur, die auf den Consumerwurzeln aufbauen konnte und in Sachen Preis/Leistung unschlagbar war.
x86 wurde nicht erfolgreich weil es im Serverbereich eingesetzt worden ist, es ist im Server-Bereich eingesetzt worden, weil es so erfolgreich war.
Das will Nvidia nun auch. Den Sprung von Consumer zum High-End und zwar so, dass man in den nächsten Jahren alle bisherigen Lösungen verdrängt.
Ob das klappt ist ne andere Frage.
Ja - aber dann wird man dort wohl eher Cuda statt OpenCL einsetzen. Immerhin bietet nVidia eine komplette und ausgefeilte Cuda-Plattform an. Und selbst der OpenCL Support ist bei ihnen besser als bei AMD. Deswegen verstehe ich hier nicht den Sinn, wieso OpenCL AMD eine Hilfe sein sollte.
Gipsel
2009-11-09, 19:05:50
Weil er vermehrt im Serverbereich eingesetzt wurden ist? ;)Überprüfe mal die Kausalität ;)
Die Qualität von OpenCL [..] Denn wenn dies so wäre, hätte AMD ein leichtes in den Workstationmarkt zu kommen. Und dort krebsen sie seit Jahren mit weniger als 10% Marktanteil im stationären Bereich rum.
Siehe oben. Du kannst bei einem neuen Aspekt schwer mit Sachen argumentieren, die Jahre zurückliegen.
Gipsel
2009-11-09, 19:08:34
Dazu eine voll ausgebildete Infrastruktur, die auf den Consumerwurzeln aufbauen konnte und in Sachen Preis/Leistung unschlagbar war.Darauf wollte ich hinaus.
Deswegen: Unterschätze niemals die Macht des Consumermarktes! ;)
LovesuckZ
2009-11-09, 19:09:18
Siehe oben. Du kannst bei einem neuen Aspekt schwer mit Sachen argumentieren, die Jahre zurückliegen.
OpenCL ist im grunde nicht neu: Es gibt jeweils bei nVidia und AMD eigene Versionen, die das selbe Gebiet übernehmen und trotzdem hat sich Cuda statt Brook+/Stream durchgesetzt. OpenCL erleichtert jedenfalls bei nVidia auch nicht die Arbeit. Gleichzeitig kann nVidia mit Cuda wesentlich schneller neue Fähigkeiten implementieren. Und dank Extensions wird man bei OpenCL meisten auch Probleme bekommen.
Daher nochmal die Frage: Wieso sollte OpenCL für AMD eine Hilfe sein?
reunion
2009-11-09, 19:09:33
Ja - aber dann wird man dort wohl eher Cuda statt OpenCL einsetzen. Immerhin bietet nVidia eine komplette und ausgefeilte Cuda-Plattform an. Und selbst der OpenCL Support ist bei ihnen besser als bei AMD. Deswegen verstehe ich hier nicht den Sinn, wieso OpenCL AMD eine Hilfe sein sollte.
Weil es auch auf AMD-Karten und später Intel-Karten läuft und alleine schon das ein erheblicher Vorteil ist. Ich hoffe doch den Zusammenhang verstehst du. Eine Plattform die bei allen läuft ist immer eine Hilfe für Nachzügler, da dann die Vorteile von NV zumindest tw. egalisiert werden.
Weil es auch auf AMD-Karten und später Intel-Karten läuft und alleine schon das ein erheblicher Vorteil ist. Ich hoffe doch den Zusammenhang verstehst du. Eine Plattform die bei allen läuft ist immer eine Hilfe für Nachzügler, da dann die Vorteile von NV zumindest tw. egalisiert werden.
In dem Bereich ist es aber kaum bedeutend ob eine Lösung auf aller Hardware läuft, man kauft die Hardware passend zur gewählten Anwendungslösung.
Open CL muss sich erst einmal etablieren. Dazu muss es eine Entwicklungsumgebung geben, die CUDA nicht nachsteht. Und wenn Fermi C++ Code frisst, dann ist auch das eine spannende Option, die viele wohl open Cl vorziehen werden.
Gipsel
2009-11-09, 19:15:40
OpenCL erleichtert jedenfalls bei nVidia auch nicht die Arbeit. Gleichzeitig kann nVidia mit Cuda wesentlich schneller neue Fähigkeiten implementieren. Und dank Extensions wird man bei OpenCL meisten auch Probleme bekommen.
Daher nochmal die Frage: Wieso sollte OpenCL für AMD eine Hilfe sein?
So zum letzten Mal.
Für Nvidia mag OpenCL keine Erleichterung bringen. Aber der Programmierer, der auf OpenCL setzt, kann sich sicher sein, daß sein Programm entweder komplett ohne oder mit sehr wenigen Anpassungen sowohl auf Nvidia-, ATI- und Larrabee-GPUs als auch auf MultiCore-CPUs jedweden Herstellers halbwegs performant laufen wird. Das sollte als Argument selbst für Dich reichen, oder?
Dural
2009-11-09, 19:16:50
Schon mal die News von heute auf der Frontpage (http://www.3dcenter.org/news/2009-11-08) angeschaut? Also ich sehe da mit DX11 erheblich mehr auf dem Bildschirm ;)
aha und mit wie vielen Milionen Doller wird dieser Benchmark / DX11 beworben? So wie es NV mit Cuda und PhysX tut ;-)
Kein Hersteller hat interesse DX11 mit viel Geld zu Bewerben! Für was auch, würde den Mitbewerber ja auch zu gute kommen, irgend einmal...
Gipsel
2009-11-09, 19:17:38
Und wenn Fermi C++ Code frisst, dann ist auch das eine spannende Option, die viele wohl open Cl vorziehen werden.
Wo wir schon mal beim HPC-Bereich waren, weißt Du zufällig wieviel HPC-Code objektorientiert ist?
reunion
2009-11-09, 19:18:39
In dem Bereich ist es aber kaum bedeutend ob eine Lösung auf aller Hardware läuft, man kauft die Hardware passend zur gewählten Anwendungslösung.
Open CL muss sich erst einmal etablieren. Dazu muss es eine Entwicklungsumgebung geben, die CUDA nicht nachsteht. Und wenn Fermi C++ Code frisst, dann ist auch das eine spannende Option, die viele wohl open Cl vorziehen werden.
Prinzipiell hast du recht. Nur da sind wir wieder beim Punkt x86. Was sich im Consumer-Markt durchsetzt hat auch verdammt gute Chancen sich in allen anderen Märkten durchzusetzen.
Gipsel
2009-11-09, 19:19:36
aha und mit wie vielen Milionen Doller wird dieser Benchmark / DX11 beworben? So wie es NV mit Cuda und PhysX tut ;-)
Kein Hersteller hat interesse DX11 mit viel Geld zu Bewerben! Für was auch, würde den Mitbewerber ja auch zu gute kommen, irgend einmal...
Das muß man nicht groß bewerben. Einfach einen Sticker auf die DX11-Kartenpackung "Stunning new effects. Striking new features. Unparalleled Performance through DX11 support." und die Leute kaufen es wie blöd.
Merke: DX11 > DX10 ;)
LovesuckZ
2009-11-09, 19:21:36
So zum letzten Mal.
Für Nvidia mag OpenCL keine Erleichterung bringen. Aber der Programmierer, der auf OpenCL setzt, kann sich sicher sein, daß sein Programm entweder komplett ohne oder mit sehr wenigen Anpassungen sowohl auf Nvidia-, ATI- und Larrabee-GPUs als auch auf MultiCore-CPUs jedweden Herstellers halbwegs performant laufen wird. Das sollte als Argument selbst für Dich reichen, oder?
Du redest einzig vom komplett uninteressanten Consumer-Bereich. Das sich hier Cuda nicht durchsetzt, steht doch außer Frage. Aber dieser Markt ist auch kaum der lukrativste, da man hier Geld mit Software statt mit Hardware verdient - siehe Spielemarkt. nVidia verdient auch nicht an der Software, sondern am Verkauf der Hardware an Gamer.
Schlussendlich wird der Entwickler sich die Hardware holen, dessen Support besser für OpenCL ist. Also muss AMD alleine im Consumer-Bereich nVidia überholen. Im GPGPU Bereich, also dort wo Tesla hingeht, müssen sie sich auch noch mit Cuda messen.
Gipsel
2009-11-09, 19:24:54
Du redest einzig vom komplett uninteressanten Consumer-Bereich. Das sich hier Cuda nicht durchsetzt, steht doch außer Frage.
Wo sind die Alphas geblieben? Die waren auch den Consumer x86er CPUs haushoch überlegen ;)
Wo wir schon mal beim HPC-Bereich waren, weißt Du zufällig wieviel HPC-Code objektorientiert ist?
Es geht ja nicht nur um C++. Das ist ja nur ein Nebeneffekt von global verwendbaren Pointern. Und die benutzt man da schon ab und zu ;)
Und ich denke schon, dass auch im HPC-Bereich auch einige ganz gerne C++ verwenden.
aylano
2009-11-09, 19:26:41
mit fermi meine ich hier nich einen Chip im 40nm Node mit Stepping XY, sondern die gesamte Architektur. Da wird es nicht bei einem Chip bleiben. fermi legt heute schon den Grundstein für das, was Nvidia mal gerne haben würde hätte ;)
Trotzdem hat es einen starken Einfluss, wann Fermi & Co in kleineren Fertigungen kommt.
Siehe jetzt, wo GT200b untergeht. Und nicht nur wegen DX11.
Die Effizienz lässt eine Grafikkarte & Firma schöner glänzen.
Genauso, wer die schnellste Single-Grafikkarte hat.
Das Problem ist ja, AMD könnte eben sich eben auch in diesem Markt mitmischen, wo Nvidia gerne hinwill.
Du redest von Gamern, Nvidia redet von einem ganzen Industriezweig, den man ganz ehrlich gesagt, fast alleine angreifen darf.
Neben PhysX könnte AMD ja auch im GPGPU-Markt besser werden.
Im Gegensatz zu Nvidia können sie mit CPU & Chipsatz & GPGPU jetzt auch schon eine komplette Hardware-Plattform anbieten.
Na ja, jetzt fehlt ja nur mehr, die Software deutlich zu verbessern. Und je besser die Gamer-Verkäufe, desto eher könnte AMD in die Software-Entwicklung Geld reinfließen lassen.
Gipsel
2009-11-09, 19:29:13
Es geht ja nicht nur um C++. Das ist ja nur ein Nebeneffekt von global verwendbaren Pointern. Und die benutzt man da schon ab und zu ;)
Auf Systemen ohne gemeinsamen globalen Speicher? Ohne Cache-Kohärenz zwischen den Nodes? Erkenne ich da etwa Ähnlichkeiten zu den GPUs?
PS:
Ich weiß, daß es nicht ganz paßt ;)
nagus
2009-11-09, 20:20:07
das schon bekannt? [Rumour] Nvidia Fermi final silicon to be A3 revision, Q2 2010? (http://vr-zone.com/articles/-rumour-nvidia-fermi-final-silicon-to-be-a3-revision-q2-2010-/8014.html?doc=8014)
"A January 2010 release makes very little sense - even if A2 was the final silicon. Perhaps January 2010 is the date Nvidia receives their A3 samples? Even for that, a February date seems more likely. Take mass production of the chips, assembly of graphics boards, printing of boxes, etc. and we are well into March, best case scenario"
LovesuckZ
2009-11-09, 20:39:03
Das ganze ist von Fudzilla abgeschrieben. Schon erstaunlich, dass selbst VR-Zone nichtmal hinterfragt, wie nVidia jetzt schon von A3 spricht, wenn man selbst erst in drei Wochen A2 erhält. :lol:
Ein A3 auf Release Karten würde auf deftige Probleme hindeuten, kann mir nicht vorstellen das da was mit den Yield Raten dann im Argen liegen würde. G80 war schließlich A2 Release.
Selbst wenn sie mit A2 releasen, kann man davon ausgehen, daß diese Chips schlecht overclocken und heiß werden.
Da werden sich die A2-Käufer schön in den Hintern beißen, wenn 2 Monate später A3 erscheint...
Soundwave1983
2009-11-09, 21:42:01
Bei der Geforce 4 gabs das doch auch mal, meine 4200 hatte nen A2, kurz darauf kamen A3 Chips raus.
Was an denen anders war, keine Ahnung, meine Karte lief bestens.
Wobei die Karten von damals was Hitze und Co. anging natürlich nicht mit den Modellen von heute vergleichbar sind.
Dural
2009-11-09, 21:42:04
wenn A2 läuft aber vileicht nicht die taktraten schafft die man gerne hätte würde man den Chip Garantiert trotzdem auf den Markt werfen!!!
Siehe auch G200b mit B2 und B3, ich glaub vereinzelt sind sogar Karten mit B1 aufgetaucht, aber wohl nicht Retail oder nur Tesla oder sonst was...
vom G80 gab es ja später zb. auch mal ein A3
Man muss sagen das die Ziele von NV was den Takt betrifft aber sehr hoch sind für so ein rissen teil! Die Sprechen ja von 700 / 2000MHz takt und das ist schon sehr heftig!!! Gerade in anbetracht der taktrate der kleinen GT21x GPUs in 40nm, obwohl da die frage für mich immer noch offen ist ob es an den Chips selber liegt oder NV die dinger bewusst so nidrig taktet um mehr Gewinn zu fahren, in dieser klasse ist die Leistung doch meisten eh zweitrangig!
Soundwave1983
2009-11-09, 21:44:09
ich glaub vereinzelt sind sogar Karten mit B1 aufgetaucht
Bei mir zeigt GPU-Z B1 für meine 285 an. Auslesefehler? :confused:
Januar finde ich auch unlogisch, ein Respin müsste sie rein rechnerisch auf März schmeißen.
Schade, ich hätte schon gern eine neue Grafikkarte :-(. Nach dem ganzen Treiberärger, den ich mit meinen ATIs immer hatte (und es hieß jedesmal, das wäre nur früher so gewesen), muss ich wohl nun warten...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.