Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
We learned that towards the end of 2009 Nvidia plans to launch three Fermi architecture based cards. The one that Nvidia talked about, is the high end single chip card and this one was said to to have 16 clusters and total of 512 shader cores. Let’s call this it Fermi GTX.
The dual card will naturally have two of these cores and likely a bit less than 2x512 shader cores simply as it has to operate with a TDP of around 300W. Heat is a big enemy of semiconductors and once you get up to 3.1 billion transistors even with small 40nm gates, you still end up with a lot of heat. If we could come up with a codename for better understanding, it would be Fermi GX2.
The third card, something that we can call Fermi GT, will be a performance card, and it could be the new 8800GT. Nvidia expects a lot of sales from this card and this one would go up against Radeon 5850.
Quelle (http://www.fudzilla.com/content/view/15795/34/)
Wenn die "Fermi GT" gegen die 5850 positioniert wird (beim GT200 war der kleine Ableger GTX260 gegen die 4870 positioniert), scheint der Leistungsvorsprung nicht ganz so groß ausfallen.
Aber immerhin 3 Karten Ende des Jahres :)
Ungefär so habe ich mir Fermi immer vorgestellt :biggrin:
http://t2.gstatic.com/images?q=tbn:q1WWQO0jO6fqkM:http://files.tradoria.de/8015c396550afae3c8357fc15a40d5ad/images/51857682_635115.jpg
Aquaschaf
2009-10-03, 15:27:39
Nein, was ich meinte ist, dass zwei Warps auf einer Vec16 ausgeführt werden für SP und nur ein Warp für DP.
Ok, wenn man sich das Schaubild einmal genauer ansieht erkennt man auch dass es unter beiden Schedulern 32 Pfeile sind. Nun deute ich es so: beide Scheduler geben pro Takt Instruktionen für eine warp ab, für DP nur eine half-warp. Oder nur ein Scheduler eine warp(?).
Undertaker
2009-10-03, 15:42:53
Das kann man überhaupt nicht pauschalisieren.
Habe kürzlich NOLF2 (2002!) gespielt (1280x1024). Standard Speicherverbrauch 42 MB. Mit 4xAA ca. 80-90.
Mit 32xSAA 880MB!!! :freak:
Nicht jedes Spiel das den Speicher füllen kann, muss auch den Rest der Karte gleich überfordern. FPS waren natürlich mehr als genug zu sehen (GTX285/1GB).
Wer nur ein bisschen von der Norm abweicht und Downsampling oder Texturmods oder hohe AA Modi nutzen möchte, kann selbst mit heutigen Spielen bei hohen Auflösungen schnell in Speichernot geraten. Und wir reden über Grafikhardware für die Spiele von morgen!
Und da werden speziell die 1.5GB einer 384er Karte auf einem Dual Monster wieder zu wenig sein für die Zielgruppe die mit der Rechenleistung der Karte eigentlich etwas anzufangen wüsste. Und ich glaube nicht, dass NV eine GTX395 mit 6GB bringt :eek:
Ich seh das ganz objektiv: Abseits von GTA4 wird es äußerst schwer, in spielbaren Settings Vorteile für die 2GB GTX285 im Vergleich zur 1GB Variante zu entdecken.
http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=6
Und das selbst mit Mods und HD-Packs. Für den schnelleren GT300 erscheinen mir 1,5GB aus P/L Sicht für eine non-SLI Karte als gute Wahl. :)
Noebbie
2009-10-03, 15:52:50
Wird die Karte eigentlich noch offiziell als Geforce verkauft oder nennt die sich dann wirklich Fermi?
Wird die Karte eigentlich noch offiziell als Geforce verkauft oder nennt die sich dann wirklich Fermi?
Ich erinnere mich, dass es auf beyond3d hieß, es wird Geforce 380, die Zahl varriert dann.
Ich denke Fudzilla nannte sie aus anderen Gründen Fermi GT usw.
Picknatari
2009-10-03, 16:04:54
Fake Karte bei Präsentation:
http://www.gamestar.de/hardware/news/grafikkarten/1959395/nvidia.html
Ok, wenn man sich das Schaubild einmal genauer ansieht erkennt man auch dass es unter beiden Schedulern 32 Pfeile sind. Nun deute ich es so: beide Scheduler geben pro Takt Instruktionen für eine warp ab, für DP nur eine half-warp. Oder nur ein Scheduler eine warp(?).
Es werden entweder zwei Warps auf die beiden Gruppen gescheduled oder ein Warp auf beide im DP-Fall.
Aber immerhin 3 Karten Ende des Jahres :)
Bisschen mehr sollten es schon sein :freak:
Gipsel
2009-10-03, 17:13:59
Es geht mir nur darum, dass es jetzt nur noch zwei "Execute" Pipeline Stages gibt und nicht wie bei allen anderen D3D10/11-GPUs vier. Vor allem wenn man bedenkt dass sie in diesen bei >1.5Ghz vollen denorm Support anbieten.
Ich finde das nach wie vor höchst ungewöhnlich. Ihr tut das als Anekdote ab was es imho überhaupt nicht ist. Das ist ganz erheblicher Mehraufwand für die Schaltungsdesigner und ich verstehe nach wie vor nicht was dadurch der große Vorteil sein soll.
Man bräuchte mehr wohl WARP-Scheduler für das was ich meine. Aber nun gut, ich kau den Besen wohl ;)
Guten Appetit! ;)
Aber was Du immer noch nicht "gefressen" hast, ist daß es mehr als zwei execute Pipeline Stages gibt (auch mehr als 4). Man kann nämlich mitnichten beim G80/GT200 nach 4 Takten schon die nächste Instruktion für den gleichen Warp ausführen. Da müssen unbedingt unabhängige Instruktionen aus anderen Warps dazwischen liegen (laut ein paar Tests sind ganze 5 zusätzliche Warps nötig, damit man Peak-Performance erreicht). Damit haben die Instruktionen in G80/GT200 physisch ganze 24 Takte Latenz inklusive dem Registerzugriff (da das SRAM-Arrays sind, wahrscheinlich auch jeweils ~2-4 Takte).
Wie schon gesagt, bei ATI sind 8 Takte dokumentiert, und da fehlt noch das Schreiben in die Register. Wenn man 8 Takte nach der Instruktion, die auf ein Register schreibt das gleiche Register liest, steht noch der alte Wert drin, erst 16 Takte später, ist auch das geupdatet. Trotzdem kann man 8 Takte später schon den nächsten abhängigen Befehl absetzen, da in den bereits erwähnten Pipeline-internen "previous result"-Registern schon der neue Wert steht (spart auch Read/Write-Ports an den Registern).
Wenn man nur eine aktive Wavefront auf einem SIMD hat, wird übrigens nur alle 8 Takte ein Befehl abgesetzt, die andere Hälfte der Zeit ist der Chip dann idle. Das Gleiche passiert auch bei nvidia, nur daß man da mehr als 2 Warps benötigt, da die physischen Latenzen höher sind. Die Latenz-Werte die nvidia angibt, sind zum größten Teil PR-Aussagen oder wohlwollend Effektivwerte, die davon ausgehen, daß man genügend Warps hat. Richtig dokumentiert hat nvidia das nirgendwo.
Wenn alles gut funktioniert (genügend Warps/Wavefronts dazwischen geschoben werden können), dann haben alle Instruktionen effektiv (aus Programmierersicht) sozusagen nur 1 Takt Latenz, man muß nicht warten, bis das vorhergehende Ergebnis fertig wird, da das einfach durch andere Instruktionen aus anderen Warps versteckt wird.
Apropos vollem denorm Support, den hat RV870 jetzt schon (für SP und DP) ;).
Ok, wenn man sich das Schaubild einmal genauer ansieht erkennt man auch dass es unter beiden Schedulern 32 Pfeile sind. Nun deute ich es so: beide Scheduler geben pro Takt Instruktionen für eine warp ab, für DP nur eine half-warp. Oder nur ein Scheduler eine warp(?).
Paßt doch. Der Scheduler läuft ja auf halbem Takt (ist ja auch bei G80/GT200 so). Mit Schedulertakt wird jeden Taktzyklus eine Instruktion für einen ganzen Warp (32 Threads) ausgewählt, und dann mit Shadertakt jeden Takt für einen Halbwarp (16 Threads) an die Einheiten abgesetzt. Ist DP dabei, arbeitet nur ein Scheduler für den Takt.
@Coda:
Der Vorteil von dieser Anordnung ist, daß man den Scheduler auf halbem Shadertakt laufen lassen kann (aber eben zwei benötigt), mit vollem Takt würde man nur einen Scheduler benötigen und gleich einen kompletten Warp absetzen (DP, L/S sowie SFU würde dann 2 Takte belegen). Insofern führt die jetzige Lösung sogar zu einer im Schnitt etwas höheren Auslastung.
Das Design ist offensichtlich ein Kompromiß, möglichst viele Einheiten gut auslasten zu können, ohne zuviel Verwaltungsaufwand treiben zu müssen. Gegenüber einem GT200 Design mit 16 TPCs zu je 4 SMs mit 8 Kernen spart man eine Hierarchiestufe und zusätzlich 32 Scheduler sowie 64 SFUs. Irgendwie schon ein Grund das umzustellen, oder?
tombman
2009-10-03, 17:21:48
Sollte man diese Warp-Diskussion nicht in einem anderen thread führen?
Mehr als 10 Leuten hier wirds kaum verständlich sein, und der Rest ist enttäuscht, wenn der thread angeblich Neuigkeiten verspricht, dann aber doch nur wieder hirngewichst wird...
deekey777
2009-10-03, 17:23:24
Sollte man diese Warp-Diskussion nicht in einem anderen thread führen?
Mehr als 10 Leuten hier wirds kaum verständlich sein, und der Rest ist entäuscht, wenn der thread angeblich Neuigkeiten zeigt, dann aber doch nur wieder hirngewichst wird...
Wieso das denn? Sie bezieht sich auf die kommende Hardware.
Eins muss man allerdings schon zugeben, die gezeigte Karte hatte bestimmt einen wahnsinnig niedrigen Stromverbrauch. Da kommt ATI nicht dran.
w0mbat
2009-10-03, 17:33:49
Eins muss man allerdings schon zugeben, die gezeigte Karte hatte bestimmt einen wahnsinnig niedrigen Stromverbrauch. Da kommt ATI nicht dran.
Stimmt. Und extrem leise war sie bestimmt auch.
Aber was Du immer noch nicht "gefressen" hast, ist daß es mehr als zwei execute Pipeline Stages gibt (auch mehr als 4). Man kann nämlich mitnichten beim G80/GT200 nach 4 Takten schon die nächste Instruktion für den gleichen Warp ausführen.
Doch es sind 4 Execution Stages in der Pipeline. Der Rest ist retire, load usw. Zumindest war das bei G80 so.
Sonst hätte man ja auch bei G80 gleich auch 16er ALUs verbauen können. Würde man weniger Register und weniger Threads brauchen um die Hardware auszulasten.
Apropos vollem denorm Support, den hat RV870 jetzt schon (für SP und DP) ;).
Ist mir bekannt. Aber da sind es auch 4 Takte, bzw. 8.
Der Vorteil von dieser Anordnung ist, daß man den Scheduler auf halbem Shadertakt laufen lassen kann (aber eben zwei benötigt), mit vollem Takt würde man nur einen Scheduler benötigen und gleich einen kompletten Warp absetzen (DP, L/S sowie SFU würde dann 2 Takte belegen). Insofern führt die jetzige Lösung sogar zu einer im Schnitt etwas höheren Auslastung.
Der lief auch schon bei G80 auf halbem Takt.
tombman
2009-10-03, 17:34:44
Der echte Prototyp sehe aus wie ein Tintenfisch, weil überall Kabel heraushingen und das habe man den Nvidia-CEO nicht für eine Präsentation in die Hände geben wollen. ...
Also, was ich vorher schon vermutet hatte ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7570430&postcount=3325
Crazy_Chris
2009-10-03, 17:48:25
Also, was ich vorher schon vermutet hatte ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7570430&postcount=3325
Auch ein blindes Huhn...:wink:;D
Naja ich find das jetzt nicht so überraschend. Ist doch üblich das man bei ersten Präsentationen durchaus nur Dummys zeigt. Das machen andere nicht anders.
tombman
2009-10-03, 17:58:09
Auch ein blindes Huhn...:wink:;D
Wenn ich blind bin, sind die anderen ohne Augen geboren worden ;)
"Ich sehe alles" (TM, T2) ;D
Gipsel
2009-10-03, 18:32:56
Doch es sind 4 Execution Stages in der Pipeline. Der Rest ist retire, load usw. Zumindest war das bei G80 so.
Quellen?
Wenn ich mal Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3334&p=6) zitieren darf:
We got lots of response on this page, and many CUDA developers, graphics software designers and hardware enthusiasts emailed us links to many resources on these topics. We discovered some very useful info: instruction latency is actually about 22 cycles in G80, so Anand and I were both way off.
Wie gesagt, Messungen zeigen >20 und <=24 Takte (weswegen Anandtech ~22 angibt), und davon sind sicherlich nicht ~20 Takte retire, load usw., vor allem da zweifelhaft ist, daß das in der gemessenen Latenz enthalten ist. Das ist es bei CPUs auch nicht. So eine Art result forwarding sollte man schon erwarten können. Und selbst wenn nicht, die wirksame Latenz wurde nun einmal zu 24 Takten vermessen. Ist doch auch egal, wie die genau zustande kommen, Fakt bleibt, daß eine abhängige Instruktion bei G80/GT200 erst 24 Takte später abgesetzt werden kann. Bei ATI 8 Takte später, wobei die Register auch erst 16 Takte später geupdatet sind. Das gibt meiner Meinung schon die Größenordnung für die wirkliche Pipelinelänge der GPUs vor.
Wie gesagt, nvidia gibt diese Zahlen meines Wissens nach nicht an, sondern nur Effektivwerte mit der Annahme von genügend Warps um die Latenz verstecken zu können.
Sonst hätte man ja auch bei G80 gleich auch 16er ALUs verbauen können. Würde man weniger Register und weniger Threads brauchen um die Hardware auszulasten.
Nun, man benötigt dann zwar nur die Hälfte der Einträge pro Registerfile, aber dafür doppelt so viele Registerfiles ;). Das ist in der Summe dann aufwendiger. Und weniger Threads benötigt man auch nicht, eher mehr, da der Durchsatz höher ist. Oder anders gesagt, ob G80 zwei Gruppen von je acht ALUs oder nur eine Gruppe von 16 ALUs enthält, wirkt sich nicht auf die Anzahl der nötigen Threads aus. Eine 16er Gruppe benötigt genauso viele wie zwei 8er Gruppen. Bei einer 16er spart man eine Hierarchiestufe und einen Scheduler, benötigt aber doppelt so viele (aber kleinere) Registerfiles. Offensichtlich hat nv sich damals für die Gruppen aus 8 ALUs entschieden. Jetzt ist die Abwägung eben anders ausgefallen, vor allem wohl, da man die Scheduler orthogonaler gestaltet hat und die Benutzung der SFUs jetzt vorhersagbarer erfolgt (gleichberechtigt zu dispatch von ALU-Anweisungen). Man schafft jetzt mit vergleichbarem Scheduleraufwand wie bei G80, doppelt so viele ALUs anzusteuern, die Anzahl der SFUs ist zwischen einem G80 TPC und einem Fermi SM übrigens auch identisch.
Also im Prinzip kann man sich ein Fermi-SM auch als ein G80-TPC mit doppelt so vielen ALUs, genausovielen SFUs und zusätzlichen L/S-Einheiten vorstellen. Die Scheduler (Ein G80-TPC hatte auch zwei, die auch alle 2 Shadertakte eine Instruktion absetzen konnten) wurden dabei insofern aufgebohrt, daß sie eben nicht abwechselnd eine ALU-Anweisung und zwei Takte später eine SFU-Anweisung absetzen können, sondern nun kann eben alle zwei Takte jeweils eine beliebige Anweisung (ALU, SFU oder L/S) dispatched werden.
Der Scheduler läuft ja auf halbem Takt (ist ja auch bei G80/GT200 so). Mit Schedulertakt wird jeden Taktzyklus eine Instruktion für einen ganzen Warp (32 Threads) ausgewählt, und dann mit Shadertakt jeden Takt für einen Halbwarp (16 Threads) an die Einheiten abgesetzt. Ist DP dabei, arbeitet nur ein Scheduler für den Takt.
@Coda:
Der Vorteil von dieser Anordnung ist, ...Der lief auch schon bei G80 auf halbem Takt.
???
Hm okay, ich glaube langsam auch, dass die 4 bzw. 2 Takte nur die Anzahl der Loops pro Pipeline-Stufe sind. Dann würde es nämlich hinkommen.
Mir wurde aber mal glaubhaft versichert, dass das was mit den Instructions zu tun hat. Aber wenn man genauer darüber nachdenkt kann das wirklich nicht sein.
Es geht mir nur darum, dass es jetzt nur noch zwei "Execute" Pipeline Stages gibt und nicht wie bei allen anderen D3D10/11-GPUs vier. Vor allem wenn man bedenkt dass sie in diesen bei >1.5Ghz vollen denorm Support anbieten. Denorm-Support sagt man nicht mehr, das sind jetzt subnormal numbers.
=Floi=
2009-10-03, 20:14:40
erstes bild von fermi:
http://theovalich.files.wordpress.com/2008/11/g4saurus.jpg ;D
mal abwarten, was nv auf den boden bringt. ich hätte aber mehr erwartet.
LovesuckZ
2009-10-03, 21:55:02
We are actually showing working sample to some of the press attending GTC,” said Mr. Alibrandi.
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphi cs_Cards_on_Track_for_Q4_2009.html
Hm, dann sollten Bilder vom "Working Sample" ja bald auftauchen.
Was mich bei Fermi brennend interessieren würde, wie die Skalierung mit mehreren GPUs arbeitet (sprich SLI, T-Sli, Q-SLI etc.). Wenn die GT100-Serie wirklich gut auf Parallelisierung und Scheduling optimiert ist, sollte das Thema Mikroruckler hoffentlich wohl auch ein Ende haben. Gerade bei hohem IO-Verhalten zwischen den Caches und einzelnen Einheiten, die rechtzeitig und synchron hier Ergebnisse abliefern müssen, sollte die Abstimmungen zwischen mehreren Einheiten wohl ziemlich gut funktionieren, auch bei mehren GPUs.
Bei reinen Rechensimulationen ist eine Frameverzögerung wohl egal, aber spätestens bei allen bildgebenden Simulationen wären solche Dropsouts und Verzögerungen recht peinlich.
CrazyIvan
2009-10-04, 01:24:40
Kommt drauf an, was Du unter einer bildgebenden Simulation verstehst und inwiefern diese unbedingt in "Echtzeit" ausgegeben werden muss. Mir fällt zumindest spontan nichts ein, was unbedingt ohne das geringste Ausgabelag ausgegeben werden müsste.
IMHO wird hier nVidia keinerlei Aufwand betrieben haben, da das Problem nur einen absoluten Bruchteil der Käuferschaft betrifft.
Gipsel
2009-10-04, 04:52:14
Hm okay, ich glaube langsam auch, dass die 4 bzw. 2 Takte nur die Anzahl der Loops pro Pipeline-Stufe sind. Dann würde es nämlich hinkommen.
Habe gerade gelesen, was David Kanter von RealWorldTech Dir bei B3D geantwortet hat:
The pipeline for a warp is much longer than 2 cycles. A warp can be executed in two cycles though...
Remember, like all real pipelines:
Fetch-->Decode-->Issue-->Execute-->Write Back
Execute may only take two cycles, the rest takes a VERY long time, especially since the first three stages occur at the speed of the scheduler (slow clock).
Ich glaube, da unterliegt er auch einem kleinem Irrtum, issue dauert bei Fermi zwei (Shader-)Takte, nicht execute. Die wirksame Latenz ist ja nicht die komplette Pipelinelänge. Der Scheduler kennt ja die Ausführungslatenzen und kann die nächste abhängige Anweisung schon Fetchen und Decodieren, so daß das Resultat genau passend dazu fertig wird. Extrembeispiel dafür ist ja ein P4 Northwood, der (ohne Decoder) 20 Pipelinestufen für Integer und trotzdem nur 0,5 Takte Latenz für die fast ALUs hatte. Die Pipeline sieht also üblicherweise eher so aus:
Fetch ----> Decode ----> Issue ----> Execute ----> Write Back
A |
|__Result Forward__|
Und selbst das dauert bei ATI länger als 4 Takte (abhängige Instruktion wird erst 8 Takte später issued, trotz definitiv vorhandenem Forwarding mit den "previous result" Registern), es ist also kaum anzunehmen, daß es bei nv trotz höherem Takt deutlich weniger Zyklen wären.
Das es deutlich mehr als bei CPUs sind, hat ganz einfache Gründe. Die ALUs/FPUs bei CPUs müssen seriellen Code schnell ausführen, für GPUs ist das Optimierungsziel eher der parallele Durchsatz. In CPUs werden also komplexere Designs benutzt, die zwar weniger Takte für eine definierte Operation benötigen, aber im Vergleich zu den GPU-Varianten auch riesig sind.
Ein CPU-Kern hat nunmal nur 3 oder 4 Integer-Addierer (+ AGUs), einen einzigen vollwertigen Integer-Multiplier und dann als FPU/SSE-Einheiten eine Additions- und eine Multiplikationspipeline (je als 4x32 oder 2x64bit organisiert, plus eine Art SFU, wenn man so will). Damit hat z.B. die komplette SSEx-Einheit eines üblichen CPU-Kerns im Prinzip die gleiche Peak-Leistung pro Takt wie eine einzige VLIW-Einheit eines Cypress, sowohl bei SP (sogar etwas weniger als ein VLIW) als auch DP (für reinen ADD oder MUL-Betrieb, für Mischungen dann mehr), wobei der Cypress-VLIW sogar noch FMA macht (dafür bei den special functions spart). Cypress hat aber 320 davon.
Bei GPUs ist die Integrationsdichte viel viel wichtiger für die Funktionseinheiten als bei CPUs, bei denen der größte Teil sowieso durch Decoder, Sprungvorhersage, aufwändige Scheduler für OOO-Execution und allerlei anderen Verwaltungskram aufgebraucht wird, den man benötigt um den ILP aus dem Code zu extrahieren. Da tun zusätzliche 2mm² für die SSE-Einheit dann auch nicht weh. Und eine Fließkomma-Multiplikation hat selbst da mit allen Tricks immer noch 4 (AMD) oder 5 (Intel, bei P4s sogar 7 bzw. 9) Takte Latenz. Eine komplette VLIW-Einheit bei Cypress liegt irgendwo bei knapp 0,3mm² oder so (vergleiche das mal mit der SSE-Einheit einer CPU!). Da kann man sich solche Spirenzen einfach nicht leisten.
Ich hab ja schon geschrieben: Die 4, bzw. 2 Takte beziehen sich wohl darauf wie oft jede Pipeline-Stufe geloopt wird. Dann ergibt nämlich alles Sinn, unter anderem auch warum eine Instruction nur alle 4, bzw. 2 ALU-Takte gescheduled werden kann.
Die Pipeline kann davon unabhängig dann ja beliebig lang sein. Jede Stufe läuft eben dann zwei oder vier mal durch bevor die Daten an die nächste weitergereicht werden für einen kompletten Warp/Wavefront. Man braucht nur genügend Threads um die Latenz zu verstecken.
reunion
2009-10-04, 08:45:37
Also, was ich vorher schon vermutet hatte ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7570430&postcount=3325
Dann scheint es also zumindest noch nicht mehr als Prototypen zu geben welche schnell zusammengeflickt wurden.
AMD hat seine erste lauffähige DX11-KarteN (!) vor 4 Monaten gezeigt... und hat trotz vermutlich besserer Yield-Raten noch über 3 Monate gebraucht um diese zu veröffentlichen. Wenn Nvidia bis jetzt noch nicht mal geschafft hat EIN vorzeigbares Modell zu präsentieren _kann_ es 2009 ja bestenfalls einen Paper-Launch geben.
Natürlich lasse ich mich auch gerne überraschen...
AMD hat seine erste lauffähige DX11-KarteN (!) vor 4 Monaten gezeigt... und hat trotz vermutlich besserer Yield-Raten noch über 3 Monate gebraucht um diese zu veröffentlichen. Wenn Nvidia bis jetzt noch nicht mal geschafft hat EIN vorzeigbares Modell zu präsentieren _kann_ es 2009 ja bestenfalls einen Paper-Launch geben.
Ich denke auch kaum dass es heuer noch nennenswerte Stückzahlen geben wird.
Allerdings liegt die lange Zeit die ATI gebraucht hat in erster Linie an den Problemen mit der 40nm-Fertigung und davon sind beide gleichermaßen betroffen.
Sollten diese Probleme mittlerweile behoben sein profitiert auch NV davon und es dürfte deutlich schneller gehen. Falls die Probleme noch andauern ist das genauso ATIs Problem und wir werden auch hier kaum vernünftige Stückzahlen sehen.
=Floi=
2009-10-04, 12:11:48
nv könnte auch abwarten, bis die ati chips aus dem gröbsten raus sind und so die nv chip mit besseren yields zu produzieren sind. wenn nv gleich mit einer besseren yield rate anfangen, kann man auch mehr geld verdienen. die brechstange wäre nur geldvernichtung und ineffizient für den anfang.
reunion
2009-10-04, 12:13:59
Ich denke die 40nm Probleme kann man weitgehend ad acta legen, denn die 4770 ist mittlerweile Flächendeckend lieferbar.
RoNsOn Xs
2009-10-04, 12:15:34
nach all den infos glaube ich nicht das dies jahr irgendwer von hier eine gt300 in seinem rechner stecken haben wird.
Dural
2009-10-04, 12:31:35
also doch zwei chips??? wohlmöglich einer für Tesla und einer für die GeForce Karten!?!
http://www.pcgameshardware.de/aid,696559/Nvidia-Fermi-Schlanke-Spielerkarten-durch-modularen-Aufbau-moeglich/Grafikkarte/News/
und NV bestätigt weiter: noch dieses Jahr sind Grafikkarten auf Fermi basis erhältlich! Es könnte ja sein das der G300 schon marktreif aber der GT300 noch nicht ist...
AnarchX
2009-10-04, 12:36:32
Wie schon eher vemutet, wohl GPUs unterhalb von GF100 ohne DP-Fähigkeiten. Imo ist es denkbar, dass man dies auch schon bei GT21x so gemacht hat.
Wobei sich das etwas merkwürdig liest, also würde ein Cuda Core aus DP-FMA+SP-FMA+Integer-ALU bestehen, also theoretische 4 FLOPs pro CUDA Core, welche aber nur teilweise gemeinsam genutzt werden können
LovesuckZ
2009-10-04, 12:50:48
AMD hat seine erste lauffähige DX11-KarteN (!) vor 4 Monaten gezeigt... und hat trotz vermutlich besserer Yield-Raten noch über 3 Monate gebraucht um diese zu veröffentlichen. Wenn Nvidia bis jetzt noch nicht mal geschafft hat EIN vorzeigbares Modell zu präsentieren _kann_ es 2009 ja bestenfalls einen Paper-Launch geben.
Natürlich lasse ich mich auch gerne überraschen...
Massenproduktion kann vor A2 Version starten. Und vom A2 bis zum Launch schafft man es innerhalb von 1 Monat und ein paar Tagen (siehe 8800GT).
nVidia hat A1 seit Ende August - somit fand das Tape-Out im Juni statt und nicht Ende Juli - und wenn wir 6 - 8 Wochen bis zum A2 rechnen, können sie Ende November bzw. Anfang Dezember die Karten launchen und mit einer geringen Verfügbarkeit in den Markt bringen.
Was mich bei Fermi brennend interessieren würde, wie die Skalierung mit mehreren GPUs arbeitet (sprich SLI, T-Sli, Q-SLI etc.). Wenn die GT100-Serie wirklich gut auf Parallelisierung und Scheduling optimiert ist, sollte das Thema Mikroruckler hoffentlich wohl auch ein Ende haben. Gerade bei hohem IO-Verhalten zwischen den Caches und einzelnen Einheiten, die rechtzeitig und synchron hier Ergebnisse abliefern müssen, sollte die Abstimmungen zwischen mehreren Einheiten wohl ziemlich gut funktionieren, auch bei mehren GPUs.
Bei reinen Rechensimulationen ist eine Frameverzögerung wohl egal, aber spätestens bei allen bildgebenden Simulationen wären solche Dropsouts und Verzögerungen recht peinlich.
Bedingt durch die Arbeitsweise von SLI wirds immer "Mikroruckler" geben. Vom Geheimnisumwitternden AMD Chip, der mehrere kleine Cores auf einer Karte vereint, die per CrossFire/SLI miteinander kommunizieren ist nichts geblieben.
Massenproduktion kann vor A2 Version starten. Und vom A2 bis zum Launch schafft man es von 1 Monat und ein paar Tagen (siehe 8800GT).
nVidia hat A1 seit Ende August - somit fand das Tape-Out im Juni statt und Ende Juli - und wenn wir 6 - 8 Wochen bis zum A2 rechnen, können sie Ende November bzw. Anfang Dezember die Karten launchen und mit einer geringen Verfügbarkeit in den Markt bringen.
Naja schau dir mal an, wie lange die 8800GTS/GTX Karten in A2 Stepping auf dem Markt waren, war schon ne weile und die Verfügbarkeit war zwar knapp aber innerhalb von 2 Wochen hat jeder eine bekommen (November-Dezember damals).
reunion
2009-10-04, 12:57:40
Man kann das ohnehin nicht pauschalisieren. Es hängt davon ab wieviele Probleme es gibt. Theoretisch könnte auch bereits A1 final sein. Ist aber bei einem solch großen Chip eher unwahrscheinlich.
BlackBirdSR
2009-10-04, 13:06:46
Wie schon eher vemutet, wohl GPUs unterhalb von GF100 ohne DP-Fähigkeiten. Imo ist es denkbar, dass man dies auch schon bei GT21x so gemacht hat.
Wobei sich das etwas merkwürdig liest, also würde ein Cuda Core aus DP-FMA+SP-FMA+Integer-ALU bestehen, also theoretische 4 FLOPs pro CUDA Core, welche aber nur teilweise gemeinsam genutzt werden können
Glaube ich erst, wenn ich es sehe:
Ich denke da eher an Marktsegmentierung ohne die HW elementar zu modifizieren. Fermi soll ein Trendsetter sein, den ganzen Aufwand für ein paar Tausend Modelle/a zu machen, lohnt sich noch nicht (IMO).
AnarchX
2009-10-04, 13:07:53
Bei AMD hat man die kleineren Modelle doch auch um die DP-Fähigkeit beschnitten.
Ich denke die 40nm Probleme kann man weitgehend ad acta legen, denn die 4770 ist mittlerweile Flächendeckend lieferbar.
Was wohl auch daran liegt dass kaum einer sie kauft.
BlackBirdSR
2009-10-04, 13:17:10
Bei AMD hat man die kleineren Modelle doch auch um die DP-Fähigkeit beschnitten.
Aber ist es da nicht so, dass 4 ALUs zusammen an einem DP-Ergebnis arbeiten? Dann ist auch das eine Marktentscheidung ohne Entfernung von Hardware-Execution.
AnarchX
2009-10-04, 13:22:39
Aber ist es da nicht so, dass 4 ALUs zusammen an einem DP-Ergebnis arbeiten? Dann ist auch das eine Marktentscheidung ohne Entfernung von Hardware-Execution.
So recht an die Theorie von PCGH mit dedizierten FMAs für DP und SP glaube ich nicht wirklich. Sonst wäre das Verhältnis wohl nicht 2:1 und der Chip läge nicht bei "gerade mal" 3 Mrd. Transistoren.
Ich denke dieses Jahr hat NVIDIA verloren. AMD wird voraussichtlich mit Juniper diesen Monat kommen, mit diesen Karten dürfte der meiste Absatz gemacht werden. Da sieht man bei NVIDIA kein Land, selbst wenn dieses Jahr noch ein paar High-End Karten in den Markt gelangen. Von daher werde ich mir wohl Juniper zulegen und könnte dann den Markt beobachten und ein paar Monate später gegebenenfalls wechseln, wenn NVIDIA was tolles bringt.
AnarchX
2009-10-04, 14:51:46
Könnte man sich bitte hier erstmal auf Fermi beschränken. Für PC-Gaming-Dystopien gibt es auch andere Threads. ;)
Man kann das ohnehin nicht pauschalisieren. Es hängt davon ab wieviele Probleme es gibt. Theoretisch könnte auch bereits A1 final sein. Ist aber bei einem solch großen Chip eher unwahrscheinlich.
Ich hab auch das Gefühl, dass NVIDIA größere Probleme haben als sie zugeben.
Wenn ATI sich richtig reingekniet hat und nächstes Jahr schon eine neue Architektur bringt und dann noch auf einem Global-Foundry-Prozess dann wird's hässlich :freak:
Es kann aber auch ganz anderes kommen und NVIDIA hat wieder 2 Jahre einen Architekturvorsprung ;)
Armaq
2009-10-04, 16:46:01
Ich hab auch das Gefühl, dass NVIDIA größere Probleme haben als sie zugeben.
Wenn ATI sich richtig reingekniet hat und nächstes Jahr schon eine neue Architektur bringt und dann noch auf einem Global-Foundry-Prozess dann wird's hässlich :freak:
Es kann aber auch ganz anderes kommen und NVIDIA hat wieder 2 Jahre einen Architekturvorsprung ;)
Kann schon sein, aber doch nicht wenn man Fake-PCBs präsentieren muss.
Man kann ja auch hoffen, dass Nvidia eine Karte mit dynamischen Taktdomänen rausjodelt und damit preislich ebenfalls andere Höhen erklimmen kann. ATI will ja gar kein HighEnd und man muss ihnen zugestehen, dass sie in ihren Preissegmenten ungemein attraktiv sind.
Wie du aber schon sagtest, Launch in 2010 in 32nm GF hat auch was.
mboeller
2009-10-04, 16:59:20
Man kann das ohnehin nicht pauschalisieren. Es hängt davon ab wieviele Probleme es gibt. Theoretisch könnte auch bereits A1 final sein. Ist aber bei einem solch großen Chip eher unwahrscheinlich.
Wurde nicht von Nvidia während der Präsentation gesagt, das Fermi erst für die Massenfertigung tauglich gemacht werden muss?
Link: http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Weitere-Bilder-und-Informationen/Grafikkarte/News/
"Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein."
Wurde übrigens vor ein paar Seiten schon diskutiert und ich habe einfach mal die alten Infos hier rein kopiert. ;)
Ergo, mind. A2 ist notwendig für die Serienfertigung. Macht xx Monate (keine Ahnung wie viele wirklich)
Gipsel
2009-10-04, 17:17:08
So recht an die Theorie von PCGH mit dedizierten FMAs für DP und SP glaube ich nicht wirklich. Sonst wäre das Verhältnis wohl nicht 2:1 und der Chip läge nicht bei "gerade mal" 3 Mrd. Transistoren.
Zu dem Thema paßt eigentlich auch meine Andeutung von vor ein paar Tagen:
Und falls irgendwer die Diskussion dort verfolgt, ob die Integer-Einheit in einem "CUDA-Core" jetzt wirklich eine eigene Einheit separat zur Fließkommaeinheit ist, dann kann man sich ja mal fragen, wie viele Bits man für die ganzen FMAs denn eigenlich benötigt ;)
kleiner Tipp:
2 * (24 + 32) = 112
53 + 53 = 106
Beim fetten hat ATI im Vergleich etwas gespart, was für SP-FMAs aber noch reichen kann.
Um mal etwas klarer zu werden, für SP-FMA werden nicht die kompletten Resourcen eines Cores benötigt. Für ein SP-FMA reicht ein Multiplier, der 24*24=48 Bit (+ üblicherweise ein paar interne guard bits) in einem Rutsch erzeugt.
Für DP-FMA muß eine 106 Bit breite Mantisse berechnet werden, dafür benötigt man im einfachsten Fall ganze vier 27*27=54 Bit Multiplier (weswegen ATI dafür auch 4 Slots benötigt, jede ALU hat also wahrscheinlich einen 27 Bit Multiplier, nur die t-Einheit eine volle 32Bit-Version). Daß nv das durch Kombination von nur zwei Cores erreicht, zeigt deutlich, daß ein Kern noch einen deutlich breiteren Multiplier besitzt (falls Fermi denn wirklich 16 DP-FMAs pro Takt und SM ausspucken kann ;)). Dafür spricht auch, daß ein Kern alleine wohl auch 32*32=64 Bit Integer multiplizieren kann, Halfrate ist es anscheinend nur, weil kein 64Bit Ergebnis in einem Takt geschrieben werden kann (Bandbreite zu den Registern nur 32Bit). Genau dies kann RV870 nicht (nur Unterstützung für 24Bit Integer multiplies in jeder ALU, nur die t-Einheit macht 32*32Bit).
Solange also kein DP gemacht wird (oder Unmengen IMULs), liegt die Hälfte der Multiplier-Resourcen von Fermi wohl brach. Spart man die DP-Fähigkeit ein(eventuell reicht auch die Halbierung der Geschwindigkeit), kann man ordentlich Hardware in den ALUs streichen. Für eine Low-End-Karte sollte das machbar sein, wenn man sich für ein getrenntes Design entscheidet.
Bei ATI sollte das Sparpotential deutlich kleiner sein. Da jetzt jede ALU FMA kann, lohnen sich die paar Bits zu streichen wohl eher nicht, das wäre also in meinen Augen eher eine (nicht sinnvolle) Marketingentscheidung.
Bist du wirklich 100% sicher, dass man für FMA wirklich eine 106 bit Mantisse braucht?
Ich mein es wird am Ende sowieso gerundet, evtl. muss man die Multiplikation gar nicht mit voller Präzision speichern bevor man addiert, wenn man die entsprechenden Fälle berücksichtigt.
Also nicht, dass man gar keine zusätzliche Präzision braucht - ich meine, dass man nur nicht die volle braucht bei dem Mul um am Ende gleichwertige Ergebnisse zu haben.
w0mbat
2009-10-04, 18:05:13
http://img5.imagebanana.com/img/53e17re/thumb/fermi_NOT.jpg (http://img5.imagebanana.com/view/53e17re/fermi_NOT.jpg)
Wenn Fermi so aussieht würde ich ihn auch nicht zeigen wollen :D
tombman
2009-10-04, 18:22:51
Ich schätze, es sah wohl eher so aus ;)
http://media.bestofmicro.com/Intel-Polaris,X-P-19357-3.jpg
das ist polaris, larrabee Vorgänger
Gipsel
2009-10-04, 18:55:57
Bist du wirklich 100% sicher, dass man für FMA wirklich eine 106 bit Mantisse braucht?
Ich mein es wird am Ende sowieso gerundet, evtl. muss man die Multiplikation gar nicht mit voller Präzision speichern bevor man addiert, wenn man die entsprechenden Fälle berücksichtigt.
Im worst case braucht man sie, und da man das vorher nicht weiß, muß man wohl oder übel die volle Mantisse einplanen (im Prinzip könnte man in vielen Fällen aber auf die volle Berechnung verzichten, da hast Du recht). Oder man nimmt in Kauf, daß die Dauer der Operation von den konkreten Daten abhängt und damit variabel wird. Bei CPUs und komplexen Operationen ist das zwar durchaus üblich, für sowas Grundlegendes wie die Addition oder Multiplikation wäre das aber verheerend, da man dann nicht mehr wissen würde, wann genau ein Ergebnis ankommt. Das würde das komplette Pipeline- und auch Scheduler-Design enorm verkomplizieren. Mir ist jetzt kein Design mit einer variablen FMA-Latenz bekannt.
http://img5.imagebanana.com/img/53e17re/thumb/fermi_NOT.jpg (http://img5.imagebanana.com/view/53e17re/fermi_NOT.jpg)
Wenn Fermi so aussieht würde ich ihn auch nicht zeigen wollen :D
das ist ein LoadBoard einer Verigy 93000 mit nem Testsockel
Wie auch immer, man hat offenbar (wenn es denn stimmt und nicht auch gelogen ist, man also nichtmal das hat) erst einen wüsten Drahtverhau.
Von da bis zu fertigen Karten im Laden ist noch ein weiter Weg.
Wie man das noch in diesem Jahr schaffen will (wir haben inzwischen Oktober...) kann man wohl nur sehr gutgläubigen (um das Wort naiv zu vermeiden) Menschen verkaufen.
w0mbat
2009-10-04, 20:30:18
das ist ein LoadBoard einer Verigy 93000 mit nem Testsockel
Jupp. Habe ja auch nicht geschrieben dass das Fermi sein soll.
anddill
2009-10-04, 20:42:32
Weiß nicht wo das stand, aber die Aussage war sinngemäß, daß das lauffähige Modell wie ein Octopus aussieht, mit raushängenden Kabeln in alle Richtungen.
w0mbat
2009-10-04, 20:49:52
Ja, wird wohl eher tombman´s Bild ähneln.
oder es sieht so aus:
http://thedodgegarage.com/3dfx/rampage/rampage_clamp.jpg
Damit kann man auch das letzte fps rausquetschen ;D
Soundwave1983
2009-10-05, 00:07:07
Das ist der Rampage dessen Board ein Anbindungsproblem hatte, daher die Zwinge. Ziemlich schade, das der nie rauskam. :smile:
Naja die Architektur wurde von NV30-G70 in ihren Grundzügen von NVIDIA verwendet, von daher kam zumindest das Konzept irgendwann auf den Markt ;)
Ailuros
2009-10-05, 07:24:37
Naja die Architektur wurde von NV30-G70 in ihren Grundzügen von NVIDIA verwendet, von daher kam zumindest das Konzept irgendwann auf den Markt ;)
Wobei aber Kilgariff oeffentlich auf B3D's Anfrage zugestand dass die Grundideen sowohl Vor- als auch Nachteile hatte. G80 zeigte dann wie man dieses aenderte ;)
Genug aber mit dem Nostalgia Zeug und zurueck zum Thema.
reunion
2009-10-05, 07:28:23
Wobei aber Kilgariff oeffentlich auf B3D's Anfrage zugestand dass die Grundideen sowohl Vor- als auch Nachteile hatte. G80 zeigte dann wie man dieses aenderte ;)
Offensichtlich war das Rampage-Konzept besser als die Grundidee von NV, sonst hätte man es nicht verwendet. ;)
Wäre allemal spannend gewesen wenn 3dfx noch ein paar Monate durchgehalten hätte. Klar machte es G80 besser, wie auch die ATi-Chips mit ihren entkoppelten TMUs, aber in der damaligen Zeit, wo es darum ging mit möglichst wenig Transistoren auszukommen, war die Idee ein Segen. Anders hätte man jedenfalls kaum SM3 in 130nm anbieten können.
Ailuros
2009-10-05, 09:46:10
Offensichtlich war das Rampage-Konzept besser als die Grundidee von NV, sonst hätte man es nicht verwendet. ;)
Nur entkoppelte man texturing von den ALUs wie es ohnehin schon der Fall seit R300 bei ATI war. Eine Schnappsidee war das Ganze zwar nicht fuer seine Zeit aber auch nicht das gelbste vom Ei dass damals existierte.
Wäre allemal spannend gewesen wenn 3dfx noch ein paar Monate durchgehalten hätte.
Was waere daran spannened gewesen? Manche Mythen koennte man so langsam sterben lassen, denn vaporware klingt immer geil auf Papier.
Ich kann Dir gerne den Ueberhype von Wavey und co. damals ausgraben die von verdammt uebertriebenen Frequenzen und weiss der Geier was noch blubbern. Der Grabstein auf zumindest den eher ueblen Frequnenz-Scheiss legte Kristof Beets selber in Oeffentlichkeit als er sagte dass die geplanten Frequenzen 200MHz fuer Rampage waren und 250MHz fuer FEAR und nicht 2*Mal so hoch wie manche erzaehlen wollten.
Klar machte es G80 besser, wie auch die ATi-Chips mit ihren entkoppelten TMUs, aber in der damaligen Zeit, wo es darum ging mit möglichst wenig Transistoren auszukommen, war die Idee ein Segen. Anders hätte man jedenfalls kaum SM3 in 130nm anbieten können.
Vermisch mir jetzt den Unsinn der ATI Marketing-Abteilung mit allem anderen. Als ATI sich dachte dass NV nie SM3.0 in dieser Generation schaffen wuerde, wussten sie mit Sicherheit noch nicht wie jede ALU genau aussehen wuerde und nein es hat nicht im geringsten etwas mit der Ver- oder Entkoppelung zu tun.
Undertaker
2009-10-05, 12:45:25
http://www.fudzilla.com/content/view/15813/1/
Mini-Verfügbarkeit schon ab November?
"NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month."
Damit wäre man dann doch "nur" etwa 2 Monate hinter ATI - falls da was dran ist.
RoNsOn Xs
2009-10-05, 12:51:13
der satz enthält aber nicht umsonst noch einige worte hinter "november" :rolleyes:
es wird so also so kommen bin ich der meinung.. hinhalte-taktik
tombman
2009-10-05, 12:51:52
Ich bleibe weiterhin bei meiner "Jänner" Aussage :)
Ailuros
2009-10-05, 12:53:34
http://www.fudzilla.com/content/view/15813/1/
Mini-Verfügbarkeit schon ab November?
"NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month."
Damit wäre man dann doch "nur" etwa 2 Monate hinter ATI - falls da was dran ist.
Ich kann mich persoenlich an keine begrenzte Verfuegbarkeit beim G80 Launch erinnern; etwas maessiger war es fuer kurze Zeit schon bei der 8800GT Vorstellung aber es dauerte nicht lange bis es besser wurde (oder hab ich da was falsches in Erinnerung fuer G92?).
Wie dem auch sei, warten wir ab was genau angekuendigt wird (eine Variante oder mehr?) und wir werden wohl dann schon sehen wie es mit der Verfuegbarkeit aussieht.
http://www.fudzilla.com/content/view/15813/1/
Mini-Verfügbarkeit schon ab November?
Ich würde eher sagen, wenn alles gut läuft eine Hand voll Karten für die Presse, damit die immerhin was zum Schreiben haben.
Verfügbarkeit für Kunden wohl eher später.
Ailuros
2009-10-05, 13:04:07
http://www.fudzilla.com/content/view/15810/1/
Falls es wahr sein sollte, Hut ab an Jensen und seine Bande. Es ist zwar eine private Firma aber ich koennte mir durchaus wuenschen dass sich so etwas auch so mancher Politiker unter kritischen Zeiten ausdenken wuerde.
tombman
2009-10-05, 13:10:01
http://www.fudzilla.com/content/view/15810/1/
Falls es war sein sollte, Hut ab an Jensen und seine Bande. Es ist zwar eine private Firma aber ich koennte mir durchaus wuenschen dass sich so etwas auch so mancher Politiker unter kritischen Zeiten ausdenken wuerde.
Das ist offtopic! ;)
darkvader
2009-10-05, 13:33:45
http://www.fudzilla.com/content/view/15810/1/
Falls es wahr sein sollte, Hut ab an Jensen und seine Bande. Es ist zwar eine private Firma aber ich koennte mir durchaus wuenschen dass sich so etwas auch so mancher Politiker unter kritischen Zeiten ausdenken wuerde.
Sowas ist leider meistens Augenwischerei und Marketing. Und nix neues, siehe Larry Ellison (http://www.silicon.de/lifestyle/personen/0,39038980,41501745,00/larry+ellison+verdient+nur+einen+dollar.htm), Google Chefs (http://www.yoome.de/news.895.html) oder Steve Jobs (http://www.computerwoche.de/nachrichtenarchiv/592214/)
Richtig Kohle machen die eh mit Aktien.
http://www.fudzilla.com/content/view/15813/1/
Mini-Verfügbarkeit schon ab November?
"NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month."
Damit wäre man dann doch "nur" etwa 2 Monate hinter ATI - falls da was dran ist.
da hatte Charlie mit seinen 7 GPUs ja anscheinend doch nicht so unrecht:
The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that.
..wenn es jetzt schon der "Pressesprecher" von Nvidia bestätigt. Der Weg zur Serienfertigung kann da ja noch ganz schön lang sein.
Undertaker
2009-10-05, 13:37:15
Entscheidend wird wohl eher sein, ob der Chip schon wie gewünscht läuft, weniger ob das fertige PCB-Design bereits in Stückzahlen existiert.
Entscheidend wird wohl eher sein, ob der Chip schon wie gewünscht läuft, weniger ob das fertige PCB-Design bereits in Stückzahlen existiert.
Wer redet vom PCB, ich meinte die GPUs! ohne GPU keine Board. Wenn es nur 7 GPUs gibt/gab konnte man gar nicht mehr als eine Handvoll Boards fertigen. ;)
AnarchX
2009-10-05, 13:41:48
Zumal es Gerüchte gibt, dass Nvidia wohl gar kein Referenz-Design vorgibt und es dann bei Foxconn fertigt, sondern dass es ein bald oder schon verfügbares Design Kit gibt, mit dem die Hersteller ihre eigenen Fermi-PCBs entwerfen können.
Bisher war es eigentlich so, dass Design Kit erst deutlich später herausgegeben wurden.
Ailuros
2009-10-05, 13:43:34
Ihr solltet eigentlich von chips reden anstatt PCBs, boards oder GPUs. Und nein ein graphics chip ist noch lange keine GPU.
Undertaker
2009-10-05, 13:44:03
Wer redet vom PCB, ich meinte die GPUs! ohne GPU keine Board. Wenn es nur 7 GPUs gibt/gab konnte man gar nicht mehr als eine Handvoll Boards fertigen. ;)
Wer sagt denn sowas? In deinem Zitat ist die Rede von Boards, auch wenn sich der Chip aktuell wohl ebenfalls nicht im Lager stapeln dürfte - aber das ist doch auch (noch) relativ irrelevant: Wichtig ist jetzt, dass das Design samt Prozess stimmt und die Produktion entsprechender Stückzahlen schnellstmöglich beginnen kann.
Zumal es Gerüchte gibt, dass Nvidia wohl gar kein Referenz-Design vorgibt und es dann bei Foxconn fertigt, sondern dass es ein bald oder schon verfügbares Design Kit gibt, mit dem die Hersteller ihre eigenen Fermi-PCBs entwerfen können.
Bisher war es eigentlich so, dass Design Kit erst deutlich später herausgegeben wurden.
Keinerlei Referenz? Das würde ja bedeuten, dass jede Karte von verschiedenen Herstellern mehr oder weniger voneinander abweichen wird...?
AnarchX
2009-10-05, 13:48:20
Keinerlei Referenz? Das würde ja bedeuten, dass jede Karte von verschiedenen Herstellern mehr oder weniger voneinander abweichen wird...?
So viele "richtige" Hersteller gibt es dann auch wieder nicht.
Eine Referenz gibt es dann vielleicht nur für Quadros und Teslas.
Ailuros
2009-10-05, 13:50:45
Normalerweise duerften sie ohne den ersten Schub der bisher ueblichen Referenz Designs etwas Zeit dazugewinnen. Anstatt dass ein Hersteller fuer NVIDIA die ersten reference boards produziert, verteilt man an alle Partner die design kits und laesst sie nach dem Zeug selber herstellen.
Normalerweise duerften sie ohne den ersten Schub der bisher ueblichen Referenz Designs etwas Zeit dazugewinnen. Anstatt dass ein Hersteller fuer NVIDIA die ersten reference boards produziert, verteilt man an alle Partner die design kits und laesst sie nach dem Zeug selber herstellen.
Wirklich? Nvidia kann vielleicht die GPUs selbst früher liefern weil sie selbst kein PCB dafür entwickeln müssen und damit Zeit sparen. Die Board-Hersteller müssen sich dafür aber (jeder für sich) mit dem System auseinandersetzen und jeder für sich wird seine eigenen Lösungen entwickeln wie das Board aussehen soll. Die Board-Hersteller sollten aus meiner Sicht für diese Arbeit länger brauchen als Nvidia, da sie das normalerweise erst machen wenn der 1. Schub an Karten beim Kunden ist und sie sich Zeit lassen können ein eigenständiges Design zu entwickeln.
=> IMHO führt das zu einer weiteren Zeitverzögerung und es kann passieren das die ersten Karten noch jede Menge Kinderkrankheiten aufweisen.
Wichtig ist jetzt, dass das Design samt Prozess stimmt und die Produktion entsprechender Stückzahlen schnellstmöglich beginnen kann.
Und wie wir hier schon vor Tagen gelernt haben ist das Design noch nicht soweit das es für eine Serienfertigung taugt. Link: http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Weitere-Bilder-und-Informationen/Grafikkarte/News/
N0Thing
2009-10-05, 14:05:38
Wird vor allem interessant, wenn man an den Markt der GPU-Kühler denkt. Es wird sich ja für kaum einen Hersteller lohnen für Fermi einen Kühler auf den Markt zu bringen, wenn der im schlechtesten Fall nur auf dem Board eines Herstellers montierbar ist und bei allen anderen irgendein Bauteil im Weg steht.
ShadowXX
2009-10-05, 14:10:31
Wird vor allem interessant, wenn man an den Markt der GPU-Kühler denkt. Es wird sich ja für kaum einen Hersteller lohnen für Fermi einen Kühler auf den Markt zu bringen, wenn der im schlechtesten Fall nur auf dem Board eines Herstellers montierbar ist und bei allen anderen irgendein Bauteil im Weg steht.
Normalerweise werden von den Herstellern von CPU bzw. in diesem Falle GPUs keep-out-zonen definiert in denen dann nichts im Weg stehen darf.
Ich gehe mal davon aus das das auch nV macht und das das auch in das Designkit mit eingearbeitet ist.
Ailuros
2009-10-05, 14:18:11
Wirklich? Nvidia kann vielleicht die GPUs selbst früher liefern weil sie selbst kein PCB dafür entwickeln müssen und damit Zeit sparen. Die Board-Hersteller müssen sich dafür aber (jeder für sich) mit dem System auseinandersetzen und jeder für sich wird seine eigenen Lösungen entwickeln wie das Board aussehen soll. Die Board-Hersteller sollten aus meiner Sicht für diese Arbeit länger brauchen als Nvidia, da sie das normalerweise erst machen wenn der 1. Schub an Karten beim Kunden ist und sie sich Zeit lassen können ein eigenständiges Design zu entwickeln.
Zu dem ist das Design-kit da. Wenn jetzt jeglicher Hersteller das Ding mit Glitter und Federn ausstatten will ist das sein Problem. Unter normalen Umstaenden aber sind z.B. 10 Haende produktionsfaehiger als nur 2. Falls es hier doch laenger dauern sollte hat NV auch eine ziemlich gute Entschuldigung.
=> IMHO führt das zu einer weiteren Zeitverzögerung und es kann passieren das die ersten Karten noch jede Menge Kinderkrankheiten aufweisen.
Ja die Federn koennten im Kuehler steckenbleiben :D
Dural
2009-10-05, 14:24:50
Die G200 GPUs werden auch schon knapp, alles deutet noch auf dieses Jahr hin! Ausser das NV anscheinden noch keine vorzeigbare Karte hat und die gezeigte GPU erst im A1 von ende August war...
Und es würde mich doch sehr wundern wenn das A1 schon in die Massen-Herstellung geht! Neue Architektur, 3,1Miliarden Transistoren und 40nm sprechen doch sehr dageben!
Ailuros
2009-10-05, 14:35:03
Es gab bis jetzt keinen einzigen Fall an den ich mich erinnern kann wo NV schon mit A1 herstellte. Zwischen der letzten Woche des Augusts und der dritten November Woche sind es 11 Wochen.
Werden eigentlich einmal alle "Falschaussagen" der Hersteller gesammelt bzw. ihr "Konjunktivgehalt" berücksichtigt?
Angenommen, Nvidia weiß, dass vor Ende Januar keine Grafikkarte auf der GT300-Basis zur Verfügung stünden, würden sie heute dann etwas anderes erzählen?
Es erstaunt mich eh, wie Nvidia es schafft, seit der Veröffentlichung der ATI-Karte erfolgreich Nebelkerzen zu zünden. Dass das so gut funktioniert, mache ich nicht Nvidia zum Vorwurf (das ist ihr Job), sondern den vermeintlichen Webseiten, die diese Nebelkerzen dann ganz brav bis zum Leser tragen. Kein kritisches Hinterfragen, sondern huldvolles Nachbeten der Marketingabteilung. Bestes Beispiel: hartware.net vor einigen Tagen mit der Überschrift "Fakten zur GT300", welches sich im Artikel dann als eine Ansammlung von Vermutungen zeigte.
Ich freue mich, wenn es die GT300 im Oktober zu Kaufen gäbe (wie auch schon mehrmals vermutet), aber bis dahin würde ich mich auf etwas mehr Sorgfalt von Fud, CB, etc. beim Erstellen von "Neuigkeiten" wünschen.
Ailuros
2009-10-05, 14:44:42
Ich erwarte persoenlich nichts vor der letzten November Woche aber es waere auch nicht das erste Mal dass ich falsch liege.
Zumal es Gerüchte gibt, dass Nvidia wohl gar kein Referenz-Design vorgibt und es dann bei Foxconn fertigt, sondern dass es ein bald oder schon verfügbares Design Kit gibt, mit dem die Hersteller ihre eigenen Fermi-PCBs entwerfen können.
Bisher war es eigentlich so, dass Design Kit erst deutlich später herausgegeben wurden.
Was auch dem Wunsch der Hersteller sich stärker differenzieren zu können entspricht.
mictasm
2009-10-05, 14:51:31
Normalerweise werden von den Herstellern von CPU bzw. in diesem Falle GPUs keep-out-zonen definiert in denen dann nichts im Weg stehen darf.
Ich gehe mal davon aus das das auch nV macht und das das auch in das Designkit mit eingearbeitet ist.
Wobei ja bei den letzten Karten die GPU nur ein Teil von mehreren war, die unbedingt gekühlt werden mussten.
Was auch dem Wunsch der Hersteller sich stärker differenzieren zu können entspricht.
Und was vor allem den Markt der Zusatzkühler (vor allem Wasser) ordentlich behindern könnte. Das könnte natürlich auch im Sinne der Kartenhersteller sein, damit man sich nicht mit den besonderen Formen der Reklamation herumschlagen muss.
Dural
2009-10-05, 14:52:51
realistisch gesehen dürfte es Dezember werden, aber auch nur wenn alles nach Plan läuft und der A2 gut genug ist!
Ich erinnere ungern an den G200b, ganze 6Monate hat NV dafür gebraucht und zuletzt kamm ein B3 in den Handel! OK das resultat war im vergleich zum A2 doch ganz OK...
Und was vor allem den Markt der Zusatzkühler (vor allem Wasser) ordentlich behindern könnte.
Schon mal die Aktuelle G200 und RV770 Karten angeschaut? Das ist schon lange üblich...
Ailuros
2009-10-05, 15:13:59
realistisch gesehen dürfte es Dezember werden, aber auch nur wenn alles nach Plan läuft und der A2 gut genug ist!
Ich erinnere ungern an den G200b, ganze 6Monate hat NV dafür gebraucht und zuletzt kamm ein B3 in den Handel! OK das resultat war im vergleich zum A2 doch ganz OK...
GT200@65nm = 0818A2 (GTX280/GTX260)
GT200b@55nm = 0833B2 (GTX260/216)
GT200b@55nm = 0847B3 (GTX285/GTX275-->GTX295)
15 Wochen fuer den ersten Fall (inklusive die shrink zu 55nm) und dann nach 14 Wochen kam der erste respin (B3) fuer die GTX295.
Oje, wenn die Hersteller anfangen ihre eigenen Boards zu fertigen, dann gute Nacht. Ich erinnere mich noch an den Hickhack mit meiner Asus V9999 GT/TD :(
tombman
2009-10-05, 15:28:23
Oje, wenn die Hersteller anfangen ihre eigenen Boards zu fertigen, dann gute Nacht. Ich erinnere mich noch an den Hickhack mit meiner Asus V9999 GT/TD :(
Jo, das kann nix werden- Angst pur :(
Ich hoffe, es kommt ein zwingendes Referenzlayout...
Es erstaunt mich eh, wie Nvidia es schafft, seit der Veröffentlichung der ATI-Karte erfolgreich Nebelkerzen zu zünden.
Was mich noch viel mehr wundert ist dass es noch immer kaum 5870-Karten zum kaufen gibt.
Nachdem NV wie es aussieht noch ein Weilchen braucht ist es eigentlich komplett unnötig den Launch auf biegen und brechen so früh zu machen, da könnte man eigentlich durchaus warten bis ausreichend Stückzahlen vorhanden sein.
Der einzige Grund wäre natürlich, dass ATI schon eine Ahnung hat, wie stark die neue Geforce wird und sie wissen, dass diese ihnen weit davonrennen wird.
In dem Fall ist es natürlich sinnvoll die eigenen Karten so früh wie möglich zu bringen, um potentielle NV-Käufer auf seine Seite zu ziehen.
Dural
2009-10-05, 15:52:48
Eins ist aber sicher, AMD hat wohl ziemlich angst vor Fermi sonst würden derzeit nicht solche Aussagen von ihnen kommen:
AMD beschuldigt Nvidia
http://www.hartware.net/news_47717.html
AMD sagt: "PhysX ist sinnlos!"
http://www.hartware.net/news_47712.html
;D das ist ja eigentlich ein gutes zeichen!
GT200@65nm = 0818A2 (GTX280/GTX260)
GT200b@55nm = 0833B2 (GTX260/216)
GT200b@55nm = 0847B3 (GTX285/GTX275-->GTX295)
15 Wochen fuer den ersten Fall (inklusive die shrink zu 55nm) und dann nach 14 Wochen kam der erste respin (B3) fuer die GTX295.
14 Wochen für 1 Respin. :(
Mitte August A1 -> Anfang Dezember A2 + xx Wochen für die Boards der Hersteller.
Also vor Anfang Januar wird das wohl nichts werden. Schexxe
Wäre allemal spannend gewesen wenn 3dfx noch ein paar Monate durchgehalten hätte. Klar machte es G80 besser, wie auch die ATi-Chips mit ihren entkoppelten TMUs, aber in der damaligen Zeit, wo es darum ging mit möglichst wenig Transistoren auszukommen, war die Idee ein Segen. Anders hätte man jedenfalls kaum SM3 in 130nm anbieten können.
Eigentlich hatte zu der Zeit jede Architektur die TMUs in der Pipeline. Der erste Chip der das änderte war ATIs R200.
Vermisch mir jetzt den Unsinn der ATI Marketing-Abteilung mit allem anderen. Als ATI sich dachte dass NV nie SM3.0 in dieser Generation schaffen wuerde, wussten sie mit Sicherheit noch nicht wie jede ALU genau aussehen wuerde und nein es hat nicht im geringsten etwas mit der Ver- oder Entkoppelung zu tun.
Damit hat er aber schon recht meiner Meinung nach. Unlimited dependent lookups erfordern bei entkoppelten TMUs eine Thread-Architektur wie sie R520 zum ersten Mal eingeführt hat - wenn auch nur für die Pixel Shader.
Spasstiger
2009-10-05, 17:17:09
G4Saurus Obscurus:
http://www.abload.de/img/g4saurusxbbn.jpg
Auf Computerbase schreibt jemand wiederholt (http://www.computerbase.de/forum/showpost.php?p=6714727&postcount=1149), dass das GT300 NDA bei CB am 27.11. fallen wird. Wurde das Datum auch schon von anderer Seite bestätigt?
reunion
2009-10-05, 17:24:53
Fast zwei Monate vor dem angeblichen NDA-Fall weiß das höchstwahrscheinlich noch nicht mal NV. Das ist bestenfalls ein Troll.
das mit dem 27.11. stand vor einigen tagen mal in allen möglichen news.
BlackBirdSR
2009-10-05, 18:49:31
Ich bin sehr gespannt, wie stark sich der Markt durch Fermi in Hinsicht Ingenieurstätigkeiten ändern wird. Gerade in Bereichen, wo der Maschinen, Behälter und Reaktorbau eine große Rolle spielt, wird zwar den CAD-Programmen über die GPU/DX9/10 unter die Arme gegriffen; gerade bei Fluid-Strömungen und Wärmeübertragung gibt es ungeahntes Potential für cGPU. Wenn ich nur daran denke, wie lange ein Quad-Core an solchen Berechnungen sitzt.
=Floi=
2009-10-05, 19:01:56
es sollte aber auch den preis der software stark erhöhen. das ist wieder die andere seite der medallie.
G!ZMo
2009-10-05, 19:57:32
es sollte aber auch den preis der software stark erhöhen. das ist wieder die andere seite der medallie.
Der Preis ist dann aber meist egal, so lang schneller gerechnet wird. ;D
Ich denke das ist in diesen Gebieten relativ egal.
BlackBirdSR
2009-10-05, 20:18:10
Ich denke das ist in diesen Gebieten relativ egal.
Große Firmen ja, mittelständische und viele GmbHs rechnen schon 3x nach, ob sich die Investitionskosten lohnen. Nicht immer siegt dann auch der Verstand!
Trotzdem: Man stelle sich die Möglichkeiten vor, wenn Berechnungen statt über Nacht, plötzlich schon nach einem Meeting vorliegen. Man könnte dann sogar beginnen, die Stromkosten mit in die Bilanz zu nehmen ;)
Allerdings wird es wohl noch dauern, bis alle Bereiche von Ansys oder gar CF-Design auf CUDA setzen.
Ich bin sehr gespannt, wie stark sich der Markt durch Fermi in Hinsicht Ingenieurstätigkeiten ändern wird. Gerade in Bereichen, wo der Maschinen, Behälter und Reaktorbau eine große Rolle spielt, wird zwar den CAD-Programmen über die GPU/DX9/10 unter die Arme gegriffen; gerade bei Fluid-Strömungen und Wärmeübertragung gibt es ungeahntes Potential für cGPU. Wenn ich nur daran denke, wie lange ein Quad-Core an solchen Berechnungen sitzt.
toll. weil ja so viele hier in diesem forum reaktoren bauen... das bringts für uns gamer wirklich ENORM
mictasm
2009-10-05, 21:59:31
toll. weil ja so viele hier in diesem forum reaktoren bauen... das bringts für uns gamer wirklich ENORM
Tja, da hat eine Firma eine strategische Entscheidung getroffen und richtet seine Produkte daran aus. Zurzeit werden die Produkte auf Chipebene noch beide Bereiche abbilden, das könnte sich bei der erwarteten Entwicklung der Märkte natürlich auch noch ändern.
Tja, da hat eine Firma eine strategische Entscheidung getroffen und richtet seine Produkte daran aus. Zurzeit werden die Produkte auf Chipebene noch beide Bereiche abbilden, das könnte sich bei der erwarteten Entwicklung der Märkte natürlich auch noch ändern.
Sollte die Spieleleistung nicht stimmen und damit die Gamer unzufrieden sein, dann wird Nvidia aber eine Bauchlandung hinlegen, davon kannst du ausgehen.
Denn die meisten, die sich eine Grafikkarte zulegen, wollen einfach nur Zocken. Cuda und so ein Zeug interessiert die nicht.
Und der Markt für Profianwender ist deutlich kleiner als der Markt für Gamer.
Nicht dass diese Entscheidung von NV für sie nach hinten losgeht.
There is no doubt in our mind that "Furbie" i.e. Fermi architecture is much more stable and should have enough horsepower, with 512 cores, 128 TMUs, 48 ROPs and the like [did we just disclose additional, GeForce/Quadro details? Yep, we did].
Source: http://www.brightsideofnews.com/news/2009/10/5/jen-hsun-repeats-the-nv30-241-salary-reduction.aspx
Denn die meisten, die sich eine Grafikkarte zulegen, wollen einfach nur Zocken. Cuda und so ein Zeug interessiert die nicht.
Und der Markt für Profianwender ist deutlich kleiner als der Markt für Gamer.
Nicht dass diese Entscheidung von NV für sie nach hinten losgeht.
Du weißt nicht, wie es in Zukunft aussehen wird. Kann gut sein, dass der Gamermarkt einschließlich Konsolenmarkt wieder schrumpft. Man braucht nur in die USA zu gucken, wieviele Arbeitsplätze und Existenzen vernichtet werden - Tendenz steigend. Die sind schon froh, wenn sie was zu fressen haben. Nur noch eine Frage der Zeit bis die Armutswelle nach Europa schwappt.
Man kann heute schon keine gescheiten Margen im Konsumermarkt mehr erzielen, in der Großindustrie hingegen schon.
Außerdem wird der Chip alles andere als lahm in Spielen sein --> Ruhig bleiben.
tombman
2009-10-05, 22:31:27
Ich glaube nicht, daß sich Nvidia bei der jetzigen Generation schon leisten kann, auf gamer zu verzichten- das wäre Selbstmord.
Wenn Fermi aber voll durchschlägt und die Industrie Schlange steht, sehe ich allerdings schwarz für die Zukunft. Dann wird sich AMD mit Intel arrangieren und nur das Nötigste machen, daß sie überhaupt noch neue Karten verkaufen :ugly:
and should have enough horsepower, with 512 cores, 128 TMUs, 48 ROPs
Kann man daraus Rückschlüße auf die Spieleperfomance ziehen?
LovesuckZ
2009-10-05, 22:38:41
113% mehr Recheneinheiten, 60% mehr Textureinheiten, 50% mehr ROPs und ca. 50% mehr Bandbreite.
Geschwindigkeit kann man davon nicht errechnen. 50% im Minimum sollten es sein. Außer die Setup-Engine limitiert heftig.
tombman
2009-10-05, 22:39:25
Kann man daraus Rückschlüße auf die Spieleperfomance ziehen?
Würde ich auch gern wissen :)
Hmm...GTX285 +50% ?
Wenns shadinglastiger wird: bis hinauf zu +100%....
p.s.: es sollte (vorallem mit ein bischen oc) ausreichen um die härtesten games in 1920x1200, 4xAA/16xAF mit 30fps zu spielen- erstmals :eek:
Ich könnte mir vorstellen, dass da auch ein Fail dabei rauskommen könnte. Jedem der eine neue GPU braucht rate ich im Moment nicht auf NVIDIA zu warten.
Vor allem weil ich nicht glaube, dass sich da preislich noch viel tun wird. Wenn NVIDIA schneller ist, dann werden sie auch entsprechend teurer sein.
Wobei soetwas wie NV30 eigentlich nicht passieren kann. Das Ding war ja völlig misskonzipiert. Fermi sieht zumindest von der Architektur sehr vernünftig aus.
mapel110
2009-10-06, 03:25:16
http://bbs.chiphell.com/viewthread.php?tid=56185
http://forum.beyond3d.com/showthread.php?t=55289&page=22
So depending (a fair bit) on the system used is maybe a little above GTX295 performance at the moment. Likely will get better if they can get the frequency up and with a more mature driver.
pervert
2009-10-06, 03:43:38
Ich könnte mir vorstellen, dass da auch ein Fail dabei rauskommen könnte. Jedem der eine neue GPU braucht rate ich im Moment nicht auf NVIDIA zu warten.
Vor allem weil ich nicht glaube, dass sich da preislich noch viel tun wird. Wenn NVIDIA schneller ist, dann werden sie auch entsprechend teurer sein.
Und warum nicht? Sich eine ATI kaufen, die (bis auf Ausnahmen) kaum bedeutend schneller als eine GTX285 ist, ein schlechteres Bild liefert, schlechtere Treiber hat (hallo Anno (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_99/10/#abschnitt_fazit), hallo TWIMTBP (http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Resident-Evil-5-und-NFS-Shift-Update-Weitere-Stellungnahme-von-Nvidia/Grafikkarte/News/)) und kein Physx bietet? Wo liegt da der Sinn? Habe gerade erst erfahren, dass z. B. Mafia 2 auch fleissig Physx nutzt und zudem nur DX9 braucht. DAS alleine ist für mich ein Grund nicht einmal an ATI zu denken! Will ich Spiele wo die Hälfte an Effekten fehlt? ;D :confused:
Ich würde sagen, wer jetzt schon eine GTX260-GTX285 hat, bei dem macht gar nichts anderes Sinn als auf GTX380 zu warten! Und der Preis ist völlig irrelevant - mehr Leistung/Features kostet nunmal mehr, das ist ja wohl nichts Neues. Dann muss man sich halt für eine kleinere Variante entscheiden, wenn das Geld nicht reicht. Man bekommt trotzdem mehr geboten als bei ATI. Da ja angeblich gleich 3 Varianten zum Start antreten, ist für fast jeden was dabei. Wer unbedingt JETZT SOFORT eine Grafikkarte braucht die maximale Qualität und aktuell wichtige Features bietet, kauft halt ne gute GTX260 (http://geizhals.at/deutschland/?cat=gra16_512;asuch=gtx260;sort=p&xf=354_55) für 130 Euro und stellt sich dann in die Fermi Warteschlange ohne etwas zu verpassen. Jedenfalls gewichte ich persönlich Physx+NV Qualität höher als DX10.1/DX11 für die nächsten 6 Monate.
113% mehr Recheneinheiten, 60% mehr Textureinheiten, 50% mehr ROPs und ca. 50% mehr Bandbreite.
Geschwindigkeit kann man davon nicht errechnen. 50% im Minimum sollten es sein. Außer die Setup-Engine limitiert heftig.
Du vergisst einen möglichen Taktvorteil und Effizienzsteigerungen. Angenommen die GPU kommt auf satte 750 MHz, dann liegt die TMU Leistung schon bei +84% etc.
Ich sage das Teil ist ca. 80% schneller im Schnitt (8xAA/Exoten ausgenommen), wenn die Bandbreite überwiegend limitiert bleiben noch 65% avg(!) und in Crysis sind es bis zu 100% mehr (vornehmlich ohne/2x AA und nicht unbedingt in 2560er Auflösung). Spätestens als GTX385.
Mit diesen Werten würde ich die Karte somit auch "knapp" (vl. 10-20%) hinter Hemlock einordnen, in Ausnahmefällen gleichauf oder gar etwas schneller, in anderen spürbar dahinter. Qualitativ sowieso weit davor.
Ailuros
2009-10-06, 06:35:03
TSMC 40nm hat nach AMD keinen besonderen Vorteil im Vergleich zu 55nm was die Masche Frequenz, Stromverbrauch betrifft. Natuerlich ist es meistens auch etwas Architektur-bedingt aber wenn AMD gerade noch RV790 Frequenzen schaffen konnte laesst es mir keine besondere Hoffnung dass NV ihre Zielfrequenzen erreicht und schon gar nicht wenn ich mir die GT200b Frequenzen ansehe.
***edit: was den angeblichen E Vantage score betrifft er koennte durchaus im realen Raum liegen momentan. Zwar noch etwas gewagt momentan aber es klingt mir eher nach einer 700MHz Region.
Ailuros
2009-10-06, 06:57:14
Ich könnte mir vorstellen, dass da auch ein Fail dabei rauskommen könnte. Jedem der eine neue GPU braucht rate ich im Moment nicht auf NVIDIA zu warten.
Vor allem weil ich nicht glaube, dass sich da preislich noch viel tun wird. Wenn NVIDIA schneller ist, dann werden sie auch entsprechend teurer sein.
Wobei soetwas wie NV30 eigentlich nicht passieren kann. Das Ding war ja völlig misskonzipiert. Fermi sieht zumindest von der Architektur sehr vernünftig aus.
Gerade da der MSRP der GF100 mit allerhoechster Wahrscheinlichkeit hoeher sein wird als bei einer 5870 (um wieviel bleibt abzusehen) waere ein solches Dilemma etwas merkwuerdig. Wer mehr als 5870 Leistung braucht wird wohl so oder so auf Hemlock warten.
Wenn mir als Verbraucher 5850 bzw. 5870 gut genug ist, brauch ich auch nicht auf eine higher end GPU zu warten.
Spasstiger
2009-10-06, 08:58:24
Du vergisst einen möglichen Taktvorteil und Effizienzsteigerungen. Angenommen die GPU kommt auf satte 750 MHz, dann liegt die TMU Leistung schon bei +84% etc.
Ich glaube nicht an so hohe Taktraten. Bisher taktete keine Nvidia-GPU mit 750 MHz, warum sollte das dann ausgerechnet bei der neuen High-End-GPU der Fall sein? Nvidia wird das Ding so takten, dass man auf vernünftige Yieldraten kommt und dass man AMD schlägt.
Bei der Shaderleistung darf man übrigens nicht vergessen, dass die SPs statt einem MADD und einem MUL pro Takt nun ein FMA pro Takt berechnen. Die theoretische Floating-Point-Rechenleistung pro SP bei Addition und Multiplikation sinkt also von drei OPs pro Takt auf zwei OPs pro Takt (kann man auch alles schön im Whitepaper auf der Nividia-Homepage nachlesen). Dadurch wird die theoretische Shaderleistung nur um 42% bei gleichem Takt gegenüber dem GT200 ansteigen. Geht man von 1700 MHz Shadertakt bei der GTX 380 aus, steigt die theoretische Rechenleistung um 64% gegenüber der GTX 285. Und mit Effizienzsteigerungen wird man auch nicht so viel rausholen können, weil der GT200 seine Einheiten anscheinend schon sehr gut auslastet (~80%).
100% mehr Rechenleistung bei einfacher Präzision gegenüber einer GTX 285 werden imo den absoluten Idealfall darstellen. In Spielen rechne ich mit einem Plus von durchschnittlich 60%. Das reicht für ein kleines Polster gegenüber der HD 5870.
ich seh es schon kommen. charlie hat immer nur in der sche*ße gerührt, wird am schluss aber recht haben, weil nv der fertigungsprozess um die ohren fliegt
LovesuckZ
2009-10-06, 09:32:03
http://bbs.chiphell.com/viewthread.php?tid=56185
http://forum.beyond3d.com/showthread.php?t=55289&page=22
So depending (a fair bit) on the system used is maybe a little above GTX295 performance at the moment. Likely will get better if they can get the frequency up and with a more mature driver.
Mit den Taktraten "当时频率是495/1100/1000 " scheint das ziemlich gut zu sein.
Damit wäre man immer noch schneller als eine 5870.
MuLuNGuS
2009-10-06, 09:38:37
Bei der Shaderleistung darf man übrigens nicht vergessen, dass die SPs statt einem MADD und einem MUL pro Takt nun ein FMA pro Takt berechnen. Die theoretische Floating-Point-Rechenleistung pro SP bei Addition und Multiplikation sinkt also von drei OPs pro Takt auf zwei OPs pro Takt (kann man auch alles schön im Whitepaper auf der Nividia-Homepage nachlesen). Dadurch wird die theoretische Shaderleistung nur um 42% bei gleichem Takt gegenüber dem GT200 ansteigen.
wie jetzt,
die haben die gleiche anzahl an SPs?
Spasstiger
2009-10-06, 09:42:18
wie jetzt,
die haben die gleiche anzahl an SPs?
Nein, wo hab ich das geschrieben? Lies mein Posting nochmal.
MuLuNGuS
2009-10-06, 09:45:47
Nein, wo hab ich das geschrieben? Lies mein Posting nochmal.
hmm..müsste das nicht mehr als 64% ansteigen..
Spasstiger
2009-10-06, 09:47:13
hmm..müsste das nicht mehr als 64% ansteigen..
Lies mein Posting nochmal.
Kurzfassung:
GT200: Shadertakt in GHz * 240 * (2+1) GFlops
Fermi: Shadertakt in GHz * 512 * 2 GFlops
MuLuNGuS
2009-10-06, 09:48:10
ah..schon Klara jetzt.
bin mal gespannt wie sich fermi in der praxis schlägt.
Spasstiger
2009-10-06, 10:11:12
Bei Special Functions hat Fermi übrigens einen deutlichen Vorteil. Besaß der GT200 noch 10*2 SFUs*), sind es beim Fermi 16*4 SFUs. Außerdem können Special-Function- und FMA-Operationen beim Fermi stets parallel und entkoppelt voneinander von den Streaming-Multiprozessoren bearbeitet werden. Beim GT200 dagegen werden die MULs auf dem jeweiligen Streaming-Multiprozessor blockiert, wenn Special-Function-Operationen anstehen.
Im Falle maximaler SFU-Auslastung ergeben sich also folgende Fähigkeiten pro Takt:
GT200: 240 MADD-Operationen + 20 60 SF-Operationen
Fermi: 512 FMA-Operationen + 64 SF-Operationen
Zum Vergleich ohne SF-Operationen:
GT200: 240 MADD-Operationen + 240 MUL-Operationen
Fermi: 512 FMA-Operationen
*) /EDIT: Ich hab mich beim GT200 etwas vertan, es sind 30*2 SFUs (da 10*3 SMs).
Ph0b0ss
2009-10-06, 10:14:10
Lies mein Posting nochmal.
Kurzfassung:
GT200: Shadertakt in GHz * 240 * (2+1) GFlops
Fermi: Shadertakt in GHz * 512 * 2 GFlops
Das MUL des GT200 steigert die IPC-Rate aber nur um Faktor 1,2 im Schnitt. Daher müssteste eigentlich so rechnen:
GT200: 1,476 Ghz * 240 * 2,4 = 850 GFlops.
Fermi: 1,700Ghz * 512 * 2 = 1740 GFlops.
Macht also grob 100% Leistungssteigerung.
http://www.pcgameshardware.de/aid,696537/Nvidia-Fermi-Weitere-Architektur-Details-im-Gespraech-mit-Nvidias-Toni-Tamasi/Grafikkarte/News/
robbitop
2009-10-06, 10:14:39
Wobei man bedenken muss, dass das MUL wohl nur in ~15% der Fällen nutzbar war. Also sind es eher 2.15 FLOPs/clk pro SP ggü. 2 FLOPs/clk pro SP.
Aber ich habe irgendwo hier im Thread auch gegenteilige Aussagen gelesen, dass das MUL im GT300 nicht verloren gegangen ist, sondern nun sogar zu 70-80% nutzbar ist. War irgend so ein Interview mit einem Mann von NV.
tombman
2009-10-06, 10:20:53
Lies mein Posting nochmal.
Kurzfassung:
GT200: Shadertakt in GHz * 240 * (2+1) GFlops
Fermi: Shadertakt in GHz * 512 * 2 GFlops
Es waren aber nie 3 Flops, weil laut NV das "missing MUL" nur einen Faktor von 1.2 brachte.
(wenn ich das jetzt nicht falsch verstanden hatte)
==
Also, wenn GT300 Vantage X10000 mit nur 495/1100/1000 packt, dann ist er ja jetzt schnon knapp schneller als eine GTX295 und deutlich schneller als eine HD5870.
Mit den Zieltaktraten, die deutlich höher liegen werden, wird das ganz klar der schnellste Chip :)
Supi :)
Spasstiger
2009-10-06, 10:21:20
Wobei man bedenken muss, dass das MUL wohl nur in ~15% der Fällen nutzbar war. Also sind es eher 2.15 FLOPs/clk pro SP ggü. 2 FLOPs/clk pro SP.
Hab gelesen, dass die 15-20% beim G80 gelten, beim GT200 die MUL-Auslastung aber auf bis zu 90% angehoben werden konnte.
Aber ich habe irgendwo hier im Thread auch gegenteilige Aussagen gelesen, dass das MUL im GT300 nicht verloren gegangen ist, sondern nun sogar zu 70-80% nutzbar ist. War irgend so ein Interview mit einem Mann von NV.
Naja, wenn das so wäre, würden die Angaben zur Single-Precision-Rechenleistung und zum Aufbau der Streaming-Multiprozessoren im Fermi-Whitepaper nicht stimmen.
LovesuckZ
2009-10-06, 10:25:16
Hab gelesen, dass die 15-20% beim G80 gelten, beim GT200 die MUL-Auslastung aber auf bis zu 90% angehoben werden konnte.
Nein, das bezug sich auf den GT200. Beim G80 war die MUL nur eine PR-Aktion.
Cpl. Dwayne Hicks
2009-10-06, 10:31:51
Ich dachte beim GT200 bringt das MUL ca. 35%... ich meine das auf dem beyond3d artikel zum GT200 gelesen zu haben.
Das MUL des GT200 steigert die IPC-Rate aber nur um Faktor 1,2 im Schnitt.
Aber nur vor G200, letzterer kann das MUL praktisch soweit ich weiß zu >50% nutzen.
tombman
2009-10-06, 10:35:22
Es wurde doch eh oben verlinkt:
Regelmäßige Leser werden sich sicherlich an das "Missing MUL" im G80 und GT200 erinnern: Neben der Multiply-Add-Leistung konnten die älteren Chips (Mehrzahl!) unter bestimmten Umständen eine Multiplikation zusätzlich ausführen. Tamasi nannte eine IPC-Rate von durchschnittlich 1,2. Man konnte also im circa 20 Prozent der Fälle eine zusätzliche Instruktion pro Takt aus den Funktionseinheiten herausholen. Bei der Fermi-Architektur, welche ebenfalls zwei Instruktionen pro Takt beauftragen kann (in den beiden 16er-Gruppen der SMs), läge diese Rate bei beinahe 2,0.
:)
reunion
2009-10-06, 10:36:00
Wenn ein MUL vorhanden ist dann sollte man es auch nutzen können (wenn man es denn braucht). Oder was soll die MUL-Einheit denn sonst machen während sie "nicht verwendet werden kann"? Alles andere ist Marketing. Das Problem war wohl eher das ein Code natürlich verdammt MUL lastig sein muss um das zusätzliche MUL auch vollständig verwenden zu können. GT300 hat hier natürlich klar die ausgeglicheneren Einheiten.
Spasstiger
2009-10-06, 10:36:53
Nein, das bezug sich auf den GT200. Beim G80 war die MUL nur eine PR-Aktion.
PR-Aktion? Nvidia hat nie mit den MULs geworben und die 15% Auslastung der MULs wurden schon zu G80-Zeiten von den Gurus genannt. Aber evtl. bezog sich das auch auf die Verwendung von Special-Function-Operationen, was dann mit MULs in einen Topf geworfen wurde.
Aber ok, wenn sich die IPC-Rate von 1,2 auf den GT200 bezieht, dann sind die MULs kein ganz so großer Vorteil.
Ich lesen übrigens gerade, dass die SFUs auf dem G80 vier Takte lang für eine Operation brauchten Quelle (http://www.beyond3d.com/content/reviews/1/8)). Trifft das auch noch auf den GT200 zu? Fermi arbeitet SF-Operationen laut Whitepaper (http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf) jedenfalls in einem Takt ab.
tombman
2009-10-06, 10:38:45
Wie ist eigentlich das zu deuten?:
Auf Nachfrage bestätigte Tamasi allerdings, dass es spezialisierte Hardware gibt, die die Funktionen von TMUs und ROPs übernimmt.
Gibts keine dedizierten Einheiten mehr :confused:
Spasstiger
2009-10-06, 10:40:39
Wie ist eigentlich das zu deuten:
Das heißt soviel wie: Fermi ist (auch) eine GPU. ;)
TMUs und ROPs sind in Entwicklerkreisen nicht unbedingt die üblichen Bezeichnungen.
Gibts keine dedizierten Einheiten mehr :confused:
Doch. Genau das wollte er offenbar ausdrücken. Sonst hätte er nicht von spezialisierter Hardware geredet.
LovesuckZ
2009-10-06, 10:42:51
PR-Aktion? Nvidia hat nie mit den MULs geworben und die 15% Auslastung der MULs wurden schon zu G80-Zeiten von den Gurus genannt. Aber evtl. bezog sich das auch auf die Verwendung von Special-Function-Operationen, was dann mit MULs in einen Topf geworfen wurde.
Aber ok, wenn sich die IPC-Rate von 1,2 auf den GT200 bezieht, dann sind die MULs kein ganz so großer Vorteil.
Schau dir die GFLOPs Zahl an. Dort wurde immer mit x3 gerechnet statt mit x2. Trotz des Wissens, dass die MUL kaum bis garnicht zu Verfügung steht.
tombman
2009-10-06, 10:45:42
Scheiß Warterei, ich will endlich die volle Architektur wissen und ein paar Schlüsselbenchmarks sehen :mad:
Spasstiger
2009-10-06, 10:47:05
Schau dir die GFLOPs Zahl an. Dort wurde immer mit x3 gerechnet statt mit x2. Trotz des Wissens, dass die MUL kaum bis garnicht zu Verfügung steht.
AMD wirbt auch mit der theoretischen Maximalrechenleistung, obwohl die Auslastung nie 100% beträgt. Auf jeden Fall sind die MUL-Einheiten im G80 physikalisch vorhanden und können mindestens mal zusammen mit den SFUs für Special-Function-Operationen genutzt werden. Wie es um die Verwendung für Generel Shading inzwischen steht, weiß ich nicht, da gabs anfangs wohl noch Schwierigkeiten. Ich dachte immer, dass die MULs auf dem G80 irgendwann für General Shading verfügbar wurden, wenn auch nur mit bescheidener Auslastung.
Aquaschaf
2009-10-06, 10:47:19
Ich lesen übrigens gerade, dass die SFUs auf dem G80 vier Takte lang für eine Operation brauchten Quelle (http://www.beyond3d.com/content/reviews/1/8)). Trifft das auch noch auf den GT200 zu? Fermi arbeitet SF-Operationen laut Whitepaper (http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf) jedenfalls in einem Takt ab.
Richtig wäre: die SFUs haben einen Durchsatz von einer Instruktion pro Takt. Das wurde ja schon an irgendeinem Punkt in diesem Thread erläutert; eine Instruktion braucht eher etwas in der Richtung von 20 Takten bei der Nvidia-Architektur.
Spasstiger
2009-10-06, 10:51:39
Richtig wäre: die SFUs haben einen Durchsatz von einer Instruktion pro Takt.
Achso, die altbekannte Pipeline-Geschichte. Dann hat der G80 wohl auch einen Durchsatz von einer SF-Instruktion pro Takt.
LovesuckZ
2009-10-06, 10:51:56
AMD wirbt auch mit der theoretischen Maximalrechenleistung, obwohl die Auslastung nie 100% beträgt. Auf jeden Fall sind die MUL-Einheiten im G80 physikalisch vorhanden und können mindestens mal zusammen mit den SFUs für Special-Function-Operationen genutzt werden. Wie es um die Verwendung für Generel Shading inzwischen steht, weiß ich nicht, da gabs anfangs wohl noch Schwierigkeiten. Ich dachte immer, dass die MULs auf dem G80 irgendwann für General Shading verfügbar wurden, wenn auch nur mit bescheidener Auslastung.
Die MUL ist vorhanden, aber konnte beim G80 kaum und beim GT200 leicht (glaube im besten Fall ca. 15%) für "general shading" verwendet werden. Im Gegensatz zu AMD war es bei nVidia also nie möglich die theoretische Zahl zu erreichen. Mit dem neuen Design können sie die Auslastung auf 90-95% erhöhen.
Aquaschaf
2009-10-06, 10:55:03
Achso, die altbekannte Pipeline-Geschichte.
Genau, deswegen hat jeder SM am liebsten ein paar hundert Threads am Start :)
reunion
2009-10-06, 10:56:58
Ich finde es erstaunlich wieviele Leute hier nicht ganz genau zu wissen glauben zu wievielen Prozent man die MUL-Einheit bei GT2xx nutzen oder nicht nutzen kann. Was ist eigentlich die Begründung dafür warum man sie nicht immer nutzen kann? Was macht sie während man sie nicht nutzen kann? Da müssen ja ganz schön viele Programmierer unter uns sein die das ausgiebig untersucht haben, sofern sich nicht jeder die Zahlen aus der Nase zieht. Als G80 kam hieß es eine ALU kann MADD+MUL. Wenig später dann plötzlich das MUL sei nur zeitweise nutzbar, dann kamen neue Treiber und es hieß das MUL sei jetzt nutzbar. Dann doch wieder nicht. Dann kam GT200 und es hieß das MUL sei jetzt auch vollständig für general shading nutzbar, auf einmal sind es nur mehr max. 15%. Da lachen ja die Hühner.
tombman
2009-10-06, 11:07:38
Was ist eigentlich die Begründung dafür warum man sie nicht immer nutzen kann?
Frag Nvidia ;)
Was macht sie während man sie nicht nutzen kann?
Idlen?
Da müssen ja ganz schön viele Programmierer unter uns sein die das ausgiebig untersucht haben, sofern sich nicht jeder die Zahlen aus der Nase zieht.
Ähm, du meinst also, der Nvidia-Mann Tamasi erzählt nur bullshit, und in Wirklichkeit ist das MUL zu 100% auslastbar?
Glaubst nicht, das hätte Nvidia schon 100x kommuniziert, falls es so gewesen wäre?
Warum willst denn unbedingt das GT200 MUL so gut dastehen lassen? Damit der Sprung zu Furby (;D) kleiner wird? ;)
Spasstiger
2009-10-06, 11:08:45
Hier nochmal was zum Aufbau der Streaming-Multiprozessoren beim GT200 und bei Fermi:
http://www.abload.de/img/fermi_vs_gt200eabq.png
Zusammengebastelt aus Schaubildern der folgenden Quellen:
- http://realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=7
- http://realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5
Das sollte eigentlich viele Fragen kläen. Zu beachten ist, dass der GT200 über 30 dieser Streaming-Multiprozessoren verfügt, Fermi über 16.
reunion
2009-10-06, 11:13:17
Frag Nvidia ;)
Idlen?
Ähm, du meinst also, der Nvidia-Mann Tamasi erzählt nur bullshit, und in Wirklichkeit ist das MUL zu 100% auslastbar?
Glaubst nicht, das hätte Nvidia schon 100x kommuniziert, falls es so gewesen wäre?
Tony Tamasi ist auch nur ein PR-Fuzzy und das "missing-MUL" ist schon seit Jahren Spielball der Marketingabteilung.
Warum willst denn unbedingt das GT200 MUL so gut dastehen lassen? Damit der Sprung zu Furby (;D) kleiner wird? ;)
Wo lasse ich denn das MUL so gut dastehen? Ich finde die Diskussion nur lächerlich, da es immer so hingedreht wird wie man es gerade braucht. Seit G80 gibt es permanent die gleiche Diskussion und immer wieder heißt es jetzt sei es vollständig nutzbar, um es wenig später wieder zu revidieren.
tombman
2009-10-06, 11:19:26
Vollständig nutzbar ist es sicher nicht, sonst hätte es "missing Mul" als Bezeichnung nie gegeben.
Die theoretischen benchmarks zeigen auch eher, daß da nicht viel kam...
IMO kann das Teil nix ;)
Aber, Gott sei Dank, ist es bei Furby damit jetzt auch vorbei :)
reunion
2009-10-06, 11:22:19
Aber, Gott sei Dank, ist es bei Furby damit jetzt auch vorbei :)
Freu dich nicht zu früh. Vielleicht "fügt" es NV kurz vor dem Launch wieder ein um die TFLOP-Zahlen etwas aufzufetten. ;)
LovesuckZ
2009-10-06, 11:28:11
Freu dich nicht zu früh. Vielleicht "fügt" es NV kurz vor dem Launch wieder ein um die TFLOP-Zahlen etwas aufzufetten. ;)
Und was ändert sich dann zum jetzigen Zustand? :rolleyes:
reunion
2009-10-06, 11:33:23
Und was ändert sich dann zum jetzigen Zustand? :rolleyes:
Das weiß ich nicht, da ich nicht weiß wie es jetzt ist. Ich traue mir jedenfalls nicht anzumaßen wieviel Leistung das MUL bei GT200 wirklich bringt.
pervert
2009-10-06, 11:35:28
Vollständig nutzbar ist es sicher nicht, sonst hätte es "missing Mul" als Bezeichnung nie gegeben.
Die theoretischen benchmarks zeigen auch eher, daß da nicht viel kam...
IMO kann das Teil nix ;)
Aber, Gott sei Dank, ist es bei Furby damit jetzt auch vorbei :)
Womit wir dann wieder bei grob der doppelten Shaderleistung wären (bei höherem Takt)... ;)
Da freut sich Crysis aber :D
Mein 750MHz Taktvorschlag sollte auch nur den obersten annehmbaren Wert darstellen und nochmal aufzeigen wie deutlich sich die genannten Werte zur Rechenleistung dadurch noch nach oben verschieben könnten...
Man kann wohl eher von 650-700 MHz ausgehen.
tombman
2009-10-06, 11:42:11
Freu dich nicht zu früh. Vielleicht "fügt" es NV kurz vor dem Launch wieder ein um die TFLOP-Zahlen etwas aufzufetten. ;)
Furby ist es scheißegal was GT200 konnte oder nicht- es zählen nämlich nur absolute Zahlen und nicht relative.
Relative Zahlen zählen nur im Vergleich zum RV870, also der Konkurrenz ;)
Wenn X10000 bei lächerlichen 495/1100/1000 stimmt, hat Furby schon gewonnen...
pervert
2009-10-06, 11:49:05
Heiße Luft ;)
tombman
2009-10-06, 11:50:26
Aha, das sollen also die Takte vom Hemlock werden? Was für ein Witz, kann ich kaum glauben!
Selbst für eine 5850X2 ein bissel wenig oder?
Nein, das sollen angeblich die Taktraten des jetzigen GT300 BETA Chips sein...und damit schafft er ANGEBLICH schon X10000 :)
robbitop
2009-10-06, 11:54:36
Die 15% hat Rys von B3D damals nachgemessen. IIRC waren MULs immer nur möglich, solang keine SFUs durchgeführt worden sind. Vermutlich hat NV deshalb die Cuda-Cores auch ein wenig umgebaut. Summa-Summarum erwarte ich vom GT300 SP in etwa ähnliches wie vom GT200 SP.
pervert
2009-10-06, 11:55:25
Nein, das sollen angeblich die Taktraten des jetzigen GT300 BETA Chips sein...und damit schafft er ANGEBLICH schon X10000 :)
AHA! Jetzt wird einiges klarer. Warum könnt Ihr euch auch nicht mal etwas präziser ausdrücken? Hättest jetzt noch gesagt, dass mit X10000 wohl der 3dmark gemeint ist, dann wäre jedem alles verständlich ;)
thx
Dann könnte man tatsächlich ein Battle Fermi vs Hemlock erwarten.
Welche Schande für AMD/ATI.Da fällt mir immer sofort 3dfx ein und die Schelte von Nvidia (2 Chips gegen einen) :D
Wer ist eigentlich für dieses Gerücht verantwortlich und wie glaubwürdig ist dieses somit?
Tarkin
2009-10-06, 11:55:58
Nein, das sollen angeblich die Taktraten des jetzigen GT300 BETA Chips sein...und damit schafft er ANGEBLICH schon X10000 :)
Ja, und nächste Woche soll er auch ANGEBLICH vorgestellt werden... hab ich gehört.
das PCB wird schwarz sein und ein nvidia Logo ist auch drauf. Weiters wird es mehrer notebook Chips in 2010 geben ... sowie von Low End bis Mid Range eine komplette Fermi Familie.
Leistung wird mehr als doppelt so hoch sein wie beim G200, bei gleichem Energieverbrauch. nVidia hat schon Referenz Boards, hat sie aber noch nicht gezeigt weil man das Design so lange wie möglich vor AMD geheim halte möchte. Eine X2 ist auch bereits in der Mache.
2011 kommt dann der Nachfolger von Fermi mit wieder doppelter Leistung und shcwarzem PCB + nVidia Logo. Die kleinen Karten werden dann auch schneller sein als die die 2010 kommen.
Fertig ist die Fudzilla News
:rolleyes: ;D
sklave_gottes
2009-10-06, 11:58:35
Vollständig nutzbar ist es sicher nicht, sonst hätte es "missing Mul" als Bezeichnung nie gegeben.
Die theoretischen benchmarks zeigen auch eher, daß da nicht viel kam...
IMO kann das Teil nix ;)
Aber, Gott sei Dank, ist es bei Furby damit jetzt auch vorbei :)
Hier mal ein kleiner Ausschnitt zum Artikel GTX280 von CB:
Jede einzelne ALU kann auf dem G80 pro Takt ein MADD (Multiplikation sowie Addition) sowie ein MUL (Multiplikation) berechnen. Das hat sich auf dem GT200 nicht geändert, jedoch konnte man die Auslastung massiv steigern. Während das MADD auf dem G80 komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Die MUL-Leistung für das General Shading beträgt auf dem G80 geringe 15 Prozent, was sich nur in seltenen Fällen bemerkbar macht. Der GT200 kann dagegen das MUL in etwa zu 93 Prozent bis 94 Prozent für General Shading benutzen, weswegen man die theoretischen GFLOPs-Angaben zwischen den beiden Architekturen nur bedingt miteinander vergleichen kann.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/3/
Ja, und nächste Woche soll er auch ANGEBLICH vorgestellt werden... hab ich gehört.
das PCB wird schwarz sein und ein nvidia Logo ist auch drauf. Weiters wird es mehrer notebook Chips in 2010 geben ... sowie von Low End bis Mid Range eine komplette Fermi Familie.
Leistung wird mehr als doppelt so hoch sein wie beim G200, bei gleichem Energieverbrauch. nVidia hat schon Referenz Boards, hat sie aber noch nicht gezeigt weil man das Design so lange wie möglich vor AMD geheim halte möchte. Eine X2 ist auch bereits in der Mache.
2011 kommt dann der Nachfolger von Fermi mit wieder doppelter Leistung und shcwarzem PCB + nVidia Logo. Die kleinen Karten werden dann auch schneller sein als die die 2010 kommen.
Fertig ist die Fudzilla News
:rolleyes: ;D
Der war gut. ;D
tombman
2009-10-06, 12:00:29
Eine GTX295 schafft X9000- also warum sollte Furby dann nicht X10000 schaffen? ;)
Ist ne ganz einfache Rechenaufgabe ;)
Spasstiger
2009-10-06, 12:01:06
IIRC waren MULs immer nur möglich, solang keine SFUs durchgeführt worden sind.
Ja, das ist auch so, weil man die MULs zur Abarbeitung von SF-Instruktionen braucht. Man kann über den Port 1 in einem GT200-Streaming-Multiprozessor entweder MULs oder SFs reinfüttern, aber nicht beides gleichzeitig. Das Problem hat der Fermi nicht mehr, General-Shading-Instruktionen (FMAD) können von den Special-Function-Instruktionen entkoppelt abgearbeitet werden.
Hier mal ein kleiner Ausschnitt zum Artikel GTX280 von CB:
Jede einzelne ALU kann auf dem G80 pro Takt ein MADD (Multiplikation sowie Addition) sowie ein MUL (Multiplikation) berechnen. Das hat sich auf dem GT200 nicht geändert, jedoch konnte man die Auslastung massiv steigern. Während das MADD auf dem G80 komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Die MUL-Leistung für das General Shading beträgt auf dem G80 geringe 15 Prozent, was sich nur in seltenen Fällen bemerkbar macht. Der GT200 kann dagegen das MUL in etwa zu 93 Prozent bis 94 Prozent für General Shading benutzen, weswegen man die theoretischen GFLOPs-Angaben zwischen den beiden Architekturen nur bedingt miteinander vergleichen kann.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/3/
Dankeschön. Aus diesem Review hatte ich meine Zahlen also noch in Erinnerung. Tja, was stimmt jetzt? MUL-Auslastung bei General-Shading über 90% oder deutlich weniger?
sklave_gottes
2009-10-06, 12:04:53
Die 15% hat Rys von B3D damals nachgemessen. IIRC waren MULs immer nur möglich, solang keine SFUs durchgeführt worden sind. Vermutlich hat NV deshalb die Cuda-Cores auch ein wenig umgebaut. Summa-Summarum erwarte ich vom GT300 SP in etwa ähnliches wie vom GT200 SP.
Bis du sicher das hier nicht g80 gemeint war? Hast du dazu auch einen Link ?
Alles was ich bisjetzt zu g80 und g200 und der "missing MUL" gelesen habe ist das g80 erst garnicht, ab dem ForceWare 158.19 dann zu 15% das MUL für „General Shading“ nutzen kann. Der g200 hingegen von anfang an über 80% das MUL für „General Shading“ benutzen kann.
Teilweise habe ich sogar 90-95% gelesen siehe CB Link über mir.
mfg martin
Nein, das sollen angeblich die Taktraten des jetzigen GT300 BETA Chips sein...und damit schafft er ANGEBLICH schon X10000 :)
[...]
***edit: was den angeblichen E Vantage score betrifft er koennte durchaus im realen Raum liegen momentan. Zwar noch etwas gewagt momentan aber es klingt mir eher nach einer 700MHz Region.
;)
2B-Maverick
2009-10-06, 12:05:18
Eine GTX295 schafft X9000- also warum sollte Furby dann nicht X10000 schaffen? ;)
Ist ne ganz einfache Rechenaufgabe ;)
Wie kommt Ihr auf so was?
Es sind doch längst nicht alle Einheiten zu 100% erweitert worden.
Speicherbandbreite ca. +50%
etc.. etc..
Wie sollen da +100% im Schnitt bei rumkommen??? (ausser evtl. in einigen 100% shaderlimitierten Settings)
TSMC weiterhin mit dicken Problemen beim 40nm-Prozess, 20-30% Yields
http://www.eetimes.com/rss/showArticle.jhtml?articleID=218102274&cid=RSSfeed_eetimes_newsRSS
Komisch, dann wäre aber auch ATI betroffen. Aber momentan siehts so aus als könnte man die 40nm Serien gut liefern. Siehe 4770 und 5870!
tombman
2009-10-06, 12:09:58
Eine GTX285 schafft X6000- Furby braucht keine +100% um X10000 zu knacken ;)
Und wenn er X10000 knackt, ist er der schnellste Chip, auch schneller als GTX295.
Die theoretischen Werte lassen X10000 locker zu ;)
Er braucht nur +66%, und die wird er auch bekommen :)
Ailuros
2009-10-06, 12:12:43
Mit den Taktraten "当时频率是495/1100/1000 " scheint das ziemlich gut zu sein.
Damit wäre man immer noch schneller als eine 5870.
Kann jemand der mit der Sprache dort auskommt bestaetigen? Denn wenn die 10K fuer 495/1100 stehen sollten, koennte man beruhigt noch ~40% Zusatz erwarten.
***edit: Gast, ich nehme es mit diesem Post zu 100% zurueck falls das obrige stimmen sollte.
pervert
2009-10-06, 12:12:50
Dankeschön. Aus diesem Review hatte ich meine Zahlen also noch in Erinnerung. Tja, was stimmt jetzt? MUL-Auslastung bei General-Shading über 90% oder deutlich weniger?
Pauschal würde ich eher den aktuelleren Behauptungen Glauben schenken die die PCGH da verbreitet als einem Release Review.
Kann jemand der mit der Sprache dort auskommt bestaetigen? Denn wenn die 10K fuer 495/1100 stehen sollten, koennte man beruhigt noch ~40% Zusatz erwarten.
Was wiederum so ziemlich der zu erwartenden Leistung von 5870 SLI bzw dem absoluten Maximum von Hemlock entsprechen würde. -> CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/5/#abschnitt_3dmark_vantage)
Dabei muss man zumindest anhand der CB Benchmarks noch erwähnen, dass ATI beim vantage etwas besser abschneidet als in den Mittelungen der Game Benchmarks. Sollten es also im Vantage keine 14k werden, reicht es womöglich trotzdem für einen Gleichstand bei realen Spielen.
tombman
2009-10-06, 12:16:30
Kann jemand der mit der Sprache dort auskommt bestaetigen? Denn wenn die 10K fuer 495/1100 stehen sollten, koennte man beruhigt noch ~40% Zusatz erwarten.
***edit: Gast, ich nehme es mit diesem Post zu 100% zurueck falls das obrige stimmen sollte.
Wir brauchen einen Chinesen im Forum ;D
reunion
2009-10-06, 12:19:08
Hier eine maschinelle Übersetzung:
Huang is said to take the card can run X10000 is the case of the frequency is not high. . . . 300 version of each update somehow surprise ah. . . At that time frequency is 495/1100/1000 ..
Do not believe that, then you can turn even before the storms of 5870 sub-N card .... the biggest problem now is to raise the frequency to rely on water suppression ...
Das könnte man auch so auffassen dass das Ziel X10000 sind aber momentan eben noch die Frequenzen deutlich zu niedrig sind.
sklave_gottes
2009-10-06, 12:26:14
Pauschal würde ich eher den aktuelleren Behauptungen Glauben schenken die die PCGH da verbreitet als einem Release Review.
von HT4U:
Prinzipiell war dies auch beim G80 der Fall, nur war diese zusätzliche Multiplikation in der Praxis kaum verwendbar. Mit dem GTX 280 soll sich dies laut NVIDIA nun geändert haben, und jeder Stream-Prozessor soll pro Takt wirklich eine MAD (Multply-Add) und eine Multiplikation - also 3 FLOPs (Floating Point Operations) - beisteuern können.
http://ht4u.net/reviews/2008/msi_n280gtx/index4.php
und das können wir die ganze Zeit so fortführen.
mfg martin
tombman
2009-10-06, 12:27:40
Die X10000 werden kommen- Widerstand ist zwecklos :cool:
Selbst AMD hat +74% in Vantage X im Vergleich zum schnellsten Vorgänger (HD4890) geschafft-
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/5/#abschnitt_3dmark_vantage
Und Nvidia braucht nur +66%. Glaubt ihr echt, Nvidia schafft keine +66%, wenn AMD +74% schafft?
Mit 3 Milliarden Transen? No way....
pervert
2009-10-06, 12:29:40
von HT4U:
Prinzipiell war dies auch beim G80 der Fall, nur war diese zusätzliche Multiplikation in der Praxis kaum verwendbar. Mit dem GTX 280 soll sich dies laut NVIDIA nun geändert haben, und jeder Stream-Prozessor soll pro Takt wirklich eine MAD (Multply-Add) und eine Multiplikation - also 3 FLOPs (Floating Point Operations) - beisteuern können.
http://ht4u.net/reviews/2008/msi_n280gtx/index4.php
und das können wir die ganze Zeit so fortführen.
Ne können wir nicht, denn dieser Beitrag stammt doch auch wieder von 2008. :rolleyes:
Grab doch mal bitte was Neueres aus, Du widerlegst doch meine Aussage damit nicht, selbst wenn Du recht haben solltest.
Die beziehen sich wohl beide auf die gleichen Quellen/Behauptungen, die zum damaligen Zeitpunkt den Stand der Annahmen darstellten.
Vorallem klingt "laut Nvidia" auch irgendwie nach Marketing.
Spasstiger
2009-10-06, 12:31:08
Die X10000 werden kommen- Widerstand ist zwecklos :cool:
Das will ich nicht bestreiten. Aber viel mehr wirds dann auch NICHT werden. ;)
tombman
2009-10-06, 12:34:41
Das will ich nicht bestreiten. Aber viel mehr wirds dann auch werden. ;)
Mir reichen X10000 pro Chip ;) (und du hast ein "nicht" vergessen ;D)
Ailuros
2009-10-06, 12:36:08
reunion,
Deine Proteste mit dem MUL Schlammasel sind durchaus gerechtfertigt, aber es ist eben leider mal so dass marketing (egal welcher IHV) oefters einen Haufen Scheiss verkauft und viele von uns dank fehlendem Wissen einiges nicht nachforschen koennen. Es ist dann eben typisch dass man vorigen aufgespielten Bloedsinn spaeter dann wieder herunterspielt. Wie ich schon mal sagte wenn in der Zukunft mal AMD mit MIMD Einheiten ankommen sollte will ich wissen was "superskalar" ist und was nicht.
Ein bisschen spekulieren koennen wir vielleicht schon; angenommen die 1100MHz fuer GF100 stimmen im obrigen Fall und ich gehe auch davon aus dass mit Sicherheit alle 512SPs aktiv sind.
512 * 2 FLOPs * 1.1 GHz = 1126 GFLOPs/s = ~10k
480 * 3 FLOPs * 1.242 GHz = 1788 GFLOPs/s = ~9.3k
Der zweite score muss nicht stimmen denn ich weiss nicht ob die Systeme vergleichbar sind usw usw. So und jetzt der 2 FLOP Vergleich:
512 * 2 FLOPs * 1.1 GHz = 1126 GFLOPs/s = ~10k
480 * 2 FLOPs * 1.242GHz = 1192 GFLOPs/s = ~9.3k
Ich ueberlasse aber trotz allem die Schlussfolgerungen Dir selber.
tombman
2009-10-06, 12:43:09
Hast du da jetzt nicht die SLI-Skalierung komplett weggelassen? 2x 240 sind sicher nicht 480...
Ich würde eher von der GTX285 aus rechnen, dann umgeht man die Problematik des Skalierens..
512 * 2 FLOPs * 1.1 GHz = 1126 GFLOPs/s = ~10k
240 * 3 FLOPs * 1.476 GHz = 1062 GFLOPs/s = ~6k :ugly:
240 * 2 FLOPs * 1.476 GHz = 708 GFLOPs/s = ~6k :)
3 Flops kann ned stimmen.
p.s.: Milchmädchen FTW
Spasstiger
2009-10-06, 12:55:34
3DMark Vantage Xtreme hängt doch nicht ausschließlich an der Shaderleistung.
Ailuros
2009-10-06, 12:55:58
Ok dann nochmal von vorne....
GTX285 vs. GF 380@495
512 * 2 FLOPs * 1.1 GHz = 1126 GFLOPs/s = ~10k
240 * 3 FLOPs * 1.476GHz = 1063 GFLOPs/s = ~6.3k
-----------------------------------------------------
512 * 2 FLOPs * 1.1 GHz = 1126 GFLOPs/s = ~10k
240 * 2 FLOPs * 1.476GHz = 708 GFLOPs/s = ~6.3k
3DMark Vantage Xtreme hängt doch nicht ausschließlich an der Shaderleistung.
Tatsaechlich nicht; aber auf wieviel Echtzeit-FLOPs wuerdest beim obrigen Vergleich fuer die GTX285 tippen?
Slipknot79
2009-10-06, 12:56:56
Ich schätze, es sah wohl eher so aus ;)
http://media.bestofmicro.com/Intel-Polaris,X-P-19357-3.jpg
das ist polaris, larrabee Vorgänger
Kurz OT:
Ich schätze, so sieht die aktuelle PC-Spiele-Branche aus, die Kabeln, wo Geld fließt, kommen von den Konsolenspielen :redface: :(
deekey777
2009-10-06, 12:58:36
Die 15% hat Rys von B3D damals nachgemessen. IIRC waren MULs immer nur möglich, solang keine SFUs durchgeführt worden sind. Vermutlich hat NV deshalb die Cuda-Cores auch ein wenig umgebaut. Summa-Summarum erwarte ich vom GT300 SP in etwa ähnliches wie vom GT200 SP.
Hier sieht man auch schön, warum das so ist: http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=7
(Spasstiger, ich hab dich nicht übersehen. :))
The last change to the execution resources lies in the Special Function Units (SFUs). Since the number of ALUs and FPUs per pipeline has doubled thereby halving the latency of these warps, Nvidia also doubled the number of SFUs upto 4 per core so that the latency of a SFU warp decreased in tandem. However, to save area and power, the SFUs are shared between the two execution pipelines – an eminently reasonable design choice given the infrequent use. As with the prior generation, SFU execution can overlap with ALU or FPU execution, thanks to the operand collectors and result queues.
Interestingly, the apocryphal ‘extra mul’, which only seemed to rear its head in synthetic tests is gone now, an artifact of Nvidia’s marketing history. Thankfully, it has been replaced by two real pipelines that can be used in real applications.
ShadowXX
2009-10-06, 13:13:21
Komisch, dann wäre aber auch ATI betroffen. Aber momentan siehts so aus als könnte man die 40nm Serien gut liefern. Siehe 4770 und 5870!
Die 4770 ist "gut" kaufbar weil Sie keine kaufen will und die 5870 ist alles andere als "gut" verfügbar.
Undertaker
2009-10-06, 13:29:52
Nvidias 40nm Notebookchips sind aber auch schon recht gut verfügbar, ich denke nicht das der Prozess selbst noch große Schwierigkeiten macht...
Ailuros
2009-10-06, 13:33:57
Nvidias 40nm Notebookchips sind aber auch schon recht gut verfügbar, ich denke nicht das der Prozess selbst noch große Schwierigkeiten macht...
Im Fall von Cypress scheinen wohl einige den Dell deal zu vergessen.
Dural
2009-10-06, 13:35:01
30-40% sind doch für den anfang mal gar nicht so schlecht für so ein rissen ding.... man kann ja davon ausgehen das die 30-40% voll funktions fähige Chips sind???
deekey777
2009-10-06, 13:35:08
Im Fall von Cypress scheinen wohl einige den Dell deal zu vergessen.
Ich dachte, es gibt keinen Dell-Deal.
An dem Dell Deal wundert mich, dass Dell 5870 verbaut und nicht 5850.
tombman
2009-10-06, 14:08:59
Sollte heute nicht ein bissi was angekündigt werden? :biggrin:
mictasm
2009-10-06, 14:14:09
Ist doch noch früh...
Sollte heute nicht ein bissi was angekündigt werden? :biggrin:
hat fudzilla mal behauptet und dann kam lang nichts mehr. nachdem sie vor rund einer woche noch nicht mal lauffaehige karten zeigen konnten erwarte ich bis november nichts mehr...
tombman
2009-10-06, 14:38:44
Ist doch noch früh...
Jo, letztes Mal wars auch -9 Stunden...
Dural
2009-10-06, 14:43:05
....Laut Dally seien viele Funktionen des Chips darauf ausgelegt, die CPU in Anwendungen wie Bild- oder Videobearbeitung quasi als eine zweite CPU zu unterstützen. In Spielen jedoch blieben viele dieser Funktionen ungenutzt, was die GPU durch Herunterskalieren ausgleichen soll.
....Spiele- wie Workstation-Produkte auf Fermi-Basis sollen zeitnah erscheinen, könnten aber nach neuesten Nvidia-Angaben also im Funktionsumfang leicht voneinander abweichen.
http://www.hartware.net/news_47748.html
Ailuros
2009-10-06, 14:44:26
http://www.hartware.net/news_47748.html
Die GF 380 hat NVIO? :biggrin:
tombman ist ein fanboy...nanananana :uhippie:
Dural
2009-10-06, 14:48:12
Die GF 380 hat NVIO? :biggrin:
hehe gibt es im Fermi nicht mehr, da im Chip ;)
aber ist schon auffällig das NV ganz offen darüber spricht das sich die Produkte leicht unterscheiden werden weil die Gamer so manche funktionen im Fermi gar nicht benötigen...
am ende werden wir wohl doch noch zwei GPUs sehen weil die Spiele-Leistung auf die DIE grösse bezogen wohl doch nicht so gut ist, wer weis... ;)
tombman
2009-10-06, 14:49:01
tombman ist ein fanboy...nanananana :uhippie:
Nur von speeeeeed, nicht von Firmen ;)
Wenn AMD ne Karte herausbringt, die X10K oder mehr packt- immer her damit :)
Soso
Nvidia könne sich ebenfalls vorstellen, bei Spiele-Karten eventuell weniger als 512 CUDA-Cores zu verbauen bzw. nicht alle Funktionen zu unterstützen.
Spiele- wie Workstation-Produkte auf Fermi-Basis sollen zeitnah erscheinen, könnten aber nach neuesten Nvidia-Angaben also im Funktionsumfang leicht voneinander abweichen. Wie und ob sich die Spezifikationen unterscheiden, dürfte aber erst später feststehen.
Entweder Nvidia führt uns an der Nase herum oder wir müssen noch lange auf die Karten warten.
Wenn Nvidia jetzt noch von Möglichkeiten spricht, wie wollen sie dann in 1,5 Monaten Karten in den Regalen stehen haben? Treiber, Handbücher, Guides, Kartons, Kühler, ... das alles muss doch auf konkrete Produkte abgestimmt werden.
Die theoretische Floating-Point-Rechenleistung pro SP bei Addition und Multiplikation sinkt also von drei OPs pro Takt auf zwei OPs pro Takt
Für die Spieleperformance war das eh noch nie relevant. Daraus kannst du keine Schlüsse ziehen.
hehe gibt es im Fermi nicht mehr, da im Chip ;)
Das halte ich für unwahrscheinlich. NVIO ist dazu da den Analogteil aus dem riesen Chip fernzuhalten um die Fertigung nicht zusätzlich zu gefährden. Da Fermi auch nicht kleiner ist als G80 oder GT200/b seh ich da keinen guten Grund dazu das anders zu machen.
Vermutlich meinen sie, dass sie für die Tesla-Karten keinen NVIO mehr brauchen.
Was ist eigentlich die Begründung dafür warum man sie nicht immer nutzen kann?
Das MUL kommt von den Einheiten die normal auch Interpolation für Vertexdaten und transzedente Funktionen ausführen. Die braucht man in Spiele-Code dafür so häufig dass das MUL praktisch nie verwendet werden kann.
Jo, letztes Mal wars auch -9 Stunden...
ein bisschen was gibts ;)
There is a chance that some of the GT300-based Fermi devices might end up with GDDR3 support. The memory controller is 384-bit wide in Fermi “GTX” single chip 512 shader version, but in some less expensive chips they will use less memory bandwidth and even GDDR3.
We believe that in entry level, at least in some SKUs GDDR3 makes sense due to its lower price, as GDDR5 is still quite expensive. Fermi is a very scalable architecture and since the high end chip has 16 clusters and entry lever ones could end up only with a few clusters, that will make them small but still powerful enough for the desired market.
Fudzilla
tombman
2009-10-06, 15:14:32
Ich will aber keinen verkrüppelten Chip- auch wenn ichs vermutlich nie brauchen werde- will die volle Flops-power :)
Glaubt ihr echt, daß der Game-chip sich vom Pro-chip hardwaretechnisch unterscheiden wird? 2 Fertigungen??
@igg, die kleinen chips interessieren mich nicht, ich will die volle power :)
Dural
2009-10-06, 15:14:42
NV hat schon bestätigt das es keinen NVIO mehr gibt da alles in der GPU ist.
wo das stand weis ich aber nicht mehr...
NV hat schon bestätigt das es keinen NVIO mehr gibt da alles in der GPU ist.
Das kann sich immer noch auf Tesla beziehen. Wie gesagt, das wäre in Anbetracht der Fertigungsprobleme in 40nm ein Schuss ins Knie.
Geld sparen würde es nur, wenn man dann trotzdem auch entsprechend viele Chips aus dem Wafer bekommt.
Sagt auch VR Zone was ich denke:
http://vr-zone.com/forums/470465/gt300-to-have-an-nvio-chip--expensive-is-as-expensive-does.html
Fermi ohne NVIO = Tesla, mit = GPU. Früher mussten die Teslas aus irgend einem Grund auch einen nicht angeschlossenen NVIO haben.
Aber wer weiß. Evtl. wollen sie langfristig Geld damit sparen, wenn die Fertigung besser wird. Momentan wäre das auf jeden Fall eine zusätzlich Herausforderung bei einem eh nicht ganz unproblematischen 40nm Prozess.
Spasstiger
2009-10-06, 15:23:04
NV hat schon bestätigt das es keinen NVIO mehr gibt da alles in der GPU ist.
wo das stand weis ich aber nicht mehr...
Hier steht, dass man eventuell den NVIO-Chip mit auf den Träger des GT300 packen möchte:
http://vr-zone.com/forums/470465/gt300-to-have-an-nvio-chip--expensive-is-as-expensive-does.html
Also eventuell gibts zwei Varianten, einmal mit NVIO-Chip auf dem Träger (GeForce, Quadro) und einmal ohne NVIO-Chip auf dem Träger (Tesla).
Von einem NVIO im GPU-Die war bislang imo nirgendwo die Rede.
/EDIT: Coda war schneller. ^^
P.S.: Was die Einsparungen bei der GeForce-Version des Fermi angeht: Kann mir vorstellen, dass man bei doppelter Präzision die Anzahl von nutzbaren SMs begrenzt, um einen zusätzlichen Anreiz für Tesla-Käufer zu schaffen.
reunion
2009-10-06, 15:23:58
Ich will aber keinen verkrüppelten Chip- auch wenn ichs vermutlich nie brauchen werde- will die volle Flops-power :)
Glaubt ihr echt, daß der Game-chip sich vom Pro-chip hardwaretechnisch unterscheiden wird? 2 Fertigungen??
Ich kann es mir nicht vorstellen bei den lächerlichen Stückzahlen welche momentan im Tesla-Segment umgesetzt werden. Es sei denn NV rechnet damit dass das mit GT300 sprunghaft ansteigt. Ab einer gewissen Stückzahl könnte es sich natürlich schon lohnen hier eine extra Chip zu entwickeln und unnötigen Kram wegzulassen bzw. mehr ALUs zu verbauen.
Hier steht, dass man eventuell den NVIO-Chip mit auf den Träger des GT300 packen möchte:
Würde Platz sparen bei den GPGPU-Karten. Da verbaut man dann halt einmal mit und einmal ohne ;)
Ich kann es mir nicht vorstellen bei den lächerlichen Stückzahlen welche momentan im Tesla-Segment umgesetzt werden
Kennst du da genaue Zahlen?
Aber: Lohnt sich meiner Meinung nach auch nicht, weil die Fläche der ALUs bei Fermi eh im Gegensatz zur fixed function Logik sehr zugenommen hat.
aber ist schon auffällig das NV ganz offen darüber spricht das sich die Produkte leicht unterscheiden werden weil die Gamer so manche funktionen im Fermi gar nicht benötigen...
GT200 Produkte unterschieden sich massiv voneinander.
GT200 Produkte unterschieden sich massiv voneinander.
?!
reunion
2009-10-06, 15:27:51
Kennst du da genaue Zahlen?
Nein, aber ich weiß das NV im letzten Quartalsbericht den Umsatz im Tesla-Segment mit nur 10mio USD bezifferte. Bei den hohen Preisen dort kann es sich kaum um einer erwähnenswerte Anzahl an Karten handeln.
Spasstiger
2009-10-06, 15:29:53
Nein, aber ich weiß das NV im letzten Quartalsbericht den Umsatz im Tesla-Segment mit nur 10mio USD bezifferte. Bei den hohen Preisen dort kann es sich kaum um einer erwähnenswerte Anzahl an Karten handeln.
Was auch daran liegt, dass bei den meisten Nutzern kein echter Mehrwert gegenüber einer GeForce vorhanden ist. An meiner Uni laufen auch CUDA-Projekte, aber dafür nutzt man halt die billigen GeForces.
reunion
2009-10-06, 15:30:31
Das MUL kommt von den Einheiten die normal auch Interpolation für Vertexdaten und transzedente Funktionen ausführen. Die braucht man in Spiele-Code dafür so häufig dass das MUL praktisch nie verwendet werden kann.
Da könnte man sich aber im Umkehrschluss fragen ob das jetzt auch die "normalen" ALUs, also die FMA-Einheiten mitmachen müssen wo das MUL wegfällt.
?!
Fermi Produkte sollen sich unterscheiden, worin steht da nicht.
Ich werfe in den Raum, das sich GT200 Produkte unterscheiden, das ist bekannt.
Die Spekulation oben besagt das der Tesla Fermi schneller wäre, als der Desktop Fermi.
Der Blick auf GT200 zeigt: Tesla ist langsamer, aber hat dafür 4xmal mehr VRAM.
Passt nicht zusammen, die Behauptung mit der Gegenwart.
Ähnlich wie NVIO, der aufeinmal wieder in den Chip soll, obwohl er doch Kosten sparen sollte.
Spasstiger
2009-10-06, 15:38:28
Ähnlich wie NVIO, der aufeinmal wieder in den Chip soll, obwohl er doch Kosten sparen sollte.
NVIO im Chip heißt nicht unbedingt NVIO im Die. ;)
Chip ist allgemein die Bezeichnung für den kompletten Verbund aus dem Träger mit Kontakten, einem oder mehreren Dice und evtl. noch weiteren Anbauten (Gehäuse, Heatspreader). Wahrscheinlich sitzt der NVIO-Die mit dem Fermi zusammen auf dem Träger statt aufs PCB ausgelagert. Und diesen Chip nennt man dann nicht Fermi, sondern z.B. GF100.
NVIO im Chip heißt nicht unbedingt NVIO im Die. ;)
Chip ist allgemein die Bezeichnung für den kompletten Verbund aus dem Träger mit Kontakten, einem oder mehreren Dice und evtl. noch weiteren Anbauten (Gehäuse, Heatspreader). Wahrscheinlich sitzt der NVIO-Die mit dem Fermi zusammen auf dem Träger statt aufs PCB ausgelagert. Und diesen Chip nennt man dann nicht Fermi, sondern z.B. GF100.
Schon klar, aber dazu müsste NVIOs Form oder Größe drastisch geändert werden.
Kann ja sein. Wie viel fetter könnte ein solcher NVIO2 im Vergleich zum alten NVIO1 sein?
Da könnte man sich aber im Umkehrschluss fragen ob das jetzt auch die "normalen" ALUs, also die FMA-Einheiten mitmachen müssen wo das MUL wegfällt.
Nein, das machen weiterhin die SFUs.
Wie viel fetter könnte ein solcher NVIO2 im Vergleich zum alten NVIO1 sein?
Wieso sollte er fetter werden?
Wieso sollte er fetter werden?
Nicht sollen sondern können.
Er kann auch ruhig transistormäßig gleichgroß bleiben und in Richtung der Bedeutungslosigkeit versinken aufgrund der abnehmenden Fläche.
Das er transistormäßig größer wird, ist mir aufgrund der zig tollen Verbesserungen, die er mitbringen könnte in den Sinn gekommen.
Zu dem Zeitpunkt habe ich noch gedacht der VP sei im NVIO integriert. Wenn dem nicht so ist, ups. ;)
deekey777
2009-10-06, 16:13:17
Nein, das machen weiterhin die SFUs.
Dann werden sie blockiert, während bei ATi für SF die fette T-Unit da ist. Und für die Interpolation hat der RV870 so oder so zusätzliche Einheiten. Oh-oh, Fermi is doomed.
:weg:
Dann werden sie blockiert, während bei ATi für SF die fette T-Unit da ist.
SFU kann parallel zu ALU laufen.
Und für die Interpolation hat der RV870 so oder so zusätzliche Einheiten.
Nope. Das wurde abgeschafft.
Dural
2009-10-06, 16:52:52
Ebenfall eine interessante Randnotiz: Einen NVIO wird es beim aktuell geplanten Fermi-Chip nicht geben. Tamasi bestätigte, dass die Display-I/O-Funktionalität komplett im Haupt-Chip integriert sei.
http://www.pcgameshardware.de/aid,696537/Nvidia-Fermi-Weitere-Architektur-Details-im-Gespraech-mit-Nvidias-Toni-Tamasi/Grafikkarte/News/
noch fragen? ;)
und an einen externen DIE auf dem Träger glaub ich nicht, der Fermi DIE ist dazu doch viel zu gross mit seinen fast 500mm, da bleibt nicht mehr viel platz zwischen Fermi DIE und dem Heatspreader!
EDIT:
schon mal einen G200 ohne Heatspreader gesehen?
http://img123.imageshack.us/img123/1381/dsc04843vo2.jpg
http://www.pcgameshardware.de/aid,696537/Nvidia-Fermi-Weitere-Architektur-Details-im-Gespraech-mit-Nvidias-Toni-Tamasi/Grafikkarte/News/
noch fragen? ;)
Ja, ob sie dann VGA nicht einfach komplett gestrichen haben. Und außerdem könnte man das Package ja auch entsprechend vergrößern.
Die ist übrigens keine Abkürzung, und wird dementsprechend nicht DIE geschrieben ;)
Dural
2009-10-06, 17:25:47
wie so sollte das eigentlich ein Problem sein? der G92 hat ja glaub gezeigt wie es auch intern ohne Probleme geht!
StefanV
2009-10-06, 17:32:25
Ja, ob sie dann VGA nicht einfach komplett gestrichen haben.
nein, da im Professionellen Umfeld noch sehr viel mit Analogem Zeugs gearbeitet wird.
Warum auch immer...
tombman
2009-10-06, 17:32:42
Die ist übrigens keine Abkürzung, und wird dementsprechend nicht DIE geschrieben ;)
Welche Frau meinst du? ;)
DIE= besser in .de, .at und .ch ....
Wer das Wort nicht kennt, wird auch mit "DIE" nix anfangen.
Spasstiger
2009-10-06, 17:52:08
Das mit dem NVIO ist ja letztlich auch egal für den Endkunden, solange die Anschlussvielfalt nicht leidet. Fehlende RAMDACs kann ich mir ehrlichgesagt nicht vorstellen.
Die drei Möglichkeiten wurden skizziert (NVIO-Chip auf dem PCB, NVIO-Die auf dem GF100-Träger, NVIO in der GPU integriert) und damit ist die Sache für mich hinreichend ausdiskutiert worden.
LovesuckZ
2009-10-06, 18:30:13
Was auch daran liegt, dass bei den meisten Nutzern kein echter Mehrwert gegenüber einer GeForce vorhanden ist. An meiner Uni laufen auch CUDA-Projekte, aber dafür nutzt man halt die billigen GeForces.
Ich bezweifel, ob man dafür die Power benötigt.
Man muss beim HPC sehen, dass eine Fermi Karte ein 8x Tesla System ablösen kann. Man kann also bald wesentlich mehr in der gleichen Zeit erreichen. Imo war Tesla nur die Startlinie und Fermi wird das Rennen beginnen.
Ich vermute das NV einfach alle an der Nase herumführt. Man hat ja reingarnix gesagt auser paar seltsam geleakte FLOPs Zahlen. Tesla und GF100 Karten werden sich in der GPU sicher nicht unterscheiden, wo käme denn NV dahin, wenn sie 2 GPUs fertigen lassen. G80 war auch ein Monsterchip für seine Zeit, und wie immer, wird nV einfach 2 Karten auf den Markt werfen, GTX und GTS/GT. Denn kaputte Cores wollen auch verkauft werden. Einen Schritt nur voll Funktionsfähige G300 Cores auf Tesla zu verbauen und den Rest auf GF100 zu schieben, wäre möglich, aber so crappy kann die Produktion ja garnicht sein. Später dann eine Ultra nachschieben die wie die Tesla Cores dann voll Funktionsfähig sind ist glaube nicht real denkbar.
Der Ansatz mit den super tollen Tesla rausgepickten Chips und der Rest bekommt den Abfall ist sowieso Unfug.
Es sollen also die schnellsten GPUs genommen werden. Diese werden Tesla typisch ein Stückchen unter den Desktop Takt bleiben. Diese werden mit deutlich mehr VRAM bestückt, welcher wiederrum deutlich langsamer als der auf den Desktopkarten ist.
Eigenartiges Konstrukt, was sich einige hier ausdenken.
Für Geforces bleiben dann die teildefekten Chips, welche mit höherem Takt und deutlich schnellerem VRAM betrieben werden.
Das reiht sich ein in der Sinnhaftigkeit, wie die Freude das die Yield bei 2% liegt und Nvidia tatsächlich zig 1000€ GPUs auf 400€ Karten pflanzt ohne mit der Wimper zu zucken.
Ailuros
2009-10-06, 19:03:03
Das mit dem NVIO ist ja letztlich auch egal für den Endkunden, solange die Anschlussvielfalt nicht leidet. Fehlende RAMDACs kann ich mir ehrlichgesagt nicht vorstellen.
Die drei Möglichkeiten wurden skizziert (NVIO-Chip auf dem PCB, NVIO-Die auf dem GF100-Träger, NVIO in der GPU integriert) und damit ist die Sache für mich hinreichend ausdiskutiert worden.
Uhmm mir persoenlich ist NVIO lieber. Die Signalqualitaet auf G80 ist um einen minimalen Strich besser.
reunion
2009-10-06, 19:03:57
Ich vermute das NV einfach alle an der Nase herumführt.
Was NV macht ist vollkommen logisch und nachvollziehbar, aber vorallem aus marktwirtschaftlichen Gründen unbedingt notwendig: Man muss potentielle Käufer davon abhalten sich die Konkurrenzprodukte zu kaufen. Man muss mit allen Mitteln jetzt in der Presse bleiben. Deshalb ist es nur logisch das NV viel Wirbel macht aber wenig sagt. Man muss das eigene, unveröffentlichte Produkt als überlegen dem der Konkurrenz darstellen, natürlich ohne sich konkret festnageln zu lassen. Man würde heute auch nie sagen das neue Produkt kommt erst irgendwann 2010, selbst wenn es definitiv so wäre. Damit würde man potentielle Käufer nur abschrecken. Deshalb sagt man offiziell nichts und streut nur laufend Gerüchte. Wenn sich im November oder Dezember heraus stellen sollte das es 2009 nichts mehr wird ist es ja auch nicht mehr lange bis 2010. NV betreibt jetzt eine klassische Hinhaltetaktik. Ich bin gespannt wann die Karten dann wirklich kommen. Aber bis auf eine Demo, welche angeblich auf diesem neuen Chip lief, von welchem man allerdings nicht mal die Karte zeigen wollte, gibt es bis jetzt wenig das auf den Liefertermin schließen lässt.
RoNsOn Xs
2009-10-06, 19:06:07
Was NV macht ist vollkommen logisch und nachvollziehbar, aber vorallem aus marktwirtschaftlichen Gründen unbedingt notwendig: Man muss potentielle Käufer davon abhalten sich die Konkurrenzprodukte zu kaufen. Man muss mit allen Mitteln jetzt in der Presse bleiben. Deshalb ist es nur logisch das NV viel Wirbel macht aber wenig sagt. Man muss das eigenen, unveröffentlichte Produkt als überlegen dem der Konkurrenz darstellen, natürlich ohne sich konkret festnageln zu lassen. Man würde heute auch nie sagen das neue Produkt kommt erst irgendwann 2010, selbst wenn es definitiv so wäre. Damit würde man potentielle Käufer nur abschrecken. Deshalb sagt man offiziell nichts und streut nur laufend Gerüchte. Wenn sich im November oder Dezember heraus stellen sollte das es 2009 nichts mehr wird ist es ja auch nicht mehr lange bis 2010. NV betreibt jetzt eine klassische Hinhaltetaktik. Ich bin gespannt wann die Karten dann wirklich kommen. Aber bis auf eine Demo, welche angeblich auf diesem neuen Chip lief, von welchem man allerdings nicht mal die Karte zeigen wollte, gibt es bis jetzt wenig das auf den Liefertermin schließen lässt.
DANKE! noch einer der das so sieht.
Hinhalte-taktik hab ich schon gestern erwähnt.
vor 2010 wird da nix mehr launchen.
CrazyIvan
2009-10-06, 19:07:23
Sehr schön, wie Du die klassische Definition von Fear Uncertainty And Doubt runterbetest ;) Recht haste aber
reunion
2009-10-06, 19:08:43
DANKE! noch einer der das so sieht.
Hinhalte-taktik hab ich schon gestern erwähnt.
vor 2010 wird da nix mehr launchen.
Naja, das heißt nicht das es erst 2010 was wird. Ich sage nur man würde es auf jeden Fall so machen, auch wenn es erst 2010 was werden würde. Das heißt aber natürlich nicht zwangsläufig das NV nicht doch schon weit genug ist um die Karten noch 2009 zu launchen. Ich würde auf solche Gerüchte/Aussagen/Scheinaussagen etc. ganz einfach nichts geben.
RoNsOn Xs
2009-10-06, 19:11:17
und was glaubst du persönlich? ;)
Man muss potentielle Käufer davon abhalten sich die Konkurrenzprodukte zu kaufen.
Konkurrenz zur GTX 380 wurde noch nicht gelauncht.
HD 5870 ist kaum verfügbar, ja schonklar, das war kein Paperlaunch, obwohl alles darauf hindeutet.
Logisch an der Geschichte ist vor allem, wie du Nvidia schlecht machst.
Ailuros
2009-10-06, 19:14:39
Was NV macht ist vollkommen logisch und nachvollziehbar, aber vorallem aus marktwirtschaftlichen Gründen unbedingt notwendig: Man muss potentielle Käufer davon abhalten sich die Konkurrenzprodukte zu kaufen. Man muss mit allen Mitteln jetzt in der Presse bleiben. Deshalb ist es nur logisch das NV viel Wirbel macht aber wenig sagt. Man muss das eigenen, unveröffentlichte Produkt als überlegen dem der Konkurrenz darstellen, natürlich ohne sich konkret festnageln zu lassen. Man würde heute auch nie sagen das neue Produkt kommt erst irgendwann 2010, selbst wenn es definitiv so wäre. Damit würde man potentielle Käufer nur abschrecken. Deshalb sagt man offiziell nichts und streut nur laufend Gerüchte. Wenn sich im November oder Dezember heraus stellen sollte das es 2009 nichts mehr wird ist es ja auch nicht mehr lange bis 2010. NV betreibt jetzt eine klassische Hinhaltetaktik. Ich bin gespannt wann die Karten dann wirklich kommen. Aber bis auf eine Demo, welche angeblich auf diesem neuen Chip lief, von welchem man allerdings nicht mal die Karte zeigen wollte, gibt es bis jetzt wenig das auf den Liefertermin schließen lässt.
Ach und ATI ist diesbezueglich unschuldig oder? Vor und nach der G80 Vorstellung hiess es konstant wie besser ihr verbuggter Scheiss mit DX10 angeblich war und man schickte ein teuer bezahltes Flittchen auf die Tanzflaeche zu behaupten dass G80 problematisch sei, zu spaet kommen wuerde usw. usw.
Wieso ueberhaupt die Unruhe? Die Cypress Verfuegbarkeit ist so oder so immer noch ziemlich beschissen und es gibt noch keinen Grund zur Panik. GF100 koennte um einiges schneller sein oder sogar ein FLOP. Es wurde nichts was 3D deutlich angekuendigt nur HPC Zeug dass fuer den Otto-Normalverbraucher wie Du und ich eigentlich gleichgueltig ist.
Ailuros
2009-10-06, 19:15:37
und was glaubst du persönlich? ;)
Seine naechste GPU wird wohl keine Radeon sein :eek:;D
DANKE! noch einer der das so sieht.
Hinhalte-taktik hab ich schon gestern erwähnt.
vor 2010 wird da nix mehr launchen.
Die Informationspolitik in Bezug auf RV870 war Wochen vorm Launch nicht besser.
Nvidia hat keinen Einfluss darauf, das sie von Charlie tag ein tag aus aufs Gröbste misshandelt werden.
Wenn dir die oft richtig liegende Welt des Fuad nicht passt sei es dir gegönnt.
reunion
2009-10-06, 19:20:11
und was glaubst du persönlich? ;)
Ich weiß es nicht. Ich schließe nicht aus oder ein.
Konkurrenz zur GTX 380 wurde noch nicht gelauncht.
HD 5870 ist kaum verfügbar, ja schonklar, das war kein Paperlaunch, obwohl alles darauf hindeutet.
Logisch an der Geschichte ist vor allem, wie du Nvidia schlecht machst.
Bezeichnend das ich mir solche Unterstellungen immer nur von Gästen anhören kann. Niemand den Mumm mit mir auf Augenhöhe zu diskutieren? Was du mit deinen anderen zwei Sätzen bezwecken willst erschließt sich mir nicht. Wer sich eine HD5800 kauft wird wohl nur in den wenigsten Fällen wenig später nochmal zuschlagen. Und auf eine mangelnde Verfügbarkeit wird man sich nicht lange ausruhen können. Das ändert an meinen Aussagen genau nichts.
Ach und ATI ist diesbezueglich unschuldig oder? Vor und nach der G80 Vorstellung hiess es konstant wie besser ihr verbuggter Scheiss mit DX10 angeblich war und man schickte ein teuer bezahltes Flittchen auf die Tanzflaeche zu behaupten dass G80 problematisch sei, zu spaet kommen wuerde usw. usw.
Was willst du jetzt mit ATi? Das hat doch niemand behauptet. Jeder andere würde genau so handeln. Nichts anderes habe ich gesagt.
Ailuros
2009-10-06, 19:25:17
Was willst du jetzt mit ATi? Das hat doch niemand behauptet. Jeder andere würde genau so handeln. Nichts anderes habe ich gesagt.
Ach und dass gerade Du konstant darueber laesterst ist reiner Zufall oder? Gimme a break.
Jeder der hier aufgeführten liegt laut den Shops auf Lager. Du solltest zumindest mal den Link ansehen bevor du irgendwas schreibst.
Ok ich hab zu schnell aufgemacht und auf die falschen Stellen konzentriert Herr Papst.
reunion
2009-10-06, 19:26:57
Seine naechste GPU wird wohl keine Radeon sein :eek:;D
Sicher ist höchstens das deine nächste Karte wieder eine Geforce wird.
Ach und dass gerade Du konstant darueber laesterst ist reiner Zufall oder? Gimme a break.
Wo meckere ich konstant darüber? Weil ich ein paar marktwirtschaftliche Grundlagen ausgeführt habe? Nicht dein erst hoffentlich.
Ailuros
2009-10-06, 19:32:10
Sicher ist höchstens das deine nächste Karte wieder eine Geforce wird.
Wenn ich erstmal ueberhaupt aufrueste. Ich hab momentan andere Prioritaeten.
Wo meckere ich konstant darüber? Weil ich ein paar marktwirtschaftliche Grundlagen ausgeführt habe? Nicht dein erst hoffentlich.
Ja es ist mein Ernst.
Soll ich für Dich auch nach den restlichen Links schauen? Seriöse Beiträge sehen anders aus.
Ich hab meinen Fehler schon eingestanden. Sonst was noch?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.