PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Nakai
2009-11-28, 16:42:40
AMD hat doch die Grenze des machbaren mit ihrer Architektur jetzt gezeigt: 60%/50% Mehrleistung gegenüber der 4870/90 sind nicht gerade ein Argument für den besseren Ansatz.

AMD hat nicht soviel Geld in ihre neue Serie investiert. Da sollte man nicht soviel erwarten. Mal schaun wie der native DX11-Chip aussehen wird. So oder so, man hat bei Evergreen hier und da ein paar Sachen geändert und DX11 implementiert. Wohl oder übel wollte man so früh wie möglich auf den Markt kommen, was einiges erklären sollte.

Abgesehen davon wären unabhängige Taktdomänen imo das Optimum.

Sieht man ja bei Fermi und Co. Man hat Probleme, dass es läuft. Es ist einfach suboptimal, dass man einfach TSMC ein Chipdesign übergibt, welches nichtmal richtig auf den Prozess optimiert ist.


mfg

aths
2009-11-28, 16:45:56
8800GTX hatte 1350MHz Shadertakt, GTX280 hat 1296MHz Shadertakt. Sieht ziemlich identisch aus. Trotzdem schwach wenn man bedenkt dass G80 in 90 nm gefertigt wurde, der GT200 in 65 nm. Selbst der GT200b kommt nur auf 1476 MHz Shader-Takt. G92b lässt sich immerhin auf 1836 ziehen.

Bei NV40-G70-G71 waren die Taktsteigerungen noch deutlich höher.


Der Vergleich G92b und rv770 zeigt, dass nVidia's Ansatz genauso gut ist wie der von AMD. Der GT200 war ja auch gerade gegenüber dem G92 leistungstechnisch enttäuschend, da aus 85% mehr Transistoren, 75% mehr Fläche gerade mal 50% mehr Leistung resultierte. Das hängt davon ab wie man bencht. Es sind eher 50-60, beim Vergleich mit GT200b 60-70% Mehrleistung (ohne Berücksichtung von 8xAA.) Die Performance pro Transistor nahm natürlich ab.


Die Packdichte war auf die Streamprozessoren bezogen. Diese nimmt mit steigender (Ziel)Frequenz ab. Inklusive der zusätzlich benötigten Logik scheint das Endresultat gegenüber der Bruteforcemethodik aktuell kaum Vorteile zu bieten. Also die Frage ob der Aufwand gerechtfertigt ist.Kurzfristig kaum. Mittelfristig wird es auch sehr aufwändig, massiv viele Units mit Daten zu versorgen. Dann könnte es besser sein, weniger Units auslasten zu müssen die dafür weniger Leertakte haben.

Armaq
2009-11-28, 16:49:18
Es ist ja auch "nur" DX11 hinzu gekommen. Ein Vergleich der Architektur ist daher echt für den Po.

Abgesehen davon wären unabhängige Taktdomänen imo das Optimum.
Dynamische unabhängige Taktdomänen wären das Optimum. Darüber wurde ja mal spekuliert und es klingt wirklich gut. :)

Coda
2009-11-28, 16:51:21
AMD hat doch die Grenze des machbaren mit ihrer Architektur jetzt gezeigt: 60%/50% Mehrleistung gegenüber der 4870/90 sind nicht gerade ein Argument für den besseren Ansatz.
Das liegt aber doch nicht an den ALUs, sondern an ganz anderen Dingen.

An Rechenleistung mangelt es der 5870 ganz bestimmt nicht. Man könnte sich schon fast fragen, warum sie überhaupt soviel davon verbaut haben. Weil durchschlagen tut es offensichtlich nicht.

LovesuckZ
2009-11-28, 17:36:53
Die Packdichte war auf die Streamprozessoren bezogen. Diese nimmt mit steigender (Ziel)Frequenz ab. Inklusive der zusätzlich benötigten Logik scheint das Endresultat gegenüber der Bruteforcemethodik aktuell kaum Vorteile zu bieten. Also die Frage ob der Aufwand gerechtfertigt ist.

nVidia entlastet mit ihrer Architektur die Entwickler und ihre eigenen Compiler-Schreiber. Die Vec5-Alus vollständig anzusprechen, ist wesentlich aufwendiger als bei nVidia. Wenn Entwickler diese Arbeit nicht übernehmen, dann bleibt am Ende nicht mehr soviel übrig. Gleichzeitig muss man auch die interne Struktur für soviel Rechenleistung vorbereitet sein.


Sieht man ja bei Fermi und Co. Man hat Probleme, dass es läuft. Es ist einfach suboptimal, dass man einfach TSMC ein Chipdesign übergibt, welches nichtmal richtig auf den Prozess optimiert ist.
mfg

Natürlich ist Fermi richtig auf dem Prozess optimiert - das sieht man schon alleine an den kleinen GT21x Chips. nVidia ist sich also der geringen Packungsdichte bewusst. AMD zeigt auch, dass der Prozess noch sehr problematisch ist, sonst wären sie schon längst mit Massen an Karten auf dem Markt.


Trotzdem schwach wenn man bedenkt dass G80 in 90 nm gefertigt wurde, der GT200 in 65 nm. Selbst der GT200b kommt nur auf 1476 MHz Shader-Takt. G92b lässt sich immerhin auf 1836 ziehen.

G92b hat auch nur 54% der Transistoren des GT200. Die 8800GTX lief auf 575Mhz und verbrauchte knapp doppelt soviel Strom als eine 7900GTX. Eine GT200 läge damit fast auf Kurs der 300 Watt Marke.


Bei NV40-G70-G71 waren die Taktsteigerungen noch deutlich höher.

400Mhz - 430Mhz - 675Mhz. Und der G71 fällt wohl kaum in dem Bereich neue Architektur. G80 lag bei 575/1350Mhz und verbrauchte auch dementsprechend viel Strom.

Es ist ja auch "nur" DX11 hinzu gekommen. Ein Vergleich der Architektur ist daher echt für den Po.


Huch, seit wann ist das eine Ausrede? Komisch, wenn ich mir die Architekturen vom rv770 und rv870 ansehe, dann ähneln die sich ziemlich stark. Aber du hast recht: Wahrscheinlich ist die 8800GTX und die 7900GTX eher verwandt als diese beiden.

Nakai
2009-11-28, 18:10:47
Natürlich ist Fermi richtig auf dem Prozess optimiert - das sieht man schon alleine an den kleinen GT21x Chips. nVidia ist sich also der geringen Packungsdichte bewusst. AMD zeigt auch, dass der Prozess noch sehr problematisch ist, sonst wären sie schon längst mit Massen an Karten auf dem Markt.


Natürlich, sonst würde das ja nicht laufen. Aber Nvidia hat einfach keine eigene Fertigung, genau wie ATI. Ergo muss TSMC versuchen, das Design irgendwie richtig hinzubekommen. Ich weiß nicht, inwieweit ATI oder NV Einblick in TSMC haben, aber man siehts ja bei CPUs. Da is der Prozess auf den Prozessor optimiert und der Prozessor auf den Prozess.


mfg

Botcruscher
2009-11-28, 18:20:28
Huch, seit wann ist das eine Ausrede? Komisch, wenn ich mir die Architekturen vom rv770 und rv870 ansehe, dann ähneln die sich ziemlich stark. Aber du hast recht: Wahrscheinlich ist die 8800GTX und die 7900GTX eher verwandt als diese beiden.

Na klar, Ati hat DX11 und die anderen Änderungen mal einfach so rein gezaubert ohne das Design auch nur komplexer zu machen. Dazu waren überhaupt keine Transistoren nötig. KEINE! Alle Gegenteiligen Behauptungen sind nur Ausreden, ja wohl! Wollen wir nicht gleich mit R600 vergleichen?:rolleyes:

Gast
2009-11-28, 18:20:46
Trotzdem schwach wenn man bedenkt dass G80 in 90 nm gefertigt wurde, der GT200 in 65 nm. Selbst der GT200b kommt nur auf 1476 MHz Shader-Takt. G92b lässt sich immerhin auf 1836 ziehen.

Von G80 (8800 GTX) nach G92 (9800 GTX+) sind es gerade mal 28% bzw. 36% Taktsteigerung.
Die GPU wurde nicht breiter, sondern teils schmaler. Z.b. ROPs und SI.
Die ROP Takterhöhung ist entäuschend, mit Hinblick auf die Halbierung eine Katastrophe. Die Shadertakterhöung ist mau.

Von G70 nach G71 wurde der Takt um 50% gesteigert, die GPU Breite blieb identisch.

Wie du siehst ist es kein generelles GT200 Problem, G92 ist ganz im Gegenteil kein Taktwunder.
So betrachtet wirkt GT200 gleich ganz anders.

Gast
2009-11-28, 18:24:10
Das liegt aber doch nicht an den ALUs, sondern an ganz anderen Dingen.

An Rechenleistung mangelt es der 5870 ganz bestimmt nicht. Man könnte sich schon fast fragen, warum sie überhaupt soviel davon verbaut haben. Weil durchschlagen tut es offensichtlich nicht.
Mit den obigen Lobpreisungen verglichen komme ich zum Schluss das RV870 das Ende der R600 Ära aufzeigt.
Die Skalierung ist am Ende, weiter gehts nur mit einem neuen Ansatz.

igg
2009-11-28, 18:47:13
das RV870 das Ende der R600 Ära aufzeigt.
Die Skalierung ist am Ende, weiter gehts nur mit einem neuen Ansatz.
Manhattan soll ja auch was neues sein

Gast
2009-11-28, 23:03:21
Der Vergleich G92b und rv770 zeigt, dass nVidia's Ansatz genauso gut ist wie der von AMD. Der GT200 war ja auch gerade gegenüber dem G92 leistungstechnisch enttäuschend, da aus 85% mehr Transistoren, 75% mehr Fläche gerade mal 50% mehr Leistung resultierte. 50% beziehen sich auf theoretische flops oder benchmarks?
NVidia arbeitet eben nicht nur dran mehr FLOPs auf den zettel zu schreiben, sondern sie auch nutzbar zu machen. soweit ich weiss hat der GT200 3mal mehr speicher um mehr temporary register zu nutzen. das spart zugriffe auf den hauptspeicher bzw erlaubt weit mehr threads und am ende bringt es also mehr leistung als einfach nur mehr flops zu bieten.

LovesuckZ
2009-11-28, 23:10:44
50% beziehen sich auf theoretische flops oder benchmarks?


Nein, es bezog sich auf die durchschnittliche Leistung.

Gipsel
2009-11-29, 11:14:51
soweit ich weiss hat der GT200 3mal mehr speicher um mehr temporary register zu nutzen. das spart zugriffe auf den hauptspeicher bzw erlaubt weit mehr threads und am ende bringt es also mehr leistung als einfach nur mehr flops zu bieten.
Historisch gesehen besteht bei nvidia aber auch ein eklatanter Mangel an Registern (GT200 ist aber okay). Nach den bisherigen Daten wird Fermi in der Summe nur 40% der Register wie Cypress bieten (da wird im Vergleich zu GT200 sogar wieder gespart). Wie sich das auswirkt, wird man sehen müssen. Eventuell hat ja nv die Latenzen der Ausführungseinheiten gesenkt, so daß weniger Threads in-flight benötigt werden.
Daß das neue Cache-System darauf ausgelegt sein könnte, die Latenzen von Texturzugriffen zu senken, wurde ja schon mal kurz diskutiert. Bisher erhöhen die Caches ja hauptsächlich die Bandbreite und haben höllisch hohe Latenzen (verglichen mit CPUs, größenordnungsmäßig ~100 Takte bei GPUs), dafür aber auch eine sehr hohe Assoziativität (bis hin zu voll assoziativ). Hier könnte nvidia umgestellt haben, um weniger Threads (und damit Register) zu benötigen. Bei Aufgaben mit nur mäßiger Parallelität könnte das auch ordentlich was bringen.

Carsten_Gast
2009-11-29, 11:47:31
Der Ansatz von AMD ist in so weit auch nicht besser. Von der technischen Seite ist der von Nvidia gewählte Weg durchaus logisch. Genau so gut ist meiner Meinung aber nicht ausreichend um den Mehraufwand und die damit verbundenen Risiken zu rechtfertigen.

Nvidia hat aber noch einen weiteren Grund, eine möglichst hohe Ausführungsgeschwindigkeit in den einzelnen Shadern erreichen zu wollen oder gar zu müssen den AMD bislang in ihren GPUs nicht hat. Spätestens mit Fermi sollte das doch eigentlich klar geworden sein.


–Carsten.

LovesuckZ
2009-11-29, 17:30:00
Historisch gesehen besteht bei nvidia aber auch ein eklatanter Mangel an Registern (GT200 ist aber okay). Nach den bisherigen Daten wird Fermi in der Summe nur 40% der Register wie Cypress bieten (da wird im Vergleich zu GT200 sogar wieder gespart). Wie sich das auswirkt, wird man sehen müssen. Eventuell hat ja nv die Latenzen der Ausführungseinheiten gesenkt, so daß weniger Threads in-flight benötigt werden.


Von welchen Register(speicher) wird gesprochen? Der für die SM erhöht sich leicht bei Fermi.
Zu den Threads: Anandtech.com schrieb, dass nVidia erwähnte, dass der Shared-Memory eher limitiere als die 30k möglichen Threads und deswegen die Reduzierung keine Auswirkung haben wede.

deekey777
2009-11-29, 17:48:05
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5

Nvidia (Fermi vs. GT200): 16*128 vs. 30*64

RV770/Cypress: 256 KB pro SIMD (wenn ich mich nicht irre)

Gipsel
2009-11-29, 23:31:16
Von welchen Register(speicher) wird gesprochen? Der für die SM erhöht sich leicht bei Fermi.
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5
Nvidia (Fermi vs. GT200): 16*128 vs. 30*64
RV770/Cypress: 256 KB pro SIMD (wenn ich mich nicht irre)
Genau, wobei man dazu sagen muß, daß die Anzahl der "CUDA Cores", sprich Einheiten pro SM sich vervierfacht hat. Die Register pro Einheit halbieren sich also bei Fermi im Vergleich zu GT200 (insgesamt mehr als doppelt so breit, aber nur minimal mehr Register).
Zu den Threads: Anandtech.com schrieb, dass nVidia erwähnte, dass der Shared-Memory eher limitiere als die 30k möglichen Threads und deswegen die Reduzierung keine Auswirkung haben wede.???
Bei Grafikanwendungen spielt shared memory erstmal gar keine Rolle und bei GPGPU kann man das auch nicht verallgemeinern, da doch jeder Algo sehr unterschiedliche Anforderungen stellen kann. Ich denke mal nv hat nicht umsonst die Aufteilung in shared memory bzw. Cache flexibel gestaltet. Bei Fermi wird man wohl darauf setzen, daß man mit weniger parallelen Threads auskommt, also die 30k Threads nicht ausnutzen muß. Wenn Fermi doppelt so viele parallele Threads unterstützen müßte um schneller zu sein, hätte nv Fermi auch mehr Register verpaßt, da die sonst sehr schnell limitieren können (auf G80/G92 öfter mal ein Problem).

LovesuckZ
2009-11-30, 16:32:04
Genau, wobei man dazu sagen muß, daß die Anzahl der "CUDA Cores", sprich Einheiten pro SM sich vervierfacht hat. Die Register pro Einheit halbieren sich also bei Fermi im Vergleich zu GT200 (insgesamt mehr als doppelt so breit, aber nur minimal mehr Register).


Die Cores pro SM haben sich aber praktisch nur verdoppelt, da zwei unabhängige Dispatcher zwei unabgängige Vec16 ALUs ansprechen.
Und ja, ich weiß, dass nVidia von einer Vervierfachung spricht. Würde man nur die absolute Zahl nehmen, wäre man auch nur um 1/3 gestiegen.

Aquaschaf
2009-11-30, 16:43:49
Bei Grafikanwendungen spielt shared memory erstmal gar keine Rolle

Liegt der wirklich einfach brach? Ich hätte erwartet dass der wenigstens noch Verwendung finden kann wenn die Register knapp werden?

Gipsel
2009-11-30, 17:07:08
Die Cores pro SM haben sich aber praktisch nur verdoppelt, da zwei unabhängige Dispatcher zwei unabgängige Vec16 ALUs ansprechen.
Und ja, ich weiß, dass nVidia von einer Vervierfachung spricht. Würde man nur die absolute Zahl nehmen, wäre man auch nur um 1/3 gestiegen.
Dann ziehen wir doch mal einen dicken Strich und schauen einfach, was darunter herauskommt:

GT200: 240 "Cuda Cores", 1,875MB Register
Fermi: 512 "Cuda Cores", 2,0 MB Register
RV770: 160 VLIW/ 800 ALUs, 2,5 MB Register
RV870: 320 VLIW/1600 ALUs, 5,0 MB Register

Gipsel
2009-11-30, 17:09:06
Liegt der wirklich einfach brach? Ich hätte erwartet dass der wenigstens noch Verwendung finden kann wenn die Register knapp werden?
Bei Fermi wird das dann wohl einfach als L1 genutzt. Bei anderen GPUs liegt es brach. Wenn die Register nicht ausreichen, wird das bisher normalerweise in den Speicher ausgelagert (todlangsam), bei RV770 aber wohl zuerst in den GlobalDataShare.

deekey777
2009-11-30, 17:12:03
Also wird das GDS benutzt?

Coda
2009-11-30, 17:37:56
Die Frage ist, ob die 4096 Register/SM wirklich stimmen. Ail hat mal angedeutet, dass da evtl. immer noch der falsche Wert im Whitepaper ist.

Ich fände es seltsam, wenn man da in Hinblick auf GPGPU wirklich einen Rückschritt macht.

Carsten_Gast
2009-11-30, 17:47:38
Eigentlich sind die Registerstalls in Fermi nicht mehr so dramatisch wie im GT200 (und vorher). Da macht es durchaus Sinn, den Speicher und damit die Transistoren ins Shared-Memory/L1 auszulagern, wohin die Register sowieso erstmal überlaufen und wo die Bytes auch noch für andere Dinge genutzt werden können.


-Carsten.

Aquaschaf
2009-11-30, 18:01:44
Ich fände es seltsam, wenn man da in Hinblick auf GPGPU wirklich einen Rückschritt macht.

Ob es ein Rückschritt ist kann man ja erst sagen, wenn man weiß wieviele Threads notwendig sind um einen Prozessor auszulasten.

Gipsel
2009-11-30, 18:13:31
Also wird das GDS benutzt?Gerüchteweise ja, richtig dokumentiert ist es nicht. Das wird intern gehandhabt, als Programmierer hat man erst mit Evergreen Zugriff drauf.
Die Frage ist, ob die 4096 Register/SM wirklich stimmen. Ail hat mal angedeutet, dass da evtl. immer noch der falsche Wert im Whitepaper ist.Es sind 32768 Register pro SM (also 1024 pro "Cuda Core", GT200 hat 2048 pro "Core") und ja, im Whitepaper steht offensichtlich was Falsches dazu.
Eigentlich sind die Registerstalls in Fermi nicht mehr so dramatisch wie im GT200 (und vorher). Da macht es durchaus Sinn, den Speicher und damit die Transistoren ins Shared-Memory/L1 auszulagern, wohin die Register sowieso erstmal überlaufen und wo die Bytes auch noch für andere Dinge genutzt werden können.Hmm, woher wissen wir das denn? Offensichtlich ist sich nvidia sicher, daß das keine große Rolle spielen wird, ansosnsten hätten sie mehr Register vorgesehen. Aber wenn man mal G80/G92 mit GT200 vergleicht, so bringt das Mehr an Registern bei komplexen Shadern doch schon was. Das man da im Vergleich zum GT200 wieder abbaut, zeigt wohl, daß nvidia sich ziemlich sicher mit ihrer Cache-Struktur ist. Die Register reichen wohl nicht, um Speicherzugriffe abzufangen, sondern nur für die Ausführungslatenzen.

deekey777
2009-12-01, 00:16:07
Wie schnell ist das Shared Memory (1,44 TB/s?) bzw. das Registerfile des GT200?
Beim RV770 kommt das Registerfile auf 7680 GB/s, das LDS ist da deutlich gemächtlicher (wie L1 mit 480 GB/s?).

Gast
2009-12-01, 10:09:08
OT aber interessant:

http://www.glassdoor.com/Reviews/NVIDIA-Reviews-E7633.htm

(feel free to move to the appropriate thread)

LovesuckZ
2009-12-01, 10:28:22
OT aber interessant:

http://www.glassdoor.com/Reviews/NVIDIA-Reviews-E7633.htm

(feel free to move to the appropriate thread)

Ob denn alle 1.0 und 2.0 schon gekündigt haben? Wieviel Wert hat solch eine Note von jemanden, der dort freiwillig weiterarbeitet?

Soundwave1983
2009-12-01, 10:57:23
Dazu fällt mir eigentlich nur der Spruch "Keine Firma ist so schlecht wie sie von innen aussieht und so gut wie sie von außen scheint" ein. :)

Gast
2009-12-01, 11:06:44
Ob denn alle 1.0 und 2.0 schon gekündigt haben? Wieviel Wert hat solch eine Note von jemanden, der dort freiwillig weiterarbeitet?
zuviel. solche leute zerstören das kleine bisschen übriggebliebenes soziales engagement. abgesehen von der teppichetage die eh immer dasselbe tut.

PCGH_Carsten
2009-12-01, 11:58:24
Hmm, woher wissen wir das denn?
Es ist einfach nur eine mögliche, aber IMHO wahrscheinliche Schlussfolgerung aus der Tatsache, dass die einzelnen SMs (ex-TPCs) unterschiedliche Kernel ausführen können. Das bedeutet gleichzeitig, dass ein Kernel mit wahnsinnigen Registeranforderungen nur noch den/die belegten SMs bremst, der Rest des Chips arbeitet weiter.

Das war bei GT200 und früher noch mit wesentlich dramatischeren Auswirkungen verbunden.

Natürlich ist mehr Registerspeicher immer auch besser, aber irgendwo muss man ja auch Trade-Offs machen zwischen Intra- und Inter-Thread-Kommunikation.

Gipsel
2009-12-01, 16:06:48
Es ist einfach nur eine mögliche, aber IMHO wahrscheinliche Schlussfolgerung aus der Tatsache, dass die einzelnen SMs (ex-TPCs) unterschiedliche Kernel ausführen können. Das bedeutet gleichzeitig, dass ein Kernel mit wahnsinnigen Registeranforderungen nur noch den/die belegten SMs bremst, der Rest des Chips arbeitet weiter.

Das war bei GT200 und früher noch mit wesentlich dramatischeren Auswirkungen verbunden.

Natürlich ist mehr Registerspeicher immer auch besser, aber irgendwo muss man ja auch Trade-Offs machen zwischen Intra- und Inter-Thread-Kommunikation.
Das mit den unterschiedlichen Kernels können die Evergreens ja angeblich auch. Außerdem ist es im Endeffekt fast egal, ob ich einen Kernel auf einen SM beschränke und die Register nur bei diesem SM überlaufen oder bei allen. Schneller fertig wird das dadurch auch nicht. Das mit den unabhängigen Kerneln ist meiner Meinung nach doch hauptsächlich eine Möglichkeit auch kleinere Execution Domains effizienter abzuarbeiten bzw. dann vielleicht auch mal Kernels in Producer/Consumer-Manier effizienter zu ermöglichen.

PCGH_Carsten
2009-12-01, 17:27:38
Nein, es wird nicht schneller fertig; aber besser, ich habe einen von 16 SMs gestalled, als den gesamten Chip (und womöglich idlen dann 15 von 16 SMs hunderte von Takten). Und soweit ich weiß, können die Register in Fermi in den L1 überlaufen, was auf GT200 und früher noch in den zigfach langsameren und latenteren VRAM passierte.

Gipsel
2009-12-01, 17:40:04
Nein, es wird nicht schneller fertig; aber besser, ich habe einen von 16 SMs gestalled, als den gesamten Chip (und womöglich idlen dann 15 von 16 SMs hunderte von Takten).
Ob jetzt ein einziger SM die Zeit X wegen zuwenig Registern ausgebremst wird oder alle 16 SMs für die Zeitdauer X/16, dürfte unter dem Strich für große execution domains meist auf das Gleiche herauskommen ;)

deekey777
2009-12-01, 17:49:59
Ob jetzt ein einziger SM die Zeit X wegen zuwenig Registern ausgebremst wird oder alle 16 SMs für die Zeitdauer X/16, dürfte unter dem Strich für große execution domains meist auf das Gleiche herauskommen ;)

Tststs... Das ist aber ein Begriff, den die Konkurrenz verwendet. Bei Nvidia heißen sie "Grids", wenn ich mich nicht irre.

Gipsel
2009-12-01, 18:05:43
Tststs... Das ist aber ein Begriff, den die Konkurrenz verwendet. Bei Nvidia heißen sie "Grids", wenn ich mich nicht irre.Bei ATI heißt es auf der CAL-Ebene auch schon immer Grid (bzw. Grid Array wenn man mehrere Kernel hintereinander hängt). Domain of execution fasse ich eher als übergeordneten Begriff auf, auch wenn er in Brook so verwendet wird ;)

LovesuckZ
2009-12-01, 19:49:59
Laut Michael Hara* werde in Q1 eine Rekordanzahl an Fermi-basierte Produkte veröffentlicht werden.

2009 Fall Investor Conference - Webcast (ca. 10:20)

Gipsel
2009-12-01, 19:57:38
Laut Michael Hara* werde in Q1 eine Rekordanzahl an Fermi-basierte Produkte veröffentlicht werden.Na das ist ja auch nicht schwer. Bisher wurden genau Null Fermi-basierte Produkte vorgestellt. Also sobald da überhaupt was kommt, ist das ein Rekord ;D

Gast
2009-12-01, 20:01:53
veröffentlichen ist ja zudem auch was anderes als liefern...

LovesuckZ
2009-12-01, 20:05:08
veröffentlichen ist ja zudem auch was anderes als liefern...

nVidia kann schon liefern, bevor sie etwas veröffentlichen. :D

Na das ist ja auch nicht schwer. Bisher wurden genau Null Fermi-basierte Produkte vorgestellt. Also sobald da überhaupt was kommt, ist das ein Rekord ;D

"Record number of new products based on fermi."
Es geht nicht darum, dass sie etwas veröffentlichen, sondern das die Anzahl an basierten Fermiprodukten hoch sein soll. Und ich bezweifel, dass hier 10xGeforce und 20xQuadro Karten gemeint waren.

Auch interessant: Margen liegen bei Tegra bei 50%, Tesla bei ca. 60% und Quadro bei 70%. Wenn man sich überlegt, dass Tegra und Tesla zZ kaum vorhanden sind und Quadro um die Hälfte eingebrochen ist vom Umsatz/Gewinn, dann wird man das Wegbrechen des Chipsatzbusiness sehr gut abfangen können.

Dural
2009-12-01, 20:15:08
ich bin schon richtig auf den Fermi gespannt, wird sicher gut! hab gestern noch eine GT240 GDDR5 bestellt, da hab ich wenigstens eine 40nm NVIDIA Karte zum "Spielen" ;)

sucht einer eine 5870? Noch schnell verkaufen bevor die Preise fallen wenn Fermi da ist ;)

reunion
2009-12-01, 20:17:51
"Record number of products based on fermi."
Es geht nicht darum, dass sie etwas veröffentlichen, sondern das die Anzahl an basierten Fermiprodukten hoch sein soll. Und ich bezweifel, dass hier 10xGeforce und 20xQuadro Karten gemeint waren.

Eine "Record number" ist trotzdem ziemlich lächerlich wenn es bis jetzt null gibt. Zudem spricht er eindeutig von einer Rekordanzahl von "products based on fermi", nicht von der Anzahl der Karten. NV hat ja schon vorher angekündigt im Q1 Fermi Produkte sowohl für Desktop- als auch Tesla- und Quadro-Produkte vorzustellen. Und selbst wenn er die Anzahl der Karten meinen würde, was soll das aussagen? Eine Rekordanzahl im Vergleich zu was?

Dural
2009-12-01, 20:21:08
villeicht meint er ja auch schon die kleinen fermi GPUs, die dürften unter der verschiebung des GF100 und den 40nm problemen ja kaum / weniger betroffen sein

Botcruscher
2009-12-01, 20:26:47
Falls die wirklich schon kommen sollten sind die 40nm G2XX noch sinnfreier. Womöglich werden es ja umbenannte G210.;D So oder so, man darf gespannt sein.:)

AnarchX
2009-12-01, 20:30:25
Falls die wirklich schon kommen sollten sind die 40nm G2XX noch sinnfreier.
Wenn man sich die Zahl der OEM-Systeme mit GT21x-GPU anschaut, dann war die Veröffentlichung, wenn auch fast zwei Quartale verspätet, nicht so sinnfrei.
Und bis zu einem Q1-Launch und der Verfügbarkeit entsprechender Stückzahlen vergeht auch wieder einige Zeit.

Botcruscher
2009-12-01, 20:34:13
Die Stückzahlen sind auch bitter nötig. Im OEM Markt wundert der Erfolg auch wenig, Ati ist da etwas im Hintertreffen. Die 210 ist ja insgesamt auch ein solides Kärtchen für den Markt.

PS: Und mit kleine Fermi GPUs hatte ich eigentlich eher den Mainstream bis zum oberen Low-End in Blick.

LovesuckZ
2009-12-01, 20:35:26
Wenn man sich die Zahl der OEM-Systeme mit GT21x-GPU anschaut, dann war die Veröffentlichung, wenn auch fast zwei Quartale verspätet, nicht so sinnfrei.
Und bis zu einem Q1-Launch und der Verfügbarkeit entsprechender Stückzahlen vergeht auch wieder einige Zeit.

Was sollte nVidia auch anderes machen? 3 fertige Chips einfach wegwerfen, weil TSMC nicht nachkommt? Mit den 40nm Produkten konnten sie teure 55nm Produkte aussortieren und gleichzeitig OEM Deals für den Herbst bekommen. Das sich das im Frühjahr ändern wird, dazu muss man kein Charlie sein. Aber ohne die 40nm Produkte, die dank gleicher Margen zu 55nm in der Fertigung nicht teurer sind, hätte man vorallem im Low-End Bereich massiv an Boden verloren.

/edit: Und selbst heute erhält nVidia nicht genug Chips von TSMC. Das, was sie bekommen, müssen sie unter ihren Partnern aufteilen.

Carsten_Gast
2009-12-01, 22:23:11
Vergesst nicht den anderen Faktor, den GT21x-GPUs haben: Sie belegen 40nm-Produktionsressourcen.


-Carsten.

Gast
2009-12-01, 22:49:50
Was willst du uns damit sagen?
Soll Nvidia auf ihren Anteil verzichten und teure 55nm Produkte weiterlaufen lassen, damit mehr Wafer für AMD über bleiben?

Umgekehrt macht es mehr Sinn, das wirtschaftliche Chips produziert werden, deren Yield auch in absehbarerer Zeit zufrieden stellend werden kann.
Eine reine Ressourcenverschwendung tonnenweise Wafer voller defekter Monster-GPUs in den Müll zu schmeissen.

Besonders wenn TSMC für die Verluste aufkommt werden sie sich hüten mehr Abfall als nötig zu produzieren.

Dural
2009-12-01, 23:04:00
er will damit wohl sagen das NV vertraglich zugesicherte (oder auch nicht...) mengen an GT21x Chips hat, wenn die Chips nicht da wären würde ATI den gesamten 40nm Kuchen abbekommen, logisch oder?

und das tolle für NV, die werden mit den GT21x Chips noch richtig viel Geld machen, schaut doch nur mal die grösse der DIEs und die Preise an!!! Ich habs schon mal gesagt, die wenige monate unterschid zwischen ATI und NV DX11 wird NV Garantiert nicht schaden, viel wichtiger ist die Zeit danach wenn 40nm eingermassen gut läuft und alles Lieferbar ist! Mich nimmt es ja schon sehr wunder wie ATi mit dem RV870 fast ein Jahr durchhalten kann, auch ein kleiner Refresh wird an dieser situation nichts ändern.

hoffe einfach schon das der GF100 min. 50% schneller als der GT200 ist, dann heist es wieder GTX360 vs 5870 und GTX380 vs 5950

Gast
2009-12-01, 23:12:03
AMD würde mehr bekommen, TSMC größere Verluste machen. Weiter?

Gäbe es kein AMD könnte Nvidia auch größere Gewinne machen. Irgendwie eine seltsame Feststellung. Zwar richtig aber seltsam.

Gast
2009-12-02, 13:55:22
hoffe einfach schon das der GF100 min. 50% schneller als der GT200 ist, dann heist es wieder GTX360 vs 5870 und GTX380 vs 5950


Mehr als doppelt so viele ALUs, 60% mehr TMUs und geschätzt 50% mehr Bandbreite (hängt natürlich vom endgültigen Speichertakt ab).

Also 50% mehr als GT200 sollten wohl leicht möglich sein, in vielen fällen wohl deutlich mehr.

sklave_gottes
2009-12-02, 15:24:16
Mehr als doppelt so viele ALUs, 60% mehr TMUs und geschätzt 50% mehr Bandbreite (hängt natürlich vom endgültigen Speichertakt ab).

Also 50% mehr als GT200 sollten wohl leicht möglich sein, in vielen fällen wohl deutlich mehr.

Das kann man so leicht nicht sagen. Auch wenn die Spekulierten Zahlen stimmen sollten(was quasi ja schon fast sicher ist), spielen da noch viele andere Faktoren mit ein.

z.b. hat der gf100 zwar mehr als doppel soviel alus, nur weis keiner wie stark die sind.
so wie zur zeit spekuliert wird, hätte gf100 mit den selben taktraten wie eine 285 GTX bei weitem keine mehr als doppelt so hohe peak Rechnenleistung, da das mul wegfählt.

285 GTX 240*3*1476mhz = 1.063 GFLOPs
gf100@285 512*2*1476mhz = 1.511 GFLOPs

Also nicht mal 50% mehr peak Rechnenleistung.

Auch der Takt ist noch in den Sternen....

mfg martin

LovesuckZ
2009-12-02, 16:04:07
Genauso wie bei AMD ist die Peak-Leistung nur in wenigen Anwendungen erreichbar. Bei GF100 gibt es keine blockierte MUL mehr, sondern zwei unabhängige Vec16 ALUs. Die SFU blockieren nicht mehr vollständige die Recheneinheiten sondern nur noch 50%. Die reinen MADD-Einheiten erhöhen sich um 2,13x. Und die Stärke der ALUs sind bekannt.

Coda
2009-12-02, 16:31:47
Bei GF100 gibt es keine blockierte MUL mehr, sondern zwei unabhängige Vec16 ALUs.
Was die effektive Rechenleistung verringert.

Die SFU blockieren nicht mehr vollständige die Recheneinheiten sondern nur noch 50%
Die SFUs haben noch nie irgendwas blockiert. Bei G80/GT200 konnten sie komplett parallel arbeiten, weil das Instruction-Dispatch abwechselnd zwischen ALUs und SFUs erfolgte. bei Fermi nur noch wenn gerade keine Instruction an die ALUs raus geht.

LovesuckZ
2009-12-02, 22:28:35
Die SFUs haben noch nie irgendwas blockiert. Bei G80/GT200 konnten sie komplett parallel arbeiten, weil das Instruction-Dispatch abwechselnd zwischen ALUs und SFUs erfolgte. bei Fermi nur noch wenn gerade keine Instruction an die ALUs raus geht.

Das sieht nVidia (jetzt) anscheinend anders:
Immerhin blockieren nun SFU-Operationen den SM nicht mehr für ewig lange acht Takte, der zweite Dispatcher kann weiterhin Int32- oder FP32-Befehle verteilen.
http://www.heise.de/ct/artikel/Fermis-goldene-Regel-811487.html

In previous architectures, the SM dispatch logic was closely coupled to the execution hardware. If you sent threads to the SFU, the entire SM couldn't issue new instructions until those instructions were done executing. If the only execution units in use were in your SFUs, the vast majority of your SM in GT200/G80 went unused. That's terrible for efficiency.


The good news is that the SFU doesn't tie up the entire SM anymore. One dispatch unit can send 16 threads to the array of cores, while another can send 16 threads to the SFU. After two clocks, the dispatchers are free to send another pair of half-warps out again. As I mentioned before, in GT200/G80 the entire SM was tied up for a full 8 cycles after an SFU issue.

The flexibility is nice, or rather, the inflexibility of GT200/G80 was horrible for efficiency and Fermi fixes that.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=4

turboschlumpf
2009-12-02, 22:35:26
Was die effektive Rechenleistung verringert.Aber die Effizienz erhöht.

Coda
2009-12-03, 01:13:40
Nö. Die SFU-Einheiten liegen auf Fermi komplett brach wenn sie nicht gebraucht werden, bei G80 konnten sie zusätzlich verwendet werden.

Das sieht nVidia (jetzt) anscheinend anders:
Da interpretiert heise (und auch Anandtech) aber falsch. Fermis SM besteht praktisch aus zwei SMs die sich SFU und Load/Store teilen.

Der korrekte Vergleich zu G80 wäre, dass wenn ein SM stallt der andere natürlich trotzdem weitermachen kann. Das ist bei Fermi auch nicht anders, dort kann der nichtstallende Dispatcher nämlich auch nur eine ALU versorgen.

Auch hatte bei G80 jeder SM seine eigenen SFUs. Dass da ein anderer stallen würde im Cluster ist auch nicht wahr.

Kurz: Ein Fermi-SM mit 2x16 ALUs ist rein auf dem Papier schwächer als es eine 4x8-G80-Architektur gewesen wäre. Fermi investiert die Transistoren wohl in DP.

mapel110
2009-12-03, 13:52:47
nvidia needs another re-spin to get Fermi on competitive performance, no release until fall 2010. (http://www.youtube.com/watch?v=yFgl9HkK9Z0)

Wenns keine Gerüchte gibt, muss man halt selbst was machen. ;( Nicht mal einen neuen Funfact über Twitter gabs.

LovesuckZ
2009-12-03, 13:58:45
Sie haben den Twitter-Account nicht geupdatet:
Fun fact of the week: GF100 packs in over 3B (billion!) transistors for maximum gaming awesomeness!
http://www.facebook.com/NVIDIA?ref=mf

Ansonsten schreib Tape-Out statt Respin. Das klingt viel ernster!

Ailuros
2009-12-03, 14:02:29
nvidia needs another re-spin to get Fermi on competitive performance, no release until fall 2010. (http://www.youtube.com/watch?v=yFgl9HkK9Z0)

Wenns keine Gerüchte gibt, muss man halt selbst was machen. ;( Nicht mal einen neuen Funfact über Twitter gabs.


Ich zeig Dir mal wie man anstaendig fuer Furore sorgt: seit letztem Freitag bin ich ein stolzer Vater. :P

mapel110
2009-12-03, 14:42:11
Ich zeig Dir mal wie man anstaendig fuer Furore sorgt: seit letztem Freitag bin ich ein stolzer Vater. :P
Mein Englisch hat nicht ausgereicht, um den Satz auf B3D zu verstehen. Dann gratulier ich mal herzlich hier. :)

Ailuros
2009-12-03, 14:49:38
Herzlichen Dank :)

reunion
2009-12-03, 15:39:14
Fuad: Nvidia volume Fermi shipping late Q1 : January for samples

In January, Nvidia should have the final samples and a limited number of Fermi Geforce GT300 chips, but the launch might take place later.

If pushed, Nvidia might launch Fermi Geforce in late January as the final chips should be there by then, but real volume shipments should start towards end of Q1 2010.

The most realistic availability date is March 2010, and again only if everything goes right. Judging by our previous information, Nvidia delayed its plans by more than one, if not two quarters.

This is rather unpleasant for Nvidia and the only thing that really keeps Nvidia sane is the fact that ATI also suffers from massive shortages of its 40nm RV870 based chips.

http://www.fudzilla.com/content/view/16685/1/

Damit ist nun auch Fuad auf März eingeschwenkt. Erst im Januar soll es die finalen Samples geben und damit wäre dort höchstens ein Paperlaunch möglich.

mapel110
2009-12-03, 15:48:01
Na prima, also kann man derzeit eigentlich nix falsch machen mit einer überteuerten Radeon. Es wird noch lange nicht besser. Ausnahmsweise sind die Early Adopters nicht die Trottel und die Deppensteuer zahlen alle Nachzügler...

James Ryan
2009-12-03, 15:49:33
Die Meldungen über Verspätungen reißen nicht ab.
Ich denke das war diesmal wirkich das letzte Mal, dass NVIDIA neue Fertigung + komplett neue GPU-Generation verbindet.

MfG :cool:

LovesuckZ
2009-12-03, 15:56:45
Die Meldungen über Verspätungen reißen nicht ab.
Ich denke das war diesmal wirkich das letzte Mal, dass NVIDIA neue Fertigung + komplett neue GPU-Generation verbindet.

MfG :cool:

Nein, denn diesmal betrifft es auch AMD. Cypress ist seit über 10 Wochen draußen und die Verfügbarkeit ist immer noch miserabel. Gegen Juniper hätten sie sowieso nichts entgegen zusetzen. nVidia's Problem ist einfach, dass ihr ca. 500mm^2 Chip zZ nicht in 40nm gefertigt werden kann. Die Probleme haben das Tape-Out verschoben und am Ende muss man warten, bis die Yields einigermaßen im gelben Bereich sind.
Und in 55nm hätten sie doch überhaupt keine Chance gehabt. Der Gt200b ist schon 480mm^2 groß und für eine vernünftige Leistungssteigerung benötigen sie mindesten 50% mehr Transistoren. Und dann läuft man auf die 600mm^2+ und 300 Watt Grenze zu. 40nm war die einzige Möglichkeit für sie.


TSMC's 40nm process maturity can simply be described as disastrously bad. According to our sources, yields are currently at around 50 percent, which is catastrophic for a „mature“ and more than a year old process.

The worst part is that nothing will change in early 2010. The shortage will last throughout Q1 2010 and both ATI’s RV870 and Nvidia’s Fermi will be heavily affected to their die size and complexity.
http://www.fudzilla.com/content/view/16686/65/

Henroldus
2009-12-03, 16:17:29
Nein, denn diesmal betrifft es auch AMD. Cypress ist seit über 10 Wochen draußen und die Verfügbarkeit ist immer noch miserabel. nVidia's Problem ist einfach, dass ihr ca. 500mm^2 Chip zZ nicht in 40nm gefertigt werden kann.
Du widersprichst Dir selbst!
ATI hat keine Probleme, es hüpfen funktionsfähige Chips von den 40nm Wafern.
Soweit ist Nvidia eben noch nicht.
Unter den mangelnden 40nm Kapazitäten bei TSMC leider allerdings beide.

wenn die Fermis dann endlich mal lieferbar werden läuft auch die 40nm Produktion.
Fermi wird dann fast ein halbes Jahr nach Cypres Vorstellung womöglich schon gegen ein Refresh bzw HD 5890 antreten müssen und das mit größerer Chipfläche.

reunion
2009-12-03, 16:18:50
Du widersprichst Dir selbst!
ATI hat keine Probleme, es hüpfen funktionsfähige Chips von den 40nm Wafern.
Soweit ist Nvidia eben noch nicht.
Unter den mangelnden 40nm Kapazitäten bei TSMC leider allerdings beide.

AMD hat allerdings noch für Dezember eine Verzehnfachung der Liefermenge angekündigt.

James Ryan
2009-12-03, 16:19:20
Klar betrifft das auch AMD.
Die Frage ist nur, ob NVIDIA mit dem Fermi zu ehrgeizig war, was die Anforderungen angeht.
Man muss doch Rücksprache mit TSMC gehalten haben, wie es mit der 40nm Fertigung aussah.
Eventuell wäre NVIDIA mit einer "GTX290" (aufgebohrte GTX 285 in 55nm mit 2 GB VRam und ~ 300 Shadern) besser dran gewesen, jedenfalls um die Durststrecke zum Fermi zu überbrücken.
Momentan hat NVIDIA gar nichts, außer Glück dass AMD nicht liefern kann.

MfG :cool:

Henroldus
2009-12-03, 16:23:23
AMD hat allerdings noch für Dezember eine Verzehnfachung der Liefermenge angekündigt.
nunja, wo sollen die plötzlich herkommen?
Ob geizhals mit gesetztem ATI Filterkriterium (http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=Cypress&asd=on&v=e&plz=&dist=&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=132_1024) in den nächsten 3 Wochen plötzlich grün leuchtet bezweifle ich mal...


Momentan hat NVIDIA gar nichts, außer Glück dass AMD nicht liefern kann.

MfG :cool:
*zustimm*
was aber schade ist, da das die Preise bei ATI verfälscht(nach oben)

LovesuckZ
2009-12-03, 16:26:15
Du widersprichst Dir selbst!
ATI hat keine Probleme, es hüpfen funktionsfähige Chips von den 40nm Wafern.
Soweit ist Nvidia eben noch nicht.
Unter den mangelnden 40nm Kapazitäten bei TSMC leider allerdings beide.


Wenn AMD keine Probleme hätte, müsste es Cypress wie Sand am Meer geben. Wir befinden uns nicht mehr kurz nach der Veröffentlichung eines Produktes. Wir gehen bald auf das erste abgeschlossene Quartal zu und es gibt in diesem Forum wahrscheinlich weniger Cypressbesitzer als G80 Besitzer im selben Zeitraum. Wenn das keine Probleme sind, dann weiß ich auch nicht.


Fermi wird dann fast ein halbes Jahr nach Cypres Vorstellung womöglich schon gegen ein Refresh bzw HD 5890 antreten müssen und das mit größerer Chipfläche.

Stimmt - womöglich kommt auch der Refresh von Fermi einen Monat später. Wie sind hier nicht in einem Forum, indem Leute soetwas glauben. Es wird keinen Refresh von AMD geben. Dazu haben sie weder die Luft nach oben, noch einen neuen Fertigungsprozeß. Der letzte 6 monatige Refresh war der GT200b aufgrund von 55nm. Ansonsten dauert es heute 9-12 Monate.

Dural
2009-12-03, 16:37:43
wie sollte schon ein RV870 Refresh aussehen, etwas mehr takt wird wohl kaum gross was ändern zudem der RV870 richtig schlecht skaliert, oder hat der RV790 irgend was geändert? Nein hat er nicht, von NV gabs halt noch eine Karte mehr das wars... breiter geht in 40nm sicher auch nicht mehr wirklich, oder wie war die aussage von AMD noch mal... bleibt nur noch 32nm oder 28nm übrig und das wir noch dauern...

Henroldus
2009-12-03, 16:52:21
wie sollte schon ein RV870 Refresh aussehen, etwas mehr takt wird wohl kaum gross was ändern zudem der RV870 richtig schlecht skaliert, ...
Prestigeträchtige 1GHz Chiptakt und 1400MHz Speicher würden den Namen rechtfertigen und u.U. ausreichen um mit Fermi gleichzuziehen, aber bis März/April ists noch lange hin...

LovesuckZ
2009-12-03, 16:58:45
Prestigeträchtige 1GHz Chiptakt und 1400MHz Speicher würden den Namen rechtfertigen und u.U. ausreichen um mit Fermi gleichzuziehen, aber bis März/April ists noch lange hin...

Das ist kein Refresh. Und das impliziert, dass es keine Übertakterversionen vom GF100 geben wird.
Gleichziehen reicht nicht, wenn andere Faktoren aus dem Ruder laufen: Stromverbrauch und Lautstärke. Wenn wir es schon vergessen haben, AMD gibt locker flockige 188 Watt für die 5870 an. Und für die 1000MHz benötigte man bis jetzt immer deutlich mehr Spannung.

reunion
2009-12-03, 17:06:33
Mal sehen wie locker flockig der Stromverbrauch von Fermi sein wird. 225W für eine mit 550/1230 getaktete Tesla-Karte sind auch nicht von schlechten Eltern. Das Modell auf dem die DX11 Demo lief hatte 6+8-Pin Stromanschlüsse.

Aquaschaf
2009-12-03, 17:17:40
Mal sehen wie locker flockig der Stromverbrauch von Fermi sein wird. 225W für eine mit 550/1230 getaktete Tesla-Karte sind auch nicht von schlechten Eltern. Das Modell auf dem die DX11 Demo lief hatte 6+8-Pin Stromanschlüsse.

Die hat auch eine sehr dicke Speicherbestückung ;)

reunion
2009-12-03, 17:23:43
Die hat auch eine sehr dicke Speicherbestückung ;)

Mit entsprechend niedrigem Speichertakt.

LovesuckZ
2009-12-03, 17:36:08
Die hat auch eine sehr dicke Speicherbestückung ;)

Außerdem können sie dort auch die niedrig-getakteten Abfallchips verkaufen. AMD spielt dort keine Rolle und vergleichbare CPUs mit den DP Werten gibt es nicht. Mit 225 Watt nimmt man dann einfach gleich die Chips, die im Geforce/Quadro Sektor nur als GTX360 durchgehen würden. Jedenfalls wäre das mein Plan, wenn ich zeitnah drei Märkte bedienen will.

Gast
2009-12-03, 17:36:27
Mit entsprechend niedrigem Speichertakt.
Der niedrigere Takt macht locker flockig die sechsfache Größe wett?

reunion
2009-12-03, 17:41:07
Jedenfalls wäre das mein Plan, wenn ich zeitnah drei Märkte bedienen will.

Na dann brauchen wir uns ja keine Sorgen mehr machen nach deiner Expertenmeinung. Das Tesla-Segment ist die Krone der Entwicklung. Dafür wurde Fermi so konzipiert wie er konzipiert wurde. Dort ist die Leistung/Watt das Kriterium schlechthin, alles andere ist sekundär. Deshalb kann man dort auch tausende und abertausende Dollar für eine Karte verlangen. Dort nimmt man mit Sicherheit keine "Abfallprodukte". Ich würde mit eher Gedanken machen warum man dort nur so niedrig taktet und so viel Strom verbraucht.

reunion
2009-12-03, 17:44:03
Der niedrigere Takt macht locker flockig die sechsfache Größe wett?

Auch die Desktop-Karte wird nicht unter 1.5GB VRAM haben, also die zwei- bis vierfache. Und ja, angesichts der Erfahrungswerte mit den aktuellen Quadro/Tesla-Produkte würde ich davon ausgehen das es hier keine große Diskrepanz gibt.

Gast
2009-12-03, 17:55:22
Gut und wie passt dan die Behauptung AMD hat einen größeren TDP Spielraum ins Bild?
188W vs 225W machen diese Welten aus?

Btw. 1,5GiB oder 3GiB sind immernoch mehr als 1GiB.

Botcruscher
2009-12-03, 18:51:14
nvidia needs another re-spin to get Fermi on competitive performance, no release until fall 2010. (http://www.youtube.com/watch?v=yFgl9HkK9Z0)

Wenns keine Gerüchte gibt, muss man halt selbst was machen. ;( Nicht mal einen neuen Funfact über Twitter gabs.


Alda, wähle mal die Überschriften etwas sanfter. Mir ist gerade vor Schreck mein Getränk wieder hoch gekommen.

aylano
2009-12-03, 19:44:32
Fuad: Nvidia volume Fermi shipping late Q1 : January for samples
http://www.fudzilla.com/content/view/16685/1/
Damit ist nun auch Fuad auf März eingeschwenkt. Erst im Januar soll es die finalen Samples geben und damit wäre dort höchstens ein Paperlaunch möglich.
Es ist ja nicht das erste mal, wo Fudzilla z.B. Produktionsstart mit Auslieferung/Produkt-Launch verwechselten und sich so um 3 Monate vertan hatte.
Siehe K10.5/Phenom II, der schon im 1H 2008 hätte kommen sollen und somit AMD mit der Fertigung nur mehr 1/2 Jahr hinter Intel liegt.

225W für eine mit 550/1230 getaktete Tesla-Karte sind auch nicht von schlechten Eltern.
Wobei man noch nicht weiß, ob die 225 Watt bei Furmark eingehalten wurden/werden.

Der GT200b hatte laut HartTec4U bei Furmark schon 214 Watt und laut Nvidia der Tesla-GT200b typical 160 Watt.
Tesla-Fermi soll ja laut Nvidia typical 190 Watt haben.

LovesuckZ
2009-12-03, 20:18:34
Wenn nVidia fertige Karten im Januar erhält, dann wird man spätesten Februar den (Soft)Launch durchführen. Alles andere ist weggeworfene Zeit.


Der GT200b hatte laut HartTec4U bei Furmark schon 214 Watt und laut Nvidia der Tesla-GT200b typical 160 Watt.
Tesla-Fermi soll ja laut Nvidia typical 190 Watt haben.

GTX285 - Max Power 206 Watt.
C1060 - Max Power 187 Watt.

Dural
2009-12-03, 20:19:08
Prestigeträchtige 1GHz Chiptakt und 1400MHz Speicher würden den Namen rechtfertigen und u.U. ausreichen um mit Fermi gleichzuziehen, aber bis März/April ists noch lange hin...

das wären vileicht gerade mal ca. 10% mehr Leistung, das wird sicher NICHT reichen!!!

Gast
2009-12-03, 20:39:39
Tesla-Fermi soll ja laut Nvidia typical 190 Watt haben.
Oh, hat reunion gerade gelogen mit den 225W?

Gast
2009-12-03, 20:40:58
Fermi wird in allen Benchmarks, wo PhysX keine Rolle spielt, sowas von verprügelt werden ... und wenn Tesselation dazukommt gibts erst richtig Aua
Ah, zwei Behauptungen.

Erklär doch bitte erstmal Behauptung Nummer 2. Tesselation.

bloub
2009-12-03, 20:43:53
Oh, hat reunion gerade gelogen mit den 225W?

nicht direkt, er hat nur tdp mit tatsächlicher verlustleistung gleichgesetzt, was allerdings schlichtweg falsch ist.

reunion
2009-12-03, 20:54:14
Oh, hat reunion gerade gelogen mit den 225W?

Nein.

nicht direkt, er hat nur tdp mit tatsächlicher verlustleistung gleichgesetzt, was allerdings schlichtweg falsch ist.

Falsch.

Coda
2009-12-03, 20:56:20
Natürlich ist es falsch TDP und Verlustleistung gleichzusetzen.

Die 225W kommen wohl viel eher von der PCIe-Spec für 6+6.

reunion
2009-12-03, 20:57:19
Natürlich ist es falsch TDP und Verlustleistung gleichzusetzen.

Das habe ich auch nicht.

Die 225W kommen wohl viel eher von der PCIe-Spec für 6+8.

Das wären 300W.

Coda
2009-12-03, 20:57:58
Oh ja, is ja gut :rolleyes:

Dann halt 6+6.

reunion
2009-12-03, 20:58:53
Oh ja, is ja gut :rolleyes:

Dann halt 6+6.

Das ist die TDP. Bei einem typischen Verbrauch von 190W wundert das auch wenig.

Coda
2009-12-03, 20:59:22
Nein, das ist nicht die TDP von Fermi. Und über den "typischen Verbrauch" können wir nach Release reden.

tombman
2009-12-03, 20:59:37
Ich sehs schon kommen: Fermi kommt heraus, mit ähnlicher Auslieferungsrate wie jetzt Cypress, und dann kommt Intel und haut einen gepimpten 32nm Larrabee heraus, der alles noch mal schön ownt. Warum? BECAUSE THEY CAN :ugly:
Fertigungspower FTW :freak:

Wenn man bedenkt, mit welch scheinbarer "Leichtigkeit" man gerade dieses 1TFlop SGEMM baby vorgestellt hat...traue ich denen alles zu :|

reunion
2009-12-03, 21:00:07
Nein, das ist nicht die TDP von Fermi. Und über den "typischen Verbrauch" können wir nach Release reden.

Die Angaben sind von NV. Was willst du jetzt von mir?

Coda
2009-12-03, 21:00:16
und dann kommt Intel und haut einen gepimpten 32nm Larrabee heraus, der alles noch mal schön ownt
Und der Eiffelturm kann fliegen.

Wenn man bedenkt, mit welch scheinbarer "Leichtigkeit" man gerade dieses 1TFlop SGEMM baby vorgestellt hat...traue ich denen alles zu :|
Und wenn man bedenkt, was SGEMM in der Praxis aussagt. Traue ich denen gar nichts zu. Denn sonst hätten sie einen vernünftigen Benchmark gezeigt und keine solchen Nebelbomben.

Die Angaben sind von NV. Was willst du jetzt von mir?
Ich will von dir, dass du auch mal dein Hirn einschältst

The GT300 part targets a thermal range of 225W and should feature two 6-pin PEG [PCI Express Graphics] power connectors, same as on the current GTX285 graphics card.
Der Satz sagt bloß aus, dass die Karte mit 6+6 auskommen wird, mehr nicht.

LovesuckZ
2009-12-03, 21:00:47
Wenn man bedenkt, mit welch scheinbarer "Leichtigkeit" man gerade dieses 1TFlop SGEMM baby vorgestellt hat...traue ich denen alles zu :|

Naja, ich verstehe unter Leichtigkeit keine an die eigene Architektur angepasste Software.


Da interpretiert heise (und auch Anandtech) aber falsch. Fermis SM besteht praktisch aus zwei SMs die sich SFU und Load/Store teilen.

Der korrekte Vergleich zu G80 wäre, dass wenn ein SM stallt der andere natürlich trotzdem weitermachen kann. Das ist bei Fermi auch nicht anders, dort kann der nichtstallende Dispatcher nämlich auch nur eine ALU versorgen.

Auch hatte bei G80 jeder SM seine eigenen SFUs. Dass da ein anderer stallen würde im Cluster ist auch nicht wahr.

Kurz: Ein Fermi-SM mit 2x16 ALUs ist rein auf dem Papier schwächer als es eine 4x8-G80-Architektur gewesen wäre. Fermi investiert die Transistoren wohl in DP.

Als Laie erschließt es mir jedoch so, dass beide den Unterschied zwischen SM und Cluster verstanden haben. Und so wie ich es interpretiere, blockieren die SFUs beim G80 sowie GT200 für 8 Takte einen SM, wenn sie verwendet werden, womit im besten Fall nur 1xVec8 bzw. 2xVec8 Recheneinheiten übrig bleiben. Fermi sollte also für einen Laien deutlich effizienter sein, da der Dispatcher nach 2 Takten wieder die Recheneinheiten ansprechen kann statt noch 6 Takte warten zu müssen.

reunion
2009-12-03, 21:05:10
Ich will von dir, dass du auch mal dein Hirn einschältst


Oh, mal wieder ohne Bezug zu irgendwas eine Beleidigung, wie überraschend. Ich würde dir raten das du mal dein Gehirn einschältst bevor du solche Sprüche klopfst.


Der Satz sagt bloß aus, dass die Karte mit 6+6 auskommen wird, mehr nicht.

Und der Satz kommt woher? Das ist offizielles Pressematerial:

http://img708.imageshack.us/img708/3393/30629680.jpg (http://img708.imageshack.us/i/30629680.jpg/)

LovesuckZ
2009-12-03, 21:14:38
Anscheinend wird nVidia die Journalisten bezüglich GF100 während der CES Anfang Januar unterrichten:

I am going to CES VEGAS this year. I expect to have alot of information when I return.
http://www.rage3d.com/board/showpost.php?p=1336098441&postcount=1099

Yup. Beginning of January. I "will" be getting complete information there. Thats all I can really say.
http://www.rage3d.com/board/showpost.php?p=1336098459&postcount=1102

I don't anticipate a very long wait period for information after this point.
http://www.rage3d.com/board/showpost.php?p=1336098481&postcount=1104

bloub
2009-12-03, 21:23:30
Falsch.

#6327 lässt aber was anderes vermuten.

reunion
2009-12-03, 21:24:59
#6327 lässt aber was anderes vermuten.

LovesuckZ hat die TDP genannt, ich habe die TDP genannt. Es gab nirgends eine Gleichsetzung von "tatsächlichen Verbrauch und TDP". Keine Ahnung wie du auf den Blödsinn kommst.

=Floi=
2009-12-03, 22:00:45
zitat
Eifelturm

http://de.wikipedia.org/wiki/Eifelturm ;D
zum glück nicht der eiffelturm mit seinen 10000tonnen ;D
ich finde übrigens auch schon den A380 mit 421 tonnen startgewicht unglaublich. das ist eine menge holz und die leistung die dahinter steckt ist auch ein meilenstein.

btw.
es freut mich auch einmal coda geowned zu haben. :)
die anderen 100 mal darf er dann wieder.

Gast
2009-12-03, 22:37:09
das wären vileicht gerade mal ca. 10% mehr Leistung, das wird sicher NICHT reichen!!!
19% ige TDP Erhöhung und 10% Mehrleistung.
Ist es das worauf die hinauswolltest reunion?

AMD hat so viel Luft, weil sie ihre TDP ebenfalls auf 225W bringen können, nur eben mit 1GiB GDDR5 statt 1,5GiB bzw 3GiB.
Der Hacken an der Sache ist nur der:
- 10% reichen nicht zum "ownen"
- 10% durch 19% mehr Vebrauch bedingen eine nicht übermäßige Spannungserhöhung
- TDP ist auch allgemein so gut vergleichbar; 190W typicall, was sagt AMD zu ihrer 5870?

Sorkalm
2009-12-03, 23:02:10
- TDP ist auch allgemein so gut vergleichbar; 190W typicall, was sagt AMD zu ihrer 5870?

188W TDP, das scheint auch gut zu passen; PCGH hat unterm Fumark 186 Watt gemessen, in 3D Race Driver Grid als eher typische Anwendung (Spiel) hingegen nur 128 Watt.
Quelle (http://www.pcgameshardware.de/aid,697609/Test-Radeon-HD-5750-Juniper-GPU-zum-Zweiten/Grafikkarte/Test/)

Gast
2009-12-03, 23:16:34
Ich habe nach AMDs Aussage gefragt, was eine 5870 "typical" braucht, nicht nach der TDP und nicht nach gemessenen Werten des typischen Verbrauchs. ;)

LovesuckZ
2009-12-03, 23:40:59
Ohne eine richtige Auslastung der Karte ist es sowieso egal. In Grid werden die 58xx Karten sehr oft am CPU Limit liegen und somit deutlich weniger verbrauchen als die TDP es vermuten lässt. Das wird auch auf den GF100 zutreffen.

bloub
2009-12-03, 23:41:18
LovesuckZ hat die TDP genannt, ich habe die TDP genannt. Es gab nirgends eine Gleichsetzung von "tatsächlichen Verbrauch und TDP". Keine Ahnung wie du auf den Blödsinn kommst.

tja dann erwecke auch nicht den eindruck dazu, lies dir mal deinen eigenen post durch. erst das wort stromverbrauch fallen lassen und dann im nächsten satz die 225 watt und teslakarten zu kombinieren, hinterlässt schon den eindruck, dass nicht die tdp gemeint ist.

V2.0
2009-12-04, 06:59:03
Die Teslakarten sage gar nichts aus für die GeForce-Karten.

Dural
2009-12-04, 07:58:37
ja finde ich auch...

schon nur die tatsache das die GTX275 eine höhere TDP als die GTX285 hat sollte einem zu denken geben...

ich finde es höchstens bemerkenswert das bei NV diese Angaben bereits festehen, ohne A3 und ein halbes Jahr vor der Lieferbarkeit... da lässt die vermutung zu das die GeForce Karten weiter sind als man denkt oder die verspätung einfach grundsätzlich an 40nm liegt ;)

V2.0
2009-12-04, 08:24:22
Noch nicht einmal das.

Bei den Teslakarten kann es gut sein, dass die TDP durch äußere Umstände bestimt ist und man zur Not die Taktung entsprechend ändert um innerhalb des TDP Korridors zu bleiben.

Bei der GeForce kann man den Stromverbrauch innerhalb der PCIe- Spezifikation so anpassen, dass man die gewünschten Taktraten annährend erreicht.

Dural
2009-12-04, 08:34:23
der Takt steht ja aber auch schon fest! vieleicht kommt dann einen monat später der refresh mit mehr takt, alles möglich...

V2.0
2009-12-04, 09:04:51
Für Tesla, aber für GeForce? Da sie offenischtlich immer noch nicht die Release-Revision haben, dürften im GeForce-Bereich auch die Takte nicht feststehen.

PCGH_Carsten
2009-12-04, 09:48:42
Typical, Max. Board Power und TDP sind wertlose Begriffe, solange deren Definition nicht festgelegt ist oder sich Hersteller die Freiheit nehmen, Applikationen, bei denen diese Werte überschritten werden, als irrelevant zu deklarieren; siehe die bekannten Dual-GPU-Karten wie GTX295, 4870 X2 oder 5970 im Furmark.

Keines der Modelle hat eine TDP oder Max. Board Power von über 300 Watt, trotzdem saugen sie teilweise deutlich mehr - und auch mehr, als Sie per Spec den einzelnen Leitungen zumuten dürften.

Daher gebe ich persönlich zumindest auf diese Angaben eher wenig - zum Vergleichen taugen sie noch weniger.

Dural
2009-12-04, 10:59:32
bei den GeForce Karten steht das sicher auch schon fest, den die kommen garantiert früher als die Tesla Karten! NV hat ja jetzt mal die möglichkeit ihre Karten schön auf die von ATi abzustimmen und das werden sie sicher auch ausnützen! Die GTX360 wird so viel runter geschraubt das sie etwas vor der 5870 ist...

Black-Scorpion
2009-12-04, 11:08:20
Die hatten bis jetzt damit zu tun das Ding überhaupt ordentlich zum laufen zu bekommen.
Und jetzt sollen sie auf einmal den Spielraum haben den so abzustimmen wie sie es wollen?
Von was träumst du nachts?
Außerdem wurde alles bis jetzt nur von Tesla erzählt.
Aber nach dir kommen die GeForce vorher?
Deine Logik versteht außer dir bestimmt keiner.

MorPheuZ
2009-12-04, 11:17:24
Die Teslas kamen bis anhien immer nach den GeForces, das kann man durchaus auch auf die Fermi spekulieren ;)

Black-Scorpion
2009-12-04, 11:25:54
Und wann ist das letzte mal alles so vor den Baum gelaufen wie jetzt?
Der Chip lief nicht wie er sollte und TSMC hat Riesen Probleme mit der Ausbeute.
Und wenn nVidia vertraglich Probleme bekommt mit Tesla, garantiere ich dir das die auf die Gamer scheißen.
Dann wandern alle GPUs auf Tesla.

Dural
2009-12-04, 11:55:06
ja klar die GeForce Karten kommen alle pünktlich zu Weihnachten 2010 oder was?

und du fragst mich wo von ich träume :rolleyes:

und Fermi lief schon mit A1, falls du das nicht mitbekommen hast...

und welche Verträge mit Tesla??? Glaube kaum das NV jetzt schon Verträge für x tausend Stück GF100 Tesla Karten mit fixem Liefertermin hat..........

aber hast schon recht, im mai/juni kann NV sicher nur wenige stück GF100 liefern und die gehen dann für Tesla drauf... ich träume nicht sondern hab ein gehrin das etwas denken kann.....

Nakai
2009-12-04, 11:59:57
ja klar die GeForce Karten kommen alle pünktlich zu Weihnachten 2010 oder was?

und du fragst mich wo von ich träume :rolleyes:

und Fermi lief schon mit A1, falls du das nicht mitbekommen hast...

Anscheinend nicht ausreichend. Mangelnder Takt, schlechte Yields, jeder kann sich was aussuchen. Er wird/muss aber im Q1 kommen...


mfg

tombman
2009-12-04, 12:17:55
Sieht also so aus, daß man Ende Jänner, Anfang Februar sofort eine Fermi schnappen muß, sobald eine lagernd ist- wie damals bei HD5870.
Ich könnte auch bis März warten- in meinem Alter vergeht die Zeit eh so schnell :ugly:
Als kleines Intermezzo könnte man sich auch ne H5870 "six" mit 2GB bis Fermi reinpfeffern :)

Gast
2009-12-04, 12:28:00
Ich könnte auch bis März warten- in meinem Alter vergeht die Zeit eh so schnell :ugly:


Das Leben ist zu kurz um kleine Motoren zu fahren oder MIDRNAGE Hardware zu haben also Feuer frei :D

MorPheuZ
2009-12-04, 12:32:18
Wie war das damals beim r600? Auch da kamen die FireGL's reichlich später als die Radeons. Bei NV wird das nicht anders sein, noch da sie da mehr Luft haben als im Consumer Bereich.

@Tombman: Scheisse! bald ist schon wieder Weihnachten:eek:

tombman
2009-12-04, 12:55:50
Das Leben ist zu kurz um kleine Motoren zu fahren oder MIDRNAGE Hardware zu haben also Feuer frei :D
2x GTX295 würde ich nicht gerade als Midrange bezeichnen ;D
Ich hab zuwenig "Druck", weil ATI nix Gescheites zusammenbringt :lol:

@Tombman: Scheisse! bald ist schon wieder Weihnachten:eek:
Noch schlimmer: in 3.5 Jahren bin ich 40! AUA!

Gouvernator
2009-12-04, 13:01:38
Jaja, dann kommen solche Umfragen im Offtopic "Wie hoch ist Deine Rente?". ;D

Für mich sollte bis zur Veröffentlichung von Bad Company 2 Anfang März wenigstens eine Info kommen wie stark genau Fermi wird. Wenn die bis dahin nichts sagen kommt eine ATi rein.

tombman
2009-12-04, 13:21:44
Jaja, dann kommen solche Umfragen im Offtopic "Wie hoch ist Deine Rente?". ;D

Für mich sollte bis zur Veröffentlichung von Bad Company 2 Anfang März wenigstens eine Info kommen wie stark genau Fermi wird. Wenn die bis dahin nichts sagen kommt eine ATi rein.
Nene, erste Infos//benchmarks kommen schon im Jänner bzgl Fermi. NV will Fermi ja noch im Jänner (Ende) "vorstellen".

Dural
2009-12-04, 13:44:16
Anscheinend nicht ausreichend. Mangelnder Takt, schlechte Yields, jeder kann sich was aussuchen. Er wird/muss aber im Q1 kommen...


Am Takt wird sich nicht mehr viel ändern, jedenfalls nicht mit A3!

Wie gesagt, die Tesla Karten sind fix mit 225Watt und 550/1220MHz ab Mai vorgesehen und das wurde bevor man A3 hatte festgeleht! Kann doch also nur bedeuten das man beim A3 gar nicht mehr auf das gearbeitet hat sondern nur um die Yields zu verbessern... und wer sagt überhaupt das nicht mehr Takt geht? Nur weil die Tesla so wenig takt hat bedeutet das ja noch lange nicht das die GeForce auch so wenig haben, ja...

Nightspider
2009-12-04, 13:47:53
2x GTX295 würde ich nicht gerade als Midrange bezeichnen ;D
Ich hab zuwenig "Druck", weil ATI nix Gescheites zusammenbringt :lol:

Noch schlimmer: in 3.5 Jahren bin ich 40! AUA!

Gehst du auch regelmäßig zur Gesundheitskontrolle?

Nicht das du beim Benchmarken von Fermi ne Herzatacke bekommst. ;D

reunion
2009-12-04, 14:20:33
tja dann erwecke auch nicht den eindruck dazu, lies dir mal deinen eigenen post durch. erst das wort stromverbrauch fallen lassen und dann im nächsten satz die 225 watt und teslakarten zu kombinieren, hinterlässt schon den eindruck, dass nicht die tdp gemeint ist.

Was ist die TDP, was heißt "max", was heißt "typical" und wo wird es erreicht? NV schreibt max. 225W, wann und wo das erreicht wir weiß ohnehin niemand. Sich jetzt an einer Angabe aufzuhängen welche ich bloß zitiert habe ist schon ziemlich daneben. Beachte den Kontext und informiere dich über aktuelle Infos dann kannst du den Wert auch richtig einordnen, mehr gibt es dazu nicht zu sagen. Was verstehst du denn unter dem Stromverbrauch, wo muss man messen damit es von dir akzeptiert wird? Wir haben aktuell nur diese Herstellerangaben und deshalb kann es wohl kaum falsch seid das zu zitieren.

aylano
2009-12-04, 14:58:12
Oh, hat reunion gerade gelogen mit den 225W?
Nein.
Wenn schon hat AMD & Nvidia mit der 4000er bzw. 200er-Serie mit der TDP gelogen.
Immerhin hat AMD jetzt den richtigen Wert beim 5800er & 5700er & 5900 angegeben.

Ob beim Fermi die 225Watt auch einhalten werden, wissen wir heute eben nicht.
Immerhin hat Fermi 50% mehr Transistoren sowie eine 50% mehr Die-fläche.

Ich habe nach AMDs Aussage gefragt, was eine 5870 "typical" braucht, nicht nach der TDP und nicht nach gemessenen Werten des typischen Verbrauchs.
Von AMD gibts AFAIK keine typical Ansagen.
Sie gibt es AFAIK nur bei Nvidia-Tesla

Bei den Teslakarten kann es gut sein, dass die TDP durch äußere Umstände bestimt ist und man zur Not die Taktung entsprechend ändert um innerhalb des TDP Korridors zu bleiben.
Man braucht ja nur ansehen, wie es in der Vergangenheit mit Tesla aussah.
Und da sah der Tesla dem Geforce verdammt ähnlich aus.

http://ht4u.net/news/2062_nvidia_tesla_rechnet_im_quad-verbund_mit_4_teraflops/
GT200-Tesla
Der Tesla C1060 besteht aus einer T10P-GPU, die über 240 Streaming-Prozessoren mit einem Takt von 1,3 GHz verfügt. Zusätzlich stellt NVIDIA 4 GB GDDR3-Speicher bereit, der über ein 512 Bit breites Interface angebunden ist und bis zu 102 GB an Daten in der Sekunde übertragen kann. Im Vergleich zum Vorgänger konnte auch NVIDIA die Rechenleistung nahezu verdoppeln und erreicht mit dem T10P für Single-Precision-Rechnungen nun einen Teraflops. Die maximale Leistungsaufnahme gibt NVIDIA mit 225 Watt an, geht jedoch im typischen Einsatz eher von rund 160 Watt aus.

Und der neue soll dann 6GB haben.
Im Vergleich zu den Shadern (+112%) ist der +50%-Zuwachs beim Speicher ja eher ein relativer Rückschritt.

Typical, Max. Board Power und TDP sind wertlose Begriffe, solange deren Definition nicht festgelegt ist oder sich Hersteller die Freiheit nehmen, Applikationen, bei denen diese Werte überschritten werden, als irrelevant zu deklarieren; siehe die bekannten Dual-GPU-Karten wie GTX295, 4870 X2 oder 5970 im Furmark.
TDP waren wertlose begriffen.
Der 5870er halte die TDP-Grenze unter Furmark (gerade noch) ein.
Sowie die 5970 & 57x0-Serie.

Hingegen sind typical-Power offizielle Werte, die bisher beim GT200 eingehalten wurden. siehe reale GPU-Verbrauch unter HarcTec4U.

Und aus Spaß wird Nvidia ja nicht den Typical Wert von 160 auf 190 Watt gesteigert haben.
So wie Nvidia nicht aus Spaß die Dummy-Tesla-Karte der Öffentlichkeit zeigte.

Natürlich könnte Nvidia nicht alle Angeben einhalten und jene Werte liefern, die sich manche hoffen.
Aber die Vergangenheit zeigte eben, dass die meisten sich immer mehr erhofften und beim Launch enttäuscht wurden.
Und da gabs wenige Ausnahmen a la G80, RV770.

ABC
2009-12-04, 16:07:36
2x GTX295 würde ich nicht gerade als Midrange bezeichnen ;D
Ich hab zuwenig "Druck", weil ATI nix Gescheites zusammenbringt :lol:



naja 2x GTX295 sind niocht zu gebrauchen ausser im Vantage ;)

Ich hab selber 2 davon drin gehabt und hab freiwillig die zweite wieder aus gebaut :ugly:

Ich hab jetzt 3x 5870 drin, die haben DUETLICH mehr wumms als die GTX295er.

**Benchbattle ? ** *g*

Gast
2009-12-04, 16:30:11
**Benchbattle ? ** *g*
Driverbattle *g*?

y33H@
2009-12-04, 16:33:19
Der 5870er halte die TDP-Grenze unter Furmark (gerade noch) ein. Sowie die 5970 & 57x0-Serie.Aber auch nur, weil AMD sie throttelt und nicht, weil sie real soviel verbraten.

Gast
2009-12-04, 16:35:35
Nein.
Wenn schon hat AMD & Nvidia mit der 4000er bzw. 200er-Serie mit der TDP gelogen.
Immerhin hat AMD jetzt den richtigen Wert beim 5800er & 5700er & 5900 angegeben.
Eine GTX 280 braucht im Furmark minimal weniger als die TPD erahnen lässt.
Später gings daneben.

Jedenfalls wird hier verschiedensten TPD Varianten verglichen, mit gemessenen Werten verrührt und oben rauf kommen "typical" Aussagen, die lediglich Nvidia, nicht aber AMD rausgibt.
Der Eine oder Andere schafft es tatsächlich aus diesem Mix noch etwas rauszufischen, eine Behauptung das AMD mehr Luft hätte, bzw viel mehr Luft.


Ob beim Fermi die 225Watt auch einhalten werden, wissen wir heute eben nicht.
Immerhin hat Fermi 50% mehr Transistoren sowie eine 50% mehr Die-fläche.

Fermi wird auch mehr VRAM mitbringen.

Spätestens seit GTX 260 und 4870 1024 wissen wir, das die reine Transistorenzahlen kein Endergebnis liefert.

Von AMD gibts AFAIK keine typical Ansagen.
Sie gibt es AFAIK nur bei Nvidia-Tesla
Dann waren die vorherigen Beiträge, über die hier diskutiert wird für die Tonne.

Gast
2009-12-04, 17:20:55
Vergesst Furmark mal so langsam...


Für mich gibts nach 1:1-Direktvergleich jetzt nur noch eines:

OCCT (v3.1)

Als ATi-User mit HD3xxx-HD5xxxx-Karte im dortigen GPU-Test "ShaderComplexity=3" setzen (wichtig für maximale Wärmeentwicklung!).


Bei mir geht die GPU (Juniper-LE) damit satte 8K höher als mit Furmark... und die Lüfterregelung ist dabei dann auch schon mit 10% mehr dabei.


Mal als Tipp an den einen oder anderen mitlesenden Hardware-Redakteur/Reviewer:

Macht mal ne Leistungsaufnahmevermessung mit dem Tool vergleichend gegen Furmark. Wenn die Physik uns nicht belügt und die TDP-Angaben der HD5xxxer im Furmark recht genau erreicht werden, sollte bei so viel mehr GPU-Temp wie in meinem Fall in OCCT beobachtet, die ATi-TDP doch zu sprengen sein...

Gast
2009-12-04, 17:40:25
Als Ergänzung:

Die +8K bezogen sich auf Furmark 1.7, im Vergleich zum 1.6er sinds sogar +11K die OCCT da mehr draufpackt!

Hab den 1.6er jetzt gerade noch nachgetestet, nachdem ich gesehen hatte, dass einige HD5xxxer Reviews den benutzt hatten...

=Floi=
2009-12-04, 17:43:27
zitat
Nicht das du beim Benchmarken von Fermi ne Herzatacke bekommst.

weil GT300 SLI mit 2 karten dann langsamer wie sein quad sli ist? ;D :ugly:


edit
die 5870er haben eine hardwareseitige drosselung. die kannst du so nicht umgehen.

tombman
2009-12-04, 17:52:47
Driverbattle *g*?

:up: :lol:

Ich bezweifle, daß 2x Fermi langsamer als 4x GT200 sein wird, allein schon weil 2x SLI besser skaliert als 4x SLI.
Und selbst für 3x Fermi wäre ich vorbereitet ;) (mehr als 2x Fermi wird eh keiner brauchen, wahrscheinlich wird sogar 1x Fermi für alles reichen- Konsolenports FTW :ugly:)

aylano
2009-12-04, 17:54:27
Eine GTX 280 braucht im Furmark minimal weniger als die TPD erahnen lässt.
Später gings daneben.
Ich weiß nicht was du meinst, aber die HardTec4U zeigen die Nichteinhaltung von TDP.

Jedenfalls wird hier verschiedensten TPD Varianten verglichen, mit gemessenen Werten verrührt und oben rauf kommen "typical" Aussagen, die lediglich Nvidia, nicht aber AMD rausgibt.
Der Eine oder Andere schafft es tatsächlich aus diesem Mix noch etwas rauszufischen, eine Behauptung das AMD mehr Luft hätte, bzw viel mehr Luft.
Der einzige der verschiedene TDP-Varianten unterschiedlicher Hersteller vergleicht, bist du.
Ich sage nur, wenn Nvidia beim GT200 einen Typical-Wert von 160 Watt angibt, bezweifel ich beim GF100, dass diese die 225Watt-TDP-Grenze einhalten wird, weil er einen typical-Wert von 190Watt haben soll.

Effizienz-Steigerungen (Einheiten-Auslastugnen) wird es sicher geben, aber nicht nur.

HD5870 konnte den Stromverbrauch trotz Einheiten/Transistor-Verdopplung deshalb halten, weil sie die Spannung überproportional senkten. (1,30 auf 1,15)
Ich glaube, beim GT200 war die Spannungs-Absenkung nur von 1,25 (G80 & G92-) auf 1,18 (GT200 & GT200b)

Spätestens seit GTX 260 und 4870 1024 wissen wir, das die reine Transistorenzahlen kein Endergebnis liefert.

Ich schrieb ja nicht von einem End-Ergebnis, nur ist es halt verdammt schwer den Verbrauch unter RV870 zu halten, wenn Fermi 50% Transistoren hat. siehe RV770 --> G200

Und Exotische Vergleiche interessieren mich nicht, sondern die Standard-Modelle und der Fermi wird eben am Anfang als Standard-Modell kommen.
Und wenn Nvidia schon immer mehr Speicher reingab, wird es eben in Zukunft auch nicht viel anders aussehen

Dann waren die vorherigen Beiträge, über die hier diskutiert wird für die Tonne.
Richtig, so wie die vielen Diskussionen über einen Launch in Nov und dabei Glaubten, Nvidia macht so ein Fermi-Dummy nur aus Spaß.

Du kannst dich ja gerne anmelden, denn dann kann man auf deine Aussagen besser eingehen.

Aber auch nur, weil AMD sie throttelt und nicht, weil sie real soviel verbraten.
Und wo soll der "Beweis" sein?
Gibts einen Link

bloub
2009-12-04, 18:09:49
Was ist die TDP, was heißt "max", was heißt "typical" und wo wird es erreicht? NV schreibt max. 225W, wann und wo das erreicht wir weiß ohnehin niemand. Sich jetzt an einer Angabe aufzuhängen welche ich bloß zitiert habe ist schon ziemlich daneben. Beachte den Kontext und informiere dich über aktuelle Infos dann kannst du den Wert auch richtig einordnen, mehr gibt es dazu nicht zu sagen. Was verstehst du denn unter dem Stromverbrauch, wo muss man messen damit es von dir akzeptiert wird? Wir haben aktuell nur diese Herstellerangaben und deshalb kann es wohl kaum falsch seid das zu zitieren.

aufhängen war das nicht, eher eine richtigstellung deines angeblichen zitats.

=Floi=
2009-12-04, 18:12:01
wenn NV offiziell downsampling oder noch etwas anderes einführen wird, dann relativiert sich das ganz schnell. crysis und die ganzen anderen "grünen" spiele brauchen mit TSAA auch leistung ohne ende. ich sehe da keine probleme 2XGT300 klein zu kriegen. es wäre schön, wenn es nicht so wäre und 2 solcher karte dann so lange wie der g80 halten würden.

wenn es blöd läuft, dann haut fermi eben nicht rein. Dein quad sli könntest du ja auch noch übertakten und mit 4X 700/1600 sollte es schon eng werden und trotz der geringeren skalierung legt quad sli schon eine menge vor. Wenn nichts limitiert ist das sschon eine nummer.

Gast
2009-12-04, 19:15:33
Oh man, bei jeder neuen Generation kommen die Besserwisser mit "aba aba mit xx Setting krieg ich alles klein". Klar das TSSAA reinhaut, aber dafür gibts halt nix vergleichbares und 4x4SSAA ist auch ungeschlagen, wirst aber niemals fahren können bei aktuellen Games. Da muss die Hardware immer mindestens 5Jahre vor den Spielen sein um das flüssig dazustellen... aber man wettert ja gerne gegen alles und jeden was "grün" ist, auch wenn man nicht versteht was das "grün" sein für ein Spiel wirklich bedeutet...

Gast
2009-12-04, 19:16:26
Ich weiß nicht was du meinst, aber die HardTec4U zeigen die Nichteinhaltung von TDP.

Zeigen sie nicht.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
http://www.abload.de/thumb/clipboard03ycl3.jpg (http://www.abload.de/image.php?img=clipboard03ycl3.jpg)
Gilt auch für die GTX 260.

Der einzige der verschiedene TDP-Varianten unterschiedlicher Hersteller vergleicht, bist du.
Die Diskussion hat sich daraus ergeben: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7696229#post7696229
Einen Post der auf die Möglichkeit hinweist, das man mit mehr Spannung noch etwas Takt rauskizeln kann, der aber vieles verschweigt.

Darauf hin hat reunion die TDP der 5870 verglichen.
Trotz des Umstandes das die 225W von einer Tesla Karte u.a. mit 6GiB und die 188W von einer 5870 u.a. mit 1GiB stammen.

Wenn du das nicht vergleichen nennst...

Danach ist noch der "typische" Verbrauch ins Spiel gekommen, abstruser Weise diesmal nichteinmal mit nicht vergleichbarer Konkurrenzangabe.

LovesuckZ
2009-12-04, 21:13:28
Btw, fyi, nVIDIA PR is (obviously off the record, so don't ask for links ) talking about February, and about performance faster than a 5970. We'll see.
http://www.rage3d.com/board/showpost.php?p=1336099017&postcount=64

I am not making the claim, nvidia PR did in various talks with people I know; I am merely passing out the information I received. I could post it as news in my blog, and link it here; that'd give it about as much credibility as any site posting any news about Fermi atm I guess
http://www.rage3d.com/board/showpost.php?p=1336099098&postcount=79

aylano
2009-12-04, 21:20:47
Zeigen sie nicht.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
http://www.abload.de/thumb/clipboard03ycl3.jpg (http://www.abload.de/image.php?img=clipboard03ycl3.jpg)
Gilt auch für die GTX 260.

Sorry, ich hatte nur den GTX285 im Kopf.
Und da sieht es mit 183-Watt-TDP vs. 214 Watt-Real nicht gerade rosig aus.
Bei der GTX275 sieht es mit 219 Watt-TDP vs. 226 Watt-Real nicht so schlimm aus.

Also noch die Nvidia-welt in Ordnung war und Nvidia kaum Druck von AMD hatte, hatte Nvidia per 280 & 260 tatsächlich die TDP-Werte eingehalten und musste keine TDP-Werte schönigen.

Dass der GTX280 236 Watt-TDP hatte, zeigt ja, wie schwierig es wird den Fermi auf unter 225 Watt-TDP zu drücken. Damals hatten sie wenigestens eine ausgereifte Fertigung.

Korrektur:
Der HD5870 überschreitet unter Furmark doch den TDP-Wert. Keine Ahnung warum ich immer dachte, er würde knapp den Wert einhalten.
Hingegen der HD 5770 & HD 5970 überrschreitet den TDP-Wert nicht.

Die Diskussion hat sich daraus ergeben: http://www.forum-3dcenter.org/vbulle...29#post7696229
Einen Post der auf die Möglichkeit hinweist, das man mit mehr Spannung noch etwas Takt rauskizeln kann, der aber vieles verschweigt.
Es geht darum, dass Nvidia trotz niedrigen Taktes (woher auch immer) auch nicht so locker flockig den Takt & Spannung erhöhen kann, wie es ATI kann bzw. könnte, weil beide eben hohe TDP-Werte haben.

Wobei sich die Frage stellt, wie eben ein ATI-Refresh bzw. RV870-Respin aussieht falls er kommt.

Meiner Meinung nach, wäre ein ATI-Refresh nicht eine 1000+ Mhz OC-Version, sondern durch 1 oder 2 Respin eine leichte Takt-Erhöhung mit mehr Yield, bei gleichem Stromverbrauch & Spannung.

Der RV670 hatte auch zuerst 775 Mhz und später kamen mit einem neuerne Respin die 825Mhz Modelle.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_atomic_radeon_hd_3870/4/
Also, da dürften beim RV670 die zusätzlichen 50 Mhz eben ohne Spannungs-Erhöhung möglich gewesen sein, was auf den kaum gesteigerten Stromverbrauch hindeutet.

Mit OC-Versionen geht es nicht um effizienter zu sein als Fermi, sondern a) den Fermi-Start zu stören und b) die ATI-Fans mit schnelleren Karten zu versorgen, denen ein Stromverbrauch nichts ausmacht.

Danach ist noch der "typische" Verbrauch ins Spiel gekommen, abstruser Weise diesmal nichteinmal mit nicht vergleichbarer Konkurrenzangabe.
Wenn es keine vergleichbare Werte gibt, dann kann man auch nichts angeben.

boxleitnerb
2009-12-04, 21:24:18
Eine Karte >5970? Was haben die denn geraucht? Irgendwie wirken die Aussagen immer unglaubwürdiger. Wäre ja schön, aber das kann ich mir nicht vorstellen.

LovesuckZ
2009-12-04, 21:26:05
Sorry, ich hatte nur den GTX285 im Kopf.
Und da sieht es mit 183-Watt-TDP vs. 214 Watt-Real nicht gerade rosig aus.
Bei der GTX275 sieht es mit 219 Watt-TDP vs. 226 Watt-Real nicht so schlimm aus.

Maximum Graphics Card Power (W) 204 W
http://www.nvidia.com/object/product_geforce_gtx_285_us.html

Ansonsten zeigt GTX285 und GTX275, dass die TDP keine Aussage über Kartenvarianten aufzeigt, sonst dürfte die GTX275 nicht mehr verbrauchen als eine GTX285.

Eine Karte >5970? Was haben die denn geraucht? Irgendwie wirken die Aussagen immer unglaubwürdiger. Wäre ja schön, aber das kann ich mir nicht vorstellen.

Warum? 5970 ist ca. 84% schneller als GTX285. Man muss nur 85% schneller als eine GTX285 sein und schon stimmt die Aussage.

=Floi=
2009-12-04, 21:37:50
soll man ohne AA und AF spielen? dafür sind diese karten da und enthusiasten wollen nicht nur hohe fps und auflösungen, sondern auch ein gute BQ. das gehört für mich dazu.
DAS ist für mich pc gaming, sonst könnte ich auch auf den konsolen spielen.

y33H@
2009-12-04, 21:38:14
Wenn es gut läuft, ist eine HD5970 von den angezeigten Fps her doppelt so schnell wie eine GTX285. Wenn es NV schafft, die Performance der GTX285 zu verdoppeln, ist die HD5970 weg vom Fenster. Angesichts von µRucklern und Co reichen eigentlich schon +60 bis +80 Prozent. Alles andere wäre enttäuschend.

Gast
2009-12-04, 21:38:28
und wann gabs das letzte mal nen von einer generation auf die andere nen 85%igen performance sprung?

boxleitnerb
2009-12-04, 21:38:53
Hm stimmt, hatte vergessen, dass die 5000er Serie nicht so ein großer Sprung auf G200b ist.

LovesuckZ
2009-12-04, 21:42:58
und wann gabs das letzte mal nen von einer generation auf die andere nen 85%igen performance sprung?

4870 <> 3870.
8800GTX <> 7900GTX (bzw. 66% auf die X1950XTX).

y33H@
2009-12-04, 21:43:21
und wann gabs das letzte mal nen von einer generation auf die andere nen 85%igen performance sprung? G80 alias 8800 GTX? GT200 hatte in Form der GTX280 auf sehr oft 60-80% Vorsprung vor einer 88GTX.

StefanV
2009-12-04, 22:26:06
und wann gabs das letzte mal nen von einer generation auf die andere nen 85%igen performance sprung?
Immer dann, wenn die vorige Architektur nicht besonders toll war (und man die Käfer erschlagen hat/Macken ausgebügelt)...

nV3x -> nV4x und von G70 auf G80, bei AMD kam das bisher nicht soo oft vor, da die Architektur schon recht gut war, allerdings hat man zu lange an nur 16 TMUs/ROPs festgehalten...

reunion
2009-12-04, 23:26:06
aufhängen war das nicht, eher eine richtigstellung deines angeblichen zitats.

Wenn man nicht fähig ist etwas richtig zu interpretieren.

Gast
2009-12-04, 23:46:19
Immer dann, wenn die vorige Architektur nicht besonders toll war (und man die Käfer erschlagen hat/Macken ausgebügelt)...

nV3x -> nV4x und von G70 auf G80, bei AMD kam das bisher nicht soo oft vor, da die Architektur schon recht gut war, allerdings hat man zu lange an nur 16 TMUs/ROPs festgehalten...
Ah, das liest sich als ob AMD:
a) damals weit abgeschlagen hinterhergehechelt ist
b) heute um Welten vorraus ist

Mal wieder recht einseitig betrachtet, wenn man nicht weiter darüber nachdenkt fällt es gar nicht mal Jedem auf.

StefanV
2009-12-04, 23:52:29
oder c) damals nVidia einfach ins Klo gegriffen hat, bei der Architektur und AMD hier eine bessere gewählt hat (ALUs und TMUs independent, imgegensatz zu dependend bei nV).

Mit G80 hat nVidia ja bekanntlich nachgelegt...

LovesuckZ
2009-12-04, 23:55:33
Und AMD hat ins Klo gegriffen. Aber das verheimlicht man das liebers, gell?

Gast
2009-12-04, 23:58:50
StefanV:
Das meine ich, immer schön einseitig beleuchten.
Du machst es sogar nachdem man dich ertappt hat.
Nach deinen Behauptungen ist AMD momentan um Welten vorraus, quasi bei einer HD9 während Nvidia bei GTX 200 hängt. Oder du leugnest die Existenz der 9700 Pro.

StefanV
2009-12-04, 23:59:01
Ähm, das sehe ich anders (http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen) und der/die Schreiber des Artikels ebenso.

@Gast
Eine deutliche Überlegenheit einer Vorgängergeneration muss bei der aktuellen nicht viel heißen.
AMD war bis x1 Serie von der Performance her deutlich vor nVidia, sofern denn Shader wirklich genutzt worden wären.
Bei R600 hat AMD ins Klo gegriffen, die gröbsten Käfer hat man aber auch erst mit der 700er Reihe erschlagen (z.B. das MSAA Problem).

Coda
2009-12-05, 00:01:05
Wobei man bei R600 gar nicht so viel falsch gemacht hatte. Das Zusammenspiel von dämlichen Designentscheidungen (Point-Sampler wtf?) und Bugs hat zum Resultat geführt.

Bei GT300 seh ich jetzt zumindest noch keine dämliche Designentscheidung ;)

Gast
2009-12-05, 00:02:21
Ach wie lustig.
- Alte Generationen sollen den jetzt zustand dokumentieren.
- 256MiB bei den Geforces
- PCIe 4x
- ältere Geforces vs neuere Radeons
- neue Radeons ohne Geforce Pendant
- alte Geforces ohne Radeon Pendant
- Dank SM2 zieht die X800 in SM3 Titel davon, juhu

Gast
2009-12-05, 00:05:22
Eine deutliche Überlegenheit einer Vorgängergeneration muss bei der aktuellen nicht viel heißen.
AMD war bis x1 Serie von der Performance her deutlich vor nVidia, sofern denn Shader wirklich genutzt worden wären.
Bei R600 hat AMD ins Klo gegriffen, die gröbsten Käfer hat man aber auch erst mit der 700er Reihe erschlagen (z.B. das MSAA Problem).
Dann passt deine Behauptung nicht.
"bei AMD kam das bisher nicht soo oft vor, da die Architektur schon recht gut war"
Entweder es passierte genauso oft oder R600 war schlimmer als zugegeben oder AMD war zuvor nicht besser oder gleich gut sondern schlechter dran.

LovesuckZ
2009-12-05, 00:07:04
Wobei man bei R600 gar nicht so viel falsch gemacht hatte. Das Zusammenspiel von dämlichen Designentscheidungen (Point-Sampler wtf?) und Bugs hat zum Resultat geführt.


Texturleistung und Pixelleistung sind nur leicht gestiegen zum r580. Die peak Rechenleistung ist zu gering für eine ineffiziente Architektur. Selbst FP16 in einem Takt zu filtern hat AMD rückgängig gemacht.
Sie brauchten 1 1/2 jahre, um wieder mit nVidia gleichziehen zu können. Das hat ihnen viel Geld gekostet.

san.salvador
2009-12-05, 00:07:06
Wobei man bei R600 gar nicht so viel falsch gemacht hatte. Das Zusammenspiel von dämlichen Designentscheidungen (Point-Sampler wtf?) und Bugs hat zum Resultat geführt.

Bei GT300 seh ich jetzt zumindest noch keine dämliche Designentscheidung ;)
Stefan wird dir sicher gerne helfen.

StefanV
2009-12-05, 00:07:48
- Dank SM2 zieht die X800 in SM3 Titel davon, juhu
Nope, dank von ALU unabhängiger TMU, die sich nicht gegenseitig blockieren.
Bei nVidia schaut das anders aus.

Und bei solchen 'alten Tests' nimmt man halt das, was gerade verfügbar ist, gerade bei nicht kommerziellen Seiten ist es nicht immer möglich, alle Karten zur Verfügung zu haben.
Das ist leider manchmal etwas doof, da man nicht all das machen könnte, was man gern wollte...
Wobei man bei R600 gar nicht so viel falsch gemacht hatte. Das Zusammenspiel von dämlichen Designentscheidungen (Point-Sampler wtf?) und Bugs hat zum Resultat geführt.
Doch, hab ich weiter oben geschrieben, man hat zu lange an 16 TMUs festgehalten, bei R420 wars mehr als OK, bei R520/580 gerade noch akzeptabel, bei R600 aber schon etwas doof...
Bei GT300 seh ich jetzt zumindest noch keine dämliche Designentscheidung ;)
Naja, das kommt meist erst ans Licht, wenns den Nachfolger schon gibt...

Gast
2009-12-05, 00:14:06
Nope, dank von ALU unabhängiger TMU, die sich nicht gegenseitig blockieren.
Bei nVidia schaut das anders aus.
Achso, das war der Grund das die X800 so gut gegen die X1000, HD2 und sogr HD3 dasteht.
Alles klar, es lag nicht daran das dank SM2 weniger Details zusehen sind.


Und bei solchen 'alten Tests' nimmt man halt das, was gerade verfügbar ist, gerade bei nicht kommerziellen Seiten ist es nicht immer möglich, alle Karten zur Verfügung zu haben.
Das ist leider manchmal etwas doof, da man nicht all das machen könnte, was man gern wollte...Dann gibts eben das sehr einseitige Bild der alten Geforces mit 256MiB vs neue Radeons mit 512MiB.
Diese Kritik müssen sich die Ersteller gefallen lassen, diese Kritik muss auch jeder der diesen Artikel als Argument anbringt akzeptieren.

StefanV
2009-12-05, 00:18:03
Achso, das war der Grund das die X800 so gut gegen die X1000, HD2 und sogr HD3 dasteht.
Alles klar, es lag nicht daran das dank SM2 weniger Details zusehen sind.
...und das man (immer noch) nur 16TMUs verbaut hat...

Dann gibts eben das sehr einseitige Bild der alten Geforces mit 256MiB vs neue Radeons mit 512MiB.
Diese Kritik müssen sich die Ersteller gefallen lassen, diese Kritik muss auch jeder der diesen Artikel als Argument anbringt akzeptieren.
Hm, die 7800GTX gabs damals doch nur mit 256MiB, wenn ich mich nicht irre.
512MiB gabs erst ab 7900GTX...

Gast
2009-12-05, 00:31:14
...und das man (immer noch) nur 16TMUs verbaut hat...

Das ist also der Grund die X800 zu loben, das sie so schnell wie eine HD3 ist?
Sollte man nicht umgekehrt die HD3 kritisieren?

Wie die X800 bei zunehmenden Details Richtung ersten Platz pirscht ist Zufall. Zufall der es erlaubt trotz geringer Texturleistung besser dazustehen.

Hm, die 7800GTX gabs damals doch nur mit 256MiB, wenn ich mich nicht irre.
512MiB gabs erst ab 7900GTX...
Stimmt, die 7800 GTX gabs damals nur mit 256MiB.
Ein halbes Jahr vor der X1800. Habe ich schon erwähnt wie viele Radeon noch getestestet wurden, die jünger und höher als eine 7800 GTX eingestuft sind?
Macht ja nichts, das war sicher nicht der Grund das im Ergibnis oben alles rot ist.
Es ist Nvidias Schuld das die ein Jahr jüngere X850 XTPE schneller als eine 6800 Ultra ist.

G!ZMo
2009-12-05, 01:01:39
Hm, die 7800GTX gabs damals doch nur mit 256MiB, wenn ich mich nicht irre.
512MiB gabs erst ab 7900GTX...
Nö... gab damals auch schon eine 7800GTX-512, die aber recht rar gesäht war. :freak:

=Floi=
2009-12-05, 01:02:35
es lag nicht nur an den tmus. bei manchen spielen brach der R600 einfach weg. im vergleich dazu war der R580 geradezu eine bombe. dieser war teils gleichauf oder sogar schneller wie der R600. Der R580 war durchweg schnell und hatte keine solchen einbrüche.

der GT300 baut aber schon mal auf einer sehr guten und bewährten architektur auf und bei ihm scheitert es ja nur am takt und nicht am design. das würde ich schon unterscheiden!

StefanV
2009-12-05, 01:07:59
Nö... gab damals auch schon eine 7800GTX-512, die aber recht rar gesäht war. :freak:
Ich erinnere mich dunkel.
Aber die war auch sau teuer, oder? (hatte die niemand im Angebot/Programm, da mit Referenzdesign nicht möglich?)

Bei AMD kamen die 512MiB Modelle früher, schon die x1800XT gab es mit 512MiB, die sah man auch öfter mal.

Gast
2009-12-05, 01:22:03
Ich erinnere mich dunkel.
Aber die war auch sau teuer, oder? (hatte die niemand im Angebot/Programm, da mit Referenzdesign nicht möglich?)Doch, die 7800GTX-512 war eine offizielle Nvidia-Karte. War zwar in der Tat sehr teuer, aber dafür wurden die Taktraten in Relation zur 7800GTX doch ziemlich stark erhöht (430 -> 550). Dazu halt den damals exklusivsten GDDR3-Speicher und einen tollen Kühler. Praktisch die Ultra.

PulsarS
2009-12-05, 09:49:17
Wie kann man sich nur seitenlang über die TDP-Angaben streiten?
Ist für die meisten User eh irrelevant.
Die meisten wollen doch wissen wie viel ihre Karte beim Spielen verbraucht.
Und ich finde die Messungen mit einem Rennspiel wie z.B. GRID ideal, da man eine fast konstante Belastung hat und damit die Karte schon ordentlich auf Temperatur bringen kann.
Furmark und OCCT sind doch eher akademischer Natur.
Für den Alltag völlig irrelevant.

Gast
2009-12-05, 10:21:10
Nö... gab damals auch schon eine 7800GTX-512, die aber recht rar gesäht war. :freak:
Dann wäre die AMD Dominanz nicht mehr so lustig gewesen.

Jetzt ist es doch gerade sol lustig, weil AMD mit 3 neueren Generationen (X1000, HD2, HD3) und zwei Refreshes dasteht (X1900, X1950).

Mit der 7800 GTX 512 würde der AMD Bonus der X1800 beseitigt. Nicht leistungsmäßig, sondern zeitlich gesehen.
Leistungsmäßig wäre Nvidia dann zumindest mit einer 512MiB Version vertreten.

reunion
2009-12-05, 10:44:57
<blabla zensiert vom bösen Mod>

Wie kann man sich nur seitenlang über die TDP-Angaben streiten?


Ich lasse mir hier nicht irgend was unterstellen nur weil manchen Leute nicht fähig sind Dinge richtig zu interpretieren, oder das ganz bewusst nicht wollen. So einfach ist das. Das ich die TDP genannt habe ist allgemein bekannt, was soll ich auch sonst nennen wenn man die Chips noch gar nicht testen kann? Alles andere würde als Vergleich zur von LS ebenfalls genannten TDP auch keinen Sinn ergeben. Daraus jetzt einen Strick zu drehen ist mehr als überflüssig.

tombman
2009-12-05, 11:00:21
Intel hat Angst vor Fermi ;)

http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_12_4/Intel-cans-consumer-Larrabee-compatibility-performance-and-nVidia-related-issues\INTC_Larrabee_FAIL_215.jpg


http://www.brightsideofnews.com/news/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx

aylano
2009-12-05, 11:01:30
http://www.nvidia.com/object/product_geforce_gtx_285_us.html
Es hat wohl seinen Grund, warum so viele, wenn nicht alle online-Berichter, bei der Einführung von 183 Watt-TDP schrieben.

Falsche Informationsfluss oder nachträgliche Korrektur.

Ansonsten zeigt GTX285 und GTX275, dass die TDP keine Aussage über Kartenvarianten aufzeigt, sonst dürfte die GTX275 nicht mehr verbrauchen als eine GTX285.
Ich versuche auch immer nur Vergleiche mit Standard-Modellen zu machen a la 380 vs. 285 bzw. 280.
Die Rosinen-Vergleiche kommen ja von anderen.

Klar, dass die auf billig-getrimmte Karte einen schlechteren Stromverbrauch hatte.
Aber deshalb konnte sie auch billiger verkauft werden und die Nachfrage war laut Geizhals-Beobachtung bei der 275 deutlich besser als bei der 285
Eben deshalb vergleiche ich immer nur die Standard-Modelle.

Dural
2009-12-05, 11:59:55
beides sind standard modelle..........


und die 7800GTX 512 kam erst später, kurz vor der 7900GTX

Gast
2009-12-05, 12:23:41
und die 7800GTX 512 kam erst später, kurz vor der 7900GTX
Jo, die Hälfte aller getesten AMD Karten kam nach der 7800 GTX.
Das die 512MiB Bonus für AMD noch zusätzlich reinkommt ist nur ein Tropfen auf den heißen Stein. Ebenso die 4xPCIe oder der SM2 Bonus in z.b. Crysis.

PCGH_Carsten
2009-12-05, 12:41:12
beides sind standard modelle..........


und die 7800GTX 512 kam erst später, kurz vor der 7900GTX

Ja, vieeeel später. Drei bis vier Monate nach 7800GTX/256 und ~5 Monate vor 7900 GTX.

bloub
2009-12-05, 13:08:30
<blabla zensiert vom bösen Mod>



Ich lasse mir hier nicht irgend was unterstellen nur weil manchen Leute nicht fähig sind Dinge richtig zu interpretieren, oder das ganz bewusst nicht wollen. So einfach ist das. Das ich die TDP genannt habe ist allgemein bekannt, was soll ich auch sonst nennen wenn man die Chips noch gar nicht testen kann? Alles andere würde als Vergleich zur von LS ebenfalls genannten TDP auch keinen Sinn ergeben. Daraus jetzt einen Strick zu drehen ist mehr als überflüssig.

sehr uneinsichtig von dir, dabei hast du den fehler gemacht, nicht ich. einfach mal ganz gelassen einen fehler eingestehen kann eben nicht jeder.

reunion
2009-12-05, 13:26:00
sehr uneinsichtig von dir, dabei hast du den fehler gemacht, nicht ich. einfach mal ganz gelassen einen fehler eingestehen kann eben nicht jeder.

Das ist ja wohl die Höhe. Sich an irgend einer Belanglosigkeit aufzuhängen die im Kontext betrachtet das einzig Richtige war und dann zu behaupten ich habe einen Fehler gemacht?! Wenn du das wirklich nicht verstehst dann tut es mir Leid für dich. Du bist entweder extrem ignorant, stellst dich bewusst Blöd oder verstehst es wirklich nicht. So oder so solltest du mal was dagegen tun. Sprich mit dir selbst, für mich ist hier EoD.

LovesuckZ
2009-12-05, 13:54:32
Um die Stimmung nach der Intel-Ankündigung aufzuhellen:
That brings us to the main point, what is GT300? If you recall Jen-Hsun's mocking jabs about Laughabee, you might find it ironic that GT300 is basically a Larrabee clone. Sadly though, it doesn't have the process tech, software support, or architecture behind it to make it work, but then again, this isn't the first time that Nvidia's grand prognostications have landed on its head.
http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

V2.0
2009-12-05, 13:57:07
Was haben eigentlich X800 und GTX7800 mit Fermi zu tun?

Gast
2009-12-05, 14:00:54
Was haben eigentlich X800 und GTX7800 mit Fermi zu tun?
Frag das StevanV.
Der meint AMD besser aussehen lassen zu müssen, mit seltsamen Konstrukten, die einer genauen Betrachtung nicht standhalten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7698955&postcount=6409
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7698973&postcount=6412

Ailuros
2009-12-05, 14:19:29
Zurueck zum Thema bitte.

bloub
2009-12-05, 16:20:36
Das ist ja wohl die Höhe. Sich an irgend einer Belanglosigkeit aufzuhängen die im Kontext betrachtet das einzig Richtige war und dann zu behaupten ich habe einen Fehler gemacht?! Wenn du das wirklich nicht verstehst dann tut es mir Leid für dich. Du bist entweder extrem ignorant, stellst dich bewusst Blöd oder verstehst es wirklich nicht. So oder so solltest du mal was dagegen tun. Sprich mit dir selbst, für mich ist hier EoD.

aua wenn hier einer arrogant ist, bist du das. der fehler kam von von dir und ich habe mir erlaubt, den etwas richtigzustellen. wo ist dein problem dabei?

Erstens hab ich hoeflichst gebeten dass es zurueck zum eigentlichen Thema kommt; zweitens wunder Dich auch nicht ueber Deine Verwarnung. Deine vorigen Posts in diesem Thread hat zwar jemand anders behandelt, aber ich ziehe jetzt den Strich. Mir ist egal was Ihr beiden fuer Differenzen habt und diese loest gefaelligst im Notfall privat.

LovesuckZ
2009-12-07, 21:33:43
Irgendwie vermisse ich KonKort. Der bringt immer so positive News über GF100:
Die Chancen, dass Nvidia Fermi, wie lange Zeit geplant, in Q4/2009 vorstellen wird, gehen zwar inzwischen gegen Null, aber schon die Anfang Januar startende Consumer Electronics Show in Las Vegas könnte zum Launchevent werden.

Die Gerüchteseite Fudzilla legt den aktuellen Status, der sich auch mit unseren Informationen deckt, dabei gut dar: So berichtet man, dass Nvidia ab Januar vereinzelt Fermi-Chips haben wird und somit theoretisch einen Launch anleiern könnte, Verfügbarkeit aber erst gegen März realistisch scheint.
http://www.hardware-infos.com/news.php?news=3334

Oder schreibt er nur ab?

mapel110
2009-12-07, 21:51:46
Dave Baumann bringt auch die Ausrede mit der Fertigungskapazität bei TSMC. Also angeblich nix miese Ausbeute. Dann dürfte es bei Fermi ja auch gut aussehen mit März und breiter Verfügbarkeit ala RV870. :)

Dural
2009-12-07, 22:03:34
naja die ausbeute/kapazität muss schon brutal schlecht sein wenn sie nicht mal den "kleinen" RV870 in vernünftigen mengen liefern können...

frag mich gerade wer eigentlich in diesem fall die verluste übernimmt? NV wurde doch sicher die 40nm produkte in einem bestimmten zeitrahmen zugesichert oder nicht?

=Floi=
2009-12-07, 22:09:52
spekulieren können wir selbst auch. dafür brauchen wir konkort nicht. bisher kam da nicht si viel brauchbares.

LovesuckZ
2009-12-07, 22:33:43
Dave Baumann bringt auch die Ausrede mit der Fertigungskapazität bei TSMC. Also angeblich nix miese Ausbeute. Dann dürfte es bei Fermi ja auch gut aussehen mit März und breiter Verfügbarkeit ala RV870. :)

Yields und Fertigungskapazitäten gehen Hand in Hand.
Aber viel erstaunlicher finde ich, dass die Leute sich dort nicht entscheiden können: Wenn nVidia nicht liefern kann, dann sind sie schuld, da sie die Design-Rules nicht befolgt hätten. Wenn AMD nicht liefern kann, dann liegt es an TSMC und deren Fertigungskapazitäten. Das Forum sollte aufpassen nicht vollkommen von komischen Gestalten unterwandert zu werden.

Dural
2009-12-07, 22:52:46
naja war doch schon immer so AMD/ATI ist gut und es liegt nie an ihnen (gerade aktuell: NV verlangt von TSMC das sie sich mit der produktion von DX11 ATI zurück halten usw.) wenn was nicht so läuft wie es sollte, sind ja die bessten... hingegen ist Intel/NV immer böse und wenn was nicht läuft sind immer sie schuld sind ja eh die kompletten loser... ich meine bis heute ist ja Intel schuld weil AMD immer wie weniger CPUs verkaufen, sie betrügen usw. obwohl da in diese richtung schon lange nichts mehr läuft... fakt ist doch einfach das der müll keiner will, sie sind schlich nicht kokurenz fähig! und wenn sie es doch mal sind versagt die marketing abteilung auf voller linie... ich meine es ist ja schon komplett armselig wenn ATI in den Benchmarks Intel CPUs verwenden muss!!! manchmal bekommt man ja fast das gefühl das AMD den CPU bereich schon mehr oder weniger aufgegeben hat, sich bewusst zurück halten da es keinen sinn macht...

Fakt ist das NV und Intel (meistens) Gewinn machen im gegensatz zu AMD/ATI... also wer ist jetzt genau der loser? :wink:

Hauwech
2009-12-08, 00:15:31
Dient A3 wirklich nur der Verbesserung der Yieldrate oder ist da vielleicht sogar bessere Taktbarkeit möglich?

Hoffen tut nVidia bestimmt auf beides aber dieser anscheinend recht schnell aus dem Hut gezauberte Respin lässt ja nicht unbedingt auf größere interne Änderungen schliessen. Mich täte aber schon interessieren wie ein Respin die Yieldrate verbessern kann. Weniger Redundanz oder Entschärfung von kritischen Pfaden? Handoptimierungen?

uweskw
2009-12-08, 00:28:07
naja war doch schon immer so AMD/ATI ist gut und ...................Intel/NV immer böse und wenn was nicht läuft sind immer sie schuld sind ja eh die kompletten loser...

Fakt ist das NV und Intel (meistens) Gewinn machen im gegensatz zu AMD/ATI... also wer ist jetzt genau der loser? :wink:

zu wie viel Millionen Strafe ist Intel verurteilt worden weil sie den Wettbewerb auf unfairste Weise beeinträchtigt haben?

Aber na klar, die Richter sind ja eh alle ATI Fanboys...... alle....weltweit!!

wie kann man nur so vernagelt sein?

Greetz
U.S.

=Floi=
2009-12-08, 00:42:08
wenn ich das so sehe wie gut das ganze funktioniert, dann würde ich es noch unfairer machen. bei mir würden intel leute im aufsichtsrat von amd sitzen. ;D hey, es (hat) funktioniert.
Es ist aber schon komisch wie viele verbissene rote fanboys es gibt.

----
meine eigentliche frage:
hat intel angst vor fermi? kam der abbruch, weil intel kein land gegen fermi gesehen hat? ist fermi in diesen bereichen SO gut?

die internen probleme beim LRB waren ja so gesehen eher klein und keine wirklichen hemmschuhe. ein hoher energieverbrauch und mäßige performance sind ja weniger schlimm, wenn der rest passt und wenn damit der grundstein gelegt wird. im HPC markt hätte man damit schon eine niesche besetzen können und erst einmal ein wenig geld damit verdienen können.

----
gibt es eigentlich auch andere verbesserungen und neuerungen beim GT300? stromverbrauch im idle? (der ist wichtig, denn unter 3d kann der chip von mir auch aus 300watt durchziehen, wenn die kühlung leise ist und die 3d power stimmt. :) ) digitale VRM? neue aa-modi? einen neuen videoprozessor?
gibt es gerüchte zu den kleineren ablegern? wann sollen diesen denn den markt erblicken? dank der 40nm 10.1 krücken kann dies wohl noch "jahre" dauern...

Gast
2009-12-08, 00:50:44
wenn ich das so sehe wie gut das ganze funktioniert, dann würde ich es noch unfairer machen. bei mir würden intel leute im aufsichtsrat von amd sitzen. ;D hey, es (hat) funktioniert.
Es ist aber schon komisch wie viele verbissene rote fanboys es gibt.



eher anders herum......


meine eigentliche frage:
hat intel angst vor fermi? kam der abbruch, weil intel kein land gegen fermi gesehen hat? ist fermi in diesen bereichen SO gut?



warum sollte Intel angst vor Fermi haben?
Sie haben eher angst das sie sich vpr allen zum deppen machen und nicht vor Fermi :rolleyes:

Gestrandet
2009-12-08, 01:26:49
meine eigentliche frage:
hat intel angst vor fermi?
LOL der war gut :D
Intel hat vor Fermi soviel Angst wie Monsanto vor Linda.
Wenn Intel überhaupt jemand fürchtet, dann Google. Wenn der Brin morgen mit dem falschen Fuß zuerst aufsteht, kauft er mal grad AMD, ARM und nvidia und die FTC noch obendrauf, dann hat Intel aber wirklich schlechte Karten ;-)

Gast
2009-12-08, 02:00:14
Ich bin ja mal gespannt auf das kaufbare Produkt, nicht dass dann alle ähnlich enttäuscht sind, wie nach dem R600 Launch. Der Hype um die neueste NV-Problemgeburt ist jedenfalls kaum mehr auszuhalten;)

Coda
2009-12-08, 02:36:33
warum sollte Intel angst vor Fermi haben?
Weil er das Programmiermodell von LRB auch für GPUs bringt.

mapel110
2009-12-08, 07:55:37
http://twitpic.com/smz46
http://www.abload.de/img/48101190k4uc.jpg
Zwei mal GF100?!

V2.0
2009-12-08, 08:24:25
Warum nicht als SLI?

Gerüchteweise sollen wzischenzeitlich viele Sample-Karten unterwegs sein, aber das Thema ist plötzlich bei vielen tot.

James Ryan
2009-12-08, 08:33:05
Täuscht das auf den Bildern, oder sind die Gf100 Karten relativ lang (länger als GT200-Karten)?

MfG :cool:

Henroldus
2009-12-08, 08:36:45
... ich meine bis heute ist ja Intel schuld weil AMD immer wie weniger CPUs verkaufen, sie betrügen usw. obwohl da in diese richtung schon lange nichts mehr läuft...
hab ich was verpasst oder gibts im Mediamarkt mittlerweile AMD-Rechner? ;)

igg
2009-12-08, 09:21:30
Täuscht das auf den Bildern, oder sind die Gf100 Karten relativ lang (länger als GT200-Karten)?

MfG :cool:
Laut den funfacts of the week sollen sie exakt gleich lang sein

Gast
2009-12-08, 10:11:18
War es nicht so das NV den GT300 nicht deutlich später fertig bekommen hat und er deshalb erst im nächsten Jahr erscheint. Ich sehe da schon einen Unterschied zwischen den momentanen Problemen die ATI mit der Verfügbarkeit hat und der nicht vorgestellten GT300 Produktreihe.
Man kann zwar über die momentane Leistungsfähigkeit der AMD Produkte meckern, aber keiner kann sagen wie sich der geringere Gewinn von AMD in den Jahren mit dem überlegenen Produkt und der zu dieser Zeit definitiv vorhandenen Wettbewerbsverzehrung (DELL, MediaMarkt usw. usw.) auf die heutigen Produkte ausgewirkt hat und damit einen langfristigen Schaden für AMD verursacht hat. Das wird sich nie in Zahlen packen lassen und deshalb immer Spekulation bleiben wie es dann vielleicht gelaufen wäre, aber es könnte ja sein das der Bulldozer mit hören Gewinnen aus der Zeit heute schon da wäre.

StefanV
2009-12-08, 10:18:31
ein hoher energieverbrauch und mäßige performance sind ja weniger schlimm, wenn der rest passt
Richtig, in Zeiten von GreenIT und einem hype um die Effizienz von Netzteilen ist es weniger schlimm, wenn eine GPU mal 300-400W verbrät.

Schon mal überlegt, dass hier einige non Intel Fans das Ding so dermaßen niederflamen würden und verreißen, aufgrund dieses Zustandes?

Und was ist mit den Treibern?
Da hat Intel bisher nichts anständiges hin bekommen, die sind sogar so toll, das Appel die Intel IGPs meidet wie Teufel Weihwasser...

Ailuros
2009-12-08, 10:35:31
meine eigentliche frage:
hat intel angst vor fermi? kam der abbruch, weil intel kein land gegen fermi gesehen hat? ist fermi in diesen bereichen SO gut?

die internen probleme beim LRB waren ja so gesehen eher klein und keine wirklichen hemmschuhe. ein hoher energieverbrauch und mäßige performance sind ja weniger schlimm, wenn der rest passt und wenn damit der grundstein gelegt wird. im HPC markt hätte man damit schon eine niesche besetzen können und erst einmal ein wenig geld damit verdienen können.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366311&page=93


gibt es eigentlich auch andere verbesserungen und neuerungen beim GT300? stromverbrauch im idle? (der ist wichtig, denn unter 3d kann der chip von mir auch aus 300watt durchziehen, wenn die kühlung leise ist und die 3d power stimmt. :) ) digitale VRM? neue aa-modi? einen neuen videoprozessor?
gibt es gerüchte zu den kleineren ablegern? wann sollen diesen denn den markt erblicken? dank der 40nm 10.1 krücken kann dies wohl noch "jahre" dauern...

Nochmal NV's Ziel ist den Stromverbrauch des GF100 auf ~GTX285 Nivaeu zu halten. Sonst duerften alle GT21x Zusaetze (multimedia Schnickschnack) + zusaetzlichem Zeug vorhanden sein.

Kleinere Modelle der GF1xx Familie kommen erst zu ihrem tape out wenn bei GF100 alles stimmt. Unter normalen Umstaenden duerfte der Abstand dieser im Vergleich zu GF100 nicht ein Halbjahr betragen.

tombman
2009-12-08, 11:18:53
http://twitpic.com/smz46
http://www.abload.de/img/48101190k4uc.jpg
Zwei mal GF100?!
Hmm, dürften eher zwei Teslas sein (oder haben die keinen SLI Stecker?)

Falls es Geforces sind:


Diese Sau :devil:
Habe ich in 2 bis 3 Monaten auch im Rechner ;D

MorPheuZ
2009-12-08, 11:45:07
Das wird doch zt. auch über die PCI Brücke erreicht

LovesuckZ
2009-12-08, 11:52:50
Hmm, dürften eher zwei Teslas sein (oder haben die keinen SLI Stecker?)


Tesla hat laut den nVidia-Produktfotos eine grünes Platine. Das ist hier GF100. Haben sie ja schon öfters gezeigt. Langsam scheint Ende Januar - Februar als Launchtermin Wirklichkeit werden.

Dural
2009-12-08, 11:57:30
@tombman

wie kommst du auf tesla wenn auf den karten geforce steht? :wink:

hab ich was verpasst oder gibts im Mediamarkt mittlerweile AMD-Rechner? ;)

wenn die nachfrage da ist bestimmt auch mal wieder ;)

James Ryan
2009-12-08, 12:01:38
Laut den funfacts of the week sollen sie exakt gleich lang sein

Ich weiß, darum frage ich ja. ;)
Auf den Bildern sehen die eher nach der Länger einer HD 5870 aus.

MfG :cool:

Dural
2009-12-08, 12:10:04
ne die sind schon gleich lang!

juhu hab gerade ne GT240 bekommen, meine ersten NV 40nm GPU! nach 4770/5770/5870 wird das auch mal langsam zeit ;) leider nur mit 512MB GDDR3 aber für 50.- sicher OK, eine mit GDDR5 kommt dann auch noch... ;)

falls es einer interessiert (eher nicht) auf der GPU steht: GT215-301-A2 aus der Woche 39 (eigentlich recht alt) mit 4x Qimonda 1.0ns aus der Woche 02

bin schon richtig gespannt wie viel Spannung die auf der GPU haben!

reunion
2009-12-08, 12:20:47
Aber viel erstaunlicher finde ich, dass die Leute sich dort nicht entscheiden können: Wenn nVidia nicht liefern kann, dann sind sie schuld, da sie die Design-Rules nicht befolgt hätten. Wenn AMD nicht liefern kann, dann liegt es an TSMC und deren Fertigungskapazitäten. Das Forum sollte aufpassen nicht vollkommen von komischen Gestalten unterwandert zu werden.

Simple Logik. AMDs RV870 ist nachweislich schon lange fertig und wurde auch schon lange vorgestellt. Es mangelt an Kapazitäten. NV wurschtelt noch an neuen Steppings herum, ergo ist das Design noch nicht fertig. Das sollte man doch verstehen können wenn man dort mit ließt, wird ja schließlich auch begründet. Aber es scheint ja dein neues Hobby zu sein allen anderen Parteilichkeit vorzuwerfen, offensichtlich um möglichst von dir selber abzulenken. NV selbst konnte eh nichts besseres passieren als mangelnde 40nm Kapazitäten, da der Termin wenn beide Chips ausreichend verfügbar sein werden wohl nicht so weit auseinander liegen wird wie der Termin wo beiden Chips Produktionsreif waren.

Ailuros
2009-12-08, 12:27:49
Wie silent_guy auf B3D schon ausfuehrlich erklaerte ist die design rules These fuer die Muelltonne.

Wie dem auch sei bei CES erwarte ich persoenlich nichts Neues und ich stelle so langsam auch in Frage ob es selbst in Januar noch etwas daraus wird.

reunion
2009-12-08, 12:34:33
Wie dem auch sei bei CES erwarte ich persoenlich nichts Neues und ich stelle so langsam auch in Frage ob es selbst in Januar noch etwas daraus wird.

Wenn FUAD recht hat bekommen sie im Januar erst die finalen Samples, dh sie könnten dann höchstens einen Paperlaunch veranstalten, mit max. einer Hand voll Karten für die wichtigsten Pressevertreter. Bis die Massenproduktion halbwegs anläuft und Karten in den Handel kommen sollte es damit mindestens noch bis März dauern. Hardocp und Driverheaven sprachen ja schon vor einiger Tagen von einer Vorstellung nicht vor März in best case.

tombman
2009-12-08, 12:39:37
@tombman
wie kommst du auf tesla wenn auf den karten geforce steht? :wink:

ROFL, mein brain war so früh offensichtlich noch nicht auf Betriebstemperatur :ugly:

Außerdem mag man ja schon gar nimmer an einen Launch vor März glauben. Wenn aber Jänner stimmt, gehöre ich zu den Bullshit Bingo Gewinnern.
Hmm, die Umfrage sollte man jetzt schließen- sonst wirds unfair :)

Dural
2009-12-08, 12:54:00
wir werden garantiert was im januar sehen... es ist so unheimlich still... ;)

Ailuros
2009-12-08, 12:56:09
wir werden garantiert was im januar sehen... es ist so unheimlich still... ;)

Wenn es zu still wird kann es alles oder gar nichts heissen.

boxleitnerb
2009-12-08, 13:01:38
Die sprichwörtliche Ruhe vor dem Sturm :biggrin:

Oder die Ruhe vor der...Ruhe :frown:

Dural
2009-12-08, 13:03:09
wenn du meinst...

mir ist das eh egal, da ich in 2 wochen wieder mein ausweis nach 4 monaten zurück bekomme :wink:

reunion
2009-12-08, 13:04:58
Wenn man etwas hat dann würde man das in der jetzigen Situation auch zeigen, so einfach ist das. Immerhin darf sich die Konkurrenz schon lange feiern lassen. Jetzt ist Ruhe IMHO sicherlich kein gutes Zeichen. Ich erwarte im Januar zumindest Benchs von NV und ev. einen Paperlauch (wenn die Karte hält was sie verspricht), Karte allerdings nicht vor März.

Gast
2009-12-08, 13:14:58
Dient A3 wirklich nur der Verbesserung der Yieldrate oder ist da vielleicht sogar bessere Taktbarkeit möglich?



Takt und Yield sind immer voneinander abhängig. Wenn der Yield steigt (bei gleichem Takt) kann man immer mehr Takt bei gleichem Yield liefern.

Die Frage ist immer wirtschaftlicher ist.

Gast
2009-12-08, 13:16:05
hab ich was verpasst oder gibts im Mediamarkt mittlerweile AMD-Rechner? ;)

Nein, wieso auch, Mediamarkt bietet Produkte für die Masse und die Masse will Intel und nicht AMD.

Sonyfreak
2009-12-08, 13:31:45
Nein, wieso auch, Mediamarkt bietet Produkte für die Masse und die Masse will Intel und nicht AMD.Was will AMD denn dann, deiner Meinung nach? :confused:

mfg.

Sonyfreak

anddill
2009-12-08, 13:33:46
Nein, wieso auch, Mediamarkt bietet Produkte für die Masse und die Masse will Intel und nicht AMD.
Der Masse ist die CPU scheissegal.

Gast
2009-12-08, 13:34:15
Nein, wieso auch, Mediamarkt bietet Produkte für die Masse und die Masse will Intel und nicht AMD.
Die Masse will das was man ihr anbietet/darbietet/anpreist.
war nie anders und wird nie anders sein. Leistungsdaten/fakten/preise sind zweit- und dritt-rangig.

anddill
2009-12-08, 13:36:56
Eben. Die wollen viel GHz, viel Kerne, viel Ram und eine Gehforse mit 1Gigabyte, weil nur mit die geht 3D ;D

Psychopat
2009-12-08, 13:42:31
Nein, wieso auch, Mediamarkt bietet Produkte für die Masse und die Masse will Intel und nicht AMD.
Wenn man die Geilzhals top 10 als Indikator für das nimmt was die Leute *wollen*, liegt der Phenom X4 955 auf Platz 7 nur 2 Plätze hinter Intel mit dem Core i5-750 auf Platz 5.

Jetzt wäre doch eigentlich mal die Gelegenheit für AMD es denen bei Mediamarkt heimzuzahlen. 58xx werden nur geliefert wenn auch Phenoms ins Angebot aufgenommen werden. Ansonsten gehen die 58xx halt an andere Händler die damit ordentliche Deppensteuer kassieren können...

boxleitnerb
2009-12-08, 13:44:55
Als ob die im Mediamarkt überhaupt weggehen würden. Das bezweifle ich doch stark. Der typische Mediamarktkunde kennt doch nur Geforce und will nix anderes.

igg
2009-12-08, 14:00:24
Der Masse ist die CPU scheissegal.
Nein, Intels Marketing Kampagnen sind genial. Stichwort Pentium, Intel Inside, Centrino usw.

Ein Käufer hat bei Produkten, die eins dieser Label tragen, einfach ein gutes Gefühl.

anddill
2009-12-08, 14:07:49
Nach diesem kleinen Ausflug ins Marketing sollten wir zum Thema Fermi/GF100 zurückkehren, bzw. einfach die Finger still halten, bis es was zum Thema gibt.

LovesuckZ
2009-12-08, 14:14:54
Geforce GTX 380

- 3.0 Billion Transistors on TSMC 40nm Process.
- 16 Streaming Multiprocessors (SM).
- Each SM has 2x16-wide groups of Scalar ALUs (IEEE754-2008, FP32 and FP64 FMA).
- The 16 SMs Have 768KB Shared L2 Cache.
- 512 Stream Processors (1-way Scalar ALUs) at 1700MHz.
- 512 ALUs Total.
- 512 FP32 FMA Ops/Clock.
- 256 FP64 FMA Ops/Clock.
- SP (FP32) FMA Rate : 1.74 Tflops.
- DP (FP64) FMA Rate : 870 Gflops.
- 128 Texture Address Units (TA).
- 128 Texture Filtering Units (TF).
- INT8 Bilinear Texel Rate : 83.2 Gtexels/s
- FP16 Bilinear Texel Rate : 41.6 Gtexels/s
- 48 Raster Operation Units (ROPs).
- ROP Rate : 31.2 Gpixels
- 650MHz Core.
- 384 bit Memory Subsystem.
- 4200 MHz Memory Clock.
- 201.6 GB/s Memory Bandwidth.
- 1536MB GDDR5 Memory.
January 2010 release date. Price : 499 USD
GeForce GTX 380 will be 15% faster than dual GPU Radeon HD 5970.
http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3034

GeForce GTX 360

- 3.0 Billion Transistors on TSMC 40nm Process.
- 12 Streaming Multiprocessors (SM).
- Each SM has 2x16-wide groups of Scalar ALUs (IEEE754-2008, FP32 and FP64 FMA).
- The 12 SMs Have 512KB Shared L2 Cache.
- 384 Stream Processors (1-way Scalar ALUs) at 1500 MHz.
- 384 ALUs Total.
- 384 FP32 FMA Ops/Clock.
- 192 FP64 FMA Ops/Clock.
- SP (FP32) FMA Rate : 1.152 Tflops.
- DP (FP64) FMA Rate : 576 Gflops.
- 96 Texture Address Units (TA).
- 96 Texture Filtering Units (TF).
- INT8 Bilinear Texel Rate : 62.4 Gtexels/s
- FP16 Bilinear Texel Rate : 31.2 Gtexels/s
- 40 Raster Operation Units (ROPs).
- ROP Rate : 26 Gpixels
- 650 MHz Core.
- 320 bit Memory Subsystem.
- 4200 MHz Memory Clock.
- 168 GB/s Memory Bandwidth.
- 1280MB GDDR5 Memory.
January 2010 release date. Price : 379 USD.
In terms of performance GTX 360 will sit between HD 5870 and dual GPU HD 5970.
http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3035

Weder von Fuad, Theo noch Charlie. Wird dann wohl stimmen. ;D

Gast
2009-12-08, 14:18:57
Quelle: BSON => BILD ;D

igg
2009-12-08, 14:27:18
@LovesuckZ: Das wäre zu schön um wahr zu sein :(

LovesuckZ
2009-12-08, 14:27:59
Quelle: BSON => BILD ;D

Sind zwei Kommentare aus dem Larrabee Artikel.
Hier die zwei GF100 Cards in Großaufnahme:

http://www.tcmagazine.com/images/news/Hardware/Nvidia/Nvidia_GF100_SLI_02.jpg
http://www.tcmagazine.com/comments.php?shownews=31382&catid=2

Vielleicht hat jemand gute Augen und erkennt, ob es sich um 2x6PIN oder 1x6PIN und 1x8PIN beim Stromanschluss handelt.

Ailuros
2009-12-08, 14:40:53
@LovesuckZ: Das wäre zu schön um wahr zu sein :(

Die Frequenzen sind genau diese die Rys schon seit einiger Zeit spekuliert und der Rest ist auch nichts Neues denn man kann das Zeug kinderleicht nach der Fermi whitepaper Veroeffentlichung aufzaehlen.

Der Preis der 360 klingt ein bisschen zu niedrig IMO und zur Leistung noch kein Kommentar. Ein bisschen Spannung schadet nie und ein paar Monate wird man ja wohl noch Geduld haben koennen *rennt um sein Leben* :weg:

V2.0
2009-12-08, 14:50:16
Naja, der Preis hängt auch vom Launchdatum ab..... und wer ___ Monate später kommt ,der darf halt nicht übertreiben...

PulsarS
2009-12-08, 14:55:10
http://www.tcmagazine.com/images/news/Hardware/Nvidia/Nvidia_GF100_SLI_02.jpg
http://www.tcmagazine.com/comments.php?shownews=31382&catid=2

Vielleicht hat jemand gute Augen und erkennt, ob es sich um 2x6PIN oder 1x6PIN und 1x8PIN beim Stromanschluss handelt.
Sind die Karten nicht ein wenig zu kurz? Oder ich habe was an der Optik :D

GeForce GTX 380 will be 15% faster than dual GPU Radeon HD 5970.
In terms of performance GTX 360 will sit between HD 5870 and dual GPU HD 5970.
Hoffentlich meinen die damit die Performance bei Spielen...

Ailuros
2009-12-08, 14:56:33
Naja, der Preis hängt auch vom Launchdatum ab..... und wer ___ Monate später kommt ,der darf halt nicht übertreiben...

Stets im Vergleich von 360 zu 380. Ob ~16% mehr Speicher gut genug ist um einen ~25% Preisunterschied zu gerechtfertigen?


Hoffentlich meinen die damit die Performance bei Spielen...

Moment ich log mich mal schnell aus und poste als Gast eine andere Specliste. Wird wohl genauso glaubwuerdig sein oder?

LovesuckZ
2009-12-08, 14:57:01
nVidia wird aufjedenfall eine Karte in der Nähe des 5870 Spots plazieren. 379$ hören sich da vernünftig an. Die GTX260 kostete beim Launch ohne Konkurrenz 399$.

Stets im Vergleich von 360 zu 380. Ob ~16% mehr Speicher gut genug ist um einen ~25% Preisunterschied zu gerechtfertigen?

Ist das ein Grund für nVidia? Die GTX285 ist/war auch überteuert, wenn man sie zur GTX260 und GTX275 in Relation setzen würde. Die GTX280 kostete beim Launch ganze 250$ mehr als die GTX260 - und da war der Abstand auch nur bei 25%.

Ailuros
2009-12-08, 14:58:54
nVidia wird aufjedenfall eine Karte in der Nähe des 5870 Spots plazieren. 379$ hören sich da vernünftig an. Die GTX260 kostete beim Launch ohne Konkurrenz 399$.

Dann aber wohl eher 379/449 als 379/499 monsieur ;)

LovesuckZ
2009-12-08, 15:00:52
Dann aber wohl eher 379/449 als 379/499 monsieur ;)

Hab oberen Beitrag editiert.
nVidia wird die beste Karte immer deutlich teurer verkaufen. Solch ein kleiner Abstand macht keinen Sinn, da dann die kleine Karte überflüssig wird.

PulsarS
2009-12-08, 15:03:59
Moment ich log mich mal schnell aus und poste als Gast eine andere Specliste. Wird wohl genauso glaubwuerdig sein oder?
Anscheinend kam meine Anspielung nicht korrekt an. :)

Die Werte könnten ja sogar stimmen.
Bringt einem nur wenig, wenn damit irgendwelche synthetischen Benchmarks gemeint sind. :wink:
Darauf wollte ich hinaus. ;)

Ph0b0ss
2009-12-08, 15:06:15
Dann aber wohl eher 379/449 als 379/499 monsieur ;)

379/499 passen doch perfekt. 75% Leistung und 75% Preis.