PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommende GF100-Karten: Dual-GPU, Bx-Stepping


Seiten : [1] 2

AnarchX
2010-04-02, 10:13:39
Bei IT168 ist jetzt ein 384-Bit SI PCB mit aber nur 2x 6-Pin aufgetaucht:
http://img717.imageshack.us/img717/8005/9093b2d4693240d3afcc5c3.jpg
http://vga.it168.com/a2010/0402/868/000000868761.shtml

Ein Quadro oder Tesla-PCB scheint es definitv nicht zu sein.
Vorschau auf das vielleicht sparsamere Bx-Stepping oder gar eine GTX 480 Green Edition?

Winter[Raven]
2010-04-02, 10:24:59
Interessant für mich wäre jetzt zu wissen, in wie weit ein Refresh von Nvidia kommt.... Wenn man den 6 months cycle nimmt und davon die Verzögerung seitens NV+TMSC abzieht, wäre ein Refresh in den nächsten 3-4 Monaten zu erwarten. Wenn Nvidia jetzt an einem Bx stepping arbeitet, wäre es nicht sinnvoller sich auf den Refresh zu konzentrieren?

Gast
2010-04-02, 10:51:36
Bei IT168 ist jetzt ein 384-Bit SI PCB mit aber nur 2x 6-Pin aufgetaucht:
http://img717.imageshack.us/img717/8005/9093b2d4693240d3afcc5c3.jpg
http://vga.it168.com/a2010/0402/868/000000868761.shtml

Ein Quadro oder Tesla-PCB scheint es definitv nicht zu sein.
Vorschau auf das vielleicht sparsamere Bx-Stepping oder gar eine GTX 480 Green Edition?

Was spricht dagegen, dass es ein Tesla ist?
Für 2x 6Pin müsste die Leistungsaufnahme auf dem Papier um ca.70W und in der Realität umd ca. 90 Watt sinken.
Das halte ich ohne Shrink für sehr unwahrscheinlich.

Botcruscher
2010-04-02, 11:21:22
Was spricht dagegen, dass es ein Tesla ist?
Erstens das und zweitens einfach ein selbst erstelltes eines Herstellers.

Gast
2010-04-02, 14:16:32
Bei IT168 ist jetzt ein 384-Bit SI PCB mit aber nur 2x 6-Pin aufgetaucht:


Und wer sagt, dass es ein 480GTX-Board ist?

Ich nehme mal an, dass man auch für die 470er-Boards ein volles Speicherinterface verbaut, ansonsten man nicht nach belieben einen kaputten MC/ROP-Partition ausschalten sondern müsste zwingend einen bestimmten MC ausschalten und falls in einem anderen ein Fehler auftritt das DIE wegwerfen.

Es könnte auch noch eine 475GTX kommen, für die dann das Board verwendet wird.

Gast
2010-04-02, 14:29:59
;7946241']Interessant für mich wäre jetzt zu wissen, in wie weit ein Refresh von Nvidia kommt.... Wenn man den 6 months cycle nimmt und davon die Verzögerung seitens NV+TMSC abzieht, wäre ein Refresh in den nächsten 3-4 Monaten zu erwarten.


1. Gilt der 6-Monats-Zyklus schon seit Ewigkeiten nicht mehr

2. Was soll ein Refresh sein? Man wird wohl kaum riskieren noch mehr Transistoren mit der nicht wirklich funktionierenden 40nm-Fertigung herzustellen. Eine kleinere Technologie ist aber nicht in Sichtweite (es sei denn man würde Intels 32nm verwenden, klingt aber reichlich unrealistisch)
Es bleibt also nichts wirklich anderes übrig, als den bestehenden Chip zu optimieren, ob man das jetzt als neues Stepping oder Refresh bezeichnet dürfte wohl nicht wirklich relevant sein.

Man könnte wohl auch als Baukasten den GF104 als Basis nehmen und daraus einen größeren Chip bauen. Der könnte dann eventuell mit einem zum GF100-vergleichbaren Transistorcount eine höhere Leistung erreichen, aber bei den 40nm-Schwierigkeiten wird man wohl kaum unbedingt einen weiteren Riesenchip produzieren wollen.

Psychopat
2010-04-02, 16:51:24
Weil im Threadthema auch dual-GPU steht:
Was glaubt ihr eigentlich wie realistisch ein dual Fermi ist? OK, diese Diskussion gibt es schon seit GT200, aber bei Fermi ist halt was den Verbrauch angeht wirklich schon die Single GPU über 300W zu bringen. In Anbetracht der mittlerweile bekannten Leistungsaufnahme, wie viel Sinn macht ein dual Fermi? Den müsste man doch so weit runtertakten, dass er sich kaum von der GTX480 absetzen kann, geschweige denn der 5970.
Eure Meinung dazu?

Edit (Ist mir gerade noch eingefallen): AMD hat ja gesagt, man werde die längste Zeit 2010 die schnellste Grafikkarte haben. Wenn damit die 5970 gemeint ist und für Dual Fermi das neue Bx Stepping gebraucht wird, wäre mit einem Dual Fermi erst im 2. Halbjahr die Aussage schon erfüllt.

Spasstiger
2010-04-02, 17:03:56
Eine Dual-GF100-Karte halte ich seit dem Release der GTX 480 für etwas unwahrscheinlicher aber nicht für unmöglich. Die GTX 480 hat ja eigentlich eine TDP von knapp 300 Watt, auch wenn NV nur 250 Watt angibt. Messungen im Vergleich zur GTX 295 zeigen ja, dass beide Karte gleichauf liegen bei der maximalen Leistungsaufnahme und die GTX 480 bei realen Anwendungen sogar mehr schluckt.
Wenn NV eine Dual-GPU-Karte mit 2*512 SPs bringt - was in jedem Fall die energieeffizienteste Lösung ist -, müssen die Taktraten und vor allem die Spannung weit runter, um unter 300 Watt TDP zu bleiben. Man muss ja mit der Dual-GPU-Karte auf den gleichen Verbrauch wie bei der Single-GPU-Karte GTX 480 kommen! Ist aber imo nicht unmöglich. Beim Speicherinterface kann man nach dem Vorbild der GTX 295 noch etwas sparen, z.B. nur 2*320 Bit, was vor allem dem idle-Verbrauch zu Gute kommt.
Die Machbarkeit einer Dual-GF100-Karte mit max. 300 Watt TDP stelle ich nicht in Frage. Die Frage ist nur, ob eine solche Karte auch einen ordentlichen Performancegewinn gegenüber der GTX 480 bringen kann.
Angenommen man schraubt den Hotclock auf 1000 MHz runter (bei 2*512 SPs), reduziert das Speicherinterface auf 320 Bit pro GPU und taktet den Speicher nur mit 800 MHz (3,2 Gbps). Dann erreicht so eine Karte pro GPU nur ca. 75% der Leistung einer GTX 480 und im Dual-GPU-Betrieb ca. 130%-140% der GTX 480. Das wäre das Mindeste, was man mit einer Dual-GPU-Karte bringen müsste. Und selbst mit diesen Daten würde man imo auf eine höhere Leistungsaufnahme als mit der GTX 480 kommen.

AnarchX
2010-04-02, 17:07:38
Denkbar wäre auch den Weg zu gehen, welchen AMD mit den kommenden 5870x2 2x2GiB geht, eben kein Referenzdesign entwerfen, sondern mit einigen Partnern entsprechend GTX 480x2-Karten bauen, die sich dann auch nicht an die 300W Spec halten müssen.

Gast
2010-04-02, 17:32:32
Weil im Threadthema auch dual-GPU steht:
Was glaubt ihr eigentlich wie realistisch ein dual Fermi ist?



Kommt darauf an auf welchen Stromverbrauch man abzielt.

Will man die 300W der PCIe-Spec nicht überschreiten ist es total unrealistisch. Schon die 480GTX nützt diese im Prinzip ja schon voll aus, und das bei schon sehr niedriger Spannung. Mit 2 GPUs müsste man Takt und Spannung so weit reduzieren, dass man wohl eher langsamer als die 480GTX wäre.

Zweite Möglichkeit wäre, dass man auf den Stromverbrauch wie bei der 480er pfeift und zwar offiziell 300W angibt, aber auch, sagen wir mal 400W in kauf nimmt.

Damit dürfte es wohl möglich sein, sich von der 480GTX und auch von der 5970 abzusetzen, und da mit Dual-GPU die Auslastung generell geringer ist dürften auch die Fälle, in denen man seine eigene TDP überschreitet seltener werden.

Das heißt natürlich auch einen noch lauteren Lüfter, auch wenn man sich mit der Wärmeabfuhr aus 2 GPUs wohl etwas leichter tut.


Die letzte und imo wahrscheinlichste Möglichkeit wäre GF104 für die Dual-GPU zu verwenden. Damit sollte die 5970 knapp in Reichweite sein, ohne dass man über die 300W kommt.

Desti
2010-04-02, 17:34:45
Was spricht dagegen, dass es ein Tesla ist?
Für 2x 6Pin müsste die Leistungsaufnahme auf dem Papier um ca.70W und in der Realität umd ca. 90 Watt sinken.
Das halte ich ohne Shrink für sehr unwahrscheinlich.

Tesla Karten sollen doch keine 2 DVI und HDMI haben?

Spasstiger
2010-04-02, 17:43:56
Korrekt, die Fermi-Teslas haben nur 1*DVI:

http://images.nvidia.com/products/tesla_C2050_C2070/Tesla_C2050_C2070_3qtr_med.png

http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

Dural
2010-04-02, 18:02:46
GF104 / 192Bit / 1,5GB :wink:

mapel110
2010-04-02, 18:05:50
Damit wäre der Speicher aber überdimensioniert imo. Oder es gibt noch eine weitere Version mit 768 MB.

Spasstiger
2010-04-02, 18:06:11
Eher GF104 = 256 Bit + 1 GiB. Das PCB aus dem Startposting kann durchaus für den GF100 sein. Gegen ein GF104-PCB sprechen die beiden SLI-Anschlüsse. Außerdem macht es bei einem 192-Bit-SI imo keinen Sinn, alle 12 Speicherchips auf eine Seite zu packen. Bei Karten, die den Clamshell-Mode von GDDR5 nutzen, hat man die zusammengehörigen Chips bisher immer gegenüber auf beiden Seiten des PCBs angeordnet.

Damit wäre der Speicher aber überdimensioniert imo. Oder es gibt noch eine weitere Version mit 768 MB.
Für 768 MiB braucht man genau 6 Speicherchips, nicht 12.

Dural
2010-04-03, 12:54:53
wie so sollte der GF104 kein 3-Way-SLI bekommen? das hatte zb. die GTS250 ja auch!

Das PCB ist viel zu Kurz für eine High-End Karte wie GTX480 usw.

und wie sicher sind die 256Bit beim GF104... als gesichert haltet man ja auch schon die 64TMUs was ich beim besten willen nicht vorstellen kann, der GF104 würde in dem bereich ja sogar die GTX480 übertrefen und nicht mal die leidet trotzt deutlich mehr ALU/ROP Power wirklich unter ihren 60TMUs!

Der einzige wirkliche grund der für GF100 spricht ist die grosse GPU... aber wie so dann 384Bit... den GTX480 kann man sicher ausschlissen bei einem so kurzem PCB.
und wenn es doch eine GTX480 sein sollte, wäre der Bx wohl doch recht überzeugend...

=Floi=
2010-04-03, 13:04:46
es fehlt auch das loch für den lüfter.

Zauberer
2010-04-03, 14:45:14
Ich denke ein Bx-Stepping könnte Wunder bewirken.
Denn auch eine GTX 280 zieht deutlich mehr Strom als eine GTX 285.
Die GTX 280 wird wärmer, ist lauter, und auch langsamer.

Also ein Bx-Stepping der GTX 480/485 würde evtl. sogar 512sp haben, dadurch schneller sein (wenn die Taktrate nicht gesenkt wird), kühler sein, leiser sein und weniger Strom verbrauchen.
Da Nvidia schon evtl. länger an dem Stepping arbeitet, könnte es schon in 2-3 Monaten soweit sein.
Da die GTX 480 in so niedrigen Stückzahlen produziert wird, schadet ein schneller Nachfolger oder eine Überarbeitung der Karten nicht.

Zumal so viel schneller wird das neue Bx-Stepping sicher nicht sein, evtl. sogar gar nicht schneller (wenn man die Taktrate absenkt), aber dann ist ein deutlich reduzierter Stromverbrauch, geringe Hitzeentwicklung, leiser, und dann ist evtl. auch eine dual Fermi mit 512sp kein Problem mehr.

_flx
2010-04-03, 14:53:28
iirc war die 285 nicht "nur" ein neues Stepping, sondern auch ein neuer Prozess: 65nm -> 55nm

Gast
2010-04-03, 14:55:37
Ich denke ein Bx-Stepping könnte Wunder bewirken.
Denn auch eine GTX 280 zieht deutlich mehr Strom als eine GTX 285.
Die GTX 280 wird wärmer, ist lauter, und auch langsamer.

Also ein Bx-Stepping der GTX 480/485 würde evtl. sogar 512sp haben, dadurch schneller sein (wenn die Taktrate nicht gesenkt wird), kühler sein, leiser sein und weniger Strom verbrauchen.
Da Nvidia schon evtl. länger an dem Stepping arbeitet, könnte es schon in 2-3 Monaten soweit sein.
Da die GTX 480 in so niedrigen Stückzahlen produziert wird, schadet ein schneller Nachfolger oder eine Überarbeitung der Karten nicht.

Zumal so viel schneller wird das neue Bx-Stepping sicher nicht sein, evtl. sogar gar nicht schneller (wenn man die Taktrate absenkt), aber dann ist ein deutlich reduzierter Stromverbrauch, geringe Hitzeentwicklung, leiser, und dann ist evtl. auch eine dual Fermi mit 512sp kein Problem mehr.

Die GTX285 hat doch nicht nur eine anderes Stepping.
Sie hat einen anderen Fetigungprozess (65nm vs 55nm).
Dass ein neues Stepping soviel bewirk wie ein halfnodeshrink ist wohl reine Fantasie.

mapel110
2010-04-03, 15:02:43
Ja, bei dem neuen Stepping gehts imo auch mehr um die 512SPs. Und mit 4 TMUs mehr dürfte die Performance auch besser aussehen und damit auch das Verhältnis zur Leistungsaufnahme.

Gast
2010-04-03, 15:06:55
Ja, bei dem neuen Stepping gehts imo auch mehr um die 512SPs. Und mit 4 TMUs mehr dürfte die Performance auch besser aussehen und damit auch das Verhältnis zur Leistungsaufnahme.

Wenn man Spannung und Takt etwas senkt vielleicht.
Aber bereits jetzt läuft die GTX480 mit nur 1V vcore.
Das schließt eine schlechte Fertigungsqualität eher aus.
Es sind wohl einfach zu viele Transistoren die teilweise mit sehr hohem Takt laufen.

Gast
2010-04-03, 15:19:43
Die ganze Spekulation kann man sich doch sparen.
Mittlerweile kann man doch gar keine Meldungen über zukünftige Nvidia-karten mehr ernst nehmen. Nvidia soll erstmal zeigen, dass sie überhaupt in der Lage sind GF100, GF104, GF106 und GF108 Chips in ausreichender Quantität zu produzieren. Bisher gibt es die Karten nur auf dem Papier.

Dural
2010-04-03, 15:23:52
iirc war die 285 nicht "nur" ein neues Stepping, sondern auch ein neuer Prozess: 65nm -> 55nm

55nm bringt in sachen strom verbrauch usw. im vergleich zu 65nm rein gar nichts... siehe auch G92a vs G92b oder GT200b2

Das was GT200 B3 im Vergleich zum GT200 A2 gebracht hat war schlicht mühsame "Handarbeit" und "Feintuning" deswegen ja auch B3 oder meint ihr NV ging zum spass auf B3 ;) bei G92 / G94 usw. gabs ja auch nur B1...

Spasstiger
2010-04-03, 18:06:44
Das PCB ist viel zu Kurz für eine High-End Karte wie GTX480 usw.
Aber welches Mainstream-PCB hat 12 Speicherchips auf der Vorderseite? Bei einem 192-Bit-SI nimmt man im Referenzdesign 6 Speicherchips für 768 MiB VRAM und wenn ein Hersteller 1,5 GiB verbauen möchte, schnallt er halt weitere 6 Chips auf die Rückseite (bei GDDR5 im Clamshell-Mode).

Dural
2010-04-03, 19:07:12
4770 / GT240

8 Speicher auf der Vorderseite mit 128Bit und das bei der 4770 sogar mit nur 512MB!

Vorderseite ist sogar logisch, da dann keine zusätzliche Kühlung hinten nötig wird, falls überhaupt eine nötig ist...

Könnte ja auch eine "GTX475" sein, die es direkt mit der 5870 2GB aufnimmt, deswegen auch 1,5GB! Mit Bx GF100 könnte das ja unter 225Watt landen

Spasstiger
2010-04-03, 19:14:21
Die GT 240 GDDR5 hat nur vier Speicherchips auf einer Seite: http://www.techpowerup.com/reviews/MSI/GeForce_GT_240/images/card1.jpg (ok, mehr braucht man für 512 MiB VRAM auch nicht).
Und auf der HD 4770 kamen 512-Mbit-Speicherchips von Qimonda zum Einsatz, man wollte sich wohl die Möglichkeit für 1 GiB VRAM offen halten. Heute gibts nur noch 1-GBit-GDDR5-Chips.
Und zwölf 1-Gbit-GDDR5-Chips sind nochmal ein anderes Kaliber. 1,5 GiB VRAM klingen nicht gerade nach einer Referenz-Mainstream-Karte.

P.S.: Auf der Radeon HD 5770 sitzt hochgezüchteter GDDR5-Speicher mit 4,8 Gbps Datenrate (1200 MHz) und die vier Chips auf der Oberseite sind ungekühlt.

Könnte ja auch eine "GTX475" sein, die es direkt mit der 5870 2GB aufnimmt, deswegen auch 1,5GB! Mit Bx GF100 könnte das ja unter 225Watt landen
Dann sind wir uns ja einig. Ich denke auch, dass es sich um ein GF100-PCB handelt.

Dural
2010-04-03, 19:20:40
wenn ich was sage gibt es das auch so ;)

http://www.xard.ru/post/17742/image2.jpg

und was die 4770 für Speicher drauf hat ist doch komplett egal... Fakt ist das sie 8 Chips bei nur 512MB hat, auch damals hätte man einfach 4 nehmen können. Klar was das für 1GB gedacht...

und 768MB dürfte für GF104 deutlich zu wenig sein bei 5850/GT200 Leistung wenn sogar die 5750 mit 1GB daher kommt. Es bleibt nur 1GB bei 256Bit oder eben 1,5GB / 192Bit übrig. Die derzeitigen "gerüchte" um GF104 sind so wie so sehr merkwürdig... 256SP mit 64TMUs und 32ROPs halte ich für sehr unwahrscheinlich im Vergleich zum GF100... Vieleicht hat GF104 doch mehr ALUs als man denkt... 384SP... da würden die TMUs/ROPs sinn machen...



Gibt es irgend wo ein Foto von einem PCB der GTX470/480 wie hier auf seite 1???

Spasstiger
2010-04-03, 19:27:37
wenn ich was sage gibt es das auch so ;)

http://www.xard.ru/post/17742/image2.jpg
DDR3, nicht GDDR5. Und 8 Chips sind immer noch keine 12 Chips. ;)

und was die 4770 für Speicher drauf hat ist doch komplett egal... Fakt ist das sie 8 Chips bei nur 512MB hat, auch damals hätte man einfach 4 nehmen können. Klar was das für 1GB gedacht...
Zu HD-4770-Zeiten war noch der 512-Mbit-GDDR5-RAM von Qimonda üblich, die Gbit-Chips waren da erst im Kommen. Man hat das Referenzdesign ganz klar für die gut verfügbaren 512-Mbit-Chips ausgelegt. Heute legt man Referenzdesigns für die 1 Gbit-GDDR5-Chips aus, weil es gar keine anderen Größen gibt.
Und ich glaube nicht, dass der abgespeckte GF104 (192 Bit SI) im Referenzdesign mit 1,5 GiB VRAM daherkommt. Das ist auch nicht unbedingt gut für den idle-Verbrauch wie die GTX 470/480 im Multimonitor-Betrieb demonstrieren. 6 Chips sind sparsamer als 12 Chips.

Dural
2010-04-03, 19:31:27
abgespeckte? hab ich nie gesagt... zuerst möchte ich mal einen beweiss sehen das GF104 32ROPs und 64TMUs hat! Die ROPs könnte ich ja nachvollziehen, aber 64TMUs glaub ich einfach nicht!

Du hast gesagt das es das nicht gibt, meine zwei beispiele zeigen aber sehr wohl das man auch den Speicher auf der Vorderseite unterbringt und noch einmal bei 192Bit / 1,5GB bleibt derzeit auch fast gar keine ander wahl ;)

das selbe wie damals bei der 4770...

Spasstiger
2010-04-03, 19:34:58
Ich hab von 12 Speicherchips auf einer Seite geredet, nicht von 8. Und 1,5 GiB @ 192 Bit auf einer Mainstream-Karte geht ganz locker mit 6 Chips auf der Vorder- und 6 Chips auf der Rückseite. Ganz nach dem Vorbild der direkten Konkurrenten, der Radeon HD 5750 und 5770. Die verwenden 4 Chips auf der Vorderseite und optional weitere 4 Chips auf der Rückseite (bei 1 GiB VRAM).
Mein Tipp für die GF104-PCBs:
Topmodell -> 256 Bit SI, 8 Speicherchips auf der Vorderseite = 1 GiB VRAM (Referenzdesign), optional weitere 8 Chips auf der Rückseite für 2 GiB VRAM (Herstellerdesigns)
Abgespeckt -> 192 Bit SI, 6 Speicherchips auf der Vorderseite = 768 MiB VRAM (Referenzdesign), optional weitere 6 Chips auf der Rückseite für 1,5 GiB VRAM (Herstellerdesigns)

Dural
2010-04-03, 19:38:47
Welche 12 Speicher Chips, seit wann gibt es irgend wo eine GPU mit 192Bit / 1,5GB?!?!?

Wenn es sowas noch nicht gibt, gibt es auch logischerweise auch (noch) keine Karten...

Du hast gesagt das es das nicht gibt, mein Beweis die 4770 ist da aber sehr eindeutig... und die hat 8 Chips auf der Vorderseite obwohl auch 4 für die 512MB gereicht hätten ;)

Ob die auf vorder oder rückseite sind ist doch völlig egal! ganz im gegenteil, alle auf einer seite könnte für die Kühlung deutlich sinnvoller sein!

Spasstiger
2010-04-03, 19:41:44
Die GeForce 8800 GS 768 MiB hat 6 Speicherchips auf der Vorderseite und 6 Speicherchips auf der Rückseite. Nach dem gleichen Vorbild werden imo auch die PCBs des abgespeckten GF104 gestaltet.

Du hast gesagt das es das nicht gibt, mein Beweis die 4770 ist da aber sehr eindeutig... und die hat 8 Chips auf der Vorderseite obwohl auch 4 für die 512MB gereicht hätten ;)
Jetzt verdreh mal nicht die Tatsachen. Ich habe nie behauptet, dass es nicht möglich ist, 8 Speicherchips auf der PCB-Vorderseite unterzubringen. Und bei der HD 4770 hat man schon für 512 MiB 8 Chips gebraucht, weil nur 512-MBit-Chips in ausreichenden Mengen und günstig verfügbar waren.

Dural
2010-04-03, 19:44:19
jep beweist aber noch lange nicht das man das auch anders löst... siehe GTX260/270/285 mit je 14 beziehungsweise 16 Chips auf der Vorderseite ;)

aha was für Chips müsste man den bei 6 Stück und 1,5GB verwenden? ;) richtig genau 2GB viel Spass beim Suchen und Zahlen ;)

Spasstiger
2010-04-03, 19:48:06
Du bist ein nerviger Troll. Lies erstmal, bevor du anderen Leuten Dinge in den Mund legst, die nie gesagt wurden.

/EDIT:
Aber welches Mainstream-PCB hat 12 Speicherchips auf der Vorderseite? Bei einem 192-Bit-SI nimmt man im Referenzdesign 6 Speicherchips für 768 MiB VRAM und wenn ein Hersteller 1,5 GiB verbauen möchte, schnallt er halt weitere 6 Chips auf die Rückseite (bei GDDR5 im Clamshell-Mode).
Und jetzt Ruhe, das waren schon genug unnötige Postings meinerseits. Es macht keinen Sinn, auf Trolle zu antworten, sie drehen einem eh immer das Wort im Mund herum.

Eine virtuelle gelbe Karte von mir fuer's fettgedruckte. Halt Dich bitte in Zukunft von solchen Kommentaren zurueck.

Dural
2010-04-03, 19:55:33
haha cooler rückzieher von dir ;)

AnarchX
2010-04-03, 20:12:06
Für einen GF104 dürfte das Package wohl etwas zu groß sein. ;)

Gast
2010-04-04, 11:33:22
abgespeckte? hab ich nie gesagt... zuerst möchte ich mal einen beweiss sehen das GF104 32ROPs und 64TMUs hat! Die ROPs könnte ich ja nachvollziehen, aber 64TMUs glaub ich einfach nicht!


Kein Beweis, aber zumindest ein Indiz, dass GF100 eigentlich die halben TMUs fehlen sind die 16 L/S-Einheiten pro SM.

Die laufen auf Full Clock und könnten damit 8 TMUs auf half clock versorgen, aber es gibt blöderweise nur 4 davon, der Rest verpufft einfach, sofern gefiltert werden muss.

Ailuros
2010-04-04, 20:13:08
Die GTX285 hat doch nicht nur eine anderes Stepping.
Sie hat einen anderen Fetigungprozess (65nm vs 55nm).
Dass ein neues Stepping soviel bewirk wie ein halfnodeshrink ist wohl reine Fantasie.

B2 55nm = GTX260;216
B3 55nm = GTX275/285

Zwar stimmt es dass GT200b auf einem kleineren Herstellungsprozess liegt aber von B2 auf B3 unter 55nm war es lediglich ein metal spin und ein hypothethischer voller re-spin ist um einiges aufwaendiger und teurer als ein einfacher metal spin. Uebrigens muessten die 285-er chips handausgesucht sein da sie nach NV 204W verballern waehrend eine 275 mit geringerer Frequenz sogar 219W. So brutal hat sich insgesamt gegen die 238W der GTX280 auch nichts mehr geaendert.

Da das SM Problem auf GF100 mit allerhoechster Wahrscheinlichkeit ein Design-Problem ist kann es sich durch einen re-spin fixen lassen. Ob dieses klappt steht natuerlich in den Sternen, aber wenn man das Problem beim re-spin findet und entfernen kann ist es sehr wohl moeglich dass es 16SM SKUs mit leicht geringerem Stromverbrauch im Vergleich zur heutigen 480 geben wird.

nVIDIA
2010-04-05, 13:21:16
Soll denn auch eine verbesserte Version der GTX 480 kommen? Ich hatte mir bis vor kurzem überlegt, eine GTX 480 zu kaufen, aber ich lass das wohl besser. Aus meiner Sicht ist die GTX Serie genau das was auch die 5800 war, nichts halbes und nichts ganzes. Lohnt es sich zu warten oder bleibt die GTX 480 erst einmal das Flaggschiff?

Gast
2010-04-05, 14:25:19
Lohnt es sich zu warten oder bleibt die GTX 480 erst einmal das Flaggschiff?

Nein, die bleibt Flaggschiff bis in alle Ewigkeit.

Raff
2010-04-05, 14:54:35
Warten hat im Grafikkartenbereich fast nie Sinn, denn wer immer wartet, der ruckelt auch immer. Mit der HD 5850/5870 und der GTX 470 existieren doch drei schnelle und nicht völlig überteuerte Karten, die um Welten schneller sind als eine 8800 GTX (letztere wird hier (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/) mitgetestet).

MfG,
Raff

Coda
2010-04-05, 14:58:09
Wenn ein Refresh kommt, dann wird es wohl auch eine 485 geben.

Sorkalm
2010-04-05, 15:24:58
Wenn ein Refresh kommt, dann wird es wohl auch eine 485 geben.

Ich denke mal die Frage war eher, obs dann zu einem GF100-16C auch einen GF100-15C weiterhin geben wird. Ist aber eigentlich völlig unerheblich, wenn man mit Bx einen GF100-16C bringen kann, wird man den vmtl. nicht zu höheren Preis als die aktuelle GTX 480 bringen, halt ich für ziemlich unrealistisch. Und eine Version darunter wirds dann sicher auch geben. Falls halt der Refresh generell kommt.

AnarchX
2010-04-06, 09:55:13
Jetzt gibt es noch ein 320-Bit 150 Watt PCB:
http://img94.imageshack.us/img94/7749/34276131270527420481102.jpg

http://itbbs.pconline.com.cn/diy/11270142.html

V2.0
2010-04-06, 11:53:13
Also hat Charlie wohl wie immer Recht und GF104 ist wirklich ein halber GF100.

Botcruscher
2010-04-06, 12:03:50
Zu einem halben Chip passt nur das Speicherinterface nicht so ganz. Oder will man da noch ein paar ollle Reste verlöten?

V2.0
2010-04-06, 12:09:50
Erst hatten Sie Bilder von einem 384Bit Board und nun vom 320Bit. Allerdings kann ich mir wirklich keine GF100 Versionr vorstellen, der mit 150W auskommt. Ergo wohl die Cut-Down-Version von GF104.

Oder einfach designstudien von PCBs, die nie in Serie gehen.

Ailuros
2010-04-06, 12:25:06
Erst hatten Sie Bilder von einem 384Bit Board und nun vom 320Bit. Allerdings kann ich mir wirklich keine GF100 Versionr vorstellen, der mit 150W auskommt. Ergo wohl die Cut-Down-Version von GF104.

Wenn GF104 wirklich der 256SP chip ist, dann macht erstmal 320bit absolut keinen Sinn und es wuerde sich in dem Fall um einen aufgepumpten und nicht reduzierten 104 handeln. Ein nahezu wirklich 1/2 GF100 waere ein 8 cluster/192bit chip. Schon das bis jetzt vorgeschlagene 256bit SI macht den chip theoretisch >1/2 GF100.

Mit 2 raster Einheiten hasst Du auf einem 256SP chip, 2*8=16 pixels/clock rasterizing und bei 256bit= 32 ROPs hast Du schon 16 ROPs im "Ueberfluss". Ein 256SP chip mit einem 320bit bus und ergo 40 ROPs wuerde dann 24 ROPs im Ueberfluss bedeuten und wuerde auch einen ziemlich laecherlich unbalancierte Variante.

Oder einfach designstudien von PCBs, die nie in Serie gehen.

Moeglicher als viele andere sinnlosen Thesen. Oder es sind einfach PCBs die eben nicht fuer GeForces gedacht sind. Von Quadro als Beispiel haben wir bis jetzt noch nichts gesehen. Muessen ja nicht solche sein, aber es steht noch einiges offen.

Spasstiger
2010-04-06, 12:58:57
Für einen GF104 wäre das Package auf jeden Fall zu groß und die Speicheranordnung für ein 160- bzw. 192-Bit-SI zu ungewöhnlich. Das Package auf diesen PCBs ist deutlich größer als ein Cypress-Package: http://www.hardware-infos.com/img/startseite/hd5870_pcb.jpg.
Und der GF104 wird mit sehr hoher Wahrscheinlichkeit kleiner sein als ein Cypress, wenn auch nicht viel.

Gast
2010-04-06, 13:14:20
Erst hatten Sie Bilder von einem 384Bit Board und nun vom 320Bit. Allerdings kann ich mir wirklich keine GF100 Versionr vorstellen, der mit 150W auskommt. Ergo wohl die Cut-Down-Version von GF104.


Wenn eine Dualchipvariante mit >300W möglich ist muss zwangsläufig auch eine Singlechipvariante mit >150W möglich sein.

Triskaine
2010-04-06, 17:34:42
Wenn eine Dualchipvariante mit >300W möglich ist muss zwangsläufig auch eine Singlechipvariante mit >150W möglich sein.

Möglich ja, aber auch sinnvoll? Ich bezweifle ernsthaft, dass man mit so einem PCB eine GTX 480 realisieren könnte. 2x6pin sind 2x6pin, da müsste man schon ordentlich mit Spannung und Takt runter damit was geht. Ich denke nicht das das möglich ist, außer nVidia schafft es den GF100 mit dem nächsten Stepping bei gleichbleibendem Speed um ca. 75 Watt Verbrauch zu erleichtern. nVidia kocht auch nur mit Wasser.

Coda
2010-04-06, 18:15:19
Also hat Charlie wohl wie immer Recht und GF104 ist wirklich ein halber GF100.
Das ist def. kein GF104 der da verlötet wird. Viel zu viele Pins.

Ziemlich sicher ist es einfach GF100-Resteverwertung.

Gast
2010-04-06, 18:24:54
Möglich ja, aber auch sinnvoll?


Ob sinnvoll hängt von verschiedenen Faktoren ab.

Wenn beispielsweise viele GF100-Chips anfallen die zwar prinzipiell funktionsfähig sind, aber entweder der Takt oder die Anzahl funktionsfähiger Cluster weder für 470 und 480 nicht reichen ist es durchaus sinnvoll eine noch kleinere Variante anzubieten.

Natürlich wird man dann für die gebotene Performance weiterhin der Stromverbrauch ziemlich hoch sein, aber besser als die Chips wegwerfen ist das noch immer.

Allerdings müsste man die Karten relativ schnell auf den Markt werfen, spätestens mit GF104 werden sie wohl gänzlich uninteressant.

Ob diese Karten wirklich wenig genug Strom brauchen würden ist fraglich, aber imo nicht unmöglich.

Auffällig ist beispielsweise auch der große Unterschied im Stromverbrauch zwischen 480GTX und 470GTX, vor allem auch im idle (laut PCGH 30 vs 50W, was immerhin 67% mehr sind) da dort die Taktfrequenzen (und ich nehme mal an auch die Spannungen) identisch sind, also im Endeffekt nur 1 SM weniger, 1 ROP-Partition und 2 Speicherchips weniger für den geringen Verbrauch verantwortlich sind.

Offenbar werden also deaktivierte Teile wirklich komplett von der Stromversorgung getrennt. Ausgehend von diesen Daten halte ich 150W mit sagen wir mal 3 GPCs (dann könnte man auch den dazugehörigen Raster abschalten) nicht für unmöglich.

Die Frage ist auch warum GF100 dermaßen viel Strom braucht. Die Taktfrequenzen sind eigentlich ganz ordentlich, und auch die Spannung die dafür notwendig ist, ist eigentlich nicht besonders hoch, also irgendwo muss es da klemmen. Wenn Nvidia das Problem findet könnten sie durchaus einen gehörigen Sprung in der Leistungsaufnahme nach unten machen.
Wenn wir mal als Vergleich Intel hernehmen hat man dort beispielsweise zwischen Boomfield und Lynnfield die Leistungsaufnahme trotz gleicher Fertigung ordentlich senken können.

Gast
2010-04-06, 19:18:15
...
Wenn wir mal als Vergleich Intel hernehmen hat man dort beispielsweise zwischen Boomfield und Lynnfield die Leistungsaufnahme trotz gleicher Fertigung ordentlich senken können.Das gilt für die ganze Serie. Bloomfield geht bis 3,33 GHz, Lynfield nur bis 2,93 GHz. Außerdem gibt es noch zwei Unterschiede, die die Leistungsaufnahme beeinflussen können ...
- Extern ist bei Lynfield nur noch das einfache DMI statt dem aufwändigeren und 10 x schnelleren QPI vorhanden. QPI ist nur Lynfield-Intern vorhanden. Allerdings steckt noch das PCIe Interface in Lynfield.
- Zwei (Lyn) statt drei (Blo) Speicherkanäle.

Aber vor allem liegen 10 Monate Entwicklung dazwischen und Lynfield ist kein Bloomfield, also keine "normale" Revision desselben.

The Jackal
2010-04-09, 23:46:26
Nehmen wir wirklich mal an das die PCB's für GTX480/485 und GTX470/475 gedacht sind. Und NV so smart war den Verbrauch in den griff zu kriegen.

Dann wird der Fermi die Hölle von einer Grafikkarte. 15% schneller als 5870 bei gleichem Verbrauch. Ich würde mich freuen und mir auch eine kaufen.

Gast
2010-04-10, 00:41:31
Nehmen wir wirklich mal an das die PCB's für GTX480/485 und GTX470/475 gedacht sind. Und NV so smart war den Verbrauch in den griff zu kriegen.


Glaubst du auch an den Weihnachtmann?

Wenn die Boards für GF100 gedacht sind, dann sicher mit einer deutlichen Leistungsreduktion.

Iruwen
2010-04-10, 01:04:12
Wäre der Sinn eines Bx Steppings nicht u.a. Schwankungen der Gatelängen durch TSMCs schwachen Fertigungsprozess entgegenzuwirken und dadurch den Stromverbrauch möglichst massiv zu senken? Wenn Nvidia parallel zu den ersten Metal Respins schon angefangen hat daran zu arbeiten könnte das Ergebnis doch in nicht allzu ferner Zukunft auftauchen.

Coda
2010-04-10, 01:10:36
Das und anscheinend sind die Vias ein großes Problem bei den Yields. ATI verwendet angeblich immer zwei für einen Durchgang um da Redundanz zu haben.

Gast
2010-04-10, 02:33:30
Gibt es schon Thermal Bilder vom GF100? Wäre interessant warum das Desing immer noch nicht auf hohe Taktraten kommt. Afaik war doch nur die 9800GTX+ in der Lage die 1,8GHz Shadertakt zu knacken.
Ein GF104 mit dieser Takrate wäre der ideale Ablöser für alles bis GTX260 und würde die 285GTX zumindest bis rauf auf 19*12@4xMSAA ablösen können.
Wenn die TMUs das Problem sind, gute Nacht...

Warum muss GF104 256SPs haben, kann man nicht 64TMUs und 384SPs verbauen? dafür nur 256Bit SI?

Hugo
2010-04-10, 07:23:26
was is den an den Gerüchten zum GF119 dran?
http://hartware.net/news_48934.html

Ailuros
2010-04-10, 07:42:19
Warum muss GF104 256SPs haben, kann man nicht 64TMUs und 384SPs verbauen? dafür nur 256Bit SI?

GF100 = 16 SMs mit 4 TMUs/SM = 64 TMUs

12 SMs (384SPs) = 12*4 = 48 TMUs

Wahrscheinlich ist GF104 8 TMUs/SM ergo 8*8=64TMUs

Was heisst "nur" 256bit SI? Die Variante soll sich unter der 470 platzieren mit einem 320bit bus und soll natuerlich auch weniger kosten als die 470. Was AA Leistung betrifft ist eine "104" fuer ihre Ziel-aufloesungen vielleicht besser angelegt als die 470.

GTX470= 14SMs, 28 pixels/clock rasterizing, 12 extra ROPs fuer AA Effizienz.

"GTX460" = 8 SMs, 16 pixels/clock rasterizing, 16 extra ROPs fuer AA Effizienz

Die letztere wird wahrscheinlich 100-110GB/s Bandbreite haben, aber relativiert zu den high end GF100 und dem eingeschaetzten Preis von bis zu $250 fuer die 104 duerfte es auch voll ausreichen.

Gast
2010-04-12, 17:43:26
Die Speicherbandbreite ist ja wohl das geringste Problem.
Einfach 2,5GHz GDDR5 (5Gbps) rein und schwupps biste bei 160GB/s mit nem 256bit Speicherinterface.
Wird eh überall Samsungs 0,4ns GDDR5 verbaut.

Dural
2010-04-12, 18:22:20
Es sind GTX485 384Bit und GTX475 320Bit mit GF100 Bx was anders bleibt ja gar nicht übrig, mit dem Aktuellen GF100 A3 kann man 150Watt einfach vergessen! Nie und nimmer, das ding müsste ja so brutal abgespeckt sein mit ultra low takt usw. da wäre jede GF104 Karte schneller und bei einer solchen Karte wären auch 256Bit zb. sinnvoller ;)

Tesla und Quadro kann man fast auschlissen, da die PCB so gut wie immer (???) grün sind und die Ausgänge klar gegen Tesla sprechen.

Gast
2010-04-12, 20:18:24
Nie und nimmer, das ding müsste ja so brutal abgespeckt sein mit ultra low takt usw.


Richtig. Nachdem man im mittleren DX11-Bereich noch gar nichts hat wäre das aber durchaus wünschenswert.


da wäre jede GF104 Karte schneller und bei einer solchen Karte wären auch 256Bit zb. sinnvoller ;)

Richtig, allerdings lässt der noch auf sich warten und die GF100-Chips die auch für die 470 nicht gut genug sind wollen auch noch verkauft werden, das ist immer noch besser als sie wegzuwerfen.

Dural
2010-04-12, 22:37:57
welche abgespeckte Karte mit 384Bit und max 225Watt? zwischen 448SP und 480SP bleibt nicht viel übrig...

Bei einer Art "GTX465" würde ich es ja noch verstehen, aber 320Bit und 150Watt sprechen dagegen! Wenn eine GTX470 mit 448SP und nur 600MHz schon 220Watt hat...

Wie soll den bitte schön diese 150Watt Karte ausschauen?!? 384SP mit 500MHz?!? oder was? Und wenn ja was will man bei so einer Karte mit 320Bit anfangen?!? Und das noch mit 3-Way SLI... ne!

Die gerüchte sprechen von Q2 für GF104, also so lange kann das nicht mehr dauern!

Vieleicht sind es ja Quadro Karten, da würde wenigsten das SI halbwegs Sinn machen wegen der Speicher Menge... aber die Leistungs-Auslegung immer noch nicht...

Das einzige was Sinn macht sind Leistungs-Optimierte GTX470/480 Karten und das sehr Wahrscheinlich mit GF100 Bx

GF104 kann man mit 320/160Bit ja jetzt ziemlich sicher ausschliessen, oder sind beim Fermi die Controller nur 32Bit breit?

Gast
2010-04-13, 12:18:09
welche abgespeckte Karte mit 384Bit und max 225Watt? zwischen 448SP und 480SP bleibt nicht viel übrig...

Beispielsweise ca. 470-Taktrate mit 480 Hardware. Wie sinnvoll eine derartige Karte wäre hängt in erster Linie davon ab, wie gut der Yield für die 480 nun wirklich ist.


Bei einer Art "GTX465" würde ich es ja noch verstehen, aber 320Bit und 150Watt sprechen dagegen! Wenn eine GTX470 mit 448SP und nur 600MHz schon 220Watt hat...

Wie soll den bitte schön diese 150Watt Karte ausschauen?!? 384SP mit 500MHz?!? oder was? Und wenn ja was will man bei so einer Karte mit 320Bit anfangen?!? Und das noch mit 3-Way SLI... ne!

Wäre durchaus denkbar und auch sinnvoll, so lange Nvidia in diesem Preisbereich nichts hat und sofern die Yields mit 470+480 immer noch sehr gering sind.

Und wegen dem Speicherinterface: Wer sagt, dass dieses auch voll verwendet wird?
Wenn du mit dem kleineren Speicherinterface nicht das PCB verbilligen sondern den Yield verbessern willst, indem du nicht funktionsfähige ROPs und/oder Speichercontroller deaktivierst musst du zwangsweise am PCB mehr Speicherplätze verbauen als du dann verwendest.

Möglichkeiten gibt es viele. Das 384bit-PCB könnte ein alternatives 470er PCB sein, auf dem dann jene DIEs verbaut, bei denen nicht zufällig genau die Speichercontroller kaputt sind, die man schon am originalen PCB nicht anschließen kann.

Das 320er PCB mit max 150W könnte für eine weitere reduzierte GF100-Karte sein. Nachdem der Stromverbrauch zwischen 470 und 480 doch stark unterschiedlich ist, trotz eher geringem Unterschied in Hardware und Takt könnte sich das auch noch weiter nach unten fortsetzen. Wenn man auf 384 SPs geht hätte man auch den Vorteil, dass man gleich einen ganzen GPC mit allem dazugehörigen abschalten kann, was eventuell noch mehr Strom spart, als nur einzelne SMs zu deaktivieren.

Und von den 320bit Interface könnten auf der Karte beispielsweise nur 256bit verbaut werden, der Rest ist Redundanz.

Das alles ist jedenfalls um ein vielfaches Wahrscheinlicher, als dass NVidia plötzlich den Zauberstab ausgepackt hat und den Stromverbrauch für 470/480 mit einem neuen Stepping dermaßen stark reduzieren konnte.

Ailuros
2010-04-13, 13:32:50
Beispielsweise ca. 470-Taktrate mit 480 Hardware. Wie sinnvoll eine derartige Karte wäre hängt in erster Linie davon ab, wie gut der Yield für die 480 nun wirklich ist.

Die naechste Revision von GF100 mit 6*64 duerfte eher 16SMs haben. Und was heisst "480 hw" ueberhaupt? Sowohl die 470 als auch die 480 werden vom gleichen chip ausgestattet, demenstrechend "gleiche hw" und ein und einziger yield fuer diesen. Anders yield= Anzahl an operativen chips pro wafer.


Wäre durchaus denkbar und auch sinnvoll, so lange Nvidia in diesem Preisbereich nichts hat und sofern die Yields mit 470+480 immer noch sehr gering sind.

Die GTX460 welche direkt unter der 470 liegt wird mit aller Wahrscheinlichkeit auf GF104 basieren oder wie auch immer der 8SM chip heissen wird.

Und wegen dem Speicherinterface: Wer sagt, dass dieses auch voll verwendet wird?
Wenn du mit dem kleineren Speicherinterface nicht das PCB verbilligen sondern den Yield verbessern willst, indem du nicht funktionsfähige ROPs und/oder Speichercontroller deaktivierst musst du zwangsweise am PCB mehr Speicherplätze verbauen als du dann verwendest.

Fuer was yield steht siehe oben. Nix da mit irgendeiner imaginaeren "yield-Verbesserungen" bei SI Verkuezungen. Es handelt sich lediglich um eine Sparmassnahme im Fall der 470 und der beste Beweiss dafuer ist das der benutzte Speicher erstmal weniger ist als auf der 480 und dass er dank niedrigeren Frequenzen nochmal etwas Strom spart (ergo billigere Kuehlungsloesung) als bei der 480.

Möglichkeiten gibt es viele. Das 384bit-PCB könnte ein alternatives 470er PCB sein, auf dem dann jene DIEs verbaut, bei denen nicht zufällig genau die Speichercontroller kaputt sind, die man schon am originalen PCB nicht anschließen kann.

Das 320er PCB mit max 150W könnte für eine weitere reduzierte GF100-Karte sein. Nachdem der Stromverbrauch zwischen 470 und 480 doch stark unterschiedlich ist, trotz eher geringem Unterschied in Hardware und Takt könnte sich das auch noch weiter nach unten fortsetzen. Wenn man auf 384 SPs geht hätte man auch den Vorteil, dass man gleich einen ganzen GPC mit allem dazugehörigen abschalten kann, was eventuell noch mehr Strom spart, als nur einzelne SMs zu deaktivieren.

Und von den 320bit Interface könnten auf der Karte beispielsweise nur 256bit verbaut werden, der Rest ist Redundanz.

Das alles ist jedenfalls um ein vielfaches Wahrscheinlicher, als dass NVidia plötzlich den Zauberstab ausgepackt hat und den Stromverbrauch für 470/480 mit einem neuen Stepping dermaßen stark reduzieren konnte.

Mir wird's so langsam schwindlig mit all dem Zeug dass weder Hand noch Fuss hat...

Hugo
2010-04-13, 15:05:44
Die naechste Revision von GF100 mit 6*64 duerfte eher 16SMs haben.

ist damit das Bx-Stepping gemeint oder der abgespeckte GF100?
Was is am GF119 dran?

Iruwen
2010-04-13, 17:18:52
A3 (GTX 470/480) hat 15 SMs, Bx dann evtl. 16. Die abgespeckten GF10x haben deutlich weniger.
Über GF119 weiß iirc keiner was (außer Charlie natürlich :D)
GF11x könnte auf einen Fermi Nachfolger hindeuten und die 9 auf ein absolutes Low-End Modell.

Gast
2010-04-13, 17:24:41
Die naechste Revision von GF100 mit 6*64 duerfte eher 16SMs haben.

Die wird aber wohl kaum unter 225W TDP haben.


Und was heisst "480 hw" ueberhaupt?

Ich denke mal, er meint die freigeschaltene Hardware ;)

Sowohl die 470 als auch die 480 werden vom gleichen chip ausgestattet, demenstrechend "gleiche hw" und ein und einziger yield fuer diesen. Anders yield= Anzahl an operativen chips pro wafer.

Die Anzahl der operativen Chips/Wafer steigt aber unter anderem wenn man:
- die Zieltaktfrequenzen verringert
- man die Spannungen und damit TDP erhöht
- wenn man mehr kaputte Teile pro DIE erlaubt, sprich mehr deaktiviert.

Ailuros
2010-04-14, 06:57:34
Die wird aber wohl kaum unter 225W TDP haben.

Vielleicht sind es diesmal echte 250W TDP *grunz*

Ich denke mal, er meint die freigeschaltene Hardware ;)

Uhmm es ist und bleibt der gleiche chip.

Die Anzahl der operativen Chips/Wafer steigt aber unter anderem wenn man:
- die Zieltaktfrequenzen verringert
- man die Spannungen und damit TDP erhöht
- wenn man mehr kaputte Teile pro DIE erlaubt, sprich mehr deaktiviert.

Nur zeigen ROPs selten bis nie Fehler vor bei GF100. Teslas haben zufaelligerweise auch nur 14SMs aber doch einen 384bit Bus.

mapel110
2010-04-28, 01:31:31
http://www.xbitlabs.com/news/video/display/20100427145141_Nvidia_Everything_Is_Under_Control_We_May_Release_GPU_with_512_St ream_Processors_in_Future.html
Nvidia itself claims that everything is under control and the company still has opportunity to release a graphics solution with 512 stream processors.

Eigentliche Quelle:
http://www.digitimes.com/news/a20100414PD217.html

To pay a little higher electricity bill in exchange for 10% more in performance, I believe consumers will think this is a worthwhile trade.
:ugly:

Tarkin
2010-04-28, 08:56:39
http://www.xbitlabs.com/news/video/display/20100427145141_Nvidia_Everything_Is_Under_Control_We_May_Release_GPU_with_512_St ream_Processors_in_Future.html
Nvidia itself claims that everything is under control and the company still has opportunity to release a graphics solution with 512 stream processors.

Eigentliche Quelle:
http://www.digitimes.com/news/a20100414PD217.html

To pay a little higher electricity bill in exchange for 10% more in performance, I believe consumers will think this is a worthwhile trade.
:ugly:

15-20W higher power consumption ... guter Witz :freak:

Ailuros
2010-04-28, 09:03:55
We currently have everything under control.

:rolleyes::biggrin:

Gast
2010-04-28, 09:19:14
Was für ein Troll:
"Our new Fermi-based GeForce GTX 480/470 chips are a significant improvement over performance compared to our previous-generation GTX 285 despite that the GTX 480/470's power consumption is about 15-20W higher."

15-20W mehr als eine GTX285 kann er doch selber nicht glauben.

Dural
2010-04-28, 11:35:07
wie so?

das dürfte dann in etwa das Verlust-Leistungs-Ziel wie es von NV für GF100 ca. geplannt war sein...

Gast
2010-04-28, 18:04:39
wie so?

das dürfte dann in etwa das Verlust-Leistungs-Ziel wie es von NV für GF100 ca. geplannt war sein...


Wohl dass die angeblichen 250W real wären.

Hugo
2010-04-29, 12:35:18
ist hier was dran?
http://www.fudzilla.com/content/view/18608/1/
hat der GF104 schon Änderungen gegenüber GF100?

skampi
2010-04-29, 13:11:01
Fuer was yield steht siehe oben. Nix da mit irgendeiner imaginaeren "yield-Verbesserungen" bei SI Verkuezungen. Es handelt sich lediglich um eine Sparmassnahme im Fall der 470 und der beste Beweiss dafuer ist das der benutzte Speicher erstmal weniger ist als auf der 480 und dass er dank niedrigeren Frequenzen nochmal etwas Strom spart (ergo billigere Kuehlungsloesung) als bei der 480.




Ich glaube Du gehst nicht wirklich auf den Beitrag ein den Du da gequotet hast. Die Fragestellung war, ob der Schluss berechtigt ist, dass es sich zwangsläufig um ein PCB für eine GPU handelt, welche mit einem 384bit breitem Speicherinterface ausgeliefert wird.

Allerdings sehe ich gerade dass das aktuelle GTX470 PCB auch keine offenen Lands für RAM BGAs aufweist, der Schritt wird wohl schon beim Bounding/Packaging vollzogen?

Iruwen
2010-04-29, 13:28:16
ist hier was dran?
http://www.fudzilla.com/content/view/18608/1/
hat der GF104 schon Änderungen gegenüber GF100?
Wie kein Cache? War das nicht einer der wichtigeren Punkte beim Design?

Spasstiger
2010-04-29, 13:36:31
Cache ist vor allem für CUDA/GPGPU nützlich. Und die Zwischenspeicher, die durch D3D11 vorgeschrieben sind (Loca Data Share), wird man sicherlich auch beibehalten.
Kann schon sein, dass NV die Flächeneffizienz verbessert, indem man den L1- und L2-Cache weglässt und stattdessen mit einer Crossbar direkt ans Speicherinterface geht.
Redundanz durch Cache ist bei GPUs auch nicht so kritisch, weil man Redundanz durch die vielen parallelen Ausführungseinheiten hat, die man bei Bedarf deaktivieren kann.

dildo4u
2010-04-29, 16:49:55
Erste Performance-Werte zur Geforce GTX 460

"Vantage X 5700 Punkte"

http://www.pcgameshardware.de/aid,746407/Erste-Performance-Werte-zur-Geforce-GTX-460/Grafikkarte/News/

Spasstiger
2010-04-29, 17:03:45
Das wäre gerade mal GTX-285-Niveau bei der GTX 460, je nach Testsystem vielleicht sogar leicht darunter. Und auf einen Preis unter 250€ kann man wohl auch nicht hoffen. Damit gerät ATI auch nicht in Zugzwang, den Preis der HD 5850 zu senken, denn diese scheint im Schnitt das schnellere Produkt zu sein.

dildo4u
2010-04-29, 17:10:36
Vantage liegt den ATI's aber auch besonders gut(5870 fast GTX 480 Speed/Unter X Settings bringt Physx fast nix) ich schätze die GTX 460 wird im Schnitt maximal 10% hinter der 5850 liegen.Wenn das alles so stimmt mit den Kürzungen kommt NV ganz gut weg da man auch echte "Müll" Chips los wird.

Gast
2010-04-29, 17:18:35
ich schätze die GTX 460 wird im Schnitt maximal 10% hinter der 5850 liegen.

Selbst wenn deine Schätzung stimmen sollte, was hast Du von der Karte? Die 5850 gibt's seit fast 8 Monaten, bis die 460 erhältlich ist, sind's deren 10. Dazu ist sie noch schneller, verbraucht wahrscheinlich weniger und ist in diversen Custom Designs erhältlich. Unter Zugzwang kommt AMD dadurch kein bisschen.

Das Ding kommt einfach viel zu spät. Da wartet man lieber noch 2-3 Monate und schaut sich anschließend das runderneuerte AMD Portfolio an.

Spasstiger
2010-04-29, 17:24:34
Was hat denn das Abschneiden der ATIs in 3DMark Vantage mit meiner Aussage zu tun, dass die GTX 460 auf GTX-285-Niveau liegt? Ich habe geschlussfolgert, dass die HD 5850 schneller ist als die GTX 460, weil die HD 5850 auch schneller ist als die GTX 285.
Wenn die GTX 460 auch in anderen Anwendungen nur auf GTX-285-Niveau im Schnitt kommt, dann liegt die HD 5850 recht klar vorne. Tessellation wird natürlich wieder die Ausnahme bilden.
Mit einer MSRP von 280-300 US-$ stellt man die GTX 460 auf jeden Fall gegen die HD 5850 (299 US-$) und nicht gegen die HD 5830 (239 US-$).

P.S.: Die HD 5850 kommt bei Computerbase auf X7370 Punkte.

Gast
2010-04-29, 19:58:23
hat der GF104 schon Änderungen gegenüber GF100?

Wenn es 8 statt 4 TMUs/SM sind ist das schon eine bedeutende Änderung.
Ebenso das vermutete Fehlen von DP.

Ob man jetzt an den Caches was geändert hat, außer der "automatischen" Anpassung durch das kleinere Speicherinterface ist fraglich, aber imo nicht unwahrscheinlich. Wenn die 256bit stimmen, dann hätte man immerhin 2/3 des Caches vom großen GF100, was wohl ziemlicher Overkill wäre (außer natürlich für GPGPU).

Spasstiger
2010-04-29, 20:10:13
Beim GF100 ist der Cache im Gegensatz zum Cypress nicht an die ROPs gekoppelt. Es sollte also auch möglich sein, z.B. nur 256 KiB statt 512 KiB L2-Cache mit einem 256-Bit-SI koppeln.
Ich denke zudem, dass die GTX 470 den vollen L2-Cache von 768 KiB hat trotz 320-Bit-SI.

LovesuckZ
2010-04-29, 20:12:02
Cache ist am Memory Controller gekoppelt. Jeder 64bit Controller hat 128kb Level 2 Cache. Die Menge sollte daher anpassbar sein.
Abgesehen davon: Das Cache-System wird nicht geopfert. Das wäre selten dämlich.

deekey777
2010-04-29, 20:15:31
Beim GF100 ist der Cache im Gegensatz zum Cypress nicht an die ROPs gekoppelt. Es sollte also auch möglich sein, z.B. nur 256 KiB statt 512 KiB L2-Cache mit einem 256-Bit-SI koppeln.
Ich denke zudem, dass die GTX 470 den vollen L2-Cache von 768 KiB hat trotz 320-Bit-SI.
Wie soll der Cache nicht an die ROPs gekoppelt sein, wenn es 6x128 KiB L2-Caches sind, wenn man Gipsel glaubt?

Die Aussage, dass der GF104 keine Caches habe, kann einfach nicht stimmen. Der L1/Shared-Memory-Speicher ist ein fester Bestandteil der Fermi-Generation.

Spasstiger
2010-04-29, 20:17:22
Cache ist am Memory Controller gekoppelt. Jeder 64bit Controller hat 128kb Level 2 Cache. Die Menge sollte daher anpassbar sein.
Wenn jeder SI-Partition tatsächlich ein 128 KiB großer Bereich des L2-Caches fest zugeordnet ist, wird es aber schwierig mit dem Anpassen. Ein 256-Bit-SI hätte dann automatisch einen 512 KiB großen L2-Cache zur Folge. Und 512 KiB wären im Vergleich zum GF100 auf jeden Fall Overkill, da der GF104 nur halb soviele Streamprozessoren wie der GF100 hat.

Wie soll der Cache nicht an die ROPs gekoppelt sein, wenn es 6x128 KiB L2-Caches sind, wenn man Gipsel glaubt?
Du kennst doch das Whitepaper.
GF100 has a 768 KB unified L2 cache that services all load, store, and texture requests.[...]A unified cache is more efficient than separate caches. In a non-unified cache design, if one cache is
oversubscribed, it cannot use the unmapped portions of other caches. Cache utilization will always be
less than the theoretical peak. GF100’s unified L2 cache dynamically load balances between different
requests, allowing full utilization of the cache. The L2 cache replaces the L2 texture cache, ROP cache,
and on-chip FIFOs on prior GPUs.
Quelle: http://www.nvidia.com/object/IO_86775.html

Ailuros
2010-04-30, 08:56:09
Wenn jeder SI-Partition tatsächlich ein 128 KiB großer Bereich des L2-Caches fest zugeordnet ist, wird es aber schwierig mit dem Anpassen. Ein 256-Bit-SI hätte dann automatisch einen 512 KiB großen L2-Cache zur Folge. Und 512 KiB wären im Vergleich zum GF100 auf jeden Fall Overkill, da der GF104 nur halb soviele Streamprozessoren wie der GF100 hat.


Du kennst doch das Whitepaper.

Quelle: http://www.nvidia.com/object/IO_86775.html

Inwiefern waere es overkill wenn Du von der anderen Seite die moeglichen texture requests bedenkst bei hypothetischen 8TMUs/SM?

Nightspider
2010-05-16, 15:41:03
Was meint ihr wann ein 512 SU GF100 aufschlagen wird? Vor Oktober?

LuXon
2010-05-16, 15:47:39
Ich hätte jetzt mal September getippt.
Du kannst ja mal eine Umfrage starten "Wann schalgen die 512SP-Fermis auf":smile:

Ailuros
2010-05-17, 08:26:21
Ich hätte jetzt mal September getippt.
Du kannst ja mal eine Umfrage starten "Wann schalgen die 512SP-Fermis auf":smile:

Nicht schlecht getippt. Um die roadmap fuer 2010 entziffern zu koennen braucht man jemand der aegyptische hieroglyphen lesen kann. Mein erster Gedanke war "what a f***** mess".

Gast
2010-05-19, 10:43:09
Lol, die GTX 465 wird wahrscheinlich 300€ kosten und damit deutlich teuere als die HD 5850.

256-Bit
352 Shader-Einheiten
607 MHz GPU-Takt
1.215 MHz Shader-Takt
1GB GDDR5 @ 3.206 MHz

Gast
2010-05-19, 10:44:31
Lol, die GTX 465 wird wahrscheinlich 300€ kosten und damit deutlich teuere als die HD 5850.

256-Bit
352 Shader-Einheiten
607 MHz GPU-Takt
1.215 MHz Shader-Takt
1GB GDDR5 @ 3.206 MHz

Quelle: http://www.gamestar.de/hardware/news/grafikkarten/2314867/nvidia_geforce_gtx_460.html

Iruwen
2010-05-19, 13:15:49
Die Quelle der Quelle hat keine Quelle ;) Die GTX 480 wurde auch mit deutlich höheren Preisen angekündigt als noch nichts feststand als sie jetzt tatsächlich kostet.

LovesuckZ
2010-05-19, 13:17:59
Ja, 300€ macht Sinn. Vorallem, wenn der UVP einer GTX470 bei 349€ liegt und man dafür 28% mehr Speicher und 28% mehr Leistung erhält.
Gamestar's Onlinenewsreporter hat doch schon in der Vergangenheit gezeigt, dass er 1:1 aus dem Internet kopiert - egal wie dumm die Aussagen sind.

Gast
2010-05-21, 20:35:03
Nur zeigen ROPs selten bis nie Fehler vor bei GF100. Teslas haben zufaelligerweise auch nur 14SMs aber doch einen 384bit Bus.
Die Busbreite und damit die Speicherkanäle haben bei Tesla aber einen anderen, wichtigen Grund: VRAM-Ausbau. 1GiB-Karten sind in dem Bereich nicht verkaufbar.

-Carsten

Ailuros
2010-05-22, 10:50:03
Die Busbreite und damit die Speicherkanäle haben bei Tesla aber einen anderen, wichtigen Grund: VRAM-Ausbau. 1GiB-Karten sind in dem Bereich nicht verkaufbar.

-Carsten

Genauso wenig wie 1.5GB Varianten. Ich kann mir nicht vorstellen dass es irgend einen Unterschied zwischen 2*1.5 oder 3*1.0 in diesem Fall machen wuerde.

deekey777
2010-05-22, 11:18:12
Reduziert sich nicht die verfügbare Speichermenge auf die Hälfte, wenn man ECC-Zeug nutzen will?
Doch nicht:
*Note: With ECC on, a portion of the dedicated memory is used for ECC bits, so the available user memory is reduced by 12.5%. (e.g. 3 GB total memory yields 2.625 GB of user available memory.)

Bucklew
2010-05-22, 11:44:27
ECC nutzt von 8 Bit auf dem Fermi eines als Parität.

Reicht zur Korrektur von 1-Bit-Fehlern und zur Erkennung von 2-Bit-Fehlern.

AnarchX
2010-05-24, 16:56:07
GF100 Die-Abdruck:
http://img138.imageshack.us/img138/4899/gf400heatspreaderkopie.jpg
http://ht4u.net/news/22159_thermalright_haelt_hitzkopf_gtx_480_in_schach/

Gast
2010-05-24, 17:07:58
was denkt ihr wird der Nachfolger alles haben?

ich meine den GTX480 Nachfolger, mehr als 512 Einheiten in 40nm sollten nicht möglich sein, weil sonst die Chipfläche größer ausfällt, 20-30% mehr Leistung zum Weihnachtsgeschäft sollten kein Problem sein wenn die yields bei TSMC über 70% liegen richtig?

V2.0
2010-05-24, 17:18:27
Es wird keinen Nachfolger in 40nm geben.

Gast
2010-05-24, 17:53:17
Bei TSMC dauert der 28nm HP Prozess noch sehr lange, vor Q2/2011 wird das nichts mehr, die Probleme die auftreten können sind auch ein zusätzliches Problem, eig. müsste Nvidia eine Low End Karte in 28nm testen, um erfahrung zu sammeln.

Dural
2010-05-29, 11:27:39
GF100 Die-Abdruck:
http://img138.imageshack.us/img138/4899/gf400heatspreaderkopie.jpg
http://ht4u.net/news/22159_thermalright_haelt_hitzkopf_gtx_480_in_schach/

gibt es eigentlich immer noch keine genauen infos zur DIE grösse des GF100? es gab ja vor monaten mal fotos von GF100 DIEs und die mit dem abdruck im video jetzt hallte ich über 520mm für ausgeschlossen da der GT200 DIE klar grösser ist!

AnarchX
2010-05-29, 11:30:46
gibt es eigentlich immer noch keine genauen infos zur DIE grösse des GF100? es gab ja vor monaten mal fotos von GF100 DIEs und die mit dem abdruck im video jetzt hallte ich über 520mm für ausgeschlossen da der GT200 DIE klar grösser ist!
Sind wohl doch mehr als 520mm2: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8047445#post8047445

Coda
2010-05-29, 13:02:57
ECC nutzt von 8 Bit auf dem Fermi eines als Parität.

Reicht zur Korrektur von 1-Bit-Fehlern und zur Erkennung von 2-Bit-Fehlern.
Och Leute hört auf über Dinge zu reden von denen ihr keine Ahnung habt.

1 Bit Parität ist ein Hamming-Abstand von 1, d.h. es wäre überhaupt keine Korrektur möglich.

pest
2010-05-29, 13:44:49
was hat die Parität direkt mit dem Hamming-Abstand zu tun?
Bucklew hat natürlich trotzdem keine Ahnung

Bucklew
2010-05-29, 13:50:36
Och Leute hört auf über Dinge zu reden von denen ihr keine Ahnung habt.

1 Bit Parität ist ein Hamming-Abstand von 1, d.h. es wäre überhaupt keine Korrektur möglich.
Na, dann ham die bei Nvidia wohl auch keine Ahnung, wenn sie ECC mit einem Bit Parität machen, blöd aber auch. Hoffentlich rufen sie dich dann nächstes Mal an ;)

pest
2010-05-29, 13:57:31
denk doch einfach mal nach bevor du Unfug schreibst, mit einem Paritätsbit kannst du nichtmal eine ungerade Anzahl von Fehlern festellen

Bucklew
2010-05-29, 14:03:07
denk doch einfach mal nach bevor du Unfug schreibst, mit einem Paritätsbit kannst du nichtmal eine ungerade Anzahl von Fehlern festellen
Diese totlangweiligen Informatikgrundlagen sind im Studium zu lange her, da ist mir das eigentlich total egal ob man es nun Paritätsbit oder ECC-Bit oder meinetwegen auch Doof-Bit nennt.

Coda
2010-05-29, 14:11:19
Na, dann ham die bei Nvidia wohl auch keine Ahnung, wenn sie ECC mit einem Bit Parität machen
Ja, hätten sie dann auch nicht. Sie machen es aber anders.

was hat die Parität direkt mit dem Hamming-Abstand zu tun?
Ein Bit Parität erzeugt einen Hamming-Abstand von eins. Das hat sehr wohl etwas damit zu tun.

Diese totlangweiligen Informatikgrundlagen sind im Studium zu lange her, da ist mir das eigentlich total egal ob man es nun Paritätsbit oder ECC-Bit oder meinetwegen auch Doof-Bit nennt.
Es ist kein Paritätscode. Die Fehlererkennung ist wohl über 7 Byte und 1 Byte ECC-Informationen o.ä. aber sicher nicht 1 Bit pro Byte Parität.

pest
2010-05-29, 14:12:56
dann schreib nicht darüber, wenn du keinen plan hast

wenn 7-Bit vollständig für Datenwörter verwendet werden, entspricht dies
einem Hamming-Abstand von 1, d.h. es können noch nicht einmal alle 1-Bit Fehler erkannt werden.

Ein Bit Parität erzeugt einen Hamming-Abstand von eins. Das hat sehr wohl etwas damit zu tun.

versteh ich grad nicht, ist aber auch nicht so wichtig

Bucklew
2010-05-29, 14:13:28
Es ist kein Paritätscode. Die Fehlererkennung ist wohl über 7 Byte und 1 Byte ECC-Informationen o.ä. aber sicher nicht 1 Bit pro Byte Parität.
Ich schreib ja auch ECC-Code und das es eines von 8 Bit nutzt.

Coda
2010-05-29, 14:16:34
Nein, du hast geschrieben sie nutzen eins von 8 Bit als Paritätsbit. Es ist keine Parität. Eher ein verkürzter RS-Code o.ä.

Und nun Schluss mit dieser sinnlosen Diskussion.

Spasstiger
2010-05-29, 14:24:43
Afaik nutzt das Fermi-ECC jeweils für 56 Bit Daten 8 Bit Korrekturcode.

/EDIT: Hier wurde ein entsprechender Code entwickelt:
- http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.56.1694&rep=rep1&type=pdf
- http://home.dei.polimi.it/silvano/Paperi_IEEE/VLSI95_00512096.pdf
Soll aber nicht heißen, dass NV das auch nutzt. Es ist aber prinzipiell ein (64,56)-Code mit den von NV beworbenen Eigenschaften möglich (Korrektur von einzelnen Bitfehlern, Detektion von doppelten Bitfehlern, Detektion einiger Multi-Bit-Fehler).

Nightspider
2010-05-29, 14:37:58
Und was haben eure letzten 10 Postings mit dem Bx-Stepping zu tun?

Genau...und jetzt flott BTT!

Nightspider
2010-06-02, 01:13:28
Nvidia zeigt einen Prototypen mit zwei GTX470 Chips:

http://www.engadget.com/2010/06/01/nvidia-brings-a-dual-gtx-470-prototype-to-computex-causes-power/

http://www.blogcdn.com/www.engadget.com/media/2010/06/10x0601mjn235lqqoo.jpg

Coda
2010-06-02, 01:17:52
"causes power shortages in Taipei" ;D

san.salvador
2010-06-02, 01:20:28
Es steckt ja doch noch etwas 3Dfx in nV. Hoffentlich kommen sie nicht auch zum selben Ergebnis. :ugly2:

Spasstiger
2010-06-02, 01:34:28
Nvidia hat mit dieser Dual-GPU-Karte nix am Hut, das ist eine Eigenentwicklung von Galaxy: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484797.
Kann auch gut sein, dass Galaxy gar keine Freigabe von NV für den Verkauf einer solchen Karte erhält.

Gast
2010-06-02, 16:50:21
das teil kommt im übrigen nicht von nv, sonder ist wohl eine machbarkeitsstudie von galaxy. die basteln ja immer wieder mal sowas. ich erinnere an die Dual 250 (http://www.gamestar.de/hardware/news/grafikkarten/2311993/galaxy.html) oder die 470 mit angeflanschtem gt240 (http://www.gamestar.de/hardware/news/grafikkarten/2311993/galaxy.html).

Soundwave1983
2010-06-02, 16:53:57
Es steckt ja doch noch etwas 3Dfx in nV.

Wieso noch?
Das ist seit deren Übernahme immer der Fall gewesen.
Viele Lead-Engineers von 3dfx machen den gleichen Job heute bei nV.
Ailuros weiß dazu bestimmt einiges.

@Topic:
Mich würde ja mal der Kühler/Lüfter für diese Karte interessieren, voll aufgedreht dürfte der den PC durch den Raum schieben. ;D

=Floi=
2010-06-06, 21:53:02
wie schaut es denn sonst mit dem Bx stepping aus? kann man im herbst endlich einen brauchbaren refresh mit 512sp@800/1600 vorstellen? (800/1800 wäre ne nummer)

an sich ist es schon faszinierend, dass sich der chip relativ gut übertakten lässt. damit hat man eigentlich nicht gerechnet nach der lagen verschieberei.

Nightspider
2010-06-07, 00:48:42
Die meisten wird sicherlich das B-Stepping interessieren für die großen Single-Karten. Dual-GPU mit 2 solcher hitzigen Köpfe wäre ey wahnsinn.

Das B-Stepping würde ja nicht nur eine verbesserte Ausbeute und damit 512 SU-Modell ermöglichen, es würde auch höhere Taktraten ermöglich. Ich hoff ja auf noch bessere OC-Eigenschaften. :D

So eine GTX485 mit 512SUs und ~+30% Taktrate (Wakü) wäre schon was feines.
=GTX480 + ~40% Leistung

Ailuros
2010-06-07, 10:25:55
Die meisten wird sicherlich das B-Stepping interessieren für die großen Single-Karten. Dual-GPU mit 2 solcher hitzigen Köpfe wäre ey wahnsinn.

Das B-Stepping würde ja nicht nur eine verbesserte Ausbeute und damit 512 SU-Modell ermöglichen, es würde auch höhere Taktraten ermöglich. Ich hoff ja auf noch bessere OC-Eigenschaften. :D

So eine GTX485 mit 512SUs und ~+30% Taktrate (Wakü) wäre schon was feines.
=GTX480 + ~40% Leistung

ROFL mehr als insgesamt 15% Mehrleistung wuerde ich nicht erwarten :rolleyes:

Iruwen
2010-06-07, 12:36:56
Wieso, bei CB kommen doch bei +6-8% Takt auch immer +10% FPS raus :rolleyes:

Ailuros
2010-06-07, 12:45:42
Wieso, bei CB kommen doch bei +6-8% Takt auch immer +10% FPS raus :rolleyes:

Ja und? Da hast Du schon Deine +10% und ein paar Prozente vom 16en SM und gut ist es. Du wolltest sagen?

Iruwen
2010-06-07, 13:20:16
Wollte sagen dass sie bei 30% mehr Takt sicher 40% mehr Leistung rausbekommen würden :tongue:

Ailuros
2010-06-07, 13:25:59
Wollte sagen dass sie bei 30% mehr Takt sicher 40% mehr Leistung rausbekommen würden :tongue:

Dann entschuldige dass ich Deinen Traum unterbrochen hab :rolleyes: :biggrin:

Gast
2010-06-07, 13:29:27
Wieso noch?
Das ist seit deren Übernahme immer der Fall gewesen.
Viele Lead-Engineers von 3dfx machen den gleichen Job heute bei nV.
Ailuros weiß dazu bestimmt einiges.

@Topic:
Mich würde ja mal der Kühler/Lüfter für diese Karte interessieren, voll aufgedreht dürfte der den PC durch den Raum schieben. ;D


Ich glaub nicht das 3dfx-Ingenieure so einen "schlechten" Job wie die G4xx abliefern würden !

Ailuros
2010-06-07, 13:35:33
Ich glaub nicht das 3dfx-Ingenieure so einen "schlechten" Job wie die G4xx abliefern würden !

Und was genau entwickeln denn Deiner Meinung nach die vorigen 3dfx-engineers heutzutage bei NVIDIA? Pantoffeln vielleicht? Es ist im Grund wurscht wer vor zich Jahren wo arbeitete denn ein heutiger NVIDIA engineer ist und bleibt ein NVIDIA engineer und er hat sehr wohl seinen Anteil an Verwantwortung fuer Entwicklung A, B oder C.

Wieso noch?
Das ist seit deren Übernahme immer der Fall gewesen.
Viele Lead-Engineers von 3dfx machen den gleichen Job heute bei nV.
Ailuros weiß dazu bestimmt einiges.

Gott es sind schon 10 Jahre her seit 3dfx aufgekauft wurde. Eine Anzahl der "Rampage" engineers" wurden von Quantum3D eingestellt und der wichtigste Anteil (Kilgariff inklusive) ging zu NVIDIA. Aber wie oben schon erwaehnt ist es wurscht wo jemand frueher arbeitete; zum Zeitpunkt X ist jeglicher NV engineer ein NV engineer und nichts anderes und jegliches design Team kann mal sehr gutes Zeug entwickeln oder auch absoluten Mist.

Nightspider
2010-06-07, 14:32:42
ROFL mehr als insgesamt 15% Mehrleistung wuerde ich nicht erwarten :rolleyes:

Ich dabei ja auch mit vom OC gesprochen!

~6% durch 512 SUs, 10% mehr Takt durch neues Stepping und dann 20% mit Wasser übertakten. Vllt sogar mehr. ;)

Coda
2010-06-07, 16:34:14
Wollte sagen dass sie bei 30% mehr Takt sicher 40% mehr Leistung rausbekommen würden :tongue:
Das geht nicht. Die Synergieeffekte die es gibt sind im Rahmen von 1-2% aber sicher nicht mehr.

Spasstiger
2010-06-07, 16:54:15
~6% durch 512 SUs, 10% mehr Takt durch neues Stepping und dann 20% mit Wasser übertakten. Vllt sogar mehr. ;)
Übertakten kann man auch die GTX 480 ganz ordentlich. 850 MHz statt 700 MHz mit Luftkühlung sind drin. Die GTX 480 läuft nicht auf der letzten Rille.
Aber ich denke nicht, dass Nvidia bei einer 512-SP-Variante die Taktraten um 10% anhebt gegenüber der GTX 480. Ich denke, es wird auf 725 MHz statt 700 MHz Chiptakt und 1000 MHz statt 924 MHz Speichertakt hinauslaufen, so dass man im Mittel auf 10% Performancesteigerung kommt.

Das geht nicht. Die Synergieeffekte die es gibt sind im Rahmen von 1-2% aber sicher nicht mehr.
Jopp. Es sind vermutlich auch keine echten Synergieeffekte, sondern eher Resultate eines Extremwertproblems. Die Datenverarbeitung unterliegt ja durch die Taktung einem diskreten Zeitverhalten.

Soundwave1983
2010-06-07, 16:56:43
Eine Anzahl der "Rampage" engineers" wurden von Quantum3D eingestellt und der wichtigste Anteil (Kilgariff inklusive) ging zu NVIDIA.

So hatte ich das auch auf dem Schirm, danke für das Update!
Was mich allerdings bis heute wundert ist, wie Dave Kirk durch Bill Daily als chief scientist "ersetzt" wurde, er wird zwar noch als nV Fellow gelistet aber irgendwie werd ich das Gefühl nicht los, dass das nicht ganz sauber über die Bühne ging. ;D

~6% durch 512 SUs, 10% mehr Takt durch neues Stepping und dann 20% mit Wasser übertakten. Vllt sogar mehr.

Wie hoch ist der Anteil derer, die ihre GTXen unter Wasser setzen?
Da würden die 20% schonmal wegfallen.
Ich würde mal vom Bauchgefühl her mal behaupten, das die meisten User die Karten mit Luftkühlung betreiben. :)

Nightspider
2010-06-07, 17:08:35
Wie hoch ist der Anteil derer, die ihre GTXen unter Wasser setzen?
Da würden die 20% schonmal wegfallen.
Ich würde mal vom Bauchgefühl her mal behaupten, das die meisten User die Karten mit Luftkühlung betreiben. :)

Keine Ahnung was du meinst.

Das der Großteil der Besitzer die Karte wohl unter Luft betreibt ist ja nichts Neues.

Und wieso sollte man die Karte nicht 20% mit Wasser übertakten können? Gibt schon genug A3 Modelle die 1900 Mhz oder mehr mit Wassr schaffen. Das sind 500 Mhz mehr Shadertakt, das sind über 30% mit dem alten Stepping.

Ailuros
2010-06-08, 10:44:50
So hatte ich das auch auf dem Schirm, danke für das Update!
Was mich allerdings bis heute wundert ist, wie Dave Kirk durch Bill Daily als chief scientist "ersetzt" wurde, er wird zwar noch als nV Fellow gelistet aber irgendwie werd ich das Gefühl nicht los, dass das nicht ganz sauber über die Bühne ging. ;D

Es gibt auch Leute die irgendwann einsehen dass es nichts bringt sich unendlich abzurackern und man so lange man noch Zaehne zum beissen hat doch wohl lieber so frueh wie moeglich seinen Hintern auf irgend einer tropischen Insel sonnen sollte ;)

Wie hoch ist der Anteil derer, die ihre GTXen unter Wasser setzen?
Da würden die 20% schonmal wegfallen.
Ich würde mal vom Bauchgefühl her mal behaupten, das die meisten User die Karten mit Luftkühlung betreiben. :)

Bleiben wir mal dabei dass die Frequenz mit hoechster Wahrscheinlichkeit nur moderat steigen wird auf "GF100b".

Soundwave1983
2010-06-08, 14:57:52
Und wieso sollte man die Karte nicht 20% mit Wasser übertakten können?

Ich hab mich da wohl etwas doof ausgedrückt.
Natürlich ist es realistisch mit Wasserkühlung evtl. 20% und mehr hinzubekommen, aber da der Großteil der User die Karten nicht unter Wasser setzen, fallen diese "Wasserprozente" weg. :)

Nightspider
2010-06-08, 15:03:37
Ich hab mich da wohl etwas doof ausgedrückt.
Natürlich ist es realistisch mit Wasserkühlung evtl. 20% und mehr hinzubekommen, aber da der Großteil der User die Karten nicht unter Wasser setzen, fallen diese "Wasserprozente" weg. :)

Was interessieren mich andere User? xD
Die rechnen halt die von mir oben genannten 20% nicht mit...

=Floi=
2010-06-08, 15:28:44
aber wäre es für einen refresh nicht ein wenig mau, wenn die neue 485er nur wenig mehr takt bekommt. immerhin sind die karten eh schon extrem teuer und die yields sollten dann auch besser sein.

LuXon
2010-06-08, 15:36:25
Die Leistungsaufnahme und die Lautstärke sollten dann doch wenigstens sinken, wenn die Taktraten, bzw. die Leistung nur leicht erhöht wird.

Gast
2010-06-08, 17:26:33
aber wäre es für einen refresh nicht ein wenig mau, wenn die neue 485er nur wenig mehr takt bekommt.


Die 285GTX hat auch nur unwesentlich mehr Takt bekommen.

Das Problem ist der Stromverbrauch, den sollte man mal als erstes senken.

Gast
2010-06-08, 17:32:30
Die 285GTX hat auch nur unwesentlich mehr Takt bekommen.

Fast 14% mehr Shadertakt und 12% Speichertakt sind nicht unwesentlich.
Würde NV vergleichbares bei GF100b schaffen, stünde uns wohl eine GTX 485 mit ~800/1600/1030MHz bevor, bei einer TDP um die 230W.

Spasstiger
2010-06-08, 17:52:39
Um die gleiche Leistungssteigerung wie von der GTX 280 zur GTX 285 zu erreichen, benötigt man bei 512 SPs maximal 750 MHz Chip-,1500 MHz Shader- und 1035 MHz Speichertakt. Eher weniger, weil die Texelfüllrate dann relativ gesehen stärker steigen würde als von der GTX 280 zur GTX 285. Nämlich um über 14% statt nur um knapp 8%. Vermutlich schafft man bei 512 SPs auch schon mit 725 MHz Chip-, 1450 MHz Shader- und 1000 MHz Speichertakt dieselbe Leistungssteigerung wie bei der Vorgängergeneration. Und zwar, weil man viel weniger Setup-limitiert ist als noch beim Vorgänger und somit die höhere Rechenleistung und Texelfüllrate stärker durchschlägt.
Dass man im Zuge dessen auch die Leistungsaufnahme reduzieren kann, wage ich zu bezweifeln. Eine GTX 485 mit 10% mehr Performance bei gleicher Leistungsaufnahme wäre schon beachtlich im selben 40-nm-Prozess.

Dural
2010-06-08, 19:19:25
was?

max 250watt also gut 50watt weniger alles andere wäre nicht vertretbar für einen GF100b!

ich würde mir eh nicht so viel gedanken über den takt machen, glaube nicht das wir da viel nach oben sehen werden... könnte mir auch sehr gut 700MHz / 512SP vorstellen bei deutlich weniger verbrauch und genau das dürfte das ziel seitens NV sein!

takt ist so wie so kein GF100 problem, in grunde genommen wäre doch schon jetzt eine 800MHz Karte möglich...

Spasstiger
2010-06-08, 21:28:46
was?

max 250watt also gut 50watt weniger alles andere wäre nicht vertretbar für einen GF100b!
Du weißt schon, dass der GF100 nicht so schnell in 28 nm gefertigt wird, oder? Im Gegensatz zum GT200b wird Nvidia dieses mal nicht auf einen anderen Prozess umschwenken, sondern lediglich gewonnene Erkenntnisse im selben Prozess umsetzen in der Hoffnung auf geringere Leckströme.

Gast
2010-06-08, 22:07:14
Du weißt schon, dass der GF100 nicht so schnell in 28 nm gefertigt wird, oder? Im Gegensatz zum GT200b wird Nvidia dieses mal nicht auf einen anderen Prozess umschwenken, sondern lediglich gewonnene Erkenntnisse im selben Prozess umsetzen in der Hoffnung auf geringere Leckströme.

Wobei 55nm gegenüber 65nm beim Stromverbrauch überhaupt keine Fortschritte gebracht hat und falls es beim GF100 die Leckströme sind wäre ein neuer Prozess auch kontraproduktiv, da diese ja bekanntlich mit der Verkleinerung zunehmen.

Ich bezweifle ehrlich gesagt auch dass die Leckströme bei GF100 das größte Problem sind, dazu schwankt der Verbrauch viel zu stark und der idle-verbrauch ist eigentlich zu gut. Leckströme haben ja die Eigenschaft, dass sie immer fließen unabhängig ob geschaltet wird oder nicht, GF100 hat aber gerade unter extremer Last Probleme mit der Leistungsaufnahme, was eher gegen Leckströme spricht.

Spasstiger
2010-06-08, 22:44:17
Wobei 55nm gegenüber 65nm beim Stromverbrauch überhaupt keine Fortschritte gebracht hat und falls es beim GF100 die Leckströme sind wäre ein neuer Prozess auch kontraproduktiv, da diese ja bekanntlich mit der Verkleinerung zunehmen.
Durch die sinkende, erforderliche Spannung könnte man den Verbrauch allgemein senken. Und natürlich hat 55 nm gegenüber 65 nm beim GT200 für einen deutlich niedrigeren Verbrauch gesorgt. Vergleiche doch einfach die GTX 280 mit der GTX 285, wo jeweils die beste Selektion zum Einsatz kommt.

Für Leckströme spricht auf jeden Fall die geringe 3D-Spannung, die selbst bei der GTX 480 meist unter 1 Volt liegt. Je geringer die Spannung, desto geringer die Leckströme, und wenn man ein Problem mit Leckströmen hat, dann versucht man die Spannung so niedrig wie möglich zu bekommen, ohne dass die GPU instabil arbeitet.
Dass der Verbrauch in 2D nicht exorbitant hoch ist, liegt vermutlich am Clock Gating. In Bereichen, die gar nicht mit einem Takt versorgt werden, können auch keine Leckströme entstehen. Und trotz allem hat NV die 2D-Taktraten sehr niedrig gewählt, um auf ein halbwegs erträgliches Maß zu kommen. Auch wenn man Leckströme hat, helfen niedrigere Taktraten, um den Verbrauch zu senken.

Ich hab hier selbe eine Grafikkarte mit Leckstromproblemen rumliegen (Radeon HD 2900 Pro, GPU = R600). Mit 1,2 Volt und OC werden die Spannungswandler 120°C warm bei max. Lüfterdrehzahl (orkanartiges Gebläse). :freak:
Der Stromverbrauch steigt dabei gegenüber 1,07 Volt (default) um 120 Watt ab Steckdose an. Mit 1,00 Volt dagegen ist sie richtig sparsam und der Lüfter wird dabei nur seltenst lauter als ein BeQuiet StraightPower unter Teillast.
Typische Symptome von Leckströmen eben. Trotzdem sinkt der 2D-Verbrauch mit reduzierten 2D-Taktraten, stärker als es bei einer Radeon HD 4850 der Fall ist. Das liegt vermutlich daran, dass im R600 kein Clock Gating implementiert war.

=Floi=
2010-06-08, 23:54:22
mehr chips würden auch eine bessere selektion zulassen. ich frage mich gerade, ob die deaktivierten einheiten nicht auch strom ziehen.

0.9 volt wäre schon eine sache:
0.9²=0.81 dieser faktor verglichen mit den ~1 volt der 480er ergibt 19% weniger stromverbrauch und würde zu einer maximalen stromaufnahme von ~243watt führen. das wäre wohl noch realistisch und umsetzbar. (ich wäre damit dann auch hochzufrieden.) den beschnittenen kleineren chips kann man dann ruhig mehr saft geben. ist zwar auch kein hit, aber weniger relevant, wenn es im rahmen bleibt.

Dural
2010-06-09, 10:19:17
was haltet ihr eigentlich von GTX465@470???

Das steht ja im krassen gegenteil gegen die angeblichen fertigungs probleme!

ganz offensichtlich hat NV haufenweise 448SP chips! es scheint nur über den 480SP probleme zu geben...


Du weißt schon, dass der GF100 nicht so schnell in 28 nm gefertigt wird, oder? Im Gegensatz zum GT200b wird Nvidia dieses mal nicht auf einen anderen Prozess umschwenken, sondern lediglich gewonnene Erkenntnisse im selben Prozess umsetzen in der Hoffnung auf geringere Leckströme.

was hat 28nm jetzt mit dem GF100b zutun? der kommt ja sicher noch in 40nm!

wenn die frage war ob ich 28nm meine dann nein sicher schon 40nm, der GF100 hat zwei probleme (die vieleicht sogar zusammen hängen) zu hoher strom verbrauch und das 512SP problem und bin mir sicher das NV das mitem GF100b mehr oder weniger in den griff bekommt! klar ein spar wunder wird es sicher nie, muss er auch nicht ist ja eine high end GPU!

Botcruscher
2010-06-09, 12:39:29
was haltet ihr eigentlich von GTX465@470???


Gar nichts. Der Preisunterschied alleine für den zusätzlichen RAM/Speicherinterface ist ein schlechter Witz. Da bracht man noch nicht mal über den Speed oder das Glücksspiel Freischaltung diskutieren. Die Karte müsste mindestens 50€ günstiger sein. Mindestens.

Dural
2010-06-09, 12:50:58
es geht mir nicht um sinn oder unsinn der karte sondern alleine um den Fakt das ganz offensichtlich 470 chips verbaut werden da man es gar nicht nötig hat chips weiter runter zu selektieren als eben die 448SP und das bedeutet nichts anderes das die ausbeute jedenfalls von 448SP chips recht gut sein muss!

Raff
2010-06-09, 12:54:29
Das erklärt aber nicht den Unsinn, den ein paar Nvidia-Partner betreiben. 300 €uro teure GTX-470-Karten aus dem Regal zu nehmen und via BIOS zur GTX 465 zu machen, um ein paar Kunden um 260 €uro zu ködern, klingt arg verzweifelt. Immerhin geht es hier nicht nur um die GPUs, eine GTX 470 besteht auch aus mehr Speicher – und der ist bei den "echten" (meisten) GTX-465-Karten um 2 Chips à 128 MiB ärmer als bei der GTX 470.

MfG,
Raff

Dural
2010-06-09, 13:00:40
also meinst du das so viele 448SP chips auf lager liegen das es nicht rentabel wäre noch weiter runter zu selektieren, beziehungsweise man "zu viele" 448SP chips hat?

Raff
2010-06-09, 13:06:33
Nee. Für mich klingen diese von 470 auf 465 heruntergestuften Karten mehr nach einem Akt der Verzweiflung. "Scheiße, die Teile kauft keiner, also nehmen wir schnell ein paar 470er und machen sie zur 465 ... für 260 €uro nimmt die uns hoffentlich jemand ab. Dumm nur, dass sie 250 €uro im Einkauf kosten, aber besser als nix, gell?!" ;)

Aber es scheinen ja nur extrem wenige zu sein, die ein mit 1,28 GiB bestücktes PCB besitzen.

MfG,
Raff

Gast
2010-06-09, 13:16:48
also meinst du das so viele 448SP chips auf lager liegen das es nicht rentabel wäre noch weiter runter zu selektieren, beziehungsweise man "zu viele" 448SP chips hat?
Sieht für mich eher nach : " was machen wir mit den CHips die die Prüfung nicht so Dolle ( mit kleinen Fehlern) bestanden haben"

Die muss man doch auch an den Man(n) bringen können.

Gast
2010-06-09, 13:18:23
Ala Shader 446 liefert falsche Ergebnisse , Siehe Pentium DIV-Bug

Aber bei Nv wird ja jeder BUG zum Feature erhoben.

Coda
2010-06-09, 13:56:53
Das Binning bei dem solche Fehler festgestellt werden geschieht lange bevor der Chip aufs PCB gelötet wird.

Dural
2010-06-09, 15:26:25
jep, wenn beim chip 448SP freischaltbar sind werden die auch alle i.O. sein!

den sonst würde man die sicher hardwaremässig trennen per laser...

=Floi=
2010-06-09, 15:51:44
kann auch simples marketing sein um die produkte besser dastehen zu lassen und ins gespräch zu kommen. siehe amd bei ihren prozessoren.

davidzo
2010-06-09, 17:12:46
die hauptersparnis sind wohl die speicherkosten. scheint wirklich, dass bei der gtx465 dieselben chips wie bei der gtx470 verwendet werden. sollte mich nicht wundern dass die karte eine kurzentscheidung von nvidia war und daher aus gtx470 stock zusammengebastelt wurde. so langsam fange ich an die horrenden yieldgeschichten zu glauben, die es damals zu lesen gab.

2% 512sp - Teslas
20% 480sp - GTX480
70% 448sp - GTX470/465
8% - garbage so far, but may be rebinned as GTX465

sollte mich nicht wundern wenn die gtx465 sehr kurzlebig ist und die flashbaren noch kurzlebiger. das speedbinnign der 465 hat wohl nicht stattgefunden, ob aus zeitgründen oder absichtlich. eventuell wird nvidia das bald nachholen und dann aus der traum.

Gast
2010-06-09, 17:18:31
Natürlich gab es für die GTX 465 ein Binning. GF100-030 ist der Die einer echten 465, die Karten mit GF100-275 GTX 470 Die sind wohl nur da um zum Launch eine gewisse Menge sicherzustellen und eben Käufer mit der Freischaltbarkeit zu locken.

Coda
2010-06-09, 17:28:10
Teslas laufen bisher auch mit 448SPs, nicht 512.

Spasstiger
2010-06-09, 17:34:27
Das steht ja im krassen gegenteil gegen die angeblichen fertigungs probleme!
Krasse Fertigungsprobleme gibts nur bei der 512-SP-Variante. Meine Information war schon seit Monaten, dass die Yieldrate aller GF100-Parts insgesamt über 50% liegt. Man konnte bis zum Release schon knapp eine halbe Millionen funktionsfähige GF100-Chips fertigen, wenn auch nicht mit 512 SPs.

Bucklew
2010-06-09, 17:37:26
Krasse Fertigungsprobleme gibts nur bei der 512-SP-Variante. Meine Information war schon seit Monaten, dass die Yieldrate aller GF100-Parts insgesamt über 50% liegt. Man konnte bis zum Release schon knapp eine halbe Millionen funktionsfähige GF100-Chips fertigen, wenn auch nicht mit 512 SPs.
Ja, die "Kastration" des GF100 hat sich auf jeden Fall gelohnt.

Gast
2010-06-09, 17:42:47
Auf 6% Textur- und Rechenleistung zu verzichten, ist immer noch besser als auf die Hälfte der Z-Leistung in den ROPs. :D

Nun wird sich zeigen müssen, ob Nvidia dieses wahrscheinliche Design-Problem bei GF100b gelöst hat. Wenn man da wirklich nochmal an den Floorplan heranmusste, wäre wohl eine größe Die-Size nicht verwunderlich, damit so die Leckströme sinken müssten und man auch die Chance auf höhere Taktraten hat.

Gast
2010-06-09, 20:19:18
Und trotz allem hat NV die 2D-Taktraten sehr niedrig gewählt, um auf ein halbwegs erträgliches Maß zu kommen. Auch wenn man Leckströme hat, helfen niedrigere Taktraten, um den Verbrauch zu senken.

Eben nicht, Leckströme treten immer auf, unabhängig von der Taktfrequenz, das einzige was Leckströme verringern kann sind niedrigere Spannungen.

Noch ein Indiz, dass beim GF100 die Leckströme zumindest nicht das Hauptproblem sind, meines Wissens sind die 2D-Spannungen nur unwesentlich abgesenkt.

Spasstiger
2010-06-09, 20:27:18
Eben nicht, Leckströme treten immer auf, unabhängig von der Taktfrequenz, das einzige was Leckströme verringern kann sind niedrigere Spannungen.
Ich behaupte doch auch nicht, dass die Leckströme mit der Taktrate sinken. Aber der Verbrauch sinkt logischerweise schon, wenn weniger oft pro Sekunde geschaltet wird. Die Leckströme machen ja nur einen Bruchteil des Gesamtverbrauchs aus.
Noch ein Indiz, dass beim GF100 die Leckströme zumindest nicht das Hauptproblem sind, meines Wissens sind die 2D-Spannungen nur unwesentlich abgesenkt.
Evtl. braucht man diese Spannung für einen stabilen Betrieb der in 2D noch aktiven Chipteile.

Man darf auch nicht vergessen, dass die Hardwarehersteller andere Maßstäbe für "stabil" anlegen als die Overclocker, die mit Hängen und Würgen einen 3DMark-Run hinbekommen und das als stabil bezeichnen.

Gast
2010-06-09, 20:55:25
Auf 6% Textur- und Rechenleistung zu verzichten, ist immer noch besser als auf die Hälfte der Z-Leistung in den ROPs. :D
Erzähl mal… ;D

Gast
2010-06-09, 21:26:25
Ich behaupte doch auch nicht, dass die Leckströme mit der Taktrate sinken. Aber der Verbrauch sinkt logischerweise schon, wenn weniger oft pro Sekunde geschaltet wird.

Der Verbrauch sinkt natürlich, die Leckströme aber nicht.


Die Leckströme machen ja nur einen Bruchteil des Gesamtverbrauchs aus.

Wenn dem so ist, sind die Leckströme ja kein großes Problem, zu dem werden sie ja nur wenn sie einen großen Anteil am Gesamtverbrauch haben.


Evtl. braucht man diese Spannung für einen stabilen Betrieb der in 2D noch aktiven Chipteile.

Sicherlich braucht man sie.


Weiteres Indiz, dass die Leckströme zumindest kaum für den hohen Lastverbrauch verantwortlich sind ist der große Unterschied im Verbrauch zwischen GTX480 und GTX470. Die Leckströme dürften bei beiden sich nur unwesentlich unterscheiden, trotzdem verbraucht die GTX470 wesentlich weniger.

Coda
2010-06-09, 21:31:33
Die Leckströme machen ja nur einen Bruchteil des Gesamtverbrauchs aus.
Da bist du aber gewaltig falsch informiert.

Spasstiger
2010-06-09, 22:13:30
Zumindest machen die Leckströme nicht 100% der Verbrauchs aus. Deshalb geht auch eine Taktreduzierung immer mit einem geringeren Verbrauch einher, auch wenn die Leckströme hoch sind.
Bei Fermi sind die Leckströme anteilsmäßig auf jeden Fall zu hoch, trotzdem machten sie eben nicht 100% aus, sondern nur einen Teil davon.

Muss man hier eigentlich jedes Wort auf die Goldschale legen? Immer nur schwarz und weiß?
Wenn ich sage, dass der GF100 ein Problem mit zu hohen Leckströmen hat, dann meine ich damit natürlich nicht, dass 100% des Verbrauchs aus Leckströmen kommt. Und wenn ich das dann klar stellen will, indem ich sage, dass nur ein Bruchteil des Verbrauchs aus Leckströmen kommt, dann meine ich damit logischerweise auch nicht nur 1%. Ich kenne die genauen Zahlen nicht, aber in der Gegend von 20-50% wird man wohl liegen. So dass ein gewisses Einsparpotential vorhanden ist, aber der Verbrauch nicht ausschließlich von den Leckströmen bestimmt wird.

Tarkin
2010-06-10, 07:02:21
http://hardocp.com/news/2010/06/09/nvidias_immediate_roadmap_rumors

und

http://hardforum.com/showpost.php?p=1035809063&postcount=10

Was soll das bedeuten?

Gast
2010-06-10, 07:31:21
"Currently nothing on the roadmap for higher performing parts out to 2012 beyond a die shrink and that is not confirmed as to when."

LOL, damit kann Nvidia einpacken.

Psychopat
2010-06-10, 10:33:35
Keine Informationen heißt bloß das noch nichts durchgesickert ist.

Gast
2010-06-10, 11:17:59
Ich kenne die genauen Zahlen nicht, aber in der Gegend von 20-50% wird man wohl liegen.


Das ist aber eine ziemliche Spanne. Bei 20% kann man sicher nicht von einem Leckstromproblem sprechen, im Gegenteil für 40nm wäre das schon ausgesprochen niedrig. Sind es 50% oder gar mehr sind die Leckströmen natürlich ein großes Problem.

Gipsel
2010-06-10, 14:56:46
Bei 20% kann man sicher nicht von einem Leckstromproblem sprechen, im Gegenteil für 40nm wäre das schon ausgesprochen niedrig. Sind es 50% oder gar mehr sind die Leckströmen natürlich ein großes Problem.
Bei 40nm GPUs liegst Du mit einem Leakage-Anteil von 50% dichter als mit 20%. Bei 32/28nm würde das ohne HKMG dann vollkommen durch die Decke gehen. Gab da mal so eine Grafik von Globalfoundries zu. Leider finde ich die gerade nicht mehr.

Nightspider
2010-06-14, 20:32:27
512 SU + 20Mhz = GTX485 ?

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/15664-nvidia-geforce-gtx-485-neues-flaggschiff-bald-mit-512-shadereinheiten.html

Spasstiger
2010-06-14, 22:03:56
Aus der Originalquelle kann ich nicht rauslesen, dass Bill Dally irgendwas in Bezug auf die Taktraten oder das Kühlsystem verraten hat. HWLuxx mal wieder am Dichten ...
Eine stärkere Kühllösung deutet jedenfalls nicht auf eine sinkende TDP hin wie von Manchen hier im Thread gehofft wird. Eher ist das Gegenteil der Fall.

Coda
2010-06-14, 22:15:06
Naja, theoretisch könnte man damit die eingestellte Temperatur senken und damit auch die Leistungsaufnahme.

Aber das ist natürlich reine Spekulation, ich kann mir auch vorstellen, dass der volle 512-SP-GF100b mehr verbraucht.

Gast
2010-06-14, 22:25:41
Aus der Originalquelle kann ich nicht rauslesen, dass Bill Dally irgendwas in Bezug auf die Taktraten oder das Kühlsystem verraten hat. HWLuxx mal wieder am Dichten ...

Das kommt von hier: http://www.kitguru.net/components/graphic-cards/faith/gtx485-less-hot-and-noisy-in-the-sack/
Wo man auch solche Dinge berichtet: http://www.kitguru.net/components/graphic-cards/zardon/nvidia-to-drop-cuda-on-gtx465/
Klicksammler noch unter dem Niveau eines Fudo.

aylano
2010-06-14, 22:50:16
Aber das ist natürlich reine Spekulation, ich kann mir auch vorstellen, dass der volle 512-SP-GF100b mehr verbraucht.
Stimmt, wenn sie so auf die 40nm-Probleme wie AMD reagieren, sollte das doch mehr Stromverbrauch bedeuten, wo die dann eine verbesserte Kühlung bräuchten.

Oder, wie sich jetzt der obige Link angehört hat, ist man hauptsächlich nur auf das "512-Shader-Problem" eingegangen und der Rest wurde "etwas" (also, nicht so gravierend wie AMD) an die 40nm-Problem angepasst.

Damit könnte man mit beim B-Stepping eben 512-Shader sowie auch mit der generell besseren Fertigung etwas mehr Takt und "die geplanten TDP-Werte" erreichen.
Mit den 40nm-Problem-Anpassungen wie AMD sollte Nvidia doch kaum die geplanten TDP-Werte erreichen können?!

Iruwen
2010-06-15, 00:52:44
Eine stärkere Kühllösung deutet jedenfalls nicht auf eine sinkende TDP hin wie von Manchen hier im Thread gehofft wird. Eher ist das Gegenteil der Fall.
Da steht auch nichts von einer stärkeren Kühllösung, da steht "Verbesserungen am Kühlsystem". Das kann auch schlicht heißen dass das Teil von vornherein leiser ist. AMD hat bei der 5770 ja auch den Referenzkühler nochmal gewechselt.

Spasstiger
2010-06-15, 16:02:18
Da steht auch nichts von einer stärkeren Kühllösung, da steht "Verbesserungen am Kühlsystem". Das kann auch schlicht heißen dass das Teil von vornherein leiser ist.
In der Originalquelle steht "A little cooler.".

Das kommt von hier: http://www.kitguru.net/components/graphic-cards/faith/gtx485-less-hot-and-noisy-in-the-sack/
Genau das meinte ich doch mit Originalquelle.

Gast
2010-06-15, 16:16:16
In der Originalquelle steht auch nix davon, dass Bill Dally das gesagt hat. Das hat Hardware-Infos geschrieben - da sieht man dann auch, woher HWluxx die Info abgeschrieben hat.

Leonidas
2010-06-16, 15:15:10
Exakt. Die Originalquelle sagt kein Wort, woher man das hat - und Bill Dally wird nur deswegen da genannt, weil man denkt, daß er der große Macher ist, der aus dem GF100 noch eine GTX485 herausleiert.

Daraus eine Story zu stricken, ein nVidia-Mann hätte was gesagt, ist schon sehr vermessen.

Nightspider
2010-06-21, 20:02:56
Bilder der GTX-485-Platine aufgetaucht?

http://pics.computerbase.de/2/9/8/1/0/1.jpg

Die Bilder zeigen unter anderem eine aufgewertete Spannungsversorgung der GPU mit 8 Phasen. Aktuelle Modelle bieten hier nur eine 6-Phasen-Versorgung. Des Weiteren sind zwei 8-Pin-PCIe-Stromstecker anstatt der üblichen Variante mit einem 8-Pin- und einem 6-Pin-Stecker sichtbar. Dies könnte eine Leistungsaufnahme von bis zu 375 Watt ermöglichen.

Eventuell handelt es sich bei diesem Grafikbeschleuniger um eine GTX 485 mit 512 Shader-Einheiten. Aber auch eine spezielle Version der Board-Partner wäre möglich, etwa eine EVGA Classified GTX 480.


http://www.computerbase.de/news/hardware/grafikkarten/2010/juni/bilder_gtx-485-platine/

Edit:

Könnte genauso ein OC-Board für die GTX480 sein oder?

Cubitus
2010-06-21, 20:15:20
Oder ne Ultra Version

Die 485er Serie dürfte wohl erst ein wirklicher refresh sein.

aylano
2010-06-21, 20:36:40
Ich schätze mal eine Ultra-512-Version, die man noch zusätzlich gut übertakten (siehe 2x8-Stecker) kann, wenn man will.

Immerhin hat man paar 512-Stücke produziert.
Vorallem, hatte Nvidia angekündigt, dass die Fertigung jetzt ja schon so gut sein soll. Da hätte ich 512er schon eher erwartet.

y33H@
2010-06-21, 20:41:06
2x 8P ist außerhalb der PCIE-Specs. Ergo AIB-Modell.

Gast
2010-06-21, 20:57:19
2x 8P ist außerhalb der PCIE-Specs. Ergo AIB-Modell.

Die GTX480 ist mit von einigen Seiten gemessenen 320W auch schon außerhalb der Spec. NV hat wohl keine andere Möglichkeit mehr die Leistung zu steigern. Auch 512SPs gibt es nicht gratis.

y33H@
2010-06-21, 21:09:14
Du brauchst für über 300W keine 2x 8P.

2x 6P packen das gleiche, die zwei zusätzlichen Pins sind eh nur durch gesenste Masse.

Coda
2010-06-21, 21:13:47
Ich dachte 6+6 sind 225W?

y33H@
2010-06-21, 21:21:57
In der Theorie. Praktisch ziehst du aus Slot + 2x 6P über 500W wenn die PSU genug Saft hat.

Spasstiger
2010-06-21, 21:22:36
Er spielt darauf an, dass der 8-Pin-Stecker genau wie der 6-Pin-Stecker nur drei 12-Volt-Leitungen hat. Trotzdem gibts natürlich Spezifikationen, an die sich Boardbauer und Netzteilbauer zu halten haben. Nur weil irgendwelche OC-Netzteile die Spezifikation um über 100% sprengen heißt das nicht, dass man Spezifikationen ignorieren kann.

Bucklew
2010-06-21, 22:39:29
In der Theorie. Praktisch ziehst du aus Slot + 2x 6P über 500W wenn die PSU genug Saft hat.
Das kann aber nicht jedes PSU.

y33H@
2010-06-22, 09:34:55
Und nicht jede GPU säuft soviel Strom ;D

Gast
2010-06-22, 09:56:50
Er spielt darauf an, dass der 8-Pin-Stecker genau wie der 6-Pin-Stecker nur drei 12-Volt-Leitungen hat.


Nach der Spezifikation hat der 6-pin-Stecker nur 2 12V-Leitungen, der mittlere Pin in der 12V-Reihe ist unbelegt, es ist im Prinzip ein 5-Pin-Stecker der mechanisch als 6-Pin ausgeführt ist.

Insbesondere bei Steckern die sich als 6 und 8 Pin verwenden lassen sind natürlich auch wenn nur 6 Pins verwendet werden natürlich 3 12V-Leitungen vorhanden. Bei einem reinen 6-Pin-Stecker ist das aber nur eine Option und muss vom Netzteil nicht so ausgeführt werden.

Dural
2010-06-22, 11:01:13
theorie:

6-pin 2x plus und 3x masse
8-pin 3x plus und 5x masse

praxis:

6-pin 3x plus und 3x masse
8-pin 3x plus und 5x masse

y33H@
2010-06-22, 11:20:04
Danke, Dural. Alles was nicht älter als drei Jahre ist hat 6-Pin mit 3x Plus.

Nightspider
2010-06-22, 13:18:43
Ich geh auch mal davon aus, das oben gzeigte Platine von der MSI Lightning ist. Vielleicht von Asus eine OC-Karte.

Könnte sich in jedem Fall lohnen mit einem besseren Kühler und besseren Komponenten.

Coda
2010-06-22, 13:20:03
Auf was wollt ihr eigentlich raus?

Gast
2010-06-22, 13:38:01
Du brauchst für über 300W keine 2x 8P.

2x 6P packen das gleiche, die zwei zusätzlichen Pins sind eh nur durch gesenste Masse.

Du weißt aber schon was du selbst schreibst? Oder gibt es dich zweimal?

2x 8P ist außerhalb der PCIE-Specs.

Zuerst mit den Specs argumentieren und dann zu sagen man kann ja auch aus 2x 6P 300W ziehen ist schon etwas. :ugly:

y33H@
2010-06-22, 14:04:28
Wo ist das Problem? Die Specs sehen derzeit nur max. 300W vor, in der Praxis ist das aber schei0egal. Dennoch wird kein IHV (AMD/NV) eine Referenz-Karte mit 2x 8P bringen, da außerhalb der Specs. Egal wie viel das Teil praktisch säuft. Eine HD2900 XT hat 6P+8P und kommt auf "nur" 220W [eine mehr als doppelt so schnelle GTX 280 hat auch 6P+8P und kommt selten über 200W], eine HD4870 X2 hat auch 6P+8P (= 300W) und säuft schon mal 360 bis über 400W (OC-Modelle). Und das obwohl es IHV-Lösungen sind. Eine Asus Mars mit 2x 8P (375W) verballert 100W mehr als die Specs in der Theorie erlauben.

Specs sind schön und gut und wichtig, in der Praxis aber eben oft nur schnöde Theorie und wertlos.

phil99
2010-07-05, 20:58:31
Ich wär ja dafür, dass wir stufenweise ein Verbot für solche Stromfresser einführen, denn irgendwann ist sowieso Schluss.
Man könnte bsp sagen, dass eine neueingeführte Karte 2011 noch 250 Watt, 2012 noch 200 und 2013 noch 150 Watt verbrauchen darf.
Dann würden die Karten auch sinnvoll betrieben bei wenig Volt und man würde mehr auf Performance pro Watt schauen.
Die 3 Jahre hätten wir dann trotzdem einen Anstieg an Performance und neue Technologieen.
Wenn ich überlege, dass mein schweinteure 800 pro damals einen Minilüfter hatte bei 400 Euro, muss ich echt über den damaligen Preis schmunzeln.
Aber eine Karte mit 300 Watt kommt mir nicht in den Rechner, das ist ja eine Heizung.
Am Besten noch 4 davon als Quad-SLI und dann solche Spiele wie Crysis 3, die dann grad mal 30 fps bringen auf Full HD und very high. Nee, echt nicht mehr schön, diese E ntwicklung.

Wuge
2010-07-05, 21:48:05
Die aktuelle Fertigung gibt eben nicht mehr her. Du kannst auch eine GF100 sehr effizient betreiben. Spannung aufs Minimum gesenkt und Du hast Deine 150W bei moderatem Leistungsverlust. Aber das ist eben nicht die Art von Karte, die der Markt verlangt.

phil99
2010-07-06, 20:03:33
Das kann ich eben nicht, dazu muss ich entweder das Bios flashen, oder es gibt ein Tool. Ausserdem ist die Architektur nicht dafür ausgelegt und ich verliere die Garantie.
Aber der Ansatz wäre gut. Wer dann unbedingt mehr Leistung will, soll eben die Spannung steigern und Wasserkühlen.
Warum braucht der Markt plötzlich die letzten 20%, wo doch die Entwicklung der Leistung in den letzten Jahren um mehr als 1000% gestiegen ist.
Ich wäre halt einfach für eine Rückbesinnung auf alte Werte, selbst die damals sehr schnelle 8800 GTX kam damals mit 150 Watt aus.
Bei den Prozessoren hat man ja auch die Leistungsaufnahme auf 300 Watt geprügelt.

LovesuckZ
2010-07-06, 20:08:30
Jo, die damals schneller 8800GTX war nur die stromhungrigste Karte zur damaligen Zeit, wo eine TDP über 150 Watt eher die Ausnahme als die Regel war...
Aber ich gebe dir ein Tipp: Kauf einfach nicht.

Spasstiger
2010-07-06, 20:23:21
Vor der 8800 GTX gabs keine Consumer-Karten mit über 150 Watt TDP, selbst die 7950 GX2 begnügte sich mit 143 Watt. Heute sind wir bei der doppelten TDP angelangt.
Seit meiner ersten 3D-Grafikkarte (Rage Pro) beobachte ich eigentlich ständig einen Anstieg der Leistungsaufnahme bei Grafikkarte. Was 1998 als gefräßig und heiß galt (omg, ein Kühlkörper auf der Grafikkarte!), ist heute sehr sparsam und ökologisch wertvoll. ;)
Mit der GTX 480 ist auch für mich ein Niveau erreicht, wo die Leistungsaufnahme ein Ausschlusskriterium für mich darstellt. Das galt vorher auch schon für die HD 4870 X2 und die GTX 295.

y33H@
2010-07-06, 20:47:04
Die HD2900 XTX hatte eine TDP von 215W ... aber ok, die war unbeabsichtigt später ;D

Gast
2010-07-06, 22:55:02
Die Grenze ist alleine dadurch gegeben, das ohne einen ATX Nachfolger irgendwann schluss ist.
Wobei ich es erstaunlich finde, was heutige Turbinen mit ihren zugehörigen Kühlkörper zu leisten vermögen. Ganz besonders wenn man es mit CPUs vergleicht.
x fach 300W oder mehr vs 150W.

Thunder99
2010-07-06, 23:38:59
Strömungsmechanik und Wärmeübertragung, ware Ingenierusleistung die da drin steckt (samt numerischer Berechnungen) ;) . Wobei hier echt bald bei den Grenzen des machbaren angelangt sind.
Tripple-Slot = NO GO !:mad:

ATI hat es ja vorgemacht wie es geht (deutlich mehr Leistung bei niedrigeren Stromverbrauch) :)

nvidia wird schon Mittel und Wege finden das die Leistungsaufnahme nicht noch weiter steigt. Scheint so, dass sie jetzt ein Kompromiss eingehen mussten damit sie noch immer die schnellste single Chip Grafikkarte haben

Nightspider
2010-07-06, 23:52:09
Ach wieso? Ist doch noch etwas Platz für größere Kühlkörper und länger können die Karten auch noch warten, bevor sie auf den 3. Slot zugehen. Notfalls geht man mit den Kühlern noch etwas in die Breite. Wen juckts wenn die Karte 2-3cm breiter ist? Manche OC Karten haben mittlerweile auch schon breitere Platinen.:tongue:

Thunder99
2010-07-07, 12:53:19
Ach wieso? Ist doch noch etwas Platz für größere Kühlkörper und länger können die Karten auch noch warten, bevor sie auf den 3. Slot zugehen. Notfalls geht man mit den Kühlern noch etwas in die Breite. Wen juckts wenn die Karte 2-3cm breiter ist? Manche OC Karten haben mittlerweile auch schon breitere Platinen.:tongue:
Oder sie geben standardmäßig gleich ne Wakü mit entsprechendem Aufschlag mit dazu :freak:

So eine Entwicklung darf es nicht geben :( , es gibt noch einige die fast alle Slots brauchen (z.b. hab ich WLan-Karte, Soundkarte, TV-Karte,...)

Nightspider
2010-07-07, 14:10:12
So eine Entwicklung darf es nicht geben :( , es gibt noch einige die fast alle Slots brauchen (z.b. hab ich WLan-Karte, Soundkarte, TV-Karte,...)

Wlan, TV und Sound gibts alles über USB Geräte! Den restlichen Platz braucht man für Grafikkarten! :D

AnarchX
2010-07-16, 12:44:17
Ares II:
http://www.techpowerup.com/img/10-07-16/ares_ii_1.jpg
http://techpowerup.com/126702/ASUS_Working_on_ARES_II_Dual_GTX_480_Graphics_Accelerator.html

Offenbar zwei vollwertige GTX 480 auf einem PCB und 3x 8-Pin (525W max. Boardpower).

Dural
2010-07-16, 12:54:29
so was von mega sinnlos, solche karten werde ich nie verstehen...

ist ja schön und gut eine GX2 karte herzustellen mit vernünftigen werten wie es bei der 7950GX2, 9800GX2 oder GTX295 (mit gut selektierten GPUs weniger vGPU usw.) der fall war, aber einfach zwei GTX480 chips auf ein PCB zu pflanzen ist sicher nicht der korekte weg!

ich würde jeder zeit zwei normale GTX480 dieser Karte vorziehen!!!

G80
2010-07-18, 12:54:52
GX 2 Karten waren schon immer Müll:

7950: 7800,7900 GTX SLI wesentlich besser, 88GTX kurz später.

9800 Gx 2: VRam Krüppel sondergleichen, "altes" 88 GTX SLI gespann wesentlich besser.

GTX 295: Vram Krüppel, selbst 2 260 mit jew. ~1900 MB vorzuziehen.


Nun bei dieser neuen 2x480er Karte sind ja dann wenigstens 1500 MB drauf; es sei denn sie kapten 275 like SI und Ram - was dann aber ohne größere Dicht/Chip oder doppelte Chipmenge wieder zum Vramkrüpel führen würde.

Nightspider
2010-07-18, 14:45:59
Wenn dann verbaut man zwei GF104 mit jeweils 1024 oder 2048 MB

BigKid
2010-07-20, 15:34:24
Ich persönlich bin mehr an Nachrichten, Gerüchten und Vermutungen zu einem gf100 B-Stepping interessiert... Höhere Taktraten, niedrigere Temperaturen, weniger Verbrauch...

BigKid
2010-07-22, 11:16:21
Hmmm garnix bekannt ? Keine (glaubwürdigen) Gerüchte um ein B (oder C) Stepping des gf100 ?

Ist der GF100 schon EOL oder wird er nur noch für GPU-Computing benutzt ? Was wird ihn dann ersetzen im Gaming-Bereich ? Eventuell ein GF102 ? Dass der GF104 bis ins Enthustiast Segment (Single Card(!)) eingeführt wird, scheint mir doch irgendwie unwahrscheinlich... (eine GF104x2 halte ich jedoch für möglich).

DavChrFen
2010-07-22, 15:03:47
Also allein schon wegen der gewählten Namensgebung würde ich sagen, dass der GF100B kommen muß. Aber so ein Respin dauert halt. Und die Schätzungen waren, glaub ich, Septermber oder Oktober(optimistisch). Insofern kann das noch dauern.

BigKid
2010-07-22, 15:18:39
Naja also der Juli ist so gut wie rumm... Ist also noch etwa ein Monat bis September... Da müsste doch da sollte doch ... So langsam mal was zu hören sein... auf den Kanälen... ;)

LuXon
2010-07-22, 15:36:44
@BigKid

Nicht unbedingt. Der Chip wird kein neues PCB brauchen oder eine andere Stromversorgung. Ich könnte mir vorstellen dass nVidia mal ausliefert und dann sagt: "Hier ist eine neue Revision. 512SP's neu möglich. PCB und alles drum und dran wie bei der GTX480. Offizieller Start ist in 2 Wochen" oder so ;D

|MatMan|
2010-07-22, 16:33:49
Nicht zwangsläufig - ich könnte mir vorstellen man nutzt die Gelegenheit etwas am PCB zu optimieren. Die Kühllösung muss man wahrscheinlich eh modifizieren.

Wie war das denn das von GTX280 zu GTX285?

Gast
2010-07-22, 16:38:54
Wie war das denn das von GTX280 zu GTX285?
Einfacheres PCB(einseitige Speicherbestückung, keine Vgpu-Änderung über Software,...) und ein kleinerer Kühlkörper.

dildo4u
2010-07-28, 21:46:03
Profi-„Fermi“-Lösungen von Nvidia vorgestellt

"Quadro Plex 7000 lautet die Bezeichnung dieses speziellen Sondermodells mit 12 GByte Speicher und 896 Shader-Einheiten („CUDA“-Kernen)."

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/juli/profi-fermi-loesungen_nvidia/

Bin mal gespannt ob die wirklich nur für den Profi Markt kommt oder es doch eine Dual GF100(2X 448) Comsumer Karte geben wird.Natürlich mit deutlich weniger V-ram.(3GB)Also Thermisch scheint die Karte machbar.

Bucklew
2010-07-28, 22:01:00
Bin mal gespannt ob die wirklich nur für den Profi Markt kommt oder es doch eine Dual GF100(2X 448) Comsumer Karte geben wird.Natürlich mit deutlich weniger V-ram.(3GB)Also Thermisch scheint die Karte machbar.
Die QuadroPlex ist keine Karte sondern zwei Karten in einem exteren Gehäuse:

http://www.nvidia.de/page/quadroplex.html

dildo4u
2010-07-28, 22:06:07
Die QuadroPlex ist keine Karte sondern zwei Karten in einem exteren Gehäuse:

http://www.nvidia.de/page/quadroplex.html
Aha dann werden bis zu 4 Karten verbaut?
http://www.ubergizmo.com/15/archives/2010/07/nvidia-quadro-4000-6000.html

Bucklew
2010-07-28, 22:10:28
Aha dann werden bis zu 4 Karten verbaut?
http://www.ubergizmo.com/15/archives/2010/07/nvidia-quadro-4000-6000.html
Das sind dann 2 Boxen, die über einen PCIe Slot laufen.

http://www.nvidia.com/docs/IO/40049/NVSLIMosaicMode_UG_v20.pdf

Siehe Seite 7.

Gast
2010-08-02, 14:26:19
GTX 485 bald?

http://www.guru3d.com/news/geforce-gtx-485--gf100-pcb-spotted/
http://img97.imageshack.us/img97/7047/imageviewtl.jpg

oder auch: http://www.techpowerup.com/125011/New_NVIDIA_GF100_Board_Surfaces_Suggests_New_High-End_SKU.html

Gast
2010-08-02, 14:31:30
22. Juni. Zudem ist das nur ein Hersteller-eigenes PCB aus Asien.

Nightspider
2010-08-02, 14:36:55
GTX 485 bald?

http://www.guru3d.com/news/geforce-g...0-pcb-spotted/
http://img97.imageshack.us/img97/7047/imageviewtl.jpg

oder auch: http://www.techpowerup.com/125011/Ne...h-End_SKU.html

Zum Vergleich nochmal das alte PCB:

http://a.imageshack.us/img214/9554/gtx480pcb.jpg

Alle radialen Kondensatoren wurden jetzt durch welche in SMD Bauweise ersetzt, was wiederum gleichzeitig mehr Platz für zB. Lüfter und Kühlkörper bedeutet.

Interessant ist es, das scheinbar wirklich zwei 8 polige Stromanschlüsse verbaut werden sollen. Dann muss ja zwangsläufig der Kühler noch etwas kräfter werden.

Zumindest wäre hier noch Platz die Lamellen zu verlängern oder den Lüfter noch ein Stück nach Rechts zu schieben und noch 1-2 Heatpipes hinzuzufügen:

http://pics.computerbase.de/2/9/0/2/1/16.jpg

Coda
2010-08-02, 16:01:12
Das sieht aber eher nach noch mehr Leistungsaufnahme aus. Ich weiß ja nicht ob dass strategisch wirklich eine so gute Idee ist.

mapel110
2010-08-02, 16:06:04
nvidia muss wohl ans Maximum gehen, damit sie etwas gegen ATIs neues High End im Oktober haben.

Gast
2010-08-02, 16:10:29
Das sieht aber eher nach noch mehr Leistungsaufnahme aus. Ich weiß ja nicht ob dass strategisch wirklich eine so gute Idee ist.

Schlagzeilen a la Geforce FX v2 sind einer solchen Karten jedenfalls sicher. Ich würde auch nicht um jeden Preis mehr Leistung anstreben sondern mich da eher mal mit dem zweiten Platz zufrieden geben. 300W ist das Maximum was die PCIe-Spec hergibt und da ist streng genommen auch schon eine GTX480 drüber. Irgendwann muss mal Schluss sein.

Dural
2010-08-02, 16:17:42
ja und ist immer noch vom juni und auf dem PCB ist immer noch kein NV logo und somit sicher nicht referenz.................................................

Gast
2010-08-02, 16:27:52
Naja so toll sparsam wird die HD6 auch nicht.
AMD muss ebenfalls nach oben, gutmöglich das man das GTX 480 Niveau erreicht. Wie es auch ausgeht, das die X2 wieder weit jenseits der 300W liegen wird halte ich für selbstverständlich.
Im Vergleich wär dann Nvidias +300W Heizer gar nicht mehr so übel. ;)

Nightspider
2010-08-02, 16:35:37
Das sieht aber eher nach noch mehr Leistungsaufnahme aus. Ich weiß ja nicht ob dass strategisch wirklich eine so gute Idee ist.

Naja...die teuerste HighEnd Karte ist ey mehr ein Prestige bzw. Nischenprodukt.

Die meisten betreiben sowas ey mit Wasser und den Mainstream Käufer wird das ganze echt nicht sehr interessieren.

Vielleicht bietet die neue Karte dank verbesserter Spannungsversorgung auch mehr OC-Potential.

Vielleicht steigt das OC-Potential auch so durch das verbesserte B-Stepping.

Wäre dann halt ne richtige Enthusiasten-Karte.

Gast
2010-08-02, 16:53:05
nvidia muss wohl ans Maximum gehen, damit sie etwas gegen ATIs neues High End im Oktober haben.

Wieso? Die Dual GF104 dürfte reichen um die schnellste Singlecard am Markt zu haben.

Coda
2010-08-02, 17:01:12
Die meisten betreiben sowas ey mit Wasser
Das glaube ich nicht Tim.

Nightspider
2010-08-02, 17:07:56
Tim?

Naja zumindest ist der prozentuale Anteil an wassergekühlten Grafikkarten ich hochpreisigen HighEnd Segment höher als im Mainstream Markt.

Und die Leute die schon soviel Geld dafür ausgeben und kein Wasserkühler draufhaben sind ey oft Lärmresistent.

Coda
2010-08-02, 17:09:07
Tim?
War eine Anspielung. egal.

Naja zumindest ist der prozentuale Anteil an wassergekühlten Grafikkarten ich hochpreisigen HighEnd Segment höher als im Mainstream Markt.
Natürlich, aber es sind wohl trotzdem nichtmal 10%. Aber wir können ja gerne mal eine Umfrage machen.

Und die Leute die schon soviel Geld dafür ausgeben und kein Wasserkühler draufhaben sind ey oft Lärmresistent.
Ich will beispielsweise überhaupt kein Wasser. Das ist mir zu viel Aufwand.

san.salvador
2010-08-02, 17:20:43
Zumal uns gerade wieder das Gefahrenpotential von Wassr im Rechner vor Augen geführt wurde, Beileid an Grestorn btw.

Coda
2010-08-02, 17:41:57
Was ist dem denn passiert?