Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Knuddelbearli
2009-12-20, 13:12:04
Jap deshalb musste ich dich ja mal loben^^
so jetzt aber wieder ab ans OnTopic ^^

Ailuros
2009-12-20, 13:20:24
http://www.xbitlabs.com/news/video/display/20091218103654_Nvidia_800_Thousand_DirectX_11_Graphics_Chips_Sold_by_ATI_Insigni ficant.html

This 60-day lag between these events of when our competition has DX11 and when we are coming to market will absolutely seem insignificant in the big picture,” said Michael Hara, senior vice president of investor relations and communications at Nvidia, at Barclays Technology Conference on the 8th of December.

ATI/AMD started to sell its ATI Radeon HD 5800-series graphics cards on the 23rd of September and as of the 8th of December the lag between ATI DX11 and Nvidia DX11 hardware was 76 days and counting. Moreover, Nvidia is not projected to release its next-generation GeForce “Fermi” GF100 flagship graphics card for gamers in December or early January. According to the company’s chief executive officer, mass production of the GF100 graphics processing unit would be ramped only in Q1 FY2011. Nvidia’s first quarter of fiscal year 2011 begins on the 26th of January and ends on the 26th of April, 2010. As a result, Nvidia has all chances to be 125 days (or about four months) late with its DirectX 11 hardware.

=Floi=
2009-12-20, 13:23:01
über amds strategie kann man streiten und imho wart es ihr, die "von oben nach unten" gepredigt haben und nicht "von unten nach oben", weil es so nicht funktioniert. nebenbei skaliert cypress miserabel. (mit ~2,7 gflop ca. 30% über dem niveau einer 285GTX!) ich bin gespannt, was ihr schreibt, wenn ati wieder mal ins stocken kommt und die müssen auch noch ein neues design bringen, weil sie damit schon anstehen.
wenn beim GT200 die taktbarkeit besser gewesen wäre, dann würde dieses design auch besser aufgehen und nv hätte ihren cypress gehabt.
bei ati läuft auch der chip mit dem 40nm prozess besser.

Ailuros
2009-12-20, 13:37:59
über amds strategie kann man streiten und imho wart es ihr, die "von oben nach unten" gepredigt haben und nicht "von unten nach oben",

Wenn high end "oben" ist, dann ist mainstream die Mitte und dementsprechend ist Cypress weder oben noch unten und auch nicht die Mitte. Mir sagen nach wie vor dual-GPU setups nichts besonderes persoenlich und dabei ist es mir wurscht ob es sich um SLi oder Crossfire handelt.

Es ging hier hauptsaechlich um execution und die ist zweifellos unterdurchschnittlich seit G92. Wir sehen seither nur Verspaetungen, ganz im Gegenteil zu ATI die seit RV670 eine konstantere roadmap zeigt.

nebenbei skaliert cypress miserabel. (mit ~2,7 gflop ca. 30% über dem niveau einer 285GTX!) ich bin gespannt, was ihr schreibt, wenn ati wieder mal ins stocken kommt und die müssen auch noch ein neues design bringen, weil sie damit schon anstehen.

Wir sind gerade beim Punkt wo es egal mit wieviel FLOPs eine breite Auswahl von DX11 AMD GPUs gibt und gleich Null von NVIDIA. Im besten Fall sehen wir die ersten high end DX11 GPUs von NV im ersten Quartal 2010 was eine Verspaetung von zumindest 3-4 Monaten entspricht.

Es gibt kein neues Design von AMD unter 40nm und wie und was von 32nm kommen wird ist eher eine Globalfoundries Angelegenheit. Was NV in dem Fall machen wird ueberhaupt da TSMC anscheinend 32nm storniert hat, steht noch in den Sternen. Jeweils ein Schritt nach dem anderen.

wenn beim GT200 die taktbarkeit besser gewesen wäre, dann würde dieses design auch besser aufgehen und nv hätte ihren cypress gehabt.

Gut dann halte ich die Luft an bis wir Takt fuer Takt GF100 mit GT200 in der Zukunft vergleichen koennen. Denn ich hab das Gefuehl dass das Problem beim GT200 bei weitem nicht die Frequenzen waren. Natuerlich ist mehr Takt stets besser aber 10% hoehere Frequenz haette auch nur bis zu 10% mehr Leistung gebracht. Wehe aber wenn bei der realen heutigen Frequenz auf GT200 etwas anderes stocken sollte.

bei ati läuft auch der chip mit dem 40nm prozess besser.

Man kann ihn kaufen.

mboeller
2009-12-20, 13:50:38
über amds strategie kann man streiten und imho wart es ihr, die "von oben nach unten" gepredigt haben und nicht "von unten nach oben", weil es so nicht funktioniert. nebenbei skaliert cypress miserabel. (mit ~2,7 gflop ca. 30% über dem niveau einer 285GTX!) ich bin gespannt, was ihr schreibt, wenn ati wieder mal ins stocken kommt und die müssen auch noch ein neues design bringen, weil sie damit schon anstehen.
wenn beim GT200 die taktbarkeit besser gewesen wäre, dann würde dieses design auch besser aufgehen und nv hätte ihren cypress gehabt.
bei ati läuft auch der chip mit dem 40nm prozess besser.


Seufz....

GFlops sind nicht alles! Min. genauso wichtig ist die Bandbreite und die Texel/Pixel-Anzahl.

Vergleich mal hier eine 5870 mit einer GTX285:

Pixel/sec: +ca. 31%
Texel/sec: + ca. 31%
Bandbreite GB/sec: ~ Gleichstand

Wieso sollte also die 5870 wesentlich schneller sein? GTX285 + 30% passt sehr gut zu den Specs.[Edit]: obwohl ich selbst eigentlich mehr erwartet hatte.

Botcruscher
2009-12-20, 13:53:05
über amds strategie kann man streiten und imho wart es ihr, die "von oben nach unten" gepredigt haben und nicht "von unten nach oben", weil es so nicht funktioniert. nebenbei skaliert cypress miserabel. (mit ~2,7 gflop ca. 30% über dem niveau einer 285GTX!).

In Uraltspielen der Marke DX9 oder aufgepeppt. Bei ATi limitiert alles aber nicht die Rechenleistung. Mit der nächsten Generation "nativer" DX10/11 Spiele wird sich der Abstand noch gehörig erhöhen. Sobald mehr Shaderleistung gefragt ist stampft Cypress die alte Generation in den Boden.

=Floi=
2009-12-20, 14:01:17
ich meinte den breiteren chip zu erst bauen und dann das design nach unten skalieren. auch bei ati kam cypress zu erst und beim G80 und CO. hat man wohl auch aus marketinggründen zu erst die großen chips gebracht und dann die anderen nachgeschoben.
Es hat mehrere vorteile es so zu lassen wie es aktuell ist.

ich meinte die generelle taktbarkeit der ati chips. die sprechen einfach besser auf diesen prozess an und skalieren besser mit mehr spannung.

so lange es keine breite verfügbarkeit von DX11 gibt ist es sowieso nicht so wichtig. ich nutze noch nicht einmal DX10 und brächte einfach für DX9c (!!!) erheblich mehr leistung. DX11 ist nur deswegen gut, weil es länger aktuell bleiben wird und man dadurch eine längere kompatibilität bekommt.

Mit genug takt kann ich eben auch einen kleineren chip so schnell wie einen größeren machen und daran kränkelt dann eine abgespekte karte mit 216 shader und weniger mhz. Mit den taktraten eines G92b wäre der GT200 sicherlich erheblich besser dagestanden und hätte von anfang an seine breite ausspielen können.

edit
wenn wirklich mal mehr shaderleistung gefragt ist, dann gibt es schon wieder den nachfolger für ~150€. (siehe HD2900/HD3870/HD4870) warum sollte man den kostbaren platz so verschwenden, wenn die power schlicht nicht nutzbar ist?
edit2
wenn nicht die shaderleistung limitiert, warum bohrt man dann nicht die anderen bereiche auf? das ist eine GPU und diese soll möglichst hohe fps erzeugen.

Gast
2009-12-20, 14:07:09
Kann es nicht eigentlich Nvidia (und auch AMD) egal sein, wann DX11 Hardware im Markt ist? Die zukünftigen Blockbuster sind doch nur noch Konsolenports. Und man sieht ja sehr gut, dass die Entwickler schon hier zu faul sind, vernüftige Texturen in die PC Version zu packen. Und dann sollen die auch noch sinnvolle DX11 Sachen einbauen???
Eine GTX260 ist solange die Games auch auf einer PS3/XBOX360 laufen müssen mehr als ausreichend. Sicher es gibt hier den Image Faktor und die Entwicklung sollte vorankommen, aber der PC ist (neuerdings) an die Konsolen gebunden. Den "sinnvollen" Kauf einer GTX380 gibt es de facto nicht mehr. Warum sollte sich Nvidia einen Ladenhüter ins Nest legen.

Botcruscher
2009-12-20, 14:10:12
Weil alle Computerfirmen vom ersetzen der alten Hardware leben. Wenn die Kundschaft merkt das die alte Hard/Software ausreichend ist dann ist Schicht im Schacht.

Gast
2009-12-20, 14:18:00
Weil alle Computerfirmen vom ersetzen der alten Hardware leben. Wenn die Kundschaft merkt das die alte Hard/Software ausreichend ist dann ist Schicht im Schacht.
Welche Branche muss das nicht? Bei uns muss es immer wachsen, ansonsten ist über kurz oder lang Schicht im Finanzschacht.
In Zukunft wird man sich sowieso was anderes einfallen lassen müssen. Die nötigen Entwicklungssprünge lassen sich in vielen Branchen durch Ausreizung nicht mehr gewohnt durchziehen. Von der Verteuerung/Verknappung der wichtigsten Ressourcen ganz zu schweigen.

OgrEGT
2009-12-20, 16:40:05
Ich hab es mehrere Male bei B3D erwaehnt dass NVIDIA ihre Strategie aendern muss. Wenn man nicht von Anfang an dafuer sorgt, dass der Design flexibel genug ist dass man beliebig etwas vorziehen kann wird es auch nicht klappen. Ich dachte mal in der Vergangenheit dass sie vielleicht dank GT212 Stornierung seither in die Richtung investiert haben, aber es scheint wohl doch nicht der Fall zu sein.

AMD hat im Gegensatz den existierenden RV770 Design aufgemoebelt und mehrere chips parallel entwickelt. Sie haben aber auch nicht besonders viel fuer Cypress umgekrempelt was die Basis-architektur betrifft und sie machen auch halt im Performance-Bereich mit 334mm2 bzw. 2.15Mrd. Transistoren.

Wie ich schon mal erwaehnte frueher hiess es "let ATI design GPUs and NVIDIA execute" bis zum R600. Nach dem RV670 ist es wohl eher NVIDIA die nochmal von Anfang lernen muss was "execution" genau heisst. Es gab IMO ein endloses hin und her zwischen marketing und engineering wo die eine Seite 10.1 als nutzlos empfand und die andere ueber die selbst begrenzte Notwendigkeit warnte. Als sich die zweite Seite endlich durchsetzte (gt21x@40nm) war es leider schon zu spaet. Es war auch marketing und/oder oberes Personal das diverse andere falsche Entscheidungen getroffen hat und glaub mir es ist kein Zufall dass Herr Perez (hoeflich ausgedrueckt) sich zurueckgezogen hat. Erst in letzter Zeit haben sich einige Heinis ueber die GT200 Fehler entschuldigt.

Mal sehen wer und wann sich etliche bei der uebernaechsten Generation ueber die GF100-Entscheidungsfehler entschuldigen werden. Wir koennen lange und endlose Debatten fuehren ueber DX11 Architektur A oder B oder hoehere Chipkomplexitaeten und uns im Kreis drehen. AMD hat weiterhin ihre ausgezeichnete RV770 Execution wiederholen koennen und ist selbst mit begrenzten Mengen mit einer fast kompletten DX11 Linie auf Regalen, ohne jeglichen Umbennengsscheiss und ohne endlose Verspaetungen denn wir reden hier momentan immer noch ueber die high end Varianten von GF100. So wie es aussieht wird der Abstand von mainstream und low end sich ueber mehr als ein Halbjahr ausziehen.

Unter der Perspektive sind die vorerwaehnten "60 Tage" Angabe eine bodenlose Zumutung selbst fuer high end GF100 alleine.


Ja Danke für diese ausführliche Antwort.

Das ist besser ausgedrückt, nicht NV's Architektur, sondern die Design Entscheidungen sind der Grund für deren Misere. Der 40g Prozess ist nur ein willkommenrer Sündenbock. Wenn es keine Probleme mit dem Prozess geben würde, dann könnte man gut erkennen, wie viel langsamer NV bei der execution geworden ist, eben weil sie die Chips nicht sagen wir "modular" bzw. parallel entwickeln.

So gesehen basiert AMDs Design nach wie vor auf einem aufgemöbelten RV770 aka Juniper, welcher in parallel als 2xJuniper = Cypress entwickelt wurde. Macht ja auch Sinn in meinen Augen. Vielleicht haben wir es hier schon mit der ersten Dual-Core Entwicklung bei GPU's zu tun. Bei zukünftig weiter kleiner werdenden Ferigungsprozessen bsp. 28 nm sind analog "Quad-Core" GPUs denkbar (4x Juniper). NV wäre gut beraten eine ähnliche Strategie in Betracht zu ziehen. Die Abstände der Fertigstellung eines kompletten Line-ups werden sich sonst in Zukunft weiter enorm vergrößern.

OgrEGT
2009-12-20, 16:55:49
ich meinte den breiteren chip zu erst bauen und dann das design nach unten skalieren. auch bei ati kam cypress zu erst und beim G80 und CO. hat man wohl auch aus marketinggründen zu erst die großen chips gebracht und dann die anderen nachgeschoben.
Es hat mehrere vorteile es so zu lassen wie es aktuell ist.

Wie gesagt, eigentlich ist Cypress 2xJuniper, somit sehen wir eher die Entwicklung von unten nach oben. Aktuell sehen wir dass diese Strategie selbst bei miserabler Fertigungsperformance dazu führt schnell ein komplettes Line-up einer neuen CHipgeneration auf die Beine und in die regale der Händler zu stellen. Für mich eindeutig ein, wenn nicht der Vorteil.

Gast
2009-12-20, 17:04:26
Welche Branche muss das nicht? Bei uns muss es immer wachsen, ansonsten ist über kurz oder lang Schicht im Finanzschacht.
In Zukunft wird man sich sowieso was anderes einfallen lassen müssen. Die nötigen Entwicklungssprünge lassen sich in vielen Branchen durch Ausreizung nicht mehr gewohnt durchziehen. Von der Verteuerung/Verknappung der wichtigsten Ressourcen ganz zu schweigen.

??? Das mag ja für viele Branchen aber bei 3d Echtzeitgrafik gibt es noch riesiges Entwicklungspotential.
Nur hat sich eben die Konsolenmarkt als profitabler erwiesen(auch aufgrund des kranken Finanzierungsprinzips) .
AMD und Nvidia müssen sich deswegen schleunigst neue Marktfelder erschließen,denn mit -einmal ein Chipdesign an einen Konsolenhersteller verkaufen in 5 Jahren- wird man auf Dauer keinen Blumentopf gewinnen.

reunion
2009-12-20, 18:22:30
AMD hat weiterhin ihre ausgezeichnete RV770 Execution wiederholen koennen und ist selbst mit begrenzten Mengen mit einer fast kompletten DX11 Linie auf Regalen, ohne jeglichen Umbennengsscheiss und ohne endlose Verspaetungen denn wir reden hier momentan immer noch ueber die high end Varianten von GF100. So wie es aussieht wird der Abstand von mainstream und low end sich ueber mehr als ein Halbjahr ausziehen.


Mainstream und Lowend mehr als ein halbes Jahr später als der ohnehin schon verspätete GF100? Das wäre schon verdammt bitter. Da kann man sich ja wieder auf tolle Umbenennungsspektakel freuen.

AnarchX
2009-12-20, 18:26:52
http://img442.imageshack.us/img442/7893/mymypcnvidiafermibenchm.gif (http://img442.imageshack.us/i/mymypcnvidiafermibenchm.gif/)
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Ft%3D7449

reunion
2009-12-20, 18:27:58
http://img442.imageshack.us/img442/7893/mymypcnvidiafermibenchm.gif (http://img442.imageshack.us/i/mymypcnvidiafermibenchm.gif/)
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Ft%3D7449

Wertlos IMHO.

AnarchX
2009-12-20, 18:31:29
Wertlos IMHO.
mymypc hatten jedenfalls auch Benchmarks/Bilder von einem Juniper-Sample, sodass hier wohl durchaus Kontakte zur Industrie bestehen.
Aber die Aussagekraft eines sochen einzelnen Wertes, ohne AA/AF und Taktraten ist natürlich eher gering.
Aber vielleicht kommt aus der Richtung noch mehr...

Botcruscher
2009-12-20, 18:32:07
Sind die Fakes jetzt in Fernost angekommen?:freak:

Dural
2009-12-20, 18:44:06
Wie gesagt, eigentlich ist Cypress 2xJuniper, somit sehen wir eher die Entwicklung von unten nach oben. Aktuell sehen wir dass diese Strategie selbst bei miserabler Fertigungsperformance dazu führt schnell ein komplettes Line-up einer neuen CHipgeneration auf die Beine und in die regale der Händler zu stellen. Für mich eindeutig ein, wenn nicht der Vorteil.

he??? jede GPU Generation wurde bis jetzt doch genau so aufgebaut!!!

G80-128 / G84-32 / G86-16

G92-128 / G94-64 / G96-32 / G98-16

GT212-384 / GT214-192 / GT215-96 / GT216-48 / GT218-24

das wird bei Fermi exakt gleich sein! zb.:

GF100-512 / GF102-256 / GF104-128 / GF106-64 / GF108-32

obwohl man beim GF10x sicher den selben weg geht wie beim G80, also nur ca. 2 kleine GPUs mit zb. 128 und 32SP und die komplette plattform erst mit 32nm oder so kommt...

OgrEGT
2009-12-20, 19:23:33
he??? jede GPU Generation wurde bis jetzt doch genau so aufgebaut!!!

G80-128 / G84-32 / G86-16

G92-128 / G94-64 / G96-32 / G98-16

GT212-384 / GT214-192 / GT215-96 / GT216-48 / GT218-24

das wird bei Fermi exakt gleich sein! zb.:

GF100-512 / GF102-256 / GF104-128 / GF106-64 / GF108-32

obwohl man beim GF10x sicher den selben weg geht wie beim G80, also nur ca. 2 kleine GPUs mit zb. 128 und 32SP und die komplette plattform erst mit 32nm oder so kommt...

Ja schon, wenn man nur die Anzahl der Shader Einheiten betrachtet.
Jedoch geschieht diese Skalierung bei NV wohl nach wie vor von ganz oben nach ganz unten.

AMD skaliert von mainstream Juniper nach unten und oben.
AFAIK war es bei dieser Generation das Erste mal, dass ein Mainstream Chip nach oben ins Performance Segment inkl. z.B. Rasterizer "verdoppelt" wurde, und nur nach unten durch weniger Shader Einheiten skaliert wurde.

Edit:

Ich glaube es war auch Ailuros, der irgendwo weiter vorne im Thread meinte, dass die Skalierung von Fermi mehr Aufwand/Probleme mit sich bringt, da andere Ausführungseinheiten des Chips auch aufwendig überarbeitet werden müssen, als Erklärung dafür, dass es wohl noch immer keine Tape-outs der kleineren Fermi Ableger gegeben hat bis dato.

Don-Roland
2009-12-20, 19:31:25
http://img442.imageshack.us/img442/7893/mymypcnvidiafermibenchm.gif (http://img442.imageshack.us/i/mymypcnvidiafermibenchm.gif/)
http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Ft%3D7449


Benchmarks der GTX 380 & 360 aufgetaucht (http://www.tomshardware.com/de/Nvidia-Fermi-GeForce-GTX-380-360,news-243833.html)

OgrEGT
2009-12-20, 19:32:51
Benchmarks der GTX 380 & 360 aufgetaucht (http://www.tomshardware.com/de/Nvidia-Fermi-GeForce-GTX-380-360,news-243833.html)

Das hatten wir bereits einige Seiten vorher. Diese "Benchmarks" wurden bereits als Fakes entlarvt.

Don-Roland
2009-12-20, 19:39:01
Für mich sehen sie aber realistischer aus als die anderen...

deekey777
2009-12-20, 19:44:21
he??? jede GPU Generation wurde bis jetzt doch genau so aufgebaut!!!

G80-128 / G84-32 / G86-16
...
Was stimmt hier nicht?

Gast
2009-12-20, 19:52:25
Für mich sehen sie aber realistischer aus als die anderen...

Welche anderen?

Gast
2009-12-20, 20:04:14
Was stimmt hier nicht?
G84 und G86 sind ein Zwischending zu G9x?

Dural
2009-12-20, 20:23:00
Ja schon, wenn man nur die Anzahl der Shader Einheiten betrachtet.
Jedoch geschieht diese Skalierung bei NV wohl nach wie vor von ganz oben nach ganz unten.

AMD skaliert von mainstream Juniper nach unten und oben.
AFAIK war es bei dieser Generation das Erste mal, dass ein Mainstream Chip nach oben ins Performance Segment inkl. z.B. Rasterizer "verdoppelt" wurde, und nur nach unten durch weniger Shader Einheiten skaliert wurde.

Edit:

Ich glaube es war auch Ailuros, der irgendwo weiter vorne im Thread meinte, dass die Skalierung von Fermi mehr Aufwand/Probleme mit sich bringt, da andere Ausführungseinheiten des Chips auch aufwendig überarbeitet werden müssen, als Erklärung dafür, dass es wohl noch immer keine Tape-outs der kleineren Fermi Ableger gegeben hat bis dato.

ne, AMD skaliert genau so wie NV von oben nach unten! zuerst muss der hauptchip fertig sein, danach kommen die kleinen! die übrigens fast keine arbeit mehr machen, wenn der grosse Chip läuft dann laufen auch die kleinen problemlos, das dauert in der regel so ca. 3-4Monate mehr nicht! siehe zb. G9x serie....

gerade fermi wurde speziel auf das hin entwickelt, um eben schnell und günstig die architektur zu verkleinern, sogar die DP sind nicht fix und können für die kleineren gestrichen werden...

Was stimmt hier nicht?

da stimmt alles

deekey777
2009-12-20, 20:37:38
---

da stimmt alles

Dann schaue dir mal den genauen Aufbau eines G80 und dann eines G84 an.

Dural
2009-12-20, 21:01:58
der G84 hat zwei überarbeitete G80 Shadercluster mit je 16SP und 8TMUs

aylano
2009-12-20, 21:55:25
ne, AMD skaliert genau so wie NV von oben nach unten! zuerst muss der hauptchip fertig sein, danach kommen die kleinen! die übrigens fast keine arbeit mehr machen, wenn der grosse Chip läuft dann laufen auch die kleinen problemlos, das dauert in der regel so ca. 3-4Monate mehr nicht! siehe zb. G9x serie....
Na ja, wenn man sich deine Liste ansieht, dann ist ab der G90-Serie einerseits schon einiges nicht mehr umgesetzt worden bzw. einiges muss noch umgesetzt werden.
Und die Low-End & mainstream-Chips sind sowohl in der 80er als auch 90er-Serie 5 bzw. 7 Monate nach dem Top-Modell erschienen.
Fast keine Arbeit bzw. Problemlos klingt für mich anders.

Die Hohe Packdichte sowie gute Skalierbarkeit von AMD passen sehr gut zusammen.
Denn wenn der Performance-Chip von AMD früh Fertig wird, kommen die Low-End & Mainstream-Modelle relativ früh.
Daran hatte ich noch garnicht gedacht, obwohl ich schon lange auf die Feritungs-wechsel gespannt war, weil da AMD eventuell durch hohe Packdichte bzw. Performance-Chip und somit kleineren Die-Größe eventuell ihre Performance-Produkte Monate vor Nvidia rausbringen kann.

5-6 Monate Vorsprung für die Low-End & Mainstream-Karten wäre schon heftig.

Dural
2009-12-20, 22:27:10
G94 kam ca. 3-4 monate nach G92! die G96/G98 weis ich jetzt grad nicht auswendig, die dürften aber auch um den G94 sein...

Die Packdichte ist seit 40nm bei beiden nahezu gleich! ok noch einen ganz ganz kleinen vorteil bei AMD wenn überhaupt, aber der ist nicht der rede wert!

Edit:
G92 in form der 8800GT am 03.11.07
G94 in form der 9600GT am 21.02.08 (übrigens als erste 9xxx GPU...)
G98 in form der 8400GS am 04.12.07 (gerade mal einen monat...)

G96 in form der 9500GT am 29.07.08 (kann das sein? oder war das der G96b? der lag wohl ziemlich lange auf halde...)

ich seh da absolut keinen unterschid zu AMD, wer doch einer sieht dichtet sich einfach was zusammen...

einzig die kleinen G84/G86 kamen 6Monate später, aber die wurden auch mehr oder weniger komplett überarbeitet im vergleich zum G80!!! da hat der Gast es schon zutreffent formuliert das die G84/G86 schon halbe G9x sind. Der G98 hat ja den G86 auf der 8400GS einfach so ersetzt!

Edit2:
Der G96 kam erst so spät weil NV noch einige G84 hatte, kam mir jetzt gerade in den sinn....

Edit3:
40nm läuft einfach beschissen, da kann mir jetzt jeder erzählen was er will es ist eifach so! AMD musste ja sogar die Spannung um 0,1Volt bei den RV870/RV840 für 100MHz anheben im vergleich zum RV740... 40nm braucht um richtig rennen zu können doch mehr Spannung als angenommen und das ist bei einem Monster wie GF100 fatal!!!

Ich geh jetzt mal von 0,9 bis 1,0Volt beim GF100 aus um halbwegs bei einer vernünftigen TDP zu bleiben und da ist es kein geheimnis das man da kaum vernünftig taktraten hinbekommt... jedenfalls ist es bei den jetztigen 40nm GPUs so und da dürfte GF100 bei der grösse sicher noch schwiriger sein...

Nightspider
2009-12-20, 22:46:13
Für mich sehen sie aber realistischer aus als die anderen...

Was darauf schließen lässt das du nicht viel Ahnung hast...

Die Fake-Benchmarks wurden übrigens von einem Member des 3DC und HardwareLuxx erstellt.

Gast
2009-12-20, 23:03:58
hehe richtig, aber lustig anzuschauen wie gleich alle drauf anspringen :ugly:

Don-Roland
2009-12-20, 23:12:00
Was darauf schließen lässt das du nicht viel Ahnung hast...

Die Fake-Benchmarks wurden übrigens von einem Member des 3DC und HardwareLuxx erstellt.

Oh stimmt, habe übersehen das es sich auf dem Bild um die Dual ATI handelt. Dachte es ist die große und mittlere Singlechip. <= So jedenfalls stelle ich mir es dann vor

Dural
2009-12-20, 23:50:43
jo und die GTX380 hat x10856 (965@4GHz) in Vantage und wird am 26.01.10 vorgestellt :wink:

Edit:
Ups das stand ja noch unter NDA ;D

Gast
2009-12-20, 23:58:09
Wenn das so ist, dann kann Fermi wirklich nicht viel.

Aber das glaub ich erst wenn ich es selber sehe........

Dural
2009-12-20, 23:59:58
naja bei dem takt...... ;)

Gast
2009-12-21, 00:03:34
wie war der Tak ?

Woher weisst du das (oder macht dich so sicher)?

derguru
2009-12-21, 00:12:12
wie war der Tak ?

Woher weisst du das (oder macht dich so sicher)?

glaub nicht alles was der verzapft,der glaubte auch 1 woche vor dem 9800gtx release an ein 512 bit SI:rolleyes:

Dural
2009-12-21, 00:13:31
das war ironisch gemeint...... obwohl so weit daneben ist es sicher nicht... ;)

@derguru ach ja? und was hatte der GT200 am ende?

wenn du schon bei der 9800GTX bist, mir ist bis heute ein rätsel für was NV diese karte auf dem markt gebracht hat! es gibt keinen vernünftigen grund ausser das es eine vorab konkurenz für die 4870 war und das wär sie auch gewesen bei den ersten daten die vom RV770 im umlauf waren! Die 9800GTX kam gerade mal 2-3Monate vor dem GT200 / RV770 und ganze 6Monate nach 8800GT/G92... Von mir aus gesehen war die komplette 9xxx serie eh nur eine notlösung weil sich der GT200 verspätet hat...

Gast
2009-12-21, 00:29:38
jo und die GTX380 hat x10856 (965@4GHz) in Vantage und wird am 26.01.10 vorgestellt :wink:

Edit:
Ups das stand ja noch unter NDA ;D

Huch, das scheint neu zu sein?! Gibt es dafür auch eine Quelle oder Link?

Gast
2009-12-21, 00:37:26
Hmm das ganze findest Du mit Sicherheit unter fakevidia.de :-)

Dural
2009-12-21, 00:46:30
naja x11000 wären OK, das sind immerhin 80% über einer GTX285...

wer mehr erwartet träumt einfach...

zudem Vantage sehr shaderlastig ist...

Gast
2009-12-21, 01:05:15
Woher stammt nun der obere Vantage-Wert? Der ganze Verlauf macht keinen Sinn...

BlackFog
2009-12-21, 01:42:11
Woher stammt nun der obere Vantage-Wert? Der ganze Verlauf macht keinen Sinn...

Meine Güte nicht einmal 5 Posts vorher wurde es aufgeklärt.
Liest hier wirklich niemand mehr was?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7727908&postcount=7040

aylano
2009-12-21, 01:49:56
Die Packdichte ist seit 40nm bei beiden nahezu gleich!
Ich meinte die Einheiten-Packdichte. Aber so wichitig ist das jetzt nicht.

Edit:
G92 in form der 8800GT am 03.11.07
G94 in form der 9600GT am 21.02.08 (übrigens als erste 9xxx GPU...)
G98 in form der 8400GS am 04.12.07 (gerade mal einen monat...)
G94 lasse ich meinetwege gelten, aber dieser konnte nicht als Massen-Notebook-GPU verkauft werden.
Aber zu diesem Zeitpunkt hatte AMD schon die ganze 55nm-Palette fast einen Monat draußen, während G96 warum auch immer, deutlich später kam.

G98 dürfte die selbe GPU sein, wie die onbaord-GPU vom Chipsatz.
Sie ist AFAIK die einzige Karte überhaupt, die einen Video-Prozessor 3.Gen hat, wie die onbaord-GPU, und kann nach einem Monat eben nicht nach der G92 entwickelt worden sein, um was es hier ja geht.
Also, wenn der G8300-Chipsatz wirklich einen G98-onboard-GPU-Chipsatz hatte, denn ist der G92 eher der Nachfolger, da der Chipsatz AFAIK deutlich früher kam.

einzig die kleinen G84/G86 kamen 6Monate später, aber die wurden auch mehr oder weniger komplett überarbeitet im vergleich zum G80!!! da hat der Gast es schon zutreffent formuliert das die G84/G86 schon halbe G9x sind. Der G98 hat ja den G86 auf der 8400GS einfach so ersetzt!
Ich verstehe nicht, warum man sie überarbeiten soll.
Du sagtest selber, die kleinen Brüder können bei Nvidia mit kaum Aufwand gemacht werden können.

Edit3:
40nm läuft einfach beschissen, da kann mir jetzt jeder erzählen was er will es ist eifach so! AMD musste ja sogar die Spannung um 0,1Volt bei den RV870/RV840 für 100MHz anheben im vergleich zum RV740... 40nm braucht um richtig rennen zu können doch mehr Spannung als angenommen und das ist bei einem Monster wie GF100 fatal!!!
Das stimmt nicht.
Beim RV870 wurden die Spannung um 0,15 Gesenkt.
AMD hat da einfach eine andere Strategie
Oder war die 55nm-Fertigung wegen den 1,30 Volt auch so beschissen?
Die 5970 hat 2 RV870 mit 1,03 Volt, aber halt nur mit 725 Mhz.
Ach ja, fast wie der RV770 mit 1,03 Volt und 750 Mhz.
Mittlerweile wir, warum sich RV840 so ähnlich sind und da sind gleiche Spannungen & Takte und fast gleiche Einführung nur logisch ist.


Ich geh jetzt mal von 0,9 bis 1,0Volt beim GF100 aus um halbwegs bei einer vernünftigen TDP zu bleiben
Ich gehe eher aus, dass sie 1,03(-1,08) Volt haben werden.
Unter 1 wäre heftig, weil das z.B. im CPU-Bereich nur die ULV-CPUs haben, die deutlich kleiner sind als 500+mm².

ich seh da absolut keinen unterschid zu AMD, wer doch einer sieht dichtet sich einfach was zusammen...
Solche Provokationen kannst dir schon sparen.
Ein Grund, warum hier viele Diskussionen nicht funktionieren.

Es gibt nähmlich schon (deutliche) Unterschiede.
Alleine bei der RV6x0-55nm-Serie war die ganze Palette innerhalb von 2 Moanten draußen, während es bei Nvidia deutlich länger dauerte.
Es war eben nicht so wichtig, bzw es viel keinem auf, weil die 600er-Serie eben nicht gut war.

Und die 200er-Serie wäre auch (deutlich) später gekommen, wenn die 40nm-Problemlos gewesen wäre.

Und wie gesagt: Fast keine Arbeit bzw. Problemlos klingt für mich anders.
Was ich auch für gut möglich halte, dass sie vielleicht zuviele Chips mit späteren Struktur-Verkleinerungen am Markt werfen wollen.

Siehe jetzt, Nvidia bringt noch eine ganze 200er-Serie in 40nm, während ATI dieses überspringt und gleich die "neue Architektur" in 40nm bringt, sodass sie eben im ganzen 2010er Jahr sich voll auf die Globalfoundris-Umstellung und RV900 zu konzentrieren, um wieder schnell wechseln zu können.

Aber da wären wir wieder bei den unterschiedlichen Konzepten, die Sowohl Vorteile als auch Nachteile hat.

Dural
2009-12-21, 02:24:42
du verwechselst da was! der IGP GF8300 hat nichts mit dem G98 zutun! der GF8300 hat auch nur 8SP und nicht 16SP! wie auch immer ändert an der tatsache nichts das alle G9x innert ca. 3Monaten fertig waren... übrigens alle G9x haben den selben videoprozessor drin, nämlich die zweite version!

die G84/G86 wären mit NIVO und ohne video prozessor wie beim G80 nicht gerade klug gewesen, nicht war?

die kleinen R6xx kammen auch nur zwei Monate nach dem R600 weil der halt schon ein halbes jahr zuspät dran war, die architektur war somit ja schon längerezeit fix!

was meinst du mit der 200er Serie in 40nm??? die gab es nie... GT200 ist nicht gleich GT21x! das könnte man höchstens mit G80 zu G92 vergleichen!

alle GT21x und der RV740 haben genau 1,00Volt, mit 1,10Volt oder so wäre ein GF100 nie und nimmer unter 225Watt zuhalten!!! keiner kann das derzeit zwar beurteilen aber ich kann es mir beim bessten willen nicht vorstellen! schon die GTX295 GPUs haben nur 1,05Volt, GX285 1,15Volt... und der RV770/4870 hat mehr als 1,03Volt, das waren 1,20 wenn ich es noch recht in erinnerung habe!

Jeder hersteller fängt von ganz oben an und solange die GPU/Architektur nicht FIX ist wird auch nicht an den kleinen gearbeitet! ist übrigens im CPU bereich exakt gleich, auch da kommt zuerst der grosse mit allen Core und viel Cache und später kommen kleineren DIEs mit weniger Core und weniger Cache

Ailuros
2009-12-21, 07:29:43
ich meinte den breiteren chip zu erst bauen und dann das design nach unten skalieren. auch bei ati kam cypress zu erst und beim G80 und CO. hat man wohl auch aus marketinggründen zu erst die großen chips gebracht und dann die anderen nachgeschoben.
Es hat mehrere vorteile es so zu lassen wie es aktuell ist.

Cypress hatte seinen tape out mit Wochenabstand vor Juniper, welches ganz klar auf parallele Entwicklung deutet.

ich meinte die generelle taktbarkeit der ati chips. die sprechen einfach besser auf diesen prozess an und skalieren besser mit mehr spannung.

RV790@55nm=850MHz, RV870@40nm=850MHz. Sonst gibt es keine anstaendigen Vergleiche zu GeForces wegen den zu grossen Abstaenden zwischen clock domains und schon gar nicht da es noch keinen verfuegbaren NV 40nm chip gibt mit gleicher Komplexitaet als RV870.

so lange es keine breite verfügbarkeit von DX11 gibt ist es sowieso nicht so wichtig. ich nutze noch nicht einmal DX10 und brächte einfach für DX9c (!!!) erheblich mehr leistung. DX11 ist nur deswegen gut, weil es länger aktuell bleiben wird und man dadurch eine längere kompatibilität bekommt.

Ich kaufte persoenlich damals G80 weil es die schnellste DX9.0 auf dem Markt war und nicht weil DX10 auf dem Karton stand. Sowohl 5970 als auch 5870 sind jeweils schneller als GTX295 und GTX285.

Ich brauch die lahmen NV PR Aussagen nicht wiederholt bekommen.

Mit genug takt kann ich eben auch einen kleineren chip so schnell wie einen größeren machen und daran kränkelt dann eine abgespekte karte mit 216 shader und weniger mhz. Mit den taktraten eines G92b wäre der GT200 sicherlich erheblich besser dagestanden und hätte von anfang an seine breite ausspielen können.

Ach Du liebe Zeit dann waere halt GT200 anstatt sagen wir mal 20% dann 30% schneller gewesen als RV770 und haette trotz allem den Tag wieder nicht gerettet. Es gibt sehr guten Grund warum sich NV kurz nach dem Launch gezwungen sah die GT200 Preise auf seine Leistung anzupassen.

Diese eher alberne These missachtet eben dass erstens unter 65nm dank der brutal hoeheren Chipkomplexitaet von GT200 im Vergleich zu G92 hoehere Frequenzen eben nicht moeglich waren und 55nm nur maessig aushelfen konnte.

So bald GT200b ankam antwortete AMD mit der 850MHz 4890, ergo ist wohl weder 40nm noch 55nm besser fuer AMD insgesamt. Das einzige was man daraus eigentlich schliessen koennte ist dass 40G im Vergleich zu 55nm eine Komplexitaets-Verdoppelung zwar erlaubt aber eben nicht mit hoeheren Frequenzen, wenn man natuerlich den Stromverbrauch auf logischen Hoehen halten will.

Aber wenn wir schon dabei sind kleiner flashback in NV's Vergangenheit:

NV10@220nm, 22M transistors, 120MHz
NV20@150nm, 57M transistors, 250MHz
NV30@130nm, 125M transistors, 500MHz
NV40@130nm, 222M transistors, 400MHz
G70@110nm, 300M transistors, 430MHz
G71@90nm, 278M transistors, 650MHz
G80@90nm, 681M transistors, 575MHz
G92@65nm, 754M transistors, 600MHz
GT200@65nm, 1.4b transistors, 600MHz
GT200b@55nm, 1.4b transistors, 650MHz
GF100@40nm, 3.08 transistors, ??? MHz

edit
wenn wirklich mal mehr shaderleistung gefragt ist, dann gibt es schon wieder den nachfolger für ~150€. (siehe HD2900/HD3870/HD4870) warum sollte man den kostbaren platz so verschwenden, wenn die power schlicht nicht nutzbar ist?

Ich verstehe zwar die Frage nicht ganz, aber je mehr sich GF100 verspaetet, desto mehr Chancen hat AMD einen hoeher getakteten RV8x0 entgegen zu stellen. Es nutzt nicht besonders viel wenn GF100 endlich sagen wir mal im Februar mit X% mehr Leistung kommt wenn beispielsweise 2-3 Monate spaeter ein "RV890" es wieder auf X-10% reduziert.

edit2
wenn nicht die shaderleistung limitiert, warum bohrt man dann nicht die anderen bereiche auf? das ist eine GPU und diese soll möglichst hohe fps erzeugen.

Weil ALUs unter den billigsten insgesamt Einheiten einer GPU sind und sich deren theoretische arithmetische Leistung sowohl in 3D als auch in HPC ausspielen wird, ohne so viel Bandbreite zu fressen wie eine zusaetzliche Unzahl an TMUs bzw. ROPs vielleicht?

GF100 koennte als Beispiel 256TMUs und 96 Pixel/Takt haben; nur musst Du mir jetzt erklaeren woher die Bandbreite fuer den Spass herkommen soll dass die Einheiten auch nicht konstant rumhocken.

Milchmaedchen-Rechnung: angenommen GF100 ALUs nehmen wie auf heutigen GPUs in etwa 1/4 des dies ein. 550mm2 / 4 = 138mm2, der Rest ist 412mm2. Angenommen 128 TMUs/48 ROPs nehmen irgendwo um die 250mm2, bei einer Verdoppelung dieser waeren wir auf huebschen 800mm2 insgesamt. Wunder Dich aber bloss nicht wenn Du bei dieser Hypothese einen verdammt unbalancierten chip hast der sich unter den heutigen Zustaenden erstmal nicht unter 40G herstellen laesst und ungnaedig an fehlender Bandbreite verhungert.

Mainstream und Lowend mehr als ein halbes Jahr später als der ohnehin schon verspätete GF100? Das wäre schon verdammt bitter. Da kann man sich ja wieder auf tolle Umbenennungsspektakel freuen.

Was low end nochmal? IMO werden die heutigen GT3x0 umbenannte GT21x@40nm so stehen bleiben vorruebergehend und hat von dem Punkt und aufwaerts dann echte GF1x0 Ableger. So bald A3 zurueckkommt und alles in Ordnung sein sollte, duerfte es noch ca. 2-3 Monate dauern bis kleinere GF1x0 ankommen. Dieses beinhaltet natuerlich das uebliche "wenn alles nach Plan laeuft" blah blah blah, aber die kleineren GF1x0 waren nie auf irgendeiner roadmap der Vergangenheit fuer Q4 2009 geplant afaik.

Der eigentliche Punkt hier ist dass viele vielleicht erwarten dass NV die gesamte Familie gleichzeitig verfuegbar haben wird. Ich kann natuerlich nicht wissen wann sie A,B oder C genau ankuendigen werden, aber an eine rundum gleichzeitige Verfuegbarkeit kann ich bei bestem Willen nicht glauben. NV muss wissen was genau bei X respin hilft fuer 40G und dann erst schickt man die Kinder und Enkeln unter genau diesen Vorraussetzungen ins Labor zum tape out. Von da ab geht es relativ schnell.

V2.0
2009-12-21, 07:57:30
Natürlich, die Erfahrungen aus dem großen Chip lässt man einfließen und hofft so mit einem oder zwei Tape-Outs bei den kleinen Chips hinzu kommen. Sollte A3 ok sein, dann kann der erste Ableger bereits Anfang Q2/10 bereit sein.

=Floi=
2009-12-21, 08:34:32
das nachträgliche editieren und (umfangreiche) erweitern könntest du dir bitte auch abgewöhnen. ich lese nicht 5 mal das gleiche post und suche die unterschiede. danke :)

edit
der NV20 hatte nur maximal 240mhz. anfangs waren es auch nur 200mhz.
http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-desk/geforce-3-serie/geforce-3-ti-500.html
ich dachte, dass der Ti refresh schon ein shrink war und habe extra noch nachgeshen.

BlackBirdSR
2009-12-21, 12:12:02
Man sollte nicht vergessen, dass auch ein perfekter neuer Prozess nicht zwingend höhere Taktraten bedeuten muss. Bei solchen Komplexitäten verringern sich viele Laufzeiten nicht wesentlich. Eine Stagnation der Taktfrequenzen sind die Folge.

Ein Vergleich der typischen MHz-Zunahme über die Generationen von GPUs halte ich daher für ziemlich sinnlos.

Ailuros
2009-12-21, 12:51:10
das nachträgliche editieren und (umfangreiche) erweitern könntest du dir bitte auch abgewöhnen. ich lese nicht 5 mal das gleiche post und suche die unterschiede. danke :)

Wie waere es mit einer Liste was und wie ich genau schreiben sollte?

edit
der NV20 hatte nur maximal 240mhz. anfangs waren es auch nur 200mhz.
http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-desk/geforce-3-serie/geforce-3-ti-500.html
ich dachte, dass der Ti refresh schon ein shrink war und habe extra noch nachgeshen.

Liegt an einem Fehler seitens B3D wo ich schnell die Daten zusammenkratzte. In Errinnerung hab ich auch nicht alles: http://www.beyond3d.com/resources/board/41

Wie dem auch sei es aendert sowieso nichts am originalen Punkt, denn man kann seit G70 ziemlich deutlich sehen dass obwohl sich die Chipkomplexitaet seither erhoeht mit jedem refresh bzw. neuer Generation chip liegt die Core-Frequenz eher auf einer insgesamten Stagnation mit sehr kleinen Schwankungen. Und wie schon gesagt gibt es keine Indizie bisher dass 40nm gleichzeitig zumindest doppelt so hohe Komplexitaet und hoehere Frequenzen im Vergleich zu 55nm erlaubt.

Man sollte nicht vergessen, dass auch ein perfekter neuer Prozess nicht zwingend höhere Taktraten bedeuten muss. Bei solchen Komplexitäten verringern sich viele Laufzeiten nicht wesentlich. Eine Stagnation der Taktfrequenzen sind die Folge.

Genau diese "Stagnation" meinte ich auch in meinem Post oben.

Ein Vergleich der typischen MHz-Zunahme über die Generationen von GPUs halte ich daher für ziemlich sinnlos.

Wenn man Chipkomplexitaet total ignoriert, dann ist es auch erstens kein Wunder dass man fuer einen 1.4Mrd chip unter 65nm (GT200) gleich hohe Frequenzen erwartet als bei einem 754Mio chip unter 65nm (G92). Was beim GT200 (65nm und 55nm) am meisten "gelitten" hat war der hot clock und weniger die core-Frequenz.

aylano
2009-12-21, 13:27:51
du verwechselst da was! der IGP GF8300 hat nichts mit dem G98 zutun! der GF8300 hat auch nur 8SP und nicht 16SP! wie auch immer ändert an der tatsache nichts das alle G9x innert ca. 3Monaten fertig waren... übrigens alle G9x haben den selben videoprozessor drin, nämlich die zweite version!
Na gut,
Zwar sieht für mich G84 & G98 überhaupt nicht ähnlich (siehe PCIe & VP), bis auf die Transistoren Menge, und der G 8300er mit G98 viel zu ähnlich, aber gut lassen wir das.
Wie der G98 dann nach G92 entwickelt wurde, ist mir auch noch ein Rätsel, vorallem weil die G92 am Anfang noch ziemlich schlecht lieferbar war

die kleinen R6xx kammen auch nur zwei Monate nach dem R600 weil der halt schon ein halbes jahr zuspät dran war, die architektur war somit ja schon längerezeit fix!
Das stimmt.
Die 600er-65nm kamen auch so 6-7 Monate nach geplanter R600-Einführung.

Aber beim 55nm-Shrink kamen sie recht schnell und die nächsten 2 Male (700 & 800er) detto.
Bleibt die Frage, warum es bei Nvidia nicht so einfach ist und immer etwas an Arbeit verrichten "müssen", was gerade der Punkt ist, über den wir reden, da dies ja die kleinen Fermi-Brüder betreffen könnte.

Vorallem die Frage, warum Nvidia unbedingt die kleinen 80er nochmal groß umarbeiten muss, hast du nicht beantwortet, was gerade auf Hinblick der Fermi interessant wäre


und der RV770/4870 hat mehr als 1,03Volt, das waren 1,20 wenn ich es noch recht in erinnerung habe!
Verdammt, ich meinte Natürlich die RV740.
RV770 hatte 1,3 und RV740 laut HartTec4U eben 1,03.
Dass die GT21x nur 1,0 Volt hatten, wundern mich, wenn man sich die Performance pro Watt ansieht.
Unter 1,0 Volt wäre ich beim Fermi sehr überrascht.
Höchstens könnte ich es mir vorstellen, wenn Fermi die selbe Spannung hätte wie die GT21x-Serie.


Jeder hersteller fängt von ganz oben an und solange die GPU/Architektur nicht FIX ist wird auch nicht an den kleinen gearbeitet!
Das Glaub ich schon, dass es so grundsätzlich ist.
Vielleicht ist es bei Nvidia auch recht einfach, aber wenn man sich die ganzen Shrinks (& inkl. Überarbeitungen) ansieht, dann nimmt Nvidia vielleicht zu viel vor, während AMD einiges Überspringt und gleich am Anfang eines Prozesses dabei ist.

Die (Rv6x0-)55nm-Serie war Anfang 2007 draußen.
Die 90er-Serie war nicht nur später draußen, sondern sie war auch in 65nm.
Die 90er-Serie @ 55nm kam noch später.
Keine Ahnung wann, aber mich würde es fast schon nicht wundern, wenn sie gleichzeitig mit der RV7x0-Serie eingeführt wurde. siehe z.b. G92b in Juni 2007.

-----------------------

G71@90nm, 278M transistors, 650MHz
G80@90nm, 681M transistors, 575MHz
G92@65nm, 754M transistors, 650MHz
G92@55nm, 754M transistores, 740Mhz
GT200@65nm, 1.4b transistors, 600MHz
GT200b@55nm, 1.4b transistors, 650MHz

Ich glaub, du hast die 9800GTX mit 9800GT verwechselt.
Dazu fehlt die G92b, wo deutlicher wird, dass Nvidia sehr oft bei neuen Architektur-/Chip-Einführung mit Takt zurückgeht. Warum auch immer.

Ailuros
2009-12-21, 13:44:28
Ich glaub, du hast die 9800GTX mit 9800GT verwechselt.
Dazu fehlt die G92b, wo deutlicher wird, dass Nvidia sehr oft bei neuen Architektur-/Chip-Einführung mit Takt zurückgeht. Warum auch immer.

Ich hab gar nichts verwechselt. Der Punkt bleibt dass die Frequenz indirekt mit der Chipkomplexitaet verbunden ist und es ist eben genau das "warum auch immer" ueber dass Du Dich komischerweise wunderst, obwohl ich es ziemlich klar gemacht habe.

Dural
2009-12-21, 14:01:52
naja die liste ist schon nicht so sauber... bei der 8800GT war es nie ein ziel möglichst viel takt zu haben da es schlicht keine high end karte war!

eher würde ich den G80-450-A3 mit 612MHz zum G92-420-A2/B1 mit 738MHz vergleichen und da hat man über 100MHz mehr takt raus geholt. die 9800gtx hatte übrigens 675MHz und nicht 650MHz

aber klar wird eine neue grosse architektur immer weniger takt haben als die vorherige im selben prozess, ausser die die neue ist speziell für das ausgelegt... wie zb. eben G70 zu G80 mit deutlich mehr shader takt

fakt ist auch das man in der G80 architektur keine grosse takt änderungen hatte, egal ob jetzt 90nm, 80nm, 65nm, 55nm oder 40nm einzig der G92-420 mit 738MHz war eine ausnahme! der aber kommen musste wegen der 4850...

Gast
2009-12-21, 14:41:26
Thema?

Burgard
2009-12-21, 15:41:50
Thema?
Taktratenscalierung der verschiedenen Fertigungsprozesse, um einen Rückschluss auf die tatsächliche Taktung des Fermi zu tätigen.^^

Dural
2009-12-21, 18:11:57
NVIDIA GF100 is shipping in Q1 folks. Patience is a virtue!

;D

Burgard
2009-12-21, 18:25:39
Um mal wieder ein wenig Schwung in die Diskussion zu bringen.

Nvidia - Neue Geforce kann Echtzeit-Raytracing?
http://www.gamestar.de/hardware/news/grafikkarten/2311434/nvidia.html

Botcruscher
2009-12-21, 18:41:37
Ein "Echtzeit" Q3 mit 25Fps.:freak: Inhalt gleich null.

BlackFog
2009-12-21, 18:42:43
Um mal wieder ein wenig Schwung in die Diskussion zu bringen.

Nvidia - Neue Geforce kann Echtzeit-Raytracing?
http://www.gamestar.de/hardware/news/grafikkarten/2311434/nvidia.html

Können die aktuellen auch.
RT in Echtzeit, ohne Angabe welche Effekte implementiert wurden, welche Auflösung verwendet wird und auf was für Spiele das zutreffen soll, ist erstmal mit jeder Karte möglich.
Nur wird sich das dann erheblich von dem unterschieden, wass erwaret wird...

AnarchX
2009-12-21, 20:03:11
Da waren die Vermutungen in Richtung teildeaktive Teslas wohl doch korrekt:
http://i47.tinypic.com/hry4ae.jpg
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

1.4GHz (für A2?) klingen schon mal besser. Speichertakt ist laut PDF 1,8 bis 2 GHz.

mapel110
2009-12-21, 20:26:48
Schade, mehr relevante Infos stehen in der PDF nicht drin.
Wollen wir hoffen, dass neue Revisionen des Dokuments auftauchen. ^^
16. November ist ja schon ein bissl her.

reunion
2009-12-21, 20:28:26
1.4GHz (für A2?) klingen schon mal besser.

A2 wird nicht auf dem Markt kommen, schon gar nicht Q2/Q3 2010. Aber schon höchst seltsam das man bei den Teslas Einheiten deaktiviert. Das könnte auch ein hint auf die Yieldraten sein.

Botcruscher
2009-12-21, 20:29:14
Wo steht da was von A2? Meiner Meinung nach ist das Doc eher für die Partner und stellt das zukünftige, geplante Endprodukt dar. Deswegen ja auch von bis. Sonst wären die zwei Kärtchen genau spezifiziert.

AnarchX
2009-12-21, 20:33:59
A2 wird nicht auf dem Markt kommen, schon gar nicht Q2/Q3 2010.
Auf irgendeiner Basis muss man aber diese Taktraten/Spannungen/Verbrauchsangaben bestimmt haben und da wird man wohl eher eine pessimitische Schätzung auf bestehenden Silizium gemacht haben.
Bei Tesla C/S10 gab es ja zu Beginn auch nur 1.3GHz in den Dokumenten, die dann später mit G200-B3 noch auf bis zu 1.44GHz erhöht wurden.

Coda
2009-12-21, 21:03:07
1.25 Ghz to 1.40 Ghz

Doch dynamische Taktraten?

reunion
2009-12-21, 21:07:28
1.25 Ghz to 1.40 Ghz

Doch dynamische Taktraten?

Tesla C2050 and C2070.

Coda
2009-12-21, 21:17:21
Ah okay.

Gast
2009-12-21, 22:23:10
kann aber auch eine abschätzung der taktraten zum damaligen zeitpunkt gewesen sein. "to" lässt sich jedenfalls in die richtung deuten.

Dural
2009-12-21, 23:15:50
teildeaktivierte GF100 bei den Tesla??? das macht doch null sinn! gerade bei Tesla wo die Rechenleistung alles ist und auch nicht wirklich grosse Stückzahlen verkauft werden... zudem preislich sehr viel spielraum vorhanden ist...

läuft 40nm wirklich so schlecht??? am ende kommt nicht mal die GTX380 mit allen einheiten daher...

deekey777
2009-12-21, 23:18:07
Das macht schon Sinn, wenn Nvidia wieder Tesla-Blades anbieten wird.

mapel110
2009-12-21, 23:20:38
teildeaktivierte GF100 bei den Tesla??? das macht doch null sinn! läuft 40nm wirklich so schlecht???
In dem Bereich hat nvidia doch eh kaum Konkurrenz. Da können sie auch die etwas langsameren Chips verkaufen fürs gleiche Geld.

http://www.semiaccurate.com/2009/12/21/nvidia-castrates-fermi-448sps/
:ugly:

Dural
2009-12-22, 01:10:08
nein das macht gerade bei TESLA null sinn, die stückzahlen sind so extrem klein im vergleich zur GeForce serie das man locker auch vollwertige GF100 verwenden könnte, die sollen ja auch erst im H2 2010 kommen! wenn man für die wenigen TESLA karten nicht mal vollwertige GF100 liefern will/kann wie sieht es dann bei den GeForce karten aus die geschätzt 100x öffter verkauft werden?!?!


Das macht schon Sinn, wenn Nvidia wieder Tesla-Blades anbieten wird.

was? was hat das mit dem zutun?

deekey777
2009-12-22, 01:55:31
nein das macht gerade bei TESLA null sinn, die stückzahlen sind so extrem klein im vergleich zur GeForce serie das man locker auch vollwertige GF100 verwenden könnte, die sollen ja auch erst im H2 2010 kommen! wenn man für die wenigen TESLA karten nicht mal vollwertige GF100 liefern will/kann wie sieht es dann bei den GeForce karten aus die geschätzt 100x öffter verkauft werden?!?!




was? was hat das mit dem zutun?
Vielleicht solltest du dich vorher erkundigen, was Nvidia so als Tesla anbietet, bevor du solche Fragen stellst.

Dural
2009-12-22, 02:01:44
ich muss mich wohl eher weniger erkundigen als du, siehe G84.......

und du sollst mal sagen was das mit den Tesla Blades und 448/512SP zutun hat, blöd rum motzten aber nicht mal eine einfach frage beantworten können...

tombman
2009-12-22, 02:08:29
Hmm, das sieht nicht gut aus.

Dem Satz von Charlie, daß NV Chips auf Grund des Egos designed, kann ich zustimmen ;)

NV spürt, daß man sie loswerden will. Sobald Intel eine konkurrenzfähige GPU hat, braucht NV keiner mehr. Für Kartellproblemlösungen brauchts eben nur 2, nicht 3.

AMD und Intel haben sich ja ganz lieb, bauen GPUs in ihre Cpus ein und haben, sobad Intel eine HighEnd Gpu hat (und das ist nur eine Frage der Zeit) auch ein vollständiges Plattformangebot- von LowEnd bis HighEnd.

Außerdem ist die große Zeit des PC-Gamings vorbei, und Chips für Konsolen bereitzustellen schafft AMD jetzt schon und Intel dann, wenn sie ihre HighEnd GPU haben.

Und deshalb gibts auch die Intel-Karikaturen- ein getroffener Hund bellt eben.

Nvidia muß ganz schnell ihre Strategie ändern, oder es heißt bald: schade um Nvidia :(

Slipknot79
2009-12-22, 02:24:12
Hmm, das sieht nicht gut aus.

Dem Satz von Charlie, daß NV Chips auf Grund des Egos designed, kann ich zustimmen ;)

NV spürt, daß man sie loswerden will. Sobald Intel eine konkurrenzfähige GPU hat, braucht NV keiner mehr. Für Kartellproblemlösungen brauchts eben nur 2, nicht 3.

AMD und Intel haben sich ja ganz lieb, bauen GPUs in ihre Cpus ein und haben, sobad Intel eine HighEnd Gpu hat (und das ist nur eine Frage der Zeit) auch ein vollständiges Plattformangebot- von LowEnd bis HighEnd.

Außerdem ist die große Zeit des PC-Gamings vorbei, und Chips für Konsolen bereitzustellen schafft AMD jetzt schon und Intel dann, wenn sie ihre HighEnd GPU haben.

Und deshalb gibts auch die Intel-Karikaturen- ein getroffener Hund bellt eben.

Nvidia muß ganz schnell ihre Strategie ändern, oder es heißt bald: schade um Nvidia :(


Entwickelt ned NV auch ne CPU im Hintergrund? :cool: Irgendwas war doch da mit x86 Linzenstreitigkeiten zwischen Intel und NV?

mapel110
2009-12-22, 02:30:40
Entwickelt ned NV auch ne CPU im Hintergrund? :cool: Irgendwas war doch da mit x86 Linzenstreitigkeiten zwischen Intel und NV?
Das betraf Chipsätze. Bezüglich x86 und nvidia gibts einen eigenen Fred.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7729729#post7729729
ist auch gerade wieder aktuell geworden durch eine Techreport-News.

tombman
2009-12-22, 02:38:01
Naja, ob sie jetzt 1250Mhz mit 512 SP (C2070 alt) oder 1400Mhz mit 448 SP (C2070 neu) bringen ist jetzt leistungsmäßig auch schon egal, kommt ja aufs selbe heraus, aber es zeigt, daß der Chip zu groß ist und sie sich übernommen haben...

Damit rückt aber leider die GTX380 näher an die HD5870 heran, und ich brauche doch wieder 3 Stück statt 2 :mad:
(ok, dafür schenk ich mir die Waküs dazu, und auf meinem Mobo ist sowieso genug Platz :D)

Coda
2009-12-22, 03:09:51
und das ist nur eine Frage der Zeit
In en nächsten 5 Jahren sehe ich da keine Problem kommen. Intel muss erstmal Larrabee abgehakt bekommen und von Grund auf neu anfangen. Die Mühlen bei Intel mahlen langsam. Die Firma ist einfach viel zu erfolgsverwöhnt und fett geworden.

Ich werde erst anfangen diese Untergangsszenarien zu kommentieren wenn NVIDIA mit dem nächsten Lineup auf dem Markt ist. Vorher ist es aufgrund dieser für langfristige Marktverhältnisse immer noch irrelevanten Verschieberei unsinnig wirklich darüber zu sinnieren.

GF100/Fermi oder wie auch immer man die Architektur nennen will (und nicht unbedingt seine Manifestierung in der ersten Generation) ist wirklich wichtig für NVIDIA - keine Frage.

=Floi=
2009-12-22, 07:03:28
nebenbei braucht intel nicht nur gute hardware, sondern auch gute treiber. davon sind sie noch jahre entfernt und das wird noch sehr viel geld kosten um überhaupt mal auf das niveau von ati zu kommen.

nv wird sicherlich nicht untergehen. So bekommen sie wenigstens mal richtig druck und müssen wieder qualität und gute produkte bringen. zu groß ist dieser chip auch nicht. wenn der prozess nicht mit dem chip harmoniert, dann nützt alles nichts mehr. der popelige GT215 läuft ja auch so miserabel.
Es muß wohl mehr geldund zeit in die prozessnodes gesteckt werden um zukünftig solche probleme minimieren zu können.

V2.0
2009-12-22, 07:05:44
Das hat man bei 3dfx auch gesagt.

Wobei bei des Tesla die Boardlänge bemerkenswert ist.

reunion
2009-12-22, 07:06:14
In dem Bereich hat nvidia doch eh kaum Konkurrenz. Da können sie auch die etwas langsameren Chips verkaufen fürs gleiche Geld.


Du tust so als wäre NV dort Monopolist und könnte sich das leisten. Defacto haben es bis jetzt weder NV noch AMD geschafft in diesem Segment Fuß zu fassen. Es gibt kaum einen Bereich der so hart umkämpft ist. Keine Konkurrenz finde ich in dem Zusammhang doch leicht lächerlich. Es gibt nicht nur GPUs, und selbst da ist man nicht konkurrenzlos, auch wenn man das bessere Gesamtpaket hat müssen die Chips erstmal kommen.

Das macht schon Sinn, wenn Nvidia wieder Tesla-Blades anbieten wird.

Das macht aus meiner Sicht keinen Sinn nicht eine Tesla-Karte mit allen Einheiten zu bringen, sondern schon von Haus aus zwei Cluster zu deaktivieren, selbst beim High-End-Modell. Noch dazu war bei der Vorstellung AFAIK schon von 512 Cores die Rede - bleibt die Frage was hat sich seither geändert? Selbst wenn die Ausbeute wirklich so schlecht ist sollte man bei den geringen Stückzahlen doch ein paar funktionierende Chips heraus bekommen. Außer man schafft es nicht anders unter den 225W TDP zu bleiben, aber das würde für die Desktopchips auch nichts gutes bedeuten. Mit den Blades hat das erstmal recht wenig zu tun, vorallem nicht jeder kauft Baldes, ganz im Gegenteil. Das erklärt noch lange nicht warum es keine Karten mit allen Einheiten gibt.

Gast
2009-12-22, 07:37:25
Da waren die Vermutungen in Richtung teildeaktive Teslas wohl doch korrekt:
http://i47.tinypic.com/hry4ae.jpg
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

1.4GHz (für A2?) klingen schon mal besser. Speichertakt ist laut PDF 1,8 bis 2 GHz.

Ouch!

Das Dokument ist von 16.11, also schon ein wenig älter. Wenn aber selbst die C2070-Karte, die erst in Q3 2010 kommen soll nur 448 aktivierte Shader haben wird und dann nur max. 1400MHz erreichen soll. WoW...wirklich schlecht. Da möchte ich nicht wissen wieviele Shader die normalen Geforce-Karten haben werden? Nur 384 Shader für die GTX380?? Nur 256 Shader für die GTX360?? Das wäre schon sehr wenig.

tombman
2009-12-22, 08:24:39
Am Ende kommt GTX380 heraus, und ATI haut diese mit 'ner HD5890 :ugly:
DAS wäre ein Epic Fail :)

V2.0
2009-12-22, 08:27:14
Was wäre wenn sogar die 5870 Fermi in der arg kastrierten Verkaufsversion bügelt?

_DrillSarge]I[
2009-12-22, 08:32:27
Was wäre wenn sogar die 5870 Fermi in der arg kastrierten Verkaufsversion bügelt?
fail, weil: fermi deutlich später = muss schneller sein.
für ganz so doof halte ich nv nun auch nicht das sie nicht wissen, dass sie unbedingt die performancekrone brauchen.

V2.0
2009-12-22, 08:53:30
Und was, wenn das Design so an den Möglichkeiten von TSMC 40G vorbei ist, dass sie es nicht schaffen? NV is so arrogant geworden, dass ihnen das locker zu zutrauen ist.

BlackBirdSR
2009-12-22, 09:38:35
Wenn man zwischen den Zeilen von Ail liest, dann braucht man sich über diesen worst-case-fall keine Sorgen machen, denke ich.

tombman
2009-12-22, 10:00:42
Wenn man zwischen den Zeilen von Ail liest, dann braucht man sich über diesen worst-case-fall keine Sorgen machen, denke ich.
Selbst wenn Fermi nur ~10% schneller ist, wäre es immer noch ein fail, weil man sich IMO deutlich mer erwartet hat.
Im nächsten Jahr sollten sich die AMD Preise stabilisieren, sprich <400 Euro für HD5870 und <300 Euro für HD5850.
So wie ich Nvidia kenne, wird die GTX380 500 Euro kosten- wie will man das dann noch rechtfertigen?

ATI hats nicht geschafft die eigene HD4870X2 zu schlagen, sondern ist im Schnitt ne Spur langsamer.
Sollte es Nvidia auch nicht schaffen, die eigene GTX295 zu hauen, wird irgendwie peinlich...

BlackBirdSR
2009-12-22, 10:12:29
Zwischen den Zeilen lesen? ;)

Wie gesagt: da solltest du dir keine Sorgen machen. Das größte Problem wird erstmal die Verfügbarkeit sein und anschließend, wie gut der Markt auf die Mainstream und Low-Cost-Modelle einsteigt.

Da kann GTX380 so schnell sein wie sie will, wenn die kleinen DX11-Modelle zu heiß und teuer werden, oder erst gar nicht verfügbar, dann verliert Nvidia hier viel Boden.

In diesem Bereich sehe ich weit mehr Gefahr für Nvidia als im High-End, wo die Sache relativ gesichert ist.

Armaq
2009-12-22, 10:16:30
Jetzt ist erstmal Weihnachten und die Angestellten bei Nvidia arbeiten nur noch 10 Stunden. Damit verlangsamt sich der Prozess halt. :)

reunion
2009-12-22, 10:17:21
Welche kleinen DX11-Modelle? Wie es aussieht werden erstmal alle GT21X-Chip umbenannt und dann gibt es wahrscheinlich noch einen Mainstream/Performance DX11-Chip und das wars. Zwischen den Zeilen lesen kann man viel, Ailuros kann auch nur das andeuten was die NV-Leute von sich geben, und das ist auch schon bei GT200 ganz schön weit von der Realität weg gewesen. Fermi kann alles oder nichts werden, es sind halt nicht gerade gute Vorzeichen wenn sich der Chip laufend verschiebt und man von NV zu den Spielerkarten praktisch nichts hört wo gleichzeitig die High-End Teslas mit deaktivierten Einheiten und niedrigem Takt bei relativ hoher TDP angekündigt werden.

Gast
2009-12-22, 10:20:31
Selbst wenn Fermi nur ~10% schneller ist, wäre es immer noch ein fail, weil man sich IMO deutlich mer erwartet hat.
Im nächsten Jahr sollten sich die AMD Preise stabilisieren, sprich <400 Euro für HD5870 und <300 Euro für HD5850.
So wie ich Nvidia kenne, wird die GTX380 500 Euro kosten- wie will man das dann noch rechtfertigen?

ATI hats nicht geschafft die eigene HD4870X2 zu schlagen, sondern ist im Schnitt ne Spur langsamer.
Sollte es Nvidia auch nicht schaffen, die eigene GTX295 zu hauen, wird irgendwie peinlich...

ATI hat sich das Problem selbst eingebrockt indem Sie mit der 4870X2 eine Grafikkarte gebaut haben, die sämtliche Stromverbrauchsgrenzen ignoriert hat so etwas mit einer fast identischen Architektur und einem Die-Shrink mit einem Singelchip (mit vernünftigen Verbrauch) schlagen zu wollen gibt halt die Technik nicht her.

Nakai@Gast
2009-12-22, 10:22:53
Naja mittlerweile gibt Ail sogar zu, dass die GTX380 mit der HD5970 konkurriert.^^
Wenn die GTX380 knapp auf HD5970-Niveau liegt, also auch etwas drunter, dann wird die GTX360 mit der HD5870 ziemlich hart konkurrieren. Das Problem ist eher, dass eine fiktive HD5890 ziemlich nah an die HD5970 und auch an Fermi rankommen würde.
Die HD5970 ist ja nicht so deutlich schneller als die HD5870, wie es einst beim Vorgänger war...


mfg

tombman
2009-12-22, 10:24:08
Zwischen den Zeilen lesen? ;)

Welche Zeilen?-> ich lese nicht auf B3D :)
Wäre mir zu anstrengend, ständig die Nadel im Heuhaufen zu suchen :)

Ergo: Zusammenfassung, bitte :)

reunion
2009-12-22, 10:27:46
Naja mittlerweile gibt Ail sogar zu, dass die GTX380 mit der HD5970 konkurriert.^^


Das war eher auf den Preis bezogen als sonst was. Die Leistung kann er ohnehin noch nicht wissen.

BlackBirdSR
2009-12-22, 10:28:14
Welche Zeilen?-> ich lese nicht auf B3D :)
Wäre mir zu anstrengend, ständig die Nadel im Heuhaufen zu suchen :)

Ergo: Zusammenfassung, bitte :)

Die Zeilen hier auf 3DC natürlich.

Zusammenfassung siehe Post 7092

V2.0
2009-12-22, 10:31:01
Die Leistung kann im besten Falle NV bestimmen, falls A3 nun zurück ist. Ob A3 aber funktioniert, einen besseren Yield erreicht und brauchbar ist, das wissen wir nicht.

ICh würde mir keine Gedanken über Fermi machen, bevor das Ding nicht im Laden liegt.

igg
2009-12-22, 10:32:46
Das war eher auf den Preis bezogen als sonst was. Die Leistung kann er ohnehin noch nicht wissen.
Vielleicht weiß er ja wo A2 ungefähr lag...

MorPheuZ
2009-12-22, 10:34:39
Ali schreibt nid im Moment, warsch. isser grad am testen:D

robbitop
2009-12-22, 11:55:18
Zwischen den Zeilen lesen? ;)

Wie gesagt: da solltest du dir keine Sorgen machen. Das größte Problem wird erstmal die Verfügbarkeit sein und anschließend, wie gut der Markt auf die Mainstream und Low-Cost-Modelle einsteigt.

Da kann GTX380 so schnell sein wie sie will, wenn die kleinen DX11-Modelle zu heiß und teuer werden, oder erst gar nicht verfügbar, dann verliert Nvidia hier viel Boden.

In diesem Bereich sehe ich weit mehr Gefahr für Nvidia als im High-End, wo die Sache relativ gesichert ist.
Max,
unterschätze nie ein High-End / Enthusiast Produkt. Es ist für jeden Hersteller jeder Branche der Motor, der die Leute dazu bewegt, alle anderen Produkte zu kaufen. Sozusagen das Vorzeigeprodukt, welches das Image der Marke hebt.
Schau dir z.B. ATI oder AMD an, als sie zwar gute Mid Range und Low Cost Produkte hatten aber nur mittelmäßige Speerspitzen (Conroe vs K8 und G80 vs R6xx Zeit ^^).
Der Großteil des Umsatzes und sicher auch der Geinne kommt nicht aus der Speerspitze. Diese zieht aber über Meinungsmultiplikatoren (e.g. Presse) die Käuferschaft.

mapel110
2009-12-22, 12:00:55
Das war eher auf den Preis bezogen als sonst was. Die Leistung kann er ohnehin noch nicht wissen.
Ail hat immer geschrieben, dass sich der Preis von Fermi an der Performance gegenüber RV870 orientieren wird.
G200 war auch deutlich teurer zu produzieren als R770 und wurde dennoch im Preis an die Konkurrenz an gepasst.

BlackBirdSR
2009-12-22, 12:10:34
Max,
unterschätze nie ein High-End / Enthusiast Produkt. Es ist für jeden Hersteller jeder Branche der Motor, der die Leute dazu bewegt, alle anderen Produkte zu kaufen. Sozusagen das Vorzeigeprodukt, welches das Image der Marke hebt.
Schau dir z.B. ATI oder AMD an, als sie zwar gute Mid Range und Low Cost Produkte hatten aber nur mittelmäßige Speerspitzen (Conroe vs K8 und G80 vs R6xx Zeit ^^).
Der Großteil des Umsatzes und sicher auch der Geinne kommt nicht aus der Speerspitze. Diese zieht aber über Meinungsmultiplikatoren (e.g. Presse) die Käuferschaft.

Min,
tu ich nicht. Aber sehr sehr viele Leute haben gar keine Idee von High-End. Es geht zu großen Teilen um OEMs, Notebooks, FertigPcs etc. Teure und wenig leitstungsfähige Chips wären für Nvidia sehr sehr schmerzlich.

Dass ein High-End-Sieg natürlich wieder besser für die Optimierungsbilanz bei Entwicklern ist und auch dem Image zuträglich, dass wir hier im Forum sehen, ist ja keine Frage ;)

robbitop
2009-12-22, 12:17:12
Der Umsatz des gesamten Portfolios steht und fällt häufig mit der Speerspitze. Da kann alles andere noch so gut sein. ;)
Btw- im ICQ bist du offline ^^

StefanV
2009-12-22, 12:22:13
In dem Bereich hat nvidia doch eh kaum Konkurrenz. Da können sie auch die etwas langsameren Chips verkaufen fürs gleiche Geld.
Hm, Cell würd mir da so ausm Stehgreif einfallen, auch nutzt man hier meist noch CPUs - aus gutem Grund!

Gast
2009-12-22, 12:31:35
Hm, Cell würd mir da so ausm Stehgreif einfallen, auch nutzt man hier meist noch CPUs - aus gutem Grund!

Vergiss nicht die normalen CPUs


As for Processor Arithmetic, AMD Phenom II X4 940 scored 45780 MIPS and 39241 MFLOPS. The Core i7 940 scored 51.64 GIPS and 49.41 GFLOPS.


Link: http://my.ocworkbench.com/2008/asrock/ASRock-AOD790G-128M-running-Phenom-II-X4-940-overclocking/Phenom_II_X4-compared-to-corei7-and-qx9770-2.htm


Für 3500,- Dollar kann man sich viele CPUs kaufen

aylano
2009-12-22, 12:55:05
Max,
unterschätze nie ein High-End / Enthusiast Produkt. Es ist für jeden Hersteller jeder Branche der Motor, der die Leute dazu bewegt, alle anderen Produkte zu kaufen. Sozusagen das Vorzeigeprodukt, welches das Image der Marke hebt.

Aber beim Nvidia kommt noch hinzu, dass sie mit ihrem High-End auch Tesla & Quadros weiter gut versorgen wollen bzw. dort auch ihr Image haben.
Dazu lebt Nvidia auch von ihren eigenen geschlossenen Softwaren wie Cuda & PhysX, deren Glanz mit so einer verspäteten Krüppel-Speerspitze verloren gehen kann.

Ein Grund , warum Nvidia den Fermi dann mit A3 rausbringen muss (inkl. Rücksicht auf die späteren Modelle)

Aber man hat jetzt auch gesehen, dass sich die neuen mobilen GT2x0-40nm auch ohne Spitzenmodell (GT212) gut verkaufen lässt.
Einfach weil sie an ATI-55nm-Modelle (wie stark auch immer) Performance/Watt vorbei gezogen sind, was gerade im Mobilen Markt extrem wichtig ist.

I[]für ganz so doof halte ich nv nun auch nicht das sie nicht wissen, dass sie unbedingt die performancekrone brauchen.
Aber was sollen die dann tun, wenn es nicht anders geht. Siehe R600
Wobei ich mir jetzt immer noch nicht vorstellen kann, dass Nvidia z.B.zumindestens zusätzlich keine Ultra Fermi rausgibt, die dann 512 Shaders & Co haben.

Da waren die Vermutungen in Richtung teildeaktive Teslas wohl doch korrekt:
http://i47.tinypic.com/hry4ae.jpg
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

1.4GHz (für A2?) klingen schon mal besser. Speichertakt ist laut PDF 1,8 bis 2 GHz.
Meine Schätzung war schon sehr lange 600 / 1300 Mhz für Ferm
Abgeschätzt von GT200 & G80, die ebenfalls ca. 600/1300 Mhz haben.
Der Unterschied 90nm & 65nm waren ausgereifte Fertigungen.
Somit hatte ich eigentlich auch angenommen, dass TSMC (&Nvidia) die Fertigung halbwegs hin bekommt.
Aber wenn die das immer noch nicht gscheit hinbekommen, wundert mich die Teildeaktivierung auch nicht mehr ganz so.

Aber mich wunderte auch die Aussagen über den Takt des A2 von 550 /1300 Mhz (oder so) aber andererseits hörte man, dass A3 (fast) nur wegen der Yieldrate gemacht wird.
Angenommen, es stimmt beides, dann dürfte eben die Yieldrate das viel größere Problem sein als der Takt, der eh schon nicht hoch war.

Ein Fermi mit 448 Shaders ist für mich eh schon ziemlich ein Worst-Case Szenario und da ist es ja nicht mehr weit, bis sie ihre Performance-Krone verlieren, vor allem wenn ATI per HD 5890 nachlegen kann.
Und nachlegen kann ATI auch erst, wenn sie die Yieldrate in Griff bekommen.

Burgard
2009-12-22, 13:01:41
Vergiss nicht die normalen CPUs



Link: http://my.ocworkbench.com/2008/asrock/ASRock-AOD790G-128M-running-Phenom-II-X4-940-overclocking/Phenom_II_X4-compared-to-corei7-and-qx9770-2.htm


Für 3500,- Dollar kann man sich viele CPUs kaufen

Für 3500$ kann man aber auch viele "normale" End-User-Grafikkarten kaufen, die wiederrum schneller sind als eine CPU.

Schon sehr oft wurden doch schon die Standardkarten mit den z.B. Quadros verglichen.
Was ist dabei rausgekommen, auch die "normalen" Karten waren durchaus in der Lage die Aufgaben einer Spezialkarte aka Quadro zu erledigen, ohne einen einzigen Fehler.


Was spricht also dagegen, einen Cluster mit Mainstreamkarten zu bauen?

Eben Masse statt Klasse, um es übertrieben auszudrücken?

desert
2009-12-22, 13:05:43
Für 3500$ kann man aber auch viele "normale" End-User-Grafikkarten kaufen, die wiederrum schneller sind als eine CPU.

Schon sehr oft wurden doch schon die Standardkarten mit den z.B. Quadros verglichen.
Was ist dabei rausgekommen, auch die "normalen" Karten waren durchaus in der Lage die Aufgaben einer Spezialkarte aka Quadro zu erledigen, ohne einen einzigen Fehler.


Was spricht also dagegen, einen Cluster mit Mainstreamkarten zu bauen?

Eben Masse statt Klasse, um es übertrieben auszudrücken?

Die Treiberunterstüzung, den Support und die Gewissheit das die Hardware dafür ausgelegt. Und das ist mehr wert im produktiven einsatz als ein bischen geld bei der Beschaffung zu sparen.

Gast
2009-12-22, 13:17:38
Die Treiberunterstüzung, den Support und die Gewissheit das die Hardware dafür ausgelegt. Und das ist mehr wert im produktiven einsatz als ein bischen geld bei der Beschaffung zu sparen.
+ECC was bei solchen berechnungen halt pflicht ist.

Aquaschaf
2009-12-22, 13:19:51
Für 3500,- Dollar kann man sich viele CPUs kaufen

Oder - wie bereits gesagt - auch jede Menge Grafikkarten. Wenn man Aufgaben hat die zu GPUs passen, dann dürften meistens schon G80-basierte Karten kosteneffizienter sein als CPUs. Aber mit einem Haufen Grafikkarten oder CPUs ist es ja nicht getan. Daraus ein funktionierendes System zu bauen ist nicht so einfach möglich. Siehe z.B. FASTRA.

BlackBirdSR
2009-12-22, 13:24:20
Was viele vergessen:
Einen Xeon QuadCore oder eine 8-Core Maschine mit 16+GB Speicher ist schnell gekauft, installiert und der User kann diese sofort einsetzen.

Wenn man sich erst mit Portierung, Einarbeitung, Anwendung und neuen Programmen für Cuda etc anfreunden muss, kostet das bei den entsprechenden Stundensätzen um einiges mehr.

Gäbe es für CFDesign einen CUDA-Port der ohne weiteres sofort Ergebnisse liefert, dann wäre die Anschaffung einer High-End Quadro keinerlei Frage mehr. Braucht man dagegen ein neues Programm oder muss sich mit Bibliotheken und geänderten Anwendungsparametern abkämpfen, dann sind selbst Speedups von 8-10x oft nicht das Geld wert...

Audnahmen gibts natürlich. Jemand wie Audi wird sowas gerne in Kauf nehmen, das Militär auch, Wacker sowieso. Mittelständische Unternehmen wohl weniger.


Oder - wie bereits gesagt - auch jede Menge Grafikkarten. Wenn man Aufgaben hat die zu GPUs passen, dann dürften meistens schon G80-basierte Karten kosteneffizienter sein als CPUs. Aber mit einem Haufen Grafikkarten oder CPUs ist es ja nicht getan. Daraus ein funktionierendes System zu bauen ist nicht so einfach möglich. Siehe z.B. FASTRA.

Das ist die Theorie: Aber wer verkauft dir so ein System? Weder DELL, noch HP noch sonst wer. Du bekommst im besten Fall die teuren Quadros, wenn du diese extra anforderst. Ansonsten verkaufen dir die Vertreten und entsprechenden Stellen aktuell natürlich die Modelle mit langsamen Quadros.
Die High-End-Systeme haben dann nochmal einen Preisaufschlag, der jenseits von gut und böse liegt und bei dem der Preis der Quadro gar nicht mehr so relevant ist.

Ein Low-End CPU System mit High-End GPU bekommst du gleich 3x nicht. Und den Chef möchte ich sehen, der generell einem Eigenbau zustimmt!

Dural
2009-12-22, 15:07:02
also der takt dürfte weniger das problem sein, sonst würde man wohl kaum bei TESLA die SP runter nehmen und dafür mehr takt geben...

mhhh so wie das auschaut wird Fermi wohl zuerst auf einer GTX360 gegen die 5870 erscheinen... und villeicht für die presse einpar GTX380 mit 512SP und etwas takt und eine handvoll im handel...

Gast
2009-12-22, 15:50:25
Ein Grund , warum Nvidia den Fermi dann mit A3 rausbringen muss (inkl. Rücksicht auf die späteren Modelle)


Warum?

wenn A3 der Grund für die niedrigen Frequenzen und/oder die Deaktivierungen wäre, dann könnte Nvidia einfach die Lowend-Karten C2050 und GTX360 (1200MHz; 448 Shader-ALUs) sofort bringen und dann nach 1/3 Jahr die Highend-Varianten C2070 + GTX380 (512 Shader-ALUs + 1700MHz).

wenn das wegen dem Marketing nicht geht, dann hätten sie halt die C2070 nicht gleich mit angkündigen sollen sondern nur die C2050 mit 3GB und 6GB. Die lowend GTX360 kann man ja immer noch GTX380 nennen und dann nach 4 Monaten eine GTX385 bringen die dann alle Shader aktiviert hat und auch 1700MHz schafft.

Dural
2009-12-22, 15:57:23
man hatte noch keinen A3 als die Tesla festgelegt wurden...

y33H@
2009-12-22, 19:08:49
Es wurden ja 1,2 GHz bei 512 ALUs spekuliert - 1,4 GHz bei 448 ALUs ist flotter und besser auszulasten und die Fehlerrate ist geringer. Und man muss eben unter den 225 Watt bleiben, eine GTX380 kann ja Richtung 300W ziehen und damit evtl. auch volle 512 ALUs haben.

mapel110
2009-12-22, 19:11:31
Es wurden ja 1,2 GHz bei 512 ALUs spekuliert - 1,4 GHz bei 448 ALUs ist flotter und besser auszulasten und die Fehlerrate ist geringer. Und man muss eben unter den 225 Watt bleiben, eine GTX380 kann ja Richtung 300W ziehen und damit evtl. auch volle 512 ALUs haben.
Bislang weiß man doch gar nicht, wie viel Strom das Ding ziehen wird. In der PDF werden auch nur die Steckerarten und die dazu passende Maximallast aufgelistet.

btw nvidia scheints gar nicht zu stören, dass jeder das PDF runterladen kann. Der Link funktioniert immernoch.

reunion
2009-12-22, 19:14:07
Bislang weiß man doch gar nicht, wie viel Strom das Ding ziehen wird. In der PDF werden auch nur die Steckerarten und die dazu passende Maximallast aufgelistet.

NV gibt ausdrücklich 190W typical und 225W max an, da gibt es nicht dran zu rüttel.


btw nvidia scheints gar nicht zu stören, dass jeder das PDF runterladen kann. Der Link funktioniert immernoch.

Das PDF ist seit November online, warum sollte man es jetzt runter nehmen?

reunion
2009-12-22, 19:16:55
Es wurden ja 1,2 GHz bei 512 ALUs spekuliert - 1,4 GHz bei 448 ALUs ist flotter und besser auszulasten und die Fehlerrate ist geringer.

Es wurde 1,23Ghz spekuliert, das kommt auf gleiche raus wie 1,4Ghz mit 448SPs. Ist auch logisch, denn die Taktraten wurde ja aus den GFLOPs-Angaben berechnet. Flotter oder besser auszulasten ist da nicht wirklich was.

Und man muss eben unter den 225 Watt bleiben, eine GTX380 kann ja Richtung 300W ziehen und damit evtl. auch volle 512 ALUs haben.

Davon kann man wohl ausgehen. Dann wäre aber eine Dual-Karte kaum möglich.

AnarchX
2009-12-22, 19:20:51
NV gibt ausdrücklich 190W typical und 225W max an, da gibt es nicht dran zu rüttel.

Bei 1.05V GPU-Spannung.

Im Vergleich dazu lag die Tesla C1060 bei 240SPs/1,29GHz/1,1875V/160W typical/<200W max board.

Es wurde 1,23Ghz spekuliert, das kommt auf gleiche raus wie 1,4Ghz mit 448SPs. Ist auch logisch, denn die Taktraten wurde ja aus den GFLOPs-Angaben berechnet. Flotter oder besser auszulasten ist da nicht wirklich was.
Aber dadurch sind wohl auch mehr als 615MHz Basistakt möglich, wodurch das Setup schneller arbeiten kann.

mapel110
2009-12-22, 19:21:41
Das PDF ist seit November online, warum sollte man es jetzt runter nehmen?
Weil jeder Horst drauf zugreifen kann?! Sollte ja eigentlich ein internes Dokument sein und nicht für die breite Öffentlichkeit bestimmt.

reunion
2009-12-22, 19:24:19
Bei 1.05V GPU-Spannung.

Im Vergleich dazu lag die Tesla C1060 bei 240SPs/1,29GHz/1,1875V/160W typical/<200W max board.

Ja, auf was willst du hinaus? Trotz relativ niedriger Spannung relativ hohe Leistungsaufnahme, das macht es nicht besser. Tesla C1060 basiert AFAIK noch auf GT200 in 65nm und da sind die Angaben relativ gut vergleichbar mit den Desktopmodellen.


Aber dadurch sind wohl auch mehr als 615MHz Basistakt möglich, wodurch das Setup schneller arbeiten kann.

Ich bezweifle das die Tesla überhaupt mit 615Mhz Basistakt läuft, dafür gibt es wenig Gründe. Irgendwo hab ich was von 550Mhz gelesen.

reunion
2009-12-22, 19:26:17
Weil jeder Horst drauf zugreifen kann?! Sollte ja eigentlich ein internes Dokument sein und nicht für die breite Öffentlichkeit bestimmt.

Hm, wie kommst du darauf dass das nicht Absicht ist bzw. es sich um ein "internes Dokument" handelt?

y33H@
2009-12-22, 19:27:27
@ mapel110

Natürlich weiß man nicht was ein voller Fermi zieht bzw. es wissen nur die, die es wissen sollen/dürfen ;) Die Stecker lassen eben auf theoretische 300W schließen und an der HD5970 sieht man ja, dass die IHVs hier nicht drüber wollen - die HD5970 throttelt und undervoltet sich ja sogar im Furmark. Ausgehend von 448 ALUs und 1,4 GHz bei 1,05V sind Richtung 300W bei 512 ALUs (+14%) bei 1,4 GHz und sagen wir mal 1,15V (+10%, aber exponentielle Steigerung der Leistungsaufnahme) recht plausibel, zumal ein 6+8-Pin-Stecker verbaut sind. 300W wären zudem max, average sind dann wenn wohl eher 270W.

mit 448SPs. Ist auch logisch, denn die Taktraten wurde ja aus den GFLOPs-Angaben berechnet.Mit 448 ALUs kommt der Scheduler besser klar als mit 512. Siehe Cypress, wenn man ihn auf RV770-Niveau drückt. Ist altbekannt :confused:

Gast
2009-12-22, 19:28:41
Ja, auf was willst du hinaus? Trotz relativ niedriger Spannung relativ hohe Leistungsaufnahme, das macht es nicht besser. Tesla C1060 basiert AFAIK noch auf GT200 in 65nm und da sind die Angaben relativ gut vergleichbar mit den Desktopmodellen.

Haben wir bei AMD gesehen, dank 40nm konnte die Spannung des komplexeren Chips bei gleichem Takt nicht gesenkt werden.


Ich bezweifle das die Tesla überhaupt mit 615Mhz Basistakt läuft, dafür gibt es wenig Gründe. Irgendwo hab ich was von 550Mhz gelesen.Macht keinen Sinn, die ALUs schön hochprügeln und den Rest auf niedrige Werte setzen.
Seit wann ist der Basistakt die Taktbegrenzung, bisher wars jedenfalls absolut nicht so.

y33H@
2009-12-22, 19:30:40
Bisher konnte man die TMU-Domäne maximal die Hälfte der ALUs betragen (702/1.404 etwa). Aber nicht die ALUs maximal das doppelte der TMUs.

reunion
2009-12-22, 19:32:02
Haben wir bei AMD gesehen, dank 40nm konnte die Spannung des komplexeren Chips bei gleichem Takt nicht gesenkt werden.


Ich kann dir nicht folgen.


Macht keinen Sinn, die ALUs schön hochprügeln und den Rest auf niedrige Werte setzen.
Seit wann ist der Basistakt die Taktbegrenzung, bisher wars jedenfalls absolut nicht so.

Macht Sinn, eine Tesla ist zum rechnen da, da brauche ich keine TMUs oder ROPs. Höchstens der L2-Cache läuft mit dem Basistakt. Auch empfinde ich 1.4Ghz nicht gerade als hochprügeln.

Dural
2009-12-22, 19:32:49
Es wurden ja 1,2 GHz bei 512 ALUs spekuliert - 1,4 GHz bei 448 ALUs ist flotter und besser auszulasten und die Fehlerrate ist geringer. Und man muss eben unter den 225 Watt bleiben, eine GTX380 kann ja Richtung 300W ziehen und damit evtl. auch volle 512 ALUs haben.

wie so muss man unter 225Watt bleiben? Auch die TESLA karte haben 1x 8-Pin und 1x 6Pin!

und man sollte nicht vergessen das ein breiter chip immer effizienter arbeiten wird als ein nicht so breiter mit mehr takt!

reunion
2009-12-22, 19:32:50
Mit 448 ALUs kommt der Scheduler besser klar als mit 512. Siehe Cypress, wenn man ihn auf RV770-Niveau drückt. Ist altbekannt :confused:

Das ist Architekturbedingt und kein Naturgesetz.

wie so muss man unter 225Watt bleiben? Auch die TESLA karte haben 1x 8-Pin und 1x 6Pin!

Die Teslas haben entweder 1x8-Pin oder 2x6Pin.

Dural
2009-12-22, 19:37:49
nein TESLA haben je 1x 6Pin und 8Pin

reunion
2009-12-22, 19:38:22
nein TESLA haben je 1x 6Pin und 8Pin

Anschließen tut man nur das was ich gesagt habe.

Tomahawk
2009-12-22, 19:38:38
unterschätze nie ein High-End / Enthusiast Produkt. Es ist für jeden Hersteller jeder Branche der Motor, der die Leute dazu bewegt, alle anderen Produkte zu kaufen. Sozusagen das Vorzeigeprodukt, welches das Image der Marke hebt.
Beim besten Willen, aber das gilt nur sehr eingeschränkt in wenigen Branchen. Und da auch nur, wenn große Informationsasymmetrien (was bei Grafikkarten ggf. der Fall ist. Typisch eher Lautsprecher) vorhanden sind. In Branchen wo die Leistung eines Produkts relativ offensichtlich ist, ist das gewiss nicht der Fall (Autos: der Phaeton glänzt mit Spielereien, das Volk kauft deswegen den Golf? Das wäre neu. Und ich könnte da hunderte Beispiele aufzählen).

y33H@
2009-12-22, 19:39:24
@ reunion

Du sagst, dass NV bei 448 keine bessere ALU-Auslastung erzielt wie mit 512 ALUs? Das bezweifle ich schlicht.

@ Dural

reunion hat Recht, siehe PDF:

http://www.abload.de/img/2009-12-22_194016hpai.png

Beides macht 150 Watt plus 75 aus dem Slot, macht theoretisch 225W.

Dural
2009-12-22, 19:49:45
OK, ändert aber nichts das 40nm "schlecht" läuft... 448SP bei einer C2070 TESLA ist ja der hammer!

robbitop
2009-12-22, 19:49:59
Macht Sinn, eine Tesla ist zum rechnen da, da brauche ich keine TMUs oder ROPs. Höchstens der L2-Cache läuft mit dem Basistakt. Auch empfinde ich 1.4Ghz nicht gerade als hochprügeln.
Und was meinst du, wie die ALUs gefüttert werden? Über TMUs, Texturecache, Sheduler. All das ist nicht zu vernachlässigen.

Gast
2009-12-22, 19:50:40
Ich kann dir nicht folgen.

1,05V sind nicht atemberaubend niedrig. In Anbetracht der GT200 Spannungen.

Der Blick auf AMD zeigt, das 40nm eben nicht das Wunderwerk schlechthin sind.
Es ist nicht alles möglich, komplexerer Chip, gleicher Takt gleiche Spannung und mehr verschwenderischerer VRAM.


Macht Sinn, eine Tesla ist zum rechnen da, da brauche ich keine TMUs oder ROPs. Höchstens der L2-Cache läuft mit dem Basistakt. Auch empfinde ich 1.4Ghz nicht gerade als hochprügeln.
1,4Ghz sind über GT200 Takt zum Start. Und ob Setup oder Cache unwichtig ist werden wir sehen.

y33H@
2009-12-22, 19:53:25
Wenn die Tesla grob der GTX360 entspricht und diese den Nachfolger der GTX260 darstellt, ist ~ die gleiche Spannung bei mehr Leistung.

reunion
2009-12-22, 19:59:43
@ reunion

Du sagst, dass NV bei 448 keine bessere ALU-Auslastung erzielt wie mit 512 ALUs? Das bezweifle ich schlicht.


Wenn man etwas bezweifelt sollte man das auch begründen können. Man kann ohnehin nichts ausschließen, solange Fermi nicht offiziell ist, aber grundsätzlich sollte der Shedular schon so ausgelegt sein das alle Einheiten entsprechend ausgelastet werden können. Was da bei RV870 nicht stimmt kann nur spekuliert werden.

1,05V sind nicht atemberaubend niedrig. In Anbetracht der GT200 Spannungen.

Der Blick auf AMD zeigt, das 40nm eben nicht das Wunderwerk schlechthin sind.
Es ist nicht alles möglich, komplexerer Chip, gleicher Takt gleiche Spannung und mehr verschwenderischerer VRAM.


RV790 lief AFAIK mit irgendwas 1,3xV, die 5870 mit 1,15V. Also schon eine deutlich Senkung. 1,05V sind angesichts dessen auch für 40nm nicht unbedingt viel. Mit wieviel Volt lief GT200(b)?

Dural
2009-12-22, 20:01:49
kommt drauf an auf was für einer karte... 1.05 bis 1,18Volt

40nm bringt im vergleich zu 55nm ca. 0,1Volt, egal ob jetzt bei NV oder ATI

40nm ist einfach nicht das was man erwartet hat! deswegen kommen jetzt AMD und NV auch mit Hardware OC / Spannungsanpassung da man innerhalb einer vernünftigen TDP bei den stock Modellen die handbremse anziehen muss und so noch viel spielraum nach oben vorhanden ist...

y33H@
2009-12-22, 20:04:32
@ reunion

Aus rein technischer Sicht ist der Aufwand, den der Scheduler betreiben muss mit steigender Anzahl der ALUs höher und damit sinkt die Effizienz. Alles andere wäre imo ein technisches Meisterwerk und nicht möglich.RV790 lief AFAIK mit irgendwas 1,3xVDu nimmst das OC-Update? Ne HD4870 hat 1,26V die HD4890 hat 1,3125V.Mit wieviel Volt lief GT200(b)? GTX260 mit 1,05V und GTX285 mit 1,15V. OC-Modelle wie die FTW hatten per Hardmod bis zu 1,23V.

reunion
2009-12-22, 20:12:25
@ reunion

Aus rein technischer Sicht ist der Aufwand, den der Scheduler betreiben muss mit steigender Anzahl der ALUs höher und damit sinkt die Effizienz. Alles andere wäre imo ein technisches Meisterwerk und nicht möglich.

Ich bin kein Hardwareingenieur, aber IMHO sollte das höchstens in konstruierten Spezialfällen von Relevanz sein. Man wird wohl kaum die ALUs am Shedular verhungern lassen. Aber wir werden sehen. Normalerweise sollte man bei einer Tesla ohnehin alle Einheiten erwarten können.


Du nimmst das OC-Update? Ne HD4870 hat 1,26V die HD4890 hat 1,3125V.

Ja, da selbe Taktraten wie die 5870. Also eine Senkung von immerhin etwas über 12%.


GTX260 mit 1,05V und GTX285 mit 1,15V. OC-Modelle wie die FTW hatten per Hardmod bis zu 1,23V.

Mhm, da könnte also der Grund liegen warum NV ihre Leistung/Watt-Führung verlieren könnte. Wenn man davon ausgeht das eine Tesla ungefähr auf dem Level einer GTX360 ist und das ja auch nur etwas über dem Takt der GTX260 liegt, so wäre das kaum eine Verbesserung ggü. GT200 trotz 40nm.

aylano
2009-12-22, 20:15:14
Warum?

wenn A3 der Grund für die niedrigen Frequenzen und/oder die Deaktivierungen wäre, dann könnte Nvidia einfach die Lowend-Karten C2050 und GTX360 (1200MHz; 448 Shader-ALUs) sofort bringen und dann nach 1/3 Jahr die Highend-Varianten C2070 + GTX380 (512 Shader-ALUs + 1700MHz).

Das halte ich Image-Mäßig sehr schlecht, wenn Nvidia mit so einer Karte als "Speerspitze" antanzt, die eventuell ingesamt kaum/etwas schneller ist als HD 5870.
Denn der Erste Eindruck zählt viel und da hat z.b. der RV770 den GT200 ordentlich "planiert". Wo war der Erste Eindruck.
Und dieser erste Eindruck ist sehr lange bis zum GT200b geblieben.
Ich kann mich erinnern, wo in Herbst erinnern die am 10 meistgesuchten Grafikkarten in Geizhals nur AMD-Karten waren, obwohl die 260GTX schon längst mit Preis unten war und dieses AMD-Run IMO nicht gerechtfertig war.

Dazu hatte Nvidia auch immer gepunktet, indem sie die schnellste Single-GPU-Karte hatten.
Allein, wenn 360GTX etwas schneller ist als AMD, gibts genug/einige Benches wo HD 5870 schneller ist und so ist eher unbedeutend, dass 360GTX insgesamt um paar Prozent schneller ist.

Vorallem in der RV770 vs. GT200-Ära waren Nvidias Low-End & Mainstream-Karten schlechter als die ATI-Konkurrenz und da war ein schnellerer GT200 als der RV770 sicher sehr wichtig für den Verkauf der Nivdias Low-End & mainstream-Karten.

Eine Krüppel-Karte mit 448 SP als Speerspitze halte ich deshalb für extrem ungut, weil Nvidia auch eine innovative Qualitätsfirma (PhsX, Cuda, Grafikqualität, ... ) ist und deshalb kann ich mir nicht vorstellen, dass Nvidia nur mit so einer Krüppel-Karte daherkommt und überhaupt keine 512 SP - Karte rausbringen wird. Eben weil sie noch einen QualitätsRuf haben, der angekratzt werden kann.

Also, zumindestens eine Limited Edition/ OC-Edition mit 512 Shader in einer Stahlbox mit Wein & Unterschrift vom Nvidias-CEOs und den Preis an die zu vergebenen Stückzahlen angepasst.

Und nach 1/3 Jahr mit +500 Mhz sowie +64 Shader, kann eher nur davon träumen, nach all den Probleme die man jetzt so hört.


wenn das wegen dem Marketing nicht geht, dann hätten sie halt die C2070 nicht gleich mit angkündigen sollen sondern nur die C2050 mit 3GB und 6GB. Die lowend GTX360 kann man ja immer noch GTX380 nennen und dann nach 4 Monaten eine GTX385 bringen die dann alle Shader aktiviert hat und auch 1700MHz schafft.
Nachhinein kann man immer gscheiter reden, wobei man dem Marketing sicher nicht die ganze Schuld geben will.
Nvidia hat mometan extreme Probleme und die werden IMO sicher je nach Bedarf gewisse Marketing-Angaben ändern, wenn A3 doch besser als geglaubt ist, oder mit gewissen Hardware-Einstellungen besser darzustehen.
Das ist eher das geringere Problem, wenn man sich die ganzen Umbenennungen ansieht.

------

Langsam sieht es so aus, als ob Fermi ein R600-Desaster wird.
Wenn der in März kommt, dann sind es AFAIK 6 Monate.
Dazu der etwas höhere Stromverbrauch.
Und im Worst-Case sogar noch langsamer & als Krüppel-Karte.

Mit 1,05 Volt ist Fermi relativ gesehen fast exakt genauso gesunken wie RV870.

y33H@
2009-12-22, 20:23:42
Man wird wohl kaum die ALUs am Shedular verhungern lassen.Wohl kaum ;) Was mich interessiert: Beim G200 hing der Scheduler-Takt am TMU-Takt, hat man nur den TMU-Takt erhöht, legten die reinen FLOPS zu. Ja, da selbe Taktraten wie die 5870.Würde ich nicht machen, da der stock RV770 nur selten mit stock-Vcore 850 MHz gepackt hat. Der Cypress ist der RV770-Nachfolger und nicht des RV790-Refreshs.Wenn man davon ausgeht das eine Tesla ungefähr auf dem Level einer GTX360 ist und das ja auch nur etwas über dem Takt der GTX260 liegt, so wäre das kaum eine Verbesserung ggü. GT200 trotz 40nm.Rechnerisch ja. Aber wer weiß wie sich der 40 nm bei NV auswirkt?

Dural
2009-12-22, 21:18:57
die GT200 TESLA haben 1,18Volt....... wie GTX285 auch...

und was zum teufel hat die SPANNUNG mit den aktivierten einheiten zu tun???

übrigens nur die "optimierten" GTX260 haben 1,05Volt, die normalen haben über 1,10Volt

Die GTX295 GPUs haben ca. 1,05Volt, mit 240SP...

Darf ich mich selber zitiren:

kommt drauf an auf was für einer karte... 1.05 bis 1,18Volt

40nm bringt im vergleich zu 55nm ca. 0,1Volt, egal ob jetzt bei NV oder ATI

40nm ist einfach nicht das was man erwartet hat! deswegen kommen jetzt AMD und NV auch mit Hardware OC / Spannungsanpassung da man innerhalb einer vernünftigen TDP bei den stock Modellen die handbremse anziehen muss und so noch viel spielraum nach oben vorhanden ist...

y33H@
2009-12-22, 21:26:39
Eine GTX285 hat keine 1,18V sondern 1,15V (und die GT200-Tesla haben 1,18V wie die GTX280). Eine 55nm GTX260 hat iirc immer 1,05V, die 65 nm der ersten Charges hatten 1,12V und die "optimierten" 1,06V. Real sind die Voltages idR minimal höher.

Dural
2009-12-22, 21:34:15
nein, meine GTX285 hat exakt 1,18Volt (selber gemessen!!!) gut möglich das hier die hersteller etwas varieren / ist aber keine OC Karte!

Wie kommst du auf 1,05Volt??? das ist doch die IDLE Spannung der 260!?! hab selber eine GTX260 aber ich weis die Spannung gerade nicht mehr auswendig... ich glaube die hatte 1,15Volt / ist aber ein OC Modell! die 1,12Volt können somit gut stimmen.

Ich weis nur das es Hersteller gab die die Spannung bei den GT200 karten etwas runter genommen haben, weil es die GT200 GPUs locker verkraften bei dem takt die sie stock haben.

y33H@
2009-12-22, 21:39:09
Lass mich raten: Eine SSC oder FTW oder XXX oder Black Edition oder sonst eine OC-Edition? Die haben Hardmods mit 1,18 bzw. 1,23V. Default ist 1,15V - außer du hast ein extrem exotisches Sample mit default-Clocks.

Wie ich auf 1,05V komme? Das ist bei den 55 nm GTX260er die durchgehende Spannung: 1,05V in 2D, Low-3D und 3D. Ich weis nur das es Hersteller gab die die Spannung bei den GT200 karten etwas runter genommen haben, weil es die GT200 GPUs locker verkraften bei dem takt die sie stock haben.Richtig, bei den 65 nm gings von 1,12V auf 1,06V runter - aber nicht bei allen, nur bei vielen mit default-Clocks.

Dural
2009-12-22, 21:58:50
jo eben, die hersteller haben die Spannung mit der zeit bei den 65/55nm GTX260 gesenkt, default ist 1,12Volt bei den GTX260!

es gab auch 55nm 260 mit 1,12Volt!

nein die 285 ist ein standard modell von PoV... wurden nicht auch bein den GTX280/285 die spannung mit derzeit etwas gesenkt?!? bei der 280 bin ich mir ziemlich sicher das dass der fall war... einige hersteller haben so auf den "heat bug" reagiert...

y33H@
2009-12-22, 22:22:39
GTX280 hat immer 1,18V und GTX285 1,15V - stock versteht sich. Etwas anderes ist mir nicht bekannt. Der "Heat-Bug" ist unabhängig von der Vcore, das wissen die AIBs.

Dural
2009-12-22, 22:34:19
und trotzdem haben einige AIB die spannung gesenkt um dem heat bug aus dem weg zu gehen... immer noch besser als die ganze karte in den müll zuwerfen... was meinst du wie viele GTX280 ich schon in den händen hatte?

wer schreibt hier eigentlich immer die News? wirklich an fast jeden tag sind da irgend welche fehler drin! NV hat die TESLA nie mit 512SP / 1230MHz bestätigt:

Mit der Nutzung von Fermi-basierten Compute-Karten lasse sich die dreizehnfache Double-Precision-Leistung im Vergleich zu aktuellen CPUs erreichen, gibt Nvidia an: Pro Fermi-GPU wären das 520 bis 630 GigaFLOPS in doppelter Gleitkommagenauigkeit. Der exakte theoretische Spitzenwert hängt von der Taktfrequenz der Shader-ALUs ab. Hier hat Nvidia wohl noch keine endgültige Festlegung getroffen. Nach derzeitigem Kenntnisstand entsprächen die Werte 1.015 bis 1.230 MHz Shader-Takt.

es wurde immer nur von den 630 GigaFLOPS gesprochen, wenn da einige 512SP mit 1230Mhz ableiten ist das nicht NVs problem gescheige den sie haben das so bestätigt.

und die Verlustleistungs these ist so brutal lächerlich, wenn man damit probleme hätte würde man erst recht einen vollen GF100 mit weniger takt verwenden... wenn man einen teildeaktivierten chip verwendet, hat das immer was mit der ausbeute zu tun bzw. kostet der chip weniger da man schlicht mehr aus einem wafer bekommt!

y33H@
2009-12-22, 22:48:40
Wie gesagt, mir ist kein Hersteller bekannt, der GTX280 mit weniger als 1,18V ausgeliefert hat. Kannst mir aber gerne ein BIOS zeigen ...was meinst du wie viele GTX280 ich schon in den händen hatte?kA, ich aber habe gut 30 in der Hand gehabt.NV hat die TESLA nie mit 512SP / 1230MHz bestätigtDa war eine Rechnung aus 512 ALUs bzw. 256 FMA bei 630 FLOPS mit DP - von einer Bestätigung seitens NV hat iirc auch keiner je was geschrieben.

Und natürlich nimmt NV nur 448 ALUs @ 1,4 GHz weil die Ausbeute so höher ist. Logisch.

Dural
2009-12-22, 22:52:11
ja, aber das wird hier in den News aber ganz klar so hingestellt:

Sollten beide Karten ursprünglich mit jeweils 512 Shader-Einheiten und eher gemächlichen Shadertaktraten von 1015 bzw. 1230 MHz antreten, so lautet die neue Spezifikation:

y33H@
2009-12-22, 22:58:53
Das ist doch eh Speku, man muss halt auf den Link klicken :rolleyes:

=Floi=
2009-12-22, 23:07:08
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/
hatten sie aber! die 512 shader waren fix und es war so gesehen kein problem die volle anzahl zu nehmen.


Wohl kaum ;) Was mich interessiert: Beim G200 hing der Scheduler-Takt am TMU-Takt, hat man nur den TMU-Takt erhöht, legten die reinen FLOPS zu.
gibt es dazu benchmarks und tests?


edit
dural hatte auch hier schon ein custom design genommen...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7706652&highlight=design#post7706652

y33H@
2009-12-22, 23:16:07
Die 512 ALUs als maximaler Ausbau sind bestätigt - ja. Nicht aber bei welchem Takt. Zu dem Scheduler: Das habe ich aus nem PDF und es gibt iirc Benches bei XS. Mir fällt aber so direkt nichts ein um isoliert die FLOPS zu messen.

Und Custom mit Ref gleichsetzen ... ich behalte Dural im Auge ;D

merfu
2009-12-23, 03:38:55
as viele vergessen:
Einen Xeon QuadCore oder eine 8-Core Maschine mit 16+GB Speicher ist schnell gekauft, installiert und der User kann diese sofort einsetzen.

Wenn man sich erst mit Portierung, Einarbeitung, Anwendung und neuen Programmen für Cuda etc anfreunden muss, kostet das bei den entsprechenden Stundensätzen um einiges mehr.

Gäbe es für CFDesign einen CUDA-Port der ohne weiteres sofort Ergebnisse liefert, dann wäre die Anschaffung einer High-End Quadro keinerlei Frage mehr. Braucht man dagegen ein neues Programm oder muss sich mit Bibliotheken und geänderten Anwendungsparametern abkämpfen, dann sind selbst Speedups von 8-10x oft nicht das Geld wert...

Audnahmen gibts natürlich. Jemand wie Audi wird sowas gerne in Kauf nehmen, das Militär auch, Wacker sowieso. Mittelständische Unternehmen wohl weniger.


Unterschätzt du hier den Mittelstand nicht ein wenig?
Der Mittelstand besetzt gern Nieschen und ist oft fortschrittlicher als Große behäbiger Unternehmen.
Bevor du fragst, ja ich weiß das aus erster Hand, ich habe es erlebt das ein Mittelstandsunternehmen für EIN Projekt mitten in der Entwicklung parallel 2 Leute an ein CUDA Port gesetzt hat.

mfg

Gast
2009-12-23, 07:26:01
Mich wundert die Diskussion hier ein wenig (und die News-Seite dazu).

Wo steht eigentlich in dem PDF das die C2070 1400MHz erreicht?

Das Dokument ist von Mitte November!

Für mich sagt das Dokument nur aus, das Nvidia erwartet zwischen 1,25 GHz und 1,4 GHz Takt erreichen zu können.

Ergo, können es sich um Worst-Case Angaben handeln, oder aber auch um Best-Case Angaben.

1,25 GHz scheint der Worst-Case zu sein; 1,4 GHz scheint der Best-Case zu sein.

Ergo sind im Worst-Case 1,25 GHz für die C2070 auch möglich. Oder aber eben auch 1,4 GHz für die C2050 im Best-Case (zumindest laut diesem PDF)

Gast
2009-12-23, 07:45:42
hehe...


Auf Beyond3D diskutieren sie gerade intensiv über die 448 ALUs <-> 512 ALUs.

Resultat soweit:

512 niedriger getaktete ALUs brauchen weniger "Saft" als 448 höher getaktete ALUs, weil weniger Takt = geringere Spannung = weniger Verbrauch.

Siehe: GTX295 + ATi 5970 (die beide mit allen ALUs antreten aber geringerem Takt um den Verbrauch zu begrenzen)

=> Das Power-Argument könnt ihr hier also in die Tonne treten!

reunion
2009-12-23, 07:52:20
=> Das Power-Argument könnt ihr hier also in die Tonne treten!

Hat das jemand vorgebracht? Das ein breiterer Chip mit weniger Takt energieeffizienter ist als ein kleinerer mit höherem Takt ist evident. Das war auch der Vorteil von NV bei GT200. Wenn dann geht es bei dieser "Taktik" rein um die Ausbeute, und selbst das finde ich angesichts der geringen Stückzahlen höchst eigenartig, um nicht zu sagen bedenklich.

V2.0
2009-12-23, 07:59:59
Hat das jemand vorgebracht? Das ein breiterer Chip mit weniger Takt energieeffizienter ist als ein kleinerer mit höherem Takt ist evident.

Ist es eben nicht. Gerade wenn man mit Leakage zu kämpfen haben sollte, dann ist gut möglich, dass man eine recht hohe minimale Spannung haben muss und man daher höher takten kann, ohne entscheident mehr zu verbrauchen. Die Deaktvierung einer Einheit kann da sparsamer sein.

Wobei es ohne Frage ein schelchtes Zeichen für den gesamten Chip ist. Sie müssen mehr haben als massive Herstellungsprobleme, das gesamte Design dürfte verbockt sein. R600 war dagegen eine Granate.

tombman
2009-12-23, 08:41:45
Nicht mal einen Weihnachts-Leak gibts als Geschenk :(

Und mich würde es ankotzen, falls die GTX380 keine 512 SP hat :mad:

=Floi=
2009-12-23, 09:07:35
nicht nur dich. ich sehe es schon, dass ich mit meiner 8800GTS512 noch bis in den herbst zum GT300 refresh warten muß. :(

es gibt dinge die kann man nicht kaufen, für alles andere gibt es mastercard. ;D

Raff
2009-12-23, 09:51:38
Nicht mal einen Weihnachts-Leak gibts als Geschenk :(

Weihnachts-Leakage gibt's wohl, daher das Geschnippel am Chip. ;) Noch ist aber nicht Weihnachten.

Und mich würde es ankotzen, falls die GTX380 keine 512 SP hat :mad:

Es ist aus Fps-Sicht sooo wayne, ob's nun 448 Knechte mit 1,4 GHz sind oder 512 mit 1,2x GHz. So und so hat das Teil auf dem Papier die doppelte Artithmetikleistung einer GTX 285. Gut auslastbare Leistung wohlgemerkt. Die Kiste müsste ernsthaft vermurkst sein, wenn da in Spielen nicht mindestens 50 Prozent mehr Dampf durchschlagen.

nicht nur dich. ich sehe es schon, dass ich mit meiner 8800GTS512 noch bis in den herbst zum GT300 refresh warten muß. :(

es gibt dinge die kann man nicht kaufen, für alles andere gibt es mastercard. ;D

Radeon HD 5870, schon mal gehört? Gegen diese Karte spricht nur wenig.

MfG,
Raff

=Floi=
2009-12-23, 10:04:50
so lange sie nicht mit dem aktuellen forceware läuft will ich sie nicht. es gibt zu viele nachteile und ich kann da nicht einstellen was ich will. nebenbei ist die leistungssteigerung auch nicht so groß wie ich sie gerne hätte. ich möchte mind faktor 3 gegenüber der GF8.

ein epic fail bei der HD5 ist sowieso die nicht vorhande verfügbarkeit (da könnt ihr schreiben was ihr wollt!) und der zu hohe preis. (für 180€ bekomme ich auch eine 275er und die ati wird sicherlich auch bald für ~150-200€ verschwerbelt) wenn die 5850er nicht in der breite beschnitten wäre, dann könnte ich mal über einen kauf nachdenken, aber so nicht. die furmark-drosselung und die nicht bestückte eine phase begeistern mich auch nicht gerade.

ati ist für mich weniger den je eine option. :( es wäre schön, wenn es nicht so wäre, aber im grafik bereich tut sich gar nichts. da habe ich mit den cpus und den boards (inclusive igp) weniger probleme.

----
nebenbei habe ich auch persönlich und im forum eine gute basis an know how über nv und das will ich auch nicht aufgeben.

Raff
2009-12-23, 10:08:17
Ich verstehe die Bedenken wegen der Ati-Software gut. Mir geht's da ähnlich, dauernd rege ich mich über den Scheiß auf – aber das gesamte Paket stimmt dennoch. ;) Ich geb's zu: Eigentlich will ich das Teil "nur" wegen des super nutzbaren SGSSAAs haben. Und deinen Faktor 3 kriegst du beim Zocken mit Supersampling bestimmt. Könnte die das nicht, bliebe sie mindestens bis zum Furby-Release im Regal.

MfG,
Raff

tombman
2009-12-23, 10:09:14
Weihnachts-Leakage gibt's wohl, daher das Geschnippel am Chip. ;) Noch ist aber nicht Weihnachten.
Leak != Leakage :lol:

Es ist aus Fps-Sicht sooo wayne, ob's nun 448 Knechte mit 1,4 GHz sind oder 512 mit 1,2x GHz.
Das hab ich doch schon gesagt ;)

So und so hat das Teil auf dem Papier die doppelte Artithmetikleistung einer GTX 285. Gut auslastbare Leistung wohlgemerkt. Die Kiste müsste ernsthaft vermurkst sein, wenn da in Spielen nicht mindestens 50 Prozent mehr Dampf durchschlagen.

512 SP wirkt einfach VIEL geiler als 448 SP. Außerdem kann man ja noch overclocken, und was ist, wenn bei 1500Mhz die Grenze ist? Dann hätte ich lieber 512 SP als 448 SP ;)

Radeon HD 5870, schon mal gehört? Gegen diese Karte spricht nur wenig.
Jo, HD5870 2GB + meine alte 8800GT als PhysX Karte und fertig :)

reunion
2009-12-23, 10:11:22
Es ist aus Fps-Sicht sooo wayne, ob's nun 448 Knechte mit 1,4 GHz sind oder 512 mit 1,2x GHz.

Bleibt die Frage warum nicht 512SPs mit 1,4Ghz.


So und so hat das Teil auf dem Papier die doppelte Artithmetikleistung einer GTX 285.

(Etwas mehr als) doppelt so viele MADD-Einheiten. Sonst gibt es schon einige Limitierungen wie die kaum skalierten SFUs, kaum skalierter Registerspeicher oder das wegfallende MUL.


Gut auslastbare Leistung wohlgemerkt.

Das war bei einer GTX285 auch schon mindestens genau so stark der Fall.

=Floi=
2009-12-23, 10:16:20
@tomb
ati und nv geht nicht!

ich hätte auch lieber 512 ^^

----
aber 300€ als überganglösung und spielerei sind zu viel. das ist die karte nicht wert und bei ati gibt es dann wieder so einen heftigen preisverfall, dass ich diese karte jetzt nicht kaufen möchte.
SSAA funktionier ja nur unter DX9 und ist bisher nur das einzige argument...
ich brauche auch noch TSAA.

derguru
2009-12-23, 10:19:18
@tomb
ati und nv geht nicht!
klar geht das
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7639277&postcount=40
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7611999&postcount=1
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7722886&postcount=583

aber 300€ als überganglösung und spielerei sind zu viel. das ist die karte nicht wert und bei ati gibt es dann wieder so einen heftigen preisverfall, dass ich diese karte jetzt nicht kaufen möchte.
SSAA funktionier ja nur unter DX9 und ist bisher nur das einzige argument...
sag doch gleich das du kein rot willst,was redest du eigentlich drum rum.
was meinst du was nv für seine karte verlangen wird?du hast vorstellungen.

ach wofür brauchst du noch tsaa?interessiert mich mal wozu es dir so wichtig ist?(willst du mich verarschen,du hast eine 8800gt und bestehst auf tsaa?hast du es jemals mal aktiviert oder bestehst du nur drauf weil es komischerweise ati nicht anbietet?

hab gerade selbst wieder eine nv in der kiste und wenn es den nhancer nicht geben würde dann ging zur zeit rein gar nichts mit dem treiber unter win7,mehr als msaa ist nicht drin.

AnarchX
2009-12-23, 10:25:17
Bleibt die Frage warum nicht 512SPs mit 1,4Ghz.

Wer sagt, dass wir das bei der GeForce 380 nicht sehen werden?
Bei Tesla 20, welche auch schon so einen massiven Sprung gegenüber Tesla 10 darstellt, will man momentan wohl nur Spezfikationen angeben, die man auch einhalten kann. Mit 14 von 16 Clustern dürfte man auch die Yields um einiges erhöhen.

reunion
2009-12-23, 10:38:00
Wer sagt, dass wir das bei der GeForce 380 nicht sehen werden?
Bei Tesla 20, welche auch schon so einen massiven Sprung gegenüber Tesla 10 darstellt, will man momentan wohl nur Spezfikationen angeben, die man auch einhalten kann. Mit 14 von 16 Clustern dürfte man auch die Yields um einiges erhöhen.

Ich will gar nichts ein- oder ausschließen, aber wenn man nicht mal bei einer $4000 Tesla-Karte 512SPs liefert kann, dann ist das schon sehr seltsam. Die Stückzahlen bei einer hypothetischen GF380 wären wohl um mehrere Zehnerpotenzen höher als bei einer Tesla-Karte, warum sollte es dort dann möglich sein? Das einzige was ich mir vorstellen kann ist wirklich das man momentan noch auf Nummer sicher geht und später wenn A3 hoffentlich besser läuft man noch Tesla-Karte >C2070 bringt mit allen Einheiten und die Vorstellung eher ein Gag war um in der Presse zu bleiben. Aber das aktuelle Bild finde ich schon mehr als bedenklich, Tesla-Karten stellten in der Vergangenheit die Spezifikationen des Desktop-Topmodells annähernd perfekt dar. Bei den Preisen geht man da normalerweise keine Kompromisse ein, und zwar sowohl aus Kunden als auch aus Herstellersicht.

y33H@
2009-12-23, 10:45:39
Wartet die A3 ab, dann sickert wohl durch ob es was gebracht hat oder die Teslas das Limit stellen. Wobei 448 ALUs @ 1,4 GHz samt den groben weiteren Daten bei gleicher Effizienz wie GT200 bereits für HD5870 < GTX380 < HD5970 reichen (sollten).

reunion
2009-12-23, 10:49:08
Wartet die A3 ab, dann sickert wohl durch ob es was gebracht hat oder die Teslas das Limit stellen. Wobei 448 ALUs @ 1,4 GHz samt den groben weiteren Daten bei gleicher Effizienz wie GT200 bereits für HD5870 < GTX380 < HD5970 reichen (sollten).

ALUs sind halt bei Spielen nicht alles. Aber die 30-40% über eine GTX285 sollte man allemal erreichen. AMD hat ja nicht gerade alles vernichtet. Interessant wird ja vorallem auch bei welcher Leistungsaufnahme.

tombman
2009-12-23, 10:53:40
@tomb
ati und nv geht nicht!

Mit nem gehackten Treiber schon ;)

y33H@
2009-12-23, 10:54:58
Klar, ALUs alleine rocken nicht. Die spekulierten Daten in Sachen TMUs, ROPs und SI samt Clocks passen aber auch ganz gut ins Leistungsbild für +30 bis +60% auf die GTX285. Bin sehr gespannt - die HD5870 ist flott und hat einige coole Features, aber sie ist eben keine ub0r-Karte wie einst die 9700 Pro oder 8800 GTX. Für mich lohnt sich ein Umstieg nur wegen der BQ bzw. der Leistung bei SGSSAA.

ati und nv geht nicht! Lucid *hust*

Ailuros
2009-12-23, 11:28:21
Bleibt die Frage warum nicht 512SPs mit 1,4Ghz.

Bisher waren nur die bis zu 620GFLOPs DP fuer 2070 bekannt. Ergo wohl eher ein Dilemma ob 512SPs@1200+MHz oder 448SPs@1400MHz. Die Antwort ist gleich in beiden Faellen: Stromverbrauch fuer ein rack mount mit bis zu 6GB 1200MHz EEC GDDR5.

Ein paar wichtige Anhaltspunkte:

http://forum.beyond3d.com/showpost.php?p=1371591&postcount=2362

Dave Baumann:

To make removing clusters power efficient then the chip would have to have full, and fairly fine grained power gating, which gets expensive. Perf/W usually goes in favour of lower speed (hence lower voltage) rather than disabling clusters as you are still paying for the leakage element of the disabled parts - this is why you seen GTX 295 and Hemlock in the configuration you do.

So weit so gut?

http://forum.beyond3d.com/showpost.php?p=1371638&postcount=2378

Democoder:

Charlie, why do you insist on taking the most dire interpretation of every scrap of information? Rackmounted computing devices are limited by heat and power. You do not always want to install the highest performing part in a rack. It's a function of rack cost, power density, and cooling. Sometimes it is more cost efficient to buy two less powerful boxes than to buy 1 powerful box. Even if NVidia could manufacture 512SP devices without issues, they would not be my first choice for sticking in a rack.

Yes, one can draw conclusions that Nvidia is having problems with Fermi, but the hyperbole and sheer negativ conclusion you draw from every bit of information is thoroughly intellectually dishonest.

http://forum.beyond3d.com/showpost.php?p=1371660&postcount=2386

silentguy:

Take the extremes:
If you have a process with 0% leakage, slow clocked by higher area will most likely(!) be more power efficient than higher clock.
If 99% of your power consumption is leakage, your slower clock design probably(!) won't have a chance.

The balance between a Fermi design and a RV870 design is anyones guess. And the (!)'s are there for a reason: there are other variables that can tilt things either way for something like a GPU, such as the amount of logic sitting unused for redundancy, the amount of logic running at the highest clock speed, etc.

E.g. a design with a single clock domain may have more pieces of logic running at higher speed than necessary and may require more high leakage LVT cells.

The point is: reductio ad absurdum of a complex multi-layered topic into a single truth and then using this to question somebody's physics knowledge only makes yourself looking like a fool.

Keiner der drei Herren ist schlecht informiert wenn es zu industriellen Einzelheiten kommt und alle drei wissen mehr oder jeniger (jeder in seinem eigenen Feld) wo es lang geht.

Vielleicht hilft es ueber das Ganze noch keine vorzeitige Schlussfolgerungen zu ziehen, da Tesla rackmounts ein ziemlich schlechtes Beispiel sind.

(Etwas mehr als) doppelt so viele MADD-Einheiten. Sonst gibt es schon einige Limitierungen wie die kaum skalierten SFUs, kaum skalierter Registerspeicher oder das wegfallende MUL.

Und jetzt kommen die "aber" oder Moment wohl doch noch nicht ;)

Das war bei einer GTX285 auch schon mindestens genau so stark der Fall.

Da aber die Tesla<->GeForce Vergleiche leicht in die Hose fallen koennten nur zur Erinnerung:

C10x0 = bis zu 800MHz GDDR3 (non EEC)
C20x0 = bis zu 1200MHz GDDR5 (EEC)

Wartet die A3 ab, dann sickert wohl durch ob es was gebracht hat oder die Teslas das Limit stellen. Wobei 448 ALUs @ 1,4 GHz samt den groben weiteren Daten bei gleicher Effizienz wie GT200 bereits für HD5870 < GTX380 < HD5970 reichen (sollten).

Ich werde mich zum neuesten Stand nicht aeussern bis jemand anders damit ankommt; es sieht auf jeden Fall immer nicht gut aus und ich sehe auch noch kein Licht am Ende des Tunnels.

Gast
2009-12-23, 11:30:16
Lucid *hust*
nicht mal das muss sein. kleine modifikationen am treiber reichen doch bisher völlig: http://extreme.pcgameshardware.de/grafikkarten/76699-mit-ati-und-nvidia-zusammen-physx-nutzen-anleitung.html

=Floi=
2009-12-23, 11:37:58
ich will keine bevormundung und ICH will einstellen was ich will. bei nv kann ich entscheiden ob ich TMAA oder TSAA haben will. zumindest läuft das immer (auch da wo kein SSAA funktioniert) und die exe will ich auch nicht umbenennen.

ich würde mir schon so eine karte kaufen, aber dazu muß das produkt besser werden. ich habe keine 8800GT, sondern eine 8800GTS 512 und das ist schon ein unterschied.

Ich bin auch nicht von den problemen des GT300 ausgegangen und erwartete ihm im Q4/2009. Es spielt schon eine gewisse rolle, wenn ein produkt 4-6 monate verspätung hat und sich dadurch alles verschiebt. Nebenbei erfüllt der chip dann auch nicht die erwartungen. wenn er im Q4/2009 mit 700/1700 gekommen wäre, dann wären alle euphorisch gewesen und die welt wäre in ordnung... ;)

reunion
2009-12-23, 11:41:36
Bisher waren nur die bis zu 620GFLOPs DP fuer 2070 bekannt. Ergo wohl eher ein Dilemma ob 512SPs@1200+MHz oder 448SPs@1400MHz. Die Antwort ist gleich in beiden Faellen: Stromverbrauch fuer ein rack mount mit bis zu 6GB 1200MHz EEC GDDR5.

512SPs@1200+MHz sollte jedenfalls sparsamer sein, siehe den Kommentar von DB. Das man trotzdem die 448SPs mit 1,4Ghz bringt deutet auf ziemliche Fertigungsschwierigkeiten hin. Auch kann man dann wohl für eine GTX380 an die 300W erwarten, wenn sie denn deutlich höher taktet als eine Tesla und mit vollen 512SPs kommt.


Ich werde mich zum neuesten Stand nicht aeussern bis jemand anders damit ankommt; es sieht auf jeden Fall immer nicht gut aus und ich sehe auch noch kein Licht am Ende des Tunnels.

Immer diese mystischen Andeutungen. Ein paar mehr Infos sollten doch machbar sein. :)

=Floi=
2009-12-23, 11:45:00
ail hat einfach zu wenig informationen. es bringt nichts ins blaue zu deuten, wenn A3 noch aussteht und es noch keine gesicherten informationen gibt.

Ailuros
2009-12-23, 11:46:17
512SPs@1200+MHz sollte jedenfalls sparsamer sein, siehe den Kommentar von DB. Das man trotzdem die 448SPs mit 1,4Ghz bringt deutet auf ziemliche Fertigungsschwierigkeiten hin. Auch kann man dann wohl für eine GTX380 an die 300W erwarten, wenn sie denn deutlich höher taktet als eine Tesla und mit vollen 512SPs kommt.

Dann liess gefaelligst auch silentguy's Kommentar durch, denn er hat auch eine weit bessere Vorstellung was chip-Herstellung betrifft als jeglicher Wavey.

Immer diese mystischen Andeutungen. Ein paar mehr Infos sollten doch machbar sein. :)

Ich hab dafuer schon gesorgt.

ail hat einfach zu wenig informationen. es bringt nichts ins blaue zu deuten, wenn A3 noch aussteht und es noch keine gesicherten informationen gibt.

Sagen wir mal dass ich eine Unzahl an komplett wertlosen Information momentan habe.

Sonyfreak
2009-12-23, 11:57:51
Weihnachts-Leakage gibt's wohl, daher das Geschnippel am Chip. ;) Noch ist aber nicht Weihnachten.Es ist aus Fps-Sicht sooo wayne, ob's nun 448 Knechte mit 1,4 GHz sind oder 512 mit 1,2x GHz. So und so hat das Teil auf dem Papier die doppelte Artithmetikleistung einer GTX 285. Gut auslastbare Leistung wohlgemerkt. Die Kiste müsste ernsthaft vermurkst sein, wenn da in Spielen nicht mindestens 50 Prozent mehr Dampf durchschlagen.Man selbst weiß aber, dass der Chip beschnitten wurde. Und dieses Wissen würde einem das Enthusiastenherz doch ziemlich schwer werden lassen. Erst recht weil man damit rechnen kann, dass später irgendwann noch eine komplette Version auf den Markt kommt. Daher bitte 512SPs. :biggrin:

mfg.

Sonyfreak

Soundwave1983
2009-12-23, 12:18:06
Also ZU Weihnachten gibts IMHO definitiv keinen GF100, egal in welcher Form.
Vielleicht kommt das geschnetzelte anfang Januar...wobei ich auch dabei so meine Zweifel habe.

Gast
2009-12-23, 12:23:04
welch grandiose schlussfolgerung man einen tag vor weihnachten ziehen kann.

Gast
2009-12-23, 12:44:43
Können froh sein wenn Sie in Las Vegas A3 Prototypen sehen, im März gibts dann den beschnittenen Fermi. Und die Ultravariante mit B2 kommt dann im July mit vollen 512SP ^^

Ailuros
2009-12-23, 12:50:32
Können froh sein wenn Sie in Las Vegas A3 Prototypen sehen, im März gibts dann den beschnittenen Fermi. Und die Ultravariante mit B2 kommt dann im July mit vollen 512SP ^^

CES hat afaik Tegra2 im Portofolio und vielleicht noch etwas ueber ION2. Falls etwas hinter geschlossenen Tueren unter NDA gezeigt wird, dann sind es die gleichen A2 basierende GPUs von denen Bilder NV von Zeit zu Zeit zeigt. Zum Rest ueber die angeblichen Beschneidungen siehe vorigen Post.

Armaq
2009-12-23, 13:06:13
Sicher ist, im neuen Jahr kommt etwas. Sicher nicht das was sich viele erhofften und auch nicht was andere verdienen. ;)

Gast
2009-12-23, 13:29:50
Sicher ist, im neuen Jahr kommt etwas.

richtig, hat ja nur 12 Monate das nächste Jahr :ugly:

boxleitnerb
2009-12-23, 13:47:51
Ich fürchte, den Überknaller bekommen wir nicht. Das erwähnte Fenster von +30%-60% auf GTX285 wäre imho sehr sehr schwach. 30%???

Gast
2009-12-23, 13:52:00
+30% wäre bissel peinlich die wäre dann nur so schnell/bissel schneller wie ne 4870X2 -_-

Raff
2009-12-23, 13:53:53
+30% wäre bissel peinlich die wäre dann nur so schnell/bissel schneller wie ne 4870X2 -_-

Die HD 4870 X2 ist heißer, lauter, stromschluckender, mikroruckelnder Müll (IMO). Der Vergleich hinkt. Aber vielleicht erhalten wir eine zweite FX 5800 Ultra bzw. HD 2900 XT.

Was wäre denn an "HD 5890"-Geschwindigkeit so schlecht? Die Leute bauen irgendwie zu hohe Erwartungen auf. Verstehe ich nicht.

MfG,
Raff

boxleitnerb
2009-12-23, 13:59:34
Ich vermisse eben seit längerem mal wieder einen richtigen Wow-Effekt. Nvidia hypt, AMD hat mit Eyefinity-Gaming imho unrealistische Vorstellungen befeuert...als Enthusiast will man sich eben was in den Rechner stecken, dass man sagen kann: DAS hat sich mal so richtig gelohnt.
Wer weiß, vielleicht sind wir auch alle zu verwöhnt ;)

derguru
2009-12-23, 14:12:50
was stellst du dir denn unter wow-effekt vor,speed-oder bq-technisch?
solang keine spiele kommen mit einem wow-effekt kannst du das vergessen.(crysis 2 wird mich auch nicht von den socken hauen,da brauch ich gar nicht die glaskugel auszupacken)

y33H@
2009-12-23, 14:15:40
BQ ist mit HQ-AF plus SSAA plus LOD-Verschiebung ja schon sehr gut, cool wäre mehr als 16:1, SGSSAA und internes Downsampling - das ginge dann halt mit jedem Spiel. "Einfach" 2560 auf 1680 runterrechnen. Einen Fps-Aha-Effekt mit SSAA hätte ich schon gerne, aktuelle Spiele mit 4x SGSSAA in 1920 packt die Radeon HD5870 halt auch lange nicht durchgehend.

Dural
2009-12-23, 14:18:00
edit
dural hatte auch hier schon ein custom design genommen...
[url]http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7706652&highlight=design#post7706652

das sind beides die ref. design von den karten, sorry aber was diskutiert ihr hier überhaupt mit wenn ihr ganz offensichtlich KEINE ahnung von grafkkarten habt???

komplett lächerlich was da zum teil für müll steht....

boxleitnerb
2009-12-23, 14:19:43
y33H@ hat schon die wichtigsten Punkte angesprochen. Um die Spielegrafik an sich gehts mir gar nicht, sondern um das Drumherum.

Internes Downsampling wäre echt genial! Ade Jaggies bei GTA4 und co und Rumgepfrimel mit Treibern, Betriebssystem, Monitoren, Hz-Einstellungen usw usf.

Etwas gegen Shaderaliasing wäre auch toll, aber da weiß ich gar nicht, ob das global machbar ist oder im Spiel programmiert werden müsste.

SSAA unter DX10...technisch möglich?

y33H@
2009-12-23, 14:23:12
Downsamling ist im Prinzip ja OGSSAA, warum sollte das unter DX10 nicht gehen. Aktuelle Spiele wie ArmA2 oder Serious Sam HD haben ja sogar SSAA mit drin. Aber ich bin leider nicht fit genug, um es 100% zu beantworten ;(

mapel110
2009-12-23, 14:23:29
SSAA unter DX10...technisch möglich?
Ja, nur muss es das Spiel selbst anfordern. Über Treiber forcen wirds weiterhin nicht geben.

boxleitnerb
2009-12-23, 14:28:55
Kann man die Anforderung nicht irgendwie faken? Wäre zu schön um wahr zu sein :)

tombman
2009-12-23, 14:33:35
Also wenn Downscaling als CP-Punkt kommt, kaufe ich Fermi EGAL MIT WELCHER LEISTUNG ;)
Dazu brauchts auch keine Game- oder DX-Anforderung, denn das Game denkt man spielt in 2560x1600 OHNE AA und der NV-Treiber skaliert das am Ausgang einfach auf 1920x1200 herunter und fertig. Das müßte völlig transparent mit jedem DX-Level gehen ;)

Damit könnte man JEDEN Konsolenport sofort aufhübschen *seufz*

boxleitnerb
2009-12-23, 14:52:57
Angenommen, es würde kommen, wären dann auch höhere Auflösungen als Ausgangsbasis möglich?

Dural
2009-12-23, 15:02:00
ja, wie so auch nicht, speicher hat fermi ja genug mit 1,5 bis 3GB

boxleitnerb
2009-12-23, 15:12:00
Gibts da nicht Probleme mit irgendwelchen Spezifikationen (DX, Ausgabe über DVI (theoretisch, wird ja so nicht gemacht beim Downsampling...)?

IVN
2009-12-23, 15:28:14
Das sollte eigentlich so ablaufen: das fertige Bild im Speicher wird noch ein mal zu den Shadern geschickt, wo es runtergerechnet wird. Erst dann wird es ausgegeben.

Damit sollte es keine Probleme, mit irgendwelchen Specs, geben. Die Frage ist aber, wie stark "haut das rein"?

Edit: Wenn man so betrachtet, wie rechenintensiv das Verkleinern eines Fotos in Photoshop/GIMP ist, könnte ich mir sehr gut vorstellen, das Downsampling die FPS um ein Vielfaches verringern könnte.

Gipsel
2009-12-23, 15:54:03
Dann liess gefaelligst auch silentguy's Kommentar durch, denn er hat auch eine weit bessere Vorstellung was chip-Herstellung betrifft als jeglicher Wavey.
Zur Erinnerung:
Take the extremes:
If you have a process with 0% leakage, slow clocked by higher area will most likely(!) be more power efficient than higher clock.
If 99% of your power consumption is leakage, your slower clock design probably(!) won't have a chance.
Was der gute Mann da aber unter den Tisch fallen läßt, ist daß ein niedriger getakteter Chip oft mit deutlich niedrigerer Spannung betrieben werden kann. Das beeinflußt ja nicht nur den Stromverbrauch durch die schaltenden Transistoren, sondern auch sehr stark die Leckströme ;)

Sprich, breiter, weniger Takt und weniger Spannung gewinnt auch bei ausgeprägten Undichtigkeiten des Prozesses meistens dann doch gegenüber der schmaleren Variante mit hohem Takt und hoher Spannung. Zumindest wenn man nicht sowieso schon im unteren Bereich des Schmoo-Plots rumgurkt.

mapel110
2009-12-23, 16:00:59
Zur Erinnerung:

Was der gute Mann da aber unter den Tisch fallen läßt, ist daß ein niedriger getakteter Chip oft mit deutlich niedrigerer Spannung betrieben werden kann. Das beeinflußt ja nicht nur den Stromverbrauch durch die schaltenden Transistoren, sondern auch sehr stark die Leckströme ;)

Die Spannung kann man nicht beliebig weit absenken wie den Takt. Es gibt ein Minimum, was der Chip braucht, um überhaupt zu funktionieren und das ist meist nicht sehr niedrig.
Ist zumindest meine Erfahrung was Undervolting bei CPUs betrifft. Die werden trotz deutlicher Taktabsenkung bei zu niedriger Spannung schnell instabil.

Dural
2009-12-23, 16:09:21
naja wenn sogar die GT200 mit 1,0Volt ohne probleme laufen dürfte ein 40nm Chip bei nidrigem takt auch ohne probleme unter 1,0Volt lauffähig sein.

NV wird sogar unter 1,0Volt gehen müssen, wie will man den sonst eine GX2 karte auf die beine stellen!

so wie das derzeit ausschaut könnte eine GF100 GX2 karte in etwa so ausschauen:

512SP 384Bit
2000MHz Speicher
500MHz ROP
1200MHz Shader
bei ca. 0,9Volt
würde wohl knapp unter 300watt kommen, NV wird aber so in die selben probleme wie AMD mit der 5970 kommen, da man sich einfach fragen muss wo der sinn bei einer dual GPU karte noch ist und es nicht besser wäre eine richtig hoch getaktete single GPU zu verwenden....

ein single chip GF100 mit ca. 700MHz ROP und 1700MHz Shader und 2600MHz Speicher und villeicht 1,1Volt (egal ob jetzt stock oder User OC) dürfte in den fühlbaren FPS schon vorne liegen...

reunion
2009-12-23, 16:24:15
naja wenn sogar die GT200 mit 1,0Volt ohne probleme laufen dürfte ein 40nm Chip bei nidrigem takt auch ohne probleme unter 1,0Volt lauffähig sein.

NV wird sogar unter 1,0Volt gehen müssen, wie will man den sonst eine GX2 karte auf die beine stellen!

so wie das derzeit ausschaut könnte eine GF100 GX2 karte in etwa so ausschauen:

512SP 384Bit
2000MHz Speicher
500MHz ROP
1200MHz Shader
bei ca. 0,9Volt
würde wohl knapp unter 300watt kommen, NV wird aber so in die selben probleme wie AMD mit der 5970 kommen, da man sich einfach fragen muss wo der sinn bei einer dual GPU karte noch ist und es nicht besser wäre eine richtig hoch getaktete single GPU zu verwenden....

ein single chip GF100 mit ca. 700MHz ROP und 1700MHz Shader und 2600MHz Speicher und villeicht 1,1Volt (egal ob jetzt stock oder User OC) dürfte in den füllbaren FPS schon vorne liegen...

Wie es derzeit ausschaut bist du ganz schon weit von der Realität weg. Bei den 225W der Tesla-Karten würde wohl schon ein GF100 mit den von dir angegebenen Taktraten plus 512SPs die 300W sprengen. Eine GX2 würde ich unter den Voraussetzungen erstmal nicht erwarten.

Dural
2009-12-23, 16:29:14
muss nicht sein, die Tesla sollen ja was mit 600MHz / 1400MHz bei 1,05Volt haben und bei diesem takt muss etwas spielraum nach oben vorhanden sein plus etwas mehr spannung machen diesen takt wohl schon irgendwie möglich, hab ja auch mit absicht was von User OC geschriben und dem ist es egal ob die Karte über 300Watt geht oder nicht ;)

klar eine GX2 kann man auch übertakten... aber da sind wir dann bei 400Watt+ ;)

aths_ohne_Login
2009-12-23, 16:32:38
Wohl kaum ;) Was mich interessiert: Beim G200 hing der Scheduler-Takt am TMU-Takt, hat man nur den TMU-Takt erhöht, legten die reinen FLOPS zu.Der Scheduler-Takt ist der halbe Shader-Takt und ergibt sich nicht aus dem TMU-Takt.

Knuddelbearli
2009-12-23, 16:33:37
vergiss es
wenn der GF100 so komtm wie mom bedacht wird es sicherlich keine X2 geben schon gar nit so eine wie deine.

bedenke schon ati musste takt um ca 15% senken und ihre single karte hat nur nen verbrauch von ca 180W. Bereits die Tesla hat aber 225W bei Reduziertem Takt und reduzierten ausführungseinheiten und dort kann man sich das selektieren dank preise von über 4000$ eher leisten. die GTX 380 wird wohl eher bei um 250W liegen

reunion
2009-12-23, 16:34:53
Die Teslas kommt mit 1,4Ghz bei 448SPs. Den Coretakt weiß man nicht AFAIK.

y33H@
2009-12-23, 16:36:13
@ aths

100% sicher?

Dural
2009-12-23, 16:36:40
vergiss es
wenn der GF100 so komtm wie mom bedacht wird es sicherlich keine X2 geben schon gar nit so eine wie deine.

bedenke schon ati musste takt um ca 15% senken und ihre single karte hat nur nen verbrauch von ca 180W. Bereits die Tesla hat aber 225W bei Reduziertem Takt und reduzierten ausführungseinheiten und dort kann man sich das selektieren dank preise von über 4000$ eher leisten. die GTX 380 wird wohl eher bei um 250W liegen

klar ist das möglich, siehe auch GT200:

GTX280 ---> GTX285 ---> GTX295

wo ist der unterschid? und komm jetzt ja nicht das hat 55nm erst ermöglicht...

Bei der GTX280 sah das ja noch düster aus, nur 600MHz ROP und 1300MHz Shader bei 225Watt und was hatte die 295 dann für einen takt, der ist nicht mal so weit weg von der 280er... und die TESLA karten takten immer etwas nidriger, müssen sie auch den fehler darf es hier sicher keine geben!

reunion
2009-12-23, 16:41:38
Bei der GTX280 sah das ja noch düster aus, nur 600MHz ROP und 1300MHz Shader bei 225Watt und was hatte die 295 dann für einen takt, der ist nicht mal so weit weg von der 280er...

65nm vs. 55nm oder auch Äpfel/Birne. Die GTX285 hatte eine TDP von 183W, trotzdem wurde die GTX295 deutlich abgespeckt um unter 300W zu bleiben.

und die TESLA karten takten immer etwas nidriger, müssen sie auch den fehler darf es hier sicher keine geben!

Taten sie eben nicht in der Vergangenheit.

Dural
2009-12-23, 16:43:59
siehste da kommt schon der erste, 55nm hat gerade gar nichts gebracht siehe dazu auch B2! B3 und die resultate davon sind alle schwer erarbeitet worden.

gibt es eine Tesla mit GTX285 takt? wär mir jetzt aber neu!

TDP der GTX260 oder 275??? na fällt was auf?

aths_ohne_Login
2009-12-23, 16:52:21
@ aths

100% sicher?Ja, da sonst bei einer Steigerung des Shader-Taktes sofern er bereits oberhalb von TMU-Takt mal zwei liegt, keine Steigerung der Rechenleistung möglich wäre.

Damien Triolet erklärt auf Behardware, wie der Scheduler die Auslastung entweder auf Branching-Performance oder auf Dual-Issue optimieren kann: http://www.behardware.com/articles/723-6/product-review-the-nvidia-geforce-gtx-280-260.html

Dural
2009-12-23, 16:55:11
ach ja NV gibt für C1060 und C2070 um die 190Watt an.

reunion
2009-12-23, 16:58:31
ach ja NV gibt für C1060 und C2070 um die 190Watt an, nur MAX Power wirt mit 225Watt angegeben.

MAX Power ist die TDP, NV gab bis jetzt nur MAX Power an und keine typischen Verbrauch. Aber die Diskussion ist sinnlos. EoD für mich.

Knuddelbearli
2009-12-23, 16:59:04
Komm mir bitte nicht damit was der grund dafür ist

*rofl* ^^

Dural
2009-12-23, 17:05:04
lol von wo kommen die 225TDP überhaupt her???

habe jetzt gerade noch mal die NV dokumente angeschaut und da wird nirgents erwähnt das die karten eine TDP von 225Watt haben!!!!!

sondern nur:

Board power dissipation: < = 225 W

was wohl einfach die PCI-E spezifikationen sind.....

wieder typisch wird irgend eine zahl als Fakt angenommen obwohl das so gar nirgents steht....

und was < = 225 W bedeutet sollte allen klar sein...

reunion
2009-12-23, 17:12:29
lol von wo kommen die 225TDP überhaupt her???

habe jetzt gerade noch mal die NV dokumente angeschaut und da wird nirgents erwähnt das die karten eine TDP von 225Watt haben!!!!!

sondern nur:



was wohl einfach die PCI-E spezifikationen sind.....

wieder typisch wird irgend eine zahl als Fakt angenommen obwohl das so gar nirgents steht....

und was < = 225 W bedeutet sollte allen klar sein...

Stell dich nicht blöd:
http://www.computerbase.de/bildstrecke/27497/23/

Dural
2009-12-23, 19:47:02
stell dich nicht blöd an!

225Watt ist das max was die PCI-E Spezifikationen mit 1x 8-Pin oder 2x 6-Pin zulassen und somit sind karten die diese Stecker kombi haben für max 225Watt ausgelegt, ganz logisch...

Die TDP für die C2050 und C2070 ist wohl noch gar nicht festgelegt, deswegen auch das ca. 190watt!

es sollte eigentlich jeden auffallen das für C2050 und C2070 NV die selben werte angibt, eben max 225Watt! was ja aber unmöglich für beide der fall sein kann, da man deutliche unterschide im takt und speicher hat.


das hier ist ja wohl sehr eindeutig und nicht ein < = 225Watt wie bei fermi

http://img684.imageshack.us/img684/7302/dfgdgb.jpg

http://img687.imageshack.us/img687/667/hfjdjdj.jpg

finds richtig cool, da wird seiten lang über ein wert diskutiert den es so bis jetzt noch gar nicht gibt....

AnarchX
2009-12-23, 19:54:36
Der Unterschied zwischen C2050 und C2070 dürfte wohl eher die Speicherausstattung sein, die Taktrate kann dann wohl der Käufer entsprechend seines Power-Budget konfigurieren.

reunion
2009-12-23, 19:59:37
stell dich nicht blöd an!

225Watt ist das max was die PCI-E Spezifikationen mit 1x 8-Pin oder 2x 6-Pin zulassen und somit sind karten die diese Stecker kombi haben für max 225Watt ausgelegt, ganz logisch...

Die TDP für die C2050 und C2070 ist wohl noch gar nicht festgelegt, deswegen auch das ca. 190watt!

es sollte eigentlich jeden auffallen das für C2050 und C2070 NV die selben werte angibt, eben max 225Watt! was ja aber unmöglich für beide der fall sein kann, da man deutliche unterschide im takt und speicher hat.

Es steht auf der Folie von NV weiß auf grün 190W typisch, 225W maximal. In dem Dokument steht unter Board Verlustleistung <=225W. Nicht zu verwechseln mit <225W. Das < steht wohl ganz einfach für geringere Taktraten. Es ist eindeutig was damit gemeint ist, das die 225W genau den Spezifikationen entsprechen zeigt höchstens das NV das Maximum aus den vorhandenen Spezifikationen heraus holen will. NV gibt ja auch bei allen anderen Karten nicht das an was maximal mit den Steckern-Spezifikationen möglich ist, sondern eben die maximale Board Verlustleistung. Das wäre ja auch vollkommen irrsinnig und vorallem nutzlos. Wenn du das nicht einsehen willst dann kann ich dir auch nicht helfen. Warte doch einfach ab.

Der Unterschied zwischen C2050 und C2070 dürfte wohl eher die Speicherausstattung sein, die Taktrate kann dann wohl der Käufer entsprechend seines Power-Budget konfigurieren.

Richtig, und da der einzige Unterschied 1024Mbit vs. 2048Mbit-Chips sein wird, wird auch die Verlustleistung weitgehend identisch sein. Deshalb wartet man ja gezwungenermaßen auch bis zum Q3.

finds richtig cool, da wird seiten lang über ein wert diskutiert den es so bis jetzt noch gar nicht gibt....

Du bist es der hier Behauptungen aufstellt und gleichzeitig Fakten von NV selbst ignoriert. Das finde ich durchaus lustig.

Dural
2009-12-23, 20:05:42
sie du es ein, der wert sagt ganz klar das max 225w möglich sind und nicht das es so ist!

sonst würde ja wohl der exakte wert wie bei C1060 sogar mit komma angabe stehen!

die TDP ist noch gar nicht FIX und genau das sieht man aus den dokumenten hervor!

übrigens wie kann man eine TDP festlegen von dem man noch gar kein Chip hat? A3 fehlt immer noch ;)

reunion
2009-12-23, 20:10:46
Warte doch einfach ab, für mich ist hier EoD. Wenn du das nicht einsehen willst dann bitte. Aber natürlich gibt NV die Steckerspezifikationen an, das wäre zwar völlig grotesk aber dann ist immerhin Durals Welt wieder in Ordnung.

Gast
2009-12-23, 20:16:35
Was haben 225Watt mit der PCIe-Spezifikation zu tun? Und ob das Board nun 8+6 Stecker hat oder 8+8 Stecker oder 12+24 und 1000 Watt frisst, was hat das mit max PCIe-Spezifikation zu tun?

MfG

Dural
2009-12-23, 20:17:18
Der Unterschied zwischen C2050 und C2070 dürfte wohl eher die Speicherausstattung sein, die Taktrate kann dann wohl der Käufer entsprechend seines Power-Budget konfigurieren.

ist möglich, aber dä wären 1500.- Doller aufpreis für 3GB Speicher richtig heftig!

Warte doch einfach ab, für mich ist hier EoD. Wenn du das nicht einsehen willst dann bitte. Aber natürlich gibt NV die Steckerspezifikationen an, das wäre zwar völlig grotesk aber dann ist immerhin Durals Welt wieder in Ordnung.

die genaue TDP wird noch folgen, kleine wette?

AnarchX
2009-12-23, 20:22:44
ist möglich, aber dä wären 1500.- Doller aufpreis für 3GB Speicher richtig heftig!
2048Mbit GDDR5 ECC Chips sind keine Massenware.
Auch bei der C2050 schlägt sich dies wohl nieder, $2499 sind auch um einiges mehr als die $1500 der G80 C870 mit 1.5GiB oder die $1699 der C1060 mit 4GiB.

Dural
2009-12-23, 20:32:31
naja aber 1500.- nur für mehr speicher... ich weis nicht so recht, denke nicht das hier die taktraten gleich bleiben

DavChrFen
2009-12-23, 21:43:05
Naja, im High-Performance-Bereich kann es sich IMHO schon lohnen 1500 für mehr Speicher auszugeben. Ist jedenfalls besser, als wenn sich die Tesla-Karte das Zeug vom Hauptspeiher holen muß und dadurch die Rechenleistung in den Keller geht.

mapel110
2009-12-24, 03:03:18
http://forum.beyond3d.com/showpost.php?p=1372062&postcount=2442
From chiphell (http://bbs.chiphell.com/viewthread.php?tid=64351):

Post #66 cfcnc:
顺路发个消息,TSMC的圣诞礼物- Fermi A3已经顺利出样
Conveniently to issue this news, TSMC to give Christmas present -Fermi A3 already smoothly to come out shape(?)

Post #69 tomsmith in reply:
有个不太好的消息,符合2070 频率目标的比例还不理想,做成2050 的稍微多一点
To have this not so good news, in accordance with the 2070 frequency goal proportion still not ideal, to turn into 2050 a little bit too many.

Quick analysis: A3 out in time for christmas, plenty chips of C2050 ability(~1200Ghz shaders), not enough of C2070 quality available(~1400Mhz shaders).
A3 hat Besserung gebracht, aber die Ausbeute an höher getakteten Chips ist wohl unter den Erwartungen geblieben.

/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?

Gipsel
2009-12-24, 06:01:08
Die Spannung kann man nicht beliebig weit absenken wie den Takt. Es gibt ein Minimum, was der Chip braucht, um überhaupt zu funktionieren und das ist meist nicht sehr niedrig.
Ist zumindest meine Erfahrung was Undervolting bei CPUs betrifft. Die werden trotz deutlicher Taktabsenkung bei zu niedriger Spannung schnell instabil.
Schau Dir mal den zweiten Teil (den Du beim Zitieren weggelassen hast) meines Beitrags an, insbesondere den letzten Satz ;)

Gast
2009-12-24, 08:00:00
http://forum.beyond3d.com/showpost.php?p=1372062&postcount=2442

A3 hat Besserung gebracht, aber die Ausbeute an höher getakteten Chips ist wohl unter den Erwartungen geblieben.

/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?


Das was Ailuros schon immer sagt, bei GPU Herstellern wird erst als allerletztes auf die Taktrate geschaut. Erstmal gescheite Yields hinbekommen, was nun gelang. Wenn auch mit einer geringeren Taktrate als angedacht, aber das ist bei jeder GPU bisher der Fall gewesen.

reunion
2009-12-24, 09:18:53
http://forum.beyond3d.com/showpost.php?p=1372062&postcount=2442

A3 hat Besserung gebracht, aber die Ausbeute an höher getakteten Chips ist wohl unter den Erwartungen geblieben.

Wo steht da was das A3 Besserung gebracht hat? Das einzige was ich da lese ist das A3 jetzt offensichtlich sein Tapeout hatte und man nicht genug Chips heraus bekommt die 1,4Ghz erreichen.


/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?

Offensichtlich zielt man jetzt auf höhere Taktraten. Wie auch immer man das anstellen will. A4?

V2.0
2009-12-24, 10:38:04
Also ist A3 immer noch nicht reif für den Launch. Also weitere 6-8 Wochen später. Also Mai-Juli.

Ailuros
2009-12-24, 10:55:19
Zur Erinnerung:

Was der gute Mann da aber unter den Tisch fallen läßt, ist daß ein niedriger getakteter Chip oft mit deutlich niedrigerer Spannung betrieben werden kann. Das beeinflußt ja nicht nur den Stromverbrauch durch die schaltenden Transistoren, sondern auch sehr stark die Leckströme ;)

Sprich, breiter, weniger Takt und weniger Spannung gewinnt auch bei ausgeprägten Undichtigkeiten des Prozesses meistens dann doch gegenüber der schmaleren Variante mit hohem Takt und hoher Spannung. Zumindest wenn man nicht sowieso schon im unteren Bereich des Schmoo-Plots rumgurkt.

Wir sprechen aber ueber ein Dokument dass am 16/11 geschrieben wurde. Zu dem Zeitpunkt war A2 gerade ~2 Wochen alt.

http://forum.beyond3d.com/showpost.php?p=1372062&postcount=2442

A3 hat Besserung gebracht, aber die Ausbeute an höher getakteten Chips ist wohl unter den Erwartungen geblieben.

/edit
Let's just say that we'd urge more focus on our clocks, at the very least for GeForce products.

Wie übersetzt man den Satz am besten?

Das chiphell "Geruecht" bezieht sich aber komischerweise auf die im 16/11 pdf erwaehnten Frequenzen. Entweder hat A3 gar nichts Neues auf den Tisch gebracht oder jemand zieht mit alten Daten sich ein Geruecht aus dem Hintern.

Was ist so schwer an dem Satz zu uebersetzen? Es ist wohl offensichtlich dass GeForces hoehere Frequenzen haben werden als Quadros und noch mehr als Tesla Produkte.

Gast
2009-12-24, 11:12:02
Also ist A3 immer noch nicht reif für den Launch. Also weitere 6-8 Wochen später. Also Mai-Juli.

Wenn die Nachricht stimmt ist die Ausbeute für 1200MHz Taktziel gut, für 1400MHz aber noch zu schlecht.

A3 ist damit auf jeden Fall Produktionsreif, auch wenn wir vielleicht einen weiteren Respin für eine spätere "Ultra"-Variante sehen werden.

Ailuros
2009-12-24, 11:15:57
http://www.facebook.com/NVIDIA?ref=nf

NVIDIA Happy Holidays GeForce fans! Fun fact: GF100 supports a brand new 32x anti-aliasing mode for ultra high-quality gaming!

8xMSAA+24xCSAA? Ich weiss zwar nicht was damit gemeint ist, aber vom Hocker reisst mich die Meldung so oder so nicht.

reunion
2009-12-24, 11:19:27
Mehr Samples reißen schon lange niemanden mehr vom Hocker. Vielleicht ein synonym für einen besseren Downsamplingfilter, dann wäre es spannend.

AnarchX
2009-12-24, 11:27:53
Vielleicht auch eine Art Edge Detection.
Ansonsten wäre vielleicht auch das 32x AA auf Basis von 16x(Q) von SLI auf einer Single-Karte möglich, in dem man bei jedem Frame die Sample leicht rotiert, was dann aus BQ-Sicht natürlich sehr sinnfrei wäre.

Ailuros
2009-12-24, 11:29:06
Mehr Samples reißen schon lange niemanden mehr vom Hocker. Vielleicht ein synonym für einen besseren Downsamplingfilter, dann wäre es spannend.

Tja am besten waere ein edge detect custom filter, aber ich bezweifle dass sie so weit gegangen sind. IMO werden sie coverage AA nicht so leicht aufgeben und der Aufwand fuer schnelleres edge detect CFAA als bei AMD waere diametrisch groesser.

Unter der Vorraussetzung dass ich in die richtige Richtung spekuliere, muss erstmal 8xMSAA Leistung sich um einiges verbessert haben. Unter dieser Vorraussetzung duerfte der 24xCSAA Zusatz nur minimal an zusaetzlichem Speicher und Bandbreite gegenueber 8xMSAA kosten.

Ergo wenn wahr etwas dass sich qualitativ ein gutes Stueck vom heutigen 16x AA (4xMSAA + 12xCSAA) absetzt.

Vielleicht auch eine Art Edge Detection.

Oder eine Art MLAA, wobei ich immer noch nicht als Laie geschnallt habe worueber es sich genau diesbezueglich handelt. Gibts eigentlich einen relevanten thread im Technologie-Forum?

Ansonsten wäre vielleicht auch das 32x AA auf Basis von 16x(Q) von SLI auf einer Single-Karte möglich, in dem man bei jedem Frame die Sample leicht rotiert, was dann aus BQ-Sicht natürlich sehr sinnfrei wäre.

Zu Speicher- bzw. Bandbreiten-hungrig (siehe weiter oben).

AnarchX
2009-12-24, 11:53:51
Oder eine Art MLAA, wobei ich immer noch nicht als Laie geschnallt habe worueber es sich genau diesbezueglich handelt. Gibts eigentlich einen relevanten thread im Technologie-Forum?

MLAA kann imo nicht wirklich überzeugen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7710690#post7710690
Für die Konsolen vielleicht brauchbar, aber auf dem PC hat man da doch höhere Ansprüche.

Und ob so ratsam wäre für NV, die schon so knappe SP-Leistung in soetwas zu investieren? ;)

mapel110
2009-12-24, 12:09:07
Wo steht da was das A3 Besserung gebracht hat?

Eben jetzt endlich produktionsreif, also überhaupt genug Ausbeute an funktionierenden Chips. Hatte man bei A2 ja bei weitem nicht.
http://www.facebook.com/NVIDIA?ref=nf

Wenn das schon das beste Feature ist, dass man an Heiligabend als Geschenk auspackt, dann braucht man ja keine großen Hoffnungen auf neue Features zu haben.

Dimon
2009-12-24, 12:20:10
Es kommt doch eher daruf an was sich hinter 32x FSAA versteckt, die frage ist aber ob sich dahinter überhaupt was versteckt....

Coda
2009-12-24, 13:41:23
Wenn NVIDIA es direkt sagt wird schon was dran sein.

Wenn das schon das beste Feature ist, dass man an Heiligabend als Geschenk auspackt, dann braucht man ja keine großen Hoffnungen auf neue Features zu haben.
Das Problem ist: Was willst du denn sonst noch bringen? Außer Anti-Aliasing und Texturfilterung (und evtl. Stereo-3D) bleibt doch nichts mehr. Der Rest ist ohnehin komplett programmierbar.

Vorgegebene und fest implementierte Downsampling-Filter werden mit dem nächsten D3D meiner Meinung nach auch verschwinden. Dann ist das eine reine Applikations-Geschichte.

Gast
2009-12-24, 13:42:13
Ganz egal. mehr als 8 Samples sind einfach über.
Man muss nur erreichen das so gut wie alles geglättet wird wo es nötig ist (ohne gleich die große Keule zu schwingen). Shaderaliasing, Alphatests, etc.pp. Das verranzt das ganze Bild. Für Geometriekanten reicht mir sogar 4x MSAA.