Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2009-12-08, 15:07:34
Die GeForce GTX 360 hat fast die selbe Füllrate und Speicherbandbreite wie eine Radeon 5870, von der Shaderleistung ganz zu schweigen.

Das die Radeon 5870 von der GTX 360 geschlagen wird ist ziemlich unwahrscheinlich.

Das sieht man auch am Preis 379 gegen 399

Gast
2009-12-08, 15:13:59
GTX360
16 vs 12 Streamprozessoren, ok 1/4 weniger ist happig, dachte eher an eine 14er Karte. Aber die GPU hat doch dann ein ganz anderes Verhältnis zwischen ROPs und ALUs als die GTX380. Irgendwie drückt die Karte für 3Mrd. Transistoren nicht so aufs Gaspedal wie erhofft...

Die GTX260 war nicht so sehr beschnitten, da warens 240 vs 192 Streamprozessoren (vs GTX280). Auch wenn bei den alten Karten der Coretakt um 25Mhz sich unterschied, bei den neuen wird das sicher auch der Fall sein...

LovesuckZ
2009-12-08, 15:18:43
GTX360
16 vs 12 Streamprozessoren, ok 1/4 weniger ist happig, dachte eher an eine 14er Karte. Aber die GPU hat doch dann ein ganz anderes Verhältnis zwischen ROPs und ALUs als die GTX380. Irgendwie drückt die Karte für 3Mrd. Transistoren nicht so aufs Gaspedal wie erhofft...

8800GTS hatte auch nur 6 statt 8 Cluster. Dagegen aber 20 ROPs statt 24 ROPs.


Die GTX260 war nicht so sehr beschnitten, da warens 240 vs 192 Streamprozessoren (vs GTX280). Auch wenn bei den alten Karten der Coretakt um 25Mhz sich unterschied, bei den neuen wird das sicher auch der Fall sein...

Weil sie dann langsamer als die 9800GTX+ gewesen wäre.

Tarkin
2009-12-08, 15:20:04
GTX 380 15% schneller als 5970 ... wers glaubt wird seelig :rolleyes:

LovesuckZ
2009-12-08, 15:23:35
Stimmt - da waren die 1760% zur 4870 wesentlich glaubwürdiger, die von einigen hier losgetreten wurden sind. :rolleyes:

anddill
2009-12-08, 15:24:57
GTX 380 15% schneller als 5970 ... wers glaubt wird seelig :rolleyes:

Könnten wir alle einfach mal auf Benchmarks warten, bevor wir die Performance kommentieren.

PulsarS
2009-12-08, 15:42:25
Könnten wir alle einfach mal auf Benchmarks warten, bevor wir die Performance kommentieren.
Wenn Benchmarks da sind, dann ist es keine Spekulation mehr. ;)
Es wird doch wohl erlaubt sein anhand der technischen Daten zu spekulieren, oder nicht? :)

AnarchX
2009-12-08, 15:54:17
Wenn sie 15% schneller wäre, was dann von den gefühlten FPS wohl noch um einiges mehr wäre, dann würde man wohl kaum nur $499 (im Januar) verlangen. Im Endeffekt handelt es sich hier nur um eine Spekulation auf Basis schon bestätigter Daten.

Im Worst-Case gibt es dann vielleicht einen 600/1300/1100MHz Fermi im Q2, der sich knapp vor eine HD5870 setzt, und die knappe Verfügbarkeit an HD 5800 zieht sich ins Q1 hinein.

Da sieht 2010 wohl eher duster aus im Bezug auf die gebotene Grafikleistung fürs Geld:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post719928
... von der Vergangenheit aus betrachtet, müsste eigentlich Anfang April eine HD5970/50(~ 2x 4870) bzw. eine GeForce 380/370 (~2x GTX 260?) für 150€ über den Ladentisch gehen. Aber das wird wohl nicht passieren und so sich der Trend von 2008 zu 2009 noch verschärft fortsetzen...

Armaq
2009-12-08, 16:11:21
Wir sind ja auch im SpeKu-Forum. Fermi wird halt keine Spieler-Karte.

Sorkalm
2009-12-08, 16:21:43
Da sieht 2010 wohl eher duster aus im Bezug auf die gebotene Grafikleistung fürs Geld:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post719928
... von der Vergangenheit aus betrachtet, müsste eigentlich Anfang April eine HD5970/50(~ 2x 4870) bzw. eine GeForce 380/370 (~2x GTX 260?) für 150€ über den Ladentisch gehen. Aber das wird wohl nicht passieren und so sich der Trend von 2008 zu 2009 noch verschärft fortsetzen...

Den Trend da bekommt man aber nur hin, wenn man sieht, dass die Dice bisher immer größer geworden sind und auch die Leistungsaufnahme hat sich ja seit 1999 etwas erhöht. Wenn man das mal mit etwa gleich großen / gleich viel verbrauchenden Chips (OK, wird schwierig :tongue: ) macht, sähe das Ergebnis bestimmt anders aus.
Gut, die steigenden Die-Größer kriegt man über die größeren Wafer sicher etwas ausgeglichen, das Problem der Leistungsaufnahme bleibt aber.

LovesuckZ
2009-12-08, 16:24:03
Wir sind ja auch im SpeKu-Forum. Fermi wird halt keine Spieler-Karte.

Schade, nachdem schon AMD mit Cypress keine rausgebracht hat. :(


Im Worst-Case gibt es dann vielleicht einen 600/1300/1100MHz Fermi im Q2, der sich knapp vor eine HD5870 setzt, und die knappe Verfügbarkeit an HD 5800 zieht sich ins Q1 hinein.

Das ist kein Worst-Case, das ist schon fast schwachsinn. Knapp vor der 5870 würde 35% zur GTX285 bedeuten. Mit den Daten wäre man mindesten 31,125% schneller als eine GTX285 und 5870, wenn die Speicherbandbreite als kleinste Erhöhung limitieren würde.

Wenn sie 15% schneller wäre, was dann von den gefühlten FPS wohl noch um einiges mehr wäre, dann würde man wohl kaum nur $499 (im Januar) verlangen. Im Endeffekt handelt es sich hier nur um eine Spekulation auf Basis schon bestätigter Daten.

Nun, zeige mir dochmal, wo nVidia und AMD auf diese Problematik hinweisen? Es interessiert niemanden und erst nicht die Käufer der Karte.

AnarchX
2009-12-08, 16:25:06
In a keynote speech at the International Electron Devices Meeting (IEDM) going on in Baltimore this week, Chen said Nvidia's 40 nm graphics processor has 3.2 billion transistors, up from ~1 million transistors in 1993 when the company was founded. Although the increasing transistor count has allowed near photo-realistic moving graphics, [...]
http://www.semiconductor.net/article/print/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects.php


Gut, die steigenden Die-Größer kriegt man über die größeren Wafer sicher etwas ausgeglichen, das Problem der Leistungsaufnahme bleibt aber.
Mit externen Grafikboxen wären GraKas mit >1kW kein Problem. ;D
Aber da hast du schon recht, hier läuft man bald an eine Grenze. Siehe auch den Artikel über die Keynote von Chen.

Dural
2009-12-08, 16:32:22
Geforce GTX 380

http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3034

GeForce GTX 360

http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3035

Weder von Fuad, Theo noch Charlie. Wird dann wohl stimmen. ;D

möcht ich gerne glauben, aber eine GTX 380 soll 15% schneller sein als eine 5970? das hört sich einfach zu gut an!!!

wenn es so ist, na dann gute nacht für AMD... wenn es so wäre würde die Karte eh 599.- oder mehr kosten...

@Ailuros
der preis für die GTX360 mit der selben Leistung wie die 5870 dürfte voll OK sein! zu nidrig seh ich da überhaupt nichts! man hat schlisslich auch 280MB mehr Speicher und ist 30Doller teurer als die 5870 jetzt! die aber sobald GTX 360 da ist sicher noch etwas im Preis fallen wird...

Raff
2009-12-08, 16:32:47
GTX 380 15% schneller als 5970 ... wers glaubt wird seelig :rolleyes:

Wenn man das Mikroruckeln bei der HD 5970 abzieht sogar ganz sicher. Eine Single- mit einer Multi-GPU-Karte zu vergleichen bleibt Bullshit, bis das AFR-Geruckel beseitigt wird. Viel interessanter ist: Wie wie schneller/langsamer ist Furby im Vergleich mit einer HD 5870 oder kommenden HD 5890? Bietet Furby ebenfalls SGSSAA? Eventuell kombiniert mit Hybridmodi? Wie sieht's mit dem AF aus? Fragen über Fragen. Fps allein sind sooo wayne.

möcht ich gerne glauben, aber eine GTX 380 soll 15% schneller sein als eine 5970? das hört sich einfach zu gut an!!!

wenn es so ist, na dann gute nacht für AMD... wenn es so wäre würde die Karte eh 599.- oder mehr kosten...

15 Prozent ... ein Wert, der gar nichts aussagt. Im Schnitt von 100 Spielen? Eher nicht. Nur bei Crysis? Möglich. Vielleicht ist die X2 ja in Dirt 2 etwa 20 Prozent schneller? All das wissen wir nicht. Erreicht die GTX 380 mit nur einer GPU durchschnittlich die angezeigten Fps-Raten einer HD 5970, wäre sie klar die schnellste Karte.

MfG,
Raff

LovesuckZ
2009-12-08, 16:37:39
15 Prozent ... ein Wert, der gar nichts aussagt. Im Schnitt von 100 Spielen? Eher nicht. Nur bei Crysis? Möglich. Vielleicht ist die X2 ja un Dirt 2 etwa 20 Prozent schneller? All das wissen wir nicht. Erreicht die GTX 380 mit nur einer GPU durchschnittlich die angezeigten Fps-Raten einer HD 5970, wäre sie klar die schnellste Karte.

MfG,
Raff

GF100 muss nur in einem Radius von 90%-100% der Leistung von Hemlock liegen, um Hemlock vollkommen überflüssig werden zu lassen. Ein mGPU System auf Basis von AFR hat überhaupt keinen Reiz, wenn eine Single-GPU in der Nähe der Werte liegt.

Dural
2009-12-08, 16:45:10
ich behaupte jetzt mal das eine GTX 380 nicht so viele FPS im durchschnitt erreicht wie eine 5970! Aber alles egal, Fermi gewinnt schon wenn er 10% schneller als eine 5870 ist ;)

Zudem dürfte der mehr Speicher bei Fermi positiv bemerktbar sein

Schlammsau
2009-12-08, 16:46:17
Geforce GTX 380

http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3034

GeForce GTX 360

http://www.brightsideofnews.com/comment/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx#3035

Weder von Fuad, Theo noch Charlie. Wird dann wohl stimmen. ;D

:ulol2:
Vielleicht bei GPU-Computing.....

Coda
2009-12-08, 16:49:05
Gerade bei Computing dürfte ATI erhebliche Vorteile haben durch die brachiale Rechenleistung.

Bei 3D ist da noch gar nichts sicher.

reunion
2009-12-08, 16:49:55
ich behaupte jetzt mal das eine GTX 380 nicht so viele FPS im durchschnitt erreicht wie eine 5970! Aber alles egal, Fermi gewinnt schon wenn er 10% schneller als eine 5870 ist ;)

Zudem dürfte der mehr Speicher bei Fermi positiv bemerktbar sein

Entscheidender Parameter ist die Leistung/Watt. Liegt man da vorne dann liegt man auch bei der Leistung vorne, denn inzwischen limitiert längst die Leistungsaufnahme. Und da NV den deutlich breiteren Chip hat, den man mit weniger Takt und weniger Spannung ansteuern kann, sollte man da vorne liegen. Das geht dann zwar auf die Leistung/mm², aber etwas schnelleres kann man auch teurer verkaufen.

tombman
2009-12-08, 16:54:26
1700 Shaderclock und 15% besser als 5970? NEVER.

Das wären 200% einer GTX285!!! Also nix GTX285 SLI, sondern wirklich 2x GTX285.

Das ist einfach zu gut. Da wären die HD5970 sofort Müll: kein MR, Phys-X, +0.5Gb Mem

Ich wäre schon mit GTX295+X Leistung für die GTX380 zufrieden :) (zur Not auch ohne X)

LovesuckZ
2009-12-08, 17:05:18
1700 Shaderclock und 15% besser als 5970? NEVER.

Das wären 200% einer GTX285!!! Also nix GTX285 SLI, sondern wirklich 2x GTX285.

Das ist einfach zu gut. Da wären die HD5970 sofort Müll: kein MR, Phys-X, +0.5Gb Mem

Ich wäre schon mit GTX295+X Leistung für die GTX380 zufrieden :) (zur Not auch ohne X)

Alles ist möglich. NV40 <> NV30/5, rv770 <> rv670 (wenn die absolute Leistung am Ende für mich enttäuschend war aufgrund des G92). Bei beidem wurde auf bewährtes aufgebaut und die Leistungsteigerung lag knapp an der Verdopplung.

Gast
2009-12-08, 17:08:25
Vom Nachfolger des GT300 (nicht dessen Shrink/Refresh) erwarte ich volle 50% Highend zu Highend. GT300 riecht einfach zusehr nach einen zwischenschritt, den G200 schon hätte darstellen sollen. Woher kommt das GF100 als Codename, hoffe nicht vom raufzählen nach der alten Codenaming Liste aka NV40/NV47=G70 NV60=G80

tombman
2009-12-08, 17:11:34
Also mich würds sehr freuen, weil dann 2x Fermi gut ausreichen würden :)

Glauben tu ichs aber nicht...

Schlammsau
2009-12-08, 17:12:45
Alles ist möglich. NV40 <> NV30/5, rv770 <> rv670 (wenn die absolute Leistung am Ende für mich enttäuschend war aufgrund des G92). Bei beidem wurde auf bewährtes aufgebaut und die Leistungsteigerung lag knapp an der Verdopplung.

Glaub ich definitiv nicht, weil selbst die GTX285 einen recht hohen Stromverbrauch hat. Auch wenn nVidia es wirklich geschafft hat, die Leistung zu verdoppeln ..... den Stromverbrauch relativ konstant zu halten, glaube ich nicht.
Ausserdem nur 1,5GB VRAM bei dieser spekulierten brachialen Rechenpower, ich bitte dich, wir reden hier von nVidia. Selbst einer GTX285 sind manchmal 1GB zu knapp.

Bleibt auf dem Teppich, Fermi wird sich irgendwo zwischen der 5870 und der 5970 platzieren. Vielleicht sogar näher an der 5970 aber sie keinesfalls überholen.

Jedes Jahr das gleiche im Speku Thread :rolleyes:

Raff
2009-12-08, 17:14:24
Fermi ist eine komplett renovierte Architektur, dieses "G80 bis GT200 waren verschwenderisch mit dem VRAM, ergo Furby auch" gilt nicht. Außerdem entspannt sich die Lage unter Windows 7 ein wenig.

Dennoch bleiben mir die Fps egal, wenn sie irgendwas an der BQ nach unten gedreht haben. Keine Hybriden und kein SGSSAA? Kein Kauf. AF flimmert unabstellbar? Erst recht kein Kauf. Ati hat da mit der HD 5870 fein vorgelegt.

MfG,
Raff

LovesuckZ
2009-12-08, 17:43:00
SGSSAA wird nVidia wohl nie unterstützen. Wobei es für für Quadros aufgrund der effizienteren Glättung doch sehr interessant wäre.
Neben einer deutlichen Leistungssteigerung erwarte ich ein paar neue IQ Features. Da kam seit dem G80 nichts mehr in Form von Hardware. Besseres CSAA, vielleicht etwas gegen Shader-Alaising, höhrerer AF-Grad etc.

Raff
2009-12-08, 17:46:50
Ati wollte (SG)SSAA auch jahrelang nicht anbieten, nun tun sie's aber (endlich!). Und da die Konkurrenz vorgelegt hat, stehen die Chancen gut, dass Nvida nachlegt.

MfG,
Raff

Coda
2009-12-08, 17:51:45
Das sind doch sowieso nur 2 Zeilen im Treiber wenn man schon TSGSSAA anbietet.

AnarchX
2009-12-08, 17:53:42
Ati wollte (SG)SSAA auch jahrelang nicht anbieten, nun tun sie's aber (endlich!). Und da die Konkurrenz vorgelegt hat, stehen die Chancen gut, dassw Nvida nachlegt.

Wobei ATi hier wohl auch die Hardware angepasst hat, wenn man die SGSSAA-Performance bei HD5000 vs HD4000 @ OGL betrachtet.

reunion
2009-12-08, 17:53:57
SGSSAA wird nVidia wohl nie unterstützen. Wobei es für für Quadros aufgrund der effizienteren Glättung doch sehr interessant wäre.


Was hat das mit den Quadros zu tun?

reunion
2009-12-08, 17:57:28
Ati wollte (SG)SSAA auch jahrelang nicht anbieten, nun tun sie's aber (endlich!). Und da die Konkurrenz vorgelegt hat, stehen die Chancen gut, dass Nvida nachlegt.

MfG,
Raff

Das ist ohnehin nur Formsache, NV wird das mit an Sicherheit grenzender Wahrscheinlichkeit anbieten IMO. Und da ich nicht erwarte das NV irgendwo die IQ senkt, wäre für mich vorallem ein anderer Downsamplingfilter interessant. Mehr als vier Samples kosten viel Leistung, bringen aber mit einem Boxfilter keinen dafür äquivalenten Mehrwert.

Coda
2009-12-08, 18:07:05
Das hätten sie auch schon seit G80 unterstützen können. Wieso sollte sich das jetzt ändern?

reunion
2009-12-08, 18:21:57
Das hätten sie auch schon seit G80 unterstützen können. Wieso sollte sich das jetzt ändern?

Was meinst du?

Coda
2009-12-08, 18:52:24
G80 könnte sämtliche Downsampling-Optionen die ATI anbietet genauso darstellen.

Was genau war an dem Satz oben jetzt missverständlich?

reunion
2009-12-08, 19:10:43
G80 könnte sämtliche Downsampling-Optionen die ATI anbietet genauso darstellen.

Was genau war an dem Satz oben jetzt missverständlich?

Der Satz hätte sich genau so gut auf SGSSAA beziehen können. So oder so sind die Downsampling-Optionen mit SSAA wesentlich sinnvoller als mit MSAA und darüberhinaus ist das wohl zumindest der naheliegendste Weg die Qualität zu steigern. Mehr Samples dürften kaum mehr etwas bringen. Auch gibt es ja noch andere Downsampling-Optionen als nur Tent.

Coda
2009-12-08, 20:00:21
Schön. Und jetzt zurück zum Thema.

reunion
2009-12-08, 20:08:18
Schön. Und jetzt zurück zum Thema.

Du hast gefragt, nicht ich. Und es ging ja um GF100.

PulsarS
2009-12-08, 20:33:43
Schade, nachdem schon AMD mit Cypress keine rausgebracht hat. :(
Klar sind Cypress basierte Karten Gamerkarten.
Werden von AMD auch so beworben.
Wie kommst du darauf, dass die Cypress keine Gamer-Karten sind?
Wahrscheinlich bist du hier mit dieser Meinung ganz allein.

Bei Nvidia sieht es ein wenig anders aus.
Nvidia gab schon einige Infos über den Fermi raus.
Nur über die Spieleperformance wurde nie gesprochen, deswegen kommt hier bei einigen wohl der Gedanke, dass der Fermi in Spielen enttäuschen könnte.

GF100 muss nur in einem Radius von 90%-100% der Leistung von Hemlock liegen, um Hemlock vollkommen überflüssig werden zu lassen. Ein mGPU System auf Basis von AFR hat überhaupt keinen Reiz, wenn eine Single-GPU in der Nähe der Werte liegt.
Das hast du wohl Recht.
Man könnte dann den Hemlock nur noch über den Preis in den Markt drücken.
Wobei vielen Leuten die Multi-GPU-Probleme gar nicht bekannt sind...
Hauptsache die Balken sind lang genug... :rolleyes:
Fermi ist eine komplett renovierte Architektur, dieses "G80 bis GT200 waren verschwenderisch mit dem VRAM, ergo Furby auch" gilt nicht.
Der Gegenbeweis fehlt aber auch noch. ;)

Dennoch bleiben mir die Fps egal, wenn sie irgendwas an der BQ nach unten gedreht haben.
Das glaube (und hoffe) ich eher nicht.

Keine Hybriden und kein SGSSAA? Kein Kauf.
SGSSAA sollten sie schon anbieten, um nicht AMD in dieser Disziplin hinterher zu hängen.
Wenn sie keine Hybriden anbieten würden, dann wäre das schon ein wenig strange, da das imo bei NV schon fast zu Tradition gehört.

AF flimmert unabstellbar? Erst recht kein Kauf. Ati hat da mit der HD 5870 fein vorgelegt.

Trotzdem flimmert das ATI-AF (5xx0er) bei schwierigem Content immer noch minimal mehr als die aktuellen Nvidias.
Aber Du würdest wahrscheinlich den SGSSAA-Hammer auspacken. :D

So oder so sind die Downsampling-Optionen mit SSAA wesentlich sinnvoller als mit MSAA und darüberhinaus ist das wohl zumindest der naheliegendste Weg die Qualität zu steigern. Mehr Samples dürften kaum mehr etwas bringen. Auch gibt es ja noch andere Downsampling-Optionen als nur Tent.
So sehe ich das auch.
Je mehr Optionen, um die Qualli anzupassen, desto besser :)

=Floi=
2009-12-08, 21:18:01
Richtig, in Zeiten von GreenIT und einem hype um die Effizienz von Netzteilen ist es weniger schlimm, wenn eine GPU mal 300-400W verbrät.

Schon mal überlegt, dass hier einige non Intel Fans das Ding so dermaßen niederflamen würden und verreißen, aufgrund dieses Zustandes?

Und was ist mit den Treibern?
Da hat Intel bisher nichts anständiges hin bekommen, die sind sogar so toll, das Appel die Intel IGPs meidet wie Teufel Weihwasser...

trotzdem wäre hier eine neue innovation ganz nett. warum stehen bleiben?
etwas gegen das shader- und vegetationsflimmern oder offizielles downsampling wäre gut. man kann sicherlich noch am AA arbeiten. Es gäbe da noch genug möglichkeiten, hier noch etwas zu optimieren.

ich habe auch nicht die qualität des treibers kritisiert, sondern gefragt ob hier neue features anstehen!
transparentes AA war ja auch so ein super feature und oft nütz man eine neue generation und deren möglichkeiten um etwas neues zu pushen.

greenit hat bei highend nichts zu suchen. eigentlich ist das thema damit schon abgeschlossen.
die 240er hat ja einen stromsparmodus und verbraucht unter 3d auch nicht so viel strom. das ist eine sehr sparsame und brauchbare karte für einen multimedia pc. beim GT300 würde ich mir eben im idle auch einen sehr guten stromsparmodus wünschen, welcher auf dem niveau einer HD5870 liegt. Im 3d modus ist der stromverbrauch nicht mehr so ausschlaggebend, weil die karte eh mehr im idle ist und im 3d modus auch richtig leistung bringt. im 3d modus kann ich auch nicht wirklich strom sparen. im 2d modus umso mehr und DORT ist es wirklich sinnvoll.

mictasm
2009-12-08, 22:14:05
Ich wünsche mir mindestens eine Handvoll Zwischenstufen zwischen 2D-Low und 3D-High Modus.

mapel110
2009-12-08, 22:19:09
Ich wünsche mir mindestens eine Handvoll Zwischenstufen zwischen 2D-Low und 3D-High Modus.
Wozu? Dafür kannst Tools nutzen und Taktprofile anlegen. Mehr als 3 Modi braucht der Normalo-High-End-User nicht.

HarryHirsch
2009-12-08, 22:36:39
Das hätten sie auch schon seit G80 unterstützen können. Wieso sollte sich das jetzt ändern?

Um die "überflüssige" Leistung zu nutzen?
Was die Leistungsdaten angeht glaube ich nicht das die Karten dann für
499 USD weggehen wenn sie die 5970 um 15% übertreffen.

LovesuckZ
2009-12-08, 22:38:51
Um die "überflüssige" Leistung zu nutzen?
Was die Leistungsdaten angeht glaube ich nicht das die Karten dann für
499 USD weggehen wenn sie die 5970 um 15% übertreffen.

Naja, AMD wird den Preis von Hemlock so oder so senken. Also sollte nVidia gleich billiger in den markt kommen, um nicht plötzlich wieder alleine 599$ zu stehen, nachdem AMD den Preis um 100-150$ gesenkt hat.

LovesuckZ
2009-12-08, 22:42:02
Q1 steht als Launchzeitraum fest. Hat nVidia gerade auf der "Global Technology Conference" ausdrücklich erwähnt.

PulsarS
2009-12-08, 22:50:44
Naja, AMD wird den Preis von Hemlock so oder so senken.
Kommt drauf an wie die Performance des Fermi bei Spielen ist.
Sicher ist das nicht.

Q1 steht als Launchzeitraum fest. Hat nVidia gerade auf der "Global Technology Conference" ausdrücklich erwähnt.

Q1 ist aber von Januar bis März.
Dann bleibt noch die Frage offen, was es denn für ein Launch ist.
Paperlaunch? Softlaunch (wie beim Cypress)? Oder breite Verfügbarkeit?

Diese Aussage sagt nur aus, dass Nvidia zur Zeit wohl selbst nicht weiß, wann genau der Lauch sein wird und wie er aussehen wird, sonst hätte man zumindest den Monat genannt.

Gast
2009-12-08, 22:56:14
Dann bleibt noch die Frage offen, was es denn für ein Launch ist.
Paperlaunch? Softlaunch (wie beim Cypress)? Oder breite Verfügbarkeit?

Cypress war ein reiner Presselaunch. Vorher angekündigt und knallhart durchgezogen. Im Anschluss ist bis heute die Verfügbarkeit schlecht, was für den Launchbegriff ohne Belang ist.

PulsarS
2009-12-08, 23:13:52
Cypress war ein reiner Presselaunch.
Nein, das stimmt nicht.
Dazu habe ich ja auch schon in einem anderen Thread was geschrieben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7691636&postcount=441

Die 58x0er-Karten waren nach dem Launch sogar besser verfügbar (und zu besseren Preisen) als jetzt.

Der_Korken
2009-12-08, 23:15:55
Cypress war ein reiner Presselaunch. Vorher angekündigt und knallhart durchgezogen. Im Anschluss ist bis heute die Verfügbarkeit schlecht, was für den Launchbegriff ohne Belang ist.

Ich glaube darum wird man sich ewig streiten können. Immerhin haben sie vorher angekündigt, wann die Karten offiziell verkauft werden, bevor sie ihren Presselaunch hingelegt haben. Tatsächlich konnte man sie dann auch kaufen, aber eben nur geringe Mengen, da die Produktion weit hinterher hinkt. Ich glaube nicht, dass das so geplant war - aber jetzt ist die Karte nun mal draußen, jetzt muss AMD das so durchziehen. Was wäre die Alternative gewesen? 3 Monate warten und womöglich Nvidia die Möglichkeit lassen ihnen zuvorzukommen?

Gast
2009-12-08, 23:16:14
Die 58x0er-Karten waren nach dem Launch sogar besser verfügbar (und zu besseren Preisen) als jetzt.

Nö. Das ist genau wie heute auch man kann zwar günstiger vorbestellen nur lieferbar sind sie nicht...

PulsarS
2009-12-08, 23:20:57
Ich glaube darum wird man sich ewig streiten können. Immerhin haben sie vorher angekündigt, wann die Karten offiziell verkauft werden, bevor sie ihren Presselaunch hingelegt haben. Tatsächlich konnte man sie dann auch kaufen, aber eben nur geringe Mengen, da die Produktion weit hinterher hinkt. Ich glaube nicht, dass das so geplant war - aber jetzt ist die Karte nun mal draußen, jetzt muss AMD das so durchziehen. Was wäre die Alternative gewesen? 3 Monate warten und womöglich Nvidia die Möglichkeit lassen ihnen zuvorzukommen?
Genau so sieht es aus.
Danke, hast mir Schreibarbeit ersparrt.
Aber wir kommen ein wenig vom Thema ab, also Back to Topic. (GF100) :)

LovesuckZ
2009-12-08, 23:23:38
All in all, if you belong to nV camp, January can't come soon enough. If you sit firmly in the AMD's Radeon camp, you'll be happy to know that AMD is also preparing an answer in the form of super-charged Radeon 5870, probably carrying the name HD 5890.
Theo Valich (http://www.brightsideofnews.com/news/2009/12/8/nvidia-gf100fermi-sli-powered-maingear-pc-pictured.aspx) - also wohl falsch. :freak:

Henroldus
2009-12-08, 23:27:59
Im 3d modus ist der stromverbrauch nicht mehr so ausschlaggebend, weil die karte eh mehr im idle ist und im 3d modus auch richtig leistung bringt. im 3d modus kann ich auch nicht wirklich strom sparen. im 2d modus umso mehr und DORT ist es wirklich sinnvoll.
Der Peak in 3D bestimmt aber, wie Dein Netzteil dimensioniert sein muss ;) und das finde ich schon interessant, weil u.U. hier eine zusätzliche Investition von min 50€ anstünde was die Karte auch wieder uninteressanter macht.

LovesuckZ
2009-12-08, 23:29:59
Der Peak in 3D bestimmt aber, wie Dein Netzteil dimensioniert sein muss ;) und das finde ich schon interessant, weil u.U. hier eine zusätzliche Investition von min 50€ anstünde was die Karte auch wieder uninteressanter macht.

Abhängig von der Konkurrenzkarte. Wenn Fermi ähnlich schnell wie Hemlock ist, dass ist es natürlich ein Vorteil. Wenn GF100 nur so schnell wie die 5850 ist und dann ca. 50 Watt mehr verbraucht, dann weniger. Das musste ja AMD mit ihrer 2900XT lernen. Leistung auf 8800GTS-640 Niveau, aber einen Stromverbrauch größer als 8800GTX.

=Floi=
2009-12-09, 00:54:48
der 3d verbrauch spielt eine rolle, aber keine so wichtige wie ihr es immer hinstellt. bei der 5970er fragt auch keiner nach dem verbrauch. wenn ich so eine karte will, dann muß ich entweder das netzteil tauschen oder man hat schon vorher auf auf reserve gesetzt. ich habe zB. ein 720 watt netzteil und bewusst ein stärkeres markennetzteil gekauft. ehrlich gesagt gehört es dem jenigen auch nicht anders, wenn er nicht ein wenig in die zukunft plant. (erst denken, dann kaufen. das ist sowieso kein thema unserer jugend! ) mit 450 watt gewinnt man in diesem bereich eben keinen blumentopf und einen billigen oem rechner rüste ich nicht mit solch einem monster auf.
Das netzteil ist sowieso das kleinste problem, da man meistens eh mehr erneuern muss.

horn 12
2009-12-09, 01:22:09
Nun, 15% schneller als HEMLOCK,?? ---> bei welcher Anwendung, welchen Settings und vor Allem welchem Zusatz?
Dann würde NV sicherlich mehr verlangen, auch wenn HEMLOCK auf 400 Euro absinken würde, da die Vorteile der SingleKarte zu stark überwiegen würden. Rechne max. mit 20% über einer HD5870 bei Fermi´s High End Karte.

Soll wohl ein letzter Aufruf, Hilfeschrei noch vor Weihnachten werden seitens NV, denn die ATI Karten sollen ab morgen nochmals um ein vielfaches besser verfügbar werden...
Denn wann hat NV schon mal was verschenkt beim Preis wenn die Leistung da ist (wäre)
Alles bis +30% ist maximal realistisch gegenüber der HD5870, darüber hinaus nur unter gewissen Settings und unter Anwendung mit Pysik und Co, Batman und Co lässt grüßen!

=Floi=
2009-12-09, 01:29:32
also 2 shops anstatt einer. das ist dann sogar eine steigerung um 100%! ;D
zufällig ab morgen besser verfügbar. und morgen erzählst du uns nochmal das gleiche... :rolleyes:

edit
lass physx aus dem spiel.

Gast
2009-12-09, 01:35:05
denn die ATI Karten sollen ab morgen nochmals um ein vielfaches besser verfügbar werden...


Die selben Sprüche kamen schon vor zwei Monaten und passiert ist garnichts. Marketinggeschwätz.

tombman
2009-12-09, 02:05:17
Wieso, sind doch eh super verfügbar, Mindfactory hat 3 lagernd.
Um 500€ :devil:
==

Btw, hat jetzt jemand auf dem Bild erkannt ob es jetzt 8+6pin, 6+6pin oder sogar 6+6+6pin pro Karte sind?

horn 12
2009-12-09, 02:18:05
Nun, rede von Italien!
Komme von dort,- und wie in Schweiz und Italien sieht die Verfügbarkeit ab morgen echt rosig aus. Werde Euch den Beweis liefern, sollen Mengen an Grafikkarten daherschiessen.
Wie es in Deutschland oder auch Österreich aussieht, das kann ich dies nicht beurteilen.
Fakt ist dass es Vorwärts geht, auch in Eurem Lande.

Nur 1 Shop!
http://www.nexths.it/v3/flypage.php?mv_arg=21161-00-50R

http://www.nexths.it/v3/flypage.php?mv_arg=HD-585A-ZNBC

http://www.nexths.it/v3/results.php?mv_order=category%2Cbrand%2Cinactive%2Cdescrbreve&mv_set_ordermode=&mv_custom_search=toolbarsearch_profile&text=HD5870

san.salvador
2009-12-09, 02:19:23
Nun, rede von Italien!
Komme von dort,- und wie in Schweiz und Italien sieht die Verfügbarkeit ab morgen echt rosig aus. Werde Euch den Beweis liefern, sollen Mengen an Grafikkarten daherschiessen.
Heute Italien, morgen die ganze Welt!





Schwer vorstellbar irgendwie ...

Gast
2009-12-09, 02:26:11
Das ist nur Wunschdenken von Ati...

Ailuros
2009-12-09, 07:43:50
Anscheinend kam meine Anspielung nicht korrekt an. :)

Die Werte könnten ja sogar stimmen.
Bringt einem nur wenig, wenn damit irgendwelche synthetischen Benchmarks gemeint sind. :wink:
Darauf wollte ich hinaus. ;)

Angenommen (und ja es waere eine lange Reihe an Annahmen, ob Frequenzen stimmen, was fuer ein synthetischer Test usw....) die hypothetischen +15% sind von Vantage extreme, bestehen dann aber ziemlich gute Chancen dass sich die 380 irgendwo auf 5970 im absoluten Durchschnitt in Spielen befindet. Wenn das stimmen sollte ist die 380 so oder so gut aufgelegt und eben mehr oder weniger wo ich die Dinger mit solchen Frequenzen (380 etwas unter 5970, 360 etwas ueber 5870) mal ganz grob eingeschaetzt haette.

Die brennende Frage ist aber nach wie vor ob sie magische Frequenzen von 650/1700 erreichen koennen. Ich persoenlich glaube es erst wenn ich es sehe.

reunion
2009-12-09, 07:54:26
Q1 steht als Launchzeitraum fest. Hat nVidia gerade auf der "Global Technology Conference" ausdrücklich erwähnt.

Welches Q1? Sie bezogen sich da bis jetzt immer auf ihr Fiscal Year, und das beginnt erst am 26. Januar und Endet am 26. April.

V2.0
2009-12-09, 08:31:30
Könnt ihr beiden nicht ein einziges Mal ein post des anderen ignorieren. Ist ja grauenhaft.

reunion
2009-12-09, 08:37:45
Könnt ihr beiden nicht ein einziges Mal ein post des anderen ignorieren. Ist ja grauenhaft.

Hast du irgendwas zu sagen? Das war der erste Quote und das seit x Seiten und dieser war rein aufs Thema bezogen. Wenn dich der Launchzeitpunkt nicht interessiert kannst du dich ja aus dem Thread raushalten. Aber wenn man natürlich nur blöd spammen will kommt so ein Mist dabei raus.

Das fettgedruckte haettest Du Dir ernsthaft sparen koennen. Und jetzt bitte aus damit.

=Floi=
2009-12-09, 09:51:34
wenn ail skeptisch ist, dann stimmen diese daten ja wohl nicht. ;) :D
ich kann mir auch nicht mehr so einen hohen takt vorstellen. Er hat ja recht und sonst hätte man beim fermi schon richtig auf dem putz gehauen. das wären über 30% mehr takt mit fermi im vergleich zur consumer karte.

PulsarS
2009-12-09, 09:52:32
Angenommen (und ja es waere eine lange Reihe an Annahmen, ob Frequenzen stimmen, was fuer ein synthetischer Test usw....) die hypothetischen +15% sind von Vantage extreme, bestehen dann aber ziemlich gute Chancen dass sich die 380 irgendwo auf 5970 im absoluten Durchschnitt in Spielen befindet. Wenn das stimmen sollte ist die 380 so oder so gut aufgelegt und eben mehr oder weniger wo ich die Dinger mit solchen Frequenzen (380 etwas unter 5970, 360 etwas ueber 5870) mal ganz grob eingeschaetzt haette.
Vantage wäre ja schon mal eine Hausnummer, das stimmt.
Und wenn Deine Einschätzung stimmt (vor allem "360 etwas ueber 5870"), dann hätte Nvidia wirklich ganze Arbeit geleistet.
Dann wäre der Preis für die 360er aber imo zu niedrig angesetzt.
Deswegen teile ich Deinen Optimismus nicht.

Die brennende Frage ist aber nach wie vor ob sie magische Frequenzen von 650/1700 erreichen koennen. Ich persoenlich glaube es erst wenn ich es sehe.
Ich denke Nvidia ist zur Zeit wahrscheinlich selbst ein wenig ratlos, wie die endgültigen Specs aussehen werden.
Abgesehen von den Problemen bei 40nm bei TSMC gibt es viele Faktoren, die sich gegenseitig beeinflussen und auch auf die Yieldrate eine Auswirkung haben können.
Und wir dürfen davon ausgehen, dass der Fermi nicht gerade sparsam wird.
Man braucht aber schon bestimmte Taktraten, um AMD überholen zu können.

Also Takt, Spannung, Verlustleistung -> Yieldrate.
Da muss Nvidia jetzt bald einen Kompromiss finden, mit dem Wissen im Hinterkopf, dass der 40nm-Prozess bei TSMC noch nicht optimal läuft.
Ich möchte nicht an der Position derjenigen Person sein, die dies entscheiden muss. :wink:

LovesuckZ
2009-12-09, 10:14:40
wenn ail skeptisch ist, dann stimmen diese daten ja wohl nicht. ;) :D
ich kann mir auch nicht mehr so einen hohen takt vorstellen. Er hat ja recht und sonst hätte man beim fermi schon richtig auf dem putz gehauen. das wären über 30% mehr takt mit fermi im vergleich zur consumer karte.

Wozu? Aus wirtschaftlicher Sicht macht es mehr Sinn im Tesla Bereich die schlechten Chips zu verwenden. Man hat a) keine GPU Konkurrenz und b) kommt keine einzige CPU auch nur annährend an die DP-Leistung heran. Da nVidia zeitnah für Geforce, Quadro und Tesla rampen will, müssen sie soviele Chips wie möglichen verwenden können. Und im Tesla-Bereich verkauft man dann eben die schlechten. Die, die man im Geforce-Bereich günstiger an die AIBs verkaufen müsste.

Gast
2009-12-09, 10:26:11
Wozu? Aus wirtschaftlicher Sicht macht es mehr Sinn im Tesla Bereich die schlechten Chips zu verwenden. Und im Tesla-Bereich verkauft man dann eben die schlechten. Die, die man im Geforce-Bereich günstiger an die AIBs verkaufen müsste.
Nur wenn NV von teufel beseelt wäre. Highend-produkte wie Teslas mit den "schlechteren" chips auszustatten wäre fatal. wenn da nur eine Handvoll von den schlechteren chips dabei sind die probleme in den teslas machen (zu heiss bspw) ist man sehr schnell unten durch.
Keiner bezahlt 3000€-5000€ für ein Produkt in dem er Ausschussware vermutet.
Die Kunden würdn dann NV ganz schnell abstrafen.

LovesuckZ
2009-12-09, 10:45:26
Nur wenn NV von teufel beseelt wäre. Highend-produkte wie Teslas mit den "schlechteren" chips auszustatten wäre fatal. wenn da nur eine Handvoll von den schlechteren chips dabei sind die probleme in den teslas machen (zu heiss bspw) ist man sehr schnell unten durch.
Keiner bezahlt 3000€-5000€ für ein Produkt in dem er Ausschussware vermutet.
Die Kunden würdn dann NV ganz schnell abstrafen.

Es geht nicht um kaputte Chips, sondern Chips, die man im Consumer-Bereich billig anbieten müsste, weil sie bestimmte Taktraten nicht schaffen, oder Fehler in SM/ROPs aufweisen. Der Einstieg bei Tesla liegt bei 2500$. Eine GTX360 wird es für ca. 400$ geben. Wo wird man also wohl eher solche Chips hinwandern lassen?

Gast
2009-12-09, 11:04:06
Ihr quatscht hier ja viel über ungelegte Eier. Habt dabei aber anscheinend gar nicht mitbekommen, das in dem PC-Bild laut CrisRay auf Beyond3D keine Fermi-Karten gezeigt wurden. Der PC ist nur für Fermi-Karten vorbereitet worden (zum Testen irgendwann in der Zukunft). :)

LovesuckZ
2009-12-09, 11:07:21
Ihr quatscht hier ja viel über ungelegte Eier. Habt dabei aber anscheinend gar nicht mitbekommen, das in dem PC-Bild laut CrisRay auf Beyond3D keine Fermi-Karten gezeigt wurden. Der PC ist nur für Fermi-Karten vorbereitet worden (zum Testen irgendwann in der Zukunft). :)

Liegt daran, dass wir englisch können:
Looks similar to my computer. Not surprising though,. Mine was setup specifically to support 3 Way Fermi. No there aren't Fermi's in these pictures. :P
http://forum.beyond3d.com/showpost.php?p=1366776&postcount=1930

=Floi=
2009-12-09, 11:10:03
du vergleichst ein vollwertigen chip mit einer beschnittenen version!
sie schlechten chips legt man auf halde und verkauft sie später für ein paar €. es wandern nur die besten chips in die teslas.

reunion
2009-12-09, 11:21:06
Es geht nicht um kaputte Chips, sondern Chips, die man im Consumer-Bereich billig anbieten müsste, weil sie bestimmte Taktraten nicht schaffen, oder Fehler in SM/ROPs aufweisen. Der Einstieg bei Tesla liegt bei 2500$. Eine GTX360 wird es für ca. 400$ geben. Wo wird man also wohl eher solche Chips hinwandern lassen?

Das ergibt aus vielerlei Hinsicht keinen Sinn. Erstens muss man die GTX360 ohnehin anbieten und die Stückzahlen sind dort um mehrere Zehnerpotenzen höher als im Tesla-Segment. Die Frage wo solche Chips hinwandern stellt sich also gar nicht. Zweitens sprechen wir hier vom absoluten High-End-Tesla-Produkt. NV hat zwei Tesla-Karten vorgestellt, die kleine taktet mit nur 1020Mhz für die ALUs, die große Karte mit 1230Mhz. Die Karten kommen im übrigen erst im Q2 bzw. Q3, nicht zeitgleich mit den Geforce-Produkte. Drittens ist gerade im Tesla-Segment die Leistung/Watt das Argument schlechthin. Dort verwendet man mit Sicherheit keine minderwertigen Chips, sondern holt das Maximum des möglichen heraus, und das Tat auch NV in der Vergangenheit. Dafür kann man dort auch mehrere tausend Dollar pro Karte verlangen. Bei Fermi stehen aktuell 225W TDP bei 550/1230/800 mit 6GB VRAM zu buchen. Wie man das einordnet, kann ja jeder selbst beurteilen, sonst führt das nur wieder zu überdrüssigen Diskussionen. Jedenfalls sollte man sich schön langsam doch die Frage stellen wie realistisch solche Taktraten im Bereich von 1700Mhz sind angesichts dieser Fakten.

Ailuros
2009-12-09, 11:22:29
Deswegen teile ich Deinen Optimismus nicht.

Wo siehst Du irgendwelchen Optimismus? Ich sagte klipp und klar dass ich 650/1700 Frequenzen erst glaube wenn ich sie sehe.

LovesuckZ
2009-12-09, 11:23:45
du vergleichst ein vollwertigen chip mit einer beschnittenen version!
sie schlechten chips legt man auf halde und verkauft sie später für ein paar €. es wandern nur die besten chips in die teslas.

Wozu braucht der Tesla-Markt die besten, der besten Chips? Siehst du dort irgendwo Konkurrenz?

reunion
2009-12-09, 11:27:10
Wozu braucht der Tesla-Markt die besten, der besten Chips? Siehst du dort irgendwo Konkurrenz?

Stimmt, NV hat den Supercomputer-Bereich ja gerade erst erfunden. Und AMD gibt es auch nicht. Aber wenn man dort irgend welche B-Waren verkauft kann man die Hersteller bestimmt überzeugen ihre GPUs einzusetzen. Oder so.

Ailuros
2009-12-09, 11:27:49
Wozu braucht der Tesla-Markt die besten, der besten Chips? Siehst du dort irgendwo Konkurrenz?

Was passierte mit der EEC These fuer den HPC Markt? :P

Stimmt, NV hat den Supercomputer-Bereich ja gerade erst erfunden. Und AMD gibt es auch nicht. Aber wenn man irgend welche B-Waren verkauft kann man die Hersteller bestimmt überzeugen ihre GPUs einzusetzen. Oder so.

NVIDIA kapitulierte den HPC Markt selbst zum Zeitpunkt wo Tesla 10x0 nur 1/8 der heutigen DP von den 20x0 hatten. AMD sah zwar einen gesunden Aufschwung seit RV7x0 (8-->12%) aber einen grossen Unterschied machte dieses auch nicht aus. Und ja natuerlich geht es keineswegs nur um DP Leistung. Die Gruende warum NV im Profi-Markt besser verkauft sind bekannt und ja bis zum Punkt wo sich AMD endlich aufkrempelt und anstaendigere Unterstuetzung bietet wird sich das Bild fuer sie in diesem Markt auch nicht aendern.

Von den zusaetzlichen Features die Fermi unterstuetzt gegenueber jeder moeglichen Evergreen FireGL wollen wir wohl lieber nicht reden.

Aquaschaf
2009-12-09, 11:32:13
Wozu braucht der Tesla-Markt die besten, der besten Chips? Siehst du dort irgendwo Konkurrenz?

Da ist alles mögliche Konkurrenz, rechnen kann man nicht nur auf GPUs.

LovesuckZ
2009-12-09, 11:37:55
Was passierte mit der EEC These fuer den HPC Markt? :P

Die kommt nicht von mir. :D Für EEC verwenden sie ja "normale" Speicherbausteine. Imo macht wohl mehr die Verfügbarkeit der Speichergrößeprobleme als der Speichertyp.
Ich stelle es mir sehr schwierig vor auf diesem Prozeß zeitnah mit Fermi drei Bereiche bedienen zu wollen. Da muss man Chips auch aufgrund ihrer Nutzbarkeit einteilen. Und der Tesla-Bereich scheint mir da am besten zu erscheinen, um den "Abfall" absetzen zu können.

Da ist alles mögliche Konkurrenz, rechnen kann man nicht nur auf GPUs.

Deswegen denke ich, dass es sich nVidia nicht erlauben kann, Anfragen nach Fermi abzulehnen, weil die Leute sich dann CPUs holen werden.

reunion
2009-12-09, 11:41:05
NVIDIA kapitulierte den HPC Markt selbst zum Zeitpunkt wo Tesla 10x0 nur 1/8 der heutigen DP von den 20x0 hatten. AMD sah zwar einen gesunden Aufschwung seit RV7x0 (8-->12%) aber einen grossen Unterschied machte dieses auch nicht aus. Und ja natuerlich geht es keineswegs nur um DP Leistung. Die Gruende warum NV im Profi-Markt besser verkauft sind bekannt und ja bis zum Punkt wo sich AMD endlich aufkrempelt und anstaendigere Unterstuetzung bietet wird sich das Bild fuer sie in diesem Markt auch nicht aendern.

Von den zusaetzlichen Features die Fermi unterstuetzt gegenueber jeder moeglichen Evergreen FireGL wollen wir wohl lieber nicht reden.

Du verwechselst Quadros mit Teslas. NVs Erfolge im Tesla-Segment sind bis dato kaum der rede wert.

Ailuros
2009-12-09, 11:41:07
Die kommt nicht von mir. :D Für EEC verwenden sie ja "normale" Speicherbausteine. Imo macht wohl mehr die Verfügbarkeit der Speichergrößeprobleme als der Speichertyp.
Ich stelle es mir sehr schwierig vor auf diesem Prozeß zeitnah mit Fermi drei Bereiche bedienen zu wollen. Da muss man Chips auch aufgrund ihrer Nutzbarkeit einteilen. Und der Tesla-Bereich scheint mir da am besten zu erscheinen, um den "Abfall" absetzen zu können.

Ich meinte eher dass EEC angeblich die Leistung reduzieren sollte.

Gast
2009-12-09, 11:42:35
Es geht nicht um kaputte Chips, sondern Chips, die man im Consumer-Bereich billig anbieten müsste, weil sie bestimmte Taktraten nicht schaffen, oder Fehler in SM/ROPs aufweisen. Der Einstieg bei Tesla liegt bei 2500$. Eine GTX360 wird es für ca. 400$ geben. Wo wird man also wohl eher solche Chips hinwandern lassen?
natürlich in die "billigen low-end" Produkte. Alles andere wäre fatal.
Sündhaftteure Teslas die 24/7 in Supercomputern crunchen sollen oder quadros in Grafikworkstations mit minderwertigen chips auszustatten wäre wohl das dümmste was NV einfallen könnte. Gerade wo NV die gutteil ihres Gewinnes mit Profikarten reinholt.

Ailuros
2009-12-09, 11:43:08
Du verwechselst Quadros mit Teslas. NVs Erfolge im Tesla-Segment sind bis dato kaum der rede wert.

Und AMD's Erfolge sind der Rede wert?

reunion
2009-12-09, 11:44:05
Und AMD's Erfolge sind der Rede wert?

Das hat niemand gesagt. Aber wenn man das ändern will wird man im Tesla-Segment wohl kaum minderwertige Chips verkaufen.

LovesuckZ
2009-12-09, 11:48:21
natürlich in die "billigen low-end" Produkte. Alles andere wäre fatal.
Sündhaftteure Teslas die 24/7 in Supercomputern crunchen sollen oder quadros in Grafikworkstations mit minderwertigen chips auszustatten wäre wohl das dümmste was NV einfallen könnte. Gerade wo NV die gutteil ihres Gewinnes mit Profikarten reinholt.

Schade, dass du nicht verstehst, dass Chips auch mit deativierten Teilen oder niedrigen Frequenzen und hohem Stromverbrauch einwandfrei funktionieren können. :rolleyes:
Wenn ich meine Spezifikation der Leistung niedriger ansetze und die Werte für den Stromverbrauch höher, habe ich eine größere Spanne an verwendbaren Chips. Den Leuten ist es egal, was für Chips mit wievielen aktivierten Teilen auf einer Karte verbaut sind, solange sie in den Spezifikationen laufen.

Ich meinte eher dass EEC angeblich die Leistung reduzieren sollte.

Als Laie denke ich, dass durch die dauernde Überprüfung des Speichers (register, Cache, memory) die Zellen deutlich öfters refresh werden als im normalen Modus. Dadurch erhöht sich der Stromverbrauch, da die Überprüfung auch während der Berechnungen erfolgt. Das könnte ein Leistungskiller sein. Eventuell verträgen sich auch die hohen Takte des Chips und die interne ECC Durchführung nicht.
Google spruckt ja soetwas in die Richtung aus:


The use of ECC techniques can significantly improve the reliability of data stored in the DRAM 32 . Furthermore, the use of ECC techniques can allow the DRAM to be refreshed at a slower refresh rate since resulting data bit errors can be corrected. The use of a slower refresh rate can provide the significant advantage of reducing the power consumed by the DRAM 32 . However, the need to perform ECC processing on read data all during refresh can consume a significant amount of power. Further, the use of ECC techniques requires that a significant portion of the DRAM storage capacity be used to store the syndromes, thus requiring that the size of the DRAM semiconductor die be increased to maintain the storage capacity of the DRAM 32 . Further, to the extent that power is required to store the syndromes, the use of ECC techniques can increase power consumption. The amount of power consumed by storage of the syndrome each time data are written to the DRAM 32 is a function of the number of bits in the syndrome. The size of the syndrome needed to correct single bit error is determined by the number of bits in the data being checked and corrected, and is given by the following table:
http://www.freepatentsonline.com/7526713.html

Ailuros
2009-12-09, 11:56:03
Das hat niemand gesagt. Aber wenn man das ändern will wird man im Tesla-Segment wohl kaum minderwertige Chips verkaufen.

Wir bewegen uns ja sowieso im rein hypothetischen Bereich da die GF100 desktop Frequenzen noch nicht festliegen.

Wenn man also von irgendwelcher Minderwertigkeit reden wuerde, wuerde es DP Leistung im Vergleich zu GeForces betreffen, aber wohl im keinen Fall im Vergleich zur Konkurrenz (sprich AMD da Intel ja vorruebergehend weg vom Fenster ist). Schon gar nicht wenn man das zusaetzliche Feature-set Fermi's hinzulegt und auch das gesamte sw-Paket und die Unterstuetzung.

Es gibt ja nebenbei immer noch das Zeug hier: http://www.nvidia.com/object/mad_science_promo.html

Gast
2009-12-09, 12:00:18
Schade, dass du nicht verstehst, dass Chips auch mit deativierten Teilen oder niedrigen Frequenzen und hohem Stromverbrauch einwandfrei funktionieren können. :rolleyes:
Den Leuten ist es egal, was für Chips mit wievielen aktivierten Teilen auf einer Karte verbaut sind, solange sie in den Spezifikationen laufen.
Schade das DU nicht verstehst dass sich Käufer eines teuren Highend-Produktes nicht mit Ware 2. Wahl zufreiden geben :rolleyes:

Eine für eine Quadro mit abgesenkten Taktraten und teilaktivierten ROPs
zahl ich nicht 4x soviel wie für die "gleiche" aber "bessere" Gamerkarte. So einfach ist das. Wenn bei mir hier im Institut neue Workstation anstehen und wieder Quadros rein sollen bzw. die Arbeitsgruppe neben an ihre Berechnungen auf CUDA umstellen und auf Fermi hoffen, aber wir beide nur den Abfall/B-Ware bekommen, werden diese eben NICHT gekauft. Zur Noz müssen dann halt die billigeren Gamerkarten herhalten.
Dann hätte sich NV einen satten Gewinn entgehen lassen.

Aquaschaf
2009-12-09, 12:04:10
Wenn bei mir hier im Institut neue Workstation anstehen und wieder Quadros rein sollen bzw. die Arbeitsgruppe nebenan ihre Berechnungen auf CUDA umstellen und auf Fermi hoffen, aber wir beide nur den Abfall/B-Ware bekommen, werden diese eben NICHT gekauft. Zur Not müssen dann halt die billigeren Gamerkarten herhalten.

Die meisten verwenden aus Kostengründen sowieso Geforce-Karten, und kein Tesla. Ist ja selbst dann noch günstiger, wenn man die Karte innerhalb von ein paar Monaten grillt :D Und wenn man die größere Speicherbestückung nicht braucht, dann ist auch bei G200 das Geforce-Produkt das schnellere.

Ailuros
2009-12-09, 12:06:16
Schade das DU nicht verstehst dass sich Käufer eines teuren Highend-Produktes nicht mit Ware 2. Wahl zufreiden geben :rolleyes:

Eine für eine Quadro mit abgesenkten Taktraten und teilaktivierten ROPs
zahl ich nicht 4x soviel wie für die "gleiche" aber "bessere" Gamerkarte. So einfach ist das. Wenn bei mir hier im Institut neue Workstation anstehen und wieder Quadros rein sollen bzw. die Arbeitsgruppe neben an ihre Berechnungen auf CUDA umstellen und auf Fermi hoffen, aber wir beide nur den Abfall/B-Ware bekommen, werden diese eben NICHT gekauft. Zur Noz müssen dann halt die billigeren Gamerkarten herhalten.
Dann hätte sich NV einen satten Gewinn entgehen lassen.

Es gibt sehr wichtige Unterschiede was die Quadro Treiber betrifft und auch die Speichermenge dieser GPUs. Falls diese zusaetzliche Funktionalitaeten, Unterstuetzung und Speichermenge u.a. weniger wichtig sein sollten als ein Happen hypothetischer arithmetischer Leistung fuer Euer Institut, besteht so oder so kein Grund dass irgendwelche enorme Summen fuer Quadros anstatt GeForces verplempert werden.

LovesuckZ
2009-12-09, 12:10:28
Schade das DU nicht verstehst dass sich Käufer eines teuren Highend-Produktes nicht mit Ware 2. Wahl zufreiden geben :rolleyes:

Eine für eine Quadro mit abgesenkten Taktraten und teilaktivierten ROPs
zahl ich nicht 4x soviel wie für die "gleiche" aber "bessere" Gamerkarte. So einfach ist das. Wenn bei mir hier im Institut neue Workstation anstehen und wieder Quadros rein sollen bzw. die Arbeitsgruppe neben an ihre Berechnungen auf CUDA umstellen und auf Fermi hoffen, aber wir beide nur den Abfall/B-Ware bekommen, werden diese eben NICHT gekauft. Zur Noz müssen dann halt die billigeren Gamerkarten herhalten.
Dann hätte sich NV einen satten Gewinn entgehen lassen.

Jojo. Wer sich Quadro/Tesla nur wegen der Leistung kauft, der macht sowieso irgendwie einen Fehler. :lol:

deekey777
2009-12-09, 12:12:25
Und AMDs Erfolge sind der Rede wert?

Man kann davon ausgehen, dass Nvidia mehr Tesla-Produkte verkauft (hat) als AMD FireStream. Das bringt Kohle.
Auf der anderen Seite pumpt Nvidia viel Geld in Unis, Lehrgänge, Startup-Unternehmen uä. Und das sind keine 100-Euro-Spenden, das sind Millionen. AMD tut das nicht.
Und da stellt sich die Frage, ob sich die Einnahmen der Tesla-Produkte und die Ausgaben für die CUDA-Initiative nicht gegenseitig auffressen.

LovesuckZ
2009-12-09, 12:17:44
Man kann davon ausgehen, dass Nvidia mehr Tesla-Produkte verkauft (hat) als AMD FireStream. Das bringt Kohle.
Auf der anderen Seite pumpt Nvidia viel Geld in Unis, Lehrgänge, Startup-Unternehmen uä. Und das sind keine 100-Euro-Spenden, das sind Millionen. AMD tut das nicht.
Und da stellt sich die Frage, ob sich die Einnahmen der Tesla-Produkte und die Ausgaben für die CUDA-Initiative nicht gegenseitig auffressen.

AMD hat 5 Milliarden Euro in ATi investiert. Wann wird AMD den Punkt ereicht haben, dass "ATi" diese Investition wieder einspielt?
Die Investitionsausgaben werden durch die Einnahmen gedeckt. Gleichzeitig baut man sich das Fundament, um in Zukunft in diesem Markt unerreichbar für die Konkurrenz zu werden. Denn es reicht nicht, einfach nur Grafikkarten ohne richtigen Support anzubieten. Die Leute kaufen sich dann - so wie der Gast - gleich die Consumerprodukte.

Gast
2009-12-09, 12:19:00
Es gibt sehr wichtige Unterschiede was die Quadro Treiber betrifft und auch die Speichermenge dieser GPUs. Falls diese zusaetzliche Funktionalitaeten, Unterstuetzung und Speichermenge u.a. weniger wichtig sein sollten als ein Happen hypothetischer arithmetischer Leistung fuer Euer Institut, besteht so oder so kein Grund dass irgendwelche enorme Summen fuer Quadros anstatt GeForces verplempert werden.
Ein wichtiger Punkt ist die Garantie/Gewährleistung, Langlebigkeit, Treibersupport in Nicht-Win-systemen etc. Solche Karten kann man sich ja auch nicht jedes halbes jahr neu kaufen ;)

Ailuros
2009-12-09, 12:20:41
Man kann davon ausgehen, dass Nvidia mehr Tesla-Produkte verkauft (hat) als AMD FireStream. Das bringt Kohle.
Auf der anderen Seite pumpt Nvidia viel Geld in Unis, Lehrgänge, Startup-Unternehmen uä. Und das sind keine 100-Euro-Spenden, das sind Millionen. AMD tut das nicht.
Und da stellt sich die Frage, ob sich die Einnahmen der Tesla-Produkte und die Ausgaben für die CUDA-Initiative nicht gegenseitig auffressen.

Ich beschaeftige mich selten ausfuehrlich mit finanziellem Zeug weil es mir zu langweilig ist, aber hast Du zumindest eine Indizie dass die Tesla Sparte ihnen rote Zahlen abgibt? Wenn nicht dann sehe ich nicht ein wieso eine solche Investition ueberhaupt langfristig falsch sein koennte.

Zwei weitere Fragen:

1. Angenommen Intel LRB waere schon auf dem Markt, glaubst Du dass Intel nicht zumindest aehnliche Summen investieren wuerde?
2. Wenn AMD den Luxus haette aehnliche Initiativen vorzunehmen, waere es dann fuer sie eine falsche oder richtige Investition fuer die Zukunft?

Ein wichtiger Punkt ist die Garantie/Gewährleistung, Langlebigkeit, Treibersupport in Nicht-Win-systemen etc. Solche Karten kann man sich ja auch nicht jedes halbes jahr neu kaufen ;)

Was hat das jetzt im gegebenen Fall mit meinem vorigen Beitrag zu tun?

Gast
2009-12-09, 12:33:06
Was hat das jetzt im gegebenen Fall mit meinem vorigen Beitrag zu tun?
Die Entscheidung für/gegen Quadros/Geforces fällt nicht allein im Hinblick auf mögliche Unterschiede in der Leistung sondern auch auf Grund der von mir genannten Aspekte.

reunion
2009-12-09, 12:35:27
Wenn ich meine Spezifikation der Leistung niedriger ansetze und die Werte für den Stromverbrauch höher, habe ich eine größere Spanne an verwendbaren Chips. Den Leuten ist es egal, was für Chips mit wievielen aktivierten Teilen auf einer Karte verbaut sind, solange sie in den Spezifikationen laufen.


Und warum sollte ich das ausgerechnet bei den teuersten High-End-Karten ala Tesla machen und nicht bei irgend welchen "Desktop-Abfall"? Nein, das ergibt keinen Sinn, gerade auch da wir hier vom Tesla-Topmodell sprechen und es dort NVs Anliegen sein muss und wird, und auch in der Vergangenheit immer war, möglichst hohe Leistung zu erreichen und das bei einem akzeptablen Stromverbrauch. Gerade in dem Segment ist dass das entscheidende. Dafür ist man auch bereit hier verdammt viel zu zahlen und bei einem derartigen Verkaufspreis kann man das wohl auch erwarten.

Ailuros
2009-12-09, 12:41:17
Die Entscheidung für/gegen Quadros/Geforces fällt nicht allein im Hinblick auf mögliche Unterschiede in der Leistung sondern auch auf Grund der von mir genannten Aspekte.

Und wenn ich nochmal das hier durchlese:

Schade das DU nicht verstehst dass sich Käufer eines teuren Highend-Produktes nicht mit Ware 2. Wahl zufreiden geben

Eine für eine Quadro mit abgesenkten Taktraten und teilaktivierten ROPs
zahl ich nicht 4x soviel wie für die "gleiche" aber "bessere" Gamerkarte. So einfach ist das. Wenn bei mir hier im Institut neue Workstation anstehen und wieder Quadros rein sollen bzw. die Arbeitsgruppe neben an ihre Berechnungen auf CUDA umstellen und auf Fermi hoffen, aber wir beide nur den Abfall/B-Ware bekommen, werden diese eben NICHT gekauft. Zur Noz müssen dann halt die billigeren Gamerkarten herhalten.
Dann hätte sich NV einen satten Gewinn entgehen lassen.

....dann faellt es mir ueberhaupt schwer zu verstehen ueber was genau Du meckerst. Hypothetisch waere die niedrigere arithmetische Leistung eher zweitrangig so wie es sich herauslesen laesst.

Und warum sollte ich das ausgerechnet bei den teuersten High-End-Karten ala Tesla machen und nicht bei irgend welchen "Desktop-Abfall"? Nein, das ergibt keinen Sinn, gerade auch da wir hier vom Tesla-Topmodell sprechen und es dort NVs Anliegen sein muss und wird, und auch in der Vergangenheit immer war, möglichst hohe Leistung zu erreichen und das bei einem akzeptablen Stromverbrauch. Gerade in dem Segment ist dass das entscheidende. Dafür ist man auch bereit hier verdammt viel zu zahlen und bei einem derartigen Verkaufspreis kann man das wohl auch erwarten.

LS verwuschtelt sich selber mit seinen merkwuerdigen Argumenten. Ich erinnerte mit Absicht an die Leistungsreduzierung die nach NVIDIA von EEC kommen sollte, aber es scheint ja wohl auch keiner schnallen zu wollen. Bis zum Punkt wo das Ganze genauer von unabhaengigen Profis investigiert werden kann hab ich persoenlich keine Wahl als es vorruebergehend mit einem grossen Fragezeichen zu akzeptieren.

Und nein natuerlich bin ich nicht so naiv zu glauben dass EEC (falls es ueberhaupt einen sehenswerten Leistungsunterschied ausmachen wuerde) bis zu 40% an arithmetischer Leistung abnagen koennte.

Wie dem auch sei weder Quadro noch GeForce Frequenzen sind bis jetzt bekannt. Momentan hab ich nur folgendes zu lesen:

Update #2, November 18 2009 02:17AM GMT - Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers. The way to win the HPC contract is more complex than the CPUs itself.
Bear in mind that Intel flew heads out of Oak Ridge with their otherwise superior Core 2 architecture after Woodcrest had a reject rate higher than 8% [the results of that Opteron vs. Xeon trial in 2006 are visible today, as Oak Ridge is the site of AMD-powered Jaguar, world's most powerful supercomputer]. In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:

* Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
* ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
* ECC will be disabled on GeForce cards and most likely on Quadro cards
* The capacitors used are of highest quality
* Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
* Multiple fault-protection
* DVI was brought in on demand from the customers to reduce costs
* Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
* Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.

Since Andy is the General Manager for Tesla business, he has no contact with the Quadro Business or GeForce Business units, thus he was unable to answer what the developments are in those segments. We challenged nVidia over several issues and we'll see what the resolve of those open matters will be. In any case, we'll keep you informed.

http://www.brightsideofnews.com/news/2009/11/17/nvidia-nv100-fermi-is-less-powerful-than-geforce-gtx-285.aspx

deekey777
2009-12-09, 13:16:41
Ich beschaeftige mich selten ausfuehrlich mit finanziellem Zeug weil es mir zu langweilig ist, aber hast Du zumindest eine Indizie dass die Tesla Sparte ihnen rote Zahlen abgibt?
Habe ich nicht.
Wenn nicht dann sehe ich nicht ein wieso eine solche Investition ueberhaupt langfristig falsch sein koennte.
Langfristig gesehen, ist sie nicht gerade vorteilhaft. Heute ist Nvidia ein Monopolist im GPGPU-Bereich. Es werden hochqualifizierte Leute ausgebildet, aber deren Studium hat CUDA als Schwerpunkt. Braucht der Markt wirklich solche Kräfte? Ja, wenn der Markt nur auf Nvidia-Produkte setzt.

Ist aber egal: Nvidia ist doch eine Software-Firma.

Zwei weitere Fragen:

1. Angenommen Intel LRB waere schon auf dem Markt, glaubst Du dass Intel nicht zumindest aehnliche Summen investieren wuerde?
2. Wenn AMD den Luxus haette aehnliche Initiativen vorzunehmen, waere es dann fuer sie eine falsche oder richtige Investition fuer die Zukunft?

1. Tut Intel etwa nichts Vergleichbares? Ich glaube schon.
Wenn Larrabee auf dem Markt wäre, würde Intel mit aller Macht versuchen, Ct durchzusetzen, aber auch OpenCL. Nur ist es Intel, ein Unternehmen, das leistungsfähige CPUs produziert.
2. Wenn das der Fall wäre, dann würde Nvidia deutlich weniger tun. Und AMD diesem Beispiel folgen. Es würde sich einfach nicht lohnen. Wenn aber AMD ein ähnliches Monopol hätte wie Nvidia jetzt, dann vielleicht ja.
Ob es aber richtig ist, entscheidet der Markt. Ein Blick auf die Top500 der Supercomputer zeigt, worauf der Markt setzt: auf CPUs.

Aquaschaf
2009-12-09, 13:36:34
Langfristig gesehen, ist sie nicht gerade vorteilhaft. Heute ist Nvidia ein Monopolist im GPGPU-Bereich. Es werden hochqualifizierte Leute ausgebildet, aber deren Studium hat CUDA als Schwerpunkt. Braucht der Markt wirklich solche Kräfte? Ja, wenn der Markt nur auf Nvidia-Produkte setzt.

Ob Leute CUDA, OpenCL oder CS lernen ist für "den Markt" relativ egal. Die notwendigen Fähigkeiten und Denkweisen sind identisch.

Ein Blick auf die Top500 der Supercomputer zeigt, worauf der Markt setzt: auf CPUs.

"Der Markt" hat ein Trägheitsmoment, GPUs sind noch zu jung um dort aufzutauchen.

Ailuros
2009-12-09, 13:38:05
Habe ich nicht.

Hilft mir aber nicht besonders viel im gegebenem Fall.

Langfristig gesehen, ist sie nicht gerade vorteilhaft. Heute ist Nvidia ein Monopolist im GPGPU-Bereich. Es werden hochqualifizierte Leute ausgebildet, aber deren Studium hat CUDA als Schwerpunkt. Braucht der Markt wirklich solche Kräfte? Ja, wenn der Markt nur auf Nvidia-Produkte setzt.

Und hier kommt die Frage wie genau sie dieses quasi Monopol erreicht haben in Profi-Maerkten schon vor CUDA erschien? Natuerlich ist NV's Ziel so grossen wie moeglich Durchrbruch fuer CUDA und ihre GPUs zu erreichen, aber im gegebenen Fall sieht jegliche solche Initiative nach nichts anderem aus als dass was sie auch im 3D Markt mit ihren Unterstuetzungs-Initiativen dort vornehmen oder besser ausgedrueckt eine spezialisierte Evolution jeglicher bisherigen Unterstuetzung.

Ist aber egal: Nvidia ist doch eine Software-Firma.

LOL :D

1. Tut Intel etwa nichts Vergleichbares? Ich glaube schon.

Mit Powerpoint slides?

Wenn Larrabee auf dem Markt wäre, würde Intel mit aller Macht versuchen, Ct durchzusetzen, aber auch OpenCL. Nur ist es Intel, ein Unternehmen, das leistungsfähige CPUs produziert.

Larabee wurde nicht aufgegeben als Projekt sondern in die Zukunft versetzt. Noch ein Grund mehr fuer NVIDIA zu versuchen so viel wie moeglich zusammenzukrallen. Je etablierter CUDA und Quadros/GeForces in der Zukunft sein werden desto schwerer fuer Intel von Null anzufangen.

2. Wenn das der Fall wäre, dann würde Nvidia deutlich weniger tun.

Wenn man nicht saeht sollte man auch keine Ernte erwarten. NVIDIA sorgt fuer ihre eigenen Ambitionen vor.

Und AMD diesem Beispiel folgen. Es würde sich einfach nicht lohnen. Wenn aber AMD ein ähnliches Monopol hätte wie Nvidia jetzt, dann vielleicht ja.

Es ist nicht NV's Fehler dass AMD's Ambitionen zu bescheiden sind. Von nichts kommt auch nichts und selbst die beste hw ohne die richtige Promotion und Unterstuetzung nicht ziemlich weit kommen. Glaubst Du ehrlich dass es AMD im Profi-Markt nur ueber solche Initiativen mangelt? Oder ist es reiner Zufall dass mehrere Profis ueber AMD's fehlende Unterstuetzung meckern? Das Ganze mag zwar insgesamt irrelevant klingen aber es handelt sich trotz allem um eine insgesamte Philosophie.

Weil AMD eben keinen besonderen Profi-Marktanteil hat koennen sie sich natuerlich so passiv verhalten und hoffen dass ab und zu mal jemand auf irgend ein ihrer FireGL Produkte steigt. Anders gefragt was genau muesste denn AMD genau anstellen wenn sie eine gesunde Steigerung im Profimarkt gerne sehen wuerden?

Ob es aber richtig ist, entscheidet der Markt. Ein Blick auf die Top500 der Supercomputer zeigt, worauf der Markt setzt: auf CPUs.

Fuer wie lange?

Gast
2009-12-09, 13:56:55
Drittens ist gerade im Tesla-Segment die Leistung/Watt das Argument schlechthin.

Genau deshalb ist es durchaus sinnvoll dort niedriger Getaktete Chips zu verwenden, am Taktlimit sieht es nämlich mit Leistung/Watt nicht unbedingt gut aus.

mictasm
2009-12-09, 14:00:59
Genau deshalb ist es durchaus sinnvoll dort niedriger Getaktete Chips zu verwenden, am Taktlimit sieht es nämlich mit Leistung/Watt nicht unbedingt gut aus.
Oh ja, vor wievielen Seiten wurde das bereits durchgekaut... 50, 60, 90?

LovesuckZ
2009-12-09, 14:05:04
Leistung/Watt spielt nur dann eine Rolle, wenn es eine Alternative gibt. Die gibt es im nächsten Jahr im Tesla-Bereich nicht zu nVidia in Form einer ähnlich schnellen Einheit. Entweder nimmt man sich eine GPU mit Fermi von nVidia oder eine dementsprechend x Anzahl von CPUs. nVidia hat mit Fermi so oder so ein Leistung/Watt Vorsprung vor der CPU Konkurrenz.

Gast
2009-12-09, 14:06:59
....dann faellt es mir ueberhaupt schwer zu verstehen ueber was genau Du meckerst. Hypothetisch waere die niedrigere arithmetische Leistung eher zweitrangig so wie es sich herauslesen laesst.

Meckern tu ich gar nicht, ich habe auf lovesucks Beitrag geantwortet weil er/sie davon ausgeht das NV die teuren highend-Produkte mit den "Ausschußchips" ausstatten könnte damit mehr "gute" für die Gamer über bleiben.

Für Quadros mögen ein paar prozent arithmetische Leistung tatsächlich nebensächlich sein, bei Fermis für HPC-Anwendungen schon nicht mehr.

Wenn ich als Kunde jedoch wüßte dass NV ihre "B-Ware" 4x teuer verkauft als ihre Gamerkarten würde ich mir keine holen, trotz vielleicht besserem Treibersupport. Einfach schon weil ich mich verrascht vorkommen würde.

Deshalb glaube ich nicht an die theorie: B-Ware-Chips in die teuersten Produkte

LovesuckZ
2009-12-09, 14:11:41
Wenn ich als Kunde jedoch wüßte dass NV ihre "B-Ware" 4x teuer verkauft als ihre Gamerkarten würde ich mir keine holen, trotz vielleicht besserem Treibersupport. Einfach schon weil ich mich verrascht vorkommen würde.


Ach und wenn sie die selbe Qualität ebenfalls teuer verkaufen, fühlst du dich dann wohler? :rolleyes:
nVidia legt Spezifikation fest. Es spielt für den Kunden überhaupt keine Rolle, welche Art von Chip diese Spezifikation erreicht. Legt man die Spezifikation tiefer, hat man eine größere Auswahl von vom bandlaufenden Chips. Da man im Tesla-Markt auf der GPU Seite keine Konkurrenz hat und gegenüber CPUs in einigen Bereich weit voraus sein wird, muss man hier nicht die Spezifikation ans obere Limit legen.

Gast
2009-12-09, 14:13:39
Entweder nimmt man sich eine GPU mit Fermi von nVidia oder eine dementsprechend x Anzahl von CPUs.
Oder aber ATIs wenn ich auf DP angewiesen bin.

Gast
2009-12-09, 14:23:37
Ach und wenn sie die selbe Qualität ebenfalls teuer verkaufen, fühlst du dich dann wohler? :rolleyes:

wenn die Zusatzfeatures, längere Garantie, Support, Treiber stimmen. JA.
also genau aus dem Grund warum bisher so viele Quadros verkauft wurden. Oder glaubst du dass jeder quadro kunde nur zu blöd war und sich besser eine billige geforce hätte kaufen sollen?

Da man im Tesla-Markt auf der GPU Seite keine Konkurrenz hat und gegenüber CPUs in einigen Bereich weit voraus sein wird, muss man hier nicht die Spezifikation ans obere Limit legen.
Die bisherigen Teslas waren fast auf den Punkt genau so schnell wie ihre Geforce-brüder. warum sollte NV plötzlich mit weniger zufrieden sein?
Oder auch die Kunden?
Ich bleibe bei meiner Meinung, NV wird für ihre Profisparte NICHT auf "B-Ware" zurückgreifen.
Alles andere erscheint mir unlogisch

reunion
2009-12-09, 14:28:27
Genau deshalb ist es durchaus sinnvoll dort niedriger Getaktete Chips zu verwenden, am Taktlimit sieht es nämlich mit Leistung/Watt nicht unbedingt gut aus.

Das ist zwar richtig, die TDP von 225W spricht aber nicht unbedingt dafür als ob man hier noch haufenweise Luft nach oben hätte. Und zumindest beim High-End-Modell sollte man maximale Leistung erwarten können.

Oder aber ATIs wenn ich auf DP angewiesen bin.

Du meinst wenn ich auf SPs angewiesen bin. DP sollte Fermi zumindest gleichziehen, SP fehlt mit den Specs bei den Teslas einiges.

LovesuckZ
2009-12-09, 14:30:32
wenn die Zusatzfeatures, längere Garantie, Support, Treiber stimmen. JA.
also genau aus dem Grund warum bisher so viele Quadros verkauft wurden. Oder glaubst du dass jeder quadro kunde nur zu blöd war und sich besser eine billige geforce hätte kaufen sollen?

Nein, ich glaube, dass der Quadro-Kunde sich für die Karten entschieden hat, weil ihm die Spezifikation überzeugt haben und nicht, weil er sich als anonymer Typ im Internet darüber beschwerte, dass man ihm früher mal B-Ware angedreht hätte.


Die bisherigen Teslas waren fast auf den Punkt genau so schnell wie ihre Geforce-brüder. warum sollte NV plötzlich mit weniger zufrieden sein?
Oder auch die Kunden?
Ich bleibe bei meiner Meinung, NV wird für ihre Profisparte NICHT auf "B-Ware" zurückgreifen.
Alles andere erscheint mir unlogisch

Es gibt keine B-Ware. Gott, wie trollig muss man sein, um das dauernd zu wiederholen? Die Kunden von nVidia kaufen oder kaufen nicht. Wenn sie mit den Spezifikationen nicht einverstanden sind, dann kaufen sie nicht. Die kaufen nicht Karten, weil die Spezifikationen von Tesla und Geforce ähnlich sind. Wer so denkt, der will entweder nur trollen oder versteht es einfach nicht. Und bald wissen wir ja, wohin die Taktreise geht.
Deswegen EoD.

deekey777
2009-12-09, 14:36:50
Das ist zwar richtig, die TDP von 225W spricht aber nicht unbedingt dafür als ob man hier noch haufenweise Luft nach oben hätte. Und zumindest beim High-End-Modell sollte man maximale Leistung erwarten können.



Du meinst wenn ich auf SPs angewiesen bin. DP sollte Fermi zumindest gleichziehen, SP fehlt mit den Specs bei den Teslas einiges.
Einfach mal mit 2 multiplizieren, dann hat man auch die SP-Leistung.

:weg:

reunion
2009-12-09, 14:37:48
Einfach mal mit 2 multiplizieren, dann hat man auch die SP-Leistung.

:weg:

Habe ich irgendwo den Eindruck erweckt als würde ich das nicht wissen?

MorPheuZ
2009-12-09, 14:52:06
Wenn ich als Kunde jedoch wüßte dass NV ihre "B-Ware" 4x teuer verkauft als ihre Gamerkarten würde ich mir keine holen, trotz vielleicht besserem Treibersupport. Einfach schon weil ich mich verrascht vorkommen würde.

Deshalb glaube ich nicht an die theorie: B-Ware-Chips in die teuersten Produkte

Das hat nix mit verarsche zu tun! Im "Profibereich" wird der Preis meistens durch den Service "verteuert" (Garantieleistungen, Treiber, SW Support, direkte(ren) Kontakt). Oder sogar über ganze Serviceverträge über bestimmte Produkte (Zeitbegrenzt). Das ist in der Branche (IBM, HP, Sun, MS) das normalste der Welt. Also auch für nv.

Gast
2009-12-09, 14:58:17
Nein, ich glaube, dass der Quadro-Kunde sich für die Karten entschieden hat, weil ihm die Spezifikation überzeugt haben und nicht, weil er sich als anonymer Typ im Internet darüber beschwerte, dass man ihm früher mal B-Ware angedreht hätte.

welchem anonymen Typen wurde früher mal was für B-Ware angedreht? von welcher Firma, und warum überhaupt? Wovon redest du?

Quadro-Kunden haben Quadros gekauft weil sie von der Qualität und vom Support überzeugt waren.
Wenn du recht hättest und NV schlechtere chips in ihre besten Produkte verbaut bedeutet das:
Weniger Qualität --> weniger verkaufte quadros


Es gibt keine B-Ware. Gott, wie trollig muss man sein, um das dauernd zu wiederholen? Die Kunden von nVidia kaufen oder kaufen nicht.
Du schriebst:
"Aus wirtschaftlicher Sicht macht es mehr Sinn im Tesla Bereich die schlechten Chips zu verwenden"
Ich habe aus "schlechtere chips" "B-Ware" gemacht, das gebe ich gerne zu, ist in meinem Verständnis aber keine sinnverändernde Umschreibung sondern ein Synonym. Insofern bezeichnest du dich selbst gerade als Troll.

Die kaufen nicht Karten, weil die Spezifikationen von Tesla und Geforce ähnlich sind. Wer so denkt, der will entweder nur trollen oder versteht es einfach nicht.
Deswegen EoD.

hat auch niemand hier behauptet.

Ailuros
2009-12-09, 15:01:56
Meckern tu ich gar nicht, ich habe auf lovesucks Beitrag geantwortet weil er/sie davon ausgeht das NV die teuren highend-Produkte mit den "Ausschußchips" ausstatten könnte damit mehr "gute" für die Gamer über bleiben.

Dass ich von seiner Argumentation zu diesem Thema nichts halte duerfte in der Zwischenzeit klar sein.

Für Quadros mögen ein paar prozent arithmetische Leistung tatsächlich nebensächlich sein, bei Fermis für HPC-Anwendungen schon nicht mehr.

Deshalb setzte ich auch NV's hauseigene Erklaerung ein, dass Tesla boards dank EEC niedrigere Frequenzen haben werden.

Wenn ich als Kunde jedoch wüßte dass NV ihre "B-Ware" 4x teuer verkauft als ihre Gamerkarten würde ich mir keine holen, trotz vielleicht besserem Treibersupport. Einfach schon weil ich mich verrascht vorkommen würde.

Tja Ihr koennt ja stets zu AMD FireGL's greifen oder? Sarkasmus zur Seite angenommen die eher merkwuerdige EEC These stimmt, handelt es sich keinesfalls um eine Verarschung der Kundschaft.

Deshalb glaube ich nicht an die theorie: B-Ware-Chips in die teuersten Produkte

Momentan klingt es mir wahrscheinlicher dass es ECC bedingt ist als dass NV irgendwelchen Abfall im HPC Markt verschrottet. Wir wissen wohl erst dann mehr wenn es in der absehbaren Zukunft moeglich sein wird auf jeglicher GPU durch einen hack EEC an und auszuschalten und dann die Leistungsdifferenzen untersuchen.

Gast
2009-12-09, 15:08:23
Das hat nix mit verarsche zu tun! Im "Profibereich" wird der Preis meistens durch den Service "verteuert" (Garantieleistungen, Treiber, SW Support, direkte(ren) Kontakt). Oder sogar über ganze Serviceverträge über bestimmte Produkte (Zeitbegrenzt). Das ist in der Branche (IBM, HP, Sun, MS) das normalste der Welt. Also auch für nv.
Ist mir völlig klar das ein guter Support, Garantie usw usw Geld kosten und deshalb eine quadro teurer ist als eine geforce, ich habe nie etwas anderes behauptet.
Ich widerspreche nur der These das NV auf ihren zukünftigen Tesla und Quadro-Produkten minderwertigere Chips einsetzen wird als auf den Geforce-Gamerkarten

LovesuckZ
2009-12-09, 15:09:15
Du schriebst:
"Aus wirtschaftlicher Sicht macht es mehr Sinn im Tesla Bereich die schlechten Chips zu verwenden"
Ich habe aus "schlechtere chips" "B-Ware" gemacht, das gebe ich gerne zu, ist in meinem Verständnis aber keine sinnverändernde Umschreibung sondern ein Synonym. Insofern bezeichnest du dich selbst gerade als Troll.


Spätestens hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7706626&postcount=6570) hättest du es begreifen müssen, was ich meine. Da du es aber nicht getan hast, bist du entweder ein Troll oder dumm.
Jetzt aber wirklich EoD. :)

Gast
2009-12-09, 15:12:24
Deshalb setzte ich auch NV's hauseigene Erklaerung ein, dass Tesla boards dank EEC niedrigere Frequenzen haben werden.
Momentan klingt es mir wahrscheinlicher dass es ECC bedingt ist als dass NV irgendwelchen Abfall im HPC Markt verschrottet. Wir wissen wohl erst dann mehr wenn es in der absehbaren Zukunft moeglich sein wird auf jeglicher GPU durch einen hack EEC an und auszuschalten und dann die Leistungsdifferenzen untersuchen.
Das mit dem ECC kann sein, da will ich aber nicht mitreden, da kenn ich mich nicht aus. Klingt aber auf den ersten Blick relativ einleuchtend.

Gast
2009-12-09, 15:26:49
Spätestens hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7706626&postcount=6570) hättest du es begreifen müssen, was ich meine. Da du es aber nicht getan hast, bist du entweder ein Troll oder dumm.
Jetzt aber wirklich EoD. :)
Deine Meinung hast du klar gemacht und ist auch verstanden worden, ich widerspreche deiner These jedoch da sie unlogisch ist.
Deinen pampigen Trollvorwürfe bzw mir Dummheit zu unterstellen unterstreicht nur deine schlampige Argumentation und Hilflosigkeit
Du schriebst:

Es geht nicht um kaputte Chips, sondern Chips, die man im Consumer-Bereich billig anbieten müsste, weil sie bestimmte Taktraten nicht schaffen, oder Fehler in SM/ROPs aufweisen. Der Einstieg bei Tesla liegt bei 2500$. Eine GTX360 wird es für ca. 400$ geben. Wo wird man also wohl eher solche Chips hinwandern lassen?

Aus wirtschaftlicher Sicht macht es mehr Sinn im Tesla Bereich die schlechten Chips zu verwenden. Und im Tesla-Bereich verkauft man dann eben die schlechten. Die, die man im Geforce-Bereich günstiger an die AIBs verkaufen müsste.

du behauptest also das chips die bspw. defekte in SM/ROPs aufweisen eher in eine 2500€ teure Tesla wandern als in eine 400€ Consumer Karte.
Ich sage: NV wär schön blöd wenn sie das so handhaben würden.
Das mag auf den ersten Blick für einen Laien vielleicht so scheinen dass das wirtschaftlich mehr Sinn macht, so nach dem Motto "Mit dem Ausschuß noch mal richtig Kohle machen".
Längerfristig schadet das jedoch, da die Stammkundschaft, die die teuren Teslas und Quadros kaufen das nicht mehr mitmachen würden.

MorPheuZ
2009-12-09, 15:47:09
Ist mir völlig klar das ein guter Support, Garantie usw usw Geld kosten und deshalb eine quadro teurer ist als eine geforce, ich habe nie etwas anderes behauptet.
Ich widerspreche nur der These das NV auf ihren zukünftigen Tesla und Quadro-Produkten minderwertigere Chips einsetzen wird als auf den Geforce-Gamerkarten

Sollte auch nicht belehrend klingen. Sollte aber jedem klar sein dass dies nunmal so ist und nix mit schlechteren/besseren Chips zu tun hat! Wenn ein Yeld Ausbeute nicht sein soll Wert erreicht wird er höchstens als nächst niedriger verkauft -> schlechter Q9550 wird zu Q9450 z.B.

LovesuckZ
2009-12-09, 15:47:18
Kann jemand das Thema bitte splitten?

tombman
2009-12-09, 15:48:57
... so nach dem Motto "Mit dem Ausschuß noch mal richtig Kohle machen".
Längerfristig schadet das jedoch, da die Stammkundschaft, die die teuren Teslas und Quadros kaufen das nicht mehr mitmachen würden.
Die Frage ist doch: Wie definiert ihr beiden denn B-Ware?
Ist die nur langsamer getaktet und/oder UNZUVERLÄSSIGER? Solange ihr zwei das nicht geklärt habt, redet ihr aneinander vorbei.
Wenn die Hochtaktchips und die Niedrigtaktchips vom selben Band laufen und die Zuverlässigkeit gleich bleibt, warum soll dann NV die Niedrigtaktchips nicht in Tesla verbauen?

Soundwave1983
2009-12-09, 15:55:10
Von nVs Tesla Site:
If you are a professional in the education segment, we designed a special promotion to help you continue your research while being one of the first in line to receive a new Tesla 20-series GPU Computing Processor or 1U Computing System.

Hurry! This offer ends on January 31, 2010. Don’t miss this opportunity to be first to do mad science with the next generation Tesla GPU computing products based on Fermi. Please contact a Tesla Preferred Providers for more information on pricing and availability. For any questions, please email us at tesla@nsc-nvidia.com.

Ein Wink mit dem Zaunpfahl? :wink:

LovesuckZ
2009-12-09, 15:58:58
Die Frage ist doch: Wie definiert ihr beiden denn B-Ware?
Ist die nur langsamer getaktet und/oder UNZUVERLÄSSIGER? Solange ihr zwei das nicht geklärt habt, redet ihr aneinander vorbei.

Es ist geklärt. Das Problem ist, dass der Gast es nicht akzeptieren will. Sein einziges Argument ist: nVidia wäre dumm, nVidia wäre dumm, nVidia wäre dumm...


Wenn die Hochtaktchips und die Niedrigtaktchips vom selben Band laufen und die Zuverlässigkeit gleich bleibt, warum soll dann NV die Niedrigtaktchips nicht in Tesla verbauen?

Das ist es ja, dass er nicht verstehen will oder kann. Chips sind nur dann schlecht, wenn man sie nicht für Produkte verwenden kann. Wenn man die Spezifikation im Tesla-Bereich niedriger ansetzt als im Consumer-Bereich, dann werden keine fehlerhaften Chips verbaut, sondern Chips, die diese Spezifikation erreichen und fehlerfrei funktionieren.
Seiner Argumentations folgend müsste jeder Chip auf einer nVidia Karte mit teildeaktivierten Chipbereichen oder niedrigenden Taktraten fehlerhaft sein und nicht verwendbar.
D.H: Entweder kauft man sich eine Karte, weil sie die für ihn benötigte Leistung erreicht oder nicht. Oder hat hier schonmal jemand eine GTX280 über einer GTX260 gekauft, weil er dachte, dass dort nur die richtigen, fehlerfreien, verwendbaren Chips hinwandern?

tombman
2009-12-09, 16:04:34
Oder hat hier schonmal jemand eine GTX280 über einer GTX260 gekauft, weil er dachte, dass dort nur die richtigen, fehlerfreien, verwendbaren Chips hinwandern?
Ja, ich :facepalm:
Ne, Scherz, ich will nur keine "beschnittenen" Chips ;)

Btw, sind die Chips denn jetzt wirklich gleich zuverlässig und unterscheiden sich nur im Takt? Ist das gesichertes Wissen?

Gast
2009-12-09, 16:23:36
Es ist geklärt. Das Problem ist, dass der Gast es nicht akzeptieren will. Sein einziges Argument ist: nVidia wäre dumm, nVidia wäre dumm, nVidia wäre dumm...

Das ist kein Argument sondern wäre die Schlussfolgerung wenn....
Bei deiner selektiven Wahrnehmung und falschen Interpretation meiner Texte wird mir allerdings immer klarer das du nicht in der Lage bist den Unterschied zu erkennen.

Ich sehe weiterhin keinen Grund deine Meinung akzeptieren zu müssen.

Gast
2009-12-09, 16:25:33
Seiner Argumentations folgend müsste jeder Chip auf einer nVidia Karte mit teildeaktivierten Chipbereichen oder niedrigenden Taktraten fehlerhaft sein und nicht verwendbar.

Nein, du interpretierst wieder deine Wünsche in mein Geschriebenes.

Dural
2009-12-09, 18:16:48
wartet doch einfach den januar ab ;)

Nazar
2009-12-09, 18:21:02
Die Frage ist doch: Wie definiert ihr beiden denn B-Ware?
Ist die nur langsamer getaktet und/oder UNZUVERLÄSSIGER? Solange ihr zwei das nicht geklärt habt, redet ihr aneinander vorbei.
Wenn die Hochtaktchips und die Niedrigtaktchips vom selben Band laufen und die Zuverlässigkeit gleich bleibt, warum soll dann NV die Niedrigtaktchips nicht in Tesla verbauen?

Sind die Tesla nicht für Workstations gedacht?
Wenn ja, dann passt Deine Aussage nicht, da die Qualität, unabhängig vom Chiptakt, bei Workstations deutlich höher sein muss als auf dem Spielemarkt.
Man nimmt dafür eigentlich Hochtaktchips, die man dann extra niedriger taktet, um die Ausfallrate zu minimieren.

Coda
2009-12-09, 18:32:00
Btw, sind die Chips denn jetzt wirklich gleich zuverlässig und unterscheiden sich nur im Takt? Ist das gesichertes Wissen?
Sie sollten gleich zuverlässig sein. Das Binning wird für alle GPUs durchgeführt.

GTX260-Chips enthalten halt möglicherweise defekte Teilcluster durch Punktdefekte auf dem Wafer, aber die beeinflussen den Rest des Chips ja nicht.

Chris2CB
2009-12-09, 18:35:41
Sind die Tesla nicht für Workstations gedacht?
Wenn ja, dann passt Deine Aussage nicht, da die Qualität, unabhängig vom Chiptakt, bei Workstations deutlich höher sein muss als auf dem Spielemarkt.
Man nimmt dafür eigentlich Hochtaktchips, die man dann extra niedriger taktet, um die Ausfallrate zu minimieren.

Dem kann man nur beistimmen, GPU ist das einzige was bei einer Graka den Geist aufgeben kann......

Black-Scorpion
2009-12-09, 18:39:26
Schätzungsweise wissen das bis auf einen alle.
Und der wird es nie begreifen.
Ich frage mich echt wie lange es noch geduldet wird das er mit seinen abstrusen Vorstellungen jeden Thread schrotten kann.

Coda
2009-12-09, 18:45:22
Dem kann man nur beistimmen, GPU ist das einzige was bei einer Graka den Geist aufgeben kann......
Bei Quadros laufen auch die RAMs mit niedrigem Takt und die Spannungswandler sind wohl auch besser.

y33H@
2009-12-09, 19:07:24
Es kommen ein anderes PCB und ein anderer Kühler zum Einsatz, ja.

Leonidas
2009-12-09, 19:09:57
Und warum sollte ich das ausgerechnet bei den teuersten High-End-Karten ala Tesla machen und nicht bei irgend welchen "Desktop-Abfall"? Nein, das ergibt keinen Sinn, gerade auch da wir hier vom Tesla-Topmodell sprechen und es dort NVs Anliegen sein muss und wird, und auch in der Vergangenheit immer war, möglichst hohe Leistung zu erreichen und das bei einem akzeptablen Stromverbrauch. Gerade in dem Segment ist dass das entscheidende. Dafür ist man auch bereit hier verdammt viel zu zahlen und bei einem derartigen Verkaufspreis kann man das wohl auch erwarten.


Vor allem da die Stückzahlen dort so gering sind, daß es keine Rolle spielt, ob man nun ausgerechnet die schlechtesten GF100-Chips oder die besten nimmt - dies ändert nichts an der Ausgangssituation, wieviel Prozent gute Chips und wieviel Prozent schlechte Chips sind. Ergo kann man auch problemlos die besten GF100-Chips nehmen - es bleiben davon trotzdem noch mehr als genügend für die GeForce-Serie übrig.

aths
2009-12-09, 20:53:16
Kommt drauf an wie die Performance des Fermi bei Spielen ist.Fermi wird für Spieler nicht verkauft werden. (Spieler kaufen auch keine Nvidia-Tesla-Karte.)

Coda
2009-12-09, 21:20:41
Natürlich wird Fermi für Spieler verkauft werden - die GeForce verwendet ja den gleichen Chip, oder nicht?

LovesuckZ
2009-12-09, 21:43:10
Fermi ist eine Architekturbezeichnung und kein Codename für Verkaufsbereiche.

Gestrandet
2009-12-09, 22:14:25
Dann haben wir im Moment die Tesla Architektur?!?

mapel110
2009-12-09, 22:16:24
Dann haben wir im Moment die Tesla Architektur?!?
Nein, Fermi wird als Tesla, Geforce und Quadro auf den Markt kommen.

PulsarS
2009-12-10, 00:15:20
Natürlich wird Fermi für Spieler verkauft werden - die GeForce verwendet ja den gleichen Chip, oder nicht?
Klar doch.
Aths wollte doch nur ein wenig Haarspalterei betreiben, was diesmal aber zu einem Eigentor für ihn geworden ist. :rolleyes:

Bei Quadros laufen auch die RAMs mit niedrigem Takt
Was doch ein wenig verwundert, denn diese haben ja auch eine bestimmte Spezifikation. Und beim RAM bringt es kaum etwas, wenn man diese (deutlich) unter den Spec betreibt, auch wenn die Speicherbandbreite in diesem Bereich wohl nicht sooo wichtig ist.

und die Spannungswandler sind wohl auch besser.
Wenn man die schlechteren GPUs für die Profikarten nehmen würde, dann würde es sogar Sinn machen, sonst aber eine ziemlich fragwürdige Aktion....

Coda
2009-12-10, 00:17:29
Jain. Spannungswandler mit mehr Phasen werden nicht so heiß und halten deshalb wohl auch länger.

Gast
2009-12-10, 00:29:41
...und sie gewährleisten einen stabileren Betrieb unter allen denkbaren Umständen, was viel wichtiger als Haltbarkeit ist.
Spielzeug darf sich gern mal verhaspeln, eine Karte im professionellen Einsatz nicht!

PulsarS
2009-12-10, 00:40:51
Jain. Spannungswandler mit mehr Phasen werden nicht so heiß und halten deshalb wohl auch länger.
Ist schon klar.
Nur wie lange sollte so eine Profi-Karte halten?
5 Jahre?
Das ist in der IT-Branche eine Ewigkeit.
Bei Wissenschafts-Computern tickt die Zeit ja vielleicht anders, da habe ich nicht so viel Ahnung.
Aber selbst normale Gamer-Karten sind mir seit es überhaupt Geforce gibt noch nie verreckt, von einer 9800PRO mit Silencer mal abgesehen.

@Gast
Profi-Computer werden in der Regel sogar besser gekühlt als der Heim-PC.
Bei Banken z.b. gibt es dafür extra klimatisierte Räume.
Wird wohl bei anspruchsvollen Wissenschaftscomputern noch extremer sein.
Wofür also der Aufwand?

Gast
2009-12-10, 01:12:11
Aber selbst normale Gamer-Karten sind mir seit es überhaupt Geforce gibt noch nie verreckt, von einer 9800PRO mit Silencer mal abgesehen.

Vernichtet ein fehlgezeichneter Pixel Wochen deiner Arbeit? Sicher nicht, vielleicht bzw. ganz sicher wirst du die meisten Fehlfunktionen deiner Karte nichtmal bewußt wahrnehmen. Das Spielzeug erledigt auch maximal Jobs, welche in 5-30 Minuten gegessen sind (Filme komprimieren etc).


Wofür also der Aufwand?

Das Produkt muss unter allen Umständen so funktionieren, wie es laut Spezifikation soll. Fehlerquelle No.1 ist und bleibt die Stromversorgung. Sie ist der einzige Parameter, der gewissen Schwankungen unterliegt, sei es die ein oder andere Spannungsspitze oder ein kurzer Abfall bei Einsatz einer USV. Vom teilweise grottigen Stromnetz in anderen "zivilisierten" Ländern (USA) braucht man da erst gar nicht anzufangen:D

Man darf solche Hardware nicht an den Rand der Spezifikation treiben, da sie dann anfälliger für Fehler wird...deshalb niedriger Takt, bessere Stromversorgung und fehlerkorrigierter Speicher etc.
Wie bei Server-CPUs wird auch beim Fermi nur ein hochwertiger Chip in den Profimarkt finden...Man braucht diesen Spielraum um zuverlässig zu sein!

PulsarS
2009-12-10, 01:45:40
Das Produkt muss unter allen Umständen so funktionieren, wie es laut Spezifikation soll. Fehlerquelle No.1 ist und bleibt die Stromversorgung. Sie ist der einzige Parameter, der gewissen Schwankungen unterliegt, sei es die ein oder andere Spannungsspitze oder ein kurzer Abfall bei Einsatz einer USV. Vom teilweise grottigen Stromnetz in anderen "zivilisierten" Ländern (USA) braucht man da erst gar nicht anzufangen:D
Spannungsspitzen werden von Netzteil geglättet, denn das ist die Aufgabe des Netzteils und nicht der Spannungsversorgung der Grafikkarte.
Auch der Einsatz eines USV -> Netzteil.

Man darf solche Hardware nicht an den Rand der Spezifikation treiben, da sie dann anfälliger für Fehler wird...
Das wird selbst im Consumerbereich eigentlich nie gemacht.
Ich denke kein Hersteller ist über eine hohe RMA-Quote erfreut...
Man lässt selbst im Consumerbereich mehr als genug Spielraum.

deshalb niedriger Takt,
Bei Bedingungen, die einer Profikarte gerecht werden (Klimaraum) unnötig.

bessere Stromversorgung
Same here.
Wofür?
Wenn die Karten besser behandelt werden wie zu Hause?

und fehlerkorrigierter Speicher etc.
Mit dieser Aussage kann ich ja noch konform gehen.

Wie bei Server-CPUs wird auch beim Fermi nur ein hochwertiger Chip in den Profimarkt finden...
Da hat aber LS ganz andere Behauptungen aufgestellt... :rolleyes:

Man braucht diesen Spielraum um zuverlässig zu sein!
Wenn man einen Klimaraum hat nicht wirklich.

Gast
2009-12-10, 02:21:18
Spannungsspitzen werden von Netzteil geglättet, denn das ist die Aufgabe des Netzteils und nicht der Spannungsversorgung der Grafikkarte.

Zum Großteil ja, leider nicht immer in ausreichendem Maße. Alles läßt sich nicht wegbügeln;)


Das wird selbst im Consumerbereich eigentlich nie gemacht.


Da werden doch ganz andere Anforderungen an ein Produkt gestellt. Du ärgerst dich vielleicht über einen Absturz oder einen kleinen Bildfehler, der Typ, der damit Geld verdienen will bzw. verlässliche Ergebnisse erwartet, der kann sowas nicht akzeptieren.


Wenn man einen Klimaraum hat nicht wirklich.

Und? Jeder kaufbare Chip bzw Karte ist auf Tauglichkeit in einem gewissen Temperaturbereich hin spezifiziert und getestet. Das heißt, dass man den worst case mit einbezieht!
Übertaktete Karten erzeugen oft auch bei relativer Kühle Fehler, nur hat das im Heimbereich keinerlei Relevanz. Rundungsfehler sind kein Problem bei solchem Spielkram. Meist stürzt da noch nichmal irgendwas ab:)

PulsarS
2009-12-10, 02:35:23
Zum Großteil ja, leider nicht immer in ausreichendem Maße. Alles läßt sich nicht wegbügeln;)
Mit Spanungswandlern kannst du aber keine Spannungsspitzen glätten.
Ohne dedizierte Kondensatoren hast du keine Chance.

Da werden doch ganz andere Anforderungen an ein Produkt gestellt. Du ärgerst dich vielleicht über einen Absturz oder einen kleinen Bildfehler, der Typ, der damit Geld verdienen will bzw. verlässliche Ergebnisse erwartet, der kann sowas nicht akzeptieren.
Selbst im Consumerbereich stürzt bei mir nichts wegen Unterdimensionierung der Bauteile ab.
Wenn, dann sind die SPielprogrammierer schuld.
Hat mit der Hardware nichts zu tun.

Und? Jeder kaufbare Chip bzw Karte ist auf Tauglichkeit in einem gewissen Temperaturbereich hin spezifiziert und getestet. Das heißt, dass man den worst case mit einbezieht!
Deswegen gibt es ja Klimaräume.
Was gibt es daran nicht zu verstehen?

Übertaktete Karten erzeugen oft auch bei relativer Kühle Fehler, nur hat das im Heimbereich keinerlei Relevanz. Rundungsfehler sind kein Problem bei solchem Spielkram. Meist stürzt da noch nichmal irgendwas ab:)
Rundungsfehler sind also bei Spielen unwichtig? :rolleyes:
Ich glaube damit hat sich die Diskussion mit dir für mich erledigt, denn das ist schlicht Bullshit.

Coda
2009-12-10, 02:50:14
Mit Spanungswandlern kannst du aber keine Spannungsspitzen glätten.
In gewissem Maße können sie das schon.

Selbst im Consumerbereich stürzt bei mir nichts wegen Unterdimensionierung der Bauteile ab.
Das heißt noch lange nicht, dass diese Hardware auch 24/7 im Rechenzentrum laufen würde. Da sind einfach andere Toleranzen erforderlich.

PulsarS
2009-12-10, 02:57:23
In gewissem Maße können sie das schon.
Nicht wirklich.
Wenn das Netzteil nicht ausreichend dimensioniert ist, helfen dir auch die Spannungswandler nicht weiter.
Das Netzteil ist hier das Wichtigste.
Der Rest ist Kinderkram.


Das heißt noch lange nicht, dass diese Hardware auch 24/7 im Rechenzentrum laufen würde. Da sind einfach andere Toleranzen erforderlich.
Ich habe aber keinen Klimaraum zu Hause, wie es sich für einen Supercomputer gehört.
Also, was wolltest Du mir jetzt damit sagen? :confused:

BlackBirdSR
2009-12-10, 07:19:15
Fermi wird für Spieler nicht verkauft werden. (Spieler kaufen auch keine Nvidia-Tesla-Karte.)

Erklär doch bitte etwas genauer, klingt interessant.
Danke

deekey777
2009-12-10, 07:51:00
Erklär doch bitte etwas genauer, klingt interessant.
Danke
Denkbar ist, dass die Desktopversion auf DP verzichtet, um die Leute zum Kauf der Tesla zu bewegen, und schon hat man kein Fermi

Leonidas
2009-12-10, 08:02:52
I
Das heißt noch lange nicht, dass diese Hardware auch 24/7 im Rechenzentrum laufen würde. Da sind einfach andere Toleranzen erforderlich.


Noch viel mehr: Im Rechenzentrum will ich 100 Dinger einbauen und die sollen alle auch sofort und problemlos durchlaufen. Ich will nicht erst 3% fehlerhafte Chips identifizieren und zurückgeben. Das funktioniert im Consumer-Markt, im Profi-Markt aber schon nicht mehr.

mapel110
2009-12-10, 15:22:18
https://www2.gotomeeting.com/register/606754650
Am 16. Dezember findet ein Live Webinar statt zum Thema Fermi im GPGPU-Bereich.

Aber da dürfte es wohl auch wieder kaum neue Infos geben.

=Floi=
2009-12-10, 17:31:53
imho wandern schon schlechtere chips in die kleineren modelle, da bei allen chips (amd, intel, ati und nv) oft die kleineren modelle auch nicht so viel takt mitmachen oder mehr spannung brauchen. da findet man genug beispiele. aufgrund der größeren nachfrage wandern eben dort auch bessere chips hinein, weil die toleranzen für diese produkte auch wesentlich größer sind.

die profi karten brauchen auch eine bessere stromversogung, weil diese auch 24h dauerbeelastung aushalten müssen. im produktiven einsatz sind 8h arbeitstage (unter 3d!) auch viel.

Gast
2009-12-10, 18:43:10
http://hardware-infos.com/news.php?news=3339

mapel110
2009-12-10, 18:47:21
Bei der 360 gehe ich eher von mehr Shader-Einheiten aus und dafür etwas weniger Takt als 380.

Leonidas
2009-12-10, 19:36:15
http://hardware-infos.com/news.php?news=3339


Ist das, was das BSN schon verzapft hat. Und das soll auf einer früheren Forums-Spekulation basieren, welche u.U. reines Wunschdenken á "so könnte es sein" ist.

Gast
2009-12-10, 19:51:51
alles alles blödsinn was die schreiben.........

crux2005
2009-12-10, 20:05:01
imho ist es sicher das die GeForce "Fermis" dieses Jahr nicht mehr kommen

Coda
2009-12-10, 20:27:06
imho ist es sicher das die GeForce "Fermis" dieses Jahr nicht mehr kommen
Wer hat das denn in letzter Zeit noch angezweifelt?

Undertaker
2009-12-10, 21:47:11
Hatte Fuad nicht kürzlich noch einen Launch im Dezember für möglich gehalten?

mapel110
2009-12-10, 21:48:13
Hatte Fuad nicht kürzlich noch einen Launch im Dezember für möglich gehalten?
Das war vor ein paar Wochen. Letzte Woche iirc hatte er sich dann auch korrigiert mit Launch Januar und Verfügbarkeit März.

Triskaine
2009-12-11, 07:08:21
Charlie meint das das A3 Stepping jetzt anläuft und rechnet mit einem Launch im Februar, aber mit realer Verfügbarkeit ab dem März.

http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/

Ailuros
2009-12-11, 07:20:26
Charlie meint das das A3 Stepping jetzt anläuft und rechnet mit einem Launch im Februar, aber mit realer Verfügbarkeit ab dem März.

http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/

Ach jetzt ist er endlich ueberzeugt dass es doch einen A3 respin geben wird?

If you assume that A3 went in the oven on Dec 1,...

Afaik frueher, lege aber trotzdem nicht meine Hand ins Feuer.

First are the risk wafers. If they are still valid, ...

Nix mit risk wafers. Ich wundere mich warum er den Scheiss immer und immer wieder wiederholt....

If all goes well, risk wafers valid, A3 production went in on Dec 1, and all the stars align, you are looking at Dec 1 +6 weeks +2 weeks, or about Feb 1 for real availability. More realistically, if it waits until the A3 hot lots get back, that would be Jan 1 plus eight weeks, or March 1 for a hard launch. Basically, the best case is Feb 1 for a real launch.

Ende Januar-Anfang Februar klingt trotz allem realistisch. Wenn man das obrige plus/minus richtig einsetzt koennte es schon klappen.

We are told bin splits for A2 would put the top clock for Fermi at about 500MHz, and yields were described as "alarming". Last spring, insiders told us that initial targets were 750MHz , 50% up on A2. Nvidia PR drones were, note the past tense, claiming that it would beat Cypress by 40%, so a 500MHz version is likely to be a tad slower than an ATI Radeon HD5870. Not a convincing launch message there.

Das war A1 und nicht A2. Ja zum eigentlichen Frequenz-Ziel und nein zum Teil dass sie mit 500MHz ein bisschen langsamer waeren als 5870.

Er koennte nach den mehreren Ohrfeigen von silent_guy bei B3D etwas vorsichtiger sein mit seinem Quark, aber das dumme ist eben dass ohne den laecherlichen zusaetzlichen Brei die Seite nicht voll wird.

Leonidas
2009-12-11, 07:30:19
alles alles blödsinn was die schreiben.........


Sagt keiner. Aber es ist halt zur Vorsicht geraten.

reunion
2009-12-11, 07:37:25
Nix mit risk wafers. Ich wundere mich warum er den Scheiss immer und immer wieder wiederholt....

Wie meinst du das? Die ersten Wafer nach einem Tapeout kann man durchaus als "risk wafers" bezeichnen, wenn man so will.


Ja zum eigentlichen Frequenz-Ziel und nein zum Teil dass sie mit 500MHz ein bisschen langsamer waeren als 5870.


Wenn man mit 500Mhz schon schneller als eine 5870 wäre dürfte das eine ganz schöne Vernichtung werden falls man das ursprüngliche Frequenzziel auch nur annähernd erreicht.

V2.0
2009-12-11, 07:49:10
Evtl. mein Ail ja auch, dass sie mit 500Mhz deutlich langsamer sind als eine 5870. :D

tombman
2009-12-11, 08:38:35
und nein zum Teil dass sie mit 500MHz ein bisschen langsamer waeren als 5870.

Immer noch schneller, oder deutlich langsamer?;D

igg
2009-12-11, 09:20:25
Wenn man mit 500Mhz schon schneller als eine 5870 wäre dürfte das eine ganz schöne Vernichtung werden falls man das ursprüngliche Frequenzziel auch nur annähernd erreicht.
Ich finde neliz und Charlie bashen nicht mehr so extrem, das deute ich als Anzeichen für eine Vernichtung...

MorPheuZ
2009-12-11, 09:21:21
Immer noch schneller, oder deutlich langsamer?;D

Ja, los rausrück:biggrin:

robbitop
2009-12-11, 09:27:20
Hatte AiL nicht mal eine "Break-Even-Frequenz" genannt? You do the math. ;)

igg
2009-12-11, 10:03:36
Hatte AiL nicht mal eine "Break-Even-Frequenz" genannt? You do the math. ;)
Das war noch vor A1, oder? Ansonsten weißt du noch wo sie war?

Gast
2009-12-11, 10:09:54
Das war A1 und nicht A2. Ja zum eigentlichen Frequenz-Ziel und nein zum Teil dass sie mit 500MHz ein bisschen langsamer waeren als 5870.

wenn man von 100% = 750mhz ausgeht, dann währen 450 break even.
wenn man von 140% = 750mhz ausgeht, dann währen 535 break even.

ist wohl ne ansichtssache..

wenn man von 450mhz ausgeht, wäre die 380er mit 650mhz 44% schneller als die 5870 - also knapp unterhalb der 59er.

deekey777
2009-12-11, 12:19:19
JPR: Intel Will Never Buy Nvidia (http://jonpeddie.com/blogs/comments/intel-will-never-buy-nvidia/)
Interessant. :)

LovesuckZ
2009-12-11, 12:24:45
nVidia hat zZ einen Börsenwert von 8 Milliarden $. Selbst wenn sie nur 51% der Anteile kaufen würden, müssten sie mindesten soviel bezahlen wie AMD für ATi. nVidia als Firma macht pro Quartal 900-1000 Millionen Umsatz, aber am Ende bleiben auch nur 100-200 Millionen $ als Gewinn übrig. Man muss kein Wirtschaftsgenie sein, um zu sehen, dass der Preis für nVidia in den nächsten Jahr einfach zu hoch sein wird, um sie auch nur die Mehrheitsanteile zu kaufen.

reunion
2009-12-11, 12:29:35
JPR: Intel Will Never Buy Nvidia (http://jonpeddie.com/blogs/comments/intel-will-never-buy-nvidia/)
Interessant. :)

Ein Hinweis auf die Kartellbehörde hätte gereicht.

nVidia hat zZ einen Börsenwert von 8 Milliarden $. Selbst wenn sie nur 51% der Anteile kaufen würden, müssten sie mindesten soviel bezahlen wie AMD für ATi. nVidia als Firma macht pro Quartal 900-1000 Millionen Umsatz, aber am Ende bleiben auch nur 100-200 Millionen $ als Gewinn übrig. Man muss kein Wirtschaftsgenie sein, um zu sehen, dass der Preis für nVidia in den nächsten Jahr einfach zu hoch sein wird, um sie auch nur die Mehrheitsanteile zu kaufen.

Ein Wirtschaftsgenie muss man dafür wirklich nicht sein. Intel wird selbst in diesem Krisenjahr einen Jahresgewinn von >7Mrd $ ausweisen, von den Barreserven von um die 30Mrd $ ganz zu schweigen. Intel könnte NV locker kaufen, sie dürfen es aber nicht. Das hat man im übrigen selbst so zu Protokoll gegeben.

deekey777
2009-12-11, 12:44:55
JPR: Intel Will Never Buy Nvidia (http://jonpeddie.com/blogs/comments/intel-will-never-buy-nvidia/)
Interessant. :)
Ach Mist, das wollte ich doch im Larrabee-Thread posten. ;(

Intel Will Buy nVIDIA (http://www.cringely.com/2009/12/intel-will-buy-nvidia/)
:|

Ailuros
2009-12-11, 14:09:14
Wie meinst du das? Die ersten Wafer nach einem Tapeout kann man durchaus als "risk wafers" bezeichnen, wenn man so will.

Ich weiss genau in welchem Zusammenhang er hier spekuliert und ich bleibe bei meiner Meinung vorruebergehend.

Wenn man mit 500Mhz schon schneller als eine 5870 wäre dürfte das eine ganz schöne Vernichtung werden falls man das ursprüngliche Frequenzziel auch nur annähernd erreicht.

Ich hab schonmal gesagt dass IMO das break even point schon bei A1 erreicht wurde.

Ach Mist, das wollte ich doch im Larrabee-Thread posten. ;(

Intel Will Buy nVIDIA (http://www.cringely.com/2009/12/intel-will-buy-nvidia/)
:|

Das der Kerl ein totaler Spinner ist ist Dir wohl aufgefallen?

Despite attempting to back-in to the market again with its upcoming Moorestown post-Atom low-power processors, what Intel would really like are nVidia’s superior Tegra AXP chips aimed at mobile phones and media players.

Tegra soll besser als SGX sein? In welcher Hoehle haust denn der Depp genau?

Ironically nVIDIA didn’t even design the Tegra processors, which it bought a couple years ago with Portal Player.

*seufz* Tegra ist zu 100% eine hauseigene NV Entwicklung. Sie haben lediglich eine mini quasi NV3x-Variante gebaut und CSAA draufgeklatscht.

Ich finde neliz und Charlie bashen nicht mehr so extrem, das deute ich als Anzeichen für eine Vernichtung...

Ich plaudere mehr als oefters privat mit neliz.

nVidia hat zZ einen Börsenwert von 8 Milliarden $. Selbst wenn sie nur 51% der Anteile kaufen würden, müssten sie mindesten soviel bezahlen wie AMD für ATi. nVidia als Firma macht pro Quartal 900-1000 Millionen Umsatz, aber am Ende bleiben auch nur 100-200 Millionen $ als Gewinn übrig. Man muss kein Wirtschaftsgenie sein, um zu sehen, dass der Preis für nVidia in den nächsten Jahr einfach zu hoch sein wird, um sie auch nur die Mehrheitsanteile zu kaufen.

Jon Peddie hat in seinem Blog schon den Nagel auf den Kopf getroffen. Nicht dass ich zu allem in dem Text uebereinstimme, aber im guten Ganzen hat er schon Recht.

reunion
2009-12-11, 14:24:49
Ich hab schonmal gesagt dass IMO das break even point schon bei A1 erreicht wurde.


Break even = Performance > 5870?

=Floi=
2009-12-11, 14:48:16
so muß das eh sein, weil der chip auch größer und teurer ist. (die R&D kosten müssen auch erst mal verdient werden)

tombman
2009-12-11, 15:08:29
Break even = Performance > 5870?
"break even" = "="

Ailuros
2009-12-11, 15:26:03
Break even = Performance > 5870?

Nein. Normalerweise ist "break even point" ein finanzieller Begriff wo z.B. eine Firma bei diesem gerade ihre Kosten vollstaendig deckt; >BEP = Gewinn.

Im gegebenen Fall: BEP = ~Gleichstand.

AnarchX
2009-12-11, 15:38:56
Stellt sich die Frage, ob diese Einschätzung auf für NV vorteilhaften Benchmarks basiert oder ob man hier eine realistische Messung, wie sie auch in unabhängigen Tests vorkommen wird, vorgenommen hat.

Wenn man von den 495/1100MHz für A1 ausgeht, ist man hier mit der aktuellen Tesla-Taktung von maximal 615/1230MHz nicht gerade weit vor einer HD 5870.
Die 1,7GHz Shaderdomain gehören wohl auch eher in die Kategorie wie G92s >2GHz SD.:D

Ailuros
2009-12-11, 15:45:46
Stellt sich die Frage, ob diese Einschätzung auf für NV vorteilhaften Benchmarks basiert oder ob man hier eine realistische Messung, wie sie auch in unabhängigen Tests vorkommen wird, vorgenommen hat.

Wenn man von den 495/1100MHz für A1 ausgeht, ist man hier mit der aktuellen Tesla-Taktung von maximal 615/1230MHz nicht gerade weit vor einer HD 5870.
Die 1,7GHz Shaderdomain gehören wohl auch eher in die Kategorie wie G92s >2GHz SD.:D

...ca. 25% weniger als finale Bandbreite und unreife Treiber.

Gast
2009-12-11, 16:17:45
...ca. 25% weniger als finale Bandbreite und unreife Treiber.
Darauf wollte ich hinweisen - obwohl natürlich ATI ebenfalls noch was machen kann mit den treibern.

Gaestle
2009-12-11, 17:46:31
Ich glaube mich zu erinnern, dass es hieß, Break even wäre bei etwa 400MHz. Das kommt mir aber ganz schön optimistisch vor.

Wenn aber ein 3/4-GF100 (360) etwa bei der 5870 liegen soll (als Ziel), dann müsste der im Vergleich (zur 360) 33% breitere GF100 (kompletter 380) bei gleichem Takt auch irgendwo um einen ähnlichen Anteil schneller als ein 360 sein, wenn nicht der Speicher bremst.*

Das würde im Beispiel Crysis Warhead (Zahlen aus dem CB-Test der 5970) ungefähr auf 295er-Niveau bei der 380 hinauslaufen und damit in der normalen Relation einer neuen Generation zu einer (dann) alten Generation liegen.

Wenn mann dann ganz naiv im Vergleich zu G200 eine doppelt so breite Architektur annimmt, die bei ähnlichen Taktraten auf ungefähr die doppelte Leistung kommt, scheint also die Effizienz pro Pixel (also ohne Stromverbrauch zu beachten) nicht gestiegen zu sein.



*bei angenommenen 650MHz für beide Chips könnte dann ca. 400-430MHz als Break-Even für den kompletten GF100 (380) doch passen...

Gast
2009-12-11, 20:20:05
Fermi wird sich imo wohl ca. 30-40% vor der 5870 einreihen. ABER wenn kein SGSSAA mit Fermi möglich sein wird, dann landet definitiv ne flotte ATI in meinem Rechner, denn die IQ ist im Vergleich zu meiner GTX280 tatsächlich fantastisch!

nagus
2009-12-11, 22:49:29
Fermi wird sich imo wohl ca. 30-40% vor der 5870 einreihen.

100%ig nicht in "real world" gaming benchmarks. oder glaubst du an das christkind?

nagus
2009-12-11, 22:52:02
Wer hat das denn in letzter Zeit noch angezweifelt?

die PCGH z.b. in der letzten und sogar in der aktuellen ausgabe. > ziemlicher FAIL.

Raff
2009-12-11, 23:20:30
Den "Fail" wirst du bei Abgabe deiner selektiven Leseweise bei verdammt vielen Medien weltweit vorfinden. Wenn nicht mal Nvidia so genau weiß wann Furby den Laboren entwächst, dann kann es niemand.

MfG,
Raff

mapel110
2009-12-11, 23:20:51
100%ig nicht in "real world" gaming benchmarks. oder glaubst du an das christkind?
Wieso? Das wären gerade mal 60-70% mehr als GTX285. Kann man durchaus annehmen, wenn nvidia die Ziele erreicht.
ATI hat ja auch 60% Performance auf RV770 draufgepackt.

LovesuckZ
2009-12-11, 23:51:31
40% schneller als eine 5870 wären im Computerbase.de Rating 189% gegen 100% der GTX285.
Bei gleicher Taktung ist das machbar.

_DrillSarge]I[
2009-12-11, 23:59:55
selbst wenn das ding 30% schneller wäre (also 60-70% über 285er), ist das wenig beeindruckend, wenn es erst im februar oder gar später kommt. bei soviel verspätung WILL ICH (€: ich VERLANGE :D) 100% mehr als ne gtx285 :cool:

LovesuckZ
2009-12-12, 00:05:40
I[;7711900']selbst wenn das ding 30% schneller wäre, ist das wenig beeindruckend, wenn es erst im februar oder gar später kommt. bei soviel verspätung WILL ICH (€: ich VERLANGE :D) 100% mehr als ne gtx285 :cool:

Sinn?
rv870 kam 15 Monate nach rv770 und ist auch nur knapp 60% schneller. :rolleyes:

tombman
2009-12-12, 01:05:36
Sinn?
rv870 kam 15 Monate nach rv770 und ist auch nur knapp 60% schneller. :rolleyes:
Die GTX280 kam im Juni 2008. Sie ist der echte technologische Vorgänger der GTX380.
(275/285 sind ja alles nur gepimpte Versionen, bei Fertigung/Takt...)

Also sind das 20 Monate Wartezeit- ok, 5 mehr als bei ATI :eek:

Die GTX280 entspricht heutzutage ziemlich der GTX275 in der Leistung (laut CB-Spielereien).

GTX275+ 60% (= ATI-Steigerungsrate) ~ 10% schneller als HD5870/GTX295

Dh: Falls NV die selbe Steigerung wie ATI packt, sind sie schon 10% schneller, und das mit den schlechtesten, anzunehmenden Taktraten, nämlich den GTX280 Taktraten (= GTX275 Leistung) :eek:

Ich kann mir nicht vorstellen, daß Fermi die 600/1300 der GTX280 nicht packt, zumal Tesla Fermi diese ja schon fast erreicht.

Jetzt hatte Nvida aber 5 Monate mehr Zeit zwischen den Generationen, außerdem ist die Fermi Architektur neu und angeblich supereffizient ;)

Ich halte es daher für ziemlich unmöglich, daß Furby nicht spürbar schneller als RV870 wird :devil:

p.s.: den Umweg GTX280 -> GTX275 mußte ich gehen, weil es auf CB keine direkten GTX280 vs HD5870 Vergleiche gibt...

_DrillSarge]I[
2009-12-12, 02:16:14
zumal fermi auch (deutlich?) mehr kosten wird. der große chip treibt die kosten für nv halt hoch und man kann nicht soweit runter gehen. deswegen muss das ding auch ordentlich mehr performance haben. imo verzögert sich das teil genau deswegen. man will klar vorne liegen und erreicht momentan die takte dafür noch nicht.

Gast
2009-12-12, 02:17:28
@tombman

Deine Analogie stimmt nicht, da die preise bei Ati auch um um wenigstens 33% gestiegen sind, richtiger wäre:

gtx260+60%=gtx380...

_DrillSarge]I[
2009-12-12, 02:20:24
Deine Analogie stimmt nicht, da die preise bei Ati auch um um wenigstens 33% gestiegen sind, richtiger wäre:
hd5000=neu=teuer. und "alleine" auf dem markt.
das kann man nicht vergleichen. zumal die atis garantiert billiger werden wenn fermi raus ist.

tombman
2009-12-12, 02:43:56
Ich habe rein mögliche Leistungen verglichen- wen interessieren schon Preise :lol:

reunion
2009-12-12, 10:00:08
I[;7711900']selbst wenn das ding 30% schneller wäre (also 60-70% über 285er), ist das wenig beeindruckend, wenn es erst im februar oder gar später kommt. bei soviel verspätung WILL ICH (€: ich VERLANGE :D) 100% mehr als ne gtx285 :cool:

I[;7712116']zumal fermi auch (deutlich?) mehr kosten wird. der große chip treibt die kosten für nv halt hoch und man kann nicht soweit runter gehen. deswegen muss das ding auch ordentlich mehr performance haben. imo verzögert sich das teil genau deswegen. man will klar vorne liegen und erreicht momentan die takte dafür noch nicht.

Sehe ich auch so. Offensichtlich war man mit dem erreichten nicht zufrieden, sonst hätte ich zumindest Benchs von NV erwartet. A3 war wohl nur noch ein Respin um die Taktraten halbwegs auf das gewünschte Niveau zu hieven damit AMD geschlagen wird. Immerhin ist die Konkurrenz schon am Markt, und was gibt es da besseres als Reaktion als zu zeigen das unser in kürze kommender Chip deutlich schneller ist? Das bis heute nichts kommt außer ständig wiederkehrende Angaben über das für Spieler uninteressante Tesla-Segment lässt schon irgend wo tief blicken. Dann noch die sehr niedrigen Taktraten der Tesla-Karten. Das passt halt alles zusammen. NV sollte es zwar trotzdem schaffen vor der 5870 zu landen, da AMD auch nicht gerade überragend vorgelegt hat, aber den Burner erwarte ich inzwischen nicht mehr.

igg
2009-12-12, 10:11:24
I[;7711900']selbst wenn das ding 30% schneller wäre (also 60-70% über 285er), ist das wenig beeindruckend, wenn es erst im februar oder gar später kommt. bei soviel verspätung WILL ICH (€: ich VERLANGE :D) 100% mehr als ne gtx285 :cool:
Und dann kaufst du eine langsamere ATI Karte, weil Fermi nur 40 % schneller ist anstatt 100 % :confused:?

Psychopat
2009-12-12, 10:46:04
Ich bin da auch der Meinung von Reunion. Wenn Geforce Fermi die 5870 vernichtend schlagen könnte, hätte nVidia längst Benchmarkzahlen durchsickern lassen. Lauffähige Karten gibts ja wohl schon. Meiner Speku nach wird es also keine Überraschung geben.
Wird wohl eher alles beim alten bleiben. 360 ungefähr auf Niveau der 5870, die 380 dann entsprechend 20 - 30 % darüber.
Wer an Wunder durch die neue effizientere Architektur glaubt, sollte bedenken das eine Verbreiterung der Architektur nicht zu 100% skaliert. Der Verwaltungsaufwand steigt, die Auslastung wird schwieriger etc. Dadurch werden die Effizienzverbesserungen wieder aufgefressen.

igg
2009-12-12, 11:03:24
360 ungefähr auf Niveau der 5870, die 380 dann entsprechend 20 - 30 % darüber
Na, das wäre doch toll für uns Gamer? Ich denke der Abstand von 380 zu 360 wird etwas größer sein, also eher 30-40 %.

Dann haben wir doch alles was wir brauchen. Und wenn Nvidia bei den BQ Features noch was reinpackt, (wie fast immer) ordentliche Treiber liefert und dank ATIs früherem Markteintritt mit ordentlichen Preisen kommen muss, passt doch alles.

Gast
2009-12-12, 11:06:24
nur wird doch der meiste Umsatz mit den kleineren Karten gemacht - und da wird nvidia anscheinend noch wesentlich länger brauchen, bis sie mal Karten < 200 € rausbringen. Da bleibt einem ja eigentlich nichts anderes übrig, als sich ne ATI zu holen....

horn 12
2009-12-12, 11:16:26
die GTX 380 maximal 20% über der HD5870, die GTX 360 kann dann knapp mit einer HD5870 mithalten, so wird es kommen ---> und was macht ATI:
Sie schieben einfach den RV870 "Respin" mit HD5890 nach, Taktraten mit ca. 1050/ 1400 Mhz und schlagen NV erneut...
Dieses Jahr hat NV einfach verschlafen,- oder besser gesagt ATI hatte mehr Glück, auch und vor Allem durch den RV770 in 40um Verfahren als Probelauf.

igg
2009-12-12, 11:26:19
und was macht ATI:
Sie schieben einfach den RV870 "Respin" mit HD5890 nach, Taktraten mit ca. 1050/ 1400 Mhz und schlagen NV erneut...
Das halte ich für unwahrscheinlich...

Ailuros
2009-12-12, 11:42:33
Sehe ich auch so. Offensichtlich war man mit dem erreichten nicht zufrieden, sonst hätte ich zumindest Benchs von NV erwartet.

Gab es Leistungsresultate hinter den Kulissen bevor die Evergreen Familie zu 100% produktionsreif war? Nein.

A3 war wohl nur noch ein Respin um die Taktraten halbwegs auf das gewünschte Niveau zu hieven damit AMD geschlagen wird.

Ein Prozess-orientierter schneller respin hat nicht Frequenzen als direktes Ziel sondern yields; in dem Fall sind dann bessere Frequenzen ein Resultat von verbesserten yields und damit eher ein indirektes Ziel. Frag jemand der ein bisschen eine Ahnung von chip-entwicklung hat und er wird Dir bestaetigen dass man sich stets mit Frequenzen als allerletztes kuemmert wenn alles andere erstmal stimmt.

Und den Quark dass A3 eingesetzt wurde um AMD zu schlagen kann man auch besser formulieren. AMD haette Cypress auch nicht mit nur =/<700MHz veroeffentlicht weil es erstmal eine Blamage gegen ihre eigene RV7x0 Produkte gewesen waere, sondern erst als 850MHz wirklich moeglich waren.

Immerhin ist die Konkurrenz schon am Markt, und was gibt es da besseres als Reaktion als zu zeigen das unser in kürze kommender Chip deutlich schneller ist?

Ob sehenswert schneller oder enttaueschend mit kleinem Unterschied haelt man in diesem Stadium gefaelligst die Klappe. Im Gegenfall meckert die AMD Bande dann wieder dass NVIDIA AMD's Verkaufspotential mit powerpointslides gefaerdet usw und so fort und man kann es Euch Kerlen sowieso nie recht machen.

Aber wenn Du schon so zahlengeil sein willst, hier ein paar fakes:

http://www.nvnews.net/vbulletin/showthread.php?t=142476

http://img16.imageshack.us/img16/8425/residentevil5gtx300n.png
http://img705.imageshack.us/img705/5503/stalkerclearskygtx300n.png
http://img705.imageshack.us/img705/2432/farcry2gtx300n.png

Reicht so viel um falsche oder echte Panik zu generieren? Auf jeden Fall guten Appetit.


Das bis heute nichts kommt außer ständig wiederkehrende Angaben über das für Spieler uninteressante Tesla-Segment lässt schon irgend wo tief blicken. Dann noch die sehr niedrigen Taktraten der Tesla-Karten. Das passt halt alles zusammen. NV sollte es zwar trotzdem schaffen vor der 5870 zu landen, da AMD auch nicht gerade überragend vorgelegt hat, aber den Burner erwarte ich inzwischen nicht mehr.

Ich hab Geduld bis ich die ersten zuverlaessigen Frequenz-einzelheiten hoere. Bis zum Punkt wo A3 zurueckkommt gibt es keine einzige Chance dass selbst NV weiss wie dieses aussehen wird. Deshalb haelt man auch die Klappe. Aber so was zu verstehen ist wohl unter der gegebenen beschissenen 40G TSMC Situation zu viel verlangt.

Im Gegensatz wuerde ich mich als AMD Fan erstmal darum kuemmern dass TSMC erstmal ihre Versprechungen fuer bessere Verfuegbarkeit einhalten kann, denn bis jetzt hab ich noch nichts ueberwaeltigendes sehen koennen und erwarte auch nichts berauschendes vor dem Ausklang des Winters.

reunion
2009-12-12, 12:24:58
Gab es Leistungsresultate hinter den Kulissen bevor die Evergreen Familie zu 100% produktionsreif war? Nein.


Es gab auch keine Notwendigkeit dafür. NV war noch weit weg mit ihren DX11-GPUs.


Ob sehenswert schneller oder enttaueschend mit kleinem Unterschied haelt man in diesem Stadium gefaelligst die Klappe. Im Gegenfall meckert die AMD Bande dann wieder dass NVIDIA AMD's Verkaufspotential mit powerpointslides gefaerdet usw und so fort und man kann es Euch Kerlen sowieso nie recht machen.

Oh wie schlimm, das wird NV sicherlich stören wenn man AMD's Verkaufspotential gefährdet. :rolleyes:


Aber wenn Du schon so zahlengeil sein willst, hier ein paar fakes:

http://www.nvnews.net/vbulletin/showthread.php?t=142476

http://img16.imageshack.us/img16/8425/residentevil5gtx300n.png
http://img705.imageshack.us/img705/5503/stalkerclearskygtx300n.png
http://img705.imageshack.us/img705/2432/farcry2gtx300n.png

Reicht so viel um falsche oder echte Panik zu generieren? Auf jeden Fall guten Appetit.


Ja toll Ailuros, ein paar gefakte Slides bringen natürlich wahnsinnig viel.


Ich hab Geduld bis ich die ersten zuverlaessigen Frequenz-einzelheiten hoere. Bis zum Punkt wo A3 zurueckkommt gibt es keine einzige Chance dass selbst NV weiss wie dieses aussehen wird. Deshalb haelt man auch die Klappe. Aber so was zu verstehen ist wohl unter der gegebenen beschissenen 40G TSMC Situation zu viel verlangt.

Wenn ich mit meinem Produkt zu spät dran bin muss ich alles daran setzen zu verhindern dass das Konkurrenzprodukt gekauft wird. Davon sieht man von NV bis dato kaum etwas. Intel bsw. hat den Core 2 bereits Monate vorher verschickt um das Potential zu zeigen, auch noch nicht mit finalen Taktraten, aber man wusste was Sache ist.


Im Gegensatz wuerde ich mich als AMD Fan erstmal darum kuemmern dass TSMC erstmal ihre Versprechungen fuer bessere Verfuegbarkeit einhalten kann, denn bis jetzt hab ich noch nichts ueberwaeltigendes sehen koennen und erwarte auch nichts berauschendes vor dem Ausklang des Winters.

Na dann warte mal nächste Woche ab.

Psychopat
2009-12-12, 12:41:29
Ich erwarte ja keine genauen Benchmarkzahlen, aber wenn nVidia sich einer überlegenen Performance sicher wäre würde doch bestimmt Fuad entsprechendes schreiben. So in etwa "Fermi gaming performance will blow evergreen away". Gerade zum Launch der 5970 hätte ich entsprechendes Störfeuer von nVidia erwartet. Bis jetzt liest man aber nichts dergleichen. Kann sich ja jeder seinen eigenen Reim darauf machen...

mapel110
2009-12-12, 12:49:22
Ich erwarte ja keine genauen Benchmarkzahlen, aber wenn nVidia sich einer überlegenen Performance sicher wäre würde doch bestimmt Fuad entsprechendes schreiben. So in etwa "Fermi gaming performance will blow evergreen away". Gerade zum Launch der 5970 hätte ich entsprechendes Störfeuer von nVidia erwartet. Bis jetzt liest man aber nichts dergleichen. Kann sich ja jeder seinen eigenen Reim darauf machen...
So was macht nvidia ja mittlerweile über die Twitter-Accounts. Da kommen ständig Teaser, wie toll Fermi sein wird und wie viel es dem Gamer doch bringen wird.

Andreas Leicht
2009-12-12, 13:05:10
Gibt es denn schon irgendwelche Gerüchte ob NVIDIA eine Antwort auf Eyefinity bringt ? Falls nicht, komme ich doch ein wenig ins Schwanken, ob ich mir nicht lieber eine 5000er ATI zulege, da gerade im Sim-Racing 3 Monitore viel mehr Übersicht bringen und TripleHead2Go nicht so toll ist (teuer, maximal unterstützte Auflösungen, ...).

Gast
2009-12-12, 13:27:39
"Eyefinity" dürfte für etwa 0.5% aller Käufer interessant sein, von daher, wayne...

reunion
2009-12-12, 13:29:46
Laut AMD (:)) wird NV kein Eyefinity bringen. Es gab bis jetzt auch noch keine Karten zu sehen mit mehr als zwei Ausgängen. Von daher: Höchstwahrscheinlich nicht. Eine Antwort kann man wohl frühestens mit dem Refresh erwarten.

crux2005
2009-12-12, 13:54:06
Eyfinity sicher nicht, wenn dann haben sie dafür einen besseren marketing Namen ;)

Gast
2009-12-12, 13:59:47
"Eyefinity" dürfte für etwa 0.5% aller Käufer interessant sein, von daher, wayne...

==> Samsung bringt in Q1/2010 einen "Triple" Monitor für ATi Eyefinity.

Ein Fuss mit einem 22" in der Mitte und rechts und links je auch ein 22" Monitor. Das ganze dann mit sehr schmalem Rand am Display, so dass der seitliche Rand der Monitore weniger stört.

igg
2009-12-12, 14:24:14
Ein Fuss mit einem 22" in der Mitte und rechts und links je auch ein 22" Monitor. Das ganze dann mit sehr schmalem Rand am Display, so dass der seitliche Rand der Monitore weniger stört.
Das ist interessant (danke für den Hinweis, wusste ich bisher nicht!), aber wird den Anteil sicher nicht mehr als von 0,5 auf 0,7 % erhöhen

Dural
2009-12-12, 14:26:49
Eyefinity ist NICHT so das ware, hab das mal auf 3x 24" ausprobiert bild verzerungen usw. zudem mich der rahmen der monitore zwischen dem bild mega gestört hat! fürs gamen ist es spielezug mehr nicht!

Andreas Leicht
2009-12-12, 14:42:23
Eyefinity ist NICHT so das ware, hab das mal auf 3x 24" ausprobiert bild verzerungen usw. zudem mich der rahmen der monitore zwischen dem bild mega gestört hat! fürs gamen ist es spielezug mehr nicht!

Es gibt aber gerade bei den Rennsimulationen (z.B. IRacing (http://www.iracing.com)) einige die es verzerrungsfrei unterstützen. Da man den rechten und linken Monitor dann eher für den Blick zur Seite nutzt ist das mit den Rändern nicht so störend. Siehe z.B. beim Video hier (http://www.youtube.com/watch?v=8WM3ISbv4Q0).

Naja, die Hoffnung (NVIDIA + 3 Monitore) stirbt zuletzt. :) Ich vermute nämlich mal das es gar nicht sooo schwer umzusetzen ist. Vereinfacht gesagt Anschlüsse drauf löten + Treiber anpassen.

Dural
2009-12-12, 14:50:20
habs mit Crysis ausprobiert und man ist durch die grosse bild fläche auch mit derzeit völlig überfordert

Gestrandet
2009-12-12, 15:10:03
Eyefinity ist NICHT so das ware
LOL Warum überrascht mich das jetzt von dir nicht so wirklich? :D

Wenn AMD nen Blankoscheck in jede Packung legen würde, würdest du wahrscheinlich schreiben "Ich hab das mal ausprobiert, ist nicht so das Wahre. Zuerst weiß man gar nicht, welchen Betrag man eintragen soll, ich hab mal 10 Mio. genommen, und dann weiß man nicht wohin mit dem ganzen Geld ..."

Nightspider
2009-12-12, 15:25:14
Das mit den großen Bildschirmrändern und den überfordert sein liegt dann aber an dir und nicht an Eyefinity :freak:

Ich weiß nur das ich lieben würde :biggrin:

Nakai
2009-12-12, 15:41:53
Wieso wollt ihr es immer zum Spielen verwenden? Sicherlich werbt ATI/AMD dafür. Interessant ist es doch eher, dass man damit 3 oder mehr Bildschirme benutzen kann, vor allem für die Arbeit und für die bessere Übersicht.


mfg

Nightspider
2009-12-12, 15:47:07
Vielleicht weil die meisten hier spielen? :freak:

Ich weiß die Antwort war zu schwer für dich...

Zudem konnte man schon vorher mit vielen Monitoren arbeite...für 4 Monitore hat es schon gereicht eine 20 Euro Zusatzkarte einzubauen...

Fürs Spielen hat man aber ein Matrox Triple Head to go benötigt

Nakai
2009-12-12, 16:18:00
Naja für mich wären 3 Bildschirme zuviel zum Zockn...vor allem da ich öfter auf LANs geh.
3 Bildschirme: Einer zum Zockn, einer zum normalen Betrieb, einer zum Arbeiten. ;)

Und Zusatzkarte...wär ich lieber dafür alles in einer Karte zu haben.



mfg

Undertaker
2009-12-12, 17:00:23
Eyefinity gibts doch erst ab der HD5750, oder sollen das die kleineren Karten auch bekommen? Abseits von Spielen ist das einfach sinnloser Overkill, zudem die Beschränkung mit dem Displayport-Anschluss. Wenn man nicht spielt, sind zwei davon (http://geizhals.at/deutschland/a401436.html) o.ä. imho die schlauere Wahl. Auf Wunsch auch mit PCIe 1x, falls das Board keine entsprechenden Slots besitzt.

Ailuros
2009-12-12, 17:06:46
Es gab auch keine Notwendigkeit dafür. NV war noch weit weg mit ihren DX11-GPUs.

Und wieso besteht heute irgend eine Notwendigkeit? Weil AMD's GPUs den Markt ueberschwemmt haben?

Oh wie schlimm, das wird NV sicherlich stören wenn man AMD's Verkaufspotential gefährdet. :rolleyes:

Aber zumindest hat die beruehmte AMD Bande weniger zu meckern.

Ja toll Ailuros, ein paar gefakte Slides bringen natürlich wahnsinnig viel.

GF100 braucht sich so oder so nicht zu verstecken. Aber wenn's schon sein muss selbst wenn die slides echt waeren wuerdest Du einen Weg finden diese zu entwerten. Demzufolge ist es scheissegal ob sie echt sind oder nicht.

Wenn ich mit meinem Produkt zu spät dran bin muss ich alles daran setzen zu verhindern dass das Konkurrenzprodukt gekauft wird. Davon sieht man von NV bis dato kaum etwas. Intel bsw. hat den Core 2 bereits Monate vorher verschickt um das Potential zu zeigen, auch noch nicht mit finalen Taktraten, aber man wusste was Sache ist.

Es wird Zeit dass sich die gesamte PR/marketing Philosophie bei NVIDIA aendert und dieses wird auch zustande kommen seit Perez nach Hause ging. Um wieviel zum besseren bleibt abzusehen.

Na dann warte mal nächste Woche ab.

Soll ich schon jetzt nach Taiwan fliegen und rosarotes Konfetti und Glitter in die Luft werfen? Gut dass Du diesbezueglich so ueberzeugt bist; mein schlitzauegiges Voegelchen erzaehlte etwas anderes.

reunion
2009-12-12, 17:24:08
Eyefinity gibts doch erst ab der HD5750, oder sollen das die kleineren Karten auch bekommen? Abseits von Spielen ist das einfach sinnloser Overkill, zudem die Beschränkung mit dem Displayport-Anschluss. Wenn man nicht spielt, sind zwei davon (http://geizhals.at/deutschland/a401436.html) o.ä. imho die schlauere Wahl. Auf Wunsch auch mit PCIe 1x, falls das Board keine entsprechenden Slots besitzt.

Es gibt genug Einsatzmöglichkeiten für mehr als zwei Monitore. Sinnloser Overkill? Es gibt auch Leute die am PC arbeiten. Bereits ich zu Hause kann meinen Fernseher neben den zwei Monitoren nicht mehr am PC anschließen ohne ständig um stecken zu müssen. Matrox macht wohl einen Großteil seiner Kohle damit Karten für mehr als zwei Bildschirme anzubieten, da gibt es gerade im professionellen Bereich mehr als genug Möglichkeiten. Das macht natürlich nur Sinn wenn AMD auch für die kleineren Karten diese Möglichkeit anbietet, aber davon gehe ich momentan aus. Das Haupteinsatzgebiet und dafür wird Eyefinity ja auch beworben sind aber natürlich Spiele keine Frage.

Undertaker
2009-12-12, 17:27:47
Es gibt genug Einsatzmöglichkeiten für mehr als zwei Monitore. Sinnloser Overkill?

Der Overkill bezog sich darauf, einer Karte dieser Preis- und Leistungsklasse nur für die Anschlussmöglichkeit eines 3. Monitors zu verbauen. Zumal die Einschränkung auf ein DP-Modell für den zusätzlichen Monitor aktuell ziemlich schwer wiegen dürfte.

Das ist aber in dem Thread hier auch etwas OT.

Gast
2009-12-12, 23:04:26
Eyefinity ist NICHT so das ware, hab das mal auf 3x 24" ausprobiert bild verzerungen usw. zudem mich der rahmen der monitore zwischen dem bild mega gestört hat! fürs gamen ist es spielezug mehr nicht!

Ich glaub dir kein Wort davon mal abgesehen............und ob dich der Rahmen stört ist auch dein Problem dann musst du dir halt noch bissel geld zusammen sparen und was änständiges kaufen an TFTs.

habs mit Crysis ausprobiert und man ist durch die grosse bild fläche auch mit derzeit völlig überfordert

Ich glaub dir ebenfalls kein Wort davon.................und ist auch dein Problem ob du mit einem breiten Bild überfordert bist.

Ich besitze auch 3 gleiche 24" TFTs, kann es aber noch nicht testen da ich mehr als 1 Graka davon drin hab und die unterstützunh für CF X erst dafür kommt.

=Floi=
2009-12-13, 00:58:28
eyefinity bringt ja bei einem rennspiel eh nichts, weil die zusätzlichen 2/3 nutzlos sind. was soll ich da mit dem bild der bande? die werbung lesen? dem zaun beim flimmern zusehen? (weil die power für TAA fehlt?)

tombman
2009-12-13, 01:56:15
Ohne EYE-tracker macht das doch alles keinen Spaß, weil es immer verzerrt sein wird.
Leider gibts kein consumer eyetracker (bezahlbare)

Headtracker gibts zwar, aber ich halte von denen nix, höchstens in Kombination mit einem eyetracker- alleine einfach nur unnatürlich.
==
Gibts denn tatsächlich noch keine geleakten performance numbers von GTX380?
Schlitzäugige Vögelchen? :)

Gast
2009-12-13, 02:38:55
na jetzt wirste langsam ungeduldig stimmts, du willst was neues und kannst es nicht sehen das jemand was schnelleres hat oder es was schnelleres gibt, richtig ?

ich kann da mit dir fühlen :ugly:

tombman
2009-12-13, 03:17:36
na jetzt wirste langsam ungeduldig stimmts, du willst was neues und kannst es nicht sehen das jemand was schnelleres hat oder es was schnelleres gibt, richtig ?

ich kann da mit dir fühlen :ugly:
Nö, ich bin tatsächlich ganz ruhig was das betrifft. Es gibt zwar was Schnelleres am Markt, aber dafür hat man Crossfire -> weiche Satan ;)
Unruhig wäre ich erst, falls ATI nen MR-freien Multi-GPU Modus hätte- und noch dazu 2GB Karten ;)
Außerdem merke ich, daß mich dieses "Computerzeugs" immer weniger interessiert :/

Nightspider
2009-12-13, 03:31:46
Nö, ich bin tatsächlich ganz ruhig was das betrifft. Es gibt zwar was Schnelleres am Markt, aber dafür hat man Crossfire -> weiche Satan ;)
Unruhig wäre ich erst, falls ATI nen MR-freien Multi-GPU Modus hätte- und noch dazu 2GB Karten ;)

Uns beruhigt es schon zu wissen das Nvidia am Schluss ATI ownen wird. :biggrin:


Außerdem merke ich, daß mich dieses "Computerzeugs" immer weniger interessiert :/

:eek:
Auf, auf Tombman, such dir ein Weibchen, pflanz ein Baum und bau ein Haus! :wink:

tombman
2009-12-13, 06:24:23
Uns beruhigt es schon zu wissen das Nvidia am Schluss ATI ownen wird. :biggrin:

Jo- wie ein Klitscho-Kampf :lol:

:eek:
Auf, auf Tombman, such dir ein Weibchen, pflanz ein Baum und bau ein Haus! :wink:
Das ist genau das, was leider nie passieren wird... :uexplode:

=Floi=
2009-12-13, 06:38:48
auf deinem teppich würde eh alles wachsen :ugly:

der mit dem klitscho-kampf war gut ;D

Ailuros
2009-12-13, 09:55:35
Das ist genau das, was leider nie passieren wird... :uexplode:

Sagte ich selber jahrelang; resistance is futile :P

PS: pssst es aendert ueberhaupt nichts an jedermans Passionen ;)

Gast
2009-12-13, 11:38:30
eyefinity bringt ja bei einem rennspiel eh nichts, weil die zusätzlichen 2/3 nutzlos sind. was soll ich da mit dem bild der bande? die werbung lesen? dem zaun beim flimmern zusehen? (weil die power für TAA fehlt?)

Du hast anscheinend überhaupt keine Erfahrungen mit Rennsimulationen, Sonst wüsstest du, wie problematisch das eingeschränkte Sichtfeld sein kann. Die meisten Unfälle bei Zweikämpfen passieren, weil man seinen Gegner neben sich nicht sehen kann. Das Problem gibt es mit 3 Monitoren nicht mehr.

Mr. Lolman
2009-12-13, 13:54:48
Aber wenn Du schon so zahlengeil sein willst, hier ein paar fakes:

http://www.nvnews.net/vbulletin/showthread.php?t=142476

http://img16.imageshack.us/img16/8425/residentevil5gtx300n.png
http://img705.imageshack.us/img705/5503/stalkerclearskygtx300n.png
http://img705.imageshack.us/img705/2432/farcry2gtx300n.png



Ui. Schlechte Fakes: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/15/#abschnitt_stalker_clear_sky

Dural
2009-12-13, 14:20:41
LOL Warum überrascht mich das jetzt von dir nicht so wirklich? :D

Wenn AMD nen Blankoscheck in jede Packung legen würde, würdest du wahrscheinlich schreiben "Ich hab das mal ausprobiert, ist nicht so das Wahre. Zuerst weiß man gar nicht, welchen Betrag man eintragen soll, ich hab mal 10 Mio. genommen, und dann weiß man nicht wohin mit dem ganzen Geld ..."

probier es mal zuerst aus....

für office und so sicher ok, aber fürs gamen find ich es schelcht!

Ailuros
2009-12-13, 14:24:00
Ui. Schlechte Fakes: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/15/#abschnitt_stalker_clear_sky

Dass in meinem Text den Du eben gequotet hast "fake" drinsteht hast Du wohl bemerkt. Von dem abgesehen:

Wir testen das Spiel mittels einer 60 Sekunden langen Szene, die wir jedes mal exakt nachstellen. Genauere Details zur Testmethode findet man in unserem Spielbericht zu Stalker Clear Sky.

http://www.computerbase.de/artikel/software/2008/test_stalker_clear_sky/3/#abschnitt_benchmarks

Demzufolge koennte ich Dir zahllose Faelle anreihen mit schwankender Leistung bestimmter GPUs in Stalker. Dass die Resultate dann zwischen den Testfaellen nicht mehr vergleichbar sind ist ebenso offensichtlich.

Gast
2009-12-13, 15:46:49
Na, lieber Dural. Wann und wo willst du überhaupt Eyefinity ausprobiert haben? Der der du niemals eine ATI Grafikkarte auch nur in die Nähe deines Rechners lassen würde...

Mal wieder klassisches bullshitting, nie Eyefinity gesehen aber erstmal sagen wie schlecht es doch sei. LÄCHERLICH. Das es manchen echt nicht zu peinlich ist sowas zu erfinden nur um eine GPU Hersteller niedermachen zu können....

Dural
2009-12-13, 17:16:20
soso hehe schau mal mit was ich das hier gerade schreibe ;)

http://www.techpowerup.com/gpuz/5nf58/

hab hier gerade NUR ati karten aktiv am laufen

edit:
http://www.techpowerup.com/gpuz/5krb4/ ;)

Gast
2009-12-14, 00:58:10
Na, lieber Dural. Wann und wo willst du überhaupt Eyefinity ausprobiert haben? Der der du niemals eine ATI Grafikkarte auch nur in die Nähe deines Rechners lassen würde...

Mal wieder klassisches bullshitting, nie Eyefinity gesehen aber erstmal sagen wie schlecht es doch sei. LÄCHERLICH. Das es manchen echt nicht zu peinlich ist sowas zu erfinden nur um eine GPU Hersteller niedermachen zu können....

Dito.

Henroldus
2009-12-14, 09:00:50
GeForce GTX 360 and 380 Benchmarks (http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/)

reunion
2009-12-14, 09:02:53
Benchmarks: GeForce GTX 380/360 schlagen alles? (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/benchmarks_geforce_gtx_380_360/)

Fake.

Henroldus
2009-12-14, 09:36:23
Fake.
das wäre auch zuviel des Guten, GTX360>HD 5970 lol
naja, zumindest tut sich mal was

Cubitus
2009-12-14, 10:30:02
Naja ein komplett Fake wird es nicht sein.
Der Fermi wird eine ernstzunehmende Konkurrenz.

Sorkalm
2009-12-14, 10:32:36
Naja ein komplett Fake wird es nicht sein.

Was denn sonst? Ein Ich-habe-hier-zwar-eine-Fermi,-verändere-aber-ein-paar-Balken,-damit-mein-Benchmark-als-Fake-erkannt-wird-Test? Glaubst doch selbst nicht, das ist so frei erfunden wie ich hier ein paar Balken malen kann. ;)