PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 [62] 63 64 65 66 67 68 69 70 71 72 73 74 75

Anderer Gast
2010-03-14, 15:49:39
Unter den aktuellen News vom 11./12. März findet sich aus das:
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/
NVidia selbst sagt, daß sie doch besser noch HW-Tesselation hinzufügen sollten, sonst klappt's nicht so mit der DX11-Performance. Hier ein Zitat aus dem HT4U Artikel: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?

2009 hat NV bestimmt kein Redesign mit dedizierter Hardwaretesselation gemacht. Sowas hätte erheblich früher durchgeführt werden müssen. Charlie ist und bleibt ein NV-Hetzer, da kannst Du hier noch so große Fürsprache für ihn halten.

Gast
2010-03-14, 15:49:39
Unter den aktuellen News vom 11./12. März findet sich aus das:
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/
NVidia selbst sagt, daß sie doch besser noch HW-Tesselation hinzufügen sollten, sonst klappt's nicht so mit der DX11-Performance. Hier ein Zitat aus dem HT4U Artikel: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?

Ja, die h/w engines waren nach dem Zitat von anfang an für GF100 geplant.

Was willst du uns also sagen :?

LovesuckZ
2010-03-14, 15:54:00
Also erstens kann man unmöglich einfach alle Zitate aus der Vergangenheit nehmen und sie mit Informationen, die wir heute haben vergleichen.

Natürlich. Immerhin waren seine Aussagen absolut.


Ich habe die Entwicklung nun nicht so genau verfolgt, aber ich bin mir ziemlich sicher, dass vor einigen Monaten auch hier viele davon sprachen, dass Fermi keinen "richtigen" Tesselator haben wird. Dass NV selbst sagt, dass sie Tesselation beschleunigen mussten, ist doch ein Zeichen, dass dort zuerst auch Probleme vorhanden waren: was war dann sooo falsch an seiner Aussage?

Niemand wusste, was nVidia mit GF100 vorhatte. Niemand hatte auch nur die geringste Ahnung, dass nVidia diesen Weg für DX11-Tessellation gehen werde. Dieses "SW-Tessellation" entstand einerseits, weil viele Leute Char-lie glaubten und zweitens DX11-Tessellation nicht verstanden haben.
nVidia hat GF100 wegen DX11-Tessellation so designt. Sie wollten Tessellation auf ein Level beschleunigen, dass es gleich im ersten Anlaufen sehr zufriedenstellend läuft. Sie wollten einen zweiten GeometryShader Fall vermeiden. Denn GS waren beim G80 und G92 unpraktikabel.

AwesomeSauce
2010-03-14, 16:13:53
NVidia selbst sagt, daß sie doch besser noch HW-Tesselation hinzufügen sollten, sonst klappt's nicht so mit der DX11-Performance. Hier ein Zitat aus dem HT4U Artikel: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?
:facepalm:
Sorry für den inflationären Gebrauch des Emoticons, aber es passt einfach perfekt zu solchen "Aussagen".

English: Setzen! 6!

Eggcake
2010-03-14, 16:15:42
Natürlich. Immerhin waren seine Aussagen absolut.


Damit ich das richtig verstehe: weil da nicht steht "Ich glaube dass" oder "Spekulationen zufolge" entsteht das ganze Affentheater?
Interessant. Dann werde ich mich von jetzt an auch beim Wetterbericht beschweren, weil sie nicht immer "Nach unseren Informationen, welche nicht zu 100% eintreffen müssen" sagen.
Dass es sich um Spekulationen handelt, darf man, denke ich bei einer Seite wie "semiaccurate" erwarten und du weisst auch ganz genau, dass die Aussagen wenn, dann als Speku aufzufassen sind mit einem gehörigen Schuss ATI-Bias und garantiert nicht als gesicherte Information welche zum Schluss auch eintreffen wird - absolute Aussagen hin oder her.

Die Aussagen von Charlie werden hier einfach auf jeder 5. Seite auseinandergenommen und man regt sich künstlich darüber auf, als ob es etwas neues wäre. Warum kann man die Aussagen nicht einfach lesen (oder nicht, dann aber bitte auch nix dazu sagen), sie als BS oder nicht abstempeln und es dann sein lassen und nicht immerwieder "Omfg, wisst ihr noch was Charlie gesagt hat ololol" - das nervt.


Ganz davon abgesehen stellst du übrigens auch ziemlich viel als Tatsache hin, was reine Spekulation ist - anscheinend kannst du ja die Gedanken von NV lesen wenn du genau weisst, was ihre Intention ist.

Ailuros
2010-03-14, 16:25:50
Das Fermi sich verspätet, lag nicht an ihrer Strategie.

Nochmal unter normalen Umstaenden mit 40G waere das Ding spaetestens Q4 auf Regalen gewesen. Der Grund dass sie ueber 6 Monaten nun veroeffentlichen liegt direkt an TSMC 40G und indirekt an ihrer eigenen Strategie. Es ist genau ihre Strategie die monolithische single core high end chips vorschreibt.

Sie haben ein Problem durch DX11 Tessellation in ihrer GPU gesehen, dass gelöst werden musste. Sie wollten keinen zweiten Geometry Shader Fall haben.


Wem versuchst Du den Mist anzudrehen nur weil NV PR es die Luft als Entschuldigung wirft? Glaubst Du ernsthaft dass NV irgendwo in 2008 aufgewacht ist und dachte "oh Mist unsere Tesselations-pipeline ist beschissen fangen wir nochmal von vorne an" oder was? Das Zeug muss mehr oder weniger schon beim Kreideboard-design in 2005 erschienen sein und es ist zwar eine sehr ausgekluegelte Loesung aber sie haben damit auch nicht gleich das Rad erfunden; anders kein 8. Wunder tut mir leid.

Nach Fermi muss AMD zeigen, ob sie ebenfalls in der Lage sind eine Architektur auf die Beine zustellen, die die Bedürfnisse von DX11 Tessellation erfüllen kann. Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

Anstatt Dir Sorgen um AMD zu machen wuerde ich Deinem Lieblings-IHV raten erstmal ihren Sauhaufen aufzuraeumen denn sie sind momentan diejenigen die im Nachteil liegen und nicht AMD.

Unter den aktuellen News vom 11./12. März findet sich aus das:
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/
NVidia selbst sagt, daß sie doch besser noch HW-Tesselation hinzufügen sollten, sonst klappt's nicht so mit der DX11-Performance. Hier ein Zitat aus dem HT4U Artikel: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?

Du kannst Gift drauf nehmen dass NV sehr sehr frueh in der GF100 Entwicklung wusste dass Tessellation unter DX11 programmierbar sein wird.

Da zusaetzlich manche von Euch wohl nicht sehr gut Englisch verstehen koennt, NV meint mit dem obrigen Satz tabula rasa im Vergleich zu G80 und das behaupten sie schon off the record seit Jahren. Stimmen tut es nicht aber GF100 hat definitiv eine sehr grosse Anzahl an Aenderungen im Vergleich zu G80.

LovesuckZ
2010-03-14, 16:26:59
Damit ich das richtig verstehe: weil da nicht steht "Ich glaube dass" oder "Spekulationen zufolge" entsteht das ganze Affentheater?

Sry, aber er hat nicht spekuliert. Er hat absolute Aussagen getroffen. Er hatte keine Ahnung, wie Fermi aussehen wird. Das ist kein spekulieren, das ist Raten:


THERE'S A LOT of fake news going around about the upcoming GPUish chip called the GT300. Let's clear some air on this Larrabee-lite architecture.

That said, lets get on with what we know, and delve into the architectures a bit. The GT300 is going to lose, badly, in the GPU game, and we will go over why and how.

Spekulationen entstehen anhand vorhandener Informationen. Raten kann jeder.


Interessant. Dann werde ich mich von jetzt an auch beim Wetterbericht beschweren, weil sie nicht immer "Nach unseren Informationen, welche
nicht zu 100% eintreffen müssen" sagen.

Es ist ein Unterschied, ob aufgrund von vorhandenen Messdaten und Bildern eine Aussage getroffen wird, oder man einfach ins blaue Rät.


Dass es sich um Spekulationen handelt, darf man, denke ich bei einer Seite wie "semiaccurate" erwarten und du weisst auch ganz genau, dass die Aussagen wenn, dann als Speku aufzufassen sind mit einem gehörigen Schuss ATI-Bias und garantiert nicht als gesicherte Information welche zum Schluss auch eintreffen wird - absolute Aussagen hin oder her.

Was ist daran eine Spekulation:
It won't come close to R870 in graphics performance
:confused:

igg
2010-03-14, 16:37:43
It won't come close to R870 in graphics performance
Quelle?

LovesuckZ
2010-03-14, 16:43:38
Quelle?

A look at the Nvidia GT300 architecture (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture)

Das ist genau 10 Monate alt.

Kalmar
2010-03-14, 16:44:10
Nicht nur der. Ich zocke seit Tagen AvP und Metro 2033 mit einer HD5850 @ 900/2300 mit DX11. Und wenn ich sehe, was die kann ... die GTX280 verstaubt munter auf dem Schreibtisch und wird das Innere meines Rechners wohl nie wieder sehen.

sry ich finde nix im metro thread -.- vielleicht schau ich auch im falschen nunja -.-

also meine frage ist benutzt du fleißig alle dx11 features oder nur eingeschränkt ? meintest ja auch 35-40 fps ohne tessela ?

vielleicht ist das der knackpunkt das 470/480 net viel schneller ist als ati in normalen modi, nur halt tessela man einschalten kann und dennoch des spiel spielbar bleibt ...

Gast
2010-03-14, 16:44:16
Naja, ich glaube, dass redesigned falsch verstanden wird. Für mich bedeutet es, dass es sich beim Fermi um eine von Grund auf überarbeitete (neu erstellt wäre wohl zuviel des Guten) Architektur handelt. Dass Sie hw-tesselation erst nach Cypress oder A1 ergänzt haben, dürfte lediglich aus den Träumen von Charlie und ATI Fanboys entspringen.
Dann lese doch den Rest des HT4U-Artikel. Dann erkennst du, daß sie bereits einen GF100 hatten, aber nicht mit der (DX11-)Performance zufrieden waren, und deshalb DX11 aufwerten mußten.

Ailuros
2010-03-14, 16:47:30
Dann lese doch den Rest des HT4U-Artikel. Dann erkennst du, daß sie bereits einen GF100 hatten, aber nicht mit der (DX11-)Performance zufrieden waren, und deshalb DX11 aufwerten mußten.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7903212&postcount=15256

Letzter Paragraph; lernt Englisch.

V2.0
2010-03-14, 16:48:16
Wem versuchst Du den Mist anzudrehen nur weil NV PR es die Luft als Entschuldigung wirft? Glaubst Du ernsthaft dass NV irgendwo in 2008 aufgewacht ist und dachte "oh Mist unsere Tesselations-pipeline ist beschissen fangen wir nochmal von vorne an" oder was? Das Zeug muss mehr oder weniger schon beim Kreideboard-design in 2005 erschienen sein und es ist zwar eine sehr ausgekluegelte Loesung aber sie haben damit auch nicht gleich das Rad erfunden; anders kein 8. Wunder tut mir leid.

Vor allem ist das Wunder weniger die Leistung, als die extrem geschmeidige Skalierbarkeit. Die Tesselationhardware skaliert praktisch automatisch zur ALU Anzahl mit. AMD hingegen hat einen Einheit, die das eben nicht tut.

y33H@
2010-03-14, 16:51:44
@ Kalmar

Der Metro-Thread ist voll ;) Ich nutze nur das DX11-exklusive Depth of Field, Tessellation säuft mir zu viele Fps und obwohl sehr viel tesselliert wird, ist es kaum sichtbar, da sehr subtil. Wie gut Fermi mit/ohne Tessellation hier ist, wird sich zeigen. Benches mit Metro sind in Arbeit, kommen diese Woche.

Gast
2010-03-14, 16:52:22
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7903212&postcount=15256

Letzter Paragraph; lernt Englisch.Der deutsche Absatz zu Anfang zusammen mit dem ersten Englischen Text ergibt den Sinn.

Gast
2010-03-14, 16:55:10
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7903212&postcount=15256

Letzter Paragraph; lernt Englisch.OK, nochmal für dich:
"Dass NVIDIA seine neuen DirectX 11-GPUs lieber früher als später im Markt gesehen hätte, muss man nicht kommentieren. Wieso es allerdings zu den Verzögerungen gekommen sei, hat NVIDIA bislang nicht weiter kommentiert. Gegenüber Fudzilla hat der Hersteller nun ausgeführt, dass man wohl nicht ganz glücklich mit der Leistung gewesen sei, weshalb man die GF100-Chips von Grund auf neu überarbeitet habe.

So wie das abgegebene Hersteller-Statement gegenüber Fudzilla sich liest, hat der Hersteller tatsächlich tiefe Eingriffe vorgenommen und sich dabei zeitlich verkalkuliert:




“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation. "

Ob du dem Artikel glauben schenken möchtest, steht wie immer auf einem anderen Blatt.

igg
2010-03-14, 16:59:30
Ob du dem Artikel glauben schenken möchtest, steht wie immer auf einem anderen Blatt.
ht4u hat eine Fudzilla Newsmeldung genommen, das dortige NV Statement sinnverfälscht übersetzt + kommentiert (quasi semi accurate) und weil es dir in den kram passt, glaubst du es?

Aber seis drum, nehmen wir für dich einmal an, die Erde ist eine Scheibe. Ab wann glaubst du denn, hat Nvidia angefangen den GF100 von Grund auf umzubauen und HW tesselation sowie DX11 hinzuzufügen?

Eggcake
2010-03-14, 17:11:07
@Lovesuckz

Naja, will jetzt nicht weiter drüber diskutieren, aber imho ist irrelevant ob da "I think that blabla" oder "It will be like blabla" steht - dass das was Charlie rauslässt meist pure Speku ist, dürftest du doch kapiert haben - wie er es schlussendlich formuliert ist dabei piepegal...er kann auch überall noch "imho" hinzuschreiben, wird ja auch nicht besser...

sry ich finde nix im metro thread -.- vielleicht schau ich auch im falschen nunja -.-

also meine frage ist benutzt du fleißig alle dx11 features oder nur eingeschränkt ? meintest ja auch 35-40 fps ohne tessela ?

vielleicht ist das der knackpunkt das 470/480 net viel schneller ist als ati in normalen modi, nur halt tessela man einschalten kann und dennoch des spiel spielbar bleibt ...

Wäre so ab Seite 15/16 zu finden im Metrothread.

@ Kalmar

Der Metro-Thread ist voll ;) Ich nutze nur das DX11-exklusive Depth of Field, Tessellation säuft mir zu viele Fps und obwohl sehr viel tesselliert wird, ist es kaum sichtbar, da sehr subtil. Wie gut Fermi mit/ohne Tessellation hier ist, wird sich zeigen. Benches mit Metro sind in Arbeit, kommen diese Woche.

Mh also das würde hinwiederum bedeuten, dass es mitm Fermi gut spielbar sein wird mit Tesselation, wenn es ohne mit einer 5850 "gut" läuft (bzw. wenn eben Tesselation das grösste Problem ist).

y33H@
2010-03-14, 17:17:11
Das gilt es abzuwarten. Denn selbst ohne Tessellation mit Rest auf Anschlag, geht eine HD5870 in die Knie. Fermi müsste schon sagen wir 30-40% schneller sein.

Nazar
2010-03-14, 17:17:30
An Leuten die es auch noch nach dem Achttausendzweihundertfünfundzwanzigsten Artikel für nötig halten hier immer und immer wieder den gleichen Mist abzulassen sieht man sehr schön wie "neutral" sind sind.

Wenn es eh nur laute Scheiße ist dann soll man die Artikel nicht mehr verlinkten, aber anscheinend sind ja doch ein paar interessanten Infos dabei, und dann sollen sich auch die Leute deren Herz für den anderen Hersteller schlägt zurück halten. Es nervt ganz einfach.

Gut auf den Punkt gebracht.
Es ist wirklich lustig zu lesen, wie sich die Unterschiedlichen Lager gegenseitig vorwerfen nicht neutral zu sein.
Und richtig lustig wird es dann, wenn "Alte Hasen" aus dem Forum, nicht müde werden wie dämlich doch die Kommentare von Charly sind.
Was ist nun schlimmer? Der Narr oder die Narren die nicht müde werden, für seine Narretaien Werbung zu machen! :freak:
Aber schön zu sehen, dass all diese "Narren" so schön über der Sache stehen (zumindest in ihren Träumen) ;D

Ich persönlich hoffe nur, dass nV schneller ist als Cypress und die Preise endlich weiter fallen werden. In den PC kommt dann das beste Preis/Leistungsangebot für den High End Bereich.
Da ist es mir dann Latte welche Firma den Chip entwickelt hat.

Nazar
2010-03-14, 17:23:44
Insider-Informationen? :confused:
Hier sind seine "Insider-Informationen" aus dem letzten Jahr und im Vergleich zu diesem Jahr:


http://forum.beyond3d.com/showpost.php?p=1406715&postcount=65

Dein Fakten beruhen doch eher auf Deiner Meinung als alles andere, was leider nV in einem schlechteren Licht dastehen lässt, als es nötig wäre.
Selbst wenn man nur wild drauf losraten würde, hätte man eine ähnliche Trefferzahl wie Du.
Teilweise schaffst Du es ja sachlich zu argumentieren aber nach kurzer Zeit verfällst Du in Dein: "es wird "bestimmt" so.. andere haben es aber mal schlechter gemacht... die anderen waren aber damals auch nicht gut... hier versagen die anderen in einem anderen Bereich.. usw.

Du hast Deine Meinung, das ist ok aber lass dann anderen doch auch ihre.
Wie gesagt, bist "selbst" Du nicht unfehlbar, Du musst das nur noch verinnerlichen und man könnte viele nV Artikel wieder in ruhe lesen und müsste sich nicht ständig durch 90% Hasspostings wühlen, um an die wichtigen Informationen zu kommen.
Das Du das kannst, hast Du ja schon bewiesen, jetzt nur am Ball bleiben!

Gast
2010-03-14, 17:23:59
ht4u hat eine Fudzilla Newsmeldung genommen, das dortige NV Statement sinnverfälscht übersetzt + kommentiert (quasi semi accurate) und weil es dir in den kram passt, glaubst du es?

Aber seis drum, nehmen wir für dich einmal an, die Erde ist eine Scheibe. Ab wann glaubst du denn, hat Nvidia angefangen den GF100 von Grund auf umzubauen und HW tesselation sowie DX11 hinzuzufügen?Warum müssen hier einige Leute persönlich werden, wenn ihnen etwas nicht in den Kram paßt?!

Auch in der Fudzilla-News steht eindeutig, daß diese Antwort von NV auf die Frage nach dem Grund der Verspätung von Fermi gegeben worden ist. Was ist daran so schlimm, wenn bekannt werden würde, daß ein erster Design-Ansatz nicht zufriedenstellend war und Designänderungen nötig geworden sind, um zufriedenstellende Leistung zu erreichen? Ich glaube, es ist so gar mehr als wahrscheinlich, daß es genau so passierte!
Hier nochmal der Fuzilla-Text:
"We tried to find a cause of Fermi delay and we already wrote about it here, but now we got some additional details that might shed some light on the subject.
Nvidia has sent us the following statement.
“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.
We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing and faster physics performance through things like support for concurrent kernels.
Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.
Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”
You can see that they have worked very hard to send us some nice tailored response and again if you read between the lines you will again see that some part of the chip developed by one of the groups was not perfect and they decided to postpone the project.
We can only add that despite the fact if Fermi will be the best gaming GPU ever build, it will be the most hyped GPU in the history of hardware accelerated graphics. "

LovesuckZ
2010-03-14, 17:37:43
Dein Fakten beruhen doch eher auf Deiner Meinung als alles andere, was leider nV in einem schlechteren Licht dastehen lässt, als es nötig wäre.
Selbst wenn man nur wild drauf losraten würde, hätte man eine ähnliche Trefferzahl wie Du.
Teilweise schaffst Du es ja sachlich zu argumentieren aber nach kurzer Zeit verfällst Du in Dein: "es wird "bestimmt" so.. andere haben es aber mal schlechter gemacht... die anderen waren aber damals auch nicht gut... hier versagen die anderen in einem anderen Bereich.. usw.

Du hast Deine Meinung, das ist ok aber lass dann anderen doch auch ihre.
Wie gesagt, bist "selbst" Du nicht unfehlbar, Du musst das nur noch verinnerlichen und man könnte viele nV Artikel wieder in ruhe lesen und müsste sich nicht ständig durch 90% Hasspostings wühlen, um an die wichtigen Informationen zu kommen.
Das Du das kannst, hast Du ja schon bewiesen, jetzt nur am Ball bleiben!

Ich stelle mir bei einigen immer die Frage, wieso sie Char-lie verteidigen. Was ist dein Problem mit dem Aufzeigen seiner "Spekulationen"? Ich bin wohl kaum dafür verantwortlich, dass er sich so geirrt hat und seine Meinung einfach mal so um 180° dreht - ohne Erklärung.
Ich weiß, das einige nVidia fallen sehen wollen. Aber dabei sollte man nie lügen verbreiten - sowie Char-lie.

Und da du dich als sein Anwalt aufstellst, dann kannst du gerne das hier mal erklären:

2009:
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware.
The same should hold true for all DX11 features, ATI has dedicated hardware where applicable. Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.

7 Monate später - 2010:

GF100/GTX480 was not meant to be a GPU, it was a GPGPU chip pulled into service for graphics when the other plans at Nvidia failed. It is far too math/DP FP heavy to be a good graphics chip, but roping shaders into doing tessellation is the one place where there is synergy.

Viel Spaß. Sollte ja nicht schwer, immerhin hat Char-lie ja Insiderinformationen.

igg
2010-03-14, 17:44:02
Auch in der Fudzilla-News steht eindeutig, daß diese Antwort von NV auf die Frage nach dem Grund der Verspätung von Fermi gegeben worden ist. Was ist daran so schlimm, wenn bekannt werden würde, daß ein erster Design-Ansatz nicht zufriedenstellend war und Designänderungen nötig geworden sind, um zufriedenstellende Leistung zu erreichen?
Beantworte doch einfach meine Frage (und ja, meiner Meinung nach verstehst du denn Fudzilla Artikel ebenso falsch wie der ht4u Autor).

Nochmal die Frage: "Ab wann glaubst du denn, hat Nvidia angefangen den GF100 von Grund auf umzubauen und HW tesselation sowie DX11 hinzuzufügen?"

Ich bin auf die Antwort gespannt!

Schlammsau
2010-03-14, 17:46:44
Ich stelle mir bei einigen immer die Frage, wieso sie Char-lie verteidigen. Was ist dein Problem mit dem Aufzeigen seiner "Spekulationen"? Ich bin wohl kaum dafür verantwortlich, dass er sich so geirrt hat und seine Meinung einfach mal so um 180° dreht - ohne Erklärung.
Ich weiß, das einige nVidia fallen sehen wollen. Aber dabei sollte man nie lügen verbreiten - sowie Char-lie.

Liegt vielleicht daran, dass seine Spekulationen des öfteren richtig waren.
Es sind ja immernoch Spekulationen, auch wenn sehr ATi-biased!

Bei dir ist genau umgekehrt, du bist im Grunde der Char-Lie von nVidia.
Legst jedes Wort deren PR auf die Goldwaage und redest jede Kritik an nVidia klein.

Egal was nVidia macht, ob Fehler oder sonstwas, du biegst es immer so hin in deiner kleinen grünen Welt, dass alle anderen Schuld sind, nur nicht nVidia.

Ich kann sagen, der R600 war Mega Epic Fail, oder die 5830 ist eine Daufänger Karte.
Kannst du das auch? Kannst du sagen, nVidia hat bei Fermi misst gebaut?

Gast
2010-03-14, 17:53:43
Beantworte doch einfach meine Frage (und ja, meiner Meinung nach verstehst du denn Fudzilla Artikel ebenso falsch wie der ht4u Autor).

Nochmal die Frage: "Ab wann glaubst du denn, hat Nvidia angefangen den GF100 von Grund auf umzubauen und HW tesselation sowie DX11 hinzuzufügen?"

Ich bin auf die Antwort gespannt!

Einfach sowas ignorieren, gibt Leute die meinen in 6 Monaten könnte man noch was an der GPU rumdesignen/ändern... Das der Kommentar sich auf den Ansatz G80+Verbesserungen=GT400/Fermi hinzielt versteht man da eben nicht. Selbst die Zeit von G80 zu GT200 war zu kurz um die echten Probleme der Architektur anzugehen. Man wusste wo es hakt, aber man konnte nichts mehr tun, außer den Midrange Chip canceln und aus dem G9x Design alles rausholn was geht.

Menace
2010-03-14, 17:56:11
Kannst du sagen, nVidia hat bei Fermi misst gebaut?

Wie soll er das zu diesem Zeitpunkt sagen können? :rolleyes:

mapel110
2010-03-14, 17:57:45
Kannst du das auch? Kannst du sagen, nVidia hat bei Fermi misst gebaut?
Kann man ja nicht sagen, weil die Karte noch nicht auf dem Markt ist. Und an der Verspätung sind sie nur teilweise schuld, während ATI an R600 und 5830 die volle Schuld trägt. :tongue:

Schlammsau
2010-03-14, 17:58:07
Wie soll er das zu diesem Zeitpunkt sagen können? :rolleyes:

Er ist deutlich zu spät. Ergo wurde in der Vergangenheit Mist gebaut.

Grestorn
2010-03-14, 18:00:35
Ja klar. Im Prinzip ist jeder Fehler Mist, vor allem für die Shareholder.

Ich wünsche Dir nur, dass Du niemals einen Boss haben wirst, der Dich bei jedem Fehler gleich wegen dem "Mist" den Du gebaut hast, zur Verantwortung zieht.

Ich sehe "Mist bauen" doch eher als komplettes Versagen, sprich wenn der Chip überhaupt kein Land sieht oder so nicht zu produzieren wäre.

LovesuckZ
2010-03-14, 18:02:57
Er ist deutlich zu spät. Ergo wurde in der Vergangenheit Mist gebaut.

Warten wir doch einfach ab. Ich beurteile keine Phantasien sondern nur reale Produkte.
Aber da du ja sagst, dass Char-lie ja bei sovielen Spekulationen über GF100 recht hatte, kannst du gerne das obige Beispiel erklären.

Menace
2010-03-14, 18:03:56
Deutlich zu spät ist Duke Nukem F. :biggrin:

Es gibt genug bei nvidia und deren Öffentlichkeitsarbeit zu kritisieren; mit ihrer Lügendichte, was die Veröffentlichung und die Karten in der Hand angehen stehen sie nicht weit von Charlie und die angebliche Leistungsfähigkeit von Fermi entfernt, aber sie müssen ja auch ihre Produkte schützen und wissen mehr, als Charlie.

Aber dass so ein Monster-Chip mal etwas später kommen kann, ist natürlich schlecht für nvidia, aber kann bei dieser Komplexität (soweit ich es einschätzen kann) durchaus passieren. Wenn das Produkt anschließend entsprechend gut dastehen sollte (!), war die Warterei u.U. gerechtfertigt und nicht der falsche Weg. Ich bin froh, dass nvidia nicht immer nur Quartalsweise denkt, sondern auch am Ziel, längerfristige Optionen zu halten, festhält.

Botcruscher
2010-03-14, 18:04:15
Wobei keiner mit solch extrem anhaltenden Problemen bei TSMC gerechnet hat. NV wäre eher dran [die gigantisch verzögerten G200 Ableger erst recht], ATi wäre eher dran und selbst RV740 wäre ordentlich verfügbar gewesen. Hätte, wäre, wenn... Ist halt scheiße gelaufen.
Und an den Chip ist ganz sicher nichts mehr Richtung Tes. "optimiert" wurden.

Warten wir doch einfach ab. Ich beurteile keine Phantasien sondern nur reale Produkte.

Sicher.

Eggcake
2010-03-14, 18:04:56
Tatsache ist aber, dass in diesem Thread zu genüge bereits die Leistung des GF100 unter der Nutzung von Tesselation als überwältigend und "zukunftsweisend" bezeichnet wurde. Gleichzeitig noch in einem Nebensatz, dass ATI dabei hinterherhinkt und ihre Karte bei zukünftigen Titeln zum Scheitern verurteilt wäre.

Das musste ich von gewissen Usern (Namen nenne ich jetzt nicht) auf den letzten paar Dutzend Seiten zu genüge lesen - und keinesfalls als "Spekulation" deklariert sondern als Tatsache. Dies, bevor irgendwelche aussagekräftigen Benches zu sehen sind. Gleichzeitig wird dann auch noch Charlie mit seinen Lügen gebasht.

Ich nenn es mal (zugegebenermassen wohl das Unwort der letzten Jahre) "Doppelmoral".

Edit: Aber nun genug davon ^^

_DrillSarge]I[
2010-03-14, 18:06:04
Wie soll er das zu diesem Zeitpunkt sagen können? :rolleyes:
anhand der vergangenheit + logik ;D

geforce 4 - gut
geforce 5 - müll
geforce 6 - gut
geforce 7 - müll
geforce 8 - gut
geforce 9 - müll (da relabeled)
geforce gt200 - gut
fermi - müll
:ulol:

momentan ist soviel unsinn im umlauf, dass man am besten bis release keinem traut :upara: :D

Menace
2010-03-14, 18:07:10
I[;7903396']anhand der vergangenheit + logik ;D


Kenne ich; nennt sich Astro-TV. ;D

Gast
2010-03-14, 18:08:46
Beantworte doch einfach meine Frage (und ja, meiner Meinung nach verstehst du denn Fudzilla Artikel ebenso falsch wie der ht4u Autor).

Nochmal die Frage: "Ab wann glaubst du denn, hat Nvidia angefangen den GF100 von Grund auf umzubauen und HW tesselation sowie DX11 hinzuzufügen?"

Ich bin auf die Antwort gespannt!Diese Frage beantworte ich nicht, denn die Antwort wäre rein spekulativ! Und das NV Fermi nicht in einem Jahr entwickelt hat, darüber sind wir uns einig.

Aber, Fudzilla erhielt diese Antwort auf die Frage nach den Gründen der Verspätung von Fermi. NV schreibt zurück: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. ...". Hier steht nicht "We designed GF100 from the ground up" sondern "We redesigned GF100 ..."
Und der Satz: "Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed." deutet in diesem Zusammenhang auf "late design changes" hin.
Du kannst jetzt noch so persönlich werden, aber die gute Wahrscheinlichkeit, daß NV das ursprüngliche Design nachbessern mußte, ist mehr als nur gegeben.

LovesuckZ
2010-03-14, 18:12:42
Tatsache ist aber, dass in diesem Thread zu genüge bereits die Leistung des GF100 unter der Nutzung von Tesselation als überwältigend und "zukunftsweisend" bezeichnet wurde. Gleichzeitig noch in einem Nebensatz, dass ATI dabei hinterherhinkt und ihre Karte bei zukünftigen Titeln zum Scheitern verurteilt wäre.


nVidia's Tessellationleistung ist keine Spekulation mehr. AMD's Einbruch auch nicht.
Aber du vertraust doch Char-lie. Der gibt selbst zu, dass nVidia's Tessellationleistung deutlich über der von AMD liegt. ;D

Eggcake
2010-03-14, 18:21:40
Du verstehst nicht was ich meine (schreibe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7903303&postcount=15268)ja selber dass die Tesslationsleistung von GF100 über dem Cypress liegt - darum gehts nicht). Aber ist mir zu blöd noch weiter über diesen Nonsense zu diskutieren - Hauptsache du bashst in jedem 3. Post ATI, regst dich aber ungeheuerlich über Charlie auf - und merkst es anscheinend nichtmal.

igg
2010-03-14, 18:22:04
Na dann haben wir zwei Stühle zwei Meinungen :)

Zwei gedanken noch:

Dass ein Chipdesign in der Entwurfsphase mehrfach in verschiedenem überarbeitet wird, ist normal.
Dass fundamentale Überraschungen spät durchgeführt werden und insbesondere wie im Zusammenhang mit der referenzierten News (allerdings nicht von dir, das gebe ich zu) im Rahmen von A1-A3, oder B1, halte ich für extremst unwahrscheinlich
Glaube ich, dass der Wahrheitsgehalt eines Nvidia PR Statements gegenüber einer drittklassigen Newsklitsche gegen 0 geht (unabhängig davon, wie sie nun gemeint ist) und hier deutlich überinterpretiert wird. Nvidias PR will hier offentlicht einfach das revolutionäre und ehrgezeige in den Vordergrund stellen...

Kalmar
2010-03-14, 18:23:20
Wäre so ab Seite 15/16 zu finden im Metrothread.

Mh also das würde hinwiederum bedeuten, dass es mitm Fermi gut spielbar sein wird mit Tesselation, wenn es ohne mit einer 5850 "gut" läuft (bzw. wenn eben Tesselation das grösste Problem ist).

@ Kalmar

Der Metro-Thread ist voll ;) Ich nutze nur das DX11-exklusive Depth of Field, Tessellation säuft mir zu viele Fps und obwohl sehr viel tesselliert wird, ist es kaum sichtbar, da sehr subtil. Wie gut Fermi mit/ohne Tessellation hier ist, wird sich zeigen. Benches mit Metro sind in Arbeit, kommen diese Woche.

danke .. hatte mir nur die letzten seiten und die unsägliche steam diskussion angeschaut ...

also das klignt so als wäre es nen patt, fermi vs 5er .. da sollten die 10% mehr oder weniger auch net viel aus machen, bleibt halt die interessante frage der min-frames .. bei den leaks sah es ja so aus das die bei der fermi deutlich höher waren bei gleichen avg-fps kann es ja sein das der sub. spiele eindruck besser ist als bei den 5er .. oder es kommt raus eine karte hat nen längeren balken 5-15% aber der subjektive eindruck ist der gleiche dann ist als kunde net viel gewonnen ..

nunja knapp 2 wochen nur noch dann ist vorbei mit dem rumgeeiere ..

Bucklew
2010-03-14, 18:25:48
Auch in der Fudzilla-News steht eindeutig, daß diese Antwort von NV auf die Frage nach dem Grund der Verspätung von Fermi gegeben worden ist. Was ist daran so schlimm, wenn bekannt werden würde, daß ein erster Design-Ansatz nicht zufriedenstellend war und Designänderungen nötig geworden sind, um zufriedenstellende Leistung zu erreichen? Ich glaube, es ist so gar mehr als wahrscheinlich, daß es genau so passierte!
Lies es doch mal im Englischen:

We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.
[...]
Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.

Nvidia sagt damit nicht, dass man Fermi fertig hatte und das Design langsam war und man es ändern musste (dann würde der Chip sowieso frühestens Ende 2010 zu kaufen sein), sondern das man den GF100 vom Grund auf neu aufgebaut hat und viel spezielle Hardware eingebaut hat, um für DX11 gerüstet zu sein.

Ich kann sagen, der R600 war Mega Epic Fail, oder die 5830 ist eine Daufänger Karte.
Kannst du das auch? Kannst du sagen, nVidia hat bei Fermi misst gebaut?
Das kann aktuell wohl niemand sagen, außer er hat ein Produktionssample rumliegen und hat gebencht. Von jedem anderen ist es Spekulation.

Und genau ist auch das Problem bei Charlie: Er spekuliert nicht, er macht aus seinen Spekulationen harte Fakten und verstrickt sich immer weiter und tiefer in sein Lügengebilde. Wenn es dann doch anders kommt, hat er gar keine Chance mehr, das ganze zu relativieren.

Gast
2010-03-14, 18:29:13
Na dann haben wir zwei Stühle zwei Meinungen :)

Zwei gedanken noch:

Dass ein Chipdesign in der Entwurfsphase mehrfach in verschiedenem überarbeitet wird, ist normal.
Dass fundamentale Überraschungen spät durchgeführt werden und insbesondere wie im Zusammenhang mit der referenzierten News (allerdings nicht von dir, das gebe ich zu) im Rahmen von A1-A3, oder B1, halte ich für extremst unwahrscheinlich
Glaube ich, dass der Wahrheitsgehalt eines Nvidia PR Statements gegenüber einer drittklassigen Newsklitsche gegen 0 geht (unabhängig davon, wie sie nun gemeint ist) und hier deutlich überinterpretiert wird. Nvidias PR will hier offentlicht einfach das revolutionäre und ehrgezeige in den Vordergrund stellen...


Es ist schon richtig, in allen News steckt viel Unschärfe drin und man darf nicht jedes Wort auf die Goldwage legen, d.h. scharf interpretieren. Wenn der Schreiber bei NV gewußt hätte, wie ich auf einzelne Worte eingehe, dann hätte er sie bestimmt anders verfaßt. So gesehen liegt die Wahrheit vermutlich wieder irgendwo in der Mitte!

LovesuckZ
2010-03-14, 18:31:44
Hauptsache du bashst in jedem 3. Post ATI, regst dich aber ungeheuerlich über Charlie auf - und merkst es anscheinend nichtmal.

Wo bashe ich AMD? Wenn selbst Char-lie* zugibt, dass nVidia mit Tessellation deutlich schneller als AMD sein wird, empfindest du auch als bashen? Dabei verteidigst du diesen Herrn. Nennt man dann wohl Eigentor.

Aber du hast recht: Es ist unsinnig weiter zu machen. Du wirst immer ein bash gegen AMD sehen. Selbst wenn es nur die Wahrheit ist.

*
There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the Cypress HD5870, and will likely beat a dual chip Hemlock HD5970. The sources said that this lead was most definitely not reflected in any game or test they ran, it was only in tessellation limited situations where the shaders don't need to be used for 'real work'.
http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

Das Fermi sich verspätet, lag nicht an ihrer Strategie. Sie haben ein Problem durch DX11 Tessellation in ihrer GPU gesehen, dass gelöst werden musste. Sie wollten keinen zweiten Geometry Shader Fall haben.
Nach Fermi muss AMD zeigen, ob sie ebenfalls in der Lage sind eine Architektur auf die Beine zustellen, die die Bedürfnisse von DX11 Tessellation erfüllen kann. Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

Wieviele Leute haben die "Spekulationen" von Char-lie wiedergeben? Wieviele erzählten hier, dass "DX11 doesn't matter" würde bei nVidia. Wieviele erzählten, dass sie keinen Gamerchip bringen werden? Und wenn es dann am Ende ausgerechnet komplett anders kommt, empfindest du es als "bashen" gegen AMD? Schon ironisch.

Black-Scorpion
2010-03-14, 18:46:19
Nein, weil es deine Wahrheit ist.
Du hast ein Talent alles so zu drehen wie es dir passt.
Dir können zehn Leute das Gegenteil sagen und es sind alles ATI FB. Nur du hast recht und alle andere bashen Nvidia.

Malabolge
2010-03-14, 18:48:40
nVidia's Tessellationleistung ist keine Spekulation mehr. AMD's Einbruch auch nicht.
Aber du vertraust doch Char-lie. Der gibt selbst zu, dass nVidia's Tessellationleistung deutlich über der von AMD liegt. ;D

Ach du hast schon eine Karte und kannst sie SELBST vergleichen ?
DU kannst für dies Behauptung hier "Handfeste" Beweise vorlegen ?
Du hast Die "ENDGÜLTIGEN" Daten ??
Taktraten Speicher Menge , Shaderanzahl , Stromverbrauch ...

Her Damit , Oh Allwissender


Keine Zahlen , aber die Tesselationslistung ist keine Spekulation. NICE !



Und immer wieder diese Scheiss "Char-lie" Provokation und Hetzerei. Lass den Kerl wenn er dir nicht Passt doch einfach Links liegen.
Aber Nein , dann kann mann ja nicht Provozieren und Sticheln.
Und als ein gewisser Member hier sich mit gewissen Vergleichen im Niveau mehr als unterirdisch abgesetzt hatte ,wer war einer der ersten die ihn
verteidigten und "unterstützen" ??



Ahh Fuck - was rege ich mich auf. Einfach Lächlen und Winken (Madagaskar Pinguine)


Ps - Ach ich weiß :

Zahlen gibsts am 27.

Were not worth it (Waynes World Szene mit Alice Cooper :wink:)

Ailuros
2010-03-14, 19:08:10
Vor allem ist das Wunder weniger die Leistung, als die extrem geschmeidige Skalierbarkeit. Die Tesselationhardware skaliert praktisch automatisch zur ALU Anzahl mit. AMD hingegen hat einen Einheit, die das eben nicht tut.

Die Polymorph engine wurde insgesamt mit 4 raster/trisetups maximal entwickelt. Wenn sie nach unten skalieren dann sind es stets minimal 1 raster/trisetup. Der Rest ist Haarspalterei IMHO.

OK, nochmal für dich:
"Dass NVIDIA seine neuen DirectX 11-GPUs lieber früher als später im Markt gesehen hätte, muss man nicht kommentieren. Wieso es allerdings zu den Verzögerungen gekommen sei, hat NVIDIA bislang nicht weiter kommentiert. Gegenüber Fudzilla hat der Hersteller nun ausgeführt, dass man wohl nicht ganz glücklich mit der Leistung gewesen sei, weshalb man die GF100-Chips von Grund auf neu überarbeitet habe.

So wie das abgegebene Hersteller-Statement gegenüber Fudzilla sich liest, hat der Hersteller tatsächlich tiefe Eingriffe vorgenommen und sich dabei zeitlich verkalkuliert:




“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation. "

Ob du dem Artikel glauben schenken möchtest, steht wie immer auf einem anderen Blatt.


Von mir aus kannst Du glauben was Du willst. Ich wiederhole nicht unendliche Male das gleiche Zeug.

Warum müssen hier einige Leute persönlich werden, wenn ihnen etwas nicht in den Kram paßt?!

Auch in der Fudzilla-News steht eindeutig, daß diese Antwort von NV auf die Frage nach dem Grund der Verspätung von Fermi gegeben worden ist. Was ist daran so schlimm, wenn bekannt werden würde, daß ein erster Design-Ansatz nicht zufriedenstellend war und Designänderungen nötig geworden sind, um zufriedenstellende Leistung zu erreichen? Ich glaube, es ist so gar mehr als wahrscheinlich, daß es genau so passierte!
Hier nochmal der Fuzilla-Text:
"We tried to find a cause of Fermi delay and we already wrote about it here, but now we got some additional details that might shed some light on the subject.
Nvidia has sent us the following statement.
“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.
We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing and faster physics performance through things like support for concurrent kernels.
Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.
Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”
You can see that they have worked very hard to send us some nice tailored response and again if you read between the lines you will again see that some part of the chip developed by one of the groups was not perfect and they decided to postpone the project.
We can only add that despite the fact if Fermi will be the best gaming GPU ever build, it will be the most hyped GPU in the history of hardware accelerated graphics. "

Fudo bzw. Fudzilla passen sowieso nicht in den gleichen Satz mit anstaendigem online Journalismus. Die Anzahl an Bloedsinn auf der Seite waechst leider zunehmend in letzter Zeit und nicht nur auf NV bezogen.

Diese Frage beantworte ich nicht, denn die Antwort wäre rein spekulativ! Und das NV Fermi nicht in einem Jahr entwickelt hat, darüber sind wir uns einig.

Und ich bin jetzt so frech und behaupte dass nicht spekulativ gar nichts kurzfristig geaendert wurde.

Aber, Fudzilla erhielt diese Antwort auf die Frage nach den Gründen der Verspätung von Fermi. NV schreibt zurück: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. ...". Hier steht nicht "We designed GF100 from the ground up" sondern "We redesigned GF100 ..."

Es ist eine sehr lange Geschichte wie IHV+M$ vor etlichen Jahren fuer Tessellation in DX10 verhandelten. Leider wurde lange vor der DX10 Festlegung jegliche Tesselation immer weniger programmierbar, man einigte sich zuerst auf eine optionale fixed function Tessellations-Einheite die aber am Ende von finalen DX10 entfernt wurde. Dieses geschah irgendwo in 2003 wenn mich jetzt mein Gedaechtnis nicht betruegt und deshalb blieben die Tessellations-Einheiten auch bei ATI und PowerVR in ihren Architekturen stecken. NV konnte zu dem Zeitpunkt jeglichen Schimmer von Tesselation in ihren zukuenftigen Desings entfernen und da sich die IHVs auch einig wurden dass wenn Tessellation dann programmierbar brauchte man keinen Hellseher um zu wissen in welche Richtung das Ganze gehen wird.

NV meint in dem Absatz nach wie vor tabula rasa fuer den Geometrie/Tesselations-Anteil und auf diesen ausschlieschlich bezog ist es auch wahr. Die jeweiligen hints die ich seit G80 links und rechts sammeln konnte (und manche auch leider nicht richtig deuten konnte damals) deuteten alle in die Richtung in die GF100 gegangen ist.

Und wenn es schon muss: waere 40G nicht so beschissen gewesen haetten sie auch in Q4 2009 veroeffentlicht, was in bar lediglich =/>2 Monate spaeter als AMD bedeutet. Wenn Du jetzt glauben willst dass sie irgendwo zwischen 2005 und 2009 den Design total umgekrempelt haben und lediglich 2 Monate spaeter als die Konkurrenz angekommen waere dann muss ich an alle Maerchen die herumschwirren glauben.


Und der Satz: "Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed." deutet in diesem Zusammenhang auf "late design changes" hin.
Du kannst jetzt noch so persönlich werden, aber die gute Wahrscheinlichkeit, daß NV das ursprüngliche Design nachbessern mußte, ist mehr als nur gegeben.

Quatsch und siehe oben.

Eggcake
2010-03-14, 19:09:38
Wo bashe ich AMD?

;D;D;D

Wenn selbst Char-lie* zugibt, dass nVidia mit Tessellation deutlich schneller als AMD sein wird, empfindest du auch als bashen? Dabei verteidigst du diesen Herrn. Nennt man dann wohl Eigentor.

Du hast immernoch nicht verstanden, auf was ich hinauswollte. Es geht darum dass du dich schon auf hypothetische Spiele beziehst und schlussfolgerst, dass Cypress einen Schuss in den Ofen ist und Fermi in Spielen genau die Performance bringen wird, die man sich wünscht. Dies obwohl man noch keinen einzigen Benchmark von den entsprechenden Spielen gesehen hat (wie auch, wenn sie (mit Ausnahme von Metro)) noch nicht existieren?
Ich verteidige Charlie nicht, es geht darum, dass seine Storys in diesem Thread dauernd hochgepusht werden, dabei entsteht jedes Mal ein Klima, welches Diskussionen verunmöglicht.

Du wirst immer ein bash gegen AMD sehen
Da hast du Recht - bei deinen Posts ist die Wahrscheinlichkeit extrem hoch irgendwo einen Bash in Richtung AMD zu finden.


Wieviele Leute haben die "Spekulationen" von Char-lie wiedergeben? Wieviele erzählten hier, dass "DX11 doesn't matter" würde bei nVidia.
Keine Ahnung, verfolge den Thread nicht allzulange, aber in der näheren Vergangenheit scheinst du dich extrem an diesem vermeintlichen Zitat zu ergötzen - seit ich den Thread verfolge habe ich dies eigentlich nur im Zusammenhang mit deinen Posts gelesen.

Und wenn es dann am Ende ausgerechnet komplett anders kommt, empfindest du es als "bashen" gegen AMD? Schon ironisch.
Weiss jetzt nicht wirklich auf was du dich hier beziehst, daher kommentiere ich das nicht weiter.


Übrigens: wenn du meine Posts in diesem Thread verfolgst, wirst du feststellen, dass ich bisher fast nur positives über Fermi rausgelassen habe - ich zog/ziehe, je nach den Resultaten, sogar in Betracht meine 5850 zu verkaufen und zur 470 zu greifen - aber ja, ich bin extrem ProAMD.

Ich bin schlicht gegen dieses scheinheilige Getue, das steht mir bis zum Hals. Offensichtliches Bashen (von beiden Seiten) und dann so tun, als ob man's überhaupt nicht so gemeint hätte, und dies und jenes nie so gesagt habe. Ach komm, steht doch wenigstens dazu.

Gast
2010-03-14, 19:25:21
Diese Frage beantworte ich nicht, denn die Antwort wäre rein spekulativ! Und das NV Fermi nicht in einem Jahr entwickelt hat, darüber sind wir uns einig.

Aber, Fudzilla erhielt diese Antwort auf die Frage nach den Gründen der Verspätung von Fermi. NV schreibt zurück: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. ...". Hier steht nicht "We designed GF100 from the ground up" sondern "We redesigned GF100 ..."
Und der Satz: "Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed." deutet in diesem Zusammenhang auf "late design changes" hin.
Du kannst jetzt noch so persönlich werden, aber die gute Wahrscheinlichkeit, daß NV das ursprüngliche Design nachbessern mußte, ist mehr als nur gegeben.
entweder ist mein englisch miserabel, aber die eigentlich aussage hier war doch:

Der GF100 wurde im Vergleich zum vorgänger in Hinblick auf DX11 neu entwickelt, wobei das mehr Zeit in Anspruch genommen hat, als man ursprünglich gedacht hatte.

Iruwen
2010-03-14, 19:26:20
Ja, das haben außer ihm jetzt auch alle verstanden.

LovesuckZ
2010-03-14, 19:32:00
Du hast immernoch nicht verstanden, auf was ich hinauswollte. Es geht darum dass du dich schon auf hypothetische Spiele beziehst und schlussfolgerst, dass Cypress einen Schuss in den Ofen ist und Fermi in Spielen genau die Performance bringen wird, die man sich wünscht. Dies obwohl man noch keinen einzigen Benchmark von den entsprechenden Spielen gesehen hat (wie auch, wenn sie (mit Ausnahme von Metro)) noch nicht existieren?

Ich habe so etwas nirgends geschrieben. Dein Problem scheint fehlendes Textverständnis zu sein. Das passiert in diesem Forum sehr oft. Ich habe nur die Tessellationimplementierung angesprochen. Und in älteren Postings wirst du Aussagen finden, dass sich nVidia's Vorteil nur dann zum Vorschein kommt, wenn verstärkt Tessellation genutzt wird. Du wirst kein Posting finden, wo ich den kompletten Cypress als "Schuss in den Ofen" bezeichne - im Gegensatz zu den AMD Boys hier im Forum, die GF100 schon als Fehler bezeichnen.


Keine Ahnung, verfolge den Thread nicht allzulange, aber in der näheren Vergangenheit scheinst du dich extrem an diesem vermeintlichen Zitat zu ergötzen - seit ich den Thread verfolge habe ich dies eigentlich nur im Zusammenhang mit deinen Posts gelesen.

Dann hast du eine Zeit verpasst in der nVidia's DX11 Leistung und Implementierung in Frage gestellt wurde. Auch durch solche "Spekulationen" von Char-lie. Dieses "Tessellation über Shader" wird heute noch geglaubt - jedoch nur in der zweiten Version.


Ich bin schlicht gegen dieses scheinheilige Getue, das steht mir bis zum Hals. Offensichtliches Bashen (von beiden Seiten) und dann so tun, als ob man's überhaupt nicht so gemeint hätte, und dies und jenes nie so gesagt habe. Ach komm, steht doch wenigstens dazu.

Bitte mein Posting nochmal lesen. Ich beziehe mich nur auf die Tessellationimplementierung. Wie gesagt, man sollte nicht alles sofort als Bash sehen, wenn sein Lieblingsgrafikkartenhersteller kritisiert wird. :)

Nakai
2010-03-14, 19:34:33
Wenn man NVs Aussage für voll nehmen kann, dann ist Fermi auf längerer Sicht die bessere Entscheidung.
Nach den ersten Previews wird Fermi eine deutlich bessere Tesselationsleistung vorausgesagt, jedenfalls im Vergleich zu Cypress.

Jetzt aber mal im Ernst. Fermi wird nicht nur in DX11 gemessen, sondern auch bei älterer Software. Bis jetzt ist DX11 rar gesäht. Es gibt noch keine wirkliche DX11-Killerapp.
Wie sich Fermi schlägt sehen wir in 2 Wochen in etwa.


mfg


€: Boah, ist das lustig hier. Jeder wirft hier jeden mangelndes Textverständis, Bias, mangelnde Englischkenntnisse usw usw vor. Einfach köstlich...

tombman
2010-03-14, 19:43:10
Also, bis jetzt scheint GTX480 einfach nur ein HD5870 + Phys-X+ besserer Maximalbelastung (Dreiecke, Tess., etc) zu sein. Ich schätze, die min. fps werden bei NV besser sein.

Kann mir aber auch durchaus vorstellen, daß es Situationen gibt, wo HD5870 davonziehen wird- nur, daß das eher Situationen sein werden, wo sowieso schon genug fps vorhanden sind.

Hochgezüchtete 2GB HD5870er werden sicher nicht langsamer als die ersten GTX480er sein- zumindest nicht im Alltag.

Für die Masse wird die GTX470 vermutlich die sinnvollste Karte sein, da man da alles bekommt, was man brauchen könnte:

* Speed
* DX11
* Phys-X
* halbwegs bezahlbar

Da hat NV mit dem Spruch schon Recht: You can have it all :)

Iruwen
2010-03-14, 19:52:32
Fermi wird nicht nur in DX11 gemessen, sondern auch bei älterer Software.

Welche ältere Software läuft denn nicht hinreichend schnell, mal abgesehen von Crysis in irgendwelchen abartigen Settings...

y33H@
2010-03-14, 19:56:46
Stalker, ArmA2, GTA4, Riddick, Risen u.a.

Iruwen
2010-03-14, 20:02:31
Cryostasis...

Nakai
2010-03-14, 20:04:19
NV kann soviel Marketinggedöns loslassen, wie es will.
Fermi muss sich hauptsächlich in DX10 mit Cypress messen.

Aber warten wir ab. Ich sehe schon ein DX11-Artikel auf allen bekannten Hardwareseiten mit fünf getesteten Spielen:freak:. Wer beschleunigt DX11-Spiele am schnellsten!
Wahrscheinlich Fermi. Aber noch hat DX11 kaum eine Relevanz. Die ersten DX10-Karten hatten kaum eine Relevanz, ebenso die ersten SM3.0-Karten.


mfg

Die Anzahl der AMD Fanboys ist um den Faktor xxx größer.
Problem das sich daraus ergibt, ist das die NV seite zu klein wird, ergo mundtot gemacht wird, den die Masse muss ja richtig liegen mit ihrem roten Bias den sie angeblich nicht haben.

Es ist mir scheiß wirklich egal, wer was ist. Man misst die Personen in Foren anhand ihrer Aussagen. Es gibt genug unweigerliche Fakten zu diesen Themen, zu Fermi gibt es keine, außer Aussagen von Charlie und Co., von NV und wahren und falschen Leakern.

Zum Schluss zählt das was hinten rauskommt. Wenn Fermi gut in DX11 wird, dann ist das schonmal nicht schlecht, aber ausschlaggebend ist das mitnichten.

LovesuckZ
2010-03-14, 20:12:19
Cryostasis...

Hoffentlich wird jemand GF100 in Cryostasis mit PhysX gegenüber GT200 vergleichen. Fermi soll ja deutlich schneller mit FLUID-Berechnungen sein.

Gast
2010-03-14, 20:24:42
Hoffentlich wird jemand GF100 in Cryostasis mit PhysX gegenüber GT200 vergleichen. Fermi soll ja deutlich schneller mit FLUID-Berechnungen sein.

Warum machst Du das nicht selbst?

Banshee18
2010-03-14, 20:29:31
Welche ältere Software läuft denn nicht hinreichend schnell, mal abgesehen von Crysis in irgendwelchen abartigen Settings...
Mit 16xS/4xSSAA verdammt viel. Wenn man in 3D spielen will, noch sehr viel mehr
Also, bis jetzt scheint GTX480 einfach nur ein HD5870 + Phys-X+ besserer Maximalbelastung (Dreiecke, Tess., etc) zu sein.
Ernst gemeinte Frage: Was weiß man denn bisher über die GTX480? Afaik waren doch alle Benches, die man bisher gesehen hat, von der GTX470, die schon sehr nahe an der HD5870 dran zu sein scheint.

Schlammsau
2010-03-14, 20:41:23
Was mich aber an den geleakten Benches ein wenig verwundert, warum soll das immer die 470 gewesen sein. Die soll doch später als die 480 erscheinen und deswegen kann man davon ausgehen, dass sie noch keiner hat.

Die Unigine Folie von nVidia zeigt doch auch eher einen Gleichstand zwischen 480 und 5870 in Szenen ohne Tesselation.

Oder täusche ich mich da?

Grestorn
2010-03-14, 20:44:05
Wo steht dass die 470 nach der 480 erscheinen soll? Ich dachte, beide erscheinen am 29.3., die 470 in deutlich größerer Zahl...

Schlammsau
2010-03-14, 20:44:56
Wo steht dass die 470 nach der 480 erscheinen soll? Ich dachte, beide erscheinen am 29.3., die 470 in deutlich größerer Zahl...

Meine ich irgendwo gelesen zu haben....kann mich aber auch täuschen.

LovesuckZ
2010-03-14, 20:46:59
Ernst gemeinte Frage: Was weiß man denn bisher über die GTX480? Afaik waren doch alle Benches, die man bisher gesehen hat, von der GTX470, die schon sehr nahe an der HD5870 dran zu sein scheint.

Nein, die GTX480 ist noch ein großes Geheimnis. Bis auf Speicher und -interface ist kaum etwas bekannt.

Bucklew
2010-03-14, 21:20:38
Was mich aber an den geleakten Benches ein wenig verwundert, warum soll das immer die 470 gewesen sein.
Tja, denk mal drüber nach. Tarnen und täuschen halt.

Genau. Und schlecht Deutsch können sie auch gut.
Immerhin schaffen sie es in der Mehrzahl oben rechts auf "Registrieren" zu klicken - warum schaffst du das nicht?

Gast
2010-03-14, 21:35:28
Meine ich irgendwo gelesen zu haben....kann mich aber auch täuschen.
Sinn macht es nicht, die 470 später zu starten.

mapel110
2010-03-14, 21:38:03
Sinn macht es nicht, die 470 später zu starten.
Vor allem wo die Ausbeute von 470ern wesentlich besser sein soll als von den 480ern. Aber Verfügbarkeit ist wohl so oder so bescheiden.

tombman
2010-03-14, 21:43:03
Immerhin schaffen sie es in der Mehrzahl oben rechts auf "Registrieren" zu klicken - warum schaffst du das nicht?
:up: ;D

Gibts eigentlich ne gesicherte Info, wieviel schneller die 480er im Vergleich zur 470er ist?

mictasm
2010-03-14, 21:44:38
Bisher nicht, gesichert schon überhaupt nicht.

mapel110
2010-03-14, 21:45:04
:up: ;D

Gibts eigentlich ne gesicherte Info, wieviel schneller die 480er im Vergleich zur 470er ist?
512 vs 448 Shader ist das einzig Gesicherte. Das sind schon mal mehr als 10%. Dann noch Takt und ein wenig mehr Speicher bei der 480er und es sollten 25-30% in den wichtigen Fällen sein.

tombman
2010-03-14, 21:47:11
512 vs 448 Shader ist das einzig Gesicherte. Das sind schon mal mehr als 10%. Dann noch Takt und ein wenig mehr Speicher bei der 480er und es sollten 25-30% in den wichtigen Fällen sein.
512sp ist gesichert??? Quelle?

AnarchX
2010-03-14, 21:48:46
Wirklich sicher sind die 512SPs AFAIR nicht, gerade wenn es so wenige GPUs mit >448SPs gibt, wird man nicht die 480SPs GPUs aussortieren wollen.

AwesomeSauce
2010-03-14, 22:01:51
Um wieder aufs Thema zurückzukommen:

Der Launch ist in weniger als zwei Wochen. Finale Specs sind bis zum heutigen Tag nicht vorhanden. Wann gab es sowas zum letzen Mal? Selbst beim G80 dürfte dies nicht der Fall gewesen sein...

Gast
2010-03-14, 22:02:23
Wirklich sicher sind die 512SPs AFAIR nicht, gerade wenn es so wenige GPUs mit >448SPs gibt, wird man nicht die 480SPs GPUs aussortieren wollen.


Es gibt GPUs mit 512 SPs (480) und welche mit >= 448 SPs und < 512 SPs (470).

Gast
2010-03-14, 22:03:38
Wirklich sicher sind die 512SPs AFAIR nicht, gerade wenn es so wenige GPUs mit >448SPs gibt, wird man nicht die 480SPs GPUs aussortieren wollen.

Auch die extrem geringe ausbeute von voll funktionstüchtigen Chips ist alles andere als gesichert.

Rampage 2
2010-03-14, 22:27:58
Wieviel wird eurer Meinung nach eigentlich die GTX460 (32ROP's, 32TMU's, 256SP's, 256Bit SI) ungefähr kosten? Da sie im Performance-Bereich einzuordnen wäre, dürften es nicht mehr als 300€ sein, oder? Könnten die Performance-Abkömmlinge von Fermi schon im Mai erhältlich sein?

R2

Edit: Und kann sie eurer Meinung nach deutlich schneller werden als die GTX285?

LovesuckZ
2010-03-14, 22:29:53
Der Launch ist in weniger als zwei Wochen. Finale Specs sind bis zum heutigen Tag nicht vorhanden. Wann gab es sowas zum letzen Mal? Selbst beim G80 dürfte dies nicht der Fall gewesen sein...

Auch nur, weil nVidia die Informationen auf dem Editor's Day veröffentlicht hatte.
Ein Größteil der Leute stehen unter einem heftigen NDA. Und nVidia meint es sehr ernst mit dem NDA.

High-Res-Screenshot der Water-Demo (http://www.nvnews.net/images/news/201003/dx11.3.jpg) mit 1,6 Milliarden Dreiecken in 40 FPS auf der GTX480.

Eggcake
2010-03-14, 22:39:42
Ich kann mich irren, aber beim Cypress war doch bis wenige Tage/Wochen vor Release auch nicht bekannt wieviele SPs schlussendlich vorhanden sein werden.
Hier ists allerdings schon noch extremer - nichtmal halbwegs glaubwürdige Leaks vorhanden...

Gast
2010-03-14, 22:42:12
Wieviel wird eurer Meinung nach eigentlich die GTX460 (32ROP's, 32TMU's, 256SP's, 256Bit SI) ungefähr kosten? Da sie im Performance-Bereich einzuordnen wäre, dürften es nicht mehr als 300€ sein, oder?

Wenn die Konfiguration stimmt würde ich auf maximal 250€ tippen.


Könnten die Performance-Abkömmlinge von Fermi schon im Mai erhältlich sein?


Keine Ahnung. Möglich wäre es. Die extreme GF100-Verspätung liegt im Prinzip nur an der Fertigung, das sollte die Entwicklung der kleineren Chips eigentlich nicht aufhalten. Auch NV hat soweit ich weiß gesagt, dass die kleineren GPUs im Zeitplan liegen (was natürlich einfach zu behaupten ist, da niemand eine Ahnung hat, wie dieser Zeitplan aussieht)
Dagegen spricht, dass man noch immer keine Tapeout-Meldungen gehört hat.
Dieses sollte eigentlich schon fertig sein, wenn man die Karten bis Mai bringen will.

Gast
2010-03-14, 22:53:04
High-Res-Screenshot der Water-Demo (http://www.nvnews.net/images/news/201003/dx11.3.jpg) mit 1,6 Milliarden Dreiecken in 40 FPS auf der GTX480.

1,6 milliarden Dreiecke pro Sekunde. ;)

Rampage 2
2010-03-14, 23:01:34
Wenn die Konfiguration stimmt würde ich auf maximal 250€ tippen.



Keine Ahnung. Möglich wäre es. Die extreme GF100-Verspätung liegt im Prinzip nur an der Fertigung, das sollte die Entwicklung der kleineren Chips eigentlich nicht aufhalten. Auch NV hat soweit ich weiß gesagt, dass die kleineren GPUs im Zeitplan liegen (was natürlich einfach zu behaupten ist, da niemand eine Ahnung hat, wie dieser Zeitplan aussieht)
Dagegen spricht, dass man noch immer keine Tapeout-Meldungen gehört hat.
Dieses sollte eigentlich schon fertig sein, wenn man die Karten bis Mai bringen will.

Thx:)

Könnte man mit so 'nem Teil (GTX460) Crysis mit maximaler Grafikpracht (also allen .ini-Tweaks die die Grafikqualität zusätzlich steigern) @1920x1080 +16xAF flüssig (also 30fps average) spielen ?

Das wäre richtig geil:ucatch:

R2

Gast
2010-03-14, 23:09:08
Auch nur, weil nVidia die Informationen auf dem Editor's Day veröffentlicht hatte.
Ein Größteil der Leute stehen unter einem heftigen NDA. Und nVidia meint es sehr ernst mit dem NDA.

High-Res-Screenshot der Water-Demo (http://www.nvnews.net/images/news/201003/dx11.3.jpg) mit 1,6 Milliarden Dreiecken in 40 FPS auf der GTX480.

Wunderschön. Man beachte die detaillierten Inseln, die vielen Tiere im Wasser, die von Palmen gesäumten Strände, die aufwendige Beleuchtung, die korrekte Darstellung der Schatten, die korrekte Brandung und - vor allem - die genialen Texturen.

Die Demo ist wahrlich wegweisend für alle Spiele. Selbstverständlich schon ab morgen.

mapel110
2010-03-14, 23:10:04
512sp ist gesichert??? Quelle?
Ich bin die Quelle. Kannst mich schlagen, wenn die 480er keine 512 SPs hat. ^^

tombman
2010-03-14, 23:14:27
1,6 milliarden Dreiecke pro Sekunde. ;)
Wären bei 40fps immer noch abartige 40 Mio Dreiecke pro Frame :eek:

aths
2010-03-14, 23:15:45
Edit: Und kann sie eurer Meinung nach deutlich schneller werden als die GTX285?In DX9 nein, aber es ist auch eine DX11-Graka und damit automatisch eine DX10.1-Graka.

Don Vito
2010-03-14, 23:36:28
Wem juckt DX9.
Das schaffen gtx 285er ohne Probleme, da muß Fermi auch nicht schneller sein.
Ob nun 60 oder 80 FPs, wayne, wichtig ist DX10+


Der Thread wird langsam nur noch erbärmlich. Gebashe und Geflame. Da kann den ein Mod wohl besser gleich dicht machen, bevor noch ein Krieg ausbricht.

y33H@
2010-03-14, 23:45:28
Stimmt, Crysis Warhead läuft mit einer GTX285 butterweich in 1920 mit 4x MSAA/16:1 AF und "Enthuasiast"-Details :rolleyes:

Oder andere aktuelle Titel wie CoD MW2 in 1920 mit 4x SSAA ... auch super performant :ulol:

Don Vito
2010-03-14, 23:48:14
Das ihr immer mit Crysis kommen müßt rofl.
Wenn keiner wieter weiß kommt Crysis göönau.

Gast
2010-03-14, 23:57:03
Wären bei 40fps immer noch abartige 40 Mio Dreiecke pro Frame :eek:

Ich kann mich an eine Techdemo vor etwa 3 Jahren erinnern, bei der damals 500-600 mio. Dreiecke pro Sekunde möglich waren.

Gast
2010-03-14, 23:59:11
mich zb. juckt DX9 mit SSAA...deine 3 DX10 Spielchen und 1 oder 2 DX11 Spielchen.....damit kannste mir kommen wenn genug Spiele da sind, deswegen muß sich Fermi erstmal an wie gesagt DX9 + SSAA messen lassen..alles andere ist Marketingeblubber fürs übernächste Jahr und da ist das Ding Steinalt.

aths
2010-03-15, 00:00:27
Wären bei 40fps immer noch abartige 40 Mio Dreiecke pro Frame :eek:Wovon dann die meisten gar nicht gezeichnet werden, also gar nicht erst in die Pixelpipeline kommen, da sie kein Pixel bedecken. Der Screenshot ist auch ohne Antialiasing.



Wem juckt DX9.Mich, da Starcraft 2 nur DX9 nutzt. Meine GTX 285 mit 2 GB RAM kaufte ich ohnehin als gute DX9-Karte – bei echte DX10-Anwendungen wird die Shaderleistung knapp. Dafür habe ich brontale Texel-Leistung, genau das richtige für DX9.

y33H@
2010-03-15, 00:02:21
@ Don Vito

Wenn du eben meinst, alle DX9-Titel über einen Kamm scheren zu müssen ... selbst schuld.

davidzo
2010-03-15, 00:38:52
In der aktuellen CT (ab morgen im Kiosk, ABO bereits ab gestern) stehen Benchmarkwerte der GTX470.

Demnach liegt sie meistens zwischen 5850 und 5870, bei Unigine allerdings deutlich vor der 5870. Die GTX480 wäre demnach wohl ca. 10% schneller als die 5870.

Sieht nach der klassischen Rollenverteilung aus, die wir schon von HD4000 vs GTX280 kennen. Das Topmodell ist 10% schneller, während das abgespeckte Modell geradeso eben die Leistung des AMD Topmodell erreicht.
Das heißt Nvidia ist mal wieder bei der Herstellung von Chip ( 1,6x größer) und PCB + Speicher (1,5x größeres Interface und Menge) im Nachteil, was sich wohl leider wieder nicht gerade positiv auf die Bilanzen auswirken dürfte.
Außerdem gibt Nvidia dieses mal womöglich deutlicher die Führung in sachen Energieeffizienz auf.
Sieht nicht rosig aus für die Marge, trotz dass nvidia sich aufgrund des Namens die gebotene Leistung meist etwas besser bezahlen lassen kann als AMD. Das wird hart, insbesondere weil Nvidia mehr Mäuler zu stopfen hat als ATI und daher eigentlich nur mit etwas größerer Marge funktioniert (mal abgesehen von ATIs riesigen Rattenschwanz AMD, den Sie nicht mitfinanzieren können, derzeit aber zum teil müssen).

LovesuckZ
2010-03-15, 00:42:00
Sind das nicht die selben Werte, die Heise schon direkt während der Cebit veröffentlicht hat? Die selben Werte, bei denen sie selbst Vorsicht schreiben, da weder die Verkaufstaktraten noch Treiber verwendet wurden?

dildo4u
2010-03-15, 00:43:17
In der aktuellen CT (ab morgen im Kiosk, ABO bereits ab gestern) stehen Benchmarkwerte der GTX470.

Demnach liegt sie meistens zwischen 5850 und 5870, bei Unigine allerdings deutlich vor der 5870. Die GTX480 wäre demnach wohl ca. 10% schneller als die 5870.

Das sind nur die Heise Benches von der Cebit.Den Abstand 470 zur 480 kennt noch keiner könnten auch wie bei der GTX260 zur GTX285 30% sein.

davidzo
2010-03-15, 00:47:31
Sind das nicht die selben Werte, die Heise schon direkt während der Cebit veröffentlicht hat?

genau die

aber

dass am treiber noch gefeilt wird bis zum launchtag und dann drüber hinaus versteht sich von selbst, wenn man das bedenkt sollte man erst gar nicht testen.

Die selben Werte, bei denen sie selbst Vorsicht schreiben, da weder die Verkaufstaktraten noch Treiber verwendet wurden?
dass die Taktraten nicht die Verkaufstaktraten sind wurde nicht bestätigt, kann aber auch nicht dementiert werden zum jetzigen Zeitpunkt. Deine Aussage dass es sich eben nicht um die Launchtaktraten handelt ist also nicht richtig, beim Treiber stimme ich dir da schon eher zu.


könnten auch wie bei der GTX260 zur GTX285 30% sein.
30% WTF?

Ich sehe da selbst in extremszenarios keine 20%. Auch bei CB liegen die beiden Karten lediglich 10% auseinander: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/22/#abschnitt_performancerating
damit meine ich natürlich die 216spversion, die ja auch die viel größere Stückzahl hatte als die allerersten 196sp varianten.

Gast
2010-03-15, 00:48:08
Das sind nur die Heise Benches von der Cebit.Den Abstand 470 zur 480 kennt noch keiner könnten auch wie bei der GTX260 zur GTX285 30% sein.

logischer wäre 275 zu 285?

tombman
2010-03-15, 00:49:02
Mehr als +20% geb ich der 480er zur 470er nicht :)

p.s.: @aths: ist mir klar, daß nicht 40mps on screen sind- aber trotzdem.

ähdit:

Doch keine 512sp:
http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html

dildo4u
2010-03-15, 00:50:00
logischer wäre 275 zu 285?
Nö der Vergleich passt nicht die 275 und 285 haben gleich viele Shader Prozessoren.

y33H@
2010-03-15, 00:50:40
NV sagte, die Taktraten seien (womöglich :ulol:) nicht final gewesen. Zudem will Heise iirc nur den Vantage und die Heaven Demo vermessen haben. Eine Aussage, wie es in Spielen aussieht, lässt sich auf Basis dieser Werte nicht treffen. Die Faktoren Treiber und Taktraten ohnehin außen vor.

Rampage 2
2010-03-15, 00:51:15
In DX9 nein, aber es ist auch eine DX11-Graka und damit automatisch eine DX10.1-Graka.

Dann müsste Crysis im DX10-Modus ja davon profitieren,oder? Kann man dann Crysis in den oben genannten Einstellungen bei avg. 30fps spielen? Die GTX460 wird ja höchstwahrscheinlich ungefähr dieselbe Rohleistung der GTX285 haben.

Unterstützt Crysis eigentlich Tesselation? Und ist die Fermi-Serie Shader- und Polycount-optimiert? Die Shader-Rohleistung ist ja ein Witz im Vergleich zur HD5870...und eigentlich auch im Vergleich zum GTX285:freak:

R2

dildo4u
2010-03-15, 00:58:04
Die 480 hat nicht umsonst so eine starke Stromversorgung bekommen die wird sich schon gut absetzen von der 470.

y33H@
2010-03-15, 00:59:21
@ Rampage 2

Crysis @ DX10 profitiert nicht, Tessellation gibt's da nicht.

lilgefo~
2010-03-15, 01:04:09
mich zb. juckt DX9 mit SSAA...deine 3 DX10 Spielchen und 1 oder 2 DX11 Spielchen.....damit kannste mir kommen wenn genug Spiele da sind, deswegen muß sich Fermi erstmal an wie gesagt DX9 + SSAA messen lassen..alles andere ist Marketingeblubber fürs übernächste Jahr und da ist das Ding Steinalt.

Das sowas nicht stimmen muss hat man ja beim g80 gesehen.

Rampage 2
2010-03-15, 01:10:46
@ Rampage 2

Crysis @ DX10 profitiert nicht, Tessellation gibt's da nicht.

Crysis soll im DX10-Modus ja besser aussehen - und der DX10-Modus ist ja im Grunde nichts anderes als DX9.0c mit Performanceoptimierungen...

R2

sklave_gottes
2010-03-15, 04:09:15
Dann müsste Crysis im DX10-Modus ja davon profitieren,oder? Kann man dann Crysis in den oben genannten Einstellungen bei avg. 30fps spielen? Die GTX460 wird ja höchstwahrscheinlich ungefähr dieselbe Rohleistung der GTX285 haben.

Unterstützt Crysis eigentlich Tesselation? Und ist die Fermi-Serie Shader- und Polycount-optimiert? Die Shader-Rohleistung ist ja ein Witz im Vergleich zur HD5870...und eigentlich auch im Vergleich zum GTX285:freak:

R2


Nein. Die GTX285 wird in der Rohleistung 100% vorne sein.

mfg martin

Superheld
2010-03-15, 04:23:24
Crysis soll im DX10-Modus ja besser aussehen - und der DX10-Modus ist ja im Grunde nichts anderes als DX9.0c mit Performanceoptimierungen...

R2


dat bestimmt nicht, dx10 Benchmarks sehen immer schlechter aus als von dx9


ich sollte langsam ins Bett gehen :weg:

Gast
2010-03-15, 07:56:56
Das sind nur die Heise Benches von der Cebit.Den Abstand 470 zur 480 kennt noch keiner könnten auch wie bei der GTX260 zur GTX285 30% sein.

Hi

Ich vermute das mal auch das die GTX480 ca 20-30% schneller als die 470er ist.
Je nach Anwendung.

Gruss Labberlippe

Gast
2010-03-15, 08:01:50
Die Treiber für den Fermi sind sicher noch nicht ausgereizt.
Aber das selbe ist bei den ATIs der Fall.
Der 10.3 soll ja einige bringen nach den News hier.
http://www.widescreengamingforum.com/wiki/WS_and_WTH_Benchmarking_-_Radeon_HD_5870_1GB_Driver_Comparison

igg
2010-03-15, 09:12:56
Wem juckt DX9.
idtech5 (Rage, Doom 4) ist eine DX9 Engine...

Odal
2010-03-15, 09:15:48
Die Treiber für den Fermi sind sicher noch nicht ausgereizt.
Aber das selbe ist bei den ATIs der Fall.
Der 10.3 soll ja einige bringen nach den News hier.
http://www.widescreengamingforum.com/wiki/WS_and_WTH_Benchmarking_-_Radeon_HD_5870_1GB_Driver_Comparison

an den Treiberweihnachtsmann glaub ich seit dem NV30 nicht mehr. Egal von welcher seite er kommen mag.

Wenn nicht gerade gravierende bugs gefixt werden halten sich performanceverbesserungen arg in grenzen ausser man "optimiert" mal wieder die BQ

Gast
2010-03-15, 09:22:59
Mich interessiert die DX9 Leistung mit TSSAA der kleineren GF100 Versionen mit über 200SP und unter 120Watt Stromverbrauch in zukünftigen DX9 Spielen.

Der Stromverbrauch der GTX470 und GTX480 wär für mich ein absolutes NoGo. Mein Wasserdestillator braucht 300Watt und dessen Lüfter hör ich durch drei Wände, aber dafür kann der auch nicht rechnen. ;)

Gast
2010-03-15, 09:30:10
an den Treiberweihnachtsmann glaub ich seit dem NV30 nicht mehr. Egal von welcher seite er kommen mag.


Na ja seit dem launch der ATI 5 er karten hat sich schon einiges getan mit den Treibwern. Die launch benches sind längst nicht mehr dar aktuelle stand.
Bei neuen Benches mit dem 10.3 dies ja wohl geben wird beim Fermi launch sieht das dann ganz anders aus. Wird beim Fermi wohl nicht anders werden.
Wenn die Benches mit dem 10.3 stimmen wärs schon ganz ordentlich.
http://www.widescreengamingforum.com/wiki/images/f/ff/5870-1gb-driver-comp.jpg

svenw
2010-03-15, 09:33:50
Die 480 hat nicht umsonst so eine starke Stromversorgung bekommen die wird sich schon gut absetzen von der 470.
Daß heißt noch gar nichts! Wenn die 470 zu nahe an die 225W Grenze kommt, kann es sein das die 480 darüber liegt (und sei es nur in Furmark) und man deshalb die große Stromversorgung braucht ohne das viel Mehrleistung dahinter steckt. Nehmen wir 200W für die 470 an plus 10% ist 220W. Da wird es keiner riskieren bei so einem knappen Ergebnis eine 6+6 Stromversorgung zu verbauen vor allem da alleine der größere Speicher zusätzliche Leistung zieht (auch wenn das den Kohl nicht fett macht). Der zusätzliche Speicher bringt aber nur was, wenn wirklich extrem hohe Einstellungen gewählt werden.

Godmode
2010-03-15, 09:55:39
Ich dachte die GTX480 hat eine TDP von 298 Watt?

Gast
2010-03-15, 09:56:20
Viel Spielraum zum übertakten wird die GTX470 wohl nicht haben, vielleicht wird es ja spezielle GTX470 mit 6+8 Pin Stromversorgung geben.

svenw
2010-03-15, 10:16:06
Ich dachte die GTX480 hat eine TDP von 298 Watt?
Diese Info ist genauso exakt oder falsch wie fast alles was wir zu den Fermi Karten wissen. Die einzigen Details die wirklich festzustehen scheinen sind die Namen der Karten. :biggrin: Alles andere was bisher geleakt wurde, wurde von irgendjemand anderem dementiert. Das einzige was bisher noch nicht dementiert wurde sit der Launch am 26.ten. :ucrazy3:

Schlammsau
2010-03-15, 10:23:27
Diese Info ist genauso exakt oder falsch wie fast alles was wir zu den Fermi Karten wissen. Die einzigen Details die wirklich festzustehen scheinen sind die Namen der Karten. :biggrin: Alles andere was bisher geleakt wurde, wurde von irgendjemand anderem dementiert. Das einzige was bisher noch nicht dementiert wurde sit der Launch am 26.ten. :ucrazy3:

Dementiert....ok. :freak:

Die 470 wird auf 5870 Niveau sein....+- 5%!
Eine 480 wird nochmal 10-20% schneller sein im Schnitt. (DX9, DX10, DX11)

Bei extrem tesselierten Szenarien (Unigine Heaven Benchmark) werden es bis zu 50% Vorsprung für die 480 sein.

Thats my private opinion!

Grestorn
2010-03-15, 10:24:31
Mit einem solchen Ergebnis wäre ich schon zufrieden.

Odal
2010-03-15, 10:29:38
Dementiert....ok. :freak:

Die 470 wird auf 5870 Niveau sein....+- 5%!
Eine 480 wird nochmal 10-20% schneller sein im Schnitt. (DX9, DX10, DX11)

Bei extrem tesselierten Szenarien (Unigine Heaven Benchmark) werden es bis zu 50% Vorsprung für die 480 sein.

Thats my opinion!

10% in bezug auf was? GTX470 das glaub ich nicht tim
in bezug auf 5870? möglich aber dann fail

Eggcake
2010-03-15, 10:31:01
Wenn die 470 +/- 5% 5870 ist, dann ist doch irrelevant ob in Bezug auf 5870 oder 470...

Burgard
2010-03-15, 10:32:48
Das Rennen war noch nie so spannend wie zur Zeit.

Die 470 ist ja zirka so schnell wie eine 5870, wobei man ggf. bei der NV noch was am Treiber drehen kann, schliesslich ist die ATI schon seit einem halben Jahr draussen und da werden die Treiber nur noch was bei den neuen Spielen bewirken.

Bei der 480 wird es zumindest interessant, wird eine mögliche 5890 mit 1 Ghz ausreichen um mit der 480 GTX gleichzuziehen?

Zumindest bei der Tessalation bedarf es keiner Diskussion mehr, da hat NV ihre Hausaufgaben gemacht.
Die andere Frage ist jetzt nur, in wieweit sie davon profitieren kann, dank den ganzen 1:1 Ports der Konsole.
Die PC-eigenen Spiele wird man wohl an einer Hand abzählen können.

svenw
2010-03-15, 10:55:11
Tesselation ist toll, solange sie wirklich was bringt. In den Benches der c't war die 470 gut vor der 5850, wenn aber 8xAA eingeschaltet wurde reduzierte sich das ganze auf ca. 5% weil dann zwar die Tesselation gut lief aber der Teil danach limitierte. Die 5870 ging mit gut 20-25% Frames mehr aus dem Rennen. Tesselation Power ist gut, aber man braucht auch die restliche Leistung um sie auch sinnvoll nutzen zu können.

IMHO wird selbst eine 470 eine 5870 bei der reinen Tesselation-Power gnadenlos abziehen, nur wenn es dann auf die Umsetzung der ganzen Dreiecke in ein komplettes Bild geht zieht die 5870 wieder davon. Und das sit was am Ende zählt. Somit wird man bei der 5870 wohl die Tesselation runterdrehen müssen während die 470 mit weniger AA leben muß (beides um im spielbaren Rahmen zu bleiben).

Nighthawk13
2010-03-15, 10:59:06
Geforce GTX 480 aims for €450 price:
http://www.fudzilla.com/content/view/18072/1/

LovesuckZ
2010-03-15, 11:03:03
Geforce GTX 480 aims for €450 price:
http://www.fudzilla.com/content/view/18072/1/

Sollte das stimmen, geht die GTX470 mit ca. 300€ - 350€ ins Rennen. Das wären dann die selben Preise wie nach der Reduzierung der Preise der GTX260/GTX280 Karten.

Gast
2010-03-15, 11:03:38
also 450€ wäre super preis!

Gast
2010-03-15, 11:15:26
Sollte das stimmen, geht die GTX470 mit ca. 300€ - 350€ ins Rennen. Das wären dann die selben Preise wie nach der Reduzierung der Preise der GTX260/GTX280 Karten.

nicht mehr 299$?

Burgard
2010-03-15, 11:23:02
nicht mehr 299$?
Warum?
$=€

Gast
2010-03-15, 11:28:41
nicht mehr 299$?

299 war nur ne erfindung der ATI-Boys, damit NV dann hinterher schlecht/teurer da steht wenn es mehr wird ...

svenw
2010-03-15, 11:32:41
299 war nur ne erfindung der ATI-Boys, damit NV dann hinterher schlecht/teurer da steht wenn es mehr wird ...
LZ den Gast würd ich auf die Abschußliste setzen. Der behauptet doch glatt das du ein ATI-Fanboy bist. :biggrin:

BTW: Wir reden hier von der unverbindlichen Preisempfehlung!!! Beim aktuellen Stand würde ich ca. 50-100€ Aufschlag erwarten. Die Händler (und Zwischenhändler) sehen eine Möglichkeit Profit zu machen und die werden sie sich nicht entgehen lassen. Ein kurzer Blick auf die unverbindlichen Preisempfehlungen der ATI Karten dürfte für Ernüchterung sorgen.

Ailuros
2010-03-15, 11:44:19
LZ den Gast würd ich auf die Abschußliste setzen. Der behauptet doch glatt das du ein ATI-Fanboy bist. :biggrin:

BTW: Wir reden hier von der unverbindlichen Preisempfehlung!!! Beim aktuellen Stand würde ich ca. 50-100€ Aufschlag erwarten. Die Händler (und Zwischenhändler) sehen eine Möglichkeit Profit zu machen und die werden sie sich nicht entgehen lassen. Ein kurzer Blick auf die unverbindlichen Preisempfehlungen der ATI Karten dürfte für Ernüchterung sorgen.

Da es aber in allen Faellen ausserhalb der Kontrolle von jeglichem IHV liegt kann man leider auch nichts dagegen anrichten.

450 Euro hab ich mehr oder weniger fuer die 480 erwartet und wenn es nun doch nicht 450 sondern 550 sind, dann bezahlst Du X oder Y Aufschlag auch hier dank begrenzter Verfuegbarkeit oder weiss der Geier was noch.

Eggcake
2010-03-15, 11:55:19
Nun, man darf hoffen dass in naher Zukunft die Preisschlacht wieder Fahrt aufnimmt. Die jetzige Situation, bei welcher wir diese unsäglichen Preise für die ATI-Karten vorfinden dürfte unter anderem auch des Nichtvorhandenseins eines Konkurrenten zu verdanken sein (neben den extremen Engpässen, vor allem bei der 5850).

Imho nicht wirklich was neues: 350-400€ für die 470, mal angenommen die 5870 sinkt wieder etwas im Preis wäre dies der "klassische" Aufpreis bei den NV-Karten, dafür erhält man CUDA und Füsix (mal angenommen die 470 bewegt sich auch wirklich auf dem Niveau der 5870).

Psychopat
2010-03-15, 12:20:49
Einen Preiskampf und damit sinkende Preise wird es erst geben wenn bei Cypress und Fermi eine ordentliche Verfügbarkeit da ist. Und wann das sein wird...

Ailuros
2010-03-15, 12:40:24
Einen Preiskampf und damit sinkende Preise wird es erst geben wenn bei Cypress und Fermi eine ordentliche Verfügbarkeit da ist. Und wann das sein wird...

Q3 wenn Fab14 neben Fab12 bei TSMC eingesetzt wird (und somit die Kapazitaet von 80 auf 160 tausend wafers/Quartal steigt).

tombman
2010-03-15, 12:57:55
450€ für die 480er? NIE. Eher 550€ bis 600€ durch Händlerabzocke :rolleyes:

MiamiNice
2010-03-15, 12:59:41
Oder eben um 400€ wen man selber Händler ist :P Also alles wie immer.

tombman
2010-03-15, 13:02:01
Oder eben um 400€ wen man selber Händler ist :P Also alles wie immer.
Besorg mir den Preis und ich nehm 3 :D

Dural
2010-03-15, 13:04:38
wie ein händler viel an hardware verdienen würde...

die Hersteller / Distributor bestimmen die Preise! ein normaler Händler hat nichts zu melden!

Ein Online Händler rechnet mit ca. 15% Marge... die grossen jedenfalls... die kleinen sogar noch weniger!

und ich weis wie es läuft, hatte zwei firmen im reseller und distributions bereich... deswegen weis ich auch so einiges über grafikkarten... ;)

Botcruscher
2010-03-15, 13:14:17
Bei normaler Verfügbarkeit vielleicht.

V2.0
2010-03-15, 13:28:48
Wen wundert eigentlich noch der Early Adopter Aufschlag? Muss man das diskutieren?

Ebenso darf keiner über eine eingeschränkte Verfügbarkeit verwundert sein. Immer bedenken, dass momentan fast alle gängigen GPUs aus einer FAB kommen.

MiamiNice
2010-03-15, 13:33:04
Ich versuche schon seit Tagen mir einige bei Grosshändlern vorzubestellen. Allerdings wollen die bisher nicht so recht. Sobald ich welche bestellen kann, kann ich aber die Preise zum vergleichen in den Thread schreiben. Ich tippe aber echt auf um 400€ muss aber nicht stimmen.

€: Sry, vergess immer die Steuer. Um 400€ ohne die 19% natürlich.

Iruwen
2010-03-15, 13:34:09
Ebenso darf keiner über eine eingeschränkte Verfügbarkeit verwundert sein. Immer bedenken, dass momentan fast alle gängigen GPUs aus einer FAB kommen.

Wenn das Erdbeben neulich richtig getroffen hätte wäre Intel also Quasi Monopolist? :biggrin:

AnarchX
2010-03-15, 13:36:03
GF100 Packages: http://itbbs.pconline.com.cn/diy/11118315.html

Gast
2010-03-15, 14:19:23
warum sehen die denn so angemuckert aus?

Gast
2010-03-15, 14:20:02
idtech5 (Rage, Doom 4) ist eine DX9 Engine...
DX9 + angeflanschtes DX11 wird noch mindestens für die nächsten 1,5 Jahre für die meisten Spiele der Standard sein. Allerdings sieht man, dass selbst angeflanschtes DX11 mit aktivierten Features die Ati-Grafikkarten schnell zum Frühstück verspeist. Mal gucken, wie sich Fermie schlägt. Nach bisherigen Benchmarks zu urteilen, liegen da keine Welten dazwischen.
Vor einiger Zeit wurde ja noch Bedenken geäußert, wie sich High End durch die ganzen Konsolenport rechtfertigen ließe. Heute sieht man, dass es den Devs nicht schwer fällt, die Spiele sehr schnell so anspruchsvoll zu machen, dass High-End-GPUs und auch vermehrt High-End-CPUs an die Grenzen stoßen. Mission accomplished. ;D

Odal
2010-03-15, 14:21:12
na damit ist wohl A3 100% bestätigt und die ganzen vorabinfos zumindest was benchmarks anbelangt mit vorsicht zu geniessen, da immer nur A2 chips fotografiert wurden welche wohl tatsächlich nicht die gleichen takte bekommen haben werden wie A3 was in den handel kommt

Iruwen
2010-03-15, 14:25:50
Irgendwie hab ich nach den letzten Kommentaren bezüglich Refreshes, B1 und Verdopplung der Produktionsmenge bis Q3 gar keine Lust mehr mir überhaupt eine Graka zu kaufen :| Ich glaub ich "leih" mir übergangsweise eine aus der Firma.

Cubitus
2010-03-15, 14:27:38
na damit ist wohl A3 100% bestätigt und die ganzen vorabinfos zumindest was benchmarks anbelangt mit vorsicht zu geniessen, da immer nur A2 chips fotografiert wurden welche wohl tatsächlich nicht die gleichen takte bekommen haben werden wie A3 was in den handel kommt

Also die verpackung sieht ja mal total ranzig aus.
und warum sind die heatspreader schon verrostet ? :uroll:

Burgard
2010-03-15, 14:35:29
Also die verpackung sieht ja mal total ranzig aus.
und warum sind die heatspreader schon verrostet ? :uroll:
Ist das nicht eher verkokelt oder soll das eine Ölschutzschicht sein, die punktuell verlaufen ist und diese Spuren hinterlassen haben?

Odal
2010-03-15, 14:35:54
vom schiff gefallen ;D

nee aber das is kein heatspredder rost das ist irgend ein siff

Gast
2010-03-15, 15:03:05
vom schiff gefallen ;D

nee aber das is kein heatspredder rost das ist irgend ein siff

Flussmittel.

Gast
2010-03-15, 15:09:39
Im momment sind alle Fermi benches mit vorsicht zu geniesen.
Bei dem Haven Tesselation Bench haben sie wohl getrikst und ne 1.1 Version verwendet.
Nach aussage des haven bench makers auf Twitter ist diese 1.1 vesion 30% schneller als die 1.0 Version. Diese 1.1 version gibts aber offiziell noch garnicht.
http://twitter.com/binstream/status/9518230933

AnarchX
2010-03-15, 15:12:13
Das bezieht sich wohl eher auf Heaven 2.0.

Undertaker
2010-03-15, 15:12:50
So lange die verglichene HD5870 auch mit der neueren Version gebencht wurde - davon ist imho auszugehen, genau wie von einem identischen Testsystem - dürfte das an der Aussagekraft ja nichts weiter ändern.

Gast
2010-03-15, 15:30:22
Das bezieht sich wohl eher auf Heaven 2.0.

Wurde wohl nur umbenant auf dem Video vom Fermi bench war ne 1.1 Version zu sehen dies wohl dann offiziell dann als 2.0 gibt. Aber was nutzt ein Bench mit ner Versin dies nicht gibt ausser zum Benchen für den Fermi ist doch zum lachen.
http://forums.techpowerup.com/showthread.php?p=1807131#post1807131

y33H@
2010-03-15, 15:37:59
Zum Lachen ist eher deine Orthografie.

Gast
2010-03-15, 15:39:07
Wurde wohl nur umbenant auf dem Video vom Fermi bench war ne 1.1 Version zu sehen dies wohl dann offiziell dann als 2.0 gibt. Aber was nutzt ein Bench mit ner Versin dies nicht gibt ausser zum Benchen für den Fermi ist doch zum lachen.
http://forums.techpowerup.com/showthread.php?p=1807131#post1807131
Was Char-LIE sagt muss natürlich wahr sein. omg ;D

Gast
2010-03-15, 15:41:28
450€ für die 480er? NIE. Eher 550€ bis 600€ durch Händlerabzocke :rolleyes:
Das kannst du dir abschminken. Nvidia wird nicht zugunsten der Händler die Preise gestalten.
Die Händler haben keine Chance übermäßig mehr einzustreichen.
Bei Knappheit wird der Preis entsprechend höher angesetzt und nicht erst beim Händler.

Nvidia kann sich die Nachfrage in Bezug zum Preis ausrechnen. Es gibt kein Indiz, das diesmal vollkommen daneben liegen und den Händlern ein Zubrot liefern.

LovesuckZ
2010-03-15, 15:57:48
GF100 Packages: http://itbbs.pconline.com.cn/diy/11118315.html

Die Size ist 529mm^2. Bei 3 Milliarden Transistoren ist es eine Packdichte von 5,6+ Millionen Transistoren/mm^2. Macht gegenüber dem GT200b ca. 92% mehr Transistoren pro mm^2. Somit ist der Abstand zwischen GF100 und Cypress mit 58% deutlich kleiner als zwischen rv770 und GT200(b). Und er ist noch kleiner als zwischen dem rv670 und G92.

Coda
2010-03-15, 16:37:00
Abstand bezogen auf was? Transistoranzahl, Transistordichte oder Die-Size?

Spasstiger
2010-03-15, 16:37:59
Hat Jemand den Die ausgemessen? Auf den Bildern lässt sich die Diesize nicht wirklich abschätzen. Selbst wenn man einen Anhaltspunkt hätte (z.B. Packagegröße), macht +/- 1 Pixel Abweichung in einer Richtung schon +/- 10 mm² an Fläche aus.

Gast
2010-03-15, 16:49:01
http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

Botcruscher
2010-03-15, 16:52:35
Der CPU-Z Screen ist einfach No comment, just lol.

Gast
2010-03-15, 17:01:48
Die Size ist 529mm^2. Bei 3 Milliarden Transistoren ist es eine Packdichte von 5,6+ Millionen Transistoren/mm^2. Macht gegenüber dem GT200b ca. 92% mehr Transistoren pro mm^2. Somit ist der Abstand zwischen GF100 und Cypress mit 58% deutlich kleiner als zwischen rv770 und GT200(b). Und er ist noch kleiner als zwischen dem rv670 und G92.

Der Abstand beträgt noch immer >50%, das ist alles andere als vernachlässigbar. NV hat ja eigentlich ein unheimliches Glück das AMD keine größeren Chips mehr baut, denn die Leistung/mm² scheint auch mit der neuen Generation weiter unterlegen.

Kalmar
2010-03-15, 17:02:08
lol .. interssant nur ob fake oder net fake ... wie kann man die werte einordnen ? aber wenns stimmt dann der fan-speed bei 79% *ürgs*

Spasstiger
2010-03-15, 17:08:49
Im Pixelshader-Test haut meine Radeon HD 4850 (Non-OC) in 1920x1200 rund 680 fps raus. Bei der GTX 480 sinds nur rund 630 fps. War da noch Treiber-AA aktiv?
/EDIT: Mein Fehler, der Test vorhin lief in 1280x1024 durch. Hab nicht hingeschaut beim Test, weil ich was anderes nebenher gemacht hab.

dildo4u
2010-03-15, 17:11:55
Im Pixelshader-Test haut meine Radeon HD 4850 (Non-OC) in 1920x1200 rund 680 fps raus. Bei der GTX 480 sinds nur rund 630 fps. War da noch Treiber-AA aktiv?
Was hast du bei Vertex Complex?Hat jemand den kompletten durchlauf mit einer 5870?

V2.0
2010-03-15, 17:12:04
Bei 34°C also entweder ne Vorserienkarte ohne Lüftersteuerung, oder fake.

Iruwen
2010-03-15, 17:13:27
Komischer Zufall dass die 1238MB Memory Used so knapp an den 1280MB einer 470 liegen oder nicht?

derguru
2010-03-15, 17:15:28
lol .. interssant nur ob fake oder net fake ... wie kann man die werte einordnen ? aber wenns stimmt dann der fan-speed bei 79% *ürgs*

5870 defaultwerte(die 480 war mit sicherheit übertaktet wegen der 79%)

http://www.abload.de/thumb/06kces.jpg (http://www.abload.de/image.php?img=06kces.jpg)

Schlammsau
2010-03-15, 17:16:43
Bei 34°C also entweder ne Vorserienkarte ohne Lüftersteuerung, oder fake.

Oder die Karte wurde übertaktet und der Lüfter manuell auf 79% gestellt, deswegen ist die Idle Temp so niedrig.
Es kann aber auch ein Auslesefehler seitens GPUZ sein, ist alles schonmal vorgekommen.

dildo4u
2010-03-15, 17:17:01
@deguru könntest du mal alle Test's laufen lassen?

derguru
2010-03-15, 17:25:50
5870 default
http://www.abload.de/thumb/061yxfw.jpg (http://www.abload.de/image.php?img=061yxfw.jpg)

dildo4u
2010-03-15, 17:28:19
Ok danke die Frage ist halt ob die SM3.0 Werte nicht noch CPU limitiert sind ansonsten wären es whol so ~25% zwischen 5870 und GTX480.

Schlammsau
2010-03-15, 17:32:34
Ok danke die Frage ist halt ob die SM3.0 Werte nicht noch CPU limitiert sind ansonsten wären es whol so ~25% zwischen 5870 und GTX480.

Wohl eher nicht, ich schätze die 480 war stark übertaktet.
Einzig logische Erklärung für die 79% Lüfterdrehzahl!

dildo4u
2010-03-15, 17:35:52
Sieht nicht danach aus der Speicherspeed ist default.(1.6Ghz bzw 800mhz)

Schlammsau
2010-03-15, 17:37:46
Sieht nicht danach aus der Speicherspeed ist default.(1.6Ghz)

Kann natürlich auch ein Auslesefehler sein usw.....

Es kann alles Mögliche sein!

RoNsOn Xs
2010-03-15, 17:39:45
der speicher deutet wohl eher auf eine 470 hin.
die 512shader aber nicht.

Blaire
2010-03-15, 17:41:40
die 512shader aber nicht.

Muss nichts heißen, GPU-Z liest mglw. falsch aus.

dildo4u
2010-03-15, 17:42:16
der speicher deutet wohl eher auf eine 470 hin.
die 512shader aber nicht.
Wer sagt das der Speicher bei der 480 schneller laufen muss?Die hat doch ein Breiteres Speicherinterface.Ich denke bei 1.5Gb hat man bewusst so langsamen genommen damit es nicht zu teuer wird.

Spasstiger
2010-03-15, 17:42:49
Was hast du bei Vertex Complex?Hat jemand den kompletten durchlauf mit einer 5870?
Die 680 fps waren doch in 1280x1024, hab 3DMark 06 nochmal neugestartet, nachdem ich AA und AF im Treiber auf anwendungsgesteuert gesetzt habe. Und beim Test war ich nicht am PC.
So siehts mit einer Radeon HD 4850 (Non-OC) in 3DMark 06 inkl. Featuretests aus:
http://www.abload.de/img/3dmark_1920x1200zuo8.png
Zum Vergleich nochmal der Screen mit der GTX 480 von der Vorseite: http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg.

HarryHirsch
2010-03-15, 17:50:52
hat gpuz 0.3.9 denn überhaupt schon die daten von fermi? weil das progi kennt doch nur was man ihm beibringt.

Eggcake
2010-03-15, 17:52:36
Kann ich mir nicht vorstellen, deshalb glaub ich auch nicht an solche Screens.

@dildo4u

Bzgl RAM: ich denke er meint die Auslastung von 1238MB welche bei GPUZ angezeigt wird - das deutet auf eine 470.

derguru
2010-03-15, 17:54:20
jedenfalls geschickt gebencht,gerade aa und af wäre interessant gewesen,so hat er sich nur die stärken heran gezogen.

AnarchX
2010-03-15, 17:55:33
Wer sagt das der Speicher bei der 480 schneller laufen muss?Die hat doch ein Breiteres Speicherinterface.Ich denke bei 1.5Gb hat man bewusst so langsamen genommen damit es nicht zu teuer wird.
Man wird wohl kaum langsameren Speicher als 0.5ns verbauen, dementsprechend sollte die finale GTX 480 schon bei >900M/1800MHz liegen, da man sonst nahezu keinen Vorteil bei der Bandbreite hat.

Aber sofern der Screen echt ist, kann sich die GTX 480 hier auch mit niedrigem Speichertakt schon gegenüber der 5870 teils deutlich behaupten, gerade im synthetischen Bereich.

Schlammsau
2010-03-15, 18:02:41
Man wird wohl kaum langsameren Speicher als 0.5ns verbauen, dementsprechend sollte die finale GTX 480 schon bei >900M/1800MHz liegen, da man sonst nahezu keinen Vorteil bei der Bandbreite hat.

Aber sofern der Screen echt ist, kann sich die GTX 480 hier auch mit niedrigem Speichertakt schon gegenüber der 5870 teils deutlich behaupten, gerade im synthetischen Bereich.

War es nicht schon immer so, dass gerade im 3DMark06 die GeForces immer unverhältnissmässig schneller als die Konkurrenz waren!?

Aber zurück zum Screenshot.....wenn nicht übertaktet, 25% im 3DMark sind 10-20% im echten Gaming.

Dural
2010-03-15, 18:04:55
hier wird wider über sinnlose 3DMark06 Werte diskutiert... aber echte Infos werden nicht einmal wahr genommen:


GF100 Packages: http://itbbs.pconline.com.cn/diy/11118315.html


GF100 ohne HS?!? und nach meinen augenmass her würd ich sogar sagen unter 500mm sagen oder nur ganz wenig drüber.

dildo4u
2010-03-15, 18:07:25
Man wird wohl kaum langsameren Speicher als 0.5ns verbauen, dementsprechend sollte die finale GTX 480 schon bei >900M/1800MHz liegen, da man sonst nahezu keinen Vorteil bei der Bandbreite hat.

Aber sofern der Screen echt ist, kann sich die GTX 480 hier auch mit niedrigem Speichertakt schon gegenüber der 5870 teils deutlich behaupten, gerade im synthetischen Bereich.
Könnte 800mhz der 2D Wert sein?

derguru
2010-03-15, 18:07:25
War es nicht schon immer so, dass gerade im 3DMark06 die GeForces immer unverhältnissmässig schneller als die Konkurrenz waren!?
und wenn es so war,durch die neue architektur ist der bezug zu den alten karten nichts wert und nicht mehr vergleichbar.
stimmt auch nicht soweit ich weiß haben ati karten im 06 meist besser abgeschnitten.die settings sind aber eh für den arsch,ohne aa und af ist es nicht besonders viel wert.

ich tippe sogar nur noch auf 15% im durchschnitt und das nichtmal wegen dem bench sondern eher wegen der angeblichen 450$ für die 480.

Spasstiger
2010-03-15, 18:08:47
Wenn die GTX 480 ihre Texelfüllrate ähnlich (in)effektiv im Multitexturing-Test von 3DMark06 umsetzt wie meine Radeon HD 4850 (erreicht werden 79% vom theoretischen Maximum), dann müsste 1/2 Hot-Clock (= TMU-Takt) rund 730 MHz entsprechen.

Gast
2010-03-15, 18:12:45
Kann doch eine der Fermi Karten aus November sein. Die waren auch beschnitten und hatten langsamen Speicher drauf.

Gast
2010-03-15, 18:13:29
Aber zurück zum Screenshot.....wenn nicht übertaktet, 25% im 3DMark sind 10-20% im echten Gaming.
Falsch.
25% im 3DMark sind -100% bis +100% im echten Gaming.

AnarchX
2010-03-15, 18:13:34
Wenn die GTX 480 ihre Texelfüllrate ähnlich (in)effektiv im Multitexturing-Test von 3DMark06 umsetzt wie meine Radeon HD 4850 (erreicht werden 79% vom theoretischen Maximum), dann müsste 1/2 Hot-Clock (= TMU-Takt) rund 730 MHz entsprechen.

Und mit den 66% einer 5870 870MHz (928@60TMUs). :D

Gast
2010-03-15, 18:15:44
Die Size ist 529mm^2. Bei 3 Milliarden Transistoren ist es eine Packdichte von 5,6+ Millionen Transistoren/mm^2. Macht gegenüber dem GT200b ca. 92% mehr Transistoren pro mm^2. Somit ist der Abstand zwischen GF100 und Cypress mit 58% deutlich kleiner als zwischen rv770 und GT200(b). Und er ist noch kleiner als zwischen dem rv670 und G92.

Könntest Du uns vielleicht nochmal erklären, wie Du auf die 529mm^2 kommst?

AnarchX
2010-03-15, 18:16:35
Könntest Du uns vielleicht nochmal erklären, wie Du auf die 529mm^2 kommst?
http://en.expreview.com/2010/03/15/geforce-gtx470480-die-shots-exposed/6863.html

mapel110
2010-03-15, 18:16:49
Könntest Du uns vielleicht nochmal erklären, wie Du auf die 529mm^2 kommst?
http://forum.beyond3d.com/showpost.php?p=1407602&postcount=3591

derguru
2010-03-15, 18:18:54
Falsch.
25% im 3DMark sind -100% bis +100% im echten Gaming.
da sagen die 450$ schon mehr aus was die nun leisten vermag:wink:

Gast
2010-03-15, 18:19:46
da sagen die 450$ schon mehr aus was die nun leisten vermag:wink:
Die 450$ sagen leider auch nichts, weil nicht definitiv.

Spasstiger
2010-03-15, 18:21:20
http://forum.beyond3d.com/showpost.php?p=1407602&postcount=3591
Da das Bild aber diskret ist, hat man mindestens einen Abtastfehler von +/- 1 Pixel in eine Richtung. Auf die Fläche umgerechnet ist das nicht wenig.

Kalmar
2010-03-15, 18:21:55
erstmal dank dem guru für die vergleichswerte ..
hmm aber die speichernutzung und die 512 sp machen mich stutzig .. kann vielleicht einer der ne 1,5-2 gb karte hat den benchmark rennen lassen und schaun wie groß die auslastung ist, nur wenns auch was brignt man bzw den wert sehen kann und er vergleichbar ist ..

ansonsten wenn das stimmt, muss man sagen nv spät aber wohl doch kein fail .. aber warten wir ab ..

Schlammsau
2010-03-15, 18:22:19
Da das Bild aber diskret ist, hat man mindestens einen Abtastfehler von +/- 1 Pixel bei der Messung. Auf die Fläche umgerechnet ist das nicht wenig.

Auf jeden Fall mehr als 500mm².....ein richtig fettes und teures Teil im Vergleich zum Cypress!

Spasstiger
2010-03-15, 18:23:09
Mehr als 500 mm² war doch schon immer klar. Wenn 100 Dice auf einen Wafer passen, müsste die Diesize rund 550 mm² betragen.

tombman
2010-03-15, 18:24:13
Hmm, die Werte vom pic schauen echt aus. Gute Shaderleistung bei schwachem Multitex. -> wie erwartet :)

Bestärkt meine Vermutung: GTX480 = HD5870+ (0~20)%+ Phys-X

In Sonderfällen, wie extremer Last, könnte Fermi etwas deutlicher davonziehen ("on die"-Architektur FTW)

pest
2010-03-15, 18:26:17
angeblich soll das 3DMark-Pic von einem SLI-System stammen

dildo4u
2010-03-15, 18:27:49
angeblich soll das 3DMark-Pic von einem SLI-System stammen
Kannste vergessen.Die 480 zieht deutlich mher Strom als die 5870 und ganz verlernt hat NV das GPU bauen sicher nicht.

tombman
2010-03-15, 18:29:05
Glaube ich nicht, denn dann wären die 630fps PixelShader absolut lächerlich...

LovesuckZ
2010-03-15, 18:30:38
Die Werte sind fake. Alleine schon der CPU-Z Screenshot und der Speichertakt sind lächerlich.
Leute, es sind nur noch 12 Tage. Also releaxt.

dildo4u
2010-03-15, 18:31:45
Die Werte sind fake. Alleine schon der CPU-Z Screenshot und der Speichertakt sind lächerlich.
Leute, es sind nur noch 12 Tage. Also releaxt.
Speichertakt könnte 2D Takt sein geht der überhaupt auf den Radeon's tiefer ohne extra Tool?

HarryHirsch
2010-03-15, 18:34:30
Speichertakt könnte 2D Takt sein geht der überhaupt auf den Radeon's tiefer ohne extra Tool?

ja auf 300.

Godmode
2010-03-15, 18:46:13
Der CPU-Z Screen ist einfach No comment, just lol.

Warum, was ist daran falsch?

AwesomeSauce
2010-03-15, 18:48:32
GeForce GTX 480 has 480 cores, AIBs confirm (http://www.brightsideofnews.com/news/2010/3/15/geforce-gtx-480-has-480-cores2c-aibs-confirm.aspx)

OFFTOPIC: Es gibt doch einen Gott! Motkachler wurde bei CB gebannt:massa:

Coda
2010-03-15, 18:53:50
Was redet denn der da für nen Blödsinn:
Once that supply constraint ends, we might even see "64-bit OS only" versions with 2.56GB and 3GB of GDDR5 versions of GTX 470 and 480. For now, the only company with "64-bit OS only" boards will be AMD with the afore mentioned Dual-Cypress "5990" parts that feature 4GB of GDDR5 memory.
Auch mit einem 32-Bit-OS funktionieren 3GiB-Karten natürlich einwandfrei.

Botcruscher
2010-03-15, 18:56:15
Warum, was ist daran falsch?
Nix, sämtlicher Inhalt wurde ja weg retuschiert. :freak:

Mr. Lolman
2010-03-15, 18:56:31
Ok danke die Frage ist halt ob die SM3.0 Werte nicht noch CPU limitiert sind ansonsten wären es whol so ~25% zwischen 5870 und GTX480.

Deep Freeze (82.7fps² vs 90.4fps³) ist anscheinend CPU-limitierter als Canyon (108.3fps² vs 89.8fps³).

Außerdem wunderts mich ein bisschen, dass meine HD5870@950/1300 in 1920x1200 beim Pixelshadertest >1100fps produziert :eek:



²Q9450@3.6GHz, HD5870@950/1300
³Xeon 4GHz, HD5870@default

Spasstiger
2010-03-15, 18:58:51
Außerdem wunderts mich ein bisschen, dass meine HD5870@950/1300 in 1920x1200 beim Pixelshadertest >1100fps produziert :eek:
Das passt doch durchaus mit der theoretischen Rechenleistung zusammen, vor allem, wenn es nur 480 SPs bei der GTX 480 sind. Bei angenommenen 1400 MHz Hot Clock und 480 SPs bringt es die GTX 480 auf 1344 GFlops gegenüber 2720 GFlops bei der Radeon HD 5870 (und gar 3040 GFlops bei deiner HD 5870).

Godmode
2010-03-15, 19:01:20
Nix, sämtlicher Inhalt wurde ja weg retuschiert. :freak:

Asso das meinst du. Du hast nämlich CPU-z statt GPU-z geschrieben, alles klar.

Gast
2010-03-15, 19:02:44
GeForce GTX 480 has 480 cores, AIBs confirm (http://www.brightsideofnews.com/news/2010/3/15/geforce-gtx-480-has-480-cores2c-aibs-confirm.aspx)

OFFTOPIC: Es gibt doch einen Gott! Motkachler wurde bei CB gebannt:massa:

Auch nicht unwichtig:

Also, we received news about targeted prices for the parts, and they look quite competitive against six-month old ATI 5800 Series: according to the benchmarks leaked some time ago, GeForce GTX 470 will beat out HD 5850 and in some cases, even HD 5870 - for the price of HD 5850 - we were told that the ballpark figure is $299-349, while GTX 480 will run between $449-499.


Damit liegt die GTX470 beim Preis auf 5850-Niveau und die GTX480 kaum über 5870/1G.

dildo4u
2010-03-15, 19:03:28
Deep Freeze (82.7fps² vs 90.4fps³) ist anscheinend CPU-limitierter als Canyon (108.3fps² vs 89.8fps³).


108? 90? 117 und 119.

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

LovesuckZ
2010-03-15, 19:05:37
Hehe, der Artikel von Theo ist lustig. Ich hätte mir mehr Würze in Richtung nVidia und ihren "Sieg Heil Guards" erwartet:


Also, we received news about targeted prices for the parts, and they look quite competitive against six-month old ATI 5800 Series: according to the benchmarks leaked some time ago, GeForce GTX 470 will beat out HD 5850 and in some cases, even HD 5870 - for the price of HD 5850 - we were told that the ballpark figure is $299-349, while GTX 480 will run between $449-499.


Das passt doch durchaus mit der theoretischen Rechenleistung zusammen, vor allem, wenn es nur 480 SPs bei der GTX 480 sind. Bei angenommenen 1400 MHz Hot Clock und 480 SPs bringt es die GTX 480 auf 1344 GFlops gegenüber 2720 GFlops bei der Radeon HD 5870.

Du redest doch jetzt nicht von dem 3DMark2006 Wert, der auf einer 512SP GPU entstanden ist, oder? :D

Spasstiger
2010-03-15, 19:07:37
Du redest doch jetzt nicht von dem 3DMark2006 Wert, der auf einer 512SP GPU entstanden ist, oder? :D
GPU-Z kann die Anzahl der SPs nicht auslesen, sondern holt die Angaben lediglich aus einer Datenbank. Es war die Rede davon, dass der Screen auf einer GTX 480 entstanden ist. Die GTX 480 soll jetzt wohl 480 SPs haben (AIB confirmed).
Dass es keine Grafikkarte mit 512 SPs gibt, passt dann auch zu den aktuellen Preisspekulationen. Denn eine 512-SP-Karte würde ich bei 549-599 $ erwarten.

Mr. Lolman
2010-03-15, 19:08:59
108? 90? 117 und 119.

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

Die Fußnoten hast du gelesen? Ich hab meine Werte mit diesen hier verglichen:http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7905339&postcount=15420 (HD5870 OC vs HD5870 default + stärkere CPU)

dildo4u
2010-03-15, 19:10:33
Ah sry aber warum hast du über 1000fps bei Pixel Shader und der Guru nur was um 500?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7905363&postcount=15423

mapel110
2010-03-15, 19:10:52
An die 480SPs glaub ich nicht. Wäre jedenfalls das erste Mal, dass ein beschnittener Chip als Top High End vorgestellt werden würde.

Spasstiger
2010-03-15, 19:12:01
Der Wert von Guru ist zu niedrig, da komm ich ja schon mit meiner HD 4850 und etwas OC ran.

An die 480SPs glaub ich nicht. Wäre jedenfalls das erste Mal, dass ein beschnittener Chip als Top High End vorgestellt werden würde.
Mich wundert es ehrlichgesagt auch. Bei der 512-SP-Karte wäre eine extrem schlechte Verfügbarkeit halt vorprogrammiert, weil es nur knapp 10.000 passende GPUs gibt, die zudem nicht unbedingt die angepeilten Taktraten mitmachen.
Aus Performancesicht ist man mit 480 SPs vielleicht gar nicht schlechter dran, wenn man im Gegenzug höhere Taktraten als mit 512 SPs fahren kann.

Mr. Lolman
2010-03-15, 19:15:25
Ah sry aber warum hast du über 1000fps bei Pixel Shader und der Guru nur was um 500?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7905363&postcount=15423

keine Ahnung. Habs nochmal getestet und waren wieder >1100.

http://www.abload.de/thumb/unbenanntm7ls.jpg (http://www.abload.de/image.php?img=unbenanntm7ls.jpg)

Außerdem hat Spasstiger mit seiner 4850 auch schon 424fps. Deswegen scheint mir Gurus Wert etwas niedrig zu sein.

Gast
2010-03-15, 19:17:19
An die 480SPs glaub ich nicht. Wäre jedenfalls das erste Mal, dass ein beschnittener Chip als Top High End vorgestellt werden würde.

NV hat bei dem Chip auch so einiges am Design verkackt nach allem was man so hört. AMD hat sich beim AnandTech-Artikel unübersehbar köstlich amüsiert das man die Probleme bei 40nm rechtzeitig entdeckt hatte und NV offenbar nicht. Ein Bx-Stepping scheint ja schon relativ fix.

dildo4u
2010-03-15, 19:17:45
Alle Werte mit Win7?

Spasstiger
2010-03-15, 19:18:51
Bei mir ja. Win 7 x64, Treiber ist der Catalyst 10.2 WHQL.

Tesseract
2010-03-15, 19:18:52
Im Pixelshader-Test haut meine Radeon HD 4850 (Non-OC) in 1920x1200 rund 680 fps raus. Bei der GTX 480 sinds nur rund 630 fps. War da noch Treiber-AA aktiv?
/EDIT: Mein Fehler, der Test vorhin lief in 1280x1024 durch. Hab nicht hingeschaut beim Test, weil ich was anderes nebenher gemacht hab.

in diesem FPS-bereich sind die werte ohnehin nichtmehr besondern aussagekräftig.
die karten brauchen eine gewisse zeit für den bufferswap. diese zeit hat relativ wenig mit der eigentlichen performance der kartenarchitektur zutun, bestimmt aber die framerate in diesem breich schon extrem mit.

Rampage 2
2010-03-15, 19:25:58
Dass es keine Grafikkarte mit 512 SPs gibt, passt dann auch zu den aktuellen Preisspekulationen. Denn eine 512-SP-Karte würde ich bei 549-599 $ erwarten.

Wie jetzt? Steht es jetzt absolut fest, dass das Fermi-Topmodell nur 480SP's hat?:mad: Wird sich das auch auf die kleineren Fermi-Abkömmlinge auswirken (also GF104: statt 256SP's nur noch 240SP's???)?

:mad:

dildo4u
2010-03-15, 19:28:16
Wie jetzt? Steht es jetzt absolut fest, dass das Fermi-Topmodell nur 480SP's hat?:mad: Wird sich das auch auf die kleineren Fermi-Abkömmlinge auswirken (also GF104: statt 256SP's nur noch 240SP's???)?

:mad:
1 nein und 2 hätte das kein Einfluss auf die Mid Range DX11 Karte.

Spasstiger
2010-03-15, 19:29:02
Ich denke nicht, dass NV denselben Fehler bei zwei verschiedenen GPUs macht. Der GF104 hat mit vernünftigen Taktraten imo das Potential, den Markt ein wenig aufzumischen.

derguru
2010-03-15, 19:30:38
Ah sry aber warum hast du über 1000fps bei Pixel Shader und der Guru nur was um 500?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7905363&postcount=15423
ich habs gerade noch mal gebencht,pixelshader ist wieder bei~500fps.

hmm defekte karte?

Rampage 2
2010-03-15, 19:31:33
1 nein und 2 hätte das kein Einfluss auf die Mid Range DX11 Karte.

D.h. Nvidia könnte weiterhin 256SP-GF104's in grosser Stückzahl produzieren?

dildo4u
2010-03-15, 19:34:16
D.h. Nvidia könnte weiterhin 256SP-GF104's in grosser Stückzahl produzieren?
NV kann bauen zu was sie lustig sind der Chip ist genau aus dem Grund Modular aufgebaut.Wenn die GTX 480 nur 480SP hat heisst das nicht das der Midrange Chip genau die Hälfte sein muss,jedenfalls nicht von der Fertigung her.

Dural
2010-03-15, 19:58:06
zudem 240SP gar nicht möglich sind...

V2.0
2010-03-15, 20:00:54
Ich denke nicht, dass NV denselben Fehler bei zwei verschiedenen GPUs macht. Der GF104 hat mit vernünftigen Taktraten imo das Potential, den Markt ein wenig aufzumischen.

Fehler ist relativ. Auch AMD hat nen Haufen 5830 und die haben auch diesen Fehler.

GF104 ist sowieso spannender als GF100. :D

Burgard
2010-03-15, 20:11:58
Ich weiss gar nicht was ihr habt?
Der Fermi hat 512 SPs, nur ist diese Karte so nicht herstellbar, zumindest in STückzahlen nicht,

also bekommt die 480 eben nur 480 SPs verpasst.

Man wird sehen, ob sich die Situation mit B1 oder B2 ändert, wenn nicht, dann war es zumindest ein sehr ambitioniertes Vorhaben, nur technisch nicht realisierbar (was die Massenfertigung betrifft ).


Die 512er wird wohl dann 485 heissen.

tombman
2010-03-15, 20:12:19
480sp? -> EPIC FAIL :uattack4:

Naja, Krüppelchips bis zum Refresh, wie toll :rolleyes:

Ich wette, clocken werden die sich auch nicht lassen, um die ~10% weniger sp wieder auszugleichen :mad:

Im Endeffekt werden die 2Gb HD5870 OC-Karten (asus matrix und co) sogar schneller sein :uhammer:

Aber was gehts mich noch an, ich bin wahrscheinlich eh aus dem Spiel...

Menace
2010-03-15, 20:20:30
480sp? -> EPIC FAIL :uattack4:


Ich wäre mir da nicht sicher.

1. Die Karten könnten trotzdem eine überragende Leistung haben (da man ja auch höher takten könnte).
2. Wenn sie dadurch größere Stückzahlen anbieten könnten und dadurch den Händlern die Möglichkeiten nähmen, höhere Preise darauf zu hauen, könnten sie auf einmal Ati mächtig ins Schwitzen bringen. So gesehen könnte sich das ganze als sehr schlauer Schachzug herausstellen.

Oder übersehe ich da was? :confused:

Botcruscher
2010-03-15, 20:21:16
Da kommt doch sicher eine PE/Ultra.

Asso das meinst du. Du hast nämlich CPU-z statt GPU-z geschrieben, alles klar.
Mein Fehler.

derguru
2010-03-15, 20:21:52
ich habs gerade noch mal gebencht,pixelshader ist wieder bei~500fps.

hmm defekte karte?


hab den fehler gefunden(ist im idle modus geblieben),dann sieht der wert auch bissel anders aus.

http://www.abload.de/thumb/06x802.jpg (http://www.abload.de/image.php?img=06x802.jpg)

Gast
2010-03-15, 20:23:03
4
Ich wette, clocken werden die sich auch nicht lassen, um die ~10% weniger sp wieder auszugleichen :mad:
So mies wie damals zu GF6 Zeiten wirds kaum werden, da war doch praktsich gar nichts mehr drin.

Für die "10%" reicht eine kleine Spannungsspritze, es ist nicht so das man sonst einfach Reserven lassen würde, wenns 512er gäbe. An den Reserven die man lässt ändert sich dadurch erstmal nichts.

Eggcake
2010-03-15, 20:23:20
Im Vergleich zu einer 5870 wäre das sicherlich eine ganz gute Positionierung - hat man halt nicht eine so krass überragende Leistung, dafür kommt man mit dem Preis entgegen und hat den "Tesselationsbonus". Jedoch ist wirklich die Gefahr relativ gross, dass eine überarbeitete 5870 diesen Vorsprung schnell einholen könnte - dann steht man imho schon etwas schlecht da - vor allem da man weiss, dass ein Refresh wohl in einigen Monaten erscheinen wird...

Edit: Aber erstmal definitive Meldungen abwarten, wobei das schon ziemlich deutlich klang.

horn 12
2010-03-15, 20:24:03
@Tombman
Warum bist nun aus dem Spiel?

Beschäftigst Dich nun andersweitig... ---> oder wie meintest eben ?
:rolleyes:

Dural
2010-03-15, 20:24:41
als ich vor ca. 2Monaten gesagt habe das wir vieleicht keine 512SP Karte sehen werden wurde ich noch blöd angemacht... aber bei nur 1% 512SP Chips war das eigentlich auch Logisch, NV hat gar keine andere Wahl wenn die 1% stimmen!

naja mal abwarten...

johnieboy
2010-03-15, 20:25:28
die News zu GF100 werden irgenwie nicht besser....

GTX 400 Series; Date pushed back | ShaneBaxtor.com (http://www.shanebaxtor.com/2010/03/16/gtx-400-series-date-pushed-back/)

There’s good news and bad news; the bad news is that the GTX 400 series has been pushed back to April 6th. The good news is that it’s only in reference to retail supply and not the actual NDA; so come the 26th of March we’ll all know what performance will be.

nix mit GTX kaufen im März...

This morning we heard that NVIDIA had changed the strategy for sending samples; instead of partners sending them out NVIDIA are taking charge and sending out themselves.

Passt zu den Gerüchten das die Partner nach wie vor keine Karten bekommen haben sollen...

Burgard
2010-03-15, 20:38:46
Wird ja eine richtig tolle PR:

Fermi kommt im II. Quartal.

Auch wenn es nur ein paar Tage sind.

igg
2010-03-15, 20:48:14
There’s good news and bad news; the bad news is that the GTX 400 series has been pushed back to April 6th. The good news is that it’s only in reference to retail supply and not the actual NDA; so come the 26th of March we’ll all know what performance will be.
Was macht Nvidia denn für ein Theater? Dafür dass das meiste schon bekannt ist und ein großer Verlag wie Heise benchmarkzahlen rausgelassen hat ist das eher ein bisschen lächerlich...

y33H@
2010-03-15, 20:58:44
Takraten und wirkliche TDP sind nicht bekannt, ALUs der GXT480 nicht, die Werte von Heise mit evtl. altem Treiber/Frequenzen und nur A2 ... es gibt sehr sehr viel unklares für "die da draußen".