PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

dildo4u
2010-01-17, 20:31:28
Unter DX9/10 ist die GTX295 freilich meist schneller.
Ebend das meinte ich der pure Speed.GT300 hat ja DX11.

Nightspider
2010-01-17, 20:31:47
So siehts aus.

Ne HD 5870 ist im irgendwo zwischen 40 und 70% vor einer GTX 285...

Ne GTX 295 im Idealfall ~60-90% vor einer GTX 285...


Klar bietet die HD5870 das bessere Gesamtpaket aber ne GTX 295 hat immernoch mehr Rohpower...auch wenn die Technik (DX10) etwas hinterher hinkt.

Mit dem Performance-Rating kann man ey schlecht vergleichen. Da müssen schon Einzelbenchmarks herhalten.

Siehe hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/5/#abschnitt_call_of_duty_5

y33H@
2010-01-17, 20:35:28
Ne HD5870 ist teils nur minimal schneller (CoD MW2 oder GTA4) bis langsamer (Borderlands) als eine GTX285 *cherry picked*
Da müssen schon Einzelbenchmarks herhalten. Ack, Ratings sind doof.

derguru
2010-01-17, 20:48:45
vorallem auf das *cherry picked* morgen bin ich gespannt.

Gast
2010-01-17, 20:49:36
vorallem auf das *cherry picked* morgen bin ich gespannt.;D
Du meinst wie du es dann doch noch schaffst die ATI irgendwie doch noch zur besseren Karte zu erklären? :D

Gast
2010-01-17, 20:53:10
Ne HD5870 ist teils nur minimal schneller (CoD MW2 oder GTA4) bis langsamer (Borderlands) als eine GTX285 *cherry picked*
Ack, Ratings sind doof.

Dir ist bekannt das COD für Nvidia optimiert ist? schämst du dich nicht...

http://s12.directupload.net/images/100117/ks4a3gud.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

derguru
2010-01-17, 20:54:57
Du meinst wie du es dann doch noch schaffst die ATI irgendwie doch noch zur besseren Karte zu erklären? :D
das wird sich schon was finden LS,cherry cherry lady.;D

y33H@
2010-01-17, 21:16:18
@ Gast

Und Dirt 2 und Stalker für AMD, so what? :rolleyes: Mir als Endkunde ist das ***** egal, wer wo wie die Finger drin hat - das was am Ende bei rum kommt, zählt.

Dein verlinktes Rating ist btw mit zwei Mal DX11 SpeedUp ... das taugt nicht für einen 1:1-Vergleich mit der GTX295.

Knuddelbearli
2010-01-17, 21:27:06
ähm Y33H

einerseits sagste es zählt nur was hinten rauskommt anderseits sagste aber du willst keien Dx10 DX 11 vergleiche jetzt entschied dich mal

HonK_DD
2010-01-17, 21:29:43
@Gast - Da hast du die aber 'ne Rosine raus gepickt, 3 Monate eher sah es noch so aus.

Siehe: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating_qualitaet

Ronny145
2010-01-17, 21:30:44
Unter DX9/10 ist die GTX295 freilich meist schneller.


Und warum ist dann die HD5870 bei euch im Heft zumeist schneller? Im Gegenteil, ging es um die Aussage GTX295 wäre 20% schneller. Das sehe ich nicht.

derguru
2010-01-17, 21:31:41
@ Gast

Und Dirt 2 und Stalker für AMD, so what? :rolleyes: Mir als Endkunde ist das ***** egal, wer wo wie die Finger drin hat - das was am Ende bei rum kommt, zählt.

Dein verlinktes Rating ist btw mit zwei Mal DX11 SpeedUp ... das taugt nicht für einen 1:1-Vergleich mit der GTX295.

achja,als ob es unter stalker cs große unterschiede gibt,sind auch unter dx10 schneller.ups bleibt nur noch ein dx11 speedup übrig;)

was kommt jetzt dx10.1 speedup oder was.

http://www.abload.de/thumb/stalkercs8xjh.gif (http://www.abload.de/image.php?img=stalkercs8xjh.gif)

y33H@
2010-01-17, 21:32:30
@ Gast

Für mich zählt, was am Ende hinten bei raus kommt, ja. Und im Falle von Stalker oder Dirt 2 kommt bei mir mit einer HD5870 und DX11 mit HWT am Ende raus und nicht DX11 SpeedUp ohne HTW ... Aber wenn ich "apples 2 apples" will (und das wollen wir, wenn wir von einer doppelten GTX285 über eine GTX295 und eine HD5870 auf eine GTX 3x0 schließen wollen), dann kann ich eine GTX295 nicht mit einer HD5870 samt DX11 SpeedUp vergleichen, sondern nur DX9/10-Werte.

@ derguru

Das ist CS, nicht CoP - nicht vergleichbar. DX11 zieht nach oben, +17% bzw. +14% sind nicht zu verachten:

http://www.abload.de/thumb/2010-01-17_213504_cr821h.png (http://www.abload.de/image.php?img=2010-01-17_213504_cr821h.png)

@ Ronny145

Schneller als eine GTX295? Sehe ich mit 4x MSAA selten ...

reunion
2010-01-17, 21:34:02
Ebend das meinte ich der pure Speed.GT300 hat ja DX11.

Und NV wird den Dx11-Speedup in ihren Folien mit Sicherheit ebenso dankend mitnehmen.

Jake Dunn
2010-01-17, 21:34:17
@Gast - Da hast du die aber 'ne Rosine raus gepickt, 3 Monate eher sah es noch so aus.

Siehe: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating_qualitaet

Wem willst du hier mit dem alten Rating rollen? :rolleyes:

Gast
2010-01-17, 21:37:44
Wann kommt jetzt der Artikel mit den Whitepapern? Montag 7pm Central Standard Time oder schon Sonntag?

y33H@
2010-01-17, 21:37:46
@ Jake Dunn

Da war DX11 halt noch außen vor ;)

Jake Dunn
2010-01-17, 21:40:12
@ Jake Dunn

Da war DX11 halt noch außen vor ;)

Achso na dann ist ja gut ^^

HonK_DD
2010-01-17, 21:40:16
Wie, ist die GTX jetzt langsamer geworden oder die HD5870 schneller?
Mir ging's nur um die Auswahl der Benchmarks und wie sehr die die Ergebnisse beeinflußen.

y33H@
2010-01-17, 21:42:16
Nimmt man DX11 (nur SpeedUp, kein HWT!) mit rein, dann sind laut CB die HD5870 und GTX295 ca. gleichauf. Ohne DX11 ist die Geforce (klar) vorne, selbst mit 8x MSAA teils noch.

reunion
2010-01-17, 21:44:40
@ Jake Dunn

Da war DX11 halt noch außen vor ;)

Es wurde HAWX rausgenommen, mit den bekannten AF-Bug bei AMD. Der DX11-Speedup ist nur fair, niemand der eine Dx11 Karte hat nimmt den nicht mit und das Ergebnis ist vergleichbar, was es mit aktivierter Tesslation natürlich nicht mehr ist.

derguru
2010-01-17, 21:46:16
@ derguru

Das ist CS, nicht CoP - nicht vergleichbar. DX11 zieht nach oben, +17% bzw. +14% sind nicht zu verachten:

http://www.abload.de/thumb/2010-01-17_213504_cr821h.png (http://www.abload.de/image.php?img=2010-01-17_213504_cr821h.png)


ja deswegen sag ich ja,man hätte auch stalker cs als ersatz nehmen können und es hätte sich im rating kaum was geändert.

@reunion

HAWX finde ich aber oberpeinlich von amd das sie den bug bis jetzt nicht gefixt haben.

y33H@
2010-01-17, 21:48:55
@ reunion

Vergleichbar? Jein. Nicht "apples 2 apples".

Und welcher HD5870-Nutzer nimmt HWT nicht mit? Unter DX11 kann ich eh kein SGSSAA nutzen, warum sollte ich dann auf HWT verzichten, wenn damit Dirt 2 auch in 1920 mit 4x MSAA noch rennt?!

@ derguru

Da ändert sich sehr wohl etwas, +74% (CoP mit DX11 ohne HWT) statt +52 (Clear Sky) sind eine satte Differenz (1920, 4x MSAA):

http://www.abload.de/thumb/2010-01-17_215021_crx2iv.png (http://www.abload.de/image.php?img=2010-01-17_215021_crx2iv.png) http://www.abload.de/thumb/2010-01-17_215033_cr51g6.png (http://www.abload.de/image.php?img=2010-01-17_215033_cr51g6.png)

Gast
2010-01-17, 21:52:16
@ reunion

Vergleichbar? Jein. Nicht "apples 2 apples".

Und welcher HD5870-Nutzer nimmt HWT nicht mit? Unter DX11 kann ich eh kein SGSSAA nutzen, warum sollte ich dann auf HWT verzichten, wenn damit Dirt 2 auch in 1920 mit 4x MSAA noch rennt?!

Hä?
Soll man jetzt bei dx9 Benches SSAA aktivieren weil niemand ohne spielen wird oder was?
Soll man jetzt sagen die Karte ist langsamer weil niemand ohne Tesselation spielt?
Was ist das für eine Logik.

y33H@
2010-01-17, 21:53:49
Was für eine Logik ist es, eine HD5870 mit DX11 mit einer GTX295 zu vergleichen, wenn man "apples 2 apples" will? Will ich das nicht, zocke ich mit DX11 und HWT und sage, langsamer aber weitaus bessere BQ.

reunion
2010-01-17, 21:56:21
@ reunion

Vergleichbar? Jein. Nicht "apples 2 apples".

Für mich zählt, was am Ende hinten bei raus kommt, ja.


Und welcher HD5870-Nutzer nimmt HWT nicht mit? Unter DX11 kann ich eh kein SGSSAA nutzen, warum sollte ich dann auf HWT verzichten, wenn damit Dirt 2 auch in 1920 mit 4x MSAA noch rennt?!

Anders kann ich mangels anderen Karten die HWT beherrschen ganz einfach nicht vergleichen. Nur deshalb die DX11-Karten künstlich auf DX10 zu beschränken ist halt vollkommen praxisfremd. Warum sollten die Karte mit höheren Tech-Level davon nicht profitieren dürfen? Aber ist eh gleichgültig, Fermi wird auch DX11 können und NV wird bei ihren Vergleichen mit Sicherheit auch den Speedup durch DX11 mitnehmen.

Was für eine Logik ist es, eine HD5870 mit DX11 mit einer GTX295 zu vergleichen, wenn man "apples 2 apples" will? Will ich das nicht, zocke ich mit DX11 und HWT und sage, langsamer aber weitaus bessere BQ.

Fehlt nur noch der Schluss "schneller bei gleicher Bildqualität". :)

y33H@
2010-01-17, 21:57:33
Schneller bei gleicher BQ hast du in Battleforge und Stalker CoP ohne HWT =)
Nur deshalb die DX11-Karten künstlich auf DX10 zu beschränken ist halt vollkommen praxisfremd.Praxisfremd, ja. Aber wenn ich "apples 2 apples" will, gehts nicht anders.

Gast
2010-01-17, 21:57:49
Was für eine Logik ist es, eine HD5870 mit DX11 mit einer GTX295 zu vergleichen, wenn man "apples 2 apples" will? Will ich das nicht, zocke ich mit DX11 und HWT und sage, langsamer aber weitaus bessere BQ.

Das mag ja sein aber in solchen Balkentests ist das gefährlich.
Es impliziert, dass DX11 keine Mehrperformance bringt was falsch ist.

Jake Dunn
2010-01-17, 21:58:22
Und welcher HD5870-Nutzer nimmt HWT nicht mit? Unter DX11 kann ich eh kein SGSSAA nutzen, warum sollte ich dann auf HWT verzichten, wenn damit Dirt 2 auch in 1920 mit 4x MSAA noch rennt?!



Hö? Auf die tessilierten Fahnen und Crowd kann ich k.... beim zocken ,aber das geblurrte schmierige Gesamtbild ist immer present in DIRT2. ;)

Gast
2010-01-17, 22:00:10
Und NV wird den Dx11-Speedup in ihren Folien mit Sicherheit ebenso dankend mitnehmen.
Natürlich, deswegen muss man ihn entweder in die Gleichung mit rein nehmen (was aber schwer sein wird, da man die GF100-Architektur noch nicht kennt) oder aber einfach rausnehmen. Daher ist ein fairer Vergleich zur aktuellen Lage wohl nur GTX285 vs. HD5870 bei DX9/10 und dann Hochrechnung auf GF100.

Es wurde HAWX rausgenommen, mit den bekannten AF-Bug bei AMD. Der DX11-Speedup ist nur fair, niemand der eine Dx11 Karte hat nimmt den nicht mit und das Ergebnis ist vergleichbar, was es mit aktivierter Tesslation natürlich nicht mehr ist.
Schon wieder ein ATI-Bug? Was denn diesmal? Link vielleicht?

y33H@
2010-01-17, 22:00:30
@ Gast

Dann muss man schlicht alles aufzeigen: DX9, DX11 mit SpeedUp, DX11 mit HWT/AO bei besser BQ und weniger Fps (im Falle von Dirt 2).

@ Jake Dunn

Stimmt, das Geschmiere suckt - technisch sicherlich auch unter DX9 möglich ;(

Gast
2010-01-17, 22:04:25
Das kommt dann wohl dabei raus, wenn man gern stänkern möchte, es aber nicht mehr kann:

http://www.semiaccurate.com/2010/01/16/dueling-graphics-videos-hit-net/

:D

derguru
2010-01-17, 22:04:51
@y33H@

ich sehe da ein unterschied von 25% zu 18% zur 295gtx.(jaja ram aber wayne)


du sadomaso;D

mictasm
2010-01-17, 22:04:53
Ich weiß ja, alle langweilen sich und sind gespannt auf die nächsten angekündigten Informationen, aber was soll wieder dieses Blabla? Das müllt wieder seitenweise den Thread voll... Keiner beachtet die Modtext-Hinweise im Thread, nichtmal die Moderatoren selbst, es wird immer noch nicht durchgegriffen.

4 Vitamins
2010-01-17, 22:08:43
Ich verstehe manche postings nicht.

Die neue NVidia soll, laut ABSOLUT ungesicherten infos, 20-40% oder sagen wir 40-60% schneller sein, als die ATI.
Manche schreien schon "zerstörung", POWNAGE usw.

Warum nur?:confused:

ATI produziert keine Highend karten mehr, sollte jedem bekannt sein.

Die situation wäre folgende, sollten die werte stimmen:
NVIDIA HIGHEND monster chip ist 20-80% schneller als ATIS MIDDLECHIP

Was ist dadran verwunderlich? Wieso sprechen manche von POWNAGE?
Normal sollte Nvidia min. doppelt so schnell sein.
Das wäre erst NORMAL und zu erwarten.

Also warum freut sich der nvidia funboy wenn nvidias highendchip Atis middlechip schlägt?
Es sind doch Verschiedene klassen. Auch vom preis her.:confused:

gruss

y33H@
2010-01-17, 22:11:26
@ derguru

Ups, bezog mich auf die GTX285 als Basis im Vergleich zur HD5870. Wieso Sadomaso? :usad:

Gast
2010-01-17, 22:13:31
ATI produziert keine Highend karten mehr, sollte jedem bekannt sein.
Man muss ja nicht alles glauben, was ATI den ganzen lieben langen Tag verzapft. ATI stellt immer noch Highend-Chips her, nur machen sie die gezielt etwas kleiner - weil sie das müssen, denn einen großen und teuren Chip können sie sich nicht leisten.

Gast
2010-01-17, 22:13:56
Die situation wäre folgende, sollten die werte stimmen:
NVIDIA HIGHEND monster chip ist 20-80% schneller als ATIS MIDDLECHIP


Aer die HD5870 ist aber Highend o.O

san.salvador
2010-01-17, 22:14:24
Ich verstehe manche postings nicht.

Die neue NVidia soll, laut ABSOLUT ungesicherten infos, 20-40% oder sagen wir 40-60% schneller sein, als die ATI.
Manche schreien schon "zerstörung", POWNAGE usw.

Warum nur?:confused:

ATI produziert keine Highend karten mehr, sollte jedem bekannt sein.

Die situation wäre folgende, sollten die werte stimmen:
NVIDIA HIGHEND monster chip ist 20-80% schneller als ATIS MIDDLECHIP

Was ist dadran verwunderlich? Wieso sprechen manche von POWNAGE?
Normal sollte Nvidia min. doppelt so schnell sein.
Das wäre erst NORMAL und zu erwarten.

Also warum freut sich der nvidia funboy wenn nvidias highendchip Atis middlechip schlägt?
Es sind doch Verschiedene klassen. Auch vom preis her.:confused:

gruss
Was ist denn deine Definition von "Highend"?

Das könnte jetzt lustig werden, ich hol mal das Popcorn...

Jake Dunn
2010-01-17, 22:15:48
@ Jake Dunn
...technisch sicherlich auch unter DX9 möglich ;(
Das ja :( Marketing FTW :rolleyes:

fdk
2010-01-17, 22:17:02
Hm ist midrange noch midrange wenn es 250 schleifen kostet und man damit alles gemaxt spielen kann? Fragen die die Welt bewegen. :rolleyes:

Gast
2010-01-17, 22:23:10
könnt ihr alle mal wieder den rand halten und dieses off topic gespamme lassen?
danke !

Gast
2010-01-17, 22:26:27
Was ist denn deine Definition von "Highend"?

Das könnte jetzt lustig werden, ich hol mal das Popcorn...
600€ Karten wie die 5970 zählen scheinbar nicht dazu, das ist Mittelklasse.
300-400€ Karten wie 5870 sind dann schon Richtung was?

igg
2010-01-17, 22:31:39
ich freu mich auf morgen :). hoffentlich gibts neben architekturpreview auch einen ausblick auf 3d und bq features

Dural
2010-01-17, 22:39:34
ATI produziert keine Highend karten mehr, sollte jedem bekannt sein.


330mm2 in 40nm und 2,1Milliarden schwer, was soll den das anders sein??? und das noch 2x auf der 5970!!! Das ist ganz klar absolutes High-End!!!

Schau dir schon nur mal die Hardware der 5870 an, grösse/komplexheit usw.

Das dumme Marketing von AMD hatte damals gar keine andere möglichkeit als dieser Mainstream Chip names RV670 als eben Mainstream GPU zubezeichen weil er es eben auch ganz klar war!

Ich denke die zukunft gehört ganz klar den 300-500mm2 GPUs und über 500mm2 werden wir wohl sobald nicht mehr sehen wie es GT200a war und vieleicht jetzt bald GF100 sein wird...

Mainsteam GPUs sind so gut wie immer um die 200-300mm2

san.salvador
2010-01-17, 22:41:39
Abgesehen davon trägt die 5870 die schnellste kaufbare GPU, ist also per definitionem Highend. Sry für OT, aber das wollte ich klargestellt wissen. ;)

reunion
2010-01-17, 22:43:16
330mm2 in 40nm und 2,1Milliarden schwer, was soll den das anders sein??? und das noch 2x auf der 5970!!! Das ist ganz klar absolutes High-End!!!

Schau dir schon nur mal die Hardware der 5870 an, grösse/komplexheit usw.

Das dumme Marketing von AMD hatte damls gar keine andere möglichkeit als dieser Mainstream Chip names RV670 als eben Mainstream GPU zubezeichen weil er es eben auch ganz klar war!

Sich an Begrifflichkeiten aufzuhängen ist ohnehin sinnlos. GF100 ist jedenfalls unbestreitbar 50% größer als Cypress und deshalb wäre alles andere als eine deutlich höhere Geschwindigkeit fast schon eine Blamage. Laut Ailuros soll ja schon ein 15*25mm Chip von NV in der Pipeline sein, der dann wohl als Konkurrent zu Cypress gedacht ist.

Dural
2010-01-17, 22:48:17
Abgesehen davon trägt die 5870 die schnellste kaufbare GPU, ist also per definitionem Highend. Sry für OT, aber das wollte ich klargestellt wissen. ;)

ja kommt noch hinzu... zudem hat der RV870 700Mio. mehr als GT200, das ist so viel wie ein R600 GPU im gesamten überhaupt hat!

Sich an Begrifflichkeiten aufzuhängen ist ohnehin sinnlos. GF100 ist jedenfalls unbestreitbar 50% größer als Cypress und deshalb wäre alles andere als eine deutlich höhere Geschwindigkeit fast schon eine Blamage. Laut Ailuros soll ja schon ein 15*25mm Chip von NV in der Pipeline sein, der dann wohl als Konkurrent zu Cypress gedacht ist.

RV790 960Mio. + ca. 120% = 2100Mio. RV870 :wink: und jetzt? :wink:

Gast
2010-01-17, 22:54:30
GF100 ist jedenfalls unbestreitbar 50% größer als Cypress und deshalb wäre alles andere als eine deutlich höhere Geschwindigkeit fast schon eine Blamage.
Demnach wäre eine Leistung für Single GF100 zwischen 5870 und 5970 vollkommen normal.

Was wiederrum die Frage aufwirft, wenn wir schon die 300-400€ 5870 nicht als High-End ansehen, was die auf dem Papier überlegene 5970 ist, wenn Single GF100 den High-End Anspruch wahrnimmt.

derguru
2010-01-17, 22:56:33
highend ist für mich immer preislich bezogen,was interessiert mich wieviel transis der chip hat.(als ob das immer ein indiz für die geschwindigkeit ist)
highend fängt bei mir bei 500 euro an und dazu gehört sicherlich auch eine 5970 aber keine 5870.

was können die karten dafür das man jedes murkskonsolengame mit einer 200 euro karte auf max. spielen kann.

aber dural vergleicht alte generation mit neuer,na sicher dat.:D

san.salvador
2010-01-17, 22:58:26
highend ist für mich immer preislich bezogen,was interessiert mich wieviel transis der chip hat.(als ob das immer ein indiz für die geschwindigkeit ist)
highend fängt bei mir bei 500 euro an und dazu gehört sicherlich auch eine 5970 aber keine 5870.

was können die karten dafür das man jedes murkskonsolengame mit einer 200 euro karte auf max. spielen kann.

aber dural vergleicht alte generation mit neuer,na sicher dat.:D
Wenn dir jemand eine 4870 mit 8GB Vram um 700€ verkauft ist das Highend?
:uhammer:

reunion
2010-01-17, 22:58:29
RV790 960Mio. + ca. 120% = 2100Mio. RV870 :wink: und jetzt? :wink:

Zusammenhang? 55nm vs. 40nm. Damit könnte ich auch beweisen das eine GT210 ein High-End-Chip ist. NV10 vs. GT210. :freak:

Entscheidend sind die Chips per Wafer, also die Die-Größe. G92 hatte auch 330mm². Natürlich kann ich auch einen größeren Chip preislich in einem anderen Segment verkaufen und umgekehrt, das erhöht oder senkt dann eben die Margen.

igg
2010-01-17, 22:58:33
ihr diskuriert jetzt nicht ernsthaft zum x-ten mal in diesem thread ueber die definition von highend???

Gast
2010-01-17, 23:03:26
Entscheidend sind die Chips per Wafer, also die Die-Größe. G92 hatte auch 330mm². Natürlich kann ich auch einen größeren Chip preislich in einem anderen Segment verkaufen und umgekehrt, das erhöht oder senkt dann eben die Margen.Früher waren 300mm² High-End.
Man hat eine derartige GPU auf den jedweiligen Topmodell verbaut.

Heute sind wir soweit das 2x über 300mm² verbaut werden.

Ailuros
2010-01-17, 23:05:03
wer spekuliert, verliert. oder wie meinst du das? ;)

ich hab KEINE AHNUNG. ich würde aber auch nicht darauf wetten, dass nvidia ohne physics bencht.

22K liegt in der unmittelbaren von NV's landing zone ergo klingt es ziemlich wahrscheinlich dass es sogar stimmt. Nun ja nicht genau 22 aber +/- und bei dem langweiligen relativ alten synthetischen Bench zerreist sich auch keiner sein Klammotten mehr.

Ich geb Dir aber eine "Spekulation" auf der Du vielleicht etwas anstaendigeres folgern koenntest: etliche Male die Dreieckszahl
im Vergleich zu GT200 und ich meine nicht nur 2x, 3, oder 5x Mal.

derguru
2010-01-17, 23:07:07
Wenn dir jemand eine 4870 mit 8GB Vram um 700€ verkauft ist das Highend?
:uhammer:
es wird mir und anderen aber keiner eine 4870 8gb ram verkaufen,ohmann.ich dacht ich bin auf ignore ,nicht mal wort halten können die almöhis.

Ailuros
2010-01-17, 23:07:28
Es wurde HAWX rausgenommen, mit den bekannten AF-Bug bei AMD. Der DX11-Speedup ist nur fair, niemand der eine Dx11 Karte hat nimmt den nicht mit und das Ergebnis ist vergleichbar, was es mit aktivierter Tesslation natürlich nicht mehr ist.

HAWX ist ziemlich triangle setup limitiert.

MR2
2010-01-17, 23:08:55
Doch, immer wenn "der Eine" viel schneller als "der Andere" ist, wird die HighEnd Definition aus der Schublade gehohlt.
Ich liebe meinen HighEndAmiga4000T für 4500DM ;D

Derzeit ist Hemlock HighEnd, Cypress Performance...Die 420Euro für eine 5870 hiefen die Karte auf HighEnd, nicht mehr und nicht weniger..Mal schauen wies mit Fermi aussieht. Meine Meinung..

Ailuros
2010-01-17, 23:14:47
Es reicht so langsam mit dem Quark ob 5870 high end ist oder nicht. Tut mir leid aber der Strassenpreis definiert auch die Leistungsklasse und auch das Marksegment. So lange eine 5870 knapp um die 300 Euro kostet ist es performance.

So und jetzt zurueck zum Thema:

V2.0 war es Du der ueber das dritte Taktdomain sprach? Es klingt mehr und mehr als ob es tatsaechlich existiert und wenn ja duerfte es knapp unter 1.1GHz liegen. TMUs und trisetup liegen hoechstwahrscheinlich dann bei dieser. Wenn ich mich nicht verrechnet habe ueber 6x Mal die Dreiecksrate einer 285.

Coda
2010-01-17, 23:16:09
HAWX ist ziemlich triangle setup limitiert.
Öh, woher kommt diese Info?

Godmode
2010-01-17, 23:32:15
Wenn ich mich nicht verrechnet habe ueber 6x Mal die Dreiecksrate einer 285.

Das würde dann die gute Leistung in den Tesselator Tests erklären.

Ailuros
2010-01-17, 23:36:49
Öh, woher kommt diese Info?

Von Mintmaster@B3D.

Gast
2010-01-17, 23:45:00
Bin sehr gespannt, ob man die Microruckler ganz wegbekommt. Das wird darüber entscheiden ob ich von ATI zu Nvidia wechseln werde. :-)

N0Thing
2010-01-18, 01:56:31
ich freu mich auf morgen :). hoffentlich gibts neben architekturpreview auch einen ausblick auf 3d und bq features

Irgendwie kann ich mir nicht vorstellen, daß dabei mehr herum kommt, als bei den vor dem offiziellen Launch des RV870 geleakten Folien, vor dem offiziellen Lauch. Ich würde mir mehr Informationen wünschen und traue dem GF100 auch mehr zu, als man von den bisherigen Informationen erwarten kann, aber glauben kann ich es nicht so recht und deshalb auch nicht an wirklich ausführliche Infos glauben, die eine echte Einschätzung der Leistungsfähigkeit ermöglichen würde.

Es reicht so langsam mit dem Quark ob 5870 high end ist oder nicht. Tut mir leid aber der Strassenpreis definiert auch die Leistungsklasse und auch das Marksegment. So lange eine 5870 knapp um die 300 Euro kostet ist es performance.


Die Diskussion welcher Chips und welche Karte nun High-End, Performance oder P0Wnage sind finde ich ebenfalls überflüssig. Ich hoffe ich riskiere damit keine Verwarnung, aber 1. kann meiner Meinung nach jeder selber für sich definieren was High-End ist und was nicht und dies dann für sich behalten und 2. definiert dies nicht der Preis der Karten, sondern die Leistung im Vergleich zur Konkurrenz, der Preis entsteht automatisch aus den Gegebenheiten am Markt.

Ich teile deine Schlußfolgerung dazu nicht, aber dieser Thread ist in der Tat nicht der richtige Ort, um darüber zu diskutieren.

tombman
2010-01-18, 01:58:43
Sind eigentlich die Namen GTX380/360 sicher?

mapel110
2010-01-18, 04:16:55
http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
Ein letztes Mal Charlie mit dem verzweifelten Versuch, GF100 schlecht zu machen.

Coda
2010-01-18, 04:53:52
Ich weiß nicht was der Typ hat dass er so einen Hass verbreiten muss.

Vor allem ist das ganze gespickt mit offensichtlichem technischen Halbwissen. Das bisschen was er weiß legt er aber immer nur in positiver Richtung für ATI aus. Kann ja gar nicht sein, dass NVIDIA mal was richtig macht :hammer:

Sind eigentlich die Namen GTX380/360 sicher?
Was spielt das für ne Rolle? ;)

tombman
2010-01-18, 05:09:03
http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
Ein letztes Mal Charlie mit dem verzweifelten Versuch, GF100 schlecht zu machen.
Jo, jetzt hat er schon "zugegeben", daß GF100 stärker als HD5870 ist- und rettet sich, mittels des Preisarguments, verzweifelt auf einen HD5970 Vergleich ;D;D
Er checkt wohl nicht, daß den schnellsten single Chip zu haben, nicht gerade unwichtig ist.
Die Zielgruppe heißt ENTHUSIAST und nicht Blödmarkt-Dau. 100€ rauf oder runter ist egal, wenn der Spaß paßt.
Der Typ hat doch gelitten...
Ich weiß nicht was der Typ hat dass er so einen Hass verbreiten muss.

Vor allem ist das ganze gespickt mit offensichtlichem technischen Halbwissen. Das bisschen was er weiß legt er aber immer nur in positiver Richtung für ATI aus. Kann ja gar nicht sein, dass NVIDIA mal was richtig macht :hammer:

Jo, vorallem, weil er flexible Tess./Shader-Einheiten plötzlich als etwas SCHLECHTES verstanden wissen will :ugly:
Nach seiner Logik wäre also die Einführung von unified shadern etwas Schlechtes im Vergleich zu fixed function units gewesen.
Blöd nur, daß die Vergangenheit das Gegenteil bewiesen hat ;)
Je flexibler, desto besser, weil die Leistung dorthin kann, wo sie gebraucht wird und Teile nicht brach liegen ;)

Was spielt das für ne Rolle? ;)
Nur ne rein psychologische :D

p.s.: bald isses 6 Uhr :eek: -> nur noch kurze Zeit bis zur Enttäuschung ;D

lastshady
2010-01-18, 05:52:40
gleich gehts los
http://www.hardforum.com/showthread.php?t=1487318

tombman
2010-01-18, 05:58:38
Meine arme F5 Taste ;D

edit:
6 Uhr!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

pervert
2010-01-18, 05:59:23
Hihihi

Nerds ;)


Edit:
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/bericht_nvidia_gf100_technische_details/

Die technischen Details der kommenden High-End-Karten lesen sich eindrucksvoll. 512 Shadereinheiten, 64 Textureinheiten mit einer eigenen, hoch gezüchteten Taktdomäne, 48 ROPs und ein 384 Bit breites Speicherinterface mit GDDR5 wird der GF100 bieten.


http://www.heise.de/newsticker/meldung/Nvidias-GF100-512-Shader-Kerne-und-64-Textureinheiten-906002.html

lastshady
2010-01-18, 06:01:08
yes es ist daa
nebenbei gruss an alle die noch wach sind

tombman
2010-01-18, 06:01:56
Ok, Tess.mäßig lost ATI schon mal ab:
http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOF9sLmdpZg==&ref=YXJ0aWNsZQ==

Aua!!!!
http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOV9sLmdpZg==&ref=aHR0cDovL3d3dy5oYXJkb2NwLmNvbS9pbWFnZS5odG1sP2ltYWdlPU1USTJNell3T0RJeE5IaDRW SE4wZWtSdWMyUmZNVjh4TjE5c0xtZHBaZz09

=Floi=
2010-01-18, 06:04:38
das ist böse:
http://pics.computerbase.de/2/8/1/1/5/15.png

und 512 shadereinheiten!!!

edit
NVDIA --> http://www.youtube.com/watch?v=qKoB-OeTTaA ;D

pervert
2010-01-18, 06:05:45
UHHHHH!!!
So sieht dann also (ehemals vermutete) Tesselation in Software aus ;););););););)

http://img168.imageshack.us/img168/5174/unigf100.png

James Ryan
2010-01-18, 06:07:42
Da hat NVIDIA wohl gezielt im Vorfeld die Leute wieder verarscht wegen der Tessalationseinheit! ;D

MfG :cool:

EDIT: Kein einziges Wort über SSAA, nur der 32xCSAA Modus wird hervorgehoben. Das klingt nicht gut!

DrFreaK666
2010-01-18, 06:14:08
Da hat NVIDIA wohl gezielt im Vorfeld die Leute wieder verarscht wegen der Tessalationseinheit! ;D

MfG :cool:

EDIT: Kein einziges Wort über SSAA, nur der 32xCSAA Modus wird hervorgehoben. Das klingt nicht gut!

Für etwas muss ATI ja auch noch gut sein :wink:

http://www.pcgameshardware.de/aid,703239/Fermi-GF100-im-Technik-TUeV-Kommentare-zu-Architekturdetails-Bildqualitaet-und-Benchmarks/Grafikkarte/Test/

tombman
2010-01-18, 06:19:59
"Rumored Fermi Videos" - Yes, these are in fact authentic videos of a GF100 triple card setup in action. 3 X GPGPU for Ray Tracing Demo, Single GPU for all others. The systems are all 3.2GHz Intel Core i7 boxes and the comparison box being used in the FarCry 2 benchmark shots are of a GTX 285. The videos were leaked accidentally by PCPer.com.
Excellent (Mr. Burns): jetzt kann man nachbenchen und vergleichen- los, Jungs, hop-hop ;)

tombman
2010-01-18, 06:22:59
Wo kann man das whitepaper saugen?

Coda
2010-01-18, 06:35:03
EDIT: Kein einziges Wort über SSAA, nur der 32xCSAA Modus wird hervorgehoben. Das klingt nicht gut!
Jeder D3D11-Chip kann Supersampling. Reine Treibergeschichte.

Die TMUs laufen wohl tatsächlich auf einer Hot-Clock :|

James Ryan
2010-01-18, 06:36:05
Jeder D3D11-Chip kann Supersampling. Reine Treibergeschichte.

Es wird aber nirgendwo erwähnt, das NVIDIA dies in den neuen Treibern tun wird. Es wird nur auf 32xCSAA verwiesen.
Ich schließe daraus, dass es kein SGSAA "offiziell" geben wird!

MfG :cool:

Coda
2010-01-18, 06:38:21
Wieso muss man damit Werbung machen? Das ist nichts neues.

Es geht nicht um "das können wir auch", sondern um "das können wir besser".

DrFreaK666
2010-01-18, 06:41:10
Wieso muss man damit Werbung machen? Das ist nichts neues.

Es geht nicht um "das können wir auch", sondern um "das können wir besser".

Und was ist an 32x CSAA im Vergleich zu 8xSGSSAA ausser der besseren Performance?

Coda
2010-01-18, 06:42:49
Ist auch egal, wartet's einfach ab.

SGSSAA über den Treiber ist eh so eine Geschichte, weil es ab D3D10+ nicht mehr geht. Damit zu werben ist relativ schwierig.

Und mal abgesehen davon: Wieso sollten sie SGSSAA über den Treiber (zumindest "inoffiziell") nicht bringen, wenn sie das seit der GeForce 256 tun und es die Hardware kann?

Wenn man TSSAA implementiert hat ist SGSSAA praktisch eh schon vorhanden. Der zusätzliche Code beschränkt sich darauf es eben doch auf alle Polygone anzuwenden und nicht nur auf jene mit Alpha-Testing.

Es gibt für mich wenig Grund dieses Feld ATI zu überlassen, da NVIDIA dort eigentlich traditionell mehr Optionen bietet.

pervert
2010-01-18, 06:45:10
Performance Übersicht :D
http://www.pcgameshardware.de/aid,703239/Fermi-GF100-im-Technik-TUeV-Kommentare-zu-Architekturdetails-Bildqualitaet-und-Benchmarks/Grafikkarte/Test/?page=3


Fermi / GF100: Performance vs. GTX 285 (Angaben: Nvidia)
• Allgemein: bis zu 2x bei 8xAA und hoher Auflösung in Spielen
• Theoretisch: bis zu 8x Geometrieleistung
• Theoretisch: bis zu 3x schnelleres Shadow-Mapping (via Jittered-Sample & Gather 4)
• Tom Clancy's Hawx, 4x FSAA: 1,61
• Tom Clancy's Hawx, 8x FSAA: 2,33
• Texturlimitierter Szenenausschnitt Left 4 Dead 1,4x
• Texturlimitierter Szenenausschnitt Crysis 1,7x
• Texturlimitierter Szenenausschnitt Vantage Lenticular 1,65x
• Texturlimitierter Szenenausschnitt Crysis Warhead SSAO 1,6x
• AI/Wegfindung: 3,5x
• Physx (Fluid Simulation App): 2,1x
• Physx (Fluid Simulation Kernel): ~3x
• Physx 3.0 Concurrent Kernel Execution*: 1,2-1,4x
• Raytracing (Optix): 4x
• Dark Void (Physx Low): 2,1x

* Erst mit Physx 3.0 wird Concurrent Kernel Execution unterstützt, vorher erschienene Spiele und Anwendungen profitieren nicht ohne zusätzlichen Patch des Entwicklers von dieser Verbesserung in Fermi.


Fermi / GF100: Performance vs. Radeon HD 5870 (Angaben: Nvidia)
• Tessellation: "Directed Test" Low Detail 2,03x
• Tessellation: "Directed Test" Medium Detail 3,56x
• Tessellation: "Directed Test" High Detail 6,44x
• Tessellation: Hair Demo 2,96x
• Tessellation: Water Demo 4,01x
• Tessellation: "DirectX 11 Applikation" 5,89x
• Unigine-DX11-Benchmark (60 Sek. Ausschnitt, Min Fps): 35 (1,8x)
• Unigine-DX11-Benchmark (60 Sek. Ausschnitt, Avg. Fps): 43 (1,6x)
• Unigine-DX11-Benchmark (60 Sek. Ausschnitt, Max. Fps): 58 (1,5x)
• DirectX-SDK GSCubemap "Ball": 4x
• DirectX-SDK GSCubemap "Car": 4,7x
• Jittered Shadow-Mapping w/DirectX-11 Gather4: 3,3x


Geforce 100 Fermi Far Cry 2 Benchmark Result [Quelle: siehe Bildergalerie]
Der einzige Game-Benchmark, welchen wir live mitverfolgen konnten, war ein Duell im integrierten Far-Cry-2-Benchmarktool gegen die Geforce GTX 285 (rechter Monitor). Die Einstellungen in Full-HD-Auflösung standen auf dem jeweiligen Maximum der einzelnen Settings, zusätzlich aktivierte man 4x FSAA und 16:1 AF - letzteres im Treiber.

Die Ergebniss im Klartext (s. Foto oben):
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64

Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33

tombman
2010-01-18, 06:47:22
Naja, Charlie kann jedenfalls scheißen gehen, denn sehr wohl kann man Fermi nach unten skalieren, braucht ja nur statt 4 GPCs, 2 oder 1 nehmen. Da skalert alles Weitere automatisch mit ;)

Leider keinerlei Aussagen über Pixel Shader perf. oder dergleichen- nix Handfestes. Laut Kyle, damit man AMD keine Info gibt :rolleyes:

Offenbar wird nur über das geredet, was AMD mit einem einfachen refresh sowieso 100% nicht mehr einführen kann, da zu komplex.

Naja, dann heißts wohl bis März warten. Jetzt haben wir eigentlich nur gelernt, daß Fermi Massen an Polygonen liebt.

Coda
2010-01-18, 06:50:09
Also von der reinen Rechenleistung ist die HD5870 wohl recht deutlich überlegen, aber Brute-Force ist eben nicht alles.

Die Sache das NVIDIA unterstellt wird sich auf GPGPU konzentrieren zu wollen ist insofern ziemlich ironisch. ATI sind wohl diejenigen die Nachholbedarf haben die Effizienz von Rasterisierung auf ein ähnliches Niveau zu heben.

Alles in allem genau das was ich erwartet habe. NVIDIA konzentriert sich mit Fermi wieder auf technische Innovationen, die sich imho wenn nicht sofort spätestens in einem Refresh deutlich lohnen werden.

tombman
2010-01-18, 06:53:37
Der einzige Game-Benchmark, welchen wir live mitverfolgen konnten, war ein Duell im integrierten Far-Cry-2-Benchmarktool gegen die Geforce GTX 285 (rechter Monitor). Die Einstellungen in Full-HD-Auflösung standen auf dem jeweiligen Maximum der einzelnen Settings, zusätzlich aktivierte man 4x FSAA und 16:1 AF - letzteres im Treiber.

Die Ergebniss im Klartext (s. Foto oben):
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64

Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33
Ok, fast 200% in FC2- aber das werdens unmöglich im Schnitt aller games halten können...

Und auf diese spezielle Szenen benchmarks geb ich erst recht nix.

Leider kein Wort über neuen SLI mode :(

boxleitnerb
2010-01-18, 06:56:40
Bist doch eh sehr oft CPU-limitiert, von daher würd ich das nicht so eng sehen. Dort, wo es drauf ankommt, wird Fermi auch die Frames liefern.

Btw es wäre interessant zu wissen, ob man Tesselation und Displacement Mapping-Details später in Spielen wird richtig skalieren können, wenn Fermi diese soviel schneller berechnen kann. Ein "An/Aus" bringts da wohl nicht.

tombman
2010-01-18, 07:05:56
Ach ja, 3D-Vision Surround wird es NUR mit SLI geben, sprich: 3x Monitor mit einem Fermi wirds nicht spielen...
Gut, will eh 2 Stück :)

V2.0
2010-01-18, 07:11:26
Spannend sind eher die kleinen Ableger.

@ Ail

Habe ich doch gesagt. Die 3 Clockdomains...

mapel110
2010-01-18, 07:15:16
http://www.anandtech.com/video/showdoc.aspx?i=3721
http://www.pcper.com/article.php?aid=858
http://www.firingsquad.com/hardware/nvidia_gf100_architecture_overview/
http://www.guru3d.com/article/nvidia-gf100-fermi-technology-preview/
http://alienbabeltech.com/main/?p=14600
http://www.hothardware.com/News/NVIDIA-GF100-Architecture-and-Feature-Preview

DArk Void Video - GF100
http://www.guru3d.com/article/nvidia-gf100-fermi-technology-preview/8

reunion
2010-01-18, 07:28:15
Oha, nicht mal Spielebenchs wurden veröffentlicht, nur die theoretischen "cherry picked" Konstrukte, welche eh schon lange hinten den Kulissen kursieren. Ist ja schön das der Geometrieshader um mehrere Faktoren schneller sein soll, Praxisrelevanz ist halt fast null. Die Rasterisierung-Leistung ist natürlich für Tesslation interessant keine Frage. Aber sonst sind die Performanceangaben, welche von bis zu 2x so schnell wie eine GTX285 bei 8xAA und hoher Auflösung sprechen IMO nicht gerade überzeugend wenn man von den 8xAA-Schwäche der GTX285 weiß.

horn 12
2010-01-18, 07:30:43
Nun die Daten sind grandios, aber vielleicht ein zweiter R600 ?
Warum werden keine Benchmarks gezeigt, da MUSS doch was dran sein, ansonsten laufen immer noch viele zur Konkurrenz.

Coda
2010-01-18, 07:34:19
Oha, nicht mal Spielebenchs wurden veröffentlicht, nur die theoretischen "cherry picked" Konstrukte, welche eh schon lange hinten den Kulissen kursieren. Ist ja schön das der Geometrieshader um mehrere Faktoren schneller sein soll, Praxisrelevanz ist halt fast null. Die Performanceangaben, welche von bis zu 2x so schnell wie eine GTX285 bei 8xAA und hoher Auflösung sprechen sind IMO nicht gerade überzeugend wenn man von den 8xAA-Schwäche der GTX285 weiß.
Der Kommentar kommt jetzt aber sehr überraschend ;D

reunion
2010-01-18, 07:35:56
Der Kommentar kommt jetzt aber sehr überraschend ;D

Ja, ich wusste auch schon vorher das von dir wie üblich nichts sachliches kommt. Wie soll man denn einen solchen Folienlaunch sonst werten wo man nur solche Werte liefert und nichts greifbaren oder vergleichbares?

Coda
2010-01-18, 07:38:38
Wenigstens stell ich mich nicht hin und muss alles schlechtreden nur weil es ein grünes Logo hat.

Die Architektur hat genügend Veränderungen um die gestiegene Rechenleistung auch auf den Boden zu bringen. In modernen Spielen dürfte sich das gut auf 2x durchschnittliche Leistung einer GTX285 einpendeln (ja auch mit 4xAA).

ATi ersäuft zur Zeit in Rechenleistung aber bekommt es nicht auf die Reihe das drumrum effizient zu gestalten. Hier haben wir genau das Gegenteil.

V2.0
2010-01-18, 07:40:38
Ja, ich wusste auch schon vorher das von dir wie üblich nichts sachliches kommt. Wie soll man denn einen solchen Folienlaunch sonst werten wo man nur solche Werte liefert und nichts greifbaren oder vergleichbares?

Es war kein Launch. Es war ein Techday. Und für die Vorstellung ihrers neuen GPU designs sind die Unterlagen ok. Der Launch mit den finalen Frequenzen, Preisen usw. kommt im März.

Hätten Sie mehr Benchmarks und Details gezeigt, würden sich die Leute über einen "Paperlaunch" beschweren.

Ich wäre zwar eher für "put up or shut up" gewesen, aber so ging es gerade noch.

reunion
2010-01-18, 07:44:17
Wenigstens stell ich mich nicht hin und muss alles schlechtreden nur weil es ein grünes Logo hat.

Ich habe schon vorher gesagt das es eine zukunftsweisende Architektur ist. Die Geometrie- und Rasterizer-Eigenschaften scheinen erheblich überlegen, trotzdem bleibt die Frage wie viel davon bei aktuellen Spielen übrig bleibt. Und die ist man auch heute weitgehend schuldig geblieben.


Die Architektur hat genügend Veränderungen um die gestiegene Rechenleistung auch auf den Boden zu bringen. In modernen Spielen dürfte sich das gut auf 2x durchschnittliche Leistung einer GTX285 einpendeln (ja auch mit 4xAA).

Warum sagt NV dann "bis zu 2x bei 8xAA"?

MadManniMan
2010-01-18, 07:45:29
Die Architektur hat genügend Veränderungen um die gestiegene Rechenleistung auch auf den Boden zu bringen. In modernen Spielen dürfte sich das gut auf 2x durchschnittliche Leistung einer GTX285 einpendeln.

ATi ersäuft zur Zeit in Rechenleistung aber bekommt es nicht auf die Reihe das drumrum effizient zu gestalten. Hier haben wir genau das Gegenteil.

Den praktischen Nachweis ist nV noch schuldig - aber wir könnten von FC2 ausgehend Schlüsse ziehen. nV kann es sich nicht leisten, die Benches irgend zu färben, da diese als erste nachgestellt werden, wenn die Karten kommen.

Wo sind bei der Dunia-Engine die Flaschenhälse?


Wenigstens stell ich mich nicht hin und muss alles schlechtreden nur weil es ein grünes Logo hat.

Im Ernst: für einen Moment verarschte mich mein Gedächtnis und sagte mir, reunion wäre doch sonst der nV-Fanboy gewesen - und verstand seine Äußerungen als geschickt eingesetzten Teilaspekt der Marketingpolitik, wie sie heute alltäglich anzutreffen ist: ab und zu das Gegenteil von dem sagen, was man eigentlich sagen soll/möchte und schön erweitert man die Hörerschaft ...

War halt doch das selbe in grün wie immer :freak:

AnarchX
2010-01-18, 07:49:24
Laut PCGH und Anandtech laufen die TMUs auf halben Hot-Clock.
Anandtech nennt genauer 64 TA und 256TFs: http://www.anandtech.com/video/showdoc.aspx?i=3721&p=2

Coda
2010-01-18, 07:49:30
Ich habe schon vorher gesagt das es eine zukunftsweisende Architektur ist. Die Geometrie- und Rasterizer-Eigenschaften scheinen erheblich überlegen, trotzdem bleibt die Frage wie viel davon bei aktuellen Spielen übrig bleibt. Und die ist man auch heute weitgehend schuldig geblieben.
Ist man. Das ist aber noch lange kein Grund schwarz zu sehen. Bisher haben sie doch auch allen was vor gemacht. Bei G80 auch.

Und das schöne ist: Falls die Rohleistung wirklich fehlt haben sie wengistens das Fahrwerk für die kommenden Jahre richtig schön zu skalieren. Die ist uns ATI bisher schuldig geblieben. RV870 ist geradezu schrecklich ineffizent wenn man ihn mit Fermi vergleicht. Sie können jetzt noch mit einem Clock-Refresh kontern, aber danach geht ihnen auf R6xx-Basis die Luft aus.

Es ist doch genau wie ich es prophezeit habe. NVIDIA hat in den 4 Jahren das getan was ich von ihnen erwartet habe während die Meute sie nach GT200 für so gut wie tot erklärte ;)

Aber vielleicht hat AMD ja noch den R900-Joker und RV870 war nur ein sehr geschickt platzierter Lückenfüller.

Ailuros
2010-01-18, 07:52:49
Ich weiß nicht was der Typ hat dass er so einen Hass verbreiten muss.

Vor allem ist das ganze gespickt mit offensichtlichem technischen Halbwissen. Das bisschen was er weiß legt er aber immer nur in positiver Richtung für ATI aus. Kann ja gar nicht sein, dass NVIDIA mal was richtig macht :hammer:



http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

Moving on to tessellation we said last May that Nvidia does not have dedicated hardware tessellators. Nvidia said the GF100 has hardware tessellation, even though our sources were adamant that it did not. You can say that Nvidia is lying or that they are splitting hairs, but there is no tessellator.

Instead, they have what they call a 'polymorph engine', and there is one per SM. Basically they added a few features to a subset of the shaders, and that is now what they are calling a tessellator, but it is not. ATI has a single fairly small dedicated tessellator that remains unchanged up and down the Evergreen/HD5xxx stack. On ATI 5xxx cards, tessellation performance takes almost no shader time other than dealing with the output just like any other triangle. On GF100, there is no real dedicated hardware, so the more you crank up the tessellation, the more shaders you co-opt.

Da ich eine technisch unruhige Natur habe fragte ich irgendwo Mitte 2009 einen waschreinen engineer wie der Unterschied zwischen voll programmierbarer Tesselation und eine hull shader-ff Tesselation unit- domain shader aussehen koennte und hier die Antwort:

As always, this is an area vs performance play. It depends on what the area of a fixed-function unit is, times its (expected) utilization, vs the performance (and perhaps complexity) of not using fixed-function.

The Tessellation unit (however implemented) needs to do 4 things:
- Read the inputs.
- Determine the topology (how many vertices and where they are).
- Collect the vertices into batches.
- Schedule the batches on the SMs.

Some of those tasks are better suited to fixed-function, and some are better suited to a programmable environment. Note that after the "hull shader" (what a terrible name), the specified LODs can make generate a patch that has 100-1000x more vertices than the input patch.

Ultimately, however tessellation is done matters a lot less than the final performance achieved. Even between 2 fixed-function unit designs, the performance characterisitics can be wildly different.

Fettgedruckte kein Zufall. Gerade aber die Aufgaben die in einer fixed function Umgebung besser aufgehoben sind, werden in Fermi pro SM (ergo 16 dieser Dingsbumse) durch eine geometry attribute setup unit und tesselation unit behandelt. Es wird sich dabei um eine relativ kleine Anzahl von Transistoren handeln IMO, welches ich zwar nicht weiss wie viel es sein koennte bei *16x, aber es als eine sw Loesung abzustempeln ist Irrsinn.

Noch beschissener wird Charlie's Unfug wenn man bedenkt wie viel Zeit fuer Tesselation in der DX11 pipeline genau braucht und wie lange genau ein chip braucht die 4 vorerwaehnten Aufgaben der typischen ff Tesselations-Einheit auszufuehren. Wenn es von hull shader --> ff Tesselation --> domain shader bei Radeons geht, dann hat IMO der Mittelmann IMHO die wenigste insgesamt Arbeit.

Nvidia is going to tout the 'scaling' of their tessellation capabilities, but since they are kicking off the GF100 line at the top, scaling is only going down from there. ATI's 5xxx parts don't lose anything when going down, nor do they lose die area when going up.

Ich sehe nichts besonderes an Tesselations-Leistung <Cypress aber ich werde wohl blind sein. Von dem abgesehen Cypress = 2 raster->1 Tri/clock, Juniper und Enkelkinder = 1 raster ->1 Tri/clock.

GF100 = 1 raster pro 4 SM (ergo 4 insgesamt) und hoechswahrscheinlich 2 Tris/clock ergo ein setup pro 8SM. Wo jetzt der Unterschied sein soll verstehen ich bei bestem Willen nicht. Natuerlich spielt er darauf an dass sich bei einem 4 cluster GF10x die Anzahl an Transistoren fuer Tesselation reduziert, aber es geht auch Hand in Hand mit der Reduzierung von raster Einheiten was bei ATI auch nicht anders ist.

Wenn 5xxx nach oben skalieren sind es bei Hemlock 5970:

668mm2
4.3 Mrd Transistoren
4 raster Einheiten und 2 Tris/clock
2 ff Tesselations-Einheiten
1.7Mrd. Tris/Takt

When showing off the tessellation capabilities last week, Nvidia was very careful to show the Unigine/Heaven benchmark with the dragon statue, claiming it beat the ATI 5870 by 60%. While technically true, this number is purposely misleading on two accounts. First is that this is a best case for showing off tessellation and and only tessellation. If they were to show off any of the other Heaven tests, the margins would narrow significantly.

Ja es ist eine cutscene aber dazu ein tesselations-limitierter Fall. Wenn ich das absolute theoretische Maximum einer Architektur finden will dann such ich mir auch einen tesselations-limitierten Fall heraus.

Aber jetzt lieber Charlie ist es mir zu 100% klar WER genau Dir Deine Marionetten-Seile bewegt. Da ich in Echtzeit nur vor einigen Tagen den genau gleichen Scheiss von AMD's PR hoerte geht's gar nicht klarer.

The last bit is that our sources were reporting that Nvidia was comparing GF100 to a Radeon HD5870, a much cheaper card. If they had compared it to a comparably priced ATI HD5970/Hemlock card, which coincidentally uses almost the exact same power, the results would not have been pretty. Hemlock doubles the tessellation power of 5870, so it is pretty obvious why that comparison was not made.

Ach jetzt geht es ploetzlich nach oben? Ein paar Paragraphe weiter oben hiess es noch:

ATI's 5xxx parts don't lose anything when going down, nor do they lose die area when going up.

Man sieht selten dass sich jemand so grandios selber in den Hintern beisst deshalb auch so amuesant.

Moving along, another interesting bit is that the GF100 has upgraded their ROPs (Rendering Output units) from 32 on G200/GTX280/GTX285 to 48. While this looks bad on the surface, the raw count of the ROPs does not take into account any gains in efficiency between the two architectures. The ROPs per shader ratio has gone down dramatically which speaks volumes about the intended target market of the GF100 line.

Kann jemand dem Herren erklaeren dass Fermi nicht 4 ROPs per partition mehr hat wie bis GT200 sondern 8 diesmal? Dass es "nur" 48 sind ist ein indirektes Resultat des SI dass dank GDDR5 auf 384bits schrumpfte gegen GDDR3@512bit.

Aber wenn's schon sein muss Cypress hat 32 ROPs damit es auch Sinn macht 2 rasterizer zu haben; vereinfacht 16 pixel/Takt fuer jeden. Wenn ich jetzt Recht habe und es gibt eine indirekte Relation zwischen 4 rasters auf GF100 und jeweils 12 pixel/Takt fuer jeden, sieht es mir nicht nach einem Nachteil aus. Ueberhaupt da die ROPs seit G80 mit ihrer riesiegen Z Rate nie wirklich im Nachteil standen. 8xMSAA Leistung wurde dank besserer FB Kompriemierung hergestellt (Coda bekommt hier einen virtuellen Keks denn er hatte Recht schon seit Jahren).

Bei der Bandbreite sind die ROPs IMO ziemlich gut bedient.

*********edit Nr.2: Anand's Artikel:

We’ll start with the Raster Engine. The Raster Engine is the combination of all the raster related hardware that we would have found previously in the fixed function pipeline. It does edge/triangle setup, rasterization, and z-culling in a pipelined manner. Each GPC has its own Raster Engine. NVIDIA has very little to say about the Raster Engine, but very little has changed from GT200 besides the fact that there are now 4 of them (one for each GPC) as opposed to 1 larger block. Each rasterizer can do 8 pixels per clock, for a total of 32 pixels per clock over the entirety of GF100.

Ok ergo Selbstkorrigierung: 4 rasterizer mit jeweils 8 pixels/clock fuer jeden, ergo insgesamt fuer rasterizing 32 pixels/clock.

On a slightly less positive note, the texture unit count has gone from 80 on the G200 line to 64 on the GF100 parts. Again, without numbers on efficiency of the units, they are not necessarily comparable, but smart money from insiders was on 128 texture units last spring. So instead of improving performance it would seem to be a decrease in performance between their current line and their upcoming release.

Kein Kommentar bis sich dieses Raetsel loest. Wenn aber die TMUs tatsaechlich auf >core Frequenz liegen sollten, ist es ein weiterer bloedsinniger Punkt.

***edit: Mooomeeent ich lese gerade Anand's Artikel und da stehen 256TF Einheiten drin.

Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.

Ok. Die bilerp Rate sieht aber hier eine gigantische Steigerung im Vergleich zu GT200 und es erklaert auch warum Fermi mit gather4 einen so grossen Abstand auf Papier zu Cypress hat.

This caps the price Nvidia can charge for GF100 cards at the price of Hemlock, or less. Since GF100 silicon at 40% yields will cost about $125 for the raw unpackaged silicon vs a consensus number of <$50 for ATI's Cypress, ATI can likely make a dual card for less than Nvidia can make a single GF100. The 280W power draw means it is almost impossible for Nvidia to put out a dual card with all units active, leaving the slippery slope of fused off shaders and downclocked parts to hold the fort.

40% durchschnittliche yields fuer 40G sind selbst im Vergleich zu Cypress (wenn man Komplexitaeten bedenkt) relativ gut.

Dual-chip bei NV war stets mit etwas reduziert und Hemlock ist auch nicht streng genommen 2*Cypress.

To make matters worse, SemiAccurate's sources in the far east are saying that the current A3 silicon is 'a mess'. Last spring, we were told that the chip was targeted for a top clock of 1500-1600MHz. The current silicon coming out of TSMC, defects aside, are not binning past 1400MHz in anything resembling quantity, with 1200MHz being the 'volume' bin. Even at 75% of intended clocks, the numbers of chips produced are not economically viable.

Tja anscheinend wurde bei AIBs eine 725MHz Frequenz fuer 380 angegeben. Wenn dieses stimmt dann liegt es nur ein Haar unter den 736MHz die mir im Mai 2009 vermittelt wurden. Dass aber die 380 am Anfang sehr selten sein werden kann und will ich nicht bezweifeln.

reunion
2010-01-18, 07:53:25
Ist man. Das ist aber noch lange kein Grund schwarz zu sehen. Bisher haben sie doch auch allen was vor gemacht. Bei G80 auch.


Es ist auch kein Grund mich persönlich anzufahren nur weil ich nicht nur alles grün positiv sehe. Kritik muss auch erlaubt sein, ich habe rein sachliche Kritik angebracht, kein Grund jemanden deswegen anzugreifen.


Und das schöne ist: Falls die Rohleistung wirklich fehlt haben sie wengistens das Fahrwerk für die kommenden Jahre richtig schön zu skalieren. Die ist uns ATI bisher schuldig geblieben. RV870 ist geradezu schrecklich ineffizent wenn man ihn mit Fermi vergleicht.

Zählen tut was am Ende raus kommt. Und da müssen sie ihr 50% größeres Die mit 280W TDP in der Praxis erst mal rechtfertigen. NV hat natürlich viel für die Zukunft getan keine Frage, aber ob sich das heute schon in dem Ausmaß lohnt muss sich erst zeigen.


Es ist doch genau wie ich es prophezeit habe. NVIDIA hat in den 4 Jahren das getan was ich von ihnen erwartet habe während die Meute sie nach GT200 für so gut wie tot erklärte ;)

Das müssen sie auch wenn sie jetzt wieder vier Jahre weitgehend bei dem Design bleiben wollen.

Coda
2010-01-18, 07:56:58
Es ist auch kein Grund mich persönlich anzufahren nur weil ich nicht nur alles grün positiv sehe. Kritik muss auch erlaubt sein, ich habe rein sachliche Kritik angebracht, kein Grund jemanden deswegen anzugreifen.
Wenn die Kritik auch mal ausgewogen wäre hätte ich überhaupt kein Problem damit.

NV hat natürlich viel für die Zukunft getan keine Frage, aber ob sich das heute schon in dem Ausmaß lohnt muss sich erst zeigen.
Das kommt darauf an ob ATI das Rasterisierungs-Bottleneck in den Griff bekommt mit dem nächsten richtigen Chip. Das wird nämlich zunehmend das Problem (wie lang erzähl ich das jetzt eigentlich schon?), weshalb auch Spaßtigers Zahlenspielereien komplette Grütze sind. Vor allem da jetzt Tesselation ins Spiel kommt.

mapel110
2010-01-18, 08:06:08
http://www.anandtech.com/video/showdoc.aspx?i=3721&p=5
Versteh ich hier Anand richtig, dass CSAA nun auch bei transparenten Texturen wirkt im Gegensatz zum CSAA bei G80/G200?!

Coda
2010-01-18, 08:06:50
Ja, ist korrekt. Damit ist A2C richtig brauchbar. Leider hilft das nicht gegen sonstiges Flimmern.

mapel110
2010-01-18, 08:09:06
Ja, ist korrekt. Damit ist A2C richtig brauchbar.
Aber das wird nur DX10/DX11-Titel betreffen. Für DX9 brauchts weiterhin TMAA?!

Coda
2010-01-18, 08:09:35
TMAA ist A2C.

Gast
2010-01-18, 08:13:17
Danke nochmal an die Tester, dank denen gibts bessere 8xMSAA Performance und einen AA Schalter mit möglichst großer Zahl, 32xAA.

Ein gutes Beispiel, welche Macht die Presse doch hat.
Schade, das sie ihre Macht für solche Dinge nutzt und nicht um SSAA oder HQAF zu puschen.

reunion
2010-01-18, 08:16:08
http://www.anandtech.com/video/showdoc.aspx?i=3721&p=5
Versteh ich hier Anand richtig, dass CSAA nun auch bei transparenten Texturen wirkt im Gegensatz zum CSAA bei G80/G200?!

Was ist der Unterschied zu CSAA plus TMAA? Das jetzt auch das umstrittene CSAA anstatt reines MSAA bei Alpha-Texturen angewendet werden kann? Inwieweit das A2C richtig brauchbar macht kann man doch durchaus geteilter Meinung sein.

Coda
2010-01-18, 08:18:20
http://images.anandtech.com/reviews/video/NVIDIA/GF100/badgrass.jpghttp://images.anandtech.com/reviews/video/NVIDIA/GF100/goodgrass.jpg

Was gibt's da an "geteilter Meinung" zu sein?

numb
2010-01-18, 08:19:58
Klingt recht beeindruckend, da hat nvidia anscheinend recht viele Finten gelegt um die Konkurrenz zu verwirren. Wenn man mal davon ausgeht, dass "up tp 2x 285 Perfomance @ 8AA" des Fermi im Endeffekt auf 1,7-1,8 hinausläuft, liegt - wenn man z.b. das CB Rating als Maßstab nimmt, ein fiktiver HD 5890 allerdings in Reichweite.

Wird spannend

boxleitnerb
2010-01-18, 08:21:34
Kann jemand einem Laien wie mir bitte kurz erklären, welche Vorteile TSSAA noch ggü. diesem neuen CSAA hat?

reunion
2010-01-18, 08:22:21
http://images.anandtech.com/reviews/video/NVIDIA/GF100/badgrass.jpghttp://images.anandtech.com/reviews/video/NVIDIA/GF100/goodgrass.jpg

Was gibt's da an "geteilter Meinung" zu sein?

Jetzt fehlt nur noch MSAA als Vergleich. Der geteilte Meinung bin ich ganz einfach weil CSAA die Kanten nicht selten ausfranst, ob dass das bisschen Leistungsgewinn ggü. MSAA wert ist muss jeder selbst wissen. Auf mich wirkt das gerade bei Stromleistungen od. dgl. inhomogen.

Coda
2010-01-18, 08:22:52
Kann jemand einem Laien wie mir bitte kurz erklären, welche Vorteile TSSAA noch ggü. diesem neuen CSAA hat?
So gut wie keine mehr. 32 Samples sollten genug sein um jegliche Blockbildung von TMAA zu vermeiden.

CSAA verhält sich nur manchmal komisch. Ob das bei Fermi nicht auch gefixt ist wird sich zeigen.

Jetzt fehlt nur noch MSAA als Vergleich.
Links ist 8xMSAA mit A2C, rechts ist 32xCSAA mit A2C.

Der geteilte Meinung bin ich ganz einfach weil CSAA die Kanten nicht selten ausfranst, ob dass das bisschen Leistungsgewinn ggü. MSAA wert ist muss jeder selbst wissen.
Es gibt kein 32xMSAA das mit TMAA so gut funktioniert. Die 10% Hit nehme ich für den Unterschied mit Küssen hin.

Das die Kanten "ausfranzen" ist mir erstens nie aufgefallen und zweitens ist das ein Implementierungsdetail der G80-ROPs. Das kann genauso gut bei Fermi nicht mehr so sein. Das die Coverage-Samples jetzt auch für A2C zur Verfügung stehen zeugt aber auch hier von einer gründlichen Überarbeitung, da bin ich also sehr positiv gestimmt.

Ailuros
2010-01-18, 08:29:05
Was ist der Unterschied zu CSAA plus TMAA? Das jetzt auch das umstrittene CSAA anstatt reines MSAA bei Alpha-Texturen angewendet werden kann? Inwieweit das A2C richtig brauchbar macht kann man doch durchaus geteilter Meinung sein.

The second change is that the CSAA hardware can now participate in alpha to coverage testing, a natural extension of CSAA’s coverage testing capabilities. With this ability CSAA can test the coverage of the fake geometry in a billboard along with MSAA samples, allowing the anti-aliasing hardware to fetch up to 32 samples per pixel. This gives the hardware the ability to compute 33 levels of transparency, which while not perfect allows for much smoother gradients.

http://anandtech.com/video/showdoc.aspx?i=3721&p=5

Als ich kurz nach G80 herumfragte ob man nicht CSAA so verdrehen koennte damit man Transparency-AA nicht auf die Anzahl der MSAA samples begrenzt sondern auf CSAA sample Anzahl erweitert, sagten mir sehr viele dass es nicht technisch moeglich sei.

Diese Aenderung macht mir CSAA um einiges nutzvoller. Ein guter Grund fuer mich bis jetzt 8xMSAA zu benutzen waren gerade die Stellen wo unter starkem alpha test aliasing gelitten haben und hier macht dann 8xMSAA + 8x TAA insgesamt einen deutlicheren Unterschied gegen 4xMSAA + TAA eben auf den bekloppten alpha tests wo immer sie auftauchen.

Wenn ich jetzt 16xCSAA auf GF100 einschalte kann ich wohl (wenn ich's obrige nicht falsch verstanden habe) auch noch 16xTMAA dazuschalten und hab auf Vollbild eigentlich nur 4xMSAA und ergo 4x sample colour/z/stencil storage + auf adaptivem Nivaeu fuer die alpha tests nochmal 16x colour/z/stencil.

AnarchX
2010-01-18, 08:30:39
Hier nochmal die Seiten des Whitepapers zu den TMUs:
http://img197.imageshack.us/img197/2008/1001181407ac184361b265f.th.gif (http://img197.imageshack.us/i/1001181407ac184361b265f.gif/) http://img197.imageshack.us/img197/4117/1001181407a1b9234747734.th.gif (http://img197.imageshack.us/i/1001181407a1b9234747734.gif/)
http://bbs.chiphell.com/viewthread.php?tid=67323&extra=page%3D1

Also 4 TAs und 16 Texture-Fetches. Aber letzere kann man doch nicht einfach in 16 Texture-Filter übersetzen oder?

Coda
2010-01-18, 08:32:15
Ne kann man nicht. Man braucht für ein bilineares Sample 4 Fetches.

Aber wahrscheinlich ergeben sich bei AF (legitime) Optimierungen wenn man als Basisfilter nicht mehr bilineare Samples verwendet.

Gast
2010-01-18, 08:38:53
mal ne interessante Frage

In den Farcry2 Benchmark ist die 380 ja fast doppelt so schnell wie eine Gtx285.Wie schnell ist eine 5870 in diesem Benchmark?

AnarchX
2010-01-18, 08:39:51
Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.

http://img198.imageshack.us/img198/1584/gf10043z.jpg
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html

Ailuros
2010-01-18, 08:41:09
Ne kann man nicht. Man braucht für ein bilineares Sample 4 Fetches.

Aber wahrscheinlich ergeben sich bei AF (legitime) Optimierungen wenn man als Basisfilter nicht mehr bilineare Samples verwendet.

Wieso ueberhaupt Optimierungen? Trilinear im Gegensatz zu bilinear duerfte so "frei" wie nie sein.

Kannst Du mir mal das jittered sampling etwas einfacher erklaeren? Ich weiss zwar was jittered sampling ist, verstehe aber nicht ganz auf Anhieb was sie genau damit angestellt haben.

MadManniMan
2010-01-18, 08:41:35
Kurz zum Alphatest-AA: gibt's nen aktuellen Thread oder Artikel, der sich mit den Implementierungen (gern auch mit Bildern) auseinandersetzt? Mangels Performance hat mich das zuletzt kaum gejuckt ...

Ailuros
2010-01-18, 08:44:12
Kurz zum Alphatest-AA: gibt's nen aktuellen Thread oder Artikel, der sich mit den Implementierungen (gern auch mit Bildern) auseinandersetzt? Mangels Performance hat mich das zuletzt kaum gejuckt ...

Wieso? Transparency Multisampling hatte seit geraumer Zeit nur minimalen Leistungseinbruch und seit G80 etwas laenger auf Regalen stand eine gesunde qualitative Verbesserung. So gut dass Transparency Supersampling mehr als oefters ueberflussig war.

Gast
2010-01-18, 08:45:44
Warum muß eine Hardwareseite eine ATI Karte simulieren,haben die etwa keine da,nicht deren ernst,oder

AnarchX
2010-01-18, 08:47:18
Warum muß eine Hardwareseite eine ATI Karte simulieren,haben die etwa keine da,nicht deren ernst,oder
"Simuliert" bedeutet hier nur, dass die 5870 nicht im gleiche Testsystem wie die NV-Karten lief.

Gast
2010-01-18, 08:50:50
Ich storniere meine HD 5850 wieder. :D

tombman
2010-01-18, 08:51:17
Also, die FC2 und DarkVoid benchmarks sind schon mal "ouber". Da wird auch ein Cypress-Refresh nicht herankommen ;)

Sorgen macht mir nur, daß zum Release erstmal die 448-SP Krüppelkarten herauskommen könnten, die ich nicht haben wollte. Für mich würde das dann bedeuten, nochmal locker bis MAI warten zu müssen- not good :(

Rotti
2010-01-18, 08:52:25
hab mal überflogen bin aber nicht schlauer geworden.

kann mir jemand sagen, wann die neuen Nvidia Karten ca. kommen?
was werden sie kosten?

gibt es Karten, die im Segment der ATI 5770 anzusiedeln ist?

danke schon mal

mapel110
2010-01-18, 08:53:26
Also, die FC2 und DarkVoid benchmarks sind schon mal "ouber". Da wird auch ein Cypress-Refresh nicht herankommen ;)

Sorgen macht mir nur, daß zum Release erstmal die 448-SP Krüppelkarten herauskommen könnten, die ich nicht haben wollte. Für mich wüde das dann bedeuten, nochmal locker bis MAI warten zu müssen- not good :(
Es kommen sicher 512er Karten auch gleich am Start, sonst würde man nicht mit den Specs 2 Monate vorher nochmal rumwedeln.
Ist nur die Frage, wie es mit der Fertigung aussieht. Aber ein kleiner Aufpreis am Anfang stört dich ja nicht weiter. :)


kann mir jemand sagen, wann die neuen Nvidia Karten ca. kommen?
was werden sie kosten?

gibt es Karten, die im Segment der ATI 5770 anzusiedeln ist?

danke schon mal
Anfang März kommen zwei Modelle. High End und abgespecktes High End. Etwas Vergleichbares mit 5770 wird wohl noch ein paar weitere Monate auf sich warten lassen. Ergo wer jetzt nicht mehr als 130 € ausgeben will, greift zu ATI. Da lohnt ein halbes Jahr Warten sicher nicht.

Gast
2010-01-18, 08:55:56
Also, die FC2 und DarkVoid benchmarks sind schon mal "ouber". Da wird auch ein Cypress-Refresh nicht herankommen ;)

Ja, nur ist FC2 nicht gerade das Vorzeigespiel.

Mich interresieren Werte in STALKER CoP (auch @DX11), Risen, Crysis...

tombman
2010-01-18, 08:58:53
Es kommen sicher 512er Karten auch gleich am Start, sonst würde man nicht mit den Specs 2 Monate vorher nochmal rumwedeln.
Ist nur die Frage, wie es mit der Fertigung aussieht. Aber ein kleiner Aufpreis am Anfang stört dich ja nicht weiter. :)
500€ pro Karte sind schon mal FIX- glaube nicht, daß bei der Chipgröße drunter was gehen wird, schon gar nicht inkl. "Frühbucher"-Händlerabzocke :rolleyes:
Wahrscheinlich würde ich auch 2x 600€ für SLI zahlen- krank wie ich bin :ulol:
(anders wird man wohl nicht drankommen, siehe G80 Startpreise...)

Gast
2010-01-18, 09:01:03
Wie war das, zur Not reicht dir auch erstmal eine vollwertige Karte? ;)

=Floi=
2010-01-18, 09:01:22
der aufpreis stört nur, wenn er zu gering ist. :cool:


ein wenig schade finde ich die fehlenden vergleiche zur 5970er. die 380er sollte manchmal noch schneller sein, aber wirklich bestätigt wurde da noch nichts. das finde ich ein wenig schade, da die 5870er NIE die wirkliche konkurrenzkarte war. zumindest für mich. Eine 295er fehlt auch.

edit
500€ wird die karte auch wert sein. das ding wird ~2-3jahre locker halten und vom techlevel her sicherlich 4-5 jahre mithalten können.

tombman
2010-01-18, 09:01:39
Ja, nur ist FC2 nicht gerade das Vorzeigespiel.

Mich interresieren Werte in STALKER CoP (auch @DX11), Risen, Crysis...
Na mich ja auch, aber wir haben ja nix anderes derzeit.
Laut Gerüchten soll sich Fermi ja umso deutlicher von GT200 absetzen können, je neuer/komplexer das game ist- was gut für Crüsis wäre ;)

tombman
2010-01-18, 09:05:13
Wie war das, zur Not reicht dir auch erstmal eine vollwertige Karte? ;)
Naja, langsamer als jetzt will ich nicht werden, und 1x GTX380 wird ja wohl kaum 2x GTX295 schlagen- also brauch ich 2 Stück GTX380 :cool:

Krank wären 3x GTX380- mal sehen, ob ich das vermeiden kann *gnihihihihi* (Gott, würde das geil im case aussehen :eek:)

Ailuros
2010-01-18, 09:06:34
Nebenbei wenn ich den oben geposteten von AnarchX Graph sehe, beindruckt mich der durchschnittliche Wert von GF100 weniger als die minimalen Frameraten. Heiliger Bimbam wenn das sich auf mehrere Spiele uebertraegt.

Gast
2010-01-18, 09:15:46
Ich verstehe manche postings nicht.

Die neue NVidia soll, laut ABSOLUT ungesicherten infos, 20-40% oder sagen wir 40-60% schneller sein, als die ATI.
Manche schreien schon "zerstörung", POWNAGE usw.

Warum nur?:confused:

ATI produziert keine Highend karten mehr, sollte jedem bekannt sein.

Also VERNICHTET die HD 5870 die GTX 260 in der Mittelklasse und die GTX285 ist nach wie vor die Karte der Wahl und DIE Empfehlung für High-End-Zocker?
:ugly:

-carsten

Gast
2010-01-18, 09:20:34
kann es hier sein,dass den großen vorspring nur physx ausmacht?
d.h wenn es aus ist,wirds nichtmal ansatzweise so groß sein?

http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-44.jpg

Ailuros
2010-01-18, 09:26:22
kann es hier sein,dass den großen vorspring nur physx ausmacht?
d.h wenn es aus ist,wirds nichtmal ansatzweise so groß sein?

http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-44.jpg

Physics ist auf medium in dem Ding. Interessant waeren ebenso die high physics Resultate. Aber insgesamt glaube ich nicht dass physics mehr als 40% bringt gegenueber einer GTX285. Selbst NV behauptet nicht mehr.

V2.0
2010-01-18, 09:26:41
Nebenbei wenn ich den oben geposteten von AnarchX Graph sehe, beindruckt mich der durchschnittliche Wert von GF100 weniger als die minimalen Frameraten. Heiliger Bimbam wenn das sich auf mehrere Spiele uebertraegt.

Da liegt imho auch der wirkliche Knaller. Was man so hört haben die sich der meisten Bottlenecks angenommen und ein sehr ausbalanciertes Design geschaffen.

Ailuros
2010-01-18, 09:30:34
Da liegt imho auch der wirkliche Knaller. Was man so hört haben die sich der meisten Bottlenecks angenommen und ein sehr ausbalanciertes Design geschaffen.

Es wuerde mich hier interessieren wie im gleichen Fall die 5970 aussieht. Denn der 5870 Vergleich ist ehrlich gesagt weder vom Preis noch vom Stromverbrauch einer GF100 gerechtfertigt.

AnarchX
2010-01-18, 09:31:28
Wieso ueberhaupt Optimierungen? Trilinear im Gegensatz zu bilinear duerfte so "frei" wie nie sein.

Wie schon weiter oben klar gestellt, sind es 256 Texture-Fetches, die nur 64 Texture-Filter entsprechen.

Fraglich bleibt nur, wie Nvidia hier eine bis zu ~100% höhere Texturierungsleitung pro Texel erreicht hat.

Gast
2010-01-18, 09:35:15
Wieso ueberhaupt Optimierungen? Trilinear im Gegensatz zu bilinear duerfte so "frei" wie nie sein.

Kannst Du mir mal das jittered sampling etwas einfacher erklaeren? Ich weiss zwar was jittered sampling ist, verstehe aber nicht ganz auf Anhieb was sie genau damit angestellt haben.
Woher hast du das genau mit den 256 TFs? Ich glaube, da handelt es sich um eine Fehlinterpretation seitens Anand.

Schlammsau
2010-01-18, 09:35:30
Hat eine 5870 in FC2 wirklich nur einen so "kleinen" Vorsprung vor der GTX285?

mapel110
2010-01-18, 09:37:24
Hat eine 5870 in FC2 wirklich nur einen so "kleinen" Vorsprung vor der GTX285?
In 2560er Auflösung, ja.
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=10
An dem bisschen mehr VRam liegts auch nicht.

Botcruscher
2010-01-18, 09:40:28
Die Karte wird wie erwartet schnell aber ein paar aussagekräftige Werte hätten es dann doch sein dürfen...

reunion
2010-01-18, 09:45:27
In 2560er Auflösung, ja.
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=10
An dem bisschen mehr VRam liegts auch nicht.

Das ist aber sehr seltsam der der Abstand mit zunehmender Auflösung abnimmt. Da scheint es eher ein Treiberproblem bei AMD in der 2560-Auflösung zu geben, welches NV mit ihren sorgsam selektierten Benchs natürlich gezielt ausnützt.

AnarchX
2010-01-18, 09:45:30
Bei Hardocp kann man nochmal alle Folien und das komplette Whitepaper nachlesen:
http://www.hardocp.com/article/2010/01/17/nvidias_fermi_gf100_facts_opinions/1

Ailuros
2010-01-18, 09:46:10
Wie schon weiter oben klar gestellt, sind es 256 Texture-Fetches, die nur 64 Texture-Filter entsprechen.

Jetzt bin ich aber total verwirrt; GT200 ist auf jeden Fall nicht bei 256 texture fetches/clock. Bei Anand steht 64 TA / 256 TF und ja im Diagramm steht filtering fuer die 256.

Sampler count was out by 2x, so NV will need a > 1.6 GHz hot clock to beat a GTX 285 in peak possible texture performance, and there's a distinct lack of information about the sampler hardware in the latest whitepaper. Doing more digging there, but it looks like no change to texturing IQ other the ability to jitter the texcoords per sample during an unfiltered fetch.

http://forum.beyond3d.com/showpost.php?p=1381787&postcount=3436

Ich sehe aber auch keine Einzelheiten in Anand's Text ueber die Filterungs-Kapazitaeten einer GF100 TMU nur texture fetch Infos die um einiges hoeher sind als bei GT200.

mapel110
2010-01-18, 09:50:38
Das ist aber sehr seltsam der der Abstand mit zunehmender Auflösung abnimmt. Da scheint es eher ein Treiberproblem bei AMD in der 2560-Auflösung zu geben, welches NV mit ihren sorgsam selektierten Benchs natürlich gezielt ausnützt.
Nur scheint nvidia das "Treiberproblem" auch zu haben. SLI skaliert nicht mies und 2 GB VRam der GTX285 helfen auch kein Stück. Keine Ahnung, wo da der Flaschenhals ist.

V2.0
2010-01-18, 09:57:58
Es wuerde mich hier interessieren wie im gleichen Fall die 5970 aussieht. Denn der 5870 Vergleich ist ehrlich gesagt weder vom Preis noch vom Stromverbrauch einer GF100 gerechtfertigt.

Das ist beides so ein unglücklicher Vergleich. Dual-GPU vs. Single-Gpu ist immer so ein unangenehmer Vergleich, da gerade bei den Minimumframes das Spielgefühl doch ein ganz anderes. 30 FPS Single-GPU fühlt sich halt oft flüssiger an als 45FPS Dual-GPU. Beim Vergleich zur 5870 ist natürlich der PResiunterschied lächerlich.

Andererseits, wenn die GF100 die 5870 um sagen wir 80% schlägt, dann kommt eine GF104 (je nach Aufbau und Taktung) schon in den Bereich einer 5850.

Gast
2010-01-18, 10:06:51
ein bisschen Salz für den Zuckerguss:

http://forum.beyond3d.com/showpost.php?p=1381742&postcount=557


nVidia 的人已经默认这是真的,不过说频率应该还有一点空间,这应该是650M 448SP 的默认性能。512SP 的需要第二阶段放出,6月前应该没有了。

"Nvidia people already agree this is to be correct, only frequency to be a little bit of space, this is 650Mhz 448SP default performance. 512SP of requires a second stage to create, 6 months should not be available."


die 512 Shader GPUs brauchen anscheinend ein Bx-Stepping. Das wird dann noch bis zum Juni/Juli dauern bis wir die sehen (wenn das Posting stimmt).

AnarchX
2010-01-18, 10:09:43
Für die Enthusiasten sicherlich tragisch, aber für die Gesamtarchitektur wären diese Werte umso besser, wenn es wirklich nur eine 448SPs Version mit 650/1300MHz gewesen wäre.

V2.0
2010-01-18, 10:11:53
Juni/Juli für die 512SP Version, ist kein Zufall, wenn es denn stimmt und die jetzihen Werte wirklich von der 448SP Version stammen sollten.

James Ryan
2010-01-18, 10:15:52
Also GTX380 -> 448 SPs
GTX360 --> 384SPs(?)

GTX385 -> 512 SPs im Juni/Juli

Glaube ich ehrlich gesagt nicht dran! ;)

MfG :cool:

Ailuros
2010-01-18, 10:17:37
Das ist beides so ein unglücklicher Vergleich. Dual-GPU vs. Single-Gpu ist immer so ein unangenehmer Vergleich, da gerade bei den Minimumframes das Spielgefühl doch ein ganz anderes. 30 FPS Single-GPU fühlt sich halt oft flüssiger an als 45FPS Dual-GPU. Beim Vergleich zur 5870 ist natürlich der PResiunterschied lächerlich.

Wenn eine 5970 vergleichbare minimale Frameraten hat wie GF100, dann kann man wohl schwer von microrucklern in dem Fall reden.

Andererseits, wenn die GF100 die 5870 um sagen wir 80% schlägt, dann kommt eine GF104 (je nach Aufbau und Taktung) schon in den Bereich einer 5850.

Wenn GF104 der halbe Fermi ist und tatsaechlich bei 750MHz liegt, dann kann es durchaus zwischen Juniper und Cypress liegen. Es soll ja von dem Ding eine GTS340 und GTS350 geben, wobei ich persoenlich vermute dass die beiden sich bei den Frequenzen unterscheiden koennten. Denk nach: Du hast einen Schuss mehr ALUs als bei einer 285 mit ingesamt mehr vorteilhaften als nachteilhaften architektur-bedingten Erweiterungen einer 285 und noch stellenweise hoehere Frequenzen. Mit dem ganzen +/- koennte sich das Ding leicht unter der 5850 platzieren. Wenn der Preis attraktiv genug ist wird auch keiner meckern.

Dafuer braucht die GF100 auch nicht die 5870 um 80% schlagen, sonst wuerde sie auch einen ziemlich angenehmen Abstand ueber der 5970 haben.

Juni/Juli für die 512SP Version, ist kein Zufall, wenn es denn stimmt und die jetzihen Werte wirklich von der 448SP Version stammen sollten.

Dass die Leistungswerte von einer 448SP Version kommen will ich ernsthaft bezweifeln. Too good to be true.

Gast
2010-01-18, 10:22:48
Wenn eine 5970 vergleichbare minimale Frameraten hat wie GF100, dann kann man wohl schwer von microrucklern in dem Fall reden.

Vergleichbare gefühlte Fps-Raten oder vergleichbar angezeigte Fps-Raten? Ich glaube, Mikroruckeln ist ein immer noch unverstandenes Problem.

-carsten

Aquaschaf
2010-01-18, 10:22:55
Sieht positiv aus. Skeptisch stimmt mich nur noch das Fehlen von mehr real world Benchmarks. Auch wenn die TMU-Anzahl alleine nichts aussagt, aber das ist auch eine interessante Premiere: zum ersten Mal verbaut Nvidia in einer Generation weniger als ATI.

=Floi=
2010-01-18, 10:23:54
wie kommen die eigentlich auf diese 48 rops? sitzen diese dann im memory controller?
gibt es ein bild von fermi, wo alle details/bezeichnungen auf dem DIE eingezeichnet sind?

Gast
2010-01-18, 10:25:19
Dass die Leistungswerte von einer 448SP Version kommen will ich ernsthaft bezweifeln. Too good to be true.
Natürlich nicht. Ändert aber nichts daran, dass die 512er Variante vor B nicht im Handel erhältlich sein wird.
Fermi ist ein blitzsauberes Design, wenn man DFM mal ausblendet.

Raff
2010-01-18, 10:25:41
Vergleichbare gefühlte Fps-Raten oder vergleichbar angezeigte Fps-Raten? Ich glaube, Mikroruckeln ist ein immer noch unverstandenes Problem.

-carsten

Man sollte die AFR-Eingabeverzögerung bei dem ganzen MR-Rummel IMO niemals vergessen, denn die kommt noch dazu.

MfG,
Raff

reunion
2010-01-18, 10:27:04
Juni/Juli für die 512SP Version, ist kein Zufall, wenn es denn stimmt und die jetzihen Werte wirklich von der 448SP Version stammen sollten.

Wahrscheinlicher ist wohl eher das die Werte von der 512SP Version sind aber zu beginn trotzdem nur die 448SP Version kommt. NV zeigt hier sicherlich nicht schwächere Werte als nötig ohne das zu erwähnen.

Nightspider
2010-01-18, 10:29:53
Schade das wohl nix gegen Microruckler getan wurde.

Wird wohl weiterhin nur mit Software abgeschwächt...

Gast
2010-01-18, 10:32:07
Man sollte die AFR-Eingabeverzögerung bei dem ganzen MR-Rummel IMO niemals vergessen, denn die kommt noch dazu.

MfG,
Raff
Die kann ich (bei zwei GPUs) entweder durch Abschalten von Overdrive beim LCD oder durch Verwendung eines CRT auch wieder reinbekommen. :-) Wer ganz ohne Lag spielen will ist eh Profizocker und dreht die Grafik runter bis es nur noch Gouraud-Shading ist - und braucht daher kein MGPU-Setup.

-carsten

=Floi=
2010-01-18, 10:35:56
wie hoch ist der input lag?

reunion
2010-01-18, 10:37:10
Es wuerde mich hier interessieren wie im gleichen Fall die 5970 aussieht. Denn der 5870 Vergleich ist ehrlich gesagt weder vom Preis noch vom Stromverbrauch einer GF100 gerechtfertigt.

So ist es. Wobei ich auch interessiert bin wie es mit der Texturqualität aussieht. Bei 64 Samples ist das selbst bei >1Ghz keine herausragende Texelfüllrate. Mal sehen wie das die Verbesserungen ausgleichen können.

Gast
2010-01-18, 10:37:27
wie hoch ist der input lag?
+1/(GPUs-1)

-carsten

Raff
2010-01-18, 10:38:53
Die kann ich (bei zwei GPUs) entweder durch Abschalten von Overdrive beim LCD oder durch Verwendung eines CRT auch wieder reinbekommen. :-) Wer ganz ohne Lag spielen will ist eh Profizocker und dreht die Grafik runter bis es nur noch Gouraud-Shading ist - und braucht daher kein MGPU-Setup.

-carsten

Yep. Das summiert sich alles auf. Quad-GPU plus Overdrive-LCD und eventuell Funk-Peripherie = Inputlag direkt aus Luzifers Wohnzimmer. Stimmt schon, zwei GPUs sind am CRT viel angenehmer als am durchschnittlichen LCD.

MfG,
Raff

Ailuros
2010-01-18, 10:40:06
wie kommen die eigentlich auf diese 48 rops? sitzen diese dann im memory controller?
gibt es ein bild von fermi, wo alle details/bezeichnungen auf dem DIE eingezeichnet sind?

384bit / 64bit = 6 ROP partitions

8 ROPs/partition = 48 ROPs (und die ROP Anzahl wurde in diesem Thread schon vor einer Ewigkeit bestaetigt).

Geh zu hardOCP und schau Dir die slides und das whitepaper an.

reunion
2010-01-18, 10:41:04
Die kann ich (bei zwei GPUs) entweder durch Abschalten von Overdrive beim LCD oder durch Verwendung eines CRT auch wieder reinbekommen. :-) Wer ganz ohne Lag spielen will ist eh Profizocker und dreht die Grafik runter bis es nur noch Gouraud-Shading ist - und braucht daher kein MGPU-Setup.

-carsten

Werden nicht selbst mit nur einer GPU Minimum drei Bilder im voraus berechnet? Da sind die MR wohl das weitaus größere Problem.

Gast
2010-01-18, 10:41:27
+1/(GPUs-1)
Je mehr GPUs, desto weniger Lag? Wie soll das denn gehen???

AnarchX
2010-01-18, 10:43:46
Bei 64 Samples ist das selbst bei >1Ghz keine herausragende Texelfüllrate.
Es sind nur ~700MHz.

reunion
2010-01-18, 10:47:31
Es sind nur ~700MHz.

Ich dachte die liefen auf "hot-clock", was immer man darunter auch verstehen mag. Aber ich habe mir noch kaum was durchgelesen.

Ailuros
2010-01-18, 10:49:00
So ist es. Wobei ich auch interessiert bin wie es mit der Texturqualität aussieht. Bei 64 Samples ist das selbst bei >1Ghz keine herausragende Texelfüllrate. Mal sehen wie das die Verbesserungen ausgleichen können.

Es ist kein >1GHz so wie es aussieht. Die Mehrzahl der vorigen Einheiten die auf core Frequenz liefen (648MHz bei 285) laufen jetzt auf 1/2 hot clock unter diesen auch TMUs. ROPs u.a. sind eine der wenigen Einheiten die noch auf "core" Frequenz laufen werden. Nach NV's whitepaper laufen TMUs auf einer hoeheren als core Frequenz und spezifisch bei 1/2 hot clock. Koennte sein dass es 600-650MHz fuer ROPs sind, 725MHz fuer TMUs und 1450MHz fuer ALUs.

Mir ist die address Rate erstmal total wurscht. Wenn das Ding 8 INT8 bilperp/clock pro TMU von sich wirft (wobei nirgends die Filterungsrate erwaehnt oder sogar angedeutet wird) dann sehe ich auch kein Problem.

Gast
2010-01-18, 11:11:05
Je mehr GPUs, desto weniger Lag? Wie soll das denn gehen???
1 Frame pro GPU im AFR.

-carsten

Gast
2010-01-18, 11:11:54
Werden nicht selbst mit nur einer GPU Minimum drei Bilder im voraus berechnet? Da sind die MR wohl das weitaus größere Problem.
Dem stimme ich zu. Das Prerender-Limit kannst du aber teilweise beeinflussen.

-carsten

Ailuros
2010-01-18, 11:18:05
http://www.brightsideofnews.com/news/2010/1/18/nvidia-gf100-architecture-alea-iacta-est.aspx?pageid=0

Um Himmel's Willen Theo....arrghhh

reunion
2010-01-18, 11:23:34
"From the information we gathered from industry sources, the chip is around 240 x 238 millimeters in size i.e. expect a die size of around 570 mm2".

Das wird ja immer größer.

Nightspider
2010-01-18, 11:23:35
Dort steht der Chip kostet 150$, weiß man wieviel der R870 pro Chips kostet?

Ja ich weiß, die Platine ist alleine durch das breitere SI und die höhere VRAM Bestückung teurer.

Hoffentlich werden wieder ordentliche Bauteile verbaut. Spulenfiepen kann ich nicht gebrauchen aber das wird bestimmt auch wieder erst die Grafikkarten betreffen die auf geringe Kosten getrimmt sind.

Ailuros
2010-01-18, 11:29:35
"From the information we gathered from industry sources, the chip is around 240 x 238 millimeters in size i.e. expect a die size of around 570 mm2".

Das wird ja immer größer.

Der Artikel hat so viele Fehler dass es nicht mehr schoen ist.

As we have said earlier on tapeout, the GF100 Fermi is a 23.x * 23.x mm chip, we hear it is within a hair of 550mm^2.

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

Warum der die jetzt nicht ein Quadrat sein sollte ist merkwuerdig. Es wuerde mich aber nicht wundern wenn GF104 kein quadratischer die ist ;)

***edit:

Theo:

Getting back to Fermi silicon, nVidia was able to fit 130 chips on a single 300mm2 wafer, meaning we're talking about a bulk price of $38 per single GF100 silicon if the chip yields at 100%.

130 chips bei 571mm2

Charlie:

ATI gets over 160 chip candidates from a wafer, but Nvidia gets only 104.

104 chips bei 548mm2

Errr.....rennt mit dem Kopf gegen die Wand....Theo bekommt also mit einem groesserem die mehr chips pro wafer.

mapel110
2010-01-18, 11:33:15
http://www.hardware.fr/articles/782-1/nvidia-geforce-gf100-revolution-geometrique.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Farticles+%28HardWare.fr+-+Articles%29

http://www.abload.de/img/img002782873nc.png
Aber wohl nur spekulierte Werte. Muss erstmal Online-Übersetzer anwerfen

Gast
2010-01-18, 11:34:32
Errr.....rennt mit dem Kopf gegen die Wand....Theo bekommt also mit einem groesserem die mehr chips pro wafer.
Der Theo kann halt besser Tetris als der Charlie :D

reunion
2010-01-18, 11:34:49
Warum der die jetzt nicht ein Quadrat sein sollte ist merkwuerdig.

23.8mm x 24.0mm ist ja fast quadratisch. Wenn du dir das Die auf Seite 1 abmisst wirst du auch sehen das es nicht ganz quadratisch ist.

2B-Maverick
2010-01-18, 11:45:42
238mm x 240mm
und fast Schwimmbad-Größe :)
(sorry für OT, aber evtl. glaubts sonst noch jemand)

X.Perry_Mental
2010-01-18, 11:48:18
Theo:
130 chips bei 571mm2

Charlie:
104 chips bei 548mm2

Errr.....rennt mit dem Kopf gegen die Wand....Theo bekommt also mit einem groesserem die mehr chips pro wafer.

Theos 130 Chips bei 571mm2 passen nichtmals theoretisch auf einen Wafer (70.650mm2 pro 300mm-Wafer / 571mm2 = 123-komma-quetsch). Wenn man jetzt noch den Verschnitt einrechnet, landet man wohl bei Charlies 104 (oder zumindest in dem Bereich).

Ailuros
2010-01-18, 11:50:02
238mm x 240mm ist ja fast quadratisch. Wenn du dir das Die auf Seite 1 abmisst wirst du auch sehen das es nicht ganz quadratisch ist.

Beantwortet mir aber nicht wie Theo auf maximal 130 Kandidaten auf einem 300mm wafer und 571mm2 kommt, waehrend Charlie auf maximal 104 Kandidaten und 548mm2 kommt. Das Problem hat wohl eher der erste und dieses liegt zwischen dem Stuhl und dem calculator ;)

reunion
2010-01-18, 11:50:30
und fast Schwimmbad-Größe :)
(sorry für OT, aber evtl. glaubts sonst noch jemand)

Ja, das fehlt das Komma.

Spasstiger
2010-01-18, 12:02:19
Nvidia legt also den Grundstein für die nächsten Jahre und geht mit gleich vier Raster-Engines auf maximale Auslastung. Das lässt Luft für eine Verbreiterung der Architektur. Dass die max. Rechenleistung des GF100 nicht überragend sein wird im Vergleich zur Konkurrenz, ist ja schon seit der Fermi-Enthüllung bekannt. Außerdem nimmt man das Thema Direct3D 11 offenbar sehr ernst, Nvidia lehnt sich in Bezug auf die Tesselationsleistung ja sehr weit aus dem Fenster.
Überraschend auch die nur 64 TMUs, die dafür in einer anderen Taktdomäne laufen als die Raster-Engine und die ROPs.
8xMSAA profitiert vermutlich automatisch von den Architekturverbesserungen, in dieser Disziplin scheint man nun effizienter zu sein als die Konkurrenz.

Die wichtigen Infos für potentielle GF100-Käufer lassen aber noch auf sich warten: Konkrete Taktraten, Features (AA, AF), Leistungsaufnahme, Kühlung, Spieleperformance, Preise.
Schade, dass Nvidia außer Appetithäppchen nichts liefern kann. Aber es zeichnet sich ab, dass der GF100 für Enthusiasten und DX11-Spiele die erste Wahl sein wird.

http://www.hardware.fr/articles/782-1/nvidia-geforce-gf100-revolution-geometrique.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Farticles+%28HardWare.fr+-+Articles%29

http://www.abload.de/img/img002782873nc.png
Aber wohl nur spekulierte Werte. Muss erstmal Online-Übersetzer anwerfen
Da sind aber einige Fehler drin. Warum sollte eine Radeon HD 5970 einen geringeren Polygondurchsatz als eine Radeon HD 5870 und eine GeForce GTX 295 haben? Und imo müsste auch die HD 5870 einen höheren Polygondurchsatz als die GTX 295 haben, da die HD 5870 ja immerhin mit 850 MHz taktet (GTX 295: 576 MHz) und ebenfalls zwei Raster-Engines hat.
Die Texelfüllrate des GF100 kann auch nicht stimmen, wenn die TMUs mit mehr als 725 MHz takten.

Schlammsau
2010-01-18, 12:06:24
Schade, dass Nvidia außer Appetithäppchen nichts liefern kann. Aber es zeichnet sich ab, dass der GF100 für Enthusiasten und DX11-Spiele die erste Wahl sein wird.

Wurde auch nie angezweifelt.
Die Frage ist jetzt nur, zu welchem Preis nVidia dieses Monster auf den Markt schmeißen kann. Bei der Leistung tippe ich auf 600-800€!

0,1% der Spielerschaft werden sich das Teil dann schon gönnen. Aber was ist mit dem Rest?

AnarchX
2010-01-18, 12:10:53
Bei der Leistung tippe ich auf 600-800€!
Abseits von D3D11-Tesselation geht es sich wohl eher auf ~HD5970 aus, sodass man hier im März wohl kaum noch 800€ verlangen kann.



0,1% der Spielerschaft werden sich das Teil dann schon gönnen. Aber was ist mit dem Rest?
Für die steht mit GF104 Mitte 2010 wohl ein ~200€ Ableger bereit.

Ailuros
2010-01-18, 12:11:52
Wurde auch nie angezweifelt.
Die Frage ist jetzt nur, zu welchem Preis nVidia dieses Monster auf den Markt schmeißen kann. Bei der Leistung tippe ich auf 600-800€!

0,1% der Spielerschaft werden sich das Teil dann schon gönnen. Aber was ist mit dem Rest?

UeberLOL zum spekulierten Preis.

Schlammsau
2010-01-18, 12:21:56
UeberLOL zum spekulierten Preis.
Bei der spekulierten Leistung ist das ein überraus angemessener Preis!

Raff
2010-01-18, 12:22:51
Es zählt aber die praktische Leistung. Zumal Nvidia auch DX11-Marktanteile braucht und sich demnach an der Konkurrenz messen muss. Die können beim besten Willen keine 800 Euro verlangen.

MfG,
Raff

MoC
2010-01-18, 12:28:28
Bei der spekulierten Leistung ist das ein überraus angemessener Preis!

Lol das der Straßenpreis beim release bis zu 600€ hochgehen kann, ist ja ok....aber 800€ xD

Wär ja wie früher ne Geforce2Ultra nur das die hier noch Phüsics kann xD

Spasstiger
2010-01-18, 12:31:30
Bei der spekulierten Leistung ist das ein überraus angemessener Preis!
Es zeichnet sich die zweifache Performance einer GTX 285 in Spielebenchmarks ab. Dafür kann man derzeit rund 500-550€ verlangen.

reunion
2010-01-18, 12:35:12
Die wichtigen Infos für potentielle GF100-Käufer lassen aber noch auf sich warten: Konkrete Taktraten, Features (AA, AF), Leistungsaufnahme, Kühlung, Spieleperformance, Preise.
Schade, dass Nvidia außer Appetithäppchen nichts liefern kann. Aber es zeichnet sich ab, dass der GF100 für Enthusiasten und DX11-Spiele die erste Wahl sein wird.


NV hat offenbar viel Transistoren in eine zukünftige, gute Skalierung investiert. Das wird sich beim 28nm Refresh dann sicher mit weniger Aufwand bezahlt machen, aber das nützt ihnen heute nichts. Und da AMD eine neue Architektur mit 28nm plant kann es dann schon wieder ganz anders aussehen. Das die TDP bei 280W liegt scheint relativ sicher. Neue Features würde ich nicht mehr erwarten nachdem man den neuen CSAA-Modi ja schon vorgestellt hat, hier sind durch DX10/11 auch schlicht kaum Möglichkeiten vorhanden. Eine anderen Downsamplingfilter scheint man wohl nicht zu bringen.

Stehen und fallen wird das Design am Desktop mit der Spieleperformance. Bei der hohen Leistungsaufnahme und allen damit verbundenen Folgen erwartet man eine adäquaten Mehrwert. Hier bleibt NV mit der Aussage "bis zu 2x GTX285 bei 8xAA und hohen Auflösungen" sehr sehr wage. Nur mit hohen Geometriedaten alleine wird man die Leute wohl nicht überzeugen können. Ich bin gespannt wie es bei Benchs aussieht die nicht von NV speziell selektiert wurden. Denn so kann man fast jeden Chip in ein gutes Licht rücken.

reunion
2010-01-18, 12:35:52
Bei der spekulierten Leistung ist das ein überraus angemessener Preis!

Mit welcher Leistung spekulierst du denn? Ich habe bisher nichts gesehen das hier einen allgemeinen Schluss zulässt. Selbst beim Unigine-Benchmark hat man nur eine kurze Szene mit dem Drachen genommen die durch den hohen Tesslationsgrad extrem Geometrie-limitiert ist.

Gast
2010-01-18, 12:44:19
Und da AMD eine neue Architektur mit 28nm plant kann es dann schon wieder ganz anders aussehen.
nur wann wird es die geben? vor 2011 wohl kaum.

Spasstiger
2010-01-18, 12:50:31
Stehen und fallen wird das Design am Desktop mit der Spieleperformance. Bei der hohen Leistungsaufnahme und allen damit verbundenen Folgen erwartet man eine adäquaten Mehrwert. Hier bleibt NV mit der Aussage "bis zu 2x GTX285 bei 8xAA und hohen Auflösungen" sehr sehr wage. Nur mit hohen Geometriedaten alleine wird mit die Leute wohl nicht überzeugen können. Ich bin gespannt wie es bei Benchs aussieht die nicht von NV speziell selektiert wurden. Denn so kann man fast jeden Chip in ein gutes Licht rücken.
Das fällt hier sogar extrem auf. Nvidia liefert nur Benchmarks von Spezialfällen: Tesselation, Raytracing und 8xMSAA in einem Spiel, in dem NV mit 8xMSAA bislang abkackte.
Ein Querschnitt aus stinknormalen Spielebenchmarks wurde nicht abgeliefert, Pixelshaderbenchmarks zeigt NV auch nicht. Nur 1,4 TFlops FMA-Rechenleistung bei voraussichtlich 280 Watt TDP lassen sich nicht gut vermarkten gegenüber 4,6 TFlops und 294 Watt TDP bei der Konkurrenz (HD 5970). Für AMD wird das dagegen ein gefundenes Fressen sein. ;)

AnarchX
2010-01-18, 12:55:20
Vielleicht gibt es ja ähnlich wie beim Tesla-Whitepaper wieder eine Antwort von AMD.:D

Gast
2010-01-18, 12:57:21
Vielleicht auch mit so realitätsnahen Zahlen:D

Winter[Raven]
2010-01-18, 13:01:24
Ein Querschnitt aus stinknormalen Spielebenchmarks wurde nicht abgeliefert, Pixelshaderbenchmarks zeigt NV auch nicht. Nur 1,4 TFlops FMA-Rechenleistung bei voraussichtlich 280 Watt TDP lassen sich nicht gut vermarkten gegenüber 4,6 TFlops und 294 Watt TDP bei der Konkurrenz (HD 5970). Für AMD wird das dagegen ein gefundenes Fressen sein.

Abwarten, AMD kann sich nicht zuweit aus dem Fenster legen... Tflops != TFlops.... bei dämlichen Folien könnte es nach hinten losgehen.

AnarchX
2010-01-18, 13:06:08
Bei Hardware.fr geht man etwas genauer auf die TMUs sein:
In terms of flows, they remain broadly similar to units of the previous architecture when the filter whatever is used: 4x INT8 in 1 cycle, 4x FP16 in 2 cycles, 4x FP32 in 4 cycles. By cons without filtering, the FP16 and INT16 pass at full speed, Nvidia have noticed that the loading of textures unfiltered (or need a special filter made in the shader) became more common. An inexpensive optimization in terms of transistors but can double the flow in some cases. By cons formats HDR low quality, 32-bit, such as R9G9B9E5 and R10G10B10A2 are always treated with the same speed as the FP16, whereas according to our results, AMD has changed its units with the Radeon HD 5000 for treating at full speed.
http://www.hardware.fr/articles/782-5/nvidia-geforce-gf100-revolution-geometrique.html

reunion
2010-01-18, 13:06:14
Das fällt hier sogar extrem auf. Nvidia liefert nur Benchmarks von Spezialfällen: Tesselation, Raytracing und 8xMSAA in einem Spiel, in dem NV mit 8xMSAA bislang abkackte.
Ein Querschnitt aus stinknormalen Spielebenchmarks wurde nicht abgeliefert, Pixelshaderbenchmarks zeigt NV auch nicht. Nur 1,4 TFlops FMA-Rechenleistung bei voraussichtlich 280 Watt TDP lassen sich nicht gut vermarkten gegenüber 4,6 TFlops und 294 Watt TDP bei der Konkurrenz (HD 5970). Für AMD wird das dagegen ein gefundenes Fressen sein. ;)

Eben. AMD könnte genau so gut shaderlimitierte Fälle benchen wo selbst eine 5870 jeder Fermi-Karte weit davon rennt. Über die durchschnittliche Spieleleistung sagt das genau so wenig aus. Hier sehe ich schon noch ein großes Fragezeichen.

dildo4u
2010-01-18, 13:06:40
Der große DX11 Hype ist doch Tessellation und nur dort werden die neuen Karten wirklich gefordert.Die meisten Games auch in den nästen 2 Jahren werden Konsolengames sein,die maximal Tessellation drauf gesetzt bekommen,siehe Dirt 2,Alien vs Predator 3 etc.Und genau dort zerstört GF100 auch eine 5870.Und dadurch werden die Preise zumindest bei AMD endlich brauchbar für Aufrüster wenn man keine 300€+ ausgeben will.Shaderleistung ist nicht sher gefragt so lange es keine neuen Konsolen gibt.

Gast
2010-01-18, 13:10:52
Eben. AMD könnte genau so gut shaderlimitierte Spezialfälle konstruieren wo selbst eine 5870 jeder Fermi-Karte weit davon rennt. Über die durchschnittliche Spieleleistung sagt das genau so wenig aus. Hier sehe ich schon noch ein großes Fragezeichen.
wo konstruiert denn nvidia was?

tombman
2010-01-18, 13:12:35
Wenn man den Unterschied im FC2 bench hernimmt und ihn auf Crysis Warhead überträgt (cb 19x12,4/16 als Quelle), dann landet Fermi genau zwischen HD5870 und HD5970 :D

deekey777
2010-01-18, 13:12:48
Der große DX11 Hype ist doch Tessellation und nur dort werden die neuen Karten wirklich gefordert.Die meisten Games auch in den nästen 2 Jahren werden Konsolengames sein,die maximal Tessellation drauf gesetzt bekommen,siehe Dirt 2,Alien vs Predator 3 etc.Und genau dort zerstört GF100 auch eine 5870.Und dadurch werden die Preise zumindest bei AMD endlich brauchbar für Aufrüster wenn man keine 300€+ ausgeben will.
Zeigst du bitte einige Benchmarks, wo man sieht, wie der GF100 (welche Ausbaustufe?) die HD5870 "zerstört"?

Das einzige Ziel, das Nvidia in der letzten Zeit bis zum Erscheinen der GTX360/380 verfolgt, ist, die potentiellen Käufer vom Kauf einer DX11-Radeon abzuhalten.

joehler
2010-01-18, 13:15:16
Mir ist die 8800 GTX abgeraucht. Jetzt bin ich aber nach den guten Argumenten hier eher unsicher, ob ich eine billige Karte zur Überbrückung kaufen soll bis die nVidia GF100 erscheint oder lohnt sich das nicht und ich soll eher die ATI 5870 kaufen?

Was ist Zukunftsicherer? Ich hatte noch nie eine ATI. Würde die 5870 bei den aktuellen Spielen wie z.B. Batman AA oder Mirror Edge wegen Physx Probleme machen?

JOEHLER

dildo4u
2010-01-18, 13:16:08
Zeigst du bitte einige Benchmarks, wo man sieht, wie der GF100 (welche Ausbaustufe?) die HD5870 "zerstört"?


Abschnitt 23-29 sec sehr hohe Geometrylast?

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOF9sLmdpZg==

MS SDK

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOV9sLmdpZg==

Nix davon kommt direkt von Nvidia also keine NV Techdemo.

Spasstiger
2010-01-18, 13:18:12
Wenn man den Unterschied im FC2 bench hernimmt und ihn auf Crysis Warhead überträgt (cb 19x12,4/16 als Quelle), dann landet Fermi genau zwischen HD5870 und HD5970 :D
Ich habs noch nicht ausgesprochen, aber genau dasselbe denke ich auch. Die HD 5970 ist eine Nummer zu groß für die GTX 380, aber die HD 5870 wird man souverän schlagen können.

AnarchX
2010-01-18, 13:18:29
Wenn man den Unterschied im FC2 bench hernimmt und ihn auf Crysis Warhead überträgt (cb 19x12,4/16 als Quelle), dann landet Fermi genau zwischen HD5870 und HD5970 :D
Wobei in Crysis sich die HD5800 etwas deutlicher abheben von GTX 200 als in FC2, sodass GF100 nur knapp vor einer 5870 läge.

Aber vielleicht haben ja auch die Chinesen recht, und es ist momentan nur ein 448SPs 650/1300MHz GF100, der in Crysis bis zu 60% schneller ist als die HD5870. Wo ein 512SPs 725/1450MHz GF100 nochmal etwas drauflegen könnte. :D

Gast
2010-01-18, 13:18:47
Mir ist die 8800 GTX abgeraucht. Jetzt bin ich aber nach den guten Argumenten hier eher unsicher, ob ich eine billige Karte zur Überbrückung kaufen soll bis die nVidia GF100 erscheint oder lohnt sich das nicht und ich soll eher die ATI 5870 kaufen?

Was ist Zukunftsicherer? Ich hatte noch nie eine ATI. Würde die 5870 bei den aktuellen Spielen wie z.B. Batman AA oder Mirror Edge wegen Physx Probleme machen?

JOEHLER

hallo joehler,
zukunftsicherer was ein begriff bei pc hardware...
eine 5870 ist schnell und man kann sie bestellen.
eine GF100 wird schnell sein aber die wirst du dir vor Mai nicht leisten können.
also was willst du ?

reunion
2010-01-18, 13:19:56
wo konstruiert denn nvidia was?

Ist die Frage erst gemeint? Raytracing-, Geometrieshader-, Tesslations, Gather4-, PhysX-Benchs. Plus ein Spielebench wo andere Karten in 2560er Auflösung warum auch immer eingehen, vermutlich auch Geometrielimitiert.

deekey777
2010-01-18, 13:20:19
Abschnitt 23-29 sec sehr hohe Geometrylast?

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOF9sLmdpZg==

MS SDK

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOV9sLmdpZg==

Nix davon kommt direkt von Nvidia also keine NV Techdemo.
Das SDK interessiert keine Sau.
Warum bringst du den Heaven-Benchmark ins Spiel? Und was hast du überhaupt gezeigt? Eine Folie von Nvidia? Wow. Super!

reunion
2010-01-18, 13:20:42
Aber vielleicht haben ja auch die Chinesen recht, und es ist momentan nur ein 448SPs 650/1300MHz GF100, der in Crysis bis zu 60% schneller ist als die HD5870. Wo ein 512SPs 725/1450MHz GF100 nochmal etwas drauflegen könnte. :D

NV wird bei solchen Folien mit Sicherheit keine abgespeckte Karte abbilden, noch dazu ohne es zu erwähnen. Darauf gebe ich dir Brief und Siegel.

V2.0
2010-01-18, 13:21:06
Mir ist die 8800 GTX abgeraucht. Jetzt bin ich aber nach den guten Argumenten hier eher unsicher, ob ich eine billige Karte zur Überbrückung kaufen soll bis die nVidia GF100 erscheint oder lohnt sich das nicht und ich soll eher die ATI 5870 kaufen?

Was ist Zukunftsicherer? Ich hatte noch nie eine ATI. Würde die 5870 bei den aktuellen Spielen wie z.B. Batman AA oder Mirror Edge wegen Physx Probleme machen?

JOEHLER

Die 5870 ist ein sehr gute karte und sie wird durch Fermi, der sowieos bis Sommer nur kaum zu bekommen sein wird, nicht schlechtet.

Gast
2010-01-18, 13:21:21
Abschnitt 23-29 sec sehr hohe Geometrylast?

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOF9sLmdpZg==

MS SDK

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8xOV9sLmdpZg==

Nix davon kommt direkt von Nvidia also keine NV Techdemo.

Ja genau. Sonst gibt's ja nichts in Games, was einen Grafikprozessor belastet. Mach ne Pause und lass deine offensichtliche Präferenz im Keller.

AnarchX
2010-01-18, 13:22:45
NV wird bei solchen Folien mit Sicherheit keine abgespeckte Karte abbilden, noch dazu ohne es zu erwähnen. Darauf gebe ich dir Brief und Siegel.
Auf den Folien taucht aber auch der FarCry2-Vergleich auch nicht auf.

Gast
2010-01-18, 13:23:16
Ist die Frage erst gemeint? Raytracing-, Geometrieshader-, Tesslations-Benchs. Plus ein Spielebench wo andere Karten in 2560er Auflösung warum auch immer eingehen, vermutlich auch Geometrielimitiert.
Bei Raytracing gibt es keine Vergleiche mit ATI, der Rest sind normale Demos und/oder Spiele, da ist doch nix konstruiert. Das man sich natürlich die Rosinen rauspickt ist klar (ATI zeigt ja auch immer die 8xAA Benchmarks ;)), aber das ist doch nicht konstruiert.

reunion
2010-01-18, 13:26:22
Bei Raytracing gibt es keine Vergleiche mit ATI, der Rest sind normale Demos und/oder Spiele, da ist doch nix konstruiert. Das man sich natürlich die Rosinen rauspickt ist klar (ATI zeigt ja auch immer die 8xAA Benchmarks ;)), aber das ist doch nicht konstruiert.

Dazu kommen noch Gather4- und Physik-Werte. Es ist nicht alles konstruiert, aber zT sehr wohl. Auch wenn der Ausdruck vielleicht so allgemein etwas übertrieben war, ich habe es editiert. Es scheinen jedenfalls alles Benchs zu sein wo wohl vorallem die Geometrierate entscheidend ist. Das man die Rosinen rauspickt ist hier halt sehr offensichtlich wenn man praktisch keine normalen Spiele vergleichen will.

Gast
2010-01-18, 13:26:49
Bei Raytracing gibt es keine Vergleiche mit ATI, der Rest sind normale Demos und/oder Spiele, da ist doch nix konstruiert. Das man sich natürlich die Rosinen rauspickt ist klar (ATI zeigt ja auch immer die 8xAA Benchmarks ;)), aber das ist doch nicht konstruiert.

kann mir mal einer, auch nur EINER, erklären warum wenn die karte wirklich so schnell wäre die grossen hardwareseiten keine test samples bekommen um mit den daraus resultierenden blendenden zahlen die werbetrommel für nvidia's upcoming generation zu rühren? ich verstehe das überhaupt nicht

dildo4u
2010-01-18, 13:31:08
Ich habs noch nicht ausgesprochen, aber genau dasselbe denke ich auch. Die HD 5970 ist eine Nummer zu groß für die GTX 380, aber die HD 5870 wird man souverän schlagen können.
GT300 wird genau dort wo die FPS gebraucht werden Tesslation schneller sein.Ohne Tesslation gibt's eh massig fps in alles Lagen nur bei GF100 ohne MR Profile etc.

MiamiNice
2010-01-18, 13:31:15
Kommen jetzt die ganzen ATI Usern aus den Löchern, denen so langsam der Arsch auf Grundeis geht, oder warum wird der Ton hier im Thread so giftig?

Blaire
2010-01-18, 13:32:29
Gibts irgendwo Crysis Scores zu bestaunen?

reunion
2010-01-18, 13:34:17
Kommen jetzt die ganzen ATI Usern aus den Löchern, denen so langsam der Arsch auf Grundeis geht, oder warum wird der Ton hier im Thread so giftig?

Für einen sehr ähnlichen Kommentar wurden schon rote Karten verteilt.

Gibts irgendwo Crysis Scores zu bestaunen?

Nein.

Gast
2010-01-18, 13:36:37
kann mir mal einer, auch nur EINER, erklären warum wenn die karte wirklich so schnell wäre die grossen hardwareseiten keine test samples bekommen um mit den daraus resultierenden blendenden zahlen die werbetrommel für nvidia's upcoming generation zu rühren? ich verstehe das überhaupt nicht
Ist doch alles nur FUD. AMD könne genausogut Folien mit den Werten einer hypothetischen 2GHz 890 verteilen. Die käme auch nicht später und wäre auch nicht weniger retailtauglich.

Gast
2010-01-18, 13:37:30
Grundeis is doch unbegründet, spricht bisher eigentlich nichts dafür, dass die Fermi außerhalb der Reichweite (<=10%) einer HD 5890 liegt.

RoNsOn Xs
2010-01-18, 13:39:34
wie viele hier die rosinen wieder als standard/durchschnitt nehmen... oh man.
da kann ich als nvidia-user nur sympathie für ati entwickeln.

mapel110
2010-01-18, 13:40:30
Gibts irgendwo Crysis Scores zu bestaunen?
Nur in einer NV-Folie, wo es um Texturleistung geht. Und da ist GF100 1,7mal so schnell wie GT200.

btw auf einer Veranstaltung vor ein paar Tagen hat nvidia eine GF100-Karte verschenkt/verlost. Wäre nett, wenn derjenige was an Infos ins Netz stellen würde. ^^

tombman
2010-01-18, 13:41:30
Langsamer als eine HD5870 wirds wohl kaum werden, ansonsten können sie 500€ und co vergessen ;)

Das reicht für mich aus, um nicht ATI nehmen zu müssen. Das schlimmste, was passieren kann, ist, daß ich statt 2x Fermi 3x Fermi nehmen muß...

Gast
2010-01-18, 13:43:50
Nur in einer NV-Folie, wo es um Texturleistung geht. Und da ist GF100 1,7mal so schnell wie GT200.

Das ist App-State-Bucket: Ein Teil eines einzelnen Frames, der wahrscheinlich besonders passend für das ist, was man darstellen will. Cherry-Picking at it's best.

-carsten

dildo4u
2010-01-18, 13:43:54
Nur in einer NV-Folie, wo es um Texturleistung geht. Und da ist GF100 1,7mal so schnell wie GT200.

btw auf einer Veranstaltung vor ein paar Tagen hat nvidia eine GF100-Karte verschenkt/verlost. Wäre nett, wenn derjenige was an Infos ins Netz stellen würde. ^^
Ebend es wurde mher als nur FC2 an Games gebencht.Das ganze kann man sich mit GTX285 vs 5870 Benches zusammensuchen.

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8yNV9sLmdpZg==&ref=aHR0cDovL3d3dy5oYXJkb2NwLmNvbS9pbWFnZS5odG1sP2ltYWdlPU1USTJNell3T0RJeE5IaDRW SE4wZWtSdWMyUmZNVjh5TTE5c0xtZHBaZz09JnJlZj1hSFIwY0RvdkwzZDNkeTVvWVhKa2IyTndMbU52 YlM5cGJXRm5aUzVvZEcxc1AybHRZV2RsUFUxVVNUSk5lbGwzVDBSSmVFNUlhRFJXU0U0d1pXdFNkV015 VW1aTlZqaDVUVlk1YzB4dFpIQmFaejA5Sm5KbFpqMWhTRkl3WTBSdmRrd3paRE5rZVRWdldWaEthMkl5 VG5kTWJVNTJZbE01Y0dKWFJtNWFVelZ2WkVjeGMxQXliSFJaVjJSc1VGVXhWVk5VU2s1bGJHd3pWREJT U21WRk5VbGhSRkpYVTBVMGQxcFhkRk5rVjAxNVZXMWFUbFpxYURSVU1WazFZekI0ZEZwSVFtRmFlakE1 U201S2JGcHFNV2hUUmtsM1dUQlNkbVJyZDNwYVJFNXJaVlJXZEZscVRrdE5WMHBVVFVod1lWSXdOWE5a YlRWVFlrZE9jRTVZV21waVYwNHlXa2N4UzAxWFNraGxSM2hyVWpKNE1WUkVUazlpTWtsNldrUkNhRk5G Y0hOWFZtUlNaRmRPU0dGSVpGRk5NRVUxVkc1d2FrNUZPVVZWVkZKUFZWUXdPUT09

Gast
2010-01-18, 13:46:31
@tombman: Na dann viel Spaß beim Warten! Hast du schonmal eine DX Version ausgelassen? :D

V2.0
2010-01-18, 13:47:37
Was soll das ganze Drama. Wir kennen nun einige Werte die NV mit Bedacht gewählt hat. Manche sehen auf dne ersten Blick eindrucksvoll aus, andere weniger.

AnarchX
2010-01-18, 13:49:12
Dave Baumann zur Erhöhung des Geometriedurchsatzes:
Our modelling suggests that, at best increasing the primitive rate buys about 2% on current apps. We spent the area elsewhere.
http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635

V2.0
2010-01-18, 13:51:12
Was soll er auch sonst sagen.

Gast
2010-01-18, 13:51:51
Dave Baumann zur Erhöhung des Geometriedurchsatzes:

http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635
Das nennt man dann wohl FUD :D

reunion
2010-01-18, 13:53:04
http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8yNV9sLmdpZg==&ref=aHR0cDovL3d3dy5oYXJkb2NwLmNvbS9pbWFnZS5odG1sP2ltYWdlPU1USTJNell3T0RJeE5IaDRW SE4wZWtSdWMyUmZNVjh5TTE5c0xtZHBaZz09JnJlZj1hSFIwY0RvdkwzZDNkeTVvWVhKa2IyTndMbU52 YlM5cGJXRm5aUzVvZEcxc1AybHRZV2RsUFUxVVNUSk5lbGwzVDBSSmVFNUlhRFJXU0U0d1pXdFNkV015 VW1aTlZqaDVUVlk1YzB4dFpIQmFaejA5Sm5KbFpqMWhTRkl3WTBSdmRrd3paRE5rZVRWdldWaEthMkl5 VG5kTWJVNTJZbE01Y0dKWFJtNWFVelZ2WkVjeGMxQXliSFJaVjJSc1VGVXhWVk5VU2s1bGJHd3pWREJT U21WRk5VbGhSRkpYVTBVMGQxcFhkRk5rVjAxNVZXMWFUbFpxYURSVU1WazFZekI0ZEZwSVFtRmFlakE1 U201S2JGcHFNV2hUUmtsM1dUQlNkbVJyZDNwYVJFNXJaVlJXZEZscVRrdE5WMHBVVFVod1lWSXdOWE5a YlRWVFlrZE9jRTVZV21waVYwNHlXa2N4UzAxWFNraGxSM2hyVWpKNE1WUkVUazlpTWtsNldrUkNhRk5G Y0hOWFZtUlNaRmRPU0dGSVpGRk5NRVUxVkc1d2FrNUZPVVZWVkZKUFZWUXdPUT09

Warum ist bei 1.2 bei der Texturleistung ein roter Strich? Auch wenn die State Buckets ohnehin fast wertlos sind.

tombman
2010-01-18, 13:53:15
Dave Baumann zur Erhöhung des Geometriedurchsatzes:

http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635
Das ist eben der Unterschied: ATI denkt an JETZT, und Nvidia an die ZUKUNFT ;)

ATI ist doch nur Mitläufer, Nvidia Innovator ;)

deekey777
2010-01-18, 13:54:11
Dazu kommen noch Gather4- und Physik-Werte. Es ist nicht alles konstruiert, aber zT sehr wohl. Auch wenn der Ausdruck vielleicht so allgemein etwas übertrieben war, ich habe es editiert. Es scheinen jedenfalls alles Benchs zu sein wo wohl vorallem die Geometrierate entscheidend ist. Das man die Rosinen rauspickt ist hier halt sehr offensichtlich wenn man praktisch keine normalen Spiele vergleichen will.
Gather4? Woher kenne ich das? Hm...
Es ist schon mutig, etwas so zu pushen, das die Radeons seit Herbst 2005 beherrschen, zum Bestandteil von D3D10.1 gehört und in vielen Spielen genutzt wird. Und dazu noch ein Bild aus 3DMark 2006.

Aber eigentlich meinen sie die Weiterentwicklung des Gather4: Gather().

reunion
2010-01-18, 13:58:03
Das ist eben der Unterschied: ATI denkt an JETZT, und Nvidia an die ZUKUNFT ;)

ATI ist doch nur Mitläufer, Nvidia Innovator ;)

Ja lol, es gab genug NV-Chips in der Vergangenheit die kurz nach ihrer Lebenszeit extrem abgekackt sind. Diesmal ist es allerdings durchaus möglich das NV mit mehr Zukunftssicherheit aufwarten kann, wobei das wohl bei einem Enthusiasten wie dir kaum von Belang sein sollte.

Dural
2010-01-18, 14:00:27
soll ich schon mal die zitate von gewissen leuten raus suchen? :freak:

was gabe es nur alles zb. 30% vor einer GTX285 oder gleich schnell wie eine 5870 ROLFT


ATI ist doch nur Mitläufer, Nvidia Innovator ;)

jep ist einfach so, zum glück hab ich meine 5870 letzte woche verkauft...

Ailuros
2010-01-18, 14:01:37
Was soll er auch sonst sagen.

Wenn schon die offizielle AMD PR Linie darin liegt dass die 380 in Sachen die area/Transistoren/Preis/Stromverbrauch eher mit Hemlock vergleichbar ist, eine Option waere daran zu erinnern dass Hemlock 4 raster Einheiten hat, ueber 2 Tris/clock faehig ist (marketing koennte es ja nochmal zu 4 Tris/clock hochdrehen) und zumindest 1.7Mrd. tris/clock :D

Warum ist bei 1.2 bei der Texturleistung ein roter Strich? Auch wenn die State Buckets ohnehin fast wertlos sind.

Womoeglich hat jemand an der falschen Stelle (anstatt 1.0) die rote Linie gezogen.

mapel110
2010-01-18, 14:01:44
Ja lol, es gab genug NV-Chips in der Vergangenheit die kurz nach ihrer Lebenszeit extrem abgekackt sind.
Wegen Performance, nicht durch Features. Das wenige, was ATI unterstützt, machen sie in der Regel performant, ja. Aber seit DX10 gibts ja keine Ausflüchte mehr bei Features. Abwarten, wie sich das mit der Zukunftssicherheit bei ATI entwickelt.

V2.0
2010-01-18, 14:03:23
Wenn schon die offizielle AMD PR Linie darin liegt dass die 380 in Sachen die area/Transistoren/Preis/Stromverbrauch eher mit Hemlock vergleichbar ist, eine Option waere daran zu erinnern dass Hemlock 4 raster Einheiten hat, ueber 2 Tris/clock faehig ist (marketing koennte es ja nochmal zu 4 Tris/clock hochdrehen) und zumindest 1.7Mrd. tris/clock :D


Das wird Charlie schon noch machen.

Ailuros
2010-01-18, 14:07:06
Bei der spekulierten Leistung ist das ein überraus angemessener Preis!

Ach und wer und warum hat genau die Leistung ueber einer Hemlock angelegt? Ich auf jeden Fall nicht.

Spasstiger
2010-01-18, 14:07:14
soll ich schon mal die zitate von gewissen leuten raus suchen? :freak:

was gabe es nur alles zb. 30% vor einer GTX285 oder gleich schnell wie eine 5870 ROLFT
Das war nach der Tesla-Vorstellung, als NV mit extrem niedrigen Taktraten Ernüchterung verbreitete. Ich persönlich hab mich zu dem Zeitpunkt ernüchtert geäußert, wobei ich stets dazuschreibe, unter welchen Bedingungen ich welche Performance erwarte. Sowas wird gerne überlesen und beim Zitieren weggelassen, wenn die eigene Meinung ins Lächerliche gezogen werden soll.
Die GeForce-Varianten scheinen diesmal deutlich höher zu takten als die Tesla-Varianten, weshalb auch die Performance der neuen GeForces ordentlich ausfallen dürfte.

derguru
2010-01-18, 14:07:37
die pr folien über tess sind halt pr und sonst nichts.

wieso haben die denn nicht z.b. stalker dx11 bench dafür genommen gehabt wenn die unter dx11 abgehen soll wie schmitz katz.

oder noch besser wieso gab es kein far cry2 unter 8x msaa wenn die das schon als benchmark nehmen,ne man muss sich ja ein spiel aussuchen wo die alte generation derbe einbricht unter 8x mssaa wie bei HAWX halt.

oder nur ein 60 sek. snapshot von Unigine ,war die zeit zu knapp oder was war los.

das ist auch gut,
Allgemein: bis zu 2x bei 8xAA und hoher Auflösung in Spielen

wenn der speicher ausgeht oder was?

am ende kommt eine 60-70% zur alten generation also alles wie gehabt abgesehen von kleineren sprüngen bei 8x msaa.
also doch wie immer nur halt mit einem extrem hohen stromverbrauch.
~30% über 5870 sollten es werden,tut ehrlich gesagt nicht weh.:wink: