PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

reunion
2010-01-09, 11:28:31
Mittlerweile werden die Stromanschlüsse offensichtlich zugeklebt:

http://img64.imageshack.us/img64/4408/425282072143f3f3141eo28.jpg

Gast
2010-01-09, 11:33:40
Man könnte jetzt wieder sagen: "Nvidia will nicht dass falsche Gerüchte aufkommen".
Aber ich galube das nicht mehr :(

V2.0
2010-01-09, 11:42:51
Ein Zeichen für eine Theorie ist es allemal. Ob es wirklich so ist werden wir bald wissen. Und sorry Floi, aber es passt halt alles zusammen: Die Tesla-Karten mit zwei deaktivierten Clustern und niedrigen Taktraten bei einer TDP-Angabe von <=225W, die Berichte von Gehäusehersteller über heiße Karten und thermische Probleme, die Angaben von Fuad über die heiße und laute Fermi-Karte, der 6+8-Pin Stromanschluss. Fix ist nix, aber es würde mich mittlerweile schon sehr wundern wenn sich Fermi plötzlich als Stromsparwunder präsentieren würde.

Stromsparwunder sicher nicht und der Verbrauch wird wahrscheinlich über GTX280 liegen, aber das ist dann auch noch viel Spielraum zu 300W.

=Floi=
2010-01-09, 11:43:10
die bilder sind sooo schlecht. die haben alle 10+ mp spiegelreflexkameras für x-tausend € und die bilder sind dann der letzte rotz. ist ot, aber das muß ich hier mal loswerden. CB ist da auch ganz weit vorne dabei und im vergleich dazu ist es beeindruckend, wenn user wie chrisch und andere user bilder machen wie aus dem studio!

gibt es eigentlich auch testsysteme mit einem amd (oder 1156er) prozessor? bisher ist nur der X58 zu sehen.

edit
das ist auch so ein schlimmer fall/fail:
http://www.computerbase.de/artikel/hardware/mainboards/2009/test_p55-boards_asus_intel_msi/7/#abschnitt_msi_p55gd65
es deutet nicht gerade auf kompetenz hin, wenn man solche bilder zu sehen bekommt.

The Dark Night ;D (http://www.computerbase.de/bildstrecke/27479/54/)

reunion
2010-01-09, 11:45:03
Stromsparwunder sicher nicht und der Verbrauch wird wahrscheinlich über GTX280 liegen, aber das ist dann auch noch viel Spielraum zu 300W.

Ich habe ja nichts anderes behauptet.

Gast
2010-01-09, 11:46:07
Mittlerweile werden die Stromanschlüsse offensichtlich zugeklebt:

http://img64.imageshack.us/img64/4408/425282072143f3f3141eo28.jpg

Da ist gar nichts zugeklebt. Das ist einfach schlecht fotografiert. Das Bild wurde zu lang belichtet und der Mensch der die Kamera gehalten hat, hat einfach gewackelt. Das was Du nämlich als "zugeklebt" bezeichnest ist schlicht und ergreifend das beleuchtete NVIDIA Logo was "schlieren" zieht durch die Langzeitbelichtung.

san.salvador
2010-01-09, 11:47:49
die bilder sind sooo schlecht. die haben alle 10+ mp spiegelreflexkameras für x-tausend € und die bilder sind dann der letzte rotz. ist ot, aber das muß ich hier mal loswerden. CB ist da auch ganz weit vorne dabei und im vergleich dazu ist es beeindruckend, wenn user wie chrisch und andere user bilder machen wie aus dem studio!

gibt es eigentlich auch testsysteme mit einem amd (oder 1156er) prozessor? bisher ist nur der X58 zu sehen.
Wer sagt denn, dass dort DSLRs und ähnliche Kaliber nicht ausgesperrt werden? Das kommt bei solchen Veranstaltungen durchaus vor und ist nichts besonderes.

reunion
2010-01-09, 12:00:51
Da ist gar nichts zugeklebt. Das ist einfach schlecht fotografiert. Das Bild wurde zu lang belichtet und der Mensch der die Kamera gehalten hat, hat einfach gewackelt. Das was Du nämlich als "zugeklebt" bezeichnest ist schlicht und ergreifend das beleuchtete NVIDIA Logo was "schlieren" zieht durch die Langzeitbelichtung.

Stimmt, fuck. ;D
Sieht aber täuschend danach aus.

G!ZMo
2010-01-09, 12:01:12
Mittlerweile werden die Stromanschlüsse offensichtlich zugeklebt:

http://img64.imageshack.us/img64/4408/425282072143f3f3141eo28.jpg

Sieh nochmal genau hin: das Bild ist eindeutig verwackelt. ;D

edit: mist zu langsam ;(

anddill
2010-01-09, 12:01:24
Wer sagt denn, dass dort DSLRs und ähnliche Kaliber nicht ausgesperrt werden? Das kommt bei solchen Veranstaltungen durchaus vor und ist nichts besonderes.
Canon EOS 20D. Nicht gerade eine Handyknipse.

san.salvador
2010-01-09, 12:06:51
Canon EOS 20D. Nicht gerade eine Handyknipse.
Hoppla, da hab ich ein eigenes EXIF-Addon im FF und komm nicht auf die Idee, mal nachzusehen. :usad:

Menace
2010-01-09, 12:23:59
AMD geht davon aus, dass sie nicht das ganze Jahr die schnellste GraKa haben werden. Von daher wird die Fermi nicht so schlecht werden, wie viele glauben. :rolleyes:

"AMD schließe nicht aus, dass man 2010 nicht durchgehend die schnellste Grafikkarte haben könnte. Huddy erwarte jedoch, dass AMD in Sachen 3D-Performance den Großteil des Jahres 2010 über in Front liegen wird. "

http://www.pcgameshardware.de/aid,702778/AMD-glaubt-DX11-Radeons-auch-2010-meist-vorne-Fermi-koennte-stark-werden/Grafikkarte/News/

Falls hier schon gepostet: Sorry.

reunion
2010-01-09, 12:26:08
Zwischen "geht davon aus" und "schließt nicht aus" ist aber auch ein Unterschied. Und ja das wurde schon gepostet.

Menace
2010-01-09, 12:30:16
Zwischen "geht davon aus" und "schließt nicht aus" ist aber auch ein Unterschied. Und ja das wurde schon gepostet.

Zum Ersten: Stimmt. :redface:
Zum Zweiten: Verdammt, übersehen.

StefanV
2010-01-09, 12:38:21
Weil die Stecker grad mal wieder erwähnt wurden: jemand mal gezählt, wieviele Adern tatsächlich in den 8-Pin-Stecker gehen? Das sind paar mehr als die normalen 8, schaut mal genau hin

http://www.hwupgrade.it/immagini/fermi_geforce_triple_sli.jpg
http://www.legitreviews.com/images/reviews/1175/nvidia_geforce_100_2.jpg

was soll man dazu noch weiter sagen?
Dass es ein Silverstone NT ist und die 2 Stecker an einen Strang stecken, dann schaut das eben so aus.

reunion
2010-01-09, 12:39:17
Hoppla, da hab ich ein eigenes EXIF-Addon im FF und komm nicht auf die Idee, mal nachzusehen. :usad:

OT: Welches verwendest du da bzw. welches ist zu empfehlen? Wusste bis jetzt nicht das sowas geht.

y33H@
2010-01-09, 12:46:42
Alleine der 6+8-Pin Stecker beweist doch schon das die TDP >225W liegt.Die TDP für die GTX280 liegt bei 238, also kaum über 225W. Die TDP der HD2900XT liegt bei 215W. Beide Karten haben einen 6+8-Pin Stecker. Ist damit bewiesen, dass de TDP einer Fermi-Karte über 225W liegt? Ich denke nicht. Und btw liefen erste gezeigte Samples der HD5870 auch mit 6+8-Pin Stecker ;)

san.salvador
2010-01-09, 12:48:34
OT: Welches verwendest du da bzw. welches ist zu empfehlen? Wusste bis jetzt nicht das sowas geht.
OT: Ich setze auf FxIF (https://addons.mozilla.org/de/firefox/addon/5673). Wenn du dann auf irgendein Bild rechtsklickst -> Eigenschaften, hängen unten die EXIF-Infos dran, sofern vorhanden. Schön schlank und funktional.

mapel110
2010-01-09, 12:55:32
Die TDP für die GTX280 liegt bei 238, also kaum über 225W. Die TDP der HD2900XT liegt bei 215W. Beide Karten haben einen 6+8-Pin Stecker. Ist damit bewiesen, dass de TDP einer Fermi-Karte über 225W liegt? Ich denke nicht. Und btw liefen erste gezeigte Samples der HD5870 auch mit 6+8-Pin Stecker ;)
So mit etwa 30-40 Watt mehr Verbrauch gegenüber einer 5870 würde ich aber auf jeden Fall rechnen. So war der Abstand zwischen 4870 und GTX280 ja auch in etwa. Ich denke und hoffe, das bleibt halbwegs so. Das Transistor-Verhältnis und das Chipgrößenverhältnis ist ja ähnlich geblieben.

reunion
2010-01-09, 12:57:45
Die TDP für die GTX280 liegt bei 238, also kaum über 225W. Die TDP der HD2900XT liegt bei 215W. Beide Karten haben einen 6+8-Pin Stecker. Ist damit bewiesen, dass de TDP einer Fermi-Karte über 225W liegt? Ich denke nicht. Und btw liefen erste gezeigte Samples der HD5870 auch mit 6+8-Pin Stecker ;)

Ich habe ja nicht gesagt viel über 225W. Alles von 225 bis 300W wäre damit laut den PCIe Specs möglich. Bei der 2900XT ist der 8-Pin Stecker nur mit Overdrive notwendig. So etwas ähnliches wäre natürlich theoretisch auch bei Fermi denkbar, allerdings liefern auch die Samples auf der CES eindeutig mit 8-Pin Stromanschluss. Dann sage ich eben zumindest nahe an den 225W dran. Das mit den ersten 5870 Samples hätte ich gerne belegt, das höre ich zum ersten mal. Auf jeden Fall soll das Ding in zwei Monaten kommen, ausgeschlossen sind Änderungen nicht, aber davon ausgehen kann man auch nicht mehr.

OT: Ich setze auf FxIF (https://addons.mozilla.org/de/firefox/addon/5673). Wenn du dann auf irgendein Bild rechtsklickst -> Eigenschaften, hängen unten die EXIF-Infos dran, sofern vorhanden. Schön schlank und funktional.

Danke.

mapel110
2010-01-09, 13:02:27
Ich habe ja nicht gesagt viel über 225W. Alles von 225 bis 300W wäre damit laut den PCIe Specs möglich. Bei der 2900XT ist der 8-Pin Stecker nur mit Overdrive notwendig. So etwas ähnliches wäre natürlich theoretisch auch bei Fermi denkbar
Fällt mir gerade wieder ein, nvidia hat doch bestätigt, dass man die Spannung erhöhen kann.

GF100 graphics cards will provide hardware support for GPU overvoltaging for extreme overclocking!

y33H@
2010-01-09, 13:11:46
@ reunion / mapel110

Ich bin eurer Ansicht, so viel sei gesagt. Mehr als eine HD5870 zieht die Karte mit Sicherheit, ob es aber mehr als 250W in Spielen sind, bleibt abzuwarten. Das mit den ersten 5870 Samples hätte ich gerne belegt, das höre ich zum ersten mal.Ich suche das Bild =)

Gast
2010-01-09, 13:13:24
Fällt mir gerade wieder ein, nvidia hat doch bestätigt, dass man die Spannung erhöhen kann.

GF100 graphics cards will provide hardware support for GPU overvoltaging for extreme overclocking!


.... besser gesagt "extreme overheating". aber wenn die mit so einen - sorry - shice werbung machen müssen... naja. scheint so als obs sonst nichts besonderes gäbe rund um furby. also wenn ich beim marketing bei nvidia wäre und ich weiß, das ding wird die 5870er locker übertrumpfen, dann würde ich SICHER NICHT mit sowas belanglosem wie "extrem overclocking" werbung machen sondern bei jeder gelegeheit sagen, das sind wird soviel mal schneller wie die konkurrenz... nur um die leute davon abzuhalten amd zu kaufen.

Gast
2010-01-09, 13:28:16
Alleine der 6+8-Pin Stecker beweist doch schon das die TDP >225W liegt.
Nein, es sind Engineering Samples und die hatten schon oft (gerade bei den größeren Modellen) mehr Stecker, als nachher am Endprodukt waren. War auch bei der HD5870 so und selbst auf der offiziellen Produktseite der GTX285 sieht man eindeutig die Lötstellen für 6+8:

http://www.nvidia.com/object/product_geforce_gtx_285_us.html

(Additional Views -> 4. Bild)

Beweisen tut das gar nichts.

Gast
2010-01-09, 13:37:53
Dass es ein Silverstone NT ist und die 2 Stecker an einen Strang stecken, dann schaut das eben so aus.
Nö, schau nochmal hin. Da sind 2 Adern an einen Steckkontakt montiert...

http://pc.watch.impress.co.jp/img/pcw/docs/340/953/html/ces-04.jpg.html

AnarchX
2010-01-09, 13:46:41
1.4GHz 448SPs bei 1.05V und 190W Normalverbrauch haben wir ja schon als Basis.

Nimmt man jetzt ein 55nm Beispiel: GTX 260 216SPs (55nm 1.12V) vs GTX 285 (1.15V), so erreicht letzere bei etwa 24% mehr Leistungsaufnahme 36% mehr ALU-Leistung.
Und beim 40nm Beispiel HD 5850 vs 5870 sieht es ähnlich aus.
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php (Bioshock)

Davon ausgehend wäre wohl eine ~1.6 TFLOPs GF380 bei etwa 250W Normalverbrauch und 300W TDP.

V2.0
2010-01-09, 13:52:27
Ich habe ja nicht gesagt viel über 225W. Alles von 225 bis 300W wäre damit laut den PCIe Specs möglich. Bei der 2900XT ist der 8-Pin Stecker nur mit Overdrive notwendig. So etwas ähnliches wäre natürlich theoretisch auch bei Fermi denkbar, allerdings liefern auch die Samples auf der CES eindeutig mit 8-Pin Stromanschluss. Dann sage ich eben zumindest nahe an den 225W dran. Das mit den ersten 5870 Samples hätte ich gerne belegt, das höre ich zum ersten mal. Auf jeden Fall soll das Ding in zwei Monaten kommen, ausgeschlossen sind Änderungen nicht, aber davon ausgehen kann man auch nicht mehr.


Wobei die Tescla C20X0 Karten auch 6+8 haben, zum Betrieb aber nur entweder 1x8 oder 2x6 brauchen.

reunion
2010-01-09, 13:56:46
1.4GHz 448SPs bei 1.05V und 190W Normalverbrauch haben wir ja schon als Basis.

Nimmt man jetzt ein 55nm Beispiel: GTX 260 216SPs (55nm 1.12V) vs GTX 285 (1.15V), so erreicht letzere bei etwa 24% mehr Leistungsaufnahme 36% mehr ALU-Leistung.
Und beim 40nm Beispiel HD 5850 vs 5870 sieht es ähnlich aus.
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php (Bioshock)

Davon ausgehend wäre wohl eine ~1.6 TFLOPs GF380 bei etwa 250W Normalverbrauch und 300W TDP.

So ist es. Ist höchstens die Frage wie weit NV gehen will.

Wobei die Tescla C20X0 Karten auch 6+8 haben, zum Betrieb aber nur entweder 1x8 oder 2x6 brauchen.

Das ist eine Eigenart des Tesla-Segmentes, dort braucht man maximale Flexibilität, davon kann man am Desktop aber wohl kaum ausgehen. Im übrigen zeigen die Bilder ja klar und deutlich das beide Stecker angeschlossen sind.

dildo4u
2010-01-09, 13:58:38
Ich denke NV will schnell solche OC Versionen am Markt haben,ohne das die Kartenhersteller groß eigene Designs(z.b mit Extra VRMs) basteln müssen.

http://img6.imageshack.us/img6/7288/img0055su.jpg

http://img710.imageshack.us/img710/5229/img0052hl.jpg

http://thegoateater.com/?p=109

Gast
2010-01-09, 14:09:18
Ich denke NV will schnell solche OC Versionen am Markt haben,ohne das die Kartenhersteller groß eigene Designs(z.b mit Extra VRMs) basteln müssen.

http://img6.imageshack.us/img6/7288/img0055su.jpg

http://img710.imageshack.us/img710/5229/img0052hl.jpg

http://thegoateater.com/?p=109

Was hat sich MSI bitte dabei gedacht so eine Karte mit lediglich 1GB auszustatten? Die paar $ mehr auf die 2GB hätten es sicher nicht mehr raus gerissen.

derguru
2010-01-09, 14:10:38
versteh ich ehrlich gesagt auch nicht,wenn schon premium dann richtig.

hohe auflösung durch 3 monitore aber dann mit 1gb rumgurken:frown:

Gast
2010-01-09, 14:14:11
Davon ausgehend wäre wohl eine ~1.6 TFLOPs GF380 bei etwa 250W Normalverbrauch und 300W TDP.
Was gut 60% mehr als bei der GTX285 wäre und nen ziemlicher Brecher.

numb
2010-01-09, 14:29:26
4870 -> 5870 waren + 125%

Das bedeutet garnichts

mapel110
2010-01-09, 14:36:58
http://www.hardocp.com/news/2010/01/09/nvidia_talks_nv_surround_fermi_kinda
NV Surround und Fermi

/edit
Leider versteht man kaum was. Richtmikrofon wäre was feines gewesen. ;(

StefanV
2010-01-09, 14:37:47
Nö, schau nochmal hin. Da sind 2 Adern an einen Steckkontakt montiert...

http://pc.watch.impress.co.jp/img/pcw/docs/340/953/html/ces-04.jpg.html
Jo, so wie hier
http://imgur.com/Pr7Ajs.png (http://imgur.com/Pr7Aj.jpg)

Dural
2010-01-09, 15:05:21
möchte endlich mit Fermi spielen... was im netz steht interessiert mich meisten nicht, will das selber austesten...

Gast
2010-01-09, 15:18:09
4870 -> 5870 waren + 125%

Das bedeutet garnichts
Nur gilt das nur für die Shader, die anderen Bereiche wurden nicht so stark hochgepusht - und die waren auch vorher schon eigentlich zu dünn bei der Architektur für die Shaderleistung.

Dural
2010-01-09, 15:21:06
alles wurde um 125% erhöht, TMUs / ROPs / Shader

das einzige wo kaum erhöht wurde war die bandbreite... deswegen versagt die karte auch bei hohen auflösungen, laut computerbase sind es noch 17% gegenüber 4890 in 25....

und es scheint noch etwas anderes sehr zu limitieren... wenn man den R600 als ursprunng nimmt hat der RV870 theoretisch immerhin gut 6x mehr power...

crux2005
2010-01-09, 15:25:54
wie kommst du auf 125%?

AnarchX
2010-01-09, 15:32:23
Von der 4870 auf 5870 erhöht sich auch der Takt.

GF100 sollte schon den Anspruch haben ein Maximum aus der ihm zur Verfügung stehenden Rechenleistung zu holen, ansonsten stellt sich die Frage was NV seit 2006 gemacht hat und ob 3.2 Mrd. Transitoren primär in GPGPU investiert hat.

Dural
2010-01-09, 15:33:03
4870 = 1,2Tera + 125% = 2,7Tera = 5870

Palpatin
2010-01-09, 15:45:12
=Dural;7771066 laut computerbase sind es noch 17% gegenüber 4890 in 25....

muss man die 17% in 25... verstehen?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

Ich seh da in 2560 x 1600 69% ohne AA AF
53% mit 4x AA 16x AF, was sicher auch am verbesserten AF liegt.
Erst bei 8x AA in 2560 geht der 5870 irgendwas aus, kann auch der Grafikspeicher sein.

crux2005
2010-01-09, 15:45:58
Von der 4870 auf 5870 erhöht sich auch der Takt.

Dessen bin ich mir bewusst. Aber auch 125% komme ich nicht. Egal.
EDIT: 30GTex/s -> 68GTex/s sind ~227%, also +127%, OK

Dural
2010-01-09, 16:01:23
sorry es waren 26%... und nein am speicher liegt es sicher nicht, sonst wäre die 5970 nicht 47% vor der 5870

aber hat eh nichts mit dem thema hier zu tun...

mboeller
2010-01-09, 16:58:36
von Beyond3D:

http://www.enermax.co.uk/products/power-supply/revolution85.html


New: DXXI ready!
Full support of most current >300W DX11 graphics cards due to minimum two 6+2P (8P) PCI-E connectors


Also für AMD brauchen die das nicht, oder?

dildo4u
2010-01-09, 17:02:37
von Beyond3D:

http://www.enermax.co.uk/products/power-supply/revolution85.html



Also für AMD brauchen die das nicht, oder?

Radeon HD 5970 Leistungsaufnahme 3D (Furmark 1.6.5) 337 Watt

http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/

G!ZMo
2010-01-09, 17:09:43
von Beyond3D:

http://www.enermax.co.uk/products/power-supply/revolution85.html



Also für AMD brauchen die das nicht, oder?

Hmm wieso seh ich auf der Seite da nur ATi-Logos? ;D
*scnr*

Gast
2010-01-09, 17:14:53
Hmm wieso seh ich auf der Seite da nur ATi-Logos? ;D
*scnr*

wozu sollte man denn derzeit auch ne Nvidia Karte nehmen ?
*scnr*

Gast
2010-01-09, 17:18:35
Radeon HD 5970 Leistungsaufnahme 3D (Furmark 1.6.5) 337 Watt

http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/
ht4u gibt 291,3W an: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index11.php

Burgard
2010-01-09, 17:33:46
d.h. einfach:

PCGH nehmen die NVs
HT4U nehmen ATis

Wer hat nun aber recht?

y33H@
2010-01-09, 17:37:57
Die "Wahrheit" unterscheidet sich von Sample zu Sample.

mapel110
2010-01-09, 17:40:09
Die "Wahrheit" unterscheidet sich von Sample zu Sample.
und von Treiber zu Treiber. Bei nvidia kann man bei den HT4U-Werten auf jedenfall noch das ein oder andere Watt drauf rechnen.

Noch ein Video von der Sled Demo.
http://video.golem.de/games/2733/nvidia-zeigt-directx-11-benchmark-supersonic-sled-auf-der-ces-2010.html

Burgard
2010-01-09, 18:08:57
Noch ein Video von der Sled Demo.
http://video.golem.de/games/2733/nvidia-zeigt-directx-11-benchmark-supersonic-sled-auf-der-ces-2010.html
Da die Demo logischerweise Physx unterstützt ist leider kein Vergleich möglich, wie gut oder schlecht der Fermi tatsächlich ist.
Schick sieht es ja aus.

reunion
2010-01-09, 18:12:45
Radeon HD 5970 Leistungsaufnahme 3D (Furmark 1.6.5) 337 Watt

http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/

Zusammenhang? Die 5970 hat 6 plus 8 Pin. Also nein, für AMD braucht man das nicht. Wenn Enermax jetzt neue Netzteile rausbringt für Dx11 Karten >300W kann man nur sagen ein Schelm wer böses denkt.

y33H@
2010-01-09, 18:18:18
HD5970 mit OC knackt die 300W locker - vll ist das Enermax schlicht für Highest-End-User gedacht? Oder für die Asus Mars ;D Die zieht ja "nur" weit über 400W ...

OgrEGT
2010-01-09, 18:57:59
Zusammenhang? Die 5970 hat 6 plus 8 Pin. Also nein, für AMD braucht man das nicht. Wenn Enermax jetzt neue Netzteile rausbringt für Dx11 Karten >300W kann man nur sagen ein Schelm wer böses denkt.

Na ja... Die GXT380 wird wie gesehen ja auch "nur" 6+8 Pin Anschlüsse haben also Leistungsaufnahme unter 300W.

Eigentlich komisch, dass Enermax Netzteile bauen will extra für Grafikkarten, die nicht mehr den PCI-E Spezifikationen entsprechen. Oder wird es sich um Spezialnetzteile rein für Enthusiasten also einen Nischenmarkt handeln?

Kann mir irgendwie nicht vorstellen, dass NV eine Karte rausbringen wird, die Mainstream schon über 300W verbrauchen soll.

Sorkalm
2010-01-09, 19:03:42
Kann mir irgendwie nicht vorstellen, dass NV eine Karte rausbringen wird, die Mainstream schon über 300W verbrauchen soll.

Ist eine 300€+-Karte echt Mainstream?
Ich denke eher nicht. ;)

OgrEGT
2010-01-09, 19:12:15
Ist eine 300€+-Karte echt Mainstream?
Ich denke eher nicht. ;)

Äh ja, OK. Mainstream wollte ich nicht sagen, aber eine Karte, die den gängigen Standards also auch PCI-E entspricht. Man kann ja auch nicht anfangen Karten zu bauen, die nicht den gängigen Normen für z.B. EMV entsprechen.

Dural
2010-01-09, 19:30:47
Zusammenhang? Die 5970 hat 6 plus 8 Pin. Also nein, für AMD braucht man das nicht. Wenn Enermax jetzt neue Netzteile rausbringt für Dx11 Karten >300W kann man nur sagen ein Schelm wer böses denkt.


blöde frage, für die MSI 5870 Lightning natürlich ;D

Botcruscher
2010-01-09, 19:33:07
Wann kommt eigentlich ein neuer PCIe Standard? Ich erinnere mich noch zu gut an die Kommentare zur 300W Grenze.

AnarchX
2010-01-09, 19:42:12
Mit PCIe 3.0 wird es bei 300W max. bleiben, nur 3-Slot-Karten werden spezifiziert:
http://www.extremetech.com/article2/0,2845,2319677,00.asp

aylano
2010-01-09, 20:12:36
Was soll ich jetzt genau auf die merkwuerdige Finanz-analyse vor einigen Seiten genau antworten? Ein Uebermass an Annahmen und es fehlen nach wie vor die kritischen Informationen die zu einer halbwegs logischen Schlussvolgerung fuehren wuerden.
Das ist doch mehr als offensichtlich, wie wenig Nvidia mit GT200 verdiente.
Immerhin basieren meine Annahmen auf Fakten hingen andere die es nur auf der Luft hohlen.

Man kann die Umsätze & Gewinn von GPU bzw. PSB eben von 2006 bzw. 2009 raussuchen, und eintragen, wann welchen GPU von Nvidia & ATI kamen und wie der Preis angesetzt wurde a la hoch oder auf Preiskampf.
Da sieht man dann sehr schön die Veränderungen.
Genauso die GT200, wo eben der gesamt GPU-Umsatz dann weiter zurückging, obwohl im 3Q generell mehr Stückzaheln gekauft wird als im 2Q.

Wie dem auch sei wenn NV's bisherige Strategie auf die Nase fallen sollte, ist auch nie etwas in Stein gemetzelt und sie koennen ihre Strategie jederzeit aendern. NVIDIA's momentanes Problem ist nach wie vor execution und nochmal execution. Wenn Du Dir Deinen eigenen Post nochmal durchliest koennte man sich eher fragen warum GT200 von Anfang nicht fuer 55nm geplant war und NV hat derartige Fehler oeffentlich eingestanden.
Natürlich können sie reagieren, aber ich sehe Nvidia Probleme auch stark Architekturbedingt, was sie dann wahrscheinlich nicht mehr so schnell ändern können.
Dazu machten sie Big-Chips, wo sie dann mit der Spannung im Vergleich zur Konkurrenz runter gingen.

(Dafür mussten sie mit GT200 & GT200b & GT300 eben zum 3. Stepping gehen.)

Natürlich können sie wie AMD auch früher (im 1 oder 2.Stepping) und vielleicht mit Performance-Chipgröße kommen, nur müssen sie mit der Spannung rauf oder sie haben eben einen nicht so tollen Takt.

Also, so oder so sieht die Performance-pro-Watt dann nicht mehr so toll aus, wenn sie schneller am Markt sind.

Gast
2010-01-09, 21:51:47
(Dafür mussten sie mit GT200 & GT200b & GT300 eben zum 3. Stepping gehen.)

Quatsch, GT200 wurde als A2 verbaut.

Dural
2010-01-09, 22:28:44
zudem die Shader auf GT200 so gut wie gar nicht auf mehr spannung reagieren, in dem Chip selber ist einfach was nicht i.O.

Auch unter LN2 machen die GT200 nur um die 2GHz Shader takt, das ist lächerlich wenige wenn man das mit dem G92 vergleicht der im selben Herstellungsverfahren gefertigt wurde und der über 3GHz geht...

der ROP takt hat sich aber zwischen G92 und GT200 kaum geändert, da haben wir auf beide seiten um die 1GHz... ok für G92 etwas mehr, das liegt aber im rahmen der vergrösserung der GPU...

eigene werte von mir, kühlung ist immer die selbe nämlich Kompressor ca. -40°C:

9600GT
http://img142.imageshack.us/img142/1483/16338pe1.th.jpg (http://img142.imageshack.us/my.php?image=16338pe1.jpg)

9800GTX+
http://img508.imageshack.us/img508/4471/fghfdghfshgm8.th.jpg (http://img508.imageshack.us/my.php?image=fghfdghfshgm8.jpg)

GTX260 192SP
http://img233.imageshack.us/img233/1662/14790xy2.th.jpg (http://img233.imageshack.us/my.php?image=14790xy2.jpg)

GTX285
http://img128.imageshack.us/img128/5314/17510az1.th.jpg (http://img128.imageshack.us/my.php?image=17510az1.jpg)

Gast
2010-01-09, 23:04:56
Das ist doch mehr als offensichtlich, wie wenig Nvidia mit GT200 verdiente.
Immerhin basieren meine Annahmen auf Fakten hingen andere die es nur auf der Luft hohlen


Naja also GT200 Marge hin oder her aber solange Nvidia in Summe ordentlich Geld verdient ist es doch egal. Bei AMD wartet man hingegen seit mehr als einem Jahrzehnt darauf, das auch nur 1 Cent verdient wird.
Bis die so viel verdient haben wie Nvidia in den letzten 10 Jahren bin ich wahrscheinlich Rentner.

Burgard
2010-01-09, 23:19:34
Naja also GT200 Marge hin oder her aber solange Nvidia in Summe ordentlich Geld verdient ist es doch egal. Bei AMD wartet man hingegen seit mehr als einem Jahrzehnt darauf, das auch nur 1 Cent verdient wird.
Bis die so viel verdient haben wie Nvidia in den letzten 10 Jahren bin ich wahrscheinlich Rentner.
Ich hoffe dir ist klar, dass du Äpfel mit Birnen vergleichst, oder?
NV hat keine eigene Fertigung.
Bei AMd sind die Fabriken die die Kosten explodieren lassen.
ATi alleine macht seit Jahren Gewinn und nicht zu knapp.
Warum wohl hat AMD GF gegründet?

desert
2010-01-09, 23:34:38
Das ist doch mehr als offensichtlich, wie wenig Nvidia mit GT200 verdiente.
Immerhin basieren meine Annahmen auf Fakten hingen andere die es nur auf der Luft hohlen.

Man kann die Umsätze & Gewinn von GPU bzw. PSB eben von 2006 bzw. 2009 raussuchen, und eintragen, wann welchen GPU von Nvidia & ATI kamen und wie der Preis angesetzt wurde a la hoch oder auf Preiskampf.
Da sieht man dann sehr schön die Veränderungen.
Genauso die GT200, wo eben der gesamt GPU-Umsatz dann weiter zurückging, obwohl im 3Q generell mehr Stückzaheln gekauft wird als im 2Q.


.

Das 2008/2009/2010 so eine klitzekleine Weltwirtschaftskrise ist/war ist dir bekannt? Aber ich weiss das ist völlig unmöglich das die einbrechenden umsätze und gewinne daran lagen, das kann nur an der überteuerten fertigung des g200 samt verkauf unter den fertigungskosten liegen.

Naja immerhin kennt nv noch schwarze zahlen. Wann hat amd/ati eigentlich das letzte mal schwarze zahlen geschrieben? War es vor 3 oder 5 Jahren=

soviel falsch machen kann nvidia wohl dann doch nicht.

desert
2010-01-09, 23:37:47
Ich hoffe dir ist klar, dass du Äpfel mit Birnen vergleichst, oder?
NV hat keine eigene Fertigung.
Bei AMd sind die Fabriken die die Kosten explodieren lassen.
ATi alleine macht seit Jahren Gewinn und nicht zu knapp.
Warum wohl hat AMD GF gegründet?

Weil amd l sonst schon längs pleite waren, sie mussten gf gründen um überhaupt noch geld ins unternehmen zu locken.

Ansonsten wäre es wohl ausgewesen mit amd/ati.

Gast
2010-01-10, 00:30:18
ATi alleine macht seit Jahren Gewinn und nicht zu knapp.


Nein, die machen seit Jahren Verluste, nachzulesen in AMDs Geschäftsberichten.

Sorkalm
2010-01-10, 00:45:47
Nein, die machen seit Jahren Verluste, nachzulesen in AMDs Geschäftsberichten.

Da würde ich wirklich mal nachlesen, aus dem Q3/2009 (aktuellester Geschäftsbericht):

Graphics
Net revenue 306
Operating income 8

Und die 8 Millionen sind noch wenig, im Jahr davor waren es zumindest 47 Millionen im Q3-Gewinn im Graphics-Bereich. Ist zwar auch nicht vergleichbar mit anderen Gewinnzahlen, ist aber zumindest positiv. Nur Anfang 2009 beim absoluten Einbruch im Grafikmarkt wars mal negativ.

Dural
2010-01-10, 03:06:04
ati war einige male im minus...

irgend wo hab ich mal eine tabelle gesehen wo der gewinn zwischen NV und ATi verglichen wurde, ATI hatte nie so einen echt grossen gewinn, NV war meistens der topverdienener unter den beiden ausser in der FX zeit, aber auch da hatte NV einen gewinn...

das grosse minus kam ja nur wegen der krise und den hohen sonderbelastungen die NV hatte, brutto gewinn hatte NV so gut wie immer...

dr_mordio
2010-01-10, 05:01:37
Ich weiß nicht ob das Tripel-SLI-Fermi Rocked Sled Video von Legitreview schon gezeigt wurde:

http://www.tweakpc.de/news/17507/nvidia-zeigt-gf100-fermi-directx-11-techdemo-rocket-sled/
Direktlink:
http://www.youtube.com/watch?v=3-1GMbqzGX0&feature=player_embedded

aber das ist echt ein trauriger Witz.

Zwei große Kritikpunkte sehe ich da im Video.

Punkt 1 ist, das in dem Rechner, sage und schreibe 3 Farmi Karten stecken... für das bischen was da geboten wird.
Da muß die Performance einer einzigen Karte ja unterirdisch sein, wenn sie es nicht schafft.
Maximal 2 Karten hätte ich noch gelten lassen, wenn NV sich rausredet, das eine Die Physik berechnet und die andere das Bild, weil eine zu schwach ist.

Punkt 2 ist das ende des Videos.
Viele haben bestimmt nur reingeschaut und nicht zu ende.
Nach gerade mal knapp 3 minuten vorführung laufen die Karten schon so heiß und sind zu überfordert, das es abstürzt.
Und das bei einer vorführung.
Echt schade...

MfG
Alex

mapel110
2010-01-10, 05:08:35
Punkt 1 ist, das in dem Rechner, sage und schreibe 3 Farmi Karten stecken... für das bischen was da geboten wird.
Da muß die Performance einer einzigen Karte ja unterirdisch sein, wenn sie es nicht schafft.
Maximal 2 Karten hätte ich noch gelten lassen, wenn NV sich rausredet, das eine Die Physik berechnet und die andere das Bild, weil eine zu schwach ist.

http://www.golem.de/1001/72302.html
Die Rechenleistung des Fermi zeigt sich vor allem bei den Spezialeffekten: Auch mit achtfachem Anti-Aliasing und im 3D-Modus - bei dem stets zwei Bilder berechnet werden müssen - blieb die Demo so rasant wie ohne diese Einstellungen

Punkt 2 ist sicherlich unschön, aber solange sich nvidia nicht sowas erlaubt, wie Saboteur oder einige fehlende Features im Treiber beim Launch, sehe ich das nicht so kritisch.

redpanther
2010-01-10, 07:37:58
@Dr_mordio:
1. Wie kannst du so einfach beurteilen wie fordernd die Demo ist?
2. Woher weisst du das es an Überhitzung lag?

Ailuros
2010-01-10, 08:33:27
1.4GHz 448SPs bei 1.05V und 190W Normalverbrauch haben wir ja schon als Basis.

November-Schaetzungen fuer eine Q2 Veroeffentlichung und natuerlich auch dass Tesla die kleinsten Frequenzen haben werden.

Nimmt man jetzt ein 55nm Beispiel: GTX 260 216SPs (55nm 1.12V) vs GTX 285 (1.15V), so erreicht letzere bei etwa 24% mehr Leistungsaufnahme 36% mehr ALU-Leistung.
Und beim 40nm Beispiel HD 5850 vs 5870 sieht es ähnlich aus.
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php (Bioshock)

Davon ausgehend wäre wohl eine ~1.6 TFLOPs GF380 bei etwa 250W Normalverbrauch und 300W TDP.

Nicht schlecht als Schaetzung; nur ist etwas wie 710/1560 ein ziemlich fetter Happen. Bei beiden IHVs liegen die originalen Frequenz-schaetzungen in letzten Jahren um einen Schnitt daneben und hier liegt mir das original eingeschaetzte 736/1620 bei angeblichen 0.95-1.0V zu nahe an dem was Du oben einschaetzt.

Nochmal wenn ich zwischen 4890@55nm und 5870@40nm (bei >2xMal so hoher Komplexitaet) die exakt gleiche Frequenz sehe, ueberzeugt es mich nicht unbedingt (trotz schlechter Vergleichbarkeit zwischen Architekturen) dass mehr als GT200b@55nm Frequenzen bei vergleichbarem Stromverbrauch moeglich waere.

Kann sein dass sie beim core irgendwo bei 650MHz halt machen und im Gegensatz den hot clock etwas mehr aufbohren ueber dem 2.2x ALU:TMU ratio, aber um so etwas einzuschaetzen muesste man sehr genau wissen wie sich der chip genau verhaelt was wohl keiner sagen wird.

Die brennende Frage ist nicht wo sie halt machen werden IMO sondern wie die Leistung pro MHz genau aussieht. Und ich befuerchte auch dass jegliche moegliche Effizienz-Aenderungen (falls es diese auch wirklich gibt) nicht in den ALUs bzw. deren Frequenzen liegen. Wenn dann wohl eher bessere Daten-verwaltung um hauptsaechlich besser mit Bandbreite umgehen zu koennen (aber wie gesagt hier gibt es gleich Null brauchbares an Infos).

Zu guter letzt wenn sie A3 ins Labor Anfang Dezember geschickt haben, dann ist es erstmal unmoeglich dass sie knapp einen Monat danach das Zeug bei CES benutzt haben.

mapel110
2010-01-10, 09:43:05
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3719&p=3
The demo also used NVIDIA's sterescopic 3D technology - 3D Vision. We're hearing that the rumors of a March release are accurate, but despite the delay Fermi is supposed to be very competitive (at least 20% faster than 5870?). The GeForce GTX 260 and 275 will stick around for the first half of the year as Fermi isn't expected to reach such low price/high volume at the start of its life.

Gouvernator
2010-01-10, 10:00:26
Punkt 1 ist, das in dem Rechner, sage und schreibe 3 Farmi Karten stecken... für das bischen was da geboten wird.
Da muß die Performance einer einzigen Karte ja unterirdisch sein, wenn sie es nicht schafft.
Maximal 2 Karten hätte ich noch gelten lassen, wenn NV sich rausredet, das eine Die Physik berechnet und die andere das Bild, weil eine zu schwach ist.


Mag sein. Aber ich denke es war nur eine unterschwellige Botschaft um mehr Karten zu verkaufen.

Tarkin
2010-01-10, 11:37:03
but despite the delay Fermi is supposed to be very competitive (at least 20% faster than 5870?). The GeForce GTX 260 and 275 will stick around for the first half of the year as Fermi isn't expected to reach such low price/high volume at the start of its life.

1. "very competitive" kann alles mögliche bedeuten. R600 war auch "very competitive" zum Preis von €300. Die genannten 20% sind mit einem Fragezeichen versehen und pure Spekulation von Anandtech.

2. G200 noch bis Mitte 2010. D.h. dann wohl keine Konkurrenz für AMDs 5770 - 5850 bis mindestens Q3 2010.

Knuddelbearli
2010-01-10, 11:50:16
Ausser die GTX 360 ist in der Region der 5850 bzw darunter ;-)

mictasm
2010-01-10, 11:51:32
Das ist so geil hier... Wenn der Thread nur mal ordentlich moderiert werden würde.

Tarkin, warum ist das eine in dem Zitat für dich pure Spekulation und das andere dann eine klare Aussage für Q3?

Tarkin
2010-01-10, 12:05:55
Das ist so geil hier... Wenn der Thread nur mal ordentlich moderiert werden würde.

Tarkin, warum ist das eine in dem Zitat für dich pure Spekulation und das andere dann eine klare Aussage für Q3?

"is supposed to be very competitive" - das kann man auslegen wie man will.

Der zweite Satz ist eine klare, unzweideutige Aussage. "will stick around for the first half of the year" - ganz klar was damit gemeint ist, oder nicht?

Cubitus
2010-01-10, 12:22:08
hier nochmals etwas Propaganda von Nvidia

http://www.nvidia.com/object/fermi_architecture.html

Also ich fasse jetztn mal zusammen was die Spekulationen sagen,

veröffentlichung vor 10 März

GF100/GF104 CodeName-GTX380/360
EVGA-GF-100-Fermi-CodeName-GTX380-SuperOverClock, Vorverkauf Preis von 599 Dollar

NV wird im Sommer den GF105-GTS350 veröffentlichen und die 5870/5850 anzugreifen

=Floi=
2010-01-10, 12:36:21
es muß eigentlich noch eine weitere fermi karte kommen, welche dann 512 shadereinheiten besitzt, weil dort überall 512 alus stehen.

Gast
2010-01-10, 12:37:54
Das wurde doch schon im Herbst veröffentlicht wenn mich nicht alles täuscht...

Schlammsau
2010-01-10, 12:40:23
hier nochmals etwas Propaganda von Nvidia

http://www.nvidia.com/object/fermi_architecture.html

Also ich fasse jetztn mal zusammen was die Spekulationen sagen,

veröffentlichung vor 10 März

EVGA-GF-100-Fermi-CodeName-GTX380-SuperOverClock, Vorverkauf Preis von 599 Dollar

NV wird im Sommer den GF105-GTS350 veröffentlichen und die 5870/5850 anzugreifen

Wenn der Preis stimmt, ist das ein klares Indiz dafür, dass Fermi langsamer als Hemlock ist!

Warum sollte nvidia den Preis beim Launch sonst so niedrig ansetzen!?

boxleitnerb
2010-01-10, 12:42:07
Niedrig???

Gast
2010-01-10, 12:48:07
Niedrig???

Naja, es handelt sich ja scheinbar um eine übertaktete EVGA-Version.
Die sind meistens deutlich teurer als die Standardkarten.

Cubitus
2010-01-10, 12:50:55
Für eine Singel GPU "normaler" veröffentlichungs- Preis.
Im EU Raum wird dann wieder vereinzelt großzügig 1:1 umgerechnet auf 699 Euro :rolleyes:

Für SLI Fans wie mich würde das knapp 1400 Euro bedeuten ;D
Die Preise werden innerhalb des ersten Monats dann wieder so um 100-200 Euro fallen.
Am Preis lässt sich gar nix über die Performance abschätzen :wink:

Naja, es handelt sich ja scheinbar um eine übertaktete EVGA-Version.
Die sind meistens deutlich teurer als die Standardkarten.

Das natürlich auch, vermutlich wird der preis zur Einführung der standard-Modelle, bei den meisten Online-shops sich auf 599 Euro einpendeln.

Gast
2010-01-10, 12:55:14
Für eine Singel GPU "normaler" veröffentlichungs- Preis.
Im EU Raum wird dann wieder vereinzelt großzügig 1:1 umgerechnet auf 699 Euro :rolleyes:

Für SLI Fans wie mich würde das knapp 1400 Euro bedeuten ;D
Die Preise werden innerhalb des ersten Monats dann wieder so um 100-200 Euro fallen.
Am Preis lässt sich gar nix über die Performance abschätzen :wink:



Das natürlich auch, vermutlich wird der preis zur Einführung für die standard Modelle bei den meisten shops sich auf 599 Euro einschießen.

Sowas kann man machen wenn man als erster mit neuer/überlegener Technik am Markt ist.
Die Gerüchte bilden bisher da doch ein anderes Bild.

aylano
2010-01-10, 12:55:54
Das 2008/2009/2010 so eine klitzekleine Weltwirtschaftskrise ist/war ist dir bekannt?
Bist du in der Lage, den Sinn deutscher Sätze zu verstehen?

Aber ich weiss das ist völlig unmöglich das die einbrechenden umsätze und gewinne daran lagen, das kann nur an der überteuerten fertigung des g200 samt verkauf unter den fertigungskosten liegen.
Ich schrieb ja nie von nur!!!
Außerdem, die Wirtschaftskrise kam im 4Q. Während ATIs Umsatz & Gewinn im 3Q 2008 explotierte, ging es bei Nvidia zurück bzw. es stagnierte.

Erstens, da warim 3Q nichts von Wirtschaftskrise zu sehen.
Zweites, verdiente Nvidia noch sehr lange gut mit ihrer Low-End & Mainstram-Karten, wo sie mit der G9x-Serie vs. 600er-Serie konkurrierten.

soviel falsch machen kann nvidia wohl dann doch nicht.
Aber nur in 2Q 2009 gab es Gleichstand, wo Nvidia im Notebook-Markt massiv Marktanteile verlor.
Ich schrieb schon öfters, dass es von Nvidia klug war, GT218 & GT216 & GT215 rauszubringen, da sie für einige Monate in den Massen-Markt wieder an ATI vorbeizogen und so Umsatz & Gewinn & Marktanteile zu verbessern.

ATI hat das ein anderes Konzept, aber da ATI jetzt alles rausbrachte, gibts bei Nvidia jetzt eine Durststrecke.

Und wenn Nvidia dann nicht was halbwegs gscheites rausbringt, dann wird es für Nvidia noch viel länger hart und nicht nur für ein paar Monate.

Vorallem, weil in einem Jahr wieder eine Umstellung auf 32nm passiert und das ganze Spiel wieder von vorne beginnt.

Ich war schon kurz nach RV770 auf die Umstellung von 40nm gespannt, da ATI mit ihren deutlich kleineren Chips schneller am Markt sein kann.
Resultat: GT214 & 212 wurden gestrichen. GT300 & kleine Brüder kommen deutlich später als RV870.

War mir schon Mitte 2008 mal bewusst war, fiel es vielen erst jetzt auf.
Den GT212 & GT214 viel kaum wem auf, weil der GT200b eben noch die schnellste Einzel-GPU & X2 war.

Naja immerhin kennt nv noch schwarze zahlen. Wann hat amd/ati eigentlich das letzte mal schwarze zahlen geschrieben? War es vor 3 oder 5 Jahren=

AMD/ATI ohne Globalfoundis würde jetzt schon gewinne machen.
Dazu ist Intel mit Mrd. $ Strafen wegen unfairen Wettbewerb angeklagt worden.;-)

Das Problem ist für Nvidia, falls sie wirklich mal Verluste machen, können sie nicht mehr so einfach einsparen wie ATI.
Aber momentan haben die noch Reserven von AFAIK 1,6 Mrd. $

Nvidia als Gesamtes ist nicht leicht in die Knie zu zwingen, da sie neben den Geldreserven, noch PsyX & Cuda & Treiber-Qualität & Tegra & Chipsätze usw usw usw haben.

Cubitus
2010-01-10, 12:57:41
Sowas kann man machen wenn man als erster mit neuer/überlegener Technik am Markt ist.
Die Gerüchte bilden bisher da doch ein anderes Bild.

jetzt könnte man auch sagen das Nvdia und die Hersteller wissen, was die User bereit sind für den Fermi auszugeben ;)
Aber wie gesagt am Preis lässt sich schlecht die Performance abschätzen.

Gast
2010-01-10, 13:28:48
AMD/ATI ohne Globalfoundis würde jetzt schon gewinne machen.
Dazu ist Intel mit Mrd. $ Strafen wegen unfairen Wettbewerb angeklagt worden.;-)


Der Streit zwiscen AMD und Intel ist bereits beigelegt und AMD hat dafür ca. 1,25 Mrd. Dollar bekommen. Damit ist der Teil schon erledigt. Von allen anderen Strafzahlungen die Intel leisten muss hat AMD nichts mehr und den 1,25 Mrd. Dollar stehen fast 5 Mrd Dollar Verbindlichkeiten gegenüber, mit denen AMD bei diversen Gläubigern in der Kreide steht.

In Summe ist GlobalFoundries sicher der richtige Schritt für AMD, der aber auch einige Risiken mitbringt.

Wenn dort die Fertigung mal stockt bzw. es technische Probleme gibt wie derzeit bei TSMC kann das AMD auch mal ganz gewaltig reinreiten.
Bei Grafikkernen ist das noch unkritisch, weil die Probleme die Konkurenz (Nvidia) ja gleichermaßen treffen. Im CPU Bereich ist dem aber nicht so, da Intel es sich leisten kann Unmengen an Geld in Fabs zu pumpen. Wenn man dann in der Fertigung hinten drann ist, wirds ganz schnell eng. Im Grafikbereich kann man schlechte Ausbeute mit hohen Preisen kompensieren. Im CPU Bereich nicht, da der Konkurent 80% Marktanteil und Unmengen an unausgelasteten Fabs hat. Der kann den Markt dann überschwemmen und dann wird es richtig eng.


Das Problem ist für Nvidia, falls sie wirklich mal Verluste machen, können sie nicht mehr so einfach einsparen wie ATI.
Wo kann ATI sparen, wo Nvidia nicht sparen kann? Das Geschäftsmodell ist einigermaßen gleich.
Der einzige Unterschied ist, dass sich Nvidia Preiskämpfe durch erfolgreiche Quersubventionierung aus dem Profi Bereich durchaus auch mal leisten kann. Etwas ähnliches geht bei ATI nicht und bei AMD im CPU Bereich schon gleich 3mal nicht, weil dort Intel derjenige ist der sich die Quersubventionierung leisten kann.


Aber momentan haben die noch Reserven von AFAIK 1,6 Mrd. $

Die haben noch viel mehr Reserven. Die können jederzeit eine Kapitalerhöung durchführen oder Anleihen ausgeben.
Schritte die AMD in den letzten 10 Jahren mehr oder minder bereits ausgereitzt hat.


Nvidia als Gesamtes ist nicht leicht in die Knie zu zwingen, da sie neben den Geldreserven, noch PsyX & Cuda & Treiber-Qualität & Tegra & Chipsätze usw usw usw haben.

Nvidia's größter Vorteil ist m.E. die Unternehmensstruktur und Innovationskraft. Anders als bei vielen anderen Unternehmen geben bei Nvidia immer noch die Gründer und Haupteigner den Ton an und die sind nicht einfach nur Angestellte sondern bei denen hängt Herzblut drann.
Ich weiss sowieso nicht wieso manche sich über den Huang gern mal lustig machen. Ich wäre froh so einen CEO bei uns im Konzern zu haben, der die Firma als sein Baby sein Lebenswerk sieht.
Oft sind doch Leute in den Etagen nur Angestellte, die Geld absaugen wollen und gerade in dem Bereich können sowohl ATI als auch AMD(seit Sanders nicht mehr CEO ist) ein richig ordentliches Liedchen singen (Ruiz und Co). Das muss man dem Merger dann schon lassen. Da haben sich die richtigen zwei gefunden.

StefanV
2010-01-10, 13:53:20
Es würd ja schon reichen, wenn das GT300 Desaster dem Jensen den Kopf kosten würde, aber das wird wohl nicht passieren...

nVidia entwickelt sich vom Verhalten her mehr und mehr Richtung Intel, was sehr sehr schade ist.
Der Streit zwiscen AMD und Intel ist bereits beigelegt und AMD hat dafür ca. 1,25 Mrd. Dollar bekommen.
Ist es nicht, die FTC ermittelt weiter, zumal Intel <-> nVidia noch im Raum steht.

Cubitus
2010-01-10, 14:03:30
Gerade Jennsen behauptet:

Das die Evergreen GPUS nicht den vollen Funktionsumfang der D3D11 Spezifikation unterstützen würden.

Der Fermi hingegen schon.


NV首席技术工程师指出AMD-ATI迫于架构无法完整支持DX11的全部特性我们NV的Fermi就不存在这一点我们NV在细分曲面细节和曲面运算更自然更出色虽然ATI参与了DX11 几个专项的DX11核心技术研发但是回到软件和图形输出效果和实际图来说ATI对于解决细分曲面和数个图像的其余周边面运算上还是相当不足的我们NV就能完整解决DX11 的全部解决方案 NV chief technical engineer pointed out that the AMD-ATI can not be forced to architecture full support for DX11 all the characteristics of our NV, Fermi does not exist that we have the details of NV in the subdivision surface and surface computing more natural and better DX11 although ATI involved in several special of the DX11 core technology research and development, but returned to the software and graphics output results and the actual figure for the ATI for solving the sub-surface and several images of the remaining operations on the surrounding surface is still quite insufficient to solve our NV will be able to complete the full solution DX11

Quelle (http://www.cnhubei.com/)

Gast
2010-01-10, 14:09:15
Gerade Jennsen behauptet:

Das die Evergreen GPUS nicht den vollen Funktionsumfang der D3D11 Spezifikation unterstützen würden.

Der Fermi hingegen schon.



Quelle (http://www.cnhubei.com/)

OMG!
"DX10 done right" is back!

Gestrandet
2010-01-10, 14:11:15
"Fermi does not exist" :eek:
Also wenn Jensen es schon selbst zugibt ...
*SCNR*

Cubitus
2010-01-10, 14:16:59
Naja die Übersetzung ist nicht gerade toll, muss ich zugeben :tongue:

aylano
2010-01-10, 14:28:19
Der Streit zwiscen AMD und Intel ist bereits beigelegt und AMD hat dafür ca. 1,25 Mrd. Dollar bekommen. Damit ist der Teil schon erledigt.

Schön, weicht zwar vom Sinn meiner Aussage ab, aber was solls.
Man kann ja auch irgendwas schreiben.

Die Beilegung des Streits war nicht das Thema. Sondern die beschränkten Einnahmen in den letzten Jahren, die den einen oder anderen Quartalsgewinn verhinderten.


Von allen anderen Strafzahlungen die Intel leisten muss hat AMD nichts mehr und den 1,25 Mrd. Dollar stehen fast 5 Mrd Dollar Verbindlichkeiten gegenüber, mit denen AMD bei diversen Gläubigern in der Kreide steht.

AMD hatte 3 Mrd. $ Schulden und 1,5 Mrd. $ "Geld".



Wenn dort die Fertigung mal stockt bzw. es technische Probleme gibt wie derzeit bei TSMC kann das AMD auch mal ganz gewaltig reinreiten.
Richtig so wie TSMC die jetzt gewaltige Geldprobleme haben. Oder auch nicht, weil die Foundris eben nicht nur eine Strukturgröße haben.

Bei Grafikkernen ist das noch unkritisch, weil die Probleme die Konkurenz (Nvidia) ja gleichermaßen treffen.
Aber nur wenn beide Kontrahenten die selben GPUs (High-End, Performance, Mainstream und oder Low-End) beim selben Fertiger produzieren lassen wollen.

Wo kann ATI sparen, wo Nvidia nicht sparen kann? Das Geschäftsmodell ist einigermaßen gleich.
AMD hatte viel eingespart. Mehr geht da wohl kaum.

Aber Nvidia hat eben keine Fabriken und können sie nicht bei Cost-of-Revenue einsparen sondern nur bei
R&D ... 200 Mio. $
und Sales, General & Administrative ... 75 Mio. $.

Wenn sie da was einsparen, geht das recht schnell zu R&D, was sie in den letzten Monaten ein wenig auch machten.

Wobei sie müssen ja auch keine Schulden machen, sondern müssen nur die Preis so (hoch) setzen, dass sie mit den jeweiligen Stückzahlen nicht ins Minus rutschen.
Aber dann verlieren sie Marktanteile & Marktmacht und hoffen, dass es mit der nächsten Gernation besser wird.

Gast
2010-01-10, 14:30:15
Gerade Jennsen behauptet:

Das die Evergreen GPUS nicht den vollen Funktionsumfang der D3D11 Spezifikation unterstützen würden.

Der Fermi hingegen schon.

Quelle (http://www.cnhubei.com/)

also wenn jetzt schon auf dieser ebene kommuniziert wird, dann sehe ich schwarz für grün.

Dural
2010-01-10, 15:47:41
Es würd ja schon reichen, wenn das GT300 Desaster dem Jensen den Kopf kosten würde, aber das wird wohl nicht passieren...


was für ein desaster? weil sich der GF100 nicht recht herstellen lässt weil 40nm bis jetzt versagt hat? was hat das mit NV/Jensen zutun?

und nein, das wird im sicher nicht den kopf kosten, ersten ist er gross aktionär und einer der gründer von NV und zeitens ist er wohl einer der bessten CEO in der Computer welt, geschäfltich hat er es nämlich ziemlich drauf... zb. AMD träumt ja seit jahrzenten von solchen Zahlen die NV schon vorzuweisen hatte...

Gast
2010-01-10, 15:51:22
was für ein desaster? weil sich der GF100 nicht recht herstellen lässt weil 40nm bis jetzt versagt hat? was hat das mit NV/Jensen zutun?

und nein, das wird im sicher nicht den kopf kosten, ersten ist er gross aktionär und einer der gründer von NV und zeitens ist er wohl einer der bessten CEO in der Computer welt, geschäfltich hat er es nämlich ziemlich drauf... zb. AMD träumt ja seit jahrzenten von solchen Zahlen die NV schon vorzuweisen hatte...

Klar AMD sehnt sich danach ne kleine Klitsche zu sein, die in der Hauptsache von "Gamern" lebt.

Dural
2010-01-10, 15:54:34
klein? NV hatte schon so viel Umsatz wie AMD/ATI und dabei 200-300Mio gewinn... was AMD in ihrer Firmen Geschichte noch nie erreicht hat...

AMD ist schon lange ein Sanierungsfall, was meint ihr eigentlich wie so sie die Herstellung ausgegliedert haben, weil es ihnen so gut geht???

Gast
2010-01-10, 15:56:53
klein? NV hatte schon so viel umsatz wie AMD/ATI und dabei 200-300Mio gewinn...

Jo daran machen "Profis" die Größe fest und am besten noch am Börsenwert...

Dural
2010-01-10, 16:01:25
der Umsatz/Gewinn ist eine hauptbasis die die grösse/wert einer firma festlegt du profi...

was nützt mir eine fertigung die wohl viel über Banken finanziert wurde... und jetzt erst recht noch ausgegliedert wurde...

Gast
2010-01-10, 16:07:06
der Umsatz/Gewinn ist eine hauptbasis die die grösse/wert einer firma festlegt du profi...

was nützt mir eine fertigung die wohl viel über Banken finaziert wurde... und jetzt erst recht noch ausgegliedert wurde...

Ja ich weiß der Markt der bedient wird ist völlig unbedeutend...
Und:
1.Ist das gerade völliges OT (in dem Thread nix neues)
2.Könnte Nvidia 100 Trillionen Gewinn machen und solche Aussagen wie von Jansen (wenn Sie denn wahr sein sollten) sind trotzdem absolut peinlich und höchstens für die Prollolo und Kiddi Zielgruppe toll.

Dural
2010-01-10, 16:09:48
was hat das jetzt mit seiner aussage zutun (von einer china seite mit google übersetzt... ob die von ihm ist oder nicht ist da schon fast egal...) ich ging auf den müll gar nicht wie es dir sicher aufgefallen ist...

es ist ürbigens sehr schwer eine firma richtig zu bewerten, in der regel sagt man bei einer übernahme ein jahres umsatz oder der gewinn x 8 kommt halt auch immer drauf an was die firma zubieten hat patente usw. und wie "gesund" sie ist... das macht dann das plus / minus aus...

StefanV
2010-01-10, 16:23:07
was für ein desaster?
Hm, mal überlegen...
Das Desaster, dass man AMD den gesamten Markt für ein halbes Jahr (oder mehr) überlassen hat, ohne auch nur mit irgendwas vergleichbarem antreten zu können und dass man nicht in der Lage ist, 'nen Midrange Chip zeitnah auf den Markt zu schmeißen.

AMD hat den Juniper ja recht zeitnah nach dem Cypress vorgestellt, die kleineren OEM Chips sind gerade aufm Wege, man hat also ein komplettes D3D11 Lineup, während nV hier gar nichts anzubieten hat, was für die OEMs interessant ist.

Man lebt gerad nur vom Image...

Gast
2010-01-10, 16:27:07
es ist ürbigens sehr schwer eine firma richtig zu bewerten, in der regel sagt man bei einer übernahme ein jahres umsatz oder der gewinn x 8 kommt halt auch immer drauf an was die firma zubieten hat patente usw. und wie "gesund" sie ist... das macht dann das plus / minus aus...

Das stimmt und ist eigentlich auch Das was ich ausdrücken wollte.
Für viele Patente die AMD besitzt ist es schwer überhaupt einen Wert zu bestimmen.
Allein die Patente, die man mit Intel getauscht hat, dürften mehr Wert sein als die 1.4 Mrd $, die man dazu erhalten hat.

Gast
2010-01-10, 16:40:51
Klar AMD sehnt sich danach ne kleine Klitsche zu sein, die in der Hauptsache von "Gamern" lebt.
Die Hautpsache ist, das Nvidia lebt.
AMD vegetiert eben nur vor sich hin. Es ist schlicht unfassbar wie die trotz der Verluste weitermachen können.
Jensen wird nicht gehen, warum auch, er hat die Firma erstmal dahin gebracht wo sie jetzt steht. Vor 17 Jahren war da noch gar nichts.

N0Thing
2010-01-10, 16:45:23
Gerade Jennsen behauptet:

Das die Evergreen GPUS nicht den vollen Funktionsumfang der D3D11 Spezifikation unterstützen würden.

Der Fermi hingegen schon.



Quelle (http://www.cnhubei.com/)

Die Übersetzung ist so grottig, daß man ohne Bestätigung durch eine anerkannte Seite die "Informationen" besser ignorieren sollte. Fermi existiert nicht, kann aber DX11 besser als AMD-ATI...;D



Hm, mal überlegen...
Das Desaster, dass man AMD den gesamten Markt für ein halbes Jahr (oder mehr) überlassen hat, ohne auch nur mit irgendwas vergleichbarem antreten zu können und dass man nicht in der Lage ist, 'nen Midrange Chip zeitnah auf den Markt zu schmeißen.

AMD hat den Juniper ja recht zeitnah nach dem Cypress vorgestellt, die kleineren OEM Chips sind gerade aufm Wege, man hat also ein komplettes D3D11 Lineup, während nV hier gar nichts anzubieten hat, was für die OEMs interessant ist.

Man lebt gerad nur vom Image...

Den Markt haben sie ATI nicht überlassen, sie haben nur nicht zum gleichen oder zeitnahen Zeitpunkt DX11 Grafikkarten parat und bieten nicht mehr die schnellste Grafikkarte an. Definitiv keine Sache über die sich Nvidia freuen kann und vielleicht mit Verzögerung auch finanziell weh tun wird, aber den Markt überlassen ist für mich etwas anderes.

Cubitus
2010-01-10, 16:46:56
was hat das jetzt mit seiner aussage zutun (von einer china seite mit google übersetzt... ob die von ihm ist oder nicht ist da schon fast egal...) ich ging auf den müll gar nicht wie es dir sicher aufgefallen ist...


Mit den Aussagen die von China zu uns rüberschwappen lässt sich wenigstens spekulieren.

Zudem sind es meistens chinesische oder taiwanesische Seiten die auch als erstes handfeste Dinge wie, Benchmarks, Technische Daten oder Bilder liefern.

mapel110
2010-01-10, 16:48:20
Hm, mal überlegen...
Das Desaster, dass man AMD den gesamten Markt für ein halbes Jahr (oder mehr) überlassen hat, ohne auch nur mit irgendwas vergleichbarem antreten zu können und dass man nicht in der Lage ist, 'nen Midrange Chip zeitnah auf den Markt zu schmeißen.

AMD hat den Juniper ja recht zeitnah nach dem Cypress vorgestellt, die kleineren OEM Chips sind gerade aufm Wege, man hat also ein komplettes D3D11 Lineup, während nV hier gar nichts anzubieten hat, was für die OEMs interessant ist.

Man lebt gerad nur vom Image...
Ob das wirklich ein Vorteil ist, so viele Chips auf einem problematischen Prozess anzubieten, der obendrein noch sehr geringe Kapazitäten bei TSMC hat, wird sich erst in den nächsten 3-4 Monaten zeigen.

Gast
2010-01-10, 16:48:35
Die Hautpsache ist, das Nvidia lebt.
AMD vegetiert eben nur vor sich hin. Es ist schlicht unfassbar wie die trotz der Verluste weitermachen können.
Jensen wird nicht gehen, warum auch, er hat die Firma erstmal dahin gebracht wo sie jetzt steht. Vor 17 Jahren war da noch gar nichts.

Genau Das was ich vorher geschrieben hatte.
Wenn es genug "Werte"(wie auch immer geartet gibt), wird es immer Leute geben, die Dort wieder investieren werden.
Was da unfassbar ist verstehe ich nicht ganz.

Praktisch keine große IT-Firma kann auf eine lange Tradition zrückblicken(vielleicht noch IBM).
Alle anderen wurden Irgendwann von ein paar Leuten im "Hinterhof" gegründet.

Dural
2010-01-10, 16:51:23
habt ihr das schon gesehen???

http://img684.imageshack.us/img684/1899/58488748.th.jpg (http://img684.imageshack.us/i/58488748.jpg/)

727mm2 :eek:

kein cuda...

2000MHz Memory takt :eek:

Gast
2010-01-10, 16:55:22
habt ihr das schon gesehen???

http://img684.imageshack.us/img684/1899/58488748.th.jpg (http://img684.imageshack.us/i/58488748.jpg/)

727mm2 :eek:

hmm da fehlt ein Haken bei Cuda in gpuz

hmm vielleicht...:)

Dural
2010-01-10, 16:58:22
was aber nicht sein kann, da sonst kein PhysX laufen würde...

Edit:

Open CL... :freak:

y33H@
2010-01-10, 16:58:40
Ich schaffe grade mal 1/3 der Fps mit 30k Partikeln :usad:

boxleitnerb
2010-01-10, 16:58:58
Bei der Chipgröße könnten die Fermi gleich vergolden! Alter Schwede, glaub nicht, dass das stimmt!

Gast
2010-01-10, 17:00:12
Also GPU-Z 0.38 kennt noch keine GF100, also würde auf die Daten nicht viel geben.

Gast
2010-01-10, 17:02:39
was aber nicht sein kann, da sonst kein PhysX laufen würde...

Edit:

Open CL... :freak:

Das ist mir schon klar, dass es auf OpenCL laüft.
Nur müsste nicht grundsetzlich bei installiertem Treiber Cuda vorhanden sein?

Gast
2010-01-10, 17:04:34
Um welchen Faktor wäre denn eine potenzielle GF100 denn schneller als die GTX285, wenn man die Fluidmark-Werte für voll nimmt?

y33H@
2010-01-10, 17:06:26
EDIT
Fail, HW-PhysX war nicht an :usad: Noch mal benchen *g*

GTX275 Lighning in 1024 x 768 mit 30k Partikeln nach 68 sec:

http://www.abload.de/thumb/2010-01-10_171235ah4d.png (http://www.abload.de/image.php?img=2010-01-10_171235ah4d.png)

boxleitnerb
2010-01-10, 17:08:16
Beansprucht Fluidmark eher SP oder DP-Rechenwerke? Was schafft hier eine 5870?

Gast
2010-01-10, 17:09:20
Ist Fluidmark SP oder DP?

Ich kann mir keinen Grund vorstellen, weshalb es DP sein sollte.

Gast
2010-01-10, 17:11:35
Hmm... das bedeutet wohl, dass die Cuda-Effizienz massivst zugenommen hat (und das wussten wir schon vorher). Ob sich das aber wirklich auf Realworld-Applikationen übertragen lässt, ist eine andere Sache...

y33H@
2010-01-10, 17:14:44
HW-PhysX war nicht an.

GXT275 OC vs. "GTX380" sind 260 vs. 336 Fps. Komisch ... wobei der Shot XP ist, mit Win7 läufts iirc weitaus besser (+50). Wären dann eher 660 Fps und damit doch knapp 3x so viel.

boxleitnerb
2010-01-10, 17:17:33
+50 was? fps? Wie kommst du von 336 auf 660?

y33H@
2010-01-10, 17:25:16
Der Shot ist unter WinXP gemacht, mein Wert ist Win7. Und dank Win7 steigt zumindest bei mir der Fps-Wert um rund 50%.

N0Thing
2010-01-10, 17:27:06
EDIT
Fail, HW-PhysX war nicht an :usad: Noch mal benchen *g*

GTX275 Lighning in 1024 x 768 mit 30k Partikeln nach 68 sec:

http://www.abload.de/thumb/2010-01-10_171235ah4d.png (http://www.abload.de/image.php?img=2010-01-10_171235ah4d.png)


Auf welchen Werten läuft die Karte? Ich komme mit meiner GTX275 bei den gleichen Einstellungen unter Win7 auf deutlich niedrigere Ergebnisse:

http://www.abload.de/thumb/fluidmarkgtx2753adp.png (http://www.abload.de/image.php?img=fluidmarkgtx2753adp.png)

Cubitus
2010-01-10, 17:30:13
Hmm... das bedeutet wohl, dass die Cuda-Effizienz massivst zugenommen hat

Hmm die Sepzifikationen könnten ungefähr so aussehen


3,0 Milliarden Transistoren 40nm TSMC
384-bit Speicher Interface
512 Shader-Kerne [CUDA-Kerne]
32 CUDA-Prozessorkerne
pro Shader-Cluster 1 MB L1-Cache-Speicher 16KB Cache unterteilt in - Shared Memory
768KB L2 Cache-Speicher einheitlichen
Half Speed IEEE 754 Double Precision

Coda
2010-01-10, 17:38:16
Das ist doch alles nichts neues. Und auch nicht ungefähr. Das sind offizielle Informationen.

y33H@
2010-01-10, 17:44:24
@ N0Thing

702/1.404/1.161 MHz.
Win7 x64, 195.62.

AnarchX
2010-01-10, 17:47:46
habt ihr das schon gesehen???

http://img684.imageshack.us/img684/1899/58488748.th.jpg (http://img684.imageshack.us/i/58488748.jpg/)

727mm2 :eek:

kein cuda...

2000MHz Memory takt :eek:
Mit deiner GT 240 gebastelt?;)
http://img171.imageshack.us/img171/5964/cpuzm.png
Bei dieser ist/war wohl Transistorcount und Die-Size in der Datenbank vertauscht:
http://www.pclabs.com.tr/2009/12/14/palit-gt240-sonic-incelemesi/

Dural
2010-01-10, 17:50:26
hast 100 punkte ;)

sorry musste sein, sonst wirds ja langweilig ;)

da läuft PhysX nur auf der GT240, was habt ihr den für komisch systeme wenn ihr nicht mal auf diesen wert kommt... ;)

aber mal wieder recht intressant, postings wie meine GTX275 ist ja fast gleich schnell oder GPUZ erkennt GF100 nocht nicht werden einfach ignoriert... :)

Cubitus
2010-01-10, 17:54:28
:rolleyes: Naja wenigstens gibst du das zu.
Aber verwirrung stiften, das kann Rot/Grün besser :wink:

@Coda

Ja wobei ich mir bei dem SI noch nicht sicher wäre.

AnarchX
2010-01-10, 17:56:30
:
Ja wobei ich mir bei dem SI noch nicht sicher wäre,
vielleicht kommt ja doch noch ein 512bit breites SI.
Der Die-Shot (siehe z.B. 1. Posting) zeigt aber nur ein 384-Bit SI.

reunion
2010-01-10, 18:10:57
Mit deiner GT 240 gebastelt?;)


Typisch.

Cubitus
2010-01-10, 18:11:06
Der Die-Shot (siehe z.B. 1. Posting) zeigt aber nur ein 384-Bit SI.

Ja schon, aber der Fermi soll ja mitunter auch ECC RAM unterstützen, komischerweise werden in dem Whitepaper (http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf) einige technische Daten genannt, aber von der SI Größe las ich bis jetzt nix.

boxleitnerb
2010-01-10, 18:22:22
Typisch.

Ack. Wenn man nix Produktives beizutragen hat, kommt halt sowas. Der Kerl geht mir langsam auf den Keks. Lovesucks light (nix für ungut LZ).

Coda
2010-01-10, 18:24:05
Ja schon, aber der Fermi soll ja mitunter auch ECC RAM unterstützen
Die ECC-Daten werden in separaten RAM-Bereichen gespeichert, die RAM-Kapazität sinkt also.

Am SI ändert das rein gar nichts.

N0Thing
2010-01-10, 18:36:19
@ N0Thing

702/1.404/1.161 MHz.
Win7 x64, 195.62.


Gleiches OS, gleicher Treiber, 9.09.1112 PhysX-Software, nur eben auf Standardtakt und mit nur 896MB.




da läuft PhysX nur auf der GT240, was habt ihr den für komisch systeme wenn ihr nicht mal auf diesen wert kommt... ;)

Kein Dx10.1 /Direct Compute 4.1? :wink:

Vielleicht ist Fluidmark aber auch als Benchmark nicht zu gebrauchen, wenn schon bei y33H@ und mir so große Unterschiede auftreten.

y33H@
2010-01-10, 18:57:23
@ Dural

Wenn, dann machs gescheit ;)

http://www.abload.de/thumb/gtx380-gpuzm5uj.png (http://www.abload.de/image.php?img=gtx380-gpuzm5uj.png)

Gast
2010-01-10, 18:59:30
4 März und 1400M Transistors? ;)

y33H@
2010-01-10, 19:00:11
Ich sehe 3,1 ;D Aber hmmm, 3. März wäre ein Donnerstag ... Mittwoch wäre wohl sinniger.

Menace
2010-01-10, 19:04:53
Ach, da wir gerade bei den Wochentagen sind. Wann ist endlich der ominöse Dienstag (war doch Dienstag, oder? Ist schon so lange her), der hier schon mehrfach herbeigewünscht wurde. :freak:

Gast
2010-01-10, 19:06:45
ATi alleine macht seit Jahren Gewinn und nicht zu knapp.
ATI liegt in den letzten Quartalen vom Gewinn her irgendwo bei ~10 Millionen - nachdem die Firma bei einem Kaufpreis von 5 Millarden US-$ inzwischen nur noch knapp 2 Millarden wert ist. da ist die aussage einfach nur noch lächerlich :ugly:

nVidia entwickelt sich vom Verhalten her mehr und mehr Richtung Intel, was sehr sehr schade ist.
Das würde ich als kompliment bezeichnen.

i7 schlägt jede AMD-CPU weit und breit, mit dem Atom ist Intel AMD auch um gut drei Jahre vorraus und von den Finanzzahlen reden wir mal gar nicht ;)

AMD ist schon lange ein Sanierungsfall, was meint ihr eigentlich wie so sie die Herstellung ausgegliedert haben, weil es ihnen so gut geht???
"real men own fabs" :ugly:

Wenn man sich die Zahlen anguckt ist es eigentlich ein Wunder, dass AMD überhaupt noch existiert.

Menace
2010-01-10, 19:10:01
mit dem Atom ist Intel AMD auch um gut drei Jahre vorraus und von den Finanzzahlen reden wir mal gar nicht ;)


Äääh, falscher Thread und: der Atom ist "vorraus"? Na dann. :eek:

Gast
2010-01-10, 19:12:35
Äääh, falscher Thread und: der Atom ist "vorraus"? Na dann. :eek:
Schau dir mal die Verkaufszahlen an. AMD hat da ganze 0.

Dural
2010-01-10, 19:14:34
@ Dural

Wenn, dann machs gescheit ;)

http://www.abload.de/thumb/gtx380-gpuzm5uj.png (http://www.abload.de/image.php?img=gtx380-gpuzm5uj.png)

meins ist aber echt und kein fake, es wurden nur die einige schwarze balken hinzugefügt ;)

in dem System ist eine 5GHz CPU, da werdert ihr nie an die werte ran kommen, ausser eben mit CPU Power ;)

bin gerade auf 2000m und es ist -15°C UMTS ist cool ;)

Gast
2010-01-10, 19:18:56
Schau dir mal die Verkaufszahlen an. AMD hat da ganze 0.
Schlimmer noch, AMD könnte gerade beim Atom eine sehr ernsthafte Konkurrenz darstellen.
Billige CPUs teuer verkaufen ist nicht schwer, aber dazu noch eine gescheite IGP beilegen schon eher.

Gast
2010-01-10, 19:21:10
Schlimmer noch, AMD könnte gerade beim Atom eine sehr ernsthafte Konkurrenz darstellen.
Billige CPUs teuer verkaufen ist nicht schwer, aber dazu noch eine gescheite IGP beilegen schon eher.
Tja, könnte. Aber nein, dem Herrn CEO von AMD war die ja Marge nicht hoch genug - bis plötzlich alle Leute lieber die billigeren Atom-Geräte gekauft haben und keine mehr die AMD-Notebooks haben wollte. Ist ja im Grunde auch kein Wunder, im Notebook sind die AMD-CPUs einfach nur blamabel. Und jetzt hat Intel schon den Mobile i7....

reunion
2010-01-10, 19:28:03
Tja, könnte. Aber nein, dem Herrn CEO von AMD war die ja Marge nicht hoch genug - bis plötzlich alle Leute lieber die billigeren Atom-Geräte gekauft haben und keine mehr die AMD-Notebooks haben wollte. Ist ja im Grunde auch kein Wunder, im Notebook sind die AMD-CPUs einfach nur blamabel. Und jetzt hat Intel schon den Mobile i7....

Kann man jetzt zumindest mal wieder ansatzweise etwas schreiben das zum Thema passt? AMD hat nicht die Ressourcen von Intel und kann nicht nach Lust und Laune X Architekturen entwickeln und ggf. wieder einstampfen wenn es ihnen doch nicht gefällt. Manche tun hier wieder mal so als hätten sie die Weisheit mit dem Löffel gefressen und wüssten natürlich alles besser als Branchen-Insider. Das sich der AMD-CEO nachher nicht hinstellt und schwärmt wie toll Netbooks sind, wo er weiß das Bobcat nicht vor 2011 kommt sollte man mit etwas Verstand auch selbst herausfinden können.

san.salvador
2010-01-10, 19:29:31
Kann man jetzt zumindest mal wieder ansatzweise etwas schreiben das zum Thema passt? AMD hat nicht die Ressourcen von Intel und kann nicht nach Lust und Laune X Architekturen entwickeln und ggf. wieder einstampfen wenn es ihnen doch nicht gefällt. Manche tun hier wieder mal so als hätten sie die Weisheit mit dem Löffel gefressen und wüssten natürlich alles besser als Branchen-Insider. Das sich das AMD-CEO nachher nicht hinstellt und schwärmt wie toll Netbooks sind, wo er weiß das Bobcat nicht vor 2011 kommt sollte man mit etwas Verstand auch selbst herausfinden können.
Spitzenvorbild. :uup:

reunion
2010-01-10, 19:30:26
Spitzenvorbild. :uup:

Man muss ja nicht jeden Bullshit kommentarlos stehen lassen.

boxleitnerb
2010-01-10, 19:53:11
Aus einem anonymen Post bei BSON:

Take this with a grain of salt, but did anyone notice the Anonymous post on BSON with GF104 specs:

NVIDIA GeForce GTX 395 Specs :

- Codename "GF104".
- Dual Core GPU Design (Two GF100 "Fermi" Cores).
- 6.4 Billion Transistors In Total (TSMC 40nm Process).
- 32 Streaming Multiprocessors (SM).
- Each SM has 2x16-wide groups of Scalar ALUs (IEEE754-2008; FP32 and FP64 FMA).
- The 32 SMs Have 1536KB Shared L2 Cache.
- 1024 Stream Processors (1-way Scalar ALUs) at 1350MHz.
- 1024 ALUs In Total.
- 1024 FP32 FMA Ops/Clock.
- 512 FP64 FMA Ops/Clock.
- Single Precision (SP; FP32) FMA Rate : 2.76 Tflops.
- Double Precision (DP; FP64) FMA Rate : 1.38 Tflops.
- 256 Texture Address Units (TA).
- 256 Texture Filtering Units (TF).
- INT8 Bilinear Texel Rate : 153.6 Gtexels/s
- FP16 Bilinear Texel Rate : 76.8 Gtexels/s
- 80 Raster Operation Units (ROPs).
- ROP Rate : 48 Gpixels
- 600MHz Core.
- 640bit (2x320bit) Memory Subsystem.
- 4200 MHz Memory Clock.
- 336 GB/s Memory Bandwidth.
- 2560MB (1280MB Effective) GDDR5 Memory.
- New Cooling Design.
- High Power Consumption.

GTX395 is 60% faster than GTX380
GTX395 is 70% faster than HD5970
Release Date : May 2010, Price : 499-549 USD.

Spasstiger
2010-01-10, 19:59:10
GTX 395 70% schneller als die HD 5970 mit den Specs? Ich glaubs erst, wenn es Benchmarks von finalen Karten gibt.

N0Thing
2010-01-10, 20:04:01
Release Date : May 2010, Price : 499-549 USD.

Warum sollte der Preis so niedrig angesetzt sein? Das ist gerade mal 100$ teurer als eine HD5870 und 100$ billiger, als eine HD5970, wenn man sich die Preise bei Newegg anschaut. Und die unverbindlichen Preise der Hersteller liegen in der Regel über den Straßenpreisen.

horn 12
2010-01-10, 20:06:01
Für den Preis kann dies nicht stimmen, dann wäre sicherlich 799-899 Dollar fällig
Ebenso soll laut diesen Specs die GTX 380 knapp unter HD5970 liegen, und dann noch für magere 400-450 Dollar, wenn GTX 395 nur so billig wäre...
BullShit Hoch³

boxleitnerb
2010-01-10, 20:07:49
Sogar knapp über. Habs ja nur weitergegeben :)

reunion
2010-01-10, 20:14:30
Das könnte genau so gut der Wahrheit entsprechen wie es jemand frei erfunden haben könnte. Anhand der vorliegenden Tesla-Informationen wäre die TDP allerdings >400W.

Dural
2010-01-10, 20:32:49
Das könnte genau so gut der Wahrheit entsprechen wie es jemand frei erfunden haben könnte. Anhand der vorliegenden Tesla-Informationen wäre die TDP allerdings >400W.

aha und auf was schlisst du das jetzt???

C2070 hat 190Watt...

und oben wird mit keinem wort erwähnt mit welcher spannug die GPUs laufen sollen... da man bei GX2 Modelle immer die besste GPUs die man hat verbaut werden sollte dir ja klar sein...

und wie so geht man überhaupt wider auf so blödsinn ein, da es wohl um irgend welche auflistung der Spec. handelt die zutreffen könnte ist ja offensichtlich, oder nicht???

499.- für so eine Karte ist zeigt ja ziemlich deutlich das es wohl einfach eine wunschvorstellung ist...

Kann man jetzt zumindest mal wieder ansatzweise etwas schreiben das zum Thema passt? AMD hat nicht die Ressourcen von Intel und kann nicht nach Lust und Laune X Architekturen entwickeln und ggf. wieder einstampfen wenn es ihnen doch nicht gefällt. Manche tun hier wieder mal so als hätten sie die Weisheit mit dem Löffel gefressen und wüssten natürlich alles besser als Branchen-Insider. Das sich der AMD-CEO nachher nicht hinstellt und schwärmt wie toll Netbooks sind, wo er weiß das Bobcat nicht vor 2011 kommt sollte man mit etwas Verstand auch selbst herausfinden können.

du sagst damit doch gleich nichts andres als das die Geschäfftsleitung bei AMD komplett versagt hat in der richtung, nur falls es dir nicht aufgefallen wäre...

Gast
2010-01-10, 20:39:52
Kann man jetzt zumindest mal wieder ansatzweise etwas schreiben das zum Thema passt? AMD hat nicht die Ressourcen von Intel und kann nicht nach Lust und Laune X Architekturen entwickeln und ggf. wieder einstampfen wenn es ihnen doch nicht gefällt. Manche tun hier wieder mal so als hätten sie die Weisheit mit dem Löffel gefressen und wüssten natürlich alles besser als Branchen-Insider. Das sich der AMD-CEO nachher nicht hinstellt und schwärmt wie toll Netbooks sind, wo er weiß das Bobcat nicht vor 2011 kommt sollte man mit etwas Verstand auch selbst herausfinden können.
Gegen Atom müssten sie nichtmal was neues entwickeln.
AMD hat kleine CPUs. AMD hat gescheite IGPs.

AMD könnte damit auch locker ION Konkurrenz machen.

Gast
2010-01-10, 20:43:47
aha und auf was schlisst du das jetzt???

Wenn sie sonst nichts mehr haben kommen die TDP Geschichten.
Auch wenn jetzt die 5970 oder 4870 X2 auch nicht gerade sparsam sind, naja.

Immerhin hat sie genug VRAM, was man vom 400€ Geerät 5870 oder dem 600€ Gerät 5970 nicht behaupten kann.

Gast
2010-01-10, 20:50:02
Immerhin hat sie genug VRAM, was man vom 400€ Geerät 5870 oder dem 600€ Gerät 5970 nicht behaupten kann.
Definiere genug. :)

Gast
2010-01-10, 20:53:07
Wenn die Angaben stimmen:
Warum sind dann 1024 MB zuwenig und 1280 MB genug??;)

Schlammsau
2010-01-10, 21:03:04
GTX395 is 60% faster than GTX380
GTX395 is 70% faster than HD5970
Release Date : May 2010, Price : 499-549 USD.

So ein Dünsch.....wenn die Leistung stimmen würde, dürften die Karten 1000€ und mehr kosten!

Langsam wirds wirklich unglaubwürdig.

tombman
2010-01-10, 21:06:48
Egal wie schnell die GTX380 wird- unter 500€ wird sich im März sicher nix abspielen :ugly:
Da gibts wieder Händlerabzocke-Deluxe :ulol:

Sorkalm
2010-01-10, 21:10:04
Egal wie schnell die GTX380 wird- unter 500€ wird sich im März sicher nix abspielen :ugly:
Da gibts wieder Händlerabzocke-Deluxe :ulol:

Je nachdem wie schnell die Karten sind, könnte die potentielle Abwanderung von Kunden auf HD 5xxx das aber etwas ausbremsen. Etwas, was im Moment eben nicht geht, da es nichts gibt worauf man abwandern kann (is ja alles nicht nur dtl. langsamer, sondern auch lahmeres Featureset)...

mictasm
2010-01-10, 21:13:52
Da gibts wieder Händlerabzocke-Deluxe :ulol:
Hängt aber auch stark von der Verfügbarkeit ab. Bei Überschwemmung mit Karten klappt die Händlerabzocke nicht mehr.

Dural
2010-01-10, 21:15:25
glaube kaum das wir eine Fermi "Überschwemmung" im März sehen werden ;)

das einzig gute für NV ist, das sie ihre Fermi Produkte exakt auf den Markt abstimmen können, das konnte NV mit zb. GT200 nicht und mussten später nachziehen...

Ailuros
2010-01-10, 21:29:16
Ja schon, aber der Fermi soll ja mitunter auch ECC RAM unterstützen, komischerweise werden in dem Whitepaper (http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf) einige technische Daten genannt, aber von der SI Größe las ich bis jetzt nix.

Seite 7:

The GPU has six 64-bit memory partitions, for a 384-bit memory interface, supporting up to a total of 6 GB of GDDR5 DRAM memory. A host interface connects the GPU to the CPU via PCI-Express.

Das könnte genau so gut der Wahrheit entsprechen wie es jemand frei erfunden haben könnte. Anhand der vorliegenden Tesla-Informationen wäre die TDP allerdings >400W.

Dann schalt endlich mal EEC aus bei Quadros bzw. GeForces. Wer weiss vielleicht hilft es sogar.

AnarchX
2010-01-10, 21:56:52
It seems both cut-down and full part will be launching in March, placed on top of the GTX275 in the price list. Dual Fermi a couple of weeks after that. can't say if the cut-down part is 384 or 448. TDP for the "big" part should at least match HD5970.
http://www.xtremesystems.org/forums/showpost.php?p=4193179&postcount=704

Gast
2010-01-10, 22:06:11
Das könnte genau so gut der Wahrheit entsprechen wie es jemand frei erfunden haben könnte. Anhand der vorliegenden Tesla-Informationen wäre die TDP allerdings >400W.
Und wo ist das Problem, wenn der Kühlerhersteller einen Kühler für 400W baut? Dann ist der bei 300W doch wenigstens schön leise :)

Sorkalm
2010-01-10, 22:06:59
Placed in top of the GTX 275?

Heißt das jetzt einfach, das alles darüber aus der Preisliste rausfliegt (ist es praktisch ja eh schon), oder soll das eine Andeutung auf die Performance sein?


Schade das er "big part" nicht definiert, bei der Dual-Karte wärs kein Wunder, bei einer Single-Karte schon.

Ailuros
2010-01-10, 22:07:47
http://www.xtremesystems.org/forums/showpost.php?p=4193179&postcount=704

1 6-pin + 1 8-pin

reunion
2010-01-10, 22:12:12
Dann schalt endlich mal EEC aus bei Quadros bzw. GeForces. Wer weiss vielleicht hilft es sogar.

Warum sollte ECC den Stromverbrauch beeinflussen?

Coda
2010-01-10, 22:14:06
Es schält schon mehr Logik und es wird auch mehr Speichertraffic verursacht. Ob das relevant Mehrverbrauch verursacht weiß ich nicht.

reunion
2010-01-10, 22:16:12
aha und auf was schlisst du das jetzt???

C2070 hat 190Watt...

Stell dich nicht blöd. Ich diskutieren doch nicht über ein und denselben Wert. Von den Tesla-Daten ausgehend braucht eine solche "GF104" mit vollen 512SPs den von mir genannten TDP-Wert. Die 190W sind eindeutig als "typisch", 225W als "max" gekennzeichnet.


du sagst damit doch gleich nichts andres als das die Geschäfftsleitung bei AMD komplett versagt hat in der richtung, nur falls es dir nicht aufgefallen wäre...

Nein das sage ich nicht. Auch wenn es dir wirklich nicht aufgefallen sein sollte.

Gast
2010-01-10, 22:19:39
Warum sollte ECC den Stromverbrauch beeinflussen?
Wer berechnet denn wohl die ganze Zeit die Prüfsummen und vergleicht diese? Der heilige Geist?

Nein das sage ich nicht. Auch wenn es dir wirklich nicht aufgefallen sein sollte.
Wer trägt dann die Verantwortung dafür, dass AMD das Netbook-Segment jahrelang kampflos hingibt? Und auch in Sachen Highend-CPUs gar nichts im Petto hat? Und es bei Mobile-CPUs noch viel, viel düsterer aussieht?

reunion
2010-01-10, 22:20:38
Es schält schon mehr Logik und es wird auch mehr Speichertraffic verursacht. Ob das relevant Mehrverbrauch verursacht weiß ich nicht.

Nachdem AFAIK keine extra ECC-Leitungen verdrahtet werden, sondern die Speicherbandbreite beschnitten wird, sollte zumindest nicht mehr Traffic verursacht werden. Wie stark sich das Chipintern auswirkt wird man sehen müssen.

Ailuros
2010-01-10, 22:21:24
Warum sollte ECC den Stromverbrauch beeinflussen?

Anschliessend an die vorigen Posts: rechnest Du mehr oder weniger mit EEC?

reunion
2010-01-10, 22:25:57
Anschliessend an die vorigen Posts: rechnest Du mehr oder weniger mit EEC?

Wenn ich es wüsste würde ich nicht fragen. :)
Ich wage jedenfalls zu bezweifeln das hier eine in Relation zum gesamten Chip relevante Anzahl an zusätzlichen Transistoren, und damit zusätzlichen Stromverbauch schaltet/verursacht wird.

Coda
2010-01-10, 22:30:54
Nachdem AFAIK keine extra ECC-Leitungen verdrahtet werden, sondern die Speicherbandbreite beschnitten wird, sollte zumindest nicht mehr Traffic verursacht werden. Wie stark sich das Chipintern auswirkt wird man sehen müssen.
Es werden auf jeden Fall mehr Speicherzugriffe nötig sein. Nicht jedes Szenario ist Memory-Bound. Dementsprechend kann durch ECC auch effektiv mehr Speichertraffic verursacht werden.

Die ECC-Informationen werden nicht wie bei "normalem" ECC-Speicher inline gespeichert, sondern wohl separat.

reunion
2010-01-10, 22:33:09
Del

Coda
2010-01-10, 22:34:12
Siehe Edit.

reunion
2010-01-10, 22:39:08
Die ECC-Informationen werden nicht wie bei "normalem" ECC-Speicher inline gespeichert, sondern wohl separat.

Wie meinst du das? Es geht auf jeden Fall auch auf die Speichermenge:


* With ECC enabled, memory available to the user will be 2.625GB for an C2050 and 5.25GB for an C2070.

http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

Dural
2010-01-10, 22:41:08
ich stell mich nicht blöd an, du bist der einzige de immer noch nicht gschnallt hat das die TDP der TESLA noch nicht festgelegt wurde, wir haben nur ein MAX 225Watt mehr nicht...

übrigens was der typische Wert in der vegangenheit recht nah am TDP Wert...

Coda
2010-01-10, 22:42:42
Wie meinst du das? Es geht auf jeden Fall auch auf die Speichermenge:
Sag ich doch?!?

Wie auch immer, bei Aufgaben die nicht durch die Speicherbandbreite limitiert werden wird auf jeden Fall mehr durch den Speicher gehen als sonst. Nicht mehr und nicht weniger will ich dir mitteilen.

reunion
2010-01-10, 22:43:02
übrigens was der typische Wert der vegangenheit recht nah am TDP Wert...

Zwischen typisch 190W und max. 225W ist ja nicht gerade eine gigantische Differenz. Meinetwegen sind es 210W TDP, an meiner Aussagen ändert das genau gar nichts.

Sag ich doch?!?

Das wollte ich wissen.

Gast
2010-01-10, 23:24:28
GTX395 is 60% faster than GTX380
GTX395 is 70% faster than HD5970
Release Date : May 2010, Price : 499-549 USD.

:lol:

Das letzte Mal hat nVidia ATi mit der 8800 GTX dermaßen hinter sich gelassen. Die hatte allerdings ca. 80 % mehr Transistoren und eine prinzipiell völlig neue Architektur (Unified Shader), während der R580 im Grunde, rein von der Architektur her, ein R420, ein Refresh einer Karte aus Mitte 2004 war (G80 wurde Ende 2006 vorgestellt), mit nach wie vor 16 Pixelpipelines mit 1 TMU pro PP, nach wie vor 16 ROPs und 8 statt 6 Vertexpipelines. Durch den Erfolg der 9700 Pro (die sich ja angefangen von der GF 4 bis zur Präsentation der GF 6 nicht zu verstecken brauchte) hat ATi einfach nichts mehr getan. Die 9800 Pro war ein Refresh, wo lediglich an der Taktschraube gedreht worden ist, mit der X800 hat man einige Recheneinheiten erhöht, die X1900 war wieder nur eine Art Refresh. Von 2002 bis 2007 hat ATi die Leistung gerade mal etwas mehr als verdoppelt.

Lange Rede, kurzer Sinn. Niemals wird Fermi irgendwo im Bereich HD 5870 + 50 % liegen. Das ergab sich mit G80 einmal und wird so einfach nicht zu wiederholen sein imho.

Der_Korken
2010-01-10, 23:39:27
:lol:
Von 2002 bis 2007 hat ATi die Leistung gerade mal etwas mehr als verdoppelt.


Das ist doch Quatsch. Die Verdopplung hat die X850 gegenüber der 9700 doch schon längst erreicht. Und auch der Sprung von der X1800 auf die X1900 war nicht gerade klein. In neuen Spielen, wo Shaderpower gefragt ist, sieht eine X1800 kein Land mehr. Einzig die HD2900/3800er Serie hat beim Launch wenig Mehrleistung gebracht, doch auch hier wird der Unterschied größer je neuer die Spiele. Nicht zu vergessen die Entwicklung von SM2.0 zu SM4.1.

Gast
2010-01-10, 23:58:34
Und auch der Sprung von der X1800 auf die X1900 war nicht gerade klein.

Doch, der war klein: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Und von X850 XT auf X1800 XT war auch recht gering: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating_qualitaet

Die Leistung hat sich seit der 9700 Pro jedenfalls nicht verdreifacht in den 5 Jahren.

y33H@
2010-01-11, 00:13:20
Damals war X1800 XT @ X1900 XT klein, heute sind es oft +30 bis +40%.

Psychopat
2010-01-11, 00:35:38
Wer trägt dann die Verantwortung dafür, dass AMD das Netbook-Segment jahrelang kampflos hingibt? Und auch in Sachen Highend-CPUs gar nichts im Petto hat? Und es bei Mobile-CPUs noch viel, viel düsterer aussieht?

Das liegt ziemlicher sicher am nicht gerade üppigen Budget der letzten Jahre...

Knuddelbearli
2010-01-11, 00:43:07
HW-PhysX war nicht an.

GXT275 OC vs. "GTX380" sind 260 vs. 336 Fps. Komisch ... wobei der Shot XP ist, mit Win7 läufts iirc weitaus besser (+50). Wären dann eher 660 Fps und damit doch knapp 3x so viel.


seit wann ist 336 +50% 660 ... Hauptsache 3 fache Leistung und den fermi schönreden wollen ...

aber zum Glück schön auf die Schnauze gefallen mit deiner Milchmädchen Rechnung gönne ich dir ;D

y33H@
2010-01-11, 00:47:57
Oh, da macht man einmal unabsichtlich nen Fehler und schon kommen Leute wie du mit solchen Bullshit-Kommentaren an :rolleyes: Troll dich in deine Höhle.

Die ganze Sache war eh ein Fake von Dural.

Nightspider
2010-01-11, 00:53:33
Kam auf der CES jetzt eigentlich irgendwas interessantes raus?

Keine konkreten Infos zu Fermi?
Nix zu CUDA 3.0 ?
Nichtmal Benchmarks?
Noch nichtmal Spielszenen?

Da hatte ich wohl falsche Vorstellungen...

Und ich hatte schon gehofft das paar kranke Szenen aus Crysis 2 exclusiv auf Fermi präsentiert werden. :(

Knuddelbearli
2010-01-11, 00:57:46
wir leben unter Brücken! und ja genau deshalb auf die Schnauze geflogen weill es ein fake war ;-)

y33H@
2010-01-11, 01:04:58
Hast du das schon gesehen? ;D

http://www.abload.de/thumb/gtx380-gpuzm5uj.png (http://www.abload.de/image.php?img=gtx380-gpuzm5uj.png)

btw sry für den Ton, war nur grade etwas verärgert :usad:

Gast
2010-01-11, 01:05:55
Und ich hatte schon gehofft das paar kranke Szenen aus Crysis 2 exclusiv auf Fermi präsentiert werden. :(

Glaub ich weniger, Crytek ist wohl zu A/A übergesprungen :haha:

http://www.youtube.com/watch?v=04dMyeMKHp4

Gast
2010-01-11, 01:08:10
Hast du das schon gesehen? ;D

http://www.abload.de/thumb/gtx380-gpuzm5uj.png (http://www.abload.de/image.php?img=gtx380-gpuzm5uj.png)

btw sry für den Ton, war nur grade etwas verärgert :usad:

Ist das fake oder echt ? :ugly:

Knuddelbearli
2010-01-11, 01:09:02
jap war kurz in Versuchung das genau wie dural einfach mal so in irgend ein forum zu posten ^^

Ist nitmal schlecht gemacht find ich ^^

y33H@
2010-01-11, 01:11:44
Es ist ein echter Fake *g* Mal sehen wie nahe ich der Realität komme ;D

Gast
2010-01-11, 01:13:09
und wer hat das Ding gefakt? Dural oder wie ?

y33H@
2010-01-11, 01:13:47
Nö, ich. Dural hat einen eher schlechten verpixelten Fake mit seiner GT240 gebastelt, da wollte ich auch einfach mal.

Gast
2010-01-11, 01:15:08
freaks :ugly:

Knuddelbearli
2010-01-11, 01:15:11
seines war kein fake er hat nix gemacht außer paar sachen geschwärzt ;-)

y33H@
2010-01-11, 01:22:00
Naja, Fake im Sinne von so tun als ob halt :ugly:

aylano
2010-01-11, 01:26:10
Kam auf der CES jetzt eigentlich irgendwas interessantes raus?

Nix zu CUDA 3.0 ?

Da hatte ich wohl falsche Vorstellungen...

Cuda 3.0 ist anscheinend schon draußen.
http://www.nvidia.de/object/cuda_get_de.html

So wies aussieht, gibts die nur als beta

mapel110
2010-01-11, 05:52:39
http://www.pcper.com/comments.php?nid=8240
Noch ein Video der Sled Demo.

Odal
2010-01-11, 12:07:12
Glaub ich weniger, Crytek ist wohl zu A/A übergesprungen :haha:

http://www.youtube.com/watch?v=04dMyeMKHp4

eyefinity ist doch wohl der grösste bullshit ever

Schlammsau
2010-01-11, 12:09:26
eyefinity ist doch wohl der grösste bullshit ever
Warum?

Ist zwar unbezahlbar.....aber die Grundidee ist grandios!

mapel110
2010-01-11, 12:11:28
Warum?

Weils von ATI ist. :weg:

Inwiefern unbezahlbar? Die paar Kröten für zwei weitere TN-Panels sollte jeder haben. Blickwinkel sollte ja keine Rolle spielen, weil man eh direkt davor sitzt. nvidias Lösung ist eh nur dazu da um zu zeigen "was ATI kann, können wir schon lange". Unbrauchbar, aber ein Check auf der Featureliste mehr.
Hoffentlich ist das nicht alles, was von nvidia kommt.

Noch ein paar Teaser:
I'm whole day on GF100 briefing. Gosh...this is really amazing GPU and by far best we ever made. I'm sure gamers will love it.

Had a good look at GeForce GF100. Blown away, this really will change everything!

Sorkalm
2010-01-11, 12:12:05
Die Leistung hat sich seit der 9700 Pro jedenfalls nicht verdreifacht in den 5 Jahren.

Mach mal nen Direkttest HD 2900 XT gegen 9700 Pro. Du wirst dich wundern. :P

Palpatin
2010-01-11, 12:36:47
eyefinity ist doch wohl der grösste bullshit ever brauch zwar vorerst kein eyefinity, finds aber klasse das ich endlich 3 TFTs an die Graka hängen kann und das wird auch genutzt.

=Floi=
2010-01-11, 12:39:19
das eyefinity video ist ja nicht gerade der kracher, weil rechts das halbe bild von der waffe verdeckt wird. man brächte wohl auch eine halterung, um die monitore angewinkelt zum user zu positionieren. nice to have und für desktopanwendungen sicherlich nett. mehr ist das aber nicht.
die leistung reicht nicht mal für 1920x1200@8xTSAA und da braucht man sich über mehr keine gedanken zu machen.

Gast
2010-01-11, 12:44:37
...

Noch ein paar Teaser:
I'm whole day on GF100 briefing. Gosh...this is really amazing GPU and by far best we ever made. I'm sure gamers will love it.

Had a good look at GeForce GF100. Blown away, this really will change everything!

sagt wer? jennsn? *LOL*

Odal
2010-01-11, 12:55:56
Warum?

Ist zwar unbezahlbar.....aber die Grundidee ist grandios!


ich will keine fensterrahmen in meinen Gesicht haben
ausserdem dürfte die Performance ziemlicher Crap sein
lieber einen 22-24" TFT + DS da hat die meiste Hardware schon dran zu knabbern

wenn ich rundumsicht haben will dann doch lieber sowas wie ein headtracker (wobei ich den auch nicht gerade sinnig finde)

derguru
2010-01-11, 13:06:16
eyefinity ist doch wohl der grösste bullshit ever
für dich und punkt.

N0Thing
2010-01-11, 13:14:20
Noch ein paar Teaser:
I'm whole day on GF100 briefing. Gosh...this is really amazing GPU and by far best we ever made. I'm sure gamers will love it.

Had a good look at GeForce GF100. Blown away, this really will change everything!


Wenn diese Aussage von nem Journalisten kommen würde, wäre es irgendwie von Wert. Aber daß jemand sein neues Produkt nicht in den Himmel lobt kommt, darauf muß man lange warten. Ist ja auch schon bei Musik so, da ist das neue Album immer ein Meilenstein, oder zumindest besser und vorherige nun nicht mehr ganz so gut. ^^

Dural
2010-01-11, 13:15:50
hat ja recht, die rahmen sind untragbar beim zocken und dann erst noch die verzerungen...

würds mal gerne mal ohne rahmen sehen...

reunion
2010-01-11, 13:20:57
hat ja recht, die rahmen sind untragbar beim zocken und dann erst noch die verzerungen...

würds mal gerne mal ohne rahmen sehen...

Das wusste man auch schon vorher das es für dich untragbar ist. Wenn du es wenigstens mal in der Praxis gesehen hättest. Alle Praxistests die ich bis dato gelesen hatte äußern sich äußerst positiv, die Rahmen sollen nach kurzer Zeit kaum mehr auffallen. Ich erlaube mir da jedenfalls kein Urteil ohne es probiert zu haben.

darkvader
2010-01-11, 13:24:46
hat ja recht, die rahmen sind untragbar beim zocken und dann erst noch die verzerungen...


Sowohl Rahmen als auch Verzerrung interessieren kaum. Du fokussierst ja weiterhin auf den mittleren Monitor, und rechts und links ist mehr zur Erweiterung des Sichtfelds und für die Augenwinkel.

Ist im Prinzip wie im Auto auch - da haste ja auch die A-Säule zwischen Windschutzscheibe und Seitenfenstern. Aber das ist immer noch deutlich besser als wenn du keine Seitenfenster hättest.

Ich spiele seit 8 Wochen mit EF - und ich finds super.

Spasstiger
2010-01-11, 13:52:41
Wer die Kohle hat, stellt sich drei FullHD-Beamer nebeneinander und hat ein geiles Eyefinity-Erlebnis. Monitorrahmen sind kein berechtigter Kritikpunkt von Eyefinity.
Die Sled-Demo schaut recht lustig aus, aber auf die Performance lässt das Video leider keine Rückschlüsse. Nvidia scheint auf jeden Fall noch nicht bereit für die Markteinführung der GeForce-GTX-3xx-Reihe zu sein, sonst würden sie uns nicht solche Appetithäppchen wie 3D Vision Surround hinwerfen, sondern direkt die Katze aus dem Sack lassen.

James Ryan
2010-01-11, 13:57:52
AMD könnte sich mit einigen Monitorherstellern kurzschließen und spezieller "Eyefinity"-Monitore mit gar keinen oder nur einem sehr kleinen Rahmen rausbringen. So aufwändig dürfte das nicht sein, und der größte Kritikpunkt von Multi-Monitor-Gaming würde wegfallen!
Warum wird das nicht gemacht? :confused:

MfG :cool:

mapel110
2010-01-11, 13:58:48
AMD könnte sich mit einigen Monitorherstellern kurzschließen und spezieller "Eyefinity"-Monitore mit gar keinen oder nur einem sehr kleinen Rahmen rausbringen. So aufwändig dürfte das nicht sein, und der größte Kritikpunkt von Multi-Monitor-Gaming würde wegfallen!
Warum wird das nicht gemacht? :confused:

MfG :cool:
Es sind doch schon Monitore mit kleinerem Rahmen angekündigt iirc. Dazu gabs doch Meldungen.

James Ryan
2010-01-11, 14:01:33
Angekündigt != Lieferbar
Eyefinity gibts schon Monate! Solche Ankündigen gabs auch schon von Matrix bezüglich deren Multi-Monitor-Box, bis heute kam da nichts.
Wenn AMD was an Eyefinity liegen würde, müssten die sich richtig reinhängen und diesen Kritikpunkt schnellstmöglich eliminieren, bevor NVIDIA denen zuvor kommt!

MfG :cool:

reunion
2010-01-11, 14:28:49
Samsung hat die Dinger schon gezeigt und die Massenproduktion angekündigt. Das geht nicht von heute auf morgen, manche haben Vorstellungen. Was soll sich da AMD "reinhängen"? Die Dinger kommen übrigens inkl. Halterungen für bis zu sechs Monitore und das wohl gleichzeitig mit der 5870 "SIX". NV schafft nicht mal mit Fermi mehr als zwei Monitore, also so schnell wird die niemand zuvor kommen.

Dural
2010-01-11, 14:37:02
Das wusste man auch schon vorher das es für dich untragbar ist. Wenn du es wenigstens mal in der Praxis gesehen hättest. Alle Praxistests die ich bis dato gelesen hatte äußern sich äußerst positiv, die Rahmen sollen nach kurzer Zeit kaum mehr auffallen. Ich erlaube mir da jedenfalls kein Urteil ohne es probiert zu haben.

was machst du mich wieder blöd an?
im gegensatz zu dir bin ich kein möchte gern AMD fan der von einer 5870 + 3x TFT träumt, ICH HABE ES ZUHAUSE!!!

Ich weis wohl sehr genau wie sich das anfühlt, also klappe halten, klar?

das sich AMD fans mit solchen sachen zufriden geben zeigt ja nur wie anspruchslos die sind, die einzige vernünftige möglichkeit wäre wohl mit beamer so wie ich es schon geschrieben habe und auch ganz klar erwähnt habe das ich es mal so sehen möchte....

Entweder hast Du den Anstand den obrigen Mist zu loeschen oder ich goenn Dir gerne ein paar Tage Urlaub. Your call.

Ailuros
2010-01-11, 14:38:29
Das wusste man auch schon vorher das es für dich untragbar ist. Wenn du es wenigstens mal in der Praxis gesehen hättest. Alle Praxistests die ich bis dato gelesen hatte äußern sich äußerst positiv, die Rahmen sollen nach kurzer Zeit kaum mehr auffallen. Ich erlaube mir da jedenfalls kein Urteil ohne es probiert zu haben.

Es dreht sich auch nicht die gesamte Welt nur um Spiele. Ich koennte sehr wohl ein triple-monitor setup fuer die Arbeit gebrauchen und es wuerde meine Produktivitaet auch erheblich erhoehen. Das dumme ist eben dass ich trotz relativ maessigen Kosten fuer so ein setup nie im Leben meinen Arbeitgeber ueberreden kann, zumindest nicht bis sich die verdammte Krise ausgebuegelt hat.

_DrillSarge]I[
2010-01-11, 14:45:38
Es dreht sich auch nicht die gesamte Welt nur um Spiele. Ich koennte sehr wohl ein triple-monitor setup fuer die Arbeit gebrauchen und es wuerde meine Produktivitaet auch erheblich erhoehen. Das dumme ist eben dass ich trotz relativ maessigen Kosten fuer so ein setup nie im Leben meinen Arbeitgeber ueberreden kann, zumindest nicht bis sich die verdammte Krise ausgebuegelt hat.
dafür brauchst du aber weder eyefinity, noch ne neuere gpu etc.. das können selbst die kleinen radeons + igp (nennt sich "SurroundView" oder so). da gehen dann sogar 4 monitore (je nach dem, wieviel anschlüsse vorhanden). bei nv dürfte das ähnlich aussehen, somit ist das ganze auch nicht wirklich "neu" oder "high-end" abseits von gaming ;).

reunion
2010-01-11, 14:52:29
was machst du mich wieder blöd an?
im gegensatz zu dir bin ich kein möchte gern AMD fan der von einer 5870 + 3x TFT träumt, ICH HABE ES ZUHAUSE!!!

Ich weis wohl sehr genau wie sich das anfühlt, also klappe halten, klar?


Du wurdest hier schon mehrmals der Lüge überführt, warum sollte ich dir irgend was glauben? Und ansonsten würde ich den Rat von Ailuros befolgen wenn du keine (wohl verdiente) Auszeit willst, dein Niveau ist mal wieder unter aller Kanone.

James Ryan
2010-01-11, 14:52:44
Samsung hat die Dinger schon gezeigt und die Massenproduktion angekündigt. Das geht nicht von heute auf morgen, manche haben Vorstellungen. Was soll sich da AMD "reinhängen"? Die Dinger kommen übrigens inkl. Halterungen für bis zu sechs Monitore und das wohl gleichzeitig mit der 5870 "SIX". NV schafft nicht mal mit Fermi mehr als zwei Monitore, also so schnell wird die niemand zuvor kommen.

Schon wieder nur eine Ankündigung.
Die HD5000er Reihe gibt es seit dem 23. September! Wie lange dauert es, einen rahmenlosen Monitor zu produzieren und seitens AMD dafür Werbung zu machen? :confused: Sorry, aber so ist Eyefinity nichts weiter als eine Spielerei und man hat den Eindruck, das selbst AMD es nicht "ernst" nimmt.

Ein Gegenbeispiel: NVIDIA hat ihre 3D-Lösung vorgestellt, diese ist lieferbar, auf Wunsch mit passenden Monitor (NVIDIA hat sich mit Samsung zusammen getan). Warum bekommt AMD sowas mit Eyefinity nicht zügig hin? Stattdessen gibt es halbfertige Features, die so nicht wirklich nutzbar sind.

Sorry for Offtopic!

MfG :cool:

Menace
2010-01-11, 14:54:08
Ich weis wohl sehr genau wie sich das anfühlt, also klappe halten, klar?

das sich AMD fans mit solchen sachen zufriden geben zeigt ja nur wie anspruchslos die sind, die einzige vernünftige möglichkeit wäre wohl mit beamer so wie ich es schon geschrieben habe und auch ganz klar erwähnt habe das ich es mal so sehen möchte....


Ich halte mal kurz nicht die Klappe. Als Spiel möchte ich es gar nicht haben, aber zum Arbeiten sind 3 Monitore besser als 2. Da würde ich mich dann auch als AMD, Ati und Nvidia-Fan zufrieden geben. Ich hoffe doch, dass man das in Zukunft auch mit kleinen Nvidia-Grakas schafft.

Gast
2010-01-11, 14:58:12
Samsungs Eyefinity-Monitor heißt MD230 soll wohl demnächst rauskommen: http://www.heise.de/newsticker/meldung/Rundumsicht-garantiert-900210.html

Menace
2010-01-11, 14:58:19
Schon wieder nur eine Ankündigung.
Die HD5000er Reihe gibt es seit dem 23. September! Wie lange dauert es, einen rahmenlosen Monitor zu produzieren und seitens AMD dafür Werbung zu machen? :confused: Sorry, aber so ist Eyefinity nichts weiter als eine Spielerei und man hat den Eindruck, das selbst AMD es nicht "ernst" nimmt.


Eyefinity gibt es doch aber. Warum wird das AMD vorgeworfen? Und bzgl. effektiveres Arbeiten mit mehr Monitoren wurden ja schon erwähnt (momentan 90 % Einsatz am PC). Wäre mir momentan wichtiger als 3D. Wobei beides natürlich am besten wäre.

V2.0
2010-01-11, 15:02:12
Schon wieder nur eine Ankündigung.
Die HD5000er Reihe gibt es seit dem 23. September! Wie lange dauert es, einen rahmenlosen Monitor zu produzieren und seitens AMD dafür Werbung zu machen? :confused: Sorry, aber so ist Eyefinity nichts weiter als eine Spielerei und man hat den Eindruck, das selbst AMD es nicht "ernst" nimmt.

Ein Gegenbeispiel: NVIDIA hat ihre 3D-Lösung vorgestellt, diese ist lieferbar, auf Wunsch mit passenden Monitor (NVIDIA hat sich mit Samsung zusammen getan). Warum bekommt AMD sowas mit Eyefinity nicht zügig hin? Stattdessen gibt es halbfertige Features, die so nicht wirklich nutzbar sind.

Sorry for Offtopic!

MfG :cool:

Die Frage ist, ob es sich für Samsung rechnet. Der Monitor würde sich wohl nur an Spieler wenden, die Eyefinity möchten, denn wer nur 3 Monitore nutzen möchte, der will in den seltesnten Fällen ein Bild auf 3 Monitoren, sondern eher 3 Anwendungen (Fenster) auf jeweils einem Monitor und da ist der dünne Rahmen unwichtig. Kommen wird es aber sicherlich und wann es kommt liegt nicht in der Hand von ATI.

Ich habe Eyefintiy vorgeführt bekommen aber abgesehen vom o.h. 3-Monitorbetrieb würde ich mir zum Gamen immer lieber einen großen Monitor hinstellen, denn Bildbearbeitung oder LAyout z.B. geht auch mit einen hauchdünnen Rahmen nicht wirklich gut und da ist ein großer Monitor immer besser nutzbar. (universeller)

Gast
2010-01-11, 15:08:53
Es dreht sich auch nicht die gesamte Welt nur um Spiele. Ich koennte sehr wohl ein triple-monitor setup fuer die Arbeit gebrauchen und es wuerde meine Produktivitaet auch erheblich erhoehen.

Nur braucht es dafür kein eyfinity, mehrere Monitore für mehr Arbeitsfläche ist nichts neues und kann auch mit älteren ATI und NV-Karten realisiert werden.

Das "besondere" an eyefinity ist ja, dass mehrere Monitore für die Software wie ein einzelner großer Monitor angesprochen werden, und das braucht es eigentlich nur für Spiele.

Ailuros
2010-01-11, 15:09:33
I[;7774645']dafür brauchst du aber weder, eyefinity, noch ne neuere gpu etc.. das können selbst die kleinen radeons + igp (nennt sich "SurroundView" oder so). da gehen dann sogar 4 monitore (je nachdem, wieviel anschlüsse vorhanden). bei nv dürfte das ähnlich aussehen, somit ist das ganze auch nicht wirklich "neu" oder "high-end" abseits von gaming ;).

Unter der Vorraussetzung dass ein dementsprechendes motherboard auch existiert. Wenn nicht ist wohl die eine und einzige Loesung doch praktischer am Ende.

Menace
2010-01-11, 15:09:40
Nur braucht es dafür kein eyfinity, mehrere Monitore für mehr Arbeitsfläche ist nichts neues und kann auch mit älteren ATI und NV-Karten realisiert werden.


Wie?

_DrillSarge]I[
2010-01-11, 15:11:02
Unter der Vorraussetzung dass ein dementsprechendes motherboard auch existiert. Wenn nicht ist wohl die eine und einzige Loesung doch praktischer am Ende.
???
da kannst du jedes x-beliebige mobo mit 7er-igp nehmen.
€: oder meinst du, dass schon ein solches mainboard bei dir vorhanden ist/sein muss? :D

Ailuros
2010-01-11, 15:16:41
I[;7774698']???
da kannst du jedes x-beliebige mobo mit 7er-igp nehmen.
€: oder meinst du, dass schon ein solches mainboard bei dir vorhanden ist/sein muss? :D

Ja ich meine dass ein solches motherboard nicht vorhanden ist. Es ist sowieso eine nutzlose Debatte da die Firma mir jeglichen relevanten upgrade (egal welche Loesung + mehrere Bildschirme) nicht goennen wuerde. Fuer die Natur meiner Arbeit waere es so oder so ideal. Aber jetzt genug bitte mit dem OT.

James Ryan
2010-01-11, 15:16:43
Eyefinity gibt es doch aber. Warum wird das AMD vorgeworfen? Und bzgl. effektiveres Arbeiten mit mehr Monitoren wurden ja schon erwähnt (momentan 90 % Einsatz am PC). Wäre mir momentan wichtiger als 3D. Wobei beides natürlich am besten wäre.

Ich werfe AMD mangelnden Einsatz vor! Ich persönlich finde Eyefinity prima, habe aber den Eindruck, dass AMD es nur halbherzig unterstützt, so ala "Wir haben ein tolles Feature, Spielen mit 6 Monitoren, aber Rahmen mitten im Bild!".

Die gezeigten Samsung-Monitore haben mir persönlich immer noch einen zu breiten Rahmen. :freak:

MfG :cool:

Gast
2010-01-11, 15:19:48
ähm... nur so nebenbei: was hat eyefinity mit fermi zu tun? die letzten seiten sind wieder mal total für'n hugo.

Ailuros
2010-01-11, 15:29:03
ähm... nur so nebenbei: was hat eyefinity mit fermi zu tun? die letzten seiten sind wieder mal total für'n hugo.

Gut dann wird's Zeit dass der schlechteste mod hier das Blatt etwas wendet:

Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach ;)

Gast
2010-01-11, 15:41:25
Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach ;)
Heisst das du bist im besitz einer fermi?? :D

Ailuros
2010-01-11, 15:47:36
Heisst das du bist im besitz einer fermi?? :D

Nein.

desert
2010-01-11, 15:49:44
Gut dann wird's Zeit dass der schlechteste mod hier das Blatt etwas wendet:

Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach ;)

Das klingt doch schon ganz gut.

Menace
2010-01-11, 15:51:31
Nur noch Stromverbrauch und Schnelligkeit.... ;)

Ailuros
2010-01-11, 15:53:37
Ich bin mir auf jeden Fall erstmal sicher dass ich den Nagel auf den Kopf getroffen habe mit 32xAA.