PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Gast
2010-04-01, 00:08:54
Irgendwas hat das Forum kaputt gemacht. April, April. :usad:

Banshee18
2010-04-01, 00:14:20
Ok....wenn einen das Geld nicht kümmert und man vor Treiberfehler gefeit ist (GeForce Lüfterbug ;)) kann man ohne bedenken zur 480 greifen.
Du gehst das Thema mal wieder sehr einseitig an.
Ich würde Fermi nicht als epic fail bezeichnen, aber den Titel Fail hat er verdient.
Selbst "Fail" finde ich übertrieben, dafür gibts einfach zuviele positive Punkte bei Fermi. Wäre der Verbrauch nicht so hoch und der Lüfter somit leiser, würde kaum jemand über Fermi meckern.
Hätte NV einen sehr guten Kühler auf ihre Karten geschraubt, sähe die Welt schon ganz anders aus. Man darf dabei nicht vergessen, dass eine niedrigere Temperatur auch mit einem niedrigeren Verbrauch einhergeht.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php

aths
2010-04-01, 00:20:08
So hab ich auch lange gedacht... Schau Dir aber Thermi/Faili an und vergleich sie mit einem Cypress. Im Ernst, Wer diese Fail-Begriffe nutzt, meint es nicht ernst.

AMC
2010-04-01, 00:29:42
Wer diese Fail-Begriffe nutzt, meint es nicht ernst.

Ich bin sowohl Profi, wie auch Privatmensch. Was ich in diesem Forum sage, ist eine Mischung aus beidem. Danke, dass mir dies erlaubt ist. :)

AMC
2010-04-01, 00:39:32
Selbst "Fail" finde ich übertrieben, dafür gibts einfach zuviele positive Punkte bei Fermi. Wäre der Verbrauch nicht so hoch und der Lüfter somit leiser, würde kaum jemand über Fermi meckern.

1. Simone Simons ist :love4:
2. Doch, würde man. Die gebotene Performance ist im Zeitkontext grauenhaft schlecht. Normalerweise kann man von einer Generation, die sechs Monate nach der Konkurrenz auf den Markt kommt, klar mehr Geschwindigkeit erwarten -> Fermi enttäuscht daher ziemlich. Dass AMD/ATI durch die eigene schlechte Verfügbarkeit daraus keinen größeren Nutzen ziehen konnte, steht auf einem anderen Blatt. Nichtsdestotrotz erinnert Fermi stark an den NV30 Launch. Dass nV mit der Architektur noch wird punkten können, wird wohl niemand ernsthaft bezweifeln, aktuell (oder besser: seit September 2009) hat AMD jedoch gepunktet. Diese Runde geht meiner Meinung nach an Cypress.


Hätte NV einen sehr guten Kühler auf ihre Karten geschraubt, sähe die Welt schon ganz anders aus. Man darf dabei nicht vergessen, dass eine niedrigere Temperatur auch mit einem niedrigeren Verbrauch einhergeht.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php

3. Hatte ich erwähnt das Simone Simons :love4: ist? Nein? Mir gefällt sie vor allem auf Ayreon's 81 "Y". :biggrin:
2. Ein besserer Kühler führt nur die vorhandene Wärme besser ab, an der Verlustleistung der GPU hingegen ändert er nichts!

AMC
2010-04-01, 00:48:06
Den Support kann man auch als Ein-Mann-Team bekommen...

Sag nichts gegen den Ein-Mann-Team Support...;) ich kann mich noch lebhaft an einen Ingenieur erinnern, der mir nach B. in D. geschickt wurde (wenn Du aus der Szene kommst, weißt Du, was ich meine: die Biene, die blaue Blumen liebt) und der war echt eine Ein-Mann-Armee, hat Workarorunds in meinen blauen-Biene-ASM Code geschrieben, die ich nach mathematischer Verifikation als wirklich hervorragend beurteilt habe (izi, wenn man selbst an der HW-entwickelt hat :freak:), auf jeden Fall ist die Qualität des Supports meiner Berufserfahrung nach nicht an die Größe der Teams gebunden. ;)

Leider gilt das nicht für Marketing/BWL/VWL und sonstige pseudo- und Kunstwissenschaftliche Mitarbeiter. ;)

Gast
2010-04-01, 00:53:06
@IVN:
Das alles ändert nichts daran dass Nvidia bei den Teslas riesige Margen hat - ergo MUSS der gebotene Mehrwert (Speichermenge, Support, etc.) weniger wert sein als der Preisaufschlag. Das Preis/Leistungsverhältnis verschiebt sich bei den Teslas also zu ungunsten des Käufers.

Das einzige, was die Preisdifferenz Geforce/Tesla etwas abschwächt ist die Tatsache, dass die Geforce-Karten "quersubventioniert" werden. Gäbe es also die großen Gewinnspannen bei den Teslas nicht müsste Nvidia die Preise der Geforces erhöhen (oder überhaupt einen anderen Weg einschlagen) damit diese die Entwicklungs- und Produktionskosten überhaupt tragen können.

Iruwen
2010-04-01, 00:54:31
Zur NV-Treiber-Quali. War da nicht was in letzter Zeit mit nicht mehr funktionierenden OC und abschalten der Lüftersteuerung die sogar Karten hat abrauchen lassen?

Hier sind doch Autovergleiche so beliebt, in diesem Fall ist Nvidia Toyota (aktuell Fertigungsprobleme, innovativ) und ATI Opel (überholte Vorurteile, solide). Und das ist bei keinem von beiden negativ gemeint.

Iruwen
2010-04-01, 00:57:17
Denkst Du ernsthaft, dass sich kein Geldgeber informiert, für was er das "professionelles" Geld ausgibt? Mir sind solche Idioten in meiner Laufbahn noch nicht untergekommen...

Schonmal gesehen was Speicherupgrades mit 08/15 Speicher für beispielsweise HP Drucker oder Cisco Router kosten? Idioten gibt es überall, besonders ganz oben wo die Realität nicht mehr viel Bedeutung hat :freak:

AMC
2010-04-01, 01:03:25
Schonmal gesehen was Speicherupgrades mit 08/15 Speicher für beispielsweise HP Drucker oder Cisco Router kosten? Idioten gibt es überall, besonders ganz oben wo die Realität nicht mehr viel Bedeutung hat :freak:

Mir sind Dilbert- und Peter-Prinzip natürlich ein Begriff. ;) Es gibt allerdings einen Unterschied zu diesen "alteingesessenen" Bereichen: GPGPU und HPC sind zeitlich gesehen "sehr schnell" aktuell geworden. So schnell, dass es die meisten Pointy-Haired Bosses nicht gerafft haben und stattdessen ihren Dilbert vorschicken, oder wenigstens bei der Entscheidung mit einbeziehen. Vergiss nicht: Im Management sind 4 Jahre = 4 Jahre, in der Informatik sind 4 Jahre "fast" schon eine Ewigkeit... ;)

/edit Ich möchte dazu noch anmerken, dass wir keine Cisco Router nutzen, wir haben da eigene HW. ;) Was Drucker und desselben Speicher angeht, habe ich keine Ahnung. Ich weiß nur, dass wir sehr Verträge mit HP und Canon abgeschlossen haben.

Iruwen
2010-04-01, 01:06:10
Ein besserer Kühler führt nur die vorhandene Wärme besser ab, an der Verlustleistung der GPU hingegen ändert er nichts!

Kühlerer Chip = niedrigere Verlustleistung?

AMC
2010-04-01, 01:19:45
Kühlerer Chip = niedrigere Verlustleistung?

Nein. Physikalisch gesehen ballert der Chip als aktives Bauelement immer noch dieselbe Verlustleistung raus. Dass der Kühler es schafft ihn kühl zu halten trägt lediglich zur Stabilität und Übertaktbarkeit bei, bzw. zur Toleranz ggü. der Aussentemperatur. D.h. er kann die ihm zugeführte Energie abführen, mehr nicht.

Rein theoretisch liesse sich ein pro-aktives Kühlsystem natürlich bauen. Dieses müsste bereits vor dem Einschalten den Chip auf Temperaturen herab kühlen, in dem die interne Widerstandsveränderung durch die Temperatur zu einer verringerten Stromaufnahme führen würde (dies aber nur, wenn man auch die Spannung anpassen würde). Normale Kühler liefern dass nicht, sie führen die entstehende Hitze nur besser ab.

Gast
2010-04-01, 04:42:55
Was zu viel ist ist zu viel. Eifach Fail NV.

Das bislang miserabelste Ergebnis unter Furmark-Last bietet uns die Kühlung des heutigen Testkandidaten (wie unsere nachfolgenden Gesamtbetrachtungen zeigen werden). Immerhin blicken wir auf fast 48 dB(A) bzw. vermessene 9,1 sone. Hier ist dann wirklich Schluss mit Lustig und selbst Gehörgeschädigte Technofreaks werden augenblicklich den Raum verlassen.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index12.php

Reneeeeeee
2010-04-01, 08:52:06
Was zu viel ist ist zu viel. Eifach Fail NV.

Das bislang miserabelste Ergebnis unter Furmark-Last bietet uns die Kühlung des heutigen Testkandidaten (wie unsere nachfolgenden Gesamtbetrachtungen zeigen werden). Immerhin blicken wir auf fast 48 dB(A) bzw. vermessene 9,1 sone. Hier ist dann wirklich Schluss mit Lustig und selbst Gehörgeschädigte Technofreaks werden augenblicklich den Raum verlassen.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index12.php

Boar ist das heftig , da muss man ja den Rechner wirklich in einem anderen Raum parken und die Türen isolieren :D

Gast
2010-04-01, 10:08:47
Ein 600W Netzteil wäre da auch hoffnungslos ünerfordert bei dem Furmark run.
Ist schon hefftig was die Karte zieht und der Lärm ist auch vom feinsten.

Gast
2010-04-01, 10:13:52
4200 rpm unter Furmark im offenen Aufbau. In einem geschlossenen Gehäuse im Sommer dürfte der Lüfter locker zwischen 5500...6000 rpm drehen. Krass.

Mr. Lolman
2010-04-01, 10:20:40
Jo - ganze -10% (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet) Vorsprung. ;D

Bei 10% Mehrverbrauch. Ist ja ok. Die GTX480 wär ne geile Karte, wenn sie auch so effizient wär ;)

MorPheuZ
2010-04-01, 10:33:28
Kann man in Furmark auch spielen? :rolleyes:

Gast
2010-04-01, 10:43:33
Kann man in Furmark auch spielen? :rolleyes:

Ne aber sich ausmalen was im Sommer und geschlossenenm gehäuse beim Metro zocken abgehen wird.

Burgard
2010-04-01, 10:49:44
Gibt es eigentlich Erfahrung bezüglich der Haltbarkeit bei thermischer Beanspruchung?
Die Hitze kann ja auf Dauer nicht gesund für die Komponenten sein, ich denke nur mal an kalte Lötstellen usw.

Zumindest würde es zu einem Jahr Garantie passen.

Gast
2010-04-01, 11:34:03
Bei Tesselation ist der fermi anscheinend doch nicht so gut wie immer behauptet.
Hier geht die ATI Karte so gut wie gar nicht unter 25 Frames.
Der Fermi bricht aber sehr oft unter 20 Frames ein.
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Unigine.jpg

MiamiNice
2010-04-01, 11:41:26
Test zum 1.April.

@: Phatt geht ^^

LovesuckZ
2010-04-01, 11:47:40
4200 rpm unter Furmark im offenen Aufbau. In einem geschlossenen Gehäuse im Sommer dürfte der Lüfter locker zwischen 5500...6000 rpm drehen. Krass.

Nun, dank des offenen Kühlers reicht eine gute Belüftung aus. Wahrscheinlich ist die Temperatur in einem Gehäuse mit vernünftiger Airflow geringer als im offenen Aufbau.
Und wer es ganz leise will: Papt einfach einen weiteren Kühler auf die Karte. :D

Schlammsau
2010-04-01, 12:06:03
Du gehst das Thema mal wieder sehr einseitig an.

Selbst "Fail" finde ich übertrieben, dafür gibts einfach zuviele positive Punkte bei Fermi. Wäre der Verbrauch nicht so hoch und der Lüfter somit leiser, würde kaum jemand über Fermi meckern.
Hätte NV einen sehr guten Kühler auf ihre Karten geschraubt, sähe die Welt schon ganz anders aus. Man darf dabei nicht vergessen, dass eine niedrigere Temperatur auch mit einem niedrigeren Verbrauch einhergeht.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php


Was ist an meiner Aussage falsch?

Wenn jemanden die Lautstärke, der Stromverbrauch und der hohe Preis egal ist, der kann bedenkenlos zur 480 greifen.

Ich würde meines Lebens nicht mehr froh, wenn meine bessere Hälfte die Stromrechnung sieht oder die Geräuschkulisse vernimmt.

Für mich ist Fermi aufgrund dieser 2 ganz ganz grossen Kritikpunkte ein FAIL.

Banshee18
2010-04-01, 12:40:02
3. Hatte ich erwähnt das Simone Simons :love4: ist? Nein? Mir gefällt sie vor allem auf Ayreon's 81 "Y". :biggrin:
2. Ein besserer Kühler führt nur die vorhandene Wärme besser ab, an der Verlustleistung der GPU hingegen ändert er nichts!
3. "Ayreon's 81 "Y""? Wat?
2. Hast du meinen Link angeklickt?
Was ist an meiner Aussage falsch?
Das war auf die "Treiberfehler" bezogen.

Bucklew
2010-04-01, 12:46:49
Uninteressant bei hoch-präzisen Berechnungen.
Das kommt drauf an was man macht.

Äh, OpenGL im Chip "disablen"? :freak: Ich tippe nach wie vor auf ID/Soldering, auch bei GF100.
Nein, im Chip per Laser disabled. Deshalb heißen die Quadro (und Tesla Chips) auch GT200GL und nicht einfach nur GT200 wie die GeForce - und das ist jetzt schon länger so, nicht erst seit GT200 ;)

Wenn dir also jemand erzählt hat, er hätte per ID oder Soldering aus ner GeForce GTX285 ne Quadro gemacht: Schwätzer ;)

Falsch. Dass mag mal so gewesen sein, aber ich kenne zufälligerweise sowohl a) die Abteilung des Weltmarktführers für die MRT/CRT Entwicklung.
b) die für Simulation und HPC/GPGPU bereitgestellten Kosten.
c) die Reduktion externer Anteile durch die Krise.

;)
Ich kenn den Weltmarktführer für MRT/CRT nicht genau, tippe aber mal ganz fix auf SiemensMed. Die verwenden sogar Quadrokarten um ein 2D-Röntgenbild darzustellen ;)

Und der Grund warum dort niemals eine Radeon oder GeForce nutzen würde (zumindest im Produktivsystem, beim Testen und Entwickeln schaut das sicher anders aus) liegt ganz einfach an der extrem komplizierten Zertifizierung von Medizinprodukten. Da darf man nicht einfach den Speichertyp auf ner Grafikkarte tauschen (im Consumerbuisness absolut normal), sondern muss dann die Zertifizierung wiederholen. Daher gibt es eben bei den professionellen Produkten auch eine garantierte Lieferzeit und auch ganz genaue Kontrollen welche SKUs mit welchen Änderungen es gibt. Das ist im Consumerbuisness so nicht möglich und wird auch nicht gemacht. Auch daher natürlich der Preisunterschied.

Du wirst niemals eine Consumerkarte in einem Medizinischen Gerät für Diagnostik finden. NIEMALS.

Ich vergleiche sowas lieber mit einem Cypress. ;)
Gibts noch nciht als Firestream.

Jede GPU ist ein Effizienzwunder in ganz bestimmten mathematischen Ausnahmefällen der Parallelisierbarkeit. ;) Egal ob nV oder ATI, für GPGPU sind natürlich nur GPUs zu gebrauchen. Was Du nicht bedenkst: Was denkst Du erzeugt die nennenswerte und effektive Abwärme in einem Simulationscluster [ ] GPU(s) [ ] CPU(s)
Dafür gibt es keine generelle Antwort, weil es verschiedene Anwendungsfälle und verschiedene Anwendungen gibt. Jede Antwort ist dabei richtig. Bei Bildverarbeitung z.B. ist ein riesen Kreuz bei GPU zu machen. Aber das gilt nicht generell.

Blödsinn, die CT/MRT-Rechner von z.B. Siemens sind lächerlich(!) klein im Vergleich zu den Simulationsrechnern die Siemens zur Entwicklung von neuen CTs/MRTs und anderer bildgebender HW nutzt. Das solltest Du aber wissen.... und ja, ich weiß wovon ich rede.
Klar sind die lächerlich klein, dafür haben sie eine deutlich größere Stückzahl. Die paar Simulationsrechner sind doch völlig egal, wenn man dafür nachher im Produktivsystem drin ist. Und da kann ich dir garantieren, dass du keine Consumerkarte drin sehen wirst ;)

Bla bla? Referenzdesign...bla...weniger vcore, bessere Kühlung. Erzähl mir bitte keine Märchen von "eigenem Chip", "neuer Technologie" bla blubb. Ich spiele schon so jeden zweiten Tag BULLSHIT Bingo.
Nun, wenn man sich damit nicht auskennt, dann kommt man schnell dazu so einen Bullshit zu erzählen. Fakt ist, die Quadros haben kein Spulenfiepen, was die GeForce so haben. Außerdem haben die Quadros mehr Speicher und ach - wo schließe ich an der GeForce doch gleich meinen 3D-Sync oder mein G-Sync oder mein SDI an? ;)

Reicht er. ;) Ich habe mit Treiberentwicklern von NV, ATI, Intel und S3 zu Mittag gegessen.... also bitte. (Wie gesagt: Es kommt auf das Volumen, die Firma und die Verträge an).
Und dennoch lässt sich keine Firma verarschen ;)

P.S. Würselen?
Yes.

Bucklew
2010-04-01, 12:47:35
Ich würde meines Lebens nicht mehr froh, wenn meine bessere Hälfte die Stromrechnung sieht oder die Geräuschkulisse vernimmt.

Für mich ist Fermi aufgrund dieser 2 ganz ganz grossen Kritikpunkte ein FAIL.
Hattest du eine HD4000 oder GT200-Karte?

Gast
2010-04-01, 12:56:09
Nun, dank des offenen Kühlers reicht eine gute Belüftung aus. Wahrscheinlich ist die Temperatur in einem Gehäuse mit vernünftiger Airflow geringer als im offenen Aufbau.
Und wer es ganz leise will: Papt einfach einen weiteren Kühler auf die Karte. :D

Im geschlossenen Gehäuse ist die angesaugte Luft immer heiser als bei offem aufbau.
Das könnte die Situation noch verschlimmern.
Ne solche Heizplatte mit stock design ist high risk.
Von dem Düsenjägerlärm mal abgesehen.

Exxtreme
2010-04-01, 12:56:19
Was zu viel ist ist zu viel. Eifach Fail NV.

Das bislang miserabelste Ergebnis unter Furmark-Last bietet uns die Kühlung des heutigen Testkandidaten (wie unsere nachfolgenden Gesamtbetrachtungen zeigen werden). Immerhin blicken wir auf fast 48 dB(A) bzw. vermessene 9,1 sone. Hier ist dann wirklich Schluss mit Lustig und selbst Gehörgeschädigte Technofreaks werden augenblicklich den Raum verlassen.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index12.php
Naja, mal schauen wie die Nicht-Referenzdesign-Karten so werden. Ich habe das Gerücht gehört, daß das Referenzdesign ein extremes Spardesign ist.
Yes.
Muahaha! Das erklärt einiges. ;D

Gast
2010-04-01, 13:02:16
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Unigine.jpg

-.-

Ich lach mich kaputt wenn im "Long Run" die HD5870 (immerhin eine um 6 Monate ältere Technik!) die GTX480 am Ende stehen lässt und das flüssigere Spieleerlebnis ermöglicht.

Wobei sich ja nach einem Jahr keiner mehr für eine der beiden Karten interessieren wird bzw. der HD5870 Refresh ja schon Ende des Jahres ins Haus steht.

Aber wir wissen ja alle, dass es SLI schon richten wird. :D

Schlammsau
2010-04-01, 13:02:31
Hattest du eine HD4000 oder GT200-Karte?

Beide! Warum?

Gast
2010-04-01, 13:08:45
Warum wohl. Er will Dir einreden, dass die beiden Karten genauso laut waren. :P

Wobei ich zugeben muss, dass meine HD4870 unter Last schon recht laut wird. Aber das ist in erster Linie der Tatsache geschuldet, dass mein System so gut wie keinen Airflow hat. :D ... An Fermi kommt der Lärm aber dennoch nicht heran.

LovesuckZ
2010-04-01, 13:08:45
Im geschlossenen Gehäuse ist die angesaugte Luft immer heiser als bei offem aufbau.
Das könnte die Situation noch verschlimmern.
Ne solche Heizplatte mit stock design ist high risk.
Von dem Düsenjägerlärm mal abgesehen.

Im offenen Aufbau gibt es jedoch keinen zusätzlichen Luftstorm der die Wärme des offenliegenden Kühlkörpers aufnimmt. Eine zusätzliche seitliche Belüftung sollte so ausreichend sein, dass die Temperatur deutlich geringer wird.

Gast
2010-04-01, 13:32:50
Nein. Physikalisch gesehen ballert der Chip als aktives Bauelement immer noch dieselbe Verlustleistung raus. Dass der Kühler es schafft ihn kühl zu halten trägt lediglich zur Stabilität und Übertaktbarkeit bei, bzw. zur Toleranz ggü. der Aussentemperatur. D.h. er kann die ihm zugeführte Energie abführen, mehr nicht.

Rein theoretisch liesse sich ein pro-aktives Kühlsystem natürlich bauen. Dieses müsste bereits vor dem Einschalten den Chip auf Temperaturen herab kühlen, in dem die interne Widerstandsveränderung durch die Temperatur zu einer verringerten Stromaufnahme führen würde (dies aber nur, wenn man auch die Spannung anpassen würde). Normale Kühler liefern dass nicht, sie führen die entstehende Hitze nur besser ab.

In Physik durchgefallen? Die Verlustleistung wurde in den meisten Tests bei einer Temperatur von 95°C ermittelt und jede noch so kleine Temperatursenkung verringert den Widerstand des Chips und damit auch die Verlustleistung. Der Chip wird also bei 60°C eine geringere Leistungsaufnahme haben, allerdings sollte man nicht erwarten, dass der Heizofen dadurch zum Energiesparer wird.

Gast
2010-04-01, 13:54:34
Man darf auf die Modellpflege des Fermi gespannt sein, so ist das Ding keine Alternative. Overall gerade 10 bis 15% über ner ein halbes Jahr alten 5870 die sich auch noch ohne probs auf 1000 Mhz übertakten lässt. Und dabei noch sparsammer ist als die 480@ stock. Die lautstärke von dem Ding ist nur zu ertragen wenn man taub ist und die Mitbewohner auch. Der Preis würde ne top karte rechtfertigen können.
Aber kein nicht viel schnelleres Heizeisen, das dann auch noch das haus zusammenbrüllt. Und die Stromrechnung in neue regionen befördert.

Iruwen
2010-04-01, 13:57:06
Nein. Physikalisch gesehen ballert der Chip als aktives Bauelement immer noch dieselbe Verlustleistung raus.

Das hab ich bisher aber überwiegend anders gehört. Je kühler der Chip umso geringer die Verlustleistung.

Ne aber sich ausmalen was im Sommer und geschlossenenm gehäuse beim Metro zocken abgehen wird.

Im geschlossenen Gehäuse ist die Kühlleistung eher besser weil der Druck auf den Kühler höher ist als im offenen Aufbau. Bei einem vernünftigen Gehäuse jedenfalls.

4200 rpm unter Furmark im offenen Aufbau. In einem geschlossenen Gehäuse im Sommer dürfte der Lüfter locker zwischen 5500...6000 rpm drehen. Krass.

Furmark hat keinerlei Praxisrelevanz und der Rest siehe oben.

AMC
2010-04-01, 14:07:09
;DDas kommt drauf an was man macht.


Nein, im Chip per Laser disabled. Deshalb heißen die Quadro (und Tesla Chips) auch GT200GL und nicht einfach nur GT200 wie die GeForce - und das ist jetzt schon länger so, nicht erst seit GT200

Klingt für mich nach klassischem Marketing. ;) Allerdings kann ich es auch nicht verifizieren. OpenGL lässt sich hingegen nicht "disablen" :freak: da sonst Recheneinheiten deaktiviert werden, die man auch für DX benötigt. ;)




Ich kenn den Weltmarktführer für MRT/CRT nicht genau, tippe aber mal ganz fix auf SiemensMed. Die verwenden sogar Quadrokarten um ein 2D-Röntgenbild darzustellen ;)

Matrox und Quadro-Karten. Die Matrox wurden bis vor 1-2 Jahren sogar in Kombi mit FSC "entwickelt".


Und der Grund warum dort niemals eine Radeon oder GeForce nutzen würde (zumindest im Produktivsystem, beim Testen und Entwickeln schaut das sicher anders aus) liegt ganz einfach an der extrem komplizierten Zertifizierung von Medizinprodukten. Da darf man nicht einfach den Speichertyp auf ner Grafikkarte tauschen (im Consumerbuisness absolut normal), sondern muss dann die Zertifizierung wiederholen. Daher gibt es eben bei den professionellen Produkten auch eine garantierte Lieferzeit und auch ganz genaue Kontrollen welche SKUs mit welchen Änderungen es gibt. Das ist im Consumerbuisness so nicht möglich und wird auch nicht gemacht. Auch daher natürlich der Preisunterschied.

Das stimmt natürlich, aber auch hier gilt wieder: Nicht das Eine mit dem Anderen vermischen. ;) Ich rede nicht von den fertigen CTs/MRTs in den Krankenhäusern, deren Auswertungssysteme sind lächerlich winzig verglichen mit denen die in der Simulation, Forschung und Entwicklung genutzt werden und dort kommt es auf die Rechenleistung an. Bedenke, die bildgebenden Algorithmen in syngo z.B. sind bereits auf Produktniveau, die Entwicklung der nächsten Generationen hingegen, die u.a. auf Raytracing und noch feinere Auflösungs- und Erkennungsmechanismen basieren, braucht da die volle Power und da ist mir jetzt ein Fall bekannt, wo ein "paar" Cypress und OpenCL Cluster aufgezogen und geordert wurden.


Dafür gibt es keine generelle Antwort, weil es verschiedene Anwendungsfälle und verschiedene Anwendungen gibt. Jede Antwort ist dabei richtig. Bei Bildverarbeitung z.B. ist ein riesen Kreuz bei GPU zu machen. Aber das gilt nicht generell.

Möööp! Falsch, es gibt eine generelle Antwort: Bei parallelisierbaren Problemen steigt die zur Verfügung stehende Rechenleistung stärker mit dem Hinzufügen eines GPU-Rechenkerns als mit dem Hinzufügen eines SMP-Moduls (ob nun reines Multicoring oder echte Multisocket-Lösungen), gleichzeitig aber auch die Abwärme. Die strenge Vektorisierung von neuen CPUs (SSE2/3.SSSE3/SSE4/AVX) und die klassische Vektorisierung von VLIW GPUs bedient genau dasselbe Rechenkonzept. Daher wird niemand einen 8 Socket Nehalem-Cluster ohne GPU gegen einen 1 Socket Nehalem + Dual GPU tauschen, dafür ist die Rechenleistung dann einfach zu groß. Will sagen: die mathematischen Probleme, die sich gut per CPU-Skalierung lösen lassen, lassen sich per definition ebenso mit Stream-Prozessoren lössen und da gibt jeder einer Rack-Kombination aus CPU/GPU den Vorzug.


Fakt ist, die Quadros haben kein Spulenfiepen, was die GeForce so haben.

a) Du gibst zu, dass die GeForces Spulenfiepen haben? Ist sowas nicht eher verkaufshinderlich, vor allem, wenn man bei nV arbeitet und sich in Consumerboards wie 3DC herumtreibt? :freak:

P.S. Mein Cypress fiept nicht und ich müsste es ja hören, mein privater Cluster (zuhause) ist Ethylenglykol-gekühlt.

b) Schon mal ein CRT/MRT in Action "gehört"? Da wäre Spulenfiepen im angeschlossenen Auswertungssystem ganz sicher kein Problem.... :freak:


Außerdem haben die Quadros mehr Speicher und ach - wo schließe ich an der GeForce doch gleich meinen 3D-Sync oder mein G-Sync oder mein SDI an? ;)

Gar nicht, da unwichtig im HPC-Bereich, bzw in der Nutzung als StreamCPU. ;D Wie war das noch mal mit den Teslas (G80?) die ohne HDMI/Analog-out ausgeliefert wurden, oder besser: Grakas für > 4000€ ohne die Möglichkeit GRAFIK anzuzeigen? :freak:


Und dennoch lässt sich keine Firma verarschen ;);)

Das stimmt, deswegen bekommen wir unseren Support, live, direkt und persönlich vom Treiberteam. Allerdings muss ich dazu sagen, dass die letzen Kollegen, die hier waren auch nicht von euch kamen.

Sondern aus D. und B. :biggrin:


Yes.

Wenigstens gibst Du es zu. Andernfalls wäre die Verbissenheit am Thermi-Launch auch nicht zu erklären gewesen. Sitzt Sucky bei euch im Hause? Mir wollte er es ggü. nicht zugeben. ;)

Schlammsau
2010-04-01, 14:07:09
Das hab ich bisher aber überwiegend anders gehört. Je kühler der Chip umso geringer die Verlustleistung.

Prinzipiell hast du recht aber wwas meinst du um wieviel du den Verbrauch drücken kannst bei meinetwegen 20° weniger? 10 oder 15 Watt?

Das macht leider das Kraut nicht fett.

Gast
2010-04-01, 14:10:01
NV sagt aber selbst das der Fermi Chip auf höhere Temps ausgelegt ist.
http://blogs.nvidia.com/ntersect/2010/03/gtx-480-a-passion-for-the-future-of-pc-gaming.html

Das müssen sie wohl auch bei dem Heizeisen.
Dadurch alleine dürfte dann die Verlusstleistung um einiges über dem Cypress chip von ATI liegen

AMC
2010-04-01, 14:15:24
Das hab ich bisher aber überwiegend anders gehört. Je kühler der Chip umso geringer die Verlustleistung.

Ich mache ein Holzfeuer. Dieses brennt mit 800Grad. Jetzt hänge ich über das Feuer eine Wanne aus Holz. Diese beginnt zu kockeln und verbrennt nach einer Weile, denn sie kann nur wenig Energie aufnehmen und abführen, bevor sie selbst so heiß wird, dass sie Feuer fängt. Jetzt hänge ich eine Kupferwanne über das Feuer, die aufgrund der Wärmeleitfähigkeit und ihres Temperaturkoeffizienten mehr Wärme aufnehmen und über ihre Oberfläche abstrahlen kann. Die Frage: Brennt das Feuer jetzt mit weniger als 800 Grad? ;D

Wie gesagt: Ein besserer Kühler ist nur in der Lage die ihm zugeführte Wärme abzuführen, dass dadurch natürlich auch die Stabilität steigt und ggf. Raum für mehr Abwärme durch OC erzeugt, spricht ja nicht dagegen. Aber um den Innenwiderstand signifikant zu ändern und die Verlustleistung so zu drücken, dass der Chip weniger Wärme abgibt (und zwar sowohl kurz nach dem Einschalten, wie auch unter Furmark), müsste eine Kühlung pro-aktiv sein und würde ganz sicher weit unter 0 Grad beginnen, um in heutigen Chips eine Signifikanz zu erzielen. Der alte Lehrsatz des negativen Temperaturkoeffizienten von Halbleitern gilt nur noch bedingt.

aths
2010-04-01, 14:15:57
Für mich ist Fermi aufgrund dieser 2 ganz ganz grossen Kritikpunkte ein FAIL.Du tust jetzt so als sei die Karte objektiv ein Fail.

Beim Lüfter-Design der GTX 480 saßen eine Reihe an Leuten die sich der Verantwortung schon bewusst sind: In den USA und in Europa muss die Karte auch im Sommer laufen. Die Karten wurden so designt, dass ein Lüfterwechsel oder die Installation eines Zusatzlüfters einfacher ist als bisher – bei der 480 muss man die Front-Platte mitkühlen und schon dreht der eingebaute Lüfter runter. Jetzt kann man sich fragen, ob so eine Bastellösung einer Highend-Version würdig ist.

Aber das ist nicht die "wahre" Frage. Ausschlaggebend war, was NV tun muss, um den GF100 schneller laufen zu lassen als die 5870. Es wurde eine Lösung gefunden. Ich werd mir die 480 sicherlich nicht kaufen – zu laut. Aber es bleibt immer noch Wakü oder Zusatz-Lüfter für die, die die Leistung wollen.

Wovon bisher keiner redet ist die Möglichkeit, 2x GTX 470 im SLI-Verbund laufen zu lassen. Das ist bezahlbar und nicht unerträglich laut.

müsste eine Kühlung pro-aktiv sein und würde ganz sicher weit unter 0 Grad beginnen, um in heutigen Chips eine Signifikanz zu erzielen. Der alte Lehrsatz des negativen Temperaturkoeffizienten von Halbleitern gilt nur noch bedingt.Was ist der Unterschied zwischen aktiv und pro-aktiv?

Bucklew
2010-04-01, 14:31:53
Beide! Warum?
Warum hast du dir denn dann eine HD4000 gekauft, die ebenfalls in Sachen Stromverbrauch und Lautstärke ganz klar Fail war? Ich dachte das ist wäre ein No-go? :)

Klingt für mich nach klassischem Marketing. Allerdings kann ich es auch nicht verifizieren. OpenGL lässt sich hingegen nicht "disablen" :freak: da sonst Recheneinheiten deaktiviert werden, die man auch für DX benötigt.
Nun, disablen ist sicherlich nicht das richtige Wort, aber eben die benötigten Hardwarefunktionen, um anstelle von 1fps mal eben 100fps zu erreichen ;) Ob du es jetzt disablen nennen willst oder meinetwegen einbremsen - kommt aber defakto aufs selbe hinaus.

Matrox und Quadro-Karten. Die Matrox wurden bis vor 1-2 Jahren sogar in Kombi mit FSC "entwickelt".
Matrox hab ich bisher noch nicht gesehen, warum nur? :freak:

Das stimmt natürlich, aber auch hier gilt wieder: Nicht das Eine mit dem Anderen vermischen. Ich rede nicht von den fertigen CTs/MRTs in den Krankenhäusern, deren Auswertungssysteme sind lächerlich winzig verglichen mit denen die in der Simulation, Forschung und Entwicklung genutzt werden und dort kommt es auf die Rechenleistung an. Bedenke, die bildgebenden Algorithmen in syngo z.B. sind bereits auf Produktniveau, die Entwicklung der nächsten Generationen hingegen, die u.a. auf Raytracing und noch feinere Auflösungs- und Erkennungsmechanismen basieren, braucht da die volle Power und da ist mir jetzt ein Fall bekannt, wo ein "paar" Cypress und OpenCL Cluster aufgezogen und geordert wurden.
Genau von diesen fertigen rede ich ;) Natürlich sind die Systeme in Krankenhäuser lächerlich, aber dafür ist eben die Anzahl der Systeme in der Entwicklung lächerlich. Von der Anzahl der Einheiten und dem daraus herrührenden Volumen, sind die Endprodukte definitiv das lohnendere Produkt ;)

Möööp! Falsch, es gibt eine generelle Antwort: Bei parallelisierbaren Problemen steigt die zur Verfügung stehende Rechenleistung stärker mit dem Hinzufügen eines GPU-Rechenkerns als mit dem Hinzufügen eines SMP-Moduls (ob nun reines Multicoring oder echte Multisocket-Lösungen), gleichzeitig aber auch die Abwärme. Die strenge Vektorisierung von neuen CPUs (SSE2/3.SSSE3/SSE4/AVX) und die klassische Vektorisierung von VLIW GPUs bedient genau dasselbe Rechenkonzept. Daher wird niemand einen 8 Socket Nehalem-Cluster ohne GPU gegen einen 1 Socket Nehalem + Dual GPU tauschen, dafür ist die Rechenleistung dann einfach zu groß. Will sagen: die mathematischen Probleme, die sich gut per CPU-Skalierung lösen lassen, lassen sich per definition ebenso mit Stream-Prozessoren lössen und da gibt jeder einer Rack-Kombination aus CPU/GPU den Vorzug.
Das ist jetzt ein streng theoretisches Konzept, praktisch gibt es da ganz andere Punkte. z.B. Abwärtskompatibilität. Oder bekannte Architekturen. Oder auch eben nicht-parallelisierbare Aufgaben - ja, auch so etwas soll es geben ;)

a) Du gibst zu, dass die GeForces Spulenfiepen haben? Ist sowas nicht eher verkaufshinderlich, vor allem, wenn man bei nV arbeitet und sich in Consumerboards wie 3DC herumtreibt?
Ist doch ein bekannter Fakt, ich bin eben kein Fanboy, der jegliche Tatsache ignoriert, nur weil es ihm gerade in den Kram passt. Dafür haben wir hier andere Leute ;D

P.S. Mein Cypress fiept nicht und ich müsste es ja hören, mein privater Cluster (zuhause) ist Ethylenglykol-gekühlt.
Natürlich fiept sie, du hörst es nur nicht, weil es nicht laut genug ist ;)

Es gibt vieles was fiept, mein Intel-Notebook fiept auch unter ganz gewissen Belastungen, ein AM2-Board auch. Ganz normal, je nach Konstruktion und Belastung. dennoch unschön.

b) Schon mal ein CRT/MRT in Action "gehört"? Da wäre Spulenfiepen im angeschlossenen Auswertungssystem ganz sicher kein Problem....
Ich sage nicht, dass es ein Problem ist. Ich habe nur deine Behauptung widerlegt, dass der Preisunterschied GeForce->Quadro reines Marketing ist und nichts mit der Hardware zu tun haben.

Gar nicht, da unwichtig im HPC-Bereich, bzw in der Nutzung als StreamCPU. ;D Wie war das noch mal mit den Teslas (G80?) die ohne HDMI/Analog-out ausgeliefert wurden, oder besser: Grakas für > 4000€ ohne die Möglichkeit GRAFIK anzuzeigen? :freak:
Ich nehme die Grafikkarten ja auch um Berechnungen durchzuführen und nicht, um damit was anzuzeigen ;)

Das stimmt, deswegen bekommen wir unseren Support, live, direkt und persönlich vom Treiberteam. Allerdings muss ich dazu sagen, dass die letzen Kollegen, die hier waren auch nicht von euch kamen.

Sondern aus D. und B.
Wenn man die entsprechenden Leute kennt, ist das sicherlich kein Problem, würde ich auch nie bestreiten. Problematisch wird es halt dann, wenn diese Weg sind oder aber Arbeit aus anderen Abteilungen benötigen, die das nicht so locker mit der Trennung sehen. Aber grundsätzllich: Glückwunsch, auch wenn ich es albern finde, dass man sich im professionellen Bereich mit solche Spielekarte aufhalten muss ;)

Wenigstens gibst Du es zu. Andernfalls wäre die Verbissenheit am Thermi-Launch auch nicht zu erklären gewesen. Sitzt Sucky bei euch im Hause? Mir wollte er es ggü. nicht zugeben. ;)
Wieso Verbissenheit? Nur weil Fermi längst nciht so schlecht ist wie er gern gemacht wird, ändert das ja nix an den Fakten. Und das es Leute gibt, die sich ne HD4000 gekauft haben und jetzt das ganze als Fail bezeichnen, weil der Stromverbrauch zu hoch ist - das ist eigentlich nur noch Comedy pur ;D

Gast
2010-04-01, 14:33:23
Und genau da liegt das Problem von GF100. Für mich ist HighEnd eben nicht Leistung um jeden Preis abseits jeglicher Vernunft, sondern ein stimmiges Geasmtpacket das Performance und größtmögliche Effiziens in sich vereint. Es kann doch wohl nicht wahr sein, dass ich mir bei einer GTX480 irgendwelche Sorgen um die ausreichende Kühlung und Lautstärke machen muss. Das Teil kostet immerhin 500€.

Bei 500€ erwarte ich vollkommen zu Recht, dass ich mir keine Gedanken über alt. Kühlung oedr ein stärkeres Netzteil machen muss (das bei dem vergleichbaren Produkt der Konkurrenz völlig ausreicht).

AMC
2010-04-01, 14:35:10
Was ist der Unterschied zwischen aktiv und pro-aktiv?

Als pro-aktiv wird eine Kühllösung bezeichnet, die der exponentiellen Wärmeentwicklungsfunktion Rechnung trägt und in einem bestimmten (Temperatur-)Bereich exakt dieselbe Temperatur am Messpuntk (z.B. auf der Platine, Platte, CPU, GPU) mit minimaler Toleranz garantiert. Einfach ausgedrückt steigert die pro-aktive Kühlung ihre Kühleistung je nach auftretender Last und zwar so, dass eben ein sehr kleines Delta eingehalten wird. Dies ist gerade in Clustern sehr wichtig, da auf engem Raum und unter Hochlastberechnungen (die über Tage dauern können) wirklich sehr viel Abwärme erzeugt wird. Dabei ist nicht unbedingt die effektive Temperatur relevant, sondern die Schwankungen, die zwischen Last, Teillast und Vollast-Phasen eintreten können. Diese Schwankungen sind für die eingesetzten CPUs/GPUs z.T. gar nicht so problematisch, aber für die restliche Hochleistungsperipherie wie Myrinet-Cluster, RAID-Cluster, etc. aber durchaus. Um mal eine Kenngröße zu nennen: Ein Cluster im medizinischen Vorfeldbereich (Raytracing, extreme numerische Genauigkeit) ist stark I/O-lastig (Myrinet zwischen den Clustern) und weniger Datenstrom-lastig (also klassische Belastung für Datenspeicher wie RAIDs). Hier wird meist eine (Luft-)Zieltemperatur von etwa ~22° unabhängig von äusseren (Wetter-) und Lasteinflüssen generiert. An den einzelnen Messpunkten auf der Peripherie liegen dann je nach Einsatz und Peripherie konstant Temps zw. ~25 und etwa ~40 Grad. Im übrigen: wenn in so einem System ein Durchlauf beginnt, muss die Kühlung pro-aktiv "kühlen", also die (neu-)enstehende Wärme als Funktion der exponentiellen Wärmezunahme abführen (damit die Temp konstant bleibt). Die Algorithmen für diese Regelsysteme sind übrigens eine Kunst und Wissenschaft für sich. ;)

Exxtreme
2010-04-01, 14:35:44
Und genau da liegt das Problem von GF100. Für mich ist HighEnd eben nicht Leistung um jeden Preis abseits jeglicher Vernunft, sondern ein stimmiges Geasmtpacket das Performance und größtmögliche Effiziens in sich vereint. Es kann doch wohl nicht wahr sein, dass ich mir bei einer GTX480 irgendwelche Sorgen um die ausreichende Kühlung und Lautstärke machen muss. Das Teil kostet immerhin 500€.

Bei 500€ erwarte ich vollkommen zu Recht, dass ich mir keine Gedanken über alt. Kühlung oedr ein stärkeres Netzteil machen muss (das bei dem vergleichbaren Produkt der Konkurrenz völlig ausreicht).
Ja ... ich würde trotzdem erstmal die Karten abwarten, die nicht dem Referenzdesign entsprechen. Kann gut sein, dass die bedeutend kühler sind.

Schlammsau
2010-04-01, 15:09:33
Warum hast du dir denn dann eine HD4000 gekauft, die ebenfalls in Sachen Stromverbrauch und Lautstärke ganz klar Fail war? Ich dachte das ist wäre ein No-go? :)

Erklär mir das mal bitte.

Gast
2010-04-01, 15:14:00
Die Hoffnung die hier in "eigene Herstellerdesigns" gesetzt wird erscheint mir etwas naiv. Meine eigene Erfahrung mit solchen Karten ist eher dass es den Herstellern hauptsächlich und vor allem um eines geht: Und zwar die Karte durch Einsparungen an allen Ecken und Enden noch billiger zu machen um auf diese Weise den eigenen Profit zu mehren. Irgendwelche echten technischen Vorteile oder gar Vorteile für den Kunden springen bei solchen Sparversionen nur in den seltensten Fällen heraus. Ausnahme sind Prestigeobjekte wie etwa EVGAs Karte mit vormontierter WaKü - die muss man aber dann auch richtig bezahlen. Die Feld-Wald-Wiesen-Sparversionen kann man in der Regel in der Pfeife rauchen.

aths
2010-04-01, 15:19:09
Und genau da liegt das Problem von GF100. Für mich ist HighEnd eben nicht Leistung um jeden Preis abseits jeglicher Vernunft, sondern ein stimmiges Geasmtpacket das Performance und größtmögliche Effiziens in sich vereint. Es kann doch wohl nicht wahr sein, dass ich mir bei einer GTX480 irgendwelche Sorgen um die ausreichende Kühlung und Lautstärke machen muss. Das Teil kostet immerhin 500€.

Bei 500€ erwarte ich vollkommen zu Recht, dass ich mir keine Gedanken über alt. Kühlung oedr ein stärkeres Netzteil machen muss (das bei dem vergleichbaren Produkt der Konkurrenz völlig ausreicht).Das ist aus Consumer-Sicht richtig. Ich würde mir die GTX 480 auch dann nicht kaufen, wenn sie bei der Lautstärke doppelt so schnell wäre. Mir ist bereits die GTX 285 grenzwertig laut.

Auf der andere Seite geht die Entwicklung nicht nur Richtung mehr Performance pro Watt, sondern auch zu mehr Leistungsaufnahme insgesamt im Highend-Bereich. Die GTX 480 kann es insgesamt wohl locker mit einer GTX 295 aufnehmen und zieht dabei weniger Strom. Die Leistungsaufnahme ist für eine einzelne GPU krass, für die Gesamtleistung nach dem aktuellen Stand der Technik aber ok.

AMC
2010-04-01, 15:21:03
Nun, disablen ist sicherlich nicht das richtige Wort, aber eben die benötigten Hardwarefunktionen, um anstelle von 1fps mal eben 100fps zu erreichen ;) Ob du es jetzt disablen nennen willst oder meinetwegen einbremsen - kommt aber defakto aufs selbe hinaus.

Angenommen, dass klingt schon besser. ;)


Matrox hab ich bisher noch nicht gesehen, warum nur? :freak:

;D Ich hab mal ein recht beeindruckendes, extrem hochauflösendes Anzeigesystem für medizinische Daten gesehen, die aus einer (quasi) Wand aus hochauflösenden LCDs bestanden, die wurden von Matrox befeuert. ;)


Genau von diesen fertigen rede ich ;) Natürlich sind die Systeme in Krankenhäuser lächerlich, aber dafür ist eben die Anzahl der Systeme in der Entwicklung lächerlich. Von der Anzahl der Einheiten und dem daraus herrührenden Volumen, sind die Endprodukte definitiv das lohnendere Produkt

Das hab ich nie bestritten, aber darüber habe ich ja auch nicht geredet, sondern das Thema war HPC und Clustering. (Das man euch Marketing Leute auch immer wieder auf das Thema zurückführen muss....meine Güte, unsere Leute sind auch so drauf, da gibt es sicher ein GEN für ;))


Das ist jetzt ein streng theoretisches Konzept

Sorry, bin Mathematiker und die Mathematik ist kein Wunschkonzert oder Ponyhof, da ist es nun mal etwas strenger. :freak:


praktisch gibt es da ganz andere Punkte. z.B. Abwärtskompatibilität. Oder bekannte Architekturen. Oder auch eben nicht-parallelisierbare Aufgaben - ja, auch so etwas soll es geben

Genau. Aber für diese Aufgaben braucht man kein CUDA oder OpenCL und keine GPU, da tut es schon eine gute Threadbibliothek, eine Intel/AMD Multicore CPU und ne gute Entwicklungsumgebung, wenns hoch kommt vielleicht etwas OpenMP. ;)


Ist doch ein bekannter Fakt, ich bin eben kein Fanboy, der jegliche Tatsache ignoriert, nur weil es ihm gerade in den Kram passt. Dafür haben wir hier andere Leute

Haben wir? Ich glaube viel eher an eine sehr geringe Anzahl "echter" Fanboys und mehr an einen Stellvertreterkrieg diverser Profis aus den jeweiligen Firmen, die hier gezielt Stimmung machen. Irgendwofür müssen all die Lehrgänge für die Vertriebler, Supportler und Marketingmitarbeiter doch mal angewandt werden. Jeder, der selbst in der IT-Industrie arbeitet, hat nach einigen Jahren aber den Dreh raus zu erkennen wer erlernte Argumentationsstrategien und Gesprächstechniken anwendet. Ganz nach dem Dilbert-Comic verhaltet ihr von NV euch ja gerade: Ignorance and envy will fuel rumors that get repeated until they morph into common knowledge. Leider sind unbedarfte Customer ja für solche Methoden (gerade im Netz) sehr anfällig. ;) (P.S. Sucky übertreibt es aber etwas zu offensichtlich...)


Natürlich fiept sie, du hörst es nur nicht, weil es nicht laut genug ist

Damit hast Du natürlich Recht. (Wie war das mit dem sehr strengen Ansatz? :tongue:)


Aber grundsätzllich: Glückwunsch, auch wenn ich es albern finde, dass man sich im professionellen Bereich mit solche Spielekarte aufhalten muss ;)

Das zu lösende mathematische Problem interessiert sich nicht dafür auf welcher Karte es gelöst wird. ;) Den Numeriker interessiert die Genauigkeit und Geschwindigkeit aber sehr wohl und den Geldgeber interessieren die Kosten. ;) Die DP-Leistung, die Abwärme und der Preis waren ganz klar ausschlaggebend für einen Cypress-Cluster... next time we'll see again.


Wieso Verbissenheit? Nur weil Fermi längst nciht so schlecht ist wie er gern gemacht wird, ändert das ja nix an den Fakten.

Ihr müsst für euer Geld wesentlich härter arbyten, als es zum G80 Launch der Fall war, oder? ;)

Spasstiger
2010-04-01, 15:59:04
Die GTX 480 kann es insgesamt wohl locker mit einer GTX 295 aufnehmen und zieht dabei weniger Strom. Die Leistungsaufnahme ist für eine einzelne GPU krass, für die Gesamtleistung nach dem aktuellen Stand der Technik aber ok.
Die GTX 480 schluckt mehr als die GTX 295, ist aber auch 20-30% schneller bei fordernden Settings. Nach aktuellem Stand der Technik braucht die GTX 480 eigentlich zu viel Saft, je nach Spiel 100-150 Watt mehr als eine Radeon HD 5870 bei nur 10-20% höherer Framerate. Eine bessere Energieeffizienz als mit der HD 5870 wird lediglich in synthetischen Tessellations-Benchmarks erreicht.

AnarchX
2010-04-01, 16:07:57
Eine bessere Energieeffizienz als mit der HD 5870 wird lediglich in synthetischen Tessellations-Benchmarks erreicht.
Abseits von Tessellation könnte es da wohl auch ein paar Fälle geben, wie HAWX mit AF oder FarCry2.

aths
2010-04-01, 16:27:41
Die GTX 480 schluckt mehr als die GTX 295, ist aber auch 20-30% schneller bei fordernden Settings.Iirc hat die 295 eine TDP-Angabe von 289 Watt, die 480 eine von 250 Watt.

Nach aktuellem Stand der Technik braucht die GTX 480 eigentlich zu viel Saft, je nach Spiel 100-150 Watt mehr als eine Radeon HD 5870 bei nur 10-20% höherer Framerate. Die 3D-Leistung steigt nicht linear mit der Verlustleistung des Chips. Wie viel würde die 5870 schlucken wenn sie mit Taktfrequenzen liefe die durchgehend GTX-480-Leistung gewährleisten?

Gast
2010-04-01, 16:46:41
Iirc hat die 295 eine TDP-Angabe von 289 Watt, die 480 eine von 250 Watt.

Die 3D-Leistung steigt nicht linear mit der Verlustleistung des Chips. Wie viel würde die 5870 schlucken wenn sie mit Taktfrequenzen liefe die durchgehend GTX-480-Leistung gewährleisten?

Egal... die gtx480 schluckt trotzdem mehr als eine 295er!

Gast
2010-04-01, 17:00:46
[QUOTE=aths;7944618]Iirc hat die 295 eine TDP-Angabe von 289 Watt, die 480 eine von 250 Watt.

Angesichts dessen was die 480 wirklich verballert ist diese TDP angabe der blanke hohn.

tombman
2010-04-01, 17:09:02
Die 3D-Leistung steigt nicht linear mit der Verlustleistung des Chips.
Das ist verlorene Liebesmüh, aths- die WOLLEN das NICHT VERSTEHEN. Sie wollen, daß die schwächere Karte gewinnt, weil sie
billiger ist. Also muß alles linear skalieren- oder es ist ein "fail" :rolleyes:

AnarchX
2010-04-01, 17:31:47
Die 3D-Leistung steigt nicht linear mit der Verlustleistung des Chips. Wie viel würde die 5870 schlucken wenn sie mit Taktfrequenzen liefe die durchgehend GTX-480-Leistung gewährleisten?
Aber selbst bei der GTX 470, die nicht auf schnellste Single-GPU geprügelt wurde, ist die Pro-Watt-Leistung schlechter als bei den Radeons.
Da kann man nur hoffen, dass dies mit einer eventuell höheren Ausbeute zu tun hat.

mapel110
2010-04-01, 17:33:47
Die 470 hat doch 40% mehr Transistoren als die 5870. Dafür find ich die Energie-Effizienz nicht schlecht.

Gast
2010-04-01, 17:41:13
Die 470 hat doch 40% mehr Transistoren als die 5870. Dafür find ich die Energie-Effizienz nicht schlecht.

Was nützt ihr das wenn sie langsamer ist als ne 5870 mehr verbrät heisser und lauter ist.

Iruwen
2010-04-01, 17:42:26
Langsam nervts.

/e: ach egal, Gäste weg...

/e: wie leer das plötzlich ist :D

Burgard
2010-04-01, 18:06:35
Wen interessieren die Transistoren?
Wie heisst es doch so schön:
Wichtig ist, was hinten rauskommt.

Also ich finde es blamabel, was NV abgeliefert hat.

Keine Frage, die Architektur hat grosses Potenzial, aber z.Zt ist es einfach nur ein grosser Ami-Schlitten, der zuviel säuft.

Selbst die Tesselationsüberlegenheit kann der Fermi nicht ausspielen. Es ist zwar messbar, aber nicht sichtbar.
Ich persönlich sehe keinen Grund überhaupt Tesselation in den heutigen SPielen anzuschalten.

Die andere Frage, die mich beschäftigt, wird Tesselation überhaupt mal spielerelevat sein oder wird es ähnlich sein, wie mit Physix hübsch aber überflüssig?

HD-Ronny
2010-04-01, 18:15:18
Welche Marktchanchen rechnet sich Nvidia aus wenn eine GTX470 das gleiche wie eine HD5870 kostet ?? Bei den Marketingheinis muß einiges im Argen liegen um so eine Preisgestaltung als realistisch zu sehen.
Die GTX480 ist als schnellste single GPU preislich angemessen, es wäre bloß fatal wenn AMD die Preise der HD5970 senken würde.
Dazu ist AMD aber zu blöd, man könnte damit CF auch zu sehr pushen... :freak:

Botcruscher
2010-04-01, 18:15:27
Tes. ist eigentlich zu spät dran, die Modelle sind so schon gut genug. Die frage ist eher ob man aus Kostengründen wieder auf lowpoly-Modelle setzen wird und diese dann aufpoliert.
... es wäre bloß fatal wenn AMD die Preise der HD5970 senken würde.
Dazu ist AMD aber zu blöd, man könnte damit CF auch zu sehr pushen... :freak:

Warum sollte man das die nächsten zwei Monate tun? NV wird ewig nicht liefern können und zusätzlich ist man auch bei den Stückzahlen begrenzt.

Gast
2010-04-01, 18:18:22
Aber selbst bei der GTX 470, die nicht auf schnellste Single-GPU geprügelt wurde, ist die Pro-Watt-Leistung schlechter als bei den Radeons.

Zieht man jetzt einen Querschnitt über die gänigsten Spiele mag diese Aussage noch zutreffen. Das diese Aussage bei zukünftigen Spielen und nach der Veröffentlichung der ersten Performance-Treiber von NV noch zutrifft, ist wohl mehr als zweifelhaft.

Burgard
2010-04-01, 18:19:24
Tes. ist eigentlich zu spät dran, die Modelle sind so schon gut genug. Die frage ist eher ob man aus Kostengründen wieder auf lowpoly-Modelle setzen wird und diese dann aufpoliert.
Das geht nicht ohne weiteres, da wir in einer MultiPort-Zeit sind.
Auf den Konsolen gibt es keine Tess. d.h. es wird auch keine Lowpoly-Modelle auf dem PC geben, warum sollte man sicht die selben Modelle für den Pc verwenden oder sie künstlich herunterrechnen.

AnarchX
2010-04-01, 18:20:12
Welche Marktchanchen rechnet sich Nvidia aus wenn eine GTX470 das gleiche wie eine HD5870 kostet ?? Bei den Marketingheinis muß einiges im Argen liegen um so eine Preisgestaltung als realistisch zu sehen.

$349 MSRP sind weniger als $379/399.

Zieht man jetzt einen Querschnitt über die gänigsten Spiele mag diese Aussage noch zutreffen. Das diese Aussage bei zukünftigen Spielen und nach der Veröffentlichung der ersten Performance-Treiber von NV noch zutrifft, ist wohl mehr als zweifelhaft.
Selbst unter Heaven reicht es wohl momentan nur um bei der Pro-Watt-Leistung gleichzuziehen (http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html).

Insgesamt scheint der Ansatz mit den skalaren ALUs und dem für eine vernünftige Leistung nötigen Hot-Clock sich als Sackgasse herauszustellen.

Gast
2010-04-01, 18:22:20
In "zukünftigen" Spielen werden wir bereits andere Karten haben. Besonders die "Enthusiasten" wechslen die Dinger doch öfter als ihre Unterwäsche. Von daher ist alles in dem der Begriff "zukünftig" zusammen mit "Spielen" vorkommt kein Argument.

Botcruscher
2010-04-01, 18:23:02
Hoffnung ist ein der IT der schlechteste Ausweg. Der Verbrauch wird nicht geringer und die Performance der Gegenseite wächst idr. auch mit, da tut sich nichts weltbewegendes mehr. Für Zukünftige Spiele gibt es zukünftige Karten. Es zählt alleine hier und jetzt und womöglich noch was maximal in einem Jahr abgeht.

AnarchX
2010-04-01, 18:29:16
Wenn es AMD wirklich im H2 schaffen sollte, auch einen Chip mit verbessertem Frontend vorzustellen, wird man wohl die Probleme bei GF100 noch deutlicher sehen.

tombman
2010-04-01, 18:30:16
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Metro.jpg

:cool:

http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Crysis_6.jpghttp://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Stalker_4.jpg

Botcruscher
2010-04-01, 18:36:41
Und? Sind pi mal Daumen 30% mehr Leistung für mehr als 6 Monate warten und dem Verbrauch jenseits einer X².

Gast
2010-04-01, 18:40:34
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Metro.jpg

:cool:

http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Crysis_6.jpghttp://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Stalker_4.jpg

Wie oft hast du das jetzt schon geschrieben? 10 mal? 20 mal? Blöd das es bei vielen anderen Tests deutlich schlechter aussieht. Es bleibt bei 10-15% Mehrleistung im Schnitt, dann kannst du noch so viele Rosinen heraus holen.

Schlammsau
2010-04-01, 18:41:20
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Metro.jpg

:cool:

Du weisst schon, dass Hardwareluxx nicht mit vollen Details gebencht hat oder!?

In Wirklichkeit ist das Game in dieser Auflösung@Full Details weder mit der GTX480 noch der 5970 spielbar. ;)
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=13

Diese Rosinenpickerei von halbgaren Benchmarks gehen mir gehörig auf die Eier!

derguru
2010-04-01, 18:51:15
frag mich die luxx mit 8aa gebencht hat in stalker,das geht gar nicht.

tombman
2010-04-01, 18:51:44
In Wirklichkeit ist das Game in dieser Auflösung@Full Details weder mit der GTX480 noch der 5970 spielbar. ;)
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=13

1280x800 und schon IST es maximiert spielbar- mit EINER GTX480- volle Details mit 4xAA :)

Mit der HD5870 ist es auch dann nicht maximiert spielbar- Pech ;)

Und nein, 1280x800 ist hoch genug aufgelöst, ist immerhin HaaaDeee! :P

Gast
2010-04-01, 18:51:56
Von überlegener Performance ist da nicht viel zu sehen. Schneller ja teils auch viel schneller, leider eigentlich immer nur wenn man auch mit HD5870 schon mehr als genug Fps hat.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/

Spasstiger
2010-04-01, 18:52:38
Iirc hat die 295 eine TDP-Angabe von 289 Watt, die 480 eine von 250 Watt.
Ich finde Messungen in Spielen aussagekräftiger als TDP-Angaben, zumal die GTX 480 unter Volllast über 300 Watt aufnimmt:
http://techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
GTX 295/GTX 480
Average (3DMark03 Nature) : 181 Watt/223 Watt
Maximum (Furmark): 320 Watt/320 Watt
Die GTX 480 hat eine durchweg höhere Leistungsaufnahme (idle/Videobeschleunigung/Multimonitor (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php)/Spiele/Furmark) als die Radeon HD 5970 und ist im Mittel langsamer.

Schlammsau
2010-04-01, 18:55:32
1280x800 und schon IST es maximiert spielbar- mit EINER GTX480- volle Details mit 4xAA :)

Mit der HD5870 ist es auch dann nicht maximiert spielbar- Pech ;)

Und nein, 1280x800 ist hoch genug aufgelöst, ist immerhin HaaaDeee! :P

Bitte was? 1280x800???? :lol:

Ich glaub ich hab zuletzt mit meiner 7600GT solche Auflösungen gefahren. ;D

Und sowas nennt sich Enthusiast?

Sorry Tombman aber der über nVidia Titel Metro kotzt auch auf einer 480 mächtig ab. Auch wenn sie 20% schneller als ne 5870 ist. :rolleyes:

Marodeur
2010-04-01, 19:00:28
Vor allem halt nur Metro. Ich selbst hab das Spiel jetzt z.B. nicht und auf der Liste stehen auch erstmal andere Titel. Ausserdem spiel ich schon immer viele Titel gleichzeitig zwecks der Abwechslung. Daher ist für mich der Schnitt aus mehreren Titeln viel interessanter als ein hervorgehobener dessen Engine ich wohl auch kaum dauernd antreffen werde.

AYAlf_2
2010-04-01, 19:03:41
so oft wie hier die nvidia fanboys diese metro benchmarks posten .. muss es ja das beste spiel der welt sein? :confused:

Gast
2010-04-01, 19:07:35
so oft wie hier die nvidia fanboys diese metro benchmarks posten .. muss es ja das beste spiel der welt sein? :confused:

Metro = Strohhalm

tombman
2010-04-01, 19:11:57
Bitte was? 1280x800????

Das ist KEINE kleine Auflösung, auch wenn du das ständig vermitteln willst ;)
Du bekommst mit EINER GTX480 volle Details spielbar, bei einer HD5870 müßtest du runter auf SD um volle Details zu sehen.

Metro 2033, volle Details + 4xAA:

GTX480: HD
HD5870: SD

Eine 400€ Karte und nur SD möglich- fail :)

IVN
2010-04-01, 19:12:39
@IVN:
Das alles ändert nichts daran dass Nvidia bei den Teslas riesige Margen hat - ergo MUSS der gebotene Mehrwert (Speichermenge, Support, etc.) weniger wert sein als der Preisaufschlag. Das Preis/Leistungsverhältnis verschiebt sich bei den Teslas also zu ungunsten des Käufers.

Das ist normal. Immerhin sind Teslas ein Produkt, welches hohe Spezifität aufweisst. Was das bedeutet, ist, das man ein ähnliches Produkt nirgends, ausser bei Nv bekommen kann. Bzgl Tesal, ist nVidia also in einer Monopol-Position. Würde ATI etwas ähnliches auf den Markt bringen, sähe die Sache für den Käufer anders aus.

Gast
2010-04-01, 19:13:15
Metro = Strohhalm

So ist es. Wenn statt "Metro" der Barbiepuppensimulator auf der Thermi besser laufen würde dann würde eben der dauernd gepostet. Das Spiel an sich interessiert diese Leute garnicht.

ZÜNDELholz
2010-04-01, 19:13:33
Und? Sind pi mal Daumen 30% mehr Leistung für mehr als 6 Monate warten und dem Verbrauch jenseits einer X².


NUN, im metro entscheiden die 30% zwischen spielbar und crap :rolleyes:

Ronny145
2010-04-01, 19:14:53
Die GTX 480 schluckt mehr als die GTX 295, ist aber auch 20-30% schneller bei fordernden Settings. Nach aktuellem Stand der Technik braucht die GTX 480 eigentlich zu viel Saft, je nach Spiel 100-150 Watt mehr als eine Radeon HD 5870 bei nur 10-20% höherer Framerate. Eine bessere Energieeffizienz als mit der HD 5870 wird lediglich in synthetischen Tessellations-Benchmarks erreicht.

Gibt es schon Energiemessungen mit Tessellation?

AnarchX
2010-04-01, 19:16:21
Gibt es schon Energiemessungen mit Tessellation?
http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html weiter unten

ZÜNDELholz
2010-04-01, 19:17:20
So ist es. Wenn statt "Metro" der Barbiepuppensimulator auf der Thermi besser laufen würde dann würde eben der dauernd gepostet. Das Spiel an sich interessiert diese Leute garnicht.

lecker:
http://www.youtube.com/watch?v=Bt8DEEEMTHw&feature=related

Hoffentlich kommen bald meine zwei 480er .....

PulsarS
2010-04-01, 19:17:55
Was soll denn so besonders an der Metro-Engine sein, dass das hier dauernd gepostet wird?
Metro kommt bei weitem nicht an die grafische Gesamtquali eines Crysis heran.
Fuer mich ist immernoch Crysis der Gradmesser in Sachen Grafikqualitaet.

Deutlich besser als Metro.

Und kommt mir jetzt bitte nicht mit Tesselation.
Die Umsetzung ist unterste Schublade.
Auf die aufgeblasenen Objekte kann ich gerne verzichten.

Bei Metro sieht es mit Tesselation stellenweise schlechter aus als ohne.
Toller Fortschritt. :freak:

IVN
2010-04-01, 19:23:07
Gibt es eigentlich Erfahrung bezüglich der Haltbarkeit bei thermischer Beanspruchung?
Die Hitze kann ja auf Dauer nicht gesund für die Komponenten sein, ich denke nur mal an kalte Lötstellen usw.

Zumindest würde es zu einem Jahr Garantie passen.
Ja, ich habe Erfahrung damit.

Hab hier, in meinem Notebook, eine Nv 6600 go. Das war ihrerrzeit eine sehr potente, mobile Karte. Sie wird in schmalem Gehäuse, im Sommer (besonders nach >4 Jahren Nutztung, wo die Kühler nicht mehr so gut laufen) 105°C heiss. (beim Spielen natürlich)

Läuft immer noch. ;)

Black-Scorpion
2010-04-01, 19:24:22
Dann hat tombman wenigstens was um hier weiter schreien zu können.
In jeden zweiten Beitrag von ihm kommt Metro und sein Hinweis auf SLI.
Langsam geht er einem mit seiner Selbstbeweihräucherung nur noch auf den Senkel.

ZÜNDELholz
2010-04-01, 19:27:36
Dann hat tombman wenigstens was um hier weiter schreien zu können.
In jeden zweiten Beitrag von ihm kommt Metro und sein Hinweis auf SLI.
Langsam geht er einem mit seiner Selbstbeweihräucherung nur noch auf den Senkel.

Die keine Kohle haben, müssen sich eben mit Billigware zufrieden geben .

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480379

tombman
2010-04-01, 19:28:42
lecker:
http://www.youtube.com/watch?v=Bt8DEEEMTHw&feature=related

Hoffentlich kommen bald meine zwei 480er .....
:up:

Phys-X + SLI = the WIN :)

Schlammsau
2010-04-01, 19:29:57
Das ist KEINE kleine Auflösung, auch wenn du das ständig vermitteln willst ;)
Du bekommst mit EINER GTX480 volle Details spielbar, bei einer HD5870 müßtest du runter auf SD um volle Details zu sehen.

Metro 2033, volle Details + 4xAA:

GTX480: HD
HD5870: SD

Eine 400€ Karte und nur SD möglich- fail :)

375€....wenn dann schon richtig! ;)

Aber egal......du drehst es dir zurecht wie dus gerade brauchst.

HD Ready Auflösung.....pff :rolleyes:

Schlammsau
2010-04-01, 19:31:35
Die keine Kohle haben, müssen sich eben mit Billigware zufrieden geben .

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480379

Wir haben wahrscheinlich mehr Kohle als Enthusiasten, weil wir uns son Mist nicht in den Rechner bauen.

Geldsack
2010-04-01, 19:33:00
Nicht vergessen: Nicht vom Geldausgeben wird man reich sondern vom Nichtausgeben. Besonders nicht für Crapprodukte.

Gast
2010-04-01, 19:33:25
lecker:
http://www.youtube.com/watch?v=Bt8DEEEMTHw&feature=related

hab mir den Clip jetzt drei mal angeschaut und verglichen,
PhysX ist ein Witz

tombman
2010-04-01, 19:34:47
375€....wenn dann schon richtig! ;)

Aber egal......du drehst es dir zurecht wie dus gerade brauchst.

HD Ready Auflösung.....pff :rolleyes:
Eben nicht, ich habe damals Crysis auch in dieser Auflösung gespielt- nur um Very High sehen zu können ;)

Details > Auflösung. Wichtig ist, das man alles Künstlerische sehen kann, erst dann kommt die Auflösung (alles im Rahmen natürlich,
aber 12x8 IST im Rahmen)

ZÜNDELholz
2010-04-01, 19:35:02
:up:

Phys-X + SLI = the WIN :)

Was meinst, 2 480er in SLI und ne 9500 GT zur Physx-berechnung ?
Hab dann aber nur 16x8x8

PulsarS
2010-04-01, 19:36:28
:up:

Phys-X + SLI = the WIN :)
Multi-GPU-Schrott wird niemals the WIN sein.
Und du willst Enthusiast sein?

Mach dich nicht laecherlich Tombman.

Aber da du so sehr Metro hypest.
Was ist an der Engine (o8/15) so toll?
Die Frage ist mein voller Ernst.

IVN
2010-04-01, 19:36:51
$349 MSRP sind weniger als $379/399.


Selbst unter Heaven reicht es wohl momentan nur um bei der Pro-Watt-Leistung gleichzuziehen (http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html).

Insgesamt scheint der Ansatz mit den skalaren ALUs und dem für eine vernünftige Leistung nötigen Hot-Clock sich als Sackgasse herauszustellen.
Ich denke eher, es liegt daran, das Nv viel zu viel GPGPU-Zeugs einbaut. ATI spart an jeder Stelle, und Nv verpulvert Transis wie blöde. Ich verstehe die Taktik von Nv nicht.

derguru
2010-04-01, 19:37:27
Was meinst, 2 480er in SLI und ne 9500 GT zur Physx-berechnung ?
Hab dann aber nur 16x8x8
besseres board kaufen:wink:

tombman
2010-04-01, 19:37:45
Was meinst, 2 480er in SLI und ne 9500 GT zur Physx-berechnung ?
Hab dann aber nur 16x8x8
Nene, das stemmen die 480er eh allein. Wollte nur ATIrianer nerven mit den beliebten Reizworten "Phys-X" und "SLI"
- die flippen immer so schön aus ;D

Gast
2010-04-01, 19:38:03
Die keine Kohle haben, müssen sich eben mit Billigware zufrieden geben .

"Korrekt" - daher und weil ich so ein armer Schlucker bin, wird das mein nächstes Baby, vielleicht sogar in zweifacher Ausführung:

http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2010/asus_hd5870_matrix.jpg


Preis wird locker noch auf 400,- sinken


PS: Ich frage mich warum die Mods so ein Gebashe nicht löschen,
diese Anspielung auf Sozialneid kam hier schon öfters von den Grünen,
jedoch ohne Konsequenz !!

ZÜNDELholz
2010-04-01, 19:40:48
"Korrekt" - daher und weil ich so ein armer Schlucker bin, wird das mein nächstes Baby, vielleicht sogar in zweifacher Ausführung:

http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2010/asus_hd5870_matrix.jpg


Preis wird locker noch auf 400,- sinken


PS: Ich frage mich warum die Mods so ein Gebashe nicht löschen,
diese Anspielung auf Sozialneid kam hier schon öfters von den Grünen,
jedoch ohne Konsequenz !!

Hatte ich laut einem älteren Post von mir, auch vor. Oder wars die Ares und Matrix fürn Tripel? -Egal, bald wird SLI krachen :D:D

Edit: Hier bitte:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7838036&postcount=2232

tombman
2010-04-01, 19:41:42
Multi-GPU-Schrott wird niemals the WIN sein.
Und du willst Enthusiast sein?

Mach dich nicht laecherlich Tombman.

Aber da du so sehr Metro hypest.
Was ist an der Engine (o8/15) so toll?
Die Frage ist mein voller Ernst.
Erzähl mir nix über Multi-Gpu- weil da bin ich Gott ;)
Und mit solchen Pauschalaussagen machst höchstens DU dich lächerlich.
Wer MGpu haben will, sollte gewisse Dinge wissen und gewisse "Grundsätze" einhalten, dann macht MGpu Spaß- besonders mit
Nvidia. Es unterscheidet sehr oft zwischen "spielbar" und "nicht spielbar"...

PulsarS
2010-04-01, 19:42:44
Nene, das stemmen die 480er eh allein. Wollte nur ATIrianer nerven mit den beliebten Reizworten "Phys-X" und "SLI"
- die flippen immer so schön aus ;D
Du merkst aber auch nicht, dass du dich hier zum Kasper machst, oder?
Warum sollte man bei SLI ausflippen, auch wenn jemand ein wenig mehr ATI moegen sollte?
Nicht jeder steht auf Multi-GPU-Schrott...

tombman
2010-04-01, 19:44:26
"Korrekt" - daher und weil ich so ein armer Schlucker bin, wird das mein nächstes Baby, vielleicht sogar in zweifacher Ausführung:

http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2010/asus_hd5870_matrix.jpg


Preis wird locker noch auf 400,- sinken


PS: Ich frage mich warum die Mods so ein Gebashe nicht löschen,
diese Anspielung auf Sozialneid kam hier schon öfters von den Grünen,
jedoch ohne Konsequenz !!
Wenn schon HD5, dann diese Karte- gute Entscheidung.

Hätte das ein fanboy jemals sagen können? ;D;D

tombman
2010-04-01, 19:48:41
Multi-GPU-Schrott...
:upicard:

Was ist spielbar?:

Single: 23fps
Multi: 40fps

3x darfst raten...

Gast
2010-04-01, 19:49:29
Also ich fasse mal zusammen.

Hauptargument Pro-GTX480:-Metro 2033 (trotzdem SLI notwenig)
-Unigine Heaven 1.0/2.0 - synthetischer Benchmark

Na wenn man dann nach spätestens 8 Stunden mit Metro fertig ist, heißt es dann jeden Tag 150 Runden Unigine Heaven zocken. Viel Spaß dabei.

PulsarS
2010-04-01, 19:50:28
:upicard:

Was ist spielbar?:

Single: 23fps
Multi: 40fps

3x darfst raten...
Multi-GPU war schrott, ist schrott und wird auch schrott bleiben.
Auch wenn du es vielleicht anders siehst.
:D

tombman
2010-04-01, 19:52:13
Multi-GPU war schrott, ist schrott und wird auch schrott bleiben.
Auch wenn du es vielleicht anders siehst.
:D
Danke für deinen Fail ;)

Armaq
2010-04-01, 19:52:34
Seit wann musst du dir eigentlich eine Karte schönreden, tombman? Das ist man ja von dir nicht gewohnt. Die Karte nuckelt zuviel Saft und verbrät den auch noch ins Nirvana.

Die Kühlerdiagnose, die im Spekulationsthread aufgemacht wurde, hat es damals anhand des Kühlkörpers doch schon auf den Punkt gebracht: Der Lüfter (1.8A) ist zu stark für den Kühlkörper, ergo war die Karte so nicht geplant.

Gast
2010-04-01, 19:52:50
SLI mag zwar meinetwegen besser sein als CF, aber es war und es bleibt suboptimal. MGPU ist immer noch eine krüpplige Notlösung.

IVN
2010-04-01, 19:53:56
Also ich fasse mal zusammen.

Hauptargument Pro-GTX480:-Metro 2033 (trotzdem SLI notwenig)
-Unigine Heaven 1.0/2.0 - synthetischer Benchmark

Na wenn man dann nach spätestens 8 Stunden mit Metro fertig ist, heißt es dann jeden Tag 150 Runden Unigine Heaven zocken. Viel Spaß dabei.
Man bencht immer die forderndsten und zukunftweisendsten Spiel. Das hat nichts mit Fanboyism zu tun.

Und genau deswegen benchen die meisten Seiten mit Stalker XY, Crysis und Metro.

PulsarS
2010-04-01, 19:54:43
Danke für deinen Fail ;)
Ebenso ;)
So, nun duerft ihr Kinder weiterspielen.
Schade, dass mir keiner die Frage nach der 08/15-Metro-Engine beantworten kann oder will...

AnarchX
2010-04-01, 19:55:33
SLI mag zwar meinetwegen besser sein als CF, aber es war und es bleibt suboptimal. MGPU ist immer noch eine krüpplige Notlösung.
Eher ist eine preisgünstige Lösung, die Leistung über das technisch Machbare einer Single-GPU hinaus zu erhöhen.

tombman
2010-04-01, 19:55:38
Seit wann musst du dir eigentlich eine Karte schönreden, tombman? Das ist man ja von dir nicht gewohnt. Die Karte nuckelt zuviel Saft und verbrät den auch noch ins Nirvana.
Seit wann mußt du mir etwas unterstellen, ist man von dir ja nicht gewohnt.

Und zum 10^10. Mal: Strom+ Hitze = Wayne (da Wakü+ 1250W NT)

IVN
2010-04-01, 19:56:34
Ebenso ;)
So, nun duerft ihr Kinder weiterspielen.
Schade, dass mir keiner die Frage nach der 08/15-Metro-Engine beantworten kann oder will...
Welche Frage?


Metro wird gebencht weil es performance-fressend ist, und nicht weil die Engine so grossartig und weit verbreitet ist. Das gleiche wie Crysis...

Armaq
2010-04-01, 19:56:36
Seit wann mußt du mir etwas unterstellen, ist man von dir ja nicht gewohnt.

Und zum 10^10. Mal: Strom+ Hitze = Wayne (da Wakü+ 1250W NT)
Du kannst auch auf den Rest des Postings eingehen. ;)

ZÜNDELholz
2010-04-01, 19:56:45
Also ich fasse mal zusammen.

Hauptargument Pro-GTX480:-Metro 2033 (trotzdem SLI notwenig)
-Unigine Heaven 1.0/2.0 - synthetischer Benchmark

Na wenn man dann nach spätestens 8 Stunden mit Metro fertig ist, heißt es dann jeden Tag 150 Runden Unigine Heaven zocken. Viel Spaß dabei.

Ich spiele games nie fertig. Ich fetischiere an der grafik, das kann 1min oder auch 4h dauern

Gast
2010-04-01, 19:56:55
:upicard:

Was ist spielbar?:

Single: 23fps
Multi: 40fps

3x darfst raten...

Kommt drauf an.
Single FPS: 23 (gefühlt als 23fps)
gegen Multi FPS: 40 (gefühlt wie 24fps bis 40fps, je nach Glück) + mehr Inputlag

Black-Scorpion
2010-04-01, 19:58:00
Eher ist eine preisgünstige Lösung, die Leistung über das technisch Machbare einer Single-GPU hinaus zu erhöhen.
Bei 480er Karten?
Hast du den Ironie Tag vergessen?

ZÜNDELholz
2010-04-01, 19:58:44
SLI mag zwar meinetwegen besser sein als CF, aber es war und es bleibt suboptimal. MGPU ist immer noch eine krüpplige Notlösung.

Ich werde den vergleich haben, da ich vor einiger Zeit ein 4870er Triple/ 4870X2-only gefahren bin

tombman
2010-04-01, 19:58:46
Man bencht immer die forderndsten und zukunftweisendsten Spiel. Das hat nichts mit Fanboyism zu tun.

Und genau deswegen benchen die meisten Seiten mit Stalker XY, Crysis und Metro.
Richtig Nr. 1.
Eher ist eine preisgünstige Lösung, die Leistung über das technisch Machbare einer Single-GPU hinaus zu erhöhen.
Richtig Nr. 2.

Es wird nur nix nutzen, da es bei gewissen Leuten zum einen Ohr rein, und zum anderen Ohr wieder hinaus geht.
Und sie WOLLEN das so haben, weil gewisse Trauben einfach nicht süß sein dürfen ;)

Botcruscher
2010-04-01, 20:04:49
Man bencht immer die forderndsten und zukunftweisendsten Spiel. Das hat nichts mit Fanboyism zu tun.
Und genau deswegen benchen die meisten Seiten mit Stalker XY, Crysis und Metro.

Deswegen gibt es hier ja auch nur 95% Metro...

AnarchX
2010-04-01, 20:06:36
Bei 480er Karten?
Hast du den Ironie Tag vergessen?
Für 1000€ dürfte es keine günstigere, kaufbare Lösung geben, um eine vergleichbare Spieleleistung eines GTX 480 SLI zu erreichen.

tombman
2010-04-01, 20:09:30
Kommt drauf an.
Single FPS: 23 (gefühlt als 23fps)
gegen Multi FPS: 40 (gefühlt wie 24fps bis 40fps, je nach Glück) + mehr Inputlag
Und wenn wir mittleres Glück annehmen, dann sinds 3x gefühlte fps und damit 100% spielbar, was unendlich mal
besser als "nicht spielbar" mit single ist ;)

Schlammsau
2010-04-01, 20:10:17
Für 1000€ dürfte es keine günstigere, kaufbare Lösung geben, um eine vergleichbare Spieleleistung eines GTX 480 SLI zu erreichen.

Warten wirs ab für wieviel die 480er wirklich verkauft werden.

Wenn wirklich nur so wenig Karten in den Handel kommen, wie von allen Seiten vermutet wird, ists Essig mit den "günstigen" 500€.

Black-Scorpion
2010-04-01, 20:12:12
Für 1000€ dürfte es keine günstigere, kaufbare Lösung geben, um eine vergleichbare Spieleleistung eines GTX 480 SLI zu erreichen.
Aber sonst weißt du noch was Realismus ist?
Preisgünstig und 1000 €?
Man kann sich auch echt alles passend zurecht basteln, aber den Sinn für die Realität sollte man schon behalten.

Gast
2010-04-01, 20:12:55
Welche Frage?


Metro wird gebencht weil es performance-fressend ist, und nicht weil die Engine so grossartig und weit verbreitet ist. Das gleiche wie Crysis...
Wenn die Progger Mist gebaut haben und das Spiel deswegen so lahm laeuft, sollte man es deswegen nehmen?
Ganz tolle Logik. :freak:
Die Crysis-Engine ist um Welten besser.

PulsarS

Schlammsau
2010-04-01, 20:14:33
Für 1000€ dürfte es keine günstigere, kaufbare Lösung geben, um eine vergleichbare Spieleleistung eines GTX 480 SLI zu erreichen.

Und auch keine verschwenderische und auch lautere.

Mal abgesehen davon, dass man für ein 480er SLi zwingend eine Wasserkühlung braucht und in den meisten Fällen wohl auch ein neues NT, was in diesen Leistungsregionen wohl auch nicht gerade günstig werden wird.

Alter Schwede.....das sind Beträge, dafür arbeiten manche Menschen nen Monat für. :freak:

Enthusiasmus ist nichts für mich.

tombman
2010-04-01, 20:15:02
Warten wirs ab für wieviel die 480er wirklich verkauft werden.

Wenn wirklich nur so wenig Karten in den Handel kommen, wie von allen Seiten vermutet wird, ists Essig mit den "günstigen" 500€.
Die Preise gehen jetzt eher ne Spur nach unten, oft von 520 auf 500 bzw von 500 auf 480 (je nach Modell und Händler)...
Auch Händler haben Angst, daß man womöglich beim Konkurrenten zuschlagen könnte- gerade Enthusiasten sind
für ihre HändlerUNTREUE bekannt- wer liefern kann, macht das Geschäft zuerst ;)

mironicus
2010-04-01, 20:15:03
Laut Hartware.net werden die ersten Karten ab den 16. April verfügbar sein.

http://www.hartware.net/news_48881.html

tombman
2010-04-01, 20:19:49
dass man für ein 480er SLi zwingend eine Wasserkühlung braucht
Sorry, aber nichtmal für Triple GTX480 braucht man zwingend eine Wakü ...
"Maingear" verkauft mit dem SHIFT System Triple GTX480 mit Referenzlukü.- und die müssen ja auch Garantie drauf geben...

AnarchX
2010-04-01, 20:21:10
Aber sonst weißt du noch was Realismus ist?
Preisgünstig und 1000 €?
Man kann sich auch echt alles passend zurecht basteln, aber den Sinn für die Realität sollte man schon behalten.
Dann zeig doch eine Lösung auf, die bei den spürbaren FPS schneller ist als ein GTX 480-SLI und nicht langsamer als eine einzelne GTX 480.
Das einzige, was es da gäbe wäre eine auf Auftrag selektierte, flüßigkeitgekühlte und übertaktete GTX 480, wo man für die erbrachte Arbeitsleistung und deren Garantie wohl ein vielfaches bezahlt gegenüber den 1000€ des GTX 480 SLI.

Die Kernaussage war allein die, dass SLI die Grenzen des Machbaren doch für einen relativ geringen Aufpreis noch um einiges verschiebt, wo bei anderer High-End-HW (wie z.B. Intels XEs oder SSDs) der Aufpreis für eine geringere Steigerung oft deutlich höher ist.

Schlammsau
2010-04-01, 20:23:17
Sorry, aber nichtmal für Triple GTX480 braucht man zwingend eine Wakü ...
"Maingear" verkauft mit dem SHIFT System Triple GTX480 mit Referenzlukü.- und die müssen ja auch Garantie drauf geben...

Wie soll das gehen, wenn eine Karte beim zocken schon fast am Kühlungslimit läuft und über 90° heiss wird?

Im SLi wird die Temperatur mit Sicherheit nicht geringer im Gehäuse!
Und dann noch der geringe Abstand zwischen den beiden Karten..... :nono:

100%ig ist sowas nicht gesund auf dauer und die Karten werden relativ früh das zeitliche segnen!

Wuge
2010-04-01, 20:25:51
Kommt drauf an.
Single FPS: 23 (gefühlt als 23fps)
gegen Multi FPS: 40 (gefühlt wie 24fps bis 40fps, je nach Glück) + mehr Inputlag

Ich konfigurier(t)e es bei meinen G80igern üblicherweise so:

1 GPU 40-50 FPS schwankend + Tearing :redface:
2 GPU 60 FPS konstant mit VSync :smile:

Die FPS-Zahlen hatte ich so bei NFS Shift und CoD MW2

Was spielt sich wohl schöner? Gerade wenn ich an Shift denke...

SLI brachte bei mir je nach Spiel 80-90% mehr GPU-Power, wie man die einsetzt sei mal dahin gestellt.

Gast
2010-04-01, 20:29:17
Dann zeig doch eine Lösung auf, die bei den spürbaren FPS schneller ist als ein GTX 480-SLI und nicht langsamer als eine einzelne GTX 480.
Das einzige, was es da gäbe wäre eine auf Auftrag selektierte, flüßigkeitgekühlte und übertaktete GTX 480, wo man für die erbrachte Arbeitsleistung und deren Garantie wohl ein vielfaches bezahlt gegenüber den 1000€ des GTX 480 SLI.

Die Kernaussage war allein die, dass SLI die Grenzen des Machbaren doch für einen relativ geringen Aufpreis noch um einiges verschiebt, wo bei anderer High-End-HW (wie z.B. Intels XEs oder SSDs) der Aufpreis für eine geringere Steigerung oft deutlich höher ist.

asus ares + wakü und oc

tombman
2010-04-01, 20:31:11
Wie soll das gehen, wenn eine Karte beim zocken schon am Kühlungslimit läuft?

Im SLi wird die Temperatur mit Sicherheit nicht geringer im Gehäuse!
Und dann noch der geringe Abstand zwischen den beiden Karten..... :nono:

100%ig ist sowas nicht gesund auf dauer und die Karten werden relativ früh das zeitliche segnen!
Eine Karte rennt nicht am Limit, der Lüfter dreht ja (fast) nie auf 100% auf. Er hält die Temp auf einem sehr hohen Niveau (96°C), deshalb denken
viele er wäre am Ende. Selbst beim OC bleibt es auf 96°C, nur der Lüfter dreht höher.

Aber mir ist das eh egal, ein GPU-only Wakü (und der reicht für die GTX4 Serie wegen der Platte :cool:) kostet schlappe 20€. Meine beiden
Kühler sind heute eingetroffen von Aquatuning ;)

Schlammsau
2010-04-01, 20:32:37
Eine Karte rennt nicht am Limit, der Lüfter dreht ja (fast) nie auf 100% auf. Er hält die Temp auf einem sehr hohen Niveau (96°C), deshalb denken
viele er wäre am Ende. Selbst beim OC bleibt es auf 96°C, nur der Lüfter dreht höher.

Aber mir ist das eh egal, ein GPU-only Wakü (und der reicht für die GTX4 Serie wegen der Platte :cool:) kostet schlappe 20€. Meine beiden
Kühler sind heute eingetroffen von Aquatuning ;)

Versteh ich das richtig.....du kühlst nicht extrig die Spawas?

Gast
2010-04-01, 20:33:11
Sorry, aber nichtmal für Triple GTX480 braucht man zwingend eine Wakü ...
"Maingear" verkauft mit dem SHIFT System Triple GTX480 mit Referenzlukü.- und die müssen ja auch Garantie drauf geben...

kochen wird die oberste kochen :D ohne Wakü und mit muß da auch ein Lüfter hin der zwischen die Karten bläst, von hinten nach vorne..und Garantie ist 1 Jahr..danach stehst du in Erklärungszwang...
und da du ja etwas Ahnung hast.....kannste mal nach ne Stunde dein Wurstfinger :D versuchen ans MOBO zu legen ... leg aber die Brandalbe bereit .... das is denen doch egal wenn dein Krams nach 1 Stunde zocken abkackt weil der Kram "glüht"...

Gast
2010-04-01, 20:33:11
Manche checken nicht, das die Temperatur nichts über Reserven aussagt.

Die Drehzahlreserve in Verbindung mit dem Delta zum Temperaturmaximum sagt etwas aus.

tombman
2010-04-01, 20:33:35
asus ares + wakü und oc
Wird nicht reichen ;) Außerdem ocen auch 480er gut, vorallem mit Wakü+ mehr Vcore.
Und Phys-X hast dann immer noch nicht und wahrscheinlich mehr MR durch CF.

Gast
2010-04-01, 20:35:12
dafür hat er SSAA ätsch :D

tombman
2010-04-01, 20:35:24
Versteh ich das richtig.....du kühlst nicht extrig die Spawas?
Nicht mit Wasser ;) (mit ~22 cm Fan über alles drüber)

Gast
2010-04-01, 20:35:44
Wird nicht reichen ;) Außerdem ocen auch 480er gut, vorallem mit Wakü+ mehr Vcore.
Und Phys-X hast dann immer noch nicht und wahrscheinlich mehr MR durch CF.

ich seh gerade man braucht nicht mal ne wakü, der kühler wiegt ja immerhin 4 kg :ugly:

Gast
2010-04-01, 20:36:03
und außerdem haben ATI Leute nie MR... kannste allerwärtz nachlesen :lol:

Gast
2010-04-01, 20:36:23
dafür hat er SSAA ätsch :D
SSAA habe ich schon mit einer voodoo oder Geforce FX.

Schlammsau
2010-04-01, 20:36:40
Wird nicht reichen ;) Außerdem ocen auch 480er gut, vorallem mit Wakü+ mehr Vcore.
Und Phys-X hast dann immer noch nicht und wahrscheinlich mehr MR durch CF.

Wer als ATi Nutzer unbedingt PhysX haben will, klatscht sich eine 50-80€ GeForce ins Gehäuse und das wars. Mit dem Treiber Hack funzt das nach wie vor problemlos.

Eggcake
2010-04-01, 20:37:03
Wäre interessant zu wissen ob das mit komplettem PhysX off oder nur GPU PhysX off getestet wurde. In der Beschreibung steht nämlich deutlich Advanced PhysX off vs. Advanced PhysX on - das läuft aber nicht über die GPU sondern über die CPU und ist ebenso mit ATI-Karten verwendbar.

Schlammsau
2010-04-01, 20:37:20
Nicht mit Wasser ;) (mit ~22 cm Fan über alles drüber)

Mutig! :biggrin:

Gast
2010-04-01, 20:37:32
SSAA habe ich schon mit einer voodoo oder Geforce FX.

jo, aber nicht mit Furby...

Gast
2010-04-01, 20:38:32
Mutig! :biggrin:


das geht in wilden Zeiten haben wir einfach einen Lüfter klatsch oben auf die Karte gelegt und gut ist...

Blaire
2010-04-01, 20:41:25
jo, aber nicht mit Furby...

Natürlich. Die Hybriden/OGSSAA funken weiterhin, für Problemfälle gibts dann Downsampling.

Gast
2010-04-01, 20:43:22
Ich konfigurier(t)e es bei meinen G80igern üblicherweise so:

1 GPU 40-50 FPS schwankend + Tearing :redface:
2 GPU 60 FPS konstant mit VSync :smile:

Die FPS-Zahlen hatte ich so bei NFS Shift und CoD MW2

Was spielt sich wohl schöner? Gerade wenn ich an Shift denke...

SLI brachte bei mir je nach Spiel 80-90% mehr GPU-Power, wie man die
einsetzt sei mal dahin gestellt.


Um in einem Spiel dass mich interessiert auf konstant 60FPS mit VSync on zu kommen, würde ich mir auch eine neue Grafikkarte kaufen.
Aber nicht um von 20FPS auf 40FPS mit Vsync on zu kommen, das ist beides unzumutbar.

Ein Spiel zu entwickeln, dass jede High-Endkarte in die Knie zwingt, ist für Spieleentwickler so einfach wie Kaffee kochen.
Selbst alte Spiele kann man mit Mods so verändern, dass sie mit den schnellsten Grafikkarten und Quad-Sli ruckeln.
Die Kunst besteht darin ein Spiel so zu programmieren, dass es gut aussieht und dabei möglist geringe Hardwareanforderungen hat.
Für ein gutes Spiel braucht es mehr als nur Spezialeffekte.

tombman
2010-04-01, 20:45:21
Mutig! :biggrin:
Nicht wirklich, denn sogar LN2-Wahnsinnige haben es so gemacht. LN2@ Gpu only + Referenz-Platte @ Rest :)

http://img29.imageshack.us/img29/5426/ln202.jpg


Da wird das mit nem Waküblock ganz EASY funken ;)

Gast
2010-04-01, 20:45:26
Aber nicht um von 20FPS auf 40FPS mit Vsync on zu kommen, das ist beides unzumutbar.


Edit: Aber nicht um von 20FPS auf 40FPS mit Vsync off zu kommen, das ist beides unzumutbar.

corvus
2010-04-01, 20:46:00
Natürlich. Die Hybriden/OGSSAA funken weiterhin, für Problemfälle gibts dann Downsampling.
Jo klar :D Hybriden Geschmiere... und zum Glück gibt es Daunsamplink... schon sagenhaft wie tote lebend gequatscht werden :D ab und an denk ich schreibe mit 10 jährigen...
ach so, im übrigen gehts um SGSSAA....

Blaire
2010-04-01, 20:52:40
ach so, im übrigen gehts um SGSSAA....

Du siehst wohl den Wald vor lauter Bäumen nicht mehr? :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7945465&postcount=2894

corvus
2010-04-01, 20:54:35
jaja schon klar... ich geh lieber bevor es ausartet.

IVN
2010-04-01, 21:18:27
Wenn die Progger Mist gebaut haben und das Spiel deswegen so lahm laeuft, sollte man es deswegen nehmen?
Ganz tolle Logik. :freak:
Die Crysis-Engine ist um Welten besser.

PulsarS
Alles klar...

Gast
2010-04-01, 21:20:52
Und? Sind pi mal Daumen 30% mehr Leistung für mehr als 6 Monate warten und dem Verbrauch jenseits einer X².

Endlich jemand der es genau auf den Punkt bringt!
Und wen interessiert das in einem halben Jahr wo beide wieder neue Karten präsentieren? Genau niemanden. --> Das warten war für die Katz. ^^

Sascha1971
2010-04-01, 21:30:40
Sollen die ATI`ler noch mal was von Stromverbrauch bei NV sagen

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/april/bilder_xfx_hd_5970_black_edition_4_gb/

Zwei Acht-Pin-Stromstecker werden nötig sein, um die Karte betreiben zu können. Asus setzt bei der Ares-Adaption gar noch auf einen weiteren Sechs-Pin-Stecker.


Jetzt fallen da auch alle Limits um Leistung zu bekommen.

redpanther
2010-04-01, 21:31:54
Jo klar :D Hybriden Geschmiere...
Ähm, wie Bitte? Was soll denn das heißen?


Echt lustig hier, Vorurteile und Pauschalisierung Ahoi. Ich echt wie im Kindergarten hier. Meiner ist Größer... Ätsch, dafür meiner Kuschelliger.

Erinnert mich sehr an die Seligen Zeiten Amiga Gegen Atari ST.
Warum ist das in letzter Zeit eigentlich so eskaliert? Ich meine ATI/AMD und NVidia gibts ja nicht erst seit gestern, aber ich finde seit ein paar Monaten ist es echt extrem hier. In anderen Foren auch?

Gast
2010-04-01, 21:36:20
Sollen die ATI`ler noch mal was von Stromverbrauch bei NV sagen

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/april/bilder_xfx_hd_5970_black_edition_4_gb/

Zwei Acht-Pin-Stromstecker werden nötig sein, um die Karte betreiben zu können. Asus setzt bei der Ares-Adaption gar noch auf einen weiteren Sechs-Pin-Stecker.


Jetzt fallen da auch alle Limits um Leistung zu bekommen.

der sechs pin stecker bei der asus ist für oc reserven...
wieviel sechs bzw acht pin stecker braucht denn nvidia um 2 480er zu versorgen?

Black-Scorpion
2010-04-01, 21:37:42
Sollen die ATI`ler noch mal was von Stromverbrauch bei NV sagen

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/april/bilder_xfx_hd_5970_black_edition_4_gb/

Zwei Acht-Pin-Stromstecker werden nötig sein, um die Karte betreiben zu können. Asus setzt bei der Ares-Adaption gar noch auf einen weiteren Sechs-Pin-Stecker.


Jetzt fallen da auch alle Limits um Leistung zu bekommen.
Nicht alles was hinkt ist ein Vergleich.

Erstens sind das Hersteller Karten.
Zweitens sind es Dualkarten.

Bei der 4x0er sind es schon die Referenzkarten die das auf die Waage bringen.
Noch dazu Single GPU.

Gast
2010-04-01, 21:39:40
Sollen die ATI`ler noch mal was von Stromverbrauch bei NV sagen

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/april/bilder_xfx_hd_5970_black_edition_4_gb/

Zwei Acht-Pin-Stromstecker werden nötig sein, um die Karte betreiben zu können. Asus setzt bei der Ares-Adaption gar noch auf einen weiteren Sechs-Pin-Stecker.


Jetzt fallen da auch alle Limits um Leistung zu bekommen.

Und? Das ist keine Einzelkarte mit nur einem Chip, die noch dazu eine Entwicklung der Boardpartner ist. Also von Haus aus kein Referenzdesign hat. Zudem ist die Stückzahl stark begrenzt und verfügt über das doppelte an RAM einer üblichen 5970. Zwei 8-Pin-Stecker bedeuten auch noch lange nicht, dass die Karte das frisst was eine GTX480 frisst.

AYAlf_2
2010-04-01, 21:46:49
wenn wir jetzt alle in einem grossen kreis sitzen wuerden .. und ich wuerde waffen in die mitte legen... wie viele von euch waeren dann nicht verletzt?

das ganze eskaliert doch hier nur .. weil ein haufen nvidia fans jetzt ins andere lager wechseln (fuer diese generation), da sie mit dem gebotenen einfach nicht zufrieden sind... deshalb machen die uebrig gebliebenen nvidia fanboys hier so den max.

nun was zu metro video.. fuer das bischen eine neue graka .. ein starkes stueck. ich goenne es euch aber von herzen, auch wenn ich physx wirklich nicht mag.

corvus
2010-04-01, 21:51:26
nenene das verkennst du...... Die und Die Leute wissen schon was sie kaufen und wie sie den Krams in den Griff bekommen, die und ich zb. würden da schonmal nicht mit am Tisch sitzen ( außerdem wäre ich eh schneller :D)....man (n) sollte immer mal "lesen" was die jenigen machen wenn sie gekauft haben......dann relativiert sich da ganze, ganz schnell... was ein deutsch... sagenhaft :D

IVN
2010-04-01, 21:51:28
wenn wir jetzt alle in einem grossen kreis sitzen wuerden .. und ich wuerde waffen in die mitte legen... wie viele von euch waeren dann nicht verletzt?

das ganze eskaliert doch hier nur .. weil ein haufen nvidia fans jetzt ins andere lager wechselen (fuer diese generation), da sie mit dem gebotenen einfach nicht zufrieden sind... deshalb machen die uebrig gebliebenen nvidia fanboys hier so den max.

nun was zu metro video.. fuer das bischen eine neue graka .. ein starkes stueck. ich goenne es euch aber von herzen, auch wenn ich physx wirklich nicht mag.
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, für die Atianer ist es aber nur "ein bisschen". Würde es auf einer Radeon laufen (und auf den Geforces eben nicht), wäre es die Offenbarung. :rolleyes:

Und das zeigt der "PhysX@NV-GPU-Diskussion"-Thread sehr deutlich.

dildo4u
2010-04-01, 21:53:09
Holy da steht Grün ja für Strom sparen. :eek:

http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg

Gast
2010-04-01, 21:55:39
Das traf es schon vorhin und das trifft es immer noch.

http://www.abload.de/thumb/fermi262s.jpg (http://www.abload.de/image.php?img=fermi262s.jpg)

Man muss bei den oben verlinkten ATIs sagen, dass NVidia bei der 480 zumindest auch die zulässige Belastung mehr als deutlich sprengt.
Weil sich AMD an die Norm hält und NVidia drauf sch... kann man denen auch keinen Strick daraus drehen.

Gast
2010-04-01, 21:57:31
Holy da steht Grün ja für Strom sparen. :eek:

http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg

Das sind auch Reserven für OC drin und das ist das Maximum das geht, NV überfährt sämtliche Richtlinien und interssiert sich überhaupt nicht für die Norm.

Gast
2010-04-01, 22:01:03
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, für die Atianer ist es aber nur "ein bisschen". Würde es auf einer Radeon laufen (und auf den Geforces eben nicht), wäre es die Offenbarung. :rolleyes:

Und das zeigt der "PhysX@NV-GPU-Diskussion"-Thread sehr deutlich.

Das ist Mist aller höchster Güte, vor PhysX hat sich sehr viel bewegt nur jetzt muss man dafür eine Geforce bereithalten.
Tatsache ist, dass bei den ganzen gesponserten PhysX-Spielen die Partikeleffekte so stark zurückgefahren wurden, dass wir an die Zeit um 2000 erinnert werden.
HL2 und Konsorten haben gezeigt wo der Hammer hängt dagegen und da kommt der NV-Physik-Klamauk sowieso nicht.

Gast
2010-04-01, 22:01:33
Holy da steht Grün ja für Strom sparen. :eek:

http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg
450W, wenn man nicht wie üblich die Norm sprengt. Real sind 500W-550W gut machbar.
Zeigt mal wieder, wie unsinnig MGPU ist. Profilabhängig, VRAM Verschwendung und dann µruckelt es so, das es am Ende nicht besser dasteht als eine richtige High-End Karte.

AYAlf_2
2010-04-01, 22:02:08
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, für die Atianer ist es aber nur "ein bisschen". Würde es auf einer Radeon laufen (und auf den Geforces eben nicht), wäre es die Offenbarung. :rolleyes:

Und das zeigt der "PhysX@NV-GPU-Diskussion"-Thread sehr deutlich.
thats your opinion... und ich achte dich dafuer .. mehr aber auch nicht. ;)

derguru
2010-04-01, 22:02:28
Holy da steht Grün ja für Strom sparen. :eek:

http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg

die ist auch fast doppelt so schnell mit oc und das nennt man dann enthusiast.:wink:

Gast
2010-04-01, 22:04:00
Holy da steht Grün ja für Strom sparen. :eek:

http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg


Dafür aber auch 50% schneller... sollte man nicht vergessen!
Aber ganz abegesehn davon.... ist Multigpu Mist! Egal ob rot oder grün!

pXe
2010-04-01, 22:04:05
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, ....

Das liest sich so als hätte praktisch jeder AAA Titel des vergangenen Jahres PhysX Unterstützung gehabt. Und als wären mindestens ein dutzend weitere für dieses Jahr angekündigt.
Was kommt nochmal gleich dieses Jahr mit PhysX ausser Mafia 2?


Ach ja, schau Dir mal Battlefield Bad Company 2 an.


pXe

boxleitnerb
2010-04-01, 22:04:07
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, für die Atianer ist es aber nur "ein bisschen". Würde es auf einer Radeon laufen (und auf den Geforces eben nicht), wäre es die Offenbarung. :rolleyes:

Und das zeigt der "PhysX@NV-GPU-Diskussion"-Thread sehr deutlich.

Viel ist für mich das, was man bei Red Faction Guerilla sehen kann. Und das geht sogar ohne PhysX :eek:
Bioshocks Wassersimulation war auch toll - ebenfalls ohne PhysX. Crysis: Zerstörbare Häuser/Palmen - auch kein PhysX. Und die drei Partikel zusätzlich sollen jetzt was Besonderes sein? Echt lächerlich. PhysX wäre toll, wenn man es mal für was Gescheites nutzen würde.

corvus
2010-04-01, 22:04:22
Das ist Mist aller höchster Güte, vor PhysX hat sich sehr viel bewegt nur jetzt muss man dafür eine Geforce bereithalten.
Tatsache ist, dass bei den ganzen gesponserten PhysX-Spielen die Partikeleffekte so stark zurückgefahren wurden, dass wir an die Zeit um 2000 erinnert werden.
HL2 und Konsorten haben gezeigt wo der Hammer hängt dagegen und da kommt der NV-Physik-Klamauk sowieso nicht.

Das ist Werbung...und das konnte NV schon immer bis zum erbrechen...wie oft ich die letzten 2 Tage gelesen habe ...oohhuhh Mafiosi 2.... ich glaub ich muß mir doch nen Fermi kaufen.....

IVN
2010-04-01, 22:04:39
Das ist Mist aller höchster Güte, vor PhysX hat sich sehr viel bewegt nur jetzt muss man dafür eine Geforce bereithalten.
Tatsache ist, dass bei den ganzen gesponserten PhysX-Spielen die Partikeleffekte so stark zurückgefahren wurden, dass wir an die Zeit um 2000 erinnert werden.
HL2 und Konsorten haben gezeigt wo der Hammer hängt dagegen und da kommt der NV-Physik-Klamauk sowieso nicht.
Ich hab das Spiel gespielt, und so weit ich mich erinnere, konnte man dort eben nur ein Objekt mit der Gravgun an sich ziehn, und es abfeuern. Dabei interagierte das Abgefeuerte Objekt, beim Aufprall, mit ner handvoll anderer. Im Vergleich zu heute, einfach lächerlich.

Gast
2010-04-01, 22:04:59
HL2 und Konsorten haben gezeigt wo der Hammer hängt dagegen und da kommt der NV-Physik-Klamauk sowieso nicht.
Und wo ist der HL2 Nachfolger.
Schonmal nachgedacht?

Kann doch die Physikengine nicht dafür. Havok ist nicht besser als PhysX.
Allerdings ist Havok als langangekündigte GPU Physikengine immer noch auf CPUs beschränkt und die Entwickler scheren sich einen Dreck uns mehr Physik ala HL2 zu bieten.

Gast
2010-04-01, 22:05:08
450W, wenn man nicht wie üblich die Norm sprengt. Real sind 500W-550W gut machbar.
Zeigt mal wieder, wie unsinnig MGPU ist. Profilabhängig, VRAM Verschwendung und dann µruckelt es so, das es am Ende nicht besser dasteht als eine richtige High-End Karte.

das vieh ist eh nur für overclocker und fps-jäger gedacht.

Gast
2010-04-01, 22:06:18
Dafür aber auch 50% schneller... sollte man nicht vergessen!
Aber ganz abegesehn davon.... ist Multigpu Mist! Egal ob rot oder grün!
Die 50% kann man sich gleich nach dem Ergözen in die Haare schmieren.
Am Ende kommt davon nur ein Bruchteil an, auch wenns so gerne vergessen wird.

Gast
2010-04-01, 22:07:02
das vieh ist eh nur für overclocker und fps-jäger gedacht.
Eben, wo ist das Problem?

IVN
2010-04-01, 22:07:29
Viel ist für mich das, was man bei Red Faction Guerilla sehen kann. Und das geht sogar ohne PhysX :eek:
Bioshocks Wassersimulation war auch toll - ebenfalls ohne PhysX. Crysis: Zerstörbare Häuser/Palmen - auch kein PhysX. Und die drei Partikel zusätzlich sollen jetzt was Besonderes sein? Echt lächerlich. PhysX wäre toll, wenn man es mal für was Gescheites nutzen würde.
Kenne das Spiel leider nicht. Verlinke bitte ein Video, wo man es gut sehen kann, damit ich nicht ewig-lang suchen muss. Danke.

AYAlf_2
2010-04-01, 22:09:00
Ich hab das Spiel gespielt, und so weit ich mich erinnere, konnte man dort eben nur ein Objekt mit der Gravgun an sich ziehn, und es abfeuern. Dabe interagierte das Abgefeuerte Objekt, beim Aufprall, mit ner handvoll anderer. Im Vergleich zu heute, einfach lächerlich.
schau dir mal bfbc2 an ... dx11 ohne physx ... und dann sag mir noch mal, dass was ich in dem video gesehen habe viel ist. oder cryisis oder 10000 andere spiele die es besser machen ohne physx und dann auch noch performen.

boxleitnerb
2010-04-01, 22:11:27
Kenne das Spiel leider nicht. Verlinke bitte ein Video, wo man es gut sehen kann, damit ich nicht ewig-lang suchen muss. Danke.

Red Faction kennt man doch, Bildungslücke :D
http://www.youtube.com/watch?v=hrl0FdQXbqY

DAS ist Physik! Wenn man das noch durch GPU beschleunigen würde...aber nein, man beschränkt sich auf oberflächlichen kosmetischen Mist, den keiner wirklich braucht - wenn man es objektiv betrachtet. Das ist halt das Problem bei der Geschichte: Kein Entwickler wird die halbe Kundschaft ausschließen. Die Absicht hinter PhysX ist extrem lobenswert, aber leider hat Nvidia das nicht zu Ende gedacht. Solange die GPU-beschleunigten Effekte nicht jeder nutzen kann, nutzlos, ein Gimmick und mehr nicht. Die Engine an sich ist weit verbreitet, das ist ja ok. Aber das allein bringt uns ja nicht weiter.

IVN
2010-04-01, 22:12:07
schau dir mal bfbc2 an ... dx11 ohne physx ... und dann sag mir noch mal, dass was ich in dem video gesehen habe viel ist. oder cryisis oder 10000 andere spiele die es besser machen ohne physx und dann auch noch performen.
Ich weiss nicht was du genau meinst...

Aber, so wie es z.B. in Crysis gemacht wird, ist es ok. Die Gameply-Physik muss man eben (wegen der Perf) auf der CPU machen.

Du kannst mir aber nicht erzählen, das Crysis nicht noch besser aussehen würde, wenn es noch die GPU/Effekt-Physik einsetzen würde? Eben noch mehr Partikel, noch mehr bewegliche Gegenstände, usw.

Red Faction kennt man doch, Bildungslücke :D
http://www.youtube.com/watch?v=hrl0FdQXbqY
Man kann ja nicht alles wissen. ;)

P.S. Werds mir gleich angucken.

Gast
2010-04-01, 22:13:54
die ist auch fast doppelt so schnell mit oc und das nennt man dann enthusiast.:wink:

aber nur wenns grün ist...ansonsten isses Mißt......

Gast
2010-04-01, 22:17:04
schau dir mal bfbc2 an ... dx11 ohne physx ... und dann sag mir noch mal, dass was ich in dem video gesehen habe viel ist. oder cryisis oder 10000 andere spiele die es besser machen ohne physx und dann auch noch performen.
Crysis Problem ist, das die tolle Physikengine kaum genutzt wird.
Wohl aus Kompatibiltätsgründen.

Wenn, dann wärs schick, wobei die zusätzlichen PhysX Partikel immer noch fehlen.

Allerdings fragt man sich ernsthaft, was zur Hölle hat das A) mit dem Fred und B) mit PhysX zu tun.
Crysis ist ein Spiel, keine bekannte Physikengine wie Havok oder PhysX.
Was du jetzt machst ist Crysis zu loben, obwohl es Mängel genug aufweisst und völlig ohne Hintergrund auf der PhysXengine rumtrampelst.

Gast
2010-04-01, 22:19:53
Ich weiss nicht was du genau meinst...

Aber, so wie es z.B. in Crysis gemacht wird, ist es ok. Die Gameply-Physik muss man eben (wegen der Perf) auf der CPU machen.

Du kannst mir aber nicht erzählen, das Crysis nicht noch besser aussehen würde, wenn es noch die GPU/Effekt-Physik einsetzen würde? Eben noch mehr Partikel, noch mehr bewegliche Gegenstände, usw.

Die PhysX-Umsetzung war bisher grausig (in Batman gibt's ohne PhysX einfach mal gar keinen Rauch, als ob im Jahre 2010 ohne PhysX-Beschleuniger kein schöner Rauch machbar wäre) und nachdem ich den Mafia II-Trailer gesehen habe, bin ich überzeugt, dass man daran auch nichts ändern möchte. Da fliegen nach einem Schuss auf eine Marmorsäule 50 Millionen Splitter durch die Gegend, die zusammengesetzt wieder eine ganze Marmorsäule bilden könnten oder man verkauft die Möglichkeit des Zerschießens eines Reifens als PhysX-Feature. Und nebenbei langweilt sich der 4 GHz-Gulftown mit 12 Threads. :rolleyes:

Ich habe überhaupt nichts gegen PhysX. Solange dieser proprietäre Mist aber nur dazu da ist, Features auszulagern, die auch so machbar gewesen wären, ist es pure Kundenverarschung.

dildo4u
2010-04-01, 22:20:31
die ist auch fast doppelt so schnell mit oc und das nennt man dann enthusiast.:wink:
50% schneller max.

IVN
2010-04-01, 22:21:08
DAS ist Physik! Wenn man das noch durch GPU beschleunigen würde...aber nein, man beschränkt sich auf oberflächlichen kosmetischen Mist, den keiner wirklich braucht - wenn man es objektiv betrachtet. Das ist halt das Problem bei der Geschichte: Kein Entwickler wird die halbe Kundschaft ausschließen. Die Absicht hinter PhysX ist extrem lobenswert, aber leider nicht zu Ende gedacht. Solange es nicht jeder nutzen kann, nutzlos, ein Gimmick und mehr nicht.
Das ist Gameplay-Physik, und sowas ist dann nicht das gleiche wie PhysX auf der GPU.

Es ist eben so, das auch die heutigen X-Core-CPUs etwas zu tun haben müssen. Wozu sonst die Investition. Andererseits, wenn man es trotzdem über die GPU machen würde, müsste man die Daten zur GPU schicken, bearbeiten, wieder zurück und erst dann die eigentliche Grafik machen. Ich bin ehrlich gesagt strikt dagegen. Die GPU sollte das tun, was ihr gut liegt, und die CPU ebenfalls.

D.h. dann, die CPU kümmert sich um die Gameplay-Physik, die GPU um Effektphysik (zusätzliche Partikel, Cloth-Sim - eben PhysX).

Das Problem ist eben, das viele Schmieden entweder das eine, oder das andere einbauen. ICH würde sehr gerne ein Spiel sehen, wo man sowohl die gameplay-relevante (auf der CPU) als auch die Effektphysik (auf der GPU) richtig macht. DAS wäre mal was. :)

Gast
2010-04-01, 22:22:44
50% schneller max.

ich könnt wetten da gibs nen voltage tool gratis... dann kannst du deine angegebenen max knicken.

Gast
2010-04-01, 22:23:42
Hier der Vergleich: http://www.youtube.com/watch?v=luSAnouAFJs

Ein Dutzend Papiere auf dem Boden können sich also ohne PhysX nicht bewegen? Rauch ist ohne PhysX nicht darstellbar? Ein paar Kacheln auf dem Boden kann man nicht zerstören ohne PhysX?

Die Umsetzung ist bisher einfach lächerlich.

Gast
2010-04-01, 22:25:26
Hier der Vergleich: http://www.youtube.com/watch?v=luSAnouAFJs

Ein Dutzend Papiere auf dem Boden können sich also ohne PhysX nicht bewegen? Rauch ist ohne PhysX nicht darstellbar? Ein paar Kacheln auf dem Boden kann man nicht zerstören ohne PhysX?

Die Umsetzung ist bisher einfach lächerlich.

jep! jede grafikdemo kann es besser.

AYAlf_2
2010-04-01, 22:25:32
Crysis Problem ist, das die tolle Physikengine kaum genutzt wird.
Wohl aus Kompatibiltätsgründen.

Wenn, dann wärs schick, wobei die zusätzlichen PhysX Partikel immer noch fehlen.

Allerdings fragt man sich ernsthaft, was zur Hölle hat das A) mit dem Fred und B) mit PhysX zu tun.
Crysis ist ein Spiel, keine bekannte Physikengine wie Havok oder PhysX.
Was du jetzt machst ist Crysis zu loben, obwohl es Mängel genug aufweisst und völlig ohne Hintergrund auf der PhysXengine rumtrampelst.
auch wenn die mods mich hassen werden .. ich trampel nicht auf der engine rum .. sondern auf dem konzept. (genau die physx engine haette aber es halt nicht gebraucht -> meine meinung). axo .. das sag ich schon .. seit dem ageia zeitalter. hat also nix mit nvidia gebashe zu tun.

boxleitnerb
2010-04-01, 22:25:54
Das ist Gameplay-Physik, und sowas ist dann nicht das gleiche wie PhysX auf der GPU.

Es ist eben so, das auch die heutigen X-Core-CPUs etwas zu tun haben müssen. Wozu sonst die Investition. Andererseits, wenn man es trotzdem über die GPU machen würde, müsste man die Daten zur GPU schicken, bearbeiten, wieder zurück und erst dann die eigentliche Grafik machen. Ich bin ehrlich gesagt strikt dagegen. Die GPU sollte das tun, was ihr gut liegt, und die CPU ebenfalls.

D.h. dann, die CPU kümmert sich um die Gameplay-Physik, die GPU um Effektphysik (zusätzliche Partikel, Cloth-Sim - eben PhysX).

Das Problem ist eben, das viele Schmieden entweder das eine, oder das andere einbauen. ICH würde sehr gerne ein Spiel sehen, wo man sowohl die gameplay-relevante (auf der CPU) als auch die Effektphysik (auf der GPU) richtig macht. DAS wäre mal was. :)

Da stimme ich dir 100pro zu. Allerdings sind diese Argumente auch genau der Grund, warum PhysX (und die Effektphysik) einfach nicht DAS Argument pro NV ist, was hier viele daraus machen. Klar, es sieht nett aus und ist ein weiterer optischer Effekt. Aber es ist - wie schon gesagt - meistens nichts, was nicht schon vorher (in ähnlicher optischer Qualität) da war. Das bisher Mögliche wird halt heruntergespielt, um Neues als das Nonplusultra zu verkaufen - und das ist eben Käse. Zumal der Performancehit für das Gebotene oft zu groß ist. Dann lieber mehr AA oder sowas. Ob ich jetzt 500 oder 5000 Partikel sehe, wayne.

Gast
2010-04-01, 22:26:55
Hier der Vergleich: http://www.youtube.com/watch?v=luSAnouAFJs

Ein Dutzend Papiere auf dem Boden können sich also ohne PhysX nicht bewegen? Rauch ist ohne PhysX nicht darstellbar? Ein paar Kacheln auf dem Boden kann man nicht zerstören ohne PhysX?

Die Umsetzung ist bisher einfach lächerlich.

"Cloth Banners" ab 1:03. Ohne PhysX fehlt einfach nur Content. :|

Und sowas unterstützt ihr? Wenn AMD aber auch damit anfängt, heult nicht rum, dass Blockbuster A nur noch mit einer AMD und Blockbuster B nur noch mit einer nVidia auf vollen Details spielbar ist.

corvus
2010-04-01, 22:28:07
Eben, wo ist das Problem?


event im Verbrauch...? Den ihr Furby andauernd ankreidet....ist schon sagenhaft..meine Hühner haben mehr Hirn.

Gast
2010-04-01, 22:29:49
Die 50% kann man sich gleich nach dem Ergözen in die Haare schmieren.
Am Ende kommt davon nur ein Bruchteil an, auch wenns so gerne vergessen wird.


Ich sag doch, dass MGPU Mist ist.... und bei den geschätzten 50% sind imo die Mircoruckler schon eingerechnet.....

Aber mal was ganz anderes:

Ich habe hier bis jetzt nur mitgelesen... und werde das jetzt sehr beschränken. Schaut ihr euch auch abundzu mal eure eigenen Beiträge an?
Ist echt lächerlich was hier zum Teil abgeht. Für die meisten ist die hd5000er Serie einfach das bessere Paket. Wer das nicht sieht?!
Dann werden immer wieder von den gleichen Leute Benchmarks rausgepickt, die imo den Fermi besser dastehen lassen, als er eigentlich ist. Die andere Seite erkennt das dann natürlich und redet wieder von cherry pickt (womit sie imo auch recht hat). Dann kommt noch Physik-X und Tesselation bzw. Metro in jedem 3. Post.... habt ihr nichts besseres zu tun? Das ganze wiederholt sich natürlich jede 2 Seiten aufs Neue.
Jetzt werden mir die Roten sicherlich zustimmen und das Nvidea Lager mich steinigen und als Fanboy abstempeln.... :-)

Aber das witzige ist, es würde haargenau gleich ablaufen, hatte Ati einen g100 und Nvidea einen rv870 gelauncht. Da bin ich mir sicher. -_- Wer noch?
Es würde die gleichen Argumente auf beiden Seiten geben. Nur eben, dass bsp. dem Ati-Lager auf einmal die Performance-Krone wichtiger als alles andere wäre... :-)

Also ihr Fanboy da draußen. Es macht schon ein wenig Spaß euch hier beim schreiben und gegenseitig auseinandernehmen zuzuschauen... es macht aber keinen Sinn und wird jetzt langsam langweilig. So einfach ist das.

Und nochwas:
Am besten wäre es sicherlich, wenn AMD und Nvidea auf einem Niveau sehen, denn nur so haben wir Kunden was davon. Ansonsten ziehen nur wir den Kürzeren.


So und jetzt bekriegt euch weiter, wie ihr es bei jedem Launch auf's Neue tut... ich zock jetzt noch ein bisschen.

Justmy2cents

IVN
2010-04-01, 22:30:34
Hier der Vergleich: http://www.youtube.com/watch?v=luSAnouAFJs

Ein Dutzend Papiere auf dem Boden können sich also ohne PhysX nicht bewegen? Rauch ist ohne PhysX nicht darstellbar? Ein paar Kacheln auf dem Boden kann man nicht zerstören ohne PhysX?

Die Umsetzung ist bisher einfach lächerlich.
In dem Detailgrad eben nicht. Schau dir mal Max Payne 2 an, wenn du sehen möchtest, was so auf der CPU möglich ist. Zugegeben, die heutigen CPUs haben mehr Power, das ist aber nichts verglichen mit dem Perf-Anstieg auf der Seite der GPUs.

In Max Payne 2 bewegen sich Papiere auch, dabei sehen sie aber so, als wären sie aus einer Titanium-Legierung - vollkommen straff. Rauch gibts auch in MP2, der ist aber immer gleich, interagiert mit keinem Objekt aus der Welt.

UND, um eben diese Interaktion der Objekte zu simulieren braucht es sehr viel Rechnerei. Das können nicht mal die heutigen CPUs schnell genug tun.

Gast
2010-04-01, 22:32:13
In dem Detailgrad eben nicht. Schau dir mal Max Payne 2 an, wenn du sehen möchtest, was so auf der CPU möglich ist. Zugegeben, die heutigen CPUs haben mehr Power, das ist aber nichts verglichen mit dem Perf-Anstieg auf der Seite der GPUs.

In Max Payne 2 bewegen sich Papiere auch, dabei sehen sie aber so, als wären sie aus einer Titanium-Legierung - vollkommen straff. Rauch gibts auch in MP2, der ist aber immer gleich, interagiert mit keinem Objekt aus der Welt.

UND, um eben diese Interaktion der Objekte zu simulieren braucht es sehr viel Rechnerei. Das könen nicht mal die heutigen CPUs schnell genug tun.

Man kann also ohne PhysX im Jahre 2010 keinen Rauch darstellen? :ulol:

Max Payne 2 ist 7 Jahre alt. Hast du einen noch besseren Vergleich?

Shaft
2010-04-01, 22:32:17
Source und CryEngine schön und gut, aber welche Spiele außer die auf diese Engines aufbauen nutzen groß Physik?

Vorallen Partikelphysik, Cloth Animation, Rauch?
Physik gehört wie HDR, Shader, Highres Texturen, hoher Polygoncount usw zum grafischen Gesamtbild.

Aber ist klar das ATIler sagen man braucht es nicht. :rolleyes:

Mafia 2 - PAX East nVIDIA PhysX Demonstration HD (http://www.youtube.com/watch?v=pAf7VSLeFVs)

GPU PhysX in Cryostasis (http://www.youtube.com/watch?v=kufpPwho9Ec)

Mirror's Edge - PhysX Comparison (http://www.youtube.com/watch?v=w0xRJt8rcmY&feature=fvw)

GPU PhysX in Batman Arkham Asylum (http://www.youtube.com/watch?v=vINH6Z9kqgI&feature=related)

GPU PhysX in Sacred 2 (http://www.youtube.com/watch?v=JK7BkiNboRU&feature=related)


Man kann also ohne PhysX im Jahre 2010 keinen Rauch darstellen? :ulol:

Max Payne 2 ist 7 Jahre alt. Hast du einen noch besseren Vergleich?


Richtig lesen!

corvus
2010-04-01, 22:34:14
Das einzigste was man bis dato sieht ist ME den Rest kannste vergessen..Mafiosi 2 muß man erstmal sehen wenns da ist....

Nazar
2010-04-01, 22:34:56
Das ist kein "bisschen" sondern sehr viel. Vor PhysX waren alle Spiel extrem steril und undynamisch - da hat sich nichts bewegt. Jetzt hat man endlich Partikelsysteme und Cloth-Sim, für die Atianer ist es aber nur "ein bisschen". Würde es auf einer Radeon laufen (und auf den Geforces eben nicht), wäre es die Offenbarung. :rolleyes:

Und das zeigt der "PhysX@NV-GPU-Diskussion"-Thread sehr deutlich.

Wann hast Du angefangen zu spielen?
Gestern?
So ein Bullshit... glaubst Du das wirklich was Du geschrieben hast?

IVN
2010-04-01, 22:37:14
Da stimme ich dir 100pro zu. Allerdings sind diese Argumente auch genau der Grund, warum PhysX (und die Effektphysik) einfach nicht DAS Argument pro NV ist, was hier viele daraus machen. Klar, es sieht nett aus und ist ein weiterer optischer Effekt. Aber es ist - wie schon gesagt - meistens nichts, was nicht schon vorher (in ähnlicher optischer Qualität) da war. Das bisher Mögliche wird halt heruntergespielt, um Neues als das Nonplusultra zu verkaufen - und das ist eben Käse. Zumal der Performancehit für das Gebotene oft zu groß ist. Dann lieber mehr AA oder sowas. Ob ich jetzt 500 oder 5000 Partikel sehe, wayne.

Du denkst nicht weit genug. Du magst den Anstig 500-->5000 nicht als das Non-Plus-Ultra betrachten, es bedarf aber sehr viel Number-Crunching um es darzustellen.

Meine These: Heute ist es i.V. zu früher sehr viel schwieriger die Spieler zufrieden zu stellen. Früher konnte man die Anzahl der interagierenden Effekte/Objekte von 5 auf 20 hochschrauben, und schon empfand es der Spieler als eine radikale Verbesserung. Heutzutage, z.B. bei Explosionen, schraubt man die Partikel von nem Dutzend auf x Hundert, und die Spieler schauen nur dekadent-desinteressiert zu, während sie gähnen...

Gast
2010-04-01, 22:39:13
In dem Detailgrad eben nicht. Schau dir mal Max Payne 2 an, wenn du sehen möchtest, was so auf der CPU möglich ist. Zugegeben, die heutigen CPUs haben mehr Power, das ist aber nichts verglichen mit dem Perf-Anstieg auf der Seite der GPUs.

In Max Payne 2 bewegen sich Papiere auch, dabei sehen sie aber so, als wären sie aus einer Titanium-Legierung - vollkommen straff. Rauch gibts auch in MP2, der ist aber immer gleich, interagiert mit keinem Objekt aus der Welt.

UND, um eben diese Interaktion der Objekte zu simulieren braucht es sehr viel Rechnerei. Das können nicht mal die heutigen CPUs schnell genug tun.

Der Unterschied ist. Sogar im 7 Jahre alten MP II gibt es überhaupt Rauch. Bei Batman entfällt der Rauch einfach ohne PhysX. Warum nicht den supertollen GPU-PhysX-Rauch UND den "immer gleichen" Rauch mit PhysX off? Weil den Unterschied dann natürlich beim Spielen keiner sehen würde. Natürlich kann man mit einer Physik-Einheit mehr Physikberechnung vornehmen, ganz klar. Man kann aber auch schöne Physik ohne GPU-PhysX darstellen. Letzteres entfällt aber einfach.

boxleitnerb
2010-04-01, 22:39:15
Effekt-Physik gehört wie HDR, Shader, Highres Texturen, hoher Polygoncount usw zum grafischen Gesamtbild.

Wenn man es so betrachtet, ist PhysX etwas absolut Positives. Ich persönlich denke bei Physik eben immer an Gameplayphysik und ich denke, das geht vielen so. Vor allem auch (wie IVN sagte) weil die Programmierer eigentlich kaum beide Arten gleichzeitig richtig gescheit umsetzen. Wenn man wählen muss, würden die meisten wohl eher Gameplayphysik wählen.

Du denkst nicht weit genug. Du magst den Anstig 500-->5000 nicht als das Non-Plus-Ultra betrachten, es bedarf aber sehr viel Number-Crunching um es darzustellen.

Meine These: Heute ist es i.V. zu früher sehr viel schwieriger die Spieler zufrieden zu stellen. Früher konnte man die Anzahl der interagierenden Effekte/Objekte von 5 auf 20 hochschrauben, und schon empfand es der Spieler als eine radikale Verbesserung. Heutzutage, z.B. bei Explosionen, schraubt man die Partikel von nem Dutzend auf x Hundert, und die Spieler schauen nur dekadent-desinteressiert zu, während sie gähnen...

Gesetz des abnehmenden Ertrags. Ab einer gewissen Grenze sieht man es halt auch nicht mehr so leicht. Da hätte ich lieber etwas, das man merkt: Zerstörbare Türen z.B. Wobei der Rauch bei Batman schon genial war!

Edit: Ab einem gewissen Punkt könnte Effektphysik auch Gameplayphysik werden - wenn PhysX dann noch lebt, hat man ein Problem. Z.B. Bewegungen im Rauch könnten einen schleichenden Spieler verraten. Schließlich können viele Dinge das Gameplay beeinflussen.

corvus
2010-04-01, 22:39:32
echt?
Ich hab jetzt Stunde um Stunde, Tage um Tage Mass2 und Dragon gespielt und stell dir mal vor was ich vermißt habe..genau nix!

Und 2 Std Metro..da war ichs schon satt mit dem Mißt.

IVN
2010-04-01, 22:39:56
Man kann also ohne PhysX im Jahre 2010 keinen Rauch darstellen? :ulol:

Max Payne 2 ist 7 Jahre alt. Hast du einen noch besseren Vergleich?
Na, wenn du mal schaust, die CPUs sind i.V. zu damals vll. 20x schneller geworden, die GPUs vll n'Paar 100x. D.h. auf der CPU wirst du keinen besseren Rauch sehen, dafür braucht es einfach der GPU-Beschleunigung. Mach dir nichts vor.

tombman
2010-04-01, 22:44:36
An Red Faction 3 kommt physikalisch eh nix ran, aber so ne engine muß man erstmal haben :)

Tatsache ist, daß man ohne Phys-X nix sieht in vielen Titeln, und ich will das sehen :)
Und nein, ich werde jetzt KEINE TROTZREAKTION tätigen und NV absichtlich nicht kaufen oder gewisse Spiele NICHT spielen, nur um "Denkzettel" zu verteilen.

Ich bin gamer, kein Revoluzzer...

derguru
2010-04-01, 22:45:01
50% schneller max.
ups 50% max. durchbrochen,mist.

http://anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/17

IVN
2010-04-01, 22:47:26
Der Unterschied ist. Sogar im 7 Jahre alten MP II gibt es überhaupt Rauch. Bei Batman entfällt der Rauch einfach ohne PhysX. Warum nicht den supertollen GPU-PhysX-Rauch UND den "immer gleichen" Rauch mit PhysX off? Weil den Unterschied dann natürlich beim Spielen keiner sehen würde. Natürlich kann man mit einer Physik-Einheit mehr Physikberechnung vornehmen, ganz klar. Man kann aber auch schöne Physik ohne GPU-PhysX darstellen. Letzteres entfällt aber einfach.
Ich glaube, die Ursache ist die gleiche, wie bei der ständig verringerden Spielzeit: es ist eben viel aufwändiger ein modernes Spiel zu erschaffen, als eins aus den 90ern. Damit man es trotzdem tun kann (und der Preis bei €50 fix bleibt) muss man eben an vielen Ecken und Enden sparen. So wird auch der "Fall-Back-Modus" bei der Grafik ein Opfer des roten Stiftes.

corvus
2010-04-01, 22:51:52
An Red Faction 3 kommt physikalisch eh nix ran, aber so ne engine muß man erstmal haben :)

Tatsache ist, daß man ohne Phys-X nix sieht in vielen Titeln, und ich will das sehen :)
Und nein, ich werde jetzt KEINE TROTZREAKTION tätigen und NV absichtlich nicht kaufen oder gewisse Spiele NICHT spielen, nur um "Denkzettel" zu verteilen.

Ich bin gamer, kein Revoluzzer...

? :D
du hast doch alle Vorraussetzungen und die Einstellung um die Dinger zu spielen.. dann Spiel!

Du und kein andere muß hier Rechenschaft abgeben....nur grundloser Hype
ohne Ahnung, weils gerade in ist kotzt mich an.

Gast
2010-04-01, 22:54:18
Na, wenn du mal schaust, die CPUs sind i.V. zu damals vll. 20x schneller geworden, die GPUs vll n'Paar 100x. D.h. auf der CPU wirst du keinen besseren Rauch sehen, dafür braucht es einfach der GPU-Beschleunigung. Mach dir nichts vor.

Schau mal hier: http://www.youtube.com/watch?v=gVf-a6S6zgY (leider bescheidene Qualität) Und selbst das ist jetzt 6 Jahre alt, sieht aber sehr gut aus. Der Rauch in Batman ist verglichen damit optisch keine Revolution.

Savay
2010-04-01, 22:54:38
Aber ist klar das ATIler sagen man braucht es nicht. :rolleyes:


mit nicht brauchen hat es nichts zu tun...
es ist nur kontraproduktiv das ganze über eine proprietäre schnittstelle zu realisieren. :rolleyes:

als anno 2002/2003 die ersten ernsteren physik engines in spielen auftauchten (Ragdoll Physics in UT2003 z.B.) was das schon ein fingerzeig in die richtige richtung...

problem an der geschichte ist nicht GPU-Physik an sich sondern CUDA-PhysX als nV schnittstelle...

im letzten jahrtausend setzte nV noch weil es ihnen grade in den kram passte auf herstellerübergreifende schnittstellen wie OpenGL und DirectX um die Dominanz von Glide zu knacken...und dann schlucken den hersteller von Novodex nur um ihr eigenes "Physik-Glide" in form von PhysX zu installieren und durchzudrücken!?
heute hüh morgen hott... :freak: oder besser...wie sichere ich mir als marktführer meine marktanteile.

gestern Gilde, METAL und Co. ...heute PhysX :smile:

auf kurz oder lang wird das eh auf OpenCL und DirectX ausgelagert...proprietäre standards hatten bisher selten lange bestand.

IVN
2010-04-01, 22:54:44
Gesetz des abnehmenden Ertrags. Ab einer gewissen Grenze sieht man es halt auch nicht mehr so leicht. Da hätte ich lieber etwas, das man merkt: Zerstörbare Türen z.B. Wobei der Rauch bei Batman schon genial war!

Edit: Ab einem gewissen Punkt könnte Effektphysik auch Gameplayphysik werden - wenn PhysX dann noch lebt, hat man ein Problem. Z.B. Bewegungen im Rauch könnten einen schleichenden Spieler verraten. Schließlich können viele Dinge das Gameplay beeinflussen.
Das größte Problem ist aber, das heute die meisten Games eben Multi-Platform sind. Um PhysX WIRKLICH g'scheit integriern zu können, muss man es von Anfang an im Spiel haben, und eben nicht erst bei der Portierung auf den PC draufklatschen.

IVN
2010-04-01, 22:57:41
Schau mal hier: http://www.youtube.com/watch?v=gVf-a6S6zgY (leider bescheidene Qualität) Und selbst das ist jetzt 6 Jahre alt, sieht aber sehr gut aus. Der Rauch in Batman ist verglichen damit optisch keine Revolution.
Ja, aber der Rauch in BM interagiert mit dem Spieler, wird verwirbelt wenn BM durchgeht. Für dich mag das kein großer Unterschied sein, das bedeutet aber nicht, das nur weil du es nicht schätzt, das es lächerlich leicht zu berechnen ist.

Es gilt wie immer: je realistischer ein Effekt, umso mehr Perf kostet es.

Gast
2010-04-01, 22:57:46
mit nicht brauchen hat es nichts zu tun...
es ist nur kontraproduktiv das ganze über eine proprietäre schnittstelle zu realisieren. :rolleyes:

Besser ist natürlich nichts tun und den selben Preis zahlen.

Du kannst gerne auch mal aufzählen, wo denn nun HL3 als Physikbesipiel bleibt.

corvus
2010-04-01, 22:57:52
mit nicht brauchen hat es nichts zu tun...
es ist nur kontraproduktiv das ganze über eine proprietäre schnittstelle zu realisieren. :rolleyes:

als anno 2002/2003 die ersten ernsteren physik engines in spielen auftauchten (Ragdoll Physics in UT2003 z.B.) was das schon ein fingerzeig in die richtige richtung...

problem an der geschichte ist nicht GPU-Physik an sich sondern CUDA-PhysX als nV schnittstelle...

im letzten jahrtausend setzte nV noch weil es ihnen grade in den kram passte auf herstellerübergreifende schnittstellen wie OpenGL und DirectX um die Dominanz von Glide zu knacken...und dann schlucken den hersteller von Novodex nur um ihr eigenes "Physik-Glide" in form von PhysX zu installieren und durchzudrücken!?
heute hüh morgen hott... :freak: oder besser...wie sichere ich mir als marktführer meine marktanteile.

gestern Gilde, METAL und Co. ...heute PhysX :smile:

auf kurz oder lang wird das eh auf OpenCL und DirectX ausgelagert...proprietäre standards hatten bisher selten lange bestand.

kurz oder lang ist vollkommen wurst..jetzt und heute zählt..über kurz oder lang spricht von HD5 oder Fermi kein Mensch mehr...

Botcruscher
2010-04-01, 23:01:13
Das größte Problem ist aber, das heute die meisten Games eben Multi-Platform sind. Um PhysX WIRKLICH g'scheit integriern zu können, muss man es von Anfang an im Spiel haben, und eben nicht erst bei der Portierung auf den PC draufklatschen.

Alles was jenseits der CPU ist wird eh von NV selbst oder "mit Hilfe" eingefügt. Ohne massiven Mitteleinsatz seitens NV würde sich das keine Hersteller antun. Aber es ist absolut OT und wer jammert soll doch bitte ne olle 9600GT mit in den Rechner stecken.

Die ARES ist übrigens relativ günstig aber hier ebenso fehl am Platz.

Gast
2010-04-01, 23:01:33
An Red Faction 3 kommt physikalisch eh nix ran, aber so ne engine muß man erstmal haben :)

Tatsache ist, daß man ohne Phys-X nix sieht in vielen Titeln, und ich will das sehen :)
Und nein, ich werde jetzt KEINE TROTZREAKTION tätigen und NV absichtlich nicht kaufen oder gewisse Spiele NICHT spielen, nur um "Denkzettel" zu verteilen.

Ich bin gamer, kein Revoluzzer...

Deswegen wünsche ich eigentlich insgeheim, dass AMD auch ihren eigenen proprietären Physik-Standard einführt und wir uns allesamt in 5 Jahren darüber freuen, dass GTA 6 nur mit PhysX vernünftige Physik-Effekte liefert und Crysis 3 nur mit AMDs. (y)

ZÜNDELholz
2010-04-01, 23:02:44
Hier der Vergleich: http://www.youtube.com/watch?v=luSAnouAFJs

Ein Dutzend Papiere auf dem Boden können sich also ohne PhysX nicht bewegen? Rauch ist ohne PhysX nicht darstellbar? Ein paar Kacheln auf dem Boden kann man nicht zerstören ohne PhysX?

Die Umsetzung ist bisher einfach lächerlich.

Schau Dir mal genau an, wie sich das papier bewegt:
Es wickelt sich um die Füsse und fällt wieder entsprechend deiner bewegung ab. Du kannst x-mal anders über das papier laufen und x-mal anders wird sich das papier um die Füsse wickeln.

Gast
2010-04-01, 23:03:33
Ja, aber der Rauch in BM interagiert mit dem Spieler, wird verwirbelt wenn BM durchgeht. Für dich mag das kein großer Unterschied sein, das bedeutet aber nicht, das nur weil du es nicht schätzt, das es lächerlich leicht zu berechnen ist.

Es gilt wie immer: je realistischer ein Effekt, umso mehr Perf kostet es.

Und damit hätte ich kein Problem. Den nVidianern seien ihre "Dampf-Verwirbelungen" gelassen und den anderen wenigstens ansehnlicher Dampf, der meinetwegen vorberechnet immer den gleichen Ablauf hat. Aber Hauptsache Darstellbares auch darstellen.

IVN
2010-04-01, 23:04:04
Deswegen wünsche ich eigentlich insgeheim, dass AMD auch ihren eigenen proprietären Physik-Standard einführt und wir uns allesamt in 5 Jahren darüber freuen, dass GTA 6 nur mit PhysX vernünftige Physik-Effekte liefert und Crysis 3 nur mit AMDs. (y)
Brrr, eine gruselige Vorstellung. Schliesslich braucht man Spiele genau so sehr wie Brot...Brot und Spiele!

IVN
2010-04-01, 23:04:59
Und damit hätte ich kein Problem. Den nVidianern seien ihre "Dampf-Verwirbelungen" gelassen und den anderen wenigstens ansehnlicher Dampf, der meinetwegen vorberechnet immer den gleichen Ablauf hat. Aber Hauptsache Darstellbares auch darstellen.
Ich hab dir schon gesagt, wieso es so ist, wie es ist.

Gast
2010-04-01, 23:06:38
Brrr, eine gruselige Vorstellung. Schliesslich braucht man Spiele genau so sehr wie Brot...Brot und Spiele!

Sich in einem 3D-Forum in einem Grafikkartenthread über Spiele lustig zu machen ist lächerlich.

corvus
2010-04-01, 23:07:24
Alles was jenseits der CPU ist wird eh von NV selbst oder "mit Hilfe" eingefügt. Ohne massiven Mitteleinsatz seitens NV würde sich das keine Hersteller antun. Aber es ist absolut OT und wer jammert soll doch bitte ne olle 9600GT mit in den Rechner stecken.

Die ARES ist übrigens relativ günstig aber hier ebenso fehl am Platz.

Du willst sie doch jetzt aber nicht heilig sprechen...weil sie zb. im Mafia2 Scheiben springen lassen können ... hier gehst ums Überleben :D und ob das im Gamer Bereich wo die Leutchen langsam anfangen umzudenken noch hilft, wage ich ehrlich gesagt zu bezweifeln... es ist nur eine absolute Minderheit der diese Karten kauft.

Botcruscher
2010-04-01, 23:12:47
... es ist nur eine absolute Minderheit der diese Karten kauft.

Aber das Marketing zieht. Sieht man hier doch...

tombman
2010-04-01, 23:17:48
Deswegen wünsche ich eigentlich insgeheim, dass AMD auch ihren eigenen proprietären Physik-Standard einführt und wir uns allesamt in 5 Jahren darüber freuen, dass GTA 6 nur mit PhysX vernünftige Physik-Effekte liefert und Crysis 3 nur mit AMDs. (y)
Damit du dann wie genau jetzt NIX kaufst, und ja sooo weise über allem drüberstehst- blos nicht über dem Zwang als
Gast zu "posten"- das wirst auch dann nicht unter Kontrolle haben ;)

Aber hoffe schön weiter, daß sowohl die grünen als auch die roten Trauben sich gegenseitig säuern, dann brauchst keine Art mehr begehren-
und mußt demnach auch keine mehr schlechtreden ;)

Und falls du wissen willst, was dann Enthusiasten tun würden: die hätten dann Grafikkarten BEIDER Hersteller im System
- wie ich früher einmal :cool:

Spasstiger
2010-04-01, 23:23:58
Wurde die GTX 480 im SLI eigentlich irgendwo mit drei Monitoren (Surround-Gaming) getestet? Wenn ich Enthusiast wäre, würde mich das wahrscheinlich am Meisten reizen. Es schafft einfach ein besseres Mittendringefühl als nur ein planer Monitor oder eine plane Leinwand vor Einem.

AYAlf_2
2010-04-01, 23:30:44
^^ sowas hier http://lcdflachbild.de/gebogener-lcd-monitor-von-alienware/

Dr. Lloyd
2010-04-01, 23:30:57
Wurde die GTX 480 im SLI eigentlich irgendwo mit drei Monitoren (Surround-Gaming) getestet?
Dazu hätte ich noch eine ergänzende Frage: Könnte man das Surround-Gaming von nVidia auch mit einer Karte realisieren, wenn ein Board-Partner entsprechende Anschlüsse der Karte spendiert? Z.B. mit 3x Display-Port.

corvus
2010-04-01, 23:33:02
^^ sowas hier http://lcdflachbild.de/gebogener-lcd-monitor-von-alienware/

jo und nen Fov von 45... vergiß es... :D

derguru
2010-04-01, 23:35:05
^^ sowas hier http://lcdflachbild.de/gebogener-lcd-monitor-von-alienware/
ich liebe das teil,ist doch der nec oder?

http://www.abload.de/thumb/frontpers1_3_nec2kajm.jpg (http://www.abload.de/image.php?img=frontpers1_3_nec2kajm.jpg)

AnarchX
2010-04-01, 23:36:00
ups 50% max. durchbrochen,mist.

http://anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/17
Bei Anandtech gibt es ja sogar mal einen richtigen Worstcase:
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22179.png
... nur seltsam der geringe Unterschied zwischen 470 und 480.


Dazu hätte ich noch eine ergänzende Frage: Könnte man das Surround-Gaming von nVidia auch mit einer Karte realisieren, wenn ein Board-Partner entsprechende Anschlüsse der Karte spendiert? Z.B. mit 3x Display-Port.
Nein, GF100 hat nur zwei Displaypipelines.

Spasstiger
2010-04-01, 23:37:34
Bei dem gebogenen Monitor muss die Auflösung noch ein wenig hoch und der angepeilte Preis runter. Drei 24"-S-PVA-Monitore (16:10) bieten imo mehr fürs Geld, wenn man nicht nur zockt.

Dazu hätte ich noch eine ergänzende Frage: Könnte man das Surround-Gaming von nVidia auch mit einer Karte realisieren, wenn ein Board-Partner entsprechende Anschlüsse der Karte spendiert? Z.B. mit 3x Display-Port.
Es sind nur zwei Taktgeber vorhanden, mehr als zwei Monitore kann man also nicht parallel an einer GTX 470/480 nutzen. Surround-Gaming mit aktuellen Spielen braucht aber imo eh mehr Rechenleistung als von einer einzelnen Karte geliefert wird.

corvus
2010-04-01, 23:40:15
mein Foris hat 900 Öcken gekostet...

AYAlf_2
2010-04-01, 23:42:14
Dazu hätte ich noch eine ergänzende Frage: Könnte man das Surround-Gaming von nVidia auch mit einer Karte realisieren, wenn ein Board-Partner entsprechende Anschlüsse der Karte spendiert? Z.B. mit 3x Display-Port.

soweit ich weiss .. funtz die technik von nvidia nur mit sli. berichtigt mich .. wenn ich was falsches sage.

AnarchX
2010-04-01, 23:43:15
Surround-Gaming mit aktuellen Spielen braucht aber imo eh mehr Rechenleistung als von einer einzelnen Karte geliefert wird.
Mit 3D Vision Surround hat man dann den fast 6-fachen Rechenaufwand gegenüber einem einzelnen Display mit 2D-Darstellung.

Spasstiger
2010-04-01, 23:44:26
mein Foris hat 900 Öcken gekostet...
Und dieser gebogene Monitor soll 8000$ kosten. Bei gerade mal 12,5% mehr Pixeln als auf deinem Eizo Foris trotz der großen Diagonale.

Mit 3D Vision Surround hat man dann den fast 6-fachen Rechenaufwand gegenüber einem einzelnen Display mit 2D-Darstellung.
Bad Company 2 ist auf zwei HD 5870 Eyefinity (2 GiB) in 5760*1080 + 8xMSAA spielbar: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7940298#post7940298.
Ok, mit 3D Vision dazu wirds eng, auch auf drei GTX 480.

corvus
2010-04-01, 23:48:14
Und dieser gebogene Monitor soll 8000$ kosten. Bei gerade mal 12,5% mehr Pixeln als auf deinem Eizo Foris trotz der großen Diagonale.

jo<>Enthusiasten :D + die Karten....... eigendlich sollt man kein Wort drüber verlieren.

derguru
2010-04-01, 23:48:53
Bei Anandtech gibt es ja sogar mal einen richtigen Worstcase:
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22179.png
... nur seltsam der geringe Unterschied zwischen 470 und 480.

kann ja nur eine treibermacke sein,selbst eine 5830 ist so schnell wie eine 480gtx.

Und dieser gebogene Monitor soll 8000$ kosten. Bei gerade mal 12,5% mehr Pixeln als auf deinem Eizo Foris trotz der großen Diagonale.
der nec soll irgendwas mit 2800 euro kosten,das geht noch.:biggrin:

corvus
2010-04-01, 23:50:01
nö..denk mal nach...

Dr. Lloyd
2010-04-01, 23:52:40
Dank an AnarchX, AYAlf_2 und Spasstiger für die raschen Antworten auf meine Frage. Da enttäuscht mich nVidia doch etwas, wenn man bedenkt, dass ATI sogar bis zu 6 Displays in WQXGA-Auflösung an einer Karte ermöglicht. Sehr schade...

AnarchX
2010-04-02, 00:00:51
Dank an AnarchX, AYAlf_2 und Spasstiger für die raschen Antworten auf meine Frage. Da enttäuscht mich nVidia doch etwas, wenn man bedenkt, dass ATI sogar bis zu 6 Displays in WQXGA-Auflösung an einer Karte ermöglicht. Sehr schade...
Hier kannst du nachlesen, wie AMD dieses Feature geheim gehalten hat:
http://www.anandtech.com/show/2937/10

corvus
2010-04-02, 00:06:55
kann ja nur eine treibermacke sein,selbst eine 5830 ist so schnell wie eine 480gtx.


der nec soll irgendwas mit 2800 euro kosten,das geht noch.:biggrin:
tn der ist keine 5 Mark wert.<>die inneren :D