Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 4] - Übersicht in #1!
es sind nur zwei Masse Leitungen, die 8-Pin Stecker sind für nichts, die Leistung könnte man locker auch über die 6-Pin erreichen.
Ich hab's doch vorher geschrieben. Der 6er Stecker ist auf nur 2xVcc spezifiziert, der 8er auf 3xVcc.
Das an den 6ern 3xVcc angeschlossen ist ändert nichts daran dass die GPU daraus nur 2A ziehen darf.
Könnt ihr euch endlich einig sein oder muss ich jetzt den 8Pin Stecker selbst unter die Lupe nehmen? :ugly:
Also was denn jetzt 1x +12V + 1x Masse?
Ich hab's vorher schon gesagt
6er Stecker: 2xVcc + 3xMasse
8er Stecker: 3xVcc + 5xMasse
Spezifikation.
Wenn am 6er trotzdem 3xVcc hängt dann heißt das nicht dass die GPU mehr drauß ziehen darf. Die 2 zusätzlichen Massen sind vor allem dazu da dass die GPU weiß dass sie aus den 3 Vcc 4A statt 2A ziehen darf.
Das heißt aber dass man meistens auch mit einem "alten" 6er auskommt weil das Netzteil eh alle 3 Vcc angeschlossen hat.
Verstehe ich das richtig, das morgen Rys von Beyond3d ein wenig die Katze aus dem Sack lässt?
http://forum.beyond3d.com/showpost.php?p=1170420&postcount=2058
Die NDA für "Channel Partner" ist wohl schon gefallen. Der Umnumt über NDAs wird ja ein wenig heftig diskutiert.
Coda was meinst zu dieser Aussage?
"1. You don't need 10.1 for a deferred shader + MSAA to work. You can access the color subsamples with 10.0. Only if you need the Z subsamples you need 10.1. In a classic deferred renderer you only need to deal with color.
2. RSX doesn't directly support accessing the subsamples in the shader. It only works because they exactly know the memory layout of the framebuffer and can work around that problem manually.
But I'm also very curious as to which feature exactly NVIDIA didn't implement in G80 which cost them the D3D10.1 compliance. I think it's the programmable AA patterns but I could be wrong."
Chris2CB
2008-06-04, 21:36:31
Es sind NICHT nur zwei zusätzliche Massen.
Hmm...nutz mal google, ist tatsächlich nur extra Masse, Sinn ergibt das aber nur bedingt.
Irgendwie hatte ich auch Extra Leitung und Masse in Erinnerung
Coda was meinst zu dieser Aussage?
"1. You don't need 10.1 for a deferred shader + MSAA to work. You can access the color subsamples with 10.0. Only if you need the Z subsamples you need 10.1. In a classic deferred renderer you only need to deal with color.
2. RSX doesn't directly support accessing the subsamples in the shader. It only works because they exactly know the memory layout of the framebuffer and can work around that problem manually.
But I'm also very curious as to which feature exactly NVIDIA didn't implement in G80 which cost them the D3D10.1 compliance. I think it's the programmable AA patterns but I could be wrong."
Die Aussage ist von mir. Ich bin Novum auf Beyond3D.
Hmm...nutz mal google, ist tatsächlich nur extra Masse, Sinn ergibt das aber nur bedingt.
Irgendwie hatte ich auch Extra Leitung und Masse in Erinnerung
Muss ich jetzt wirklich die Spezifikation rauskramen?
Chris2CB
2008-06-04, 21:39:49
Muss ich jetzt wirklich die Spezifikation rauskramen?
Es geht nur um die 2 zusätzlichen Leitungen, nicht was schon beim 6pol Stecker dabei ist.
BTW, vor ein paar Seiten kam auf, dass GT200 ja verspätet kommt. Ich glaube aber nicht, das Engineer Sample hat A2 Stepping, der G80 kam ja auch mit A2 Stepping auf den Markt, von daher sind evtl. 3Monate nach Plan locker für jede GPU drin und normal. Ausnahme war halt der R600..
Die Aussage ist von mir. Ich bin Novum auf Beyond3D.
Coole Sache ;)
D.h. es hängt allein von den Spiele Engines ab, ob D3D10 AA komplett funktioniert oder ob man paar Pixelfehler hat. Is meist ein Schatten Darstellungsproblem, warum man mal die mal die Technik nimmt?
Es geht nur um die 2 zusätzlichen Leitungen, nicht was schon beim 6pol Stecker dabei ist.
http://www.techpowerup.com/printarticle.php?id=116
Man lese: "not connected". Beim 8er: Connected. Zumindest laut Spec. Check?
D.h. es hängt allein von den Spiele Engines ab, ob D3D10 AA komplett funktioniert oder ob man paar Pixelfehler hat.
Ja natürlich. Bei einem forward renderer ist es in der Regel gar kein Problem, bei deferred shadern oder gemischten Architekturen bekommt man je nachdem Probleme ob man nur Color oder auch Z braucht.
Ich bin in den OpenGL-Extensions immer noch nicht so weit gekommen damit ich sagen kann ob es mit OpenGL möglich ist Z-Subsamples zu lesen mit G80. Das wäre mal interessant.
dargo
2008-06-04, 21:45:41
Spezifikation.
Wenn am 6er trotzdem 3xVcc hängt dann heißt das nicht dass die GPU mehr drauß ziehen darf. Die 2 zusätzlichen Massen sind vor allem dazu da dass die GPU weiß dass sie aus den 3 Vcc 4A statt 2A ziehen darf.
Das heißt aber dass man meistens auch mit einem "alten" 6er auskommt weil das Netzteil eh alle 3 Vcc angeschlossen hat.
Jetzt bin ich total verwirrt (kann auch am Wetter liegen :D).
Auf der einen Seite sagst du die 2 zusätzlichen Masseleitungen am 8Pin Stecker sind dafür da, dass die Graka bis zu 4A je Vcc durchjagen kann. Auf der anderen Seite reicht ein 6Pin Stecker aus der mit 3xVcc belegt ist. Ähm..., wozu dann überhaupt die 8Pin Stecker? :|
Damit man erkennen kann dass 150W zur Verfügung stehen. Und zusätzliche Masse ist immer gut ;)
dargo
2008-06-04, 21:49:16
Damit man erkennen kann dass 150W zur Verfügung stehen. Und zusätzliche Masse ist immer gut ;)
Achsioo. :D
Dann hätten wir das mit dem Adapter wohl geklärt. ;)
Ich bin in den OpenGL-Extensions immer noch nicht so weit gekommen damit ich sagen kann ob es mit OpenGL möglich ist Z-Subsamples zu lesen mit G80. Das wäre mal interessant.
In D3D gehts.
Wenns gehen würde, hätte man doch nicht Probleme beim AA!
D3D10.1 spezifiziert ja genau das.
Wenns gehen würde, hätte man doch nicht Probleme beim AA!
D3D10.1 spezifiziert ja genau das.
D3D10.1 darfst du ja nur draufschreiben, wenns auch drin ist. aber dafür brauchts mehr als nur den sub-sample-Z-Zugriff.
Das ändert nichts daran, dass es mit 10.0 nicht geht. Definitiv nicht. Die Runtime von Microsoft schmeißt dir den Shader um die Ohren auch wenn es die Hardware könnte.
erm. doch.
Nein. Definitiv nicht.
tombman
2008-06-04, 22:23:20
Ich hab's vorher schon gesagt
6er Stecker: 2xVcc + 3xMasse
8er Stecker: 3xVcc + 5xMasse
Spezifikation.
Wenn am 6er trotzdem 3xVcc hängt dann heißt das nicht dass die GPU mehr drauß ziehen darf. Die 2 zusätzlichen Massen sind vor allem dazu da dass die GPU weiß dass sie aus den 3 Vcc 4A statt 2A ziehen darf.
Das heißt aber dass man meistens auch mit einem "alten" 6er auskommt weil das Netzteil eh alle 3 Vcc angeschlossen hat.
Offenbar sind aber genau 3xVcc verbaut, sondern würden diese einfachen 6 auf 8 pin Adapter ja gar nicht funken, wenn auf der einen Vcc gar kein Saft fließen würde ;)
Offenbar sind aber genau 3xVcc verbaut, sondern würden diese einfachen 6 auf 8 pin Adapter ja gar nicht funken, wenn auf der einen Vcc gar kein Saft fließen würde ;)
Richtig. Sagte ich auch schon.
Snoopy69
2008-06-04, 22:25:05
GTX 280 bei Gigabyte auf der Computex:
http://vga.zol.com.cn/94/949234.html
Und ich war nicht dort :O
ThermalTake-Bitch :D
http://active.zol.com.cn/active_upload_pic/10/9356.jpg
tombman
2008-06-04, 22:28:13
Richtig. Sagte ich auch schon.
Dann steht einem Selbstbau ja nix mehr im Wege. Einfach die beiden zusätzlichen auf Masse verbinden und fertig ;)
Dann steht einem Selbstbau ja nix mehr im Wege. Einfach die beiden zusätzlichen auf Masse verbinden und fertig ;)
oh man, Masse ist das Wichtigste...wenn du es hinbekommst das einwandfrei und stabil zu isolieren bekommst du einen Keks
tombman
2008-06-05, 07:41:29
oh man, Masse ist das Wichtigste...wenn du es hinbekommst das einwandfrei und stabil zu isolieren bekommst du einen Keks
Ähm, wo ist das Problem aus 2 schwarzen Drähten 4 zu machen? :rolleyes:
Wie gesagt, die käuflichen Adapter machen nix anderes, aus dem NT werden nicht mehr Leitungen als schon beim 6er Stecker verwendet..
Falls posted, sry, aber mal schön anzusehen. :D
http://img515.imageshack.us/img515/2729/computerbasexh2.png
Quelle: Computerbase.de
Taigatrommel
2008-06-05, 10:22:14
Anhand dieses Diagrammes sieht man eigentlich nur eines:
Die Kontrahenten sind eigentlich keine echten Kontrahenten. Die nvidia Modelle sind beinahe doppelt so teuer wie ihre AMD Gegenstücke, dafür aber in der Theorie wohl leistungsfähiger.
Sollte die Radeon 4870 also leistungstechnisch an eine der beiden GTXen rankommen, dann wäre sie wohl im Vergleich ein super Schnäppchen, da sie immerhin noch 120,- US-$ günstiger ist als eine GTX 260.
Wer ohnehin nur maximal 350,- $ ausgeben kann, der wird sich die neuen nVidia Karten vermutlich gar nicht erst anschauen. High-End Freaks wird der Preis wieder egal sein...... so wie bei quasi jedem Release der neuen Grafikgeneration.
AnarchX
2008-06-05, 10:23:04
Nvidia won't take DDR5 on until 2009 according to several memory manufacturers - that's about the same time that Larrabee hits the market.
http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1
tombman
2008-06-05, 10:25:21
Das wichtigste ist, daß AMD ohne Crossfire AFR kein HighEnd mehr bauen kann...
das freut den jünger was?
was is daran wichtig?
kauft sowieso fast niemand....einige nehmen sich einfach zu wichtig :rolleyes:
Anarchy-HWLUXX
2008-06-05, 10:30:26
äääääääääääääähhhh ... ???
GT200 supports GDDR5 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1)
Adam D.
2008-06-05, 10:32:27
äääääääääääääähhhh ... ???
GT200 supports GDDR5 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1)
Ist doch nix neues, früher oder später wird Nvidia den Schritt gehen müssen, weil GDDR3 einfach am absoluten Limit ist. Und da der G200 uns sicher noch ein bisschen erhalten bleibt (besonders in Form eines Refreshs), muss das Design ja schon mal drauf vorbereitet werden (ohne dass ich mich da mit den genauen technischen Dingen auskenne).
bei meinem alten 19" crt bin ich oft mit ner 2000er auflösung gefahren, da braucht man kein AA mehr :D
mfg
Fakt ist das auf 19"-21" Diagonale mit 2048x1536 nur @4xAA besser aussieht wie 1280x1024@32xS. Es wird sowieso Zeit sich eine entweder bessere Röhre anzuschaffen oder grösseres Display um GT200 oder was auch immer da kommt auszulasten.
Ist doch nix neues, früher oder später wird Nvidia den Schritt gehen müssen, weil GDDR3 einfach am absoluten Limit ist. Und da der G200 uns sicher noch ein bisschen erhalten bleibt (besonders in Form eines Refreshs), muss das Design ja schon mal drauf vorbereitet werden (ohne dass ich mich da mit den genauen technischen Dingen auskenne).
könnte mir gut nen refresh mit 256bit speicherinterface (ähnlich g92) und gddr5 ram vorstellen
Adam D.
2008-06-05, 10:43:30
könnte mir gut nen refresh mit 256bit speicherinterface (ähnlich g92) und gddr5 ram vorstellen
Jop, das war ja schon früher mal im Gespräch und ist sicherlich nicht ganz unrealistisch. Mit gutem GDDR5 haste auch mit 'nem 256-bittigem SI genug Bandbreite und wer weiß, wie hoch man den GDDR5 Anfang 09 kriegt.
MartinRiggs
2008-06-05, 10:45:50
Das wichtigste ist, daß AMD ohne Crossfire AFR kein HighEnd mehr bauen kann...
Freut dich das etwa?
Dann hoffe nur das die GTX280 noch viel viel länger hält als die 8800GTX denn NV wird in Zukunft auch auf 2 bzw. Mehr-Chip Lösungen setzen müssen.
Die Zeit der riesigen Single-GPUs neigt sich dem Ende.
Also manchmal hast du mehr als nur komische Ansichten, hab immer gedacht du wärst nicht der Voll-Fanboy aber scheinbar:rolleyes:
tombman
2008-06-05, 10:49:29
das freut den jünger was?
was is daran wichtig?
kauft sowieso fast niemand....einige nehmen sich einfach zu wichtig :rolleyes:
MIR isses wichtig, was für andere wichtig ist, ist mir egal...
tombman
2008-06-05, 10:51:32
Freut dich das etwa?
Dann hoffe nur das die GTX280 noch viel viel länger hält als die 8800GTX denn NV wird in Zukunft auch auf 2 bzw. Mehr-Chip Lösungen setzen müssen.
Die Zeit der riesigen Single-GPUs neigt sich dem Ende.
Also manchmal hast du mehr als nur komische Ansichten, hab immer gedacht du wärst nicht der Voll-Fanboy aber scheinbar:rolleyes:
Die wird sicher lange halten, weil der content eh nur mehr aus Konsolenports besteht. Sogar Crytek hat aufgegeben. Welches PC-Spiel wird sich trauen eine GTX280 zu überlasten? ;)
Klar, irgendwann wird highend nur mehr als multi-chip bestehen, aber ich hoffe, daß dann was besseres als AFR kommt...
ich bin so rallig auf erste richtige benchmarks.
Auch wenn ich mir die karte nicht leisten kann :biggrin:
äääääääääääääähhhh ... ???
GT200 supports GDDR5 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1)
Es wird so ausgehen wie sie es die ganze Zeit mit ihrer Abzocke gehalten haben,die Karte kommt jetzt für 600€ aud den Markt und 3 Monate später ist sie EOD und die GDDR5 Karte kommt,jede Wette.
Mir isses echt mittlerweile Wurst,wenn die ATI das hält was man so hört und kostet dann kommt mir nach langer Zeit wiede ne Rote in den Rechner.
Und wenn nicht tut es auch die GX2 bis Anfang nächsten Jahres.
Die gelbe Eule
2008-06-05, 11:30:53
Wir sollten uns nicht im Sci-Fi Bereich bewegen, wo jeder 30" Displays hat. Genauso wie abartige SS Modi, welche nur über nhancer erzwingbar sind. Deswegen wird die GTX280 auch erstmal für alles mögliche reichen. Die 8800GTX hat auch lange überlebt und kann heute noch glänzen. tombman hat schon recht, es wird wohl nicht so schnell ein Spiel kommen, welches 1GB VRAM effektiv nutzt und auch von der Geschwindigkeit die Karte ausbremst. Eher sind 4GHz Quads die Seltenheit ;)
noch ist eine 8800gtx nur von einer ultra in sachen min.fps bei 1680*1050 4xaa/16xaf geschlagen, und das nach so langer zeit.
w0mbat
2008-06-05, 12:10:43
Falls posted, sry, aber mal schön anzusehen. :D
http://img515.imageshack.us/img515/2729/computerbasexh2.png
Quelle: Computerbase.de
Schön und teilweise eben komplett falsch, aber ist ja nicht mehr lange hin.
Snoopy69
2008-06-05, 12:30:13
Falls posted, sry, aber mal schön anzusehen. :D
http://img515.imageshack.us/img515/2729/computerbasexh2.png
Quelle: Computerbase.de
Kann man anhand der FLOPs, Pixel- und Texelfüllrate (und was noch dazu gehört) wirklich nicht die ungefähre Performance berechnen?
äääääääääääääähhhh ... ???
GT200 supports GDDR5 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7721&Itemid=1)
Da steht aber auch, dass man nicht viel Unterschied sehen würde. Ob der DDR5 das Wert ist? :rolleyes:
Snoopy69
2008-06-05, 12:34:41
noch ist eine 8800gtx nur von einer ultra in sachen min.fps bei 1680*1050 4xaa/16xaf geschlagen, und das nach so langer zeit.
Mir nutzt das nicht viel...
Meine beiden Karten sind weitaus schneller als eine Ultra, aber mir reicht es trotzdem nicht ;(
Die wird sicher lange halten, weil der content eh nur mehr aus Konsolenports besteht. Sogar Crytek hat aufgegeben. Welches PC-Spiel wird sich trauen eine GTX280 zu überlasten? ;)
Crysis wird es :ulol:
Zumindest auslasten...
Die wird sicher lange halten, weil der content eh nur mehr aus Konsolenports besteht. Sogar Crytek hat aufgegeben. Welches PC-Spiel wird sich trauen eine GTX280 zu überlasten? ;)
Klar, irgendwann wird highend nur mehr als multi-chip bestehen, aber ich hoffe, daß dann was besseres als AFR kommt...
Das macht aber nix. Es kommt auf den Konsolenport im Einzelnen an. Meistens werden die ja nochmal aufgemöbelt mit D3D10 usw. bevor die auf den PC losgelassen werden. Ich mach mir da überhaupt keine Sorgen, dass diese Chips ausgelastet werden.
Der letzte Blick in die Gamesaktuell zeigt mir ein erfreuliches Bild: Es wird in nährer Zukunft erfreulich viele Spiele für den PC geben, dank Konsolenports ;).
ShadowXX
2008-06-05, 12:38:54
Kann man anhand der FLOPs, Pixel- und Texelfüllrate (und was noch dazu gehört) wirklich nicht die ungefähre Performance berechnen?
Höchstens abschätzen und dann auch nur getrennt für nV neu vs. nV alt und ATI neu vs. ATI alt (da die FLOPS von den beiden nicht vergleichbar sind).
Anarchy-HWLUXX
2008-06-05, 12:42:54
Da steht aber auch, dass man nicht viel Unterschied sehen würde. Ob der DDR5 das Wert ist? :rolleyes:
Nur sagt bit-tech eben das GDDR5 support erst 2009 kommt - Fudzie sagt der GT200 kann scho GDDR5 verwalten wenn es sein muss ...
Das ist nen gewaltiger unterschied, einerseits "geht es garnet" (bit-tech) andererseits "geht aber zu teuer, schlechte verfügbarkeit und geringer mehrwert" (Fudzilla)
Bei zweiterem gibt es ne Option auf einen GT200b "Ultra" mit GDDR5 :ucatch:
Snoopy69
2008-06-05, 12:50:34
Die FLOPs hängen dann wohl von der Anzahl der Shader-Einheiten ab, oder?
Welcher der Angaben sollten man am meisten Augenmerk schenken?
Eins weiss ich... Meine X800Pro brachte in FarCry ca. doppelt soviele fps als die 9800 (ATI)
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_x800_pro_xt_pe_geforce_6800_gt_ultra/2/#abschnitt_die_karte__technische_daten
http://www.abload.de/img/hc_251hvp.jpg http://img515.imageshack.us/img515/2729/computerbasexh2.png
Nur sagt bit-tech eben das GDDR5 support erst 2009 kommt - Fudzie sagt der GT200 kann scho GDDR5 verwalten wenn es sein muss ...
Das ist nen gewaltiger unterschied, einerseits "geht es garnet" (bit-tech) andererseits "geht aber zu teuer, schlechte verfügbarkeit und geringer mehrwert" (Fudzilla)
Bei zweiterem gibt es ne Option auf einen GT200b "Ultra" mit GDDR5 :ucatch:
Der R300 brachte auch schon GDDR3-Unterstützung mit. GDDR3 und GDDR4 ist DDR2 Technologie, GDDR5 ist DDR3 Technologie. Wenig überraschend, dass der G200 das unterstützt, oder? Auch der G92b wird GDDR5 unterstützen, vllt unterstützen der RV670 und G92 sogar schon GDDR5.
Das der G200 und G92b mit GDDR5 umgehen kann glaub ich auch, ob die aber jemals mit GDDR5 kommen ist eine andere Frage.
Sascha1971
2008-06-05, 13:25:33
Die wird sicher lange halten, weil der content eh nur mehr aus Konsolenports besteht. Sogar Crytek hat aufgegeben. Welches PC-Spiel wird sich trauen eine GTX280 zu überlasten? ;)
Ich vermute mal Alan Wake wird neue Grenzen setzen.
tombman
2008-06-05, 13:44:35
Ich vermute mal Alan Wake wird neue Grenzen setzen.
Nix was eine GTX280 überlasten wird...
Snoopy69
2008-06-05, 13:46:45
Nix was eine GTX280 überlasten wird...
Kannst du eig. nicht wissen - wir alle nicht.
Wie gesagt, Crysis ist frei skalierbar. ;)
tombman
2008-06-05, 13:46:45
dreh die auflösung und aa hoch und es werden einige sein.
Nix wird sein. Konsolen rennen auf 720p mit hardware, die von der power einer 8800GTX träumen kann. Was glaubst wird eine GTX280 mit Konsolenportanforderungen machen?-> DRÜBER LACHEN ;)
Da kannst sicher 1920x1200 mit 16xAA aufdrehen, und es würde nix passieren...
Snoopy69
2008-06-05, 13:50:38
Nix wird sein. Konsolen rennen auf 720p mit hardware, die von der power einer 8800GTX träumen kann. Was glaubst wird eine GTX280 mit Konsolenportanforderungen machen?-> DRÜBER LACHEN ;)
Da kannst sicher 1920x1200 mit 16xAA aufdrehen, und es würde nix passieren...
Es gibt nicht nur 720p-Titel :wink:
tombman
2008-06-05, 14:01:07
Es gibt nicht nur 720p-Titel :wink:
Die, die 1080p sind, sind aber nicht so aufwändig-- die Anforderung bleibt gleich. Muß ja auch, denn die Leistung ist nun mal konstant.
tombman da besteht aber nur der kleine aber feine unterschied das man einmal auf eine ganz spezielle hardware hin entwickelt und einmal für wild gemixte feld wald und wiesensysteme....
auch die "hardwärenähe" der entwicklung und bestimmte "tricksereien" werden davon beeinflusst
tombman
2008-06-05, 14:08:14
tombman da besteht aber nur der kleine aber feine unterschied das man einmal auf eine ganz spezielle hardware hin entwickelt und einmal für wild gemixte feld wald und wiesensysteme....
auch die "hardwärenähe" der entwicklung und bestimmte "tricksereien" werden davon beeinflusst
Keine hardwarenahe Trickserei bringt Konsolenhardware auch nur in die Nähe der power einer GTX280 ;)
dargo
2008-06-05, 14:16:33
tombman da besteht aber nur der kleine aber feine unterschied das man einmal auf eine ganz spezielle hardware hin entwickelt und einmal für wild gemixte feld wald und wiesensysteme....
auch die "hardwärenähe" der entwicklung und bestimmte "tricksereien" werden davon beeinflusst
Kommt schon wieder die Märchenstunde von Konsolenoptimierungen? :|
Sicherlich gibts diese, das ist aber Peanuts im Vergleich dazu was moderne Grafikkarten im PC-Bereich leisten. Oder wie erklärst du dir, dass eine G8800GTX mehr als doppelt so hohe Frames in GRID liefert wie eine XBox360 oder PS3?
Keine hardwarenahe Trickserei bringt Konsolenhardware auch nur in die Nähe der power einer GTX280 ;)
Das muss nicht mal eine G280GTX sein. Die kommen selbst nicht an eine G80GTS ran. Zaubern kann niemand.
tombman hat schon recht.
früher kam ein neues wing commander und alle kauften nur deswegen neue hardware. neue spiele trieben den hardwareverkauf an.
heute ist es gegenteilig.crytek bringt ein spiel, dass auf mainstreamsystemen nicht läuft und schon verkauft es sich nicht mehr. spiele werden für aktuelle performancekarten entwickelt. dort laufen sie in max. details üblicherweise.
wenn die gtx280 nun 2,5 so schnell wie aktuelle Performancekarten ist und der performancemarkt in einem jahr zu der geschwindigkeit aufschließt darf man wohl schon damit rechnen, dass die gtx280 mind. 2 jahre halten wird.
es sei denn die entwicklung geht schneller als erwartet...
ShadowXX
2008-06-05, 14:20:59
Das muss nicht mal eine G280GTX sein. Die kommen selbst nicht an eine G80GTS ran. Zaubern kann niemand.
Speziell da die optimierungen Heutzutage sowieso mit auf den PC durchgeschleppt werde....was auch kein Wunder ist, da gleiche Grafikhardware.
Gerade was die X360 betrifft würde ich in Richtung "Konsolenoptimierung" nicht zu viel erwarten, wenn überahupt gibt es sowas in stärkerer Form nur auf der PS3 durch den Cell.
heute ist es gegenteilig.crytek bringt ein spiel, dass auf mainstreamsystemen nicht läuft und schon verkauft es sich nicht mehr. spiele werden für aktuelle performancekarten entwickelt. dort laufen sie in max. details üblicherweise.
Na ja...über 1.5 Millionen verkaufte Exemplare bei Crysis nenne ich heulen und klagen auf hohem Niveau.
Das ist für PC-Verhältnisse eine verdammt gute Zahl.
Wenn ich einer der Interviewpartnern vom Crytek-Mann gewesen wäre, hätte ich Ihn erst mal gefragt was er denn bitte erwartet hat an Stückzahlen auf dem PC abzusetzen, speziell bei den HW-Voraussetzungen.
tombman hat schon recht.
früher kam ein neues wing commander und alle kauften nur deswegen neue hardware. neue spiele trieben den hardwareverkauf an.
heute ist es gegenteilig.crytek bringt ein spiel, dass auf mainstreamsystemen nicht läuft und schon verkauft es sich nicht mehr. spiele werden für aktuelle performancekarten entwickelt. dort laufen sie in max. details üblicherweise.
wenn die gtx280 nun 2,5 so schnell wie aktuelle Performancekarten ist und der performancemarkt in einem jahr zu der geschwindigkeit aufschließt darf man wohl schon damit rechnen, dass die gtx280 mind. 2 jahre halten wird.
es sei denn die entwicklung geht schneller als erwartet...
warum dann nicht die GTX280 in 1.5-2 Jahren kaufen?
das wirst du dann können als gt200b oder wie auch immer das Derivat dann heißt.
davidzo
2008-06-05, 14:25:40
Flame entfernt von dir sehen wir in letzter Zeit hier doch nur spam und reißerische Sprüche.
Diese "Ich denk mir die Welt wie sie mir gefällt"-Attitüde geht hier bald so ziemlich jedem auf die Nerven.
Weder Konsolen haben ne chance gegen Highendrechner, noch werden mehr games auf ihnen releast als für PC. die meisten kommen immernoch erst für den PC. Was die Verkaufszahlen der hardware angeht mus sich eigentlich garnichts sagen.
Crossengines und Konsolenportierung finde ich einerseits auch sinnvoll, weil dann weniger am code geschlampt wird und da die hardware sowieso fast gleich ist, beide von Optimierungen profitieren, die bei einer reinen pc oder konsolenvariante aus faulheit oder zeitmangel erst gar nicht implementiert würden.
deine aussage über alan wake klingt einfach nur dumm...
würdest du begründen, wieso du das denkst, dann wäre sie vielleicht einigermaßen tragbar sein. Ich bezweifle aber dass du da überhaupt nachgedacht hast.
Ich hätte es zum Beispiel so begründet.
Ich kenne Alanwake jedenfalls noch aus den zeiten von HL² und dachte das kommt so mit episode1. Die grafik war damals schon überdurschnittlich, aber auch nicht sonderlich berauschend. Für einen solchen verzögerten Titel erwarte ich keine höheren Anforderungen an die Hardware als Crysis.
Nur weil das hier ein heimspiel ist und du im 3dc halt ständig herumgurkst legst du eine lässigkeit an den tag, die von anderen leuten zugeständnisse erwartet. das finde ich nicht angenehm. Das ist ein bisschen so als würdest du in deiner WG imme rnur in einem schmierigen unterhemd und boxershorts herumlaufen und dir die eier kraulen während du mit dem postboten sprichst oder deinen mitbewohnern.
Die Kritik gilt nicht dir und deiner Meinung, sondern in erster Linie an der Art wie du sie herüberbringst. Dann spar dir lieber deinen Post, wenn du dir keine Mühe gibst das andere dich verstehen. Was den Inhalt angeht liegen wir wie du siehst sogar ziemlich auf einer Linie.
dargo
2008-06-05, 14:30:03
deine aussage über alan wake klingt einfach nur dumm...
würdest du begründen, wieso du das denkst, dann wäre sie vielleicht einigermaßen tragbar sein. Ich bezweifle aber dass du da überhaupt nachgedacht hast.
Warum? Er hat doch in seiner Kernaussage vollkommen recht. Solange Alan Wake für die aktuellen Konsolen kommt und es mehr oder weniger eine 1:1 optische Umsetzung ist wird das Game keine hohen Hardwareanforderungen haben.
mictasm
2008-06-05, 14:31:32
boah tombman [...]
Lies nochmal, was er geschrieben hat, du wirst es dann auch verstehen...
Mr.Magic
2008-06-05, 14:36:15
warum dann nicht die GTX280 in 1.5-2 Jahren kaufen?
Weil eine 8800GTX/Ultra für hohe Auflösungen und 16-32xSAA nicht ausreicht.
was ist denn eine hohe Auflösung für dich?
1920x1200 mit viel AA und AF schafft auch eine 4870 locker,wenn sie so kommt wie speku.wird und das für den Preis.
Hier wird geschrieben als ob jeder einen 30" Zöller zu Hause stehen hat.
Adam D.
2008-06-05, 14:42:55
was ist denn eine hohe Auflösung für dich?
1920x1200 mit viel AA und AF schafft auch eine 4870 locker,wenn sie so kommt wie speku.wird und das für den Preis.
Hier wird geschrieben als ob jeder einen 30" Zöller zu Hause stehen hat.
Dazu braucht die Karte erstmal 1GB VRAM und das wird anscheinend noch etwas dauern, bis das Modell kommt.
Die 4870 wird das ganz sicher nicht mal eben locker schafen, schon nur weil sie zuerst nur 512MB hat...
quatsch,er wird es locker schaffen,ließ im ATI Fred warum.
Ich glaube nicht das 1gig gebraucht wird für die Auflösung so wie die Karte aufgebaut ist.
Die 4870 1GB GDDR5 in Crysis 1920x1200 Very High? Und von was träumt ihr nachts?
Mr.Magic
2008-06-05, 15:06:04
was ist denn eine hohe Auflösung für dich?
1920x1200 mit viel AA und AF schafft auch eine 4870 locker,wenn sie so kommt wie speku.wird und das für den Preis.
Hier wird geschrieben als ob jeder einen 30" Zöller zu Hause stehen hat.
1920 kann man gelten lassen. Ich brauche bei der Auflösung mit 4xMSAA schon über 1GB VRAM (Oblivion).
Die neuen Radeons können Hybrid-AA? Und dann auch noch 32xSAA locker? Ist gekauft! Nochmals deutlich, die Rede war von 2x2SSAA + 8xMSAA.
Der GF8 geht bei aktuellen Spielen -ohne SLI- spätestens bei 16xS die Luft aus.
Snoopy69
2008-06-05, 15:16:53
wenn die gtx280 nun 2,5 so schnell wie aktuelle Performancekarten ist und der performancemarkt in einem jahr zu der geschwindigkeit aufschließt darf man wohl schon damit rechnen, dass die gtx280 mind. 2 jahre halten wird.
Glaubst du daran? Ich nicht...
Im PC-Sektor wird Geld mit HW gemacht. Bei der PS3 mit Spielen (weil "noch" unknackbar)
1920 kann man gelten lassen. Ich brauche bei der Auflösung mit 4xMSAA schon über 1GB VRAM (Oblivion).
Die neuen Radeons können Hybrid-AA? Und dann auch noch 32xSAA locker? Ist gekauft! Nochmals deutlich, die Rede war von 2x2SSAA + 8xMSAA.
Der GF8 geht bei aktuellen Spielen -ohne SLI- spätestens bei 16xS die Luft aus.
Natürlich wird sie das nicht schaffen. Aber wer braucht bei so ner Mörderauflösung noch 16x AA? Wer nicht ohne kann tut ganz recht ordentliche Geld auf den Tisch zu legen. Wie man es halt braucht.
Mr.Magic
2008-06-05, 15:25:40
Ich hätte gerne 256xAA (hmm, flimmerfrei), bietet mir aber keiner.
Die 4870 1GB GDDR5 in Crysis 1920x1200 Very High? Und von was träumt ihr nachts?
Hört endlich auf mit dem crap crisi ich kanns nicht mehr lesen!
und es geht um 8xAA und 16 AF in 1920x1200,was will man mehr in der Auflösung?
Die gelbe Eule
2008-06-05, 15:30:13
Na ja...über 1.5 Millionen verkaufte Exemplare bei Crysis nenne ich heulen und klagen auf hohem Niveau.
Das ist für PC-Verhältnisse eine verdammt gute Zahl.
Wenn ich einer der Interviewpartnern vom Crytek-Mann gewesen wäre, hätte ich Ihn erst mal gefragt was er denn bitte erwartet hat an Stückzahlen auf dem PC abzusetzen, speziell bei den HW-Voraussetzungen.
CoD4 hat sich 10 Millionen mal verkauft und läuft vernünftig. Das ist eine gute Zahl und auch ein gutes Gefühl ein Spiel zu haben, daß nicht erst mit Hardware richtig gut läuft, die noch 8 Monate später auf den Markt kommt.
ShadowXX
2008-06-05, 15:30:22
Glaubst du daran? Ich nicht...
Im PC-Sektor wird Geld mit HW gemacht. Bei der PS3 mit Spielen (weil "noch" unknackbar)
Als die 8800GTX rauskaum hätten einen auch alle für verrückt erklärt das die fast 2 Jahre später immer noch HighEnd ist.
Ich gehe auch davon aus, das eine GTX280 ca. genauso lange halten wird.
Ich hätte gerne 256xAA (hmm, flimmerfrei), bietet mir aber keiner.
soso flimmerfrei...dann sagt das der Game Herstellern mit dem shaderflimmern, das haben so einige wohl immer noch nicht verstanden.
Und sehr viele Games mögen dein ssaa sowieso nicht,aber wenn man auf Matsch steht..hauptsache flimmerfrei.
Ich gehe auch davon aus, das eine GTX280 ca. genauso lange halten wird.
ATI macht wieder viel mehr Konkurrenz. Unwahrscheinlich.
Als die 8800GTX rauskaum hätten einen auch alle für verrückt erklärt das die fast 2 Jahre später immer noch HighEnd ist.
Ich gehe auch davon aus, das eine GTX280 ca. genauso lange halten wird.
Nein,ich wette dagegen.
Spätestens Anfang nächsten Jahres kommt ne GDDR5 Ultra Variante für 400-500 Ocken und dann ist deine 600€ HighEnd sowas von EOD,hat keiner mitbekommen was NV im Letzen 3/4 Jahr getrieben hat?
Snoopy69
2008-06-05, 15:35:01
Ich gehe auch davon aus, das eine GTX280 ca. genauso lange halten wird.
Aber nicht für Spiele - NIEMALS!!!
Sobald die GTX280 raus ist werden Spiele erscheinen, die die Karte vollausreizen oder gar in die Knie zwingen.
Bin arg gespannt wie Crysis @ 1920x1200 + höchstem AA/AF + Ultra Hoch (tweak) läuft :ulol:
CoD4 hat sich 10 Millionen mal verkauft und läuft vernünftig. Das ist eine gute Zahl und auch ein gutes Gefühl ein Spiel zu haben, daß nicht erst mit Hardware richtig gut läuft, die noch 8 Monate später auf den Markt kommt.
Wusste ich schon lange vor dem Release von Crysis *betatestergewesenbin*
Damals hat mir aber kaum jmd geglaubt. Aber die Abrechnung kam ganz schnell und sehr hart für Viele :D
Ich bin dafür das jeder der nocheinmal Crysis schreibt durch die Knüppelgasse muß!
ShadowXX
2008-06-05, 15:40:15
CoD4 hat sich 10 Millionen mal verkauft und läuft vernünftig. Das ist eine gute Zahl ....
Natürlich ist das eine nette Zahl, aber ich Sprach von PC-Only-Verkäufen eines PC-Only-Games mit sehr hohen HW-Anforderungen.
Und genau aus diesem Grund sagte ich "Jammern auf hohem Niveau".
Konami freut sich über die Margen (pro Spiel) die Sie auf dem PC einfahren (die sind nämlich höher als auf den Konsolen) und bewertet die PC-Verkäufe als gut, EA wertet seine PC-Verkäufe als gut (siehe Interview mit EA bei PC-Games), nur der Herr Crytek (der lustigerweise zu EA "gehört") heult rum.
Ich hätte Ihm vorher sagen können das sich Crysis keine 5 Millionen mal verkauft, ganz einfach weil sich noch nie ein Spiel so oft auf dem PC verkauft hat (ausnahmen ist WoW (und vielleicht Sims, da aber wohl auch nur mit Addons zusammen), aber das ist ein ganz anderes Konzept).
Nicht mal Wing Commander 1, 2, 3, 4 & 5 zusammen haben sich 5 Millionen mal verkauft und dafür sind tatsächlich die Leute damals losgezogen und haben sich neue Rechner geholt.
Und meinst du wirklich das sich jedes Hans und Franz-Spiel auf den neuen Konsolen 5 Milllionen mal verkauft? Da gibts mehr als genug Titel die auch nur 200.000 - 300.000x über den Tische gehen.
ShadowXX
2008-06-05, 15:41:00
ATI macht wieder viel mehr Konkurrenz. Unwahrscheinlich.
ATI hält mit ner X2-Karte dagegen, das sehe ich nicht als Konkurrenz.
Nein,ich wette dagegen.
Spätestens Anfang nächsten Jahres kommt ne GDDR5 Ultra Variante für 400-500 Ocken und dann ist deine 600€ HighEnd sowas von EOD,hat keiner mitbekommen was NV im Letzen 3/4 Jahr getrieben hat?
Ja und.....wen interessiert die Ultra-Variante?
Was nV das letzte 3/4-Jahr getrieben hat...klar, Sie haben "alte" Chips mit identischer Performance als neu verkauft. Wenn Sie das beim GT200 genauso machen liegen ich mit meiner Aussage wohl eher Richtig.
Der Herr Crytek ist doch nur auf den Boden zurück weil er kapiert hat,das sich kein Mensch einen 2 und 3 TEIL kauft mit dem Alien Crab.
Snoopy69
2008-06-05, 15:43:51
Und meinst du wirklich das sich jedes Hans und Franz-Spiel auf den neuen Konsolen 5 Milllionen mal verkauft?
Ich denke da eher, weil man PS3-Spiele derzeit nicht knacken kann.
Moralelastix
2008-06-05, 15:44:00
Warten wir mal ab was "Crysis: Warhead" mit der Karte macht. :biggrin:
ATI hält mit ner X2-Karte dagegen, das sehe ich nicht als Konkurrenz.
So wenig das NV mit einer GX2 kontert......und die 4870X2 wird den G200 verhauen und was denkste kommt dann,ein Dankeschön von NV...
Redneck
2008-06-05, 15:49:10
Ich bin dafür das jeder der nocheinmal Crysis schreibt durch die Knüppelgasse muß!
Crysis ist doof :wink:
Hast aber Recht....
Wenn der Titel der Bringer schlecht hin wäre und die Masse lediglich
vornehmlich diesen spielen würde, koennte ich es ja noch verstehen.
Aber so muß ich immer an den Satz denken , der in den Foren immer zum
3DMark kommt : "Wer spielt den ?"
Was mir in letzter Zeit aufgefallen ist, das einige neue Titel wieder mehr an
der CPU (Mass Effect z.B.) hängen als an der GPU.... denke das hat mit dem
Portierungstrend Konsole-> PC zu tun.
Gruß
so ist das,aber es wird sich auch hier noch rumsprechen,genau so,das man aus dem Grund (gamen)keinen "Q" braucht,sondern einen 4 gig coredue.
Warten wir mal ab was "Crysis: Warhead" mit der Karte macht. :biggrin:
Was ist Warhead? Hab davon nich nichts gehört.
Ich kauf die Karte und fi**e Crysis ordentlich mal von Anfang bis Ende durch. Damit der Spaß bei dem Stück "Weib"ware ;D auch erledigt ist. :D
Nur wenn die Karte eben passt.
ATI macht wieder viel mehr Konkurrenz. Unwahrscheinlich.
Gar nicht unwahrscheinlich, weil die Performancedifferenz diesmal noch grösser ist als bei der letzten Generation.
Snoopy69
2008-06-05, 15:55:50
Crysis ist doof :wink:
Für die, bei denen es nicht gut läuft, schon. Kann ich verstehen.
Aber jeder mag ein anderes Genre... :wink:
@ Dadi
Kank, oder :ulol:
http://www.youtube.com/watch?v=YG5qDeWHNmk&feature=related
Zeig mir mal einer ein Game mit so einer geilen Engine wie dieser...
Ich sollte mich mit der Sandbox vertraut machen.
Moralelastix
2008-06-05, 15:58:44
Was ist Warhead? Hab davon nich nichts gehört.
Ich kauf die Karte und fi**e Crysis ordentlich mal von Anfang bis Ende durch. Damit der Spaß bei dem Stück "Weib"ware ;D auch erledigt ist. :D
Nur wenn die Karte eben passt.
EA AND CRYTEK ANNOUNCE DEVELOPMENT OF CRYSIS WARHEAD
http://www.crymod.com/thread.php?threadid=29356&sid=c4c4eb3f4c91e18eb17dbbcae7129d07
Redneck
2008-06-05, 16:07:25
Für die, bei denen es nicht gut läuft, schon. Kann ich verstehen.
Aber jeder mag ein anderes Genre... :wink:
worauf ziehlst Du ab ? DAs mein .... nicht lang genug sei ? :wink:
Das spiel (was ich nur von der Demo her kenne), gefällt mir und es läuft auch ganz passabel mit den entsprechenden Einschränkungen, ABER ich konnte mich nicht durchringen das Spiel zum jetzigen Preis zu kaufen (K.O Kriterium war eigentlich die kurze Spielzeit.). Wenn ich es irgendwann nochmal für €10 auf dem Grabbeltisch bekommen, greife ich gerne zu.
Deswegen mache ich auch keine €600 Investition von diesem einem Spiel abhängig (welches mich nur sehr kurz an den Moni binden würde).
Gruß
Hvoralek
2008-06-05, 16:33:17
Die FLOPs hängen dann wohl von der Anzahl der Shader-Einheiten ab, oder?U.a. davon.
FLOPS =FLOPs/ s = Anzahl der ALUs * Takt der ALUs * FLOPs pro ALU und Takt. Z.B. für die X1950XTX 48 * 0,650*10^9 * (4 * 3) = 374,4 GFLOPS (ohne VS). Die 4*3 FLOPs pro ALU und Takt ergeben sich aus vier Kanälen und 3 FLOPs pro Kanal (MADD [2] + ADD [1]).
Welcher der Angaben sollten man am meisten Augenmerk schenken?Kann man nicht pauschal sagen. Die Pixelfüllrate sollte praktisch egal sein, ansonsten ist alles wichtig. Wie wichtig jeweils, kommt auf die Architektur, das Verhältnis der einzelnen Leistungsmerkmale zueinander und die genauen Anforderungen an.
InsaneDruid
2008-06-05, 16:34:48
Die wird sicher lange halten, weil der content eh nur mehr aus Konsolenports besteht. Sogar Crytek hat aufgegeben. Welches PC-Spiel wird sich trauen eine GTX280 zu überlasten? ;)
Klar, irgendwann wird highend nur mehr als multi-chip bestehen, aber ich hoffe, daß dann was besseres als AFR kommt...
Nunja, es gibt noch mehr als Konsolenports - Games die heute noch das Highend ziemlich in die Knie zwingen. CoH im DX10 Mode zb. Dann noch hohe FSAA Modes dazu... die 512MB Karten von NV krebsen da schon arg am Limit, und ATI kann auch nur mit den CF Karten zb 1920*1200 in saubere FPS Regionen hieven (mit AFR, also eigentlich auch nicht wirklich). Das wird (mal sehen wie die Erweiterung wird) ne G200 zumindesct schonmal belasten können.
Mit SS dann wohl auch überlasten ;)
reunion
2008-06-05, 16:36:04
Gar nicht unwahrscheinlich, weil die Performancedifferenz diesmal noch grösser ist als bei der letzten Generation.
R600 musste AMD damals auch um 349$ verkaufen wie bald den RV770XT. Der Unterschied zu damals ist, dass es diesmal vielmehr ein Leistungsrückstand, und nicht mehr so sehr ein Effizienzrückstand ist. Denn AMD erreicht diesen VK mit erheblich weniger Ressourcen. Selbst die X2 dürfte noch billiger herzustellen sein als eine GTX280. Das war damals nicht so, bzw. war an eine X2 beim R600 gar nicht zu denken.
Godmode
2008-06-05, 16:37:52
Schön und teilweise eben komplett falsch, aber ist ja nicht mehr lange hin.
Weißt du etwa mehr zur 800 SP These von Arun?
=Floi=
2008-06-05, 16:49:57
ich weis nicht was ihr habt. Ich finde immer eine lösung die überschüssige leistung in BQ umzusetzen und mitlerweile spiele ich auch ältere spiele gerne mit 8XAA und mit ca 60-90fps+.
Für mich könnte der G200 auch die 6-8 fache leistung haben :D
Godmode
2008-06-05, 16:54:07
ich weis nicht was ihr habt. Ich finde immer eine lösung die überschüssige leistung in BQ umzusetzen und mitlerweile spiele ich auch ältere spiele gerne mit 8XAA und mit ca 60-90fps+.
Für mich könnte der G200 auch die 6-8 fache leistung haben :D
Genau diese Meinung teile ich auch! Ich habe letztes wieder MaxPayne II angeworfen, mit maximalem AF und SSAA sieht das ganz nett aus.
ATI hält mit ner X2-Karte dagegen, das sehe ich nicht als Konkurrenz.
Nun. Ich fürchte fast der Markt sieht das etwas anders. Leider.
Sonyfreak
2008-06-05, 17:03:21
Kank, oder :ulol:
http://www.youtube.com/watch?v=YG5qDeWHNmk&feature=related
Zeig mir mal einer ein Game mit so einer geilen Engine wie dieser...
Ich sollte mich mit der Sandbox vertraut machen.Vollkommen OT, aber oh mein Gott ist das geil. :eek: :D
Genau diese Meinung teile ich auch! Ich habe letztes wieder MaxPayne II angeworfen, mit maximalem AF und SSAA sieht das ganz nett aus.Leider kan man bei MP2 ja keine Widescreenauflösungen nutzen. :(
mfg.
Sonyfreak
Daredevil
2008-06-05, 17:05:34
Für die, bei denen es nicht gut läuft, schon. Kann ich verstehen.
Aber jeder mag ein anderes Genre... :wink:
@ Dadi
Kank, oder :ulol:
http://www.youtube.com/watch?v=YG5qDeWHNmk&feature=related
Zeig mir mal einer ein Game mit so einer geilen Engine wie dieser...
Ich sollte mich mit der Sandbox vertraut machen.
Da ist aber jedes Bild einzeln aufgenommen, das ist nicht "Live".
Denke das sollte klar sein, nur mal so am Rande.
Nakai
2008-06-05, 17:36:08
Oh fuck, is das geil. :eek:;D
Wärs doch nur Realtime...^^
mfg Nakai
Snoopy69
2008-06-05, 17:49:22
Da ist aber jedes Bild einzeln aufgenommen, das ist nicht "Live".
Denke das sollte klar sein, nur mal so am Rande.
Sorry, aber das stimmt nicht!!!
Auf Youtube gibt es x solcher Physik-Videos. Denkst du, dass jeder sich die Mühe macht hunderte, einzelne Frames zusammenzusetzen?
Oder wieso denkst du, dass beim ein oder anderen der PC nicht mehr mitmacht (crash)?
Die Cry-Engine 2 wird stark unterschätzt - ein Fehler!!!
Mit entsprechenden Settings stöhnt auch eine GTX280 - oder 2? :D
Das kann der Sandbox-Editor automatisch.
dargo
2008-06-05, 17:56:12
Sorry, aber das stimmt nicht!!!
Du glaubst doch nicht ernsthaft, dass das alles Realtime ist oder? :tongue:
Die heutigen "poppeligen" CPUs wären damit völlig überfordert. Und nein, auch ein 4Ghz Yorkfield ändert daran nichts.
Anarchy-HWLUXX
2008-06-05, 17:59:03
Das heisst wohl Crysis hat keine Physikbeschläunigung eingebaut oder wie :|
Dank Cuda wird das wohl bald in Echtzeit laufen :)
Snoopy69
2008-06-05, 18:08:41
Ich hab letztes Jahr mal kurz mit der Sandbox 2 gearbeitet. Was damit möglich ist, ist einfach unglaublich. Im Netz gibt ja genug Videos.
Allerdings scheiterte es bei mir wegen Zeitmangel und wegen den unzähligen Möglichkeiten.
Im Netz findet man auch Tutorials für die SB2, aber mein Englisch ist leider nicht so toll (das Zuhören - lesen geht so)
@ dargo
Ich glaub es nicht nur, ich weiss es :wink:
Das heisst wohl Crysis hat keine Physikbeschläunigung eingebaut oder wie :|
Inwiefern Beschleunigung"? Für die GPU nicht nein, aber soweit ich weiß hat das noch gar kein Spiel.
Die Physik wird aber auf auf die CPUs verteilt und das recht effizient. Die Rechenleistung für diesen Turm reicht aber trotzdem nicht aus.
was soll an dem crysis youtube video "geil" sein? nen paar fässer die durch die gegen fliegen....toll
find ich "grafisch" (um nix anderes gehts hier) nicht beeindruckend...
Schlammsau
2008-06-05, 18:24:05
was soll an dem crysis youtube video "geil" sein? nen paar fässer die durch die gegen fliegen....toll
find ich "grafisch" (um nix anderes gehts hier) nicht beeindruckend...
grafisch vielleicht nicht, aber rein vom Rechenaufwand her schon sehr beeindruckend!
Bin sprachlos....sehr geile Videos!
Moralelastix
2008-06-05, 18:25:38
Du glaubst doch nicht ernsthaft, dass das alles Realtime ist oder? :tongue:
Die heutigen "poppeligen" CPUs wären damit völlig überfordert. Und nein, auch ein 4Ghz Yorkfield ändert daran nichts.
Probiers doch selber aus du fauler Sack(nicht bös gemeint!) :D
Starte die Sandbox lad das erste Level und setze einen Tornado ins Spiel und mach ihn großßßß und lass ihn wandern.
Und dann schau selbst was passiert.:biggrin:
Eggcake
2008-06-05, 18:29:15
This Video is rendered frame by frame, you can do it also by following this tutorial:
http://forums.facepunchstudios.com/sh...
Youtube-Description
Sorry, aber das stimmt nicht!!!
Auf Youtube gibt es x solcher Physik-Videos. Denkst du, dass jeder sich die Mühe macht hunderte, einzelne Frames zusammenzusetzen?
Oder wieso denkst du, dass beim ein oder anderen der PC nicht mehr mitmacht (crash)?
Die Cry-Engine 2 wird stark unterschätzt - ein Fehler!!!
Mit entsprechenden Settings stöhnt auch eine GTX280 - oder 2? :D
Wenn man so beschissen programmiert ist das auch kein Wunder.
machs besser...
Crysis wird noch lange die Referenz sein!
machs besser...
Crysis wird noch lange die Referenz sein!
In was? Rechnerleistung fressen und dafür nicht wirklich was bieten?
Crysis ist auch nicht schlecht programmiert. Das Problem ist dass für die Optik eben sehr viel GPU-Rechenleistung nötig war.
Das Spiel kam einfach zu früh.
In was? Rechnerleistung fressen und dafür nicht wirklich was bieten?
Crysis ist doch überhaupt nicht CPU limitiert. Warum soll die Phyisk dann schlecht sein?
Ich rede von GPU Leistung.
Schlammsau
2008-06-05, 18:46:31
Ich rede von GPU Leistung.
Zeig mir ein Spiel, was besser aussieht! ;)
Die Hardwareanforderung ist in anbetracht der Optik absolut gerechtfertigt!
Wenn das Game auf deinem Rechner nicht läuft, ist das dein Problem!
Dann musst du einfach die Details runterschrauben! ;)
Die FLOPs hängen dann wohl von der Anzahl der Shader-Einheiten ab, oder?
Welcher der Angaben sollten man am meisten Augenmerk schenken?
Eins weiss ich... Meine X800Pro brachte in FarCry ca. doppelt soviele fps als die 9800 (ATI)
Das war damals auch ein guter Effizienz + Rohpower Sprung.
Die reine FLOP Zahl kannste aber heute teils knicken. Denn die Karten bringen die Leistung einfach nicht auf die Straße teils. AMD brauch hier sehr viel mehr theoretische Power als nV um gleiche FPS zu erzielen.
FLOPs sind vom Takt, von der Anzahl der Einheiten UND deren Fähigkeiten abhängig, was aber am Ende rauskommt, hängt heute an der Effizienz den Shadercode abzuarbeiten, da dieser viel komplexer geworden ist als Anno R9800 Zeiten. Das kannst nicht mehr vergleichen, die theoretischen Zahlen innerhalb einer GPU Familie sagen dir, welche Karte die schnellere ist, im vgl. zur Konkurrenz musst du Benchmarks nutzen, alles andere bringt dir 0.
The_Invisible
2008-06-05, 19:00:45
wurden aa/af modi hier schon diskutiert?
ist da schon was bekannt oder bleibt es beim alten? hier wird nur über rohleistung geredet aber vielleicht haben wir dann wieder g7x af qualität ;D
mfg
Snoopy69
2008-06-05, 19:12:27
Das Spiel kam einfach zu früh.
Finde ich nicht...
Als jeder gesehen hat, was mit der Engine möglich war, wollte man gleich ALLES haben (Settings möglichst hoch), aber das packt keine Consumer-HW zur Zeit.
Ich freu mich auf die kommenden 5 Jahre :)
Ich bin jedenfalls der Meinung, dass man auch die GTX280 zum Einbrechen bekommt.
Das war damals auch ein guter Effizienz + Rohpower Sprung.
Die reine FLOP Zahl kannste aber heute teils knicken. Denn die Karten bringen die Leistung einfach nicht auf die Straße teils. AMD brauch hier sehr viel mehr theoretische Power als nV um gleiche FPS zu erzielen.
Ist mir schon bei der HD2900 aufgefallen. Viel Rohleistung, aber bei sehr hoher Auflösung + AA brachen sie derbe ein.
AnarchX
2008-06-05, 19:17:21
Die Geometrie Shader Leistung des GT200 soll offenbar 6-10 so hoch sein, wie auf der 8800 Ultra.
Winter[Raven]
2008-06-05, 19:25:30
und wozu der spaß?
http://de.wikipedia.org/wiki/Geometry-Shader
Die Geometrie Shader Leistung des GT200 soll offenbar 6-10 so hoch sein, wie auf der 8800 Ultra.
Hoffentlich, dann kann man daas ganze auch praktisch einsetzen :)
und wozu der spaß?
Für mehr Leistung? ;)
ich weiß was nen geometrieshader is aber das es dem G80/92 an geometrieshaderleistung mangelte und diese einen flaschenhals darstellte hör ich zum ersten mal
Snoopy69
2008-06-05, 19:31:16
;6558126']http://de.wikipedia.org/wiki/Geometry-Shader
Hoffentlich, dann kann man daas ganze auch praktisch einsetzen :)
Wie sooft wohl leider nicht - immer alles scheibchenweise. ;(
NV hat überhaupt keinen Grund eine Überkarte herauszubringen, solange ATI schwächere Karten hat. Anders ist viel weniger Geld zu verdienen...
Intel hat ja seine Yorkies auch wesentlich später (als Januar) herausgebracht, weil man in AMD keine Gefahr sah.
Aber so schön wär´s trotzdem...
Zeig mir ein Spiel, was besser aussieht! ;)
Die Hardwareanforderung ist in anbetracht der Optik absolut gerechtfertigt!
Wenn das Game auf deinem Rechner nicht läuft, ist das dein Problem!
Dann musst du einfach die Details runterschrauben! ;)
Auf 2 3870X2 im CrossfireX rennt es schon recht hurtig (für das verbuggte Crysis!). Aber die gebotene Grafik dafür ist schlicht ein schlechter Witz. Vor allem wenn man in das extrem lahme Eislevel kommt. Wie sonst ist zu erklären dass Patches und Treiberupdates immer wieder mehr Performance bringen? Die Engine ist gleich besch...eiden programmiert wie die Farcry Engine. Schau dir mal an wie wenig die FC Engine von anderen Herstellern eingesetzt wurde, die wussten schon warum. Zusammengeschustertes Frickelwerk welches auch rennt wie ein Frickelwerk braucht keiner!
Schau dir mal an wie wenig die FC Engine von anderen Herstellern eingesetzt wurde, die wussten schon warum.
aber nicht weil sie schlecht war, sondern weil andere engines bessere tools hatten.
Snoopy69
2008-06-05, 19:38:29
@ Gast #886
Sorry, aber du hast scheinbar wirklixh keine Ahnung. Zeig uns was vergleichbares. Du wirst NICHTS finden! Mit Tweaks sieht alles noch viel realistischer aus.
Hoffnung könnte die Unreal-Engine sein. Ausser "Mstar" (ein Weiberspiel) scheint es das nix Besseres derzeit zu geben.
Viel Spass damit :) http://www.forumdeluxx.de/forum/showthread.php?t=480414
btw: Gibts was Neues über G200 zu wissen?
ich weiß was nen geometrieshader is aber das es dem G80/92 an geometrieshaderleistung mangelte und diese einen flaschenhals darstellte hör ich zum ersten mal
So berauschend ist die Leistung wirklich nicht. Da waren die D3D10-Chips von ATI schon deutlich besser. Aber auch ganz allgemeim im Geometrieteil.
Ich dürfte mehr Ahnung haben als du Snoopy. Aber schön zu sehen wie du dein komplettes fehlen an Argumenten mit persönlichen Angriffen "wett" machst.
Redneck
2008-06-05, 20:00:42
Wie sooft wohl leider nicht - immer alles scheibchenweise. ;(
NV hat überhaupt keinen Grund eine Überkarte herauszubringen, solange ATI schwächere Karten hat. Anders ist viel weniger Geld zu verdienen...
Jau...ist ja auch logisch
NV verdient jetzt mehr Knete, wo sie sich den Markt noch mit ATI/AMD teilen muessen..:ucrazy3:
Mal ein Gegenbeispiel :
Wieviel meinst Du kann man an R&D sparen, wenn man keinen Mittbewerber hat? Und welche Preise koennte man dann erst durchsetzen...
Meinst Du einer der Entwickler steckt sich von vornherein das Ziel, nicht erst einmal das Bestmögliche zu erreichen (abspecken kann man immer noch).
Gruß
Kann man anhand der FLOPs, Pixel- und Texelfüllrate (und was noch dazu gehört) wirklich nicht die ungefähre Performance berechnen?
Au ja!
Pixfill:
a) 10.400
b) 10.260
Texfill
a) 15.600
b) 12.312
FLOPS
a) 249,6
b) 230,4
Welche Karte ist schneller: a oder b und um wieviel ca.?
Kleiner Tipp: a ist die 7900 GTX, b die 8800 GTS/640. ;)
Keine hardwarenahe Trickserei bringt Konsolenhardware auch nur in die Nähe der power einer GTX280 ;)
Xenos-Tesselator.
Snoopy69
2008-06-05, 20:09:59
Ich dürfte mehr Ahnung haben als du Snoopy. Aber schön zu sehen wie du dein komplettes fehlen an Argumenten mit persönlichen Angriffen "wett" machst.
Ok, dann zeig mir was Vergleichbares.
Au ja!
Pixfill:
a) 10.400
b) 10.260
Texfill
a) 15.600
b) 12.312
FLOPS
a) 249,6
b) 230,4
Welche Karte ist schneller: a oder b und um wieviel ca.?
Kleiner Tipp: a ist die 7900 GTX, b die 8800 GTS/640. ;)
Und sonst? Wieviele StreamProzzies bzw. wieviele Shader-Einheiten haben die Karten?
Xenos-Tesselator.
Es gibt afaik nur ein einziges Spiel was die Einheit anspricht, und der Rest lässt die Finger davon. Es gibt keinerlei praktische Referenzen zu diesem "Bauabschnitt", außer das er erst in DX11 spezifiziert ist und die magere Taktrate und der unbekannte Aufbau der Einheit. Bisschen dünne für ein Performance Spike auf nem Abfallprodukt ^^
dargo
2008-06-05, 20:24:39
Probiers doch selber aus du fauler Sack(nicht bös gemeint!) :D
Starte die Sandbox lad das erste Level und setze einen Tornado ins Spiel und mach ihn großßßß und lass ihn wandern.
Wenn ich die englische Sprache beherrschen würde dann würde ich schon lange die Sandbox 2 missbrauchen. :wink:
Au ja!
Pixfill:
a) 10.400
b) 10.260
Texfill
a) 15.600
b) 12.312
FLOPS
a) 249,6
b) 230,4
Welche Karte ist schneller: a oder b und um wieviel ca.?
Kleiner Tipp: a ist die 7900 GTX, b die 8800 GTS/640. ;)
Wie kommst Du zu den Angaben? Die sind falsch. Die 8800 GTS/640 hat 10.000 MPixel/s, 24.000 MTexel/s und 346 Gflops. Wenn ich großzügig bin, sind zwei von drei genannten Werten falsch, bin ich genau, waren sogar alle deine Werte falsch.
Prinzipiell hast Du natürlich Recht, dass die theoretischen Leistungen nur innerhalb einer Serie verglichen werden sollten. Die Änderungen bei der GT200 scheinen aber bis auf die nun voll einsatzfähige MUL-Einheit überschaubar im Vergleich zum G80/G92, weswegen man die Zahlen schon einmal näher betrachten kann. ;)
Näheres dann zum Launch.
Crysis ist doch überhaupt nicht CPU limitiert.
Das kommt ganz drauf an...
Moralelastix
2008-06-05, 20:29:46
Wenn ich die englische Sprache beherrschen würde dann würde ich schon lange die Sandbox 2 missbrauchen. :wink:
Da brauch ma doch garnet goß Englisch für.
Lad einfach das Level island(is das erste Level) und schau dann rechts in der RollupBar der linke Reiter "Objects" und dort nach Entity und dort bei Environmet. Da is der Tornado zusammen mit Shake drinn.
Wähl ihn mit der Maus aus und zieh ihn per drag&drop in das Spielefenster.
dargo
2008-06-05, 20:31:34
Die Geometrie Shader Leistung des GT200 soll offenbar 6-10 so hoch sein, wie auf der 8800 Ultra.
Hört sich gut an. Ich würde zugern Benchmarks von Lost Planet mit diesem Pelz da sehen (wie hieß das nochmal?).
Wie kommst Du zu den Angaben? Die sind falsch. Die 8800 GTS/640 hat 10.000 MPixel/s, 24.000 MTexel/s und 346 Gflops. Wenn ich großzügig bin, sind zwei von drei genannten Werten falsch, bin ich genau, waren sogar alle deine Werte falsch.
Prinzipiell hast Du natürlich Recht, dass die theoretischen Leistungen nur innerhalb einer Serie verglichen werden sollten. Die Änderungen bei der GT200 scheinen aber bis auf die nun voll einsatzfähige MUL-Einheit überschaubar im Vergleich zum G80/G92, weswegen man die Zahlen schon einmal näher betrachten kann. ;)
Näheres dann zum Launch.
513*20 sind sicherlich nicht 10.000.
Die 24.000 MTex sind a) selbst nach deiner zählweise falsch, da 513*48 nicht 24.000 sind und b) sind sie an spezielle Gegebenheiten gebunden. Die Basis-Rate ist die, die sie auch addressieren kann. Dass das MUL sich beim G80 nicht schedulen liess, hat mittlerweile sogar Nvidia eingeräumt - dann kannst du es sicher auch. Meine Zahlen sind korrekt. :)
Und sonst? Wieviele StreamProzzies bzw. wieviele Shader-Einheiten haben die Karten?
Das ist genauso irrelevant, wie die Zahlen, aufgrund derer du zuerst Karten vergleichen wolltest. Wie du siehst, geht das nichtmal innerhalb eines Herstellers - wenn, dann kann man sowas innerhalb einer Familie eingeschränkt brauchen (also 8600 GTS gg. 8800 Ultra oder HD3650 gg. HD3850).
Und sonst? Wieviele StreamProzzies bzw. wieviele Shader-Einheiten haben die Karten?
Das ist genauso irrelevant, wie die Zahlen, aufgrund derer du zuerst Karten vergleichen wolltest. Wie du siehst, geht das nichtmal innerhalb eines Herstellers - wenn, dann kann man sowas innerhalb einer Familie eingeschränkt brauchen (also 8600 GTS gg. 8800 Ultra oder HD3650 gg. HD3850).
Snoopy69
2008-06-05, 20:48:01
Das ist genauso irrelevant, wie die Zahlen, aufgrund derer du zuerst Karten vergleichen wolltest. Wie du siehst, geht das nichtmal innerhalb eines Herstellers - wenn, dann kann man sowas innerhalb einer Familie eingeschränkt brauchen (also 8600 GTS gg. 8800 Ultra oder HD3650 gg. HD3850).
Aber an irgendwas muss man doch erkennen (ausser am Produktnamen), ob die ein oder andere Karte schneller ist.
Bei Kfz ist das so einfach - Gewicht, Hubraum, Drehmoment etc. Da kann man sich denken, was besser geht.
513*20 sind sicherlich nicht 10.000.
Die 24.000 MTex sind a) selbst nach deiner zählweise falsch, da 513*48 nicht 24.000 sind und b) sind sie an spezielle Gegebenheiten gebunden. Die Basis-Rate ist die, die sie auch addressieren kann. Dass das MUL sich beim G80 nicht schedulen liess, hat mittlerweile sogar Nvidia eingeräumt - dann kannst du es sicher auch. Meine Zahlen sind korrekt. :)
Wie kommst Du auf die 513 MHz? Nach mir bekannten Quellen (siehe: Wikipedia (http://de.wikipedia.org/wiki/Geforce_8)) hat die 8800 GTS 640 einen Chiptakt in Höhe von 500 MHz.
Aber die 13 MHz machen den Kohl nicht fett, dann läge die Texelfüllrate bei 24.624 MTexel/s, was immer noch doppelt so hoch angegeben ist wie bei Dir (12.312 MTexel/s).
Die MUL-Einheit kann seit dem Forceware 158.xx auch teilweise - man munkelt zu 1/7 - für General Shading genutzt werden. So kann man sie zwar nicht als vollständige Einheit hinzuwerten, in allen mir bekannten Rechnungen - ob bei Nvidia, Wikipedia, Hardware-Seiten - wird sie dennoch vollständig berücksichtigt, weswegen die 346 Gflops den offiziellen Wert darstellen.
Ich bin jedenfalls der Meinung, dass man auch die GTX280 zum Einbrechen bekommt.
Natürlich. Schaut euch doch mal die Rohdaten an. Nehmen wir mal an, die Einheiten sind featuregleich, wo soll da eine "Überkarte" herauskommen? Vergleicht man die geleakten GeForce-GTX-280-Specks mit denen der 1 Jahr alten 8800 Ultra, dann ist nur ein Teil wirklich potenter geworden: die Arithmetikleistung – taktbereinigt ~85 Prozent mehr Dampf. Die Bandbreite steigt um ~35 Prozent. Die ohnehin schon brutale Texel-Füllrate erhebt sich um ~23 Prozent ... ein "voller" G80 hat mit 720 MHz genauso viel Texfill.
Bedeutet: Die GTX-280 wird im Worst Case, d.h. besten Fall für die Karte, etwa 50 Prozent vor der 8800 Ultra liegen. Sind nur die Shader gefragt, dann mehr. Je mehr AA und AF dazukommt, desto geringer der Abstand. Ok, bis der 8800 der VRAM überläuft, aber das passiert so schnell nicht. Die GTX-260 wird IMO kaum schneller als die G80-Ultra.
Wie kommst Du auf die 513 MHz? Nach mir bekannten Quellen (siehe: Wikipedia (http://de.wikipedia.org/wiki/Geforce_8)) hat die 8800 GTS 640 einen Chiptakt in Höhe von 500 MHz.
Wiki ist eine Quelle, die - wie viele andere Medien - gerne mal Scheiße auflistet. Der Taktgeber der Geforce-Karten hat's nicht mit geraden Zahlen. Stattdessen präferiert er 27-MHz-Schritte. Die G80-GTS hat 513 MHz.
MfG,
Raff
Der "Worst Case" in Sachen Rechenanspruch ist der beste Fall für die GTX-280, um sich abzusetzen.
MfG,
Raff
dargo
2008-06-05, 20:55:57
Die Bandbreite steigt um ~35 Prozent.
Hier ist imo schon der erste Denkfehler. Ein G92 geht schonender mit der Bandbreite (auch mit dem Vram) um als ein G80. Wonach wird sich wohl der GT200 richten?
AnarchX
2008-06-05, 20:57:51
Natürlich. Schaut euch doch mal die Rohdaten an. Nehmen wir mal an, die Einheiten sind featuregleich, wo soll da eine "Überkarte" herauskommen? Vergleicht man die geleakten GeForce-GTX-280-Specks mit denen der 1 Jahr alten 8800 Ultra, dann ist nur ein Teil wirklich potenter geworden: die Arithmetikleistung – taktbereinigt ~85 Prozent mehr Dampf. Die Bandbreite steigt um ~35 Prozent. Die ohnehin schon brutale Texel-Füllrate erhebt sich um ~23 Prozent ... ein "voller" G80 hat mit 720 MHz genauso viel Texfill.
Bedeutet: Die GTX-280 wird im Worst Case, d.h. besten Fall für die Karte, etwa 50 Prozent vor der 8800 Ultra liegen. Sind nur die Shader gefragt, dann mehr. Je mehr AA und AF dazukommt, desto geringer der Abstand. Ok, bis der 8800 der VRAM überläuft, aber das passiert so schnell nicht. Die GTX-260 wird IMO kaum schneller als die G80-Ultra.
Nur vergisst du ein paar Punkte:
- MUL ist nun auch für Shading wohl voll nutzbar -> 50% mehr Leistung pro SP
- ROP-Kompression wie bei G9x -> 10-30% laut NV-Folie: G94 vs G80@4C/4RP
- laut CJ 3-fache Blending-Leistung der ROPs, doppelt so große Register
- zudem gibt es weitere Andeutungen auf effizienzsteigernde Maßnahmen
Nur vergisst du ein paar Punkte:
- MUL ist nun auch für Shading wohl voll nutzbar -> 50% mehr Leistung pro SP
- ROP-Kompression wie bei G9x -> 10-30% laut NV-Folie: G94 vs G80@4C/4RP
- laut CJ 3-fache Blending-Leistung der ROPs, doppelt so große Register
- zudem gibt es weitere Andeutungen auf effizienzsteigernde Maßnahmen
Viele kleine Spielereien, die vor allem in der Thoerie nett, aber keine Effizienzwunder sind. Ich hätt's ja auch gern, dass wieder so ein Knaller wie der G80 spawned ... aber ich denke nicht, dass die GTX 280 alles wegregelt. Schnell, klar ... aber auch 500+ €uronen wert?
MfG,
Raff
Viele kleine Spielereien, die vor allem in der Thoerie nett, aber keine Effizienzwunder sind. Ich hätt's ja auch gern, dass wieder so ein Knaller wie der G80 spawned ... aber ich denke nicht, dass die GTX 280 alles wegregelt. Schnell, klar ... aber auch 500+ €uronen wert?
MfG,
Raff
Und warum nicht? Eine 9600gt hat die 75% Leistung einer 8800GTX. Wieso sollte ein G200 mit 1,4 Milliarden Transistoren dann gerade mal 50% schneller als die Ultra sein?
AnarchX
2008-06-05, 21:05:19
Viele kleine Spielereien, die vor allem in der Thoerie nett, aber keine Effizienzwunder sind. Ich hätt's ja auch gern, dass wieder so ein Knaller wie der G80 spawned ... aber ich denke nicht, dass die GTX 280 alles wegregelt. Schnell, klar ... aber auch 500+ €uronen wert?
Pass auf, sonst machst du Ailuros noch böse... :D
Naja, warten wir es ab, jedenfalls schliesst die rumor mill einen 2. G80 nicht unbedingt aus.
Das begehrte Stück müsste doch auch in den kommenden Tagen bei euch in der Redaktion auftauchen, sodass du dich selbst überzeugen kannst? ;)
Snoopy69
2008-06-05, 21:07:05
Natürlich. Schaut euch doch mal die Rohdaten an. Nehmen wir mal an, die Einheiten sind featuregleich, wo soll da eine "Überkarte" herauskommen? Vergleicht man die geleakten GeForce-GTX-280-Specks mit denen der 1 Jahr alten 8800 Ultra, dann ist nur ein Teil wirklich potenter geworden: die Arithmetikleistung – taktbereinigt ~85 Prozent mehr Dampf. Die Bandbreite steigt um ~35 Prozent. Die ohnehin schon brutale Texel-Füllrate erhebt sich um ~23 Prozent ... ein "voller" G80 hat mit 720 MHz genauso viel Texfill.
Bedeutet: Die GTX-280 wird im Worst Case, d.h. besten Fall für die Karte, etwa 50 Prozent vor der 8800 Ultra liegen. Sind nur die Shader gefragt, dann mehr. Je mehr AA und AF dazukommt, desto geringer der Abstand. Ok, bis der 8800 der VRAM überläuft, aber das passiert so schnell nicht. Die GTX-260 wird IMO kaum schneller als die G80-Ultra.
Mach mich nicht schwach ;(
Dann würde sich der Kauf für mich garnicht lohnen.
Ich denke, dass die GTX280 min. schon schnell sein muss wie eine 9800GX2. Wäre ja sonst lachhaft. So einen "Schrott" würde doch keiner kaufen.
dargo
2008-06-05, 21:16:40
Und warum nicht? Eine 9600gt hat die 75% Leistung einer 8800GTX.
Wir wollen nicht übertreiben. Die G80GTS hat ca. 67-69% der Leistung einer G8800GTX. Dh. die G9600GT liegt noch minimal drunter.
dargo
2008-06-05, 21:22:26
Nö -> http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/22/#abschnitt_performancerating
Doch, und zwar bei ausgeschlossenen CPU-Limits.
Ich liebe diese Ratings von CB. :rolleyes:
Die haben einen 4-GHz-Yorkfield genutzt, der sicher keine 9600 GT limitiert. Aber der Test geht nur bis 4x AA in 1600x1200. Es gibt noch ein Spieleleben darüber ... wo vor allem die kleinen G9x-Derivate von den G80-Karten verhauen werden.
MfG,
Raff
dargo
2008-06-05, 21:32:07
Genau, ein CPU Limit. In allen getesteten Anwendungen :rolleyes:
Wenn du schon mit Ratings kommst dann solltest du dir auch einige einzelnen Tests anschauen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/21/
Betrachte den G94 im Vergleich zu den beiden G80 Karten. Hoppala, der G94 ist öfter mal schneller. Schon klar... :rolleyes:
Die haben einen 4-GHz-Yorkfield genutzt, der sicher keine 9600 GT limitiert.
Sollte man meinen. Die testen aber auch Games die kaum von einem zweiten Core profitieren und diese Ergebnisse fließen mit ins Rating ein.
Worauf ich aber hinaus wollte. Wenn ich bei gleicher Szene mit einer G8800GTX beispielsweise 30fps habe, die GTX um 20% übertakte (GPU und Speicher) und dabei nur 34fps rauskommen dann liegt hier auch ein CPU-Limit vor. Zwar weit von 100% entfernt, die CPU verhindert aber meine 36fps.
AnarchX
2008-06-05, 22:14:23
Cuando hemos visitado a Gainward en una sala privada de un hotel, poco nos pensábamos que íbamos a poder ver la caja de la GTX 280, y todavía menos que tendrían una máquina de demostración con Crysis listo para jugar a 1920x1200 (sin AA). No nos han dejado abrir la caja para hacer fotografías, ni nos han dicho las velocidades finales, pero os podemos decir que el juego se movía con absoluta fluidez incluso disparando ráfagas en el agua.
When we visited Gainward in a private room of a hotel, we just thought we were going to be able to see the box on the GTX 280, and still less that they would have a machine demonstration Crysis ready to play 1920x1200 (no AA). We have left open the box to make photographs, nor have told us the final speeds, but you can say that the game was moving with absolute fluency even firing bursts in the water.
http://www.noticias3d.com/noticia.asp?pag=2&idnoticia=26353
Viele kleine Spielereien, die vor allem in der Thoerie nett, aber keine Effizienzwunder sind. Ich hätt's ja auch gern, dass wieder so ein Knaller wie der G80 spawned ... aber ich denke nicht, dass die GTX 280 alles wegregelt. Schnell, klar ... aber auch 500+ €uronen wert?
MfG,
Raff
50% mehr Leistung pro SP sind Spielereien lol?
Was erwartest du den? Die zehnfache leistung eines G80 oder was?
50% mehr Leistung pro SP sind Spielereien lol?
Was erwartest du den? Die zehnfache leistung eines G80 oder was?
auch nv kann nicht zaubern!
und event. beziehen sich diese 50% ja auf fehlende dings
tombman
2008-06-05, 22:27:42
http://www.noticias3d.com/noticia.asp?pag=2&idnoticia=26353
Auf welchen settings? Low? ;D
Winter[Raven]
2008-06-05, 22:28:37
auch nv kann nicht zaubern!
und event. beziehen sich diese 50% ja auf fehlende dings
Was hat das mit zaubern zutun? Das selbe wurde auch beim G80 gesagt...
Viele kleine Spielereien, die vor allem in der Thoerie nett, aber keine Effizienzwunder sind.
du glaubst doch nicht wirklich, dass sie fast doppelt so viele transistoren brauchen und dann im besten fall gerade 50% mehrleistung haben.
tombman
2008-06-05, 22:29:34
Ist doch schon raus, daß sie schneller als eine GX2 ist...
Vantage X:
GTX280 = X4xxx
GX2 = X36xx
meine GX2 schafft knappe 11500,die 280er soll ja 17000 schaffen,hab ich hier irgendwo gelesen......
du glaubst doch nicht wirklich, dass sie fast doppelt so viele transistoren brauchen und dann im besten fall gerade 50% mehrleistung haben.
leistung definiert sich nicht nur durch transistoren sondern auch durch takt..und der is ist jetzt nicht soooo hoch
tombman
2008-06-05, 22:37:55
meine GX2 schafft knappe 11500,die 280er soll ja 17000 schaffen,hab ich hier irgendwo gelesen......
Ich rede von X Werten. Highend GPUs auf P zu benchen ist sinnlos...
Winter[Raven]
2008-06-05, 22:41:36
leistung definiert sich nicht nur durch transistoren sondern auch durch takt..und der is ist jetzt nicht soooo hoch
Genau, bestes Beispiel ist AMD ... ahh ... AMTI?
Erzähl doch mal wohin die Transis geflossen sind...
Ich rede von X Werten. Highend GPUs auf P zu benchen ist sinnlos...
ach und auf P stimmt das Verhältniß zu einander dann nicht mehr?
tombman
2008-06-05, 22:46:32
ach und auf P stimmt das Verhältniß zu einander dann nicht mehr?
Je weiter du runtergehst, desto mehr kommt die cpu ins Spiel- und das wollen wir ja nicht.
Das wird ne Gurke ihr werdet es sehen und der 260er ist erst recht nur Augenwischerei>immer im Vergleich zum G80.
Je weiter du runtergehst, desto mehr kommt die cpu ins Spiel- und das wollen wir ja nicht.
Bei vantage ,so ein Quatsch
dargo
2008-06-05, 22:50:48
meine GX2 schafft knappe 11500,die 280er soll ja 17000 schaffen,hab ich hier irgendwo gelesen......
Bei gleichen CPUs? Das wäre schon ein sehr gutes Ergebnis. Wenn man bedenkt, dass hier eventuell die CPU schon etwas bremst. Trotzdem, Game-Benches wären mir lieber. :)
Verdammt, haben die vor dem G80-Launch auch alle so lange dicht gehalten? :ugly:
Je weiter du runtergehst, desto mehr kommt die cpu ins Spiel- und das wollen wir ja nicht.
Außerdem: Wer spielt denn mit einer Enthusiasten-GPU ohne AA/AF? X ist schon richtig.
MfG,
Raff
es geht um einen Vergleich und da ist es völlig wurst ob P oder xy odder baut ihr eine andere CPU ein....bei der GX2
tombman
2008-06-05, 22:56:21
Bei vantage ,so ein Quatsch
Nix Quatsch, lern die Formeln!
Verdammt, haben die vor dem G80-Launch auch alle so lange dicht gehalten? :ugly:
eigentlich schon, viele sind ja fast bis zum launch noch davon ausgegangen dass die shader nicht unified sind ;)
Nix Quatsch, lern die Formeln!
Natürlich Quatsch oder wird beim Kartenwechsel auch die CPU getauscht,lern Ironie.
tombman
2008-06-05, 23:06:47
es geht um einen Vergleich und da ist es völlig wurst ob P oder xy odder baut ihr eine andere CPU ein....bei der GX2
Natürlich Quatsch oder wird beim Kartenwechsel auch die CPU getauscht,lern Ironie.
*seufz*
Beispiel 1:
50% CPU + 25% GPU1= 75% GESAMT
50% CPU + 50% GPU2= 100% GESAMT
Und jetzt vergleichst DU die Gesamtwerte und sagst DU, GPU2 ist nur 25% schneller. Tjo, in echt ist sie aber 100% schneller ;)
Bei beiden wurde die selbe CPU benutzt, so wie DU das machen willst...
Beispiel 2:
Und jetzt nimm bei BEIDEN die cpu runter:
10% CPU + 45% GPU1 = 55% GESAMT
10% CPU + 90% GPU2 = 100% GESAMT
Jetzt schaue ICH aufs Gesamtergebnis und komme auf 82% schneller.
Mein Ergebnis (+82%) liegt DEUTLICH näher an der Wahrheit dran (= +100% für GPU2) als dein Ergebnis, welches nur +25% für GPU2 ergab.
Ich hoffe, du hast was gelernt.
Fazit: GPUs benched man immer so, daß die CPU möglichst wenig zu reden hat. CPUs benched man immer so, daß die GPU möglichst wenig zu reden hat.
Ich danke für die Aufmerksamkeit ;)
und was willst du mir jetzt sagen?
Das das Ergebnis verfälscht wird wenn beide Karten auf P mit der selben CPU getestet werden?
Adam D.
2008-06-05, 23:14:38
und was willst du mir jetzt sagen?
Das das Ergebnis verfälscht wird wenn beide Karten auf P mit der selben CPU getestet werden?
Ja, für richtige Vergleichbarkeit müssen die Karten auch voll ausgereizt werden, damit das Limit nicht an irgendeiner andere Stelle zu finden ist.
HarryHirsch
2008-06-05, 23:36:52
und was willst du mir jetzt sagen?
Das das Ergebnis verfälscht wird wenn beide Karten auf P mit der selben CPU getestet werden?
in dieser preisklasse sollte man schon x zum vergleichen nehmen
leistung definiert sich nicht nur durch transistoren sondern auch durch takt..und der is ist jetzt nicht soooo hoch
8800GTX vs GTX 280
575 gegen 600MHz
1350 gegen 1300MHz
man kann also sagen das der Takt etwa gleich ist, übrigens ist die 8800GTX ja auch eine Entäuschung, nur 575MHz Takt gegen die 650MHz der 7900GTX.........
Die Cry-Engine 2 wird stark unterschätzt - ein Fehler!!!
:D
Stimmt...die Engine is noch schlechter als die Leute denken.
So, dann begründe das doch mal bitte.
Das Spiel läuft "schlecht" (das wird der GT200 sicher nicht ändern) und viele sehen den enormen Rechenaufwand dahinter nicht. Also ist die Engine schlecht. Logisch, oder? ;) Komisch, mich bratzt's @ Ub0r-High-Settings immer wieder ob der prachtvollen Optik weg.
MfG,
Raff
mapel110
2008-06-06, 01:05:38
CRT anstöbseln und 1024er Auflösung fahren, scho passts mit der Performance...
Gibt für alles eine Lösung. Obendrein hat man dann augenschonende 120 Hz oder mehr auf dem 21" CRT. :)
Achja, guten Schwarzwert gibts aufm CRT auch noch.
Wolfram
2008-06-06, 01:19:55
Das Spiel läuft "schlecht" (das wird der GT200 sicher nicht ändern) und viele sehen den enormen Rechenaufwand dahinter nicht.
Wenn das mit dem Gesetz des abnehmenden Ertrags so hinkommt, wird das noch schlimmer werden. Oder es gibt irgendwann die Kehrtwende von der immer neuen Über-Grafik weg- weil sich weitere Steigerungen nicht mehr mit vernünftigem Aufwand realisieren lassen.
Die gelbe Eule
2008-06-06, 01:31:03
Eher wird man gewisse Standards setzen, also z.B. 1080P maximal, AAx4, AFx16. Würde man dahingehend ein Spiel optimieren, könnte jeder glücklich werden. Auflösungen jenseits von Gut und Böse machen nichtmal 0.5% aller verkauften Karten aus.
Wolfram
2008-06-06, 01:49:27
Eher wird man gewisse Standards setzen, also z.B. 1080P maximal, AAx4, AFx16. Würde man dahingehend ein Spiel optimieren, könnte jeder glücklich werden. Auflösungen jenseits von Gut und Böse machen nichtmal 0.5% aller verkauften Karten aus.
Darum ging's mir nicht. Crysis läuft ja in den allerhöchsten Einstellungen mit Top-Karten gerade mal in 1024x768 ohne AA akzeptabel. Das ist insofern auch jetzt offenbar doch kein Problem durch übertrieben hohe Auflösungen. Aber wenn der Content, im Fall von Crysis ja wohl vornehmlich die Beleuchtung, immer realistischer werden soll, dann steigt der Rechenaufwand scheinbar derart über die Maßen an, daß man für marginale Unterschiede gleich ein Mehrfaches an Rechenleistung braucht.
Irgendwann sieht es einfach für die meisten Spieler "gut genug" aus, und dann wird die Zahl derjenigen, die bereit sind, für eine noch bessere Grafik tiefer in die Tasche zu greifen- ob beim Spiel oder der Hardware- notgedrungen kleiner.
Die gelbe Eule
2008-06-06, 01:53:01
Crysis ist aber kein Maßstab. Erst dieses Jahr kommen Spiele heraus, welche die Far Cry Engine ausreizen und das nach Jahren. Es sieht so aus, als würde alle anderen Spiele gegen Crysis abstinken, nur weil sie nicht so "toll" aussehen. Von diesem Denken muss man erstmal weg.
Snoopy69
2008-06-06, 02:10:17
Manche scheinen immer noch nicht verstanden zu haben, warum Crysis angeblich so "schlecht" läuft.
Mit wievielen Texturen arbeitet Crysis und wieviele andere Games :wink:
Wäre Crysis bei "Hoch" begrenzt, würden weniger Leute meckern.
Aber "Sch..., ich hab super HW, warum läuft Crysis so besch... auf "Sehr Hoch".? Das Game ist dochsch...!!!"
Merkt ihr was?
Sobald eine Software-Schmiede wie Crytek alles open-end hat wollen die Leute ALLES, ob die HW das kann oder nicht. Ein dummer Fehler.
Vor dem Release haben die Leute noch gelacht. nach dem Release nicht mehr.
Die Betatester wussten das aber schon. Die haben über die Ahnungslosen gelacht :D
Cpl. Dwayne Hicks
2008-06-06, 02:40:53
Crysis ist aber kein Maßstab. Erst dieses Jahr kommen Spiele heraus, welche die Far Cry Engine ausreizen und das nach Jahren. Es sieht so aus, als würde alle anderen Spiele gegen Crysis abstinken, nur weil sie nicht so "toll" aussehen. Von diesem Denken muss man erstmal weg.
Welche Spiele sind das? :smile:
Manche scheinen immer noch nicht verstanden zu haben, warum Crysis angeblich so "schlecht" läuft.
Mit wievielen Texturen arbeitet Crysis und wieviele andere Games :wink:
Crysis hat in einer Palme mehr Know How wie FC im ganzen Spiel (laut C.Y.)
Sobald eine Software-Schmiede wie Crytek alles open-end hat wollen die Leute ALLES, ob die HW das kann oder nicht. Ein dummer Fehler.
Vor dem Release haben die Leute noch gelacht. nach dem Release nicht mehr.
Die Betatester wussten das aber schon. Die haben über die Ahnungslosen gelacht :D
"Ein dummer Fehler" für mich nicht, ich find es gut und mutig von Crytek das sie die Messlatte immer höher legen, doch leider mußten/müssen sie dafür viel Prügel einstecken...leider:(
Welche Spiele sind das? :smile:
Würd mich auch interessieren =)
Snoopy69
2008-06-06, 04:46:46
Ich hab es nun geschafft einen ca. 200m hohen Turm aus Fässern zu basteln. Sicher weit über 3000.
Jedoch musste ich schnell feststellen, dass das Ganze arg CPU-limitierend ist. Selbst auf 800x600 OHNE AA hatte ich lediglich 10FPS!!!
Noch schlimmer war das Zusammenbrechen des Turms. Im 5-sek.-Takt sackte er Stück für Stück zusammen *holy shit* :eek:
Hab keine Ahnung mit was für Systemen in den Videos gearbeitet wurde. Ich glaube allerdings nicht, dass alle hunderte Frames zu einem Video zusammengebastelt haben.
Vielleicht liegt es aber auch nur am Unwissen meinerseits zur Sandbox 2.
Fahrzeuge, Flugzeuge, Waffen etc. einfügen und sie dann benutzen macht schon Riesenspass (der Heli fliegt sich geil).
Die 10fps unten links haben wie gesagt nichts zu sagen, da der Turm mit ca. 0,2fps zusammenbrach ;(
http://www.abload.de/thumb/hc_293y5a.jpg (http://www.abload.de/image.php?img=hc_293y5a.jpg)
Es gibt eine Option im Sandbox die mit fixen Timesteps Bilder ausgibt. Das läuft nicht Realtime.
Die gelbe Eule
2008-06-06, 04:53:49
Welche Spiele sind das? :smile:
Schau Dich einfach mal um was mehrfach verkauft wurde und was am meisten Spaß gemacht hat. Dabei ist es egal ob PC- oder Konsolentitel.
Ein Spiel muss in einer nativen Auflösung ordentlich laufen mit aktueller High End Hardware, daß war vor 8 Monaten nicht der Fall. Wie schon so oft gesagt, ich kaufe mir nicht für ein 50€ Spiel erstmal Hardware für 2.000€ damit es läuft. PS3, Wii oder XBOX360 kosten nur ein Bruchteil und die Spiele sind dahingehend optimiert das sie alle laufen müssen. Also dann 2xGTX280 damit es optisch genial spielbar wird, 1.300€ nur für VGA Karten, toll gemacht Crytek.
[dzp]Viper
2008-06-06, 05:07:41
Schau Dich einfach mal um was mehrfach verkauft wurde und was am meisten Spaß gemacht hat. Dabei ist es egal ob PC- oder Konsolentitel.
Ein Spiel muss in einer nativen Auflösung ordentlich laufen mit aktueller High End Hardware, daß war vor 8 Monaten nicht der Fall. Wie schon so oft gesagt, ich kaufe mir nicht für ein 50€ Spiel erstmal Hardware für 2.000€ damit es läuft. PS3, Wii oder XBOX360 kosten nur ein Bruchteil und die Spiele sind dahingehend optimiert das sie alle laufen müssen. Also dann 2xGTX280 damit es optisch genial spielbar wird, 1.300€ nur für VGA Karten, toll gemacht Crytek.
Immer diese absolut überzogene Übertreibung mit 2000€ Hardware um Crysis flüssig zum Release spielen zu können - muss das wirklich sein? :|
Die gelbe Eule
2008-06-06, 06:22:52
Klar kann man es flüssig spielen, nur mit welchen Einstellungen? Das ist nicht übertrieben, sondern eben Fakt mit einer hohen Auflösung, very high und AAx4 + AFx16.
Zum Release hat eine 8800GTX immernoch 460€ gekostet. In 1650x1080 schafft eine 8800Ultra nur 16fps, verbunden mit einem 4GHz Quad. Nimmt man zwei zur Hand, hat man vielleicht 25fps, unspielbar. Du kommst mit Display, CPU, Board, RAM und NT, sowie dem anderen Zeug drumherum locker auf 2.000€ Neupreis im Juni 2006.
Heute gut 1 Jahr später ist immernoch eine 8800Ultra die schnellste Karte mit AF und AA unter very high. Wer bitteschön wartet solange um das Spiel komplett auszureizen was Grafik angeht?
Man hat ganz einfach an der Hardware vorbeioptimiert. Mich würde interessieren was die überhaupt an HW gehabt haben, um so optimistisch an den Markt zu gehen.
http://www.abload.de/img/atreides1y9.png
hm, Optical-Audio-Out?
MuLuNGuS
2008-06-06, 07:58:31
was wollt ihr eigentlich immer mit diesem "kack"-Crysis, ist es das einzige spiel welches man mit dem GT200 spielen darf?
es gibt noch viel mehr anderer intererssante games die man in 1920x1200,4xAA,16xAF spielen möchte.
man kann es langsam nicht mehr sehen/lesen(ich versuch ja immer über den mist hinwegzulesen aber das klappt ja nicht immer *arg*)
Schlammsau
2008-06-06, 08:08:13
nunja.....Crysis ist das einzige Spiel was die Hardware wirklich Auslasten könnte.
Schau dir doch mal die neuesten Spiele an! Allesamt bis in hohe Auflösungen und hohem AA mit einer 9800GTX flüssig spielbar! Auflösungen von 25xx mal 1xxx lasse ich jetzt mal bewusst aussen vor, da sie mit Sicherheit nicht mal 1% der Spielerschaft nutzt! Das haben wir den Konsolenports zu verdanken, dass die Hardwareanforderungen fast schon "sinken"!
Ausnahme ist bis jetzt Crysis! Und allen Anschein nach wird es noch eine ganze Zeit lang so bleiben!
Mittlerweile stelle ich mir die Frage, brauchen wir so schnelle Hardware wie die GTX280 oder 4870X2 momentan?
Eigentlich sind mit einer 250€ Karte, 99% aller Spiele in fast allen Lebenslagen flüssig spielbar!
MuLuNGuS
2008-06-06, 08:12:42
ich kaufe mir doch keine GT200 nur für Crysis...
meine 8800GT ist für 1920x1200 + AA einfach zu langsam in den aktuellen titeln, es sei denn man spielt gerne @lowFPS
Schlammsau
2008-06-06, 08:14:51
ich kaufe mir doch keine GT200 nur für Crysis...
meine 8800GT ist für 1920x1200 + AA einfach zu langsam in den aktuellen titeln, es sei denn man spielt gerne @lowFPS
ja mit einer GT vielleicht.....aber wie siehts mit der 8800GTX bzw. der 9800GTX aus?
MuLuNGuS
2008-06-06, 08:17:36
keine ahnung,
jedenfalls werde ich nicht von einer 8800GT auf eine 9800GTX umsteigen, dat wäre ja voll der witz.
reserven soll die nächste karte haben, nicht nur für schrei-süß.
AnarchX
2008-06-06, 08:22:46
GT200 mit Tesselator?
Next-Generation Hardware Rendering of Displaced Subdivision Surfaces
9:00 – 10:00 am, Wednesday, August 13, Room 405
Ignacio Castaño, NVIDIA Corporation
In this talk we will provide an overview of the next-generation tessellation pipeline and its motivation. Our focus will be on one of the primary applications: rendering of displaced subdivision surfaces, which dramatically increases the realism of animated characters. We will also show how to adapt your production pipelines in order to create compelling content that takes advantage of this innovative rendering model.
Adaptive Terrain Tessellation on the GPU
10:45 – 11:15 am, Wednesday, August 13, Room 405
Iain Cantlay, NVIDIA Corporation
Next-generation techniques implement highly-programmable tessellation entirely on the GPU. We explain how tessellation can be applied to terrain rendering with displacement mapping. Our tessellation scheme is adaptive, with the polygon LOD varying as a function of terrain roughness and also with view-dependent silhouette
http://developer.nvidia.com/object/siggraph-2008.html
Warum sollte Nvidia eine tessaltions einheit einbauen?Wenn die greift,greift die dann auch bei der X2900 XT?
AnarchX
2008-06-06, 09:15:31
Bei B3D ist man wohl der Meinung, dass sich da auf D3D11-HW und somit nicht GT200 bezieht, wobei mir das etwas seltsam vor kommt, da die API vielleicht erstmal in 18 Monaten auftauchen wird und man jetzt schon ausführliche Beispiele präsentieren will? :|
Jedenfalls brauch es für die D3D-Nutzung des Tesselators auf auf Pre-D3D11 einen API-Hack, der wohl zwischen ATi und NV nicht unbedingt kompitabel sein würde.
edit:
Oder es handelt sich um eine SW-basierende Lösung:
http://developer.download.nvidia.com/presentations/2008/GDC/Inst_Tess_Compatible.pdf
... wobei doch das Next-Generation und die hardwarenähe in den Ankündigungen zu sehr betont wird.:|
Nightspider
2008-06-06, 10:04:46
http://www.abload.de/img/atreides1y9.png
hm, Optical-Audio-Out?
Hö ? Die Blende ist jetzt aber neu oder von der 9800GX2 oder ? O_o
Die bisherigen G200 Bilder zeigten die Karte nur mit 2 DVI Ausgängen und einem Breiten Luftaulass über den ganzen 2. Slot...
Die warme Luft muss ja auch irgentwo raus, wenn das Ding so heiß wird...
Allerdings würde ich mich auch sehr sehr über HDMI und oder UDP freuen.
AnarchX
2008-06-06, 10:06:34
Das dürfte keine GTX 200 sein, wohl eher eine GF8/9, der Kühler sieht auch anders aus.
Und an ein Eigendesign wird sich wohl kein Partner jetzt schon herangetraut haben. ;)
GT200 mit Tesselator?
Der erste Vortrag bezieht sich auf DX11 und der zweite auf ihren letzten Vortrag mit adaptiver Tesselierung auf DX10 Hardware....
Nightspider
2008-06-06, 10:14:04
Das dürfte keine GTX 200 sein, wohl eher eine GF8/9, der Kühler sieht auch anders aus.
Und an ein Eigendesign wird sich wohl kein Partner jetzt schon herangetraut haben. ;)
Wer weiß ;)
Schließlich scheinen die Teile schon einige Monate früher bei den Boardpartnern zu liegen als noch der G80 oder frühere Chips.
Falls die Ausbeute wirdklich nicht so gut war müsste NV ja schon bisschen länger bunkern um genügend zum Start verfügbar zu haben.
Zudem wollte NV ja auch erst noch die 9800 GX2 loswerden und 9800 GTX Karten auf den Markt schmeißen.
Was mich allerdings insgesamt wundert: Wenn NV selber wusste, das der GTX280 schon im Juni kommt, warum hat man dann ~2-3 Monate vorher die 9800 GX2 gebaut ?
Als ""Training"" für die nächsten Multichip-Generationen ?
Ich hätts ja verstanden, wenn der G(t)200 erst im 3. Quartal erschienen wäre oder gar im 4. aber im Juni und dann so kurz vorher ne 9800 GX2 ... ich weiß ja nicht :|
dargo
2008-06-06, 10:38:32
Ich hab es nun geschafft einen ca. 200m hohen Turm aus Fässern zu basteln. Sicher weit über 3000.
Jedoch musste ich schnell feststellen, dass das Ganze arg CPU-limitierend ist. Selbst auf 800x600 OHNE AA hatte ich lediglich 10FPS!!!
Noch schlimmer war das Zusammenbrechen des Turms. Im 5-sek.-Takt sackte er Stück für Stück zusammen *holy shit* :eek:
Hab keine Ahnung mit was für Systemen in den Videos gearbeitet wurde. Ich glaube allerdings nicht, dass alle hunderte Frames zu einem Video zusammengebastelt haben.
Vielleicht liegt es aber auch nur am Unwissen meinerseits zur Sandbox 2.
Fahrzeuge, Flugzeuge, Waffen etc. einfügen und sie dann benutzen macht schon Riesenspass (der Heli fliegt sich geil).
Die 10fps unten links haben wie gesagt nichts zu sagen, da der Turm mit ca. 0,2fps zusammenbrach ;(
http://www.abload.de/thumb/hc_293y5a.jpg (http://www.abload.de/image.php?img=hc_293y5a.jpg)
Ach, du dachtest wirklich das wäre Realtime. :tongue:
Was glaubst du warum es solche Spielereien in Games noch nicht gibt. Ohne Unterstützung seitens GPU und/oder PPU sehe ich in dieser Hinsicht leider für die Zukunft auch schwarz. Die Steigerung der CPU-Leistung geht für solche Physikspielereien vieeel zu langsam voran.
Eggcake
2008-06-06, 10:41:23
Da steht doch in der Youtube-Description, dass es Frame-by-Frame gerendert wurde!
AnarchX
2008-06-06, 10:51:34
Mal wieder zum Thema zurückkommen. Crysis-Videos können auch im entsprechenden Unterforum diskutiert werden.
Hot in the city... http://www.hartware.de/news_44955.html
Man ich will Benches sehn...
Adam D.
2008-06-06, 11:15:15
Naja, ist klar, dass eine Karte mit 'ner TDP von 250W heiß unter Last wird. Besonders weil ich denke, dass der Lüfter nicht allzu laut sein wird. Durch den Idle-Modus ist das ganze aber IMO halb so wild.
James Ryan
2008-06-06, 11:17:55
Fudo ist doch echt ein Sp****r!
Er konnte seinen Finger "keine 3-4 Sekunden auf der Karte halten. Die Temperatur soll mehr als 70°C betragen haben."
Na, das will ich aber mal sehen, wie jemand 70°C am Finger für 3-4 Sekunden aushält.
MfG :cool:
w0mbat
2008-06-06, 11:20:05
@James Ryan: Fudo ist ein ganz normaler Mensch der eben geschätzt hat. Ich hasse es wenn man über Menschen herzieht die man kein bisschen kennt. Du kannst doch einfach schreiben dass du es nicht glaubst, das reicht doch -.-
Schlammsau
2008-06-06, 11:22:15
http://www.hartware.de/news_44955.html
280GTX und ein TDP von 150 Watt??????
What the Fuck.......Schreibfehler?
War nicht mal von über 200 Watt die rede?
dildo4u
2008-06-06, 11:22:20
Mal wieder eine Non News von Fudo eine High-End Karte wird warm.:rolleyes:
Es wurden schon in der Steinzeit mit Athlon Thunderbird's Eier gebraten.
Die gelbe Eule
2008-06-06, 11:23:03
Ich bin gegen Hitze fast schmerzunempfindlich, kann schon sein das er 3-4 Sekunden aushält.
Adam D.
2008-06-06, 11:25:19
Afaik ~240W TDP. Die ham sich einfach nur vertan :D
Die gelbe Eule
2008-06-06, 11:31:58
Wer weiß ;)
Schließlich scheinen die Teile schon einige Monate früher bei den Boardpartnern zu liegen als noch der G80 oder frühere Chips.
Das ist eine Gainward 9600GT, sieht man am Design (rot/schwarz, Lüfter zentriert). In Asien gibt es schon einige mit Displayport, HDMI, SPDIF und Dual DVI gleichzeitig.
James Ryan
2008-06-06, 11:36:41
@James Ryan: Fudo ist ein ganz normaler Mensch der eben geschätzt hat. Ich hasse es wenn man über Menschen herzieht die man kein bisschen kennt. Du kannst doch einfach schreiben dass du es nicht glaubst, das reicht doch -.-
Fudo basht NVIDIA bei quasi jeder Gelegenheit, ist doch bekannt.
Dann hält er seinen Finger auf die Karte und verbrennt sich fast... ohje, der Ärmste. Direkt wird die News daraus gemacht, dass die neue NVIDIA-Karte super heiß wird.
Also bitte... :rolleyes:
MfG :cool:
w0mbat
2008-06-06, 11:55:25
Fudo basht Nvidia nicht, er hat eben den Finger drauf gehalten und es wahr wohl sehr heiß. Wenns dich nicht interessiert lese es nicht!
http://www.abload.de/img/000795820li2.jpg (http://www.abload.de/image.php?img=000795820li2.jpg)
Bei mir rennt Crysis 1A :ulol:
mictasm
2008-06-06, 12:32:02
Auf dem Winzmonitor auch kein Wunder ;)
Fudo basht Nvidia nicht, er hat eben den Finger drauf gehalten und es wahr wohl sehr heiß. Wenns dich nicht interessiert lese es nicht!
Naja, man kann da schon von selektiver Wahrnehmung sprechen. Dass Fudo und Nvidia nicht die besten Freunde sind merkt man an der Auswahl der News.
Anarchy-HWLUXX
2008-06-06, 12:37:49
Dafür postet der Banelsten Kack als news :
- High End Karten werden Heiss !!!!! Öm, ja - das ist schon seit der GF FX Serie so.
Aktuell :
- NUR 3-way SLI für GTX2** !!! Kein Quad möglich. Äh, ja is klar - auf was für nem Board sollte denn Quad mit Singlekarten gehn ... und wieviele Spinner würden auch die 4 Stück kaufen.
Auf dem Winzmonitor auch kein Wunder ;)
Seit wann sind 24" klein ?
http://www.abload.de/img/000795820li2.jpg (http://www.abload.de/image.php?img=000795820li2.jpg)
Bei mir rennt Crysis 1A :ulol:
Warum postest Du nicht lieber mal ein paar Benches, anstatt nur anzugeben? ;)
dildo4u
2008-06-06, 12:49:48
Warum postest Du nicht lieber mal ein paar Benches, anstatt nur anzugeben? ;)
Er hat das Bild auch nur aus dem Netz,ist ein "Hinterzimmer"(Hotel) Meeting von Gainward im Rahmen der Computex Messe in Taiwan.Dort waren whol auch nur Presseleute zugelassen.
Fudo basht NVIDIA bei quasi jeder Gelegenheit, ist doch bekannt.
Dann hält er seinen Finger auf die Karte und verbrennt sich fast... ohje, der Ärmste. Direkt wird die News daraus gemacht, dass die neue NVIDIA-Karte super heiß wird.
Also bitte... :rolleyes:
MfG :cool:Er ist unparteiisch, was die "tollen" News von wegen Hitze angeht: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7701&Itemid=65 Zusammenfassung: HD 4850 schafft blabla vantage-marks UND ist heiss. Fudo hat sie betatscht ;)
James Ryan
2008-06-06, 13:22:35
Trotzdem: Mit dem Finger auf die Karte tatschen und daraus dann schließen, dass die Karte "extrem" heiß wird, ist doch Blödsinn.
Hätte er ein Thermometer dran gehalten, ok, aber so ist das doch nur subjektiv.
Und da wir wissen, wie Fudo tickt (auch wenn das von gewissen Usern selbstverständlich ausgeblendet wird), sind solche News einfach sinnlos.
MfG :cool:
tja und über diesen blödsinn wird hier seitenlang diskutiert:)
MuLuNGuS
2008-06-06, 14:03:21
was reg ihr euch über diese banale aussage auf:
If you are concerned, don’t be, as it works stable and it is not that much hotter than Geforce 9800 GX2 with its two GPUs.
viel unsinniger ist seine behauptung das es sich einfach nur um 2x G92 handelt was ja wohl nicht der fall ist:
At the end of the day, this chip is almost two times G92 placed in the same packaging with a funky 512-bit memory controller.
Darum ging's mir nicht. Crysis läuft ja in den allerhöchsten Einstellungen mit Top-Karten gerade mal in 1024x768 ohne AA akzeptabel.
und? crysis ist wenigstens ein spiel, dass man in 2 jahren mit der neuen hardware gerne nochmal durchspielen und genießen kann, im gegensatz zu manch anderen 0815-zeugs welches man 1x durchspielt und danach nie wieder anfasst.
erinnert mich an die guten alten zeiten, wie bei Jeff Crammonds Grand Prix. das konnte man anfangs auch nur mit ein paar wenigen autos halbwegs spielen und es brauchte einige generationen an hardware bis es auf maximalen details ordentlich lief.
ich wäre froh wenn es mehrere spiele wie crysis geben würde, die man bereits heute kaufen kann und in einigen jahren noch immer nicht zum alten eisen gehören. wie gerne hätte ich ein spiel welches schon 2 oder gar 4GiB an texturen bietet. klar würde das jede heutige grafikkarte überfordern, aber in ein paar jahren werden wir entsprechende hardware haben.
wenn man heute ein altes spiel nochmal durchspielt kann man bestenfalls die auflösung und AA/AF erhöhen, das wars schon. (wobei es zumindest bei auflösung und AA durchauc schon mal probleme gibt)
aber wahrscheinlich ist das ja so gewünscht, schließlich sind die verwendeten kopierschutzmechanismen in zukunft mit neuen betriebssystemen garnicht mehr einsetzbar, also dürfen wir garkeine spiele veröffentlichen die man gerne nochmal spielen würde, sonst würde das ja auffallen.
Also dann 2xGTX280 damit es optisch genial spielbar wird, 1.300€ nur für VGA Karten, toll gemacht Crytek.
wieviel wäre crysis besser wenn man es von haus aus auf high details oder weniger begrenzt hätte?
richtig, kein stück, nur würde es dann in den "höchsten einstellungen" auf highend-hardware gut laufen.
ein spiel wird nicht besser, wenn man die maximal mögliche qualität beschneidet, nur damit es auf heutiger hardware gut läuft.
Snoopy69
2008-06-06, 14:20:07
http://www.abload.de/img/000795820li2.jpg (http://www.abload.de/image.php?img=000795820li2.jpg)
Bei mir rennt Crysis 1A :ulol:
Glaubt ihr allen Ernstes, dass das hier "Gast" gehört?
Oder besagt die NDA auch, dass man keine Pics mit dem Karton der GTX280 machen darf?
Die Temperatur war übrigens zu erwarten...
Mir isses egal, weil Wakü draufkommt.
wieviel wäre crysis besser wenn man es von haus aus auf high details oder weniger begrenzt hätte?
richtig, kein stück, nur würde es dann in den "höchsten einstellungen" auf highend-hardware gut laufen.
ein spiel wird nicht besser, wenn man die maximal mögliche qualität beschneidet, nur damit es auf heutiger hardware gut läuft.
übertreib mal nicht als ob bei very high die grafik so toll ist im gegensatz zu high, das ist nicht mal der rede wert.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.