PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist der technologische Rückstand von nVidia noch aufzuholen?


Tigerchen
2009-10-25, 14:46:13
Schon seit einiger Zeit hat nVidia ja den Anschluß bei der 3D Beschleunigung verloren. Das wird zwar geschickt getarnt durch ewige Verweise auf CUDA. Aber das sind nur Nebelbomben. Denn Physik ist ja eine Sache die eher nebensächlich ist. Ob jetzt ein paar Explosionstrümmer mehr physikalisch durch die Luft fliegen ist nun wirklich nicht relevant.
Relevant ist aber daß nVidia die technologische Entwicklung im 3D Spielebereich nachhaltig bremst. Die schaffen es ja gerade mal ein paar LowCost Beschleuniger zu bauen die zumindest auf dem Papier mit DX 10.1 klar kommen. Und bei DX 11 hängen sie eine ganze Grafikkartengeneration zurück. Wenn da die ersten Beschleuniger vielleicht mal kommen ist ATI/AMD schon bei der NextGeneration Technologie.
Das heißt dauerhaft niedrigerer Umsatz in der 3D Grafiksparte. Wird der Gesamtumsatz dann noch reichen um die Entwicklung von 3D Beschleunigern zu finanzieren. Oder kommt der endgültige Niedergang?

Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?

janky
2009-10-25, 14:52:26
Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?


Ich denke nicht, dass wir derzeit eine vergleichbare Situation haben. Der Unterschied von SM2.0 zu SM3.0 war meines Erachtens nach deutlich größer und bedeutender als jetzt mit DX10/DX11, vor allem wenn man bedenkt, dass es noch nicht mal eine Handvoll native DX10-Spiele gibt.
Bremsender Faktor sind hier leider die Konsolen, da Spiele für mehrere Systeme entwickelt werden und nicht wie noch zu SM2.0/SM3.0-Zeiten, als PC-only-Spiele einen großen Anteil ausgemacht haben und den Konsolengames teils (technisch) meilenweit voraus waren.
Außerdem kommt GT300 doch in spätestens 3 Monaten. Fakt ist, dass DX11 zum jetzigen Zeitpunkt ATI überhaupt nichts bringt.

Nightspider
2009-10-25, 14:57:50
[x] vote close Thread
[x] vote ban Tigerchen

Gast
2009-10-25, 14:58:55
Tigerchen, von was schreibst du?

AMD hat zuerst D3D11 Modelle gezeigt. Schön und gut, das nennst du gleich Rückschritt, der nie aufgeholt wird?
Ich erinner mal, mit der 8800 GTX hatte Nvidia ein halbes Jahr als einzige D3D10 Modelle.
Wie lächerlich ist das den bitte.

Nvidia macht gerade ihre neue Mittelklasse startklar und du schreibst vom Weltuntergang.

lilgefo~
2009-10-25, 15:02:08
Irgendjemand muss ja die erste Karte mit neuer Technologie bringen und das war eigentlich immer relativ ausgeglichen im Moment hat halt ATI zuerst dx11 hardware geliefert.
Irgendwie sehe ich da nicht so recht den technischen Rückstand nvidias nur weil deren neue Karte erst ein bisschen später kommt. Ob mit Hilfe von physx nur ein paar mehr Explosionstrümmer durch die Luft fliegen und speziell ob das relevant ist ist offensichtlich sehr subjektiv denn ich z.B. finde Physik in Spielen extrem erfrischend und genug kanns davon schonmal gar nicht geben imho.
Ich würd das sogar als VOrteil für nvidia auslegen genau wie diese Cuda Geschichten wo ist da bitte ein technischer Rückstand wenn nvidias Karten nun für alle möglichen Sachen eingesetzt werden können die vorher mit Grafikkarten nicht beschleunigt werden konnten? Weil nvidia jetzt noch keine DX11 Karte auf dem Markt hat? Deine Meinung nach ist ja auch die fehlende Unterstützung von Dx10.1 beim High-End ein technischer Rückstand aber um dort mal eine ANalgoie zu r200 Zeiten zu ziehen: dx 8.1 war ganz offensichtlich auch kein echter technischer Rückstand. Dein Text liest sich so als ob nvidia seit Jahren kein konkurrenzfähiges Produkt abgeliefert hat und nun händeringend nach Lösungen sucht aber wenn man sich die aktuelle verfügbaren nvidia Karten anschaut ist davon nicht soviel zu erkennen.
Zumal Fermi im Moment nach allem aussieht nur nicht nach einer Notlösung eher andesrum das man sich vielleicht ein bisschen übernommen hat mit den Features. Aber das lässt sich mit Gewissheit erst dann klären wenn es die Karte auch tatsächlich zu kaufen gibt.

Gast
2009-10-25, 15:04:52
Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?
Mit einem Unterschied.
Erste Nvidia SM3 Karten gabs ab April 2004.
Erste ATI SM3 Karten gabs ab Oktober 2005. Noch im Januar 2007 hat ATI mit der X1050 ein SM2 Modell neu herrausgebracht.

Vergleichen wir mit heute:
Erste AMD SM5 Karte: September 2009
-> Erste Nvidia SM5 Karte: März 2011
-> Letzte Nvidia SM5 Karte: Kaum vorstellbar weit weg.

So jetzt erzähl mir mal ganz offen, ohne mit der Wimper zu zucken, das Fermi nicht zur Jahreswende kommt, sondern über 12 Monate später.

Cubitus
2009-10-25, 15:06:23
Das wird zwar geschickt getarnt durch ewige Verweise auf CUDA. Aber das sind nur Nebelbomben

Cuda wird immer mächtiger und wird gerade von nicht wenigen Dozenten und Schülern an Universitäten und FHs bevorzugt.

Gast
2009-10-25, 15:06:56
Denn Physik ist ja eine Sache die eher nebensächlich ist. Ob jetzt ein paar Explosionstrümmer mehr physikalisch durch die Luft fliegen ist nun wirklich nicht relevant.

also ich finde gute physik in einem spiel um ein vielfaches wichtiger als irgendwelches aa/af-rumgealber. willst du wirklich auf ewig mit den physikeffekten zufrieden sein, die so eine jämmerliche kleine cpu herbeirechnen kann?

Daredevil
2009-10-25, 15:09:49
Tigerchen? Du bist nicht zufällig im PoWi unter dem Namen "Premium" unterwegs, oder? :D

[x] pro Physik

Technologischer Rückstand... ist doch Unsinn.

deekey777
2009-10-25, 15:12:08
Cuda wird immer mächtiger und wird gerade von nicht wenigen Dozenten und Schülern an Universitäten und FHs bevorzugt.
Nvidia investiert auch extrem viel Geld in Bildung, das ist auch einer der Gründe, warum CUDA beliebt ist.

Gast
2009-10-25, 15:12:13
Tigerchen, können wir noch mit einer Antwort deinerseits rechnen?

Gast
2009-10-25, 15:13:04
Nvidia investiert auch extrem viel Geld in Bildung, das ist auch einer der Gründe, warum CUDA beliebt ist.
Sind Investitionen schlecht?

LovesuckZ
2009-10-25, 15:18:56
Haha, AMD hat seit einem Monat D3D11 Hardware auf dem Markt und hier wird vom Weltuntergang geredet. Das ist mal so richtig awesome.

Sind Investitionen schlecht?

Laut AMD - ja.

Gast
2009-10-25, 15:24:30
Schon seit einiger Zeit hat nVidia ja den Anschluß bei der 3D Beschleunigung verloren. Das wird zwar geschickt getarnt durch ewige Verweise auf CUDA. Aber das sind nur Nebelbomben. Denn Physik ist ja eine Sache die eher nebensächlich ist. Ob jetzt ein paar Explosionstrümmer mehr physikalisch durch die Luft fliegen ist nun wirklich nicht relevant.
Relevant ist aber daß nVidia die technologische Entwicklung im 3D Spielebereich nachhaltig bremst. Die schaffen es ja gerade mal ein paar LowCost Beschleuniger zu bauen die zumindest auf dem Papier mit DX 10.1 klar kommen. Und bei DX 11 hängen sie eine ganze Grafikkartengeneration zurück. Wenn da die ersten Beschleuniger vielleicht mal kommen ist ATI/AMD schon bei der NextGeneration Technologie.
Das heißt dauerhaft niedrigerer Umsatz in der 3D Grafiksparte. Wird der Gesamtumsatz dann noch reichen um die Entwicklung von 3D Beschleunigern zu finanzieren. Oder kommt der endgültige Niedergang?

Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?

lol

ich hab zwar selbst eine HD5870, aber auch mehrere GTX280 im anderen Rechner

nur den Blödsinn den Du da schreibst muss nicht nur ein NV Fanboy dumm finden..

Spasstiger
2009-10-25, 15:24:49
Nvidia ist technologisch sicherlich nicht hinterher, nur haben sie momentan ein Problem, ihre Technologien auf den Markt zu bringen. Eine kleine Durststrecke halt, aber das Potential, Marktführer bei dedizierten Grafikkarten zu bleiben, haben sie definitiv.

deekey777
2009-10-25, 15:25:17
Schon seit einiger Zeit hat nVidia ja den Anschluß bei der 3D Beschleunigung verloren.
Hm? Seit wann denn das? Die GTX285 ist immernoch eine der schnellsten Grafikkarten.
Das wird zwar geschickt getarnt durch ewige Verweise auf CUDA.
Zusammenhang? Beschleunigung <-> CUDA?

Aber das sind nur Nebelbomben.
Kann gut sein.
Denn Physik ist ja eine Sache die eher nebensächlich ist. Ob jetzt ein paar Explosionstrümmer mehr physikalisch durch die Luft fliegen ist nun wirklich nicht relevant.
Nein. Nvidia investiert Geld in einige Spiele, die PhysX über GPU nutzen. Nvidia verkauft Grafikkarten (bzw. deren Partner). Wenn das erste das zweite steigert, ist alles in Ordnung. Oder liegen dir irgendwelche Zahlen vor?

Relevant ist aber daß nVidia die technologische Entwicklung im 3D Spielebereich nachhaltig bremst.
Wie denn das?
Die schaffen es ja gerade mal ein paar LowCost Beschleuniger zu bauen die zumindest auf dem Papier mit DX 10.1 klar kommen.
Das, was sie nicht können, gleichen sie über die Treiber aus.
Und bei DX 11 hängen sie eine ganze Grafikkartengeneration zurück.
Und weiter? Hast du in Nvidia investiert?
Wenn da die ersten Beschleuniger vielleicht mal kommen ist ATI/AMD schon bei der NextGeneration Technologie.
Ist etwa DX12 schon angekündigt? Wenn Nvidia Fermi veröffentlicht, wird es entweder eine X2 geben oder höchstens einen Refresh (sehr unwahrscheinlich).
Das heißt dauerhaft niedrigerer Umsatz in der 3D Grafiksparte. Wird der Gesamtumsatz dann noch reichen um die Entwicklung von 3D Beschleunigern zu finanzieren. Oder kommt der endgültige Niedergang?
Nochmal: Geht es dir um die wirtschaftlichen Aspekte (da ist der technologische Rückstand irrelevant) oder um die technologischen Aspekte (da sind die wirtschafltichen Hintergründe irrelevant).
Fermi ist fertig.

Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?
Dass SC3 zunächst mit SM 1 und SM 3 kam, hast du immer nochn nicht ganz verdaut.

Eine Antwort von dir werde ich wohl nicht sehen, denn es ist immer das Gleiche bei dir: Ich will nur flamen.

Sind Investitionen schlecht?
Habe ich was in diese Richtung angedeutet? Soweit ich weiß, gab es nur Lob von mir.

Raff
2009-10-25, 15:29:51
Die Untergangspropheten haben wieder Zunder bekommen, wie schön. =)

Wer schon etwas länger dabei ist, der weiß, dass der ganze Technologie-Schnickschnack nie von allen großen Herstellern gleichzeitig adaptiert wurde. Gut, zur Jahrtausendwende musste ein ganz Großer gehen, weil er die Checklistenfreaks bitter enttäuschte ... doch das ist eine Ausnahme, die noch vielen anderen Faktoren finanzieller Sorte erlag.

Geforce 3: SM1.1, Frühling 2001
Radeon 8500: SM1.4, etwas später (OMG, Nvidia wird sterben!)
Geforce 4: SM1.3, Frühling 2002 (Nvidia stirbt noch mehr!)
Radeon 9700: SM2.0, Herbst 2002 (Nvidia stirbt noch viel mehr!)
Geforce FX: SM2.0, Anfang 2002 (FX lahm => Nvidia stirbt jetzt erst recht)
Radeon X800: nur SM2.0"b", 2004 (Starb Ati?)
Geforce 6: SM3.0, 2004 (Starb Ati jetzt?)
...

Jetzt habe ich keine Lust mehr. Kurz: Ati führt auf dem Papier – und? Was ist daran nun im Vergleich mit der Vergangenheit anders?

MfG,
Raff

_DrillSarge]I[
2009-10-25, 15:51:01
fermi kommt doch noch - oder hab ich was verpasst? :ugly:

Botcruscher
2009-10-25, 15:52:35
6 Monate sind unproblematisch und eher der Normalfall.

Tesseract
2009-10-25, 16:07:22
Denn Physik ist ja eine Sache die eher nebensächlich ist.

das ist schlicht und ergreifend falsch. die größten mängel heutiger 3d-engines sind in den meisten fällen schlechte animationen und schlechte physik.
ohne diese faktoren bringt dir auch ein noch so hoher modeldetailgrad und noch so viel postfilterung/bloom/etc.-mist nichts. es wirkt einfach nicht stimmig.

abgesehen davon sind eher ati diejenigen, die seit jahren mit "nebelbomben" werfen. alles was sich gut auf checklisten macht wird gehypt ohne ende, alles andere unter den tisch gekehrt.
texturen flimmern seit jahren, dass einem die augen bluten? egal, hauptsache man hypt irgendwelche AA-modi, die gegenüber einem EER von 4x4 kaum noch relevante vorteile bringen.

sry, aber ich sehe das genau anders rum. nvidia ist seit jahren der innovationstreiber im bereich 3d-beschleunugung. vor allem aus API-sicht.
das was ati gut kann ist vor allem leuten listenfeatures andrehen.

Coda
2009-10-25, 16:15:40
Die schaffen es ja gerade mal ein paar LowCost Beschleuniger zu bauen die zumindest auf dem Papier mit DX 10.1 klar kommen.
Schon G80 konnte alle Features von 10.1 außer Gather4. Und du solltest nicht Stuss über Dinge schreiben von denen du offensichtlich keine Ahnung hast. Wie so oft.

Was GPGPU angeht führen sie das Feld eh seit Jahren an.

sry, aber ich sehe das genau anders rum. nvidia ist seit jahren der innovationstreiber im bereich 3d-beschleunugung. vor allem aus API-sicht.
das was ati gut kann ist vor allem leuten listenfeatures andrehen.
Ack.

Avalox
2009-10-25, 16:30:45
Schon seit einiger Zeit hat nVidia ja den Anschluß bei der 3D Beschleunigung verloren.

nVidia geht einen anderen Weg, muss einen anderen Weg gehen. Das hat nichts mit technischen Anschluss zu tun.

Vor einiger Zeit hat Intel der Fa. nVidia den Krieg erklärt.

Da die Zukunft im PC eine immer engere Verbundelung von CPU und GPU bestimmt, muss nVidia ein Äquivalent für die CPU Seite mit designen und integrieren. Inkl. der Strategie diese am Markt zu platzieren.

Das braucht AMD nicht in dieser Form, denn sie haben schon ein entsprechendes KnowHow, entsprechende Lizenzen und einen entsprechenden Marktzugang.
Deshalb kann sich AMD bei der GPU auf Kernfunktionalitäten konzentrieren und damit nun Punkten.
nVidia muss mehr machen, obwohl heute dieses mehr nicht beim Kunden Vorteile bedeutet und sich damit auch nicht rechnen kann. Denn auf der anderen Seite sitzt Intel und macht von dieser Seite Druck, welcher in Zukunft noch ungeheuer zunehmen wird.

Nein, die Position von nVidia ist nicht glücklich und eine Balanceakt.

Auf der einen Seite der absolut generalistische Ansatz von Intel und auf der anderen Seite der spezialisierte Ansatz von AMD, welcher ja von AMD auch absolut ausgenutzt wird.

nVidia ist in diesen Mühlsteinen mittendrin. Sehr unkomfortabel. Das wird Spuren bei den nVidia Produkten hinterlassen. Zweifelsohne.

Fetza
2009-10-25, 16:36:06
Schon seit einiger Zeit hat nVidia ja den Anschluß bei der 3D Beschleunigung verloren. Das wird zwar geschickt getarnt durch ewige Verweise auf CUDA. Aber das sind nur Nebelbomben. Denn Physik ist ja eine Sache die eher nebensächlich ist. Ob jetzt ein paar Explosionstrümmer mehr physikalisch durch die Luft fliegen ist nun wirklich nicht relevant.
Relevant ist aber daß nVidia die technologische Entwicklung im 3D Spielebereich nachhaltig bremst. Die schaffen es ja gerade mal ein paar LowCost Beschleuniger zu bauen die zumindest auf dem Papier mit DX 10.1 klar kommen. Und bei DX 11 hängen sie eine ganze Grafikkartengeneration zurück. Wenn da die ersten Beschleuniger vielleicht mal kommen ist ATI/AMD schon bei der NextGeneration Technologie.
Das heißt dauerhaft niedrigerer Umsatz in der 3D Grafiksparte. Wird der Gesamtumsatz dann noch reichen um die Entwicklung von 3D Beschleunigern zu finanzieren. Oder kommt der endgültige Niedergang?

Es tut mir wirklich leid, aber solche trollthreads werfen kein gutes bild auf den Threadersteller...


Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?

Man muss ja nicht mit derselben trollmentalität und schlechten polemik antworten.

Gast
2009-10-25, 16:41:45
Als ATI "nur" Shader Modell 2 Grafikkarten anbot war nV ja schon bei SM 3.0. Und es gab einen Riesenaufstand von "Gurus" wie aths und Lovesuckz". Wo bleibt die Entrüstung gegenüber nVidia von diesen Herren. Oder ist der Techlevel jetzt plötzlich nicht mehr wichtig?

Schwacher Versuch. Damals waren's zwei parallele Generationen. Du hättest einen Punkt, wenn Fermi kein DX11 beherrschen würde.

Gast
2009-10-25, 16:41:51
sry, aber ich sehe das genau anders rum. nvidia ist seit jahren der innovationstreiber im bereich 3d-beschleunugung. vor allem aus API-sicht.
das was ati gut kann ist vor allem leuten listenfeatures andrehen.

Was haben sie denn in den letzten Jahren gemacht?

Gouvernator
2009-10-25, 16:50:11
Bei NV sehe ich eigentlich zu viel technologischen Fortschritt. Die Versuchen die Sache so umzubiegen das aus ihren Geforcen eine multifunktionale CPU-GPU wird. Sie machen das so verbissen um draus einen internationalen Standard zu machen das ihnen gewöhnliche Dinge schon zu gewöhnlich erscheinen. Wäre alles prima nur das die meisten Vorteile dieser Bemühungen an den Spielern vorbei gehen und wandern direkt zu Brillenschlangen in die Unis.

Gast
2009-10-25, 16:50:44
Was haben sie denn in den letzten Jahren gemacht?
DX10, GPGPU, OpenCL, Bullet-Physik :ugly:

Gast
2009-10-25, 16:57:06
DX10, GPGPU, OpenCL, Bullet-Physik :ugly:
:ugly:

Tesseract
2009-10-25, 16:58:39
Was haben sie denn in den letzten Jahren gemacht?

z.B. viel aufwand in die unterstützung von entwicklern oder universitäten gesteckt. viel aufwand in innovative APIs wie cuda (und andere) gesteckt. viel aufwand in standardkonformität, plattformunaghängigkeit gesteckt.
viel aufwand in die richtung brauchbares multi-GPU gesteckt usw.

LovesuckZ
2009-10-25, 17:00:11
Bei NV sehe ich eigentlich zu viel technologischen Fortschritt. Die Versuchen die Sache so umzubiegen das aus ihren Geforcen eine multifunktionale CPU-GPU wird. Sie machen das so verbissen um draus einen internationalen Standard zu machen das ihnen gewöhnliche Dinge schon zu gewöhnlich erscheinen. Wäre alles prima nur das die meisten Vorteile dieser Bemühungen an den Spielern vorbei gehen und wandern direkt zu Brillenschlangen in die Unis.

Stimmt - aus diesem Grund sah sich Microsoft und Apple genötigt eine API zu entwicklen, die Aufgaben übernimmt, die nVidia 3 Jahre vorher abgedeckt hat. ;D

Jonny1983
2009-10-25, 17:45:58
Von welchem technologische Rückstand sprichst du hier?

Also die neuen ATI GPUs sind nicht gerade gut verfügbar.
Und in 2-3 Monaten ist Fermi draußen und wird in jeder Disziplin führen(außer evtl. im Preis.) Dann wird ATI mit einer HD5890 kontern und wir sehen einen Gleichstand.

Aber welche technologische Führung soll ATI noch inne haben sobald die Fermi draußen ist???

Schlammsau
2009-10-25, 17:56:35
Ich versuche es mal neutral zu sehen....Technologisch im Sinne des DX-Techlevels, kann man schon von einem Rückstand sprechen, der aber spätestens mit Fermi wieder eingeholt wird.
nVidia ist auf den 10.1 Zug nicht aufgesprungen, war ihre Entscheidung, und ich denke sie mussten dafür Federn lassen. Die .1 Karten die jetzt releast wurden, sind mMn nicht erwähnenswert und nur Kundenfang. Fermi wird DX11 beherschen und mit an Sicherheit grenzender Wahrscheinlichkeit (deutlich) schneller sein als Cypress, nicht Hemlock!, aber auch seinen Preis haben.

ATi hat jetzt einen Vorsprung, im Techlevel und im P/L-Verhältniss, dass darf man nicht unterschätzen und hat ATi bitter bitter nötig gehabt, wird aber nVidia nicht das Genick brechen.

y33H@
2009-10-25, 18:09:11
Was hat man denn bisher verpasst, wenn man eine GTX200 ohne DX10.1 genutzt? Abgesehen von ein paar Fps in einer Handvoll Spiele eigentlich nichts außer der besseren Alpha-Test-Glättung in Clear Sky. Oder wie siehst du das?

Schlammsau
2009-10-25, 18:14:02
Was hat man denn bisher verpasst, wenn man eine GTX200 ohne DX10.1 genutzt? Abgesehen von ein paar Fps in einer Handvoll Spiele eigentlich nichts außer der besseren Alpha-Test-Glättung in Clear Sky. Oder wie siehst du das?
Was hat man bisher verpasst, wenn man keine PhysX-Beschleunigung über eine nVidia Karte nutzt? Richtig, es sind nur ein paar zusätzliche Gimmicks, die ein Spiel dadurch nicht besser machen.
Ist genauso wie bei .1!

y33H@
2009-10-25, 18:16:47
Einiges an Effekt-Physik. Die sieht man im Gegensatz zu mehr Fps auch meistens ;D Das war aber nicht die Antwort auf meine Frage. Also, was hat man bisher ohne DX10.1 verpasst?

LovesuckZ
2009-10-25, 18:19:19
Einiges an Effekt-Physik. Die sieht man im Gegensatz zu mehr Fps auch meistens ;D Das war aber nicht die Antwort auf meine Frage. Also, was hat man bisher ohne DX10.1 verpasst?

Na, den technologischen Fortschritt. ;D

Schlammsau
2009-10-25, 18:19:48
Einiges an Effekt-Physik. Die sieht man im Gegensatz zu mehr Fps auch meistens ;D Das war aber nicht die Antwort auf meine Frage. Also, was hat man bisher ohne DX10.1 verpasst?

Sorry aber bis auf die zusätzlichen Effekte in ME, und dafür würde ich mir sogar eine nVidia zusätzlich ins Gehäuse bauen, sind die PhysX-Effekte mMn masslos übertrieben und hässlich!

Was hat man verpasst....hmmm, eine bessere Performance vielleicht, die in der einen oder anderen Situation ein Game spielbar gemacht hat.

y33H@
2009-10-25, 18:20:33
@ LovesuckZ

Fps sind technologischer Fortschritt? Tja, dann ist NV dank der GTX295 ja immer noch am fortschrittlichsten ;)

@ Schlammsau

Immer noch nicht auf meine Frage geantwortet :rolleyes: Dein subjektiver Eindruck zählt nicht, ich kann auch sagen HW-Tesselation sieht schei0e aus.

Tigerchen
2009-10-25, 18:21:02
Die Untergangspropheten haben wieder Zunder bekommen, wie schön. =)

Wer schon etwas länger dabei ist, der weiß, dass der ganze Technologie-Schnickschnack nie von allen großen Herstellern gleichzeitig adaptiert wurde. Gut, zur Jahrtausendwende musste ein ganz Großer gehen, weil er die Checklistenfreaks bitter enttäuschte ... doch das ist eine Ausnahme, die noch vielen anderen Faktoren finanzieller Sorte erlag.

Geforce 3: SM1.1, Frühling 2001
Radeon 8500: SM1.4, etwas später (OMG, Nvidia wird sterben!)
Geforce 4: SM1.3, Frühling 2002 (Nvidia stirbt noch mehr!)
Radeon 9700: SM2.0, Herbst 2002 (Nvidia stirbt noch viel mehr!)
Geforce FX: SM2.0, Anfang 2002 (FX lahm => Nvidia stirbt jetzt erst recht)
Radeon X800: nur SM2.0"b", 2004 (Starb Ati?)
Geforce 6: SM3.0, 2004 (Starb Ati jetzt?)
...

Jetzt habe ich keine Lust mehr. Kurz: Ati führt auf dem Papier – und? Was ist daran nun im Vergleich mit der Vergangenheit anders?

MfG,
Raff
War ja auch nicht so ganz ernst gemeint. Die Wortwahl war ja auch entsprechend. Gnadenlos übertrieben halt. Ich war ja nie ein Freund von Checklistfeatures. Allerdings erinnere ich mich noch ganz gut als eine nVidia FX5200 über den grünen Klee gelobt wurde nur weil der Techlevel stimmte. Tatsächlich nutzbar waren die features nie da die Karten viel zu schwach waren. Interessierte aber keine Sau. All jene die da im Chor mit einstimmtem und voll des Lobes waren über die immens wichtigen features der FX5200 wiegeln jetzt natürlich ab. Alles nicht so wichtig.;D
Ob man sich noch dran erinnert wenn nVidia mal wieder die Nase vorn hat? Ich denke nicht.

Gast
2009-10-25, 18:21:49
Was hat man denn bisher verpasst, wenn man eine GTX200 ohne DX10.1 genutzt? Abgesehen von ein paar Fps in einer Handvoll Spiele eigentlich nichts außer der besseren Alpha-Test-Glättung in Clear Sky. Oder wie siehst du das?

Naja, mit GPGPU hat man bis jetzt auch nicht allzuviel anfangen können (zumindest im Heimsektor).
Solange es nur einer der großen Hansen unterstützt ist ein Feature hinfällig. Deshalb kann man hier von keinem echten Rückstand sprechen.

Jedoch bezogen auf das DX-Level ist NV faktisch rückständig, das darf man nicht unter den Teppich kehren.
Schlimm ist es aber bis jetzt nicht, wer unbedingt NV mit DX11 will der muss eben etwas warten und alle anderen können auch zu AMD greifen.

Mal so nebenbei GPGPU wurde von NV und AMD relativ zeitgleich angekündigt und mit Stream bietet AMD auch eine Lösung. Das diese im Gamingbereich nicht genutzt wird liegt daran, dass AMD keine eigene Physik-Engine hat die sie exklusiv pushen konnten.
Bei Videobearbeitungsprogs. wird derweil etwas für beide Lösungen geliefert und an Bulletphysik beteiligt sich AMD mittlerweile auch.

y33H@
2009-10-25, 18:23:25
Bis zum Launch von Fermi gibts wahrscheinlich zwei DX11-Titel: Battleforge mit mehr Fps und gleicher Optik, und Dirt 2 mit mehr Optik und weniger Fps (als DX10). Zumindest bei letzteren denke ich, ärgere ich mich schon.

Schlammsau
2009-10-25, 18:26:55
@ Schlammsau

Immer noch nicht auf meine Frage geantwortet :rolleyes: Dein subjektiver Eindruck zählt nicht, ich kann auch sagen HW-Tesselation sieht schei0e aus.

Was hat man verpasst....hmmm, eine bessere Performance vielleicht, die in der einen oder anderen grenzwertigen Situation ein Game spielbar gemacht hat.

Das ist nur meine persönliche Meinung, dass sie dich nicht interessiert, interessiert mich reichlich wenig.

LovesuckZ
2009-10-25, 18:28:46
War ja auch nicht so ganz ernst gemeint. Die Wortwahl war ja auch entsprechend. Gnadenlos übertrieben halt. Ich war ja nie ein Freund von Checklistfeatures. Allerdings erinnere ich mich noch ganz gut als eine nVidia FX5200 über den grünen Klee gelobt wurde nur weil der Techlevel stimmte. Tatsächlich nutzbar waren die features nie da die Karten viel zu schwach waren. Interessierte aber keine Sau. All jene die da im Chor mit einstimmtem und voll des Lobes waren über die immens wichtigen features der FX5200 wiegeln jetzt natürlich ab. Alles nicht so wichtig.;D
Ob man sich noch dran erinnert wenn nVidia mal wieder die Nase vorn hat? Ich denke nicht.

Dir ist schon bewusst - ich frage besser mal nach - das AMD gerade mal seit einem Monat D3D11 Hardware auf dem Markt hat und im Gegensatz zur 5200 und NV4x Generation veralterte Technik als direkte Konkurrenz auf den Markt gebracht hat? Nein? Gut, dann weißt du es jetzt. :rolleyes:

y33H@
2009-10-25, 18:34:28
@ Schlammsau

Also man hatte nur mehr Fps. Grandios. Vor allem wenn man sich DX10.1-Titel wie FC2 oder HAWX anschaut, in denen eine HD4890 trotz DX10.1 nicht an einer GTX275 oder gar GTX260 (!) vorbeikommt. DX10.1 ist schön und gut, aber der Hit war bzw. ist es nicht.
Das ist nur meine persönliche Meinung, dass sie dich nicht interessiert, interessiert mich reichlich wenig. Das hatte mit meiner Frage nichts zu tun. Du bist mir ausgewichen und hast angefangen über PhysX zu blubbern :rolleyes

Schlammsau
2009-10-25, 18:39:17
@ Schlammsau

Also man hatte nur mehr Fps. Grandios. Vor allem wenn man sich DX10.1-Titel wie FC2 oder HAWX anschaut, in denen eine HD4890 trotz DX10.1 nicht an einer GTX275 oder gar GTX260 (!) vorbeikommt. DX10.1 ist schön und gut, aber der Hit war bzw. ist es nicht.
Das hatte mit meiner Frage nichts zu tun. Du bist mir ausgewichen und hast angefangen über PhysX zu blubbern :rolleyes

Hab ich jemals geschrieben das es der Hit ist? Wenn aber nVidia mitgezogen hätte, wären mit Sicherheit mehr Spiele mit .1 gekommen. Crysis zB, was ja ziemlich stark von nVidia gesponsert wurde, hätte evtl nen Upgrade bekommen. Gerade bei diesem Spiel, was ja Grakas zum Frühstück frisst, hätten 5% mehr Frames unglaublich gut gestanden. Die Physik ist ja schon mehr als ausreichend gewesen.
PhysX ist auch nur ein nettes Gimmick, mehr noch nicht!

y33H@
2009-10-25, 18:41:53
Ach so, es braucht NV, damit DX10.1 was wird? ;D NV hat SM3.0 ohne ATi verbreitet ...

Schlammsau
2009-10-25, 18:46:11
Ach so, es braucht NV, damit DX10.1 was wird? ;D NV hat SM3.0 ohne ATi verbreitet ...

Ähm ja, wie hoch war nochmal der Marktanteil von DX10 fähigen nVidia Grakas zum Zeitpunkt der Einführung von .1? 70 oder 80%?

LovesuckZ
2009-10-25, 18:49:19
Ach so, es braucht NV, damit DX10.1 was wird? ;D NV hat SM3.0 ohne ATi verbreitet ...

Natürlich - seit wann können wir von AMD Dev-Support verlangen? Das ist Aufgabe von nVidia!

Black-Scorpion
2009-10-25, 19:00:49
Genauso wie von dir kein Mensch erwarten kann einen dämlichen Beitrag ohne Bezug zu AMD oder ATI zu schreiben.
Und veraltete Technik zur GF4?
Von was träumst du Nachts?
GF1 bis 4 war ein Aufguss nach dem anderen.
Nur soviel geändert das man es als Neu verkaufen konnte.
Für PS1,4 hat es selbst da nicht gereicht.

LovesuckZ
2009-10-25, 19:03:12
Genauso wie von dir kein Mensch erwarten kann einen dämlichen Beitrag ohne Bezug zu AMD oder ATI zu schreiben.
Und veraltete Technik zur GF4?
Von was träumst du Nachts?
GF1 bis 4 war ein Aufguss nach dem anderen.
Nur soviel geändert das man es als Neu verkaufen konnte.
Für PS1,4 hat es selbst da nicht gereicht.

Komisch, niemand schreibt hier etwas über die Geforce 4 Karten. ;D

Black-Scorpion
2009-10-25, 19:08:22
Das nächste mal zitiere ich deinen Beitrag bevor du ihn ändern kannst und jetzt einen auf Klugscheißer machst.
Aber du wirst schon bestreiten es geändert zu haben.

Kennwort
2009-10-25, 19:09:34
Fanboyism?(!)

LovesuckZ
2009-10-25, 19:11:33
Das nächste mal zitiere ich deinen Beitrag bevor du ihn ändern kannst und jetzt einen auf Klugscheißer machst.
Aber du wirst schon bestreiten es geändert zu haben.

Tut mir leid, aber in deinem aktuellen Paranoia-Modus hast du wohl leicht übersehen, dass der angebliche Beitrag von mir nicht editiert wurde.
Aber vielleicht klappts beim nächsten Flameposting besser - ich drück die Daumen. :)

Black-Scorpion
2009-10-25, 19:23:14
Und wenn du glaubst ich bin blöde hast du dich geschnitten.
Das geändert von kommt erst bei 'Änderungen nach einer Minute.
Innerhalb der ersten Minute kannst du den Beitrag ohne Hinweis editieren so oft du willst.
Also kannst du andere für Blöd verkaufen aber nicht mich.

'edit
Test'

y33H@
2009-10-25, 19:28:14
EDIT
1min ;(

|-Sh0r7y-|
2009-10-25, 19:28:54
Fermi ist nicht mehr weit weg, ATI Fans machen sich schon in die Hose;D
Los ein paar Monate habt ihr noch und könnt euren halben Paperlunch noch Prisen.
Vielleicht bekommt ja jeder ATI nerd eine 5xxx bis Fermi released wurde ^^

So drollig ^^

ROXY
2009-10-25, 19:29:05
cuda ist genial und sicherlich einer der wichtigsten + punkte für NV neben ION.
die normalen 0815 gamer karten für kinder interessieren doch niemanden.
da ist mal ATI mal NV vorne >> unterm strich also gleichauf.

Gast
2009-10-25, 19:35:53
War ja auch nicht so ganz ernst gemeint. Die Wortwahl war ja auch entsprechend. Gnadenlos übertrieben halt. Ich war ja nie ein Freund von Checklistfeatures. Allerdings erinnere ich mich noch ganz gut als eine nVidia FX5200 über den grünen Klee gelobt wurde nur weil der Techlevel stimmte. Tatsächlich nutzbar waren die features nie da die Karten viel zu schwach waren. Interessierte aber keine Sau. All jene die da im Chor mit einstimmtem und voll des Lobes waren über die immens wichtigen features der FX5200 wiegeln jetzt natürlich ab. Alles nicht so wichtig.;D
Ob man sich noch dran erinnert wenn nVidia mal wieder die Nase vorn hat? Ich denke nicht.
Lies, bevor du antwortest.
Mit einem Unterschied.
Erste Nvidia SM3 Karten gabs ab April 2004.
Erste ATI SM3 Karten gabs ab Oktober 2005. Noch im Januar 2007 hat ATI mit der X1050 ein SM2 Modell neu herrausgebracht.

Vergleichen wir mit heute:
Erste AMD SM5 Karte: September 2009
-> Erste Nvidia SM5 Karte: März 2011
-> Letzte Nvidia SM5 Karte: Kaum vorstellbar weit weg.

So jetzt erzähl mir mal ganz offen, ohne mit der Wimper zu zucken, das Fermi nicht zur Jahreswende kommt, sondern über 12 Monate später.

Leonidas
2009-10-25, 20:53:33
Ich sehe das Problem weniger beim TechLevel, sondern vielmehr das nVidia mit den eigenen konkurrenzfähigen Angeboten einfach im Rückstand ist und das 3 bis 6 Monate in diesem Markt viel Zeit ist. Ob DX10 oder DX11 spielt nicht die wirkliche Rolle, sondern eher die Frage, aus welcher TechGeneration die aktuell lieferbaren nVidia-Produkte stammen und mit welcher Fertigungstechnologie diese hergestellt werden. Und da liegt NV klar zurück und wird durch den Launch von HD 5200/5400 Serie noch weiter in Rückstand gelangen.

Gast
2009-10-25, 21:46:41
Was soll denn das Geschrei hier? Ein Hersteller ist nunmal der erste, nachdem Nvidia dies bei D3D10 mit dem G80 war, ist es jetzt eben Ati mit dem RV870. Nachdem ich mit der HD4850 zum erstenmal die teilweise nervigen Treiber von Ati erleben durfte warte ich gerne etwas länger, um mir ein Bild vom Fermi zu machen. Sollten Preise vom Fermi nicht deutlich höher ausfallen als die der entsprechenden Ati-Produkte, werde ich wieder eine NV ins Gehäuse pflanzen.

Es ist nämlich sehr frustrierend wenn man seinem "Konsolero"-Arbeitskollegen die neuesten Spiel am PC zeigen möchte, und diese mit ruckeln, Grafikbugs oder CTD nerven. Solche Leute werden dann nur in ihrer Meinung bestärkt, die Konsolen seien das bessere Gerät zum spielen von Videogames. Und ja ich weiß, Ati bringt schonmal einen Hotfix-Treiber raus, nur dauert das und dann machen oft wieder andere Games Probleme.

=Floi=
2009-10-25, 21:54:16
selbst DX10 ist so gut wie nicht verbreitet und daran sind einzig und alleine die konsolen schuld.

Gast
2009-10-25, 22:10:23
selbst DX10 ist so gut wie nicht verbreitet und daran sind einzig und alleine die konsolen schuld.

Nein, daran ist einzig und allein M$ mit ihrer Vista-Zwangsbündelung Schuld.

Gast
2009-10-25, 22:11:34
Einiges an Effekt-Physik.

Mehr Effekt-Physik is verglichen mit wirklich Gameplay-relevanter Physik letztlich völlig uninteressant... aber die Chance darauf hat nV uns ja genommen... (Stichwort: Physix). Bleiben als Hoffnungsträger für echte, interessante "Physik" nur noch kommende Mehrkern-Prozessoren...

Coda
2009-10-25, 22:22:26
GF1 bis 4 war ein Aufguss nach dem anderen.
Err nein. GeForce 2 und 4 waren Refreshes, aber zwischen 1 und 3 ist schon ein ganz schöner Unterschied gewesen.

Nein, daran ist einzig und allein M$ mit ihrer Vista-Zwangsbündelung Schuld.
Die musste leider sein.

Es wäre ja auch kein Problem gewesen wenn Vista Erfolg gehabt hätte.

Gast
2009-10-25, 22:44:47
Mehr Effekt-Physik is verglichen mit wirklich Gameplay-relevanter Physik letztlich völlig uninteressant... aber die Chance darauf hat nV uns ja genommen... (Stichwort: Physix). Bleiben als Hoffnungsträger für echte, interessante "Physik" nur noch kommende Mehrkern-Prozessoren...Ob Effektphysk oder Effektgrafik, was machts für einen Unterschied.

Du findest beides scheisse, ich finde beides gut.

Auf Gameplay relevante Physik warte ich schon lange, aber nachdem hier Crysis seine Möglichkeiten nicht im Ansatz genutzt hat, habe ich auch das aufgegeben.

(del)
2009-10-25, 23:10:01
das ist schlicht und ergreifend falsch. die größten mängel heutiger 3d-engines sind in den meisten fällen schlechte animationen und schlechte physik.
ohne diese faktoren bringt dir auch ein noch so hoher modeldetailgrad und noch so viel postfilterung/bloom/etc.-mist nichts. es wirkt einfach nicht stimmig.Wie kann man sich an PhysX aufgeilen, wenn die meisten Spiele bis heute diesbezüglich den Stand von HL2 kaum erreichen konnten?
Was da ist wird sowieso kaum genutzt, es sei denn NV fliegt für paar Blockbuster ihre Techniker durch die Gegend.

Havok nicht, PhysX auch nicht so wirklich... So stell ich mir das aber nicht vor, meine Herren.

pest
2009-10-25, 23:34:12
hört doch bitte auf über sowas zu diskutieren inkl. der üblichen chronoligischen ihv-featurediskussionen
ich habe trotz geringem zeitumfangs das innerliche bedürfniss mir diesen schwachsinn auch noch durchzulesen :freak:

][immy
2009-10-25, 23:42:40
öhm.. muss man diesen thread verstehen?

nun, nvidia hat dx 10.1 mehr oder minder sabotiert. und? haben sie schon mit directx 8.1 gemacht. hat irgendein hersteller großartig dirctx 8.1 eingesetzt.. nö
wird dirctx 10.1 großartig eingesetzt, nö

zudem, es wird vermutlich höchstens ein halbes jahr zwischen nvidia und ati liegen, bis nvidia ihre directx 11 beschleuniger auf den markt bringen. war aber auch schon immer so. wäre auch irgendwie seltsam wenn beide hersteller immer zeitgleich launchen würden.

mit der FX-serie sind sie zwar damals ein wenig in bedrängnis geraten, aber über OEMs hat sich die karte trotzdem abgesetzt wie sonst noch was (man schaue sich mal den erfolg der FX 5200 an). letztendlich wird sich der markt aber immer wieder zwischen nvidia und ati hin und herschwappen (wobei nvidia es meistens trotzdem noch schafft spitzenreiter zu bleiben (z.B. durch die wirklich kleinen karten wie damals die FX 5200)

und selbst wenn sich herausstellen sollte das die GT300 ein neues FX-debakel wird, wird nvidia das wegstecken können. die kleinen karten mit denen das geld geamcht wird könnten lahm ohne ende sein (was sie ja meistens auch sind), aber allein der name nvidia ist in dem marktsegment gold wert.
high-end ist halt nach wie vor prestige und nur aus marketinggründen lohnenswert (um verträge mit OEM-Partnern zu schließen etc).

(del)
2009-10-25, 23:51:13
[immy;7619362']und selbst wenn sich herausstellen sollte das die GT300 ein neues FX-debakel wird, wird nvidia das wegstecken können. die kleinen karten mit denen das geld geamcht wird könnten lahm ohne ende sein (was sie ja meistens auch sind), aber allein der name nvidia ist in dem marktsegment gold wert.Gerade im Middle und Lowcost macht sich ATI imho wunderbar auf dem Markt. Und nur da ist wirklich Geld zu machen. Sowas kannte ich bisher nur von AMD...
http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/

Die Boliden interessieren doch nur 10 Leute pro 1 Mio. Einwohner ;) Nur was das jetzt wieder soll weiß ich auch nicht...
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/geruecht_nvidia-partner_high-end/

Nightspider
2009-10-25, 23:59:18
hört doch bitte auf über sowas zu diskutieren inkl. der üblichen chronoligischen ihv-featurediskussionen
ich habe trotz geringem zeitumfangs das innerliche bedürfniss mir diesen schwachsinn auch noch durchzulesen :freak:

Das Problem kenn ich irgendwie. :freak:

Da fragt man sich echt warum der Thread noch nicht geclosed wurde...


Aber das macht unser schönes 3DC aus...hier verteidigt jeder seine Meinung bis aufs Blut. :biggrin:

Die einen argumentieren sich zu tode und die anderen, wie ich, sind schon so gelangweilt das sie ihren Senf gar nicht mehr dazu geben ;D

_DrillSarge]I[
2009-10-26, 00:03:58
Das Problem kenn ich irgendwie. :freak:

Da fragt man sich echt warum der Thread noch nicht geclosed wurde...
nix closed. verschoben!

this thread has been moved to:
http://www.semiaccurate.com/forums/

LovesuckZ
2009-10-26, 00:04:21
Gerade im Middle und Lowcost macht sich ATI imho wunderbar auf dem Markt. Und nur da ist wirklich Geld zu machen. Sowas kannte ich bisher nur von AMD...
http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/


Da hat jemand die Wirtschaftskrise verschlafen. :D
Im 2.Quartal hätte nVidia sogar wieder Gewinn erwirtschaftet - wenn sie nicht so schlampig mit ihren Produktionsmaterialien umgegangen wären.

pest
2009-10-26, 00:04:29
Die einen argumentieren sich zu tode und die anderen, wie ich, sind schon so gelangweilt das sie ihren Senf gar nicht mehr dazu geben ;D

nein nein, du bist nur so intelligent zu erkennen, das es absolut keinen, nein wirklich keinen unterschied macht, ob du deine meinung zum besten gibst, oder nicht

-edit-

(del)
2009-10-26, 00:07:12
Da hat jemand die Wirtschaftskrise verschlafen. :DJa ok, aber meinst du jetzt mich
Im 2.Quartal hätte nVidia sogar wieder Gewinn erwirtschaftet - wenn sie nicht so schlampig mit ihren Produktionsmaterialien umgegangen wären.oder NV? ;)

LovesuckZ
2009-10-26, 00:09:28
Ja ok, aber meinst du jetzt mich

Dich und


oder NV? ;)

nVidia. :D

Nightspider
2009-10-26, 00:14:59
nein nein, du bist nur so intelligent zu erkennen, das es absolut keinen, nein wirklich keinen unterschied macht, ob du deine meinung zum besten gibst, oder nicht

-edit-

allerdings nicht intelligent genug zu interpretieren, ob dies negativ oder als kompliment aufzufassen ist :ulol:

IeSeBeNull
2009-10-26, 00:22:12
Hallo zusammen,

nvidia ist sicher alles andere als am Ende! Aber sie sind ins Hintertreffen geraten, das muss man zugeben. Die neue Strategie von ATI halte ich persönlich für das erfolgsversprechendere Konzept! ATI entwickelt einen starken Performancechip mit kleiner Fläche und kann so auf gleicher Basis auch die Low-Cost- und Midrangemärkte mit einem Chipdesign abdecken und die Kosten sehr niedrig halten. Diesen entscheidenden Schritt hin zur Produktionseffektivität hat nvidia klar verschlafen. Hier wird noch immer ein auf High-End getrimmter Riesenchip konzipiert, welcher zwar auch klar schneller sein dürfte als der ATI Chip, jedoch ist hier wenig Geld zu verdienen und Prestige ist auch nicht alles.

Außerdem kann ATI hier mit einer Dual-Chip-Version wieder Boden gut machen. Für nvidia wird es bei großem Chip und damit verbundener hoher Verlustleistung extrem schwierig eine Dual-Chip-Version zu bringen, was ATI sogar die Leistungskrone bescheren könnte.

Zu PhysX muss ich sagen, dass gelungene Physikanimationen und auch Bewegungsabläufe ein Spiel sehr aufwerten können (siehe Call Of Duty 4 oder auf der PS3 auch Killzone 2). Bei diesen Spielen ist die Grafik gut, aber das packende Spielerlebnis kommt durch die realistischen Bewegungsabläufe zu Stande. Auch zerstörbare Umwelten (Physikberechnungen) mit hohem Realitätsgrad sind für kommende Titel ein absolutes muss.

Die Verbreitung von DirectX 10 spielen hat Microsoft ordentlich vermasselt durch die Zwangsbündelung an Microsoft Vista und dessen Flop!

Ich denke nicht, dass DirectX 11 der große Wurf wird, jedoch habe ich die Hoffnung, dass Windows 7 sich stärker verbreiten wird und somit auch DirectX 11. Das kommt sicher den kommenden Spieletiteln dann zu gute.

Auf lange Sicht muss Microsoft jedoch mit DirectX eine Schnittstelle schaffen, die auch aufwendige Physikberechnungen per API auf allen Grafikkarten (ATI, nvidia, (Intel)...) unterstützt. Erst dann wird die Physikberechnung flächendeckend von den Spieleherstellern unterstützt werden und nicht, wenn jeder Hersteller sein eigenes Süppchen kocht! Das wäre nicht wirtschaftlich.

Die Wirtschaftlichkeit ist es auch, die uns in letzter Zeit die, meiner Meinung nach, grauenvoll aussehenden Spieletitel beschert hat. Verglichen mit Crysis hat die Spieleindustrie mit allen nachfolgenden Titeln einen Schritt zurück gemacht (rein grafisch). Diese zwanghafte Multi-Plattform-Programmiererei um einen möglichst großen Markt bedienen zu können lässt die Spielequalität stagnieren, was wiederum auf die Hardwarehersteller im PC-Bereich zurückfällt, da hier das Kaufargument für neue High-End-Hardware immer weiter zurückgeht, da diese nicht mehr gebraucht wird. Zudem helfen die Multi-Plattform-Spiele keinem, da diese auch auf den Konsolen schrecklich aussehen. Auch hier kann man nur noch auf Exklusivtitel zurückgreifen, da der Einheitsbrei schlecht aussieht.

In diesem Feld sehe ich für ATI, nvidia und auch Intel (als Prozessorhersteller, der seine i5 und i7 Reihe an den Mann bringen will) Handlungsbedarf. Diese Firmen müssen Exklusivtitelgenerierungen für den PC finanziell fördern um die Hardwareanforderungen wieder steigen zu lassen und somit ihre Umsätze. Wenn wir ehrlich sind schimpfen wir zwar ab und zu über den Zwang immer nachrüsten zu müssen und Konsolis (bin auch einer, spiele aber trotzdem lieber am PC, jedoch sind Titel wie Metal Gear Solid 4, Killzone 2 und Uncharted 2 ein Muss für mich) zeigen hier gerne mit dem Finger, aber es ist doch genau das, was den PC so interessant macht. Da ne neue Grafikkarte, hier ein neuer Prozessor und mehr Arbeitsspeicher und dann in einem Grafikkracher schauen, für was man sein Geld investiert hat. hmmm, ein Genuss!

Gruß
IeSeBeNull

Lawmachine79
2009-10-26, 00:52:00
Ach Leutchen...man muss kein professioneller Marktbeobachter sein, um das in diesem Thread genannte "Phänomen" als normal abzukanzeln. Mal hat der eine die Nase vorn, mal der andere - "Wettbewerb" nennt sich das auch. Es gab eine R300-Dominanz, dann gab es einer NV40-Dominanz gefolgt von einer Kopf-an-Kopf-Phase auf die dann eine R5xx-Dominanz folgte. Dann dominierte sehr lange G8x/G9x und mit HD4xxx hat ATI aufgeschlossen und es folgte eine Kopf-an-Kopf-Phase. Jetzt hat ATI die Nase vorn - sie haben eben die neue GPU-Generation früher gelauncht - irgendwer muss sie ja zuerst launchen, schließlich sind ATI und NV keine Synchronschwimmer. Bei CPUs ist es übrigens ähnlich, nur sind die Dominanz-Intervalle des jeweiligen Herstellers da deutlich länger weil auch die Produktzyklen deutlich länger sind. So haben wir seit 2006 eine Intel-Dominanz und von 2003 bis 2006 gab es eine AMD-Dominanz.
Fairerweise muss man aber sagen, daß die Phasen, in denen ATI und AMD nicht dominieren, sie viel über den Preis wieder wegmachen. Intel und NV verlangen immer mehr Geld für ihre Produkte - egal ob die Produkte im Moment überlegen sind oder nicht. Das sieht man jetzt an NVidias Preispolitik, sie sind im Moment ja wirklich nicht konkurrenzfähig - was aber nichts macht, da ATIs Produkte derzeit eh fast nur auf Papier erhältlich sind - die Karten sind ewig gelaunched und NICHTS ist lieferbar. Und man entsinnt sich auch noch, als der P4 doppelt so teuer und halb so schnell war im Vergleich zum A64.

Gast
2009-10-26, 11:08:31
[immy;7619362'] haben sie schon mit directx 8.1 gemacht. hat irgendein hersteller großartig dirctx 8.1 eingesetzt.

Und dann haben sie mit der FX-serie DX8.1/SM1.4 wiederbelebt ;)

Nazar
2009-10-26, 12:35:50
Cuda wird immer mächtiger und wird gerade von nicht wenigen Dozenten und Schülern an Universitäten und FHs bevorzugt.

Es geht doch um die 3D Beschleunigung oder was hast Du da nun falsch verstanden? ;)
Was juckt mich als Spieler CUDA?

also ich finde gute physik in einem spiel um ein vielfaches wichtiger als irgendwelches aa/af-rumgealber. willst du wirklich auf ewig mit den physikeffekten zufrieden sein, die so eine jämmerliche kleine cpu herbeirechnen kann?

Ich stimme Dir ein wenig zu aber wo sind die wegweisenden Änderungen durch PhysX? Für das bisher gebotene, reichen "popelige" QuadCores auch aus. Bisher hat PhysX nichts am spielgeschehen geändert und wird es auch nicht solange nV den einsamen Ritter in dieser Beziehung spielt!

Ich versuche es mal neutral zu sehen....Technologisch im Sinne des DX-Techlevels, kann man schon von einem Rückstand sprechen, der aber spätestens mit Fermi wieder eingeholt wird.
nVidia ist auf den 10.1 Zug nicht aufgesprungen, war ihre Entscheidung, und ich denke sie mussten dafür Federn lassen. Die .1 Karten die jetzt releast wurden, sind mMn nicht erwähnenswert und nur Kundenfang. Fermi wird DX11 beherschen und mit an Sicherheit grenzender Wahrscheinlichkeit (deutlich) schneller sein als Cypress, nicht Hemlock!, aber auch seinen Preis haben.

ATi hat jetzt einen Vorsprung, im Techlevel und im P/L-Verhältniss, dass darf man nicht unterschätzen und hat ATi bitter bitter nötig gehabt, wird aber nVidia nicht das Genick brechen.

Wahre Worte! Sehe ich ähnlich!

Fermi ist nicht mehr weit weg, ATI Fans machen sich schon in die Hose;D
Los ein paar Monate habt ihr noch und könnt euren halben Paperlunch noch Prisen.
Vielleicht bekommt ja jeder ATI nerd eine 5xxx bis Fermi released wurde ^^

So drollig ^^

Da bleibt nur eines zu sagen: "Autsch"!

Raff
2009-10-26, 12:36:25
PhysX basiert auf CUDA.

MfG,
Raff

Nazar
2009-10-26, 12:57:06
Was soll denn das Geschrei hier? Ein Hersteller ist nunmal der erste, nachdem Nvidia dies bei D3D10 mit dem G80 war, ist es jetzt eben Ati mit dem RV870. Nachdem ich mit der HD4850 zum erstenmal die teilweise nervigen Treiber von Ati erleben durfte warte ich gerne etwas länger, um mir ein Bild vom Fermi zu machen. Sollten Preise vom Fermi nicht deutlich höher ausfallen als die der entsprechenden Ati-Produkte, werde ich wieder eine NV ins Gehäuse pflanzen.

Es ist nämlich sehr frustrierend wenn man seinem "Konsolero"-Arbeitskollegen die neuesten Spiel am PC zeigen möchte, und diese mit ruckeln, Grafikbugs oder CTD nerven. Solche Leute werden dann nur in ihrer Meinung bestärkt, die Konsolen seien das bessere Gerät zum spielen von Videogames. Und ja ich weiß, Ati bringt schonmal einen Hotfix-Treiber raus, nur dauert das und dann machen oft wieder andere Games Probleme.

Sorry aber das ist doch pures Gebashe!

Das viele Konsolenportierungen nicht sauber laufen, liegt doch zu 99,9% an den mangelbhafteten Portierungen!
Das dann ATI UND nV dann Anpassungen vornehmen liegt nicht an deren Verschulden, sondern sind ein Dreingabe für die Käufer ihrer Karten.
Viele Hotfixes wären gar nicht nötig, wenn diese Portierungen vernünftig gemacht würden!
Das ATI nun meist später als nV diese Probleme fixed, kann man dann ATI ankreiden, denn da ist nV meist wirklich schneller, weil sie enger mit den Entwicklern zusammenarbeiten und der Fix schon im Spiel drin ist.
Trotz allem, ist es leider ein unnötiger Bash von Dir!
Ich hatte von der TNT bis 8800GTX alle NV beschleuniger und kann dir sagen, dass auch nV nur mit Wasser kocht, zumindest was die Treiber betrifft und ohne die privaten Leute, die den nHancher auf die Beine gestellt haben, würden so manche nV Jünger, öfter als ihne lieb ist, das Kotzen bekommen!

Nazar
2009-10-26, 13:11:46
PhysX basiert auf CUDA.

MfG,
Raff

Aber meine Frage/Aussage bleibt bestehen!
Was juckt mich als Spieler CUDA/PhysX?
PhysX hat und wird, wenn nV da weiter einen auf einsamen Reiter macht, keine große Relevanz im Spielebereich haben.
Um PhysX attraktiv zu machen, muss man es frei zugänglich für alle Hersteller von 3D Beschleunigern machen oder aber die Spieleentwickler vom Nutzen dieser Technologie überzeugen. Beides ist bisher nicht erfolgt, weshalb PhysX ein Monster hinter Gittern bleiben wird!

Fliegende Taschentücher sind für viele Spieler kein Grund PhysX als die neue Physikrevolution anzusehen. Noch ärgerlicher ist es da schon, dass es ATI Besitzern "bei Strafe" (man kauft einen nV Karte für PhysX und darf die Technik nicht benutzen) verboten wird mit einer nV Karte PhysX zu benutzen.
Das spricht nicht gerade davon, dass nV großes Interesse hat diese Technologie zu verbreiten. Ich würde da sogar von einem stark eingeschränkten Horizont sprechen ;)

Raff
2009-10-26, 13:24:11
Das Problem ist, dass die meisten Leute einen Tunnelblick inklusive Scheuklappen haben. Worin besteht für den gemeinen Spieler zwischen DX11 und PhysX der Unterschied? DX11 dient aktuell entweder der Leistungssteigerung oder man fügt zusätzliche Effekte hinzu: "Contact hardened shadows" (Stalker: Call of Pripyat) oder in DIRT 2 tolle Wasserspielchen. Und was macht PhysX? Im Grunde dasselbe. Das ist aber aus Prinzip böse, weil proprietär und von Nvidia, welche per se das Böse auf Erden sind.

MfG,
Raff

Gast
2009-10-26, 13:33:52
Worin besteht für den gemeinen Spieler zwischen DX11 und PhysX der Unterschied?

DX11 wird er _ganz sicher_ ohne Einschränkung bei der breiten Masse der Spiele sehen.

Proprietär ist Mist und böse, egal woher.

Gast
2009-10-26, 13:35:11
... und auch nutzen können. Überall.

Tesseract
2009-10-26, 13:40:39
Proprietär ist Mist und böse, egal woher.

hat eine gewisse ironie wenn du beim vergleich physx vs. DX11 dem physx vorwirst propietär zu sein. :freak:

Gast
2009-10-26, 13:45:20
Es ist zumindest unter Windows frei nutzbar. Und ja, ich würde auch brachbares OpenGL vorziehen. Aber die kommen ja nicht aus der Suppe.

Coda
2009-10-26, 14:00:30
Auf lange Sicht muss Microsoft jedoch mit DirectX eine Schnittstelle schaffen, die auch aufwendige Physikberechnungen per API auf allen Grafikkarten (ATI, nvidia, (Intel)...) unterstützt.
Nennt sich DirectX 11. Damit sind alle Voraussetzungen dafür erfüllt solche Berechnungen vereinheitlicht auf allen GPUs auszuführen.

Es ist nicht Microsofts Aufgabe eine Physik-Middleware anzubieten, zumal man damit die Spieleentwickler massiv einschränken würde.

Es ist zumindest unter Windows frei nutzbar. Und ja, ich würde auch brachbares OpenGL vorziehen. Aber die kommen ja nicht aus der Suppe.
Den Karren kann meiner Meinung nach nur noch ein sehr großer Apple-Marktanteil aus dem Dreck ziehen. Snow Leopard wird aber leider immer noch mit OpenGL-2.0-Treiber ausgeliefert.

Ich musste in letzter Zeit mal wieder damit arbeiten und ich muss sagen, es wird immer unspaßiger. Da stößt man immer wieder an Punkte an denen man nicht weiß was Legacy ist und was nicht und wie alte mit neuen Sachen interagieren. Zudem gibt's keinen frei verfügbaren Debugger, was gerade in Zeiten von extensivem Offscreen-Rendering ziemlich schlecht ist.

Demirug
2009-10-26, 14:41:41
Nennt sich DirectX 11. Damit sind alle Voraussetzungen dafür erfüllt solche Berechnungen vereinheitlicht auf allen GPUs auszuführen.

Es ist nicht Microsofts Aufgabe eine Physik-Middleware anzubieten, zumal man damit die Spieleentwickler massiv einschränken würde.

Ja, ein “Direct Physics” ist dementsprechend auch nicht geplant. Man will wohl aber vermehrt Standard GPGPU Komponenten als Teil von D3DX zur Verfügung stellen. Da könnten dann durchaus Physik Grundelemente dabei sein.

Den Karren kann meiner Meinung nach nur noch ein sehr großer Apple-Marktanteil aus dem Dreck ziehen. Snow Leopard wird aber leider immer noch mit OpenGL-2.0-Treiber ausgeliefert.

Apple OGL ist ungleich Windows/Linux OGL. Und ich fürchte die Schere geht hier eher noch weiter auf als das sie sich schließt. Und selbst nvidia spricht in den OpenGL Präsentationen inzwischen davon wie man OpenGL dazu bringt sich wie Direct3D zu verhalten.

LovesuckZ
2009-10-26, 14:53:34
hat eine gewisse ironie wenn du beim vergleich physx vs. DX11 dem physx vorwirst propietär zu sein. :freak:

Na, was hat er eigentlich von D3D11? Er wird bestimmt auch kein Windows benutzen. ;D

Ja, ein “Direct Physics” ist dementsprechend auch nicht geplant. Man will wohl aber vermehrt Standard GPGPU Komponenten als Teil von D3DX zur Verfügung stellen. Da könnten dann durchaus Physik Grundelemente dabei sein.


Was soll ein "Direct Physics" eigentlich sein? Hat man mit DC nicht schon aller Möglichkeiten solche Berechnungen über die GPU laufen zu lassen? DC und Cuda unterscheiden sich doch bestimmt nicht so stark voneinander, dass es die selben "PhysX-Berechnungen" nicht über DC laufen würden.

Ganon
2009-10-26, 15:01:25
Was soll ein "Direct Physics" eigentlich sein?

Eine imaginäre Physik-Engine von MS, so wie PhysX, Havok, etc... direkt in DirectX eingebaut.

Demirug
2009-10-26, 15:03:39
Was soll ein "Direct Physics" eigentlich sein? Hat man mit DC nicht schon aller Möglichkeiten solche Berechnungen über die GPU laufen zu lassen? DC und Cuda unterscheiden sich doch bestimmt nicht so stark voneinander, dass es die selben "PhysX-Berechnungen" nicht über DC laufen würden.

Direct Physics wäre so etwas wie PhysX gewesen. Die Überlegungen dazu stammen aber noch aus den Zeiten als PhysX noch ein eigner Chip war. Also für Chips die eben nicht über Direct3D und damit auch nicht über DirectCompute angesprochen werden können.

Gast
2009-10-26, 15:40:30
Immerhin lässt sich mit CS jede Physik-API mit GPGPU-Unterstützung austatten.

Ganon
2009-10-26, 15:42:26
Da Physik-Engines meist Crossplattform sind (bzw. sein wollen), würde sich hier OpenCL (siehe Bullet) eher anbieten, denke ich.

Coda
2009-10-26, 15:57:09
OpenCL fällt weg, weil es unter Windows nicht herstellerunabhängig ist was das API-Interface angeht. Die verbauen sich gerade den Weg sehr effektiv irgendwann eine größere Rolle zu spielen.

Ganon
2009-10-26, 16:41:57
OpenCL fällt weg, weil es unter Windows nicht herstellerunabhängig ist was das API-Interface angeht. Die verbauen sich gerade den Weg sehr effektiv irgendwann eine größere Rolle zu spielen.

Nunja, es soll ja noch kommen (?). Vllt. einigen die sich ja noch ;) Ansonsten würden sich die Physik-Engines sich den Weg verbauen, plattformunabhängig zu sein, was sie ja bisher waren. Auch im Bezug auf zukünfigte Konsolen, Handhelds (iPhone, etc.) usw.

Bei Bullet ist es eh ein "wir nutzen alles" ;) CPU, CUDA (von Nvidia), OpenCL (von ATI) und CS (afaik)... wobei die letzten 3 ja alles das Gleiche sind nur in einer anderen Farbe ;)

Naja, die Computerwelt ist eh durchzogen von Doppelt- und Dreifachentwicklungen.

Demirug
2009-10-26, 16:52:22
Nunja, es soll ja noch kommen (?). Vllt. einigen die sich ja noch ;) Ansonsten würden sich die Physik-Engines sich den Weg verbauen, plattformunabhängig zu sein, was sie ja bisher waren. Auch im Bezug auf zukünfigte Konsolen, Handhelds (iPhone, etc.) usw.

Bei Bullet ist es eh ein "wir nutzen alles" ;) CPU, CUDA (von Nvidia), OpenCL (von ATI) und CS (afaik)... wobei die letzten 3 ja alles das Gleiche sind nur in einer anderen Farbe ;)

Naja, die Computerwelt ist eh durchzogen von Doppelt- und Dreifachentwicklungen.

Die Schnittstellen zur Hardware werden bei jeder guten Middleware ja sowieso abstrahiert.

Zudem hat OpenCL sowieso die gleiche Shaderseuche wie OpenGL. Aber das lernt man dort wohl sowieso nicht mehr.

Ganon
2009-10-26, 16:59:17
Die Schnittstellen zur Hardware werden bei jeder guten Middleware ja sowieso abstrahiert.

Sicher, mir geht's jetzt auch mehr um das "man muss es machen".

Zudem hat OpenCL sowieso die gleiche Shaderseuche wie OpenGL. Aber das lernt man dort wohl sowieso nicht mehr.

Ja, es ist halt immer das Problem alle unter einen Hut zu kriegen. Wenn es einer alleine macht, funktioniert es meist sowieso besser. Man sieht es an DirectX oder OS X auf Macs ;)

reunion
2009-10-26, 17:59:16
Das Problem ist, dass die meisten Leute einen Tunnelblick inklusive Scheuklappen haben. Worin besteht für den gemeinen Spieler zwischen DX11 und PhysX der Unterschied? DX11 dient aktuell entweder der Leistungssteigerung oder man fügt zusätzliche Effekte hinzu: "Contact hardened shadows" (Stalker: Call of Pripyat) oder in DIRT 2 tolle Wasserspielchen. Und was macht PhysX? Im Grunde dasselbe. Das ist aber aus Prinzip böse, weil proprietär und von Nvidia, welche per se das Böse auf Erden sind.

MfG,
Raff

DX11 fügt neue Effekte hinzu oder steigert die Leistung weil es eine technische Weiterentwicklung ist. PhysX ist eine API von NV um Features den konkurrierenden Karten vorzuenthalten. Die Leistung wir dadurch nicht gesteigert, wie auch? Das ist doch ein gewichtiger Unterschied.

Gast
2009-10-26, 18:11:39
Fermi ist nicht mehr weit weg, ATI Fans machen sich schon in die Hose;D
Los ein paar Monate habt ihr noch und könnt euren halben Paperlunch noch Prisen.
Vielleicht bekommt ja jeder ATI nerd eine 5xxx bis Fermi released wurde ^^

So drollig ^^

Warum lässt die Moderation solchen Quatsch, der lediglich zu Unruhe führt, einfach stehen? Ist trollen hier erwünscht?

|-Sh0r7y-|
2009-10-26, 18:32:27
Warum lässt die Moderation solchen Quatsch, der lediglich zu Unruhe führt, einfach stehen? Ist trollen hier erwünscht?
Klar und und auf anderer Seite geht es in Ordnung ja?

Zum Thema, ATI hat sein neuen Refresh zu erst geluncht schön schön.
Einer muss ja der erste sein...

Fermi hat DX11 und vom Speed sicher Konkurenzfähig.
Es ist nicht nur ein Chip Refresh wie bei AMD und mit PhysX in mein Augen Technisch besser und nicht anderstrum.
Für mich stellt sich ehr die Frage was will AMD entgegensetzen wenn Nvidia erstmal nen Refresh Dnde nächsten jahres bringt und das ganze potential ausschöpft... und die Entwickler werden da ähnlich denken, ATI hat einfach nicht die Zugkraft und die überzeugungskraft und AMD ist auch mehr ein Lowcost Produkt ich meine wem schenkt man mehr vertrauen ein hersteller der neue Techniken vorranbringt, oder ein der mit Günstigen Produkten versucht sich über Wasser zu halten und CPU´s und GPU´s verramscht.

Gast
2009-10-26, 18:52:33
fermi wird so wie der phenom scheitern...

|-Sh0r7y-|
2009-10-26, 19:20:05
Warum lässt die Moderation solchen Quatsch, der lediglich zu Unruhe führt, einfach stehen? Ist trollen hier erwünscht?

fermi wird so wie der phenom scheitern...
*Hust*

Kommt das vom selben Gast? ;D

Gast
2009-10-26, 19:32:59
Klar und und auf anderer Seite geht es in Ordnung ja?

Zum Thema, ATI hat sein neuen Refresh zu erst geluncht schön schön.
Einer muss ja der erste sein...

Fermi hat DX11 und vom Speed sicher Konkurenzfähig.
Es ist nicht nur ein Chip Refresh wie bei AMD und mit PhysX in mein Augen Technisch besser und nicht anderstrum.
Für mich stellt sich ehr die Frage was will AMD entgegensetzen wenn Nvidia erstmal nen Refresh Dnde nächsten jahres bringt und das ganze potential ausschöpft... und die Entwickler werden da ähnlich denken, ATI hat einfach nicht die Zugkraft und die überzeugungskraft und AMD ist auch mehr ein Lowcost Produkt ich meine wem schenkt man mehr vertrauen ein hersteller der neue Techniken vorranbringt, oder ein der mit Günstigen Produkten versucht sich über Wasser zu halten und CPU´s und GPU´s verramscht.

Fermi wird sicher nicht schwächer sein, aber dein Geschreibsel ist
Fanoyish in seiner reinsten Form.
Junge ATI ist kein Ramschladen wie du es hier darstellen willst, denn wären sie es wären die ganzen Grakas viel teurer.
Außerdem hats NV mitm "verramschen" auch nicht soweit her, wenn man die ganzen Umbennenungsaktionen und Billigbauteile auf den vielen GT 275er mit Spulenpfeifen ansieht.

Gast
2009-10-26, 19:37:01
PhysX ist eine API von NV um Features den konkurrierenden Karten vorzuenthalten.

NEIN! PhysX ist keine API, es ist eine Physikengine.

Du würdest wohl auch kaum die Unreal-Engine als API bezeichnen

Gast
2009-10-26, 20:14:00
DX11 fügt neue Effekte hinzu oder steigert die Leistung weil es eine technische Weiterentwicklung ist. PhysX ist eine API von NV um Features den konkurrierenden Karten vorzuenthalten. Die Leistung wir dadurch nicht gesteigert, wie auch? Das ist doch ein gewichtiger Unterschied.

Welche Features denn? Hat AMD keine ALUs? Hat AMD keinen Shared Memory? Darf AMD kein 40nm nutzen?

Oder anders herum gefragt: Was unterscheidet die börsennotierte Firma Microsoft von der börsennotierten Firma Nvidia in ihrer langfristigen Zielsetzung den Aktienkurs zu steigern und Geld zu verdienen? DirectX darfst du nämlich auch nur auf deine Schachtel kleben, wenn du brav nach den Spielregeln spielst, die - tadaa - Microsoft dir vorgibt.

Black-Scorpion
2009-10-26, 20:25:00
DirectX darfst du nämlich auch nur auf deine Schachtel kleben, wenn du brav nach den Spielregeln spielst, die - tadaa - Microsoft dir vorgibt.
Falsch

Alle Hersteller bringen ihre Vorschläge bei Microsoft ein.
Microsoft gib dann den gemeinsamen Nenner vor.
DirektX wird nicht einfach von M$ an den Herstellern vorbei vorgegeben.
Sonst hätte Nvidia für die FX Karten nicht ein eigenes Profil bekommen.
Es hätte kein Profil für ATI bei SM2 gegeben usw.

reunion
2009-10-26, 20:42:32
NEIN! PhysX ist keine API, es ist eine Physikengine.

Du würdest wohl auch kaum die Unreal-Engine als API bezeichnen

Eine API ist eine Programmierschnittstelle, CUDA - worüber ja GPU-PhysX realisiert wird - kann man durchaus so bezeichnen. Ist aber auch gleichgültig. Meine Kernaussage bleibt bestehen.

Gast
2009-10-26, 20:49:22
Fermi hat DX11 und vom Speed sicher Konkurenzfähig.


Wobei man hier eher von einem Papiertiger reden muss, denn die Karten sind nirgends verfügbar lediglich vereinzelt zu überteuerten Preisen.Und selbst da ist eine GTX295 die günstigere, verfügbar und schnellere Alternative.

Black-Scorpion
2009-10-26, 20:52:37
Wobei man hier eher von einem Papiertiger reden muss, denn die Karten sind nirgends verfügbar lediglich vereinzelt zu überteuerten Preisen.Und selbst da ist eine GTX295 die günstigere, verfügbar und schnellere Alternative.
Habe ich was verpasst?

Gast
2009-10-26, 20:53:28
Habe ich was verpasst?

http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=HD+5870&v=l&plz=&dist=&pixonoff=on&filter=+Liste+aktualisieren+&xf=

Black-Scorpion
2009-10-26, 21:03:45
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=HD+5870&v=l&plz=&dist=&pixonoff=on&filter=+Liste+aktualisieren+&xf=
Und was haben ATI Karten mit Fermi zu tun?
Wenn du schon zitierst und darauf antwortest sollte es sich auch auf das zitierte beziehen.
Ohne Hinweis das du über ATI redest ist das markierte einfach nur falsch.

Gast
2009-10-26, 21:07:05
Wobei man hier eher von einem Papiertiger reden muss, denn die Karten sind nirgends verfügbar lediglich vereinzelt zu überteuerten Preisen.Und selbst da ist eine GTX295 die günstigere, verfügbar und schnellere Alternative.

Eine gtx295 gibt's echt schon für 350 Euro?!
Ganz abgesehen davon, dass Single vs Dualkartenvergleiche doch ziemlich sinnlos sind.

Coda
2009-10-26, 21:10:18
Zudem hat OpenCL sowieso die gleiche Shaderseuche wie OpenGL. Aber das lernt man dort wohl sowieso nicht mehr.
Meinst du den Syntax mit den expliziten Casts?

Gast
2009-10-26, 21:19:28
Und was haben ATI Karten mit Fermi zu tun?
Wenn du schon zitierst und darauf antwortest sollte es sich auch auf das zitierte beziehen.
Ohne Hinweis das du über ATI redest ist das markierte einfach nur falsch.

Ne ganze Menge denn beide sind praktisch nicht verfügbar. War schon korrekt zitiert.

Schlammsau
2009-10-26, 21:26:12
Ne ganze Menge denn beide sind praktisch nicht verfügbar. War schon korrekt zitiert.

Blödsinn, schau dich hier mal um und du wirst sehen wie viele schon eine HD5000 schon in ihrem Rechner haben. ;)

Sicherlich....gut Verfügbar ist was anderes, aber wenn man einn wenig wartet bekommt man auch eine.

Demirug
2009-10-26, 21:29:14
Meinst du den Syntax mit den expliziten Casts?

Nein, ich schreibe viel C# code bin also an das casten gewöhnt. Das größte Problem das OpenGL und OpenCL mit den Shadern haben ist das Fehlen einer auf Bytecode aufbauenden virtuellen Maschine. Multiple Plattformen und Highlevel-Sourcecode haben noch nie Problemloss zusammen funktioniert.

Gast
2009-10-26, 21:30:19
Blödsinn, schau dich hier mal um und du wirst sehen wie viele schon eine HD5000 schon in ihrem Rechner haben. ;)

Sehr wenige.

Sicherlich....gut Verfügbar ist was anderes, aber wenn man einn wenig wartet bekommt man auch eine.

Aber nicht zu humanen Preisen. Rechne dir aus der Händler kauft sie für 258€uro hinzu kommen MwStr. das wäre der reguläre Preis, wer ist schon so doof und kauft sich eine HD5870 für >350€uro? Das sind die wenigsten.Es ist ne Frechheit das war ein Scheinlaunch per Exzellence.

Schlammsau
2009-10-26, 21:47:38
Sehr wenige.

Mit Sicherheit nicht weniger als die, die hier eine GTX285 und GTX295 in ihrem Rechner haben.

Aber nicht zu humanen Preisen. Rechne dir aus der Händler kauft sie für 258€uro hinzu kommen MwStr. das wäre der reguläre Preis, wer ist schon so doof und kauft sich eine HD5870 für >350€uro? Das sind die wenigsten.Es ist ne Frechheit das war ein Scheinlaunch per Exzellence.

Woher weisst du wieviel ein Händler bezahlt? Das ist doch bestimmt mit der Liefermenge gekoppelt.
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=468495), sind auch ein paar dabei die weit weniger als 350€ für eine 5870 gezahlt haben.

INDEX75
2009-10-26, 21:59:21
... Es ist ne Frechheit das war ein Scheinlaunch per Exzellence.
So werfe NV den ersten Stein ... :rolleyes:

Gast
2009-10-26, 22:00:09
Mit Sicherheit nicht weniger als die, die hier eine GTX285 und GTX295 in ihrem Rechner haben.

Und was tut das zur Sache? Es geht um Lieferbarkeit.

Woher weisst du wieviel ein Händler bezahlt? Das ist doch bestimmt mit der Liefermenge gekoppelt.
Schau mal hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=468495), sind auch ein paar dabei die weit weniger als 350€ für eine 5870 gezahlt haben.

Ein paar... Weiß garnicht was es da wieder schönzureden gibt.

Gast
2009-10-26, 22:04:53
Was wollt ihr denn... der preis von 350 euro ist imo durchaus gerechtfertigt! Ne gtx295 ist nen tick schneller kostet aber auch demensprechend mehr. Abseits der Geschwindigkeit haben beide ihre Vor-und Nachteile.

Gast
2009-10-26, 22:08:25
Was wollt ihr denn... der preis von 350 euro ist imo durchaus gerechtfertigt! Ne gtx295 ist nen tick schneller kostet aber auch demensprechend mehr. Abseits der Geschwindigkeit haben beide ihre Vor-und Nachteile.

Nein der Preis ist nicht gerechtfertigt, normalerweise dürfte die Karte nicht mehr als 28x €uro kosten. Alles über 300€uro ist nach derzeitigem Dollarkurs einfach überzogen.

Gast
2009-10-26, 22:13:05
Nein der Preis ist nicht gerechtfertigt, normalerweise dürfte die Karte nicht mehr als 28x €uro kosten. Alles über 300€uro ist nach derzeitigem Dollarkurs einfach überzogen.

Bloße weil AMD für einen bestimmten Preis verkauft müssen die Händler die Karten auch für den Preis abgeben? Dann geh mal in den Mediamarkt und kauf eine gtx260 für 350 Euro!

Gast
2009-10-26, 22:15:18
Bloße weil AMD für einen bestimmten Preis verkauft müssen die Händler die Karten auch für den Preis abgeben? Dann geh mal in den Mediamarkt und kauf eine gtx260 für 350 Euro!

Dafür kann man dort aber sehr gut handeln. ;) Trotzdem die Händler wissen das sie in den nächsten Wochen keine Karten bekommen und verkaufen ihre Restbestände nun für 380€uro aufwärts, das ist der reinste Wucher.

Gast
2009-10-26, 22:18:39
Dafür kann man dort aber sehr gut handeln. ;) Trotzdem die Händler wissen das sie in den nächsten Wochen keine Karten bekommen und verkaufen ihre Restbestände nun für 380€uro aufwärts, das ist der reinste Wucher.

Nochmal: Warum sind 350 Euro für die schnellste Singlekarte Wucher? Verstehe ich nicht. Alternative gibt's einfach keine. Oder findest du dann wenigstens, dass eine gtx295 auch zu Wucherpreisen verkauft wird?

Schlammsau
2009-10-26, 22:33:13
Dafür kann man dort aber sehr gut handeln. ;) Trotzdem die Händler wissen das sie in den nächsten Wochen keine Karten bekommen und verkaufen ihre Restbestände nun für 380€uro aufwärts, das ist der reinste Wucher.

Was sagst du dann zu den knapp 1000€ die eine MARS kostet?
Oder was sagst du zu einer GTX285, die momentan nur für 295€ lieferbar ist?
295€ für eine DX10 (ohne .1) Graka, dass ist Wucher!
Eine 5850, die schneller und stromsparender und DX11 unterstützt, bekommt man schon ab 220€, freilich mit Wartezeit, aber man bekommt sie.

Die schnellsten Karten, kosten immer überproportional viel, dass war schon immer so und wird auch immer so bleiben.
Aber was rede ich da eigentlich, 350€ für die schnellste, modernste und stromsparenste Single GPU die momentan auf dem Markt ist? Das ist doch fast geschenkt! Zu Geforce 8800 Ultra Zeiten, hätte man fast das doppelte hingelegt.

Halt mal den Ball flach!

Gast
2009-10-26, 22:52:54
Was sagst du dann zu den knapp 1000€ die eine MARS kostet?

Die darf auch etwas mehr kosten, ist ne Special Edition, also etwas ganz Besonderes. Darum geht es auch garnicht.

Oder was sagst du zu einer GTX285, die momentan nur für 295€ lieferbar ist?
295€ für eine DX10 (ohne .1) Graka, dass ist Wucher!
Eine 5850, die schneller und stromsparender und DX11 unterstützt, bekommt man schon ab 220€, freilich mit Wartezeit, aber man bekommt sie.

Eine GTX295 kostet ab 370€uro und ist schneller. Hat mehr Speicher on Board,diverse Extras und darf auch etwas mehr kosten.

Schlammsau
2009-10-26, 22:55:18
Die darf auch etwas mehr kosten, ist ne Special Edition, also etwas ganz Besonderes. Darum geht es auch garnicht.



Eine GTX295 kostet ab 370€uro und ist schneller. Hat mehr Speicher on Board,diverse Extras und darf auch etwas mehr kosten.

Wenn du das sagst werter Gast.....:freak: ;D

Gast
2009-10-26, 22:56:57
Wenn du das sagst werter Gast.....:freak: ;D

Dir ist klar das wir hier von doppelten Kosten sprechen bei einer GTX295? Anscheinend nicht, aber immer schön trollen...obwohl du garnicht kapierst das es garnicht darum geht.

Gast
2009-10-26, 23:03:42
Nochmal: Warum sind 350 Euro für die schnellste Singlekarte Wucher? Verstehe ich nicht. Alternative gibt's einfach keine. Oder findest du dann wenigstens, dass eine gtx295 auch zu Wucherpreisen verkauft wird?
Streich Single, das haben sich die IHVs mit MGPU selbst eingebrockt.

Guck dir die 4870 X2 an, gibts für 270€.
Guck dir die 4870 1024 an, 2 Stück gibts für 230€.

|-Sh0r7y-|
2009-10-26, 23:07:26
Fermi wird sicher nicht schwächer sein, aber dein Geschreibsel ist
Fanoyish in seiner reinsten Form.
Junge ATI ist kein Ramschladen wie du es hier darstellen willst, denn wären sie es wären die ganzen Grakas viel teurer.
Außerdem hats NV mitm "verramschen" auch nicht soweit her, wenn man die ganzen Umbennenungsaktionen und Billigbauteile auf den vielen GT 275er mit Spulenpfeifen ansieht.
Fanboy nun nicht grade ich würde auch ATI kaufen aber dann würden sie mir das gleiche bieten wie es Nvidia tut und dann kann ich auch gleich bei Nvidia bleiben ^^
Ich würde ATI ehr als Günstige Alternative sehen.
Ich hab ja nichts gegen ATI/AMD, aber diese ganzen Probleme die man so liest... das ist doch nichts erfundenes diese Probleme bei vielen Spielen gibt es wirklich.
Und das sie mit PhysX nicht mitspielen oder eine alternative bringen die kompatibel dazu ist, unzureichend mit den Hersteller zusammenarbeiten, wem juckt es das Fermi halt nen halbes Jahr später kommt.
Ich blieb 3DFX bis zum Schluss treu und jetzt bleib ich halt Nvidia treu.

Ich sehe unterschiedliche Release Daten nicht als Technologischen Rückstand, es ist ohnehin etwas übertrieben jedes halbe Jahr neue Refresh Karten zu bringen... Crysis ist Grafisch immer noch das Nonplusultra, diese ganzen neuen Techniken werden kaum genutzt es braucht kaum einer, ich sehe da Nvidia ehr im Vorteil weil sie schon am Morgen denken, AMD versucht ja immer noch KRankhaft Marktanteile zu gewinnen, ihr riesiger Milliarden Schuldenhaufen ist da vielleicht verantwortlich das dennen die luft langsam ausgeht und die 4870 & co zu billigpreise verramschen.

Gast
2009-10-26, 23:09:13
Eine GTX295 kostet ab 370€uro und ist schneller. Hat mehr Speicher on Board.
:ulol4:

Gast
2009-10-27, 08:08:29
.....Zum Thema, ATI hat sein neuen Refresh zu erst geluncht schön schön.
Einer muss ja der erste sein...

Guten Appetit; deshalb also die angeblich geringe Vefügbarkeit.

Joolz
2009-10-27, 09:18:22
Der Fred ist völlig überflüssig. Alles über DX9 ist too much. PC ist auch too much. Das was die nächste Konsole hat, ist relevant. 2012

svenw
2009-10-27, 09:25:06
Was glaubt denn ihr wo die ganzen 5870er Karten hingehen?
A: in den Verkauf an den Endkunden
B: an die großen Vertragspartner die sich für das Weihnachtsgeschäft eindecken

Die Endkunden kommen als letzte und bekommen die Krumen ab die vom Tisch fallen. Für das Weihnachtsgeschäft braucht man fette Schlagwörter ala DirectX11, selbst wenn es aktuell nicht viel bringt, und entsprechend decken sich die Händler ein. Und die Lieferengpässe bei Nvidia werden die Sache auch nicht besser machen. Momentan muß ATI mehr oder weniger den Fachhändler Markt alleine bedienen, das da nicht mehr allzuviel für den Einkunden übrigbleibt ist klar. Und das der Produktionsprozeß allzu ergibig ist habe ich auch noch nicht gehört.

Das Nvidia technisch hinterher ist halte ich für ein Gerücht, allerdings ob sich die verstärkte Ausrichtung auf GPGPU rechnet wird sich zeigen. Die Fermi Architektur ist eine Designentscheidung und keine technische und ob diese Designentscheidung schlau war, wird sich erst mit dem Launch des Fermi zeigen. GPGPU ist ein interessanter Markt, aber ob das Einbrüche beim normalen Graka Verkauf auffangen kann wage ich zu bezweifeln.

IC3M@N FX
2009-10-27, 11:08:43
Ich versteh eh nicht warum man so einen Bash Thread überhaupt eröffnen konnte pls Closed.

Gast
2009-10-27, 13:45:24
Fanboy nun nicht grade ich würde auch ATI kaufen aber dann würden sie mir das gleiche bieten wie es Nvidia tut und dann kann ich auch gleich bei Nvidia bleiben ^^
.
??


Ich würde ATI ehr als Günstige Alternative sehen.
Ich hab ja nichts gegen ATI/AMD, aber diese ganzen Probleme die man so liest... das ist doch nichts erfundenes diese Probleme bei vielen Spielen gibt es wirklich.
.
Die gibt es auch bei NV und wenn du noch nichts davon mitbekommen hast, dann hast du einfach nur Glück gehabt.
Ich persönlich kenne Treiberabstürze mit BSODs erst wieder, seitdem ich mal wieder ne Geforce habe und was nun?


Und das sie mit PhysX nicht mitspielen oder eine alternative bringen die kompatibel dazu ist, unzureichend mit den Hersteller zusammenarbeiten, wem juckt es das Fermi halt nen halbes Jahr später kommt.
Ich blieb 3DFX bis zum Schluss treu und jetzt bleib ich halt Nvidia treu.
.

PhysX mitmachen oder kompatibel, was?
PhysX ist eine properitäre Kundenverarsche und ATI hat das einzig Richtige getan diesen pseudo-Standard nicht zu unterstützen.
NV denkt nur an sein wohl und die Zusammenarbeit kommt nicht von ungefähr,
verwunderlich, dass es damals gerade mit Crysis soviele Fehler gab (fehlende Schatten, Wasserspiegelungen und immer noch schlechte Texturdetails auf Entfernung) <= ein Beispiel.



Ich sehe unterschiedliche Release Daten nicht als Technologischen Rückstand, es ist ohnehin etwas übertrieben jedes halbe Jahr neue Refresh Karten zu bringen... Crysis ist Grafisch immer noch das Nonplusultra, diese ganzen neuen Techniken werden kaum genutzt es braucht kaum einer, ich sehe da Nvidia ehr im Vorteil weil sie schon am Morgen denken, AMD versucht ja immer noch KRankhaft Marktanteile zu gewinnen, ihr riesiger Milliarden Schuldenhaufen ist da vielleicht verantwortlich das dennen die luft langsam ausgeht und die 4870 & co zu billigpreise verramschen.

Nv aber auch, nichtzuletzt durch deaktivierung der Ageia-PPUs, nicht?
Durch Umbennenungsaktionen mehr als 2 Jahre alter Karten...
Dafür wird es dann aber teurer weil die GT250 ja sooo toll ist, oder die 9800GT oder wie sie noch heißen :rolleyes:

Gast
2009-10-27, 14:21:05
PhysX mitmachen oder kompatibel, was?
PhysX ist eine properitäre Kundenverarsche und ATI hat das einzig Richtige getan diesen pseudo-Standard nicht zu unterstützen.
Ich habe PhysX gratis dazu bekommen, bzw. gratis nachträglich.
Verarscht ist was anderes, nicht das.

Wenn dir Optik egal ist, gut, dann bleib doch bei Low-End Karten.

Gast
2009-10-27, 14:23:19
Nv aber auch, nichtzuletzt durch deaktivierung der Ageia-PPUs, nicht?
Durch Umbennenungsaktionen mehr als 2 Jahre alter Karten...
Dafür wird es dann aber teurer weil die GT250 ja sooo toll ist, oder die 9800GT oder wie sie noch heißen :rolleyes:
Oh, Totschlagargument Nr1.
GT 250, die Karte die es noch gar nicht gibt, hat rein gar nichts, aber auch überhaupt nichts mit der 9800 GT gemeinsam.

Willst du etwa trollen?

Gut, ich steig ein. 4870 ist nur eine umbenannte 3850.

Coda
2009-10-27, 14:31:59
Ich denke mal er meint GTS 250.

Gast
2009-10-27, 14:38:48
Ändert praktisch nichts daran.
Und erklärt auch nicht was daran schlimm ist.

Gast
2009-10-27, 14:43:40
Eine GTS250 ist ja wohl mal eher eine 9800GT bzw. 8800GT, als dass eine HD4870 eine HD3850 wäre O.o

Gast
2009-10-27, 14:47:37
Nö, beides ist Bullshit und Geflame.
Man kann über Dinge disskutieren, wenn der Ansatz stimmt.

Gast
2009-10-27, 15:44:51
Nö, beides ist Bullshit und Geflame.
Man kann über Dinge disskutieren, wenn der Ansatz stimmt.
....................................................

du bist so ein ....

Beziehungsweise jeder Trottel weiss (sogar Wikipedia) das die GT8800 nur umgelabelt ist.
http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie

respektiv eine GTS250 ist das gleiche wie eine 9800GT (die ich auch habe!)
Ich weiss nur nicht was man mit so einem Sch**ss erreichen kann. Ich erinnere mich aber ganz genau an die GForce4MX die eine GForce2 war also rein gar nichts mit der GF4 am Hut hatte. Also auch hier wieder der Versuch Kunden du verarschen!

Grestorn
2009-10-27, 15:48:14
Nur dass eine GTS250 sich vom Techlevel nicht von jedem aktuellen nV-Chip unterscheidet, was damals bei der GF4MX ganz anders war.

Deswegen verstehe ich das Geschrei nicht. Die Modellnamen sind lediglich NAMEN, die einen Hinweis auf ihre relative Leistung geben sollen. Und genau das tun sie auch, und zwar ganz korrekt.

Gummikuh
2009-10-27, 16:10:05
respektiv eine GTS250 ist das gleiche wie eine 9800GT (die ich auch habe!)


Nich ganz, bei der 9800GT sind nicht alle Shader ALUs aktiv.(112 vs 128).Also die GTS250 ist eher mit der 8800GTS bzw. 9800GTX+ vergleichbar.

Gast
2009-10-27, 16:10:58
....................................................

du bist so ein ....

Beziehungsweise jeder Trottel weiss (sogar Wikipedia) das die GT8800 nur umgelabelt ist.
http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie

respektiv eine GTS250 ist das gleiche wie eine 9800GT (die ich auch habe!)
Ich weiss nur nicht was man mit so einem Sch**ss erreichen kann. Ich erinnere mich aber ganz genau an die GForce4MX die eine GForce2 war also rein gar nichts mit der GF4 am Hut hatte. Also auch hier wieder der Versuch Kunden du verarschen!Willst du es nicht verstehen?
Weder sind die Eigenschaften gleich, noch ist die Leistung gleich.

Das einzige, was man dazu sagen kann ist, das die GTS 250 vom Namen her eindeutig der Mittelklasse zuzuordnen ist, während die 8800 GT am High-End Bereich leckt.

Dein Versuch ist wie bereits erwähnt lächerlich. Mein Beispiel war nicht so gut, ich versuchs nochmal: 2900 Pro wurde umbenannnt als 4870 rausgebracht.

Gast
2009-10-27, 16:12:11
Nich ganz, bei der 9800GT sind nicht alle Shader ALUs aktiv.(112 vs 128).Also die GTS250 ist eher mit der 8800GTS bzw. 9800GTX+ vergleichbar.
Schon besser, aber vergleichbar heißt nicht gleich.

Eine 4830 ist auch keine 2900 Pro, nur weil sie vergleichbar sind.

Gast
2009-10-27, 16:28:30
Ich erinnere mich aber ganz genau an die GForce4MX die eine GForce2 war also rein gar nichts mit der GF4 am Hut hatte. Also auch hier wieder der Versuch Kunden du verarschen!

Die GF4MX war weder Geforce2 noch Geforce4, sondern eine Mischung aus beiden Generationen.

deekey777
2009-10-27, 16:33:19
Die GF4MX war weder Geforce2 noch Geforce4, sondern eine Mischung aus beiden Generationen.
Die GF4MX war schon eine GF2, aber mit deutlich fortschrittlichen Videofähigkeiten, die eine GF4 eben nicht hatte.

Gandharva
2009-10-27, 16:36:09
ATOMROFL ;D

Ein weiterer Untergangsthread vom Dischaschen...

Kuckt mal hier rein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2209582#post2209582
Bereits 2004 wurde vom selben Hellseher der Untergang von Intel propagiert.

Coda
2009-10-27, 17:33:04
Die GF4MX war schon eine GF2, aber mit deutlich fortschrittlichen Videofähigkeiten, die eine GF4 eben nicht hatte.
Nö. Die GeForce 2 hatte kein Multisampling und auch keine Lightspeed Memory Architecture II.

reunion
2009-10-27, 17:42:48
Nur dass eine GTS250 sich vom Techlevel nicht von jedem aktuellen nV-Chip unterscheidet, was damals bei der GF4MX ganz anders war.

Deswegen verstehe ich das Geschrei nicht. Die Modellnamen sind lediglich NAMEN, die einen Hinweis auf ihre relative Leistung geben sollen. Und genau das tun sie auch, und zwar ganz korrekt.

Schön, darüber hat sich auch niemand beschwert. Das ändert aber nichts daran das es eine Unverschämtheit ist eine Karte unter drei Namen zu verkaufen und damit jeweils eine neue Generation vorzugaukeln. Wer das gut heißt dem unterstelle ich fragwürdige Motive.

Raff
2009-10-27, 17:44:42
Das Namensschema wurde vereinheitlicht.

MfG,
Raff

Black-Scorpion
2009-10-27, 17:48:21
Das hätte ich hinterher auch behauptet wenn der Beschiss auffliegt.
Vor allem 2x das Namensschema anpassen?
Da fragt man sich erst recht für wie blöd die ihre Kunden halten.

reunion
2009-10-27, 17:49:11
Das Namensschema wurde vereinheitlicht.

MfG,
Raff

Billige Ausrede. Man hätte es gar nicht erst derart verkomplizieren müssen.

Raff
2009-10-27, 17:50:01
Wie man's macht, ist's falsch. Das kenne ich. ;) Jetzt kann jedenfalls niemand mehr meckern ... und für versierte Nutzer war das eh nie von Relevanz.

MfG,
Raff

Gast
2009-10-27, 17:51:42
Schön, darüber hat sich auch niemand beschwert. Das ändert aber nichts daran das es eine Unverschämtheit ist eine Karte unter drei Namen zu verkaufen und damit jeweils eine neue Generation vorzugaukeln. Wer das gut heißt dem unterstelle ich fragwürdige Motive.
Wer behauptet ein und das selbe Produkt wurde unter 3 Namen verkauft, der lügt schlicht weg.
Wer darüber hinaus behauptet, es handle sich um GTS 250 und 8800 GT, der lügt 3 fach.

Wer darüber hinaus den Unterschied zwischen Mittelklasse und High-End nicht kennt, dem kann man nicht helfen.

________
Ich warte bereits auf die ersten, die GT 220 als umbenannte 9500 GT preisen. Oder besser GTX 380 als umbenannte GTX 280.

Gast
2009-10-27, 17:53:56
Billige Ausrede. Man hätte es gar nicht erst derart verkomplizieren müssen.
Das Namensschema ist über die Jahre gewachsen.
AMD hats im Zuge der HD2 nach HD3 Umbennung geändert, Nvidia erst etwas später.

reunion
2009-10-27, 17:55:12
Wie man's macht, ist's falsch. Das kenne ich. ;) Jetzt kann jedenfalls niemand mehr meckern ... und für versierte Nutzer war das eh nie von Relevanz.

MfG,
Raff

Inwiefern passt der Spruch jetzt zum Thema? Es hätte sich sicherlich niemand darüber aufgeregt wenn man gewisse Karten nicht zweimal umbenannt hätte.

Das Namensschema ist über die Jahre gewachsen.
AMD hats im Zuge der HD2 nach HD3 Umbennung geändert, Nvidia erst etwas später.

Hd3 sind neue Chips, nicht umbenannt.

Ronny145
2009-10-27, 17:57:11
Schon besser, aber vergleichbar heißt nicht gleich.

Eine 4830 ist auch keine 2900 Pro, nur weil sie vergleichbar sind.


Manche sind aber gleich, weil einige der GTS250er einfach nur umgelabelte 9800GTX+ Karten gewesen sind. Von der performance sind die aber sowieso quasi identisch.

Gast
2009-10-27, 18:02:14
Manche sind aber gleich, weil einige der GTS250er einfach nur umgelabelte 9800GTX+ Karten gewesen sind. Von der performance sind die aber sowieso quasi identisch.
Das kannst du gerne den Herstellern anlasten.
Das war nicht im Sinne des Erfinders.

Aber sicher mit ein Grund, für die Abscheu, oder war die Abscheu früher und die Hersteller haben reagiert?

Inwiefern passt der Spruch jetzt zum Thema? Es hätte sich sicherlich niemand darüber aufgeregt wenn man gewisse Karten nicht zweimal umbenannt hätte.

Hätte man nicht alle Segmente neu geordnet gäbs nur Chaos.

Deshalb gabs nicht nur das neue High-End, sondern auch neue Mittelklasse. Wie du sicher weißt sind GTS 250 (die bisher einzige 200er die bemängelt wurde?) keine bekannten Produkte, sondern verbesserte Produkte, die eine neue Segmentbestimmung erfahren haben.


Hd3 sind neue Chips, nicht umbenannt.
Im Grunde kann man die HD4 auch bemängeln, aber ich schrieb HD3.

reunion
2009-10-27, 18:11:45
Das kannst du gerne den Herstellern anlasten.
Das war nicht im Sinne des Erfinders.

Aber sicher mit ein Grund, für die Abscheu, oder war die Abscheu früher und die Hersteller haben reagiert?


Ohne der Erlaubnis des Erfinders ist sowas nicht drinnen. Sonst könnte jeder Hersteller jede Karte unter jeden x-beliebigen Namen verkaufen.


Hätte man nicht alle Segmente neu geordnet gäbs nur Chaos.

Deshalb gabs nicht nur das neue High-End, sondern auch neue Mittelklasse. Wie du sicher weißt sind GTS 250 (die bisher einzige 200er die bemängelt wurde?) keine bekannten Produkte, sondern verbesserte Produkte, die eine neue Segmentbestimmung erfahren haben.

Ich sage es nochmal: Billige Ausrede. Wenn ich für jeden neuen Chip ohne technologische Änderungen eine neue Generation aus marketingtechnischer Sicht "anreiße" rechtfertigt das sicherlich nicht alle anderen Chips einfach nach belieben umzubenennen.


Im Grunde kann man die HD4 auch bemängeln, aber ich schrieb HD3.

Ich habe es korrigiert.

Undertaker
2009-10-27, 18:20:49
Übrigens, die HD4200 im neuen RS880M ist auch ein uralter RV620, man hat nichteinmal die Taktraten des HD3200 Chipsatzes angehoben, nur den Videodecoder aufgebohrt. :freak: Aber mein Gott, dass sind Namen, wen stört es? Wer sich nicht schlau macht ist selbst schuld, bzw. ist es solchen Käufern eh im Regelfall weitestgehend egal. ;)

Gast
2009-10-27, 18:25:35
Ich sage es nochmal: Billige Ausrede. Wenn ich für jeden neuen Chip ohne technologische Änderungen eine neue Generation aus marketingtechnischer Sicht "anreiße" rechtfertigt das sicherlich nicht alle anderen Chips einfach nach belieben umzubenennen.
Chips wurden nie umbenannt.


Ohne der Erlaubnis des Erfinders ist sowas nicht drinnen. Sonst könnte jeder Hersteller jede Karte unter jeden x-beliebigen Namen verkaufen.
Meinst du. Mit genug Druck gibt jeder nach. Oder die Hersteller bekamen wirklich was auf die Finger geklopft.
Freiweillig von Nvidia aus ging das jedenfalls nicht. So wie der 8800 GT Skandal, der von Point of View verschuldet wurde und im Endeffekt nur und ausschließlich Nvidia geschadet hat.


Hd3 sind neue Chips, nicht umbenannt.
Der Kern, der mit der "Umbennung" zum Ausdruck gebracht werden will, ist das sich einige Produkte stark ähneln, zumindest in einigen Punkten.

Diese Ähnlichkeit ist beides mal die Performance (außer den möglichen größeren VRAM bei den Geforces)

anderer Gast
2009-10-27, 19:09:12
Hallo

Das ganze Gerede vom technologischen Rückstand von nVidia ist imho heiße Luft. Es stimmt, daß es im Moment kaum GTX-Karten abgesehen von ein paar 260'ern zu kaufen gibt. Der Grund ist aber meiner Meinung nach ein anderer:
nVidia wollte dem Zwischenhandel die Möglichkeit geben die alten Restbestände noch loszuwerden, bevor die GT300-Reihe an den Start geht. Viele Händler liefern die GTX-Karten nur noch auf Anfrage. Offenbar möchte man den neuen Chip nicht erst wieder völlig überteuert auf den Markt bringen (solche Spielchen sind inzwischen auch den großen Herstellern Dank der Wirtschaftskrise wohl zu teuer), sondern er wird von Anfang an bezahlbar sein. Sollten die technischen Daten stimmen, dann ist der zu erwartende Leistungszuwachs so enorm, daß selbst aktuelle Quad-SLI Lösungen mit dem schwächsten Modell des GT300 nicht mithalten können. Und diesmal geht es nicht um leere Versprechungen wie bei DX10. Von daher finde ich es sehr fair von nVidia, daß man sich bedeckt hält und den kleinen Händlern wenigstens die Chance gibt ihre Regale bis Weihnachten leer zu machen.

Ich bin jedenfalls guter Dinge und schonmal sehr gespannt, wie man bei AMD reagieren wird. Möglicherweise erstmal wieder mit drastischen Preissenkungen. Aber das macht die Radeons für Leute wie mich nicht attraktiver.

mfg

Gast
2009-10-27, 19:44:12
Die GF4MX war schon eine GF2, aber mit deutlich fortschrittlichen Videofähigkeiten, die eine GF4 eben nicht hatte.


Nicht nur, die GF4MX hatte Multisampling-AA und den fortschrittlichen Speichercontroller der 4Ti (wenn auch nur 2x statt 4x unterteilt), wie du erwähnt hast deutlich bessere Videofunktionen (die auch in der 4Ti fehlten)

Wenn ich mich recht erinnere war die T&L-Einheit auch deutlich besser als in der GF2 und konnte auch DX8-vertexshader unterstützen.

Gummikuh
2009-10-28, 00:38:14
Offenbar möchte man den neuen Chip nicht erst wieder völlig überteuert auf den Markt bringen (solche Spielchen sind inzwischen auch den großen Herstellern Dank der Wirtschaftskrise wohl zu teuer),

Die Wirtschaftskrise ist nicht an allem schuld, das Umschwenken der Spieler auf Konsolen begann schon vorher!


sondern er wird von Anfang an bezahlbar sein.

NVidia musste auch zusehen, dass AMD mit einer "verkorksten" Chipgeneration Markanteile zurückerobern konnte.Der RV670.Sowas sitzt auch.


Sollten die technischen Daten stimmen, dann ist der zu erwartende Leistungszuwachs so enorm, daß selbst aktuelle Quad-SLI Lösungen mit dem schwächsten Modell des GT300 nicht mithalten können.

Ja abwarten ist hier das beste, der Rest ist eben Spekulation :freak:

Der R600 sollte ja auch damals "ganz toll" werden, die Realität sah aber anders aus.Und neee...ausnahmsweise wars mal nicht der Release-Treiber :rolleyes:.


Und diesmal geht es nicht um leere Versprechungen wie bei DX10.

:uconf2:

esqe
2009-10-28, 00:57:30
Ich behaupte: nVidia haut nur soviel raus, wie der Markt es braucht.

Ohne FX vs. 9700 wäre ATI nie ein Gegner geworden.

Und nun gilt eigentlich nur "halten", ich bin gespannt.

Gast
2009-10-28, 01:25:37
So wie der 8800 GT Skandal, der von Point of View verschuldet wurde und im Endeffekt nur und ausschließlich Nvidia geschadet hat.


Was hat es damit auf sich?

Gummikuh
2009-10-28, 01:33:24
Im Grunde "Daufängerkarten".Spätere HD3850 mit 400MHz DDR2 Speicher sind imho nix anderes.

Pleasedontkillme
2009-10-28, 13:11:59
....................................................

du bist so ein ....

Beziehungsweise jeder Trottel weiss (sogar Wikipedia) das die GT8800 nur umgelabelt ist.
http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie

respektiv eine GTS250 ist das gleiche wie eine 9800GT (die ich auch habe!)
Ich weiss nur nicht was man mit so einem Sch**ss erreichen kann. Ich erinnere mich aber ganz genau an die GForce4MX die eine GForce2 war also rein gar nichts mit der GF4 am Hut hatte. Also auch hier wieder der Versuch Kunden du verarschen!

-------
sorry stimmt da fehlt noch ein X(GTX) resp. GTX+ oder GTX x2 oder was man noch dran kleben kann und es immernoch ein G92/92b bleibt!!!
so neben bei die GTX260 gibts auch mit mehr *"Einheiten" (gefundenesFressen für alle Klugscheisser) glaube es standen 192 oder 216* zur Auswahlaber blieb trotzdem eine 260er also nochmal wie war das klare bennenung?!?
!!Hier prangere ich aber auch ATI an die sich nicht an Ihre Schemas halten!!

Ich meine ich kenne jetzt den unterschied zwischen Grakka A und B aber wieso muss ich immer den Doctor mache und zu wissen wo ich zu greifen muss.
ein Beispiel: war mal in einem Computerladen und man fragte mich was ich suche, und ich sagte schau mich für eine GF4 4200 um, und der sagte kaufen Sie doch die da, eine GeFutz4 MX, und ich sagte die ist doch scheisse und Er antwortete, aber sie ist neuer!!
...da hät ich Ihm ne Ohrfeige verteilen können!

Gummikuh
2009-10-28, 15:25:26
-------
sorry stimmt da fehlt noch ein X(GTX) resp. GTX+ oder GTX x2 oder was man noch dran kleben kann und es immernoch ein G92/92b bleibt!!!


Richtig, nur der Chip ist noch nicht alles,der Rest spielt auch eine Rolle.HD4870und HD4850 haben auch beide einen RV770.

Warum soll eigentlich NVidia einen Chip, der noch recht brauchbar ist, nicht weiterverwenden?Und die Preise der Karten wurden auch ständig nach unten korrigiert, der Leistung entsprechend.

Ich seh da keine Verarschung oder Frechheit, man muss sich nur an neue Namen gewöhnen.

Pleasedontkillme
2009-11-02, 16:17:25
Richtig, nur der Chip ist noch nicht alles,der Rest spielt auch eine Rolle.HD4870und HD4850 haben auch beide einen RV770.

Warum soll eigentlich NVidia einen Chip, der noch recht brauchbar ist, nicht weiterverwenden?Und die Preise der Karten wurden auch ständig nach unten korrigiert, der Leistung entsprechend.

Ich seh da keine Verarschung oder Frechheit, man muss sich nur an neue Namen gewöhnen.
-------------------------------------------------------

...nein Sorry du hast irgendwo schon auch recht ist ja auch ein gutes Geschäft weil neuer Chip neue Techn.= Haufenkohle für Entwicklung. Wenn man bestehendes (oder gar vor-vorheriges) nehmen kann und aus einer 2 eine 4 macht dann bin ich sicher dass das garnichts mit der damals am besten laufenden superdupergigaultra geilen GF4200 Grakka zu tuhn hat, wem würde da blendung des Kunden einfallen!?

willst du eine günstige und gut brauchbare reintegration von älterer Technik ins heute dann sind da di 8200er oder 9200 oder was die schon alles in Onbord chipsätzen integriert haben (auch Notebooks!) zu nennen und da kriegt Nvidia meinen Applaus!!

SO UND JETZT WIRDS LANG!

Ich bin nicht um sonst jetztiger Besitzer einer 9800GT AMP!
das sollte mein späterer physik beschleuniger sein aber Nvidia lässt mich im Stich!
Denn was brauche ich nun, tja brauche auf jedenfall SLI und will AMD.
Mein Traum-Mainboard (und ein Traum wirds Bleiben vorerst):
AM3 X4
2xSLI 16x (möchte und brauche keine 3 Steckplätze die nehmen mir Platz lieber zwei und die richtig!)
DDR2
brauche min.4SATA + Raid0
möchte min. 1PCI-x und 1PCI(eher zwei je)
und am bestern währe eine Physic fähige onboard Grakka nebst meiner 9800GT die vileicht sogar dieses Hyper-dings um Strom zu sparen understützt.

...doch aus der traum, Nvidia stammpft alles ein und wer weiss wie lange es dann noch treiber gibt respektiv die Sromspartechnik ist schon zu Grabe getragen.
was mach ich jetzt entweder Intel (iiiiii) oder warten warten warten bis Nvidia in den Treibern auf jedem Mainboard die SLI fähigkeit frei gibt, und auch nicht mehr nur weil eine ATI onboard ist die Physics ausgeschaltet bleibt.

wenn ich mir die ATI Mainboards anschaue haben die grössere Auswahl (NV nur 2 für 130Fr. kriegste das was du nicht willst oder 200Fr. zu teuer für das was du nicht brauchst und beides NV=end of life time!) die Produkte gefallen mir auch besser (heisst Features, Mainboardlayout) und auch noch billiger! zb. 3xSLI mit Heatpips eSata und allen Mist den ich zwar auch nicht brauch aber dies nur für 140Fr.

...könnte noch soooo vieles erzählen meine bisherige beste Grafikkarte ist die Radeon8500LE superobergeil und ungeschlagen ne echte Maschiene war das!

Gast
2009-11-02, 16:53:35
Denn was brauche ich nun, tja brauche auf jedenfall SLI und will AMD.

Brauchst du nicht, PhysX-Beschleunigung braucht kein SLI und funktioniert auf jedem Mainboard, dass die passenden Steckplätze hat.

Außerdem gibt es durchaus SLI-Mainboards für AMD.

Pleasedontkillme
2009-11-03, 09:01:51
Brauchst du nicht, PhysX-Beschleunigung braucht kein SLI und funktioniert auf jedem Mainboard, dass die passenden Steckplätze hat.

Außerdem gibt es durchaus SLI-Mainboards für AMD.

---------------------------
emmmmmmhh

Danke für die Freundliche Antwort, aber ich frage mich ob ich das jetzt einfach ignorieren soll/muss?

Ich hab doch gesagt dass es welche gibt (zwei)?!? Aber man sollte sich nicht auf einen brechenden Ast setzen (Nvidia).
Wir reden hier nicht von einem Stück Brott das ich im Supermarkt hole, gefälls mir morgen nicht hole ich mir ein neues.

Ich weiss nicht ob ich hier zustimmung finde, aber für mich ist das Main(!)board das entscheidende an der ganzen Kiste!! Hier fängts an und enscheidet über über Stabilität Fähigkeit und zukünftige Eignung.