PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AGP-Grafikkarten für DX10


ass1
2007-08-06, 19:10:37
Frage steht ja schon im Titel. Kommen noch AGP Grakas von Nvidia oder ATI raus
die DX10 unterstützen bzw gibt es welche die besser sind als emine jetzige Gainward BLISS 7800+ ?

dildo4u
2007-08-06, 19:18:49
Jup gibts schon aber wirklich besser sind die nicht.

http://www.pc-treiber.net/thread.php?threadid=5552

:o)Uhummel
2007-08-06, 22:39:57
Leider will Nvidia ja absolut keine AGP-Versionen mehr bringen.(Obwohls der Markt eigtl. massiv verlangt) Da wäre mir die 7800+ aber um einiges lieber als ne Karte aus der 2400er-Serie. Bleib noch ne Weile bei der 7800+ und steig auf, wenn ATI und gerade NV ihre P/L-Hämmer aus der Tasche "zaubern" ;o) Um ein neues Board/RAM wirste aber wohl kaum herumkommen. -Schade eigtl..

aths
2007-08-07, 21:41:46
Leider will Nvidia ja absolut keine AGP-Versionen mehr bringen.(Obwohls der Markt eigtl. massiv verlangt) Da wäre mir die 7800+ aber um einiges lieber als ne Karte aus der 2400er-Serie. Bleib noch ne Weile bei der 7800+ und steig auf, wenn ATI und gerade NV ihre P/L-Hämmer aus der Tasche "zaubern" ;o) Um ein neues Board/RAM wirste aber wohl kaum herumkommen. -Schade eigtl..Wieso schade? Ich finde es affig, dass es tatsächlich D3D10-Karten für AGP geben soll. Es wäre langfristig günstiger, wenn D3D10 aut0matisch auch PCI-E bedeutet.

:o)Uhummel
2007-08-08, 14:02:19
Wieso schade? Ich finde es affig, dass es tatsächlich D3D10-Karten für AGP geben soll. Es wäre langfristig günstiger, wenn D3D10 aut0matisch auch PCI-E bedeutet.

Mir persönlich ist es eigtl. egal. Ich bin auch für schnellen Fortschritt, aber der Markt verlangt nunmal noch nach AGP-Lösungen! So siehts nunmal aus. NV läßt sich da ein gutes Geschäft entgehen. ATI/AMD kann es sehr gut gebrauchen. Die werden sich freuen. Gruß P.s. Das schade bezog sich auf darauf, daß der ass1 wohl kaum um ein neues Board herumkommt.-Ihr Bachel ;o)

Tomi
2007-08-08, 14:16:18
Oh....für diese Frage gibt es bestimmt gleich wieder von einigen Spezis verbale Haue ;)

Ich war lange Zeit auch noch Befürworter der AGP Karten, habe selbst noch ein AGP System. Aber eine 8800GTX auf AGP oder gar eine 9xxx ;) würde nur noch sehr bedingt Sinn machen. Wirklich Feuer macht man ihr nur mit CPU's, die ihre Heimat auf PCI-E Chipsätzen haben. Es wäre also Perlen vor die Säue werfen, wenn man eine 8800 auf AGP einsetzt, kombiniert mit einem A64 3500+.

Ich sehe es daher nun auch ein, dass damit sinnvollerweise Schluß sein muss.

Die DX10 AGP Lösungen von ATI sind meines Erachtens sinnlos. Der Office-Nutzer braucht es nicht, der Spieler wird sich mit Grausen abwenden. Also was soll man mit einer X2600XT AGP, die von einer DX9 X1950pro geplättet wird? Selbst fürs "Crysis"-prollen wird es nicht ausreichen, ausser zum posten von Screenshots oder besser gesagt Standbildern ;) mit dem Beweis, dass man zumindest das Spiel starten konnte.

r@w.
2007-08-08, 14:17:20
Ich empfine nicht einmal die DX10-Karten für PCIe als 'erstrebenswert'.
Hoffentlich wird die nächste Generation (erheblich) besser...

Razor

aths
2007-08-08, 19:12:46
Ich empfine nicht einmal die DX10-Karten für PCIe als 'erstrebenswert'.
Hoffentlich wird die nächste Generation (erheblich) besser...

RazorDie jetzige Generation ist doch sehr gut. Jedenfalls auf Nvidia-Seite deutlich besser als deren DX9-Produkte.

aths
2007-08-08, 19:13:55
Mir persönlich ist es eigtl. egal. Ich bin auch für schnellen Fortschritt, aber der Markt verlangt nunmal noch nach AGP-Lösungen! So siehts nunmal aus. NV läßt sich da ein gutes Geschäft entgehen. ATI/AMD kann es sehr gut gebrauchen. Die werden sich freuen. Gruß"Der Markt" denkt in diesem Fall kurzfristig. "Der Markt" sorgte dafür, dass DOS jahrelang die PC-Welt beherrschte und dass der PC aus Rücksicht auf Uralt-DOS-Standards nur umständlich neue Technologie nutzen konnte.

mapel110
2007-08-08, 19:21:00
Schon paradox, einerseits ist selbst ein 8800 GTX zu lahm für D3D10, andererseits werden für Uraltsysteme noch AGP-Karten mit dem Feature gefordert.

kmf
2007-08-08, 19:45:15
Die jetzige Generation ist doch sehr gut. Jedenfalls auf Nvidia-Seite deutlich besser als deren DX9-Produkte.Aber auch nur für D3D9. Und dafür reichen eigentlich auch noch die ollen Kamellen. :wink:

AnarchX
2007-08-08, 19:49:00
Aber auch nur für D3D9. Und dafür reichen eigentlich auch noch die ollen Kamellen. :wink:

Wer auf wuAF und eine stabile Leistung verzichten kann, kann natürlich sich auch noch eine GF7 kaufen. ;)

StefanV
2007-08-08, 20:09:01
1. ich finds solangsam echt sinnbefreit, noch Karten für etwas anzubieten, was vor fast 5 Jahren angefangen wurde zu entsorgen, ist wirklich kontraproduktiv, zumal AGP auch nicht so ganz problemlos ist...

2. Benutze ich momentan zwar auch ein AGP System, nur wäre da eine schnelle GraKa völliger overkill, da ich damit eh nicht spielen kann und ohne modden läuft da eh nix mit AGP8x :ugly:

Wie dem auch sei, solangsam sollte das letzte AGP System am aussterben sein und die vorhandene CPU Leistung auf 'normalen AGP Systemen' weit von dem sein, was für eine flüssige darstellung notwendig wäre...

Eine 8800GTX macht halt nicht soo viel Sinn, in einem Sockel 754 Board mit 1,6GHz Sempron...

Außerdem wärs für die AGP Gemeinde unterm Strich wirklich sinniger/günstiger, auf PCI Express umzusteigen, man überlege sich nur mal, was passiert, wenn ein Elko dick wird...

aths
2007-08-08, 21:20:23
Schon paradox, einerseits ist selbst ein 8800 GTX zu lahm für D3D10Häää? Mit D3D10 lassen sich viele Effekte performanter gestalten als mit D3D9. Und D3D9 ist auf der 8800 GTX rasend schnell.

Gast
2007-08-08, 21:33:19
Ich hab zwar nix gegen DX10 für AGP, aber der Sinn davon bleibt mir unklar. Bis DX10 DX9 verdrängt hat und man wirklich auf DX10 angewiesen ist, sind so ziemlich alle AGP-Systeme hoffnungslos veraltet und könnten wahrscheinlich nichtmal mit einer Top DX10 Karte für ein gutes Spieleerlebnis sorgen.

kmf
2007-08-08, 22:04:11
Häää? Mit D3D10 lassen sich viele Effekte performanter gestalten als mit D3D9. Und D3D9 ist auf der 8800 GTX rasend schnell.Der letzte Satz ist absolut richtig, der 1. muss sich aber erst noch beweisen. Es mag sich unter DX10 eleganter programmieren lassen, keine Frage, aber performanter hab ich bis jetzt noch nix gesehen. Alles was jetzt schon in D3D10 läuft bricht mit Mainstreamkarten so ziemlich bis zur Unspielbarkeitsgrenze ein. Und mit den HighEndkarten schauts auch nur minimal besser aus. Und das auf PCIe-Systemen mit fettem Prozzi. ;(

desert
2007-08-09, 01:08:46
und warum bricht es ein?, weil mehr inhalt oder spielereien dargestellt werden, z.b. höhere schattenqualität usw.

stellt man das gleiche von der bq ein, ist z.b. lost planet mit dx 10 leicht schneller als mit dx9

aths
2007-08-09, 08:13:05
stellt man das gleiche von der bq ein, ist z.b. lost planet mit dx 10 leicht schneller als mit dx9Und je komplexer die Effekte, desto höher die Chance, mit der Flexibilität durch D3D10 schneller zu sein. Beim Effekt-Niveau was wir mit D3D9-Spielen verbinden kann die D3D10-Hardware ihre Leistungsfähigkeit kaum ausspielen.

StefanV2
2007-08-09, 12:11:49
Ich hab zwar nix gegen DX10 für AGP, aber der Sinn davon bleibt mir unklar. Bis DX10 DX9 verdrängt hat und man wirklich auf DX10 angewiesen ist, sind so ziemlich alle AGP-Systeme hoffnungslos veraltet und könnten wahrscheinlich nichtmal mit einer Top DX10 Karte für ein gutes Spieleerlebnis sorgen.
Das Problem ist, das das schon jetzt der Fall ist und die AGP Systeme eigentlich alle ziemlich veraltet sind und zum zocken kaum noch zu gebrauchen sind, daher ist das Verlangen nach D3D10 AGP GraKas nicht wirklich nachvollziehbar...
Wobei, wenn es sowas geben soll, dann bitte ohne WDDM Treiber, dann könnt man sogar ohne wirklcihe Nachteile damit leben...

Bis auf ein paar 'merkwürdig' umgerüstete Systeme natürlich (C2D auf i865PE :ugly: )

r@w.
2007-08-09, 12:56:02
Die jetzige Generation ist doch sehr gut. Jedenfalls auf Nvidia-Seite deutlich besser als deren DX9-Produkte.
Ein Schritt in die Richtige Richtung (den nVidia allerdings schon längst - seit gf3 - gegangen ist!), aber die Proukte sind - ganzheitlich gesehen - ganz sicher NICHT "sehr gut".

Man tauscht Vorteile gegen massive Nachteile.
Und das ist IMMER ein mieses 'Geschäft'...

Bei den 'Kleinen' ist es die Leistung, bei den Großen die unerträgliche Leistungsaufnahme... wobei hier ATI sich fast noch den größeren Fauxpars gleistet hat, wenn man das denn überhaupt noch werten will/kann/sollte.

Für Dich ist es wohl immer noch OK, wenn bei der nächsten Generation von HighEnd-Systemen gleich ein Diesel-Generator mitgeliefert wird... :rolleyes:

Schon paradox, einerseits ist selbst ein 8800 GTX zu lahm für D3D10, andererseits werden für Uraltsysteme noch AGP-Karten mit dem Feature gefordert.
Wie wäre es mit einer 'abgespeckten' Variante, die kein D3D10 'kann', aber sonstige Features mitbringen würde?
DAS wäre dann sogar für PCIe interessant!
;D

OK, wäre dann ja das Gleiche in grün...

@Thema

D3D10 für AGP?
Warum nicht?
:confused:

Damit könnten die IHV den Markt noch mehr abzocken, als sie es ohnehin schon tun. Und wenn die Leutz tatsächlich so 'dämlich' sind, ihrer ohnehin schwächelnden CPU ein Aplha-Produkt der neuen Generation zur Seite zu stellen, dann sollen sie es doch tun!

Wie schon gesagt: ich empfinde die derzeit verfügbaren Produkte als nicht leistungsfähig genug für D3D10 und erscherend kommt hinzu, dass man damit auch gleich auf ein neues Betriebssystem gezwungen wird, was dann die Nutzung in 'alten' System 'eh ad absurdum führen würde. Das Betriebssystem selber stellt ja schon sehr viel höhere Ansprüche (DualCore-CPU und 2GB Speicher zum 'Spielen').

Für AGP gibt es doch vollwertige 7950GT's und die 'reichen' vollkommen... auch für PCIe.
:D

Der letzte Satz ist absolut richtig, der 1. muss sich aber erst noch beweisen. Es mag sich unter DX10 eleganter programmieren lassen, keine Frage, aber performanter hab ich bis jetzt noch nix gesehen. Alles was jetzt schon in D3D10 läuft bricht mit Mainstreamkarten so ziemlich bis zur Unspielbarkeitsgrenze ein. Und mit den HighEndkarten schauts auch nur minimal besser aus. Und das auf PCIe-Systemen mit fettem Prozzi. ;(

Kein Kommentar hierzu... nur 100% Zustimung!
:up:

Und dass auf DER Super-HighEnd 8800GTX die API der 'alten' Generation "rasend schnell" bedient wird, ist ja wohl auch nur eine Binsenweißheit. Man möge sich erinnern... D3D9... das war zu Zeiten von R300 (Radeon R9x00) und NV30 (GeForce FX5x00). Das ist ja schon mittlerer Weile Urzeiten her...

...dumm nur, dass dies leider nicht für den Mainstream-Bereich der 'neuen' Generation gilt.

Und je komplexer die Effekte, desto höher die Chance, mit der Flexibilität durch D3D10 schneller zu sein. Beim Effekt-Niveau was wir mit D3D9-Spielen verbinden kann die D3D10-Hardware ihre Leistungsfähigkeit kaum ausspielen.
Fakt ist allerdings, dass die "komplexeren Effekte"
a) kaum offensichtlich sind, besser: mit der Lupe zu suchen sind (Stickwort: "noch weichere Schatten")
b) dieser kaum visuell wahrnehmbare 'Vorteil' mit massiven Geschwindikeitseinbußen einher geht

Wenn also der Vorteil von D3D10 erst dann ausgepielt werden kann, wenn die komplette Engine auf diese API ausgelegt ist (und damit auch die 'alten' aussen vor läßt), dann 'darf' man erwarten, dass die Einführung von D3D10 noch sehr viel schleppender voran gehen wird, als seinerzeit D3D8. Vor allem, wenn man dann noch die Voraussetzung dieser API mit ins Kalkül zieht...

Razor

Gast
2007-08-09, 18:49:43
meiner meinung nach muss es die agp dx10 karten geben!

es sind immer noch weit ueber 50% der mainbaords im umlauf mit agp schnittstelle.

dx10 fuer agp hat also seine berechtigung, besonders im mainstream markt. warum sollte jemand mit einem xp 2500+ nicht in den genuss von dx10 features kommen? hier geht es nicht immer nur um spiele!
ausserdem ist deutschland (gott sei dank) nicht das mass aller dinge. in anderen laendern auf dieser erde ist der agp mainboard anteil wahrscheinlich noch 10x hoeher.

nvidia macht einen grossen fehler nicht auf die agp schnittstelle im bezug auf dx10 karten zu setzten ... vielleicht werden sie dies aber auch noch tun.

wenn ihr euch aufregen wollt, dann regt euch ueber fehlenden 64bit support bei treibern auf. aber nicht fuer eine wirklich sinnvolle ergaenzung von ati.

aths
2007-08-09, 20:01:07
meiner meinung nach muss es die agp dx10 karten geben!

es sind immer noch weit ueber 50% der mainbaords im umlauf mit agp schnittstelle.

dx10 fuer agp hat also seine berechtigung, besonders im mainstream markt.Der Mainstream-Markt der noch AGP hat, ist mit D3D9 gut genug bedient.

warum sollte jemand mit einem xp 2500+ nicht in den genuss von dx10 features kommen? hier geht es nicht immer nur um spiele!Ja, aber sowohl wissenschaftliche Anwendungen als auch D3D10-Spieler setzen eh immer mehr auf Multicore-CPUs.

ausserdem ist deutschland (gott sei dank) nicht das mass aller dinge. in anderen laendern auf dieser erde ist der agp mainboard anteil wahrscheinlich noch 10x hoeher.Die brauchen nicht unbedingt D3D10. Denn in den anderen Ländern gibt es auch kaum die PCs, auf denen es sich lohnt, Vista zu installieren.

StefanV
2007-08-09, 20:27:29
meiner meinung nach muss es die agp dx10 karten geben!
Ach, und warum?!

Weil 50% der Systeme, in denen man AGP DX10 Karten verbauen kann, nicht wirklich in der Lage sind, Vernünftig mit Vista zu laufen?! :ugly:

L.ED
2007-08-09, 21:35:50
Vista & DX10 hin oder her wem Interessiert es (mich nicht), wenn es um neue Grafikkarten geht, dreht es sich für mich allein um den möglichen Bildqualitativen Gewinn! Das meint u.a. AA & AF Faktor, allgemein die Darstellerische 3D Qualität und sehr viel weniger irgendwelche neuen Effekte.

Bin Spieltechnisch (wenn denn) nun mal eher der Oldie, als der der ständig nach neuen Teilen Sucht.

Und wenn ich mir ein Unreal Tournament 2004 anschaue (nur als Beispiel), dann kann ich noch immer nicht behaupten zufrieden sein zu können. Meine Vorstellung von 3D Grafik in einem solchen Spiel (Jahre nach seinem Erscheinen und etliche Grafikkarten Generationen später), ist noch immer nicht erfüllt! ^^

In nicht wenigen MAPs hat man da eben halt noch immer Textursamba (Flimmern etwas weiter in der Entfernung), oder die Darstellerische gesamt Qualität. Da zergeht sich öfters dann auch mal die Bodendarstellung in unschönes Moire Effekt Verschwimmen (je nach Blickwinkel).

Und allein deshalb haben und hätten nach wie vor neue Grafikkartengenerationen ihre Berechtigung auf AGP! Bis eben A diese PC Generationen ausgestorben oder B eine GFX Technikgeneration erreicht wo man sagen kann, gut DX9 ist erfolgreich abgeschlossen, alles was für diese + OpenGL 2.0 und Vorgänger API‘s erschienen, kann zumindest Darstellerisch ohne Makel wiedergegeben werden. (eventuelle Content Designerfehler ggf. mit brachial Rohleistung und GFX Settings Kompensierbar).

Deswegen wäre vermutlich auch ein redesign der GF8 (auch der GTX!) für AGP sicher schön und ich würde so etwas durchaus noch Kaufen O.O , obgleich 3D GFX Performance Technisch derzeit keinerlei bedarf anzumelden hätte (die X1950XT ausreichend schnell für alles was derzeit Spieltechnisch ggf. am Start mal hätte).

Allerdings die Stromaufnahme, was hauptsächlich im Idle meint müsste gefixt werden (deshalb redesing), meine jetzige GFX betrachte ich da schon als sehr Grenzwertig. Und wenn das aber nur noch in diese Richtung so weiterlaufen soll, hat sich das für mich eh erledigt, Computer & gelegentlich Spiel hänge dann endgültig an den Nagel (AUS), aber das tut hier nun nix weiter zur Sache, der Grundtenor meines Einwandes und Befürwortens weiterer AGP Unterstützung (das Warum), ist weiter oben!

Eventl. Rückfragen vorbeugend:
Sys: X2 3800+(@2,5GHz), 3GB RAM, X-Fi Xtreme Music, NForce 3 Ultra

:o)Uhummel
2007-08-09, 21:46:15
Es gibt auch noch sehr flotte AGP-Systeme.-Das vergessen glaub sehr viele! Der Markt ist nunmal da. Kein Mensch verlangt AGP-High-End-Karten. Max. Mid-Range. Alle wären zufrieden und die Hersteller setzen Chips/Karten ab. Gerade AMD hats auch dringend nötig.

Ich würde aber auf jedem Fall sagen, daß nach dieser Generation AGP-Karten absoluter Blödsinn wären. Dann wäre der Markt wieder viel zu winzig und nicht beachtenswert bzw. gewinnbringend. Aber bei ATI verstehe ichs nicht ganz. Wer da ne DX10-Karte kauft ist doch nicht ganz dicht.(Man verzeihe mir dies)-Zumal die Vorgängergen. ein viel besseres P/L-Verhältnis hat (Gerade 1950 Pro) und auf AGP noch erhältlich ist.

Aber für User die ab und dann ein älteres Spielchen (Oder Quali mehr o. w. runterschrauben) bzw. Videos zocken/schauen scheinen die neuen Karten von AMD auf jeden Fall gut zu sein. Nicht jeder braucht ein High-End-Sys.. Da kann man echt ewig diskutieren. Ich denke aber, das sich das Thema AGP spätestens nach dieser Generation nach und nach eh von selbst erledigt.

RaumKraehe
2007-08-09, 22:07:26
Ich verstehe hier teilweise nicht warum AGP immer mit alten und langsammen Systemen gleichgesetzt wird.

Ich hatte bis gestern noch nen 939 System. Das hätte ich mit einem Opteron 185 und 4 GB RAM austatten können. Ich weiß nicht was daran langsam sein soll. Und auf dem Board gab es nen AGP 8x Steckplatz.

Warum einige denken das PCIe gleich schnellere Grakas bedeutet verstehe ich auch nicht.

Gast
2007-08-09, 22:18:01
Der Mainstream-Markt der noch AGP hat, ist mit D3D9 gut genug bedient.

und wer bestimmt das? du? ... ich glauben nicht tim ;-)


Ja, aber sowohl wissenschaftliche Anwendungen als auch D3D10-Spieler setzen eh immer mehr auf Multicore-CPUs.

aha und multicore cpus gibt es nicht mit agp steckplaetzen .. wo lebst du?


Die brauchen nicht unbedingt D3D10. Denn in den anderen Ländern gibt es auch kaum die PCs, auf denen es sich lohnt, Vista zu installieren.

wie gesagt .. du willst also bestimmen was andere fuer reichtig halten sollen? sehr nett. die anderen nationen werden sich fuer deine fuehrung bedanken!

aths
2007-08-09, 22:52:36
und wer bestimmt das? du? ... ich glauben nicht tim ;-)Das bestimmt der Markt. Ich behaupte, wenn der Markt relevant wäre, würde Nvidia versuchen sich ein Teil vom Kuchen abzuschneiden.

aha und multicore cpus gibt es nicht mit agp steckplaetzen .. wo lebst du?Multi-CPU-Systeme gab es auch schon lange vor AGP. Aber dort, wo D3D10-Grakas verkauft werden, ist fast immer auch mindestens ein 16x-PCI-E-Steckplatz vorhanden.

wie gesagt .. du willst also bestimmen was andere fuer reichtig halten sollen? sehr nett. die anderen nationen werden sich fuer deine fuehrung bedanken!Aber bitte nur schriftlich und nicht telefonisch.

RaumKraehe
2007-08-09, 23:33:06
Das bestimmt der Markt. Ich behaupte, wenn der Markt relevant wäre, würde Nvidia versuchen sich ein Teil vom Kuchen abzuschneiden.


So neu ist die Tatsache ja nun nicht das Nvidia auch Motherboard Chipsätze baut.

Man könnte wenn man wollte da gewiss einen Zusammenhang herstellen. ;)

Wen shröpft man mehr? Den User der nur eine Graka will oder den User der sich zu seiner neuen GraKa auch ein neues Motherboard kauft?

Aus meiner Sicht gibt es nicht wirklich einen Grund auf AGP GraKas zu verzichten.

Aber man verdient halt gut daran.

Gast
2007-08-10, 00:11:11
Ist die XFX 7950 GT AGP schneller als die Gainward BLISS 7800 GS+?????

Gast
2007-08-10, 16:19:22
Das bestimmt der Markt. Ich behaupte, wenn der Markt relevant wäre, würde Nvidia versuchen sich ein Teil vom Kuchen abzuschneiden.

das ist deine meinung .. die realitaet sieht wohl anders aus.



Multi-CPU-Systeme gab es auch schon lange vor AGP. Aber dort, wo D3D10-Grakas verkauft werden, ist fast immer auch mindestens ein 16x-PCI-E-Steckplatz vorhanden.
du hast immer noch nicht kapiert, dass es low, mid und high gibt, oder?


Aber bitte nur schriftlich und nicht telefonisch.
ich werde es ausrichten ;-)

aths
2007-08-10, 19:07:06
das ist deine meinung .. die realitaet sieht wohl anders aus.Die Realität sieht so aus, dass Nvidia freiwillig darauf verzichtet, ohne große Anstrengung Geld zu verdienen? In was für einer Realität lebst du denn?

du hast immer noch nicht kapiert, dass es low, mid und high gibt, oder?Nö, erklär mal. Für Vista reicht ein Low-End-Computer eh nicht aus.

ich werde es ausrichten ;-)Danke.

Razor
2007-08-12, 13:46:26
Nö, erklär mal. Für Vista reicht ein Low-End-Computer eh nicht aus.
Natürlich reicht hier "LowEnd"...
PIII und 512MB Speicher samt non3D-GraKa?
Kein Problem!

Man muss nur "KlickiBunti" verzichten... das war auch schon bei WinXP so.
Also... nicht immer so verallgemeinern.

Aber bei dieser blödsinnigen Diskussion hier, gebe ich Dir recht.
Denn: wer nicht bereit ist, in die Systembasis zu investieren, der wird auch keine diskrete Grafikkarte neuester Colour kaufen.
Ergo: kein Markt für einen Hersteller.

Auch scheinen hier die Leutz vollkommen zu vergessen, dass die Hersteller dies offebar nicht wollen... nVidia bietet ja alles an, was dazu nötig wäre, insofern die Hersteller doch einfach nur zugreifen müssen... wenn sie denn wollen. Dass nun nVidia für eine - wirtschaftlich gesehen - unsinnige Lösung kein Geld aus dem Fenster wirft (um z.Bsp. ein Referenz-Layout entwickeln zu lassen), kann man ihnen nun wirklich nicht vorwerfen... wenn man die Grundprinzipien einer Marktwirtschaft verstanden hat.

Razor

aths
2007-08-12, 14:31:33
Ein Schritt in die Richtige Richtung (den nVidia allerdings schon längst - seit gf3 - gegangen ist!), aber die Proukte sind - ganzheitlich gesehen - ganz sicher NICHT "sehr gut".

Man tauscht Vorteile gegen massive Nachteile.
Und das ist IMMER ein mieses 'Geschäft'...

Bei den 'Kleinen' ist es die Leistung, bei den Großen die unerträgliche Leistungsaufnahme... wobei hier ATI sich fast noch den größeren Fauxpars gleistet hat, wenn man das denn überhaupt noch werten will/kann/sollte.Die Strom-Leistungsaufnahme ist gemessen an der "3D-Leistungsabgabe" beim G80 ziemlich gut. Die Kühllösung ist selbst in der Standard-Version erträglich, da gibts aber natürlich auch ein reichhaltiges Angebot an leiseren Varianten bishin zur Wakü. Dass die kleinen (8500, 8600) zu den aktuellen Preisen verkauft werden können zeigt, wie begehrt sie sind.

Für Dich ist es wohl immer noch OK, wenn bei der nächsten Generation von HighEnd-Systemen gleich ein Diesel-Generator mitgeliefert wird... :rolleyes:Solange es gekauft wird ists mir doch Wurscht. Ich mag lieber passive oder wenigstens sehr leise gekühlte Grakas. Aber ich bin nicht der Maßstab.

Wie wäre es mit einer 'abgespeckten' Variante, die kein D3D10 'kann', aber sonstige Features mitbringen würde?
DAS wäre dann sogar für PCIe interessant!Hä? Nur wenige Leute würde denn jetzt noch D3D9-HW kaufen. Abgesehen vom Aufwand der sich für NV ergäbe, zwei Chips zu designen, einmal mit und einmal ohne D3D10. Dafür wären sie wahrscheinlich ausgelacht worden.

Wie schon gesagt: ich empfinde die derzeit verfügbaren Produkte als nicht leistungsfähig genug für D3D10 D3D10-Produkte von NV und AMD haben keinen D3D10-Flaschenhals. Es ist unsinnig zu behaupten, dass sie für D3D10 nicht leistungsfähig genug sein. Sie sind (je nach Leistungsklasse) für D3D9 sehr gut, und können -- falls der gleiche Effekt mit D3D10 umgesetzt wird -- bei komplexen Effekten noch schneller sein. Natürlich ist eine 8800 GTX nicht leistungsfähig genug für Top-Grafik-Spiele Anno 2010. Das hat aber nichts mit D3D10 zu tun. Man kann eine GeForce 2 Ultra auch mit DirectX7 dermaßen auslasten, dass die Framesraten unspielbar werden, oder eine GeForce 4 Ti 4600 mit DirectX8-Shadern so auslasten, dass sie das nicht mehr flüssig packt. Keiner würde sagen, die Karten seien für DX7 oder DX8 zu langsam. Es ist eine Frage des Contents.


Fakt ist allerdings, dass die "komplexeren Effekte"
a) kaum offensichtlich sind, besser: mit der Lupe zu suchen sind (Stickwort: "noch weichere Schatten")
b) dieser kaum visuell wahrnehmbare 'Vorteil' mit massiven Geschwindikeitseinbußen einher gehtDer abnehmende Grenzertrag hat nichts mit D3D10 zu tun -- mit D3D10 wird unter anderem auch die CPU entlastet. Ohne D3D10 würden bessere Effekte langsamer sein, teilweise deutlich. D3D10 verbessert also die Situtation, sonst würde der Effekt des abnehmenden Grenzertrags viel stärker durchschlagen.


Wenn also der Vorteil von D3D10 erst dann ausgepielt werden kann, wenn die komplette Engine auf diese API ausgelegt ist Das hat weniger was mit der Engine zu tun, mehr mit dem Content.

r@w.
2007-08-13, 09:47:51
Die Strom-Leistungsaufnahme ist gemessen an der "3D-Leistungsabgabe" beim G80 ziemlich gut. Die Kühllösung ist selbst in der Standard-Version erträglich, da gibts aber natürlich auch ein reichhaltiges Angebot an leiseren Varianten bishin zur Wakü. Dass die kleinen (8500, 8600) zu den aktuellen Preisen verkauft werden können zeigt, wie begehrt sie sind.
Zusammen-'gemurkelt'...
Die Leistungsaufnahme des G80 ist schlicht katastrophal!
80W fürs nixtun?
Neee....

Und: G84/86 sind derzeit richtige Ladenhüter... der EK ist einfach noch zu hoch.

Hä? Nur wenige Leute würde denn jetzt noch D3D9-HW kaufen. Abgesehen vom Aufwand der sich für NV ergäbe, zwei Chips zu designen, einmal mit und einmal ohne D3D10. Dafür wären sie wahrscheinlich ausgelacht worden.
"Hääääääääää?"
Ich zitiere mich mal selbst... und damit im Kontext:
Wie wäre es mit einer 'abgespeckten' Variante, die kein D3D10 'kann', aber sonstige Features mitbringen würde?
DAS wäre dann sogar für PCIe interessant!
;D

OK, wäre dann ja das Gleiche in grün...
Das sollte dann als 'Antwort' reichen...

D3D10-Produkte von NV und AMD haben keinen D3D10-Flaschenhals. Es ist unsinnig zu behaupten, dass sie für D3D10 nicht leistungsfähig genug sein. Sie sind (je nach Leistungsklasse) für D3D9 sehr gut, und können -- falls der gleiche Effekt mit D3D10 umgesetzt wird -- bei komplexen Effekten noch schneller sein. Natürlich ist eine 8800 GTX nicht leistungsfähig genug für Top-Grafik-Spiele Anno 2010. Das hat aber nichts mit D3D10 zu tun. Man kann eine GeForce 2 Ultra auch mit DirectX7 dermaßen auslasten, dass die Framesraten unspielbar werden, oder eine GeForce 4 Ti 4600 mit DirectX8-Shadern so auslasten, dass sie das nicht mehr flüssig packt. Keiner würde sagen, die Karten seien für DX7 oder DX8 zu langsam. Es ist eine Frage des Contents.
Eine 88GTX ist heute nicht leistungsfähig genug, um das, was heute in "D3D10" verfügbar ist, vernünftig darzustellen. Und da braucht es nicht wirklich 2010, um eine Prognose für die nächsten 3 Monate zu treffen...

Aber Du willst es offenbar nicht verstehen.
Wie das dann aber mit allem 'unter' 88GTX aussieht, brauche ich hier wohl nicht mehr darlegen, oder etwa doch?
:confused:

Der abnehmende Grenzertrag hat nichts mit D3D10 zu tun -- mit D3D10 wird unter anderem auch die CPU entlastet. Ohne D3D10 würden bessere Effekte langsamer sein, teilweise deutlich. D3D10 verbessert also die Situtation, sonst würde der Effekt des abnehmenden Grenzertrags viel stärker durchschlagen.
Das mag theoretisch richtig sein, praktisch sieht man davon nichts.
Die 'besseren' Effekte führen heute zu einer katastrophalen Performance...
...insofern ich Deiner theoretischen Ansicht leider nichts abgewinnen kann.

Das hat weniger was mit der Engine zu tun, mehr mit dem Content.
Wohl kaum...
Oder besser: erkläre doch einfach mal die üble Performance bei derzeitigen D3D10-'Demos'!

Ist ja schön, immer nur theoretisch zu lamentieren, aber besser wäre es doch, all diejenigen Lügen zu strafen, die behaupten, dass die gezeigten D3D10-Effekte gar nicht wirklich 'langsam' ist. Oder sind diese etwa sooooooooo aufwändig, dass diese nicht einmal 2010 Anwendung finden werden?

Schade nur, dass man von diesem "Effekt-Gewitter" nicht wirklich viel mitbekommt...

Razor

r@w.
2007-08-13, 09:50:21
Ich korrigiere mal:

"Ist ja schön, immer nur theoretisch zu lamentieren, aber besser wäre es doch, all diejenigen Lügen zu strafen, die behaupten, dass die gezeigten D3D10-Effekte 'langsam' sind. Oder sind diese etwa sooooooooo aufwändig, dass diese nicht einmal 2010 Anwendung finden werden? "

Zur Erinnerung: wir haben heute 2007...

Razor

Gast
2007-08-13, 11:54:25
Natürlich reicht hier "LowEnd"...
PIII und 512MB Speicher samt non3D-GraKa?
Kein Problem!

Man muss nur "KlickiBunti" verzichten... das war auch schon bei WinXP so.
Also... nicht immer so verallgemeinern.

Aber bei dieser blödsinnigen Diskussion hier, gebe ich Dir recht.
Denn: wer nicht bereit ist, in die Systembasis zu investieren, der wird auch keine diskrete Grafikkarte neuester Colour kaufen.
Ergo: kein Markt für einen Hersteller.

Auch scheinen hier die Leutz vollkommen zu vergessen, dass die Hersteller dies offebar nicht wollen... nVidia bietet ja alles an, was dazu nötig wäre, insofern die Hersteller doch einfach nur zugreifen müssen... wenn sie denn wollen. Dass nun nVidia für eine - wirtschaftlich gesehen - unsinnige Lösung kein Geld aus dem Fenster wirft (um z.Bsp. ein Referenz-Layout entwickeln zu lassen), kann man ihnen nun wirklich nicht vorwerfen... wenn man die Grundprinzipien einer Marktwirtschaft verstanden hat.

Razor

so ein bloedsinn .. die fx5200 wurde auch nur wegen einem angeblichem dx9 features gekauft. und es ist jetzt die meist gekaufte graka ueberhaupt! und hier will doch niemand behaupten, dass die fx5200 ausgereicht haette um dx8 geschweige denn dx9 darzustellen.

genau so verhaelt es sich jetzt mit den low dx10 karten.

Razor
2007-08-13, 18:13:07
Wieso soll eine FX5200 für DX8 nicht ausreichen?
:confused:

Klar, wenn Du 64Bit-Karten meinst, gebe ich Dir recht... das dürfte aber auch für G8x-Karten mit 64Bit-Speicheranbindung gelten.

Ansonsten zum Thema "8600 verkaufen sich gut":
http://www.steampowered.com/status/survey.html

Unter 1% (8800 dagegen mit unter 5% ;-)... und die 8500 werden nicht einmal erwähnt.
OK, wie repräsentativ diese 'Umfrage' ist, mag mal dahin gestellt sein...
...wie aber aths darauf kommt, dass G84 und G86 ein akzeptables Preisniveau haben und insbesonders: aufgrund dessen gut angenommen werden... möchte ich wirklich gerne mal wissen... zumal eigene Quellen exakt das Gegenteil aussagen.

Aber sei es drum.

Razor

aths
2007-08-13, 20:05:24
Zusammen-'gemurkelt'...
Die Leistungsaufnahme des G80 ist schlicht katastrophal!
80W fürs nixtun?
Neee....Wer eine G80-basierende Graka kauft tut das sicher nicht, um sie nichts tun zu lassen.

Und: G84/86 sind derzeit richtige Ladenhüter... der EK ist einfach noch zu hoch.Im Gegenteil, die verkaufen sich wie blöde. D3D10-Karten sind gefragt, besonders die mit 512 MiB RAM.

"Hääääääääää?"
Ich zitiere mich mal selbst... und damit im Kontext:

Das sollte dann als 'Antwort' reichen...Raffe ich immer noch nicht.

Eine 88GTX ist heute nicht leistungsfähig genug, um das, was heute in "D3D10" verfügbar ist, vernünftig darzustellen. Und da braucht es nicht wirklich 2010, um eine Prognose für die nächsten 3 Monate zu treffen...Für Crysis wird afaik eine 7800 GTX empfohlen. Eine 8800 GTS oder GTX reicht selbstverständlich für die D3D10-Effekte aus. Wobei ich mal die These aufstelle, dass sich die "D3D10-Effekte" in Crysis durch die Bank auch mit D3D9-Karten rendern ließen -- nur eben deutlich langsamer. Vielleicht würden die Effekte, programmiert in D3D9, jedoch ausgeführt auf einer D3D10-Karte, noch mit erträglicher Performance laufen (da es sowohl bei ATI als auch bei NV im Zuge von D3D10 viel bessere Shader-Technik in den GPUs gab.) Das ist dann aber auch egal. D3D10 vereinfacht zudem die Programmierung und belastet die CPU weniger als D3D9.

Aber Du willst es offenbar nicht verstehen.
Wie das dann aber mit allem 'unter' 88GTX aussieht, brauche ich hier wohl nicht mehr darlegen, oder etwa doch?
:confused:Wie gesagt, eine D3D10-Karte kann aus der gleichen Rohleistung mehr reale Performance (fps und/oder Effekte) machen als eine D3D9-Karte. Es ist unsinnig zu behaupten eine Karte sei für D3D10 "zu langsam", da D3D10 wie gesagt weniger Overhead mit sich bringt und mehr Ressourcen an die Shader binden lässt als D3D9.

Das mag theoretisch richtig sein, praktisch sieht man davon nichts.
Die 'besseren' Effekte führen heute zu einer katastrophalen Performance...
...insofern ich Deiner theoretischen Ansicht leider nichts abgewinnen kann.Ich halte es für nicht zielführend, Einzelfalldiskussionen zu führen. Es ist fakt dass man mit D3D10 bei gleicher Rohleistung komplexe Effekte schneller rendern kann -- oder eben mehr Effekte, oder die gleichen Effekte in höherer Qualität -- als mit D3D9. Insofern ist es von Vorteil, eine D3D10-Graka zu haben.

Wohl kaum...
Oder besser: erkläre doch einfach mal die üble Performance bei derzeitigen D3D10-'Demos'!Content. D3D9-Karten wären, müssten sie das gleiche rendern, teilweise noch deutlich langsamer.

Ist ja schön, immer nur theoretisch zu lamentieren, aber besser wäre es doch, all diejenigen Lügen zu strafen, die behaupten, dass die gezeigten D3D10-Effekte gar nicht wirklich 'langsam' ist. Oder sind diese etwa sooooooooo aufwändig, dass diese nicht einmal 2010 Anwendung finden werden?

Schade nur, dass man von diesem "Effekt-Gewitter" nicht wirklich viel mitbekommt...Time will tell.



Unter 1% (8800 dagegen mit unter 5% ;-)... und die 8500 werden nicht einmal erwähnt.
OK, wie repräsentativ diese 'Umfrage' ist, mag mal dahin gestellt sein...
...wie aber aths darauf kommt, dass G84 und G86 ein akzeptables Preisniveau haben und insbesonders: aufgrund dessen gut angenommen werden... möchte ich wirklich gerne mal wissen... zumal eigene Quellen exakt das Gegenteil aussagen.Ohne konkreter werden zu können: Meine Quellen sind besser.

Gast
2007-08-13, 20:09:52
Kein Mensch verlangt AGP-High-End-Karten. Max. Mid-Range. Alle wären zufrieden und die Hersteller setzen Chips/Karten ab.Warum sollte sich ein AGP-Nutzer eine Midrange-D3D10-Karte kaufen, wenn er günstiger an D3D9-Highend kommt? Dabei kann er sich sogar gut fühlen, da er nicht den Fortschritt behindert.
...wie aber aths darauf kommt, dass G84 und G86 ein akzeptables Preisniveau haben und insbesonders: aufgrund dessen gut angenommen werden... möchte ich wirklich gerne mal wissen... zumal eigene Quellen exakt das Gegenteil aussagen.Hmm, viele Leute in meinem Bekanntenkreis, sowie Arbeitskollegen, kaufen sich zur Zeit 8600-Karten in Massen und sind damit hochzufrieden. Wenn man bedenkt, dass die meisten (ja, auch Spieler) bestenfalls eine 6600GT, viel eher aber was in Richtung FX5600, besitzen, erfahren diese auch eine ordentliche Leistungssteigerung.
Ist die XFX 7950 GT AGP schneller als die Gainward BLISS 7800 GS+?????Wenn du die Bliss mit vollen 6 Quads meinst, ist die 7950GT schon schneller, aber eben nur soviel wie der Taktunterschied groß ist.

try2fixit
2007-08-14, 04:20:48
Die Realität sieht so aus, dass Nvidia freiwillig darauf verzichtet, ohne große Anstrengung Geld zu verdienen? In was für einer Realität lebst du denn?

Nö, erklär mal. Für Vista reicht ein Low-End-Computer eh nicht aus.

Danke.


Zum Verzicht: So, so, Nvidia verzichtet aber beispielsweise genauso durch eine fehlende SLI-Lizenz für andere Chipsatzhersteller darauf, ERHEBLICH mehr Umsatz mit teuren (High-End-)Grafikkarten zu machen. Und sie könnten DEFINITIV enorm mehr absetzen, wenn sie auch an andere Firmen die Lizenz dafür vergeben und es in ihren Treibern binnen 3 Minuten freischalten würden. DAS ist die Realität, geschätzter Aths. Genau DAS!

Manchmal machen Entscheidungen keinen Sinn, auch nach mehrfacher Betrachtung nicht. Sie werden einfach getroffen, weil gewisse Manager arrogant und starrhalsig sind und einfach nicht über den Tellerrand hinausschauen können. Lieber andere blockieren, als selber mehr verdienen zu können. Sie können sich einfach nicht vorstellen, daß es für etwas einen Markt geben könnte oder sie versuchen, diesen Markt gar nicht erst zu bedienen, da er ihre Pläne durchkreuzen würde.

Und warum bitte schön soll AGP denn tot sein? Es gibt viele leistungsstarke Systeme auf AGP-Basis (z.B. Athlon64 oder soger schöne X2). Und warum bitte sollte sich da nicht eine 8800GTX als AGP lohnen? Natrürlich ist das nicht ganz so schnell wie z.B. im Zusammenspiel mit der C2D Architektur, aber es reicht doch für alle heutigen Games - und auch für die neuen D3D10 Titel sicher noch aus. Zumal dann, wenn ausschließlich die Grafikkarte wegen höherer AA und AF-Settings den Flaschenhals darstellt und nicht die CPU.

Ich stelle aber immer häufiger fest, daß es offensichtlich nur noch darum geht, ständig neue Standards und Normen zu bringen, damit man den (unwissenden) Usern das Geld aus der Tasche ziehen kann. Wo bitteschön werden denn die Bandbreiten, die PCI-E 16x zur Verfügung stellt heute schon ausgenutzt? Und warum kommt denn nun schon wieder PCI-E 2.X und sicher bald auch das schon angekündigte 3.X mit dann noch höheren Bandbreiten?

*Ironie an*@Aths: Damit sind alle Deine schönen PCI-E Klamotten schon wieder Elektroschrott! Wie kann man nur mit so etwas antikem noch arbeiten? Wahrscheinlich hast Du auch noch nicht einmal DDR-3 Speicher im Rechner, oder? *Ironie aus*

PS: Die Fettschrift oben soll nur zum Ausdruck bringen, daß ich diese Worte besonders betonen möchte und sollte nicht als Schreien interpretiert werden.

Gruß

Mario

PS: Ich bemerke gerade, daß ich auch noch so ein uraltes, nicht einmal DDR-3 fähiges Board im Rechner habe und noch eine alte 8800GTX, die auch noch nicht mal einen 8-poligen Stromstecker besitzt und kein PCI-E 2.X Interface hat. Und dazu noch ein grottenlangsamer E6600, wo doch schon alle Welt Quad-Core nutzt und mir sicher gleich jemand sagen wird, daß mit so etwas steinaltem "nicht mal mehr seine Oma spielen würde" und das für jegliche Aufrüstungspläne eh alles sinnlos wäre.....aus irgendeinem Grund halt....

Razor
2007-08-14, 06:11:32
Wer eine G80-basierende Graka kauft tut das sicher nicht, um sie nichts tun zu lassen.
Zu mindestens 90% schon... da gebe ich Dir Brief und Siegel!

m Gegenteil, die verkaufen sich wie blöde. D3D10-Karten sind gefragt, besonders die mit 512 MiB RAM.
Grober Unfug, sorry.

Raffe ich immer noch nicht.
Ist wirklich nicht so schwer...

Für Crysis wird afaik eine 7800 GTX empfohlen. Eine 8800 GTS oder GTX reicht selbstverständlich für die D3D10-Effekte aus. Wobei ich mal die These aufstelle, dass sich die "D3D10-Effekte" in Crysis durch die Bank auch mit D3D9-Karten rendern ließen -- nur eben deutlich langsamer. Vielleicht würden die Effekte, programmiert in D3D9, jedoch ausgeführt auf einer D3D10-Karte, noch mit erträglicher Performance laufen (da es sowohl bei ATI als auch bei NV im Zuge von D3D10 viel bessere Shader-Technik in den GPUs gab.) Das ist dann aber auch egal. D3D10 vereinfacht zudem die Programmierung und belastet die CPU weniger als D3D9.
Crysis ist noch nicht verfügbar... auch gibt es noch nicht einmal Spekulationen über dessen Performance. Und dass eine 7800GTX als "recommended" angegeben wird, zeigt schon recht deutlich in eine Richtung, die auch einer 8800'Ultra' nicht schmecken wird...

Nochmal: alles, was jetzt (vielleicht ist das ja eindringlicher als heute ;-) verfügbar ist, wiederlegt Deine Anmerkungen vollkommen. Und dabei ist es vollkommen unabhängig davon, was D3D10 vielleicht theoretisch bietet, wenn implementierte Realität zeigt, dass derzeit verfügbare Hardware prinizipiell beweist, dass in dieser Hinsicht nur Müll vorhanden ist.

Wie gesagt, eine D3D10-Karte kann aus der gleichen Rohleistung mehr reale Performance (fps und/oder Effekte) machen als eine D3D9-Karte. Es ist unsinnig zu behaupten eine Karte sei für D3D10 "zu langsam", da D3D10 wie gesagt weniger Overhead mit sich bringt und mehr Ressourcen an die Shader binden lässt als D3D9.
Warum sollte ich mit Dir weiter diskutieren, wenn Du nur immer wieder diesen theoretischen Quatsch wiederholst?
:confused:

Du sagst, dass mit D3D10 eine höhere Effekt-Dichte möglich ist. Wird dieses genutzt (wie ja nun schon mehrfach gesehen), dann zeigt aktuelle Hardware große Performance-Schwächen, dies auf den Bildschirm zu bekommen. Und das, wo doch diese höhere Effekt-Dichte nicht einmal offensichtlich ist (wie ebenfalls schon mehrfach dargelegt).

Daraus läßt sich nur eines ableiten: derzeit verfügbare Hardware ist für D3D10 zu langsam!
Wie eben seinerzeit die gf3 für D3D8 oder die fx5 für D3D9 und nun gf8 für D3D10.

Was ist daran so schwer zu vestehen?
Ist ja nicht so, dass dies nicht schon mehrfach so war und wohl auch immer so sein wird... oder besser: wohl so sein muss.

Ich halte es für nicht zielführend, Einzelfalldiskussionen zu führen. Es ist fakt dass man mit D3D10 bei gleicher Rohleistung komplexe Effekte schneller rendern kann -- oder eben mehr Effekte, oder die gleichen Effekte in höherer Qualität -- als mit D3D9. Insofern ist es von Vorteil, eine D3D10-Graka zu haben.
Wieder nutzlose Theoreme.
Du versteckst Dich dahinter... so sieht es aus!

Meine Quellen sind besser.
Wenn dies ähnlcihe Quellen sein sollen, aus denen Du deine theoretischen Ansätze hast, dann sind sie ebenso wertlos, weil praktisch nicht anwendbar. Ich habe meine Informationen (bezüglich verkaufter Grafikkarten) von dem wohl größten Distributor in D. Das sollte genügend Authenzität haben... auch versuchte ich Dir mit einer Consumer-Umfrage eine zusätzliche 'Stütze' zu geben, die Du aber geflissentlich ignoriert hast... paßt ja auch nicht in Dein 'Bild'.

Sorry, aber diese Diskussion mit Dir ist wahrlich sinnbefreit...
Obwohl... in theoretischen Ansätzen durchaus anregend.

Razor

Razor
2007-08-14, 06:20:13
Hmm, viele Leute in meinem Bekanntenkreis, sowie Arbeitskollegen, kaufen sich zur Zeit 8600-Karten in Massen und sind damit hochzufrieden. Wenn man bedenkt, dass die meisten (ja, auch Spieler) bestenfalls eine 6600GT, viel eher aber was in Richtung FX5600, besitzen, erfahren diese auch eine ordentliche Leistungssteigerung."viele" in "Massen"?
Du wiedersprichst Dir im gleichen Satz!

Und dass man mit einer 8600 durchaus ein ordentliches Upgrade bekommen kann, wenn man von einer Vor-Vor-Generation kommt, stelle ich ja gar nicht in Abrede. Wenn man allerdings von der Vor-Generation des Upper-Midrange-Bereiches kommt, lohnt sich dieses "Upgrade" nicht, da es eher ein "Downgrade" ist... hinsichtlich der reinen Performance.

Man kauft sich mit einer 8600 einen Ausblick auf die Zukunft (D3D10), die man aber nie wirklich mit dieser wird wahr nehmen können. Aber im Gegenzug erhält man einen ordentlichen D3D9-Performer, der in diesem Bereich in etwa im Mainstream-Bereich, also dem unteren Performance-Bereich zuzuordnen ist. AA+HDR kann man glatt vergessen (zu geringe Performance), aber das hochqualitative AF ist definitiv ein Pluspunkt.

Und wenn man sich das aktuelle Steam-Survey anschaut, dann ist der Anteil an 8600-Nutzern noch verschwindend klein... aber zumindest tauchen sie schon in der Liste auf.

Razor

Blinx123
2007-08-14, 12:07:24
Ich wollte nur mal 2 Sachen einwerfen.

1. Es gibt AGP Systeme,die sogar einen QuadCore Kentsfield aufnehmen können,das würde für eine weitere Generation AGP Grafikkarten sprechen.

2. NVIDIA Karten können aus einem ganz simplen Grund nicht mehr als AGP gefertigt werden: Die PCIe-AGP Bridge ist zum G80 inkompatible und offiziell unterstützen beide Hersteller (NVIDIA und AMD) keine AGP Karten,dies machen nur einige Retailhersteller,die dafür von NVIDIA und/oder ATI/AMD die Bridgechips geliefert bekommen. Ich hoffe jedenfalls,dass wenigstens noch eine High-End ATI/AMD Karte für AGP kommt. Mein NVIDIA System hat ja eh AGP8X und PCIe16X insofern kann ich jederzeit auf eine PCIe16X basierte DirectX10 Karte setzen.

Coda
2007-08-14, 12:32:07
Zum Verzicht: So, so, Nvidia verzichtet aber beispielsweise genauso durch eine fehlende SLI-Lizenz für andere Chipsatzhersteller darauf, ERHEBLICH mehr Umsatz mit teuren (High-End-)Grafikkarten zu machen. Und sie könnten DEFINITIV enorm mehr absetzen, wenn sie auch an andere Firmen die Lizenz dafür vergeben und es in ihren Treibern binnen 3 Minuten freischalten würden. DAS ist die Realität, geschätzter Aths. Genau DAS!
Dann würden sie viel weniger SLI-Mainboards mit nForce-Chipsatz verkaufen. Ich glaube kaum, dass sich das rechnet ;)

try2fixit
2007-08-14, 13:14:24
Dann würden sie viel weniger SLI-Mainboards mit nForce-Chipsatz verkaufen. Ich glaube kaum, dass sich das rechnet ;)

Das denke ich aber schon.....die "paar" SLI-Boards im Vergleich zu den ganzen Anwendern (wie z.B. meine Wenigkeit) die dann sofort eine zweite High-End Graka kaufen würden, wenn sie denn nur auf dem bisherigen Board liefe....

Ich vermute auch mal, daß der Gewinn durch den dann enorm zunehmenden Grafikkarten-Absatz enorm gesteigert werden könnte. Und die SLI-Boards würden sie ja trotzdem noch verkaufen, da viele halt Nvidia-Chipsätze haben wollen. Negativ wäre das sicher nicht. Durch ihre Politik vierlieren sie dank der derzeitigen Beliebtheit des P35 Chipsatzes von Intel immer mehr User an die Crossfire-Fraktion. Alle, die sich für einen Intel-Chipsatz entschieden haben, können halt nur eine GTX oder GTS einsetzen und nutzen. Ein rieeesen Absatzpotential, das man sich selbst verschließt!!!

In meinen Augen ist diese Entscheidung somit grober Unfug und ökonomisch absoluter Unsinn.

Gruß

Mario

Gast
2007-08-14, 17:09:33
Wo bitteschön werden denn die Bandbreiten, die PCI-E 16x zur Verfügung stellt heute schon ausgenutzt?Zum Beispiel überall dort, wo dynamische Geometrie gefragt ist.
Und warum kommt denn nun schon wieder PCI-E 2.X und sicher bald auch das schon angekündigte 3.X mit dann noch höheren Bandbreiten? Na damit in Zukunft erst gar kein Flaschenhals entsteht. Coda hat ja in einem anderen Thread schon das Beispiel des PCI-Bus gebracht. Der limitiert heute auch überall. Da ist es doch besser den Standard auszubauen, bevor er die restliche Hardware ausbremst. Außerdem dauert es von ersten Spezifikationen bis zu serienreifer Hardware auch noch einige Zeit.
Damit sind alle Deine schönen PCI-E Klamotten schon wieder Elektroschrott!Nö, denn PCIe 2.0 ist voll kompatibel zur Vorgängerversion. Du kannst sowohl PCIe-2.0-Karten in alten Slots nutzen, als auch alte Karten in bspw. X38-Boards.

Gast
2007-08-14, 17:11:32
Durch ihre Politik vierlieren sie dank der derzeitigen Beliebtheit des P35 Chipsatzes von Intel immer mehr User an die Crossfire-Fraktion.Das bezweifle ich stark. Nahezu alle, die ich zur SLI-Zielgruppe zähle, haben sich sofort bei Verfügbarkeit ein 680i-Board gekauft. Der P35 ist eh nicht so toll geeignet für Multi-GPU-Systeme, da der zweite PEG-Slot nur mit 4 Lanes angebunden ist.

aths
2007-08-14, 19:32:50
Zum Verzicht: So, so, Nvidia verzichtet aber beispielsweise genauso durch eine fehlende SLI-Lizenz für andere Chipsatzhersteller darauf, ERHEBLICH mehr Umsatz mit teuren (High-End-)Grafikkarten zu machen. Und sie könnten DEFINITIV enorm mehr absetzen, wenn sie auch an andere Firmen die Lizenz dafür vergeben und es in ihren Treibern binnen 3 Minuten freischalten würden. DAS ist die Realität, geschätzter Aths. Genau DAS! Die Realität ist, dass NV auch Chipsatz-Entwickler ist und mit der SLI-Fähigkeit ihrer Highend-Chipsätze den Absatz derselben ankurbelt. Jemand der SLI nutzen will wird sich eher ein Nforce-Board kaufen als auf SLI zu verzichten.

Manchmal machen Entscheidungen keinen Sinn, auch nach mehrfacher Betrachtung nicht. Sie werden einfach getroffen, weil gewisse Manager arrogant und starrhalsig sind und einfach nicht über den Tellerrand hinausschauen können. Lieber andere blockieren, als selber mehr verdienen zu können. Sie können sich einfach nicht vorstellen, daß es für etwas einen Markt geben könnte oder sie versuchen, diesen Markt gar nicht erst zu bedienen, da er ihre Pläne durchkreuzen würde. Nvidia richtet sich aber danach was der Markt will und masst die Masse zu mit Lowend-Hardware á la GeForce 7500 LE.

Und warum bitte schön soll AGP denn tot sein? Es gibt viele leistungsstarke Systeme auf AGP-Basis (z.B. Athlon64 oder soger schöne X2). Und warum bitte sollte sich da nicht eine 8800GTX als AGP lohnen? Natrürlich ist das nicht ganz so schnell wie z.B. im Zusammenspiel mit der C2D Architektur, aber es reicht doch für alle heutigen Games - und auch für die neuen D3D10 Titel sicher noch aus. Zumal dann, wenn ausschließlich die Grafikkarte wegen höherer AA und AF-Settings den Flaschenhals darstellt und nicht die CPU.

Ich stelle aber immer häufiger fest, daß es offensichtlich nur noch darum geht, ständig neue Standards und Normen zu bringen, damit man den (unwissenden) Usern das Geld aus der Tasche ziehen kann. Wo bitteschön werden denn die Bandbreiten, die PCI-E 16x zur Verfügung stellt heute schon ausgenutzt? Und warum kommt denn nun schon wieder PCI-E 2.X und sicher bald auch das schon angekündigte 3.X mit dann noch höheren Bandbreiten? Warum sollte etwas zu 100% ausgenutzt werden ehe man eine noch bessere Lösung einführt?

*Ironie an*@Aths: Damit sind alle Deine schönen PCI-E Klamotten schon wieder Elektroschrott! Wie kann man nur mit so etwas antikem noch arbeiten? Wahrscheinlich hast Du auch noch nicht einmal DDR-3 Speicher im Rechner, oder? *Ironie aus*Natürlich nicht. Wäre mir mein altes Mainboard nicht kaputt gegangen hätte ich heute noch ein AGP-MB mit AGP-Graka. Ich würde aber nicht auf die Idee kommen zu verlangen, dass D3D10-Karten gefälligst auch für AGP erscheinen sollten. Ich hab eine Singlecore-CPU von AMD, die mir im Moment völlig ausreicht.

aths
2007-08-14, 19:37:20
Zu mindestens 90% schon... da gebe ich Dir Brief und Siegel!Ich kenne Zocker die ihren PC fast nur zum Zocken anschalten.

Grober Unfug, sorry.Das ist natürlich eine schlagende Argumentation. Ich hab mich heute extra noch mal erkundigt: Die kleineren D3D-Grakas gehen weg wie warme Semmeln. Selbst die 8800 GTS verkauft sich in hohen Volumina. Die 8800 Ultra wird auch häufiger verkauft als man denkt. (Das ist halt die schnellste Graka.)

Warum sollte ich mit Dir weiter diskutieren, wenn Du nur immer wieder diesen theoretischen Quatsch wiederholst?
:confused:Das ist kein Quatsch. Anstelle sich selbst mit D3D10 zu beschäftigen reitest du auf deine persönlichen Einzelerfahrungen herum, ohne eine Ahnung von den Programmier-Mechanismen zu haben. Solange das so bleibt ist hier EOD für mich.

Wenn dies ähnlcihe Quellen sein sollen, aus denen Du deine theoretischen Ansätze hast, dann sind sie ebenso wertlos, weil praktisch nicht anwendbar. Meine Kenntnisse in der Theorie habe ich mir im jahrelangen Selbststudium angeeignet. An meine praktischen Kenntnisse und Fertigkeiten in Bezug auf Grakas kommst du auch nicht ran. Da muss ich mir keine Rhetorik-Gefechte liefern, sorry.

Coda
2007-08-14, 20:13:30
Aths hat recht. Nur um das nochmal zu unterstreichen.

Razor
2007-08-14, 22:00:09
Solange das so bleibt ist hier EOD für mich.
Dito.

Aths hat recht. Nur um das nochmal zu unterstreichen.
Oh mann... :uclap:

Razor

P.S.: mögen hier andere beurteilen, wer hier aus der Praxis heraus argumentiert und wer nicht.
Konkrete Stellungnahmen (aus der Praxis) - inbesondere einer bestimmten Person - waren auch nicht wirklich zu erwarten...

aths
2007-08-15, 19:54:05
*Stöhn* Gäbe es einen Unterschied zwischen Theorie und Praxis, wäre die Theorie falsch. Ohne theoretisches Wissen kann man – wie man hier sieht – die Praxis nicht richtig bewerten.

Was aktuelle D3D10-Techdemos so langsam macht ist die Tatsache, dass dort sehr viele sehr detaillierte Objekte gerendert werden. Dass die Demos langsam sind hat nichts mit D3D10 zu tun. Die gleichen Szenen mit D3D9 zu rendern würde in deutlich niedrigeren Frameraten resultieren, inbesondere auf einer GeForce 7 die keine entkoppelten TMUs hat, dafür ein Registerproblem in den ALUs.

Coda
2007-08-15, 20:11:46
Oh mann... :uclap:
Mein lieber Herr Razor. Ich zeige (http://www.mental-asylum.de/files2/oed20.png) dir mal was Praxis (http://www.mental-asylum.de/files2/ovs.png) ist. Und jetzt Ruhe auf den billigen Plätzen.

ICH schreibe gerade an einer D3D10-Engine. Und jetzt erklär mir das mit der Theorie nochmal. Ich neige ja darauf solchen Stumpfsinn zu vermeiden, aber bei dir hilft wahrscheinlich nichtmal das.

Razor
2007-08-15, 20:13:09
Wer redet denn davon, dass "D3D10 zu langsam ist"?
:confused:

Da sieht man mal wieder gut, wie Theorie die Aufnahmefähigkeit beschränken kann... was nicht böse gemeint ist.

Ich sage lediglich, dass heutige (diesmal nicht fett und unterstrichen) Grafikkarten für heutige D3D10-Anwendungen zu langsam sind... und Du wirst mir hoffentlich zustimmen, dass dem auch so ist. Wenn es also mit dem "D3D10-Feuerwerk" erst richtig los geht (mal also tatsächlich auch mal was zu sehen bekommt ;-), dann kann selbst eine 88Ultra glatt einpacken... ganz zu schweigen von den 'kleineren' Modellen.

Nicht mehr und auch nicht weniger versuchte ich Dir zu vermitteln.

Razor

P.S.: Coda kann es einfach nicht lassen, oder? Er täte gut daran mal wieder ein bissel in sich zu gehen...

aths
2007-08-15, 20:34:04
Wer redet denn davon, dass "D3D10 zu langsam ist"?
:confused:

Da sieht man mal wieder gut, wie Theorie die Aufnahmefähigkeit beschränken kann... was nicht böse gemeint ist.

Ich sage lediglich, dass heutige (diesmal nicht fett und unterstrichen) Grafikkarten für heutige D3D10-Anwendungen zu langsam sind... Nein, du hast generell von D3D10 gesprochen:

Wie schon gesagt: ich empfinde die derzeit verfügbaren Produkte als nicht leistungsfähig genug für D3D10 und erscherend kommt hinzu, dass man damit auch gleich auf ein neues Betriebssystem gezwungen wird, was dann die Nutzung in 'alten' System 'eh ad absurdum führen würde. Das Betriebssystem selber stellt ja schon sehr viel höhere Ansprüche (DualCore-CPU und 2GB Speicher zum 'Spielen').


und Du wirst mir hoffentlich zustimmen, dass dem auch so ist. Wenn es also mit dem "D3D10-Feuerwerk" erst richtig los geht (mal also tatsächlich auch mal was zu sehen bekommt ;-), dann kann selbst eine 88Ultra glatt einpacken... ganz zu schweigen von den 'kleineren' Modellen.Ich stimme nur zu, dass eine 8800 Ultra nicht mehr in der Lage ist, die Grafikkracher 2008 und 2009 mit maximalen Details in sehr hohen Auflösungen und in Kombination mit hohen AA/AF-Leveln bei sehr flüssigen Frameraten zu berechnen. Weil der Content der AAA-Grafik-Titel 2008 und 2009 bestimmte Anforderungen stellt, nicht, weil diese Titel auch D3D10 unterstützen.

P.S.: Coda kann es einfach nicht lassen, oder? Er täte gut daran mal wieder ein bissel in sich zu gehen...Was kann Coda nicht lassen? Zu zeigen, dass er mehr Ahnung hat (von Theorie wie Praxis) als andere am Thread Beteiligte?

Coda
2007-08-15, 20:35:44
Coda kann es einfach nicht lassen, oder? Er täte gut daran mal wieder ein bissel in sich zu gehen...
Was kann ich nicht lassen? Ahnung haben im Gegensatz zu dir und nicht allen das Wort im Mund herumdrehen? Ja, das kann ich in der Tat nicht lassen.

Desweiteren kann man heutige D3D10-Titel wie CoH und LP durchaus vernünftig auf einer heutigen 8800 GTX spielen. Und natürlich werden heutige Karten bei Spiele die in 1-2 Jahren erscheinen Probleme haben, das liegt aber an der Rohleistung und nicht der API.

Weder G80 noch R600 leisten sich an irgendeiner Stelle besonders eklatante Schwächen bei der D3D10-Implementierung. Und ich sage auch nicht, dass es besonders sinnvoll ist heute D3D10-Karten zu kaufen um für die Zukunft vorbereitet zu sein. Das hat noch nie funktioniert.