PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Lebensdauer der 6800 / x800er?


MSonde
2004-06-23, 22:50:09
Hi@All

Seit meiner Trio-schiess-mich-tot,(Elsa Gadiga war noch n Hit)
habe ich immer ne Graka-Generation ausgelassen.
Heute muß ich leider feststellen das Heute (x800Pro)
sowiwo ein alter Hut ist es bis nächstes Jahr schaftt und dann die Puste raus ist. Oder????

-error-
2004-06-23, 22:56:24
Wenn das so währe, dann könnte ich meine 9800Pro ja in den Müll schmeißen.

Aber so ist es nunmal, Anfang 2005 werden sicherlich die NextGen-Chips rauskommen, R500 und NV50.

MSonde
2004-06-24, 00:02:44
Ja Leider
und der ganse Stress ist wieder da ...
Nee Ich hofe das es nicht so schliemm wird.

Es soll ja nur ne Übergangslösung sein mit der x800Pro;D :(

Kenny1702
2004-06-24, 00:27:14
Original geschrieben von Desire
Wenn das so währe, dann könnte ich meine 9800Pro ja in den Müll schmeißen.

Aber so ist es nunmal, Anfang 2005 werden sicherlich die NextGen-Chips rauskommen, R500 und NV50.
Na ja, die Entwicklungszyklen werden immer länger und die Entwicklungskosten kann man auch nur einfahren, wenn man eine Architektur gut ausschlachtet. Von daher erwarte ich die neuen Karten (mit einer neuen Architektur) definitiv nicht Anfang 2005, eher, wenn es gut läuft, Ende 2005.

Tjell
2004-06-24, 08:15:05
Original geschrieben von Kenny1702
Na ja, die Entwicklungszyklen werden immer länger und die Entwicklungskosten kann man auch nur einfahren, wenn man eine Architektur gut ausschlachtet. Von daher erwarte ich die neuen Karten definitiv nicht Anfang 2005, eher, wenn es gut läuft, Ende 2005.

Neue Karten oder neue Architekturen?

Also neuere und schnellere Karten basierend auf Refresh-Chips werden uns Käufer auch weiterhin auf Trab halten. :)

Mit den neuen Architekturen NV50 und R500 wirst Du aber sicher Recht haben, da kann man erwarten, daß die sich zeitlich noch ein wenig nach hinten orientieren.

Sollten sich jedoch die "kleinen Abkömmlinge" des NV40 als performant und technisch sowie preislich solide auf dem Markt einfinden, so könnte zumindest Ati ein wenig in Zugzwang sein, den R500 zu pushen, denn gerade im Mainstream-Bereich mit den ganzen OEM-Anbietern ist ein Feature wie "schnelles Shadermodel 3.0" oder ähnliches Marketing-Tamtam ein zugstarkes Kaufargument für die Kühe... Verzeihung, Lemminge... NEIN... Kunden! :D

Die Verlängerung der Entwicklungszeiten wird aber meiner Meinung nach am deutlichsten an deren Nachfolgern zu beobachten sein.

Jesus
2004-06-24, 12:18:51
Original geschrieben von Tjell
denn gerade im Mainstream-Bereich mit den ganzen OEM-Anbietern ist ein Feature wie "schnelles Shadermodel 3.0" oder ähnliches Marketing-Tamtam ...:D

richtig, Marketing-Tamtam :)

Tjell
2004-06-24, 12:43:57
Original geschrieben von Jesus
richtig, Marketing-Tamtam :)

Ich weiß, worauf Du wieder mal hinauswillst... ;)
Ich vermute aber auch, daß Du meine ursprüngliche Intention verstanden hast.
Belassen wir es einfach, was die Technik angeht, bei diesen beiden Aussagen, ansonsten artet das hier wahrscheinlich auch wieder aus.

Kenny1702
2004-06-24, 13:00:28
Original geschrieben von Tjell
Neue Karten oder neue Architekturen?

Sie haben vom NV 50/ R500, deswegen ist das ein wenig bei mir durcheinander geraten;).

2B-Maverick
2004-06-24, 14:16:27
1: Ich erwarte daß man mit einer aktuellen Karte (X800XT - 6800GT/U) mindestens 2 Jahre bequem jedes Spiel spielen kann.
Meine 9700nonPro läuft immer noch prima mit 360MHz Coretakt und reicht für alles aus. Meistens sogar mit 4xAA.

2: Ich denke daß eine RICHTIG neue ATI Generation (R500/520) deutlich VOR einem NV50 kommen könnte.
Schließlich ist der R420 ja "nur" ein aufgepeppter R300. Also quasi ein ultra-refresh Chip

Rk@arbeit
2004-06-24, 15:41:24
Ist es nicht so, das R420/NV40 die letzten reinen AGP Chips waren, und die next generation R520/NV50 reine PCI-E Lösungen sind?

Demnach könnte man ja ohne bedenken zur aktuellen Reihe zuschlagen. Da ich zum Beispiel, mein System (AMD XP 2800+, nforce2) noch bis mindestens ende nächsten Jahres behalte.

2B-Maverick
2004-06-24, 15:58:39
Original geschrieben von Rk@arbeit
Ist es nicht so, das R420/NV40 die letzten reinen AGP Chips waren, und die next generation R520/NV50 reine PCI-E Lösungen sind?

Demnach könnte man ja ohne bedenken zur aktuellen Reihe zuschlagen. Da ich zum Beispiel, mein System (AMD XP 2800+, nforce2) noch bis mindestens ende nächsten Jahres behalte.

tjoa, aber die nächsten Chips gibbet garantiert auch noch mit AGP Interface und sei es nur per Bridge-Chip

MechWOLLIer
2004-06-24, 16:42:46
Also mit derzeiztigen High End KArten, sprich Radeon X800XT und Geforce 6800Ultra wird man sicherlich 2 JAhre seine Freude dran haben können und danach noch ein weiteres JAhr mit ein paar kleinen Einbußen.

Zauberer
2004-06-26, 11:25:55
Ich erwarte eigentlich vom R500 den größten Leistungssprung aller Zeiten und die Meinung habe ich schon seit 2 Jahren!

Ich befürchte aber das die R500-Technik erst in 1-2 Jahren kommen wird.
Aus dem R500 wird R520 das Gleiche wie beim R400 und R420.
Wenn ATI seiner Namensgebung treu sein wird (was zu erwarten ist), dann ist der R520 ein aufgemotzter R400, weil der R420 ein aufgemotzter R300 ist.
Ergo wird der R520 ein nur SM3.0 Chip und kein SM4.0 wie der R500.
Bei NV sieht es ähnlich aus, nach dem FX-Schrott haben die endlich mal wieder einen konkurrenzfähigen und technologisch vorgeschrittenen Technologie-Chip.
Ergo wird der NV50 ein Aufguss vom NV40 sein.

Es könnte also sein das die "Lebensdauer von der 6800/x800" doch 1-2 Jahren sein wird. Also damit meine ich das die immer noch schneller sein werden wie die "Mirage" Karten bis 200€.

Das gleiche galt vor einigen Monaten noch z.B. für die 9700 Pro die wird 2 Jahre alt und stampft eine 9600 oder eine FX5600 in Grund und Boden, egal ob die "XT" oder "Ultra" heißen.
Durch den Preisfall der "9800Pro" und "FX5900" bieten jetzt bis 200€ Karten ne schnellere Altarnative.

Aber Gegen die Neuen SM4.0 Chips von ATI/NV werden die R420/NV40 nicht nur keine Chance haben(war ja klar :D), sondern bestimmt die 4X-8X Leistung in den "NGG" (Next-Gen-Games) :D bringen.

ironMonkey
2004-06-26, 11:56:37
Eine Karte hält so lange man will, es gibt einige die finden die karte nach 1 jahr zu lahm und holen sich den Refresh, andere zocken glücklich 3 Jahre damit, ist eine Frage wie man die Dinge sieht, auf jeden Fall wird der Sprung bei ATI was Features angeht beim R500 um einiges größer als bei NV mit dem NV50 wenn man von den jetzigen Karten ausgeht, da ja NV schon nen ziemlich großen Abstand hat was Features betrifft derzeit.

Wie sieht es den jetzt eigentlich aus?????Nennt sich das Teil fürn PC bei ATI jetzt R500 und für die XBOX R520 oder anderstrum?????



Gruß

Winter[Raven]
2004-06-26, 12:13:58
Aha ... wie kommst du drauf?

//EDIT:

Woher hast du die Infos zum Featureset eines NV50?

LovesuckZ
2004-06-26, 12:17:08
Original geschrieben von Winter[Raven]
Aha ... wie kommst du drauf?

Exakt.
Nachdem ATi doch so gut mit dem r420 durchkommt, warum sollte sie mehr machen als SM3.0 draufzupappen.
Den User interessiert doch sowieso nur die Balkenlaenge, ist doch egal, ob dies durch eine Architektur aus dem Jahre 2002 erreicht wird...

/edit: Und damit kristalisiert sich die Lebensdauer heraus: Ein NN40 haelt deswegen laenger, da er den groeßeren Featureumfang hat.

TiMaster
2004-06-26, 12:20:41
Original geschrieben von Winter[Raven]
.

ATI wird zusätzliche Features in den R500 einbauen, die Features, die bei NV 40 bereits vorhanden sind.:)

Zauberer
2004-06-26, 12:45:11
Original geschrieben von Winter[Raven]
Aha ... wie kommst du drauf?

//EDIT:

Woher hast du die Infos zum Featureset eines NV50?
Meinst Du mich?
Der R420 ist ein aufgemotzter R300, das wissen wir doch alle oder?
Dann ist der R520 ein aufgemotzter R400(der nie zur Marktreife kam, der R400 sollte ein neuer SM3.0 Chip sein der "nicht" auf dem R300 aufbaut), logo oder?
Ergo wird der R520 ein nur SM3.0 Chip, der nicht auf dem R300 aufbaut.

Damit ist der Sprung ATI was Features angeht (R420->R520) auf jeden Fall höher als bei NVidia (NV30->NV40).
Es sei den der NV40 hat SM4.0, aber dann wäre der Sprung "nur" gleichwertig, weil von SM2.0->SM3.0 ist es eine Versionsnummer und von SM3.0->SM4.0 auch "nur eine".
Um den größeren Feature-Sprung zu machen müsste der NV50 schon SM5.0 haben(das ist ziemlich unrealistisch)! ;D
Also ATI wird einen größeren Feature-Sprung als NVidia machen! :D

Lacht Ihr schon? :???:
:rofl:
Jetzt im Ernst der Sprung von SM3.0->SM4.0 ist schon größer als von SM2.0 auf SM3.0, aber glaubt Ihr wirklich NVidia bring in 9-12 Monaten wieder einen komplett anderen Chip mit SM4.0 raus?
SM4.0 wird dann eh noch nicht von Microdollar unterstützt.

Aber wir können gerne weiter im Spekulatiusforum weiter diskutieren.(R500/NV50 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=138102))

Tjell
2004-06-26, 13:57:00
Ähm, *hüstel*, nichts für ungut, Zauberer, aber der R420 ist im Prinzip eine Notlösung gewesen.

Dein Schluß von Codenamen auf die zukünftigen Chiparchitekturen ist allein deshalb ein wenig verfehlt.

Was nicht bedeuten muß, daß Du mit dem generellen Marschweg von Ati falsch liegst.

DanMan
2004-06-26, 14:03:55
Original geschrieben von MechWOLLIer
Also mit derzeiztigen High End KArten, sprich Radeon X800XT und Geforce 6800Ultra wird man sicherlich 2 JAhre seine Freude dran haben können und danach noch ein weiteres JAhr mit ein paar kleinen Einbußen.
Seh ich auch so. Schließlich sind die Karten absolut betrachtet mitunter mehr als doppelt so schnell wie die vorhergayende Generation.
Was im Umkehr-Schluss bedeutet, dass jeder, der sich eine NV3x oder R3X für mehr als den halben Preis eines NV40 oder R420 kauft, in die Klapsmühle gehört. :bäh:

ironMonkey
2004-06-26, 14:29:58
Original geschrieben von LovesuckZ
Exakt.
Nachdem ATi doch so gut mit dem r420 durchkommt, warum sollte sie mehr machen als SM3.0 draufzupappen.
Den User interessiert doch sowieso nur die Balkenlaenge, ist doch egal, ob dies durch eine Architektur aus dem Jahre 2002 erreicht wird...

/edit: Und damit kristalisiert sich die Lebensdauer heraus: Ein NN40 haelt deswegen laenger, da er den groeßeren Featureumfang hat.


Ach stimmt hatte ich ja ganz vergessen, GF 256, GF2, GF3 GF4 GF5(NV30) waren ja jedes mal komplett neue Chips die die meisten Features hatten.


Also das wenn die Leistung stimmt reicht der NV40 länger, ist keine Frage, aber erstmal muss er die Leistung haben in der Praxis, nicht Theorie.


Gruß

aths
2004-06-26, 20:13:09
Original geschrieben von Zauberer
Jetzt im Ernst der Sprung von SM3.0->SM4.0 ist schon größer als von SM2.0 auf SM3.0,Woher weißt du das?

TiMaster
2004-06-26, 22:09:18
Original geschrieben von ironMonkey
Ach stimmt hatte ich ja ganz vergessen, GF 256, GF2, GF3 GF4 GF5(NV30) waren ja jedes mal komplett neue Chips die die meisten Features hatten.


Also das wenn die Leistung stimmt reicht der NV40 länger, ist keine Frage, aber erstmal muss er die Leistung haben in der Praxis, nicht Theorie.


Gruß

Allerdings war NV25(geforce4ti) kein komplett neuer Chip, er war ein verbesserter NV20(geforce3ti)

Coda
2004-06-26, 22:35:44
Bei der GeForce 2 GTS war es sogar noch "schlimmer"
Das ist nur eine Takterhöhung + Die-Shrink der GeForce 256

ow
2004-06-26, 22:47:52
Original geschrieben von Coda
Bei der GeForce 2 GTS war es sogar noch "schlimmer"
Das ist nur eine Takterhöhung + Die-Shrink der GeForce 256

Und aus 4x1 tri wurde 4x2 bi.

Zauberer
2004-06-26, 23:17:21
Original geschrieben von aths
Woher weißt du das?
Wieso fragen mich das alle? :???:
Ich dachte Ihr wärt auch der Meinung.
Es wird doch bei SM4.0 nicht mehr zwischen PS und VS unterschieden, oder irre ich mich?
Ist das nicht ein revolutionärer Technologiesprung?

Bei der "Unreal Engine 3" die ca. 2006 Erscheint, sehen die SM3.0 und SM2.0 Effekte gleich aus.
SM3.0 ist als optimiertes SM2.0 und SM2.0 optimiertes SM1.x.
Die Wasserdarstellung von Far Cry basiert auch auf SM1.1.
Das ist doch ne Frage der Geschwindigkeit, wenn man nur SM1.x oder nur SM.20 oder nur SM.3.0 Shader verwendet dann geht der Speed in den Keller.
Die gesunde Mischung machst, weil die Grafikchips ja abwärtskompatibel sind.
Ein Reiner SM3.0 Chip wäre bei SM3.0 only Spielen höllenschnell, aber dann könnte man kein einziges Spiel spielen, weil es keine SM3.0 only Spiele gibt und bestimmt auch nicht geben wird.

Das ist Fluch und Segen der Abwärtskompatibilität, die Chips werden immer Komplexer und damit schwerer hoch zu takten und teurer in der Produktion.
Der Vorteil ist das ein neuer Grafikchip auch ältere Spiele darstellen kann und die sogar noch schneller laufen.

Die Konsolen könnten nur den Segen bekommen, weil alle Spiele auf der Hardware angepasst werden.
Am Besten die nächste XBOX bekommt einen spezialen SM4.0 only Chip ohne T&L und ohne SM1.x und ohne SM2.0 Support.
Die alten XBOX Spiele werden aufwendig Emuliert auch wenn das ein 400% Leistungsverlust bedeutet, laufen die Spiele min so schnell wie auf der originalen 1. Xbox.
Dann hat der Chip keine 100 Millionen Transistoren und ist trotzdem ultraschnell, weil die Spiele speziell für Ihn geschrieben werden.

Sony und Nintendo machen das schon seit Jahren fast so.
Bei denen stand nicht der Speed oder die Leistung im Vordergrund sondern der Preis.
Darum kann man auch Transistoren einsparen.

Winter[Raven]
2004-06-26, 23:41:40
@ Zauberer

Jetzt hast du aber zuviel des guten gezaubert...X-D

Zauberer
2004-06-26, 23:57:17
Sorry, ich dachte ich wäre im Spekulations-Forum. :(

Tjell
2004-06-27, 00:05:46
Naja, nur diesem Thema (Thread) hier paßt's nicht. :ratlos:

MadManniMan
2004-06-28, 03:50:04
Original geschrieben von ow
Und aus 4x1 tri wurde 4x2 bi.

Sorry 4 OT:

...weil man IIRC einen HW-Defekt ausmerzte?

Gast
2004-06-28, 09:20:02
Original geschrieben von MadManniMan
Sorry 4 OT:

...weil man IIRC einen HW-Defekt ausmerzte?

Nein, wie kommst du darauf?

MadManniMan
2004-06-28, 09:58:34
Original geschrieben von Gast
Nein, wie kommst du darauf?

Ich hatte es so in Erinnerung, daß nV beim NV10 ebenfalls 4*2Bi geplant hatte, durch einen Defekt jedoch an Variablität einbüßte, jedoch auf 4*1Tri retten konnte.

Alles IIRC :)

Gast
2004-06-28, 10:06:27
Original geschrieben von MadManniMan
Ich hatte es so in Erinnerung, daß nV beim NV10 ebenfalls 4*2Bi geplant hatte, durch einen Defekt jedoch an Variablität einbüßte, jedoch auf 4*1Tri retten konnte.

Alles IIRC :)

Das sind nur unbestaetigte Geruechte, die mal jemand in die Welt gesetzt hat. Ich glaube nicht, dass NV vom TNT zum GF gleich den Sprung von 2x1 auf 4x2 gehen wollte. Wozu denn auch, da man ja eh konkurrenzlos dastand.

Tjell
2004-06-28, 10:18:14
Original geschrieben von MadManniMan
Alles IIRC :)

Nicht zum Thema gehörend:
Also langsam glaube ich, daß ich zu alt für das Internet und den hiesigen Sprachgebrauch bin - der Gebrauch vieler Synonyme und Abkürzungen sind für mich nicht oder nur schwer verständlich. :) IIRC, IHV, ISV und so weiter und so fort... Ich als Internet-Späteinsteiger (zu Zeiten der letzten v90-Modems) und Chat-Verweigerer stehe manchmal echt auf dem Schlauch.

Kennt jemand ein gutes Abkürzungsverzeichnis?

Im Übrigen würde ich es begrüßen, wenn weniger (vor allem englische) Abkürzungen verwendet werden würden. Auch weiß ich nicht, warum man unbedingt "Thread" und "Post" anstelle von "Thema" und "Beitrag" verwenden muß.

Ich für meinen Teil versuche soweit es geht auf sinnlose Abkürzungen zu verzichten und lieber einen hoffentlich verständlichen durchgängigen deutschen Text zu verfassen. :)

Das nur so am Rande.

MadManniMan
2004-06-28, 10:21:04
Original geschrieben von Gast
Das sind nur unbestaetigte Geruechte, die mal jemand in die Welt gesetzt hat. Ich glaube nicht, dass NV vom TNT zum GF gleich den Sprung von 2x1 auf 4x2 gehen wollte. Wozu denn auch, da man ja eh konkurrenzlos dastand.

Ich weiß nicht, wer das hier dereinst zuerst angesprochen hatte, aber ich find die Theorie sehr interessant.

Der Sprung von 2*1 auf 4*2 is gigantisch, genauso gigantisch ist jedoch die Bandbreitenbeschränkung der GTS ... der GeForce DDR hätte noch viel mehr Geld in die Kassen von nV spielen können, da er mit einer 4*2 Architektur noch wesentlich deutlicher vom GeForce 256 hätte davonziehen können ;)

Gast
2004-06-28, 11:05:00
Original geschrieben von MadManniMan
Ich weiß nicht, wer das hier dereinst zuerst angesprochen hatte, aber ich find die Theorie sehr interessant.


Ich glaube Xmas hat behauptet, dass die orginale GF tri-TMUs hat. Da ergab sich natuerlich die Frage, warum dies so ist.


Der Sprung von 2*1 auf 4*2 is gigantisch, genauso gigantisch ist jedoch die Bandbreitenbeschränkung der GTS ... der GeForce DDR hätte noch viel mehr Geld in die Kassen von nV spielen können, da er mit einer 4*2 Architektur noch wesentlich deutlicher vom GeForce 256 hätte davonziehen können ;)

GF256 und GFDDR sind doch derselbe Chip.
Die Bandbreitenbeschraenkung liegt eher im Memory-Controller der GF-Chips als an der Bandbreite selbst.

Hakkerstiwwel
2004-06-28, 11:10:31
Original geschrieben von ironMonkey
Ach stimmt hatte ich ja ganz vergessen, GF 256, GF2, GF3 GF4 GF5(NV30) waren ja jedes mal komplett neue Chips die die meisten Features hatten.

Gruß

Schade daß niemand die Ironie bemerkt..

Grestorn
2004-06-28, 12:55:41
Original geschrieben von Tjell
Nicht zum Thema gehörend:
Also langsam glaube ich, daß ich zu alt für das Internet und den hiesigen Sprachgebrauch bin - der Gebrauch vieler Synonyme und Abkürzungen sind für mich nicht oder nur schwer verständlich. :)

Hehe, wie schon in der AOL Werbung: "Du bist zu langsam für diese Welt!" :D

Aber Du hast natürlich vollkommen Recht mit deinen Anmerkungen. Hier die Erklärungen zu den von Dir genannten Abkürzungen:

IIRC: If I Remember Correctly
IHV: Independent Hardware Vendor
ISV: Independent Software Vendor

Die letzten beiden Abkürzungen sind auch außerhalb des Internets weit gebräuchlich. Es gibt einfach keine guten deutschen Abkürzungen, und die Leute sind halt faul.

Ich für meinen Teil schreibe lieber "m.E." (meines Erachtens) oder m.M. (meiner Meinung) also "IMO" (in my Opinion). Das bedeutet aber nicht, dass jemand m.M. deswegen besser versteht als IMO. Und die meisten hier sind wohl auch in internationalen Foren unterwegs und haben sich deswegen auch die internationalen Abkürzungen angewohnt.

Tjell
2004-06-28, 13:11:25
Original geschrieben von grestorn
Hehe, wie schon in der AOL Werbung: "Du bist zu langsam für diese Welt!" :D


Verdammt: erste graue Haare, ich verstehe die heutige Sprache kaum und noch 2 Jährchen, dann steht eine 3 vor meiner Altersangabe - ich werde alt :D

Sphinx
2004-06-28, 13:48:46
Original geschrieben von Tjell
Verdammt: erste graue Haare, ich verstehe die heutige Sprache kaum und noch 2 Jährchen, dann steht eine 3 vor meiner Altersangabe - ich werde alt :D

Mann - dann bist du aber wirklich spät eingestiegen...
Mein erster lauffähiges Internet Mediumgerät war´n Amiga 1200 mit T-Online BTX,Internet ,) und solch einem Müllbrowser wie Voyager und dem kewlen AmIRC... |*i miss you C=

Tjell
2004-06-28, 14:17:38
Original geschrieben von Sphinx
Mann - dann bist du aber wirklich spät eingestiegen...
Mein erster lauffähiges Internet Mediumgerät war´n Amiga 1200 mit T-Online BTX,Internet ,) und solch einem Müllbrowser wie Voyager und dem kewlen AmIRC... |*i miss you C=

Also mein erster PC hatte auf jeden Fall eine viel längere Lebensdauer, als es die 6800 oder X800 je haben werden: von 1991 bis 1999 hatte ich einen 386SX 25 MHz mit 4 MB RAM, 100 MB Festplatte und einer 256 KB-Graka :D

Bin zwar seit dem (bezahlbaren) C64 "dabei", war aber erst beim Umstieg vom PIII 450 MHz (von '99) auf den Athlon mit 1200 MHz im Jahr 2001 von der Notwendigkeit eines Internetanschlusses überzeugt worden. Bis dahin hielt ich sowas für Mumpitz. :eyes:

Schließlich gab es "früher" sowas wie Patches so gut wie garnicht *hach* :)

q@e
2004-06-28, 19:10:00
So wie's ausschaut, dürfte sich die Lebensdauer der 6800 ab heute ein 'bißchen' verlängert haben.

PrefoX
2004-06-28, 19:35:40
Original geschrieben von ironMonkey
Eine Karte hält so lange man will, es gibt einige die finden die karte nach 1 jahr zu lahm und holen sich den Refresh, andere zocken glücklich 3 Jahre damit, ist eine Frage wie man die Dinge sieht, auf jeden Fall wird der Sprung bei ATI was Features angeht beim R500 um einiges größer als bei NV mit dem NV50 wenn man von den jetzigen Karten ausgeht, da ja NV schon nen ziemlich großen Abstand hat was Features betrifft derzeit.

Wie sieht es den jetzt eigentlich aus?????Nennt sich das Teil fürn PC bei ATI jetzt R500 und für die XBOX R520 oder anderstrum?????



Gruß

die xbox2 bekommt ne eigenständige gpu...
mit 48 shadern, 500+MHz mehr weiss man noch net.
und die xbox2 wird eine 10.5 GHz CPU haben, welche aber 2 operation pro takt macht, also umgerechnet 21 GHz :)

Zauberer
2004-06-29, 01:31:50
Original geschrieben von q@e
So wie's ausschaut, dürfte sich die Lebensdauer der 6800 ab heute ein 'bißchen' verlängert haben.
Jo, dank SLI! :D

Coda
2004-06-29, 01:45:27
Original geschrieben von PrefoX
die xbox2 bekommt ne eigenständige gpu...
mit 48 shadern, 500+MHz mehr weiss man noch net.
und die xbox2 wird eine 10.5 GHz CPU haben, welche aber 2 operation pro takt macht, also umgerechnet 21 GHz :)
48 Alus nicht 48 Shader.
3,5 Ghz mit 3 Cores, nicht 10,5Ghz.
Athlons und P4s berechnen auch mindestens 2 Ops/Cycle, also sind das auch nicht umgerechnet 21 Ghz

Brillus
2004-06-29, 01:49:16
Also meine Radeon 8500(mittlerweile auf 9100 geflasht) habe ich jetzt seit gut 2,5 Jahten und sie leistet immernoch ausreichend Leistung.

q@e
2004-06-29, 09:32:53
Original geschrieben von Coda
48 Alus nicht 48 Shader.

Bei 3Dlabs macht man da z.B. keinen Unterschied. :)