PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : neue RV250 & R300 infos


Tarkin
2002-06-04, 13:52:48
... na ja, nicht direkt, aber vielleicht sickert ja im Laufe dieser Woche etwas mehr durch...

http://www.chip.de/news_stories/news_stories_8733328.html

befriedigend, nicht? ;-)

Andre
2002-06-04, 13:55:55
"Auf der anderen Seite: Gerüchte sind oft nur heise Luft - und Nvidia hat bis jetzt noch jedesmal einen Trumpf aus dem Ärmel gezogen..."

Das ist der einzig relevante Satz in dem ganzen Artikel.
Alles vorher ist heiße Luft.

Piffan
2002-06-04, 13:57:03
Das Schlußwort sagt alles: "Gerüchte sind heiße Luft" ;)

Huch, da war Andre schneller

Tarkin
2002-06-04, 14:23:39
Originally posted by Andre
"Auf der anderen Seite: Gerüchte sind oft nur heise Luft - und Nvidia hat bis jetzt noch jedesmal einen Trumpf aus dem Ärmel gezogen..."

Das ist der einzig relevante Satz in dem ganzen Artikel.
Alles vorher ist heiße Luft.

also das hört sich für mich jedenfalls realistischer an, als "nVidia NV30 to arrive in August" .... M-HM, bestimmt.

Tatsache ist, dass Nvidia mit dem NV30 etwas im Rückstand ist. Daran besteht wohl kaum Zweifel, oder?

Demirug
2002-06-04, 14:33:51
Originally posted by Tarkin


also das hört sich für mich jedenfalls realistischer an, als "nVidia NV30 to arrive in August" .... M-HM, bestimmt.

Tatsache ist, dass Nvidia mit dem NV30 etwas im Rückstand ist. Daran besteht wohl kaum Zweifel, oder?

Es sieht so aus aber als Tatsache würde ich es nicht hinstellen. Bevor jetzt wieder Einsprüche kommen:

Ich weis das es wohl eine R300 Prototypen Karte für DOOM III gab. Aber es gab ja wohl auch noch Probleme damit. Und es kann mir hier wahrscheinlich niemand beweisen das NVidia nicht auch schon so weit ist.

Ohne Aussage von ATi und NVidia ist alles nur Spekulation.

Tarkin
2002-06-04, 14:52:02
Originally posted by Demirug


Es sieht so aus aber als Tatsache würde ich es nicht hinstellen. Bevor jetzt wieder Einsprüche kommen:

Ich weis das es wohl eine R300 Prototypen Karte für DOOM III gab. Aber es gab ja wohl auch noch Probleme damit. Und es kann mir hier wahrscheinlich niemand beweisen das NVidia nicht auch schon so weit ist.

Ohne Aussage von ATi und NVidia ist alles nur Spekulation.

wenn Nvidia schon so weit währe wie ATI, dann hätte wohl JC nicht so entschieden, wie er sich entschieden hat. (das ganze Hin und Her geht mir auf den SACK! Dabei ist es sooooo einfach. JC hat eine GraKa von ... verwendet, weil ... noch nichts entsprechendes hatte. Und damit ENDE. Ist das so schwer zu akzeptieren?)

Aber egal, Näheres werden wir wahrscheinlich bald genug erfahren. Wird auf jedenfall spannend.

ps: Ich liebe Gerüchte!

Demirug
2002-06-04, 15:01:13
Originally posted by Tarkin


wenn Nvidia schon so weit währe wie ATI, dann hätte wohl JC nicht so entschieden, wie er sich entschieden hat. (das ganze Hin und Her geht mir auf den SACK! Dabei ist es sooooo einfach. JC hat eine GraKa von ... verwendet, weil ... noch nichts entsprechendes hatte. Und damit ENDE. Ist das so schwer zu akzeptieren?)

Aber egal, Näheres werden wir wahrscheinlich bald genug erfahren. Wird auf jedenfall spannend.

ps: Ich liebe Gerüchte!

Ich habe kein Problem damit zu akzeptieren das JC eine ATi Karte hatte. Es geht nur darum das hier immer ohne Beweise behauptet wird das ATi weiter sei als NVidia. Was spricht deiner Meinung dagegen das NVidia ebenfalls schon Prototypenkarten/Treiber hat die ebenfalls noch Macken im High Qualitiy Bereich haben nur NVidia war das klar und hat deshalb JC gesagt das er die Karte nicht benutzen kann.

Am Ende zählen sowieso nur 3 Dinge:
- Quake FPS
- 3dMarks
- Zeitpunkt des Verkaufsstarts

Alles andere sind nur vorgeplänkel.

Am Ende werde ich wahrscheinlich sowieso alle Karten kaufen.

Tarkin
2002-06-04, 15:22:14
Originally posted by Demirug

Ich habe kein Problem damit zu akzeptieren das JC eine ATi Karte hatte. Es geht nur darum das hier immer ohne Beweise behauptet wird das ATi weiter sei als NVidia. Was spricht deiner Meinung dagegen das NVidia ebenfalls schon Prototypenkarten/Treiber hat die ebenfalls noch Macken im High Qualitiy Bereich haben nur NVidia war das klar und hat deshalb JC gesagt das er die Karte nicht benutzen kann.


entschuldige, aber... glaubst du wirklich, dass sich nVidia ... NVIDIA ... das absichtlich durch die Lappen hat gehen lassen. ???

mehr als unwahrscheinlich würde ich sagen. Aber vielleicht steckt ja sowas wie ein genialer Geheimplan dahinter ... *lol*

Wie ich schon sagte... Warum einfach wennst kompliziert auch geht, oder?

Demirug
2002-06-04, 15:44:30
Originally posted by Tarkin


entschuldige, aber... glaubst du wirklich, dass sich nVidia ... NVIDIA ... das absichtlich durch die Lappen hat gehen lassen. ???

mehr als unwahrscheinlich würde ich sagen. Aber vielleicht steckt ja sowas wie ein genialer Geheimplan dahinter ... *lol*

Wie ich schon sagte... Warum einfach wennst kompliziert auch geht, oder?

Was hat dass mit einem Geheinplan zu tuen??? Wenn ich JC wäre und NVidia kommt zu mir und sagt: "Wir hätten da eine Karte aber die Treiber sind noch nicht in der Lage den HighQuality Modus von DOOM III korrekt darzustellen" dann würde ich dankend ablehnen. Bei der ATi Karte hat man das ja kurzfristig festgestellt das es nicht geht.

Wie bereits gesagt ist für mich der einzige Beweis eine Karte bei einem "unabhängigen" Tester. Das gilt aber für die ganze Chipbande (Matrox, 3dLabs, ATi, NVidia). Da ich am Ende sowieso alle Karten kaufen muss ist es eigentlich egal welche die erste sein wird.

Tarkin
2002-06-04, 15:59:05
Jetzt wirds langsam konkreter:

http://www.tecchannel.de/news/20020604/thema20020604-7725.html

btw: Ich vermute mal, es handelt sich hierbei um die RV250, nich um eine R300.

Salvee
2002-06-04, 16:13:19
Sieht PCB-mässig ziemlich exakt wie eine R8500 mit 128MB BGA-Ram aus. Der Kommentar zur Lüfterlautstärke ist mit viel Wohlwollen nur als 'lustig' zu bezeichnen, da das Teil final wohl nicht so zusammengebastelt aussehen wird. Stimme Tarkin zu, das sollte die RV250 sein (es DARF keine R300 sein, wenn sie langsamer als ne GF4 ist *eg* ).

Tarkin
2002-06-04, 16:15:54
Originally posted by Salvee
Sieht PCB-mässig ziemlich exakt wie eine R8500 mit 128MB BGA-Ram aus. Der Kommentar zur Lüfterlautstärke ist mit viel Wohlwollen nur als 'lustig' zu bezeichnen, da das Teil final wohl nicht so zusammengebastelt aussehen wird. Stimme Tarkin zu, das sollte die RV250 sein (es DARF keine R300 sein, wenn sie langsamer als ne GF4 ist *eg* ).

Gelle?

Andre
2002-06-04, 16:16:00
Tarkin,

"also das hört sich für mich jedenfalls realistischer an, als "nVidia NV30 to arrive in August" .... M-HM, bestimmt."

Ansichtssache.
NV hat nicht schon 10 mal das Weihnachtsgeschäft verpennt, so wie z.B. ATI.

"Tatsache ist, dass Nvidia mit dem NV30 etwas im Rückstand ist. Daran besteht wohl kaum Zweifel, oder?"

Doch.

aths
2002-06-04, 16:16:40
Originally posted by Andre
"Auf der anderen Seite: Gerüchte sind oft nur heise Luft - und Nvidia hat bis jetzt noch jedesmal einen Trumpf aus dem Ärmel gezogen..."

Das ist der einzig relevante Satz in dem ganzen Artikel.
Alles vorher ist heiße Luft.

Dann ist "Nvidia hat bis jetzt noch jedesmal einen Trumpf aus dem Ärmel gezogen..." aber ebenso unbrauchbar.

Der Artikel enthielt schon einige Fakten, so z.B., dass es RV250-basierende Karten geben wird.

nagus
2002-06-04, 16:18:05
jedenfalls ist jetzt die verwirrung perfekt!

Radeon 9000, R3000 ?? RV250, value-chip , blah, blah.... wird langsam aber sicher zeit, dass ATI den vorhang lüftet!

würde mich interessieren, worauf die noch warten, verdammt!

Andre
2002-06-04, 16:19:36
Tarkin,

"entschuldige, aber... glaubst du wirklich, dass sich nVidia ... NVIDIA ... das absichtlich durch die Lappen hat gehen lassen. ???"

NV ist keine Versammlung von Hirnidioten, die jede Gelegenheit nuzen müssen, um sich am Markt zu platzieren.
Wenn sie zum Launch von Doom 3 schneller sind als ATI, dann lachen die sich darüber kaputt, dass die Demo ja jetzt auf der ATI lief.

"mehr als unwahrscheinlich würde ich sagen. Aber vielleicht steckt ja sowas wie ein genialer Geheimplan dahinter ... *lol*"

Tarkin, dass nennt man Strategie und nicht Geheimplan.

nagus
2002-06-04, 16:19:52
Originally posted by Andre
Tarkin,

"Tatsache ist, dass Nvidia mit dem NV30 etwas im Rückstand ist. Daran besteht wohl kaum Zweifel, oder?"

Doch.


un welcher bitteschön? wenn sogar JC der gleichen meinung ist. und der weis es sicher besser, als wir alle zusammen!

Andre
2002-06-04, 16:22:14
Originally posted by nagus
jedenfalls ist jetzt die verwirrung perfekt!

Radeon 9000, R3000 ?? RV250, value-chip , blah, blah.... wird langsam aber sicher zeit, dass ATI den vorhang lüftet!

würde mich interessieren, worauf die noch warten, verdammt!

Nana, ATI wird doch nicht die Kunden mit einer höheren Versionsnummer (R9000) aber geringerer Geschwindigkeit und null Technologiefortschritt verwirren wollen?
Was sagst du dazu, aths?
Soweit das bisher gelesene stimmen sollte.

Andre
2002-06-04, 16:23:07
Originally posted by aths
Der Artikel enthielt schon einige Fakten, so z.B., dass es RV250-basierende Karten geben wird.

Was für eine Feststellung *staun*.

nagus
2002-06-04, 16:24:25
Originally posted by Andre
Tarkin,

"entschuldige, aber... glaubst du wirklich, dass sich nVidia ... NVIDIA ... das absichtlich durch die Lappen hat gehen lassen. ???"

NV ist keine Versammlung von Hirnidioten, die jede Gelegenheit nuzen müssen, um sich am Markt zu platzieren.
Wenn sie zum Launch von Doom 3 schneller sind als ATI, dann lachen die sich darüber kaputt, dass die Demo ja jetzt auf der ATI lief.

"mehr als unwahrscheinlich würde ich sagen. Aber vielleicht steckt ja sowas wie ein genialer Geheimplan dahinter ... *lol*"

Tarkin, dass nennt man Strategie und nicht Geheimplan.


dann ist es also auch strategie, dass nvidia nix neues ( außer AGPX8 ) karten auf der computex zeigen wird?

ich glaube nicht!

ich hab jedenfalls nix bezüglich eines weuteren upgrades des G4TI gehört. höchst wahrscheinlich können die auch mit der taktfrequenz nicht mehr viel weiter rauf... jedenfalls nicht mit 0,15er technik.

was ist realisticher? dass NV30 oder R300 als erster erscheint? und welcher wird dann schneller sein, wenn beide erhöltlich sind?

Salvee
2002-06-04, 16:24:53
Spekulationen bestehen immer daraus, dass man Vergangenheitswissen (nV sind die schnellsten, haben die besten Treiber; ATi ist verpennt, haben miese Treiber , bla bla...) zusammenmixt mit momentanen Gerüchten.
Mindestens genauso fest steht, dass sich die Zeiten ändern können, prominentestes Beispiel AMD : wer hätte gedacht, dass die sowas wie den Athlon zustande bringen ? Alle waren überrascht, Intel wohl am meisten, denn ich z.B. hätte einen K6 nicht mal geschenkt haben wollen. Genauso KANN es im Graka-Business kommen, deswegen finde ich die 'felsenfesten' Überzeugungen vieler Fanboys hier einfach nur spassig :D

Andre
2002-06-04, 16:25:04
Originally posted by nagus
un welcher bitteschön? wenn sogar JC der gleichen meinung ist. und der weis es sicher besser, als wir alle zusammen!

JC weiß mit Sicherheit viel, aber auch nicht alles.
Ich denke, dass NV zum richtigen Zeipunkt und am richtige Ort die Antwort geben wird.
Was jetzt alles passiert, ist Vorgeplänkel und für die Zukunft nicht wirklich aussagefähig.

nagus
2002-06-04, 16:25:49
Originally posted by Andre


Nana, ATI wird doch nicht die Kunden mit einer höheren Versionsnummer (R9000) aber geringerer Geschwindigkeit und null Technologiefortschritt verwirren wollen?
Was sagst du dazu, aths?
Soweit das bisher gelesene stimmen sollte.


ich sag nur Nvidia Geforce 4 MX ....


btw, hat ATI noch NIX!! offiziell angekündigt! also sind solche mutmaßungen reine zeitverschwendung

Andre
2002-06-04, 16:28:02
nagus,

"dann ist es also auch strategie, dass nvidia nix neues ( außer AGPX8 ) karten auf der computex zeigen wird?"

Keine Ahnung, ich sitze nicht im Entwicklungslabor von NV.

"ich glaube nicht!"

Und warum?

"ich hab jedenfalls nix bezüglich eines weuteren upgrades des G4TI gehört. höchst wahrscheinlich können die auch mit der taktfrequenz nicht mehr viel weiter rauf... jedenfalls nicht mit 0,15er technik."

Nichts hören heißt nicht, dass nichts passiert.
Frag mal die Kyro III-Leute, die kommen auch ohne Infos aus :D

"was ist realisticher? dass NV30 oder R300 als erster erscheint? und welcher wird dann schneller sein, wenn beide erhöltlich sind?"

Beides gleich wahrscheinlich und letzteres ist überhaupt nicht abzusehen.

Tarkin
2002-06-04, 16:28:56
Originally posted by Andre
Tarkin,

"entschuldige, aber... glaubst du wirklich, dass sich nVidia ... NVIDIA ... das absichtlich durch die Lappen hat gehen lassen. ???"

NV ist keine Versammlung von Hirnidioten, die jede Gelegenheit nuzen müssen, um sich am Markt zu platzieren.
Wenn sie zum Launch von Doom 3 schneller sind als ATI, dann lachen die sich darüber kaputt, dass die Demo ja jetzt auf der ATI lief.

"mehr als unwahrscheinlich würde ich sagen. Aber vielleicht steckt ja sowas wie ein genialer Geheimplan dahinter ... *lol*"

Tarkin, dass nennt man Strategie und nicht Geheimplan.

... ist ja ne tolle Strategie, den schärfsten Konkurennten vorbeiziehen zu lassen. ... Ich lach mich tot!

Andre
2002-06-04, 16:29:20
nagus,

"ich sag nur Nvidia Geforce 4 MX ...."

Ja deswegen ja.
aths müsste ja jetzt im Dreieck springen.
Oh nein, ist ja ATI und nicht NV ;)

"btw, hat ATI noch NIX!! offiziell angekündigt! also sind solche mutmaßungen reine zeitverschwendung"

Wer hat denn diese "News" gepostet?
Du/Tarkin oder ich?

Andre
2002-06-04, 16:31:17
Originally posted by Tarkin


... ist ja ne tolle Strategie, den schärfsten Konkurennten vorbeiziehen zu lassen. ... Ich lach mich tot!

Wo denn?
Bei einer Demo von einem Game, welches noch nicht erhältlich ist und deswegen jede Performanceaussage lächerlich ist?
Ich sags nochmal für dich:
Am Ende wird abgerechnet, nicht bei einer bedeutungslosen Demo.

Salvee
2002-06-04, 16:33:36
Originally posted by Andre


Am Ende wird abgerechnet, nicht bei einer bedeutungslosen Demo.

Dieses bedeutungslose Demo wird mehr Kaufentscheidungen beeinflussen als alle Posts in X-beliebigen Foren zusammen ;)...

Tarkin
2002-06-04, 16:34:24
Originally posted by Andre


Nana, ATI wird doch nicht die Kunden mit einer höheren Versionsnummer (R9000) aber geringerer Geschwindigkeit und null Technologiefortschritt verwirren wollen?
Was sagst du dazu, aths?
Soweit das bisher gelesene stimmen sollte.

und das aus deinem Munde....

Hat eigetlich schon jemand ne GeForce4 MX ... HA-HA!

aber das ist jetzt nicht das Thema. Es geht hier um die Rv250 und R300.

Bin echt gespannt was noch so "leaken" wird diese Woche (neue Treiber wären nicht schlecht ;-)

Andre
2002-06-04, 16:35:01
Originally posted by Salvee
Dieses bedeutungslose Demo wird mehr Kaufentscheidungen beeinflussen als alle Posts in X-beliebigen Foren zusammen ;)...

...und ich freue mich auf die Reaktionen, wenn NV dann doch schneller sein sollte ;)

Aber hey, spannend wirds alle mal und das find ich richtig gut.

aths
2002-06-04, 16:36:02
Andre,

meiner Meinung nach bemerkt man bei dir 'nicht-nV'-bashende Tendenzen. Statt dem einen oder anderen Seitenhieb, in der Masse aber nach allen Seiten ausgeteilt, verteidigst du stur die einen, während du bei den anderen übertrieben skeptisch bist. Kurz, ich meine bei dir Fanboy-Gehabe zu erkennen.

Ist es denn wirklich so schlimm, wenn sich ATI-Fans aufgrund dieser Meldung freuen, dass du dagegenhalten musst? Wenn über nV abgelästert wird, muss dann tatsächlich zurückgelästert werden? (Lass den Fanatikern doch auch mal ihren Spass und nimm das alles etwas lockerer.)

Tarkin
2002-06-04, 16:36:14
Originally posted by Andre


Wo denn?
Bei einer Demo von einem Game, welches noch nicht erhältlich ist und deswegen jede Performanceaussage lächerlich ist?
Ich sags nochmal für dich:
Am Ende wird abgerechnet, nicht bei einer bedeutungslosen Demo.

am Ende werden ATI die ersten sein, du wirst es auch noch früh genug kapieren (Am 10. August vielleicht?????)

Tarkin
2002-06-04, 16:37:17
Originally posted by aths
Andre,

meiner Meinung nach bemerkt man bei dir 'nicht-nV'-bashende Tendenzen. Statt dem einen oder anderen Seitenhieb, in der Masse aber nach allen Seiten ausgeteilt, verteidigst du stur die einen, während du bei den anderen übertrieben skeptisch bist. Kurz, ich meine bei dir Fanboy-Gehabe zu erkennen.

Ist es denn wirklich so schlimm, wenn sich ATI-Fans aufgrund dieser Meldung freuen, dass du dagegenhalten musst? Wenn über nV abgelästert wird, muss dann tatsächlich zurückgelästert werden? (Lass den Fanatikern doch auch mal ihren Spass und nimm das alles etwas lockerer.)


danke!

Salvee
2002-06-04, 16:39:56
Hardwarediskussionen (besonders bei Grafikkarten) entwickeln sich immer mehr zur politischen Bühne des 'kleinen' Mannes :D

jedi
2002-06-04, 16:40:10
Originally posted by aths
Andre,

meiner Meinung nach bemerkt man bei dir 'nicht-nV'-bashende Tendenzen. Statt dem einen oder anderen Seitenhieb, in der Masse aber nach allen Seiten ausgeteilt, verteidigst du stur die einen, während du bei den anderen übertrieben skeptisch bist. Kurz, ich meine bei dir Fanboy-Gehabe zu erkennen.

Komisch, dass das ausgerechnet unser nVidia-Basher aths schreibt. :nono:

Schau mal in den Spiegel.

Glashaus?

Steine?

:nono:

Andre
2002-06-04, 16:41:23
aths,

dazu sage ich nur, dass du einer derjenigen bist, die sich bei diesem Thema am wenigsten aus dem Fenster lehnen sollten.
Nur durch intelligent geschriebene und druch korrekte Rechtschreibung gekennzeichnete Sätze kann man seine wahre Ideologie eben nicht verbergen, aths.
Und genauso wie alle anderen habe ich das Recht, hier meine Meinung zu posten, ob das für dich Bashing ist oder nicht und das interessiert mich gelinde gesagt wenig.
Andere beschweren sich nicht, so what?

Tarkin
2002-06-04, 17:03:58
Originally posted by Salvee
Hardwarediskussionen (besonders bei Grafikkarten) entwickeln sich immer mehr zur politischen Bühne des 'kleinen' Mannes :D

++ der wahr wirklich gut ;D

Tarkin
2002-06-04, 17:05:13
Originally posted by Andre
aths,

dazu sage ich nur, dass du einer derjenigen bist, die sich bei diesem Thema am wenigsten aus dem Fenster lehnen sollten.
Nur durch intelligent geschriebene und druch korrekte Rechtschreibung gekennzeichnete Sätze kann man seine wahre Ideologie eben nicht verbergen, aths.
Und genauso wie alle anderen habe ich das Recht, hier meine Meinung zu posten, ob das für dich Bashing ist oder nicht und das interessiert mich gelinde gesagt wenig.
Andere beschweren sich nicht, so what?

nein, nicht alle, aber viele.... BUAHAHA!

Andre
2002-06-04, 17:10:36
Originally posted by Tarkin


nein, nicht alle, aber viele.... BUAHAHA!

*bibber*

TBird
2002-06-04, 17:34:14
Kindisch³

Dunkeltier
2002-06-04, 17:56:51
Originally posted by Andre
Tarkin,

"also das hört sich für mich jedenfalls realistischer an, als "nVidia NV30 to arrive in August" .... M-HM, bestimmt."

Ansichtssache.
NV hat nicht schon 10 mal das Weihnachtsgeschäft verpennt, so wie z.B. ATI.

"Tatsache ist, dass Nvidia mit dem NV30 etwas im Rückstand ist. Daran besteht wohl kaum Zweifel, oder?"

Doch.


Wozu brauchte Ati früher das Weihnachtsgeschäft, wo doch der OEM Markt einer Lizenz zum Geld drucken gleich kam. Den Ati damals beherrschte...

camel
2002-06-04, 18:10:23
zur immerwieder aufkommenden d3-demo meine meinung (das erste mal,das ich mich hierzu äussere);
nvidia hat sicherlich n testsample der karte,und die treiber sind auch am voranschreiten!,aber,eine demo,die vielleicht noch bildqualitative fehler aufweisen könnte seitens der graka würde sich wirklich schlimmer auswirken als halt der konkurenz dieses "freudig" verrichten zu lassen.
so,das war eigentlich alles,was ich dazu sage,ausser anmerkend,das es selten dämlich ist,eine hardware wegen einer demo,die man nich mal selber bestaunt hat,zu beloben.
ich auf alle fälle düdel mit meiner gf3 in den herbst und lass mich dann!! überraschen.
mfg camel

nagus
2002-06-04, 18:15:34
Originally posted by Andre
nagus,

"ich sag nur Nvidia Geforce 4 MX ...."

Ja deswegen ja.
aths müsste ja jetzt im Dreieck springen.
Oh nein, ist ja ATI und nicht NV ;)

"btw, hat ATI noch NIX!! offiziell angekündigt! also sind solche mutmaßungen reine zeitverschwendung"

Wer hat denn diese "News" gepostet?
Du/Tarkin oder ich?


blödsinn

solange ati nix offizielles ankündigt, können wir hier rumspekulieren, bis wir grün und blau werden. weiterbringen tut uns dass nicht...

und btw hab ICH ES ALS ERSTER IM SPEKULATIONSFORUM GEPOSTET!!! DORT GEHÖRT DAS AUCH HIN!

Richthofen
2002-06-04, 19:05:59
Kann mich gar nicht erinnern, das ATI in den letzten 15 Monaten überhaupt einen Cent eingestrichen hat :)

Ihr müsst ja Sorgen haben.
Bis Weihnachten geht noch so viel Zeit ins Land und wie bereits Andre sagte am Ende wird abgerechnet und nit schon im vorraus.

Wenn die einen mal ein paar Monate früher sind isses auch nicht so schlimm. Davon geht die Welt nicht unter. Dann muss man eben mit blumigen PR Meldungen dafür sorgen, das die Leute erstmal abwarten bis alle die Hosen runtergelassen haben.

Ich daddel vorerst lieber mit ner GF4Ti4400 und orientier mich an den Fakten die da lauten ATI Umsatz = NV Gewinn.

Noch irgendwelche Fragen?

BTW: NV28 wird zwar AGP8x haben aber ich glaube ebenfalls, das man ihn in 0.13 herstellen wird und ein bisschen die Taktraten sowohl Speicher als auch Core aufpeppeln wird.

Quasar
2002-06-04, 19:22:24
"Geheimplan? Was für Pläne? Wovon reden sie....." ;)

[Großer_Spekulationsmodus_On]
nV hat mit genausogroßer Sicherheit einen nV30 lauffähig, wie ATi einen R300. Davon gehe ich jetzt einfach mal aus. Vielleicht ist er einfach ein wenig komplexer (lt. Chip 120MT) als der R300, so daß TSMC, die ihn evtl. nocht in 0,15µ samplen, bislang einfach noch nicht so sauber herstellen konnte, daß er einfach noch ein wenig langsam lief? Sagen wir mit 100MHz, anstelle der 300+ MHz, die man sicherlich erwartet. Wenn nun ein weniger komplexer R300 in 0,15µ sagen wir, schon 250MHz erreicht, wer wäre dann wohl schneller?

ATi hat mit DX8.1 wohl ein klein wenig hinter dem Rücken der anderen Hersteller zu dessen Entstehung beigetragen. Wenn ich MGA oder nV wäre, wär' ich jetzt bestimmt ein wenig pissed deswegen und würde mir mal überlegen, ob's nicht Spaß macht, gerade noch rechtzeitig zu Weihnachten einen Chip rauszubringen, der vielleicht noch das eine oder andere Feature mehr hat, als der Konkurrent (DM anyone?) und dann mit aller Macht das nächste Jahr oder zwei (womit natürlich schon begonnnen sein müßte), eben dieses Feature in die Spiele zu prügeln (à la M$, indem man evtl. einfach die eine oder andere Spieleschmiede aufkauft, oder finanziell bei der Erstellung eines Kiefer-klappt-auf-den-Boden-Patches unter die Arme greift).

Oder ich konzentriere mich auf etwas völlig anderes....die CPU-Revolution im Herbst/Winter und biete einen ziemlich kewlen Chipsatz dafür an...(K8..).
[Großer_Spekulationsmodus_Off]


Im Übrigen wär's auch recht bizarr, wenn ATi demnächst mit dem RV250 rauskäme und ihn dann R9000 nennt. (Ich freue mich schon auf den bitterbösen Artikel von aths, der ATi mal so richtig für ihre Kundenverarsche bashed).

Unregistered
2002-06-04, 19:22:47
Originally posted by Andre
aths,

dazu sage ich nur, dass du einer derjenigen bist, die sich bei diesem Thema am wenigsten aus dem Fenster lehnen sollten.
Nur durch intelligent geschriebene und druch korrekte Rechtschreibung gekennzeichnete Sätze kann man seine wahre Ideologie eben nicht verbergen, aths.
Und genauso wie alle anderen habe ich das Recht, hier meine Meinung zu posten, ob das für dich Bashing ist oder nicht und das interessiert mich gelinde gesagt wenig.
Andere beschweren sich nicht, so what?

weils die meisten aufgegeben haben bei dir :)



ich sag nur eines. Wir haben ein Fakt :)

Ati hat ein lauffähiges Testsampel ihres Rv250 (siehe computex) und vielleicht auch des R300(vielleicht doom3) (könnte ja auch nur ne rv250 gewesen sein auf der die doom 3 demo lief)

zu nvidia ist alles rein spekulation, aber wie man anhand einigen meldungen lesen/spekulieren kann deutet es sich an dass nvidia ihren nv30 später releasen wird. Ob das nun schlimm ist zeigt sich erst wenn wir beide karten vergleichen können....

Von dem mal abgesehen kann sich der r300 gerade so noch verschieben wenn sie noch Probleme bekommen....

jedi
2002-06-04, 19:26:06
Originally posted by Quasar

Im Übrigen wär's auch recht bizarr, wenn ATi demnächst mit dem RV250 rauskäme und ihn dann R9000 nennt. (Ich freue mich schon auf den bitterbösen Artikel von aths, der ATi mal so richtig für ihre Kundenverarsche bashed).

:lol: ;D :lol:

Salvee
2002-06-04, 19:30:14
Hmm, irgendwie versteh ich das nicht. Wenn der RV250 schneller ist als eine aktuelle R8500, ist es doch keine Kundenverarsche, dem Teil eine höhere Nummer zu verpassen. Wenn, wie gesagt...

jedi
2002-06-04, 19:38:23
Weil die erste Ziffer in ATIs Bezeichnungen stets die DirectX-Version impliziert.

Also Radeon 7*00 für DX7 und Radeon 8*00 für DX8.

Unregistered
2002-06-04, 19:42:05
jo ati würde sich ins eigene fleisch schneiden :)

AlfredENeumann
2002-06-04, 19:44:47
Originally posted by Quasar


Im Übrigen wär's auch recht bizarr, wenn ATi demnächst mit dem RV250 rauskäme und ihn dann R9000 nennt. (Ich freue mich schon auf den bitterbösen Artikel von aths, der ATi mal so richtig für ihre Kundenverarsche bashed).


Ob die kartte wirklich Radeon 9000 heißen wird und welcher core darauf werkelt steht ja noch inne sterne. Wenn der RV250 so ne art R300mx ist, dann stimmt der name ja.
ich laß mich einfach überraschen.
mir ist eh scheißegal was die karte kann oder nicht. werd sie (R300) mir trotzdem kaufen, es sei den einer der mitbewerber kann mich überzeugen was anderes zu kaufen. nur müßten diese mal was komplett anderes bieten als einfach nur schneller sein.

Demirug
2002-06-04, 19:47:22
@Quasar:

Was den K8 Chipsatz angeht den kann man wohl aus dem Spekulationsmodus rausnehmen den das Board ist fertig.
http://www.theinquirer.net/dscf0034.jpg (Achtung sehr gross)

Ansonsten hat deine Spekulation aber viel für sich. Und sicher ist auch das irgendwer wieder ein paar Extrafeatures hat die über DX9 hinausgehen. Schliesslich ist DX9.1 für März 2003 angekündigt.

Quasar
2002-06-04, 19:49:26
Thx für den Link....ich LIEEBE sehr groß ;)

Aber daß der Opteron-Chipsatz lauffähig ist, war mir bekannt...Spekulationen sollten aber immer ein kleines bißchen Wahrheit beinhalten...das macht sie glaubwürdiger ;)

edit:
Findet außer mir noch jemand das Hammer-Board erstaunlich aufgeräumt? Seltsam wenige Kondensatoren...

Demirug
2002-06-04, 20:15:06
@Quasar:

vorsicht OT:

Na wenn du gross liebst hab ich noch ein paar Boards für dich
http://www.theinquirer.net/04060204.htm

Die Boards sehen wirklich sehr aufgeräumt aus.

Unregistered
2002-06-04, 20:33:48
Originally posted by Richthofen
Kann mich gar nicht erinnern, das ATI in den letzten 15 Monaten überhaupt einen Cent eingestrichen hat :)

...

Ich daddel vorerst lieber mit ner GF4Ti4400 und orientier mich an den Fakten die da lauten ATI Umsatz = NV Gewinn.

...



Hat das irgendwas damit zu tun, wie gut oder schlecht ATI Produkte sind? ... Ich denke nein.

Deshalb sind Intel Prozessoren ja auch besser als AMD Chips, gell?

turboschlumpf
2002-06-04, 20:56:47
seltsam.

durch jeden neuen fetzen news werden die next gen ati karten plötzlich in den himmel gelobt.

nur solltet ihr unter all den spekulationen dann bitte die nicht übersehen die euch nicht passen.

ich zitiere:
"Von anderer Seite wurde aber behauptet, dass der Radeon9000 den GeForce4Ti in manchen Benchmarks knapp schlagen könnte - bei anderen sei er langsamer."

nvidia fans mit eurem verhalten sollten darüber ja spotten bis zum umfallen.

ich sag nur,
am ende ist nvidia sowieso wieder um einiges schneller (besser!).

Unregistered
2002-06-04, 22:39:05
Ist doch jedes Jahr das gleiche Hype-Theater.

Der Rage 128 sollte angeblich der TNT-Killer sein.
Der Radeon sollte angeblich der GeForce1-Killer sein.
Der Radeon8500 sollte angeblich der GeForce3-Killer sein.

Und was ist nun tatsächlich?
nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.

skampi
2002-06-04, 23:46:10
Originally posted by Unregistered
Ist doch jedes Jahr das gleiche Hype-Theater.

Da kannst Du mal sehen wieviele sich darauf freuen...
Originally posted by Unregistered

Der Rage 128 sollte angeblich der TNT-Killer sein.
Der Radeon sollte angeblich der GeForce1-Killer sein.
Der Radeon8500 sollte angeblich der GeForce3-Killer sein.

Und was ist nun tatsächlich?
nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.

Siehst Du da irgendeinen Zusammenhang?
Originally posted by Unregistered
...nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.
Könnten ja auch 5 sein....:)

MadManniMan
2002-06-04, 23:48:10
Der Rage 128 sollte angeblich der TNT-Killer sein.
und die tnt sollte die v² plätten

Der Radeon sollte angeblich der GeForce1-Killer sein.
die gf1 sollte cpus unnötig machen

Der Radeon8500 sollte angeblich der GeForce3-Killer sein.
und weil die gf4ti schneller sind, ist sie es nicht. hey! diese logik muß ich mir merken!

nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.
wovon zwei in absolut utopischen preisregionen liegen, wenn man sich die drei preisleistungsstärksten des marktes anschaut: ti4200(hey, du hast ja auch ein bisschen recht :zunge: ), die r8500(was du mir natürlich gleich widerlegen wirst ;) ) und die ti200(mist, hast du doch glatt nvs bestes value argument vergessen

/edit: smiley gerichtet

MadManniMan
2002-06-04, 23:49:15
aths,

lass andre einfach reden.

die spd sieht sich ja auch als partei der mitte :D

Quasar
2002-06-05, 00:11:04
Der Rage 128 sollte angeblich der TNT-Killer sein.
und die tnt sollte die v² plätten
..eine Voodoo2 hat er auch plattgemacht...


Der Radeon sollte angeblich der GeForce1-Killer sein.
die gf1 sollte cpus unnötig machen
...hast du 'ne Liszca geraucht???


Der Radeon8500 sollte angeblich der GeForce3-Killer sein.
und weil die gf4ti schneller sind, ist sie es nicht. hey! diese logik muß ich mir merken!
'ne GeForce3 ist teilweise schneller, teilweise langsamer..wo ist dein Problem?


nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.
wovon zwei in absolut utopischen preisregionen liegen, wenn man sich die drei preisleistungsstärksten des marktes anschaut: ti4200(hey, du hast ja auch ein bisschen recht :zunge: ), die r8500(was du mir natürlich gleich widerlegen wirst ;) ) und die ti200(mist, hast du doch glatt nvs bestes value argument vergessen
...was hat das jetzt wieder mit den schnellsten Chips zu tun?


/edit: smiley gerichtet
...was erdreistest du dich? Die armen Smileys!

Andre
2002-06-05, 09:14:35
Originally posted by MadManniMan
aths,

lass andre einfach reden.

die spd sieht sich ja auch als partei der mitte :D

Wenn du mir was sagen willst, dann kannst du das auch direkt machen.
Ansprache über eine 3. Person ist unhöflich.

Tarkin
2002-06-05, 09:19:51
Originally posted by Quasar


Der Radeon8500 sollte angeblich der GeForce3-Killer sein.
und weil die gf4ti schneller sind, ist sie es nicht. hey! diese logik muß ich mir merken!
'ne GeForce3 ist teilweise schneller, teilweise langsamer..wo ist dein Problem?



ok, wo schneller? ....

ahh ich verstehe. "schneller"

http://www.hardocp.com/images/articles/1022104421OEv3C3cNpZ_3_1.gif

... sind übrigends Geforce 4 Karten, dass sollte man nicht vergessen!

BTW:

Die Karte auf dem Bild kann alles mögliche sein RV250, R300 ,.... kein Mensch hat offiziell bekannt gegeben, was das nun eigentlich ist. Ss gibt einfach zuwenig Infos.

das einzige was mit sicherheit gesagt werden kann, dass die Karte von ATI war, und AGPx8 beherrscht.

ow
2002-06-05, 09:51:28
Falsches Bild Tarkin, wo ist das normale ohne AF?

Richthofen
2002-06-05, 10:49:24
hehe ja find ich jetzt auch wieder cool das das ausgerechnet ein AF Bild ist.
Weil man das auch so gut vergleichen kann.

Andre
2002-06-05, 11:15:01
Aus dem Anandtech-Newsletter (Danke an nagus fürs posten im Speku-Forum):

"While we can't disclose the specific specifications of the part, our board manufacturing contacts today informed us that the performance of the RV250 is very close to that of the R200 (Radeon 8500)."

"This obviously means that the RV250 will not only make the Radeon 8500LE obsolete but it will also make the Radeon 8500 useless as well. Apparently ATI has had the RV250 ready for a while but they didn't want to kill Radeon 8500 sales so they held off on releasing it until closer to R300's launch."

"The architecture is very similar to R200 (DX8 part) with a few things removed and core clock speeds are expected to be close to 300MHz according to our sources today. At 300MHz the RV250 has the potential of being tough competition for the GeForce4 Ti 4200, but we'll have to wait for its launch before we can decide for certain."

So und jetzt hätte ich gerne mal von all denjenigen Statements, die NV Produktaufwärmung und Recycling vorwerfen.
Ich frage mich, was der R250 überhaupt für einen Sinn macht oder will man durch eine intern höhere Versionsnummer (R250) Fortschritt vortäuschen, wo gar keiner ist?
Denn R200 ist kleiner R250, laut Anand ist aber kein technischer Fortschritt beim R250 zu erkennen.
Also, nur zu mit den "objektiven" Statements.

Sir Integral Wingate Hellsing
2002-06-05, 11:16:25
Leutz, es ist doch echt unnötig sich hier die Köppe über ein zukünftiges Stückel Sillizium einzuschlagen!

@ow/andre: Das ihr nVidia favorisiert ist allgemein bekannt und ist ja auch ok... das manchmal aber dieses "boah-alles-andere-ausser-nvidia-suckt" is manchmal echt nervig!
Was jetzt net bös gemeint ist, aber es ist halt ne Tatsache.

@aths: dito wie bei ow/andre, nur halt anti-nv


Zum Topic:

Hm, momentan lassen die Informationsfetzen nichts wirkliches erkennen...vielleicht kommt ja mal nen offizielles Statement von ATI zum Thema R300 und von nVidia zumm Thema nv30...

Das wäre nun zu diesem Zeitpunkt echt wünschenswert!

EDIT: letzter Beitrag von Andre ist tatsächlich interessant bezüglich des R250

Demirug
2002-06-05, 11:19:04
Originally posted by Andre
So und jetzt hätte ich gerne mal von all denjenigen Statements, die NV Produktaufwärmung und Recycling vorwerfen.
Ich frage mich, was der R250 überhaupt für einen Sinn macht oder will man durch eine intern höhere Versionsnummer (R250) Fortschritt vortäuschen, wo gar keiner ist?
Denn R200 ist kleiner R250, laut Anand ist aber kein technischer Fortschritt beim R250 zu erkennen.
Also, nur zu mit den "objektiven" Statements.

Andre ich glaube du hast da was überlesen (ist aber von ATi wahrscheinlich beabsichtigt). Der neue Chip heist RV250 und nicht R250. Ich habe zwar im Moment keine Ahnung für was das V steht aber ATi wird sich damit schon rausreden können.

HOT
2002-06-05, 11:25:30
Das V steht für "Value".

Desweiteren wäre es Blödsinn für ATI am R200 festzuhalten, wenn der RV250 schneller ist und in 130nm gefertigt wird.
Der RV250 ist der Valuechip im Sortiment und bekommt eine dementsprechende Bezeichnung. Ich finde das ok.

Demirug
2002-06-05, 11:34:03
Originally posted by HOT
Das V steht für "Value".

Desweiteren wäre es Blödsinn für ATI am R200 festzuhalten, wenn der RV250 schneller ist und in 130nm gefertigt wird.
Der RV250 ist der Valuechip im Sortiment und bekommt eine dementsprechende Bezeichnung. Ich finde das ok.

Das mit dem schneller scheint aber nicht der Fall zu sein.

"the performance of the RV250 is very close to that of the R200"

Die höhere Nummer erzeugt aber den Eindruck da muss ich andre schon Recht geben. Wenn die Karte dann "Radeon 8500 Lite" oder so in der Art heist ist das noch vertretbar eine höhere Nummer als 8500 wäre aber IMO noch schlimmer als die GF4 MX Sache.

Richthofen
2002-06-05, 11:53:56
alles Marketing getöse...

Was mich jezt mal interessieren würde, was ist denn der RV250 nun?
Abgespeckter DX8 Chip oder vollwertiger DX7 Chip oder was soll der nun sein?
Für ernsthafte Konkurenz sollte es schon ein DX8 Chip sein.
Ti4200 liegen bis dahin unter 200 Euro zumindest die 64er Version.
Ich sehe da jetzt ehrlich gesagt nicht so ganz die unternehmerische Strategie.

HOT
2002-06-05, 12:01:51
Der Radeon 7500 hat übrigens die Chipbezeichnung RV200. Damit wäre RV250 also noch absolut human :D
Ich kann mir ausserdem kaum vorstellen, dass die Karte dann im Endeffekt Radeon 8xxx heissen würde, wenn sie DX7 wär. Ich hoffe und glaube das aber nicht.

Andre
2002-06-05, 12:08:05
Originally posted by Demirug


Andre ich glaube du hast da was überlesen (ist aber von ATi wahrscheinlich beabsichtigt).

Da hast du Recht.
Ändert aber nichts an der Tatsache, dass eine gewisse Irreführung wohl beabsichtigt ist - anscheinend lernt ATI schnell dazu ;)

ow
2002-06-05, 12:45:10
Originally posted by 028
Leutz, es ist doch echt unnötig sich hier die Köppe über ein zukünftiges Stückel Sillizium einzuschlagen!

@ow/andre: Das ihr nVidia favorisiert ist allgemein bekannt und ist ja auch ok


Und es ist schlichtweg Quatsch, was du da erzaehlst. Ich favorisiere NIEMANDEN. Und bei Andre wird das aehnlich sein.

AlfredENeumann
2002-06-05, 13:05:58
Originally posted by Andre

So und jetzt hätte ich gerne mal von all denjenigen Statements, die NV Produktaufwärmung und Recycling vorwerfen.
Ich frage mich, was der R250 überhaupt für einen Sinn macht oder will man durch eine intern höhere Versionsnummer (R250) Fortschritt vortäuschen, wo gar keiner ist?
Denn R200 ist kleiner R250, laut Anand ist aber kein technischer Fortschritt beim R250 zu erkennen.
Also, nur zu mit den "objektiven" Statements.


einfach nur ein refresh, welches bei Nvidia gang und gäbe ist. Man schaut es ja nur beim Marktführer ab.
Wenn der das so macht, muß das ja gut sein.

AlfredENeumann
2002-06-05, 13:09:38
Originally posted by Demirug


Das mit dem schneller scheint aber nicht der Fall zu sein.

"the performance of the RV250 is very close to that of the R200"

Die höhere Nummer erzeugt aber den Eindruck da muss ich andre schon Recht geben. Wenn die Karte dann "Radeon 8500 Lite" oder so in der Art heist ist das noch vertretbar eine höhere Nummer als 8500 wäre aber IMO noch schlimmer als die GF4 MX Sache.

Das wird sich ja noch zeigen wenn der Chip offiziell kommt. Die codenummer des chips ist logischerweise nachfolgend. auch wenn er nicht mehr und nicht weniger kann. eben ein refresh. genau wie bei GF3 und GF4 (ok der GF4 hat noch ein paar zusätzlich refinessen, ist aber von der basis her gleich).
Wenn es ein DX8-Chip ist, sollte die Karte ein Radeon 8XXX sein. Ansonsten halt ein Radeon 7XXX. Wir werden sehen.

ow
2002-06-05, 13:10:27
Echt witzig. :lol:


Der Marktfueher wird jedesmal verschrien und niedergemacht wenn er seine Produkte refresht (bsp. "keine Innovation"), muss dann aber auch noch als Argument herhalten, wenn's die anderen genauso machen ("ATi macht es ja nur NV nach, ist also in Ordnung").

Birdman
2002-06-05, 13:12:20
Originally posted by Tarkin
ok, wo schneller? ....

ahh ich verstehe. "schneller"

... sind übrigends Geforce 4 Karten, dass sollte man nicht vergessen!

Btw. das ganze wurde mit den 28.x Treiber gemacht...hätte Anand die 29.x genommen wäre die TI vorne gelegen. (und nein kommt nun nicht mit "blablabla treiber waren ok, sind ja die offziellen" - denn genau diese FanATIker waren es, die noch vor wenigen monaten jedesmal lauthals losgeschrien haben wenn ein r8500 test nicht mit den neusten inofiziellen Treibern gemacht wurde und daher angeblich der ein oder andre test zu schlecht ausfiel)

ow
2002-06-05, 13:12:24
Originally posted by AlfredENeumann


Das wird sich ja noch zeigen wenn der Chip offiziell kommt. Die codenummer des chips ist logischerweise nachfolgend.


??? wo ist da die Logik nachfolgender Chipnummern?

Die GF4MX heisst ja auch nicht NV21 oder so, sondern NV17.

AlfredENeumann
2002-06-05, 13:14:46
Originally posted by ow



??? wo ist da die Logik nachfolgender Chipnummern?

Die GF4MX heisst ja auch nicht NV21 oder so, sondern NV17.

ist ja auch logisch, da es nicht der nachfolger vom NV20 ist sondern nur ne abgespeckte version. Nvidia hat wie andere auch verschiende produktlinien die eigene codenummern haben. das weist du doch.
das gibt es so bei der Radeon serie doch nicht.
also kein direkter vergleich.

ow
2002-06-05, 13:15:03
Originally posted by Birdman

Btw. das ganze wurde mit den 28.x Treiber gemacht...hätte Anand die 29.x genommen wäre die TI vorne gelegen. (und nein kommt nun nicht mit "blablabla treiber waren ok, sind ja die offziellen" - denn genau diese FanATIker waren es, die noch vor wenigen monaten jedesmal lauthals losgeschrien haben wenn ein r8500 test nicht mit den neusten inofiziellen Treibern gemacht wurde und daher angeblich der ein oder andre test zu schlecht ausfiel)


Stell dir einfach obiges Pic vor, wenn man noch 2xAA dazuschaltet.
Die fps der Radeon halbieren sich, die der GF4 aendern sich nicht.
Oder stells dir ohne AF/AA vor.
Die GF4 verdoppeln die Leistung, bei der Radeon tut sich praktisch nix.

Demirug
2002-06-05, 13:15:57
@ow:

Das ist das gute alte Neid Prinzip das in Europa und dort vorallem in Mitteleuropa sehr verbreitet ist.

Auf die großen wird erst mal draufgehauen und die kleinen dürfen eben alles.

ow
2002-06-05, 13:24:49
Originally posted by AlfredENeumann


ist ja auch logisch, da es nicht der nachfolger vom NV20 ist sondern nur ne abgespeckte version. Nvidia hat wie andere auch verschiende produktlinien die eigene codenummern haben. das weist du doch.
das gibt es so bei der Radeon serie doch nicht.
also kein direkter vergleich.

aprospos abgespeckt:


The architecture is very similar to R200 (DX8 part) with a few things removed and core clock speeds are expected to be close to 300MHz according to our sources today



Ist aber derzeit ja nur Spekulation.

AlfredENeumann
2002-06-05, 13:33:32
Originally posted by ow


aprospos abgespeckt:




Ist aber derzeit ja nur Spekulation.


eben. abwarten bis offiziell angekündigt und dann darüber läßtern.

Tarkin
2002-06-05, 13:37:16
Originally posted by Birdman

Btw. das ganze wurde mit den 28.x Treiber gemacht...hätte Anand die 29.x genommen wäre die TI vorne gelegen. (und nein kommt nun nicht mit "blablabla treiber waren ok, sind ja die offziellen" - denn genau diese FanATIker waren es, die noch vor wenigen monaten jedesmal lauthals losgeschrien haben wenn ein r8500 test nicht mit den neusten inofiziellen Treibern gemacht wurde und daher angeblich der ein oder andre test zu schlecht ausfiel)

zeigs mir....

raibera
2002-06-05, 13:41:27
bevor man hier über ati wettert, sollte man erst mal abwarten, wie die offizielle bezeichnung sein wird!

rv250 ist ja nur die INTERNE bezeichnung. das ist also nicht das, was dann im laden auf der packung steht (und wenn dann nur klein) - somit kann von kundenverarsche MOMENTAN noch nicht die rede sein.

leute, welche sich nach der verpackung eine grafikkarte oder in verbindung mit einem komplett-pc kaufen, können mit einer internen bezeichnung sowieso nichts anfangen.

also, nur wenn das teil dann r8600+ heißt, wäre es die selbe verarsche wie z.b bei den gf4mx modellen.

Tarkin
2002-06-05, 13:42:55
R300 ... High End Chip im Spätsommer

RV250 ... dazugehöriger Mainstream Chip, der die aktuellen 8500 ersetzen wird (sehr wahrscheinlich 0.13µ und mit 300-350 Core/Mem... ähnlich wie letztes Jahr, als die 7500er die alten Radeons abgelöst hat) Leistung etwas über aktueller 8500 (Vermutung stützt sich auf Gerüchte)

Interne Codenamen spielen absolut keine Rolle, oder?

von mir aus können Sie Ihren next-gen Chip auch RVLER670 nennen.

... alles klar?

raibera
2002-06-05, 13:54:17
übrigens 1:0 für deutschland

aths
2002-06-05, 14:42:50
Originally posted by ow



Stell dir einfach obiges Pic vor, wenn man noch 2xAA dazuschaltet.
Die fps der Radeon halbieren sich, die der GF4 aendern sich nicht.
Oder stells dir ohne AF/AA vor.
Die GF4 verdoppeln die Leistung, bei der Radeon tut sich praktisch nix.

Das ist Quark mit Sauce, ow.

Auch GF4Ti4600 verliert bei 2x FSAA Leistung, selbst wenn der RAM brutal übertaktet ist. Die GF4 verdoppelt die Leistung nicht!! Wenn man Ahnung von der MSAA-Implementation á la NV2x hätte, wüsste man auch, dass z.B. early z occlusion mit FSAA leidet. Außerdem geht FSAA auch bei GF3/4 immer etwas auf die Füllrate, anders ist Kantenglättung ja auch gar nicht möglich.

Wo wir schon dabei sind: GF4 glättet bekanntlich nur die Kanten, nicht das gesamte Bild wie Radeon. Es ist ganz logisch, dass die GF4 da schneller sein muss und man beide AA-Arten nicht so einfach vergleichen kann, wie du das (auch noch falsch) getan hast.

aths
2002-06-05, 14:46:00
Originally posted by ow



Und es ist schlichtweg Quatsch, was du da erzaehlst. Ich favorisiere NIEMANDEN. Und bei Andre wird das aehnlich sein.

Als ich noch 3dfx-Jünger war, hatte ich den Vorwurf ich würde 3dfx favorisieren, gundsätzlich weit von mir gewiesen.

Labberlippe
2002-06-05, 14:48:09
Originally posted by raibera
bevor man hier über ati wettert, sollte man erst mal abwarten, wie die offizielle bezeichnung sein wird!

rv250 ist ja nur die INTERNE bezeichnung. das ist also nicht das, was dann im laden auf der packung steht (und wenn dann nur klein) - somit kann von kundenverarsche MOMENTAN noch nicht die rede sein.

leute, welche sich nach der verpackung eine grafikkarte oder in verbindung mit einem komplett-pc kaufen, können mit einer internen bezeichnung sowieso nichts anfangen.

also, nur wenn das teil dann r8600+ heißt, wäre es die selbe verarsche wie z.b bei den gf4mx modellen.


Eben keine verarsche, wenn der RV250 ein DX 8 Chip ist, dann passt die Namensgebung und die wäre deutlich.
Radeon 8xxx = DX8
Radeon 7xxx = DX7

GeForce4 Ti4xxx = DX8
GeForce4 MX 4xx = DX7
Fällt Dir ewas auf?

Bei der Radeon kann man deutlich erkennen wo der Chip zugeordnet werden kann, bei nVIDIA leider nicht da gehört Hindergrundwissen dazu.
Genau da happert es bei den Laien leider.

Auserdem wird vermutlich der RV250 ein DX8 Chip sein, denn ich bezweifle das ATi wieder einen DX7 Chip bringt.
Übrigens das wäre dann eine verarsche.
Hoffen wir mal das ATi Ihren Weg weitergeht und nicht versucht nVIDIA nachzu eifern.

Gruss Labberlippe

raibera
2002-06-05, 14:52:26
ja ich kenne die ati namensgebung.

ich meinte auch nur, wenn es ein abgespeckter r200 wäre und das ding dann 8600 oder höher heissen würde, wär´s verarsche

MadManniMan
2002-06-05, 15:14:16
holla, jetz wirds interessant :D (ein smiley)

du fühlst dich also auf den schlips getreten? nen kleinkrieg willste haben, wa? kriegste! :naughty: ( <- übrigens is das n smiley)


Der Rage 128 sollte angeblich der TNT-Killer sein.
und die tnt sollte die v² plätten
..eine Voodoo2 hat er auch plattgemacht...
*rauskram* siehe bildchen da unten. teils war die tnt schneller, teils langsamer. also hätte laut deiner definition die r8500 die gf3 auch plattgemacht


Der Radeon sollte angeblich der GeForce1-Killer sein.
die gf1 sollte cpus unnötig machen
...hast du 'ne Liszca geraucht???
war nur etwas überspitzt ausgedrückt. zum zwecke der zeigung, daß sich da alle arg weit aus dem fenster lehnen. das TnL war imho nicht der renner. genausowegig war die radeon der gf1 killer, denn dafür hätte er nich zum zeitpunkt der gts, sondern anfang 200 erscheinen müssen

Der Radeon8500 sollte angeblich der GeForce3-Killer sein.
und weil die gf4ti schneller sind, ist sie es nicht. hey! diese logik muß ich mir merken!
'ne GeForce3 ist teilweise schneller, teilweise langsamer..wo ist dein Problem?
wieder anspielung auf das release-problem, daher mein zynismus


nVidia hat die drei schnellsten Grafikchips auf dem Markt, die man kaufen kann.
wovon zwei in absolut utopischen preisregionen liegen, wenn man sich die drei preisleistungsstärksten des marktes anschaut: ti4200(hey, du hast ja auch ein bisschen recht :zunge: ), die r8500(was du mir natürlich gleich widerlegen wirst ;) ) und die ti200(mist, hast du doch glatt nvs bestes value argument vergessen
...was hat das jetzt wieder mit den schnellsten Chips zu tun?
ich wollte nur des lieben unregs euphorie etwas bremsen. nich daß er noch den eindruck bekommt, seine aussagen hätten allgemeingültigkeit und endlose aussagekraft


/edit: smiley gerichtet
...was erdreistest du dich? Die armen Smileys!
nein, ich hatte sie nicht flachgelegt oder anderweitig misbraucht. darfst dich wieder hinsetzen

/edit: quote rausgenommen und smileys eingefügt(nicht "-führt"!)

raibera
2002-06-05, 15:33:30
ja ich kenne die ati namensgebung.

ich meinte auch nur, wenn es ein abgespeckter r200 wäre und das ding dann 8600 oder höher heissen würde, wär´s verarsche

raibera
2002-06-05, 15:40:18
scheisse doppelpost

btw

wann wird janker gekickt?

MadManniMan
2002-06-05, 15:47:12
was hattern heute tolles gemacht... 10 mal abseits und 5 schwalben. gar nicht mal so übel für nen bayern :D

raibera
2002-06-05, 15:48:59
anscheinend stand er vorm leeren tor und kriegte die kugel mal wieder nicht rein.

MadManniMan
2002-06-05, 16:10:50
Originally posted by Andre


Wenn du mir was sagen willst, dann kannst du das auch direkt machen.
Ansprache über eine 3. Person ist unhöflich.

war nicht so bös gemeint, wies rüberkam. sorry.

Andre
2002-06-05, 16:28:47
Originally posted by aths
Als ich noch 3dfx-Jünger war, hatte ich den Vorwurf ich würde 3dfx favorisieren, gundsätzlich weit von mir gewiesen.

Schließe doch einfach nicht von dir auf andere, dann kommen wir der Sache näher.
Nicht jeder hat es nötig seine Grundintention hinter angeblich sachlichen und intelligent klingenden Aussagen zu verstecken.

Andre
2002-06-05, 16:29:05
Originally posted by MadManniMan


war nicht so bös gemeint, wies rüberkam. sorry.

OK =)

raibera
2002-06-05, 16:33:12
Originally posted by Andre


Schließe doch einfach nicht von dir auf andere, dann kommen wir der Sache näher.
Nicht jeder hat es nötig seine Grundintention hinter angeblich sachlichen und intelligent klingenden Aussagen zu verstecken.

diese persönliche diskussion geht mich vielleicht nichts an, aber ist diese aussage nicht pervers? denn diese aussage klingt auch sachlich und intelligent

MadManniMan
2002-06-05, 16:40:28
Originally posted by Andre


OK =)

gut zu wissen :bier:

Andre
2002-06-05, 16:41:55
Originally posted by raibera
diese persönliche diskussion geht mich vielleicht nichts an, aber ist diese aussage nicht pervers? denn diese aussage klingt auch sachlich und intelligent

Pervers?
Ich habe es trotzdem nicht nötig, meine Intention künstlich zu unterdrücken - das machen schon die, die sich hinter angeblicher Objektivität verstecken.

Meine Aussage war eine generelle.
Nur aths muss auch damit rechnen, dass ich etwas antworte, wenn er mich persönlich anspricht - und das das nicht immer rosig sein muss, muss ich wohl nicht erwähnen.
Ich lasse mich aber hier nicht zerreissen und schau dabei zu - es gibt die Möglichkeit der PM, aber es ist anscheinend cooler das hier zu regeln.

Unregistered
2002-06-05, 16:44:18
Originally posted by Andre


Schließe doch einfach nicht von dir auf andere, dann kommen wir der Sache näher.
Nicht jeder hat es nötig seine Grundintention hinter angeblich sachlichen und intelligent klingenden Aussagen zu verstecken.

in deinem fall trifft dies aber zu 1000% zu :)

Das ist wohl der unterschied *gg

Sir Integral Wingate Hellsing
2002-06-05, 17:01:21
by ow - Und es ist schlichtweg Quatsch, was du da erzaehlst. Ich favorisiere NIEMANDEN. Und bei Andre wird das aehnlich sein.

Sicher!
Steh doch dazu , dass Du nVidia favorisierst!
Das werden genug Mit-Member bestätigen können...und es ist ja auch nix schlimmes dran, nur muss man dann net obiges (siehe Quote) sagen!

Ich steh dazu, dass ich momentan ATi favorisiere, Aths (würde ich behaupten... @aths: korriger mich wenns net so is) mag immer noch gerne 3DFX... und?

Sind wir deswegen schlechtere Menschen ???

ow
2002-06-05, 17:06:21
Originally posted by aths


Als ich noch 3dfx-Jünger war, hatte ich den Vorwurf ich würde 3dfx favorisieren, gundsätzlich weit von mir gewiesen.


aths, ich verbitte mir jegliche Vergleiche zwischen DIR und MIR!!!

/edit: und deine Erbsenzaehlerei von wegen 'nicht halbieren/nicht verdoppeln' kannst du dir sparen.

ow
2002-06-05, 17:12:51
Originally posted by 028


Sicher!
Steh doch dazu , dass Du nVidia favorisierst!
Das werden genug Mit-Member bestätigen können...und es ist ja auch nix schlimmes dran, nur muss man dann net obiges (siehe Quote) sagen!




Du kapierst es einfach nicht. Und deshalb werde ich mit dir auch nicht darueber diskutieren.

aths
2002-06-05, 17:36:53
Originally posted by Andre


Schließe doch einfach nicht von dir auf andere, dann kommen wir der Sache näher.
Nicht jeder hat es nötig seine Grundintention hinter angeblich sachlichen und intelligent klingenden Aussagen zu verstecken.

Ich denke schon, dass die Forenmehrheit dir (allerdings erst recht ow) eine Pro-nVidia-Voreingenommenheit attestieren würde.

(Dass mir die Mehrheit eine Anti-nVidia-Voreingenommenheit bescheinigen würde, streite ich ja gar nicht ab.)

aths
2002-06-05, 17:38:11
Originally posted by ow

aths, ich verbitte mir jegliche Vergleiche zwischen DIR und MIR!!!


Nanu?

Originally posted by ow

/edit: und deine Erbsenzaehlerei von wegen 'nicht halbieren/nicht verdoppeln' kannst du dir sparen.

Das ist keine Erbsenzählerei. Das sind Fakten, die du nicht genannt (und damit nV-Produkte in ein zu gutes Licht gerückt) hast. Vereinfachung dann, wenn es der bevorzugten Firma nützt. Fanboy eben.

aths
2002-06-05, 17:39:07
Originally posted by ow

Du kapierst es einfach nicht. Und deshalb werde ich mit dir auch nicht darueber diskutieren.

Ich denke schon, dass es 028 "kapiert" hat.

Frank
2002-06-05, 17:47:47
Originally posted by aths


Ich denke schon, dass die Forenmehrheit dir eine Pro-nVidia-Voreingenommenheit attestieren würde.

Das ist aber letztendlich Blödsinn. Jeder der mal genau ließt, weiss auch worums Andre in seinen Postings geht. Und das ist bestimmt kein Fanboygeeiere um nVidia, wie bei manch Anderen.

genau zulesen

jedi
2002-06-05, 17:54:44
Originally posted by Demirug
@ow:
Das ist das gute alte Neid Prinzip das in Europa und dort vorallem in Mitteleuropa sehr verbreitet ist.
Auf die großen wird erst mal draufgehauen und die kleinen dürfen eben alles.

Sehr treffend beobachtet, Demirug.

jedi
2002-06-05, 18:00:57
Originally posted by aths

Ich denke schon, dass die Forenmehrheit dir (allerdings erst recht ow) eine Pro-nVidia-Voreingenommenheit attestieren würde.


aths, und Dir würde die Forenmehrheit eine anti-nVidia-Voreingenommenheit attestieren. Egal was Du im Rechner hast, das ist kein Anhaltspunkt. Beispiele für Dein nVidia-Bashing gibt es ja mehr als genug.

HOT
2002-06-05, 18:07:55
Originally posted by 028


Sicher!
Steh doch dazu , dass Du nVidia favorisierst!
Das werden genug Mit-Member bestätigen können...und es ist ja auch nix schlimmes dran, nur muss man dann net obiges (siehe Quote) sagen!

Ich steh dazu, dass ich momentan ATi favorisiere, Aths (würde ich behaupten... @aths: korriger mich wenns net so is) mag immer noch gerne 3DFX... und?

Sind wir deswegen schlechtere Menschen ???

ow hat sich schon sehr gebessert :D *ow in Schutz nehm*

MadManniMan
2002-06-05, 18:34:20
jupp, die kyrokur hat ihm gut getan :bier:

StefanV
2002-06-05, 18:57:42
Zurück zum Thema:

Ich glaube kaum, daß ATI jetzt schon R300 Muster in der öffentlichkeit vorführt, wenn sie das machen würden, dann wären sie schön blöd, da man der Konkurenz Informationen liefern würde.

Die gezeigte Karte schaut auch ziehmlich nach einer R200 Platine aus, der Massive Kühlkörper ist mir auch schon aufgefallen, nur ist die Frage, wieviele Umdrehungen der Lüfter macht!

Ist das einer, der mit 5500 1/min dreht, oder nur 4000 1/min??

Für mich schaut das, wie ein 45x45mm Millenium Electronic Lüfer aus, der in der Bauform dem Lüfter ähnelt, der auf einer ViVid! XS verbaut ist.

Ein Großer Kühlkörper sagt nix über die Verlustleistun aus...
Solange man nicht weiß, was für ein Lüfter verbaut ist, ist jegliche Spekulation über die Verlustleistung irrelevant, da man sie nicht einschätzen kann.

Wäre ja auch möglich, daß ATI auf ihrem Referenz Design einen größeren Kühler verbaut, dafür aber einen leiseren Lüfter, wer weiß...

aths
2002-06-05, 18:59:36
Originally posted by jedi


aths, und Dir würde die Forenmehrheit eine anti-nVidia-Voreingenommenheit attestieren. Egal was Du im Rechner hast, das ist kein Anhaltspunkt. Beispiele für Dein nVidia-Bashing gibt es ja mehr als genug.

Originally posted by aths

(Dass mir die Mehrheit eine Anti-nVidia-Voreingenommenheit bescheinigen würde, streite ich ja gar nicht ab.)

Was ich im Rechner habe, ist natürlich auch Anhalts-Punkt.

Andre
2002-06-05, 19:56:54
Originally posted by Frank

Das ist aber letztendlich Blödsinn. Jeder der mal genau ließt, weiss auch worums Andre in seinen Postings geht. Und das ist bestimmt kein Fanboygeeiere um nVidia, wie bei manch Anderen.

genau zulesen

Danke, Frank :)

Andre
2002-06-05, 19:59:15
Originally posted by aths


Ich denke schon, dass die Forenmehrheit dir (allerdings erst recht ow) eine Pro-nVidia-Voreingenommenheit attestieren würde.

Das zeigt mir nur, dass du (und diejenigen, die du mit deinem Satz mit einbeziehst), meine Posts nicht richtig liest.

Schublade auf, Andre rein, Schublade zu.
Ach, das Leben kann so einfach sein, nicht wahr, aths?

ow
2002-06-05, 20:02:08
Originally posted by aths


Ich denke schon, dass es 028 "kapiert" hat.

.

ow
2002-06-05, 20:08:15
Originally posted by Frank

Das ist aber letztendlich Blödsinn. Jeder der mal genau ließt, weiss auch worums Andre in seinen Postings geht. Und das ist bestimmt kein Fanboygeeiere um nVidia, wie bei manch Anderen.

genau zulesen


Und bei mir auch nicht.

Ich habe hier schon des öfteren erklärt, dass mein Interesse an 3D Grafik ausschliesslich technischer Natur ist.
Ich spiele auch praktisch keine Games.

Mir ist es völlig egal, von welchem Hersteller eine Karte ist.

Ich habe mir bestimmt keine Kyro und Radeon gekauft, wenn ich Fan von NV wäre.
Jettzt hab ich drei Karten hier liegen, von denen ich immer nur eine betreiben kann. Hab halt keine 3PCs.

Und ich hab alle Karten mnit unzähligen 3D Apps getestet. Und ich weiss, was welche Karte/Treiber kann und was nicht.

ow
2002-06-05, 20:12:54
Originally posted by MadManniMan
jupp, die kyrokur hat ihm gut getan :bier:

:D

Das hat damit weniger zu tun. S: mein obiges Posting.
Wenn die Kyro nicht gut wäre, dann hätte ich das hier aus zum Ausdruck gebracht.

Aber das Teil hat einfach alles an 3D Szenen gefressen, was ich ihm vorgesetzt habe. Mit den letzten Treibern (mit 15.084 nicht) laufen sogar die OGL Viewperf Benches fehlerfrei und in kompletter Darstellung (keine fehlenden Polys).

Quasar
2002-06-05, 20:30:34
Originally posted by Tarkin


ok, wo schneller? ....

ahh ich verstehe. "schneller"

Bild gekickt

... sind übrigends Geforce 4 Karten, dass sollte man nicht vergessen!

BTW:

Die Karte auf dem Bild kann alles mögliche sein RV250, R300 ,.... kein Mensch hat offiziell bekannt gegeben, was das nun eigentlich ist. Ss gibt einfach zuwenig Infos.

das einzige was mit sicherheit gesagt werden kann, dass die Karte von ATI war, und AGPx8 beherrscht.


:lol:

Lies mal genauer, Grandmoff. Ich schrieb "teilweise", aber klar, daß ist jetzt natürlich falsch, wo du ein Gegenbeispiel, daß mittlerweile nicht einmal mehr zutrifft, gepostet hast, "King of Argumentation".

Quasar
2002-06-05, 20:32:04
Originally posted by AlfredENeumann



einfach nur ein refresh, welches bei Nvidia gang und gäbe ist. Man schaut es ja nur beim Marktführer ab.
Wenn der das so macht, muß das ja gut sein.

:D Klar, AEN. nV ist jetzt sogar Schuld, wenn ATi die Technologiebremse macht...

Quasar
2002-06-05, 20:35:27
Originally posted by aths

Wo wir schon dabei sind: GF4 glättet bekanntlich nur die Kanten, nicht das gesamte Bild wie Radeon. Es ist ganz logisch, dass die GF4 da schneller sein muss und man beide AA-Arten nicht so einfach vergleichen kann, wie du das (auch noch falsch) getan hast.

Wo wir schon dabei sind: Radeon filtert anisotrop bekanntlich nur einen Teil des Bildes, nicht das gesamte Bild wie GF4. Es ist ganz logisch, dass die Radeon da schneller sein muss und man beide AF-Arten nicht so einfach vergleichen kann,....

aths
2002-06-05, 20:36:13
Völlig korrekt, Quasar.

AlfredENeumann
2002-06-05, 20:36:14
Originally posted by Quasar


:D Klar, AEN. nV ist jetzt sogar Schuld, wenn ATi die Technologiebremse macht...


ne das nicht. so meine ich das nicht. war doch eher ironisch gemeint. mir ist es eh egal, wie was gemacht wird. mein interesse na Grafikkarten ist wie bei ow nicht die spiele sondern andere dinge. ich zieh mir 3D-Technisch eigentlich nur scene demos rein. zum richtigen zocken hab ich gar keine zeit.

Unregistered
2002-06-05, 20:40:08
Ow wie man in den wald hineinruft kommts auch wieder raus....


Also dass man Andre nicht versteht macht mich schon stutzig :)
Vielleicht solltest du deinen Schreibstil ändern???!!! ;)


Jetzt aber im Ernst:

Andre der erste der Schreit wenn ati irgendwas neues rausbringt bist du. Und zwar in der Form ist ja alles scheisse.....
Bei nvidia genau umgekehrt. Ich denke darum wirst du in die schublade hineingesteckt.

jedi
2002-06-05, 20:40:49
Originally posted by Quasar


:D Klar, AEN. nV ist jetzt sogar Schuld, wenn ATi die Technologiebremse macht...

Hey, der Spruch könnte glatt aus einem aths-Artikel sein... *eg*

aths
2002-06-05, 20:43:40
Originally posted by ow
Hör auf mich hier dumm anzumachen.

Originally posted by ow

aths, ich verbitte mir jegliche Vergleiche zwischen DIR und MIR!!!

/edit: und deine Erbsenzaehlerei von wegen 'nicht halbieren/nicht verdoppeln' kannst du dir sparen.

:nono:

aths
2002-06-05, 20:45:20
Originally posted by jedi


Hey, der Spruch könnte glatt aus einem aths-Artikel sein... *eg*

Fakt ist, dass ATI sowohl 2D- als auch 3D-technisch derzeit weiter als nVidia ist.

Unregistered
2002-06-05, 20:46:01
Also ich würde sagen diesesmal ist ATI GANZ KLAR VOR NVIDIA IHRE NEUE GRAKA IN DEN HANDEL BRINGEN !!!!
Aber lest selbst : http://www.hartware.de/news.html?id=26001

Naja diesmal scheint das Weinachtsgeschäft in ATI's Hände zu fallen!!
Zu mindest im HIGH_END Bereich (Zocken´!!)

Cu Blade

jedi
2002-06-05, 20:48:13
Originally posted by aths

Fakt ist, dass ATI sowohl 2D- als auch 3D-technisch derzeit weiter als nVidia ist.

Fakt ist, dass nVidia die schnellsten Chips macht, die man kaufen kann. Und die mit dem besten Preis/Leistungsverhältnis. Und von den Treibern brauchen wir erst gar nicht zu reden. Alles andere ist Vaporware.

aths
2002-06-05, 20:55:09
Originally posted by Andre
Das zeigt mir nur, dass du (und diejenigen, die du mit deinem Satz mit einbeziehst), meine Posts nicht richtig liest.

Schublade auf, Andre rein, Schublade zu.
Ach, das Leben kann so einfach sein, nicht wahr, aths?

Ich ziehe die Äußerung, du seist ein nVidia-Fanboy, zurück. Lass es mich so formulieren, dass du nach meinem persönlichem Eindruck tendenziell pro nVidia bist. Daraus einen Vorwurf basteln zu wollen wäre absurd und lag nicht in meiner Absicht.

Unregistered
2002-06-05, 20:58:40
Wollt ja nur sagen dass die R300 !!!!! schon vorgreführt wurde!!!!

Aber das interessiert hier ja anscheinend niemand ??!!!!


http://www.hartware.de/news.html?id=26001

aths
2002-06-05, 21:01:46
Originally posted by jedi
Fakt ist, dass nVidia die schnellsten Chips macht, die man kaufen kann.

Ergänze "derzeit" und du hast in diesem Punkt meine Zustimmung.

Originally posted by jedi
Und die mit dem besten Preis/Leistungsverhältnis.


Hm, das würde ich so nicht sagen wollen. nVidia hat P/L-mäßig in einigen Preisklassen wirklich gute Produkte anzubieten. Auf alle Segmente pauschalisieren würde ich das aber nicht.

Originally posted by jedi
Und von den Treibern brauchen wir erst gar nicht zu reden.


Ich persönlich finde, dass die Detos durchaus verbesserungswürdig sein. So fand ich z.B. 3dfx-Treiber unproblematischer, was Spiele-Kompatibilität angeht. Andere haben andere Erfahrungen gemacht, was natürlich zu akzeptieren ist.

Gerade in Dingen Treiber-Qualität kann ich vor Pauschalisierungen nur warnen.

Originally posted by jedi
Alles andere ist Vaporware.

Einer deiner Lieblingsbegriffe, aber für meinen Geschmack zu tendenziös eingesetzt. Grundsätzliche Vaporware sind angekündigte Windows-Versionen =)

Bei Gerüchten um Nicht-NV-Chips gleich "Vaporware" zu rufen finde ich unfair. Jedes Unternehmen rührt die Werbetrommel für neue Produkte. nVidia tut das auch.

Demirug
2002-06-05, 21:03:46
Originally posted by jedi


Fakt ist, dass nVidia die schnellsten Chips macht, die man kaufen kann. Und die mit dem besten Preis/Leistungsverhältnis. Und von den Treibern brauchen wir erst gar nicht zu reden. Alles andere ist Vaporware.

jedi, du verwechselst Technik mit Leistung. NVidia hat im Moment den den Chip mit der größten Leistung. ATi hat die etwas bessere Technik.

Wobei sich das im wesentlichen auf die Pixelshader Einheit beschränkt.

Exxtreme
2002-06-05, 21:05:57
Originally posted by jedi
Alles andere ist Vaporware.
Hast du vielleicht das "Alles andere" ausprobiert? Sachen nachplappern kann ich auch. Wenn du einen Artikel im Internet entdeckt hast, der _alle_ Grafikkarten incl. _aller_ Treiberkombinationen im Test hat, dann poste mal bitte die URL. Wenn du einen solchen Test nicht gesehen/gemacht hast, dann ordne ich deine Aussagen als Fanboy-Gelaber ein.

Gruß
Alex

Tarkin
2002-06-05, 21:06:26
Originally posted by Quasar



:lol:

Lies mal genauer, Grandmoff. Ich schrieb "teilweise", aber klar, daß ist jetzt natürlich falsch, wo du ein Gegenbeispiel, daß mittlerweile nicht einmal mehr zutrifft, gepostet hast, "King of Argumentation".

was soll bitteschön "nicht einmal mehr zutrifft" heißen, Mr. "Ich hab keine Beweise" ??

btw: wollte ich nur zeigen, dass eine 8500 sogar "teilweise" schneller ist nVidias bestes Stück.

Im Vergleich mit einer GeForce3 ist eine 8500, nicht nur was Features betrifft, besser.

jedi
2002-06-05, 21:12:27
Originally posted by Demirug

jedi, du verwechselst Technik mit Leistung. NVidia hat im Moment den den Chip mit der größten Leistung. ATi hat die etwas bessere Technik.

Wobei sich das im wesentlichen auf die Pixelshader Einheit beschränkt.

Für 99,99% aller User ist das aber völlig irrelevant. Die kaufen sich nicht eine Grafikkarte, weil sie die "Technik" so anhimmeln, dass sie sich ein Blockschaltbild vom Chip als Fanposter übers Bett hängen. ;)

Die kaufen die Karte, die für ihre Spiele und ihre Bedürfnisse am besten geeignet ist. Und die meiste Leistung bringt ihnen da ganz eindeutig nVidia.

Quasar
2002-06-05, 21:14:43
Originally posted by aths
Fakt ist, dass ATI sowohl 2D- als auch 3D-technisch derzeit weiter als nVidia ist.

Hm, das bringt mich auf was....wie kommt man dazu, einen Pixelshader v1.4 als technologisch weiterentwickelt zu bezeichnen, den zweiten Vertexshader der GF4 aber als Brute Force abzutun? Was ist technologisch weiterentwickelt: ein 128Bit-DDR-Interface mit fetten Caches vs. 4x32Bit-DDR-Controller mit adäquaten Caches? Multisampling vs. Supersampling? Trilinear+aF vs. Bilinear+aF?

Meiner Meinung nach konzentriert man sich einfach auf zwei unterschiedliche Bereiche, ATi mehr auf das einzelne Pixel und nV mehr auf massive Geometrie.
Natürlich gibt es das Argument, daß sich VS per CPU emulieren lassen, PS hingegen nicht (sinnvoll). Jedoch in den Mengen, die z.B. UT2003 inkl. des Performance Tests verarbeiten kann, kommt eine CPU nur richtig schlecht damit hinterher, insofern ist das Argument zwar theoretisch gültig, aber leider praxisuntauglich.

Womit ich mir gleich das nächste Stichwort geliefert habe (Man bin ich heute gut... ;)): Praxistauglichkeit.

Und das ist ein weiterer Weg, den nVidia imho früher eingeschlagen hat, als ATi. RGMS ist bei heutiger Gesamtleistung der Graka und aktuellen Games parxistauglicher als das besser aussehende PRSS. Eine hohe Polygonleistung und damit hohe Framerate ist praxistauglicher, als ein BQ-überlegener Pixelshader, eben weil sich VS per CPU emulieren lassen. Developer können so feinere Modelle verwenden oder eine andere LOD-Einstellung für Karten, die eine höhere Polygonleistung haben. Pixelshader müssen extra für DX8-HW eingebaut werden, inkl. einem Fallback für ältere HW. Zusätzlich müßte es eigentlich auch mind. zwei, besser drei Versionen des PS-Codepath geben, um alle am Markt befindlichen PS optimal zu nutzen.
Wenn nun noch ein Shrink des GF4 auf 0,13µ und ein Bug-Fix der Detonatoren erfolgt, ist auch das momentan nicht so ganz in meine Argumentation passende AF durch die mögliche höhere Taktrate des Chips, sowie die verbesserte Ausnutzung der Chipleistung durch den Treiber (mit Bug-Fix) mit durchgehend guter bis sehr guter Leistung möglich.

Demirug
2002-06-05, 21:19:07
Originally posted by jedi


Für 99,99% aller User ist das aber völlig irrelevant. Die kaufen sich nicht eine Grafikkarte, weil sie die "Technik" so anhimmeln, dass sie sich ein Blockschaltbild vom Chip als Fanposter übers Bett hängen. ;)

Die kaufen die Karte, die für ihre Spiele und ihre Bedürfnisse am besten geeignet ist. Und die meiste Leistung bringt ihnen da ganz eindeutig nVidia.

Ich habe nie etwas anderes behauptet. Das Problem von ATI ist das sie die besser Technik nicht in Leistungs umsetzten können. Das ist aber keine Folge von schlechten Treibern sonder kommt eher von dem Flaschenhals im Fillrate Bereich.

aths
2002-06-05, 21:27:53
Originally posted by Tarkin
btw: wollte ich nur zeigen, dass eine 8500 sogar "teilweise" schneller ist nVidias bestes Stück.


Mir ist nicht bekannt, dass bei wirklich gleichen Einstellungen die Radeon eine GF4 Ti überflügelt. Oder habe ich da was übersehen? (Da AF und FSAA unterschiedlich realisiert sind, kann man leider nur Benchmark-Werte ohne diese Filter-Maßnahmen zulassen.)

Quasar
2002-06-05, 21:31:38
Originally posted by Tarkin
was soll bitteschön "nicht einmal mehr zutrifft" heißen, Mr. "Ich hab keine Beweise" ??

btw: wollte ich nur zeigen, dass eine 8500 sogar "teilweise" schneller ist nVidias bestes Stück.

Im Vergleich mit einer GeForce3 ist eine 8500, nicht nur was Features betrifft, besser.

:D
Nicht einmal mehr zutrifft soll heißen, daß es einfach Schwachsinn ist, sich Features zu konstruieren, die sich Aufgrund unterschiedlicher Implementierung einfach nicht vergleichen lassen, zu vergleichen.
http://www.hardocp.com/images/articles/1022213969caRtNalNRP_3_2.gif

Daß man immer Situationen konstruieren kann, in denen eine nahezu beliebige Karte eine nahezu beliebige andere Karte schlägt, streitet ja auch keiner ab...

Im Vergleich mit einer GF3 ist eine Radeon auch oft genug nur zweiter Sieger, trotzdem sie so überlegen ist...

ow
2002-06-05, 21:41:58
Originally posted by Demirug


Ich habe nie etwas anderes behauptet. Das Problem von ATI ist das sie die besser Technik nicht in Leistungs umsetzten können. Das ist aber keine Folge von schlechten Treibern sonder kommt eher von dem Flaschenhals im Fillrate Bereich.


Das würde nicht die sehr unausgeglichene Performance der Ati in verschieden 3D Szenen verglichen mit den NV Karten erklären.

IMO klemmt´s da auch noch im Treiber. Mein Radeon1 ist entweder top oder flop, so könnte man das grob beschreiben.

jedi
2002-06-05, 21:44:58
*gelöscht, hatte sich erledigt*

aths
2002-06-05, 21:53:33
Quasar,

du schreibst: "Hm, das bringt mich auf was....wie kommt man dazu, einen Pixelshader v1.4 als technologisch weiterentwickelt zu bezeichnen, den zweiten Vertexshader der GF4 aber als Brute Force abzutun?"

Du hast weiter unten die Antwort selbst gegeben.

"Was ist technologisch weiterentwickelt: ein 128Bit-DDR-Interface mit fetten Caches vs. 4x32Bit-DDR-Controller mit adäquaten Caches? Multisampling vs. Supersampling? Trilinear+aF vs. Bilinear+aF?

Afaik hat Radeon eine Art 2x64 Bit Controller (habe dafür aber keine Quellen zurhand.) Weil nVidia nun auch "HyperZ" in weiten Zügen übernommen hat, ist GF4 tatsächlich effizienter als Radeon8500. (Allerdings kam GF4 ja auch später heraus. Die Effizienz-Krone ging, von PowerVR mal abgesehen, immer an denen der das jeweilig letzte Produkt brachte.)

Multisampling in Hardware ist nicht schlecht. ATIs Smoothvision ist (unterstellt man, dass das White Paper die Wahrheit sagt) sicherlich nicht weniger "fortschrittlich" als nVs MS-Implementation. Ich wäre sehr froh, könnte man mit GF3/4 2x RGSS nutzen. Die Leistung ist da, die Bildqualität wäre bei vielen Titeln besser. (Zum Gegensatz MS und SS werde ich mich bei einer Erweiterung des FSAA-Artikels ausführlich äußern.) Letztlich bin ich froh, "HRAA" zu haben. Ob es nun fortschrittlicher als SV ist, halte ich für strittig. Und gegenüber dem Parhelia ist die nVidia-Lösung ebenfalls schrecklich ineffizient.

Wenn du an dem AF der Radeon (eigentlich ja zurecht) mäkelst, so trifft der Qualitäts-Nachteil bei der GeForce halt auf das FSAA zu. Hier finde ich, dass eine moderne HW jeweils beide Möglichkeiten bieten sollte. Angenommen, GeForce könnte AF á la ATI mit ähnlich geringem Leistungseinbruch. Für viele Gamer sicher eine sinnvolle Option.

"Meiner Meinung nach konzentriert man sich einfach auf zwei unterschiedliche Bereiche, ATi mehr auf das einzelne Pixel und nV mehr auf massive Geometrie."

Dem kann ich zustimmen.

"Natürlich gibt es das Argument, daß sich VS per CPU emulieren lassen, PS hingegen nicht (sinnvoll). Jedoch in den Mengen, die z.B. UT2003 inkl. des Performance Tests verarbeiten kann, kommt eine CPU nur richtig schlecht damit hinterher, insofern ist das Argument zwar theoretisch gültig, aber leider praxisuntauglich."

Andererseits könnte (gäbe es die derzeitigen Treiberprobleme nicht) das Pixelshading bei ATI schneller als auf GeForce4-Karten ablaufen. Dann würde die Technik direkt in Framerate umgesetzt.

Meiner Einschätzung nach hat auch GF4 noch eine PS-Schwäche, sobald (komplexere) PixelShader massiv zum Einsatz kommen. nVidia behauptet, die Performance sei bei Verwendung von 3 oder 4 Texturen gegenüber GF3 deutlich gestiegen. Das wäre erfreulich, doch inwieweit das stimmt, konnte ich noch nicht nachprüfen.

"Eine hohe Polygonleistung und damit hohe Framerate ist praxistauglicher, als ein BQ-überlegener Pixelshader, eben weil sich VS per CPU emulieren lassen. Developer können so feinere Modelle verwenden oder eine andere LOD-Einstellung für Karten, die eine höhere Polygonleistung haben."

:) Gegen massiven Geometrie-Einsatz würde ich mich nun wirklich nicht sträuben - wenn es da nicht eine Unmenge Probleme gebe. Das fängt mit der AGP-Bandbreite an und hört bei der CPU-Last leider nicht auf. Kleinere Dreiecke = weniger Pixel pro Scanline. Je weniger Pixel, desto ineffizienter das Rendering.

"Pixelshader müssen extra für DX8-HW eingebaut werden, inkl. einem Fallback für ältere HW. Zusätzlich müßte es eigentlich auch mind. zwei, besser drei Versionen des PS-Codepath geben, um alle am Markt befindlichen PS optimal zu nutzen."

Ja, und das ist zu aufwändig als dass es breit genutzt wird. Hier und jetzt hat der Kunde von einem besseren PixelShader praktisch nichts, während man bessere Geometrie-Leistung immerhin in ein paar zusätzliche fps umsetzen kann. Also Zustimmung.

"Wenn nun noch ein Shrink des GF4 auf 0,13µ und ein Bug-Fix der Detonatoren erfolgt, ist auch das momentan nicht so ganz in meine Argumentation passende AF durch die mögliche höhere Taktrate des Chips, sowie die verbesserte Ausnutzung der Chipleistung durch den Treiber (mit Bug-Fix) mit durchgehend guter bis sehr guter Leistung möglich."

Angesichts der OpenGL-Erfahrung würde ich sagen: Nach dem Bugfix lohnt der Performance-Einbruch, den man mit AF nunmal hat.

(Dieses ganze "for free" ist Marketing. There is no lunch for free. Wäre etwas "for free" (wie z.B. Multitexturing bei Voodoo2, da fiel mir das das erste mal auf) so arbeitet man in Wahrheit ansonsten nicht mit voller Effizienz.)

Demirug
2002-06-05, 21:53:56
ow,

mir ging es nicht darum das die Leistung der Radeon 8500 unausgeglichene ist. Ich wollte darauf hinaus das die Fähigkeit 6 Texturen in einem Renderpass aufzutragen leistungstechnisch nutzloss wenn man nicht gleichzeitig die Füllrate erhöht. Es würde nur dann etwas nutzen wenn die Spiele durch den VS limitiert werden.

Um das auszuschliessen hat NVidia 2 VS in der GF4 verbaut. Diese Lösung (2 VS 4 Pipe 4 Texturen pro Pass) läst dem Entwickler mehr Möglichkeiten als die ATi Lösung (1 VS 4 Pipe 6 Texture pro Pass).

TBird
2002-06-05, 21:58:43
Originally posted by aths

Ich persönlich finde, dass die Detos durchaus verbesserungswürdig sein. So fand ich z.B. 3dfx-Treiber unproblematischer, was Spiele-Kompatibilität angeht. Andere haben andere Erfahrungen gemacht, was natürlich zu akzeptieren ist.


Was genau findest Du verbesserungswürdig bzw. würdest Du besser machen ?

aths
2002-06-05, 22:10:15
Karsli,

lies meinen kurzen Erfahrungsbericht http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=16891&highlight=detonator (Stichwort "Treiberqualität")

sowie http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=14642&highlight=detonator und http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=17637&highlight=detonator.

Demirug
2002-06-05, 22:11:38
"Andererseits könnte (gäbe es die derzeitigen Treiberprobleme nicht) das Pixelshading bei ATI schneller als auf GeForce4-Karten ablaufen. Dann würde die Technik direkt in Framerate umgesetzt.

Meiner Einschätzung nach hat auch GF4 noch eine PS-Schwäche, sobald (komplexere) PixelShader massiv zum Einsatz kommen. nVidia behauptet, die Performance sei bei Verwendung von 3 oder 4 Texturen gegenüber GF3 deutlich gestiegen. Das wäre erfreulich, doch inwieweit das stimmt, konnte ich noch nicht nachprüfen"


ich bin mir nicht sicher wie du zu dieser Behauptung kommts. Wenn beiden Karten optimale Treiber hätten können sie sich beim reinen Pixelshading nichts schenken. Beide Karten verfügen über die gleiche Anzahl TMUs und über die gleiche Anzahl von Shader Stufen.

Die GF muss ein zusätzlichnes Alphablending durchführen was Bandbreite kostet. Der bessere Memorycontroller scheint das aber auszugleichen.

aths
2002-06-05, 22:27:57
Demirug, ich bezog mich vor allem auf das, was JC dazu sagte. Er sprach auch von 2-3 Passes statt einem. Das wäre dann doch etwas mehr bandbreitenaufwändiger.

Quasar
2002-06-05, 22:29:19
aths,
Wo habe ich mir die Antwort auf die Frage, wie man darauf kommt, eine technologische Ausrichtung im Vergleich mit einer anderen als besser zu bewerten, wo sie doch in andere Richtungen gehen, selber beantwortet?

Auch deine Argumentation bezgl. meiner einzelnen rethorischen Fragen, zeigt, daß ich mich wohl nicht deutlich genug ausgedrückt habe: Es geht mir nicht darum, eine Technologie gegen eine andere abzuwägen, sondern einfach aufzuzeigen, daß hier zwei fortschrittliche Technologien einfach nebeneinander existieren können, ohne daß man in der Lage ist, zu sagen X habe einen Vorsprung vor Y oder X ist immer schneller als Y.

Extrem überspitzt formuliert, könnte man beide mit einem CAD-Programm vergleichen. Zur häufigen Benutzung wird man in 90% der Fälle mit den häßlichen Wireframe-Modus oder dem schattierten Polygonmodell greifen, obwohl auch hier die endgültige, texturierte Berechnung deutlich schöner anzusehen wäre. Nur ganz am Ende, wenn man den Leistungskritischen Teil der Arbeit hinter sich hat, wird man zur "schönen" Ansicht wechseln, um sich sein Werk bei zwar mickriger Performance, aber doch in voller Schönheit anzusehen.

aths
2002-06-05, 22:33:21
Quasar, du hast geschrieben dass man VS praktisch per CPU emulieren kann, PS nicht. Deinen Vergleich mit dem CAD-Programm kann ich jetzt nicht auf das Thema applizieren. Mit meinen Abwägungen wollte ich ebenfalls "nur" sagen, dass man angesichts Radeon8500 <-> GF3/4 nicht pauschale Aussagen treffen kann, was "bessere" Technik oder bessere "Praxistauglichkeit" betrifft.

Demirug
2002-06-05, 22:40:42
Originally posted by aths
Demirug, ich bezog mich vor allem auf das, was JC dazu sagte. Er sprach auch von 2-3 Passes statt einem. Das wäre dann doch etwas mehr bandbreitenaufwändiger.

Multipass braucht natürlich mehr Bandbreite. Allerdings scheint DOOM III primär ein Fillratemoster zu sein. Mit zunehmender AA Qualität müste die Radeon aber boden gut machen.

AlfredENeumann
2002-06-05, 22:44:55
http://www.ati.com/companyinfo/press/2002/4499.html

Future ATI Graphics Chip Plays Key Role in
Intel Enterprise Workstation Platform Demo

Wednesday, June 5, 2002

Markham, Ontario - June 5, 2002 - ATI's next generation graphics was selected to be part of an Intel® Xeon™ workstation platform technology demonstration at Computex featuring the newly specified Accelerated Graphics Port 8x interface (AGP8x) designed to double the graphics processing bandwidth over today's current AGP4x.

ATI's as-yet-unannounced graphics chip offers advanced, high-performance graphics power for workstations. As a validation partner for AGP8x, ATI's chip is the first to be demonstrated on Intel's future workstation platform based on the Intel Xeon processor family.

"AGP8x will revolutionize the graphics market, and ATI is proud to be an integral part of its public showing," said Rick Bergman, senior vice president, marketing and general manager, Desktop, ATI Technologies Inc. "Appropriately, like Intel's AGP8x workstation platforms, ATI's highly-anticipated next-generation product will bring a new level of 3D realism and killer graphics power to the market."

"ATI's next generation graphics hardware offers a leading platform to showcase this exciting progression in workstation-class graphics technology," said Jason Ziller, technology initiatives manager, Intel Corporation. "Both Intel and ATI are committed to delivering the benefits of AGP8x to our customers."

Andre
2002-06-05, 23:38:38
Originally posted by aths


Ich ziehe die Äußerung, du seist ein nVidia-Fanboy, zurück. Lass es mich so formulieren, dass du nach meinem persönlichem Eindruck tendenziell pro nVidia bist. Daraus einen Vorwurf basteln zu wollen wäre absurd und lag nicht in meiner Absicht.

Damit kann ich leben.

M O
2002-06-06, 08:30:09
Die Karte, die vermutlich Ende Juli als "Radeon9000" auf den Markt kommen wird, zeigte mit dem Demo-Modus des Benchmarks keinerlei Polygon- oder Textur-Fehler. Einen Testlauf mit Ergebnis wollte der Aussteller aber nicht zulassen. Von anderer Seite wurde aber behauptet, dass der Radeon9000 den GeForce4Ti in manchen Benchmarks knapp schlagen könnte - bei anderen sei er langsamer

super chip kann nicht mal gf4 schlagen
was ist dann in sebtember wenn N30 kommt ?

Iceman346
2002-06-06, 10:45:25
Originally posted by M O
Die Karte, die vermutlich Ende Juli als "Radeon9000" auf den Markt kommen wird, zeigte mit dem Demo-Modus des Benchmarks keinerlei Polygon- oder Textur-Fehler. Einen Testlauf mit Ergebnis wollte der Aussteller aber nicht zulassen. Von anderer Seite wurde aber behauptet, dass der Radeon9000 den GeForce4Ti in manchen Benchmarks knapp schlagen könnte - bei anderen sei er langsamer

super chip kann nicht mal gf4 schlagen
was ist dann in sebtember wenn N30 kommt ?

Wart doch erstmal bis die Karte wirklich raus ist, einerseits sieht man dann welche es ist (RV250 oder R300) und andererseits sieht man die wahre Geschwindigkeit der Karte. Jetzt zu bashen hat keinen Sinn.

Sir Integral Wingate Hellsing
2002-06-06, 10:47:24
@andre: sorry , ich wollte dich auch net inne Schublade stecken...
Du neigst aber teilweise zu einem merkwürdigen Sarkasmus...
Aber: Irgendwie witzig ist das schon :D

@ow: Cool bleiben und Milch trinken! Alle andere führt zu erhöhtem Blutdruck... Das aths und du wie Tag und Nacht von den Meinungen sind ist ja mal wieder von dir bewiesen worden... verstehe nur net warum du net dazu stehst?

@mo: mal schauen was WIRKLICHE Fakten uns über den R300 bringen...
ne Aussage wie "andere Seiten behaupten..." ist für den Popo!
Genauso siehts beim nV30 aus...

Wie heisst die Werbung bei RTL?

"...es wird ein heisser Sommer...Grafi...ähhh Filme bei RTL!" :D

TBird
2002-06-06, 11:06:28
Originally posted by Iceman346
Jetzt zu bashen hat keinen Sinn.

Nicht nur jetzt.

ow
2002-06-06, 12:25:56
Originally posted by 028


@ow: Cool bleiben und Milch trinken! Alle andere führt zu erhöhtem Blutdruck... Das aths und du wie Tag und Nacht von den Meinungen sind ist ja mal wieder von dir bewiesen worden... verstehe nur net warum du net dazu stehst?




Wozu soll ich stehen?
Zu dem Unsinn, den du ueber mich denkst?

nocturne
2002-06-06, 12:49:16
Originally posted by Iceman346

Jetzt zu bashen hat keinen Sinn.

Jetzt über Vaporware zu jubeln und sie zu hypen hat erst recht keinen Sinn.

aths
2002-06-06, 13:48:26
Originally posted by ow
Wozu soll ich stehen?
Zu dem Unsinn, den du ueber mich denkst?

Jeder darf seine Meinung frei sagen, ohne des Unsinns bezichtigt zu werden. Ich kann in 028s Äußerungen keine Ehrverletzung (respektive Beleidigung) entdecken. Deswegen halte ich derartige Gegenäußerungen überflüssig.

aths
2002-06-06, 13:52:24
Originally posted by nocturne


Jetzt über Vaporware zu jubeln und sie zu hypen hat erst recht keinen Sinn.

Hyper, Hyper!

ATI rult rult rult. Hyper, Hyper!

Matrox rult auch. PowerVR erst recht.

Delenda NIVIDA! Vorwärts, ihr Freiheitskämpfer!! In eine bessere Welt, wo ATI Preise und Technik diktiert.

M O
2002-06-06, 14:14:23
Auszug aus Anandtech (eingedeuscht):
...Nvidia soll mit der theoretischen Leistung des G4 Nachfolgers alle Grenzen des Momentan möglich sprengen. Allerdings machen Treiberprobleme und die starke Hitzeentwicklung des Chips große Probleme wodurch der Herbsttermin von Seiten NV nicht bestätigbar ist. ...
...ATI soll ihrer Angaben zufolge allerdings den Septembertermin wie geplant einhalten können was NV sicher Marktanteile kosten könnte. ...

ow
2002-06-06, 14:17:41
Originally posted by aths


Jeder darf seine Meinung frei sagen, ohne des Unsinns bezichtigt zu werden. Ich kann in 028s Äußerungen keine Ehrverletzung (respektive Beleidigung) entdecken. Deswegen halte ich derartige Gegenäußerungen überflüssig.



Indirekt bezichtigt er (und auch DU) mich der Luege, weil ich hier etwas gestehen soll, was absolut nicht der Wahrheit entspricht.

Wenn das nicht ehrverletztend und beleidigend ist, was denn dann??

Das einzig ueberfluessige hier sind deine Kommentare.

Unregistered
2002-06-06, 14:36:31
ow mach dich doch nicht lächerlich hier...
sonst glaubt dir bald keiner mehr was.

nocturne
2002-06-06, 14:56:45
Originally posted by aths

In eine bessere Welt, wo ATI Preise und Technik diktiert.

Genau. So wie früher, als ATI noch Marktführer und in manchen Bereichen (Mac) sogar Monopolist war.

;)

aths
2002-06-06, 16:31:05
-> in PM umgewandelt.

Exxtreme
2002-06-06, 16:36:28
@ aths & all
Für solche Dinge hat das Forum eine PM-Funktion.

Gruß
Alex

aths
2002-06-06, 16:41:00
Hast Recht. Ich editiere das und mache ein PM draus.

Tarkin
2002-06-06, 18:22:35
Originally posted by M O
Auszug aus Anandtech (eingedeuscht):
...Nvidia soll mit der theoretischen Leistung des G4 Nachfolgers alle Grenzen des Momentan möglich sprengen. Allerdings machen Treiberprobleme und die starke Hitzeentwicklung des Chips große Probleme wodurch der Herbsttermin von Seiten NV nicht bestätigbar ist. ...
...ATI soll ihrer Angaben zufolge allerdings den Septembertermin wie geplant einhalten können was NV sicher Marktanteile kosten könnte. ...

GO ATI, GOOOO!!!!!

Tarkin
2002-06-06, 18:29:14
Originally posted by nocturne


Genau. So wie früher, als ATI noch Marktführer und in manchen Bereichen (Mac) sogar Monopolist war.

;)

ATI hat auch heute noch einen sehr hohen Marktanteik (besonders im Notebook-Sektor ist ATI unschlagbar. die besch. GeForce Go schlucken viel zu viel Strom).

Birdman
2002-06-06, 18:38:07
Originally posted by M O
Auszug aus Anandtech (eingedeuscht):
...Nvidia soll mit der theoretischen Leistung des G4 Nachfolgers alle Grenzen des Momentan möglich sprengen. Allerdings machen Treiberprobleme und die starke Hitzeentwicklung des Chips große Probleme wodurch der Herbsttermin von Seiten NV nicht bestätigbar ist. ...


Autsch, schon die GF4 hat bei mir die Schmerzgrenze überschritten....und die GF5 soll noch schlimmer sein? Die ollen piraten sollen endlich die AGP spezifikationen bzgl. Kühlergrösse über den haufen werfen, und nen 2Slot hohen Cooler auf die Grakas peppen.
Dann hätte man weniger hitzeprobleme und leisere Karten. Stören würde dies vielleicht 1-2% aller User, welche alle Slots belegt haben, aber allen kann mans eh nie rechtmachen.

raibera
2002-06-07, 07:28:19
Originally posted by Birdman


Autsch, schon die GF4 hat bei mir die Schmerzgrenze überschritten....und die GF5 soll noch schlimmer sein? Die ollen piraten sollen endlich die AGP spezifikationen bzgl. Kühlergrösse über den haufen werfen, und nen 2Slot hohen Cooler auf die Grakas peppen.
Dann hätte man weniger hitzeprobleme und leisere Karten. Stören würde dies vielleicht 1-2% aller User, welche alle Slots belegt haben, aber allen kann mans eh nie rechtmachen.

ich wäre aber schon der erste, den das stören würde - habe nämlich nur noch einen slot frei.

wenn man dann irgendwann mal wirklich mehr platz zur kühlung einer graka braucht, muss man sich grundsätzliche gedanken über das design von mainboards machen