PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi´s Mainstream-Antwort: Radeon X700


Leonidas
2004-09-21, 12:44:31
Link:
http://www.3dcenter.org/artikel/2004/09-21_a.php


Es wird in den nächsten Tagen hierzu sicherlich noch das eine oder andere Update geben, was sich aus dem ergibt, was in den Artikeln der anderen Seiten steht, die ich momentan noch nicht gelesen habe.

Pinoccio
2004-09-21, 15:17:25
Dollars=Dollar?
/Edit: der Duden scheint beides zuzulassen.

Ansonsten ganz nett, bis auf das ATI halt keine Karten rausrückt.
Wenn ich daß also richtig verstanden habe, lohnt sich ein Umstieg bei einer 9500er und Aufwärts nicht.
Die DOOM3-Werte finde ich aber gar sehr heftig, mal sehen, was da noch zu tage tritt.

mfg Sebastian

q@w
2004-09-21, 15:39:35
AFAIK heisst es "ATis" und nicht "ATi´s" - du schreibst weder im Englischen noch betreibst du Auslassungen.

q@w
2004-09-21, 15:41:45
"gegenüber der Radeon 9700 machte sich die FX 5800 allerdings geradezu peinlich."

Man "macht" sich nicht peinlich, sondern lächerlich.

q@w
2004-09-21, 15:44:55
"nVidia erreicht zwar nicht die Taktraten von ATi´s R420/R423-Chips, bietet dafür bessere Effizienz pro Takt"

Auch hier: kein "´"...
(Entschuldige die Zollzeichen anstelle von richtigen Anführungszeichen, ich hab hier im Büro grad den ASCII-Code dafür nicht)

q@w
2004-09-21, 15:46:09
"ATi schaffte es zwar nicht, den eigentlich geplanten R400-Chip fertig zu entwickeln."

Das gefällt mir stilistisch nicht - das "zwar" wird nicht aufgelöst, weil der Satz dort abrupt beendet wird.

q@w
2004-09-21, 15:48:16
" Die Radeon-Karten profitiern durch die unabhängige Textureinheit,..."

profitieren

Gaestle
2004-09-21, 15:56:06
Da ja im Grafikchip-Forum immer alles zugemüllt wird, hier meine Fragen:

erstmal die Grundannahme:
NV43 hat bestimmte Vorteile & Nachteile, RV410 hat auch Vorteile & Nachteile.

Mir geht's im folgenden um die Anzahl der Rop's und der Vertex-Shader.
Im Artikel steht, dass die Vertex-Shader eher uninteressant sind, weil's derzeit nicht soviel Geometrielast in Spielen gibt. Andererseits steht bezüglich des NV43 u.a. bei Beyond3D, dass die "nur" 4 ROP's beim NV43 kein Problem sind, weil 8 ROP's gar nicht ausgelastet werden könnten. Wenn nun aber der NV43 die effizientere Pipe hat, dazu noch höher getaktet ist, sollte er doch den RV410 relativ souverän schlagen. Macht er aber nicht, man sieht einen ungefähren Gleichstand. Ich schiebe das jetzt auf die Anzahl der ROP's oder Vertex-Shader, da die restlichen Eckdaten ja ähnlich aussehen (128Bit).

Frage:
- Was ist beim RV410 für den Gleichstand verantwortlich: die (im Vgl. zu NV43) größere Anzahl der Vertex-Shader, oder die größere Anzahl der ROP's?

- Ist ein X700 wirklich nur ein Zitat: " Im Mittelklasse-Markt liegt jetzt mit der Radeon X700 Serie nun eine geringfügig verbesserte Radeon 9500 Pro vor,"(3Dcenter.de), und ist auch deswegen: Zitat: Allerdings unterstützt die von uns verwendete Build-Version noch nicht richtig das SM 2.0b für die X700 XT. (computerbase.de) ?

Danke im Voraus für Infos.

Grüße

Xmas
2004-09-21, 16:14:39
Gaestle, solche Fragen kann man zur Zeit aufgrund der wenigen Vergleiche kaum beantworten. Hier spielt aber weit mehr eine Rolle als nur die Rohleistung. Man kann es also nicht auf "VS oder ROPs" reduzieren.

Seite 2, erste Tabelle: es müsste RSQ statt SRQ heißen.

aths
2004-09-21, 16:37:38
Im Artikel steht, dass die Vertex-Shader eher uninteressant sind, weil's derzeit nicht soviel Geometrielast in Spielen gibt.Sehe ich nicht ganz so. 6 VS bei 8 Pixelpipes sind erst mal etwas übertrieben, aber es wäre ja schlimm, wenn die (billigeren) VS die (teuren) Pixelpipelines limitieren würden. Nur, was ist jetzt "limitiert"? Einfache Spiele, die die Pixelpipes wenig belasten, sind ohnehin schnell genug, selbst wenn die VS einen Flaschenhals darstellen sollten.

Andererseits steht bezüglich des NV43 u.a. bei Beyond3D, dass die "nur" 4 ROP's beim NV43 kein Problem sind, weil 8 ROP's gar nicht ausgelastet werden könnten.8 ROPs (ohne Apostroph, bitte) könnten je nach Anwendung schon ausgelastet werden. Für mehr als 8 ROPs wäre allerdings die Bandbreite nicht da. Bei den "interessanten" Spielen stellen die 4 ROPs aber kein ernsthaftes Limit dar, auch bei 4x MSAA nicht.

Wenn nun aber der NV43 die effizientere Pipe hat, dazu noch höher getaktet ist, sollte er doch den RV410 relativ souverän schlagen. Macht er aber nicht, man sieht einen ungefähren Gleichstand. Ich schiebe das jetzt auf die Anzahl der ROP's oder Vertex-Shader, da die restlichen Eckdaten ja ähnlich aussehen (128Bit).Ich schiebe das vorläufig auf weiter, äh, "optimierte" Texturfilter sowie auf die Tatsache, dass aktuelle Spiele noch nicht so viel arithmetische Rechenleistung brauchen wie NV43 liefern kann.

Gaestle
2004-09-21, 16:43:54
Aha.

Danke.

q@w
2004-09-21, 17:00:53
Zitat: Allerdings unterstützt die von uns verwendete Build-Version noch nicht richtig das SM 2.0b für die X700 XT. (computerbase.de) ?

Das liegt höchst wahrscheinlich an der Art und Weise, wie Far Cry, welches bei CB ja mit dem (wieder) inoffiziellen Patch 1.2 gebencht wurde, eine Compilertarget 2.B-taugliche Karte erkennt (Stichwort DeviceID).

Momentan limitieren die VS am ehesten noch im 3DMark - verwunderlich, daß gerade da der nV43 vergleichsweise gut dasteht.

egdusp
2004-09-21, 17:55:24
Es sollte darauf hingewiesen werden, dass eine 256MB X700Pro (XT) gegen eine 128MB 6600GT getestet wurde. Gerade bei fordernden Timedemos und AA kann der Speicher einen Geschwindigkeitsunterschied ausmachen.

Vielleicht noch ein Kommentar dazu, welche der Spiele davon besonders betroffen sein könnten.

mfg
egdusp

Endorphine
2004-09-21, 19:30:47
Überhaupt wurde imho ein wichtiger Aspekt im Artikel übesehen: der NV43 aka GeForce 6600 wird/darf nur 128 MiB lokalen Speicher ansprechen, der RV410 wird auch mit 256 MiB zu haben sein. 128 MiB limitieren derzeit sogar schon, wenn man nur die Qualitätseinstellungen mancher Spiele etwas in Richtung Anschlag aufdreht (ohne AA/AF). Ich denke nicht, dass gerade bei Mainstreamkarten, die ja meist sowieso länger im Rechner bleiben als Enthusiast-Modelle, ein 128 MiB-Modell die optimale Wahl ist.

Die Rohgeschwindigkeit hängt davon ab, welche Spiele man bevorzugt. Das deutsche Hype-Spiel FarCry und Half-Life 2 laufen auf der X700 besser, Doom-3 und weitere OpenGL-Spiele auf dem NV43. Für Betriebssysteme abseits von Windows ist der NV43 wegen der Treibersituation eindeutig die bessere Wahl, dafür hat ATI 256 MiB RAM. NV bietet zudem noch SM 3.0, wenn man Ambitionen in 3D-Programmierung haben sollte...

Irgendwie frustrierend. Keiner der beiden Hersteller bietet ausgewogene Performance, schnelle 256 MiB GDDR-3 (elektrische Leistungsaufnahme!) SDRAM, Dual-DVI, SM 3.0, brauchbare 3D-Treiber für X11 und gleichzeitig einen Preis unter 270 EUR in einer Karte... Unausgewogener könnte die neue Mainstreamklasse imho kaum sein.

Am liebsten würde ich meine Radeon 9700 mit einer AGP-Bridge in den nächsten (PCIe-) Rechner mitnehmen. :rolleyes:

Tigerchen
2004-09-21, 20:06:47
Aus dem Artikel:

nVidia legte dann zwar mit der GeForceFX 5900 noch einmal nach, doch das Feld Pixelshader 2.0 wurde weiterhin von ATi dominiert. Die Kanadier hatten es geschafft, bei Microsoft durchzusetzen, dass für DirectX9-Pixelshader ein Floatingpoint-Format mit nur 24 Bit ausreicht (statt 32 Bit wie ursprünglich von Microsoft gewünscht).

Aus einem Thread:
"Ein FP32-Rechenwerk ist größer, aber nicht langsamer als ein FP24-Rechenwerk."


Beides aths Aussagen.
Da fragt man sich warum aths darauf hinweißt daß das FP24 Format von ATI gewünscht wurde!

Pinoccio
2004-09-21, 20:13:26
Aus dem Artikel:

nVidia legte dann zwar mit der GeForceFX 5900 noch einmal nach, doch das Feld Pixelshader 2.0 wurde weiterhin von ATi dominiert. Die Kanadier hatten es geschafft, bei Microsoft durchzusetzen, dass für DirectX9-Pixelshader ein Floatingpoint-Format mit nur 24 Bit ausreicht (statt 32 Bit wie ursprünglich von Microsoft gewünscht).

Aus einem Thread:
"Ein FP32-Rechenwerk ist größer, aber nicht langsamer als ein FP24-Rechenwerk."


Beides aths Aussagen.
Da fragt man sich warum aths darauf hinweißt daß das FP24 Format von ATI gewünscht wurde!


Weil ein gleichschnelles FP24-Rechenwerk mit weniger Transistoren gebaut werden kann. Dadurch spart man Produktionskosten und kann unter Umständen höher takten.

<aths-mode>
hinweist
</aths-mode>
(scnr)

mfg Sebastian

LovesuckZ
2004-09-21, 20:25:27
Überhaupt wurde imho ein wichtiger Aspekt im Artikel übesehen: der NV43 aka GeForce 6600 wird/darf nur 128 MiB lokalen Speicher ansprechen, [...]

Nein, er kann auch mit 256MB umgehen, haengt alles vom Partner ab (siehe 6800NU und 256mb).

Die Rohgeschwindigkeit hängt davon ab, welche Spiele man bevorzugt. Das deutsche Hype-Spiel FarCry und Half-Life 2 laufen auf der X700 besser[...]


Farcry produziert mit dem CAT4.10 und der X700 einige Problemchen und Half Life 2 ist noch nicht draußen.

Tigerchen
2004-09-21, 20:33:49
Weil ein gleichschnelles FP24-Rechenwerk mit weniger Transistoren gebaut werden kann. Dadurch spart man Produktionskosten und kann unter Umständen höher takten.

<aths-mode>
hinweist
</aths-mode>
(scnr)

mfg Sebastian


Wirklich? Wird da nicht was anderes impliziert?

Pinoccio
2004-09-21, 20:38:17
Wirklich? Wird da nicht was anderes impliziert?


Was soll impliziert werden? nVidia baut ein FP32, Ati ein FP24. Macht Micrsoft einen auf "32 ist Pflicht" steht Ati doof da. Andersrum nVidia.
Oder was meinst du?

mfg Sebastian

Xmas
2004-09-21, 20:40:54
Irgendwie frustrierend. Keiner der beiden Hersteller bietet ausgewogene Performance, schnelle 256 MiB GDDR-3 (elektrische Leistungsaufnahme!) SDRAM, Dual-DVI, SM 3.0, brauchbare 3D-Treiber für X11 und gleichzeitig einen Preis unter 270 EUR in einer Karte... Unausgewogener könnte die neue Mainstreamklasse imho kaum sein.
Diese Anforderungen sind ja auch nicht Mainstream.

Endorphine
2004-09-21, 21:00:45
Nein, er kann auch mit 256MB umgehen, haengt alles vom Partner ab (siehe 6800NU und 256mb). Quelle? Wenn dem so ist, dann muss dies auch unbedingt so in die Übersicht der Fähigkeiten. Sonst stehen dort eben 128 gegen 256 Megabyte und ein wichtiger Grund, eine Radeon X700 statt einer GeForce 6600 zu kaufen. Farcry produziert mit dem CAT4.10 und der X700 einige Problemchen und Half Life 2 ist noch nicht draußen. Beides wird die Zeit regeln. :) Und -- wie bereits gesagt -- Mainstream-Grafikkarten verweilen für gewöhnlich recht lange in einem Rechner, länger als Enthusiast-Hardware. Da denke ich schon, dass auch HL2 relevant für Kaufentscheidungen ist. Sonst könnte man auch Doom-3 ebenso als Benchmarkgrundlage in Frage stellen. Ein Singleplayerspiel wie D3 ist nach ein paar Tagen ausgespielt, das kann gar keine ernsthafte Grundlage für eine Kaufentscheidung sein. Da die Engine aber in den nächsten Jahren voraussichtlich viele weitere Spiele antreiben wird ist D3 eben doch relevant. Ebenso HL2 -> Counter-Strike etc.

Quasar
2004-09-21, 21:04:51
Wirklich? Wird da nicht was anderes impliziert?

Was denn bsw.?

Daß ATi, wenn M$ sich durchgesetzt hätte (was letzten Endes nicht in ihrem Interesse lag) bis heute komplett ohne das, was man landläufig DX9-HW nennt, dastehen würde?

Nein, das hätten sich weder ATi noch MS erlauben können.

Endorphine
2004-09-21, 21:05:35
Diese Anforderungen sind ja auch nicht Mainstream. Meinst du? Ich denke, dass dies eigentlich ohne Probleme machbar wäre. Ein zusätzlicher diskreter TDMS-Transmitter für Dual-DVI ist ein Centbaustein und wenn ATI 256 MiB GDDR-3 auf eine X700-Karte verbauen kann könnte nVidia das auch. Scheinbar kann ATI dies sogar für 199 US-$ exkl. Steuern. Ich wäre sogar bereit, etwas mehr zu zahlen.

LovesuckZ
2004-09-21, 21:07:13
Quelle? Wenn dem so ist, dann muss dies auch unbedingt so in die Übersicht der Fähigkeiten. Sonst stehen dort eben 128 gegen 256 Megabyte und ein wichtiger Grund, eine Radeon X700 statt einer GeForce 6600 zu kaufen.

http://www.geizhals.at/deutschland/a118489.html

Da denke ich schon, dass auch HL2 relevant für Kaufentscheidungen ist.[...] Ebenso HL2 -> Counter-Strike etc.

beide Spiele sind noch nicht erhaeltlich und somit ist es schwer, aufgrund eines Betabenchmarks und Beta - Spiels kaufentscheidungen zu geben.

Demirug
2004-09-21, 21:30:32
Ich fürchte das man von der Performances eines Spiels das eine Engine nutzt nicht darauf schliessen können wird wie sich andere Spiele mit der gleichen Engine verhalten werden.

Die aktuelle Generation von Engines ist schon sehr flexible und das wird in Zukunft zunehmen. Die Kontrolle darüber was wie viel Leistung kosten wird geht immer mehr von den Händen der Programmierer in die Hände der Designer über.

Was ich sagen will ist das sich zukünftigen Spielen auf Basis der Source/Cry/DOOM III Engine ein ganz anderes Performanceprofil haben können wie HL2/Far Cry oder DOOM III.

Pinoccio
2004-09-21, 21:39:52
beide Spiele sind noch nicht erhaeltlich und somit ist es schwer, aufgrund eines Betabenchmarks und Beta - Spiels kaufentscheidungen zu geben.
... aber passt doch: mit noch nicht erhätlichen Spielen noch nicht erhältliche Karten vergleichen! ;D

Das ist wie eine Diskussion, ob man eine Grüne Bundeskanzlerin lieber beamt oder doch besser mit einem Überlichtschnellen Raumschiff zum Mond schießt!

@128vs256: LS scheint recht zu haben, auch THG schreibt von 256MB als möglichen Speicherausbau.

mfg Sebastian

Quasar
2004-09-21, 21:57:14
Ich fürchte das man von der Performances eines Spiels das eine Engine nutzt nicht darauf schliessen können wird wie sich andere Spiele mit der gleichen Engine verhalten werden.

Das zeigt schon die Q3-Engine - zunächst Grafikfressend, dann System-Bandbreitenhungrig und nun CPU-Lastig.

Demirug
2004-09-21, 22:08:28
Das zeigt schon die Q3-Engine - zunächst Grafikfressend, dann System-Bandbreitenhungrig und nun CPU-Lastig.

Ja, wobei ich davon ausgehe das es mit den aktuellen Engines zum einen schneller passieren wird und zum anderen weniger eine Generationsfrage ist. Selbst bei Spielen die im gleichen Zeitrahmen erscheinen kann es zu erhebliche Unterschiede kommen.

Gast
2004-09-21, 23:08:31
Ich denke, daß es kaum die 6600GT mit 256MB geben wird, die wildert nämlich dann in 6800/6800GT Regionen und Kanibalismus in den eigenen Produkten ist nicht wünschenswert.

Die 6600 wird es vielleicht mit 256MB gegen, dann aber mit 200MHz TSOP RAM, obwohl nv bis jetzt in dem Einstiegssegment, sprich 6200, mit 256MB aufgetreten ist.

aths
2004-09-21, 23:09:24
Da fragt man sich warum aths darauf hinweißt daß das FP24 Format von ATI gewünscht wurde! [/COLOR]Weil es so ist.

Gast
2004-09-22, 00:06:54
Ich denke, daß es kaum die 6600GT mit 256MB geben wird, die wildert nämlich dann in 6800/6800GT Regionen und Kanibalismus in den eigenen Produkten ist nicht wünschenswert. Eine FX5200 Ultra ist in der Praxis auch mit einer FX5600 non-ultra gleichzusetzen. Trotzdem hatte nV beide im Portfolio. Die Logik greift also nicht.

sputnik1969
2004-09-22, 01:28:53
Diese Anforderungen sind ja auch nicht Mainstream.
sehe ich etwas anders...
256 sind für einen heutigen Mainstream-käufer schon angesagt, eben weil eine (gehobene) Mainstreamkarte durchaus auch nicht mehr so billig wo zu Voodoo/Voodo2-Zeiten.
Und der "Nicht-Enthusiast" gibt eben nicht jedes Jahr 250€ für eine neue Karte aus. Ich nutze auch noch meine alte Radeon8500 und überlege mir genau, welches meine nächste 200-250€ Investition sein sollte..
Und als Mainstreamkunde will ich auch keinen Hähnchengrill als RAMs haben. Da habe ich mich bei meiner 8500er leider vergriffen :( .
Und da ich außer für Spiele kein Windows sondern Linux nutze, ärgern mich die schlechten ATI-Treiber für X11 von Anfang an.
Dual-DVI sollte wirklich nicht der Preistreiber sein und auf SM3.0 kann ich zur Not auch verzichten, aber wenn ich bedenke, wie lange die Karte "leben" soll, wär es doch zumindest Vorteilhaft...
Warum soll das nicht für etwa 200€ mit PCI-E und ca 210€ für AGP machbar sein?

Xmas
2004-09-22, 03:48:27
sehe ich etwas anders...
256 sind für einen heutigen Mainstream-käufer schon angesagt, eben weil eine (gehobene) Mainstreamkarte durchaus auch nicht mehr so billig wo zu Voodoo/Voodo2-Zeiten.
Und der "Nicht-Enthusiast" gibt eben nicht jedes Jahr 250? für eine neue Karte aus. Ich nutze auch noch meine alte Radeon8500 und überlege mir genau, welches meine nächste 200-250? Investition sein sollte..
Und als Mainstreamkunde will ich auch keinen Hähnchengrill als RAMs haben. Da habe ich mich bei meiner 8500er leider vergriffen :( .
Und da ich außer für Spiele kein Windows sondern Linux nutze, ärgern mich die schlechten ATI-Treiber für X11 von Anfang an.
Dual-DVI sollte wirklich nicht der Preistreiber sein und auf SM3.0 kann ich zur Not auch verzichten, aber wenn ich bedenke, wie lange die Karte "leben" soll, wär es doch zumindest Vorteilhaft...
Warum soll das nicht für etwa 200? mit PCI-E und ca 210? für AGP machbar sein?
Vorneweg: Du bist nicht wirklich Mainstream-Kunde. Ich erlebe es leider viel zu oft, dass Leute ihre eigenen Anforderungen auf die breite Masse projizieren. Dual-DVI ist ein Nischenfeature, wer hat schon zwei DVI-TFTs? Stromverbrauch und Wärmeentwicklung interessiert außerhalb der Modding-Community fast keinen. Auch Linux und Auflösungen jenseits 1280x1024 stellen nur Nischen dar. Klar gibt es auch Kunden, die nicht viel Leistung, aber bestimmte Features wollen. Nur ist es für die Kartenhersteller kaum profitabel, dafür spezielle Produkte auf den Markt zu werfen.

aths
2004-09-22, 10:16:16
Eine FX5200 Ultra ist in der Praxis auch mit einer FX5600 non-ultra gleichzusetzen. Trotzdem hatte nV beide im Portfolio. Die Logik greift also nicht.Die 5200 Ultra ist allerdings des Kanibalismus' unverdächtig. Aufgrund ihres Preises wurde sie kaum verkauft. Eher wilderte die 5900 XT in den 5700 Ultra-Regionen.

Gast
2004-09-22, 12:48:21
Auch wenn es jetzt ot wird:
Ganz genau, bei den meisten kleinen Händlern findet man die 5900XT, 5700SE und 5200UltraLow ;) natürlich mit 256MB. Daß nv auch eine 5700 Ultra für fast den Preis der 5900XT grundsätzlich im Programm hat, hat sehr wenig Relevanz für den Markt.

Tigerchen
2004-09-22, 16:25:37
Was soll impliziert werden? nVidia baut ein FP32, Ati ein FP24. Macht Micrsoft einen auf "32 ist Pflicht" steht Ati doof da. Andersrum nVidia.
Oder was meinst du?

mfg Sebastian

Ich wüßte niemanden sonst der so drauf rumreitet und das nach über 2 Jahren noch erwähnenswert findet. Klingt so als ob klar gestellt werden soll daß ATI sich die SM 2.0 Dominanz nur durch miese Tricks ercheatet hat.

Tigerchen
2004-09-22, 16:28:28
Was denn bsw.?

Daß ATi, wenn M$ sich durchgesetzt hätte (was letzten Endes nicht in ihrem Interesse lag) bis heute komplett ohne das, was man landläufig DX9-HW nennt, dastehen würde?

Nein, das hätten sich weder ATi noch MS erlauben können.

Wobei M$ dies ja schon mal so gemacht hat als die Radeon256 soeben die DX8 Specs "verpasste". Man munkelt daß nV dahinter steckte. Sicher nur ein böses Gerücht.

Quasar
2004-09-22, 18:44:36
Wobei M$ dies ja schon mal so gemacht hat als die Radeon256 soeben die DX8 Specs "verpasste". Man munkelt daß nV dahinter steckte. Sicher nur ein böses Gerücht.


Das mag sein - und was war beide Male kurz vor dem Abschluss? ;)

aths
2004-09-22, 19:01:28
[COLOR="#000088"]
Wobei M$ dies ja schon mal so gemacht hat als die Radeon256 soeben die DX8 Specs "verpasste". Man munkelt daß nV dahinter steckte. Sicher nur ein böses Gerücht.Ja, nur ein Gerücht. Ein gehässiges dazu.

deekey777
2004-09-22, 22:31:35
Farcry produziert mit dem CAT4.10 und der X700 einige Problemchen und Half Life 2 ist noch nicht draußen.


Stimmt genau: Half-Life 2 ist noch nicht draussen. Wird es endlich released, dann ist auch Vampire 2 nicht weit entfernt (12. Oktober? Gerüchten zufolge wird Vampire 2 künstlich verzögert, da HL2 vertragsgemäss das erste Source Game auf dem Markt sein muss).


PS: Das, was ich geschrieben habe, steht eigentlich nicht im Zusammenhang, was du geschrieben hast. Aber es sollte erwähnt werden, denn von den "Next Geneneration Engines" gibt es bisher nur ein Spiel pro Engine.

aths
2004-09-23, 14:30:44
AFAIK heisst es "ATis" und nicht "ATi´s" - du schreibst weder im Englischen noch betreibst du Auslassungen.Damit liege ich Leo schon lange in den Ohren.

"gegenüber der Radeon 9700 machte sich die FX 5800 allerdings geradezu peinlich."

Man "macht" sich nicht peinlich, sondern lächerlich.Hm, der Zusammenhang war "benimmt sich peinlich", was ich dann als "macht sich geradezu peinlich" formulierte, da sich eine Grafikkarte nicht benimmt. "Nimmt sich peinlich aus" klang mir zu ungewöhnlich. "Lächerlich" möchte ich nicht verwenden, da das dann einen anderen Klang bekommt.