PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Glaubt ihr ATI schafft es diesmal, NV zu schlagen???


Stonecold
2001-08-24, 18:59:25
Glaubt ihr die schaffen es!!!

Korak
2001-08-24, 19:05:54
Was meinst du mit 'NV zu schalgen'??? In der Schnelligkeit???

Razor
2001-08-24, 20:09:48
Im Umsatz ...
;-)

ow
2001-08-24, 20:25:18
Im Marketing;)

Stonecold
2001-08-24, 20:51:04
speed, habs ergänzt!!!

MfG
Stonecold

Razor
2001-08-24, 21:01:25
Glaubst Du wirklich, daß sie 33% schneller sein wird ?
;-)

Stonecold
2001-08-24, 21:13:47
wer weiss, ich hohen auslösungen sachlägt sie ja den GF3, vielleicht mit besseren Treibern, und bios sogar in fast allen!!

MfG
Stonecold

BNO
2001-08-24, 21:52:31
ATI hat mit der Hardware der Radeon 8500 einen guten Grundstein gelegt, nur müssen sie nun die Software, die diese Hardware konfiguriert und nutzen soll erstmal auf die Reihe bekommen. Ich hoffe, dass sie diesmal etwas bessere Treiber rausbringen und endlich mal den letzten Rest an Performance aus der Radeon holen.

dagmundna
2001-08-24, 22:06:26
Wenn sich ATI ins Zeug legt können sie's schaffen. Glaub ich aber weniger.

:tgv:

dag.

StefanV
2001-08-24, 22:13:21
Na klar, ATI schafft das schon.

Die Performance ist mir ja mehr oder weniger egal...

Mal schauen, vielleicht spare ich mal auf eine 8500er...

camel
2001-08-25, 09:41:50
Originally posted by Stefan Payne
Na klar, ATI schafft das schon.

Die Performance ist mir ja mehr oder weniger egal...

Mal schauen, vielleicht spare ich mal auf eine 8500er...

na, was jetz? die frage war nach speed,und nich,was sie sonst noch schaffen
und,wär wirklich ne "tolle" leistung,wenn sie n eigentlich 1 jahr alten nv chip schlagen würden :jediboom:

Razor
2001-08-25, 11:57:40
Wenn... ja wenn...

@Stefan Payne

Da ist wohl eher ein Wunschtraum der Vater den Gedanken, oder ?

HOT
2001-08-25, 12:03:04
ATi wird es schaffen, genau wie es jemand danach schaffen wird. Seien es NV, IMG, VIA/S3 oder Bitboys oder wer ganz anders :D Den besten Chip wird immer ein anderer haben, das ist nunmal so in der Marktwirtschaft ;)

Razor
2001-08-25, 12:18:28
Den 'besten' Chip wird es NIE geben !
;-)

Korak
2001-08-25, 12:23:35
Originally posted by Razor
Den 'besten' Chip wird es NIE geben !
;-)


Früher war das alles ganz anders ;D

Razor
2001-08-25, 12:41:10
Früher hat's niemanden interessiert !
;-)

Kai
2001-08-25, 12:45:41
Mich interessiert's heut auch nicht ungemein mehr als früher :D

Korak
2001-08-25, 13:06:03
Eigentlich ist vollkommen schnurz piep egal, ob man ne R8500 oder ne GeF3 hat. Sind beide super.

Korak
2001-08-25, 13:06:22
Äh für GAMER

HOT
2001-08-25, 13:18:14
Stimmt Razor, denn "beste" ist reine Definitionssache :D
Wie auch immer, der mit den meisten Features und der besten 3DPower jedenfalls ist der Radeon8500 momentan. Aber auch das ändert sich wieder... irgendwann bringt NV den NV25 oder Imagetech PowerVR Gen4 oder S3 Colubia. Mal sehen, welcher davon die meisten Features und Power bietet ;) Um die Treiber mach ich mir keine Sorgen mehr. Imagetech hat seine Hausaufgaben von Anfang an gemacht und ATI hat seine Lektion hoffentlich gelernt. Um NV brauchen wir uns diesbezüglich denke ich auch keine Sorgen zu machen. Da ist eher die Hardware das Problem (z.B. DXT1 oder AGP 4x Probs, SB ist auch standartmässig deaktiv).

Razor
2001-08-25, 14:16:38
Uiiiiiiii....

Das weiß jemand mehr als andere !
;-)

SBA und AGP4x bringen nichts (auch bei ATI).
DXT1 ist nur bei Q3-Games ein 'Problem', was eigentlich gar keines ist.

Und jetzt bitte wieder auf den Boden zurück kommen und einfach abwarten, bis es eine Radeon8500 tatsächlich gibt. Dieses Kaffesatz-Lesen ist zwar manchmal ganz nett, gähnt einen aber mit der Zeit doch zuiemlich an, gell ?

Razor

StefanV
2001-08-25, 14:46:02
Originally posted by Razor
Wenn... ja wenn...

@Stefan Payne

Da ist wohl eher ein Wunschtraum der Vater den Gedanken, oder ?

Ich brauch eigentlich 'nur' Gutes FSAA, das Pixelflimmern wirkungsvoll entgegen wirkt...

PS: Schon mal Starlancer in 1024x768 mit 4x FSAA auf 'ner V5 gespielt...

VOLL KRASS EYH...

Kai
2001-08-25, 15:32:43
Originally posted by HOT
der besten 3DPower jedenfalls ist der Radeon8500 momentan.

MOMENTAN ist das die GF3 ... vielleicht wird es die 8500 werden können. Aber ich nehme mal stark an, das sich das bei mir persönlich nach der Voltage Mod und dem 4er Detonator nicht bewahrheiten wird :D

Zitrone
2001-08-25, 16:04:21
Wartet doch einfach mal ab bis die erste RADEON 8500 in dem PC eines Members steckt...

HOT
2001-08-25, 18:09:27
natürlich bringt SBA und 4x nicht sehr viel, aber Fakt ist, dass es auf den meisten Chipsätzen nicht funktioniert und im Treiber SBA standartmässig deaktiv ist. Beim Kyro z.B. (ausser Hercules, dort nur 2x und SBA aus Rücksicht auf ältere ALI Chipsätze) wird immer mit AGP4x und SBA angesprochen und es gibt in den seltensten Fällen Probs damit. Wie es beim Radeon ist, weiss ich nicht.
DXT1 IST fehlerhaft und man kann es nicht nur bei Q3 und "Engineverwanten" sehen. Die 3DMark2001 benutzt nicht umsonst BEIDES DXT1 UND DXT3! Schon mal Giants mit S3TC/DXT1 probiert? Auf dem Kyro/Radeon/Savage gehts einwandfrei, auf Geforce siehst du viele hässliche Flecken!

soviel dazu. Das SIND Hardwareprobs!!!

StefanV
2001-08-25, 18:25:00
Originally posted by HOT
natürlich bringt SBA und 4x nicht sehr viel, aber Fakt ist, dass es auf den meisten Chipsätzen nicht funktioniert und im Treiber SBA standartmässig deaktiv ist. Beim Kyro z.B. (ausser Hercules, dort nur 2x und SBA aus Rücksicht auf ältere ALI Chipsätze) wird immer mit AGP4x und SBA angesprochen und es gibt in den seltensten Fällen Probs damit. Wie es beim Radeon ist, weiss ich nicht.
DXT1 IST fehlerhaft und man kann es nicht nur bei Q3 und "Engineverwanten" sehen. Die 3DMark2001 benutzt nicht umsonst BEIDES DXT1 UND DXT3! Schon mal Giants mit S3TC/DXT1 probiert? Auf dem Kyro/Radeon/Savage gehts einwandfrei, auf Geforce siehst du viele hässliche Flecken!

soviel dazu. Das SIND Hardwareprobs!!!


Bei NVidia Karten mit S3TC wird bei DXT1 IMMER nach 16bit konvertiert, daher die Flecken...

You see It's not a Bug, It's a Feature!!!

PS: ich finde diese aussage ist eine FRECHHEIT...

MFC_Boron
2001-08-25, 19:27:03
@Stefan

Das mit dem FSAA ist auch mein Anliegen...

Ich hatte mal eine Voodoo5 und seit dem ist man mit dem FSAA sehr pingelig! Das der Radeon ist zwar schoen, aber zu langsam (zumindest das 4xFSAA).

Dieses "komische" FSAA der GF3 (habe den Namen vergessen) kann das Pixelpopping nicht verhindern. Das bezieht sich wohl nur auf die reine Kantenglaettung. Daher ist es auch schneller!


Gruss,
Boron

StefanV
2001-08-25, 19:48:43
@Boron

Sehe ich auch so...

Die das Radeon FSAA sieht IMHO am besten aus, aber leider zu langsam ('etwas')...

Vielleicht könnte das ja eine Kyro besser, da sie ja immer mit 32bit rechnet...

Leider denke ich, daß die R200 ein ähnliches FSAA wie die GF3 haben wird (Multisampling)...

Ceiser Söze
2001-08-25, 20:14:38
Das ist zwar Off-Topic, aber ich möchte es trotzdem mal klarstellen:
Hier fällt immer wieder die Aussage, dass der Kyro immer mit 32bit-Farbtiefe rendert. Dies ist zwar korrekt, aber das tun alle anderen Chips genauso: VSA-100, NV15, NV20, Radeon: Sie alle rechnen intern mit 32bit oder höher (der VSA-100 rendert sogar mit etwa 40bit - die genaue Zahl kommt mir momentan nicht in den Sinn - und auch die ATI- und nVidia-Chips haben, soviel ich weiss, eine höhere interne Präzision).
Was den Kyro vom Rest abhebt ist lediglich die Tatsache, dass er dank des Tile-Buffers ein Pixel erst in den Framebuffer schreibt, wenn es auch wirklich fertig gerendert ist. Zockt man in 16bit (und hat also einen 16bit-Framebuffer), muss das in 32bit berechnete Pixel nur einmal auf 16bit heruntergerechnet werden (=Dithering).
Immediate Renderer schreiben jedoch ein fertig gerendertes Pixel sofort in den Framebuffer und es kann vorkommen, dass dieses später wieder benötigt wird. Wenn z.B. eine transparente Fläche über das Pixel gelegt wird, muss ein Blending-Vorgang durchgeführt werden, der den Farbwert des Transparenten Pixels und des dahinter liegenden Pixels korrekt vermischt. Dafür muss das Pixel aus dem Framebuffer ausgelesen, wieder in 32bit durch die Pipeline gejagt und ein weiteres Mal auf 16bit heruntergerechnet werden. Bei aufwendigen Effekten kann dies durchaus mehrere Male geschehen und mit jedem zusätzlichen Dithering-Vorgang steigt die Ungenauigkeit.
Nicht so beim Kyro: Da ein Pixel solange im internen (also 32bit) Tile-Buffer abgelegt wird, bis es endgültig fertig gerendert ist und erst danach in den 16bit-Framebuffer geschrieben wird, fällt pro Pixel nur ein Dithering-Vorgang an, was eine grösstmögliche Präzision ermöglicht. Die Dithering-Artefakte in 16bit fallen dadurch wesentlich geringer als auf Brute-Force Renderer mit mehreren Dithering-Vorgängen pro Pixel aus.
Intern rechnen jedoch alle Chips mit 32bit-Präzision. Allein der Tile-Buffer ermöglicht die höhere 16bit-Bildqualität des Kyros, mit der internen Präzision hat es genau genommen nichts zu tun...

Ceiser Söze
2001-08-25, 20:19:28
PS: Der Radeon nutzt ebenfalls Multisampling. Aber ehrlich gesagt ist dies das bessere Verfahren. FSAA ist primär nicht da, um Pixelflimmern zu eliminieren, sondern um die Treppcheneffekte zu beseitigen. Eine gute Implementierung eines anisotropischen Filteringalgorithmus eliminiert Shimmering viel besser und hat auch keinen Unschärfe-Effekt - im Gegenteil: Texturen flimmern damit nicht mehr UND sind schärfer. Was will man mehr? ;)

Optimal wäre daher eine Karte, die Multisampling kombiniert mit anisotropischem Filtering bei guter Performance liefert. Super Sampling darf als gute (bzw. sehr gute, wenn man das RGSS der Voodoo5 betrachtet) Übergangslösung betrachtet werden, dem effizienteren Multisampling (kombiniert mit anisotropischem Filtering) gehört jedoch klar die Zukunft...

Razor
2001-08-25, 20:35:00
@HOT

Ist beabsichtigt, also kein Fehler.
Kann ansonsten auf Texturkompression gut verzichten !
Wozu auch ? Besser sieht's immer noch ohne aus...
;-)

@Ceiser Söze

Multisampling FSAA mit anisotropischem Filter bei guter Performance ?
Das ganze noch mit ein wenig Stereo garniert ?
Mjam !!!

Womit wir dann wieder bei der gf3 wären...

Thowe
2001-08-27, 19:52:52
Originally posted by Razor


Womit wir dann wieder bei der gf3 wären...

... und den Beweis das die Evolution ein Kreis ist.

ow
2001-08-27, 21:41:15
test 21.41 uhr

geht das forum nach?

Unregistered
2001-09-03, 16:33:28
laut technischhen date ist s jedenfalls komplexer als gf3
(gf3 57 mil transis ati 60 mil ) immerhin 3 mill mehr größere bandbreite hat theretisch auch also wenn die treiber optiemiert sind steht dem podest wohl nichts im wege
und selbst wenn nicht ist die trueform geschichte das beste grafik feature seit langem von dem man auch was hat
oder mögt ihr die eckige grafik

nggalai
2001-09-03, 19:50:05
Nö. Eckige Grafik mag ich auch ned besonders. Aber solange Truform nur mit OpenGL läuft, bringt's mir auch nicht viel.

ta,
.rb

Ceiser Söze
2001-09-03, 20:08:55
TruForm hat auch unter DirectX8 keine Probleme, da N-Patches bereits in der API enthalten sind.
Zitat ATI: "N-Patches are a higher-order surface primitive developed by ATI for DirectX® 8."

nggalai
2001-09-03, 21:29:43
Hi,

ja, N-Patches laufen schon unter DX8. N-Patches wurden auch nicht von ATi entwickelt ;) , das ist Marketing Blabla. N-Patches / NURBS gibt's schon seit vielen, vielen Jahren sowohl in Theorie als auch Praxis, und auch die GF3 hat eine Hardware-N-Patch Implementation eingebaut. Die nennt sich sogar N-Patch, in dem Fall.

Das Problem mit TruForm und DX ist ganz einfach, dass unter DX8 keine Möglichkeit existiert, Software einfach mit einem Extention-Aufruf und 2 Zeilen Code wie unter OpenGL auf TruForm laufen zu lassen--das schöne an TruForm ist jedoch gerade die einfache Implementation und der Quasi-automatismus. DX8 lässt auch keine ATi-spezifischen Extentions zu (welche unter OpenGL den TruForm Support ermöglichen), und ist generell recht restriktiv. Man darf also seine Software / Engine neu für N-Patches umschreiben, wenn das unter D3D laufen soll--mit dem Ergebnis dass, wenn Du für DX8 was mit N-Patches codest, es dann entweder auch auch auf einer GF3 läuft (wenn DX8 kompatibel), oder faktisch eine R8500-only Version geschrieben werden muss, mit allem Entwicklungsaufwand, der anfällt.

In wiefern sich dies bei DX8.1 ändert kann ich nicht sagen, habe mich noch nicht sosehr mit 8.1 auseinandergesetzt. Andererseits bleibt ansonsten die Frage: weshalb existieren momentan nur OpenGL TruForm Demos?

Ich lasse mich jedoch gerne mit einem Grundlagenpaper zu NURBS und DX korrigieren. Ich hab' diese obigen Aussagen aus den DX Developers Foren auf microsoft.com, und Entwickler labern ja auch gerne Mist. ;)

ta,
.rb

Ceiser Söze
2001-09-03, 22:38:31
und auch die GF3 hat eine Hardware-N-Patch Implementation eingebaut. Die nennt sich sogar N-Patch, in dem Fall.

Hä? nVidia unterstützt doch polynominelle Flächen und keine n-Patches, während es bei ATI genau umgekehrt ist. Ich zitiere den TruForm-Artikel auf 3DConcept: "...N-Patches dagegen beherrscht zwar bis auf weiteres auch nur der RADEON II..." N-Patches können auf der GF3 mit DX8 höchstens in Software emuliert werden, aber das kostet Performance....

Soviel ich weiss, wurde die N-Patch Implementierung in DX8.1 noch etwas vereinfacht. Die Präsentationen der diesjährigen Meltdown sind diesbezüglich jedoch nicht ganz deutlich. Mal abwarten bis DX8.1 da ist.
Ich kann jedoch nicht so recht glauben, dass N-Patches in DX viel aufwändiger zu implementieren sind als in OpenGL. ATI hat Microsoft ja dazu gebracht, das Feature in die API aufzunehmen (es wird wohl kaum nVidia gewesen sein ;) ) und da wird man mit Sicherheit darauf geachtet haben, dass die Implementierung sich schön leicht gestaltet.
Die genauesten Angaben zur TruForm-Implementierung finden sich halt (leider) immer noch auf der ATI-Site:
http://www.ati.com/na/pages/faq/truform_faq.html
Kenne mich leider mit DirectX-Programmierung zu wenig aus, um aus der Fachsimpelei genaue Schlüsse ziehen zu können...

Zitrone
2001-09-03, 22:46:03
In Sachen Graka ist die Kaiser Sülze unübertroffen ;)

Ceiser Söze
2001-09-03, 22:59:25
Ich habe eine Frage:
Warum!!! Warum bringt es niemand (und damit meine ich wirklich NIEMAND!!!) fertig meinen Nickname richtig zu schreiben???!!!! :D
Von harmloseren Versionen wie Ceisar Söze, Ceiser Soze etc. bis zu Kaiser Sülze habe ich nun in meinen 2 1/2 Jahren, in denen ich unter diesem Nick im Netz zu finden bin, nun wirklich alles angetroffen...
Ist denn das so schwer??!! :D

Zitrone
2001-09-03, 23:03:18
Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze, Ceiser Söze,

:P

Thowe
2001-09-03, 23:17:22
Originally posted by Ceiser Söze
Ich habe eine Frage:
Warum!!! Warum bringt es niemand (und damit meine ich wirklich NIEMAND!!!) fertig meinen Nickname richtig zu schreiben???!!!! :D
Von harmloseren Versionen wie Ceisar Söze, Ceiser Soze etc. bis zu Kaiser Sülze habe ich nun in meinen 2 1/2 Jahren, in denen ich unter diesem Nick im Netz zu finden bin, nun wirklich alles angetroffen...
Ist denn das so schwer??!! :D

Hab ich noch nie falsch geschrieben oder, egal wo. Obwohl auf Beyond3D wirst du auch nie falsch geschreiben oder hab ich es auf den Augen?

Vielleicht solltest du mal den Zusammenhang, bzw. Bedeutung deines Nicks erklären. Würde auch mich brennend intressieren.


@nggalai

Wobei der von nggalai natürlich auch.

Irgendwo hatten wir mal einen Thread dazu, im Mai oder so ... vielleicht mach mal wieder jemand einen auf oder sucht den alten und schiebt. Zitro?

Zitrone
2001-09-03, 23:21:29
Mompl

Zitrone
2001-09-03, 23:35:05
Nickbedeutungs-Thread gefunden...

http://www.3d-center.de/vbulletin/showthread.php?s=&threadid=896

Thowe
2001-09-04, 00:05:26
Originally posted by Zitrone
Nickbedeutungs-Thread gefunden...

http://www.3d-center.de/vbulletin/showthread.php?s=&threadid=896



und noch einige andere, boah die waren noch richtig gut.

Ceiser Söze
2001-09-04, 07:56:58
Nickbedeutung: http://us.imdb.com/Plot?0114814

Ironisch an der ganzen Sache ist zudem, dass ich meinen Nick selber bereits falsch geschrieben habe. Aber wer mal eine Nick-Suche in ICQ nach "Keyser Soze" und dananch nach "Ceiser Söze" durchführt, weiss warum ;)

nggalai
2001-09-04, 08:32:34
Hi there,

Hab' mich nochmals durch die Meltdown Papers gehangelt, wegen DX8 und TruForm / NURBS, und die Sache ist so:

DX8 unterstützt in Theorie eine einheitliche Schnittstelle für higher order surfaces. WIE diese implementiert/generiert werden ist Sache der Treiberschreiber. ATi hat für die 8500er einen subdivision N-Patch Ansatz gewählt, i.e. es werden on-the-fly subdivisions einzelner Dreiecke generiert. nVidia hat sich für polynominal surfaces entschieden, welches dem eigentlich "korrekten" NURBS / N-Patch Modell entspricht und bedeutend bessere Qualität liefert als 2 Iterationen TruForm (was das maximum zu sein scheint, das die R8500 noch ohne Performance-Einbruch leisten kann). Dieser Ansatz hat jedoch den Nachteil, dass die Modelle nicht on-the-fly generiert werden können, wie bei der ATi Lösung, sondern dass die Modelle im modeler neu generiert / konvertiert werden müssen. Der Aufwand ist dank scripts nicht super-gross, allerdings sind sich die meisten Spiele-Programmierer einig, dass NURBS u.ä. nur wenig bringen, trotz Bandbreitenentlastung. Auch Intel beisst mit ihrer NURBS mit SSE2 Taktik auf Granit--obwohl bedeutend mehr Systeme in einem Jahr den Ansatz unterstützen werden als TruForm und GF3 PolSur zusammen.

nVidia hat ihre PS Lösung auch N-Patch genannt (was ja formal auch korrekt ist), jedoch führt das des öfteren zu Verwechslungen. :)

Zu DX8: die N-Patch API ist noch nicht "allgemein" genug implementiert, und N-Patches auf D3D TRANSPARENT laufen zu lassen ist äusserst aufwendig (i.e. R8500-only Version nötig). Ob und wie sich das bei DX8.1 ändern wird, werden wir sehen. *schulterzuck*

...

...

Und wegen meines Nick hatte ich mal was in der FAQ zu www.nggalai.com gepostet:

Q: How the fuck do you pronounce "nggalai?" And what the hell does it mean?

A: Learn to read IPA, cussword-wielding moron. And I won't explain the meaning of nggalai to somebody addressing me with THIS kind of language, you pussy-juice drinking asshole.

:)

Ist natürlich nicht an euch gerichtet. :D

ta,
-Sascha.rb

P.S. und ja, wenn's mal wieder einen Nick-thread gibt werd' ich vielleicht sogar mitmachen.rb

Thowe
2001-09-04, 09:46:08
Originally posted by nggalai
Hi there,

P.S. und ja, wenn's mal wieder einen Nick-thread gibt werd' ich vielleicht sogar mitmachen.rb


http://www.3d-center.de/vbulletin/showthread.php?s=&threadid=896&pagenumber=4

Bitte mitmachen, bitte, bitte, bitte ... :)

Apokalypse
2001-09-04, 11:30:16
Ich hoffe, daß der neue Radeon es diesmal besser schafft als der alte, obwohl der Radeon 1 auch schon vom 3D-Support besser war als der GF2 nur mit der Power von nVidia nie mithalten konnte. Das Problem ist, daß ATI immer einen Schritt hinter nVidia zurück ist. Wenn ATI einen neuen Chip präsentiert zieht nVidia ein neues Ass aus dem Ärmel.

Das der neue Radeon genug Potential hat, um GF3 Paroli bieten zu können zeigen ja die ersten Tests, indem der Radeon besser war als ein GF3 mit Detonator 3.

Ciao,

Apokalypse

nggalai
2001-09-04, 12:29:11
http://www.3d-center.de/vbulletin/showthread.php?s=&threadid=896&pagenumber=4

Bitte mitmachen, bitte, bitte, bitte ... :)

OK, OK, posted. :D

ta,
.rb

Thowe
2001-09-04, 12:51:00
Originally posted by nggalai


OK, OK, posted. :D

ta,
.rb

Lieb von dir.

nggalai
2001-09-04, 12:53:31
Lieb von dir.Ich mag dich auch. *knuutsch* :D

ta,
.rb

Thowe
2001-09-04, 14:42:29
:D

Frank
2001-09-05, 02:43:50
Was wird denn das jetzt hier für ein Tächtelmächtel??

Rumknutschen im Forum

ts ts...

StefanV
2001-09-05, 09:16:38
Und das ohne die neuen knutsch Smileys zu benutzen :bawling:...

:love1: :love2: :loveya:...

Unregistered
2001-09-05, 14:49:04
ähhh, wie war das thema noch mal?

Quasar
2001-09-05, 15:22:03
sorry, das eben war ich...hat nur nicht mit dem cookie funktioniert....

So, zurück zum Thema:
Den schnellsten Grafikchip hat ohne Zweifel momentan nVidia...auch wenn er z.Zt. nicht für den PC angeboten wird...aber die Architektur stimmt schon mal...

Quasar

Korak
2001-09-05, 15:39:44
Originally posted by Quasar
sorry, das eben war ich...hat nur nicht mit dem cookie funktioniert....

So, zurück zum Thema:
Den schnellsten Grafikchip hat ohne Zweifel momentan nVidia...auch wenn er z.Zt. nicht für den PC angeboten wird...aber die Architektur stimmt schon mal...

Quasar

So??? Welchen denn???

Quasar
2001-09-05, 15:44:46
ein Tip:

Er hat keine DX7 Einheit, dafür 2 parallele Vertex-/Pixelshader...

Korak
2001-09-05, 15:49:44
Achso den meinst du :D. Ich war geistig grad auf den PC-Sektor beschränkt ;). Jo was es da gibt ist echt beeindruckend. Besonders die Models aus Dead or Alive 3(?) gefallen mir :)

Quasar
2001-09-05, 15:55:17
hatte ich aber extra geschrieben, daß er momentan nicht für den PC angeboten wird :) ....aber ich denke, ein so gut vorfinanziertes upgrade wird sich nVidia für den nächsten Frühling nicht entgehen lassen...Entwicklungskosten beinahe gleich Null...
Hoffentlich sind sie nicht durch irgendwelche Knebelverträge à la Intel/Rambus and M$ gebunden....

Quasar

Korak
2001-09-05, 16:01:38
Jo haste. Dabei war ich aber zu sehr auf das 'vorerst, z.Zt...' fixiert :)