PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welcher Grafikchip wird dieses Jahr das Rennen machen?


Seiten : [1] 2

Exxtreme
2002-05-15, 22:19:49
Siehe Topic. Welcher wird der 'Beste' sein?

Gruß
Alex

P.S. 3 mal dürft ihr raten, was Alex da ausgewählt hat. ;D

Micron
2002-05-15, 22:32:57
Ich bin der Meinung endweder macht es der NV30 von Nvidia oder der R300 von ATI. Ich würde sagen das beide Chips super schnell seien werden und da kein anderer mitkommen wird.

Frank
2002-05-15, 22:40:29
Welcher Grafikchip wird dieses Jahr das Rennen machen?
bezüglich was? :)
Ich stimme mal spontan im Kopf für den neuen Trident... kreuze aber was anderes an :)

mh01
2002-05-15, 22:44:50
Da Exxtreme ja fragt, welches der beste Chip wird, und nicht, welches der erfolgreichste, stimme ich für den P10.

Die Qualität diese Chips wird sehr stark von den Treibern abhängig sein (vollständige Programmierbarkeit) und nach meinen Erfahrungen liefert 3DLabs das Beste, was jemals an Treibern programmiert wurde, wird und werden wird.

Allerdings sehe ich den P10, wie auch den Parhelia, trotz der sicher hervorragenden Game-Leistung eher im Profi-Bereichs angesiedelt (wahrscheinlich wird er einen exorbitanten Preis haben), weswegen vermutlich der NV30 der erfolgreichste Chip dieser Auswahl wird (nur den Game-Bereich betrachtend).

Dunkeltier
2002-05-15, 22:47:10
Ich habe für den P10 gestimmt, zumindest das der leistungsmäßig alles wegrult. Aber umsatztechnisch wird wohl ATI mit der R300 das Rennen machen. Weil jeder Dummbeutel darauf gierig ist (gute Leistung, DX9 kompatibel).

Darkstar
2002-05-15, 22:56:34
Kann mal bitte jemand „VIA“ in „PowerVR“ umändern (und gleich statt „Kyro 3“ „Serie 5“ hinschreiben *eg*)? Danke.

StefanV
2002-05-15, 23:24:34
Natürlich der Parhelia, da er so früh erscheint *eg*

Gefolgt vom R300.

Für den P10 seh ich eher schwarz, da das Desing recht aufwändig ist und auch davon ausgehe, daß das eine oder andere Game mit dem P10 Probleme macht.

Der NV30 wird wohl 'ne Schlappe werden, da NV wohl noch bei einem 128bit MEM Interface bleibt, außerdem haben MGA und ATI einen Zeitvorsprung, da sie maßgeblich an DX9 gearbeitet haben...

zeckensack
2002-05-15, 23:43:50
Hier muß ich Stefan in allen Punkten beipflichten - ja, auch das kann passieren ;).
Allerdings nur aus Umsatz-/Erfolgstechnischer Sicht.

Das coolste, beste und geilste wird für mich persönlich vorraussichtlich der 3DLabs P10, allein schon wegen meiner Bastelleidenschaft.

Micron
2002-05-16, 00:52:18
Originally posted by Stefan Payne

Der NV30 wird wohl 'ne Schlappe werden, da NV wohl noch bei einem 128bit MEM Interface bleibt, außerdem haben MGA und ATI einen Zeitvorsprung, da sie maßgeblich an DX9 gearbeitet haben...

Aber was hast du von DX9? Es gibt bis 2004 bestimmt keine Spiele die es unterstützen und bis dahin gibt es neue Karten.

Dunkeltier
2002-05-16, 01:05:44
Originally posted by Blackmagic


Aber was hast du von DX9? Es gibt bis 2004 bestimmt keine Spiele die es unterstützen und bis dahin gibt es neue Karten.

Es verkauft sich einfach besser. Ist genauso so, als ob du dir ein Auto mit Airbag kaufst, der aber nie gebraucht wird. Es vermittelt einen ein gewisses Gefühl von "Sicherheit"...

mapel110
2002-05-16, 01:54:12
ich bin mal so verwegen und stimme für kyro3.
einschätzung:
DDR - verdoppelt bandbreite
höherer takt - ebenfalls mehr bandbreite
t&L laut dx8 - nochmal mehr power

ich denke, der kann auch ein renner werden.

p.s. den sis xabre 600 ultra habt ihr vergessen im poll.

StefanV
2002-05-16, 02:11:41
Originally posted by Blackmagic
Aber was hast du von DX9? Es gibt bis 2004 bestimmt keine Spiele die es unterstützen und bis dahin gibt es neue Karten.


Displacement Mapping??

Und noch ein paar andere 'goodies' und natürlich die Performance...

Aber warum hast DU dir JETZT noch 'ne DX7 Karte gekauft??

Xmas
2002-05-16, 03:35:48
P10 wird technisch kaum zu toppen sein, aber sehr wahrscheinlich nicht der erfolgreichste Chip. Da sehe ich NV30 und R300 vorne.

Ob der Parhelia wirklich so früh dran ist, muss sich noch zeigen. Auf jeden Fall hat er gegenüber den anderen den Nachteil, kein DX9-Chip zu sein (P10 zähle ich einfach mal als DX9 ;)).

Andre
2002-05-16, 09:53:36
Originally posted by Stefan Payne
Aber warum hast DU dir JETZT noch 'ne DX7 Karte gekauft??

Ist das Dein oder sein Problem?

aths
2002-05-16, 11:41:26
Stefan,

Andre hat Recht: Deine letzte Frage ist provozierend und trägt nicht zum Thema bei. Gelegentlichliche Sticheleien sind etwas anderes als penetrante Sticheleien.

aths
2002-05-16, 11:52:31
Zum Thema.

Ich habe für den R300 gevotet. Grund: ATI war lange Zeit ewiger Zweiter. Sie haben einfach mehr Motivation sich anzustrengen als nVidia, die meiner persönlichen Einschätzung nach etwas träge geworden sind.

Seit dem Radeon (R100) ist ATI technisch weiter als nVidia. nV gelang es zwar bislang doch immer wieder, die Performance-Krone zurückzuerobern. Performance ist aber nicht alles. (Ob nun GF3 oder Radeon8500 schneller ist - sehr große Unterschiede gibt es da nicht. Der R200-Core ist allerdings technisch weiter entwickelt als GF3 oder auch NV25.)

Features sind nun nicht alles (so war mir persönlich die Rohleistung wichtiger als neckische Möglichkeiten, die im großen und ganzen ungenutzt bleiben.)

Ich spekuliere, dass NV30 sehr gut sein wird, der R300 aber noch besser. Sachlich begründen kann ich das nicht, es handelt sich lediglich um eine Einschätzung aus dem Bauch heraus. Jedenfalls wird es zum Fall Refresh seitens nVidia die GF4 auch mit 0.13µm geben, ich erwarte natürlich auch eine Ti4800. Von ATI erwarte ich in diesem Jahr eine aufgebackene Version des R200-Cores. Damit will ich sagen: Welcher DX9-Chip auch die größte Käuferschaft findet: 2002 und wohl auch Q1/Q2 2003 gehört noch den DX8-Chips.

nocturne
2002-05-16, 13:18:24
Originally posted by aths
Ich habe für den R300 gevotet. Grund: ATI war lange Zeit ewiger Zweiter. Sie haben einfach mehr Motivation sich anzustrengen als nVidia

Genau aus diesem Grund denke ich, dass ATI wieder hinter nVidia sein wird. Ich tippe, dass nVidia's NV30 das Rennen machen wird. Wie Du schon sagst: ATI ist seit einiger Zeit Nummer zwei. Dabei ist ATI früher absoluter Marktführer gewesen, und in bestimmten Bereichen (Mac) war ATI früher sogar Quasi-Monopolist. Die Marktführerschaft von ATI konnte erst nVidia brechen und seitdem ist nVidia die Nummer eins. Der Ex-Monopolist ATI ist müde geworden.

Schauen wir uns die Vergangenheit an:

Als nVidia den TNT im Herbst herausbrachte, kündigte ATI den Rage 128 als TNT-Killer an, verpasste aber das Weihnachtsgeschäft. Und ein echter Killer war der Rage 128 nicht, er kam höchstens in dieselbe Liga, kam aber zu spät und mit schlechteren Treibern.

Als nVidia mit dem GeForce im Herbst den ersten DX7-Chip mit T&L herausbrachte, kündigte ATI den Radeon als GeForce-Killer an, verpasste aber wieder das Weihnachtsgeschäft. Und ein echter Killer war der Radeon nicht, er kam höchstens in dieselbe Liga, kam aber wieder zu spät und mit schlechteren Treibern.

Als nVidia mit dem GeForce3 im Sommer den ersten DX8-Chip mit Pixel/Vertexshadern herausbrachte, kündigte ATI den Radeon8500 als GeForce3-Killer an, verpasste aber wieder das Weihnachtsgeschäft. Und ein echter Killer war der Radeon8500 nicht, er kam höchstens in dieselbe Liga, kam aber wieder zu spät und mit schlechteren Treibern.

Wenn nVidia im Herbst 2002 den NV30 herausbringen wird, wird ATI den R3000 als Killer ankündigen...
Wird er wieder das Weihnachtsgeschäft verpassen? Keinen von uns würde das wirklich überraschen.

zeckensack
2002-05-16, 13:38:53
nocturne,

Da ist schon was dran. Aber du solltest auch nicht vergessen, daß ATI mittlerweile ein zweites Entwicklerteam eingekauft hat. Würde mich nicht wundern, wenn sie ihre Produktzyklen jetzt etwas schneller durchziehen können. Und mal ganz abgesehen vom Weihnachtsgeschäft, was natürlich für ATI immer sehr bitter war, brauchte NVidia immer erst einen Chiprefresh oder neue Treiber, um sich wieder klar abzusetzen.

nocturne
2002-05-16, 14:05:14
zeckensack,
sicher hat ATI wieder etwas zugelegt. Aber die besten Entwicklerteams scheinen zur Zeit jedenfalls bei nVidia zu sein.
Auch 3DLabs ist in puncto Treiber sehr gut, obwohl ich deren P10-Produkte erst im nächsten Jahr so richtig sehe. nVidia hat sehr gute Entwickler, die auch in mehreren Teams an unabhängigen Projekten arbeiten. Hinzu kommt noch, dass 100 der besten 3dfx-Entwickler nun zu nVidia gegangen sind. Auch deren Know-How und Manpower wird schon sehr fruchtbar in den NV30 eingeflossen sein.

Unreal Soldier
2002-05-16, 17:24:51
ONLY TWO WORDS:
P10 3DLabs

MFG
Unreal Soldier

Stonecold
2002-05-16, 20:16:17
ATI R300, weil die Treiber bei ATI immer besser werden, und Nvidia wird es nciht schaffen wenn die nur 128Bit DDR-Memory eisetzen!!! Parhelia und P10 werden wohl im höheren Preis segment angesiedelt sein!!!

MfG
Stonecold

Micron
2002-05-16, 20:24:12
Originally posted by Stefan Payne




Aber warum hast DU dir JETZT noch 'ne DX7 Karte gekauft??

weisst du was Stefan L.M.A.A. Ob ich eine DX6/DX7/DX8 Karte habe ist mein Problem und geht dich einen feuchten Dreck an. So langsam reichts mir mit deinen behinderten Komentaren. Lass mich einfach in ruhe wenn du nicht vernünftig Agumentieren kannst.

Exxtreme
2002-05-16, 20:27:38
@ Blackmagic

Komm schon, beruhige dich wieder. Einfach tief durchatmen, ein Schluck trinken und alles wird wieder gut. ;)

Gruß
Alex

Micron
2002-05-16, 20:29:20
Originally posted by Exxtreme
@ Blackmagic

Komm schon, beruhige dich wieder. Einfach tief durchatmen, ein Schluck trinken und alles wird wieder gut. ;)

Gruß
Alex

Nee das macht er ständig , wer gibt ihm das Recht dazu? So ein blöder Spammer. Aber es gibt ja noch eine Ignorier Liste ;) die wird bald eingeweiht

jedi
2002-05-16, 20:30:26
Im Sommer werden erst mal eindeutig alle GeForce4-Varianten das Rennen machen - und zwar bis zum Herbst. Bis Jahresende wird wohl nVidia's NV30 der Renner sein. Bei nVidia kann man jedenfalls davon ausgehen, dass sie wieder was zum Weihnachtsgeschäft fertig haben. Interessant wird sicher auch der 3DLabs P10, aber der dürfte weit oberhalb des 500€-Segments angesiedelt sein. Und bis Jahresende rechne ich auch nicht mit einer Verbreitung des P10, also fällt er für mich aus diesem Poll sowieso raus. Den Parhelia halte ich nur für eine überteuerte Übergangslösung. Und ATI könnte trotz Ankündigungen mal wieder - wie jedes Jahr - das Weihnachtsgeschäft verpassen. Mein Vote bekommt also nVidia.

LovesuckZ
2002-05-16, 21:08:56
Wo ist SIS mit ihren "leistungsstarken" GPUs?

MaxSPL
2002-05-16, 21:20:16
Nja, nVidia und ATi können auf eine erfolgreiche Vergangenheit zurückblicken...

Aber was ist mit den "Wiederkehrern" wie Matrox und 3DLabs...

Seinerzeit waren auch Matrox Chips die schnellsten (G200, G400Max)
Und auch 3Dland lebt in der Workstation Branche ganz gut...

Trotzdem glaube ich nicht, dass Matrox bzw. 3Dlabs es schaffen werden die neuen Technologien so schnell in den Griff zu bekommen...

Also ich tippe auf R300 bzw. NV30 ---> wobei natürlich der R300 mein Favorit bleibt...


Cya, MaxSPL

StefanV
2002-05-16, 22:21:04
Originally posted by Blackmagic
weisst du was Stefan L.M.A.A. Ob ich eine DX6/DX7/DX8 Karte habe ist mein Problem und geht dich einen feuchten Dreck an. So langsam reichts mir mit deinen behinderten Komentaren. Lass mich einfach in ruhe wenn du nicht vernünftig Agumentieren kannst.

Hehe, eine winzigkleine Anspielung auf deine MX und schon explodierst du, DAS ist dein Fehler.

Versuch doch einfach mal nicht so 'extrem' auf jegliche Anspielungen zu reagieren.

Andererseits wissen hier auch (fast) alle, daß die GF4 MX nicht das Gelbe vom Ei ist...

Exxtreme
2002-05-16, 22:24:34
@ Stefan

Eigentlich kann es dir egal sein, welche GraKa Blackmagic hat, oder? Wenn er mit dieser Grafikkarte zufrieden ist, warum lässt du ihn nicht in Ruhe? Und auch wenn die GF4MX nicht die beste GraKa ist... die schlechteste ist sie aber auch nicht.
*kopfschüttel*

Gruß
Alex

Micron
2002-05-17, 00:13:46
Originally posted by Stefan Payne


Hehe, eine winzigkleine Anspielung auf deine MX und schon explodierst du, DAS ist dein Fehler.

Versuch doch einfach mal nicht so 'extrem' auf jegliche Anspielungen zu reagieren.

Andererseits wissen hier auch (fast) alle, daß die GF4 MX nicht das Gelbe vom Ei ist...

Ja es ist weil du jedesmal auf der MX rumreitest. Egal um weleches
Thema es geht. Jemand will sich eine neue Karte kaufen und fragt "soll ich die ATI Radeon 8500 oder die GeForce xxx nehmen. Wenn ich dann sage das ich die GeForce nehmen würde sagst du: Naja besser so eine Karte als eine MX oder so ein dummer Spruch und mit der Zeit nervt das extrem. Ich habe iegtnlich nichts gegen dich ganz im gegenteil. Aber manchmal überteibst du es etwas. Aber egal :bier:

Quasar
2002-05-17, 00:27:41
@Blackmagic:
Wenn's dich nervt ->Ignore List...das wirkt wunder und macht das Forum extrem übersichtlicht.

Ansonsten keep cool, anscheinend kann SP es nicht vertragen, wenn jemand mit seiner nV-Karte glücklich ist. Ich finde die MX (nicht die 460!) hat ein großartiges Preis-/Leistungsverhältnis (wenn man mal die Verramschung der ELSA GF3ti200 aussen vor läßt) und man kann mit ihr in aktuellen Games noch richtig gut und flüssig zocken.

@topic:
Rein wirtschaftlich, denke ich, wird dieses Jahr der nV25 noch absolut das Rennen machen, dazu ist die Marktdurchdringung nVs einfach viel zu groß.
Technisch finde ich sowohl den Parhelia (sehr innovativ, DM rockt!) als auch den P10 (programmierbar, was will man mehr?) recht ansprechend. Diese beiden sind zumindest mehr als nur Gerüchte und die Hersteller stehen nach den jeweiligen Präsentationen nun in der Pflicht.
nV30 und R300 sind imho momentan auch nicht mehr als eventuelle Chips von den Bitboys: Heisse Luft. Gerüchte diesbezüglich interessieren mich eigentlich nicht.

Und was die fehlenden Pixelshader 2.0 angeht: Bis die wirklich essentiell werden, zockt eh keiner mehr freiwillig mit den diesjährigen Karten (tippe auf erste Games, die mehr als nur einen Effekt damit realisieren, gegen Mitte/Ende 2003). Leider befürchte ich, das auch das DM der Parhelia, sofern es nicht von anderen Herstellern (ATi hat aufgrund der TruForm-Implementation im R200 schon einen kleinen Vorsprung) aufgegriffen wird, auch erst Chancen für die nächste bis übernächste Generation ein, siehe Bumpmapping.

Meta
2002-05-17, 08:57:33
Hi.

3DLabs ist für dieses Jahr nicht mehr interessant, nächstes Jahr, reden wir weiter.

Über NV 30 und R300 wissen wir so gut wie nix. Höchstens dass der NV30 3Dfx Technik haben könnte. Aber sonst nur Speku, es ist alles drin, aber sie könnten auch Flops werden.

Vom Kyro 3 hört man nix mehr und solange das so ist, ist er für mich abgeschrieben, aber die Hoffnung bleibt, denn Tiles gefallen mir, ist sexy.

Worüber wir Infos haben ist der Parhelia. Der gefällt mir echt super und dürfte von der Rohleistung alles schlagen (dieses Jahr), ist aber ja auch nur ein Gefühl. Von den Features her interessiert mich DX9 nicht die Bohne und somit hab ich den Matrox gewählt, weil er der Chip ist, von dem ich bis jetzt am meisten weiß. UND, der setzt die Latte verdammt hoch...

(ausserdem bin ich Matrox Fan :| )

Cu euer Meta

Matrox :o

oO_KIWI_Oo
2002-05-17, 10:47:08
Rein von den Daten und der Technik tippe ich auf den P10. Der gefällt mir ob seiner totalen Programmierbarkeit am besten. Außerdem können die Jungs von 3DLabs exzellente OpenGL Treiber schreiben und haben auch sonst jede Menge auf dem Kasten. Ich glaube das KnowHow im Bereich Grafikkarten ist bei denen am Größten überhaupt. Die Frage ist für mich hauptsächlich, ob sich dieses "teure Wissen" in eine bezahlbare Consumerkarte "transformieren" lässt. Da hab ich noch so meine Fragezeichen... ;)

Andre
2002-05-17, 11:02:24
Originally posted by Stefan Payne


Hehe, eine winzigkleine Anspielung auf deine MX und schon explodierst du, DAS ist dein Fehler.

Versuch doch einfach mal nicht so 'extrem' auf jegliche Anspielungen zu reagieren.

Andererseits wissen hier auch (fast) alle, daß die GF4 MX nicht das Gelbe vom Ei ist...

Mein Gott wie armselig.

Grunt
2002-05-17, 11:15:46
Hoffentlich schwächelt 3DLabs nicht mit D3D. Mein Tip gilt aber auf jeden Fall der R300 oder dem P10. NVidia hat bis jetzt noch nicht geplaudert, aber den NV30 könnte höchstens die Gigapixel Technik weiterbringen.

Micron
2002-05-17, 11:17:20
Originally posted by Grunt
Hoffentlich schwächelt 3DLabs nicht mit D3D. Mein Tip gilt aber auf jeden Fall der R300 oder dem P10. NVidia hat bis jetzt noch nicht geplaudert, aber den NV30 könnte höchstens die Gigapixel Technik weiterbringen.

Haben wir den was Stichfestes von der R300 in der Hand?

Thowe
2002-05-17, 12:01:17
Ohhh, das ist fies.

Also mein Herz würde für die Kyro III schlagen, gerade im Bezug auf TBR.

Der P10 ist in etwa (weniger) das was ich mir von der Kyro 3 erhofft habe, gerade wenn man dabei an Metagence denkt.

Der Parhelia bietet meiner Meinung nach das beste Gesamtkonzept z.Z. weil neben guten 3D, sehr guten FSAA bietet es auch noch exzellente 2D Eigenschaften. Tripple-Head in der gebotenen Form ist natürlich (für mich) genial.

Glauben tue ich aber das der NV30 oder die R300 das Rennen machen, mit klaren Vorteil gegenüber nVidia und wenn es nur aus Kaufgewohnheit ist.

c.e
2002-05-17, 15:28:25
jetzt moecht ich auch mal senfen... *g*

first of all find ich es echt schade das sich TBR wohl nicht mit DM verträgt (es ist doch so oder ? zumindest leuchtet es mir ein wenn ich so drueber nachdenke...)

daher meine wertung fuer MATROX...wie schon gesagt das beste gesamtkonzept, innovativ und die chance auf bezahlbare (bis 500€) ableger-karten mit 128MB.
ausserdem arbeite ich seit der g400dh mit 2 monitoren und ich bin sicher einer der wenigen die sich auch einen dritten monitor hinstellen wuerden - leute, es ist einfach geil !
da dies aber mein arbeitsrechner betrifft (auf dem ich 3d-leistung nur brauche wenn der kumpel zum zocken kommt, was natuerlich trotzdem nicht schlecht waere wenn da ein bisschen mehr ginge als bei meiner g550...) und ich schon lange einen extra zock-rechner habe an dem ich dauernd rumschraub wuerde ich sogar in betracht ziehen 2 parhelia's zu kaufen, zumindest wenn das mit meiner aiw8500dv treiber-technisch so bescheiden weitergeht wie bisher...

goennen wuerde ich matrox erfolg auf jeden fall, denn ehrlich gesagt halte ich nicht viel von dem wahnsinnigen 1/2-jahres rhythmus den nvidia eingefuehrt hat ! was bringt uns das denn wirklich ?
die spannbreite der grafikkarten die im volk vorhanden sind vergroessert sich doch immer mehr und die spiele sind dadurch alles andere als optimiert auf die vorhandenen möglichkeiten sondern muessen von einem z.Zt. gf2mx-niveau oder so ausgehen. und so ne poplige x-box für 299€ haengt dann im subjektiven grafikeindruck meinen 2000€ 1,8 GHz-PC ab...das kanns doch eigentlich nicht sein, oder ?
ich jedenfalls hab das schon seit laengerem eingesehen und spiele mit relativ aktuellen grafikkarten (vor der radeon hatte ich die kyroII) spiele der letzten generation (momentan ssam2), so kann ich die spiele in optimaler qualitaet geniessen, bin nicht dauernd am raubkopieren sondern kauf sie mir füer 20€ und da ich sowieso als arbeitender mensch nicht so viel zeit zum zocken hab ist das voll in ordnung...
von mir aus koennten die ruhig mal ein bisschen langsamer machen...

am intensiv mit nebensonnen erleuchteten himmel tun sich jedoch ein paar sehr dunkle wolken auf:
1. die matrox-jungs koennten trotz frueher ankuendigung den arsch doch nicht hochkriegen und wir muessen noch bis weihnachten auf die schoenen karten warten, was ich zwar verschmerzen aber den erfolg fuer matrox mal wieder im keim ersticken koennte (siehe meine g400max...war ne geile karte...nur alle meine kumpels haben ne tnt2 gekauft...)

2. die openGL-Treiber........

catac

Axel
2002-05-17, 18:44:04
Ich habe selbstverständlich für den Matrox-Chip gestimmt. Er ist schnell und Innovationen die Nvidia und ATI vielleicht erst in ihren übernächsten Chipgenerationen berücksichtigen.
Von der reinen Geschwindigkeit her macht wahrscheinlich ATI das Rennen. Ich denke der R300 ist grundsätzlich so ausgelegt. Inwieweit die eingebauten Features am Ende nutzbar sind, weis man bei ATI vorher nicht so genau.(siehe R200)
Wenn Nvidia nicht wirklich etwas revolutionäres in der Hinterhand haben, glaube ich haben sie diesmal den Anschluss verloren. Es scheint, das sie bei einem 128 Speicherinterface bleiben und das reicht nicht.
Ob die vollständige Programmierbarkeit des P10 echte Vorteile in Zukunft bringt, kann sein. Aber er muss erst noch beweisen, daß es funktioniert. Auf jeden Falls ist er der vielversprechendste Chip von allen, aber erst im nächsten Jahr.

Gruß Axel

AlfredENeumann
2002-05-17, 19:13:08
Originally posted by Blackmagic


Haben wir den was Stichfestes von der R300 in der Hand?

eigentlich nur ne alte Roadmap. Inwieweit die Specs dort noch akut sind weis aber keiner.

jedi
2002-05-17, 19:24:37
Originally posted by oO_KIWI_Oo
Rein von den Daten und der Technik tippe ich auf den P10. Der gefällt mir ob seiner totalen Programmierbarkeit am besten. Außerdem können die Jungs von 3DLabs exzellente OpenGL Treiber schreiben und haben auch sonst jede Menge auf dem Kasten. Ich glaube das KnowHow im Bereich Grafikkarten ist bei denen am Größten überhaupt. Die Frage ist für mich hauptsächlich, ob sich dieses "teure Wissen" in eine bezahlbare Consumerkarte "transformieren" lässt. Da hab ich noch so meine Fragezeichen... ;)

Die Frage ist ja nicht nur, ob der P10 für den Gamermarkt zu teuer wird, sondern auch, ob man sich die Flexibilität nicht auch mit Performance-Einbussen erkauft. Im Bereich Visualisierung ist diese freie Programmierbarkeit sicher interessant, aber das steht einer schnellen Spieleperformance unter DirectX möglicherweise im Wege.

Micron
2002-05-17, 19:35:11
Originally posted by AlfredENeumann


eigentlich nur ne alte Roadmap. Inwieweit die Specs dort noch akut sind weis aber keiner.

Also haben wir nur aktuelle Daten von der Matrox Karte so wie ich das sehe. Also könnte jeder der anderen Karten ein top oder ein flop werden. Was ich zwar bei dem Nv30 und dem R300 nicht glaube.

jedi
2002-05-17, 19:40:43
Originally posted by Blackmagic

Also haben wir nur aktuelle Daten von der Matrox Karte so wie ich das sehe. Also könnte jeder der anderen Karten ein top oder ein flop werden. Was ich zwar bei dem Nv30 und dem R300 nicht glaube.

Eben. Wenn nicht gerade der Parhelia, sondern z.B. der NV30 angekündigt worden wäre, würde so ein Poll auch ganz anders ausfallen. Abgesehen davon kann so ein Poll sowieso nicht darüber entscheiden, welcher Chip "das Rennen" machen wird. So ein Poll ist lediglich eine spekulative Stimmungs-Momentaufnahme von ein paar Forumsmitgliedern wie uns, die das weder beurteilen noch entscheiden können. ;)

AlfredENeumann
2002-05-17, 22:15:22
Originally posted by jedi


Eben. Wenn nicht gerade der Parhelia, sondern z.B. der NV30 angekündigt worden wäre, würde so ein Poll auch ganz anders ausfallen. Abgesehen davon kann so ein Poll sowieso nicht darüber entscheiden, welcher Chip "das Rennen" machen wird. So ein Poll ist lediglich eine spekulative Stimmungs-Momentaufnahme von ein paar Forumsmitgliedern wie uns, die das weder beurteilen noch entscheiden können. ;)

eben. Die launchvideos sehen ganz geil aus, aber erst warten was die anderen Können.

Matthias2x
2002-05-18, 04:40:58
Parhelia oder P10, wobei ich Vorteile für den P10 sehe der sich, sofern man ihn wirklich fast vollständig programmieren kann, auf sogut wie alles was in Zukunft kommt, einstellen kann. Nicht zuletzt werden beide Chips wegen ihrer enormen Bandbreite große Vorteile haben.

Razor
2002-05-18, 10:12:45
Sehr Spekulativ das Ganze, aber sei's drum...

Habe den Poll etwas anders aufgefaßt, so frei nach dem Motto:

"Von welchem Chip wollt Ihr als nächstes 'hören' ?"
:D

Und deswegen hat der 'Vaporation' meinen Vote bekommen !

NV30 von nVidia -> wird noch dauern, bis wir was konkreteres hören
R300 von ATi -> siehe NV
Parhelia von Matrox -> kennen wir doch schon, nur 'wissen' wir noch nichts
P10 von 3DLabs -> siehe Matrox
Kyro 3 von VIA -> von denen kommt sowieso Nichts mehr...
Ein neuer Chip einer z.Zt. unbekannten Firma -> ein wiederauferstandenes 3dfx ? Neee...

Ergo:

Vaporation ;-) von BitBoys Oy -> DAS EINZIG WAHRE !!!

In diesem Sinne

Razor

Unregistered
2002-05-18, 10:18:06
nVIDIA mit deren Marktetingabteilung werden die Lemminge wieder nVIDIA verfallen und die Chips kaufen. *eg*
Dann behauptet nvDIAI noch das 3dfx Technologie drin ist und eine Glide Schnittelle kommt, dann werden alle jubeln.

Gruss Labberlippe

Razor
2002-05-18, 11:01:40
Originally posted by <Laberlippe>
Dann behauptet nvDIAI noch das 3dfx Technologie drin ist und eine Glide Schnittelle kommt, dann werden alle jubeln.
... und damit die letzten 'Ungläubigen' überreden, die alte Voodoo nun doch in die Tonne zu treten und sich endlich 'ne NV zuzulegen...
:D

In diesem Sinne

Razor

ActionNews
2002-05-18, 11:25:53
Originally posted by Razor
(...)
Kyro 3 von VIA -> von denen kommt sowieso Nichts mehr...
(...)

Ich hoffe du verstehst, wenn ich das ein wenig anders sehe :)!

Ich glaube zwar nicht, dass der KyroIII gegen die DX9-Karten eine Chance hat, aber er könnte doch recht interessant werden! Mal sehen was VIA auf der Computex so für "exiting announcements" machen will :)! Hoffentlich ist der KyroIII dabei!

CU ActionNews

HOT
2002-05-18, 12:38:40
Originally posted by nocturne
zeckensack,
sicher hat ATI wieder etwas zugelegt. Aber die besten Entwicklerteams scheinen zur Zeit jedenfalls bei nVidia zu sein.
Auch 3DLabs ist in puncto Treiber sehr gut, obwohl ich deren P10-Produkte erst im nächsten Jahr so richtig sehe. nVidia hat sehr gute Entwickler, die auch in mehreren Teams an unabhängigen Projekten arbeiten. Hinzu kommt noch, dass 100 der besten 3dfx-Entwickler nun zu nVidia gegangen sind. Auch deren Know-How und Manpower wird schon sehr fruchtbar in den NV30 eingeflossen sein.

Wie gut das das sehr relativ ist... ich denke dass alle Entwicklerteams sehr gut sind.
Wer sich im Endeffekt durchsetzt werden wir ja sehen. Es wird dieses Jahr so spannend wie niemals zuvor. Übrigens tippe ich auf die PowerVR Serie4/5 ;)

HOT
2002-05-18, 12:42:05
Originally posted by jedi


Die Frage ist ja nicht nur, ob der P10 für den Gamermarkt zu teuer wird, sondern auch, ob man sich die Flexibilität nicht auch mit Performance-Einbussen erkauft. Im Bereich Visualisierung ist diese freie Programmierbarkeit sicher interessant, aber das steht einer schnellen Spieleperformance unter DirectX möglicherweise im Wege.

Das kommt wohl schwer auf die Treiberentwicklung an. Creative hat damit wohl die schwerste Bürde aller Chiphersteller auf sich geladen - und werden entsprechend vorsorgen. Der Vorteil eines solchen Chips ist, dass sich Fehler eigentlich kaum einschleichen können, und wenn doch sollten Workarounds absolut kein Prob sein :D

Dr.Doom
2002-05-18, 16:02:05
Hmm, "Welcher Grafikchip wird dieses Jahr das Rennen machen?" ...
Meine GF4 (EDIT: Ti4400, MSI) wirds dieses (und nächstes) Jahr machen, die Karten anderen sind mir wurscht ;) .

jedi
2002-05-18, 19:18:51
Originally posted by ActionNews

Ich glaube zwar nicht, dass der KyroIII gegen die DX9-Karten eine Chance hat, aber er könnte doch recht interessant werden

Dann hat er gar keine Chance, denn der Markt für DX8-Karten ist sowieso langsam gesättigt. Und da auch schon weit unter 150 EUR DX8-Karten mit GeForce3-Ti200 zu haben sind, bliebe dem Kyro sowieso keine Nische mehr. Abgesehen davon ist sowieso völlig unsicher, ob überhaupt noch irgendwer dieses Ding produzieren will.

ActionNews
2002-05-18, 19:38:17
Originally posted by jedi


Dann hat er gar keine Chance, denn der Markt für DX8-Karten ist sowieso langsam gesättigt. Und da auch schon weit unter 150 EUR DX8-Karten mit GeForce3-Ti200 zu haben sind, bliebe dem Kyro sowieso keine Nische mehr. Abgesehen davon ist sowieso völlig unsicher, ob überhaupt noch irgendwer dieses Ding produzieren will.

Naja das kommt auf das Preis/Leistunsverhältnis an! Ein KyroIII mit G4Ti4400/4600-Performance zum G4MX/Ti4200-Preis dürfte sich schon noch gut verkaufen :)(Und bei den vermeintlichen Specs ist das gar nicht mal so unwahrscheinlich -> David Harold: KyroIII wäre Highend)! Und wenn man bedenkt, dass heute noch etliche DX7-Karten verkauft werden sehe ich da noch genügend potentielle Käufer einer günstigen DX8-Karte :)! Sicher werden die nicht alle zum KyroIII greifen, aber immerhin ein "paar" dürften es schon sein :)!

CU ActionNews

jedi
2002-05-18, 19:45:53
Originally posted by ActionNews
Naja das kommt auf das Preis/Leistunsverhältnis an

Im Moment gibt es aber weder einen Preis noch eine Leistung. Weder eine Ankündigung noch einen potentiellen Hersteller. Das Ding wäre einfach zu spät dran. Wie hiess es damals bei 3dfx? "Too little, too late".

aths
2002-05-18, 20:01:34
Originally posted by jedi


Dann hat er gar keine Chance, denn der Markt für DX8-Karten ist sowieso langsam gesättigt. Und da auch schon weit unter 150 EUR DX8-Karten mit GeForce3-Ti200 zu haben sind, bliebe dem Kyro sowieso keine Nische mehr. Abgesehen davon ist sowieso völlig unsicher, ob überhaupt noch irgendwer dieses Ding produzieren will.

Das sehe ich ziemlich anders. Der Markt für DX8-HW ist auf keinen Fall "gesättigt".

Demirug
2002-05-18, 20:04:51
Originally posted by aths


Das sehe ich ziemlich anders. Der Markt für DX8-HW ist auf keinen Fall "gesättigt".

Richtig. Aldi und Co sätigen gerade den DX7 Markt. Nur ist der Kyro III Chip wirklich ein DX8 Chip???

jedi
2002-05-18, 20:14:06
Originally posted by aths

Das sehe ich ziemlich anders. Der Markt für DX8-HW ist auf keinen Fall "gesättigt".

Mit "gesättigt" meinte ich natürlich nicht, dass man heute keine DX8-Hardware mehr verkaufen könne. Schliesslich ist das das beste, was man zur Zeit kriegen kann. Aber "heute" gibt es den Kyro3 sowieso noch nicht mal als Ankündigung. Und einem Hersteller, der vorher schon so seine diversen Problemchen hatte, dürfte es schwer fallen, hier noch eine neue Produktlinie zu etablieren, zumals sie vorher noch nicht mal DX7-Hardware hatten. Und - wie gesagt - es ist sowieso völlig unklar, ob
1. das Ding überhaupt schon DX8-Shader kann und
2. überhaupt noch jemand das Ding herstellen will.

aths
2002-05-18, 20:21:52
jedi,

Kyro ist DX7 HW. T&L ist von der CPU machbar, und an Bumpmapping-Arten kann er z.B. EMBM (was GTS nicht kann...)

Wenn KyroIII kommt, wird er ganz sicher auch entsprechend verkauft. Falls er keine PixelShader hat (ich möchte doch sehr hoffen, dass er sie hat), so liegt er featuremäßig eben nur bei GF4MX-Niveau. Diese Karte wird heute auch noch verkauft, und "dank" NV18 sicherlich auch noch morgen.

Unregistered
2002-05-19, 02:03:53
matrox vor noch ein tor =)

keine ahnung aber ich denke es würde sehr sinnvoll sein wenn ATI mit IBM zusammen eine neue grafikkartenarchitektur baut.. das sollte dann so ähnlich sein wie beim gamecube.
also der preis 200€.

stell dir das ding jetzt noch hockgemotzt vor auf ner AGP karte , natürlich erweitert und am aktuellen stand was die futures angeht.. hmm ich denke die könnten so ne karte für 200€ bauen.
ibm soll ne grafikkarten CPU entlasstungs einheit bauen .. am besten gleich RISC ! *g*

ZilD
2002-05-19, 02:06:00
der obige war meiner , war nicht eingeloggt

Demirug
2002-05-19, 02:11:49
Originally posted by Unregistered
matrox vor noch ein tor =)

keine ahnung aber ich denke es würde sehr sinnvoll sein wenn ATI mit IBM zusammen eine neue grafikkartenarchitektur baut.. das sollte dann so ähnlich sein wie beim gamecube.
also der preis 200€.

stell dir das ding jetzt noch hockgemotzt vor auf ner AGP karte , natürlich erweitert und am aktuellen stand was die futures angeht.. hmm ich denke die könnten so ne karte für 200€ bauen.
ibm soll ne grafikkarten CPU entlasstungs einheit bauen .. am besten gleich RISC ! *g*

ich glaube du hast vergessen das Nintendo mit dem Gamecube nichts verdient. Wahrscheinlich legen die wie die anderen noch geld drauf. Bei den Konsolen wird der Gewinn über die Spiele gemacht. Bei GraKas geht das aber leider nicht so.

ActionNews
2002-05-19, 08:49:33
Originally posted by jedi


Mit "gesättigt" meinte ich natürlich nicht, dass man heute keine DX8-Hardware mehr verkaufen könne. Schliesslich ist das das beste, was man zur Zeit kriegen kann. Aber "heute" gibt es den Kyro3 sowieso noch nicht mal als Ankündigung. Und einem Hersteller, der vorher schon so seine diversen Problemchen hatte, dürfte es schwer fallen, hier noch eine neue Produktlinie zu etablieren, zumals sie vorher noch nicht mal DX7-Hardware hatten. Und - wie gesagt - es ist sowieso völlig unklar, ob
1. das Ding überhaupt schon DX8-Shader kann und
2. überhaupt noch jemand das Ding herstellen will.

Der KyroI/II ist DX7! DX7-T&L kann, wie Aths schon sagte, per CPU emuliert werden ! Wenn wir so argumentieren würden, dann wäre die Geforce2 nicht mal DX6, denn die kann kein EMBM und das ist Bestandteil von DX6!
Dann soll bereits der KyroII SE gegen die Geforce4 MX 440 antreten, wie von Videologic auf der CeBIT zu hören war, also denke ich nicht, dass der KyroIII noch DX7 wird! Außerdem sagte David Harold, dass der KyroIII Highend wäre! Was eigentlich nur DX8 heißen kann! BTW, da wir gerade bei T&L sind: DX7-Hardware-T&L war nur eine Option von DX7, die nicht erfüllt ewerden musste! Bei DX8 sieht die Sache aber anders aus! Dort sind Pixel und Vertex Shader fester Bestandteil von DX8!Was aber wirklich noch unsicher ist, ist wann der KyroIII erscheint! Das VIA am KyroIII interessiert ist und Gespräche mit ST laufen haben sie bestätigt, aber wie weit fortgeschritten die Gespräche sind weiß niemand! Wenn aber VIA den Zuschlag bekommen hat wäre eine Ankündigung auf der Computex sicher nicht unwahrscheinlich :)!

CU ActionNews

Razor
2002-05-19, 09:09:58
Der KyroIII ist REINE Varporware !
Und mehr nicht...

Könnte er dies, kostete er das...
REINE Spekulation, sorry !

Und ich halte es doch eher für einen Wunschtraum, daß das Ding dann so leistungsstark, wie die aktuell leitungsstärkste Karte der Welt (!) ist, aber dabei nur so viel kostet, wie eine Midrange- oder gar LowEnd-Karte... Und an der KyroI/II hat man ja schon gesehen, was eine nahezu identische (MidRange-)Performance zu Konkurrenten für Marktkonsequenzen hat: Gar keine !

Sorry, aber wenn die wieder erwarten mit einer 'HighEnd'-GraKa auf den Markt kommen, die dann auch wieder nur MidRange ist und sie dann zu LowEnd verscherbeln, werden sie damit den Markt auch wieder nicht aufmischen und die 5%-Hürde wieder nicht schaffen. Und spätestens mit DX9 ist dann der TBR-Spuk endgültig vorbei (meine Ansicht !)...

In diesem Sinne

Razor

ActionNews
2002-05-19, 11:36:37
Wir werden's ja sehen.... :)!

mapel110
2002-05-19, 13:05:27
fakt ist jedenfalls das bandbreite in zukunft recht wenig über die leistungsfähigkeit der chips sagen wird. HSR wird unbedeutender mit jedem neuen chip, der auf den markt kommt. höherer takt, besserer speicher. der sprung zu QDR-RAM kommt vielleicht auch noch dieses Jahr und dann ist das thema Bandbreite durch.
dann ist der vorteil von TBR dahin.

Demirug
2002-05-19, 13:42:50
Hört doch bitte mal auf euch ständig an den DX Spec hochzuziehen. DirectX ist nichts anderes als ein Satz von Optionen bei dehnen sich die Hersteller entscheidehnen können ob sie das unterstützen wollen oder nicht.

Wenn sie es aber unterstützen dann aber auch so wie es in der Spec steht. Damit soll verhindert werden das ein altes Spiel plötzlich nicht mehr mit einer neuen Karte läuft weil der Hersteller zwar das Feature unterstützt nur dummerweise dafür eine eigne API gebastellt hat.

Mapel110,

mit solchen aussagen wäre ich sehr vorsichtig. Der Speichertakt kann nicht unendlich gesteigert werden. Irgendwann werden die Leiterbahnen zu Antennen und dann ist alles zu spät. Bei den aktuellen Taktraten ist es schon nicht mehr ganz einfach die Speicherchip richtig zu plazieren. Schau die dazu mal die Matroxkarte an.

Ansonsten wird Bandbreite auch sehr schnell wieder gefressen.
Mehr Texturen pro Pixel, Mehr Overdraw, Besseres AA und die Bandbreite ist wieder weg.

zeckensack
2002-05-19, 14:35:41
Originally posted by Demirug ich glaube du hast vergessen das Nintendo mit dem Gamecube nichts verdient. Wahrscheinlich legen die wie die anderen noch geld drauf. Bei den Konsolen wird der Gewinn über die Spiele gemacht. Bei GraKas geht das aber leider nicht so. Der Gamecube ist zumindest die Konsole, bei der am wenigsten subventioniert wird. Eventuell ist sie sogar profitabel im Hardwareverkauf, aber das muß jemand entscheiden, der da mehr Ahnung hat ..

(Hallo, Herr Ceiser?)

Demirug
2002-05-19, 14:58:55
Originally posted by zeckensack
Der Gamecube ist zumindest die Konsole, bei der am wenigsten subventioniert wird. Eventuell ist sie sogar profitabel im Hardwareverkauf, aber das muß jemand entscheiden, der da mehr Ahnung hat ..

(Hallo, Herr Ceiser?)

Soweit mir bekannt ist hat ATi mit Nintendo einen Vertrag nachdem der Grafikchip zum Selbstkostenpreis (oder sogar darunter?) geliefert wird und Ati am Umsatz der Spiele beteiligt ist.

MadManniMan
2002-05-19, 23:59:41
ohne mir den thread durchzulesen:

kyro 3(wunderding)

...wenn er denn kommt...

ansonsten der r300(eher 512bit-speicherinterface als nv30 + 8 pipes mit je 4 tmus + hyperz 3)

Power
2002-05-20, 00:28:13
512Bit Speicherinterface??? ati kann auch keine Wunder vollbringen!

c.e
2002-05-20, 01:14:06
Originally posted by MadManniMan
Begründer der "Ich-will-keine-nVidia-Hardware-in-meinem-Rechner"-Fraktion

@MadManniMan

wie kann man in dieser fraktion mitglied werden ?
ist die aufnahmepruefung arg schwer ?

...

uebrigens find ich die episodeII-story ziehmlich besch... :zzz::bad2::zzz::bad2::bad2:
aber viel bummborium !

catac

Haarmann
2002-05-20, 01:21:59
Tja...

Meiner Meinung nach gäbs nur ein sinnvolles Interface für ne Graka... 128 Bit breit und aufgeteilt in 8*16 Bit RDRAM also 8 Chips... Jeder Channel hat dann so ca 2.4GB/Sek Peak...
Aber irgendwie will das wohl niemand durchziehen. Hätte der NV30 so ein Interface, dann könnte das was werden...

MadManniMan
2002-05-20, 01:56:53
@power: der parhelia und der p10 haben eines

@c.e: einfach >Mitglied der "sonstwas"-Fraktion< in die sig und los gehts!

StefanV
2002-05-20, 02:11:05
Originally posted by Demirug
Soweit mir bekannt ist hat ATi mit Nintendo einen Vertrag nachdem der Grafikchip zum Selbstkostenpreis (oder sogar darunter?) geliefert wird und Ati am Umsatz der Spiele beteiligt ist.

Wenn ich es richtig gehört hab, dann hat ATI den Flipper an Nintendo Lizensiert.

ATI ist also NICHT für die Fertigung zuständig, das ist Nintendo ;)

Was ATI von Nintendo bezahlt bekommt, das wissen wohl nur Nintendo und ATI (Pro verkaufte Konsole, Spiel, Umsatzbeteiligung, usw)

StefanV
2002-05-20, 02:25:39
Originally posted by Haarmann
Tja...

Meiner Meinung nach gäbs nur ein sinnvolles Interface für ne Graka... 128 Bit breit und aufgeteilt in 8*16 Bit RDRAM also 8 Chips... Jeder Channel hat dann so ca 2.4GB/Sek Peak...
Aber irgendwie will das wohl niemand durchziehen. Hätte der NV30 so ein Interface, dann könnte das was werden...

Hm, so ganz unrecht hast du nicht...

Die Latenz dürfte auch kaum noch ein Problem sein, da die SDRAM Chips bei den 300MHz, die verwendet werden, kaum noch dem von RDRAM nachstehen...

Noch dazu könnte man 'handelsübliche' Chips wie sie z.B. auf PC800 Modulen zum Einsatz kommen, verwenden.

Die Ansteuerung und Montage dürften auch kaum ein Problem sein, auch die Terminierung dürften Problemlos möglich sein.

Ich frage mich, warum der eine oder andere Hersteller kein RDRAM auf GraKas verwendet...

Demirug
2002-05-20, 02:28:04
Originally posted by Haarmann
Tja...

Meiner Meinung nach gäbs nur ein sinnvolles Interface für ne Graka... 128 Bit breit und aufgeteilt in 8*16 Bit RDRAM also 8 Chips... Jeder Channel hat dann so ca 2.4GB/Sek Peak...
Aber irgendwie will das wohl niemand durchziehen. Hätte der NV30 so ein Interface, dann könnte das was werden...

Dann müste man aber 8 komplete syncronisierte Memory Controller im Grafikchip habe. Dürfte etwas heftig werden.

Ich bin für Hypertransport fähigen speicher. Bei 128 Leitungen wären das 25,6 GBytes in jede Richtung. Mit HT-II Sogar das mehr als das doppelte. OK ich träume aber um die Uhrzeit ist das doch erlaubt???:D

StefanV
2002-05-20, 02:59:07
Originally posted by Demirug
Dann müste man aber 8 komplete syncronisierte Memory Controller im Grafikchip habe. Dürfte etwas heftig werden.
Wozu?

Man könnte ja auch einen 6 Pipeliner nehmen und 2 Chips für 'allgemeine Texturoperationen' nehmen...
also jede Pipe hat ihren eigenen Bus, dann dürfte der CBMC nicht mehr soo wichtig sein.
Sozusagen 'SLI on Chip'


Ich bin für Hypertransport fähigen speicher. Bei 128 Leitungen wären das 25,6 GBytes in jede Richtung. Mit HT-II Sogar das mehr als das doppelte. OK ich träume aber um die Uhrzeit ist das doch erlaubt???:D

Ich auch...
Aber ich wäre eher wieder für Dual Portet RAM, das ja leider ausgestorben ist...

DP RAM würde sich IMHO nicht soo stark bei aktuellen Anwendungen behindern, oder seh ich das falsch??

Demirug
2002-05-20, 03:18:23
Wozu?

Man könnte ja auch einen 6 Pipeliner nehmen und 2 Chips für 'allgemeine Texturoperationen' nehmen...
also jede Pipe hat ihren eigenen Bus, dann dürfte der CBMC nicht mehr soo wichtig sein.
Sozusagen 'SLI on Chip'


Ich weis nicht. Dann fängt doch wieder das Problem mit den getrennten Speicherbereichen auf der Karte an. Sowas ist für Render to Texture sehr abträglich. Oder habe ich dein Konzept falsch verstanden?



Ich auch...
Aber ich wäre eher wieder für Dual Portet RAM, das ja leider ausgestorben ist...

DP RAM würde sich IMHO nicht soo stark bei aktuellen Anwendungen behindern, oder seh ich das falsch??

Weis ehrlich nicht was man mit DP RAM heute noch machen will. Wo hat man den noch syncrone reads und writes. Das hat Sinn gemacht als der RAMDac als eigenständiger Chip auf der Karte vorhanden war.

Und dann braucht DP RAM ja eine Unmenge von Signalleitungen.

Wenn wir schon mal am phantasieren sind.:D Was hälst du von Fiber to Chip Anbindung? ca 20 GB/s pro Leitung.

Haarmann
2002-05-20, 09:24:22
Demirug

Also ein 4 fach Interface für 32 Bit DDR hat NV ja schon... 256Bit also gesamt. Schaltest je 2 Channels pro Controller und tataaa ;). NV hätte es ned weit zu sowas. Tun werdens das aber kaum.

Demirug
2002-05-20, 10:55:00
Originally posted by Haarmann
Demirug

Also ein 4 fach Interface für 32 Bit DDR hat NV ja schon... 256Bit also gesamt. Schaltest je 2 Channels pro Controller und tataaa ;). NV hätte es ned weit zu sowas. Tun werdens das aber kaum.

Im Moment benutzen die ein 2*64 bit DDR-RAM Interface. Dem NForce wurde das ja auch spendiert weil man das Chip-Programm sowieso hatte. Klar könnten man daraus ein 4*64 bit Interface machen (s. Matrox und 3d Labs). Nur scheint NV der Meinung zu sein das sie eine bessere Lösung als brachiale Gewalt haben.

Um nochmal auf deinen RAMBUS vorschlag zurückzukommen. Es gibt noch einen anderen Grund warum das keine gute Idee ist. RDRAM ist sehr empfindlich im Bezug auf abweichungen von der Taktfrequenz. Man braucht immer Module die für exact die gewüschte Frequenz geignet sind. Die Overclocker würden vielleicht fluchen.

Haarmann
2002-05-20, 11:38:48
Demirug

LMA ist ein 4 mal 32 Bit Crossbar Mem Interface. Dank DDR ist das aber eigentlich ein 4*64 Bit Interface.

Seit wann hat NV irgendwas anderes als rohe Gewalt gebracht ???

Module sind keine Chips... ich rede ned von Modulen, die ne hohe Latenz haben und diverse Probleme... ich rede von 1 Chip = 1 Bus und da gibts all diese Probleme nicht mehr ;).

Demirug
2002-05-20, 12:45:39
LMA ist ein 4 mal 32 Bit Crossbar Mem Interface. Dank DDR ist das aber eigentlich ein 4*64 Bit Interface.


Stimmt die Crossbar hatte ich ganz vergessen. Aber wie kommst du dann bei DDR auf 4*64 Bit müsste das nicht eigentlich 4*32*2 sein???


Seit wann hat NV irgendwas anderes als rohe Gewalt gebracht ???


Ist auch wieder war aber sind die anderen (ATI, 3dlabs, Matrox) auf dieser ebene wirklich so anders???

Module sind keine Chips... ich rede ned von Modulen, die ne hohe Latenz haben und diverse Probleme... ich rede von 1 Chip = 1 Bus und da gibts all diese Probleme nicht mehr ;).

Stimmt das könnte einige Problem lösen. Nur was bring es im endeffekt? Der einzigen Vorteil von RAMBUS ist das etwas bessere Protokol.

Was mich wie gesagt wundert ist das scheinbar noch niemand auf die Idee gekommen ist Hypertransport für den Speicher zu benutzen.
Oder hab ich da irgenwas übersehen???

Die langfristige Endlösung kann IMO sowieso nur "Fieber to Chip" sein.

StefanV
2002-05-20, 13:41:52
Originally posted by Demirug
Um nochmal auf deinen RAMBUS vorschlag zurückzukommen. Es gibt noch einen anderen Grund warum das keine gute Idee ist. RDRAM ist sehr empfindlich im Bezug auf abweichungen von der Taktfrequenz. Man braucht immer Module die für exact die gewüschte Frequenz geignet sind. Die Overclocker würden vielleicht fluchen.

Hm, kann ich nicht bestätigen *eg*

Mein PC800 Modul macht auch 100MHz mehr mit, als es sollte ;)

Power
2002-05-20, 15:05:55
Originally posted by MadManniMan
@power: der parhelia und der p10 haben eines

@c.e: einfach >Mitglied der "sonstwas"-Fraktion< in die sig und los gehts!

ne der Matrox ist ein 512 Bit Chip mit einer 256Bit Speicher anbindung! nicht 512 Bit Speicher anbindung!!

ow
2002-05-20, 17:13:25
Originally posted by Power


ne der Matrox ist ein 512 Bit Chip mit einer 256Bit Speicher anbindung! nicht 512 Bit Speicher anbindung!!


Nein, 512Bit Speicheranbindung = 256Bit DDR.

Power
2002-05-20, 19:31:04
^die 256 Bit DDR hat nichts mit 512 Bit zu tun !!
es heist in den Spezifikationen "full 256Bit DDR interface"

das kann man nicht mit nem 512 Bit Interface gleichsetzen den ein Inteface hat die auslegung in Datenleitungen jeh mehr Bit je mehr Leitungen.

wo sind den hier die Tech Profis die denn unterschied haargenau erleutern können?!!

einfach ausgedrückt kann DDR 2 datenpakete gleichzeitig übertragen aber deswegen bleibt 256 Bit 256 Bit und nicht 512 Bit.

sonst wäre ja die Aussage von den entwicklern vom P10 und dem Parhelia nicht korrekt und die würden auch 512Bit speicherinterface sagen wenn sie es könnten!

Der Chip ist 512 die Speicheranbindung 256 Bit, wers nicht glaubt liest mal die specs.

ow
2002-05-20, 21:09:01
Da pro Adressierungszyklus bei DDR 2x Daten übertragen werden entspricht ein 256 DDR Interface einem 512Bit SDR Interface.

Quasar
2002-05-20, 21:19:32
Nur, was die effektive Datenübertragunsrate angeht, nicht was die Gesamtgeschwindigkeit betrifft.

ow
2002-05-20, 21:33:52
Wieso denn nicht?

Exxtreme
2002-05-20, 21:46:41
Originally posted by ow
Wieso denn nicht?
Das Stichwort heisst u.a. Latenzzeiten.

Gruß
Alex

MadManniMan
2002-05-20, 21:49:24
doh, sowas kann ich in diesem forum vorraussetzen. denke ich...

Demirug
2002-05-20, 22:16:00
Für alle die es genauer wissen wollen:

http://arstechnica.com/paedia/storage.html (eng)

sehr ausführlich.

ow
2002-05-21, 09:32:56
Originally posted by Exxtreme

Das Stichwort heisst u.a. Latenzzeiten.

Gruß
Alex


Die sind allerdings identisch.

Demirug
2002-05-21, 10:44:21
Originally posted by ow



Die sind allerdings identisch.

Ja aber nur die absoluten Zeiten. Relative betrachtet verbrauchen die Kommandos und Latenzeiten aber die doppelte Bandbreite im Vergleich zu normalen SDRAM. Nur die Nutzdaten werden auf beiden Flangen übertragen die Kommandos weiterhin nur bei Steigender.

Haarmann
2002-05-21, 12:10:53
Ein 256Bit DDR Interface hat bei gleichen Latenzzeiten der Chips (und die müssen gerade sein) den gleichen Speed wie ein 512Bit SDR Interface.
Zu Deutsch ein Zugriff liefert minimal 512Bit bei beiden Varianten. Und das einzige was unterschiedlich sein kann, ist die Laufzeit der Signale (DDR liefert ja nen halben Takt später ab - ergo kommens später an als die des SDR). Das spielt allerdings bei den syncronen Designs keine Rolle.

ow
2002-05-21, 13:58:32
Haarmann/Demirug:

Genau das wollte ich zum Ausdruck bringen.

Also halten wir nochmal fest

256Bit DDR = 512Bit SDR

(Phasenverschiebung der fallenden Flanke nicht beruecksichtigt, da irrelevant)

Die meist genutzt Angabe der Takt-Verdoppelung (150DDR=300Mhz) ist dagegen FALSCH.

Demirug
2002-05-21, 14:30:28
Originally posted by ow
Haarmann/Demirug:

Genau das wollte ich zum Ausdruck bringen.

Also halten wir nochmal fest

256Bit DDR = 512Bit SDR

(Phasenverschiebung der fallenden Flanke nicht beruecksichtigt, da irrelevant)

Die meist genutzt Angabe der Takt-Verdoppelung (150DDR=300Mhz) ist dagegen FALSCH.

Ja aber nur wenn du den Commandooverhead nicht berücksichtigts. Im Realen Einsatz wäre 512Bit SDR schneller als 256Bit DDR. Nur wäre 521Bit SDR eben der Wahnsinn überhaupt. Da man den 256Bit DDR zum ausgleich ein bischen schneller takten kann.

Xmas
2002-05-21, 15:20:22
Originally posted by Demirug
Ja aber nur wenn du den Commandooverhead nicht berücksichtigts.
Wieso Kommandooverhead?

Demirug
2002-05-21, 15:38:31
Originally posted by Xmas

Wieso Kommandooverhead?

Den Speicherchips müssen ja Commandos übertragen werden.

-Spalte wählen
-Zeile wählen
-Read
-Write

usw.

Während der übertragung dieser Commandos findet in vielen Fällen keine übertragung von Nutzdaten stat. Es gibt ein Prefetch Kommando um das ein bischen abzumildern.

Das übertragen der Commands dauert aber bei DDR RAM genauso lange wie bei SDRAM weil diese Signale weiterhin nur auf einer Taktflanke liegen.

Dadurch verliert man während der Kommandophase die doppelte Menge an Bandbreite wie beim SDRAM.

zeckensack
2002-05-21, 16:08:38
Originally posted by Demirug
Dadurch verliert man während der Kommandophase die doppelte Menge an Bandbreite wie beim SDRAM. ... wodurch der prozentuale Verlust identisch ausfällt.
Oder nicht ???

Quasar
2002-05-21, 16:11:24
Nein....oder hab ich jetzt 'nen Knoten im Hirn.

DDR-SDRAM wäre doppelt so schnell, wenn auch der Overhead/Latenzen halb so groß wie bei SDR-SDRAM wären...

So ist es durch die zufälligen Zugriffsmuster nur ca. 75-90% schneller, als SDR-SDRAM.

aths
2002-05-21, 16:15:07
zeckensack,

angenommen von 100 Takten sind 10 für den Kommando-Overhead. Bleiben bei SDRAM 90 "nutzbare" Flanken.

Um die gleiche Bandbreite zu realisieren nehmen wir nun DDR-RAM, der nur halb so schnell getaktet ist. Von 50 Flanken fallen 10 weg. Bleiben 40. Dank DDR entspricht das auf SDR übertragen 80 nutzbaren Flanken. Nicht 90.

So jedenfalls meine Überlegungen. Sind da Denkfehler drin?

Demirug
2002-05-21, 16:24:09
Originally posted by Quasar
Nein....oder hab ich jetzt 'nen Knoten im Hirn.

DDR-SDRAM wäre doppelt so schnell, wenn auch der Overhead/Latenzen halb so groß wie bei SDR-SDRAM wären...

So ist es durch die zufälligen Zugriffsmuster nur ca. 75-90% schneller, als SDR-SDRAM.

Richtig Quasar wobei ich mich auf die Prozente nicht festlegen will.

Machen wir ein kleines Zahlen Beispiel:

1. Der Ideale SDRAM bracht 4 Takte um die Spalte und Zeile zu wählen und fängt im 5 Takt an zu übertragen. Das heist wie verlieren 4 bit pro Leitung.

2. Beim Idealen DDRRAM brachen wir ebenfalls 4 Takte für Spalte und Zeile und die übertragung fangt im 4.5 Takt an. In dieser Zeit haben wir aber schon 7 Bits verloren.

Das es keine Idealen RAMs gibt wird es eben noch mehr.

ow
2002-05-21, 17:08:59
*EY, wollt ihr mich alle hier verwirren?*


Vorraussetzung:
Gleicher Takt fuer SDR und DDR, SDR 512Bit breit, DDR 256Bit breit.

WO sind da jetzt welche Latenzen unterschiedlich?

Der Addrressierungszyklus ist identisch (gleicher Command Overhead), pro VOLLEM Takt werden je 512Bit Daten uebertragen (also ebenfalls identisch).



Mit doppelten/halben Takten fangen wir besser gar nicht an, das ist naemlich FALSCH.

SDR, 300MHz, 256 Bit IST schneller als DDR, 150MHz, 256Bit.
Weil

a) doppelt soviele Adressierungen erfolgen

b) nach jeden uebertragenen 256Bit eine Adressuebertragung erfolgen kann (DDR: 512)


DDR bewirkt gegenueber SDR also eine Verdoppelung der Busbreite aber keine Verdoppelung des Taktes.

Quasar
2002-05-21, 17:13:29
Genau.

Die Latenzen sind eben nicht unterschiedlich, wirken sich aber unterschiedlich stark auf den erreichten Prozentsatz vom theoretischen Maximum aus (bei DDR stärker als bei SDR, weil eben mehr "Flanken" ausgelassen werden).

Ich glaub wir meinen irgendwie dasselbe, es hört sich in den verschiedenen Formulierungen nur unterschiedlich an....

aths
2002-05-21, 21:57:38
Halten wir einfach fest, dass SDR effektiver als DDR effektiver als QDR-RAM ist. :)

MadManniMan
2002-05-21, 22:13:55
kommts, machen wir einen poll auf:

"Ist es legitim, dass MadManniMan ausdrückt, der Parhelia hätte eine 512 bit breite Speicheranbindung, obwohl er 256 bit DDR meint, dadurch jedoch durch kürzere Latenz die Nerven der Leser schonte?"



:D

Haarmann
2002-05-22, 00:23:53
Ihr redet zum Teil am Thema vorbei...

Also 100 Takte... 10 Kommando macht 90 Takte fürs 512er SDR Interface... 90*512 also

100 Takte 256 Bit DDR 10 Takte Kommando macht 90 Nutztakte... 90*2*256 gibt wohl?

Ach genau 512*90... Es ging hier um doppelte Breite SDR vs DDR ned 300MHz vs 150 DDR

Xmas
2002-05-25, 03:45:29
Originally posted by Haarmann
Es ging hier um doppelte Breite SDR vs DDR ned 300MHz vs 150 DDR
Eben, wie ow schon schrieb, DDR kommt einer Verdopplung der Busbreite gleich.
Ob 512 Bit SDR oder 256 Bit DDR, bei gleichem Takt sollte kein wahrnehmbarer Unterschied vorhanden sein.

M O
2002-05-25, 11:06:48
1. nvidea ist zur zeit die nr.1 und die treiber sind auch immer in ordnung
2. nv30 kommt im august-sebtember
3. wenn die anderen hersteller dann mit ihren chip kommen kommt nvidea schon mit den nv35

und der nv30+nv35 ist nicht gleich eine verbesserte ti 4000 sondern ein komplet neuer chip

nvidea ist zur zeit einfach viel zu schnell mit neuvorstellungen wie soll sich da ein anderer hersteller am markt behaupten

Exxtreme
2002-05-25, 12:38:04
Also ich werde mir wahrscheinlich die R300 holen wenn es die erste Preissenkung gibt. Beim Parhelia bin ich z.Zt. skeptisch, da dieser leider nur Edge-AA richtig unterstützt und ausserdem hat das AA Probleme mit dem Stencil-Buffer. Der NV30 steht nicht auf meiner Liste, ich möchte erstmal ein Jahr lang ausgereifte Produkte mit nVidia-Chips sehen, dann sehen wir weiter.

Gruß
Alex

Unregistered
2002-05-25, 12:50:08
Originally posted by Exxtreme
Der NV30 steht nicht auf meiner Liste, ich möchte erstmal ein Jahr lang ausgereifte Produkte mit nVidia-Chips sehen, dann sehen wir weiter.

Gruß
Alex


Dann mach die Augen auf.;)

Die NV Produkte sind seit Jahren ausgereift.

Exxtreme
2002-05-25, 13:04:34
Originally posted by Unregistered



Dann mach die Augen auf.;)

Die NV Produkte sind seit Jahren ausgereift.
Ansichtssache.

Gruß
Alex

ow
2002-05-25, 13:40:25
Originally posted by Exxtreme

Ansichtssache.

Gruß
Alex


Richtig, und aufgrund seiner sehr guten Produkte geniesst NV ein hohen Ansehen. Daher sind sie Marktführer.

Exxtreme
2002-05-25, 14:23:45
Originally posted by ow



Richtig, und aufgrund seiner sehr guten Produkte geniesst NV ein hohen Ansehen.
Bei wem denn?

Gruß
Alex

Andre
2002-05-25, 14:27:50
Originally posted by Exxtreme

Bei wem denn?

Gruß
Alex

Anscheinend bei genug Leuten, denn sonst hätte NV wohl kaum die aktuelle Stellung auf dem Markt.

aths
2002-05-25, 14:35:43
Das muss ja trotzdem nicht für alle gelten, Andre.

M O
2002-05-25, 15:08:13
Originally posted by Exxtreme
Der NV30 steht nicht auf meiner Liste, ich möchte erstmal ein Jahr lang ausgereifte Produkte mit nVidia-Chips sehen, dann sehen wir weiter.

Gruß
Alex

hehe zur zeit gibts nur NV
gibt nur 3 andere karten hersteller ati,matrox,hercules alle anderen grafikkartenhersteller verwenden GEFORCE und dann sagst du ausgereifte protukte

nvidea is zur zeit nummer eins da kann man nix machen

nocturne
2002-05-25, 15:15:36
Eben. Wie John Carmack doch so schön sagte:

"I still think that overall, the GeForce 4 Ti is the best card you can buy. It has high speed and excellent driver quality."

Exxtreme
2002-05-25, 15:25:53
Originally posted by M O


hehe zur zeit gibts nur NV
gibt nur 3 andere karten hersteller ati,matrox,hercules alle anderen grafikkartenhersteller verwenden GEFORCE und dann sagst du ausgereifte protukte

Wenigstens sind Ati, Matrox und Herkules Markenhersteller und nicht irgendein NoName-Anbieter wie Sparkle oder so. Als Markenanbieter bei NV fallen mir nur Visiontek und Asus ein. Und was soll an instbilen Treibern und schlechter Signalqualität bitteschön ausgereift sein?

Gruß
Alex

nocturne
2002-05-25, 15:34:40
Exxteme, das war ja wohl ein Eigentor. Wer sich z.B. in OpenGL mit instabilen ATI- / Matrox- / Kyro-Treibern herumschlagen muss, hat keine andere Wahl. Wenn aber jemand die Treiber seiner Noname-GeForce-Karte nicht mag, dann nimmt er einfach die guten nVidia-Treiber, die nicht nur John Carmack exzellent nennt.

Exxtreme
2002-05-25, 15:51:49
Dann erzähl mal das meinem Kumpel mit seiner GF4MX - egal welcher Treiber, ein Druck auf die Windowstaste genügt um das System zum Absturz zu bringen da der Treiber anscheinend den Wechsel vom FullScreen-Modus zum Fenstermodus nicht immer verkraftet. Und ich denke, daß Carmack eher aus der Entwicklersicht berichtet hat und nicht aus der Usersicht. Und ausserdem schrieb er in einem älteren Interview selber, daß er bei nVidia-Treibern oft von Stabilitätsproblemen hörte - auf jeden Fall öfter als bei den Treibern anderer Hersteller.

Gruß
Alex

Salvee
2002-05-25, 15:53:07
Will auch eine nVidea-Karte! Wo gibts die denn ;) ?

M O
2002-05-25, 16:05:04
Originally posted by Exxtreme

Wenigstens sind Ati, Matrox und Herkules Markenhersteller und nicht irgendein NoName-Anbieter wie Sparkle oder so. Als Markenanbieter bei NV fallen mir nur Visiontek und Asus ein. Und was soll an instbilen Treibern und schlechter Signalqualität bitteschön ausgereift sein?

Gruß
Alex


hercules hat selber zur zeit keinen chip baut kyro+ati chips ein
und zu ati will ich nicht viel sagen denk mal 3 jahre zurück


hier mal einige die gforce chip verwenden

asus
visiontek
msi
creative
elsa
geinward
sparkle
leadtek
gigabyte
pixelview
pny
suma
prolink

und zu den treibern will ich nicht viel sagen hate schon genug andere karten ati,matrox,hercules

ok hercules und matrox war in ordnung

aber ati hate nur scheis treiber wie ich atikarten verwendete

zu mx karten hab selber eine in meinen alten computer aber wirklich ueberhaupt keine probs verwende nvidea treiber und kan die karte noch bis zu 20% uebertakten mit river tuner

nene von den treibern her spielt nvidea in der ersten reihe

zeckensack
2002-05-25, 16:08:21
Originally posted by M O
hercules hat selber zur zeit keinen chip baut kyro+ati chips ein
und zu ati will ich nicht viel sagen denk mal 3 jahre zurückWarum willste denn nichts sagen? Mach mal!
Und: denk mal an heute ...
hier mal einige die gforce chip verwenden

asus
visiontek
msi
creative
elsa
geinward
sparkle
leadtek
gigabyte
pixelview
pny
suma
prolinkNa und ???

Haarmann
2002-05-25, 16:34:16
Toll...

Gigabyte macht zZ in erster Linie ATI Karten und keine GForce.
Creative macht gar keine eigenen Karten... nur Schachteln um fremde drin zu verkaufen.
ELSA ist pleite
Visiontek und PNY sind fast nur USA, versuchen aber zu expandieren.
Der Rest ist 0815 Asiengemüse ohne Support und dreckbillig. Vor allem Gainward meine ich damit... Wenns ned Mist und billig wär, könnte mans kaum im Megashop resp bei Jet kaufen... Is ne Daniel Waldvogel Firma - der unterhält auch engste bindungen zu Codegen *eg*

Und ich lausche gerne was vor 3 Jahren war mit ATI ;)

Nocturne Alarm...

Er versucht zu lesen und daraus was abzuleiten... irgendwie bleibts wohl beim Versuch. Instabile ATI Treiber unter OpenGL würden die Kiste abschmieren lassen und nicht einfach ned laufen... Aber die Deutsche Sprache ist wohl nicht einfach genug...

RAL
2002-05-25, 16:42:34
Originally posted by Exxtreme
Dann erzähl mal das meinem Kumpel mit seiner GF4MX - egal welcher Treiber, ein Druck auf die Windowstaste genügt um das System zum Absturz zu bringen da der Treiber anscheinend den Wechsel vom FullScreen-Modus zum Fenstermodus nicht immer verkraftet. Gruß
Alex

Wie kommst du darauf dass es am Graka-Treiber liegt? Nur mal ein paar mögliche Ursachen neben dem Graka-Treiber

-Mainbaord Chipsatz (-Treiber)
-Mainboard BIOS
-Stromversorgung Mainbaord/AGP
-Graka defekt
-RAM defekt oder timing problem
-verhunztes Windows

Es ist sogar unwahrscheinlich dass es am Treiber liegt, denn dann hätten mehr Leute dieses Problem, und das ist wohl nicht so, oder?

Andre
2002-05-25, 17:19:36
Originally posted by aths
Das muss ja trotzdem nicht für alle gelten, Andre.

Wo habe ich das gesagt?

Andre
2002-05-25, 17:22:37
Originally posted by Exxtreme

Wenigstens sind Ati, Matrox und Herkules Markenhersteller und nicht irgendein NoName-Anbieter wie Sparkle oder so.

Wie war das noch mit den ganzen Powered by ATI-Karten?
Alles Markenhersteller, jaja.

Razor
2002-05-25, 17:40:18
Originally posted by Exxtreme
Dann erzähl mal das meinem Kumpel mit seiner GF4MX - egal welcher Treiber, ein Druck auf die Windowstaste genügt um das System zum Absturz zu bringen da der Treiber anscheinend den Wechsel vom FullScreen-Modus zum Fenstermodus nicht immer verkraftet.
Ah ja...
"It's not a bug, it's a feature !"
(nicht wirklich ;-)

Also bei mir stellt sich folgendes Bild ein: entweder es funzt oder es funzt nicht (dann wird auch nicht umgeschaltet), aber in keinem Fall friert der PC ein, oder ähnliches... auch bei Leuten, die sich 'ne gf4mx gezogen haben (trotz meiner 'Warunung' ;-), hat's keine Probleme dieser Art...

Ich vermute auch dort eher das Problem vor dem Monitor, denn ich kenn da auch so einige, die alles mögliche Zeugs (so Desktop-Themes, irgendwelche Viewer oder Desktop-Gimmicks etcpp) installieren und sich dann wundern, daß ihr Windoof immer öfter abschmiert (auch WinXP !). Nun ja, von Treibern wollen viele auch nichts wissen (Gruß an RAL ;-). Aber denen ist 'eh nicht zu helfen...

...auch nicht mit einer nVidia-Karte !
:D

In diesem Sinne

Razor

M O
2002-05-25, 19:06:05
Originally posted by Haarmann
Toll...


ELSA ist pleite
Der Rest ist 0815 Asiengemüse
Aber die Deutsche Sprache ist wohl nicht einfach genug...

asiengemüse hehe was glaubst den du was auf den karten verbaut oder wo sie hergestellt werden alles wird in billig länder produziert
schau m al wo die ganzen halbbleiter herkommen


elsa hat gereade eine ti4200 vorgesteht
elsa ia nicht pleite nur die deutsche niederlassung is pleite herr schlaumeier
und ich habe nur firmen aufgezähelt die gforce karten herstellen ob sie es aufn mond oder sogar aufn mars machen das is mir scheis egal

sogar ABIT stellt Gforce karten her

und wennst mit persöhnlichen bleidigungen anfängst dann reply bitte meine post nicht

AlfredENeumann
2002-05-25, 20:00:11
Originally posted by Haarmann

Instabile ATI Treiber unter OpenGL würden die Kiste abschmieren lassen und nicht einfach ned laufen... Aber die Deutsche Sprache ist wohl nicht einfach genug...


Hilfe meine Kiste ist heute schon 12mal abgestürzt.
*LOL*

AlfredENeumann
2002-05-25, 20:04:02
Originally posted by RAL


Wie kommst du darauf dass es am Graka-Treiber liegt? Nur mal ein paar mögliche Ursachen neben dem Graka-Treiber

-Mainbaord Chipsatz (-Treiber)
-Mainboard BIOS
-Stromversorgung Mainbaord/AGP
-Graka defekt
-RAM defekt oder timing problem
-verhunztes Windows

Es ist sogar unwahrscheinlich dass es am Treiber liegt, denn dann hätten mehr Leute dieses Problem, und das ist wohl nicht so, oder?

Und wenn jemand ne ATI KArte hat, liegts zu 100% am Treiber.

Richthofen
2002-05-25, 21:32:56
lol sind wir jetzt schon dabei ATI ne Marke zu nennen?
Ich bekomm hier echt gleich das gähnen.

Intel ist ne Marke, NV ist eine von mir aus auch 3DLabs für die Workstation Freaks und Matrox für die Mediziner mit Multimonitorsupport aber ATI - ROFL.

ATI ist billiger Scheiss. Jede billige Noname Nvidia Karte ist in der Verarbeitung besser als das Built bei ATI Zeugs.

Ich finds ja witzig das plötzlich alle Asiaten keine Marken mehr sind sehr merkwürdige Einstellung einiger.
Aber Samsung, Nanya oder Hynix RAM auffer Graka darfs dann schon sein oder wie seh ich das?

Visiontek, Asus, Gainward, Leadtek sind Marken. Alle 4 haben sich ziemlich viel Anerkennung und Aufmerksam verschafft.
Creative zähle ich nicht mehr zu den Marken die sind aufm absteigenden Ast.
Elsa ist pleite wird aber wohl markenmäßig von PNY einkassiert die wiederum in den USA ne Marke sind. Also wird man demnächst PNY zu der oben genannten Riege dazu zählen können. MSI baut sich auch ein gutes Immage auf. Dieses berührt mich zwar nicht so, da ich MSI nicht sonderlich mag und auf Multimedia Zeugs nen Haufen lege - ich will zocken und sonst gar nix aber ich kenn viele die finden MSI richtig klasse. Die kann man vom Volumen auch schon fast zu den Marken zählen daher.

Sparkle, Prolink und CO sind dann eben Noname Hersteller für den Europäer.
Aber welcher Hersteller der ATI verbaut ist denn bitte eine Marke?
Hercules? Die sind genauso ne pleite Marke wie Elsa, für die es schon vergessen haben.
Für mich hat Hercules seinen Markenstatus ich will nicht sagen verspielt aber er ist nicht mehr wie früher. Früher waren die OC und schneller Speicher pur. Was haben sie bisher gebracht? Ne lahme LE Krücke die langsamer getaktet war als der Noname Scheiss von FIC und anderen.


NV macht immer noch die besten Produkte wie ja die Tabelle auf 3dconcept bestens zeigt oder hat NV auch nur einen Prozentpunkt verloren seid es die Radeon8500 gibt, die preislich ja bereits in der Ramschecke gelandet ist wo sie auch hingehört.
Nicht einen haben sie verloren.
Reicht mir schon um ATIs Qualität und tolle Produkte zu beurteilen.

Dreck ist das auf den ich nen Haufen lege.

Doomtrain
2002-05-25, 22:27:43
Originally posted by ow


DDR bewirkt gegenueber SDR also eine Verdoppelung der Busbreite aber keine Verdoppelung des Taktes.

Nicht Busbreite, Bandbreite!

Dunkeltier
2002-05-25, 22:33:07
Originally posted by Andre


Anscheinend bei genug Leuten, denn sonst hätte NV wohl kaum die aktuelle Stellung auf dem Markt.

Mich haben sie aber als "Kunden" verloren. Ich bin von der Hardware schlicht und einfach desillusioniert... ?-)

StefanV
2002-05-25, 22:35:44
Originally posted by Black Cow
Mich haben sie aber als "Kunden" verloren. Ich bin von der Hardware schlicht und einfach desillusioniert... ?-)

Nicht nur du *eg*

Ich vergötter niemanden außer mich selbst :naughty:

Hm, mal sehen, was unsere nächste 3D Karte wird...

Vielleicht 'ne Xabre...

Dunkeltier
2002-05-25, 22:47:00
Originally posted by Richthofen
lol sind wir jetzt schon dabei ATI ne Marke zu nennen?
Ich bekomm hier echt gleich das gähnen.

Intel ist ne Marke, NV ist eine von mir aus auch 3DLabs für die Workstation Freaks und Matrox für die Mediziner mit Multimonitorsupport aber ATI - ROFL.

ATI ist billiger Scheiss. Jede billige Noname Nvidia Karte ist in der Verarbeitung besser als das Built bei ATI Zeugs.

Ich finds ja witzig das plötzlich alle Asiaten keine Marken mehr sind sehr merkwürdige Einstellung einiger.
Aber Samsung, Nanya oder Hynix RAM auffer Graka darfs dann schon sein oder wie seh ich das?

Visiontek, Asus, Gainward, Leadtek sind Marken. Alle 4 haben sich ziemlich viel Anerkennung und Aufmerksam verschafft.
Creative zähle ich nicht mehr zu den Marken die sind aufm absteigenden Ast.
Elsa ist pleite wird aber wohl markenmäßig von PNY einkassiert die wiederum in den USA ne Marke sind. Also wird man demnächst PNY zu der oben genannten Riege dazu zählen können. MSI baut sich auch ein gutes Immage auf. Dieses berührt mich zwar nicht so, da ich MSI nicht sonderlich mag und auf Multimedia Zeugs nen Haufen lege - ich will zocken und sonst gar nix aber ich kenn viele die finden MSI richtig klasse. Die kann man vom Volumen auch schon fast zu den Marken zählen daher.

Sparkle, Prolink und CO sind dann eben Noname Hersteller für den Europäer.
Aber welcher Hersteller der ATI verbaut ist denn bitte eine Marke?
Hercules? Die sind genauso ne pleite Marke wie Elsa, für die es schon vergessen haben.
Für mich hat Hercules seinen Markenstatus ich will nicht sagen verspielt aber er ist nicht mehr wie früher. Früher waren die OC und schneller Speicher pur. Was haben sie bisher gebracht? Ne lahme LE Krücke die langsamer getaktet war als der Noname Scheiss von FIC und anderen.


NV macht immer noch die besten Produkte wie ja die Tabelle auf 3dconcept bestens zeigt oder hat NV auch nur einen Prozentpunkt verloren seid es die Radeon8500 gibt, die preislich ja bereits in der Ramschecke gelandet ist wo sie auch hingehört.
Nicht einen haben sie verloren.
Reicht mir schon um ATIs Qualität und tolle Produkte zu beurteilen.

Dreck ist das auf den ich nen Haufen lege.


Oh geil, leckeres Futter zum auseinandernehmen. *Waffe mit schlagkräftigen Argumenten lade* So, will ich mal Punkt für Punkt auf deine ziemlich billig argumentierten Abschnitte eingehen:
Ati ist eine eingetrage Marke, den Gähner kannste dir sonst noch wohin stecken.
Siehe oben.
Die meisten Ati Karten laufen bei der Firma Ati von Band, und gehen dann an die OEM´s. Beziehungsweise, die Chips werden von den OEM´s auf Platinen die dem Referenzdesign entsprechen verlötet. Daran ist nichts billig. Lüfter sind ausreichend dimensioniert, Anschlüsse vorhanden, Leistung auch. Das einzige was "billig sein mag ist der Preis, nicht die Qualität. Außerdem, wo wir schon bei dem Thema "billige" Hardware sind. Schon mal was von den Problemen der ASUS Geforce 4 Ti 4600 gehört? Oder willst du es nicht wahrhaben, das auch deine "Nobelkarten" Fehler aufweisen?
Bla, bla, bla...das Gelaber über die Hersteller interessiert nicht.
NVidia und beste Produkte? Hm... TV-Out, Fehler in Treibern (wie Ati :D), "veraltete Technologie" (der NV25 entsprach schon beim Launch nicht mehr den Stand der Technik). Welcher Ati OEM eine Marke ist? Für mich eindeutig HIS/Emnic, Club 3D, Ati selbst und Hercules weniger...
Flamen macht Spaß, deine Furz Geforce 4 Ti ist in ein paar Monaten reif für die Mülltonne (preislich & technisch), da halt bis dahin vollkommen veraltet. Und momentan braucht man keine 4600er Monster, wozu? Ich kann auch mit 4x FSAA und 128x aF spielen, und? Aber im gegensatz zu dir habe ich nur einen Bruchteil dafür bezahlt. Viel Spaß mit deinen 15-20 Prozent Mehrleistung...

P.S.: Angenommen, Ati bietet zu Weihnachten einen 1,5x schnelleren Chip an, würdest du dann eine Karte von denen kaufen? :lol: Wohl kaum, so nV-natisch biste. ;)

Priest
2002-05-25, 22:48:46
" Unsere Vermutungen bestätigen sich hiermit. Die zwei Bilder beweisen eindeutig, dass von der Bildqualität her zwischen Quincunx und 2x AntiAliasing kein Unterschied besteht.

Diese Karte also hat den gleichen Bug, wie die PNY. Nachdem wir dies festellten erkundigten wir uns bei Gainward und nVidia. Beide Firmen (auch PNY) konnten uns zuerst keine Erklärung und Lösung für das Problem liefern. Bei Gainward wird sich jedoch um dieses Problem gekümmert, auch nVidia arbeitet mit Hochdruck daran. Allerdings konnte man bei nVidia bis zum derzeitigen Standpunkt das Problem noch nicht nachstellen."

http://www.hardwares.de/index.php?rev=artikel.php&date=1022345721&page=9#10

Naja ganz perfekt ist NV ja noch nicht! Jeder schleppt halt so seine Fehlerchen mit sich rum. Dennoch kann ich nichts sagen, meine Karten, ob von Ati oder NV haben bisher immer zu meiner Zufriedenheit funktioniert. Wenn die Preisleistung stimmt, ist mir der Hersteller egal. Instabile Treiber sind mir bisher jedenfalls entgangen, auch dass der TV-Out der Geforce nicht benutzbar ist. Der kleine Trauerrand ist mir sowas von egal...

Aber was hier von Marke und NoName geredet wird - "kopfschüttel" - solche Posts verdienen keine Beachtung. Gibt es da nicht die Abteilung Offtopic mit Spam und so?

Jedenfalls finde ich es schade, das hier oftmals die Sachlichkeit jenseits von Sinn und Verstand entgleist.

Cu P.

M O
2002-05-25, 23:05:54
Originally posted by Priest
" Unsere Vermutungen bestätigen sich hiermit. Die zwei Bilder beweisen eindeutig, dass von der Bildqualität her zwischen Quincunx und 2x AntiAliasing kein Unterschied besteht.
Cu P.

mus ich mal testen bei meiner msi karte hoffe das können sie mit nen neuen treiber bereinigen soll ja ein nvidia bug sein

Exxtreme
2002-05-25, 23:18:44
Tja Richthofen, da haben wir doch 2 verschiedene Meinungen. Ob du willst oder nicht, ATi ist und bleibt eine etablierte Marke aber lassen wir mal dieses Markengeschwaffel mal weg da es doch einer genauer Definition bedarf.

Ob ATi billig ist, Ansichtssache. Auf jeden Fall lachen sich z.Zt. einige "early adopter" der R8500 richtig ins Fäustchen. Man hat mit der R8500 ggü. dem direkten Konkurrenten, der GF3Ti500 deutlich mehr Power und dazu noch 200 € gespart. Wenn das kein Grund zur Freude ist? In dem Fall muss man sich doch fragen ob die R8500 billig oder günstig war, oder?

Schauen wir uns die Produkte mal genauer an. Auf der einen Seite haben wir ATi mit der R8500, welche einen gut out of the Box funktionierenden TV-Out hat, normalerweise gute bis sehr gute SQ, Dual-Monitor-Support und sehr stabile, aber mit einigen Geschwindigkeits- und Kompatibilitätsproblemen behaftete Treiber. Auf der anderen Seite haben wir die GF3/4Ti-Serie. TV-Out naja, SQ durchgehend befriedigend bis schlecht, lauter Lüfter, kompatible und schnelle aber mit leichten Stabilitätsproblemen behaftete Treiber und Dual-Monitor-Support... was ist das? Sicherlich ist nVidia nicht für die meisten der "Nachteile" verantwortlich aber dem Endkunden ist das egal. Er kann sich nur das kaufen was auf dem Markt gibt. Und schlechte SQ, schlechter TV-Out usw. _das_ nenne ich 'billig'. Hier muss man eindeutig auf Qualität verzichten - es sei denn, man holt sich was anderes. Aber dieses Problem besteht ja leider nicht erst seit gestern. Schon Grafikkarten mit dem Riva128 hatten ein Problem mit der SQ. NVidia hat also 5 Jahre zugesehen und erst jetzt stellt man ein Zertifizierungsprogramm für die Bauteile auf die Beine. Aber lieber zu spät als nie, gell?

Zur Tabelle auf 3dconcept. Was sehe ich denn da als Quellenangabe? Mercury Research & nVidia... wirklich _sehr_ glaubwürdig diese Übersicht und so 'unabhängig'.

Gruß
Alex

Doomtrain
2002-05-26, 00:28:41
Originally posted by Richthofen


ATI ist billiger Scheiss. Jede billige Noname Nvidia Karte ist in der Verarbeitung besser als das Built bei ATI Zeugs.

NV macht immer noch die besten Produkte wie ja die Tabelle auf 3dconcept bestens zeigt oder hat NV auch nur einen Prozentpunkt verloren seid es die Radeon8500 gibt, die preislich ja bereits in der Ramschecke gelandet ist wo sie auch hingehört.
Nicht einen haben sie verloren.
Reicht mir schon um ATIs Qualität und tolle Produkte zu beurteilen.

Dreck ist das auf den ich nen Haufen lege.

Starker Toback den du da abläßt. Deine "Meinung" interessiert hier sicher niemanden, also halts M..l! Werd du mal glücklich mit deiner GF4.....

MadManniMan
2002-05-26, 00:52:48
Hugh! Richthofen hat gesprochen!

...sowas betrachte ich inzwischen als spam...

Richthofen
2002-05-26, 00:57:59
lol aba deine oda wie?

[...]

@Extreme
Kann wohl sein das NV den Research in Auftrag gegeben hat.
Ohne einen Auftrag wird nämlich so ein Research nicht gemacht egal ob das Mercury oder Dataquest ist. Genauso wenig machen Moodys oder S&P ein Rating auf ne Firma wenn sie nich nicht gerated wurde. Da muss nen Auftrag her der bezahlt werden muss.
Wenn ATI zb sich weigert Stückzahlen zu nennen - weiss nicht ob sie das machen - Intel machts so, dann ist man auf solche Third Party Estimates angewiesen.

Mercury halte ich genauso wie Dataquest für glaubwürdig. Ob nun +- 1% ist eher nicht relevant. ATI hat vergleichen zu NV 0 Boden gut gemacht und beschissene Margen - Schlampenladen halt.
NV wiederum Gewinn verdreifacht - so muss das laufen.

@Black Cow

Deine Argumentation hat einige Lücken. Du lobst dich wie clever du warst, dir ne Radeon8500 zu kaufen und Geld gespaart zu haben.
Und dabei in etwa die Leistung einer Ti500 zu haben.
Naja ich kenn Leute die haben sich eine GF3 doch ganze 6 bis 8 Monate vor dir gekauft und schon ihren netten Spaß drann gehabt und auch nit mehr bezahlt als die Built by ATI Käufer zum Release der 8500 und von der Geschwindigkeit lachen die sich doch kaputt über die 2 % die du mit der Radeon8500 vorne liegst. Wenn du also sagst wie toll sich deine Investition rentiert hat dann vergleich das mal mit nem GF3 Käufer der einige Monate vorsprung haben dürfte :)
Bissl Schwachsinniges Argument. Ich hab weder GF3 noch Ti gekauft sondern gleich GF4.
Und ja die ist in einem halben Jahr nach NVs Ansicht veraltet.
So what? Für Doom3 dürfte sie deutlich besser laufen als deine R8500 und wenns mir zu langsam ist fliegt sie raus.
Gibt genug Trottel bei Ebay die viel Geld hinlegen.

Ich kann momentan alles Full Quality spielen und du halt nicht. Das ist der Punkt :) 4x FSAA und max AF... alles klar!
Slomo ist das bei dir mehr nit.
Und wenn sie veraltet ist gibts ne neue. Wenn du dir das nicht leisten kannst oder nicht willst - mir egal piss ich drauf.
Ich fänds auch reichlich zum kotzen wenn sich jeder alles leisten könnte. Ich werds tun wenn ein Game das ich gerne und viel spiele nicht nach meinen Ansprüchen läuft. Ist doch poplig - geh ich auf ne Internet seite und bestell das Zeug und paar Tage später ist es da - kost mich nen Lächeln.
Mit der Kostenkeule kannst mich halt einfach nicht fordern da musst dir schon was besseres einfallen lassen. Was ich haben will kauf ich mir und Punkt!
Meine GF4Ti ist in ein paar Monaten in meinen Augen ganz sicher reif für die Tonne. Die Radeon8500 wars schon beim Erscheinen oda wie erklärst du dir den Preisverfall :)
Also woll ma doch mal bei den Tatsachen bleiben. Für den ATI Dreck ist die Masse nicht bereit das gleiche zu zahlen aus gutem Grund.
Ich bin auch nicht bereit für AMD das selbe zu zahlen wie für Intel.
Nutze trozdem AMD weil die mich im Gegensatz zu ATI absolut überzeugen.
Genauso wenig bin ich bereit für nen Mazda 626 das selbe zu zahlen wie für nen 3er BMW.

edit: Beleidigung entfernt. Richthofen, dieses Forum toleriert keine Anmache dieser Art! (aths)

Dunkeltier
2002-05-26, 01:00:13
Originally posted by MadManniMan
Hugh! Richthofen hat gesprochen!

...sowas betrachte ich inzwischen als spam...


Da bringst du mich gerade auf ´ne Idee... Solche total selbstverherrlichenden Typen (die nicht einmal mehr zwischen Spaß und Ernst unterscheiden können) gehören auf die berühmte Ignore-Liste. Argumente ziehen bei Richthofen nicht im geringsten, für ihn gibt es nur seine Hardware und sein Ego... Das stinkt.

MadManniMan
2002-05-26, 01:06:37
sehr schade, daß das richthöfle schon vor meinem post mit dem schreiben angefangen hat... (so in etwa ne halbe stunde dürft er schon gebracuht haben :zunge: )

ich hätte zu gern ne antwort auf meinen post gelesen :naughty:

Exxtreme
2002-05-26, 01:22:45
Richthofen, du schreibst öfter "ATi-Dreck", "ATi-Scheiss" usw. ohne es aber zu begründen. Da du aber nie irgendwelche Argumente geliefert hast gehe ich jetzt davon aus, daß du Irgendetwas von Irgendwo her nachplapperst, ohne es selber genau zu wissen. Sicherlich sind die Ansprüche verschieden. Dem einem sind 3DMark-Ergebnisse wichtiger als ein funktionierender TV-Out usw. Von dir hörte ich aber nie irgendwelche Argumente(!) gegen ATi, nur irgendwelche Behauptungen.

Gruß
Alex

StefanV
2002-05-26, 01:56:04
Wo wir gerde bei 'scheiß' sind:

Mal sehen, wie die Xabre wird *eg*

Weiß einer, wann die kommt??

Ja, ich will sie mir holen...

Mir is 'ne G550 einfach zu teuer, deshalb *eg*

M O
2002-05-26, 02:37:43
weis zufällig einer einen link wo videoseven monitore getestet wurden ?


T H X

StefanV
2002-05-26, 02:48:19
Originally posted by M O
weis zufällig einer einen link wo videoseven monitore getestet wurden ?


T H X

STFW

www.google.de <-da mal 'Video Seven Review' eingeben.

Aber viel wirst nicht finden...

Quasar
2002-05-26, 02:54:26
Originally posted by Priest
" Unsere Vermutungen bestätigen sich hiermit. Die zwei Bilder beweisen eindeutig, dass von der Bildqualität her zwischen Quincunx und 2x AntiAliasing kein Unterschied besteht.

Diese Karte also hat den gleichen Bug, wie die PNY. Nachdem wir dies festellten erkundigten wir uns bei Gainward und nVidia. Beide Firmen (auch PNY) konnten uns zuerst keine Erklärung und Lösung für das Problem liefern. Bei Gainward wird sich jedoch um dieses Problem gekümmert, auch nVidia arbeitet mit Hochdruck daran. Allerdings konnte man bei nVidia bis zum derzeitigen Standpunkt das Problem noch nicht nachstellen."

http://www.hardwares.de/index.php?rev=artikel.php&date=1022345721&page=9#10

Naja ganz perfekt ist NV ja noch nicht! Jeder schleppt halt so seine Fehlerchen mit sich rum. Dennoch kann ich nichts sagen, meine Karten, ob von Ati oder NV haben bisher immer zu meiner Zufriedenheit funktioniert. Wenn die Preisleistung stimmt, ist mir der Hersteller egal. Instabile Treiber sind mir bisher jedenfalls entgangen, auch dass der TV-Out der Geforce nicht benutzbar ist. Der kleine Trauerrand ist mir sowas von egal...

Aber was hier von Marke und NoName geredet wird - "kopfschüttel" - solche Posts verdienen keine Beachtung. Gibt es da nicht die Abteilung Offtopic mit Spam und so?

Jedenfalls finde ich es schade, das hier oftmals die Sachlichkeit jenseits von Sinn und Verstand entgleist.

Cu P.

So ganz stimmt die Messerscharfe Logik von "hardwares.de" aber nicht....
Erstens sind die Screenies nicht Deckungsgleich (zudem mies komprimiert) und zweitens sieht man sehr wohl einen Unterschied zwischen Quincunx und 2xFSAA, trotz gleicher Performance....

M O
2002-05-26, 03:11:41
Originally posted by Stefan Payne


STFW

www.google.de <-da mal 'Video Seven Review' eingeben.

Aber viel wirst nicht finden...

thx fürn link aber leider keine tests gefunden denk mal monitor is noch zu neu

V7 Videoseven N110LF, 110kHz

StefanV
2002-05-26, 03:35:47
Originally posted by M O


thx fürn link aber leider keine tests gefunden denk mal monitor is noch zu neu

V7 Videoseven N110LF, 110kHz

Naja, Monitore werden leider nur ab und an mal von Printmags getestet.

Online findet man bei Monitor/TFT Tests fast nix...

M O
2002-05-26, 04:06:42
Originally posted by Quasar


So ganz stimmt die Messerscharfe Logik von "hardwares.de" aber nicht....
Erstens sind die Screenies nicht Deckungsgleich (zudem mies komprimiert) und zweitens sieht man sehr wohl einen Unterschied zwischen Quincunx und 2xFSAA, trotz gleicher Performance....

und der bericht ist auch verschwunden nun

http://www.hardwares.de/index.php?rev=artikel.php&date=1022345721&page=9#10

aths
2002-05-26, 04:14:49
Richthofen,

es ist egal, was du persönlich von ATI denkst. In diesem Forum sollte man sich qualifiziert auszudrücken. Wenn du dich nur abreagieren willst, tu das woanders und nicht hier. Deine Meinung zu ATI kannst du jederzeit frei nennen, aber bitte mit einer Wortwahl, die dem Niveau dieses Forums angemessen ist.

TBird
2002-05-26, 11:51:19
WOW, hier gehts ja noch schlimmer ab als im Politik-Forum. ;)

Exxtreme
2002-05-26, 12:09:51
Originally posted by TBird
WOW, hier gehts ja noch schlimmer ab als im Politik-Forum. ;)
Jepp, das hier sind noch richtige Glaubenskriege und nicht sowas wie im Politik-Forum. Hier geht es noch essentiell wichtige Dinge wie PixelShader, Speicherdurchsatz oder die Signalqualität einer Grafikkarte und nicht um so Peanuts wie Wirtschaftswachstum, Kriminalitätsbekämpfung oder Bundestagswahlen. Deswegen hänge ich hier meistens rum, man muss was für die Menschheit machen.
;)

Gruß
Alex

StefanV
2002-05-26, 15:21:18
Hier gehts auch um 'die wahren' 'Götter'...

Mephisto
2002-05-26, 17:13:09
Ich denke, diese Jahr wird der GF4 Ti (NV25) das Rennen machen...
Umsatzmäßig.

Dunkeltier
2002-05-26, 18:06:55
Originally posted by Mephisto
Ich denke, diese Jahr wird der GF4 Ti (NV25) das Rennen machen...
Umsatzmäßig.



Nein. Dafür ist er zu teuer, der meiste Umsatz wird im OEM Markt gemacht. Und für die Bürorechner braucht man nun mal keine Gamerkarte. Aber für die Prestige mag der der NV25 ziemlich wichtig sein...

Richthofen
2002-05-26, 18:24:40
na wenn ich mir Payne und Co angugge dann war ja meine Wortwahl noch ne ganze Niveauklasse zu hoch gegriffen.

und @ Extreme

Ich habe breits und mehrfach Argumente gegen ATI geliefert die muss man nicht in jedem Post wiederholen die sind selbstredend.
Miese Treiber, schlechtere Kompatibilität, schlechtere Performance kurz um für den Daddler das Rund um Schlechtere Paket und nur das interessiert mich eben weil das Spielerkarten sind.
Preis ist mir sowieso egal, da kreide ich ATI an das sie unprofitabel sind. Ist AMD zwar auch aber die haben es mit einem ganz anderen Gegner zu tun und werden diesen Mißstand demnächst wieder beheben. Bei ATI seh ich das nicht. Was sind 1 Mio Gewinn bei Umsatz über 200 Mio. Das ist lachhaft und arm mehr nit.
Für so ne Firma hab ich nix übrig. Die kann auch gleich vom Markt verschwinden, gibt andere die das sicher besser machen.

Exxtreme
2002-05-26, 18:33:29
Originally posted by Richthofen

Miese Treiber, schlechtere Kompatibilität, schlechtere Performance kurz um für den Daddler das Rund um Schlechtere Paket und nur das interessiert mich eben weil das Spielerkarten sind.

Hihi, und das nennst du Argumente? Ich sehe eher Pauschalierungen und möglichst alles über einem Kamm, gell? Eine ernsthafte Frage: Hast du eine R8500 mal aus der Nähe gesehen? Hast du sie auch getestet? Wenn nicht, dann plapperst du auch nur irgendetwas nach, aber das sind wir von dir eigentlich gewohnt. Und wie findest du eigentlich nVidia-Treiber? Gut? Ich finde sie scheisse weil die Riva128 beim 3DMark2000 starke Texturfehler produziert. Und deswegen können die nVidia-Treiber nie und nimmer gut sein.
Merkst du was?

Gruß
Alex

P.S. Dieser Beitrag enthält Ironie.

Priest
2002-05-26, 18:57:23
Originally posted by M O


und der bericht ist auch verschwunden nun

http://www.hardwares.de/index.php?rev=artikel.php&date=1022345721&page=9#10

Der Bericht ist noch da, Du musst nur auf "Latest Reviews" klicken.

@ Quasar

Es wohl weniger um kaum aussagekräftige Bilder als um die Behauptung dass der Bug nachgestellt werden kann und sich NV des Problems bewusst ist (wenn die Behauptung stimmt).

Cu P.

M O
2002-05-26, 19:14:46
lest mal das dann wird dann wird wohl klar sein wer heuer das rennen macht



Bereits im ersten Quartal des momentanen Geschäftsjahres braucht nVidia sich nicht hinter den Zahlen verstecken. Der Umsatz belief sich auf 583 Millionen US-Dollar, was 342 Millionen US-Dollar mehr sind als im Zeitraum des Vorjahrs. Der Nettogewinn stieg somit von 26,2 Millionen auf 83,2 Millionen US-Dollar. nVidia konnte so den erwarteten Gewinn von 46 US-Cents pro Aktie auf 47 US-Cent ausbauen

Demirug
2002-05-26, 19:25:29
Das Technologierennen dieses Jahr wird wahrscheinlich so spannend wie lange nicht mehr.

Das dürfte aber weniger an denn neuen Mitspieler liegen.

Der P10 ist zu von Takt her zu schwach.

Der Parhelia dürfte zwar ausreichend schnell sein um es mit einer Radeon 8500 und einer GF4 aufzunehmen ob er es allerdings mit den Nachfolgern aufnehmen kann ist fraglich.

Und SIS möchte bei den großen wohl noch nicht mitspielen.

Bleiben also Ati und NVidia.

Beide haben sich unterstützung eingekauft (3dfx und Artx). Wobei die integration bei NVidia weiter fortgeschritten sein dürfte. Das ArtX Team war ja längere Zeit mit dem Gamecube Chip beschäftigt.

Beide werden sich bei der Entwicklung weitgehend an die DX9 Specs halten. Wobei die DX9 Performancen dieses Jahr wahrscheinlich noch keine große rolle spielen wird. Das erste Ziel muß es also sein einen DX9 Chip mit maximaler DX8 - 8.1 Performancen zu schafen.

Da ich davon ausgehen das sich NVidia und ATi nicht viel schenken werden (ausser eines der Teams hatte einen genialen neuen Einfall)wird die verfügbarkeit der Grafikkarten und das Marketing entscheiden

Birdman
2002-05-26, 19:35:31
Originally posted by Demirug
Da ich davon ausgehen das sich NVidia und ATi nicht viel schenken werden (ausser eines der Teams hatte einen genialen neuen Einfall)wird die verfügbarkeit der Grafikkarten und das Marketing entscheiden
nicht ganz korrekt, das müsste heissen: ....wird die verfügbarkeit der Grafikkarten, das Marketing und die Flamewars entscheiden.

Exxtreme
2002-05-26, 19:37:57
Originally posted by Birdman

nicht ganz korrekt, das müsste heissen: ....wird die verfügbarkeit der Grafikkarten, das Marketing und die Flamewars entscheiden.
Alles falsch. ;)
Die 3DMarks werden entscheiden.

Gruß
Alex

StefanV
2002-05-26, 19:48:47
@Richthofen

Kauf dir mal 'ne Radeon und sag dann was!!
Ich hatte schon mehrere NV Karten und hab momentan eine GF3!!
Und außer Gamen taugt die zu nicht viel...

Und wie es mit der Firma ausschat interessiert in diesem Forum niemanden!

Wir sind hier ein Hardware Forum und keine Aktien Börse...

Salvee
2002-05-26, 22:59:14
Hmm, ich weiss nicht so recht, was ich von den Mutmassungen Richthofens so halten soll. Beispielsweise war bis vor ca. 3 Jahren ATi der unumstrittene King was weltweite Marktanteile anging, schlicht und einfach, weil sie den OEN-Markt dominiert haben. Trotz Nr.1-Status machten sie in Gamerkreisen keinen Stich. nV macht Riesengewinne, find' ich auch cool, hab einiges an Kohle dadurch verdient (hatte schon Aktien von nV vor dem ersten Split :biggrin: ). Das ATi so wenig Gewinn gemacht hat, ist jetzt nicht so dramatisch, denn im IT-Bereich warn die 2 letzten Jahre die wahrscheinlich miesesten seit 20 Jahren!! Wie gesagt Richthofen, deine 'Argumente' ziehen meiner Meinung nach hinten und vorne nicht.

Edit: ATi-Grafikkarten und nV-Aktien, das Beste aus 2 Welten :rofl:

MadManniMan
2002-05-26, 23:10:42
das ist das problem mit 'alten hasen'

richthofen war seit 3dconcept fleißig am posten(gott, was vermiss ich shark...) und denkt nun, daß dieser 'status' zusammen mit seinen börsenerfahrungen argumente unwichtig macht.

hehe.

ActionNews
2002-05-27, 09:18:19
Originally posted by Demirug

Das Technologierennen dieses Jahr wird wahrscheinlich so spannend wie lange nicht mehr.





Das dürfte aber weniger an denn neuen Mitspieler liegen.





Der P10 ist zu von Takt her zu schwach.





Der Parhelia dürfte zwar ausreichend schnell sein um es mit einer Radeon 8500 und einer GF4 aufzunehmen ob er es allerdings mit den Nachfolgern aufnehmen kann ist fraglich.





Und SIS möchte bei den großen wohl noch nicht mitspielen.





Bleiben also Ati und NVidia.





Beide haben sich unterstützung eingekauft (3dfx und Artx). Wobei die integration bei NVidia weiter fortgeschritten sein dürfte. Das ArtX Team war ja längere Zeit mit dem Gamecube Chip beschäftigt.





Beide werden sich bei der Entwicklung weitgehend an die DX9 Specs halten. Wobei die DX9 Performancen dieses Jahr wahrscheinlich noch keine große rolle spielen wird. Das erste Ziel muß es also sein einen DX9 Chip mit maximaler DX8 - 8.1 Performancen zu schafen.





Da ich davon ausgehen das sich NVidia und ATi nicht viel schenken werden (ausser eines der Teams hatte einen genialen neuen Einfall)wird die verfügbarkeit der Grafikkarten und das Marketing entscheiden



Ähm...*reusper* :)! Ich glaube du hast da wen vergessen :D: PowerVR!
Die Serie 4 ( KyroIII ) ist ja schon fertig (wenn sie denn nur endlich mal erscheinen würde) und an der Serie 5 wird auch schon fleißig gearbeitet! Die soll ein kompletter DX9-Chip werden und laut einer Roadmap soll sie Anfang 2003 erscheinen (naja verschiebt sich vielleicht auch ein wenig :( )!



CU ActionNews

Andre
2002-05-27, 09:49:02
Originally posted by ActionNews
Ähm...*reusper* :)! Ich glaube du hast da wen vergessen :D: PowerVR!
Die Serie 4 ( KyroIII ) ist ja schon fertig (wenn sie denn nur endlich mal erscheinen würde) und an der Serie 5 wird auch schon fleißig gearbeitet! Die soll ein kompletter DX9-Chip werden und laut einer Roadmap soll sie Anfang 2003 erscheinen (naja verschiebt sich vielleicht auch ein wenig :( )!

Ich bewundere dich für deinen Glauben und dein Durchhaltungsvermögen!
Seit MONATEN wird erzählt, dass der Kyro III erscheinen soll - es ist nichts passiert.
Aber gut, manche geben die Hoffnung eben nie auf.

Quasar
2002-05-27, 11:14:57
Halt durch ActionNews!!!

No Surrender, no retreat!

Demirug
2002-05-27, 11:25:10
@ActionNews:

Ich habe den KyroIII nicht vergessen. Es gibt aber keine erkennbaren Anzeichen dafür das er noch diese Jahr auftauchen wird. Und mir ging es um das "Technologierennen dieses Jahr". Wenn PowerVR da mitspielen will müssen sie langsam Dampf in der Gerüchteküche machen. Das ist ein Teil des Marketings und trägt dazu bei sich interesant zu machen.

mapel110
2002-05-27, 11:56:07
Originally posted by Demirug
@ActionNews:

Ich habe den KyroIII nicht vergessen. Es gibt aber keine erkennbaren Anzeichen dafür das er noch diese Jahr auftauchen wird. Und mir ging es um das "Technologierennen dieses Jahr". Wenn PowerVR da mitspielen will müssen sie langsam Dampf in der Gerüchteküche machen. Das ist ein Teil des Marketings und trägt dazu bei sich interesant zu machen.

Technologierennen. also wenn man nur die technischen features in betracht zieht, dann wird powerVR mit sicherheit dieses jahr den kürzeren ziehen. der kyro3 wird mit sicherheit eine sehr schnelle dx8(?) karte werden und wird sich auch sehr viele marktanteile holen. wenn man bedenkt wie wacker sich eine kyro2 in aktuellen spielen hält, kann man davon ausgehen, dass der kyro3 ebenfalls recht lange ausreichend leistung bringen wird.

meine hoffnung ist es ja, dass die spiele-entwickler endlich mehr rücksicht auf die art des rendering dieses chips nehmen. es gibt immernoch viele spiele neu auf dem markt, die in ihren readme's hinweisen, dass es probs mit powervr series 3 gibt. nach einem jahr und recht grosser marktakzeptanz sollte sich da mal endlich was ändern.

Demirug
2002-05-27, 12:24:44
@mapel110:

Ich bitte dich es kann doch nicht die Aufgabe der Spieleentwickler sein die Fehler in den KyroTreiber zu umgehen. Wenn der DX-Treiber ein Feature meldet dann muss er sich auch wie der Referenztreiber im Bezug auf die Verwirklichung dieses Feature verhalten.

mapel110
2002-05-27, 12:35:58
Originally posted by Demirug
@mapel110:

Ich bitte dich es kann doch nicht die Aufgabe der Spieleentwickler sein die Fehler in den KyroTreiber zu umgehen. Wenn der DX-Treiber ein Feature meldet dann muss er sich auch wie der Referenztreiber im Bezug auf die Verwirklichung dieses Feature verhalten.

du meinst also, es liegt an den treibern ?! hmm, naja, wenn das ein entwickler sagt. ich kanns nicht genau sagen woran es liegt.

könntest du vielleicht ein beispiel-feature nennen, dass deiner meinung oder wissens nach in den treibern falsch oder fehlerhaft umgesetzt wird ?

Demirug
2002-05-27, 12:51:44
Da ich selber keine Kyro habe kenne ich jetzt kein spezifisches Beispiel.

Aber bei Direct X sind die Regeln sehr einfach.

1. Der Treiber darf nur Features melden die er in Zusammenarbeit mit der Hardware auch erfüllen kann.

2. Jedes Feature das gemeldet wird muss exact nach den Vorgaben der Spec funktionieren. Als Bezugspunkt dient der Referenztreiber.

Wenn man nun bem Entwickeln Darstellungsfehler hat testet man im Regelfall zuerst wie der Referenztreiber diesen Frame darstellt. Ist damit die darstellung korrekt ist es ein Treiber/Hardware problem und damit ausserhalb der verantwortlichkeit der Entwickler. Man informiert dann eben den Karten/Chip hersteller.

Ist der Fehler aber auch mit den Referenztreibern immer noch vorhanden prüft man noch einmal nach ob das was man da verbrochen hat überhaupt stimmt. Kann man bei sich selbst keinen Fehler finden fragt man mal kurz in den entsprechende Newsgroups an. In den meisten Fällen ist man dann doch selber schuld weil man die Dokumentation falsch verstanden hat. Fehler in den Referenztreibern oder DX treten nur sehr selten ans Licht.

zeckensack
2002-05-27, 14:27:10
Auch @demirug,

Originally posted by mapel110
meine hoffnung ist es ja, dass die spiele-entwickler endlich mehr rücksicht auf die art des rendering dieses chips nehmen. es gibt immernoch viele spiele neu auf dem markt, die in ihren readme's hinweisen, dass es probs mit powervr series 3 gibt. nach einem jahr und recht grosser marktakzeptanz sollte sich da mal endlich was ändern. Nach meinem Verständnis ist das einzige, womit der Kyro seine Problemchen hat, LFB-Zugriff jedweder Art. Den Z-Buffer muß er umständlich emulieren, Zugriff auf andere Buffer zwingt ihn zum Ausleeren seiner Pipeline, wodurch er jeden Vorteil zu Brute-Force Architekturen verspielt (und dann mit 166MHz SDR ziemlich arm dasteht ...).

Gute Nachricht: Nach meinen Infos wurden LFB-Zugriffe aus DX ab Version 8 wieder rausgekegelt, sind also für neue Spiele nicht mehr erlaubt. =)

nocturne
2002-05-27, 14:35:45
Originally posted by Demirug

Ich habe den KyroIII nicht vergessen. Es gibt aber keine erkennbaren Anzeichen dafür das er noch diese Jahr auftauchen wird. Und mir ging es um das "Technologierennen dieses Jahr". Wenn PowerVR da mitspielen will müssen sie langsam Dampf in der Gerüchteküche machen. Das ist ein Teil des Marketings und trägt dazu bei sich interesant zu machen.

Genau das versucht ActionNews doch unermüdlich seit über einem Jahr. *eg*

Nr. 5
2002-05-27, 18:26:20
oh! grosse auswahl gibts hier.
btw. ich fasse den treadtitel so auf: welcher Grafikchip verkauft sich dieses Jahr am besten.

na, mal sehen:
NV30 - hängt evt. vom erscheinungstermin des R300 ab. schwer zu sagen.
kommt er im spätsommer - ja. später - nein.
R300 - eher nicht. dazu müsste er sehr bald vorliegen UND gegen den dann (wahrscheinlich) sehr schnell erscheinenden NV30 performancemässig & treibermässig punkten.
Parhelia - mein favorit. chip vorgestellt, hoffentlich bald ausgeliefert. den kreuz ich an. :)
Kyro 3 - nein. ich hoffe auf ein erscheinen dieses jahr, schätze aber, selbst das wird zu spät sein um dieses jahr noch ordentlich zu verkaufen.
Vaporation - (das ist ja gemein;D) nein. (warum wohl ;))
P10 - wenn er zu weihnachten kommt ists jahr fast rum - nein.
Ein neuer Chip einer z.Zt. unbekannten Firma - Bitboys ist schon mit dem "Vaporation" im Poll vertreten. ;)

edit:warum hat nVidia so wenig stimmen? :D


cu

Birdman
2002-05-27, 19:01:58
also der R300 wird imho der nächste chip sein, welcher die Performancekrone bei den meisten Games einsackt, und diese ned abgeben bis der Nv30 da ist.
Nicht umsonst läuf doom3 an der e3 auf nem r300....dies deutet doch ziemlich darauf hin, das Ati weiter ist mit ihrem DX9 chip als nvidia.
Welcher chip ende jahr oben auf dem treppchen ist, mag noch davon abhängen was matrox und 3dlabs so bringen, aber ich denke mal dass der Nv30 für den Gamer das beste packet schnüren wird. (kompatibilität und speed bei games)
ob man dann aber zu ner andern karte greifft, welche warscheinlich mehr businessfeatures aufweist, wie z.B. die matrox oder ati, muss jeder selber wissen....ich für meinen teil bin jedoch nur am gamerpacket interessiert. (und dass ich Q3 in 1024 mit 2xFSAA ruckelfrei spielen kann, gell haari ;) )

lepra
2002-05-27, 20:34:26
für dieses jahr denke ich wird matrox mit dem parhelia einheizen
nicht zuletzt hatten sie ja auch genug zeit alles zu perfectionieren

gruss

lepra

Haarmann
2002-05-28, 00:03:32
Birdi

Entweder haste aber Quincunx drinnen, oder Deine GF4Ti hat ne SQ, die noch unter ner S3 765 Trio liegt ;). Ich tippe auf Letzteres...
So könnte ich ned gamen.

Exxtreme
2002-05-28, 00:06:25
Originally posted by Haarmann
Birdi

Entweder haste aber Quincunx drinnen, oder Deine GF4Ti hat ne SQ, die noch unter ner S3 765 Trio liegt ;). Ich tippe auf Letzteres...
So könnte ich ned gamen.
Ist ein Feature - FSAA4Free. ;)

Gruß
Alex

zeckensack
2002-05-28, 00:13:32
Originally posted by Exxtreme

Ist ein Feature - FSAA4Free. ;)

Gruß
Alex Hab' ich momentan auch. 1152x864@85Hz über's Voodoo2-Loopkabel. Das stärkt den Charakter :D

StefanV
2002-05-28, 00:19:40
Originally posted by zeckensack
Hab' ich momentan auch. 1152x864@85Hz über's Voodoo2-Loopkabel. Das stärkt den Charakter :D

Naja, soo schlimm ist die V2 nicht *eg*

Gibt Karten, die ein Schlimmeres Signal haben...

PS: hab mein Signal mal durch 3 Voodoos (1xV1, 2xV2) 'vergewaltigen' lassen und sah immer noch recht brauchbar aus *eg*

Frank
2002-05-28, 09:17:55
Originally posted by Stefan Payne
PS: hab mein Signal mal durch 3 Voodoos (1xV1, 2xV2) 'vergewaltigen' lassen und sah immer noch recht brauchbar aus *eg*
wie soll das gehn? Da hängt nur eine V2 dran... bei SLI
also max 2 Voodoos (V1,V2) die am Signal fummeln

Sir Integral Wingate Hellsing
2002-05-28, 12:11:21
DAS frage ich mich auch wie du 2 V2s (was ja geht) UND ne V1 gleichzeitig in Betrieb genommen hast!

Na da bin ich ja gespannt Herr Payne! :D

Oder war das ein geistiger Auswurf?

StefanV
2002-05-28, 12:13:26
Originally posted by 028
DAS frage ich mich auch wie du 2 V2s (was ja geht) UND ne V1 gleichzeitig in Betrieb genommen hast!

Na da bin ich ja gespannt Herr Payne! :D

Oder war das ein geistiger Auswurf?

Hab nie gesagt, daß diese Kombi funktioniert ;)

Hab sie nur mal im Rechner gehabt (k/a warum)...

Birdman
2002-05-28, 12:49:19
@haari

das hat wie gesagt gar nix mit der SQ meiner graka zu tun, dass das Bild in deinen Augen so "schlecht" ist. Mit der 8500er hats kein bisschen anders ausgesehen, und wenn, dann eher noch schlechter.
liegt halt an meinen Gamme, Brithness und Contrast settings....je heller desto besser (besser != schoener)

Bei dir iss dafür alles so dunkel, da sieht man ja nix....

Sir Integral Wingate Hellsing
2002-05-28, 14:58:13
Hab nie gesagt, daß diese Kombi funktioniert

Hab sie nur mal im Rechner gehabt (k/a warum)...

Also geistiger Auswurf...

Aso.. da fällt mir grad was ein...

Also: Hab vor kurzen von einem Gerücht gehört:

Die Firma(?) 3DPower hat 3DFX-Rechte/Lizenzen von nVidia abgekauft...
*hab ich glaube ich bei voodooalert.de aufgeschnappt*

Was ist da dran? Weiss da jmd was von? ???

ZilD
2002-05-29, 02:19:06
matrox vor!
aber ne wart ma .. matrox schweine teuer.

ok nvidia !
aber ne wart ma .. die haben keine futures in ihrer architektur.

ATI!
aber ne wart ma .. die bekommen nie richtig gute treiber gebacken.

3d labs!
aber ne wart ma .. eine ummodifizierte wildcat 3 als gamingplattform ?


---------

keine ahnung ! *g*

Henry
2002-05-29, 17:34:47
nvidia und ati sind die volkskarten, aber bevor ich bei denen erblinde löse ich lieber meine G400 durch eine Pharhelia ab

StefanV
2002-05-29, 18:25:23
Originally posted by Henry
nvidia und ati sind die volkskarten, aber bevor ich bei denen erblinde löse ich lieber meine G400 durch eine Pharhelia ab

Hehe, sehe ich auch so ;)

PS: meine ehemalige G400 funzt also noch, hätte ich nicht gedacht ;)
Aber Matrox ist halt Qualität, die gehen nicht soo schnell kapuut *eg*

jedi
2002-05-29, 18:28:10
Originally posted by Henry
nvidia und ati sind die volkskarten, aber bevor ich bei denen erblinde löse ich lieber meine G400 durch eine Pharhelia ab

Stimmt. Das Volk zockt eben, während Du Dich auf eine überteuerte Bürokarte freust. *eg*

aths
2002-05-29, 18:39:27
Mit dieser "Bürokarte" wird er vermutlich besser zocken können, als mit der HighEndigsten Gamerkarte, die es derzeit gibt.

M O
2002-05-29, 18:45:37
... Ein wesentliches Stück aussagekräftiger und auch prestigeträchtiger ist da jene Meldung, nach der die E3-Präsentation von Doom III auf einer ATi-Grafikkarte lief (auf einer "next generation graphics" = dem R300-Core). So entnehmen wir dieser als wichtigste Information, daß ATi offenbar schon über absturzfrei lauffähige R300-Hardware verfügt - was die ATi-Fraktion sicher hochfreudig entgegennehmen wird. Der Ausssage von John Carmack, daß jener R300 der momentan schnellste Chip für Doom III darstellt, ist allerdings natürlich zu entgegnen, daß dies nur die derzeit releasten Chips umfaßt. Über den noch nicht releasten NV30 darf Mr. Carmack aufgrund NDAs natürlich noch nichts sagen - obwohl er jene Information wohl schon besitzt, wie dieser sich in Doom III schlägt :-).

M O
2002-05-29, 18:49:45
Originally posted by Henry
nvidia und ati sind die volkskarten, aber bevor ich bei denen erblinde löse ich lieber meine G400 durch eine Pharhelia ab

weil du das e merkst ohne signal testgerät

StefanV
2002-05-29, 19:09:38
Originally posted by M O
weil du das e merkst ohne signaltestgerät

Im vergleich zu seiner alten Annihilator Pro, die er gegen meine ehemalige G400 getauscht hat...

zeckensack
2002-05-30, 14:03:37
Originally posted by M O
... Ein wesentliches Stück aussagekräftiger und auch prestigeträchtiger ist da jene Meldung, nach der die E3-Präsentation von Doom III auf einer ATi-Grafikkarte lief (auf einer "next generation graphics" = dem R300-Core). So entnehmen wir dieser als wichtigste Information, daß ATi offenbar schon über absturzfrei lauffähige R300-Hardware verfügt - was die ATi-Fraktion sicher hochfreudig entgegennehmen wird. Der Ausssage von John Carmack, daß jener R300 der momentan schnellste Chip für Doom III darstellt, ist allerdings natürlich zu entgegnen, daß dies nur die derzeit releasten Chips umfaßt. Über den noch nicht releasten NV30 darf Mr. Carmack aufgrund NDAs natürlich noch nichts sagen - obwohl er jene Information wohl schon besitzt, wie dieser sich in Doom III schlägt :-). Womit die Welt für dich wieder in Ordnung ist, oder was ???
Kleiner Hinweis: Der R300 ist auch noch nicht 'released'.
Im Endeffekt ist's doch wirklich Latte, beide Chips kann man nicht kaufen, das Spiel kann man auch nicht kaufen.

Neue olympische Disziplin: Zwei nicht existente Läufer machen ein Rennen auf einem nicht gebauten Sportplatz. Nachher behaupten die Fans beider Fraktionen, ihr Favorit hätte gewonnen.

Bäh.

ow
2002-05-30, 14:07:04
:D:D Schoener Vergleich :D:D

nocturne
2002-05-30, 14:34:21
@zeckensack:

:lol: :lol: :rofl: :lol: :lol:


... aber genau darum geht es ja hier in diesem schwachsinnigen Poll.

M O
2002-05-30, 14:38:13
Originally posted by zeckensack

Im Endeffekt ist's doch wirklich Latte, beide Chips kann man nicht kaufen, das Spiel kann man auch nicht kaufen.


Bäh. [/B]


Der NV30 kommt in august/september
wann der R300 kommt ka

im endefeckt werden halt die 2 chips wieder annähernd die gleiche leistung haben, nur das nVidia wieder das rennen machen wird weil ati wieder alles verschlafen wird und zu spät ausliefert sicher wieder nach weinachten

Exxtreme
2002-05-30, 14:46:34
Originally posted by M O

im endefeckt werden halt die 2 chips wieder annähernd die gleiche leistung haben, nur das nVidia wieder das rennen machen wird weil ati wieder alles verschlafen wird und zu spät ausliefert sicher wieder nach weinachten
IMHO sieht es diesmal nicht danach aus. ATi scheint jetzt schon stabil laufende R300'er incl. OpenGL-Treiber zu haben und nVidia scheint mit dem NV30 noch nicht soweit zu sein. Ich denke nicht, daß ATi die gleichen Fehler nochmal machen wird.

Gruß
Alex

zeckensack
2002-05-30, 14:49:21
Originally posted by M O



Der NV30 kommt in august/september
wann der R300 kommt ka

im endefeckt werden halt die 2 chips wieder annähernd die gleiche leistung haben, nur das nVidia wieder das rennen machen wird weil ati wieder alles verschlafen wird und zu spät ausliefert sicher wieder nach weinachten Siehst du, genau das ist es, was mich nervt. Warum mußt du dir dein Weltbild wieder geraderücken, indem du solche Aussagen machst? Ist das wirklich nötig?
Wie soll ich das jetzt verstehen? Du besitzt also eine NVIDIA-Karte (nehme ich mal schwer an ...) und kannst die Sache nur überstehen, indem du erstmal sagst, daß ATi einen Ofenschuß abliefert und NVIDIA gewinnt?
Nimm es doch einfach hin. Doom 3 wurde auf 'nem ATi-Chip vorgeführt. Das macht doch nichts. 'Gegensteuern' ist doch überhaupt nicht nötig.

Das ist genauso blöde, wie nach einer Fußballübertragung im Fernsehen in Abhängigkeit vom Ergebnis entweder "Wir haben gewonnen!" oder "Die haben aber scheiße gespielt." zu sagen.

M O
2002-05-30, 15:06:55
Originally posted by zeckensack

Das ist genauso blöde, wie nach einer Fußballübertragung im Fernsehen in Abhängigkeit vom Ergebnis entweder "Wir haben gewonnen!" oder "Die haben aber scheiße gespielt." zu sagen.

lies mal um was es hier geht in diesen forum

"""Welcher Grafikchip wird dieses Jahr das Rennen machen? """

ich wollte nur sagen wenn ati wieder schläft sind sie selber schuld

ja ich hab zur zeit eine gf aber das ist mir wirklich egal denn wenn ati die besseren chips macht oder machen würde wäre in meinen compi eine ati

kommen ja noch 3 andere chips
matrox + creative + kyro

jedi
2002-05-30, 22:12:47
Originally posted by Exxtreme

Ich denke nicht, daß ATi die gleichen Fehler nochmal machen wird.


Hast Du das nicht jedes Mal gedacht, als ATI jedes Jahr wieder den gleichen Fehler gemacht hat und fast alle Jahre wieder das Weihnachtsgeschäft verpasst hat?

*eg*

Exxtreme
2002-05-30, 22:16:20
Originally posted by jedi


Hast Du das nicht jedes Mal gedacht, als ATI jedes Jahr wieder den gleichen Fehler gemacht hat und fast alle Jahre wieder das Weihnachtsgeschäft verpasst hat?

*eg*
Nö, wieso? Aber ich denke nicht, daß es denen ein drittes Mal passiert. Die R300 scheint lauffähig zu sein.

Gruß
Alex

Henry
2002-05-31, 12:51:50
Originally posted by jedi


Stimmt. Das Volk zockt eben, während Du Dich auf eine überteuerte Bürokarte freust. *eg*

nee, eher so: wenn ihr eure features ausschalten müsst, damit ihr die spiele nicht in nadeldrucker-fps quälen müsst
läuft bei mir noch alles ruckelfrei

Henry
2002-05-31, 12:53:47
Originally posted by M O


weil du das e merkst ohne signal testgerät

:lol:
da brauchst du kein messgerät,
die geforcequalität ist im vergleich zur G400 so schlecht, das man es am normalen bildschirm sieht :lol:

Henry
2002-05-31, 12:57:53
@payne
ja die läuft noch, ist nicht tod zukriegen
wenn ich mir dagegen die G2 und G3 modelle auf unserer letzten LAN angesehen hab :lol:
vor allem MM2 tztztz

StefanV
2002-05-31, 13:21:18
Originally posted by Henry
@payne
ja die läuft noch, ist nicht tod zukriegen
wenn ich mir dagegen die G2 und G3 modelle auf unserer letzten LAN angesehen hab :lol:
vor allem MM2 tztztz

Hehe, wundert mich, daß 'meine' G400 noch läuft *eg*
Naja, Matrox ist halt Qualität, die sterben nicht einfach mal ab ;)

PS: was ist MM2??
PPS: schön mal wieder was von dir zu hören.

Henry
2002-05-31, 13:35:23
Originally posted by Stefan Payne


Hehe, wundert mich, daß 'meine' G400 noch läuft *eg*
Naja, Matrox ist halt Qualität, die sterben nicht einfach mal ab ;)

PS: was ist MM2??
PPS: schön mal wieder was von dir zu hören.

MidtownMadness2
eines der schönsten MP-Spiele
das scheint auf keiner GeforceKarte problemlos zu laufen.
bei meiner G1 hatte ich schwierigkeiten und G2 und 3 bekommen das auch nicht ohne rumstellen gebacken.

StefanV
2002-05-31, 14:03:27
Originally posted by Henry
MidtownMadness2
eines der schönsten MP-Spiele
das scheint auf keiner GeforceKarte problemlos zu laufen.
bei meiner G1 hatte ich schwierigkeiten und G2 und 3 bekommen das auch nicht ohne rumstellen gebacken.

Achso, DAS ist es...

MM2 läuft auf NV fast genauso 'gut' wie Ultima 9, aber das ist eine Andere Geschichte ;)

Tja, geht halt nix über die Kanadier *eg*

Quasar
2002-05-31, 14:18:21
[ungültig]
Nö, MM2 läuft wunderbar auf nV-Hardware.[/ungültig]

Hab mich vertan. MM2 kenn ich net, war irgendwie bei MM gedanklich.

StefanV
2002-05-31, 15:15:40
Originally posted by Quasar
[ungültig]
Nö, MM2 läuft wunderbar auf nV-Hardware.[/ungültig]

Hab mich vertan. MM2 kenn ich net, war irgendwie bei MM gedanklich.

Ich hab gehört, daß man MM2 auf NV HW gut zocken kann, wenn man die details runterregelt...

Quasar
2002-05-31, 15:55:26
Originally posted by Stefan Payne


Ich hab gehört, daß man MM2 auf NV HW gut zocken kann, wenn man die details runterregelt...

Erst weißt' es, dann hast's nur gehört....Stefan, du willst doch nicht etwa flamen, oder?

StefanV
2002-05-31, 17:12:21
Originally posted by Quasar


Erst weißt' es, dann hast's nur gehört....Stefan, du willst doch nicht etwa flamen, oder?

Klar, flame ist mein 2. Vorname *eg*

Hab doch 'nur' gesagt, daß MM2 bescheiden auf NV Hardware läuft, oder???

Xmas
2002-05-31, 17:20:09
Ich frag mich was der Vergleich mit U9 soll? AFAIK läufts mit D3D-Patch recht ordentlich, und ohne Patch nur unter Glide gut...

Quasar
2002-05-31, 17:42:57
Originally posted by Stefan Payne

Hab doch 'nur' gesagt, daß MM2 bescheiden auf NV Hardware läuft, oder???

Nee, eben nicht. Erst hast du gesagt, es ist so, und ein Posting später sagst du, du hättest es gehört. Qualitativ ein ziemlicher Unterschied.

Andre
2002-05-31, 17:50:28
Originally posted by Exxtreme
Die R300 scheint lauffähig zu sein.

Ah, da ist das wichtige Wort:

Scheint.

Genaueres wissen wir doch alle nicht, also wäre es schön, wenn man zu den Fakten zurückkehren würde.
Ich kann zeckensack nur zustimmen, es spielt keine Rolle, auf welcher Karte die Demo lief - außer für jemanden, der sich über jede Kleinigkeit freut.
Daniel Vogel hat im Technologie-Forum gepostet, dass die Demo so bei 25-40 FPS lief - ist ja nicht grade das, was man sich so vorstellt, vor allem bei Medium-Details.
Wenn Doom3 rauskommt, werden wir früh genug erfahren, welche Karte DANN die schnellste ist.
Bis dahin ist das alles recht müßig.

Exxtreme
2002-05-31, 17:53:43
Err, AFAIK hat vogel geschrieben, daß es sein Eindruck war, daß die Demo mit 25-40 fps lief. Ich denke nicht, daß die Demo einen eingebauten Framecounter hatte. Er weiss es also nicht genau. Ein kleiner, aber feiner Unterschied. ;)

Gruß
Alex

jedi
2002-05-31, 18:21:09
Originally posted by Stefan Payne

Naja, Matrox ist halt Qualität, die sterben nicht einfach mal ab ;)


Wenn sie absterben, dann oft unter OpenGL. Fans nennen das dann "Qualität".
*eg*

zeckensack
2002-05-31, 19:05:47
Originally posted by jedi


Wenn sie absterben, dann oft unter OpenGL. Fans nennen das dann "Qualität".
*eg* Das scheint leider immer noch der Fall zu sein.
Ergebnis einer kleinen 'Umfrage':
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/006497.html
4. Matrox - Dead last; I am still just discovering problems. It is the only driver that will actually crash my program, and they have bugs that any user would notice. Unfortunately a ton of Dell boxes use this card.
I had a G400 for a while... What can I say? It didn't even run properly the popular GLExcess demo. Their so-called TurboGL tweaked driver was probably an optimized code path for QuakeIII-engine based games, to have honorable 'performance' figures in benchmarks. But for everything outside QuakeIII code path, just forget it.
Of course, developer relations are just a concept for them; unless you are working for a big company (I'm just guessing here, never worked for a big company), you won't receive replies to emails (here I'm not guessing).
Moreover, they never exposed EMBM in OpenGL (for some months, G400 was the only card on the market that supported EMBM in hardware). This shows how commited they are in supporting OpenGL.

Maybe the situation will change with Parhelia.

jedi
2002-05-31, 19:29:28
Originally posted by zeckensack
Das scheint leider immer noch der Fall zu sein.

Eben. Umso erstaunlicher, dass es angesichts der schlechten Matrox-Treiber immer noch Fans gibt, die uns das Märchen von der ach-so-tollen "Matrox-Qualität" erzählen wollen. In Büromaschinen vielleicht.

Henry
2002-05-31, 21:20:29
Originally posted by jedi


Wenn sie absterben, dann oft unter OpenGL. Fans nennen das dann "Qualität".
*eg*

hab ich noch nix gemerkt
bisher lief alles reibungslos
aber mal was anderes, was findet ihr eigentlich alle so toll an OpenGL???
ich find, das ist auch so ein feature, das ich für vollkommen überflüssig halte.
zu D3D seh ich keine unterschiede und die Helligkeit lässt sich bei UT in dem Modus auch nicht ändern.

Henry
2002-05-31, 21:23:03
Originally posted by Stefan Payne


Ich hab gehört, daß man MM2 auf NV HW gut zocken kann, wenn man die details runterregelt...

das kommt irgendwie auf die karte an
bei manchen läuft es nur im Softwaremodus, bei anderen sieht man immer mehr, wenn man die details runterregelt, und bei wieder anderen, läufts nie reibungslos.

Exxtreme
2002-05-31, 21:23:43
Originally posted by Henry


hab ich noch nix gemerkt
bisher lief alles reibungslos
aber mal was anderes, was findet ihr eigentlich alle so toll an OpenGL???
ich find, das ist auch so ein feature, das ich für vollkommen überflüssig halte.
zu D3D seh ich keine unterschiede und die Helligkeit lässt sich bei UT in dem Modus auch nicht ändern.
Dann versuch mal Q3A, RtCW, MoH:AA mit D3D zu spielen. ;)
Dann siehst du wie überflüssig OpenGL ist.

Gruß
Alex

StefanV
2002-05-31, 21:37:26
Originally posted by Exxtreme

Dann versuch mal Q3A, RtCW, MoH:AA mit D3D zu spielen. ;)
Dann siehst du wie überflüssig OpenGL ist.

Gruß
Alex

Tja, das sind irgendwie alles Quake3 Engine Games, da zieht wiederrum der Turbo GL *eg*

Sind doch die einzigen OGL Games (Q3Engine), oder??

OGL wird doch eh nur für 'ne Hand voll Spiele gebraucht, die zu allem Überfluss auch noch meist eine Engine nutzen.

Vielleicht gibts ja auch 2 OGL Engines (Lithtech??)...

Die Unreal Engine ist anscheinend unter D3D auch brauchbar...

Quasar
2002-05-31, 21:43:10
Mittlerweile ist es eher ein TrabbiGL als ein TurboGL.

Außerdem kann es nicht Sinn eines Treibers sein, für jedes Games eine andere Version parat zu haben.

SP: Serious Sam, dazu die alten Quake2- & Half-Life (Quake-I)-Teile und bestimmt noch ein paar mehr...

Thowe
2002-05-31, 21:43:33
Originally posted by jedi


Eben. Umso erstaunlicher, dass es angesichts der schlechten Matrox-Treiber immer noch Fans gibt, die uns das Märchen von der ach-so-tollen "Matrox-Qualität" erzählen wollen. In Büromaschinen vielleicht.


Uppps, he did it again

Henry
2002-05-31, 21:50:48
Originally posted by Exxtreme

Dann versuch mal Q3A, RtCW, MoH:AA mit D3D zu spielen. ;)
Dann siehst du wie überflüssig OpenGL ist.

Gruß
Alex

MoH:AA=unreales sch.. Spiel
RtCW=siehe MoH:AA
Q3A=naja, vielleicht ganz ok.
hab es ein zwei mal gespielt.
seit dem nie wieder.

ergo, OGL total überflüssig für mich

Exxtreme
2002-05-31, 21:53:55
Originally posted by Henry

ergo, OGL total überflüssig für mich
Mag sein. Nur gehst du in diesem Fall nur von dir aus. Das OpenGL-API hat seine Daseinsberechtigung - auch in Spielen.

Nix für Ungut. ;)

Gruß
Alex

Kai
2002-05-31, 22:06:28
OpenGL Kompatibilität ist für mich immer noch einer der ausschlaggebenden Punkte warum ich mir ein Spiel anschaffe. Wenn ein Spiel nur über D3D läuft, weiss ich nämlich das es der Erfahrung nach etwas leichter zu "Problemchen" kommen kann.

OpenGL ist IMO eine solide, grundfeste API die sich schon oft bewährt hat.

Übrigens: MOHAA ist ein unrealistisches "Scheiss-Spiel" und Quake3 ist ganz okay ? Hrmmm

zeckensack
2002-05-31, 22:13:34
Hey, Zanzarah läuft unter Direct3D und der Gameboy-Emulator braucht nur DirectDraw. Mehr brauche ich also nicht :|

edit: falschen Smiley genommen :bonk:

Andre
2002-06-01, 12:40:28
Originally posted by Exxtreme
Err, AFAIK hat vogel geschrieben, daß es sein Eindruck war, daß die Demo mit 25-40 fps lief. Ich denke nicht, daß die Demo einen eingebauten Framecounter hatte. Er weiss es also nicht genau. Ein kleiner, aber feiner Unterschied. ;)

Dennoch spreche ich jetzt einfach mal Daniel zu, dass er als Engine-Progger wohl weiss wovon er redet und unterscheiden kann, ob das Game mit 25-60 oder mit 80-150 FPS läuft.
Wie gesagt, dass Ganze auf Medium-Details.
Wenn man hochrechnet, reine Spekulation, dann sind das vielleicht auf dem Next-Gen der ATI so 15-25 FPS.
Nicht wirklich der Hammer.

nocturne
2002-06-01, 13:34:32
Originally posted by Kai
OpenGL Kompatibilität ist für mich immer noch einer der ausschlaggebenden Punkte

Yep, die meisten aktuellen Action-Kracher sind OpenGL:

Nicht nur RtCW und MoHAA, sondern auch Jedi Knight II und das neue Soldier of Fortune 2.

Henry
2002-06-02, 00:01:47
Originally posted by Kai
OpenGL Kompatibilität ist für mich immer noch einer der ausschlaggebenden Punkte warum ich mir ein Spiel anschaffe. Wenn ein Spiel nur über D3D läuft, weiss ich nämlich das es der Erfahrung nach etwas leichter zu "Problemchen" kommen kann.

OpenGL ist IMO eine solide, grundfeste API die sich schon oft bewährt hat.

ja, die nvidia besitzer müssen ab und zu auf ogl ausweichen:D
das hab ich auch schon bei meinen kumpels bemerkt
ich glaub das war bei TO, wo bei nvidiakarten, grafikfehler auftraten.

Originally posted by Kai

Übrigens: MOHAA ist ein unrealistisches "Scheiss-Spiel" und Quake3 ist ganz okay ? Hrmmm

nun, du musst zugeben, das quake ein reiner 3D-Action-Shooter ist, ähnlich UT.
MoHAA hingegen zielt wie OFP, Ghost Recon ... auf realismus.
da ist ein feiner kleiner unterschied in der zielgruppe zu bemerken.
von Q3D erwarte ich keinen realismus.

Henry
2002-06-02, 00:03:22
Originally posted by Exxtreme

Mag sein. Nur gehst du in diesem Fall nur von dir aus. Das OpenGL-API hat seine Daseinsberechtigung - auch in Spielen.

stimmt, ist ja auch meine meinung, die ich hier vertrete:D

nocturne
2002-06-02, 03:11:47
Originally posted by jedi

Umso erstaunlicher, dass es angesichts der schlechten Matrox-Treiber immer noch Fans gibt, die uns das Märchen von der ach-so-tollen "Matrox-Qualität" erzählen wollen. In Büromaschinen vielleicht.
Den Grund für die schlechte Qualität der Matrox-Treiber findet Ihr hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21614).

davidzo
2002-06-02, 15:59:24
Habe für die R300 gestimmt, weil ATI schon dieses Jahr technisch die Nase vorn hatte... nvidia hatte nur ein paar Vorteile z.B. den ruf, mehr geld und halt den Geforce3 aus dem sich mit ein paar BIOS änderungen, besserem Speicher und ner doppelten shadereinheit und halt wesentlich mehr speicher viel herausholen ließ....
doch nun ist Ende der Fahnenstange, ein gefurze 3.6 (Gf4 = Gf3.5)würde nich mehr richtig leistung bringen... (mal sehen was nen Radeon 8500 mit 350mhz speicher+chiptakt sowie neuen treibern schaffen würde...)
Außerdem hat ATI schon eher angefangen an einem Dx9 chip zu basteln...diesmal kann es sein das nvidia den weihnachtsmarkt verpasst :santa:
technisch ist der P10 natürlich attraktiver, ich glaube aber nicht das er sich im consumer Markt durchsetzen kann...
Der Parhelia...mals sehen ob Matrox den Sprung schafft... wenn er pünktlich kommt, wie matrox versprochen hat, hat er reelle chancen, doch wird leider in bisschen teuer.:sulkoff:
Ansonsten glaube ich das der VIA xabre wie einst der KyroII der Preisschlager für den lowcost Bereich sein wird (reine DX7 technik wie die MX reihe ist ja selbst heute nicht mehr wirklich das wahre :grenade:)
ATI hat das knowHow dazu den Schlager zu machen und seit dem Radeon 8500 auch die Erfahrungen und den richtigen Ruf.

Ach ja, da hatte jemand geschrieben das der Radeon8500 nur so wie ein Geforce3ti500 oder schlechter sein würde...-komisch das der Radeon 8500 nicht nur mehr Leistung hat sondern technisch viel mehr resevren für die Zukunft hat?

Originally posted by Henry


MoH:AA=unreales sch.. Spiel
RtCW=siehe MoH:AA
Q3A=naja, vielleicht ganz ok.
hab es ein zwei mal gespielt.
seit dem nie wieder.

ergo, OGL total überflüssig für mich
willst du uns verarschen? ale guten games laufen in OpenGL...häufig wesentlich besser und schneller als inD3D...besonders von der Bildqualität, D3D macht hässlich Artefarkte bei Kanten und Ecken....
und außerdem ist MOH:AA verdammt realistisch und sowohl von der story als auch von der vergleichslosen Grafik ausgesprochen ausgefeilt...
RTCW=siehe MOHAA, RTCW ist genial gemacht, doch kann es bei mir im vergleich zu MOHAA nicht mithalten...beide Spiele sind die besten first person shooter die ich kenne (eventuell noch Max Payne) ...
ich finde sogar das die noch weit mehr aus der Engine geholt haben als Q3A selber...

Auch politisch ist es sehr wichtig das es OpenGL gibt, denn es ist der einzige ernstzunehmende Gegen Microsofts D3D in DirectX... wenn es OpenGL nicht merh geben würde oder verdrängt wäre, könnt e Microsoft Geld für DirectX verlange :rocket: ...ich bin sicher das würden die machen...wie sähe das denn aus, du kaufts für deine Computer alle jahre DX um Spiele spielen zu können?

OpenGL rulez!!

Dilandau
2002-06-02, 23:15:48
Rein technisch würde ich den ATI'lern den Vortritt lassen. Nur rein Markttechnisch gesehen wird (wie immer) nVIDIA sich durchsetzen können. Das der R200 besser als nVIDIAS NV25 ist, ist klar. Die Radeon hat auch die bessere Zukunft vor sich- nur das interressiert die potentiellen Käufer wenig. Der Großteil schaut in GameStar, PC-Action & Co. und sieht (auch wie immer) eine Karte von nVIDIA auf den 1.Platz von den 3D.Charts.

E`Der Käufer geht in die Kaufhölle (irgendein Großmarkt) und schaut sich um, findet 80% nur Produkte von nVIDIA und irgendwelche verkümmerten Pappschachteln wo ATI draufsteht. Nun kommt der Punkt, an dem jeder weiß, was der Käufer machen wird...

Und solange der 3DMark eine so große Rolle in allen Zeitschriften spielt wird sich an dem Bild kaum was ändern.
Kaum war einmal der Radeon im 3DMark schneller als GeForce3, schon baun die Jungs von der nVIDIA-Truppe einen 2.Vertex-Shader ein und 3DMark bringt die SE-Version raus und alle Welt bestaunt, wie "schnell" der Wunderchip GeForce4 doch ist.

Henry
2002-06-03, 19:40:39
Originally posted by davidzo

willst du uns verarschen? ale guten games laufen in OpenGL...häufig wesentlich besser und schneller als inD3D...besonders von der Bildqualität, D3D macht hässlich Artefarkte bei Kanten und Ecken....
und außerdem ist MOH:AA verdammt realistisch und sowohl von der story als auch von der vergleichslosen Grafik ausgesprochen ausgefeilt...
RTCW=siehe MOHAA, RTCW ist genial gemacht, doch kann es bei mir im vergleich zu MOHAA nicht mithalten...beide Spiele sind die besten first person shooter die ich kenne (eventuell noch Max Payne) ...
ich finde sogar das die noch weit mehr aus der Engine geholt haben als Q3A selber...

:lol:
:lol:
:lol:
ich glaub du willst mich verarschen.
zu realismus gehört mehr als ordentliche grafik und story(wobei beides, bei beiden spielen nicht gerade überzeugt
und max payne :lol:
das ist ja wohl noch eine nummer schärfer, das kann einfach nicht dein ernst sein!!!

Nr. 5
2002-06-03, 21:57:20
Originally posted by Andre


Dennoch spreche ich jetzt einfach mal Daniel zu, dass er als Engine-Progger wohl weiss wovon er redet und unterscheiden kann, ob das Game mit 25-60 oder mit 80-150 FPS läuft.
Wie gesagt, dass Ganze auf Medium-Details.
Wenn man hochrechnet, reine Spekulation, dann sind das vielleicht auf dem Next-Gen der ATI so 15-25 FPS.
Nicht wirklich der Hammer. und vom NV30 weiss man gar keinen wert.
wir werden sehen welcher chip schneller draussen - und welcher schneller in Doom3 ist.
dann können wir auch benchen(!) und vergleichen.


cu

MadManniMan
2002-06-03, 22:37:15
henry,

ziemlich interessant...

weil deine apps nicht wirklich vorangig unter openGL laufen, ist diese API irrelevant?

nocturne
2002-06-03, 23:35:38
Anders rum:

Weil sein Lieblingshersteller keine anständigen Treiber für diese API hat, bezeichnet er diese API als irrelevant.

;)

MadManniMan
2002-06-03, 23:36:53
darauf müssen wir prosten, nocturne! endlich mal einer meinung! :D

nocturne
2002-06-03, 23:39:59
Tatsächlich. :o

Na dann: :bier:

;)