Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
Jesus
2005-02-20, 13:31:31
Jesus STFU. Nur mit SM 3.0 läuft es sehr flüssig und Bandbreitenlimitierung hat nix mit der Architektur zu tun.
Nochmal zum mitschreiben: Schällt man HDR aus, läuft es mit SM 3.0 nicht schlechter als mit SM 1.1.
Danke. Dann bietet der NV40 wohl keine HW HDR unterstützung wie ? Hab ich wohl was falsch verstanden...
Nein, aber die Speicherbandbreite reicht einfach nicht mehr aus
Daran wird auch R520 nix ändern können, das er mit einem FP16 Framebuffer einbricht.
Jesus
2005-02-20, 13:37:13
Nein, aber die Speicherbandbreite reicht einfach nicht mehr aus
Das ist mir relativ egal was nicht ausreicht. Damit ist der NV40 eben NICHT in der Lage mit den "gebotenen Möglichkeiten", falls diese vom Entwickler genutzt werden, eine angemessene/spielbare geschwindigkeit zu erreichen.
Falls das an zu geringer Bandbreite liegt hätte sich NV vielleicht vorher überlegen sollen ob sie HDR support i(u.a.) integrieren. Ansonsten sieht das ganze einfach nach Fehlkonstruktion aus und das kann ich bei ner 500€ Karte nun wirklich nicht gebrauchen. Zumal eben genau diese Feature ja auch von NV Beworben wird und als Vorteil ggü. der Konkurrenz dargestellt wird.
HDR Support ist ja auch der einzige Vorteil von NV40 :rolleyes:
Die paar mehr Transistoren in den ROPs sind sicher nicht der Rede wert gewesen.
Das ist genau die gleiche Situation wie damals mit 16 Bit gegen 32 Bit. Es ist einfach ein Feature das man relativ leicht einbauen kann.
Sieht doch schick aus. Warum sollte man es weglassen?
mapel110
2005-02-20, 13:39:24
Das ist mir relativ egal was nicht ausreicht. Damit ist der NV40 eben NICHT in der Lage mit den "gebotenen Möglichkeiten", falls diese vom Entwickler genutzt werden, eine angemessene/spielbare geschwindigkeit zu erreichen.
Falls das an zu geringer Bandbreite liegt hätte sich NV vielleicht vorher überlegen sollen ob sie HDR support i(u.a.) integrieren. Ansonsten sieht das ganze einfach nach Fehlkonstruktion aus und das kann ich bei ner 500€ Karte nun wirklich nicht gebrauchen. Zumal eben genau diese Feature ja auch von NV Beworben wird und als Vorteil ggü. der Konkurrenz dargestellt wird.
Es ist auch ein Vorteil, HDR als Option zu haben. Man hat die Wahl. Bei ATI nicht.
Exxtreme
2005-02-20, 13:40:45
Falls das an zu geringer Bandbreite liegt hätte sich NV vielleicht vorher überlegen sollen ob sie HDR support i(u.a.) integrieren. Ansonsten sieht das ganze einfach nach Fehlkonstruktion aus und das kann ich bei ner 500€ Karte nun wirklich nicht gebrauchen. Zumal eben genau diese Feature ja auch von NV Beworben wird und als Vorteil ggü. der Konkurrenz dargestellt wird.
Naja, bei NV war's meist so, daß zuerst die Features und dann der Speed und somit echte Nutzbarkeit kam. ATi macht's halt nicht so. Wenn die was einbauen dann ist es auch meist nutzbar... vom R100-/R200-SSAA mal abgesehen.
Das ist mir relativ egal was nicht ausreicht. Damit ist der NV40 eben NICHT in der Lage mit den "gebotenen Möglichkeiten", falls diese vom Entwickler genutzt werden, eine angemessene/spielbare geschwindigkeit zu erreichen.Und nochwas: Der R520 wird genau die gleichen Probleme haben. Da wirst du aber ganz anders tönen.
Langsam gehst du mir mit deinem ewigen Anti-nV Gesabbel gehörig auf die Nerven.
Jesus
2005-02-20, 13:43:09
Es ist auch ein Vorteil, HDR als Option zu haben. Man hat die Wahl. Bei ATI nicht.
Ihr versteht nicht was ich meine. Wenn ich mir eine neue Karte kaufe für einen Haufen Geld, dann erwarte ich auch dass ich damit die aktuellen Spiele mit allen Effekten flüssig spielen kann und will eben KEINE Kompromisse eingehen, denn dafür brauch ich keine neue Karte.
Oh und nett dass hier Beleidigungen scheinbar auch von der Moderation geduldet werden (siehe auch unten)...
Und nochwas: Der R520 wird genau die gleichen Probleme haben. Da wirst du aber ganz anders tönen.
Langsam gehst du mich mit deinem ewigen Anti-nV Gesabbel gehörig auf die Nerven.
Geile Kristallkugel. Du kannst scheinbar gedanken lesen und die Zukunft gleichzeitig vorraussagen. Bin begeistert !
Falls das HDR beim R520 auch so unbrauchbar implementiert ist wie jetzt dann wirst du von mir ganz sicher nichts anderes hören.
Ach so, dann wäre deiner Meinung nach ein NV40 ohne all die Möglichkeiten besser? Was eine Logik...
Geile Kristallkugel. Du kannst scheinbar gedanken lesen und die Zukunft gleichzeitig vorraussagen. Bin begeistert !Das HDR in SC 3 ist eindeutig Bandbreitenlimitiert. Da kann die Architektur rein gar nix dran ändern am relativen Einbruch. Oder glaubst du R520 hat auf einmal doppelt so schnellen Speicher im Verhältnis zu früher?
Jesus
2005-02-20, 13:50:36
Ach so, dann wäre deiner Meinung nach ein NV40 ohne all die Möglichkeiten besser? Was eine Logik...
Das HDR in SC 3 ist eindeutig Bandbreitenlimitiert. Da kann die Architektur rein gar nix dran ändern am relativen Einbruch. Oder glaubst du R520 hat auf einmal doppelt so schnellen Speicher im Verhältnis zu früher?
Sicher ist es ein tolles Feature und "nice to have". Aber wenn ich etwas habe, dann will ich es auch nutzen können und nicht nur wissen dass ich es habe. Wenn ich es dann nutze und sehe dass es mir nix bringt weils meine Karten icht schnell genug kann dann kann ich auch gleich drauf verzichten, denn dann ist es nichts weiter als "Kundenverarschung" oder irreführende Werbung.
Ohne NV40 hätten wir jetzt aber noch kein HDR in Splinter Cell das wir später mal dazuschalten können mit entsprechender HW.
Hab ich nicht schonmal erwähnt, dass es wahrscheinlich kaum Transistoren gekostet hat?
Immerhin kann ich es mir mal anschauen. Die Möglichkeit hätte ich mit ATi nicht.
Es ist also auf keinen Fall ein Nachteil, egal wie du es drehst oder wendest.
xL|Sonic
2005-02-20, 13:54:00
Im Endeffekt beschwert sich Jesus ja nur darüber, dass der Kunde für Features mitbezahlen muss, die explizit als must have beworben werden im Vergleich zur Konkurrenz, diese dann aber nicht vernünftig bis gar nicht genutzt werden.
Im Endeffekt bringt es uns ja auch nichts, wenn eine Karte zig tausend neue tolle Features hat, man für die Karte 5000€ bezahlt, technologisch dem Rest der Welt enorm weit voraus ist, die ganzen Entwickler sich drüber freuen, weil sie mehr machen können als mit anderer Hardware, aber im Endeffekt alles daran scheitert, dass der Chip zu niedrig getaktet ist oder der Speicher einfach zu langsam ist.
Andersrum könnte man aber auch sagen dass ATi für "veraltete" Technik das gleiche verlangt.
NV40 hat "zuviele" Features. R420 hat zu wenig. Ich greif lieber zu Variante NV40.
mapel110
2005-02-20, 13:57:21
aber im Endeffekt alles daran scheitert, dass der Chip zu niedrig getaktet ist oder der Speicher einfach zu langsam ist.
was mit folgenden Graka-Generationen nicht mehr der Fall ist. Und dann ists gut, dass Feature schon in bestehenden Games zu haben, anstatt erst noch darauf warten zu müssen, bis es implementiert wird.
Und übrigens ist 39 fps bei 1024er Auflösung als zu lahm zu bezeichnen recht subjektiv.
Jesus
2005-02-20, 13:59:28
Immerhin kann ich es mir mal anschauen. Die Möglichkeit hätte ich mit ATi nicht.
Es ist also auf keinen Fall ein Nachteil, egal wie du es drehst oder wendest.
Ein Super Argument! Es geht hier aber nicht um ATI, auch wenn du mir das noch so oft in den Mund legen willst. Es geht nur um NV.
Allerdings wenn ich dann mit dem NV40 eine Karte habe mit der ich mir die neuen Features nur anschauen kann, dann frag ich mich ob es vielleicht nicht nur der "technologische Rückschritt" bei ATI war auf SM3 u.a. Features vorerst noch zu verzichten, vielleicht wollten sie auch genau solche Situationen wo man dann einfach zu langsam ist vermeiden, die dann womöglich negativ gewertet werden könnten, weil die HW einfach noch nicht so weit ist.
ShadowXX
2005-02-20, 13:59:38
Splinter Cell 3 kann man mit 30-60FPS sehr gut spielen....reicht für das Game völlig.
Ich hatte auch dazu eine Stelle gewählt, wo die FPS nicht so hoch sind....hätte auch eine Stelle nehmen können, wo es über 60FPS werden.
Und man hat nun die Wahl.....sehr schön in 1024x768 (also mit SM3.0 und HDR) oder fast genauso schön in 1280x1024 4xAA/8xAF (HQ) wenn man nur SM3.0 nimmt.
Wie gesagt...das HDR frisst hier die Leistung weg...nicht das SM3.0.
Ailuros
2005-02-20, 14:00:30
Das HDR in SC 3 ist eindeutig Bandbreitenlimitiert. Da kann die Architektur rein gar nix dran ändern am relativen Einbruch. Oder glaubst du R520 hat auf einmal doppelt so schnellen Speicher im Verhältnis zu früher?
Rein theoretisch wuerde selbst ein high end TBDR nicht verrueckt hohe Zahlen ausspucken mit float HDR und schon gar nicht mit AA kombiniert. Wesentlicher Unterschied waere dann eben dass der Framebuffer-Verbrauch kleiner ist bei solch einer Kombination. IMHO.
Und wenn ein Spiel wie SC3 konstant Ping-Pong zwischen CPU und GPU-Limitierung spielt, da rettet sowieso im gegebenen Fall selbst verrueckt hohe Bandbreite nicht unbedingt viel.
Allerdings wenn ich dann mit dem NV40 eine Karte habe mit der ich mir die neuen Features nur anschauen kann, dann frag ich mich ob es vielleicht nicht nur der "technologische Rückschritt" bei ATI war auf SM3 u.a. Features vorerst noch zu verzichten, vielleicht wollten sie auch genau solche Situationen wo man dann einfach zu langsam ist vermeiden, die dann womöglich negativ gewertet werden könnten, weil die HW einfach noch nicht so weit ist.Wie gesagt, ohne NV40 hätten wir kein HDR in SC3.
Und andersrum hätte ATi wenigstens SM 2.0a implementieren können. Was R420 hat ist sicher nicht mehr auf der höhe der Zeit. Also lieber zu viel (NV40) als zu wenig (R420)
Sieht man ja selber dass sich ein paar Entwickler schon über R420 ärgern. ATi gibt mir fürs Geld einfach zu wenig außer hohe Rohperformance.
Jesus
2005-02-20, 14:09:31
Sieht man ja selber dass sich ein paar Entwickler schon über R420 ärgern. ATi gibt mir fürs Geld einfach zu wenig außer hohe Rohperformance.
Und NV40 hat zu wenig Rohperformance für die gebotenen Features.
robbitop
2005-02-20, 14:11:26
Für mich ist es völlig logisch, dass ein heutiger Renderer bei FP16 HDR einbricht. Muss er deshalb das Feature nicht implementiert haben? Meine Erfahrung war, dass ich auf einer 6800NU @default Far Cry @1024 mit HDR schön flüssig spielen konnte und dazu einen IMO hübschen Effekt hatte.
Klar gibt es einen großen Performance Hit. Fakt ist jedoch, dass es schon Nutzbar ist.
AF kostet auch 50% Leistung und wird auch immer so viel kosten, dafür bietet es schärfere Texturen. Soll ich deshalb meckern?
IMO ist es gut, dass das Feature drin ist. Zum Spielen reicht es oft, ansonsten zum herumspielen und einen Blick in die Zukunft werfen. Und natürlich regt es die Spielehersteller an, dies gleich mal zu implementieren (mehr oder minder gut). Das ist gut für unsere Zukunft, da wird somit schneller hübsche Spiele zu Gesicht bekommen.
Man kann, wenn man die Technik wenigstens etwas versteht, von einem heutigen Renderer nicht erwarten (auch von R520 nicht), dass dies ohne großen Hit passiert. Aber es deswegen verteufeln? Ist IMO eine sehr engstirnige Sichtweise.
Die Rohshaderperformance von NV40 ist nicht schlechter als die von R420.
NV40 hat sehr gute SM2.0a Performance. R420 hat nichtmal SM2.0a.
Dem R420 fehlt trotz seiner Performance einfach etwas. NV40 hat zuviel davon - ja und? Ich brauch's ja nicht benützen.
ironMonkey
2005-02-20, 14:12:13
Und NV40 hat zu wenig Rohperformance für die gebotenen Features.
Aha und was ist der Standard????
ShadowXX
2005-02-20, 14:14:07
Und NV40 hat zu wenig Rohperformance für die gebotenen Features.
Für HDR scheint es etwas knapp bemessen....wobei wie schon oben erwähnt, auch um die 40FPS bei 1024 nicht wirklich schlecht sind.
Und es ist wie schon mehrfach gesagt nur das HDR....nur mit den SM3.0 Features sind die FPS so hoch, das man selbst in 1280x1024 noch 4xAA dazuschalten kann.
Jesus
2005-02-20, 14:14:08
Die Rohshaderperformance von NV40 ist nicht schlechter als die von R420.
Ich habe weder von Shaderperformance noch von einem Vergleich NV40 vs R420 gesprochen. Wer lesen kann ...
deekey777
2005-02-20, 14:14:38
Wie gesagt, ohne NV40 hätten wir kein HDR in SC3.
....
Leider(?) wahr. Wer sagt aber, daß ohne die NV40er SC3 über SM2.0 verfügen würde?
Die Rohshaderperformance von NV40 ist nicht schlechter als die von R420.
NV40 hat sehr gute SM2.0a Performance. R420 hat nichtmal SM2.0a.
Dem R420 fehlt trotz seiner Performance einfach etwas. NV40 hat zuviel davon - ja und? Ich brauch's ja nicht benutzen.
Die Rohperformance? Wayne...
R420 kann aber "SM2.0b", das ist einen Buchstaben weiter als A.
Und warum verteufeln einige immer noch das SM3.0? Spätestens mit SC:CT wurde gezeigt, dass SM 3.0 für die Entwickler einige Vorteile hat (was aber die Streichung der Unterstützung der gesamten SM2.0 Familie nicht besser macht).
Und HDR? Nur weil es nVidia kann, muß es sofort verteufelt werden? Dass es nicht sehr schnell sein wird und mit MSAA nicht funktionieren wird, war schon im April 2004 klar.
Und der R520 wird doch ein SM3.0 unterstützender Chip, also was soll die Aufregung in diesem Thread?
Exxtreme
2005-02-20, 14:15:51
Sieht man ja selber dass sich ein paar Entwickler schon über R420 ärgern. ATi gibt mir fürs Geld einfach zu wenig außer hohe Rohperformance.
Naja, ATi liefert eigentlich das, was der Markt verlangt. Als ATi noch richtig innovativ war mit dem R100 und R200 sind sie vom Käufer bestraft worden weil die Konkurrenz längere Balken erreicht hat. ATi hat den Spieß jetzt umgedreht und wird kurioserweise vom Käufer dafür belohnt, daß sie nicht innovativ sind.
mapel110
2005-02-20, 14:20:36
Naja, ATi liefert eigentlich das, was der Markt verlangt. Als ATi noch richtig innovativ war mit dem R100 und R200 sind sie vom Käufer bestraft worden weil die Konkurrenz längere Balken erreicht hat. ATi hat den Spieß jetzt umgedreht und wird kurioserweise vom Käufer dafür belohnt, daß sie nicht innovativ sind.
:confused:
meines Wissens nach verkauft sich NV4x besser als R4xx. Somit wird ATI derzeit bestraft. Allerdings hilft ATI derzeit die geringe Verfügbarkeit der Produkte beider Hersteller.
Langsam gehst du mich mit deinem ewigen Anti-nV Gesabbel gehörig auf die Nerven.
Einfach ignorieren - dann macht ihm das bestimmt keinen Spaß mehr. :)
Exxtreme
2005-02-20, 14:27:04
:confused:
meines Wissens nach verkauft sich NV4x besser als R4xx. Somit wird ATI derzeit bestraft. Allerdings hilft ATI derzeit die geringe Verfügbarkeit der Produkte beider Hersteller.
Naja, wichtig was am Ende rauskommt. Und ATi fährt ein Rekordquartal nach dem anderen ein. Das war zu R100- und R200-Zeiten noch ganz anders. Es kann natürlich jetzt sein, daß die ATi-Geschäftsführung aus der Vergangenheit gelernt hat.
R420 kann aber "SM2.0b", das ist einen Buchstaben weiter als A.Ich hoffe du meinst das nicht ernst. SM2.0b ist wesentlich weniger als a
Ich habe weder von Shaderperformance noch von einem Vergleich NV40 vs R420 gesprochen. Wer lesen kann ...Schon klar, aber der Rest ist ziemlich irrelevant, weil der R420 darüber nicht verfügt. Somit kann sich schonmal gar kein Nachteil für NV40 ergeben.
reunion
2005-02-20, 14:34:06
Das wird ja immer lustiger. Da integriert man zwei nV - Exklusivfeatures (SM3.0 und HDR), versperrt damit einer überwältigenden Mehrheit der User die volle Qualität und kann eines davon nicht einmal mit dem Topmodel dieses Herstellers vernünftig nützen. Da muss man sich dann schon fragen warum ein Spieleentwickler einen solchen Entschuss fasst.
Offensichtlich dürften die finanziellen Anstrengungen von nV nicht unerheblich gewesen sein. Aktuell gibt es zwei Pfade die optimal in die Produktreihe von nV passen. Alle älteren NV3x-Karten sind auf SM1.1 beschränkt, die es auch der NV3x-Reihe erlauben ordentliche Bildwiederholraten zu liefern. Neuere Karten der NV4x-Reihe, haben darüberhinaus die Option mit SM3.0 und HDR das Bild aufzuwerten. Sämtliche bisher erhältlichen Karten der Konkurrenz sind mangels SM2.0 Modus natürlich auch auf SM1.1 beschränkt. Thats „The Way Its nV Mean To Be Played"!
SM 3.0 kann man vernünftig benützen, nur HDR ist halt recht Bandbreitenlimitiert.
Mal bissel objektiver bleiben bei der Sache...
deekey777
2005-02-20, 14:36:12
Ich hoffe du meinst das nicht ernst. SM2.0b ist wesentlich weniger als a
Ich hoffe, du hast es erfaßt.
Es war an ein Zitat aus Futurama anlehnt. Da ging's um Röntgenaugen mit dem Etikett "Z-Rays". Z-Rays sind besser als X-Ray, denn Z ist ja zwei Buchstaben weiter als X. ;)
mapel110
2005-02-20, 14:38:28
Das wird ja immer lustiger. Da integriert man zwei nV - Exklusivfeatures (SM3.0 und HDR), versperrt damit einer überwältigenden Mehrheit der User die volle Qualität und kann eines davon nicht einmal mit dem Topmodel dieses Herstellers vernünftig nützen. Da muss man sich dann schon fragen warum ein Spieleentwickler einen solchen Entschuss fasst.
Offensichtlich dürften die finanziellen Anstrengungen von nV nicht unerheblich gewesen sein. Aktuell gibt es zwei Pfade die optimal in die Produktreihe von nV passen. Alle älteren NV3x-Karten sind auf SM1.1 beschränkt, die es auch der NV3x-Reihe erlauben ordentliche Bildwiederholraten zu liefern. Neuere Karten der NV4x-Reihe, haben darüberhinaus die Option mit SM3.0 und HDR das Bild aufzuwerten. Sämtliche bisher erhältlichen Karten der Konkurrenz sind mangels SM2.0 Modus natürlich auch auf SM1.1 beschränkt. Thats „The Way Its nV Mean To Be Played"!
Wenn du jetzt noch bedenkst, dass Splinter Cell offenbar in erster Linie ein Xbox-Port(was steckt da nochmal für ein Graka-Prozzi drin?!) ist, dann hast du es verstanden. ;)
Quasar
2005-02-20, 15:26:07
Der SM3-Pfad bietet auch ohne HDR noch ein paar Nettigkeiten.
http://img116.exs.cx/img116/9179/splintercell32004022014294936s.th.png (http://img116.exs.cx/my.php?loc=img116&image=splintercell32004022014294936s.png)
http://img116.exs.cx/img116/8406/splintercell32004022014301530s.th.png (http://img116.exs.cx/my.php?loc=img116&image=splintercell32004022014301530s.png)
xL|Sonic
2005-02-20, 17:40:04
SM 3.0 kann man vernünftig benützen, nur HDR ist halt recht Bandbreitenlimitiert.
Mal bissel objektiver bleiben bei der Sache...
SM 2.X auch und ich bezweifel, dass SC3 unbedingt SM3 braucht und das SM2.X soviel langsamer gewesen wäre, wenn nicht sogar gleich schnell und was bleibt dann übrig? Richtig...HDR was nicht wirklich zu brauchbaren Framerates führt...
xL|Sonic
2005-02-20, 17:41:06
Wenn du jetzt noch bedenkst, dass Splinter Cell offenbar in erster Linie ein Xbox-Port(was steckt da nochmal für ein Graka-Prozzi drin?!) ist, dann hast du es verstanden. ;)
Nur kann die Xbox kein HDR und auch kein SM3.0 ;)
Demirug
2005-02-20, 17:43:02
Nur kann die Xbox kein HDR und auch kein SM3.0 ;)
Von welcher XBox renden wir? ;)
mapel110
2005-02-20, 17:44:55
Nur kann die Xbox kein HDR und auch kein SM3.0 ;)
tja, und auch keine SM2.? shader. :)
Jesus
2005-02-20, 17:45:57
SM 2.X auch und ich bezweifel, dass SC3 unbedingt SM3 braucht und das SM2.X soviel langsamer gewesen wäre, wenn nicht sogar gleich schnell und was bleibt dann übrig? Richtig...HDR was nicht wirklich zu brauchbaren Framerates führt...
Full ACK, wenigstens einer. Ganz schön schwierig gegen die versammelte Fanboy Mannschaft alleine anzutreten :rolleyes:
Tech Fanboy von mir aus, aber nicht nV Fanboy. Sonst hätte ich nicht letztes mal ATi gekauft.
Die Entwickler wollten sich die Arbeit von SM 2.0 halt nicht machen. Irgendwo verständlich. Aber das geht in eure Köpfe ja nicht rein.
Demirug
2005-02-20, 17:47:13
SM 2.X auch und ich bezweifel, dass SC3 unbedingt SM3 braucht und das SM2.X soviel langsamer gewesen wäre, wenn nicht sogar gleich schnell und was bleibt dann übrig? Richtig...HDR was nicht wirklich zu brauchbaren Framerates führt...
So wie es programmiert ist braucht es SM3.
Sicherlich wäre auch eine SM2.X Lösung machbar gewesen. Das Konzept dazu liegt als Ergebniss der Technischen Analyse sozusagen hier neben mir. Ist aber um einiges aufwendiger als die SM3 Lösung die SC3 einsetzt.
TheCounter
2005-02-20, 17:50:10
Von welcher XBox renden wir? ;)
Eher von der 1er, da die 2er sicher HDR beherrschen wird ;)
Vlt. gibts ja irgendwann doch noch einen Patch mit SM2.0/SM2.0b... obwohl, immerhin ist es Ubisoft und die haben keinen so tollen Support :(
Demirug
2005-02-20, 17:53:18
Eher von der 1er, da die 2er sicher HDR beherrschen wird ;)
Und was kann die 2er wohl auch?
Vlt. gibts ja irgendwann doch noch einen Patch mit SM2.0/SM2.0b... obwohl, immerhin ist es Ubisoft und die haben keinen so tollen Support :(
Welche Motivation gäbe es für einen solchen Schritt?
Mr. Lolman
2005-02-20, 17:57:30
Welche Motivation gäbe es für einen solchen Schritt?
Kundenzufriedenheit...
TheCounter
2005-02-20, 18:02:51
Und was kann die 2er wohl auch?
Na SM3.0 ;)
Welche Motivation gäbe es für einen solchen Schritt?
Das ist es ja, auf Rufe/Wünsche aus der Community legt Ubisoft sowieso absolut keinen Wert (Zumindest bis jetzt nicht). Ich würd auch 3EUR mehr zahlen für eine SM2.0b Version mit ein paar Grafikfeaturers des SM3.0 Pfades :>
LovesuckZ
2005-02-20, 18:02:53
Damit bezeichne ich die NV40 Serie jetzt mal ganz frech als Griff ins Klo.
Was ist dann der r420?
Eine Totgeburt, denn eine bessere Steigerung von " Griff ins Klo" gibt es wohl nicht.
Jetzt kommt auch noch die nV Mannschaft :rolleyes:
LovesuckZ
2005-02-20, 18:08:13
Jetzt kommt auch noch die nV Manschaft :rolleyes:
Es tut mir leid, aber da konnte ich einfach nicht wieder stehen...
-error-
2005-02-20, 18:29:05
Was ist dann der r420?
Eine Totgeburt, denn eine bessere Steigerung von " Griff ins Klo" gibt es wohl nicht.
Also erstmal:
Der R420 ist für ATI extrem gut. Vom R300 bis zum R420 gabs nur Optmierungen und Ausbaustufen, so hat man imense Entwicklungskosten gespaart und dafür darf ATI bei anderen Firmen shoppen gehen ;D
Besser kanns mans garnicht machen! Die X850XT PE ist schneller als die 6800Ulta und jetzt kommt der R520 und stampft alles in Boden :biggrin:
Nvidia brauchte nun 2 Anläufe, NV30,NV35, um ATI Paroli bieten zu können, was das gekostet hat will ich lieber nicht wissen :) Wenn ich mich nicht irre, soll die Entwicklung des NV40 300Millionen$ verschlungen haben.
Und dank 0.9µ Fertigung wird er wohl auch nicht so teuer für ATI werden.
Somit würde ich den R420 nicht mit einem Griff ins Klo bezeichnen ;)
mapel110
2005-02-20, 18:34:02
Und dank 0.9µ Fertigung wird er wohl auch nicht so teuer für ATI werden.
Juhu, ein Ontopic schnipsel. =)
Dabei kommts immernoch darauf an, wieviel Ausschuss sie produzieren. bzw wie die Verträge mit den Fertigern aussehen
Jetzt kommt auch noch die nV Manschaft :rolleyes:
Mannschaft. :kicher:
.
und jetzt kommt der R520 und stampft alles in BodenSpekuli Spekula ... :rolleyes:
LovesuckZ
2005-02-20, 18:48:34
Also erstmal:
[...]
Somit würde ich den R420 nicht mit einem Griff ins Klo bezeichnen ;)
Lese das mal in Zusammenhang mit dem, was Jesus geschrieben hat.
Demirug
2005-02-20, 18:55:01
Das ist es ja, auf Rufe/Wünsche aus der Community legt Ubisoft sowieso absolut keinen Wert (Zumindest bis jetzt nicht). Ich würd auch 3EUR mehr zahlen für eine SM2.0b Version mit ein paar Grafikfeaturers des SM3.0 Pfades :>
So verzweifelt?
Ich könnte ja jetzt fiess sein und dir eine Wette anbieten aber das darf ich ja nicht.
Mr. Lolman
2005-02-20, 18:57:00
Ich könnte ja jetzt fiess sein und dir eine Wette anbieten aber das darf ich ja nicht.
Sag schon, für wieviel Kohle würdest du's machen... :biggrin:
reunion
2005-02-20, 19:17:36
Wenn du jetzt noch bedenkst, dass Splinter Cell offenbar in erster Linie ein Xbox-Port(was steckt da nochmal für ein Graka-Prozzi drin?!) ist, dann hast du es verstanden. ;)
Man kann für alles eine Erklärung finden.
Ein SM2.0 Modus wäre trozdem das mindeste gewesen.
reunion
2005-02-20, 19:22:09
Und was kann die 2er wohl auch?
Und wie will man verhindern das dem R500 nicht ebenfalls die Bandbreite ausgeht?
Bisheriger Gerüchte sprechen ja mit im Vergleich zum NV40 lächerlichen 22.4Gb/s Bandbreite.
Quasar
2005-02-20, 19:27:39
Der integrierte eDRAM oder EDRAM oder edram oder eDrAm oder whatever sollte doch etwas höhere Geschwindigkeiten ermöglichen beim R500.
Demirug
2005-02-20, 19:28:27
Und wie will man verhindern das dem R500 nicht ebenfalls die Bandbreite ausgeht?
Bisheriger Gerüchte sprechen ja mit im Vergleich zum NV40 lächerlichen 22.4Gb/s Bandbreite.
Der Framebuffer soll ja direkt auf dem DIE integriert sein. Allerdings muss sich wirklich erst noch zeigen was das bringt.
Demirug
2005-02-20, 19:37:03
Sag schon, für wieviel Kohle würdest du's machen... :biggrin:
Auf dem regulären Weg würde das zu teuer werden.
Aber vielleicht bekomme ich ja noch Lust ubi in den Hintern zu treten.
reunion
2005-02-20, 19:47:45
Aber vielleicht bekomme ich ja noch Lust ubi in den Hintern zu treten.
:massa:
An was denkst du?
Demirug
2005-02-20, 20:08:18
:massa:
An was denkst du?
An vieles aber das meiste davon hat hiermit nichts zu tun.
Die technische Analyse die ich gemacht habe hat lediglich ergeben das die Effekte auch mit 2.X machbar sind und man das ganze dann natürlich dem Spiel auch unterschieben kann.
xL|Sonic
2005-02-20, 20:08:31
Wenn SM3.0 doch so toll und viel besser und billiger ist als SM2.X, warum hat denn dann Ubi nicht generell auf alles verzichtet, was kleiner als SM3.0 ist...so isses doch wohl am kostengünstigsten und einfachsten. Wenn man auf SM2.X verzichtet, kann man ja auch SM1.X verzichten ;)
Demirug
2005-02-20, 20:09:48
Wenn SM3.0 doch so toll und viel besser und billiger ist als SM2.X, warum hat denn dann Ubi nicht generell auf alles verzichtet, was kleiner als SM3.0 ist...so isses doch wohl am kostengünstigsten und einfachsten. Wenn man auf SM2.X verzichtet, kann man ja auch SM1.X verzichten ;)
Weil sie SM1.1 doch schon von der XBox hatten und für diese auch brauchte.
Weil man SM 1.1 für die XBox (1) sowieso machen musste.
Exxtreme
2005-02-20, 20:10:34
Wenn SM3.0 doch so toll und viel besser und billiger ist als SM2.X, warum hat denn dann Ubi nicht generell auf alles verzichtet, was kleiner als SM3.0 ist...so isses doch wohl am kostengünstigsten und einfachsten. Wenn man auf SM2.X verzichtet, kann man ja auch SM1.X verzichten ;)
Ubi will das Spiel wahrscheinlich auch für die Xbox anbieten. Und die Xbox kann auch nur <PS1.4.
Mr. Lolman
2005-02-20, 20:11:19
Die technische Analyse die ich gemacht habe hat lediglich ergeben das die Effekte auch mit 2.X machbar sind und man das ganze dann natürlich dem Spiel auch unterschieben kann.
ich würd nur lachen, wenn 2.x dann auch wirklich schneller wär...
Kann man das nicht irgendwie abschätzen, nach ner technischen Analyse?
xL|Sonic
2005-02-20, 20:12:35
Naja, SC3 kommt doch auch für den GC und PS2 und da ist das doch auch alles anders programmiert oder nicht?
Arbeit ensteht also so oder so.
Entwickelt denn das gleiche Team, was die Xbox Fassung macht auch die PC Version oder arbeiten 2 teams daran?
ich würd nur lachen, wenn 2.x dann auch wirklich schneller wär...Du meinst wohl: Ich würde lachen, wenn R420 mit 2.x dann schneller wäre. Auf Hardware die beides kann wird das sicher nicht so sein.
Demirug
2005-02-20, 20:38:42
ich würd nur lachen, wenn 2.x dann auch wirklich schneller wär...
Kann man das nicht irgendwie abschätzen, nach ner technischen Analyse?
Nein, weil man dabei nur im begrenzten Rahmen prüfen kann wie stark das Spiel die unterschiedlichen Shader wirklich benutzt. In diesem Fall kommt noch das statische Branching dazu.
Auf jeden Fall wäre es aber ein leichtes eine Krücke von SM 2.X Pfad zu schreiben wenn man das Konzept 1:1 überträgt. Also für jeden 3.0 Shader einen 2.X Shader mit den gleichen Möglichkeiten einsetzt. Bei Farcry war dies zum Beispiel möglich was dann einen Downport von 30 auf 2.X auch sehr einfach machte.
seahawk
2005-02-20, 20:41:55
ich würd nur lachen, wenn 2.x dann auch wirklich schneller wär...
Kann man das nicht irgendwie abschätzen, nach ner technischen Analyse?
Davon würde ich ausgehen, wenn jetzige NV Hardware gegen ATI vergleicht.
Warum das denn? Shadermäßig ist NV40 ziemlich gut und er hätte weniger Passes zu rendern.
-error-
2005-02-20, 22:42:47
Spekuli Spekula ... :rolleyes:
Wieso? Doppelt so schnell wie die jetzige Genartion wird er ganz bestimmt sein.
Und das ist schon gewaltig!
Das wird doch jedesmal behauptet.
dildo4u
2005-02-20, 22:48:04
Wieso? Doppelt so schnell wie die jetzige Genartion wird er ganz bestimmt sein.
Und das ist schon gewaltig!
Wie das PS3.0 plus mher pipes und dann noch mher als 500mhz chiptakt mit welcher fertigung?Das sind locker 200+ million Transistoren
Polak
2005-02-20, 22:50:07
Das wird doch jedesmal behauptet.
Wieso behauptet?
Der R420 ist doch doppelt so schnell wie der R350.
Bei Nvidia ist das sogar mehr, da die FX ziemlich schlecht war.
dildo4u
2005-02-20, 22:50:49
Wieso behauptet?
Der R420 ist doch doppelt so schnell wie der R350.
Bei Nvidia ist das sogar mehr, da die FX ziemlich schlecht war.
Da wurde aber auch am AF gedreht bei beiden
Exxtreme
2005-02-20, 22:57:48
Das wird doch jedesmal behauptet.
ATi hat's aber auch jedes Mal hingekriegt. :)
nV aber auch. Daher find ich das "R520 wird alle in den Boden stampfen" reichlich übertrieben.
Polak
2005-02-20, 23:22:16
nV aber auch. Daher find ich das "R520 wird alle in den Boden stampfen" reichlich übertrieben.
Logik?
Du sagst, dass Nvidia es auch hinbekommen hat, dass der NV40 mindestens doppelt so schnell ist wie die FX. Warum darf nun der R520 nicht doppelt so schnell wie der R420 sein?
Weil ich bisher noch keine Leistungsverdopplung gesehen habe. Außer vielleicht in extremen Auflösungen.
-error-
2005-02-20, 23:37:50
nV aber auch. Daher find ich das "R520 wird alle in den Boden stampfen" reichlich übertrieben.
Ja gut, das bezog sich eher auf das bisher Dargewesehne. Es kann dann gut sein, dass der NV50 wieder schneller sein wird, der kommt ja auch später.
deekey777
2005-02-20, 23:51:39
Logik?
Du sagst, dass Nvidia es auch hinbekommen hat, dass der NV40 mindestens doppelt so schnell ist wie die FX. Warum darf nun der R520 nicht doppelt so schnell wie der R420 sein?
[schadensfreudemodusan]
Bei der FX-Serie war das auch nicht sehr schwer.*
[schadensfreudemodusaus]
Ob der R520 viel schneller (2x) als seine Vorgänger sein wird, steht in den Sternen, denn der R420 und seine Brüder&Schwestern sind nicht gerade lahme Krücken. Das gleiche gilt wohl für die NV40er und deren Nachfolger.
*Bei richtig fetten DX9-Titeln.
Ailuros
2005-02-21, 00:58:28
Schaut Euch mal ganz genau die Anzahl der quads bei R3xx im Vergleich zu R4xx an und auch die Steigerung in Bandbreite und dann koennt ihr ja nachdenken was genau in low-k 90nm reinpassen wuerde und mit welcher Frequenz.
Angenommen NV bastelt tatsaechlich an einem 6 quad "NV47" mit "nur" 16 ROPs und 8VS. Mit 400MHz wird er im besten Fall bis zu 50% schneller sein als 6800Ultra (shaderlastige Situationen oder AF z.B.) ansonsten in Analogie zur Steigerung der Bandbreite im Vergleich zu NV40.
Fast 10GPixels/sec sind eine enorm hohe Fuellrate, aber ohne die analoge Bandbreite, wird jeglicher chip auf das obrige begrenzt sein. Ich komme uebrigens auf die etwa gleiche Fuellrate mit 600MHz und 4 quads. Etwas grossgrueziger waere ich mit der letzten Taktrate aber mit der Anzahl der quads eben nicht.
Ailuros
2005-02-21, 01:05:38
Ob der R520 viel schneller (2x) als seine Vorgänger sein wird, steht in den Sternen, denn der R420 und seine Brüder&Schwestern sind nicht gerade lahme Krücken. Das gleiche gilt wohl für die NV40er und deren Nachfolger.
X850XT PE liegt bei 540/590MHz. Wage ich jetzt etwas mehr zu spekulieren und denke an 650/700MHz fuer R520, sieht es nach einer Steigerung an Fuellrate und Bandbreite von ~20% aus; ein bisschen mehr als das wird es auf jeden Fall sein, durch die neue interne Speicherverwarltung ueber die gemunkelt wird, aber es ist auf jeden Fall meilenweit entfernt von +100%.
Der Vergleich zwischen R3xx/2 quads und R4xx/4 quads ist eigentlich leicht, weil die Aenderungen zwischen den beiden pro quad ziemlich klein sind. Ein SM3.0 quad ist dann schon ganz was anderes.
StefanV
2005-02-21, 08:35:53
nV aber auch. Daher find ich das "R520 wird alle in den Boden stampfen" reichlich übertrieben.
Öhm, nö.
Der nV20 war nicht wirklich schneller als der nV10, der R200 war aber etwa doppelt so schneill wie der R100 ;)
robbitop
2005-02-21, 08:58:28
Öhm, nö.
Der nV20 war nicht wirklich schneller als der nV10, der R200 war aber etwa doppelt so schneill wie der R100 ;)
NV20 war mindestens doppelt so schnell wie NV10.
Quasar
2005-02-21, 09:02:42
Der nV20 war nicht wirklich schneller als der nV10,[...]
Ich glaube, du verwechselst da was, Stefan...
reunion
2005-02-21, 10:45:54
Öhm, nö.
Der nV20 war nicht wirklich schneller als der nV10, der R200 war aber etwa doppelt so schneill wie der R100 ;)
NV10 = geforce1
NV20 = geforce3
;)
reunion
2005-02-21, 10:56:08
Logik?
Du sagst, dass Nvidia es auch hinbekommen hat, dass der NV40 mindestens doppelt so schnell ist wie die FX. Warum darf nun der R520 nicht doppelt so schnell wie der R420 sein?
Weil man die dazu nötige Bandbreite praktisch nicht realisieren kann. Bereits R480 hägt extrem an der Bandbreite, wirklich schnellere Speicher ist aktuell allerdings nicht verfügar. Ich glaube nicht das sich ATi auf irgendwelche "Experimente" wie ein 384bit Speicherinfance oder XDR RAM ect. einlässt. Somit sind die Möglichkeiten zur Leistungssteigerung aktuell arg begrenzt.
Hörnchen
2005-02-21, 14:57:13
Weil man die dazu nötige Bandbreite praktisch nicht realisieren kann. Bereits R480 hägt extrem an der Bandbreite, wirklich schnellere Speicher ist aktuell allerdings nicht verfügar. Ich glaube nicht das sich ATi auf irgendwelche "Experimente" wie ein 384bit Speicherinfance oder XDR RAM ect. einlässt. Somit sind die Möglichkeiten zur Leistungssteigerung aktuell arg begrenzt.
Wer weiss, beim R300 hat ATI ja auch mit 256 bit überrascht und Nvidia hat erst mit dem NV35 nachgezogen. Durch anscheinende Nichtverfügbarkeit von GDDR3 800MHz und höher werden die zukünftigen Chips noch mehr als die jetzigen an der Bandbreite hängen. Keine Ahnung ob das so gut ist.
Könnte natürlich auch sein, das Nvidia und ATI sich das für NV50 bzw R600 aufheben.
*schulterzuck*
ironMonkey
2005-02-21, 15:36:12
Wer weiss, beim R300 hat ATI ja auch mit 256 bit überrascht und Nvidia hat erst mit dem NV35 nachgezogen. Durch anscheinende Nichtverfügbarkeit von GDDR3 800MHz und höher werden die zukünftigen Chips noch mehr als die jetzigen an der Bandbreite hängen. Keine Ahnung ob das so gut ist.
Könnte natürlich auch sein, das Nvidia und ATI sich das für NV50 bzw R600 aufheben.
*schulterzuck*
Da muss man sich halt was einfallen lassen, siehe FX 5800 Ultra - 6600GT, haben beide 128bit/500MHz, der R300/350 war eigentlich schon fast zu gut bedient vom 256bit interface, merkt man wenn man den Speichertakt senkt, außerdem wars sicher nicht billig.
Hörnchen
2005-02-21, 16:09:50
Da muss man sich halt was einfallen lassen, siehe FX 5800 Ultra - 6600GT, haben beide 128bit/500MHz, der R300/350 war eigentlich schon fast zu gut bedient vom 256bit interface, merkt man wenn man den Speichertakt senkt, außerdem wars sicher nicht billig.
Stimmt schon, andererseits zahlen ja viele sowieso die entsprechenden Preise für HighEnd, manche für SLI auch doppelt. Wie ja bekannt, war und ist es mit der Verfügbarkeit von den HighEnd Karten ja nicht sooo rosig, für Retailkunden wohlgemerkt. Einige OEMs hatten und haben da anscheinend weniger Probleme.
So, bedingt durch die schlechte Verfügbarkeit haben ja so einige mehr bis wesentlich mehr bezahlt als angedachter Straßenpreis. Das Geld muss also vorhanden sein und die, von mir geschätzten 50 bis 100 Euro Mehrpreis für 384 bit, sind von einigen für jetzige 256 bit ja eh wegen schlechter Verfügbarkeit bezahlt worden.
Was steht also einem 384 bit Interface, bei vielleicht in Zukunft besserer Verfügbarkeit, bei dieser Zahlungsbereitschaft um des Habens willen von Kunden, entgegen? Wer es sich leisten kann, kauft es eh und OEMs würden bestimmt nicht entsprechende Mengen von HighEnd Karten ordern, wenn es sich nicht lohnen würde.
Tarkin
2005-02-21, 21:10:15
"some prototype testing" @ Driverheaven
http://www.driverheaven.net/showthread.php?t=68684&page=1&pp=15
knapp über 40.000 beim 3DMark 2001
R520 Prototyp?! oder 2 X850 mit AMR? :eek:
... die Karte wurde laut Zardon nicht übertaktet
dildo4u
2005-02-21, 21:13:47
"some prototype testing" @ Driverheaven
http://www.driverheaven.net/showthread.php?t=68684&page=1&pp=15
knapp über 40.000 beim 3DMark 2001
R520 Prototyp?! oder 2 X850 mit AMR? :eek:
... die Karte(n) wurde laut Zardon nicht übertaktet
Das bekommt man auch mit na X800XT hin warum testet man eine DX9 PS3.0 karte mit einem 4jahre alten extrem CPU lastigen DX7-8 Benchmark?Stingt nach fake mit einem P4EE mit 4.3ghz kommt man nich mal über 35000 punkte.
Würde ich auch sagen. Voodoojack kriegt mit einer x850xtpe und P4EE@3,85
30000pts. Für 40000 brauchts schon mehr als nen P4EE@4,3.
Wieviel pts hat denn Tombman eigentlich?
mapel110
2005-02-21, 21:42:53
hm, wieviel waren es nochmal vor dem FX launch? da gabs doch auch ominöse 22000 (?!) 3dmark01er?! Das übliche Gefake vor einem grossen Launch sag ich dazu mal nur.
Tarkin
2005-02-21, 22:46:38
hm, wieviel waren es nochmal vor dem FX launch? da gabs doch auch ominöse 22000 (?!) 3dmark01er?! Das übliche Gefake vor einem grossen Launch sag ich dazu mal nur.
wenn zardon sowas posted, dann stimmt das auch... nix gefaked!
TheCounter
2005-02-21, 22:49:25
Das bekommt man auch mit na X800XT hin warum testet man eine DX9 PS3.0 karte mit einem 4jahre alten extrem CPU lastigen DX7-8 Benchmark?Stingt nach fake mit einem P4EE mit 4.3ghz kommt man nich mal über 35000 punkte.
Die Karte war @ Aircooling und NICHT übertaktet. Er hat schon gepostet das das kein "review" war und er eigentlich auch nix über die Karte schreiben darf (Weswegen sie im Bild auch unkenntlich gemacht wurde).
Ich würde auch auf einen R520 tippen. 40k Punkte @ Stock is schon sehr beeindruckend. Ich würde zugern 3DM03/05 Punkte sehen :D
Tarkin
2005-02-21, 22:52:27
Das bekommt man auch mit na X800XT hin warum testet man eine DX9 PS3.0 karte mit einem 4jahre alten extrem CPU lastigen DX7-8 Benchmark?Stingt nach fake mit einem P4EE mit 4.3ghz kommt man nich mal über 35000 punkte.
aber nicht auf Standardtakt ... Zardon sagt, die Karte (oder Karten *g*) wurden nicht übertaktet.
was für einen Grund hätte er denn, hier zu faken?
lest bitte vorher den thread, bevor ihr euch beschwert.
es handelt sich hier definitiv um Prototypen-Hardware. Ob R520 oder 2xR480 wird sich schätze ich Ende dieser Woche auf dem großen "Texas Gaming Festival" herausstellen...
deekey777
2005-02-21, 22:54:13
wenn zardon sowas posted, dann stimmt das auch... nix gefaked!
Zardon ist auch ein Beta-Tester, wenn mich nicht alles täuscht.
Auf dem Bild ist zumindest eine Grafikkarte mit einer Dual-Slotkühlung zu sehen.
PS: Ich brauchte für dieses Posting etwa 10 Minuten, darum sieht es wie Wiederholung meiner Vor"poster".
TheCounter
2005-02-21, 22:57:03
es handelt sich hier definitiv um Prototypen-Hardware. Ob R520 oder 2xR480 wird sich schätze ich Ende dieser Woche auf dem großen "Texas Gaming Festival" herausstellen...
Der R520 wird nicht auf dem Festival gezeigt, wurde schon von ATi bestätigt. Es gibt dort nur X850XT-PE Karten und etwas neues von dem wohl noch keiner weis (IMHO RS48x Board mit AMR; vlt. is das auch zu optimistisch, aber ich glaub einfach mal dran ;)).
dildo4u
2005-02-21, 22:58:29
aber nicht auf Standardtakt ... Zardon sagt, die Karte (oder Karten *g*) wurden nicht übertaktet.
was für einen Grund hätte er denn, hier zu faken?
lest bitte vorher den thread, bevor ihr euch beschwert.
es handelt sich hier definitiv um Prototypen-Hardware. Ob R520 oder 2xR480 wird sich schätze ich Ende dieser Woche auf dem großen "Texas Gaming Festival" herausstellen...
Das probelm ist das es mit dieser cpu nicht möglich ist 40000 punkte zu machen da selbst der nature test bei den moderen karte cpu lastig ist aber egal ergibt immer noch kein sinn.Aber wir harren der dinge die da kommen ich denk mal eher AMR als R520 ist zu früh.
Tarkin
2005-02-21, 23:00:53
btw:
http://www.xtremesystems.org/forums/showthread.php?t=36140
ein Intel P4 EE@4660 + Radeon X800 XT PE @ 673/661 hat ca. 35.000 marks
damit zardon mit seinem P4 (4.3GHz) auf 40.000 kommt, müsste er eine X800 schon auf min. 800 oder 900 MHz GPU und 800MHz Speicher übertakten ... oder so ähnlich :D
oder einfach nen r520 prototypen verwenden :tongue:
dildo4u
2005-02-21, 23:03:15
btw:
http://www.xtremesystems.org/forums/showthread.php?t=36140
ein Intel P4 EE@4660 + Radeon X800 XT PE @ 673/661 hat ca. 35.000 marks
damit zardon mit seinem P4 (4.3GHz) auf 40.000 kommt, müsste er eine X800 schon auf min. 800 oder 900 MHz GPU und 800MHz Speicher übertakten ... oder so ähnlich :D
oder einfach nen r520 prototypen verwenden :tongue:
Wie gesagt druch mehr GPU takt reicht man nicht mher solche zuwäches ganz einfach weils ein Uralter DX8 bench ist.
mapel110
2005-02-21, 23:10:59
Wie gesagt druch mehr GPU takt reicht man nicht mher solche zuwäches ganz einfach weils ein Uralter DX8 bench ist.
ack,
er könnte den Bench vielleicht auch in 640x480 laufen gelassen haben, steht ja schliesslich nicht dabei.
3DMark 01 ist doch eh weitgehendst CPU limitiert inzwischen dachte ich?
dildo4u
2005-02-21, 23:14:02
ack,
er könnte den Bench vielleicht auch in 640x480 laufen gelassen haben, steht ja schliesslich nicht dabei.
Ja und das hätte es bei cpu limitierung ja auch nicht gebracht.Übrigenz hat er dieser Krüppel P4EE auf Prescott basis gehabt was die ganze sache noch unwahrscheinlicher macht.
Siehe hier der prescott EE liegt nur hauchdünn vor dem alten P4EE mit wesentlich mher mhz
http://www.computerbase.de/artikel/hardware/prozessoren/2005/intels_pentium_4-prozessoren/18/#abschnitt_3dmark2001se
Demirug
2005-02-21, 23:14:30
Zufällig jemand eine Ahnung wo das CPU limit bei 2001er bei dem entsprechenden P4 liegt?
dildo4u
2005-02-21, 23:20:20
Zufällig jemand eine Ahnung wo das CPU limit bei 2001er bei dem entsprechenden P4 liegt?
Das ist der flotteste P4EE im orb mit 4.6GHZ
http://service.futuremark.com/compare?2k1=8426669
Hier vom takt her sehr ähnlich OC X800XT aber mit 3.5GHZ A64
http://service.futuremark.com/compare?2k1=8404379
mapel110
2005-02-21, 23:24:54
Das ist der flotteste P4EE im orb mit 4.6GHZ
http://service.futuremark.com/compare?2k1=8426669
Hier vom takt her sehr ähnlich OC X800XT aber mit 3.5GHZ A64
http://service.futuremark.com/compare?2k1=8404379
Beim naturetest nur 6 fps unterschied, sonst wesentlich mehr. könnte sein, dass da noch was geht mit Grafikkartenspeed.
dildo4u
2005-02-21, 23:26:49
Beim naturetest nur 6 fps unterschied, sonst wesentlich mehr. könnte sein, dass da noch was geht mit Grafikkartenspeed.
Jap aber der test zählt auch nicht mher als die anderen high tests und wie gesagt er hatte den Krüppel P4EE also mit 4.3ghz nicht mal ansatzweise die cpu power eines "echten" P4EE mit 4.6GHZ
Demirug
2005-02-21, 23:30:56
Das ist der flotteste P4EE im orb mit 4.6GHZ
http://service.futuremark.com/compare?2k1=8426669
Hier vom takt her sehr ähnlich OC X800XT aber mit 3.5GHZ A64
http://service.futuremark.com/compare?2k1=8404379
Danke. Aber das sind ja reguläre Testläufe. Für die reine CPU Speed braucht man ein NULL-Device dahinter.
Also ich hab mal mit der Punkteberechnungsformel gespiellt. Und der P4EE 4,6
müsste im Naturetest in etwa 500fps haben um auf 40000pts zu kommen. Die anderen Tests wird eine schnellere Graka eher weniger interessieren, da diese ja durch den A64 deutlich schneller werden => wohl CPU-Limitiert.
Und wenn man denn noch bedenkt, dass der Typ mit den angeblichen 40000pts nur einen P4EE 4,3 hatte müssten es wohl eher noch mehr als 500fps sein um die schwache CPU auszugleichen.
Ich weiss nicht, ob ein r520 wirklich so schnell ist...
ironMonkey
2005-02-21, 23:58:05
Also ich hab mal mit der Punkteberechnungsformel gespiellt. Und der P4EE 4,6
müsste im Naturetest in etwa 500fps haben um auf 40000pts zu kommen. Die anderen Tests wird eine schnellere Graka eher weniger interessieren, da diese ja durch den A64 deutlich schneller werden => wohl CPU-Limitiert.
Und wenn man denn noch bedenkt, dass der Typ mit den angeblichen 40000pts nur einen P4EE 4,3 hatte müssten es wohl eher noch mehr als 500fps sein um die schwache CPU auszugleichen.
Ich weiss nicht, ob ein r520 wirklich so schnell ist...
Das *Card(s)* wie der User Zardon dort schreibt lässt wohl was anderes erahnen als R520
Tarkin
2005-02-22, 00:02:12
Also ich hab mal mit der Punkteberechnungsformel gespiellt. Und der P4EE 4,6
müsste im Naturetest in etwa 500fps haben um auf 40000pts zu kommen. Die anderen Tests wird eine schnellere Graka eher weniger interessieren, da diese ja durch den A64 deutlich schneller werden => wohl CPU-Limitiert.
Und wenn man denn noch bedenkt, dass der Typ mit den angeblichen 40000pts nur einen P4EE 4,3 hatte müssten es wohl eher noch mehr als 500fps sein um die schwache CPU auszugleichen.
Ich weiss nicht, ob ein r520 wirklich so schnell ist...
500fps?!?
hm... auf einem 4.5 GHz P4 hat ne X800XT @ 751/666 ~ 330fps
also für 500fps würden glaub ich nicht mal zwei X850 XT's ausreichen
Vielleich hat er ja in 640*480 gebencht. Der Naturetest ist auf jedenfall wohl die einzige möglichkeit so viele Punkte zu bekommen, da die anderen Test auf einem P4EE 4,6 anscheinend noch arg CPU-Limitiert sind.
deekey777
2005-02-22, 00:23:05
Das *Card(s)* wie der User Zardon dort schreibt lässt wohl was anderes erahnen als R520
Hm?
Du beziehst dich doch auf dieses Posting:
"yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
Das war wohl auf diesen "He" bezogen.
In seinem Eröffnungsposting steht doch klar:
The processor is the forthcoming EE from intel overclocked quite high (4.3ghz+), with 4 gig of DDR2 running at 800mhz and a video card from....well ........
Series 5?
War nur ein scherz...
Es ist mitdestens eine X850 irgendwas (siehe die Dual-Slotkühlung).
TheCounter
2005-02-22, 01:54:51
:| 500fps?!?
hm... auf einem 4.5 GHz P4 hat ne X800XT @ 751/666 ~ 330fps
also für 500fps würden glaub ich nicht mal zwei X850 XT's ausreichen
Also es ist auf jedenfall eine neue ATi Karte (Siehe "you will find out when ever ATI gives the green to do so!), aber keine X850XT-PE (Die sind ja schon erhältlich und kein Prototyp mehr).
Übrigens schöner Post von Athlon64user:
http://www.driverheaven.net/showpost.php?p=557770&postcount=43
>500 FPS im Nature Test, die Graka müsste ja Power ohne Ende haben :|
Ziemlich interessant, ich hoffe es gibt bald mehr Informationen.
Bibolator
2005-02-22, 07:34:55
Hm?
Du beziehst dich doch auf dieses Posting:
"yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
Das war wohl auf diesen "He" bezogen.
In seinem Eröffnungsposting steht doch klar:
The processor is the forthcoming EE from intel overclocked quite high (4.3ghz+), with 4 gig of DDR2 running at 800mhz and a video card from....well ........
Series 5?
War nur ein scherz...
Es ist mitdestens eine X850 irgendwas (siehe die Dual-Slotkühlung).
4 GB RAM?
Hmm vielleicht eine spezielle 64Bit 3DMurks Version wo die 64Bit voll durchschlagen und sich deshalb eine angeblich so hohe Punktzahl ergibt?
Könnte natürlich auch ein bis zum Anschlag optimierter Treiber sein. Oder alles zusammen.
robbitop
2005-02-22, 08:16:36
eine X850 ist ja auch so noch nicht AMR-fähig. Somit ist bereits ein X850 mit AMR Fähigkeit ein Prototyp ;).
Ich vermute, AMR geht schon mit R480, benötigt jedoch ein neues PCB, einen anderen Chipsatz und einen modfizierten treiber ...oder so :|
seahawk
2005-02-22, 08:33:16
Wenn es wirklich nur eine Karte ist, dann könnte diese Karte eine 6800Ultra-SLI Gespann schlagen.
Aber eigentlich habe ich von ATI nichts anderes erwartet.
TheCounter
2005-02-22, 12:00:58
eine X850 ist ja auch so noch nicht AMR-fähig. Somit ist bereits ein X850 mit AMR Fähigkeit ein Prototyp ;).
Ich vermute, AMR geht schon mit R480, benötigt jedoch ein neues PCB, einen anderen Chipsatz und einen modfizierten treiber ...oder so :|
Also auf dem Foto ist zumindest nur 1 Karte zu erkennen :)
Ob ein R480 nun schon AMR unterstützt oder nicht sehen wir in 3 Tagen. Wir bekommen auf jedenfall neue ATi HW zu Gesicht, laut ATi etwas von dem noch keiner weis (Keine neue Graka, es gibt wie gesagt nur X850XT-PE's).
reunion
2005-02-22, 15:19:14
Ob ein R480 nun schon AMR unterstützt oder nicht sehen wir in 3 Tagen. Wir bekommen auf jedenfall neue ATi HW zu Gesicht, laut ATi etwas von dem noch keiner weis (Keine neue Graka, es gibt wie gesagt nur X850XT-PE's).
INQ glaubt an eine 512MB X850:
http://www.theinquirer.net/?article=21382
DrumDub
2005-02-22, 15:38:38
INQ glaubt an eine 512MB X850:
http://www.theinquirer.net/?article=21382
:ulol: sorry, aber das macht imho keinen sinn.
TheCounter
2005-02-22, 15:45:16
INQ glaubt an eine 512MB X850:
http://www.theinquirer.net/?article=21382
Laut ATi wird dort keine neue Grafikkarte vorgestellt, dort soll es normale X850XT-PE's geben.
Schade das ich den Thread/Post dazu nichtmehr finde.
deekey777
2005-02-22, 16:13:21
INQ glaubt an eine 512MB X850:
http://www.theinquirer.net/?article=21382
"ATI, of course, wouldn't tell us what it is it has up its sleeves. Sources outside of ATI also indicate to us that a 512MB part is imminent. If we're wrong, we'll just have to eat our GPUs."
Na dann, Mahlzeit.
dildo4u
2005-02-22, 16:16:49
:ulol: sorry, aber das macht imho keinen sinn.
Warum für AMR schon den nv45 wirds ja auch mit 512mb geben.
DrumDub
2005-02-22, 16:34:03
Warum für AMR schon den nv45 wirds ja auch mit 512mb geben.
den "satz" versteh ich nicht...
was soll denn einem spieler ne karte mit 512mb bei sli bzw. amr bringen?
nv45 gibt übrings schon mit 512 mb: http://www.pny.com/products/quadro/fx/4400PciEx.asp
dildo4u
2005-02-22, 16:36:31
den "satz" versteh ich nicht...
was soll denn einem spieler ne karte mit 512mb bei sli bzw. amr bringen?
nv45 gibt übrings schon mit 512 mb: http://www.pny.com/products/quadro/fx/4400PciEx.asp
Naja mit sli/amr kann man ja eher hohe Auflösungen fahren als mit einer Singel Karte da könnnten ja bei dem ein oder anderem Game die 256MB zu wenig werden.
deekey777
2005-02-22, 16:40:28
Naja mit sli/amr kann man ja eher hohe auflösungen fahren als mit einer singel karte da könnnte ja bei dem ein oder anderem game die 256MB zu wenig werden.
Mit SLI(AMR) wird der Grafikkartenspeicher aber nicht addiert(2xGeforce 6800 Ultra haben immer noch 256 MB), oder schreibe ich an dir vorbei?
Dass aber höhere Auflösungen und/oder höhere AA-Stufen erreicht werden können, liegt eher an der verbesserten Leistung durch den SLI-Verbund.
dildo4u
2005-02-22, 16:41:29
Mit SLI(AMR) wird der Grafikkartenspeicher aber nicht addiert(2xGeforce 6800 Ultra haben immer noch 256 MB), oder schreibe ich an dir vorbei?
Dass aber höhere Auflösungen und/oder höhere AA-Stufen erreicht werden können, liegt eher an der verbesserten Leistung durch den SLI-Verbund.
Das mein ich ja deswegen könnten ja die 256mb zu wenig werden.
Hellfire-Torrod
2005-02-22, 16:42:08
Mit SLI(AMR) wird der Grafikkartenspeicher aber nicht addiert(2xGeforce 6800 Ultra haben immer noch 256 MB), oder schreibe ich an dir vorbei?
Dass aber höhere Auflösungen und/oder höhere AA-Stufen erreicht werden können, liegt eher an der verbesserten Leistung durch den SLI-Verbund.
Und erst ab dieser Leistung werden 512MB auch gebraucht. So wird er es wohl meinen :smile:
DrumDub
2005-02-22, 16:53:37
für ssaa und hohe auflösungen machen 512mb ja eventuell noch sinn, aber bisher gibts nur die quadro 4400 und die beiden karten von 3dlabs mit 512mb. ist also für den profibereich gedacht...
weiterhin hat tombman ja schon daruf hingewiesen, dass die normalen 6800u im sli-verbund nicht die maximale auflösungen fahren können, was wahrscheinlich ne treiberlimitierung ist, die nv gerade wegen des profibereichs eingebaut hat.
daher glaube ich nicht, dass ati jetzt mit ner x850 mit 512mb auf einer spieleveranstaltung vorprescht... es passt einfach nicht zu atis strategie.
seahawk
2005-02-22, 18:46:47
Nicht unbedingt.
Zu einem liegen sie damit beim Schwanzlängevergleich auf der Verpackung wieder gleich auf. SM3.0 besser als SM2.0, dafür aber 512MB > 256MB.
Zu anderen könnten sie Benches in 1600x1280 oder höher mit 4xAA machen lassen und so den Abstand zur NV-Karte maximieren.
Tarkin
2005-02-22, 20:28:24
Zardon spricht wieder ;)
"Well you see you are sucked into the ATI hype. I never said in the first post the GFX in the test rig was ATI. everyone just assumes it is an ATI card(s) because we are "ATI friendly" here and there is a "red" tinge to the blurring. I cannot post information on the setup we are testing but there is more unreleased hardware than just the GFX card involved within that test system.
The inquirer posted a story about a 512 card from ATI being released soon and pointed to this site and this thread, im just saying that these tests have nothing to do with a currently available GFX technology with additional ram.
I know there are a million and one questions but I cant answer them for legal reasons, I will say, there are good times ahead in 2005."
nun... es ist sicher ne ATi Karte, soviel steht fest (das es jetzt versucht in eine andere Richtung zu deuten ist klar *g*... netter Versuch).
was "more unreleased hardware than just the GFX card" angeht, so ist wohl das Mainboard gemeint (ein Asus Board mit ATi Intel Chipsatz... man kann das "A" vom Asus logo auf der Northbridge erkennen)
http://www.driverheaven.net/zardon/yum.jpg
deekey777
2005-02-22, 20:55:49
Well, there has been quite a bit of rumour and speculation about some new high end ATI hardware coming out shortly and I cant deny or confirm it, however as our regulars know, Terry and guys at ATI are always helping our members on DH with their ati related problems, sites like inquirer have been posting information that there will be a 512 meg card out shortly. I can tell you this, there will be some new COOL hardware soon, and if you all get over to the dallas lan event - you will all be in for a nice surprise. Last time ATI commissioned Kyle from All American Computers to buld a custom system, it was a system that made everyone drool and we covered it last time on Driverheaven.
This time however, the stakes are raised and i can tease you with some images from the forthcoming Texas Gaming Festival.
http://www.driverheaven.net/index.php?#news68923
Die Antwort von Zardon auf die News von TheInq:
There will indeed be a 512 meg card showing up very soon and for those of you going to Dallas for the lan event you will be in for some nice surprises. However the first post in this thread is certainly is not a "currently released card with 512 meg of ram".
http://www.driverheaven.net/showpost.php?p=558333&postcount=73
TheCounter
2005-02-22, 20:56:42
Schade das ich den Thread/Post dazu nichtmehr finde.
Gefunden :)
Oh one other thing, I am kind of concerned with the direction the thread is taking...everyone thinks we're going to be doing a big reveal of some sort. That's most likely not going to happen. They might see a motherboard that they haven't seen before but that's about it. I am hoping that all three of you will work together to beat any existing records as opposed to it being a competition. I understand each of you have different techniques and there will always be some friendly rivarlry.
Und:
Just to clarify on the Dallas event so that everyone knows what's going to happen, as there seems to be some confusion.
There will be atleast three different stations, one for Fugger, one for Macci and one for OPP. Each will be overclocking using their preferred technique. The planned platform will be an RS480 with X850XT PE. The planned board will be Bullhead.
I see people cheering for their favorites and that's okay, but I want to make it clear to everyone that this is a friendly gathering amongst friends and peers and should be labelled more as a demonstration and not really a competition. I am hoping that there will be collaboration amongst the three as opposed to pure competition. We want this to be a learning experience for everyone as much as we want people to have a good time.
I also see a lot of people posting that we might be revealing some new discrete graphics cards at this event. As I mentioned above, everyone will be using X850XT PEs at this event.
Having said all that, don't take this as meaning there aren't many exciting things happening. That's simply not true. If you come to the event, you'll probably hear about (or maybe even see) some things that are not currently known.
http://www.beyond3d.com/forum/viewtopic.php?t=20412&postdays=0&postorder=asc&start=40
FlashBFE
2005-02-22, 22:21:56
Wieso schreibt der soviel, wenn er eh nichts sagen darf? :|
Er ist doch der Hauptgrund, warum nun dieser Hype entsteht.
Er will sich wichtig machen. Das hat er geschafft.
Aber mit Seriosität hat das nichts zu tun.
TheCounter
2005-02-22, 23:05:13
Wieso schreibt der soviel, wenn er eh nichts sagen darf? :|
Er ist doch der Hauptgrund, warum nun dieser Hype entsteht.
Er will sich wichtig machen. Das hat er geschafft.
Aber mit Seriosität hat das nichts zu tun.
Wieso darf er nichts sagen? AFAIK arbeitet er bei ATi oder bekommt zumindest die Informationen direkt von ATi.
Es handelt sich nicht um die selbe Person die diesen Protoypen hat.
wuddu
2005-02-23, 12:26:23
:)
http://www.computerbase.de/forum/showthread.php?t=117622
TheCounter
2005-02-23, 12:35:55
Hab in Photoshop mal diverse Filter und Einstellungen probiert und keine Abweichung feststellen können, wenns ein Fake ist hat sich derjenige auch entsprechend viel Mühe gemacht.
Falls es kein Fake ist: :eek:
Demirug
2005-02-23, 12:38:07
Hab in Photoshop mal diverse Filter und Einstellungen probiert und keine Abweichung feststellen können, wenns ein Fake ist hat sich derjenige auch die Mühe gemacht ;)
Das ist ein Fake weil die Daten unsinnig sind.
TheCounter
2005-02-23, 12:39:05
Das ist ein Fake weil die Daten unsinnig sind.
Könntest du sagen welche Daten genau unsinnig sind (Interessiert mich nur)? Danke :)
Demirug
2005-02-23, 12:46:40
Könntest du genau sagen welche Daten von unsinnig sind (Interessiert mich nur)? Danke :)
32 Texturen bei nur 16 Blending Stages. Da man pro Stage nur eine texture nutzen kann macht das keinen Sinn. Zudem war es bisher so das beide Werte auf 8 limitiert waren weil man ja Shader benutzten soll und nicht den alten DX7 Kremple.
Gaestle
2005-02-23, 13:24:46
was "more unreleased hardware than just the GFX card" angeht, so ist wohl das Mainboard gemeint (ein Asus Board mit ATi Intel Chipsatz... man kann das "A" vom Asus logo auf der Northbridge erkennen)
Dual-Core CPU?
Kommt ja eh' demnächst...
Grüße
Dual-Core CPU?
Kommt ja eh' demnächst...
Grüße
Das A steht bei Asus immer und heißt komplett Ai Protect oder so ähnlich. ;)
Hellfire-Torrod
2005-02-23, 16:48:52
X950XT ? (http://hardwareluxx.de/story.php?id=2082)
Warumm sollte man eine Komplett neue Generation mit altem namen ausstatten?
mapel110
2005-02-23, 16:55:13
X950XT ? (http://hardwareluxx.de/story.php?id=2082)
Warumm sollte man eine Komplett neue Generation mit altem namen ausstatten?
Erst mühselig eingeführte und beworbene Bezeichnungen behält man gerne. Wiedererkennungswert. :)
Ausserdem sollte das X950XT wohl ausreichen, soviel mehr Performance ist wohl nicht zu erwarten mit der nächsten Grakageneration.
Hellfire-Torrod
2005-02-23, 17:05:58
behindert man sich aber nicht selbst, wenn man sofort 950 XT benutzt? würde man 900xt nehmen, hätte man noch die 950xt als reserve für 6 monate später .
mapel110
2005-02-23, 17:07:03
behindert man sich aber nicht selbst, wenn man sofort 950 XT benutzt? würde man 900xt nehmen, hätte man noch die 950xt als reserve für 6 monate später .
is sowieso gefaked. CPU-Archetekture 32 bit bei einem A64 und 750 Mhz Coretakt bei Graka? ehm, nö.
Hellfire-Torrod
2005-02-23, 17:14:01
is sowieso gefaked. CPU-Archetekture 32 bit bei einem A64 und 750 Mhz Coretakt bei Graka? ehm, nö.
Is klar. aber es ist trotzdem eine überlegung wert bzw auch ein grund, warum es gefakt ist.
DrumDub
2005-02-23, 17:31:30
haha... man sieht schon an der vendor id. dass es nen fake ist: http://www.pcidatabase.com/search.php?vendor_search_str=1046&vendor_search=Search
siehe: http://www.ipc.com.sg/home.htm
Godmode
2005-02-23, 17:32:53
warum ist der 3dmark Shot so komisch?? ist das von nem Monitor fotografiert worden? für mich sieht es auch einfach nur nach FAKE aus!
deekey777
2005-02-23, 17:33:49
Also Gay-nward hat heute eine Gainward PowerPack! Ultra/2600PCX Golden Sample SLI mit 512 MB angekündigt bzw. vorgestellt.
Oder so ähnlich.
http://www.gainward.de/new/main.html
deekey777
2005-02-23, 17:39:12
http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=678024
"ATI Invites Gamers to Tweak Their PCs With the PROs and Get a Sneak Peek at the World's First 512MB Gaming Card."
Also wessen Meldung war schneller: die von Gainward oder ATi?
dildo4u
2005-02-23, 17:42:08
http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=678024
"ATI Invites Gamers to Tweak Their PCs With the PROs and Get a Sneak Peek at the World's First 512MB Gaming Card."
Also wessen Meldung war schneller: die von Gainward oder ATi?
Ich denke das gainward eher leifern kann auch wenn nur in geringen stückzahlen und zu exorbitanten Preisen.
Gaestle
2005-02-23, 17:47:59
Das A steht bei Asus immer und heißt komplett Ai Protect oder so ähnlich. ;)
Aber warum zitierst Du mich für diese Aussage? :confused:
Und warum denken alle hier nur an die GraKa? Erst ist die Diskussion, wie schnell der Proz sein muss, für solch einen Benchmark-Wert.
Dann schreibt Mr. Z, dass er auch noch andere neue Komponenten in seinem Sys hat und nicht nur 'ne neue GraKa.
Warum also keine Dual-Core CPU, von deren funktionierendem Existieren (zumindest als Prototypen) zu diesem Zeitpunkt ich um einiges überzeugter bin als von neuen Mega-Transistoren-Grafikmonstern...
Grüße
deekey777
2005-02-23, 17:59:23
Ich denke das gainward eher leifern kann auch wenn nur in geringen stückzahlen und zu exorbitanten Preisen.
Kann sein, ist mir aber egal. :)
Andererseits: Rechtfertigt das Upgrade von 256MB->512MB vielleicht auch einen neuen Namen wie X950? :|
Dennoch scheint da noch ein Fehler im X950XT-Bildchen zu sein: Dieses Bildchen versucht uns weiszumachen, dass der verwendete S939 Prozessor auch SSE3 beherrscht!? Wurde etwa ein Opteron 252 verwendet? Oder schon ein AMD 64 s939 E04 getestet?
TheCounter
2005-02-23, 18:41:31
Hier auch nochmal als Vergleich ein Screenshot meiner PCIe X850XT:
http://img174.exs.cx/img174/3018/x850xt0uu.th.jpg (http://img174.exs.cx/my.php?loc=img174&image=x850xt0uu.jpg)
VendorID ist auch 1002.
Man beachte bei mir:
Architecture: 64-Bit
Bei dem anderen Screenshot:
Architecture: 32-Bit
;)
deekey777
2005-02-23, 19:02:00
Hier auch nochmal als Vergleich ein Screenshot meiner PCIe X850XT:
Häßliches Bild (http://img174.exs.cx/img174/3018/x850xt0uu.th.jpg)
VendorID ist auch 1002.
Man beachte bei mir:
Architecture: 64-Bit
Bei dem anderen Screenshot:
Architecture: 32-Bit
;)
Und SSE3 kann dein Prozessor auch nicht. ;)
TheCounter
2005-02-23, 19:13:50
Und SSE3 kann dein Prozessor auch nicht. ;)
Is ja nur nen Winchester und kein Venice ;)
Die Treiberversion der angeblichen X950 XT ist auch mehr als seltsam. Suggeriert, dass für diese Architektur neue Versionsnummern bzw. gar ein neues Paket released wird.
MfG,
Raff
deekey777
2005-02-23, 19:17:59
Is ja nur nen Winchester und kein Venice ;)
Es bezog sich ja auf das Bild mit der X950XT. :D
ShadowXX
2005-02-23, 19:56:09
Ich bin mal gespannt, wann jetzt die ersten nv47/50 3Dmurks Fakes im Netz auftauchen....
Ihr habt ja schon Tipps gegeben, auf was man besser machten sollte, wenn man sowas herstellt.
Vor Herbst erwarte ich weiterhin keine kaufbaren r520 Karten....
Genau, ausserdem ist das ein schlechter Fake. schon mal was von einem 32 bit Athlon64 gehört?! :D
bezüglich "R950" gehts jedenfalls da weiter.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2763132#post2763132
Ja, oder hast du schon von 64 Bit 3DMark 2005 gehört? ;)
sorr für offtopic
mapel110
2005-02-23, 23:19:57
Ja, oder hast du schon von 64 Bit 3DMark 2005 gehört? ;)
sorr für offtopic
schau dir mal den shot genauer an, dann fällt dir vielleicht auf, was mit den 32bit gemeint sein soll.
Quasar
2005-02-23, 23:25:40
Die Treiberversion der angeblichen X950 XT ist auch mehr als seltsam. Suggeriert, dass für diese Architektur neue Versionsnummern bzw. gar ein neues Paket released wird.
MfG,
Raff
Für einen SM3-Chip wäre das auch nicht undenkbar. Man weiß ja nicht, wieviel ATi daran wirklich geändert hat und ob er evtl. eine Verwandschaft zum R500 aufweist.
Cossor
2005-02-24, 09:28:43
Hi,
ich bin ja nicht so der Fan von Spekulationen – von daher möchte ich mal dieses nur zu bedenken geben :)
1)
Ati wird mit Sicherheit nicht den 5xx-Chip auf einer „Spiele-Veranstaltung“ vorstellen – es gab ja auch schon Meldungen, dass es evtl. nicht mal auf der Cebit geschehen soll.
2)
an eine Dual-Kartenlösung kann ich im Moment nicht glauben, da nirgendwo jemals erwähnt wurde, dass der 4xx-Chip Dual-Karten tauglich ist. Ferner gibt es nicht einmal Anzeichen für einen dafür benötigten Chip-Satz von Ati – nur dass dieses Jahr so etwas geplant sei (vermutlich für die 5xx-Serie).
Cossor
robbitop
2005-02-24, 09:38:26
zu 1. volle Zustimmung
zu 2. da wäre ich mir nicht so sicher.
Godmode
2005-02-24, 09:40:06
Irgendwer sagte mal das alle ATI-Chips Hardwaretechnisch SLI/AMR fähig sind nur man muss erst einen passenden Treiber dazu entwickeln. Beim Militär werden solche Multirandering R300 Maschinen eingesetzt.
Leonidas
2005-02-24, 10:01:58
Ferner gibt es nicht einmal Anzeichen für einen dafür benötigten Chip-Satz von Ati – nur dass dieses Jahr so etwas geplant sei (vermutlich für die 5xx-Serie).
Da ATi nun schon länger an AMR feilt, dürfte es in den Laboren sicherlich schon Samples eines solchen Chipsatzes geben - sprich, für eine Demonstration reicht es auf jeden Fall.
Was nicht sagen soll, daß ATi dies demnächst demonstrieren wird.
robbitop
2005-02-24, 10:49:50
Sowas ist praktisch mit jedem Grafikchip möglich. VIA ist auch gerade dabei solch einen Chipsatz zu vollenden, in dem 2 sogar herstellerunabhängige Grafikkarten laufen sollen.
Aber ich denke, wenn es speziell im Grafichip vorgesehen ist, sollte das in Spezialsituationen öfter/besser funktionieren. Vieleicht ein Vorteil für SLI?
Demirug
2005-02-24, 11:27:01
Sowas ist praktisch mit jedem Grafikchip möglich. VIA ist auch gerade dabei solch einen Chipsatz zu vollenden, in dem 2 sogar herstellerunabhängige Grafikkarten laufen sollen.
Aber ich denke, wenn es speziell im Grafichip vorgesehen ist, sollte das in Spezialsituationen öfter/besser funktionieren. Vieleicht ein Vorteil für SLI?
VIA hat das ja schon relativiert. Das ganze ist nur für Multimonbetrieb und das ist nichts besonderes weil das bereits im Betriebssystem eingebaut ist.
robbitop
2005-02-24, 11:39:12
VIA hat das ja schon relativiert. Das ganze ist nur für Multimonbetrieb und das ist nichts besonderes weil das bereits im Betriebssystem eingebaut ist.
schade ...und ich habe mich schon so sehr auf ein Dual Gammachrome S19 Testsystem gefreut. Damit wäre 5x sparsed SS und old school AF sicher oftmals im spielbaren Bereich möglich. Allein jedoch bleibts nur eine nette Spielerei für sehr alte Games.
Gibt es keine möglichkeit, 2 Gammachromes irgendwie zu verschalten?
wuddu
2005-02-24, 13:30:36
OT: Mein Tip in hinblick auf Dallas:
Dual-X850XT (like Gigabyte 6600GT@SLI)@XDR. Dadurch läßt sich imo der exorbinant hohe FPS-Score@Nature in 3dK01 erklären.
Sollte man nicht auch die Möglichkeit in Betracht ziehen, dass die Benches in 640*480 liefen?
Quasar
2005-02-24, 13:48:43
Das würde ein etwaige CPU-Limitierung ja nur verschärfen.
Quasar
2005-02-24, 13:51:27
OT: Mein Tip in hinblick auf Dallas:
Dual-X850XT (like Gigabyte 6600GT@SLI)@XDR. Dadurch läßt sich imo der exorbinant hohe FPS-Score@Nature in 3dK01 erklären.
Welcher Nature-Score?
TheCounter
2005-02-24, 14:37:39
Welcher Nature-Score?
Den angeblichen Nature-Score von dem 40k Punkte Durchlauf dieses Prototypen. Bekannt ist der Score aber nicht (Wegen NDA). Ich glaub da wurde auch nur 1 Grafikkarte verwendet, und nicht zwei (Zumindest war im Bild nur eine Grafikkarte mit Dualslot Kühlung zu erkennen).
Das würde ein etwaige CPU-Limitierung ja nur verschärfen.
Aber im Naturetest bringts mehr fps. Und eine schnellere Graka würde ja auch die CPU-Limitierung nur verschärfen. Also ich habe mit meiner GT@Ultra 187 fps.
Da kann man sich ja selber ausrechnen ob die angebliche Karte wirklich 2,6x schneller als eine 6800u ist. Denn irgendwie muss er ja ca 500fps im Naturetest geschaft haben um mit dem P4EE 40000pts zu kriegen.
@Quasar
Man weiss ja die ergebnisse eines ähnlichen P4EE in den ersten 1-3 Tests und man weiss dass die CPU-Limitiert sind (A64FX ist da deutlich schneller). Also kann man anhand der Punkteberechnungsformel ausrechnen wieviel fps im Naturetest möglich sind um trotzdem 40000pts zu erreichen.
Quasar
2005-02-24, 14:57:30
und das wären die besagten ~500fps?
dildo4u
2005-02-24, 15:03:07
und das wären die besagten ~500fps?
Tombman kommt mir seinem sli system auf 370FPS 500fps liegt für 2 X850XTPE im bereich des möglichen da der bench ati sowieso besser liegt.
Der kommt sogar schon auf 470fps :eek: mit 2 6800GT @ 425 - 1115
http://service.futuremark.com/compare?2k1=8427248
Leider kann man den bench aber auch sher gut cheaten mit LOD relger im rivatuner da kommt ich von 200fps auf 250fps mit meiner 6800GT
Also die 470fps finde ich ein bischen viel wenn man die mit dem vergleicht was ich habe. Ich glaub das war ne wahnsinnig übertaktete x850xtpe mit 640*480...
Quasar
2005-02-24, 15:26:02
Nicht nur da ist der Nature sehr anfällig. Es gibt da durchaus noch andere Cheat-Möglichkeiten - auch wenn sie ständig geleugnet oder ignoriert werden.
Danke jedenfalls für die 500fps-Info.
wuddu
2005-02-24, 15:41:36
@The Counter
eigentlich gehe ich in der Annahme, daß die 2 GPU´s auf einem PCB verbaut sind - AMR mal anders....
Meine Infos bezüglich des Nature Scores sind >500FPS. Es könnten also auch 550FPS oder gar mehr sein.
wuddu
2005-02-24, 15:54:29
OT: Sorry für den Doppelpost
Anscheinend war(en) die GraKa(s) nicht übertaktet.
Zudem würde XDR-Ram das Bandbreitenlimitierungsproblem (Rambus strikes back!) imo lösen. Allerdings entzieht es sich meiner Kenntnis, ob XDR überhaupt in ausreichenden Mengen verfügbar ist.
Ailuros
2005-02-24, 16:05:22
Kleine Unterbrechung fuer Werbespots:
*ekelhafter pop-jingle im Anklang...*
A couple of posts after the pic in the DH thread the guy who posted it even says that he edited the xml file to insert his own values to fake it. Its amazing how many peeps just looked at the pic and ran with it without reading the thread.
http://www.beyond3d.com/forum/viewtopic.php?t=20732
***----->wooooosh***
....und nun zurueck zum normalen Programm ;D
Demirug
2005-02-24, 16:34:24
@The Counter
eigentlich gehe ich in der Annahme, daß die 2 GPU´s auf einem PCB verbaut sind - AMR mal anders....
Meine Infos bezüglich des Nature Scores sind >500FPS. Es könnten also auch 550FPS oder gar mehr sein.
Davon würde ich nicht ausgehen. ;)
Kleine Unterbrechung fuer Werbespots:
*ekelhafter pop-jingle im Anklang...*
http://www.beyond3d.com/forum/viewtopic.php?t=20732
***----->wooooosh***
....und nun zurueck zum normalen Programm ;D
omg, wie einfach der Inq reinzulegen ist.
Naja dann wirds mit den 40000 3DMarks ähnlich sein...
TheCounter
2005-02-24, 18:56:16
Also die 470fps finde ich ein bischen viel wenn man die mit dem vergleicht was ich habe. Ich glaub das war ne wahnsinnig übertaktete x850xtpe mit 640*480...
Aber eine X850XT-PE ist schon erhältlich und somit kein Prototyp mehr.
deekey777
2005-02-24, 19:03:18
Echt oder Paintshop?
http://www.driverheaven.net/showpost.php?p=559938&postcount=109
Man achte auf die 8 Speicherchips auf der Vorderseite.
TheCounter
2005-02-24, 19:08:14
Echt oder Paintshop?
http://www.driverheaven.net/showpost.php?p=559938&postcount=109
Man achte auf die 8 Speicherchips auf der Vorderseite.
Sieht nicht wirklich nach einem Fake aus, dürfte halt eine X850XT/PE 512MB mit Referenzkühler sein.
Was mich allerdings stört sind die Schrauben in den Lamellen. Bei meiner X850XT sind dort zwar auch welche, aber die Lamellen sind nicht plattgedrückt sondern haben an den Stellen einen Ausschnitt (Ist wohl einfach nur ein Testsample?). Die Frage is nur woher genau das Bild stammt (Die Frage is keine Frage mehr: http://www.elitebastards.com/).
Da die Karte aber wohl unübertaktet und mit luftkühler ausgestattet ist, dürfte es keine X850XT/PE sein.
Aber eine X850XT-PE ist schon erhältlich und somit kein Prototyp mehr.
Ja, aber wahrscheinlich ists eh ein Fake oder eine X850XT-PE mit 512MB...
Godmode
2005-02-24, 19:10:49
Echt oder Paintshop?
http://www.driverheaven.net/showpost.php?p=559938&postcount=109
Man achte auf die 8 Speicherchips auf der Vorderseite.
ich hab das Bild mal unter die Lupe genommen und hab keine Redundanzen gefunden, also mit Copy und Paste ist es nicht gemacht ;D Vielleicht hat sich jemand sehr viel Mühe gegeben oder es ist echt. Ich tippe auf Echtheit!
edit: da war einer schneller
edit2: in der Vertikale sieht man auch die Leiterbahnen für die restlichen 4 Speicher-Chips
TheCounter
2005-02-24, 19:11:03
Ja, aber wahrscheinlich ists eh ein Fake...
Das wissen wir erst wenn die NDA ausläuft oder es sich als wirklicher Fake entpuppt.
deekey777
2005-02-24, 19:34:18
http://www.elitebastards.com/
First pictures of ATI's 512MB Radeon X850 :
Die beiden Bilder sind etwas grösser.
wuddu
2005-02-24, 20:09:55
Davon würde ich nicht ausgehen. ;)
Schade eigentlich :).
DrumDub
2005-02-24, 20:44:21
tjo, da ich wohl falsch gelegen... würd mich mal interessieren, ob die karte genau wie die 256mb version getaktet ist. die 512mb sollten ja außer bei doom3 in uhq keinen unterschied machen.
nagus
2005-02-24, 21:43:06
möglich, dass das jetzt schon jemand vor mir bemerkt und gepostet hat...
zardon über die 40t 3dmarsk: "yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
was sagt uns das?
1. es handelt sich SICHER um keine gemoddete oder übertaktete x850 oder was auch immer. und 512 mb allein machen sicher nicht solche scores möglich. weder eine 6800ultra noch eine xt850pe mit 512MB schafft das.
2. er MUSS enteder etwas mit "AMR" zu tun haben ODER
3. ein R520 Prototyp (dazu passt auch der thread-titel)
ich denke die chancen stehen gut, dass es sich um eine R520 handelt.
*update*
ShadowXX
2005-02-24, 21:54:39
möglich, dass das jetzt schon jemand vor mir bemerkt und gepostet hat...
zardon über die 40t 3dmarsk: "yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
was sagt uns das?
1. es handelt sich SICHER um keine gemoddete oder übertaktete x850 oder was auch immer. und 512 mb allein machen sicher nicht solche scores möglich. weder eine 6800ultra noch eine xt850pe mit 512MB schafft das.
2. er MUSS enteder etwas mit "SLI" oder "AMR" zu tun haben ODER
3. ein R520 Prototyp (dazu passt auch der thread-titel) oder ein NV50 prototyp sein (eher unwahrscheinlich)
ich denke die chancen stehen gut, dass es sich um eine R520 handelt.
Eingeklammertes 's'???? (Das bei "card(s)" ist gemeint....)
Ich tipp inzwischen auf AMR.....wahrscheinlich zeigt ATI auch noch gleich ein neues Mainboard (eben eins für AMR).
Den r520 sparen Sie sich noch auf....sie wollen ja auch noch ein paar x8x0-Chips verkaufen....
Und nochmal: Er kann auch eine x850xtpe 512MB in 640*480 gebenched haben.
TheCounter
2005-02-24, 22:05:40
Eingeklammertes 's'???? (Das bei "card(s)" ist gemeint....)
Ich tipp inzwischen auf AMR.....wahrscheinlich zeigt ATI auch noch gleich ein neues Mainboard (eben eins für AMR).
Den r520 sparen Sie sich noch auf....sie wollen ja auch noch ein paar x8x0-Chips verkaufen....
AMR mit einem neuen Grafikkarten Prototypen? Er hat extra gesagt es hat nichts mit aktuell erhältlichen Grafikkarten zu tun. Da AMR wohl nur eine Sache des Mainboards ist muss es sich wohl um eine neue Grafikkarte handeln (Einen Prototypen halt).
@hmx
Eher unwarscheinlich, er hätte die Karte extrem OC'en müssen und das mit Kompressorkühlung oder ähnlichem (Auf dem Bild ist aber nichts dergleichen zu erkennen).
ShadowXX
2005-02-24, 22:06:35
Und nochmal: Er kann auch eine x850xtpe 512MB in 640*480 gebenched haben.
Klar....auch das ist möglich.
Wobei ich mir immer noch die Frage stelle, wofür ATI eine 512MB Edition rausbringt. Wirklich nötig ist diese Karte eigentlich nicht (ok...ausser für Doom3).
Ausser Sie blicken in die Zukunft, in einem halben Jahr könnten tatsächlich schon mehr Titel da sein, die lieber 512MB VRam hätten....aber das würde bedeuten, das der r520 noch ein weilchen auf sich warten lassen würde.
ShadowXX
2005-02-24, 22:09:40
AMR mit einem neuen Grafikkarten Prototypen? Er hat extra gesagt es hat nichts mit aktuell erhältlichen Grafikkarten zu tun. Da AMR wohl nur eine Sache des Mainboards ist muss es sich wohl um eine neue Grafikkarte handeln (Einen Prototypen halt).
Die X850XT/PE mit 512MB ist momentan auch noch nicht erhältlich....genauer gesagt wird SIe dort vorgestellt...passt also ganz gut.
Klar....auch das ist möglich.
Wobei ich mir immer noch die Frage stelle, wofür ATI eine 512MB Edition rausbringt. Wirklich nötig ist diese Karte eigentlich nicht (ok...ausser für Doom3).
Ausser Sie blicken in die Zukunft, in einem halben Jahr könnten tatsächlich schon mehr Titel da sein, die lieber 512MB VRam hätten....aber das würde bedeuten, das der r520 noch ein weilchen auf sich warten lassen würde.
Das stimmt, aber das hat die Hersteller in der Vergangenheit ja auch nicht abghalten Karten mit sehr viel VRAM auf den Markt zu bringen.
Botcruscher
2005-02-24, 22:21:56
Ausserdem dürften sich solche Karten auch finanziel für die Hersteller lohnen.
TheCounter
2005-02-24, 22:22:54
Die X850XT/PE mit 512MB ist momentan auch noch nicht erhältlich....genauer gesagt wird SIe dort vorgestellt...passt also ganz gut.
Aber die 512MB-Ram bringen keinen so extremen Geschwindigkeitsvorteil...
Ich hab mit meiner X850XT und nem A64 2600MHz im Nature-Test ganze 236.1 FPS. Willst du mir weismachen das die 256MB mehr Grafikspeicher dann über 250FPS mehr bringen?
ShadowXX
2005-02-24, 22:28:58
Aber die 512MB-Ram bringen keinen so extremen Geschwindigkeitsvorteil...
Ich hab mit meiner X850XT und nem A64 2600MHz im Nature-Test ganze 236.1 FPS. Willst du mir weismachen das die 256MB mehr Grafikspeicher dann über 250FPS mehr bringen?
Nein....aber eben AMR könnte dies bringen.
2x x850xt/pe mit 512MB auf einem neuen ATI AMR-Motherboard....zweimal neue Hardware (zumindest aus ATIs sicht und beim AMR stimmts ja sogar halbwegs).
Passt auch zu den anderen Aussagen, wo auch zitiert wurde, das man sich nicht zu sehr auf die GraKa versteifen sollte.....
TheCounter
2005-02-24, 22:31:35
Aber er hat doch bereits gesagt das es sich um keine schon erhältliche Grafikkarte mit mehr RAM handelt...
Damit könnte man wohl auch die X850 Karten ausschließen.
However the first post in this thread is certainly is not a "currently released card with 512 meg of ram".
http://www.driverheaven.net/showpost.php?p=558333&postcount=73
Und:
The inquirer posted a story about a 512 card from ATI being released soon and pointed to this site and this thread, im just saying that these tests have nothing to do with a currently available GFX technology with additional ram.
http://www.driverheaven.net/showpost.php?p=558349&postcount=78
ShadowXX
2005-02-24, 22:41:05
Aber er hat doch bereits gesagt das es sich um keine schon erhältliche Grafikkarte mit mehr RAM handelt...
Damit könnte man wohl auch die X850 Karten ausschließen.
However the first post in this thread is certainly is not a "currently released card with 512 meg of ram".
http://www.driverheaven.net/showpost.php?p=558333&postcount=73
Und:
The inquirer posted a story about a 512 card from ATI being released soon and pointed to this site and this thread, im just saying that these tests have nothing to do with a currently available GFX technology with additional ram.
http://www.driverheaven.net/showpost.php?p=558349&postcount=78
Auch wieder war.....hmmmm.
Aber an einen r520 glaub ich irgendwie noch nicht....passt nicht zur veranstaltung.
Vielleicht eine XBox 2 :ueye:
Aber 500+fps sind imo soviel für einen r520. Ist mehr als Doppelt so schnell wie eine 6800u oder x850xtpe. Vllt doch ein r520 Prototyp aber in 640*480? :ugly:
Oder einfach ein Fake...
deekey777
2005-02-24, 22:47:40
Aber er hat doch bereits gesagt das es sich um keine schon erhältliche Grafikkarte mit mehr RAM handelt...
Damit könnte man wohl auch die X850 Karten ausschließen.
However the first post in this thread is certainly is not a "currently released card with 512 meg of ram".
http://www.driverheaven.net/showpost.php?p=558333&postcount=73
...
Wer zitiert da ein zitiertes Posting von mir? ;(
ShadowXX
2005-02-24, 22:55:21
Mir ist gerade was an den beiden Zitaten aufgefallen:
However the first post in this thread is certainly is not a "currently released card with 512 meg of ram".
Und:
The inquirer posted a story about a 512 card from ATI being released soon and pointed to this site and this thread, im just saying that these tests have nothing to do with a currently available GFX technology with additional ram.
Er sagt beide male, das es nichts mit einer jetzt erhältlichen Grafikkarte mit zusätlichen Ram zu tun hat....
Wenn man jetzt sehr Spitzfindig ist, könnte man eine x850xt mit 256MB Ram, als solch eine Karte ansehen.
Er sagt nämlich nicht "nothing to do with a currently available GFX technology", sondern "nothing to do with a currently available GFX technology with additional ram".
Und auch dieser Satz: "is not a "currently released card with 512 meg of ram"" schliesst genaugenommen eine x850xt mit 256MB nicht aus.
Ja ja....ich weiss, das ist sehr spitzfindig, aber bei ATI/nV überrascht mich gar nichts mehr....
Könnte also 2x x850xt mit 256MB sein....
TheCounter
2005-02-24, 23:08:25
Er sagt beide male, das es nichts mit einer jetzt erhältlichen Grafikkarte mit zusätlichen Ram zu tun hat....
Wenn man jetzt sehr Spitzfindig ist, könnte man eine x850xt mit 256MB Ram, als solch eine Karte ansehen.
Er sagt nämlich nicht "nothing to do with a currently available GFX technology", sondern "nothing to do with a currently available GFX technology with additional ram".
Und auch dieser Satz: "is not a "currently released card with 512 meg of ram"" schliesst genaugenommen eine x850xt mit 256MB nicht aus.
Ja ja....ich weiss, das ist sehr spitzfindig, aber bei ATI/nV überrascht mich gar nichts mehr....
Könnte also 2x x850xt mit 256MB sein....
IMO unwarscheinlich, ich les da raus es es nichts mit einer momentan erhältlichen GFX-Technologie mit mehr RAM zu tun hat. Eine X850XT mit 256MB ist kein Prototyp mehr sondern eine schon erhältiche Karte, ergo eher unwarscheinlich.
So ich hab mal 3DMark 01 in 640x480 gebencht und bin beim GT4 (Nature) auf 373 FPS gekommen, also ca. 140 mehr als in 1024x768.
Jetzt kommt das ABER:
Schaut euch bitte mal beide Ergebnisscreenshots an:
Zardon's:
http://www.driverheaven.net/zardon/01.jpg
Meiner:
http://img219.exs.cx/img219/5011/3dm012pe.jpg
Na wem fällt der Unterschied auf? Ein Tipp: Es handelt sich um einen Satz gleich unter dem Score ;)
ShadowXX
2005-02-24, 23:22:08
IMO unwarscheinlich, ich les da raus es es nichts mit einer momentan erhältlichen GFX-Technologie mit mehr RAM zu tun hat. Eine X850XT mit 256MB ist kein Prototyp mehr sondern eine schon erhältiche Karte, ergo eher unwarscheinlich.
So ich hab mal 3DMark 01 in 640x480 gebencht und bin beim GT4 (Nature) auf 373 FPS gekommen, also ca. 140 mehr als in 1024x768.
Jetzt kommt das ABER:
Schaut euch bitte mal beide Ergebnisscreenshots an:
Zardon's:
http://www.driverheaven.net/zardon/01.jpg
Meiner:
http://img219.exs.cx/img219/5011/3dm012pe.jpg
Na wem fällt der Unterschied auf? Ein Tipp: Es handelt sich um einen Satz gleich unter dem Score ;)
Du schreibst es gerade selber:
...es es nichts mit einer momentan erhältlichen GFX-Technologie mit mehr RAM zu tun...
Lies es mal ganz Langsam....dann wirst du festsellen, das diese Beschreibung ganz gut auf die x850xt/pe mit 256MB passt.
Die x850xt mit 256MB ist nämlich keine "momentan erhältliche GFX-Technologie mit mehr Ram".
Aber wie gesagt es ist sehr spitzfindig.
Mit Prototyp könnte auch das AMR Mainboard gemeint sein.
Zu deinen Rätesel.
Ja....die Sätze unterscheiden sich gewaltig. Demnach wurde in 1024x768 gebencht.
Das wäre dann wohl auch für AMR zuviel.......hmmmm.
Trotzdem glaube ich immer noch nicht an eine r520.....
TheCounter
2005-02-24, 23:42:19
Lies es mal ganz Langsam....dann wirst du festsellen, das diese Beschreibung ganz gut auf die x850xt/pe mit 256MB passt.
Die x850xt mit 256MB ist nämlich keine "momentan erhältliche GFX-Technologie mit mehr Ram".
Da muss man dann aber ganz tief in die Interpretationskiste gucken ;)
Er meinte es wohl so: Es ist keine momentan erhältliche GFX-Technologie auf die nur zusätzlich RAM gesetzt wurde.
Das letzte ist hier nichtmal so wichtig, da es nur aussagt das es keine Karte mit mehr Ram ist. Das was ich dick markiert habe ist da imo eher das entscheidente. Ich seh es jedenfalls so, sonst hätte er es imo anders geschrieben.
Ziggi Stardust
2005-02-25, 09:17:00
Auch wieder war.....hmmmm.
Aber an einen r520 glaub ich irgendwie noch nicht....passt nicht zur veranstaltung.
Warum nicht? Die Veranstaltung dort ist doch recht groß, mit prominenten Namen und sonstigen Rummel, das wird doch sicher ein ausreichendes Medienecho geben? So eine Overclocking-Fete ist die richtig Plattform, um die aktuelle Generation noch mal in den Mittelpunkt der Aufmerksamkeit zu rücken, mit neuen Benchmarkrekorden und ein paar Neuigkeiten, wie 512 MB-Karten oder sogar ATIs Pendant zu SLY mit entsprechender Hauptplatine. Passend dazu kommen endlich die Karten in Stückzahlen in den Handel, zu realistischen Preisen, bzw. sogar recht günstig, wenn man bedenkt, daß man für die Leistungsklasse einer XL noch vor Kurzem 450 € hinlegen mußte. Hinter verschlossenen Türen wird denn ein paar Auserwählten ein Benchmark mit einem vorserien R520 gezeigt, der den gerade aufgestellten Rekord mit Trockeneiskühlung und extrem-overvolting wieder zerbröselt, mit Luftkühlung und ohne Übertaktung. :) ATI hätte ihre Technologie- Leistungsführerschaft demonstriert, thematisch verknüpft mit den aktuellen und preiswerten Produkten, ihnen wäre die Aufmerksamkeit der Medien sicher, und bis dann mit dem R520 bestückte Karten in 4–6 Monaten erscheinen, werden wieder fleißig X8-Karten verkauft, für die (vorallem preislich) R520-Karten keine Konkurrenz darstellen. Gut, ein paar potentielle Käufer der absoluten Spitzenklasse werden dadurch verloren gehen, aber damit verdient man sowieso nicht das große Geld. Wäre jedenfalls super, wenn es so laufen würde! Die Grafik-Szene kann frischen Wind dringend gebrauchen – ist mir im Moment zu langweilig. :D
reunion
2005-02-25, 10:31:50
Aber an einen r520 glaub ich irgendwie noch nicht....passt nicht zur veranstaltung.
Ich auch nicht. Würde ATi morgen wirklich den R520 vorstellen hätten wir inzwischen viel mehr Infos, oder gar schon ein Bild der Karte. Desweiteren würde man auf der ATi Homepage schon die ein oder andere andeutung lesen können. Außerdem würde ATi wohl kaum gleichzeitig eine X850 512MB und den R520 vorstellen.
reunion
2005-02-25, 10:34:25
Echt oder Paintshop?
http://www.driverheaven.net/showpost.php?p=559938&postcount=109
Man achte auf die 8 Speicherchips auf der Vorderseite.
:up:
Toll das die Karte durch die acht zusätzlichen Speicherchips nicht größer geworden ist.
Quasar
2005-02-25, 11:29:59
Du hast recht, The Counter, ein großer Unterschied. ;)
(Und nein, ich habe lediglich mit Paint gefaked, also erwartet kein professionelles Ergebnis):
TheCounter
2005-02-25, 12:02:15
Du hast recht, The Counter, ein großer Unterschied. ;)
(Und nein, ich habe lediglich mit Paint gefaked, also erwartet kein professionelles Ergebnis):
Ich geh aber von einem nicht gefakten Bild aus. Und selbst wenn, bräuchte man immernoch eine heftig übertaktete X850XT-PE um auf über 500FPS zu kommen ;)
Quasar
2005-02-25, 12:05:53
Wieso eine?
TheCounter
2005-02-25, 12:16:09
Wieso eine?
Wenn er 2xR520 genutzt hätte dann wären wohl weit mehr als 500FPS im Nature Test drin (Außer die CPU limitiert irgendwann).
Er hat wie er selbst gesagt hat keine aktuell erhältliche Grafiktechnologie verwendet und auch keine aktuelle mit nur mehr Ram. :)
Gaestle
2005-02-25, 12:50:10
Das Ergebnis ist wohl weder mit einer heftigst übertakteten X850XT-PE hinzukriegen, noch mit zwei normalen im AMR-Modus.
AMR wird die Leistung nicht exakt verdoppeln können, sondern sich nur maximal daran annähern können, ein bißchen Verlust (ich nenn's mal "Steuerungsverlust") wird bleiben, war ja bislang AFAIK auch immer (V-SLi, NV-SLi, R-MAXX) so.
Grüße
BlackBirdSR
2005-02-25, 13:00:39
Das Problem ist doch, dass 3dmark2001 sehr stark vom restlichen System abhängt.
Um 40.000 3dmarks zu schaffen, muss man entweder extrem viel mehr frames in Nature erhalten, oder in den anderen Game tests bis zum Umfallen punkten.
Selbst eine AMR Config könnte den GT1,2,3 nicht mehr beschleunigen, wenn das System nicht mehr her gibt.
Würden wir hier von über 100% Steigerung bei 3dmark05 reden, könnte ich das verstehen. Neue Generationen können da noch viel rausholen.
Aber bei 3dmark2001?
Der nutzt PS1.1 und setzt mehr auf Multitexturing mit bilinearem Filter als auf Shader.
Mir stinkt die ganze Sache einfach.
Überlegt euch das mal!!
robbitop
2005-02-25, 13:07:10
wer wählt auch schon 3DM01 als Benchindikator? Das ist nur Schikane für naive Leute IMO. Auf so einer Overclockingmesse stellt man sicher keinen R520 vor.
Quasar
2005-02-25, 13:12:55
Wenn er 2xR520 genutzt hätte dann wären wohl weit mehr als 500FPS im Nature Test drin (Außer die CPU limitiert irgendwann).
Er hat wie er selbst gesagt hat keine aktuell erhältliche Grafiktechnologie verwendet und auch keine aktuelle mit nur mehr Ram. :)
R520?? WTF? Eben hast du doch noch von X850XT PE gesprochen.
Und wenn ich's mir recht überlege, trifft sowohl "keine aktuell erhältliche Grafiktechnologie" als auch "keine aktuelle mit nur mehr Ram" ganz gut auf zwei aktuell erhältliche X850 mit 256Mb zu. :D
ShadowXX
2005-02-25, 14:02:55
R520?? WTF? Eben hast du doch noch von X850XT PE gesprochen.
Und wenn ich's mir recht überlege, trifft sowohl "keine aktuell erhältliche Grafiktechnologie" als auch "keine aktuelle mit nur mehr Ram" ganz gut auf zwei aktuell erhältliche X850 mit 256Mb zu. :D
Genau dieses habe ich auch schon ein paar mal erwähnt.....http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2767528&postcount=1214
Und wenn man genau ist, wurde in den Zitaten immer das "mit mehr Speicher" dazugesagt.
Und dann passts noch genauer auf eine x800xt/pe bzw. x850xt/pe mit 256MB.
Und wie ich auch schon mal erwähnte kann sich das "Prototyp" durchaus auf eine AMR-Board beziehen.
Ich schätze aber sowieso, das das ganze sich im Endeffekt doch als Fake rausstellt, auf den wohl dann auch der gute Z. reingefallen ist.
TheCounter
2005-02-25, 14:17:35
wer wählt auch schon 3DM01 als Benchindikator? Das ist nur Schikane für naive Leute IMO. Auf so einer Overclockingmesse stellt man sicher keinen R520 vor.
Eben genau wegen der kompletten Systemabhängigkeit wurde 3D Mark 2001 gewählt, damit man keine genauen Informationen über die Grafikkarte erhält.
Nehmen wir mal an es ist wirklich AMR im Spiel. Und eine Standard X850XT-PE schaft so 250FPS (Mit A64 @ 2600MHz). Da wir alle wissen das AMR sicher nicht genau die doppelte Performance bringt, nehmen wir mal 450FPS (80% schneller; oder 475FPS bei 90%). Das würde immernoch nicht reichen. Man müsste die Grafikkarten immernoch übertakten.
Das er eine X850XT-PE verwendet halte ich für sehr unwarscheinlich, sonst hätte er doch nicht extra das ganze unkenntlich gemacht.
Ziggi Stardust
2005-02-25, 14:22:04
R520?? WTF? Eben hast du doch noch von X850XT PE gesprochen.
Und wenn ich's mir recht überlege, trifft sowohl "keine aktuell erhältliche Grafiktechnologie" als auch "keine aktuelle mit nur mehr Ram" ganz gut auf zwei aktuell erhältliche X850 mit 256Mb zu. :D
:lol: Nicht so fies bitte. :D Wir werden es ja in Bälde wissen.
Genau dieses habe ich auch schon ein paar mal erwähnt.....http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2767528&postcount=1214
Und wenn man genau ist, wurde in den Zitaten immer das "mit mehr Speicher" dazugesagt.
Und dann passts noch genauer auf eine x800xt/pe bzw. x850xt/pe mit 256MB.
Und wie ich auch schon mal erwähnte kann sich das "Prototyp" durchaus auf eine AMR-Board beziehen.
Ich schätze aber sowieso, das das ganze sich im Endeffekt doch als Fake rausstellt, auf den wohl dann auch der gute Z. reingefallen ist.Reingefallen? Der Zardon ist doch derjenige, der angeblich das Maschinchen Zuhause stehen hat, entweder lügt der knallhart oder es stimmt. Oder habe ich da was falsch verstanden? Ist er nicht sogar der Eigner (oder wie nennt man das bei Netz-Seiten? Herausgeber?) von DH?
DrumDub
2005-02-25, 14:46:18
also die x850xt mit 512mb wurde jetzt offiziell vorgestellt: http://www.xbitlabs.com/news/video/display/20050224141431.html
ATI Technologies, the world’s largest supplier of graphics and multimedia processors, will demonstrate its graphics cards with 512MB of onboard memory at the Texas Gaming Festival in Dallas, February 25th to 27th, 2004.
also die vorstellung des r520 kann man sich somit zu diesem termin abschminken...
deekey777
2005-02-25, 14:49:13
also die x850xt mit 512mb wurde jetzt offiziell vorgestellt: http://www.xbitlabs.com/news/video/display/20050224141431.html
Wurde sie nicht. ;)
DrumDub
2005-02-25, 15:00:14
Wurde sie nicht. ;)
und wie ist dann der erste satz zu verstehen: ATI Technologies showcased on Thursday its first graphics card with 512MB of GDDR3 memory, especially noticing that the design challenge about the actual board was not that serious.
ein shwocase ist ja wohl immer eine vorführung/vorstellung eines produktes...
deekey777
2005-02-25, 15:06:21
und wie ist dann der erste satz zu verstehen:
ein shwocase ist ja wohl immer eine vorführung/vorstellung eines produktes...
Dass morgen/übermorgen mit sehr hohen Wahrscheinlichkeit eine R480 mit 512 MB vorgestellt wird, bestreitet keiner.
DrumDub
2005-02-25, 15:16:23
Dass morgen/übermorgen mit sehr hohen Wahrscheinlichkeit eine R480 mit 512 MB vorgestellt wird, bestreitet keiner.
ich will ja jetzt kein korinthenkacker sein, aber wenn das produkt gestern vorgstellt wurde, wie kann es dann noch einmal am samstag vorgestellt werden?
ShadowXX
2005-02-25, 15:29:08
Reingefallen? Der Zardon ist doch derjenige, der angeblich das Maschinchen Zuhause stehen hat, entweder lügt der knallhart oder es stimmt. Oder habe ich da was falsch verstanden? Ist er nicht sogar der Eigner (oder wie nennt man das bei Netz-Seiten? Herausgeber?) von DH?
Laut diesem Zitat:
zardon über die 40t 3dmarsk: "yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
Gehe ich eher davon aus, das Zardon jemanden kennt, bei dem dies "abgelaufen" sein soll.....
(Das "yes im sure he did......", ausser Zardon redet von sich selbst in der dritten Person).
Und ausserdem kann man aus dem Satz erkennen, das selbst Zardon "etwas" die Echheit der Aussage, das es ohne OC abgegangen sein soll, misstraut.
deekey777
2005-02-25, 15:47:24
ich will ja jetzt kein korinthenkacker sein, aber wenn das produkt gestern vorgstellt wurde, wie kann es dann noch einmal am samstag vorgestellt werden?
Es wurde nicht vorgestellt, sondern nur angekündigt. Die Bilder der X850XT 512 MB findest du auf der ATi-Homepage nicht.
Ziggi Stardust
2005-02-25, 16:11:19
Laut diesem Zitat:
zardon über die 40t 3dmarsk: "yes im sure he did on phase, but I doubt he beat it on air cooling without overclocking the video card(s) at all."
Gehe ich eher davon aus, das Zardon jemanden kennt, bei dem dies "abgelaufen" sein soll.....
(Das "yes im sure he did......", ausser Zardon redet von sich selbst in der dritten Person).
Und ausserdem kann man aus dem Satz erkennen, das selbst Zardon "etwas" die Echheit der Aussage, das es ohne OC abgegangen sein soll, misstraut.
Dabei bezog er sich darauf:
An old 3DM01 record was already higher than 40K
it was settled with X800XTPE (link)
Der erste Beitrag in dem Thread sagt doch schon alles:
Well ive been busy this week testing some new unreleased hardware from various companies, and although I cant discuss it in any detail I thought id share a little intentionally blurred picture the messy driverheaven testing rig with some amazingly powerful hardware and a little benchie from 3dmark01.
The processor is the forthcoming EE from intel overclocked quite high (4.3ghz+), with 4 gig of DDR2 running at 800mhz and a video card from....well ........
http://www.driverheaven.net/zardon/yum.jpg
http://www.driverheaven.net/zardon/01.jpg
So, ab hier darf weiter spekuliert werden. Glaubt jemand, daß der die Reputation seiner ganzen Seite verspielt, nur um mal seinen Spaß zu haben? :|
TheCounter
2005-02-25, 16:17:35
So, ab hier darf weiter spekuliert werden. Glaubt jemand, daß der die Reputation seiner ganzen Seite verspielt, nur um mal seinen Spaß zu haben? :|
Ich glaubs nicht und auf dem Bild ist doch eindeutlich nur 1 Grafikkarte zu erkennen. Ich seh unter der ersten jedenfall nichts. Das PCB is imo auch eher Blau soweit ich das erkennen kann (Wie bei einigen anderen ATi Grafikkarten (Prototypen/Samples?)). Kann aber auch an der blauen Beleuchtung liegen ;)
Das Board könnte ja ein Asus nForce 4 Intel Edition sein :)
DrumDub
2005-02-25, 17:14:10
Es wurde nicht vorgestellt, sondern nur angekündigt. Die Bilder der X850XT 512 MB findest du auf der ATi-Homepage nicht.
mhh.... is ja auch egal... die fakten sind jetzt jedenfalls alle bekannt.
Ziggi Stardust
2005-02-25, 18:51:57
mhh.... is ja auch egal... die fakten sind jetzt jedenfalls alle bekannt.
Und die zeitlich Nähe zu dem mysteriösen 40.000+ Benchmark ist nur Zufall? Oder soll das etwa ein Bench dieser Karte gewesen sein? Ich hoffe jedenfalls, daß noch was kommt, wenigstens ARM oder doch ein kleiner Vorgeschack auf was Größeres …
TheCounter
2005-02-25, 18:56:13
Und die zeitlich Nähe zu dem mysteriösen 40.000+ Benchmark ist nur Zufall? Oder soll das etwa ein Bench dieser Karte gewesen sein? Ich hoffe jedenfalls, daß noch was kommt, wenigstens ARM oder doch ein kleiner Vorgeschack auf was Größeres …
Ein "neues" Mainboard von ATi soll ja noch vorgestellt bzw. gezeigt werden auf diesem Festival.
ShadowXX
2005-02-25, 19:35:59
Und die zeitlich Nähe zu dem mysteriösen 40.000+ Benchmark ist nur Zufall? Oder soll das etwa ein Bench dieser Karte gewesen sein? Ich hoffe jedenfalls, daß noch was kommt, wenigstens ARM oder doch ein kleiner Vorgeschack auf was Größeres …
TheCounter hat irgendwie schon recht....aussehen tut es wirklich nur nach einer Karte.
Vielleicht ist es ja wirklich so eine Karte wie die 2x6600GT-Auf-Einem-PCB Karte von Gigabyte...nur eben mit ATI.
Blau waren früher die Boards von Hercules...die gibs aber nicht mehr.
Es gäbe auch immer noch die Möglichkeit, das wir alle in die völlig falsche Richtung tippen und es gar keine ATI-GraKa ist, sondern die Gerüchteumwobene 24/16-Karte von nV (aka nv47 oder 48).
Ich habe nämlich langsam das Gefühl, das die in dem Rechner verbaute Karte überhaupt nichts mit der OC-Veranstaltung zu tun hat.
TheCounter
2005-02-25, 19:47:49
Ich habe nämlich langsam das Gefühl, das die in dem Rechner verbaute Karte überhaupt nichts mit der OC-Veranstaltung zu tun hat.
Hat sie auch nicht, wie kommst du darauf das sie was damit zu tun hat? Nur weil diese beiden Ereignisse zeitlich so nah beieinander liegen?
Ziggi Stardust
2005-02-25, 20:42:26
TheCounter hat irgendwie schon recht....aussehen tut es wirklich nur nach einer Karte.
Vielleicht ist es ja wirklich so eine Karte wie die 2x6600GT-Auf-Einem-PCB Karte von Gigabyte...nur eben mit ATI.
Blau waren früher die Boards von Hercules...die gibs aber nicht mehr.
Es gäbe auch immer noch die Möglichkeit, das wir alle in die völlig falsche Richtung tippen und es gar keine ATI-GraKa ist, sondern die Gerüchteumwobene 24/16-Karte von nV (aka nv47 oder 48).
Ich habe nämlich langsam das Gefühl, das die in dem Rechner verbaute Karte überhaupt nichts mit der OC-Veranstaltung zu tun hat.
Oder hat es gar nicht direkt etwas mit der Leistung der Grafikkarte zutun. Könnte es sein, daß es irgendwie gelungen ist, die Anbindung des Arbeitsspeichers an die Grafikkarte und/oder die CPU so zu beschleunigen, daß mit 4 Gigabyte Speicher (was ja schon bemerkenswert viel ist) ein dermaßen großer Leistungssprung zu erzielen ist? Eigentlich nicht oder? Am spannendsten wäre es allerdings, wenn die Leistung doch direkt von der Grafikkarte käme, aber diese wiederum weder von ATI, noch von NVIDIA! Einige Andeutungen von ihm könnte man ja so verstehen:
There will indeed be a 512 meg card showing up very soon and for those of you going to Dallas for the lan event you will be in for some nice surprises. However the first post in this thread is certainly is not a "currently released card with 512 meg of ram". Kann natürlich nur ein Ablenkungsmanöver sein, hört sich aber so an wie: Sicher wird es in Dallas was feines, neues von ATI geben, aber das hat nix mit der Karte von »mir« zutun, bzw. die Karte nix mit ATI.
Well you see you are sucked into the ATI hype. I never said in the first post the GFX in the test rig was ATI. everyone just assumes it is an ATI card(s) because we are "ATI friendly" here … Er sagt es ja selbst, sie gelten als ATI freundlich, würde NVIDIA denen etwa einen Prototyp anvertrauen? Glaube ich nicht. … I cannot post information on the setup we are testing but there is more unreleased hardware than just the GFX card involved within that test system. Eine Anspielung auf den Prozessor? Also vielleicht eine Karte von INTEL? :O
The inquirer posted a story about a 512 card from ATI being released soon and pointed to this site and this thread, im just saying that these tests have nothing to do with a currently available GFX technology with additional ram. I know there are a million and one questions but I cant answer them for legal reasons, I will say, there are good times ahead in 2005.
Je mehr ich über seine Aussagen nachdenke, desto deutlicher wird für mich, da ist die Rede einem DRITTEN SPIELER! :O :O Das wäre ja der HAMMER!
ShadowXX
2005-02-25, 20:51:37
Hat sie auch nicht, wie kommst du darauf das sie was damit zu tun hat? Nur weil diese beiden Ereignisse zeitlich so nah beieinander liegen?
Waren ja die meisten von Ausgegangen......
Aber auch hier hast du recht....es wird nirgends erwähnt, das es was mit dieser Veranstaltung zu tun hat.
Als kleiner Einwurf (bezogen auf Ziggi Stardusts letze Bemerkung):
Series 5? (war doch 5 oder? Ich bekomme diese Series X Dinger von PVR immer durcheinander.)
Die neue XGI.....oder der was von S3? (warum sollen nicht auch mal andere Quantensprünge hinbekommen)
Also Intel ist es sicher nicht. XGI und S3 kann man eigentlich auch ausschließen. Bliebe PowerVR, aber das ist auch unwahrscheinlich...
TheCounter
2005-02-25, 20:53:01
Je mehr ich über seine Aussagen nachdenke, desto deutlicher wird für mich, da ist die Rede einem DRITTEN SPIELER! :O :O Das wäre ja der HAMMER!
PowerVR S5 oda wie ;D
Entweder es ist eine Karte von ATi oder von NVIDIA. PowerVR halte ich aber eher für unwarscheinlich da wirklich noch absolut keinerlei Informationen darüber rausgekommen sind.
Ansonsten kenn ich eigentlich niemanden anderen der genug finanzielle Mittel hätte so eine Karte herzustellen und auch noch auf den Markt zu bringen.
Naja wir werdens hoffentlich bald sehen (Vlt. ja im März?).
EDIT:
LoL, gleich 3 Leute im selben Moment den selben Gedanken ;D
ShadowXX
2005-02-25, 21:02:11
Also Intel ist es sicher nicht. XGI und S3 kann man eigentlich auch ausschließen. Bliebe PowerVR, aber das ist auch unwahrscheinlich...
Unwahrscheinlich das es sich um eine PVR handelt ist es schon....aber wohl nicht völlig unmöglich.
Einer der PVR-Gurus (dessen Name mir gerade nicht einfällt) meinte AFAIR einmal, das die Sache mit der Series 5 noch nicht zu 100% vom Tisch ist......
Allerdings wäre AiL dann wohl schon längst in Erscheinung getreten oder hätte in anderen Threads schon was in diese Richtung erzählt....
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.