Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 6
Der G80 ist auch eine völlig neue Generation, die mit den Chips vorher sehr sehr wenig (bis überhaupt nix) zu tun hat.....
wo widerspricht sich das mit meiner aussage?
der NV3x war auch eine neue Generation und ein Rohrkrepierer (der sogar später auf den Markt kam) aber der NV40 und G70 sind z.b. gute Bsp. dafür das man hier und da noch an der Architektur pfeilen hätte können und ATI eben etwas Später mit einer besseren Architektur gepunktet hat da sie eben das design besser ausgepfeilt haben und sicherlich von den verfrühten NV Designs gelernt haben
reunion
2007-03-28, 16:47:12
Ja, anscheinend geht ATI den Zwischenschritt G90 nicht mit. Das wird interessant, wie sich das dann entwickelt...
Sofern G90 überhaupt mehr als ein Shrink ist.
Es ist aber das einzige, das man noch als "Information" bezeichnen könnte.
Oder hast du bessere Quellen?
Was ist denn das für einen Logik? Nur weil es aktuell nichts gibt, muss man ja nicht irgendwelche Phantasien eine zweifelhaften Mannes hier breittreten.
AnarchX
2007-03-28, 16:59:54
R600@GDDR3 mit 800MHz Speichertakt? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=333&Itemid=1)
seahawk
2007-03-28, 17:09:02
Wissen wir ob G80 nicht evtl. auch ein Rohrkrepierer ist ? Ohne die Konkurrenz gesehen zu haben ist der Chip schwer zu bewerten.
Ja, das wissen wir. Kein Rohrkrepierer, da quasi doppelte Leistung verglichen mit der 7900GTX oder X1900XTX.
reunion
2007-03-28, 17:19:04
Ja, das wissen wir. Kein Rohrkrepierer, da quasi doppelte Leistung verglichen mit der 7900GTX oder X1900XTX.
Das schaffte selbst ein NV30. Aber trotzdem gebe ich dir recht, dafür ist das gesamte Paket einfach zu gut. Über was wir allerdings noch so gut wie gar nichts wissen, sind die neuen Features, welche für den Chip beworben werden, nämlich D3D10-Unterstützung. Und hier gibt er durchaus noch ein großes Fragezeichen.
R600@GDDR3 mit 800MHz Speichertakt? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=333&Itemid=1)
Eine um ca. 19% höhrere Bandbreite für das im Mai erhältliche Modell wäre ziemlich, aehm, lächerlich.
Und wenn die Karte dann auch nur 512Mib Speicher haben sollte, dann muss man die Karte schon von vorne rein für unter 400$ anbieten...
ShadowXX
2007-03-28, 17:23:53
Das schaffte selbst ein NV30. Aber trotzdem gebe ich dir recht, dafür ist das gesamte Paket einfach zu gut. Über was wir allerdings noch so gut wie gar nichts wissen, sind die neuen Features, welche für den Chip beworben werden, nämlich D3D10-Unterstützung. Und hier gibt er durchaus noch ein großes Fragezeichen.
Beim R600 wissen wir noch nicht mal was über die DX9-Leistung....
reunion
2007-03-28, 17:25:44
Beim R600 wissen wir noch nicht mal was über die DX9-Leistung....
Genauso wie bei R700. Was hat das mit meinem Text zu tun?
Über was wir allerdings noch so gut wie gar nichts wissen, sind die neuen Features, welche für den Chip beworben werden, nämlich D3D10-Unterstützung. Und hier gibt er durchaus noch ein großes Fragezeichen.Warum sollte der G80 unter D3D10 schlechter performen als unter D3D9? Irgendwie leuchtet mir diese Logik nicht ein.
seahawk
2007-03-28, 17:27:58
Ja, das wissen wir. Kein Rohrkrepierer, da quasi doppelte Leistung verglichen mit der 7900GTX oder X1900XTX.
Und im Vergleich zur GeForce 4 sah die 5800Ultra auch ganz gut aus.
AnarchX
2007-03-28, 17:28:41
Eine um ca. 19% höhrere Bandbreite für das im Mai erhältliche Modell wäre ziemlich, aehm, lächerlich.
Und wenn die Karte dann auch nur 512Mib Speicher haben sollte, dann muss man die Karte schon von vorne rein für unter 400$ anbieten...
Das R600XT bzw. die GDDR3-Karte mit einem attraktivem Preis daherkommen könnte, wurde durchaus schon berichtet. ;)
Mit 800MHz kann man ja trotzdem noch die "wichtige" 100GB/s-Marke nehmen.
reunion
2007-03-28, 17:30:57
Warum sollte der G80 unter D3D10 schlechter performen als unter D3D9? Irgendwie leuchtet mir diese Logik nicht ein.
Vielleicht weil nV bei einigen neuen Features in D3D10 knausrig mit den Transistoren umgegangen sein könnte?
Das R600XT bzw. die GDDR3-Karte mit einem attraktivem Preis daherkommen könnte, wurde durchaus schon berichtet. ;)
Tja, da hat nVidia wirklich ein goldenes Händchen gehabt und lachen wahrscheinlich darüber, dass AMD keine vernünftigen Margen erreichen werden.
Mit 800MHz kann man ja trotzdem noch die "wichtige" 100GB/s-Marke nehmen.
Es bleiben trotzdem nur 19% mehr Bandbreite. Dem Käufer für eine Karte über 200€ wird es egal sein, ob 86400GB/s oder 102400GB/s, wenn ier Länge des Balken gerade mal ein bisschen länger ist.
Vielleicht weil nV bei einigen neuen Features in D3D10 knausrig mit den Transistoren umgegangen sein könnte?
Und die wären?
Fetza
2007-03-28, 17:32:58
Das R600XT bzw. die GDDR3-Karte mit einem attraktivem Preis daherkommen könnte, wurde durchaus schon berichtet. ;)
Mit 800MHz kann man ja trotzdem noch die "wichtige" 100GB/s-Marke nehmen.
Wenn das stimmt, was fuad schreibt, wird der r600 ja erst im april seinen produktionsanfang erleben. Könnte es vielleicht sein, das ati tatsächlich den eigentlich r600 aufgegeben hat, und statt dessen direkt den refresh bringt -
r650 bringt? Welchen grund gäbe es sonst, für den späten produktionsanfang?
greetz
Fetza
2007-03-28, 17:34:46
Tja, da hat nVidia wirklich ein goldenes Händchen gehabt und lachen wahrscheinlich darüber, dass AMD keine vernünftigen Margen erreichen werden.
Es bleiben trotzdem nur 19% mehr Bandbreite. Dem Käufer für eine Karte über 200€ wird es egal sein, ob 86400GB/s oder 102400GB/s, wenn ier Länge des Balken gerade mal ein bisschen länger ist.
Wenn die karte für 399 euro in den markt gebracht würde, aber dafür eine gtx outperformt wäre ich mir da nicht so sicher. Ist natürlich nur eine vermutung, aber alles ändere wäre ja nicht preisgünstig.
Wenn die karte für 399 euro in den markt gebracht würde, aber dafür eine gtx outperformt wäre ich mir da nicht so sicher.Warum sollte ATI eine schnellere Karte deutlich billiger verkaufen? Wenn der R600XTX eine GTX "outperformt", kann ATI dafür auch mehr Kohle verlangen.
reunion
2007-03-28, 17:38:59
Und die wären?
Was willst und jetzt hören? Eine Liste mit allen Neuerungen in D3D10? Ein FSX-Entwickler gab ja schon an, dass es um die GS-Leistung zumindest momentan nicht sonderlich gut steht.
Und wenn die Karte dann auch nur 512Mib Speicher haben sollte, dann muss man die Karte schon von vorne rein für unter 400$ anbieten...
Wenn die Leistung stimmt, muss man das sicher nicht.
Fetza
2007-03-28, 17:43:24
Warum sollte ATI eine schnellere Karte deutlich billiger verkaufen? Wenn der R600XTX eine GTX "outperformt", kann ATI dafür auch mehr Kohle verlangen.
um was gut zu machen, bei den kunden. Sozusagen als dankeschön das man gewartet hat und für die geheimniskrämerei. Schließlich kann man ja noch mit der gddr4 version die 500 euro marke in angriff nehmen. Ausserdem wird die gtx vom preis ja auch fallen, sobald ati die karte launcht.
[MK2]Mythos
2007-03-28, 18:20:22
Um bei den Kunden wieder etwas gut zu machen? LOL
Das glaubst du doch hoffentlich selber nicht. Die R600 Karten werden so angeboten, dass sie Preis/Leistungsmäßig eine Konkurrenz für die NVIDIA Karten darstellen, nicht mehr und nicht weniger. Denn wie die Preise dann aussehen, wird vermutlich NVIDIA passiv mitregeln. Manche sollten mal probieren, ihre persönlichen Wunschvorstellungen von den Tatsachen zu trennen. ;)
|MatMan|
2007-03-28, 19:03:07
auf einen Preiskampf werden sich beide Hersteller nicht einlassen, jedenfalls nicht im Highend, dazu sind die Karten und Chips einfach zu teuer.
Bei ATi wohl eher erstes, während bei nVidia wohl der Chip teurer sein sollte als bei ATI, weil er mehr Waferfläche benötigt (unter der Annahme, dass die Yields mit der Zeit in etwa ähnlich werden).
Beide Herstellen wollen und müssen Geld verdienen, Dumpingpreise will keiner von beiden.
Vielleicht weil nV bei einigen neuen Features in D3D10 knausrig mit den Transistoren umgegangen sein könnte?
ich denke, das macht bei universellen ALUs keinen Sinn, wo soll man da denn etwas einsparen, das nicht auch auf die DX9-Leistung Auswirkung hätte?
Totaler FUAD hier, bis erste echte DX10 Benchmarks / Spiele kommen is die heutige Generation 2fach überholt. Und den G80 mit dem NV30 zu vergleichen is ja wohl das lächerlichste was seit längerem hier zu lesen war/ist (selbe gilt für 3dfx=amd/ati vergleiche und so schmarrn).
Man kann nicht "knauserig" mit Transistoren bei DX10 Features sein, entweder man erfüllt die Spec oder man tuts nicht und dann hat man kein DX10 Bapperl.
Is immer das selbe, nur weil ein einzigstes mal ein Hersteller wirklich an der Spec vorbei Entwickelt hat (warum is jetzt egal!) wird gleich bei Verspätungen oder einfach Fanboyismus Argumentation die alte Leier rausgeholt ^^
Fakt ist das die max. Ausführung einer R600 Karte sich mit Sicherheit nicht sehr weit von einer GTX bewegen wird, zumal diese gar nicht deren Konkurrent ist, da sie einen niedrigeren Preis haben wird.
Wer glaubt das R600 32TMUs bei 800MHz laufen hat um die Füllrate eines G80 zu schlagen? Das wäre das absolut einzigste Argument/Feature um sich erheblich vom G80 abzusetzen, denn bei heutiger Software is die Shaderleistung immer noch nicht soo wichtig wie propagiert, und da dürfen manche sogar im eigenen Lager (R520/R580) nachbenchen.
Wenn, wie hier "orakelt" wird, das der G80 eine Scheiß, wirklich mit NV30 Vergleichbare DX10 Performance hinlegt, warum gibts dann keinen R600. Warum BRAUCH der R600 die viel höhere Taktrate um gegen ein G80 zu bestehen? Warum hat man nicht im Dezember/Februar released, als DX10 raus kam und man mit VIEL besseren Treibern hätte glänzen können...
Es wird wieder unrealistischer hier, keine Spekus sondern nur eingefärbte "Vermutungen" ^^
Was willst und jetzt hören? Eine Liste mit allen Neuerungen in D3D10? Ein FSX-Entwickler gab ja schon an, dass es um die GS-Leistung zumindest momentan nicht sonderlich gut steht.
Zitat: "Vielleicht weil nV bei einigen neuen Features in D3D10 knausrig mit den Transistoren umgegangen sein könnte?"
Wenn du sowas sagst, müsstest du wenigsten erklären können, an welchen Features gespart wurde.
Wenn die Leistung stimmt, muss man das sicher nicht.
512Mib Speicher sind zu wenig, um die Karte gegen die GTX antreten lassen zu können. Speicher kann man durch nichts anderes als durch mehr Speicher ersetzen. Und es ist besser 256 Mib mehr Speicher zu haben als zu wenig.
Und wenn man dann noch die Psyche des Käufer beim kauf betrachtet...
Vielleicht sollte Ati den R600 umbenennen in "Der Duke" :D :D :D.
Fetza
2007-03-28, 23:20:43
Mythos;5364848']Um bei den Kunden wieder etwas gut zu machen? LOL
Das glaubst du doch hoffentlich selber nicht. Die R600 Karten werden so angeboten, dass sie Preis/Leistungsmäßig eine Konkurrenz für die NVIDIA Karten darstellen, nicht mehr und nicht weniger. Denn wie die Preise dann aussehen, wird vermutlich NVIDIA passiv mitregeln. Manche sollten mal probieren, ihre persönlichen Wunschvorstellungen von den Tatsachen zu trennen. ;)
Ati hat klar gesagt, das die r600 boards ein zu einem guten preis in den handel kommen sollen. Ich gebe zu, das mit dem etwas gut machen, ist ein bisschen vermenschlicht :) Aber Ati hat selbst gesagt, die karten solchen auch gerade im preis erfreulich werden. Wie gesagt, sollte der r600 auch nicht wirklich leistungsfähiger werden, bleibt ihnen garnichts anderes übrig. Oder würdest du eine karte kaufen, die 6 monate nach g80 releast wird, nur um gleiche leistung zu bekommen, ohne jeden vorteil? Ich bestimmt nicht.
R600 wird entweder im preis oder in der leistung ein echtes argument bieten müssen, ich glaube kaum das selbst hartgesottene fanboys sich das teil kaufen würden, nur um sagen zu können "ich hab endlich die ati antwort auf den g80 und er ist sogar 200 3dmark schneller";D
Zitat: "Vielleicht weil nV bei einigen neuen Features in D3D10 knausrig mit den Transistoren umgegangen sein könnte?"
Vor allem ist die Aussage schon älter und die Performance der Treiber hat sich bereits verbessert.
Zu dem Thema kann man einfach überhaupt nichts sagen bevor man beide Boards hat und das ganze Mal vernünftig synthetisch ausmisst.
Was die Rechnungen im GS angeht wird G8x natürlich nicht langsamer sein als im PS oder VS. Das einzige was ein Problem sein könnte ist das Erzeugen neuer Primitives - wenn man da an On-Chip-Caches gespart hat wäre es evtl. ineffizient.
Gerade das Demo in dem aber fast keine neuen Vertices erzeugt werden sondern das diese nur auf MRTs verteilt (das GS-Cubemap-Demo im D3D10-SDK) lief sehr sehr langsam mit den ersten G80-Treibern. Das dieses Problem auch bei FFX aufgetreten ist ist nicht unwahrscheinlich, vor allem weil schöne Reflexionen auf Flugzeugen damit möglich wären (zumindest Beschleunigung derer wenn es sie auch mit D3D9 schon gibt. Ich hab FFX nicht).
Aber meine Gedanken wären einfach, dass es für nVIDIA unlogisch ist ein derartig publikumswirksames Thema (GS ist DAS D3D10-Feature für die meisten Leute) zu vernachlässigen. Dann hätten sie echt nichts gelernt aus der Vergangenheit.
Just my 2 cents...
Coda:Also könte es wieder sein das die Ati Karte auf längere sicht die bessere ist ?Ich mein denn Vergleich R580/G71.
mapel110
2007-03-29, 00:28:23
Was soll Codas Aussage mit R580 und G71 zu tun haben?!
Fetza
2007-03-29, 01:46:26
Was soll Codas Aussage mit R580 und G71 zu tun haben?!
ich glaube er bezieht das auf die derbe p-shader leistung des r580, da r580 mittlerweile schon in allen modernen spielen deutlich vorne liegt, im vergleich zu g71. Also quasi so wie in der letzten generation ps leistung, jetzt dann gs leistung zwischen den aktuellen generationen.
Ailuros
2007-03-29, 08:07:36
Und im Vergleich zur GeForce 4 sah die 5800Ultra auch ganz gut aus.
Es ist zwar wieder verdammt OT, aber wenn dann rechne gefaelligst mit dass GF4 im Vergleich zu GF5 "zu viel" gefiltert hat mit AF oder andersrum GF5 zu wenig. GF4 hatte keinerlei Filterungs-Optimierungen "eingebaut" man konnte lediglich via Rivatuner texturing stages fuer Zeug wie UT2k3 abschalten.
Ailuros
2007-03-29, 08:16:41
Ati hat klar gesagt, das die r600 boards ein zu einem guten preis in den handel kommen sollen. Ich gebe zu, das mit dem etwas gut machen, ist ein bisschen vermenschlicht :) Aber Ati hat selbst gesagt, die karten solchen auch gerade im preis erfreulich werden. Wie gesagt, sollte der r600 auch nicht wirklich leistungsfähiger werden, bleibt ihnen garnichts anderes übrig. Oder würdest du eine karte kaufen, die 6 monate nach g80 releast wird, nur um gleiche leistung zu bekommen, ohne jeden vorteil? Ich bestimmt nicht.
R600 wird entweder im preis oder in der leistung ein echtes argument bieten müssen, ich glaube kaum das selbst hartgesottene fanboys sich das teil kaufen würden, nur um sagen zu können "ich hab endlich die ati antwort auf den g80 und er ist sogar 200 3dmark schneller";D
Von der finanziellen Perspektive ist das Ganze aber alles andere als optimal fuer AMD.
AnarchX
2007-03-29, 08:23:54
OCW: ATi will announce R600, RV610, RV630 in Mid May 2007 (http://forums.ocworkbench.com/bbs/showthread.php?%20threadid=61332)
According to the doggies, they have discovered that ATi will officially launch the R600, RV610, RV630 in Mid May 2007. If nothing goes wrong, cards should be available right after the launch date or by end of May.[...]
Ailuros
2007-03-29, 08:33:04
Was willst und jetzt hören? Eine Liste mit allen Neuerungen in D3D10? Ein FSX-Entwickler gab ja schon an, dass es um die GS-Leistung zumindest momentan nicht sonderlich gut steht.
Ein Entwickler aber sonst ist es ziemlich ruhig in der Zwischenzeit was alle anderen Entwickler betrifft oder?
Glaubst Du dass in der Zwischenzeit das DevRel-Team von NV ueberhaupt nicht mit dem Thema beschaeftigt hat? Oder erwartest Du eine neuere Aussage vom selben Herrn in der Zwischenzeit falls sich was geaendert haben sollte?
AMD war ehrlich genug und sagte (zu einem Zeitpunkt wo ihre Vista Treiber genauso beschissen waren wie bei der Konkurrenz) dass sie einen ca. 10% Unterschied unter Vista im Vergleich zu G80 messen konnten. Egal was die Erklaerung fuer jegliche Seite darauf sein sollte, es sollte mir jemand mal lieber eine anstaendige Antwort geben warum produktionsreife HW in der letzten Minute nochmal verzoegert wurde.
Ist es wirklich eine rein parteiische Erklaerung wenn ich jetzt behaupte dass zu diesem Zeitpunt weder die HW noch die Treiber ueberzeugen konnten?
Oder anders gib mir einen guten Grund warum eine wirklich effizientere D3D10 GPU sich nur unter D3D10/Vista wirklich absetzen koennte.
Offiziell ist es jetzt, dass der Barcelona und AgenaFX zeitgleich mit dem R600 hardgelauncht werden.
Ach btw. was mir noch eingefallen ist. Die Integer-Performance könnte auf R600 besser sein. 32-Bit-Integer-Berechnungen laufen auf G8x nur mit halbem Durchsatz.
Ist imho aber eh nur synthetisch relevant, und was ATI da implementiert hat muss man auch abwarten.
PCGH_Carsten
2007-03-29, 12:12:59
Ist imho aber eh nur synthetisch relevant, und was ATI da implementiert hat muss man auch abwarten.
Wenn es "Full-Speed" drin ist, sollte das aber gehörig ins Transistor-Budget schlagen, oder?
Anarchy-HWLUXX
2007-03-29, 12:13:43
Offiziell ist es jetzt, dass der Barcelona und AgenaFX zeitgleich mit dem R600 hardgelauncht werden.
Mmmmmhhhhh, AgenaFX :ujump2:
War irgendwie klar das AMD net ein Core 2 Quad untersatz zum Benchen benutzten wird ;D
James Ryan
2007-03-29, 12:29:21
Offiziell ist es jetzt, dass der Barcelona und AgenaFX zeitgleich mit dem R600 hardgelauncht werden.
*und man wartet munter weiter* :rolleyes:
Eigentlich sollte der Kunde die komplette R6xx Reihe boykotieren, A/A stolpert von einer Peinlichkeit in die nächste.
Da wird meine GTO noch durchhalten müssen... *wart*
MfG :cool:
[MK2]Mythos
2007-03-29, 12:56:49
@Fetza, ich kaufe mir die Hardware, die mir zum Zeitpunkt meines beabsichtigten Kaufs das beste Preis/Leistungsverhältnis ( im High End ) bietet. Ob das der R600 oder ein G80 sein wird, werden die Reviews entscheiden. Jedoch ist es mir völlig egal ob der R600 zum Zeitpunkt meines Kaufs schon 6 Monate Verspätung hat, oder ganz frisch auf dem Markt ist. Wenn der eine vergleichbare Leistung wie der schon seit 8 Monaten erhältiche G80 hat, wird in meinem Fall ein ATi Brett gekauft, weil ich noch aus 3DFX Zeiten eine gewisse Antipatie gegen NVIDIA habe. ;)
*und man wartet munter weiter* :rolleyes:
Eigentlich sollte der Kunde die komplette R6xx Reihe boykotieren, A/A stolpert von einer Peinlichkeit in die nächste.
Da wird meine GTO noch durchhalten müssen... *wart*
MfG :cool:
Aber viele werden es nicht boykottieren wenn sie sehen das die R600XTX (Eventuell sogar eine XTX PE) GPU ein G80 um 20% im Schnitt zu überflügeln weiß, zumal der neue Opteron 2400SE T44 (4x2,9ghz und so schnell wie ein QX mit ca 3,4ghz) auch nicht schlecht ist. Und zum Launch wird der Unterbau ein DFI mit SB700 und Crossfire 4800 Chipsatz.
greetz
James Ryan
2007-03-29, 13:02:29
Aber viele werden es nicht boykottieren wenn sie sehen das die R600XTX (Eventuell sogar eine XTX PE) GPU ein G80 um 20% im Schnitt zu überflügeln weiß, zumal der neue Opteron 2400SE T44 (4x2,9ghz und so schnell wie ein QX mit ca 3,4ghz) auch nicht schlecht ist. Und zum Launch wird der Unterbau ein DFI mit SB700 und Crossfire 4800 Chipsatz.
greetz
*gääääääääääääääääääääähn*
20% schneller als eine GTX? Lächerlich... bis Ende Mai hat NVIDIA noch soviel Zeit eine dicke Ultra-Variante zu bringen, vielleicht sogar einen richtigen G80 Refresh.
Mich persönlich interessiert das nur am Rande: Viel wichtiger wird das Duell XL vs. GTS werden. Wer da besser (d.h. nicht nur schneller sondern auch bessere Treiber, BQ, Stromverbauch, leiserer Kühler etc.) abschneidet, wird gekauft. Ich denke so geht es dem Großteil hier. ;)
MfG :cool:
Trixter
2007-03-29, 13:12:25
wenn nvidia eine ultra für 999 euro bringen würde, dann kann ich mir nicht vorstellen, das sich so was jemand kauft, das ist schon mehr als overkill für eine karte
*gääääääääääääääääääääähn*
20% schneller als eine GTX? Lächerlich... bis Ende Mai hat NVIDIA noch soviel Zeit eine dicke Ultra-Variante zu bringen, vielleicht sogar einen richtigen G80 Refresh.
Mich persönlich interessiert das nur am Rande: Viel wichtiger wird das Duell XL vs. GTS werden. Wer da besser (d.h. nicht nur schneller sondern auch bessere Treiber, BQ, Stromverbauch, leiserer Kühler etc.) abschneidet, wird gekauft. Ich denke so geht es dem Großteil hier. ;)
MfG :cool:
ATi wird noch bis zu 10% aus den Treibern raus holen können was ganz ordentlich ist, mal schauen was NVIDIA bringt. Die XT wird mit der GTX gleichziehen können während die XL sich eventuell mit einem Patt zufrieden geben muss,jedoch 5%-10% Potenzial noch vorhanden sind. Dafür ist die ATI Radeon X2900 Serie mit schönen Extras gespickt wie z.B. der hervorragenden Bildqualität der sogar die schon sehr gute Qualität der X1950 Serie toppen weiß.Kühlung ? Es sieht so aus als wenn es zwei Alternativen gibt, wo man sich noch nicht so einig ist. Entweder der auf den Bilder von TT gezeigte Kühler oder eine Kühlung mit zwei Lüftern.
mfg
der gast
wenn nvidia eine ultra für 999 euro bringen würde, dann kann ich mir nicht vorstellen, das sich so was jemand kauft, das ist schon mehr als overkill für eine karte
Man weiß von der Ultra noch garnichts.
Es kann sich um eine neue Ultra High-End Karte handeln wie es die 7800GTX 512Mib war oder das Loch zwischen GTS und GTX schließen.
999$ für eine Karte, welche ein paar Prozentpunkte schneller ist? Das könnte funktionieren, wenn man ein Monopol hätte.
Wenn es "Full-Speed" drin ist, sollte das aber gehörig ins Transistor-Budget schlagen, oder?
Ja, man bräuchte etwas breitere ALUs. Deshalb hat es nVIDIA wohl auch bleiben lassen (über CUDA steht immerhin die gesamte Mantisse für Integer-Berechnungen zur Verfügung, in D3D10 wohl nur 16-Bit).
Trixter
2007-03-29, 13:25:27
Man weiß von der Ultra noch garnichts.
Es kann sich um eine neue Ultra High-End Karte handeln wie es die 7800GTX 512Mib war oder das Loch zwischen GTS und GTX schließen.
999$ für eine Karte, welche ein paar Prozentpunkte schneller ist? Das könnte funktionieren, wenn man ein Monopol hätte.
oder nur wenn man nur performance sieger sein will und die ja nur in kleinen stückzahlen produziert, um marketingtechnisch nr. 1 zu sein :)
ShadowXX
2007-03-29, 13:29:32
Dafür ist die ATI Radeon X2900 Serie mit schönen Extras gespickt wie z.B. der hervorragenden Bildqualität der sogar die schon sehr gute Qualität der X1950 Serie toppen weiß.
mfg
der gast
Damit ist auch schon der G80 gespickt.
ATI kann fast nur über Speed punkten....und das wissen Sie selbst scheinbar auch ganz genau.
Das Problem, das ich sehe, ist das 20% Mehrleistung gegenüber einer GTX nicht viel bringen, da die Karte inzwischen so spät ist, das alles andere sowieso ein Lacher wäre.
Anarchy-HWLUXX
2007-03-29, 13:52:02
Dafür ist die ATI Radeon X2900 Serie mit schönen Extras gespickt wie z.B. der hervorragenden Bildqualität der sogar die schon sehr gute Qualität der X1950 Serie toppen weiß.
Extras ? Die G80 hast super Bildquali per default aktiviert - bei den X1950 muss man diese seperat im Treiber einschalten ... das getrickse mit AI muss ATi seinlassen und volle Quali vom start weg liefern, ansonsten kann man die BQ kaum mehr so verbessern verglichen mit der G80 das man es im Game auch merklich sehen kann ...
Extras ? Die G80 hast super Bildquali per default aktiviert - bei den X1950 muss man diese seperat im Treiber einschalten ... das getrickse mit AI muss ATi seinlassen und volle Quali vom start weg liefern, ansonsten kann man die BQ kaum mehr so verbessern verglichen mit der G80 das man es im Game auch merklich sehen kann ...
Was Adaptive Anti-Aliasing für Alphatexturen für ein Gewinn war, wird der neue Hybrid-AA-Mode für die anderen Texturen sein!
James Ryan
2007-03-29, 14:17:37
Was Adaptive Anti-Aliasing für Alphatexturen für ein Gewinn war, wird der neue Hybrid-AA-Mode für die anderen Texturen sein!
Also SuperSampling? Grandioses "neues" Feature... bietet NVIDIA schon seit der Gf 1 an. :rolleyes: ;D
Find es übrigens recht lustig dass noch nicht einmal sicher ist welcher Kühler denn nun eingesetzt werden soll.
Und die 10% mehr Perfomance per Treiber sind so gut wie nichts. Wie will ATi auf eine Gf 8800 Ultra mit ca. 700/1500 MHz GPU/Shadertakt reagieren?
Mit einer X2900 XTX PE-HyperXYZABC welche dann im Mai 2009 kommt?
ATI muss den R600 so schnell wie möglich bringen, um den G80 noch da treffen zu können wo es momentan(!) noch Schwachstellen gibt: im Treiber.
Bringt NVIDIA am 17. April mit der Gf 8800 Ultra einen ordentlichen Treiber mit, sieht es für den R600 noch schwärzer aus.
Womit soll er dann noch punkten?
MfG :cool:
Damit ist auch schon der G80 gespickt.
ATI kann fast nur über Speed punkten....und das wissen Sie selbst scheinbar auch ganz genau.
Das Problem, das ich sehe, ist das 20% Mehrleistung gegenüber einer GTX nicht viel bringen, da die Karte inzwischen so spät ist, das alles andere sowieso ein Lacher wäre.
Ich denke, der R600 wird sowieso nicht in der Form, in der er ursprünglich gedacht war kommen. ATi wird ihn wohl verbessern müssen und ihn sozusagen als Refresh ohne je offiziell erschienenen Vorgänger launchen. Mehr als GTX Speed war wahrscheinlich nie vorgesehen und dank der Verspätung müssen sie sich jetzt auf nV's Refresh vorbereiten. Die jetzige "Schlacht" ist schon so gut wie verloren, jetzt müssen sich gleich auf das neue konzentrieren. Jetzt noch auf Teufel komm raus versuchen dem G80 einen Konkurrenten entgegenzusetzen und gleichzeitig den Refresh zu vernachlässigen, wäre mehr als törricht. Die ganzen Verschiebungen deuten das auch an. Am Ende kann man froh sein, dass ATi, wenn nV seinen Refresh rausbringt, was gleichwertiges entgegensetzen kann. Somit könnte das nächste High End Modell von ATi im Herbst rauskommen.
w0mbat
2007-03-29, 15:04:15
Infos von FUDzilla: QX6700 + R600 ES = ~11,5k Pkt. im 06er
seahawk
2007-03-29, 15:11:11
Mit dem 8.35 Cat !! Das ist keinesfalls die Leistung die wir am Launchday sehen werden.
w0mbat
2007-03-29, 15:18:59
Wie viel kann ATI noch über die Treiber machen? Was wird der Releasetreiber?
aehmkei
2007-03-29, 15:25:02
Infos von FUDzilla: QX6700 + R600 ES = ~11,5k Pkt. im 06er
Ist das viel/wenig - kann das mal bitte einer in Relation setzen?
AnarchX
2007-03-29, 15:27:41
Ist das viel/wenig - kann das mal bitte einer in Relation setzen?
Hier ist der Link dazu:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=345&Itemid=1
Der Wert ist aber eh recht wertlos ohne genauere Angaben zum System, weiterhin muss 3DMark nichts über die Gameperformance aussagen, wie man ja an der GF7-Serie sieht. ;)
Wie viel kann ATI noch über die Treiber machen? Was wird der Releasetreiber?
Wie schon beschrieben so 10% Potenzial sind noch drin! Genau genommen steht der Releasetreiber noch nicht fest aber im Pakt soll der 8.36.2 liegen!
Damit ist auch schon der G80 gespickt.
ATI kann fast nur über Speed punkten.....
falsch
um mit NV an allein an die normale AA Qualität zu kommen brauch man leistungsfressende SQsonstwasAA modi.
lies mal Artikel,das normale AA hat NV null verbesserst mit dem G80
ATI liegt immernoch klar vorn
James Ryan
2007-03-29, 15:48:45
falsch
um mit NV an allein an die normale AA Qualität zu kommen brauch man leistungsfressende SQsonstwasAA modi.
lies mal Artikel,das normale AA hat NV null verbesserst mit dem G80
ATI liegt immernoch klar vorn
Mein Gott, lebst du hinterm Mond? Der G80 bietet sehr wohl neue FSAA-Modi, kauf dir mal eine Brille und lerne lesen. ATi liegt zur Zeit vorn im Produkte verschieben und heiße Luft verbreiten, nichts weiter!
Diese Trollgäste... :rolleyes:
falsch
um mit NV an allein an die normale AA Qualität zu kommen brauch man leistungsfressende SQsonstwasAA modi.
lies mal Artikel,das normale AA hat NV null verbesserst mit dem G80
ATI liegt immernoch klar vornRiesengroßer Unfug. Schon beim NV40 war das MSAA bis 4x absolut gleichwertig zu den ATI-Pendanten. Mit G80 kam jetzt noch ein 8x-MSAA-Modus hinzu und zusätzlich eben noch die CSAA-Modi. Dazu gibt es noch die Hybridmodi. Und jetzt erkläre mir mal bitte wo ATI "klar vorne liegt"...
Warum wird hier ständig über den G80 gesprochen???
Was hast es mit "R600: alles rund um die neue Generation," zu tun??
Jedes mal (ist leicht zu belegen;)) wenn was neues zu R600 kommt, tauchen die üblichen gestalten auf und werkünden :
hat der G80 auch......hat der G80 auch.. hat er shader?...hat er, hat er!!
Hat er pipeline??...hat er, hat er!!...hat es PS??...hat er hat er!!!......?????
(aber : selig sind die geistig armen)
gruss!!......ja, hat er, hat er!!!
Ist das viel/wenig - kann das mal bitte einer in Relation setzen?
Eine 8800GTX schafft mit dem gleichen Prozessor eine Punktzahl von 11782.
http://www.firingsquad.com/hardware/intel_core_quad_q6600_preview/page4.asp
w0mbat
2007-03-29, 17:05:23
Eine 8800GTX schafft mit dem gleichen Prozessor eine Punktzahl von 11782.
http://www.firingsquad.com/hardware/intel_core_quad_q6600_preview/page4.asp
Fuad schrieb etwas von ~10,5k Pkt. mit einer GTX auf dem gleichem System. Dein Link führt zu einem anderen Bench, ist also unwichtig.
Nein,das schrieb FUAD nicht, lies es nochmal.
w0mbat
2007-03-29, 17:14:11
In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.
Ok, nicht das gleiche Sys, aber immerhin 1k Pkt. weniger als in deinem Link.
PCGH_Carsten
2007-03-29, 17:17:38
Ok, nicht das gleiche Sys, aber immerhin 1k Pkt. weniger als in deinem Link.
Da der 06er aber ziemlich von einer CPU (besser: mehreren) profitiert, wäre das schon interessanter, auf demselben System Punktzahlen zu haben.
w0mbat
2007-03-29, 17:19:46
Ja, man müsste die Karten auf genau dem gleichen System laufen lasse. Aber auch dann würde 3DMark06 nicht viel über die wahre Spieleleistung aussagen (siehe 7900er vs. X1900er).
PCGH_Carsten
2007-03-29, 17:23:18
Fuad schrieb etwas von ~10,5k Pkt. mit einer GTX auf dem gleichem System. Dein Link führt zu einem anderen Bench, ist also unwichtig.
Das scheint sich aber trotzdem um den 06er zu handeln - lediglich eine Überschrift wurde vertauscht. Diagramme und Text sprechen eindeutig vom 06.
Da hier ebenfalls ein QX6700 genutzt wurde, halte ich den Wert schon für vergleichbarer, als den, den Herr Abazovic geliefert hat. 1.000 Punkte Differenz klingen mindestens nach einer deutlich anderen CPU.
Nakai
2007-03-29, 17:34:38
Nun der R600 wird dann nicht so viel schneller sein, was auch nicht zu erwarten war.
Wenn AMD/ATI noch den sagenumwobenen 65Nm-Bereich mitbringt, dann wäre der R600 nicht mal so schlecht.
Mittlerweile muss die X2900XTX mindestens 20% schneller als die Geforce 8800GTX sein, sodass sie selbst noch mit einer 8800Ultra mit besseren Treibern nicht so schwach dastehen.
mfg Nakai
Mittlerweile muss die X2900XTX mindestens 20% schneller als die Geforce 8800GTX sein, sodass sie selbst noch mit einer 8800Ultra mit besseren Treibern nicht so schwach dastehen.
mfg Nakai[/QUOTE]
Hallo,
warum muss die X2900XTX 20% schneller sein, ist den sicher das die 8800Ultra
20% schneller ist.
Gruß
reunion
2007-03-29, 18:01:34
Find es übrigens recht lustig dass noch nicht einmal sicher ist welcher Kühler denn nun eingesetzt werden soll.
Das ist schon von Anfang klar, auch wenn du das offensichtlich noch immer nicht mitbekommen hast.
Und die 10% mehr Perfomance per Treiber sind so gut wie nichts. Wie will ATi auf eine Gf 8800 Ultra mit ca. 700/1500 MHz GPU/Shadertakt reagieren?
An die Taktraten glaubst du doch selbst nicht.
Nakai
2007-03-29, 18:01:43
Nö natürlich nicht. Das Problem ist einfach, dass ein Vorsprung von weniger als 20% nicht beachtenswert ist. Weiterhin wird die leistung des G80 auch noch durch Treiber verbessert, was der R600 zwar auch noch erhält, aber wohl erst später.
Wenn die Geforce 8800Ultra die spekulierten 700Mhz Coreclock hat, muss der R600 mindestens 20% schneller sein. Notwendig wären sogar an die 30%.
mfg Nakai
AnarchX
2007-03-29, 18:04:22
PCGH: R600-Chip doch größer als G80? (http://www.pcgameshardware.de/?article_id=572989) :|
Die Die-Size wurde doch anhand der mitfotografierten China-Münze doch schon bestimmt -> ~420mm².
Aber natürlich ist eine Packdichte von 1,7 MT/mm² schon ziemlich gut (für ATi-Verhältnisse), aber wiederrum nichts was von NV mit dem G73-B1 ebenfalls in 80nm erreicht wurde(177MT, ~100mm²).
Also gar nicht mal so unrealistisch.
@R600 vs G80GTX und G80Ultra:
Die Frage ist nicht wie schnell der R600 sein muss, sondern wieviel schnelle er sein kann.;)
reunion
2007-03-29, 18:12:41
PCGH: R600-Chip doch größer als G80? (http://www.pcgameshardware.de/?article_id=572989) :|
Die Die-Size wurde doch anhand der mitfotografierten China-Münze doch schon bestimmt -> ~420mm².
Aber natürlich wäre eine Packdichte von 1,7 MT/mm² schon ziemlich gut (für ATi-Verhältnisse), aber wiederrum nichts was von NV mit dem G73-B1 ebenfalls in 80nm erreicht wurde(177MT, ~100mm²).
Also gar nicht mal so unrealistisch.
Da wird über die Die-Größe spekuliert, während es schon längst Die-Shots mit Vergleichsobjekten gibt, die eine relativ genaue Einschätzung ohne Probleme möglich machen. Da war jemanden wohl sehr langweilig.
w0mbat
2007-03-29, 18:13:50
Der R600 muss erstmal schneller als eine 8800GTX werden, dann kann er nach der Ultra schauen.
AnarchX
2007-03-29, 18:16:42
Da wird über die Die-Größe spekuliert, während es schon längst Die-Shots mit Vergleichsobjekten gibt, die eine relativ genaue Einschätzung ohne Probleme möglich machen. Da war jemanden wohl sehr langweilig.
Darüber hab ich mich auch gewundert. Aber das hat wohl Carsten nicht mitbekommen.
Vielleicht sollte man diesen nicht ganz unwichtigen Fakt mal ins erste Posting hinzufügen, sodass es auch der letzte mitbekommt. ;)
reunion
2007-03-29, 18:17:35
Das Problem, das ich sehe, ist das 20% Mehrleistung gegenüber einer GTX nicht viel bringen, da die Karte inzwischen so spät ist, das alles andere sowieso ein Lacher wäre.
Das sehe ich nicht so. Wenn R600 da ist, interessiert niemanden mehr, was wann auf den Markt kam. Frei nach dem Motto was zählt ist auf dem Platz. Oder glaubst du das irgendwer davon seine Kaufentscheidung abhängig macht? Es wird logischerweise wie immer das zu diesem Zeitpunkt "beste" Produkt gekauft, unabhängig vom Erscheinungsdatum.
Nö natürlich nicht. Das Problem ist einfach, dass ein Vorsprung von weniger als 20% nicht beachtenswert ist. Weiterhin wird die leistung des G80 auch noch durch Treiber verbessert, was der R600 zwar auch noch erhält, aber wohl erst später.
Wenn die Geforce 8800Ultra die spekulierten 700Mhz Coreclock hat, muss der R600 mindestens 20% schneller sein. Notwendig wären sogar an die 30%.
mfg Nakai[/QUOTE]
Danke für deine Antwort,
dann hoffen wir mal das Beste für den R600.
Gruß
Das sehe ich nicht so. Wenn R600 da ist, interessiert niemanden mehr, was wann auf den Markt kam. Frei nach dem Motto was zählt ist auf dem Platz. Oder glaubst du das irgendwer davon seine Kaufentscheidung abhängig macht? Es wird logischerweise wie immer das zu diesem Zeitpunkt "beste" Produkt gekauft, unabhängig vom Erscheinungsdatum.
Natürlich interessiert das, ich kann ein 9Monate altes Produkt sehr gut durch den Preis nochmal in den Markt drücken, vorallem wenn der Konkurrent mit seiner +100€ Version nicht wirklich schneller ist...
reunion
2007-03-29, 19:20:56
Über den Preis kann man es immer richten, doch darum ging es nicht. Ich halte es einfach für Blödsinn zu behaupten, "20% Mehrleistung würden nichts bringen, da alles andere sowieso lächerlich wäre".
seahawk
2007-03-29, 19:40:15
20-30% (realistisch imho) Mehrleistung sind 20-30% Mehrleistung und solange NV dieses nicht übertreffen kann, spielt der Erscheinungstermin des R600 keine Rolle. Und da sieht es für ATI doch gut aus. Der G80 schafft es nicht und ein Nachfolger ist nicht in Sicht.
20-30% (realistisch imho) Mehrleistung sind 20-30% Mehrleistung und solange NV dieses nicht übertreffen kann, spielt der Erscheinungstermin des R600 keine Rolle. Und da sieht es für ATI doch gut aus. Der G80 schafft es nicht und ein Nachfolger ist nicht in Sicht.
nVidia muss sie nicht übertreffen, sondern geht einfach über den Preis.
Viele vergessen hier, dass nVidia schon Karten verkauft hat und die Nachfrage nach dem r600 somit geringer ist.
laser114
2007-03-29, 20:00:52
Viele vergessen hier, dass nVidia schon Karten verkauft hat und die Nachfrage nach dem r600 somit geringer ist.
Ich würde behaupten, dass die meisten Personen in gewissen Zeitabständen aufrüsten bzw. sich einen neuen Spiele-PC kaufen und das es daher irrelevant ist, wann die Produkte auf den Markt gingen, sondern wie lange mit einem guten P/L-Verhältnis am Markt platziert waren.
Teil sieben: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=355952
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.