Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
r3ptil3
2005-06-27, 14:15:21
Fudo, nicht Fuad. ;)
Auf der Computex hatte Fudo Hausverbot.
Ähm, jetzt habe ich mich verplappert. Klar meinte ich Fudo, nur hat der Fuad mal gesagt, dass Fudo ein Namen in Bosnien ist und als Spitzname Fuad genannt wird, damit wollte er bei einer News hindeuten wegen dem Codenamen Fudo, aber das ist nicht richtig sondern eben das Fudo eine japanischer Philosophe ist.
Wiso hatte Fudo bei der Computex Hausverbot? Weil man schon wusste wenn er die R520 im Rechner sehen würde wieder seine feuchten Träume ausplappern muss?
Dachte der R520 wurde eh nur hinter verschlossenen Türen gezeigt?
r3ptil3
2005-06-27, 15:03:37
Dachte der R520 wurde eh nur hinter verschlossenen Türen gezeigt?
Ja, Fuad hat anscheinend gesamtes E3 Verbot bekommen, so bekam er keine Chance überhaupt was über die E3 zu erzählen.
pF3NG
2005-06-27, 15:05:41
Das ist aber gemein, dabei ist das doch sooo ein lieeeber Onkel ;D ;D
Man is das geil jetzt 6 wochen ferien!!!
DanMan
2005-06-27, 16:10:00
Im Netz schwirren z.Zt. einige Meldungen rum, dass sich die veröffentlichung des R520 noch min. bis August hinzieht. Quelle (http://www.hardtecs4u.com/?id=1119653295,84118,ht4u.php)
reunion
2005-06-27, 16:29:45
http://www.xbitlabs.com/news/video/display/20050627061636.html
seahawk
2005-06-27, 17:38:46
Welches Pressrelease meinen deine Quellen denn?
Editor´s day in SF.
you should see them
trickle out in mid-August for the lucky partners,
and September for the real shipments.
So is this a delay? We doubt it.
Other than the last stepping, I think all is fairly well.
I alreadt siad it 5 days ago.
No one believes that there are two versions for different shipping day.
TheGood
2005-06-27, 18:45:39
In der Gamestar steht es in einer Kolumne dass the inquirer nicht beim editors day waren. Also so eine geheimniskrämerei braucht eman gar nicht zu mahcen ;)
Quasar
2005-06-27, 18:55:53
Editor´s day in SF.
Ach so - das mag sein. In Paris ist Fuad jedenfalls gewesen.
seahawk
2005-06-27, 19:45:42
In der Gamestar steht es in einer Kolumne dass the inquirer nicht beim editors day waren. Also so eine geheimniskrämerei braucht eman gar nicht zu mahcen ;)
Deswegen kann man es ja jetzt auch hier sagen. :smile:
Quasar
2005-06-27, 22:28:48
Ich denke mal, daß der G70 tatsächlich etwas mehr war, als man bei ATi erwartet hatte (ebenso, wie beim nV40).
Um dem Paroli bei gleichzeitig überlegener Technik bieten zu können, denke ich, ziehen sie nun ihren Refresh vor und verzögern den alten R520 ein bißchen. So kommt dann im Spätsommer ein konkurrenzfähiges Paket aus High-End und Upper-Midrange, dicht gefolgt von Mid-Range und evtl. sogar Einsteigerkarten zur Weihnachts-OEM-Saison. Alles im kostensparenden 0,09µ-Prozess.
nVidia sollte sich nicht zu lange ausruhen.
robbitop
2005-06-27, 22:36:57
nVidia sollte sich nicht zu lange ausruhen.
Ich kann mir nicht vorstellen, dass man diesen Fehler begeht.
Je nach Bedarf bringt man einen höher getakteten G70 heraus.
Wie man sieht, war es eine gute Entscheidung, ersteinmal mit 90nm zu warten. Wenn der Prozess etwas fitter ist, kommt bestimmt ein aufgebohrter 90nm G70 zum Einsatz.
Quasar
2005-06-27, 22:52:02
Wie man sieht, war es eine gute Entscheidung, ersteinmal mit 90nm zu warten.
Das sieht man höchstens, wenn die 90nm-Konkurrenz da ist. Und dann sieht die Welt vielleicht ganz schnell ganz anders aus. ;)
20xSIMD mit >600MHz... dazu schneller Speicher.
Auf der Computex hatte Fudo Hausverbot.
Ein zu spät beantragtes Visum würde ich eher Landesverbot nennen...
deekey777
2005-06-27, 23:14:20
Ein zu spät beantragtes Visum würde ich eher Landesverbot nennen...
So wie seine Artikel während der Computex anfingen, klang es so, ob er gar nicht rein durfte. Ein zu spät beantragtes Visum ist ja noch besser...
r3ptil3
2005-06-28, 00:28:56
R520 doch noch Ende Juli und AGP Ready?
http://www.gamezoom.de/artikel/show/0,162843,1,11431.html
http://www.gamezoom.de/artikel/show/0,162843,1,11430.html
mapel110
2005-06-28, 00:33:55
R520 doch noch Ende Juli und AGP Ready?
http://www.gamezoom.de/artikel/show/0,162843,1,11431.html
Einige Webseiten und eigene Quellen, soso.
http://www.gamezoom.de/artikel/show/0,162843,1,11430.html
AGP Ready ist er mit Sicherheit, dank eben genannten Rialtochip. Aber "umstecken"?! Quasi als Beilage bei der Grafikkarte. :uponder: :ugly:
Könnte natürlich auch unglückllich ausgerückt sein ...
/edit
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/
Auch eine Meldung dazu.
deekey777
2005-06-28, 00:49:38
Einige Webseiten und eigene Quellen, soso.
AGP Ready ist er mit Sicherheit, dank eben genannten Rialtochip. Aber "umstecken"?! Quasi als Beilage bei der Grafikkarte. :uponder: :ugly:
Könnte natürlich auch unglückllich ausgerückt sein ...
Heute (naja gestern) hat VR Zone berichtet, daß der R520 am 26. Juli kommt...
€: Besser gesagt hat dies der trottelige Newsposter heute berichtet, daß VR-Zone.berichtet hatte, daß der R520 am 26. Juni kommen soll... http://www.driverheaven.net/showthread.php?t=77971
AGP Ready? Vielleicht bekommen wir so ein "Bitte umdrehen"-Ding wie die X800XL AGP+PEG von MSI... ;(
AGP Ready? Vielleicht bekommen wir so ein "Bitte umdrehen"-Ding wie die X800XL AGP+PEG von MSI... ;(
also mir als noch agp-besitzer würde das gefallen. jetzt als agp genutzt und beim nächsten upgrade umgedreht und schon hat man eine pcie karte :D
Ailuros
2005-06-28, 01:20:46
Das sieht man höchstens, wenn die 90nm-Konkurrenz da ist. Und dann sieht die Welt vielleicht ganz schnell ganz anders aus. ;)
20xSIMD mit >600MHz... dazu schneller Speicher.
Ueber den "schnelleren" Speicher bin ich auch nicht mehr so ueberzeugt... ;)
deekey777
2005-06-28, 01:31:32
also mir als noch agp-besitzer würde das gefallen. jetzt als agp genutzt und beim nächsten upgrade umgedreht und schon hat man eine pcie karte :D
Das würde jedem gefallen. Insbesondere, weil die MSI X800XL mit dem Lüfter nach oben zeigt, wenn sie im PEG steckt (ATX Gehäuse!).
robbitop
2005-06-28, 07:26:25
Das sieht man höchstens, wenn die 90nm-Konkurrenz da ist. Und dann sieht die Welt vielleicht ganz schnell ganz anders aus. ;)
20xSIMD mit >600MHz... dazu schneller Speicher.
Wenn die Gerüchte mit den Fertigungsschwierigkeiten stimmen und wenn ich mir mal so die Verfügbarkeit von G70 ansehe, dann war es IMO schon eine gute Entscheidung, vorerst auf 110nm zu bleiben ;)
Mumins
2005-06-28, 11:14:59
Neue Nachrichten:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/
Das würde jedem gefallen. Insbesondere, weil die MSI X800XL mit dem Lüfter nach oben zeigt, wenn sie im PEG steckt (ATX Gehäuse!).Wieso? Es hat schon seinen Sinn den Chip weg von der Hitzequelle CPU zeigen zu lassen.
Mr. Lolman
2005-06-28, 12:03:56
Vielleicht liegt es daran, daß sie zuerst lernen mußten, wie man einem Grafikchip eine vernünftige trilineare Filterung beibringt...
Sry.;(
Wieso?
In Anbetracht der Kacke, die NV einem momentan serviert, ist das Ati Filtering eine Wohltat...
Mr. Lolman
2005-06-28, 12:04:51
Neue Nachrichten:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/
Vorstellung != Verfügbarkeit....
Wenn die Gerüchte mit den Fertigungsschwierigkeiten stimmen und wenn ich mir mal so die Verfügbarkeit von G70 ansehe, dann war es IMO schon eine gute Entscheidung, vorerst auf 110nm zu bleiben ;)
bei den letzten generationen hat es sich ja eigentlich schon gezeigt das es am sinnvollsten ist erstmal die kleineren karten in einem neuen fertigungsprozess zu produzieren und dann später erst, wenn der prozess ausgereift ist, auch die high-end chips damit fertigen zu lassen.
Winter[Raven]
2005-06-28, 12:24:18
Wieso?
In Anbetracht der Kacke, die NV einem momentan serviert, ist das Ati Filtering eine Wohltat...
What are mean? *auf das Winkelabhänige AF guck* ist doch nicht besser als bei ATI, und komme mir bitte nicht mit Flimmern :) Ich habe kein Flimmern! =)
Popeljoe
2005-06-28, 12:29:53
Neue Nachrichten:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/
Anscheinend will ATI eine direkte Verfügbarkeit der neuen Produktpallette auf der gfesamten Breite garantieren. Dafür muß man natürlich schon eine Menge Chips produzieren. Anscheinend macht ATI es wie vorher schon: die Ausschußware wird in den unteren Preissegmenten angesiedelt.
Wenn ich mir die hohe Quote der NV Karten (110nm Prozeß) ansehe, bei denen sich die Pipes freischalten lassen, bekomme ich allerdings so meine Zweifel an dem Vorgehen von ATI schon jetzt auf 90nm umzusteigen.
Denn eigentllich sollte ja die Ausbeute bei einem neuen Fertigungsprozeß auch entsprechend geringer sein!
P1
Mr. Lolman
2005-06-28, 12:30:41
']What are mean? *auf das Winkelabhänige AF guck* ist doch nicht besser als bei ATI, und komme mir bitte nicht mit Flimmern :) Ich habe kein Flimmern! =)
Mit HQ hab ich auch kaum Flimmern (sowenig wie bei Ati). Ist hier aber OT, und diskutiert wird momentan auch da: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=231469&page=1&pp=20 (ab Seite 4)
BTW: Jeder der glaubt, er habe mit seiner Karte kein Flimmern, kann ja mal (in ner möglichst niedrigen Auflösung- 640x480) Q3a mit Kais Texturfix in q3dm15 testen...
deekey777
2005-06-28, 12:37:19
Wieso?
In Anbetracht der Kacke, die NV einem momentan serviert, ist das Ati Filtering eine Wohltat...
Warum sollte mich die Filterqualität des Mitbewerbers interessieren?
Wieso? Es hat schon seinen Sinn den Chip weg von der Hitzequelle CPU zeigen zu lassen.
Ja, das erscheint klar, aber nur bei einem schlechten Gehäuse. :biggrin:
Wenn mich nicht alles täuscht, blasen die Grafikkartenlüfter die warme Luft von der VPU weg. Wenn das Gehäuse mit Kopf gebaut wurde (ua Blowhole für den CPU-Lüfter), kann man mit einem Grafikkartelüfter, der nach oben zeigt und die Luft in Richtung Netzteil bläst, könnte man in der unteren Hälfte des Gehäuses, wo meist kein Ausblaselfter zu finden ist, die Temperatur senken.
Oder?
robbitop
2005-06-28, 12:49:19
Also ich nutze ohne SSAA stets HQ AF. Und dort ist die Qualität wirklich in Ordnung.
Wer Quality nutzt ist selbst schuld.
Mr. Lolman
2005-06-28, 12:54:41
Also ich nutze ohne SSAA stets HQ AF. Und dort ist die Qualität wirklich in Ordnung.
Wer Quality nutzt ist selbst schuld.
Erklär das mal den Reviewern...
robbitop
2005-06-28, 13:09:04
Erklär das mal den Reviewern...
Wayne?
Ganz ehrlich, die Reviews im NEtz sind größtenteils unbrauchbar. Der G70 setzt sich kaum ab, da immer nur 0815 getestet wird. Da ist das gute Stück entweder CPU oder Bandbreitenlimitiert. Bei HQ sollte der kaum einbrechen.
Tombmans erste Benches zeigen eher, wozu ein G70 im Stande ist. Das sind in SSAA Szenen tw fast 100% Mehrleistung. Und er hat sich schicke Stellen ausgesucht, wo die absoluten Worstcase FPS zustande kommen. Dieses ständige AVG nervt einfach nur noch.
Zum AF Vergleich. Es ist halt nur reviewen. Sonst hätte man damals ja 4xRGMS von ATI gegen 4xS oder höher benchen müssen wegen der gleichen Qualität. Ich bin der Meinung, dass man ähnliche Qualität bei viel wichtiger gleicher Arbeit benchen sollte. In sofern geht das schon ok. ATI hat da einfach besser optimiert. Das sollte man dann dazuschreiben. Aber HQ AF gegen ATI zu benchen finde ich daneben. Vieleicht als Extra. Aber das ist auch nur meine persönliche Meinung.
Winter[Raven]
2005-06-28, 13:13:04
Was beschwerst du dich Lolman?
Damals wurde R3xxAF gegen NV30AF gebenched, hat sich einer beschwert? Nein, alle meinten man würde ehe keinen Unterschied sehen.
Das ist leider die Ironie des Lebens... :(
Mr. Lolman
2005-06-28, 13:39:28
Wayne?
Jaja wayne! Der Wayne ist auch dran schuld, dass kaum jemand was zur abermals verschlechterten AF Qualität geschrieben hat (bloß aths hats in seinem Review angedeutet)
Jaja wayne! Der Wayne ist auch dran schuld, dass kaum jemand was zur abermals verschlechterten AF Qualität geschrieben hat (bloß aths hats in seinem Review angedeutet)
Wo ist's denn schlechter geworden?
robbitop
2005-06-28, 13:45:33
Jaja wayne! Der Wayne ist auch dran schuld, dass kaum jemand was zur abermals verschlechterten AF Qualität geschrieben hat (bloß aths hats in seinem Review angedeutet)
schön dass du das Zitat aus dem Kontext reißt :rolleyes:
Mr. Lolman
2005-06-28, 13:47:53
Wo ist's denn schlechter geworden?
http://www.hardware.fr/medias/screenshots.php?id=IMG0013236
Ist zwar so nur minimal bis kaum feststellbar, legt man die Bilder aber direkt übereinander, merkt man, dass der G70 kurz vor den Mipmapübergängen schärfer filtert, als der NV40. So ist die Schärfeverteilung im Bild ungleichmässiger -> Flimmerfaktor = höher -> Insgesamte AF Qualität ist schlechter.
Man darf bloss nicht den Fehler begehen, das insgesamt leicht schärfere Bild der G70 mit besserer Qualität gleichzusetzen. Denn dann müsste Q auch besser sein als HQ...
Sunrise
2005-06-28, 16:47:10
Um uns mal wieder dem eigentlichen Thema zu widmen:
http://www.lavalys.com/forum/index.php?showtopic=647&st=0&#entry3386
GPU and video adapter related:
- detection of ATI Mobility Radeon X800 XT (M28) video chip
- detection of ATI R520, R520 Pro, R520 SE video chips
- detection of ATI R520 XT, R520 XT Platinum video chips
- detection of ATI R520GL Pro, R520GL XT video chips
- detection of ATI RV530 LE, RV530 Pro, RV530 SE video chips
- detection of ATI RV530 VE, RV530 XT, RV530GL video chips
- detection of ATI M56-P, M56GL video chips
ASUS already have two 90nm G70 chipset.
(1)Dual-Core
(2) 90nm 32 pipe G70
Ist zwar so nur minimal bis kaum feststellbar, legt man die Bilder aber direkt übereinander, merkt man, dass der G70 kurz vor den Mipmapübergängen schärfer filtert, als der NV40. So ist die Schärfeverteilung im Bild ungleichmässiger -> Flimmerfaktor = höher -> Insgesamte AF Qualität ist schlechter.
irgendwie sieht dass aus als wenn jemand Q mit HQ vergleicht, aber es kann natürlich sein dass der treiber "zufällig" "vergisst" bei der 7800GTX tatsächlich HQ zuaktivieren.
deekey777
2005-06-28, 17:18:09
Um uns mal wieder dem eigentlichen Thema zu widmen:
http://www.lavalys.com/forum/index.php?showtopic=647&st=0&#entry3386
GPU and video adapter related:
- detection of ATI Mobility Radeon X800 XT (M28) video chip
- detection of ATI R520, R520 Pro, R520 SE video chips
- detection of ATI R520 XT, R520 XT Platinum video chips
- detection of ATI R520GL Pro, R520GL XT video chips
- detection of ATI RV530 LE, RV530 Pro, RV530 SE video chips
- detection of ATI RV530 VE, RV530 XT, RV530GL video chips
- detection of ATI M56-P, M56GL video chips
ATi will mal wieder so jeden Abfall an den Käufer bringen... Aber so lange der Preis stimmt, spricht nichts dagegen.
DrumDub
2005-06-28, 17:27:47
ATi will mal wieder so jeden Abfall an den Käufer bringen... Aber so lange der Preis stimmt, spricht nichts dagegen. na, das macht nv ja genauso. wenn die angaben stimmen, gibts also doch ne xt und ne xt pe.
seahawk
2005-06-28, 17:32:34
Also wieder eine Reviewer only Karte :D
Ansosnten typisch ATI halt.
ASUS already have two 90nm G70 chipset.
(1)Dual-Core
(2) 90nm 32 pipe G70
Hauwech
2005-06-28, 17:42:40
ASUS already have two 90nm G70 chipset.
(1)Dual-Core
(2) 90nm 32 pipe G70
What do you mean with Dual-Core? 2 Chips on one card connected via SLI or 2 Chips on one Die or something completely different?
Hmm 32 Pipes? I would have thought that Nvidia might bring such a chip as a refresh before summer 2006 and a 24 piper@90nm around christmas 2005. Well, at least they will have time to test it...
Um uns mal wieder dem eigentlichen Thema zu widmen:
http://www.lavalys.com/forum/index.php?showtopic=647&st=0&#entry3386
GPU and video adapter related:
- detection of ATI Mobility Radeon X800 XT (M28) video chip
- detection of ATI R520, R520 Pro, R520 SE video chips
- detection of ATI R520 XT, R520 XT Platinum video chips
- detection of ATI R520GL Pro, R520GL XT video chips
- detection of ATI RV530 LE, RV530 Pro, RV530 SE video chips
- detection of ATI RV530 VE, RV530 XT, RV530GL video chips
- detection of ATI M56-P, M56GL video chips
Klingt ja nach einer schön gestaffelten Familie mit Karten für jeden Preis- und Leistungsbedarf. Sehr schön! :up:
What do you mean with Dual-Core? 2 Chips on one card connected via SLI or 2 Chips on one Die or something completely different?
Hmm 32 Pipes? I would have thought that Nvidia might bring such a chip as a refresh before summer 2006 and a 24 piper@90nm around christmas 2005. Well, at least they will have time to test it...
Already in progress.
Dual-Core onto one module
Quasar
2005-06-28, 18:28:06
Klingt ja nach einer schön gestaffelten Familie mit Karten für jeden Preis- und Leistungsbedarf. Sehr schön! :up:
Das schönste ist, daß all das theoretisch mit einem einzigen Die möglich wäre.
Breaking news
Someone who under NDA right now have R520 picture.
You know what I mean.
Breaking news
Someone who under NDA right now have R520 picture.
You know what I mean.
her mit dem bild
Breaking news
Someone who under NDA right now have R520 picture.
You know what I mean.
Spill the beans! :D
MadManniMan
2005-06-28, 18:48:37
Ohjee, RV530 LE, SE und VE - was sind das dann alles für Billigteile?
Spill the beans! :D
Plz spread over B3d
I dont want get caught .
Quasar
2005-06-28, 18:54:34
http://www.hardware.fr/medias/screenshots.php?id=IMG0013236
Ist zwar so nur minimal bis kaum feststellbar, legt man die Bilder aber direkt übereinander, merkt man, dass der G70 kurz vor den Mipmapübergängen schärfer filtert, als der NV40. So ist die Schärfeverteilung im Bild ungleichmässiger -> Flimmerfaktor = höher -> Insgesamte AF Qualität ist schlechter.
Man darf bloss nicht den Fehler begehen, das insgesamt leicht schärfere Bild der G70 mit besserer Qualität gleichzusetzen. Denn dann müsste Q auch besser sein als HQ...
Wo bekomme ich die einzelnen Bilder? Mein Französisch ist leider ziemlich schlecht (Anfängerkurs II)...
[dzp]Viper
2005-06-28, 18:56:15
Plz spread over B3d
I dont want get caught .
http://www.imageshack.us/index.php
:D
Here is the beans
ASUS already have two 90nm chipset.
(1)Dual-Core
(2) 90nm 32 pipe G70
i would like to see a pic of the R520 NOW? gogogo
Here is the beans
ASUS already have two 90nm chipset.
(1)Dual-Core
(2) 90nm 32 pipe G70
Yeah and i have a quad-core.Cpu+GPU+north- + south bridge. :biggrin:
p.s. your english is excellent.
seahawk
2005-06-28, 19:24:10
Das schönste ist, daß all das theoretisch mit einem einzigen Die möglich wäre.
Ob das für ATI schön ist, sei mal dahingestellt.
Quasar
2005-06-28, 19:25:46
Ob das für ATI schön ist, sei mal dahingestellt.
So kann man zumindest bei Launch direkt eine komplette Top-to-Bottom-Product Line vorstellen!
Horimoto
2005-06-28, 19:30:25
So kann man zumindest bei Launch direkt eine komplette Top-to-Bottom-Product Line vorstellen!
wo bleibt das bild vom R520.oder wo kann man es sehen?
deekey777
2005-06-28, 19:36:08
Ohjee, RV530 LE, SE und VE - was sind das dann alles für Billigteile?
SE -> evil, LE -> niedrigerer Takt als die Standardversion, aber VE (hoffentlich nicht ohne T&L wie die Radeon VE...)?
nagus
2005-06-28, 20:30:09
Plz spread over B3d
I dont want get caught .
PM me please.
thank you.
gäste können pm schreiben uiuiui
Quasar
2005-06-28, 20:53:34
wo bleibt das bild vom R520.oder wo kann man es sehen?
Wieso fragst du mich das?
Horimoto
2005-06-28, 20:58:14
war nciht an dich gerichtet ^^
hab nur das beitrag zitiern an, wusst ich nich :D
ICh würd aber gerne das Bild sehen, egal von wem
war nciht an dich gerichtet ^^
hab nur das beitrag zitiern an, wusst ich nich :D
ICh würd aber gerne das Bild sehen, egal von wem
Ihr denkt alle das gerade diese Person ein Bild hat und es gerade HIER postet?
Lasse mich gerne vom gegenteil überraschen
Lubi.
Kommt schon Jungs Bild pls, wird auch nicht weiter gesagt ;p
da macht sich jemand wichtig mit einem bild was er nicht hat. langweilig.
das bild ist ja auch so interessamt, dass kann man sich ja wunderbar in den pc einbauen ;)
r3ptil3
2005-06-28, 21:46:57
das bild ist ja auch so interessamt, dass kann man sich ja wunderbar in den pc einbauen ;)
Na wenn es so was von unwichtig ist, dann poste es doch einfach mal so rein...
Adam D.
2005-06-28, 21:48:53
Na wenn es so was von unwichtig ist, dann poste es doch einfach mal so rein...
Du hast ihn nicht verstanden.
r3ptil3
2005-06-28, 21:51:30
Du hast ihn nicht verstanden.
Ich habe es verstanden.
Demirug
2005-06-28, 21:53:05
Stimmt Bilder kann man nicht einbauen....
http://img3.picsplace.to/img3/89/thumbs/R520.PNG (http://img3.picsplace.to/img3/89/R520.PNG)
[dzp]Viper
2005-06-28, 21:54:38
Stimmt Bilder kann man nicht einbauen....
http://img3.picsplace.to/img3/89/thumbs/R520.PNG (http://img3.picsplace.to/img3/89/R520.PNG)
fake?
[ ]ja
[ ]Nein
[x]Ja
sry ;(
Demirug
2005-06-28, 21:56:09
Viper']fake?
[ ]ja
[ ]Nein
[x]Ja
sry ;(
Das ist ein original Screenshot. Mit Photoshop und Co kann ich nicht umgehen.
[dzp]Viper
2005-06-28, 21:57:48
Mit Photoshop und Co kann ich nicht umgehen.
das glaub ich dir nicht :D
Aber das es ein Original Screenshot ist, könnte doch sein.. wer weiß wer weiß ;)
deekey777
2005-06-28, 22:01:41
Das ist ein original Screenshot. Mit Photoshop und Co kann ich nicht umgehen.
Hat deine R520 etwa nur einen VGA Ausgang? Oder zeigt die Everest Beta alle Radeons als R520 an? :biggrin:
Diskutator
2005-06-28, 22:08:44
Das ist ein original Screenshot. Mit Photoshop und Co kann ich nicht umgehen.
Fake,
ein billiger Fake! Oder bist du aus Sömada? ;)
deLuxX`
2005-06-28, 22:09:39
Sollte in Everest nicht der Verkaufsname stehen und nicht der Name des Chips? Ich denke nicht das man später auf Verpackungen "ATI R520XT-PE" sehen wird. ;)
Bei mir wird zum Bleistift auch "nVIDIA 6800 GT" angezeigt und nicht "nV40 GT" oder sowas in der Art.
-deLuxX`
mapel110
2005-06-28, 22:10:36
Er hat wohl die Gerätebeschreibung einfach geändert, die der Treiber liefert. Shot echt, Bezeichnung falsch.
r3ptil3
2005-06-28, 22:10:36
http://img101.echo.cx/img101/2324/webx9007uo.jpg
Demirug
2005-06-28, 22:11:17
Wenn ich einen R520 in dem Rechner hätte würde ich wohl einen solchen Screenshot machen. Ich habe lediglich Everest vorgetäuscht das ich eine hätte weil ich schauen wollte ob da auch die GPU Details gespeichert sind. War natürlich wie zu erwarten nicht der Fall.
deLuxX`
2005-06-28, 22:18:46
@Demirug
Guter Ansatz. Schade das es nicht funktioniert hat(die Hoffnung stirbt zuletzt).
@r3ptil3
Fängt jetzt die große Fake-Bilder Flut an, oder wie? :|
-deLuxX`
http://img101.echo.cx/img101/2324/webx9007uo.jpg
lol, soll der r520 etwa im SM2-modus laufen :D
Wenn ich einen R520 in dem Rechner hätte würde ich wohl einen solchen Screenshot machen. Ich habe lediglich Everest vorgetäuscht das ich eine hätte weil ich schauen wollte ob da auch die GPU Details gespeichert sind. War natürlich wie zu erwarten nicht der Fall.Dachte mir sowas schon. Wink mit dem NDA-Zaunpfahl und so :D
deekey777
2005-06-28, 22:36:23
lol, soll der r520 etwa im SM2-modus laufen :D
Wenn 3D Mark 2005 die Karte nicht richtig erkennt bzw. als R4x0 erkannt, warum nicht? ;)
Im Ernst: Kennt 3D Mark schon die R520? Letztes Jahr mußte man 3D 2003 bzw. Aqua3 updaten.
Wenn 3D Mark 2005 die Karte nicht richtig erkennt bzw. als R4x0 erkannt, warum nicht? Wenn die 3DMark Entwickler SM3.0 an der Device ID festmachen gehören sie auf der Stelle erschossen.
Abgesehen davon halte ich den Screen für einen Fake. Da wurde gerade mal aus der 8 ne 9 gemacht.
dildo4u
2005-06-28, 22:39:35
Wenn die 3DMark Entwickler SM3.0 an der Device ID festmachen gehören sie auf der Stelle erschossen.
Abgesehen davon halte ich den Screen für einen Fake. Da wurde gerade mal aus der 8 ne 9 gemacht.
Jo vorallem würde sich intel sicher sher freuen wenns ein 4.2Ghz P4 geben würde*g*
Wenn 3D Mark 2005 die Karte nicht richtig erkennt bzw. als R4x0 erkannt, warum nicht? ;)
Im Ernst: Kennt 3D Mark schon die R520? Letztes Jahr mußte man 3D 2003 bzw. Aqua3 updaten.
3dmark stellt den shader-mode aber nicht nach der device-ID ein sondern nach dem maximal unterstützen.
deekey777
2005-06-28, 22:45:34
Daß das Bild ein Fake ist, habe ich schon mitgekriegt. ;)
Sonst Danke für die Aufklärung.
Horimoto
2005-06-28, 22:50:47
Daß das Bild ein Fake ist, habe ich schon mitgekriegt. ;)
Sonst Danke für die Aufklärung.
Dabei muss man das Bild gar nciht mit Photoshop oder sonstigem faken
laut 3dmark: X900XT (http://service.futuremark.com/compare?2k3=3914203)
Im Startemnü vom 3dmark sagt er, dass es sich um eine X900XT handelt, nciht X800Pro.......
Also kann man an sich fast perfekte fakes machen, die man auf pics nciht erkennt........also können wir auch pics nicht trauen ^^
WÜrde trotzdem das bild gerne sehn ^^
Ailuros
2005-06-29, 03:13:39
Yeah and i have a quad-core.Cpu+GPU+north- + south bridge. :biggrin:
p.s. your english is excellent.
Something easier and less polite: tell him to get a life.
zeckensack
2005-06-29, 03:47:27
Everest ist sowieso gay. Es ist sooo einfach (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=870583#post870583), solche Sachen-Anzeige-Programme auszutricksen.
Demirug
2005-06-29, 06:17:12
Everest ist sowieso gay. Es ist sooo einfach (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=870583#post870583), solche Sachen-Anzeige-Programme auszutricksen.
Relative. Everest sammelt für diese Anzeige die Vendor und Device Ids aller Geräte. Die üblichen Methode funktionieren entsprechend nicht.
MadManniMan
2005-06-29, 06:31:01
Relative. Everest sammelt für diese Anzeige die Vendor und Device Ids aller Geräte. Die üblichen Methode funktionieren entsprechend nicht.
Kurze Zwischenfrage: der Everest-Hersteller sammelt selbst die Ids aller Geräte? Macht es denn der Rivatuner auch so? Würde klären, ob (außer in einem alten Treiber) tatsächlich für den G70 noch irgendwo "NV47" steht.
seahawk
2005-06-29, 08:08:13
Was soll der Hype um ein R520 Foto ?
Man sieht bestenfalls einen Chip wo R520 draufsteht. Spannender sind da schon Marketingunterlagen zum R520....
ShadowXX
2005-06-29, 10:40:57
Was soll der Hype um ein R520 Foto ?
Man sieht bestenfalls einen Chip wo R520 draufsteht. Spannender sind da schon Marketingunterlagen zum R520....
Marketingunterlagen zum r520 würde ich überhaupt nicht spannend finden, da diese immer völlig Überhyped sind.
Reale gelekte Benchmarks mit Spielen, nicht mit synthetischen Benchmarks würd ich spannend finden.....
Und zum Lachen dann noch die Anti-G70-Folien von ATI....
Winter[Raven]
2005-06-29, 10:48:14
@ Shadow
Was willst du den bitte in die Anti-G70 ppt's reinschreiben? Mir würde da jetzt direkt ausser dem AF nix einfallen ;D
ShadowXX
2005-06-29, 10:50:29
']@ Shadow
Was willst du den bitte in die Anti-G70 ppt's reinschreiben? Mir würde da jetzt direkt ausser dem AF nix einfallen ;D
Deshalb ja auch zum Lachen....mich würde halt interessieren, was sich da das Marketing von ATI so ausdenkt um den G70 niederzumachen.
Bei sowas sind die Marketingabteilungen beider IHVs ja eigentlich ganz kreativ....
MartinRiggs
2005-06-29, 11:02:50
Na ja will ATI nicht in Schutz nehmen, aber was ich bisher von diesen Präsentationen gesehen hab da schießt doch Nvidia den Vogel ab, mit übelsten Falschaussagen und empfehlungen ATI zu meiden etc.
Die von ATI beschränken sich auf falsche Benchmarkergebnisse(zu eigenen Gunsten) und anpreisung der eigenen Produkte.
Ich erinnere nur an die Präsentation gegen die Kyro-Karten die als Risiko dargestellt wurden usw.
Also ich glaub da ist die von ATI echt noch human gegen.
Aber lustig sind diese Präsentationen generell ;D
Mr. Lolman
2005-06-29, 11:09:54
']@ Shadow
Was willst du den bitte in die Anti-G70 ppt's reinschreiben? Mir würde da jetzt direkt ausser dem AF nix einfallen ;D
Aber am AF kann man sich schon genug aufhängen. Schlechtere AF Qualität und nach 6 Monaten trotzdem nichtmal wirklich schneller als ATi:
http://www.hardware.fr/medias/photos_news/00/13/IMG0013247.gif
http://www.hardware.fr/medias/photos_news/00/13/IMG0013241.gif
http://www.hardware.fr/medias/photos_news/00/13/IMG0013294.gif
seahawk
2005-06-29, 11:23:03
Marketingunterlagen zum r520 würde ich überhaupt nicht spannend finden, da diese immer völlig Überhyped sind.
Reale gelekte Benchmarks mit Spielen, nicht mit synthetischen Benchmarks würd ich spannend finden.....
Und zum Lachen dann noch die Anti-G70-Folien von ATI....
Ach, aus diesen Folien kann sehr gut ablesen, wo ATI die Vorteile seiner HArdware sieht und wo die Nachteile. Das ist aufschlussreich und sagt viel mehr als ein Foto von einer Karte.
Godmode
2005-06-29, 11:23:17
Aber am AF kann man sich schon genug aufhängen. Schlechtere AF Qualität und nach 6 Monaten trotzdem nichtmal wirklich schneller als ATi:
Ich könnte auch Benchmarks raussuchen wo der G70 VIEL schneller ist als der R480, ist alles eine Ansichtssache.
seahawk
2005-06-29, 11:24:17
Ich könnte auch Benchmarks raussuchen wo der G70 VIEL schneller ist als der R480, ist alles eine Ansichtssache.
Und dazu auch noch völlig OT. :biggrin:
Ailuros
2005-06-29, 12:17:26
Aber am AF kann man sich schon genug aufhängen. Schlechtere AF Qualität und nach 6 Monaten trotzdem nichtmal wirklich schneller als ATi:
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=1
ShadowXX
2005-06-29, 13:01:24
Ach, aus diesen Folien kann sehr gut ablesen, wo ATI die Vorteile seiner HArdware sieht und wo die Nachteile. Das ist aufschlussreich und sagt viel mehr als ein Foto von einer Karte.
Du glaubst doch nicht ernsthaft, das ATI die nicht so guten Eigenschaften Ihrer Hardware in Ihren Marketingfolien erwähnt??
Eher werden selbst nachteilige Sachen noch als Vorteil dargestellt....solche Marketingfolien sind nicht das Geld wert das der Webspace/papier kostest auf dem Sie stehen....
Du kennst den Spruch "It's not a Bug, it's a Feature"??
ShadowXX
2005-06-29, 13:06:51
Aber am AF kann man sich schon genug aufhängen. Schlechtere AF Qualität und nach 6 Monaten trotzdem nichtmal wirklich schneller als ATi:
Das mit dem AF ist ansichtssache....ich finde das AF beider Gleichwertig und wenn man bei nV auf HQ geht, sehe ich leichte Vorteile bei nV.
(Und ja, ich hab auch ne x800pro zuhause im drittrechner...)
Und das das AF beim G70 schlechter geworden sein soll, kann ich nicht im Ansatz nachvollziehen, da ich dieses selber nachgeprüft habe (2 Rechner nebeneinander, einen mit ner 6800Ultra und einen mit ner 7800GTX, gleiche Games, gleiche Szenen) und keine Unterschiede gesehen habe.
Mein Kumpel der danebenstand und mir die 6800Ultra abgekauft hat ebenfalls nicht....
Aber am AF kann man sich schon genug aufhängen.
aber nicht wenn man ATI heißt, und das wissen sie auch, ich kann mir nicht vorstellen dass sie sich so lächerlich machen.
Sunrise
2005-06-29, 16:20:00
Deshalb ja auch zum Lachen....mich würde halt interessieren, was sich da das Marketing von ATI so ausdenkt um den G70 niederzumachen.
Bei sowas sind die Marketingabteilungen beider IHVs ja eigentlich ganz kreativ....
Sie mögen kreativ sein, jedoch sollte zumindest auch etwas Wahrheit dahinter stecken. Das berühmte und ursprüngliche (die Kommentare wurden später entfernt) "pre-R420 ppt" war voller interessanter Details, da man hier deutlich hinter die Kulissen schauen konnte.
Falls R520 echtes HDR+AA bieten wird, dies zusätzlich mit einer Geschwindigkeit (FP10/FP16), die NV mit G70 nicht realisieren kann, hat man als Kunde schonmal einen Grund, die G70 liegen zu lassen.
Sollte ATI keine guten Gründe (Vorteile, Veränderungen die ihn vom Konkurrenzprodukt distanzieren) für ihren R520 liefern, wird das Marketing diese Lücke füllen müssen, ähnlich wie beim NV30, was im Nachhinein die "Midrange-" und "Low-End-Produktpalette" doch faktisch stark unterstützt hatte.
ShadowXX
2005-06-29, 16:30:59
Falls R520 echtes HDR+AA bieten wird, dies zusätzlich mit einer Geschwindigkeit (FP10/FP16), die NV mit G70 nicht realisieren kann, hat man als Kunde schonmal einen Grund, die G70 liegen zu lassen.
Davon, dass der r520 HDR anbieten wird, gehe ich aus.
Wenn es tatsächlich nur die im Netzt umhergeisternden FP10 Blender & Filter sein sollten, muss das aber weder heissen, dass das bei ATI dadurch schneller läuft, noch das es an die Qualität des FP16 HDR von nV herankommt.
Gerade bei FP10 vs. FP16 könnte ich mir vorstellen, das sowas schneller auffällt als bei FP24 vs. FP32.
Gut, wenn Sie tatsächlich dann AA-Modi mit HDR anbieten, wäre dies tatsächlich ein Vorteil....der aber bestimmt nicht Geschwindigkeitszuträglich ist. (Ich persönlich gehe nicht davon aus, das ATI HDR+AA anbietet...und wenn wohl nur genauso wie nV auch. Es scheint ja lt. nV durchaus eine Möglichkeit zu geben (zumindest für den G70) HDR+AA anzubieten).
Echtes HW-HDR+AA erwarte ich erst in der echten nächsten Generation....sprich nv50 bzw. r600.
Mr. Lolman
2005-06-29, 17:21:20
aber nicht wenn man ATI heißt, und das wissen sie auch, ich kann mir nicht vorstellen dass sie sich so lächerlich machen.
Sry, aber so wies aussieht, ist nur HQ mit ATis AF Vergleichbar. Da gibts schon ein paar elendslange Diskussionen im Forum:
Und 3x auf 30MB gezippte 100MB Beweisvideos, die diese (schon von mehreren Seiten angestellte) Vermutung bestätigen: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3195108#post3195108
/edit: Dass aths sich zu folgendem Statement durchgerungen hat, ist manchen hier vll. auch entgangen:
Ich spiele, wenn nicht mit Supersampling, dann auf jeden Fall mit HQ und kann das nur jedem anraten. In Benchmarks sollte man beurteilen, was standardmäßig geboten wird und den Treiber-"Bug", dass die AF-Sample-"Optimierung" aktiv ist, berücksichtigen. Das heißt, entweder bencht man die GeForce gar nicht erst gegen die Radeon oder man bencht die GF nur im HQ-Modus. Damien Triolet hat nun festgestellt, dass die 7800 GTX auch in HQ im Vergleich zur 6800 (HQ) flimmert. Ich werde Leo bitten das in die News zu bringen und seine Benchmark-Ergebnisse für ungültig zu erklären weil sie mit inakzeptabler Texturqualität erzeugt wurden.
FP10 ist gar nicht spezifiziert in DX. Das einzige was es gibt ist ein FX10.
Demirug
2005-06-29, 17:47:25
FP10 ist gar nicht spezifiziert in DX. Das einzige was es gibt ist ein FX10.
FX10 gibt es auch nicht.
Über FourCC Formate darf man aber machen was man möchte.
Sry, aber so wies aussieht, ist nur HQ mit ATis AF Vergleichbar. Da gibts schon ein paar elendslange Diskussionen im Forum:
ATI bietet grottige AF-qualität, NV seit dem NV40 auch (wobei NV auf HQ imo noch immer besser ist, und auf Q gleichwertig, aber egal das sind subjektive entscheidungen)
auf jeden fall macht man sich lächerlich wenn man mit dem finger darauf zeigt was andere schlecht machen ohne es selbst besser zu machen.
das wäre dann noch eine stufe tiefer als ATIs "benchmarkanleitung" zum "brilinear" von NV :D
Mr. Lolman
2005-06-29, 19:17:00
aber egal das sind subjektive entscheidungen)
Blödsinn. Das kann man durchaus objektiv entscheiden. Aber anscheinend will das kaum jemand wahrhaben...
deLuxX`
2005-06-29, 20:21:29
Blödsinn. Das kann man durchaus objektiv entscheiden. Aber anscheinend will das kaum jemand wahrhaben...
Recht hast du. Entweder es flimmert mehr oder eben weniger.
Nur weil einige den Unterschied hier nicht sehen oder es ihnen egal ist, heißt das noch lange nicht, dass es keinen gibt.
Ich sehe die Sache so: Auch wenn nV's Filterung theoretisch korrekter ist, dabei aber flimmriger, schlechter (hier irgendetwas negatives einsetzen) als ATI's ist und diese zwar "falscher" Filtern, das Ergebnis jedoch bessser und schneller ist, kann es mir doch als User egal sein. Wie heißt der Satz? Wichtig ist was hinten rauskommt! Mir wäre auch ein schnelles nV HQ AF lieber aber man muss nehmen was der Markt eben hergibt.
-deLuxX`
edit: Sry, merke gerade, dass ich im falsche Thread bin. :redface:
Ailuros
2005-06-30, 03:32:47
Damien Triolet hat nun festgestellt, dass die 7800 GTX auch in HQ im Vergleich zur 6800 (HQ) flimmert.
Es flimmert bei meiner 6800 egal welchen modus ich benutze (ja selbst high quality), ueberhaupt wenn ich den negative LOD bias nicht auf "clamp" stelle.
Diese Feststellung ist bei mir ueber ein Jahr alt und ich dokumentierte dieses auch oeffentlich.
Ich hab bis jetzt mit 4 verschiedenen NV4x Modellen in Echtzeit gespielt, und es war auf allen vorhanden. Ich hab nicht die leiseste Ahnung woher die Feststellung kommt dass der High Quality modus das Problem beseitigt.
robbitop
2005-06-30, 09:42:08
Ich hab nicht die leiseste Ahnung woher die Feststellung kommt dass der High Quality modus das Problem beseitigt.
HQ mildert dieses Problem. Aths hat aber schonmal gesagt, dass das mit dem LOD zusammenhängen könnte. Einfach den LOD ein bisschen positiv einstellen.
HQ mildert dieses Problem. Aths hat aber schonmal gesagt, dass das mit dem LOD zusammenhängen könnte. Einfach den LOD ein bisschen positiv einstellen.Wo habe ich das gesagt?
(LOD-Biasing kann Unterfilterung nicht reparieren, das habe ich mal gesagt.)
Sry, aber so wies aussieht, ist nur HQ mit ATis AF Vergleichbar. Da gibts schon ein paar elendslange Diskussionen im Forum:
Und 3x auf 30MB gezippte 100MB Beweisvideos, die diese (schon von mehreren Seiten angestellte) Vermutung bestätigen: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3195108#post3195108
/edit: Dass aths sich zu folgendem Statement durchgerungen hat, ist manchen hier vll. auch entgangen:Ich ringe mich zu jedem Statement durch, dass meiner Einschätzung nach die Wahrheit widerspiegelt. Dabei kann ich zu jedem Zeitpunkt natürlich auch falsch liegen. Leo ist von mir per Mail informiert worden.
Was mich ein bisschen nervt ist, immer dann zitiert zu werden wenns gerade passt, und als voreingenommen abgestempelt zu werden, wenn das was ich sagte gerade nicht passt.
Es flimmert bei meiner 6800 egal welchen modus ich benutze (ja selbst high quality), ueberhaupt wenn ich den negative LOD bias nicht auf "clamp" stelle.
Diese Feststellung ist bei mir ueber ein Jahr alt und ich dokumentierte dieses auch oeffentlich.
Ich hab bis jetzt mit 4 verschiedenen NV4x Modellen in Echtzeit gespielt, und es war auf allen vorhanden. Ich hab nicht die leiseste Ahnung woher die Feststellung kommt dass der High Quality modus das Problem beseitigt.Ich habe die "Clamp"-Option aktiviert und spiele, wenn nicht gerade mit Supersampling, immer im HQ-Modus. Flimmern sehe ich keines, jedenfalls keines dass durch schlechtes AF motiviert wäre.
Geo72
2005-06-30, 12:22:22
Ich habe die "Clamp"-Option aktiviert und spiele, wenn nicht gerade mit Supersampling, immer im HQ-Modus. Flimmern sehe ich keines, jedenfalls keines dass durch schlechtes AF motiviert wäre.
Dem kann ich nur zustimmen. Bin selbst von 9600pro auf 6800le umgestiegen und weder bei Far Cry noch bei HL2 ist irgendein "ständig nervendes geflimmer" zu sehen. Manche scheinen da schon eine etwas
selektive Wahrnehmung zu haben.
Ailuros
2005-06-30, 12:59:44
HQ mildert dieses Problem. Aths hat aber schonmal gesagt, dass das mit dem LOD zusammenhängen könnte. Einfach den LOD ein bisschen positiv einstellen.
Das Problem dass ich beschreibe, eben nicht.
BlackBirdSR
2005-06-30, 13:05:42
Hab momentan mit dem 77.72 und BF2 das problem.
Egal was ich einstelle, ich hab immer flimmern und manchmal sogar diese bugwellen.
Ailuros
2005-06-30, 13:07:33
Ich habe die "Clamp"-Option aktiviert und spiele, wenn nicht gerade mit Supersampling, immer im HQ-Modus. Flimmern sehe ich keines, jedenfalls keines dass durch schlechtes AF motiviert wäre.
Ich will ernsthaft bezweifeln dass das LOD-Problem nur auf spezifische Revisionen beschraenkt ist, dafuer beschweren sich darueber viel zu viele NV4x-user und es ist auch nicht auf nur 6800 beschraenkt. Supersampling hilft sowieso auch nichts, es wird lediglich die problematische Sektion um den LOD-Wert der SSAA normalerweise verschiebt, in die weitere Ferne verschoben.
Um es auf ein anderes Niveau zu bringen: die Klammer ist offensichtlich immer noch da selbst auf G70. Es tritt auch nicht in allen Applikationen auf; lediglich in Applikationen die mit LOD etwas merkwuerdig umgehen und mit AF aktiviert. So wie es momentan aussieht, liegt IMO etwas verkorkstes an dem winkel-abhaengigen AF Algorithmus, denn solche Grusel-feste wie in Battlefield 1942 z.B. traten auf NV25/3x nie auf (ohne clamp/LOD Aenderungen).
Ailuros
2005-06-30, 13:13:51
Dem kann ich nur zustimmen. Bin selbst von 9600pro auf 6800le umgestiegen und weder bei Far Cry noch bei HL2 ist irgendein "ständig nervendes geflimmer" zu sehen. Manche scheinen da schon eine etwas
selektive Wahrnehmung zu haben.
Wer hat Far Cry oder HL2 ueberhaupt erwaehnt? Problematische Faelle sind Spiele die auf der UE2 basieren, Painkiller, BF1942 usw usw.
Von selektiver Wahrnehmung wenn man nur 2 Spiele erwaehnt, wuerde ich an Deiner Stelle nicht gerade reden.
Ende Mai 2004 schickte ich das Zeug direkt zu NVIDIA und die Antwort war dass es ihnen bewusst ist und dass ein fix auf dem Weg ist, der seit Oktober 2004 als "clamp" unter negative LOD bias zu finden ist.
Geo72
2005-06-30, 13:21:14
Wer hat Far Cry oder HL2 ueberhaupt erwaehnt? Problematische Faelle sind Spiele die auf der UE2 basieren, Painkiller, BF1942 usw usw.
Von selektiver Wahrnehmung wenn man nur 2 Spiele erwaehnt, wuerde ich an Deiner Stelle nicht gerade reden.
Ende Mai 2004 schickte ich das Zeug direkt zu NVIDIA und die Antwort war dass es ihnen bewusst ist und dass ein fix auf dem Weg ist, der seit Oktober 2004 als "clamp" unter negative LOD bias zu finden ist.
Bei BF2 kann ich auch ein leichtes Flimmern der Bodentextur erkennen, aber nur in einem sehr schmalen
Bereich der ca 1% des Bildes ausmacht. Ist das mit dem unerträglichen Flimmern gemeint?
ShadowXX
2005-06-30, 14:38:57
Ich ringe mich zu jedem Statement durch, dass meiner Einschätzung nach die Wahrheit widerspiegelt. Dabei kann ich zu jedem Zeitpunkt natürlich auch falsch liegen. Leo ist von mir per Mail informiert worden.
Was mich ein bisschen nervt ist, immer dann zitiert zu werden wenns gerade passt, und als voreingenommen abgestempelt zu werden, wenn das was ich sagte gerade nicht passt.
Also ich hab ne 7800GTX bei zuhause im Rechner und kann bei Clamp+HQ keinen unterschied zu meiner vorherigen 6800Ultra ausmachen.....(was Flimmern betrifft).
Wobei ich allerdings dazusagen muss, das ich in diesem Bereich nicht ansatzweise so empfindlich bin wie du....ich hab auf der 68U auch keinen Unterschied zwischen HQ und Q ohne Optimierungen gesehen, selbst bei den bösen Spielen, wo dies auffallen soll.)
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
Blaire
2005-06-30, 15:14:54
Also ich hab ne 7800GTX bei zuhause im Rechner und kann bei Clamp+HQ keinen unterschied zu meiner vorherigen 6800Ultra ausmachen.....(was Flimmern betrifft).
Wobei ich allerdings dazusagen muss, das ich in diesem Bereich nicht ansatzweise so empfindlich bin wie du....ich hab auf der 68U auch keinen Unterschied zwischen HQ und Q ohne Optimierungen gesehen, selbst bei den bösen Spielen, wo dies auffallen soll.)
Doch man sieht einen leichten Unterschied! Bei Battlefield 2 sieht man vor allem in der Wüste in Bewegung ein ganz leichtes grieseln trotz HighQuality! Stellt man aber 4xSSAA oder 8xSSAA ein ists verschwunden. Ok es ist nicht ganz so schlimm das es einem sofort ins Auge fällt , aber es ist da.
MfG
Sunrise
2005-06-30, 15:16:16
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
Perhaps you could spoil us some more?
What clocks and amount of pixel pipelines are you talking about?
Perhaps you could spoil us some more?
What clocks and amount of pixel pipelines are you talking about?
NDA
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
So what? We don't know the amount of R520 pixel pipelines (or even how they actually count their "extrem pipelines" this time), and since the last few ATI GPUs were optimized for higher clock speeds than their nVidia counterparts, this is not exactly a spoiler...
X.Perry_Mental
ShadowXX
2005-06-30, 15:35:15
Doch man sieht einen leichten Unterschied! Bei Battlefield 2 sieht man vor allem in der Wüste in Bewegung ein ganz leichtes grieseln trotz HighQuality! Stellt man aber 4xSSAA oder 8xSSAA ein ists verschwunden. Ok es ist nicht ganz so schlimm das es einem sofort ins Auge fällt , aber es ist da.
MfG
Battlefield 2 hab ich nicht....aber ich glaube dir.
Wobei gerade Battlefield 2 ja wohl sowieso ein Problemfall, auch auf den nv40-Karten, zu sein scheint.
Ich tippe eher auf neue applikationsspeziefische Treiberoptimierungen ala Unreal Tournament, wo man auch einstellen kann was man will und der Treiber trotzdem sein Setting durchdrückt.
So what? We don't know the amount of R520 pixel pipelines (or even how they actually count their "extrem pipelines" this time), and since the last few ATI GPUs were optimized for higher clock speeds than their nVidia counterparts, this is not exactly a spoiler...
X.Perry_Mental
"NVDA already sent two versions of 90nm chip to ASUS."
r3ptil3
2005-06-30, 15:47:42
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
Das ist klar, wie wäre wohl eine X850 XT PE mit 400Mhz Chip-Takt!
Das ist klar, wie wäre wohl eine X850 XT PE mit 400Mhz Chip-Takt!
kudos to NVDA
Sunrise
2005-06-30, 15:55:22
kudos to NVDA
You can praise them when it´s time.
G70 Ultra / NVIDIA_G70.DEV_0090.1 = "NVIDIA G70" -> 90nm ?
reunion
2005-06-30, 15:59:10
NDA
Zuerst etwas ausplaudern, und dann wenn man genauer nachfragt mit "NDA" antworten? In meinen Augen ein Wiederspuch.
reunion
2005-06-30, 16:00:27
Das ist klar, wie wäre wohl eine X850 XT PE mit 400Mhz Chip-Takt!
Von R420 auf R520 zu schließen, halte ich für sehr gewagt.
You can praise them when it´s time.
G70 Ultra / NVIDIA_G70.DEV_0090.1 = "NVIDIA G70" -> 90nm ?
Ask "ASUS"-They have G70 refresh product sample on hand .
reunion
2005-06-30, 16:07:33
http://www.theinquirer.net/?article=24289
http://www.theinquirer.net/?article=24235
http://www.digitimes.com/mobos/a20050630A4017.html
http://www.hwinfo.com/html/news32.html
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
every game ? no
3dmark ?
wat
r3ptil3
2005-06-30, 16:28:04
Von R420 auf R520 zu schließen, halte ich für sehr gewagt.
Da die R520 Architektur grundsätzlich von der R300 Architektur kommt, wird sich das Takt/Leistung Verhältniss im Vergleich zum R420 nicht stark verändern.
mapel110
2005-06-30, 17:23:59
Da die R520 Architektur grundsätzlich von der R300 Architektur kommt, wird sich das Takt/Leistung Verhältniss im Vergleich zum R420 nicht stark verändern.
Davon gehe ich auch aus, sonst bräuchte man keine extrem hohen Taktraten von über 650 Mhz.
reunion
2005-06-30, 17:26:50
Davon gehe ich auch aus, sonst bräuchte man keine extrem hohen Taktraten von über 650 Mhz.
Kommt auf die Pipelineanzahl an, bei 16 "Pipes" schon.
Desweiteren sind die hohen Taktraten noch lange kein Fakt IMHO.
Spoiler:
G70 is faster than R520 at the same clock and pixel pipeline.
So , kudos to NVDA
Well, how big is the chance that G70 and R520 will have the same clock and number of pixel pipelines? If the chance is pretty low, and i am rather sure that the clocks won't be the same, it will depend on the difference in MHz who will be the winner. More or less the same game with NV40 and R420/480.
Well, how big is the chance that G70 and R520 will have the same clock and number of pixel pipelines? If the chance is pretty low, and i am rather sure that the clocks won't be the same, it will depend on the difference in MHz who will be the winner. More or less the same game with NV40 and R420/480.
In order to resolve some yield's issues, you will never see more than 600MHz clock.( right now only have 500MHz)
seahawk
2005-06-30, 18:08:45
Zuerst etwas ausplaudern, und dann wenn man genauer nachfragt mit "NDA" antworten? In meinen Augen ein Wiederspuch.
Wer ein NDA unterschreibt, darf ja noch nicht einmal sagen, dass er eines unterschrieben hat.
Das hängt vom konkreten NDA ab.
Ailuros, dir schreibe ich gleich mal 'ne PM.
Also ich hab ne 7800GTX bei zuhause im Rechner und kann bei Clamp+HQ keinen unterschied zu meiner vorherigen 6800Ultra ausmachen.....(was Flimmern betrifft).
Wobei ich allerdings dazusagen muss, das ich in diesem Bereich nicht ansatzweise so empfindlich bin wie du....Damien Triolet von hardware.fr hats untersucht – und was er schreibt, hat Hand und Fuß. Ich hab Leonidas gebeten, das in den News zu erwähnen.
pF3NG
2005-06-30, 18:56:21
Already in progress.
Dual-Core onto one module
IMO it is OT not? :frown:
EDIT: Wie waren die Codenamen von R420 und R300?
Demirug
2005-06-30, 19:29:54
Damien Triolet von hardware.fr hats untersucht – und was er schreibt, hat Hand und Fuß. Ich hab Leonidas gebeten, das in den News zu erwähnen.
Flimmern ist eine subjektive Wahrnehmung mit starker temporaler Komponente. Daraus ergibt sich das zwei unterschiedlich schnelle Chips trotz gleicher Filterverfahren in der subjektiven Wahrnehmung unterschiedlich stark flimmern können.
Ergo ist der optischen Eindruck einer Einzelperon kein Nachweiss dafür das Filterverfahren geändert wurden. Es ist nur ein Indiez.
Mumins
2005-06-30, 19:50:30
Kommt auf die Pipelineanzahl an, bei 16 "Pipes" schon.
Desweiteren sind die hohen Taktraten noch lange kein Fakt IMHO.
Du glaubst doch nicht ernsthaft, dass der R520 nur 16P hat. Dann könnte ATI einpacken. 600MHz mit 24P muss das Teil schon haben.
dildo4u
2005-06-30, 19:51:42
Du glaubst doch nicht ernsthaft, dass der R520 nur 16P hat. Dann könnte ATI einpacken. 600MHz mit 24P muss das Teil schon haben.
Warum?
Botcruscher
2005-06-30, 19:58:07
Warum?
Dann wäre er schon drausen. Ati hätte mit 16P sicher keine Probleme.
Mumins
2005-06-30, 20:02:49
Warum?
Warum? Is das dein Ernst? Die Karte wäre zu langsam mit 16P. Sie müsste mit 700MHz takten, damit man bei 16P evtl. gleichziehen kann.
Warum?
steht doch oben schon, man geht davon aus das der r520 irgendwie vom r300 abstammt und daher eine niedrigere pro-takt leistung als der g70 hat. wie hoch willste dann also einen 16piper mit geringere pro-tak leitung takten damit er mit dem g70 mithält? das wäre dann eine ziemlich hohe hausnummer.
dildo4u
2005-06-30, 20:08:13
Warum? Is das dein Ernst? Die Karte wäre zu langsam mit 16P. Sie müsste mit 700MHz takten, damit man bei 16P evtl. gleichziehen kann.
Hä ich hab gefragt warum die Karte mindestens 24pips und 600mhz haben muss.
Mumins
2005-06-30, 20:37:45
Hä ich hab gefragt warum die Karte mindestens 24pips und 600mhz haben muss.
Die Antwort hab ich dir doch gegeben! Sie wäre sonst zu langsam.
reunion
2005-06-30, 20:39:04
Dann wäre er schon drausen. Ati hätte mit 16P sicher keine Probleme.
Wie kann man an der Pipelineanzahl festmachen, ob ein Core Probleme verursacht?
dildo4u
2005-06-30, 20:39:45
Die Antwort hab ich dir doch gegeben! Sie wäre sonst zu langsam.
Für was zu Langsam?
reunion
2005-06-30, 20:40:41
Warum? Is das dein Ernst? Die Karte wäre zu langsam mit 16P. Sie müsste mit 700MHz takten, damit man bei 16P evtl. gleichziehen kann.
650Mhz könnten reichen; was ich für durchaus realistisch erachte.
reunion
2005-06-30, 20:42:31
steht doch oben schon, man geht davon aus das der r520 irgendwie vom r300 abstammt und daher eine niedrigere pro-takt leistung als der g70 hat. wie hoch willste dann also einen 16piper mit geringere pro-tak leitung takten damit er mit dem g70 mithält? das wäre dann eine ziemlich hohe hausnummer.
Nochmal: ATi wird am R300-Design einiges ändern müssen um die geforderten Features zu bieten - eine höheren "pro-Mhz"-Leistung ist da allemal drin.
reunion
2005-06-30, 20:43:52
Die Antwort hab ich dir doch gegeben! Sie wäre sonst zu langsam.
Spekulation.
Mumins
2005-06-30, 20:50:12
Für was zu Langsam?
Sag mal, schwer von Begriff? Zu langsam um gegen Nvidia zu bestehen.
Quasar
2005-06-30, 20:53:01
Sag mal, schwer von Begriff? Zu langsam um gegen Nvidia zu bestehen.
Netter Tonfall.
Was haben Pipelines oder MHz mit Leistungsfähigkeit zu tun?
In order to resolve some yield's issues, you will never see more than 600MHz clock.( right now only have 500MHz)
Hmm would be interesting to see if 500 or let's say 550MHz clock is enough to take over the performance crown. I am sure that ATI would like a bigger gap between G70 and themselves but well, it's their NV30...
Since you mentionend the weaker R520 compared to the G70 at same clocks i take for granted that the R520 will have 24 pipes. A comparison between an imaginary DietG70@16Pipes and the R520@16Pipes isn't very good.
If Asus already has a G70@90nm to play with, i don't expect a 78U in 110nm but who knows. As a review sample for the Dickmarks to fight the R520 it might be still coming as a Special Selected Edition with a quantity of dunno 500 or so. ;)
Mumins
2005-06-30, 20:58:37
Netter Tonfall.
Was haben Pipelines oder MHz mit Leistungsfähigkeit zu tun?
Sorry, aber was sollen solche Fragen wie von Dildo4u, auf die die Antwort klar ist. Wenn MHz und Pipelines nix mit Leistung zu tun haben, frage ich mich warum die Pipelines und MHz mit jedem neuen Chip zumeist erhöht werden.
Sorry, aber was sollen solche Fragen wie von Dildo4u, auf die die Antwort klar ist. Wenn MHz und Pipelines nix mit Leistung zu tun haben, frage ich mich warum die Pipelines und MHz mit jedem neuen Chip zumeist erhöht werden.
Weil ziemlich oft ein kleinerer Fertigungsprozess zum Einsatz kommt und/oder das Design ein wenig in Bezug auf Taktbarkeit geändert wird?
reunion
2005-06-30, 21:02:13
Wenn MHz und Pipelines nix mit Leistung zu tun haben, frage ich mich warum die Pipelines und MHz mit jedem neuen Chip zumeist erhöht werden.
Was ist eine "Pipeline"?
Was ist darin alles enthalten?
Quasar
2005-06-30, 21:02:53
Sorry, aber was sollen solche Fragen wie von Dildo4u, auf die die Antwort klar ist. Wenn MHz und Pipelines nix mit Leistung zu tun haben, frage ich mich warum die Pipelines und MHz mit jedem neuen Chip zumeist erhöht werden.
Trotzdem kommt es auf den IPC an und darauf, wieviel dieses IPC auch real nutzbar ist.
Ein A64 ist ja auch meist schneller als ein P4 (in Games) - obwohl er weniger MHz hat. Ein Pentium-M ist noch langsamer getaktet, kommt aber trotzdem sehr gut mit.
Mumins
2005-06-30, 21:09:51
Trotzdem kommt es auf den IPC an und darauf, wieviel dieses IPC auch real nutzbar ist.
Ein A64 ist ja auch meist schneller als ein P4 (in Games) - obwohl er weniger MHz hat. Ein Pentium-M ist noch langsamer getaktet, kommt aber trotzdem sehr gut mit.
Das ist mir schon klar, nur denke ich nicht, dass R520 ne bessere Pro MHz Leistung haben wird als R420. Begründung hab ich keine, ist meine Meinung.
Quasar
2005-06-30, 21:14:59
Das ist mir schon klar, nur denke ich nicht, dass R520 ne bessere Pro MHz Leistung haben wird als R420. Begründung hab ich keine, ist meine Meinung.
Ich denke das sehr wohl - sogar ziemlich deutlich. :)
Mumins
2005-06-30, 21:19:36
Ich denke das sehr wohl - sogar ziemlich deutlich. :)
Weswegen?
Quasar
2005-06-30, 21:21:11
Weswegen?
Was willst du aus einer R420-Pipeline noch großartig streichen?
Nochmal: ATi wird am R300-Design einiges ändern müssen um die geforderten Features zu bieten - eine höheren "pro-Mhz"-Leistung ist da allemal drin.
stimmt schon das man am ursprünglichen r300 einiges umbacken muss um diesem sm3 zu verpassen, aber ich denke ati wird wohl nicht mehr als nötig getan haben um dies zu erreichen, genauso wie die bei der letzten generation auch feature-minimalismus betrieben haben.
Mumins
2005-06-30, 21:35:18
Was willst du aus einer R420-Pipeline noch großartig streichen?
Wieso streichen? Müsste man den Pipelines nicht z. B. zusätzliche Shadereinheiten geben, um sie effizienter zu machen?
Quasar
2005-06-30, 21:37:48
Richtig. Deswegen haben sie fast keine Wahl, als effizienter zu werden.
ShadowXX
2005-06-30, 22:19:48
Richtig. Deswegen haben sie fast keine Wahl, als effizienter zu werden.
Oder höher zu takten....
Wenn ATI auch mit 24Pipes ankommt, die aber nicht oder nur wenig effizienter sind als die des r4x0, könnten Sie dieses Manko durchaus durch höheren Takt ausgleichen.
430 vs. 600 MHz bei gleicher Pipelineanzahl sollten da durchaus Reichen....
Bei den meisten jetzigen Spielen würden Sie die G70 wohl abhängen und bei den weniger shaderlastigen Games würdes es dann wohl auf sowas wie ein pari rauslaufen mit vielleicht leichten Vorteilen bei nV.
Da das aber momentan sehr wenige Games sind, würde das nichts ausmachen....und bis dann Games kommen, die den G70 mal auf Shaderseite fordern, gibts dann den r580 oder sogar schon den r600 (und von nV ebenfalls die Nachfolgemodelle).
Interessant könnte die Situation bei dem ersten Game auf Basis der Unreal 3-Engine werden.....vorm G70@90nm oder dem r580 rechnen ich allerdings nicht damit. Und dann wäre es egal, ob die 7800GTX nun 10-15 mehr FPS als der r520 dabei hat, dann zählen nur noch die neuen Chips.
Im Prinzip so ähnlich wie jetzt....
Ailuros
2005-07-01, 04:30:11
Bei BF2 kann ich auch ein leichtes Flimmern der Bodentextur erkennen, aber nur in einem sehr schmalen
Bereich der ca 1% des Bildes ausmacht. Ist das mit dem unerträglichen Flimmern gemeint?
Was heisst "leicht" bei Dir? Ja es handelt sich um einen Streifen der so gross ist wie ca. eine MIPmap und tritt genau vor dem ersten roten MIPmap ein (wenn man MIPmaps einfaerben laesst).
Ohne den clamp flackert das Bild wie verrueckt und man muss um einiges ueber +1.0 LOD gehen um das Zeug loszuwerden in BF1942.
Es handelt sich weder um "leichten" noise noch um ein mickriges ~1%, ausser man will natuerlich die Affaere untermauern und schnell unter den Teppich kehren.
Ailuros
2005-07-01, 04:36:20
http://www.theinquirer.net/?article=24289
AFAIK, I already got some inside news that ATI and NVDA's counterpart
both of them have been on one of the Biggest AIB hand.
ShadowXX
2005-07-01, 07:40:43
http://www.theinquirer.net/?article=24289
Ich bin mal ernsthaft gespannt, wieviele x8x0-Master-Cards insgesamt jemals den Endkunden erreichen werden.
Und wann......
seahawk
2005-07-01, 07:46:41
http://www.theinquirer.net/?article=24289
Der ist ja nicht mal mehr unglaubwürdig. Der hat ja schon eine grüne Paranoia. ;D
PS. Wenn jede R520 die Crossfirelogic drinne hat, dann ist der Unterschied zu SLI noch kleiner geworden und Crossfire ist noch mehr eine SLI-Kopie.
Diskutator
2005-07-01, 08:27:40
Richtig. Deswegen haben sie fast keine Wahl, als effizienter zu werden.
Quasar,
du verzettelst dich in etwwas. Der R520 ist ein NEUES Design und wesentlich effizienter als NV40, G70 oder R420. Ich freue mich schon auf den Launch und die ersten Vergleiche, ATI hat auch noch einen Joker in der Hand, ich sage nur R580!
Mumins
2005-07-01, 08:34:32
Der R520 ist ein NEUES Design und wesentlich effizienter als NV40, G70 oder R420
Ich glaube du verzettelst dich etwas! Eine Pipeline des NV40 ist schon effizienter als eine des R420, die eines G70 ist ca. doppelt so effizient wie die eines R420. Da frage ich dich, wie du darauf kommst, dass ne pipe des R520 wesentlich effizienter sein soll wie die eines G70. ATI muss schon froh sein, wenn die pipes so effizient wie die des G70 werden, aber noch effizienter, das ist nur schwer zu glauben.
wuzetti
2005-07-01, 08:35:41
Der R520 ist ein NEUES Design und wesentlich effizienter als NV40, G70 oder R420.
wenn du tatsächlich so viel weisst, immer heraus mit der info. nur keine falsche bescheidenheit! ;D
ATI hat auch noch einen Joker in der Hand, ich sage nur R580
abgesehen davon, dass NV diese reserve mit G7x oder G80@90nm genauso besitzt, wäre es doch ziemlich dumm für ATI, wenn sie den R580 jetzt gleich bringen müssten, weil der R520 mit G70 nicht recht mitkommt, oder?
Winter[Raven]
2005-07-01, 08:36:24
Quasar,
du verzettelst dich in etwwas. Der R520 ist ein NEUES Design und wesentlich effizienter als NV40, G70 oder R420. Ich freue mich schon auf den Launch und die ersten Vergleiche, ATI hat auch noch einen Joker in der Hand, ich sage nur R580!
Bitte gib mir mal deine Glasskugel, ich will mal sehen wie schnell der NV40 und R600 sind ... Da wird der NV50 schneller sein, SAG ICH DIR! ECHT!
Nochmal für dich, ATI sieht den R520 von sich aus als einen Chip der R3xx Reihe, also lass mal stecken mit dem "neuem" Design!
seahawk
2005-07-01, 08:42:05
Ist schon interessant sein dem R300/NV30 erwarten so viele, dass NV eher Schrott baut und ATI die Leistungen von NV immer und zu jeder Zeit nach belieben toppen kann.
Ein Wenig mehr an Realismus würde der Diskussion nicht schaden.
Diskutator
2005-07-01, 08:45:16
Ich glaube du verzettelst dich etwas! Eine Pipeline des NV40 ist schon effizienter als eine des R420, die eines G70 ist ca. doppelt so effizient wie die eines R420. Da frage ich dich, wie du darauf kommst, dass ne pipe des R520 wesentlich effizienter sein soll wie die eines G70. ATI muss schon froh sein, wenn die pipes so effizient wie die des G70 werden, aber noch effizienter, das ist nur schwer zu glauben.
Leider muss ich wie alle anderen wissenden bis zum Launchtag warten, aber nur soviel, wer annähernd die Technik in der Xbox360 verstanden hat, kann sich vorstellen in welchem Umfang die NEUEN DESIGNS beim R520/R580 sein
werden. We will see!
Diskutator
2005-07-01, 08:46:29
']Bitte gib mir mal deine Glasskugel, ich will mal sehen wie schnell der NV40 und R600 sind ... Da wird der NV50 schneller sein, SAG ICH DIR! ECHT!
Nochmal für dich, ATI sieht den R520 von sich aus als einen Chip der R3xx Reihe, also lass mal stecken mit dem "neuem" Design!
Auch nochmal für dich, du mußt nicht alles glauben was Paddy, Fudo und co. so von sich geben!
Winter[Raven]
2005-07-01, 08:49:01
Löl du willst es nicht verstehen oder? R520 ist ein Teil der R3xx Family, das steht doch sogar im Treiber... nimm deine Brille ab, BITTE!
Diskutator
2005-07-01, 08:50:08
wenn du tatsächlich so viel weisst, immer heraus mit der info. nur keine falsche bescheidenheit! ;D
abgesehen davon, dass NV diese reserve mit G7x oder G80@90nm genauso besitzt, wäre es doch ziemlich dumm für ATI, wenn sie den R580 jetzt gleich bringen müssten, weil der R520 mit G70 nicht recht mitkommt, oder?
Wer sagt das denn, die ersten internen Benchs zeigten ganz klar einen Gleichstand zwischen R520 und G70, auch in der Shader-Performance! Sicherlich ist der G70 ein Hammerteil, darum ging es mir ja gar nicht und nv hat gerade bei der Shaderperformance massiv aufgeholt mit dem G70, aber wir sollten uns heute nicht zu weit aus dem Fenster legen und den R520/R580 abschreiben!
wuzetti
2005-07-01, 08:50:09
Ist schon interessant sein dem R300/NV30 erwarten so viele, dass NV eher Schrott baut und ATI die Leistungen von NV immer und zu jeder Zeit nach belieben toppen kann.
Ein Wenig mehr an Realismus würde der Diskussion nicht schaden.
ja, das verwundert doch immer wieder. vor allem, wo bei ATI im moment nicht wirklich viel zusammenläuft, wenn man mal R500 aussen vor lässt.
Diskutator
2005-07-01, 08:53:10
']Löl du willst es nicht verstehen oder? R520 ist ein Teil der R3xx Family, das steht doch sogar im Treiber... nimm deine Brille ab, BITTE! Löl, achso du beziehst dich auf einen Treibereintrag! LÖL - Das ist aber eine verlässliche Quelle, nim du mal besser deine grüne Brille ab und denk mal ein bissel nach warum der R520 bisher nur mit dem verfügbaren Treiber gelaufen ist. Daraus zu schliessen, R520 wäre basierend auf R3XX ist schon ziemlich verwegen!
wuzetti
2005-07-01, 08:56:07
Wer sagt das denn, die ersten internen Benchs zeigten ganz klar einen Gleichstand zwischen R520 und G70, auch in der Shader-Performance!
von welchen "internen" benches redest du? deinen eigenen? oder denen von ATI? :confused: abgesehen davon das will ich erst sehen, bevor ich es glaube!
aber wir sollten uns heute nicht zu weit aus dem Fenster legen und den R520/R580 abschreiben!
das tue ich auch nicht. allerdings siehe mein voriges posting - ich würde gerne von ATI jetzt wieder mal was brauchbares sehen. also keinen paper launch, keine aufgewärmte architektur mit besch...eidener verfügbarkeit, nix zusammengeschustertes à la crossfire,... denk dir noch andere sachen dazu.
Diskutator
2005-07-01, 08:59:00
ja, das verwundert doch immer wieder. vor allem, wo bei ATI im moment nicht wirklich viel zusammenläuft, wenn man mal R500 aussen vor lässt. Was meinst du denn? Einfach mal was in den Raum zu schmeissen! Ich sage nur SLI, 1 Jahr auf den MArkt, keine Weiterentwicklungen und plötzlich nach dem Crossfire - Launch wird kräftig auf dem Papier weiterentwickelt! LÖL - Der G70 kann im SLI Modus noch nicht einmal Super -Tiling, geweige den Split Screen Rendering, wo ist da bitte dein Gegenargument?
Diskutator
2005-07-01, 09:02:07
von welchen "internen" benches redest du? deinen eigenen? oder denen von ATI? :confused: abgesehen davon das will ich erst sehen, bevor ich es glaube!
das tue ich auch nicht. allerdings siehe mein voriges posting - ich würde gerne von ATI jetzt wieder mal was brauchbares sehen. also keinen paper launch, keine aufgewärmte architektur mit besch...eidener verfügbarkeit, nix zusammengeschustertes à la crossfire,... denk dir noch andere sachen dazu.
Da stimmt! Ich denke das liegt an Toronto, die wollen ersteinmal Ihre Läger bei den Partnern räumen, die Gründe warum ATI nix zum R520/R580 sagt sind rein wirtschaftlich zu sehen. Der derzeitige Preisverfall bei den letzten Highend-Generation ist schon massiv. Siehe hierzu 6800GT 256MB für 222€ EVK, 199€ kommt auch noch, wenn man bedenkt das der allein der reine Asic schon um 170 USD kostet sehr lustig. Rechne mal PCB und Komponets, Built IN Kosten und den Speicher dazu!
wuzetti
2005-07-01, 09:12:10
Was meinst du denn? Einfach mal was in den Raum zu schmeissen! Ich sage nur SLI, 1 Jahr auf den MArkt, keine Weiterentwicklungen und plötzlich nach dem Crossfire - Launch wird kräftig auf dem Papier weiterentwickelt! LÖL - Der G70 kann im SLI Modus noch nicht einmal Super -Tiling, geweige den Split Screen Rendering, wo ist da bitte dein Gegenargument?
tschuldigung, aber jetzt wird's langsam etwas mühselig.
1) ich werfe nicht einfach was in den raum, weil von ATI seit R3xx (mit Ausnahme R500 und von mir aus R430 bzw. X800 XL) nichts wirklich positives mehr gekommen ist. noch mal zur vervollständigung ein paar beispiele:
a) R4xx war/ist lediglich ein verdoppelter R3xx. abgesehen davon war's ein paperlaunch und die dinger waren lange zeit sehr schlecht verfügbar. das wurde erst mit R480 besser.
b) X700XT kam gar nicht erst auf den markt weil offensichtlich nicht konkurrenzfähig zur 6600GT oder zu schlechte ausbeute.
c) für a) sowohl b) gilt dass ATI den AGP markt völlig unterschätzt hat und die leute im regen stehen liess.
d) dadurch haben sie das mittelklassesegment, das sie vorher mit RV350/360 dominiert haben, klar an NV abgegeben.
e) paperlaunch von crossfire. bis dato keine karten erhältlich und überhaupt wirkt das ganze wie ein schnellschuss in panik. schau dir dazu mal die kommentare der experten hier im forum an und schau mal auf die aufgelötetetn kabel auf den boards - echt toll! :D
f) das ganze spiegelt sich auch in ATI geschäftszahlen des letzten quartals wieder - oder was glaubst du, woher plötzlich die verluste kommen? :confused:
die liste erhebt keinen anspruch auf vollständigkeit, aber so stellen sich die dinge nun mal dar.
2) ich brauche kein gegenargument gg. SLI - im gegensatz zu Crossfire kann ich mir alles notwendige sofort kaufen und das funktioniert auch. zeig mir mal einen shop, wo du Crossfire karten bzw. mobo's kaufst, vielen dank! :P
Mumins
2005-07-01, 09:23:02
c) für a) sowohl b) gilt dass ATI den AGP markt völlig unterschätzt hat und die leute im regen stehen liess.
Das kann man so nicht stehen lassen, der AGP Markt war mit dem R420 gut versorgt. Nur die X700 war quasi nie vorhanden.
f) das ganze spiegelt sich auch in ATI geschäftszahlen des letzten quartals wieder - oder was glaubst du, woher plötzlich die verluste kommen?
Ich denke das kommt wegen der enormen Entwicklungskosten des R520 nebst Respin des Chips. Der R420 hat vermutlich wesentlich weniger gekostet, da er kaum neues enthielt.
Winter[Raven]
2005-07-01, 09:27:13
@ Mumis
Der Entwicklungsaufwand hat nichts mit dem Umsatzpotenzial zutun.
Und was heißt hier gut versorgt? Wie lange musste man warten? 3-4 Monate?
wuzetti
2005-07-01, 09:35:12
Das kann man so nicht stehen lassen, der AGP Markt war mit dem R420 gut versorgt. Nur die X700 war quasi nie vorhanden.
wenn du meinst. aber viele leute sehen das anders.
abgesehen davon war nicht nur die X700 auf AGP nicht verfügbar, auch bei X800 (XL und "Vanilla") schauts da sehr schlecht aus. X800 XL gibts zwar einige, aber zu teuer und zu laut. X800 plain AGP gibts, wenn überhaupt kaufbar, nur ein modell von Sapphire.
Ich denke das kommt wegen der enormen Entwicklungskosten des R520 nebst Respin des Chips. Der R420 hat vermutlich wesentlich weniger gekostet, da er kaum neues enthielt.
soso. ich würde mich da eher an das statement von Dave Orton halten - der hat, wenn ich's richtig im kopf habe, davon geredet, dass sich bei ATI alles in richtung "low end" bewegt hat und dort eben die margen viel kleiner sind. tja, warum wohl?? von R520 war da nie die rede!
Mumins
2005-07-01, 09:37:37
']@ Mumis
Der Entwicklungsaufwand hat nichts mit dem Umsatzpotenzial zutun.
Und was heißt hier gut versorgt? Wie lange musste man warten? 3-4 Monate?
Das war aber kein spezielles AGP Problem, PCI-E Karten waren genauso minimal am Markt.
Zum Umsatz, der Umsatz von ATI ist nicht geringer geworden, lediglich der Gewinn ist weg, bzw. wurden 9Mio. $ Miese gemacht. Das hat sehr wohl was mit hohen Entwicklungskosten zu tun. Wenn ich nämlich gleichen Umsatz habe wie im Vorquartal, wo es ca. 50Mio Gewinn gab, dann müssen irgendwelche Kosten den Gewinn aufgefressen haben.
soso. ich würde mich da eher an das statement von Dave Orton halten - der hat, wenn ich's richtig im kopf habe, davon geredet, dass sich bei ATI alles in richtung "low end" bewegt hat und dort eben die margen viel kleiner sind. tja, warum wohl?? von R520 war da nie die rede!
Was glaubst du macht der HighEnd Bereich im Gesamtumsatz aus? Sehr viel ist das nicht.
X800 XL gibts zwar einige, aber zu teuer und zu laut.
Von Nvidia gibts aber keine leisere Alternative.
wuzetti
2005-07-01, 09:51:58
Zum Umsatz, der Umsatz von ATI ist nicht geringer geworden, lediglich der Gewinn ist weg, bzw. wurden 9Mio. $ Miese gemacht. Das hat sehr wohl was mit hohen Entwicklungskosten zu tun. Wenn ich nämlich gleichen Umsatz habe wie im Vorquartal, wo es ca. 50Mio Gewinn gab, dann müssen irgendwelche Kosten den Gewinn aufgefressen haben.
Was glaubst du macht der HighEnd Bereich im Gesamtumsatz aus? Sehr viel ist das nicht.
wir reden aneinander vorbei. ich habe weder von highend noch von umsatz geredet. ich habe davon gesprochen, dass ATI VERLUST gemacht hat und dass dies lt. Dave Orton gewisse gründe hat. lies mal da nach! http://www.heise.de/newsticker/meldung/60322
"stärkere nachfrage nach low-end produkten" - klingelt was bei dir?
Von Nvidia gibts aber keine leisere Alternative.
das habe ich auch nicht behauptet. aber wieso muss Nvidia antworten wenn sie mit 6600GT und 6800GT abschöpfen wie die kaiser? soweit ich weiss ist es genau andersrum und zwar ist die X800 die antwort auf die 6600GT, nachdem X700XT ein schlag ins wasser war. aber a) wesentlich teurer bei b) schlechteren features und c) keiner verfügbarkeit für AGP. wie das ausgeht kann sich jeder depp ausrechnen.
Crushinator
2005-07-01, 09:57:08
']Löl du willst es nicht verstehen oder? R520 ist ein Teil der R3xx Family, das steht doch sogar im Treiber... nimm deine Brille ab, BITTE!
Ein (Brillen-)Flameversuch, der hier anfing...
']"Can I Kill Diskutator?" NO "Can I wound him? Just a little?" ;D
... um in einem solchen Spam zu enden. Die Summe ergibt eine regelwidrige Handlung, welche unter Berücksichtigung anderer Fälle ähnlichen Kalibers in diesem Thread zu einem Punkt führt. Mögliche Nachahmer mögen sich spätestens jetzt angesprochen fühlen und sich zusammenreißen.
Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)
ShadowXX
2005-07-01, 10:31:15
Was meinst du denn? Einfach mal was in den Raum zu schmeissen! Ich sage nur SLI, 1 Jahr auf den MArkt, keine Weiterentwicklungen und plötzlich nach dem Crossfire - Launch wird kräftig auf dem Papier weiterentwickelt! LÖL - Der G70 kann im SLI Modus noch nicht einmal Super -Tiling, geweige den Split Screen Rendering, wo ist da bitte dein Gegenargument?
Ähmm...nVs SLI kann durchaus SplitScreen-Rendering. Das heisst bei nV SFR.
Nur erfolgt die Teilung des Bildes Horizontal und nicht vertikal wie bei ATI.
Davon abgesehen hab noch nicht mal Tester bis jetzt Crossfirekarten in der Hand gehabt......ich würde Crossfire nicht in den Himmel loben, bevor es mal jemand in seinen eigenen Händen gehabt hat.
Momentan sehe ich in der Richtung nur versprechungen von ATI, die Sie noch mit nichts belegen konnten.
Leider muss ich wie alle anderen wissenden bis zum Launchtag warten, aber nur soviel, wer annähernd die Technik in der Xbox360 verstanden hat, kann sich vorstellen in welchem Umfang die NEUEN DESIGNS beim R520/R580 sein
werden. We will see!
Ich glaube hier verwechselst du den r600 mit dem r520/r580.
Der r520 wird nicht besonders viel mit dem r500 gemeinsam haben.
Ist schon interessant sein dem R300/NV30 erwarten so viele, dass NV eher Schrott baut und ATI die Leistungen von NV immer und zu jeder Zeit nach belieben toppen kann.
Ein Wenig mehr an Realismus würde der Diskussion nicht schaden.
Das ist mir auch schon aufgefallen.....ich glaube selbst wenn nV mit dem G70 einen Chip rausgebracht hätte, der die Leistungsfähigkeit eines G70-SLI-Gespanns OCed auf 550/1400 hat, würden immer noch viele erwarten, dass ATI einen Chips rausbringt der das locker toppt.
Tomcat70
2005-07-01, 10:32:54
']
Nochmal für dich, ATI sieht den R520 von sich aus als einen Chip der R3xx Reihe, also lass mal stecken mit dem "neuem" Design!
looool, du schon wieder.......
klaaar, darum nennt ATI den chip ja auch R520, weil ihn ATi höchstpersönlich (thx thx an deine heissen insiderinfos) als einen chip aus der R3xx Reihe betrachtet......deine basher-Logik schlägt wieder mal unvermittelt zu.
ShadowXX
2005-07-01, 10:36:06
looool, du schon wieder.......
klaaar, darum nennt ATI den chip ja auch R520, weil ihn ATi höchstpersönlich (thx thx an deine heissen insiderinfos) als einen chip aus der R3xx Reihe betrachtet......deine basher-Logik schlägt wieder mal unvermittelt zu.
Nach deiner Logik müsste dann der r420 auch kein Chip aus der r3x0-Reihe sein....was er aber definitv ist.
mapel110
2005-07-01, 10:36:33
http://www.digitimes.com/mobos/a20050630A4017.html
http://www.beyond3d.com/forum/viewtopic.php?topic=24523&forum=9
ATI is currently revamping the chip design of its R520, said the makers, adding that the company is facing leakage issues, as it attempts to migrates its manufacturing to a 90nm process.
Winter[Raven]
2005-07-01, 10:39:38
Nach deiner Logik müsste dann der r420 auch kein Chip aus der r3x0-Reihe sein....was er aber definitv ist.
Warst schneller :(
Tomcat70
2005-07-01, 10:41:08
f) das ganze spiegelt sich auch in ATI geschäftszahlen des letzten quartals wieder - oder was glaubst du, woher plötzlich die verluste kommen? :confused:
also zu den "verlusten":
------
Der Nettoverlust belief sich demnach auf 400.000 Dollar bzw. 0 Cents pro Aktie, gegenüber einem Gewinn von 49 Mio. Dollar bzw. 19 Cents pro Aktie. Der Umsatz erhöhte sich um 8 Prozent auf 530,2 Mio. Dollar.
Analysten hatten einen Gewinn von 4 Cents pro Aktie und einen Umsatz von 530,2 Mio. Dollar erwartet. Für das laufende Quartal sehen sie das EPS-Ergebnis bei 14 Cents und die Erlöse bei 600,8 Mio. Dollar.
Das Unternehmen selbst hat seine Umsatzprognose für das vierte Quartal nach unten korrigiert und schätzt die Erlöse nun auf nur noch 550 bis 580 Mio. Dollar. Die Bruttomarge soll 29 bis 30 Prozent betragen.
-------
aufs jahr betrachtet ist, zur zeit zumindest noch vom keinem verlust zu sprechen.
und 400.000 dollar minus in einem quartal ist noch nicht tragisch, alles zukünftige wird sich weisen.
Demirug
2005-07-01, 10:42:45
Nach deiner Logik müsste dann der r420 auch kein Chip aus der r3x0-Reihe sein....was er aber definitv ist.
Ich glaube ich muss mal wieder das hier posten:
FIREGLPROFILE Version="1.0000">
<ASICFAMILYPROFILE Name="R300 Family">
<SUPPORTEDASIC>
<AsicEntry Name="FAMILY_R300" Id="44"></AsicEntry>
<AsicEntry Name="FAMILY_R350" Id="52"></AsicEntry>
<AsicEntry Name="FAMILY_R360" Id="53"></AsicEntry>
<AsicEntry Name="FAMILY_RS400" Id="26"></AsicEntry>
<AsicEntry Name="FAMILY_RS480" Id="27"></AsicEntry>
<AsicEntry Name="FAMILY_M18" Id="57"></AsicEntry>
<AsicEntry Name="FAMILY_M26" Id="59"></AsicEntry>
<AsicEntry Name="FAMILY_R420" Id="56"></AsicEntry>
<AsicEntry Name="FAMILY_RV410" Id="58"></AsicEntry>
<AsicEntry Name="FAMILY_R520" Id="60"></AsicEntry>
<AsicEntry Name="FAMILY_RV350" Id="45"></AsicEntry>
<AsicEntry Name="FAMILY_RV380" Id="54"></AsicEntry>
<AsicEntry Name="FAMILY_M10" Id="46"></AsicEntry>
<AsicEntry Name="FAMILY_M24" Id="55"></AsicEntry>
</SUPPORTEDASIC>
<PROFILES>
...
</PROFILES>
</ASICFAMILYPROFILE>
<ASICFAMILYPROFILE Name="R200 Family">
<SUPPORTEDASIC>
<AsicEntry Name="FAMILY_RADEON200" Id="8"></AsicEntry>
<AsicEntry Name="FAMILY_RV250" Id="47"></AsicEntry>
<AsicEntry Name="FAMILY_RV280" Id="49"></AsicEntry>
<AsicEntry Name="FAMILY_M9" Id="48"></AsicEntry>
<AsicEntry Name="FAMILY_M9PLUS" Id="51"></AsicEntry>
<AsicEntry Name="FAMILY_RS300" Id="25"></AsicEntry>
</SUPPORTEDASIC>
<PROFILES>
...
</PROFILES>
</ASICFAMILYPROFILE>
</FIREGLPROFILE>
Tomcat70
2005-07-01, 10:43:01
Nach deiner Logik müsste dann der r420 auch kein Chip aus der r3x0-Reihe sein....was er aber definitv ist.
meine logik??? keine ahnung wo du in meinem kommentar zu seiner aussage eine(meine) logik bezüglich r420 erkennen kannst??
Winter[Raven]
2005-07-01, 10:46:58
meine logik??? keine ahnung wo du in meinem kommentar zu seiner aussage eine(meine) logik bezüglich r420 erkennen kannst??
Musst du es immer so schwer machen:
klaaar, darum nennt ATI den chip ja auch R520, weil ihn ATi höchstpersönlich (thx thx an deine heissen insiderinfos) als einen chip aus der R3xx Reihe betrachtet......
Nach deiner Logik müsste dann der r420 auch kein Chip aus der r3x0-Reihe sein....was er aber definitv ist.
Ist es so schwer die Schlussfolgerung zuziehen?
Du behauptest ATI würde R520 nicht R520 nennen, wenn es ein R3xx Ableger wäre, R420 heißt R420 ist aber auch ein Ableger der R3xx Reie... :|
@ Shadow
GOT'YA! ;D
ShadowXX
2005-07-01, 10:50:46
meine logik??? keine ahnung wo du in meinem kommentar zu seiner aussage eine(meine) logik bezüglich r420 erkennen kannst??
klaaar, darum nennt ATI den chip ja auch R520, weil ihn ATi höchstpersönlich (thx thx an deine heissen insiderinfos) als einen chip aus der R3xx Reihe betrachtet......deine basher-Logik schlägt wieder mal unvermittelt zu.
und jetzt ändern wir das ganze mal ein bisserl....
klaaar, darum nennt ATI den chip ja auch R420, weil ihn ATi höchstpersönlich (thx thx an deine heissen insiderinfos) als einen chip aus der R3xx Reihe betrachtet......deine basher-Logik schlägt wieder mal unvermittelt zu.
Und dann betrachte nochmal das Posting von Demirug....
Tomcat70
2005-07-01, 10:53:17
']
Du behauptest ATI würde R520 nicht R520 nennen wenn es ein R3xx Ableger wäre, R420 heißt R420 ist aber auch ein Ableger der R3xx Reie... :|
was immer du damit aussagen willst, herauskommen tut dennoch nix neues.
jegliche vermutung das der r520 sehr direkt vom r300 abstammt und deswegen nicht performed etc. entspringt rein deiner wunschfantasie.
aber deine indirekten bashing versuche sind ja auch nicht unbemerkt geblieben wie man sieht......danke an den mod.
wuzetti
2005-07-01, 10:54:22
also zu den "verlusten":
------
Der Nettoverlust belief sich demnach auf 400.000 Dollar bzw. 0 Cents pro Aktie, gegenüber einem Gewinn von 49 Mio. Dollar bzw. 19 Cents pro Aktie. Der Umsatz erhöhte sich um 8 Prozent auf 530,2 Mio. Dollar.
Analysten hatten einen Gewinn von 4 Cents pro Aktie und einen Umsatz von 530,2 Mio. Dollar erwartet. Für das laufende Quartal sehen sie das EPS-Ergebnis bei 14 Cents und die Erlöse bei 600,8 Mio. Dollar.
Das Unternehmen selbst hat seine Umsatzprognose für das vierte Quartal nach unten korrigiert und schätzt die Erlöse nun auf nur noch 550 bis 580 Mio. Dollar. Die Bruttomarge soll 29 bis 30 Prozent betragen.
-------
aufs jahr betrachtet ist, zur zeit zumindest noch vom keinem verlust zu sprechen.
und 400.000 dollar minus in einem quartal ist noch nicht tragisch, alles zukünftige wird sich weisen.
manche können oder wollen einfach nicht verstehen. es geht darum, dass ATI nach vielen fetten quartalen im letzten quartal ein minus erwirtschaftet hat. das kann meines erachtens nur eine logische folge der letzten ein- bis eineinhalb jahren sein, wo nicht viel zusammengelaufen ist. aber ich mag mich auch nicht ständig wiederholen. oder hast du vielleicht andere gründe vorzuweisen?
ausserdem habe ich auch nicht von verlust pro geschäftsjahr gesprochen - wie könnte ich auch? :confused:
Tomcat70
2005-07-01, 10:55:26
und jetzt ändern wir das ganze mal ein bisserl....
Und dann betrachte nochmal das Posting von Demirug....
ja aber der R420 ist numal sehr viel näher verwandt mit dem R300 als der R520 es sein wird.
demrugs posting betrachte ich allerhöchstens als bestätigung eures irrglaubens.
eine einstufung laut einer ogl-treibertabelle sagt sehr wenig aus.
Winter[Raven]
2005-07-01, 10:59:15
Momant, habe ich jemals gesagt der R520 würde schlecht performen nur weil er vom R3xx abstammt? Bitte mir Link oder quote! Ich verkneife mir jetzt mal jegliches Kommentar, vielleicht solltest du meine Postings mal in aller Ruhe durchlesen.
@ treibertabelle
Natürlich, alles was gegen ATI spricht ist böse... sehr böse...
Mr. Lolman
2005-07-01, 11:06:40
Flimmern ist eine subjektive Wahrnehmung mit starker temporaler Komponente. Daraus ergibt sich das zwei unterschiedlich schnelle Chips trotz gleicher Filterverfahren in der subjektiven Wahrnehmung unterschiedlich stark flimmern können.
Das ist zwar korrekt, aber ich hab 3 Videos mit genau 25 Frames gecaptured, die Zeigen, dass schon der NV40 mit der treiberdefaulteinstellung deutlichst mehr flimmert als ATi. Gestern hab ich jemanden die Videos gezeigt, und ihm erklärt, dass den Flimmergrad von GrakaHW untersuche. Als ich ihm HQ gegen AtiAF gezeigt hab (und gleichzeitig erklärte, dass ich persönliche diese beiden AF Techniken her für vergleichbar halte, hat er sofort gemeint, dass das ATi Video besser aussieht (ohne zu wissen, dass es das Ati Video ist)...
Jetzt gerade hab ich den Test mit meiner Freundin gemacht. Die Videos umbenannt, ihr gezeigt, und sie findet dass Ati AF am besten aussieht (besser als NV HQ). Ihr geht der ganze Ati/NV Krieg sonst wo vorbei, und deswegen wars für sie nur Video 1, 2 und 3.
Aber weil mir man das wahrscheinlich immernoch nicht glauben wird, muss ich anscheinend mal wieder animierte gifs basteln (denn 90MB will sich ja auch nicht jeder ziehen)
Ergo ist der optischen Eindruck einer Einzelperon kein Nachweiss dafür das Filterverfahren geändert wurden. Es ist nur ein Indiez.
Damien hat den Unterschied auch mittels Testprogramm festgehalten. Und von ner anderen Seite kenn ich HL² Screenshots, die beim G70 einen flimmrigeren Mipmapübergang als beim NV40 zeigen.
Jetzt frag ich dich. Wenn schon 2 völlig unabhängige Personen, unabhängig von einander, behaupten dass Atis AF besser ist (weniger flimmrig) als NVs HQ, (Q steht da garnicht zur Diskussion, wurde von beiden als inakzeptabel und/oder hässlich angesehen), der G70 anscheinend noch schlechter filtert als der NV40 und die NV40/R420 Vergleiche schon mit HQ gemach werden sollten (was einen deutlich Geschwindigkeitseinbruch mitsich bringt) -
Kann es nicht sein, dass der G70 mit vergleichbarer ATi AF Qualität deutlich langsamer wäre?
Crushinator
2005-07-01, 11:07:05
Ich glaube ich muss mal wieder das hier posten: (...)
Nur was bringt uns das? Daß auch NV40 und der Nachfolger dessen schlußendlich konsoquente Weiterentwicklungen des NV30 sind, dürfte wohl kaum einer anzweifeln. Eben so, daß eine SM3-Radeon kaum eine gänzlich neue Architektur sein wird. Wenn man nach Deiner Liste ginge, hätte R300 folglich keine Ähnlichkeit mit R200, was Deiner eigenen Meinung vor gar nicht mal so langer Zeit nicht zutreffen würde.
Gaestle
2005-07-01, 11:08:11
Wenn man sich hier weniger auf Fanboy-Gehabe, sondern eher auf mehr oder minder nachvollziehbare Informationen oder zumindest sinnvoll begründbare Spekulationen beschränken würde, wäre dieser Thread bestimmt nur halb so lang. *genervtseivonWR,T,D*
Mumins
2005-07-01, 11:15:07
wir reden aneinander vorbei. ich habe weder von highend noch von umsatz geredet. ich habe davon gesprochen, dass ATI VERLUST gemacht hat und dass dies lt. Dave Orton gewisse gründe hat. lies mal da nach! http://www.heise.de/newsticker/meldung/60322
"stärkere nachfrage nach low-end produkten" - klingelt was bei dir?
das habe ich auch nicht behauptet. aber wieso muss Nvidia antworten wenn sie mit 6600GT und 6800GT abschöpfen wie die kaiser? soweit ich weiss ist es genau andersrum und zwar ist die X800 die antwort auf die 6600GT, nachdem X700XT ein schlag ins wasser war. aber a) wesentlich teurer bei b) schlechteren features und c) keiner verfügbarkeit für AGP. wie das ausgeht kann sich jeder depp ausrechnen.
Eine X800 hat 256MB, daher rührt der Preisunterschied von 30€ zur 6600GT.
Demirug
2005-07-01, 11:15:53
Nur was bringt uns das? Daß auch NV40 und der Nachfolger dessen schlußendlich konsoquente Weiterentwicklungen des NV30 sind, dürfte wohl kaum einer anzweifeln. Eben so, daß eine SM3-Radeon kaum eine gänzlich neue Architektur sein wird. Wenn man nach Deiner Liste ginge, hätte R300 folglich keine Ähnlichkeit mit R200, was Deiner eigenen Meinung vor gar nicht mal so langer Zeit nicht zutreffen würde.
Treiber technisch werden R200 und R300 Chips unterschiedlich behandelt.
Bei nVidia gehören NV3X und NV4X dagegen nicht zur gleichen Gruppe was die Treiber angeht.
Demirug
2005-07-01, 11:20:09
Damien hat den Unterschied auch mittels Testprogramm festgehalten. Und von ner anderen Seite kenn ich HL² Screenshots, die beim G70 einen flimmrigeren Mipmapübergang als beim NV40 zeigen.
Jetzt frag ich dich. Wenn schon 2 völlig unabhängige Personen, unabhängig von einander, behaupten dass Atis AF besser ist (weniger flimmrig) als NVs HQ, (Q steht da garnicht zur Diskussion, wurde von beiden als inakzeptabel und/oder hässlich angesehen), der G70 anscheinend noch schlechter filtert als der NV40 und die NV40/R420 Vergleiche schon mit HQ gemach werden sollten (was einen deutlich Geschwindigkeitseinbruch mitsich bringt) -
Kann es nicht sein, dass der G70 mit vergleichbarer ATi AF Qualität deutlich langsamer wäre?
Dummerweise habe ich auch einen Gegenbeweiss gesehen das er eben nicht anders filtert. Aus diesem Grund bin ich immer noch am prüfen. Gibt ja auch noch andere mögliche Ursachen die zu leicht anderen Ergebnissen am Ende der Pixelpipe führen können.
Crushinator
2005-07-01, 11:22:32
(...) Bei nVidia gehören NV3X und NV4X dagegen nicht zur gleichen Gruppe was die Treiber angeht.
In wiefern ist das jetzt ein Beweis, daß NV40 eine gänzlich neue Architektur ist?
Mr. Lolman
2005-07-01, 11:26:04
Dummerweise habe ich auch einen Gegenbeweiss gesehen das er eben nicht anders filtert. Aus diesem Grund bin ich immer noch am prüfen.
Dann leg deine Karten gleich offen auf den Tisch.
Mir gehts einfach gehörigst gegen den Strich. Vll. war das bisher nur wohlwollend von mir, eine Gleichheit zw. NV(HQ)-AF und Ati-AF entdeckt zu haben. Ich frag jetzt einfach jeden, der bei mir zuhause reinschneit, (und der nicht vorbelastet ist so wie die meisten hier im 3DC) welches Video am besten aussieht.
--- und vor 3 Tagen haben die meisten hier noch ne Vergleichbarkeit zw. Q und ATiAF gesehen, pffff ---- :|
wuzetti
2005-07-01, 11:32:33
Eine X800 hat 256MB, daher rührt der Preisunterschied von 30€ zur 6600GT.
tschuldigung, aber du kommst mir auch so vor, als ob du nicht verstehen willst.
1) wurde X800 genauso mit 128MB angekündigt!
2) eine 6600GT bekomme ich , ohne dass ich jetzt geizhals befrage, so um die 160 bis 180 euro. und das auch noch für AGP!
3) zeig mir die X800 mit 256MB, die ich für 190 - 210 euro bekomme und das für AGP!
4) zeig mir verfügbare X800 mit 128MB für AGP!
so what?
seahawk
2005-07-01, 11:34:12
Dann leg deine Karten gleich offen auf den Tisch.
Mir gehts einfach gehörigst gegen den Strich. Vll. war das bisher nur wohlwollend von mir, eine Gleichheit zw. NV(HQ)-AF und Ati-AF entdeckt zu haben. Ich frag jetzt einfach jeden, der bei mir zuhause reinschneit, (und der nicht vorbelastet ist so wie die meisten hier im 3DC) welches Video am besten aussieht.
--- und vor 3 Tagen haben die meisten hier noch ne Vergleichbarkeit zw. Q und ATiAF gesehen, pffff ---- :|
Was hat das mit dem R520 zu tun. Mach doch einen neuen Thread dafür auf. :P
Nicky
2005-07-01, 11:44:47
Warum schliesst eigentlich (fast) jeder von der Effizienz pro Takt von R420/nV40 auf R520/G70? Selbst wenn (und ja, ich glaube dass er einer ist) R520 ein R420 Abkoemmling ist, will das noch nichts heissen.
Kramen wir mal in der Erinnerung:
N30 war weniger takteffizient als R300, bei nV35 konnte man die Effizienz steigern, nV40 als naechste nV3x Weiterentwicklung war dann effizienter als R300 bezw dessen Grosvater R300. Warum also sollte es Ati nicht moeglich bei gleichem Grunddesign (im Prinzip verhaelt sich G70 nicht anders zu nV30 als R520 zu R300) ebenfalls diese Effizienzsteigerung zu erreichen? (nur theoretisch betrachtet)
Godmode
2005-07-01, 11:45:00
Dann leg deine Karten gleich offen auf den Tisch.
Mir gehts einfach gehörigst gegen den Strich. Vll. war das bisher nur wohlwollend von mir, eine Gleichheit zw. NV(HQ)-AF und Ati-AF entdeckt zu haben. Ich frag jetzt einfach jeden, der bei mir zuhause reinschneit, (und der nicht vorbelastet ist so wie die meisten hier im 3DC) welches Video am besten aussieht.
--- und vor 3 Tagen haben die meisten hier noch ne Vergleichbarkeit zw. Q und ATiAF gesehen, pffff ---- :|
Könntest du das Video irgenwo bereitstellen, ich würde das auch mal gerne sehen. Habe aber keine R3xx/R4xx zur Hand und kann dies dadurch schlecht nachprüfen.
Ich glaube ich muss mal wieder das hier posten:
FIREGLPROFILE Version="1.0000">
<ASICFAMILYPROFILE Name="R300 Family">
<SUPPORTEDASIC>
<AsicEntry Name="FAMILY_R300" Id="44"></AsicEntry>
<AsicEntry Name="FAMILY_R350" Id="52"></AsicEntry>
<AsicEntry Name="FAMILY_R360" Id="53"></AsicEntry>
<AsicEntry Name="FAMILY_RS400" Id="26"></AsicEntry>
<AsicEntry Name="FAMILY_RS480" Id="27"></AsicEntry>
<AsicEntry Name="FAMILY_M18" Id="57"></AsicEntry>
<AsicEntry Name="FAMILY_M26" Id="59"></AsicEntry>
<AsicEntry Name="FAMILY_R420" Id="56"></AsicEntry>
<AsicEntry Name="FAMILY_RV410" Id="58"></AsicEntry>
<AsicEntry Name="FAMILY_R520" Id="60"></AsicEntry>
<AsicEntry Name="FAMILY_RV350" Id="45"></AsicEntry>
<AsicEntry Name="FAMILY_RV380" Id="54"></AsicEntry>
<AsicEntry Name="FAMILY_M10" Id="46"></AsicEntry>
<AsicEntry Name="FAMILY_M24" Id="55"></AsicEntry>
</SUPPORTEDASIC>
<PROFILES>
...
Das klingt aber ziemlich bitter - kann es denn sein, daß der R520 keine eigenen OpenGL-Extensionen bekommt, sprich sein Potential ggü. R420 nicht vorhanden ist oder einfach brachliegt?
Oder wird sich das evtl. später noch ändern?
Demirug
2005-07-01, 11:48:43
In wiefern ist das jetzt ein Beweis, daß NV40 eine gänzlich neue Architektur ist?
Das ist kein Beweiss für eine neue Architektur sondern nur dafür das die Unterschiede so groß sind das man es treibertechnisch nicht mehr zusammenfassen konnte/wollte.
Crushinator
2005-07-01, 11:50:19
Das klingt aber ziemlich bitter - kann es denn sein, daß der R520 keine eigenen OpenGL-Extensionen bekommt, sprich sein Potential ggü. R420 nicht vorhanden ist oder einfach brachliegt?
Mir erschließt es sich nicht, wie man auf diesen Gedanken kommt, wenn auch R300 unter der gleichen Kategorie gelistet wird. Demnach dürften ja auch die Erweiterungen eines R420 gegenüber des Vorgängers nicht benutzt werden können, was in der Praxis jedoch nicht der Fall ist.
Mumins
2005-07-01, 11:50:36
tschuldigung, aber du kommst mir auch so vor, als ob du nicht verstehen willst.
1) wurde X800 genauso mit 128MB angekündigt!
2) eine 6600GT bekomme ich , ohne dass ich jetzt geizhals befrage, so um die 160 bis 180 euro. und das auch noch für AGP!
3) zeig mir die X800 mit 256MB, die ich für 190 - 210 euro bekomme und das für AGP!
4) zeig mir verfügbare X800 mit 128MB für AGP!
so what?
Ich weiss nicht was angekündigt wurde, da ich keine dieser Karten kaufen würde.
X800 für AGP waren schon lieferbar.
Diesen Bärendienst haste im übrigen Intel zu verdanken, die ATI überzeugt haben, dass AGP tot wäre. Deshalb gabs zu Anfang nur PCI-E Karten. Die wurden auch ganz gut verkauft, bei DELL z.B. gabs X800 128MB in Komplettrechnern.
Crushinator
2005-07-01, 11:56:17
Das ist kein Beweiss für eine neue Architektur sondern nur dafür das die Unterschiede so groß sind das man es treibertechnisch nicht mehr zusammenfassen konnte/wollte.
Klar sind die Unterschiede groß, schließlich enthält der NV30 Teil ja auch etliche Optimierungen für explizite Spiele/Situationen. Vielleicht wollte man den unnötigen Balast vom NV4x Code fernhalten, was ich natürlich nur gutheißen würde.
wuzetti
2005-07-01, 11:57:23
Ich weiss mich nicht was angekündigt wurde, da ich keine dieser Karten kaufen würde.
:confused: :confused: was will "mich" dieser satz sagen?
X800 für AGP waren schon lieferbar.
interessiert kein schwein, wenn ich heute keine bekomme.
Diesen Bärendienst haste im übrigen Intel zu verdanken, die ATI überzeugt haben, dass AGP tot wäre. Deshalb gabs zu Anfang nur PCI-E Karten. Die wurden auch ganz gut verkauft, bei DELL z.B. gabs X800 128MB in Komplettrechnern.
erstens ist das meines erachtens schwachsinn und interessiert zweitens auch nicht. ATI hat es nicht geschafft, angekündigt produkte innerhalb nutzer zeit zu einem vernünftigen preis verfügbar zu machen. ende, aus, punkt.
achja, super. wenn ich meinen rechner aufrüsten will, muss ich einen dell komplettrechner kaufen. weltklasse! ;D ;D ;D
für mich ist jetzt hier EOD!
reunion
2005-07-01, 11:59:14
http://www.theinquirer.net/?article=24289
War zu erwarten IMHO.
Crossfire auf R420 ist nichts als Marketing, um die Karten- und Mainboardverkäufe anzukurbeln.
PS. Wenn jede R520 die Crossfirelogic drinne hat, dann ist der Unterschied zu SLI noch kleiner geworden und Crossfire ist noch mehr eine SLI-Kopie.
Und was genau stört dich jetzt daran?
Es gibt eben kaum eine andere Möglichkeit, effizientes Multikarten-Rendering zu ermöglichen.
Mumins
2005-07-01, 12:01:27
was will "mich" dieser satz sagen?
Hast dich noch nie verschrieben, nöööö.
erstens ist das meines erachtens schwachsinn und interessiert zweitens auch nicht.
Intel hat ja sogar Bundles verkauft, PCI-E MOBO und ATI PCI-E Graka.
Mr. Lolman
2005-07-01, 12:02:11
Was hat das mit dem R520 zu tun. Mach doch einen neuen Thread dafür auf. :P
Hab ich eh vor. Aber da mag ich für jeden sichtbare Bildbeweise vorlegen können (also selbst für die, die sich keine 100MB an Videos ziehen können/wollen)
Könntest du das Video irgenwo bereitstellen, ich würde das auch mal gerne sehen. Habe aber keine R3xx/R4xx zur Hand und kann dies dadurch schlecht nachprüfen.
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3195108#post3195108
BTW: Ja ich weiss, dass Q3a nicht mehr das neuste Spiel ist. Das Problem ist, dass man gleichmässige langsame Bewegungen einfangen muss, damit beim Capturing keine Frames übergangen werden. Und da eignet sich der Befehl "timescale 0.1" sehr gut. (Geht auch mit der D³ Engine, aber da müsst ich erst ne Stelle suchen, die die Unterschiede in der Filterqualität genauso gut sichtbar macht)
Dementsprechend braucht man sich nicht wundern, dass alle 3 Videos flimmrig wirken, man kanns aber leicht selbst nachprüfen in dem man sich einfach 16xAF bei 640x480 ankuckt...
reunion
2005-07-01, 12:03:33
']Nochmal für dich, ATI sieht den R520 von sich aus als einen Chip der R3xx Reihe, also lass mal stecken mit dem "neuem" Design!
Was soll das Beweisen?
ATi wird bei R520 einiges ändern müssen, um diesen auf SM3 zu hiefen - ob er jetzt im Treiber weiterhin zur "R300-Family" zugeordnet wird => belanglos.
reunion
2005-07-01, 12:06:19
http://www.digitimes.com/mobos/a20050630A4017.html
http://www.beyond3d.com/forum/viewtopic.php?topic=24523&forum=9
ATI is currently revamping the chip design of its R520, said the makers, adding that the company is facing leakage issues, as it attempts to migrates its manufacturing to a 90nm process.
Viel intressanter IMHO:
Also in line with some of the statements from ATI, Digitimes reports that ATI may release the mainstream RV530 and entry-level RV515 eahead of schedule and if this were some of them may be announced at the same time as R520. RV530 and RV515 are also expected to utilise the 90nm process, however if they are ahead of schedule it would seem as though these smaller chips may not be suffering similar issues as R520.
seahawk
2005-07-01, 12:16:35
Und was genau stört dich jetzt daran?
Es gibt eben kaum eine andere Möglichkeit, effizientes Multikarten-Rendering zu ermöglichen.
Das ATI bei der Vorstellung von Crossfire selber betonte wie sinnvoll doch die Master-/Slave-Lösung sei und wie unsinnig es wäre jede GPU mit einer MultiGPU-Logic zu versehen.
Aber das kenne nwir ja von ATI. (Rialto - hust)
deekey777
2005-07-01, 12:20:47
Viel intressanter IMHO:
Also in line with some of the statements from ATI, Digitimes reports that ATI may release the mainstream RV530 and entry-level RV515 eahead of schedule and if this were some of them may be announced at the same time as R520. RV530 and RV515 are also expected to utilise the 90nm process, however if they are ahead of schedule it would seem as though these smaller chips may not be suffering similar issues as R520.
Meistens erscheinen die "Midrange-Grafikkarte" Monate nach dem Highend-Chip - im Umkehrschluß...
Was soll das Beweisen?
ATi wird bei R520 einiges ändern müssen, um diesen auf SM3 zu hiefen - ob er jetzt im Treiber weiterhin zur "R300-Family" zugeordnet wird => belanglos.
Nein, der R520 ist nur ein vierfacher RV360 mit SM 3.0 Unterstützung, mehr war da nicht drin... ;)
Es wäre schon ein Wunder, wenn Solitär darauf laufen würde...
']Löl du willst es nicht verstehen oder? R520 ist ein Teil der R3xx Family, das steht doch sogar im Treiber... nimm deine Brille ab, BITTE!
Und? Hat das irgendeine Bedeutung?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.