PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ich bin wohl doch nVidiot...


Radeonator
2012-06-26, 10:34:04
Habe mir "ausversehen" eine Radeon 6790 ersteigert, wollte ein Upgrade für meine (leider) bereits verkaufte 260er haben. Jetzt habe ich das Ding getestet und bib, vorsichtig ausgedrückt, enttäuscht. Von der reinen Speed her, da ist die Karte vorne...wäre auch schlimm wenn nicht, ABER:

2d und 3d Qualität : Absolute Grotte im Vergleich zur 260er. Es geht nur 60Hz@1680x1050, wodurch das Bild sehr schwammig aussieht.
Das Bild ist nicht wirklich scharf (im Vergleich) und Farben, so wie Kontrast sind ebenfalls nicht vergleichbar.

Ich Spiele hauptsächlich BF3, da ist die Snipersicht tatsächlich mit weniger Artefakten...ABER:
-Der Arbeitsspeicher wird vielmehr als bei der 260er in Anspruch genommen, dadurch ruckelt es immer wieder.
-Ich hatte vorher nie das CTD Problem (Crash to Desktop) , jetzt schon.
-Seit JAHREN hatte ich nun meinen ersten Bluescreen :(
-Die Karte ist so blöd konstruiert, das 3 Slots belegt werden

Das Ding geht jetzt via ebaY raus, ich hol mir wieder nVidia, da hatte ich all diese Probleme nicht!

Ich habe einfach keinen Bock mehr darauf, das ich heutzutage noch 10 verschiedene Treiber ausprobieren darf und irgendwelche tollen Workarounds etc. Sorry AMD, CPU YES, GPU NO !

xxMuahdibxx
2012-06-26, 12:10:08
naja schöner Heulthread .. hättest mal dich besser informieren sollen und das wäre hier sicher gut möglich gewesen .

Ab der 7000er Serie geht die Bildqualität recht gut in Ordnung . Vorher halt muss man mit dem Abstrichen leben .

Commander Keen
2012-06-26, 12:14:04
"Radeonator" - wohl keine glückliche Wahl beim Nick ;D

@topic:

Fühl mich auch schon seit jeher bei nvidia wohler, aufgrund der besseren Treiber und Tools. Die Farbgebung ist bei AMD auch irgendwie anders ("blasser"), aber das ist letztlich Geschmackssache. Was halt wie gesagt gar nicht geht sind die wackeligen Treiber. Für Gelegenheitszocker sicherlich in Ordnung, aber Enthusiasten können da schon mal das kotzen kriegen.

aufkrawall
2012-06-26, 12:21:44
Die Farbgebung ist bei AMD auch irgendwie anders ("blasser")
Beweis?

Commander Keen
2012-06-26, 12:25:36
Beweis?

Subjektive Wahrnehmung meinerseits und eines Bekannten (gleicher Rechner, Monitor, Umbau nv<->ati, Unterschied direkt wahrgenommen). Ist allerdings schon ein paar Jahre her, vllt. ist das mittlerweile anders. Man hat die andere Farbkalibrierung (jeweils bei Standardsettings des Treibers) aber wirklich sehr gut erkannt.

aufkrawall
2012-06-26, 12:27:07
Mir ist beim Wechsel von Fermi zu Tahiti überhaupt nichts an den Farben aufgefallen.

Commander Keen
2012-06-26, 12:37:17
Mir ist beim Wechsel von Fermi zu Tahiti überhaupt nichts an den Farben aufgefallen.

@Topic: Wie kann man sich nur ne Radeon 6800/6900 kaufen. :freak:

Das war damals ja auch noch auf einem Sony Trinitron und nicht auf einem 120€ TN ;)

Hier in der Arbeit hab ich auch zwei TN's stehen, der erste Eindruck nach dem Auspacken und Anschliessen: "omg wie scheisse sind denn die Farben". Gibt natürlich auch bessere TN's, aber die zwei Dinger @work sind schon extrem übel. Wie auch immer, vllt. ist das ja mittlerweile anders. Gab damals aber afair auch große Diskussionen in Foren über die unterschiedliche Farbgebung, wobei ich nicht einmal sagen kann, welcher der beiden Hersteller letztlich besser im Sinne von "natürlicher, echter" war. Den einen gefiel das bunte Bild nvidias besser, den anderen das blassere von ati.

aufkrawall
2012-06-26, 12:42:55
Das war damals ja auch noch auf einem Sony Trinitron und nicht auf einem 120€ TN ;)

Ich hab aber nen damals >500€ Eizo mit S-PVA-Panel.

Raff
2012-06-26, 12:45:49
Sofern es kein EDID-Fuckup gibt (was bei AMD schon mal vorkommen kann), ist und bleibt die Farbgeschichte Schmarrn.

MfG,
Raff

Ronny145
2012-06-26, 12:47:32
Kann ich unterschreiben. Beim Wechsel von AMD auf Nvidia sind mir keine Farbunterschiede aufgefallen.

Commander Keen
2012-06-26, 12:50:29
Sofern es kein EDID-Fuckup gibt (was bei AMD schon mal vorkommen kann), ist und bleibt die Farbgeschichte Schmarrn.

MfG,
Raff

Na wenn du das sagst. Ich weiß, was ich gesehen habe, ich habe das sogar mit extra bunten Spielen getestet (Simpsons Hit & Run war da so ein Kandidat). Und ich wiederhole mich: Das ganze ist schon ein paar Jährchen her, war so um 2003 (NV35 vs. R300 afair). Seit 2004 (NV40) nutze ich durchgängig nvidia, so dass mir der Vergleich fehlt und das Bild auf fremden Computern beurteile ich nicht, für Vergleiche muß schon die restliche Peripherie exakt gleich bleiben.

Coda
2012-06-26, 12:54:11
Das Bild ist exakt gleich über DVI, solange nicht der "Digital Vibrance" Müll an ist.

Raff
2012-06-26, 13:01:08
Oh, guter Punkt. Das hatte ich früher auch an ... ähem. :D Aber ab Werk steht das auf IIRC "Ich mache nix". Schon immer? Ich kann mich jedenfalls an keine werkseitige Sättigungserhöhung erinnern.

MfG,
Raff

Ric
2012-06-26, 13:04:15
Das Bild ist exakt gleich über DVI, solange nicht der "Digital Vibrance" Müll an ist.

Fehler gefunden: Acer X223W

Der Monitor des Threadstarters hat NUR VGA (http://www.chip.de/preisvergleich/92053/Datenblatt-Acer-X223W.html).

Das die Qualität des RAMDAC und der verwendeten Kable eher Glücksspiel ist, führt zu dem vom Threadersteller beobachteten Phänomen.

Spirou
2012-06-26, 13:51:04
Öhm... ich stör ja bekanntlich nur höchst ungern, wenn fachliche Fachgespräche geführt werden, aber könnten sich die versierteren Herrschaften eventuell herablassen, mir meine sicher ganz unfachmännische Frage zu beantworten, wie der Monitor oder Anschluss im Web zu begutachtende Screenshots beeinflusst?

Danke im Voraus.

Ric
2012-06-26, 14:01:43
Ich möchte gern die über mir gestellte Frage zu vollen Zufriedenheit beantworten. Misslich ist, dass die Frage in diverse Richtungen interpretierbar ist, so dass eine präzise und ziel-führende Antwort. Ich bitte höflich, das Anliegen noch einmal ausführlich zu formulieren und werde, falls die Antwort in Rahmen meiner Kenntnisse liegt, diese gern teilen.

Radeonator
2012-06-26, 14:04:06
Fehler gefunden: Acer X223W

Der Monitor des Threadstarters hat NUR VGA (http://www.chip.de/preisvergleich/92053/Datenblatt-Acer-X223W.html).

Das die Qualität des RAMDAC und der verwendeten Kable eher Glücksspiel ist, führt zu dem vom Threadersteller beobachteten Phänomen.

Nope, ich habe DVI und habe direkt vergleichen (Karte Raus, andere Rein) und das Bild ist sehr unterschiedlich!

Ric
2012-06-26, 14:06:45
Hast also an einen anderen Monitor getestet, als den in deiner Systembeschreibung?

Coda
2012-06-26, 14:30:38
Öhm... ich stör ja bekanntlich nur höchst ungern, wenn fachliche Fachgesprähe geführt werden, aber könnten sich die versierteren Herrschaften eventuell herablassen, mir meine sicher ganz unfachmännische Frage zu beantworten, wie der Monitor oder Anschluss im Web zu begutachtende Screenshots beeinflusst?
Gar nicht.

Radeonator
2012-06-26, 16:51:33
Hast also an einen anderen Monitor getestet, als den in deiner Systembeschreibung?

Nein, aber es gibt den X223w in verschiedenen Ausführungen und ich habe eine mit Dual Input!

Anhand von Screenshots kann man den Unterschied idR nicht sehen, wie denn auch? Man muss den Bildschirm abfotografieren und die Fotos betrachten, am besten manuell und ohne Monitor ;)

Meiner Frau ist es auch aufgefallen, ohne das ich Sie darauf stoßen musste. Sie wusste noch gar nicht, das eine neue Graka im System ist, hat aber gefragt warum das Bild so matschig und blass ist...:wink:

Gast
2012-06-26, 17:07:33
Möglichkeiten:

Matschig --> falsche Auflösung oder over-/underscanproblem. Mal Monitortreiber installiert (für korrekte Auflösung) und im Treiber gecheckt, dass kein Overscan aktiviert ist?

Blasse Farben --> Digital Vibrance war bei nVidia drin; kaputtes EDID (wenn entsprechende Option im AMD-Treiber aktiviert); am Gamma- oder Sättigungs-Regler eines der Treiber rumgespielt.


Grundsätzlich ist das digital übertragene Bild GPU-unabhängig 1:1 identisch. Ich tippe deswegen auf PEBKAC (auch anhand der versehentlich gekauften Grafikkarte...), will aber keine böse Unterstellungen machen.

DeadMeat
2012-06-26, 17:13:59
Es geht nur 60Hz@1680x1050, wodurch das Bild sehr schwammig aussieht.

Was sollte denn sonst da sein bei dem Monitor, das ist doch seine Auflösung?

> Eventuell hat dein Monitor auf einen anderen Preset gewechselt, schonmal dort nachgesehen?

Edit: Der Gast hat sicher recht, klingt alles irgendwie wahrscheinlich.

Ric
2012-06-26, 17:18:03
OK, Danke für die Info.

Noch eine Nachfrage: Ist schon der POST-Screen so "blass und matschig", oder erst in Windows?

Wenn es digital angeschlossen ist und in der nativen Auflösung betrieben wird sind die Farben gleich, egal ob mit einen Chip von nVidia oder AMD/ATI. Einzig (Steuerungs-) Software (z.B. Einstellungen wie "Digital Vibrance") manipuliert hier die Farbinformationen. Die frage lautet also, war vorher etwas eingestellt, was mit der Radeon nicht mehr eingestellt ist?
- ist das Farbprofil richtig eingestellt?
- stimmt die Farbtemperatur (noch) überein?
- wurden bei der Geforce "Bildverbesserer" aktiviert? (Color Vibrance, Gegenstück zu Digital Vibrance)
- stimmte die Cleartype-Enstellungen noch?
- stimmt die Auflösung, oder wird die nur per Software/Monitor interpoliert (GPU scalling)?

r@h
2012-06-26, 23:17:53
Einzig (Steuerungs-) Software (z.B. Einstellungen wie "Digital Vibrance") manipuliert hier die Farbinformationen.
Und da liegt der Hase im Pfeffer!
Deine "(Steuerungs-) Software" nennt man hierzulande "Treiber"... nur so am Rande.

Dieser Treiber macht eine ganze Menge mit dem Bild, bevor es in digitaler Form an den Moni geschickt wird.
Oder was meinst Du, warum ein professioneller Monitor JEDES MAL nach einem Treiber-Wechsel kalibriert werden muss?
Und komm' mir hier keiner mit: "bähhh, muss doch gar net!"... das ist gängige Praxis bei Color-Prooving-Systemen.

Ich leg' mich wieder hin.

Razor

Spirou
2012-06-26, 23:22:04
Gar nicht.

Eben. Und ich habe auf Screenshots oft genug denselben Unterschied bemerkt, kann aber nicht sagen, ob das für die letzten zwei Generationen noch gilt.

Ich kann mir allerdings vorstellen, daß er auch nicht unbedingt auf jedem Monitor gleich deutlich in Erscheinung tritt oder von jedem bemerkt wird. Es war aber doch vor einiger Zeit sogar Thema in einigen Threads dazu. Ist bloß schon eine Weile her.

Radeonator
2012-06-28, 10:02:44
Ich denke das es wirklich an den Treibern hängt. Bei meiner GeForce habe ich keine DV o.ä. eingestellt. In der Grundeinstellung (ich ändere nur 3D Einstellungen AF/AA etc.) sieht das bei nVidia einfach besser aus und ich habe im Catalyst noch kein ähnlich gutes Bild hinbekommen. Der Monitor wird ja auch korekt erkannt und der Catalyst selbst sagt bei der Display Erkennung 75Hz und nicht 60Hz...egal.

@Gast: Ich hab kein Layer 8 Problem und in meinem PC leben schon so um die 50 verschiedenen Grakas gehabt. Nur habe ich zwei gesunde Augen, manche sehen anscheinen nur gefiltert :rolleyes:

p.s.: Meine Frau interessiert sich nur dafür, das der PC löppt und Sie ihre rechnungen schreiben, so wie surfen kann. Sie hat es auch sofort gesehen...

Blediator16
2012-06-28, 10:35:15
Gibt scheinbar eine Art Stigma auf AMD/ATI Karten. Lese öfter solche Threads auch in anderen Foren. Da meint jemand den Leuten mitteilen zu müssen, dass AMD doch einfach nur Scheisse ist und man wieder zu NV wechselt. Dass einem Lösungsvorschläge angeboten werden juckt im Endeffekt dann doch nicht. Wieso einfach nicht für sich behalten?

Gast
2012-06-28, 14:06:14
Er hat doch die für sich beste Lösung bereits gefunden. Einfach wieder grün kaufen und gut.

M4xw0lf
2012-06-28, 14:30:56
Blasse Farben immer... Zwei Handgriffe im CCC und es wird so quietschbunt, dass dir die Augäpfel aus den Höhlen tropfen! :freak:

Blediator16
2012-06-28, 15:24:55
Er hat doch die für sich beste Lösung bereits gefunden. Einfach wieder grün kaufen und gut.

Eben. Wenn mir das Produkt nicht gefällt und ich zu "meiner" alten Marke wechseln will, dann mache ich dies ohne irgendwo in einem Forum explizit darauf hinzuweisen wie scheisse man die andere Firma findet und dafür jetzt zur anderen wechselt ätschibätsch. :rolleyes:
Kauf dir das was dir zusagt und fertig und verbreitet keine Unwahrheiten. Demnächst wird man sich wohl anhören müssen, dass sich der Sound bei AMD Karten anders anhört;D

Radeonator
2012-06-28, 16:45:30
Eben. Wenn mir das Produkt nicht gefällt und ich zu "meiner" alten Marke wechseln will, dann mache ich dies ohne irgendwo in einem Forum explizit darauf hinzuweisen wie scheisse man die andere Firma findet und dafür jetzt zur anderen wechselt ätschibätsch. :rolleyes:
Kauf dir das was dir zusagt und fertig und verbreitet keine Unwahrheiten. Demnächst wird man sich wohl anhören müssen, dass sich der Sound bei AMD Karten anders anhört;D


Schön runter mit dem Puls meine lieben Freunde der Rot/grün Front. Erstmal habe ich nichts von wegen "Scheisse" o.ä. geschrieben, tatsächlich bin ich jedoch verwundert wie grottig die TReiber Grundeinstellung und Stabilität im Gegensatz zu der Hellgrünen Fraktion ist. Wenn ihr euch drüber aufregt ist es euer Problem und nicht meins. Ihr könntet es einfach ignorieren wenn es euch nicht passt, anstatt anderen etwas vorzuwerfen. Nur weil dir eine andere Meinung nicht passt, ist es lange nicht die Unwarheit, so gerne du das auch möchtest. Lest doch nicht im nV Forum, wenn euch so viel an euren Kärtchen liegt...:rolleyes:

p.s.: Ich habe wie oben geschrieben, bereits 50 verschiedene Karten, verschiedenster Hersteller gehabt. Also könnt ihr áuch euere ewig selbiges langweiliges Totschlagargument stecken lassen. Vielen Dank dafür schonmal!

Gast
2012-06-30, 00:39:07
Und da liegt der Hase im Pfeffer!
Deine "(Steuerungs-) Software" nennt man hierzulande "Treiber"... nur so am Rande.

Dieser Treiber macht eine ganze Menge mit dem Bild, bevor es in digitaler Form an den Moni geschickt wird.
Oder was meinst Du, warum ein professioneller Monitor JEDES MAL nach einem Treiber-Wechsel kalibriert werden muss?
Und komm' mir hier keiner mit: "bähhh, muss doch gar net!"... das ist gängige Praxis bei Color-Prooving-Systemen.

Ich leg' mich wieder hin.

Razor

Na klar du musst es ja wissen XD

AYAlf
2012-07-01, 15:08:54
Was ein geiler Thread :rolleyes:
Wichtigste Erkenntnis für alle Leser. AMD ist Scheiße - Warum? Ist doch egal.
Auch wenn nichts von dem zutrifft was der Threadstarter so vehement behauptet, bleibt dem unwissenden Leser nur eines im Kopf - AMD kann NIX.

I LOVE IT, RLY :freak:

Gast
2012-07-01, 19:15:16
Was ein geiler Thread :rolleyes:
Wichtigste Erkenntnis für alle Leser. AMD ist Scheiße - Warum? Ist doch egal.
Auch wenn nichts von dem zutrifft was der Threadstarter so vehement behauptet, bleibt dem unwissenden Leser nur eines im Kopf - AMD kann NIX.

I LOVE IT, RLY :freak:

Nicht nur dem unwissenden Leser bleibt das im Kopf, es ist nun mal Tatsache, wer ein rundum Sorglos Packet will greift zu NV, AMD/ATI hat seit jeher Probleme, habe in meinem Ganzen leben einiges an Grafikkarten gehabt, angefangen von einer Voodo Banshee bis hin zur momentanen GTX 680 und die ATI Karten die ich hatte haben jedesmal Probleme gemacht, sei es Software oder Hardware, NV wird für mich Favorit bleiben.

AYAlf
2012-07-01, 23:04:57
Nicht nur dem unwissenden Leser bleibt das im Kopf, es ist nun mal Tatsache, wer ein rundum Sorglos Packet will greift zu NV, AMD/ATI hat seit jeher Probleme, habe in meinem Ganzen leben einiges an Grafikkarten gehabt, angefangen von einer Voodo Banshee bis hin zur momentanen GTX 680 und die ATI Karten die ich hatte haben jedesmal Probleme gemacht, sei es Software oder Hardware, NV wird für mich Favorit bleiben.
Und ich glaube die nVidia Fans schreien nur am lautesten. :biggrin:
Das rundum Sorglos Paket bekommt man übrigens bei nVidia keines Falls. Derzeit hat ATi die Nase Vorne was Features angeht. Die Treiber sind auch um Längen besser. Ich hatte jetzt 2 nVidia Karten hintereinander und ich kann behaupten, dass nVidia andere Probleme hat - aber es gibt definitiv welche. Und von wegen rein stecken und los gehts?! Das trifft auf nVidia ganz und gar nicht zu! :rolleyes:

aufkrawall
2012-07-01, 23:19:22
Das rundum Sorglos Paket bekommt man übrigens bei nVidia keines Falls. Derzeit hat ATi die Nase Vorne was Features angeht. Die Treiber sind auch um Längen besser.

Soll das ne Parodie sein?
Über die Hälfte aller Bildverbesserungsfeatures funktioniert beim AMD-Treiber gar nicht und über die Qualität des Treibers gibts hier eigentlich keinerlei positive Aussagen von zurechnungsfähigen Leuten.

Gast
2012-07-01, 23:32:52
Nur gut das du dann so zurechnungsfähig bist. Merkst du noch was alle die nicht deiner Meinung als bekloppt hinzustellen? Genauso könnte man sagen das die Leute die positives über die Nvidia Treiber berichten einen an der Klatsche haben. Die sind nämlich auch alles andere wie gut. Auch wenn die Grünen das nicht hören wollen.

Zum Thema kann ich nur sagen das es absoluter Quatsch ist. Die Verschlimmbesserungen sind Standard gar nicht eingeschaltet. Ich könnte hier mit verschiedenen Karten spielen und nichts würde sich an den Farben ändern.
Und bevor einer was unterstellen will. Ich habe eine Nvidia Karte im Rechner. Aber das immer wieder gleiche Gesülze geht einem einfach auf die Nüsse.

aufkrawall
2012-07-01, 23:38:27
Nur gut das du dann so zurechnungsfähig bist. Merkst du noch was alle die nicht deiner Meinung als bekloppt hinzustellen?

Nicht alle, aber ein oder zwei hier schon. ;)


Die sind nämlich auch alles andere wie gut. Auch wenn die Grünen das nicht hören wollen.

Du kannst Bugs im Nvidia Forum oder Blaire melden.
Es gibt meist Feedback und eine relativ zeitnahe Behebung.
Bei AMD gibts nichts.

AYAlf
2012-07-01, 23:40:20
Soll das ne Parodie sein?
Über die Hälfte aller Bildverbesserungsfeatures funktioniert beim AMD-Treiber gar nicht und über die Qualität des Treibers gibts hier eigentlich keinerlei positive Aussagen von zurechnungsfähigen Leuten.
Ich sag nur nVidia Diablo3 und AA oder Spec Ops usw usw usw. :rolleyes:

N0Thing
2012-07-01, 23:47:52
Ich sag nur nVidia Diablo3 und AA

Funktioniert bei mir ohne Probleme... :confused:

Gast
2012-07-01, 23:51:36
Nicht alle, aber ein oder zwei hier schon. ;)


Du kannst Bugs im Nvidia Forum oder Blaire melden.
Es gibt meist Feedback und eine relativ zeitnahe Behebung.
Bei AMD gibts nichts.
Erzähl keinen Mist. Wie groß soll das Formular auf der AMD Seite für dich sein? Und warum sollte ich ausgerechnet Blaire Bugs melden die fast regelmäßig in verschiedenen Treibern immer wieder auftauchen? Und komm ja nicht damit das es nicht stimmt. Seit wie vielen Jahren schafft es Nvidia die Farben bei Videos zu versauen? Das wird mal gefixt um im nächsten oder übernächsten Treiber frisch auf die Tisch zu kommen.

aufkrawall
2012-07-02, 00:28:37
Ich sag nur nVidia Diablo3 und AA oder Spec Ops usw usw usw. :rolleyes:
Toll, Diablo 3 ist ein Spiel und ist ja nicht so, dass mit Nvidia da nichts ginge.
Wegen Spec Ops: Das Catalyst-AA sieht bei der UE3 mit HDR (kommt massig bei dem Spiel zum Einsatz) extrem bescheiden aus.
Auf Nvidia geht perfektes MSAA und mit genug Leistung auch SGSSAA.

AMD soll da jetzt das bessere Angebot haben, weil...?


Erzähl keinen Mist. Wie groß soll das Formular auf der AMD Seite für dich sein?

lol
Gibts einen dokumentierten Nachweis, dass eine Meldung dort jemals zu Feedback oder gar einem Bugfix geführt hat? ;D



Und warum sollte ich ausgerechnet Blaire Bugs melden die fast regelmäßig in verschiedenen Treibern immer wieder auftauchen? Und komm ja nicht damit das es nicht stimmt.

Was für Bugs denn?


Seit wie vielen Jahren schafft es Nvidia die Farben bei Videos zu versauen? Das wird mal gefixt um im nächsten oder übernächsten Treiber frisch auf die Tisch zu kommen.
Beleg?
Noch nie versaute Farben bei Videos mit Nvidia gesehen.
Versuchst du jetzt die umgekehrte Masche aus diesem Thread, oder was?
Wie originell. :freak:

Gast
2012-07-02, 07:53:14
Und ich glaube die nVidia Fans schreien nur am lautesten. :biggrin:
Das rundum Sorglos Paket bekommt man übrigens bei nVidia keines Falls. Derzeit hat ATi die Nase Vorne was Features angeht. Die Treiber sind auch um Längen besser. Ich hatte jetzt 2 nVidia Karten hintereinander und ich kann behaupten, dass nVidia andere Probleme hat - aber es gibt definitiv welche. Und von wegen rein stecken und los gehts?! Das trifft auf nVidia ganz und gar nicht zu! :rolleyes:

Wenn du es als Feature ansiehst, bei jedem neuen Spiel erst mal auf einen Hotfix zu warten, dann hast du recht.
Ganze 2 Nvidia Karten... wow super schon soooo viele? hatte in meinem Leben so an die 10 und unzählige in PCs verbaut, nie Reklamationen...
Was für Probleme hat denn Nvidia? Ach ja sie bringen einen Midrange chip als Performance Chip weil AMD es nicht gebacken kriegt was anständiges aufn Markt zu bringen oder was?

PrefoX
2012-07-02, 09:36:29
Eben. Wenn mir das Produkt nicht gefällt und ich zu "meiner" alten Marke wechseln will, dann mache ich dies ohne irgendwo in einem Forum explizit darauf hinzuweisen wie scheisse man die andere Firma findet und dafür jetzt zur anderen wechselt ätschibätsch. :rolleyes:
Kauf dir das was dir zusagt und fertig und verbreitet keine Unwahrheiten. Demnächst wird man sich wohl anhören müssen, dass sich der Sound bei AMD Karten anders anhört;D
du hast dir auch noch nie rezensionen durchgelesen oder ein test von irgendeiner hardware oder? aber es ist im prinzip das gleiche...
man könnte ja jetzt auch sagen, warum äußerst du dich dazu anstatt einfach nix zu sagen ;D

Gast_samm
2012-07-02, 10:13:06
aufkrawall, du hattest doch Karten beider GPU-Hersteller in direkter Abfolge. Konntest du den vom Threadstarter beschriebenen Effekt auch feststellen?

Coda
2012-07-02, 10:42:37
Eben. Und ich habe auf Screenshots oft genug denselben Unterschied bemerkt, kann aber nicht sagen, ob das für die letzten zwei Generationen noch gilt.
Seit spätestens R600/G80 gibt es da genau null Unterschied.

Die DX-Spec ist seit 10 sehr exakt wenn es um die Rechenergebnisse geht. Die Chips werden nicht umsonst auch für Compute verwendet, da kann nicht mal eben was anderes rauskommen.

01001001
2012-07-02, 11:54:44
Ich war am Anfang ganz unparteiisch,und wollte mir meine eigene Meinung bezüglich der beiden Hersteller bilden.
Meine erste Karte war eine Nvidia GF 7600GS 256MB,und ich hatte nur Spaß mit ihr.

Dann habe ich eines Tages zu einer ATI HD4890 gewechselt,und durfte damit meinen ersten epeleptischen Anfall erleben.
Ich hatte alle Filter im Treiber immer auf Maximum stehen,und manchmal hat es dermaßen krank geflimmert,dass meine Augen anfingen wehzutun und zu tränen.

Irgendwann habe ich dann Crysis installiert,und fing beim spielen an zu Krampfen,bzw. mir wurde schwarz vor Augen,wegen dem Geflimmer.
Der Effekt wurde bestimmt dadurch verstärkt,weil ich an einem 40" HD TV (LED) spiele,nur ca. 2 Meter weit wegsitze,und eine Leuchtstoffröhre hinter meinem Fernseher liegen habe.

Die Leuchstoffröhre hat eine andere Farbtemperatur (Fernseh kalt,Röhre weiß gelb/warm),und warf zusätzlich Reflektionen in den Glasfernsehtisch.

Als dann das kranke Flackern anfing (wo die Sonne am Anfang aufgeht),fing ich an zu Krampfen,weil die Texturen dermaßen am flimmern wahren.
Das hat sich angefühlt,als ob sich was im Kopf verknotet hätte,meine Augen und Muskeln schmerzten wegen den Krämpfen.

Seitdem kaufe ich nur Nvidia,und meine Augen haben sich wieder beruhigt.
Die ATI konnte ich danach nicht mehr nutzen,weil sie bei mir Übelkeit auslöste,und ich öfters weggugken musste,weil ich wieder mit dem Krampfen anfing... o_O

Iruwen
2012-07-02, 12:07:42
Warum hat man als photosensible Person auch eine Leuchtstoffröhre in der Wohnung?

gedi
2012-07-02, 12:11:01
Toll, Diablo 3 ist ein Spiel und ist ja nicht so, dass mit Nvidia da nichts ginge.
Wegen Spec Ops: Das Catalyst-AA sieht bei der UE3 mit HDR (kommt massig bei dem Spiel zum Einsatz) extrem bescheiden aus.
Auf Nvidia geht perfektes MSAA und mit genug Leistung auch SGSSAA.

AMD soll da jetzt das bessere Angebot haben, weil...?



:

... das SGSSAA unter dx10/11 besser ist als bei NV. Bezogen auf die 7970/680 die AMD, wenn es mit der Performance eng wird, mehr Leistung zu bieten hat und die Treiber für mich tatsächlich ebenso (un-)problematisch (!) sind als die des anderen IHV. Und btw.-für den Bullshit was manche Hersteller auf ihren PCBs verlöten und verbauen, kann kein IHV was!

Gast
2012-07-02, 12:18:17
Ich war am Anfang ganz unparteiisch,und wollte mir meine eigene Meinung bezüglich der beiden Hersteller bilden.
Meine erste Karte war eine Nvidia GF 7600GS 256MB,und ich hatte nur Spaß mit ihr.

Dann habe ich eines Tages zu einer ATI HD4890 gewechselt,und durfte damit meinen ersten epeleptischen Anfall erleben.
Ich hatte alle Filter im Treiber immer auf Maximum stehen,und manchmal hat es dermaßen krank geflimmert,dass meine Augen anfingen wehzutun und zu tränen.

Irgendwann habe ich dann Crysis installiert,und fing beim spielen an zu Krampfen,bzw. mir wurde schwarz vor Augen,wegen dem Geflimmer.
Der Effekt wurde bestimmt dadurch verstärkt,weil ich an einem 40" HD TV (LED) spiele,nur ca. 2 Meter weit wegsitze,und eine Leuchtstoffröhre hinter meinem Fernseher liegen habe.

Die Leuchstoffröhre hat eine andere Farbtemperatur (Fernseh kalt,Röhre weiß gelb/warm),und warf zusätzlich Reflektionen in den Glasfernsehtisch.

Als dann das kranke Flackern anfing (wo die Sonne am Anfang aufgeht),fing ich an zu Krampfen,weil die Texturen dermaßen am flimmern wahren.
Das hat sich angefühlt,als ob sich was im Kopf verknotet hätte,meine Augen und Muskeln schmerzten wegen den Krämpfen.

Seitdem kaufe ich nur Nvidia,und meine Augen haben sich wieder beruhigt.
Die ATI konnte ich danach nicht mehr nutzen,weil sie bei mir Übelkeit auslöste,und ich öfters weggugken musste,weil ich wieder mit dem Krampfen anfing... o_O

So oder so... aber gerade die GF7 war für ihr flimmern dermaßen bekannt, das kann irgendwie nicht ganz hinhauen.

01001001
2012-07-02, 12:20:58
So oder so... aber gerade die GF7 war für ihr flimmern dermaßen bekannt, das kann irgendwie nicht ganz hinhauen.

Das war das GS Modell,und es hatte zuwenig Leistung,um die Filter hinzuzuschalten...
Ich war mich grade Übergeben,weil ich dran denken musste. :frown:

01001001
2012-07-02, 12:21:47
Warum hat man als photosensible Person auch eine Leuchtstoffröhre in der Wohnung?

Ich bin eigentlich nicht photsensibel,aber das war zuviel!

aufkrawall
2012-07-02, 12:28:09
aufkrawall, du hattest doch Karten beider GPU-Hersteller in direkter Abfolge. Konntest du den vom Threadstarter beschriebenen Effekt auch feststellen?
Wie gesagt: überhaupt nicht. :)

Ich schlage vor, so lange, dass nicht konkret jemand bewiesen (nachgemessen) hat, dass Farben zwischen beiden irgendwie unterschiedlich wären, dem Thema keine Beachtung mehr zu schenken.
Behaupten lässt sich viel, besonders Schei*e. :tongue:

... das SGSSAA unter dx10/11 besser ist als bei NV.

Nicht mehr lange. ;)


Bezogen auf die 7970/680 die AMD, wenn es mit der Performance eng wird, mehr Leistung zu bieten hat

Bei SGSSAA ist die Radeon nicht schneller, nur bei OG.


Und btw.-für den Bullshit was manche Hersteller auf ihren PCBs verlöten und verbauen, kann kein IHV was!
Wahr, aber es sollte ein vernüftiges Referenzdesign geben, mit dem man Sicherheit haben kann.

EvilTechno
2012-07-02, 12:29:43
Jetzt hat Ati also schon einen versuchten Mord am Hals.
Diesmal hält der Inhalt, was der Titel verspricht.

Achja, ich wechsel regelmässig von grün zu rot und zurück. Anscheinend bin ich zu doof um irgendein K.O. Kriterium zu finden, denn bei mir laufen alle zufriedenstellend. :( Da haben wirs mal wieder....Evil ist zu doof um Probleme mit seinen Grakas zu haben.

(del676)
2012-07-02, 13:21:21
Also ich bearbeite 18MP Raw Fotos auf einem (damals) 1500€ PVA Eizo Schirm und hab vor kurzem von einer GTX480 auf eine 7950 gewechselt. Unterschied 0. Wie solls denn auch? Das wird digital uebertragen, da kann es gar keine Unschaerfe geben. (vorrausgesetzt man verwendet die native Aufloesung :rolleyes: )

gedi
2012-07-02, 14:16:45
Wie gesagt: überhaupt nicht. :)

Ich schlage vor, so lange, dass nicht konkret jemand bewiesen (nachgemessen) hat, dass Farben zwischen beiden irgendwie unterschiedlich wären, dem Thema keine Beachtung mehr zu schenken.
Behaupten lässt sich viel, besonders Schei*e. :tongue:


Nicht mehr lange. ;)


Bei SGSSAA ist die Radeon nicht schneller, nur bei OG.


Wahr, aber es sollte ein vernüftiges Referenzdesign geben, mit dem man Sicherheit haben kann.


Abwarten - und da ich selbst kurz ne 680 besessen habe, weiß ich dass viele Reviews komplett für die Tonne sind.

AYAlf
2012-07-02, 18:00:38
Wenn du es als Feature ansiehst, bei jedem neuen Spiel erst mal auf einen Hotfix zu warten, dann hast du recht.
Ganze 2 Nvidia Karten... wow super schon soooo viele? hatte in meinem Leben so an die 10 und unzählige in PCs verbaut, nie Reklamationen...
Was für Probleme hat denn Nvidia? Ach ja sie bringen einen Midrange chip als Performance Chip weil AMD es nicht gebacken kriegt was anständiges aufn Markt zu bringen oder was?
Klar, dass du so einen Schwachsinn nur als Gast schreiben kannst. Wäre ja sonst auch ziemlich lächerlich. OMG ;D

SamLombardo
2012-07-02, 18:11:27
Der Thread ist geil. Unterhaltung auf höchstem Niveau:D

Sry for Spam:tongue:

Iruwen
2012-07-02, 18:45:12
Niedrigstem meintest du wohl.

Spirou
2012-07-02, 19:18:23
Seit spätestens R600/G80 gibt es da genau null Unterschied.

Gerade G80-Screenshots konnte man eigentlich ganz gut als solche identifizieren. Und das nicht nur an ungerenderten Details. Gegenüberstellungen G80/R600 G92/RV670 sind ja gerade, was ich noch recht gut erinnere. Ich hab bloss seitdem nicht mehr drauf geachtet, weil's mich nicht mehr so interessiert.

Sailor Moon
2012-07-03, 01:14:18
Oder was meinst Du, warum ein professioneller Monitor JEDES MAL nach einem Treiber-Wechsel kalibriert werden muss?
Und komm' mir hier keiner mit: "bähhh, muss doch gar net!"... das ist gängige Praxis bei Color-Prooving-Systemen.
Nein, das ist für Arbeitsplätze im Bereich der grafischen Industrie, unter anderem eben dem Einsatz für Vorstufen-Softproofing, nie ein zwingender Zusammenhang gewesen. Da gibt es auch keine Empfehlungen der fogra oder vergleichbarer Institutionen. Ich selbst kann diesbezüglich auch ganz konkret für Betriebe im hochvolumigen Akzidenzdruck sprechen – wobei hier an den Workstations natürlich nicht alle paar Wochen ein Grafiktreiber gewechselt wird.

Es wäre furchtbar, wenn über den Treiber bzw. im Ergebnis die Grafikkarten-LUT das Ausgangssignal bereits individuell vorverbogen wird (ganz abgesehen von den daraus resultierenden Tonwertverlusten). Da bestünde ja auch immer die latente Gefahr von kaum korrigierbaren Nichtlinearitäten. Tatsächlich lassen sich vernünftige Bildschirme aber, unabhängig von der Signalquelle, grundsätzlich über ein einfaches Matrix- statt LUT-Profil charakterisieren. Einer solchen Vorverarbeitung laufen aber auch schon Werkskalibration für Bildschirm und Panel (das vom Hersteller ebenfalls auf ein gewünschtes Normal korrigiert wird, da die nativen Eigenschaften ziemlich unbrauchbar wären) entgegen. Wunderbar sichtbar wird es z.B. bei den inzwischen häufiger anzutreffenden Farbraumemulationen in Monitor-Hardware (für farbechtes Arbeiten in nicht farbmanagementfähigen Anwendungen), die ein normatives Verhalten, unabhängig von der konkreten Signalquelle, zeigen. NEC implementiert das dabei, ohne Rückkopplung durch farbmetrische Messungen, über das OSD (Beispiel (http://www.prad.de/new/monitore/test/2011/test-nec-pa301w-bk-teil11.html)). Die Ergebnisse sind immer gleich präzise, egal von welcher Quelle zugespielt wird.

Ein anderes Beispiel ist die Selbstkalibrationsfunktion der Eizo CG245W/CG275W (eingebautes Colorimeter). Sie basiert auf den Ergebnissen der Charakterisierung im Rahmen der Profilierung (Patternanzeige über den Rechner) und wird alleine über den Bildschirm als Patterngenerator durchgeführt. Der Rechner kann ausgeschaltet bleiben. Auch hier verschlechtert sich das Ergebnis nach Durchführung natürlich nicht (d.h. die Profilvalidierung über den Rechner liefert wiederum weiter stimmige Ergebnisse) – im Gegenteil: Der Zeitraum zwischen Rekalibration und -profilierung kann deutlich vergrößert werden. Alles andere würde solche Funktionen ja auch konterkarieren.

Gruß

Denis

Gast
2012-07-03, 18:49:35
Klar, dass du so einen Schwachsinn nur als Gast schreiben kannst. Wäre ja sonst auch ziemlich lächerlich. OMG ;D

meine frage hast du trotzdem nicht beantwortet...

c0re
2012-07-03, 19:04:27
War, bin und bleibe ich. Mit Ausnahme der R9800 Pro.
Wenn wieder was derartiges kommt, überlege ich es mir nochmal.

Das fieseste ist das Crossfire System eines Kumpels...neeein, da muss erst der GPU Takt angehoben werden sonst schmiert die Kiste in Games direkt ab.
Jedesmal wenn er zu mir kommt für ne LAN grauts mir schon, was diesesmal wieder streikt. Beispiel: Es ist jedes mal ein Abenteuer seine Kiste über HDMI mit TON an meinen 42" Full HD anzuschließen.
Entweder klappt nix, oder es gibt ein Bild ohne Audio. Manchmal gehts dann doch.

Meine nvidia System(e): HDMI Stecker rein, TV umstellen, zocken.

Gast
2012-07-03, 19:30:18
War, bin und bleibe ich. Mit Ausnahme der R9800 Pro.
Wenn wieder was derartiges kommt, überlege ich es mir nochmal.

Das fieseste ist das Crossfire System eines Kumpels...neeein, da muss erst der GPU Takt angehoben werden sonst schmiert die Kiste in Games direkt ab.
Jedesmal wenn er zu mir kommt für ne LAN grauts mir schon, was diesesmal wieder streikt. Beispiel: Es ist jedes mal ein Abenteuer seine Kiste über HDMI mit TON an meinen 42" Full HD anzuschließen.
Entweder klappt nix, oder es gibt ein Bild ohne Audio. Manchmal gehts dann doch.

Meine nvidia System(e): HDMI Stecker rein, TV umstellen, zocken.

warum muss er dann seinen mit ati gequälten pc an den tv stecken?

siehts da besser aus oder warum :D

Gast
2012-07-03, 19:30:25
Da ich ein Gast bin möchtest du bestimmt nichts von meinem Leidensweg mit Nvidia und deren 500er Serie erfahren?

Kurz umrissen, TDRs, Totale Grafikfehler als wäre die Karte hin die komischerweise nach Windowsneuinstallation weg waren, Probleme in ALLEN Direct X 11 Spielen, häufige Absturze.

Mit Skepsis eine neue AMD rein, seither nie auch nur ein Problem gehabt. Es geht auch anders.

Dicker Igel
2012-07-03, 20:14:05
Ich denke es ist vollkommen sinnlos einen Besten unter den beiden Herstellern herauszufiltern, weil jeder Anwender andere Ansprüche stellt.

aufkrawall
2012-07-03, 20:15:41
Ich denke es ist vollkommen sinnlos einen Besten unter den beiden Herstellern herauszufiltern, weil jeder Anwender andere Ansprüche stellt.
Das hast du aber diplomatisch gesagt. :D

Coda
2012-07-03, 20:35:07
Gerade G80-Screenshots konnte man eigentlich ganz gut als solche identifizieren. Und das nicht nur an ungerenderten Details. Gegenüberstellungen G80/R600 G92/RV670 sind ja gerade, was ich noch recht gut erinnere. Ich hab bloss seitdem nicht mehr drauf geachtet, weil's mich nicht mehr so interessiert.
Soso, zeig mir mal ein Beispiel.

I call utter bullshit.

c0re
2012-07-03, 23:16:32
warum muss er dann seinen mit ati gequälten pc an den tv stecken?

siehts da besser aus oder warum :D

Weil er keinen Bock hat seinen TFT und seine Boxen noch mitzuschleppen.
Über Kopfhörer zocken ist doof, man ist so abgeschottet, dass man den Anderen nicht reden hört und dann doch "voice" anschmeisst...
dann kann man gleich über Internet zocken...

Gast
2012-07-05, 19:07:03
dann kann man gleich über Internet zocken...
ja aber der ping :D


ich hatte noch keine probleme mit ati und tvs (nv ebenso...)
anderen tv kaufen ;)

nvidia==wrongway
2012-07-06, 14:53:27
Die Meisten Fehler hatte ich bisher mit nVidia Karten. Das Einzige was immer streikt und total anfällig für andere Hardware im PC ist, ist eine nVidia Graka! Das Konzept des Treibers und die möglichkeiten der Einstellungen einer nVidia ist so dämlich und unprofessionell gestaltet, dass es einem die Schuhe auszieht.
Nur mit externen Tools lässt sie sich überhaupt zu einigen Dingen überreden ohne abzuschmieren.

Flash Bug, Standby Bug bei mehr als 1em Monitor, Abstürze von Programmen, mit ein Bildschirm zeigt eine Bild an beim Booten etc. So etwas hatte ich bisher nur mit nVidia Karten. Keine Einzige ATI hatte bis dato in der Hinsicht Probleme gemacht.

Ausserdem ist die Preis/Leistung mehr als eine Frechheit!

Egal, manhe glauben halt wenn etwas grün ist, muss es gut sein.

aufkrawall
2012-07-06, 15:39:50
Meine persönliche Meinung: Hier wird nix mehr rumkommen, außer Getrolle und Eskalation.

Kann lustig werden. :popcorn:

no6ody
2012-07-07, 00:26:11
Ja, das gleiche Problem wie der OP habe ich auch.

Gott sei dank hat es nach all den Jahren ENDLICH jemand gemerkt.

Um es zu beweisen habe ich natürlich hier ein Screenshot...



http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=43281&stc=1&d=1341613499



:freak:

aufkrawall
2012-07-07, 00:50:29
Beim unteren Bild sieht man mal wieder, dass das AA bei AMD nichts taugt. :tongue:

Iruwen
2012-07-07, 13:15:54
Mach mal Digital Vibrance aus, Noob!

:rolleyes: