PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse GeForce RTX 4060 Ti & Radeon RX 7600


Leonidas
2023-05-29, 19:46:18
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-geforce-rtx-4060-ti-radeon-rx-7600

Update 30. Mai ca. 10 Uhr:
letzte Tabelle auf Seite 2 zur Auflösungs-Skalierung hinzugefügt


Link zur Ersteindrucks-Umfrage zur GeForce RTX 4060 Ti 8GB:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4060-ti-8gb

Link zur entsprechenden Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4060-ti-8gb


Link zur Ersteindrucks-Umfrage zur Radeon RX 7600:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7600

Link zur entsprechenden Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7600

PuppetMaster
2023-05-29, 20:03:48
Auf Seite 3 in der untersten Tabelle ist bei der Energieeffizienz (FHD) was verrutscht. Die 4070 sollte 101 % haben statt 100 % und die A770LE nur 50 % statt 100 % (jeweils gemäß der zweiten Tabelle).

Platos
2023-05-29, 20:15:51
Ja... wie erwartet schneiden sowohl die 4060ti als auch die 7600 extrem schlecht ab im P/L bzw. L/P.

Beide sind einfach miserabel und lohnt sich somit auch kaum zu sagen, welche der beiden nun "besser" ist. Scheisse sind sie beide.

Raff
2023-05-29, 20:19:16
"Extrem schlecht" ist das PLV nach Zahlen nicht (https://www.pcgameshardware.de/Radeon-RX-7600-Grafikkarte-279650/Tests/Release-preis-Benchmark-Specs-Review-1419906/5/) – nur eben weit entfernt vom geilen PLV früherer Mittelklasse-Karten.

MfG
Raff

blackbox
2023-05-29, 20:26:07
Es gibt schon Stimmen, die sagen, beide sind keine Mainstreamkarten mehr, sondern Einsteigerkarten. Dabei ist die 4060 ohne ti noch gar nicht raus. Denn die wird sicher nochmals 10-20% langsamer sein als die 4060ti.
Damit ist der Unterschied zu den Top-Chips wie 4080 einfach viel zu groß. Das gab es so früher nicht. Aber da hießen die Einsteigerchips auch noch xx50.

GerryB
2023-05-29, 20:30:09
Mal abwarten, ... im MS ist die 7600@269€.
Wenn mehr Modelle so günstig werden, dann ist das PLV schon OK.

und
Mit steigender Zahl neuerer Games wo die RDNA3 -Architektur besser passt, fällt sozusagen RDNA2 zurück.
EldenRing ist besonders krass:

Raff
2023-05-29, 20:33:02
Mal abwarten, ... im MS ist die 7600@269€.
Wenn mehr Modelle so günstig werden, dann ist das PLV schon OK.

und
Mit steigender Zahl neuerer Games wo die RDNA3 -Architektur besser passt, fällt sozusagen RDNA2 zurück.

Das ist wieder so 'ne Wette. Wie oft helfen künftig die RDNA-3-Errungenschaften vs. wie oft bremsen die 8 GiB und 8 Lanes? Ich würde weiterhin jedem zu einer RX 6700 XT raten. Wenn's möglichst günstig sein soll, dann eine RX 6700 (10 GiB, 16 Lanes).

MfG
Raff

GerryB
2023-05-29, 20:35:14
Anscheinend funzt die 7600 auch mit PCiE 3.0 x8 ganz gut.

https://www.youtube.com/watch?v=eL0xay_LTRY
(sind vllt. net die härtesten Games, aber dafür auch mal WQHD statt FHD, ... die 7600= ist nur als FHD-Graka beworben!)

Exxtreme
2023-05-29, 20:35:52
Japp, RX 6700XT ist die bessere RX 7600 und die RX 6800 ist die bessere RTX 4600Ti, wenn man vom Stromverbrauch absieht.

GerryB
2023-05-29, 20:41:39
364€ vs. 269€ = aktuell bei MF die 6700xt vs. die 7600 im MS
kann man net vgl.

Da würde ich sofort wg. dem PLV ne Krise bekommen.(die 6700xt ist einfach net gut, wäre mir persönlich auch zu laut)

Architekturbedingt mal COD = Advantage RDNA3 vs BF5 = Advantage= RDNA2
(selbst in BF5 ist die 6700xt net 1/3 besser als die 7600, ... PLV !!!)

Platos
2023-05-29, 21:18:20
"Extrem schlecht" ist das PLV nach Zahlen nicht (https://www.pcgameshardware.de/Radeon-RX-7600-Grafikkarte-279650/Tests/Release-preis-Benchmark-Specs-Review-1419906/5/) – nur eben weit entfernt vom geilen PLV früherer Mittelklasse-Karten.

MfG
Raff

Natürlich ist es das, wenn man bedenkt, dass es sich hier um eine neue Generation handelt. Verlinken musst du nichts. Leonidas' Launchanalyse ist im 1. Post verlinkt ;)

GerryB
2023-05-29, 21:24:20
Mit nem Faktor für die Inflation+Wechselkurs sähe Das übrigens noch ganz Anders aus.
Früher wars nähmlich nur Dank des stabilen Euro erträglich.

Das die Inflation relativ wenig bei den Grakas ankommt ist sogar "derzeit" noch ein Glücksfall.
... kann jederzeit schlechter werden

Raff
2023-05-29, 22:57:31
Japp, RX 6700XT ist die bessere RX 7600 und die RX 6800 ist die bessere RTX 4600Ti, wenn man vom Stromverbrauch absieht.

Wenn du es so siehst, schmeiße ich mal noch eine gut abgehangene RTX 2080 Ti in den Raum, die es um 400 Euro gebraucht gibt. 11 GiB, im Mittel schneller als die RTX 4060 Ti, allerdings fast doppelter Stromverbrauch. Wer explizit 'ne Geforce sucht, fährt damit besser (lies: weniger holprig) als mit einer RTX 3070 oder RTX 4060 Ti. Das das sagt schon viel über das neue Produkt aus ...

MfG
Raff

Exxtreme
2023-05-29, 23:00:28
Mit nem Faktor für die Inflation+Wechselkurs sähe Das übrigens noch ganz Anders aus.
Früher wars nähmlich nur Dank des stabilen Euro erträglich.

Das die Inflation relativ wenig bei den Grakas ankommt ist sogar "derzeit" noch ein Glücksfall.
... kann jederzeit schlechter werden

"Inflation bei Grakas" ist schon deshalb falsch weil alle anderen PC-Komponenten deflationieren. MoBos werden billiger, RAM ist spottbillig, SSDs sind so billig, dass einige Hersteller in die Verlustzone rutschen etc. Aber ausschließlich GraKas werden teurer. Obwohl es keinerlei Gründe dafür gibt. Für mich riecht das sogar nach Preisabsprachen.

Wenn du es so siehst, schmeiße ich mal noch eine gut abgehangene RTX 2080 Ti in den Raum, die es um 400 Euro gebraucht gibt. 11 GiB, im Mittel schneller als die RTX 4060 Ti, allerdings fast doppelter Stromverbrauch. Wer explizit 'ne Geforce sucht, fährt damit besser (lies: weniger holprig) als mit einer RTX 3070 oder RTX 4060 Ti. Das das sagt schon viel über das neue Produkt aus ...

MfG
Raff

So altes gebrauchtes Zeug würde ich eher nicht mehr kaufen. Die Wahrscheinlichkeit, dass diese 2080Ti 24/7 für Mining genutzt wurde ist nicht gerade sehr klein.

Vita Brevis ars Longa
2023-05-30, 00:34:11
Roman hat noch einmal einen Nachtest der RTX 4060ti unter PCIe 3.0 gemacht, und die RTX 3060ti ist seiner Meinung nach die deutlich bessere Wahl.

https://youtu.be/fG1LggBkyqo

Wenn der Vorgänger die bessere Wahl ist, läuft hier richtig was schief.....

Und ausgerechnet dieses Preissegment ist laut Steam sehr wichtig, wird von Nvidia aber nicht so behandelt....

Leonidas
2023-05-30, 05:07:09
Auf Seite 3 in der untersten Tabelle ist bei der Energieeffizienz (FHD) was verrutscht. Die 4070 sollte 101 % haben statt 100 % und die A770LE nur 50 % statt 100 % (jeweils gemäß der zweiten Tabelle).

In der Tat, falsch übertragen. Ist nun gefixt.

Kleebl00d
2023-05-30, 08:47:52
Hab ich es überlesen oder findet sich im gesamten Artikel kein Wert für die 3DC-FHD bzw. 4K-Performance? Immer nur normiert für den unmittelbaren Vergleich.
Vielleicht bin ich aber auch noch zu müde...

Leonidas
2023-05-30, 09:39:29
Nein, habe ich bewußt rausgenommen - und dies im Text erwähnt:

Fehlend mit dieser Launch-Analyse ist (vorerst) zudem eine Einordung der beiden neuen Grafikkarten im 3DCenter Performance-Index. Der Grund liegt in einem augenscheinlich deutlich veränderten Performance-Bild auch der mittleren Ampere-Beschleuniger speziell unter der FullHD-Auflösung (die 4K-Performancewerte erscheinen hingegen weiterhin als passend).

Denkbar wäre, dass dies mit den beachtbaren Performance-Verbesserungen zugunsten der Ampere-Generation vom letzten Herbst zusammenhängt, welche u.a. auch die CPU-Lastigkeit der nVidia-Treiber reduziert haben. Bei den größeren Ampere-Karten wurde diese Effekt schon über die vorangegangenen Launches beobachtet, bei den mittleren Ampere-Karten konnte dies mangels neuerer Benchmarks bislang noch nicht getan werden – und wird noch nachgeholt werden.

Kleebl00d
2023-05-30, 10:36:25
Ok, danke. Hab ich wohl tatsächlich überlesen...

Gast
2023-05-30, 16:15:57
So altes gebrauchtes Zeug würde ich eher nicht mehr kaufen. Die Wahrscheinlichkeit, dass diese 2080Ti 24/7 für Mining genutzt wurde ist nicht gerade sehr klein.

So sieht es aus, zumal die Karten auch aus der Garantie raus sind. Ausserdem haben die kein HDMI 2.1. Die Energieeffizienz ist auch nicht toll. In Anbetracht dessen, ist so eine Karte nicht mehr als 150€ Wert, die Preise liegen höher, da viele Käufer die Nachteile nicht bedenken und nur auf die rohe Performance schauen.

Ohne Restgarantie ist auf dem Gebrauchtmarkt eine Graka für mich persönlich allgemein fast unverkäuflich.

Da könnte man doch einen interessanten Artikel dazu schreiben, oder nicht? Sowas findet man nicht.

Leonidas
2023-05-30, 19:21:50
Da könnte man doch einen interessanten Artikel dazu schreiben, oder nicht.

Zu was genau?

Gast
2023-05-30, 19:48:47
Zu was genau?

Eine Hilfestellung, worauf man beim Gebrauchtkauf achten sollte. Da gibt es recht viele Fallstricke, wenn man sich mal damit befasst.

OpenVMSwartoll
2023-05-30, 20:13:27
Eine Hilfestellung, worauf man beim Gebrauchtkauf achten sollte. Da gibt es recht viele Fallstricke, wenn man sich mal damit befasst.

Das ist alles sehr subjektiv, somit schwerlich zu verallgemeinern.

Für den einen ist eine Karte ohne Restgarantie nicht interessant, nur hat lediglich der ursprüngliche Käufer Anspruch auf diese. Man kann sich eine Abtretungserklärung geben lassen und hoffen, dass sie anerkannt wird. Doch wer tut das?

Dann Mininghuren (sorry, so nenne ich solchen Karten): Der eine sagt, die seien im effizientesten Bereich betrieben worden. Ich sage eher, dass sie totgeritten sein dürften und manche Zockerkarte besser gewertschätzt und damit behandelt wurde. Man denke nur an den kürzlichen Youtuber-Skandal der sterbenden Radeons, wo jemand direkt streute, dies liege am Treiber.

Stattdessen wurden sie lieblos gelagert.

Kürzlich sah ich eine RX 5700 XT für kleines Geld auf Ebay. Der Verkäufer schrieb, es fehle nur die Slotblende (seltsam, oder? Kann man ja mit nem Kaugummi festkleben), bei genauerer Betrachtung sah man auf den Photos Brandspuren. Wurde für knapp 120,- von jemandem gekauft.

Also hat jeder andere Vorstellungen.

Gast
2023-05-30, 21:34:01
Das ist alles sehr subjektiv, somit schwerlich zu verallgemeinern.

Für den einen ist eine Karte ohne Restgarantie nicht interessant, nur hat lediglich der ursprüngliche Käufer Anspruch auf diese. Man kann sich eine Abtretungserklärung geben lassen und hoffen, dass sie anerkannt wird. Doch wer tut das?

Dann Mininghuren (sorry, so nenne ich solchen Karten): Der eine sagt, die seien im effizientesten Bereich betrieben worden. Ich sage eher, dass sie totgeritten sein dürften und manche Zockerkarte besser gewertschätzt und damit behandelt wurde. Man denke nur an den kürzlichen Youtuber-Skandal der sterbenden Radeons, wo jemand direkt streute, dies liege am Treiber.

Stattdessen wurden sie lieblos gelagert.

Kürzlich sah ich eine RX 5700 XT für kleines Geld auf Ebay. Der Verkäufer schrieb, es fehle nur die Slotblende (seltsam, oder? Kann man ja mit nem Kaugummi festkleben), bei genauerer Betrachtung sah man auf den Photos Brandspuren. Wurde für knapp 120,- von jemandem gekauft.

Also hat jeder andere Vorstellungen.

Trotzdem kann man sowas auch benennen und mit Fakten untermauern/Hintergrundwissen, worauf man achten sollte. Ist beim gebrauchten PKW Kauf auch dasselbe und da gibt es auch Guides.

Auch eine Bewertung einer neuen GPU ist ein Stück weit subjektiv. Der eine findet DLSS3 super und ein Mehrwert, der andere nicht. Der eine meint 12GB einer RTX 4070 sind schon zu wenig, dem anderen reicht es locker.

Platos
2023-05-30, 22:55:55
Sehe ich auch so. Es gibt natürlich die "ohne Garantie kaufe ich nix" Fraktion, aber das sind offensichtlicherweise (anhand der verkauften Angebote) die wenigsten. Und bisher habe ich auch noch nicht von einem Massensterben gehört...

Ich kaufte bisher jede GPU seit 2015 gebraucht und hatte nie Probleme damit. Für keine davon habe ich noch Garantie gekriegt. Die eine (GTX 1070Ti) kam sogar aus China (wird also sicherlich ne Miningkarte gewesen sein). So what? Läuft heute noch wunderbar und hatte nie Probleme damit. Habe sie sogar übertaktet und untervoltet. Habs also noch herausgefordert quasi. Und trotzdem läufts 1A.

Natürlich kauft man nix, wo schon einzelne Bauteile kaputt sind, wenn man nicht gewillt ist, da rumzulöten oder Pech zu haben.

Kickstart
2023-05-30, 23:48:31
Was für ein kolossaler Launch! AMD hat es geschafft ihr Angebot an 8GB Karten im 200 - 300€ Bereich noch granular zu gestalten und nVidia hat es geschafft eine weitere Karte für Fans von nVidia herauszubringen! Woho!! >hier Party Emoji hindenken<

Jetzt mal ehrlich: Was bitteschön war das denn? Mehr als ein Bauchklatscher schonmal nicht. Und wenn das, was so über die nächsten Launches gerüchtet wird, sich bewahrheiten sollte, wirds nicht besser.

nVidia & AMD können natürlich gerne so weitermachen wie gehabt und versuchen ihre Kunden maximal zu melken bzw. abzuspeisen. Aber die echte Konkurrenz sind ja nicht die Karten der jeweils anderen Hersteller, sondern komplette Spielecomputer, welche für wesentlich weniger Geld wesentlich mehr Leistung bieten. Und wenn die GraKa-Hersteller so weitermachen, werden sogar Handheld-Gaming-PCs immer mehr an Attraktivität gewinnen.
Ich kann es bei dieser Marktlage auf jeden Fall niemanden verübeln, wenn er auf eine Konsole umsteigt.

Platos
2023-05-31, 00:31:36
Was meinst du mit "komplette Spielecomputer" ?

Fertig-PCs sind doch nicht billiger?

OpenVMSwartoll
2023-05-31, 02:02:57
Aber fällt Euch auf, wie gering das Feedback zu Leos Doppelanalyse ist?

Erst mal danke für die investierte Mühe. Wie immer gute Arbeit.

Aber diese beiden Karten wecken nicht übertrieben viel Interesse.

Leonidas
2023-05-31, 05:44:33
Aber fällt Euch auf, wie gering das Feedback zu Leos Doppelanalyse ist?

Vergleichsweise normal bei Mainstream-Karten. Das war schon immer so - obwohl die Karten eigentlich mehr Käufer haben sollten (am Ende des Verkaufszeitraums).

Exxtreme
2023-05-31, 08:22:25
Aber fällt Euch auf, wie gering das Feedback zu Leos Doppelanalyse ist?

Erst mal danke für die investierte Mühe. Wie immer gute Arbeit.

Aber diese beiden Karten wecken nicht übertrieben viel Interesse.

Diese Karten wurden schon in anderen Threads analysiert. Und diese Karten sind so derbe langweilig und überflüssig, dass man sich eine große Analyse sparen kann.

Redirion
2023-05-31, 08:40:33
starkes Statement übrigens zu dem "Killer-Feature" DLSS3 Framegeneration von der 4060 Ti:

https://www.youtube.com/watch?v=WLk8xzePDg8&t=1962s
32:42 bis 33:58

Leonidas
2023-05-31, 10:21:17
YouTube ist so scheiss unbenutzbar geworden ... 30x F5, nur um einmal beim Video und nicht einer Werbung zu landen.

Gast
2023-05-31, 17:33:17
mobile chip im desktop bereich verwurstet, weils bei laptops eine massive absatzflaute gibt. keine ahnung was man mit dem ding als dektop dgpu soll. gibt zig preiswertere varianten die gleichen leisten. wer sich diesen dlss müll unter 1080p antut ist selbst schuld.

Platos
2023-05-31, 21:11:02
Natürlich negativer Eindruck. Wegen Preis, aber natürlich auch wegen dem Speicher.

YouTube ist so scheiss unbenutzbar geworden ... 30x F5, nur um einmal beim Video und nicht einer Werbung zu landen.

Nutzt du keinen Adblocker?

Prinzenrolle
2023-05-31, 22:04:03
364€ vs. 269€ = aktuell bei MF die 6700xt vs. die 7600 im MS
kann man net vgl.

Finde deine forenübergreifende Werbung unter versch. Pseudonymen für diese schwache AMD Grafikkarte etwas irritierend. Während du PCIe 3.0 bei AMD nicht als Problem siehst, bauschst du es bei Nvidia auf.

Aroas
2023-05-31, 22:51:35
Ich hätte bei der Umfrage ja am liebsten alle drei negativen Punkte angekreuzt.
Die 4060Ti ist einfach in allen Belangen schlecht. Abgesehen von ihrer Effizienz.

Vita Brevis ars Longa
2023-05-31, 23:17:30
Nicht nur, dass die RTX 4060ti beim Preis in Europa, bei der Leistung, und im direkten Vergleich zur 3060ti versagt, sondern einfach keine Empfehlung mehr ist, und die 3060ti, bis auf die Effizienz die bessere Wahl ist....

Mehr Leistung kostet mehr Geld.
Das höre ich seit so langer Zeit von AMD und Nvidia, seit so langer Zeit.....
Und seit 6 Jahren habe ich keinen PC mehr, und meine letzte High End GPU war eine GTX 580, gebraucht über eBay für 250€, eine Sparkle mit Arktic Cooler Lüftung.....

Jetzt habe ich nur noch eine PS5 und seit Release eine Nintendo Switch.
Tausende von Euro sind seitdem in Sony und Nintendo geflossen, für Hardware und für Software, nicht direkt in AMD oder Nvidia, auch nicht direkt in Hardware, sondern in Software.....

Aktuell spare ich für das neue Zelda, und brauche mit meiner geringen Kaufkraft als Behinderter auf Hartz IV Niveau, mit 50 GdB, als Autist, mindestens 2 Monate dafür.

Früher habe ich High End gebraucht gekauft, wie die GTX 580, und heute nur noch Konsolenkram, nicht weil ich will, sondern muss....

GerryB
2023-05-31, 23:23:04
Finde deine forenübergreifende Werbung unter versch. Pseudonymen für diese schwache AMD Grafikkarte etwas irritierend. Während du PCIe 3.0 bei AMD nicht als Problem siehst, bauschst du es bei Nvidia auf.
Dann schau mal in die News zur 4060 nonTi.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13318128#post13318128
die Posts ff.

Dort meint man, das die nonTi besser zurecht kommen wird als die Ti.
(dito die kleine 7600)

Das Problem der Bandbreite = GB/s beim streamen eines neuen Areas
erhöht sich halt nach m.E. mit den Fps, die von größeren Chips gehalten werden sollen.
(Das wurde im CB-thread ausführlichst durchgekaut, forenübergreifend)

wg. () werde ich HIER net nochmal ausführlich darauf eingehen
https://www.computerbase.de/forum/threads/amd-radeon-rx-7600-im-test-die-299-euro-grafikkarte-tritt-mit-navi-33-auf-der-stelle.2145240/page-21#post-28240413

Exxtreme
2023-05-31, 23:27:24
Finde deine forenübergreifende Werbung unter versch. Pseudonymen für diese schwache AMD Grafikkarte etwas irritierend. Während du PCIe 3.0 bei AMD nicht als Problem siehst, bauschst du es bei Nvidia auf.

Je langsamer eine Grafikkarte ist desto weniger schlägt diese Problematik durch. Das liegt in der Natur der Sache.

Leonidas
2023-06-01, 05:28:03
mobile chip im desktop bereich verwurstet,

Nein. Es gibt keine Mobile-Chips - und keine Desktop-Chips. Es ist immer derselbe Chip, welcher von Anfang an für beide Segmente gedacht war. Niemand kreiert etwas Chips für beide Segmente, das kommt immer vom selben Chip.



Nutzt du keinen Adblocker?

Ich benutze generell keine Extensions, die erscheinen mir unsicher. Wer weiss ich was da für eine Firma / Truppe dahintersteckt. Allerdings muß ich dies vielleicht überdenken.

Aroas
2023-06-01, 08:56:55
Ich benutze generell keine Extensions, die erscheinen mir unsicher. Wer weiss ich was da für eine Firma / Truppe dahintersteckt. Allerdings muß ich dies vielleicht überdenken.

Ah ja... lieber lässt man sich abertausende Werbeanzeigen reindrücken, die einen auch noch zu jeder Zeit tracken und sonstwas für Informationen absaugen, statt einen einfachen Werbeblocker zu nutzen, weil diese Extension ja irgendwie "böse" sein könnte.

Komische Logik.

Damit will ich nicht sagen, dass nicht tatsächlich die Gefahr besteht, dass solche Extensions ebenfalls Schindluder treiben. Aber uBlock Origin bspw. ist so bekannt und so weit verbreitet, dass es mittlerweile wohl jemandem aufgefallen wäre, wenn da irgendwelche Kriminellen dahinterstecken würden.
Bei AdBlock Plus bspw. weiß man ja auch um die Entwickler und ihr Geschäftsgebaren. Deshalb nutzt diese Extension niemand mehr, der sich informiert.

Gast
2023-06-01, 09:22:00
Nein. Es gibt keine Mobile-Chips - und keine Desktop-Chips. Es ist immer derselbe Chip, welcher von Anfang an für beide Segmente gedacht war. Niemand kreiert etwas Chips für beide Segmente, das kommt immer vom selben Chip.

das weiss ich auch, das ding ist daher so sparsam weil es explizit für notebooks gedacht war und nun als 4060ti vermarktet wird. amd ist so schlecht das man es sich leisten kann. förmlich leidet die leistung aufgrund der effizienz, die man sich hier bezahlen lässt weil selektiert.

was willst du mit dieser gurke, die ist auf pcie3 genauso schnell wie eine 3060ti, weil. man massiv am interface gespart hat. Im laptop ist das egal, weil im mxm fest an 8 lanes angebunden, verscheutert man das ding als 4070ti.

das ist nicht mehr als eine 4050...weils aber kaum konkurrenz gibt, verscheuert nvidia die highendchips an ki anbieter und nimmt diese dinger und verwurstet sie mit fg als super duper mainstream dgpus.

sry ti stand mal für was anderes.

Leonidas
2023-06-01, 10:22:57
das ding ist daher so sparsam weil es explizit für notebooks gedacht war und nun als 4060ti vermarktet wird

Das stimmt eben nicht. Der AD106-Chip ist und war für beide Anwendungs-Zwecke gedacht. Es ist kein expliziter Mobile-Chip, der auch für den Desktop verwendet wird. Man sollte sich da nicht davon verwirren lassen, welche Produkte zuerst kommen und auf welche Produkte NV hier mehr Wert legt. Konzeptionell ist der Chip nicht auf ein bestimmtes Segment ausgerichtet. Performance und niedrigerer Stromverbrauch resultieren aus der mageren Hardware, nicht aus einer (nicht vorhandenen) Mobile-Ausrichtung.




Ah ja... lieber lässt man sich abertausende Werbeanzeigen reindrücken, die einen auch noch zu jeder Zeit tracken und sonstwas für Informationen absaugen, statt einen einfachen Werbeblocker zu nutzen, weil diese Extension ja irgendwie "böse" sein könnte.

Vielleicht war ich da auch einfach zu skeptisch bisher - aber ich hab ja gesagt, dass ich dies überdenken will. Welcher reine YouTube-Blocker wäre denn empfehlenswert?

bad_sign
2023-06-01, 10:24:57
Am Ende ist alles eine Preisfrage.
4060TI für 10€ ist auch mit 8GB Geil, 450€ ist eine Verarschung
Schlecht weil:
Preis
kein Fortschritt
RAM Menge zu gering
Bandbreite+Cache eignen sich nur dür FHD und nicht mehr

Exxtreme
2023-06-01, 10:31:52
Vielleicht war ich da auch einfach zu skeptisch bisher - aber ich hab ja gesagt, dass ich dies überdenken will. Welcher reine YouTube-Blocker wäre denn empfehlenswert?

Nimm µBlock. Das blockt alles. :)

Loeschzwerg
2023-06-01, 10:42:38
Jup, uBlock funktioniert super out-of-box, bietet aber auch genügend Möglichkeiten für manuelle Konfiguration.

Gast
2023-06-01, 10:51:42
leo, sry das stimmt nicht, gn21-x6 (4070m) ist mobile und nv labelt die dinger einfach um. natürlich gibt explizit gefertigte chips für mobile. ob sie dabei auf dem ad106 oder ad107 basieren hat damit nichts zu tun. dort findet keine ad 106 selektion statt.

Leonidas
2023-06-01, 11:20:44
Ich stimme nicht zu. GN21-X6 ist schon eine Produktbezeichnung im Mobile-Segment, nicht der Chip selber. Der Chip ist AD106. Alles, was danach kommt (selbst Chip-Unterversionen wie AD106-350) sind dann schon dem Produkt-Bereich zuzuordnen.

Und nein, die werden nicht explizit für Mobile gefertigt. Natürlich weiss NV, dass sie von AD106 mehr im Mobile absetzen als im Desktop (gerade wenn die 4060Ti derart mies ist). Aber das bedeutet nicht, dass der AD106-Chip rein für Mobile konzipiert ist und Desktop dann irgendwie mitbedienen muß. Es ist von Anfang an für beide Segment konzipiert. Gerade in der Phase der Chip-Konzeption (vor 2 Jahren) kann man schließlich konkrete Produkte zwar erahnen, aber festlegen noch lange nicht - das geht erst nach Marktanforderungen in der Nähe des Marktstarts.

Kickstart
2023-06-01, 13:56:03
Ich benutze generell keine Extensions, die erscheinen mir unsicher. Wer weiss ich was da für eine Firma / Truppe dahintersteckt. Allerdings muß ich dies vielleicht überdenken.

https://www.youtube.com/watch?v=zJUmjtjCtY8

Kickstart
2023-06-01, 13:59:56
Eine Hilfestellung, worauf man beim Gebrauchtkauf achten sollte. Da gibt es recht viele Fallstricke, wenn man sich mal damit befasst.
https://www.youtube.com/watch?v=hKqVvXTanzI
https://www.youtube.com/watch?v=UFytB3bb1P8

Platos
2023-06-01, 15:34:37
Ich würde dann auch uBlock Origin empfehlen (Raymong Hill).

Du kannst auch mit einem Klick (oder Zwei glaube ich) das Blockieren auf jeder Webseite manuell deaktivieren.

Ansonsten Youtube-Only kenne ich nur den Youtube-Enhancer (das Ding mit dem Zauberstab-Logo). Den nutze ich selber, aber nicht zum Blocken, denn das ist primär nicht nur ein Addblocker (kann somit nichts übre die Blocking-Funktion an sich sagen). Du kannst da aber sogar einstellen, dass abbonierte Kanäle nicht geblockt werden sollen.

Da kannst du aber andere grossartige Dinge einstellen, wie Kino-Modus (auto), On-Screen Video beim Kommentare lesen. Grösse dieses On-Screen Diplsay.

Und noch vieles anderes wie Standartauflösung und gaanz vieles anderes.

Legendenkiller
2023-06-02, 09:11:53
Man könnte sich auch YT premium kaufen. Da haste auch keine Werbung mehr.


zumal YT anfängt , bei Addblockern keine Viedos mehr anzuzeigen. Läuft gerade ein Test mit einer, wie auch immer ausgewählten, Testgruppe.


PS: aber jup, nutze auch uBlock Orgin und schalte auf bestimmten Kanälen geziehlt ab.
Auch logich, man muss der Firma des Addblockers vertrauen, da der Addblocker selber prinzipiell auch das komplette Suftverhalten aller besuchten Stellen sieht.

Kickstart
2023-06-02, 11:38:14
Also wenn man jetzt für jede Website, auf der man so herumklickt, ein Abo / eine Premiummitgliedschaft abschließen soll, nur um sich vor Werbung (und somit vor potenziellen Ransomware-Befall) schützen zu können, wird man ganz schnell deutlich ärmer.

Und gegen das Blockieren von Ad-Blockern auf YT wird es ganz sicher Gegenmaßnahmen geben.

Gast
2023-06-02, 11:44:49
...zumal YT anfängt , bei Addblockern keine Viedos mehr anzuzeigen. Läuft gerade ein Test mit einer, wie auch immer ausgewählten, Testgruppe.
....oder das Bild flackert oder stuttert wie irre.

Legendenkiller
2023-06-02, 13:54:48
Also wenn man jetzt für jede Website, auf der man so herumklickt, ein Abo / eine Premiummitgliedschaft abschließen soll, nur um sich vor Werbung (und somit vor potenziellen Ransomware-Befall) schützen zu können, wird man ganz schnell deutlich ärmer.

Und gegen das Blockieren von Ad-Blockern auf YT wird es ganz sicher Gegenmaßnahmen geben.


Naja ist doch bei Netflix, Disney+, Amazon Premiere und wiesie alle heißen genauso. Da musste zahlen um keine Werbung zu haben, für jeden einzeln egal wie viel du sie nutzt.

Ich nutz praktische nur YT, und wenn ich für sowas zahlen würde denn nur für YT. Ehrlich gesagt sind ist die Werbung ja die Bezahlung für eine Dienstleistung.
Addblocker sind eigentlich das erschleichen einer Leitung ohne bezahlen zu wollen. Aber wiegesagt , mach es ja auch, weil geht und YT ohne ungeniesbar ist.

Die faire Alternative wäre, Werbung zu schaun, zu bezahlen oder ganz trauf zu verzichten.

Kickstart
2023-06-02, 16:13:54
Dass nun jeder meint, seinen eigenen Streaming-Service betreiben zu müssen, sorgt dafür, dass die Akzeptanz sinkt und die Piraterie steigt. #1

Bevor Werbung und Tracking sich als die dominante Finanzierungsmethode im Web durchsetzte, gab es durchaus andere Ansätze. Wie zB Micropayment. Ich hab da allerdings gerade keinen Link parat.

btw: Was hat das eigentlich noch mit dem Thema des Threads zu tun?

#1 https://www.deutschlandfunkkultur.de/ueberangebot-der-streaming-dienste-die-online-piraterie-100.html

Platos
2023-06-02, 16:53:37
Man könnte sich auch YT premium kaufen. Da haste auch keine Werbung mehr.


zumal YT anfängt , bei Addblockern keine Viedos mehr anzuzeigen. Läuft gerade ein Test mit einer, wie auch immer ausgewählten, Testgruppe.


PS: aber jup, nutze auch uBlock Orgin und schalte auf bestimmten Kanälen geziehlt ab.
Auch logich, man muss der Firma des Addblockers vertrauen, da der Addblocker selber prinzipiell auch das komplette Suftverhalten aller besuchten Stellen sieht.

Da wird es mit Sicherheit Gegenmassnahmen geben. Und wenn nicht, dann werde ich definitiv sehr, sehr viel weniger Youtube konsumieren.

Und als ob ich jetzt für jede Webseite ein Premiumabo abschliesse, um Werbung zu verhindern :D

Abo hier, Abo da, Abo dort. Die Leute wollen das nicht und zu Recht, finde ich.

Abgesehen davon zahle ich ja schon dafür und zwar beim Staat. Ungefragt, egal ob ich es nutze oder nicht.

Also wenn man jetzt für jede Website, auf der man so herumklickt, ein Abo / eine Premiummitgliedschaft abschließen soll, nur um sich vor Werbung (und somit vor potenziellen Ransomware-Befall) schützen zu können, wird man ganz schnell deutlich ärmer.

Und gegen das Blockieren von Ad-Blockern auf YT wird es ganz sicher Gegenmaßnahmen geben.

Genau, das ist einfach lächerlich. Ich frage mich das auch immer, wenn ich solche Dinge wie PCGH Plus sehe. Oder Online-Zeitungen (also die klassischen). Da frage ich mich, was die sich dabei denken :D Also ob ich jetzt bei denen Geld zahle. Ne, ich geh einfach auf die nächste Seite.

Die Seiten sind im Endeffekt selber schuld. 90% der Artikel sind meist nutzloser Mist (auf vielen Webseiten), für die Redakteure bezahlt werden müssen, was wiederum die Kosten steigen lässt und somit die Werbe-rumflackerei. Würde der Content nicht massiv gestört werden, wäre mir "normale" Werbung auch egal. Werbung, die nicht ständig rumblinkt oder am besten noch Pop-Ups :D

Naja ist doch bei Netflix, Disney+, Amazon Premiere und wiesie alle heißen genauso. Da musste zahlen um keine Werbung zu haben, für jeden einzeln egal wie viel du sie nutzt.

Ich nutz praktische nur YT, und wenn ich für sowas zahlen würde denn nur für YT. Ehrlich gesagt sind ist die Werbung ja die Bezahlung für eine Dienstleistung.
Addblocker sind eigentlich das erschleichen einer Leitung ohne bezahlen zu wollen. Aber wiegesagt , mach es ja auch, weil geht und YT ohne ungeniesbar ist.

Die faire Alternative wäre, Werbung zu schaun, zu bezahlen oder ganz trauf zu verzichten.

Es gibt ja auch noch Werbung im Video. Ist ja mittlerweile eig. normal, dass das Geld durch die Sponsoren kommt.

Aber wo musst du bei Netflix bezahlen, um Werbung zu vermeiden? Du bezahlst ja einfach für das Abo.

Dass nun jeder meint, seinen eigenen Streaming-Service betreiben zu müssen, sorgt dafür, dass die Akzeptanz sinkt und die Piraterie steigt. #1

Bevor Werbung und Tracking sich als die dominante Finanzierungsmethode im Web durchsetzte, gab es durchaus andere Ansätze. Wie zB Micropayment. Ich hab da allerdings gerade keinen Link parat.

btw: Was hat das eigentlich noch mit dem Thema des Threads zu tun?

#1 https://www.deutschlandfunkkultur.de/ueberangebot-der-streaming-dienste-die-online-piraterie-100.html

Genau das ist das Problem. Was war der Grund vor Netflix, dass Kinox und co so erfolgreich waren? Klar, die Gängelung des Kunden. Werbung, nicht schauen können was und wann ich will, Werbung verlängert den Film (und somit auch die Möglichkeit, einen zu schauen, wenn er 3h anstatt 2 geht) und natürlich bei Discs die Preise und die haben ja auch mit Werbung angefangen etc.

Dann kam Netflix (anfangs war das der einzig wirklich bekannte) und Kinox und Co verlor massiv an relevanz. Netflix war billig, man konnte sich die Kosten auf 4 aufteilen und das war wirklich gut (es hatte zwar nicht so viel wie bei Kinox).

Ja und jetzt sind wir wieder soweit, das jeder Hanswurst seinen eigenen Streamingdienst hat und natürlich müsste ich alle Dienste abbonieren, wenn ich Zugang zu jedem Film haben will (und selbst dann habe ich nicht alle). Also müsste ich wieder x tausend Abos haben.

Folgen-> Gratisportale werden wieder relevanter.

Ich sag da nur: Selber schuld.

Dieser geschichtliceh Ablauf beweist auch 1A, dass die Kunden grundsätzlich bereit sind zu zahlen, nur eben nicht verarscht werden wollen und 5 verschiedene Abos abschliessen müssen, so dass sie Zugang zu allen Filmen haben (wobei dann aber natürlich 90% jeweils deckungsgleich ist).

Morgenlicht
2023-06-03, 19:13:37
Ich benutze generell keine Extensions, die erscheinen mir unsicher. Wer weiss ich was da für eine Firma / Truppe dahintersteckt. Allerdings muß ich dies vielleicht überdenken.Das ist genau auch mein Denken. Ich habe auch keine Extensions im Browser aktiviert.


https://www.youtube.com/watch?v=zJUmjtjCtY8 Das Video hat mich dazu verleitet (hab's aber mit zweifacher Geschwindigkeit geschaut) – github.com/gorhill/uBlock (https://anonymz.com/?https://github.com/gorhill/uBlock) – manuell in meinem 70er Google Chrome zu integrieren. Aber nicht für alle Webseiten aktiviert. Manchmal entdeckt man richtig schöne Dinge bei der eingeblendeten Werbung :)

Kickstart
2023-06-03, 21:57:47
Joar ist eben bis heute der beste Vortrag zu dem Thema. Welcher sehr schön die Zusammenhänge herausarbeitet. Und Frank Rieger ist sowieso immer einen Klick wert.
Wenn du allerdings den Ad-Blocker nur auf manchen, aber nicht allen Websites nutzt, ist das so, als wenn du nur manchmal statt bei jedem Gelegenheitssex ein Kondom benutzt.

Platos
2023-06-11, 12:48:05
Speicher zu niedrig, Preis zu hoch. Dann noch die allgemeine AMD Schwäche (DLSS ist besser wie FSR, (noch) kein Framegen, schlechteres RT).

AMD hätte bei der Fertigung locker einen deutlich besseren Preis und mehr Speicher verbauen können.

Negativer Ersteindruck!

Exxtreme
2023-06-11, 13:01:14
Speicher zu niedrig, Preis zu hoch. Dann noch die allgemeine AMD Schwäche (DLSS ist besser wie FSR, (noch) kein Framegen, schlechteres RT).


Auf diesem Leistungsniveau sind die Features wie RT oder Framegen eh' unbrauchbar. Einzig FSR ist einen Ticken schlechter als DLSS, ja.

Rabiata
2023-06-11, 15:43:26
So wie sich das Verhältnis von Speicher und Rohleistung zu den spieleseitigen Anforderungen entwickelt, is schon abzusehen daß die 8GB zuerst der Flaschenhals werden. Habe daher mit "durchschnittlich, Speicher zu knapp" abgestimmt.
Es gibt schon Stimmen, die sagen, beide sind keine Mainstreamkarten mehr, sondern Einsteigerkarten. Dabei ist die 4060 ohne ti noch gar nicht raus. Denn die wird sicher nochmals 10-20% langsamer sein als die 4060ti.
Damit ist der Unterschied zu den Top-Chips wie 4080 einfach viel zu groß. Das gab es so früher nicht. Aber da hießen die Einsteigerchips auch noch xx50.
Ich sehe die auch schon fast im Einsteigerbereich für Gamer. Von Leistung und aktuellem Straßenpreis her könnte die RX 6600 non-XT als Einsteigermodell gelten. Derzeit ab 209,- Euro aufwärts laut Geizhals.

Platos
2023-06-11, 16:18:37
Auf diesem Leistungsniveau sind die Features wie RT oder Framegen eh' unbrauchbar. Einzig FSR ist einen Ticken schlechter als DLSS, ja.

Was soll bitte Framegen mit dem Leistungsniveau zu tun haben?

Kommen jetzt wieder die Leute, die erzählen wollen, der Mainstream ist mit 60FPS Latenzzeiten nicht zufrieden?

Blödsinn. Framegen ist der Punkt schlechthin. Mit Framegen erreichst du bei 60FPS etwa gleiche Latenzzeiten (weil Reflex) wie bei 60Hz ohne Reflex.

Exxtreme
2023-06-11, 19:24:08
Was soll bitte Framegen mit dem Leistungsniveau zu tun haben?

Kommen jetzt wieder die Leute, die erzählen wollen, der Mainstream ist mit 60FPS Latenzzeiten nicht zufrieden?

Blödsinn. Framegen ist der Punkt schlechthin. Mit Framegen erreichst du bei 60FPS etwa gleiche Latenzzeiten (weil Reflex) wie bei 60Hz ohne Reflex.

Framegen ist nahezu nutzlos wenn die Grafikkarte zu wenig Power hat. Die FPS steigen nur noch sehr marginal und der Inputlag wächst astronomisch.

Platos
2023-06-11, 19:36:11
Hast du dazu ein paar Links?

Exxtreme
2023-06-11, 20:25:58
Hast du dazu ein paar Links?

https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/

Da sieht man das ganz deutlich, dass FG die Latenzen massiv erhöht sobald die Grafikkarte nicht genug Power hat.

Platos
2023-06-11, 20:58:28
https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/

Da sieht man das ganz deutlich, dass FG die Latenzen massiv erhöht sobald die Grafikkarte nicht genug Power hat.

Wo in dem Tests siehst du das ?

Ich sehe da auf Seite 2 genau das, was ich schon vorher gesagt habe: Mit Framegen @ ~60FPS (min FPS) bzw. ~70FPS (avg.) hat man keine schlechtere Latenz wie bei der selben Framerate mit DLSS Perfomance (hier sogar niedriger).

Unbrauchar ist das bei weitem nicht. Man kriegt bei 60FPS unter Framegen einen niedrigeren Input lag als bei 60FPS nativ.

Exxtreme
2023-06-11, 21:13:29
Gegen Nativ + Reflex verliert jedes FG. Was Qualität angeht da ist Nativ + FG vergleichbar und hat eine fast 40% höhere Latenz. Und FG hat Reflex immer aktiviert. Deshalb ist das im Diagram nicht extra aufgeführt.

Platos
2023-06-11, 21:54:04
Jo, weiss ich schon. Habe nie was anderes behauptet. Musst halt lesen, was ich schreibe.

Ich sage, Framegen hat ne bessere Latenz als nativ ohne Reflex. Ist auch da nachzulesen. Ich weiss schon, dass Framegen Reflex nutzt.

Die Latenz von nativen 60FPS reicht den meisten Spielern. 60FPS mittels Framegen (und evtl. noch DLSS) ist also nicht unbrauchbar, im Gegenteil.

Zu sagen, Framegen @ 60FPS ist scheisse, ist etwa so, als würde man sagen, die latenz bei ~ 70FPS nativ ist scheisse.

Kannst du ja ruhig der Meinung sein, sehen nur die meisten Leute nicht so ;)

Exxtreme
2023-06-11, 22:52:53
Ja, nur ist der Vergleich zwischen Nativ ohne Reflex und FG mit Reflex halt hart unfair. Gibt kaum einen Grund Reflex nicht einzuschalten wenn man die Möglichkeit dazu hat. Und jedes DLSS3-fähiges Spiel dürfte das können da Reflex ein Teil von DLSS3 ist.

Leonidas
2023-06-12, 04:46:17
Das kann man so sehen. Aber der Grundaussage, dass im Massenmarkt die Latenz von 60 fps nativ ausreicht, kann ich einiges abgewinnen. Ich denken, so ähnlich wird das tatsächlich sein. Die Frage ist nur, ob der Massenmarkt-Anwender überhaupt auf die Idee kommt, FG und Reflex zielgerichtet zuzuschalten.

Lehdro
2023-06-12, 10:58:25
Das in den Optionen von dieser Zielgruppe meist nicht großartig rumgespielt wird, Presets mal ausgeschlossen, aber Reflex nahezu immer automatisch deaktiviert ist, ist es halt schon eine harte Beeinflussung zugunsten FG, wo es dann zwangsweise aktiviert wird. Es gibt keinerlei Grund Reflex zu deaktivieren, außer dass man Leute im Unklaren lassen will. Jemand der noch nie mit niedriger Latenz gespielt hat, wird eher selten diese, von ihm gewohnte, hohe Latenz, als unnormal ansehen. Das ist ja der Witz dabei: Jemand der, sofern möglich, immer mit Reflex spielt, wird FG als deutliche Verschlechterung ansehen, wenn der Sprung zu klein ist (so wie bei den Midrange Karten hier). Das ist wieder ein klassisches Beispiel der Manipulation: Wenn ich dem User nicht den Best Case vorführe, kann er auch nicht vom Worst Case enttäuscht sein. Die Wahl von Nativ + Reflex stellt sich halt für die meisten bei dieser Entscheidung gar nicht, vor allem wenn immer und immer wieder der Vergleich von Nativ vs. FG + Reflex gepushed wird, anstatt Nativ + Reflex vs. FG + Reflex. Das ist unehrlich.

Lösung: Reflex sollte automatisch an sein, wo auch immer es geht. Das würde NV sogar nochmals über AMD anheben, die so etwas nicht in der Art haben (jaja, Anti-lag, aber das ist bei weitem nicht so gut).

Exxtreme
2023-06-12, 11:03:50
Lösung: Reflex sollte automatisch an sein, wo auch immer es geht. Das würde NV sogar nochmals über AMD anheben, die so etwas nicht in der Art haben (jaja, Anti-lag, aber das ist bei weitem nicht so gut).

Das Problem an Reflex ist, man kann das nicht durch den Treiber erzwingen. Reflex muss selbst ins Spiel implementiert werden damit es funktioniert. Und deshalb funktioniert das fast nirgendwo da fast kein Spiel es implementiert hat. AMDs Anti-Lag ist wiederum ein Treiberfeature und funktioniert überall. Ist aber nicht so wirksam.

Lehdro
2023-06-12, 11:12:09
Das Problem an Reflex ist, man kann das nicht durch den Treiber erzwingen. Reflex muss selbst ins Spiel implementiert werden damit es funktioniert.
Wenn das Spiel Reflex integriert hat, kann es bitte auch automatisch an sein, sofern eine NV GPU genutzt wird. Ich sehe keinerlei Gründe das nicht zu aktivieren.

Und deshalb funktioniert das fast nirgendwo da fast kein Spiel es implementiert hat.
Jedes Spiel mit FG hat doch zwangsweise Reflex, da kommt mittlerweile schon einiges an AAA Titeln zusammen.

Platos
2023-06-12, 12:44:22
Ja, nur ist der Vergleich zwischen Nativ ohne Reflex und FG mit Reflex halt hart unfair. Gibt kaum einen Grund Reflex nicht einzuschalten wenn man die Möglichkeit dazu hat. Und jedes DLSS3-fähiges Spiel dürfte das können da Reflex ein Teil von DLSS3 ist.

Nein, finde ich nicht unfair, so wie ich es gemacht habe.

Die meisten Leute spielen (im Idealfall) mit einer Latenz, die es auf 60FPS nativ (also ohne Reflex) gibt. Wenn ich also mit Framegen (und somit Reflex) nicht weniger habe, habe ich keinen Verlust in der Latenz gegenüber dem, was der normale 60FPS Gamer gewohnt ist.

Das will ich damit sagen.

Du sagst dann, das sei unbrauchbar. Ergo sagst du auch, normales 60FPS Gaming ohne Reflex sei unbrauchbar und das stimmt einfach nicht.

Dein Ursprungsargument war übrigens, dass die Latenz extrem beschissen ist bei der 4060Ti und Framegen (bei speziell nur dieser Karte) und somit das Feature (bei dieser Karte) ein komplett unnützliches Feature ist.

Wie ich dargelegt habe, ist es das Latenz-technisch nicht. Somit ist deine Aussage eifach falsch.

Edit: Natürlich kann jemand sagen, er will lieber die niedrigere Latenz. Ja gut, soll er das machen. In Benchmarks soll natürlich klar dargelegt werden, wo jetzt Reflex on ist etc. Und natürlich soll in Reviews nicht Framegen mit Nativ auf Latenzebene verglichen werden, um dann zu sagen "Framegen ist ja besser".

Ich sage ja nur, dass deine Aussage einfach schlicht falsch ist. Weil diese ist, dass die Latenzen bei 60FPS Gaming ohne Reflex unbrauchbar ist.

Es gibt also die Wahl: Hohe Bewegtschärfe und die Latenz von 60FPS Gaming (sogar etwas besser) oder aber weniger hohe Bewegtschärfe und dafür weniger Latzenz.

Welches man bevorzugt, ist Geschmackssache, jedoch kann man das mit Sicherheit nicht als unbrauchbar bezeichnen.

Das kann man so sehen. Aber der Grundaussage, dass im Massenmarkt die Latenz von 60 fps nativ ausreicht, kann ich einiges abgewinnen. Ich denken, so ähnlich wird das tatsächlich sein. Die Frage ist nur, ob der Massenmarkt-Anwender überhaupt auf die Idee kommt, FG und Reflex zielgerichtet zuzuschalten.

Genau, es ging mir nie darum, zu sagen, die Latenzen mit Framegen seien besser/gleichgut wie das bestmögliche ohne Framegen.

Aber wenn man als 60FPS Gamer sich eben genau diese Latenz (ohne Reflex) gewöhnt ist und jetzt mit Framegen zusätzlich noch eine höhere Bewegtschärfe kriegt, dann sehe ich nicht ein, wo das bitte unbrauchbar sein soll. Latenz ist etwa gleich, Bewegtschärfe höher. Ist ein grafischer Gewinn. Ich kann so die Grafik hochstellen, habe aber trotzdem 60FPS und 60FPS latenzen (die ich gewöhnt bin).

Es kann ja jeder die Latenz vorziehen. Genau so, wie jeder zwischen hoher Auflösung und hoher Framerate auswählen kann. Ist eine Geschmackssache. Unrbauchbar ist aber keins davon m.M.n.

B]Jemand der noch nie mit niedriger Latenz gespielt hat, wird eher selten diese, von ihm gewohnte, hohe Latenz, als unnormal ansehen.[/B]

Ah ja, 60FPS Latenzen sind jetzt also schon hoch. Die Welt besteht nicht nur aus High-FPS Gamer.

AlterSack
2023-07-07, 20:29:05
auffällig ist, dass AMD-Karten mehr positive Bewertungen bekamen,
die schlechter bewerteten NV-Karten aber gekauft wurden.

Denniss
2023-07-07, 22:21:12
Die Herde ist halt gewohnt grün zu kaufen und was die Herde nicht kennt oder kennen will das wird auch nicht gekauft.
Kann man auch bei Apfelanbetern so sehen

Stolzer rtx 4090 Besitzer
2023-07-08, 01:34:35
Vllt. gibt es unter den Neulingen, oder schlichten Ignoranten/Naiven noch einige Menschen die es nicht durchschaut haben, vllt. auch weil es ihr "heiles Weltbild" auf den Kopf stellen würde; der Rest - vor allem die die schon seit 20+ Jahren dabei sind - hat es schon längst begriffen wie die Welt eigentlich läuft, welche Eliten, Zentralbänker, mächtige Familien, Konzerne, Unternehmen etc. eigentlich herrschen. (Enttäuschung für die Hoffnungsvollen die jemals dachten Wahlstimmen auf einen Zettel haben irgendeinen Einfluss)

AMD und Nvidia sind ein Stackelberg-Duopol mit illegalen Preisabsprachen und Marktmanipualtion.
Das ist Standard und üblich in allen Branchen, vor allem bei Großen und Multi-Millionen/Milliarden-Unternehmen. Man brauch nur die Namen Google/Amazon/Facebook und co. erwähnen (neben Tausend anderen), und schon sollte jeder Bescheid wissen.
Warum jemand ernsthaft glaubt in der halbe-Trillion Halbleiterindustrie, mit mehreren Mutlimilliarden-Unternehmen, läuft es nicht anders?
Basiert auf Unwissen/Naivität/Ignoranz/Weltbild.

Dieser "Preis-Wettkampf" der beiden Kontrahenten ist reine Show; Preis-Leistungsmäßig sind sie alle gleich, denn es ist alles abgesprochen.
AMD ist NICHT günstiger. (Und war es meistens auch nie. Weder rdna3, rdna2, rdna, GCN, Tahiti etc. pp.)
In der Zeit um 2000 - 2005 gab es anscheinend noch halbwegs, echten Preiskampf, welchen man am günstigen Verkaufspreis miterlebt hat (200 € für High-End), an den niedrigen Produktmargen/Gewinn für AMD/Nvidia/AIBs, welche alle nur wenig verdient haben.
So ab 2005 ging es dann aber los mit dem Stackelberg-Duopol und illegalen Preisabsprachen (passt in die Zeitleiste der Anschuldigungen).
https://ibb.co/tDmHr8v
Die Führungsriege beider Unternehmen hat es wohl begriffen dass ein echter Preis-Wettkampf keinen Sinn macht, denn Schlussendlich verliert dabei nur AMD/Nvidia und die Kundschaft gewinnt.
Man zieht aber am gleichen Strang und möchte es genau anders herum :)


AMD kostet einfach weniger, bietet aber auch einfach weniger (in allen Aspekten, von Stromverbrauch/Effizienz, hinzu Softwarefeature-Qualität (VR-Spiele-Leistung, DLSS 2 gegnüber FSR 2 deutlich überlegen, seltener Treiberupdates, CUDA-Workflow/Professionell etc. pp.).


Mehr als offensichtlich wieder seit 2018 der rtx 2000 Veröffentlichung.
Und jenes schon seit min. 2002/2008.
https://www.slashgear.com/nvidia-ati-class-action-court-hears-damning-price-fix-email-1812715/
https://www.tomshardware.com/news/nvidia-amd-ati-graphics,6311.html

Alleine schon die E-Mail von damals lesen, sagt Alles.
Ob da irgendwelche Richter die Sache schlussendlich aufgeklärt haben oder nicht, jemand zu Strafzahlungn verurteilt wurde, ist schlicht egal (siehe Google etc. oben). Das läuft täglich ab, aber man kann es einfach nicht nachweisen, da kaum niemand mehr so dumm ist und schriftlich/digital Spuren hinterlässt; Absprachen werden nur unter den höchster Exekutiven/Bordmitgliedern gehalten, mündlich und privat.
Viel Erfolg beim Nachweis, vor allem bei bestochener Politik, durchseucht von Lobbyismus (Eliten, Weltherrscher, Staatsdiener, dienen nicht dem Volk, sondern Konzernen. Technokratie,, 1984, Huxlex hat es vorrausgesagt).


Die Sache ist bis nach oben hin zur höchsten Geopolitik-Ebene abgekartet
Alle Jahre wieder werden die globalen Speicherhersteller (SK Hynix, Micron, Samsung, WD etc.), selbst TV-Hersteller mit mickrigen Strafzahlungen leicht auf die Finger gehauen, obwohl diese seit Jahrzehnten illegal den Markt manipulieren. Ist bei Google, Amazon, Apple, Microsoft etc. nicht anders.
Die globalen und nationalen Handelskommissionen, Wettbewerbshüter, hohen Politiker etc. machen diesbezüglich nahezu Nichts. Eine Farce.

AMDS Lisa Su und Nvidias Jensen auch im gleichen Familienstammbaum, Cousins ersten Grades.
Gibt genug Berichte wie nahe sich AMD/TSMC/Nvidia Führung stehen.




Alle Nvidia rtx 4xxx Chips wurden einfach eine Modellnummer höher umbenannt und Preise angehoben.
(Bsp. Rtx 4080 16 GB ist in Wirklichkeit eine Rtx 4070. UVP von 600 € auf 1200 € angehoben)

Das es ein Stackelberg-Duopol mit illegalen Preisabsprachen und Marktmanipualtion ist, ist AMD leider auch nicht besser.
RX 7900 XT = umbenannte RX 7800 XT (RX 6800 XT Nachfolger). Das zieht sich nach unten hin (Modellreihe) fort.
Es gibt keinen "besseren Kauf". Kauft man bei AMD für 10 - 20 % weniger ein, erhält man auch in allen Aspekten (siehe oben) weniger.
Es gibt keine ernsthafte Wahl, oder Alternative. Das ist reine Farce.
Und dies läuft seit Jahren. Daran erkennt man ein echtes Stackelberg-Duopol und illegale Absprachen (siehe E-Mails).
Was zählt ist der reine Gewinn und der Aktienkurs.

Als Käufer hat man leider nur die Wahl zwischen
1) Nvidias guten und überlegenen Produkte, die aber dämmlich überteuert sind
2) Oder AMDs unterlegene Produkten die 10 - 20 % günstiger sind, aber schlechter.
Beides gleich schlecht.
3) Einfach gar nichts kaufen. Die beste Entscheidung.
4) Die vorherige Generation im Abverkauf kaufen ist nur wenig schlauer; das wollen AMD/Nvidia nämlich (die Lager mit alter Ware noch voll), auch deshalb die überdrehten Preise der neuen Generation.
Was diese Techtuber machen (alte Grafikkartengeneration als Alternative preise, spielt AMD/Nvidia in die Hände)


Und die mediale Psychose/Manipulation beider Unternehmen läuft auch seit Jahren nach gleichem Schema ab

1) Nvidia legt als "bad boy" und Preistreiber vor. Nvidia zieht die Preise dämmlich an und erntet jeglichen Hass der Kundschaft.
Nvidia kann sich dass bei 80 - 85 % Marktdominanz/absatz im GPU/Grafikkartenmartk auch erlauben (deshalb heißt es auch STACKELBERG-Duopol)
2) Kundschaft voller Unzufriedenheit schaut auf Hoffnungsträger AMD. AMD der "Underdog". Psychologische Tricks hoch 3.
3) Kundschaft ist enttäuscht da AMD, wie seit vielen Jahren, enttäuscht (in meist nahezu allen Aspekten hinten dran, siehe erster Absatz)
4) Kundschaft hofft auf ein wenigstens besseres Preis-Leistungsverhälnis von Seiten AMD
5) Bekommt Kundschaft aber nicht, da Stackelberg-Duopol mit illegalen Preisabsprachen und Marktmanipualtion.
6) Kundschaft enttäuscht/resigniert, kauft wieder Nvidia, oder eine Modellstufe günstiger/gar nicht
7) Ergo: Egal wie es Kunde dreht und wendet, AMD oder Nvidia, Pepsi oder Cola, Bayern oder Frankfurt etc. p.p. Grafikkarten sind entweder gleich dämmlich überteuert, schlecht, hier besser da, schlechter.

Simples Schema, gespielt seit Jahren.

Sieht man auch deutlich an Nvidias Marketingspielchen dieser GPU-Generation, anfangs, jeglicher Tech-Mainstream/Tester/Reviewer (computerbase, hardwareluxx, pcgameshardare etc.) brav mitgespielt hat
In nahezu allen Ländern.
Alleine PCGHs Raff (welcher hier gerne im Forum auftaucht), sein Fazit in Videos zu "RTX 4060 (Ti) zeigt es deutlich wie wenig Eier in der Hose diese Techseiten haben, und blos Reviewsamples wollen und es deshalb selten ersnthafte Kritik gibt (meist nur mit Blümchen indirekt umschrieben). (Ja Raff, dein Video-Fazit zu "400 € Preis okay" und "500 € 16 Gb rtx 4060 geht so i.O." zeigen welche Leine am Hals hängt).
Techpowerup.com/Jay-Youtube "RTX 4060 Empfehlung".


Ziemliches Wunder das um den rtx 4060-Launch nun alle mit Kritik an einem Strange ziehen. Liegt aber nicht an den Eierlosen-Techseiten sondern da der Kundschafft längst der Kragen geplatzt ist und es mehr als offensichtlich wurde.

Grafikkarte "rtx 4080 12GB" zu nennen, Schisshassen vo Tech-Testern und einige Käuferschicht springt auf den Köder ein, empört sich, Nvidia Psychotricks greifen, folglich wird die Grafikkarte "rtx 4070 Ti" umbeannt.
Falle zugeschnappt. Es war von Anfang an eine rtx 4060.
Medialen Fokus von der umbenannten rtx 4080 Ti für $ 1600 erfolgreich abgewendet.

MD_Enigma
2023-07-08, 22:09:05
schlichten Ignoranten/Naiven
Eliten, Zentralbänker, mächtige Familien, Konzerne, Unternehmen
herrschen
Enttäuschung
Hoffnungsvollen
Wahlstimme
mediale Psychose
Manipulation
bad boy
Preistreiber
dämmlich
erntet jeglichen Hass
Marktdominanz
STACKELBERG-Duopol
Unzufriedenheit
Hoffnungsträger
Underdog
Psychologische Tricks
illegalen Preisabsprachen
Marktmanipualtion.
resigniert
dämmlich
Simples Schema
Marketingspielchen
Tech-Mainstream/Tester/Reviewer
wenig Eier in der Hose
selten ersnthafte Kritik
Wunder
Eierlosen-Techseiten
längst der Kragen geplatzt
Schisshassen
Köder
Psychotricks
Falle zugeschnappt


Schau dir deine Worte mal durch und überlege, wie du auf andere wirkst. Ich kann dir versichern - nicht gut. Verwirrt wäre noch scharmant.

Raff
2023-07-09, 22:28:35
Sieht man auch deutlich an Nvidias Marketingspielchen dieser GPU-Generation, anfangs, jeglicher Tech-Mainstream/Tester/Reviewer (computerbase, hardwareluxx, pcgameshardare etc.) brav mitgespielt hat
In nahezu allen Ländern.
Alleine PCGHs Raff (welcher hier gerne im Forum auftaucht), sein Fazit in Videos zu "RTX 4060 (Ti) zeigt es deutlich wie wenig Eier in der Hose diese Techseiten haben, und blos Reviewsamples wollen und es deshalb selten ersnthafte Kritik gibt (meist nur mit Blümchen indirekt umschrieben). (Ja Raff, dein Video-Fazit zu "400 € Preis okay" und "500 € 16 Gb rtx 4060 geht so i.O." zeigen welche Leine am Hals hängt).
Techpowerup.com/Jay-Youtube "RTX 4060 Empfehlung".


Ziemliches Wunder das um den rtx 4060-Launch nun alle mit Kritik an einem Strange ziehen. Liegt aber nicht an den Eierlosen-Techseiten sondern da der Kundschafft längst der Kragen geplatzt ist und es mehr als offensichtlich wurde.

Grafikkarte "rtx 4080 12GB" zu nennen, Schisshassen vo Tech-Testern und einige Käuferschicht springt auf den Köder ein, empört sich, Nvidia Psychotricks greifen, folglich wird die Grafikkarte "rtx 4070 Ti" umbeannt.
Falle zugeschnappt. Es war von Anfang an eine rtx 4060.
Medialen Fokus von der umbenannten rtx 4080 Ti für $ 1600 erfolgreich abgewendet.

Was du als "mit Blümchen indirekt umschrieben" bezeichnest, ist ein objektiver Umgang mit Produkten. Pro und Kontra feinsäuberlich ausgearbeitet, damit sich jeder eine eigene Meinung bilden kann. Gute Produkte (wie die RTX 4090) erhalten besonders viel Lob, schlechte Produkte (wie die RTX 4060 Ti 8GB) besonders viel Kritik. Das hat rein gar nichts mit verkauften Seelen, Leinen oder sonstigen lustigen Metaphern zu tun. Viele Menschen haben im Zeitalter der Hass-goutierenden Algorithmen wohl einfach verlernt, normale Umgangsformen und Satzkonstruktionen zu verstehen, was mich nachdenklich und traurig macht.

MfG
Raff

Leonidas
2023-07-10, 02:46:13
... wohl einfach verlernt, normale Umgangsformen und Satzkonstruktionen zu verstehen, was mich nachdenklich und traurig macht.


Stimme zu.

Gast
2023-07-10, 12:16:46
Gute Produkte (wie die RTX 4090) erhalten besonders viel Lob, schlechte Produkte (wie die RTX 4060 Ti 8GB) besonders viel Kritik.
Warum ist die 4090 ein "gutes" Produkt?

Imo verbraucht sie viel, viel zu viel und ist viel zu teuer. Der Leistungszuwachs wird regelrecht mit einer erhöhten Leistungsaufnahme erkauft. Seit wann sind sowas gute Produkte?

Die Presse ist ja nicht zu faul diese Metapher ständig zu erwähnen. Mich macht sowas eher traurig, da man sich an den Marketingaussagen der Industrie beteiligt, um Produkte dieser Art mehr oder weniger unterschwellig zu bewerben.

Reine Produkttests sollten in dieser Frage vor allem *Wertung und werbefrei* sein.

Exxtreme
2023-07-10, 12:26:13
Warum ist die 4090 ein "gutes" Produkt?

Imo verbraucht sie viel, viel zu viel und ist viel zu teuer. Der Leistungszuwachs wird regelrecht mit einer erhöhten Leistungsaufnahme erkauft. Seit wann sind sowas gute Produkte?

Die Presse ist ja nicht zu faul diese Metapher ständig zu erwähnen. Mich macht sowas eher traurig, da man sich an den Marketingaussagen der Industrie beteiligt, um Produkte dieser Art mehr oder weniger unterschwellig zu bewerben.

Reine Produkttests sollten in dieser Frage vor allem *Wertung und werbefrei* sein.

Der Preis, die potentiell hohe Leistungsaufnahme (lässt sich mit Dingen wie Framelimitern in den Griff kriegen) und eventuell noch DP 1.4 sind aber so ziemlich die einzigen Schwächen dieser Grafikkarte. Andere Grafikkarten haben (viel) mehr Schwächen auch wenn sie möglicherweise billiger sind.

Gast
2023-07-10, 13:56:37
Der Preis, die potentiell hohe Leistungsaufnahme (lässt sich mit Dingen wie Framelimitern in den Griff kriegen) und eventuell noch DP 1.4 sind aber so ziemlich die einzigen Schwächen dieser Grafikkarte. Andere Grafikkarten haben (viel) mehr Schwächen auch wenn sie möglicherweise billiger sind.
Ich muss einem 1700 - 2300 Euro teuren Produkt erst selbst beibringen, sparsam zu sein? Mit einem Framelimiter die Schwächen selbst ausbügeln. Gehts noch?

Es gibt noch weitere Dinge bei der 4090 zu bemängeln, bei den Extrawürsten die Nvidia alle Nase lang geht aber dafür viel Geld verlangt, zu viel! Die schon nach kurzer Zeitspanne komplett ohne Mehrwert sind. So wie es mit Ampere vorgelebt wurde. Das beste Beispiel dafür sind defekte 3090, fehlende Unterstützung für DLSS3 usw.. Bei der 4090 dann noch die Stromversorgungsproblematik, wo jetzt ein Update erfolgt.

Ein gutes Produkt ist was anderes. Nämlich fehlerfrei von Anfang zu funktionieren, dem Preis entsprechend eine Langlebigkeit und hohe Flexibilität bei Verwendungsbreite zu bieten. Das alles erfüllt eine 4090 kaum. Gemessen am Preis den Nvidia dafür verlangt, ist das eher ein Desaster.

Es ist aber genauso unsinning in Enthusiastenforen zu fragen oib die 4060ti einen gute Karte ist, was da rauskommt ist vorher schon klar.

Crazy_Borg
2023-07-10, 14:20:48
Die 4090 ist nunmal ein "Halo" Produkt.
Sinnvoll oder nicht, sie steht mit ihrer Leistung allein da und darf sich nunmal einige Nachteile erlauben. Alternative? Gibts nicht.
Wer die kauft, weiss was ihn erwartet (hoffentlich).

Die 4060(TI) hat sowohl mit der Konkurrenz als auch mit den Vorgängerprodukten zu kämpfen, und das in einem deutlich preissensibleren Markt.

Die 4060 (TI) 8/16 ist ein scheussliches Produkt, Punkt.

Exxtreme
2023-07-10, 14:30:01
Ich muss einem 1700 - 2300 Euro teuren Produkt erst selbst beibringen, sparsam zu sein? Mit einem Framelimiter die Schwächen selbst ausbügeln. Gehts noch?


Natürlich muss man nachhelfen. Denn das Produkt kann ja keine Gedanken lesen und somit kann es auch nicht wissen was du als sparsam oder stromhungrig empfindest. :)


Es gibt noch weitere Dinge bei der 4090 zu bemängeln, bei den Extrawürsten die Nvidia alle Nase lang geht aber dafür viel Geld verlangt, zu viel! Die schon nach kurzer Zeitspanne komplett ohne Mehrwert sind. So wie es mit Ampere vorgelebt wurde. Das beste Beispiel dafür sind defekte 3090, fehlende Unterstützung für DLSS3 usw.. Bei der 4090 dann noch die Stromversorgungsproblematik, wo jetzt ein Update erfolgt.


Dass Ampere kein DLSS3 kann liegt wohl daran, dass es womöglich zu langsam wäre um nützlich zu sein. Auf Ada braucht die Bildgenerierung rund 5 ms pro generiertes Bild. Was wiederum ein implizites Limit von 200 generierten fps oder 100 nativen fps nach sich zieht. Sprich, schafft die Grafikkarte mehr als 100 fps nativ dann wird DLSS3 zu einer Bremse. Wäre jetzt natürlich interessant zu wissen wie lange Ampere pro generiertes Bild bräuchte. :)


Ein gutes Produkt ist was anderes. Nämlich fehlerfrei von Anfang zu funktionieren, dem Preis entsprechend eine Langlebigkeit und hohe Flexibilität bei Verwendungsbreite zu bieten. Das alles erfüllt eine 4090 kaum. Gemessen am Preis den Nvidia dafür verlangt, ist das eher ein Desaster.

Es ist aber genauso unsinning in Enthusiastenforen zu fragen oib die 4060ti einen gute Karte ist, was da rauskommt ist vorher schon klar.

Also ich sehe nicht, dass die RTX 4090 irgendwie Fehler hat. Ja, der Stromstecker kann unglücklich sein. Aber da gab es 50 Fälle aus 125.000 verkauften Grafikkarten wo der Stecker Schwierigkeiten machte. Und das sehe ich jetzt nicht als katastrophal schlecht an. Schlecht ist, dass das möglicherweise die Bude abfackelt wenn man richtig Pech hat. Aber da wäre mir kein Fall bekannt, dass eine Wohnung abgefackelt wurde oder ähnliches.

gastlich hier
2023-07-10, 15:41:04
Nvidia zu Umfragen Dritter: "Solche Umfragen (von potenziellen Kunden gemacht) sind nicht repräsentativ und es spiegelt auch nicht unsere Quartalsergebnisse im Kaufverhalten unserer Kunden wider." :D

Selbst wenn man einen alten, aber noch potenten PC mit einer Pascal GPU hätte, verhungert die 4060Ti am eigenen, beschnittenen x8 Interface. Da ist nicht mal sinnvolles Aufrüsten ohne Leistungsabstriche möglich, außer man wechselt gleich noch den ganzen PC Unterbau. Dazu die stagnierende GPU Leistung der 4060Ti und bei der 3060Ti hätte ich mir durchaus mehr als die 8GB VRAM gewünscht, wenn es mir momentan noch ausreicht.

GerryB
2023-07-10, 22:46:19
1,6% positiver Ersteindruck, ... davon würden 27,8% kaufen
= 1,6 x 0,278= 0,445%

Aber zum Glück sind die Einkaufsmanger bei Saturn und Co. optimistischer.
(man zieht vllt. an Tag 1 den Preis noch höher, um in Woche 2 das Dingens "preiswert" als SALE-Komplett-PC an den Mann/Frau
zu bringen)

btw.
Für Starfield-Fans ist vermutlich eeh die 6700xt@319€ interessanter:

Leonidas
2023-07-11, 02:56:04
Der Massenmarkt lief immer in eine leicht andere Richtung als die Enthusiasten vorgaben oder dachten. Das ist sowohl "normal" als auch die einzige Chance für diese Grafikkarten.

Crazy_Borg
2023-07-11, 08:09:22
Diese Karte ist preislich soweit vom Massenmarkt entfernt wie es nur geht.

MD_Enigma
2023-07-11, 11:23:13
Spricht Bände :)

Denniss
2023-07-11, 11:40:41
Mit der Ventus 4060TI wurden wohl noch ein paar weitere Bauern gefangen, so ca +3
die XFX 7600 ist immer noch jungfräulich
im Mindstar
sind 7 Bauern mit einer Palit 4060Ti für 489€ gefangen worden, 33 noch verfügbar
die Asrock 7600 challenger verkauft sich wohl gut, die hälfte der 30 für 249€ sind weg
Die Asrock Phantom für 289 geht eher schleppend mit 3/20
Die Pulse 6750XT für 359 ist auch schon halb weg

Gast
2023-07-27, 14:28:02
Komisch das AMD hier besser wegkommt...gleiche Rasterleistung wie die 4060 und gleiche Speicherausstattung.

Nv hätte dann noch DLSS3. Da scheint der Underdogbonus beim VRAM und der Preis voll durchzuschlagen. Sollte Nv sich ansehen.

Gortha
2023-07-27, 15:47:48
Es gibt schon Stimmen, die sagen, beide sind keine Mainstreamkarten mehr, sondern Einsteigerkarten. Dabei ist die 4060 ohne ti noch gar nicht raus. Denn die wird sicher nochmals 10-20% langsamer sein als die 4060ti.
Damit ist der Unterschied zu den Top-Chips wie 4080 einfach viel zu groß. Das gab es so früher nicht. Aber da hießen die Einsteigerchips auch noch xx50.

Die wird wesentlich langsamer sein bei 10 SMs weniger...

bad_sign
2023-07-27, 17:09:03
Komisch das AMD hier besser wegkommt...gleiche Rasterleistung wie die 4060 und gleiche Speicherausstattung.

Nv hätte dann noch DLSS3. Da scheint der Underdogbonus beim VRAM und der Preis voll durchzuschlagen. Sollte Nv sich ansehen.
Underdogbonus^^ So ein blödsinn
Die Karte ist billliger und damit sind die selben Fehler leichter zu verzeihen.
Btw DLSS3 verbraucht mehr VRAM, was die 8 GB noch knapper macht - wahrlich kein Bonus

Trotzdem sind beide erwähnten einfach nur eine Beleidigung für alle Spiele, die aufs Geld achten wollen/müssen.
Ich wäre als Jugendlicher mit den Preisen nicht zum PCler geworden.:mad:

Prinzenrolle
2023-07-27, 23:48:11
Gegen Nativ + Reflex verliert jedes FG.

Isoliert betrachtet verliert man in der Latenz, aber nicht was die Smoothness der Bilddarstellung betrifft. Mit FG bekommst du zu den höheren FPS noch ein ziemlich nettes Framepacing oben drauf, die Bilder kommen konstanter und sind effektiv für dein Auge mehr als nur doppelt so hoch. Für eine neutrale Betrachtung, sollte man sich nicht nur auf die Latenz fixieren, weil das wirkt irgendwie als würdest du nicht verstehen was FG überhaupt macht.

Wir haben das in einem recht aufwändigen Versuchsaufbau redaktionsintern simuliert und nur 1/20 Testprobanden hat das etwas latenzärmere Spielerlebnis bevorzugt. Getestet haben wir Cyberpunk mit einer Nativen FPS Rate von 50 FPS auf einem 240 Hertz Monitor.

Latenz hin oder her. FG hat das klar für sich entschieden.

auffällig ist, dass AMD-Karten mehr positive Bewertungen bekamen,
die schlechter bewerteten NV-Karten aber gekauft wurden.

Typisch AMD-Center.
Die RX 7600 hat 13% positive Bewertungen, die RTX 4060 nur 2%, obwohl die Karten P/L mäßig sich absolut nichts nehmen, die 4060 sparsamer ist und noch das bessere Featureset hat.:weg:

Exxtreme
2023-07-28, 09:17:48
Isoliert betrachtet verliert man in der Latenz, aber nicht was die Smoothness der Bilddarstellung betrifft. Mit FG bekommst du zu den höheren FPS noch ein ziemlich nettes Framepacing oben drauf, die Bilder kommen konstanter und sind effektiv für dein Auge mehr als nur doppelt so hoch. Für eine neutrale Betrachtung, sollte man sich nicht nur auf die Latenz fixieren, weil das wirkt irgendwie als würdest du nicht verstehen was FG überhaupt macht.


Lässt sich pauschal nicht beantworten. Es hängt vom Spiel und von den nativen FPS ab. Wenn das Spiel schon mit 40 fps ohne FG läuft dann wird die Latenz aus der Hölle werden wenn man da FG einschaltet.

FG ist toll um überschüssige GPU-Reserven in mehr FPS zu verwandeln. So eine Situation hat man z.B. im CPU-Limit. Es ist aber eher kontraproduktiv wenn man einer zu schwachen Grafikkarte zu mehr FPS verhelfen will. Die FPS-Zahl wird zwar steigen, die Eingabelatenzen aber auch und das nicht zu knapp. Da ist DLSS2 + Reflex wohl eher besser.

Gast
2023-07-28, 10:52:28
Typisch AMD-Center.
Wollte ich als Gast nicht schreiben...:).

Daher eher die Underdog Theorie. Wobei AMD über viele Jahre hinweg auch beißen konnte, als Underdog. Nun laufen sie Nv brav bei Fuss. Man kann dann ja selbst höhere Preise verlangen.

In den Köpfen bleibt oft was anderes hängen, gerade bei der Generation die bei ATI/AMD den Biss noch mitgemacht hat. Ich habe bisher auch immer AMD gekauft, leider endet die Äera selbst bei mir.

Gast
2023-07-28, 11:40:05
Isoliert betrachtet verliert man in der Latenz, aber nicht was die Smoothness der Bilddarstellung betrifft. Mit FG bekommst du zu den höheren FPS noch ein ziemlich nettes Framepacing oben drauf, die Bilder kommen konstanter und sind effektiv für dein Auge mehr als nur doppelt so hoch. Für eine neutrale Betrachtung, sollte man sich nicht nur auf die Latenz fixieren, weil das wirkt irgendwie als würdest du nicht verstehen was FG überhaupt macht.

Wir haben das in einem recht aufwändigen Versuchsaufbau redaktionsintern simuliert und nur 1/20 Testprobanden hat das etwas latenzärmere Spielerlebnis bevorzugt. Getestet haben wir Cyberpunk mit einer Nativen FPS Rate von 50 FPS auf einem 240 Hertz Monitor.

Latenz hin oder her. FG hat das klar für sich entschieden.



Den Schärfeverlust durch FG, gerade bei schnellen Kameraschwenks, sollte man aber auch nicht unerwähnt lassen.

Gast
2023-07-29, 13:42:46
Wir haben das in einem recht aufwändigen Versuchsaufbau redaktionsintern simuliert und nur 1/20 Testprobanden hat das etwas latenzärmere Spielerlebnis bevorzugt. Getestet haben wir Cyberpunk mit einer Nativen FPS Rate von 50 FPS auf einem 240 Hertz Monitor.


Cyberpunk ist dafür ein ganz schlechtes Beispiel. Die Engine hat insbesondere ohne Reflex eine grausame Latenz.
Da fällt die zusätzliche Latenz durch FG nicht mehr großartig auf.

Gast
2023-07-31, 14:10:00
Den Schärfeverlust durch FG, gerade bei schnellen Kameraschwenks, sollte man aber auch nicht unerwähnt lassen.

Gerade da nimmt die Schärfe durch FG aufgrund des verringerten Sample&Hold Blurs enorm zu.

Prinzenrolle
2023-08-02, 23:12:23
Lässt sich pauschal nicht beantworten. Es hängt vom Spiel und von den nativen FPS ab. Wenn das Spiel schon mit 40 fps ohne FG läuft dann wird die Latenz aus der Hölle werden wenn man da FG einschaltet.

Bei 40 FPS würde ich den Effekt von FG Größten bewerten, da die Bildflüssigkeit bei 40 FPS für das Auge inakzeptabel ist und die Latenz noch in einem Bereich liegt, wo sich die fas doppelten FPS nicht unrund anfühlen.

Wir haben die "click to muzzle flash latency" mittels Nvidias LDAT ausgemessen und man erreicht inkl. Reflex trotz FG vergleichbare Latenzen zu Nativ+ AMD´s Antilag, also grundsätzlich würde ich die Latenz nicht als das große Problem sehen, da man mit Reflex die PC - und Gamelatenz soweit optimiert, dass die gesamte end to end Latenz auf einem gangbaren Niveau bleibt. Wenn das alles gut in das Spiel integriert ist, kann man sich auch vorstellen optional 2 Zwischenbilder einzufügen.
Für AMD wird das Feature auch ohne Techniken wie Reflex einen Mehrwert bieten.


Es ist aber eher kontraproduktiv wenn man einer zu schwachen Grafikkarte zu mehr FPS verhelfen will.

Die Bildflüssigkeit, bzw das Geruckel ist doch viel störender als eine leicht verzögerte Reaktion, da kann man die Latenz mit Reflex noch so weit senken, das Spiel wird deshalb auch nicht spielbarer.

Monitor, USB, und der ganze andere Kram außen vor gelassen.


Die FPS-Zahl wird zwar steigen, die Eingabelatenzen aber auch und das nicht zu knapp. Da ist DLSS2 + Reflex wohl eher besser.

Deine Meinung, ich kann das wie gesagt nicht ganz nachvollziehen, denn wir sprechen hier von meinetwegen 20% höheren Latenzen und nicht einen Anstieg von 50% oder mehr.
Ab dem Punkt wo die Technik soweit ist 2 Zwischenbilder einzufügen ohne die Latenz weiter zu erhöhen, wird sich das ganze verselbstständigen. Spätestens in 2 oder 3 Jahren wird das in jedem Spiel der absolute Standard sein.

Exxtreme
2023-08-03, 13:29:31
Bei 40 FPS würde ich den Effekt von FG Größten bewerten, da die Bildflüssigkeit bei 40 FPS für das Auge inakzeptabel ist und die Latenz noch in einem Bereich liegt, wo sich die fas doppelten FPS nicht unrund anfühlen.


Bei 40 fps hast du mindestens 25 ms Eingabelatenz alleine durch die Bildwiederholfrequenz. Dann kommen noch Latenzen durch Eingabeverarbeitung, Signalübertragungen etc. hinzu. Und das wird nicht besser durch FG sondern z.T. viel schlechter.


Wir haben die "click to muzzle flash latency" mittels Nvidias LDAT ausgemessen und man erreicht inkl. Reflex trotz FG vergleichbare Latenzen zu Nativ+ AMD´s Antilag, also grundsätzlich würde ich die Latenz nicht als das große Problem sehen, da man mit Reflex die PC - und Gamelatenz soweit optimiert, dass die gesamte end to end Latenz auf einem gangbaren Niveau bleibt. Wenn das alles gut in das Spiel integriert ist, kann man sich auch vorstellen optional 2 Zwischenbilder einzufügen.
Für AMD wird das Feature auch ohne Techniken wie Reflex einen Mehrwert bieten.


Ja, AMDs Antilag ist bei weitem nicht so gut. Hat aber den Vorteil, dass es überall funktioniert und keinen speziellen Support durch das Spiel braucht.


Deine Meinung, ich kann das wie gesagt nicht ganz nachvollziehen, denn wir sprechen hier von meinetwegen 20% höheren Latenzen und nicht einen Anstieg von 50% oder mehr.
Ab dem Punkt wo die Technik soweit ist 2 Zwischenbilder einzufügen ohne die Latenz weiter zu erhöhen, wird sich das ganze verselbstständigen. Spätestens in 2 oder 3 Jahren wird das in jedem Spiel der absolute Standard sein.

Die Latenzen steigen hier um ca. 40% durch FG:
https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/

Und dieser Test ist noch eher genügsam da hier nur FHD getestet wurde. In WQHD oder gar UHD würde es noch übler aussehen.

Und du wirst das nicht können Zwischenbilder ohne Latenzerhöhung einzufügen. Denn die Zwischenbilder müssen generiert werden was wiederum Rechenleistung kostet, die dem Spiel dann nicht mehr zur Verfügung steht. Und genau das ist das Problem bei FG. FG macht nur bei hartem CPU-Limit Sinn wo sich die Grafikkarte langweilt. Langweilt sich die CPU dann bekommt man mit FG Latenzen aus der Hölle.

Platos
2023-08-03, 16:18:32
Framegen mit Reflex @ 60FPS hat etwa die gleiche Latenz wie nativ ohne reflex @ 60FPS.

Ist also mehr als brauchbar für den Grossteil aller PC Gamer. Ganz normal ist das quasi.

Exxtreme
2023-08-03, 16:26:53
Framegen mit Reflex @ 60FPS hat etwa die gleiche Latenz wie nativ ohne reflex @ 60FPS.

Ist also mehr als brauchbar für den Grossteil aller PC Gamer. Ganz normal ist das quasi.

Richtig. Aber nativ mit Reflex ist beträchtlich besser was Latenz angeht. Bei Framegen ist Reflex immer eingeschaltet.