Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
00-Schneider
2025-02-02, 10:30:59
Aktuell trifft die 5080 trifft mit 16GB und vollem Feature-Set einen Sweetspot für alle die noch auf älteren Grafikkarten unterwegs sein. Selbst in einem AM4 System mit DDR4, PCIE4 und 5700/5800x3D wird die hervorragend funktionieren. Von einer 2000er oder 3000er GeForce kommend ist das ein brutales Upgrade.
Die hätten, wie es ältere Gerüchte besagt haben, einfach die 5080 einzeln releasen sollen und die 5090 dann später im März.
Troyan
2025-02-02, 10:34:35
Klingt nach der Definition von Upselling (https://de.wikipedia.org/wiki/Upselling). Ich habe ja inzwischen schon einige Launches mitgemacht und bei Lovelace würde ich dir z.B. zustimmen. Da war die 4080 ggü der 4090 brutal unattraktiv. Bei Ampere war die 3080 trotz 10GB für viele eine Alternative zur 3090.
Aktuell trifft die 5080 trifft mit 16GB und vollem Feature-Set einen Sweetspot für alle die noch auf älteren Grafikkarten unterwegs sein. Selbst in einem AM4 System mit DDR4, PCIE4 und 5700/5800x3D wird die hervorragend funktionieren. Von einer 2000er oder 3000er GeForce kommend ist das ein brutales Upgrade.
Hier ist natürlich 3DC Blase wo inzwischen fast jeder mit 4090 unterwegs ist. Wäre es jetzt Herbst oder Anfang vom Winter und die 5090er für 2,3k€ breit verfügbar, würde das Upselling vielleicht auch funktionieren. Aber so überzeugend wie die 4090 damals ist die 5090 halt nicht. Bei aktueller Verfügbarkeit und Preislage sowieso nicht.
5080 -> 5090 ist kein Upselling. Das ist einfach Produktsegmentierung. Upselling ist mehr 5070 -> 5070TI, wo man 4GB mehr Speicher und mehr 20% oder so mehr Leistung für 200€ Aufpreis erhält. Sieht eindeutig besser aus.
basix
2025-02-02, 10:35:22
Für 8k gibt's eh dlss-up, da braucht man nicht so viel vram
Bingo ;)
Nur leider fällt UP momentan qualitativ stark ab gegenüber P (DLSS4), zumindest das was ich in 4K getestet habe. Ich hoffe dass da ein nächstes Update noch was bringt, DLSS4 ist laut Nvidia ja noch "Beta" ;)
8K DLSS-P geht sicher sehr ordentlich von der Qualität, aber da fehlt in so einigen Spielen schlicht die Performance, wenn man hohe Qualitätssettings nutzt (RT, PT).
Für 8K hätte ich noch gerne, dass es einen SUP Modus gäbe ("Super Ultra Performance" :D), welcher auf 25% Auflösungsskalierung geht.
MiamiNice
2025-02-02, 10:41:14
8K ist seit 2020 default der aktuelle technische Stand. Unabhängig davon ob die Einwohner Somalias heute ihren ersten 1080p Plasma-TV sich leisten können. ;)
Du verwechselst den technischen Stand und genutzter Standard.
AffenJack
2025-02-02, 10:57:13
Sollte der 2N Vertigungsprozess unerwartet wesetnlich mehr kosten, so wird Nvidia nur XX80 in den XX90 Bereich schieben. Dann gute Nacht!
Was soll da bitte unerwartet sein? 5nm Wafer sollen ~15000-17000$ kosten, angeblich mit den neuesten Preiserhöhungen eher 18-20k, 2nm Wafer sollen bei 27-30000$ sein. 2nm ist kaum ein Shrink von 3nm. Pro Transistor wirst du also mit mindestens 50% Mehrkosten pro Transistor bei 2nm rechnen müssen.
Entweder steigen also die Preise oder die Chips werden kleiner.
Weltraumeule
2025-02-02, 11:35:35
Hat jemand zufällig Source 2 Spiele zur Hand, L4D2, Portal 2 oder das schnell herunterladbare kleine kostenlose Level Halt Life 2 Lost Coast oder ein anderes altes DX9 Spiel seiner Wahl und könnte testen ob OGSSAA und SGSSAA mit Blackwell noch funktioniert?
basix
2025-02-02, 11:49:20
Was soll da bitte unerwartet sein? 5nm Wafer sollen ~15000-17000$ kosten, angeblich mit den neuesten Preiserhöhungen eher 18-20k, 2nm Wafer sollen bei 27-30000$ sein. 2nm ist kaum ein Shrink von 3nm. Pro Transistor wirst du also mit mindestens 50% Mehrkosten pro Transistor bei 2nm rechnen müssen.
Entweder steigen also die Preise oder die Chips werden kleiner.
Ich habe keine Ahnung, woher diese Preise jeweils kommen. Aber es gibt auch Werte um 12k$ rum für 5nm (ohne Preiserhöhung) und Leute wie Daniel Nenni (confirmed Insider) die selbst diese Wafer-Preise als zu hoch bezeichnen:
https://www.3dcenter.org/news/news-des-27-juni-2023
Ergo:
All diese Wafer-Preise werden schlicht falsch sein. Auf diese Analysten Reports würde ich also nicht allzu viel geben.
ChaosTM
2025-02-02, 12:03:48
5080 -> 5090 ist kein Upselling. Das ist einfach Produktsegmentierung. Upselling ist mehr 5070 -> 5070TI, wo man 4GB mehr Speicher und mehr 20% oder so mehr Leistung für 200€ Aufpreis erhält. Sieht eindeutig besser aus.
ist kein normales Upselling, weil es schon fast an Betrug grenzt.
Upupselling ^^
readonly
2025-02-02, 13:00:47
Wie jetzt? Angedachte 8k? Bist du auf nem LSD Trip? :freak:
Kurz, ja isser. Zur Erheiterung empfehle ich den 8k Thread.
Dovregubben
2025-02-02, 14:57:12
All diese Wafer-Preise werden schlicht falsch sein. Auf diese Analysten Reports würde ich also nicht allzu viel geben.
Am Ende bleibt jedoch, dass alle in der Kette ihre Marge erhöhen und ein Prozess heute auch nicht mehr günstiger wird, wenn R&D abgeschrieben ist, sondern eher teurer.
TSMC ist inzwischen bei fast 60% Marge angekommen und Nvidia bei um die 50%. Solche Werte sind in einem gesunden Markt einfach nicht möglich.
Daredevil
2025-02-02, 14:57:51
Du verwechselst den technischen Stand und genutzter Standard.
Das möglichst machbare und auch lieferbare ist heute 8K, wieso sollte dies also nicht der technische Stand sein? Es ist durchaus schon über den "Bei der IFA haben wir 8K 200" Screens" Status hinaus. Es ist natürlich nicht Massenmarktreif, aber du kannst dir je nach Angebot für 5-10k nen 77" 120Hz OLED 8K Fernseher holen und hast damit vermutlich das beste Bild der nächsten 10 Jahre. Wenn man das gleiche Modell abseits der Auflösung auch für 2K bekommt in "nur 4K", ist das natürlich immer noch der bessere Deal, weil es an Leistungsfähigkeit UND Content mangelt aktuell. Ich würde 8K aber nicht dem technischen Stand abschreiben. Es mangelt beim Gaming an Leistungsfähigkeit und bei der Streaming Anbietern an Courage, aber möglich ist heute sehr viel, wenn man will.
In Japan wird übrigens bereits seit 2018 in 8K gesendet für hochwertigen Content. Dont blame the Fernseher, blame the Infrastruktur.
✅ Auflösung: 8K (7.680 × 4.320 Pixel)
✅ Bildrate: 60 oder 120 fps
✅ Farbtiefe: 10 Bit mit HDR (Hybrid Log Gamma, HLG)
✅ Audio: 22.2-Kanal-Surround-Sound
✅ Übertragung: Per Satellit (BSAT-4a), nicht per Kabel oder Internet
Der "Mainstream" iMac hat ne 4.5K Auflösung, das StudioDisplay ist bei 5K und das ProDisplay bei 6K.
Ich würde natürlich nicht die extreme Meinung von Gouvernator einnehmen wollen, aber auch nicht die Entwicklung verleugnen, wo wir uns stetig weiter hinbewegen.
4K ist heute einfach nichts besonderes mehr und schon gar nicht "HighEnd". Deswegen müssen sich Monitor Hersteller ja jedes Jahr 200 Nits aus dem Ärmel schütteln und Features implementieren, die kein Schwein interessieren, weil sie eben auf die 8K Infrastruktur warten, damit sie wirklich in hohem Volumen herstellen können.
Fernseher stehen doch schon länger auf der Stelle und PC Monitore sind nochmal um längen weiter hinten. Da ist ja jetzt gerade mal so OLED angekommen, was Fernseher schon bezahlbar vor Jahren hatten. Heute freut man sich über nen 32" OLED Gaming Monitor für 700€, während ich auf meinen 55" OLED Fernseher blicke, den ich vor 5 Jahren für 1000€ gekauft habe. Die totale Schröpfung der Gaming Community. :D
PS: VR Headsets wollen auch Pixel, da muss noch ne Menge gehen und neue Technologien entwickelt werden.
AffenJack
2025-02-02, 15:10:57
Ich habe keine Ahnung, woher diese Preise jeweils kommen. Aber es gibt auch Werte um 12k$ rum für 5nm (ohne Preiserhöhung) und Leute wie Daniel Nenni (confirmed Insider) die selbst diese Wafer-Preise als zu hoch bezeichnen:
https://www.3dcenter.org/news/news-des-27-juni-2023
Ergo:
All diese Wafer-Preise werden schlicht falsch sein. Auf diese Analysten Reports würde ich also nicht allzu viel geben.
Es ist egal, ob es von 17000 oder 14000 ausgeht, das relevante ist, dass wir zu 3nm und 2nm riesige Steigerungen gibt. Dann sind es nur 25000$, ist trotzdem über 50% teurer pro Wafer und teurer pro Transistor. Daher jeder größere Chip wird sofort teurer.
Abgesehen davon. 12000 war eine Vorraussage aus deinem Link, die ganz offensichtlich nicht eingetroffen ist. TSMC hat wohl 2024 und 2025 jeweils Preise erhöht. Unter anderen Umständen wäre das vielleicht eingetroffen, aber mit dem aktuellen Boom hat sich das erledigt.
basix
2025-02-02, 15:26:23
Am Ende bleibt jedoch, dass alle in der Kette ihre Marge erhöhen und ein Prozess heute auch nicht mehr günstiger wird, wenn R&D abgeschrieben ist, sondern eher teurer.
TSMC ist inzwischen bei fast 60% Marge angekommen und Nvidia bei um die 50%. Solche Werte sind in einem gesunden Markt einfach nicht möglich.
Im Halbleiter Business sind ~40...50% Brutto Marge schon lange gang und gäbe und normal.
TSMC hatte ihr Gross Margin Peak bei ~60% H1/2023 und ist jetzt wieder bei ~55%. Die waren auch schon vor Covid nahe an den 50% dran. Und bei Nvidia bist du weit weg, die sind bei ~75% ;) DAS ist nicht normal.
https://www.macrotrends.net/stocks/charts/TSM/taiwan-semiconductor-manufacturing/gross-margin
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/profit-margins
Es ist egal, ob es von 17000 oder 14000 ausgeht, das relevante ist, dass wir zu 3nm und 2nm riesige Steigerungen gibt. Dann sind es nur 25000$, ist trotzdem über 50% teurer pro Wafer und teurer pro Transistor. Daher jeder größere Chip wird sofort teurer.
Abgesehen davon. 12000 war eine Vorraussage aus deinem Link, die ganz offensichtlich nicht eingetroffen ist. TSMC hat wohl 2024 und 2025 jeweils Preise erhöht. Unter anderen Umständen wäre das vielleicht eingetroffen, aber mit dem aktuellen Boom hat sich das erledigt.
Klar, es wird teuerer. Aber bitte nicht von irgendwie 20k$ ausgehen und dann meinen, ein GB202 kostet 300$ bei 70 Stück / Wafer. Das wird einfach nicht stimmen = Zu viel. Und genau solche Zahlen liest man im Internet. Dazu, dass 32GB GDDR7 ebenfalls 300$ kostet (was noch absurder ist) und die 5090 deswegen insgesamt irgendwie 1000$ in der Herstellung kostet. Das verzerrt die Wahrnehmung, was es kosten darf, enorm. Bei 1000$ Herstellungskosten sind Margen von Nvida, AIBs und Händlern noch nicht mal einkalkuliert, das passt einfach nicht zusammen.
Meine (bescheidene) grobe Abschätzung ist ca. 500$:
- GB202 = 200$
- 32GB GDDR7 = 100...150$
- PCB und Kühler = 100...150$
Der Rest sind dann Margen für die Beteiligten. Vielleicht ist es auch etwas mehr, wer weiss. Fakt ist jedenfalls, dass Nvidia sehr gut und vermutlich "zu gut" an den Karten verdient. 1500$ MSRP wäre vermutlich immer noch mit einer guten Marge für alle drin liegen.
MiamiNice
2025-02-02, 16:17:37
Das möglichst machbare und auch lieferbare ist heute 8K, wieso sollte dies also nicht der technische Stand sein?
Dass der technische Standard 8k ist, bestreite ich nicht. Meine Aussage ging in die Richtung, dass 8k nicht der verwendete Standard ist. Die 5000er Serie wurde also nicht speziell für 8k entwickelt.
Ich weiß um die anderen Umstände (Japan, iMac, Studio, Oled). Trotzdem würde ich gerne wissen, was unser Gouverneur einwirft. Das könnte mich ggf. auch interessieren :biggrin:
€:
Mindfactory jetzt 2x 5800 zu 1499€
Ventus 3X WHITE
und weg xd
basix
2025-02-02, 16:40:32
Ich würde "Standard" etwas anders definieren als ihr :D
Standard und Stand der Technik sind zwei verschiedene Dinge. 8K könnte man letzterem zuordnen aber bei 240Hz ist das immer noch 4K.
Standard wäre eher so 1440p/144Hz oder allenfalls noch 4K/144Hz.
Der Begriff "Stand der Technik" kommt zwar eher aus dem rechtlichen Gebiet aber trifft es ziemlich gut:
- Standard ist der unterste Block (das was ein Grossteil der Leute nutzt oder kauft)
- Stand der Technik ist der mittlere (das was aktuell möglich ist und kaufbar ist)
- Forschung / Prototypen sind die Spitze der Pyramide (Zukunft)
https://www.peterjohann-consulting.de/_images/peco-sys-drei-technologiestaende-pyramide-xl.png
Gouvernator
2025-02-02, 16:42:31
Dass der technische Standard 8k ist, bestreite ich nicht. Meine Aussage ging in die Richtung, dass 8k nicht der verwendete Standard ist. Die 5000er Serie wurde also nicht speziell für 8k entwickelt.
Ich weiß um die anderen Umstände (Japan, iMac, Studio, Oled). Trotzdem würde ich gerne wissen, was unser Gouverneur einwirft. Das könnte mich ggf. auch interessieren :biggrin:
€:
Mindfactory jetzt 2x 5800 zu 1499€
Ventus 3X WHITE
und weg xd
Ich hab mein 8k schon seit über 5 Jahren. Das sind zeitliche Dimensionen von Nokia 3010 zum Iphone. Es ist doch nicht meine Schuld, wenn 8k für irgendwelche rustikal veranlagte User noch immer nach Zukunfts-High-End klingt. ;D
Ich muss manchmal PC bei einem Rentner betreuen, der kennt nicht mal 4k und druckt seine Fotos mit 20 Jahre alten Canon, die er mit seiner 15 Jahre alten Kamera knipst. Das ist ~ euer Geisteszustand auf 8k bezogen.
Schade ist nur das NV/AMD diese Rückständigkeit melken und ausnutzen.
basix
2025-02-02, 16:47:24
Ich hätte gerne 8K, kommt aber momentan mit zu vielen Einschränkungen daher:
- OLED?
- 240Hz? DP2.1 / HDM2.2 Support sind da ebenfalls zu nennen
- Variable Refresh Rate?
- 32"?
- GPU-Performance?
- Preis des Monitors?
Die User Experience ist bei 4K/144...240Hz momentan unter dem Strich einfach besser. Auflösung ist nur ein Aspekt eines Monitors.
Zossel
2025-02-02, 16:52:57
Schade ist nur das NV/AMD diese Rückständigkeit melken und ausnutzen.
Alles klar, das man nicht mehr Transen auf einem Chip unterkriegt ist eine Verschwörung von NV und AMD.
Erzähl uns bitte mehr von deinem Youtube Onkel.
w0mbat
2025-02-02, 17:13:40
Meine (bescheidene) grobe Abschätzung ist ca. 500$:
- GB202 = 200$
- 32GB GDDR7 = 100...150$
- PCB und Kühler = 100...150$
Ein 32Gbps 2GB GDDR7 chip kostet aktuell ca. $20, da nur Samsung und auch nur in limitierten Stückzahlen liefern kann. 16 chips sollten also deutlich über $100-150 liegen.
Ist wie bei HBM. Da ist der Aufpreis von den „zweitbesten“ auf die besten chips zum Teil >100%.
Kriegsgeier
2025-02-02, 17:50:30
irgendwie kann ich kaum glauben, dass NVIDIA für den Chip unter 300$ an TSMC zahlt.
Speicher wird auch bei mehr als 200$ liegen.
PCB mit 14 Lagen + Kühler nur bis 150$? Ne, eher 250-300$
ChaosTM
2025-02-02, 17:56:01
Wir können nur raten, aber solch große Chips werden wir nicht mehr sehen (im Gaming Bereich) weil "dumm".
Chiplet Design incoming
reaperrr
2025-02-02, 18:14:54
Klar, es wird teuerer. Aber bitte nicht von irgendwie 20k$ ausgehen und dann meinen, ein GB202 kostet 300$ bei 70 Stück / Wafer. Das wird einfach nicht stimmen = Zu viel.
Was du dabei aber vergisst:
Bei einem ~750mm² Chip mit voll aktiviertem 512bit SI wird die Ausbeute 5090-fähiger Chips nicht bei 93% liegen.
Für die 5090 ist jeder GB202 unbrauchbar, bei dem
- die GigaThreadEngine in der Mitte
- der/einer der DisplayController
- einige PCIe-Lanes
- mehr als 1 GPC/ROP-Block
- mehr als 6 SM in den aktiven GPCs
- ein Teil des SIs
- einer der Speichercontroller
- zu viele Encoder/Decoder
- irgendeine entscheidende Verbindung zwischen den Blöcken
defekt ist.
Zumal die besten Chips mit >=184 funzenden SM und vollem 128MB L2 für die nächste Profi-RTX 6000 Blackwell Gen reserviert werden dürften.
Natürlich sind die Margen bei NV auch im Desktop ziemlich gut, aber die richtig fette Kohle machen sie prozentual eher mit den mobilen GPUs (wegen komplett fehlender ernsthafter Konkurrenz und weil sie dort kleinere GPUs zu ähnlichen Preisen verkaufen können), RTX (Quadros) und HPC.
Da kommt Nvidia's irrsinnige Marge eher her, die im Desktop wird gut aber moderater sein.
OK, außer vielleicht bei der 4060 Ti, weil >400€ für ne 190mm² GPU und 8GB 18Gbps-G6 sind ein absolut schlechter Witz.
Nvidia verdient an vier 4060Ti wahrscheinlich mehr als an einer 5090. Der Schrott ist leider ne Gelddruck-Maschine.
MiamiNice
2025-02-02, 18:25:56
Es ist doch nicht meine Schuld, wenn 8k für irgendwelche rustikal veranlagte User noch immer nach Zukunfts-High-End klingt. ;D
Gouvi, schau mal oben links auf das Logo der Webseite. Das ist hier nicht das Prad.de Forum, in dem man mit dem 8k TV zu den coolen Leuten zählt. Du bist hier ist einem PC Hardware Forum :smile: Großteil der User ist hier im mittleren Alter und finanziell unabhängig. :freak: Und trotzdem haben hier ziemlich alle einen 4k OLED mit 120 - 240 Hz auf Tisch. Nur Du nicht :tongue: Rustikal ;D:freak:
ENKORE
2025-02-02, 21:21:42
Klingt nach der Definition von Upselling (https://de.wikipedia.org/wiki/Upselling). Ich habe ja inzwischen schon einige Launches mitgemacht und bei Lovelace würde ich dir z.B. zustimmen. Da war die 4080 ggü der 4090 brutal unattraktiv. Bei Ampere war die 3080 trotz 10GB für viele eine Alternative zur 3090.
Aktuell trifft die 5080 mit 16GB und vollem Feature-Set einen Sweetspot für alle die noch auf älteren Grafikkarten unterwegs sind. Selbst in einem Intel oder AM4 System mit DDR4, PCIE4 und 5700/5800x3D wird die hervorragend funktionieren. Von einer 2000er oder 3000er GeForce kommend ist das ein brutales Upgrade.
Ist es das? Die 30xxer unterscheiden sich ja bzgl. AI-Features wenig von den 50ern. Von einer 3080 zu einer 5080 reden wir von was, +70% Performance? In fünf Jahren? "Brutales Upgrade" fällt mir da nicht unbedingt als erstes ein. Zu der preislich eher passenden 5070 Ti sind wir dann ... wo? Noch über +50% oder schon drunter?
Palpatin
2025-02-02, 22:20:05
Von einer 3080 zu einer 5080 reden wir von was, +70% Performance? In fünf Jahren? "Brutales Upgrade" fällt mir da nicht unbedingt als erstes ein.
Sind eher 100%.
https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/3/
~90% im Raster
~115% im RT Index.
Dazu kommen VRAM Probleme in einigen Titeln.
Aber gut eine 4080S die problemlos für 1100€ vor einem Jahr am release Tag verfügbar war wäre da auch schon ein "beinahe Brutales Upgrade" :biggrin: gewesen.
Gouvernator
2025-02-03, 05:01:43
Lol, sogar Edward Snowden hat sich mittlerweile eingeschaltet. Und bezeichnet Nvidias 16Gb Kastraten als F-Tier.
https://www.notebookcheck.com/Edward-Snowden-bezeichnet-Nvidia-als-F-Tier-wegen-geringem-VRAM-von-RTX-5080-und-RTX-5090.955758.0.html
Zossel
2025-02-03, 05:43:55
Lol, sogar Edward Snowden hat sich mittlerweile eingeschaltet. Und bezeichnet Nvidias 16Gb Kastraten als F-Tier.
https://www.notebookcheck.com/Edward-Snowden-bezeichnet-Nvidia-als-F-Tier-wegen-geringem-VRAM-von-RTX-5080-und-RTX-5090.955758.0.html
Kommt man an so was in Russland wg. Sanktionen überhaupt ran? (Ausnahmen bestätigen auch hier die Regel)
Hakim
2025-02-03, 05:55:25
Wenn die Russen an den Cybertruck ran kommen der nicht mal in Europa draußen ist, werden Grafikkarten kein Problem sein
Zossel
2025-02-03, 06:20:38
Wenn die Russen an den Cybertruck ran kommen der nicht mal in Europa draußen ist, werden Grafikkarten kein Problem sein
Welchen Teil zwischen den Klammern hast du nicht verstanden?
Hakim
2025-02-03, 06:33:33
Alle die es sich leisten können bekommen auch dort eine Karte wenn überhaupt was lieferbar ist, besser? Darüberhinaus kann jeder Mensch, egal wo er sich befindet und Sanktionen hin oder her, sich ein Urteil über die Situation erlauben.
Gouvernator
2025-02-03, 09:02:22
Kommt man an so was in Russland wg. Sanktionen überhaupt ran? (Ausnahmen bestätigen auch hier die Regel)
So wie in D wenn einer verbotene Kreuze und grünes Blut nicht sehen will, zahlt etwas mehr Versandkosten aus Österreich und der Schweiz. Die Russen holen sich ihre Coca-Cola und Grafikkarten aus z.B. Kasachstan. Bin jetzt kein Experte aber es kostet denen quasi nur Versand+Zoll+Steuer.
PS.
Und natürlich kein Garantieanspruch.
Dural
2025-02-03, 09:19:36
Soso die 5080 hat ein schlechtes Preisleistungsverhältnis.
Rechnen könnt ihr aber schon? Die 5090 ist rund 50% schneller kostet aber 100% mehr.
Eine 5080 mit 32GB macht Null Sinn, wie so kommen diese Sinnlosen Diskussionen jedes mal?
dargo
2025-02-03, 09:31:16
Soso die 5080 hat ein schlechtes Preisleistungsverhältnis.
Rechnen könnt ihr aber schon? Die 5090 ist rund 50% schneller kostet aber 100% mehr.
Wir schon, du offenbar nicht. Das P/L einer 5090 (auf dem Papier noch dazu) als Basis zu nehmen, so viel kann man gar nicht rauchen. X-D Das "beste" P/L wird die 5070TI haben. Nur fürchte ich auch hier nur auf dem Papier wenn Lederjacke nicht genug produziert. Es ist immer noch der "große" GB203. Wenn die Stückzahlen immer noch viel zu niedrig sind wirst du kaum eine 5070TI unter 1.000€ Straßenpreis sehen. Für den Gaming-Markt nichts weiter als Stagnation.
Fragman
2025-02-03, 09:56:05
Kommt man an so was in Russland wg. Sanktionen überhaupt ran? (Ausnahmen bestätigen auch hier die Regel)
Naja, China soll angeblich auch 50K GPU's haben die niemand dorthin hätte exportieren dürfen.
(Nach dem aktuellen Paperlaunch ist so eine Zahl nochmal eine andere Nummer. :D)
w0mbat
2025-02-03, 12:21:24
China hat viele GPUs noch vor den Restriktionen gekauft. H800 konnte man noch viel länger kaufen, die haben gleich viel compute wie ne H100. Und man kann immer noch H20er kaufen.
Platos
2025-02-03, 15:47:14
Recht hat der. 32GB für ne 5090 ist ein Witz. Eig. sollte sie mindestens 48GB haben und die RTX 5080 mindestens 24GB. Im Grunde ist die 5080 preislich gesehen ja eher eine RTX 5080Ti (Listenpreis). Von Daher sollte man eig. eher 32GB erwarten.
16GB sollte eher eine RTX 5060 haben. Wir hatten schon vor 4 Jahren 12GB für ne RTX 3060 und jetzt gibts mit der RTX 5060 wieder nur 8GB (natürlich gibts dann wieder ne überteuerte 16GB Variante).
Und dann hält Jensen noch bewusst Chips zurück, so dass Knappheit herrscht. Man müsste wirklich mal solche Machenschaften unterbinden und bestrafen.
Wir schon, du offenbar nicht. Das P/L einer 5090 (auf dem Papier noch dazu) als Basis zu nehmen, so viel kann man gar nicht rauchen. X-D Das "beste" P/L wird die 5070TI haben. Nur fürchte ich auch hier nur auf dem Papier wenn Lederjacke nicht genug produziert. Es ist immer noch der "große" GB203. Wenn die Stückzahlen immer noch viel zu niedrig sind wirst du kaum eine 5070TI unter 1.000€ Straßenpreis sehen. Für den Gaming-Markt nichts weiter als Stagnation.
Naja, also gerade jetzt siehts ja eher nach Rückschritt und nicht "nur" nach Stagnation aus. Die 5080 kostet ja mehr, wie ne 4090 zu manchen Zeiten und ist langsamer + weniger Speicher.
Naja, kurz gesagt: Nicht kaufen, so einfach ist das. Mache ich auch so (bzw. gebraucht kaufen zu günstigen Preisen).
Dural
2025-02-03, 16:09:35
Was hat meine Aussage bitte schön mit der 5070 zu tun?
Gibt es überhaupt GDDR7 Speicher Chips mit der nötigen Geschwindigkeit mit 16 GiBit? Ich bezweifle es!
Sardaukar.nsn
2025-02-03, 17:59:46
Computerbase testet die 5090 mit diversen, auch älteren CPUs.
So wird ComputerBase-Autor Volker Rißka RTX 5090 und RTX 4090 auf einem Ryzen 7 5800X3D im GPU-Limit gegeneinander antreten lassen und die Frage beantworten: Wie viel bleibt vom durchschnittlichen Leistungszuwachs von 24 Prozent in UHD, der auf einem Ryzen 7 9800X3D im GPU-Testparcours erzielt worden ist?
Und ComputerBase-Leser Esenel hat Ryzen 7 9800X3D und Intels Gaming-Flaggschiff Core i9-14900K mit maximalem RAM-OC gegeneinander antreten lassen und damit eine Antwort auf die Frage geliefert, welcher der beiden Prozessoren die beste High-End-Gaming-PC-Basis ist.
Teil 1 ist schon da: https://www.computerbase.de/artikel/prozessoren/9800x3d-14900k-ram-oc-test.91020/
Kriegsgeier
2025-02-04, 06:25:48
so, habe mich entschieden dennoch einfach auf eine gebrauchte 4090, die schon einen WaKü-Block drauf hat von meiner 3090 umzusteigen.
Hatte ein Angebot, das ich nicht ablehnen konnte ;)
Zossel
2025-02-04, 07:11:54
Von der Schweiz lernen heißt siegen lernen:
"Das Thema Scalping ist auf unserem Willhaben-Marktplatz kein häufig auftretendes Thema für unsere NutzerInnen." Das Unternehmen positioniert sich als neutrale Plattform, die Käufer und Verkäufer zusammenbringt.
https://www.derstandard.at/story/3000000255770/an-alle-die-rumweinen-herr-klaus-und-die-5000-euro-grafikkarte
basix
2025-02-04, 07:27:51
Ja, das Problem wird man nicht mehr wegbekommen. Ist bei allem knappen und begehrten Gut so, da oftmals schlicht risikofrei (=man bekommt die Sache mindestens zum Einkaufspreis wieder weg).
Im Artikel schlagen sie noch vor, dass es für einige Sachen dann keine UVP mehr braucht. Für die 10k$ Handtasche ist das evtl. egal, aber für die allermeisten Dinge ist eine UVP sinnvoll. Weil dann kann man als Konsument abschätzen, ob man überteuerte Preise bezahlt oder nicht. Marktpreise werden durch das nicht unbedingt tiefer, aber es hilft dennoch.
Dass momentan 5090 für 5000$ weggehen, darf man auch nicht auf den allgemeinen Markt anwenden. Es wird immer ein paar wenige geben, die einfach massig Kohle haben und denen der erhöhte Preis schlicht egal oder akzeptierbar ist. Das ist aber eine sehr, sehr kleine Minderheit.
Zossel
2025-02-04, 07:57:18
Ja, das Problem wird man nicht mehr wegbekommen. Ist bei allem knappen und begehrten Gut so, da oftmals schlicht risikofrei (=man bekommt die Sache mindestens zum Einkaufspreis wieder weg).
Im Artikel schlagen sie noch vor, dass es für einige Sachen dann keine UVP mehr braucht. Für die 10k$ Handtasche ist das evtl. egal, aber für die allermeisten Dinge ist eine UVP sinnvoll. Weil dann kann man als Konsument abschätzen, ob man überteuerte Preise bezahlt oder nicht. Marktpreise werden durch das nicht unbedingt tiefer, aber es hilft dennoch.
Dass momentan 5090 für 5000$ weggehen, darf man auch nicht auf den allgemeinen Markt anwenden. Es wird immer ein paar wenige geben, die einfach massig Kohle haben und denen der erhöhte Preis schlicht egal oder akzeptierbar ist. Das ist aber eine sehr, sehr kleine Minderheit.
Und besonders bigott dabei ist das es als normal akzeptiert wird wenn Lederjacke und seine Shareholder Monopolgewinne aufrufen, aber wenn das Fritze Müller tut ist das total böse und verwerflich.
Dimon
2025-02-04, 08:13:10
An sich ist ja das ganze nicht verwerflich, jeder kann die Preise für seine ware aufrufen die er will.
Problematisch wird es wohl nur wenn der Hersteller eine künstliche verknappung herbeiführt oder eben shops links früher freischalten als erlaubt, hier müsste man ansetzen, scalper zu hassen führt zu nix, die sind nur ein Phänomen...
Grüsse
Zossel
2025-02-04, 08:23:15
oder eben shops links früher freischalten als erlaubt
Welches deutsche Gesetz verbietet das?
OgrEGT
2025-02-04, 08:24:14
Weiß gar nicht wer so blöd ist ein so teures Produkt für mehrere Tausend Euro auf Ebay ohne Support und Garantie zu kaufen... scheinbar so viele dass sich das leider immer noch lohnt... warum kann man nicht einfach ein paar Wochen warten bis die Grafikkarten halbwegs zu normalen Preisen im Handel verfügbar sind...
Cubitus
2025-02-04, 08:38:13
so, habe mich entschieden dennoch einfach auf eine gebrauchte 4090, die schon einen WaKü-Block drauf hat von meiner 3090 umzusteigen.
Hatte ein Angebot, das ich nicht ablehnen konnte ;)
Mit der 4090 machst du nichts verkehrt :)
dargo
2025-02-04, 08:41:57
Weiß gar nicht wer so blöd ist ein so teures Produkt für mehrere Tausend Euro auf Ebay ohne Support und Garantie zu kaufen... scheinbar so viele dass sich das leider immer noch lohnt... warum kann man nicht einfach ein paar Wochen warten bis die Grafikkarten halbwegs zu normalen Preisen im Handel verfügbar sind...
Da sind viele Junkies bei. ;)
robbitop
2025-02-04, 09:05:56
Mit der 4090 machst du nichts verkehrt :)
Bis auf dass man die zum gleichen Preis seit >2 Jahren hätte haben können. Das würde mich psychologisch total anfressen.
Heute hat man leider offenbar keine Wahl mehr. Gleich nach dem Launch zur Verfügbarkeit kaufen. Sparen tut man offenbar praktisch eh nicht mehr später - auch 2nd Hand nicht mehr seit Blackwell (im Falle der Ada Serie dann). X-D
Kriegsgeier
2025-02-04, 09:12:10
Ja, das stimmt schon was du sagst. Habe es schon mal thematisiert, dass ich mit Amperegeneration mit meiner 3090 eher auf falsche Gen. gesetzt habe. Plus kommt dazu, dass ich die 3090Fe direkt auf WaKü umgebaut habe. Und den Kreislauf trennen usw. ist mit viel Aufwand verbunden - daher habe ich mir geschworen auf keine ADA umzusteigen und erst bei der nächsten Generation zu zuschlagen.
Nach vielem Überlegen ist es doch noch eine gebrauchte 4090 @ WaKü-Block für 1600€ geworden.
8GB mehr als bei der 5080 haben hier den Ausschlag gemacht.
Hätte auch gerne eine 5090 aber mit meiner Auflösung von 3440x1440 wäre es wahrscheinlich sowieso etwas überdimensioniert.
Habe auch noch vor kurzem erst einen schönen WOLED Monitor für 1000€ gekauft.
Ich glaube diese Kombo ist besser: 1600€ + 1000€ = 2600€ als eine 5090 für runde 3000€
MiamiNice
2025-02-04, 09:27:26
Heute hat man leider offenbar keine Wahl mehr. Gleich nach dem Launch zur Verfügbarkeit kaufen. Sparen tut man offenbar praktisch eh nicht mehr später - auch 2nd Hand nicht mehr seit Blackwell (im Falle der Ada Serie dann). X-D
Imo sollte man sich darauf nicht verlassen. Die Spirale kann nicht ewig weiter gehen, siehe Kriegsgeier und viele andere. Dazu kommt vermutlich bald MCM und mit der nächsten Gen. auch eine neue Fertigung. Der Leistungssprung wird enorm sein und ggf., durch kleinere Chips, der Preis fallen.
robbitop
2025-02-04, 09:29:17
Copium? ^^
Ja denke auch, dass bei der nächsten Gen dank N3 schon mehr rumkommen wird. Aber wahrscheinlich nicht wesentlich mehr Perf/EUR (in realen Straßenpreisen).
Dimon
2025-02-04, 09:34:09
Welches deutsche Gesetz verbietet das?
Das meinte ich nicht, das sollte nvidia tun, diesen shop sanktionieren falls denen an ihrer Reputation was liegt :)
Ist halt achade das sowas passiett...
dargo
2025-02-04, 10:01:38
Bis auf dass man die zum gleichen Preis seit >2 Jahren hätte haben können. Das würde mich psychologisch total anfressen.
Heute hat man leider offenbar keine Wahl mehr. Gleich nach dem Launch zur Verfügbarkeit kaufen. Sparen tut man offenbar praktisch eh nicht mehr später - auch 2nd Hand nicht mehr seit Blackwell (im Falle der Ada Serie dann). X-D
Ja... bei Nvidia trifft das zu. ;)
Imo sollte man sich darauf nicht verlassen. Die Spirale kann nicht ewig weiter gehen, siehe Kriegsgeier und viele andere. Dazu kommt vermutlich bald MCM und mit der nächsten Gen. auch eine neue Fertigung. Der Leistungssprung wird enorm sein und ggf., durch kleinere Chips, der Preis fallen.
Träum weiter. :tongue: Der Leistungssprung wird mit hoher Wahrscheinlichkeit etwas besser sein (wobei das noch nicht mal sicher ist wenn NV bei der 6090 wieder Richtung ~600mm² geht), Perf/€ eher nicht bzw. nur minimal.
Bis auf dass man die zum gleichen Preis seit >2 Jahren hätte haben können. Das würde mich psychologisch total anfressen.
Heute hat man leider offenbar keine Wahl mehr. Gleich nach dem Launch zur Verfügbarkeit kaufen. Sparen tut man offenbar praktisch eh nicht mehr später - auch 2nd Hand nicht mehr seit Blackwell (im Falle der Ada Serie dann). X-D
Ich meine, es war im Sommer 2023, als die RTX 4090 phasenweise an der 1.500-Euro-Marke gekratzt hat. Das waren die besten Deals, allerdings von kurzer Dauer. Da hat sich das Warten zumindest einmal gelohnt, wenn man Glück hatte ...
MfG
Raff
woodsdog
2025-02-04, 10:06:59
Ja... bei Nvidia trifft das zu. ;)
Ach, wird das bei AMD diese Gen anders sein? :rolleyes:
Aha
dargo
2025-02-04, 10:27:59
Bei manchen wahrscheinlich nicht. ;D Aber erstmal abwarten wo die Straßenpreise von N48 liegen werden. ;)
The_Invisible
2025-02-04, 10:44:14
Ich meine, es war im Sommer 2023, als die RTX 4090 phasenweise an der 1.500-Euro-Marke gekratzt hat. Das waren die besten Deals, allerdings von kurzer Dauer. Da hat sich das Warten zumindest einmal gelohnt, wenn man Glück hatte ...
MfG
Raff
Schätze wird diese Gen ähnlich sein. Im Sommer kaufen dürfte wohl am günstigsten sein, wenns wieder kalt wird ist es zu spät.
MiamiNice
2025-02-04, 10:55:21
Copium? ^^
Ja denke auch, dass bei der nächsten Gen dank N3 schon mehr rumkommen wird. Aber wahrscheinlich nicht wesentlich mehr Perf/EUR (in realen Straßenpreisen).
Es muss mehr Perf/EUR her, da sonst immer weniger Leute kaufen können. Klar kann man argumentieren, dass NV ein KI Unternehmen ist, sie nicht auf Gamer angewiesen sind und es dank nicht vorhandener Konkurrenz mit dem Ruf auch vollkommen egal ist. Nichts desto trotz, so lange NV Karten für Gamer herstellt, unter welchen Umständen auch immer, will NV die auch verkaufen. Die Preise können nicht ewig so weiter steigen, NV läuft sonst in ein Absatzproblem.
Dural
2025-02-04, 11:07:04
Noch einmal, NV zeigt es mit der Serie 5000 das es halt nach wie vor funktioniert. Die Leute kaufen wie blöd und sind bereit fast jeden Betrag zu zahlen.
AMD ist überhaupt nicht in der Position. Wobei sie bei CPUs mittlerweile auch wieder recht zulangen.
Dank KI haben wir einen alten Herstellungsprozess, dank KI haben wir eine GB202 Auslegung die kaum noch was mit Gaming zu tun hat.
Die meisten haben offensichtlich den Knall noch nicht gehört? Die Zeiten wo Silizium "verschenkt" wurde sind lange vorbei, und werden auch lange nicht mehr wieder kommen.
Bei NV werden jeden Tag "Goldbaren" für Chips abgeladen, was für Prioritäten werden sie wohl haben...
Badesalz
2025-02-04, 11:11:38
Es muss mehr Perf/EUR her, da sonst immer weniger Leute kaufen können.Das ist ein P/L. Am Ende steht aber auch einfach die absolute Zahl in €. Summen die man investieren müsste, egal wieviel man dafür bekommt. Und das sind mittlerweile irrsinnige Regionen.
Leider der Untergang. Man melkt den letzten Rest jetzt ab. Danach ist Sense.
@Dural
Ja das wäre schon interessant, wenn du jetzt die Zahlen hättest, welche Stückzahlen im ersten Monat von den 4000er und den 5000er ausgeliefert wurden und wie entsprechend die Verkaufszahlen (Endkunde) aussehen. Hätte auch direkt etwas damit zu tun was du da einfach so vom Pferd erzählst.
Fragman
2025-02-04, 11:24:20
Der Leistungssprung wird enorm sein und ggf., durch kleinere Chips, der Preis fallen.
Fallende Preise widersprechen der Marktlogik.
Aber wir können gern die flächige Verfügbarkeit der 50ziger Gen abwarten.
Nv wird den Weg, kleine Chips hochzustufen, weiter betreiben.
Als 6080 bekommen wir dann eigentlich eine 6060, um den Startpreis zu halten und Jensen wird diesen auf der Bühne feiern.
Schauen wir mal wenn sich nv trauen wird den 204 Chip auf eine xx80 zu packen.
Mit einem MCM Design ist es dann nur 1 Chip drauf während die 90ziger 3 davon verbaut hat um auch gleich die Ziffer vor den 3 Nullen beim Startpreis zu definieren und die Monate, die es nach Release braucht bis man sie kaufen kann. ;D
The_Invisible
2025-02-04, 11:29:38
Noch einmal, NV zeigt es mit der Serie 5000 das es halt nach wie vor funktioniert. Die Leute kaufen wie blöd und sind bereit fast jeden Betrag zu zahlen.
AMD ist überhaupt nicht in der Position. Wobei sie bei CPUs mittlerweile auch wieder recht zulangen.
Dank KI haben wir einen alten Herstellungsprozess, dank KI haben wir eine GB202 Auslegung die kaum noch was mit Gaming zu tun hat.
Die meisten haben offensichtlich den Knall noch nicht gehört? Die Zeiten wo Silizium "verschenkt" wurde sind lange vorbei, und werden auch lange nicht mehr wieder kommen.
Bei NV werden jeden Tag "Goldbaren" für Chips abgeladen, was für Prioritäten werden sie wohl haben...
NV verdient durch die Scalperpreise genau gar nix mehr, nur AIBs und Händler und Scalper... AMDs 9800x3d ist auch erst seit kurzem hablwegs verfügbar und gab durchweg Scalperpreise, gebracht hats AMD aber auch nichts.
Und du sagst es ja selber, die Fertigungsvorteile schwinden dahin, man muss daher nach Alternativen schauen. AI und/oder man bekommt endlich Multichip bei GPUs hin.
robbitop
2025-02-04, 11:32:56
Ich meine, es war im Sommer 2023, als die RTX 4090 phasenweise an der 1.500-Euro-Marke gekratzt hat. Das waren die besten Deals, allerdings von kurzer Dauer. Da hat sich das Warten zumindest einmal gelohnt, wenn man Glück hatte ...
MfG
Raff
Die Frage ist, was das einem wert ist, oder? Bis zum Sommer 2023 warten, wenn das Produkt im Oktober kam sind wieder ~7...8...9 Monate in der man damit nicht zocken konnte. Oder anders gesagt 1/3 der Lebensdauer des Produktes.
RoNsOn Xs
2025-02-04, 11:33:15
Verglichen mit älteren Gens pendelt die 5080 doch jetzt schon im Bereich der 70/60er herum. Der halbe Speicher zementiert das Ganze.
Günstiger wird das alles nicht mehr, das bezweifel ich ebenso. Der immer größere Aufwand Performance durch Fertigungstechnologien zu generieren wird mehr und mehr durch KI abeglöst (wie DLSS, FG jetzt schon beweisen).
robbitop
2025-02-04, 11:34:14
Es muss mehr Perf/EUR her, da sonst immer weniger Leute kaufen können. Klar kann man argumentieren, dass NV ein KI Unternehmen ist, sie nicht auf Gamer angewiesen sind und es dank nicht vorhandener Konkurrenz mit dem Ruf auch vollkommen egal ist. Nichts desto trotz, so lange NV Karten für Gamer herstellt, unter welchen Umständen auch immer, will NV die auch verkaufen. Die Preise können nicht ewig so weiter steigen, NV läuft sonst in ein Absatzproblem.
Nunja Perf/EUR steigt seit 4 Jahren oder so praktisch kaum noch bei Nvidia. Mit wenigen Ausnahmen.
Insbesondere wenn man die 3080 als Referenzpunkt nimmt.
Verglichen mit älteren Gens pendelt die 5080 doch jetzt schon im Bereich der 70/60er herum. Der halbe Speicher zementiert das Ganze.
Ist ziemlich genau der halbe Chip. Das hat man früher Geforce MX genannt und bei Pascal wäre das eine 60er SKU. Jetzt ist es eine 80er SKU für 1400 EUR X-D
RoNsOn Xs
2025-02-04, 11:37:25
Die Frage ist, was das einem wert ist, oder? Bis zum Sommer 2023 warten, wenn das Produkt im Oktober kam sind wieder ~7...8...9 Monate in der man damit nicht zocken konnte. Oder anders gesagt 1/3 der Lebensdauer des Produktes.
Sieh doch den Zeitraum "ab Kauf im Sommer" und zieh diesen bis 9 Monate nach dem nächsten Launch. :) Ich meine, die Zeiträume bestimmt ja jeder selbst für sich. Mit der alten Gen kann man dahingehend auch noch wunderbar daddeln.
Noch einmal, NV zeigt es mit der Serie 5000 das es halt nach wie vor funktioniert. Die Leute kaufen wie blöd und sind bereit fast jeden Betrag zu zahlen.
:
Bei NV werden jeden Tag "Goldbaren" für Chips abgeladen, was für Prioritäten werden sie wohl haben...
Die aktuell hohen Preise kommen bei Nvidia doch gar nicht an, das kassieren aktuell alle Händler und Scapler ab.
Matrix316
2025-02-04, 11:46:39
Sieh doch den Zeitraum "ab Kauf im Sommer" und zieh diesen bis 9 Monate nach dem nächsten Launch. :) Ich meine, die Zeiträume bestimmt ja jeder selbst für sich. Mit der alten Gen kann man dahingehend auch noch wunderbar daddeln.
Wenn man wenigstens die alte Gen noch kaufen könnte. Aber bei Geizhals gibt es eine 4080 Super für 1800 Euro bei Ebay. :freak:
Deswegen verstehe ich die Nvidia Taktik nicht. Aktuell profitieren nur Scalper und sonst verkauft Nvidia keine Karten im High End Bereich, weil es einfach keine gibt, die man kaufen könnte! :freak:
Entweder lässt man die alten weiter produzieren oder bringt von der neuen genug raus. Aber, dass gar keine (High End) Karten da sind, hilft auch Nvidia nicht. Die haben ja nix davon wenn ein Scalper 5000 Euro für eine Karte will.
dargo
2025-02-04, 12:41:35
Die aktuell hohen Preise kommen bei Nvidia doch gar nicht an, das kassieren aktuell alle Händler und Scapler ab.
Das versteht Dural einfach nicht. Der meint nur weil Straßenpreise aufgrund von Mangel an Stückzahlen in völlig absurde Höhen schießen hätte NV in der Kriegskasse was davon. :freak:
robbitop
2025-02-04, 12:57:34
Sieh doch den Zeitraum "ab Kauf im Sommer" und zieh diesen bis 9 Monate nach dem nächsten Launch. :) Ich meine, die Zeiträume bestimmt ja jeder selbst für sich. Mit der alten Gen kann man dahingehend auch noch wunderbar daddeln.
Nee so funktioniert das nicht. Weil der Referenzpunkt ja immer die neue HW ist, die man ja hätte haben können weil es ein Upgrade zur alten ist.
Zossel
2025-02-04, 13:23:54
Dank KI haben wir einen alten Herstellungsprozess, dank KI haben wir eine GB202 Auslegung die kaum noch was mit Gaming zu tun hat.
Meinst du im Ernst das sich der derzeitige Stand der Halbfertigung nur aus GPUs hätte finanzieren können?
Oder brauchst du nur ein Feindbild?
Zossel
2025-02-04, 13:27:24
Das ist ein P/L. Am Ende steht aber auch einfach die absolute Zahl in €. Summen die man investieren müsste, egal wieviel man dafür bekommt. Und das sind mittlerweile irrsinnige Regionen.
Für noch mehr Geld werden viele extrem schwachsinnige Autos verkauft.
SentinelBorg
2025-02-04, 15:15:09
Wenn man wenigstens die alte Gen noch kaufen könnte. Aber bei Geizhals gibt es eine 4080 Super für 1800 Euro bei Ebay. :freak:
Deswegen verstehe ich die Nvidia Taktik nicht. Aktuell profitieren nur Scalper und sonst verkauft Nvidia keine Karten im High End Bereich, weil es einfach keine gibt, die man kaufen könnte! :freak:
Entweder lässt man die alten weiter produzieren oder bringt von der neuen genug raus. Aber, dass gar keine (High End) Karten da sind, hilft auch Nvidia nicht. Die haben ja nix davon wenn ein Scalper 5000 Euro für eine Karte will.
Das ist wirklich die Frage. Warum ist der Wechsel zwischen den Generationen so holprig? Gab es vielleicht eine plötzliche Verzögerung bei Blackwell?
MiamiNice
2025-02-04, 15:37:26
Man hat die alten Karten früh beendet weil der HW Sprung nicht so groß aber der Preis im Vergleich höher. Kaum jemand würde eine 50 kaufen, wenn die 40iger noch breit verfügbar wären.
Badesalz
2025-02-04, 17:21:00
Für noch mehr Geld werden viele extrem schwachsinnige Autos verkauft.Nochmals mehr, derartige Häuser. Die Liste ist lang, aber am Ende ist das hier nur eine Gamergraka vs. MagicLights auf der PS5pro. Imho wird es immer enger...
Kriegsgeier
2025-02-04, 17:43:43
Sehr interessante Folien: von GTX 580 bis RTX 5080
Kriegsgeier
2025-02-04, 17:44:10
und noch 2:
Sardaukar.nsn
2025-02-04, 17:46:28
Das passt aber irgendwie nicht zu Aussage "worst 80s GPU ever".
Kriegsgeier
2025-02-04, 17:59:08
Was auffällt ist der Sachverhalt wie krass NVIDIA von einem Fertigungsprozess abhängt:
40nm --> 28nm: GTX 680
28nm --> 16nm: GTX 1080
16nm --> 8nm: RTX 3080
8nm --> 5nm (TSMCs: 4N): RTX 4080
Überraschung bei der Leistungsaufnahme: es hat sich doch nicht soooo viel getan in diesen 15 Jahren!
rentex
2025-02-04, 17:59:29
Das passt aber irgendwie nicht zu Aussage "worst 80s GPU ever".
Worst Gen ever...besser so?!
dargo
2025-02-04, 18:01:52
Was auffällt ist der Sachverhalt wie krass NVIDIA von einem Fertigungsprozess abhängt:
40nm --> 28nm: GTX 680
28nm --> 16nm: GTX 1080
16nm --> 8nm: RTX 3080
8nm --> 5nm (TSMCs: 4N): RTX 4080
Überraschung bei der Leistungsaufnahme: es hat sich doch nicht soooo viel getan in diesen 15 Jahren!
Wat? Die GTX 1080 lag bei 180W. Und eine heutige RTX 5080 ist eigentlich eine RTX 5070 unter dem falschen Namen. :lol:
Zossel
2025-02-04, 18:25:48
Was auffällt ist der Sachverhalt wie krass NVIDIA von einem Fertigungsprozess abhängt:
Warum überrascht dich das bei Numbercrunching?
Zossel
2025-02-04, 18:35:00
Klingt finster wenn sich das Ding wohl noch nicht mal mehr als PCIe-Device enumeriert:
Andere User haben nicht so viel Glück. Oft wird die Grafikkarte nicht einmal mehr beim Boot-up erkannt und es wird kein Bildsignal ausgegeben.
https://www.golem.de/news/nvidia-blackwell-treiber-machen-die-geforce-rtx-5090-kaputt-2502-193014.html
rentex
2025-02-04, 19:54:17
Meinst du im Ernst das sich der derzeitige Stand der Halbfertigung nur aus GPUs hätte finanzieren können?
Oder brauchst du nur ein Feindbild?
Das heisst immer noch "Halbleiterfertigung"...Halbfertiger ;-D
Zossel
2025-02-04, 21:09:37
Das heisst immer noch "Halbleiterfertigung"...Halbfertiger ;-D
Irgendwie sind Dies ja auch Halbzeug.
whetstone
2025-02-04, 21:17:33
Klingt finster wenn sich das Ding wohl noch nicht mal mehr als PCIe-Device enumeriert:
https://www.golem.de/news/nvidia-blackwell-treiber-machen-die-geforce-rtx-5090-kaputt-2502-193014.html
Wie groß ist die sample size gerade? immer die gleichen ~5 forum/twitter posts, die selbe news neu verpackt?
Die 5080 taktet ja eigentlich zu niedrig. Hätte NV den Maximaltakt auf 3,2GHz festgelegt und die TDP auf 400W wär das Ding fast so schnell wie ne 4090. NV stapelt hier einfach tief und man muss selber den Chip aufs Optimum bringen.
Hacki_P3D
2025-02-04, 22:06:59
Auf YT wurde mir gerade dieses Video vorgeschlagen
sRmpncnaQ7s
Palpatin
2025-02-04, 23:01:17
Die 5080 taktet ja eigentlich zu niedrig. Hätte NV den Maximaltakt auf 3,2GHz festgelegt und die TDP auf 400W wär das Ding fast so schnell wie ne 4090. NV stapelt hier einfach tief und man muss selber den Chip aufs Optimum bringen.
400 Watt hätte auch wieder einen Aufschrei gegeben. Aber 3GHZ mit 360W wäre vermutlich möglich gewesen. Warum man das Potential nicht genutzt hat, erschließt sich mir nicht. Zumal es ja mittlerweile gang und gäbe ist das die Hersteller die Chips selbst optimieren und dem normalen Overclocker nur noch ca. 5% Spielraum lassen, was wiederum den Aufwand selten wert ist. Hier kann man ohne großen Aufwand locker 10+x% rausholen.
horn 12
2025-02-05, 00:16:24
Für eine 5080 Super - TI
falls Ihnen AMD mit der 9070 XT OC zu nahe kommen sollte ... ?
sulak
2025-02-05, 05:11:54
Wat? Die GTX 1080 lag bei 180W. Und eine heutige RTX 5080 ist eigentlich eine RTX 5070 unter dem falschen Namen. :lol:
Aber nicht, wenns nach der Leistungsaufnahme geht :ugly:
Colin MacLaren
2025-02-05, 05:53:18
Zur 5080 gibt es irgendwie nur zwei Meinungen. Entweder ist es eine gute, effiziente Karte, die mit OC an die 4090 heranreicht und paar tolle Features obendrauf mitbringt. Oder es ist eine neue Geforce 2 MX zum Straßenpreis von 2.000 EUR.
woodsdog
2025-02-05, 06:57:01
400 Watt hätte auch wieder einen Aufschrei gegeben. Aber 3GHZ mit 360W wäre vermutlich möglich gewesen. Warum man das Potential nicht genutzt hat, erschließt sich mir nicht. Zumal es ja mittlerweile gang und gäbe ist das die Hersteller die Chips selbst optimieren und dem normalen Overclocker nur noch ca. 5% Spielraum lassen, was wiederum den Aufwand selten wert ist. Hier kann man ohne großen Aufwand locker 10+x% rausholen.
weil sie dann der 5090 weiter auf die Pelle rückt und das Upselling negativ beeinflusst.
dargo
2025-02-05, 06:57:44
Aber nicht, wenns nach der Leistungsaufnahme geht :ugly:
Powerbudget definiert schon lange nicht die Klasse, siehe die Explosion bei der 5090. Wenn der Topdog extrem durstig ist zieht der logischerweise das gesamte Portfolio drunter mit nach oben.
Badesalz
2025-02-05, 07:04:15
Das passt aber irgendwie nicht zu Aussage "worst 80s GPU ever".Wohl weil die dafür entscheidende Folie, die mit den nativen FPS, nicht erstellt wurde :uup:
Colin MacLaren
2025-02-05, 07:20:12
weil sie dann der 5090 weiter auf die Pelle rückt und das Upselling negativ beeinflusst.
Weil der Chip im vollausbau ist und die 5080 super nur durch Takt und 24 GB RAM punkten kann.
dargo
2025-02-05, 09:36:32
Es wird keine 5080 Super diesmal geben weil dies auf Basis von GB203 gar keinen Sinn macht. Eine 5080TI mit 24GB wäre möglich, aber nur auf Basis von einem weiteren Salvage @GB202. Und das ist mehr als fraglich ob NV dafür einen ganzen GB202 opfert. NV könnte zwar später theoretisch eine 5080 Super mit 24GB @GB203 bringen wenn die 3GB Chips massentauglich für dieses Segment sind. Das wäre aber noch mehr Banane ohne Mehrleistung sondern nur mehr Speicher. Mehr Takt bringt da auch nichts da schon viele AIBs die 5080 overclocken. Die Astral rennt gerne mal mit ~2,9Ghz.
Exxtreme
2025-02-05, 09:48:40
Und das ist mehr als fraglich ob NV dafür einen ganzen GB202 opfert.
Wenn sie genug kaputte GB202 haben, die man für die 5080Ti verwenden kann dann wird man diese whol bringen.
dargo
2025-02-05, 10:28:07
Die haben nicht mal genug für den ersten Salvage wie man eindrucksvoll aktuell sehen kann. :ulol:
E39Driver
2025-02-05, 10:33:14
Ich denke jeder Quadratmillimeter Chipfläche lässt sich für NV aktuell im AI Bereich ungleich profitabler verkaufen als er selbst auf einer 3000€ teuren 5090 einspielt. Von daher produziert man nur das absolute Minimum und wird die Preise bei Gamingkarten oben lassen.
Selbst wenn AMD mit RDNA4 hier 10% Marktanteil über einen Kampfpreis abknabbern kann (mehr ist realistisch eh nicht drin) wird Nvidia dies ziemlich egal sein und ist wirtschaftlich gesehen auch die richtige Entscheidung.
Sardaukar.nsn
2025-02-05, 12:22:40
Frame Times Unterschied bei FG zwischen Lovelace und Blackwell.
basix
2025-02-05, 12:35:01
Hast du auch den Failure Case von dem Game gesehen, der im Video gerade vorher gezeigt wird ;)
FG Framepacing sollte besser sein. Gibt aber anscheinend noch Kinderkrankheiten.
The_Invisible
2025-02-05, 12:47:42
Frame Times Unterschied bei FG zwischen Lovelace und Blackwell.
Interesting, schon irgendwer mal wer mit OLEDs >=240Hz zwecks VRR-Flicker getestet?
dildo4u
2025-02-05, 13:27:05
5060/TI können 1x8 Pin nutzen
https://videocardz.com/newz/geforce-rtx-5060-5060-ti-to-feature-standard-8-pin-power-connectors-650w-psu-requirement
prinz_valium_2
2025-02-05, 13:39:21
Zur 5080 gibt es irgendwie nur zwei Meinungen. Entweder ist es eine gute, effiziente Karte, die mit OC an die 4090 heranreicht und paar tolle Features obendrauf mitbringt. Oder es ist eine neue Geforce 2 MX zum Straßenpreis von 2.000 EUR.
Beides stimmt
Relex
2025-02-05, 14:41:34
Frame Times Unterschied bei FG zwischen Lovelace und Blackwell.
Man muss hier bedenken, dass der Frametime Graph nach unten gegen 0 geht und der Frametime Graph bei steigenden FPS somit automatisch immer dünner wird. Geht gar nicht anders.
Daher schwer zu vergleichen, wenn man bei völlig unterschiedlichen FPS testet.
4080S vs 5080 wäre da deutlich sinnvoller.
Aber ja, sieht so aus als würde das Metering was bringen. Aber aufgrund der FPS unterschiede kann der Unterschied hier deutlich extremer aussehen, als er überhaupt ist.
Hakim
2025-02-05, 15:14:18
Die Empfehlen jetzt 650w Netzteil für die 5060. Oh man ich vermisse die schönen alten Pascal Zeiten...
Palpatin
2025-02-05, 16:19:41
Es wird keine 5080 Super diesmal geben weil dies auf Basis von GB203 gar keinen Sinn macht. Eine 5080TI mit 24GB wäre möglich, aber nur auf Basis von einem weiteren Salvage @GB202. Und das ist mehr als fraglich ob NV dafür einen ganzen GB202 opfert. NV könnte zwar später theoretisch eine 5080 Super mit 24GB @GB203 bringen wenn die 3GB Chips massentauglich für dieses Segment sind. Das wäre aber noch mehr Banane ohne Mehrleistung sondern nur mehr Speicher. Mehr Takt bringt da auch nichts da schon viele AIBs die 5080 overclocken. Die Astral rennt gerne mal mit ~2,9Ghz.
Die 4080 Super war ganze 1-2% schneller als die 4080.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4080-super-test.86810/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Die könnten quasi morgen eine 5080 Super mit 5-10% mehr Performance rausbringen in dem sie den Takt etwas nach oben schrauben. Wenn Rubin nicht vorgezogen wird, werden wir in ca. einem Jahr ziemlich sicher entweder eine 5080 Super mit mehr Takt oder eine 5080 TI mit 24GB (Quasi 5090 Mobile für Desktop) sehen.
Exxtreme
2025-02-05, 16:21:55
Die haben nicht mal genug für den ersten Salvage wie man eindrucksvoll aktuell sehen kann. :ulol:
Wir wissen nicht ob das an fehlenden Chips liegt oder an was anderem.
Sardaukar.nsn
2025-02-05, 16:23:18
@Palpatin: Das kannst du doch jetzt schon haben. Wie es aussieht, schaffen die 5080er alle über 3Ghz. Teils bis 3,2. Dann hast du deine +10 bis 15%.
Die 4080 Super war ganze 1-2% schneller als die 4080.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4080-super-test.86810/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Die könnten quasi morgen eine 5080 Super mit 5-10% mehr Performance rausbringen in dem sie den Takt etwas nach oben schrauben. Wenn Rubin nicht vorgezogen wird, werden wir in ca. einem Jahr ziemlich sicher entweder eine 5080 Super mit mehr Takt oder eine 5080 TI mit 24GB (Quasi 5090 Mobile für Desktop) sehen.
10 Prozent rein durch Takt wäre ein sehr "süffisantes" Unterfangen. Das wäre dann auch eine 450-Watt-GPU, um die notwendigen 3+ GHz in jeder Lage zu gewährleisten (ohne strenges Binning).
MfG
Raff
Gouvernator
2025-02-05, 16:44:16
24Gb wären eigentlich schon gut genug. Das ist heutzutage ein Mindestmaß um überhaupt aufzurüsten. Nvidia hat wohl bis heute KI User entweder gar nicht im Blick, oder glaubt denen gleich eine 3k€ Grafikkarte reinwürgen zu müssen. Obwohl die meisten KI Aufgaben schlicht mit 150W+CUDA+24Gb erledigt werden können. Eine 5070/Ti mit 24/32Gb wäre schon optimal.
basix
2025-02-05, 16:44:38
10 Prozent rein durch Takt wäre ein sehr "süffisantes" Unterfangen. Das wäre dann auch eine 450-Watt-GPU, um die notwendigen 3+ GHz in jeder Lage zu gewährleisten (ohne strenges Binning).
Zeigen nicht etliche Tests, dass die 5080 bei +10% OC kaum mehr Energie verbraucht? Und das 360W Power Limit der 5080 wird ebenfalls fast nie gerissen, im Schnitt ist man weit weg davon.
+10% Takt sowie 24GByte VRAM hören sich ziemlich nach einer 5080S an. Wer weiss, evtl. reduziert das Nvidia noch auf 20GB bei 224bit 32Gbps :D
Ich habe Palpatins Posting so interpretiert, dass er 10 Prozent Performance meint - und dafür braucht man etwas mehr als 10 Prozent mehr GPU-Takt. Damit das immer läuft, braucht man mehr Spannung. Das in Kombination mit 50 Prozent mehr Speicher kriegt man IMHO nicht in 400 Watt unter. Fünf Prozent hingegen: kein Ding. Ist aber natürlich purer Spekulatius. :)
MfG
Raff
aufkrawall
2025-02-05, 16:52:53
Man bekommt halt auch 2,85GHz im OSD bei 0,925mV eingestellt. Und das in jedem Spiel, egal wie stromhungrig.
Diverse 4090er laufen auch mit 2,6 GHz und 0,9 Volt. Das ist ja auch geil, aber ... es gibt sicher Gründe dafür (Workloads), dass Nvidia in Serie viel mehr Spannung draufgibt. Erinnert sich jemand an die alten GCN-Karten? ;)
MfG
Raff
Palpatin
2025-02-05, 16:56:57
Ich habe Palpatins Posting so interpretiert, dass er 10 Prozent Performance meint - und dafür braucht man etwas mehr als 10 Prozent mehr GPU-Takt. Damit das immer läuft, braucht man mehr Spannung. Das in Kombination mit 50 Prozent mehr Speicher kriegt man IMHO nicht in 400 Watt unter. Fünf Prozent hingegen: kein Ding. Ist aber natürlich purer Spekulatius. :)
MfG
Raff
Wieso mehr Speicher? Mehr Speicher kommt nur wenn sie eine 5080TI aus der 5090 Mobile machen. Wie schon geschrieben wenn Rubin erst Ende 26 oder 27 kommt dann bringen sie ziemlich sicher in einem Jahr eine 5080 Super mit mehr Takt oder eine 5080ti mit mehr Speicher und dann auch mehr Watt etc.
Das beides kommt eher unwahrscheinlich das eins von beidem kommt sehr wahrscheinlich.
aufkrawall
2025-02-05, 17:01:05
Diverse 4090er laufen auch mit 2,6 GHz und 0,9 Volt. Das ist ja auch geil, aber ... es gibt sicher Gründe dafür (Workloads), dass Nvidia in Serie viel mehr Spannung draufgibt.
Das war mit Pascal-Karten aber auch schon so (bei ~1,9GHz). Ich hab mittlerweile irgendwas um die 10-12 (? Jedenfalls genügend, um den Überblick zu verlieren.) GeForces via Curve zwischen 0,1-0,15V ohne nennenswerten Taktverlust undervoltet und musste da nie irgendetwas großartig nachjustieren.
Tesseract
2025-02-05, 17:10:19
Diverse 4090er laufen auch mit 2,6 GHz und 0,9 Volt. Das ist ja auch geil, aber ... es gibt sicher Gründe dafür (Workloads), dass Nvidia in Serie viel mehr Spannung draufgibt. Erinnert sich jemand an die alten GCN-Karten? ;)
MfG
Raff
vermutlich läuft das binning so ab dass man schaut wie die tatsächliche kurve (inkl. abweichungen) innerhalb der serie generell verläuft, dann eine kurve wählt die steiler ist und nur die maximalspannung binnt - so kommt man bei 900mV und darunter dann schon mal auf >10% spielraum.
basix
2025-02-05, 18:09:48
Ich kann definitiv bestätigen, dass man bei tieferer Spannung mehr OC-Spielraum verglichen zur Nominalspannung hat. Oben rum (>1V) geht vielleicht +200MHz und unten rum (~0.9V) +350MHz verglichen zur Default-Kurve. Wäre interessant wie das bei Blackwell bei dessen minimalen 0.8V aussieht.
Diverse 4090er laufen auch mit 2,6 GHz und 0,9 Volt. Das ist ja auch geil, aber ... es gibt sicher Gründe dafür (Workloads), dass Nvidia in Serie viel mehr Spannung draufgibt. Erinnert sich jemand an die alten GCN-Karten? ;)
MfG
Raff
Naja.... bei der 4090 war das OffSet-Potenzial zur V/F curve bei 120-160 Mhz in etwa... Bei der 50iger Serie scheint immerhin das Doppelte möglich zu sein. Oder die crashes zeigen sich noch nicht, da die aktuellen Treiber noch nicht alle kritischen Pfade ausreichend belasten (was dann aber auch heißt, da kommt noch mehr performance).
monstar-x
2025-02-05, 23:00:18
Diverse 4090er laufen auch mit 2,6 GHz und 0,9 Volt. Das ist ja auch geil, aber ... es gibt sicher Gründe dafür (Workloads), dass Nvidia in Serie viel mehr Spannung draufgibt. Erinnert sich jemand an die alten GCN-Karten? ;)
MfG
Raff
Stimme Raff zu, meine MSI Suprim macht 2680 Mhz @ 0.9v
/stable seit 1,5 Jahren
dildo4u
2025-02-07, 14:41:15
Mobile 5080 im 3DMARK
https://videocardz.com/newz/geforce-rtx-5080-laptop-gpu-tested-in-3dmark-time-spy-16-improvement-over-rtx-4080
Mit DLSS 4 braucht meine 4090 Suprim nun definitiv mehr Saft bei gleichem Takt. Seit nun mehr fast 2 Jahren lief die Karte mit 0.975v bei 2,7 GHz überall stable. Mit DLSS 4 änderte sich das jedoch, Cyberpunk und Alan Wake 2 schmieren reproduzierbar innerhalb weniger Sekunden ab weil der Treiber crasht.
Erst als ich 20 mV hinzugegeben habe und somit bei 0,995v gelandet bin, hörten die Crashes auf. Die Tensor Cores scheinen unter höherer Last kleine Divas zu sein.
dildo4u
2025-02-07, 15:26:04
Meinst du Framegen?
Bei mir kacken die Games ab sobald ich das neue FG nutzen will.(Cyberpunk,Outlaws,Alan Wake2)
Meinst du Framegen?
Bei mir kacken die Games ab sobald ich das neue FG nutzen will.(Cyberpunk,Outlaws,Alan Wake2)
Ja, primär Frame Gen. Mit normalen SR und zu wenig Spannung crasht mir Battlefield 2042 früher oder später aber auch was es vorher nicht tat.
SentinelBorg
2025-02-07, 22:25:46
Wir wissen nicht ob das an fehlenden Chips liegt oder an was anderem.
Umso mehr ich drüber nachdenke, umso mehr macht die Vermutung mit dem Samsung Speicher Sinn. Chips sollte es ja genug geben, da ja auch die Ada Lovelace Produktion schon vor Monaten eingestellt wurde wohl.
crux2005
2025-02-08, 05:26:35
ZOTAC GeForce RTX 5060 Ti & 5060 leak reveals 16GB memory config for both
https://videocardz.com/newz/zotac-geforce-rtx-5060-ti-5060-leak-reveals-16gb-memory-config-for-both
Damit wäre die 5070 eine der wenigen RTX 50er Karte mit weniger als 16GB VRAM (die 5050, falls sie erscheint, wird wohl keine 16 haben).
Hakim
2025-02-08, 05:30:54
Was ist denn da los? 16GB für 5060 und 5060ti?? Von Nvidia??
Toll das ausgerechnet die Karte die mich am meisten interessierte, die 5070, nur mit 12GB daher kommt...
Zossel
2025-02-08, 07:49:40
Erst als ich 20 mV hinzugegeben habe und somit bei 0,995v gelandet bin, hörten die Crashes auf. Die Tensor Cores scheinen unter höherer Last kleine Divas zu sein.
Out of Spec ist allein dein Problem. Möglicherweise ist dein Teil auch schon verschlissen.
sulak
2025-02-08, 08:26:10
ZOTAC GeForce RTX 5060 Ti & 5060 leak reveals 16GB memory config for both
https://videocardz.com/newz/zotac-geforce-rtx-5060-ti-5060-leak-reveals-16gb-memory-config-for-both
Damit wäre die 5070 eine der wenigen RTX 50er Karte mit weniger als 16GB VRAM (die 5050, falls sie erscheint, wird wohl keine 16 haben).
Artikel ist verschwunden, war wohl Fake News da auf dem Karton DLSS3 noch stand o.O
Dimon
2025-02-08, 11:41:22
Out of Spec ist allein dein Problem. Möglicherweise ist dein Teil auch schon verschlissen.
Wohl kaum, sowas lässt sich gerne mit höherer belastung erklären...
crux2005
2025-02-08, 19:53:29
Artikel ist verschwunden, war wohl Fake News da auf dem Karton DLSS3 noch stand o.O
Ja, das mit DLSS3 habe ich auch gesehen. IMHO sehr viel Aufwand nur für ein Fake.
NVIDIA is investigating reported GeForce RTX 50 issues
https://videocardz.com/newz/nvidia-is-investigating-reported-geforce-rtx-50-issues
Ja, das mit DLSS3 habe ich auch gesehen. IMHO sehr viel Aufwand nur für ein Fake.
NVIDIA is investigating reported GeForce RTX 50 issues
https://videocardz.com/newz/nvidia-is-investigating-reported-geforce-rtx-50-issues
Wenn die Leistung nicht ausreicht, dann gibt es vielleicht nur DLSS3?!
Linmoum
2025-02-08, 22:47:01
Wenn die Leistung nicht ausreicht, dann gibt es vielleicht nur DLSS3?!Also wird eine 5060 langsamer als eine 2060 sein?
Ist eine 5090 wirklich schneller als eine 4090? Mit den Specs 25% schneller? Ein Witz! Und wahrscheinlich ist eine 5060 nicht schneller, als eine 4060!
Sardaukar.nsn
2025-02-08, 23:09:51
Daniel Owen bringt es auf den Punkt. Einfach frame gen ein ballern und fertig ist der Müll...
XKcZcfzvpeo
sulak
2025-02-08, 23:57:51
Ab ner 4070Super ja, darunter haste ohne DLSS ggf Probleme.. Bin echt gespannt wie die 5070 sich schlägt mit weniger Rasterleistung und dem Cache Problem der Blackwells. Kann die 5060ti in Raster ja nur abstürzen..
KarlKastor
2025-02-09, 03:17:47
Cache Problem? Das muss an mir vorbei gegangen sein? Kannst du as näher erläutern?
sulak
2025-02-09, 03:22:06
Aus RTX5080 Review-Thread
Siehe Posting #5: https://extreme.pcgameshardware.de/threads/geforce-rtx-5090-5080-raytracing-leistung-wirft-fragen-auf.658379/#post-11804051 :)
MfG
Raff
Colin MacLaren
2025-02-09, 04:58:15
Daniel Owen bringt es auf den Punkt. Einfach frame gen ein ballern und fertig ist der Müll...
https://youtu.be/XKcZcfzvpeo
Man muss halt einfach mal anfangen zu akzeptieren, dass es ohne Upscaling nicht mehr geht und dass das vor allem mit DLSS4 auch echt nicht schlimm ist.
Da es quasi kein Spiel gibt, was auf meinem Legion Go unspielbar ist (und wenn liegt es nur am knappen RAM), kann ich das "runs awful" nicht nachvollziehen, Traversal Stutter mal außen vor.
Auch ist der optische Untershcied zwischen Medium und Ultra ist meistens nicht existent. Das war früher ganz anders.
robbitop
2025-02-09, 06:36:45
Installiere mal Mechwarrior 5 Clans. Das kannst du performance mäßig auch auf den besten Handhelds vergessen. Es sei denn dass 30 fps average und Einbrüche in die 20er für dich spielbar ist. :)
Die neuen UE5 Spiele sind zt absurde HW Fresser.
Prinzenrolle
2025-02-09, 08:29:18
Daniel Owen bringt es auf den Punkt. Einfach frame gen ein ballern und fertig ist der Müll...
Genau, der Mann hat einfach den Durchblick.:rolleyes:
Oberflächlicher gehts ja nicht mehr.
Die neuen UE5 Spiele sind zt absurde HW Fresser.
Und schuld hat natürlich die blöde UE5.;D
Als ob andere Spieleengines Hardware nicht fordern würden.
Blase
2025-02-09, 09:17:02
Man muss halt einfach mal anfangen zu akzeptieren, dass es ohne Upscaling nicht mehr geht ...
Ein KDC2 zeigt grade sehr eindrucksvoll, dass es eben auch anders geht. Evtl. muss man deine Aussage auf UE Titel reduzieren, keine Ahnung...
MfG Blase
Troyan
2025-02-09, 09:19:18
UE5 Spiele haben eben das Problem, dass die entweder mit Lumen kommen (ultra lahm) oder überhaupt kein vernünftiges Baking besitzen (schnell).
Ist im Grunde eine komplette Fehlentwicklung, weil man umbedingt Nanite pushen wollte. Hardware RT GI wie in Metro Exodus EE oder The Finals ist meilenweit schneller als Lumen.
ChaosTM
2025-02-09, 09:21:57
Kann man ohne RT/PT nicht mehr leben/spielen, kommt man um Upscaling/(M)FG nicht herum.
Muss jeder für sich selbst entscheiden.
Die Wahl sollte man aber dem Spieler überlassen und "Zwangsbeglückungen" unterlassen.
robbitop
2025-02-09, 09:32:45
Und schuld hat natürlich die blöde UE5.;D
Als ob andere Spieleengines Hardware nicht fordern würden.
Ich empfand es als sehr sehr auffällig und kannte bis dahin kein anderes nicht UE5 Spiel was selbst auf reduzierten Details die HW so fordert. Und das bei nicht gerade beeindruckender Optik. Und Traversal Stutter.
robbitop
2025-02-09, 09:34:38
UE5 Spiele haben eben das Problem, dass die entweder mit Lumen kommen (ultra lahm) oder überhaupt kein vernünftiges Baking besitzen (schnell).
Ist im Grunde eine komplette Fehlentwicklung, weil man umbedingt Nanite pushen wollte. Hardware RT GI wie in Metro Exodus EE oder The Finals ist meilenweit schneller als Lumen.
Und das Schlimme ist, dass zukünftig eine Art Monokultur kultiviert wird wenn man sieht, dass fast alle da hinrennen. Ohne richtig scharfen Wettbewerb gibt es langfristig weniger Innovation - so ist es immer. Vielfalt und Wettbewerb ist/war was Feines.
Und wenn dann viele noch Standard Assets nehmen wird wieder alles schön gleich aussehen wie damals die UE3 Spiele zu X360 Zeiten.
Ich empfand id Tech 6 erfrischend. Wolfenstein the new colossos sah bei Release richtig hübsch aus und rannte auf jeder Möhre in dreistelligen fps. Mehr von sowas bitte.
————————
Zu Upsampling als DSLSS/FSR/XeSS und co: leider kam es so wie befürchtet: es wird von Studios missbraucht* um die Performancetargets zu erreichen und weniger optimieren zu müssen. Entsprechend bringt es nicht den Vorteil den man erhofft hat: Performance on top und Lebenszeitverlängerung.
(M)FG wird wahrscheinlich ein zum Teil ähnliches Schicksal blühen. (nicht gleich weil es schon eine gewisse Mindestframerate braucht)
*IMO sieht man es daran, dass viele Spiele nicht mehr auf der Durchschnitts HW (sagen wir mal Median HW zum Releasezeitpunkt) annehmbar (60+ fps in Median Auflösung und hohen (aber nicht max) details) laufen.
anorakker
2025-02-09, 10:20:09
Vielleicht sollten sich zukünftige Benchmarks nicht mehr primär die FPS vorknüpfen sondern vor allem die Latenzen. Ist zwar messtechnisch von unmöglich bis schwierig zu realisieren, aber der letzte Playtest der PCGH hat schon mehr oder weniger nur noch aus diesen subjektiven Erfahrungen bestanden.
Badesalz
2025-02-09, 11:18:33
@anorakker
Ja. Richtig. Man kocht uns schon bisschen weich fürs Später :uup:
monstar-x
2025-02-09, 11:25:27
Man muss halt einfach mal anfangen zu akzeptieren, dass es ohne Upscaling nicht mehr geht und dass das vor allem mit DLSS4 auch echt nicht schlimm ist.
Da es quasi kein Spiel gibt, was auf meinem Legion Go unspielbar ist (und wenn liegt es nur am knappen RAM), kann ich das "runs awful" nicht nachvollziehen, Traversal Stutter mal außen vor.
Auch ist der optische Untershcied zwischen Medium und Ultra ist meistens nicht existent. Das war früher ganz anders.
Das geht doch da gar nicht um upscaling. Vielmehr geht es darum dass die gebotene Grafik in vielen Spielen nicht der Leistungsanforderung entspricht.
Keine Optimierung, wird im unoptimierten desolaten Zustand raus gehauen, nach dem Motto: DLSS und FG machen dass dann schon.
Monster Hunter Wilds sieht einfach Furchtbar aus, totaler verpixelter Brei.
Spiele auf 2020 die deutlich weniger Performance benötigen sehen besser aus.
Mit solchen Aussagen habe ich meine Probleme. Wie will man das schon groß bewerten? Viele sehen ja nicht mal den visuellen Vorteil von Raytracing und echter Global Illumination. Mit solchen Leuten diskutiere ich dann gar nicht erst darüber, ob die visuelle Darstellung und die Leistungsanforderung dafür angemessen sind. I mean… seriously? :D
robbitop
2025-02-09, 14:29:04
Naja aber es muss schon optisch auch was dabei rumkommen ansonsten ist es verballerte Energie. Bei Crysis hat damals niemand diskutiert weil es einfach umwerfend aussah. Und auch bei gut gemachtem Path Tracing wie in CP77 ist das einzusehen. Aber es gibt leider immer mal wieder (und auch immer mehr) Spiele die aussehen wie Derp und irre Leistung kosten. Dann sind die Gründe dafür egal. Für Performancekosten muss optisch auch was rumkommen.
monstar-x
2025-02-09, 14:57:01
Naja aber es muss schon optisch auch was dabei rumkommen ansonsten ist es verballerte Energie. Bei Crysis hat damals niemand diskutiert weil es einfach umwerfend aussah. Und auch bei gut gemachtem Path Tracing wie in CP77 ist das einzusehen. Aber es gibt leider immer mal wieder (und auch immer mehr) Spiele die aussehen wie Derp und irre Leistung kosten. Dann sind die Gründe dafür egal. Für Performancekosten muss optisch auch was rumkommen.
Genau so.
Alan Wake 2 und CP2077 ruckeln Native auch bei 25-30 Fps rum, sehen aber im Gegenzug dafür auch Fantastisch aus. Was bei z.B Monster Hunter Wilds und vielen weiteren Spielen leider nicht der Fall ist. Genau um das geht es.
ChaosTM
2025-02-09, 15:06:21
Genau so.
Alan Wake 2 und CP2077 ruckeln Native auch bei 25-30 Fps rum, sehen aber im Gegenzug dafür auch Fantastisch aus. Was bei z.B Monster Hunter Wilds und vielen weiteren Spielen leider nicht der Fall ist. Genau um das geht es.
Monster Hunter rennt dafür Nativ mit 75fps, also fast 3x schneller. Ist aber auch deutlich hässlicher .. die Monster und Spielfiguren sind gar nicht so schlecht, nur die Landschaft ist ....
crux2005
2025-02-09, 19:51:48
UE5 Spiele haben eben das Problem, dass die entweder mit Lumen kommen (ultra lahm) oder überhaupt kein vernünftiges Baking besitzen (schnell).
Ist im Grunde eine komplette Fehlentwicklung, weil man umbedingt Nanite pushen wollte. Hardware RT GI wie in Metro Exodus EE oder The Finals ist meilenweit schneller als Lumen.
Muss dir leider zustimmen.
Immortals of Aveum läuft in 1440p + DLSS Perf. + Low Preset mit gerade mal ~60 FPS aber die Schatten sehen wie ein Ameisenhaufen aus und die dynamische Beleuchtung (Lumen) flackert wild...
Und das Schlimme ist, dass zukünftig eine Art Monokultur kultiviert wird wenn man sieht, dass fast alle da hinrennen. Ohne richtig scharfen Wettbewerb gibt es langfristig weniger Innovation - so ist es immer. Vielfalt und Wettbewerb ist/war was Feines.
Und wenn dann viele noch Standard Assets nehmen wird wieder alles schön gleich aussehen wie damals die UE3 Spiele zu X360 Zeiten.
Ich empfand id Tech 6 erfrischend. Wolfenstein the new colossos sah bei Release richtig hübsch aus und rannte auf jeder Möhre in dreistelligen fps. Mehr von sowas bitte.
————————
Zu Upsampling als DSLSS/FSR/XeSS und co: leider kam es so wie befürchtet: es wird von Studios missbraucht* um die Performancetargets zu erreichen und weniger optimieren zu müssen. Entsprechend bringt es nicht den Vorteil den man erhofft hat: Performance on top und Lebenszeitverlängerung.
(M)FG wird wahrscheinlich ein zum Teil ähnliches Schicksal blühen. (nicht gleich weil es schon eine gewisse Mindestframerate braucht)
*IMO sieht man es daran, dass viele Spiele nicht mehr auf der Durchschnitts HW (sagen wir mal Median HW zum Releasezeitpunkt) annehmbar (60+ fps in Median Auflösung und hohen (aber nicht max) details) laufen.
+1
Wir bezahlen für "alles muss dynamisch sein" viel zu viel Leistung auch in Spielen wie z.B. Immortals of Aveum, die es überhaupt nicht bräuchten.
Lurtz
2025-02-09, 21:06:12
Aveum nutzt eine uralte Engine-Version, das ist doch überhaupt nicht mehr repräsentativ.
crux2005
2025-02-09, 21:33:46
Sie benutzen UE5.2. Welche veröffentlichten Spiele sind 5.3 oder neue? (außer Fortnite).
aufkrawall
2025-02-09, 21:49:11
Hellblade 2 und First Descendant, die laufen auch deutlich besser mit weniger Grafik-Fails.
Davon ab läuft Fortnite mit Nanite, Lumen & VSM mit 60fps auf der Series S. Wer meint, das wäre eine Fehlentwicklung, hat den Schuss nicht gehört.
Aber ja. Besser wärs, 5.0 wäre direkt 5.5 gewesen. Leben ist nur leider nicht wünsch dir was...
Platos
2025-02-09, 21:50:05
Vielleicht sollten sich zukünftige Benchmarks nicht mehr primär die FPS vorknüpfen sondern vor allem die Latenzen. Ist zwar messtechnisch von unmöglich bis schwierig zu realisieren, aber der letzte Playtest der PCGH hat schon mehr oder weniger nur noch aus diesen subjektiven Erfahrungen bestanden.
Ne, warum auch. Dann wäre ja Reflex und co. genau das gleiche. Nur Latenz ohne neue Frames.
Wo ist das Problem? Die Tester testen doch alles ohne Upscaling und ohne Framgen. Da siehst du es ja.
robbitop
2025-02-10, 05:48:06
Wobei Fortnite schon sehr lightweight ist. Das muss ja auch auf Smartphones und Tablets laufen. :)
Will sagen: Engine ist sicherlich nur ein Teil des Ganzen. Je nach dem was man daraus macht kann man ein ganzes Spektrum an Ergebnissen erwarten. :)
Und Epic kann definitiv mit ihrer Engine sehr gut umgehen. :)
aufkrawall
2025-02-10, 06:01:51
Wobei Fortnite schon sehr lightweight ist. Das muss ja auch auf Smartphones und Tablets laufen. :)
Ändert aber an den Kosten von Nanite, Lumen & VSM nichts.
Und Epic kann defizit mit ihrer Engine sehr gut umgehen. :)
Auf den Konsolen. PC, naja...
Sardaukar.nsn
2025-02-10, 06:23:14
Es gibt ja immer wieder gute Beispiele: KCD2 mit CryEngine auf einer GTX1060(!), 3060 und 5090.
7hYh8L7SuQA
Badesalz
2025-02-10, 09:00:22
Und das Schlimme ist, dass zukünftig eine Art Monokultur kultiviert wird wenn man sieht, dass fast alle da hinrennen.Das ist richtig. Sehen wir jetzt mit GPUs ja auch :wink: Das ist aber nicht der Punkt - ich weiß, so meinst DU das nicht - wo man die Schuld dafür auf Epyc oder NV schieben kann.
Und auch ohne Standard Assets und mit kleinwenig Erfahrung und dem sehenden Auge, gibt es meist eine wahrnehmbare Ähnlichkeit mit einer Engine. Das war tasächlich einer der Gründe warum mir KCD2 gefiel/gefällt. Sieht nicht besser aus, aber endlich wieder irgendwas was anders aussieht =)
Oder: Nach den 1001 Fixes in CP2077 und den paar Mods war ich mir am Ende nicht so sicher, ob mich das freuen sollte, daß sie auf UE5 gehen.
robbitop
2025-02-10, 09:51:32
Die Schuld liegt beim mangelnden Wettbewerb (und die ist bei den Wettbewerbern zu suchen). Wo es dann doch potenziell Schuld zu vergeben gibt sind unsaubere Wettbewerbspraktiken wo man den Wettbewerber sabotiert. So wie damals Intel ihre Kunden erpresst und geschmiert hat Intel CPUs zu verbauen. Oder das Geforce Partner Program oder wie sie z.T. mit der Presse umspringen, wenn ihnen was nicht passt, damit es möglichst die Berichterstattung gibt die sie wollen (HWUB kann ein Lied davon singen).
Zossel
2025-02-10, 09:58:33
Die Schuld liegt beim mangelnden Wettbewerb (und die ist bei den Wettbewerbern zu suchen).
Dieser ganze Computer und Internet Kram neigt doch mehr als alle anderen Branchen zu Monopolen.
Exxtreme
2025-02-10, 10:09:55
Dieser ganze Computer und Internet Kram neigt doch mehr als alle anderen Branchen zu Monopolen.
Ja, weil die Kunden mit dem Geldbeutel so abstimmen.
x-force
2025-02-10, 10:14:41
Ja, weil die Kunden mit dem Geldbeutel so abstimmen.
primär, weil die kartellbehörde schläft.
intel(früher) und nv(heute) nutzen ihre marktbeherrschende stellung definitiv aus.
Fragman
2025-02-10, 10:47:48
primär, weil die kartellbehörde schläft.
intel(früher) und nv(heute) nutzen ihre marktbeherrschende stellung definitiv aus.
Die ökonomischen Zwänge bilden diese Strukturen in unserem System heraus.
Würde diese Behörde ihren Job machen, haben wir ganz schnell Diskussionen über ökonomische Freiheiten.
Am Ende wäre es nichts anderes als eine weiche Wachstumsbremse.
Das funktioniert auch nur als globale Regel und wenn es alle machen.
Sobald ein Big Player nicht mitmacht (USA, Asien oder EU) wird er alle anderen überrennen.
Kriegsgeier
2025-02-10, 11:10:11
der Markt muss es selbst regeln können.
15.000€ für eine 5090 würde wahrscheinlich fast keiner zahlen. Aber NUR FAST!
Es werden 2-5 Leute geben, die es auch bei 15.000€ kaufen würden - wenn nicht, dann bliebe NVIDIA auf der Karten sitzen und müsste die Preise anpassen.
Deswegen sagte ich mal: die Preise könnten gestaffelt an den Start gehen.
Releasetag: 9.999$,
2. Tag 8.000$
usw.
35. Tag 2100$
und in 6 Monaten dann 1999$
x-force
2025-02-10, 11:10:36
Die ökonomischen Zwänge bilden diese Strukturen in unserem System heraus.
Würde diese Behörde ihren Job machen, haben wir ganz schnell Diskussionen über ökonomische Freiheiten.
Am Ende wäre es nichts anderes als eine weiche Wachstumsbremse.
Das funktioniert auch nur als globale Regel und wenn es alle machen.
Sobald ein Big Player nicht mitmacht (USA, Asien oder EU) wird er alle anderen überrennen.
das problem umgehst du, indem du ip nicht mehr schützt und im inland einfach kopieren lässt.
von china lernen, heißt siegen lernen :biggrin:
Mangel76
2025-02-10, 11:12:45
Wer hier alles Schuld sein soll am Marktversagen ist schon lustig. Warum gibt es immer weniger Anbieter von solchen Engine? Einerseits weil es generell weniger Spielehersteller gibt, teils durch Pleiten, teils durch Aufkaufen. Da könnten Kartellwächter sogar noch manchmal eingreifen. Allerdings wird der Aufwand für so eine Engine auch immer größer. Das sind einerseits Markteintrittskosten für neue Wettbewerber. Für Spielehersteller lohnt dann eine eigene Engines auch nicht mehr, Einkaufen wird günstiger. Und dann reicht ein kleiner Vorteil einer Engine und die anderen verschwinden vom Markt. Wer hat daran Schuld? Die Kunden der Spiele? Wohl kaum. Die Produzenten? Die müssen auch Kosten minimieren.
Zossel
2025-02-10, 11:19:12
der Markt muss es selbst regeln können.
Dieser Glaube an den Markt nimmt immer mehr religiöse Züge an.
Kriegsgeier
2025-02-10, 11:20:54
wieso?
Warum soll eine Firma eine Sache für 3000€ verkaufen, wenn es ein relativ großen Markt von Leuten gibt, die auch 5000€ dafür zahlen können?
Es ergibt kein Sinn!
Diese variablen Preise funktionieren doch auch auf dem Aktienmarkt. Und das sehr gut!
x-force
2025-02-10, 11:20:56
Wer hier alles Schuld sein soll am Marktversagen ist schon lustig. Warum gibt es immer weniger Anbieter von solchen Engine? Einerseits weil es generell weniger Spielehersteller gibt, teils durch Pleiten, teils durch Aufkaufen. Da könnten Kartellwächter sogar noch manchmal eingreifen. Allerdings wird der Aufwand für so eine Engine auch immer größer. Das sind einerseits Markteintrittskosten für neue Wettbewerber. Für Spielehersteller lohnt dann eine eigene Engines auch nicht mehr, Einkaufen wird günstiger. Und dann reicht ein kleiner Vorteil einer Engine und die anderen verschwinden vom Markt. Wer hat daran Schuld? Die Kunden der Spiele? Wohl kaum. Die Produzenten? Die müssen auch Kosten minimieren.
in einem unreguliertem markt bilden sich monopole vollkommen automatisch.
aber schuld ist doch letztlich irrelevant, die lösung ist wichtig, nur weil der weg oder die entwicklung unvermeidlich erscheint, heißt es doch nicht, dass man es unreguliert lassen müsste.
Dieser Glaube an den Markt nimmt immer mehr religiöse Züge an.
volkswirtschaftliche betrachtungen hatten bisher immer religiösen charakter, da sämtliche modelle zu stark vereinfachen und entscheidende mechanismen der realität nicht abbilden.
ob jetzt keynes, klassik, monetaristen oder whatever, das jeweilige modell ist höchstens dazu geeignet ein spezielles marktversagen abzubilden.
wieso?
Warum soll eine Firma eine Sache für 3000€ verkaufen, wenn es ein relativ großen Markt von Leuten gibt, die auch 5000€ dafür zahlen können?
Es ergibt kein Sinn!
doch, ist sogar ganz einfach:
https://examio-mediafiles.s3.eu-west-1.amazonaws.com/kap1-4-e-1-ca.jpg
Fragman
2025-02-10, 11:25:18
das problem umgehst du, indem du ip nicht mehr schützt und im inland einfach kopieren lässt.
von china lernen, heißt siegen lernen :biggrin:
Das ist richtig, wird global aber nicht akzeptiert werden weil jeder seine Assets schützen muss.
Mit Deepseek haben wir gesehen, wie Effizienz so ein System zusetzen kann.
Was eigentlich positiv ist, allerdings hier und da gleich für Protektionismus gesorgt hat. :D
Wer hier alles Schuld sein soll am Marktversagen ist schon lustig.
Du führst aus weshalb es kein Marktversagen ist, der macht genau was er soll.
Es ist nicht immer im Sinne des Kunden.
Bei nv haben wir eine Zweiteilung zwischen denen, die selbst mit solchen enormen Preisen noch maximal profitieren können und denen, die finanziell nicht mithalten können oder wollen und die haben Pech gehabt.
Kriegsgeier
2025-02-10, 11:25:46
Die Regulierung bringt höchstens weniger Investitionen dieser Firmen und somit weniger Technologieen!
Wenn die Menge an Grafikkarten nicht mit der Nachfragemenge übereinstimmt, dann muss diese Selbstregulatorik über den Preis gehen.
DER PREIS ist ja der Regulator!
Kriegsgeier
2025-02-10, 11:27:56
bei der GPUs sind wir nun mal bei einer Art "Alientechnologie" angekommen.
Nur einer kann es und SEHR, SEHR viele wollen es - Technologie vom anderen Planeten. So sehe ich das.
Das Maschinchen (GPU) kann über 1.000.000.000 Berechnungen in 0,001s erledigen! Hallo? Ist das eine Technologie, die sich jede Hausfrau leisten muss? EINDEUTIG NEIN!
davidzo
2025-02-10, 11:36:41
primär, weil die kartellbehörde schläft.
intel(früher) und nv(heute) nutzen ihre marktbeherrschende stellung definitiv aus.
Sehe ich auch so. Das problem ist dass die Kartellämter die Märkte aus Investor bzw. Unternehmersicht betrachten. Und da ist Nvidia halt nur ein fabless Chiphersteller unter vielen. Den Unterschied zwischen GPUs und CPUs sehen die dann nicht. Außerdem verschleiert Moores Law den Blick, weil laut Definition in einem Monopolmarkt ja kein Fortschritt mehr herrschen dürfte. Die Kartellämter sehen es nicht wenn der Fortschritt nur bei TSMC stattfindet und nicht mehr bei nvidia und erkennen daher die Ausnutzung des Monopols nicht mehr mit klaren Augen.
Für den Käufer sind beide Märkte aber schon seit Jahrzehnten in einem quasi monopolistischen Endstadium. Es gibt nur zwei Marktteilnehmer von denen ich kaufen kann, davon beherrscht der Größte 80Prozent. Intels plötzliches Fiasko spricht da zwar gegen, aber das ist die berühmte Ausnahme welche die Regel bestätigt und in den letzten vierzig Jahren eben einmalig.
Für die Kartellämter sind die spezifischen Chipmärkte Neuland. Die sehen nicht dass der AI-GPU ein eigener Markt ist als Server-CPU oder Networking wo auch Intel und AMD gut mitmischen. Die sehen nicht dass Konsolen 100% in AMD Hand sind und der PC gaming markt zu 90% ein nvidia Monopol. Die sehen eher dass es auch Macs gibt oder Chromebooks mit Snapdragon oder Mediatek oder Server mit Arm Aaltra. Und selbst wenn sie die Anzeichen erkennen, haben sie entschieden erstmal abzuwarten.
Als Gaming-PC Käufer sieht man das ganz anders. Es ist keine Alternative dass es auch Macs gibt oder Server mit ARM CPU. Das sind einfach völlig andere Märkte und keine Kaufoption für diesen Markt. AMD bietet zwar zum Teil im Gamingmarkt auch Lösungen an, aber das ist bei 90:10 eher ein Feigenblatt und im mobile und Highend steht nvidia alleine da. 90:10 heißt dass es eigentlich schon zu spät ist ein Monopol noch zu stoppen.
Kriegsgeier
2025-02-10, 11:38:03
Und da ist Nvidia halt nur ein fabless Chiphersteller unter vielen.
Blödsinn² - sorry für die Wortwahl!
x-force
2025-02-10, 11:46:38
Sehe ich auch so. Das problem ist dass die Kartellämter die Märkte aus Investor bzw. Unternehmersicht betrachten. Und da ist Nvidia halt nur ein fabless Chiphersteller unter vielen. Den Unterschied zwischen GPUs und CPUs sehen die dann nicht.
glaubst du wirklich, dass die so doof sind?
nv hat es trotz sanktionen über ich glaube taiwan geschafft, massiv nach china zu verkaufen.
nv setzt kunden und presse unter druck.
siemens schmiert vollkommen offen im ausland, warum sollte nv der behörde keinen grund liefern wegzusehen?
Zossel
2025-02-10, 11:50:03
Für die Kartellämter sind die spezifischen Chipmärkte Neuland.
Ist google schon wieder kaputt?
https://www.google.com/search?q=nvidia+kartelluntersuchung
https://www.google.com/search?q=nvidia+kartelluntersuchung+frankreich
Mangel76
2025-02-10, 11:53:59
in einem unreguliertem markt bilden sich monopole vollkommen automatisch.
aber schuld ist doch letztlich irrelevant, die lösung ist wichtig, nur weil der weg oder die entwicklung unvermeidlich erscheint, heißt es doch nicht, dass man es unreguliert lassen müsste.
Was soll man denn regulieren? Es gibt halt Märkte, da kann es keinen Wettbewerb geben. Es wäre doch auch blöd, wenn jedes Bahnunternehmen sein eigenes Gleisnetz bauen müsste. Oder jeder Stromanbieter sein eigenes Stromnetz. Wie sollte man also regulieren, dass nicht jeder Spieleproduzent die beste Engine nutzen darf, damit auch ein Konkurrent seine Kosten reinholen kann?
Zossel
2025-02-10, 11:56:57
Das Maschinchen (GPU) kann über 1.000.000.000 Berechnungen in 0,001s erledigen!
1012 Berechungen/Sekunde wäre lesbarer. So liest sich das als wäre die Einheit Fußballfelder oder Olympische Schwimmbecken.
x-force
2025-02-10, 12:01:31
Was soll man denn regulieren?
da setzt doch nur die kreativität grenzen.
preis, nutzungsbedingungen, zugänglichkeit... such dir was aus.
@Kriegsgeier
war dir der graph zu kompliziert, oder überlegst du noch?
Badesalz
2025-02-10, 12:02:05
bei der GPUs sind wir nun mal bei einer Art "Alientechnologie" angekommen.
Nur einer kann es und SEHR, SEHR viele wollen es - Technologie vom anderen Planeten. So sehe ich das.Wer ist das denn genau? Wie man an den 5000er sieht, ohne einem Fortschritt der Nodes bei TSMC geht nativ nicht wirklich viel. Diesmal sind es nur Dongles für DLSS4 und MFG.
Alientech ist Cerebras mit WSE. NV modded weiterhin Spielegrakas für die Industrie um (wertfrei). Von der Effizienz her ist KI mit NV zu machen sowas wie RT auf der CPU berechnen.
Zossel
2025-02-10, 12:06:03
Wer ist das denn genau? Wie man an den 5000er sieht, ohne einem Fortschritt der Nodes bei TSMC geht nativ nicht wirklich viel.
NV ist eher zu faul und zu wenig innovativ um auf Chiplets zu gehen.
Und an die Architektur vom Cache trauen sich die Feiglinge von NV auch nicht ran.
Badesalz
2025-02-10, 12:11:39
@Zossel
Das Ende ist leider langsam absehbar. Da ist es schlauer das Rezept für das Mahl nicht gleich rauszuhauen, sondern die Leute noch ne Weile mit kleinen Häppchen davon zu füttern.
Vorteil: Man kann jedes Mal die Häppchen für den Preis des kompletten Mahls verkaufen :usweet:
basix
2025-02-10, 12:13:11
1012 Berechungen/Sekunde wäre lesbarer.
Dazu haben wir 1012 FLOPS bereits 2008 mit der HD 4870 überschritten und fast jedes neue Smartphone ist dort bereits drüber :D
Ein Snapdragon 8 Elite mit Adreno 830 hat ~3.4 TFLOPS.
So "Alientechnologie" ist das also nicht mehr und nicht nur einer kann das ;)
Von Tensor/Matrix FLOPS sowie HPC GPUs fangen wir wohl besser nicht auch noch an.
Kriegsgeier
2025-02-10, 12:39:07
Somit kann sich jede Hausfrau nicht nur eine Waschmaschine leisten sondern auch eine 10 TFLOPS Maschine! Das was auch zu beweisen war.
Also kann NVIDIA für 120 TFLOPS auch T$ verlangen, oder?
Und in 30 Jahren wird sich jede Hausfrau auch 1200 TFLOPS leisten können - ich glaube das ist mehr als nur fair, oder?
Dural
2025-02-10, 12:44:23
Deutsche und Wirtschaft, das war mal vor Langerzeit bei euch echt gut, heute gibt es sprichwörtlich fast nur noch Schwachköpfe bei euch. Deutschland erinnert mich etwas an Japan vor rund 20 Jahren.
Ich kann @Kriegsgeier nur recht geben.
davidzo
2025-02-10, 12:57:33
Ist google schon wieder kaputt?
https://www.google.com/search?q=nvidia+kartelluntersuchung
https://www.google.com/search?q=nvidia+kartelluntersuchung+frankreich
Untersuchungen sind nicht Handlungen. Und zudem auch reichlich spät. Nvidia hat seit über 10 Jahren 70+% Marktanteil und 90-95% bei Server-GPUs.
Aber ja, unser Wirtschaftssystem ist nicht gedacht dafür Monopole zu verhindern, sondern nur abzumildern. Und letztere Wirkung wird wohl vollends verschwinden in der kommenden Broligarchie. Einzelne Länder können da gar nichts, nur sich selbst in den Fuß schießen.
Deutschland erinnert mich etwas an Japan vor rund 20 Jahren.
Mich erinnert es an England unter Maggy Thatcher. Der Niedergang der britischen Automobilindustrie hatte hauptsächlich technische und globale Gründe, nur sekundär politische. Der Govcernment Bailout von british Leyland, die Wirtschaftsfreundlichkeit und last minute zusammenstreichen von Stellen im Rahmen des Neoliberalismus hat letzendlich nichts gebracht, denn die Weichen für Niedergang waren schon viel früher gestellt. Es hat nur den Steuerzahler arm gemacht und den Staat verschuldet, worunter die briten heute noch leiden. Innovation zahlt sich eben erst sehr langfristig aus und da haben wir in DE schon verloren mit dem Absägen der Chipindustrie, Solarindustrie, Windindustrie, etc. - Wir sind ein rohstoffarmes Land und das heißt dass die einzigen Investitionen die nicht nur Symptombekämpfung sind sondern langfristig Wohlstand sichern sind Bildung und Wissenschaft.
Badesalz
2025-02-10, 17:32:17
Ich kann @Kriegsgeier nur recht geben.Das hat mich am Ende aber doch schockiert. Dachte ich bis dahin, du meinst ihn.
Sardaukar.nsn
2025-02-10, 17:41:25
Zeit der Einführungsangebote scheint vorbei. Asus mit neuem UVP seiner günstigsten Karte: https://videocardz.com/newz/asus-only-msrp-geforce-rtx-5080-prime-graphics-card-now-costs-1265
+266$
Zossel
2025-02-10, 17:48:15
Untersuchungen sind nicht Handlungen. Und zudem auch reichlich spät. Nvidia hat seit über 10 Jahren 70+% Marktanteil und 90-95% bei Server-GPUs.
Also sollte man das besser einfach so mal entscheiden?
Mich erinnert es an England unter Maggy Thatcher. Der Niedergang der britischen Automobilindustrie hatte hauptsächlich technische und globale Gründe, nur sekundär politische. Der Govcernment Bailout von british Leyland, die Wirtschaftsfreundlichkeit und last minute zusammenstreichen von Stellen im Rahmen des Neoliberalismus hat letzendlich nichts gebracht, denn die Weichen für Niedergang waren schon viel früher gestellt. Es hat nur den Steuerzahler arm gemacht und den Staat verschuldet, worunter die briten heute noch leiden. Innovation zahlt sich eben erst sehr langfristig aus und da haben wir in DE schon verloren mit dem Absägen der Chipindustrie, Solarindustrie, Windindustrie, etc. - Wir sind ein rohstoffarmes Land und das heißt dass die einzigen Investitionen die nicht nur Symptombekämpfung sind sondern langfristig Wohlstand sichern sind Bildung und Wissenschaft.
Die fossile Propaganda fällt leider im Brumm-Brumm-Land Deutschland auf fruchtbaren Boden: https://www.ardmediathek.de/video/capriccio/maenner-die-die-welt-verbrennen/br/Y3JpZDovL2JyLmRlL2Jyb2FkY2FzdFNjaGVkdWxlU2xvdC80MDQ2MzQ1MTg4MTNfRjIwMjNXTzAxOTEw OEEwL3NlY3Rpb24vZGQ5NmZhMDYtMjMzZi00NTMxLTlmZTItMzgyMjcxNTMxMTkz
Gewürzt mit der Ideologie von der schwäbischen Hausfrau (Schuldenbremse) ist das langsam eine toxische Mischung.
Dimon
2025-02-10, 18:59:13
Also sollte man das besser einfach so mal entscheiden?
Die fossile Propaganda fällt leider im Brumm-Brumm-Land Deutschland auf fruchtbaren Boden: https://www.ardmediathek.de/video/capriccio/maenner-die-die-welt-verbrennen/br/Y3JpZDovL2JyLmRlL2Jyb2FkY2FzdFNjaGVkdWxlU2xvdC80MDQ2MzQ1MTg4MTNfRjIwMjNXTzAxOTEw OEEwL3NlY3Rpb24vZGQ5NmZhMDYtMjMzZi00NTMxLTlmZTItMzgyMjcxNTMxMTkz
Gewürzt mit der Ideologie von der schwäbischen Hausfrau (Schuldenbremse) ist das langsam eine toxische Mischung.
Wird langsam OT:
Aber was bitte hat Putin da zu suchen? Der böse buhman? :biggrin:
Ansonsten Propaganda müll wie es im Buche steht, das wichtigste wird wie immer ausgelassen :biggrin:
Mal zurück zum Thema:
Meint ihr das nvidia evtl. die schlechten timings dieser generation irgendwie per treiber oder bios update noch ausbügeln könnte?
Grüsse
dargo
2025-02-10, 19:00:51
Zeit der Einführungsangebote scheint vorbei. Asus mit neuem UVP seiner günstigsten Karte: https://videocardz.com/newz/asus-only-msrp-geforce-rtx-5080-prime-graphics-card-now-costs-1265
+266$
So viel zu MSRP-Preisvorgaben von Nvidia. :lol: Diese ganzen UVPs waren nichts weiter als eine Lüge!
lilgefo~
2025-02-10, 19:02:40
Wofür steht MSRP nochmal? Ach na richtig.
dargo
2025-02-10, 19:22:12
NV hatte die AIBs dazu gedrängt einzelne Modelle zur UVP anzubieten. Asus hat das nicht überstanden. Mal sehen wann die nächsten AIBs folgen. Wird auch interessant zu sehen welche Auswirkungen diese Aktion auf die 5070TI haben wird. Von wegen 749$. :ulol:
Also die 879 € zum Start glaube ich werden wir nicht sehen.
Badesalz
2025-02-10, 19:44:53
Wird auch interessant zu sehen welche Auswirkungen diese Aktion auf die 5070TI haben wird. Von wegen 749$. :ulol:Nochmnal kurz auf möglichen max. bevor AMD kommt.
Wert unterhalb 5090 einkaufen will, auf AMD-Preise warten. Dann werden die 5000er runtergehen.
dargo
2025-02-10, 19:51:55
Wert unterhalb 5090 einkaufen will, auf AMD-Preise warten. Dann werden die 5000er runtergehen.
Aber die NV-Marge! 111elf
Im Moment sehe ich ganz andere Probleme bei NV, massive Lieferschwierigkeiten. Da kannst du lange von niedrigeren Preisen träumen.
rentex
2025-02-10, 19:53:02
Ist man sich in dem Thread eigentlich einig, das Gaming Blackwell und sein Launch, ein GAU für NV geworden ist?
Dimon
2025-02-10, 20:33:47
Mehr als absolut, das war ein griff ins klo
Ist man sich in dem Thread eigentlich einig, das Gaming Blackwell und sein Launch, ein GAU für NV geworden ist?
GAU wäre es, wenn AMD die 5080 einholen könnte.
So ist es einfach nur ein mittelmäßiger Launch geworden. Kein Drama, kein Verlust der Krone, aber eben auch keine Serie an die man sich erinnern wird.
crux2005
2025-02-10, 20:55:45
Also die 879 € zum Start glaube ich werden wir nicht sehen.
ftfy
Ist ja noch schlimmer als zu Crypto. :(
Hakim
2025-02-10, 21:29:51
Ist man sich in dem Thread eigentlich einig, das Gaming Blackwell und sein Launch, ein GAU für NV geworden ist?
Der Launch war mies, aber mach wir uns nichts vor, die Karten werden derzeit trotz der sehr überhöhten Preisen dennoch gekauft und Nachgefragt. Das wird sich auch nicht großartig ändern da es für die 5090 und 5080 keine Alternative gibt, Ada gibt es kaum noch und wenn zu ähnlichen preisen.
Was ich sagen will, das was Produziert wird wird derzeit aus den Händen gerissen, von daher auch wenn BW nicht ganz überzeugt und der Launch low war, es würde nicht anders aussehen wenn es verdammt gut gewesen wäre. Aber mal Paar Monate abwarten wie es dann aussieht.
00-Schneider
2025-02-10, 21:59:11
Mehr als absolut, das war ein griff ins klo
Jup, nur 25-30% Mehrperformancem die mit der gleichen Steigerung des Preises und der Stromaufnahme erkauft wird.
Keine 5090er zu Release irgendwo lieferbar. Damit hat NVidia mächtig Kredit bei seinen Fanboys verspielt.
monstar-x
2025-02-11, 14:22:22
Jup, nur 25-30% Mehrperformancem die mit der gleichen Steigerung des Preises und der Stromaufnahme erkauft wird.
Keine 5090er zu Release irgendwo lieferbar. Damit hat NVidia mächtig Kredit bei seinen Fanboys verspielt.
Kredit/Image verspielt? So wie der Drogendealer, wenn er nicht am Vereinbarten Ort auftaucht. Interessiert ihn doch nicht, der Süchtige kommt eh wieder.
Genauso ist es mit Nvidia, und den "Fanboys", ist ja nicht so dass es eine Wahl gibt. Wenn du die schnellste und technisch fortgeschrittenste Grafikkarte möchtest, bleibt nur Nvidia. Von Daher ist es vollkommen egal was für ein Image Nivida bei uns Gamer hat, wir "90%" werden es dennoch kaufen. Weil wir das beste haben wollen.
Die Restlichen 10% kaufen AMD, aber nur aus Überzeugung.
Na wenn das stimmt, dass AMD diesmal mir großer Menge an den Start gehen (was nach 2-monatiger Verschiebung des offiziellen Starts nicht mal unplausibel klingt) wird NV diesmal wohl ordentlich Federn lassen. Mal sehen, ob die ihre Lieferproblematik beim Speicher zügig gelöst bekommen, sonst könnte sogar der ein oder andere chinesische (Welt-)Mitbürger auf die Idee kommen AMD zu kaufen, wenn die auch noch 1/3 weniger kosten (oder nach mehr dank scalping)
rentex
2025-02-11, 17:45:34
Kredit/Image verspielt? So wie der Drogendealer, wenn er nicht am Vereinbarten Ort auftaucht. Interessiert ihn doch nicht, der Süchtige kommt eh wieder.
Genauso ist es mit Nvidia, und den "Fanboys", ist ja nicht so dass es eine Wahl gibt. Wenn du die schnellste und technisch fortgeschrittenste Grafikkarte möchtest, bleibt nur Nvidia. Von Daher ist es vollkommen egal was für ein Image Nivida bei uns Gamer hat, wir "90%" werden es dennoch kaufen. Weil wir das beste haben wollen.
Die Restlichen 10% kaufen AMD, aber nur aus Überzeugung.
Sowas wie FC Bayern vs 1860? ;-D
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/
Wird ja auch schon im 5090 Thema behandelt.
Ich werde mir ja eine 5070 Ti kaufen welche wegen weniger Last keine Probleme machen sollte. Werde aber meine Wärmebildkamera dann mal auch bei max Last dagegen halten. Mal schauen wir warm es beim Adapter etc. wird inkl. meinem "unterdimensionierten" Netzteil.
Hol mir auch nur eine 5070 Ti welche der Hersteller (Inno3d, PNY etc.) "nur" mit einem 2x8 Pin Adapter anbietet.
Asus, KFA2 etc. zum Beispiel legen bei allen Ihren 5070 Ti 3x8 Pin Adapter bei.
Die 5070Ti wird evtl. ein RT-Krüppel, weil der nur 48MB L2$ hat, wobei schon die 64MB für die 5080 zu knapp sind.
basix
2025-02-11, 19:16:12
Ich denke nicht, dass das viel ausmacht. Hat bei der 4070 ja auch nicht gross geschadet.
dildo4u
2025-02-11, 21:13:22
Die 5070Ti wird evtl. ein RT-Krüppel, weil der nur 48MB L2$ hat, wobei schon die 64MB für die 5080 zu knapp sind.
In welchem Games?Sieht hier OK aus.
https://i.ibb.co/dwDxc0pj/Screenshot-2025-02-11-21-07-28-008-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/rRHNtGpF)
https://www.techspot.com/review/2947-nvidia-geforce-rtx-5080
KarlKastor
2025-02-12, 02:37:20
Aus RTX5080 Review-Thread
Sehe da keine Erklärung warum das der Cache sein soll. Die GPUs unterscheidet einiges mehr.
Ne 4090 hat auch nur 72 MB.
Dimon
2025-02-12, 06:14:07
Sehe da keine Erklärung warum das der Cache sein soll. Die GPUs unterscheidet einiges mehr.
Ne 4090 hat auch nur 72 MB.
Die Ada gpus haben einen schnelleren cache, das wirkt sich aus...
Badesalz
2025-02-12, 06:35:14
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/
Wird ja auch schon im 5090 Thema behandelt.der8auer auf seinem YT ist auch wieder dabei :wink:
Zossel
2025-02-12, 07:03:12
der8auer auf seinem YT ist auch wieder dabei :wink:
Hat jemand ernsthaft erwartet das dieser Schrott bei eher höherer Belastung etwa weniger oft abfackelt?
ChaosTM
2025-02-12, 07:25:09
Hat jemand ernsthaft erwartet das dieser Schrott bei eher höherer Belastung etwa weniger oft abfackelt?
Man hätte der 5090er zu Sicherheit 2 12er Kabel verpassen müssen, aber dann wäre sie optisch weniger geil..
Sumpfmolch
2025-02-12, 07:38:19
Man hätte der 5090er zu Sicherheit 2 12er Kabel verpassen müssen, aber dann wäre sie optisch weniger geil..
Verstehe nicht so ganz, warum die Kabel alle so beschissen sichtbar im Case enden müssen. Warum liegt den Karten kein langes Kabel bei, das erst unsichtbar hinter dem Mainboard seine 3+ Steckanschlüsse hat?
Zossel
2025-02-12, 08:20:47
Verstehe nicht so ganz, warum die Kabel alle so beschissen sichtbar im Case enden müssen. Warum liegt den Karten kein langes Kabel bei, das erst unsichtbar hinter dem Mainboard seine 3+ Steckanschlüsse hat?
Mach einfach den Deckel von der Kiste zu, Problem erledigt.
KarlKastor
2025-02-12, 08:45:41
Die Ada gpus haben einen schnelleren cache, das wirkt sich aus...
Interessant. Wie groß ist der Unterschied? Wo wurde das getestet?
basix
2025-02-12, 09:30:52
Finde gerade die Benchmarks nicht (chipsandcheese hat noch keine Blackwell Karte getestet). Aber bei der 5090 scheint L1 & L2 eine grössere Latenz zu haben. Irgendwo im Bereich +10...20%, soweit ich mich erinnere.
Badesalz
2025-02-12, 09:33:49
Schrieb ich schon, daß bei dem wesentlich langsameren technologischen Fortschritt die sich nun paar Tennisbälle eingebaut haben um die noch paar folgenden Generationen steigern zu können? :wink:
Badesalz
2025-02-12, 09:40:59
Hat jemand ernsthaft erwartet das dieser Schrott bei eher höherer Belastung etwa weniger oft abfackelt?Also ich nicht, aber die Boys wollten das schon wieder nicht wahrhaben.
Ist das einzige in meinem Leben gewesen wo ich gleich als einer der ersten global :biggrin: direkt schon bei der allerersten Ausführung die Meinung vertrat, daß dies nicht gut ausgehen wird :uup:
Und nun ebenfalls schon davor, daß "2x" so ein Müll da nichts verbessert, sondern bei der nochmals gestiegenen Amper(werten) nur ein direktes Aufgehen in den Flammen entschärft...
aufkrawall
2025-02-12, 09:44:41
Ich finds ja erstaunlich, wie die Medien jedes Mal Nvidia auf den Leim gehen und erneut den FE-Schrott zuerst hypen. Da kann sich auch gerade der8auer nicht ausnehmen mit seinem Reverse-Engineering-Video.
Im Grunde sollte man den ganzen Müll komplett ignorieren und Interessenten direkt zu Customs weiterleiten. Aber gibt halt Klicks, für Nvidia und Medien, alle Jahre wieder...
Man hätte der 5090er zu Sicherheit 2 12er Kabel verpassen müssen, aber dann wäre sie optisch weniger geil..
https://www.youtube.com/watch?v=puQ3ayJKWds
der8auer 12VHPWR auf der RTX 5090 ist Extrem bedenklich
Das Problem ist ja so wie es gerade aussieht (Wärmebildkamera) das zwei Adern extrem viel Ampere durchjagen und die anderen quasi nichts.
Hier stimmt die Lastverteilung der einzelnen Adern überhaupt nicht.
Hat der 8auer ja per Wärmebildkamera und mit Strommesszange in seinem Video bewiesen. Echt Interessant wie es zu sowas kommen kann.
Jeder 5090 sollte auch eine Wärmebildkamera und Strommesszange beigelegt werden. Sicher ist Sicher Edition. ;)
Badesalz
2025-02-12, 10:32:12
Das Problem ist ja so wie es gerade aussieht (Wärmebildkamera) das zwei Adern extrem viel Ampere durchjagen und die anderen quasi nichts.
Hier stimmt die Lastverteilung der einzelnen Adern überhaupt nicht.Hätten sie nur den Launch um 2 Monate verschoben... :ulol:
ChaosTM
2025-02-12, 11:08:51
Jeder 5090 sollte auch eine Wärmebildkamera und Strommesszange beigelegt werden. Sicher ist Sicher Edition. ;)
Die Astral kostet einen Tausender mehr als die FE. Da wäre das fast drinnen, statt dem sinnlosen 4. Lüfter.
Aber die hat eh ne "Sicherung"
basix
2025-02-12, 11:18:14
Ich finds ja erstaunlich, wie die Medien jedes Mal Nvidia auf den Leim gehen und erneut den FE-Schrott zuerst hypen.
Naja, ich finde die FE designtechnisch schon ziemlich sexy. Da sind viele innovative Sachen drin.
PCIe 5.0 Probleme und das mit dem 12VHPWR Load Balancing sollte natürlich nicht sein. Das sind aber primär elektrische Probleme oder einfach "Designschwächen" und betreffen das Kühlsystem nicht direkt. Das 12VHPWR Problem ist bei jeder Custom Karte auch vorhanden, Load Balancing gibt es bei keiner Karte (nur die Astral kann das zumindest monitoren).
dargo
2025-02-12, 11:28:01
Ich kann diesen Hype um den FE Kühler überhaupt nicht nachvollziehen. Das Ding heizt das Gehäuse enorm auf bei der üblichen Luftkühlung in einem Gehäuse. Zudem ist das Ding überhaupt nicht leise und die Graka ist schon thermisch am Limit. Wenn ich so eine Graka betreibe (laut, heiß) dann würde auch der Kühler einer RX 7900XTX Hellhound vollkommen für die 575W reichen. Klar... ist etwas mehr Masse, es wird aber auch kein Flüssigmetall verwendet.
basix
2025-02-12, 11:33:30
Ist doch egal ob Custom oder FE. Beide heizen genau gleich. Die FE bläst hoch und heizt die CPU mit Luftkühler mehr (ist aber ein lösbares Problem), die Customs heizen Motherboards und dort installierte SSDs (schwieriger zu lösen). Ist nur eine Problemverlagerung. 500W sind unter dem Strich immer 500W.
Bei der FE kann man allerdings den Luftstrom deutlich besser gezielt ausricht richten, falls man dort den Aufwand investiert. Bei Customs ist das viel schwieriger. Und falls man eine Wakü oder AiO bei der CPU verwendet und den Radiator nicht an der Decke des Gehäuses installiert, ist mit der FE auch bei der CPU alles fein.
Disconnected
2025-02-12, 11:50:23
Du sollst eben keine anderen Komponenten neben der GeForce haben! Wer braucht schon CPUs oder SSDs?
Zossel
2025-02-12, 11:55:16
Naja, ich finde die FE designtechnisch schon ziemlich sexy. Da sind viele innovative Sachen drin.
PCIe 5.0 Probleme und das mit dem 12VHPWR Load Balancing sollte natürlich nicht sein. Das sind aber primär elektrische Probleme oder einfach "Designschwächen" und betreffen das Kühlsystem nicht direkt.
Dem CPU-Lüfter die Abwärme direkt vor die Fresse zu blasen ist total innovativ.
dargo
2025-02-12, 11:55:49
Ist doch egal ob Custom oder FE. Beide heizen genau gleich. Die FE bläst hoch und heizt die CPU mit Luftkühler mehr (ist aber ein lösbares Problem), die Customs heizen Motherboards und dort installierte SSDs (schwieriger zu lösen). Ist nur eine Problemverlagerung. 500W sind unter dem Strich immer 500W.
Deshalb ist auch alles Schwachsinn bei so einem hohen Powerbudget was nicht direkt die erzeugte Abwärme aus dem Gehäuse abtransportiert.
Zossel
2025-02-12, 11:57:04
Das Problem ist ja so wie es gerade aussieht (Wärmebildkamera) das zwei Adern extrem viel Ampere durchjagen und die anderen quasi nichts.
Hier stimmt die Lastverteilung der einzelnen Adern überhaupt nicht.
Ach was.
basix
2025-02-12, 11:59:16
Dem CPU-Lüfter die Abwärme direkt vor die Fresse zu blasen ist total innovativ.
Hey, was machst du mit dem 500W Klumpen direkt beim Motherboard und was ist da seit modernen Tagen da? Ach ja, die SSD. Und evtl. verschmort dir dort das Plastik des PCIe Slots (es wird verdammt heiss am Slot mit meiner 4090, selbst mit 300W).
Und wie gesagt: Lösbares Problem bei der FE (Luftstrom richten oder keinen CPU-Luftkühler nutzen, GPU-Kühler mit Riser direkt an der Seitenwand aus dem Gehäuse blasen lassen).
Früher hat man noch Air Ducts in Gehäusen gebastelt. Heute ist etwas Eigeninitiative und Mitdenken wohl zu viel verlangt....
Disconnected
2025-02-12, 12:03:23
Das Ding hätte grundsätzlich nicht mit Luftkühlung auf den Markt gehört.
basix
2025-02-12, 12:06:33
Deshalb ist auch alles Schwachsinn bei so einem hohen Powerbudget was nicht direkt die erzeugte Abwärme aus dem Gehäuse abtransportiert.
Das wäre der Idealfall ja. Bei der FE zumindest umsetzbar.
Ich drossle die Karten eh auf <300W und habe deutlich weniger Probleme mit der Hitzeentwicklung. Mit dem FE Kühler könnten man aus meiner Sicht den Airflow im/aus dem Gehäuse deutlich besser optimieren. Die Customs sind zwar leiser und kühler, aber die warme Luft bringt man niemals direkt aus dem Gehäuse.
dargo
2025-02-12, 12:12:37
Das wäre der Idealfall ja. Bei der FE zumindest umsetzbar.
Ich drossle die Karten eh auf <300W und habe deutlich weniger Probleme mit der Hitzeentwicklung.
Du kannst machen was du willst. Du kannst aber sowas nicht als Argument bringen wenn das Teil mit bis zu 575W konzipiert ist.
anorakker
2025-02-12, 12:16:19
Ich behaupte einfach mal: Diese Karte wurde nie für den Gamer sondern sondern zu 95% für ihre Compute/KI Kisten gebaut. Möglichst platzsparend um viele davon nebeneinander bauen zu können, dazu dann ordentliche Zwangskühlung durch den Stack.
Oder man nimmt eh nur gleich GPU/RAM Platine und hat nicht jedesmal die blöden teuren HDMI/DP Stecker dran.
Meine Meinung: Consumer / Gamer FE ist ein afterthought Produkt...
MiamiNice
2025-02-12, 12:22:12
Das wäre der Idealfall ja. Bei der FE zumindest umsetzbar.
Ich drossle die Karten eh auf <300W und habe deutlich weniger Probleme mit der Hitzeentwicklung. Mit dem FE Kühler könnten man aus meiner Sicht den Airflow im/aus dem Gehäuse deutlich besser optimieren. Die Customs sind zwar leiser und kühler, aber die warme Luft bringt man niemals direkt aus dem Gehäuse.
Imo kannst Du die 5000er Karten nicht auf 300 Watt runter ziehen. Unter 400 Watt kann man nicht einstellen und unter 450 Watt am Stecker, startet die erst gar nicht (5090).
basix
2025-02-12, 13:03:19
Du kannst machen was du willst. Du kannst aber sowas nicht als Argument bringen wenn das Teil mit bis zu 575W konzipiert ist.
Naja, das 575W Argument zieht nicht bei der Diskussion FE vs. Custom. Und darum ging es primär. TDP ist bei FE sowie Custom identisch. Dass 575W generell absurd viel sind, muss man glaube ich nicht diskutieren. Bei der FE ist es aber möglich, die Abluft direkt aus dem Gehäuse zu leiten, was bei einer Custom viel, viel schwieriger sein dürfte.
Dass ich die Karten auf 300W limitiere ist nicht direkt ein Argument für oder gegen die FE. Aber selbst mit 300W dürfte es mit der FE leichter fallen, den Lufstrom zu leiten und bei 300W ist die FE auch nicht wirklich lauter als eine Custom. Also sehe ich für meinen Use Case (UV) keine Kühler-Nachteile bei der FE.
Imo kannst Du die 5000er Karten nicht auf 300 Watt runter ziehen. Unter 400 Watt kann man nicht einstellen und unter 450 Watt am Stecker, startet die erst gar nicht (5090).
Ja, anscheinend nicht via Power Limit. Leider. Aber die Spannung kann man auf 0.8V reduzieren/fixieren und bei der 4090 nur auf 0.88V. Mit fixer Spannung und fixem Takt dürfte die Karte oftmals <300W landen. Meine 4090 läuft in sehr vielen Spielen <=250W bei fix 0.9V.
fondness
2025-02-12, 13:25:17
LOL, NV verschiebt den Launch der 5070 angeblich auf März, um wieder auf AMD zu warten :ugly:
GeForce RTX 5070 launch reportedly slips to early March, NVIDIA playing cat & mouse with AMD?
https://videocardz.com/newz/geforce-rtx-5070-launch-reportedly-slips-to-early-march-nvidia-playing-cat-mouse-with-amd
ChaosTM
2025-02-12, 13:32:02
Wenn, dann auf ca. 450 (~80%) reduzieren (Sweetspot?) und kaum Leistung verlieren.
@ 70%/400W kann man gleich bei der 4090er bleiben wenn man MFG nicht braucht.
Aber wie basix schon gesagt hat. Mit UV geht da sicher noch mehr.
Santini
2025-02-12, 13:49:55
GeForce RTX 5070 launch reportedly slips to early March, NVIDIA playing cat & mouse with AMD?
Nvidia hat hier etwas mehr zu verlieren, die Top Modelle sind nicht da und schlechte Presse macht sich langsam breit.
von der AMD Karte erwartet man nicht viel, die 5070 Ti muss aber abliefern, im Vergleich mit der alten 4070 (Super) /4080 und der AMD Karte.
basix
2025-02-12, 13:53:39
LOL, NV verschiebt den Launch der 5070 angeblich auf März, um wieder auf AMD zu warten :ugly:
Die war laut vielen Leuten schon lange für Anfang März geplant ;)
Die 5070 Ti kommt ganz normal am 20. Februar. Wann hätte die 5070 dann starten sollen (hat ja noch keinen offiziellen Termin erhalten)? Eine Woche später? Und nun sind es halt 2 Wochen? Schlimme Sache. MSRP hat Nvidia auch schon kommuniziert.
AMD wird ausserdem noch im Februar Infos zu RDNA4 rausgeben, AMD hat also nicht auf de 5070 gewartet. Wenn dann auf die 5070 Ti.
VCZ reimt sich da ein wenig viel zusammen...
dildo4u
2025-02-12, 13:55:49
4070S sind noch unter 700€ März macht sinn 650€ für 5070 wird das Minimum was eh keiner zum Launch hält
E39Driver
2025-02-12, 15:45:19
Ich behaupte einfach mal: Diese Karte wurde nie für den Gamer sondern sondern zu 95% für ihre Compute/KI Kisten gebaut. Möglichst platzsparend um viele davon nebeneinander bauen zu können, dazu dann ordentliche Zwangskühlung durch den Stack.
Oder man nimmt eh nur gleich GPU/RAM Platine und hat nicht jedesmal die blöden teuren HDMI/DP Stecker dran.
Meine Meinung: Consumer / Gamer FE ist ein afterthought Produkt...
Ja gut möglich, der Gedanke kam mir auch. Vermutlich hätte man am liebsten noch einen billigen 2 Slot Radialkühler genommen und den bei 11.000 rpm drehen lassen. Im Serverbereich kein Problem.
Wobei wäre mal interessant, ob man die alten Radial-Designs nicht auch hoch skalieren und halbwegs leise bekommen kann. Also meinetwegen 4 Slots breit und 1,5 fache Bauhöhe. Und dafür nur 2.000 Umdrehungen. Rein thermisch immer noch das beste Design, da die warme Abluft direkt nach draußen befördert wird
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.