PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: RTX3080 - Die Testresultate zur UltraHD/4K-Performance im Überblick


Leonidas
2020-09-16, 21:01:37
Link zur News:
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick


wichtiges Update:
Gegenüber der ursprünglichen Fassung wurden im Laufe des 17. September noch zwei (eigene) Fehler in den Datenreihen zu Lab501 & ComputerBase entdeckt und korrigiert. Damit verändern sich auch die insgesamten Index-Werte, die Änderung beträgt gegenüber der Original-Fassung allerdings üblicherweise nur 0,1-0,3 Prozentpunkte. Danke an von Richthofen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12429182#post12429182) für das Finden des Fehlers!

Ravenhearth
2020-09-16, 21:51:38
Das ging ja schnell :up:

Damit landet die 3080 tatsächlich bei ca. 310% im 4K-Index

Leonidas
2020-09-16, 22:01:42
Es waren trotzdem 6 Stunden, ehe ich das fertigstellen konnte. Nur mit Vorbereitung und Wegschaufeln aller anderen Arbeit möglich.

Für 1080p & 1440p mache ich vermutlich kürzere Tabellen. Das wird sowieso CPU-limitiert. Wohl lieber eine extra Tabelle für RT.

G3cko
2020-09-16, 22:04:20
Es waren trotzdem 6 Stunden, ehe ich das fertigstellen konnte. Nur mit Vorbereitung und Wegschaufeln aller anderen Arbeit möglich.

Für 1080p & 1440p mache ich vermutlich kürzere Tabellen. Das wird sowieso CPU-limitiert. Wohl lieber eine extra Tabelle für RT.

Das macht defnitiv mehr Sinn. Mit den neuen Konsolen und PC-Karten liegt das FullHD-Zeitalter definitiv hinter uns.

k0nan
2020-09-16, 22:07:08
Danke für die schnelle Übersicht :up:

Gast
2020-09-16, 22:25:13
Danke für den super Überblick.

Akkarin
2020-09-16, 23:08:32
Das ging ja schnell :up:

Damit landet die 3080 tatsächlich bei ca. 310% im 4K-Index

228*1.32=301 ?

Gast
2020-09-16, 23:14:32
Das macht defnitiv mehr Sinn. Mit den neuen Konsolen und PC-Karten liegt das FullHD-Zeitalter definitiv hinter uns.

Die schnellste Konsole hat 12 TFlops also soviel bums wie ne 2080s und selbst die schaffen keine 60FPs in rdr2 in FHD Max out . RT zieht nochmal mehr sieht dafür aber stellenweise phänomenal gut aus.
Bis wir in 1440p und 4K bedenkenlos bei 60FPs min zocken können ohne auf Details zu Verzichten werden noch einige GPU und Konsolen Generationen an uns vorbei ziehen.

Die 3080 ist nen ordentlicher Schritt in die richtige Richtung wenn auch mit Schönheitsfehlern ( Vram&Verlustleistung ) für sorgenfreies 4K aber nicht genung.

RLZ
2020-09-16, 23:23:07
Schöne Zusammenfassung.

Wurde ja glücklicherweise doch mehr als die +30% hier im Forum :)

Ravenhearth
2020-09-17, 00:29:12
228*1.32=301 ?
Ich bin von der FE ausgegangen (236%)

Emil_i_Lönneberga
2020-09-17, 00:58:18
Auch von mir ein :up: für die Übersicht.

In UHD +88% gegenüber der 1080Ti, das ist ordentlich. Da rege ich mich über die 10GB umso mehr auf.

Platos
2020-09-17, 03:19:14
Ist schon krass, wie sehr die CPU hier der Flaschenhals ist. Selbst bei 1440p.
Bei 1080p ist manchmal sogar die 2080FE ! gleich schnell wie die 3080, weil die CPU so hart ausbremst. Und in 1440p ist der Abstand 3080-2080Ti immer noch oftmals weit weg von den +30% wie in 4k.

Die Karte kann man also für FullHD getrost stecken lassen (für die meisten Spiele). Die Karte wäre für 1440p sehr gut geeignet @ high FPS und für 4k @60FPS.

Naja...Wäre da nicht der Speicher

Auch von mir ein :up: für die Übersicht.

In UHD +88% gegenüber der 1080Ti, das ist ordentlich. Da rege ich mich über die 10GB umso mehr auf.

Sehe ich genau so. Von der leistung sexy, der Preis stimmt auch aber Speicher ein Witz, gerade wenn man hohe Auflösungen fahren will (4k+). Ich hoffe immer noch, dass ne 20GB Version kommt.

Ätznatron
2020-09-17, 07:05:11
Tja, hätte eine schöne Karte werden können.

Wäre da nicht der knappe Speicher.

Für mich ist diese RTX 3080 daher DOA.

Legendenkiller
2020-09-17, 08:58:55
Es waren trotzdem 6 Stunden, ehe ich das fertigstellen konnte. Nur mit Vorbereitung und Wegschaufeln aller anderen Arbeit möglich.

Für 1080p & 1440p mache ich vermutlich kürzere Tabellen. Das wird sowieso CPU-limitiert. Wohl lieber eine extra Tabelle für RT.

Hatte gestern IrgosLab geschaut.
Da lag die 3080 bei 1080p & 1440p faktisch immer im CPU limit des 10900k/3950X.
Und wenn mal nicht, dann lagen die FPS oft schon bei 144+.

Gut bei den kleineren 30xx Karten wird dann 1440p interessant, was ja aktuell der "Gaming-Standard" ist.

Aber FullHD kann man sich glaub schenken, da sind alle Grakas schnell genug.
Ich würde da pauschal nur noch >1000% angeben :-)

Nazar
2020-09-17, 09:29:46
:up:
Danke für die Übersicht!

Der HeinZ
2020-09-17, 09:34:24
Danke für die Übersicht, ggf. könntest du noch die Watt zahlen vergleichend darunter schreiben um mal grob die Effizienz abzuschätzen, der Performance Sprung hier erscheint eher durch rohe Gewalt ertzeugt worden zu sein als durch Architektur Verbesserungen.
Hat eine Seite sich schon mit der Computing Leistung beschäftigt? Die sollte durch die FP32 Einheiten überdurchschnittlich hoch gegangen sein.
Gruss Matthias

Leonidas
2020-09-17, 10:06:33
Danke für die Übersicht, ggf. könntest du noch die Watt zahlen vergleichend darunter schreiben


Ja, mach ich (gleich).

Update: Erledigt.

Gast
2020-09-17, 10:08:35
Danke für die Übersicht, ggf. könntest du noch die Watt zahlen vergleichend darunter schreiben um mal grob die Effizienz abzuschätzen, der Performance Sprung hier erscheint eher durch rohe Gewalt ertzeugt worden zu sein als durch Architektur Verbesserungen.
Hat eine Seite sich schon mit der Computing Leistung beschäftigt? Die sollte durch die FP32 Einheiten überdurchschnittlich hoch gegangen sein.
Gruss Matthias
Also techpowerup und igorslab haben ja Effizienzmessungen, bei beiden ist die 3080 bei 4k deutlich vorne, Igor hat sogar dlss mit einbezogen, dann ist dir Effizienz massiv höher, auch als die 2080 Ti mit dlss.

Rabiata
2020-09-17, 11:11:24
Danke für die Übersicht, Leo :up:. Ich bin zwar kein Nvidia-Fan, aber es ist trotzdem interessant zu sehen wie sich die Leistung über die Jahre entwickelt. 3DCenter macht da einen guten Job.
Also techpowerup und igorslab haben ja Effizienzmessungen, bei beiden ist die 3080 bei 4k deutlich vorne, Igor hat sogar dlss mit einbezogen, dann ist dir Effizienz massiv höher, auch als die 2080 Ti mit dlss.
Das war im Vergleich zur Vorgängergeneration nicht verwunderlich. Der Sprung zu 8nm macht den Unterschied. Interessant wird die Effizienz von RDNA2 im Vergleich.

hardtech
2020-09-17, 12:58:54
schade, dass die 3070 nicht mit vorgestellt werden kann. so zieht sich der launch inkl. custom karten vermutlich bis weihnachten, wenn mann die amd karten inkludiert. doof.

@leo
ich würde fhd index nicht mehr mit angeben.
2160p und 1440p. evtl. reicht sogar nur noch der 2160p index. dann hast du weniger arbeit und man muss auch net so sehr in tabelle springen und vergleichen.

oder gibt es spiele, wo eine alte 1080ti in fhd keine 60fps schafft? >> denke nicht.

vielmehr sollte man auf perf./watt eingehen.
mal angenommen, man reduziert vcore um 5% / 10% >> welche leistungseinbrüche ergeben sich unter 2160p und wie ist dann der verbrauch?

die thematik wird auch spannend, da die amd karten 7nm nutzen sollen. wer ist effizienter?!

da hat golem was schönes getestet >> verbrauch @60fps fix. super ansatz!
https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508-6.html

#44
2020-09-17, 13:16:51
Danke für den Performance-Index! :up:

JVC
2020-09-17, 14:40:24
Danke für die gute Übersicht :up:

+32% wären bei gleichem Preis und Verbrauch ja ok...
Aber der knappe Ram verbockt es dann sowieso.(Mir zu wenig)

Mit 12Gb wäre sie irgendwie runder...(wäre mir aber auch noch zu wenig)
Vielleicht kommt ja noch ne 20Gb Version :smile:

M.f.G. JVC

von Richthofen
2020-09-17, 14:58:45
@Leonidas
Fehler in der Performancetabelle: Bei den Werten von CB (nur die hab ich verglichen) setzt du die anderen Grafikkarten ins Verhältnis zur bei CB verwendenten Max. OC Version der 3080.

Beispiel: 5700XT 47,7% zu 100%. Es muss aber heissen 50% zu 100% für die "normale" 3080.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160

Leonidas
2020-09-17, 16:11:12
@Leonidas
Fehler in der Performancetabelle: Bei den Werten von CB (nur die hab ich verglichen) setzt du die anderen Grafikkarten ins Verhältnis zur bei CB verwendenten Max. OC Version der 3080.

Beispiel: 5700XT 47,7% zu 100%. Es muss aber heissen 50% zu 100% für die "normale" 3080.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160


OOOOHHH Schande. Muss ich fixen.

Berniyh
2020-09-17, 16:22:38
Respekt für die Arbeit! :up:

Das erspart einem die ganzen nervigen Tests anzuschauen (bzw. nur ein paar wenige). :freak:

MasterElwood
2020-09-17, 16:40:52
Ist schon krass, wie sehr die CPU hier der Flaschenhals ist. Selbst bei 1440p.


lt. IGOR sogar oft bei 4K.

Leonidas
2020-09-17, 16:53:11
wichtiges Update:
Gegenüber der ursprünglichen Fassung wurden im Laufe des 17. September noch zwei (eigene) Fehler in den Datenreihen zu Lab501 & ComputerBase entdeckt und korrigiert. Damit verändern sich auch die insgesamten Index-Werte, die Änderung beträgt gegenüber der Original-Fassung allerdings üblicherweise nur 0,1-0,3 Prozentpunkte. Danke an von Richthofen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12429182#post12429182) für das Finden des Fehlers!

Gast
2020-09-17, 18:20:03
Also techpowerup und igorslab haben ja Effizienzmessungen, bei beiden ist die 3080 bei 4k deutlich vorne, Igor hat sogar dlss mit einbezogen, dann ist dir Effizienz massiv höher, auch als die 2080 Ti mit dlss.


Naja massiv ist was anderes, man hat gerade mal grob die Effizienzverbesserungen die man durch den Prozess "kostenlos" mitbekommt.

Aber möglicherweise ist die Architektur einfach schon so effizient dass da kaum mehr was zu holen ist, passt auch gut zu der Aussage von Nvidia, dass Ampere mit der Speicherbandbreite nicht effizienter als Turing umgeht.

Der HeinZ
2020-09-17, 18:43:47
Ja, mach ich (gleich).

Update: Erledigt.

Ah super, vielen Dank!

MD_Enigma
2020-09-17, 20:52:46
Klasse! Das ist mal ne mega Übersicht :)

Was mich reizen würde, wäre mal zu sehen wie sich der Performance-Index mit rausgerechnetem Power-Target ergibt. Weil, 320W ist ne Hausnummer, die man fairerweise gegen die 270W einer 2080Ti gewichten muss.

iamthebear
2020-09-17, 21:28:10
Kennt zufällig jemand einen guten Test, wo auch die DLSS Performance ohne RTX getestet wurde, wo auch Werte für 1440p Native vs. 4K DLSS enthalten sind?

Gast
2020-09-17, 21:48:24
Kennt zufällig jemand einen guten Test, wo auch die DLSS Performance ohne RTX getestet wurde, wo auch Werte für 1440p Native vs. 4K DLSS enthalten sind?

Wofür?
Ohne RT ist 1440p oft schon signifikant und bei manchen Spielen sogar 4k teilweise CPU-Limitiert. Da die GPU-Last mit DLSS noch weiter zu verringern ist nicht wirklich sinnvoll.
DLSS hat auf der 3080 2 Zwecke. Einerseits superhohe Auflösungen zu ermöglichen und andererseits Raytracing mit hohen Auflösungen zu ermöglichen.

iamthebear
2020-09-17, 23:09:15
Das ist schon klar, aber zukünftige Spiele laufen vielleicht nicht mehr auf 4K native und ich will sehen ob DLSS bei der 3080 mehr oder weniger Performance kostetet verglichen mit 1440p native also ob die Tensor Cores schnell genug dafür sind. Alle anderen Performancedaten über die 3080 sind ja schon bekannt.

Legendenkiller
2020-09-18, 12:24:51
Bei der 3080 muss man aber bitte mal den Preis korrigieren.

Der Markpreis sind 900-1000€ .
Die 700€ FE war blos ein Papiertiger mit mininmaler Stücktzahl. Sozusagen die anfix Probe.



Reine Marketingverarsche... die 700€ und alle haben es geglaubt.
Mich hatte schon die Meldung vor Wochen stutzig gemacht das Custom 200€ mehr kosten sollen, obwohl sie 20W weniger TPD limit haben. Besseres Kühlsystem dürfte ausch schwer werden.

Und in Foren die Testmuster hatten werden Beiträge kommentarlos gelöscht, wenn man sagt das sie im schnitt blos 70% schneller ist und nicht doppelt so schnell. Da hat Nvidia die betreute Presse echt gut im Griff.

Knuddelbearli2
2020-09-18, 14:06:13
Hmm also grob 2 mal soschnell wie meine 1070? die müsste ja bei 32% liegen, ca 20% langsamer als die bei 40% liegende 1080

Aber warte eh erstmal auf AMD den 970 Betrug nehme ich NV immer noch übel, die 1070 wurds nur da die 970 abgeraucht ist und ich das Geld zurück bekommen habe wenn ich mir dafür wieder eine NV kaufe.

Leonidas
2020-09-18, 14:17:45
Hmm also grob 2 mal soschnell wie meine 1070? die müsste ja bei 32% liegen, ca 20% langsamer als die bei 40% liegende 1080


Ungefähr. Laut Perf.Index kann man 1080 zu 1070 bei x1.23 ansetzen.

Gast
2020-09-18, 16:44:43
Mir ist der Verbrauch dieser Karte viel zu hoch und ich frage mich wo Kritik daran bleibt. 370w maximal und darüber hinaus für eine 080 Karte, die unter Pascal noch 175w verbrauchte? Wo bleibt da der Fortschritt? Der gesamte Leistungszuwachs wird mit höherer Leistungsaufnahme erkauft.

In Zeiten in denen wir von CO² Freiheit und sinnvollem Energiekonzept sprechen, verbraucht eine GPU allein so viel wie ein Mittelklasse PC. Bravo! Den Amis scheint das völlig egal zu sein.

Wenn AMD sowas im Gegenzug auf den Markt gebracht hätte und hat, siehe Vega 10 - hat man sie in der Luft zerfetzt. Unter Nvidia wird sowas als Feature verkauft und bejubelt. Die gesamte Hardware-Medien-Presse hängt am GPP-NDA Nabel von Nvidia. Traurig.

iamthebear
2020-09-18, 19:08:23
Bei der 3080 muss man aber bitte mal den Preis korrigieren.

Der Markpreis sind 900-1000€ .
Die 700€ FE war blos ein Papiertiger mit mininmaler Stücktzahl. Sozusagen die anfix Probe.

Der offizielle Preis sind 700 Euro und genau um diesen Preis werden die Karten auch verkauft. Nvidia bietet diese ja selbst in ihrem Shop an. Dass diese 2 Tage nach Release natürlich noch nicht in ausreichenden Stückzahlen lieferbar sind sollte klar sein.

Reine Marketingverarsche... die 700€ und alle haben es geglaubt.
Mich hatte schon die Meldung vor Wochen stutzig gemacht das Custom 200€ mehr kosten sollen, obwohl sie 20W weniger TPD limit haben. Besseres Kühlsystem dürfte ausch schwer werden.

Wenn es OCing Modelle mit selektierten Chips sind oder anderen Features, die besser sind als das Referenzdesign dann kosten diese bis zu 200 Euro mehr. Das war schon immer der Fall. Die normalen 3080er mit Standardtakraten kosten genauso um die 700 Euro, sobald sie lieferbar sind.
Und ich glaube jede AIB Karte hat einen besseren Kühler als die FE, da die AIBs durchgehend auf 3 Slot Kühler setzen, während die FE eine Dual Slot Karte ist.

Und in Foren die Testmuster hatten werden Beiträge kommentarlos gelöscht, wenn man sagt das sie im schnitt blos 70% schneller ist und nicht doppelt so schnell. Da hat Nvidia die betreute Presse echt gut im Griff.

Das mit der doppelten Performance war keine Aussage von Nvidia sondern wurde von den Kunden dazugedichtet vermutlich auf Grund der verdoppelten FP32 Performance. Nvidida hat durchgehend um die 70% gegenüber der 2080 Super angegeben und dies hat die 3080 ja eindeutig solange kein CPU Limit vorliegt. Die einzige Folie, wo eine Verdopplung angedeutet wurde zeigt "up to 2x" und dies trifft jaim Fall von Quake RTX auch eindeutig zu. Dies ist sogar eine Untertreibung, da es in manchen Situationen wenn z.B. die 2080 zu wenig VRAM hat sogar noch mehr ist.

Mir ist der Verbrauch dieser Karte viel zu hoch und ich frage mich wo Kritik daran bleibt. 370w maximal und darüber hinaus für eine 080 Karte, die unter Pascal noch 175w verbrauchte? Wo bleibt da der Fortschritt? Der gesamte Leistungszuwachs wird mit höherer Leistungsaufnahme erkauft.

In Zeiten in denen wir von CO² Freiheit und sinnvollem Energiekonzept sprechen, verbraucht eine GPU allein so viel wie ein Mittelklasse PC. Bravo! Den Amis scheint das völlig egal zu sein.

Wenn AMD sowas im Gegenzug auf den Markt gebracht hätte und hat, siehe Vega 10 - hat man sie in der Luft zerfetzt. Unter Nvidia wird sowas als Feature verkauft und bejubelt. Die gesamte Hardware-Medien-Presse hängt am GPP-NDA Nabel von Nvidia. Traurig.

Die 3080 zieht genauso viel Leistung wie es der Besitzer haben will. Zieht sie dir zu viel Strom, so kannst du jederzeit das Powerlimit runter stellen. Bei 270W auf 2080 Ti Niveau läuft diese immer noch wunderbar (laut Computerbase sind es glaub ich nur 4% weniger Leistung).

Und Vega wurde so zerrissen, da sie bei mittelmäßiger Performance so viel verbraucht hat. Hier hatte Nvidia zum selben Preis und Performance deutlich sparsamere Karten im Angebot. Solange AMD keine sparsamere Karte bei gleicher Performance liefern kann und der Kühler die Wärme sehr einfach abführen kann sehe ich das Problem nicht.

Robot
2020-09-18, 20:25:57
Danke für die Übersicht, wie immer tolle Sache.

Nachdem ich ja selber nicht mehr testen kann, immer meine erste und beste Quelle für Ergebnisse :)

Gast
2020-09-19, 03:16:50
Es zeigt einfach das die letzten 4 bis 5% mit der Brechstange und fast 100w erkauft wurden. Was heisst denn, die Karte verbraucht genauso viel wie der 3080 Käufer will? Welche Alternative hat er denn?

Fast 400w für eine Mainstreamkarte ist einfach lächerlich und mehr ist die 3080 nicht, waren die x080 die letzten Gens nie. Wie es anders ging zeigt ja die 2080ti. Man bekommt also eine 2080ti mit weniger Speicher, höherem Verbrauch usw. und soll die Karte dann mit dem GT104 vergleichen, ja der ist langsamer aber deutlich sparsamer.

Ampere ist ein Schluckspecht sonders gleichen.

AMDs Vega 64 brachte auch 20 bis 30 % Leistungszuwachs mit, wo soll da ein Unterschied gewesen sein? Mich erinnert NVidia immer mehr an eine Mischung aus Apple und Intel. Viel Kohle für Tic Tic Tic.

Gast
2020-09-19, 23:59:27
Was heisst denn, die Karte verbraucht genauso viel wie der 3080 Käufer will? Welche Alternative hat er denn?



Jeder kann wenn er will die Karte bis auf 100W runterregeln.

Gast
2020-09-20, 07:44:07
Jeder kann wenn er will die Karte bis auf 100W runterregeln.
Ja und jeder bekommt dann die Leistung einer 1060. Warum sollte ich eine AUSGELIEFERTE Referenz des Herstellers runterregeln und warum ging das früher bei Vega nicht, wo der vermeintlich erhöhte Verbrauch ein Problem war?

Ampere säuft einfach, Raff sein 850w Netzteil hat sich dabei abgeschaltet und es ging nicht um die 3090 die kommt erst noch. NVidia wird ein neues BIOS bringen müssen, was dann nach den Reviews wieder Leistung kostet, und undervolt tut dies auch. Ist also kein Argument, zu sagen jedem steht es frei daran umherzuschrauben oder baust du dein Auto um wenn es zuviel Sprit verbraucht? Du lebst damit oder verkaufst es! Hat den Anschein das viele die Leistungsaufnahme von Ampere als viel zu hoch empfinden, denn letztlich steht die Angabe TGP 320 oder 350w für das was ein Netzteil jederzeit liefern können muss, es hat den Anschein das die Angabe von NVidia geschönt wurde, sonst würden die Netzteile die das können nicht abschalten.

Fermi Nr 2...maximal hochgeprügelt.

Gast
2020-09-20, 09:38:58
Mir ist der Verbrauch dieser Karte viel zu hoch und ich frage mich wo Kritik daran bleibt. 370w maximal und darüber hinaus für eine 080 Karte, die unter Pascal noch 175w verbrauchte? Wo bleibt da der Fortschritt? Der gesamte Leistungszuwachs wird mit höherer Leistungsaufnahme erkauft.

In Zeiten in denen wir von CO² Freiheit und sinnvollem Energiekonzept sprechen, verbraucht eine GPU allein so viel wie ein Mittelklasse PC. Bravo! Den Amis scheint das völlig egal zu sein.

Wenn AMD sowas im Gegenzug auf den Markt gebracht hätte und hat, siehe Vega 10 - hat man sie in der Luft zerfetzt. Unter Nvidia wird sowas als Feature verkauft und bejubelt. Die gesamte Hardware-Medien-Presse hängt am GPP-NDA Nabel von Nvidia. Traurig.

Der nächste der bei FFF seine Denkfähigkeit abgegeben hat und lieber im Takt mitklatscht und trillert.

Der absolute Verbrauch ist in Relation zur Leistung zu sehen , wenn man diese Brücke geschlagen bekommt erkennt man auch das die rtx3080 zur Zeit die effizienteste GPU ist , müsste also den grünen Daumen Öko Award erhalten ! Sozusagen der Fernbus säuft zwar 20l/100km transportiert dabei aber auch 50 leute !

Warum die Vegas wegen ihrem Verbrauch zerrissen wurden sollte dir jetzt auch klar sein ,die haben viel gesoffen aber in Relation wenig geleistet also miese Perf/W der absolute Verbrauch war in der effiziensbetrachtung nie ein Thema.

Gast
2020-09-20, 09:45:34
Ja und jeder bekommt dann die Leistung einer 1060. Warum sollte ich eine AUSGELIEFERTE Referenz des Herstellers runterregeln und warum ging das früher bei Vega nicht, wo der vermeintlich erhöhte Verbrauch ein Problem war?

Ampere säuft einfach, Raff sein 850w Netzteil hat sich dabei abgeschaltet und es ging nicht um die 3090 die kommt erst noch. NVidia wird ein neues BIOS bringen müssen, was dann nach den Reviews wieder Leistung kostet, und undervolt tut dies auch. Ist also kein Argument, zu sagen jedem steht es frei daran umherzuschrauben oder baust du dein Auto um wenn es zuviel Sprit verbraucht? Du lebst damit oder verkaufst es! Hat den Anschein das viele die Leistungsaufnahme von Ampere als viel zu hoch empfinden, denn letztlich steht die Angabe TGP 320 oder 350w für das was ein Netzteil jederzeit liefern können muss, es hat den Anschein das die Angabe von NVidia geschönt wurde, sonst würden die Netzteile die das können nicht abschalten.

Fermi Nr 2...maximal hochgeprügelt.

Effizient = Leistung pro Energie Einsatz , wenn man das mal verstanden hat erübrigen sich auch solche Post die jede 2 Seite kommen.

Ich glaube aber ehrlich gesagt nicht das die meisten die sowas posten diese einfache Relation nicht verstehen können, die wollen einfach nicht!

Sei es aus gnatz weil sie keine Karte haben oder wegen der Grabenkampf Mentalität um ganz nach Marketing Manie mit großen Zahlen auf negativ Publicity kreuzzug zu gehen.

Gast
2020-09-20, 22:40:20
Ja und jeder bekommt dann die Leistung einer 1060.


Wie wir wissen ist Ampere auf 120W ca. auf Niveau von Turing auf 250W.

Auf 100W sollte also Ampere zumindest in Regionen einer 2070 bis 2070 Super landen.



Warum sollte ich eine AUSGELIEFERTE Referenz des Herstellers runterregeln und warum ging das früher bei Vega nicht, wo der vermeintlich erhöhte Verbrauch ein Problem war?


Keine Ahnung vielleicht weil man Greta unter seinen Followern hat? Den Rest stört es eh nicht.

Das Problem an Vega war, dass er auslahm war für seinen Verbrauch. Verringerst du den Verbrauch wird er noch lahmer.
Ampere ist sauschnell und braucht dafür auch eine Menge.

Wenn man will dass Ampere nicht mehr viel braucht ist er immer noch schnell, nur eben nicht mehr sauschnell.

Du kannst Ampere so konfigurieren, dass er mit abstand die Effizienteste Grafikkarte ist welche die Welt jemals gesehen hat, dann ist er hatl nicht mehr extrem viel schneller sondern nur mehr ein bischen.


Ampere säuft einfach, Raff sein 850w Netzteil hat sich dabei abgeschaltet und es ging nicht um die 3090 die kommt erst noch.


Sagt gar nichts aus, mein Netzeil wurde auch gerade instabil ob wohl es schon Jahrelang mit der 2080Ti läuft. So ist das eben mit der Zeit, da liefert ein Netzteil nicht mehr die Spezifikationen.


Ist also kein Argument, zu sagen jedem steht es frei daran umherzuschrauben oder baust du dein Auto um wenn es zuviel Sprit verbraucht?


Bei meinem Auto kann ich mit meinem Regler aká Gaspedal sehr genau festlegen wie viel dieses braucht. Natürlich schraube ich weder am Auto noch an der Grafikkarte (ok stimmt eigentlich nicht, die Grafikkarte wird auf Wasser umgebaut), aber ich kann sehrwohl die Regler bedienen die das jeweilige Gerät bereits @Stock bietet, und bei den Grafikkarten ist das eben ein Powerlimit-Regler.