PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 20. Juni 2022


Leonidas
2022-06-21, 11:45:56
Link zur News:
https://www.3dcenter.org/news/news-des-20-juni-2022

Aroas
2022-06-21, 12:13:35
Früher hab ich solche Infos zu neuen Grafikkarten mit Spannung erwartet und aufgesaugt. Sogar am "Fanboy Krieg" AMD vs. NVidia hab ich mich gern beteiligt.

Heute gähne ich nur noch darüber, weil das Ganze Thema aufgrund der völlig absurden Preise und ebenfalls total kranken Stromverbräuchen so unglaublich uninteressant geworden ist.
Ok, auf Seiten der Featuresets gibt es echt interessante Forschritte, aber die Hardware selbst ist irgendwie nur noch Stillstand bzw. mehr Leistung auf Kosten der Leistungsaufnahme.

Langweilig.

BlacKi
2022-06-21, 12:41:04
aber die Hardware selbst ist irgendwie nur noch Stillstand bzw. mehr Leistung auf Kosten der Leistungsaufnahme.
ja, die leistungsaufnahmen steigern sich. aber die effizienz steigt auch. versteckt sich allerdings hinter den steigerungen. dennoch sind sie da. wer sie sucht, wird sie finden.

Rabiata
2022-06-21, 12:57:53
Früher hab ich solche Infos zu neuen Grafikkarten mit Spannung erwartet und aufgesaugt. Sogar am "Fanboy Krieg" AMD vs. NVidia hab ich mich gern beteiligt.

Heute gähne ich nur noch darüber, weil das Ganze Thema aufgrund der völlig absurden Preise und ebenfalls total kranken Stromverbräuchen so unglaublich uninteressant geworden ist.
Ok, auf Seiten der Featuresets gibt es echt interessante Forschritte, aber die Hardware selbst ist irgendwie nur noch Stillstand bzw. mehr Leistung auf Kosten der Leistungsaufnahme.

Langweilig.
Dem kann ich bei Nvidia überwiegend zustimmen, aber RDNA2 hat schon eine erhebliche Verbesserung in Leistung/Verbrauch gebracht. Wer keine ausufernden Verbräuche will, muß halt eine Nummer kleiner einkaufen. Damit wird es dann auch mehr Fälle geben, wo sich das Upgrade auch leistungsmäßig nicht mehr lohnt. Schont den Geldbeutel.

Ansonsten drängt sich mir langsam der Verdacht auf, daß Kopite7kimi heimlich von Nvidia mit News gefüttert wird, um den Hype über Ada am Laufen zu halten. Die Dauerberieselung mit Leaks (zumindest hier) wird mir auch allmählich langweilig. Ich überfliege die nur noch kurz.

Krischi
2022-06-21, 12:59:42
wer sie sucht, wird sie finden.

Dann wird sich meiner Meinung nach das kolportierte Lineup nicht dazu eignen, diesbezüglich "schöne" Dinge zu finden :-/.

Midnight-3DC
2022-06-21, 13:38:26
Dem kann ich bei Nvidia überwiegend zustimmen, aber RDNA2 hat schon eine erhebliche Verbesserung in Leistung/Verbrauch gebracht. Wer keine ausufernden Verbräuche will, muß halt eine Nummer kleiner einkaufen. Damit wird es dann auch mehr Fälle geben, wo sich das Upgrade auch leistungsmäßig nicht mehr lohnt. Schont den Geldbeutel.

Ansonsten drängt sich mir langsam der Verdacht auf, daß Kopite7kimi heimlich von Nvidia mit News gefüttert wird, um den Hype über Ada am Laufen zu halten. Die Dauerberieselung mit Leaks (zumindest hier) wird mir auch allmählich langweilig. Ich überfliege die nur noch kurz.
Wobei man der Fairness halber schon dazu sagen muss, dass AMD davor auch deutlich ineffizienter war. Mit der aktuellen Generation haben sie nun lediglich grob mit nVidia gleich gezogen.

Bitte nicht falsch verstehen, ich will damit die Leistung von AMD nicht klein reden und begrüße es prinzipiell auf jeden Fall wenn es auf diesem Gebiet hoffentlich in Zukunft einen härteren Konkurrenzkampf gibt, der nicht ausschließlich von der Notwendigkeit bestimmt ist, dass die Dinger auch irgendwie noch Kühlbar sein müssen.

Legendenkiller
2022-06-21, 13:43:30
Naja die Effizients steit schon noch.

Aber dier Optimierungsvector liegt , schon immer, stark auf maximale Perfomance. Was daran liegt das, zumindest bisher, der Kunde zu ganz großen teilen nicht nach Effizenz sondern nu nach Performance / Geld gekauft hat.

Und die Steigerugen des Verbrauchs waren auch schon in fast jeder Generation, prozentual, so groß. Mit Ausreißern nach oben und unten.

Eine Gforce 2Ti hatte 9W-15W, die GF3 TI 500 hatte 30-42W. Das ist eine Verdreichfachung, auch wenn das sowas wie eine Titan war.
Eine Vodoo1 hatte 5W eine Vodoo 2 hatte 10W eine Voddo 3 hate 25W, eine Vodoo 4 hate 45W. Das ist eine Verdopplung pro Generation.
Dann hatte karten 65W, dann 90W, 120W, 150W, 180W, 225W, 300W ... Das ist prozentual eigentlich sogar immer weniger.
Von 320 auf 400W sind es gerade mal noch 25% mehr.
Einer verdopplung wäre 300W auf 600W. Ist vom "Leistungsprung" das selbe wie von 30 auf 60W.

Im Bereich 75-200W blieb es mal ein paar Jahe fast gleich, das lag aber daran das AMD/ATI da nicht mithalten konnte und Nvidia einfach nicht musste.

Dazu kommt noch das die Prozeefortschirtte immer kleiner werden. Und die Namen der eingesetzen Prozesse sind reines Marketing und haben nichts mehr mit den wirklichen Strukturgrößen zu tun.
Jeder bei jeden neue Prozell explodieren die Kosten so wir im prinzip schon die Grenze erreicht haben das es sich nicht mehr zwingend lohnt auf den kleinsten Prozess zu gehen.

Siehe:
https://de.wikipedia.org/wiki/Ertragsgesetz

Gast
2022-06-21, 13:49:38
Ok, auf Seiten der Featuresets gibt es echt interessante Forschritte, aber die Hardware selbst ist irgendwie nur noch Stillstand bzw. mehr Leistung auf Kosten der Leistungsaufnahme.


Die Effizienz wird auch weiterhin stark ansteigen, und für einen ordentlichen Performanceboost (mindestens Verdopplung) war immer auch mehr elektrische Leistung notwendig.

Früher war es eben im Bereich von 40 auf 75W oder von 75 auf 150W oder eben von 150 auf 250W.

Mit 450W wäre man bei einer relativ üblichen Steigerung der Leistungsaufnahme die für einen entsprechenden Performancesprung notwendig ist.

Lovelace und RDNA3 sind hier eigentlich die interessanteste Generation seit langem, die endlich wieder mal eine richtige Leistungssteigerung bringen wird, und noch mehr wenn man die Vorgängergeneration aufgrund der absurden Preise ausgelassen hat.

Gast
2022-06-21, 14:55:57
Wobei man der Fairness halber schon dazu sagen muss, dass AMD davor auch deutlich ineffizienter war. Mit der aktuellen Generation haben sie nun lediglich grob mit nVidia gleich gezogen.
Jein. RDNA1 war auch schon ganz ordentlich. Die 5600XT war z.B. effizienter als so mache Turing.
Aber davor war AMD tatsächlich merklich schlechter. Wobei NVidia mit Maxwell einen großen Sprung gemacht hat und sich von AMD absetzen konnte. Man könnte quasi sagen: AMD's RDNA2 ist NVidia's Maxwell.

Gast
2022-06-21, 14:59:19
Weil er genauso wie Du von 100tflops ausgeht und deshalb immer wieder errechnet, dass es dann final 2,8GHz sein müssten. 100tflops SP ist aber überhaupt nicht sicher, zumal es sich um Single-Precision handelt, wobei die GPUs allein dabei höher takten können.

Die nächste Nebelkerze von dem Kerl!...das bestätigt nichts. Für mich ist das nichts weiter als Clickbait in steter Abfolge.

Das Ding wird wie immer 30-50% Schneller und das wars, warum sollte Nvidia auch alles verpulvern, dann wären sie schön blöd. Der Rest ist einfach nur theoretisches Geblubber-Geblahe, wie immer vor jeder neuen Gen.

Was kann man bitte an 16-bit Tflops in Spielen festmachen? Nichts? Als wenn das alles wäre was unter Spielen braucht.

Leonidas
2022-06-22, 04:46:19
Für mich ist das nichts weiter als Clickbait in steter Abfolge.

Clickbait bezeichnet etwas, woran letztlich verdient wird. Nut verdient Kopite nix an diesen Clicks auf Twitter. Ergo ist die Bezeichnung "Clickbait" einwandfrei nicht zutreffend. Sicherlich findet sich eine passender Bezeichnung.

Gast
2022-06-22, 08:47:43
Clickbait bezeichnet etwas, woran letztlich verdient wird.

Nicht zwangsläufig, Clickbait könnte auch einfach zur Befriedigung des Egos dienen.

Leonidas
2022-06-22, 08:56:16
Ok, dieser Bedeutung des Wortes war ich nicht gewahr. Ist das allgemeingültig, das man "Clickbait" auch so definieren kann?

Gast
2022-06-22, 10:57:11
Ok, dieser Bedeutung des Wortes war ich nicht gewahr. Ist das allgemeingültig, das man "Clickbait" auch so definieren kann?

Clickbait bedeutet ja erstmal nichts anderes als jemanden dazu zu verleiten auf etwas zu klicken.

Das Motiv dahinter ist ja egal.

Leonidas
2022-06-22, 11:15:47
Das stimmt vom Wortstamm her. Dass man es allerdings für etwas anderes verwendet als für Sachen, wo ein monetärer Effekt dranhängt, was mir nicht bekannt.

Gast
2022-06-22, 12:30:34
Der berühmteste Clickbait dürfte wohl das Rickrolling sein, und dahinter stecken wohl kaum monetäre Absichten.

Platos
2022-06-22, 12:31:56
Na was heisst, die Taktrate wird einfach erreicht? Was bedeutet einfach in dem Zusammenhang? Ohne an Effizienz zu verlieren? Ohne abzustürzen? Weil letzteres ist jetzt nichts, was ich unter "einfach" gelten lassen würde, wenn man bedenkt, wie hoch der Stromverbrauch prognostiziert wird. Dann ist dabei nichts mehr "einfach", wenns nur um die stabilität geht und nicht darum, es ohne Effiziennachteil zu erreichen. Und ich denke, das bezieht man eher auf die reine Lauffähigkeit.

Clickbait bedeutet ja erstmal nichts anderes als jemanden dazu zu verleiten auf etwas zu klicken.

Das Motiv dahinter ist ja egal.

Ne, das ist falsch. Clickbait bedeutet, dass man jemanden dazu verleitet, auf etwas zu klicken, was im Titel(bild) einen ganz anderen Eindruck erweckt (oder gar komplett falsch ist), als es dann im Rest des Artikels/gesagtem/Video usw. ist.

Wenn es eine auffällige Überschrift ist, aber genau den Inhalt wiederspiegelt (und eben nicht aus dem Zusammenhang gerissen ist), dann ist das nicht Clickbait, obwohl es vlt. sehr auffälig ist und Leute dazu animiert, draufzuklicken.

Grundsätzlich MUSS Clickbait ja nichts mit Geld zu tun haben, genau so ist es aber lächerlich ihm das zu unterstellen. Deine Vermutung mit dem Ego ist nämlich nichts weiter als komplette Spekulation.

Leonidas
2022-06-22, 13:46:30
Na was heisst, die Taktrate wird einfach erreicht? Was bedeutet einfach in dem Zusammenhang? Ohne an Effizienz zu verlieren? Ohne abzustürzen?

Ganz sicher hat es nix mit Effizienz zu tun. Es ist technisch einfach zu erreichen, sprich liegt im Feld des Machbaren. Ob es auch im Feld des Sinnvollen liegt, wissen wir noch nicht.

Gast
2022-06-22, 14:52:55
Na was heisst, die Taktrate wird einfach erreicht? Was bedeutet einfach in dem Zusammenhang?

Einfach erreicht = eine große Anzahl funktionsfähiger DIEs können auf dieser Taktrate betrieben werden.

Gast
2022-06-22, 17:52:34
Ohne gelesen zu haben: https://de.wikipedia.org/wiki/Clickbaiting
Überschrift, die zum Aufrufen des Artikel animieren soll, der die - zumeist reißerisch formulierte - Erwartung nicht erfüllt.
Wird für Kommentare auch gern mal gleich im ersten Satz mit "Ha - hab' ich euch gekriegt." als solcher 'entschuldigt' - was ich trotzdem scheiße finde.

Ich weise im Zusammenhang mit 3D-Cache erneut darauf hin, dass das Die auch im Milan-X verwendet wird. Keine Ahnung, wie lange AMD dort Lieferfähigkeit zusagt.

'Normal' wird 800W o.ä. ja nur für Top-Notch und selbst für KI-Racks ist Effizienz ggf. wichtiger denn Wumms pro qm³.

Mal von AGP vielleicht abgesehen, waren PCs noch nie Treiber für interne High-Speed-Schnittstellen. Hatten wir schon. Gibt's inzwischen Belege für Gegenthese?

Gast
2022-06-23, 18:13:46
Beispielhafter Nachtrag zum Thema Clickbait:

"Das ist die lebenswerteste Stadt der Welt – auf diesem Platz landet BLA" ist *zensiert* Clickbait. Die seriöse Variante wäre z.B. "BLUB ist ... - BLA landet auf Platz X"

BLA = nächstgelegene Großstadt.

crux2005
2022-06-23, 18:27:18
Die 4070 soll laut neustem Leak nur 10GB bekommen. Was haben die bitte genommen.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory

:facepalm:

4070 zu wenig VRAM, 4080 zu viel Verbrauch und wahrscheinlich zu teuer. Intel wird nichts Leistungsfähiges haben. Hoffentlich liefert wenigstens AMD ab. Dann könnte die 4070 Super evtl. was werden.

Lehdro
2022-06-24, 14:11:53
Können wir dann bitte damit anfangen von den richtigen Versionen zu fantasieren die NV wahrscheinlich nie bringt, so wie die "3080 20 GiB", "3070 16 GiB" etc? Hat damals so viel Spaß gemacht :D

Leonidas
2022-06-25, 04:35:04
Na, NV hätte die seinerzeit gebracht - wenn nicht der Cryptohype alle Pläne erledigt hätte. Wozu mehr Grafikkarten bringen, wenn man die vorhandenen nicht ausreichend liefern kann?

Economic
2022-07-26, 10:56:00
Wann man die 3080 12Gb, 3080ti, 4080 16Gb anschaut wären die 10Gb bei der 4070 schon arg wenig für die Leistung, ich rechne und hoffe mit min. 12 Gb Vram, sonst kann man die 4070 in vielen Szenarien abschminken

Platos
2022-07-26, 13:03:11
Klar wäre es das. Es gab achon damals in 2017 Spiele, die die 11GB der 1080Ti vollgekriegt haben (plus/minus 3060 Perfomance). Ne 4070 wird vermutlich bei der Leistung einer 3080-3090Ti sein und dann 10GB zu haben, ist eben genau gleich lächerlich, wie eben heute die 3080. Wenn die Karte schneller wie ne 3080 wird, ist es noch lächerlicher.

Die Karte sollte genau so 16GB kriegen, wie die 4080. Wie damals bei der 1070 und 1080 mit 8GB. Alles andere ist lächerlich. Das sind keine 1080p Karten und auch keine 1440p.