Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 7. Oktober 2022
Leonidas
2022-10-08, 10:01:17
Link zur News:
https://www.3dcenter.org/news/news-des-7-oktober-2022
Platos
2022-10-08, 10:31:51
Zu AotS:
Das Spiel war doch schon immer bekannt für eine miese DX 12 Implementation oder nicht :D ?
Naja, auf jeden Fall ist es nicht mehr relevant. Laut Steam spielen das noch 50 Leute (Peak) :D
Der Benchmark ist vor allem erratische Grütze, läuft immer anders ab. Das ist irgendwie praxisnah für das Spielgeschehen, macht einzelne Werte aber ziemlich nutzlos. Daher halte ich den Typen, der das immer bei neuen GPUs ins Netz stellt, für einen (erfolgreichen) Troll. Der lacht sich bestimmt jedes Mal mehr als nur ins Fäustchen, wenn der Kram gesehen und diskutiert wird. :D
MfG
Raff
madshi
2022-10-08, 10:50:01
Zum Thema 600W sagt MLID, daß Nvidia damit experimentiert hat, vor allem auch für die 4090 Ti (oder Titan), aber das hat wohl reihenweise die Sicherungen raus gehauen, dazu Netzteile zum schmelzen gebracht (weiß nicht ob wortwörtlich oder im übertragenen Sinn), oder gleich die GPU auch noch mit dazu. Daher scheint es wohl fraglich, ob selbst die 4090 Ti / Titan auf 600W gehen wird.
MLID spekuliert, daß Nvidia möglicherweise für 4090 Ti / Titan auf GDDR7 warten wird, weil das auch Strom sparen soll. Ada scheint wohl GDDR7 schon zu unterstützen.
Interessant auch, daß RDNA2 laut MLID DisplayPort 2.0 haben wird, Ada aber nur 1.4.
Dovregubben
2022-10-08, 11:07:47
Die 8nm Gerüchte sind einfach offensichtliche Grütze, da der Chip in 8nm ohne Chiplets einfach nicht herstellbar wäre. Die Flächenlimits sind ja bekannt.
Der bisher gültige generationsübergreifende Vergleich der Chips macht mit Nvidias Politik keinen Sinn mehr. Man sollte da ehrlicherweise GA 102 mit AD103 und GA103 mit AD104 vergleichen. Auch wenn die Bezeichnung hier gleich ist, ist die Positionierung im Markt eine ganz andere.
MLID spekuliert,....
MLID ist ein großer Haufen mit Sahnehaube.
Zum Thema 600W sagt MLID, daß Nvidia damit experimentiert hat, vor allem auch für die 4090 Ti (oder Titan), aber das hat wohl reihenweise die Sicherungen raus gehauen, dazu Netzteile zum schmelzen gebracht (weiß nicht ob wortwörtlich oder im übertragenen Sinn), oder gleich die GPU auch noch mit dazu. Daher scheint es wohl fraglich, ob selbst die 4090 Ti / Titan auf 600W gehen wird.
Sicherungen rausgehauen, lol.
Hat MLID schon mal einen Wasserkocher eingesteckt?
Die Dinger haben 2000 Watt und mehr. Und können bei jeder Steckdose eingesteckt werden.
Und MLID will uns jetzt erzählen, dass ein PC der ein 1KW (oder auch 1,5kW) Netzteil hat, die Sicherungen raus haut? Das zeigt doch, dass MLID wirklich keine Ahnung hat und einfach nur Mist erzählt.
Bitte denkt doch für eine Sekunde nach bevor ihr so einen Müll der nachweislich Schwachsinn ist (jeder von euch kennt Wasserkocher und weiß, dass 2kW kein Problem sind!!!) zitiert.
Zur Performance der 4080 16GB vs 3080 10GB:
Damit hätten wir +40% Performance bei +0% Stromverbrauch für +100% Preis.
Wow. Miserabel, wegen dem Preis. Technisch nicht berauschend, finde +40% Leistung etwas wenig.
Die 4080 12GB wird vermutlich noch schlechter dastehen - da der Performancegewinn ähnlich sein wird aber der Stromverbrauch (gegenüber der 3070) sogar noch ansteigt.
Also +40-50% Leistung, dafür +20% Stromverbrauch und +100% Preis.
Das ist nicht nur vom Preis her beschissen. Sondern auch technisch mies. +40-max. 50%, bei +20% Strom?
Nicht gut.
Dazu dann verdoppelter Preis und die schlechteste Grafikkarte aller Zeiten ist perfekt.
anddill
2022-10-08, 11:20:42
Lieber Gast, informier dich bitte erst mal über das Stromnetz in anderen Teilen der Welt. In den USA und deren 120V ist es zB. gar nicht so selten daß nur noch ~100V an der Steckdose ankommen. Die brauchen bei ihren schwachen Kabeln und 15A Stromkreisen schon eine eigene Sicherung für jedes Küchengerät. 1500W ist da die Grenze. Für Stromspitzen im Kilowatt Bereich haben die da keine Reserven.
madshi
2022-10-08, 11:34:43
Sicherungen rausgehauen, lol.
Hat MLID schon mal einen Wasserkocher eingesteckt?
Die Dinger haben 2000 Watt und mehr. Und können bei jeder Steckdose eingesteckt werden.
Ältere Häuser in den USA sind in der Regel auf 1800 Watt begrenzt (15 Ampere * 120 Volt) bevor die Sicherung rausfliegt. Neuere Häuser in den USA verkraften eher 2400 Watt (20 Ampere * 120 Volt). In Deutschland sieht das etwas anders aus, da haben wir 16 Ampere * 230 Volt = 3680 Watt.
Edit: anddill war schneller... :)
bad_sign
2022-10-08, 11:38:01
Zu AotS:
. Laut Steam spielen das noch 50 Leute (Peak) :D
Das sind keine Spieler das sind alles Tester.
Platos
2022-10-08, 11:39:33
Dazu kommt noch, dass es nicht pro Zimmer eine Sicherung gibt, vor allem in älteren Installationen. D.H man kann nicht einfach nur ein Gerät auf die ganze Sicherung rechnen. Das ist völlig realitätsfremd.
Das sind keine Spieler das sind alles Tester.
Vermutlich ;D
Leonidas
2022-10-08, 11:46:15
D.h. das altertümliche Stromnetz der USA "schützt" uns vor 1KW-Grafikkarten ;)
anddill
2022-10-08, 13:50:36
D.h. das altertümliche Stromnetz der USA "schützt" uns vor 1KW-Grafikkarten ;)
Absolut. Das Problem sind ja nicht nur die 15A pro Stromkreis, sondern auch noch die Einzeltrafos auf den Masten pro Haus. Die sind ja nur für je eine Wohnung ausgelegt und haben einen merklichen Spannungsabfall unter Volllast. Dazu kommt eine relativ hohe Induktivität, die die Stromanstiegsgeschwindigkeit begrenzt und damit bei Lastspitzen für zusätzliche Spannungsabfälle sorgt. Dazu lange Leitungen zum Trafo und von da zum Haus usw. Und was macht ein Schaltnetzteil, wenn es eine bestimmte leistung liefern soll und die Eingangsspannung wegsackt? es zieht proportional mehr Strom um die Leistung zu halten. Im Gegensatz zu einem Wasserkocher, bei dem mit der Spannung auch die Stromaufnahme und die Leistung absacken. Dann kocht das Wasser halt etwas später.
Gibt natürlich auch modernere Ecken, die ähnlich wie bei uns verteilt sind, wo ein fetter Trafo ganze Straßenzüge versorgt (In den USA eher einen Wohn- oder Geschäftsblock). Der steckt einen 2kW-Spike von einem einzelnen Verbraucher weg ohne daß die Spannung zuckt.
Die A6000 ADA soll nur 300W benötigen und dabei trotz Vollausbau sogar noch höher takten als eine 4090:
https://www.techpowerup.com/gpu-specs/rtx-6000-ada.c3933
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Verbraten 24GB GDDR6X Speicher wirklich so viel mehr als die langsameren 48GB GDDR6 oder liegt es am Binning? :confused:
Freestaler
2022-10-08, 15:00:43
Hmm, das heisst also neben dem Netzteil Herstelleraktien sollten wir auch USV Herstelleraktien kaufen, falls sich die 4090 gut verkauft¿ ;-)
Lehdro
2022-10-08, 17:10:07
Verbraten 24GB GDDR6X Speicher wirklich so viel mehr als die langsameren 48GB GDDR6 oder liegt es am Binning? :confused:
Ich vermute mal beides. Für GDDR6X haben wir ja schon bei Ampere gesehen dass das rein von Leistung/Watt eine sehr schlechte Wahl ist.
Aroas
2022-10-08, 17:40:54
Wenn ich mir das so hier durchlese mit dem US Stromnetz, frage ich mich ernsthaft, wie die eine Weltmacht sein können.
Da verwundert es mich aber auch nicht, dass die jeden Winter an zig Orten immer wieder massive Stromausfälle haben.
Geldmann3
2022-10-08, 18:06:47
Ich denke beides stimmt, Nvidia hat die Karten ganz am Anfang für Samsungs 8nm + 600 Watt ausgelegt. Ist dann allerdings relativ kurzfristig und teuer auf TSMC ausgewichen, als klar wurde, dass RDNA 3 sehr schnell wird. Wäre AMD nicht ,,wieder da", wäre Nvidia wahrscheinlich bei Samsung geblieben.
Hier hat Nvidia zu Beginn ebenfalls mit 600 Watt geplant. Das Problem lag dann wohl in den Implikationen, die das mit sich bringt, weshalb Nvidia sich zum Schluss doch für ein 450 Watt Bios entschieden hat. Es gibt auch praktisch noch keine verfügbaren ATX 3.0 Netzteile. Bei der RTX 4090 Ti, sind 600 Watt jedoch vorstellbar. Man sieht es schon an den riesigen Designs, die Dinger waren definitiv für mehr als 450 Watt ausgelegt und solch eine Änderung in Hardware macht Nvidia nicht mal eben von heute auf morgen. Sie müssen es über das Bios heruntergedreht haben. Was aber auch impliziert, dass es diesmal egal ist, zu welcher RTX 4090 man greift. Die Kühllösungen sind alle mehr aus ausreichend dimensioniert.
Spannend wird es auch, wie viel OC-Spielraum den Custom-Karten out of the box gewährt wird, was Nvidia da erlaubt. 500 Watt? Theoretisch müsste da OC-Potential ohne Ende sein, mit dem passenden BIOS.
Platos
2022-10-08, 18:18:52
Allerdings erklärt das doch kein bisschen, warum die Boardpartnerkarten so bestückt sind. Die haben doch so früh gar keine Informationen bezüglich nvidias Karten.
Ich kann ja noch verstehen, dass es irgendwann mit Samsung geplant war (aber nicht in der Rechenleistung), aber die Boardpartner sind doch nicht ao früh schon am Karten designen?
Geldmann3
2022-10-08, 19:43:58
Naja doch, vor rund einem Jahr haben sie mutmaßlich bereits mit 600 Watt + Bios + Ampere GPU + RTX 3090 Ti Boards herumgetestet. War da schon recht klar, in welche Richtung das geht.
Vwu3jQRomZA
greeny
2022-10-08, 20:45:34
Deutschland droht die Deindustrialisierung: Deutschen Bank sieht die Gaskrise als Anfang vom Ende des deutschen Erfolgsmodells [Business Insider]
Deutschen Bank
Nazar
2022-10-08, 21:03:38
Zitat Leonidas /: Wichtig zu diesen 3DMark-Werten wäre allerdings zu erwähnen, dass jene klar oberhalb des Durchschnitts bei der Spiele-Performance herauskommen dürften: nVidia hatte selber unter Overwatch 2 nur +104% für den Vergleich GeForce RTX 3080 10GB zu GeForce RTX 4090 bekanntgegeben, wo unter dem TimeSpy Extreme jedoch +113-119% herauskommen sollen. / Zitat Ende
:confused:
Um was geht es bei dieser Aussage eigentlich? Was möchte Leonidas damit zum Ausdruck bringen?
Spieleperformance unter TSE? Und wo liegt die Verbindung zu OW2? :freak:
Es werden 2 vollkommen unterschiedliche Benchmarks genommen. Einer aus einem Spiel und einer aus einem reinen Benchmark, was ansich kein Problem ist. Nur, im Anschluss werden beide in einen Topf geworfen und damit soll eine Aussage gefestigt werden, die aber gar nicht genauer definiert wird, außer eine angeblich höhere Spiele-Performance sei damit über den TSE extrem abzuleiten. :confused:
Also der Benchmark aus einem Spiel, wird angeblich dadurch negiert, indem ein Benchmarkergebnis aus einem reinen Benchmark Programm jetzt besser ist als vorher geleakt? :rolleyes:
Mal ehrlich, warum macht man sowas? Das hast du doch gar nicht nötig.
Warum bleibst du nicht einfach sachlich und lässt den unsäglichen Vergleich von Äpfel und Birnen?
Ravenhearth
2022-10-08, 21:27:30
Ich glaube du hast da was falsch verstanden...
Leonidas
2022-10-09, 04:15:54
Hier hat Nvidia zu Beginn ebenfalls mit 600 Watt geplant.
Wenn es wegen der Fertigung war, ist das einfach nicht haltbar. Man weiss spätestens 1,5J vor Launch, welche Fertigung man hat. Dann muß man keine Boards auf 600W planen für eine Fertigung, die man gar nicht benutzt. Die Vorlaufzeiten bei Boards sind deutlich kürzer als das. Die 600W haben einen anderen Grund.
Deutschen Bank
Gefixt.War sogar im Original falsch.
Um was geht es bei dieser Aussage eigentlich? Was möchte Leonidas damit zum Ausdruck bringen?
Ich will sagen: Performance-Aufschlag zwischen Ampere und ADA liegt bei Spielen üblicherweise unterhalb 3DMark. Wie am Beispiel OW2 zu sehen.
TwoBeers
2022-10-09, 10:33:21
@Leonidas:
Der Performance-Sprung gegenüber dem jeweils wirklichen RTX30-Vorgänger (3070 → 4080-10GB,...
Das soll wohl 4080-12GB heißen. :)
MiamiNice
2022-10-09, 11:05:10
Ich werfe mal eine andere These in die Runde. Die Karten waren und sind für 600 Watt im TSMC Prozess ausgelegt. Aber weil noch so viele Ampere Karten da sind und AMD keine Gefahr ist, hat man sich für die 450 Watt Version entschieden und die Karten teuerer gemacht als geplant. Man verkauft die Ampere Karten ab und mit dem Refresh haut man richtig rein. Die Partnern hat man von Anfang an etwas von 600 Watt erzählt, weil es so geplant war.
Ich denke wir sehen dir echten Ada Karten erst wenn Ampere kein Thema mehr ist oder AMD stärker wird als vermutet.
GerryB
2022-10-09, 12:43:24
Wenn die Partner ihre Kühler für 600W ausgelegt haben, dann gibts@450W sogar nen WinWin-Effekt, weil dann kaum noch temp.abhängige Taktverluste eintreten.(und nebenbei der Vram evtl. auch kühler bleibt =weniger Fehlerkorr.)
Bei Ampere waren es bestimmt noch 2-3 x 15MHz, die man wegen der zuviel W gleich wieder verloren hat.(x)
Auslegung über Sweetspot geht meist nach Hinten los. W/MHz kostet in den letzten 4-5% halt sinnlos viel.
(x) z.Bsp. die 3080FE war viiiel zu heiss und laut, ... CB hatte mit 270W statt 320W nur 4% weniger Fps
Platos
2022-10-09, 12:47:33
2-3x 15MHz sind ja schon krass xD ;D;D
Sotry für eventuelle Tippfehler (Smartphone-"noob")
Tatsächlich fällt bei mir beim Einstecken des Computers regelmäßig der Schutzschalter, weil ich dann ganz kurz eine Lastpitze von knapp 2000w hab trotz 450w Netzteil.
Aber zu dem 600w Punkt: das liegt schlichtweg daran, dass ab einem gewissen Zeitpunkt, und der ist MONATE vor Release, die Hersteller die Performance der Konkurrenzprodukte genau kennen. Es gibt immer irgendwelche Quellen, weil die Dinger ja aich oft in externen Labors getestet oder validiert werden. Wir arbeiten für ein Institut an der Universität und testen Hardware auf ihre basics hin (ob sie richtig rechnen können). Das passiert nie mit hohen Taktraten, oft auf speziellen Boards, aber es lässt mit hochrechnen eine recht exakte Prognose zu. Ist natürlich mit Verschwiegenheitsklausel verknüpft, dennoch sehen wir Hardware oft 6-9 (GPUs) bis fast 12 (CPUs) Monate vor dem Marktstart.
Also der Grund für die 600 Watt die später reduziert wurden ist schlichtweg, weil Nvidia unter allen Umständen Performancekönig sein will und das laut deren Quellen über Navi 3x wohl nun doch mit geringerer TDP möglich ist
Dovregubben
2022-10-09, 14:26:33
Ich denke beides stimmt, Nvidia hat die Karten ganz am Anfang für Samsungs 8nm + 600 Watt ausgelegt. Ist dann allerdings relativ kurzfristig und teuer auf TSMC ausgewichen, als klar wurde, dass RDNA 3 sehr schnell wird. Wäre AMD nicht ,,wieder da", wäre Nvidia wahrscheinlich bei Samsung geblieben.
Nochmal langsam für dich:
Der Chip wäre in 8nm NICHT herstellbar.
GerryB
2022-10-09, 17:53:43
600W hätten es evtl. sein können@Samsung 5nm, ... bevor NV mit viel Geld den Sprung zurück zu TSMC geschafft hat
(da gabs nur verwirrende TwitterNews , wo die 600W herkommen, ohne den zug.Prozess zu nennen)
Nach m.E. gings da nur um frühe Infos, vor nem Jahr(?), an die Grakahersteller, um die Kühler zu dimensionieren.
Ob damals auch schon über die Anzahl der Phasen und die PCB´s geredet wurde, who knows. Eigentlich war die 3090Ti
schon ein guter Testlauf, ... wo es mal hingehen könnte.(die Spannungsregelung der Ti war schon exakter als bei der normalen 3090)
(Igor war mit der Ti jedenfalls sehr zufrieden und überrascht, wie wenig Spikes und Nachregeln@450W auftraten)
Lieber Gast, informier dich bitte erst mal über das Stromnetz in anderen Teilen der Welt. In den USA und deren 120V ist es zB. gar nicht so selten daß nur noch ~100V an der Steckdose ankommen. Die brauchen bei ihren schwachen Kabeln und 15A Stromkreisen schon eine eigene Sicherung für jedes Küchengerät. 1500W ist da die Grenze. Für Stromspitzen im Kilowatt Bereich haben die da keine Reserven.
Ich finde es dennoch unglaubwürdig, aus 4 Gründen:
1) 1500W sind als Netzteil schon überdimensioniert. 1200W reichen locker.
Und selbst wenn man ein 1500W Netzteil nimmt: Das geht in Amerika.
Der meistverkaufte Wasserkocher bei Amazon USA hat - 1500W.
Wenn der funktioniert, funktioniert auch ein PC mit 1500W Netzteil - oder nicht?
2) Die 4090 KANN ja mit 600W betrieben werden.
Würden hier Kabel schmelzen oder sonstwas - glaubst du nicht, dass in den USA das sehr riskant wäre? Schadensersatz? Haftung?
Wären die 600W an sich ein unlösbares Problem würde es die auch nicht als Option geben. Oder glaubst du Nvidia geht das Risiko von Millionenklagen ein?
3) Falls das Stromnetz an sich das Problem ist - für wie dämlich hälst du die Ingenieure von Nvidia, dass die Wochenlang (Monatelang?) mit dem Ziel 600W als Standardverbrauch der 4090 arbeiten, bis denen irgendwann auffällt: Oh, geht ja gar nicht wegen dem Stromnetz.
Glaubst du nicht, das wäre denen von Anfang an aufgefallen?
4) Auch eine 4080 und 4070 (die jetzt ja 4080 12GB heißt) wurde mit viel höheren Wattangaben gehandelt. Die 4080 war mal bei 400W, teils 450W.
Die 4070 war mal bei 350W.
Diese Angaben haben genauso wenig gestimmt.
Exxtreme
2022-10-09, 20:05:52
3) Falls das Stromnetz an sich das Problem ist - für wie dämlich hälst du die Ingenieure von Nvidia, dass die Wochenlang (Monatelang?) mit dem Ziel 600W als Standardverbrauch der 4090 arbeiten, bis denen irgendwann auffällt: Oh, geht ja gar nicht wegen dem Stromnetz.
Glaubst du nicht, das wäre denen von Anfang an aufgefallen?
Man weiss ja nicht ob das Ziel 600W war. :) Kann sein, dass das viel weniger war. Und anscheinend werden auch die 450W praktisch nie erreicht und sie bleibt eher im < 400W-Bereich, selbst in AAA-Titeln. Bloß weil etwas einen Stecker hat, welcher 600W erlaubt, heisst noch lange nicht, dass es das Ziel war das auszureizen.
Leonidas
2022-10-09, 22:34:05
Das soll wohl 4080-12GB heißen. :)
Jawohl. Gefixt!
Wenn ich mir das so hier durchlese mit dem US Stromnetz, frage ich mich ernsthaft, wie die eine Weltmacht sein können.
Das kannst du in deren Strategiepapieren nachlesen. Ein zuverlässiges Stromnetz ist dafür offenbar eher unwichtig.
"Empire Without End
...
David Ramsay, South Carolina's delegate to the Continental Congress, wrote as early as 1778 that the grandeur of the American continent provided the basis for a realm that would make "the Macedonian, the Roman, and the British sink into insignificance." George Washington thought of the new country as a "rising" or an "infant" empire. Thomas Jefferson, who secured the vast Mississippi and Missouri valley corridors, famously envisaged an "empire of liberty.""
https://www.foreignaffairs.com/reviews/review-essay/2010-07-01/empire-without-end
“We have about 50% of the world’s wealth but only 6.3% of its
population. This disparity is particularly great as between ourselves and the peoples of Asia. In this situation, we cannot fail to be the object of envy and resentment. Our real task in the coming period is to devise a pattern of relationships which will permit us to maintain this position of disparity without positive detriment to our national security.To do so,we will have to dispense with all sentimentality and day-dreaming; and our attention will have to be concentrated everywhere on our immediate national objectives.We need not deceive ourselves that we can afford today the luxury of altruism and world-benefaction.”
- George Kennan, US State Department senior planning official, 1948
"Excerpts From Pentagon's Plan: 'Prevent the Re-Emergence of a New Rival'
...
Our first objective is to prevent the re-emergence of a new rival, either on the territory of the former Soviet Union or elsewhere, that poses a threat on the order of that posed formerly by the Soviet Union. This is a dominant consideration underlying the new regional defense strategy and requires that we endeavor to prevent any hostile power from dominating a region whose resources would, under consolidated control, be sufficient to generate global power. These regions include Western Europe, East Asia, the territory of the former Soviet Union, and Southwest Asia.
There are three additional aspects to this objective: First, the U.S. must show the leadership necessary to establish and protect a new order that holds the promise of convincing potential competitors that they need not aspire to a greater role or pursue a more aggressive posture to protect their legitimate interests. Second, in the non-defense areas, we must account sufficiently for the interests of the advanced industrial nations to discourage them from challenging our leadership or seeking to overturn the established political and economic order. Finally, we must maintain the mechanisms for deterring potential competitors from even aspiring to a larger regional or global role. An effective reconstitution capability is important here, since it implies that a potential rival could not hope to quickly or easily gain a predominant military position in the world.
...
access to vital raw materials, primarily Persian Gulf oil;"
http://www.nytimes.com/1992/03/08/world/excerpts-from-pentagon-s-plan-prevent-the-re-emergence-of-a-new-rival.html
"There will be no peace. At any given moment for the rest of our lifetimes, there will be multiple conflicts in mutating forms around the globe. Violent conflict will dominate the headlines, but cultural and economic struggles will be steadier and ultimately more decisive. The de facto role of the US armed forces will be to keep the world safe for our economy and open to our cultural assault. To those ends, we will do a fair amount of killing."
https://press.armywarcollege.edu/cgi/viewcontent.cgi?article=1829&context=parameters
"United States Policy Toward Eastern Europe
...
I have determined that the primary long-term U.S. goal in Eastern Europe is to facilitate its eventual reintegration into the European community of nations.
...
Reinforcing the pro-Western orientation of thier peoples.
...
Encouraging more private market-oriented development of thier economies, free trade union activity, etc.
...
Cultural and Educational Exchange and Informational Programs. Such programs will be employed to reinforce the pro-Western orientation of the populace in Eastern Europe, and communicate U.S. views to audiences there."
http://www.fas.org/irp/offdocs/nsdd/nsdd-54.pdf
"Chaos Theory and Strategic Thought
...
With this ideological virus as our weapon, the United States should move to the ultimate biological warfare and decide, as its basic national security strategy, to infect target populations with the ideologies of democratic pluralism and respect for individual human rights. With a strong American commitment, enhanced by advances in communications and increasing ease of global travel, the virus will be self-replicating and will spread in nicely chaotic ways. Our national security, therefore, will be best assured if we devote our efforts to winning the minds of countries and cultures that are at variance with ours. This is the sole way to build a world order that is of long duration (though, as we have seen, it can never achieve absolute permanence) and globally beneficial. If we do not achieve this ideological change throughout the world, we will be left with only sporadic periods of calm between catastrophic reorderings.
A tangible implication of this analysis is a sharp increase in support for the United States Information Agency, the National Endowment for Democracy, and the numerous private-sector exchange and educational programs. This programs lie at heart of an aggressive national security strategy."
https://web.archive.org/web/20170117010919/http://strategicstudiesinstitute.army.mil/pubs/parameters/Articles/1992/1992%20mann.pdf
"The United States should plan to defeat the Soviet Union and to do so at a cost that would not prohibit U.S. recovery. Washington should identify war aims that in the last resort would contemplate the destruction of Soviet political authority and the emergence of a postwar world order compatible with Western values.
...
Strategists cannot offer painless conflicts or guarantee that their preferred posture and doctrine promise a greatly superior deterrence posture to current American schemes. But, they can claim that an intelligent U.S. offensive strategy, wedded to homeland defenses, should reduce U.S. casualties to approximately 20 million, which should render U.S. strategic threats more credible."
https://web.archive.org/web/20040104040104/http://home.earthlink.net/~platter/articles/80-summer-payne.html
Ist doch weniger schlimm als erwartet oder prophezeit wurde. Die Leistung ist recht bodenständig, der Treiber muss weiter verbessert werden. Die XMX Cores haben jedenfalls Potential.
Alles in allem ein Angebot da sman Nutzen kann und dafür das man nun einen weiteren Anbieter hat der das Duopol sprengen kann, finde ich die Karten nicht so schlecht. Leider ein Jahr zu spät, mit den Preisen hatte I tel vor einem Jahr richtig mit dem Markt aufräumen können.
Ich überlege mir eine zu holen, weil jeder der in den dGPU Markt einsteigt eine Chance verdient hat. Mir wäre lieber es wären noch viel mehr. Matrox fehlt mir schon sehr. Genauso wie einst 3dfx.
Nvidia hat leider alle entweder aufgesaugt oder zerstört. Schade. Da zeigt sich das Monopole nie was gutes sind. Hoffe Intel bleibt am Ball.
Die 8nm Gerüchte sind einfach offensichtliche Grütze, da der Chip in 8nm ohne Chiplets einfach nicht herstellbar wäre. Die Flächenlimits sind ja bekannt.
Wurde mittlerweile ja auch präzisiert, nicht Samsungs 8nm sondern "Samsungs latest process".
Und damit könnte das sogar einigermaßen hinkommen, bekanntermaßen ist ja Samsungs 5nm Generation in der Effizienz grob auf TSMCs 7nm Niveau, also 20-30% schlechter als TSMCs 5nm Generation.
Und siehe da 600W sind 33% mehr als 450W.
Komplett enttäuschend, sorry das Geseier der deutschen Medien wie CB und PCGH ist wieder typisch für: "wir haben NDAs unterschrieben...", bloß nichts negatives berichten.
65% in Rasterization und 69% unter RT, lol. Die üblichen 30% pro Node. Langweilig und trügt nur darüber hinweg, weil man gleich 2 Nodes übersprungen hat. Bei gleicher Leistungsaufnahme wird es noch weniger. Und das für solche Mondpreise. Die nächste Gen wird viel weniger drauflegen können.
Für die Tester ist nun die zweitschnellste Karte mit einem Powerlimit von 450w i.O.. Da muss man sich auch mal an Kopf fassen. Die gesamte Presse drumherum ist nur noch eine Farce aus Fanboys, die kein bißchen journalistische Courage besitzen, ohne Rückgrat. Die Lobehuddelei ist einfach nervig. Immer wieder werde solche Konzernen wie Nvidia damit unterstützt, um dann an interner Werbung mitzuverdienen. Pfui Teufel...
Platos
2022-10-12, 11:12:47
Korrekt.
Man hat das Gefühl, die Testseiten besteht nur aus Über-Nerds/Enthusiasten, denen Preis eh egal ist, hauptsache es gibt fett Leistung.
Dann feiern sie alles.
65% in Rasterization und 69% unter RT, lol. Die üblichen 30% pro Node. Langweilig und trügt nur darüber hinweg, weil man gleich 2 Nodes übersprungen hat. Bei gleicher Leistungsaufnahme wird es noch weniger. Und das für solche Mondpreise. Die nächste Gen wird viel weniger drauflegen können.
Wäre es nicht sinnvoller, wenn du die 4k Werte angibst?
Sorry, aber keiner kauft sich eine 2k GraKa für FullHD...
Da ist man dann bei 10% mehr als deine Werte.
Womit man 70-80% Mehrleistung hat, kaum erhöhten Stromverbrauch gegenüber der 3090, und das für 20% Aufpreis.
Sorry, aber was erwartest du eigentlich?
Verdoppelte Leistung, bei halbem Stromverbrauch und dann noch 20% günstiger?
Die 4090 ist spitze und passt preislich einwnadfrei - was man über die 4080 Modelle nicht sagen kann.
Hier sind die Preise absurd, da bin ich voll bei dir.
Aber Kritik sollte sich an die Modelle richten, bei denen es passt.
Sippenhaft ist ziemlich daneben.
Wäre es nicht sinnvoller, wenn du die 4k Werte angibst?
Sorry, aber keiner kauft sich eine 2k GraKa für FullHD...
Da ist man dann bei 10% mehr als deine Werte.
Womit man 70-80% Mehrleistung hat, kaum erhöhten Stromverbrauch gegenüber der 3090, und das für 20% Aufpreis.
Sorry, aber was erwartest du eigentlich?
Verdoppelte Leistung, bei halbem Stromverbrauch und dann noch 20% günstiger?
Die 4090 ist spitze und passt preislich einwnadfrei - was man über die 4080 Modelle nicht sagen kann.
Hier sind die Preise absurd, da bin ich voll bei dir.
Aber Kritik sollte sich an die Modelle richten, bei denen es passt.
Sippenhaft ist ziemlich daneben.
Er hat doch Recht. Niemand in diesen Tests erwähnt das sie zwei Gens übersprungen haben und damit auch zwei Gens schnell ist. Also übliche Alltagskost was den Zuwachs betrifft. Sowas gab es früher zum gleichen Preis, aber du bist wohl nicht m alt genug das zu verstehen. Man sieht es ja wieder am Kaufverhalten bestimmter Lemminge, die Karten sind also noch nicht teuer genug egal was NVidia liefert. Was für ein Haufen dummer Trolle, die dafür sorgen dass das kein Ende nimmmt. Aber vorher jammern das alles so teuer ist und falls jemand meint das sei Neid, nein ist es nicht. Ich geh mit 5-6k den Monat nach Hause. Trotzdem kaufe ich sowas nicht, weil ich Enthusiast bin und mir dieser Rolle auch bewusst. Nur wenn die Hersteller bei Enthusiasten mit ihren Mondpreisen umdenken bewirkt man etwas, das geht nicht wenn man alles egal zu welchen Preis kauft und das betrifft die gesamte PC-Gaming-Community. Heute denkt jeder er sei Enthusiast weil er sich eine überteuerte GPU kauft. Mitnichten, Möchtegerne mehr nicht.
Und schon liegen die 5 Karten die jeder Shop erhalten hat für 3000+ auf ebay.
NVidia hat Nicht mehr als 200-300 Karten in Gesamt Deutschland ausliefern lassen. Das wird so bleiben bis Ampere abverkauft ist, so 09/2023.
Hoffentlich schiessen sie sich damit nicht ins eigenen Knie, wenn AMD dann die Lücke zwischen 4090 und 4089 schließt und weniger verlangt als für eine 4070, ähm 4080-12g.
Keine Impulse für die Aktie nach Launch, die stürzt weiter ab. Sieht so aus als hätte Nv die Gunst der Spieler und Aktionäre verloren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.