PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 20. August 2018


Leonidas
2018-08-21, 10:41:54
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-august-2018

Gast
2018-08-21, 14:45:21
Die Blender-Performance wäre interessant zu wissen, um Turing mit der ersten Raytracing-GPU von IMG zu vergleichen. Dort ist der 2 Watt PowerVR-Chip (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) beim Raytracing >5 mal schneller als eine 980Ti. Die 10 GigaRay/s-Angabe (bzw. 1,21 GigaRays/s für eine 1080Ti (https://www.youtube.com/watch?v=IG2wVjQUr3c&t=112m)) von Nvidia kann man zum Vergleichen wohl nicht verwenden.

Gast
2018-08-21, 19:09:13
Abwarten und Tee trinken, habe im September 2016 729€ und damit 60€ weniger als die 789€ für ne F.E. von Nvidia ausgerufen bei Caseking für eine EVGA 1080 FTW also eher eine der teureren custom Lösungen bezahlt.

Denke die Preise werden sich kurz nach dem Launch schnell entsprechend der Leistung der Karten einpendeln solange die Verfügbarkeit halbwegs gegeben ist.

Allgemein hat man bei der keynote auch gesehen das die Grafik schon Recht weit ist und selbst technisch grosse Sprünge wie raytracing nicht mehr die grossen wow Effekte hervor rufen . Sei es drum ich persönlich bergüsse den Schritt den Nvidia geht auch wenn es bedeuten sollte das der Pascalnachfolgern nur 20% mehr bringt. Irgendwann müssen halt die ersten stolperschritte gemacht werden.

Abwarten nix wird so heiß gegessen wie es gekocht würde ;)

iamthebear
2018-08-21, 21:10:58
1.) Man darf bei den genannten Preisen für die Referenzkarten nicht vergessen: Das sind die Netto Preise ohne MWSt. Da darf man in Deutschland dann noch mal 19% drauf schlagen und es werden aus 500$ schon mal 600$. Dazu kommt, dass im europäischen Markt generell etwas mehr verlangt wird als am US Markt.

2.) PC Games Hardware hat einen Teil der Tomb Raider Demo mit FPS Anzeigen laufen lassen: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Nvidia-RTX-2080-Ti-Performance-in-Shadow-of-the-Tomb-Raider-1263244/

An etwas anspruchsvolleren Stellen fallen die Frameraten auf 30-35fps bei Full HD mit einer RTX 2080 Ti. Wenn da sich nicht noch gravierend etwas ändert, dann hat sich das Thema Raytracing für die Genereation komplett erledigt, wenn selbst aktuelle Spiele rucken wie Sau. Das kann meine alte gammelige GTX 670 auch. Dafür gebe ich keine 1200 Euro aus.

Gast
2018-08-21, 21:48:19
Die rtx2080 ist für 859 euro vorbestellbar. Hier hält sich der Preisanstieg in Grenzen , wo signifikanter ist sind 2080Ti und 2070.

Abwarten Leistungsdaten gibt's noch keine verlässlichen, und wenn's einem persönlich nicht zusagt egal obs an Preis,Leistung oder Firmenpolitik liegt muss man ja nicht kaufen, nicht desto trotz finde ich die gezeigten Karten mit das Spannendste seit meiner HD7970.

Gast Ritis
2018-08-21, 22:28:02
Böse Zungen würden behaupten die Architektur von nVidia ist limitiert und deshalb musste Volta im Gaming verworfen werden und Turing wird über Features verkauft, die nichts bringen.

Aber mal Spaß beiseite. Es war schon letztes Jahr zu beobachten, dass Nvidia krampfhaft nach Usecases für die Tensor Cores im Gaming gesucht hat. Ausgerechnet Antialiasing soll es sein, obwohl es mit Supersampling kaum Bedarf gibt, zumindest wenn man statt der Tensor Cores mehr richtige GPU hätte. Dabei sollen die Tensor Cores ja eher für Training optimiert sein und weniger für Inferencing.

Der Start von Echtzeit Raytracing als Hybrid Rendering ist eine phantastische Sache. Wahrscheinlich wird es lange dauern bis die Entwickler das optimal einsetzen, vielleicht sogar Shading etwas entlasten. Man sollte dem ganzen etwas Zeit geben bevor man urteilt.
Ich bin gespannt ob sich die Konkurrenz und insbesondere Imagination Technologies noch vor dem RTX Release zu einem Kommentar hinreißen lässt.
Ich kann mir gut vorstellen die sind irgendwie bei der PS5 dabei. Zumindest waren die mit AMD und Sony in der HSA Group.

Gastein
2018-08-22, 11:09:56
Das RayTracing wird wohl eine Taktik sein um neben Intel und AMD den Laptop-OEMs noch eigene GPUs aufzwingen zu können. Dazu muss der ganze Gamimg Markt umgebogen werden.

Auf der HotChips hat scheinbar ein Intellianer erklärt, die Zusammenarbeit bei Kabylake G ist für viele Generationen geplant und so ein AMD-Intel Vertrag soll in deren HQ als Bild gerahmt and der Wand hängen.
www.anandtech.com/show/13242/hot-chips-2018-intel-on-graphics-live-blog

MrSpadge
2018-08-22, 11:33:12
An etwas anspruchsvolleren Stellen fallen die Frameraten auf 30-35fps bei Full HD mit einer RTX 2080 Ti. Wenn da sich nicht noch gravierend etwas ändert, dann hat sich das Thema Raytracing für die Genereation komplett erledigt, wenn selbst aktuelle Spiele rucken wie Sau. Das kann meine alte gammelige GTX 670 auch. Dafür gebe ich keine 1200 Euro aus.
Was macht man, wenn die ray tracing Leistung nicht ausreicht? Man berechnet einfach ein paar Strahlen weniger pro Pixel und nimmt leicht sichtbares Rauschen in kauf - Problem der kurzzeitigen Einbrüche gelöst. Muss natürlich geschickt implementiert sein, was momentan bestimmt nicht der Fall ist, da der Hersteller selbst sagt, dass sie noch dran arbeiten.
Und deine GTX670 schafft das sicherlich mit dem damaligen Tomb Raider, aber mit dem modernen Teil?

Dabei sollen die Tensor Cores ja eher für Training optimiert sein und weniger für Inferencing.
Genau anders herum. Für Training nimmt man normalerweise FP32, da reicht FP16 oftmals nicht mehr. Für inferencing geht's je nach Anwendung von FP16 bis zu Int4, also genau wofür die Tensor-Kerne ausgelegt sind.

MrS

Gast
2018-08-22, 11:43:36
Böse Zungen würden behaupten die Architektur von nVidia ist limitiert und deshalb musste Volta im Gaming verworfen werden und Turing wird über Features verkauft, die nichts bringen.

Aber mal Spaß beiseite. Es war schon letztes Jahr zu beobachten, dass Nvidia krampfhaft nach Usecases für die Tensor Cores im Gaming gesucht hat. Ausgerechnet Antialiasing soll es sein, obwohl es mit Supersampling kaum Bedarf gibt, zumindest wenn man statt der Tensor Cores mehr richtige GPU hätte. Dabei sollen die Tensor Cores ja eher für Training optimiert sein und weniger für Inferencing.

Der Start von Echtzeit Raytracing als Hybrid Rendering ist eine phantastische Sache. Wahrscheinlich wird es lange dauern bis die Entwickler das optimal einsetzen, vielleicht sogar Shading etwas entlasten. Man sollte dem ganzen etwas Zeit geben bevor man urteilt.
Ich bin gespannt ob sich die Konkurrenz und insbesondere Imagination Technologies noch vor dem RTX Release zu einem Kommentar hinreißen lässt.
Ich kann mir gut vorstellen die sind irgendwie bei der PS5 dabei. Zumindest waren die mit AMD und Sony in der HSA Group.

...
[Flame durch Mod entfernt]
...

Natürlich hat die Architektur der Aktuellen NV GPUs ihre Grenzen , aber das gilt für jegliche Architektur.

Wenn man die Hardwareentwicklung , Launchzeitpunkte und Preise von NVIDA ansieht ,sieht man das ihnen was AMD macht spätestens seit der 980Ti total egal ist, sie messen sich massgeblich an ihrer Vorgängergeneration.

Der Vorsprung ist mittlerweile so gross das selbst eine komplett verhunzte Generation kein Beinbruch darstellt würde.
Man hat den Luxus nen 800mm² chip zubringen , einen beträchtlichen Teil in neue nicht direkt leistungsförderne Einheiten zu stecken und trotzdem mehr FPS bei weniger Strombedarf zu liefern.
Unter denn Umständen kann es gar keinen bessere Situation geben als jetzt diesen Schritt zu gehen.
Dabei ist es auch komplett unerheblich was der Konsolenmassenmarkt macht, Die neuesten Architekturen , oder technischen Funktionen kommen meist experimentel im PC Entusiasten Segment der gewissermassen als Betatestumgebung dient , solche Spielchen und Risiken geht kein Konsolenhersteller mit extrem bugett optimierter Hardware ein.

Zumal es allein schon anhand der durchschnittlichen Halbwertszeit einer Konsolengeneration und der Zeit die vom Design bis zur Markreife vergeht sowie ihrem technischem Fundament überhaupt nicht möglich währe "First in" + "Up to date" zu sein/bleiben selbst wenn man wollen würde.

Gast Ritis
2018-08-22, 13:18:00
Genau anders herum. Für Training nimmt man normalerweise FP32, da reicht FP16 oftmals nicht mehr. Für inferencing geht's je nach Anwendung von FP16 bis zu Int4, also genau wofür die Tensor-Kerne ausgelegt sind.

MrS

Selbst nVidia gibt zu, dass deren Tensor cores mit Basis der Pascal bei Training doppelt so gut wie bei Inferencing abschneiden.
Tensor Cores provide up to 12x higher peak TFLOPS on Tesla V100 that can be applied to deep learning training compared to using standard FP32 operations on P100. For deep learning inference, V100 Tensor Cores provide up to 6x higher peak TFLOPS compared to standard FP16 operations on P100
Ob das Antialiasing dadurch sinnvoller wird ist die eigentliche Frage. Das Inferencing braucht Bandbreite, das neuronale Netz braucht neben den ganzen Texturen auch mächtig Speicher. Alles nur extra um ein Problem mit anderen Mitteln zu lösen, nur weil Tensor Cores sonst übrig sind.
Das ist von hinten durch die Brust ins Auge geschossen. IMHO

Da bin ich gespannt auf Retrofitting alter Games beim Antialiasing, ob das bemerkenswerte Unterschiede macht und wie die Performance dann aussieht.
Bei neuen Titeln hätte ich die Befürchtung dass der Marketing-Effekt für AB Vergleiche getürkt wird. Ich hätte lieber mehr Supersampling-Leistung gesehen. Das ist wesentlich flexibler einsetzbar, wenn man wegen dem 4k+ Monitor schon gar nicht mehr so viel Antialiasing braucht.

Gast Ritis
2018-08-22, 15:42:31
...
[Flame durch Mod entfernt]
...

Zumal es allein schon anhand der durchschnittlichen Halbwertszeit einer Konsolengeneration und der Zeit die vom Design bis zur Markreife vergeht sowie ihrem technischem Fundament überhaupt nicht möglich währe "First in" + "Up to date" zu sein/bleiben selbst wenn man wollen würde.

----
Vielen Dank an den Mod den bereinigten Kommentar noch zu bringen.
----

Bevor AMD mit Microsoft und Sony deren Konsolen designt hat waren eigentlich Speziallösungen und technische Extreme eher die Regel bei den Konsolen. Also die überwiegende Zeit bis heute.
Sonys PS2 Stream Prozessoren sollten sogar von IBM im Professional Umfeld vermarktet werden. Von Nintendos VR Konsole will ich gar nicht erst anfangen.
Die ganzen Load/Store Einheiten und anderen zusätzliche SoC Features der aktuellen Konsolen-APUs sind auch nicht im PC-Markt zu finden. Die Softwareentwickler müssen und können sich mehr Optimierungen auf Konsolen einfallen lassen, in der Regel für Exclusiv-Titel, die dann erst später beim PC Kommen. Nicht ausgeschlossen dass es dann mit Gameworks nicht einmal richtig funktioniert wie bei BatmanArkhamKnight.

Die ganze Sache um Spielekonsolen ist dann doch etwas komplexer als einfach nur zu behaupten alles würde zuerst auf dem PC entwickelt um nur verspätet auf Konsolen aufzutauchen. So simpel und eindimensional ist die Realität nunmal nicht. Zumindest nicht wenn man nicht nur auf Auflösung und FPS achtet. ;)

Aber sicher haben die grossen Konsolenanbieter jeder Zeit die Mittel und Marktposition etwas Besonderes zu machen, das es auf dem PC noch nicht gibt.
Und sei es nur ein neues Uncharted, oder DC PSO, oder TiledRendering, oder Amiibos, oder Kinect, oder Labo, oder TrueAudioNext, oder bezahlbares VR, oder einfach nur gute Gampads, oder, oder, oder ;D

cat
2018-08-22, 17:55:31
Das DLAA deep-learning anti-aliasing, habe ich so verstanden, dass es sein musste um die Ursprungsauflösung zu senken, damit weniger Quell-Strahlen geschossen werden müssen.
Und nachher trotzdem wieder annähernd Display-Auflösung zu erreichen.

Kann mich aber auch irren.

@Artikel
Ich sehe das so:
1. Nvidia konnte wegen ihres aktuellen Vorsprungs vor AMD das Wagnis der RTX eingehen.
2. Nvidia hat in 12nm geradeso gaschafft RTX Chips zu bringen, die etwas schneller sind als ihre GTX Vorgänger trotz des Platzes den RTX kostet.

Mal sehen wie sich eine RTX 2080Ti gegen eine Titan Xp schlägt,
der Preis der Titan V ist mMn künstlich aufgeblasen um genau diesen Vergleich zu vermeiden.

Wie ich das aus mehreren Bruchstücken verstanden hab ist in nicht RTX-Games maximal 10% Vorteil pro Takt zu sehen.
Also Tensoren und RT Core unbeachtet gelassen.

Teils durch die Cache-Neuordnung/Vergrößerung etc.

Teils durch nun gleichzeitig nutzbarem FP und INT.
Der CEO erklärte ja, dass INT hauptsächlich/(fast nur?) bei Address-Generierung etc. genutzt wird.
Wobei ich keinen Plan hab ob die eigentlichen Shader Cores FP16 und INT16 neben den vorhandenen 32bit Varianten beherrschen oder ob dazu jedesmal der Tensor bemüht werden muss.

Linmoum
2018-08-22, 18:16:24
@Artikel
Ich sehe das so:
1. Nvidia konnte wegen ihres aktuellen Vorsprungs vor AMD das Wagnis der RTX eingehen.
Was keinen Sinn ergibt, da die Entwicklung Jahre im voraus beginnt. Was 2018 kann Nvidia nicht fünf Jahre früher wissen.

Manche sollten sich mal klar werden, wann man mit der Entwicklung beginnt. Da fängt man nicht 2016 an und 2018 gibt's das fertige Produkt dann zu kaufen.

Gast
2018-08-22, 19:55:34
Was keinen Sinn ergibt, da die Entwicklung Jahre im voraus beginnt. Was 2018 kann Nvidia nicht fünf Jahre früher wissen.

Die Entwicklung von Turing hat schon wesentlich länger davor, parallel zur "normalen" Weiterentwicklung der GPUs entwickelt.

Und ja, 2016 klingt nicht unbedingt unrealistisch, dass in etwa um den Zeitraum die Entscheidung getroffen wurde, Volta auf HPC zu beschränken und Turing in ein endgültiges Produkt zu gießen.

OBrian
2018-08-23, 04:14:35
@Linmoum: ja, die Architektur muss man langfristig entwickeln. Aber zu entscheiden, wann man was wie bringt, d.h. wieviele Einheiten pro Chip und auf welchem Fertigungsprozeß, das muss man nicht zehn Jahre vorher wissen. Und das reicht, um Produkte für bestimmte Märkte zuzuschneiden.

JVC
2018-08-23, 09:42:56
https://www.youtube.com/watch?v=NeCPvQcKr5Q
~8min 40sec ...

Da geht man auch von ~15% + aus ...

m.f.g. JVC

Gast
2018-08-23, 10:16:36
die vergleiche 2080 vs 1080ti taa und dlss sind einfach quatsch. bei turing werden die daten in einem neuronalen netzwerk in 64 sample variante vorberechnet und dann der algorlthmus an turing übertragen. heisst das aa erfolgt zu teilen gar nicht auf der karte, was und wie dabei noch übertragen wird ist ungewiss und beeinflussbar ist die berechnungsvariante durch den anwender nicht. entweder an mehr eistung oder aus wenige leistung. netter schachzug von nvidia. man muss dann als nutzer damit leben was ein supercomputer für richtig hält, alles auch noch unter anmeldezwang und vergleiche pascal-turing wo unter 4k eigentlich weniger geglättet werden muss.

das ist nicht nur cherry picking weil neimand weiss welche spiele zum to be played gehören werden und ob das feature auch zukünftig bestand hat, nvidia bindet alles und jeden an seine supercomputer mit neuronaler netz infrastruktur. gamer dann auch noch mit anmeldezwang für ge, weil dlss sonst nicht ausgeführt werden kann und nur dann ist eine karte die besagten 50-100% schnell, wenn man auf der 1080ti unter 4k mit taa kostbare ressourcen verschwendet. wer macht denn sowas? unter 4k schalte ich kostspielige modi doch eher ab, weil durch mehr pixel und höhere darstellung weniger kanten optisch geglättet werden müssen. das weiss auch nvidias ki, wobei man szenen ja uch totoptimieren kann um so lestungssteigerung in einzelnen sequenzen und bilder vorgaukeln kann.

die interessierten käufer werden hier gerade richtig veräppelt, turing ist ohne solche feature genauso schnell wie shader und einheiten zuwachs aussagen, 20-25%.

nv versucht erneut über ein proprietäres modell dedizierte techniken einzusetzen um kunden zu binden und eigene vorstellungen auszuleben, wie hardware funktionieren sollte und was es heisst gaming bildqualität zu geniessen, wobei man sich die anbindung an eigne neuronale infrastrukturen gut bezahlen lässt und der spieler grösstenteils die kontrolle über seine eigene hardware verliert, wenn ersolche feature nutzen will. höchste Leistung gibt es aber nur dann, ansonsten ist turing ein teurer briefbeschwerer.

wie das auf entwickler wirkt ist ungewiss. das wird zu einer noch tieferen marktspalting führen wie das schon jetzt der fall ist. turing ist für mich eine neue und der grössten mogelpackungen der geschichte. das erinnert mich an konsolensektor wo die lesitung über jahre hinweg freigeschaltet wird, wobei die entwicklung und den support jetzt supercomputer übernehmen die bestimmen was auf einem rechner passiert und ich vermutlich auch noch daten liefern muss und nicht weiss was damit passiert.

wir sind selbst schuld das es so gekommen ist und dürfen jetzt ausbaden was wir über viele jahre gefördert haben, wobei ray tracing in spielen als hybrid ray tracing nicht mit der technologie ansich zu tun hat, sondern genauso proprietär wie jede andere technologie seitens nv ausgelebt wird. dem markt hilft das überhaupt nicht weiter. wir stehen nicht vor einem meilenstein, wir stehen vor de nvidia gaming sparte inklusive downsizing der eignen hardware im rechner und reglementierung sowie beteiligungszwang durch den hersteller selbst, weil sonst höchste elistung verwehrt bleibt. vermutlich folgen bald abomodelle und lotboxen formen.

traurig wer das nicht sieht. die fachpresse sollte jetzt endlich stellung dazu nehmen und beziehen! ndas sollten jetzt niemanden mehr interessieren, nvidia verpasst nicht nur dem freinen journalismus ejnen maulkorb, man cersucht seine supercomputerindustrie und neuronale netzwerksclouds in eine neue spähre zu heben, an der konkurrenz vorbei und lässt gamer dafür arbeiten.

sangria-Gast
2018-08-23, 13:27:37
In der Tat, Danke guter Beitrag.:)

Mich erinnert DLSS an PhysX nur mit noch mehr Hürden. Echtes Rytracing läuft einer keiner GPU Ruckelfrei. NVidias Meisterstück sich ein eigenes Imperium aufzubauen und die Journalisten, lächerlich - die stehen mit offenem Mund da, jubeln zu, klatschen Beifall (stupid und die andere Hälfte eingekauft). AMD wird nun nicht zögern nachzuziehen und gleiche Preise aufzurufen. Wer den Wind sät (und wir haben alle mitgemacht)...für Gamer ist das nach dem Minningboom einfach wieder ein Schlag ins Gesicht, weil die Preise bei KI ausufern werden und jeder einen draufsetzen will. Die veräppeln uns so richtig mit irgendwelchem Tant und selbst wenn man es nicht benutzt musst du mitbezahlen. Shrinken kostet zu viel und der Spieler verlangt immer wieder dopplete Leistung, anstatt sich auch mal zufrieden zu geben.

Ein Glück bin ich so alt das mich dieser Firlefans nicht wirklich interessiert, meine drei Daddelspiele über GOG reichen mir.

Leo gute Performance, bitte mehr.:up:

edit sagt: Schön das auch Gäste wieder mehr Postings verfassen dürfen die inline gestellt werden, Danke an die Moderation. Eine Zeitlang war hier irgendwie das Gast-hater-Fieber ausgebrochen.

Gast
2018-08-23, 15:29:19
die vergleiche 2080 vs 1080ti taa und dlss sind einfach quatsch. bei turing werden die daten in einem neuronalen netzwerk in 64 sample variante vorberechnet und dann der algorlthmus an turing übertragen. heisst das aa erfolgt zu teilen gar nicht auf der karte, was und wie dabei noch übertragen wird ist ungewiss und beeinflussbar ist die berechnungsvariante durch den anwender nicht. entweder an mehr eistung oder aus wenige leistung. netter schachzug von nvidia. man muss dann als nutzer damit leben was ein supercomputer für richtig hält, alles auch noch unter anmeldezwang und vergleiche pascal-turing wo unter 4k eigentlich weniger geglättet werden muss.

das ist nicht nur cherry picking weil neimand weiss welche spiele zum to be played gehören werden und ob das feature auch zukünftig bestand hat, nvidia bindet alles und jeden an seine supercomputer mit neuronaler netz infrastruktur. gamer dann auch noch mit anmeldezwang für ge, weil dlss sonst nicht ausgeführt werden kann und nur dann ist eine karte die besagten 50-100% schnell, wenn man auf der 1080ti unter 4k mit taa kostbare ressourcen verschwendet. wer macht denn sowas? unter 4k schalte ich kostspielige modi doch eher ab, weil durch mehr pixel und höhere darstellung weniger kanten optisch geglättet werden müssen. das weiss auch nvidias ki, wobei man szenen ja uch totoptimieren kann um so lestungssteigerung in einzelnen sequenzen und bilder vorgaukeln kann.

die interessierten käufer werden hier gerade richtig veräppelt, turing ist ohne solche feature genauso schnell wie shader und einheiten zuwachs aussagen, 20-25%.

nv versucht erneut über ein proprietäres modell dedizierte techniken einzusetzen um kunden zu binden und eigene vorstellungen auszuleben, wie hardware funktionieren sollte und was es heisst gaming bildqualität zu geniessen, wobei man sich die anbindung an eigne neuronale infrastrukturen gut bezahlen lässt und der spieler grösstenteils die kontrolle über seine eigene hardware verliert, wenn ersolche feature nutzen will. höchste Leistung gibt es aber nur dann, ansonsten ist turing ein teurer briefbeschwerer.

wie das auf entwickler wirkt ist ungewiss. das wird zu einer noch tieferen marktspalting führen wie das schon jetzt der fall ist. turing ist für mich eine neue und der grössten mogelpackungen der geschichte. das erinnert mich an konsolensektor wo die lesitung über jahre hinweg freigeschaltet wird, wobei die entwicklung und den support jetzt supercomputer übernehmen die bestimmen was auf einem rechner passiert und ich vermutlich auch noch daten liefern muss und nicht weiss was damit passiert.

wir sind selbst schuld das es so gekommen ist und dürfen jetzt ausbaden was wir über viele jahre gefördert haben, wobei ray tracing in spielen als hybrid ray tracing nicht mit der technologie ansich zu tun hat, sondern genauso proprietär wie jede andere technologie seitens nv ausgelebt wird. dem markt hilft das überhaupt nicht weiter. wir stehen nicht vor einem meilenstein, wir stehen vor de nvidia gaming sparte inklusive downsizing der eignen hardware im rechner und reglementierung sowie beteiligungszwang durch den hersteller selbst, weil sonst höchste elistung verwehrt bleibt. vermutlich folgen bald abomodelle und lotboxen formen.

traurig wer das nicht sieht. die fachpresse sollte jetzt endlich stellung dazu nehmen und beziehen! ndas sollten jetzt niemanden mehr interessieren, nvidia verpasst nicht nur dem freinen journalismus ejnen maulkorb, man cersucht seine supercomputerindustrie und neuronale netzwerksclouds in eine neue spähre zu heben, an der konkurrenz vorbei und lässt gamer dafür arbeiten.

Qualitätskommetarmodus an:

NVIDIA mit dem Trojaner GE ist sicher auch für die zustark gebräunte Kanten meines Smarttoasters und den erhöhten NOx Austoß meines Diesel verantwortlich, man versucht hier unentdeckt unter anderem mit der erhöten Acrylamid Belastung die Krankenrate zu pushen und damit den Verkauf von Turing im Medizientechniksektor bei z.B. den bildgebenden Verfahren zu pushen!.
Wenn ich mal drüber nachdenke fällt öfters der Name SKYNET für NVIDIAS Superrechner , da wundert einen nix mehr!

Qualitätskommetarmodus aus:

Zusammengefasst , man kanns auch überteiben mit den Aluhüten und nimm weniger von dem Zeug was du da hast ;)