PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 8./9. August 2019


Leonidas
2019-08-10, 10:33:01
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-august-2019

iamthebear
2019-08-10, 11:14:55
Ich denke, dass die 7nm EUV nächstes Jahr sowohl bei Nvidia als auch bei AMD die echten 7nm sein werden, die auch die versprochene Erhöhung der Packdichte liefern und so das Potential auf mehr Performance zum selben Kaufpreis haben.

Was Raytracing angeht, so sehe ich das nicht als Notwendigkeit. Der Einfluss auf die Performance ist riesig und der Qualitätsunterschied zur klassischen Variante ist eher mager. Der einzige Vorteil ist, dass es für die Entwickler einfacher zu realisieren ist.
Gerade im Konsolenbereich halte ich Raytracing für Schwachsinn. Da gibt es eine Menge andere Dinge, die man sinnvoll mit der Rechenleistung machen könnte.

Das wichtigere Feature von Nvidia ist eher DLSS. Oft reicht die Performance für natives 4K nicht aus und dann hat DLSS eine deutlich höhere Qualität als 1440p. Klar es hat etwas weniger Schärfe aber Schärfe ist bei 4K sowieso nicht das Problem, sondern ungeglättete oder flimmernde Kanten.

Den Fehler, den die meisten bei den Reviews gemacht haben war, dass jeder die Screenshots mit einem Viewer, der bikubisches Upscaling macht. Man muss die Screenshots mit Paint vergleichen und hochskalieren. Das macht wie ein Monitor nearest neighbour. Da wird der Unterschied dann deutlich.

Platos
2019-08-10, 11:44:08
Ich denke Intel wird sich eher versuchen mit irendwelchen "Häppchen" über Wasser zu halten, bis sie endlich ihren Fertigungsprozess in den Griff bekommen. Vlt./vermutlich ist das sogar erst der Fall, wenn sie EUV nutzen, also 7nm bzw. laut Intels Aussage Ende 2021, was dann wahrscheinlich Ende 2022 bei Server bedeutet. Naja, falls Intels Prognose zutrifft :D

Das wäre schon ziemlich krass für Intel. Aber man verliert auch nicht so schnell Marktanteile im Serverbereich.

Zossel
2019-08-10, 12:00:37
Das wäre schon ziemlich krass für Intel. Aber man verliert auch nicht so schnell Marktanteile im Serverbereich.

Warum sollte ich als Serverbetreiber nicht doppelt soviel Bumms pro Schrank kaufen?

BTW: Hat jemand schon ROME-Blades von HPE gesichtet oder eine Ankündigung?

Leonidas
2019-08-10, 12:07:32
Ankündigungen der Server-Hersteller hier:
https://www.igorslab.media/amd-epyc-romeoffiziell-vorgestellt-7nm-server-cpus-mit-vielen-kernen-und-hoeheren-transferraten/

HPE wurde da auch genannt.

Mr.Smith
2019-08-10, 12:20:46
nVidia Killer :love2:
Das wäre ja was, mit RDNA1 aber definitv nicht möglich

Platos
2019-08-10, 12:43:52
Warum sollte ich als Serverbetreiber nicht doppelt soviel Bumms pro Schrank kaufen?

BTW: Hat jemand schon ROME-Blades von HPE gesichtet oder eine Ankündigung?

Naja, kaufst du dir jedes Jahr alle Server CPUs neu (tauschst sie aus) ? Bzw. tauscht Google alle Server in 3 Jahren aus ? Glaube ich ja kaum. Ansonsten liege ich halt völlig daneben.

Und es geht ja nicht immer nur um Leistung, sondern auch um Support und der hängt nicht nur von der tatsächlichen Leistung sondern auch vom Ruf ab. Und auch vom Ruf des Konkurrenten. Das alles zusammen meine ich.

amdfanuwe
2019-08-10, 14:01:35
Bzw. tauscht Google alle Server in 3 Jahren aus ? Glaube ich ja kaum.
Wenn dabei mehr Gewinn rumkommt, warum nicht.
Da geht es um knallharte Kostenkalkulation.
Bei den kleinen Firmen mit ein, zwei Racks wird sich das nicht rechnen, bei großen Serverfarmen macht halber Verbrauch an Energie, Kühlung, Strom, Platzbedarf schon einiges aus.
Oder man verdoppelt die Kapazität bei gleichem Ressourcenverbrauch. Da hat man die Umrüstkosten schnell wieder eingespielt.

Was viele aber übersehen, ist die Flexibilität AMDs. Das Semicustom Geschäft. Liest man ja bei Crays Shasta, Semicustom CPU, GPU.
Die werden zumindest ein eigenes auf ihren Anwendungsfall optimiertes I/O Die haben. Würde mich nicht wundern, wenn das Slingshoot Interface direkt im I/O integriert wird.
Also selbst wenn Intel in ein paar Jahren mit vergleichbarer Leistung und Chipletdesign zurück ist, werden sie auch solch einen Service bieten?

AMD profitiert aktuell enorm von Intels Schwäche und kann sich beweisen. Mal sehen, ob es in ein paar Jahren wieder David gegen Goliat heißt oder ob sich 2 Firmen auf Augenhöhe um den X86 Markt schlagen.

Complicated
2019-08-10, 14:22:44
Was viele aber übersehen, ist die Flexibilität AMDs. Das Semicustom Geschäft. Liest man ja bei Crays Shasta, Semicustom CPU, GPU.
Die werden zumindest ein eigenes auf ihren Anwendungsfall optimiertes I/O Die haben. Würde mich nicht wundern, wenn das Slingshoot Interface direkt im I/O integriert wird.
Also selbst wenn Intel in ein paar Jahren mit vergleichbarer Leistung und Chipletdesign zurück ist, werden sie auch solch einen Service bieten?
Und genau hier entscheidet sich derzeit der Servermarkt, denn AMD hat das schon etabliert mit den zur Verfügung stehenden PCIe-Lanes und IF. (Siehe Slingshot (Übrigens ein sehr informatives Interview mit Steve Scott, der bei Nvidia und Google war vor seiner Rückkehr zu Cray (https://www.hpcwire.com/off-the-wire/steve-scott-rejoins-cray-senior-vice-president-cto/)) :
https://www.nextplatform.com/2018/10/30/cray-slingshots-back-into-hpc-interconnects-with-shasta-systems/

Steve Scott: Slingshot is full-on Ethernet compatible. What we have done is designed an Ethernet protocol that has all of the hallmarks of a good HPC interconnect: smaller packets, smaller packet headers, reliable hardware delivery across the link, credit-based flow control that gives the characteristics of an HPC network. But then it is done in a way that is sympathetic to standard Ethernet packet processing and formats, and we can also switch standard Ethernet frames. We can take one of our Slingshot switches and hook it up directly to third party Ethernet network interface cards on storage devices or in servers. What this means is that one the edge of the fabric, we look like a standard Ethernet fabric, but inside the system everything sees this optimized HPC protocol.
Hier wird also kein Interface benötigt auf den ASICs wie CPU oder GPU. Hier hat "the register" das mal visualisiert:
https://regmedia.co.uk/2018/10/31/cray_slingshot_diagram.jpg?x=648&y=508&infer_y=1


Tatsächlich sind Nvidia GPUs geplant anstatt AMD GPUs bei Shasta:
https://www.theregister.co.uk/2018/10/31/crays_preexascale_shasta_supercomputer_gets_nersc_buyin/
NERSC Perlmutter

The US DoE's National Energy Research Scientific Computing Center (NERSC) is buying a Shasta system for $146m named after Nobel-prize-winning scientist Saul Perlmutter.
This Xeon-free system has a heterogeneous combination of CPU and GPU-accelerated nodes:


AMD Epyc CPUs
Nvidia GPUs with Tensor Core technology
Slingshot interconnect
Direct liquid cooling
Lustre filesystem

It will have an all-flash scratch filesystem, which will move data at a rate of more than 4TB/sec.

Rabiata
2019-08-10, 15:19:15
Bei den kleinen Firmen mit ein, zwei Racks wird sich das nicht rechnen, bei großen Serverfarmen macht halber Verbrauch an Energie, Kühlung, Strom, Platzbedarf schon einiges aus.
Oder man verdoppelt die Kapazität bei gleichem Ressourcenverbrauch. Da hat man die Umrüstkosten schnell wieder eingespielt.
Guter Punkt. Die Administrationskosten gehen ja auch nicht proportional zur Größe der Serverfarm hoch (Konfigurationen einmal anpassen, auf allen gleichartigen Servern einspielen). Was sich für einen Mittelständler mit einer Handvoll Servern nicht rechnet, kann sich für Google oder Amazon sehr gut rechnen. Zusätzlich zum eingesparten Strom/Platz.

Zossel
2019-08-10, 16:28:55
Ankündigungen der Server-Hersteller hier:
https://www.igorslab.media/amd-epyc-romeoffiziell-vorgestellt-7nm-server-cpus-mit-vielen-kernen-und-hoeheren-transferraten/

HPE wurde da auch genannt.

Von HPE habe ich noch keine Blades mit ROME gesehen, nur rack-mounted.

Zossel
2019-08-10, 16:41:27
Und es geht ja nicht immer nur um Leistung, sondern auch um Support und der hängt nicht nur von der tatsächlichen Leistung sondern auch vom Ruf ab. Und auch vom Ruf des Konkurrenten. Das alles zusammen meine ich.

Intel steigert seine Reputation mit Meltdown & Co quasi täglich.

Gast
2019-08-10, 18:07:24
nVidia Killer :love2:

AMD denkt sicher Nvidia bleibt ewig bei 12nm.

Die 2080Ti werden sie schon schlagen.

Aroas
2019-08-10, 19:07:00
Sorry AMD, aber das hat mir jetz echt zu lange gedauert mit bezahlbaren Navi Karten um 250€ rum.
Nun hab ich mir eine gebrauchte GTX1070 geholt, mit der ich sicher ne Weile glücklich werde.

Hätte ja durchaus Interesse an einer RX 5600(XT) gehabt, aber wenn AMD ständig Monate braucht um das Portfolio wenigstens halbwegs zu füllen, ist meine Geduld überstrapaziert.

Platos
2019-08-10, 20:26:25
Ok, ja stimmt, ist ja schliesslich ca. 30% mehr Leistung bei sehr viel niedrigerem Stromverbrauch und das zu vernünftigen Preisen.

Wie viele Server-CPUs hat denn Google eig. so ? Gibts da Schätzungen oder genau Zahlen? Aber selbst wenn Google planen würde, jetzt anzufangen ihre CPUs komplett auszutauschen, glaube ich nicht, dass man das in weniger als 5 Jahren hinkriegt. Nur schon deshalb, weil man nicht alle einfach abschalten kann und dann die neuen hinbauen kann. Und aus dem zweiten Grund, dass AMD niemals so viele CPUs liefern kann in so kurzer Zeit.

Es wäre schon eine Meisterleistung, in 3 Jahren 15-20% Marktanteile hinzukriegen. Also zusätzlich zu den 7/8 wo sie jetzt sind.

Eldoran
2019-08-10, 20:34:59
intel hat in den letzten Jahren ziemlich viel Porzellan bei den Grosskunden zerschlagen:
Bevorzugter Zugang für einzelne Cloud Anbieter:
https://www.semiaccurate.com/2016/11/17/intel-preferentially-offers-two-customers-skylake-xeon-cpus/
https://www.semiaccurate.com/2016/12/27/intel-cut-skylake-epearly-purley/
deutliche Preissteigerungen:
https://www.semiaccurate.com/2017/05/05/intels-new-scalable-xeon-branding-just-price-increase/
und ständig ändernde Roadmaps (die seit Jahren verschobenen 10nm CPUs). Dann noch die ganzen Spectre etc. Sicherheitslücken und die Lieferprobleme das letzte Jahr.
Mit Naples hat AMD dann endlich eine für viele Fälle brauchbare Alternative angeboten, jetzt mit Rome dann wie angekündigt deutlich verbessert und in den meisten Fällen eben ein besseres Produkt zu einem günstigeren Preis. Mit Rome sind nur unter bestimmten Umständen intel CPUs vorzuziehen. Etwa wenn die Software auf AVX512 optimiert ist, wobei das teilweise auch einfach mehr Kerne mit AVX256 ersetzen kann (siehe namd benchmark bei anandtech (https://www.anandtech.com/show/14694/amd-rome-epyc-2nd-gen/14), GROMACS bei servethehome (https://www.servethehome.com/amd-epyc-7002-series-rome-delivers-a-knockout/8/)).
Bei vielen Fällen kann man mit ROME quasi die Hälfte der Server einsparen (Beispiele bei servethehome (https://www.servethehome.com/amd-epyc-7002-series-rome-delivers-a-knockout/9/)), was zusätzlich zu den anderen Kostenfaktoren auch etwa die Kosten für das Housing im Datacenter senkt - da ist einer der Kostenfaktoren der Platz im Rack.

Schnoesel
2019-08-10, 20:47:55
Bezüglich der Cloud Anbieter muss man aber sagen, dass die quasi permanent ihre Server erweitern und austauschen müssen. Das ist immer noch ein krasser Wachstumsmarkt und das wird erstmal so weiter gehen:

https://de.statista.com/infografik/18231/cloud-vs-lokaler-speicher/

Da geht es dann nicht nur aum austauschen, sondern um Neuanschaffungen.

Beispiel AWS: Wir sprechen hier von einem Wachstum von 41%, 45% , 46% in den letzten 3 Quartalen:

https://finanzmarktwelt.de/amazon-quartalszahlen-gewinn-deutlich-besser-aussicht-mau-124559/

Das stemmst du nicht mit bestehendem Bestand da musst du investieren. 2019 soll mit Bahrein ein neuer Standort dazu kommen. Der erste im Nahen Osten und wohl nicht der letzte.

cat
2019-08-10, 22:32:51
Zu diesem "Nvidia Killer" sag ich nur, dass immer wenn AMD den dicken Max macht bisher immer nur Fail rauskamen, da wo AMD allerdings vorher sehr verschwiegen war konnte man schon eher Punkttreffer landen.
Mich bereitet "Nvidia Killer" also eher auf eine Enttäuschung vor.

Ich nenne nur die Aussage von Herrn Koduri (glaube ich) wo er kurz nach den ersten eher ernüchternden Vega Benchmarks ganz nüchtern antwortete:
"Naja mit Navi kommt ja auch erst der große Wurf."

Immer das Heil weiter in die Zukunft zu schieben bringt nix außer ewig immerwieder enttäuscht zu werden weil es nicht so toll wird wie erhofft.

- Navi ist nicht an der absoluten Spitze
- Navi hat kein Raytracing
- Navi ist trotz 7nm nicht so effizient wie erhofft

Und ich habe keine Ahnung was ich von dem Söldnerverhalten von den Leuten wie Koduri halten soll, ging er weg weil er nach Navi nicht noch radikalere Architekturverbesserungen durchsetzen konnte?
Navi ist evtl das Äußerste was ohne größere Inkompatiblitäten zu GCN ging, AMD hat evtl Angst sich das GCN Software-Ökosystem zu stark zu schwächen.

Der Prozentunterschied in Effizienz wird Nvidia wohl auf absehbare Zeit immer die Nr.1-Karte ermöglichen.
Es wäre natürlich schön falls eine große Raytracing-Navi mit unter 300W eine 2080Ti erreicht.
Nur wird die Zeit knapp weil Nvidia vermutlich im Frühjahr schon Ampere draußen hat und der Gaming-Ableger bereit sein dürfte und dann mit über 6500 Cores schießt.

Lehdro
2019-08-11, 01:53:57
Ich halte nichts davon "Navi" als Sammelbegriff alleine mit Navi 10 zu bewerten. Nur mal so als Gedanke.

Gast
2019-08-11, 03:17:34
Mich würde nicht überraschen wenn AMD gar kein 7nm EUV verwendet, sondern 6nm.

Der Übergang von 7nm auf 6nm ist einfacher als von 7nm auf 7nm-EUV, wobei allerdings 6nm theoretisch der schlechtere Prozess ist.

Zossel
2019-08-11, 07:05:21
Wie viele Server-CPUs hat denn Google eig. so ? Gibts da Schätzungen oder genau Zahlen? Aber selbst wenn Google planen würde, jetzt anzufangen ihre CPUs komplett auszutauschen, glaube ich nicht, dass man das in weniger als 5 Jahren hinkriegt. Nur schon deshalb, weil man nicht alle einfach abschalten kann und dann die neuen hinbauen kann. Und aus dem zweiten Grund, dass AMD niemals so viele CPUs liefern kann in so kurzer Zeit.

Lt. https://www.heise.de/newsticker/meldung/AMD-Epyc-7002-Google-kauft-ein-4490998.html kaufen die Hyperscaler 52% aller Server-CPUs.

Gast
2019-08-11, 11:45:11
Paul von Red Gaming Tech stellt sich nahezu täglich vor die Kamera und erzählt seinen Zuschauen brandneue Details, die seine Quellen ihm bezüglich AMD zugetragen haben.

Warum verwendest du Red Gaming Tech als Quelle, lieber Leonidas?

Bisher war bei Pauls Schätzungen wenig korrektes dabei. Warum? Vielleicht sind seine Quellen seine Haustiere, seine Fliegen, sein Kaffeesatz? Wer weiß das.

Heißt das Red Gaming Tech berichtet immer über Dinge die nicht eintreffen?
Nein, neben der Fiktion schreiben sie auch von anderen ab. Und die Fiktionen sind oft so glaubwürdig, dass sie eintreffen könnten, vergleichbar mit AdoredTV.

Wird dann eine der Geschichten in etwa wahr, beginnen einem die Leute plötzlich zu vertrauen. Wahrsagerei des 21. Jahrhunderts.

Schließt sich 3D-Center dem an, wird AdoredTV, Red Gaming Tech oder die Sport Bild hier dauerhaft als Quelle Einzug halten, hat die Website leider keinen Wert mehr für mich.

Gast-olletsag
2019-08-11, 12:52:35
Mich würde nicht überraschen wenn AMD gar kein 7nm EUV verwendet, sondern 6nm.
NVidia wird sicher auf 6nm setzen, weil man bei Samsung fertigen lassen wird, nicht AMD.

Ein RayTracing-Support im Gaming-Bereich wurde dagegen seitens AMD als "wichtig" bezeichnet, ohne das es allerdings ein definitives Bekenntnis gab, das die Navi-2X-Grafikchips selbiges Feature beherrschen. Allerdings darf man zumindest in dieser Frage hoffnungsvoll sein, denn AMD hat Hardware-RayTracing in jedem Fall zur Verfügung, wenn selbiges augenscheinlich bei den SoCs für die nächste Spielekonsolen-Generation (Xbox Scarlett & Playstation 5) vorhanden sein wird....
Da wäre ich vorsichtig, da AMD gerade erst mitteilte das [Zitat AMD=Techday'19]: "Raytracing wird sich von Shader-basierter Beschleunigung zu hardwarebasierter Beschleunigung entwickeln - zur gegebenen Zeit...!"

Dies bedeutet, dass es sich bei ersten Versionen eher um eine Art softwareemuliertes und shaderbasierendes Level handeln könnte (was AMDs zurückliegende Entwicklung auch nahe kommt) und DXR auch zulässt. Das ist auf Konsolen SoC klar machbar. Denkbar wäre sogar ein "Coprozessor". Es hängt vom Intensitätsgrad ab und was ich überhaupt abbilden möchte. Letztlich tut auch nVidia nichts anderes, lediglich die Raygeneration wird mittles dedizierten Cores vorberechnet (Raytraverse). DXR setzt dabei grundsätzlich auf einen Schnittpunktshader. Die Erstellung der Schnittpunktkoordinaten innerhalb eines Dreiecks muss dabei nicht zwingend so berechnet werden, wie nVidia dies tut. Der Schnittpunktshader entspricht dabei einer Struktur von 2 Gleitkommawerten. Raytracing und Tracing ist ein weit gefasster Begriff und bezieht sich auf die reale Ausbreitung von Licht in einer Sequenz, ob in Echtzeit und wie realitätsnah definiert DXR nicht. So wird schon bei SSR eine Pixeltraverse berechnet, die Raytracing gleichkommt.

AMD verwendet in der internen dGPU/iGPU-Entwicklung keine Begriffe wie "nVidia Killer", dass ist tatsächlich Humbug. Navi 21 kann dabei ledlich eine Weiterentwicklung von Navi 10 sein, auch Refresh wie ihr gerne schreibt. Das man schon nächstes Jahr einen ti Killer bringt, ist unglaubhaft. Wenn dann kann er sicher kein Raytracing, denn die Entwicklung begann schon vor Jahren.

Mr.Smith
2019-08-11, 18:54:23
Warum sollte ich als Serverbetreiber nicht doppelt soviel Bumms pro Schrank kaufen? ...

Was der Bauer ned kennt, des mag er ned.
Verursacht Arbeit auf verschiedenen Leveln. Muss man ned verstehen.

iamthebear
2019-08-11, 21:03:22
Was der Bauer ned kennt, des mag er ned.
Verursacht Arbeit auf verschiedenen Leveln. Muss man ned verstehen.

Das allerwichtigste im Serverbereich ist dass das Ding 100% stabil läuft. Intel hat hier in der Vergangenheit bewiesen, dass sie so eine Plattform schaffen können, bei AMD wird man es sehen. Dass eine neue Architektur sofort im Serverbereich gelauncht wird macht die Sache nicht besser. Bei Intel gibt es die Xeon Reihe erst wenn in der Desktopserie die Kinderkrankheiten schon alle ausgebügelt wurden und hier geht es nicht nur um die CPU, sondern auch um den Chipsatz.

Mr.Smith
2019-08-11, 21:22:38
Stimmt, bewähren kommt auch noch dazu.
Seh bei der Stabilität aber keine Probleme, AMD ist auch schon lang genug im Serverbereich tätig und jetzt auch schon die dritte Zen Servergeneration

Gast
2019-08-11, 23:07:27
NVidia wird sicher auf 6nm setzen, weil man bei Samsung fertigen lassen wird, nicht AMD.

AMD könnte 6nm von TSMC verwenden. 6nm von TSMC ist eine Weiterentwicklung ihres 7nm Prozesses (den AMD aktuell verwendet), auch mit EUV.
7nm+ (auch mit EUV) ist dagegen ein komplett anderer Prozess.
7nm und 6nm benutzen die selben Libraries, wodurch ein Umstieg von 7nm auf 6nm einfacher und auch günstiger ist, als von 7nm auf 7nm+, und da AMD bereits einige 7nm Designs hat würde es durchaus sinnvoll sein, wenn AMD anstatt 7nm+ 6nm verwenden würde.
Der Nachteil ist, dass 6nm etwas später dran ist, und die Vorteile von 7nm+ gegenüber 7nm größer sind als von 6nm, trotz der geringeren Zahl. 6nm war ursprünglich auch gar nicht geplant sondern wurde extra zwischengeschoben für Kunden die einen möglichst einfachen Umstieg von 7nm auf einen EUV Prozess haben wollten, und es würde mich nicht überraschen wenn einer dieser Kunden AMD ist.

Nvidia könnte bei Samsung 7LPP oder 6LPP verwenden, wobei hier die Unterschiede auch eher gering sind, und beide die selben Libraries verwenden und man damit einfach ein Design von 7LPP auf 6LPP bringen kann. Theoretisch wäre sogar 5LPE denkbar, die ersten Tapeouts für diesen Prozess sollten ungefähr jetzt stattfinden und die Massenproduktion Q1 2020 starten. Wenn Ampere erst spät im Jahr kommt wäre also auch 5 LPE möglich, wobei ich das für sehr unwahrscheinlich halte, Nvidia hat glaube ich seit einem Jahrzehnt keinen Bleeding Edge Prozess mehr benutzt.

Gast
2019-08-11, 23:11:01
Seh bei der Stabilität aber keine Probleme, AMD ist auch schon lang genug im Serverbereich tätig und jetzt auch schon die dritte Zen Servergeneration

Naja, die Kinderkrankheiten die X570 aktuell hat mit schnell rausgegebenen AGESAs die dann wieder zurückgezogen werden müssen, will man im Serverbereich nicht gerade haben.

Und ob 1.0.0.3AB nun wirklich stabil ist kann man noch nicht so richtig sagen, dafür ist es noch nicht lange genug draußen, aber vertrauenerweckend war das letzte Monat nicht gerade.

Gast
2019-08-12, 12:56:20
Der Schnittpunktshader entspricht dabei einer Struktur von 2 Gleitkommawerten.
Das ist ein interessanter Einwurf und würde ursprüngliche Aussagen stützen. OSPRay lässt sich in Echtzeit auf Intel CPU's ausführen, wenn sie SSE 4.1 beherrschen und dann bekämen die dazugehörigen FPU's endlich mal was zu tun. Die Triangulierung würde für einfache RT Varianten reichen, zumal man sicher auf 1080p setzen wird. Da AMD ausreichend CPU Power zur Verfügung hätte, könnte man es auch so versuchen.

https://www.ospray.org/gallery.html

Gast-olletsag
2019-08-13, 16:00:31
Wenn Ampere erst spät im Jahr kommt wäre also auch 5 LPE möglich, wobei ich das für sehr unwahrscheinlich halte, Nvidia hat glaube ich seit einem Jahrzehnt keinen Bleeding Edge Prozess mehr benutzt.
Fest steht wohl das es EUV wird, trotzdem braucht nV ein angepasstes Verfahren (wie immer*). Genau daher wechselt man auch zu Samsung, nicht nur weil sie etwas weiter sind was das angeht (vs TSMC), sondern weil die Ausbeute im nVidiarelevanten Verfahren vermeintlich höher sei und sie weniger bezahlen müssen (*grundsätzlich nutzt nV seit geraumer Zeit Verfahren die weniger Masken brauchen und damit stromsparender sind; das drückt die Fertigungskosten). 5LPE würde ich komplett ausschließen, schon EUV mit lediglich 4 Layern braucht ein komplett neues Design. 5LPE steht für 2023 an, viel zu spät für Ampere.

Was AMD angeht, der Wechsel von 9 zu 7,5T bringt nicht immens viel (mehr). Eher ist es die umgestellte Arch und Ansätze beim Takt sowie Energiebedarf ("lose Domäne[n]", anstatt ein festes Modell aus Voltagestage und dazugehörigem Takt; siehe Metastabilität+stable Output+Thermalfabric [erstmals bei Vega20 in Anwendung]; bei einem Delta zwischen allgemeiner Chiptemp und Höchsttemp der vermeintlichen Hotspots). Man lastet die Einheiten so viel länger und höher aus, was mit RDNA+ Arch im Gamingbereich noch voranschreiten dürfte. Allein vom Treiberentwicklungsaufwand her, machte es in erster (Vega20) und zweiter Iteration (Navi) Sinn, noch GCN Anteile beizubehalten. Das wird nV bei Ampere und dessen Treiberentwicklungsaufwand nicht anders ergehen.

Leonidas
2019-08-16, 05:48:16
Bisher war bei Pauls Schätzungen wenig korrektes dabei. Warum? Vielleicht sind seine Quellen seine Haustiere, seine Fliegen, sein Kaffeesatz? Wer weiß das.

Heißt das Red Gaming Tech berichtet immer über Dinge die nicht eintreffen?
Nein, neben der Fiktion schreiben sie auch von anderen ab. Und die Fiktionen sind oft so glaubwürdig, dass sie eintreffen könnten, vergleichbar mit AdoredTV.

Wird dann eine der Geschichten in etwa wahr, beginnen einem die Leute plötzlich zu vertrauen. Wahrsagerei des 21. Jahrhunderts.

Schließt sich 3D-Center dem an, wird AdoredTV, Red Gaming Tech oder die Sport Bild hier dauerhaft als Quelle Einzug halten, hat die Website leider keinen Wert mehr für mich.


Gut vorgebrachter Einwand.