Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Brillus
2019-01-10, 21:43:43
@Fetza
Und würde den Preis erneut um 60 Dollar weiter nach oben treiben bei einer rtx 2080
HBM ² wird zusehend eher billiger als Teurer und auch die angepeilten 40% zur RX Vega 64 werden angestrebt und schlussendlich auch so kommen,- also Augenhöhe mit RTX 2080FE Modell
Zur 2080TI würden dann nur mehr die 20 bis 25% fehlen,- aber die lässt AMD Sausen,
da Nv dort eh schon gut Bedient ist, Jeder weiss was ich meine :-)
Du auch mal bitte mit dem Verbreiten von Unwahrheiten aufhören. AMD selbst gibt ~30% schneller an. Keine 40%.
deekey777
2019-01-10, 21:47:54
Das heißt Radeon 7.
gravitationsfeld
2019-01-10, 21:53:04
Merkste selber ne?:freak:
Mantle ist/war Software um spezielle Hardware-Eigenschaften (effizienter) nutzen zu können. Mantle muss/te speziell in Spiele integriert werden.
Nein, Mantles primaerer Zweck war die CPU-Auslastung zu senken und Multithreading zu ermoeglichen.
Ich denke auch der Unterschied ist dass Raytracing das Ergebniss veraendert, Mantle nicht.
horn 12
2019-01-10, 21:54:10
Variert noch stark, von 20 bis 35% (am öftesten)
aber Ausreisser nach oben mit 50 - 65% sind auch drinn, ebenso Absacker , sprich AC Odyssee udg.
Bis Vega VII Release sollten es gemittelt gute 40% sein.
mczak
2019-01-10, 21:56:48
12GB geht nicht, wenn müssen sie 16GB machen... und dann kostet die karte fast soviel wie ne 2080Ti ;D
Im Prinzip spezifiziert JEDEC gddr6 chips mit 8/12/16/24/32 gb, damit ginge das locker ohne krumme Bestückung.
Ich glaube aber nicht dass irgendwer zur Zeit was anderes fertigt als 8 oder 16gb...
Argo Zero
2019-01-10, 22:04:17
Benehmt euch, sonst gibts mal wieder Urlaub...
robbitop
2019-01-10, 22:43:05
Endlich spricht jemand die Wahrheit aus :up: Bei dem gezeigten kann man nur enttäuscht sein.
Warum eigentlich? 2080 Performance für 699 usd und doppelter Speicher klingt für mich jetzt nicht so enttäuschend. Als Spieler ist RT zum heutigen Zeitpunkt kaum relevant und dlss ist IMO sehr enttäuschend bisher.
Final Fantasy 15 unterstützt DLSS und damit ist eine 2080 Lichtjahre schneller als Vega 7. Damit hat er recht.
Lichtjahre?
IMO @DLSS
-funktioniert nur mit 4K
-ist nur 20% schneller als 4k
-sieht schlechter aus als 4k ohne dlss
-hat es optisch verdammt schwer ggü 1800p @4k + schärfefilter (reshade oder gamefilter). Insbesondere wenn ein anständiges TAA zum Einsatz kommt (siehe das TSAA von id)
IMO enttäuschend, dafür dass aufwändig auf Supercomputern trainiert wird und jede Menge Transistoren für die TC draufgehen.
Es ist doch gut hat man jetzt ein bisschen etwas Konkurrenz im Highend Bereich. Das kann nur gut sein für die Kunden. Es ist halt für AMD eine Überbrückung bis Navi kommt , besser als gar nichts neues bis Ende 2019. Ein bisschen schade find ich da nicht gleich den Vollausbau gebracht haben dafür nur 12mb RAM.
[MK2]Mythos
2019-01-10, 23:32:02
Es ist doch gut hat man jetzt ein bisschen etwas Konkurrenz im Highend Bereich. Das kann nur gut sein für die Kunden. Es ist halt für AMD eine Überbrückung bis Navi kommt , besser als gar nichts neues bis Ende 2019. Ein bisschen schade find ich da nicht gleich den Vollausbau gebracht haben dafür nur 12mb RAM.
Vollausbau mit 12MB Ram gabs nur von 3dfx bei der Voodoo2.
gravitationsfeld
2019-01-10, 23:34:15
Warum eigentlich? 2080 Performance für 699 usd und doppelter Speicher klingt für mich jetzt nicht so enttäuschend. Als Spieler ist RT zum heutigen Zeitpunkt kaum relevant und dlss ist IMO sehr enttäuschend bisher.
Lichtjahre?
IMO @DLSS
-funktioniert nur mit 4K
-ist nur 20% schneller als 4k
-sieht schlechter aus als 4k ohne dlss
-hat es optisch verdammt schwer ggü 1800p @4k + schärfefilter (reshade oder gamefilter). Insbesondere wenn ein anständiges TAA zum Einsatz kommt (siehe das TSAA von id)
IMO enttäuschend, dafür dass aufwändig auf Supercomputern trainiert wird und jede Menge Transistoren für die TC draufgehen.
- hat komische Artefakte
Ravenhearth
2019-01-11, 00:05:17
AMD schafft es mit 2 7nm-Chips alle Märkte aufzurollen. Da kann Jensen noch so enttäuscht sein, kosteneffizienter kann mans nicht hinbekommen.
Bei CPUs stimmts, aber wo rollen sie denn den GPU-Markt genau auf?
Warum eigentlich? 2080 Performance für 699 usd und doppelter Speicher klingt für mich jetzt nicht so enttäuschend. Als Spieler ist RT zum heutigen Zeitpunkt kaum relevant und dlss ist IMO sehr enttäuschend bisher.
Naja, verglichen mit Pascal ist die Radeon VII praktisch eine GTX 1080 Ti mit 5GB mehr Speicher, aber 2 Jahre später und mit mehr Verbrauch. Ich würde behaupten, der Mehrspeicher ist aktuell genauso relevant wie RT bei Turing, also kaum. Die Radeon VII sendet ähnlich wie die 2080 jetzt keine neuen P/L-Impulse.
MSABK
2019-01-11, 00:09:34
Bei CPUs stimmts, aber wo rollen sie denn den GPU-Markt genau auf?
Naja, verglichen mit Pascal ist die Radeon VII praktisch eine GTX 1080 Ti mit 5GB mehr Speicher, aber 2 Jahre später und mit mehr Verbrauch. Ich würde behaupten, der Mehrspeicher ist aktuell genauso relevant wie RT bei Turing, also kaum. Die Radeon VII sendet ähnlich wie die 2080 jetzt keine neuen P/L-Impulse.
Was wäre die bessere Alternative gewesen? Wir ergeben uns gegenüber Nvidia und schlucken alles was die auftischen?
AMD arbeitet innerhalb ihrer Möglichkeiten und kann trotz der teilweise kleineren Kapazitäten, relativ konkurrenzfähige Produkte liefern.
Linmoum
2019-01-11, 00:11:22
Speicher kann man nie genug von haben, zumal die Bandbreite auch noch massiv gestiegen ist. Mit irgendwelchen Texture-Packs und Extrem-Modding kriegst du sicherlich auch mehr als 11GB voll. Von 8GB mal ganz zu schweigen, da wird die 2080 scheinbar schon in The Division 2 absaufen.
Ravenhearth
2019-01-11, 00:30:53
Was wäre die bessere Alternative gewesen? Wir ergeben uns gegenüber Nvidia und schlucken alles was die auftischen?
AMD arbeitet innerhalb ihrer Möglichkeiten und kann trotz der teilweise kleineren Kapazitäten, relativ konkurrenzfähige Produkte liefern.
:confused: Natürlich nicht. Aber trotzdem sollte es erlaubt sein, AMDs Produkte zu kritisieren bzw. enttäuscht zu sein. Es wäre einfach schön, wenn sie besseres liefern würden, als nur halbwegs konkurrenzfähige Karten. Bei den CPUs hat es mit Ryzen doch auch geklappt.
btw: Ich habe mich schon lange entschieden, aufgrund Nvidias Verhalten bezüglich der GTX 970 keine Karte mehr von ihnen zu kaufen und wurde in dieser Meinung seitdem immer nur bestärkt. Ansonsten hätte ich mir schon lange eine Pascal in den Rechner gesteckt. Nur hänge ich jetzt immer noch mit der GTX 980 fest, weil mich keine AMD-Karte bisher zum Umstieg bewegen konnte. Die Vega 56 bietet mir nicht genug Mehrleistung, die Vega 64 ist mir zu stromhungrig, die Radeon VII ist mir u.a. zu teuer. Ich würde mir wirklich wünschen, dass AMD mit einer kommenden Architektur wieder stärker punkten kann.
:confused: Natürlich nicht. Aber trotzdem sollte es erlaubt sein, AMDs Produkte zu kritisieren bzw. enttäuscht zu sein. Es wäre einfach schön, wenn sie besseres liefern würden, als nur halbwegs konkurrenzfähige Karten. Bei den CPUs hat es mit Ryzen doch auch geklappt.
btw: Ich habe mich schon lange entschieden, aufgrund Nvidias Verhalten bezüglich der GTX 970 keine Karte mehr von ihnen zu kaufen und wurde in dieser Meinung seitdem immer nur bestärkt. Ansonsten hätte ich mir schon lange eine Pascal in den Rechner gesteckt. Nur hänge ich jetzt immer noch mit der GTX 980 fest, weil mich keine AMD-Karte bisher zum Umstieg bewegen konnte. Die Vega 56 bietet mir nicht genug Mehrleistung, die Vega 64 ist mir zu stromhungrig, die Radeon VII ist mir u.a. zu teuer. Ich würde mir wirklich wünschen, dass AMD mit einer kommenden Architektur wieder stärker punkten kann.
V20 ist auch wieder maximal kosteneffizient im Design. Keine neue Architektur, wahrscheinlich sehr viel automatisches Design. Damit schafft man zwar keine Taktrekorde, bleibt aber dank der besseren Fertigung durchaus im Geschäft. Jetzt kann man sich voll und ganz auf bessere Produkte konzentrieren. Ich hab trotz des Verbrauchs bei V64 zugeschlagen und es nicht bereut.
BoMbY
2019-01-11, 00:55:41
Es wäre einfach schön, wenn sie besseres liefern würden, als nur halbwegs konkurrenzfähige Karten. Bei den CPUs hat es mit Ryzen doch auch geklappt.
Wie Lisa schon bei der CES-Keynote gesagt hat: Du triffst heute eine Entscheidung (bzw. gehst eine Wette ein) für Dinge in drei Jahren (oder noch später).
Bei so etwas kann man nie immer richtig liegen, und manchmal kommt noch Glück oder Pech dazu mit dem was die anderen vor drei Jahren entschieden haben.
gravitationsfeld
2019-01-11, 01:22:45
Ryzen war in Entwicklung bevor Bulldozer auf dem Markt war. Das waren ueber 6 Jahre.
robbitop
2019-01-11, 01:49:31
Naja, verglichen mit Pascal ist die Radeon VII praktisch eine GTX 1080 Ti mit 5GB mehr Speicher, aber 2 Jahre später und mit mehr Verbrauch. Ich würde behaupten, der Mehrspeicher ist aktuell genauso relevant wie RT bei Turing, also kaum. Die Radeon VII sendet ähnlich wie die 2080 jetzt keine neuen P/L-Impulse.
Nach dieser Logik (P/L und dessen Entwicklung) ist die gesamte Turing Reihe ebenfalls enttäuschend.
Ravenhearth
2019-01-11, 02:00:42
Nach dieser Logik (P/L und dessen Entwicklung) ist die gesamte Turing Reihe ebenfalls enttäuschend.
Ja ¯\_(ツ)_/¯
Sagt ja keiner, dass die Karten schlecht wären, aber sie haben (zum aktuellen Zeitpunkt) den Markt auch nicht wirklich bewegt. Das kann man schon enttäuschend finden. (Was in anderen Threads auch zur Genüge durchgekaut wurde, wobei das natürlich nicht jeder so sieht.)
Ich bin gespannt wer als erstes erklären kann, warum die Benchmarks so unterschiedliche Performance Steigerungen aufzeigen. Meiner Meinung nach sehen wir immer mehr die Imbalance, die leider existiert.
* Culling ist ein Punkt
* Speicherzugriffe, d.h. Latenz, _Granularität_, Bandbreite, Cache?
Nach der Vorstellung wird mein Bild über Navi immer klarer.
Kleiner Navi - Es wird in der Art von einer RV670 Inkarnation auf Basis von Vega20 / bzw. der kommenden Sachen für die Konsolen sein. Die 40CUs für den Vollausbau passen ins Bild...
zzgl. 16 GDDR6 wg. Kosten
Preis -100€ bis 50€ zur 2070.
OT:
Und da Zen2 jetzt später kommt als gedacht, kann ich das Budget für die Radeon 7 verwenden und endlich meine alte R290 abschalten. :-)
why not 2080 - zu wenig Speicher, von DLSS halte ich nichts, RTX - sehr geil, aber wie viel wird man sich daran effektiv ergötzen können?! - FreeSync für mich nicht gelöst :(
Ich sehe Fury, Vega usw. als eine Sackgasse fürs Gaming an. Als es der AMD Führung klar wurde, hat AMD paar Köpfe rollen lassen und einen neuen Weg eingeschlagen.
Ex3cut3r
2019-01-11, 03:39:23
Ich sehe Fury, Vega usw. als eine Sackgasse fürs Gaming an. Als es der AMD Führung klar wurde, hat AMD paar Köpfe rollen lassen und einen neuen Weg eingeschlagen.
Das widerspricht sich doch, denn Vega VII ist auch nicht anderes als eine Vega, nur im 7nm Shrink Verfahren.
Freesync ünterstützt Nvidia jetzt auch (ab 15. Januar, neuer Treiber)
Die Radeon ist eine runde Karte (Fast Titan X Leistung von 2016 oder 1080Ti Leistung von 2017) +4 bzw. 5GB mehr VRAM @ 300W PT. Aber ob eine 2080 wirklich immer eingeholt wird, wurde ich noch arg bezweifeln, bis richtige Benchmarks verfügbar sind, und nicht nur AMD interne Folien.
dargo
2019-01-11, 07:02:56
Freesync ünterstützt Nvidia jetzt auch (ab 15. Januar, neuer Treiber)
Sorry, aber A-Sync und Nvidia ist aktuell noch eine riesen Baustelle. Es sei denn man hat einen der 12 zertifizierten Bildschirme. Und selbst da gibt es Kompromisse wie kein LFC. Für einige Nvidianer das Totschlagargument.
Ailuros
2019-01-11, 07:07:44
Das liegt neben dem Takt hauptsächlich an der Architektur. Mit einer besseren würde das Ergebnis offensichtlich besser aussehen, wie man sehr gut an deinem Vergleich von GV100 und Vega20 sieht. Denn dass ersterer trotz 12nm effizienter ist, liegt an weniger Takt und der Architektur und nicht daran, dass 12nm ein besserer Prozess als 7nm wäre, wie du suggerierst (zumindest verstehe ich deinen Post so).
Keine Ahnung was er genau meint, aber Frequenzen bei GeForces sind quasi Architektur-bedingt wenn NV unendlich seit Pascal dafuer "gepolstert" hat. 12FF ist momentan lediglich reifer als Prozess als 7nm und kostet NV selbst bei verrueckt grossen dies weniger als ultra-beschissene yields stattdessen hypothetisch unter 7nm.
Das meinte ich eigentlich auch. Eben eine hypothetische Geforce mit 2080-Leistung, deren Chip für 7nm entwickelt wurde. Da wären 150W wohl realistisch.
Rein theoretisch ja. Bleibt abszusehen ob und wieviel IHVs in absehbarer Zukunft fuer RT unter anderem investieren werden; fuer Turing war es lediglich wichtig eine anstaendige Funktionalitaet zu praesentieren. Will man aber wirklich gute Leistung mit RT fehlt schon noch einiges.
robbitop
2019-01-11, 07:26:24
Sorry, aber A-Sync und Nvidia ist aktuell noch eine riesen Baustelle. Es sei denn man hat einen der 12 zertifizierten Bildschirme. Und selbst da gibt es Kompromisse wie kein LFC. Für einige Nvidianer das Totschlagargument.
Ist das sicher? Wozu denn eine 2,4x vrr range (für das logo), wenn kein LFC unterstützt wird?
dildo4u
2019-01-11, 07:30:19
Sorry, aber A-Sync und Nvidia ist aktuell noch eine riesen Baustelle. Es sei denn man hat einen der 12 zertifizierten Bildschirme. Und selbst da gibt es Kompromisse wie kein LFC. Für einige Nvidianer das Totschlagargument.
Es wurde doch noch gar nicht gestestet einfach mal die näste Woche abwarten.
Fragman
2019-01-11, 07:41:24
Persönlich hätte ich es besser gefunden, wenn die nur 8GB nutzen würden, dafür aber 100 Dollar niedriger im Preis. Das hätte nv viel mehr Druck gemacht. So haben wir jetzt 2 Karten, die gleich teuer sind, das Preisniveau erstmal hoch halten werden, da jeder was eigenständiges hat, um den zu "rechtfertigen".
Aber mal schauen, ob AMD es diesmal auf die Reihe bekommt, vernünftige Treiber zu liefern, abseits von Spielen. Mit 16gb wäre die Karte perfekt für Substance oder Mari (rendern fällt aus, da kein Cuda, ja, immer wieder das rumgeheule von mir, aber ich "brauch" das nunmal ;))
Palpatin
2019-01-11, 08:23:40
Wenn AMD im Feb RTX 2080 Leistung liefern kann, haben sie auf jedenfall gut aufgeholt. Zwischen GTX 1080 und VEGA 64 lagen 14 Monate. Zwischen RTX 2080 und Radeon 7 sinds dann nur noch 5 Monate.
Dazu kommt das NV die Ti mittlerweile in eine Preisregionen höher geführt hat die für die meisten einfach völlig unintressant ist.
Keine Ahnung was er genau meint, aber Frequenzen bei GeForces sind quasi Architektur-bedingt wenn NV unendlich seit Pascal dafuer "gepolstert" hat. 12FF ist momentan lediglich reifer als Prozess als 7nm und kostet NV selbst bei verrueckt grossen dies weniger als ultra-beschissene yields stattdessen hypothetisch unter 7nm.
[...]
Da biste mMn aber völlig auf dem Holzweg.
Sicherlich ist 12FFN ein ausgereifter Prozess, mit dem 800mm² auch möglich sind aber die Yields, gerade bei dem 102er, sind garantiert nicht so toll (wie bei GV100 auch). Und man darf sich da nichts vormachen, die riesigen Chips sind und bleiben sehr teuer. Da ändert der reife Prozess nix dran. Ein TU106 wird kaum weniger kosten als ein GP102 - ist ja quasi die gleiche Fertigung.
NV hat 12FFN vor allem deshalb genutzt, weil 10nm Yield-technisch noch schlechter war, als die Riesenchips. Im Grunde muss man konstatieren, dass NV hier ganz großflächig aufs falsche Pferd gesetzt hat, denn das halbe Jahr mehr für 7nm wär echt dringewesen. Aber NV setzt halt auf Samsung neuerdings und die haben nur den EUV-Prozess, welcher 1 Jahr länger dauert grob gesagt.
w0mbat
2019-01-11, 09:23:42
Ja, Nvidia war mit Pascal super aufgestellt, mMn besser als jetzt. Die Karten haben sich immer noch gut verkauft.
Wenn Turing 1H19 in 7nm gekommen wäre, hätte Nvidia alles richtig gemacht.
darkcrawler
2019-01-11, 09:25:49
Natürlich macht es AMD mit Intel. Schon vergessen die Aussagen ala "Nobody got fired for buying Xenon" oder die anderen Sprüche über Xenon: https://www.notebookcheck.net/AMD-trolls-Intel-yet-again-compares-Xeon-to-dinosaurs.318260.0.html
ich freue mich schon seit 10 jahren, wenn jemand xenon schreibt :freak:
Ja, Nvidia war mit Pascal super aufgestellt, mMn besser als jetzt. Die Karten haben sich immer noch gut verkauft.
Wenn Turing 1H19 in 7nm gekommen wäre, hätte Nvidia alles richtig gemacht.
Nicht nur das, die Dinger wären dann nur 250mm² bis 450mm² groß geworden (wenn man sich einfach einen Shrink vorstellt) und hätten 20-30% mehr Takt, also grob 2GHz+, gepackt. Die Chips sind auf jeden Fall billiger als die 12FFN-Teile, denn so krass sind die Kostensteigerungen dann auch nicht, als dass man damit diese extremen Die-Größen auffangen könnte. In 10 wär das ein ganz guter Kompromiss gewesen. Das wären dann 300-600mm² geworden. Das war aber nicht drin, da 10nm dafür einfach nicht geeignet war.
Bei dem enormen Verschitt und sagen wir 60-70% Yield vom TU102 und der daraus resultierenden Tatsache, dass man nur sehr wenig Chips aus einem Wafer rausbekommt machen eine TU102-Karte sicherlich schon unter 800€ Verkaufspreis unrentabel. Der Chip ist eigentlich ungeegnet für den Endkundenmarkt. Selbst mit den enormen Preisen wird NV die Margen, die man bei Pascal abrufen konnte, nicht mal im Traum erreichen, weil einfach im Verhältnis sehr wenige davon überhaupt verkauft werden.
Dural
2019-01-11, 09:49:22
Dazu muss man aber auch sagen das Turing ziemlich sicher für H1 2018 geplant war. Zudem Zeitpunkt gab es definitiv keine andere Möglichkeit als 12nm.
Billiger sind die 7nm aber im moment sicher nicht, pro mm2 sollen sie 2,5x so viel kosten. AMD wird an Vega7 im moment rein gar nichts verdienen, da bin ich mir ziemlich sicher.
Ich fände ja eine Radeon VII mit 3.072 Bit und 12 GiByte spannend. Also das Titan-V-Prinzip: Man nimmt Chips mit teildefektem Speicher-Controller und bindet nur drei HBM-Stacks an. Falls bei der Heirat zwischen GPU, RAM und Interposer immer noch Komponenten flöten gehen und das zufällig oft ein HBM-Stack bzw. dessen TSVs sind, könnte man hier recht einfach den "Abfall" installieren, ohne am Package herumzuspielen. Von außen, also augenscheinlich, wäre das immer noch ein gut kühlbarer Vollausbau. ;)
MfG,
Raff
Dural
2019-01-11, 10:13:55
...und würde wahrscheinlich nicht mal viel Leistung kosten.
Ich denke AMD wollte einfach die 16GB drauf haben...
Der_Korken
2019-01-11, 10:21:26
Ich fände ja eine Radeon VII mit 3.072 Bit und 12 GiByte spannend. Also das Titan-V-Prinzip: Man nimmt Chips mit teildefektem Speicher-Controller und bindet nur drei HBM-Stacks an. Falls bei der Heirat zwischen GPU, RAM und Interposer immer noch Komponenten flöten gehen und das zufällig oft ein HBM-Stack bzw. dessen TSVs sind, könnte man hier recht einfach den "Abfall" installieren, ohne am Package herumzuspielen. Von außen, also augenscheinlich, wäre das immer noch ein gut kühlbarer Vollausbau. ;)
MfG,
Raff
Da AMD die Anzahl der ROPs verdoppelt hat, hätte man sich das auch bei der normalen Radeon VII locker leisten können, wenn dann 1/4 der ROPs wegfallen. Ich bezweifle, dass der Sprung von 768GB/s auf 1TB/s wirklich was bringt, denn das Verhältnis von Performance zu Bandbreite wäre selbst mit 768GB/s deutlich besser als bei V64 und letztere hatte schon keinen Bandbreitenmangel. Auch 12GB wären für die Leistung noch mehr als genug. Diese ganzen Extrembeispiele, wo man irgendwelche schlecht optimierten Spiele nimmt und noch schlechter optimierte Mods draufwirft, um sich eine Situation zu konstruieren, wo die 16GB-Karte dann 10% weniger stark einbricht als eine 11- oder 12GB-Karte, sind doch alle Quatsch. Dann wird eben der Regler nicht ganz nach rechts geschoben und fertig. Mit schlechter Software bekommt man jede Hardware klein.
SKYNET
2019-01-11, 10:27:49
Da AMD die Anzahl der ROPs verdoppelt hat, hätte man sich das auch bei der normalen Radeon VII locker leisten können, wenn dann 1/4 der ROPs wegfallen. Ich bezweifle, dass der Sprung von 768GB/s auf 1TB/s wirklich was bringt, denn das Verhältnis von Performance zu Bandbreite wäre selbst mit 768GB/s deutlich besser als bei V64 und letztere hatte schon keinen Bandbreitenmangel. Auch 12GB wären für die Leistung noch mehr als genug. Diese ganzen Extrembeispiele, wo man irgendwelche schlecht optimierten Spiele nimmt und noch schlechter optimierte Mods draufwirft, um sich eine Situation zu konstruieren, wo die 16GB-Karte dann 10% weniger stark einbricht als eine 11- oder 12GB-Karte, sind doch alle Quatsch. Dann wird eben der Regler nicht ganz nach rechts geschoben und fertig. Mit schlechter Software bekommt man jede Hardware klein.
ehm, sofern ich das korrekt in erinnerung habe, brachte/bringt HBM OC bei V64 %ual mehr als GPU... das ist das gleiche leidige thema wie bei der 1080Ti, da bringt der speicher %ual auch mehr als GPU.
w0mbat
2019-01-11, 10:28:22
Sind wir eigentlich sicher, dass Vega20 128 ROPs hat?
Dural
2019-01-11, 10:28:35
Ja
Da AMD die Anzahl der ROPs verdoppelt hat, hätte man sich das auch bei der normalen Radeon VII locker leisten können, wenn dann 1/4 der ROPs wegfallen. Ich bezweifle, dass der Sprung von 768GB/s auf 1TB/s wirklich was bringt, denn das Verhältnis von Performance zu Bandbreite wäre selbst mit 768GB/s deutlich besser als bei V64 und letztere hatte schon keinen Bandbreitenmangel. Auch 12GB wären für die Leistung noch mehr als genug. Diese ganzen Extrembeispiele, wo man irgendwelche schlecht optimierten Spiele nimmt und noch schlechter optimierte Mods draufwirft, um sich eine Situation zu konstruieren, wo die 16GB-Karte dann 10% weniger stark einbricht als eine 11- oder 12GB-Karte, sind doch alle Quatsch. Dann wird eben der Regler nicht ganz nach rechts geschoben und fertig. Mit schlechter Software bekommt man jede Hardware klein.
So ist es.
Ist halt auch Marketing, das Gejammer bei Turing überall mit zu wenig Speicher nutz AMD natürlich gekonnt aus.
Godmode
2019-01-11, 10:29:47
Ich fände ja eine Radeon VII mit 3.072 Bit und 12 GiByte spannend. Also das Titan-V-Prinzip: Man nimmt Chips mit teildefektem Speicher-Controller und bindet nur drei HBM-Stacks an. Falls bei der Heirat zwischen GPU, RAM und Interposer immer noch Komponenten flöten gehen und das zufällig oft ein HBM-Stack bzw. dessen TSVs sind, könnte man hier recht einfach den "Abfall" installieren, ohne am Package herumzuspielen. Von außen, also augenscheinlich, wäre das immer noch ein gut kühlbarer Vollausbau. ;)
MfG,
Raff
Bzw. eine weitere Version für Sparfüchse mit 8 GB, aber trotzdem 4 Stacks.
Dural
2019-01-11, 10:30:59
Bzw. eine Version für Sparfüchse mit 8 GB, aber trotzdem 4 Stacks.
Hmm ich glaube nicht das 2GB Stacks lieferbar sind?
Zudem wäre das in der Herstellung einen recht grossen Aufwand.
Locuza
2019-01-11, 10:33:44
Sind wir eigentlich sicher, dass Vega20 128 ROPs hat?
AMDs Diagramme zeigen 4 Rasterizer (16 Pixel pro DSBR) und 16 RBs (Render Backends, bisher immer 4 ROPs pro RB) für Vega 20 an.
Laut Anandtech hat ihnen AMD letztes Jahr gesagt, dass alles verdoppelt wurde und sie möchten das diese Woche noch einmal abchecken:
https://twitter.com/RyanSmithAT/status/1083422947786686464
128 ROPs würden aber wenig nützen, wenn die 4 Rasterizer nicht einen doppelten Durchsatz gegenüber früher bringen würden, sprich 128 Pixel-Durchsatz und nicht wie bisher 64.
Und AMD erwähnte auf keiner Präsentation, noch auf den Folien eine doppelte Pixelfüllrate, wo es aus meiner Perspektive ausgeschlossen ist, dass AMDs Marketing das völlig unter den Tisch fallen gelassen hätte.
Entsprechend sehe ich die 128 ROPs als Falschinfo an.
Dural
2019-01-11, 10:36:52
Die ROPs hängen bei AMD doch am Si, du gehst tatsächlich davon aus das die da Hand angelegt haben?
Locuza
2019-01-11, 10:54:24
Fiji hatte ein 4096-Bit HBM1 Interface und 64 ROPs, Vega10 hat 2048-Bit HBM2 und weiterhin 64 ROPs.
Laut AMD können sie flexibel 1-4 RBs (4-16 ROPs) pro Shader-Engine verbauen und die Diagramme, mehrere davon, zeigen alle 16 RBs für Vega 20.
Also ja, ich gehe insgesamt davon aus das AMD nicht unnötig das Render-Backend verdoppelt hat.
Edit: Blockdiagramm von AMD zu Vega20:
https://pbs.twimg.com/media/DwhPvCgXcAABaa5.jpg
Der_Korken
2019-01-11, 11:21:05
ehm, sofern ich das korrekt in erinnerung habe, brachte/bringt HBM OC bei V64 %ual mehr als GPU... das ist das gleiche leidige thema wie bei der 1080Ti, da bringt der speicher
l auch mehr als GPU.
Wie schon früher im Thread erwähnt, verringert VRAM-OC auch die Latenzen. Der Leistungsgewinn könnte also auch einfach daher kommen, genauso wie Prozessoren idR nicht vom erhöhtem Durchsatz beim RAM-OC profitieren, sondern von geringeren Latenzen. Wäre der Durchsatz bei V64 der Flaschenhals, müsste VII mit doppeltem Durchsatz total abgehen, aber danach sieht es nicht aus. 29% ist kaum mehr als der spekulierte Mehrtakt ("25% bei gleichem Verbrauch").
Edit: Wenn das mit den 128 ROPs falsch ist, dann ist der Gedanke mit drei Stacks eh hinfällig.
Locuza
2019-01-11, 11:37:03
Warum? Im worst case würden 48 ROPs übrig bleiben, könnte man dennoch machen.
Der_Korken
2019-01-11, 13:51:37
Warum? Im worst case würden 48 ROPs übrig bleiben, könnte man dennoch machen.
Würde das nicht eventuell stark limitieren in manchen Fällen? Die 64 ROPs gibt es schon seit Hawaii und Nvidia hat sowieso nochmal deutlich mehr von den Dingern.
Leonidas
2019-01-11, 13:51:42
12GB geht nicht, wenn müssen sie 16GB machen... und dann kostet die karte fast soviel wie ne 2080Ti ;D
Doch, wäre denkbar. 3072 Bit Interface und 12 GB in 3 HBM-Stacks. Ist kaum langsamer. Kostet aber vermutlich ähnlich viel. Und vor allem geht der große Vorsprung (bei der Speichermenge) verloren.
Die 16 GB sind ein gutes Beispiel, das man dann, wenn man beeindrucken will, nicht einfach nur ein paar Prozent oben drauf legen kann. Wenn, dann muß geklotzt werden.
Mythos;11897385']Vollausbau mit 12MB Ram gabs nur von 3dfx bei der Voodoo2.
Treffer & versenkt.
PS: Goldene Zeiten @ Voodoo2.
Locuza
2019-01-11, 14:30:45
Würde das nicht eventuell stark limitieren in manchen Fällen? Die 64 ROPs gibt es schon seit Hawaii und Nvidia hat sowieso nochmal deutlich mehr von den Dingern.
Was konkrete Zahlen angeht, keine Ahnung, aber 48 ROPs bei 1,8Ghz haben dennoch eine Füllrate von theoretisch 86 Gigapixel, MSAA wird vielen modernen Spielen nicht genutzt und die Anzahl an Compute Shader ist auch deutlich höher, im Vergleich zu älteren Spielen, wo ROPs gar nicht zum Einsatz kommen.
Ich stelle mir keinen großen Leistungsverlust vor.
][immy
2019-01-11, 15:09:16
Das die ROP-Anzahl mal endlich hochgeschraubt haben war aber auch dringend nötig. Zwar mag das nur selten der limitierende Faktor sein, aber alles andere wurde bei GCN ja schon vervielfacht und es wurde immer ineffizienter. Hoffe mal das einige Komponenten durch die höhere Anzahl an ROPs weniger gebremst werden. Zumal die Karte ja über eine sagenhafte Speicherbandbreite verfügt mit der man die ROPs auch mal gut beschäftigen kann.
Doch, wäre denkbar. 3072 Bit Interface und 12 GB in 3 HBM-Stacks. Ist kaum langsamer. Kostet aber vermutlich ähnlich viel. Und vor allem geht der große Vorsprung (bei der Speichermenge) verloren.
Die 16 GB sind ein gutes Beispiel, das man dann, wenn man beeindrucken will, nicht einfach nur ein paar Prozent oben drauf legen kann. Wenn, dann muß geklotzt werden.
16 GB könnten sie auch gewählt haben, weil sie so theoretisch auch an der 2080 TI in Grenzfällen vorbei kommen könnten. Da wo es Bandbreiten-Limitationen oder Speicherlimitationen gibt können dann 11GB in 4k auch mal schnell ausgehen. Zumindest in nicht all zu ferner Zukunft. Aber was sage ich da, ich komme mit meiner RX570 4GB noch herrlich in 1080p aus ^^ … aber ich spiele auch nichts mehr all zu aktuelles (außer auf Konsolen). Muss nur für das nächste Anno reichen.
Treffer & versenkt.
PS: Goldene Zeiten @ Voodoo2.
Das waren noch Zeiten :) 800*600 oder 1024*768 ohne Z-buffer … herrlich
SKYNET
2019-01-11, 15:29:23
Doch, wäre denkbar. 3072 Bit Interface und 12 GB in 3 HBM-Stacks. Ist kaum langsamer. Kostet aber vermutlich ähnlich viel. Und vor allem geht der große Vorsprung (bei der Speichermenge) verloren.
dafür müssten sie das interface anpassen(?)
bei 8GB aber nicht... einfach nur 4x2GB stacks und gut.
und in ein paar US foren werden gerüchte laut, das noch im Q1 eine VII 64 kommen soll :eek:
][immy
2019-01-11, 17:27:13
dafür müssten sie das interface anpassen(?)
bei 8GB aber nicht... einfach nur 4x2GB stacks und gut.
und in ein paar US foren werden gerüchte laut, das noch im Q1 eine VII 64 kommen soll :eek:
warum anpassen?
macht man doch schon seit jeher bei den GPUs. Einfach teildeaktiviert und gut ist. Ist bei der RTX2060 ja nicht anderes. Da werden einfach 2 Chips nicht drauf gelötet und der Teil des interfaces abgestellt per software (und lasercut).
Dafür hat man dann das gleiche Design und kann auch Resteverwertung betreiben.
Locuza
2019-01-12, 09:36:49
Anandtech hat die Angabe korrigiert, es sind 64 ROPs für Vega20.
Angeblich wird für die Vega VII PCIe4.0 künstlich beschnitten und nur PCIe3.0 unterstützt, ebenso fehlt Infinity Fabric Funktionalität.
Half-Rate FP64 soll dagegen nicht beschnitten sein.
I just heard back from AMD. It is officially 64 ROPs for the Radeon VII, not 128 as I was earlier led to believe. I've corrected our article accordingly.
FP64 is not among the couple of features they dialed back for the consumer card. The only things AMD has turned down for Radeon VII are Instinct drivers (obviously), PCIe 4.0 support, and the external Infinity Fabric link. All other Vega 20 features are intact
https://twitter.com/RyanSmithAT/status/1083876562238201857
Aus meiner Perspektive klingt das verdammt komisch PCIe4.0 künstlich zu deaktivieren, aber Half-Rate FP64 als eines der Hauptfeatures für Konsumenten aktiv zu lassen.
Das wird dann auch sicherlich dazu führen das mehrere Leute im wissenschaftlichen Bereich sich lieber eine VII günstig schießen, anstatt sich die Instinct GPUs zu holen.
nordic_pegasus
2019-01-12, 09:41:11
Aus meiner Perspektive klingt das verdammt komisch PCIe4.0 künstlich zu deaktivieren, aber Half-Rate FP64 als eines der Hauptfeatures für Konsumenten aktiv zu lassen.
Gerade im Gaming-Segment wäre PCIe 4.0 in Kombination mit Zen 2 ein großer Haken auf der Marketing-Checkliste.
Leonidas
2019-01-12, 09:44:06
Jo, verstehe ich auch nicht. AMD könnte die ersten vollständigen PCIe 4.0 Systeme diesen Sommer aufbieten - und alles basierend auf AMD-Hardware.
Gipsel
2019-01-12, 09:59:43
Das mit der ROP-Anzahl hatten Sie ja auch erst falsch. Ich würde mich da noch nicht festlegen wollen. Ist ja eine Konfigurationsgeschichte, die Hardware kann es ja wohl. Vielleicht meinte AMD auch nur, daß es im Moment erst mit PCIe3 läuft (weil es schlicht noch praktisch keine PCIe4-Plattformen gibt).
SKYNET
2019-01-12, 10:30:17
Jo, verstehe ich auch nicht. AMD könnte die ersten vollständigen PCIe 4.0 Systeme diesen Sommer aufbieten - und alles basierend auf AMD-Hardware.
zumal, wie wollen sie das machen? mehr als über das bios geht ja eigentlich nicht, das ding ist 1:1 ne MI50 GPU auf nem MI60 PCB... beides ist komplett auf PCIe 4.0 ausgelegt.
AffenJack
2019-01-12, 10:37:48
Jo, verstehe ich auch nicht. AMD könnte die ersten vollständigen PCIe 4.0 Systeme diesen Sommer aufbieten - und alles basierend auf AMD-Hardware.
Ein guter Weg den Einsatz zu begrenzen, ohne DP und DL kastrieren zu müssen. So kriegen Wissenschaftler in Desktops die volle Leistung einer Karte, aber die Skalierung wird eingegrenzt. Firmen, Datenzentren basteln sich keine Vega2 rein, da Mi50/60 besser skaliert beim Betrieb von mehreren Karten.
Screemer
2019-01-12, 10:40:30
Warum soll das übers BIOS nicht gehen?
SKYNET
2019-01-12, 11:16:18
Warum soll das übers BIOS nicht gehen?
:confused:
AlterSack
2019-01-12, 11:40:12
Gerade im Gaming-Segment wäre PCIe 4.0 in Kombination mit Zen 2 ein großer Haken auf der Marketing-Checkliste.
was soll pci-express 4.0 für eine karte mit 16Gb und dieser mehr als
ausreichenden speicherbandbreite auch bringen? ...mehr verbrauch wahrscheinlich.
somit logisch es nicht freizuschalten. wäre interessant,
in wie weit es den verbrauch senkt, wenn der speichertakt auf 700-800 mhz
gesenkt wird und ob sich da an der spieleleistung grossartig was ändert.
...an der letzteren wahrscheinlich nicht viel.
SKYNET
2019-01-12, 11:49:22
was soll pci-express 4.0 für eine karte mit 16Gb und dieser mehr als
ausreichenden speicherbandbreite auch bringen? ...mehr verbrauch wahrscheinlich.
somit logisch es nicht freizuschalten. wäre interessant,
in wie weit es den verbrauch senkt, wenn der speichertakt auf 700-800 mhz
gesenkt wird und ob sich da an der spieleleistung grossartig was ändert.
...an der letzteren wahrscheinlich nicht viel.
warum sollte PCIe 4.0 mehr strom verbrauchen als 3.0? das musst mir jetzt mal erklären :freak:
AlterSack
2019-01-12, 11:57:28
warum sollte PCIe 4.0 mehr strom verbrauchen als 3.0? das musst mir jetzt mal erklären :freak:
die verdoppelte bandbreite pro lane, wird wohl
aus doppeltem takt resultieren, oder nicht?
pixeljetstream
2019-01-12, 12:09:37
was soll pci-express 4.0 für eine karte mit 16Gb und dieser mehr als
ausreichenden speicherbandbreite auch bringen?
PCI Express ist CPU <> GPU Bandbreite, und hat nix mit der hohen Bandbreite innerhalb der GPU zu tun. Oder hab deinen Satz falsch verstanden.
Es zu beschneiden würde viel Sinn machen um den MI Karten mehr wert zu geben. Bei professioneller Nutzung geht es meist darum viel Daten auf die Karte und dann Ergebnisse zurück zu bekommen.
edit: im Wachstumsbereich machine learning ist FP64 meist nicht so relevant, Daten rauf und runterzuladen aber sehr. Die TITAN-V kommt auch mit fp64 daher, das künstlich zu beschneiden ist imo nimmer so zeitgemäß.
Anandtech hat die Angabe korrigiert, es sind 64 ROPs für Vega20.
Angeblich wird für die Vega VII PCIe4.0 künstlich beschnitten und nur PCIe3.0 unterstützt, ebenso fehlt Infinity Fabric Funktionalität.
Half-Rate FP64 soll dagegen nicht beschnitten sein.
https://twitter.com/RyanSmithAT/status/1083876562238201857
Aus meiner Perspektive klingt das verdammt komisch PCIe4.0 künstlich zu deaktivieren, aber Half-Rate FP64 als eines der Hauptfeatures für Konsumenten aktiv zu lassen.
Das wird dann auch sicherlich dazu führen das mehrere Leute im wissenschaftlichen Bereich sich lieber eine VII günstig schießen, anstatt sich die Instinct GPUs zu holen.
Das ist sicherlich nicht korrekt. Das Ding wird PCIe4 mitbringen und DP auf 1:8 beschneiden.
w0mbat
2019-01-12, 12:28:14
Sind wir eigentlich sicher, dass Vega20 128 ROPs hat?
Nur so als Hinweis wie geil ich doch bin :wink:
Das ist sicherlich nicht korrekt. Das Ding wird PCIe4 mitbringen und DP auf 1:8 beschneiden.
Und was stimmt nun? ;) Offizielle Infos abwarten.
MfG,
Raff
BoMbY
2019-01-12, 12:59:40
Das ist sicherlich nicht korrekt. Das Ding wird PCIe4 mitbringen und DP auf 1:8 beschneiden.
Ja, das wäre jedenfalls die wahrscheinlichste Variante. Alles andere wäre irgendwie Gaga.
dargo
2019-01-12, 13:09:48
Nur so als Hinweis wie geil ich doch bin :wink:
Hat 64 ROPs.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11898386&postcount=404
w0mbat
2019-01-12, 13:15:12
Hat 64 ROPs.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11898386&postcount=404
Darauf wollte ich hinaus :smile:
basix
2019-01-12, 13:23:44
Auf PCIe 3.0 begrenzen ist doch nicht schlimm. Oder erwartet jemand, dass man damit mehr Leistung in Spielen erhält? Ich denke nicht. Schön wäre PCIe 4.0, aber praktisch niemand wird die Karte deswegen auswählen und somit nicht eine Nvidia Karte nehmen. Ausserdem wird es vermutlich wie schon angedeutet die Radeon VII etwas von den MI Karten distanzieren.
BoMbY
2019-01-12, 13:27:50
Es wäre einfach nur ein Marketing-Fail im Hinblick darauf dass sie im Sommer die erste PCIe 4.0 Plattform bringen. Ob es was an der Performance ändert ist doch Wurst.
SKYNET
2019-01-12, 13:35:39
Auf PCIe 3.0 begrenzen ist doch nicht schlimm. Oder erwartet jemand, dass man damit mehr Leistung in Spielen erhält? Ich denke nicht. Schön wäre PCIe 4.0, aber praktisch niemand wird die Karte deswegen auswählen und somit nicht eine Nvidia Karte nehmen. Ausserdem wird es vermutlich wie schon angedeutet die Radeon VII etwas von den MI Karten distanzieren.
für CF wäre es wohl deutlich besser...
dargo
2019-01-12, 13:40:05
CF/SLI sind doch eh so gut wie tot.
SKYNET
2019-01-12, 13:43:23
CF/SLI sind doch eh so gut wie tot.
ich weiss, gibt aber immernoch leute dies haben und haben wollen, warum auch immer... :confused:
pixeljetstream
2019-01-12, 13:54:15
edit: löschen
nordic_pegasus
2019-01-12, 14:55:01
was soll pci-express 4.0 für eine karte mit 16Gb und dieser mehr als
ausreichenden speicherbandbreite auch bringen?
es geht nicht um technische Notwendigkeit oder Sinnhaftigkeit. Beim Durchschnitts-Käufer punktet man gewissen Buzz-Words auf der Verpackung. Nvidia kann mit Raytracing / DLSS punkten (auch wenn momentan kaum nutzbar), hingegen könnte AMD mit PCIe 4.0 punkten.
Sind denn 16GB HBM2 Speicher wirklich sinnvoll auf Radeon VII? Wenn AMD die Bandbreite braucht, hätten es auch 4x 2GB HBM2 gereicht. Oder Teildefekte Karten mit aktiven 3x4GB HBM2 (analog Titan V).
Ich erinnere mich noch an Zeiten, da wurden Mainboards groß mit USB3/SATA3/PCIe3 beworben, obwohl nichts davon zu dem Zeitpunkt Vorteile brachte.
dargo
2019-01-12, 15:01:54
Afaik gibt es bei HBM2 keinen 2GB Stack.
BlacKi
2019-01-12, 15:03:03
aber es gibt auch kein hbm2^^
dargo
2019-01-12, 15:20:44
Keine Ahnung wovon du sprichst.
https://www.3dcenter.org/news/jedec-bohrt-die-hbm2-spezifikation-auf-bis-zu-1200-mhz-takt-bis-zu-24-gb-speicher-pro-stack
@nordic_pegasus
Eine Vega VII könnte es noch mit 32GB HBM2 geben. Das wäre dann aber wirklich komplett sinnfrei in ihrer Lebenszeit. :freak: Jedenfalls beim Gaming.
Edit:
Ok... JEDEC spricht weiter von HBM.
https://www.jedec.org/news/pressreleases/jedec-updates-groundbreaking-high-bandwidth-memory-hbm-standard-0
Finde ich aber verwirrend um ehrlich zu sein.
BlacKi
2019-01-12, 15:43:49
Keine Ahnung wovon du sprichst.
https://www.3dcenter.org/news/jedec-bohrt-die-hbm2-spezifikation-auf-bis-zu-1200-mhz-takt-bis-zu-24-gb-speicher-pro-stack
doch hast du, oder du ließt nicht was du verlinkst.
HBM2 ist keine offizielle Bezeichnung, das ist alles HBM :D.
Und es gibt eine Spezifikation für 2GB-Stapel, aber das wird sicherlich genauso wenig produziert wie 12Gb GDDR6, wozu es auch ne Spezifikation gibt.
amdfanuwe
2019-01-12, 16:57:43
LOL, wenn die Karte mit PCIe 4.0 beworben würde kann ich mir schon die Anfragen bei AMD vorstellen:
Läuft die auch mit PCIe3.0, mein Board kann nicht mehr.
Wo bekomme ich PCIe 4.0 Boards.
Oder die Karte geht retour mit der Begründung dass die versprochene PCIe 4.0 Funktionalität "defekt" ist.
Ist schon besser so die Karte erstmal mit PCIe 3.0 zu spezifizieren und erst wenn ein ausreichendes Ökosystem vorhanden ist diese mit PCIe 4.0 auf die Masse los zu lassen.
BoMbY
2019-01-12, 17:07:00
Ja, okay, gegen Idioten würde das zumindest als Wert den man auf die Verpackung schreibt helfen ... man könnte natürlich auch einfach "PCIe 3.0 and 4.0 compatible" drauf schreiben ...
von Richthofen
2019-01-12, 17:12:03
Bei den DisplayPort-Anschlüssen hat man das afair bei den 2016 erschienenen Pascal- und Polaris-Generationen ähnlich gemacht und anfangs als 1.2 deklariert. Später als es entsprechende Monitore gab wurden die Angaben auf 1.4 hochgezogen.
Brillus
2019-01-12, 18:05:07
Bei den DisplayPort-Anschlüssen hat man das afair bei den 2016 erschienenen Pascal- und Polaris-Generationen ähnlich gemacht und anfangs als 1.2 deklariert. Später als es entsprechende Monitore gab wurden die Angaben auf 1.4 hochgezogen.
War es nicht so das wo die raus kamen die Spec noch nicht final war?
GerryB
2019-01-13, 13:09:59
Gegen mGPU spricht nur der NV-Versuch die Großen Singlegrakas zu vermarkten. Da wird künstlich in den Games ein Stolperstein reingepackt.
Oft reicht TAA off schon aus, damit es funzt.(stattdessen SMAA per Reshade 2.03 bis DX11) Wer Interesse hat muss halt in die Threads bei Daredevil oder Ralle(pcgh) schauen.
Bei NV hilft auch der Inspektor mit Profilen.
Die R7Cf macht so richtig Sinn in 8k-Downsampling.
Dazu ist dann ein Unterbau mit XGMi und PCiE4.0 Pflicht.(Ryzen 3000)
Ob NV mit dem NV-Link jetzt mehr bei Games zulässt werden wir sehen.(da wäre der Unterbau einfacher)
Die Benchmarks mit NV-Link sehen auf jeden Fall net schlecht aus.
btw.
Bei Vulkan machts StrangeBrigade vor. Mal schauen ob die Anderen nachziehen.
Da bekam man im Steam-Forum oft ne Antwort vom Dev: für 4k60fps reicht ne Ti,
Was die These vom Anfang bestätigt.
BlacKi
2019-01-13, 16:41:30
wie buildzoid direkt am anfang darauf hinweist, den benchmarks nicht komplett zu vertrauen XD
https://youtu.be/bXTSv50UBq4?t=27
komplett:
bXTSv50UBq4
dildo4u
2019-01-13, 16:47:12
Die Benches sind ok sie haben auch totale Fails dabei z.b nur 7.5%+ Bei Hitman 2.
Niemand hat sie gezwungen das mit rein zu nehmen,laut CB landet sie mit den Werten von AMD unter der 2080.
BlacKi
2019-01-13, 17:01:49
ich bin auch etwas überrascht wie kritisch er als AMD Fanboi die karte im gaming sieht.
GerryB
2019-01-13, 17:28:06
Die R7 wird Ihre Stärken bei den Frametimes und net bei den max.+avg.Fps haben.
aufkrawall
2019-01-13, 18:20:14
Frametimes und fps sind nur zwei unterschiedliche Darstellungsmöglichkeiten der gleichen Datenlage. Du wirst wohl einfach 1% low fps meinen.
GerryB
2019-01-13, 19:53:54
Jo, in die Richtung, avg. ist einfach net aussagekräftig. Man muss die Spikes sehen, um zu sagen obs passt, net nur ne Zahl.
Die Stärke der R7 ist die Bandbreite+Latenz.
Das Streaming sollte mit dem Mehr an Speicher auch wesentlich smoother sein. Inwiefern die 2080 vom Speicherschutz profitiert,
kann ja Raff genauer anschauen.(LOD-Schummeleien will ich net hoffen)
Bei Game XYZ hatten immer mal User die Info " Texturen werden später geladen". Weiß ja net, ob sich Sowas checken lässt,
oder ob der Treiber sowas klammheimlich macht.
Im Sinne eines fairen Wettbewerbes müsste die Graka eigentlich warten und net weiter Balkenlänge pushen.
Da wäre TAA off sinnvoll, damit man die Texturen mal ordentlich unter die Lupe nehmen kann.
Mit Ihren komischen 6Gb/8Gb-Grakas hat NV die Büchse der Pandora geöffnet und muss sich jetzt auch einer genaueren Betrachtung stellen!
(sind die Balkenlängen mit voller Qualität erzielt)
Leonidas
2019-01-14, 08:56:16
Hoffen wir, das diese Punkte die Hardwaretester am 7. Feb. dann auch gut genug herausarbeiten können.
GerryB
2019-01-14, 09:13:07
Jo,
Denke mal. das Raff durch seine Erfahrungen mit der FE und das 2060-Review genau weiss worauf es ankommt.
War dort schon gut dargestellt.
Ob man unbedingt auf 5k schauen muss weiss ich net, ist ja klar das die 2080 da schwächelt.
Wurde ebenfalls schön von Raff&Co. dargestellt. Das wäre kein typisches Einsatzgebiet für die 2080.
Von daher könnte man 5k als Downsampling-Goodie für die R7 in WQHD nur als Zusatz bringen.
Findet bestimmt ne Menge Anwender, gerade weil die HDR-Monis noch net 4k@144Hz schaffen.(mit RGB 4:4:4@10bit)
Interessant werden dann auch die kommenden Games wie D2 und RE2.
RE2 zeigt jetzt schon mehr als 8GB-Vrambedarf an. (sollte mit den RX56+64 mit HBCC getestet werden)
Leonidas
2019-01-14, 10:08:59
Vielleicht schafft es sogar jemand, den Effekt von Texturenstreaming, der bei zu wenig Speicher zu geringerer Texturenqualität führt, darzustellen. Wobei dies eigentlich Aufgabe des AMD-Marketings wäre.
dargo
2019-01-14, 10:14:43
Jo,
Von daher könnte man 5k als Downsampling-Goodie für die R7 in WQHD nur als Zusatz bringen.
Was willst du mit 5k? Dia-Shows zeigen? :| Bei einem Forza Motorsport 7 könnte das u.U. noch funktionieren. Bei einem Doom, Wolf 2 eventuell auch. Aber dann wird die Auswahl langsam dünn.
Interessant werden dann auch die kommenden Games wie D2 und RE2.
RE2 zeigt jetzt schon mehr als 8GB-Vrambedarf an. (sollte mit den RX56+64 mit HBCC getestet werden)
Brauchst du nicht, auch ohne HBCC hat zumindest die Demo keine Nachteile gezeigt. Hier wäre es auch natürlich möglich, dass die Applikation automatisch Details reduziert. Keine Ahnung ob es so ist.
dildo4u
2019-01-14, 10:16:30
Die Demo ist 7GB,das müssen sie schon Mist bauen wenn sie damit Vram Probleme erzeugen.
GerryB
2019-01-14, 10:43:45
@dargo
Bin halt Optimist. Wird schon bei einigen Games funzen, da man im Gegenzug auf TAA verzichtet.Auch FH4 sollte funzen.
Stelle dann lieber mal Licht+Schatten etwas runter (+GW XYZ). Da muss Jeder selbst entscheiden, Was ihm die beste Optik/Performance bringt.
HBCC sollte man dann halt on vs. off testen. War ja bei CB mal ne Zeitlang in den Gamereviews dabei.
@Dildo
Downloadgröße hat nichts mit Vrambedarf zu tun. Das Bild war doch eindeutig.Selbst die Ti muss auslagern.
BoMbY
2019-01-14, 10:54:39
Und nun: AMD’s Radeon VII GPU Will Not Support Uncapped Double-Precision (FP64) (https://techgage.com/news/radeon-vii-caps-fp64-performance/) ?
Sven77
2019-01-14, 11:01:14
Lol.. wir halten also fest: es bleiben die nur die 16GB gegenüber einer 2080 und hoffentlich der Preis.
dargo
2019-01-14, 11:07:09
Bin halt Optimist. Wird schon bei einigen Games funzen, da man im Gegenzug auf TAA verzichtet.
TAA ist billig.
GerryB
2019-01-14, 11:12:30
Und nun: AMD’s Radeon VII GPU Will Not Support Uncapped Double-Precision (FP64) (https://techgage.com/news/radeon-vii-caps-fp64-performance/) ?
Jedoch:
On the FP16 half-precision front, the 2080 Ti peaks at 27 TFLOPS, while the MI50’s 26.8 TFLOPS FP16 performance suggests Radeon VII will be closer to 28 TFLOPS.
Ob da Games Gebrauch von machen können. FP16 zum Nulltarif.
@dargo
Wenn schon, dann mehrere Gamesettings optimieren.Hatte ich bereits gesagt.
Bei GameworksSpecials meist DOF und AO auf AMD-freundliche Einstellungen reduzieren.
Volumetrische Geschichten und Partikel dann im Einzelfall anschauen.
Das würde ich schon immer prinzipiell machen, um net sinnlos W rauszuhauen.
Und die R7 ist relativ von den ROP´s auch besser aufgestellt als die LC.(auch wenns weiterhin nur 64 ROP´s sind)
Lassen wir uns einfach überraschen.
https://www.tomshw.de/2019/01/14/vorerst-keine-boardpartner-karten-der-radeon-vega-vii-von-amd-in-sicht-amd-verkauft-die-referenzkarte-exklusiv/
Mist, wohl keine Customs...
Wurde bereits im anderen Thread gepostet. Ich wollte ne leise Karte!
dargo
2019-01-14, 12:20:24
@dargo
Wenn schon, dann mehrere Gamesettings optimieren.Hatte ich bereits gesagt.
Bei GameworksSpecials meist DOF und AO auf AMD-freundliche Einstellungen reduzieren.
Volumetrische Geschichten und Partikel dann im Einzelfall anschauen.
Das würde ich schon immer prinzipiell machen, um net sinnlos W rauszuhauen.
Ähm... hast du dich mal mit dem Powermanagement von Vega genauer befasst? Das Ding wird ihr volles PT ausschöpfen, auch wenn du Details reduzierst. ;) Bei UV ist es dann natürlich anders je nach Settings, und selbstverständlich Vsync (je nach Frequenz) und/oder Framelimit.
Ex3cut3r
2019-01-14, 12:45:38
https://www.tomshw.de/2019/01/14/vorerst-keine-boardpartner-karten-der-radeon-vega-vii-von-amd-in-sicht-amd-verkauft-die-referenzkarte-exklusiv/
Mist, wohl keine Customs...
Wurde bereits im anderen Thread gepostet. Ich wollte ne leise Karte!
Toll, dann wird es wohl auf so eine Verfügbarkeit, wie mit der Vega 64 LCE auslaufen. Damit schadet sich AMD bein entsprechenden Preis (600€) nur selbst. Naja, müssen Sie wissen.
Screemer
2019-01-14, 12:49:09
Dass das ne Karte wie die lce wird, war doch hier wohl jedem klar, oder?! Mit was für Stückzahlen haben hier denn einige gerechnet?
Grendizer
2019-01-14, 12:52:06
Dass das ne Karte wie die lce wird, war doch hier wohl jedem klar, oder?! Mit was für Stückzahlen haben hier denn einige gerechnet?
Das Ding ist doch auf 20.000 Stück begrenzt, dachte ich..
BoMbY
2019-01-14, 13:03:45
Ich wollte ne leise Karte!
Naja, zumindest in der Umgebung scheinbar nicht zu laut: https://youtu.be/5e9sFaBKSi4?t=111
Würde was das angeht erst mal abwarten.
dargo
2019-01-14, 13:03:46
Das Ding ist doch auf 20.000 Stück begrenzt, dachte ich..
Das könnte auch einfach nur die erste Charge sein. Vielleicht will AMD erstmal testen wie die Karte angenommen wird.
GerryB
2019-01-14, 13:34:47
@dargo
Als freier Bürger entscheide ich gerne selbst wofür die W eingesetzt werden.Nebst UV.
Sollte tatsächlich die Performance zu gut sein, bei vollen 300W, dann gibt es ja noch das gute alte fps-Limit und Chill.(bei mir z. Bsp. läuft 4k@60fps obwohl das CF mehr könnte)
Wer die R7 kauft denkt net an ein 150W-Setting. Ob man auf 300x1,5 geht ist Geschmackssache.(10..15% mehr Leistung für 150W wären mir zu viel)
Übrigens war die R7 auf der CES sehr leise=kühl, Was doch hoffen lässt. Wahrscheinlich bekommt man aus den 300W mit UV eine ausreichende Leistung,
für 5k dann natürlich 1..2 Regler links.
edit:
Für 1/2 5k wirds auf Jeden eine runde Sache:
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Samsung-C49RG90-49-Zoll-5K-Freesync-2-HDR-CES-2019-1272570/
Also doch erstmal nur ohne PCiE 4.0, vllt. wirds ja mal später mit Ryzen 3000 freigeschaltet. (meldet PCGH)
Irgendwie wird immer klarer, dass AMD hier offenbar nur Fertigung ausnutzt und in ein paar zusätzliche, schnelle € verwandelt, die nicht nach NV wandern. Ich wette, das ist eh ein Schnellschuss, weil NV nix überragendes gebracht hat mit Turing. Das Ding wird sicherlich zügig durch Navi ersetzt, wovon AMD noch dieses Jahr ne ganze Generation plant. VII ist eine billige FE2 im Prinzip sonst nix - läuft außer der Reihe und gehört nicht zum normalen Lineup.
Dural
2019-01-14, 14:58:54
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Dazu noch die ganzen Turing exklusiv sachen. :rolleyes:
Ex3cut3r
2019-01-14, 15:21:26
Navi wird doch nur ein Midrange Chip?
Und das soll dann der Heilige Gral werden? Oh je.
Von einer Vega 64 lohnt es sich mal IMO überhaupt nicht zu wechseln, sind ja nur Best Case 30%
Und sry die 16GB sind ziemlich unnötig, ja mehr Speicher ist gut, aber bis man die 16GB braucht, ist auch Vega 7 alter Schinken. :biggrin:
Ravenhearth
2019-01-14, 15:25:50
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Dazu noch die ganzen Turing exklusiv sachen. :rolleyes:
Naja, hätte AMD in 12nm einen breiteren Chip mit ~650mm² aufgelegt, hätten sie damit sicher Turing auch Paroli bieten können. Vielleicht wäre der Chip noch nichtmal teurer herzustellen als Vega20, wenn man die Kostenverdopplung von 7nm bedenkt. Nur etwas weniger Takt machen Vega schon deutlich effizienter. Zusammen mit 96 CUs hätte das für 2080-Leistung bei ca. 300W sicher auch gereicht. Klar wäre man damit immer noch ineffizienter als Turing rausgekommen, aber Vega hat in diesem Punkt halt das Nachsehen. Dass Vega20 bei der Effizienz trotz 7nm auch nicht besser dasteht, liegt eben daran dass man nicht den "breiten" Weg gehen konnte, sondern über den Takt gehen musste. Dieser ganze Punkt scheitert halt leider daran, dass Vega mehr als 64CUs nicht unterstützt. Aber ein nettes Gedankenspiel :D
Navi wird doch nur ein Midrange Chip?
Und das soll dann der Heilige Gral werden? Oh je.
Es gibt Gerüchte, dass neben dem Midrange-Chip mit 40 CUs auch ein High-End-Chip mit 64-80 CUs erscheint, der es dann nicht nur mit der RTX 2060 aufnimmt, sondern mit der RTX 2080 oder gar 2080 Ti.
Ex3cut3r
2019-01-14, 15:26:48
Es gibt Gerüchte, dass neben dem Midrange-Chip mit 40 CUs auch ein High-End-Chip mit 64-80 CUs erscheint, der es dann nicht nur mit der RTX 2060 aufnimmt, sondern mit der RTX 2080 oder gar 2080 Ti.
Nja, mal abwarten, gut für uns wäre es ja schon. :up:
GerryB
2019-01-14, 15:26:56
Der große Kuchen 970+1070 muss erst noch aufgeteilt werden.
Es bewerben sich 2060(nicht),
GTX11xx und Navi.
Hinzu kommen APU´s und Notebook-GPU´s. (immerhin der grösste Markt)
Da können Zwei nur verlieren und Einer nur hinzu gewinnen.
rentex
2019-01-14, 15:36:56
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Dazu noch die ganzen Turing exklusiv sachen. :rolleyes:
Ist es auch nicht🤷*♂️ 30-40% Steigerung zu Pascal (wie meistens, Maxwell zu Pascal war ne Ausnahme) RTX? Nicht absehbar ob es Erfolg hat, mit dem Performancelevel bei Turing. Wohl nicht.
Dural
2019-01-14, 15:41:32
Die GPUs die das im (praktisch) gleichen Prozess erreicht haben kann man an einer Hand abzählen :rolleyes:
Dazu noch die ganzen exklusiven Turing sachen, die es früher so noch nie gab. Zb. Leistung bei Wolfenstein2.
Turing hat genau ein Problem, und das ist der Preis.
GerryB
2019-01-14, 15:42:52
Entscheidend für viele Käufer wird die Kombi NV+FS(+HDR). Falls Das net so funzt. dann ...
Bisher ja nur TN-Paneels evaluiert.
Damit alle Anderen von NV nicht garantiert, falls es ruckelt oder die Bildquali net stimmt.
Soll der FS-Treiber net Morgen kommen ?
Die tollen Turing exSachen sind ja nur im Highend bedingt nutzbar.(DLSS ist net wirklich die Offenbarung,
sondern nur Krücke um auf die fps zu kommen; nimmt Vega halt 1800p)
Der Umsatz wird im Bereich Navi gemacht.
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Dazu noch die ganzen Turing exklusiv sachen. :rolleyes:
Turing ist nunmal nur 12nm, deshalb gabs eben auch kaum mehr als 30%. RT sehe ich abseits davon. Immer dieses lächerliche angepisst sein, nur weil man mal Turing auch etwas kritisch sieht.
Turing ist schon gut für 12nm, das ist keine Frage - er bringt alle LL-Features mit und RPM, RT finde ich eher unwichtig. Es ist eben ein gutes Gesamtprodukt. Aber er ist nur 12nm und hat zuwenig RAM.
amdfanuwe
2019-01-14, 16:34:37
Es ist eben ein gutes Gesamtprodukt. Aber er ist nur 12nm und hat zuwenig RAM.
und ist zu teuer.
Ex3cut3r
2019-01-14, 18:24:38
Vega 7 wird auch nicht ein Schnäppchen mit 700€ :freak:
mczak
2019-01-14, 18:57:21
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Turing hat ungefähr eine Leistungssteigerung von minus 30% bezogen auf Perf/Fläche oder Perf/Transistor gegenüber Pascal, abgesehen von Tensor und RT-Cores oder der Nutzung von FP16 (oder anderer neuer Features). Das ist tatsächlich nichts besonderes. Immerhin ist aber Perf/W nicht schlechter geworden (aber auch nicht wirklich besser).
Ich bin aber auch kein Fan von Vega 20...
GerryB
2019-01-14, 18:57:24
R7 darf nur halb so viel können wie die MI 50 und das zum ganz kleinen Preis.
Igor meint, das ist schon untere Grenze der Kosten.
Soll ja auch kein Massenprodukt sein, insofern gutes Marketing.
bzw.
Durch die Reglementierung kommen hoffentlich die Grakas auch bei den Gamern an
und net in irgendwelchen Büros.
Wer es deutlich preiswerter wollte konnte ja dieses Jahr die LC für ca. 450,-€ erwerben.(+3x Games)
Aber der Zug ist nun abgefahren.
dargo
2019-01-14, 21:01:21
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Mal kurz überlegen... ne RTX2080 FE ist gleich schnell wie die 1080TI Custom trotz 16% mehr Die Size und kleinerem Prozess. Ein echter Fortschritt. :uup:
Turing hat genau ein Problem, und das ist der Preis er ist zu fett.
fixed
Der_Korken
2019-01-14, 21:41:55
Mal kurz überlegen... ne RTX2080 FE ist gleich schnell wie die 1080TI Custom trotz 16% mehr Die Size und kleinerem Prozess. Ein echter Fortschritt. :uup:
Dafür dass er bei gleicher Leistung weniger verbraucht und zusätzlich noch Tensor- und RT-Cores hat, die zwar beim Gaming (noch) keine Rolle spielen, dafür aber im DL/HPC-Bereich genutzt werden können, ist das doch ganz OK. Da war Vega imho der klarere Nicht-Fortschritt bei Die-Size.
MadPenguin
2019-01-14, 21:54:08
Ich finde es wieder nett, dass dieselben Trolls wieder hier im AMD Forum unterwegs sind, um sich die eigenen Käufe schönereden zu müssen und um Vega zu denigrieren. Und ja, kauft euch ein Wörterbuch.
AMD Radeon VII: less than 5000 available, no custom cards (https://www.tweaktown.com/news/64501/amd-radeon-vii-less-5000-available-custom-cards/index.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=tweaktown)
Since the announcement I reached out to some industry contacts who said there will be "less than 5000" made. The same source said AMD is losing money on each card sold as they are
Wenn das so zutrifft, war das doch nur ein PR Gag. Sehr bedauerlich.
Hakim
2019-01-15, 02:32:34
Dann stimmen die 750$ evtl doch. Könnte vielleicht wegen der Rarität eine wertstabile Karte sein :). Wenn es denn stimmt
Daredevil
2019-01-15, 04:45:52
Die basteln doch für 5000 Karten kein neues PCB und "designen" einen Kühler ?
Das ist doch Bullshit. :D
amdfanuwe
2019-01-15, 05:14:18
Könnte vielleicht wegen der Rarität eine wertstabile Karte sein :). Wenn es denn stimmt
Wird wohl direkt ausverkauft sein und landet dann bei E-Bay.
Mortalvision
2019-01-15, 06:18:10
son Käse, sie wird auf amds Website direkt über der 590 beworben. Vielleicht wird die erste Charge nur 5000 Stück sein, weil die Produktion noch nicht so lange läuft. Rest macht unternehmerisch sonst null Sinn!
Fragman
2019-01-15, 06:22:36
Ich finde es wieder nett, dass dieselben Trolls wieder hier im AMD Forum unterwegs sind, um sich die eigenen Käufe schönereden zu müssen und um Vega zu denigrieren. Und ja, kauft euch ein Wörterbuch.
Man kann, dank VegaII, zumindest festhalten, das sich beide Seiten nichts nehmen, wenn es darum geht, überteuerte Hardware "schön" zu reden.
Zumindest kann man jetzt weiter gehen und die unsinnige Diskussion hinter sich lassen.
Loeschzwerg
2019-01-15, 06:36:57
Die basteln doch für 5000 Karten kein neues PCB und "designen" einen Kühler ?
Das ist doch Bullshit. :D
Auch wenn ich es im Falle der VII für unwahrscheinlich halte... aber man erinnere sich z.B. an die limitierten Karten von Asus (Mars, Ares...), EVGA (295 Red Edition).
Linmoum
2019-01-15, 07:14:16
Da sind die 20k (+ weitere 40k) ja realistischer.
http://www.redgamingtech.com/amd-vega-based-radeon-vii-for-consumers-and-gamers-exclusive/
robbitop
2019-01-15, 08:48:47
Dafür dass er bei gleicher Leistung weniger verbraucht und zusätzlich noch Tensor- und RT-Cores hat, die zwar beim Gaming (noch) keine Rolle spielen, dafür aber im DL/HPC-Bereich genutzt werden können, ist das doch ganz OK. Da war Vega imho der klarere Nicht-Fortschritt bei Die-Size.
Wobei ein nicht unwesentlicher Teil durch 12 nm und den besseren Betriebspunkt kommt.
In Spielen, die von int32 profitieren (quantum break) ist die Perf/W aber drastisch besser.
SKYNET
2019-01-15, 10:14:27
Ja Turing ist nix rechtes, ich meine eine Leistungssteigerung im praktisch selben Herstellungsprozess die AMD nicht mal mit einem Fullnode erreicht ist wirklich nichts besonders. :freak:
Dazu noch die ganzen Turing exklusiv sachen. :rolleyes:
bei 57% mehr transistoren und 21% mehr shadern(1080Ti vs. 2080Ti) ja auch total das wunder... :rolleyes:
vergleichst mal wieder äpfel mit birnen.
AMD wird 5k bestellt haben als erste Charge. Je nach Nachfrage wird man weitere Kontingente mit 20k oder bei dicker Nachfrage gar 40k aufstocken können. Im Grunde ist das reiner Opportunismus.
AMDoderNvidia
2019-01-15, 10:30:35
In Spielen, die von int32 profitieren (quantum break) ist die Perf/W aber drastisch besser.
Leute, jetzt bringt Ihr mich durcheinander :D Wie ist das nun mit den Datentypen (int vs float/double), ihrer Präzision (32bit, 64bit, 16bit, ...) und der Performance?
Bisher waren die GPUs für den Grafikbereich 32bit-float optimiert. Für den professionellen Bereich war noch die 64-bit float Berechnung wichtig. Dann kam Vega mit half-precision, also 16-bit float, korrekt? Und was soll das jetzt mit int32?
Danke für jegliche Aufklärung :)
Käsetoast
2019-01-15, 10:45:35
Was die Menge an Karten angeht, kann ich mir durchaus vorstellen, dass man das was an 7nm Kapazität freigeworden ist in den letzten Monaten einfach für den Consumer Bereich eingekauft hat und nun nutzt. Das sind dann natürlich keine überwältigenden Mengen. Wobei es in dem Preissegment und nachdem NVIDIA den Bereich abgefrühstückt hat wahrscheinlich auch keine gigantische Nachfrage herrschen wird...
Das Vega II ein Verlustgeschäft sein soll glaube ich nicht - dann hätte man sich die Karte komplett gespart. Man hat jetzt halt einfach mit minimalem Aufwand was auf den Markt bringen können, dass das eigene Portfolio nach oben erweitert. Wenn man da tatsächlich zusätzliche Fertigungskapazitäten für nutzen konnte ist daran ja auch nichts auszusetzen. "Alt" wird die Karte aber sicherlich nicht werden, denn ich rechne für Ende des Jahres mit einer stärkeren Navi Karte bzw. zumindest einer Ankündigung dessen für Q1 2020. Ganz ähnlich wie bei der 590 wird die Karte in absehbarer Zeit also ersetzt werden...
Bisher waren die GPUs für den Grafikbereich 32bit-float optimiert. Für den professionellen Bereich war noch die 64-bit float Berechnung wichtig. Dann kam Vega mit half-precision, also 16-bit float, korrekt? Und was soll das jetzt mit int32?
Mit der Einführung der Gleitkommazahlen, die nur 16 Bit brauchen, für GPUs wurden quasi automatisch auch die ganzzahligen Zahlen in 16 und 32 Bit (EDIT: Und 8 Bit glaube ich auch - zumindest bei AMD, bei NVIDIA weiß ich es nicht sicher) eingeführt. Anstatt einer Gleitkommazahl so ein Integer zu nutzen rechnet dann natürlich auch potentiell schneller. Wenn einen also die Nachkommastelle nicht interessiert nimmt man einfach ein Integer und ist damit schneller / speichersparender unterwegs...
robbitop
2019-01-15, 10:53:17
Es gibt einige Dinge, die nur ganzzahlige Ergebnisse brauchen. Turing hat pro SM neben den FPUs noch zusätzliche INT ALUs die simultan angesprochen werden können.
gravitationsfeld
2019-01-15, 14:39:41
Integer hat nichts mit FP16 zu tun. Selbst die erste GCN-Generation konnte full rate int add und mul. Zudem gibt es eine skalare 64-Bit-Int-Einheit für Loop-Counter, Branch-Masks etc.
NV hat bis vor Turing wesentlich weniger Durchsatz gehabt. Da wurden die 24-Bit-Adder und Multiplier der FP32-Einheiten benutzt mit entsprechend weniger Durchsatz weil es mehrfach durch muss.
SKYNET
2019-01-15, 14:44:22
Integer hat nichts mit FP16 zu tun. Selbst die erste GCN-Generation konnte full rate int add und mul. Zudem gibt es eine skalare 64-Bit-Int-Einheit für Loop-Counter, Branch-Masks etc.
NV hat bis vor Turing wesentlich weniger Durchsatz gehabt. Da wurden die 24-Bit-Adder und Multiplier der FP32-Einheiten benutzt mit entsprechend weniger Durchsatz weil es mehrfach durch muss.
vor volta ;)
sieht man schön im blender bench faden... die vegas haben die pascals derbe zerpflückt :freak:
Dural
2019-01-15, 14:48:54
GP100 war da auch schon besser. Die gaming pascal sind halt reine gaming gpus, die chips sind ja auch sehr schlank.
gravitationsfeld
2019-01-15, 14:53:11
vor volta ;)
sieht man schön im blender bench faden... die vegas haben die pascals derbe zerpflückt :freak:
Volta ist komisch. Hat zwar schon Vektor-Int-ALUs aber nicht die Skalar-Einheit.
Mir ist immer noch schleierhaft warum eine komplett eigene Architektur für nur einen Chip verwendet wurde. Wahrscheinlich hat sich Volta verzögert aber man wollte trotzdem so früh wie möglich einen "AI"-Chip.
Das muss die Compiler- und Treiber-Leute übel nerven ;)
SKYNET
2019-01-15, 15:00:17
Volta ist komisch. Hat zwar schon Vektor-Int-ALUs aber nicht die Skalar-Einheit.
Mir ist immer noch schleierhaft warum eine komplett eigene Architektur für nur einen Chip verwendet wurde. Wahrscheinlich hat sich Volta verzögert aber man wollte trotzdem so früh wie möglich einen "AI"-Chip.
Das muss die Compiler- und Treiber-Leute übel nerven ;)
ich glaube ja, das volta und turing sone 50/50 sache war, beides in der pipeline, volta war zuerst fertig, also brachte man diese um mal wieder was "neues" zu haben als überbrückung bis turing.
gravitationsfeld
2019-01-15, 15:12:36
Da klingt so als wäre Volta irgendwie eine Konkurrenz gewesen, aber Turing ist klar eine Weiterentwicklung in jedem Punkt des Chips.
SKYNET
2019-01-15, 15:37:41
Da klingt so als wäre Volta irgendwie eine Konkurrenz gewesen, aber Turing ist klar eine Weiterentwicklung in jedem Punkt des Chips.
ne, dafür liegen beide zudicht beieinander(veröffentlichung) die liefen parallel, zumal volta HBM2 nutzt und nicht popeligen GDDR6...
halte HBM ja eh für die zukunftsträchtigere version des vrams.
Der_Korken
2019-01-15, 15:37:49
Kann Volta/Turing simultan 64FP-Berechnungen UND 64 INT-Berechnungen in einem SM ausführen? Das wäre bei der Rohleistung ja ein total krasser Sprung. Wie funktioniert das bei Vega? Kann jede ALU beides und es kann pro Takt immer nur eine der beiden Typen ausgeführt werden? Muss gerade an Core vs Zen denken, einmal alles gemischt, einmal alles getrennt. Vielleicht geht auch AMD bei GPUs in diese Richtung.
BoMbY
2019-01-15, 15:49:56
AMD wird 5k bestellt haben als erste Charge. Je nach Nachfrage wird man weitere Kontingente mit 20k oder bei dicker Nachfrage gar 40k aufstocken können. Im Grunde ist das reiner Opportunismus.
5k ist ein total unrealistischer Wert. Das würde heißen am Ende bekämen Caseking, Mindfactory, etc. jeder ca. 5 Stück. Vielleicht 5k für Europa, oder 5k für die USA, aber eher nicht 5k Gesamt.
Edit: AMD sagt zum Beispiel "several leading add-in-board partners plan to offer the cards." Sagen wir es wären nur Drei (z.B. XFX, Sapphire, Colorful) dann bekäme jeder nur etwa 1.666. Dann soll Dell das auch anbieten, bleibt eigentlich nur noch die Hälfte, dann hast Du mindestens USA, Kanada, Europa, Japan und ein paar mehr asiatische Länder abzudecken. Plus AMD will die auch über ihre eigene Webseite anbieten.
SKYNET
2019-01-15, 15:52:01
5k ist ein total unrealistischer Wert. Das würde heißen am Ende bekämen Caseking, Mindfactory, etc. jeder ca. 5 Stück. Vielleicht 5k für Europa, oder 5k für die USA, aber eher nicht 5k Gesamt.
die erste charge ist exklusiv über den AMD shop zu beziehen soweit ichs verstanden habe, später dann über sämtliche retailer.
also evtl. 5k direkt bei AMD am anfang, der rest dann über AMD und die händler...
schön ist natürlich bei direktbestellung, das der preis nicht wegen irgendwelcher coinschürfer nach oben gehen kann, der bleibt bei $699 :cool:
Gipsel
2019-01-15, 15:58:57
Wie funktioniert das bei Vega? Kann jede ALU beides und es kann pro Takt immer nur eine der beiden Typen ausgeführt werden?Bei GCN gibt es genau eine Vektor-ALU für Alles pro Scheduler. Die handhabt alle Datentypen. Der Befehl legt fest, was gemacht wird.
Linmoum
2019-01-15, 16:04:19
die erste charge ist exklusiv über den AMD shop zu beziehen soweit ichs verstanden habe, später dann über sämtliche retailer.
also evtl. 5k direkt bei AMD am anfang, der rest dann über AMD und die händler...
schön ist natürlich bei direktbestellung, das der preis nicht wegen irgendwelcher coinschürfer nach oben gehen kann, der bleibt bei $699 :cool:
Nein, es wird die Karten auch bei AMD geben, aber nicht nur. Deutlicher kann sich Lisa Su doch gar nicht ausgedrückt haben als sie Launchdatum und Preis bekanntgegeben hat...
SKYNET
2019-01-15, 16:06:34
Nein, es wird die Karten auch bei AMD geben, aber nicht nur. Deutlicher kann sich Lisa Su doch gar nicht ausgedrückt haben als sie Launchdatum und Preis bekanntgegeben hat...
https://www.tomshw.de/2019/01/14/vorerst-keine-boardpartner-karten-der-radeon-vega-vii-von-amd-in-sicht-amd-verkauft-die-referenzkarte-exklusiv/
BoMbY
2019-01-15, 16:07:57
Das ist nicht was Lisa bei der Keynote gesagt hat.
SKYNET
2019-01-15, 16:16:54
Das ist nicht was Lisa bei der Keynote gesagt hat.
egal, wenn die boardpartner von nix wissen wirds so sein, AMD wäre auch blöde sich die marge durch die lappen gehen zu lassen, $699 direkt in die eigene kasse, oder evtl. nur $550 und der rest steckt sich der händler in sack...
Linmoum
2019-01-15, 16:18:20
Der tomshw-Link ist schön, hat nur damit nichts zu tun. Einfach nochmal anhören, als sie zum Preis und Launch kommt. Das ist deutlich, wo man die Karte wird kaufen können.
BoMbY
2019-01-15, 16:28:17
egal, wenn die boardpartner von nix wissen wirds so sein,
Igor und seine "Boardpartner" haben bei den NVidia-Karten eigentlich auch nur Unsinn produziert.
Daredevil
2019-01-15, 16:33:34
Das AMD exklusiv die Radeon VII verkauft, bedeutet nicht automatisch, dass AMD die Radeon VII exklusiv vertreibt.
Ihr redet da ein wenig aneinander vorbei. :)
Linmoum
2019-01-15, 16:34:54
egal, wenn die boardpartner von nix wissen wirds so sein, AMD wäre auch blöde sich die marge durch die lappen gehen zu lassen, $699 direkt in die eigene kasse, oder evtl. nur $550 und der rest steckt sich der händler in sack...
Mein Gott, glaub es doch einfach mal wenn du schon zu faul bist, dir die Worte aus Lisa Sus Mund anzuhören.
Alternativ hier im Interview mit Scott Herkelman.
https://m.hardocp.com/article/2019/01/14/amd_radeon_vii_interview_scott_herkelman/1
BoMbY
2019-01-15, 16:38:03
Alleine schon der Unsinn bei THG:
so wie sie gezeigt wurde, nichts anders als eine AMD Radeon Instinct MI50 mit Videoausgängen und damit eigentlich auch nichts für den Massenmarkt.
Es ist ein komplett anderes PCB (andere Stromanschlüsse an anderer Position, keine xGMI-Brücken, etc.), macht aber scheinbar nichts ... was für ein Dummschwätzer.
JuergenH
2019-01-15, 17:04:10
Abwarten und Tee trinken.
Meine Vega64 habe ich heute verkauft, mal sehen, ob, wann und was AMD als Vega VII liefern wird.
FP64 mit 1:2 wäre für OpenCl zu schön gewesen. Aber so viele funktionsfähige Chips waren wohl nicht verfügbar.
Ex3cut3r
2019-01-15, 17:42:50
Du bist jetzt aber kein Gamer oder?
Von Vega 64 auf die Vega VII sind vlt. 20% im Schnitt. Ich ziehe immer 10% von den AMD/Nvidia Folien ab, dann passt es imo.
Mich wurde mal interessieren ob viele Vega 64 Leute auf die Vega VII gehen, und wenn ja warum? Im Turing Thread, wurde Leute ja belächelt die z.B von 1080 auf die 2080 oder von der 1080Ti auf 2080Ti gewechselt sind.
Linmoum
2019-01-15, 17:59:58
Die wurden aber in erster Linie deswegen belächelt, weil sie dafür nochmal nur dasselbe an VRAM mitgenommen haben. ;)
Ex3cut3r
2019-01-15, 18:00:46
Ja, das wird es wohl gewesen sein, 16GB sind auch das mindeste was man stand jetzt auch braucht. ;)
Linmoum
2019-01-15, 18:12:08
Brauchen sagt ja keiner, aber 8GB in UHD vollzukriegen ist jetzt auch nicht exorbitant schwer. ;)
Ex3cut3r
2019-01-15, 18:13:42
Vega 7 mit UHD zu lansgam IMO, aber nja. Reduzierte Settings mit einer 700€ GPU, macht auch wieder sehr Sinn. :up:
gravitationsfeld
2019-01-15, 18:18:50
Kann Volta/Turing simultan 64FP-Berechnungen UND 64 INT-Berechnungen in einem SM ausführen? Das wäre bei der Rohleistung ja ein total krasser Sprung.
Korrekt. Jetzt weisst du auch einen Grund warum Wolf 2 so einen Sprung gemacht hat.
ne, dafür liegen beide zudicht beieinander(veröffentlichung) die liefen parallel, zumal volta HBM2 nutzt und nicht popeligen GDDR6...
Sorry, aber noe. Der Speichercontroller macht keine andere Architektur aus. Volta ist klar aelter als Turing.
JuergenH
2019-01-15, 18:30:46
@Ex3cut3r
Ich bin nur nebenberuflicher Gamer. :-)
Primär bin ich an der doppelten Datenübertragungsrate des HBM2 und natürlich der höheren Speicherkapazität interessiert. Wenn dann auch noch die Leistungsaufnahme etwas geringer als bei der Vega64 ist, umso besser.
PCIe 4 und 1:2 FP64 gibt es dann wahrscheinlich erst bei der nächsten Generation.
pixeljetstream
2019-01-15, 18:59:41
Da klingt so als wäre Volta irgendwie eine Konkurrenz gewesen, aber Turing ist klar eine Weiterentwicklung in jedem Punkt des Chips.
+1
Diese ganzen wilden Theorien dass Turing auf Pascal basiert etc. Warum so ausgefallen, wenn das klassische Weiterentwickeln viel plausibler ist.
Der Hauptunterschied was NV macht ist die Konfiguration des Chips je nach hpc/consumer zu verändern. Sah man an gp100 vs gp10x schon (Anzahl SMs etc.). Einmal ist primär SM, das andere Mal restliche Features dran. Seit Maxwell GM10x sehr deutlich zu sehen. Nur dass man diesmal wegen der vielen neuen Grafikfeatures nen neuen Namen gewählt hat statt GV20x.
Daredevil
2019-01-15, 22:08:50
Du bist jetzt aber kein Gamer oder?
Von Vega 64 auf die Vega VII sind vlt. 20% im Schnitt. Ich ziehe immer 10% von den AMD/Nvidia Folien ab, dann passt es imo.
Mich wurde mal interessieren ob viele Vega 64 Leute auf die Vega VII gehen, und wenn ja warum? Im Turing Thread, wurde Leute ja belächelt die z.B von 1080 auf die 2080 oder von der 1080Ti auf 2080Ti gewechselt sind.
Als Preis/Leistungssicht ist der Sprung auch total Banane, egal ob bei Nvidia oder AMD, gerade wenn man schon Hardware Zuhause hat.
Meine Nitro+ hat knapp 400€ gekostet, eine gleichbleibende P/L wäre also bei 25% mehr Leistung 500€. Sprich ich würde bei 699€ VK Preis Zweihundert Euro Prestige Geld zahlen.
Früher wo eine 1080 550€ gekostet hat und eine 1080ti um die 700€, da war das ganze noch relativ fair als Aufpreis.
Allerdings ist die Leistungsfähigkeit einer 2080/RVII über dem kritischen "Ich kann 1440p in geilen FPS zocken" Punkt, wo hingegen eine 2070/R64 knapp drauf und eher drunter ist. Deswegen sind diese FPS in meinen Augen höher zu gewichten.
Ob ich in 20 oder 24fps zocke, interessiert mich nicht.
Ob ich in 150 oder 187fos zocke, ebenso wenig.
Aber bei 55fps und 68fps, oder bei HighFPS 80 und 100fps, da ist der süße Punkt besser erreicht. ( Nur meine Meinung, jeder mags ja anders. )
Ich wechsel, weil eine VII besser ist als meine beiden Vega 64.
Zudem möchte ich selber ein wenig damit basteln und die Mining Performance checken.
Allerdings muss es die Karte dann auch für ~6xx€ geben, dass ich wenigstens die drei Spiele verchecken kann um auf ~600€ zu kommen.
Ehrlich gesagt brauche ich nicht mal Vega64 Leistung, weil ich nicht mehr soviel zocke, aber das ist in meinem System Budget halt schon seit Monaten drin und die Karte scheint ja ( Ähnlich Vega ... ) keine schlechte Wertanlage zu sein. ;)
Ich könnte mir auch vorstellen, vier Karten ins System zu schmeißen, wenn meine Ergebnisse zufriedenstellend sind, da gehts aber nicht ums zocken oder prollen, das ist halt Cryptokram und Bastelei.
gravitationsfeld
2019-01-16, 03:43:26
PCIe 4 und 1:2 FP64 gibt es dann wahrscheinlich erst bei der nächsten Generation.
FP64 wird wahrscheinlich fuer immer ein Profi-Chip-Feature bleiben. Ergibt einfach keinen Sinn bei Gaming-Chips.
danarcho
2019-01-16, 08:53:04
FP64 wird wahrscheinlich fuer immer ein Profi-Chip-Feature bleiben. Ergibt einfach keinen Sinn bei Gaming-Chips.
Ach was, wenn wir schon anfangen mit Raytracing, dann können wir bestimmt bald auch physikalisch korrekt simulierten Wind und Wasser einbauen (mit kleinsten Verwirbelungen und so). Und so richtig genau geht das nur mit DP :P
JuergenH
2019-01-16, 09:24:46
FP64 wird wahrscheinlich fuer immer ein Profi-Chip-Feature bleiben. Ergibt einfach keinen Sinn bei Gaming-Chips.
Das hat man damals [TM] auch bei den ersten externen Gleitkommaprozessoren, wie dem 8087 oder ähnlichen FPUs, gedacht. Diese Funktionen sind schon lange in den Prozessor gewandert.
Warum soll das bei einer GPU nicht möglich sein. Die Chipfläche, gerade bei der anlaufenden Fertigung in 7 nm, ist doch immer weniger relevant.
(Der 8087 lag damals, wenn ich mich dunkel erinnere, bei ca. 700 DM. Das konnten sich nur reiche Studenten leisten. Die Vega VII, um wieder zum Thema zu kommen, soll den gleichen Betrag in $ kosten.)
Ach was, wenn wir schon anfangen mit Raytracing, dann können wir bestimmt bald auch physikalisch korrekt simulierten Wind und Wasser einbauen (mit kleinsten Verwirbelungen und so). Und so richtig genau geht das nur mit DP :P
Hehehe. Ja, definitiv, weil Rundungsfehler bei superungenauer FP32-Windsimulation schnell dazu führen, dass das Vorzeichen umschwenkt und man plötzlich rückwärts an ein Eiland schippert. :biggrin: Horst beiseite: Schauen wir mal, wo wir in zehn Jahren stehen (siehe Jürgen).
MfG,
Raff
Dural
2019-01-16, 09:46:31
Ist doch immer das selbe Spiel, früher oder später wird FP64 dank neuer (kleinere) Fertigung flächenmässig kaum mehr was ausmachen, also wird man es auch in den Gaming Chips drin lassen.
Die Nutzung folgt danach praktisch automatisch.
Ailuros
2019-01-16, 10:47:42
Es wird noch einige Ewigkeiten dauern bis FP64 in ALUs umsonst sein wird, ueberhaupt so lange NV dafuer dedizierte Einheiten benutzt. Abermals: es ist nicht der Aufwand fuer reine FP64 SPs die den Unterschied machen sondern relevante Datenstroeme und surrounding logic die die Affaere so teuer macht.
Savay
2019-01-16, 10:50:41
Allerdings scheint das 1:2 DP bei der Vega20 nicht sooooo viele Transitoren gekostet zu haben...immerhin geht auch noch einiges für den breiteren Speicherkontroller und die IF Links drauf. ;)
Oder Vega10 war schon von vornherein darauf ausgelegt. :freak:
danarcho
2019-01-16, 11:59:37
Es wird noch einige Ewigkeiten dauern bis FP64 in ALUs umsonst sein wird, ueberhaupt so lange NV dafuer dedizierte Einheiten benutzt. Abermals: es ist nicht der Aufwand fuer reine FP64 SPs die den Unterschied machen sondern relevante Datenstroeme und surrounding logic die die Affaere so teuer macht.
Nein, die Datenströme sind genau die selben bei 1:2, es werden halt nur 8 Operationen pro SIMD pro Takt ausgeführt. Aber gravitationsfeld hat schon recht, es ist komplett unnütz für Gaming und AMD möchte wohl nicht ihre Profi-Karten torpedieren.
Soweit ich verstanden habe, nimmt Intel für zukünftige GPUs die double Unterstützung sogar komplett raus (siehe Matt Turner - An Introduction to i965 Assembly and Bit Twiddling Hacks (https://www.youtube.com/watch?v=raRBi-33Vz4&index=11&list=PLe6I3NKr-I4LvChXHMR0qvi9D1XJZkDpK)). Die Vulkan spec verlangt es halt, sonst würden AMD und NV das sicher auch machen und sich den Aufwand sparen.
y33H@
2019-01-16, 12:09:42
Er meint wohl Datenströme für SP statt DP.
BoMbY
2019-01-16, 12:49:25
AMD's Antwort auf die blöden Gerüchte:
While we don't report on production numbers externally, we will have products available via AIB partners and AMD.com at launch of Feb. 7, and we expect Radeon VII supply to meet demand from gamers
https://www.overclock3d.net/news/gpu_displays/amd_responds_to_radeon_vii_short_supply_rumours/1
dargo
2019-01-16, 12:58:05
Soweit ich verstanden habe, nimmt Intel für zukünftige GPUs die double Unterstützung sogar komplett raus (siehe Matt Turner - An Introduction to i965 Assembly and Bit Twiddling Hacks (https://www.youtube.com/watch?v=raRBi-33Vz4&index=11&list=PLe6I3NKr-I4LvChXHMR0qvi9D1XJZkDpK)). Die Vulkan spec verlangt es halt, sonst würden AMD und NV das sicher auch machen und sich den Aufwand sparen.
Das würde im Umkehrschluss bedeuten die kommenden dGPUs von Intel unterstützen kein Vulkan? Kann ich mir nicht vorstellen.
danarcho
2019-01-16, 13:18:12
Er meint wohl Datenströme für SP statt DP.
Ich weiß, ändert nichts. Ob eine ALU 16*32bit verarbeitet oder 8*64.
Das würde im Umkehrschluss bedeuten die kommenden dGPUs von Intel unterstützen kein Vulkan? Kann ich mir nicht vorstellen.
Sie implementieren double emulation. Das killt natürlich die performance, ist aber notwendig für die Vulkan Ratifizierung. Wenn ichs richtig im Kopf hab, bewegt sich das um die 50k instructions pro double instruction (könnte auch sein, dass sich die Zahl aber auf einen ganzen shader bezog).
Locuza
2019-01-16, 13:38:26
Ist das nicht nur für ältere GPUs gedacht?
Bei AMD arbeiten die Entwickler an Soft-FP64 für ältere VLIW5 GPUs, welche keine native FP64-Unterstzüzung haben, um OGL 4.0 unterstützen zu können.
Und FP64 mit 1:16 oder 1:32 Rate verursacht ja kaum Kosten, was will man da großartig sparen?
Intel GPUs mit Quarter-Rate FP64 iirc könnten das natürlich noch nennenswert abspecken in der Zukunft, ohne auf Software-Emulation zurückzugreifen.
danarcho
2019-01-16, 15:57:25
Ist das nicht nur für ältere GPUs gedacht?
Sorry, ging nicht aus dem Video, das ich verlinkt habe, hervor. Wurde wahrscheinlich im Gespräch danach gesagt, und ich habe es durcheinandergebracht.
Aber hier aus einer aktuellen patch series: "Some upcoming Intel platforms do not have 64-bit type support." (https://lists.freedesktop.org/archives/mesa-dev/2018-December/212645.html)
Ich kann mir gut vorstellen, dass die dGPUs den Support beibehalten, aber die iGPUs bringens ja nun wirklich nicht für wissenschaftliche Anwendungen.
Tesseract
2019-01-16, 16:10:47
Das hat man damals [TM] auch bei den ersten externen Gleitkommaprozessoren, wie dem 8087 oder ähnlichen FPUs, gedacht. Diese Funktionen sind schon lange in den Prozessor gewandert.
Warum soll das bei einer GPU nicht möglich sein. Die Chipfläche, gerade bei der anlaufenden Fertigung in 7 nm, ist doch immer weniger relevant.
ich glaube du verstehst da etwas falsch. für FP64 zahlen bestimmte professionelle institutionen sehr viel geld, für spiele ist es aber völlig irrelevant da man die genaugkeit dort nicht braucht. selbst wenn 2:1-FP64 in den gaming chips physisch vorhanden ist macht es für den hersteller sinn es zu deaktivieren damit sie sich nicht den anderen markt damit kaputt machen.
und abgesehen davon machen die eigentlichen recheneinheiten bei CPUs nur einen extrem kleinen teil der chipfläche aus, bei GPUs ist das deutlich mehr.
mczak
2019-01-16, 16:21:17
Sorry, ging nicht aus dem Video, das ich verlinkt habe, hervor. Wurde wahrscheinlich im Gespräch danach gesagt, und ich habe es durcheinandergebracht.
Aber hier aus einer aktuellen patch series: "Some upcoming Intel platforms do not have 64-bit type support." (https://lists.freedesktop.org/archives/mesa-dev/2018-December/212645.html)
Ich weiss nicht was da genau gesagt wurde, aber ansonsten muss das nicht unbedingt heissen dass das die "normalen" zukünftigen Chips betrifft. Eine Möglichkeit wäre z.B. auch dass es bloss die Atoms betrifft - die sind schon jetzt leicht anders (heissen im Treiber GEN9_LP), z.B. kein dword mul.
Zur Zeit hat Gen 11 (Icelake) laut mesa Treiber weder Unterstützung für dword-mul, 64 bit Typen noch hiz-sampling. Intel ist aber bekannt dafür dass da vor dem Launch die Werte nicht unbedingt alle richtig sein müssen, kann also auch sein dass das am Ende wiederum so nur für die Atoms stimmt.
Die diskreten Chips sind sowieso Gen 12, die gibt's noch nicht im (öffentlichen) Treiber.
JuergenH
2019-01-16, 17:41:21
ich glaube du verstehst da etwas falsch. für FP64 zahlen bestimmte professionelle institutionen sehr viel geld, für spiele ist es aber völlig irrelevant da man die genaugkeit dort nicht braucht. selbst wenn 2:1-FP64 in den gaming chips physisch vorhanden ist macht es für den hersteller sinn es zu deaktivieren damit sie sich nicht den anderen markt damit kaputt machen.
und abgesehen davon machen die eigentlichen recheneinheiten bei CPUs nur einen extrem kleinen teil der chipfläche aus, bei GPUs ist das deutlich mehr.
Richtig. Der Löwenanteil der hohen Kosten, z.B. für die MI60/50 dürfte u.a. auch für die Zertifizierung der Treiber anfallen.
Der Markt für Spiele benötigt FP64 (noch) nicht, da bin ich deiner Meinung. Aber das kann sich ändern, da Spiele immer aufwendiger werden.
In den ~330mm^2 der Vega 20 sind die erweiterten ALUs für FP64 ja bereits enthalten, das war mein Punkt. Und die Deaktivierung dieser Einheiten in der Radeon VII kann ich aus Sicht des Herstellers nachvollziehen.
Tesseract
2019-01-16, 17:54:24
Aber das kann sich ändern, da Spiele immer aufwendiger werden.
wird es sicher nicht. Selbst FP32 ist in vielen fällen größenordnungen über der genaugkeit die man eigentlich braucht. viel eher kommt effizient nutzbares FP16 mit dem doppelten durchsatz von FP32 ohne drawbacks. schönere/komplexere spiele brauchen den throughput viel dingender als die genaugkeit.
pixeljetstream
2019-01-16, 19:39:35
@JuergenH Es gibt keine Fläche bzw. keine Transistoren zu verschenken, insbesondere wo deren Kosten seit Jahren steigen. Die alten Zeiten sind vorbei.
Der Aufwand in Spielen hat nix mit fp64 zu tun. Eher mit mehr Objekten/Berechnungen etc. Die ganzen Tricks rund um große Welten sind schon umgesetzt.
BoMbY
2019-01-16, 22:22:25
Die Kosten pro Transistor sinken noch immer ...
pixeljetstream
2019-01-17, 00:38:20
Okay nochmal geguckt, die Grafik die ich gesehen hatte (eetimes) war in der Tat nur eine Projektion. Hast du aktuelle quellen?
Daredevil
2019-01-17, 01:02:07
Hier hat sich auch eine kleine Vega gezeigt. :>
24CU mit 2GB Shared GDDR5
3lv1TxUXIbo
Unicous
2019-01-17, 01:49:58
Alright, I finally have the Radeon VII FP64 performance matter sorted out with AMD. Contrary to earlier statements, it is being throttled. Radeon VII's rate will be 1:8, versus Vega 20's native 1:2 rate. Notably, this is still twice the native FP64 rate of all other Vegas.
https://twitter.com/RyanSmithAT/status/1085680805802733568
SKYNET
2019-01-17, 01:58:38
Hier hat sich auch eine kleine Vega gezeigt. :>
24CU mit 2GB Shared GDDR5
https://youtu.be/3lv1TxUXIbo
krass wie der ryzen mit GDDR5 abgeht als speicher... vernichtet den 2200G ja förmlich :eek:
AMD, bitte den platz auf Zen2 für 8GB HBM2 nutzen ;D
wie pervers würde das ding performen? nur durch den speicher alleine würde das teil in singlethread nen 9900k überflügeln, ganz ohne die optimierungen an der architektur zen+ --> zen2 :biggrin:
Daredevil
2019-01-17, 02:01:53
In der "offiziellen Spec" läuft das ganze ja mit 2GB HBM2@1200Mhz, also AMD ist sich auch da nicht zu schade, HBM zu verbauen.
Das isser dann wohl, knapp 20% mehr GPU Perf als Kaby Lake G
https://www.computerbase.de/2017-12/amd-apu-28-cus-fenghuang-raven/
SKYNET
2019-01-17, 02:03:38
In der "offiziellen Spec" läuft das ganze ja mit 2GB HBM2@1200Mhz, also AMD ist sich auch da nicht zu schade, HBM zu verbauen.
in der konsole sind aber wohl "nur" 8GB GDDR5 drinnen O_o
heisst AMD hat schon den passenden IMC für HBM2 auf zen... und sowas enthalten sie uns vor... pfffft :mad:
mczak
2019-01-17, 05:06:07
krass wie der ryzen mit GDDR5 abgeht als speicher... vernichtet den 2200G ja förmlich :eek:
Ich sehe da jetzt nicht aussergewöhnlich hohe Resultate. Scheinen alles Benchmarks zu sein bei denen auch der 2400G 40-50% schneller ist als der 2200G, die also massiv von SMT profitieren, da hilft dem 2200G auch der höhere Takt gegenüber der Subor-APU nicht weiter. Einen Einfluss der höheren Speicherbandbreite kann ich da im Quervergleich so rasch überschlagsmässig jedenfalls keinen erkennen, diese APU würde in jedem Fall deutlich gegenüber dem 2400G zurückliegen (aber hat ja auch ~20% weniger Takt, also alles wie erwartet).
Die GPU-Performance ist aber leider auch wie erwartet, keine Chance gegen die GTX 1060 3GB. Und die Konsole scheint mir auch eher teuer zu sein.
Leider waren da keine Stromverbrauchsmessungen dabei - sollte eigentlich nicht allzu hoch sein, die Frequenzen sind ja so gewählt dass sowohl die CPU wie die GPU ziemlich effizient arbeiten sollten.
BoMbY
2019-01-17, 08:53:17
https://twitter.com/RyanSmithAT/status/1085680805802733568
1/8 wäre immer noch ziemlich gut, mit ca. 1.7 TFlop/s. Mehr als so ziemlich alle anderen Desktop-Karten.
Brillus
2019-01-17, 08:59:01
in der konsole sind aber wohl "nur" 8GB GDDR5 drinnen O_o
heisst AMD hat schon den passenden IMC für HBM2 auf zen... und sowas enthalten sie uns vor... pfffft :mad:
Nein das haben sie nicht das ist ein Semi Custom Teil.
BoMbY
2019-01-17, 09:58:25
AMD kann über das Infinity Fabric praktisch alle Speichercontroller mit jeder anderen Hardware kombinieren. Zum einen sprechen die vermutlich alle DFI 4.0 auf der Client Seite, und zum anderen setzt AMD auf einen SDP (Scalable Data Port) welcher die Übersetzung zwischen IF und der jeweiligen IP übernimmt, so dass auf IF-Seite alles gleich funktioniert.
deekey777
2019-01-17, 10:04:37
Hier hat sich auch eine kleine Vega gezeigt. :>
24CU mit 2GB Shared GDDR5
https://youtu.be/3lv1TxUXIbo
Wieso "eine kleine Vega"? Es ist eine Custom-APU mit einem Die. Interessant ist die APU schon.
In der "offiziellen Spec" läuft das ganze ja mit 2GB HBM2@1200Mhz, also AMD ist sich auch da nicht zu schade, HBM zu verbauen.
Das isser dann wohl, knapp 20% mehr GPU Perf als Kaby Lake G
https://www.computerbase.de/2017-12/amd-apu-28-cus-fenghuang-raven/
Was fuer offizielle Spec?
Und wer soll einen 2 GiB HBM Stack bauen?
Von dem Ding hat man doch schon vor Monaten ein PCB gesehen. Das hat keinen HBM.
deekey777
2019-01-18, 09:26:50
Was fuer offizielle Spec?
Und wer soll einen 2 GiB HBM Stack bauen?
Von dem Ding hat man doch schon vor Monaten ein PCB gesehen. Das hat keinen HBM.
Da hat ihn Skynet durcheinandergebracht. Denn er schreibt selbst:
Hier hat sich auch eine kleine Vega gezeigt. :>
24CU mit 2GB Shared GDDR5
Wie die beiden auf HBM gekommen sind: https://www.computerbase.de/2017-12/amd-apu-28-cus-fenghuang-raven/
Wie CB auf HBM gekommen ist, weiß ich nicht.
SKYNET
2019-01-18, 10:21:06
Da hat ihn Skynet durcheinandergebracht. Denn er schreibt selbst:
Wie die beiden auf HBM gekommen sind: https://www.computerbase.de/2017-12/amd-apu-28-cus-fenghuang-raven/
Wie CB auf HBM gekommen ist, weiß ich nicht.
stimmt, war meine "quelle" aus der ich annahm das es HBM2 ist :smile:
aber wenn AMD über IF sämtliche möglichkeiten offen hat, sehe ich auch in HBM2 keine probleme :confused:
reaperrr
2019-01-18, 22:57:29
aber wenn AMD über IF sämtliche möglichkeiten offen hat, sehe ich auch in HBM2 keine probleme :confused:
Das 'Problem' wäre, dass sie dafür einen eigenen Chip mit eigener Maske auflegen müssten.
IF macht es lediglich einfacher, die einzelnen IP-Blöcke beim Chipdesign zusammenzufügen, aber das bedeutet nicht, dass man am gleichen Interface sowohl HBM als auch GDDR betreiben könnte.
Man könnte nur einfacher einen zweiten Chip mit anderem SI auflegen.
Ob das aus technischer und v.a. wirtschaftlicher Sicht Sinn macht, steht dann auf einem anderen Blatt.
Ein Grund warum AMD so wenig verschiedene Chips bringt ist ja gerade, dass die Designkosten, Masken usw. so verdammt teuer sind und die Chips entsprechend lange, mit vernünftiger Marge und in entsprechenden Stückzahlen verkauft werden müssen, um sich zu rentieren.
IF ist hauptsächlich dazu da, den Design-Prozess zu vereinfachen, um den steigenden Kosten für Design und Masken entgegenzuwirken, nicht um von jedem Chip mehrere Varianten mit Detail-Unterschieden zu bringen.
SKYNET
2019-01-18, 23:12:23
Das 'Problem' wäre, dass sie dafür einen eigenen Chip mit eigener Maske auflegen müssten.
IF macht es lediglich einfacher, die einzelnen IP-Blöcke beim Chipdesign zusammenzufügen, aber das bedeutet nicht, dass man am gleichen Interface sowohl HBM als auch GDDR betreiben könnte.
Man könnte nur einfacher einen zweiten Chip mit anderem SI auflegen.
Ob das aus technischer und v.a. wirtschaftlicher Sicht Sinn macht, steht dann auf einem anderen Blatt.
Ein Grund warum AMD so wenig verschiedene Chips bringt ist ja gerade, dass die Designkosten, Masken usw. so verdammt teuer sind und die Chips entsprechend lange, mit vernünftiger Marge und in entsprechenden Stückzahlen verkauft werden müssen, um sich zu rentieren.
IF ist hauptsächlich dazu da, den Design-Prozess zu vereinfachen, um den steigenden Kosten für Design und Masken entgegenzuwirken, nicht um von jedem Chip mehrere Varianten mit Detail-Unterschieden zu bringen.
bei zen2 mti den chiplets sollte das wohl einfacher sein, oder? O_o
Dino-Fossil
2019-01-21, 16:33:46
DLSS per DX12 auf Vega VII?
https://www.pcbuildersclub.com/2019/01/die-amd-radeon-vega-vii-beherrscht-dlss-ueber-directx-12/
DirektML ist sowohl für AA-Technik als auch für RT-Denoising wichtig. Daher wird auch beides von AMD unterstützt werden, alles unter dem Dach von DirectML und DirectX12 incl. DXR. Damit sind die Tage von NVs DLSS und auch von RTX schon wieder gezählt, da sich die Hersteller eher auf Microsoft-Standards stürzen werden. NV wird DirectML auch direkt unterstützen.
y33H@
2019-01-21, 16:52:18
RTX fußt doch auf DXR ...
Complicated
2019-01-21, 17:43:17
RTX fußt doch auf DXR ...
Ach? Kennt man ja von Gsync das mit fremden Federn schmücken...😉
robbitop
2019-01-21, 20:01:29
RT ohne HW (tensor cores für denoisen und rt cores für die Strahlen) wird in der Praxis zu lahm sein IMO. DLSS ist zwar nicht besonders gut was BQ pro Leistung angeht, bedarf aber einer entsprechenden Infrastruktur und Unterstützung (Supercomputer mit entsprechender Software und Schnittstelle für das Training und entsprechende SDKs für die Studios). Das ist sicher eine Menge Aufwand und nicht mal eben aus dem Boden gestampft. Ich sehe nicht, dass Radeons das kurzfrstig nur durch die Schnittstelle allein beherrschen werden. Aber gut, dass es Standards gibt. Der Rest kommt dann schon sukzessive.
Complicated
2019-01-21, 20:10:50
Der Punkt ist, dass die Radeons die Compute Hardware schon länger on Board haben mit den ACEs. Diese werden diese Berechnungen ebenfalls in Hardware abliefern ohne zusätzlich Shaderlast zu benötigen.
Mal sehen wie viel DXR schon für die nächste MS-Konsole möglich sein wird. ;)
Völlig ohne Software-Basis ist AMD da nicht mit der Radeon Pro Render:
https://gpuopen.com/announcing-real-time-ray-tracing/
robbitop
2019-01-21, 20:36:08
ACEs sind dochkeine Ausführungseinheiten sondern mWn Kontrolllogik. Oder habe ich da eine Erinnerungslücke?
Zumal dedizierte HW idR massiv schneller ist als eine SW Lösung.
Darstellen können wird man diese Spiele - aber sicherlich mit signifikanten Einbußen der Framerate. Bis es entsprechende HW gibt.
Da die Marktrelevanz und die Verbreitung in Spielen noch minimal ist, ist das zunächst aber nich kaum ein Problem.
Complicated
2019-01-21, 21:19:14
Asynchronous Compute Engine:
https://cdn.wccftech.com/wp-content/uploads/2015/04/Async_Aces.png
https://i.imgur.com/KVeZvj9.png
AMD: Mögliche Antwort auf Nvidias DLSS via DirectML (https://www.computerbase.de/2019-01/amd-directml-antwort-nvidia-dlss/)
Gegenüber 4 Gamer hat AMDs Adam Kozak diesbezügliche Überlegungen bestätigt. Laut Kozak zeige die im Februar erscheinende Radeon VII „exzellente Ergebnisse“ in ersten Versuchen und aufgrund der hohen GPGPU-Leistung der Vega-GPU ist aus seiner Sicht eine ähnliche Lösung wie Nvidia DLSS möglich. Ob die DirectML-Implementierung zu DLSS mit dedizierten Kernen gleichwertig ist, gilt es aber abzuwarten.
Last year's GDC 2018, Microsoft announced a framework "Windows ML" for developing machine learning based applications on the Windows 10 platform, and "DirectML" that makes it available from DirectX (Windows It became effective (October 2018 Update of 10) ( related article ). We are currently experimenting with obtaining the evaluation version SDK of DirectML, but Radeon VII shows excellent results in that experiment.
By the way, Radeon VII scored about 1.62 times the " GeForce RTX 2080 " in "Luxmark" which utilizes OpenCL-based GPGPU-like ray tracing renderer . Based on these facts, I think NVIDIA's DLSS-like thing can be done with GPGPU-like approach for our GPU.
aufkrawall
2019-01-21, 21:40:38
1. Alt.
2. CB.
3. Folien uralt.
4. Async Compute hatte bisher nur in Doom auf der Fury wirklich geglänzt.
5. Liest sich das wie ein Haufen PR-Blah. Zusammenhang Raytracing, Turing-Beschleunigung dafür und DLSS auf der anderen Seite? Häh?
-> besser gar nichts erwarten
Tesseract
2019-01-21, 22:04:35
ACEs sind dochkeine Ausführungseinheiten sondern mWn Kontrolllogik. Oder habe ich da eine Erinnerungslücke?
genau so ist es. der treiber schickt die arbeit an eine ACE und die verteilt die arbeit dann auf die shader. im günstigen fall sind damit die shader weniger oft bzw. weniger lange idle, mehr rechenleistung hat man damit aber nicht.
Complicated
2019-01-21, 22:39:49
ACEs sind Compute Units. Wer lesen kann ist im Vorteil ^^
@aufkrawall
1. Alt und daher auf jeder GCN-GPU zu finden.
2. CB - ja schon, doch daher auch das Zitat von Adam Kozak und keine CB-"Interpretationen"
3. Folien immer noch technisch korrekt
3. Faktor 1,62 zu RTX 2080 in GPGPU-Reytraycing Rendering ist eine Ansage. Es wäre 60% über dem erwarteten Performanceniveau.
4. Tessaltion Untis (Trueform) hatte AMD auch 3 Generationen vor Nvidia und keiner hat es genutzt bei spielen bis Nvidia Fermi brachte.
@Tesseract.
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf
Lies dir mal das Paper durch....
Eine bessere Shader-Auslastung resultiert in besserer Rechenleistung - worin denn sonst?
aufkrawall
2019-01-21, 22:45:34
3. Faktor 1,62 zu RTX 2080 in GPGPU-Reytraycing Rendering ist eine Ansage.
Das ist aber via OCL, und nicht DXR. Also wird bei NV nicht die HW-Beschleunigung genutzt, weshalb der Vergleich spätestens für Spiele völlig irrelevant ist.
Daredevil
2019-01-21, 22:55:12
Was bedeuten die RT Einheiten bei Nvidia überhaupt?
Ohne RT haut ein BFV 152fps raus, mit RT Ultra sind es dann nur noch 87fps.
Welche der beiden Einheiten ist denn nun der Flaschenhals, dass RT so einsackt?
Wenn die RT Einheiten der Flaschenhals sind, ist es doch absolut sinnlos, dass die Shader Einheiten Däumchen drehen und nur gezwungen mit 50% laufen.
Kann AMD da nicht auch einfach mit ihrem magischen Async Computer die hälfte der Leistung "reservieren" bzw. eben doppelt belegen, dass die FPS sich ebenfalls halbieren, dafür aber dann RT Low zum Vorschein kommt?
Gilt jetzt natürlich nur für die HPC Karten, die dürfen für sowas ja eher gemacht sein als Polaris.
Ich finde den Ansatz schon gut, dass man wirklich seine komplette Karte auslasten kann, weil sonst zahlt man für Transistoren, die rumidlen.
pixeljetstream
2019-01-21, 23:09:38
Das raytracing kostet mehr Performance weil "Pixel" (das Shading der reflektierten Punkte) berechnet werden die sonst nicht im Bild sind und weil man die dynamische Geometrie updaten muss. Sprich es ist einfach mehr Arbeit. Das ist nun unabhängig von der Arbeit die das tracing allein kostet.
Wie die Tests von EA SEED zeigen ist die HW beim tracen allein so 3-4x flotter als die titanv. https://www.ea.com/seed/news/siggraph-2018-picapica-nv-turing
Async compute bringt dann was, wenn die HW nicht genug warps/wavefronts erzeugt und Ressourcen frei sind. Typisch war das beim rasterizer wenn hier einige Teile nicht schnell genug Arbeit für die shader erzeugen. Dann lohnt es sich Compute Arbeit einzuschieben.
Ist die Arbeit aber wegen den Ressourcen (Register etc.) limitiert bringt es nichts, da diese solange blockiert sind bis die thread Gruppe (wavefront/warp) fertig ist. Dinge wie rapid math, tensor cores und auch die rtcores zielen darauf ab das Abarbeiten einer Gruppe zu beschleunigen.
Tesseract
2019-01-22, 00:55:09
ACEs sind Compute Units. Wer lesen kann ist im Vorteil ^^
"Each ACE can parse incoming commands and dispatch work to the GPU’s processing
units."
aus dem paper das du gerade verlinkt hast.
Eine bessere Shader-Auslastung resultiert in besserer Rechenleistung - worin denn sonst?
mehr queues garantieren keine bessere shaderauslastung, sie helfen höchstens dabei. diese wortspielereien ändern aber nichts daran, dass die ACE nichts selbst berechnen sondern die arbeit aufteilen. am ende laufen die shader von der graphics queue und der compute code der ACE trotzdem auf den selben cores.
BoMbY
2019-01-22, 01:18:06
Gerade noch gefunden zu ACEs:
https://i.imgur.com/jzbU2UB.png
https://i.imgur.com/AXcqKLZ.png
Vielleicht hilft es ja weiter. Gerade zu Müde für mehr.
BoMbY
2019-01-24, 22:04:45
Bei z.B. XFX gibt es im Moment praktisch die vollen Specs von Radeon VII:
http://www.xfxforce.com/en-us/products/amd-radeon-vii/amd-radeon-vii-16gb-3xdp-hdmi-triple-fan-rx-vegma3fd6
Linmoum
2019-01-24, 22:07:18
Bei Sapphire auch
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11908363#post11908363
horn 12
2019-01-24, 23:28:39
Link bei XFX wurde entfernt!
SKYNET
2019-01-25, 10:15:59
kommt jetzt ne leere seite X-D
http://www.xfxforce.com/en-us/products/amd-radeon-vii#*
Zergra
2019-01-25, 16:48:16
kommt jetzt ne leere seite X-D
http://www.xfxforce.com/en-us/products/amd-radeon-vii#*
Der geht doch wieder der link...
http://www.xfxforce.com/en-us/products/amd-radeon-vii/amd-radeon-vii-16gb-3xdp-hdmi-triple-fan-rx-vegma3fd6
Cyphermaster
2019-01-28, 13:05:00
Endet jetzt auch auf einem 404, Sapphire-Daten sind noch online.
BoMbY
2019-02-04, 18:56:43
Sieht so aus als würde bei Radeon VII tatsächlich standardmäßig ein komprimierbares Graphite Thermal Pad anstatt Wärmeleitpaste genutzt:
https://www.youtube.com/watch?v=0b9_c4oJRTE
Edit: Scheinbar ein Hitachi HM03: http://www.hitachi-chem.co.jp/english/products/cc/026.html
Dural
2019-02-04, 19:28:13
Hmm also freiwillig wird man das nicht verwenden.
Das ding wird bei 1,8ghz wohl eher schon in die 350w richtung gehen. Oder es gibt temp probleme mit dem speicher.
BoMbY
2019-02-04, 20:13:23
Wie in dem Video schon erwähnt würde es auf jeden Fall gut Unebenheiten ausgleichen, falls immer noch Packages ohne Füllung/Abschleifen gekauft werden wie bei Vega10.
Blediator16
2019-02-04, 20:14:40
Ryzen wird verlötet und VII bekommt halt ein Graphidpad. Qualität ist halt keine Selbstverständlichkeit bei den Marktführern.
Dural
2019-02-05, 00:00:36
Ryzen wird verlötet und VII bekommt halt ein Graphidpad. Qualität ist halt keine Selbstverständlichkeit bei den Marktführern.
Wenn man 100w weniger aus der steckdose zieht braucht man das nicht, da gebe ich dir recht mit der qualität.
Screemer
2019-02-05, 00:13:26
Man Stelle sich vor NV hätte Graphenpads auf den rtx-Karten. Dann wäre das der bigshit des Jahrzehnts, denn endlich nutzt jemand etwas besseres als Wärmeleitpaste im gpu-bereich. Tut das amd sind sie nur zu dumm sparsame Karten zu bauen :ugly:
SKYNET
2019-02-05, 00:46:26
Wenn man 100w weniger aus der steckdose zieht braucht man das nicht, da gebe ich dir recht mit der qualität.
65W sind weit weg von 100W.... und ca. 15W kannst grad abziehen die die 8GB mehr speicher fressen ggü. 8gb der 2080FE... bleiben 50W unterschied... uhhh macht den kohl total fett.
und nur weil AMD im gegensatz zu NV, nicht nur den billigsten dreck auf die FE karten packt(kühler selber, kühler cover, billigste wärmeleitpaste und pads), und ziemlich sicher auch ne bessere qualitätskontrolle hat, isses natürlich automatisch wegen dem verbrauch... :ulol:
willst nicht wieder schnell unter deine brücke kriechen und mit den anderen grünen trollen spielen? :upara:
robbitop
2019-02-05, 00:52:18
AMDs Problem was TDP angeht ist seit Generationen, dass sie ungünstige Betriebspunkte fahren müssen, um mit dem Wettbewerbsprodukt mithalten zu können. In einem anständigen Betriebspunkt ist Perf/W relativ anständig. IMO braucht man etwas mehr Leistung pro Transistor pro Takt um das nicht mehr machen zu müssen. Seit Maxwell ist NV da kontinuierlich besser.
Ggf wird Navi und spätestes Arcturus hier nochmal etwas aufholen.
SKYNET
2019-02-05, 01:07:16
AMDs Problem was TDP angeht ist seit Generationen, dass sie ungünstige Betriebspunkte fahren müssen, um mit dem Wettbewerbsprodukt mithalten zu können. In einem anständigen Betriebspunkt ist Perf/W relativ anständig. IMO braucht man etwas mehr Leistung pro Transistor pro Takt um das nicht mehr machen zu müssen. Seit Maxwell ist NV da kontinuierlich besser.
Ggf wird Navi und spätestes Arcturus hier nochmal etwas aufholen.
also meine RX580 läuft auf 1366/4600 @ 1.025V, das schlägt sich in maximal 60°c. nieder bei 50% lüfter und nur 130-140W verbrauch(= wie 1060 cutoms) bei aktuellen games(max out) und ich habe noch nicht weiter runter getestet... ich glaube AMD fehlt einfach das geld die chips zu testen nach unten hin, darum werden sie mit ner standardspannung ausgeliefert und fertig...
weil auch eigentlich jede vega lässt sich um min. 50W im verbrauch reduzieren und zeitgleich den takt erhöhen... wenn man den standardtakt nicht anfässt sinds meist um die 75W die man einsparen kann ohne das es probleme gibt...
TheAntitheist
2019-02-05, 03:37:48
also meine RX580 läuft auf 1366/4600 @ 1.025V, das schlägt sich in maximal 60°c. nieder bei 50% lüfter und nur 130-140W verbrauch(= wie 1060 cutoms) bei aktuellen games(max out) und ich habe noch nicht weiter runter getestet... ich glaube AMD fehlt einfach das geld die chips zu testen nach unten hin, darum werden sie mit ner standardspannung ausgeliefert und fertig...
weil auch eigentlich jede vega lässt sich um min. 50W im verbrauch reduzieren und zeitgleich den takt erhöhen... wenn man den standardtakt nicht anfässt sinds meist um die 75W die man einsparen kann ohne das es probleme gibt...
also sagst du im Prinzip das AMD zu blöd ist das auch zu machen? das bezweifel ich aber GANZ stark. Es wird eben nicht bei dem Großteil gehen.
dargo
2019-02-05, 06:03:11
Wenn man 100w weniger aus der steckdose zieht braucht man das nicht, da gebe ich dir recht mit der qualität.
Einfachste Physik ist dir wohl fremd gell? AMD führt hier ~220W über 331mm² ab (ok, den HBM2 müsste man davon abziehen). NV hat aktuell bei der 2080TI mehr als doppelt so viel Fläche zur Verfügung um die Wärme abzuführen.
Complicated
2019-02-05, 07:24:22
Man darf gespannt sein wie viel Mehrkosten auf Nvidias 7nm GPUs für die Kühllösung anfallen. Kleinere Chips wird auch Nvidia bauen müssen wenn die Kosten im Rahmen bleiben sollen.
Dural
2019-02-05, 09:50:12
Einfachste Physik ist dir wohl fremd gell? AMD führt hier ~220W über 331mm² ab (ok, den HBM2 müsste man davon abziehen). NV hat aktuell bei der 2080TI mehr als doppelt so viel Fläche zur Verfügung um die Wärme abzuführen.
Hmm also freiwillig wird man das nicht verwenden.
:rolleyes:
SKYNET
2019-02-05, 10:16:16
also sagst du im Prinzip das AMD zu blöd ist das auch zu machen? das bezweifel ich aber GANZ stark. Es wird eben nicht bei dem Großteil gehen.
ich glaube AMD fehlt einfach das geld die chips zu testen nach unten hin, darum werden sie mit ner standardspannung ausgeliefert und fertig...
:rolleyes:
BoMbY
2019-02-07, 15:23:09
Laut PCGH sind es effektiv doch sogar 1/4 DP bei Vega20: http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/galerie/2972810/
Reaping_Ant
2019-02-08, 16:35:29
Laut PCGH sind es effektiv doch sogar 1/4 DP bei Vega20: http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/galerie/2972810/
DAS ist mal interessant! Ist immerhin mehr als das doppelte der Ur-Titan. Das macht die Karte für eine Workstation sogar ziemlich preiswert...
oldgamer
2019-02-08, 16:58:13
Das macht die Karte für eine Workstation sogar ziemlich preiswert...
Wenn du DP ohne ECC-RAM für deine Anwendungen auf der Workstation brauchst und die Anwendungen auch guten Support haben, dann ist sie sicher ideal. Nicht vergessen, die Karte ist eine Gaming-Karte mit entsprechendem Treiber.
Bei mir in der Arbeit stehen unzählige Workstations herum, aber keine einzige ist auf DP angewiesen, EEC-VRAM hat jedoch schon 1 Gerät. (sehr lange Berechnungszeiten)
Was ich damit sagen will: Es gibt nicht die Eine Workstationkarte, die GPU wählt man dort nach Anwendung. Bei uns steht auch reine CPU-Workstation, die hat nur eine GPU verbaut weil die CPU eben keine iGPU hat
Ja, und wenn das so wichtig waere, gaebe es die Karte auch als Radeon Pro (statt instinct) mit 1/2.
Dass ueberhaupt erst im dritten Flaggschiff nach Hawaii mal wieder hohe DP Leistung dabei ist, und es trotzdem keine Workstation Karte gibt, sagt eigentlich alles. Da verkauft AMD halt nichts.
Das ist sicherlich nicht korrekt. Das Ding wird PCIe4 mitbringen und DP auf 1:8 beschneiden.
und es wurden PCIe3 und 1:4:rolleyes:
BoMbY
2019-02-11, 16:59:30
Mit dem PCIe 3.0 bin ich mir auch noch nicht ganz sicher, kann man nur noch nicht wirklich testen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.