PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 [61] 62

Godmode
2021-04-28, 11:59:06
was ist da transparent... sagst einfach "ich habe summe xxxxx mit mining erwirtschaftet" versteuerst das und schon hast die drogenkohle gewaschen.

drogenhandel selber gebe ich dir aber recht, da wird weiterhin mit harter währung gezahlt werden.

Wenn der Ertrag aus Mining stammt, sieht man das in der Blockchain. Da du im Falle einer Prüfung deine Wallets offenlegen musst, funktioniert das so nicht.

FastAndy
2021-04-28, 14:26:27
Nein, da die Hauptkäufer nicht Gamer sondern Miner sind. Vergiss diese Generation einfach, und bete das sich die Situation in 2 Jahren wieder normalisiert hat, sonst kannst du Gaming eh begraben, es sei denn du bist Rockefeller.

Die Preise sind so hoch weil die Karten einfach gekauft werden, vielen Leuten das Geld wert sind. Dir halt nicht, aber du kannst da nicht auf alle schließen. Du musst halt in die Tasche greifen und zahlen oder es eben lassen. Schmollen und seinen Frust in Foren ablassen bringt hier nichts.
PS: Keine Ahnung wo du deine Infos her hast, aber Gaming boomt mehr denn je....

Troyan
2021-04-28, 16:55:32
Laut Videocardz wird nVidia neue, alte Ampere-Karten mit den Hash-Limiter einführen: https://videocardz.com/newz/nvidia-geforce-rtx-30-lite-hash-rate-series-to-begin-shipping-mid-may

unl34shed
2021-04-28, 17:04:27
Als ob das diesmal klappen wird...

Wex
2021-04-28, 18:34:51
Die Transaktionsgebühren bei Eth sind seit dem letzten Update deutlich gesunken, womit die Mining Gewinne nur noch ca 50-60% betragen.

Es ist weiterhin geplant das Mining in Q4 komplett zu beenden.

Cheer up, Gamers, cheer up !

Rampage 2
2021-04-28, 18:50:50
Und nein, für Drogengeschäfte, etc. nimmt man sicher keine Cryptos, da dies viel zu transparent ist.

Hä? Ich habe zwar noch nie online Drogen bestellt, aber in den ganzen Darknet-Märkten wird doch mit Kryptowährung bezahlt, um eben dies zu vermeiden? (also um die Identität des Käufers und des Verkäufers zu verschleiern)

:|

R2

Leonidas
2021-04-29, 11:10:38
Gerüchteküche: nVidias NextGen kommt später als erwartet, Ampere muß wohl bis Ende 2022 durchhalten
https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch

Slipknot79
2021-04-29, 12:07:12
Gut so, genug Zeit also, dass die Preise wieder spürbar unter UVP dropen bzw die nächste Generation dann von normalen Preisen (ca. 10% unter UVP) betroffen sein wird. (y)
Dafür aber auch längere Zeit in der man zittern muss, dass die aktuelle Turing nicht abraucht. :redface:

aufkrawall
2021-04-29, 12:13:02
Wer hat denn überhaupt kaufbare Produkte mit einem substanziellen Update wie einer neuen Arch früher als zwei Jahre nach Ampere erwartet? :freak:

HOT
2021-04-29, 12:46:28
Die meisten dürften den 2-Jahres-Zyklus erwartet haben.

Und ich find die News wieder mal viel zu optimistisch, denn niemand, niemand und erst recht nicht NV erwartet oder plant einen Ampere-Nachfolger für Ende 21, das war von vornherein Blödsinn. Wenn jetzt von (starken) Verzögerungen die Rede ist, geht das mit an Sicherheit grenzender Wahrscheinlichkeit in 23 rein.

Thunder99
2021-04-29, 13:17:28
Eventuell macht Nvidia auch ein dann ein Refresh und nennt jede GPU ab 3070 dann mit 30x5. Dann hätte jedes Modell den doppelten Speicher :freak:

BUG
2021-04-29, 13:19:45
Gab es da nicht kürzlich erst dieses Bild von nVidia inkl. Zeitstrahl mit Ampere, "Ampere Next" und "Ampere Next Next", ich meine da stand für "Ampere Next" auch schon 2022 drauf.

Gruß
BUG

Leonidas
2021-04-29, 13:45:53
Ja, aber es wurde dort nicht aufgetrennt zwischen HPC und Gaming. Die News bezog sich aber nur auf Gaming. Was bedeutet: 2023 kann durchaus möglich sein.

Dural
2021-04-29, 14:38:58
Ist doch schon seit zig jahren so das alle ca. 2 jahren eine neue gpu kommt.

Und NV muss diesmal ja nicht mal auf eine neu fertigung warten, eine bessere fertigung ist ja schon vorhanden. Wo soll eine verspätung herkommen? Dazu Ampere Next von NV für 2022 ja gerade vor kurzem bestätigt wurde,

Zossel
2021-04-29, 18:35:00
Ich habe zwar noch nie online Drogen bestellt

Vorsicht mit überspezifischen Dementis :-)

MiamiNice
2021-04-29, 18:54:20
Hä? Ich habe zwar noch nie online Drogen bestellt, aber in den ganzen Darknet-Märkten wird doch mit Kryptowährung bezahlt, um eben dies zu vermeiden? (also um die Identität des Käufers und des Verkäufers zu verschleiern)

:|

R2

1. Solltest Du das tun, falls Du nicht selbst growst oder einen kennst. Die Qualität ist online deutlich besser als auf der Straße oder auch in Holland.

2. Zahlt man schon mit Kryptos in diesen Märkten, mixt die aber vorher durch. Mach Dich mal über Bitcoin Mixer schlau.

3. Es gibt kaum ein härter Personenbezogenes Geldmittel als Kryptos. Wenn Dir das bisher nicht geläufig war -> Wissen auffrischen.

4. Die Anonymität in diesen Märkten kommt daher weil der Plattformbetreiber (sind Plattformen wie Ebay) den Realnamen der User nicht kennen. Weder der Verkäufer, noch der Käufer. Und diese auch nicht rausfinden können - zumindest wenn Du Deinen Job anständig machst. Das includiert auch die Blauen, falls der Server hoch genommen wird.

5. Solltest Du so etwas jemals benutzen, bleib mit Deinen Geschäften in Deutschland. Stichwort Zoll.

dildo4u
2021-06-01, 07:33:15
3080 Ti "1299$" 3070 TI "599$"

https://videocardz.com/newz/nvidia-announces-geforce-rtx-3080-ti-at-1199-usd-and-rtx-3070-ti-at-599-usd

ShinyMcShine
2021-06-01, 08:23:37
3080 Ti "1299$" 3070 TI "599$"

https://videocardz.com/newz/nvidia-announces-geforce-rtx-3080-ti-at-1199-usd-and-rtx-3070-ti-at-599-usd

Ja, gerade im Livestream der Keynote gesehen... Mal schauen, was von den Preisen übrig bleibt...

Viel wichtiger war für mich die Ankündigung, dass DLSS endlich für VR kommt!

Dorn
2021-06-01, 08:24:50
3080 Ti "1299$" 3070 TI "599$"

https://videocardz.com/newz/nvidia-announces-geforce-rtx-3080-ti-at-1199-usd-and-rtx-3070-ti-at-599-usd
Plus Steuer.

Das jetzt eine 3070 TI 290 Watt säuft ist langsam lächerlich. Also Energie Effizienz ist jetzt absolut bei nvidia mit Ampere gestorben. Dazu noch 8 GB Ram...;D Aber das Teil wird sofort ausverkauft sein...

Loeschzwerg
2021-06-01, 08:33:21
Der MSRP für die 3080Ti ist leider viel zu hoch... Da kann man auch gleich auf die 3090 gehen. Aber spielt auch keine Rolle, ist eh nix verfügbar zu normalen Preisen ^^

Fragman
2021-06-01, 08:37:38
Naja, nv nimmt halt die gehobenen Preise mit, war zu erwarten.
Die haetten auch 1499 drauf schreiben koennen oder 799, macht keinen Unterschied.

mironicus
2021-06-01, 09:09:46
5iJoSUdAXYE :freak:

Troyan
2021-06-01, 10:15:08
Plus Steuer.

Das jetzt eine 3070 TI 290 Watt säuft ist langsam lächerlich. Also Energie Effizienz ist jetzt absolut bei nvidia mit Ampere gestorben. Dazu noch 8 GB Ram...;D Aber das Teil wird sofort ausverkauft sein...

GDDR6X saugt wie nichts. Die Karte hat 35% mehr Bandbreite bei nur knapp 10% mehr Rechenleistung gegenüber der 3070. Wird interessant sein, wieviel schneller die sein wird.

Dural
2021-06-01, 10:50:06
GDDR6X ist einfach schrott.

Die Karte ist mit 8GB eh ein Witz, da wäre eine 16GB GDDR6 deutlich sinnvoller gewesen.

Thunder99
2021-06-01, 11:15:34
GDDR6X saugt wie nichts. Die Karte hat 35% mehr Bandbreite bei nur knapp 10% mehr Rechenleistung gegenüber der 3070. Wird interessant sein, wieviel schneller die sein wird.
Woher kommt dann der massive Mehrverbrauch her?

dildo4u
2021-06-01, 11:24:47
Hat er doch geschrieben der schnellere Ram saugt den Strom.

Hakim
2021-06-01, 13:03:07
Oh man die 3080 würde wohl mit GDDR6 ca ~240-250Watt haben. Hört sich nicht positiv an für 6X

aufkrawall
2021-06-01, 14:03:40
Wird spannend für Hopper. 512 Bit frisst, höherer GDDR6X-Takt würde auch fressen (sofern überhaupt derzeit möglich?). AMD steht mit 256 Bit + IC (+flexible Lösungen im Chiplet-Design?) quasi sorgenlos im Vergleich da und könnte selbst ohne Architekturänderung mit 5nm die Leistung weiter skalieren. :freak:

Die 8GB der 3070 Ti sind für den Preis natürlich schon bösartige Kundenverachtung...

gnomi
2021-06-01, 14:53:06
Verkaufen wird sich eh weiterhin alles.
Die nächste Generation Ende 2022 könnte ausgeglichener werden, nachdem AMD jetzt in die Nähe kam.
Hochpreisig wird es denke ich bleiben.
High End Karten für 500-700 Euro dürfte schwierig werden. :(

Hakim
2021-06-01, 15:03:30
Geht eigentlich der Verbrauch bei 6X deutlich runter wenn man den Takt etwas senkt?

Wuge
2021-06-01, 16:49:26
Also ich hab den Takt auf 22 Gbps hoch und der Verbrauch ist nicht expoldiert. Es skaliert teilweise auch echt gut... Also was juckt der Verbrauch, wenn es dafür auch spürbar mehr performance gibt!

BlacKi
2021-06-01, 17:01:05
Geht eigentlich der Verbrauch bei 6X deutlich runter wenn man den Takt etwas senkt?
ja, es hilft. aber es hilft nicht gegen die peaks vom chip. je nach spiel spart man 30w.

Asaraki
2021-06-01, 17:02:07
ja, es hilft. aber es hilft nicht gegen die peaks vom chip. je nach spiel spart man 30w.

ich spiel eigentlich das meiste mit max underclocking auf dem ram der 3080, reicht eben eh die bandbreite ^^

Rampage 2
2021-06-01, 18:22:01
3080 Ti "1299$" 3070 TI "599$"

https://videocardz.com/newz/nvidia-announces-geforce-rtx-3080-ti-at-1199-usd-and-rtx-3070-ti-at-599-usd

Altaaaaaaaa!!!!!11elf

Also dass Nvidia unverschämt ist wissen wir ja mittlerweile zur Genüge, aber 500$ Aufpreis für eine Karte, die nur 2GB mehr VRAM und 10% mehr Leistung ggü. einer 3080 hat... dieses Ausmaß an Frechheit erzeugt schon fast BrechreizX-(

Ist denn wenigstens gesichert, dass es von der 3070 Ti keine 16GB-Variante geben wird, oder steht das noch in den Sternen?

R2

Edit: Übrigens kostet die 3080 Ti "nur" 1199$, also 100$ weniger, aber das ändert an der Sache natürlich nichts...:facepalm:

BlacKi
2021-06-01, 18:45:26
ich spiel eigentlich das meiste mit max underclocking auf dem ram der 3080, reicht eben eh die bandbreite ^^


ich hab nochmal in pubg stock mem clock vs max underclocked also -502 getestet. vl 1 fps verlust und 7w weniger verbrauch. dx11 halt.



die -30w kann der niedriger memory takt hauptsächlich in dx12 titeln ausspielen. muss division 2 gewesen sein mit den -30w. teste ich gleich noch mal. aber ich muss erst noch was anderes erörtern.

Thunder99
2021-06-01, 20:01:40
Der IMC wird wohl auch seinen Anteil haben, oder der Chip säuft generell mehr, egal welchen Takt.

Troyan
2021-06-01, 20:04:52
Die GA102 Quadro-Karte liegt bei 300W als Vollausbau und mit 16gbit/s GDDR6. Man kann also von knapp 50W ausgehen, die die höhere Bandbreite sowie GDDR6X an sich mehr benötigen.

ChaosTM
2021-06-01, 20:13:47
Hat die 2080ti nicht 1300 gekostet beim Launch ? 1200 isja richtig günstig. ;)

verlesen.. sind eh 1300

Troyan
2021-06-01, 20:15:12
$999 als AIB und $1199 als Founders Edition.

Shaft
2021-06-01, 20:53:00
TDP ist schon heftig für die kleine Karte, da hat sich die erledigt für mich.

Mir wäre, wie vielen auch, mehr RAM auch lieber gewesen.

Der Aufpreis der 3080 TI, ob der Gerechtfertigt ist bezweifle ich mal stark.

Aber Wurscht, man kann ja eh keine GPUs derzeit kaufen, seien sie nicht verfügbar oder sprengen Preislich die Skala.

eratte
2021-06-01, 22:34:45
Shameless Money Grab: Nvidia Launches 3080 Ti and 3070 Ti at High Prices

https://www.youtube.com/watch?v=cUHiBRdevDQ

FastAndy
2021-06-01, 22:41:46
Ja im Geld verdienen ist NV wirklich schlecht. Echt hart unsozial, das sie die karten nicht verschenken.:rolleyes:

Linmoum
2021-06-01, 22:43:05
Das lächerliche daran ist viel eher, dass sie in einem gelisteten Gewinnspiel den MSRP der 3080Ti dort zuerst mit $999 angegeben hatten, bevor dieser dann nach der offiziellen Präsentation auf $1199 angepasst wurde.

Für den Markt an sich sind UVPs aktuell zwar quasi irrelevant, aber es gibt ja auch hier und da mal 'ne FE bei NBB.

Von "Flagship" sprechen und dann bei $1199 nur lächerliche 12GiB zu bringen ist auch an groteskem Realitätsverlust nicht zu überbieten.

ChaosTM
2021-06-01, 22:51:44
Sie wissen ganz genau, dass man ihnen momentan alles abkauft, egal wie kastriert die Dinger eigentlich sind. Ein beträchtlicher Teil der Karten wird sowieso wieder vorab an Mining Companies gehen. "Bremse" hin oder her..

FastAndy
2021-06-01, 22:54:56
Keiner braucht mehr als 12gb, außer ein paar freaks. Wird halt gerne total übertrieben in foren.

Linmoum
2021-06-01, 23:03:14
Eine 3080Ti ist keine 60Hz FHD GPU.

Aber klar. Eine $1199 GPU, die vom Hersteller mit genauso viel Speicher ausgestattet wird, wie eine $329 GPU, ist geil. So geil, dass man gerne für eine solche Produktpolitik einen Premiumpreis bezahlt bzw. sich ein echtes High-End-Produkt kauft, um sich dann mit Midrange-Ausstattung abfrühstücken zu lassen. Gibt traurigerweise tatsächlich genug, die so denken und sich vor allem solche Dinge gefallen lassen.

TheAntitheist
2021-06-02, 00:02:03
Sie wissen ganz genau, dass man ihnen momentan alles abkauft, egal wie kastriert die Dinger eigentlich sind. Ein beträchtlicher Teil der Karten wird sowieso wieder vorab an Mining Companies gehen. "Bremse" hin oder her..
was heißt hier kastriert, es wären ja sonst nur noch 20gb mit weniger bandbreite oder 24gb gegangen, dafür gibts aber schon eine 3090.

ich finde die 12GB okay aber den Preis nicht, und das sage ich als 3090 besitzer. 1000 wäre okayish
und was du da mit dem Mining behauptest zeugt auch von Unkenntnis hoch 10...

Dural
2021-06-02, 11:56:53
Die 12GB sind OK :rolleyes:

Viel schlimmer finde ich da die 8GB der 3070Ti.

ChaosTM
2021-06-02, 12:25:31
was heißt hier kastriert, es wären ja sonst nur noch 20gb mit weniger bandbreite oder 24gb gegangen, dafür gibts aber schon eine 3090.

ich finde die 12GB okay aber den Preis nicht, und das sage ich als 3090 besitzer. 1000 wäre okayish
und was du da mit dem Mining behauptest zeugt auch von Unkenntnis hoch 10...


NV verkaufte (angeblich?) vor dem Launch der Ampere Generation GPU`s im großen Stil an Mining Firmen (https://wccftech.com/nvidia-allegedly-sold-175-million-worth-ampere-geforce-rtx-30-gpus-to-miners/).
Wenn die genug bieten wird auch geliefert. Freier Markt und so. ..Wurde natürlich später geleugnet.

Kastriert war überzogen, der Preis ist es auch. Ich persönlich würde heute keine Karte mehr mit nur 12GB kaufen, da diese wieder 3-4 Jahre halten sollte. Daher bleibt momentan nur BigN oder 3090er über. Ich hab halt auf 20 gehofft.

Rampage 2
2021-06-02, 12:44:43
Viel schlimmer finde ich da die 8GB der 3070Ti.

Deswegen nochmal die Frage bzgl. des Speicherausbaus:


Ist denn wenigstens gesichert, dass es von der 3070 Ti keine 16GB-Variante geben wird, oder steht das noch in den Sternen?

R2

dildo4u
2021-06-02, 12:51:56
Die zieht doch so schon 300 Watt, ich vermute mal das die für die 3070 gebauten PCB da schon am Limit laufen.
16GB machen Sinn wenn es endlich deutlich effinzenteren Ram gibt,AMD hat den one Die Cache nicht umsonst verbaut damit konnte sie sich GDDR6X sparen.

rentex
2021-06-02, 12:53:43
Meckert nicht rum und kauft dann halt AMD.

FastAndy
2021-06-02, 13:03:59
Meckert nicht rum und kauft dann halt AMD.

Sehe ich auch so, verstehe nicht was das auch bringen soll.
Es wird so viel gemeckert, ich hab schon seit launch mehrere Karten und nutze/genieße sie einfach. Das ganze Gemoser kann ich echt nicht nachvollziehen, klingt für mich mehr nach Frust / Unzufriedenheit.

@Rampage 2
Stellst du eigentlich absichtlich so viele (seltsame?!) Fragen? Weiß nicht ob es mir nur so geht, aber deine Beiträge wirklich hier irgendwie oft sehr eigenartig auf mich.

dildo4u
2021-06-02, 13:05:36
Meckert nicht rum und kauft dann halt AMD.
Warum? 6700XT sind bei 900€ und kaum besser als die Konsolen es ist hier wie da ein Witz.

Platos
2021-06-02, 13:07:43
Dann kauft eben Konsolen...

Ach ja, das geht ja gar nicht... scheiss Marktknappheit :D

Rampage 2
2021-06-02, 15:07:24
@Rampage 2

Stellst du eigentlich absichtlich so viele (seltsame?!) Fragen? Weiß nicht ob es mir nur so geht, aber deine Beiträge wirklich hier irgendwie oft sehr eigenartig auf mich.

Was soll an der Frage so seltsam sein!? Noch vor ein paar Monaten stand im Raum, dass es die 3070 Ti auch als 16GB-Variante geben könnte (es gab Berichte und Newsmeldungen dazu), dann wieder das Gerücht, dass es doch nur 8GB geben soll - ich habe dazu aber noch nichts Finales (also Endgültiges) gelesen; die 16GB sind noch nicht ganz ausgeschlossen. Falls doch, dann bitte eine Bestätigung! (wenn möglich, bitte Quelle angeben)

R2

Fragman
2021-06-02, 15:15:45
Warum sollte nv so eine 16GB Karte bringen?
Der Markt verlangt nicht danach, im Gegenteil, der nimmt alles ab 6GB. Man kann so 2 Karten verkaufen statt nur einer. Bedenkt man die Knappheit der Karten bzw wie schnell die weggehen, ist das eigentlich, aus einer halb bekloppten Sicht, sogar besser fuer diese Kundengruppe.

Rampage 2
2021-06-02, 16:04:03
Warum sollte nv so eine 16GB Karte bringen?
Der Markt verlangt nicht danach, im Gegenteil, der nimmt alles ab 6GB. Man kann so 2 Karten verkaufen statt nur einer. Bedenkt man die Knappheit der Karten bzw wie schnell die weggehen, ist das eigentlich, aus einer halb bekloppten Sicht, sogar besser fuer diese Kundengruppe.

16GB sind zu viel für 1440p (aber nur ein bisschen), aber 8GB sind zu wenig. 10GB sind immer noch zu wenig. 12GB sind gut (für 1440p). Doch leider erlaubt die Speicheranbindung nur 8 oder gleich 16GB Bestückung - Nvidia hat keine 1,5Gbit-Speicherchips zur Verfügung, daher keine 12GB 3070 Ti. Da die 3070 Ti aber eine hervorragende 1440p-Karte sein wird, sind 8GB zu wenig - also dann halt noch eine 16GB-Variante mit 100-200$ Aufpreis. Die 3080 Ti ist viel zu teuer... (und für 1440p etwas übertrieben)

R2

Fragman
2021-06-02, 16:13:08
16GB sind zu viel für 1440p (aber nur ein bisschen), aber 8GB sind zu wenig. 10GB sind immer noch zu wenig. 12GB sind gut (für 1440p). Doch leider erlaubt die Speicheranbindung nur 8 oder gleich 16GB Bestückung - Nvidia hat keine 1,5Gbit-Speicherchips zur Verfügung, daher keine 12GB 3070 Ti. Da die 3070 Ti aber eine hervorragende 1440p-Karte sein wird, sind 8GB zu wenig - also dann halt noch eine 16GB-Variante mit 100-200$ Aufpreis. Die 3080 Ti ist viel zu teuer... (und für 1440p etwas übertrieben)

R2

Ja, waere die Ti nicht so teuer, wuerde ich versuchen an der Lotterie morgen teilzunehmen.
12 waeren noch ok fuer mich, 8 zu wenig, vor allem bei den aktuellen Preisen.

Schnoesel
2021-06-02, 16:42:56
Meckert nicht rum und kauft dann halt AMD.

Wird auch passieren wenn sich Nvidia in Zukunft so anstellt. Ich bin zum Glück nicht markengebunden.

Dural
2021-06-02, 18:01:15
Ja bei AMD bekommt man ja so viel fürs Geld: Ein 256Bit GDDR6 SI, RT ist ein Witz, DLSS... :rolleyes:

Aktuell führt für einen High-End User kein Weg an einer 3090 vorbei, genau so sieht es aus und nicht anders.

Sieht man übrigens auch an den Preisen, es wird ja praktisch alles für eine NV Karte bezahlt.

AffenJack
2021-06-02, 19:52:43
Ja bei AMD bekommt man ja so viel fürs Geld: Ein 256Bit GDDR6 SI, RT ist ein Witz, DLSS... :rolleyes:

Aktuell führt für einen High-End User kein Weg an einer 3090 vorbei, genau so sieht es aus und nicht anders.

Sieht man übrigens auch an den Preisen, es wird ja praktisch alles für eine NV Karte bezahlt.

Nur muss man dafür viel zu viel blechen bei der 3090. Sowohl Nvidia, als auch AMD haben diese Gen Schwächen und Preise, die mich nur dazu bringen diese Gen komplett zu überspringen. Schlimm, dass man mittlerweile auf Intels Grafikkarten hoffen muss.

Thunder99
2021-06-02, 20:00:36
Es ist nicht gesagt, dass sie mehr Komponenten ergattern können als der Rest der Welt für die Produkte. Es muss sich generell entspannen, dann haben wir wieder bessere Preise.

Diese Generation kann man echt getrost auslassen, sofern man KEIN RT braucht oder haben möchte. Einmal mehr bin ich froh um meine 1080TI die noch gut Reserven hat :)

FastAndy
2021-06-03, 13:09:37
Was soll an der Frage so seltsam sein!? Noch vor ein paar Monaten stand im Raum, dass es die 3070 Ti auch als 16GB-Variante geben könnte

wenn du bei allen sachen so viel fragst, recherchirest und grübelst, dann frag ich mich wie du im leben vorankommst. ich glaube ich würde da noch bei mami wohnen

Leonidas
2021-06-08, 14:57:30
Chinesische Video-Reviews zur GeForce RTX 3070 Ti:
https://www.youtube.com/watch?v=KvHsWT_VJaI
https://www.youtube.com/watch?v=N7GXY21XoSs

Informationsgehalt bezüglich exakter Performance-Einordnung ist allerdings gering, dafür reicht die angesetzte Benchmark-Durchführung (lange) nicht aus.

Dural
2021-06-10, 09:19:08
Unglaublich wie schlecht GDDR6X wirklich ist, erst jetzt sieht man das ja im direkten Vergleich mit 3070 / 3070Ti.

Die 3070Ti GPU taktet laut cb.de sogar etwas geringer als die 3070 hat aber trotzdem 70W mehr verbraucht, die paar Einheiten mehr werden da kaum einen grossen Einfluss haben.

Was ich aber nicht verstehe, wie so um alles in der Welt setzt NV auf GDDR6X!?! Man sieht ja auch eindeutig das die GPUs die Bandbreite offensichtlich gar nicht benötigen.

Raff
2021-06-10, 09:26:08
Kann ich übrigens nicht bestätigen, die Ti taktet hier immer gleich hoch (außerhalb des Powerlimits, das sind dann knapp 1,9 GHz) oder bis zu 100 MHz höher (hartes Powerlimit).

Der G6X ist bei diesem Modell zwingend nötig, um zumindest phasenweise über 7-8 Prozent Mehrleistung ggü. der 3070 herauszukommen. Die Alternative wäre gewesen, die Power dem Chip zu geben und ihn damit auszuquetschen (2 GHz im Mittel). Wenn ich so darüber nachdenke, wäre das wohl die bessere Idee gewesen, denn dann steigt die Leistung auch bei harten GPU-Limits, etwa Raytracing.

MfG
Raff

Dural
2021-06-10, 09:36:08
Ich finde es wäre klüger gewesen GDDR6 zu verbauen, und den mehr Verbrauch in die GPU zu investieren.

Die 5% hätte man auch so geholt.

dildo4u
2021-06-10, 09:39:04
Es macht vermutlich Sinn da sie so mher Karten ausliefern könnnen niemand anderes nutzt diesen Ram, damit kämpfen sie nicht mit AMD um die selben Kapazitäten.

Troyan
2021-06-10, 09:39:06
Die 3070 verwendet nur 14Gbit/s GDDR6, die Quadro-Karten nehmen die 16Gbit/s Chips. Das sind 14% mehr Bandbreite, was vollkommen ausreichend gewesen wäre für die 3070TI.

Raff
2021-06-10, 09:52:44
Die 3070 verwendet nur 14Gbit/s GDDR6, die Quadro-Karten nehmen die 16Gbit/s Chips. Das sind 14% mehr Bandbreite, was vollkommen ausreichend gewesen wäre für die 3070TI.

Yep, 16 GiB mit 16 GT/s wäre nicht nur effizienter, sondern vermutlich kaum langsamer (außerhalb des Kapazitätslimits) - und trotzdem wäre das Produkt damit eine Art "No-Brainer" geworden, der im Gegensatz zum real verfügbaren Konstrukt uneingeschränkt empfehlenswert wäre. Aber bei Nvidia denkt man offenbar etwas "BWL-iger": Weniger RAM bedeutet, dass man mehr Karten bestücken kann, und außerdem bleibt dann noch Platz für ein SUPER-Refresh am Ende des Jahres ...

MfG
Raff

Troyan
2021-06-10, 10:14:01
Mir geht es nicht um die Kapazität, sondern die Art des Speichers. Die Bandbreite ist 27% höher, die Rechenleistung nur maximal 10%.

HOT
2021-06-10, 10:27:16
NV wird ne gewisse Menge DDR6X abnehmen müssen, deshalb kommen solche Produkte zustande. Geplant war ja eine Doppelbestückung der 3080 auf den Markt zu bringen. Das klappte aber mMn deshalb nicht, weil der Verbrauch zu hoch ist dafür und auch diese Karte per Standard 350W hätte haben müssen. Also schob man die 12GB TI ein, die den Mehrverbrauch besser in Leistung umsetzt. So blieb man bei der einseitigen Bestückung und die übrigen Chips müssen jetzt anderweitig verwurstet werden.
Mir stellt sich angesichts diese Schrottproduktes 3070Ti (das Teil ist schlichtweg nicht empfehlenswert) die Frage, was aus dem GA103 geworden ist. Ist der klammheimlich zum 2. Mal kassiert worden?

rentex
2021-06-10, 12:50:05
https://www.techspot.com/news/90007-graphics-cards-could-get-even-more-expensive-following.html

Noch mehr Ärger im Grakabereich...

r3ptil3
2021-06-10, 12:58:47
https://www.techspot.com/news/90007-graphics-cards-could-get-even-more-expensive-following.html

Noch mehr Ärger im Grakabereich...

In dem Fall wird vom vermeintlichen fail des Jahres (3070 TI), heute Nachmittag die Chance des Jahres :freak:

Fragman
2021-06-10, 13:00:01
Der Preisanstieg geht doch im Rauschen unter.

fulgore1101
2021-06-24, 09:27:38
Denkt ihr, es kommt noch ein Refresh von Ampere oder wird Nvidia direkt übergehen zu Hopper? Und wann etwa ist mit Hopper zu rechnen?

HPVD
2021-06-24, 09:45:26
Denkt ihr, es kommt noch ein Refresh von Ampere oder wird Nvidia direkt übergehen zu Hopper? Und wann etwa ist mit Hopper zu rechnen?

Ob Refresh und wenn ja in welcher Form ist schwer zu sagen.
Genug Zeit wäre ja, da man wohl erst rund um den Jahreswechsel 22/23 was ganz neues sehen wird s. https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch

Wenn keiner kommt, wäre es für NV ganz schön lange ohne was zu verkünden zu haben.

Zu früh nur zu teasen, dass was großes kommen wird, geht eigentlich auch nicht, da man damit die aktuellen Verkäufe bremst...

Platos
2021-06-24, 10:48:49
Ich denke, es wird maximal sowas wie eine super Generation geben bzw. sowas wie AMD bei Polaris (500 Serie).

Vlt. bei manchen GPUs etwas andere Speicher estückung, aber ich denke nicht.

Ich glaubr nicht, dass da gross was kommt.

WedgeAntilles
2021-06-24, 13:00:41
Denkt ihr, es kommt noch ein Refresh von Ampere oder wird Nvidia direkt übergehen zu Hopper? Und wann etwa ist mit Hopper zu rechnen?

Ich bin da bei Platos - eine große Änderung bei Ampere sehe ich nicht.
Wozu auch, es wird alles verkauft was produziert wird. Und das Portfolio ist extrem dicht besetzt (3060, 3060TI, 3070, 3070TI, 3080, 3080TI, 3090 - das ist teilweise schon übertrieben).

Der Name für die Gamer-GraKas wird übrigens Lovelace sein, nicht Hopper.

Nvidia hat pi mal Daumen alle 2 Jahre eine neue Generation rausgebracht.
Damit wäre Lovelace dann September 2022 dran.
Aber das ist natürlich kein genaues Datum. Kann genauso gut auch August 2022 oder November 2022 sein.

HOT
2021-07-13, 21:04:02
Leos GA103S-News macht Lust aufs spekulieren :D.
Ich gehe mal von einem kompletten Super-Lineup als Refresh aus in 22. Es wird mMn dann auch 16Gb GDDR6X-Speicher verfügbar sein.

Damit ergäbe ich folgendes Lineup:

3090 Super -> volle 84CUs, 24GB GDDR6X (nur noch einfach bestückt), >350W
3080 Super -> 80 CUs, 20GB GDDR6X >20GT, 350W
3080 mit 20GB wird dann mMn ebenfalls nachgereicht
3070 Super -> 52 CUs, 16GB GDDR6X, 300W
3060 Super -> 44 CUs, 12GB GDDR6X, 230W
darunter wie gehabt ab 3060.

VooDoo7mx
2021-07-13, 21:08:22
Wie viele SM wird denn für einen vollen GA103 spekuliert?
Wäre der auch nicht mit nen 256Bit SI unterfüttert?

HOT
2021-07-13, 21:12:25
Du kannst dann ja auch 20GT-Speicher nehmen, nein hier ist nix unterfüttert. 60SMs hat der Chip, wohl 6x10 SMs. Das würde dem originalen GA103 entsprechen, nur das Speicherinterface ist nach unten korrigiert, was W freimacht und der Chip wird sicherlich auch besser zu produzieren sein. Ich würde da ne 52CU-Variante als Super-Desktop sehen und eine 60CU-Variante als Super-Mobil.

=Floi=
2021-07-14, 01:12:24
Dann hätte man die 3080 nicht ti genannt.

Volle chips wird man auch nicht mehr im consumer bereich sehen. Ich kann es sogar verstehen.

The_Invisible
2021-07-14, 06:32:31
Leos GA103S-News macht Lust aufs spekulieren :D.
Ich gehe mal von einem kompletten Super-Lineup als Refresh aus in 22. Es wird mMn dann auch 16Gb GDDR6X-Speicher verfügbar sein.

Damit ergäbe ich folgendes Lineup:

3090 Super -> volle 84CUs, 24GB GDDR6X (nur noch einfach bestückt), >350W
3080 Super -> 80 CUs, 20GB GDDR6X >20GT, 350W
3080 mit 20GB wird dann mMn ebenfalls nachgereicht
3070 Super -> 52 CUs, 16GB GDDR6X, 300W
3060 Super -> 44 CUs, 12GB GDDR6X, 230W
darunter wie gehabt ab 3060.

Wüsste nicht warum NV so "spendabel" sein sollte. Refreshes gab es meist ja nur um die Konkurrenz zu kontern (3080 Ti => 6900XT, 3070 Ti => 6800) und ein voller Chip würde dann wohl eine Titan werden, dann aber gleich mit 48GB. Das Portfolio ist jetzt schon sehr engmaschig ausgelegt.

Glaub eher da muss man auf die 40er Serie warten für größere Sprünge, lasse mich aber gerne überraschen :D

basix
2021-07-14, 08:47:54
Mit der momentanen Marktsituation erwarte ich auch nicht mehr Speicher, da gerade eh alles weggekauft wird. Aber bei der 3080 Super hätte ich im Falle eines Refreshs 20 GByte erwartet. Ist der grösste Kritikpunkt der 3080er.

Dennoch, ich kann mir einen Super Refresh fast nicht vorstellen. Es gibt schon zu viele 30xx SKUs, das verwirrt doch nur. Sollte man nicht eher auf 40xx gehen? Dann trägt man nicht die Altlasten der alten Gen mit ihrer kruden Speicheraufstellung mit und kann sagen: "Neue Generation, nicht vergleichbar"

So hätte ich mir das vorgestellt:
4090 = 24 GByte G6X, 84SM
4080 (Ti) = 20 GByte G6X, 80SM
4070 Ti = 16 GByte G6X, 60SM
4070 = 14 GByte G6X, 52SM
4060 Ti = 12 GByte G6 (1.5 GByte Module!), 48SM
4060 = 12 GByte G6 (1.5 GByte Module!), 40SM
4050 Ti = 9 GByte G6 (1.5 GByte Module!), 30SM
4050 = 6 GByte G6, 28SM

Das wäre ein recht ausgewogenes Portfolio und beisst sich nicht mit bereits bestehenden Produkten mit fast gleicher Modellnummer. Evtl. mit Respin von GA102, damit der Speichercontroller nicht so viel säuft und einen Ticken mehr Takt geht. Dann sollten 10-20% gegebüber der 30er Serie drin liegen und eben mehr Speicher. GA103S ist eh neu und GA104 sowie alles darunter dann nur noch mit normalem GDDR6.

ChaosTM
2021-07-14, 09:32:29
So eine 4070Ti mit 16GB würde mir gefallen. Wo sie eine 4080Ti 20Gb preislich einordnen wollen weiß ich jetzt nicht, nach der Preisgestaltung der 3080ti. Die ist einfach überteuert, aber das liegt an de Situation. Momentan kann man perfekt melken, was aber nicht so bleiben wird..

HOT
2021-07-14, 10:01:55
basix

Ein Refresh ist unvermeidlich, wenn sich Lovelace evtl. bis 23 ziehen soll. Mir gefällt aber die Idee eines komplett neuen Lineups. AMD refresht ja offenbar ebenfalls mit N6-Chips.

Thunder99
2021-07-14, 10:23:07
Erinnert mich an Hawaii und Grenada bei AMD. Alter Wein in neuen Schläuchen.

Leonidas
2021-07-14, 10:43:05
Tja, wenn Lovelace wirklich erst 2023 kommt, will man 2022 sicherlich nicht ganz nackt dastehen. Viel mehr SM kann man nicht bieten - was bleibt, ist der Speicher. War das womöglich von Anfang an so gedacht: Ampere 1.0 knausrig beim Speicher, damit man diese Reserve hat?

dildo4u
2021-07-14, 11:16:23
Man könnte jetzt nur die Kapazität erhöhen aber nicht die Speed die GDDR6X Module sind einfach zu hunrig nicht genau die Schuld von Nvidia.
Imo lief dort was schief normalerweise sollten die Module schneller werden ohne die Leistungssaufnahme zu erhöhen.

Thunder99
2021-07-14, 12:30:31
Ist es nicht das Interface was mehr Schluckt?

HOT
2021-07-14, 12:34:50
Offenbar beides. Aber die Module können ja auch besser werden, mal sehen, wie die 16Gb-Varianten performen.

dildo4u
2021-07-14, 12:37:12
Ist es nicht das Interface was mehr Schluckt?
Die 3070 Ti hat doch das selbe Interface wie 3070 und ist extrem ineffizent im Vergleich.

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/3/#diagramm-performance-pro-watt-2560-1440

Thunder99
2021-07-14, 12:42:54
Die 3070 Ti hat doch das selbe Interface wie 3070 und ist extrem ineffizent im Vergleich.

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/3/#diagramm-performance-pro-watt-2560-1440
Es muss ja höher takten beim X Speicher, was dann ineffizient wird (wenn ich nicht falsch liege).

Da kann man ja wieder die Diskussion führen was besser ist:
Takt vs. Breite vs. Alternative (HBM) vs. Kosten

basix
2021-07-14, 13:03:44
Die 3070 Ti hat doch das selbe Interface wie 3070 und ist extrem ineffizent im Vergleich.

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/3/#diagramm-performance-pro-watt-2560-1440

Das heisst doch gar nichts. Das Interface kann bei GDDR6X einfach mehr verbrauchen, da komplett anderes Signaling verwendet wird.

@Thunder:
Nein, GDDR6X taktet sogar tiefer (ausser glaube ich CLK). Verwendet nämlich PAM-4 anstatt PAM-2. Das halbiert den Takt der Datenleitungen.

ChaosTM
2021-07-14, 13:11:34
Tja, wenn Lovelace wirklich erst 2023 kommt, will man 2022 sicherlich nicht ganz nackt dastehen. Viel mehr SM kann man nicht bieten - was bleibt, ist der Speicher. War das womöglich von Anfang an so gedacht: Ampere 1.0 knausrig beim Speicher, damit man diese Reserve hat?


Nennt man auf neudeutsch "double dipping" oder die Doppelabzocke.

Bei BDs gibt es immer zuerst nur die Kinoversion um dann ein paar Monate später den Directors Cut nachzuschieben in der Hoffnung, dass manche 2x kaufen, und das passiert dann auch.
Aus kaufmännischer Sicht hat man natürlich alles richtig gemacht. ;)

Leonidas
2021-07-15, 14:45:44
nVidia scheint Euch den "Wunsch" zu erfüllen - GeForce RTX 30 "SUPER" nun auch für den Desktop:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-30-super-refresh-soll-nun-auch-im-desktop-erscheinen

Fragman
2021-07-15, 18:31:20
Was in den letzten Monaten hier schon zu lesen war was alles kommen sollte.
Ich bleib da vorläufig skeptisch... :D

ChaosTM
2021-07-15, 18:58:43
Die Superduper 3080er mit 20GB wird dann wahrscheinlich 50€ weniger kosten als die 3090er.

basix
2021-07-15, 19:41:27
Anfang 2022 ist anscheinend die Timeline. Das ist noch lange hin.

Thunder99
2021-07-15, 21:20:21
Zwischen 3080Ti und 3090 ist aber kein Platz für eine weitere Karte. Ausser die 3080 Super mit mehr RAM berbt die 3080 und ist langsamer als die 3080Ti :freak:

Oh wait, macht ja nvidia ja schon. 3060 vs 3060Ti ;D

Leonidas
2021-07-16, 14:29:16
Ich vermute, einige Ti-Varianten werden mit dem SUPER-Refresh gleich wieder beerdigt.

Fragman
2021-07-16, 16:22:09
Anfang 2022 ist anscheinend die Timeline. Das ist noch lange hin.

Ja, Zeit genug um mindestens noch 2 Ti oder Super Gerüchteankündigungen einzuschieben. Bis es dann soweit ist wird längst über Lovelace gesprochen weil sich das Lineup doch nicht verschiebt und man darüber spekuliert, ob nicht vielleicht schon Anfang Sommer die ersten Karten kommen.
Es wird zumindest nicht langweilig. :D

Leonidas
2021-08-26, 11:21:28
Gerüchteküche: GeForce RTX 3090 "SUPER" im Vollausbau des GA102-Chips samt TDP bis zu 450 Watt
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-3090-super-im-vollausbau-des-ga102-chips-samt-tdp-bis-zu-450-watt
wohl bekomms ...

just4FunTA
2021-08-26, 11:25:28
nur her damit wo kann ich die 5.000€ hinüberweisen? :D

Thunder99
2021-08-26, 12:58:18
Es wird immer absurder, wenn es stimmen sollte :(

horn 12
2021-08-26, 13:10:56
Falls es so kommt müsste Nvidia mal richtig abgestraft werden
Aufguss auf Aufguss und nichts kommt dabei rumm.
Einmal zu Geizig (3080TI) und dann die 3090TI um 2000+ Euro an den Mann bringen wollen!

Hoffe da schiebt AMD Navi 31 vor!

aufkrawall
2021-08-26, 13:18:54
Falls es so kommt müsste Nvidia mal richtig abgestraft werden

Wird es aber nicht. Hier jammern Leute rum, RT wäre Quatsch für Gehirngewaschene und Nvidia-Software fiese Spyware. Allerdings würden sie dann trotzdem eine 3090 für die "faire" UVP sofort kaufen, oder haben das schon. Ein Maß an Heuchelei, das man sich nicht ausdenken kann...

AffenJack
2021-08-26, 17:49:22
Gerüchteküche: GeForce RTX 3090 "SUPER" im Vollausbau des GA102-Chips samt TDP bis zu 450 Watt
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-3090-super-im-vollausbau-des-ga102-chips-samt-tdp-bis-zu-450-watt
wohl bekomms ...

Die einzig vernünftige Erklärung für das Ding ist für mich, wenn Micron endlich mit 2GB GDDR6X ankommt und man deshalb von doppelseitiger Bestückung auf einseitige Bestückung wechseln kann. Die normale 3090 lässt man dann auslaufen, da man die 3080TI hat.

gedi
2021-08-26, 22:06:16
Wird es aber nicht. Hier jammern Leute rum, RT wäre Quatsch für Gehirngewaschene und Nvidia-Software fiese Spyware. Allerdings würden sie dann trotzdem eine 3090 für die "faire" UVP sofort kaufen, oder haben das schon. Ein Maß an Heuchelei, das man sich nicht ausdenken kann...


:freak::freak::freak: Ohne Worte :ulol3:

BlacKi
2021-08-27, 18:52:11
Es wird immer absurder, wenn es stimmen sollte :(


absurd ist jetzt eine gleichlautende 3080ti mit 320bit SI und 20gb.

tada

mit schnellerem ram, umd das fehlende SI auszugleichen?

die theorie soll sein, das es nur boxen mit alter beschriftung sind. die 20gb karte schien es wohl wirklich gegeben zu haben. oder es kommt doch noch eine 20gb version XD
rev. 9.0 hat aber auch was XD
https://cdn.videocardz.com/1/2021/08/AORUS-RTX3080TI-20GB-Russia-1-700x426.jpg

https://cdn.videocardz.com/1/2021/08/AORUS-RTX3080TI-20GB-Russia-3-700x426.jpg

https://videocardz.com/newz/aorus-geforce-rtx-3080-ti-with-20gb-gddr6x-memory-spotted-in-russia

VooDoo7mx
2021-08-27, 19:04:14
Ich finde es gut das, die 3080ti mit 20GiB gecancelt wurde.
Lieber mehr Performance in Form das vollen SI statt nutzlose 20GiB VRam.

Nightspider
2021-08-27, 19:08:01
;D

r3ptil3
2021-08-27, 21:31:18
Rev.9.0? Seltsam für Gigabyte...

Raff
2021-08-27, 21:57:08
;D

:ulol:

MfG
Raff

ChaosTM
2021-08-27, 22:00:11
Eine 20GB 3080ti --Pleeease :D
Dafür nehm ich auch die "Spyware" Software in kauf ;)
Tu ich sowieso, nur wurde mein Laptop während des Transports (3080er mit 16GB) gestohlen !?!
Anstatt zu zocken musste ich heute mit der Polizei telefonieren. Jeez

Tomahawk
2021-08-27, 22:24:07
Es gab wohl noch nie ein so schlecht differenziertes Portfolio bei nVidia. Im Normallfall sollte der Abstand zwischen zwei Modellen über das gesamte Portfolio grob gleich groß sein. Die Zahl ist jeweils relativ zur 3060er und in Klammern der relative Anstieg im Vergleich zur nächstkleineren Grafikkarte.

RTX 3090 : 228% (+5%)
RTX 3080 Ti : 218% (+9%)
RTX 3080 : 200% (+22%)
RTX 3070 Ti : 164% (+8%)
RTX 3070 : 152% ( +15%)
RTX 3060 Ti : 132% (+32%)
RTX 3060 : 100%

Es ist ein völliges Chaos die Modelle sind zwischen 5% und 32% schneller als das nächstkleinere Modell. Und jetzt will nVidia noch ein Modell herausbringen, welches vielleicht 5% schneller als die 3090er ist

HOT
2021-08-28, 00:05:36
absurd ist jetzt eine gleichlautende 3080ti mit 320bit SI und 20gb.

tada

mit schnellerem ram, umd das fehlende SI auszugleichen?

die theorie soll sein, das es nur boxen mit alter beschriftung sind. die 20gb karte schien es wohl wirklich gegeben zu haben. oder es kommt doch noch eine 20gb version XD
rev. 9.0 hat aber auch was XD
https://cdn.videocardz.com/1/2021/08/AORUS-RTX3080TI-20GB-Russia-1-700x426.jpg

https://cdn.videocardz.com/1/2021/08/AORUS-RTX3080TI-20GB-Russia-3-700x426.jpg

https://videocardz.com/newz/aorus-geforce-rtx-3080-ti-with-20gb-gddr6x-memory-spotted-in-russia

Rev. 9 spricht ja eher für ne neuere Variante. Vielleicht gibts ja schon 16Gb-Chips.
MMn war das auch der einzige echte Grund für die 10 bzw. 12GB-Entscheidung: Die Doppelbestückung und die vertane Verlustleistung. Die 3080(Ti), auch mit dem Referenzkühler, ist halt problematisch mit Doppelbestückung mMn. Da gehen ja noch mal 25-30W flöten.

BlacKi
2021-08-28, 00:46:32
doppelbestückung geht, 30w kostet das nicht.

The_Invisible
2021-08-28, 11:12:51
Braucht Ampere eigentlich wirklich so viel Speicherbandbreite das man da G6X durchdrücken musste bzw. gibts dazu Tests?

OgrEGT
2021-08-28, 11:34:26
Braucht Ampere eigentlich wirklich so viel Speicherbandbreite das man da G6X durchdrücken musste bzw. gibts dazu Tests?

Gut eignen würde sich der Vergleich 3070 vs 3070ti mMn...
Die Ti hat GDDR6X die 3070 GDDR6.
Ansonsten unterscheiden sich die Chips nicht wirklich sehr... 46 vs 48 SMs...
Wenn der Speicher groß was bringen sollte dann müsste da mehr als durch die 2SMs zu erwartende Mehrleistung heraus kommen...

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/#abschnitt_die_technik_der_geforce_rtx_3070_ti_im_detail

4% mehr SMs
3% mehr GPU Takt
= 7% mehr Performance in 4k

Der Speicher scheint somit in diesem Beispiel keinen Unterschied zu machen... insgesamt zieht die Ti aber 70W mehr elektrische Leistung...

dildo4u
2021-08-28, 11:47:44
Die dicke Karten sind noch mal 60% schneller als die 3070Ti wenn man Games wirklich maxt.Man bräuchte aber eine 16GB Version für ideale Vergleiche.


https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-fuer-raytracing-perzentil-fps-3840-2160

Ich denke schon das man was um 800GB/Sec für eine 3080 braucht,AMD wird den IF Cache nich umsont verbaut haben.

r3ptil3
2021-08-28, 11:48:50
Etwas merkwürdig, dass eine RTX 3090 Super kommt, wenn Ether und Co. wieder auf einen sehr hohen Stand sind und die Preise für die RTX 3090 wieder nach oben schiessen.

Troyan
2021-08-28, 11:51:45
Die dicke Karten sind noch mal 60% schneller als die 3070Ti wenn man Games wirklich maxt.Man bräuchte aber eine 16GB Version für ideale Vergleiche.


https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-fuer-raytracing-perzentil-fps-3840-2160

Ich denke schon das man was um 800GB/Sec für eine 3080 braucht,AMD wird den IF Cache nich umsont verbaut haben.

Die 3070 hat 448gb/s und ist kaum langsamer als die 6800. Für simples Rasterizing wird GDDR6X nicht benötigt. Raytracing dagegen bedarf mehr Bandbreite aufgrund des BVHs.

rentex
2021-08-28, 12:06:47
Braucht Ampere eigentlich wirklich so viel Speicherbandbreite das man da G6X durchdrücken musste bzw. gibts dazu Tests?

Das ist wohl dem Speicherdeal mit Micron geschuldet.

Wuge
2021-08-28, 13:19:19
Die 3090 skaliert mit dem Speichertakt. Ich finde meine Excel nicht mehr aber ich meine im Superposition Benchmark brachten 10% mehr Speichertakt 4% mehr Performance. D.h. es bringt schon was.

BlacKi
2021-08-28, 13:42:53
Die 3090 skaliert mit dem Speichertakt. Ich finde meine Excel nicht mehr aber ich meine im Superposition Benchmark brachten 10% mehr Speichertakt 4% mehr Performance. D.h. es bringt schon was.
dude, warum nicht gleich heaven benchmark nennen?:wink:

das ist komplett unterschiedlich. bei vielen spielen ist es aber der mehrverbrauch und das mehr an hitze aber nicht wert. allerdings ist eine 3090 super aber vl auch nicht dafür gedacht effizient zu sein.

dennoch, würde ich das powerlimit lieber mit core clock ausreizen.

aufkrawall
2021-08-28, 13:48:22
Die 3070 hat 448gb/s und ist kaum langsamer als die 6800. Für simples Rasterizing wird GDDR6X nicht benötigt. Raytracing dagegen bedarf mehr Bandbreite aufgrund des BVHs.
Auch in Control mit RT bringt VRAM-OC auf der 3060 nur einen Furz.

HPVD
2021-09-22, 06:47:19
Let's make a summary.
3090S 10752 24GB G6X
3080S 8960 12GB G6X
3070S 5888 8G G6X
3060S 5632 12G G6
Although I doubt the specs of some of them and the name of 90S.

https://mobile.twitter.com/kopite7kimi/status/1440516490164260868?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1440516 490164260868%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Fnvidia-geforce-rtx-30-super-lineup-rumored-specs-3090-super-10752-cores-24-gb-3080-super-8960-cores-12-gb-3070-super-5888-cores-8-gb-3060-super-5632-cores-12-gb%2F

OgrEGT
2021-09-22, 07:29:33
Let's make a summary.
3090S 10752 24GB G6X
3080S 8960 12GB G6X
3070S 5888 8G G6X
3060S 5632 12G G6
Although I doubt the specs of some of them and the name of 90S.

https://mobile.twitter.com/kopite7kimi/status/1440516490164260868?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1440516 490164260868%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Fnvidia-geforce-rtx-30-super-lineup-rumored-specs-3090-super-10752-cores-24-gb-3080-super-8960-cores-12-gb-3070-super-5888-cores-8-gb-3060-super-5632-cores-12-gb%2F

Irgendwie sinnlos die Super Serie... Da der GA102 bereits so gut wie voll ausgereizt ist sind die Super Modelle nur Hin und Her Geschiebe im bereits bekannten Leistungsspektrum mit weiterhin nur geringen Leistungsunterschieden...

dildo4u
2021-09-22, 09:33:20
Dort wird die meiste Kapazität frei sein Samsung stellt seine Mobile Chips auf 5nm um 8nm ist frei.

https://www.computerbase.de/2021-01/samsung-exynos-2100-galaxy-s21-soc/

Das ist der wichtigste Punkt nicht wer die neuste TSMC Version nutzt, da die viel zu gefragt ist.AMD GPUs werden in ziehmlich kleinen Mengen gebaut 6800 gibt es z.b fast nie weil es für AMD einfach Sinn macht mher CPUs zu verkaufen.
Dort gibt es keine Reduzierung der Marge durch teure Speicherpreise etc.
Und die neuen Namen braucht man fürs Marketing genau wie AMD die 3000XT Reihe hatte.

Thunder99
2021-09-22, 10:03:57
Könnte mir vorstellen, dass sie die 3080 auslaufen lassen um mit der 3080S den UVP anzuheben -> mehr Marge.

3070S macht keinen Sinn, da es die 3070Ti gibt. Lassen wir uns überraschen.

AffenJack
2021-09-22, 11:55:40
Ich zweifle noch an dieser ganzen Super Geschichte. Da machen soviele GPUs keinen Sinn. Einzig die 3090S kann ich verstehen, damit die Enthusiasten die unbedingt den Vollausbau wollen, diesen bekommen für einen aberwitzigen Preis. Sonst müsste die Superserie schon mit Vergrößerung des Ramausbaus kommen. Das wäre dann ein Verkaufsargument.

Ansonsten im Notebookmarkt, weil die Hersteller da jedes Jahr ein Update wollen.

HOT
2021-09-22, 12:14:12
Let's make a summary.
3090S 10752 24GB G6X
3080S 8960 12GB G6X
3070S 5888 8G G6X
3060S 5632 12G G6
Although I doubt the specs of some of them and the name of 90S.

https://mobile.twitter.com/kopite7kimi/status/1440516490164260868?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1440516 490164260868%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Fnvidia-geforce-rtx-30-super-lineup-rumored-specs-3090-super-10752-cores-24-gb-3080-super-8960-cores-12-gb-3070-super-5888-cores-8-gb-3060-super-5632-cores-12-gb%2F

Die können nicht immer noch mit 8GB kommen :freak:. Eine Super-Serie ergibt nur dann Sinn, wenn NV auf 16Gb-GDDR6X-Chips setzen kann. MMn wird auch genau das passieren.

Ein echtes Super-Lineup (so im Desktop überhaupt eines kommt) dürfte in etwa so aussehen:

3090S -> GA102, 84SMs, 24GB G6X in 12 Chips (384Bit)
3080Ti v2 -> gleich mit 16Gb-Chips
3080S -> GA102, 72SMs, 20GB G6X in 10 Chips (320Bit)
3070S -> GA103, 60SMs, 16GB G6X in 8 Chips (256Bit)

ChaosTM
2021-09-22, 12:23:58
Den 3080er mobile* 16GB sollten sie als Desktop Version bringen und etwas mehr als 150 Watt zulassen. Das Ding ist herrlich effizient.

* sollte eigentlich 3070 "super" oder "S" heißen, da er nur ein paar Shader mehr (6144 vs 5880) als diese hat.

Add.: oder gleich eine 3070er mit vernünftig Speicher..

HOT
2021-09-22, 12:33:51
Daraus macht man höchstens ne 3070 (wie gehabt 46SMs) mit 16GB und fertig.

dildo4u
2021-09-22, 12:43:33
Die können nicht immer noch mit 8GB kommen :freak:. Eine Super-Serie ergibt nur dann Sinn, wenn NV auf 16Gb-GDDR6X-Chips setzen kann. MMn wird auch genau das passieren.

Ein echtes Super-Lineup (so im Desktop überhaupt eines kommt) dürfte in etwa so aussehen:

3090S -> GA102, 84SMs, 24GB G6X in 12 Chips (384Bit)
3080Ti v2 -> gleich mit 16Gb-Chips
3080S -> GA102, 72SMs, 20GB G6X in 10 Chips (320Bit)
3070S -> GA103, 60SMs, 16GB G6X in 8 Chips (256Bit)
Große Ram Mengen verhindern normale Preise 3060 kosten z.b 600€ und sind massiv langsamer als 3060 Ti für 700€.
Selbst wenn du sie nicht kaufen würdest helfen 8GB Karten Leute zufrieden zu stellen die z.b immer noch ältere Monitore nutzen.

HOT
2021-09-22, 12:57:27
Wie kommst du auf so einen Unsinn? NV spart damit zulasten der Nutzer, Ende.

Thunder99
2021-09-22, 12:59:22
Gemessen an der UVP hat es keinen großen Einfluss. 8GB hat einfach ausgedient beim High End.
AMD macht es richtig mit 8/12/16. Das ist die richtige Antwort auf den aktuellen Bedarf bzw Antwort auf next Gen.

Nvidia kann das jetzt korrigieren mit der Super. Wenn nicht, leiden die Spieler und Entwickler.

ChaosTM
2021-09-22, 14:41:34
Amen ..

BlacKi
2021-09-22, 15:16:22
schaut euch doch mal die recheneinheiten 3070s vs 3060s an XD warum würde ich da eine 3070s kaufen? das macht null sinn!

Leonidas
2021-09-23, 10:58:17
Die (angebliche) Spec zu 3060S ist ziemlich sicher ein Übermittlungsfehler, da somit die 3070S nahezu obsolet wäre. Die 3060S wird real nicht gleich 44 SM tragen, 30-34 SM sind realistisch (3060 hat 28 SM).

The_Invisible
2021-09-23, 11:21:15
Die können nicht immer noch mit 8GB kommen :freak:. Eine Super-Serie ergibt nur dann Sinn, wenn NV auf 16Gb-GDDR6X-Chips setzen kann. MMn wird auch genau das passieren.


Wieso nicht wenn man sich an die 2000er Super zurückerinnert, einzig die 2060er hat mehr Speicher bekommen. Macht auch überhaupt keinen Sinn einen Refresh mit Speicher zuzukleistern wenn <1 Jahr später eh die richtigen Nachfolger kommen.

reaperrr
2021-09-23, 11:52:56
Die (angebliche) Spec zu 3060S ist ziemlich sicher ein Übermittlungsfehler, da somit die 3070S nahezu obsolet wäre. Die 3060S wird real nicht gleich 44 SM tragen, 30-34 SM sind realistisch (3060 hat 28 SM).
44 mag nach viel klingen, aber 30-34 ist doch auch Quatsch.
Die soll offensichtlich GA104-basiert sein, und da wird man nicht ein sattes Drittel der SM deaktivieren, wenn die Yield im Vergleich zum ursprünglichen Launch eher verbessert wurde.
Gegenüber der 3070S hätte sie sowohl langsameren RAM als auch nur 192bit SI, also massiv weniger Bandbreite, das bremst genug aus, um überall wo 8GB reichen deutlich hinter so einer 3070S zu landen.
Das obliegt dann halt dem Spieler, was für seine Anforderungen der bessere Kompromiss ist. Gibt immer noch mehr als genug Spieler mit 1080p da draußen, wo 8GB noch lange in 98% aller Spiele reichen werden.

Ich sehe die 3060S mit den Specs als 3060Ti-Ersatz, die dafür vermutlich rausfliegt, die Speicher-Konfig rechtfertigt einen etwas höheren Preis (429-449$ MSRP?) und die Karte wäre wohl noch schnell genug, um die 6700XT von unten unter Druck zu setzen (und einen direkten Konkurrenten gegen eine eventuelle 6700 non-XT zu haben).

HOT
2021-09-23, 12:05:59
Die 3070S unverändert eine 3070 und mit G6X zu kombinieren ist noch bekloppter. Eine 3060S mit kaum weniger SMs aber eben mit nur 192Bit G6 zu bringen finde ich gar nicht so verrückt, man könnte ja 18GT/s-Module verbauen (wird aber mMn nicht getan, werden normal 16GT sein).

Thunder99
2021-09-23, 16:45:54
GA104 gibt es ja mit GDDR6X Speicher. Kaum Mehrperformance aber ca. 100W höherer Verbrauch :freak:

Lurtz
2021-09-27, 16:55:06
Spiele mit UE4 heizen bei meiner RTX 3070 weit mehr als Spiele mit anderer Engine. Wieso ist der Verbrauch hier so hoch, profitiert die besonders von den verdoppelten FP32-Einheiten?

aufkrawall
2021-09-27, 19:59:18
Das war schon bei Pascal so. Teste mal mit Quake 2 RTX gegen, das sollte noch mehr ziehen.
Bei hungrigen Spielen bringt UV natürlich auch am meisten, sind immerhin auf der 3060 schon 44W trotz VRAM-OCs:
https://abload.de/thumb/strangebrigade_vulkan0tkoh.png (https://abload.de/image.php?img=strangebrigade_vulkan0tkoh.png) https://abload.de/thumb/strangebrigade_vulkanlekwj.png (https://abload.de/image.php?img=strangebrigade_vulkanlekwj.png)

HOT
2021-10-05, 10:31:33
https://www.guru3d.com/news-story/rumor-is-nvidia-working-on-a-geforce-rtx-3090-super-with-21-gbps-memory-and-a-tgp-of-450w.html


Geforce 3070Ti mit 16GB :love4:

ChaosTM
2021-10-05, 10:57:18
Finally :D

Platos
2021-10-05, 12:04:26
Endlich! Jetzt gibts endlich 16GB zu absurden Strassenpreisen:D

r3ptil3
2021-10-05, 12:27:34
Kurios, da dürften sich die RTX 3080 Ti Besitzer besonders freuen.

Dampf
2021-10-05, 12:37:15
https://www.guru3d.com/news-story/rumor-is-nvidia-working-on-a-geforce-rtx-3090-super-with-21-gbps-memory-and-a-tgp-of-450w.html


Geforce 3070Ti mit 16GB :love4:

Und wenig später kommt dann die RTX 4070 mit viel mehr Leistung...

Jeder der jetzt noch Ampere kauft verschwendet sein Geld.

ShinyMcShine
2021-10-05, 12:39:39
Und später kommt dann die RTX 4070 mit viel mehr Leistung...

Jeder der jetzt noch Ampere kauft verschwendet sein Geld.

Genau. Dadurch, dass NV jetzt noch 3000er neu auflegt mit mehr RAM dürfte die Speichermenge beim Nachfolger mindestens gleich hoch sein.

Dampf
2021-10-05, 12:47:50
Genau. Dadurch, dass NV jetzt noch 3000er neu auflegt mit mehr RAM dürfte die Speichermenge beim Nachfolger mindestens gleich hoch sein.

So ist es.

Mit der RTX 4000 Generation wird man die Next Gen Konsolen deutlich überflügeln. Da machen dann auch große VRAM Mengen Sinn.

Mit Überflügeln meine ich nicht nur 60 FPS statt 30 FPS wie bei Ampere, sondern deutlich höhere Detailgrade die man sofort sieht, noch mehr Raytracing, perfekte Pixar-like Image Quality usw.

Das wird krass...

HOT
2021-10-05, 12:56:28
Und wenig später kommt dann die RTX 4070 mit viel mehr Leistung...

Jeder der jetzt noch Ampere kauft verschwendet sein Geld.
Na ja, wenig später sind dann mal eben ca. 10 Monate :freak:

Fragman
2021-10-05, 13:09:51
Der Release wird sowieso nur 10 Sekunden fair laufen, dann sind die Stockkarten bei nv weg und die doppelt so hohen Schnapperpreise greifen.
Zumindest sorgt es kurzfristig fuer etwas Unterhaltung.
10 Monate spaeter folgt dann das Rueckspiel... :freak:

Denniss
2021-10-05, 13:44:51
https://www.guru3d.com/news-story/rumor-is-nvidia-working-on-a-geforce-rtx-3090-super-with-21-gbps-memory-and-a-tgp-of-450w.html
3090 mit 450W:eek::freak::down:

Platos
2021-10-05, 14:11:09
Und wenig später kommt dann die RTX 4070 mit viel mehr Leistung...

Jeder der jetzt noch Ampere kauft verschwendet sein Geld.

Ampere zu kaufen ergab doch (fast) noch nie wirklich Sinn. Die Preise sorgten immer für Geldverschwendung.

WedgeAntilles
2021-10-05, 15:07:51
Ampere zu kaufen ergab doch (fast) noch nie wirklich Sinn. Die Preise sorgten immer für Geldverschwendung.

Kommt halt drauf an, was einem zocken wert ist.
Gibt auch genug die spielen auf nem 10 Jahre alten Rechner der damals 1300 Euro gekostet hat - weil es ihnen halt nicht mehr wert ist und ihnen alte Spiele auf 1024 & 768 ausreichen.

Pauschal kann man jedes Hobby als "Geldverschwendung" bezeichnen.
Im engen Sinne ist das ja sogar auch immer richtig. Das Geld wird nicht mehr (quasi alles was man als Hobby betreibt "vernichtet" ja Geld und mehrt es nicht) und dient auch nicht dazu am Leben zu bleiben.

Platos
2021-10-05, 15:13:13
Kommt halt drauf an, was einem zocken wert ist.
Gibt auch genug die spielen auf nem 10 Jahre alten Rechner der damals 1300 Euro gekostet hat - weil es ihnen halt nicht mehr wert ist und ihnen alte Spiele auf 1024 & 768 ausreichen.

Pauschal kann man jedes Hobby als "Geldverschwendung" bezeichnen.
Im engen Sinne ist das ja sogar auch immer richtig. Das Geld wird nicht mehr (quasi alles was man als Hobby betreibt "vernichtet" ja Geld und mehrt es nicht) und dient auch nicht dazu am Leben zu bleiben.

Naja, am Ende muss man nur auf die Welt kommen und sterben. Man kann natürlich auch alles relativieren:freak:

Aber ich denke, es dürfte klar sein, was ich gemeint habe.

WedgeAntilles
2021-10-05, 15:25:40
Ich finde es halt zu pauschal.
Ja, mir sind die Preise auch zu hoch.
Aber ehrlich, wenn man vor 6 Monaten oder so ne Karte gekauft hat und halt 700 Euro oder meinetwegen auch 1000 Euro "zu viel" zahlt: So what?

Dafür kann man 1,5 Jahre lang besser zocken als wenn man nix gekauft hat. Kommt natürlich auch drauf an was man als alte GraKa hatte.

Wie gesagt, mir selber ist es das nicht wert (dafür spiele ich viel zu viel alte Spiele) - aber umgerechnet geben die meisten doch mehr fürs Saufen pro Monat aus als man jetzt für ne überteuerte GraKa mehr ausgegeben hat. (Umgerechnet auf einen Monat.)

Und falls man nebenbei gemint hat, hat man das doch sogar fast wieder rausbekommen...

Hakim
2021-10-05, 16:46:02
Der angeblich kommende 3070ti mit 16 GB GDDRX6 Speicher, wenn schon die 8 GB Variante kurz vor 300 Watt steht könnte die 300 W haben. Eine variante mit normalen GDDR6 wäre deutlich attraktiver für mich, da bei kaum Performance nachteil es halt deutlich weniger schlucken würde

VooDoo7mx
2021-10-05, 18:00:30
Kurios, da dürften sich die RTX 3080 Ti Besitzer besonders freuen.

Hallo, ich bin 3080Ti Besitzer.
Worüber soll ich mich jetzt freuen oder ärgern?

Und wenig später kommt dann die RTX 4070 mit viel mehr Leistung...

Jeder der jetzt noch Ampere kauft verschwendet sein Geld.

Ja klar und die 4070 wird es dann sicher auch für 400€ überall lieferbar geben. :ucrazy:

Da auch in nächster Zeit und auch im nächsten Jahr ein Ende der Halbleiterknappheit nicht mal ansatzweise in Sicht ist, werden auch die weiteren GPUs, selbst wenn nVidia die Preise erhöht, immer ausverkauft und auch weiterhin extrem teuer am Scalpermarkt sein. Da wird sich gar nichts ändern.

Wer jetzt eine Ampere GPU kauft wird die mit vergleichsweise wenig Verlust dann auch wieder auf den Gebrauchtmarkt bringen können. Ich hab letzte Woche meine über 2 Jahre alte 2080Ti für 800€ verkauft. Und selbst tagesaktuell steigen am Gebrauchtmarkt die Preise weiter.

Geldmann3
2021-10-07, 23:38:54
Hmm, bei der kommenden RTX 3090 Super, die nun ja doch RTX 3090 Ti heißen soll (https://videocardz.com/newz/nvidia-geforce-rtx-3090-ti-rumors-450w-tdp-21gbps-memory-and-new-power-connector), komme ich bei einer Leistungsaufnahme von 450 Watt, mehr Shadern und schnellerem Vram, rechnerisch, tatsächlich auf etwa 13% mehr Performance im GPU-Limit.
Die soll ja sogar extra mit neuem Konnektor kommen.

Mit den bisherigen, voraussichtlichen Specs hatte ich eher mit 10% weniger, also 3% oder vllt. 5% oder 6% gerechnet.
Wo schätzt ihr die Performance dieser Karte ein?

Naja, auf jeden Fall rechne ich nicht ansatzweise mit genug Performance, um ein Upgrade von meiner RTX 3090 zu rechtfertigen.

Raff
2021-10-07, 23:48:20
Ich finde spannend, dass Nvidia anscheinend endlich doppelt-kapazitive G6X-Bausteine nutzt. Das beseitigt eines der großen Probleme der 3090 FE (die heiße Rückseite), steigert die Effizienz und senkt den Verbrauch bei gleichem Takt. Da man aber auf 21 GT/s hochgeht - 1 TByte/s, baby! -, wird das wieder 'ne Grillparty. Ich glaube noch nicht an die TDP, aber immerhin könnte man sich dann doch mitunter fühlbar von der alten Kiste (https://www.youtube.com/watch?v=0yKXc59lZ2Y) absetzen. Mit 375 Watt käme wohl nur ein Plus im 5-Prozent-Bereich heraus.

MfG
Raff

Geldmann3
2021-10-07, 23:58:16
Bei 375 Watt würde ich tatsächlich nur mit 3% mehr Performance rechnen. Es müssten schließlich alle Karten schaffen, es sei denn, man selektiert und produziert die normale RTX 3090 weiter.

Doch aus Erfahrung mit der RTX 3090 würde ich vermuten, dass sie mit dem schnellen Speicher von hieraus 95% linear mit der Leistungsaufnahme skaliert. Bei meiner ist das jedenfalls verrückterweise so. Also 400 Watt +7%, 450 Watt +13%.

Was im Umkehrschluss auch dazu führen würde, dass man den von mir vermuteten RDNA2 Refresh der 6900 XT auf 6nm wieder leicht schlägt.
(Weiter verbreitet ist ja die Meinung, nur die unteren Karten sollten einen Refresh erhalten. Weil Navi33 den Platz einnehmen soll.)

Eine ,,nur" 400 Watt Karte wäre davon hingegeben eventuell leicht geschlagen worden.
AMD würde dabei allerdings natürlich wesentlich sparsamer sein, hat auch noch viel mehr Headroom, nach oben.
Beim Speicher, beim Chiptakt, mit der neuen Fertigung. RDNA2 ist da bisher eigentlich recht konservativ gebaut.

Thunder99
2021-10-08, 08:43:49
Will Nvidia den Kunden testen, wie weit er mitgeht bei der Leistungsaufnahme? Kann da nur den Kopf schütteln...

HOT
2021-10-08, 08:49:59
Die 3090 Ti mit 450W braucht neue PCBs, das finde ich schon etwas erstaunlich. Normalerweise versucht man das ja bei Refreshs zu vermeiden.

Und RDNA2 gibts mMn nur im Notebookbereich als Refresh. Für Desktop gibts dahingehend nicht mal Gerüchte.

Raff
find ich auch spannend. Aber mal sehen, ob das tatsächlich so ist, die 3070Ti wird ja offenbar auf GDDR6 downgegradet (vllt. 18GT/s?), damit wäre die 16Gb-GDDR6X-These wieder wackelig. Außerdem wäre damit ne 3080(Ti) mit 20GB eigentlich ein Muss. Kann man ja einfach 21GT/s nehmen und das Speicherinterface etwas cutten.

Was ist an den Namensdiskussionen immer lustig finde:
In früheren Zeiten gab es ja ab und an mal Varianten mit verdoppeltem Speicher, da war auch keine Namensänderung nötig. Warum sollte das heute anders sein?

dildo4u
2021-10-08, 09:46:40
Die 3090 Ti mit 450W braucht neue PCBs, das finde ich schon etwas erstaunlich. Normalerweise versucht man das ja bei Refreshs zu vermeiden.

Und RDNA2 gibts mMn nur im Notebookbereich als Refresh. Für Desktop gibts dahingehend nicht mal Gerüchte.


6nm RDNA2 soll kommen gegen Intel im Bereich unter 400€.

https://twitter.com/3DCenter_org/status/1427231164083830797?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1427255 504779112448%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fwww.notebookcheck.net%2FAMD-Radeon-RX-7000-lineup-could-be-a-mix-of-6-nm-Navi-3x-RDNA-3-and-refreshed-6-nm-Navi-2x-RDNA-2-parts.555950.0.html

WedgeAntilles
2021-10-08, 10:10:09
Will Nvidia den Kunden testen, wie weit er mitgeht bei der Leistungsaufnahme? Kann da nur den Kopf schütteln...

Ich denke auch, dass Nvidias primäres Ziel mit den neuen 3090 ist, die Konsumenten an höhere Watt-Zahlen und gleichzeitig höhere Preise zu gewöhnen.

Die nächste GraKa Generation kommt dann zu einem ähnlichen Preis mit ähnlichem Stromverbrauch raus und man kann sagen: OK, ist ja nicht teurer geworden und verbraucht auch nicht mehr.

Das das funktioniert hat AMD mit dem Release des 3600X (und dem damit höheren Preisniveau) ja eindrucksvoll bewiesen.

Jeder hat den 5600X mit dem 3600X verglichen, anstatt mit dem weit attraktiveren und zig mal so oft verkauften 3600 nonX.
Bester Beweis war ja dieses Forum hier.

TheAntitheist
2021-10-08, 10:21:13
Konsumer an höhere Verbräuche gewöhnen :D diese GPUs kaufen vllt 2% der user und wer ein Enthusiasten-Produkt kauft, der kann auch darauf scheissen. Und JEDER von diesen usern sollte wissen das man die TDP auch senken kann.

WedgeAntilles
2021-10-08, 12:16:47
Konsumer an höhere Verbräuche gewöhnen :D diese GPUs kaufen vllt 2% der user und wer ein Enthusiasten-Produkt kauft, der kann auch darauf scheissen. Und JEDER von diesen usern sollte wissen das man die TDP auch senken kann.
Auch eine 4090 werden vielleicht 2% kaufen, das ist doch ken Argument?

rentex
2021-10-08, 12:32:56
Bei dem vermuteten Verbrauch, verzichte ich auf eine 4090. Dann wirds wohl ne 4080 oder gar RDNA 3...muss reichen. Aber, man wird sehen.

robbitop
2021-10-08, 12:53:48
Man könnte auch mit undervolting und leichtem underclocking sicherlich eine Menge Effizienz rausholen ohne auf die nächstkleinere SKU zu müssen.
Im PC Bereich zwingt einen ja niemand zu einer gewissen Leistungsaufnahme. Rivatuner und ab gehts.

HOT
2021-10-08, 15:57:40
6nm RDNA2 soll kommen gegen Intel im Bereich unter 400€.

https://twitter.com/3DCenter_org/status/1427231164083830797?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1427255 504779112448%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fwww.notebookcheck.net%2FAMD-Radeon-RX-7000-lineup-could-be-a-mix-of-6-nm-Navi-3x-RDNA-3-and-refreshed-6-nm-Navi-2x-RDNA-2-parts.555950.0.html
Das ist schon klar. Das hab ich jetzt ausgeklammert.

Edgecrusher86
2021-10-10, 05:51:20
Ampere zu kaufen ergab doch (fast) noch nie wirklich Sinn. Die Preise sorgten immer für Geldverschwendung.

Es soll ja auch Leute gegeben haben, die Turing ausgelassen haben - siehe hier. Im Endeffekt war die 3090 minimal günstiger, als das Ex 1080 Ti SLI Gespann samt HB-Bridge. :freak: ;)
Etwas schön geredet, ich weiß - aber da es damals nur die 3090 und 3080 gab, war für mich nur die Dicke interessant [keine Lust mehr auf VRAM-Downgrades] - leider war weder die FE, noch ASUS TUF OC oder Strix OC lieferbar, wie von mir beabsichtigt.
Nun ja, mit UV und GB Gaming OC BIOS ist auch die Trinity eine anständige Karte - wobei ich diese ja meistens mit >=200W fahre, was idR für UWQHD + 50-60 fps Cap langt. 300W+ konstant sah ich nur bei den Benches zu Anfang [gegen GTX 1080 Ti FE / SLI].
Im Endeffekt würde mir also auch das +0% PT BIOS langen, aber nun ja - bei der Preislage halte ich das schon für sehr geizig - zumindest + 20W hätten es sein dürfen als Max. PT. :)


E: Zur RTX 3090 Ti -> ja, es scheint in der Tat so, dass Jensen hier einen zweistelligen Boost anstrebt, sollte 450W wirklich für 100% TGP gelten - durch den VRAM spart man ja sicher auch nochmals locker 20W ein, was der GPU dann zusätzlich zur Verfügung steht
- nun ja, soll er mal machen. In meinen Augen ist die Karte eh nur für Alle interessant, die nicht auf Lovelace warten wollen und bisher oder, warum auch immer, noch keine 3090 bekommen hatten; sie war ja in den letzten Monaten recht anständig lieferbar [wenn natürlich auch zumeist überteuert].

Für genau 1 TB/s müsste man 21,34 Gbps fahren, Ziel verfehlt. :D

Die 3070 Ti dürfte wohl auf 320W gesetzt sein - man will ja mindestens die Taktraten der 8GB Karte schaffen. Nun ja, ganz ehrlich? Für die Rohleistung des Chips ist das zuviel - wäre es jetzt eine Dual-GPU-Karte mit NVL-Verbindung, okay.
16GB machen aber in meinen Augen erst ab einer RTX 4070 so richtig Sinn - diese sollte ja dann, wenn die Gerüchteküche halbwegs stimmt, ohne Probleme GA102 um 30-50% schlagen.

rentex
2021-10-10, 06:18:37
Man könnte auch mit undervolting und leichtem underclocking sicherlich eine Menge Effizienz rausholen ohne auf die nächstkleinere SKU zu müssen.
Im PC Bereich zwingt einen ja niemand zu einer gewissen Leistungsaufnahme. Rivatuner und ab gehts.

Das ist klar. Nur wäre es mal schön, das NV dies von Haus aus täte.

MasterElwood
2021-10-10, 06:29:02
Ampere zu kaufen ergab doch (fast) noch nie wirklich Sinn. Die Preise sorgten immer für Geldverschwendung.

Hab meine 3080 TUF OC für knapp über 900 bekommen damals. Total richtige Entscheidung! Praktisch alles in VR läuft auf max. Details - bei einer Auflösung von ca. 6000x3000 und in 90hz. Bin super happy mit dem Ding. Gäbe es FS2020 nicht - würd ich an die 4er Serie nicht mal denken...

Wuge
2021-10-10, 13:22:58
3090 FE zum UVP geht schon. Shunt Mod + Wakü und das Ding ist auch ein echtes Upgrade zu Turing.

-/\-CruNcher-/\-
2021-10-22, 19:06:43
Hat Jensen die Nvidia User und Investoren vollkommen wissentlich mit der 3070 und dem 2080 TI Vergleich betrogen/getäuscht ?

Alle momentanen Daten deuten daraufhin, das er vollkommen bewusst bei der Ampere Präsentation gelogen hat und zwar so gut wie bei allem auch beim Preis, er wusste alles.

Seine Vergleiche spiegeln die Realität in keinster weise wieder selbst Optimierte Szenarios die es könnten exestieren nicht wirklich.

Der Vergleich zwischen 3070 und 2080 TI ist mit einer der größten Skandale die sich Nvidia bist jetzt geleistet hat nach dem GTX 970 Memory Betrug und dessen Verschleierung von für Nvidia Kosten sparenden Fakten auf schultern dessen Nutzer.

Es wird an der Zeit das jetzt mal ordentlich zu Diskutieren was dort eigentlich wirklich vor unseren Augen abgelaufen ist.

Dovregubben
2021-10-22, 19:30:33
Seine Vergleiche spiegeln die Realität in keinster weise wieder selbst Optimierte Szenarios die es könnten exestieren nicht wirklich.
Vielleicht nicht in optimierte Szenarien, aber selbst im aktuellen Computerbase Performancerating ist man nicht weit von den Versprechen weg.

-/\-CruNcher-/\-
2021-10-22, 19:48:28
Sehe das anders es ist kein vollwertiger 2080 TI Ersatz, war es nie.
Erst mit der kommenden Super Serie wird man dieses Ziel erreichen, was man dort versprochen hat.
Selbst die 3070 TI erreicht teils die 2080 TI nicht , das ist absoluter irsinn in Nvidias normaler Generationsprunglogik die bis jetzt immer nach quasi dem selben Schema ablief x80 wird von x70 x70 von x60 usw SKU ersetzt bei weniger Stromverbrauch.

Bei der Präsentation hat Jensen alles versucht es auf die TI auszuweiten es zerbricht allerdings vorne und hinten mit Ampere vor allem im Bezug auf dessen Hardware Kostenersparniss die teils versucht wird Softwaretechnisch vor allem aber allen voran über Nvidias Cluster Infrastruktur wieder aufzufangen bzw abzumildern.

Platos
2021-10-22, 21:29:41
Hab meine 3080 TUF OC für knapp über 900 bekommen damals. Total richtige Entscheidung! Praktisch alles in VR läuft auf max. Details - bei einer Auflösung von ca. 6000x3000 und in 90hz. Bin super happy mit dem Ding. Gäbe es FS2020 nicht - würd ich an die 4er Serie nicht mal denken...

:biggrin: 900 , na dann hast du ja ein super geschäft gemacht. Nur 200 zu viel:D

TheAntitheist
2021-10-22, 22:06:56
Sehe das anders es ist kein vollwertiger 2080 TI Ersatz, war es nie.
Erst mit der kommenden Super Serie wird man dieses Ziel erreichen, was man dort versprochen hat.
Selbst die 3070 TI erreicht teils die 2080 TI nicht , das ist absoluter irsinn in Nvidias normaler Generationsprunglogik die bis jetzt immer nach quasi dem selben Schema ablief x80 wird von x70 x70 von x60 usw SKU ersetzt bei weniger Stromverbrauch.

Bei der Präsentation hat Jensen alles versucht es auf die TI auszuweiten es zerbricht allerdings vorne und hinten mit Ampere vor allem im Bezug auf dessen Hardware Kostenersparniss die teils versucht wird Softwaretechnisch vor allem aber allen voran über Nvidias Cluster Infrastruktur wieder aufzufangen bzw abzumildern.
ja die 3% machen den Unterschied...

MasterElwood
2021-10-23, 12:48:17
:biggrin: 900 , na dann hast du ja ein super geschäft gemacht. Nur 200 zu viel:D

besten 200 meines Lebens 😅

Thunder99
2021-10-23, 19:46:56
Sehe das anders es ist kein vollwertiger 2080 TI Ersatz, war es nie.
Erst mit der kommenden Super Serie wird man dieses Ziel erreichen, was man dort versprochen hat.
Selbst die 3070 TI erreicht teils die 2080 TI nicht , das ist absoluter irsinn in Nvidias normaler Generationsprunglogik die bis jetzt immer nach quasi dem selben Schema ablief x80 wird von x70 x70 von x60 usw SKU ersetzt bei weniger Stromverbrauch.

Bei der Präsentation hat Jensen alles versucht es auf die TI auszuweiten es zerbricht allerdings vorne und hinten mit Ampere vor allem im Bezug auf dessen Hardware Kostenersparniss die teils versucht wird Softwaretechnisch vor allem aber allen voran über Nvidias Cluster Infrastruktur wieder aufzufangen bzw abzumildern.
Selbst die "Super" Serie wird diesmal nicht effizienter laufen als die ältere Generation, wenn die 3070Ti 16GB V2 oder 3070 Super 16GB mit 250+W kommt :freak: :(

Thunder99
2021-10-31, 12:53:23
GA103 alive?
Gerade bei PCGH gefunden (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-3080-Ti-GA103-GPU-1382618/)

GPU GA103 7.680 @ 125 W für MOBILE

dildo4u
2021-11-01, 11:36:06
16GB 3070 TI und 3080 12GB kommen angeblich im Januar.


https://videocardz.com/newz/nvidia-geforce-rtx-3070ti-16gb-and-rtx-3080-12gb-to-be-announced-mid-december-launch-mid-january

Platos
2021-11-01, 11:41:57
Und die komischen Speicherkonfigurationen gehen weiter :D Die 3080 soll 12GB kriegen aber die 3070Ti 16GB;D

Naja, die Preise werden sowieso lächerlich sein, also wen interessierts.

Troyan
2021-11-01, 11:42:45
Frage mich, ob die 384bit für GA102 nicht übertrieben waren. Mit GDDR6X hat man viel Bandbreite, aber genutzt wird diese kaum. Wäre man bei 256bit geblieben, hätte man auch nach unten viel besser arbeiten können.

1 TB/s Bandbreite sind irgendwie cool. Hätte man auch nie gedacht, dass es mit GDDR möglich wäre.

Und die komischen Speicherkonfigurationen gehen weiter :D Die 3080 soll 12GB kriegen aber die 3070Ti 16GB;D

Naja, die Preise werden sowieso lächerlich sein, also wen interessierts.

iPhone 13 Mini mit 256gb ist günstiger als das iPhone 13 Pro mit 128GB. Lolig, nicht? Find ich auch.

maximus_hertus
2021-11-01, 12:10:29
iPhone 13 Mini mit 256gb ist günstiger als das iPhone 13 Pro mit 128GB. Lolig, nicht? Find ich auch.

Aha. Und das hat jetzt was mit dem Thread zu tun? Kapiere ich nicht...

Troyan
2021-11-01, 12:15:24
Lies dir nochmal durch, was Platos geschrieben hat. Für ihn ist es komisch, dass ein teures Produkt weniger Speicher besitzt.

Platos
2021-11-01, 12:39:33
Ja, aber nicht nur das, auch die Balance aus Speichermenge und Rechenleistung. Die 3060 hat mehr Speicher wie ne 3080... Auch unabhängig vom Preis ist das völlig bescheuert.

ChaosTM
2021-11-01, 12:45:21
Als die 3080er vor einem Jahr raus kam gab es noch keine 2GB Module iirc und man wollte kein aufwendiges PCB ala 3090er.
Sparen war angesagt und eventuelles "double Dipping". Im Zweifall lieber zu wenig Speicher als eine zu kleinen Marge.

Edgecrusher86
2021-11-01, 12:52:16
3090 Ti 24GB - 384-bit SI - 21 Gbps G6X - 1008 GB/s - 400W TGP - $1599
3090 24GB - 384-bit SI - 19,5 Gbps G6X - 936 GB/s - 350W TGP - $1499
3080 Ti 22GB - 352-bit SI - 20 Gbps G6X - 880 GB/s - 350W TGP - $1199 [inkl. 90 FE Kühler + 90 Ti PCB]
3080 12GB - 384-bit SI - 16 Gbps G6 - 788 GB/s - 300W TGP - $799
3070 Ti 11GB - 352-bit SI - 14 Gbps G6 - 616 GB/s - 250W TGP - $599
3070 10GB - 320-bit SI - 14 Gbps G6 - 560 GB/s - 230W TGP - $499
3060 Ti 9GB - 288-bit SI - 14 Gbps G6 - 504 GB/s - 200W TGP - $399
3060 8GB - 256 bit SI - 14 Gbps G6 - 448 GB/s - 180W TGP - $299

So hätte ich das Lineup aufgestellt. Das ist doch des Öfteren per se unausgewogen bei Ampere. :D

maximus_hertus
2021-11-01, 12:53:23
Lies dir nochmal durch, was Platos geschrieben hat. Für ihn ist es komisch, dass ein teures Produkt weniger Speicher besitzt.

Das Mini hat in deinem Beispiel aber weniger Speicher als das Pro. Von daher kapiere ich dein Beispiel nicht.

Mini und normales iPhone = 4GB und die Pro Modelle haben 6GB.

Eine logische / saubere Trennung. Das High End Produkt hat mehr RAM als die kleineren.


Allerdings ist nVs Produktportfolio eh komplett durcheinander und teils sinnlos. Da aber die MArktmechanismen eh nicht greifen und es eigentlich komplett egal ist, wie die KArten konfiguriert sind, ist es eh relativ sinnlos darüber zu philosophieren. Selbst eine 6 GB RTX 3080 für 999 USD würde ratzfatz ausverkauft sein.


Ich bin ja auf die 12GB 2060 gespannt bzw. primär, ob man die auch kaufen kann und falls ja, zu welchem Preis.

Thunder99
2021-11-01, 13:58:45
Er hat den Hauptspeicher gemeint, 256GB vs. 128GB.

Könnte mit vorstellen, dass der GA103 als RTX 3750Ti 16GB kommt, oder so...

dildo4u
2021-11-03, 06:45:57
Die 2060 12GB ist die einzige sinnvolle GPU in Monaten, da der Chip nicht die selbe Fertigung wie der Rest nutzt.
Bei AMD würde es ja nix bringen ältere GPUs zu bringen da die 7nm nutzen.

davidzo
2021-11-27, 14:58:50
GA103 oder ein sehr auf Effizienz getrimmter GA102 Salvage?

https://www.servethehome.com/nvidia-rtx-a4500-20gb-gpu-for-professionals/


20GB 320bit GDDR6
7168 Cuda Cores
23,7 Tflops FP32
200Watt TBP / 1x 8Pin

EDIT: Laut Videocardz und AIDA64 ist es GA102GL

davidzo
2021-12-15, 21:56:05
https://videocardz.com/newz/samsung-confirms-its-gddr6-20gbps-and-24gbps-memory-is-now-sampling
Samsung is now sampling 16Gb (2GB) memory modules based on GDDR6 technology with a bandwidth of 20Gbps (K4ZAF325BC-SC20) and 24Gbps (K4ZAF325BC-SC24) to its partners. The new modules have appeared in Samsung’s product catalog, as spotted by @Olrak29_.
Lol nvidia+Micron :freak:
- so langsam habe ich den Eindruck die Amerikaner verlieren den Anschluss an die Koreaner im Speicherbusiness.

Erst der Micron memory Fail bei Turing mit Micron GDDR6 bei der 2080ti, 2070 oemkarten etc. und 2 Jahre später das völlig unnötige GDDR6X Eigengebräu. Die fallen zwar nicht so häufig aus, aber von den angeblich weniger joules pro Bit im vergleich zu GDDR6 ist in der Praxis nichts übrig.

Die Koreaner zeigen nun wie man es macht und bieten einfach standard GDDR6 an der deutlich schneller als Microns teure highend-Module ist.

Unicous
2021-12-15, 22:59:55
Ich verstehe nicht so recht, worauf du hinaus willst?

Immerhin hatte Nvidia damit für ein Jahr ein Monopol auf GPUs mit deutlich höherer Bandbreite.

Dass Micron mit dem Alleingang der nur möglich war, indem man sich eben nicht an die GDDR6 Spec halten, mehr Probleme hatte, als sie öffentlich zugestehen wollten, ist dabei nur eine Randnotiz, solange der Umsatz stimmt. Und nach dem fast schon miserablen Umsatz im letzten Jahr hat sich das offensichtlich gelohnt.

Kann man fast schon vergleichen mit Apple die sich exklusiv die ersten Kapazitäten bei TSMC sichern. Das ist auch nicht billig und vermutlich liegt die Ausbeute nicht sofort im grünen Bereich , aber damit liegen sie ein paar Monate vor der Konkurrenz und das ist schon viel wert.

Micron wird sicherlich bald reagieren, bislang mussten sie es ja nicht.:wink:

davidzo
2021-12-15, 23:11:23
Immerhin hatte Nvidia damit für ein Jahr ein Monopol auf GPUs mit deutlich höherer Bandbreite.

Sieht man ja an der 3070ti wieviel das bringt :freak:

Und auch die 3080 wäre mit 20GB normalem 16gbps GDDR6 an 320bit einfach die viel bessere Karte gewesen als mit nur 10gb G6X und irrwitzigem Verbrauch trotz TDP Limit welches die Chiptaktraten hart deckelt.


Micron wird sicherlich bald reagieren, bislang mussten sie es ja nicht.:wink:

Die haben vor wenigen Wochen den shiny new 21Gbps G6X vorgestellt. Der muss erstmal mit der Ampere refresh gen auf den Markt kommen, so schnell kommt da nichts neues mehr.

Unicous
2021-12-15, 23:25:02
Also "vorgestellt" hat Micron das vor über einem Jahr.:wink:

https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/

Ich sehe gerade nicht so viel Bedarf es werden in den nächsten Monaten keine "neuen" GPUs vorgestellt sondern maximal Aufgüsse, Micron wird sicherlich bald nachliefern oder sich zur Abwechslung mal wieder an die Spec halten. *shrug*

Wir werden sehen, welchen Weg Nvidia geht und ob sie noch höhere Bandbreite brauchen oder sich mit dem was Micron bzw. Samsung und hynix liefern zu Frieden geben.

Dass Nvidia sich beim Verbrauch nicht gerade mit Ruhm bekleckert und GDDR6 Teil des Problems ist scheint dem Verbraucher egal zu sein, denn die Nachfrage kann weiterhin nicht bedient werden.:wink:

=Floi=
2021-12-15, 23:31:15
Oder einfach ein breiteres speicherinterface. Bei den preisen sind die produktionskosten egal!
Da wäre wahrscheinlich langsam getakteter per 512bit angebundener speicher dann sogar sparsamer, wenn dieser auch so skaliert wie die chips. Ich hoffe, NV teilt die tdp mal in chip und ram auf.

Unicous
2021-12-16, 00:21:23
512Bit wird vermutlich bis auf Weiteres nicht mehr kommen, zumindest nicht im Consumer-Bereich. Das ist heutzutage HBM-Territorium.

Ich würde schätzen, wenn man die Wahl hat den Die unnötig aufzublasen und damit den Yield in den Keller drückt indem man ein fettes 512Bit-Interface einpflanzt oder gleich HBM, wo die PHYs iirc sogar ingesamt etwas kleiner ausfallen im direkten Vergleich sind, dann entscheidet man sich heute für HBM.

AMD geht den Weg über einen fetten Cache und Nvidia wird sich das bestimmt auch schon angeschaut haben, wobei sie ja da eh schon ordentlich investiert haben.
Die PHYs shrinken nicht linear und werden dadurch immer mehr zum Problem, SRAM hat immerhin noch etwas Luft.

davidzo
2021-12-16, 00:49:57
Oder einfach ein breiteres speicherinterface. Bei den preisen sind die produktionskosten egal!
Da wäre wahrscheinlich langsam getakteter per 512bit angebundener speicher dann sogar sparsamer, wenn dieser auch so skaliert wie die chips. Ich hoffe, NV teilt die tdp mal in chip und ram auf.

Wo willst du 512bit denn unterbringen?
Schon die RTX3080 hat ein sündhaft teures 12 Layer PCB mit backside drilling. Mehr Layer machen erst mit buried Vias wieder sinn, da die Via area mit so vielen Layern mittlerweile schon signifikant an Boardfläche einnimmt im vergleich zu der Fläche der traces. Und buried Vias sind nochmal mehrere Größenordnungen teurer und für Serienprodukte überhaupt nicht skalierbar. Das kann man vielleicht mal machen für ne iphoneplatine von wenigen Quadratzentimetern, aber nicht bei so großen PCBs.

512bit sind nicht mehr so einfach wie zu GDDR5 Zeiten. GDDR6 hat nicht nur mehr pins, sondern auch viel höhere Anforderungen an die Signalintegrität und Leitungslänge. Schau mal wie die GDDR6 Module rund um Navi21 angeordnet sind. Wenn man die Power delivery Seite noch schrumpfen könnte, wären da maximal 320bit möglich auf so einer Platine. 384bit wie die 3090 sind schon ein Kunststück. Für 512bit ist einfach kein Platz mehr mit GDDR6.

Neben HBM bietet sich da auch on package memory an, siehe M1max. Viel Platz auf dem package ist neben einer riesen GPU aber wohl nich mehr und das scheint auch eher für low power gedacht und nicht so flexibel bestückbar zu sein wie GDDR auf dem PCB. Nicht ohne grund verwendet Apple nur lpddr. Mit gddr hätte die halbe interfacebreite gereicht.

HOT
2021-12-16, 09:08:56
Du brauchst schlichtweg die Bandbreite nicht. Igor hat doch ne A6000, die hat "nur" 16GT/s RAM. Damit läuft alles genauso gut wie mit ner 3090, trotz weniger Bandbreite.
NV und Micron haben sich da mMn in einen Deal verstrickt und jetzt muss NV den schrottigen 6X-RAM abnehmen, das ist das Problem aus meiner Sicht. Es gibt ja auch immer noch keine 16Gb-6X, von daher ist das soweiso nicht konkurrenzfähig, war es von Anfang an nicht. Die paar GT mehr machen den Kohl einfach nicht fett. NV hat da einfach gefailt, das ist alles. Und die 3070Ti beweist genau das, denn sonst gäbe es das Produkt so nicht. Jetzt wo Micron selbst 16GT/s 16Gb-GDDR6 anbietet, könnte man einige Produkte darauf umstellen und auf den 6X-Speicher verzichten, genau das erwarte ich für die 3070Ti mit 16GB.

Dural
2021-12-16, 11:22:42
Mit GDDR6X könnte man eher nur 256Bit bringen.

Die Cache in der GPU noch aufbohren, und richtig schnellen GDDR6X und man hätte die selbe Leistung wie mit GA102.

GDDR6X in der Form wie es jetzt bei Ampere ist habe ich auch nie verstanden.

Daredevil
2021-12-16, 11:36:59
Wäre dort kein GDDR6X drauf, würde ne 3090 auch nicht für 3000€ bei Ebay gehandelt werden.
Das gleiche gilt für teuren HBM auf Vega Karten und der Radeon VII.
Es gibt Anwendungen, die maximal viel Bandbreite benötigen, hätte AMD noch die VII im Portfolio, würden sie sich dumm und dämlich verdienen.

dildo4u
2021-12-16, 11:40:02
Niemand anderes nutzt es bei GDDR6 bieten AMD,Intel,Sony und MS mit.
Und soll die näste Revisionen nicht mher Speicher pro Modul erlauben?
Damit erledigt sich das Problem die Module auf der Rückseite der Karte zu kühlen.

davidzo
2021-12-16, 13:16:54
Es gibt Anwendungen, die maximal viel Bandbreite benötigen, hätte AMD noch die VII im Portfolio, würden sie sich dumm und dämlich verdienen.
Beispiele?

Also "vorgestellt" hat Micron das vor über einem Jahr.:wink:

https://www.computerbase.de/2020-09/gddr6x-grafikspeicher-21-gbps-micron/
Verfügbar soll es aber erst in Q3/21 oder sogar Q1 22 sein. Micron pullt da einen klassischen Gelsinger. Nicht unüblich für amerikanische Unternehmen in letzter Zeit agressiver beim Salespitch zu sein, während es beim Marktführer Samsung reicht wenn man einfach still und heimlich den Produktkatalog erweitert.

Das größte Problem ist aber imo auch dass G6X bisher nur in 8Gbit Modulen verfügbar ist. Ich schätze dass das nur eine stopgap Lösung war, weil die 21Gbps 18Gbit Module sich stark verzögert haben. Nvidia wir keinen teuren Pam-4 Speichecontroller gebaut haben, bloß für 18 und 19Gbit Module mit mickrigen 8Gbit. Die werden mit 21Gbit und 16Gbit geplant haben, dann aber wegen dem Zeitplan und Verfügbarkeit auf die kleineren Module umgeschwenkt haben.

HOT
2021-12-16, 13:21:23
Niemand anderes nutzt es bei GDDR6 bieten AMD,Intel,Sony und MS mit.
Und soll die näste Revisionen nicht mher Speicher pro Modul erlauben?
Damit erledigt sich das Problem die Module auf der Rückseite der Karte zu kühlen.
Glaub ich nicht. Eher verbaut man 20GT/s GDDR6. MMn ist 6X ne Sackgasse, die nicht weiter verfolgt werden wird. 16Gb-Module sind bislang nicht absehbar, nicht mal gerüchtehalber; ich würd sagen, dass das von Micron zu Grabe getragen wird, sobald besserer GDDR6 verfügbar ist. Samsung geht hoch bis 24GT/s, SKHynix samplet grad 20GT/s, Micron wird sicherlich folgen.

Daredevil
2021-12-16, 13:26:20
Beispiele?

https://www.innosilicon.com/html/ip-solution/14.html
Today at the “Fantasy One GPU Product Press Conference”, Innosilicon, a Chinese company offering graphics and memory solutions unveiled its first discrete GPU.

According to the data provided by Innoslicon, this GPU offers up to 5 TFLOPS of single-precision compute power and 160 a fillrate of GPixel/s. It is equipped with DisplayPort 1.4, HDMI 2.1, and VGA connectors. This card is to be equipped with up to 16 GB of GDDR6(X) memory across a 128-bit interface. So far, the G6X technology has been exclusive to NVIDIA/Micron Ampere GPUs, but apparently, Innosilicon made a lot of research in PAM4 signaling and was able to unlock up to 19 Gbps memory bandwidth for their GDDR6X implementation.


https://videocardz.com/newz/innosilicon-graphics-cards-based-on-fantasy-one-gpu-feature-up-to-32gb-gddr6x-memory

HOT
2021-12-16, 13:31:34
Die kaufen die Resterampe, die NV nicht mehr haben will. Das ist halt sehr billig für die Chinesen.

Daredevil
2021-12-16, 14:12:26
Ampere scheint gut zu laufen.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2021
https://abload.de/img/aufteilung-pc-gpu-abstbknb.png

Thunder99
2021-12-16, 15:11:28
Sieht man ja auch an den Geschäftszahlen :freak:

Bei den ganzen Neuvorstellungen entpuppt sich immer mehr die "alte" 3080 10GB als DIE Karte mit dem besten Preis/Leistung, gemäss UVP.
Es ist zu befürchte, dass es dies nicht mehr geben wird...

davidzo
2021-12-16, 18:39:37
https://www.innosilicon.com/html/ip-solution/14.html


https://videocardz.com/newz/innosilicon-graphics-cards-based-on-fantasy-one-gpu-feature-up-to-32gb-gddr6x-memory

Was ist denn das für eine Anwendung?

Du sprachst von konkreten Anwendungen die maximal viel Bandbreite benötigen.
Welche sind das, - Mining?
Willst du damit etwa suggerieren dass Nvidia Ampere für GDDR6X designed hat um die Karten attraktiver für Mining zu machen?

Troyan
2021-12-31, 10:41:11
Von Videocardz zur 3080TI im Notebook:

"Featuring 16GB of the fastest GDDR6 memory ever shipped in a laptop, the RTX 3080 Ti delivers higher performance than the desktop TITAN RTX. "
https://twitter.com/VideoCardz/status/1476630083695751173

Für 175W ist das beachtlich. Titan RTX liegt bei 280W mit 24GB. Das sollte also ~3070TI Niveau sein und somit 23% effizienter als eine 6800.

Ob nVidia GA103(S) nur im Notebook verkaufen wird? Der Chip scheint der Sweet-Spot bei Ampere zu sein.

dildo4u
2021-12-31, 10:52:54
3070ti ist ca dort 15k im Timespy.

Thunder99
2021-12-31, 13:09:49
GA103 wird wohl zu schwach sein für den Desktop. Abstand zwischen 104 und 102 ist zwar relativ groß, aber schon mit etlichen Produkten gefüllt.

Ansonsten müsste es ja eine 3075 Ti 16GB geben...

iamthebear
2022-01-01, 21:42:43
Bei der Namensgebung kann man ja kretiv sein. Irgendetwas wird Nvidia schon einfallen.

Wenn Arc mit 16GB launched und tatsächlich auf 3070 Ti Niveau ist, so könnte es für Nvidia durchaus Sinn ergeben GA103 mit 60SM + 16GB 256Bit GDDR6X zu launchen und dafür die 3080 auslaufen zu lassen. Die Frage ist nur ob Nvidia genug VRAM dafür hat.

basix
2022-01-02, 13:32:11
Mit 60 SMs und +10% Takt käme man wohl schon auf 3080 Niveau.

BlacKi
2022-01-02, 14:22:29
Von Videocardz zur 3080TI im Notebook:

https://twitter.com/VideoCardz/status/1476630083695751173

Für 175W ist das beachtlich. Titan RTX liegt bei 280W mit 24GB. Das sollte also ~3070TI Niveau sein und somit 23% effizienter als eine 6800.

Ob nVidia GA103(S) nur im Notebook verkaufen wird? Der Chip scheint der Sweet-Spot bei Ampere zu sein.gddr6 non x.

es wird doch schon länger behauptet, das 6x vielzuviel saft säuft. entweder ist 6x billiger(weils keiner haben will) oder nv muss bestellte ware abnehmen. ich kann es mir anders nicht erklären, warum nv aktuell weiter 6x verbaut.

HOT
2022-01-02, 14:47:53
Vertrag mit Micron, die werden gewisse Mengen abnehmen müssen, das ist das Problem. Da muss sich NV halt überlegen, wo man den Mist verbaut. Dass man 6X überhaupt nicht braucht zeigen die Quadros, die haben alle normalen GDDR6. So einen Vertrag schließt man ja recht früh ab, nach den guten Erfahrungen mit 5X kann man das ja auch verstehen. Nur ist 6X halt kacke geworden und wird von normalem 6 in 22 sogar überholt.
Ein weiterer schwerer Nachteil ist, dass es bisher kein Anzeichen von 16Gb-Varianten für 6X gibt. Das kann aber noch werden.

dildo4u
2022-01-02, 15:04:25
3090 ti braucht sie GDDR6 ist bisher nur bis 18gbps geplant.

BlacKi
2022-01-02, 15:21:26
der vorteil von mehr bandbreite durch 6x ist minimal. wenn man den mehrverbrauch ins boostverhalten stopfen kann, gerade beim full chip, dann kommt mehr performance bei rum, selbst bei spielen die die bandbreite nutzen können. die meisten spiele skalieren nicht wirklich mehr mit bandbreite.

davidzo
2022-01-02, 15:21:42
3090 ti braucht sie GDDR6 ist bisher nur bis 18gbps geplant.

20gbps und 24gbps gibt es als Sample, 18gbps ist bereits in Massenproduktion:
https://videocardz.com/newz/samsung-confirms-its-gddr6-20gbps-and-24gbps-memory-is-now-sampling

gddr6 non x.

es wird doch schon länger behauptet, das 6x viel zu viel saft säuft. entweder ist 6x billiger(weils keiner haben will) oder nv muss bestellte ware abnehmen. ich kann es mir anders nicht erklären, warum nv aktuell weiter 6x verbaut.

Genau, denn bei der Menge an GPUs die nvidia verkauft steht da mindestens eine eigene Fab bei Micron für bereit. Das kann man nicht mal eben wieder canceln. G6X hatte Jahre Vorlaufzeit und eine Umrüstung würde nur Kapazitäten und Zeit kosten.

AMD konnte mit Navi2x nur auf die neuen Samsung 16Gbps Module mit 2GB Kapazität gehen, weil sie nur ein Bruchteil des Bedarfs haben. Das konnte Samsung erfüllen, aber für Nvidia Ampere hätte das einfach eine starke Verzögerung bedeutet, bzw. die Verfügbarkeit von Ampere Grafikkarten weiter eingeschränkt.
Nvidia hat mit guten 70% Marktanteil an allen GPUs einen sehr ähnlichen Anteil am globalen Markt für GDDR6 und G6X. Hätten sie ebenfalls auf die 16Gbps Module die es anfangs nur von Samsung gab gesetzt, hätte Samsung um mindestens Faktor 3x mehr Kapazitäten für diese Produktlinie gebraucht.
Sowas aufzubauen braucht Zeit und mehr supplier sind ja auch kompetitiv nicht unwichtig angesichts dessen dass man ja schon die GPU-DIEs von Samsung bezieht.
Wahrscheinlich war Samsung einfach nicht imstande rechtzeitig ausreichend zu liefern und daher war G6X von Micron mit eben nur 1GB DIEs wohl in der Planungs- und Designphase von Ampere der beste Kompromiss wenn man den Launchframe von Ampere nicht um 2-3 Quartale pushen wollte.
Dass der letztendlich säuft wie ein Loch hat man damals wohl noch nicht gewusst und wird eher an Designfehlern im Speichercontroller oder am suboptimalen Prozess liegen. Micron sprach noch beim Launch von deutlich reduzerten pj/byte Verbrauch gegenüber normalem GDDR6, irgendwie werden sie das ja gemessen haben.

Die Quadros haben GDDR6 weil sie keine Volumen ausmachen. Außerdem braucht man da sowieso die großen 2GB Module.

Durch die Chipkrise wird der production ramp von GDDR6 sicher auch länger gedauert haben als gedacht. Es kann schon sein dass nvidia unter anderem deshalb GA103 so lange hinausgezögert hat, da man den idealen Ram dafür nicht verfügbar haben würde.

Wuge
2022-01-03, 15:47:46
...und es steht immernoch zur Frage, ob GDDR6x "säuft" oder der IMC der GPU. Vermutlich ist es letzeres... dann würde das Ding mit 20 Gbps GDDR6 genauso schlucken.

Leonidas
2022-01-03, 16:35:57
https://twitter.com/VideoCardz/status/1477994011830980614
RTX 3090 Ti OC model recommended PSU: 1000W

Daredevil
2022-01-03, 16:49:03
Time has come :D
https://abload.de/img/bildschirmfoto2022-01m1jv0.png

Wehe die bringen 500w+ raus, ohne das ordentlich zu kühlen. Dann werd ich fuchsig.

Lehdro
2022-01-03, 16:51:20
https://twitter.com/VideoCardz/status/1477994011830980614
RTX 3090 Ti OC model recommended PSU: 1000W
Wenn man sieht das selbst hier im Forum manche mit fragwürdigen GPU-Netzteil-Konfigurationen unterwegs sind, ist die Empfehlung nur konsequent. Gerade wenn man bedenkt, was so alles am Netzteilmarkt angeboten wird, mit teilweise sehr fragwürdigen technischen Spezifikationen. Ich sage nur Gigabyte (https://www.youtube.com/watch?v=7JmPUr-BeEM).

HOT
2022-01-03, 17:48:52
Hat die Ti jetzt nen NVidia 12 Pin oder einen PCIe5 16 Pin (also 12+4 Pin)? Irgendwie widersprechen sich die News etwas :freak:.
Dementsprechend muss man ja dann evtl. ein PCIe5-fähiges Netzteil haben. Der PCIe5 Stecker könnte bei voller Beschaltung 600W IIRC. Das würde ja passen.

Thunder99
2022-01-03, 18:06:20
Es wird immer kranker :freak:

horn 12
2022-01-03, 18:25:20
Die "Greta" wird wohl langsam durchgreifen müssen :-)

MAX|HASS
2022-01-03, 20:04:19
Deutschland soll ja "nur" für rund 2% der weltweiten CO²-Emissionen verantwortlich sein, obwohl es in den Top10 der größten Verursacher ist. Demnach hätten die hochgezüchteten Grafikkarten wie die 80ti/90 wohl innerhalb dessen einen so geringen Stellenwert, bei sovielen Nachkommastellen dreht Greti™ sich nochmal um.

Übrigens schrieb' unsere Tageszeitung am Wochenende (wohl aus einer Studie ab), daß das Internet in genau dem Bereich der Emissionen bereits den globalen Flugverkehr ein- oder sogar überholt hat. Beide sind seit jeher bzw. mittlerweile ebenfalls für 3-5% verantwortlich. Beim Netz natürlich die riesigen Serveranlagen, deren Kühlung etc. vor den Privathaushalten.

So, suche trotzdem ne 3060ti oder 3070, jemand was anzubieten? 8gb stören mich nicht so sehr bei 1080p, aber die hat dadurch auf Jahre ordentlich bumms. Angebote?

ryan
2022-01-04, 00:11:47
https://videocardz.com/newz/nvidia-geforce-rtx-3090-ti-pictured-specifications-confirmed

450W TDP, der Wahnsinn. Wo soll das noch hinführen. Es braucht dringend die 3nm/4nm/5nm Generation von TSMC.

Daredevil
2022-01-04, 00:16:41
Ich verstehe nicht, wieso man 450w auf den Kühler der 3090 packt, der schafft das nicht ordentlich ohne Turbinenlautstärke.
Es sei denn, Nvidia weiß mehr und AMD haut eine verbesserte 6900xt o.ä. raus.
Eine Radeon VI quasi? :D

Linmoum
2022-01-04, 00:30:56
Wer hätte noch vor drei Jahren gedacht, dass Nvidia so schnell solche wahnsinnigen Schluckspechte auf den Markt wirft. Das sind ja keine AiB-Spielereien der Partner, sondern Referenz/FE selbst.

Ich kapiere es aber immer noch nicht. Sowohl von der Brechstange her, als auch dann vom Kühler her, wie Daredevil schon anmerkt. Wobei es viel eher beim Speicher statt der GPU selbst interessant werden dürfte dahingehend.

Das bringt doch aber alles nichts außer schlechte Presse. Weil es halt einfach nicht nötig ist.

Slipknot79
2022-01-04, 01:06:12
https://videocardz.com/newz/nvidia-geforce-rtx-3090-ti-pictured-specifications-confirmed

450W TDP, der Wahnsinn. Wo soll das noch hinführen. Es braucht dringend die 3nm/4nm/5nm Generation von TSMC.


Alles qool, wir werden auch bei 3-5nm mindestens 450W sehen. (y)
Von mir aus MOAR! :redface:

Linmoum
2022-01-04, 01:16:56
450W sind nicht per se das Problem, wenn die Performance (und damit Effizienz) entsprechend steigt. Hier haben wir dann aber 350W vs. 450W bei was? 5-6% mehr Performance?

Den Sinn versteht wahrscheinlich nur das Marketing bei Nvidia, die eine 3090 Ti haben wollen weil Baum.

horn 12
2022-01-04, 02:15:43
Daredevil kann Recht behalten und AMD bringt wirklich die AIO Version in verbesserter Form in den Retailmarkt und man erreicht wirklich die 2,85 bis knappe 3 Ghz mit dieser Version und lässt auch 350 Watt zu.
Das eine Überraschung kommt zusammen mit Zen 3 _3D Cache ist wohl nicht mehr von der Hand zu weisen.

BlacKi
2022-01-04, 02:24:45
also mit stock voltage curve skaliert der takt schon noch nach oben. gerade beim fullchip. selbst mit optimierter voltage curve schluckt die karte je nach spielt mit 1800mhz @0,8v 400w. die extra 50w zur 3090ti könnten da noch etwas helfen. vermutlich kann man die 3090ti aber noch im powerlimit anheben. dann könnte die karte schon noch ca 8% schneller sein.

die 350w der 3090 sind ja eigentlich zu wenig. die 3090ti machts halt gleich richtig. feuer frei für 1900mhz bei 0,9v und dem fullchip bei 500w+^^

horn 12
2022-01-04, 02:48:34
Also voll ausgefahren bis zu 15% schneller als RTX 3090
Dies sollte reichen um die Performance Krone halten zu können.

dildo4u
2022-01-04, 06:19:11
Wer hätte noch vor drei Jahren gedacht, dass Nvidia so schnell solche wahnsinnigen Schluckspechte auf den Markt wirft. Das sind ja keine AiB-Spielereien der Partner, sondern Referenz/FE selbst.

Ich kapiere es aber immer noch nicht. Sowohl von der Brechstange her, als auch dann vom Kühler her, wie Daredevil schon anmerkt. Wobei es viel eher beim Speicher statt der GPU selbst interessant werden dürfte dahingehend.

Das bringt doch aber alles nichts außer schlechte Presse. Weil es halt einfach nicht nötig ist.

Naja Nvidia hat nix davon wenn 3090 für 2500€ weggehen wenn der MSRP nicht angepasst wird aus ihrer Sicht haben sie 2021 tonnen Umsatz verloren.
Mal sehen was sie aufrufen.
Wenn sich 5nm verzögert kann die 3090 TI locker 8 Monate der King sein.

horn 12
2022-01-04, 09:02:06
Wohl mindestens 1799 bis 1899 Euro!
Und viele wird es wohl nicht geben in der nächsten Zeit!

basix
2022-01-04, 09:35:28
Wohl mindestens 1799 bis 1899 Euro!

Diesen Bereich hätte ich auch gesehen. Dazu 2 GByte GDDR6X Module, was das Board und die Kühlung simpler macht.

Nvidia kann durch den höheren Preis etwa +30% mehr am selben Chip verdienen. Und wird damit locker durch kommen. Würde ich als Unternehmer auch so machen, absetzen kann man die die Dinger fast zu beliebigen Preisen.

horn 12
2022-01-04, 09:49:15
abi = horn12 :-)

Troyan
2022-01-04, 10:02:27
Computerbase hatte doch die Asus Strix 3090 im Test: https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/2/#abschnitt_so_taktet_die_asus_rtx_3090_strix_oc_im_test

480W und an die 2000MHz. Die 450W sind ein offenes Power-Limit, was vielleicht für einige interessant ist.