Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Platos
2018-08-28, 15:44:27
Edit: Zum 3D Mark Bild: 1080TI--->2080 + 5% Mehrleistung, 1080TI--->2080 +5% teurer = +0% besserer P/l und dazu noch die Kirsche... 3 GB weniger Speicher :D
Ist der 3DMark leak hier schon bekannt?
Könnte mal ein Mod hier aufräumen pls ?
Anstatt dass man wirklich was von Turing hier im Thread erfährt, wird hier nur rum geflamed und das Wichtige geht unter. Ist ja echt mühsam hier. Was soll das ?
MorPheuZ
2018-08-28, 15:58:26
Wow, da schreibt man einmal kurz ne Frage und man wird gleich gedisst - sehr schön hier...
Platos
2018-08-28, 16:00:09
War ja nicht gegen dich sondern zum Zeigen, dass hier im Turing Thread schon Leute nach Turing-Infos fragen müssen, weil zu viel geflamed wird (nicht von dir) und man eig. gar nichts mehr von Turing liest/findet.
TobiWahnKenobi
2018-08-28, 16:01:34
nächstes mal machen wir zwei threads.. einer mit (pro) und einer mit (contra).. so bleibt das gedisse und gepisse direkt draußen.. oder halt drinnen.. je nach standpunkt.
(..)
mfg
tobi
Platos
2018-08-28, 16:03:11
Jap, oder ein Fakten-Sammlungs-Thread und dann ein Diskussionsthread dazu. Eigentlich keine schlechte Idee...
Matrix316
2018-08-28, 16:11:12
War ja nicht gegen dich sondern zum Zeigen, dass hier im Turing Thread schon Leute nach Turing-Infos fragen müssen, weil zu viel geflamed wird (nicht von dir) und man eig. gar nichts mehr von Turing liest/findet.
Naja, die Turing Katze ist doch schon aus dem Sack. Jetzt geht's nur darum, warum gerade die TI so scheiß teuer ist.
Aber was ich etwas blöd finde ist die Gameauswahl die man so gezeigt hat. Metro und Battlefield sind ja ganz nett, aber wo ICH gerne schönere Beleuchtung hätte wäre bei was ganz anderem: Fifa, Formel 1, Project Cars, Forza.... Bei Sportspielen und gerade Rennspielen die im Freien spielen, ist alles immer super ultra realistisch, aber der Himmel wirkt immer Fake und das nimmt einem die Immersion.
Beim Shooter interessiert mich das nur, wenns Spiel kurz beginnt, man sich staunenend umschaut und dann wird auch schon losgeballert. Das ist so wie mit 3D im Kino. Am Anfang vom Film vielleicht interessant, aber danach schon nicht mehr und kostet nur Geld und bringt so gut wie nix.
Platos
2018-08-28, 16:20:40
Genaue Spieleleistung ist ja nicht bekannt. Auch nicht wirklich was genaues bezüglich DLSS, RT ect. ect. (das kann ja von mir aus auch hier rein). Jetzt mit dem 3DMark Test sieht man schon eher, wie in etwa die Leistung aussehen wird bei der 2080/2070 zumindest. (Mir fällt gerade ein, dass das ja auch die 70-er sein könnte).
SKYNET
2018-08-28, 16:25:18
Finalfantasy 15 z.B. :D
1600x1200 klingt wenig, hat aber fast die Pixelanzahl von FullHD. :)
Und da ich mit Full Settings und einer 1080ti schon Probleme hatte bei 25% Downsampling die 60fps zu halten, möchte ich das mal der 1080 ohne DS ebenfalls unterstellen.
Aber genug OT nun zu Steinzeitauflösungen.
stimmt, 1600*1200 = 1920000, FHD = 2073600... habe damals also schon immer fast mit der gleichen pixelzahl gespielt wie heute ;D ok, mein dell hat ja 1920*1200... also ein wenig mehr :)
Matrix316
2018-08-28, 16:31:17
Naja, Performancedaten will natürlich jeder wissen. Weiß auch nicht, warum da so ein großes Bohei gemacht wird. Jaja, NDA und die Tester sollen erstmal testen, aber ein wenig mehr Infos hätte da schon bei der Präsentation dabei sein können und nicht nur... Hey, wir machen jetzt Raytracing und wen interessieren da schon FPS und obs ruckelt... schaut die schönen Lichter! (*Hoffentlich merkt keiner, dass das eigentlich die neue Playstation Version ist ;)*)
nächstes mal machen wir zwei threads.. einer mit (pro) und einer mit (contra).. so bleibt das gedisse und gepisse direkt draußen.. oder halt drinnen.. je nach standpunkt.
Und Pro kommen nur die rein, die eine Bestellbestätigung nachweisen können. :biggrin: Ne, Scherz.
Fliwatut
2018-08-28, 17:03:38
Gamestar hat sich an einem Preisvergleich der letzten Geforce-Generationen versucht:
https://www.gamestar.de/artikel/steigende-preise-bei-nvidia-rtx-2080-ti2070-bis-gtx-580570-im-vergleich,3333987.html
Der Preissprung von Maxwell zu Pascal war auch nicht ohne, allerdings gab es da deutlich mehr Mehrleistung.
Troyan
2018-08-28, 17:04:32
Und Pascal wurde auch dafür kritisiert, kaum anders als Maxwell zu sein. nVidia kann es eben nie jeden Recht machen. :D
Dural
2018-08-28, 17:06:47
Das die 2080 1080ti Leistung hat oder sogar etwas darüber ist war doch zu erwarten.
die 2080ti ist dann noch mal rund 30% schneller als die 2080. Dazu hat man noch RTX, die Generation ist in anbetracht das wir keine neue Fertigung haben sogar sehr gut.
Angiesan
2018-08-28, 17:13:10
Dadurch das Pascal und gerade dort die 1080 ti wirklich vieles auch in hohen Auflösungen spielbar machte, kann ich schon verstehen, dass man die Erwartungshaltung hat dies mit der neuen Generation dann endlich auch mit hohen FPS zu spielen. Da sollten wir mal abwarten wie das mit Turing aussehen wird.
Ich denke die Motivation von NV liegt genau darin, das man denkt an einem Punkt angekommen zu sein, wo man was neues braucht um weiterhin die Spieler an der Stange zu halten. Wenn man heute sieht was eine PS4 mit einer für Highend GPUs gerade zu lächerlichen Leistungsdaten auf den Bildschirm zaubert, weiß man, dass es für den PC wenn sich nichts ändert, spätestens mit der kommenden Generation der Konsolen soweit sein wird, dass man die optischen Unterschiede mit der Lupe suchen muss. 4k gaming wird damit wohl auch endlich realisiert.
Was spricht dann abseits von dem Eingabegerät noch für PC gaming? Und nach wie vor ist das Geschäft mit Gaming HW eines das Hauptstandbein von NV.
Wenn dieser Markt in absehbarer Zeit wegbrechen oder stark einbrechen würde, wäre auch NV als Unternehmen in einer unschönen Situation.
Also, was bleibt denn NV anderes übrig wie die Flucht nach Vorne.
Viele schreiben, dass sich Spiele kaum noch grafisch unterscheiden können und es keine wirklichen Aha Erlebnisse mehr gibt. Ich habe gerade am PC FC5 zu Ende gezockt und die Grafik finde ich jetzt nicht besser wie z.B. AC origins auf der PS4 pro. Wohlgemerkt in 1440p und alles auf max aufgedreht außer das spielinterne DS das stand auf 1. Bei diesen einstellungen liefert die 1080 immer noch über 60 FPS.
Selbst ich der über Jahre ausschließlich am PC zockte und oft und gerne teure HW kaufte, spielt heute schon mehr an der PS4 wie am PC. Die Konsolen haben heute schon so einen hohen Standard in Sachen Grafikqualität etabliert, dass es bei vielen Spielen nur im direkten Vergleich auffällt, dass die Pc Version geringfügig besser aussieht. Es gibt aber heute auch schon genug Spiele die überhaupt keinen sichtbaren Unterschied offenbaren und der 4K Modus bei der PS4 pro sieht dann auch noch oft lecker aus und ist z.B. in Destiny super spielbar.
Alle PC Spieler sollten also auch dankbar sein wenn neue Innovationen Einzug halten und das Spielerlebnis zumindest grafisch einen weitere Aufwertung erfährt.
Sonst spielt man, wie das bei vielen Titeln heute schon so ist, mit "überteuerter" HW den gleichen Content wie mit den vergleichbar günstigen Konsolen. Spätestens wenn dann auch die Konsolen schnell und oder 4K liefern wird sich jeder früher oder später die Frage stellen, muss das Spielen am PC sein oder tausche ich im Zockerzimmer Monitor und PC sowie Chefsessel gegen 4K TV (da macht 4K aufgrund der Größe auch Sinn), Konsole und Couch.
Dadurch, dass AMD wohl auch in der kommenden Generation der Konsolen die APU liefern wird, hat sich der "Kampf" der beiden Unternehmen mehr und mehr auf die Märkte PC=NV und Konsolen=AMD verteilt. Wenn NV seine Vorteile jetzt nicht in die Waagschale werfen wird, könnte es am Ende wirklich ungut für das Unternehmen ausgehen, denn wie gesagt Rücken die Konsolen mit der kommenden Generation noch mal näher an die Grafikqualität des PC und dann könnte es nochmal einen deutlichen Ruck in Richtung Konsolen geben.
Mit RT, auch wenn es heute vielleicht noch nicht performant einsetztbar sein sollte, distanziert man sich schon vor dem Erscheinen der kommenden Konsolengeneration mit PC Gaming von diesen und kann dann über die Laufzeit dieser, i.d.R. 5-7 Jahre den Vorsprung ausbauen.
Meiner Meinung verschafft NV sich mit diesem im ersten Blick überhastet wirkendem Schritt hin zu RT und weiteren Inovationen einfach Zeit um sich neu zu sortieren. Wie breit und schnell soll denn bitte eine PC GPU mal sein, wenn man in den Konsolen erst mal Vega 64 Power finden wird, ich denke wir reden hier von einem Faktor von mindestens 3-4x so schnell.
Das zu realisieren wird aber bei immer schwierigeren neuen Strukturen und Shrinks schwer zu halten sein.
wolik
2018-08-28, 17:27:35
Die Titan V ist als günstige Einsteigerkarte für die Forschung gedacht gewesen, nicht fürs Spielen
Ah, ja. Deswegen läuft die Karte nur mit GEFORCE GAME READY DRIVER ;D Ja klar, Forschung.
Jap, oder ein Fakten-Sammlungs-Thread und dann ein Diskussionsthread dazu. Eigentlich keine schlechte Idee...
Diese Thread heisst Spekulationen :wink:
Ich denke die Motivation von NV liegt genau darin, das man denkt an einem Punkt angekommen zu sein, wo man was neues braucht um weiterhin die Spieler an der Stange zu halten. Wenn man heute sieht was eine PS4 mit einer für Highend GPUs gerade zu lächerlichen Leistungsdaten auf den Bildschirm zaubert, weiß man, dass es für den PC wenn sich nichts ändert, spätestens mit der kommenden Generation der Konsolen soweit sein wird, dass man die optischen Unterschiede mit der Lupe suchen muss. 4k gaming wird damit wohl auch endlich realisiert.
:up: Days Gone, RDR2, Death Stranding, The Last Of Us Part 2 alle diese spiele nicht mal entfernt brauchen ein 3-5K€ PC.
Und, was hab ich damit jetzt zu tun? So wars angekündigt und vermarktet, und was die Leute damit machen, ist doch nicht meine Sache. :confused:
wolik
2018-08-28, 17:39:33
Und, was hab ich damit jetzt zu tun? . :confused:
Mhhh... Denken ? Logisch ? Hinterfragen ? :biggrin: NV versucht mit ganze "macht" von 750€ für Ti auf 1250€ "umzustellen" Und dann Titan von 1250 auf 1950 ?
Matrix316
2018-08-28, 17:46:33
Mhhh... Denken ? Logisch ? Hinterfragen ? :biggrin: NV versucht mit ganze "macht" von 750€ für Ti auf 1250€ "umzustellen" Und dann Titan von 1250 auf 1950 ?
Moment Moment Momentchen Mal. Ich dachte die Titan V sei die neue Titan.
Ok, wenn dann nächstes Jahr die neue Titan T für 1250 kommt und die 2080TI dann nur noch 800 kostet, dann seis Nvidia verziehen für die Einstiegspreise. ;) Das wäre dann der ähnliche Switch wie von der 1080 zur 1080TI und würde dann sogar fast wieder Sinn ergeben. Die 1080TI kam ja damals auch erst viel später raus.
Platos
2018-08-28, 17:47:33
Der Preis ist doch gar nicht das Problem, wenn die Karte auch dem entsprechend Leisten würde. Tut sie aber nicht. 50% mehr Preis für 50% mehr Leistung ist 0% Fortschritt.
DLSS und RT ist ja schön und gut, aber ich bin definitiv nicht der, der Pionier spielt bzw. dafür zahlt.
Schnoesel
2018-08-28, 17:58:51
Wenn sie denn 50% mehr bringt (was ich nach dem Leak der 2080 im 3d Mark noch mehr bezweifle). Wer hat hier eigentlich nochmal behauptet, dass die 2070 so schnell sein wird wie die Titan Xp? Ich wage mich mal hervor und behaupte, dass nach Release die 1080Ti ggü. der 2080 die bessere Wahl ist (günstiger, 3GB VRAM mehr und ca. gleich schnell).
Platos
2018-08-28, 18:19:20
Wo im 3D Mark resultat steht denn, dass es die 2080 und nicht die 2070 ist ?
Wer soll denn ne 2070 haben, wenn die erst einen Monat später kommt?
Vergessen ^^
nairune
2018-08-28, 18:22:58
Wer soll denn ne 2070 haben, wenn die erst einen Monat später kommt?
Thunder99
2018-08-28, 19:09:36
Wer sagt PS4 Pro und PC hat keinen Unterschied in der Grafik vergisst wohl den Sitzabstand zum Ausgabegerät.
Sitz Mal genau so nah wie am PC bei der PS4 dann seht ihr wo die da mit der Grafik sparen da sie man ja nicht in der typischen Entfernung sehen kann (Detailgrad). Ausnahmen gibt es immer wieder, die meine ich daher auch nicht!
Es gibt auch leider viele Konsolenspiele die 1:1 portiert werden. Das es mies laufen kann ist mangels Zeit und Geld für eine gescheite Umsetzung leider möglich.
Monsta
2018-08-28, 19:34:58
Ich finde die Preisdiskussion voll für den Arsch, Nvidia nimmt die Preise wie sie wollen. Man muss ja nicht kaufen.
Die wissen auch das sich nicht jeder so etwas leisten kann.
Warscheinlich sind die neuen Karten einfach viel teurer in der Produktion als die alten. Bei der Die Größe und höheren TDP auch logisch.
Was man Nvidia vorwerfen kann, das sie im Preisbereich bis ca. 300- 350€ nichts neues vorgestellt haben. Und die Leistung schon lange in dem Bereich stagniert. GTX 970 release 2014 ca. 3,5Tflop.
Die 1060 ähnlich schnell zum ähnlichen Straßenpreis.
Da ich seit 13 Jahren am PC fast eh nur EvE-Online Spiele habe ich noch etwas Luft. Das geht noch in 4K. Aber lange sicher auch nicht mehr.
=Floi=
2018-08-28, 20:19:53
Zumindest hätte NV bei der teuren 2080ti die guten titan treiber freischalten können.
Auch so eine sache, wenn man als pro consumer das teue stück ein wenig mehr nutzen möchte.
Was ich ihnen einfach vorwerfe ist der zu geringe vram.
die 200€ mehr nehmen sie ja auch bei der founders edition.
Vram ist dehalb so wichtig, weil ein zu hoher verbrauch zu rucklern führt und wie bei der cpu leistung nicht so einfach reduziert werden kann!
BiZiNiZz
2018-08-28, 20:25:58
Auja jetzt bitte noch eine Ram Diskussion, selbst wenn auf den Grafikkarten 2TB wären, irgendwelche trotteligen Entwickler würden den auch vollbekommen......... siehe COD
Die sollten mal lieber am Streaming der Engine arbeiten, sprich verbessern, gibt genug Spiele mit Toller Grafik, die aber mit dem Ram extrem genügsam sind.
BlacKi
2018-08-28, 20:51:37
Mhhh... Denken ? Logisch ? Hinterfragen ? :biggrin: NV versucht mit ganze "macht" von 750€ für Ti auf 1250€ "umzustellen" Und dann Titan von 1250 auf 1950 ?
wenn die 1080ti (ich gehe davon aus das du mit 750€ die 1080ti meinst) 2016 gekommen wäre, dann hätte sie auch 1100-1200€ gekostet, denn die 1080 hat ja auch 800+€ gekostet am anfang. ergo ist die ganze preisdiskussion komplett am thema vorbei, bitte setzen sechs!
Troyan
2018-08-28, 20:53:25
Naja, die GTX1080TI kam ja im ähnlichen Zeitraum für 1200€ als Titan XP...
basix
2018-08-28, 20:56:07
Jahrelang glaubte man, der Flaschenhals liegt bei Spielen und Ruckeln im Nachladen, siehe Gothic 3. Nun haben wir sogar NVMe SSDs, und die Spiele ruckeln immer noch, weil eben das nicht die Ursache war. Ebenso mehr RAM.
Als Flaschenhälse haben wir nach wie vor CPU und GPU, verwendete APis, und supoptimale Programmierung.
Gothic 3 ist da ein schönes Beispiel. Es ist in diesem Fall trotzdem das Nachladen ;D Nur ist es halt CPU limitiertes Nachladen und nicht SSD limitiert. Habe das selbst getestet. Trick zum ruckeln unterbinden: Framelimiter auf 60fps setzen, dann dümpelt die CPU inkl. Custom-Weitsicht etc. CFG vielleicht bei 50% rum und die Nachladeruckler werden von den restlichen 50% CPU-Leistung sehr stark minimiert.
wolik
2018-08-28, 21:10:00
wenn die 1080ti (ich gehe davon aus das du mit 750€ die 1080ti meinst) 2016 gekommen wäre, dann hätte sie auch 1100-1200€ gekostet, denn die 1080 hat ja auch 800+€ gekostet am anfang. ergo ist die ganze preisdiskussion komplett am thema vorbei, bitte setzen sechs!
Ich habe nur eingedeutet das NV versucht die Preisplanke nach oben zu schieben. Wieso 2080Ti ? Man hätte RTX Titan Xt das ganze nennen können ? Nur ganz einfach... Zur Weihnachten kommt Titan Xt für 1990€ oder 2250€ Marktwirtschaft eben. Und kleine exkurs in "Preisgestaltung / Leistung"
https://babeltechreviews.com/battle-titans-pascal-titan-x-vs-maxwell-titan-x/
Das haben wir schon mal alles gesehen, mein witzige Lehrer :wink:
Und ich denke "Wissenschaftliche" Grafikkarte mit gaming Treiber für 3,5K€ war auch so ein "Markt Test". Ich, ein potenziale Kunde (1 von 100K) habe nicht angebissen. Wieso ? ...
MasterElwood
2018-08-28, 21:18:15
Wer soll denn ne 2070 haben, wenn die erst einen Monat später kommt?
Oh Snap! :-)
MasterElwood
2018-08-28, 21:20:02
Vram ist dehalb so wichtig, weil ein zu hoher verbrauch zu rucklern führt und wie bei der cpu leistung nicht so einfach reduziert werden kann!
Ahh... Texturen eine Stufe runter schalten? :facepalm:
-=Popeye=-
2018-08-28, 21:30:25
Auja jetzt bitte noch eine Ram Diskussion, selbst wenn auf den Grafikkarten 2TB wären, irgendwelche trotteligen Entwickler würden den auch vollbekommen......... siehe COD
Die sollten mal lieber am Streaming der Engine arbeiten, sprich verbessern, gibt genug Spiele mit Toller Grafik, die aber mit dem Ram extrem genügsam sind.
Und dafür (https://www.youtube.com/watch?v=VHWu6ao_92Q) hat die neue Generation auch zu wenig VRAM und ist viel zu langsam. :P:P:P
SKYNET
2018-08-28, 21:49:14
Ahh... Texturen eine Stufe runter schalten? :facepalm:
nichtmal für geld würde ich texturen reduzieren... :freak:
Dural
2018-08-28, 21:54:57
Wenn sie denn 50% mehr bringt (was ich nach dem Leak der 2080 im 3d Mark noch mehr bezweifle). Wer hat hier eigentlich nochmal behauptet, dass die 2070 so schnell sein wird wie die Titan Xp? Ich wage mich mal hervor und behaupte, dass nach Release die 1080Ti ggü. der 2080 die bessere Wahl ist (günstiger, 3GB VRAM mehr und ca. gleich schnell).
Eine alte karte zum selben preis war noch nie die bessere wahl, gerade mit turing der so viel neues bringt dürfte pascal ziemlich schnell veraltet sein,
gravitationsfeld
2018-08-28, 22:28:15
Jahrelang glaubte man, der Flaschenhals liegt bei Spielen und Ruckeln im Nachladen, siehe Gothic 3. Nun haben wir sogar NVMe SSDs, und die Spiele ruckeln immer noch, weil eben das nicht die Ursache war. Ebenso mehr RAM.
Als Flaschenhälse haben wir nach wie vor CPU und GPU, verwendete APis, und supoptimale Programmierung.
Synchroner Dateizugriff ist auch bei SSDs noch ein Problem. Da ist der Kernel im Weg und bei 10 SSD Zugriffen bist du auch schnell wieder im Millisekunden-Bereich.
Hast Du dafür ein Beispiel in einem Spiel, wo das so passiert?
Digidi
2018-08-28, 22:39:58
Hmm hab mal nachgedacht. Könnte es sein das NVIDIA versucht mit den hohen Preisen die Leute ins Streaming zu treiben?
Digidi
2018-08-28, 22:43:47
Überlege gerade man könnte 70% der Pixel rendern und die restlichen 30% durch neuronale Netze auffüllen. Das müsste sich auch super trainieren lassen.
Vielleicht kann jemand mal ein tricky test schreiben um das zu prüfen.
@gravitationsfeld
Warum ist das quatsch?
GSXR-1000
2018-08-28, 22:44:27
https://m.hardocp.com/article/2018/08/28/nvidia_controls_aib_launch_driver_distribution/
Nvidia scheint ja gerade bei den RTX Karten geradezu paranoia vor unabhängigen Tests zu haben.
Was man in DIESEM Fall für Vorgaben gemacht werden, das sogar in diesem Fall erstmalig der expliziter Tester in Person genannt werden muss... und abhaengig davon entschieden wird? Hammer.
Da geht aber jemandem richtig der Kackstift, das das eigene Marketing schon beim Launch zerbröseln koennte.
Aber auch das ist wohl fuer Leute wie PHUV oder Troyan vollkommen normal.
Ex3cut3r
2018-08-28, 22:51:20
https://m.hardocp.com/article/2018/08/28/nvidia_controls_aib_launch_driver_distribution/
Nvidia scheint ja gerade bei den RTX Karten geradezu paranoia vor unabhängigen Tests zu haben.
Was man in DIESEM Fall für Vorgaben gemacht werden, das sogar in diesem Fall erstmalig der expliziter Tester in Person genannt werden muss... und abhaengig davon entschieden wird? Hammer.
Da geht aber jemandem richtig der Kackstift, das das eigene Marketing schon beim Launch zerbröseln koennte.
Aber auch das ist wohl fuer Leute wie PHUV oder Troyan vollkommen normal.
Äußerst merkwürdig, am ende wird die RTX 2070 7+1GB an VRAM haben, 970 reloaded. :freak:
Monsta
2018-08-28, 22:52:27
Nvidia will sogar die Telefonnummer vom Tester haben ;D
Was juckt mich das, warum soll ich mir jetzt Gedanken darüber machen? Ich mach mir mein eigenes Bild von der Karte, sobald sie da ist, und mach meine eigenen Tests. Wenn sie tatsächlich nur Marketinggewäsch sein sollte, geht sieh halt wieder zurück zu Nvidia. Ich versteh das Problem nicht. :confused:
Troyan
2018-08-28, 22:59:16
Lmao. Kyle Bennett möchte nicht das NDA für den Launch unterschreiben, heult aber rum, dass er keinen Reviewtreiber bekommt.
Und da wundert man sich, dass nVidia die Leaks stopfen will. Würden sich alle an Regeln halten, müsste man sowas auch nicht machen.
Digidi
2018-08-28, 22:59:51
Was juckt mich das, warum soll ich mir jetzt Gedanken darüber machen? Ich mach mir mein eigenes Bild von der Karte, sobald sie da ist, und mach meine eigenen Tests. Wenn sie tatsächlich nur Marketinggewäsch sein sollte, geht sieh halt wieder zurück zu Nvidia. Ich versteh das Problem nicht. :confused:
Ich wollte ja drauf antworten aber nein...
Wenn jemand nicht die Grundprinzipien versteht auf die der Journalismus beruht ist argumentieren schwierig.
@troyan das gilt auch für Dich!
monstar-x
2018-08-28, 23:02:10
Wer sagt PS4 Pro und PC hat keinen Unterschied in der Grafik vergisst wohl den Sitzabstand zum Ausgabegerät.
Sitz Mal genau so nah wie am PC bei der PS4 dann seht ihr wo die da mit der Grafik sparen da sie man ja nicht in der typischen Entfernung sehen kann (Detailgrad). Ausnahmen gibt es immer wieder, die meine ich daher auch nicht!
Es gibt auch leider viele Konsolenspiele die 1:1 portiert werden. Das es mies laufen kann ist mangels Zeit und Geld für eine gescheite Umsetzung leider möglich.
Wieso sollte sich jemand mit einem Abstand von 70cm vor einem riesigen 65,75 Zoll TV mit 190cm Diagonale setzten. Nur damit man sehen kann, das es einen Unterschied gibt? So dumm ist niemand.
Ich habe eine Sitzabstand von ca. 3,5m (bei 75Zoll Tb) und sehe keinen Unterschied beim spielen zwischen meiner PS4 Pro und meinem PC.
Troyan
2018-08-28, 23:04:26
Lmao. Frag mal Journalisten, ob sie ohne Akkreditierungen irgendwo hinkommen.
horn 12
2018-08-28, 23:07:14
NV weiss wohl nur zu gut in welchen, sprich bei Welchen Settings, Auflösungen, ecc. Ihre Turing Karte glänzen und wo kaum Mehrleistung generiert werden kann.
Rechne unter 4K kann es die Karte schon zeigen, darunter nur geringfügig schneller als Pascal, vielleicht gar keine 20%
AffenJack
2018-08-28, 23:07:24
https://m.hardocp.com/article/2018/08/28/nvidia_controls_aib_launch_driver_distribution/
Nvidia scheint ja gerade bei den RTX Karten geradezu paranoia vor unabhängigen Tests zu haben.
Was man in DIESEM Fall für Vorgaben gemacht werden, das sogar in diesem Fall erstmalig der expliziter Tester in Person genannt werden muss... und abhaengig davon entschieden wird? Hammer.
Da geht aber jemandem richtig der Kackstift, das das eigene Marketing schon beim Launch zerbröseln koennte.
Aber auch das ist wohl fuer Leute wie PHUV oder Troyan vollkommen normal.
Oder es liegt einfach daran, dass AIB Tests vom Launch-Day verfügbar sind, was bisher noch nie der Fall war? Was passiert wohl, wenn die Partner ihre Samples mit Treibern verteilen? Das Zeug würde überall leaken. Da will man wohl die Kontrolle drüber behalten. Einfache Lösung für Webseiten, sich nicht drauf einlassen und den Treiber am Releasedate laden und testen, wenn man AIBs testet. Zu Release nur die Nvidiakarte, wenn man dann unbedingt was bringen will.
Digidi
2018-08-28, 23:07:32
Lmao. Frag mal Journalisten, ob sie ohne Akkreditierungen irgendwo hinkommen.
Frag mal investigative Journalisten ob sie eine Akrreditierung haben.
Menace
2018-08-28, 23:08:10
Nvidia will sogar die Telefonnummer vom Tester haben ;D
Die wollen ihm nur darum bitten, dass er besonders gründlich testen sollte. Und wie man welche Einstellung wie zu fahren hat, damit es auch fair ist.
@Troyan: Genau. Man braucht die Telefonnummer und den Hinweis an die AIBs wer die Karte testet. Das spricht doch wirklich für unabhängige Tests bei den Unterschreibern. ;D
Dabei hätten sie es gar nicht nötig. Sie sind doch führend in Leistung, Effizienz und RT. Sie machen es mir jedesmal dann doch leicht, mein Geld zu sparen.
Troyan
2018-08-28, 23:09:05
Frag mal investigative Journalisten ob sie eine Akrreditierung haben.
Lmao. Du schreibst echt geiles Zeug hier. Aber Bennett kann sich doch seinen Treiber mit seiner genialen investigativen Arbeit holen. AMD hat da bestimmt Kontakte. ;D
GSXR-1000
2018-08-28, 23:09:27
Was juckt mich das, warum soll ich mir jetzt Gedanken darüber machen? Ich mach mir mein eigenes Bild von der Karte, sobald sie da ist, und mach meine eigenen Tests. Wenn sie tatsächlich nur Marketinggewäsch sein sollte, geht sieh halt wieder zurück zu Nvidia. Ich versteh das Problem nicht. :confused:
ach mein Freund. Wenns denn so einfach waere... gell? 14 Tage haste dein Rücktrittsrecht. Wie lang wirds wohl dauern bis du gescheite treiber hast, mit denen du wirklich bewertbare aussagen machen kannst? Wie lange bis DLSS überhaupt vernünftig funktionieren kann?
Und magst du dich erinnern, wie lange es dauerte bis so feinheiten wie die Speicheranbindung der 970 revealed wurde? Da erschien auch auf den ersten Blick alles Tutti.
Aber klar, du revealst sowas alles sofort auf einen blick.
Offensichtlich verspürt NV in diesem speziellen fall aber einen besonderen Druck sich dagegen abzusichern, das frühzeitig ein zu genauer, kritischer Blick auf das ganze geworfen werden kann. Warum das wohl der Fall ist?
Nebenbei sollte man mal den Blick über den Tellerrand hinaus tun. Deutschland und die EU ist nicht der Nabel der Welt, und vermutlich nicht mal der grösste Markt von NV... nicht alle Länder dieser Welt haben "Kundenschutz" wie das FAG... praktisch sogar die wenigsten. Aber das ist dir ja egal... is ja deren Problem. Die Loyalität unter "Gamern" war ja immer schon gross...
Naja... ich hatte derartige Aussage von dir ja ohnehin vorhergesehen... deine Kernaussage hattest du betreffender weise im preorder post ja schon von dir gegeben... passender haetts nicht sein koennen:
"ichichichichichich!"
@Monsta: Jo. Und das witzige ist, auf Reddit war zu lesen, das NV tatsächlich explizit die Telefonnummer verlangt. Skype kontakt o.ä., was ja gleiche kontaktaufnahme ermöglicht: NÖ! Ohne Telefonnummer (mit rückrufcheck) geht garnix...
@Troyan: Danke, auf dich ist verlass. Du leistest wenigstens was für dein geld. Viral Marketing/influancing at its best:)
Linmoum
2018-08-28, 23:12:00
Lmao. Kyle Bennett möchte nicht das NDA für den Launch unterschreiben, heult aber rum, dass er keinen Reviewtreiber bekommt.
Natürlich will er nicht das NDA für den Launch unterschreiben: Das gibt es schlicht nicht, weil es ein allgemeingültiges ist, dass für fünf Jahre greift. Sollte klingeln im Kopf.
Wenn du sowieso nie was anderes machst als einfach nur GPU-Benchmarks zu tätigen, dann spielt es natürlich weniger eine Rolle. Sagt er ja auch selbst. Aber das gehört alles eher in den NDA-Thread.
Troyan
2018-08-28, 23:15:46
Er heult rum, dass nVidia nun Hürden baut, um als nicht NDA-Unterzeichner an nicht öffentliche Treiber zu kommen. Und dann fragen Leute, wieso nVidia solchen Unsinn macht?
While we do think it is possible to source 2080 hardware, our review would be irresponsible without the correct drivers. Good job, NVIDIA, good job. That is exerting excellent control.
Heuchler eben. Will er einen Test zum Launch machen, soll er das NDA unterzeichnen. Ansonsten kann er warten, bis die Treiber öffentlich sind.
Ich kann beide Seiten verstehen. Ein Journalist möchte jetzt schon Infos haben und entsprechend veröffentlichen. Nvidia versucht natürlich zu verhindert, daß der Launch fehlschlägt und unnötig schlechte Presse zu vemeiden. Peinlich wirds natürlich, wenn es dann selbst mit fertigen Treibern zum Fall des NDAs nicht hinhaut.
Ich verstehe nach wie vor Eure Problem nicht. Ihr konstruiert da einen künstlichen Moloch von Problemen, Verschwörungen, Marketingtricks, der doch gar nicht relevant ist. Wir werden sehen. Meine Güte, habt Ihr alle so Schiß manipuliert von einem Konzern oder der Presse zu werden? Wir sind alle mündige Bürger und Konsumenten, und wenns nix ist, schicken wir alle das Zeugs wieder zurück. Eine deutlichere Antwort an Nvidia kanns doch gar nicht geben. Wo haben die Onlinebesteller und Early Adopters hier ein Risiko? Nvidia hat es ganz alleine. Wenn es das Rückgaberecht nicht gäbe, hatte ich auch brav, wie die meisten hier, diverse Tests abgewartet. So können die anderen und ich uns zügig schnell selbst ein Bild von der Sache machen, und auch wenn hier manchmal das Forum anstrengend ist, auf eines kann man sich hier verlassen, eigene und gute Erfahrungen mit unterschiedlichen Umgebungen. Warum freut Ihr Euch nicht, daß wir für Euch die Betatester spielen. Und wir sind meiner Meinung nach vertrauenswürdiger als jede Lederjacke, Konzern oder Medien.
Digidi
2018-08-28, 23:17:02
Er heult rum, dass nVidia nun Hürden baut, um als nicht NDA-Unterzeichner an nicht öffentliche Treiber zu kommen. Und dann fragen Leute, wieso nVidia solchen Unsinn macht?
Heuchler eben. Will er einen Test zum Launch machen, soll er das NDA unterzeichnen. Ansonsten kann er warten, bis die Treiber öffentlich sind.
Lies mal Georg orwell 1984.
vinacis_vivids
2018-08-28, 23:18:18
@PHuV
Wer ist denn "Ihr"? Um auf Nummer sicher zu gehen, einfach einen Bogen um Nvidia Karten machen, bis nicht NDA-Artikel erscheinen.
Monsta
2018-08-28, 23:20:23
Ich kann beide Seiten verstehen. Ein Journalist möchte jetzt schon Infos haben und entsprechend veröffentlichen. Nvidia versucht natürlich zu verhindert, daß der Launch fehlschlägt und unnötig schlechte Presse zu vemeiden. Peinlich wirds natürlich, wenn es dann selbst mit fertigen Treibern zum Fall des NDAs nicht hinhaut.
Ich verstehe nach wie vor Eure Problem nicht. Ihr konstruiert da einen künstlichen Moloch von Problemen, Verschwörungen, Marketingtricks, der doch gar nicht relevant ist. Wir werden sehen. Meine Güte, habt Ihr alle so Schiß manipuliert von einem Konzern oder der Presse zu werden? Wir sind alle mündige Bürger und Konsumenten, und wenns nix ist, schicken wir alle das Zeugs wieder zurück. Eine deutlichere Antwort an Nvidia kanns doch gar nicht geben.
Ich habe aber keinen Bock jeden Scheiss selber zu testen nur weil alle Journalisten in "Handschellen" arbeiten.
Da ist mir meine Zeit zu schade für.
Menace
2018-08-28, 23:20:39
Lies mal Georg orwell 19824.
Orwell jetzt wegen nVidia-Vertrag zu bringen ist schon etwas ... äh ... strange. Da gäbe es 100 schlimmere Sachen.
Und wie gesagt, das müsste man im anderen Thread diskutieren. Falls es bei der 2000 Generation einen Pferdefuß gibt, wird man halt noch 1-2 Monate warten müssen. Irgendjemand bekommt es dann schon raus.
Digidi
2018-08-28, 23:23:54
Orwell jetzt wegen nVidia-Vertrag zu bringen ist schon etwas ... äh ... strange. Da gäbe es 100 schlimmere Sachen.
Und wie gesagt, das müsste man im anderen Thread diskutieren. Falls es bei der 2000 Generation einen Pferdefuß gibt, wird man halt noch 1-2 Monate warten müssen. Irgendjemand bekommt es dann schon raus.
Doch es gehöhrt genau hierher. In einen Umsatzstarken Thread, und solche Dinge haben schon immer klein angefangen.
Das Thema betrifft ja auch die 2080ti insgeheim. Es ist genau die Manipilation die Georg Orwell beschreibt.
Ich habe aber keinen Bock jeden Scheiss selber zu testen nur weil alle Journalisten in "Handschellen" arbeiten.
Da ist mir meine Zeit zu schade für.
Du wirst aber niemals etwas aus 2.Hand so gut bekommen wie als eigene Erfahrung. ;) Erst wenn das Zeug in Deiner Umgebung hast, kannst Du eigentlich eine entsprechende Aussage tätigen, ob es taugt oder nicht taugt, ganz einfach. Du mußt doch nicht alles überprüfen oder testen, Du testest, das, was Dir wichtig ist. Medien testen doch meistens nur den Mainstream, die aktuelle HW und fertig. Es wird selten genau das treffen, was Du bei Dir verbaut und installiert hast, welche Spiele Du spielst und welche Settings Du verwendest. Daher kannst Du Dich eigentlich selbst auf externe Tests selten 100%ig verlassen.
Nimm nur mal meinen Umzug mit Wechsel auf Kabelanschluß. Alle haben mir vom Kabelanbieter abgeraten, nur schlechtes gehört. Ich habs trotzdem probiert (weil 3 Monate Kündigungsfrist, jederzeit), und was soll ich Dir sagen, läuft mit einer Anpassung super, viel besser als gedacht. Hat mich wieder bestärkt, immer mir selbst ein Bild von etwas zu machen. Bei einem Surround Kopfhörer drahtlos habe ich mich auf die Tests und Amazon Reviews verlassen, und war angearscht, weil das Zeugs in meinem Setting nicht lief. Tja, und nun? Die persönliche Erfahrung ist durch nichts zu ersetzen, gar nichts!
y33H@
2018-08-28, 23:32:20
Treiber für Reviews nur per Login-Webseite sind schon lange Standard bei allen Herstellern. Und unsere Daten haben die natürlich eh, sprich alles wie gehabt ...
Timbaloo
2018-08-28, 23:33:12
Das Thema betrifft ja auch die 2080ti insgeheim. Es ist genau die Manipilation die Georg Orwell beschreibt.
Willkommen in der Signatur.
Lies mal Georg orwell 1984.
Ach bitte, echt jetzt? Wo gibts nur eine Meinung, nur ein Organ der bestimmt, was richtig oder falsch ist? Spätestens ab dem 20.09 ist doch eh alles aus, weil dann die User ihre Erfahrungen posten. Oder glaubst Du, Leonidas wird durch die Nivida-Mafia erpreßt, Don Corleone Lederjacke kommt mit Schlägertrupps bei jedem Early Adopter vorbei und droht uns, wenn wir was veröffentlichen, was Nvidia schlecht dastehen läßt. :freak: Meine Güte, habt Ihr alle einen Fantasie hier. :rolleyes:
Jetzt wirds mir zu albern, ich geh jetzt ins Bett und träume von der neuen 2080 TI mit RT in Echtzeit, in Farbe und bunt.
Digidi
2018-08-28, 23:35:18
Treiber für Reviews nur per Login-Webseite sind schon lange Standard bei allen Herstellern. Und unsere Daten haben die natürlich eh, sprich alles wie gehabt ...
Das ist das falsche denken. Gerade weil Sie es schon haben sollte man das nicht mitmachen. Ihr seit die größere macht. Dreht den Spieß um. Dann gibts halt mal keinen Test. Was glaubst du was das euch für Klickzahlen beschert. Diskussionen Tagelang.
@PHuV welche Meinung soll den Leonidas Posten? Er kann nur das Posten was er kennt und das sind Test von NVIDIA konformen Seiten und NVIDIA Fans die gleich ohne zu sehen 1200 Euro hinlegen.
NVIDIA droht mit der Existenzgrundlage. Ohne Karte kein Test, kein Artikel, kein Klick, kein Geld.
Monsta
2018-08-28, 23:36:02
Ach bitte, echt jetzt? Wo gibts nur eine Meinung, nur ein Organ der bestimmt, was richtig oder falsch ist? Spätestens ab dem 20.09 ist doch eh alles aus, weil dann die User ihre Erfahrungen posten. Oder glaubst Du, Leonidas wird durch die Nivida-Mafia erpreßt, Don Corleone Lederjacke kommt mit Schlägertrupps bei jedem Early Adopter vorbei und droht uns, wenn wir was veröffentlichen, was Nvidia schlecht dastehen läßt. :freak: Meine Güte, habt Ihr alle einen Fantasie hier. :rolleyes:
Die Testergebnisse einzelner User finde ich unglaubwürdiger als von Leuten die damit Ihr Geld verdienen.
kunibätt
2018-08-28, 23:37:03
Lies mal Georg orwell 19824. :freak:
Das ist Lord Wotan-Level! :freak:
Die Testergebnisse einzelner User finde ich unglaubwürdiger als von Leuten die damit Ihr Geld verdienen.
Ach, Euch kann man auch gar nichts recht machen, :rolleyes: Ihr dreht es euch dauernd hin, wie Ihr es braucht. Gute Nacht.
Monsta
2018-08-28, 23:40:51
Ach, Euch kann man auch gar nichts recht machen, :rolleyes: Ihr dreht es euch dauernd hin, wie Ihr es braucht. Gute Nacht.
Wenn Dein Testergebnis stark von der Presse abweicht, würde ich erstmal auf Dein unvermögen schließen. Klar kann ich mich irren, aber der erste Gedanke wäre so.
AwesomeSauce
2018-08-28, 23:47:52
Treiber für Reviews nur per Login-Webseite sind schon lange Standard bei allen Herstellern. Und unsere Daten haben die natürlich eh, sprich alles wie gehabt ...
Psst, sonst kann man sich ja über nichts empören...
drdope
2018-08-28, 23:58:39
damals wurde sowas noch von der presse kritisiert. heute ist man neidisch auf die die sichs leisten können, wenn man sowas kritisiert.
Damals gab es auch noch keine NDAs, wie sie heutige üblich sind.
Damals gab es kein Internet für jedermann...
Die Kommunikation Leser <-> Redaktion fand überwiegend per Brief statt.
Damals mußte die Presse die nicht zeitnah funktionieren (im Stundentakt Clicks generieren) ... damals hatte man Zeit!
Als Privatperson gabs maximal die Möglichkeit sich per Modem in ein BBS (in .de hieß das "Mailbox") einzuwählen und der Redaktion eine eMail zuschicken.
Die Online-Diskussionskultur war (z.B. FIDO-Net & Usenet) aber auch (imho) damals schon unter aller Sau...
Daran hat sich sehr wenig geändert.
Fakten interessieren nahezu niemanden!
Naja, die Turing Katze ist doch schon aus dem Sack. Jetzt geht's nur darum, warum gerade die TI so scheiß teuer ist.
Ist die Karte objektiv betrachtet wirklich teuer?
Oder ist die Karte doch nur relativ betrachtet sehr teuer, wenn man lediglich zocken will?
Iirc hat '98 ein Voodoo2 12MB SLI-Setup auch seine 1200,- DM gekostet.
Und man brauchte iirc noch eine 3. GPU für DOS/WIN-Spiele ohne 3d Beschleunigung?
Um die Preisdiskussion mal ein wenig zu relativieren/objektivieren:
Wenn man z.B. die Transistormenge eines 32Core Threadrippers für ca. 1800€ (https://geizhals.de/amd-ryzen-threadripper-2990wx-yd299xazafwof-a1840353.html?hloc=at&hloc=de) mit der 2080Ti vergleicht...
NV-RTX 2080Ti: 18.6B transistors (Cave "US-Billionen" = Milliarden), measuring 754mm2@TSMC 12nm "FFN" (https://www.anandtech.com/show/13249/nvidia-announces-geforce-rtx-20-series-rtx-2080-ti-2080-2070/2)
AM-TR 2990WX: "estimated transistor count" at 19.2 billion (https://www.phoronix.com/scan.php?page=article&item=amd-tr2990wx-preview&num=1)@12nm LP FinFET (iirc auch TSMC)
So gesehen ist die 2080Ti sogar noch sehr "preiswert"... man bekommt für 2/3 der Anschaffungskosten ähnlich viel Transistoren, 11GB GDDR6, ein PCB und einen Kühler dazu...
--> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11779128&postcount=6828
:freak:
Was nimmt Intel den für ein ähnlich großen Chip?
--> https://en.wikipedia.org/wiki/Transistor_count
Menace
2018-08-29, 00:01:41
Treiber für Reviews nur per Login-Webseite sind schon lange Standard bei allen Herstellern. Und unsere Daten haben die natürlich eh, sprich alles wie gehabt ...
Du behauptest also, dass man die 5jahres NDA nicht dafür unterschreiben muss? Weil normal ist diese nicht. Und die persönlichen Namen und Telefonnummern der Tester für die Test der AIB Karten ist auch übliche Praxis? Ok...
GSXR-1000
2018-08-29, 00:06:26
Treiber für Reviews nur per Login-Webseite sind schon lange Standard bei allen Herstellern. Und unsere Daten haben die natürlich eh, sprich alles wie gehabt ...
Ja tatsächlich? Ist dem so? Und es ist normal, das explizit gegenüber Nvidia festzulegen ist, WELCHE Person genau aus der Redaktion die Tests durchfuehrt? Das waere mir neu. Das NV "approved" welche Person genau den Test durchführen darf? Das NV die privaten kontaktdaten exakt dieser person verlangt und eben nicht der redaktionskontakt (der normale ) geschaeftliche Kontakt ausreicht? Du willst allen ernstes behaupten das sei normal? Und nebenbei, es ist keine freiwillige aktion der Redaktionen zur besseren und einfacheren Kommunikation, es ist eine vorgabe, ein ZWANG seitens NV. Sprich: NV entscheidet exklusiv, welches Redaktionsmitglied testen darf. Das ist die normale Vorgehensweise? Definitiv nein. Aber danke, das du hier offenbarst, das du diese Vorgehensweise auch noch offentlich zu decken gedenkst. Wieder ein magazin weniger in den Lesezeichen. Schade.
Sven77
2018-08-29, 00:09:27
Lies mal Georg orwell 1984.
Oder "Mein Kampf".. passt genauso gut zum Kontext
Timbaloo
2018-08-29, 00:11:06
Oder "Mein Kampf".. passt genauso gut zum Kontext
Mit dem Treiber Steiners wird das alles in Ordnung kommen!
Das NV die privaten kontaktdaten exakt dieser person verlangt und eben nicht der redaktionskontakt (der normale ) geschaeftliche Kontakt ausreicht?
Wo liest du das raus?
Digidi
2018-08-29, 00:14:43
Oder "Mein Kampf".. passt genauso gut zum Kontext
Als ob man Context nicht abstrahieren kann. Es geht um Pressefreiheit und wo sie hinführt. Das ist analog von großen aufs kleine sowie auf Tests der 2080 übertragbar.
Man liest Georg Orwell in der Schule und stellt dann auch in manch regionaler Zeitung fest das man gerade negativ beeinflusst wird. Es fängt klein an.
So Leute Wie Troyan und PHuV schlucken die Propaganda von Nvidia gnadenlos, was ist das nächste Thema was sie ohne zu Hinterfragen Schlucken?
Troyan
2018-08-29, 00:21:45
Ja tatsächlich? Ist dem so? Und es ist normal, das explizit gegenüber Nvidia festzulegen ist, WELCHE Person genau aus der Redaktion die Tests durchfuehrt? Das waere mir neu. Das NV "approved" welche Person genau den Test durchführen darf? Das NV die privaten kontaktdaten exakt dieser person verlangt und eben nicht der redaktionskontakt (der normale ) geschaeftliche Kontakt ausreicht? Du willst allen ernstes behaupten das sei normal? Und nebenbei, es ist keine freiwillige aktion der Redaktionen zur besseren und einfacheren Kommunikation, es ist eine vorgabe, ein ZWANG seitens NV. Sprich: NV entscheidet exklusiv, welches Redaktionsmitglied testen darf. Das ist die normale Vorgehensweise? Definitiv nein. Aber danke, das du hier offenbarst, das du diese Vorgehensweise auch noch offentlich zu decken gedenkst. Wieder ein magazin weniger in den Lesezeichen. Schade.
Wowowow. Erzählt ihm nicht, dass nVidia auch noch die GPUs herstellt und die Treiber schreibt. ;D
/edit: Oh hier aus Reddit von dem Menschen, der Videocardz.com betreibt:
This is not surprising. In fact, AMD basically does the same thing. They force AIBs to send cards to their HQ, so only AMD can *officially* seed prelaunch samples.
https://www.reddit.com/r/nvidia/comments/9b33hx/hardocp_nvidia_controls_aib_launch_and_driver/
Muss Bennett wohl vergessen haben. Naja, Kleinigkeiten und so.
drdope
2018-08-29, 01:04:50
Oder "Mein Kampf".. passt genauso gut zum Kontext
Ekelig zu lesen (Satzbau/Syntax), aber sollte man mal gelesen haben...
:eek:
Die Idee dahinter, eine grobe Vorstellung/Idee für die nächsten tausend Jahre zu haben finde ich sehr charmant.
„Siegt der Jude mit Hilfe seines marxistischen Glaubensbekenntnisses über die Völker dieser Welt, dann wird seine Krone der Totentanz der Menschheit sein, dann wird dieser Planet wieder wie einst vor Jahrmillionen menschenleer durch den Äther ziehen. Die ewige Natur rächt unerbittlich die Übertretung ihrer Gebote. So glaube ich heute im Sinne des allmächtigen Schöpfers zu handeln: Indem ich mich des Juden erwehre, kämpfe ich für das Werk des Herrn.“
Auszug aus
Adolf Hitler - Mein Kampf - Band 1 und 2 (855. Auflage 1943, 818 S.)
Wenn man Marxismus durch (kaum begrenzten) Kapitalismus und Jude durch "Vermögensverteilung (https://de.wikipedia.org/wiki/Vermögensverteilung#Vermögensverteilung_nach_Regionen)" ersetzt...
:wink:
Wenn "wir Menschen" nicht schnell unsere klimawirksamen Emissionen in den Griff bekommen und kurz bis mittelfristig einen wirksamen Asteroidenschild (searching, seek and destroy) aufbauen, könnten wir relativ zeitnah als Zivilisation aussterben.
#remenberthedinosaurs
#divideetimpera
#wirkönnentrotzdemauchübergpusdiskutieren
#luxus
--> https://books.google.de/books?id=n6BxDAAAQBAJ&pg=PT319&lpg=PT319&dq=Posaunen+sie+das+in+alle+Welt+hinaus&source=bl&ots=iY2mC03vpj&sig=LK2iexo11uViu8PmMSD134jIVa4&hl=de&sa=X&ved=2ahUKEwiKwdCf8JDdAhXssosKHeipBtQQ6AEwA3oECAcQAQ#v=onepage&q=Posaunen%20sie%20das%20in%20alle%20Welt%20hinaus&f=false
MiamiNice
2018-08-29, 01:18:18
Wow, wie man von Turing zu Hitler kommt erschließt sich mir nicht wirklich. Godwin’s law is real ...
drdope
2018-08-29, 01:21:06
Wow, wie man von Turing zu Hitler kommt erschließt sich mir nicht wirklich. Godwin’s law is real ...
Angeblich war Hitler (https://de.wikipedia.org/wiki/Sexualität_Adolf_Hitlers) auch schwul/homosexuell, wie Turing (https://de.wikipedia.org/wiki/Alan_Turing#Verfolgung_wegen_Homosexualität_und_Turings_Tod)...
Da bieten sich Vergleiche doch an!
Ein Versuch war es wert...
:wink:
Ex3cut3r
2018-08-29, 01:25:06
Ich glaube ich spinne? Was ist denn hier los? Was hat ein abscheuliches Wesen und Massenmörder wie Hitler hier verloren? Und warum wird aus seinem bescheuerten Buch zitiert?
Seriously was soll das bitte?
BiZiNiZz
2018-08-29, 01:43:36
Ich bin hier aus dem Thread jetzt raus.
Und an alle IDIOTEN die hier rum Spamen und das Haar in der Suppe suchen, geht euch löschen, macht euren eigenen Thread auf oder haltet die Klappe.
Der Thread ist seit 100+ Seiten unerträglich für Leute die einfach nur Infos wollen.
drdope
2018-08-29, 01:45:06
Ich glaube ich spinne? Was ist denn hier los? Was hat ein abscheuliches Wesen und Massenmörder wie Hitler hier verloren? Und warum wird aus seinem bescheuerten Buch zitiert?
Seriously was soll das bitte?
Hier läuft gerade die gleiche Nummer -> die NV-Marketing-Propaganda (wir haben was tolles neues) --> und Gegenpropaganda (braucht niemand, der Preis ist zu hoch) bekämpfen sich.. wer gewinnt?
Das ist nichts anderes als Amiga 500 vs Atari ST reloaded.
Fakten interessieren niemanden!
Abseits von NV-gestreuten Infos weiss niemand (bis auf Entwickler/Tester unter NDA) subjektiv/objektiv etwas über Turing oder könnte zu dem Thread (als Faktensammlung (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587130)) beisteuern!
:wink:
btw/OT:
Ich halte "Mein Kampf" für ein (eklig zu lesendes, aber lesenswertes) Buch, weil man daraus was lernen kann...
--> https://www.amazon.de/Adolf-mir-Karriere-einer-verbotenen/dp/3942454173
8 Milliarden Menschen wollen die Welt rational verstehen/begreifen, deshalb packen sie sie Schubladen, die sie begreifen können...
Also irgendwas sagt mir, dass es hier gleich eine permanentsprrung geben wird...
Leonidas
2018-08-29, 07:23:01
Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde.
Tur mir leid, aber das sehe ich als unbewiesene Vermutung. Und da es nicht bewiesen ist, würde ich so was besser unterlassen, weil es nur böses Blut schürrt.
Mir ist es jedenfalls gleich, wieviel Geld andere haben (und wieviel ich nicht habe). Ist wirklich EGAL. Geld bedeutet mir nichts. Jene vorstehende Auffassung können meiner Meinung nach nur Leute haben, die selbst anderen was neiden. Wer nicht neidet, der kommt gar erst nicht auf einen solchen Gedanken.
Trennt euch mal bitte von der Auffassung, das die Welt nur aus Neidern bestehen würde bzw. das jene überhaupt eine beachtbare Anzahl darstellen. Wenn das in eurem Bekanntenkreis wirklich der Fall sein sollte, dann seit ihr in falscher Gesellschaft.
Razor
2018-08-29, 07:26:22
Ich bin hier aus dem Thread jetzt raus.
Und an alle IDIOTEN die hier rum Spamen und das Haar in der Suppe suchen, geht euch löschen, macht euren eigenen Thread auf oder haltet die Klappe.
Der Thread ist seit 100+ Seiten unerträglich für Leute die einfach nur Infos wollen.
Dem ist nichts hinzuzufügen...
Ich melde mich mal selbst.
@Mods (falls es Euch noch gibt)... bitte "rheine machen" oder schließen... danke!
Razor
Razor
2018-08-29, 07:34:21
Trennt euch mal bitte von der Auffassung, das die Welt nur aus Neidern bestehen würde bzw. das jene überhaupt eine beachtbare Anzahl darstellen. Wenn das in eurem Bekanntenkreis wirklich der Fall sein sollte, dann seit ihr in falscher Gesellschaft.
Neid, Missgunst und Gier sind die Triebfedern unserer Gesellschaft... das nahezu weltweit.
Und dort, wo das nicht der Fall ist... weil es da nichts anderes gibt... regiert religöser Fanatismus.
DAS ist unsere Realität!
Selbst im sehr stark selektierten Freundes- und Bekanntenkreis gibt es Ausländerhass und Neid, aber zumindest keine Missgunst und nur wenig Gier, die ich selbst bei mir beobachte. Aber entweder lebe ich in dieser Gesellschaft oder ich lass es sein und geh' in den Wald von Kanada... dazwischen gibt es leider fast nichts.
Razor
=Floi=
2018-08-29, 07:58:36
Ahh... Texturen eine Stufe runter schalten? :facepalm:
tja, es gibt spiele wo das nur begrenzt geht. COD BO3/WW2 und BO4 bekommt man auch mit der brechstange nicht mehr ruckelfrei unter 3GB vram.
Das wollte ich euch die ganze zweit vermitteln.
Ich habe bis auf witcher 3 eigentlich nichts wo es es mit der 780ti an den FPS scheitert, sondern am vram!
BO3 lief zu release noch gut und dank dem ganzen zusatzcontent (skins) bringt man das jetzt nicht mehr unter die 3gb.
Bei 1260€ möchte ich auch längstmöglich einen gegenwert!
PrinceGSC
2018-08-29, 08:09:22
Bitte schließt dieses Thema ganz schnell und verwarnt diese Idiotien.
Das geht in Richtungen die Unfassbar sind und genauso weit weg vom Thema.
Es geht hier um Informationen zur GK und nichts anderes, die ganzen lobeshymnen sind mir egal ebenso wie die Aussagen der Hater.
Wenn euch NV Politik(Monopol da keine Konkurrenz)nervt:
DANN KAUFT ES NICHT
Daher nochmal.
Macht dieses Thema dicht...das einige viele gegen die Wand gefahren haben.
Neid, Missgunst und Gier sind die Triebfedern unserer Gesellschaft... das nahezu weltweit.
Und dort, wo das nicht der Fall ist... weil es da nichts anderes gibt... regiert religöser Fanatismus.
DAS ist unsere Realität!
Selbst im sehr stark selektierten Freundes- und Bekanntenkreis gibt es Ausländerhass und Neid, aber zumindest keine Missgunst und nur wenig Gier, die ich selbst bei mir beobachte. Aber entweder lebe ich in dieser Gesellschaft oder ich lass es sein und geh' in den Wald von Kanada... dazwischen gibt es leider fast nichts.
Razor
Du bist eindeutig zu negativ. Ich muss Leo hier voll zustimmen. In Wirklichkeit kommt Neid furchtbar selten vor und sehr oft handelt es sich eher um geschürte Vorurteile. N8cht die Gesellschft ist kaput sondern ihre "Führung".
BigKid
2018-08-29, 08:25:41
was ist das nächste Thema was sie ohne zu Hinterfragen Schlucken?
„Diese Politik ist alternativlos.“
Marktkonforme Käufer ;)
monstar-x
2018-08-29, 08:29:36
Wow, wie man von Turing zu Hitler kommt erschließt sich mir nicht wirklich. Godwin’s law is real ...
Da gebe ich dir so recht.
Unglaublich wie man von einer Grafikkarte, RayTracing zu Hitler kommt, ehrlich manch einer hier hat einen gewaltigen schaden.
Es ist so traurig, was hier abgeht.
BigKid
2018-08-29, 08:36:14
Vergesst aber bitte nicht dass dies hier auch (noch) der Spekulationsthread ist... Es gibt keine neuen Fakten und manchen ist vlt. auch etwas zu langweilig.
Die Hittler-Vergleiche sind dann aber tatsächlich weit ab und für das NDA gibts nen eigenen Thread...
Ich würde hier auch lieber mal von nem Profi hören wie DLSS als AA Verfahren 30-40% Performance im Vergleich zu einem anderen auf der selben Karte bringen könnte.
Oder spekulieren wie gut Upscaling mit AI funktionieren kann und ob es ein gangbarer Weg sein könnte um höhere Auflösungen zu stemmen und ob RTX das mitbringt...
Rancor
2018-08-29, 08:37:03
Was denn hier los. Das ist man mal einen Abend nicht online und dann sowas..
Ich würde hier auch lieber mal von nem Profi hören wie DLSS als AA Verfahren 30-40% Performance im Vergleich zu einem anderen auf der selben Karte bringen könnte.
Oder spekulieren wie gut Upscaling mit AI funktionieren kann und ob es ein gangbarer Weg sein könnte um höhere Auflösungen zu stemmen und ob RTX das mitbringt...
Das interessiert mich auch brennend zumal die letzten eingeführten AA/DS Modis meistens den Nachteil hatten total unscharf zu wirken. Können bzw. werden eigentlich auch zukünftig bereits veröffentlichte Spiele mit den Features nachgerüstet? Ich finde das ganze sonst nur halb attraktiv. Hoffentlicht setzt sich das auch bei allen zukünftigen Spielen dauerhaft durch. In der Vergangenheit hatten manche Spiele öfter mal ausschließlich AMD AA oder nV AA, klar gab es dann trotzdem noch diverse Standards zur Auswahl aber ihr wisst was ich meine.
Swissr
2018-08-29, 09:17:19
Verrückt, einer hat "Hitler" gesagt, und der ganze Thread schäumt vor Wut.
Leute, euch ist schon klar dass das eine ironische Übertreibung auf die George Orwell Aussage war? Und jetzt schreien schon die ersten nach Threadschliessung. Sind wir hier im SJW-center?
THEaaron
2018-08-29, 09:21:38
Verrückt, einer hat "Hitler" gesagt, und der ganze Thread schäumt vor Wut.
Leute, euch ist schon klar dass das eine ironische Übertreibung auf die George Orwell Aussage war? Und jetzt schreien schon die ersten nach Threadschliessung. Sind wir hier im SJW-center?
+1. Hab den Wink auch verstanden und verstehe nicht was mit der Aussage hier veranstaltet wird.
Aber der Thread ist schon lange nicht mehr auszuhalten.
=Floi=
2018-08-29, 09:27:53
Aber der Thread ist schon lange nicht mehr auszuhalten.
und alle lesen mit und antworten. ;D :freak:
SKYNET
2018-08-29, 09:32:21
Tur mir leid, aber das sehe ich als unbewiesene Vermutung. Und da es nicht bewiesen ist, würde ich so was besser unterlassen, weil es nur böses Blut schürrt.
Mir ist es jedenfalls gleich, wieviel Geld andere haben (und wieviel ich nicht habe). Ist wirklich EGAL. Geld bedeutet mir nichts. Jene vorstehende Auffassung können meiner Meinung nach nur Leute haben, die selbst anderen was neiden. Wer nicht neidet, der kommt gar erst nicht auf einen solchen Gedanken.
Trennt euch mal bitte von der Auffassung, das die Welt nur aus Neidern bestehen würde bzw. das jene überhaupt eine beachtbare Anzahl darstellen. Wenn das in eurem Bekanntenkreis wirklich der Fall sein sollte, dann seit ihr in falscher Gesellschaft.
zumal die tröte wohl ernsthaft glaubt, das man wegen 1200€ neidisch auf ihn sein könnte? :ulol:
wie gesagt, ich warte erstmal (DX11) tests ohne HDR ab, und dann entscheide ich... weil gehe davon aus das die karte unter DX11, ohne RT, ohne superduperspecialupscaling AA und ohne HDR kaum schneller sein wird als der direkte vorgänger. :)
Matrix316
2018-08-29, 09:35:10
[...]
Ist die Karte objektiv betrachtet wirklich teuer?
Oder ist die Karte doch nur relativ betrachtet sehr teuer, wenn man lediglich zocken will?
Iirc hat '98 ein Voodoo2 12MB SLI-Setup auch seine 1200,- DM gekostet.
Und man brauchte iirc noch eine 3. GPU für DOS/WIN-Spiele ohne 3d Beschleunigung?
[...]
Das waren aber dann zwei Karten für 1200 Mark und nicht eine für 1300.
Außerdem, wenn wir nur den reinen Materialwert nehmen, wird so eine Grafikkarte wie viel kosten? 100 Euro? 200? Eine CPU? 50 Euro? 100 Euro?
Ich glaube bei den Preisen geht's eher um Entwicklungskosten und ideelle Werte und nicht um was die Hardware realistisch wert ist. Ist ja im Prinzip nur ein wenig Kunststoff und etwas Sand und etwas Metall oder so. ;)
Vor allem wenn man bedenkt, dass 100% identische CPUs mehr kosten nur weil sie mehr Takt haben oder wenn funktionierende Kerne deaktiviert werden um CPUs billiger zu verkaufen.
nalye
2018-08-29, 09:39:08
24h dicht damit ihr alle wieder runter kommt...
basix
2018-08-30, 12:31:19
Ich verlinke mal diese zwei Posts aus dem Navi Thread bezüglich Ray Tracing auf einer GPU:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11785662&postcount=869
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11786085&postcount=873
Locuza hat ein Paper von 2014 geposted, wo ein RT Zusatz auf GCN HW evaluiert wird. Interessanterweise decken sich sehr viele Daten als auch Designverbesserungen mit Dingen, welche Turing nun bringen wird (z.B. 1 GigaRay/s = 1 TFLOPs, grössere L1/L2$, usw.).
Interessant, aber gerade ein größerer L2$ ist wahrlich keine Turing-Erfindung. Dieser Zwischenspeicher wurde in den vergangenen Generationen auch deutlich aufgeblasen, unter anderem zum Speichern des ganzen Tiling-Gerümpels (DSBR).
MfG,
Raff
Troyan
2018-08-30, 13:07:42
Das Papier ist reine Theorie. Kann schon in der Simulation der Hardware sich als nicht umsetzbar erweisen.
Leonidas
2018-08-30, 14:15:42
ComputerBase und PCGH haben sich Battlefield V angesehen und kommentieren RayTracing-Bildqualität sowie die dafür benötigte Performance. Sieht nicht gänzlich berauschend aus, wenn eine GeForce RTX 2080 Ti unter RayTracing nur bei FullHD @ 60 fps herauskommt:
https://www.computerbase.de/2018-08/battlefield-v-geforce-rtx-raytracing/
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Rotterdam-Map-Raytracing-1263908/
mironicus
2018-08-30, 14:28:34
Raytracing wird ja von NVidia als "heiliger Gral" bezeichnet. Als heiligen Gral bezeichne ich eher die Möglichkeit das sie ein neues Feature bringen was die Performance so stark einbrechen lässt, dass wiederrum der Bedarf nach mehr Power erweckt wird. :D
Denn bei der Performance der normalen Spiele sehe ich keinen Aufrüstungsbedarf. Das ist wie im CPU-Bereich, mehr Kerne bringen nicht viel.
Fragman
2018-08-30, 14:30:55
wobei 60 frames in fhd schon ganz ordentlich sind fuer ein reales game beispiel bei einer komplett neuen tech integration. das man dafuer eine ti braucht, die eben diesen preispunkt hat, kann ein problem sein, wenn es noch 2 karten drunter gibt, die weniger leistung haben.
wie schon im artikel angesprochen, mal schauen wieviel die 2070 schafft.
aber das feature ist voll nutzbar und bleibt auf jahre eben kein nice to show techdemo, wie viele andere neue techs davor.
Dural
2018-08-30, 14:31:24
Das ist auch das Prinzip einer neuen Technologie, man will die zukünftigen Verkäufe damit fördern.
1x1 der Marktwirtschaft ;)
Aber ich würde noch abwarten, wie ich schon erwähnt habe könnte RT auch sehr auf das PT gehen, sprich wenn der Chip gross ausgelastet wird könnte der Takt runter gehen. Die Differenz mit / ohne sieht dann auf dem Papier grösser aus als sie wirklich ist. Die RT Leistung wird sicherlich nicht umsonst sein ;)
Aber das werden erst umfangreiche Tests zeigen müssen wie sehr Turing an der PT hängt.
Sven77
2018-08-30, 14:32:35
Raytracing wird ja von NVidia als "heiliger Gral" bezeichnet.
Ist es auch.. momentan mag das noch nicht so aussehen, aber RT wird wenn die Leistung dann stimmt und die Entwickler damit in die Vollen gehen können ein riesiger Sprung in der Bildqualität sein.
AffenJack
2018-08-30, 14:33:56
ComputerBase und PCGH haben sich Battlefield V angesehen und kommentieren RayTracing-Bildqualität sowie die dafür benötigte Performance. Sieht nicht gänzlich berauschend aus, wenn eine GeForce RTX 2080 Ti unter RayTracing nur bei FullHD @ 60 fps herauskommt:
https://www.computerbase.de/2018-08/battlefield-v-geforce-rtx-raytracing/
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Rotterdam-Map-Raytracing-1263908/
Ja die Leistung ist prinzipiell noch ziemlich limitiert, aber das Digitalfoundries Video dazu bespricht auch Möglichkeiten der Entwickler die Leistung noch ein gutes Stück zu optimieren (30% schneller wird im Vid erwähnt) plus RT in einer geringeren Auflösung zu rendern und dann upzuscalen. Das sollte immernoch deutlich besser aussehen, als ohne RT. Für die kleineren Karten wirds dann eben RT Einstellungen geben. Die Frage ist, wie das eben runter skaliert.
Bis vor 2 Wochen hatten die Leute bei Frostbite auch noch keinen Turing, da kann also schon noch was in der Performance passieren. Es bleibt spannend.
Raytracing wird ja von NVidia als "heiliger Gral" bezeichnet. [...]
Die Bezeichnung "Holy grail" für Raytracing stammt nicht von Nvidia, das wird schon seit Dekaden so genannt. Nvidia ist nur die erste Firma, die eine flächendeckende Einführung lanciert.
MfG,
Raff
Leonidas
2018-08-30, 14:36:22
das Digitalfoundries Video dazu bespricht auch Möglichkeiten der Entwickler die Leistung noch ein gutes Stück zu optimieren (30% schneller wird im Vid erwähnt) plus RT in einer geringeren Auflösung zu rendern und dann upzuscalen. Das sollte immernoch deutlich besser aussehen, als ohne RT.
:up:
Das würde ja fast dahin gehen, das man RT dann unter WQHD mit einer 2080Ti nutzen kann. Dafür gibt es dann sicher Anwender, die das mitgehen.
Jo. Und dann bearbeitet man die RTX 2080 Ti noch sanft mit der Keule, sodass 15-20 Prozent mehr Takt abfällt, dann wird das schon. Hingebogen bekommt man das bestimmt, nur halt weder richtig hübsch noch richtig flüssig. :udevil:
MfG,
Raff
Rancor
2018-08-30, 14:44:26
Hauptsache eine 2080 schafft das irgendwie in WQHD :D
Sven77
2018-08-30, 14:50:51
Jo. Und dann bearbeitet man die RTX 2080 Ti noch sanft mit der Keule, sodass 15-20 Prozent mehr Takt abfällt, dann wird das schon. Hingebogen bekommt man das bestimmt, nur halt weder richtig hübsch noch richtig flüssig. :udevil:
Dann lässt man es eben erstmal für sowas wie BFV deaktivert. Wenn man hier unbedingt im MP die Frames haben will muss man eben die Regler bedienen, dafür gibts ja auch Spiele wie Tomb Raider bei denen man dank Adaptive Sync nicht unbedingt 60fps braucht.
mkh79
2018-08-30, 14:59:36
Na klar, und das für schlappe 1300 Euro.
Ne, wirklich nicht ;D
Wenn ich so viele Kompromisse eingehen muss, wird das nichts.
Schauen wir mal, wie es am Ende alles aussieht.
Skysnake
2018-08-30, 15:01:48
ComputerBase und PCGH haben sich Battlefield V angesehen und kommentieren RayTracing-Bildqualität sowie die dafür benötigte Performance. Sieht nicht gänzlich berauschend aus, wenn eine GeForce RTX 2080 Ti unter RayTracing nur bei FullHD @ 60 fps herauskommt:
https://www.computerbase.de/2018-08/battlefield-v-geforce-rtx-raytracing/
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Rotterdam-Map-Raytracing-1263908/
Also so wirklich geil sieht das nicht aus. Das man im BFV auch in den Pfützen keine Explosionen außerhalb des Sichtsfelds sieht ist schwach.
Mir scheint auch, dass die Reflexion komplett unabhängig vom Winkel zur Fläche zu sein. Das ist nicht wirklich gut.
Insgesamt sieht das alles eher ziemlich bescheiden aus mit dem PopUp etc. Sieht im Prinzip nach der Situation aus, die ich befürchtet habe.
Aktuell eine halbgare Umsetzung, die extrem viel Leistung brauch, so das man zwar teilweise sehr viel schönere Effekte sieht, aber dafür an anderen Stellen sehr viel hässlichere Effekte wie PopUp oder unterirdische Leistung sieht.
Ergo erst mit der nächsten oder übernächsten Serie wohl vernünftig brauchbar.
aufkrawall
2018-08-30, 15:04:20
Du hast keine Ahnung von den Limitierungen von SSR, kann das sein?
akuji13
2018-08-30, 15:16:59
Jo. Und dann bearbeitet man die RTX 2080 Ti noch sanft mit der Keule, sodass 15-20 Prozent mehr Takt abfällt, dann wird das schon. Hingebogen bekommt man das bestimmt, nur halt weder richtig hübsch noch richtig flüssig. :udevil:
Lustig wie hier 1080p oder WQHD@60 fps angepeilt wird...ich brauche da je nach Titel aber eher 120+ fps für eine ordentliche motion blur reduction. :D
Dural
2018-08-30, 15:18:41
Die Erkenntnis das RT viel Leistung benötigt ist so alt wie RT selber ;)
Das ist auch der Grund wie so wir seit 20 Jahren kaum was mit RT gesehen haben, die Hardware ist und war einfach viel zu langsam.
Aber sieht es positiv, der Turing Nachfolger in 7nm dürfte sicher schon die doppelte RT Leistung bekommen. :D
Leonidas
2018-08-30, 15:18:56
Du hast keine Ahnung von den Limitierungen von SSR, kann das sein?
Erhelle uns mit Deinem Wissen (nicht ironisch, sondern ernsthaft gemeint) ... und lass dafür die Herabwürdigung anderer stecken. Danke.
Tesseract
2018-08-30, 15:22:44
Ist es auch.. momentan mag das noch nicht so aussehen, aber RT wird wenn die Leistung dann stimmt und die Entwickler damit in die Vollen gehen können ein riesiger Sprung in der Bildqualität sein.
jein. die "heiligen grale" sind path tracing bzw. radiosity. raytracing kann zwar schon relativ viel, ist für viele effekte/szenen aber auch einfach ineffizienter als "gefakte" resterisierung, was auch der grund ist warum es erst jetzt mit DL-denoise für echtzeit verwendbar wird und nicht schon seit jahren in den GPUs steckt. außerdem sind genau die effekte für die raytracing gegenüber rasterisierung sehr gut geeignet ist in der spieleszenenrealität eher selten. schau dir mal raytracing demos der letzten jahrzehnte an, die sind fast immer gleich aufgebaut: ein paar glaskörper auf spiegelndem fliesenboden - eben genau dem wo RT gut ist - und das ganze als offline-rendering mit extrem vielen strahlen. was aber nicht gezeigt wird sind realitätsnähere szenen wie vegetation, häuser usw. in echtzeit (und ohne DL-denoise) wo dann bei vergleichbarem rechenaufwand eher die 1080p@60fps rasterisierung gegen das 800*600@30fps RT steht das in bewegung auch noch flimert wie hölle und selbst bei gleicher auflösung und viele strahlen kaum einen optischen mehrwert bietet.
Sven77
2018-08-30, 15:30:46
Moment.. das was nVidia uns als RT verkauft IST Path-Tracing..
aufkrawall
2018-08-30, 15:31:39
Erhelle uns mit Deinem Wissen (nicht ironisch, sondern ernsthaft gemeint) ... und lass dafür die Herabwürdigung anderer stecken. Danke.
Wenn man bei RT mit dem Mikroskop hinschaut und Details bemängelt, dürfte man mit SSR, als einzigen großen Grafikfehler, gar kein Spiel spielen.
Troyan
2018-08-30, 15:31:58
außerdem sind genau die effekte für die raytracing gegenüber rasterisierung sehr gut geeignet ist in der spieleszenenrealität eher selten.
Was die logische Konsequenz aus der Tatsache ist, dass man die Szenen auf anderen Wege (teuer) faken müsste. Erst jetzt kann man doch Spiele oder Szenarien entwickeln, die unter Berücksichtigung von Raytracing erfolgen.
Erhelle uns mit Deinem Wissen (nicht ironisch, sondern ernsthaft gemeint) ... und lass dafür die Herabwürdigung anderer stecken. Danke.
Screenspace Reflections können nur Dinge reflektieren, die auf dem Screen sind. Wenn es nun schwach ist, dass die SSR in Battlefield nur genau das tun, liegt es eher an der grundlegenden Funktionsweise als an der "schwachen" Implementierung.
aufkrawall
2018-08-30, 15:38:09
Screenspace Reflections können nur Dinge reflektieren, die auf dem Screen sind.
Eigentlich sogar auch nur Pixel. D.h. selbst wenn die zu spiegelnden Objekte zu 100% unverdeckt sind, sind die Reflexionen durch die Ausrichtung im Raum auch schon teilweise kaputt.
Tesseract
2018-08-30, 15:42:20
Moment.. das was nVidia uns als RT verkauft IST Path-Tracing..
wie kommst du auf sowas?
Was die logische Konsequenz aus der Tatsache ist, dass man die Szenen auf anderen Wege (teuer) faken müsste. Erst jetzt kann man doch Spiele oder Szenarien entwickeln, die unter Berücksichtigung von Raytracing erfolgen.
nö, das ergibt sich einfach aus dem was man in spielen abbilden will. in der realität sind die meisten oberflächen matt und opak, die luft ist meist klar und die szenen enthalten selten situationen wo sich fehler der rasterisierung deutlich aufschaukeln.
und wie gesagt: faken ist in der regel wesentlich billiger als RT.
Troyan
2018-08-30, 15:45:41
nö, das ergibt sich einfach aus dem was man in spielen abbilden will. in der realität sind die meisten oberflächen matt und opak, die luft ist meist klar und die szenen enthalten selten situationen wo sich fehler der rasterisierung deutlich aufschaukeln.
Richtig, "was man abbilden" will. Kreativität wird eingeengt, wenn die technischen Möglichkeiten nicht vorhanden sind.
Sven77
2018-08-30, 15:48:58
wie kommst du auf sowas?
Jensen zugehört? Cornel Box gesehen?
Momentan stehen dem SDK nur RT-AO, RT-(glossy) Reflections und RT-Area Shadows zu Verfügung. Die Demos haben aber noch indirect Lighting benutzt, denn mit normalen RT bekommst du die Beleuchtung wie in Metro nicht hin.
Tesseract
2018-08-30, 15:49:04
Richtig, "was man abbilden" will. Kreativität wird eingeengt, wenn die technischen Möglichkeiten nicht vorhanden sind.
als zusätzliches hilfsmittel ist das auch in ordnung, aber RT ist einfach nicht die generallösung für alles für die es die leute halten.
@ Skysnake
Auf die Pop-Up-Problematik wird aber im von Dildo geposteten digitalfoundry-Video eingegegangen (ca. 08:00). Dice waren demnach wohl selber ein wenig überrascht, daß LOD gar kein solcher Leistungsfresser sei und werden demnach in der finalen Version das LOD hochziehen, wodurch das Pop-up dann deutlich weniger wird (Wurde wohl mit einem anderen build den Leuten von digitalfoundry auch schon demonstriert.).
Edit: wurde im Video auch darauf hingewiesen, daß der präsentierte build noch konservative Einstellungen aufwies, weil noch auf Titan V erstellt.
dargo
2018-08-30, 15:57:56
Jo. Und dann bearbeitet man die RTX 2080 Ti noch sanft mit der Keule, sodass 15-20 Prozent mehr Takt abfällt, dann wird das schon. Hingebogen bekommt man das bestimmt, nur halt weder richtig hübsch noch richtig flüssig. :udevil:
MfG,
Raff
Ist schon geklärt ob die RT-Leistung überhaupt ansteigt wenn man die GPU übertaktet?
Tesseract
2018-08-30, 16:13:52
Jensen zugehört? Cornel Box gesehen?
Momentan stehen dem SDK nur RT-AO, RT-(glossy) Reflections und RT-Area Shadows zu Verfügung. Die Demos haben aber noch indirect Lighting benutzt, denn mit normalen RT bekommst du die Beleuchtung wie in Metro nicht hin.
so wie ich das verstanden habe ist aber nichts davon path tracing sondern RT+tricks um mit überschaubarem aufwand schöne resultate zu bekommen, wie man das beim rasterisieren eben auch macht. auf der GDC wurde echtes path tracing auf der hardware gezeigt - mit entsprechender renderzeit von 5+ sekunden pro frame bis das bild halbwegs ansehnlich war.
Sven77
2018-08-30, 16:16:28
Nein es ist echtes Path Tracing, das impliziert ja schon die stochastische Herangehensweise die es bei RT so nicht gibt
edit: an der Begrifflichkeit sollte man sich nicht aufhalten, Path-Tracing ist eine Art des Raytracings
Jo. Und dann bearbeitet man die RTX 2080 Ti noch sanft mit der Keule, sodass 15-20 Prozent mehr Takt abfällt, dann wird das schon. Hingebogen bekommt man das bestimmt, nur halt weder richtig hübsch noch richtig flüssig. :udevil:
Wird dann aber vermutlich nur mit einer WaKü hinhauen, oder? :frown: Ich mach das so ungerne, da Wiederverkauf doch etwas schwieriger wird. Hier gebe ich zu, ich bin mittlerweile so ein Default-Setting-Spieler geworden, an dem "Desaster", als ich ein bißchen an dem Power Target schraubte und die Titan X nicht mehr lief. :redface:
Hat hier jemand schon eine 1080/70/60 TI oder Titan X damit kaputt bekommen?
Tesseract
2018-08-30, 16:43:56
Nein es ist echtes Path Tracing, das impliziert ja schon die stochastische Herangehensweise die es bei RT so nicht gibt
edit: an der Begrifflichkeit sollte man sich nicht aufhalten, Path-Tracing ist eine Art des Raytracings
es geht mir nicht um die begrifflichkeit sondern darum was im hintergrund passiert. entweder man macht echtes path tracing und löst damit alle probleme die rasterisierung oder simpleres RT haben ("holy grail" = eine lösung für alles) und wartet dafür mehrere sekunden auf einen frame oder man trickst rum um ordentliche renderzeiten zu erzielen aber hat dafür dann wieder die bekannten probleme.
beides gleichzeitig geht nicht und was spiele machen werden ist wohl offensichtlich.
Darf ich dazu den Begriff "Photon Mapping" einwerfen? Bei früheren Vorträgen (2009 und 2013) wird das von Nividia auch mal erwähnt.
Sven77
2018-08-30, 16:52:34
beides gleichzeitig geht nicht und was spiele machen werden ist wohl offensichtlich.
Natürlich geht das. Ich sehe momentan die Problematik das die derzeitige Lösung nicht schnell genug ist um ein sauberes Bild in der nativen auflösung zu gewährleisten. Im Offline-Rendering fällt das Bild das aus primär Strahlen gebildet wird ja nur als Abfall an das man weiter benutzen kann.
Momentan sieht es so aus als würde man primär rastern, und dann je nach Wunsch die einzelnen Komponenten des RT aus dem Buffer kombinieren. Macht man Oflline übrigens genaus, keiner rendert ein fertiges Bild heraus. Das heisst aber nicht das man kein Path-Tracing benutzt
Darf ich dazu den Begriff "Photon Mapping" einwerfen? Bei früheren Vorträgen (2009 und 2013) wird das von Nividia auch mal erwähnt.
Das ist mit RT (gottseidank) Geschichte
Troyan
2018-08-30, 16:59:10
Wir hatten die Diskussion doch schon. Es ist ein Hybrid-Ansatz. Raytracing soll da zum Einsatz kommen, wo man als Entwickler meint mit Rasterizing nicht weiter zu kommen. DICE löst z.B. die SSR Probleme in BF5 mit RT.
nVidia hat sich auf der Siggraph dazu geäußert: https://t.co/q2bfmF0MOn
Das ist mit RT (gottseidank) Geschichte
Deshalb frag ich, weil:
Wikipedia - Path Tracing (https://de.wikipedia.org/wiki/Path_Tracing)
In der Praxis ist reines Path Tracing meist zu langsam, weshalb es mit Photon Mapping kombiniert werden kann.
Ergo wäre meine Überlegung, daß sowas Nvidia ja auch tun könnte, um eine gewisse Performance gewährleisten zu können.
Sven77
2018-08-30, 17:06:14
Photon Mapping und Dynamik schliesst sich halt aus. Da kann man auch weiterhin GI in die Texturen baken..
SKYNET
2018-08-30, 17:44:57
Wird dann aber vermutlich nur mit einer WaKü hinhauen, oder? :frown: Ich mach das so ungerne, da Wiederverkauf doch etwas schwieriger wird. Hier gebe ich zu, ich bin mittlerweile so ein Default-Setting-Spieler geworden, an dem "Desaster", als ich ein bißchen an dem Power Target schraubte und die Titan X nicht mehr lief. :redface:
Hat hier jemand schon eine 1080/70/60 TI oder Titan X damit kaputt bekommen?
nö, weder mit PT auf max noch mit overvolting...
denke da wird die karte von vornherrein ein weggehabt haben, würde schätzen das irgendwas bei der spannungsversorgung abgeraucht ist.
unl34shed
2018-08-30, 18:00:49
Das Papier ist reine Theorie. Kann schon in der Simulation der Hardware sich als nicht umsetzbar erweisen.
Das Paper liest sich doch jetzt nicht so schlecht, oder wo liegt genau dein Problem drin? Klingt auch alles recht vernünftig was die da ansprechen und wie sie es umsetzen wollen. Hast du es dir überhaupt mal durchgelesen?
Screenspace Reflections können nur Dinge reflektieren, die auf dem Screen sind. Wenn es nun schwach ist, dass die SSR in Battlefield nur genau das tun, liegt es eher an der grundlegenden Funktionsweise als an der "schwachen" Implementierung.
Was ich mich da immer frage, warum benutzt man nicht eine neue Kamera (Gespiegelte Postition von der Ausgabe zur Fläche) und benutzt dieses Bild
für die Reflektionen.
Gerade die Bodenreflektionen in BFV sind ja in einer Ebene, eine neue Szene berechnen von 1,8m unter dem Spieler und den Boden debei Ignorieren (evtl mit niedrigerer Auflösung und man hat eine gute Reflektion der Umgebung. Problematisch wird das ganze nur bei vielen Reflektierenden Oberflächen mit unterschiedlichen Winkeln oder wenn es keine flachen Oberflächen sind. Aber für Glasscheiben/Spiegel oder die Pfützen auf dem Boden sollte das doch recht gut funktionieren, oder nicht?
Godmode
2018-08-30, 18:21:28
Wird dann aber vermutlich nur mit einer WaKü hinhauen, oder? :frown: Ich mach das so ungerne, da Wiederverkauf doch etwas schwieriger wird. Hier gebe ich zu, ich bin mittlerweile so ein Default-Setting-Spieler geworden, an dem "Desaster", als ich ein bißchen an dem Power Target schraubte und die Titan X nicht mehr lief. :redface:
Hat hier jemand schon eine 1080/70/60 TI oder Titan X damit kaputt bekommen?
Mit was, PT umstellen? Oder hast du einen Shunt-Mod gemacht? Nein, mir ist generell noch nie eine GPU oder CPU eingegangen durch Overclocking, Overvolting.
Schon jemand gelesen?
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47270-interview-mit-nvidia-infos-zum-oc-und-der-leistung-der-geforce-rtx-2080-ti.html)
YNnDRtZ_ODM
Aussage:
2080 bieten werden. SLI wird künftig über NVLink laufen – die Daten des Frame Buffers der zweiten Karte werden über den NVLink-Anschluss auf die erste Karte übertragen. Theoretisch steht dem System die doppelte Speichermenge der einzelnen Karte zur Verfügung. Bei zwei GeForce RTX 2080 Ti sollen aus zweimal 11 GB dann 22 GB werden. Bei zwei GeForce RTX 2080 dementsprechend zweimal 8 GB sprich 16 GB insgesamt. Die Entwickler des V-Ray-Plugins der Chaos Group haben die Verdopplung des Speichers bereits demonstriert.
Allerdings muss man in diesem Zusammenhang verstehen, das der Teil des Speichers, der sich zusammen mit der GPU auf der selben Karte befindet, mit 616 GB/s angebunden ist, NVLink mit bis zu 100 GB/s aber schon deutlich langsamer ist. Ein Speicherzugriff der ersten GPU auf den Speicher der zweiten Karte ist also durch diese 100 GB/s und zusätzliche Latenzen limitiert.
NVLink hat, wie angesprochen, einen deutlichen Vorteil hinsichtlich der Bandbreite der Schnittstelle. Die SLI-Brücke der ersten Generation kommt auf 1 GB/s, die darauf folgenden SLI-HB-Brücken erreichten 4 GB/s und machten ein SLI mit 4K-Auflösung mit mehr als 60 Hz möglich. Ein NVLink der GeForce RTX 2080 kommt auf 50 GB/s, bei der GeForce RTX 2080 Ti mit zwei NVLink-Anschlüssen sind es dementsprechend 100 GB/s. Allerdings hat der zusammengelegte Speicher einen Einfluss auf die Leistung, da selbst 50 oder gar 100 GB/s eine Limitierung darstellen können.
Die für SLI- und nun NVLink-Systeme störenden Mikroruckler können mit der höheren Bandbreite des NVLink aber nicht behoben werden. Hier bleibt laut NVIDIA ein G-Sync die einzige Möglichkeit, dies etwas abzufangen.
Hm, somit scheidet NVLink nach wie vor noch aus. Hat jemand ein SLI mit G-Sync hier laufen? Wie ist das mit dem Mikroruckeln?
TurricanM3
2018-08-30, 18:40:49
Ich hatte TxP SLI mit G-Sync mal und fand das in den Spielen in denen ich es getestet hatte klar besser als eine Karte ohne G-Sync.
Was ich mich da immer frage, warum benutzt man nicht eine neue Kamera (Gespiegelte Postition von der Ausgabe zur Fläche) und benutzt dieses Bild für die Reflektionen.
Du musst du die Kameraposition und Ausrichtung an der Reflektionsebene spiegeln. Ändert sich die Höhe der Reflektionsebene, ist es schon vorbei. So flach ist keine Battlefield Map.
Was mir auffällt, daß hier auch die Nvidia-Kollegen in den Videos regelrecht aus dem Häuschen und begeistert sind von den neuen Turing Chips. Das heißt, die sind alle schon recht überzeugt von dem Produkt. Daher würde ich mal glauben, daß Nivida hier nicht direkt einen Flop oder Reinfall produziert hat, so wie manche befürchten. Klar, rosa Brille und getrübte Euphorie wird mit dabei sein, dennoch kommt das meiner Meinung nach nicht von ungefähr. Da sie alle betonen, wie eng mit $MS zusammengearbeitet wurde, kann man davon aussgeht, daß die Nvidia RTX Api mit der DXR-Schnittstelle sehr gut zusammenlaufen wird.
aufkrawall
2018-08-30, 19:02:26
Das waren sie bei MFAA und dem Maxwell-Raytracing auch schon...
unl34shed
2018-08-30, 19:05:23
Du musst du die Kameraposition und Ausrichtung an der Reflektionsebene spiegeln. Ändert sich die Höhe der Reflektionsebene, ist es schon vorbei. So flach ist keine Battlefield Map.
Verstehe ich jetzt nicht ganz wie du das meinst. Die Kamera des Spielers ändert sich ja auch ständig.
Falls du meinst, dass man evtl Objekte hinter der Reflexionsebene angezeigt werden, die könnte man ja verwerfen und erst alles was sich vor der Reflexionsebene befindet berücksichtigen.
Screemer
2018-08-30, 19:07:16
Sehr gut ist dann wohl Definitionssache. Wenn ich mir allein ansehe was mit dem SDK Grad möglich ist und das es schon ein prolem sein kann zwei Effekte via RT zu implementieren, wenn man in spielbaren framebereichen bleiben möchte. Bei mir war mit hdmi 2.1 eigentlich ein Upgrade auf 4k geplant. Das wird so aber nix, wenn ich gleichzeitig in Richtung RT schiele. Mmmmhhhh.
Outsider82
2018-08-30, 19:12:42
In dem auf Seite 395 Gepostetem Video Interview sagt der Nvdia Typ das DLSS in Form von zb einem Gamepatch kommt ( Min 20:40 ). Sprich ist dann wohl nicht Nvidia Expirience Exclusiv was ich erst vermutet hatte sondern wird vom Spiel geliefert... Aufatmen
Es ist Ausserdem Kostenlos für SpieleEntwickler wenn sie ihr Spiel Nvidia geben damit die es auf ihrem SuperComputer laufen lassen und DLSS Daten zu sammeln. Diese Daten können dann die Spieleentwickler nehmen und in ihr Spiel packen um im Spiel dann DLSS zu Implementieren.
Daredevil
2018-08-30, 19:49:21
Am 14 Sept fällt anscheinend das NDA, an dem die Presse dann über die Karten reden darf.
Habs jetzt nicht so wirklich verfolgt, war das bekannt?
( Quelle: Youtuber Alex Böhm im FB Interview )
Outsider82
2018-08-30, 19:53:58
Jup ist seit dem 22.8 bekannt dass das NDA am 14.9 fallen soll. Offiziell ist es aber bisher nicht .. nur ein Leak.
https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-2080-ti-editors-day-leaks
Am 14 Sept fällt anscheinend das NDA, an dem die Presse dann über die Karten reden darf.
Habs jetzt nicht so wirklich verfolgt, war das bekannt?
( Quelle: Youtuber Alex Böhm im FB Interview )
Jo Schnee von gestern. Ich vermute es aber ein wenig früher. Würde Bestellungen u.U. pushen oder auch nicht :ugly:
decimad2
2018-08-30, 20:06:39
Ich verstehe jetzt ehrlich gesagt auch nicht, wie das _kein_ path tracing sein kann, aber solches Rauschen erzeugt. Ich mein, vielleicht entscheiden sie sich ja auch im "Collision Shader", was sie genau machen. Aber es scheint ja zumindest Path-Tracing + AI Denoise für GI möglich zu sein, wie auch "schnödes" Raytracing + AI interpolate für Reflektionen. Irgendwie so. Im Prinzip unterscheiden sich die Verfahren ja nur in den Punkten, die für mich im Shader abgedeckt sind. Zumindest würde ich jetzt erwarten, dass für jede Ray-Triangle-Intersection ein shader angetriggert wird, der wieder neue Rays aussenden kann. Und dann würde man halt im Shader entscheiden, welches Modell man fährt. Aber vielleicht funktioniert das ja auch ganz anders.
decimad2
2018-08-30, 20:09:20
An die Insider: Ist in dem SDK beschrieben, welche Datenstruktur für die Ray-Intersections benötigt wird? Ist meine Beobachtung der Reflektionen etc. nur auf Rigid Bodies (Also Stormtrooper-Panzer, Gelenk-Roboter, Rüstung...) dem geschuldet?
Godmode
2018-08-30, 20:33:29
An die Insider: Ist in dem SDK beschrieben, welche Datenstruktur für die Ray-Intersections benötigt wird? Ist meine Beobachtung der Reflektionen etc. nur auf Rigid Bodies (Also Stormtrooper-Panzer, Gelenk-Roboter, Rüstung...) dem geschuldet?
Ich glaube das sind verschachtelte Bounding-Boxen als Baum organisiert. Bin mir aber nicht mehr ganz sicher, aber ich hab das irgendwo kürzlich mal gelesen.
sChRaNzA
2018-08-30, 20:34:59
Um das mal komplett objektiv, aus Sicht eines Anwenders mit einer GeForce GTX1060,zu sehen...:
Der ganze ''Streitfaktor'' bei der (jetzigen) Generation von Turing, besteht doch rein auf dem Preis, oder? Egal ob nVidia oder AMD User, alle sind sich einig, dass die Technik dahinter schon recht ''interessant'' ist. Das meiste ''Beef'' gibt es doch des Preises wegen, oder? Klar werden diese Karten ihre Performance leisten, klar werden die High-End-Modelle den Jetzigen überlegen sein... Ich gönne jedem, der es sich leisten kann, das Vergnügen. Aber was sind denn die Vorteile von nVida, bei diesen Preisen, für den Endverbraucher? Die Mehrheit wird sich einfach definitiv KEINE Karte für über 500€ kaufen - egal wie weit sie der Vorgängerversion überlegen ist.
Ich finde Turing, inklusive RT, sehr interessant. Aufgrund der Berichte kann man aber davon ausgehen, dass eine 2080 nicht sonderlich weit über der jetzigen Generation liegen wird. Ein Modell, à la GTX1060 -die ja sehr stark auch im Verkauf war /ist, wurde noch nicht vorgestellt. Viele schrecken sicherlich vor den Preisen ab und wenden sich (eventuell) anderen Gebieten zu (Konsolen). Was genau erhofft sich nVidia von dieser Generation an Grafikkarten? Wen wollen Sie erreichen? Ist es mehr als nur ein ''Tech''-Release? Bringt mir RT, für diesen Preis, wirklich Mehrwert?
Troyan
2018-08-30, 20:39:24
Sieh es doch so: nVidia hat keinen Grund neue GPUs zu bringen. Konsolen limitieren, der Konkurrent hat sich selbst ins Aus gestellt und die vorhandenen GPUs sind der Maßstab.
Es ist wie mit Elektroautos. Die sind genauso eingeschränkt. Aber es gibt trotzdem ein Markt.
sChRaNzA
2018-08-30, 20:43:12
Sieh es doch so: nVidia hat keinen Grund neue GPUs zu bringen. Konsolen limitieren, der Konkurrent hat sich selbst ins Aus gestellt und die vorhandenen GPUs sind der Maßstab.
Es ist wie mit Elektroautos. Die sind genauso eingeschränkt. Aber es gibt trotzdem ein Markt.
Ja natürlich. Aber, um im Kontext zu bleiben, welchen Anreiz haben Käufer (in der 200-400€ Region) davon? Eigentlich doch keinen. Und bei den Preisen sehe ich (Obacht - nur MEINE Meinung) den Fortschritt auch leicht gefährdet. Turing scheint, im Moment, nur für den Markt der Enthusiasten ausgelegt, ohne Alternative. Das kann doch aber nicht der Anreiz sein, wenn über 50% der, potentiellen, Käufer jetzt aussteigen.
decimad2
2018-08-30, 20:48:10
Ja natürlich. Aber, um im Kontext zu bleiben, welchen Anreiz haben Käufer (in der 200-400€ Region) davon? eigentlich keinen. Und bei den Preisen sehe ich (Obacht - nur MEINE Meinung) den Fortschritt auch leicht gefährdet. Turing scheint, im Moment, nur für den Markt der Enthusiasten ausgelegt, ohne Alternative.
Sie können es sich leisten, eine Generation nicht auf Kosteneffizienz im Konkurrenzkampf aufzulegen, sondern nur Enthusiasten anzusprechen und mit allen Entwicklern Erfahrung bei mehreren neuen Technologien zu gewinnen. Und vielleicht verirren sich auch ein paar Normalo-Käufer wegen des Coolnesfaktors in diese Preisregionen. Das ganze manifestiert eben den großen Vorsprung, den sie inzwischen haben.
Fragman
2018-08-30, 20:51:29
Ja natürlich. Aber, um im Kontext zu bleiben, welchen Anreiz haben Käufer (in der 200-400€ Region) davon? Eigentlich doch keinen. Und bei den Preisen sehe ich (Obacht - nur MEINE Meinung) den Fortschritt auch leicht gefährdet. Turing scheint, im Moment, nur für den Markt der Enthusiasten ausgelegt, ohne Alternative. Das kann doch aber nicht der Anreiz sein, wenn über 50% der, potentiellen, Käufer jetzt aussteigen.
ich hab mir damals die voodoo1 fuer 400 mark gekauft und bei, anfangs, 3 spielen die karte nutzen koennen (pod, quake und descent), mehr nicht. das war eigentlich eine total bescheuerte ausgabe und trotzdem hab ich massig spass dran gehabt. wieso sollte das jetzt anders sein? ;)
sChRaNzA
2018-08-30, 20:55:10
Sie können es sich leisten, eine Generation nicht auf Kosteneffizienz im Konkurrenzkampf aufzulegen, sondern nur Enthusiasten anzusprechen und mit allen Entwicklern Erfahrung bei mehreren neuen Technologien zu gewinnen. Und vielleicht verirren sich auch ein paar Normalo-Käufer wegen des Coolnesfaktors in diese Preisregionen. Das ganze manifestiert eben den großen Vorsprung, den sie inzwischen haben.
Könnte aber auch nach hinten losgehen... Ich habe viele Freunde, Bekannte und Kollegen die immer gespielt haben, immer den PC als Plattform bevorzugt haben, aber bei den Preisen jetzt sagen: ''Ok, das interessiert mich jetzt nicht mehr - ich hol mir eine Konsole (zum Preis weniger als einer Karte)''. Enthusiasten mag es ''cool'' und lohnenswert vorkommen, der Großteil (!)meiner(!) Umgebung sagt aber, bei diesen Preisen, ''fuck you''.
Soll das Sinn der Sache sein?
ich hab mir damals die voodoo1 fuer 400 mark gekauft und bei, anfangs, 3 spielen die karte nutzen koennen (pod, quake und descent), mehr nicht. das war eigentlich eine total bescheuerte ausgabe und trotzdem hab ich massig spass dran gehabt. wieso sollte das jetzt anders sein? ;)
Weil man heute für eine 1-Zimmer-Wohnung in Würzburg schon 900€ zahlen darf. (Den Rest überlass ich mal euch)
Wie gesagt, mir geht es jetzt wirklich !nur! um den Preisfaktor... Die Technik ist schon interessant. Ich selbst würde mir ja eine 2080 gerne zulegen, kann sie mir jetzt aber schlicht nicht mehr leisten. Ich verdiene einfach nicht genug um in mein Hobby, welches mir mir zu GTX 580 Zeiten noch möglich war, jetzt so viel Geld zu stecken. Ich musste bei der letzten Generation schon auf eine 1060 ausweichen, obwohl sich mein Lebenstil nicht groß geändert hat... Jetzt wurde aber nicht einmal eine Karte in dieser klasse angekündigt, und die, die es gibt, liegen WEIT überhalb meines Budgets.
pixeljetstream
2018-08-30, 21:19:36
Fragen zum Raytracing selbst, DXR etc. bitte hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=590214
sChRaNzA
2018-08-30, 21:21:59
Fragen zum Raytracing selbst, DXR etc. bitte hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=590214
Generell oder auf meine Fragen zu Turin bezogen?
mironicus
2018-08-30, 21:23:35
Ich selbst würde mir ja eine 2080 gerne zulegen, kann sie mir jetzt aber schlicht nicht mehr leisten. Ich verdiene einfach nicht genug um in mein Hobby, welches mir mir zu GTX 580 Zeiten noch möglich war, jetzt so viel Geld zu stecken.
Otto bietet manchmal 12 Monats-Finanzierung ohne zusätzlichen Zinsen an. 12 * 108 Euro und die RTX 2080ti gehört dir. :deal:
So nur noch einmal mit der Maus klicken und alles ist gut. :udevil:
pilzsammler2002
2018-08-30, 21:38:24
Otto bietet manchmal 12 Monats-Finanzierung ohne zusätzlichen Zinsen an. 12 * 108 Euro und die RTX 2080ti gehört dir. :deal:
So nur noch einmal mit der Maus klicken und alles ist gut. :udevil:
Dann ist die Karte "alt" bevor sie abbezahlt wurde... (7nm)
Kann mir nicht vorstellen das es im Interesse der normalen User ist :D
Troyan
2018-08-30, 22:10:13
Ja natürlich. Aber, um im Kontext zu bleiben, welchen Anreiz haben Käufer (in der 200-400€ Region) davon? Eigentlich doch keinen. Und bei den Preisen sehe ich (Obacht - nur MEINE Meinung) den Fortschritt auch leicht gefährdet. Turing scheint, im Moment, nur für den Markt der Enthusiasten ausgelegt, ohne Alternative. Das kann doch aber nicht der Anreiz sein, wenn über 50% der, potentiellen, Käufer jetzt aussteigen.
TU104 kostet in der Produktion mehr als GP102. Und dann müssen die R&D Kosten für die nächste Generation eingespielt werden. Da diese weiter steigen (Prozesstechnologie, Architektur etc.) ist das ein Teufelskreis.
Es wird sich im Laufe der Zeit zeigen, ob die ganzen Mehrtransistoren mehr als bis zu 50% Leistung bringen gegenüber GP104.
Dann ist die Karte "alt" bevor sie abbezahlt wurde... (7nm)
Kann mir nicht vorstellen das es im Interesse der normalen User ist :D
Ich hab sowas bei der ersten Titan X gemacht. 0% Finanzierung ist doch optimal an der Stelle.
Ich musste bei der letzten Generation schon auf eine 1060 ausweichen, obwohl sich mein Lebenstil nicht groß geändert hat... Jetzt wurde aber nicht einmal eine Karte in dieser klasse angekündigt, und die, die es gibt, liegen WEIT überhalb meines Budgets.
Dazu gibts aber schon Infos: ;)
Nvidia Turing: GTX 2060 mit 5 GB GDDR6 samt Benchmark geleakt (https://www.pcbuildersclub.com/2018/08/nvidia-turing-gtx-2060-mit-5-gb-gddr6-samt-benchmark-geleakt/)
Nur der Preis ist noch offen.
Ja natürlich. Aber, um im Kontext zu bleiben, welchen Anreiz haben Käufer (in der 200-400€ Region) davon? Eigentlich doch keinen. Und bei den Preisen sehe ich (Obacht - nur MEINE Meinung) den Fortschritt auch leicht gefährdet. Turing scheint, im Moment, nur für den Markt der Enthusiasten ausgelegt, ohne Alternative. Das kann doch aber nicht der Anreiz sein, wenn über 50% der, potentiellen, Käufer jetzt aussteigen.
Steam Survey (https://store.steampowered.com/hwsurvey/videocard/). Über 45% mit folgenden Karten 1060, 1050, 760, 960! Der Marktanteil einer 1070 bei 2,58%, bei einer 1080 1,51%. Damit hast Du Deine Antwort, die Pascals sollen erst nochmal an den Mann gebracht werden, die in dem 45% befinden + die entsprechenden AMD User. Dann erst werden die Preise fallen, oder AMD kontert mal mit was richtigem.
pixeljetstream
2018-08-30, 22:12:05
Generell oder auf meine Fragen zu Turin bezogen?
Bezog mich eher auf decimad2 und die vorherige Diskussionen dazu.
dargo
2018-08-30, 22:19:43
Könnte aber auch nach hinten losgehen... Ich habe viele Freunde, Bekannte und Kollegen die immer gespielt haben, immer den PC als Plattform bevorzugt haben, aber bei den Preisen jetzt sagen: ''Ok, das interessiert mich jetzt nicht mehr - ich hol mir eine Konsole (zum Preis weniger als einer Karte)''. Enthusiasten mag es ''cool'' und lohnenswert vorkommen, der Großteil (!)meiner(!) Umgebung sagt aber, bei diesen Preisen, ''fuck you''.
Soll das Sinn der Sache sein?
Das hört sich bei dir gerade so an als ob man am PC mit allem außer GTX2080(TI) nichts mehr spielen könnte. :confused:
wolik
2018-08-30, 23:41:52
ich hab mir damals die voodoo1 fuer 400 mark gekauft und bei, anfangs, 3 spielen die karte nutzen koennen (pod, quake und descent), mehr nicht. das war eigentlich eine total bescheuerte ausgabe und trotzdem hab ich massig spass dran gehabt. wieso sollte das jetzt anders sein? ;)
War da nicht die erste Spiel mit Glide Turok ? (damals Atemberaubend) Von Unreal ganz zu schweigen.
Sven77
2018-08-30, 23:51:06
ich hab mir damals die voodoo1 fuer 400 mark gekauft und bei, anfangs, 3 spielen die karte nutzen koennen (pod, quake und descent), mehr nicht. das war eigentlich eine total bescheuerte ausgabe und trotzdem hab ich massig spass dran gehabt. wieso sollte das jetzt anders sein? ;)
POD hiess es, danke... hab mir demletzt den Kopf zerbrochen wie das Spiel hiess :D
War da nicht die erste Spiel mit Glide Turok ? (damals Atemberaubend) Von Unreal ganz zu schweigen.
In meinen Erinnerungen waren es Tomb Raider und Eurofighter 2000, die zuerst Glide hatten. Pod und Turok kamen später.
Leonidas
2018-08-31, 04:24:57
Was genau erhofft sich nVidia von dieser Generation an Grafikkarten?
Den generellen Einstieg in die RT-Technik und die damit vorhandenen Meriten. Das es erst breit nutzbar bei späteren Hardware-Generationen wird, dürfte NV genauso bewußt sein. Aber man gibt den technischen Vorreiter. Dies sicherlich nicht aus reiner Humanität, sondern auch deswegen, weil man selber sieht, das konventionelle Grafik kaum noch wirklich gut steigerbar ist - mehr Optik verbraucht inzwischen enorm an Aufwand. Daher lieber der Schweng auf einen neuen Weg, der sowieso noch seine Anlaufzeit benötigt. Zudem ist AMD derzeit schwach, ergo kann man sich ein solches Experiment eben jetzt leisten.
Dazu gibts aber schon Infos: ;)
Nvidia Turing: GTX 2060 mit 5 GB GDDR6 samt Benchmark geleakt (https://www.pcbuildersclub.com/2018/08/nvidia-turing-gtx-2060-mit-5-gb-gddr6-samt-benchmark-geleakt/)
Nur der Preis ist noch offen.
Probably Fake.
@ sChRaNzA:
Kannst Deinen Bekannten folgendes sagen:
Ja, Preis ist hoch. Aber das gilt nur für diese Generation. In nächster Generation (2019/20) wird es diese Technik auch hinunter bis zu den kleinen Karten geben. Auf Konsolen hingegen voraussichtlich erst im Jahr 2027.
Bösewicht
2018-08-31, 05:40:13
Nvidia Turing: GTX 2060 mit 5 GB GDDR6 samt Benchmark geleakt (https://www.pcbuildersclub.com/2018/08/nvidia-turing-gtx-2060-mit-5-gb-gddr6-samt-benchmark-geleakt/)
Nur der Preis ist noch offen.
die 2060 wird nicht weniger speicher haben als die 1060.
wolik
2018-08-31, 06:58:29
Dies sicherlich nicht aus reiner Humanität, sondern auch deswegen, weil man selber sieht, das konventionelle Grafik kaum noch wirklich gut steigerbar ist - mehr Optik verbraucht inzwischen enorm an Aufwand. Daher lieber der Schweng auf einen neuen Weg, der sowieso noch seine Anlaufzeit benötigt. Zudem ist AMD derzeit schwach, ergo kann man sich ein solches Experiment eben jetzt leisten.
Es schon jetzt Optik mehr als genug. Ich denke NV versucht von PS4Pro oder kommende PS5 (langsam wird die Zeit) sich "absetzen" Und 2080 ohne RT hätte "50-100%" mehr Leistung gehabt, dann in 7nm noch 50-100% Und dann vielleicht 4080 solte mit RT kommen. 2022. (IMXO) Wir werden bald sehen. NVLink finde ich auf jeden Fall super.
Hübie
2018-08-31, 07:43:54
Das waren sie bei MFAA und dem Maxwell-Raytracing auch schon...
Maxwell-Raytracing? :uponder: Hab ich was verpasst oder meinst du die Voxelspace-Geschichten? Die waren in der Tat nicht sehr populär und bis heute sind es nur eine Hand voll Spiele, welche es nutzen (Iirc gibt keine aktuellen Titel).
uweskw
2018-08-31, 07:46:13
Was mich bei den Test sehr interessieren würde wäre ein Bild Vergleich von RT und konventionellen Reflexionen. Also nicht das übliche neues Feature an: alles toll, neues Feature aus, alles weg. Es gibt ja auch ohne RT schon schicke Reflektionen auf Glasflächen oder Wasser.
Greetz
US
Rancor
2018-08-31, 07:50:43
Das hört sich bei dir gerade so an als ob man am PC mit allem außer GTX2080(TI) nichts mehr spielen könnte. :confused:
Mit Raytracing ON stimmt das ja auch ;D
Screemer
2018-08-31, 09:51:50
Was mich bei den Test sehr interessieren würde wäre ein Bild Vergleich von RT und konventionellen Reflexionen. Also nicht das übliche neues Feature an: alles toll, neues Feature aus, alles weg. Es gibt ja auch ohne RT schon schicke Reflektionen auf Glasflächen oder Wasser.
Greetz
US
ssr muss es sowieso geben. da ja überhaupt nicht für alles rt genutzt werden kann. bf5 zum beispiel wird keine spiegelungen in spiegeln haben, und ab der zweiten oder war es die dritten reflektion auch ssr nutzen. aussage war auch, dass sie es eben auch für alle non-rt-karten sowieso brauchen. bin schon gespannt wie sich das im vergleich schlägt.
dargo
2018-08-31, 10:02:44
Mit Raytracing ON stimmt das ja auch ;D
Hat er auf Konsole eh nicht.
bf5 zum beispiel wird keine spiegelungen in spiegeln haben, und ab der zweiten oder war es die dritten reflektion auch ssr nutzen.
:freak:
Du hast SSR so überhaupt nicht verstanden.
Screemer
2018-08-31, 11:48:11
:freak:
Du hast SSR so überhaupt nicht verstanden.
das kann sein. hatte es tatsächlich mit boxprojected cubemaps verwechselt und hab noch mal was zu ssr gelesen.
das kann sein. hatte es tatsächlich mit boxprojected cubemaps verwechselt und hab noch mal was zu ssr gelesen.
Da dich ja scheinbar wirklich für die Funktionsweise interessierst, kann ich dir nur empfehlen dich mal sauber in die Grundlagen einzulesen.
Das macht aber weder in Foren noch auf Newsseiten. Nimm einfach ein Grundlagenbuch (z.B. Realtime-Rendering (http://www.realtimerendering.com/book.html)) oder Vorlesungsunterlagen.
Das ist alles kein Hexenwerk, aber man kann nicht die aktuellen Entwicklungen verstehen, wenn einem das fundamentale Wissen fehlt.
pixeljetstream
2018-08-31, 23:01:00
Wie schon im raytracing Thread verlinkt schaut euch den HPG Vortrag von EA an, zahlen sind zwar noch von Volta, aber visuell sieht man schön die Unterschiede
https://www.highperformancegraphics.org/wp-content/uploads/2018/Keynote1/HPG2018_RealTimeRayTracing.pdf
La Junta
2018-09-01, 00:56:04
https://www.microspot.ch/de/Computer-Software/pc-komponenten/grafikkarten--C584000/gigabyte-gv-n2080wf3oc-8gc-8gb--P0001592684 <-- 2080iger für umgerechnet 695 Euro
Die Nvidia Preise sind völlig übertrieben .....
Ich denke mal das sich die Preise recht schnell normalisieren werden .
Ex3cut3r
2018-09-01, 05:16:07
Nach ein paar Folien, Video usw. finde ich Raytracing einfach geil, später wenn die Leistung da ist, und man "Full Raytracing" verwenden wird können, wird das einfach fast schon Photo real sein. Leider fangen wir quasi mit Turing bei Null bzw. von vorne an. :(
In 20 Jahren dann aber, 16K Auflösung und Crysis Remastered mit Full Raytracing Und der RTX 9080 mit 1TB VRAM! :biggrin:
Razor
2018-09-01, 07:23:23
Nicht umsonst nehmen sie das in die Modellbezeichnung auf.
Auch, um eben klar zu stellen, dass die "Kleinen" (2060 und darunter) eben keinen RT-Core und wohl auch keinen Tensor-Core haben werden.
Aber die ersten Effekte der "nVidia Produkt-, Release- und Preisstrategie" sind schon da:
GTX 1080 Ti für unter 600€! (https://geizhals.de/gigabyte-geforce-gtx-1080-ti-gaming-oc-11g-gv-n108tgaming-oc-11gd-a1602201.html?hloc=at&hloc=de)
Und das bei Alternate! (https://www.alternate.de/GIGABYTE/GeForce-GTX-1080-Ti-Gaming-OC-Grafikkarte/html/product/1344800?campaign=Grafikkarte/GIGABYTE/1344800)
Mir juckts kräftig in den Fingern :eek:
https://www.microspot.ch/de/Computer-Software/pc-komponenten/grafikkarten--C584000/gigabyte-gv-n2080wf3oc-8gc-8gb--P0001592684 <-- 2080iger für umgerechnet 695 Euro
Die Nvidia Preise sind völlig übertrieben .....
Ich denke mal das sich die Preise recht schnell normalisieren werden .
Da wäre ich aber extrem vorsichtig... Schweiz ist nicht EU!
Vorsichtige Schätzung: 852€
- Warenwert inkl. Versand = 695€
- 19% Zoll (Einfuhrsteuer) = 132€
- Abwicklung Zollamt ~ 25€
Nicht wirklich "günstiger", als die derzeit angebotenen 850€ in D, oder?
Razor
Swissr
2018-09-01, 08:10:26
In meinen Erinnerungen waren es Tomb Raider und Eurofighter 2000, die zuerst Glide hatten. Pod und Turok kamen später.
War das nicht eher descent 2?
Hübie
2018-09-01, 08:29:38
Ne, er liegt mit TR und Turok schon ganz richtig. ;) Die Analogie ist mir nur noch nicht ganz klar... :uponder:
dargo
2018-09-01, 09:14:12
In einem Interview hat sich Nvidias Tom Petersen über die Leistung der Geforce RTX 2080 Ti geäußert. In bisherigen Spielen, welche nicht die Tensor- und Raytracing-Kerne ausnutzen, soll das neue Topmodell 35 bis 45 Prozent mehr Fps auf den Bildschirm bringen als die GTX 1080 Ti. Dafür ist die Turing-Grafikkarte deutlich teurer.
http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Leistungsplus-GTX-1080-Ti-Vergleich-1264173/
horn 12
2018-09-01, 09:34:36
Nun, wohl die Übertaktete FE RTX 2080 ti / 2080
Daredevil
2018-09-01, 09:53:00
Warum ist die Turing Karte bei 35-45% mehr Performance deutlich teurer?
Ne gute GTX1080ti bekommt man mit Glück so für 700€.
Da die 35% bzw 45% drauf wären dann 945-1015€ + Deppenzuschlag, da Brandneue Karte.
Ein paar Euro zahlt man dann sicherlich dafür, dass die Karte eben Top Notch ist, aber das sehe ich jetzt nicht als verwerflich, den Preis muss man halt zahlen.
Wenn die P/L nicht großartig leidet +RT und Tensor Cores, wäre das doch fein. :)
So kann sich jeder das holen, wofür sein Geldbeutel reicht.
dargo
2018-09-01, 09:56:06
Warum ist die Turing Karte bei 35-45% mehr Performance deutlich teurer?
60% fetter + GDDR6.
SKYNET
2018-09-01, 10:00:00
Da wäre ich aber extrem vorsichtig... Schweiz ist nicht EU!
Vorsichtige Schätzung: 852€
- Warenwert inkl. Versand = 695€
- 19% Zoll (Einfuhrsteuer) = 132€
- Abwicklung Zollamt ~ 25€
Nicht wirklich "günstiger", als die derzeit angebotenen 850€ in D, oder?
Razor
die 8% mehrwert die du hier zahlen musst hast nicht abgezogen.... kommt auf unter 800... trotzdem viel :D
hier leben = hier sparen :tongue:
Screemer
2018-09-01, 10:03:36
Ne gute GTX1080ti bekommt man mit Glück so für 700€.
Da die 35% bzw 45% drauf wären dann 945-1015€ + Deppenzuschlag, da Brandneue Karte.
Faszinierend wie die Leute immer noch vergessen dass es immer Mehrleistung zum Preispunkt der alten Karten gab. Was würden die Karten noch Mal kosten, wenn man seit der voodoo1 den Preispunkt immer prozentual zum Leistungsanstieg angepasst hätte? Der erste richtige ripoff war die 980 und seit dem geht es fröhlich weiter.
Troyan
2018-09-01, 10:05:31
So, Vega kostet 200 und 250€? Muss ich verpasst haben.
https://youtu.be/A8roxrR9ZpY?t=156
Lustig wie die Animation zwar vorhanden ist, aber in der First-Person nicht durchgeführt wird.
Daredevil
2018-09-01, 10:10:17
Faszinierend wie die Leute immer noch vergessen dass es immer Mehrleistung zum Preispunkt der alten Karten gab. Was würden die Karten noch Mal kosten, wenn man seit der voodoo1 den Preispunkt immer prozentual zum Leistungsanstieg angepasst hätte? Der erste richtige ripoff war die 980 und seit dem geht es fröhlich weiter.
Ach, come on Screemer. :D
Die Bahnpreise steigen auch regelmäßig, obwohl die Züge nicht schneller fahren. Keine Konkurrenz, kein Preisdruck.
Es hält dich aber keiner davon ab, Flixbus zu nutzen.
Screemer
2018-09-01, 10:11:16
Lustig finde ich dass JF davon spricht, dass gi und Schatten so toll wären und das an der rtx build liegen würde. Bisher war bei bf5 doch "nur" die Rede von rt-reflections. Hab ich was verpasst?
Ach, come on Screemer. :D
Die Bahnpreise steigen auch regelmäßig, obwohl die Züge nicht schneller fahren. Keine Konkurrenz, kein Preisdruck.
Es hält dich aber keiner davon ab, Flixbus zu nutzen.
Die Diskussion hatten wir schon zigfach. Ich fühlte mich schon verarscht als NV mit gm104 das erste nen Minichip zum Premiumpreis verkauft hat. Ich seh es nunmal so, dass die Schmerzgrenze überschritten ist und bin da nicht der einzige. Sorry aber Eod.
gbm31
2018-09-01, 10:12:37
Aber die ersten Effekte der "nVidia Produkt-, Release- und Preisstrategie" sind schon da:
GTX 1080 Ti für unter 600€! (https://geizhals.de/gigabyte-geforce-gtx-1080-ti-gaming-oc-11g-gv-n108tgaming-oc-11gd-a1602201.html?hloc=at&hloc=de)
Und das bei Alternate!
Razor
Sollte das eine Folge der vertraglich verpflichteten Abnahme von GPUs sein, die wegen der Mining-Blase uberproduziert wurden?
Sollen doch von Gigabyte und MSI verdaut werden...
Troyan
2018-09-01, 10:14:11
Ha. RTX2080TI liefert annährend doppelt Leistung zur Vega64 bei fast 20% weniger Verbrauch. Aber darf natürlich nicht viel mehr Kosten.
Wenn man überlegt, dass Vega ein Jahr nach Pascal nicht mal die fünf schnellste Variante schlagen konnte, ist doch der Preis von Vega mehr eine Verarsche gewesen.
Aber so ist es eben: Alles was AMD macht, wird von den selben Leuten nie kritisiert. Nervt langsam. Wenn man Turing nicht kaufen will, okay. Aber dieses kritsieren von Mehrleistung und Innovation, die vom Konkurrenten seit Jahren nicht mehr geboten wird, ist absolut lächerlich. Würde es nach den Leuten gehen, dürften wir keinen Fortschritt mehr haben und Jahre warten, bis es wirkliche Mehrleistung gibt.
Screemer
2018-09-01, 10:16:33
Ja angesichts der Leistungsfähigkeit müssten die Vegas wesentlich günstiger sein und jetzt :eek:
Dural
2018-09-01, 10:40:00
Die selben die ständig mit dem preis kommen, sind oft die die selber eine vega haben.
Die begreifen langsam was sie für einen fehlkauf getätigt haben ;)
Was würde wohl eine amd karte mit den selben daten kosten? Wahrscheinlich das selbe oder sogar mehr, den die brauchen die kohle.
Und noch mal, die karte hat einen 750mm2 Die so was gabe es noch nie im gaming bereich, nv geht da volles risiko! Und da finde ich es völlig daneben von abzocker zu sprechen... wir gamer sollten froh sein das es nv gibt, den die sind die einzigen die pc gaming aktiv fördern.
Troyan
2018-09-01, 10:47:07
Ja angesichts der Leistungsfähigkeit müsstenndie Vegas wesentlich günstiger sein und jetzt :eek:
Ja, aber niemand hat solche Rechnungen wie hier im Vega-Thread aufgestellt. Es gibt Leute, die geben gerne 500€+ für Vega64 aus und erhalten für den doppelten Preis zur Fury X (realer Wert nach Pascal irgendwo zwischen 250€ bis 300€) rund 40% Mehrleistung.
Ach, come on Screemer. :D
Die Bahnpreise steigen auch regelmäßig, obwohl die Züge nicht schneller fahren. Keine Konkurrenz, kein Preisdruck.
Es hält dich aber keiner davon ab, Flixbus zu nutzen.
Die Bahn fährt faktisch immer langsamer. Ich fahre mehr als eine Dekade immer die gleiche Strecke, komme aber nun eine halbe Stunde später an und zahle circa 30 Prozent mehr. Sitzplatzreservierung kostet immer noch extra. Dafür gibt's nun Gratis-WLAN ... Dagegen ist Nvidia wirklich "flink" und feature-reich, allerdings gibts keinen Grund, sich die Preise schönzureden. ;)
Faszinierend wie die Leute immer noch vergessen dass es immer Mehrleistung zum Preispunkt der alten Karten gab. Was würden die Karten noch Mal kosten, wenn man seit der voodoo1 den Preispunkt immer prozentual zum Leistungsanstieg angepasst hätte? Der erste richtige ripoff war die 980 und seit dem geht es fröhlich weiter.
Könnte das mal jemand durchrechnen? Sind wir schon bei 'ner Million? :biggrin:
MfG,
Raff
unl34shed
2018-09-01, 10:52:26
https://youtu.be/A8roxrR9ZpY?t=156
Lustig wie die Animation zwar vorhanden ist, aber in der First-Person nicht durchgeführt wird.
Viel schhlimmer ist das minimale level of Detail ein paar Sekunden (2:00) vorher. Das Rendert ja nur ein paar Meter weit, Irgendwelche Animationen, die man als Spieler nicht sieht (Hammerschläge :confused: ) nicht mal der Hammer wird komplett reflektiert und der Charakter ist richtig low poly.
Dural
2018-09-01, 10:54:50
Ja, aber niemand hat solche Rechnungen wie hier im Vega-Thread aufgestellt. Es gibt Leute, die geben gerne 500€+ für Vega64 aus und erhalten für den doppelten Preis zur Fury X (realer Wert nach Pascal irgendwo zwischen 250€ bis 300€) rund 40% Mehrleistung.
40%? Laut neustem cb bench sind es 32% in 3840x2160 und die fury hat nur 4gb.
https://www.computerbase.de/2018-08/radeon-5870-6970-7970-290x-fury-x-vega-64-vergleich/2/#diagramm-performancerating-fps-3840-2160
AffenJack
2018-09-01, 10:55:31
Die Diskussion hatten wir schon zigfach. Ich fühlte mich schon verarscht als NV mit gm104 das erste nen Minichip zum Premiumpreis verkauft hat. Ich seh es nunmal so, dass die Schmerzgrenze überschritten ist und bin da nicht der einzige. Sorry aber Eod.
Dann hättest dich ja schon bei der 7970 von AMD verarscht fühlen müssen, wo AMD als erster einen Minichip zum Premiumpreis verkauft hat. Damals hats aber keinen interessiert, weil es keinen Chip drüber gab. Genauso bekommst du jetzt mit der 2080 einen Big-chip zum Premiumpreis, sollte nach deinem Argument ja auch toll sein?
Man kann die Preise durchaus zu hoch finden und ich steige da auch erstmal aus, aber sich selektiv Chips für seine Argumente aussuchen bringt es auch nicht.
40%? Laut neustem cb bench sind es 32% in 3840x2160 und die fury hat nur 4gb.
https://www.computerbase.de/2018-08/radeon-5870-6970-7970-290x-fury-x-vega-64-vergleich/2/#diagramm-performancerating-fps-3840-2160
Mit 'ner LCE wären's 40. ;) Das ist aber nicht der "richtige" CB-Index, sondern einer, der für ältere GPUs fitgemacht wurde.
Zum Vergleich der aktuelle PCGH-Index (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a24):
Vega 64 LCE: 151 %
Vega 64: 139 %
Fury X: 100 %
Und das sind 3 Auflösungen. Wir sind damit aber sehr offtopic.
MfG,
Raff
Dural
2018-09-01, 10:59:16
Gut möglich.
Die preise sind hoch keine frage, aber der preispunkt ist schon berechtigt.
Übrigens hat nv nicht bei den letzten geschäftszahlen gesagt, das der gewinn sinken wird? So viel zum thema abzocken ;)
pixeljetstream
2018-09-01, 11:00:18
Whataboutism ist meist nicht gut.
Preisempfindung ist sehr subjektiv.
Objektiv kann man aber schon festmachen wie viel Leistung man im Schnitt so bekam für bestehende Titel/Technik. Manche Generationen sind da objektiv günstiger für den Kunden.
Wie groß der Chip ist oder wie teuer die Herstellung, kann mir als Kunde in der Bewertung da auch egal sein.
Fakt ist die neuen Karten leben primär von der neuen Technik, deren Wertschätzung ist relativ subjektiv und Entfaltung wird sich auch erst über die Zeit zeigen.
Sich gegenseitig fertig zu machen dafür dass man early adopter sein will, oder halt wartet bis Preise sinken oder neue Generationen etc., ist doch komplett sinnfrei.
Troyan
2018-09-01, 11:07:34
Jap. Preis und Leistung sind so gut wie bekannt. Nun kann jeder entscheiden, ob es sich lohnt.
Aber manchmal ist es auch notwendig, wenn man verschiedene Perspektiven in die Diskussion bringt. Und da fällt es auf, dass bei nVidia und AMD mit zwei verschiedenen Maßstäben argumentiert wird.
Naja und es sind noch zwei Wochen bis zu Reviews. Da wiederholt sich eben alles. :D
Kriton
2018-09-01, 11:13:05
Faszinierend wie die Leute immer noch vergessen dass es immer Mehrleistung zum Preispunkt der alten Karten gab. Was würden die Karten noch Mal kosten, wenn man seit der voodoo1 den Preispunkt immer prozentual zum Leistungsanstieg angepasst hätte? Der erste richtige ripoff war die 980 und seit dem geht es fröhlich weiter.
So ist es.
Ha. RTX2080TI liefert annährend doppelt Leistung zur Vega64 bei fast 20% weniger Verbrauch. Aber darf natürlich nicht viel mehr Kosten.
Wenn man überlegt, dass Vega ein Jahr nach Pascal nicht mal die fünf schnellste Variante schlagen konnte, ist doch der Preis von Vega mehr eine Verarsche gewesen.
Aber so ist es eben: Alles was AMD macht, wird von den selben Leuten nie kritisiert. Nervt langsam. Wenn man Turing nicht kaufen will, okay. Aber dieses kritsieren von Mehrleistung und Innovation, die vom Konkurrenten seit Jahren nicht mehr geboten wird, ist absolut lächerlich. Würde es nach den Leuten gehen, dürften wir keinen Fortschritt mehr haben und Jahre warten, bis es wirkliche Mehrleistung gibt.
Dein whataboutism nervt. Aber was rede ich, das Geld muss ja irgendwie reinkommen, nicht wahr?
Ansonsten ist ja immer die Argumentation, dass Nvidia sich nicht an AMD orientiert, weil sie soweit weg sind, aber beim Preis, da wird die andere Seite plötzlich als relevant eingestuft...:rolleyes: Wie es gerade in die eigene Argumentation passt.
Aber manchmal ist es auch notwendig, wenn man verschiedene Perspektiven in die Diskussion bringt. Und da fällt es auf, dass bei nVidia und AMD mit zwei verschiedenen Maßstäben argumentiert wird.
Ich vermute, dass die Ironie dieser Aussage an Dir auch jetzt noch vorbeigehen wird.
Schnoesel
2018-09-01, 11:14:54
Ich habe nach langen Jahren (seit der 8800GT) wieder eine Nvidia eben weil mir die Vega für das Gebotene zu teuer war (kommend von meinem Fehlkauf FuryX) und Nvidia setzt hier sogar noch einmal einen drauf. Sorry aber die Preise sind nicht nur relativ gesehen zu teuer sondern sogar absolut. Absolut absurd hier von 2 verschiedenen Maßstäben zu sprechen. Es gibt einen Grund warum sich Vega bei den Gamern schlecht verkauft hat und mich würde es nicht wundern wenn es diesmal Turing trifft.
dildo4u
2018-09-01, 11:21:18
Die Preise passen zum Markt die begehrten Custom 1080 Ti liegen bei 750€.
Für 850 bekommt man 2080 die vermutlich 10% schneller ist.
https://geizhals.de/msi-geforce-gtx-1080-ti-gaming-x-11g-v360-001r-a1599330.html?v=l&hloc=at&hloc=de
Ich rechne mit mindestens 10% ansonsten kannste 4k/60fps bei viele Game vergessen.Die Ti dümpelt oft bei 50fps rum.
Schnoesel
2018-09-01, 11:26:16
https://www.alternate.de/GIGABYTE/GeForce-GTX-1080-Ti-Gaming-OC-Grafikkarte/html/product/1344800?campaign=Grafikkarte/GIGABYTE/1344800
Gigabyte GeForce GTX 1080 Ti Gaming OC für 599€.
Ich würde diese vorziehen. Selbst wenn es 10%+ wären ,was ich nicht glaube, macht das bei 50FPS keinen nennenswerten Unterschied. Mit der Ti hast noch 3GB VRAM mehr und ist 150€ günstiger.
dargo
2018-09-01, 11:28:06
Ja angesichts der Leistungsfähigkeit müsstenndie Vegas wesentlich günstiger sein und jetzt :eek:
Wieso müssten sie das? Weil Troyan sich die Welt gerade malt wie es ihm gefällt?
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440
Wenn ich mir die Preise von Pascal so anschaue... warum sollte nochmal Vega wesentlich günstiger sein?
Nuvirus
2018-09-01, 12:07:35
Hmm ist wirklich die Frage was am besten machen hab nen WQHD Monitor mit 165Hz und nen 8700k@5G mit ner 980Ti.
1080Ti wäre halt wegen dem Speicher interessant da ich eigl nicht mehr unbedingt so viel Geld für ne 8GB Karte ausgeben will - im idealfall will ich solange mir die Leistung reicht die neue Karte möglichst lang behalten.
Was schätzt ihr denn wie lang wird die Turing Generation ca. die schnellste Nvidia Serie bleiben bzw. dann durch 7nm Generation ersetzt im Bereich ab ca. 500€?
1,5 Jahre oder länger würde ich ungern noch mit meiner 980Ti zocken.
dargo
2018-09-01, 12:13:05
https://www.alternate.de/GIGABYTE/GeForce-GTX-1080-Ti-Gaming-OC-Grafikkarte/html/product/1344800?campaign=Grafikkarte/GIGABYTE/1344800
Gigabyte GeForce GTX 1080 Ti Gaming OC für 599€.
Schon mal die Bewertungen gelesen? Offenbar ist der Kühler mit der Abwärme völlig überfordert. 82°C und 2700 RPM an den Lüftern? WTF?
Nuvirus
2018-09-01, 12:16:00
So ne Karte wäre nur mit Wakü interessant, wäre interessant ob da was verfügbar ist.
AffenJack
2018-09-01, 12:16:04
Was schätzt ihr denn wie lang wird die Turing Generation ca. die schnellste Nvidia Serie bleiben bzw. dann durch 7nm Generation ersetzt im Bereich ab ca. 500€?
1,5 Jahre oder länger würde ich ungern noch mit meiner 980Ti zocken.
Kann man nur schätzen, aber mein Tipp ist fürs Weihnachtsgeschäft 2019 werden wir 7nm sehen, mit Karten die leicht schneller als ne 2080Ti werden. Spätestens November sollte man launchen um Black Friday usw mitzunehmen.
Troyan
2018-09-01, 12:18:00
Das letzte Mal, dass nVidia schnell gewechselt ist, war 2008 von GT200 auf GT200b innerhalb von 6 Monaten.
Imo sind es 18 Monate bis zu den 7nm Produkten.
uweskw
2018-09-01, 12:19:26
Jap. Preis und Leistung sind so gut wie bekannt. Nun kann jeder entscheiden, ob es sich lohnt.
Aber manchmal ist es auch notwendig, wenn man verschiedene Perspektiven in die Diskussion bringt. Und da fällt es auf, dass bei nVidia und AMD mit zwei verschiedenen Maßstäben argumentiert wird.
Naja und es sind noch zwei Wochen bis zu Reviews. Da wiederholt sich eben alles. :D
Dein whataboutism nervt. Wir sind im NV-Thread, also lass die "Sünden" von AMD hier raus.
Komisch, kaum wagt mal jemand Kritik an NVs Preisgestaltung, kommen die altbekannten NV-Jünger Troyan, dildo, dural.....und erklären uns Seitenlang dass es doch gut ist wie NV die Preise gestaltet und ihre Vormachtstellung ausnutzt.
Klar ist es verständlich das NV abzockt wo nur möglich. Die wollen halt Gewinnoptimierung. Logisch. Aber warum muß man das auch noch bejubeln? Wo kommt nur diese Motivation her?
greetz
US
Troyan
2018-09-01, 12:26:28
"NV abzockt" - sagt alles.
AffenJack
2018-09-01, 12:26:29
Das letzte Mal, dass nVidia schnell gewechselt ist, war 2008 von GT200 auf GT200b innerhalb von 6 Monaten.
Imo sind es 18 Monate bis zu den 7nm Produkten.
980TI zur 1080 waren nichtmal 12 Monate. So früh wie die 2080Ti launcht sind 14 Monate zur 3080 da durchaus zu erwarten, soweit wie 7nm jetzt schon ist.
uweskw
2018-09-01, 12:31:37
"NV abzockt" - sagt alles.
ist:"rausholt was möglich ist" besser?
Troyan
2018-09-01, 12:33:47
Wie wäre es mit:
In Anbetracht der Marktsituation kann sich nVidia erlauben, marktgerechte Preise zu verlangen.
980TI zur 1080 waren nichtmal 12 Monate. So früh wie die 2080Ti launcht sind 14 Monate zur 3080 da durchaus zu erwarten, soweit wie 7nm jetzt schon ist.
Von GM204 zu Pascal waren es 20 Monate. Titan X schon im März 2015 veröffentlicht.
Ich sehe kein 7nm in 12 Monaten von nVidia.
Nuvirus
2018-09-01, 12:35:01
Wann soll ca. AMDs Navi kommen?
Könnte mir vorstellen das Nvidia ca. zu der Zeit dann die 3080 und 3070 mit 7nm launcht zu höheren Preisen natürlich aber mit hoffentlich besseren Energieverbrauch etc und vll endlich mal 16 oder zumindest 12GB
Daredevil
2018-09-01, 12:38:27
Dagegen ist Nvidia wirklich "flink" und feature-reich, allerdings gibts keinen Grund, sich die Preise schönzureden. ;)
Ich rede es mir nur teilweise schön.
Es gibt aktuell zwei Motivationen, für mich zu bewerten.
1. Der emotionale Daredevil, welcher spielt und gerne basteln will, auf Preis/Leistung achtet und deswegen aktuell zwei Vega 56 für 600€ im Rechner stecken hat. ( Ich mag AMD und finde Vega spannend )
2. Der "Business" Daredevil, welcher Anfang des Jahres für knapp 3800€ ein Mining Rig mit 5 1080ti gebaut hat und die vor kurzem abstieß aufgrund der neuen Generation. Hier zählt ganz allein Leistungsfähigkeit und Stromverbrauch, da ist kein Platz für Emotionen und Liebhaberei.
---
Für den 1. Daredevil ist eine Gaming Karte über 500€ noch nie eine Option gewesen, da ich noch nie soviel Leistung brauchte. ( Auch wenn ich Spaßeshalber in Kontakt mit den 1080ti gekommen bin im Gaming Rechner ).
Für den 2. Daredevil ist eine Karte, die doppelt soviel Leistet und doppelt soviel kostet bei halbem Verbrauch eine deutliche Steigerung in der Effizienz und deswegen ( für mich ) sehr interessant, weil es pro Jahr ca. 800€ weniger Stromkosten bedeuten würde im Gegensatz zur 1080ti Bestückung.
Es kommt selbstverständlich immer darauf an, ob man die Karte geil findet und emotional wird, oder eben sehr flach einfach ein Bedarf an Leistung und Effizienz hat. Deswegen brauche ich mir da auch nichts schönreden, die Zahlen stehen ja schwarz auf weiß. :)
Und genau deswegen sind die Karten vermutlich auch so hoch angesetzt.
Die goldene Regel ist "Preissenkungen sind immer möglich, Preiserhöhungen aber nie" im Bezug auf den Kunden und Nvidia bedient sich dieser Regel.
Bevor also ( schon wieder ) Nvidia Ti Karten für 800€ verkauft und die Global durch den Mining Markt geschluckt werden, kassiert Nvidia von Minern Geld, die sich aber über die Leistung freuen und wo das ein sehr guter Deal ist, ganz objekiv betrachtet.
Wie war das nochmal? Ein guter Deal ist, wenn beide Parteien denken, die würden den anderen übers Ohr hauen.
Miner boosten ihren Income deutlich mit den 1200€ Werkzeugen und Nvidia bereitet sich aufs neue Rekordquartal vor.
Und manche Gamer spielen Battlefield 5 in 60fps und andere nörgeln noch in einem Jahr weiter rum. :D
Dass 1080TI Leistung für 500€ mit 16GB Ram realistisch war, konnte halt auch nur jemand denken, der nicht über Tellerrand blicken wollte.
VooDoo7mx
2018-09-01, 12:43:23
Wenn der Preis zu teuer ist dann kauft doch einfach nicht.
Ganz einfach.
Irgendwann werden die Teile sicher auch billiger.
Aktuell sind die RTX Produkte eben nichts für Leute mit einen schmalen Geldbeutel.
Die Leute hier tun so als ob es von nVidia nichts anderes als die RTX2070 für 600€ aufwärts gibt. Also wenn man eine nvIdia Karte kaufen will muss man mindestens 600€ investieren. Die anderen Produkte existieren quasi nicht. Dabei gibt es eine GT1030 gibt es schon ab ~80€
Dieses lächerliche Kleinkind-Rumgeflenne wääh wääh ist doch komplett verlogen. Diese Leute möchten das Produkt haben, sind aber nicht bereit den Preis dafür zu bezahlen.
Seit wann sucht man sich den Preis für ein Produkt denn selber aus und beschwert sich dann wenn man dies nicht bekommt.
In was für einer kaputten Bizarro Welt lebt ihr eigentlich?
Irgendwie kommt es mir hier vor das die meisten hier noch Taschengeld bekommen, bei Mutti wohnen und noch nicht so wirklich verstanden haben wie die Welt so funktioniert.
Jeder hat eine Meinung zu den Preis eines Produktes haben und darin seine Kaufentscheidung fest aber man muss dies nicht zum 752. Mal breitreten. Es nervt einfach nur. Meiner Meinung nach sollten solche Leute einfach mal eine Sperre bekommen.
Wann soll ca. AMDs Navi kommen?
Könnte mir vorstellen das Nvidia ca. zu der Zeit dann die 3080 und 3070 mit 7nm launcht zu höheren Preisen natürlich aber mit hoffentlich besseren Energieverbrauch etc und vll endlich mal 16 oder zumindest 12GB
7nm High Power in High Volume Produkten wird nicht einmal im Ansatz so schnell kommen wie die meisten sich das hier vorstellen.
Fragman
2018-09-01, 12:45:21
Wann soll ca. AMDs Navi kommen?
Könnte mir vorstellen das Nvidia ca. zu der Zeit dann die 3080 und 3070 mit 7nm launcht zu höheren Preisen natürlich aber mit hoffentlich besseren Energieverbrauch etc und vll endlich mal 16 oder zumindest 12GB
nv wird eine Titan nachschieben in ein paar Monaten und navi wird, wenn alles gut laeuft, auf dem Niveau einer 2080 rauskommen, vielleicht auch nur auf dem 1080TI Niveau. also kein grund, das nv aus dieser sicht irgendwas machen muss.
da sich navi aber nun deutlich verschiebt, kann es sein, das man sich mit nv's 7nm Produkten rumschlagen muss. ka wie das ausgeht, da ja ueber nv's 7nm kaum was bekannt ist. sollten sie es aber schaffen, wieder 50 procent beim rasterizer und rt vielleicht 100 Prozent drauf zu packen, wird's schwer werden fuer navi. ausser amd schafft nochmal einen wurf ala 9700.
Schnoesel
2018-09-01, 13:05:34
Dieses lächerliche Kleinkind-Rumgeflenne wääh wääh ist doch komplett verlogen. Diese Leute möchten das Produkt haben, sind aber nicht bereit den Preis dafür zu bezahlen.
[...]
Irgendwie kommt es mir hier vor das die meisten hier noch Taschengeld bekommen, bei Mutti wohnen und noch nicht so wirklich verstanden haben wie die Welt so funktioniert.
Und mir geht diese Geflenne auf den Sack, dass man ja nicht den Preis kritisieren darf am Besten noch garniert mit Neid, AMD arme Schlucker Fraktion die ja alle noch zu Hause bei Mutti wohnen und den anderen Bullshit. Wenn dir die Diskussion um den Preis nicht passt dann lass es eben, musst hier nicht posten und nix lesen pack die Leute auf ignore kauf dir deine Nvidia und gut.
Viele hier könnten sich locker mehrere dieser Karten kaufen wollen dies aber nicht weil Turing für sie keine Mehrwert bietet der den Preis rechtfertigt. Was gibt es daran nicht zu verstehen?
Slipknot79
2018-09-01, 13:12:26
Weiß ned wo das Problem ist, sich mit Nvidia Aktien zu beschäftigen und dort zuzulangen, wenn man keine derzeit Graka haben will.
Geld vermehren (Aktien) oder Geld vernichten (Konsument), man hat die Wahl. Aber in jedem Fall fördern die finanziell dummen Konsumenten die finanziell schlauen Geldvermehrer.
Wer dermassen so viel Zeit hat sich mit Grakas und deren Preisen auseinander zu setzten (Wo bekomme ich günstige Grakas), der hat sicher auch die Zeit sich mit Geldvermehrung zu beschäftigen (Wo bekomme ich günstige Aktien). :cool: :redface:
Erbsenkönig
2018-09-01, 13:31:46
Schon mal die Bewertungen gelesen? Offenbar ist der Kühler mit der Abwärme völlig überfordert. 82°C und 2700 RPM an den Lüftern? WTF?
horn würde das schon hinnehmen.:D
Leonidas
2018-09-01, 13:32:17
Faszinierend wie die Leute immer noch vergessen dass es immer Mehrleistung zum Preispunkt der alten Karten gab. Was würden die Karten noch Mal kosten, wenn man seit der voodoo1 den Preispunkt immer prozentual zum Leistungsanstieg angepasst hätte?.
Hatte ich kürzlich ausgerechnet: RTX2080Ti vs. Voodoo Graphics:
- (ganz) grob um die zehntausend Prozent an Mehrperformance
- Kostenlage bei lineare Preis-Skalierung: weit im fünfstelligen Euro-Bereich
Könnte das mal jemand durchrechnen? Sind wir schon bei 'ner Million? :biggrin:
Es gab mal einen tollen PCGH-Artikel mit echt alten Gfx. Den finde ich leider nicht mehr, der fehlte mir bei meiner Schätzung. Hast Du den irgendwo gebunkert?
PS:
Ganz allgemein: Wie wäre es mit einem extra Thread zum Aufbewahren von Links zu alten, Generations-übergreifenden Performance-Vergleichen? Damit man mal einen halbwegs sicheren Grob-Index über alle Zeiten aufbauen kann?
VooDoo7mx
2018-09-01, 13:53:00
Und mir geht diese Geflenne auf den Sack, dass man ja nicht den Preis kritisieren darf am Besten noch garniert mit Neid, AMD arme Schlucker Fraktion die ja alle noch zu Hause bei Mutti wohnen und den anderen Bullshit. Wenn dir die Diskussion um den Preis nicht passt dann lass es eben, musst hier nicht posten und nix lesen pack die Leute auf ignore kauf dir deine Nvidia und gut.
Viele hier könnten sich locker mehrere dieser Karten kaufen wollen dies aber nicht weil Turing für sie keine Mehrwert bietet der den Preis rechtfertigt. Was gibt es daran nicht zu verstehen?
Ich hab doch in meinen Post klar gemacht, man dass jeder den das Teil zu teuer ist es einfach nicht kaufen soll und ich jede Entscheidung da komplett respektiere.
Nur wenn man zum 20. Mal von der selben Person ein ist mir zu teuer rumgeflenne lesen muss nervt es einfach. Besonders wenn 85 andere Personen vorher auch schon jeweils 20mal ein ist mir zu teuer rumgeflenne abgegeben haben.
Des weiteren ist es auch sogar komplett Off Topic und verstößt gegen die Foren Regeln. Dies ist ein Spekulations Thread wo es darum geht eben zu spekulieren und Fakten zusammenzutragen bis das Produkt komplett releast ist. Über den Preis gibt es aber nichts mehr zu spekulieren, somit ist jeder Beitrag hier dazu Off Topic.
Im Endeffekt interessiert sich hier auch kein Schwanz ob nun Person X die man nicht kennt so ein Teil kauft.
Auch wenn man zum 500. mal ließt wie teuer das Ding ist und wie böse doch nVidia ist wird keiner der sich so ein Teil kaufen will auf einmal seine Meinung ändern.
Es gibt übrigens sogar noch einen anderen Thread, ob man sich eine RTX holt. Da kann man auch seine Meinung zu kund geben und auch abstimmen. Geht doch dahin.
reaperrr
2018-09-01, 14:15:01
nv wird eine Titan nachschieben in ein paar Monaten und navi wird, wenn alles gut laeuft, auf dem Niveau einer 2080 rauskommen, vielleicht auch nur auf dem 1080TI Niveau. also kein grund, das nv aus dieser sicht irgendwas machen muss.
Navi10 wird nach bisherigem Gerüchte-Stand bestenfalls irgendwo im Bereich zwischen V64/1080 und 2070 landen, wo hast du her, dass Navi in 1080Ti/2080-Regionen landen könnte?
da sich navi aber nun deutlich verschiebt
Hast du irgendeine Quelle dazu? Bisher haben alle Gerüchte darauf hingedeutet, dass Navi10 genau wie V20 von Anfang an ein TSMC-Chip gewesen ist, und bisher habe ich nirgends von einer Verschiebung von Navi gelesen.
N0Thing
2018-09-01, 14:17:16
PS:
Ganz allgemein: Wie wäre es mit einem extra Thread zum Aufbewahren von Links zu alten, Generations-übergreifenden Performance-Vergleichen? Damit man mal einen halbwegs sicheren Grob-Index über alle Zeiten aufbauen kann?
Wo findet man eigentlich den 3Dcenter Leistungsindex? Der wäre doch auch eine prima Anlaufstelle, wenn man mal deutlich ältere Karten mit der aktuellen Generation vergleichen möchte.
Fliwatut
2018-09-01, 14:31:09
Wo findet man eigentlich den 3Dcenter Leistungsindex?
Hier!
Für FullHD: https://www.3dcenter.org/news/schneller-fullhd-performance-ueberblick-der-281614nm-grafikkarten
Für UHD: https://www.3dcenter.org/news/schneller-ultrahd-performance-ueberblick-der-281614nm-grafikkarten
Leonidas
2018-09-01, 14:41:50
Ich hab es intern bis runter zu GeForce 8800 GT und Radeon HD 2900 ... aber tiefer macht keinen Sinn, da werden die Prozentwerte zu klein. Was ich bräuchte, wären explizit Ergebnisse, die an diesesen ersten DX10-Karten anschließen - und dann viel tiefer/älter heruntergehen.
Hatte ich kürzlich ausgerechnet: RTX2080Ti vs. Voodoo Graphics:
- (ganz) grob um die zehntausend Prozent an Mehrperformance
Das wäre Faktor 100 bei der Performance... Ist klingt schon oberflächlich sehr falsch.
fränkiemerton
2018-09-01, 15:39:09
Wenn der Preis zu teuer ist dann kauft doch einfach nicht.
Ganz einfach.
Dabei gibt es eine GT1030 gibt es schon ab ~80€
Nun ich erwarte auch einen gewissen Mehrwert für das eingesetzte Geld. Und ich erwarte einen gewissen Fortschritt, was bedeutet, dass sich der Kosten/Leistungsquotient eben nicht konstant über die Jahre verhält, sondern für jede Generation geringere Kosten höherer Leistung gegenüberstehen.
Ich glaube, dass es (noch) angemessen ist etwa 30 - 50 % anzusetzen für die gleiche Leistungsstufe zweier unterschiedlicher nachgolgender Generationen (je nach Schwankungen innerhalb des Technologiefortschritts).
Das heisst, dass ich etwa 40% +/- 10 % Leistungszuwachs einer 500€ Karte der 10XXer Generation zur 20xxer Generation erwarte.
In meinem speziellen Fall:
Ich habe mir 2014 eine GTX 770 (EVGA Custom) für knapp 300€ gekauft.
Mittlerweile erschien die 900er Serie, dann die 10XXer Serie und nun die 20XXer Serie.
Ich erwarte nun, dass ich zum Preis von 300€ eine Custom Karte mit der etwa dreifachen Leistung (1,00 *1,4 * 1,4*1,4= 2,7) einer 770 bekomme. Oder eine 600€ Karte mit fünffacher Leistung. (und die Leistung ausgedrückt in Frames - und nicht etwa in theoretischen Werten wie TFlops).
Da es noch keine vertrauenswürdigen und aussagekräftigen Testergebnisse gibt - warte ich nun einfach mal ab wie es mit der Leistung aussieht.
Wendet man das Berechnungsschema mal auf die 10xxer Generation an, dann wäre für mich eine GTX 1070 Karte für etwa 300 - 350€ noch akzeptabel (hat etwa 2fache Leistung zur GTX 770). Und in diesem Preisbereich bewegen die sich zur Zeit.
Je nach dem ob man aber nun statt: Leistung / €, Leistung / Jahre oder Leistung / Generationsklasse wählt kann man auch zu anderen Schlüssen kommen. Viele haben ja das Gefühl, dass die gute Forschung von NVidia nicht überproportional an die Kunden weitergegeben wird, sondern versucht wird neue Oberklassen zu schaffen um den gestiegenen Leistungswert innerhalb der bekannten Grenzen zu behalten (Die Karte, die 1,4x so schnell wie die 1070 ist, wird 2070 genannt hat aber möglicherweise architektonisch mehr mit einer 1060/2060 gemeinsam).
Es gab mal einen tollen PCGH-Artikel mit echt alten Gfx. Den finde ich leider nicht mehr, der fehlte mir bei meiner Schätzung. Hast Du den irgendwo gebunkert?
Dieser vielleicht? Grafikkarten-Übersicht: 80 Chips im Benchmark-Vergleich - Legenden von AMD/Ati und Nvidia im Direktvergleich (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Von-Geforce-256-bis-Radeon-HD-6970-850731/) :)
Geforce 256 bis Radeon HD 6970. Ich habe mal etwas daran geflext, damit das Layout auf der zwischenzeitlich veränderten Website wieder halbwegs passt.
MfG,
Raff
Razor
2018-09-01, 16:09:20
Das wäre Faktor 100 bei der Performance... Ist klingt schon oberflächlich sehr falsch.
Ist ja auch vollkommener Nonsense...
Warum sollte über die Jahre der Wert mit der Leistung skalieren?
Ist doch eigentlich sehr einfach... nVidia sitzt auf einem Haufen GPU's der Pascal Generation.
Ergo: neue Generation so teuer, dass die alte noch abgesetzt wird.
Im Falle von 2070 vs 1080ti (650€ für die FE vs. 600€) bekommt man Leistung oder Features.
Selbst eine 2080 schlägt die 1080ti, kostet aber auch (850€ vs. 600€) und man bekommt Leistung und Features.
So einfach kann die Welt sein, oder?
Razor
Screemer
2018-09-01, 16:48:54
Dann hättest dich ja schon bei der 7970 von AMD verarscht fühlen müssen, wo AMD als erster einen Minichip zum Premiumpreis verkauft hat. Damals hats aber keinen interessiert, weil es keinen Chip drüber gab. Genauso bekommst du jetzt mit der 2080 einen Big-chip zum Premiumpreis, sollte nach deinem Argument ja auch toll sein?
Es wird dich überraschen aber ja mir waren fast 500€ für Tahiti auch zu viel. Genau aus diesem Grund hab ich noch Recht lange meine 6950 genutzt.
Wer sich fragt wie die Turing auf seine hohe Leistung kommt. Mal wieder per Fake wie schon Pascal bei den Texturen sind es diesmal die Shader:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47268-variable-rate-shading-nvidias-turing-architektur-lernt-weitere-tricks.html
Und harwareluxx bewirbt das als positive Propaganda!
Das ist übrigens genau das an dem pixeljetstream mitgearbeietet hat. Leider kann er wohl noch nicht mehr dazu sagen.
FP16 ("Rapid Packed Math" à la AMD) muss explizit vom Entwickler implementiert werden. Warum sollte dann sowas, anscheinend wesentlich komplizierter, zur Laufzeit gehen? Sehe ich nicht, aber ich bin auch ein Laie. ;)
MfG,
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.