AnkH Geschrieben 26. September 2018 Autor Teilen Geschrieben 26. September 2018 Nochmals ein kleines Update für alle, die mit einem G-Sync Monitor unterwegs sind: ich habe da mal einen Thread im offiziellen P3D Forum ausgegraben, in welchem empfohlen wurde, in den nVidia Systemsteuerungen die Option "G-Sync für Vollbild und windowed Mode" auszuschalten und nur Vollbild zu nutzen. Idee: P3D ist ja nicht Vollbild, sondern ein rahmenloses Fenster. Und siehe da, obwohl ich G-Sync via NVI für P3D deaktiviert hatte, läuft der Sim nochmals einen Zacken flüssiger. Da ich aktuell kein Game mit Fenstermodus plus G-Sync nutze, macht es mir auch nichts aus, diese Option permanent deaktiviert zu lassen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
RescueBär Geschrieben 31. Oktober 2018 Teilen Geschrieben 31. Oktober 2018 Also ich glaube, ich habe mich bzgl. des Investitionszeitpunkts total verzockt. Die Preissituation bei den CPU und Graka ist nur mit zwei Worten zu beschreiben: Einfach ABARTIG! Nicht nur dass mittlerweile der 1080ti-Markt leergefegt ist, man ruft mittlerweile ähnlich hohe Preise wie für die neue 2080ti auf - in einschlägigen Shops handelt man den Vorgänger für sagenhafte 1.200 Euro! Da kann ich ja gleich nochmal 200 Euro mehr in die Hand nehmen und die neueste Graka-Generation kaufen. Obwohl ich gar nicht so überzeugt bin, ob die 2080ti eine Verbesserung für den Flightsim bietet. Ein Hoch auf die freie Marktwirtschaft! Auch bei den CPU stehen für den neuen i9-9900K stramme 680 Euronen auf dem Preisschild, da ist die preislich wieder von 489 auf 419 Euro etwas gesunkene i7-7700K ja ein regelrechtes Schnäppchen! *Ein Hauch von Ironie weht vorbei* Das Bundle i9 + 1080ti kommt jetzt mittlerweile (inkl Zusammenbau durch Mindfactory) trotzdem auf ca 2.700 Euronen! Nicht mehr feierlich ... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
FalconJockey Geschrieben 31. Oktober 2018 Teilen Geschrieben 31. Oktober 2018 Jetzt muss man halt warten... 2 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 1. November 2018 Autor Teilen Geschrieben 1. November 2018 Jupp, war wohl nicht so verkehrt der Zeitpunkt meines Kaufs Die 2080Ti scheint sich nach diversen User-Reviews auf avsim etc. für den Sim überhaupt nicht zu lohnen. Überrascht mich eigentlich nicht, die Mehrleistung verpufft ohne noch schnelleren Prozessor und die neuen Feautures sind im P3D nicht zu gebrauchen. Ob die 2 zusätzlichen HT Kerne des 9900K gegenüber dem 8700K was reissen, wage ich gleich auch noch zu bezweifeln. Zudem läuft diese CPU mit den zusätzlichen Kernen noch stärker am Limit und gemäss ersten Tests kriegt man die CPU mit 5.0GHz auf allen Kernen nur noch mit einer Wasserkühlung kühl. Auch nicht wirklich so toll. Einzig die SSD Preise sind aktuell in einem netten Rahmen, da schlage ich sicherlich nochmals zu und hole mir eine weitere 1TB SSD in den Compi. RAM ist auch noch immer teurer als vor ein paar Jahren, immerhin nicht mehr so überrissen wie zum Jahreswechsel 17/18. Im Endeffekt ein saudummer Moment um HW zu kaufen, das ist richtig... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
RescueBär Geschrieben 1. November 2018 Teilen Geschrieben 1. November 2018 Ja Christian, anscheinend ist es beim Kauf der Hardwarekomponenten nicht mehr so wie früher, wo der Moment des Kaufs IMMER der verkehrte ist - mittlerweile kann man anscheinend doch gute und weniger gute Momente erwischen! Dass die 2080er im Vorfeld so gehyped wurden war ja eigentlich klar, und prinzipiell sind die neuen Features natürlich auch ein großer Schritt nach vorne, nur ist es halt so wie immer, dass die nötige Infrastruktur in Form von Programmen, die die Features nutzen, etwas hinterher hinkt. Auch gehe ich davon aus, dass das alles erst bei kommenden GPU-Generationen wirklich zumTragen kommt. Insofern fällt die 2080(ti) für mich weg. Ich finde es ja ehrlich gesagt paradox, dass es beim 9900K trotz (vermeintlich?) verbesserter Wärmeableitung durch den gelöteten Die es mglw. ein Temperaturproblem gibt, auch wenn logischerweise zwei physische Kerne eine etwas höhere Wärmeentwicklung bedeuten. Also sollte man doch mal die AiO-Wakü ins Auge fassen (mit möglichst großem Lüfter)? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 1. November 2018 Autor Teilen Geschrieben 1. November 2018 vor 40 Minuten schrieb RescueBär: Ich finde es ja ehrlich gesagt paradox, dass es beim 9900K trotz (vermeintlich?) verbesserter Wärmeableitung durch den gelöteten Die es mglw. ein Temperaturproblem gibt, auch wenn logischerweise zwei physische Kerne eine etwas höhere Wärmeentwicklung bedeuten. Also sollte man doch mal die AiO-Wakü ins Auge fassen (mit möglichst großem Lüfter)? Daran ist eigentlich nichts paradox. Mein 8700K läuft mit 5.0GHz auf allen 6 Kernen plus HT am absoluten Anschlag und mit dem Köpfen und Flüssigmetall zwischen Die und Heatspreader habe ich eigentlich eine bessere Lösung als das Verlöten. Beim 9900K kommt jetzt halt nochmals 2 Kerne mit HT hinzu, dazu läuft das Ding ja schon von Werk aus mit 5.0GHz beim Zweikernturbo und 4.7GHz beim Turbo auf allen Kernen. Sprich: das Ding taktet unglaublich hoch ab Werk. Die 95W TDP kannst Du dabei natürlich gleich knicken, die gelten nur bei 3.6GHz, dem vermutlich nie anliegenden Grundtakt des 9900K. Damit der 9900K mit einem All-Core-Turbo von 4.7GHz verkauft werden kann (muss diesen Takt ja stabil bieten), schiesst vermutlich die Vcore in die Höhe. Laut Tests liegt die Kernspannung ab Werk bei 1.39V, also in etwa das, was mein 8700K bei 5.0GHz benötigt. Wenn Du mit dem 9900K liebäugelst, würde ich auf jeden Fall und trotz meiner Abneigung gegenüber AiO diese wieder in Betracht ziehen. Allerdings jeweils nur die Topmodelle mit 240er oder gar 360er Radiatoren. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
RescueBär Geschrieben 1. November 2018 Teilen Geschrieben 1. November 2018 Also kann man beim 9900K das Fazit ziehen, dass es einfach zwei zusätzliche Kerne sind, die an den 8700K gelötet wurden. Ich meine, logischerweise waren keine Quantensprünge zu erwarten gewesen, aber ich hätte mir z.B. (illusorisch) gewünscht, dass der Temperaturvorteil größer ist. Ich weiß nicht, wo der Weg von Intel hin führt, aber wenn sie nicht bald ihre Lieferengpässe und natürlich den Sprung auf die 10nm-Fertigung schaffen (AMD fertigt ja glaub ich schon mit 7nm), dann werden die Argumentationsspielräume pro Intel irgendwann recht dünn werden. Ich denke, ich werde trotz alledem am 9900K festhalten in meiner Planung, gepaart mit einem Corsair H150i Pro, über die hatte ich schon Gutes gelesen - leistungsfähig, (relativ) leise. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 1. November 2018 Autor Teilen Geschrieben 1. November 2018 Eigentlich genau richtig, ja. Ist ja auch noch praktisch dieselbe Prozessorarchitektur wie beim 8700K. Leider gibt's immer noch nicht wirklich viele Rückmeldungen oder gar Reviews zu den neusten AMD Prozessoren und P3Dv4.x. Das wird sich vermutlich auch nach Release von der neuen Generation nicht gross ändern. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
RescueBär Geschrieben 1. November 2018 Teilen Geschrieben 1. November 2018 Na ja, die Anforderungen an die CPU haben sich ja auch bei v4 nicht nennenswert geändert, oder? Single-Core-Power geht nach wie vor über alles? Und da sind die AMD's doch noch eher hinten dran würde ich sagen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 1. November 2018 Autor Teilen Geschrieben 1. November 2018 Nicht ganz richtig. Die Multicore-Unterstützung beim v4 ist so gut, dass zumindest bei Intel ein 6 oder 8 Kerner schon bessere Resultate erzielt als ein 4 Kerner. Inwieweit aber ein Ryzen mit mehr Kernen die schlechtere Single-Core-Leistung kompensieren kann (oder überhaupt kompensieren kann), dazu gibt's halt keine Benchmarks oder gar User-Reviews. Einzig auf avsim war mal einer, welcher schrieb, dass sein 7700K nur 5-10% besser laufe als ein auf 3.8GHz übertakteter Ryzen 1700. Das Intel-Dogma ist dermassen verankert in der Simming-Community, da findet man einfach nichts. Eigentlich schade, denn mit AMD bestünde die Möglichkeit, auch für kleinere Budgets tolle Sim-Computer zu bauen. Im Endeffekt fehlen einfach die Daten und Zahlen. Der P3D erlaubt dermassen viele Einstellungen und läuft je nach Addons dermassen unterschiedlich auf eigentlich identischer Hardware, da kriegt man einfach nichts Schlaues zusammen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kruser Geschrieben 1. Dezember 2018 Teilen Geschrieben 1. Dezember 2018 (bearbeitet) Ich mach den Beitrag mal hier obwohl der Titel eigentlich anders lautet. Aber Thema wurde mehrfach hier angeschnitten, also: Ein Schweizer Assembler hat vor wenigen Stunden seine Messergebnisse betreffend Graka RTX2070/2080 vergleichend mit GTX 1070/1080/1080TI veröffentlicht: https://www.brentford.com/news/nvidia-rtx-benchmarks/ Besser sind diese, ohne Zweifel, aber auch sehr teuer. Frage mich, ob man mit 2x GTX1070 (beim Flusi) nicht besser fährt, nur so Schnellschuss/Gedanke von mit jetzt.. (oder 2x 1080TI) ?? Am 1.11.2018 um 08:02 schrieb AnkH: ..Ob die 2 zusätzlichen HT Kerne des 9900K gegenüber dem 8700K was reissen, wage ich gleich auch noch zu bezweifeln. Zudem läuft diese CPU mit den zusätzlichen Kernen noch stärker am Limit und gemäss ersten Tests kriegt man die CPU mit 5.0GHz auf allen Kernen nur noch mit einer Wasserkühlung kühl. Auch nicht wirklich so toll.. Da ich gelegentlich neuen PC haben will, muss, haben möchte muss .. beschäftigt mich das Thema sehr. Vorfreude ist die schönste Freude, auch hier haha.. Konnte kürzlich PC sehen, probieren mit: Intel 9900K 8Kerne / 5,2GHz (!) / Graka RTX2080 / neustem P3Dv.4 / 16GHz Mem Der lief mit monströsem Luftkühler einwandfrei und erstaunlich "kühl".. WAS mich allerdings sehr überraschte war, dass alle 8 Kerne total zu 100% ausgelastet waren und dies bei Flughöhe von rund 30T fs. Nur ganz vereinzelte, sehr extrem kurz Spiks nach unten auf 70%. Allerdings waren's 50 Frames und WQHD. Was meint Ihr so? Glaube fast im Moment no new PC sondern Ende Frühjahr, anfangs Sommer zeigt sich handfestes und zum anbeissen.. Gruss jens Bearbeitet 1. Dezember 2018 von kruser Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 3. Dezember 2018 Autor Teilen Geschrieben 3. Dezember 2018 Am 01.12.2018 um 17:58 schrieb kruser: Ich mach den Beitrag mal hier obwohl der Titel eigentlich anders lautet. Aber Thema wurde mehrfach hier angeschnitten, also: Ein Schweizer Assembler hat vor wenigen Stunden seine Messergebnisse betreffend Graka RTX2070/2080 vergleichend mit GTX 1070/1080/1080TI veröffentlicht: https://www.brentford.com/news/nvidia-rtx-benchmarks/ Besser sind diese, ohne Zweifel, aber auch sehr teuer. Frage mich, ob man mit 2x GTX1070 (beim Flusi) nicht besser fährt, nur so Schnellschuss/Gedanke von mit jetzt.. (oder 2x 1080TI) ?? Das Problem ist einfach auch hier, wie so oft, dass auf Benchmarks abgestützt wird und diese mitunter null Relevanz für die effektive Performance im Simulator haben (FSX und P3D). Ich denke, mit einer 1080, 1080Ti würdest Du genauso gut fahren, nur gibt's die nicht mehr oder nur noch zu Mondpreisen. Ergo bleibt fast nur noch eine Karte der RTX Reihe... SLI kann ich immer noch nicht wirklich empfehlen, obwohl anscheinend der SLI Support mittlerweile sehr gut ist bspw. im P3Dv4.x. SLI mit Mittelklasse-Karten macht aber meiner Meinung nach wenig Sinn, SLI würde ich den Enthusiasten vorbehalten, welche bereit sind, 2 x 2080Ti zu nutzen, da bringt es dann wirklich was. Zum anderen Punkt: entweder wurde der 9900K mit 5.2GHz wirklich sau gut gekühlt, oder die 5.2GHz lagen nicht an allen Kernen an. Jedenfalls nichts, was man ohne Weiteres als 08/15 Heimanwender hinkriegt. Für einen neuen Computer ist wie immer das Budget von Interesse, das definiert die Optionen dann relativ einfach. Warten kann man immer, logisch dass nächsten Sommer bessere HW zur Verfügung stehen wird. Aber dann könnte man ja entscheiden, auf nächsten Winter zu warten. Und so weiter. Iwann "muss" man mal zuschlagen, ansonsten hat man in 10 Jahren keinen PC. 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kruser Geschrieben 3. Dezember 2018 Teilen Geschrieben 3. Dezember 2018 Doch doch hab ich ja, deren 2: - Ganz kleinen für Schreiben, lesen, Videos, uTube, chats etc. - mittelgrossen, 2xSSD, 16GHz, Mem, 6Kern aber nur 3.2GHz schnell, FS9 / FSX, Bildbearbeitung und andere Games.. auch schon älter paar Jahre, aber noch immer iO. - der Neue, starke wäre reserviert only für PX11 resp. P3D.v4xxx Und da mit 9900K noch nicht alles klar, ebenso Graka 2070/80 wart ich lieber noch wenige Monate zusätzlich.. Waren nur so meine Gedankengänge als reiner Usernobody hier.. LG jens Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 4. Dezember 2018 Autor Teilen Geschrieben 4. Dezember 2018 Das meinte ich nicht Es geht eher um die Frage, ob "ein paar wenige Monate" warten bei HW "sinnvoll" ist, oder nicht. Meist eben nicht, da sowieso in ein paar Monaten was Neues auf den Markt kommt. Und dann? Wieder ein paar Monate warten und schon wieder kommt was Neues auf den Markt. Und so weiter. Du wirst auch in ein paar Monaten nicht besser entscheiden können... 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.