iwl Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 (bearbeitet) Viel Glück. Gute Schnittsoftware lastet heute übrigens viel weniger die CPU aus als die Graphikkarte.Woher weißt Du das?Grafikkarten haben heutzutage sicher eine Engine für Videodecoding, ob auch für Encoding, was immer rechenintensiver ist, ist die Frage, denn das macht die Masse nicht und bleibt damit unter Umständen eine reine SoftwareSache. Die 3D Rendereinheiten, die das meiste einer Grafikkarte ausmachen haben mit Videoencoding glaube ich gar nichts zu tun. Bearbeitet 20. November 2014 von iwl Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
DaMane Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 Woher weißt Du das? Grafikkarten haben heutzutage sicher eine Engine für Videodecoding, ob auch für Encoding, was immer rechenintensiver ist, ist die Frage, denn das macht die Masse nicht und bleibt damit unter Umständen eine reine SoftwareSache. Die 3D Rendereinheiten, die das meiste einer Grafikkarte ausmachen haben mit Videoencoding glaube ich gar nichts zu tun. Ohne Patricks Antwort vorgreifen zu wollen - ist es doch ein sicheres Indiz, wenn die Bearbeitungssoftware auf die Unterstützung von beispielsweise CUDA (http://de.wikipedia.org/wiki/CUDA , http://www.nvidia.de/object/cuda-parallel-computing-de.html ) oder CUVID hinweist? Manfred Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 (bearbeitet) Woher weißt Du das? Grafikkarten haben heutzutage sicher eine Engine für Videodecoding, ob auch für Encoding, was immer rechenintensiver ist, ist die Frage, denn das macht die Masse nicht und bleibt damit unter Umständen eine reine SoftwareSache. Die 3D Rendereinheiten, die das meiste einer Grafikkarte ausmachen haben mit Videoencoding glaube ich gar nichts zu tun. Woher ich das weiss? Naja, weil es eben Stand der Technik ist. Gilt natürlich nicht für Schrottsoftware oder uralte Software. Wie weit Windows da ist weiss ich nicht, aber auf dem Mac gibt es Programmierschnittstellen im OS, die die Aufträge automatisch zwischen CPU und GPU verteilt. Gerade auf dem Mac ist die Graphikperformance auch wenn du nicht spielst fast wichtiger als die CPU Performance (darum entscheidet meist auch die eingebaute GPU darüber, ob ein Mac Modell noch für die neuste OS Version taugt oder nicht). Dort ist die Steigerung über die letzten paar Jahre auch höher als bei den CPUs. Würde mich daher wundern, wenn Waltis Neuer nicht auch deswegen so viel schneller wäre. @Manfred: Natürlich ist das ein sicheres Indiz ;) Bearbeitet 20. November 2014 von sirdir Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Walter Fischer Geschrieben 20. November 2014 Autor Teilen Geschrieben 20. November 2014 Da teile ich Patrick's Meinung. Nachdem ich weiss, dass meine Videoschnittsoftware nur 4 GB RAM absaugen kann, nun also mit den neu vorhandenen 8 GB nicht viel anzufangen weiss, ist wohl die neue Grafikkarte mit CUDA Technik für den eklatanten Performance Gewinn verantwortlich. Gruss Walti 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 Da teile ich Patrick's Meinung. Nachdem ich weiss, dass meine Videoschnittsoftware nur 4 GB RAM absaugen kann, nun also mit den neu vorhandenen 8 GB nicht viel anzufangen weiss, ist wohl die neue Grafikkarte mit CUDA Technik für den eklatanten Performance Gewinn verantwortlich. Gruss Walti Und da gibt's keine 64 bittige Version? CUDA ist ja 'relativ' neu, das finde ich erstaunlich. Gerade in dem Bereich gibt es die letzten Jahre grosse Fortschritte, da lohnt es sich schon auf neuste Versionen zu gehen. Aber ich weiss auch nicht welche Software du verwendest, keine Ahnung. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
DaMane Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 Und da gibt's keine 64 bittige Version? CUDA ist ja 'relativ' neu, das finde ich erstaunlich. Gerade in dem Bereich gibt es die letzten Jahre grosse Fortschritte, da lohnt es sich schon auf neuste Versionen zu gehen. Aber ich weiss auch nicht welche Software du verwendest, keine Ahnung. Ich glaube, Walti müßte wahrscheinlich nur seine Schnittsoftware updaten bzw. aktualisieren. Gruß Manfred Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Walter Fischer Geschrieben 20. November 2014 Autor Teilen Geschrieben 20. November 2014 Hallo Ihr Beiden. Also ich verwende Magix ProX 5. Habe jeweils alle Updates gemacht, aber da seit ein paar Monaten das Nachfolgeprogramm Prox 6 verkauft wird, ist keine Aktualisierung mehr erhältlich. Habe deshalb mal die neue Version (X6) als Demo geladen und habe einen kleinen Zugewinn an Tempo beim Rendern erreicht, aber nur etwa 10 Prozent, so dass sich ein Kauf nicht rechnet. Und die paar anderen Zusatzmöglichkeiten brauche ich nicht. So denke ich, dass die zusätzlichen 4 GB RAM nicht viel bringen, ergo also doch die höherwertige GRAKA den Sprung nach vorne zu verantworten hat. Deshalb bin ich mehr als zufrieden und kann nun frohen Mutes an die Nachbearbeitung unseres kleinen Kurzfilmes gehen ;-) Gruss Walti Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 Hach naja, mehr als 4 GB bringen dir schon was. Erstens kannst du Filecaches etc. trotzdem nützen und zweitens hättest du in einem System mit 4 GB natürlich nie soviel zur Verfügung... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
iwl Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 (bearbeitet) Ich glaube nicht, daß die Videoschnittsoftware davon viel schneller wird, daß sie etwa 6 statt 3,5 GB RAM direkt verwenden kann. Prinzipiell kann auch 32 Bit Software mehr als 4GB verwenden, gerade Videoschnittsoftware kann man so schreiben. Wie gesagt hat Grafikbeschleunigung die für extensive grafische Oberflächen sicher auch was bringt mit Videoencodingperformance erst mal nichts zu tun. CUDA und OpenCL, Nutzung der Grafikprozessoren für anderes Parallelprozessing ist aber ein Fakt, ob es für Videoencoding viel bringt weiß ich nicht, weil die Grafik-Prozessoren für 3D Rendering optimiert sind. Bearbeitet 20. November 2014 von iwl Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 CUDA und OpenCL, Nutzung der Grafikprozessoren für anderes Parallelprozessing ist aber ein Fakt, ob es für Videoencoding viel bringt weiß ich nicht, weil die Grafik-Prozessoren für 3D Rendering optimiert sind.Jein. z.B. http://www.businesswire.com/news/home/20140911005126/en/Vanguard-Video-Demonstrate-4K-OpenCL-Graphics-Accelerated#.VG5jn7nz-Lw http://www.mainconcept.com/eu/products/sdks/gpu-acceleration-sdk/cuda-h264avc.html Ich such jetzt nicht weiter. GPUs 'crunchen' heutzutage jede Menge 'Numbers'. Wie gesagt, Mac OS X macht vielfältigen Gebrauch der GPU, obwohl da kein 3D passiert. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
iwl Geschrieben 20. November 2014 Teilen Geschrieben 20. November 2014 OK was das Videoencoding betrifft mag sein. Nur was für Numbers sollen das denn sein die vielfältig gecrunched werden? 3D Spiele und Videoencoding sind ja fast das letzte was CPUs heute noch stresst. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 21. November 2014 Teilen Geschrieben 21. November 2014 OK was das Videoencoding betrifft mag sein. Nur was für Numbers sollen das denn sein die vielfältig gecrunched werden? 3D Spiele und Videoencoding sind ja fast das letzte was CPUs heute noch stresst. Nun, GPUs werden heute auch bei Supercomputer für hochparalleles 'Numbercrunching' eingesetzt. (IIRC gibt es verschiedene Ansätze. z.B. viele CPUs und relativ wenige GPUs, aber auch einige 'Steuerungs CPUs', den Rest machen die GPUs. Wozu genau? Naja, für alles halt eben. Alles, was das hochparallele Verarbeiten von Datenhäppchen angeht, können GPUs besser als CPUs. Ob du jetzt PI auf 1 Trillion Stellen berechnen willst, Codes knacken oder auf Teilchenebene irgendwelche Strömungen berechnen... möglich ist da vieles. Siehe z.B. hier: http://www.tested.com/tech/pcs/1017-gpgpu-explained-how-your-gpu-is-taking-over-cpu-tasks/ Es gibt heute 'Grahikkarten' die du an gar keinen Monitor mehr anschliessen kannst, sie werden nur für Berechnungen benutzt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Walter Fischer Geschrieben 21. November 2014 Autor Teilen Geschrieben 21. November 2014 Meine nächste kabellose Graka:http://www.nvidia.de/object/tesla-server-gpus-de.html Gruss Walti Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 22. November 2014 Teilen Geschrieben 22. November 2014 Meine nächste kabellose Graka:http://www.nvidia.de/object/tesla-server-gpus-de.html Gruss Walti Ja, genau auf sowas wollte ich hinaus. Mir war bis vor kurzem auch nicht bewusst, wie allgegenwärtig GPU-Berechnungen (zumindest in der Mac Welt, bei Windows weiss ich nicht so recht Bescheid) schon sind. Wobei, wenn man sich so anschaut wie der Mac Pro graphikmässig 'motorisiert ist' darf es ja nicht wundern. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Danix Geschrieben 22. November 2014 Teilen Geschrieben 22. November 2014 Was meinst du mit kabelloser Grafikkarte? Grafikkarten sind immer innerhalb des jeweiligen Gerätes verbaut. Sie sind mit direkten Busleitungen mit der Hauptplatine verbunden und somit mit dem/den CPU und den Bridge-Chips (den kleinen Chips rund um die CPU). Tatsächlich sind Grafikkarten extrem wichtig für den optimalen Einsatz eines Computers, egal welcher Grösse, sei es ein Desktop, ein Tablet oder sogar ein Smartphone. Und sie sind in der Rechenpower teilweise sogar stärker als die CPU. Deshalb finde ich es ja so eine schlechte Lösung, wenn man "Shared Memory" und Intel HD-Grafikprozessoren benutzt. Vor dem Kauf einer Grafikkarte sollte man sich jedoch ein paar Dinge bewusst sein: Das Beispiel das du da zitiert hast ist wirklich nur für ein paar wenige Anwendungen nützlich. Einerseits ist das Teil enorm teuer (wahrscheinlich verdoppelt es den Preis eines PCs), es braucht relativ viel Platz und vor allem viel Kühlung. Die Dinger werden enorm heiss. Und das bedeutet enorm laut. Neben so einem Ding kann man nicht ruhig lesen oder sogar schlafen. Auch ganz entscheidend ist, welchen Anwendungen man fährt. Anwendungen für hohe Grafikleistungen sind neben wissenschaftlichen Anwendungen vor allem Spiele und Simulationen. Weit nicht jede Anwendung ist aber für jede Grafikkarte optimiert, bzw. das Spiel wird gar nicht schneller, auch wenn man auf dem Papier eine schnellere Grafikkarte hat. Für den Hausgebrauch lohnt sich deshalb genau abzuklären, was man braucht. Dani Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 22. November 2014 Teilen Geschrieben 22. November 2014 Was meinst du mit kabelloser Grafikkarte? Du hast Waltis feinen Humor verkannt. Kabellos in dem Sinne, als dass sie keinen Anschluss für einen Monitor hat. Und dass er sich wirklich so eine in sein Notebook steckt glaub ich auch nicht. übrigens, intels integrierte Graphikkarten sind natürlich nicht optimal (da ist z.B. nicht nur shared memory ein Problem, sondern auch shared headspreader, also auch die Wärmeabgabe), aber für kompakte Geräte geh es halt kaum anders. Und recht leistungsfähig sind die auch schon. (natürlich ist alles relativ. Supercomputer wird man daraus nicht bauen) 2 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Danix Geschrieben 23. November 2014 Teilen Geschrieben 23. November 2014 Danke Patrick, habe Walters Witz voll überfahren... Jedoch bringst du mich voll auf eine Idee. Es gibt Wireless HDMI. Das könnte man wahrscheinlich machen, allerdings nicht mit unbeschränkter Datenbreite. Abgesehen davon ist das gar kein Thema, du kannst deinen Desktop PC immer verstecken. Man kann ihn z.B. unter das Pult hängen, oder in irgendein Regal. Da findet man immer eine gute Lösung. Nötigenfalls halt ein schönes Gehäuse mitkaufen, das auch designmässig überzeugt (gibt es nicht nur von Apple). Am Schluss hast du sogar weniger auf dem Schreibtisch: Tastatur, Maus, Monitor. Es gibt auch zahlreiche Strategie, wie man all die Kabel verstecken kann. All-in-One-Modelle (also wo der Computer im Bildschirm integriert ist) lösen meiner Meinung das Problem auch nicht, denn da ist wieder Notebook-Technologie involviert, mit all ihren Nachteilen: höhere Bauteile-Integration, höhere Kosten, schwächere Leistung, schlechtere Kühlung, schlechterer Zugang für Wartung, Erweiterung und Reparatur. Ich muss beruflich mein Leben mit einem Notebook organisieren. Ich bin immer wieder heilfroh, wenn ich zuhause vor einem ausgewachsenen PC sitze. Dani 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 23. November 2014 Teilen Geschrieben 23. November 2014 Wireless HDMI auf kurze Distanz gibt es glaub ich ohne grössere Einschränkungen. Aber für 4K & Co braucht es höhere HDMI Versionen, die dann wohl kaum schon über Funk funktionieren. Natürlich kann man PCs 'gut' verstecken. Aber ich hab gar keinen Bedarf mehr dafür. Ich sitz hier an einem relativ leistungsfähigen Notebook (ha, auch schon wieder über 2 Jahre alt... aber halt mit Top Bildschirm, 4 Cores, schnelle SSD, 16 GB RAM). Wenn ich mir nen PC irgendwo hin stelle, nutz ich ihn doch nie mehr. Ich bin nirgends so wohl wie hier auf dem Sofa, gemütlich vor dem Fernseher... Wobei so ein Retina iMac mit 5K (14,7 Megapixel, es gibt technisch noch gar keine Möglichkeit sowas mit nem externen Monitor zu lösen) wäre schon schön. Aber ich merk ja, wie oft ich an meinem alten sitze... Und ja, Mobiltechnologie ist es auch. Das Schöne dabei ist halt, dass das Gerät lautlos sein kann, was du bei Desktop-Leistung nie hinkriegst. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 5K "externer Monitor" gibts schon, ist halt eine Frage des Preises: http://www.technikblog.ch/2014/11/dell-praesentiert-ultrasharp-27-ultra-hd-5k-monitor/ 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 (bearbeitet) PS: ein Silent-Desktop Computer ist viel leiser als ein Laptop. Im Gegensatz zu einem Laptop kann ein Desktop mit gescheiter Kühllösung auch unter Vollast und auch nach zwei, drei Stunden Volllast noch genauso leise sein wie im Leerlauf. Ein Laptop unter Volllast kann man wohl kaum als leise bezeichnen... Bearbeitet 24. November 2014 von AnkH Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 (bearbeitet) PS: ein Silent-Desktop Computer ist viel leiser als ein Laptop. Im Gegensatz zu einem Laptop kann ein Desktop mit gescheiter Kühllösung auch unter Vollast und auch nach zwei, drei Stunden Volllast noch genauso leise sein wie im Leerlauf. Ein Laptop unter Volllast kann man wohl kaum als leise bezeichnen... Aha, gibt's nun also 5K extern auch schon (man sieht aber auch, dass die Mär vom ach so teuren Mac gerade bei neuster Technologie nicht stimmt). Das mit dem 'viel leiser' ist halt relativ. Bei gleicher Verlustleistung sicher, bei Desktop-Komponenten, am Ende noch mit ner High-End Graphikkarte, kriegst du die Abwärme aber kaum lautlos abgeführt. Bearbeitet 24. November 2014 von sirdir Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
AnkH Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 Ist alles eine Frage des Aufwands. Mein PC, immerhin mit einem i7@4.5GHz und einer OC GTX-780 ist beispielsweise deutlich leiser als ein Laptop unter Volllast. Investiert man noch in eine gute Wasserkühlung, kriegt man den PC schon fast lautlos hin, auch mit high-end Komponenten. Das Gebastel ist aber nicht jedermanns Sache und auch nicht ganz günstig. Oder man greift auf "Luxus" Systembuilder zurück, rein vom Konstruktionsdesign her müsste bspw. auch der neue MacPro ziemlich leise sein, hab aber noch keine Reviews gelesen. Also theoretisch ist es schon möglich, man darf auch nicht vergessen, dass die Desktop-Komponenten per se leistungsfähiger sind, baut man die Komponenten mit der Leistung eines Notebooks in einen Desktop, kann man die vermutlich komplett passiv kühlen was dann in einem absolut lautlosen PC resultiert. 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sirdir Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 Ist alles eine Frage des Aufwands. Mein PC, immerhin mit einem i7@4.5GHz und einer OC GTX-780 ist beispielsweise deutlich leiser als ein Laptop unter Volllast. Investiert man noch in eine gute Wasserkühlung, kriegt man den PC schon fast lautlos hin, auch mit high-end Komponenten. Das Gebastel ist aber nicht jedermanns Sache und auch nicht ganz günstig. Oder man greift auf "Luxus" Systembuilder zurück, rein vom Konstruktionsdesign her müsste bspw. auch der neue MacPro ziemlich leise sein, hab aber noch keine Reviews gelesen. Also theoretisch ist es schon möglich, man darf auch nicht vergessen, dass die Desktop-Komponenten per se leistungsfähiger sind, baut man die Komponenten mit der Leistung eines Notebooks in einen Desktop, kann man die vermutlich komplett passiv kühlen was dann in einem absolut lautlosen PC resultiert. Ja der Mac Pro ist wohl auch leise (zumindest eben auch so lange nicht Vollast). Ich finde es aber müssig mit einem 'Laptop unter Vollast' zu vergleichen. 99% der Zeit sind die Lüfter meines MacBooks absolut unhörbar (resp. es ist komplett unhörbar, da es ausser der Lüfter ja keine 'Krachmacher' mehr gibt). Unter Vollast betreibe ich es kaum je, schon gar nicht über längere Zeit. Man sieht auch, wie viel einzelne Komponenten ausmachen. Seit ich z.B. in meinen iMac eine andere 3.5" Platte eingebaut habe, ist der nicht mehr 'ruhig' zumindest nicht, nachdem es eine Weile Plattenzugriffe gegeben hat. Die im Vergleich zur Originalplatte etwas höhere Verlustleistung macht wohl den Unterschied. Naja, dafür betreib ich die Platte zusammen mit ner SSD als Fusion Drive und so hat die Platte meistens kaum zu tun. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Danix Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 (bearbeitet) Lautlose PCs sind nicht nur fast lautlos, sondern sie sind komplett lautlos. Und sie sind je nach Aufwand sehr viel leiser als mobile PCs. Das liegt daran, dass man in einem grossen Gehäuse immer besser kühlen kann als in einem kleinen. Was mich an der Kühlung von Apples besonders stört ist ihr Geräusch. Meine Frau hat so ein All-in-One-Modell, und wenn er unter Volllast steht (das kommt schon relativ bald) kommt das Gebläse sofort mit einem "Burst Mode", also ganz kurzes intensives Blasen. Das stört enorm, ausserdem weiss man zuerst gar nicht woher das kommt, weil es von hinten kommt, und während einer Skype-Session total daneben. Wer es nicht glaubt, dass PCs wirklich absolut still sein können, der soll mal bei den entsprechenden Spezialisten schauen: Ich bin leise http://www.ichbinleise.de/ Silent PC http://www.silentmaxx.de/ Bearbeitet 24. November 2014 von Danix Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Danix Geschrieben 24. November 2014 Teilen Geschrieben 24. November 2014 (bearbeitet) Zum Thema Laptop auf dem Sofa: Jaja, jedem das seine. Ich kann auf jeden Fall nicht tippen im liegen, ausserdem ist es unpraktisch, und von der Körperhaltung reden wir schon gar nicht. Die einen gamen und die anderen arbeiten... Auch wenn es Leute gibt die was anderes behaupten: Am schnellsten arbeitet man immer noch mit einer Tastatur, einer Maus und einem grossen Bildschirm. Alles andere ist vergebliche Liebesmüh. Wie gesagt, ich verbringe die Hälfte meiner Zeit in Hotelzimmern und einem Notebook, ich weiss was ich an einem grossen Monitor schätze. Gewisse Arbeiten lasse ich absichtlich liegen, damit ich sie am PC machen kann: Grosse Formulare bearbeiten, mehrere Dokumente nebeneinander legen, Spiele, Simulationen usw. Wenn ich z.B. einen Technischen Piloten-Test machen muss, dann kann gleichzeitig den Test und mehrere Bücher offen haben und muss nicht dauernd hin- und herklicken. Da spare ich mir garantiert die Hälfte der Zeit. Dani Bearbeitet 24. November 2014 von Danix Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.