Walter_W Geschrieben 2. November 2016 Teilen Geschrieben 2. November 2016 Ob das etwas wird? http://www.foxnews.com/tech/2016/10/27/darpa-develops-digital-copilot-for-military-aircraft.html Offenbar arbeiten Aurora Flight Sciences und Lockheed Martin an der Entwicklung eines virtuellen Piloten. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 2. November 2016 Teilen Geschrieben 2. November 2016 Ob das etwas wird? Nein! Florian Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Hotas Geschrieben 3. November 2016 Teilen Geschrieben 3. November 2016 (bearbeitet) Technisch sicher zu 100% funktionsfähig, aber wie so oft bei der Automation ist die technische Demonstration nur ein Schritt zum Ziel. Die Fragezeichen sind hier (lange nicht abschliessend): - Das Konzept im Allgemeinen: Ich verstehe das Konzept und den erhofften Nutzen im Alltag nicht ganz. Aufpfriemeln eines Robotersystems auf ein bestehendes System ist, als ob man im Auto für als Nachrüstungssatz einer Klimaautomatik eine Gummipuppe im Beifahrersitz einbaut, welche die Klimasteuerung betätigt. Es arbeiten schon viele Hersteller mit unendlichen Ressourcen an vollintegrierten (Teil-) Automationslösungen, und das ist schon schwierig genug. Weshalb mit einem Aufgesetzten System plötzlich alles einfacher wird, würde mich wirklich brennend interessieren. Es sind ja konzeptionell und funktional dieselben Problemstellungen die gelöst werden müssen. Welche Aktoren man dazu dann verwendet, ist doch schnurz. - Der Benefit soll glaube ich folgender sein: Der nachträgliche Einbau ohne Eingriff in die bestehende Avionik soll "minimalinvasiven" Aufwand suggerieren, doch dadurch verändert sehr wohl das Gesamtsystem. Ich zweifle ob innert dem versprochenen Monat Anlernzeit auch die Zertifizierung abgeschlossen ist. Minimalinvasiv bedeutet ja trotzdem auch mit Stromzufuhr, Bedienpanel, Zusatzgewicht etc. was ebenfalls integriert und zertifiziert werden muss. - Nebst den konzeptionellen und technischen Fragestellungen, und der ökonomischen Fragestellung ob das Produkt tatsächlich offene Türen am Markt einrennt (herrscht akuter Copiloten-Mangel? Wie sieht der typische Einsatztag eines solchen Teils aus?), stellen sich die üblichen Fragen wegen Zertifizierung, Pilotenakzeptanz, Versicherung etc. Das übliche Blabla halt. - Besonders hervorheben möchte ich aber folgendes: Der Text deutet darauf hin, dass es hier um ein selbstlernendes System handelt. Natürlich ist das geil, vor allem in nicht-lethalen Umgebungen seit längerem en vogue. In sicherheitsrelevanten Anwendungen ist die Delegation von Entscheidungen an selbstlernende Systeme aber keine Option. Neuronale Netzwerke bilden sich jedesmal anders aus, je nachdem wie sie angelernt werden. Dabei spielt mitunter auch der Zufall mit. Das Resultat ist, dass das System nicht deterministisch ist und man bei definierten Inputs der Output nicht definiert bzw. nicht voraussehbar ist. Ich musste dies auf dem harten Weg erfahren, als wir für unsere Endprüfung ein selbslernendes Prüfsystem einführen wollten. Die Entscheidungen waren zu unscharf und ungleich, sodass mit riesigen Einschränkungen, Vorprozessen, Filterfunktionen etc. das Entscheidungsfeld extrem eingeengt werden musste. Am Schluss waren die Randbedingungen derart eng formuliert, dass wir auf das selbstlernende System verzichteten und von Grund auf die Regeln selber schrieben. So sind wir nicht so flexibel, aber viel genauer und vor allem können wir genau voraussagen wie der Automat entscheiden wird. Dies ist nicht unwesentlich für die Validierung. Wie gesagt, ich bin ein Fan von Automation aber es hat Gründe warum wir noch nicht ganz so weit sind. Aktzeptanzprobleme oder Haftungsfragen sind aus meiner Sicht noch die kleinsten Probleme (dem Fahrassistenten im Tesla wird ja blind vertraut, und beim Gesetzgeber tut sich einiges), aber beim Schritt vom Technikdemonstrator zum zertifizierten bzw. validierten Produkt wird noch viel schweisstreibende Arbeit nötig sein. Bearbeitet 3. November 2016 von Hotas 3 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 3. November 2016 Teilen Geschrieben 3. November 2016 Viel zu viel Text für eine sehr einfache Erkenntnis: Wenn eine Maschine eine andere Maschine steuern soll, dann ist es einfach Unsinn, dazwischen ein Interface zu schalten, dass zu 50% auf die Bedürfnisse von menschlichen Bedienern und zu 50% auf die technischen Imitationen gegen Ende des 19. Jahrhunderts ausgerichtet ist. Nur an einem Punkt muss ich Dich korrigieren, da hier leider weit verbreiteter Unsinn wiederholt wird: - Besonders hervorheben möchte ich aber folgendes: Der Text deutet darauf hin, dass es hier um ein selbstlernendes System handelt. Natürlich ist das geil, vor allem in nicht-lethalen Umgebungen seit längerem en vogue. In sicherheitsrelevanten Anwendungen ist die Delegation von Entscheidungen an selbstlernende Systeme aber keine Option. Neuronale Netzwerke bilden sich jedesmal anders aus, je nachdem wie sie angelernt werden. Dabei spielt mitunter auch der Zufall mit. Das Resultat ist, dass das System nicht deterministisch ist und man bei definierten Inputs der Output nicht definiert bzw. nicht voraussehbar ist. Das ist in allen Punkten praktisch das Gegenteil von richtig! Neuronale Netze sind deterministisch. Mit gleichen Lerndaten bilden sich natürlich auch gleiche Steuerungsfunktionen aus. Bei definierten Inputs sind natürlich die Outputs definiert und auch sehr vorhersehbar. (Allerdings kann man zeigen, dass diese Vorhersage äquivalent zum Halteproblem ist, also nicht signifikant schneller geht, als ein zweites gleich aufgebautes Netz mit den gleichen Daten zu trainieren und schauen, was raus kommt). Zufall spielt bei realen Anwendungen neuroyaler Netze keine Rolle. Keine Ahnung, was ein "lethales System" ist, aber bei Flugzeugen machen wir seit vielen Jahren sehr gute Erfahrungen damit, sie vom selbstlernenden System "Pilot" steuern zu lassen. Exogene Regelwerke können da noch nicht mithalten, weswegen die Nutzung von Autopiloten bisher auf Unterstützung dieses selbstlernenden Systems beschränkt sind. Florian 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Walter_W Geschrieben 3. November 2016 Autor Teilen Geschrieben 3. November 2016 (bearbeitet) Ich frage mal Chipart, wieso Lockheed wohl dabei ist? Stecken da möglicherweise Gründe dahinter, die wir noch nicht mal im Ansatz erkennen können. Möglicherweise geht es sogar lediglich um die Sicherung von Patenten um allfälligen Konkurrenten den Weg zu versperren. Eine interessante Bemerkung: Lockheed Martin Sikorsky's Director of Autonomy Igor Cherepinsky stressed it is absolutely not about replacing human pilots, but instead about supporting them and giving them a smart teammate. Bearbeitet 3. November 2016 von Walter_W Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sheckley666 Geschrieben 3. November 2016 Teilen Geschrieben 3. November 2016 Neuronale Netze sind deterministisch. Mit gleichen Lerndaten bilden sich natürlich auch gleiche Steuerungsfunktionen aus. Bei definierten Inputs sind natürlich die Outputs definiert und auch sehr vorhersehbar. So gesehen sind natürlich auch Menschen oder Würfel deterministisch. Die übliche Definition von Zufall beinhaltet halt nicht nur den echten, quantenphysikalischen Zufall, sondern auch den Theoretisch könnte ich wissen, was passiert, aber praktisch nicht weiss ich es nicht-Zufall. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 3. November 2016 Teilen Geschrieben 3. November 2016 So gesehen sind natürlich auch Menschen oder Würfel deterministisch. Die übliche Definition von Zufall beinhaltet halt nicht nur den echten, quantenphysikalischen Zufall, sondern auch den Theoretisch könnte ich wissen, was passiert, aber praktisch nicht weiss ich es nicht-Zufall. Nein - Menschen (so weit man weiss) und Würfel sind nicht deterministisch. Bei Neutralen Netzen folgt die Ausgabe eineindeutig auf Grund einer Formel aus den Eingangswerten. Auch wenn diese Formel komplex ist, nennen wir das deterministisch. Ansonsten macht das Konzept Determinismus vs. Zufall keinen Sinn, weil dann auch z.B. die Wurzelfunktion in Deiner Sichtweise nicht mehr deterministisch ist - oder weisst Du grad die Wurzel aus 3362182734? Florian Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sheckley666 Geschrieben 3. November 2016 Teilen Geschrieben 3. November 2016 Nein - Menschen (so weit man weiss) und Würfel sind nicht deterministisch. Bei Neutralen Netzen folgt die Ausgabe eineindeutig auf Grund einer Formel aus den Eingangswerten. Auch wenn diese Formel komplex ist, nennen wir das deterministisch. Ansonsten macht das Konzept Determinismus vs. Zufall keinen Sinn, weil dann auch z.B. die Wurzelfunktion in Deiner Sichtweise nicht mehr deterministisch ist - oder weisst Du grad die Wurzel aus 3362182734? Florian Wenn du einen Würfel mit hinreichend ähnlichen Eingangsparametern betreiben könntest, lieferte er auch immer dasselbe Ergebnis. Von Zufall spricht man, wenn es unmöglich ist, das Ergebnis vorher zu berechnen, unabhängig davon, warum es unmöglich ist: Nötige Information ist prinzipiell nicht vorhanden, oder nötige Information ist nicht beschaffbar, oder nötige Information ist beschaffbar, aber man hat sie nicht beschafft *), oder die Menge an nötiger Information ist zu gross, um verarbeitet werden zu können. *) Darüber kann man streiten. Wenn ich in einer fremden Stadt aufs Geradewohl zu einer Strassenbahnhaltestelle gehe, ist es aus meiner Sicht Zufall, ob ich länger als zehn Minuten auf eine passende Bahn warten muss. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Hotas Geschrieben 4. November 2016 Teilen Geschrieben 4. November 2016 (bearbeitet) Bei Neutralen Netzen folgt die Ausgabe eineindeutig auf Grund einer Formel aus den Eingangswerten Soweit zum Quellcode, aber kommen wir zur Anwendung: Erstens ist das Anlernen eben nicht immer identisch (auch im Labor nicht), deshalb kommt jedesmal ein Unikat dabei raus. Zweitens werden -auch wenn ein Neuronales Netz klar beschrieben ist- zum Ausprobieren bzw. ertasten der optimalen Lösung beim Anlernen oft Zufallsgeneratoren eingesetzt. Muss nicht, ist aber oft der Fall wenn man analytisch nicht zum Optimum kommt. Drittens wird die Komplexität bei jeder Operation und Verzweigung (das System kann beliebig viele Zustände annehmen) so hoch, dass die Schiere Anzahl an Ausgängen sehr schwer zu beschreiben ist. Ich habe Anwendungen gesehen, in denen nicht einmal eine Hochsprache erlaubt war, weil das Compilieren zuweilen Artefakte erzeugt die man nicht unter Kontrolle hat. Dies ist noch viel extremer bei neuronalen Netzen der Fall. Bearbeitet 4. November 2016 von Hotas 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 4. November 2016 Teilen Geschrieben 4. November 2016 Zweitens werden -auch wenn ein Neuronales Netz klar beschrieben ist- zum Ausprobieren bzw. ertasten der optimalen Lösung beim Anlernen oft Zufallsgeneratoren eingesetzt. Muss nicht, ist aber oft der Fall wenn man analytisch nicht zum Optimum kommt. ... Ich habe Anwendungen gesehen, in denen nicht einmal eine Hochsprache erlaubt war, weil das Compilieren zuweilen Artefakte erzeugt die man nicht unter Kontrolle hat. Dies ist noch viel extremer bei neuronalen Netzen der Fall. Ich hab da zugegeben nicht so viel Erfahrung damit - weil ich nach 4 Jahren Promotion in dem Bereich dann beruflich in eine andere Richtung gegangen bin. Aber während meiner Promotion sind mir keine praktisch relevanten Fälle über den Weg gelaufen, bei denen Zufall eine Rolle gespielt hat. Das man manchmal gerade bei sehr gut bestimmten Systemen Rauschen ins das Lernset einfügt, um die Konvergenz zu beschleunigen ist eine andere Frage. Genauso ist es eine andere (ja durchaus spannende) Frage, dass bei schlechter Software heutzutage optimierende Compiler teilweise unbestimmten (aka falschen) Code erzeugen. Florian Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 4. November 2016 Teilen Geschrieben 4. November 2016 [*]nötige Information ist beschaffbar, aber man hat sie nicht beschafft *), oder Hierzu fällt mir echt nur noch RFC1149.5 ein - aber die war Ironisch gemeint. Florian P.S.: Für alle, die nicht so viel mit Computern zu tun haben: RfCs sind die Standardisierungsvorschläge für Alles, was mit dem Internet zu tun hat. RfC1149 ist traditionel die RfC, in der Aprilscherze gemacht werden - die erste RfC1149, heute RfC1149.1 schlägt z.B. einen Standard zur Übertragung von IP-Paketen mittels Brieftauben vor In RfC 1149.5 wurde vorgeschlagen, immer dann, wenn man eine Zufallszahl braucht, die Zahl 4 zu nehmen - schliesslich sei 4 genauso zufällig, wie jede andere Zahl auch... 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Dierk Geschrieben 4. November 2016 Teilen Geschrieben 4. November 2016 Neuronale Netze sind deterministisch. Mit gleichen Lerndaten bilden sich natürlich auch gleiche Steuerungsfunktionen aus. Bei definierten Inputs sind natürlich die Outputs definiert und auch sehr vorhersehbar. (Allerdings kann man zeigen, dass diese Vorhersage äquivalent zum Halteproblem ist, also nicht signifikant schneller geht, als ein zweites gleich aufgebautes Netz mit den gleichen Daten zu trainieren und schauen, was raus kommt). Zufall spielt bei realen Anwendungen neuroyaler Netze keine Rolle. Florian Solange das NN noch lernen darf, ist bei der Präsentation von real-life Daten unter nicht Laborbedingungen immer der Zufall im Spiel. Da aber aus Zeitgründen wohl die wenigsten NN so angelernt werden, sondern artifiziell mit 10 000 und mehr Wiederholungen der immer gleichen Datenbank bis die Fehlerquote hinreichend gering ist, und dann ein weiteres Lernen bzw. Über- oder Entlernen durch Beenden des Lernalgorithmus unterbunden wird, werden sie "hard wired" und 100% dterministisch, auch wenn niemand 100% sicher voraussagen kann, wie die Antwort im Einzelfall ausfallen wird. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 5. November 2016 Teilen Geschrieben 5. November 2016 (bearbeitet) Solange das NN noch lernen darf, ist bei der Präsentation von real-life Daten unter nicht Laborbedingungen immer der Zufall im Spiel. Da aber aus Zeitgründen wohl die wenigsten NN so angelernt werden, sondern artifiziell mit 10 000 und mehr Wiederholungen der immer gleichen Datenbank bis die Fehlerquote hinreichend gering ist, und dann ein weiteres Lernen bzw. Über- oder Entlernen durch Beenden des Lernalgorithmus unterbunden wird, werden sie "hard wired" und 100% dterministisch, auch wenn niemand 100% sicher voraussagen kann, wie die Antwort im Einzelfall ausfallen wird. So ist es! Es war in den 90er Jahren ein sehr "heisses" Forschungsthema, wie man ANNs dadurch "verständlicher macht", dass man Regeln aus trainierten ANNs extrahiert. Craven und Shavlik, aber auch die Australier um Andrews et. al haben gefühlt ganze Ausgaben der Knowledge Based Systems damit gefüllt. Seitdem ist es allerdings aus zwei Gründen etwas ruhiger um das Thema Regelextraktion geworden: - Die Komplexität der Regeln auch einfacher ANNs ist relativ hoch - das ist ja gerade der große Vorteil dieser Technik, dass man auch sehr komplexe Zusammenhänge sicher beherrschen kann. Dadurch ergibt die Regelextraktion sehr viele, für sich genommen zwar einfach verständliche aber in Summe in ihrer gemeinsamen Wirkung doch undurchschaubare Regeln - Das "Grundvertrauen" in die Technik ist gestiegen wodurch sich die Notwendigkeit zur Regelextraktion verringert hat. Vielleicht hat sich auch die Erkenntnis durchgesetzt, dass man auch schon bei einem relativ einfachen Regelsystem aus 2-3 gekoppelten PID-Reglern genauso Chancenfrei ist, das Gesamtregelverhalten "intuitiv" zu erfassen - und da stört es uns schon seit sehr vielen Jahren nicht... Florian Bearbeitet 5. November 2016 von Chipart Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sheckley666 Geschrieben 5. November 2016 Teilen Geschrieben 5. November 2016 Unabhängig davon, was der Einzelne nun als Zufall ansehen will, scheint Einigkeit zu bestehen, dass neuronale Netze das Problem des What-the-hell-is-it-doing-now? nicht lösen wird.Ein anderes Problem von selbstlernenden neuronalen Netzen sehe ich darin, dass sich auf dem darin aufgebauten Wissen nur schwer aufbauen lässt. Nehmen wir - als dummes Beispiel - an, wir hätten ein solches Netz erschaffen, das besonders gut darin ist, Fehler im Flug zu diagnostizieren. Ein anderes System ist besonders gut darin, auch bei Ausfall zahlreicher Navigationshilfen sich noch gut orientieren zu können.In der Praxis hätte man natürlich gerne ein System, das beides beherrscht. Bei klassischer Programmierung wäre der Weg klar, den man einschlagen muss. Aber wie kombiniert man das Wissen von neuronalen Netzen?Auf der Vorteilsseite gegenüber menschlichen Piloten hat man weniger Verlust im Todesfall. Sowohl rein technisch (so man ein Backup gemacht hat), als auch ethisch. Zumindest solange die neuronalen Netze nicht noch sehr viel besser werden.Auf der Vorteilsseite gegenüber fest eingebauten Automatiken hat man evtl. mehr Flugzeit. Gerade im Militärsektor scheint ja das Verhältnis Einsatzzeit zu Standzeit eher ungünstig zu sein. Durch eine mobile Automatik kann man diese Quote wenigstens hier verbessern. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Chipart Geschrieben 5. November 2016 Teilen Geschrieben 5. November 2016 (bearbeitet) Unabhängig davon, was der Einzelne nun als Zufall ansehen will, scheint Einigkeit zu bestehen, dass neuronale Netze das Problem des What-the-hell-is-it-doing-now? nicht lösen wird. Wenn man das denn als Problem ansieht - bei Menschen ist dieses "Problem" ja auch nicht ansatzweise gelöst. Das Problem ist eher, dass unsere Anforderungen an ein technisches Regelsystem um sehr viele Größenordnungen größer sind, als an einen Menschen. Ein anderes Problem von selbstlernenden neuronalen Netzen sehe ich darin, dass sich auf dem darin aufgebauten Wissen nur schwer aufbauen lässt. Nehmen wir - als dummes Beispiel - an, wir hätten ein solches Netz erschaffen, das besonders gut darin ist, Fehler im Flug zu diagnostizieren. Ein anderes System ist besonders gut darin, auch bei Ausfall zahlreicher Navigationshilfen sich noch gut orientieren zu können. Das geht jetzt glaub ich hier zu weit - aber bevor ich hierauf eingehen kannst müsstest Du etwas besser erklären, warum Du die Resultate von z.B. Rogova oder Cho zur Kombination bzw. Superposition von ANN für unzureichend hälst. Auch neuere Resultate zu radial growth Modellen halte ich beim ersten draufschauen durchaus für brauchbar - auch wenn das "nach meiner Zeit" war und ich deswegen kein Experte dafür bin. In der Praxis hätte man natürlich gerne ein System, das beides beherrscht. Bei klassischer Programmierung wäre der Weg klar, den man einschlagen muss. Aber wie kombiniert man das Wissen von neuronalen Netzen? Hier kennst Du Dich wahrscheinlich viel besser aus als ich. Mir ist auch in der klassischen Regelungstechnik kein allgemeines Verfahren bekannt, wie man zwei Regelsysteme so kombiniert, dass die Vorteile von beiden erhalten bleiben. Für ANN gibt es verschiedene Ansätze um das Wissen von beiden zu kombinieren. Von der Inferenz unabhängiger ANN über Kalman-Filter basierte Systeme bis zu dem "manuellen" Weg, aus einem Netz Trainingsdaten zu erzeugen mit dem dann das zweite Nachtrainiert wird. Hängt halt sehr von der Topologie und Art der Neuronen ab, mit denen die beiden Arbeiten. Auf der Vorteilsseite gegenüber menschlichen Piloten hat man weniger Verlust im Todesfall. Sowohl rein technisch (so man ein Backup gemacht hat), als auch ethisch. Zumindest solange die neuronalen Netze nicht noch sehr viel besser werden. Die Vor- und Nachteile automatischer Systeme gegenüber Menschen sind viel zu vielschichtig, als dass wir sie hier kurz nebenbei diskutieren könnten. Deswegen will ich das auch gar nicht erst anfangen. Florian Bearbeitet 5. November 2016 von Chipart Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
sheckley666 Geschrieben 6. November 2016 Teilen Geschrieben 6. November 2016 Wenn man das denn als Problem ansieht - bei Menschen ist dieses "Problem" ja auch nicht ansatzweise gelöst. Nun, ein Teil der sich in Foren äussernden Piloten scheint dieses Problem für eines zu halten, und ich kann das nachvollziehen. Berechenbarkeit der Reaktion ist Vorraussetzung für Zusammenarbeit. Da ist es auch kein Trost, dass Menschen untereinander sich auch oft genug missverstehen. Das geht jetzt glaub ich hier zu weit - aber bevor ich hierauf eingehen kannst müsstest Du etwas besser erklären, warum Du die Resultate von z.B. Rogova oder Cho zur Kombination bzw. Superposition von ANN für unzureichend hälst. Auch neuere Resultate zu radial growth Modellen halte ich beim ersten draufschauen durchaus für brauchbar - auch wenn das "nach meiner Zeit" war und ich deswegen kein Experte dafür bin. Ich bin da noch viel weniger Experte. Aber selbst, wenn hier brauchbare Ergebnisse erzielt werden können, fehlt mir noch etwas. Technische Weiterentwicklung beruht auch darauf, dass spätere Generationen das Verständnis, welches die früheren erkämpft haben, bereits in jungen Jahren auf das Wesentliche reduziert kennenlernen und verinnerlichen können. Dadurch fällt es ihnen leichter, in ihrer produktiven Zeit ein paar Schritte weiter zu gehen. Aber schon möglich, dass ich hier zu konservativ denke. Das Wesentliche in Zukunft ist vielleicht, frühzeitig zu lernen, wie man ein künstliches neuronales Netz trainiert. Mir ist auch in der klassischen Regelungstechnik kein allgemeines Verfahren bekannt, wie man zwei Regelsysteme so kombiniert, dass die Vorteile von beiden erhalten bleiben. Ich sage nicht, dass jedes Problem lösbar ist. Nur, dass man in dem Fall, wo man zwei funktionierende Algorithmen für zwei Probleme hat, ungefähr weiss, wo man arbeiten muss, die Lösungen zu kombinieren. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Dierk Geschrieben 6. November 2016 Teilen Geschrieben 6. November 2016 (bearbeitet) Übrigens gibt es noch eine evolutionäre Strategie, ein an die Fragestellung adaptiertes NN zu entwickeln. Diese Strategie basiert auf dem Zufall. Statt eine NN-Matrix zu nehmen und diese zu trainieren, erzeugt man z.B. 100 000 untrainierte NN mit Zufallsgewichten und unterwirft diese jeweils der Datenbank. Jedes NN bekommt einen Score, wie gut es insgesamt auf alle Situationen der Datenbank geantwortet hat. Nun wirft man die 99990 schlechtesten NN weg und erzeugt anhand der übriggebliebenen 10 NN die zweite Generation, d.h. neue 100 000, deren synaptische Gewichte auf den 10 "Vätern" basieren jedoch bei jedem Nachfahren ein Teil der Gewichte zufällig mutiert wird. Nun unterwirft man die zweite Generation der Datenbank... Die besten 10 dürfen wiederum die dritte Generation erzeugen. Das macht man solange, bis die Fehlerquote hinreichend tief ist. Wobei mit jeder Generation die Gewichte etwas weniger stark verändert werden (optional). Das Verfahren ist vielleicht etwas rechenaufwendiger. https://en.wikipedia.org/wiki/Neuroevolution?wprov=sfla1 https://en.wikipedia.org/wiki/Evolutionary_computation?wprov=sfla1 https://en.wikipedia.org/wiki/Evolutionary_acquisition_of_neural_topologies?wprov=sfla1 Bearbeitet 6. November 2016 von Dierk Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Volume Geschrieben 7. November 2016 Teilen Geschrieben 7. November 2016 Technisch sicher zu 100% funktionsfähig Es gibt kein zu 100.00000000% funktionsfähiges technisches System. Die Frage ist, wie viele Neunen nach dem Komma von 99. % will der Kunde sehen, wieviel die Behörde, wieviel die Versicherung und wieviel die Shareholder... Schon der digitale Flugingenieur zeigt sich in vielen Unfallberichten als nicht 100% zuverlässig... Wird aber heute allgemein akzeptiert, und hat sich auch bei vielen Mustern als dem im Alltagsbetrieb nicht zu 100% zuverlässigen menschlichen FI überlegen erwiesen. Es mag auch noch an anderen Aspekten liegen, aber die 747 mit Zweiman(n)cockpit ist statistisch entscheidend sicherer als die 747 Baureihen mit Flugingenieur. Die Frage ist immer, wie weit man das extrapolieren kann... Gruß Ralf 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.