Zum Inhalt springen

Neuer Kollege Co-Pilot......


Gast

Empfohlene Beiträge

 

Eigentlich ist mein Punkt aber ein ganz anderer: Computer können gar nicht so viel! Zumindest nichts, was den Kern des menschlichen ausmacht.

Intelligenz ist ein unscharf definierter, oft missbrauchter und vielfach total überhöhter Begriff - insbesondere in Zusammenhang mit "künstlicher Intelligenz". Würden wir nicht über "künstliche Intelligenz" reden, sondern über "Mustererkennung und automatische Klassifikation", dann wäre das wissenschaftlich zwar exakt das gleiche, die Diskussion würde - insbesondere von Laien - aber deutlich weniger emotional geführt.

Computer können extrem wenig, und sind auf explizite, vorhergeplante (von Menschen...) Aktionen beschränkt. Selbst wenn Computer sich selbst programmieren könnten, es würde ihre beschränkten Hardwarefähigkeiten nicht erweitern. Allein ihre praktisch unbegrenzte Größe schafft praktisch unbegrenzte Möglichkeiten, mit Intelligenz hat das wenig zu tun.

Und allein aus der "Mustererkennung und automatischen Klassifikation" kann man noch nicht die optimale Handlung als Reaktion entwickeln, es wird immer der Mensch sein, der dem Computer (über Hard- und Software) eine Sammlung von möglichen Reaktionen vorgeben wird, der Computer wird dann vermutlich besser als der Mensch darin sein, die optimale aus der Sammlung herauszusuchen, er wird nie in der Lage sein komplett neue zu entwickeln. Um es mit Schach zu vergleichen, er wird nie zu dem Schluss kommen, dass man das Pferd am besten diagonal zieht, denn das ist verboten. So wie es Spielregeln gibt, gibt es im wahren Leben Naturgesetze, daran müssen sich Mensch und Maschine halten. Von daher wird der Computer sicher viele Dinge berechnen können, die die Natur besser anders gemacht hätte, aber ändern wird er es nicht können.

 

 

Von dem, was den Kern des Menschen ausmacht, nämlich Emotionalität (dem Computer ist egal, ob er Schach oder Go spielt) und vor Allem die Fähigkeit, Handlungen und Entscheidungen einen Sinn zu geben, sind wir bei Computern noch sehr weit entfernt.

Zumal Go oder Schach ja nie dafür entwickelt wurden, damit Menschen eines Tages die optimale Spielzugfolge entwickelt haben, sondern damit sie ihre Intelligenz steigern, damit sie sich Mensch gegen Mensch zum Vergügen messen können. Der Spaßfaktor am Brettspiel ist die Interaktion mit dem Gegenüber, Sieg, Niederlage oder Effizienz sind nicht der Treiber. Wenn dereinst mal der optimale Computer die optimale Strategie bestimmt hat, wird keiner mehr mit ihm spielen wollen. Und Spiele Computer gegen Computer werden so vorhersagbar wie Tic Tac Toe (der mit dem ersten Zug gewinnt), oder enden immer Remis.

 

 

Und es gab auch da eine (sehr kurze) übergangszeit in der Menschen gedacht haben, dass man besser das Ergebnis der Maschinen noch mal von Menschen nachrechnen läßt, weil man ja nie sicher sein kann, ob das auch wirklich stimmt...

Was ja seine Berechtigung hatte und immer noch hat, solange Computerprogramme oder sogar die Hardware Fehler haben können.

 

 

Die meisten Menschen - leider auch viele, die darüber reden - können nicht mal ohne rumzustammeln sagen, was Intelligenz eigentlich ist (bzw. was sie meinen, wenn sie von Intelligenz reden).

Weshalb ich bisher peinlich vermieden habe, über (menschliche) Intelligenz zu reden ;) 

 

Es ist auch schwer zu sagen, ob nun Intelligenz oder Intuition die wichtigere Fähigkeit im Cockpit ist. Ob handwerkliche Präzision oder Erfahrung, Situationsbewusstsein, Kreativität, Wissen, Abstraktionsvermögen, Teamfähigkeit. All das sind Schlagworte die viel oder auch gar nichts bedeuten können.

Genausowenig wie wir den "besten Piloten der Welt" finden können, wird es schwer sein den optimalen Computer für das Flugzeug zu entwickeln. Zumal das Hauptproblem wohl weniger der Computer selbst sein wird, sondern seine Sensorik und deren Zuverlässigkeit. Seine Pentaflops, Terabytes und Millarden von gespeicherten Mustern helfen dem Computer wenig, wenn er von drei redundanten Sensoren drei verschiedene Werte als Input bekommt.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Teslas fahren schon ohne Fahrer ?

Jawohl, wenn auch sehr beschränkt. Ich meinte aber einen Bus:

Es geht doch nicht darum, wie oft das Vehikel heute tatsächlich manuell gesteuert wird. Der Steuermann bzw. die Steuerfrau werden nach Anwesenheit bezahlt und nicht nach Anzahl Steuerbewegungen. Die Frage ist, welche Kriterien erfüllt sein müssen, damit wir den Menschen aus der Steuerung entfernen können. Und diese sind bodengebunden sehr viel einfacher zu erfüllen, es wird deswegen nicht nur bei Tesla schon gemacht (inklusive Unfälle).

 

 

Computer können extrem wenig, und sind auf explizite, vorhergeplante (von Menschen...) Aktionen beschränkt. Selbst wenn Computer sich selbst programmieren könnten, es würde ihre beschränkten Hardwarefähigkeiten nicht erweitern. Allein ihre praktisch unbegrenzte Größe schafft praktisch unbegrenzte Möglichkeiten, mit Intelligenz hat das wenig zu tun.

Und allein aus der "Mustererkennung und automatischen Klassifikation" kann man noch nicht die optimale Handlung als Reaktion entwickeln, es wird immer der Mensch sein, der dem Computer (über Hard- und Software) eine Sammlung von möglichen Reaktionen vorgeben wird, der Computer wird dann vermutlich besser als der Mensch darin sein, die optimale aus der Sammlung herauszusuchen, er wird nie in der Lage sein komplett neue zu entwickeln. Um es mit Schach zu vergleichen, er wird nie zu dem Schluss kommen, dass man das Pferd am besten diagonal zieht, denn das ist verboten. So wie es Spielregeln gibt, gibt es im wahren Leben Naturgesetze, daran müssen sich Mensch und Maschine halten. Von daher wird der Computer sicher viele Dinge berechnen können, die die Natur besser anders gemacht hätte, aber ändern wird er es nicht können.

 

Genausowenig wie wir den "besten Piloten der Welt" finden können, wird es schwer sein den optimalen Computer für das Flugzeug zu entwickeln. Zumal das Hauptproblem wohl weniger der Computer selbst sein wird, sondern seine Sensorik und deren Zuverlässigkeit. Seine Pentaflops, Terabytes und Millarden von gespeicherten Mustern helfen dem Computer wenig, wenn er von drei redundanten Sensoren drei verschiedene Werte als Input bekommt.

Nein, wie Zug 37 gezeigt hat, finden Computer durchaus Lösungen, die man nicht für möglich gehalten hätte. Wie erwähnt sind wir dabei in der Fliegerei aber viel beschränkter, da das System gut berechenbar ist. 

Dass eher die Messtechnik bremst, hatten wir auch schon. Ich glaube, die Diskussion dreht sich langsam im Kreis.  ;)

Einen Einwand habe ich: Die Fliegerei ist wesentlich vielfältiger wie das abstrakte, ja schon fast mathematische, Spiel Go. Zusätzlich kennen wir die Systeme und ihr physikalisches Verhalten, können das zukünftige Verhalten eines Flugzeuges also ziemlich genau berechnen. Folglich geht es mehr darum, die unzähligen Zustände für Computer lesbar zu machen und dann so verarbeiten, dass wir zu einem sinnvollen Ergebnis kommen. Und es sind Menschenleben im Spiel - wir können nicht einfach ungeprüft darauf vertrauen, dass neuartiges Verhalten künstlicher Intelligenz tatsächlich sinnvoll ist und diese einfach mal machen lassen. Sowas müsste man in einer Simulation machen. Aber dann nutzen wir das Potential der künstlichen Intelligenz eben doch nicht im Flugzeug... Schlussendlich ist es eine Frage des Vertrauens, ob wir der natürlichen oder künstlichen Intelligenz mehr vertrauen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Nein, wie Zug 37 gezeigt hat, finden Computer durchaus Lösungen, die man nicht für möglich gehalten hätte.

Ansichtssache.

Wie schon richtig gesagt:

 

Also nicht unpräzise gespielt, oder eine Variante entdeckt, über die bisher noch nie jemand drüber nachgedacht hatte, sondern einen Fehler der "schwere", dass man Jugendlichen im Jugendtraining dafür "auf die Finger haut" und sie fragt, was sie geraucht haben.

Wenn ein Mensch das hätte versuchen wollen, hätte man ihn nicht demonstrieren lassen, dass es geht. Der Zug steht nicht im FCOM, also Spiel abbrechen und zurück ins Klassenzimmer / in den Simulator.

Gerade in der Luftfahrt gibt es einige Mythen oder Todsünden, wegen denen man Piloten "auf die Finger haut" wenn sie eigentlich das richtige tun wollen.

Auch in der Wissenschaft hat man schon so manchen ausgebremst, und nach Jahrzehnten hat sich rausgestellt, er war nicht dumm sondern genial, er hatte 100% recht.

Etwas zu tun, was nicht der Standard ist macht einen als Mensch für gewöhnlich nicht überlegen, sondern überflüssig. Bei Computern feiert man es als Durchbruch.

 

Nicht falsch verstehen, natürlich ist es eine enorme Leistung eines Computers ein Jahrzehntelanges Dogma zu widerlegen, aber es ist kein Alleinstellungsmerkmal des Computers.

Zug 37 ist nicht so aussergewöhnlich weil der Computer so intelligent war, sondern weil die Menschen so dumm waren, sich falsche Faustregeln eingeredet haben. Der Computer hat demonstriert, das man mit systematischer Datenanalyse zu besseren Schlüssen kommt, als mit Dogmen, Tabus und Grundsätzen. Das können Menschen auch, wenn man sie lässt.

 

 

Wie erwähnt sind wir dabei in der Fliegerei aber viel beschränkter, da das System gut berechenbar ist. 

Der gut berechnbare Teil der Fliegerei ist längst vollständig automatisiert.

 

Die unberechenbaren Dinge, die undenkbaren (oder zumindst noch nie gedachten) Dinge sind die interessanten. Gut möglich, dass der Computer da auch hin und wieder auf bis dahin für undenkbar gehaltene Lösungen kommt. Aber Piloten tuen sowas auch. Und sehr gut möglich, dass der Computer damit gar nicht zurecht kommt, da die Situation zu keinem seiner Muster auch nur annähernd passt. Auch sowas machen Piloten bisweilen.

Wenn du in Flugzustände kommst in denen es keine Daten mehr gibt, auf deren Basis Berechnungen möglich sind (z.B. im Sackflug ausserhalb dessen was in der Flugerprobung vermessen wurde), ist der Computer mit berechneten Reaktionen völlig aufgeschmissen. Es wäre mal interessant zu sehen, ob ein Intelligenter Autopilot Trudeln ausleiten könnte, wenn er es vorher noch nie gesehen hat.

 

Was ist eigentlich aus der Anfang der 90er so populären Fuzzy-Logik als Alternative zur "guten Berechnbarkeit" geworden? Die war doch eigentlich genau für diese "man weiss es nicht so genau" Fälle gedacht, die man eben nicht in Formeln fassen kann.

 

Gruß

Ralf

Bearbeitet von Volume
Link zu diesem Kommentar
Auf anderen Seiten teilen

Computer können extrem wenig, und sind auf explizite, vorhergeplante (von Menschen...) Aktionen beschränkt. Selbst wenn Computer sich selbst programmieren könnten, es würde ihre beschränkten Hardwarefähigkeiten nicht erweitern. 

 

Das ist jetzt zwar richtig, aber auch eine sehr philosophische Aussage, die am Ende den Computer nicht vom Menschen unterscheidet. Dem Menschen wird auch durch heftiges Nachdenken keine dritte Hand oder kein drittes Auge wachsen. In so fern ist z.B. ein Pilot in seinen Handlungen auch dadurch limitiert, wie viele Hände er hat und wie schnell er die Controls bedienen kann. d

Es ist auch schwer zu sagen, ob nun Intelligenz oder Intuition die wichtigere Fähigkeit im Cockpit ist. 

Wie oben gesagt, ist das wahrscheinlich ohnehin mehr oder weniger dasselbe (auch wenn es sich verschieden "anfühlt").

Seine Pentaflops, Terabytes und Millarden von gespeicherten Mustern helfen dem Computer wenig, wenn er von drei redundanten Sensoren drei verschiedene Werte als Input bekommt.

 

Bei so einer Aussage schwingt immer so ein bisschen die implizite Unterstellung mit, dass Menschen besser mit so einer Situation umgehen könnten. Gerade in solchen Situationen sind Computer aber Menschen deutlich überlegen, weil sie 1.) die Diskrepanz viel schneller feststellen (Menschen neigen dazu, erst viel zu spät auf den secondary AI zu schauen, wenn ihr primary ganz langsam wegkippt), 2.) keinen Konfirmation- oder Action-Bias haben und 3.) emotionslos mit der verbleibenden reliable Information weiter arbeiten und nicht hektisch werden können.

 

Florian 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es wäre mal interessant zu sehen, ob ein Intelligenter Autopilot Trudeln ausleiten könnte, wenn er es vorher noch nie gesehen hat.

Aber auch nur im gleichen Sinne interessant, wie ob ein Mensch das könnte, der so was vorher noch nie gesehen hat. Also "Spannend, aber irrelevant". Was für einen Sinn hätte es, einen Computer Flugzeuge autonom steuern zu lassen, ohne sie vorher zumindest im Simulator bzw. mit Daten aus Trudeltest von kleineren Flugzeugen so etwas "gesehen lassen zu haben".

 

Das ist in etwa die gleiche Frage wie: "Würde ein autonomes Auto, dass vorher nur Rechtskurven gesehen hat irgendwann auf die "Idee" kommen, dass man auch Linkskurven fahren kann?". Im Labor durchaus spannend, in der Praxis völlig irrelevant. 

 

Natürlich würde man in der Praxis eine AI-Algorithmus ähnliche Erfahrungen machen lassen, wie menschliche Piloten. Mit einem gravierenden Unterschied: Während menschliche Piloten mit 10.000 Flugstunden schon als sehr erfahren gelten, können AI-Algorithmen 10.000 Simulatorstunden in wenigen Tagen erfliegen (weil sie parallel in mehreren Simulatoren "üben" können) und aus Daten von mehreren 100.000 realen Flügen täglich lernen.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

Auch in der Wissenschaft hat man schon so manchen ausgebremst, und nach Jahrzehnten hat sich rausgestellt, er war nicht dumm sondern genial, er hatte 100% recht.

Das ist weit seltener, als ausserhalb der Wissenschaft gerne kolportiert wird. Und auf jeden, auf den es tatsächlich zutrifft, kommen Abertausende, die tatsächlich zu dumm waren, um ihre Widerlegung zu verstehen.

 

 

Der Computer hat demonstriert, das man mit systematischer Datenanalyse zu besseren Schlüssen kommt, als mit Dogmen, Tabus und Grundsätzen. Das können Menschen auch, wenn man sie lässt.

Nein. Wenn man Menschen ihre Dogmen, Tabus und Grundsätze wegnimmt, werden sie buchstäblich zu lallenden Idioten. Lallend deshalb, weil schon in unseren Sprachen Modellannahmen über die Welt enthalten sind, die falsch sein können. Deshalb tun wir uns z.B. mit dem Welle-Teilchen-Dualismus so schwer. Ohne Modellannahmen geht gar nichts, und wenn du den Menschen die wegnimmst, werden sie auf die Schnelle auf ältere, primitivere Modellannahmen zurückgreifen. Sie werden einfach die Fehler wiederholen, aus denen heraus die Grundsätze entstanden sind.

 

Natürlich müssen die Grundsätze weiterentwickelt werden. Aber doch nicht unbedingt am lebenden Objekt. Neue Medikamente werden auch nicht zuerst an echten Kranken ausprobiert, nur weil ein Pharmakologe eine neue Idee hat, wie sie wirken könnten.

 

Luftfahrt-Entdogmatisierungen entsprechend bitte erst in Modellrechnungen, am Simulator und später in Testflügen ausprobieren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Dem Menschen wird auch durch heftiges Nachdenken keine dritte Hand oder kein drittes Auge wachsen.

Aber der Mensch kann im Gehirn neue Neuronenverbindungen ausbilden, der Mensch kann Dinge lernen (z.B. ein Flugzeug zu fliegen...) was nie zu seinen Aufgaben in der bisherigen Evolution gehört hat. Ubd zwar ohne dass dazu ein höheres Wesen zu Rippe oder Lehm greifen müssten. Bei Computern muss dazu zunächst der Mensch eine neue Generation entwickeln und programmieren.

 

 

Bei so einer Aussage schwingt immer so ein bisschen die implizite Unterstellung mit, dass Menschen besser mit so einer Situation umgehen könnten.

Das kann er auch. Da ein Mensch die Situation als ganzes versteht, kann er durch Nachdenken mit seiner angeborenen Kreativität auf Lösungen kommen.

Der Computer "weiss" nicht, dass er ein Flugzeug fliegt, er "versteht" nichts von Aerodnamik. Er kann vorgefertigte Prozeduren abarabeiten, mehr nicht. Er kann weder improvisieren noch nach Alternativen suchen, die ihm nie vorher programmiert wurden.

Kein heute verfügbarer Computer hätte z.B. Flüge wie Unites 232 oder die OO-DLL gerettet. Mit den Lehren aus diesen Flügen kann man heute zukünftige Computer darauf vorbereiten, aber in einer weiteren neuen Situation wird er wiederum versagen, bis ihm auch diese von einem kreativen Menschen programmiert wurde.

Theoretisch kann der Computer / können die Systeme mehr als der Mensch, sie haben viel mehr alternative Daten zur Verfügung (z.B. die Rohdaten der Beschleunigungssensoren und Drehratensensoren oder des GPS), können viel mehr Wissen abrufen. Das Problem ist, auss all diesem "Wissen" und all den "Daten" eine Handlung herzuleiten. Die muss vorn einem Menschen vorgedacht ein einprogrammiert werden. In Kombination mit FBW kann der Computer theoretisch viel mehr als der Mensch (allerdings nur, weil der Computer dem Mensch nicht alles erlaubt...), er kann also z.B. symmetrische Querruderausschläge als Höhenruder benutzen, oder einseitige Spoiler mit gegeläufigem Querruder als Seitenruder. Wenn man es ihm den alles programmiert.

 

 

Ohne Modellannahmen geht gar nichts

Das allerdings trifft auf Menschen und Computer gleichermaßen zu. Und gar nichts würde ich jetzt nicht unterschreiben, aber definitiv keine komplexen Dinge. Die muss man vereinfachen, egal ob um sie für das Menschliche Hirn erfassbar, oder in Computeralgoritmen programmierbar zu machen.

 

 

Es wäre mal interessant zu sehen, ob ein Intelligenter Autopilot Trudeln ausleiten könnte, wenn er es vorher noch nie gesehen hat.

...

Aber auch nur im gleichen Sinne interessant, wie ob ein Mensch das könnte, der so was vorher noch nie gesehen hat.

 

Nein eben nicht, im Sinne von:

"wenn der Computer alles berechnen kann, also auch abgelöste Strömungen, kann er dann von allein durch pure Anwendung der simplen physikalischen Gesetze auf eine Lösung kommen, die der Intuition des Menschen widerspricht.

Wir haben gerade erst kürzlich wieder zwei letzte Photos von abstürzenden Flugzeugen, bei denen der Pilot im Trudeln das Höhenruder zieht (um die Nase wieder hochzubekommen...), das Querruder gegen die Trudelrichtung ausgeschlagen hat (um die Rollbewegung zu stoppen) und das Seitenruder neutral hat (weil man das ja ohnehin nie benutzt). Das ist ein typisch menschliches Fehlverhalten.

Würde man einen Autopiloten nun nicht so programmieren, dass er nur stur einfache Regelmechanismen ausführt, sondern würde man ihn komplexere Bewegungsgleichungen berechnen lassen, würde man ihn aus den AoA Daten korrekte Werte für die Ruderwirksamkeit berechnen lassen, dann könnte er theoretisch von sich aus auf die korrekten Maßnahmen kommen. Das wäre (eine entsprechende Flugerprobung zur Datenermittlung vorausgesetzt) heute bereits technisch machbar. Der Computer erfasst ganz nüchtern Daten wie AoA, Lage im Raum und Drehraten, und berechnet daraus mit den Gegebenen korrekten aerodynamischen Konstanten die bestmöglichen Ruderausschläge zur Korrektur. Der Computer "erschreckt sich nicht", den Computer beeindruckt es wenig, die Erde auf sich zurasen zu sehen, der Computer bleibt immer nüchtern in seinen Entscheidungen.

 

 

Was für einen Sinn hätte es, einen Computer Flugzeuge autonom steuern zu lassen, ohne sie vorher zumindest im Simulator bzw. mit Daten aus Trudeltest von kleineren Flugzeugen so etwas "gesehen lassen zu haben".

Weil er dann eben nur den Menschen nachmachen würde, statt nüchtern zu berechnen, was nun richtig ist. In einer Geschwindigkeit, die der Mensch nie erreichen wird.

Um Trudeln berechnen zu können, brauchst du im Prinzip nur die 360° Polare aller Profile mit allen Ruderausschlägen, die kannst du ermitteln, ohne je getrudelt zu haben.

Die Frage wäre nur, zu welchen "Steueralgoritmen" ein Computer käme, der stur die "physikalisch beste" Aktion in jeder Fluglage nutzen würde. Er würde vermutlich völlig anders steuern, als ein Mensch. Er würde vielleich auch auf "Züge" kommen, die kein Großmeister je machen würde.

 

Unter Piloten gibt es z.B. den legendären Boeing Push, ein Computer würde vermutlich noch mehr so "falsche" Steuertaktiken entwickeln, schlicht weil sie physikalisch zielführend sind, auch wenn sie dem Lehrbuch widersprechen.

 

 

Luftfahrt-Entdogmatisierungen entsprechend bitte erst in Modellrechnungen, am Simulator und später in Testflügen ausprobieren.

Das sollte für die Luftfahrt-Dogmen aber bitte genauso gelten. Hätten die Spanair Piloten in Madrid z.B. einfach mal das "nach V1 muss ich das Flugzeug unbedingt in die Luft würgen und crashen, auch wenn ich noch mehr als genug Piste voraus zum abbrechen habe" misachtet, wären 154 Menschen nicht gestorben.

"Heb ab! Los, heb ab! Scheiße." war nicht so weise wie "ich habe noch fast 1000m mehr Piste vor mir als ich für eine komplette Landung mit diesem Muster bräuchte, Scheiss auf V1, wir brechen ab"

 

So manches Dogma ist auch längst "am Simulator, in Testflügen" und in vielen Millionen echten Flügen widerlegt worden, und wird trotzdem weiter gelehrt...

 

Versteht mich nicht falsch, der Mensch im Cockpit ist nicht das alleinseligmachende, Computer und Systeme machen absolut Sinn, aber bitte vernünftig kombiniert und vernünftig miteinander verknüpft.

Die Stärken von Mensch und Maschine nutzen, nicht die Schwächen des einen auch auf den anderen übertragen.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Computer "weiss" nicht, dass er ein Flugzeug fliegt, er "versteht" nichts von Aerodnamik. Er kann vorgefertigte Prozeduren abarabeiten, mehr nicht. Er kann weder improvisieren noch nach Alternativen suchen, die ihm nie vorher programmiert wurden.

... aber in einer weiteren neuen Situation wird er wiederum versagen, bis ihm auch diese von einem kreativen Menschen programmiert wurde ... Die muss vorn einem Menschen vorgedacht ein einprogrammiert werden.

Neben einer ziemlich verklärten und überhöhten Sicht von dem was wir "Kreativität" nennen, hast Du offensichtlich keine Ahnung davon, wie moderne AI funktioniert und lernt.

 

Nur so viel: In den 80ern wären Deine Aussagen ansatzweise richtig gewesen - aber das ist über 30 Jahre her!

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

offensichtlich keine Ahnung davon, wie moderne AI funktioniert

Ich bezog mich weniger auf die interne Algoritmik, als auf das was der Computer mit dem Flugzeug machen kann. Das muss ein Mensch sich ausdenken und als Computer-Flugzeug-Interface explizit realisieren, hard- und softwareseitig.

Wie gesagt, wenn ich dem Computer ein komplettes physikalisches Modell des Flugzeugs gebe (Aerodynamik, Flugmechanik), kann er durchaus auf individuelle Lösungen kommen, auf die ein Mensch nicht käme. Und vermutlich auch schneller. Nur würde das im Prinzip eine völlig offene, unbeschränkte Schnittstelle zur Flugzeughardware benötgen, um diese Lösungen auch umzusetzen, und das wäre praktisch unmöglich auszutesten, und damit irgendwann mal zuzulassen.

Die beste Lösung zum Ausleiten von Trudeln könnte z.B. ein einseitiger Querruderausschlag sein (das andere neutral lassen), oder ein gegensinniger Höhenruderausschlag (rechts Höhenruder andersherum als linkes), oder beides, oder einseitig Umkehrschub. Gäbe man dem Computer völlig uneingeschränkten Zugriff auf jeden einzelnen Aktuator und jedes System im Flugzeug, hätter er mehr Möglichkeiten als ein Pilot, und würde vielleicht auch mehr Lösungen finden (wir könnten sie "kreativ" nennen). Vielleicht aber eben auch öfter mal versagen.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Autonomes Autofahren wird  als die bequeme und sichere Zukunftstechnologie angepriesen.   Ich glaube das nicht,  und registriere  gezielt Situationen im täglichen Straßenverkehr,  für die ein noch so schlauer Computer voraussichtlich   keine gute Lösung  parat hat, besonders dann nicht, wenn  herkömmlich gesteuerte  und   autonom gesteuertes Autos gleichzeitig unterwegs sind.

Zwei Beispiele:

Ich bin vorfahrtberechtig. Von recht  kommend will ein Fahrer  nach links abbiegen.  Ich erkenne, dass der Fahrer nur nach rechts guckt, also nie in meine Richtung und auch, dass es sich um einen weißhaarige alten Mann  handelt.  Alte Leute verunglücken eher durch Missachtung der Vorfahrt als durch leichtsinniges Überholen.  Also hielt ich  meinen Wagen an.  Der Mann fährt plötzlich los ohne  vorher in meine Richtung zu schauen.  Autonom gesteuert wäre mein Auto  dem Mann in die Seite gefahren.

Ich fahre mit meinem Wohnwagen  auf der Autobahn in Richtung Trento  und sehe, wie sich in einiger Entfernung  plötzlich die Bäume biegen.  Starke Böen,  sofort runter mit der Geschwindigkeit.   So kam ich gar nicht erst in die Situation ein schleuderndes Gespann   auf wieder Linie zu bringen.  Dass  ein zeitnah programmierter Computer diese Gefahr rechtzeitig erkennen wird  glaube ich nicht, und ein schleuderndes Gespann kann er  vermutlich auch nicht wieder einfangen.

 

Das Gehirn kann  aus der riesigen Fülle des  von den Augen  und anderen Sinnen wahrgenommenen genau das herausfiltern, was für die momentane Verkehrssituation bedeutsam ist und zusammen  mit  dem Regelwerk, Fachwissen und  allgemeiner  Erfahrung  zu  vernünftigen Handlungsoptionen verknüpfen,  ohne dass diese spezielle Situation  vorher schon mal vorgekommen ist.   

 

Erst wenn ganz vielleicht  in ferner Zukunft die Computer  das auch so können,und zwar ohne dass Programmierer versucht ihm alle möglichen Situationen vorzukauen ( was sowieso unmöglich ist)  sollte man von Künstlicher Intelligenz sprechen. Vorher nicht.

 

Gruß!
Hans

Bearbeitet von Hans Tobolla
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

wenn  herkömmlich gesteuerte  und   autonom gesteuertes Autos gleichzeitig unterwegs sind.

Das wird vermutlich die Erkenntnis nach ein paar Jahren sein, und dann werden herkömmlich gesteuerte Autos einfach verboten (In interesse des Kunden, denn der will ja autonome Autos...).

Wirklich funktionieren kann das System nämlich nur, wenn sich die Autos vernetzen und koordinieren, das wird so auch in den ganzen Werbekampagnen gezeigt. Das Endergebnis ist klar: wer sich nicht mitvernetzt, muss verschwinden.

In bestimmten Lufträumen machen wir das ja auch nicht anders. Transponderpflicht und Autopilotenplflicht.

 

 

Das Gehirn kann  aus der riesigen Fülle des  von den Augen  und anderen Sinnen wahrgenommenen genau das herausfiltern, was für die momentane Verkehrssituation bedeutsam ist und zusammen  mit  dem Regelwerk, Fachwissen und  allgemeiner  Erfahrung  zu  vernünftigen Handlungsoptionen verknüpfen,  ohne dass diese spezielle Situation  vorher schon mal vorgekommen ist.   

Wenn man sieht, wie gut Google inzwischen sowohl Tip- als auch Logikfehler erkennt, und einem tatsächlich zeigt was man gesucht hat, nicht was man eingetippt hat, dann werden Computer wohl auch zeitnah Situationen als ähnlich erkennen, obwohl sie diese spezielle Situation noch nie erlebt haben. Wenn ich mir allerdings angucke, was einem Amazon & Co unter "wer dies gekauft hat, hat auch das folgende gekauft" so anzeigt, dann frage ich mich wie komplex und fehleranfällig das System ist (wenn z.B. ein Kunde eine CD für sich und eine für seine Oma zusammen bestellt hat...)

Und was die Gesichtserkennung meiner Kamera alles als Gesichter erkennt, dient eher der Erheiterung, als besseren Photos. Verkehrsschilder und Mülleimer (diese hängenden an Laternenpfählen) sind für sie meist Gesichter :) 

Ob die Trefferquote dabei jemals in die Größenordnung dessen kommt, was Menschen zu leisten imstande sind, kann ich nicht beurteilen. Ich kann mir jedenfalls kaum vorstellen, dass es derzeit an der Leistungsfähigkeit der Computer scheitert, und daher nicht erwarten, dass dieses Problem zeitnah gelöst wird.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

 

Also hielt ich meinen Wagen an. Der Mann fährt plötzlich los ohne vorher in meine Richtung zu schauen. Autonom gesteuert wäre mein Auto dem Mann in die Seite gefahren.

Es gibt auf YouTube Videos wo Teslas Situationen ausweichen, wenn das stimmt extrem beeindruckend und die Mehrheit der Fahrer wäre reingefahren.

Ansonsten kann das ESP auch durch individuelle Bremsansteuerung schleudern ausgleichen was ein Fahrer nicht kann.

Generell ist man auch nicht ständig 100 prozentig konzentriert wie ein Rennfahrer, allein das macht viel aus.

 

 

 

Ingo

Link zu diesem Kommentar
Auf anderen Seiten teilen

Neben einer ziemlich verklärten und überhöhten Sicht von dem was wir "Kreativität" nennen, hast Du offensichtlich keine Ahnung davon, wie moderne AI funktioniert und lernt.

 

Nur so viel: In den 80ern wären Deine Aussagen ansatzweise richtig gewesen - aber das ist über 30 Jahre her!

 

…keine Ahnung davon wie moderne AI funktioniert und lernt…  Und wie lernt denn so eine AI-Maschine?  Einfach so ins Blaue? Mal dies und  mal das mit zufälligen Verknüpfungen, weit entfernt von der Realität?

 Lernen ohne ein Curriculum führt letztlich zu einem Misserfolg. 

Florian, wenn du hier  dem Ralf unterstellst, dass er offensichtlich keine  Ahnung davon hat, dann wäre es wünschenswert  für uns Ahnungslosen für etwas mehr Ahnung zu sorgen, wenigstens als grober Überblick.

 

Also, wie ist das mit dem Curriculum?

 

Gruß!

Hans

Bearbeitet von Hans Tobolla
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Ansonsten kann das ESP auch durch individuelle Bremsansteuerung schleudern ausgleichen was ein Fahrer nicht kann.

Das wäre dann in etwa so, wie wenn der Computer am Flugzeug jede Steuerfläche individuell ansteuern könnte. Vielleicht eine bisher unbekannte Möglichkeit, Trudeln effezienter auszuleiten. Oder bei Ausfall von Systemen weiter steuern zu können.

Wobei natürlich auch das ESP an die Gesetze der Physik gebunden ist, und den Grip der Reifen nicht beeinflussen kann. Wenn der Fahrer es geschafft hat, das Fahrzeug bis an die physikalischen Grenzen zu bringen (z.B. 100% der Seitenführungskraft auszunutzen) hat auch das ESP keinen Spielraum mehr um sinnvoll einzugreifen. Deshalb greift es viel früher ein, als die tatsächliche physikalische Grenze wäre, was wiederum manchmal genau den Unterschied zwischen gerade noch am Brückenpfeiler vorbei gedriftet und sauber reingefahren sein kann.

Autos mit ABS haben ja auch einen längeren Bremsweg. Es gibt also immer Situationen, wo es kontraproduktiv ist, wo ein guter Fahrer mehr machen könnte. Aber ein guter Fahrer kommt ja nie in so Situationen ;) 

Und die aktuelle Generation ESP ist wohl auch noch mal besser geworden, und kann inzwischen auch mit Anhängern umgehen (da hat die erste Generation nämlich noch schwer versagt).

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die UBS hat sich nun auch dem Thema angenommen, ich zitiere: 

Commercial jets already take off and land using their on-board computers, and several other in-flight functions are performed or confirmed by computers.

Seit wann gibt es nebst Autoland auch Autostart? Das wäre mir neu.

The technology to remotely control military drones already exists, and this technology could be adapted to control civil applications, such as helicopters, general aviation, small to medium-sized business jets and, eventually, commercial aviation (particularly for segments under seven hours).

Genau, mit umwerfendem Erfolg. Da muss noch sehr viel passieren, auch wenn die Redundanz auf das Level eines Airliners gehoben wird. 

There is also a limit of 100 flight hours per 28-day cycle and 900 flight-hours per fiscal year, so pilotless flight would enable increased aircraft utilisation, given no human flight-time element to uphold.

Ich bin mir ziemlich sicher, dass Flugzeuge jährlich wesentlich mehr Flugstunden machen wie ihre Piloten. Bei Billigairlines nämlich ziemlich genau so viel, wie von der Wartung her möglich. 

Potential for pilot error would be removed, along with decisions that at times may be led by emotions. Furthermore, pilotless flight avoids the situation where a pilot of a commercial flight is incapacitated or may not be able to perform their duties.

...

We see an opportunity to reduce the aviation sector’s insurance premium costs by hundreds of millions of dollars.

...

However, we think, with the introduction of pilotless planes, there could be a further improvement in safety, given that the majority of accidents are due to human error.

An die Airline-Piloten hier: Wie oft müsst ihr den Flieger retten, weil irgend ein Computer zickt?

The technologies in development today will enable the aircraft to assist and back up the pilot in all the flight phases, removing the pilot from manual control and systems operations in all types of situations.

Die UBS kommt zu einem schärferen Fazit wie die Flightforum-Diskussion. 

In our view, the limiting factors are passengers' perceptions per se, combined with regulatory and union constraints, rather than technology.

Aha, die Zertifizierung ist also das Problem. Wie das sehr gut funktionierende bestehende System ohne Sicherheitseinbussen ersetzt werden soll, wird nicht erwähnt.  

With an existing fleet of 21,000 civil helicopters worldwide on jetnet data, assuming 1.5 pilots per craft at $100,000 annual salary, this would ultimate save $2.1bn if pilots were removed totally. If we restrict this to the twin helicopters (c.8,800 fleet) then the "pilotless" benefit to the industry would be $0.6bn (one pilot at c.$60,000).

Super, die REGA fliegt zukünftig also auch ohne Piloten!

Perhaps, airlines might also add an extra flight attendant from the perspective of passenger health and safety

Wer braucht schon Piloten, wenn er Tomatensaft haben kann?

Bearbeitet von Lausig
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

 

Autos mit ABS haben ja auch einen längeren Bremsweg. Es gibt also immer Situationen, wo es kontraproduktiv ist, wo ein guter Fahrer mehr machen könnte.

Der Durchschnittsfahrer tritt im Schreck noch nicht mal voll auf die Bremse.

Deswegen bremsen neue Autos selbst voll wenn man schnell auf die Bremse tritt.

 

 

Ingo

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich erkenne, dass der Fahrer nur nach rechts guckt, also nie in meine Richtung und auch, dass es sich um einen weißhaarige alten Mann  handelt. Der Mann fährt plötzlich los ohne  vorher in meine Richtung zu schauen.  Autonom gesteuert wäre mein Auto  dem Mann in die Seite gefahren.

Das mit der Bilderkennung von im Auto sitzenden Fahrern ist in der Tat im Moment nochb schwierig. Was der Computer im Tesla aber heute schon routinemäßig erfasst ist die Geschwindigkeit aller Autos um ihn herum - und das einige duzend male pro Sekunde. Er erkennt also viel genauer als jeder Mensch, ob der ältere Herr zögerlich auf die Kreuzung zufährt, oder zügig und kann aus dem Fahrverhalten genau so Vorhersagen dazu machen, ob jemand die Vorfahrt missachten wird - jemand der das tut wird nämlich typischerweise in einiger Distanz vor der Kreuzung langsamer, aber nicht ganz abbremsen, etc

 

und ein schleuderndes Gespann kann er  vermutlich auch nicht wieder einfangen.

Der Computer in vielen Autos (auch im Tesla) kann heute schon einzelne Räder gezielt beschleunigen und abbremsen und hat somit ganz andere Möglichkeiten, Schleudern zu verhindern oder zu beenden.

Zudem wird ein solches System sich zwar heute wahrscheinlich nicht wie Du an den Bäumen orientieren können, aber verfolgt die Bewegung der Autos vor ihm - und "weiss" deswegen auch, dass vorne Seitenwind ist.

Und selbst wenn nicht, dann erkennt der Computer eine plötzlich auftretende Bö immer noch viel schneller als ein Fahrer und leitet sofort die richtigen Gegenmassnahmen ein.

Gerade verhindern von Schleudern ist schon sehr lange eine Domäne der Computer im Auto und die tun das viel besser, als es je ein Mensch könnte.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

An die Airline-Piloten hier: Wie oft müsst ihr den Flieger retten, weil irgend ein Computer zickt?

Das ist eine völlig irrelevante Frage: Kein Mensch behauptet, dass man mit der Technik die heute in Flugzeugen eingebaut ist diese autonom fliegen lassen kann. Nur weil heutig verwendete TEchnik nicht für höchtverfügbarkeit ausgelegt ist, bedeutet das nicht, dass das nicht geht.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

…keine Ahnung davon wie moderne AI funktioniert und lernt…  Und wie lernt denn so eine AI-Maschine?  Einfach so ins Blaue? Mal dies und  mal das mit zufälligen Verknüpfungen, weit entfernt von der Realität?

...

Also, wie ist das mit dem Curriculum?

Am Ende lernen moderne AI-Systeme ähnlich wie Menschen: Durch zuschauen und ausprobieren.

 

Erster großer Unterschied ist, dass Computer viel besser im Zuschauen sind. Genau genommen macht es für sie nämlich keinen Unterschied, ob sie eine Bedienungseingabe selber gemacht haben oder jemand anders das für sie tat. Im Gegensatz zu Menschen brauchen sie also nicht selber eine Stall-Recovery gemacht zu haben, sondern es ist genau so wertvoll, wenn sie das bei einem anderen Flug "gesehen" haben, also sämtliche Sensordaten und Steuereingaben vorliegen haben.

 

Zweiter großer Unterschied ist die schiere Menge an Erfahrung: Wenn wir systematisch in Allen Flugzeugen die Sensordaten erfassen (die Daten aller Fluglagesensoren und der wesentlichen Steuerelemente wird ja ohnehin für den FDR aufgezeichnet), dann entsteht ein Datensatz von vielen hunderttausend Flugstunden pro Jahr. Das ist viel mehr, als Menschen in ihrem Leben an Erfahrung sammeln können. Stell Dir einfach vor, was wir von einem Piloten denken würden, der 100.000 Flugstunden Erfahrung hat - inkl. Übrigens aller fatalen Flugunfälle der letzten 20 Jahren. Also ein Pilot, der nicht nur Unfallberichte gelesen hat, sondern bei allen diesen Unfällen echt dabei war und daraus lernen konnte...

Ausserdem können AIs natürlich auch viel mehr im Simulator trainieren, als es menschlichen Piloten möglich ist.

 

Was Curriculum betrifft ist es natürlich ganz ähnlich wie bei Menschen: Wie schon weiter oben geschrieben kann man auch von einem Computer der noch nie so etwas wie Stall gesehen hat erwarten, dass er bei einem real auftretenden Stall richtig reagiert (unabhängig von der Frage, ob es einem Computer überhaupt passiert, in so eine Situation zu kommen). Deswegen muss man im "curriculum", also bei der Zusammenstellung der Daten, die man dem Computer gibt, darauf achten, dass alle Betriebszustände hinreichend abgebildet sind.

 

Schliesslich müssen wir uns auch immer wieder vergegenwärtigen, was die Messlatte ist: Ich finde ja Menschen im allgemeinen und Piloten im Speziellen auch super toll. Aber weder die einen noch die anderen sind wirklich gut darin, mit unbekannten Situationen umzugehen. Es ist ja nicht so, dass 1. alle Piloten herausragende Aerodynamik-Experten sind (es soll sogar welche geben, die Aerodynamik-Theorie gelernt haben in dem sie sich merkten, dass die Antwort auf Frage 23 "b" ist) und 2. selbst die Aerodynamik-Experten unter den Piloten in ungewohnten Fluglagen erst mal den Rechenschieber rausholen.

Es sind oft extrem simple Reaktionsmuster die menschliche Piloten in solchen Situationen anwenden. Wenn sie funktionieren ist alles gut, wenn sie nicht funktionieren, können die Piloten auch nix ausrichten. AF ist da ein gutes Beispiel für.

 

Das der Computer noch besser sein kann, wenn er Zugriff auf individuelle Aktuatoren hat, ist sicher richtig. ABer um genau so gut zu sein wie ein Menschlicher Pilote (nur ohne die zufälligen Fehler) braucht er das gar nicht.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Perhaps, airlines might also add an extra flight attendant from the perspective of passenger health and safety

Kleine Anekdote zu Stewardessen, Health & Safety, and die sich nur noch die Veteranen in den Behörden erinnern (wollen)...

Als in den 60ern die Druckkabinen aufkamen, machten sich die Behörden Gedanken über Dehydrierung, und wollten eine Mindestluftfeuchtigkeit vorschreiben (was richtig Geld gekostet hätte).

Die Airlines haben sich daraufhin in einer freiwilligen Selbstverpflichtung bereit erklärt, den Passagieren kostenlos und unbeschränkt Getränke zur Verfügung zu stellen, und die Behörden haben sich auf den Deal eingelassen. Wie bei jeder freiwilligen Selbstverpflichtung der Industrie ist die dann nach und nach in Vergessenheit geraten... Hauptsache es wurde nicht überreguliert.

 

 

Der Durchschnittsfahrer tritt im Schreck noch nicht mal voll auf die Bremse.

Deswegen bremsen neue Autos selbst voll wenn man schnell auf die Bremse tritt.

Deshalb hatte ich schon beinahe einen Unfall, und deshalb "lerne" ich bei jedem neuen Auto sehr schnell, bis wohin die Bremse mir gehört, und ab wann dem Auto. Und vermeide penibel je mehr zu Bremsen, als das Auto mir erlaubt. Ich bemse heute viel vorsichtiger als ich es frühe je getan habe. Für mich ist das ein klassisches Beispiel für Überkompensation.

Die Rechtslage ist übrigens unklar, wenn mir bei einer unberechtigten Vollbremsung (100% Menschlich) jemand drauf fährt, habe ich mindestens mal Teilschuld, wenn nicht gar die volle Schuld. Wenn mein System unberechtigt Vollbremst, weil ich mal kurz gezuckt habe, wer haftet? Der Autohersteller vemutlich nicht...

 

 

Nur weil heutig verwendete Technik nicht für Höchtverfügbarkeit ausgelegt ist, bedeutet das nicht, dass das nicht geht.

Wo ist technologisch die Grenze? Kommerziell verfügbare Sensoren haben selten eine MTBF jenseits der 200.000 Stunden, d.h. statistisch zickt in jedem dritten bis vierten Flugzeug ein verbauter Sensor. Da man hunderte davon hat, erlebt man in einem durchschnittlichen Flugzeugleben 20-40 Sensorausfälle. In der Praxis gerne auch noch ein paar mehr...

Die Bedingungen im Flugzeug (Temperaturschwankungen von > 100°C, Druckschwankungen von 0.7 bar, Kondensation, Frost... 50.000 mal im Leben) killen jeden derzeit kommerziell verfügbaren elektromechanischen Sensor früher oder später. Und Redundanz durch mehr Sensoren bedeutet zunächst mehr Sensorfehler, die erkannt werden wollen. Nicht jeder Sensor versagt vorhersag- und erkennbar. Nicht jeder Sensor versagt komplett und ständig. Nicht jeder Sensorfehler ist im Labor nachvollziehbar. Sporadische Fehler sind das tägliche Brot von Piloten und Mechanikern.

Es ist weniger das "Gehirn", es sind vor allem die "Augen" der Computer die noch eine Menge Verbesserung erfahren müssen. Natürlich geht es, aber zu welchem Preis? In der Raumfahrt werden die Sensoren in Gold aufgewogen (wenn das überhaupt reicht...) und doch versagen noch welche, bei oft nur einem einzigen Flug Lebensdauer! Was tatsächlich geht ist wohl schwer zu sagen.

 

 

um genau so gut zu sein wie ein Menschlicher Pilote (nur ohne die zufälligen Fehler) braucht er das gar nicht.

Die zufälligen Fehler sind aber doch genau der Grund, warum wir noch Piloten haben.

Würde nie was schiefgehen, könnten sehr simple Computer die Flugzeuge fliegen.

 

 

Erster großer Unterschied ist, dass Computer viel besser im Zuschauen sind.

Jein, Einigen wir uns darauf, dass Computer sehr viel schärfer im Zentrum sehen. Sie haben aber kein peripheres Sehen, sie können bestimmten Dingen perfekt zusehen, besser als jeder Mensch, übersehen aber andere komplett.

 

 

Im Gegensatz zu Menschen brauchen sie also nicht selber eine Stall-Recovery gemacht zu haben, sondern es ist genau so wertvoll, wenn sie das bei einem anderen Flug "gesehen" haben, also sämtliche Sensordaten und Steuereingaben vorliegen haben.

Auch einem Menschen kann man mit einem Schulungsvideo Dinge beibringen.

Ein Computer der bei vielen Flügen "gesehen" hat, wie ein Pilot bei einsetzender Stallwarnung Vollgas gegeben hat, und unter Verlass auf alpha Protection Lehrbuchmäßig durch Ziehen den Höhenverlust minimiert oder wenn möglich jeglichen verhindert hat, wird einen echten Stall nicht recovern können, weil er einfach nicht ins gelernte Muster passt. Ein Pilot der immer nur die selbe Standard-Stallrecovery Prozedur im Computer geübt hat, ist in dieser Hinsicht auch nicht besser als ein Computer.

Deshalb halte ich Computer die ein komplettes aerodynamisches und flugmechanisches Modell des Flugzeugs haben und die bestmögliche Reaktion errechnen auch für besser geeignet, als solche die mit AI nur Piloten nachahmen. Denn im akkurat berechnen sind Computer viel besser und unendlich viel schneller als Menschen. Man braucht nicht zu "lernen" ein Flugzeug zu fliegen, wenn man in der Lage und schnell genug ist, zu berechnen welche Steuereingabe zu der gewünschten Flugbahn führt.

Das Problem dabei ist, dass du extrem gute Spezialisten in Aerodynamik/Flugmechanik, Flugsteuerung und im Programmieren dazu brauchst, am besten auch noch ein erfahrener Pilot. Ein AI Spezialist ist universeller, und vermulich einfacher zu finden.

 

 

Es ist ja nicht so, dass 1. alle Piloten herausragende Aerodynamik-Experten sind (es soll sogar welche geben, die Aerodynamik-Theorie gelernt haben in dem sie sich merkten, dass die Antwort auf Frage 23 "b" ist) und 2. selbst die Aerodynamik-Experten unter den Piloten in ungewohnten Fluglagen erst mal den Rechenschieber rausholen.

Es sind oft extrem simple Reaktionsmuster die menschliche Piloten in solchen Situationen anwenden. Wenn sie funktionieren ist alles gut, wenn sie nicht funktionieren, können die Piloten auch nix ausrichten. AF ist da ein gutes Beispiel für.

​Exakt. Aber man kann (wenn man den will) Piloten darauf trainieren. Die menschliche Hardware ist dazu geeignet (bzw. es gibt genügend menschliche Hardware mit einem dafür geeigneten Betriebssystem), man muss sie nur auswählen und es wollen.

90% der Piloten haben die Aerodynamik des Stalls nicht voll verstanden. 90% der Piloten halten den Stall für ein Geschwindigkeitsproblem ("zu langsam"). Selbst in Unfallberichten heisst es dann "Unterschreiten der Mindestgeschwindigkeit".

 

Piloten nur auf simple Reaktionen zu trainieren ist wie Computer zu installieren, es funktioniert in 99% der Fälle. Zum Glück haben viele Menschen mehr als nur das Standardminimum installiert, die retten dann weitere 0.999% der Fälle, den Rest kann man in der Statistik nachlesen.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

 

Deshalb hatte ich schon beinahe einen Unfall, und deshalb "lerne" ich bei jedem neuen Auto sehr schnell, bis wohin die Bremse mir gehört, und ab wann dem Auto. Und vermeide penibel je mehr zu Bremsen, als das Auto mir erlaubt.

Wegen beinahe Unfällen gibt es das System nicht, sondern sicher weil es Untersuchungen gibt, daß zu wenig gebremst wird.

So ein System wird sicher von den Zulassungsbehörden überprüft,

sollten die Diesel zwar auch...

 

Ingo

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Airlines haben sich daraufhin in einer freiwilligen Selbstverpflichtung bereit erklärt, den Passagieren kostenlos und unbeschränkt Getränke zur Verfügung zu stellen, und die Behörden haben sich auf den Deal eingelassen. Wie bei jeder freiwilligen Selbstverpflichtung der Industrie ist die dann nach und nach in Vergessenheit geraten... Hauptsache es wurde nicht überreguliert.

Und? In allen Airlines in denen ich fliege gibt es (in allen Klassen) kostenlos und unbeschränkt Getränke. Übrigens auch bei Ryanair und Co. so weit ich weiss. Wenn Du zum FA gehst bekommst Du auch dort kostenlos Wasser.

Kommerziell verfügbare Sensoren haben selten eine MTBF jenseits der 200.000 Stunden, d.h. statistisch zickt in jedem dritten bis vierten Flugzeug ein verbauter Sensor. Da man hunderte davon hat, erlebt man in einem durchschnittlichen Flugzeugleben 20-40 Sensorausfälle. In der Praxis gerne auch noch ein paar mehr...

 

Menschliche Piloten haben auch eine MTBF deutlich unter 200.000 Flugstunden - und?

 

Zudem ist die Argumentation mit den Sensoren grundfalsch: Auf die sind nämlich Menschen genau so angewiesen, wie die Computer. Nachts bei Neumond über dem Atlantik ist nämlich nicht mehr viel mit menschlichen Sinnen was Dir beim Fliegen helfen würde. Der Computer hat gerade in diesem Zusammenhang sogar einige signifikante Vorteile:

1. Er bemerkt Sensorfehler oder zumindest Inkonsistenzen viel schneller als Menschen. Während beim langsamen Abkippen des primären AI zum Beispiel wir Menschen noch in der "irgendwas stimmt nicht"-Phase sind, aht der komuter schon langs die differenzen zwischen verschiednenen Attitude-Sources entdeckt und auf Basis aller verfügbaren Daten entschieden, welche am wahrscheinlichsten korrekt ist

2. Computer glauben nicht, dass ihr "Gefühl" besser wäre, als Sensordaten. Menschen haben nachgewiesenermassen kein Gefühl das ihnen irgendwie dabei helfen würde, in IMC zu fliegen.

3. Computer können auf deutlich feinere Veränderungen reagieren.

 

Es ist kein Wunder, dass selbst heutige ziemlich rudimentäre Autopiloten jedes ILS (auch bei Wind und Wetter) deutlich präziser runter fliegen, als menschliche Piloten.

Es ist ein (von manchen interessierten Kreisen) gut gepflegter Mythos, dass Starten eines Flugzeuges so viel schwieriger wäre als Landen, dass Computer das nicht können. Die sehr banale Wahrheit ist, dass zum Einen vor GPS die Richtungshaltung am Boden tatsächlich schwieriger war, als mit dem ILS in der Luft, zum Zweiten die Notwendigkeit zur Entwicklung eines ILS-artigen Systems für den Start nie als besonders notwendig gesehen wurde, weil man ja im Zweifellsfall am Boden bleiben kann und zum Dritten so lange ohnehin Piloten an Bord sind man diese ja auch zum straten nutzen kann.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

Zunächst müsste man mal sauber definieren, was "Intuition" eigentlich meint. Eine der Hauptsrömungen würde so etwas sagen, wie: "Intuition ist eine Art der Entscheidungsfindung, bei dem sich der Entscheidende keines kognitiven Prozesses der zu dieser Entscheidung geführt hat bewusst ist".

Das Schlüsselwort solcher Definitionen ist "bewusst". Wir wissen heute, dass die Prozesse im Gehirn bei als intuitiv empfundenen Entscheidungen nicht wesentlich anders sind, als bei kognitiven Entscheidungen. Daher ist das eine sehr subjektive Kategorisierung.

 

Da Computer kein Bewusstsein haben, kann es zumindest in dieser Definition keine Intuitiven Entscheidungen des Computers geben.

 

Florian

Hallo Florian,

 

müsste es nicht heissen:

 

Da Computer kein Bewusstsein haben, sind zumindest in dieser Definition alle musterbasierten Entscheidungen des Computers intuitiv.

 

Denn der Computer könnte nicht erklären, wie er zu einer Entscheidung gekommen ist. Und sowohl der Mensch als auch das neuronale Netz bzw. die musterklassifizierende KI werden in ihrer Entscheidungsfindung von etwas getriggert, das man als "Gestalt" umschreiben kann.

 

http://in-housestaff.org/but-what-is-gestalt-really-626

 

https://www.degruyter.com/downloadpdf/j/ndm.2013.1.issue/ndm-2014-0001/ndm-2014-0001.xml

Bearbeitet von Dierk
Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Es ist ein (von manchen interessierten Kreisen) gut gepflegter Mythos, dass Starten eines Flugzeuges so viel schwieriger wäre als Landen, dass Computer das nicht können.

Das wichtigste am Starten ist die Entscheidung über einen Startabbruch, und da tut sich ein Computer schwer. Bei der Entscheidung zum Durschstarten übrigens auch.

Ansonsten ist der Übergang von Bugradsteuerung auf Seitenrudersteuerung und das Vorhersehen des Flugzeugverhaltens bei Seitenwind (der Computer fängt erst an zu korrigieren, wenn es tatsächlich eine Abweichung gibt) nicht ganz trivial. Einen Schönwetterstart ohne Störungen kann manches gut ausgetrimmte Flugzeug sogar komplett selbstständig, ganz ohne Autopilot...

 

 

Zudem ist die Argumentation mit den Sensoren grundfalsch: Auf die sind nämlich Menschen genau so angewiesen, wie die Computer. Nachts bei Neumond über dem Atlantik ist nämlich nicht mehr viel mit menschlichen Sinnen was Dir beim Fliegen helfen würde. Der Computer hat gerade in diesem Zusammenhang sogar einige signifikante Vorteile:

1. Er bemerkt Sensorfehler oder zumindest Inkonsistenzen viel schneller als Menschen. Während beim langsamen Abkippen des primären AI zum Beispiel wir Menschen noch in der "irgendwas stimmt nicht"-Phase sind, aht der komuter schon langs die differenzen zwischen verschiednenen Attitude-Sources entdeckt und auf Basis aller verfügbaren Daten entschieden, welche am wahrscheinlichsten korrekt ist

2. Computer glauben nicht, dass ihr "Gefühl" besser wäre, als Sensordaten. Menschen haben nachgewiesenermassen kein Gefühl das ihnen irgendwie dabei helfen würde, in IMC zu fliegen.

3. Computer können auf deutlich feinere Veränderungen reagieren.

Es gibt genügend Unfälle die exakt auf dieses Problem zurückzuführen sind.

Ja, Computer registrieren früher und genauer wenn redundante Sensoren driften/ausfallen, aber sie tuen sich schwer damit zu verstehen, welcher der Sensoren nun defekt ist, und welcher OK.

Es ist natürlich eine Frage der Programmierung, viele Systeme benutzen da heute noch extrem simple Algoritmen, und geben im Zweifelsfalle einfach an den Piloten ab. Der dann natürlich auch ohne zuverlässige Daten dasteht...

Oft kann ein Pilot mit seiner Erfahrung und einem guten Systemverständnis aber herausfinden, ob es sich um einen Sensorfehler, oder um ein Systemproblem handelt.

 

Wenn ein Turboprop noch sauber geradeaus fliegt und bei völlig normalem Motorengeräusch gut steigt, dann legt er in Bodennähe kein Triebwerk still, nur weil die Torqueanzeige plötzlich Null ist.

Dafür legt er aber das andere still, weil er was verwechselt, ist also natürlich auch nicht perfekt...

Aber er macht andere Fehler, und exakt deshalb macht es viel Sinn Mensch und Computer gemeinsam fliegen zu lassen, um die Stärken zu kombinieren und die Schwächen zu kompensieren. Das wir die Schnittstelle noch optimieren können, steht ausser Frage. Von Mensch und Maschine zu erwarten, dass sie beide das Triebwerk stillegen (der eine stellt die FADEC ab und autofeathert, der andere sperrt die Spritzufuhr ab und trennt alle Systeme), ist zum Beispiel keine gute Idee, denn nur so kann passieren, dass man beide Triebwerke stillegt.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Durchschnittsfahrer tritt im Schreck noch nicht mal voll auf die Bremse.

......................

 

Ingo

Davon habe ich auch schon öfters gelesen, kann es aber immer noch nicht nachvollziehen. Wie kann man sehenden Auges auf eine Kollision mit einem Hindernis, oder gar eine Person zu fahren, ohne das Bremspedal voll zu treten. Also ganz offensichtlich nicht die Korreltaion zwischen Bremsdruck und Bremsweg verinnerlicht zu haben. Darf man solche Menschen überhaupt ans Steuer lassen?

 

Ich gehe bei meiner Betrachtung jetzt nur von Ausgangsgeschwindigkeiten bis 100 km/h aus. Voll- oder Notbremsungen aus deutlich höheren Geschwindigkeiten haben die wenigsten schon mal erlebt, weil man das auf öffentlichen Straßen gar nicht gefahrlos trainieren kann. Da ist dann leider das erste Mal auch gleich der Ernstfall, mit ungewissem Ausgang.

 

Gruß

Manfred 

Bearbeitet von DaMane
Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...