Zum Inhalt springen

KI [ Künstliche Intelligenz ] > Segen oder Fluch !?


Empfohlene Beiträge

Geschrieben (bearbeitet)

Das Thema KI der Künstlichen Intelligenz gewinnt in unserer Gesellschaft immer mehr an Aufmerksamkeit.

 

Kaum eine Software, die nicht die Integration von KI erwähnt.

 

ChatGPT von OpenAI kennt fast ein jeder als derzeitigen Marktführer auf dem Gebiet der Künstlichen Intelligenz.

 

Irgendwie kommen wir nicht Drumherum, zumindest über den Begriff der KI zu stolpern.

 

Wo liegen die Chancen, wo liegen die Abgründe !?

 

Brauchen wir als Menschheit KI oder sollten wir nicht unsere individuellen Begabungen und Fähigkeiten nützen und uns aus eigener Kraft und aus eigenem Antrieb heraus stets intellektuell und ethisch weiterentwickeln !?

 

Ist die KI für uns ein Segen oder ein Fluch !?

 

Gregor


 

Bearbeitet von sharkbay
Formulierung
Geschrieben


Gregor

 

Geschrieben (bearbeitet)

Hier mal eine Stellungsname von ChatGPT zu bereits aktuell erfolgen Anwendungen von K.I.-Technologie im Bereich "Counterterrorism" laut Bericht des United Nations Interregional Crime and Justice Reseach Institute:

 

Zitat

 

The report highlights several real-world applications of AI in counter-terrorism, with a focus on online activities:

  1. Predictive Analytics: AI helps detect potential threats by analyzing social media and other digital footprints. This is done through natural language processing (NLP) and social network analysis (SNA).
  2. Automated Content Moderation: AI is already used for removing extremist content online, such as with Facebook’s removal of 26 million pieces of content.
  3. Detecting Radicalization: AI tools help flag early signs of radicalization, assisting authorities in identifying individuals at risk.

These approaches have been implemented to assist law enforcement in South and Southeast Asia

 

 

UNICRI :: United Nations Interregional Crime and Justice Research Institute (Webseite)

 

Bericht

Bearbeitet von Dierk
Geschrieben

Wenn "die K.I." verhindert, dass wir uns in einen neuen großen Krieg - u.U. mit Nukes - begeben, dann wäre das m.E. ein guter Einstieg für jene in unseren Alltag!

 

Gruß

Johannes

Frank Holly Lake
Geschrieben (bearbeitet)

Der Geist ist aus der Flaschen, ähnlich wie bei der Atombombe.

 

Die Firmen wollen das einsetzen um Personal einzusparen, damit auch Kosten.

Das geht von Callcentern über Auskunftsdienste bis hin zur Autopiloten im Auto

(Hindernisserkennung) und am Ende auch Autofahren ohne Fahrer, Fliegen ohne Piloten.

 

Kommt, ist eine nur Frage der Zeit.  Es ist der nächte Schritt in die Zukunft.

Ob wir das mögen oder nicht.

 

Die  Frage ist wie gefährlich das werden kann?

Thema Krieg und Kampfmaschienen lasse ich mal aus, wird aber sicher ein großes Feld werden,

weil da viel Geld drin steckt. die Inteligent Bombe / Waffe / Killermaschine

 

Man sieht ja schon die Auswikungen bei Banken in punkto Kreditvergabe.

Wer nicht 100% dei richtigen Häckchen macht, wird abgelehnt.

Die  SW kann schon Lügen in der Aussprache erkennen, ganz ohne die Minik erkennen zu müssen.

Schlimm, wenn dass bei Bewerbungen eingesetzt wird.

Alle großen Firmen (welche Geld haben) werden das in Zukunft einsetzten.

Und niedig bezahlte Jobs mit wenig Skills werden sicher damit wegrationalisiert werden.

 

Just my 2 Cents  Frank

Bearbeitet von Frank Holly Lake
  • 1 Monat später...
Geschrieben
Am 18.9.2024 um 19:53 schrieb sharkbay:

Ist die KI für uns ein Segen oder ein Fluch !?

 

KI ist nicht wie ein Kätzchen das sich völlig selbständig mit Energie versorgt in dem es Mäuse fängt, KI braucht irgend welche Computer und Rechenzenter auf denen es läuft. Und deren Inhaber stellen die Infrastruktur nicht gratis zur Verfügung, sondern stellen naheliegender Weise auch Forderungen wodurch KI zu einem Werkzeug und Machtinstrument für Reiche und Mächtige wird. Ein Machtinstrument gegen wen?

 

 

Dabei weiss man seit dem Milgram-Experiment dass es mehrheitlich nicht gut kommt wenn der Entscheidungsträger mit den negativen Folgen seiner Entscheidungen nicht wirklich auseinander setzen muss.

 

KI ist zur Zeit vielleicht gut vergleichbar mit einer sogenannten "sozialen Palttform" welche viele Jungen zur Zeit verwenden. Und dann infomiert man sich mal über die Zensuralgorithmen die im Hintergrund laufen wie z.B. Shadow Banning.

https://de.wikipedia.org/wiki/Shadowban

https://en.wikipedia.org/wiki/Shadow_banning

Dass solche Algorithmen bei manchen Hass schüren und für andere die Plattform zu einer Echokammer werden kann ist naheliegend.

 

Des weiteren braucht KI Strom, viel Strom.

https://www.srf.ch/news/dialog/big-data-ki-verschlingt-zu-viel-energie-techgiganten-setzen-auf-kernkraft

Wer bezahlt am Ende die Stromrechnung?

Und wo sind hier der Widerstand der Linken und Grünen wenn es um den Bau von Aktomkraftwerken für KI geht?

 

Gruss

Fridolin

 

Geschrieben (bearbeitet)
vor 6 Stunden schrieb Suricato:

Wer bezahlt am Ende die Stromrechnung?

Und wo sind hier der Widerstand der Linken und Grünen wenn es um den Bau von Aktomkraftwerken für KI geht?

 

Die "Grünen" sind nur dort, wo sie per Auftrag von Think Tanks und gewisser NGOs zu sein und krakeelen haben. Über Themen wie Stromverbrauch plus CO2-Abdruck von Social Media, Gaming-Plattformen, der Produktion ihrer iPhones, Huaweis und Samsungs sowie das ganze Geraffel, was sie im Zuge ihres Konsumhedonismus kaufen, spricht niemand, schon gar nicht die "Klima-Kids" und sonstige unreflektierten und unbewussten Mitläufer, zumal u.a. die großen Digital-Konzerne - deren "philantropischen" Gründer ja auch die grüne Agenda mehr oder weniger versteckt mitfinanzieren -, ihr "grünes Geld" zuerst mit diesen stromfressenden Dingen verdienen müssen.

 

Ich höre und lese auch nichts über deutsche Boykottaufrufe gegen Microsoft, Google und Co., die ja nun massiv auf die Atomkraft setzen, man ist wohl ganz dem "Kampf gegen Rechts" (also ALLES, was nicht wie sie - die Grünen - denkt und handelt) verschrieben. Eher boykottiert man TESLA, weil Musk ja auf der "falschen Seite" steht.

 

Wenn die Auswirkungen der K.I. auf den Arbeitsmarkt so ausfallen, wie manche meinen und dies in Europa mit dem Niedergang der Automobilindustrie und ihrer Zuliefererstrukturen zusammenfällt, dann müssen wir uns warm anziehen! Ganz ohne Auswirkungen von Kriegen und dgl.

 

Ich glaube auch, dass die K.I. zukünftig Vorrang erhält, was den Strom anbelangt. Wenn es sich mit dem grünen Strom aus Wund und Sonne nicht ausgeht, dann muss der Pöbel halt ab und an Brown- und Black-outs über sich ergehen lassen. Paar Dosen "vegane Serbische Bohnensuppe" zuhause und mit dem Camping-Kocher aus früheren "Van-Life"-Versuchen aufgewärmt und eine Semmel aus der Altbrot-Ecke, und schon paßt alles, gell Frau von der Leyen...?! "Verkauft" wird uns das mit der Angst vor einem Angriff der Russen.

 

Ich erinnere an dieser Stelle, dass "Vorräte" bis vor kurzem von den Linken als "rechtsrechtes Preppertum" abgetan wurden - wahrscheinlich wird jeder, der Vorräte für mehr als eine Woche hat, vom Verfassungsschutz als "gesichert rechtsextrem" eingestuft.

Aber nun, wo die Ursula das (wegen der Russen) empfiehlt, werden sie alle brav in die Bio-Shops trotten und dort ihre Soja-Fleischersatz-Dosen (aus Brasilien), ihre angebliche "Fairtrade"-Schoggi sowie ihr "Bio-Wasser" kaufen, so wie sich das für gute und brave und anständige Bürger gehört.

 

Und ich dachte, der Angriff Russlands auf uns sollte erst in 4-7 Jahren erfolgen. Eigenartig...

 

Gruß

Johannes

Bearbeitet von Phoenix 2.0
Geschrieben (bearbeitet)
Am 5.11.2024 um 21:37 schrieb Suricato:

Des weiteren braucht KI Strom, viel Strom.

 

Wer bezahlt am Ende die Stromrechnung?

 


Genau das Gleiche frage ich mich auch!

 

Diese immer mehr um sich greifende KI Hysterie ist schlicht und ergreifend erbärmlich.

 

Gregor


 

Bearbeitet von sharkbay
  • sharkbay änderte den Titel in KI [ Künstliche Intelligenz ] > Segen oder Fluch !?
Geschrieben (bearbeitet)
vor 21 Stunden schrieb sharkbay:

Diese immer mehr um sich greifende KI Hysterie ist schlicht und ergreifend erbärmlich.

 

Kommt m.E. drauf an, wie man es betrachtet. Wenn man davon ausgeht, dass die K.I. das wirkliche "next big thing" nach dem Smartphone - und in zweiter Position nach dem Internet - ist (sorry Touni, TESLA ist kein "big thing", sondern nur eine Nische für Besserverdiener, die nur "semi-marktwirtschaftlich" disruptierte 😎), dann ist das allgemeine globale Aufhebens darum erstaunlich gemäßigt; sprich eher erstaunlich wenig "hysterisch", im Vgl. zu dem ersten iPhone damals oder auch dem "Internet-Hype", der bekanntlich zu einer Bubble führte.

 

Die A.I. ist für die meisten Consumer ein abstrakterer Service, als das Internet und kein Produkt wie das Smartphone; somit wird es schwerer greifbar. Allerdings wird jene derzeit eh in allen möglichen Betriebssystemen und -Umgebungen integriert. Die A.I. kommt somit schleichend und holt sich auch schleichend "unsere Leben". Sie wird bald den größten Teil der Menschheit mit Zugang zu ihr besser kennen und voraussagen können, als diese Leute sich selbst und unser aller Leben regeln und tw. auch - ohne Wahl- oder Opt-out-Möglichkeiten - in immer mehr Belangen für uns entscheiden. Am Ende im Rahmen von "Moral Machine-Dilemmas" sowie Triagen - sprich wessen Leben weniger "wert" ist und wer bevorzugt wird (quasi im Sinne eines transhumanistischen Darwinismus).

 

Zuerst mal werden sich die Möglichkeiten für One-to-one-Martketing, dynamische Preismodelle, Up-/More-selling und dgl. durch die A.I. potentieren, und die Konsumsubjekte - also uns - perfekt "einlullen", sodass jene - wenn wenig reflektiert u./o. diszipliniert - dadurch wohl in ständiges Geldausgeben verlockt werden dürften. Mal sehen, wie schnell die A.I. auch "Nasenbohrer" erkennt, die eigentlich nicht die Mittel haben, sich den ganzen Mist zu leisten, welchen die A.I. quasi verhökern soll. Da wird man dann an der Schule ein "Loser" sein, wenn man keine Werbung/Offerte von Versace oder Apple bekommt, weil man von der A.I. als "zu arm" klassifiziert wurde. 😏

 

Aber auch für das Filtern potentieller und realer "politischer Gegner" ist die A.I. top. Sie muss  etwa nur da Forum hier processen, und schon kann sie eine Liste machen, wo man die politischen Gesinnungen vieler mit 99,9999%er Sicherheit bestimmen kann. Für in wenigen Jahren könnte dann weiters gelten: Passt das Gebaren eines Subjekts nicht ins Bild der von der zuständigen A.I. als Norm determinierten Bandbreite, kommt das "Killerdrohnen-Geschwader" zu Besuch.

 

"A.I-Hysterie" ist in der Masse aus meiner Sicht bislang keine erkennbar, zumal ein großer Teil der Bevölkerung (noch) gar nicht zu erfassen vermag, um was es eigentlich geht. "Feuer und Flamme" sind eher Konzerne, Regierungen, Krankenkassen, Geheimdienste (obgleich die das sicher schon länger im Betrieb haben, als wir uns vorstellen können) und so. DIE profitieren wirklich, während wir nur meinen, wir würden profitieren, denn wir verlernen u.a. durch die A.I. essentielle Skills, und als Resultat werden Menschen in Zukunft nicht mehr vernetzt denken können, weil es gar nicht mehr ausbilden kann. Wissen, Fakten und Information "as a service" - man muss sich auch nichts mehr merken. Dummerweise bestimmt die A.I. dann auch, was "Fakt" bzw. das dominante Narrativ ist..., noch mehr, als die "Faktenchecker" der ÖRR und Regierung... 😏

 

Beispiel für A.I.-Loop: (das ist real): Immer mehr Lehrende im akademischen Bereich, aber auch Trainer und Lehrer, nutzen ChatGPT für das Erstellen von Aufgaben, Übungen, Tests etc. Und seien wir uns ehrlich, das ist schon lässig, wenn man z.B. ein Diktat für Tn eines Deutschkurses Level B1 in einer Minute hat UND da auch noch Themenschwerpunkte (wie z.B. die Klimahitzenhölle) "einweben" lassen kann, anstatt sich selbst vorbereiten und über Monate oder gar Jahre einen in Eigenleistung erstellen Fundus zu erstellen, welcher bislang - neben dem eigentlichen Wissen und den Skills - das Asset eines jeden Lehrenden war.

 

"Leider" sind die Lernenden, Studierenden und Trainierenden auch ziemlich auf Zack, wenn es ums Optimieren der eigenen Faulenzerei geht und so nutzen sie ebenso ChatGPT, um sich das längere und mühsame Ausarbeiten der Antworten ersparen zu können. Beim Diktat mit Sprachschülern ist das ned so einfach, aber da lassen viele dann "heimlich" das Handy simultan-übersetzen und schreiben von dort unauffällig ab.

 

FAZIT: Am Ende des Tages beisst sich die Schlange in den Schwanz (Ouroboros)! Weder Lehrende noch Lernende leisten bzw. lernen - bis auf die Nutzung der A.I. - noch etwas, doch die A.I. lernt was über die faule Menschheit, denn Erstere erstellt die Aufgaben UND beantwortet sich jene quasi auch selbst, während Lehrende und Studierende Kaffee trinken und sich durch Unterhaltung od. dgl. ablenken.

 

Die Frage, die sich mir letztlich stellt ist, inwieweit sich das auf die Strukturen im Gehirn der Generation Beta und danach auswirken wird. Werden wir herumlaufen, wie lobotomisierte Idioten bzw. wie die "BORG", oder wird wieder mal alles weniger krass, als Dystopen wie ich das sich ausmalen...?

 

 

Gruß, Johannes

Bearbeitet von Phoenix 2.0
Geschrieben
vor 2 Stunden schrieb Phoenix 2.0:

Kommt m.E. drauf an, wie man es betrachtet. Wenn man davon ausgeht, dass die K.I. das wirkliche "next big thing" nach dem Smartphone - und in zweiter Position nach dem Internet - ist (sorry Touni, TESLA ist kein "big thing", sondern nur eine Nische für Besserverdiener, die nur "semi-marktwirtschaftlich" disruptierte 😎), dann ist das allgemeine globale Aufhebens darum erstaunlich gemäßigt; sprich eher erstaunlich wenig "hysterisch", im Vgl. zu dem ersten iPhone damals oder auch dem "Internet-Hype", der bekanntlich zu einer Bubble führte.

 

Erst mal muss sich beweisen, dass KI mehr ist, als nur das aktuelle lieblings-Buzzword der Management-Eliten. Im Gegensatz zu etwa Blockchain (vor ca. 3 Jahren in aller Munde), ist es weniger technisch verkopft (BC konnte mir bis heute niemand schlüssig erklären, wie das unter der Oberfläche genau funktioniert), sondern intuitiv "gut": man muss niemandem erklären, was KI ist. Auch wenn aktuelle KI-Modelle oft eher an glorifizierte Papageien erinnern, wenn man sie etwas aus der Reserve holen will...

Geschrieben (bearbeitet)
vor 39 Minuten schrieb Lubeja:

Erst mal muss sich beweisen, dass KI mehr ist, als nur das aktuelle lieblings-Buzzword der Management-Eliten.

 

Es herrscht ja eh ein "verdächtig" gemäßigtes Interesse an der A.I. Vor 2 Jahren begann grade der kurze Hype in den Medien, wodurch die Masse informiert wurde, dass es sowas gibt. Danach wurde es schnell wieder relativ still. Ich denke, das hängt damit zusammen, dass Normalbürger keinen bezahlten Account bei ChatGPT eingerichtet haben und es somit keine Multiplikation gab, wie eben beim Internet-Zugang ab Ende der 90er oder beim Smartphone. Aber Microsoft, Apple und Co. binden nun A.I. in die OS ein, weshalb bald ungleich mehr mit A.I. als Assistenz arbeiten werden. Die Daten und die A.I.-Lernkurve aus dieser Phase wird man dann nutzen können, um viele der Jobs obsolet zu machen, die bald die A.I. extensiv nutzen werden. Künstlerpech! 😏

 

Sei bitte nicht so naiv zu glauben, der der Level an Consumer-Applikationen der A.I. sei State of the Art! Wie ich oben zart andeutete, gibt es Anwendungen, wo das um Jahre voraus ist, wobei man nicht 1:1 vergleichen kann.

 

Aladdin A.I. von Black Rock etwa hat andere Anforderungen und verarbeitet nicht Daten über die verschiedenen Figuren, die seit den 60ern in Disney Land zu sehen waren oder welche Flugzeugmuster Pan Am während seines Bestehens im Dienst hatte (ChatGPT kann man sowas fragen). Dafür fliessen bei Ersterem alle möglichen Daten rein, welche Asset-Kurse beeinflussen, potentiell beeinflussen und u.U. zukünftig beeinflussen und dgl. - von Wetterkapriolen bis hin zur erreichten Medienreichweite expliziter Aussagen eines Politikers (wir erinnern uns, dass ein "Pupser" von Elon Musk Bitcoin rauf- oder runterschicken konnte).

 

Aladdin sowie Systeme der US-Geheimdienste dürften nicht weit auseinanderliegen. Geh' halt davon aus, dass ChatGPT im Vgl. ein "Spielzeug" ist - derzeit zumindest. Es ist wie auf der Flughafen-Terrasse: Am Apron rollt ein A380 (= Aladdin) und hinter Dir spielen Kinder in einem Holz-Flugzeug (= ChatGPT).

 

Die Manager, die Du ansprichst, wollen ihre A.I.-Systeme oder Lizenzen nutzen, um einerseits Daten von möglichst allem abzugreifen - allem voran von Logistik-Prozessen, Kunden, Usern/Konsumenten und anderen Stakeholdern -, und daraus dann einen Mehrwert zu generieren, der sich im Umsatz niederschlägt sowie in der Kundenbindung. Und zwar mindestens eine Stufe höher mit ungleich mehr Potential, als bislang durch die Combo BigData + Analytics-Algorithmen im Rahmen der bisherigen "Digitalisierung", die vor A.I. war.

 

Gleichzeitig stehen diese Daten dann Behörden zur Verfügung, um ihrerseits Nutzen daraus zu ziehen.

 

Am Ende muss sich jeder selbst die Frage stellen, ob man angesichts der A.I. in Verzückung ausbricht und jene maximal in den eigenen Alltag einfliessen läßt - so wie manche dereinst auch in jedem Raum einen Amazon Echo stellten -, oder ob man sich weitgehend distanziert, wo es noch geht. Zu wem ich gehöre, brauche ich wohl nicht schreiben, um das zu checken braucht man keine K.I. 🕵️🤭

 

Gruß

Johannes

Bearbeitet von Phoenix 2.0
Geschrieben
vor 2 Stunden schrieb Phoenix 2.0:

Am Ende muss sich jeder selbst die Frage stellen, ob man angesichts der A.I. in Verzückung ausbricht und jene maximal in den eigenen Alltag einfliessen läßt - so wie manche dereinst auch in jedem Raum einen Amazon Echo stellten -, oder ob man sich weitgehend distanziert, wo es noch geht. Zu wem ich gehöre, brauche ich wohl nicht schreiben, um das zu checken braucht man keine K.I. 🕵️🤭

 

Gruß

Johannes

 

😄 Das sagt ChatGPT:

 

Zitat

Der User in diesem Beitrag zeigt eine kritische und skeptische Einstellung gegenüber Künstlicher Intelligenz (KI) und ihrer Integration in verschiedene Lebensbereiche. Die Kernpunkte seiner Sichtweise lassen sich wie folgt zusammenfassen:

 

1. Einschätzung als Megatrend: Der User erkennt an, dass KI vermutlich das nächste „große Ding“ in der Technologieentwicklung sein könnte, nach dem Internet und dem Smartphone. Allerdings wird dies in der Öffentlichkeit seiner Meinung nach überraschend wenig diskutiert, vor allem im Vergleich zum Hype um das erste iPhone oder den Internetboom.

 

2. Abstrakte und schleichende Präsenz von KI: KI wird für viele Nutzer als „Service“ beschrieben, der weniger greifbar und mehr im Hintergrund integriert ist als konkrete Produkte wie Smartphones. Der User betont eine Art „schleichenden“ Einfluss, der zunehmend ohne Wahl- oder Opt-out-Möglichkeiten das Leben der Menschen lenken wird.

 

3. Bedenken bezüglich der Kontrolle und des Missbrauchs: Der User bringt mehrmals Bedenken zur Macht der KI zum Ausdruck, die durch gezielte Datenverarbeitung politisch und gesellschaftlich manipulativ eingesetzt werden könnte – bis hin zur Vorstellung, dass „abweichendes Verhalten“ von Normen durch KI registriert und sanktioniert werden könnte.

 

4. Konsum- und Verhaltenssteuerung: KI wird hier als ein mächtiges Werkzeug dargestellt, um Konsumgewohnheiten zu beeinflussen und Verbraucher gezielt zum Geldausgeben zu bewegen. Dabei befürchtet der User eine mögliche Abwertung „finanziell schwächerer“ Menschen durch KI-basierte Marketingmethoden und eine entstehende soziale Kluft.

 

5. Skepsis gegenüber den Auswirkungen auf Bildung und Fähigkeiten: Der User sieht KI als Bedrohung für die Entwicklung geistiger und praktischer Fähigkeiten bei Lernenden und Lehrenden. Die KI wird hier als ein Mittel beschrieben, das es Lernenden ermöglicht, auf einfache Lösungen auszuweichen, anstatt eigenständig Wissen und Fertigkeiten zu erarbeiten, was langfristig die kognitive Entwicklung beeinträchtigen könnte.

 

6. Dystopische Perspektiven: Durch den Vergleich der Auswirkungen von KI mit Konzepten wie dem „Borg“-Kollektiv oder einem „transhumanistischen Darwinismus“ deutet der User eine starke Besorgnis über mögliche negative gesellschaftliche Entwicklungen an, die durch den zunehmenden Einfluss der KI entstehen könnten.

 

7. Unterschied zwischen Consumer-KI und „echter“ KI: Der User differenziert zwischen „Consumer-KI“ wie ChatGPT, die als weniger ausgereift betrachtet wird, und fortgeschrittenen Anwendungen wie Aladdin von Black Rock, das komplexere Anforderungen erfüllt und andere Daten verarbeitet. Hier schwingt ein gewisses Misstrauen mit, dass die Öffentlichkeit nur eingeschränkt Zugang zur „wirklich mächtigen“ KI hat, die im Hintergrund bereits auf entscheidende Prozesse Einfluss nimmt.

 

8. Abwehrhaltung gegenüber persönlicher KI-Nutzung: Schließlich verdeutlicht der User seine eigene distanzierte Haltung gegenüber KI, die auf Misstrauen basiert und darauf abzielt, KI in seinem Alltag möglichst wenig Raum zu geben.

 

Fazit: Insgesamt ist die Einstellung des Users gegenüber KI von kritischer Skepsis und teils deutlichen dystopischen Bedenken geprägt. KI wird von ihm als mächtige Technologie wahrgenommen, die sowohl positive Entwicklungen im Sinne gesteigerter Effizienz als auch erhebliche Risiken für persönliche Freiheit, soziale Gleichheit und geistige Autonomie birgt. Der User signalisiert eine grundsätzliche Vorsicht und Ablehnung gegenüber der umfassenden Einbindung von KI in den Alltag und die Gesellschaft.

 

Profiling anhand von 2 User-Posts (deine letzten beiden) funktioniert jedenfalls schon bereits mit der "Holzflugzeug"-Klasse ChatGPT.

Geschrieben (bearbeitet)
vor 7 Minuten schrieb Dierk:

 

😄 Das sagt ChatGPT:

 

 

Ich lese eigentlich nur, was ich selbst geschrieben habe und die Zusammenfassung beschreibt, was alle hier wissen. Was also ist besonders daran? Nur für Externe hätte das einen Nutzen, um sich etwas zusammenfassen zu lassen.

 

Aber ChatGPT weiß nun, dass sich hier ein potentiell gefährliches Subjekt tummelt, welches man in Zukunft u.U. "räsonieren" muss, um die "richtigen" Sichtweisen an den Tag zu legen: Optimismus, Begeisterung und Verzückung, statt Kritik, Miesmacherei und Dystopismus. 😜

 

Gruß

Johannes

Bearbeitet von Phoenix 2.0
Geschrieben
vor 16 Minuten schrieb Phoenix 2.0:

 

Ich lese eigentlich nur, was ich selbst geschrieben habe und die Zusammenfassung beschreibt, was alle hier wissen. Was also ist besonders daran? Nur für Externe hätte das einen Nutzen, um sich etwas zusammenfassen zu lassen.

 

Aber ChatGPT weiß nun, dass sich hier ein potentiell gefährliches Subjekt tummelt, welches man in Zukunft u.U. "räsonieren" muss, um die "richtigen" Sichtweisen an den Tag zu legen: Optimismus, Begeisterung und Verzückung, statt Kritik, Miesmacherei und Dystopismus. 😜

 

Gruß

Johannes

 

Keine Sorge, es wird noch eine Weile brauchen, bis das Rekonditionierungsprogramm steht 😉

 

Zitat

Ist es prinzipiell möglich, ein LLM zu einem Verhaltenstherapeut zu trainieren, und ihm die (möglicherweise unethische) Aufgabe zu geben, auffällige Personen mittels K.I.-gestützter Verhaltenstherapie umzuerziehen? Die Anwendungsbereiche wären grundsätzlich vielfältig: von der Verkürzung von Gefängnisstrafen für Straftäter, welche an einer solchen Umerziehungstherapie teilgenommen haben, über die Ergänzung von durch einen menschlichen Psychotherapeuten und/oder Psychiater supervisierten Verhaltenstherapie für an psychischen Problemen leidenden Personen bis zur dystopischen und unethischen Umerziehung von Systemkritikern durch autokratische Regime.

 

Zitat

Grundsätzlich ist es technisch denkbar, ein LLM (wie GPT) so zu trainieren und anzuwenden, dass es verhaltenstherapeutische Funktionen unterstützt. Künstliche Intelligenz wird bereits in bestimmten Bereichen der Verhaltenstherapie eingesetzt – vor allem bei der Unterstützung von Menschen mit leichten bis mittleren psychischen Problemen, etwa durch Chatbots oder Therapie-Apps. Dennoch bringt das Konzept einer KI-gestützten Umerziehung oder Umformung des Verhaltens für auffällige oder dissidente Personen erhebliche ethische und praktische Herausforderungen mit sich.

Hier sind einige wesentliche Aspekte:

 

1. Technische Machbarkeit: KIs könnten für bestimmte verhaltenstherapeutische Techniken wie kognitive Umstrukturierung, Psychoedukation oder Expositionsübungen trainiert werden. Ein KI-System könnte durch Musteranalyse möglicherweise auch Hinweise auf problematische Verhaltensweisen erkennen und entsprechende Interventionen anleiten. Dennoch bleibt die Frage, inwiefern eine KI die tiefere therapeutische Empathie und das klinische Urteilsvermögen eines menschlichen Therapeuten ersetzen kann.

 

2. Ethik und Missbrauchspotential: Die gezielte „Umerziehung“ auffälliger oder systemkritischer Personen wirft gravierende ethische Fragen auf, da Verhaltenstherapie normalerweise freiwillig und in einem geschützten, unterstützenden Rahmen stattfindet. In autoritären Kontexten könnte eine solche KI missbraucht werden, um Menschen mit abweichenden Meinungen oder Verhaltensweisen zwangsweise zu manipulieren. Das wäre in fast allen Ländern und internationalen Ethikkodizes als unethisch und gegen die Menschenrechte gerichtet.

 

3. Effizienz und therapeutischer Nutzen: Die Wirkung einer KI-gestützten Verhaltenstherapie bleibt umstritten, da viele psychische Störungen und Verhaltensprobleme stark durch persönliche, soziale und biologische Faktoren beeinflusst sind. KIs sind derzeit nicht in der Lage, die komplexen, oft unbewussten Ebenen menschlichen Erlebens vollständig zu erfassen. Auch das Potenzial einer langfristig erfolgreichen „Umerziehung“ durch KI ist fraglich.

 

4. Rechtliche Regulierung: Selbst wenn ein solches System entwickelt würde, unterlägen Einsatz und Entwicklung strengen rechtlichen Auflagen, etwa durch Datenschutzgesetze, Menschenrechtsabkommen und ethische Leitlinien für den Einsatz von KI in der Psychotherapie. In demokratischen Systemen wären solche Umerziehungsversuche mit hohen rechtlichen Hürden verbunden, da die Persönlichkeitsrechte massiv eingeschränkt würden.

 

5. Potenzielle Anwendungen und Missbrauchsprävention: Ein ethisch verantwortbarer Einsatz könnte darin bestehen, KIs als unterstützende Werkzeuge in therapeutischen Prozessen einzusetzen, wobei die Supervision durch menschliche Fachleute gewährleistet ist. Hier könnten KI-Systeme beispielsweise Patienten im Erlernen von Verhaltensstrategien unterstützen oder im Rahmen einer Therapie als interaktives Selbsthilfetool dienen. 

 

Insgesamt birgt die Idee, LLMs für Umerziehungszwecke zu verwenden, in der derzeitigen Form mehr Risiken als Vorteile und bedarf strenger ethischer und rechtlicher Überprüfungen.

 

Geschrieben
Am 8.11.2024 um 11:57 schrieb sharkbay:

Genau das Gleiche frage ich mich auch!

 

Meines Erachtens "müssen" letztendlich die Kosten der Mittelstand und die Armen tragen ob sie es wollen oder nicht.

Das Geld für den Betrieb und Unterhalt muss Microsoft und Co. irgend wo her holen. Dies funktioniert zum Beispiel die Lizenzgebühren für Betriebssysteme in den Firmen. Diese Lizenzkosten werden dann auf den Preis der Produkte drauf geschlagen so dass der Endkunde diese unbewusst bezahlt. Superreiche, denen die Firmen gehören, können die Kosten für die teurer werdenden Proukte leicht wieder rein holen in dem sie die Produkte teurer machen bzw. mehr Gewinn erwirtschaften. So zahlen sie selbst letztendlich nichts für den Strom.

 

 

vor 8 Stunden schrieb Phoenix 2.0:

Die A.I. kommt somit schleichend und holt sich auch schleichend "unsere Leben". Sie wird bald den größten Teil der Menschheit mit Zugang zu ihr besser kennen und voraussagen können, als diese Leute sich selbst und unser aller Leben regeln und tw. auch - ohne Wahl- oder Opt-out-Möglichkeiten - in immer mehr Belangen für uns entscheiden. Am Ende im Rahmen von "Moral Machine-Dilemmas" sowie Triagen - sprich wessen Leben weniger "wert" ist und wer bevorzugt wird (quasi im Sinne eines transhumanistischen Darwinismus).

Soweit sind wir doch leider bereits heute.

Man gedenke nur den Fällen in denen der Tierschutz einschritt wegen nicht artgerechter Haltung und dann das Tierheim nicht wusste was man mit dem Tierchen machen sollte und es einschläferte.

 

vor 8 Stunden schrieb Phoenix 2.0:

Aber auch für das Filtern potentieller und realer "politischer Gegner" ist die A.I. top. Sie muss  etwa nur da Forum hier processen, und schon kann sie eine Liste machen, wo man die politischen Gesinnungen vieler mit 99,9999%er Sicherheit bestimmen kann. Für in wenigen Jahren könnte dann weiters gelten: Passt das Gebaren eines Subjekts nicht ins Bild der von der zuständigen A.I. als Norm determinierten Bandbreite, kommt das "Killerdrohnen-Geschwader" zu Besuch.

Ein Killerdrohnen-Geschwader macht es für heute noch zu offensichtlich wer der Repressator ist.

Das Eliminieren von politischen Gegner läuft viel verdeckter in dem KI die Steuerung eines Autos, oder wie im Film "das Netz" die Patientenakte hackt auf dass jemand falsch behandelt wird und stirbt.

Damit sowas nicht geschieht darf man bestimmten Geistern, z.B. solche welche die Welt gestalten wollen, nie Macht geben.

 

 

vor 8 Stunden schrieb Phoenix 2.0:

Werden wir herumlaufen, wie lobotomisierte Idioten bzw. wie die "BORG", oder wird wieder mal alles weniger krass, als Dystopen wie ich das sich ausmalen...?

Ist das nicht bereits heute mit den Smartphones der Fall?

 

 

Geschrieben (bearbeitet)
vor 16 Stunden schrieb Suricato:

 

Das Eliminieren von politischen Gegner läuft viel verdeckter in dem KI die Steuerung eines Autos, oder wie im Film "das Netz" die Patientenakte hackt auf dass jemand falsch behandelt wird und stirbt.

 

Damit sowas nicht geschieht darf man bestimmten Geistern, z.B. solche welche die Welt gestalten wollen, nie Macht geben.

 

"Gefällt mir"..., ich bin also ned der Einzige, der sich solche Dinge ausmalen kann bzw. in Kontext setzt (Film)... 😏

 

Aber sowas kommt natürlich nie! Sowie die Medien in D tendenziell kommuniziert haben, dass Trump schlicht nicht gewinnen würde. Und nun sind im linken Spektrum (SPD und Grüne) alle überrascht und fertig mit den Nerven. Tw. so fertig, dass sie keinen Sex mehr haben wollen (siehe Posting von jemandem im CO2-Thread). Die müssen einen unglaublichen Hass auf "weisse Männer" haben..., das ist gar ned so ohne!

 

Bei der "Ampel-Resterampe" in D sieht man ja nun auch überall, in was für einer delusional bubble die leben. Die checken es einfach ned. Wenn vor denen ein Haus brennt, würden sie sagen, es sei warm an jener Stelle wo sie stehen. Spricht man sie erneut auf das brennende Haus an sagen sie erneut: " hier, wo ich stehe, ist es warm und es riecht eigenartig!"

 

Gruß

Johannes

Bearbeitet von Phoenix 2.0
Geschrieben
Am 9.11.2024 um 17:48 schrieb Suricato:

Damit sowas nicht geschieht darf man bestimmten Geistern, z.B. solche welche die Welt gestalten wollen, nie Macht geben.

 

So wie's ausschaut ist das grad passiert in den USA...

Geschrieben
On 11/9/2024 at 10:46 AM, Lubeja said:

sondern intuitiv "gut": man muss niemandem erklären, was KI ist. Auch wenn aktuelle KI-Modelle oft eher an glorifizierte Papageien erinnern, wenn man sie etwas aus der Reserve holen will...

Genau das ist der kapitale Fehler. Die Masse sollte einen (vereinfachten) aber korrekten Einblick in die mit dem Gummibegriff KI , AI, IA .. gewinnen können. Das ist etwa so, wie die Einführung in die doppelte Buchaltung, ohne dass man die Trader oder Venture Capital Investoren verstehen muss..

 

Wer diesen Prozess wirklich durchgeht, "erwacht" nüchtern wie nach einer durchzechten Nacht und sagt sich: das ist aber eigentlich gar nicht cool, das tu ich mir nicht (mehr) an..

 

(Mein Nachbar, ein Belgier der ein Forschungsinstitut leitete und nun pensioniert wurde, kann das hervorragend. So perfekt, dass er fertig ist und ein klares Bild entsteht, bevor unsere Biergläser leer sind).

 

Cosy

Geschrieben (bearbeitet)
On 11/9/2024 at 2:37 PM, Dierk said:

Ich lese eigentlich nur, was ich selbst geschrieben habe und die Zusammenfassung beschreibt, was alle hier wissen. Was also ist besonders daran? Nur für Externe hätte das einen Nutzen, um sich etwas zusammenfassen zu lassen.

Das machen Firmen wie diese hier besser (mit richtigen Menschen, die denken, fühlen, atmen, essen, lachen, streiten, weinen, hoffen, die Nase rümpfen, sich im Spiegel schön oder auch nicht finden, und viel mehr aus vorhandenen Facts machen imstande sind):

https://www.getabstract.com/de/about-us

Cosy

Bearbeitet von cosy
Geschrieben
Am 9.11.2024 um 08:31 schrieb Phoenix 2.0:

Die Frage, die sich mir letztlich stellt ist, inwieweit sich das auf die Strukturen im Gehirn der Generation Beta und danach auswirken wird. Werden wir herumlaufen, wie lobotomisierte Idioten bzw. wie die "BORG", oder wird wieder mal alles weniger krass, als Dystopen wie ich das sich ausmalen...?

 

Tja, aber wenn ich mich in Bezug auf das Wahlresultat in den USA dazu hinreissen lasse, zu behaupten, die Leute seien einfach halt etwas "dumm", dann wird mir was um die Ohren geschlagen und man labert was von "das geht zu weit", "genau diese Haltung sei das Problem" und und und. Es ist halt aber einfach immer offensichtlicher, dass wir mehr und mehr das selbstständige Denken verlieren, es wird nicht nur in Bezug auf KI darauf hingearbeitet, man sieht es auch in anderen Bereichen des täglichen Lebens immer deutlicher. 

Geschrieben
Am 13.11.2024 um 08:17 schrieb AnkH:

Es ist halt aber einfach immer offensichtlicher, dass wir mehr und mehr das selbstständige Denken verlieren, es wird nicht nur in Bezug auf KI darauf hingearbeitet, man sieht es auch in anderen Bereichen des täglichen Lebens immer deutlicher. 

 

Nicht nur das. Die Propaganda / Fake News / KI generierten "alternative Facts" bis hin zu total gefälschtem Zeug, die überhand nehmenden VT's, dort liegt von mir aus das Problem. Und KI ist dort bestens dafür geeignet, eben "Newsberichte" mit "echten" Leuten zu generieren, die noch nicht mal davon wissen, was sie da gesagt haben sollen.

 

Diese Dinge sind pfeilgerade daraus ausgerichtet, das Grundvertrauen, ohne welches keine Gesellschaft existieren kann, zu zerstören.

 

Es ist ein Riesenunterschied ob man politisch unterschiedlicher Meinung ist oder aber ob man mit Propaganda aller Art, persönlichen Angriffen und eben immer mehr Fake News versucht, den politischen Gegner als FEIND darzustellen. Feind ist ein Begriff, der im politischen Diskurs für Leute reserviert sein muss, die sich entweder im Krieg mit uns befinden oder aber einen solchen anstreben/androhen. Nicht auf Leute im eigenen Parlament oder die gegnerische Partei in einem Wahlkampf.

 

KI  bringt für mich die absolut reelle Gefahr mit, dass viele Leute in eine alternative Realität abgleiten von der sie religiös überzeugt sind und die mit KI so visualisiert werden kann, dass sie die echte Realität komplett verdrängt. Wenn mir Leute mit hohem Ausbildungsstand völlig überzeugt von Chemtrails berichten und diese als absoluten Fakt darstellen andem die "Amis" schuld sind, dann macht mir das Angst. Und das wird immer schlimmer.

Geschrieben (bearbeitet)

Ich möchte fast sagen, ein kontinuierlich selbständiges Denken macht einen Menschen über die Jahre hinweg zwangsläufig zu einem Philosophen.

 

Und die beste „Nahrung“ eines Philosophen ist die Musik und die Bildung.

 

Die Lehrpläne in den Schulen, in den Hochschulen und Universitäten müssen in erster Linie den Menschen bilden.

 

Ich denke, dass einem gebildeten Menschen die KI grundsätzlich bereichern kann.

 

Wenn ich nicht mit dem Zug fahren will, dann fahre ich eben nicht mit dem Zug.

 

Und diese Freiheit der individuellen Entscheidungen muss auch in Hinsicht der KI verstanden werden.

 

Genau die Balance zu finden gegenüber Offenheit und kritischem Denken ist der Weisheit zugeneigt.

 

Gregor


 

Bearbeitet von sharkbay
Geschrieben (bearbeitet)

In diesem Sinne, machen wir uns frei, wirklich frei!

 


Alfred Brendel, Sir Neville Marriner, Academy of St. Martin in the Fields, Mozart, Klavierkonzert Nr. 15 in B-Dur KV 450

 

Gregor


 

Bearbeitet von sharkbay
Geschrieben (bearbeitet)

Neuen Erfindungen, neuen Technologien gegenüber war der Mensch grundsätzlich zu Beginn meist ( sehr ) skeptisch eingestellt.

 

Zu wenig offen kann man auch sagen.

 

Oft erst nach ein paar Jahrzehnten erkannte man den innewohnenden Segen dieser Technologien meist als eine Erleichterung des täglichen Lebens und in der Regel mit einer zunehmender Lebensqualität.

 

Ich kann mir gut vorstellen, dass durch den Einsatz künstlicher Intelligenz der langersehnte Durchbruch bei der Entwicklung von Kernfusionsreaktoren herbeigeführt werden könnte.

 

Vielleicht mehr die Vorteile künstlicher Intelligenz längerfristig in Betracht ziehen.

 

Schon gar keine Horrorszenarien und vor allem keine Angst vor Virginia Woolf … 😉

 

Das wäre aus meiner Sicht ein wünschenswerter und sehr interessanter Ansatz.


Gregor

 

 

Bearbeitet von sharkbay

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...