2023-06-22

KI! Wie sieht es aus in Sachen Therapie, Coaching, Bildung? Welche psychologischen und philosophischen Aspekte gibt es zu berücksichtigen?

Wer sich für KI interessiert, der sollte auch die Serie „Black Mirror“ kennen. Seit kurzem ist die 6te Staffel auf Netflix zu sehen. Charlie Brooker darf sich wieder austoben. Ihm geht es um die Nebenwirkungen der „Droge Technik“ und insbesondere die digitale Transformation. Brooker geht von einer Welt aus, in der die technischen Errungenschaften erst „unlängst“ die Überhand über die Menschheit gewonnen haben.

Black Mirror
Nun, „unlängst“ ist teils heute. In einer der besten Episoden, „Nose Dive“ (erste Episode, dritte Staffel), wird von einer jungen Frau alles unternommen, um ständig von anderen eine 5-Sterne-Bewertung zu erhalten. Nur so gewinnt man die interessantesten Freunde und Partner, gelangt an die besten Wohnungen und zu den hippsten Partys. Marketingfachleute kennen dieses heute unabdingbare „Sternchenmarketing“ schon seit Jahren. Und die Anzahl unserer SoMe-Freunde und die Feedbacks auf unsere Postings - all das wird immer mehr zur sozialen Währung, die bekanntlich rasch recht süchtig machen kann. Das kennt man also schon, überrascht wenig, auch wenn die Episode zeigt, in welch schräge Bahnen man so geraten kann.

Großartig (und traurig zugleich) auch die Episode „Be Right Back“ („Wiedergänger“); hier verliert eine junge Frau - Martha - ihren Freund Ash bei einem tödlichen Autounfall. Mittels App will sie die (AI-gestützte) Wiederauferstehung von Ash. Dies gelingt auch, indem sie sämtliches SoMe-Footage bzw. Material in die App uploaded (by the way: Wie das dargestellt wird, das ist sehenswert). Vorerst gibt es nur (s)eine Stimme und eine fast idente Ausdrucksweise am Smartphone. Nun wird Martha immer neugieriger. Sie will mehr. Kriegt sie auch, in voller Lebensgröße. Sie bestellt Ash online. Und er kommt auch; mit „original“ Stimme, Körper, mit Geschlechtsorganen, auch die Haut überzeugt (was besonders schwer zu imitieren sein wird): Anfänglich irritiert, dann nach und nach eher genervt von der Imitation (die allerdings absolut lebensecht - und auch zu sexuellen Handlungen fähig ist, ganz so, wie es der Admin eben wünscht) will sie den neuen Ash loswerden bzw. parkt sie ihn am Dachboden und nutzt ihn nur mehr von Fall zu Fall.

Aktuell sind einige #digitalconsulting / ExpertInnen davon überzeugt, dass es nur eine Frage der Zeit ist, bis wir derart überzeugende menschliche Imitationen (wenn nicht physisch, dann halt in 3D-Avatar-Form) haben werden. Und dass damit etliche Berufe vom Aussterben bedroht sind. Das kann auch der Fall sein, denn wer weiß schon, was in 30 oder 50 Jahren alles möglich sein wird. Wenn man sich allerdings mit dem Thema der #digitalisierung befasst, dann muss man auch erkennen, dass oft Schwierigkeiten aufkommen oder Überraschungen auftreten, an die niemand vorher gedacht hat. Es geht ja nicht immer nur um ein (seit COVID „berühmt“ gewordenes) exponentielles Wachstum, das eine Idee plötzlich zum unaufhaltsamen Aufstieg bringt, sondern es geht auch um Zerfallsfaktoren (benötigte Ressourcen für Maschinen, Server, auch Energie, all das ist ja nicht uferlos vorhanden) und Unvorhersehbares, das Entwicklungen auch bremsen kann. Und um mögliche Regularien (die EU hat das spät, aber doch, verstanden). Also mal schauen.

Ray Kurzweil ist hier allerdings eindeutig: “The primary difference between my critics and me is we look at the same reality, and then they apply linear expectations and linear intuition to the future. However, the reality of information technology is exponential. For instance, linear projections let our intuition count one, two, three, four. Exponential trajectory, that’s the reality of information technology, goes one, two, four, eight. It doesn’t sound that different, but by step 30, the linear prediction is at 30 while the exponential trajectory is at a billion. At step 40 it’s at a trillion. It’s not matter of speculation about the future.”

Wer ist Ray Kurzweil? Wie lautet seine Prognose?
Wer über #ki sprechen will, der sollte Ray Kurzweil und seine Arbeit und Forschung kennen. Kurzweil wurde 2012 „Director of Engineering“ (und eine Art „Prognose-Mastermind“) bei Google (und Google wird aufgrund des hohen Drucks durch Chat GPT bald eine eigene KI verstärkt anbieten: „Bard“; siehe auch https://www.technologyreview.com/2023/05/10/1072880/google-is-throwing-generative-ai-at-everything/); Erfindungen wie AI Assistance Call-Systems wie „Duplex“ gibt es ja schon länger).
Aber zurück zu Kurzweil: Als ehemaliger Musiker kenne ich selbst die ersten Synthesizer (Kurzweil „K250“), die schon im Jahr 1983 (!) gesampelte Sounds erzeugen konnten, die einen nur so zum Staunen brachten. Kurzweil ist auch verantwortlich für eine der ältesten Wetten im Web, und zwar darüber, dass im Jahr 2029 ein Computer oder eine „maschinelle Intelligenz“ den Turing-Test bestehen werde.

Aber wichtiger für diesen Beitrag: Kurzweil ist Gründer der Singularity University. Und der Begriff #Singularität ist essenziell bei der KI-Debatte. Für Kurzweil ist das jener Moment, ab dem KI-basierte Technologien die Menschheit in einer Art und Weise „abhängen“ werden, dass wir keine Chance mehr haben, aus diesem - dann fremdbestimmten System - herauszufinden. Es ist für Kurzweil ein essenzieller Bruch in der Geschichte der Menschheit. Er datiert dieses Ereignis mit dem Jahr 2045. Andere Zukunftsforscher verschieben diesen Zeitpunkt teils um Jahrzehnte nach hinten. Andererseits; einige ExpertInnen meinen wiederum, dass dieser Moment so überraschend kommen wird, dass selbst die daran beteiligten ExpertInnen es erst merken werden, wenn es zu spät ist. Die Evolution könnte dann aus dem Reich der Biologie in den der Technik wechseln. Die Befürworter dieser Entwicklungen (öfters als #transhumanisten bezeichnet) sehen das als eine Art göttliche Erlösung. Und: Alle menschlichen, insbesondere physischen Bedürfnisse wären dann einfach(er) zu befriedigen; auch Arbeit wird - bis auf wenige Ausnahmen - von Maschinen übernommen werden. 
Einziger Haken bei dieser Vision: All das gilt nur dann, wenn es sich um eine (Menschen-) freundliche KI (also eine „Friendly AI“) handeln wird.

Was kommt da auf uns zu?
Klingt alles wenig beruhigend; außer für Transhumanisten wie beispielsweise Yuval Noah Harari. Denn optimistisch betrachtet kann eine höhere Intelligenz, die menschliche Grenzen überwindet und unser Leben steuern wird, für mehr Gerechtigkeit (und fairere Verteilung der Ressourcen) sorgen. Harari wird allzu gern missverstanden und abwertend als „Hausprophet des Silicon Valley“ bezeichnet. Allerdings ist genau ER es, der vor einer neuen Datenreligion warnt. Das „dataistische Dogma“ muss hinterfragt und durchbrochen werden, sonst könnte es für die Menschheit eng werden. Politisch wie ökonomisch. Seine Bücher „Homo Deus“ und „21 Lektionen für das 21. Jahrhundert“ beschreiben dies im Detail. Wer wenig Zeit zum Lesen hat, einfach mal Video schauen: 
„AI and the future of humanity“: Video Harari

AI wird also verstärkt an Bedeutung gewinnen. Aber wird sie unzählige Arbeitsplätze vernichten?
Ich unterrichte neben meiner Tätigkeit als Therapeut und Coach auch digitale Kommunikation und digitalen Wandel / digitale Ethik seit 2015. Damalige Studien (von großen Bankengruppen) prophezeiten, dass demnächst ca. 60% aller Jobs durch die Digitalisierung verschwinden werden. Jahre später lagen Schätzungen nur mehr bei 30%; einige lagen damals falsch. Aber, eines ist schon klar; Branchen wie Banken, bei denen durch die Digitalisierung hunderttausende Jobs obsolet wurden, sind besonders stark betroffen. Genauer gesagt: Die Menschen, die dort gearbeitet haben. Was man aber selten liest: Dass die betroffenen Banker aufgrund ihrer wirtschaftlichen Kenntnisse recht schnell wieder ins Arbeitsleben einsteigen konnten; dies halt in anderen Branchen.

Die erste Gretchenfrage ist also, und dies seit laaaanger Zeit (und nie eindeutig geklärt): Vernichtet die Digitalisierung mehr Jobs, als sie auf der anderen Seite wieder schafft? Das deutsche Institut für Arbeitsmarkt- und Berufsforschung (#IAB) sieht aktuell einen Ausgleich zwischen Arbeitsplatzvernichtung und Neuerschaffung: „Arbeitsplätze verschwinden, neue werden geschaffen, Anforderungen und Tätigkeiten wandeln sich“.

Der aktuelle World Economic Forum (#WEF) Report „The Future of Jobs 2023“ Future of Jobs 2023 stimmt ebenfalls eher optimistisch, bzw. werden Punkte angesprochen, die bei allen Dystopie-Affinen ausgelassen werden: „Within technology adoption, big data, cloud computing and AI feature highly on likelihood of adoption. More than 75% of companies are looking to adopt these technologies in the next five years.“
Später liest man: „The impact of most technologies on jobs is expected to be a net positive over the next five years. Big data analytics, climate change and environmental management technologies, and encryption and cybersecurity are expected to be the biggest drivers of job growth. Agriculture technologies, digital platforms and apps, e-commerce and digital trade, and AI are all expected to result in significant labour market disruption, with substantial proportions of companies forecasting job displacement in their organizations, offset by job growth elsewhere to result in a net positive. All but two technologies are expected to be net job creators in the next five years: humanoid robots and non-humanoid robots.“; siehe dazu auch ein Paper der Raiffeisen Bank: Raiffeisen Report

KI. Das Schrecklichste oder Beste, was der Menschheit passieren kann?
Nun, klar ist, dass es heute schon beträchtliche Vorteile gibt, beispielsweise im Gesundheitswesen:
_ Digital Health; schnellere (Tumor-) Diagnostik, (Hilfe bei) Operationen
_ Robotic Care / Pflegeroboter (wer allerdings die Komplexität einer 24-Stunden-Betreuung kennt, der wird ahnen, dass EIN Pflegeroboter allein nicht ausreichen wird; in Österreich wird dieser auch von der Mehrheit der Betroffenen abgelehnt; siehe dazu auch „Der Standard“, 17.06.2023); auch sind die Kosten für diese Art Roboter derzeit nicht massentauglich
_ KI-Health-Apps wie Xund, Skinscreener, Woebot, Bloom
_ KI-basierte Chatbots für psychisch Leidende
Auch meine Health- / Coaching-Partner von BüroBuddy - Mobiles Training setzen sich immer mehr dem Thema eines KI-basierten Trainings und Coachings auseinander. Ein Trend, der bleiben wird. Wir bleiben deshalb dran!

Zum letzten Punkt, selbst als Psychotherapeut und Coach tätig
Die Phantasie einer Computergestützten Simulation von #psychotherapie gibt es seit 60 Jahren (Joseph Weizenbaum entwickelte damals ein Dialogsystem namens „ELIZA“). Es war vorwiegend ein Fundus an Phrasen und Synonymen. Ergebnis in den 70er-Jahren: Die Vision eines künstlichen Psychotherapeuten. Heute gibt es das schon, zumindest in Ansätzen: KI-gesteuerte Therapie-Bots. „Woebot“ gibt einfache Anleitungen dazu, wie man allzu eingefahrene Denkmuster hinterfragen sollte; und unterstützt bei Depressionen und Angstzuständen. Und ja, mir ist nach Jahren der Beschäftigung mit der digitalen #transformation klar, dass Menschen zu Maschinen (in Österreich insbesondere zu ihren Autos, kleiner Scherz!) eine Beziehung aufbauen können, auch Gefühle entwickeln. Klar kann und wird Empathie immer besser imitiert werden können, aber - es ist und bleibt Fake. Es ist auch klar, dass von allfälligen 3D-Avataren einiges zu erwarten sein wird. Aber, jedenfalls für mich, ist eines recht wahrscheinlich: Mit dem starken Aufkommen von Avataren oder schlussendlich pseudo-menschlichen (Therapeuten-) Nachbildungen wird die Sehnsucht nach echter menschlicher Begegnung wachsen, so meine These. Sollte es die KI schaffen, all das perfekt zu imitieren, dann … na, mal sehen. Aber fix ist das nicht.

Ein Thema wird gern ausgelassen bei all den Zukunfts-(Alb-)Träumen: Die Kosten.
1. Wer genau wird all die Alltagstauglichen (Pflege-) Roboter bauen, all das finanzieren - und vor allem technisch warten?
2. Wer erhält Zugang zu absoluter KI-gestützter High-Tech-Medizin, und wer nicht? Wer entscheidet darüber?
3. Auf welcher Werte-Basis wird entschieden, wie all diese Maschinen und generell das #IoT programmiert werden sollen?
4. Woher soll die Energie kommen für Milliarden geplanter Smart Home Anwendungen und Anlagen (und wann wird das #5G Netz absolut tauglich sein, um diese Smart Home Devices und insbesondere auch autonomes Fahren überhaupt erst flächendeckend möglich zu machen; denn 5G ist die Voraussetzung für all dies, das haben manche nicht so am Schirm)?
5. Und: Wie sicher oder unsicher wird das alles sein? Wer hat Lust auf ein gehacktes Eigenheim?

Ein weiteres Thema rund um 3D-Animationen, Avatare und immersive Erfahrungen wird auch gern ausgelassen. Das Problem nämlich, dass viele Menschen es nicht aushalten (oft nach 1-2 Stunden Kopfweh kriegen, oder dies schlicht nicht wollen), per AR/VR-Headset sozialen Umgang zu pflegen. Und, nur so nebenbei: Die neue Apple Vision Pro soll so um die 3.500 Dollar kosten. Und auch das Metaverse soll nach letzten Meldungen ca. 20 Jahre brauchen, bevor es tatsächlich „Realität“ wird. Fraglich also, ob irgendwann mal wirklich nur KI-Beratungen in Anspruch genommen werden. Und ob das tatsächlich besser und günstiger sein wird, ob es irgendeinen Mehrwert hat. 

Dasselbe gilt für das Thema der #bildung. 

Gerade nach COVID „lechzen“ die Studierenden nahezu nach persönlicher Begegnung mit Kommilitonen und Lehrenden (das belegen selbst durchgeführte Studien mit und an der FHWien der WKW; die Ergebnisse zeigen, dass eine Mischung von ca. 60% Präsenz und 40% digital als ideal angesehen wird). Das Bedürfnis nach Nähe zu anderen Menschen wird nicht so einfach zu „tilgen“ sein. Wir sind und bleiben soziale Wesen. Und selbst wenn wir asoziale Wesen sind, auch dann brauchen wir die anderen, wenigstens als greifbare Feindbilder.

Apropos Bildung
Zum Tag der Weiterbildung (am 6.6.2023) wurden von der Plattform für Berufsbezogene Erwachsenenbildung https://plattform-erwachsenenbildung.at/ aktuelle Zahlen zu den Weiterbildungsplänen in Betrieben aller Art präsentiert. Wenig überraschend; für 90% der Befragten (400 HR-Verantwortliche) ist Weiterbildung die beste Voraussetzung, um fit für die Zukunft zu bleiben. Und: Um dem akuten Fachkräftemangel entgegenwirken. Denn, fragen wir uns das mal bei all der KI-Euphorie oder auch KI-Angst: Wird KI jemals eine Gastherme warten können?; oder eine Wärmepumpe installieren? Oder Straßen bauen? Eher nicht. Schlau sein allein ist es nicht. Anpacken ist gefragt!

Und, wieder “Apropos” -> schlau bzw. intelligent sein; in einem aktuellen LinkedIn-Beitrag von Kollegin Dr. Tilia Stingl de Vasconcelos wird Gerd Leonard zitiert; ich darf dies hier anführen: „(…) a visionary futurist, argues that the term “IA” (intelligent assistance) should be more used instead of “AI” (artificial intelligence) because IA better specifies what digital technologies should seek to achieve. His insightful remarks shed light on the need to view technology as a complementary resource rather than a replacement for human features.”

Ein weiterer Change ist ebenfalls erwähnenswert: Waren früher Themen wie EDV und Informatik an erster Stelle bei Schulungen, so steht nun Persönlichkeitsbildung an erster Stelle. Und, bezogen auf KI: Zwei von 10 Unternehmen haben konkrete Erwartungen an den Einsatz von KI in der Bildung bzw. in Trainings. 54% stehen der KI-Entwicklung diesbezüglich positiv gegenüber, 28% hingegen (sehr) negativ. 

Egal jedenfalls, wo und wie KI eingesetzt werden kann und soll, all dem muss eine Wertestruktur zugrunde liegen.

Werte, Ethik
Niemand geringerer als Science-Fiction-Autor Isaac Asimov hat 1942 in seinem Buch „Runaround“ die drei essenziellen Gesetze der Robotik definiert:
1. Ein Roboter darf keinem menschlichen Wesen Schaden zufügen, oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Mal sehen, ob diese Gesetze Bestand haben werden. 

Hierbei gibt es allerdings Hoffnung: Dem Thema einer wertebasierten Digitalisierung und KI-Entwicklung, dem hat sich die deutsch-österreichische Wissenschaftlerin Sarah #Spiekermann verschrieben. Seit 2009 leitet sie den Lehrstuhl für Wirtschaftsinformatik und Gesellschaft an der WU Wien. Sie weiß wovon sie spricht, denn sie war selbst jahrelang erfolgreich als Informatikerin tätig; im Silicon Valley (bei Openwave). 2021 gehörte Spiekermann auch zu den 14 VerfasserInnen des Manifests „Zur Verteidigung der Demokratie und Rechtsstaatlichkeit im Zeitalter der KI“. In dieser Schrift wird ein Maßnahmenkatalog zum Schutz vor „staatlichem und nicht-staatlichem Machtmissbrauch“ gefordert, „der sich aus dem gezielten Einsatz von prädiktiver Technologie und der Sammlung persönlicher Daten ergibt.“
In ihrem (empfehlenswerten) Buch „Digitale Ethik“ zeigt sie eine digitale Bedürfnispyramide, die all jenen ans Herz gelegt werden sollte, die bislang die Gefahren (und auch Chancen) von KI ignorieren, oder auch verharmlosen. Sie hat auch einen Standard für ethische, human-orientierte KI-Systeme entwickelt („ISO/IEEE 24748-7000“).

Vermehrt kommen auch Justiz und Politik in Schwung (und sogar Google-CEO Sundar Picchai). Insbesondere gegenüber der „generativen KI“ (GenAI). Verstärkt wird gefordert, dass es rechtliche Leitplanken geben muss. Auch nicht vergessen werden sollte der AI Act der EU: Der Act teilt KI-Systeme in diverse Risikoklassen ein. Daran wird in Folge die Intensität der Regulierung geknüpft. Bevor also zukünftig solche KI-Systeme in der EU zum Einsatz gelangen dürfen, müssten sie eine Konformitätsbewertung haben. Insbesondere die Trainingsdaten der KI müssten offengelegt werden. Auch wird soeben darüber diskutiert, inwieweit KI-Systeme beim Training die DSGVO-Regelungen verletzen (wenn auf personenbezogene Daten zugegriffen wird, was zwangsläufig immer wieder der Fall sein wird).

Kann sein, dass dies recht aussichtslos ist (denn bei den meisten KI-Systemen handelt es sich um geschlossene Systeme, auf deren Code unabhängige Forscher keinen Zugriff haben), kann aber auch sein, dass dies einige ungute Auswirkungen ausbremsen wird. Weiters ist es auch denkbar, dass Unternehmen begreifen werden, dass - im Sinne von nachhaltigem und wertebasiertem Wirtschaften - ein verantwortungsvoller Umgang mit KI-Technologien ebenso wichtig sein wird wie der nachhaltige Umgang mit Ressourcen. Denkbar sind auch institutionalisierte Folgenabschätzungen (oder auch quasi „digitale Gütesiegel“), was den Gebrauch von KI anbelangt. Mal sehen. Schwarz sehen ist einfach. Dagegen ankämpfen schwerer, aber wichtig.

Philosophische Aspekte
Allzu selbstverständlich wird bei #ki von „Intelligenz“ gesprochen (siehe auch oben). Aber was ist das eigentlich, diese Intelligenz? Benötigt Denken nicht ein reflexionsfähiges Bewusstsein darüber, was man tut, und aus welchen Motiven heraus? Benötigt Intelligenz nicht also so etwas wie ein subjektives Erleben? Es denkt das Gehirn ja nicht isoliert vom Rest seines empfindsamen Körpers. Es (das Gehirn) kann sich auch auf sich selbst beziehen, und auch darauf, wie wir selbst - uns - und die Art und Weise betrachten, wenn/wie wir mit verschiedenen Gegenständen oder anderen Menschen umgehen. Das zentrale Nervensystem beeinflusst bekanntlich den gesamten Körper. Ebenfalls mittlerweile bekannt: Neben dem Hirn-Gedächtnis gibt es auch ein Körpergedächtnis (und eine Gehirn-Darm-Achse). Derzeit schwer vorstellbar, dass dies durch Maschinen komplett nachgebildet werden kann. Überhaupt: Einige Transhumanisten dürften den Menschen in einer recht simplen Dualität betrachten: Da das Gehirn/der Geist („Software“), dort der Körper („Hardware“). Diese Betrachtungsweise wird nicht ausreichen, um Menschen komplett zu ersetzen. Daher definieren einige Transhumanisten den Körper als (derzeit) notwendiges Übel, das es zu überwinden gilt.

Auch nicht zu vergessen: Menschen entwickeln erstaunlich viel Kreativität, um Regeln zu umgehen oder zu brechen. Digitale System und KI werden allerdings (noch?) durch fixe Regeln definiert. Das Wienerische „Brauchen’s a Rechnung, Gnädigste?“ wird KI doch noch für längere Zeit fremd sein.

By the way: Alles, was wir im Laufe unseres Lebens im Gehirn abspeichern, alles was wir erlebt haben und Spuren im nervous system hinterlassen hat: Ray Kurzweil prognostiziert, dass man um das Jahr 2040 herum sein komplettes Gehirn inklusive aller neuronalen Inhalte „uploaden“ kann, sich also verewigen kann. Futurama ist dann Realität! Unsterblichkeit auch.

Aber bleiben wir beim Kernthema: So sehr Menschen eben - seit buchstäblich Menschengedenken - Sinnfragen stellen, so wenig sind Computer und AI in der Lage, dies (derzeit) nachzuvollziehen. Und auch was wirkliche menschliche Nähe und körperliche Präsenz bedeuten, das wird eine Maschine nicht (bzw. eventuell auch nie) verstehen können, denn SIE HAT KEINEN EMPFINDSAMEN KÖRPER. Prothesen gibt es schon, die auch Gefühle evozieren. Aber diese werden einem vorhandenen Körper zugefügt. Eventuell werden Maschinen irgendwann all das (fast) perfekt simulieren können, aber - wozu eigentlich? Realität wird es wohl nur dann, wenn es auch das große Geschäft wird. Denn der Aufwand dafür wird immens sein.

Zum Schluss. Der „wirklich heiße Scheiß“: Wired Brain & Neuralink.
Neben zu befürchtenden kriegerischen Auseinandersetzungen um (begrenzte) Ressourcen wird der wesentliche Kampf der großen internationalen Player im Internet ausgefochten. Alles wird heute von digitalen Netzwerken gesteuert: Wasser, Energie, Handel, Logistik, Finanzen, einfach alles. Die Kontrolle über das Netz wird voraussichtlich der zukünftige Kampf schlechthin. Shoshana Zuboff beschreibt in ihrem Bestseller „Das Zeitalter des Überwachungskapitalismus“ die Gefahren einer überbordenden maschinellen Intelligenz. Im Kern geht es dabei im „Voraussageprodukte“ und deren hohen Wert. Wer mit digitalem Marketing zu tun hat, wird das schon länger kennen: „Predictive Analytics“ ist hier das Zauberwort. 

All das ist aber relativ harmlos zu dem wahren Wendepunkt der (un)menschlichen Entwicklung rund um KI-Forschung (zumindest aus der Sicht namhafter ExpertInnen). Nämlich zu einer Entwicklung einer direkten Gehirn-/Maschinen-Schnittstelle. Das bekannteste Projekt zu diesem Thema betreibt die Firma Neuralink. Eine Firma, die, unter anderem, von Elon Musk gegründet wurde. Jenem Elon Musk, der aktuell vor OpenAI-Produkten wie ChatGPT warnt.

Worum geht es dabei: Im Kern um „BCIs“ („Brain-Computer Interfaces“, auch Neural-Control Interfaces genannt), die darauf abzielen, unser Gehirn direkt mit einem Computer zu connecten. Das wäre der erste Schritt. Der nächste Schritt wäre die direkte Verbindung zwischen verschiedenen Gehirnen.

Wozu das Ganze?
Nun, Schritt 1 wäre dazu gedacht, um durch rein gedankliche Anstrengung Pläne umsetzen zu lassen, indem ich einfach an sie denke. Beispiel: Ich denke an meine Kaffeemaschine und einen frischen Kaffee; die Maschine empfängt den „Brain-Befehl“, und beginnt Kaffee zu kochen.

Bei Schritt 2 geht es einen gewaltigen Schritt weiter: Ich brauche nicht mehr zu sprechen, zu deuten oder zu schreiben, sondern: Ich connecte mich direkt mit anderen Gehirnen, ohne vermittelnde Zwischenstufen. Musk meint dazu, „man müsse es wollen, wenn die Maschine oder andere deine Gedanken lesen können“. Das Dumme dabei ist: Man ist sich seiner neuralen Prozesse nicht wirklich bewusst. Man wird ergo nicht wirklich mitbekommen, ob die eigene Gedankenwelt für andere offensteht oder nicht. Uns Menschen macht es aber eben im Kern aus, dass wir Sprache und Vermittlung brauchen. Und unseren Körper, der diese Vermittlungen fühlbar macht. Das wird, etwas naiv aus meiner Sicht, übersehen.

Fassen wir zusammen
Die These der Kurzweil‘schen Singularität ist realistisch, aber nicht „Gottgegeben“. Der Zeitpunkt steht in den Sternen; das Datum (2045) ist wohl eher ein Marketing-Gag. Eines aber ist klar: KI ist Realität, die Gefahren und Chancen, die darin liegen, werden uns in den kommenden Jahren beschäftigen müssen.

Weiters muss klarer definiert werden, ob KI dem Wesen nach etwas Intelligentes ist. Oder, nach menschlichen Kriterien, stets eine Imitation, die uns unzufrieden zurücklassen wird. Deshalb wird auch manchmal bei KI von einer konnektiven Intelligenz gesprochen, und nicht von einer intelligenten. Auch wichtig ist, abzuklären, wofür Menschen in Zukunft bereit sind, zu bezahlen. So wie es derzeit aussieht, geht der reine Konsumismus dem Ende zu. Schlicht und einfach auch deshalb, weil die Ressourcen begrenzt sind und uns buchstäblich die Luft (und die Energie, die Rohstoffe, das Wasser) ausgehen wird. Langfristig, und zugegeben optimistisch betrachtet, werden wir nicht mehr nur materielle Produkte und Dienstleistungen kaufen wollen, sondern wir werden mehr in Freizeit, Austausch, Beziehungen und anregende Geschichten/Erfahrungen investieren. KI muss nicht unbedingt die Vernichtung der Menschheit bedeuten, so wie wir sie heute kennen, KI kann auch die direkte Vernetzung zwischen engagierten Menschen bedeuten, und dadurch zur Verbesserung der Weltlage beitragen.

All dies wird allerdings nur dann gelingen, wenn der Kampf um die Vorherrschaft im Internet nicht von repressiven totalitären Systemen, Staaten und Datenmonopolen gewonnen wird, sondern von liberalen Demokratien.

Der Kampf gegen die maschinelle Entmündigung durch KI wird jedenfalls spannend. Aber er ist nicht aussichtslos.

#artificialintelligence #chatbots #futureoftech #psychotherapie #bildung

Admin - 10:58:46 @ Allgemein | Kommentar hinzufügen