Anzeige
Anzeige
Anzeige
Anzeige
Paul Bildrechte Fraunhofer Ipa R Bez
Yvonne Göpfert KI Trends

Megatrend Künstliche Intelligenz

Klüger, vorurteilsfrei, besser? Ein Leben ohne Alexa scheint bereits heute scheinbar sinnlos. Wie Künstliche Intelligenz in unser Leben einzieht und was das für Auswirkungen hat.

Anzeige
Anzeige
Anzeige

Künstliche Intelligenz macht uns zur Prognosegesellschaft

Künstliche Intelligenz (KI) ist nicht mehr aufzuhalten. 2018 werden ihre Früchte uns im täglichen Leben und im Berufsalltag stärker denn je unterstützen. Unternehmen überlegen sich täglich neue Anwendungsmöglichkeiten für Privatpersonen und Unternehmen – von Automotive über Healthcare bis zu E-Commerce und Marketing. In allen Bereichen des Lebens, des Arbeitens und der Gesellschaft werden wir erleben, dass auf Basis von automatisierter Echtzeit-Datenanalyse „Zukunftszustände“ prognostiziert werden, sagt Zukunftsforscher Sven Gábor Jánszky, Chef des ThinkTanks 2b AHEAD.

Die Welt verwandelt sich in eine Prognose-Gesellschaft. In Städten werden die Staus der nächsten 2 Stunden prognostiziert. In Supermärkten werden die Verkaufszahlen der nächsten Woche vorhergesagt. Und jeder sammelt fleißig medizinische Daten von sich selbst – angefangen von Pulsfrequenz und Herzschlag über Schlafqualität bis hin zum Entspannungszustand. Diese Daten werden Versicherungen heranziehen, um das Krankheitsrisiko von Versicherten zu berechnen – und davon abhängig ihre Beiträge.

Künstliche Intelligenz und Schicksal

Wenn die Technologie es möglich macht, dass nahezu alles gemessen, berechnet und prognostiziert werden kann, dann wird sich unsere Sicht auf Zufälle und Schicksale verändern, ist sich der Zukunftsforscher sicher. Denn dann erscheinen viele Dinge, die bis heute als Zufall oder Schicksalsschlag galten, künftig als Ergebnis eines menschlichen Fehlverhaltens, vor dem die Technologie schon vorher gewarnt hatte.

Anzeige

Das sichtbarste Beispiel sind Krankheiten: Wenn ich heute krank werde, dann bedauern mich alle Menschen in meinem Umfeld und helfen so gut sie können: meine Chefs, meine Kollegen, mein Partner und meine Kinder. Aber die Grundlage für dieses Bedauern ist die Vorstellung, dass ich nichts dafür kann. Ich bin nicht schuld daran, dass ich krank geworden bin, sondern dies ist ein unvorhersehbarer zufälliger Schicksalsschlag. In Zukunft wird mich aber mit hoher Wahrscheinlichkeit ein technologisches Gerät schon Tage bevor ich krank werde, davor warnen. Es wird mir empfehlen, dass ich dies und jenes essen soll und mich so oder so verhalten soll, damit ich nicht krank werde. Wie wird meine Frau reagieren, wenn ich dennoch krank werde? Wenn sie genau weiß, dass die Krankheit meine Schuld ist, weil ich mich nicht an die Empfehlung der Technologie gehalten habe?

Ganz ähnlich gilt das natürlich auch für alle anderen Schicksalsschläge wie Autounfälle, weil ich dem selbstfahrenden Auto nicht das Lenkrad überlassen habe oder Kündigungen, weil ich die Warnung des digitalen Assistenten vor einem Kompetenzmangel nicht ernst genommen habe, führt Sven Gábor Jánszky sein Zukunftsszenario weiter aus.

Künstliche Intelligenz und Vorurteile

Nun werden Daten ja akkumuliert, um zu solchen Prognosen zu gelangen. Doch was, wenn bei der Dateninterpretation mit Hilfe von Künstlicher Intelligenz Vorurteile gleich mitgelernt werden? Wenn sich aus den Zahlen ergibt, dass farbige Menschen sich gesünder ernähren als weiße Menschen? Oder dass Schwarze häufiger ihr Auto autonom fahren lassen als hellhäutige Europäer. Wer bekommt dann die günstigere Versicherung?

Auch Fraud Protection, also die Risikobewertung bei Online-Käufen, um zu klären, ob die Bezahlung einer Online-Bestellung von einer gestohlenen Kreditkarte stammt, wird heute schon per KI unterstützt. Doch wenn eine russische Kreditkarte heute in San Francisco und morgen in München belastet wird: Handelt es sich dabei um Online-Betrug? Oder einfach um die Kreditkarte eines russischen Geschäftsreisenden?

Künstliche Intelligenzen gegeneinander rechnen lassen

Dr. Frank Säuberlich, studierter Wirtschaftsmathematiker und heute Director Data Science & Data Innovation bei dem Technologie- und KI-Unternehmen Teradata glaubt, dass Ergebnisse mit Hilfe von KI nur dann besser werden, wenn wir die Vorhersagen, die die Machine-Learning-Algorithmen liefern, genau prüfen und testen, wie gut und realistisch die Ergebnisse sind. Und vielleicht auch verschiedene Algorithmen gegeneinander laufen lassen, um die Ergebnisse zu vergleichen. Nur dann können wir eine hohe Qualität der Vorhersagen garantieren.

Wie sieht es also mit der Güte der Vorhersagen aus, die die KI-Systeme treffen? „100 Prozent richtige Vorhersagen gibt es nicht. Aber die Menschen akzeptieren 80 Prozent Verlässlichkeit, weil der Nutzen so hoch ist“, ist sich Sven Gábor Jánszky sicher. Das kommt vor allem beim autonomen Fahren zum Tragen. Solange autonomes Fahren unfallfrei vonstatten geht, werden es die Menschen akzeptieren. Doch schon ein schwerer Unfall wird das Autonome Fahren zurückwerfen und das Vertrauen der Menschen in die Technologie schrumpfen lassen.

Janszky Gabor Sven 2Beahead Cr Jorg Glascher Fur Web
„100 Prozent richtige Vorhersagen gibt es nicht", sagt Zukunftsforscher Sven Gábor Jánszky. Auch nicht mit KI. (Foto: Jörg Gläscher)

KI, Sprache und Vorurteil

Und was passiert, wenn ein KI-System auf Sprachanalysen basiert? Wenn KI-Systeme mit Texten trainiert werden, lernen sie damit auch Klischees und Vorurteile. Das haben Wissenschaftler des Centers for Information Technology Policy der Universität Princeton und des Department of Computer Science der Universität Bath bewiesen. Sie haben zahlreiche Texte mit insgesamt 840 Milliarden Wörtern analysiert und festgestellt: Begriffe wie "Geld" oder "professionell" werden häufiger mit dem Wort "Mann" assoziiert, Begriffe wie "Haus" oder "Eltern" mehr mit dem Wort "Frau". Selbstlernende Systeme lernen diese Zusammenhänge ähnlich wie der Mensch und bilden somit ähnliche Vorurteile ab.

Die Vermutung liegt nahe, dass sich menschliche Vorurteile statistisch in unserer Sprache widerspiegeln. Um nun nicht auf die sprachlichen Vorurteile reinzufallen, sollten KI-Entwickler der Übernahme von Klischees mit Hilfe von expliziten, mathematischen Regeln entgegenwirken. Auch wenn Alexa dann niemals Witze selber erfinden können wird, die ja gerade auf Klischees basieren.

Künstliche Intelligenz und Vertrauen

Neben der Frage, inwieweit Künstliche Intelligenz vorurteilsfrei die richtigen Prognosen und Entscheidungen treffen kann, stellt sich auch die Vertrauensfrage. „Ohne freundliche Mimik kein Roboter. Die Robotics-Entwickler haben gelernt, dass sie ihren Schöpfungen Namen und Mimik geben müssen, damit sie vom Mensch akzeptiert werden“, schreibt Dominik Matyka, der neue Chefberater der Dmexco. Und so versuchen KI-Entwickler bereits, ihren Robotern Emotionen einzuhauchen. Als Beispiel sei nur der Verkaufsroboter Paul von Saturn genannt, der freundlich lächelnd die Kunden am Eingang begrüßt und mit einem Augenaufschlag fragt, ob er helfen kann. Um sie schließlich dorthin zu führen, wo die Kunden das gesuchte Produkt finden.

Künstliche Intelligenz 2050

Durchsetzen wird sich Künstliche Intelligenz ganz sicher- in allen Bereichen. Teils, weil die Entwicklung schleichend ist, teils weil der Mensch große Vorteile darin sieht – Beispiel Alexa. Spannend wird es, wenn die kognitive Intelligenz der KI-Systeme die normale Intelligenz von uns Menschen übersteigt. Das soll etwa 2050 der Fall sein, sagt Zukunftsforscher Sven Gábor Jánszky. Die Frage ist dann, ob die kognitive Intelligenz auch emotionale Intelligenz beeinflussen kann. Die großer Frage der Zukunft lautet also: Werden die KI-Systeme dann zu menscheln anfangen?

Anzeige
Anzeige
Verlagsangebot
Anzeige
Anzeige
Aktuelle Stellenangebote
Alle Stellenangebote