Anzeige
Anzeige
Anzeige
Anzeige
Laif 23 01483957 H
Die Digitalisierung im Fokus (Bild: Laif)
Yvonne Göpfert LEAD 03/18 KI

Künstliche Intelligenz muss besser trainiert werden

Unsere Welt wird durch die Digitalisierung komplett auseinandergenommen und neu zusammengesetzt. Da kommt so einiges auf uns zu, worauf wir heute kaum vorbereitet sind. Wir haben mit Prof. Dr. Simon Hegelich von der TU München gesprochen, was unsere Regierung und was die Unternehmen jetzt tun müssen. Der Spezialist, der in seiner Forschung Politikwissenschaft und Computerwissenschaft zu Political Data Science verbindet, fordert mehr Open Source-Lösungen und mehr Qualität beim Training von KIs.

Anzeige
Anzeige
Anzeige

LEAD: Wer die Macht über die KI hat, hat auch die Macht über die Menschheit. Davor haben viele Menschen Angst. Doch wie realistisch ist diese Aussage?

Prof. Dr. Simon Hegelich: Heute kursieren im Netz viele abwegige Szenarien, in denen eine künstliche Intelligenz die Weltherrschaft übernimmt. Das ist sicherlich überzogen. Aber mit Hilfe Künstlicher Intelligenz werden heute mächtige Tools geschaffen und diese Tools liegen oft in Händen großer Konzerne. Wer diese Tools hat, hat die Macht. Mein Wunsch daher: Open Source fördern. Denn letzten Endes läuft alles auf die Fragen hinaus: Wer hat die Daten und das Know-how?

LEAD: Da stellt sich gleich eine andere Frage: Wer muss die grundlegenden Regelungen für die Zukunft von KI schaffen? Muss die Regierung tätig werden und Gesetze erlassen?

Hegelich: Ja, unsere Regierung muss nicht nur tätig werden. Sie ist schon tätig. Im Oktober beispielsweise soll ein Strategiepapier zum Thema KI kommen. Allerdings sieht es im Moment so aus, als würde Deutschland sich auf die Nische KI und Robotik konzentrieren, nach dem Motto: Die Amerikaner haben die Daten. Die Chinesen haben die Halbleitertechnik. Die Deutschen haben Industrie 4.0. Aber diese Betrachtung lässt die Big Data-Problematik völlig außen vor. Als nationale Strategie finde ich das gefährlich, weil man so große Entwicklungen im KI Bereich ausklammert.

Anzeige

LEAD: A propos Strategie. Muss das Thema Künstliche Intelligenz nicht Eingang finden in unsere Bildungspolitik?

Hegelich: Vielfach wird gefordert, dass unsere Kinder in den Schulen auf das Thema KI vorbereitet werden. Ich denke jedoch, dass wir ein viel größeres Problem haben - und zwar bei den Leuten, die heute mitten im Berufsleben stehen. Die werden in zwei bis drei Jahren gar nicht mehr mithalten können, wenn im beruflichen Umfeld der Umgang mit Roboter-Assistenten und Künstlicher Intelligenz Standard wird. Wir werden daher eine Bildungsoffensive nicht nur für Kinder, sondern für die gesamte Gesellschaft brauchen.

Call To Action 1200X1200 Lead September
Fokussier dich!

Die neue LEAD-Ausgabe entführt dich in die Welt der Fotografie. Welche Rolle sie und ihre digitale Weiterverwertung heute spielen und was es für Möglichkeiten gibt, erfährst du in 3 spannenden Geschichten im Heft. Aber auch Themen wie E-Sports, künstliche Intelligenz und Marketingtechnologien sind Teil der aktuellen Ausgabe. LEAD 03/18 erhältst du am Kiosk, als E-Paper oder im Abo.


LEAD: Nach welchem Muster handelt eine KI? Nach welchem Wertesystem werden die intelligenten Maschinen künftig handeln? Welche Werte liegen ihrer Programmierung zugrunde?

Hegelich: Machine Learning ist vom Prinzip sehr konservativ. Der Computer findet nur Muster, die in den Daten schon drin sind und die können auch diskriminierend sein. Und das ist aus den Daten auch nur sehr schwer rauszukriegen. Ein Beispiel: Soll eine KI Zusammenhänge lernen, ohne dass das Geschlecht dabei berücksichtigt wird, so scheitert das oft daran, dass viele weitere Daten, die herangezogen werden, trotzdem vom Geschlecht abhängen. Oft wird daher ja ein TÜV für Algorithmen gefordert. Ich halte einen TÜV für Algorithmen jedoch für wenig sinnvoll. Um die gesellschaftlichen Auswirkungen des Einsatzes von Algorithmen zu überprüfen, muss man sich mit dem Einsatzgebiet, der Gesellschaft und dem Algorithmus auskennen. Das kann keine Behörde leisten, dass muss Teil der Forschung und Produktentwicklung sein.

LEAD: Wie sieht es in der Praxis aus?

Hegelich: Vieles, was Unternehmen machen, ist nicht aktueller Stand der Forschung. So haben wir im Machine Learning inzwischen hohe Standards, um zu überprüfen, dass die Modelle robust sind: Cross-Validation zum Beispiel. In der Anwendung werden diese Methoden häufig nicht berücksichtigt. Weil Unternehmen keine Zeit haben oder es als zu teuer erachten oder weil es keine ausführliche Testszenarien gibt. Und es gibt noch ein zweites Problem: KI wird oft von Leuten angewendet, die nicht durchblicken, was sie tun.

LEAD: Was könnten dann eine mögliche Lösung sein?

Hegelich: Das Problem sehe ich bei den Verfahren. Künstliche Intelligenz basiert auf so vielen verschiedenen mathematischen Operationen, die in einer Black Box ablaufen. Das komplexe Modell ist nicht nachvollziehbar. Was der Mensch aber nachvollziehen kann, ist die cost function. Beispiel Facebook: Will ich z.B. fördern, wie lange sich ein Nutzer mit einem einzelnen Artikel beschäftigt oder will ich fördern, dass der Nutzer möglichst viele Artikel ansieht? Also Verweildauer versus Scrollverhalten.

Das hat Einfluss auf die Werbeeinblendungen. Das kann man transparent machen. Dennoch steht auch die Forschung immer wieder vor Rätseln: In neuronalen Netzen weiß man nämlich nicht immer, warum am Ende ein bestimmtes Ergebnis entsteht. Daher bemüht sich die Wissenschaft, Zusammenhänge in der Blackbox visualisierbar zu machen. Wenn das gelingt, dann wird deutlich werden: Was hat die KI eigentlich gelernt.

Teaserbild Neu
Minimal-Onliner oder Technik-Enthusiast?

Tinder ersetzt die Bar, Alexa die Sekretärin. Die digitale Welt ist mit der realen Welt längst eins geworden. Nur will die Realität nicht jeder wahrhaben. Wie souverän bewegst du dich im vernetzten Leben?

Anzeige
Anzeige
Verlagsangebot
Anzeige
Anzeige
Aktuelle Stellenangebote
Alle Stellenangebote