Spiegel Online dieser Tage zu den besten Apps 2016 und dem KI Messenger von Google:

die_besten_apps_des_jahres__prisma__resi__photomath_und_co__-_spiegel_online_-_mozilla_firefox__ibm_editionUnd der mit entscheidende Satz, wo bei vielen die Alarmglocken angehen, ist die Passage über Daten anvertrauen. Will ich Google für die beschriebene Gegenleistung wirklich so viele Daten anvertrauen? Oder besser: Was macht Google mit diesen Daten? Wer hat die Rechte oder Weiterverwertungsrechte daran. Sollten die Daten wirklich weiter mir gehören und geschützt sein, würde ich Allo gerne ausprobieren und mich wahrscheinlich sehr über dessen Hilfe freuen. Eine intelligente statt 15 verschiedene Apps, die ich bedienen muss.

Szenewechsel: Immer mehr Hospitäler und Kliniken und Institutionen kündigen an, kognitive Technologien basierend auf IBM Watson in der Medizin einzusetzen. Das Beispiel Diagnose für Krebspatienten ist ein hervorragendes Beispiel. IBM Watson wird laufend mit der neuesten Forschung gefüttert, einer puren Menge an Publikationen, die ein einzelner Arzt gar nicht mehr lesen, auswerten und daraus Erkenntnisse für die Medikation ableiten kann. Zusätzlich werden noch Tausende von Patientenakten in IBM Watson eingegeben. Das System der künstlichen Intelligenz wertet nun diese Informationen aus, erkennt Muster und Kausalitäten, wird von Medizinern trainiert und weiter angelernt und ist zum Zeitpunkt X in der Lage, dem Arzt vorzuschlagen, welche Behandlung bei der Patientin Y mit größter Erfolgswahrscheinlichkeit anzuwenden sei. Die medizinischen Daten sind Eigentum der Kliniken und Hospitäler. Daten werden nur zu Forschungszwecken weitergegeben. Niemand wird hier ernsthaft den zutiefst humanen Einsatz von künstlicher Intelligenz in Frage stellen. Oder?

Leider werden die relevanten Fragen rund um künstliche Intelligenz jedoch meist plakativ und negativ behandelt. Wer die Apokalypse an den Himmel malt oder wie in dem Buch von Yvonne Hofstetter über „Das Ende der Demokratie“ herauf beschwört, wird gehört und ins Fernsehen eingeladen. Besonders die Feuilletons und vermeintlich kritischen Kulturjournalisten scheinen solche Beiträge zu mögen. Natürlich trägt zur Auflage auch bei, weil rein zufällig das Horrorszenario eines Wahlsiegs von Le Pen in Frankreich durch die künstliche Intelligenz simuliert wird. Nicht mehr der Mensch, eine intelligente Maschine trifft die „richtigen“ politischen Entscheidungen.

Die notwendige sachliche Auseinandersetzung gerät ins Hintertreffen. AI, Blockchain, SmartPhone, iPhone, Big Data, IoT, Industrie 4.9, Smart Home, Umgebungsintelligenz, Personalisierung – jede Technologie, jeder technologische Trend wird erst einmal negativ bewertet und dargestellt. Die verständliche Angst vor Arbeitsplatzverlusten oder vor latenter Überwachung durch immer mehr untereinander vernetzte Geräte, das Internet of Everything, wird natürlich geschürt. Überwachung sei der immanent. Riesenmaschinen übernehmen die Entscheidungen, in Wirtschaft und Politik. Rein rhetorische Fragen wie „ist Optimierung immer human“ tragen ein weiteres bei. Dem Ganzen mixt man dann noch mögliche reale Szenarien bei und schon sind wir beim Buch von Yvonne Hofstetter über „Das Ende der Demokratie – Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt“. Allein schon der Subtitel: DIE künstliche Intelligenz … Pure Generalisierung und Pauschalisierung.

Im Buch werden viele wichtige Aspekte der Digitalisierung, der kommerziellen Interessen vieler Konzerne, gerade des GAFAM-Komplexes, der fehlenden Innovation in Deutschland, möglicher Überwachung, und der mangelhaften, nachhinkenden Kontrolle durch die politischen Instanzen bunt zusammen gemischt. Jedoch werden fast nur die Risiken beschworen, die Chancen vernachlässigt oder erst gar nicht bzw. am Rande erwähnt. All das soll wohl und wird bei vielen Lesern zur Abwehrhaltung führen. Stattdessen brauchen wir aber die intelligente, informierte Auseinandersetzung mit dem Thema. Wie in Jahrhunderten zuvor wird die technologische Entwicklung nicht aufzuhalten sein. Unsere Aufgabe ist es, gerade auch beim Thema KI zu kontrollieren und bewusst zu gestalten. Wir müssen immer wieder Fragen stellen:

  • Was ist der Anwendungszwecke und der Nutzen?
  • Wer profitiert von der Lösung? (Das kann, muss nicht kommerziell sein.)
  • Welche Daten werden wo genutzt?
  • Wem gehören die Daten, der Knowledge Graph, und wofür werden sie verwendet oder weitergegeben?
  • Welche Entscheidungen werden durch die jeweilige KI-Lösung getroffen, übernommen oder wie und wo assistiert die Lösung bei Entscheidungen?
  • Welche Aspekte menschlicher Arbeit oder menschlicher Entscheidung werden durch die KI-Lösung ersetzt oder ergänzt? (Natürlich bis hin zur Frage möglicher Arbeitsplatzverluste.)

Dies sind nur einige Fragen, die mir in den Sinn kommen, und es gibt sicher noch eine Reihe weiterer, die wir stellen sollten. Und diese Fragen müssen für jedes Anwendungsgebiet gestellt werden und es darf nicht im BILD-enden Stil über DIE böse künstliche Intelligenz gesprochen werden.

Positive Beispiele wie der oben beschriebene Einsatz von IBM Watson in der Medizin gibt es zuhauf. Gerade diese zu finden, ist eine wichtige Aufgabe. Und wenn wir Systeme der künstlichen Intelligenz im Berufsleben, beispielsweise zur Unterstützung der „Büroarbeiter“ einsetzen, müssen wir sachlich über Chancen und Risiken sprechen und nicht sofort verteufeln.

Ginni Rometty, CEO der IBM, hat auf der World of Watson vor einigen Wochen aus meiner Sicht vor allem zwei wichtige Aspekte herausgearbeitet, die wir immer im Blick behalten sollten: Wem gehören die Daten, wem gehört der Knowledge Graph? Und: Kognitive Systeme, Systeme der künstlichen Intelligenz sollten menschliche Intelligenz ergänzen, sie nicht ersetzen. Lasst uns mit diesen Themen sehr, sehr kritisch, aber eben nicht marktschreierisch und verteufelnd umgehen.

Nachtrag: Ich persönlich habe keine Angst vor den beschriebenen Technologien der künstlichen Intelligenz. Deren Potential kann und sollte durchaus bewusst und human genutzt werden. Ich habe jedoch Angst vor den Menschen, die die Technologien nutzen, um ihre Ziele zu erreichen, ob es nun reine Profitgier oder politischer Radikalismus ist. Nicht die Technologie, der Missbrauch durch Menschen ist die Herausforderung. Wenn heute Radikale soziale Medien nutzen, um ihre Ideologie und ihre Lügen zu verbreiten, so gibt es durchaus Parallelen zu einem Goebbels und dessen Benutzung der damals neuen Massenmedien.

Dies ist der zweite durch das Buch „Das Ende der Demokratie – Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt“ initiierte Blogbeitrag. Im ersten Beitrag habe ich mich im Schwerpunkt mit dem Thema Big Data auseinandergesetzt. Hier geht es um künstliche Intelligenz.

Veröffentlicht von StefanP.

Stefan Pfeiffer ist seit 2007 bei der IBM in verschiedenen Marketingpositionen tätig. Als gelernter Journalist hat er natürlich eine Leidenschaft für das Schreiben, die er hier im CIO Kurator, aber auch in seinem persönlichen Blog DigitalNaiv auslebt. Seine inhaltliche Leidenschaft im IT-Umfeld gilt dem digitalen Arbeitsplatz, dem Digital Workplace. Auf Twitter ist er als @DigitalNaiv „erreichbar“.

One Comment

  1. Passend zu meinen beiden Blogbeiträgen zum Thema Big Data und Künstliche Intelligenz: Warum Frank Thelen und Yvonne Hofstetter Schwätzer sind von Bernd Rubel (@Markensysteme) und Carsten Drees (@Casi): Von Big Data, Trump und Bomben: Überraschung – Eure Daten werden genutzt

    Antwort

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s