Was ich zu Anfang sagen könnte
(ich werde wahrscheinlich etwas anderes, auf den Moment, die Situation,
den Raum Bezogenes sagen):
Die KI ("Künstliche Intelligenz") ist seit 2016 da. Sie war nicht
vorhergesagt. Konzerne aller Art stürzen sich darauf und das Militär. Die
nicht polizeilichen Organe in Deutschland meinen, sich die üblichen sieben
Jahre Zeit lassen zu können.
KI ist ein Computer. KI arbeitet aber grundlegend nicht wie ein vorheriger
Computer. Sie bildet menschliches Lernen nach.
Daran gearbeitet hat man seit fünfzig Jahren. Dass es jetzt plötzlich
klappt, hat man nicht erwartet. Wegbereiter war das Big Data Management -
dass Computer sehr große Datenmengen sinnvoll handhaben. Dessen Erfolg
kann man ungefähr ab 1998 mit dem Start der Google-Suche datieren.
KI bekommt anfangs etwas mitgegeben, dass ich als Biologe "Trieb" nennen
würde: Erfasse, hole heraus oder gestalte aus dem, was dir gegeben wird,
vom Programmierer vorgegebene Inhalte. KI sucht Muster in dem, was ihr
gegeben wird, und gleicht sie mit den vom Programmierer vorgegebenen
Strukturen ab.
Ein schönes Beispiel für die Leistung von KI ist das Malen nach einer
Fotovorlage im Stil eines Malers. Man kann ihr ein Gemälde von Van Gogh
vorgeben und zahlreiche Regeln zur Bilderfassung. Nach Üben anhand
Hunderter von Photos, bei denen der Programmierer jeweils sagt, wieviel
Prozent gelungen das Ergebnis ist, kann KI das Foto z.B. eines Hundes im
Stil von Van Gogh beeindruckend gut malen.
KI geht dabei einen Lernweg. Man schafft es bei einer KI im Einzelnen
nicht, zu klären, wie ihr Ergebnis zustande kommt.
Die bisherigen Erfolge von KI deuten darauf hin, dass KI brilliant sein
kann - in der Analsyse, der Auf- und Umarbeitung eng gefasster Daten bis
zum Beschließen, was als nächstes zu tun sei, und, ein Level höher, im
Nachahmen und Erfassen der menschlichen Kommunikation.
Ebenso zeigt die bisherige Erfahrung, dass KI dann plötzlich für Menschen
nicht nachvollziehbare strohdumme Fehler macht. Ein selbststeuerndes Auto
überfährt z.B. eine rote Ampel, nachdem es tausendmal zuvor an roten
Ampeln gehalten hat. Diese tückischen und enorm schädigenden Fehler haben
eine statistische Unausrottbarkeit wie Atomkraftwerk-Unfälle: Sie werden
kommen durch interne Ursachen wie in Tschernobyl und äußere
Grenzsituationen wie in Fukushima. Es wird KI-Fehler so garantiert geben
wie "größte annehmbare Unfälle" bei Atomkraftwerken.
Soweit mal ein Vorwort. Ich möchte nun einen vierzigminütigen Rundschlag
machen. Vielleicht wird es auch eine Stunde :-)

Die Grafik deutet an, dass wir derzeit einen
Menschenkosmos an sozialen Systemen im Internet vorfinden.
Darin wimmelt es zunehmend auch von Äußerungen durch Gestalten, die gar
keine Menschen sind. |