Das magische, gelbrote Auge von HAL 9000, dem Supercomputer aus 2001 passte nicht so recht zur süsslichen Stimme, mit der er den Astronauten die Lage erklärte bzw. autonom entschied...?
Urs Gattiker war sich auch nicht ganz sicher, ob "AI" nicht doch die größte Gefahr für die Menscheit sei ? Er sammelte fleißig Belege, wo was wann zum Problem werden könnte oder bereits ist: Amazons Jeff Bezos befand AI bei der Mitarbeiter-Auswahl als "bullshit". In den USA sind bereits 117 Mio Gesichter gespeichert und (...breaking news) China will Handy-Käufer dazu zwingen, sich mit Mobil-Nr. und "Selfie" zu registrieren. Andererseits: San Francisco verbietet "Face Recognition", da der Algorithmus offensichtlich Fake-Gesichter produziert. Fakt ist: Data Harvesting verzeichnet 44% Wachstum, was machbar ist, wird auch gemacht. Keine Frage, eine Maschine ist schnell und präzise aber nur der Mensch kann Empathie empfinden, was manchmal auch schief gehen kann. Daß Menschen Fehler machen, daran haben wir uns gewöhnt. Aber, wer ist für Fehler der AI verantwortlich? Der Betreiber, der Programmierer, der User, die software, der Staat...? Und wer kontrolliert letztlich diese Macht.


Letztlich soll die Maschine zum Schluß immer den Menschen fragen (...sofern dazu Zeit bleibt?!) Eine weitere Erkenntnis für Urs Gattiker: Je kleiner und näher ein AI-Projekt am Kunden ist, desto höher ist die Chance zum Erfolg.
HAL 9000 war damals ziemlich nah an den Astronauten, die im selben Raumschiff zum Jupiter folgen. Leider war der Super-Computer zum dem Schluß gekommen, daß die beiden Astronauten die größte Gefahr für die Mission seien. Mit einem Trick (!) lockte er sie aus dem Raumschiff - hinaus in die Weiten des Alls ...
Schöne, neue Welt.
gm

