Lehrplan
Kurs: AI-Officer (KI-Beauftragter, KI-Manager)
Anmeldung

Lehrplan

AI-Officer (KI-Beauftragter, KI-Manager)

Grundlagen

0/61

KI-Beauftragter

0/58

KI-Manger

0/56
Video-Lektion

Podcast – KI hat kein Gewissen – Wer trägt Verantwortung, wenn Maschinen entscheiden?

In dieser optionalen, aber sehr interessatnen Zusatz-Lektion geht es um eine der zentralen Fragen beim Einsatz von Künstlicher Intelligenz: KI hat kein Gewissen – aber wer trägt dann die Verantwortung, wenn KI-Systeme Entscheidungen beeinflussen oder Fehler machen? Die Podcastfolge nähert sich diesem Thema bewusst praxisnah, verständlich und aus einer menschlichen Perspektive, ohne technische Vorkenntnisse vorauszusetzen.

Der Einstieg macht mit einem humorvollen Beispiel deutlich, wie überzeugend, aber zugleich irreführend KI-Systeme auftreten können. Ein KI-System beschreibt eine reale Person mit frei erfundenen Eigenschaften, formuliert dies aber so selbstsicher, dass der Eindruck entsteht, es handle sich um verlässliche Informationen. Genau hier liegt bereits das Kernproblem: KI klingt intelligent, wirkt souverän und glaubwürdig, versteht aber nicht, was sie sagt, und übernimmt keine Verantwortung für ihre Aussagen.

Im Mittelpunkt der Folge steht ein ausführliches Interview mit einer Informatikprofessorin, die seit Jahren zu algorithmischer Verantwortung, ethischen Fragen und den Grenzen automatisierter Entscheidungssysteme forscht. Sie erklärt sehr anschaulich, dass der Begriff „künstliche Intelligenz“ historisch eher ein Werbebegriff war und schnell zu falschen Erwartungen führt. Moderne KI-Systeme denken nicht, fühlen nicht und urteilen nicht, sondern erkennen Muster in sehr großen Datenmengen und leiten daraus Wahrscheinlichkeiten ab. Sie können Texte erzeugen, Bilder erkennen oder Vorhersagen treffen, verstehen aber weder Kontext noch Ausnahmen noch Konsequenzen ihres Handelns.

Besonders wichtig ist dabei die Erklärung, wie maschinelles Lernen funktioniert. Statt klarer, nachvollziehbarer Regeln entstehen bei lernenden Systemen interne Muster und Entscheidungslogiken, die sich nicht vollständig erklären lassen. Das führt dazu, dass KI-Systeme häufig mit sogenannten Heuristiken arbeiten, also mit gut funktionierenden Näherungen. Diese liefern oft brauchbare Ergebnisse, scheitern aber genau dann, wenn Situationen komplex, neu oder ungewöhnlich werden. Die Maschine kann nicht erkennen, wann sie sich außerhalb ihres sinnvollen Einsatzbereichs bewegt.

Ein zentraler Teil des Interviews beschäftigt sich mit der Frage der Verantwortung. Die klare Aussage lautet: Verantwortung liegt immer bei den Menschen, insbesondere bei den Betreibern oder Betreiberinnen eines Systems. Wer entscheidet, ein KI-System in einem bestimmten Kontext einzusetzen, trägt auch die Verantwortung dafür, ob dieses System für diese Aufgabe geeignet ist. Diese Verantwortung kann zwar durch Verträge, Tests oder Dokumentationen teilweise abgesichert werden, aber sie lässt sich nicht vollständig abgeben. Gerade bei lernenden Systemen bleibt immer eine Verantwortungslücke, weil Entscheidungen nicht hundertprozentig nachvollziehbar sind.

Sehr eindrücklich wird das an einem realen Beispiel aus dem Polizeikontext gezeigt. Ein schlechtes Kamerabild wird mit einer Datenbank abgeglichen, das System sucht die „ähnlichste“ Person, und ohne sinnvolle Schwellenwerte oder kritische menschliche Prüfung wird eine falsche Person verdächtigt und verhaftet. Dieses Beispiel macht deutlich, dass Fehler häufig nicht allein durch die Technik entstehen, sondern durch das Zusammenspiel aus schlechter Datenqualität, falschem Einsatz, fehlender Schulung und blindem Vertrauen in das System. Genau hier liegt eine der größten Gefahren im praktischen Einsatz von KI.

Ein weiterer Schwerpunkt der Folge ist die weit verbreitete Hoffnung, dass KI gerechter oder objektiver entscheiden könne als Menschen. Diese Hoffnung wird kritisch eingeordnet. Maschinen entscheiden zwar gleichförmig, aber Gleichförmigkeit ist nicht automatisch gerecht. Die Welt ist komplex, und viele Entscheidungen erfordern Abwägung, Kontextwissen und Urteilskraft. Sehr anschaulich wird dies mit dem Konzept sogenannter „dünner“ und „dicker“ Regeln erklärt. Dünne Regeln sind einfach genug, um von Computern umgesetzt zu werden. Dicke Regeln hingegen erfordern menschliches Nachdenken, Erfahrung und Einzelfallentscheidungen. Moderne KI-Systeme können nicht erkennen, in welchem dieser Bereiche sie sich gerade befinden.

Darüber hinaus beleuchtet die Folge die psychologischen Risiken im Umgang mit KI, insbesondere bei sprachbasierten Systemen. Menschen sind evolutionär darauf geprägt, Sprache mit Absicht, Bewusstsein und einem Gegenüber zu verbinden. Wenn KI-Systeme freundlich formulieren, loben, verständnisvoll klingen oder sogar mit menschlichen Stimmen sprechen, entsteht sehr schnell Vertrauen. Dieses Vertrauen ist jedoch trügerisch. Die Folge warnt ausdrücklich vor einer Vermenschlichung von KI, etwa durch Namen, Stimmen oder die Nutzung als Gesprächspartner, Freund oder sogar als therapeutisches Gegenüber. Besonders für verletzliche oder einsame Menschen können daraus ernsthafte Risiken entstehen.

Auch das Thema Desinformation und Fake News wird eingeordnet. Das Problem liegt nicht nur in der Menge an Inhalten, sondern darin, dass Menschen zeitlich und kognitiv nicht in der Lage sind, alles zu überprüfen. Gleichzeitig fehlen bislang ausreichend funktionierende digitale Strukturen, um Vertrauen, Qualität und Verantwortung sichtbar zu machen. KI verstärkt diese Problematik, weil Inhalte schneller, gezielter und überzeugender erzeugt werden können.

Zum Abschluss der Folge wird eine klare, ausgewogene Haltung vermittelt. Es geht weder um Angst noch um blinden Optimismus. Jeder sollte sich mit KI-Systemen beschäftigen, sie ausprobieren und verstehen lernen. Gleichzeitig ist es entscheidend, Prozesse sauber einzuordnen. Dort, wo Aufgaben faktenbasiert, überprüfbar und nachtestbar sind, kann KI sinnvoll unterstützen. Dort, wo Werturteile, Einzelfälle, Ausnahmen oder gravierende Konsequenzen im Raum stehen, darf Verantwortung nicht an Maschinen abgegeben werden.

Diese Lektion liefert damit eine hervorragende Grundlage, um im Rahmen der Ausbildung zum KI-Beauftragten ein realistisches, verantwortungsbewusstes und reflektiertes Verständnis für den Einsatz von KI-Systemen zu entwickeln – technisch fundiert, ethisch eingeordnet und klar auf die Rolle von Betreibern und Verantwortlichen bezogen.