„Eigentlich ist die Künstliche Intelligenz ziemlich dumm“: „Comedy-Hacker“ Tobias Schrödel referiert beim Volksbank-Neujahrsempfang
Werbung

(Bückeburg) Das Thema Künstliche Intelligenz (KI) treibt die Menschen verschiedenster Branchen und Hintergründe herum. So stellte auch schon Volksbank-Vorstand Markus Strahler in seiner Rede im Rahmen des Neujahrsempfangs der Volksbank in Schaumburg und Nienburg, der Kreishandwerkerschaft und dem Steuerbeaterverband das aktuelle Dilemma dar: „Sie erleichtert viele Bereiche unseres Lebens, stellt den gesamten Finanzsektor aber auch vor große Herausforderungen“. Passenderweise hatten die Gastgeber an diesem Abend den IT-Experten und „Comedy-Hacker“ Tobias Schrödel geladen, der in seinem spannenden Vortrag dieses Dilemma aufzuschlüsseln versuchte.

„Das ist das eigentliche Problem mit der KI: wir wissen nicht mehr, was echt ist und was nicht“, konstatiert IT-Experte Tobias Schrödel.

Dabei stellte er die rhetorische Frage vorab: „Warum ein Pferd keine Federn hat“. Mit diesem einfachen Konstukt erklärte Schrödel, der seit mehr als einem Jahrzehnt unter anderem für den Stern als Experte im Technik-Bereich fungiert, wie die KI funktioniert: Mit dem simplen Auftrag „Zeige mir ein Bild von einem Pferd mit Federn“ verdeutlicht Schrödel, das die KI anhand von Daten und Bildern trainiert wird – sie hat das gesamte Internet bis einschließlich 2022 durchforstet und auch Muster und Wahrscheinlichkeiten überprüft. Da es jedoch weder Bilder von Pferden mit Federn gibt, noch kaum anderweitige Quellen, in denen etwa das Wort Pferd im Kontext zu Federn auftaucht, kann die KI auch kein derartiges Bild erschaffen. Aber: Sie kann lernen. „Wenn man sie korrigiert, macht sie jeden Fehler nur einmal. Daher heißt es: Sei genau, gebe Kontext – umso genauer wird das Ergebnis“, erläutert Schrödel. „Es ist wie bei dem Sams: Du musst genau wünschen“.

„Eigentlich ist die KI strohdumm – sie sagt Dinge lediglich voraus und manchmal lügt sie sogar“, weiß „Comedy-Hacker“ Tobias Schrödel.

Bei der Arbeit mit dem Sprachmodell ChatGTP kommt Schrödel zum Schluss: „Eigentlich ist die KI strohdumm – sie sagt Dinge lediglich voraus und manchmal lügt sie sogar“. Dabei wird letzteres eigentlich als „Halluzinieren“ bezeichnet und die KI erdachte Dinge als Fakten ausgibt. „Sie ist ein Sprachkünstler, aber keine Suchmaschine. Daher müssen ihre Angaben immer gründlich überprüft werden“, warnt Schrödel. Doch auch mit welchen Daten und Informationen die KI „gefüttert“ werde, habe Einfluss auf ihr Verhalten: Eine KI, die mit indischen Daten trainiert wird, gibt andere Ergebnisse aus als eine, die anhand von europäischen Daten lernt. Dabei hält die KI erwartungsgemäß wenig von Ethik, sondern setzt auf Muster und Wahrscheinlichkeiten – und erliegt selber Klischees, Idealvorstellungen und Verschwörungstheorien. Hier bergen sich auch große Gefahren: Wird eine KI etwa mit rechtsradikalen Inhalten trainiert, ist es nicht verwunderlich, dass diese rassistische Ergebnisse liefert.

Werbung

Mit wenigen Handgriffen und Klicks schafft es Schrödel kinderleicht, die „Identität“ von Markus Strahler (re.) im Internet anzunehmen und als Deepfake zu fungieren.

Richtig angewendet hingegen kann KI in kürzester Zeit Informationen zutage bringen, die Staunen lassen: Über die Auswertung von Mustern erlangt sie schnell zu Informationen, die Rückschlüsse auf das private Leben einzelner Personen zulassen – etwa dem Beziehungsstatus, dem Einkommen, dem Wohnort und vieles mehr. „Man hört oft, die Konzerne wie facebook und Co. verkaufen eure Daten, aber die tun einen Teufel. Sie nutzen aber sehr wohl ihre Daten und die Rückschlüsse daraus, um für Werbekunden attraktiver zu werden“. Mit personalisierter Werbung, besseren Verlaufsmöglichkeiten für Werbekunden verdienen diese Konzerne bares Geld. Doch so gefährlich diese ungewollte Transparenz durch die KI sein kann, zu nützlich können ihre Fähigkeiten etwa im medizinischen oder beraterischen Bereich sein. „Müssen jetzt alle um ihre Jobs fürchten? Nein, aber ihre Arbeit könnte sich drastisch verändern“, weiß Schrödel. Glücklicherweise prognostiziert auch er: „Der Bedarf nach menschlicher Beratung wird weiter bestehen bleiben“.

Markus Strahler dankt im Namen der Veranstalter Tobias Schrödel für den spannenden und interessanten Vortrag zur Künstlichen Intelligenz.

Besondere Gefahren bergen aber die sogeannten Deepfakes und das „Social Engieneering“, wie Schrödel erschreckend einfach und anschaulich dem Publikum präsentiert: Anhand einer kurzen Tonaufnahme der Rede Markus Strahlers und einem kopierten Bild aus dem Internet, verwandelt sich Schrödel selbst im Videochat mit wenigen Klicks in das Vorstandsmitglied – samt animiertem Gesicht, Mimik und der gestohlenen Tonalität Strahlers. „Das ist das eigentliche Problem mit der KI: wir wissen nicht mehr, was echt ist und was nicht. Fake News werden in der Folge erblühen, der Videobeweis ist passé“, stellt Schrödel fest.

Vor allen Dingen in Unternehmen sei es daher wichtig zu überlegen, mit welchen Informationen eine KI gefüttert wird – sie wird diese nämlich ohne schlechtes Gewissen beim nächsten, der fragt, ausplaudern. „Mein Fazit: Schauen Sie, mit welchen Daten sie die KI trainieren und denken Sie gründlich nach bei der Nutzung“, gibt Schrödel den Anwesenden zum Ende seines Vortrages mit auf den Weg. (Text & Foto: nh)

Werbung