Einer muss ein Auge darauf haben

Ob Antworten von ChatGPT, gefälschte Videos oder Pflegeroboter – Künstliche Intelligenz ist in aller Munde. Marcel Ritter spricht darüber, wie KI am RRZE künftig eingesetzt werden könnte und warum wir das Denken vorerst lieber noch nicht einstellen sollten.

Marcel, du arbeitest mit Künstlicher Intelligenz (KI), hast die erste KI-Instanz am RRZE mit auf den Weg gebracht und machst bei der Langen Nacht der Wissenschaften einen Vortrag und einen Workshop zum Thema. Wofür nutzt du KI in der Regel?

Marcel Ritter: Tatsächlich nutze ich KI persönlich hauptsächlich als Programmierassistent. Ich programmiere ja nur gelegentlich, aber dafür ist es echt eine schöne Unterstützung. Als ITler hat man schon immer sehr viel mit Suchmaschinen gearbeitet und hat sich da die Sachen zusammengeklaubt. Mit etwas KI-Unterstützung funktioniert das jetzt noch viel einfacher. Für Standardaufgaben funktionieren die verfügbaren Modelle echt gut – sowohl die kommerziellen als auch die freien. Ich glaube, das spart für einfache Skripte, die man eher im Systemadministrations- weniger im Programmierbereich braucht, sehr viel Zeit. Meist kann man den KI-generierten Code tatsächlich einfach direkt ausführen und oft tut er auch das, was man der KI vorgegeben hat. Das ist für mich zumindest schon mal ein sehr guter Einstieg.

Was wären andere Anwendungsszenarien hier am RRZE?

Was wir auch gerade ausprobieren mit der neuen Chat-Plattform, ist eine Anreicherung der bestehenden KI-Modelle mit unserem „gesammelten Wissen“, zum Beispiel in Form von unseren internen Webseiten. Das verbessert die Antwortqualität auf Fragen aus diesem Bereich teilweise deutlich. Erst am Wochenende habe ich „einen Klassiker“ ausprobiert und die KI gefragt, was ich tun muss, um mich krankzumelden. Während ohne die lokalen Zusatzinformationen eine KI nur allgemeine Aussagen treffen würde, bekommt man da ganz konkrete Antworten über Fristen, Ansprechpartner usw., selbst bei Spezialfällen wie: „Ich bin am Freitag krank, brauche ich eine Arbeitsunfähigkeitsbescheinigung, wenn ich am Montag wieder da bin?“ Wenn die KI die Inhalte unserer internen Webseite kennt, liefert sie tatsächlich, die richtige Antwort. Gleichzeitig liefert sie auch den Link auf die Quelle dieser Information. Wer also der KI nicht traut, der kann auch direkt die Quelle überprüfen – generell beim aktuellen Stand der KI keine ganz schlechte Idee.

Du siehst also im Moment noch die Einschränkungen, dass man sich erstens nicht vollends darauf verlassen kann und zweitens keine komplexen Aufgaben abgeben könnte?

Genau. Je komplizierter es ist, desto vorsichtiger wäre ich. Aber eigentlich gilt das für alle komplexeren Probleme: Wenn man in einem Team Software entwickelt, dann braucht es auch da jemanden, der ein Auge darauf hat, ob die einzelnen Bausteine, die das Team liefert, zusammenpassen und ob die gelieferten Bausteine am Ende ein sinnvolles Stück Software ergeben. Bis wir das Denken einstellen können, ist also leider noch ein bisschen hin.

Du hast vorhin gesagt, du hast einen Chatbot für unsere internen Seiten ausprobiert. Funktioniert das auch mit unserem Helpdesk?

Wenn wir jetzt nur in dieser Chat-Ecke, also textbasiert, reden, wäre eine naheliegende Anwendung sicher genau das: testen, wie gut eine heutige KI Antworten auf Helpdesk-Anfragen erstellen kann –gegebenenfalls basierend auf den bisherigen Antworten. Wenn das halbwegs funktionieren würde, dann hätte das durchaus markante Vorteile für unsere Kunden: denn eine KI antwortet auch nachts um drei Uhr oder am Wochenende. Und selbst wenn nur 80 Prozent der Antworten zielführend sind, bleiben am nächsten Morgen nur noch ein Fünftel der Tickets für die Kollegen übrig. Das setzt natürlich eine saubere Dokumentation von Standardfragen und passenden Antworten voraus, aber wenn es funktioniert, dann reduzieren sich die Anfragen auf Spezialfälle, die (mit heutiger Technik) nur ein Mensch lösen kann. Aber Ideen zur Anwendung von KI gibt es natürlich nicht nur in der IT, sondern auch in der Verwaltung. Aus meiner Sicht ist jetzt der Zeitpunkt, eine Spielwiese zu schaffen, auf der Interessierte mit ihren Daten experimentieren können, um zu sehen, ob dabei etwas Sinnvolles für ihren Anwendungsbereich herauskommt.

Und was gibt es sonst noch für Ideen?

Jede Menge. Zum Beispiel habe ich schon von Ideen aus der Personalabteilung gehört, die „Feststellung der Entgeltgruppe“ mit Hilfe von KI zu automatisieren. Aus meiner Sicht heute noch ein bisschen arg optimistisch – aber Beispiele gäbe es sicherlich reichlich und das ist für Probleme, die eine KI lösen können soll, schon eine Grundlage. Allerdings müssen solche Informationen auch idealerweise digital aufgearbeitet vorliegen und von möglichen Störfaktoren/Inkonsistenzen bereinigt sein – ein einfaches „Einkippen“ des Bestands wird hier (zumindest mit heutiger Technik) keine überzeugenden Ergebnisse hervorbringen können.

„Und die erledigt ihren Job eben auch bei 36 Grad, wenn uns der Kopf dampft. Warum sollte man das nicht nutzen?“
Marcel Ritter

Aber da geht es überall um die Unterstützung des vorhandenen Personals, weniger um Umstrukturierungen.

Zuerst wird es auf jeden Fall eine Unterstützung sein, weil im Moment das, was in der KI passiert, alles noch so ein bisschen „Blackbox“ ist, wie es der Informatiker sagt: Man schmeißt etwas rein, da kommt etwas raus. Manchmal ist es gut, manchmal ist es eher so mittel. Und ich würde behaupten, man muss jetzt erstmal gucken, in welchen Bereichen der KI-Einsatz funktioniert. Ich glaube fest daran, dass es viele Bereiche gibt, in denen es heute schon einen echten Mehrwert liefert und eine echte Entlastung geben kann. Und ich würde auch sagen, über die nächsten fünf bis zehn Jahre wird es sicherlich auch Einfluss auf Stellenbesetzungen und Ausrichtungen haben, weil es Aufgaben geben wird, die die KI einfacher, besser, schneller erledigt, wie unsereins. Und die erledigt ihren Job eben auch bei 36 Grad, wenn uns der Kopf dampft. Warum sollte man das nicht nutzen?

Stichwort Qualität: Vor einigen Wochen wurde öffentlich, dass mit Google-KI in wenigen Minuten gefälschte Videos erstellt werden können, die sehr schwer als solche zu entlarven sind. Wie stehst du dazu? Siehst du da Probleme, Gefahren in der Erstellung?

Die gibt es definitiv. Eigentlich muss man sagen, ist ja auch das keine neue Erkenntnis. Fälschungen gab es schon immer. Nur ist es jetzt für jedermann ohne große Kenntnisse möglich und bisher war es sehr aufwändig und man musste schon Experte sein, um brauchbare Ergebnisse zu produzieren. KI macht das einfacher. Ich glaube aber nicht, dass man dieses Problem technisch lösen kann. Das ist ein Thema, bei dem man eigentlich vom Kindesalter an Menschen darauf trainieren muss, nicht unreflektiert alles zu glauben. Wir tun alle gut daran, alles, was wir sehen, kritisch auf Plausibilität zu hinterfragen und das wird in Zukunft sicherlich schwieriger werden. Aber das ist ein Trend, der jetzt durch die KI natürlich nochmal einen ordentlichen Schub kriegt, der uns aber auch sonst ins Haus stand. Videobearbeitungstools haben auch schon vor vielen Jahren Funktionen gehabt, um Sachen einzufügen und zu löschen. Auf der anderen Seite gibt es auch KI-Systeme, die darauf spezialisiert sind, manipulierte Bilder oder Videos zu erkennen. Energetisch ist das natürlich ein Albtraum: Man verheizt jede Menge Energie in Form von KI-Systemen, um einerseits mit viel Aufwand Fake-Videos zu generieren, um diese mit noch mehr Energie zu erkennen.

Wenn man so ein Tool nutzt, um zu erkennen, ob das Video ein Fake ist, würde ich von dem, was ich jetzt über dich von KI erfahren habe, davon ausgehen, dass das auch nicht zu 100 Prozent sicher ist, dass die dann die richtige Lösung ausspuckt.

Das stimmt, aber wir müssen ja immer überlegen: Mit was vergleichen wir die Qualität der KI-Antworten? Nehmen wir an, ein Gutachter oder eine Gutachterin würde anstelle der KI das Video auf Anzeichen einer Fälschung untersuchen. Auch diese Menschen sind nicht unfehlbar. Im Zweifel sieht der zum Beispiel in einem Bereich, Farben, die zu homogen sind und schließt deshalb darauf, dass daran jemand manipuliert hat. Vielleicht sind es aber auch nur irgendwelche Kompressionsartefakte vom Videocodec. Jeder kennt diese Klötzchen, wenn er bei schlechtem Empfang YouTube-Videos schaut, da sieht die Qualität ja manchmal auch mäßig aus. Also von daher, unterscheidet sich die menschliche Komponente von der KI-Komponente gar nicht so sehr. Auch auf den Menschen, der ein Gutachten erstellt, kann man sich nicht zu 100 Prozent verlassen. Letztendlich läuft es darauf hinaus: Wenn die KI, sagen wir, 90 Prozent richtige Ergebnisse liefert und der Gutachter nur 70, dann bin ich im Mittel mit der KI immer noch besser dran, und das ist tatsächlich auch eine Diskussion.

„Ich würde mir wünschen, dass wir dadurch alle ein bisschen mehr Freiraum und Entlastung erhalten, aber die nicht komplett dafür verwenden, um sinnfreie TikTok-Videos zu drehen.“
Marcel Ritter

Letzte Frage: Was ist dein größter Wunsch für die Entwicklung, den Umgang mit KI in Zukunft?

Ich würde mir für die Menschen wünschen, dass sie die guten Sachen annehmen und die dadurch vielleicht frei werdenden „Hirnkapazitäten“ nutzen, um den richtigen Umgang mit der KI (und vielleicht auch ihren Mitmenschen) zu lernen. Ich glaube, die größte Gefahr im Moment ist, dass wir die Systeme nutzen, ohne sie zu verstehen, den Systemen einfach die Kontrolle überlassen und uns dann wundern, dass diese KI (ganz im Terminator-Stil) zu dem Schluss kommt, dass „diese ganze Menschheit“ keinen Mehrwert darstellt und „weg muss“. Ich würde mir wünschen, dass wir dadurch alle ein bisschen mehr Freiraum und Entlastung erhalten, aber die nicht komplett dafür verwenden, um sinnfreie TikTok-Videos zu drehen. Vielleicht schaffen wir es, zumindest einen Teil davon, dafür zu verwenden, die Welt um uns herum zu reflektieren und zu verbessern, damit sie nicht auseinanderfällt.

Ein schönes Schlusswort. Dankeschön!

 


Das Gespräch führte Corinna Russow