Herr Bendel, Sie bauen an der Fachhochschule Nordwestschweiz Chatbots, Sprachassistenten oder Prototypen von Haushaltsrobotern. Was ist Ihr aktuelles Projekt?
Wir haben seit Februar einen Rätoromanisch-Chatbot auf der Basis von GPT-3 entwickelt, dem Sprachmodell, das hinter Chat-GPT steckt. Vor kurzem haben wir auf GPT-4 gewechselt. Der Bot lernt gerade Vallader, eines der fünf Idiome des Rätoromanischen. Er kann auch sprechen, damit er Kinder beim Lernen von Vallader bestmöglich unterstützen kann. So wollen wir einen Beitrag leisten, diese bedrohte Sprache zu bewahren.
Auf welche Schwierigkeiten stossen Sie dabei?
Um unseren Chatbot zu trainieren, brauchen wir geschriebene Texte auf Vallader. Das ist eine Herausforderung: Es gibt wenig Auswahl. Jeden Satz, den wir bekommen können, stecken wir in das Programm. Zum Glück hat man uns ein paar Kinderbücher zur Verfügung gestellt.
Wenn die KI Rätoromanisch lernen kann, was kann sie noch?
Sie kann alles lernen, von dem es möglichst viele schriftliche Quellen gibt. GPT-3 und auch der Vorgänger GPT-2 haben über Jahre riesige Textmengen ausgewertet und dadurch ein Alltagsund Weltwissen entwickelt. Schon heute kann ich mich mit einem Chatbot ganz normal unterhalten. Doch die Programme lassen sich noch weiter ausbilden: Sie können Bilder und Klänge erkennen und selbst herstellen. Man kann in die Modelle im Prinzip auch Geruchsdaten packen, damit Sicherheitsroboter Rauch oder Gasgeruch wahrnehmen können. Sie sehen: Die Fähigkeiten der KI vergrössern sich enorm. Es gibt kein Halten mehr.
«Wie nebenbei vermitteln nicht nur die verarbeiteten Texte, sondern auch die Rückmeldungen der Zuständigen der KI ein Wertesystem oder eine Art Moralvorstellung.»
Welche Rolle spielt das menschliche Feedback beim Lernprozess?
Es spielt eine grosse Rolle. Denn das Computersystem wird erst einmal allein gelassen. Es wird zum Abbild der Texte, die es verarbeitet hat. Erst mit der Zeit geben Menschen – oft Billiglohnarbeiter – der KI Feedback zum Gelernten und zu dessen korrekter Verwendung. Und wenn Endnutzer die Interaktion mit der KI bewerten, lernt diese auch dazu.
Lernt die KI dabei auch, was angebracht ist und was nicht?
Sie lernt es mehr oder weniger. Dabei gibt es ein Problem: Wie nebenbei vermitteln nicht nur die verarbeiteten Texte, sondern auch die Rückmeldungen der Zuständigen der KI ein Wertesystem oder eine Art Moralvorstellung. Denn sie bewerten Äusserungen der KI aufgrund ihres eigenen persönlichen und kulturellen Hintergrunds., sondern voreingenommen.
Was heisst das konkret?
Studien haben bereits gezeigt, dass lernende Systeme sexistische oder rassistische Vorurteile reproduzieren und durch menschliches Feedback teilweise sogar verschärfen. Deshalb können sich die KI-Programme diskriminierend verhalten – aber die Nutzer erwarten das nicht. Diese Verzerrungen und Vorurteile bezeichnen wir als Bias. Was genau zu diesem Phänomen führt und wie man es verhindern kann, ist Gegenstand der Forschung. Wir haben dazu bereits eine Arbeit publiziert. Und eine Arbeitsgruppe aus Bern beteiligt sich an einer Studie, die den Bias von KI untersucht, die in Personalabteilungen zum Einsatz kommt.
Künstliche Intelligenz steckt auch in vielen Robotern. Wie wirkt sich das aus?
Mit dieser Frage beschäftige ich mich im Moment. Wenn KI in Industrie oder Servicerobotern verwendet wird, kann eine Verbindung zwischen der virtuellen und der realen Welt entstehen. Durch die KI bekommen Roboter eine neue Möglichkeit von Wahrnehmung. Das verändert die Robotik ganz dramatisch.
Siri, Alexa oder Chatbots auf Websites begegnen einem mittlerweile fast täglich. Dabei handelt es sich um Systeme, die Sprache erkennen und wiedergeben können. Diese Spracherkennung wird erst durch die Unterstützung von Sprachmodellen ermöglicht. Dazu gehört neben anderen auch GPT von Open AI. Auf GPT basiert auch Chat-GPT, der Laien und Experten in Erstaunen versetzt.
Bevor Chat-GPT Fragen beantworten, Aufträge erledigen oder Gedichte schreiben konnte, musste GPT erst die menschliche Sprache lernen. Dafür hat das System eine riesige Menge an Text analysiert: Fachliteratur, Belletristik und Alltagssprache auf Social Media. So ein Sprachmodell lässt sich anschliessend für einen bestimmten Einsatzbereich trainieren.
Wie meinen Sie das?
Roboter mit KI müssen nicht mehr trainiert oder programmiert werden wie bis anhin. Der Serviceroboter bewegt sich selbständig durch die Umgebung und nimmt diese durch Kameras und Sensoren wahr. Was er registriert, verarbeitet die KI, und dadurch bekommt er eine Art funktionales Bewusstsein für die Situation. Nun kann ihn ein Benutzer ansprechen und ihn anweisen, etwas zu tun.
Birgt das nicht Gefahren?
Natürlich. Auch Roboter-KI kann voreingenommen oder fehlerhaft entscheiden. Aber die Gefahr ist grundlegender: nicht bei der KI, sondern bei den Konzernen, die dahinter stehen. Microsoft, Alphabet und Meta dominieren den ganzen Bereich. Sie haben viel Rechenkapazität, treiben die Entwicklung nach ihren Vorstellungen voran und werden dabei kaum kontrolliert.
Was bedeutet das für uns?
Dass wir einer Blackbox gegenüberstehen. Die Frage ist: Was steckt alles in den Sprachmodellen und Anwendungen? Ich habe vorhin den Bias erwähnt: Persönliche und kulturelle Vorstellungen prallen aufeinander und Vorurteile werden reproduziert. Dazu kommen explizite Vorgaben.
Wie wirkt sich das aus?
Wenn man Programme wie Chat-GPT oder den Bildgenerator DALL-E benutzt, werden bestimmte Befehle verweigert. Das liegt daran, dass in der Entwicklung gewisse Handlungen, Ausdrücke oder Darstellungen ausgeschlossen wurden. Für die Entwickler sind die Ausschlüsse vielleicht selbstverständlich, für die Nutzer vielleicht nicht
Können Sie ein Beispiel geben?
Kürzlich tauschte ich mich mit dem KI-Experten eines Unternehmens aus, das Sexroboter herstellt. Er klagte darüber, dass das Sprachmodell zu prüde sei für ihr Produkt. GPT-3 und GPT-4 taugten nicht für die Art Gespräche, die sich Unternehmen und Kunden vorstellen. Nun müssen sie die KI aufwendig dafür trainieren.
Das scheint ein extremer Fall zu sein.
Natürlich. Aber wenn Sie zum Beispiel auf Bildplattformen Fotomaterial suchen, werden häufig ganz alltägliche Bilder von Frauen als «adult content» oder «nur für Erwachsene» markiert. Dahinter stehen Moralvorstellungen, die sich nicht mit unseren Werten decken, nicht einmal mit amerikanischen. Mit Hilfe der KI werden Inhalte als unerwünscht deklariert, auch wenn sie es nicht sind. Und die Bildgeneratoren setzen diese Prüderie fort.
Das ist ein Beispiel für die unterschiedliche Bewertung eines Sachverhaltes. Macht denn die KI auch schlicht Fehler?
Ja, das ist eine weitere Gefahr, die ich sehe. Wir sprechen davon, dass die KI halluziniert. Sie erfindet Fakten. Das kann bei jedem Thema passieren. Um es zu testen, habe ich Chat-GPT mehrmals zu meiner Person befragt. Die Angaben zu meiner beruflichen Tätigkeit waren jedoch nur zur Hälfte richtig.
Weshalb ist die Trefferquote so tief?
Weil das Programm mit Wahrscheinlichkeiten arbeitet. Konkret heisst das: Chat-GPT weiss, dass ich ein Professor bin, der sich in der Schweiz mit Informatik und Wirtschaftsinformatik beschäftigt. Die Wahrscheinlichkeit ist also gross, dass ich auch Mitglied der Schweizer Informatikgesellschaft bin. Deshalb erklärte es mich zu einem Mitglied.
Und: Sind Sie es?
Nein, Chat-GPT hat halluziniert. Und nicht nur das: Es hat sogar die Quelle für seine Behauptung halluziniert und eine Webadresse angegeben, die meine Mitgliedschaft belegen soll. Die vordere Hälfte der Adresse stimmt, aber der Pfad hinten, der zu meinem angeblichen Profil führen soll, ist einfach erfunden. Der Link führt ins Leere. Als Gegenprobe fragte eine andere Person Chat-GPT, ob es sicher sei, dass Oliver Bendel Mitglied dieses Verbands sei. Die KI antwortete: «Sicher bin ich nicht, aber die Wahrscheinlichkeit ist hoch.» Diese Antwort fand ich sehr interessant.
Der KI ist nicht blind zu trauen — was heisst das für die Zukunft?
Dass wir sie stärker überwachen sollten, als es heute geschieht. Aber ich glaube nicht, dass wir uns zu grosse Sorgen machen müssen: Die KI wird nicht die Weltherrschaft übernehmen. (lacht)
Das vielleicht nicht. Doch immer mehr Unternehmen und Behörden setzen auf KI. Dort fällt sie Entscheide, die sich auf das Leben Einzelner auswirken können.
Das ist richtig. Die Lebenswelt des Einzelnen wird davon beeinflusst, manchmal auf unsägliche Weise. Es gibt bereits Unternehmen, die ihre Personalabteilungen teilweise auflösen und durch KI ersetzen. Diese kostet weniger als Angestellte, und eigentlich würde das Programm den besseren Job machen: Man erwartet von ihm Entscheide, die schnell und mit Hilfe vieler Kriterien breit abgestützt getroffen werden. Ausserdem soll es eigentlich objektiv sein. Doch wie wir gesehen haben, hat die KI zuweilen Vorurteile. Kann sie dann noch Bewerbungsschreiben fair beurteilen?
Wo ist der Einsatz der KI sinnvoll?
An vielen Orten. Sie kann grosse Datenmengen analysieren und zusammenfassen. Sie kann Fahrzeuge steuern oder Produktionsabläufe in Fabriken überwachen. Weil sie so viele Fähigkeiten hat, ist es verlockend, die KI überall einzusetzen, im Sozialoder Gesundheitswesen etwa. Doch es ist problematisch, wenn ein KI-System alleine entscheidet. Ich fordere, dass immer ein Mensch das letzte Wort haben muss. Die KI wird sehr viele falsche Entscheide treffen aufgrund der Schwächen, die ich vorhin angesprochen habe. Das kann im schlimmsten Fall ein Leben zerstören.
«Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren.»
Lässt sich die Entwicklung noch beeinflussen?
Ja, es gibt Wege. Ich meine damit aber nicht das Moratorium, das Exponenten der Tech-Branche fordern, um die Entwicklung der KI zu bremsen. Gesellschaft und Politik müssen sich jetzt dafür einsetzen, dass nicht nur ein paar wenige Konzerne Sprachmodelle und KI-Programme herstellen. Es braucht Konkurrenz, Auswahl und eine Regulierung, die menschliche Kontrolle von Ergebnissen der KI vorschreibt.
Regulierungen nützen oft wenig, wie das Beispiel Twitter zeigt.
Grosse Plattformen sind verpflichtet, schädliche Inhalte zu entfernen. Doch das ist schwierig zu erfüllen, wenn man wie Twitter vier Fünftel der Angestellten entlässt. Dennoch kann sich Twitter erlauben, die Regulierungen zu unterlaufen – weil es kaum Konkurrenz gibt. Die User bleiben trotzdem auf der Plattform. Wenn es aber einen richtigen KI-Markt gäbe, könnten die Nutzer das beste Programm mit den wenigsten Vorurteilen und der fairsten menschlichen Kontrolle wählen. Darauf sollten wir hinarbeiten. Es darf nicht dazu kommen, dass vollautomatisch Entscheidungen zum Nachteil von bestimmten Gruppen gefällt werden. Das wäre fatal.
Wie gross wird die Erschütterung sein, die Sie andeuten?
Die Digitalisierung und der Einsatz von KI werden einen digitalen Graben aufreissen, der durch die ganze Welt gehen wird. Länder und Unternehmen werden den Anschluss verlieren, weil sie nicht über die nötige Rechenpower und die Möglichkeiten zur Digitalisierung verfügen. Das darf man nicht klein reden. Natürlich kann man Leistungen dazukaufen – aber das muss man sich erst einmal leisten können.
Ist die Angst berechtigt, dass uns die KI arbeitslos macht?
Ja und nein. Alles, was wir in Zukunft tun werden, wird mit Digitalisierung zu tun haben. Die KI wird viele Jobs übernehmen. Neue Berufe werden sich auf die KI beziehen. Aber damit kann oder will nicht jeder arbeiten.
Verlieren wir am Ende doch gegen die KI?
Nicht unbedingt. Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.
Aber?
Es gibt noch andere Ansätze unter Forschern und Entwicklern. Sie vertrauen auf die Lernfähigkeit der KI und füttern sie einfach mit Texten wie Benutzeranleitungen oder der Allgemeinen Erklärung der Menschenrechte der Uno von 1948. Damit soll das Programm selbständig ethisch verträgliches Verhalten trainieren. Ich sehe das skeptisch. Manche meiner Kollegen sind geradezu überzeugt, dass Roboter und KI-Systeme die besseren Menschen sind. Dieser Meinung bin ich nicht.
Prof. Dr. Oliver Bendel, 55, ist Informations- und Maschinenethiker. Er lehrt und forscht an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz. Neben Fachbüchern, unter anderem zur Ethik in Robotik und künstlicher Intelligenz, veröffentlicht er Gedichtbände und Romane.